ES2965007T3 - Método de funcionamiento de un dispositivo de visualización que se puede llevar en la cabeza en un automóvil, dispositivo de control y dispositivo de visualización que se puede llevar en la cabeza - Google Patents
Método de funcionamiento de un dispositivo de visualización que se puede llevar en la cabeza en un automóvil, dispositivo de control y dispositivo de visualización que se puede llevar en la cabeza Download PDFInfo
- Publication number
- ES2965007T3 ES2965007T3 ES20758132T ES20758132T ES2965007T3 ES 2965007 T3 ES2965007 T3 ES 2965007T3 ES 20758132 T ES20758132 T ES 20758132T ES 20758132 T ES20758132 T ES 20758132T ES 2965007 T3 ES2965007 T3 ES 2965007T3
- Authority
- ES
- Spain
- Prior art keywords
- control device
- display device
- image
- head
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 239000011521 glass Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/29—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area inside the vehicle, e.g. for viewing passengers or cargo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/304—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8006—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Controls And Circuits For Display Device (AREA)
- Instrument Panels (AREA)
Abstract
La invención se refiere a un método para operar un aparato de visualización montado en la cabeza (14) en el interior de un vehículo de motor (10). Un dispositivo de control (12) recibe una señal de sensor de un dispositivo sensor (18), describiendo la señal de sensor recibida (S1) al menos una imagen de la situación actual del interior del vehículo (10). El dispositivo sensor (18) genera una señal de superposición (S2) que describe una superposición de al menos una imagen de la situación interior actual (S4) mientras se emite el contenido de salida predefinido y transmite la señal de superposición generada a un elemento de visualización. del aparato de visualización (14, S3) y por lo tanto hace que el aparato de visualización (14) superponga (S4) la al menos una imagen de la situación interior actual mientras se emite el contenido de salida predefinido. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Método de funcionamiento de un dispositivo de visualización que se puede llevar en la cabeza en un automóvil, dispositivo de control y dispositivo de visualización que se puede llevar en la cabeza
[0001] La invención se refiere a un método para hacer funcionar un dispositivo de visualización que se puede llevar en la cabeza en un automóvil.
[0002] Los dispositivos de salida que se llevan en la cabeza son cada vez más importantes para el entretenimiento durante el trayecto a medida que los automóviles de conducción autónoma continúan desarrollándose, al igual que el creciente desarrollo actual de los servicios de transporte. Especialmente en el caso de los vehículos con conductor de compañías de alquiler(ride-hailing),por ejemplo, el uso de entretenimiento inmersivo a bordo se enfrenta al desafío de que el usuario ya no puede controlar la situación en el vehículo si, por ejemplo, lleva gafas de realidad virtual. Lo que puede no ser un problema durante el entretenimiento normal de los pasajeros, bien puede convertirse en un problema en un vehículo con conductor de compañías de alquiler, por ejemplo, donde el usuario puede querer tener una visión general más clara de la situación para sentirse más cómodo y seguro.
[0003] Por ejemplo, mientras está inmerso en la realidad virtual ("RV") en un vehículo de este tipo, el usuario no tiene una visión general de lo que están haciendo el conductor u otros pasajeros, que normalmente son personas desconocidas. Si, por ejemplo, el conductor desconocido quiere hablar con el pasajero y el conductor lo está mirando, no podrá verlo. Si el conductor le habla, solo podrá percibirlo si el dispositivo de visualización le deja los oídos libres y el dispositivo de visualización no tiene auriculares para poder disfrutar del sonido de un programa de entretenimiento. Si, por ejemplo, no puede percibir acústicamente al conductor desconocido, la única opción que le queda al conductor es darle una palmada en el hombro al usuario del dispositivo de visualización o tocarle el brazo, lo que no solo puede resultar muy desagradable para el usuario del dispositivo de visualización, sino que el usuario del dispositivo de visualización puede asustarse mucho.
[0004] La DE 102014 010 309 A1 describe un dispositivo que tiene una unidad de visualización que se va a llevar en la cabeza del usuario, que está diseñada para proteger de manera hermética a la luz los ojos del usuario ante un entorno y para mostrar estereoscópicamente un objeto virtual dispuesto en un espacio virtual frente a los ojos.
[0005] La DE 10 2009 049 073 A1 describe un método para mostrar información virtual en una vista de un entorno real.
[0006] La DE 102014213285 A1 describe un método para visualizar contenidos en gafas de datos.
[0007] La DE 10 2015 003 882 A1 describe un método para hacer funcionar unas gafas de realidad virtual dispuestas en un automóvil.
[0008] Una posibilidad de solucionar el problema mencionado anteriormente es prescindir de los auriculares, por lo que, sin embargo, el usuario no dispone de sonido para el programa de entretenimiento virtual o parcialmente virtual, razón por la cual, por ejemplo, la realidad virtual o la realidad aumentada no son muy inmersivas.
[0009] Un objeto subyacente de la invención es aumentar la sensación de seguridad y bienestar en el automóvil al utilizar una oferta de entretenimiento.
[0010] El objeto se soluciona mediante el método según la invención y los dispositivos según la invención. Las reivindicaciones subordinadas proporcionan un desarrollo adicional ventajoso.
[0011] La invención se basa en la idea de superponer, además del contenido de salida real de una oferta de entretenimiento, una imagen (y/o una serie de imágenes capturadas) del interior del automóvil capturada por uno o varios sensores, es decir, además de la emisión del contenido principal, cuando se utiliza un dispositivo de visualización que se puede llevar en la cabeza en el automóvil. En particular, la imagen o la serie de imágenes es una imagen actual o una serie de imágenes actuales. Las desventajas mencionadas anteriormente se reducen significativamente o incluso se eliminan. Un usuario de un dispositivo de visualización que se puede llevar en la cabeza se siente seguro porque, a pesar de estar inmerso, por ejemplo, en la realidad virtual, tiene una visión general del interior del automóvil. Se pueden prevenir eficazmente situaciones desagradables en las que, por ejemplo, una persona desconocida lo toca sin previo aviso.
[0012] El método según la invención para hacer funcionar el dispositivo de visualización, por ejemplo, unas gafas de realidad aumentada, unas gafas de realidad mixta o gafas de realidad virtual, mientras el dispositivo de visualización que se puede llevar en la cabeza se encuentra en un interior de un automóvil es correspondientemente un método para hacer funcionar el dispositivo de visualización que se puede llevar en la cabeza en el interior del automóvil. El dispositivo de visualización está configurado para emitir un contenido de salida específico que describe una oferta de entretenimiento, por ejemplo, un juego de ordenador o una película. El contenido de salida se puede predeterminar, por ejemplo, seleccionando el usuario el contenido de salida y, por lo tanto, la oferta de entretenimiento o predeterminado el contenido de salida mediante una configuración estándar.
[0013] El método se lleva a cabo mediante un dispositivo de control, donde se entiende que el dispositivo de control es un dispositivo o un componente de dispositivo para recibir y evaluar señales, así como para generar señales de control. Por consiguiente, se puede hace referencia al método como un método implementado por ordenador para hacer funcionar el dispositivo de visualización que se puede llevar en la cabeza. El dispositivo de control puede estar configurado, por ejemplo, como chip de control o aparato de control. El dispositivo de control puede ser preferiblemente un dispositivo de control del automóvil o del dispositivo de visualización que se puede llevar en la cabeza.
[0014] El dispositivo de control recibe una señal de sensor de un dispositivo de sensor, donde la señal de sensor recibida describe al menos una imagen de la situación actual del interior del automóvil. Por dispositivo de sensor se entiende un dispositivo o un grupo de dispositivos para detectar propiedades del entorno, en particular para detectar una propiedad del interior, por lo que el dispositivo de sensor puede comprender preferentemente, por ejemplo, al menos una cámara del interior del automóvil y/o, por ejemplo, al menos un sensor de infrarrojos. La al menos una imagen puede ser, por ejemplo, una foto, una imagen térmica o una serie de imágenes, por ejemplo, una película de lo que sucede en el interior.
[0015] El dispositivo de control genera una señal de superposición, que describe una superposición de la al menos una imagen de la situación actual del interior durante toda la emisión del contenido de salida predeterminado, y transmite la señal de superposición generada a un elemento de visualización del dispositivo de visualización y, por lo tanto, hace que el dispositivo de visualización superponga la al menos una imagen de la situación actual del interior mientras emite el contenido de salida predeterminado. Un elemento de visualización es un componente o grupo de componentes o componente del dispositivo para mostrar contenido de imagen, por ejemplo, una pantalla. En otras palabras, el dispositivo de control hace que el dispositivo de visualización emita, además del contenido de salida, por ejemplo, además de una realidad virtual, la al menos una imagen del interior del automóvil, donde la al menos una imagen del interior se emite preferiblemente de manera simultánea con el contenido de salida, es decir, la al menos una imagen del interior solo se superpone en un área parcial del campo de visión de un usuario del dispositivo de visualización.
[0016] Según la invención, el dispositivo de control solo puede generar o transmitir la señal de superposición si el dispositivo de control detecta que un ocupante está hablando y/o si el dispositivo de control detecta que el automóvil se acerca a un destino del automóvil, por ejemplo, si una distancia al destino cae por debajo de un valor umbral predeterminado o si se alcanzan coordenadas geográficas predeterminadas. El usuario solo es “sacado" de su realidad virtual si existe la probabilidad de que el conductor quiera hablar con él pronto, por ejemplo, sobre el pago del viaje, o que el usuario probablemente tenga que recoger sus cosas ahora porque pronto llegará a su destino.
[0017] Se obtienen las ventajas descritas anteriormente.
[0018] Opcionalmente, el dispositivo de control también puede proporcionar el contenido de salida predeterminado. Esto puede ser deseable preferiblemente si el dispositivo de control es un dispositivo de control del automóvil y el contenido de salida lo proporciona el automóvil, por ejemplo, como un tipo de servicio de entretenimiento. Sin embargo, el dispositivo de control también puede proporcionar opcionalmente el contenido de salida predeterminado si el dispositivo de control es un dispositivo de control del dispositivo de visualización.
[0019] Una forma de realización del método según la invención puede prever que la señal de superposición generada describa la superposición de la al menos una imagen de la situación actual del interior solo en un área parcial de un campo de visión del usuario del dispositivo de visualización, preferiblemente en un campo de visión primario o central. Esto permite al usuario comprender inmediatamente la situación del interior.
[0020] Opcionalmente, la señal de sensor recibida puede describir al menos una imagen de cámara de una cámara del interior del dispositivo de sensor. El usuario también puede reconocer microgestos y expresiones faciales de otros ocupantes en esta imagen superpuesta.
[0021] Preferiblemente, el dispositivo de control puede recibir la señal de sensor de un dispositivo de sensor del automóvil. Esto significa que el interior se puede grabar desde diferentes perspectivas y el método también es compatible con dispositivos de visualización que se pueden llevar en la cabeza que no tienen ningún sensor correspondiente.
[0022] El contenido de salida predeterminado puede describir, por ejemplo, una realidad virtual, en particular una realidad virtual de 360 grados. Este garantiza que el usuario del dispositivo de visualización disfrute de una experiencia especialmente inmersiva mientras conduce.
[0023] Según una forma de realización preferida del método según la invención, el dispositivo de control solo puede generar o transmitir la señal de superposición si el dispositivo de control detecta que está hablando un ocupante diferente del usuario del dispositivo de visualización. Para ello se pueden montar, por ejemplo, micrófonos direccionales en el automóvil y acoplarlos al dispositivo de control.
[0024] Preferiblemente, la generación o transmisión de la señal de superposición también puede tener lugar dependiendo del volumen de la voz detectada. De este modo, el usuario obtiene una visión general del interior precisamente cuando existe una alta probabilidad de que la otra persona quiera decirle algo al usuario del dispositivo de visualización. Sin embargo, el usuario todavía puede tener el sonido del contenido de salida en sus oídos, pero luego puede reconocer por la imagen superpuesta que se le está hablando en ese momento y puede decidir si quiere quitarse las gafas por un momento. Dado que lo que el otro ocupante está diciendo actualmente puede no llegar al usuario del dispositivo de visualización en esta forma de realización del método, no se altera la experiencia de audio.
[0025] Como variante, el dispositivo de control solo puede generar la señal de superposición o solo puede transmitirla al elemento de visualización del dispositivo de visualización si el dispositivo de control recibe una señal de activación de un automóvil, por ejemplo, una señal que describe que las luces de emergencia se han encendido. Alternativamente, la al menos una imagen de la situación del interior se puede superponer si el dispositivo de control recibe una señal de desactivación del automóvil.
[0026] Preferiblemente, el dispositivo de control puede recibir, además, una señal de sensor del dispositivo de sensor, que describe la al menos una imagen de un entorno externo del automóvil, que se puede recibir preferiblemente desde una cámara externa. La señal de superposición generada por el dispositivo de control puede entonces describir al menos una imagen del entorno exterior, o el dispositivo de control puede generar otra señal de superposición que describe la al menos una imagen del entorno exterior. La imagen del entorno externo se puede superponer entonces, por ejemplo, en un lugar diferente al de la imagen del interior. El usuario del dispositivo de visualización también tiene una visión general del entorno del automóvil. Para ello, el dispositivo de sensor puede tener, por ejemplo, una cámara dispuesta sobre un revestimiento exterior o sobre el techo del automóvil.
[0027] Según otra forma de realización, el dispositivo de control puede generar una señal de imagen cartográfica, que puede describir una imagen de un mapa de navegación con, por ejemplo, la posición actual del automóvil. Esta imagen puede ser mostrada por el dispositivo de visualización además de la imagen de la situación del interior, para lo cual el dispositivo de control puede transmitir la señal de superposición de mapas generada al elemento de visualización del dispositivo de visualización.
[0028] Alternativamente, la señal de imagen cartográfica puede emitirse, por ejemplo, solo en un periodo de tiempo predeterminado, por ejemplo, solo al principio y/o solo al final del traytecto, o solo en un periodo de tiempo predeterminado después del inicio del trayecto y antes del final del mismo. La imagen del interior solo podrá mostrarse si la imagen del mapa de navegación está superpuesta.
[0029] El objeto mencionado anteriormente se logra mediante un dispositivo de control, que está configurado para llevar a cabo una o más formas de realización del método según la invención. El dispositivo de control puede tener preferiblemente un dispositivo procesador y/o una memoria de datos. Por dispositivo procesador se entiende un componente de dispositivo para el procesamiento electrónico de datos, que tiene al menos un microcontrolador y/o un microprocesador. Preferiblemente, en la memoria de datos opcional se puede almacenar un código de programa para llevar a cabo el método según la invención. El código de programa puede estar diseñado entonces, cuando lo ejecuta el dispositivo procesador, para hacer que el dispositivo de control lleve a cabo una de las formas de realización descritas anteriormente del método según la invención. El dispositivo de control puede estar configurado preferiblemente como chip de control, aparato de control o programa de usuario ("app").
[0030] El objeto mencionado anteriormente se logra mediante un automóvil que tiene una forma de realización del dispositivo de control según la invención. El automóvil puede estar diseñado preferiblemente como vehículo de motor, en particular como turismo o camión, o como autobús de pasajeros o motocicleta.
[0031] El objeto mencionado anteriormente se logra mediante un dispositivo de visualización que se puede llevar en la cabeza, que tiene una forma de realización del dispositivo de control según la invención. El dispositivo de visualización que se puede llevar en la cabeza, el denominado "Head-Mounted-Display" en inglés, es un dispositivo de salida visual que se puede llevar en la cabeza. Está diseñado y configurado para presentar imágenes en una pantalla cerca del ojo o para proyectar las imágenes directamente en la retina. El dispositivo de visualización que se va a llevar en la cabeza puede estar diseñado preferiblemente como gafas de realidad virtual, gafas de realidad aumentada o gafas de realidad mixta.
[0032] La invención también incluye configuraciones adicionales del dispositivo de control según la invención, del automóvil según la invención y del dispositivo de visualización según la invención, que tienen características como ya se han descrito en relación con las configuraciones adicionales del método según la invención. Por este motivo, no se describen aquí de nuevo las correspondientes configuraciones adicionales del dispositivo de control según la invención, del automóvil según la invención y del dispositivo de visualización según la invención.
[0033] La invención también comprende las combinaciones de las características de las formas de realización descritas.
[0034] A continuación se describen ejemplos de realización de la invención. Para ello, la única figura ("Fig.") muestra una representación esquemática de un primer ejemplo de realización del método según la invención y de los dispositivos según la invención.
[0035] Los ejemplos de realización que se explican a continuación son formas de realización preferidas de la invención. En los ejemplos de realización, los componentes descritos de las formas de realización representan respectivamente distintas características de la invención que deben considerarse de manera independiente entre sí y que también desarrollan la invención de manera independiente entre sí. Por lo tanto, se pretende que la divulgación comprenda combinaciones de las características de las formas de realización distintas a las representadas. Además, las formas de realización descritas también se pueden complementar con otras características de la invención ya descritas.
[0036] En las figuras, los mismos números de referencia designan elementos funcionalmente idénticos.
[0037] La Fig. ilustra el principio del método según la invención y de los dispositivos según la invención mediante un primer ejemplo de realización. Para ello, la Fig. muestra un automóvil 10, por ejemplo, un turismo de un servicio de transporte de alquiler de vehículos con conductor. En el ejemplo de la Fig., el dispositivo de control 12 puede ser, por ejemplo, un aparato de control o un chip de control del automóvil 10, pero alternativamente puede estar instalado en el dispositivo de visualización 14 que se puede llevar en la cabeza. El dispositivo de visualización 14 que se puede llevar en la cabeza puede tener como elemento de visualización, por ejemplo, una pantalla (no mostrada en la Fig.).
[0038] La comunicación con el dispositivo de visualización 14 se realiza a través de una conexión de comunicación de datos 16. Por ejemplo, si el dispositivo de control 12 está instalado en el dispositivo de visualización 14, la conexión de comunicación de datos 16 puede ser una conexión de comunicación de datos por cable, por ejemplo, un cable o un bus de datos. Si el dispositivo de control 12 es un componente del dispositivo del automóvil 10, la conexión de comunicación de datos 16 para la comunicación entre el dispositivo de control 12 y el dispositivo de visualización 14 también puede ser una conexión de comunicación de datos 16 con alambres conductores, por ejemplo, un cable, pero preferiblemente una conexión de comunicación de datos 16 inalámbrica, por ejemplo, una conexión wifi, celular, de internet oBluetooth.El dispositivo de control 12 de la Fig. muestra en este caso un dispositivo procesador 20 opcional y una memoria de datos 22 opcional.
[0039] Si el dispositivo de control 12 es un componente del automóvil 10, la conexión de comunicación de datos 16 con el dispositivo de sensor 18, que está representado en la Fig. como cámara del interior, puede realizarse, por ejemplo, a través de un bus de datos del automóvil 10, por ejemplo, a través de un bus CAN.
[0040] En el ejemplo de la Fig., un usuario del servicio transporte de alquiler de vehículos con conductor puede haber reservado el vehículo 10, por ejemplo, para un trayecto de diez kilómetros o un trayecto de media hora. El entretenimiento mediante el dispositivo de visualización 14 que se puede llevar en la cabeza puede ser, por ejemplo, un servicio adicional de este servicio de transporte. El usuario puede traer su propio dispositivo de visualización 14 o el dispositivo de visualización 14 puede ser proporcionado por el servicio de transporte. Por ejemplo, para el trayecto se puede proporcionar una oferta de entretenimiento que pueda describir un viaje a una realidad virtual mientras se conduce, en particular una realidad virtual de 360 grados. El contenido de salida puede ser, por ejemplo, una realidad virtual de Jurassic Park, es decir, un entretenimiento que describe un viaje virtual a través de un paisaje primitivo.
[0041] La emisión del contenido de salida predeterminado puede comenzar, por ejemplo, al inicio del trayecto. En el paso del método S1, el dispositivo de control 12 recibe al menos una señal de sensor, que idealmente describe el interior, procedente de varias cámaras del interior del vehículo 10. En la Fig. se muestra a modo de ejemplo solo una cámara del dispositivo de sensor 18, pero lo ideal es que se puedan disponer varias cámaras, de modo que se pueda filmar el interior, por ejemplo, desde diferentes perspectivas. Las imágenes o series de imágenes de las distintas cámaras se pueden describir entonces en una señal de sensor o en varias señales de sensor.
[0042] Por lo tanto, la señal de superposición generada en el paso del método S2 puede describir una imagen de cámara o las imágenes de cámara de varias cámaras del interior. Después de transmitir la señal de superposición (S3) generada al elemento de visualización del dispositivo de visualización 14, esto se hace para superponer (S4) la imagen o las imágenes correspondientes, preferiblemente en un campo de visión periférico del usuario. Si el dispositivo de control 12 es un dispositivo de control 12 del automóvil 10, entonces la señal de superposición generada también se transmite (S3) primero al dispositivo de visualización 14.
[0043] Gracias a la imagen superpuesta (o a las imágenes o series de imágenes superpuestas), el usuario puede ver, por ejemplo, a otros pasajeros desconocidos, así como al conductor desconocido. Por ejemplo, si el conductor quiere hablar con él sobre algo, por ejemplo, tiene una pregunta, el usuario del dispositivo de visualización 14 ve que el conductor se vuelve hacia él. Incluso si el usuario del dispositivo de visualización 14 recibe adicionalmente un contenido de audio de realidad virtual a través de, por ejemplo, unos auriculares y, mediante el dispositivo de visualización 14, puede reconocer que el conductor quiere hablar con él. Por lo tanto, si el conductor inicialmente no obtiene una respuesta del usuario y decide sacudir al usuario del dispositivo de visualización 14 por el hombro, esto no pillará al usuario desprevenido y el usuario del dispositivo de visualización 14 no se asustará. Además, el usuario del dispositivo de visualización 14 puede reaccionar mucho antes y evitar la sacudida del hombro, por ejemplo, retirando el dispositivo de visualización 14 para hablar con el conductor.
[0044] Para llamar la atención del usuario del dispositivo de visualización 14 sobre la imagen superpuesta no constantemente sino solo de manera específica a la situación, el dispositivo de control 12 solo puede generar (S2) o transmitir (S3) la señal de superposición si el dispositivo de control 12, por ejemplo, detecta (S5) mediante un micrófono (no mostrado en la Fig.) que, por ejemplo, el conductor acaba de empezar a hablar. Opcionalmente, aquí también se puede almacenar un valor umbral para un volumen de sonido para que la imagen no se superponga, por ejemplo, si el conductor solo habla en voz baja para sí mismo.
[0045] Alternativa o adicionalmente, la generación de la señal de superposición (S2) o la transmisión de la señal de superposición generada (S3) solo puede tener lugar si el dispositivo de control 12 detecta (S6), por ejemplo, basándose en datos de navegación y datos de GPS determinados por un dispositivo de navegación del automóvil 10, que, por ejemplo, el automóvil 10 se aleja solo un kilómetro del destino. Si la señal del interior solo se superpone, el usuario del dispositivo de visualización 14 sabe que llegará pronto y, por lo tanto, podrá determinar mejor que cualquier inquietud que sienta en el interior del automóvil 10 se debe al hecho de que otros pasajeros desconocidos empiezan poco a poco a recoger sus cosas.
[0046] En general, los ejemplos muestran cómo la invención puede proporcionar un dispositivo de visualización 14 que se puede llevar en la cabeza, preferiblemente gafas de RV.
[0047] En otro ejemplo, por ejemplo, cuando se utilizan gafas de RV en el automóvil 10, además del contenido principal, en el entorno de RV ejemplar se puede superponer (S4) una imagen de cámara (por ejemplo, normalmente pequeña), que puede transmitir al usuario de RV la situación en el interior del vehículo y posiblemente también fuera del automóvil 10, de modo que el usuario de RV siempre tenga una visión general de la situación actual dentro y alrededor del automóvil 10.
Claims (9)
1. Método para hacer funcionar un dispositivo de visualización (14) que se puede llevar en la cabeza mientras el dispositivo de visualización (14) que se puede llevar en la cabeza se encuentra en un interior de un automóvil (10), donde el dispositivo de visualización (14) está configurado para emitir un contenido de salida predeterminado que describe una oferta de entretenimiento, donde un dispositivo de control (12):
- recibe una señal de sensor de un dispositivo de sensor (18), donde la señal de sensor recibida describe (S1) al menos una imagen de la situación actual del interior del automóvil (10),
- genera (S2) una señal de superposición, que describe una superposición de la al menos una imagen de la situación actual del interior (S4) durante la emisión del contenido de salida predeterminado, y
- transmite (S3) la señal de superposición generada a un elemento de visualización del dispositivo de visualización (14) y, por lo tanto, hace que el dispositivo de visualización (14) superponga (S4) la al menos una imagen de la situación actual del interior mientras emite el contenido de salida predeterminado, donde el dispositivo de control (12) solo genera (S2) la señal de superposición o solo la transmite (S3) si el dispositivo de control (12):
a) detecta (S5) un ocupante hablando; y/o
b) detecta (S6) que el automóvil (10) se aproxima a un destino.
2. Método según la reivindicación 1, donde la señal de superposición generada describe la superposición de la al menos una imagen de la situación actual del interior (S4) solo en un área parcial de un campo de visión de un usuario del dispositivo de visualización (14), preferiblemente en un campo de visión primario o central.
3. Método según cualquiera de las reivindicaciones anteriores, donde la señal de sensor recibida describe al menos una imagen de cámara de una cámara del interior del dispositivo de sensor (18).
4. Método según cualquiera de las reivindicaciones anteriores, donde el dispositivo de control (12) recibe (S1) la señal de sensor de un dispositivo de sensor (18) del automóvil (10).
5. Método según cualquiera de las reivindicaciones anteriores, donde el contenido de salida predeterminado describe una realidad virtual, en particular una realidad virtual de 360 grados.
6. Método según cualquiera de las reivindicaciones anteriores, donde el dispositivo de control (12) solo genera (S2) o solo transmite (S3) la señal de superposición si el dispositivo de control (12) detecta (S5) una voz de un ocupante distinto del usuario del dispositivo de visualización (14); preferiblemente dependiendo, además, de un volumen de voz detectado.
7. Dispositivo de control (12), que está configurado para llevar a cabo un método según cualquiera de las reivindicaciones anteriores.
8. Automóvil (10), que tiene un dispositivo de control (12) según la reivindicación 7.
9. Dispositivo de visualización (14) que se puede llevar en la cabeza, que tiene un dispositivo de control (12) según la reivindicación 7.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019213740.7A DE102019213740A1 (de) | 2019-09-10 | 2019-09-10 | Verfahren zum Betreiben eines am Kopf tragbaren Anzeigegeräts in einem Kraftfahrzeug, Steuereinrichtung, und am Kopf tragbares Anzeigegerät |
PCT/EP2020/072503 WO2021047845A1 (de) | 2019-09-10 | 2020-08-11 | Verfahren zum betreiben eines am kopf tragbaren anzeigegeräts in einem kraftfahrzeug, steuereinrichtung, und am kopf tragbares anzeigegerät |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2965007T3 true ES2965007T3 (es) | 2024-04-10 |
Family
ID=72148079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20758132T Active ES2965007T3 (es) | 2019-09-10 | 2020-08-11 | Método de funcionamiento de un dispositivo de visualización que se puede llevar en la cabeza en un automóvil, dispositivo de control y dispositivo de visualización que se puede llevar en la cabeza |
Country Status (6)
Country | Link |
---|---|
US (1) | US11922585B2 (es) |
EP (1) | EP4028819B1 (es) |
CN (1) | CN114868071A (es) |
DE (1) | DE102019213740A1 (es) |
ES (1) | ES2965007T3 (es) |
WO (1) | WO2021047845A1 (es) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019213740A1 (de) | 2019-09-10 | 2021-03-11 | Audi Ag | Verfahren zum Betreiben eines am Kopf tragbaren Anzeigegeräts in einem Kraftfahrzeug, Steuereinrichtung, und am Kopf tragbares Anzeigegerät |
DE102022130918B4 (de) | 2022-11-22 | 2024-10-17 | Cariad Se | Verfahren zum Erzeugen einer gemischten Realitätsumgebung für eine Person in einem beweglichen Objekt mittels einer Anzeigevorrichtung, Computerprogrammprodukt sowie Anzeigevorrichtung |
DE102023108954A1 (de) | 2023-04-06 | 2024-10-10 | Audi Aktiengesellschaft | Steuervorrichtung und Verfahren zum Bereitstellen einer optischen Simulation |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030210228A1 (en) * | 2000-02-25 | 2003-11-13 | Ebersole John Franklin | Augmented reality situational awareness system and method |
DE102009049073A1 (de) | 2009-10-12 | 2011-04-21 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung |
DE102012218837A1 (de) * | 2012-10-16 | 2014-06-12 | Bayerische Motoren Werke Aktiengesellschaft | Anzeigen von Darstellungen auf einem Head-Up Display und einem Head-mounted Display |
DE102014001274B4 (de) * | 2014-01-31 | 2020-08-20 | Audi Ag | Am Kopf tragbare Anzeigeeinrichtung mit einer Bildaufnahmeeinrichtung und Verfahren zum Anzeigen eines von einer Bildaufnahmeeinrichtung einer am Kopf tragbaren Anzeigeeinrichtung aufgenommenen Umgebungsbilds |
GB201411309D0 (en) * | 2014-06-25 | 2014-08-06 | Tomtom Int Bv | Vehicular human machine interfaces |
DE102014213285B4 (de) | 2014-07-09 | 2023-12-07 | Bayerische Motoren Werke Aktiengesellschaft | Kopfrichtungsabhängige Anzeige von Inhalten auf einer Datenbrille |
DE102014010309B4 (de) | 2014-07-11 | 2017-11-23 | Audi Ag | Anzeigen von zusätzlichen Inhalten in einer virtuellen Szenerie |
DE102014018054B4 (de) * | 2014-12-05 | 2024-08-01 | Audi Ag | Verfahren zum Betreiben einer Virtual-Reality-Brille und Anzeigevorrichtung |
CN105785570B (zh) * | 2014-12-26 | 2019-06-25 | 比亚迪股份有限公司 | 一种车载抬头显示系统及包含该系统的车辆 |
DE102015003882A1 (de) * | 2015-03-26 | 2016-09-29 | Audi Ag | Verfahren zum Betreiben einer in einem Kraftfahrzeug angeordneten Virtual-Reality-Brille und Virtual-Reality-System |
US10977865B2 (en) * | 2015-08-04 | 2021-04-13 | Seyed-Nima Yasrebi | Augmented reality in vehicle platforms |
US9988008B2 (en) * | 2015-10-26 | 2018-06-05 | Active Knowledge Ltd. | Moveable internal shock-absorbing energy dissipation padding in an autonomous vehicle |
US9996980B1 (en) * | 2016-11-18 | 2018-06-12 | Toyota Jidosha Kabushiki Kaisha | Augmented reality for providing vehicle functionality through virtual features |
DE102017211520A1 (de) * | 2017-07-06 | 2019-01-10 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Erzeugen einer virtuellen Umgebung für einen Benutzer in einem Fahrzeug, entsprechendes Virtual-Realitysystem sowie Fahrzeug |
DE112018004847B4 (de) * | 2017-08-31 | 2024-02-08 | Sony Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt |
DE102017217923A1 (de) * | 2017-10-09 | 2019-04-11 | Audi Ag | Verfahren zum Betrieb einer Anzeigeeinrichtung in einem Kraftfahrzeug |
DE102017221871A1 (de) * | 2017-12-05 | 2019-06-06 | Volkswagen Aktiengesellschaft | Verfahren zur Berechnung der Bewegungsdaten des Kopfes eines Fahrers eines Fahrzeuges, Datenbrille sowie Fahrzeug zur Verwendung bei dem Verfahren und Computerprogramm |
US11087539B2 (en) * | 2018-08-21 | 2021-08-10 | Mastercard International Incorporated | Systems and methods for generating augmented reality-based profiles |
KR102628102B1 (ko) * | 2019-08-16 | 2024-01-23 | 엘지전자 주식회사 | Xr 디바이스 및 그 제어 방법 |
DE102019213740A1 (de) | 2019-09-10 | 2021-03-11 | Audi Ag | Verfahren zum Betreiben eines am Kopf tragbaren Anzeigegeräts in einem Kraftfahrzeug, Steuereinrichtung, und am Kopf tragbares Anzeigegerät |
-
2019
- 2019-09-10 DE DE102019213740.7A patent/DE102019213740A1/de active Pending
-
2020
- 2020-08-11 US US17/641,273 patent/US11922585B2/en active Active
- 2020-08-11 EP EP20758132.3A patent/EP4028819B1/de active Active
- 2020-08-11 CN CN202080070934.6A patent/CN114868071A/zh active Pending
- 2020-08-11 WO PCT/EP2020/072503 patent/WO2021047845A1/de unknown
- 2020-08-11 ES ES20758132T patent/ES2965007T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
DE102019213740A1 (de) | 2021-03-11 |
WO2021047845A1 (de) | 2021-03-18 |
EP4028819A1 (de) | 2022-07-20 |
US11922585B2 (en) | 2024-03-05 |
US20220319122A1 (en) | 2022-10-06 |
CN114868071A (zh) | 2022-08-05 |
EP4028819B1 (de) | 2023-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2965007T3 (es) | Método de funcionamiento de un dispositivo de visualización que se puede llevar en la cabeza en un automóvil, dispositivo de control y dispositivo de visualización que se puede llevar en la cabeza | |
JP7067471B2 (ja) | 表示制御装置及び表示制御方法、表示装置、並びに移動体装置 | |
ES2868083T3 (es) | Dispositivo sensor móvil para un dispositivo de salida visual que se puede llevar en la cabeza, que se puede usar en un vehículo y procedimiento para operar un sistema de visualización | |
JP7200645B2 (ja) | 車載装置、プログラム、及び車両 | |
JP2011069915A5 (es) | ||
JP2012037688A5 (es) | ||
JP2012078785A5 (es) | ||
JP2011232708A5 (es) | ||
JP2011257555A5 (es) | ||
US20170015260A1 (en) | Apparatus And Method For Exchanging And Displaying Data Between Electronic Eyewear, Vehicles And Other Devices | |
US11701984B2 (en) | Apparatus and method for controlling interior of vehicle | |
KR20200131820A (ko) | 화상 표시 시스템, 정보 처리 장치, 정보 처리 방법, 프로그램, 및 이동체 | |
JP2023052450A (ja) | 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム | |
JP7298491B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP2020086726A (ja) | 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム | |
JP2012037689A5 (es) | ||
KR20170017647A (ko) | 차량 운전 보조장치 및 이를 포함하는 차량 | |
JP2012058361A5 (es) | ||
JP2011232707A5 (es) | ||
KR101781689B1 (ko) | 가상 영상 생성장치, 헤드 마운티드 디스플레이 및 차량 | |
JP7447602B2 (ja) | コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム | |
JP2006264410A (ja) | 車両用表示装置 | |
KR20130046992A (ko) | 차량용 4채널 블랙박스를 이용한 유비쿼터스 모니터링 장치 및 방법 | |
US20240087339A1 (en) | Information processing device, information processing system, and information processing method | |
US20240083249A1 (en) | Information processing system |