ES2902698T3 - Determinación de la posición de un objeto ajeno a un vehículo en un vehículo - Google Patents

Determinación de la posición de un objeto ajeno a un vehículo en un vehículo Download PDF

Info

Publication number
ES2902698T3
ES2902698T3 ES15812999T ES15812999T ES2902698T3 ES 2902698 T3 ES2902698 T3 ES 2902698T3 ES 15812999 T ES15812999 T ES 15812999T ES 15812999 T ES15812999 T ES 15812999T ES 2902698 T3 ES2902698 T3 ES 2902698T3
Authority
ES
Spain
Prior art keywords
vehicle
mobile terminal
detection device
depth map
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15812999T
Other languages
English (en)
Inventor
Wolfgang Theimer
Klaus Meierling
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Application granted granted Critical
Publication of ES2902698T3 publication Critical patent/ES2902698T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/04Rear-view mirror arrangements mounted inside vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

Método para determinar una posición de un terminal móvil en un vehículo, donde el método comprende: - detectar un mapa de profundidad de referencia con un dispositivo (11) de detección, donde el mapa de profundidad de referencia indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de una zona (13) de detección del dispositivo (11) de detección, en el punto de imagen respectivo, mientras el terminal móvil no se encuentra en la zona (13) de detección, - detectar un mapa de profundidad actual con el dispositivo (11) de detección, donde el mapa de profundidad actual indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de la zona (13) de detección, en el punto de imagen respectivo, mientras el terminal móvil se encuentra en la zona (13) de detección, - determinar diferencias de profundidad para puntos de imagen de la zona (13) de detección, donde se determina una diferencia de profundidad para un punto de imagen en función de la información de distancia del mapa de profundidad de referencia en el punto de imagen y de la información de distancia del mapa de profundidad actual en el punto de imagen, y - determinar la posición del terminal móvil en función de las diferencias de profundidad, - determinar un contacto con un elemento de control del terminal móvil en función de la posición del terminal móvil, y - generar y emitir una información adicional relacionada con el elemento de control en función del contacto o la aproximación determinados, - habilitar un proceso de registro del terminal móvil en un punto de acceso para terminales móviles del vehículo en función de la posición del terminal móvil, donde se determina que una posición del terminal móvil está cerca de una superficie de un objeto del vehículo procesando una diferencia de profundidad para un punto de imagen del terminal móvil mediante una función de evaluación, donde la función de evaluación indica que la posición del terminal móvil está cerca de la superficie del objeto del vehículo si la diferencia de profundidad tiene un valor entre un primer valor umbral predeterminado y un segundo valor umbral predeterminado.

Description

DESCRIPCIÓN
Determinación de la posición de un objeto ajeno a un vehículo en un vehículo
La presente invención se refiere a un método para determinar la posición de un objeto ajeno a un vehículo en un vehículo, en particular la posición de un ocupante del vehículo, de una parte del cuerpo de un ocupante del vehículo o de un objeto adicional no instalado de forma fija en el vehículo, y a un correspondiente dispositivo de determinación de posición. En particular, la presente invención se refiere a la generación y emisión de información adicional relacionada con un elemento de control en un vehículo a partir de la posición del objeto ajeno al vehículo. La funcionalidad de los dispositivos técnicos es cada vez más compleja, y las correlaciones entre las entradas en estos dispositivos y el comportamiento de los mismos a veces no son fáciles de entender. Esto también sucede, por ejemplo, con los dispositivos técnicos que se instalan en un vehículo, por ejemplo en un turismo o un camión. Por ello, las instrucciones de uso de estos dispositivos técnicos son cada vez más extensas y pueden, por ejemplo, almacenarse de forma centralizada en un sistema de información del vehículo, por ejemplo, a través de lo que se conoce como unidad principal, y ser consultadas por un usuario del vehículo. Por otro lado, es un comportamiento humano innato explorar un objeto desconocido tocándolo, agarrándolo y examinando su estructura. Para apoyar esta acción, se puede detectar la interacción del usuario con el dispositivo técnico mediante los sensores correspondientes. Si, por ejemplo, en un vehículo hay varios dispositivos técnicos de este tipo y los correspondientes elementos de control, se requiere un sistema de sensores correspondiente para cada dispositivo técnico o dispositivo de control con el fin de detectar la interacción con el usuario.
En este contexto, el documento DE 102011 089195 A1 describe un dispositivo para la detección sin contacto de objetos o personas y de gestos u operaciones realizadas por estas, que está dispuesto en el interior de un vehículo y comprende una unidad de detección óptica. Mediante la unidad de detección óptica, se puede detectar tridimensionalmente un objeto o una persona o un gesto realizado por esta. Por ejemplo, se detecta tridimensionalmente el movimiento de una mano o de un dedo del conductor del vehículo, que corresponde, por ejemplo, a un accionamiento virtual de una unidad de visualización en el vehículo.
Los documentos WO 99/34235 A1 y DE 102013000080 A1 se refieren a dispositivos de control de vehículos para la detección sin contacto de objetos o personas en los vehículos.
El documento DE 112008001 396 T5 se refiere a un dispositivo de control de vehículos que comprende una unidad de control de voz para reconocer una voz pronunciada y emitir un resultado de reconocimiento, y una unidad de control espacial para reconocer un movimiento realizado dentro de un espacio y emitir un resultado de reconocimiento. Por ejemplo, una unidad de control muestra un menú para manejar un dispositivo de control del vehículo en una unidad de visualización según el resultado del reconocimiento de voz transmitido desde la unidad de reconocimiento de voz, y lleva a cabo el procesamiento de un elemento seleccionado del menú sobre la base del resultado del reconocimiento espacial de operaciones transmitido desde la unidad de reconocimiento de imágenes. El documento EP 2762345 A2 se refiere a un método de funcionamiento de dispositivos y sistemas en un vehículo para reducir la distracción del operador. Se proporciona un soporte de reconocimiento de gestos para recibir una instrucción de mando y transmitir la instrucción de mando a un sistema de control informático. Un dispositivo de retroalimentación está conectado al sistema de control del ordenador y genera una señal de retroalimentación para confirmar al operador del vehículo que el soporte de reconocimiento de gestos ha recibido la instrucción de mando. El documento EP 2118722 B1 se refiere a una generación, reescritura y edición automatizada de un documento basadas en el comportamiento de un usuario, que se identifica a partir de un flujo de imágenes tridimensionales y activa el control del documento.
El documento DE 102004038965 A1 se refiere a un dispositivo de conmutación de imágenes de la mano que comprende medios para captar una imagen de un brazo distal situado en una zona de captación de imágenes predeterminada en la que se capta una imagen de la mano o un movimiento de un dedo de una mano a partir de la imagen captada por los medios de captación de imágenes para obtener información relativa a una operación de conmutación predeterminada. La información correlacionada con el cambio de marcha, especificada por la imagen de la mano o el movimiento de la palma del conductor, puede ser emitida, por ejemplo, a un sistema de audio, de aire acondicionado o similar.
El objeto de la presente invención es proporcionar y respaldar el manejo intuitivo de dispositivos técnicos complejos, en particular, en un vehículo, de una manera económica.
Este objeto se resuelve según la presente invención mediante un método para determinar la posición de un objeto ajeno al vehículo en un vehículo según la reivindicación 1, un dispositivo para determinar la posición según la reivindicación 3 y un vehículo según la reivindicación 6. Las reivindicaciones dependientes definen las realizaciones preferidas y ventajosas de la invención.
Según la presente descripción, se proporciona un método para determinar la posición de un objeto ajeno al vehículo en un vehículo. El objeto ajeno al vehículo comprende en particular, por ejemplo, un ocupante del vehículo, una parte del cuerpo de un ocupante del vehículo o un objeto adicional no instalado de forma fija en el vehículo, por ejemplo, un terminal móvil o un radioteléfono móvil. El método incluye la detección de un mapa de profundidad de referencia mediante un dispositivo de detección. Un mapa de profundidad indica una información de distancia entre el dispositivo de detección y una superficie de un objeto en el punto de imagen respectivo de una zona de detección del dispositivo de detección. Por ejemplo, la superficie puede comprender una superficie de un objeto del vehículo, como la superficie de un salpicadero, un asiento, un volante o una consola central, o una superficie del objeto ajeno al vehículo cuya posición se va a determinar, como la superficie de un ocupante del vehículo, una parte del cuerpo de un ocupante del vehículo o un objeto adicional no instalado de forma fija en el vehículo. El mapa de profundidad de referencia proporciona la información de distancia correspondiente a los respectivos puntos de imagen mientras el objeto ajeno al vehículo no se encuentra en la zona de detección. Preferentemente, en la zona de detección se encuentran varios elementos de control del vehículo. Así, el mapa de profundidad de referencia proporciona información de imagen tridimensional de la zona de detección y, en particular, de los elementos de control situados en ella. Dado que el mapa de profundidad de referencia se detecta mientras el objeto ajeno al vehículo no se encuentra en la zona de detección, la información de distancia, así como la información de imagen tridimensional, se refiere a los objetos del vehículo, como, por ejemplo, los elementos de control del mismo, y no se ve afectada por la presencia de un ocupante del vehículo o de un objeto adicional. Por ejemplo, el mapa de profundidad de referencia puede detectarse cuando el vehículo está bloqueado y un sensor de ocupación del asiento indica que no hay ningún ocupante dentro de la zona de detección, o cuando el mapa de profundidad no ha cambiado durante un periodo de tiempo prolongado, por ejemplo, de unos minutos. El método incluye además la detección de un mapa de profundidad actual mediante el dispositivo de detección. El mapa de profundidad actual proporciona información de la distancia actual entre el dispositivo de detección y una superficie de un objeto en el punto de imagen respectivo de la zona de detección mientras el objeto ajeno al vehículo cuya posición se va a determinar se encuentra en la zona de detección. Por lo tanto, la superficie puede comprender una superficie de un objeto del vehículo, por ejemplo, un elemento de control, o una superficie del objeto ajeno al vehículo, por ejemplo, el ocupante del vehículo que mueve una mano o un brazo en la zona de detección. Entonces se determina una diferencia de profundidad respectiva para cada punto de imagen de la zona de detección. La diferencia de profundidad para un punto de imagen determinado se determina en función de la información de distancia del mapa de profundidad de referencia en el punto de imagen y de la información de distancia del mapa de profundidad actual en el punto de imagen. La posición del objeto ajeno al vehículo cuya posición se va a determinar se determina en función de las diferencias de profundidad. Los puntos de imagen en los que, por ejemplo, no influye actualmente la parte del cuerpo del ocupante del vehículo o el objeto adicional, tienen esencialmente la misma información de distancia en el mapa de profundidad actual y en el mapa de profundidad de referencia. Por otro lado, los puntos de imagen que representan la parte del cuerpo del ocupante del vehículo o el objeto adicional tienen una información de distancia diferente en el mapa de profundidad actual que en el mapa de profundidad de referencia. Esto facilita la determinación, a partir de las diferencias de profundidad, de los puntos de imagen en los que influye la parte del cuerpo del ocupante del vehículo o el objeto adicional. De este modo, se puede determinar de forma sencilla una posición o un cambio de posición de la parte del cuerpo del ocupante del vehículo o del objeto adicional. Basándose en la posición determinada de la parte del cuerpo del ocupante del vehículo, se puede determinar, por ejemplo, si una mano del ocupante del vehículo se está acercando o tocando un elemento de control del vehículo, y una información correspondiente, que se asigna al elemento de control, puede ser emitida acústica o visualmente con el fin de simplificar el manejo del elemento de control o hacerlo más intuitivo. Por ejemplo, la zona de detección puede incluir un área en la parte delantera del vehículo, por ejemplo, el salpicadero, el volante, la consola central y los reposabrazos de las puertas del vehículo. Esto permite supervisar una pluralidad de elementos de control situados en la zona de detección y emitir la información correspondiente a los elementos de control cuando se detecta que un ocupante del vehículo se acerca o toca el control respectivo.
Según una realización no incluida en las reivindicaciones, para una posición del objeto ajeno al vehículo se determina si el objeto ajeno al vehículo se encuentra cerca de una superficie de un objeto del vehículo, por ejemplo, un dispositivo de control. Esta determinación se realiza procesando una diferencia de profundidad para un punto de imagen del objeto ajeno al vehículo utilizando una función de evaluación. La función de evaluación indica que la posición del objeto ajeno al vehículo está cerca de la superficie del objeto del vehículo si la diferencia de profundidad tiene un valor entre un primer umbral predeterminado y un segundo umbral predeterminado. En otras palabras, un punto de imagen que representa al menos parcialmente el objeto ajeno al vehículo solo se reconoce como cercano a un objeto del vehículo si el punto de imagen tiene una distancia mínima respecto a los puntos del objeto del vehículo y, además, la distancia respecto al objeto del vehículo no es demasiado grande. Como los mapas de profundidad pueden presentar ruido, se requiere una distancia mínima respecto a los puntos del objeto del vehículo para distinguir de forma fiable el objeto ajeno al vehículo del objeto del vehículo. Por ejemplo, el reconocimiento de una aproximación a la superficie de un elemento de control puede utilizarse para proporcionar información a un ocupante del vehículo sobre el manejo del elemento de control en el momento de tocarlo o antes.
En otra realización del método no incluida en las reivindicaciones, se determina adicionalmente un contacto con un elemento de control o una aproximación a un elemento de control en función de la posición del objeto ajeno al vehículo, y se genera y emite información adicional relativa al elemento de control en función del contacto o la aproximación determinados. La información adicional puede ser, por ejemplo, información auxiliar que explique la función del elemento de control. La información adicional puede, por ejemplo, ser emitida en una pantalla de visualización frontal (head-up display), una pantalla de un sistema de infoentretenimiento del vehículo o acústicamente. La información adicional puede comprender, en particular, información sobre una función en la que puede influir el elemento de control. Además, en particular, se puede detectar adicionalmente un estado de funcionamiento del vehículo y generar adicionalmente la información adicional en función del estado de funcionamiento del vehículo. Dado que el espacio de instalación para alojar los elementos de control es limitado en los vehículos, pero al mismo tiempo el número de funciones que deben controlarse en el vehículo crece constantemente, los elementos de control suelen estar provistos de diferentes funciones que pueden configurarse mediante el elemento de control en diferentes estados de funcionamiento del vehículo. Por ejemplo, dependiendo del estado de un sistema de infoentretenimiento, puede utilizarse selectivamente un elemento de control para ajustar el volumen de una salida de audio o un factor de zoom para la representación de un mapa de un sistema de navegación. Al generar y emitir la respectiva función válida del elemento de control en cuanto se produce una aproximación a este, se puede facilitar al usuario del vehículo el manejo del sistema de infoentretenimiento. Además, por ejemplo, durante una aproximación ya se puede explicar detalladamente en la información de ayuda correspondiente que este elemento de control puede tener diferentes funciones de control dependiendo de los estados previamente establecidos o actuales del vehículo.
En otra realización no incluida en las reivindicaciones, el elemento de control comprende una zona parcial de una superficie de un componente en el interior del vehículo. El elemento de control puede, por ejemplo, comprender un elemento de control real o un elemento de control virtual. Por ejemplo, un elemento de control virtual puede ser identificado por una marca visual en cualquier superficie, por ejemplo, en el salpicadero. La superficie del componente puede estar acoplada adicionalmente a un sensor táctil, donde el sensor táctil detecta un contacto con la superficie y adicionalmente se determina el contacto con el elemento de control en función del contacto con la superficie. Esto permite, por ejemplo, disponer de varios elementos de control virtuales en, por ejemplo, un salpicadero y un sensor táctil común para detectar un contacto del salpicadero. Se puede determinar qué elemento de control virtual se acciona mediante el dispositivo de detección basado en el mapa de profundidad de referencia y el mapa de profundidad actual, y el contacto real con el elemento de control mediante el sensor táctil. Esto permite un accionamiento fiable de varios elementos de control de forma sencilla. El elemento de control también puede comprender, por ejemplo, un elemento de control real pasivo que se fija (por ejemplo, se pega) al salpicadero en cualquier ubicación. En función del mapa de profundidad de referencia y del mapa de profundidad actual se determina el accionamiento del elemento de control real pasivo.
En otra realización del método no incluida en las reivindicaciones, se determina la posición de un asiento en el que está sentado un ocupante del vehículo que entra en contacto con el elemento de control y se establece una función asociada al elemento de control dependiendo de la posición del asiento en el que está sentado el ocupante del vehículo. Por ejemplo, el elemento de control puede utilizarse para ajustar el asiento, el respaldo o para ajustar la calefacción del asiento. Al determinar adicionalmente la posición en la que está sentado el ocupante del vehículo que lleva a cabo la operación, mediante un elemento de control puede ajustarse el asiento del conductor o el asiento del acompañante, dependiendo de si el elemento de control es manejado por el conductor o el acompañante.
En otra realización no incluida en las reivindicaciones, el contacto de una parte del cuerpo de un ocupante del vehículo con el volante del vehículo se determina en función de la posición de la parte del cuerpo del ocupante del vehículo y se emite una información de advertencia en función de la determinación del contacto con el volante. Tal como se ha descrito anteriormente, la posición de la parte del cuerpo se determina como el objeto ajeno al vehículo. La forma en que el ocupante del vehículo toca el volante, y si el ocupante del vehículo toca el volante, puede evaluarse para determinar la atención del conductor. Si se determina que el conductor no está suficientemente atento, se puede emitir una advertencia adecuada.
Según una realización no incluida en las reivindicaciones, la ocupación de un asiento del vehículo se determina en función de la posición del objeto ajeno al vehículo, por ejemplo, una parte del cuerpo de un ocupante del vehículo o un objeto adicional, y un dispositivo del vehículo asociado al asiento se controla en función de la ocupación determinada del asiento. Por ejemplo, se puede evitar el despliegue del airbag si el asiento no se utiliza o si, por ejemplo, se coloca una silla de bebé en el asiento.
En otra realización, la posición del objeto ajeno al vehículo se determina como una posición de un terminal móvil sostenido, por ejemplo, por un ocupante del vehículo. El terminal móvil puede sostenerse, por ejemplo, en la mano del ocupante del vehículo. En función de la posición del terminal móvil, se habilita un proceso de registro del terminal móvil en un punto de acceso del vehículo. Por ejemplo, puede habilitarse la autenticación de dispositivos adicionales, como teléfonos móviles, cuando el dispositivo adicional o el terminal móvil se mantiene en una zona predeterminada delante de, por ejemplo, una unidad principal de un sistema de infoentretenimiento del vehículo. Esto puede evitar que dispositivos no autorizados se conecten ilegalmente al punto de acceso del vehículo, por ejemplo un punto de acceso WLAN.
Según la presente descripción, se proporciona además un dispositivo de determinación de posición para determinar la posición de un objeto ajeno al vehículo en un vehículo, por ejemplo, para determinar la posición de una parte del cuerpo de un ocupante del vehículo o de un objeto adicional que no está instalado de forma fija en el vehículo. El dispositivo de determinación de posición comprende un dispositivo de detección para detectar un mapa de profundidad y un dispositivo de procesamiento acoplado al dispositivo de detección. El mapa de profundidad indica una información de distancia entre el dispositivo de detección y una superficie de un objeto en el punto de imagen respectivo de una zona de detección del dispositivo de detección. El dispositivo de procesamiento está diseñado para detectar un mapa de profundidad de referencia mediante el dispositivo de detección, el cual indica una información de distancia respectiva entre el dispositivo de detección y una superficie de un objeto en el punto de imagen respectivo de la zona de detección del dispositivo de detección mientras el objeto ajeno al vehículo cuya posición se va a determinar posteriormente no se encuentra en la zona de detección. Además, el dispositivo de procesamiento puede detectar un mapa de profundidad actual mediante el dispositivo de detección. El mapa de profundidad actual proporciona información de la distancia entre el dispositivo de detección y la superficie de un objeto en puntos de imagen de la zona de detección, en el punto de imagen respectivo, mientras el objeto ajeno al vehículo cuya posición se va a determinar se encuentra en la zona de detección. El dispositivo de procesamiento determina una diferencia de profundidad para los puntos de imagen de la zona de detección. Una diferencia de profundidad para un punto de imagen se determina en función de la información de distancia del mapa de profundidad de referencia en el punto de imagen y la información de distancia del mapa de profundidad actual en el punto de imagen. La posición del objeto ajeno al vehículo se determina finalmente en función de las diferencias de profundidad. El dispositivo de determinación de posición es, por lo tanto, adecuado para llevar a cabo el método descrito anteriormente y, en consecuencia, incluye también las ventajas descritas anteriormente en relación con el método.
En una realización, el dispositivo de detección del dispositivo de determinación de posición comprende un fotodetector mezclador o una cámara de tiempo de vuelo. Un fotodetector mezclador o una cámara de tiempo de vuelo son capaces de proporcionar tanto una representación del entorno en forma de vista superior desde el punto de vista del dispositivo de detección como una información de la distancia entre el dispositivo de detección y un punto de imagen respectivo de la representación. Así, el fotodetector mezclador o la cámara de tiempo de vuelo puede proporcionar fácilmente una información de imagen tridimensional de la zona de detección.
Según la presente descripción, un vehículo está provisto además del dispositivo de determinación de posición descrito anteriormente. El dispositivo de detección del dispositivo de determinación de posición está dispuesto, por ejemplo, junto a un espejo retrovisor interior del vehículo. Esta disposición en la zona del espejo retrovisor del vehículo permite al dispositivo de detección vigilar una amplia zona en la parte delantera del vehículo y detectar las acciones de un ocupante del vehículo en esta zona. En particular, el dispositivo de detección puede detectar al menos una zona parcial de una superficie de, por ejemplo, un salpicadero, una consola central, un volante, un asiento del conductor o una palanca de cambios del vehículo. De este modo, se puede supervisar un gran número de elementos de control situados en esta zona y emitir información adicional sobre los elementos de control cuando el usuario se aproxima a uno de ellos. Alternativamente, el dispositivo de detección puede fijarse al techo del vehículo o a la iluminación interior del mismo.
La presente descripción se refiere además a un método para generar y emitir información adicional relacionada con un elemento de control en un vehículo. El método implica la detección de información de imagen tridimensional en el vehículo y la determinación de posición de una parte del cuerpo de un ocupante del vehículo o de un objeto ajeno al vehículo en función de la información de imagen tridimensional. La información de imagen puede detectarse, por ejemplo, con un dispositivo de detección dispuesto de forma central para detectar imágenes tridimensionales, como un fotodetector mezclador o una cámara de tiempo de vuelo. Con el método se determina además un contacto con el elemento de control o una aproximación al elemento de control en función de la posición de la parte del cuerpo o del objeto ajeno al vehículo, y se genera y se emite la información adicional relacionada con el elemento de control en función del contacto o la aproximación determinados. Por ejemplo, la información adicional puede referirse a la información de ayuda para manejar el elemento de control o una funcionalidad actualmente asignada, que puede cambiar dependiendo del estado del vehículo. Esto permite que el manejo de los elementos de control del vehículo sea intuitivo para el ocupante del vehículo.
Aunque las realizaciones descritas anteriormente se han descrito de forma independiente, las realizaciones pueden combinarse entre sí según se desee.
La presente invención se describirá en detalle a continuación haciendo referencia a los dibujos.
La Figura 1 muestra de forma esquemática un vehículo según una realización de la presente invención.
La Figura 2 muestra de forma esquemática un dispositivo de determinación de posición en el interior de un vehículo según una realización de la presente invención.
La Figura 3 muestra las etapas de un método según una realización de la presente invención.
La Figura 4 muestra de forma esquemática una asignación de áreas a objetos en una zona de detección según una realización de la presente invención.
La Figura 5 muestra una función de evaluación para determinar la posición de una parte del cuerpo según una realización de la presente invención.
La Figura 1 muestra un vehículo 10 con un dispositivo de determinación de posición para determinar la posición de un objeto ajeno al vehículo, por ejemplo, una parte del cuerpo de un ocupante del vehículo, en el vehículo 10. El dispositivo de determinación de posición comprende un dispositivo 11 de detección y un dispositivo 12 de procesamiento. El dispositivo 11 de detección es capaz de detectar un mapa de profundidad que indica, para los puntos de imagen de una zona 13 de detección, la información de distancia entre el dispositivo 11 de detección y una superficie de un objeto en el punto de imagen respectivo. El objeto en el punto de imagen respectivo puede ser un objeto del vehículo, como el salpicadero, o un objeto no perteneciente al vehículo, como un ocupante del vehículo o un terminal móvil. La Figura 2 muestra el interior del vehículo 10. El dispositivo 11 de detección está dispuesto en la zona de un espejo retrovisor interior 14 del vehículo 10. El dispositivo 11 de detección comprende, por ejemplo, una cámara de tiempo de vuelo, un denominado fotodetector mezclador, con el que se puede generar una información de imagen tridimensional de la zona 13 de detección. Como se muestra en la Figura 2, la zona 13 de detección comprende diversos componentes en la zona delantera del vehículo 10, como un asiento 15 del conductor, un asiento 16 del acompañante, una palanca 17 de cambios, una consola central 18, un volante 19 y un salpicadero 20, así como diversos mandos situados en la zona de la palanca 17 de cambios, en la consola central 18, en el volante 19 y en el salpicadero 20. Además, la zona 13 de detección también puede incluir partes de los paneles de las puertas delanteras del vehículo 10 y, por lo tanto, incluir también los elementos de control que están dispuestos en los paneles de las puertas, como los elementos de control para los elevalunas eléctricos del vehículo o para el ajuste del espejo exterior del vehículo.
Para determinar la posición de una parte del cuerpo de un ocupante del vehículo, por ejemplo, un dedo o una mano del ocupante del vehículo, o la posición de un accesorio en el vehículo, el dispositivo 12 de procesamiento, que está acoplado al dispositivo 11 de detección, lleva a cabo el método 30 descrito a continuación con referencia a la Figura 3. En la etapa 31 se detecta un mapa de profundidad de referencia con el vehículo vacío utilizando el dispositivo 11 de detección. El mapa de profundidad de referencia indica la información de distancia entre el dispositivo de detección y una superficie de un objeto en el punto de imagen respectivo de la zona 13 de detección del dispositivo 11 de detección. El mapa de profundidad de referencia se detecta mientras no hay ningún ocupante del vehículo en la zona 13 de detección. El dispositivo 11 de detección detecta así un perfil de profundidad del vehículo en reposo, lo que da lugar a una calibración. Para un modelo de vehículo determinado, las posiciones de todos los instrumentos y elementos de control del vehículo vienen dadas, por ejemplo, por los datos de diseño de la estructura y pueden convertirse en regiones del perfil de profundidad. La Figura 4 muestra un ejemplo de un mapa 40 de objetos para la zona 13 de detección, en el que están registrados cuatro objetos 41 a 44. Cada punto de imagen (x, y) se asigna a un objeto o al fondo. A los puntos de imagen del objeto 41, por ejemplo, el volante 19 del vehículo 10, se les asigna el valor 1. A los puntos de imagen del objeto 42, por ejemplo, una pantalla táctil de un sistema de infoentretenimiento del vehículo, se les asigna el valor 2. A los puntos de imagen de los objetos 43 y 44, por ejemplo, los elementos de control de la consola central 18 del vehículo 10, se les asignan los valores 3 y 4 respectivamente. El mapa de profundidad de referencia detectado en la etapa 31 indica entonces la distancia respecto a los puntos de imagen respectivos de los objetos correspondientes para el estado vacío del vehículo. En la etapa 32, se detecta un mapa de profundidad actual. En cuanto un usuario entra en el vehículo y lo maneja, utiliza una o ambas manos, por ejemplo, para tocar un elemento de control del vehículo. Esto modifica la información de distancia entre el dispositivo de detección y una superficie en la ubicación del objeto tocado en el mapa de profundidad actual. En la etapa 33, se determina una diferencia de profundidad entre el mapa de profundidad actual y el mapa de profundidad de referencia, lo que permite determinar una posición de las partes del cuerpo del ocupante en el vehículo en la etapa 34. Esta evaluación de la imagen sirve para determinar en qué posiciones espaciales las manos tocan el vehículo. A partir de aquí, se puede determinar el elemento de control o el subsistema del vehículo que su ocupante quiere controlar o manejar. En la etapa 35, se determina una aproximación o un contacto con el elemento de control y, en función de ello, se genera y se emite información adicional relacionada con el elemento de control en la etapa 36.
La información sobre los puntos en que el ocupante toca o se acerca a las superficies del vehículo o a las superficies de los elementos de control puede utilizarse para diversas aplicaciones. Por ejemplo, si un usuario aún no está acostumbrado a la operación y desea obtener ayuda, puede ser suficiente con que toque con una mano el elemento de control que no le resulta familiar. Si se mantiene un poco más el contacto sobre el elemento de control desconocido, se puede activar una función de ayuda que, por ejemplo, muestra un texto de ayuda correspondiente o pictogramas de ayuda en una pantalla del vehículo, un terminal móvil conectado o unas gafas de vídeo. Para activar esta función auxiliar, por ejemplo, también se puede pulsar un botón auxiliar en el salpicadero o en una unidad central del vehículo. En un funcionamiento normal o rutinario, en el que no es necesaria asistencia, al tocar un elemento de control puede aparecer información contextual adicional que desaparece cuando deja de tocarse el elemento de control. Por ejemplo, cuando el conductor toca la palanca 17 de cambios, se puede mostrar dinámicamente en una pantalla del vehículo información adicional sobre, por ejemplo, el régimen actual del motor o el comportamiento óptimo del cambio de marchas. Por ejemplo, un toque del interruptor de la luz puede mostrar información contextual detallada de los sistemas de asistencia al conductor en una pantalla de visualización frontal sin que el conductor tenga que apartar la vista de la carretera. Además, se pueden definir elementos de control virtuales o incluso reales en el propio vehículo y colocarlos en posiciones del salpicadero que no estén ocupadas con otras funciones. A continuación, se puede entrenar un sistema de control, de manera que el usuario toque el salpicadero en esta ubicación y vincule esta zona tridimensional con una acción que debe activarse. El dispositivo de determinación de posición detecta y proporciona el contacto con la ubicación del salpicadero. Para que la ubicación en el salpicadero sea reconocible, se puede, por ejemplo, pegar un elemento de control mecánico pasivo en esta ubicación del salpicadero o colocar una pegatina. Además, se puede montar, por ejemplo, un sensor táctil en el salpicadero, que funciona, por ejemplo, de forma capacitiva, resistiva o acústica mediante un micrófono. El sensor táctil no requiere resolución espacial, ya que la posición de contacto es proporcionada por el dispositivo de determinación de posición, mientras que el sensor táctil solo determina y proporciona el momento del contacto. Esto facilita que puedan realizarse varios elementos de control reales y virtuales.
El dispositivo 11 de detección, que proporciona una información de imagen tridimensional y es de forma ideal una cámara de tiempo de vuelo, está montado mirando hacia abajo en la zona del espejo retrovisor interior 14 y tiene un área 13 de visión que cubre preferentemente todo el ancho del vehículo y, en la dirección longitudinal, la zona entre el conductor y el acompañante hasta por encima del salpicadero. Esta posición de instalación tiene la ventaja de que normalmente ya existe una fuente de alimentación en la zona del espejo retrovisor interior y se puede cubrir una zona del salpicadero, el volante y la consola central. La perspectiva de la cámara se selecciona preferentemente de forma que no quede oculta ninguna superficie relevante del objeto y, por tanto, todas las superficies relevantes del objeto puedan ser detectadas por el dispositivo 11 de detección. Utilizando la información de imagen tridimensional y detectando los estados sin y con usuarios y objetos ajenos al vehículo se puede detectar el contacto con los objetos mediante un sensor. Los diferentes objetos no tienen por qué incluir sistemas inteligentes y electrónicos propios. De forma alternativa, la posición del dispositivo 11 de detección puede ser variable con respecto a la superficie de observación, por ejemplo, el dispositivo 11 de detección puede estar integrado en unas gafas de vídeo que lleva el usuario. En este caso, la posición actual del dispositivo 11 de detección con respecto a las superficies de la zona 13 de detección se determina una y otra vez según el método mostrado en la Figura 3, para poder determinar, por ejemplo, el contacto de la mano con la superficie.
La determinación de posición de las partes del cuerpo del ocupante del vehículo mediante el dispositivo de determinación de posición puede utilizarse para otro tipo de vigilancia en el interior del vehículo. Por ejemplo, puede determinarse la atención del conductor a partir de los movimientos y las posiciones de agarre, como el hecho de que las manos del conductor estén en contacto con el volante 19, y puede emitirse la correspondiente advertencia si hay un fallo de atención. Además, se pueden determinar las personas que ocupan los asientos del vehículo, por ejemplo, para adaptar el despliegue del airbag a la ocupación de los asientos, por ejemplo, si un asiento está desocupado u ocupado por una silla infantil. Además, por ejemplo, puede llevarse a cabo automáticamente en el vehículo el registro automático de un terminal móvil, como un teléfono móvil, en un punto de acceso, por ejemplo un denominado punto de acceso WLAN, si se determina que el terminal móvil se encuentra en una determinada ubicación dentro del vehículo, por ejemplo, en la zona de una pantalla de una unidad central del vehículo. En otras palabras, por ejemplo, se puede llevar a cabo la denominada autenticación de dos factores, lo que aumenta la seguridad de la información en el vehículo. Una acción activada en un teléfono inteligente mediante contacto, por ejemplo, solo se acepta en el vehículo si el contacto o la posición correspondiente del teléfono inteligente se han determinado al mismo tiempo con la ayuda del dispositivo de determinación de posición del vehículo.
La evaluación de los datos de la imagen tridimensional dentro de la zona 13 de detección, que se ha descrito anteriormente con referencia a la Figura 3, se describirá en detalle a continuación junto con una cámara de tiempo de vuelo como dispositivo 11 de detección. Una cámara de tiempo de vuelo registra, para cada punto de imagen, la distancia desde el centro de la cámara a los puntos de imagen cercanos. A partir de esto, se puede calcular un mapa de profundidad o un mapa de distancia de los objetos 3D desde la cámara utilizando una proyección trasera en perspectiva. Una cámara de tiempo de vuelo emite, por ejemplo, luz infrarroja y mide el cambio de color de la luz reflejada. Sin embargo, dado que estas reflexiones son muy débiles, el mapa de profundidad presenta ruido y puede aplanarse, por ejemplo, mediante un filtro bilateral no lineal. Esta operación se asume para los pasos de cálculo que se describen a continuación.
Para la posterior descripción matemática, se introducen las siguientes magnitudes:
Zref (x, y) es el mapa de profundidad de referencia para todos los puntos (x, y) de imagen o píxeles cuando no hay ningún ocupante del vehículo u objeto ajeno al vehículo en la zona 13 de detección.
z (x, y) es el mapa de profundidad actual cuando están presentes un usuario o un objeto ajeno al vehículo. En particular, las zonas en las que el mapa de profundidad de referencia y el mapa de profundidad actual difieren son relevantes para la evaluación y el análisis de las imágenes.
o (x, y) identifica las regiones de objetos en la imagen que deben ser evaluadas para una interacción con el usuario. o (x, y) = 0 si no hay ningún objeto presente, y o (x, y) = i si hay un objeto i presente.
d (x, y) es una distancia que busca el punto más cercano del mapa de referencia (x', y', zref (x', y')) para cada punto (x, y, z (x, y)) en un entorno local U (x, y), y proporciona su distancia euclidiana en el espacio 3D.
s (d) es una función que asigna un valor a la distancia euclidiana de dos puntos para describir su relevancia en la proximidad de dos puntos.
Si es la relevancia global para la hipótesis de que un usuario se encuentre en las inmediaciones de un objeto i. Un objeto i viene definido por su región de objeto o (x, y) en la imagen y por su mapa de profundidad de referencia en el área de la región de objeto zref (x, y) para todo (x, y) con o (x, y) = i. Un objeto puede tener bordes desiguales y no es necesario que esté unido de forma sencilla.
En primer lugar, el mapa de profundidad de referencia zref (x, y) se toma sin usuario y se promedia en varias imágenes para minimizar el ruido. En cuanto un usuario entra en el interior del vehículo, se detectan los mapas de profundidad actuales z (x, y) y se determinan, para todos los puntos de imagen en la zona de los objetos registrados, sus distancias locales respecto a los siguientes puntos de imagen del objeto:
Figure imgf000008_0001
Un punto solo se reconoce como cercano a un objeto si tiene una distancia mínima respecto a los puntos del objeto, ya que los mapas de profundidad pueden presentar ruido. Sin embargo, la distancia al objeto no debe ser demasiado grande. Por lo tanto, se utiliza la función de relevancia s(d), que penaliza las distancias demasiado pequeñas o demasiado grandes. La Figura 5 muestra una función de relevancia correspondiente para evaluar las distancias, que descarta completamente las distancias por debajo de d0 y las distancias por encima de d2 , evalúa al máximo las distancias entre d0 y d1 y evalúa las distancias entre d1 y d2 con relevancia decreciente. d0 puede tener, por ejemplo, un valor de unos pocos milímetros, por ejemplo, de 3 a 10 mm, d1 un valor de 10 a 50 mm y d2 un valor de 20 a 100 mm.
La evidencia de que la mano del usuario está cerca de un objeto se suma sobre todos los puntos de imagen que pertenecen al objeto, lo que resulta en una relevancia total del objeto Si:
S i = ^ s(d(x,y)) Ví = 1...N
(x.y)EAi
Para reducir los errores de clasificación, la relevancia total se filtra temporalmente con un filtro de paso bajo y con ello se aplana:
S i (n) = aS i (n) + (1 - a)S i (n) 0 < a < 1
Aquí, n indica la unidad de tiempo. Si S i(n) está por encima de un umbral específico del objeto, se detecta que la mano está cerca del objeto. El dispositivo de determinación de posición es capaz de detectar múltiples contactos o aproximaciones. Por lo tanto, es «multitáctil» y puede reconocer varios objetos en una unidad de tiempo en paralelo, ya que los objetos y sus regiones se evalúan por separado.
Leyendas
10 Vehículo
11 Dispositivo de detección
12 Dispositivo de procesamiento
13 Zona de detección
14 Espejo retrovisor
15 Asiento del conductor
16 Asiento del acompañante
17 Palanca de cambios
18 Consola central
19 Volante
20 Salpicadero
30 Método
31-36 Etapa
40 Mapa de objetos
41-44 Objeto

Claims (1)

  1. REIVINDICACIONES
    Método para determinar una posición de un terminal móvil en un vehículo, donde el método comprende:
    - detectar un mapa de profundidad de referencia con un dispositivo (11) de detección, donde el mapa de profundidad de referencia indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de una zona (13) de detección del dispositivo (11) de detección, en el punto de imagen respectivo, mientras el terminal móvil no se encuentra en la zona (13) de detección,
    - detectar un mapa de profundidad actual con el dispositivo (11) de detección, donde el mapa de profundidad actual indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de la zona (13) de detección, en el punto de imagen respectivo, mientras el terminal móvil se encuentra en la zona (13) de detección, - determinar diferencias de profundidad para puntos de imagen de la zona (13) de detección, donde se determina una diferencia de profundidad para un punto de imagen en función de la información de distancia del mapa de profundidad de referencia en el punto de imagen y de la información de distancia del mapa de profundidad actual en el punto de imagen, y
    - determinar la posición del terminal móvil en función de las diferencias de profundidad,
    - determinar un contacto con un elemento de control del terminal móvil en función de la posición del terminal móvil, y
    - generar y emitir una información adicional relacionada con el elemento de control en función del contacto o la aproximación determinados,
    - habilitar un proceso de registro del terminal móvil en un punto de acceso para terminales móviles del vehículo en función de la posición del terminal móvil, donde se determina que una posición del terminal móvil está cerca de una superficie de un objeto del vehículo procesando una diferencia de profundidad para un punto de imagen del terminal móvil mediante una función de evaluación, donde la función de evaluación indica que la posición del terminal móvil está cerca de la superficie del objeto del vehículo si la diferencia de profundidad tiene un valor entre un primer valor umbral predeterminado y un segundo valor umbral predeterminado.
    Método según la reivindicación 1, caracterizado por que la información adicional comprende información sobre una función en la que puede influir el elemento de control.
    Dispositivo de determinación de posición para determinar una posición de un terminal móvil en un vehículo, donde el dispositivo de determinación de posición comprende:
    - un dispositivo (11) de detección para detectar un mapa de profundidad, donde el mapa de profundidad indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto en puntos de imagen de una zona (13) de detección del dispositivo (11) de detección en el punto de imagen respectivo, y
    - un dispositivo (12) de procesamiento acoplado al dispositivo (11) de detección, que está diseñado para
    - detectar un mapa de profundidad de referencia mediante el dispositivo (11) de detección, donde el mapa de profundidad de referencia indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de la zona (13) de detección del dispositivo (11) de detección, en el punto de imagen respectivo, mientras el terminal móvil no se encuentra en la zona (13) de detección,
    - detectar un mapa de profundidad actual mediante el dispositivo (11) de detección, donde el mapa de profundidad actual indica respectivamente una información de distancia entre el dispositivo (11) de detección y una superficie de un objeto para puntos de imagen de la zona (13) de detección, en el punto de imagen respectivo, mientras el terminal móvil se encuentra en la zona (13) de detección,
    - determinar diferencias de profundidad para puntos de imagen de la zona (13) de detección, donde se determina una diferencia de profundidad para un punto de imagen en función de la información de distancia del mapa de profundidad de referencia en el punto de imagen y de la información de distancia del mapa de profundidad actual en el punto de imagen,
    determinar la posición del terminal móvil en función de las diferencias de profundidad, donde el dispositivo (12) de procesamiento está diseñado además para determinar un contacto con un elemento de control del terminal móvil en función de la posición del terminal móvil, y
    generar y emitir información adicional relativa al elemento de control en función del contacto o la aproximación determinados, y
    habilitar un proceso de registro del terminal móvil en un punto de acceso del vehículo para terminales móviles en función de la posición del terminal móvil,
    donde se determina que una posición del terminal móvil está cerca de la superficie de un objeto del vehículo procesando una diferencia de profundidad para un punto de imagen del terminal móvil mediante una función de evaluación, donde la función de evaluación indica que la posición del terminal móvil está cerca de la superficie del objeto del vehículo cuando la diferencia de profundidad tiene un valor entre un primer valor umbral predeterminado y un segundo valor umbral predeterminado.
    Dispositivo de determinación de posición según la reivindicación 3, caracterizado por que el dispositivo (11) de detección comprende un fotodetector mezclador y/o una cámara de tiempo de vuelo.
    Vehículo con un dispositivo de determinación de posición según la reivindicación 3 o 4, caracterizado por que el dispositivo (11) de detección está dispuesto junto a un espejo retrovisor interior (14) del vehículo (10).
    Vehículo según la reivindicación 5, caracterizado por que el dispositivo (11) de detección está diseñado para detectar al menos una zona parcial de una superficie de al menos uno de los siguientes componentes del vehículo:
    - un salpicadero (20),
    - una consola central (18),
    - un volante (19),
    - un asiento (15) del conductor, y
    - una palanca (17) de cambios.
ES15812999T 2015-02-04 2015-12-10 Determinación de la posición de un objeto ajeno a un vehículo en un vehículo Active ES2902698T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015201901.2A DE102015201901B4 (de) 2015-02-04 2015-02-04 Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
PCT/EP2015/079210 WO2016124278A1 (de) 2015-02-04 2015-12-10 Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug

Publications (1)

Publication Number Publication Date
ES2902698T3 true ES2902698T3 (es) 2022-03-29

Family

ID=54884012

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15812999T Active ES2902698T3 (es) 2015-02-04 2015-12-10 Determinación de la posición de un objeto ajeno a un vehículo en un vehículo

Country Status (5)

Country Link
EP (1) EP3254172B1 (es)
KR (1) KR101946746B1 (es)
DE (1) DE102015201901B4 (es)
ES (1) ES2902698T3 (es)
WO (1) WO2016124278A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204053A1 (de) * 2018-03-16 2019-09-19 Brose Fahrzeugteile Gmbh & Co. Kommanditgesellschaft, Bamberg Verfahren zum Betrieb eines Innenraums eines Kraftfahrzeugs
DE102018130912A1 (de) * 2018-12-05 2020-06-10 Bayerische Motoren Werke Aktiengesellschaft System zur selektiven Formänderung eines Interieurbauteils eines Fahrzeugs
DE102019204481A1 (de) 2019-03-29 2020-10-01 Deere & Company System zur Erkennung einer Bedienabsicht an einer von Hand betätigbaren Bedieneinheit
US20220242313A1 (en) 2019-07-29 2022-08-04 Motherson Innovations Company Limited Interior rearview device with human machine interface and vehicle therewith
DE102021211215A1 (de) 2021-10-05 2023-04-06 Brose Fahrzeugteile Se & Co. Kommanditgesellschaft, Bamberg Verfahren zum Anlernen eines Systems zur Auslösung mindestens einer Funktion an einem Fahrzeug sowie Verfahren und System zur Auslösung mindestens einer Funktion an einem Fahrzeug

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3286219B2 (ja) * 1997-09-11 2002-05-27 トヨタ自動車株式会社 座席の使用状況判定装置
DE59809883D1 (de) * 1997-12-23 2003-11-13 Siemens Ag Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
DE19757595C2 (de) * 1997-12-23 2000-05-11 Siemens Ag Verfahren und Vorrichtung zur Aufnahme eines dreidimensionalen Abstandsbildes
DE10063697B4 (de) * 2000-12-20 2006-07-13 Siemens Ag Verfahren und Vorrichtung zur Erfassung der Position eines Elements in einem Fahrzeug, insbesondere für Insassenschutzsysteme
JP3752246B2 (ja) 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
DE102006013645A1 (de) * 2006-03-24 2007-10-25 Volkswagen Ag Bedienelement für ein Kraftfahrzeug
US7877706B2 (en) 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
JP4942814B2 (ja) 2007-06-05 2012-05-30 三菱電機株式会社 車両用操作装置
DE102011089195A1 (de) 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
DE102011112370A1 (de) 2011-09-02 2013-03-07 Audi Ag Kraftfahrzeug
DE102012218843A1 (de) 2012-10-16 2014-04-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung
DE102013000080B4 (de) * 2013-01-08 2015-08-27 Audi Ag Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors
DE102013000068A1 (de) * 2013-01-08 2014-07-10 Audi Ag Verfahren zum Synchronisieren von Anzeigeeinrichtungen eines Kraftfahrzeugs
CN103970459A (zh) 2013-01-30 2014-08-06 建兴电子科技股份有限公司 供交通工具使用的指令反馈系统及方法

Also Published As

Publication number Publication date
DE102015201901A1 (de) 2016-08-04
KR101946746B1 (ko) 2019-02-11
WO2016124278A1 (de) 2016-08-11
EP3254172A1 (de) 2017-12-13
DE102015201901B4 (de) 2021-07-22
KR20170105093A (ko) 2017-09-18
EP3254172B1 (de) 2021-12-08

Similar Documents

Publication Publication Date Title
ES2902698T3 (es) Determinación de la posición de un objeto ajeno a un vehículo en un vehículo
US11124118B2 (en) Vehicular display system with user input display
US10471894B2 (en) Method and apparatus for controlling vehicular user interface under driving circumstance
KR101901799B1 (ko) 차량용 사용자 인터페이스 제어 장치 및 제어 방법
JP2014518422A (ja) オブジェクト及び/又は人物及びそれによって行われ及び/又は実行されるジェスチャ及び/又は操作手順を非接触式に検出する装置及び方法
KR102311551B1 (ko) 자동 조정장치가 활성화되는 동안에 차량 내의 통신 단말기를 사용하기 위한 방법 및 차량
ES2372710T3 (es) Unidad de mando y procedimiento de mando.
US10732760B2 (en) Vehicle and method for controlling the vehicle
JP2016503741A (ja) 自動車用の入力装置
US20160193976A1 (en) Apparatus and method for assisting a user
US11132534B2 (en) Monitoring system
US20200018976A1 (en) Passenger heads-up displays for vehicles
US20160091978A1 (en) Gesture recognition apparatus, vehicle having the same and method for controlling the same
KR20160076294A (ko) 차량 제어 장치 및 그 제어 방법
KR20150054042A (ko) 차량 및 그 제어방법
KR102084032B1 (ko) 사용자 인터페이스, 운송 수단 및 사용자 구별을 위한 방법
JP7138175B2 (ja) バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム
JP2009129251A (ja) 操作入力装置
JP5549571B2 (ja) 車内状況表示装置
US20100106366A1 (en) Operation equipment for a vehicle
US20180297471A1 (en) Support to handle an object within a passenger interior of a vehicle
JP2007062668A (ja) 車両用入力装置
KR102263153B1 (ko) 동작 인식 장치 및 그 동작 방법
KR20140141285A (ko) 자동차용 탑승자 추적 장치
KR20160061942A (ko) 제스처 인식 장치 및 그 제어 방법