WO2016067082A1 - Method and device for gesture control in a vehicle - Google Patents

Method and device for gesture control in a vehicle Download PDF

Info

Publication number
WO2016067082A1
WO2016067082A1 PCT/IB2015/001966 IB2015001966W WO2016067082A1 WO 2016067082 A1 WO2016067082 A1 WO 2016067082A1 IB 2015001966 W IB2015001966 W IB 2015001966W WO 2016067082 A1 WO2016067082 A1 WO 2016067082A1
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
gesture
detection unit
head
detection
Prior art date
Application number
PCT/IB2015/001966
Other languages
German (de)
French (fr)
Inventor
Frank Schliep
Oliver Kirsch
Christian Sinn
Stephen WINTON
Xin Jiang
Original Assignee
Visteon Global Technologies, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies, Inc. filed Critical Visteon Global Technologies, Inc.
Publication of WO2016067082A1 publication Critical patent/WO2016067082A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/741Instruments adapted for user detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Definitions

  • the invention relates to a method for gesture control in one
  • the invention relates to a device for gesture control in
  • TOF cameras short for: time-of-flight camera
  • the TOF camera is based on an active one
  • Illumination of a scene for example by infrared light, and determines a duration of the light used for illumination by means of sensors. On this basis, a distance of the illuminated object from the TOF camera is then determined.
  • the object is achieved according to the invention with the features specified in claim 1.
  • the object is achieved according to the invention with the features specified in claim 10.
  • Detection unit image data of at least one position of an occupant and at least one gesture of the occupant in a detection range of
  • Capture unit are detected.
  • the detection unit formed as a 3D camera combines both the position of a head of the occupant, head movements and gesture movements are combined and analyzed, so that an ergonomic
  • Vehicle components based on an eye, head and / or
  • the registration unit is part of an interactive system
  • a 3D point cloud is generated on the basis of the captured image data for determining the position, gesture and at least one distance of the occupant.
  • the 3D point cloud makes it possible to determine a distance and position of an object and the occupant located in the detection area in a simple manner.
  • the detection area is subdivided into at least two interaction areas for recognizing and tracking a movement and / or a gesture of the occupant.
  • the movement and / or gesture of the head and the hand of the occupant can be detected spaced from each other.
  • One possible embodiment of the method provides that the movement and / or gesture of a head and a hand of the occupant in the same
  • Interaction area are recorded or will. This allows, for example, a quick activation or deactivation of the
  • Vehicle application or vehicle function Here, the movement and / or gesture of the head and the hand of the occupant can be determined clearly and thus quickly.
  • the movement and gesture executed by the occupant will be detected at the same time.
  • the position of the head is detected and rigid in combination with a 3D
  • Hand gesture of the occupant triggered the vehicle application in a fast manner.
  • the movement and / or gesture of the head and the hand carried out by the occupant are detected in at least one of the two interaction areas in different time periods.
  • a workload and an execution effort of the occupant, in particular of the driver may interact with and / or control at least one of them
  • Vehicle component can be reduced.
  • the driver can perform at intervals the movement of the head and then the hand.
  • the interaction and / or control is / are determined by detecting a line of sight of the occupant. In particular, this allows the driver to easily or simply activate or deactivate interaction with the vehicle application.
  • the viewing direction of eyes and / or eyelids of the eyes of the occupant is or are determined. This can be especially a tiredness and a
  • a device for gesture control in a vehicle interior comprises a detection unit which displays image data of at least one position of an occupant and at least one gesture of the occupant in one
  • Detection unit is designed as a 3D camera.
  • the detection unit is designed as a TOF camera (short for: time-of-flight camera).
  • the driver's gesture control is particularly accurate and targeted with the trained as a 3D camera or TOF camera
  • Capture unit detectable.
  • a body of the gesture-executing occupant or certain body parts of the occupant and a background serves as a reference area for the TOF camera.
  • Detection unit electrically connected to a multifunction display and / or integrated into a unit of the multi-function display.
  • the gesture and movement of the occupant provided for operating the multifunction display can be specifically detected by the detection unit.
  • the detection unit is data-technologically coupled to a control unit for processing and evaluating acquired image data, wherein the control unit compares the acquired image data with predetermined image data for evaluating the gesture or a state of the occupant. For example, due to the comparison of acquired image data with predetermined image data, a fast execution
  • Detection unit with a lighting unit for illuminating the
  • Detection area is signal coupled
  • Lighting unit for example, event-driven, for example, at predetermined intervals, emitted light in the infrared spectral range. In this case, a glare of the occupant is avoided, wherein the detection area for precise determination of the position or the gesture of the occupant is sufficiently illuminated.
  • FIG. 1 shows schematically a perspective view of a
  • Figure 2 schematically shows a block diagram of the device in a
  • FIG. 3 schematically shows a block diagram of the device in a further embodiment
  • FIG. 4 shows schematically a block diagram of the device in one
  • FIG. 1 shows a vehicle interior 1 of a vehicle not shown in detail with a device V, comprising a detection unit 2, for gesture control in the vehicle.
  • the detection unit 2 is designed here as a 3D camera.
  • the detection unit 2 is a TOF camera, a
  • Stereo camera or other suitable for the vehicle interior 1 SD camera is formed.
  • the detection unit 2 is in one
  • Dashboard 3 preferably in close proximity to one
  • Multifunction display 3.1 arranged such that an occupant 4,
  • Upper body area can be determined.
  • the multi-function display 3.1 is in particular an infotainment system.
  • the detection unit 2 comprises a detection area E which is directed into the vehicle interior 1, wherein the detection area E detects at least one position of a head 4.1 of the occupant 4 and a movement performed by the occupant 4 as a gesture.
  • a gesture for example, a movement of the head 4.1 and / or a movement of a hand 4.2 and / or an arm of the
  • Occupant 4 detected to trigger an associated with the movement and / or gesture of the head 4.1 and / or the hand 4.2 application.
  • the detection unit 2 in the form of the TOF camera is connected to a control unit 6, which detected with the detection unit 2
  • Image data I processed and evaluated.
  • the detection unit 2 is, for example, as one
  • Thermal imaging camera in particular as an infrared camera, formed with an active illumination of a scene using infrared light and determined by a transit time measurement of a light used for illumination, a distance of an illuminated object.
  • an illuminated object is, for example, the upper body portion or the head portion of the occupant 4.
  • a scene or gesture in particular the temporal position of the head 4.1 and / or the hand 4.2, in the detection area E of
  • Detecting unit 2 detected. This scene or gesture is going through
  • the TOF camera using a 3D point cloud to determine the distance of the illuminated object by an amplitude evaluation of the intensity of the reflected and detected light signals in
  • Detection area E recorded.
  • the detection unit 2 and a lighting unit 5 are arranged in the dashboard 3 and signal technology coupled that the light at predetermined intervals light, especially in the infrared spectral range, emitting lighting unit 5 the detection area E of
  • Detection unit 2 illuminated.
  • the detection unit 2 comprises such an optical
  • Detection area E local areas or local zones can capture, for example, a
  • the detection unit 2 is in particular electrically connected to the multifunction display 3.1 and / or in a structural unit of
  • the movement and / or gesture in particular an extrapolation of the movement and / or gesture of the occupant 4 to detect relative to the multifunction unit 3.1 within the detection area E. Detection and / or tracking of the movement and / or gesture of the occupant 4 is performed by the detection unit 2 in the same
  • Detection area E wherein the head 4.1 and the hand 4.2 of the occupant 4 independently of each other can trigger the associated with the executed movement and / or gesture application.
  • the detection range E of the detection unit 2 in at least two interaction areas, in which in each case the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 from each other
  • One possibility for the rapid activation or deactivation of the application desired by the occupant 4 is based on the processing of at least simultaneously acquired image data I from the occupant 4
  • Image data I detected a different movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4.
  • two movements and / or gestures executed in the same interaction area and associated with the application can be activated or deactivated, whereby, for example, the position of the head 4.1 is detected and in combination with a 3D rigid hand gesture of the occupant 4 the application is triggered.
  • the second possibility can be at least one workload of the
  • Vehicle component is detected by detecting the line of sight of the eyes of the occupant 4 within the interaction area of
  • Detection area E determined, the interaction and / or control based on the associated with the application and detected motion and / or gesture, in particular hand gesture of the occupant 4, takes place.
  • the interaction and / or control may be determined by the combination of the movement associated with the application and / or gesture of the head 4.1 and the hand 4.2. For example, based on the extrapolation of the hand gesture, in particular finger gesture, and a subsequent movement and / or gesture of the head 4.1, in particular nodding, the interaction and / or the control of the at least one
  • Detection unit 2 can be detected, for example, as the associated with the application movement and / or gesture of the occupant 4. To effectively monitor a behavior of the occupant 4 is the
  • Detection unit 2 directed into the vehicle interior 1, in particular outside a (main) axis.
  • a method based on a 3D model for the partial recognition of the head 4.1 is provided.
  • the position of the head 4.1 and / or the eye and / or a nose vector and / or facial features of the occupant 4 can be detected thereby.
  • This detection takes place in particular on the basis of a filter algorithm, for example a so-called Kalman filter, for processing statically estimated and / or predicted values.
  • FIGS. 2 to 4 each show a block diagram of an embodiment of the device V for detecting and / or detecting the head 4.1 of FIG.
  • Inmates 4 shown.
  • a sequence of the method for detecting and / or detecting the head 4.1 of the occupant 4 is shown.
  • the detection unit 2 For illuminating the detection area E, the detection unit 2 is electrically coupled to the illumination unit 5. For processing and
  • Detection unit 2 electrically coupled to the control unit 6.
  • image data I include, for example, movements, gestures and / or
  • the image data I in particular of the upper body region of the occupant 4, in the detection area E are determined on the basis of local coordinates and light reflections of the object.
  • protruding facial features and / or facial structures are detected on the basis of detected amplitude maps.
  • the device V comprises, for example, an interface S1 to
  • the detection and / or detection of the head 4.1 of the occupant 4 is based on a combination of 2D and 3D Algohthmen to largely appropriate information from the 3D point cloud and the
  • the device V comprises a connection interface S2, which detected the from the 3D point cloud and amplitude mapping
  • Image data I includes and is provided for noise filtering the captured image data I.
  • the device V comprises a
  • a verification interface S4 of the device V is provided for checking the position of the head 4.1 within at least one segment, wherein the position of the head 4.1 by a head-shoulder detector S4.1 is determined.
  • the segments are each compared with a head-shoulder template S4.2 or a reference.
  • the head-and-shoulders template S4.2 is aligned to the segment such that the head-shoulder template S4.2 scales at least with a segment size, the head-shoulder template S4.2 based on a rotation is aligned.
  • the segment with a largely high agreement to the head and shoulder template S4.2 are at least heuristic
  • Assumptions S4.4 further coordinates for completing the position of the head 4.1 is determined.
  • the position of the head 4.1 is determined based on an upper body template S4.3, in which at least body parts of the upper body of the occupant 4 are compared with pre-stored forms of the upper body of a human. Subsequently, with a match based on heuristic assumptions S4.4, further coordinates for completing the position of the head 4.1 are determined.
  • a head of the pre-stored shape of the upper body has an elliptical shape.
  • Evaluation interface S5 estimated the position and viewing direction of the head 4.1 of the occupant 4 within a current freeze frame, with a largely suitable for estimation algorithm S5.1 is determined in advance.
  • the position and direction of the head 4.1 can largely on the basis of acquired image data I of the current still image be determined. This is done via an output interface S5.2 as a function of the algorithm S5.1 the evaluation interface S5, wherein the captured image data I then as a motion and
  • Position sequences S5.3 determines a subsequent position and / or viewing direction of the head 4.1 of the occupant 4.
  • the position and / or viewing direction of the head 4.1 can be determined based on the nose vector.
  • a viewing direction of the eye can differ from the viewing direction of the head 4.1, wherein the viewing direction of the eye can be determined, for example, by detecting at least one pupil.
  • a condition of the occupant 4 in particular a tiredness of the driver, for example, a number of eyelids, intervals between the respective eyelid beats and / or duration of a
  • Such captured image data I are stored in a memory interface S6 or in the control unit 6, wherein the captured image data I can be retrieved at any time.
  • a decision is made on the basis of a preprogrammed in the control unit 6 decision tree, which automatically from the stored image data I at least one suitable method, in particular detection by nose vector and / or
  • Eye position selects to capture the line of sight of the occupant 4. Furthermore, individual information about head size, face geometry and / or head-to-shoulder distance can be different
  • Inmates 4 are stored, which are available at any time.
  • the method can also be used to improve driving experience and / or driving safety, and / or to monitor the driver and / or

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for gesture control in a vehicle interior (1), wherein according to the invention image data (I) of at least one position of an occupant (4) and at least one gesture of the occupant (4) are detected by the detection unit (2), which is designed as a 3D camera, in a detection region (E) of the detection unit (2). The invention further relates to a device (V) for gesture control in a vehicle interior (1).

Description

Verfahren und Vorrichtung zur Gestensteuerung in einem Fahrzeug  Method and device for gesture control in a vehicle
Beschreibung description
Die Erfindung betrifft ein Verfahren zur Gestensteuerung in einem The invention relates to a method for gesture control in one
Fahrzeuginnenraum gemäß dem Oberbegriff des Anspruchs 1. Weiterhin betrifft die Erfindung eine Vorrichtung zur Gestensteuerung im Vehicle interior according to the preamble of claim 1. Furthermore, the invention relates to a device for gesture control in
Fahrzeuginnenraum. Vehicle interior.
Aus dem Stand der Technik sind sogenannte TOF-Kameras (kurz für: time- of-flight-Kamera) bekannt, die mit einem Laufzeitverfahren Distanzen zu Objekten ermittelt. Hierbei basiert die TOF-Kamera auf einer aktiven So-called TOF cameras (short for: time-of-flight camera) are known from the prior art, which determine distances to objects with a transit time method. Here, the TOF camera is based on an active one
Beleuchtung einer Szene, beispielsweise durch Infrarotlicht, und ermittelt eine Laufzeit des zur Beleuchtung verwendeten Lichtes mittels Sensoren. Auf dieser Grundlage wird dann eine Entfernung des beleuchteten Objektes von der TOF-Kamera bestimmt. Illumination of a scene, for example by infrared light, and determines a duration of the light used for illumination by means of sensors. On this basis, a distance of the illuminated object from the TOF camera is then determined.
Aufgabe der vorliegenden Erfindung ist es, ein gegenüber dem Stand der Technik verbessertes Verfahren und eine verbesserte Vorrichtung zurObject of the present invention is to provide a comparison with the prior art improved method and an improved apparatus for
Gestensteuerung in einem Fahrzeug mit einer Erfassungseinheit anzugeben. Indicate gesture control in a vehicle with a detection unit.
Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß mit den in Anspruch 1 angegebenen Merkmalen gelöst. Hinsichtlich der Vorrichtung wird die Aufgabe erfindungsgemäß mit den in Anspruch 10 angegebenen Merkmalen gelöst. With regard to the method, the object is achieved according to the invention with the features specified in claim 1. With regard to the device, the object is achieved according to the invention with the features specified in claim 10.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Advantageous embodiments of the invention are the subject of
Unteransprüche. In dem Verfahren zur Gestensteuerung im Fahrzeuginnenraum werden erfindungsgemäß durch eine als 3D-Kamera ausgebildeten Dependent claims. In the method for gesture control in the vehicle interior according to the invention by a trained as a 3D camera
Erfassungseinheit Bilddaten zumindest einer Position eines Insassen und zumindest einer Geste des Insassen in einem Erfassungsbereich der Detection unit image data of at least one position of an occupant and at least one gesture of the occupant in a detection range of
Erfassungseinheit erfasst werden. Capture unit are detected.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass die als 3D-Kamera ausgebildete Erfassungseinheit sowohl die Position eines Kopfes des Insassen, Kopfbewegungen als auch Gestenbewegungen kombiniert erfasst und analysiert werden, so dass ein ergonomisches The advantages achieved by the invention are, in particular, that the detection unit formed as a 3D camera combines both the position of a head of the occupant, head movements and gesture movements are combined and analyzed, so that an ergonomic
Arbeiten und Bedienen von Fahrzeugfunktionen und/oder Working and operating vehicle functions and / or
Fahrzeugkomponenten anhand einer Augen-, Kopf- und/oder Vehicle components based on an eye, head and / or
Gestensteuerung des Insassen im Fahrzeug ermöglicht sind bzw. ist. Die Erfassungseinheit ist dabei als Bestandteil einer interaktiven Gesture control of the occupant in the vehicle are possible or is. The registration unit is part of an interactive system
Benutzerschnittstelle für Interaktionen und Steuerungen anhand von Gesten mit oder ohne Kontaktierung eines Festkörpers des Fahrzeugs ausgebildet, wobei die Gesten insbesondere von einer Person ausgeführt werden. In einer möglichen Ausgestaltung des Verfahrens wird anhand der erfassten Bilddaten eine 3D-Punktwolke zur Ermittlung der Position, Geste und zumindest einer Entfernung des Insassen generiert. Insbesondere wird durch die 3D-Punktwolke eine Ermittlung einer Entfernung und Position eines sich im Erfassungsbereich befindenden Objekts und des Insassen in einfacher Art und Weise ermöglicht.  User interface for interactions and controls formed by gestures with or without contacting a solid of the vehicle, the gestures are carried out in particular by a person. In one possible embodiment of the method, a 3D point cloud is generated on the basis of the captured image data for determining the position, gesture and at least one distance of the occupant. In particular, the 3D point cloud makes it possible to determine a distance and position of an object and the occupant located in the detection area in a simple manner.
In einer weiteren Ausbildung des Verfahrens werden zur Überprüfung der Position und Geste diese mit einer generierten und vorgegebenen Kopf- Schulter-Vorlage oder einer Oberkörper-Vorlage verglichen. Anhand dieser Vorlagen können die Position und Geste insbesondere schnell ausgewertet werden. Eine weitere Ausgestaltung des Verfahrens sieht vor, dass der Erfassungsbereich in zumindest zwei Interaktionsbereiche zur Erkennung und Verfolgung einer Bewegung und/oder einer Geste des Insassen unterteilt wird. Somit kann insbesondere die Bewegung und/oder Geste des Kopfes und der Hand des Insassen voneinander beabstandet erfasst werden. In a further embodiment of the method, to verify the position and gesture, these are compared with a generated and given head-shoulder template or an upper body template. Based on these templates, the position and gesture can in particular be evaluated quickly. A further embodiment of the method provides that the detection area is subdivided into at least two interaction areas for recognizing and tracking a movement and / or a gesture of the occupant. Thus, in particular, the movement and / or gesture of the head and the hand of the occupant can be detected spaced from each other.
Eine mögliche Ausbildung des Verfahrens sieht vor, dass die Bewegung und/oder Geste eines Kopfes und einer Hand des Insassen im selben One possible embodiment of the method provides that the movement and / or gesture of a head and a hand of the occupant in the same
Interaktionsbereich erfasst werden bzw. wird. Dies ermöglicht beispielsweise eine schnell ausgeführte Aktivierung oder Deaktivierung der Interaction area are recorded or will. This allows, for example, a quick activation or deactivation of the
Fahrzeuganwendung oder Fahrzeugfunktion. Hierbei kann die Bewegung und/oder Geste des Kopfes und der Hand des Insassen eindeutig und somit schnell ermittelt werden. Vehicle application or vehicle function. Here, the movement and / or gesture of the head and the hand of the occupant can be determined clearly and thus quickly.
In einer Weiterbildung des Verfahrens werden die vom Insassen ausgeführte Bewegung und Geste zeitgleich erfasst werden. Beispielsweise wird die Position des Kopfes erfasst und in Kombination mit einer 3D starren In a development of the method, the movement and gesture executed by the occupant will be detected at the same time. For example, the position of the head is detected and rigid in combination with a 3D
Handgeste des Insassen die Fahrzeuganwendung auf schnelle Art und Weise ausgelöst. Hand gesture of the occupant triggered the vehicle application in a fast manner.
In einer weiteren Ausführungsform des Verfahrens werden die vom Insassen ausgeführte Bewegung und/oder Geste des Kopfes und der Hand in zumindest einem der beiden Interaktionsbereichen in unterschiedlichen Zeiträumen erfasst. Hierbei können insbesondere eine Arbeitsbelastung und ein Ausführungsaufwand des Insassen, insbesondere des Fahrers, zur Interaktion mit und/oder zur Steuerung zumindest einer In a further embodiment of the method, the movement and / or gesture of the head and the hand carried out by the occupant are detected in at least one of the two interaction areas in different time periods. In particular, a workload and an execution effort of the occupant, in particular of the driver, may interact with and / or control at least one of them
Fahrzeugkomponente reduziert werden. Somit kann der Fahrer in zeitlichen Abständen die Bewegung des Kopfes und anschließend der Hand ausführen. In einer weiteren Ausbildung des Verfahrens werden bzw. wird die Interaktion und/oder Steuerung durch die Erfassung einer Blickrichtung des Insassen ermittelt. Dies ermöglicht dem Fahrer insbesondere eine unkomplizierte und einfach ausführbare Aktivierung oder Deaktivierung der Interaktion mit der Fahrzeuganwendung. Vehicle component can be reduced. Thus, the driver can perform at intervals the movement of the head and then the hand. In a further embodiment of the method, the interaction and / or control is / are determined by detecting a line of sight of the occupant. In particular, this allows the driver to easily or simply activate or deactivate interaction with the vehicle application.
In einer möglichen Ausführungsform des Verfahrens werden bzw. wird die Blickrichtung von Augen und/oder Lidschläge der Augen des Insassen ermittelt. Dadurch kann insbesondere eine Müdigkeit und eine In one possible embodiment of the method, the viewing direction of eyes and / or eyelids of the eyes of the occupant is or are determined. This can be especially a tiredness and a
Aufmerksamkeit des Fahrers überwacht werden. Attention of the driver to be monitored.
Eine Vorrichtung zur Gestensteuerung in einem Fahrzeuginnenraum umfasst eine Erfassungseinheit, welche Bilddaten zumindest einer Position eines Insassen und zumindest einer Geste des Insassen in einem A device for gesture control in a vehicle interior comprises a detection unit which displays image data of at least one position of an occupant and at least one gesture of the occupant in one
Erfassungsbereich der Erfassungseinheit erfasst, wobei die Detected detection range of the detection unit, wherein the
Erfassungseinheit als eine 3D-Kamera ausgebildet ist. Insbesondere ist die Erfassungseinheit als eine TOF-Kamera (kurz für: time-of-flight-Kamera) ausgebildet. Die Gestensteuerung des Fahrers ist insbesondere genau und gezielt mit der als 3D-Kamera oder TOF-Kamera ausgebildeten  Detection unit is designed as a 3D camera. In particular, the detection unit is designed as a TOF camera (short for: time-of-flight camera). The driver's gesture control is particularly accurate and targeted with the trained as a 3D camera or TOF camera
Erfassungseinheit erfassbar. Hierbei dient ein Körper des die Gesten ausführenden Insassen oder bestimmte Körperteile des Insassen und ein Hintergrund als Bezugsbereich für die TOF-Kamera. Capture unit detectable. Here, a body of the gesture-executing occupant or certain body parts of the occupant and a background serves as a reference area for the TOF camera.
Eine weitere Ausführungsform der Vorrichtung sieht vor, dass die A further embodiment of the device provides that the
Erfassungseinheit mit einer Multifunktionsanzeige elektrisch verbunden und/oder in eine Baueinheit der Multifunktionsanzeige integriert ist. Detection unit electrically connected to a multifunction display and / or integrated into a unit of the multi-function display.
Insbesondere ist die zur Bedienung der Multifunktionsanzeige vorgesehene Geste und Bewegung des Insassen gezielt von der Erfassungseinheit detektierbar. In einer möglichen Ausgestaltung der Vorrichtung ist die Erfassungseinheit mit einer Steuereinheit zur Verarbeitung und Auswertung erfasster Bilddaten datentechnisch gekoppelt, wobei die Steuereinheit die erfassten Bilddaten mit vorgegebenen Bilddaten zur Auswertung der Geste oder eines Zustande des Insassen vergleicht. Beispielsweise ist aufgrund des Vergleichs erfasster Bilddaten mit vorgegebenen Bilddaten eine schnelle Ausführung In particular, the gesture and movement of the occupant provided for operating the multifunction display can be specifically detected by the detection unit. In one possible refinement of the device, the detection unit is data-technologically coupled to a control unit for processing and evaluating acquired image data, wherein the control unit compares the acquired image data with predetermined image data for evaluating the gesture or a state of the occupant. For example, due to the comparison of acquired image data with predetermined image data, a fast execution
unterschiedlicher Fahrzeugfunktionen ermöglicht. Zudem ist die Auswertung erfasster Bilddaten zur Erhöhung einer Fahrsicherheit, insbesondere zur Überwachung des Fahrers während der Fahrt, und zur different vehicle functions allows. In addition, the evaluation of acquired image data to increase driving safety, in particular for monitoring the driver while driving, and the
Sitzbelegungserkennung vorgesehen. Seat occupancy recognition provided.
Eine weitere Ausgestaltung der Vorrichtung sieht vor, dass die A further embodiment of the device provides that the
Erfassungseinheit mit einer Beleuchtungseinheit zur Beleuchtung des Detection unit with a lighting unit for illuminating the
Erfassungsbereichs signaltechnisch gekoppelt ist, wobei die Detection area is signal coupled, the
Beleuchtungseinheit beispielsweise ereignisgesteuert, zum Beispiel in vorgebbaren Abständen, Licht im Infrarotspektralbereich emittiert. Hierbei ist eine Blendung des Insassen vermieden, wobei der Erfassungsbereich zur präzisen Ermittlung der Position bzw. der Geste des Insassen ausreichend beleuchtet ist. Lighting unit, for example, event-driven, for example, at predetermined intervals, emitted light in the infrared spectral range. In this case, a glare of the occupant is avoided, wherein the detection area for precise determination of the position or the gesture of the occupant is sufficiently illuminated.
Ausführungsbeispiele der Erfindung werden anhand von Zeichnungen näher erläutert. Embodiments of the invention will be explained in more detail with reference to drawings.
Dabei zeigen: Showing:
Figur 1 schematisch eine perspektivische Ansicht eines 1 shows schematically a perspective view of a
Fahrzeuginnenraumes mit einer Vorrichtung zur  Vehicle interior with a device for
Gestensteuerung, Figur 2 schematisch ein Blockschaltbild der Vorrichtung in einer  Gesture control, Figure 2 schematically shows a block diagram of the device in a
möglichen Ausführungsform, Figur 3 schematisch ein Blockschaltbild der Vorrichtung in einer weiteren Ausführungsform, und possible embodiment, FIG. 3 schematically shows a block diagram of the device in a further embodiment, and
Figur 4 schematisch ein Blockschaltbild der Vorrichtung in einer FIG. 4 shows schematically a block diagram of the device in one
möglichen Ausgestaltung.  possible design.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Corresponding parts are the same in all figures
Bezugszeichen versehen. Provided with reference numerals.
Figur 1 zeigt einen Fahrzeuginnenraum 1 eines nicht näher dargestellten Fahrzeuges mit einer Vorrichtung V, umfassend eine Erfassungseinheit 2, zur Gestensteuerung im Fahrzeug. 1 shows a vehicle interior 1 of a vehicle not shown in detail with a device V, comprising a detection unit 2, for gesture control in the vehicle.
Die Erfassungseinheit 2 ist hierbei als eine 3D-Kamera ausgebildet. The detection unit 2 is designed here as a 3D camera.
Insbesondere ist die Erfassungseinheit 2 als eine TOF-Kamera, eine In particular, the detection unit 2 is a TOF camera, a
Stereokamera oder eine andere für den Fahrzeuginnenraum 1 geeignete SD- Kamera ausgebildet. Stereo camera or other suitable for the vehicle interior 1 SD camera is formed.
Im Fahrzeuginnenraum 1 ist die Erfassungseinheit 2 in einem In the vehicle interior 1, the detection unit 2 is in one
Armaturenbrett 3, bevorzugt in unmittelbarer Nähe zu einer Dashboard 3, preferably in close proximity to one
Multifunktionsanzeige 3.1 derart angeordnet, dass ein Insasse 4, Multifunction display 3.1 arranged such that an occupant 4,
insbesondere zumindest ein Oberkörperbereich des Insassen 4, erfassbar ist, wobei der Insasse 4, insbesondere eine Bewegung seines in particular at least one upper body region of the occupant 4, can be detected, wherein the occupant 4, in particular a movement of his
Oberkörperbereichs, ermittelbar ist. Upper body area, can be determined.
Bei der Multifunktionsanzeige 3.1 handelt es sich insbesondere um ein Infotainmentsystem. Die Erfassungseinheit 2 umfasst einen Erfassungsbereich E, der in den Fahrzeuginnenraum 1 gerichtet ist, wobei der Erfassungsbereich E zumindest eine Position eines Kopfes 4.1 des Insassen 4 und eine durch den Insassen 4 ausgeführte Bewegung als Geste erfasst. The multi-function display 3.1 is in particular an infotainment system. The detection unit 2 comprises a detection area E which is directed into the vehicle interior 1, wherein the detection area E detects at least one position of a head 4.1 of the occupant 4 and a movement performed by the occupant 4 as a gesture.
Als Geste sind bzw. ist beispielsweise eine Bewegung des Kopfes 4.1 und/oder eine Bewegung einer Hand 4.2 und/oder eines Arms des As a gesture, for example, a movement of the head 4.1 and / or a movement of a hand 4.2 and / or an arm of the
Insassen 4 erfassbar, um eine mit der Bewegung und/oder Geste des Kopfes 4.1 und/oder der Hand 4.2 verknüpfte Anwendung auszulösen. Occupant 4 detected to trigger an associated with the movement and / or gesture of the head 4.1 and / or the hand 4.2 application.
Hierzu ist die Erfassungseinheit 2 in Form der TOF-Kamera mit einer Steuereinheit 6 verbunden, die mit der Erfassungseinheit 2 erfasste For this purpose, the detection unit 2 in the form of the TOF camera is connected to a control unit 6, which detected with the detection unit 2
Bilddaten I verarbeitet und auswertet. Image data I processed and evaluated.
Des Weiteren ist die Erfassungseinheit 2 beispielsweise als eine Furthermore, the detection unit 2 is, for example, as one
Wärmebildkamera, insbesondere als eine Infrarotkamera, ausgebildet mit einer aktiven Beleuchtung einer Szene unter Verwendung von Infrarotlicht und ermittelt über eine Laufzeitmessung eines zur Beleuchtung verwendeten Lichts eine Entfernung eines beleuchteten Objektes. Solch ein beleuchtetes Objekt ist zum Beispiel der Oberkörperbereich oder der Kopfbereich des Insassen 4. Thermal imaging camera, in particular as an infrared camera, formed with an active illumination of a scene using infrared light and determined by a transit time measurement of a light used for illumination, a distance of an illuminated object. Such an illuminated object is, for example, the upper body portion or the head portion of the occupant 4.
Dabei ist eine Szene oder Geste, insbesondere die zeitliche Position des Kopfes 4.1 und/oder die der Hand 4.2, im Erfassungsbereich E der In this case, a scene or gesture, in particular the temporal position of the head 4.1 and / or the hand 4.2, in the detection area E of
Erfassungseinheit 2 erfassbar. Diese Szene oder Geste wird durch Detecting unit 2 detected. This scene or gesture is going through
entsprechende Kameradateneinstellungen und Kameraeigenschaften beispielsweise der TOF-Kamera anhand einer 3D-Punktwolke zur Ermittlung der Entfernung des beleuchteten Objektes durch eine Amplitudenauswertung der Intensität der reflektierten und erfassten Lichtsignale im corresponding camera data settings and camera properties, for example, the TOF camera using a 3D point cloud to determine the distance of the illuminated object by an amplitude evaluation of the intensity of the reflected and detected light signals in
Erfassungsbereich E erfasst. Vorzugsweise sind die Erfassungseinheit 2 und eine Beleuchtungseinheit 5 derart im Armaturenbrett 3 angeordnet und signaltechnisch gekoppelt, dass die in vorgebbaren Abständen Licht, insbesondere im Infrarotspektralbereich, emittierende Beleuchtungseinheit 5 den Erfassungsbereich E der Detection area E recorded. Preferably, the detection unit 2 and a lighting unit 5 are arranged in the dashboard 3 and signal technology coupled that the light at predetermined intervals light, especially in the infrared spectral range, emitting lighting unit 5 the detection area E of
Erfassungseinheit 2 beleuchtet. Detection unit 2 illuminated.
Weiterhin umfasst die Erfassungseinheit 2 ein derart optisches Furthermore, the detection unit 2 comprises such an optical
Auflösungsvermögen, dass die Erfassungseinheit 2 innerhalb des Resolution that the detection unit 2 within the
Erfassungsbereiches E Ortsbereiche oder lokale Zonen, wie zum Beispiel den Kopf 4.1 , ein Gesicht, insbesondere Augen und/oder Nase, und/oder die Hand 4.2 des Insassen 4, erfassen kann, um beispielsweise eine Detection area E local areas or local zones, such as the head 4.1, a face, in particular eyes and / or nose, and / or the hand 4.2 of the occupant 4, can capture, for example, a
Blickrichtung der Augen, eine Bewegung des Kopfes 4.1 und/oder eine Geste der Hand 4.2 des Insassen 4 zu ermitteln. Die Erfassungseinheit 2 ist insbesondere mit der Multifunktionsanzeige 3.1 elektrisch verbunden und/oder in eine Baueinheit der Viewing direction of the eyes to detect a movement of the head 4.1 and / or a gesture of the hand 4.2 of the occupant 4. The detection unit 2 is in particular electrically connected to the multifunction display 3.1 and / or in a structural unit of
Multifunktionsanzeige 3.1 integriert. Multifunction display 3.1 integrated.
Durch diese Anordnung ist es in vorteilhafter Weise möglich, mit einer weitestgehend hohen Präzision die Bewegung und/oder Geste, insbesondere eine Extrapolation der Bewegung und/oder Geste des Insassen 4, relativ zu der Multifunktionseinheit 3.1 innerhalb des Erfassungsbereiches E zu erfassen. Eine Erkennung und/oder Verfolgung der Bewegung und/oder Geste des Insassen 4 erfolgt durch die Erfassungseinheit 2 im selben By this arrangement, it is possible in an advantageous manner, with a largely high precision, the movement and / or gesture, in particular an extrapolation of the movement and / or gesture of the occupant 4 to detect relative to the multifunction unit 3.1 within the detection area E. Detection and / or tracking of the movement and / or gesture of the occupant 4 is performed by the detection unit 2 in the same
Erfassungsbereich E, wobei der Kopf 4.1 und die Hand 4.2 des Insassen 4 unabhängig voneinander die mit der ausgeführten Bewegung und/oder Geste verknüpfte Anwendung auslösen können. Hierbei wird der Erfassungsbereich E der Erfassungseinheit 2 in zumindest zwei Interaktionsbereiche, in welchen jeweils die Bewegung und/oder Geste des Kopfes 4.1 und die der Hand 4.2 des Insassen 4 voneinander Detection area E, wherein the head 4.1 and the hand 4.2 of the occupant 4 independently of each other can trigger the associated with the executed movement and / or gesture application. Here, the detection range E of the detection unit 2 in at least two interaction areas, in which in each case the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 from each other
beabstandet erfasst werden, unterteilt. be divided at a distance.
Alternativ kann auch eine Kombination aus der Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 des Insassen 4 relativ zueinander, insbesondere im selben Interaktionsbereich des Erfassungsbereiches E, erfassbar sein, um beispielsweise eine gewünschte Anwendung, Alternatively, a combination of the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 relative to one another, in particular in the same interaction region of the detection area E, be detectable, for example, a desired application,
insbesondere Funktion des Fahrzeuges, zu aktivieren oder deaktivieren. in particular function of the vehicle, to activate or deactivate.
Für solche Anwendungen, bei denen die Bewegung und/oder Geste des Kopfes 4.1 und die der Hand 4.2 im selben Interaktionsbereich zu erfassen sind, sind unterschiedliche Möglichkeiten zur Verarbeitung erfasster For applications in which the movement and / or gesture of the head 4. 1 and that of the hand 4. 2 are to be recorded in the same interaction area, different possibilities for processing are covered
Bilddaten I vorgesehen. Image data I provided.
Eine Möglichkeit zur schnellen Aktivierung oder Deaktivierung der vom Insassen 4 gewünschten Anwendung basiert auf der Verarbeitung zumindest zeitgleich erfasster Bilddaten I von vom Insassen 4 ausgeführten One possibility for the rapid activation or deactivation of the application desired by the occupant 4 is based on the processing of at least simultaneously acquired image data I from the occupant 4
Bewegungen und/oder Gesten im selben Interaktionsbereich des Movements and / or gestures in the same interaction area of the
Erfassungsbereiches E. Detection range E.
Eine weitere Möglichkeit basiert auf der Verarbeitung von in Another possibility is based on the processing of in
unterschiedlichen Zeiträumen erfassten Bilddaten I einer Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 des Insassen 4. Image data I detected a different movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4.
Durch die erste Möglichkeit kann die Anwendung des Fahrzeuges By the first possibility, the application of the vehicle
beispielsweise über zwei im selben Interaktionsbereich ausgeführte und mit der Anwendung verknüpften Bewegungen und/oder Gesten aktiviert oder deaktiviert werden, wobei beispielsweise die Position des Kopfes 4.1 erfasst und in Kombination mit einer 3D starren Handgeste des Insassen 4 die Anwendung ausgelöst wird. For example, two movements and / or gestures executed in the same interaction area and associated with the application can be activated or deactivated, whereby, for example, the position of the head 4.1 is detected and in combination with a 3D rigid hand gesture of the occupant 4 the application is triggered.
Die zweite Möglichkeit kann zumindest eine Arbeitsbelastung des The second possibility can be at least one workload of the
Insassen 4, insbesondere eines Fahrers, zur Interaktion mit zumindest einer Fahrzeugkomponente und/oder zur Steuerung der Fahrzeugkomponente reduzieren, wobei die Interaktion und/oder Steuerung nahe des Kopfes 4.1 und/oder der Hand 4.2 des Insassen 4 erfolgt. Die Interaktion mit und/oder die Steuerung der zumindest einen Inmates 4, in particular of a driver, for interaction with at least one vehicle component and / or for controlling the vehicle component reduce, wherein the interaction and / or control near the head 4.1 and / or the hand 4.2 of the occupant 4 takes place. The interaction with and / or the control of the at least one
Fahrzeugkomponente wird durch eine Erfassung der Blickrichtung der Augen des Insassen 4 innerhalb des Interaktionsbereiches des  Vehicle component is detected by detecting the line of sight of the eyes of the occupant 4 within the interaction area of
Erfassungsbereiches E ermittelt, wobei die Interaktion und/oder Steuerung anhand der mit der Anwendung verknüpften und erfassten Bewegung und/oder Geste, insbesondere Handgeste des Insassen 4, erfolgt. Detection area E determined, the interaction and / or control based on the associated with the application and detected motion and / or gesture, in particular hand gesture of the occupant 4, takes place.
Alternativ kann die Interaktion und/oder Steuerung anhand der Kombination aus der mit der Anwendung verknüpften Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 ermittelt werden. Beispielsweise kann anhand der Extrapolation der Handgeste, insbesondere Fingergeste, und eine darauffolgende Bewegung und/oder Geste des Kopfes 4.1 , insbesondere Nicken, die Interaktion und/oder die Steuerung der zumindest einen Alternatively, the interaction and / or control may be determined by the combination of the movement associated with the application and / or gesture of the head 4.1 and the hand 4.2. For example, based on the extrapolation of the hand gesture, in particular finger gesture, and a subsequent movement and / or gesture of the head 4.1, in particular nodding, the interaction and / or the control of the at least one
Fahrzeugkomponente erfolgen. Die Position der Hand 4.2 des Insassen 4 vor dem Kopf 4.1 des Insassen 4 im selben Interaktionsbereich des Erfassungsbereiches E der Vehicle component done. The position of the hand 4.2 of the occupant 4 in front of the head 4.1 of the occupant 4 in the same interaction area of the detection area E of
Erfassungseinheit 2 kann beispielsweise als die mit der Anwendung verknüpfte Bewegung und/oder Geste des Insassen 4 erfasst werden. Zur wirksamen Überwachung eines Verhaltens des Insassen 4 ist die Detection unit 2 can be detected, for example, as the associated with the application movement and / or gesture of the occupant 4. To effectively monitor a behavior of the occupant 4 is the
Erfassungseinheit 2 in den Fahrzeuginnenraum 1 gerichtet, insbesondere außerhalb einer (Haupt- )Achse. Um einen Kopfbereich des Insassen 4 außerhalb der (Haupt- )Achse erfassen zu können, ist eine auf ein 3D-Modell basierende Methode zur teilweisen Erkennung des Kopfes 4.1 vorgesehen. Vorzugsweise kann dadurch insbesondere die Position des Kopfes 4.1 und/oder die des Auges und/oder ein Nasenvektor und/oder Gesichtsmerkmale des Insassen 4 erfasst werden. Diese Erfassung erfolgt insbesondere anhand eines Filteralgorithmus, beispielsweise eines sogenannten Kaiman Filters, zur Verarbeitung statisch geschätzter und/oder prognostizierter Werte. Detection unit 2 directed into the vehicle interior 1, in particular outside a (main) axis. In order to be able to detect a head area of the occupant 4 outside the (main) axis, a method based on a 3D model for the partial recognition of the head 4.1 is provided. Preferably, in particular, the position of the head 4.1 and / or the eye and / or a nose vector and / or facial features of the occupant 4 can be detected thereby. This detection takes place in particular on the basis of a filter algorithm, for example a so-called Kalman filter, for processing statically estimated and / or predicted values.
In Figur 2 bis 4 ist jeweils ein Blockschaltbild eines Ausführungsbeispiels der Vorrichtung V zur Erkennung und/oder Erfassung des Kopfes 4.1 des FIGS. 2 to 4 each show a block diagram of an embodiment of the device V for detecting and / or detecting the head 4.1 of FIG
Insassen 4 dargestellt. Zudem ist ein Ablauf des Verfahrens zur Erkennung und/oder Erfassung des Kopfes 4.1 des Insassen 4 dargestellt.  Inmates 4 shown. In addition, a sequence of the method for detecting and / or detecting the head 4.1 of the occupant 4 is shown.
Zur Beleuchtung des Erfassungsbereichs E ist die Erfassungseinheit 2 mit der Beleuchtungseinheit 5 elektrisch gekoppelt. Zur Verarbeitung und For illuminating the detection area E, the detection unit 2 is electrically coupled to the illumination unit 5. For processing and
Auswertung erfasster Bilddaten I im Erfassungsbereich E ist die Evaluation of acquired image data I in the detection area E is the
Erfassungseinheit 2 mit der Steuereinheit 6 elektrisch gekoppelt. Diese Bilddaten I umfassen beispielweise Bewegungen, Gesten und/oder Detection unit 2 electrically coupled to the control unit 6. These image data I include, for example, movements, gestures and / or
Gesichtsmerkmale und Gesichtsstrukturen des Insassen 4 und/oder Facial features and facial structures of the occupant 4 and / or
Positionen von Körperteilen des Insassen 4 und/oder weitere Objekte im Fahrzeuginnenraum 1. Positions of body parts of the occupant 4 and / or other objects in the vehicle interior 1.
Im Folgenden wird das Verfahren zur Gestensteuerung im Detail The following is the procedure for gesture control in detail
beschrieben. Durch die Erfassungseinheit 2, insbesondere die 3D-Punktwolke der TOF- Kamera, werden die Bilddaten I, insbesondere des Oberkörperbereichs des Insassen 4, im Erfassungsbereich E anhand lokaler Koordinaten und Lichtreflektionen des Objektes ermittelt. Hierbei werden insbesondere vorstehende Gesichtsmerkmale und/oder Gesichtsstrukturen anhand erfasster Amplitudenabbildungen erfasst. described. By means of the detection unit 2, in particular the 3D point cloud of the TOF camera, the image data I, in particular of the upper body region of the occupant 4, in the detection area E are determined on the basis of local coordinates and light reflections of the object. In this case, in particular protruding facial features and / or facial structures are detected on the basis of detected amplitude maps.
Die Vorrichtung V umfasst beispielsweise eine Schnittstelle S1 zur The device V comprises, for example, an interface S1 to
Anwendungsprogrammierung der Erfassungseinheit 2. Application programming of the detection unit 2.
Die Erkennung und/oder Erfassung des Kopfes 4.1 des Insassen 4 erfolgt anhand einer Kombination aus 2D- und 3D-Algohthmen, um weitestgehend geeignete Informationen aus der 3D-Punktwolke und der The detection and / or detection of the head 4.1 of the occupant 4 is based on a combination of 2D and 3D Algohthmen to largely appropriate information from the 3D point cloud and the
Amplitudenabbildung zu extrahieren. Extract amplitude map.
Des Weiteren umfasst die Vorrichtung V eine Verbindungsschnittstelle S2, die die aus der 3D-Punktwolke und Amplitudenabbildung erfassten Furthermore, the device V comprises a connection interface S2, which detected the from the 3D point cloud and amplitude mapping
Bilddaten I umfasst und zur Rauschfilterung der erfassten Bilddaten I vorgesehen ist. Image data I includes and is provided for noise filtering the captured image data I.
Um unterschiedliche Entfernungen unterschiedlicher Objekte, insbesondere Lenkrad und/oder Fenster des Fahrzeuges, innerhalb des To different distances of different objects, in particular steering wheel and / or window of the vehicle, within the
Erfassungsbereiches E der Erfassungseinheit 2 im Fahrzeuginnenraum 1 ermitteln zu können, umfasst die Vorrichtung V eine Detection area E of the detection unit 2 to be able to determine in the vehicle interior 1, the device V comprises a
Segmentierungsschnittstelle S3. Hierbei wird in der 3D-Punktwolke einSegmentation interface S3. This will be in the 3D point cloud
Vordergrund in Segmente aufgeteilt, Objektgrenzen detektiert und innerhalb der lokalen Koordinaten in der Steuereinheit 6 miteinander verglichen. Foreground divided into segments, object boundaries detected and compared within the local coordinates in the control unit 6 with each other.
Eine Überprüfungsschnittstelle S4 der Vorrichtung V ist zur Überprüfung der Position des Kopfes 4.1 innerhalb zumindest eines Segmentes vorgesehen, wobei die Position des Kopfes 4.1 durch einen Kopf-Schulter-Detektor S4.1 ermittelt wird. Hierbei werden die Segmente jeweils mit einer Kopf-Schulter- Vorlage S4.2 oder einer -Referenz verglichen. A verification interface S4 of the device V is provided for checking the position of the head 4.1 within at least one segment, wherein the position of the head 4.1 by a head-shoulder detector S4.1 is determined. Here, the segments are each compared with a head-shoulder template S4.2 or a reference.
Für einen weitestgehend präzisen Vergleich innerhalb der lokalen For a most accurate comparison within the local
Koordinaten, insbesondere 3D Koordinaten, wird die Kopf-Schulter- Vorlage S4.2 derart zum Segment ausgerichtet, dass die Kopf-Schulter- Vorlage S4.2 zumindest mit einer Segmentgröße skaliert, wobei die Kopf- Schulter-Vorlage S4.2 anhand einer Rotation ausgerichtet wird. Bei dem Segment mit weitestgehend hoher Übereinstimmung zur Kopf- Schulter-Vorlage S4.2 werden zumindest anhand heuristischer Coordinates, in particular 3D coordinates, the head-and-shoulders template S4.2 is aligned to the segment such that the head-shoulder template S4.2 scales at least with a segment size, the head-shoulder template S4.2 based on a rotation is aligned. In the segment with a largely high agreement to the head and shoulder template S4.2 are at least heuristic
Annahmen S4.4 weitere Koordinaten zur Vervollständigung der Position des Kopfes 4.1 bestimmt. Alternativ wird die Position des Kopfes 4.1 anhand einer Oberkörper- Vorlage S4.3 ermittelt, bei der zumindest Körperteile des Oberkörpers des Insassen 4 mit vorgespeicherten Formen des Oberkörpers eines Menschen verglichen werden. Anschließend werden bei einer Übereinstimmung anhand heuristischer Annahmen S4.4 weitere Koordinaten zur Vervollständigung der Position des Kopfes 4.1 bestimmt. Beispielsweise weist ein Kopf der vorgespeicherten Form des Oberkörpers eine elliptische Form auf. Assumptions S4.4 further coordinates for completing the position of the head 4.1 is determined. Alternatively, the position of the head 4.1 is determined based on an upper body template S4.3, in which at least body parts of the upper body of the occupant 4 are compared with pre-stored forms of the upper body of a human. Subsequently, with a match based on heuristic assumptions S4.4, further coordinates for completing the position of the head 4.1 are determined. For example, a head of the pre-stored shape of the upper body has an elliptical shape.
In einer möglichen Ausführungsform des Verfahrens wird durch eine In a possible embodiment of the method is by a
Auswerteschnittstelle S5 die Position und Blickrichtung des Kopfes 4.1 des Insassen 4 innerhalb eines momentanen Standbildes geschätzt, wobei im Voraus ein zur Schätzung weitestgehend geeigneter Algorithmus S5.1 bestimmt wird. Evaluation interface S5 estimated the position and viewing direction of the head 4.1 of the occupant 4 within a current freeze frame, with a largely suitable for estimation algorithm S5.1 is determined in advance.
Bei der Erkennung des Kopfbereiches innerhalb eines When recognizing the header within a
Vordergrundsegmentes, kann die Position und Blickrichtung des Kopfes 4.1 weitestgehend anhand erfasster Bilddaten I des momentanen Standbildes bestimmt werden. Dies erfolgt über eine Ausgabeschnittstelle S5.2 in Abhängigkeit des Algorithmus S5.1 der Auswerteschnittstelle S5, wobei die erfassten Bilddaten I anschließend als eine Bewegungs- und Foreground segment, the position and direction of the head 4.1 can largely on the basis of acquired image data I of the current still image be determined. This is done via an output interface S5.2 as a function of the algorithm S5.1 the evaluation interface S5, wherein the captured image data I then as a motion and
Positionsabfolge S5.3 hinterlegt werden. Position sequence S5.3 are stored.
Bei nicht ausreichender Bilddatenerfassung I der Erfassungseinheit 2 und/oder nicht erfolgreicher Schätzung des Kopfbereiches des Insassen 4 werden anhand der hinterlegten Bewegungs- und/oder In the case of insufficient image data acquisition I of the detection unit 2 and / or unsuccessful estimation of the head area of the occupant 4, based on the stored movement and / or
Positionsabfolgen S5.3 eine darauffolgende Position und/oder Blickrichtung des Kopfes 4.1 des Insassen 4 bestimmt. Position sequences S5.3 determines a subsequent position and / or viewing direction of the head 4.1 of the occupant 4.
Alternativ kann anhand des Nasenvektors die Position und/oder Blickrichtung des Kopfes 4.1 bestimmt werden. Zusätzlich kann eine Blickrichtung des Auges sich von der Blickrichtung des Kopfes 4.1 unterscheiden, wobei die Blickrichtung des Auges beispielsweise anhand einer Erfassung zumindest einer Pupille ermittelt werden kann. Alternatively, the position and / or viewing direction of the head 4.1 can be determined based on the nose vector. In addition, a viewing direction of the eye can differ from the viewing direction of the head 4.1, wherein the viewing direction of the eye can be determined, for example, by detecting at least one pupil.
Zur Überwachung eines Zustands des Insassen 4, insbesondere einer Müdigkeit des Fahrers können beispielsweise eine Anzahl an Lidschlägen, Intervalle zwischen den jeweiligen Lidschlägen und/oder Dauer eines For monitoring a condition of the occupant 4, in particular a tiredness of the driver, for example, a number of eyelids, intervals between the respective eyelid beats and / or duration of a
Lidschlages erfasst und mit vorgegebenen Informationen beispielsweise in Bezug auf Augenverhalten verglichen werden. Zudem werden solche erfassten Bilddaten I in einer Speicherschnittstelle S6 oder in der Steuereinheit 6 gespeichert, wobei die erfassten Bilddaten I jederzeit abgerufen werden können. Eine Entscheidung erfolgt anhand eines in der Steuereinheit 6 vorprogrammierten Entscheidungsbaums, welcher automatisch aus den gespeicherten Bilddaten I zumindest eine geeignete Methode, insbesondere Erfassung durch Nasenvektor und/oder Lidschlages detected and compared with predetermined information, for example, in relation to eye behavior. In addition, such captured image data I are stored in a memory interface S6 or in the control unit 6, wherein the captured image data I can be retrieved at any time. A decision is made on the basis of a preprogrammed in the control unit 6 decision tree, which automatically from the stored image data I at least one suitable method, in particular detection by nose vector and / or
Augenstellung, auswählt, um die Blickrichtung des Insassen 4 zu erfassen. Weiterhin können individuelle Informationen zu Kopfgröße, Gesichtsgeometrie und/oder Kopf-Schulter-Abstand verschiedener Eye position, selects to capture the line of sight of the occupant 4. Furthermore, individual information about head size, face geometry and / or head-to-shoulder distance can be different
Insassen 4 gespeichert werden, die jederzeit abrufbar sind. Inmates 4 are stored, which are available at any time.
Das Verfahren kann zudem zur Verbesserung einer Fahrerfahrung und/oder Fahrsicherheit, und/oder zur Überwachung des Fahrers und/oder The method can also be used to improve driving experience and / or driving safety, and / or to monitor the driver and / or
Sitzbelegungserkennung verwendet werden. Seat occupancy detection can be used.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
Fahrzeuginnenraum Vehicle interior
2 Erfassungseinheit  2 detection unit
3 Armaturenbrett  3 dashboard
3.1 Multifunktionsanzeige  3.1 Multifunction display
4 Insasse  4 inmates
4.1 Kopf  4.1 head
4.2 Hand  4.2 Hand
5 Beleuchtungseinheit  5 lighting unit
6 Steuereinheit  6 control unit
V Vorrichtung V device
E Erfassungsbereich  E detection range
I Bilddaten  I image data
51 Schnittstelle  51 interface
52 Verarbeitungsschnittstelle  52 processing interface
53 Segmentierungsschnittstelle 53 Segmentation interface
54 Überprüfungsschnittstelle 54 verification interface
54.1 Kopf-Schulter-Detektor  54.1 Head-shoulder detector
54.2 Kopf-Schulter-Vorlage  54.2 Head and shoulder template
54.3 Oberkörper-Vorlage  54.3 Upper body template
54.4 heuristische Annahmen  54.4 heuristic assumptions
55 Auswerteschnittstelle  55 evaluation interface
55.1 Algorithmus  55.1 Algorithm
55.2 Ausgabeschnittstelle  55.2 Output interface
55.3 Bewegungs- und Positionsabfolge 55.3 Movement and Position Sequence
55.4 Position und Blickrichtung 55.4 Position and viewing direction
56 Speicherschnittstelle  56 memory interface

Claims

Patentansprüche  claims
1. Verfahren zur Gestensteuerung in einem Fahrzeuginnenraum (1 ) durch eine Erfassungseinheit (2), 1. A method for gesture control in a vehicle interior (1) by a detection unit (2),
dadurch gekennzeichnet, dass durch die als 3D-Kamera ausgebildete characterized in that formed by the 3D camera as
Erfassungseinheit (2) Bilddaten (I) zumindest einer Position eines Insassen (4) und zumindest einer Geste des Insassen (4) in einem Erfassungsbereich (E) der Erfassungseinheit (2) erfasst werden. 2. Verfahren nach Anspruch 1 , Detection unit (2) image data (I) at least one position of an occupant (4) and at least one gesture of the occupant (4) in a detection area (E) of the detection unit (2) are detected. 2. The method according to claim 1,
dadurch gekennzeichnet, dass anhand der erfassten Bilddaten (I) eine 3D-Punktwolke zur Ermittlung der Position, Geste und zumindest einer Entfernung des Insassen (4) generiert wird. 3. Verfahren nach Anspruch 1 oder 2,  characterized in that on the basis of the acquired image data (I), a 3D point cloud is generated to determine the position, gesture and at least one distance of the occupant (4). 3. The method according to claim 1 or 2,
dadurch gekennzeichnet, dass zur Überprüfung der Position und Geste diese mit einer generierten Kopf-Schulter-Vorlage (S4.2) oder einer Oberkörper-Vorlage (S4.3) verglichen werden. 4. Verfahren nach einem der vorhergehenden Ansprüche,  characterized in that to check the position and gesture, these are compared with a generated head-shoulder template (S4.2) or an upper body template (S4.3). 4. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass der Erfassungsbereich (E) in zumindest zwei Interaktionsbereiche zur Erkennung und Verfolgung einer  characterized in that the detection area (E) in at least two interaction areas for the detection and tracking of a
Bewegung und/oder einer Geste eines Kopfes (4.1 ) und einer  Movement and / or a gesture of a head (4.1) and a
Hand (4.2) des Insassen (4) unterteilt wird.  Hand (4.2) of the occupant (4) is divided.
5. Verfahren nach Anspruch 4, 5. The method according to claim 4,
dadurch gekennzeichnet, dass die Bewegung und/oder Geste des Insassen (4) im selben Interaktionsbereich erfasst werden bzw. wird. 6. Verfahren nach Anspruch 4 oder 5,  characterized in that the movement and / or gesture of the occupant (4) is / are detected in the same interaction area. 6. The method according to claim 4 or 5,
dadurch gekennzeichnet, dass die vom Insassen (4) ausgeführte Bewegung und Geste zeitgleich erfasst werden. characterized in that the executed by the occupant (4) Movement and gesture are recorded at the same time.
7. Verfahren nach Anspruch 4, 7. The method according to claim 4,
dadurch gekennzeichnet, dass die vom Insassen (4) ausgeführte Bewegung und/oder Geste des Kopfes (4.1 ) und der Hand (4.2) in zumindest einem der beiden Interaktionsbereiche in unterschiedlichen Zeiträumen erfasst werden.  characterized in that the movement and / or gesture of the head (4.1) and the hand (4.2) performed by the occupant (4) are detected in at least one of the two interaction areas in different time periods.
8. Verfahren nach einem der vorhergehenden Ansprüche, 8. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass die Interaktion und/oder Steuerung anhand der Erfassung einer Blickrichtung des Insassen (4) ermittelt werden bzw. wird.  characterized in that the interaction and / or control based on the detection of a line of sight of the occupant (4) is determined or will.
9. Verfahren nach Anspruch 8, 9. The method according to claim 8,
dadurch gekennzeichnet, dass die Blickrichtung von Augen und/oder Lidschläge der Augen des Insassen ermittelt werden.  characterized in that the viewing direction of eyes and / or eyelids of the eyes of the occupant are determined.
10. Vorrichtung (V) zur Gestensteuerung in einem Fahrzeuginnenraum (1 ) mit einer Erfassungseinheit (2), 10. Device (V) for gesture control in a vehicle interior (1) with a detection unit (2),
dadurch gekennzeichnet, dass die Erfassungseinheit (2) Bilddaten (I) zumindest einer Position eines Insassen (4) und zumindest einer Geste des Insassen (4) in einem Erfassungsbereich (E) der  characterized in that the detection unit (2) image data (I) at least one position of an occupant (4) and at least one gesture of the occupant (4) in a detection area (E) of
Erfassungseinheit (2) erfasst, wobei die Erfassungseinheit (2) als eine 3D-Kamera ausgebildet ist.  Detection unit (2) detected, wherein the detection unit (2) is designed as a 3D camera.
1 . Vorrichtung (V) nach Anspruch 10, 1 . Device (V) according to claim 10,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) als eine TOF- Kamera ausgebildet ist.  characterized in that the detection unit (2) is designed as a TOF camera.
12. Vorrichtung (V) nach Anspruch 10 oder 11 , 12. Device (V) according to claim 10 or 11,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer Multifunktionsanzeige (3.1 ) verbunden und/oder in eine Baueinheit der Multifunktionsanzeige (3.1 ) integriert ist characterized in that the detection unit (2) with a Multifunction display (3.1) connected and / or integrated into a unit of the multi-function display (3.1)
13. Vorrichtung (V) nach einem der Ansprüche 10 bis 12, 13. Device (V) according to one of claims 10 to 12,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer Steuereinheit (6) zur Verarbeitung und Auswertung erfasster  characterized in that the detection unit (2) with a control unit (6) for processing and evaluation detected
Bilddaten (I) gekoppelt ist.  Image data (I) is coupled.
14. Vorrichtung (V) nach einem der Ansprüche 10 bis 13, 14. Device (V) according to one of claims 10 to 13,
dadurch gekennzeichnet, dass die Steuereinheit (6) momentane Bilddaten (I) mit vorgegebenen Bilddaten zur Auswertung der Geste oder eines Zustands des Insassen (4) vergleicht.  characterized in that the control unit (6) compares instantaneous image data (I) with predetermined image data for evaluating the gesture or a state of the occupant (4).
15. Vorrichtung (V) nach einem der Ansprüche 10 bis 14, 15. Device (V) according to one of claims 10 to 14,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer Beleuchtungseinheit (5) zur Beleuchtung des Erfassungsbereichs (E) gekoppelt ist.  characterized in that the detection unit (2) is coupled to a lighting unit (5) for illuminating the detection area (E).
PCT/IB2015/001966 2014-10-22 2015-10-22 Method and device for gesture control in a vehicle WO2016067082A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DEDE102014221488.2 2014-10-22
DE102014221488 2014-10-22

Publications (1)

Publication Number Publication Date
WO2016067082A1 true WO2016067082A1 (en) 2016-05-06

Family

ID=54695763

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/IB2015/001966 WO2016067082A1 (en) 2014-10-22 2015-10-22 Method and device for gesture control in a vehicle

Country Status (2)

Country Link
DE (1) DE202015105611U1 (en)
WO (1) WO2016067082A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019215286A1 (en) * 2018-05-09 2019-11-14 Motherson Innovations Company Ltd. Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle
CN113821106A (en) * 2021-10-08 2021-12-21 江苏铁锚玻璃股份有限公司 Intelligent function navigation method and structure based on intelligent transparent OLED vehicle window

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016202526A1 (en) * 2016-02-18 2017-08-24 Bayerische Motoren Werke Aktiengesellschaft Method and device for detecting a control gesture of a user, in particular in a motor vehicle
DE102017209200A1 (en) * 2017-05-31 2018-12-06 Bayerische Motoren Werke Aktiengesellschaft A method, computer-readable medium, system, and vehicle comprising the system for providing camera data of at least one vehicle camera while driving a vehicle on a display device of the vehicle
DE102017211516A1 (en) * 2017-07-06 2019-01-10 Bayerische Motoren Werke Aktiengesellschaft Vehicle seat and vehicle comprising a vehicle seat
DE102017214009B4 (en) * 2017-08-10 2020-06-18 Volkswagen Aktiengesellschaft Method and device for detecting the presence and / or movement of a vehicle occupant
DE102018222127A1 (en) * 2018-12-18 2020-06-18 Volkswagen Aktiengesellschaft Vehicle with an infrared camera for driver identification and / or driver observation
GB2585247B (en) * 2019-07-05 2022-07-27 Jaguar Land Rover Ltd Occupant classification method and apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
US20140195096A1 (en) * 2011-06-30 2014-07-10 Johnson Controls Gmbh Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090278915A1 (en) * 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
US20140195096A1 (en) * 2011-06-30 2014-07-10 Johnson Controls Gmbh Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019215286A1 (en) * 2018-05-09 2019-11-14 Motherson Innovations Company Ltd. Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle
US11697381B2 (en) 2018-05-09 2023-07-11 Motherson Innovations Company Limited Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle
CN113821106A (en) * 2021-10-08 2021-12-21 江苏铁锚玻璃股份有限公司 Intelligent function navigation method and structure based on intelligent transparent OLED vehicle window

Also Published As

Publication number Publication date
DE202015105611U1 (en) 2015-11-09

Similar Documents

Publication Publication Date Title
WO2016067082A1 (en) Method and device for gesture control in a vehicle
EP3013621B1 (en) Motor vehicle control interface with gesture recognition
DE102013012466B4 (en) Operating system and method for operating a vehicle-side device
DE102011053449A1 (en) Man-machine interface on finger-pointer and gesture-based for vehicles
DE102008019731B4 (en) Method and device for driver-passenger differentiation
DE102014201036A1 (en) Image-based classification of driver status and / or driver behavior
DE102014004395B3 (en) Method for operating a driver assistance system and motor vehicle
DE102019109505A1 (en) DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM
DE102012109622A1 (en) Method for controlling a display component of an adaptive display system
EP2915022B1 (en) Method for inputting a control command for a component of a motor vehicle
DE102016206126A1 (en) Method and device for monitoring or controlling a driving task transfer in a self-driving vehicle and system for a driving task transfer in a self-driving vehicle
DE102019005448B4 (en) Device and method for controlling a passenger seat in a vehicle
EP3254172B1 (en) Determination of a position of a non-vehicle object in a vehicle
WO2016096235A1 (en) Method for determining a viewing direction of a person
DE102016215291A1 (en) Method for classifying driver movements
DE102013013227B4 (en) Motor vehicle with display unit and protection against driver distraction
DE102016210088B3 (en) Method and device for representing an environment of a motor vehicle
DE102020105566A1 (en) MONITORING STEERING WHEEL INTERVENTION FOR AUTONOMOUS VEHICLES
US20220083786A1 (en) Method and system for monitoring a person using infrared and visible light
EP3230828A1 (en) Detection apparatus for recognizing a gesture and/or a viewing direction of an occupant of a motor vehicle by synchronous driving of lighting units
DE102015010421A1 (en) Three-dimensional detection of the vehicle interior
DE102014200783A1 (en) Method, apparatus and computer program product for operating a motor vehicle
EP3934929B1 (en) Method for classifying objects within a motor vehicle
DE102019004692B3 (en) Device and method for determining image data of the eyes, eye positions and / or a line of sight of a vehicle user in a vehicle
DE102014216053A1 (en) Adjustment of the illumination wavelength during eye detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15798182

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15798182

Country of ref document: EP

Kind code of ref document: A1