WO2016067082A1 - Method and device for gesture control in a vehicle - Google Patents
Method and device for gesture control in a vehicle Download PDFInfo
- Publication number
- WO2016067082A1 WO2016067082A1 PCT/IB2015/001966 IB2015001966W WO2016067082A1 WO 2016067082 A1 WO2016067082 A1 WO 2016067082A1 IB 2015001966 W IB2015001966 W IB 2015001966W WO 2016067082 A1 WO2016067082 A1 WO 2016067082A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- occupant
- gesture
- detection unit
- head
- detection
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 85
- 210000003128 head Anatomy 0.000 claims description 48
- 230000033001 locomotion Effects 0.000 claims description 37
- 230000003993 interaction Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 8
- 238000011156 evaluation Methods 0.000 claims description 7
- 210000000744 eyelid Anatomy 0.000 claims description 4
- 230000001815 facial effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005286 illumination Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000003867 tiredness Effects 0.000 description 2
- 208000016255 tiredness Diseases 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/65—Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/741—Instruments adapted for user detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Definitions
- the invention relates to a method for gesture control in one
- the invention relates to a device for gesture control in
- TOF cameras short for: time-of-flight camera
- the TOF camera is based on an active one
- Illumination of a scene for example by infrared light, and determines a duration of the light used for illumination by means of sensors. On this basis, a distance of the illuminated object from the TOF camera is then determined.
- the object is achieved according to the invention with the features specified in claim 1.
- the object is achieved according to the invention with the features specified in claim 10.
- Detection unit image data of at least one position of an occupant and at least one gesture of the occupant in a detection range of
- Capture unit are detected.
- the detection unit formed as a 3D camera combines both the position of a head of the occupant, head movements and gesture movements are combined and analyzed, so that an ergonomic
- Vehicle components based on an eye, head and / or
- the registration unit is part of an interactive system
- a 3D point cloud is generated on the basis of the captured image data for determining the position, gesture and at least one distance of the occupant.
- the 3D point cloud makes it possible to determine a distance and position of an object and the occupant located in the detection area in a simple manner.
- the detection area is subdivided into at least two interaction areas for recognizing and tracking a movement and / or a gesture of the occupant.
- the movement and / or gesture of the head and the hand of the occupant can be detected spaced from each other.
- One possible embodiment of the method provides that the movement and / or gesture of a head and a hand of the occupant in the same
- Interaction area are recorded or will. This allows, for example, a quick activation or deactivation of the
- Vehicle application or vehicle function Here, the movement and / or gesture of the head and the hand of the occupant can be determined clearly and thus quickly.
- the movement and gesture executed by the occupant will be detected at the same time.
- the position of the head is detected and rigid in combination with a 3D
- Hand gesture of the occupant triggered the vehicle application in a fast manner.
- the movement and / or gesture of the head and the hand carried out by the occupant are detected in at least one of the two interaction areas in different time periods.
- a workload and an execution effort of the occupant, in particular of the driver may interact with and / or control at least one of them
- Vehicle component can be reduced.
- the driver can perform at intervals the movement of the head and then the hand.
- the interaction and / or control is / are determined by detecting a line of sight of the occupant. In particular, this allows the driver to easily or simply activate or deactivate interaction with the vehicle application.
- the viewing direction of eyes and / or eyelids of the eyes of the occupant is or are determined. This can be especially a tiredness and a
- a device for gesture control in a vehicle interior comprises a detection unit which displays image data of at least one position of an occupant and at least one gesture of the occupant in one
- Detection unit is designed as a 3D camera.
- the detection unit is designed as a TOF camera (short for: time-of-flight camera).
- the driver's gesture control is particularly accurate and targeted with the trained as a 3D camera or TOF camera
- Capture unit detectable.
- a body of the gesture-executing occupant or certain body parts of the occupant and a background serves as a reference area for the TOF camera.
- Detection unit electrically connected to a multifunction display and / or integrated into a unit of the multi-function display.
- the gesture and movement of the occupant provided for operating the multifunction display can be specifically detected by the detection unit.
- the detection unit is data-technologically coupled to a control unit for processing and evaluating acquired image data, wherein the control unit compares the acquired image data with predetermined image data for evaluating the gesture or a state of the occupant. For example, due to the comparison of acquired image data with predetermined image data, a fast execution
- Detection unit with a lighting unit for illuminating the
- Detection area is signal coupled
- Lighting unit for example, event-driven, for example, at predetermined intervals, emitted light in the infrared spectral range. In this case, a glare of the occupant is avoided, wherein the detection area for precise determination of the position or the gesture of the occupant is sufficiently illuminated.
- FIG. 1 shows schematically a perspective view of a
- Figure 2 schematically shows a block diagram of the device in a
- FIG. 3 schematically shows a block diagram of the device in a further embodiment
- FIG. 4 shows schematically a block diagram of the device in one
- FIG. 1 shows a vehicle interior 1 of a vehicle not shown in detail with a device V, comprising a detection unit 2, for gesture control in the vehicle.
- the detection unit 2 is designed here as a 3D camera.
- the detection unit 2 is a TOF camera, a
- Stereo camera or other suitable for the vehicle interior 1 SD camera is formed.
- the detection unit 2 is in one
- Dashboard 3 preferably in close proximity to one
- Multifunction display 3.1 arranged such that an occupant 4,
- Upper body area can be determined.
- the multi-function display 3.1 is in particular an infotainment system.
- the detection unit 2 comprises a detection area E which is directed into the vehicle interior 1, wherein the detection area E detects at least one position of a head 4.1 of the occupant 4 and a movement performed by the occupant 4 as a gesture.
- a gesture for example, a movement of the head 4.1 and / or a movement of a hand 4.2 and / or an arm of the
- Occupant 4 detected to trigger an associated with the movement and / or gesture of the head 4.1 and / or the hand 4.2 application.
- the detection unit 2 in the form of the TOF camera is connected to a control unit 6, which detected with the detection unit 2
- Image data I processed and evaluated.
- the detection unit 2 is, for example, as one
- Thermal imaging camera in particular as an infrared camera, formed with an active illumination of a scene using infrared light and determined by a transit time measurement of a light used for illumination, a distance of an illuminated object.
- an illuminated object is, for example, the upper body portion or the head portion of the occupant 4.
- a scene or gesture in particular the temporal position of the head 4.1 and / or the hand 4.2, in the detection area E of
- Detecting unit 2 detected. This scene or gesture is going through
- the TOF camera using a 3D point cloud to determine the distance of the illuminated object by an amplitude evaluation of the intensity of the reflected and detected light signals in
- Detection area E recorded.
- the detection unit 2 and a lighting unit 5 are arranged in the dashboard 3 and signal technology coupled that the light at predetermined intervals light, especially in the infrared spectral range, emitting lighting unit 5 the detection area E of
- Detection unit 2 illuminated.
- the detection unit 2 comprises such an optical
- Detection area E local areas or local zones can capture, for example, a
- the detection unit 2 is in particular electrically connected to the multifunction display 3.1 and / or in a structural unit of
- the movement and / or gesture in particular an extrapolation of the movement and / or gesture of the occupant 4 to detect relative to the multifunction unit 3.1 within the detection area E. Detection and / or tracking of the movement and / or gesture of the occupant 4 is performed by the detection unit 2 in the same
- Detection area E wherein the head 4.1 and the hand 4.2 of the occupant 4 independently of each other can trigger the associated with the executed movement and / or gesture application.
- the detection range E of the detection unit 2 in at least two interaction areas, in which in each case the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 from each other
- One possibility for the rapid activation or deactivation of the application desired by the occupant 4 is based on the processing of at least simultaneously acquired image data I from the occupant 4
- Image data I detected a different movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4.
- two movements and / or gestures executed in the same interaction area and associated with the application can be activated or deactivated, whereby, for example, the position of the head 4.1 is detected and in combination with a 3D rigid hand gesture of the occupant 4 the application is triggered.
- the second possibility can be at least one workload of the
- Vehicle component is detected by detecting the line of sight of the eyes of the occupant 4 within the interaction area of
- Detection area E determined, the interaction and / or control based on the associated with the application and detected motion and / or gesture, in particular hand gesture of the occupant 4, takes place.
- the interaction and / or control may be determined by the combination of the movement associated with the application and / or gesture of the head 4.1 and the hand 4.2. For example, based on the extrapolation of the hand gesture, in particular finger gesture, and a subsequent movement and / or gesture of the head 4.1, in particular nodding, the interaction and / or the control of the at least one
- Detection unit 2 can be detected, for example, as the associated with the application movement and / or gesture of the occupant 4. To effectively monitor a behavior of the occupant 4 is the
- Detection unit 2 directed into the vehicle interior 1, in particular outside a (main) axis.
- a method based on a 3D model for the partial recognition of the head 4.1 is provided.
- the position of the head 4.1 and / or the eye and / or a nose vector and / or facial features of the occupant 4 can be detected thereby.
- This detection takes place in particular on the basis of a filter algorithm, for example a so-called Kalman filter, for processing statically estimated and / or predicted values.
- FIGS. 2 to 4 each show a block diagram of an embodiment of the device V for detecting and / or detecting the head 4.1 of FIG.
- Inmates 4 shown.
- a sequence of the method for detecting and / or detecting the head 4.1 of the occupant 4 is shown.
- the detection unit 2 For illuminating the detection area E, the detection unit 2 is electrically coupled to the illumination unit 5. For processing and
- Detection unit 2 electrically coupled to the control unit 6.
- image data I include, for example, movements, gestures and / or
- the image data I in particular of the upper body region of the occupant 4, in the detection area E are determined on the basis of local coordinates and light reflections of the object.
- protruding facial features and / or facial structures are detected on the basis of detected amplitude maps.
- the device V comprises, for example, an interface S1 to
- the detection and / or detection of the head 4.1 of the occupant 4 is based on a combination of 2D and 3D Algohthmen to largely appropriate information from the 3D point cloud and the
- the device V comprises a connection interface S2, which detected the from the 3D point cloud and amplitude mapping
- Image data I includes and is provided for noise filtering the captured image data I.
- the device V comprises a
- a verification interface S4 of the device V is provided for checking the position of the head 4.1 within at least one segment, wherein the position of the head 4.1 by a head-shoulder detector S4.1 is determined.
- the segments are each compared with a head-shoulder template S4.2 or a reference.
- the head-and-shoulders template S4.2 is aligned to the segment such that the head-shoulder template S4.2 scales at least with a segment size, the head-shoulder template S4.2 based on a rotation is aligned.
- the segment with a largely high agreement to the head and shoulder template S4.2 are at least heuristic
- Assumptions S4.4 further coordinates for completing the position of the head 4.1 is determined.
- the position of the head 4.1 is determined based on an upper body template S4.3, in which at least body parts of the upper body of the occupant 4 are compared with pre-stored forms of the upper body of a human. Subsequently, with a match based on heuristic assumptions S4.4, further coordinates for completing the position of the head 4.1 are determined.
- a head of the pre-stored shape of the upper body has an elliptical shape.
- Evaluation interface S5 estimated the position and viewing direction of the head 4.1 of the occupant 4 within a current freeze frame, with a largely suitable for estimation algorithm S5.1 is determined in advance.
- the position and direction of the head 4.1 can largely on the basis of acquired image data I of the current still image be determined. This is done via an output interface S5.2 as a function of the algorithm S5.1 the evaluation interface S5, wherein the captured image data I then as a motion and
- Position sequences S5.3 determines a subsequent position and / or viewing direction of the head 4.1 of the occupant 4.
- the position and / or viewing direction of the head 4.1 can be determined based on the nose vector.
- a viewing direction of the eye can differ from the viewing direction of the head 4.1, wherein the viewing direction of the eye can be determined, for example, by detecting at least one pupil.
- a condition of the occupant 4 in particular a tiredness of the driver, for example, a number of eyelids, intervals between the respective eyelid beats and / or duration of a
- Such captured image data I are stored in a memory interface S6 or in the control unit 6, wherein the captured image data I can be retrieved at any time.
- a decision is made on the basis of a preprogrammed in the control unit 6 decision tree, which automatically from the stored image data I at least one suitable method, in particular detection by nose vector and / or
- Eye position selects to capture the line of sight of the occupant 4. Furthermore, individual information about head size, face geometry and / or head-to-shoulder distance can be different
- Inmates 4 are stored, which are available at any time.
- the method can also be used to improve driving experience and / or driving safety, and / or to monitor the driver and / or
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Chemical & Material Sciences (AREA)
- Multimedia (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
The invention relates to a method for gesture control in a vehicle interior (1), wherein according to the invention image data (I) of at least one position of an occupant (4) and at least one gesture of the occupant (4) are detected by the detection unit (2), which is designed as a 3D camera, in a detection region (E) of the detection unit (2). The invention further relates to a device (V) for gesture control in a vehicle interior (1).
Description
Verfahren und Vorrichtung zur Gestensteuerung in einem Fahrzeug Method and device for gesture control in a vehicle
Beschreibung description
Die Erfindung betrifft ein Verfahren zur Gestensteuerung in einem The invention relates to a method for gesture control in one
Fahrzeuginnenraum gemäß dem Oberbegriff des Anspruchs 1. Weiterhin betrifft die Erfindung eine Vorrichtung zur Gestensteuerung im Vehicle interior according to the preamble of claim 1. Furthermore, the invention relates to a device for gesture control in
Fahrzeuginnenraum. Vehicle interior.
Aus dem Stand der Technik sind sogenannte TOF-Kameras (kurz für: time- of-flight-Kamera) bekannt, die mit einem Laufzeitverfahren Distanzen zu Objekten ermittelt. Hierbei basiert die TOF-Kamera auf einer aktiven So-called TOF cameras (short for: time-of-flight camera) are known from the prior art, which determine distances to objects with a transit time method. Here, the TOF camera is based on an active one
Beleuchtung einer Szene, beispielsweise durch Infrarotlicht, und ermittelt eine Laufzeit des zur Beleuchtung verwendeten Lichtes mittels Sensoren. Auf dieser Grundlage wird dann eine Entfernung des beleuchteten Objektes von der TOF-Kamera bestimmt. Illumination of a scene, for example by infrared light, and determines a duration of the light used for illumination by means of sensors. On this basis, a distance of the illuminated object from the TOF camera is then determined.
Aufgabe der vorliegenden Erfindung ist es, ein gegenüber dem Stand der Technik verbessertes Verfahren und eine verbesserte Vorrichtung zurObject of the present invention is to provide a comparison with the prior art improved method and an improved apparatus for
Gestensteuerung in einem Fahrzeug mit einer Erfassungseinheit anzugeben. Indicate gesture control in a vehicle with a detection unit.
Hinsichtlich des Verfahrens wird die Aufgabe erfindungsgemäß mit den in Anspruch 1 angegebenen Merkmalen gelöst. Hinsichtlich der Vorrichtung wird die Aufgabe erfindungsgemäß mit den in Anspruch 10 angegebenen Merkmalen gelöst. With regard to the method, the object is achieved according to the invention with the features specified in claim 1. With regard to the device, the object is achieved according to the invention with the features specified in claim 10.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Advantageous embodiments of the invention are the subject of
Unteransprüche.
In dem Verfahren zur Gestensteuerung im Fahrzeuginnenraum werden erfindungsgemäß durch eine als 3D-Kamera ausgebildeten Dependent claims. In the method for gesture control in the vehicle interior according to the invention by a trained as a 3D camera
Erfassungseinheit Bilddaten zumindest einer Position eines Insassen und zumindest einer Geste des Insassen in einem Erfassungsbereich der Detection unit image data of at least one position of an occupant and at least one gesture of the occupant in a detection range of
Erfassungseinheit erfasst werden. Capture unit are detected.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass die als 3D-Kamera ausgebildete Erfassungseinheit sowohl die Position eines Kopfes des Insassen, Kopfbewegungen als auch Gestenbewegungen kombiniert erfasst und analysiert werden, so dass ein ergonomisches The advantages achieved by the invention are, in particular, that the detection unit formed as a 3D camera combines both the position of a head of the occupant, head movements and gesture movements are combined and analyzed, so that an ergonomic
Arbeiten und Bedienen von Fahrzeugfunktionen und/oder Working and operating vehicle functions and / or
Fahrzeugkomponenten anhand einer Augen-, Kopf- und/oder Vehicle components based on an eye, head and / or
Gestensteuerung des Insassen im Fahrzeug ermöglicht sind bzw. ist. Die Erfassungseinheit ist dabei als Bestandteil einer interaktiven Gesture control of the occupant in the vehicle are possible or is. The registration unit is part of an interactive system
Benutzerschnittstelle für Interaktionen und Steuerungen anhand von Gesten mit oder ohne Kontaktierung eines Festkörpers des Fahrzeugs ausgebildet, wobei die Gesten insbesondere von einer Person ausgeführt werden. In einer möglichen Ausgestaltung des Verfahrens wird anhand der erfassten Bilddaten eine 3D-Punktwolke zur Ermittlung der Position, Geste und zumindest einer Entfernung des Insassen generiert. Insbesondere wird durch die 3D-Punktwolke eine Ermittlung einer Entfernung und Position eines sich im Erfassungsbereich befindenden Objekts und des Insassen in einfacher Art und Weise ermöglicht. User interface for interactions and controls formed by gestures with or without contacting a solid of the vehicle, the gestures are carried out in particular by a person. In one possible embodiment of the method, a 3D point cloud is generated on the basis of the captured image data for determining the position, gesture and at least one distance of the occupant. In particular, the 3D point cloud makes it possible to determine a distance and position of an object and the occupant located in the detection area in a simple manner.
In einer weiteren Ausbildung des Verfahrens werden zur Überprüfung der Position und Geste diese mit einer generierten und vorgegebenen Kopf- Schulter-Vorlage oder einer Oberkörper-Vorlage verglichen. Anhand dieser Vorlagen können die Position und Geste insbesondere schnell ausgewertet werden.
Eine weitere Ausgestaltung des Verfahrens sieht vor, dass der Erfassungsbereich in zumindest zwei Interaktionsbereiche zur Erkennung und Verfolgung einer Bewegung und/oder einer Geste des Insassen unterteilt wird. Somit kann insbesondere die Bewegung und/oder Geste des Kopfes und der Hand des Insassen voneinander beabstandet erfasst werden. In a further embodiment of the method, to verify the position and gesture, these are compared with a generated and given head-shoulder template or an upper body template. Based on these templates, the position and gesture can in particular be evaluated quickly. A further embodiment of the method provides that the detection area is subdivided into at least two interaction areas for recognizing and tracking a movement and / or a gesture of the occupant. Thus, in particular, the movement and / or gesture of the head and the hand of the occupant can be detected spaced from each other.
Eine mögliche Ausbildung des Verfahrens sieht vor, dass die Bewegung und/oder Geste eines Kopfes und einer Hand des Insassen im selben One possible embodiment of the method provides that the movement and / or gesture of a head and a hand of the occupant in the same
Interaktionsbereich erfasst werden bzw. wird. Dies ermöglicht beispielsweise eine schnell ausgeführte Aktivierung oder Deaktivierung der Interaction area are recorded or will. This allows, for example, a quick activation or deactivation of the
Fahrzeuganwendung oder Fahrzeugfunktion. Hierbei kann die Bewegung und/oder Geste des Kopfes und der Hand des Insassen eindeutig und somit schnell ermittelt werden. Vehicle application or vehicle function. Here, the movement and / or gesture of the head and the hand of the occupant can be determined clearly and thus quickly.
In einer Weiterbildung des Verfahrens werden die vom Insassen ausgeführte Bewegung und Geste zeitgleich erfasst werden. Beispielsweise wird die Position des Kopfes erfasst und in Kombination mit einer 3D starren In a development of the method, the movement and gesture executed by the occupant will be detected at the same time. For example, the position of the head is detected and rigid in combination with a 3D
Handgeste des Insassen die Fahrzeuganwendung auf schnelle Art und Weise ausgelöst. Hand gesture of the occupant triggered the vehicle application in a fast manner.
In einer weiteren Ausführungsform des Verfahrens werden die vom Insassen ausgeführte Bewegung und/oder Geste des Kopfes und der Hand in zumindest einem der beiden Interaktionsbereichen in unterschiedlichen Zeiträumen erfasst. Hierbei können insbesondere eine Arbeitsbelastung und ein Ausführungsaufwand des Insassen, insbesondere des Fahrers, zur Interaktion mit und/oder zur Steuerung zumindest einer In a further embodiment of the method, the movement and / or gesture of the head and the hand carried out by the occupant are detected in at least one of the two interaction areas in different time periods. In particular, a workload and an execution effort of the occupant, in particular of the driver, may interact with and / or control at least one of them
Fahrzeugkomponente reduziert werden. Somit kann der Fahrer in zeitlichen Abständen die Bewegung des Kopfes und anschließend der Hand ausführen.
In einer weiteren Ausbildung des Verfahrens werden bzw. wird die Interaktion und/oder Steuerung durch die Erfassung einer Blickrichtung des Insassen ermittelt. Dies ermöglicht dem Fahrer insbesondere eine unkomplizierte und einfach ausführbare Aktivierung oder Deaktivierung der Interaktion mit der Fahrzeuganwendung. Vehicle component can be reduced. Thus, the driver can perform at intervals the movement of the head and then the hand. In a further embodiment of the method, the interaction and / or control is / are determined by detecting a line of sight of the occupant. In particular, this allows the driver to easily or simply activate or deactivate interaction with the vehicle application.
In einer möglichen Ausführungsform des Verfahrens werden bzw. wird die Blickrichtung von Augen und/oder Lidschläge der Augen des Insassen ermittelt. Dadurch kann insbesondere eine Müdigkeit und eine In one possible embodiment of the method, the viewing direction of eyes and / or eyelids of the eyes of the occupant is or are determined. This can be especially a tiredness and a
Aufmerksamkeit des Fahrers überwacht werden. Attention of the driver to be monitored.
Eine Vorrichtung zur Gestensteuerung in einem Fahrzeuginnenraum umfasst eine Erfassungseinheit, welche Bilddaten zumindest einer Position eines Insassen und zumindest einer Geste des Insassen in einem A device for gesture control in a vehicle interior comprises a detection unit which displays image data of at least one position of an occupant and at least one gesture of the occupant in one
Erfassungsbereich der Erfassungseinheit erfasst, wobei die Detected detection range of the detection unit, wherein the
Erfassungseinheit als eine 3D-Kamera ausgebildet ist. Insbesondere ist die Erfassungseinheit als eine TOF-Kamera (kurz für: time-of-flight-Kamera) ausgebildet. Die Gestensteuerung des Fahrers ist insbesondere genau und gezielt mit der als 3D-Kamera oder TOF-Kamera ausgebildeten Detection unit is designed as a 3D camera. In particular, the detection unit is designed as a TOF camera (short for: time-of-flight camera). The driver's gesture control is particularly accurate and targeted with the trained as a 3D camera or TOF camera
Erfassungseinheit erfassbar. Hierbei dient ein Körper des die Gesten ausführenden Insassen oder bestimmte Körperteile des Insassen und ein Hintergrund als Bezugsbereich für die TOF-Kamera. Capture unit detectable. Here, a body of the gesture-executing occupant or certain body parts of the occupant and a background serves as a reference area for the TOF camera.
Eine weitere Ausführungsform der Vorrichtung sieht vor, dass die A further embodiment of the device provides that the
Erfassungseinheit mit einer Multifunktionsanzeige elektrisch verbunden und/oder in eine Baueinheit der Multifunktionsanzeige integriert ist. Detection unit electrically connected to a multifunction display and / or integrated into a unit of the multi-function display.
Insbesondere ist die zur Bedienung der Multifunktionsanzeige vorgesehene Geste und Bewegung des Insassen gezielt von der Erfassungseinheit detektierbar.
In einer möglichen Ausgestaltung der Vorrichtung ist die Erfassungseinheit mit einer Steuereinheit zur Verarbeitung und Auswertung erfasster Bilddaten datentechnisch gekoppelt, wobei die Steuereinheit die erfassten Bilddaten mit vorgegebenen Bilddaten zur Auswertung der Geste oder eines Zustande des Insassen vergleicht. Beispielsweise ist aufgrund des Vergleichs erfasster Bilddaten mit vorgegebenen Bilddaten eine schnelle Ausführung In particular, the gesture and movement of the occupant provided for operating the multifunction display can be specifically detected by the detection unit. In one possible refinement of the device, the detection unit is data-technologically coupled to a control unit for processing and evaluating acquired image data, wherein the control unit compares the acquired image data with predetermined image data for evaluating the gesture or a state of the occupant. For example, due to the comparison of acquired image data with predetermined image data, a fast execution
unterschiedlicher Fahrzeugfunktionen ermöglicht. Zudem ist die Auswertung erfasster Bilddaten zur Erhöhung einer Fahrsicherheit, insbesondere zur Überwachung des Fahrers während der Fahrt, und zur different vehicle functions allows. In addition, the evaluation of acquired image data to increase driving safety, in particular for monitoring the driver while driving, and the
Sitzbelegungserkennung vorgesehen. Seat occupancy recognition provided.
Eine weitere Ausgestaltung der Vorrichtung sieht vor, dass die A further embodiment of the device provides that the
Erfassungseinheit mit einer Beleuchtungseinheit zur Beleuchtung des Detection unit with a lighting unit for illuminating the
Erfassungsbereichs signaltechnisch gekoppelt ist, wobei die Detection area is signal coupled, the
Beleuchtungseinheit beispielsweise ereignisgesteuert, zum Beispiel in vorgebbaren Abständen, Licht im Infrarotspektralbereich emittiert. Hierbei ist eine Blendung des Insassen vermieden, wobei der Erfassungsbereich zur präzisen Ermittlung der Position bzw. der Geste des Insassen ausreichend beleuchtet ist. Lighting unit, for example, event-driven, for example, at predetermined intervals, emitted light in the infrared spectral range. In this case, a glare of the occupant is avoided, wherein the detection area for precise determination of the position or the gesture of the occupant is sufficiently illuminated.
Ausführungsbeispiele der Erfindung werden anhand von Zeichnungen näher erläutert. Embodiments of the invention will be explained in more detail with reference to drawings.
Dabei zeigen: Showing:
Figur 1 schematisch eine perspektivische Ansicht eines 1 shows schematically a perspective view of a
Fahrzeuginnenraumes mit einer Vorrichtung zur Vehicle interior with a device for
Gestensteuerung, Figur 2 schematisch ein Blockschaltbild der Vorrichtung in einer Gesture control, Figure 2 schematically shows a block diagram of the device in a
möglichen Ausführungsform,
Figur 3 schematisch ein Blockschaltbild der Vorrichtung in einer weiteren Ausführungsform, und possible embodiment, FIG. 3 schematically shows a block diagram of the device in a further embodiment, and
Figur 4 schematisch ein Blockschaltbild der Vorrichtung in einer FIG. 4 shows schematically a block diagram of the device in one
möglichen Ausgestaltung. possible design.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Corresponding parts are the same in all figures
Bezugszeichen versehen. Provided with reference numerals.
Figur 1 zeigt einen Fahrzeuginnenraum 1 eines nicht näher dargestellten Fahrzeuges mit einer Vorrichtung V, umfassend eine Erfassungseinheit 2, zur Gestensteuerung im Fahrzeug. 1 shows a vehicle interior 1 of a vehicle not shown in detail with a device V, comprising a detection unit 2, for gesture control in the vehicle.
Die Erfassungseinheit 2 ist hierbei als eine 3D-Kamera ausgebildet. The detection unit 2 is designed here as a 3D camera.
Insbesondere ist die Erfassungseinheit 2 als eine TOF-Kamera, eine In particular, the detection unit 2 is a TOF camera, a
Stereokamera oder eine andere für den Fahrzeuginnenraum 1 geeignete SD- Kamera ausgebildet. Stereo camera or other suitable for the vehicle interior 1 SD camera is formed.
Im Fahrzeuginnenraum 1 ist die Erfassungseinheit 2 in einem In the vehicle interior 1, the detection unit 2 is in one
Armaturenbrett 3, bevorzugt in unmittelbarer Nähe zu einer Dashboard 3, preferably in close proximity to one
Multifunktionsanzeige 3.1 derart angeordnet, dass ein Insasse 4, Multifunction display 3.1 arranged such that an occupant 4,
insbesondere zumindest ein Oberkörperbereich des Insassen 4, erfassbar ist, wobei der Insasse 4, insbesondere eine Bewegung seines in particular at least one upper body region of the occupant 4, can be detected, wherein the occupant 4, in particular a movement of his
Oberkörperbereichs, ermittelbar ist. Upper body area, can be determined.
Bei der Multifunktionsanzeige 3.1 handelt es sich insbesondere um ein Infotainmentsystem.
Die Erfassungseinheit 2 umfasst einen Erfassungsbereich E, der in den Fahrzeuginnenraum 1 gerichtet ist, wobei der Erfassungsbereich E zumindest eine Position eines Kopfes 4.1 des Insassen 4 und eine durch den Insassen 4 ausgeführte Bewegung als Geste erfasst. The multi-function display 3.1 is in particular an infotainment system. The detection unit 2 comprises a detection area E which is directed into the vehicle interior 1, wherein the detection area E detects at least one position of a head 4.1 of the occupant 4 and a movement performed by the occupant 4 as a gesture.
Als Geste sind bzw. ist beispielsweise eine Bewegung des Kopfes 4.1 und/oder eine Bewegung einer Hand 4.2 und/oder eines Arms des As a gesture, for example, a movement of the head 4.1 and / or a movement of a hand 4.2 and / or an arm of the
Insassen 4 erfassbar, um eine mit der Bewegung und/oder Geste des Kopfes 4.1 und/oder der Hand 4.2 verknüpfte Anwendung auszulösen. Occupant 4 detected to trigger an associated with the movement and / or gesture of the head 4.1 and / or the hand 4.2 application.
Hierzu ist die Erfassungseinheit 2 in Form der TOF-Kamera mit einer Steuereinheit 6 verbunden, die mit der Erfassungseinheit 2 erfasste For this purpose, the detection unit 2 in the form of the TOF camera is connected to a control unit 6, which detected with the detection unit 2
Bilddaten I verarbeitet und auswertet. Image data I processed and evaluated.
Des Weiteren ist die Erfassungseinheit 2 beispielsweise als eine Furthermore, the detection unit 2 is, for example, as one
Wärmebildkamera, insbesondere als eine Infrarotkamera, ausgebildet mit einer aktiven Beleuchtung einer Szene unter Verwendung von Infrarotlicht und ermittelt über eine Laufzeitmessung eines zur Beleuchtung verwendeten Lichts eine Entfernung eines beleuchteten Objektes. Solch ein beleuchtetes Objekt ist zum Beispiel der Oberkörperbereich oder der Kopfbereich des Insassen 4. Thermal imaging camera, in particular as an infrared camera, formed with an active illumination of a scene using infrared light and determined by a transit time measurement of a light used for illumination, a distance of an illuminated object. Such an illuminated object is, for example, the upper body portion or the head portion of the occupant 4.
Dabei ist eine Szene oder Geste, insbesondere die zeitliche Position des Kopfes 4.1 und/oder die der Hand 4.2, im Erfassungsbereich E der In this case, a scene or gesture, in particular the temporal position of the head 4.1 and / or the hand 4.2, in the detection area E of
Erfassungseinheit 2 erfassbar. Diese Szene oder Geste wird durch Detecting unit 2 detected. This scene or gesture is going through
entsprechende Kameradateneinstellungen und Kameraeigenschaften beispielsweise der TOF-Kamera anhand einer 3D-Punktwolke zur Ermittlung der Entfernung des beleuchteten Objektes durch eine Amplitudenauswertung der Intensität der reflektierten und erfassten Lichtsignale im corresponding camera data settings and camera properties, for example, the TOF camera using a 3D point cloud to determine the distance of the illuminated object by an amplitude evaluation of the intensity of the reflected and detected light signals in
Erfassungsbereich E erfasst.
Vorzugsweise sind die Erfassungseinheit 2 und eine Beleuchtungseinheit 5 derart im Armaturenbrett 3 angeordnet und signaltechnisch gekoppelt, dass die in vorgebbaren Abständen Licht, insbesondere im Infrarotspektralbereich, emittierende Beleuchtungseinheit 5 den Erfassungsbereich E der Detection area E recorded. Preferably, the detection unit 2 and a lighting unit 5 are arranged in the dashboard 3 and signal technology coupled that the light at predetermined intervals light, especially in the infrared spectral range, emitting lighting unit 5 the detection area E of
Erfassungseinheit 2 beleuchtet. Detection unit 2 illuminated.
Weiterhin umfasst die Erfassungseinheit 2 ein derart optisches Furthermore, the detection unit 2 comprises such an optical
Auflösungsvermögen, dass die Erfassungseinheit 2 innerhalb des Resolution that the detection unit 2 within the
Erfassungsbereiches E Ortsbereiche oder lokale Zonen, wie zum Beispiel den Kopf 4.1 , ein Gesicht, insbesondere Augen und/oder Nase, und/oder die Hand 4.2 des Insassen 4, erfassen kann, um beispielsweise eine Detection area E local areas or local zones, such as the head 4.1, a face, in particular eyes and / or nose, and / or the hand 4.2 of the occupant 4, can capture, for example, a
Blickrichtung der Augen, eine Bewegung des Kopfes 4.1 und/oder eine Geste der Hand 4.2 des Insassen 4 zu ermitteln. Die Erfassungseinheit 2 ist insbesondere mit der Multifunktionsanzeige 3.1 elektrisch verbunden und/oder in eine Baueinheit der Viewing direction of the eyes to detect a movement of the head 4.1 and / or a gesture of the hand 4.2 of the occupant 4. The detection unit 2 is in particular electrically connected to the multifunction display 3.1 and / or in a structural unit of
Multifunktionsanzeige 3.1 integriert. Multifunction display 3.1 integrated.
Durch diese Anordnung ist es in vorteilhafter Weise möglich, mit einer weitestgehend hohen Präzision die Bewegung und/oder Geste, insbesondere eine Extrapolation der Bewegung und/oder Geste des Insassen 4, relativ zu der Multifunktionseinheit 3.1 innerhalb des Erfassungsbereiches E zu erfassen. Eine Erkennung und/oder Verfolgung der Bewegung und/oder Geste des Insassen 4 erfolgt durch die Erfassungseinheit 2 im selben By this arrangement, it is possible in an advantageous manner, with a largely high precision, the movement and / or gesture, in particular an extrapolation of the movement and / or gesture of the occupant 4 to detect relative to the multifunction unit 3.1 within the detection area E. Detection and / or tracking of the movement and / or gesture of the occupant 4 is performed by the detection unit 2 in the same
Erfassungsbereich E, wobei der Kopf 4.1 und die Hand 4.2 des Insassen 4 unabhängig voneinander die mit der ausgeführten Bewegung und/oder Geste verknüpfte Anwendung auslösen können.
Hierbei wird der Erfassungsbereich E der Erfassungseinheit 2 in zumindest zwei Interaktionsbereiche, in welchen jeweils die Bewegung und/oder Geste des Kopfes 4.1 und die der Hand 4.2 des Insassen 4 voneinander Detection area E, wherein the head 4.1 and the hand 4.2 of the occupant 4 independently of each other can trigger the associated with the executed movement and / or gesture application. Here, the detection range E of the detection unit 2 in at least two interaction areas, in which in each case the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 from each other
beabstandet erfasst werden, unterteilt. be divided at a distance.
Alternativ kann auch eine Kombination aus der Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 des Insassen 4 relativ zueinander, insbesondere im selben Interaktionsbereich des Erfassungsbereiches E, erfassbar sein, um beispielsweise eine gewünschte Anwendung, Alternatively, a combination of the movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4 relative to one another, in particular in the same interaction region of the detection area E, be detectable, for example, a desired application,
insbesondere Funktion des Fahrzeuges, zu aktivieren oder deaktivieren. in particular function of the vehicle, to activate or deactivate.
Für solche Anwendungen, bei denen die Bewegung und/oder Geste des Kopfes 4.1 und die der Hand 4.2 im selben Interaktionsbereich zu erfassen sind, sind unterschiedliche Möglichkeiten zur Verarbeitung erfasster For applications in which the movement and / or gesture of the head 4. 1 and that of the hand 4. 2 are to be recorded in the same interaction area, different possibilities for processing are covered
Bilddaten I vorgesehen. Image data I provided.
Eine Möglichkeit zur schnellen Aktivierung oder Deaktivierung der vom Insassen 4 gewünschten Anwendung basiert auf der Verarbeitung zumindest zeitgleich erfasster Bilddaten I von vom Insassen 4 ausgeführten One possibility for the rapid activation or deactivation of the application desired by the occupant 4 is based on the processing of at least simultaneously acquired image data I from the occupant 4
Bewegungen und/oder Gesten im selben Interaktionsbereich des Movements and / or gestures in the same interaction area of the
Erfassungsbereiches E. Detection range E.
Eine weitere Möglichkeit basiert auf der Verarbeitung von in Another possibility is based on the processing of in
unterschiedlichen Zeiträumen erfassten Bilddaten I einer Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 des Insassen 4. Image data I detected a different movement and / or gesture of the head 4.1 and the hand 4.2 of the occupant 4.
Durch die erste Möglichkeit kann die Anwendung des Fahrzeuges By the first possibility, the application of the vehicle
beispielsweise über zwei im selben Interaktionsbereich ausgeführte und mit der Anwendung verknüpften Bewegungen und/oder Gesten aktiviert oder deaktiviert werden, wobei beispielsweise die Position des Kopfes 4.1 erfasst
und in Kombination mit einer 3D starren Handgeste des Insassen 4 die Anwendung ausgelöst wird. For example, two movements and / or gestures executed in the same interaction area and associated with the application can be activated or deactivated, whereby, for example, the position of the head 4.1 is detected and in combination with a 3D rigid hand gesture of the occupant 4 the application is triggered.
Die zweite Möglichkeit kann zumindest eine Arbeitsbelastung des The second possibility can be at least one workload of the
Insassen 4, insbesondere eines Fahrers, zur Interaktion mit zumindest einer Fahrzeugkomponente und/oder zur Steuerung der Fahrzeugkomponente reduzieren, wobei die Interaktion und/oder Steuerung nahe des Kopfes 4.1 und/oder der Hand 4.2 des Insassen 4 erfolgt. Die Interaktion mit und/oder die Steuerung der zumindest einen Inmates 4, in particular of a driver, for interaction with at least one vehicle component and / or for controlling the vehicle component reduce, wherein the interaction and / or control near the head 4.1 and / or the hand 4.2 of the occupant 4 takes place. The interaction with and / or the control of the at least one
Fahrzeugkomponente wird durch eine Erfassung der Blickrichtung der Augen des Insassen 4 innerhalb des Interaktionsbereiches des Vehicle component is detected by detecting the line of sight of the eyes of the occupant 4 within the interaction area of
Erfassungsbereiches E ermittelt, wobei die Interaktion und/oder Steuerung anhand der mit der Anwendung verknüpften und erfassten Bewegung und/oder Geste, insbesondere Handgeste des Insassen 4, erfolgt. Detection area E determined, the interaction and / or control based on the associated with the application and detected motion and / or gesture, in particular hand gesture of the occupant 4, takes place.
Alternativ kann die Interaktion und/oder Steuerung anhand der Kombination aus der mit der Anwendung verknüpften Bewegung und/oder Geste des Kopfes 4.1 und der Hand 4.2 ermittelt werden. Beispielsweise kann anhand der Extrapolation der Handgeste, insbesondere Fingergeste, und eine darauffolgende Bewegung und/oder Geste des Kopfes 4.1 , insbesondere Nicken, die Interaktion und/oder die Steuerung der zumindest einen Alternatively, the interaction and / or control may be determined by the combination of the movement associated with the application and / or gesture of the head 4.1 and the hand 4.2. For example, based on the extrapolation of the hand gesture, in particular finger gesture, and a subsequent movement and / or gesture of the head 4.1, in particular nodding, the interaction and / or the control of the at least one
Fahrzeugkomponente erfolgen. Die Position der Hand 4.2 des Insassen 4 vor dem Kopf 4.1 des Insassen 4 im selben Interaktionsbereich des Erfassungsbereiches E der Vehicle component done. The position of the hand 4.2 of the occupant 4 in front of the head 4.1 of the occupant 4 in the same interaction area of the detection area E of
Erfassungseinheit 2 kann beispielsweise als die mit der Anwendung verknüpfte Bewegung und/oder Geste des Insassen 4 erfasst werden.
Zur wirksamen Überwachung eines Verhaltens des Insassen 4 ist die Detection unit 2 can be detected, for example, as the associated with the application movement and / or gesture of the occupant 4. To effectively monitor a behavior of the occupant 4 is the
Erfassungseinheit 2 in den Fahrzeuginnenraum 1 gerichtet, insbesondere außerhalb einer (Haupt- )Achse. Um einen Kopfbereich des Insassen 4 außerhalb der (Haupt- )Achse erfassen zu können, ist eine auf ein 3D-Modell basierende Methode zur teilweisen Erkennung des Kopfes 4.1 vorgesehen. Vorzugsweise kann dadurch insbesondere die Position des Kopfes 4.1 und/oder die des Auges und/oder ein Nasenvektor und/oder Gesichtsmerkmale des Insassen 4 erfasst werden. Diese Erfassung erfolgt insbesondere anhand eines Filteralgorithmus, beispielsweise eines sogenannten Kaiman Filters, zur Verarbeitung statisch geschätzter und/oder prognostizierter Werte. Detection unit 2 directed into the vehicle interior 1, in particular outside a (main) axis. In order to be able to detect a head area of the occupant 4 outside the (main) axis, a method based on a 3D model for the partial recognition of the head 4.1 is provided. Preferably, in particular, the position of the head 4.1 and / or the eye and / or a nose vector and / or facial features of the occupant 4 can be detected thereby. This detection takes place in particular on the basis of a filter algorithm, for example a so-called Kalman filter, for processing statically estimated and / or predicted values.
In Figur 2 bis 4 ist jeweils ein Blockschaltbild eines Ausführungsbeispiels der Vorrichtung V zur Erkennung und/oder Erfassung des Kopfes 4.1 des FIGS. 2 to 4 each show a block diagram of an embodiment of the device V for detecting and / or detecting the head 4.1 of FIG
Insassen 4 dargestellt. Zudem ist ein Ablauf des Verfahrens zur Erkennung und/oder Erfassung des Kopfes 4.1 des Insassen 4 dargestellt. Inmates 4 shown. In addition, a sequence of the method for detecting and / or detecting the head 4.1 of the occupant 4 is shown.
Zur Beleuchtung des Erfassungsbereichs E ist die Erfassungseinheit 2 mit der Beleuchtungseinheit 5 elektrisch gekoppelt. Zur Verarbeitung und For illuminating the detection area E, the detection unit 2 is electrically coupled to the illumination unit 5. For processing and
Auswertung erfasster Bilddaten I im Erfassungsbereich E ist die Evaluation of acquired image data I in the detection area E is the
Erfassungseinheit 2 mit der Steuereinheit 6 elektrisch gekoppelt. Diese Bilddaten I umfassen beispielweise Bewegungen, Gesten und/oder Detection unit 2 electrically coupled to the control unit 6. These image data I include, for example, movements, gestures and / or
Gesichtsmerkmale und Gesichtsstrukturen des Insassen 4 und/oder Facial features and facial structures of the occupant 4 and / or
Positionen von Körperteilen des Insassen 4 und/oder weitere Objekte im Fahrzeuginnenraum 1. Positions of body parts of the occupant 4 and / or other objects in the vehicle interior 1.
Im Folgenden wird das Verfahren zur Gestensteuerung im Detail The following is the procedure for gesture control in detail
beschrieben.
Durch die Erfassungseinheit 2, insbesondere die 3D-Punktwolke der TOF- Kamera, werden die Bilddaten I, insbesondere des Oberkörperbereichs des Insassen 4, im Erfassungsbereich E anhand lokaler Koordinaten und Lichtreflektionen des Objektes ermittelt. Hierbei werden insbesondere vorstehende Gesichtsmerkmale und/oder Gesichtsstrukturen anhand erfasster Amplitudenabbildungen erfasst. described. By means of the detection unit 2, in particular the 3D point cloud of the TOF camera, the image data I, in particular of the upper body region of the occupant 4, in the detection area E are determined on the basis of local coordinates and light reflections of the object. In this case, in particular protruding facial features and / or facial structures are detected on the basis of detected amplitude maps.
Die Vorrichtung V umfasst beispielsweise eine Schnittstelle S1 zur The device V comprises, for example, an interface S1 to
Anwendungsprogrammierung der Erfassungseinheit 2. Application programming of the detection unit 2.
Die Erkennung und/oder Erfassung des Kopfes 4.1 des Insassen 4 erfolgt anhand einer Kombination aus 2D- und 3D-Algohthmen, um weitestgehend geeignete Informationen aus der 3D-Punktwolke und der The detection and / or detection of the head 4.1 of the occupant 4 is based on a combination of 2D and 3D Algohthmen to largely appropriate information from the 3D point cloud and the
Amplitudenabbildung zu extrahieren. Extract amplitude map.
Des Weiteren umfasst die Vorrichtung V eine Verbindungsschnittstelle S2, die die aus der 3D-Punktwolke und Amplitudenabbildung erfassten Furthermore, the device V comprises a connection interface S2, which detected the from the 3D point cloud and amplitude mapping
Bilddaten I umfasst und zur Rauschfilterung der erfassten Bilddaten I vorgesehen ist. Image data I includes and is provided for noise filtering the captured image data I.
Um unterschiedliche Entfernungen unterschiedlicher Objekte, insbesondere Lenkrad und/oder Fenster des Fahrzeuges, innerhalb des To different distances of different objects, in particular steering wheel and / or window of the vehicle, within the
Erfassungsbereiches E der Erfassungseinheit 2 im Fahrzeuginnenraum 1 ermitteln zu können, umfasst die Vorrichtung V eine Detection area E of the detection unit 2 to be able to determine in the vehicle interior 1, the device V comprises a
Segmentierungsschnittstelle S3. Hierbei wird in der 3D-Punktwolke einSegmentation interface S3. This will be in the 3D point cloud
Vordergrund in Segmente aufgeteilt, Objektgrenzen detektiert und innerhalb der lokalen Koordinaten in der Steuereinheit 6 miteinander verglichen. Foreground divided into segments, object boundaries detected and compared within the local coordinates in the control unit 6 with each other.
Eine Überprüfungsschnittstelle S4 der Vorrichtung V ist zur Überprüfung der Position des Kopfes 4.1 innerhalb zumindest eines Segmentes vorgesehen, wobei die Position des Kopfes 4.1 durch einen Kopf-Schulter-Detektor S4.1
ermittelt wird. Hierbei werden die Segmente jeweils mit einer Kopf-Schulter- Vorlage S4.2 oder einer -Referenz verglichen. A verification interface S4 of the device V is provided for checking the position of the head 4.1 within at least one segment, wherein the position of the head 4.1 by a head-shoulder detector S4.1 is determined. Here, the segments are each compared with a head-shoulder template S4.2 or a reference.
Für einen weitestgehend präzisen Vergleich innerhalb der lokalen For a most accurate comparison within the local
Koordinaten, insbesondere 3D Koordinaten, wird die Kopf-Schulter- Vorlage S4.2 derart zum Segment ausgerichtet, dass die Kopf-Schulter- Vorlage S4.2 zumindest mit einer Segmentgröße skaliert, wobei die Kopf- Schulter-Vorlage S4.2 anhand einer Rotation ausgerichtet wird. Bei dem Segment mit weitestgehend hoher Übereinstimmung zur Kopf- Schulter-Vorlage S4.2 werden zumindest anhand heuristischer Coordinates, in particular 3D coordinates, the head-and-shoulders template S4.2 is aligned to the segment such that the head-shoulder template S4.2 scales at least with a segment size, the head-shoulder template S4.2 based on a rotation is aligned. In the segment with a largely high agreement to the head and shoulder template S4.2 are at least heuristic
Annahmen S4.4 weitere Koordinaten zur Vervollständigung der Position des Kopfes 4.1 bestimmt. Alternativ wird die Position des Kopfes 4.1 anhand einer Oberkörper- Vorlage S4.3 ermittelt, bei der zumindest Körperteile des Oberkörpers des Insassen 4 mit vorgespeicherten Formen des Oberkörpers eines Menschen verglichen werden. Anschließend werden bei einer Übereinstimmung anhand heuristischer Annahmen S4.4 weitere Koordinaten zur Vervollständigung der Position des Kopfes 4.1 bestimmt. Beispielsweise weist ein Kopf der vorgespeicherten Form des Oberkörpers eine elliptische Form auf. Assumptions S4.4 further coordinates for completing the position of the head 4.1 is determined. Alternatively, the position of the head 4.1 is determined based on an upper body template S4.3, in which at least body parts of the upper body of the occupant 4 are compared with pre-stored forms of the upper body of a human. Subsequently, with a match based on heuristic assumptions S4.4, further coordinates for completing the position of the head 4.1 are determined. For example, a head of the pre-stored shape of the upper body has an elliptical shape.
In einer möglichen Ausführungsform des Verfahrens wird durch eine In a possible embodiment of the method is by a
Auswerteschnittstelle S5 die Position und Blickrichtung des Kopfes 4.1 des Insassen 4 innerhalb eines momentanen Standbildes geschätzt, wobei im Voraus ein zur Schätzung weitestgehend geeigneter Algorithmus S5.1 bestimmt wird. Evaluation interface S5 estimated the position and viewing direction of the head 4.1 of the occupant 4 within a current freeze frame, with a largely suitable for estimation algorithm S5.1 is determined in advance.
Bei der Erkennung des Kopfbereiches innerhalb eines When recognizing the header within a
Vordergrundsegmentes, kann die Position und Blickrichtung des Kopfes 4.1 weitestgehend anhand erfasster Bilddaten I des momentanen Standbildes
bestimmt werden. Dies erfolgt über eine Ausgabeschnittstelle S5.2 in Abhängigkeit des Algorithmus S5.1 der Auswerteschnittstelle S5, wobei die erfassten Bilddaten I anschließend als eine Bewegungs- und Foreground segment, the position and direction of the head 4.1 can largely on the basis of acquired image data I of the current still image be determined. This is done via an output interface S5.2 as a function of the algorithm S5.1 the evaluation interface S5, wherein the captured image data I then as a motion and
Positionsabfolge S5.3 hinterlegt werden. Position sequence S5.3 are stored.
Bei nicht ausreichender Bilddatenerfassung I der Erfassungseinheit 2 und/oder nicht erfolgreicher Schätzung des Kopfbereiches des Insassen 4 werden anhand der hinterlegten Bewegungs- und/oder In the case of insufficient image data acquisition I of the detection unit 2 and / or unsuccessful estimation of the head area of the occupant 4, based on the stored movement and / or
Positionsabfolgen S5.3 eine darauffolgende Position und/oder Blickrichtung des Kopfes 4.1 des Insassen 4 bestimmt. Position sequences S5.3 determines a subsequent position and / or viewing direction of the head 4.1 of the occupant 4.
Alternativ kann anhand des Nasenvektors die Position und/oder Blickrichtung des Kopfes 4.1 bestimmt werden. Zusätzlich kann eine Blickrichtung des Auges sich von der Blickrichtung des Kopfes 4.1 unterscheiden, wobei die Blickrichtung des Auges beispielsweise anhand einer Erfassung zumindest einer Pupille ermittelt werden kann. Alternatively, the position and / or viewing direction of the head 4.1 can be determined based on the nose vector. In addition, a viewing direction of the eye can differ from the viewing direction of the head 4.1, wherein the viewing direction of the eye can be determined, for example, by detecting at least one pupil.
Zur Überwachung eines Zustands des Insassen 4, insbesondere einer Müdigkeit des Fahrers können beispielsweise eine Anzahl an Lidschlägen, Intervalle zwischen den jeweiligen Lidschlägen und/oder Dauer eines For monitoring a condition of the occupant 4, in particular a tiredness of the driver, for example, a number of eyelids, intervals between the respective eyelid beats and / or duration of a
Lidschlages erfasst und mit vorgegebenen Informationen beispielsweise in Bezug auf Augenverhalten verglichen werden. Zudem werden solche erfassten Bilddaten I in einer Speicherschnittstelle S6 oder in der Steuereinheit 6 gespeichert, wobei die erfassten Bilddaten I jederzeit abgerufen werden können. Eine Entscheidung erfolgt anhand eines in der Steuereinheit 6 vorprogrammierten Entscheidungsbaums, welcher automatisch aus den gespeicherten Bilddaten I zumindest eine geeignete Methode, insbesondere Erfassung durch Nasenvektor und/oder Lidschlages detected and compared with predetermined information, for example, in relation to eye behavior. In addition, such captured image data I are stored in a memory interface S6 or in the control unit 6, wherein the captured image data I can be retrieved at any time. A decision is made on the basis of a preprogrammed in the control unit 6 decision tree, which automatically from the stored image data I at least one suitable method, in particular detection by nose vector and / or
Augenstellung, auswählt, um die Blickrichtung des Insassen 4 zu erfassen.
Weiterhin können individuelle Informationen zu Kopfgröße, Gesichtsgeometrie und/oder Kopf-Schulter-Abstand verschiedener Eye position, selects to capture the line of sight of the occupant 4. Furthermore, individual information about head size, face geometry and / or head-to-shoulder distance can be different
Insassen 4 gespeichert werden, die jederzeit abrufbar sind. Inmates 4 are stored, which are available at any time.
Das Verfahren kann zudem zur Verbesserung einer Fahrerfahrung und/oder Fahrsicherheit, und/oder zur Überwachung des Fahrers und/oder The method can also be used to improve driving experience and / or driving safety, and / or to monitor the driver and / or
Sitzbelegungserkennung verwendet werden.
Seat occupancy detection can be used.
Bezugszeichenliste LIST OF REFERENCE NUMBERS
Fahrzeuginnenraum Vehicle interior
2 Erfassungseinheit 2 detection unit
3 Armaturenbrett 3 dashboard
3.1 Multifunktionsanzeige 3.1 Multifunction display
4 Insasse 4 inmates
4.1 Kopf 4.1 head
4.2 Hand 4.2 Hand
5 Beleuchtungseinheit 5 lighting unit
6 Steuereinheit 6 control unit
V Vorrichtung V device
E Erfassungsbereich E detection range
I Bilddaten I image data
51 Schnittstelle 51 interface
52 Verarbeitungsschnittstelle 52 processing interface
53 Segmentierungsschnittstelle 53 Segmentation interface
54 Überprüfungsschnittstelle 54 verification interface
54.1 Kopf-Schulter-Detektor 54.1 Head-shoulder detector
54.2 Kopf-Schulter-Vorlage 54.2 Head and shoulder template
54.3 Oberkörper-Vorlage 54.3 Upper body template
54.4 heuristische Annahmen 54.4 heuristic assumptions
55 Auswerteschnittstelle 55 evaluation interface
55.1 Algorithmus 55.1 Algorithm
55.2 Ausgabeschnittstelle 55.2 Output interface
55.3 Bewegungs- und Positionsabfolge 55.3 Movement and Position Sequence
55.4 Position und Blickrichtung 55.4 Position and viewing direction
56 Speicherschnittstelle
56 memory interface
Claims
Patentansprüche claims
1. Verfahren zur Gestensteuerung in einem Fahrzeuginnenraum (1 ) durch eine Erfassungseinheit (2), 1. A method for gesture control in a vehicle interior (1) by a detection unit (2),
dadurch gekennzeichnet, dass durch die als 3D-Kamera ausgebildete characterized in that formed by the 3D camera as
Erfassungseinheit (2) Bilddaten (I) zumindest einer Position eines Insassen (4) und zumindest einer Geste des Insassen (4) in einem Erfassungsbereich (E) der Erfassungseinheit (2) erfasst werden. 2. Verfahren nach Anspruch 1 , Detection unit (2) image data (I) at least one position of an occupant (4) and at least one gesture of the occupant (4) in a detection area (E) of the detection unit (2) are detected. 2. The method according to claim 1,
dadurch gekennzeichnet, dass anhand der erfassten Bilddaten (I) eine 3D-Punktwolke zur Ermittlung der Position, Geste und zumindest einer Entfernung des Insassen (4) generiert wird. 3. Verfahren nach Anspruch 1 oder 2, characterized in that on the basis of the acquired image data (I), a 3D point cloud is generated to determine the position, gesture and at least one distance of the occupant (4). 3. The method according to claim 1 or 2,
dadurch gekennzeichnet, dass zur Überprüfung der Position und Geste diese mit einer generierten Kopf-Schulter-Vorlage (S4.2) oder einer Oberkörper-Vorlage (S4.3) verglichen werden. 4. Verfahren nach einem der vorhergehenden Ansprüche, characterized in that to check the position and gesture, these are compared with a generated head-shoulder template (S4.2) or an upper body template (S4.3). 4. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass der Erfassungsbereich (E) in zumindest zwei Interaktionsbereiche zur Erkennung und Verfolgung einer characterized in that the detection area (E) in at least two interaction areas for the detection and tracking of a
Bewegung und/oder einer Geste eines Kopfes (4.1 ) und einer Movement and / or a gesture of a head (4.1) and a
Hand (4.2) des Insassen (4) unterteilt wird. Hand (4.2) of the occupant (4) is divided.
5. Verfahren nach Anspruch 4, 5. The method according to claim 4,
dadurch gekennzeichnet, dass die Bewegung und/oder Geste des Insassen (4) im selben Interaktionsbereich erfasst werden bzw. wird. 6. Verfahren nach Anspruch 4 oder 5, characterized in that the movement and / or gesture of the occupant (4) is / are detected in the same interaction area. 6. The method according to claim 4 or 5,
dadurch gekennzeichnet, dass die vom Insassen (4) ausgeführte
Bewegung und Geste zeitgleich erfasst werden. characterized in that the executed by the occupant (4) Movement and gesture are recorded at the same time.
7. Verfahren nach Anspruch 4, 7. The method according to claim 4,
dadurch gekennzeichnet, dass die vom Insassen (4) ausgeführte Bewegung und/oder Geste des Kopfes (4.1 ) und der Hand (4.2) in zumindest einem der beiden Interaktionsbereiche in unterschiedlichen Zeiträumen erfasst werden. characterized in that the movement and / or gesture of the head (4.1) and the hand (4.2) performed by the occupant (4) are detected in at least one of the two interaction areas in different time periods.
8. Verfahren nach einem der vorhergehenden Ansprüche, 8. The method according to any one of the preceding claims,
dadurch gekennzeichnet, dass die Interaktion und/oder Steuerung anhand der Erfassung einer Blickrichtung des Insassen (4) ermittelt werden bzw. wird. characterized in that the interaction and / or control based on the detection of a line of sight of the occupant (4) is determined or will.
9. Verfahren nach Anspruch 8, 9. The method according to claim 8,
dadurch gekennzeichnet, dass die Blickrichtung von Augen und/oder Lidschläge der Augen des Insassen ermittelt werden. characterized in that the viewing direction of eyes and / or eyelids of the eyes of the occupant are determined.
10. Vorrichtung (V) zur Gestensteuerung in einem Fahrzeuginnenraum (1 ) mit einer Erfassungseinheit (2), 10. Device (V) for gesture control in a vehicle interior (1) with a detection unit (2),
dadurch gekennzeichnet, dass die Erfassungseinheit (2) Bilddaten (I) zumindest einer Position eines Insassen (4) und zumindest einer Geste des Insassen (4) in einem Erfassungsbereich (E) der characterized in that the detection unit (2) image data (I) at least one position of an occupant (4) and at least one gesture of the occupant (4) in a detection area (E) of
Erfassungseinheit (2) erfasst, wobei die Erfassungseinheit (2) als eine 3D-Kamera ausgebildet ist. Detection unit (2) detected, wherein the detection unit (2) is designed as a 3D camera.
1 . Vorrichtung (V) nach Anspruch 10, 1 . Device (V) according to claim 10,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) als eine TOF- Kamera ausgebildet ist. characterized in that the detection unit (2) is designed as a TOF camera.
12. Vorrichtung (V) nach Anspruch 10 oder 11 , 12. Device (V) according to claim 10 or 11,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer
Multifunktionsanzeige (3.1 ) verbunden und/oder in eine Baueinheit der Multifunktionsanzeige (3.1 ) integriert ist characterized in that the detection unit (2) with a Multifunction display (3.1) connected and / or integrated into a unit of the multi-function display (3.1)
13. Vorrichtung (V) nach einem der Ansprüche 10 bis 12, 13. Device (V) according to one of claims 10 to 12,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer Steuereinheit (6) zur Verarbeitung und Auswertung erfasster characterized in that the detection unit (2) with a control unit (6) for processing and evaluation detected
Bilddaten (I) gekoppelt ist. Image data (I) is coupled.
14. Vorrichtung (V) nach einem der Ansprüche 10 bis 13, 14. Device (V) according to one of claims 10 to 13,
dadurch gekennzeichnet, dass die Steuereinheit (6) momentane Bilddaten (I) mit vorgegebenen Bilddaten zur Auswertung der Geste oder eines Zustands des Insassen (4) vergleicht. characterized in that the control unit (6) compares instantaneous image data (I) with predetermined image data for evaluating the gesture or a state of the occupant (4).
15. Vorrichtung (V) nach einem der Ansprüche 10 bis 14, 15. Device (V) according to one of claims 10 to 14,
dadurch gekennzeichnet, dass die Erfassungseinheit (2) mit einer Beleuchtungseinheit (5) zur Beleuchtung des Erfassungsbereichs (E) gekoppelt ist.
characterized in that the detection unit (2) is coupled to a lighting unit (5) for illuminating the detection area (E).
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DEDE102014221488.2 | 2014-10-22 | ||
DE102014221488 | 2014-10-22 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016067082A1 true WO2016067082A1 (en) | 2016-05-06 |
Family
ID=54695763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/IB2015/001966 WO2016067082A1 (en) | 2014-10-22 | 2015-10-22 | Method and device for gesture control in a vehicle |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE202015105611U1 (en) |
WO (1) | WO2016067082A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215286A1 (en) * | 2018-05-09 | 2019-11-14 | Motherson Innovations Company Ltd. | Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle |
CN113821106A (en) * | 2021-10-08 | 2021-12-21 | 江苏铁锚玻璃股份有限公司 | Intelligent function navigation method and structure based on intelligent transparent OLED vehicle window |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016202526A1 (en) * | 2016-02-18 | 2017-08-24 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for detecting a control gesture of a user, in particular in a motor vehicle |
DE102017209200A1 (en) * | 2017-05-31 | 2018-12-06 | Bayerische Motoren Werke Aktiengesellschaft | A method, computer-readable medium, system, and vehicle comprising the system for providing camera data of at least one vehicle camera while driving a vehicle on a display device of the vehicle |
DE102017211516A1 (en) * | 2017-07-06 | 2019-01-10 | Bayerische Motoren Werke Aktiengesellschaft | Vehicle seat and vehicle comprising a vehicle seat |
DE102017214009B4 (en) * | 2017-08-10 | 2020-06-18 | Volkswagen Aktiengesellschaft | Method and device for detecting the presence and / or movement of a vehicle occupant |
DE102018222127A1 (en) * | 2018-12-18 | 2020-06-18 | Volkswagen Aktiengesellschaft | Vehicle with an infrared camera for driver identification and / or driver observation |
GB2585247B (en) * | 2019-07-05 | 2022-07-27 | Jaguar Land Rover Ltd | Occupant classification method and apparatus |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090278915A1 (en) * | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
US20140195096A1 (en) * | 2011-06-30 | 2014-07-10 | Johnson Controls Gmbh | Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby |
-
2015
- 2015-10-22 DE DE202015105611.7U patent/DE202015105611U1/en not_active Expired - Lifetime
- 2015-10-22 WO PCT/IB2015/001966 patent/WO2016067082A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090278915A1 (en) * | 2006-02-08 | 2009-11-12 | Oblong Industries, Inc. | Gesture-Based Control System For Vehicle Interfaces |
US20140195096A1 (en) * | 2011-06-30 | 2014-07-10 | Johnson Controls Gmbh | Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019215286A1 (en) * | 2018-05-09 | 2019-11-14 | Motherson Innovations Company Ltd. | Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle |
US11697381B2 (en) | 2018-05-09 | 2023-07-11 | Motherson Innovations Company Limited | Device and method for operating an object detection system for the passenger compartment of a motor vehicle, and a motor vehicle |
CN113821106A (en) * | 2021-10-08 | 2021-12-21 | 江苏铁锚玻璃股份有限公司 | Intelligent function navigation method and structure based on intelligent transparent OLED vehicle window |
Also Published As
Publication number | Publication date |
---|---|
DE202015105611U1 (en) | 2015-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016067082A1 (en) | Method and device for gesture control in a vehicle | |
EP3013621B1 (en) | Motor vehicle control interface with gesture recognition | |
DE102013012466B4 (en) | Operating system and method for operating a vehicle-side device | |
DE102011053449A1 (en) | Man-machine interface on finger-pointer and gesture-based for vehicles | |
DE102008019731B4 (en) | Method and device for driver-passenger differentiation | |
DE102014201036A1 (en) | Image-based classification of driver status and / or driver behavior | |
DE102014004395B3 (en) | Method for operating a driver assistance system and motor vehicle | |
DE102019109505A1 (en) | DATA PROCESSING DEVICE, MONITORING SYSTEM, WECKSYSTEM, DATA PROCESSING METHOD AND DATA PROCESSING PROGRAM | |
DE102012109622A1 (en) | Method for controlling a display component of an adaptive display system | |
EP2915022B1 (en) | Method for inputting a control command for a component of a motor vehicle | |
DE102016206126A1 (en) | Method and device for monitoring or controlling a driving task transfer in a self-driving vehicle and system for a driving task transfer in a self-driving vehicle | |
DE102019005448B4 (en) | Device and method for controlling a passenger seat in a vehicle | |
EP3254172B1 (en) | Determination of a position of a non-vehicle object in a vehicle | |
WO2016096235A1 (en) | Method for determining a viewing direction of a person | |
DE102016215291A1 (en) | Method for classifying driver movements | |
DE102013013227B4 (en) | Motor vehicle with display unit and protection against driver distraction | |
DE102016210088B3 (en) | Method and device for representing an environment of a motor vehicle | |
DE102020105566A1 (en) | MONITORING STEERING WHEEL INTERVENTION FOR AUTONOMOUS VEHICLES | |
US20220083786A1 (en) | Method and system for monitoring a person using infrared and visible light | |
EP3230828A1 (en) | Detection apparatus for recognizing a gesture and/or a viewing direction of an occupant of a motor vehicle by synchronous driving of lighting units | |
DE102015010421A1 (en) | Three-dimensional detection of the vehicle interior | |
DE102014200783A1 (en) | Method, apparatus and computer program product for operating a motor vehicle | |
EP3934929B1 (en) | Method for classifying objects within a motor vehicle | |
DE102019004692B3 (en) | Device and method for determining image data of the eyes, eye positions and / or a line of sight of a vehicle user in a vehicle | |
DE102014216053A1 (en) | Adjustment of the illumination wavelength during eye detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15798182 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15798182 Country of ref document: EP Kind code of ref document: A1 |