WO2013001084A1 - Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen - Google Patents

Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen Download PDF

Info

Publication number
WO2013001084A1
WO2013001084A1 PCT/EP2012/062781 EP2012062781W WO2013001084A1 WO 2013001084 A1 WO2013001084 A1 WO 2013001084A1 EP 2012062781 W EP2012062781 W EP 2012062781W WO 2013001084 A1 WO2013001084 A1 WO 2013001084A1
Authority
WO
WIPO (PCT)
Prior art keywords
display unit
vehicle
unit
gestures
detection unit
Prior art date
Application number
PCT/EP2012/062781
Other languages
English (en)
French (fr)
Inventor
Frank Schliep
Oliver Kirsch
Yanning Zhao
Original Assignee
Johnson Controls Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Johnson Controls Gmbh filed Critical Johnson Controls Gmbh
Priority to US14/129,866 priority Critical patent/US20140195096A1/en
Priority to KR1020147002503A priority patent/KR20140041815A/ko
Priority to CN201280040726.7A priority patent/CN103748533A/zh
Priority to EP12733458.9A priority patent/EP2726960A1/de
Priority to JP2014517750A priority patent/JP2014518422A/ja
Publication of WO2013001084A1 publication Critical patent/WO2013001084A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • B60K2360/1438
    • B60K2360/146
    • B60K2360/21
    • B60K2360/333
    • B60K2360/774
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • the invention relates to a device for the contactless detection of objects and / or persons and of gestures and / or operating processes carried out by them according to the preamble of claim 1. Furthermore, the invention relates to a method for non-contact
  • Consumer electronics such as a mobile phone and Internet applications, and a navigation system.
  • input and output devices are known from the prior art.
  • input and output devices are used, which are designed as touch-sensitive display units (touch screens) or display units with a superior, touch-sensitive input and / or output device (touch panel).
  • touch-sensitive display units touch screens
  • display units with a superior, touch-sensitive input and / or output device touch panel
  • These display units, or input and / or output devices may be formed, for example, resistive or capacitive.
  • capacitive touch-sensitive display units, or capacitively designed touch-sensitive input and / or output devices is beyond a capacitive
  • Approaching method also known as “proximity sensing” is possible by means of which, for example, anti-pinch protection of vehicle occupants when closing windows and / or doors and / or in particular a distinction of vehicle occupants, for example between driver and
  • a button of the display unit could be used to zoom in a navigation device which is locked for operation by the front passenger.
  • seat occupancy detections which detect a vehicle occupant located on the vehicle seat by means of a sensor arranged in the vehicle seat.
  • DE 10 2007 028 645 A1 describes an arrangement and a method for the control of device units, whereby a gesture of an object is recorded and interpreted by means of a sensor unit and the interpreted gesture is converted into control signals for controlling the device unit.
  • Object of the present invention is to provide a comparison with the prior art improved device and an improved method for non-contact detection of objects and / or people and / or gestures and / or operations performed by these.
  • the device is arranged in a vehicle interior and comprises at least one illumination unit, a display unit and an optical detection unit, wherein the illumination unit of at least one infrared laser, in particular an infrared laser diode is formed.
  • the optical detection unit an object and / or a person and / or gestures and / or operating processes executed by this person can be detected three-dimensionally. For example, a movement of a hand or a finger of a vehicle driver is thus detected three-dimensionally, which corresponds for example to a virtual actuation of a display unit in the vehicle.
  • This can be the detection of an operation with a gesture, such as a back and forth movement of a finger or a swipe or opening the hand as
  • the lighting unit Conventionally, a plurality of light emitting diodes is used as the lighting unit.
  • the infrared laser diode used in the present invention has improved coherence and power spectral density, resulting in a higher modulation bandwidth and more effective optical filtering.
  • a significantly improved resolution of the optical detection unit is advantageously made possible, whereby more complex gestures of the
  • Vehicle occupants are detectable.
  • the detection unit converts the detected gesture or movement into a corresponding electrical signal and transmits it to a control unit, for example a conventional display unit, which executes the desired operation in accordance with the information contained in the electrical signal.
  • Such a display unit comprises at least one display panel and a control unit.
  • a touch-sensitive display unit can be emulated, which is an emulated capacitive
  • Approximation method e.g. to distinguish whether the display unit is operated by the driver or passenger, allows.
  • Three-dimensional detection of the operations also allows a saving of storage space in the display unit. This makes it possible to reduce manufacturing costs and expenses of the display unit.
  • a cost-intensive connection of a touch-sensitive input and / or output device (touch panel) to a screen which is a possible embodiment for producing a touch-sensitive display unit, is not required.
  • the optical detection unit expediently comprises at least one optical sensor.
  • the optical detection unit is particularly preferably designed as a three-dimensional camera system, by means of which a transit time method for distance measurement can be carried out.
  • the optical detection unit is particularly preferably designed as a three-dimensional camera system, by means of which a transit time method for distance measurement can be carried out.
  • Detection unit as a so-called time-of-flight (TOF) camera formed, which comprises the illumination unit, at least one optical element, at least one optical sensor and a corresponding electronics for driving and evaluation.
  • TOF time-of-flight
  • the principle of the TOF camera is based on a runtime method for distance measurement.
  • a vehicle interior or a part of the vehicle interior by means of one of the
  • Illuminates illumination unit in particular the laser diode, generated light pulse
  • the TOF camera for each pixel measures the time that the light to the object and back to the optical sensor needed.
  • the time required is proportional to the corresponding time
  • the TOF camera is very robust, adaptable and delivers 3D data.
  • the optical detection unit is as a stereo camera, in particular as an infrared stereo camera
  • the formed by means of an operating process is three-dimensional optically detectable.
  • the at least one optical sensor is particularly preferably designed as a photonic mixer. By means of the optical sensor, light can be detected in an infrared range.
  • the optical sensor is preferably integrated in the TOF camera or coupled thereto.
  • the optical sensor in the roof console of a vehicle can be arranged.
  • the optical sensor can also be aligned in an interior console in the direction of the driver or arranged in the instrument panel or in a headrest of a vehicle or in A-pillar.
  • the optical detection unit is designed as a so-called structured light scanner, in which an infrared light grid is applied to a vehicle occupant.
  • an energy consumption is preferably reduced.
  • optical sensor in three-dimensional
  • the display unit is preferably designed as a front view display in a viewing area of a vehicle driver, so that the information displayed by the driver can be detected intuitively and without changing the viewing direction.
  • the display unit is designed as a so-called head-up display or alternatively as a combined head-up display, also referred to as combiner head-up display, and arranged for example in or on the windshield of a vehicle.
  • Operations are inventively in a vehicle interior by means of an optical detection unit an object and / or a Person and / or gestures performed by this person and / or
  • a touch-sensitive display unit is emulated by means of a device according to the invention, which allows an emulated capacitive approach method for distinguishing whether the display unit is operated by a vehicle driver or another person.
  • this is controlled, e.g. by means of a switch, controllable and can be used to detect a head movement and / or a viewing direction, e.g. a vehicle driver, are used.
  • a head movement and / or a viewing direction e.g. a vehicle driver
  • tracking or adjustment of the headrest can furthermore be carried out and / or a distraction of the vehicle driver can be detected by the current traffic situation.
  • appropriate actions such as warning signals are activated, which traffic safety is increased.
  • Figure 1 shows a schematic representation of the principle of operation of
  • FIG. 2 schematically shows a detail of a simulated vehicle interior with a device for non-contact Detection of operations of a display unit and a display unit in front view
  • FIG. 3 shows a schematic side view of the detail of the simulated vehicle interior with the device and display unit according to FIG. 1,
  • FIG. 4 shows in perspective an optical detection unit in one
  • FIG. 5 schematically shows a representation of the functional principle of FIG
  • optical detection unit in the preferred embodiment according to Figure 4,
  • FIG. 6 schematically shows an output image of an optical sensor of the optical detection unit according to FIG. 4,
  • FIG. 7 schematically shows a section of the output image according to FIG.
  • Figure 8 schematically shows a plan view of a vehicle in a semi-transparent representation
  • FIG. 9 shows schematically an exemplary embodiment of a use of the device according to the invention in a vehicle.
  • FIG. 1 shows schematically a representation of the functional principle of the device 1 according to the invention.
  • the device 1 is in a in Figure 2 arranged vehicle interior 2 and aligned with at least one vehicle occupant 10.
  • the device 1 comprises at least one illumination unit 5 and an optical detection unit 3, by means of which an operation, e.g. a hand movement to increase a displayed information (open hand), a vehicle occupant 10 in a predetermined detection range 4 is detected three-dimensionally.
  • an operation e.g. a hand movement to increase a displayed information (open hand)
  • a vehicle occupant 10 in a predetermined detection range 4 is detected three-dimensionally.
  • the optical detection unit 3 is formed in a preferred embodiment as a so-called time-of-flight (TOF) camera, which comprises at least one optical element 6, at least one optical sensor 7 and a corresponding electronics for driving and evaluation.
  • TOF time-of-flight
  • the lighting unit 5 serves to illuminate the detection area 4, which is preferably aligned with a vehicle occupant 10.
  • the illumination unit 5 comprises for this purpose one or more light sources which are designed as conventional laser diodes, in particular infrared laser diodes.
  • the illumination unit 5 generates light in the infrared range, so that, for example, the vehicle occupants 10 are not visually impaired by the device 1.
  • the optical sensor 7 which is preferably designed as a conventional photonic mixer, detects the transit time for each pixel of the camera separately.
  • the optical sensor 7 is integrated in the TOF camera or coupled thereto.
  • the optical sensor 7 is integrated in the TOF camera or coupled thereto.
  • Sensor 7 can be arranged in the roof console of a vehicle.
  • the optical sensor 7 can also be aligned in an interior console in the direction of the driver or arranged in the instrument panel or in a headrest of a vehicle.
  • the optical element 6 of the optical detection unit 3 the illuminated detection area 4 can be imaged on the optical sensor 7. That is to say, the optical element 6 is designed, for example, as an optical bandpass filter, which allows light to pass only at the wavelength with which the detection region 4 is illuminated. This disturbing light from the environment is largely eliminated or hidden.
  • both the illumination unit 5 and the optical detection unit 3 are driven.
  • the evaluation 9 converts the detected operation into a corresponding signal and transmits this to a control unit, not shown, which performs the corresponding operation or actuated accordingly.
  • optical detection unit 3 is particularly preferred.
  • Stereo camera in particular designed as an infrared stereo camera, by means of an operating process is three-dimensional optically detectable.
  • Lens structure of the optical element 6 can be used image areas detected, for example, a head movement of
  • Capture driver to detect a distraction of the driver from the current traffic events, and / or to adjust based on the detected head movement of the driver a headrest and / or to detect a misalignment of the head of the driver.
  • a multifocal optical sensor can be used as the optical sensor 7.
  • a single focus of the lens can be used as the optical sensor 7.
  • optical sensor 7 by means of a movable optical system, such as a micromechanical system, pivotally. If, for example, a faulty position of the vehicle driver and / or a distraction is detected by the current traffic situation, preferably corresponding actions, for example warning signals, can be activated, which improves traffic safety and / or information on a display unit, for example a
  • FIGS. 2 and 3 show a schematic view of a simulated vehicle interior 17.
  • the viewing direction in FIG. 2 runs in the direction of a simulated windshield 18, on which a virtual traffic scene is depicted.
  • FIG. 3 shows the simulated vehicle interior 17 in a side view.
  • a display unit 20 which serves for the display of information and for the operation of functions.
  • Display unit 20 is preferably referred to as a combined display and input device, in particular as a so-called head-up display or combined head-up display, also known as a combiner head-up display, for example for operating a vehicle interior lighting and for displaying information which relate to the illumination of the interior of a vehicle formed.
  • a so-called head-up display or combined head-up display also known as a combiner head-up display, for example for operating a vehicle interior lighting and for displaying information which relate to the illumination of the interior of a vehicle formed.
  • the display unit 20 is mechanically and / or electrically coupled in a manner not shown with a device 1 for non-contact detection of operations of the display unit 20.
  • the device 1 is in the viewing direction above the
  • Display unit 20 is arranged.
  • the device 1 can be arranged on or in an overhead console of a vehicle.
  • the device 1 comprises at least one optical detection unit 3, by means of which an operating process, for example a hand movement for enlarging a displayed information (open hand), of a vehicle occupant in a predefinable detection area 4 can be detected three-dimensionally.
  • the optical detection unit 3 is formed in a preferred embodiment as a so-called time-of-flight (TOF) camera, which comprises a lighting unit 5, at least one optical element 6, at least one optical sensor 7, which is shown in more detail in Figure 4, and corresponding control electronics 8 for controlling and
  • TOF time-of-flight
  • corresponding evaluation 9 includes.
  • the lighting unit 5 coupled to the sensor 7 serves in the manner already described for illuminating the detection area 4, which is preferably located in the immediate vicinity of the display unit 20.
  • the optical detection unit 3 is designed as a stereo camera, in particular as an infrared stereo camera, by means of which an operating process is optically detectable in three dimensions.
  • the optical detection unit 3 is designed as a so-called structured light scanner, in which an infrared light grid is applied to a vehicle occupant.
  • a touch-sensitive display unit can be emulated by means of a conventional display unit 20, which has an emulated capacitive approach method, eg for distinguishing whether the display unit is operated by the driver or front passenger, allows.
  • This makes it possible to emulate a so-called touch panel as a center information display (CID for short).
  • CID center information display
  • FIG. 4 shows an optical detection unit 3 embodied as a TOF camera with the optical sensor 7 and the optical sensor associated therewith
  • Lighting unit 5 in perspective view.
  • FIG. 5 schematically shows a functional principle of the optical detection unit 3 in the preferred embodiment according to FIG.
  • the operating principle is based on a runtime method for distance measurement (time of flight method).
  • the illumination unit 5 emits a light signal L1 in the form of a diffused light cone with modulated intensity, for example in the form of a sine, which illuminates and is reflected by a scene S under consideration.
  • the wavelength of the emitted light signal L1 is in the range of invisible infrared light.
  • the reflected light signal L2 is detected by the optical sensor 7. By a correlation of the emitted and reflected light signal L1, L2, a phase shift can be determined, which corresponds to a distance information.
  • the photons received by the optical sensor 7 are in the photosensitive
  • the resulting output of each pixel produces a direct relationship to the actual depth information of the scene S under consideration.
  • the time required is proportional to the corresponding distance.
  • FIGS. 6 and 7 show an output of the scene S detected in FIG. 5, whereby FIG. 6 shows a section of the output scene S '.
  • FIG. 8 shows a conventional vehicle interior 2 of a vehicle
  • the device 1 for example, in an instrument panel 12, a roof console 13, a center console 14, a door trim 15 and / or a headrest 16 can be arranged.
  • FIG. 9 shows various examples of use of the device 1 in the vehicle interior 2.
  • the device 1 comprises therein
  • Embodiment as an optical detection unit 3, an infrared camera, z. B. an infrared laser, in particular an infrared laser diode, with an associated and covered coverage area 4.
  • the optical detection unit 3 is arranged for this purpose in the roof console 13, wherein the detection area 4 in the direction of the center console 14th
  • a conventional liquid crystal display in particular a TFT screen, is arranged as a display unit 20.
  • a projection unit 21 with a projection area 22 can be provided which stores information in the area of the center console 14 or in the area of a windshield 22 and thus in the field of vision of a vehicle occupant 10, e.g. B. driver and / or passenger, on another, designed as a head-down display display unit 20 can show.
  • the detection area 4 of the detection unit 3 largely corresponds to the projection area of the projection unit 21.
  • actions and gestures of the vehicle occupant 10 exercised within the detection area can be detected and used to control operating functions, virtual operating elements and / or virtual displays of the display unit 20.
  • a display unit 20 projected in the area of the center console it can be mounted on other interior parts and / or on other interior parts
  • Display units or combined with projection as a touch panel can be realized.
  • areas can be emulated by means of the device 1 in a conventionally projected representation, which trigger an operating procedure when approaching or touching.
  • the device 1 is designed to distinguish whether a vehicle driver or another vehicle occupant 10 carries out an operating procedure in the vehicle.
  • the driver operates a navigation device while driving, from which a distraction from the traffic situation and a hazard could be identified, or another vehicle occupant 10 operates the navigation device.
  • a navigation device for example, it is distinguishable whether the driver operates a navigation device while driving, from which a distraction from the traffic situation and a hazard could be identified, or another vehicle occupant 10 operates the navigation device.
  • such an operation of the driver can be suppressed or not executed, whereas an operation by another
  • Vehicle occupant 10 is allowed.
  • operating operations of a vehicle occupant 10 can be detected by means of the device 1, which relate to a plurality of display means 20.
  • displayed content and / or information between the various display means 20 can be moved and / or replaced.
  • a further embodiment provides that the virtual displays in one of the display means 20 can be manipulated.
  • displayed information and / or displays can be enlarged, reduced and / or controlled by appropriate action and / or gesture of the vehicle occupant 10.
  • displayed displays and / or information of various display means 20 can be unified by graphically combining contents of the displays as one of the displays is scrolled over another display.
  • displayed objects can be selected and moved and / or controlled.
  • Autostereoscopic unit illustrated 3D displays can be manipulated by gestures and / or actions of the vehicle occupant in the free space or detection space 4. For example, perspectives of displayed 3D displays may be changed, such as rotated.
  • vehicle windows and / or sunroofs that are opened by means of the device 1 can be monitored and in the opening respectively created thereby arranged body parts of vehicle occupants 10 and / or objects are detected.
  • body parts and / or objects in the opening is closing the relevant
  • movements in the vehicle interior 2 can be monitored by means of the device 1, and detected movements in a parked vehicle can be evaluated and forwarded to an identified undesired intervention in the vehicle interior 2 of a conventional alarm system.
  • Device 1 can be used alternatively or cumulatively.

Abstract

Die Erfindung betrifft eine Vorrichtung (1) zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen. Erfindungsgemäß ist die Vorrichtung (1) in einem Fahrzeuginnenraum (2) angeordnet und umfasst zumindest eine Beleuchtungseinheit (5), eine Anzeigeeinheit (20) und eine optische Erfassungseinheit (3), wobei die Beleuchtungseinheit (5) aus zumindest einer Infrarot-Laser-Diode gebildet ist. Weiterhin betrifft die Erfindung ein Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen.

Description

Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten
Gesten und/oder Bedienvorgängen
Beschreibung
Die Erfindung betrifft eine Vorrichtung zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen gemäß dem Oberbegriff des Anspruchs 1 . Weiterhin betrifft die Erfindung ein Verfahren zur berührungslosen
Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen gemäß dem Oberbegriff des Anspruchs 9.
Es ist allgemein bekannt, dass im Innenraum von Kraftfahrzeugen eine Vielzahl von Funktionen vorhanden ist, welche von Fahrzeuginsassen steuerbar sind. Derartige Funktionen sind eine Klimaanlage,
Unterhaltungselektronik, Kommunikationsmittel, wie beispielsweise ein Mobiltelefon und Internetanwendungen, sowie ein Navigationssystem.
Zur Steuerung und Anzeige dieser Funktionen sind aus dem Stand der Technik verschiedene Ein- und Ausgabevorrichtungen bekannt. Dabei finden insbesondere Ein- und Ausgabevorrichtungen Verwendung, welche als berührungsempfindliche Anzeigeeinheiten (Touch Screens) oder Anzeigeeinheiten mit einer vorgesetzten, berührungsempfindlichen Ein- und/oder Ausgabevorrichtung (Touch Panel) ausgebildet sind. Diese Anzeigeeinheiten, beziehungsweise Ein- und/oder Ausgabevorrichtungen können z.B. resistiv oder kapazitiv ausgebildet sein. Mit kapazitiv ausgebildeten berührungsempfindlichen Anzeigeeinheiten, beziehungsweise kapazitiv ausgebildeten berührungsempfindlichen Ein- und/oder Ausgabevorrichtungen, ist darüber hinaus ein kapazitives
Annäherungsverfahren (auch als„Proximity Sensing" bekannt) möglich, mittels welchem beispielsweise ein Einklemmschutz von Fahrzeuginsassen beim Schließen von Fenstern und/oder Türen und/oder insbesondere eine Unterscheidung von Fahrzeuginsassen, z.B. zwischen Fahrer und
Beifahrer, realisierbar ist. Bei Letzterem könnte beispielsweise eine Taste der Anzeigeeinheit zum Zoomen eines Navigationsgerätes Verwendung haben, welche für die Bedienung durch den Beifahrer gesperrt ist.
Insbesondere die Interaktion des Fahrers mit den zuvor beschriebenen Anzeigeeinheiten wird immer komplexer, wodurch intelligente und/oder intuitive Bedienkonzepte erforderlich sind.
Weiterhin sind im Stand der Technik Sitzbelegungserkennungen bekannt, welche mittels eines im Fahrzeugsitz angeordneten Sensors einen auf dem Fahrzeugsitz befindlichen Fahrzeuginsassen erfassen.
Die DE 10 2007 028 645 A1 beschreibt eine Anordnung und ein Verfahren zur Steuerung von Geräteeinheiten, wobei mittels einer Sensoreinheit eine Gestik eines Objektes aufgenommen und interpretiert wird und die interpretierte Gestik in Steuersignale zur Steuerung der Geräteeinheit umgesetzt wird.
Aufgabe der vorliegenden Erfindung ist es, eine gegenüber dem Stand der Technik verbesserte Vorrichtung und ein verbessertes Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und/oder von diesen ausgeführten Gesten und/oder Bedienvorgängen anzugeben. Hinsichtlich der Vorrichtung zur berührungslosen Erfassung von
Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen wird die Aufgabe durch die im Anspruch 1 angegebenen Merkmale gelöst.
Hinsichtlich des Verfahrens zur berührungslosen Erfassung von
Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen wird die Aufgabe durch die im Anspruch 9 angegebenen Merkmale gelöst.
Vorteilhafte Weiterbildungen der Erfindung sind Gegenstand der
Unteransprüche.
Bei der Vorrichtung zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder
Bedienvorgängen ist die Vorrichtung erfindungsgemäß in einem Fahrzeuginnenraum angeordnet und umfasst zumindest eine Beleuchtungseinheit, eine Anzeigeeinheit und eine optische Erfassungseinheit, wobei die Beleuchtungseinheit aus zumindest einem Infrarot-Laser, insbesondere einer Infrarot-Laser-Diode, gebildet ist. Vorteilhafterweise sind mittels der optischen Erfassungseinheit ein Gegenstand und/oder eine Person und/oder von dieser Person ausgeführte Gesten und/oder Bedienvorgänge dreidimensional erfassbar. Beispielsweise wird somit eine Bewegung einer Hand oder eines Fingers eines Fahrzeugführers dreidimensional erfasst, welche beispielweise einer virtuellen Betätigung einer Anzeigeeinheit im Fahrzeug entspricht. Dabei kann es sich um die Erfassung eines Bedienvorgangs mit einer Geste, wie beispielsweise ein Hin- und Herbewegen eines Fingers oder eine Wischbewegung oder Öffnen der Hand als
Zoombewegung, handeln. Herkömmlicherweise wird eine Mehrzahl von Leuchtdioden als Beleuchtungseinheit verwendet. Im Vergleich dazu weist die erfindungsgemäß verwendete Infrarot-Laser-Diode eine verbesserte Kohärenz und eine höhere spektrale Leistungsdichte auf, woraus eine höhere Modulationsbandbreite und eine effektivere optische Filterung resultieren. Dadurch ist vorteilhafterweise eine signifikant verbesserte Auflösung der optischen Erfassungseinheit ermöglicht, wodurch komplexere Gesten der
Fahrzeuginsassen erfassbar sind.
Die Erfassungseinheit wandelt die erfasste Geste oder Bewegung in ein entsprechendes elektrisches Signal um und übermittelt dieses an ein Steuergerät, beispielweise einer herkömmlichen Anzeigeeinheit, welche die entsprechend der in dem elektrischen Signal enthaltene Information den gewünschten Bedienvorgang ausführt.
Eine solche Anzeigeeinheit umfasst zumindest ein Anzeigefeld und eine Steuereinheit. Damit ist mittels der Vorrichtung eine berührungsempfindliche Anzeigeeinheit emulierbar, welche ein emuliertes kapazitives
Annäherungsverfahren, z.B. zur Unterscheidung ob die Anzeigeeinheit durch den Fahrer oder Beifahrer bedient wird, ermöglicht. Die
dreidimensionale Erfassung der Bedienvorgänge ermöglicht weiterhin eine Einsparung von Speicherplatz in der Anzeigeeinheit. Dies ermöglicht es, Herstellungskosten und -aufwand der Anzeigeeinheit zu verringern.
Weiterhin ist eine kostenintensive Anbindung einer berührungsempfindlichen Ein- und/oder Ausgabevorrichtung (Touch Panel) an einen Bildschirm, welches ein mögliches Ausführungsbeispiel zur Herstellung einer berührungsempfindlichen Anzeigeeinheit darstellt, nicht erforderlich.
Darüber hinaus ist eine Ausgabequalität der Anzeigeeinheit in Bezug auf Beleuchtungsverhältnisse gegenüber berührungssensitiven Anzeigeeinheiten verbessert, da diese üblicherweise aus mehreren
Schichten bestehen, welche die Hintergrundbeleuchtung zum Teil reflektieren.
Zweckmäßigerweise umfasst die optische Erfassungseinheit zumindest einen optischen Sensor.
Die optische Erfassungseinheit ist besonders bevorzugt als dreidimensionales Kamerasystem ausgebildet, mittels dem ein Laufzeitverfahren zur Distanzmessung durchführbar ist. Beispielsweise ist die optische
Erfassungseinheit als eine sogenannte Time-of-flight (TOF) Kamera ausgebildet, welche die Beleuchtungseinheit, zumindest ein optisches Element, zumindest einen optischen Sensor und eine entsprechende Elektronik zur Ansteuerung und Auswertung umfasst.
Das Prinzip der TOF-Kamera beruht auf einem Laufzeitverfahren zur Distanzmessung. Dazu werden beispielsweise ein Fahrzeuginnenraum oder ein Teil des Fahrzeuginnenraums mittels eines von der
Beleuchtungseinheit, insbesondere der Laserdiode, erzeugten Lichtpulses beleuchtet, wobei die TOF-Kamera für jeden Bildpunkt die Zeit misst, die das Licht bis zum Objekt und wieder zurück zum optischen Sensor benötigt. Vorzugsweise ist die benötigte Zeit proportional zur entsprechenden
Distanz. Auf dem optischen Sensor wird die erfasste Szene, insbesondere der erfasste Bedienvorgang, abgebildet und anschließend entsprechend ausgewertet. Die TOF-Kamera ist dabei sehr robust, anpassungsfähig und liefert 3D-Daten.
Besonders bevorzugt oder alternativ ist die optische Erfassungseinheit als eine Stereokamera, insbesondere als eine Infrarot-Stereokamera
ausgebildet, mittels der ein Bedienvorgang dreidimensional optisch erfassbar ist. Der zumindest eine optische Sensor ist dabei besonders bevorzugt als ein Photomischdetektor ausgebildet. Mittels des optischen Sensors ist Licht in einem Infrarotbereich erfassbar. Der optische Sensor ist dabei bevorzugt in der TOF-Kamera integriert oder mit dieser gekoppelt. Beispielsweise ist der optische Sensor in der Dachkonsole eines Fahrzeugs anordbar. Alternativ dazu kann der optische Sensor auch in einer Innenraumkonsole in Richtung des Fahrers ausgerichtet oder in der Instrumententafel oder in einer Kopfstütze eines Fahrzeugs angeordnet sein oder in A-Säule.
In einer alternativen Ausführungsform ist die optische Erfassungseinheit als ein sogenannter Strukturiertes-Licht-Scanner ausgebildet sein, bei welchem ein Infrarotlichtgitter auf einen Fahrzeuginsassen appliziert wird. Mittels des Scanners ist vorzugsweise ein Energieverbrauch verringerbar.
Besonders bevorzugt ist der optische Sensor im dreidimensionalen
Kamerasystem (TOF) oder der Stereokamera integriert oder mit diesem oder dieser gekoppelt.
Die Anzeigeeinheit ist bevorzugt als Frontsichtdisplay in einem Sichtbereich eines Fahrzeugsführers ausgebildet, so dass die dargestellten Informationen vom Fahrzeugführer intuitiv und ohne Änderung der Blickrichtung erfassbar sind. Dazu ist die Anzeigeeinheit als ein sogenanntes Head-up- Display oder alternativ als ein kombiniertes Head-up-Display, auch als combiner Head-up-Display bezeichnet, ausgebildet und beispielsweise in oder an der Windschutzscheibe eines Fahrzeugs angeordnet.
Beim Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder
Bedienvorgängen werden erfindungsgemäß in einem Fahrzeuginnenraum mittels einer optischen Erfassungseinheit ein Gegenstand und/oder eine Person und/oder von dieser Person ausgeführte Gesten und/oder
Bedienvorgänge dreidimensional erfasst.
Besonders vorteilhafterweise wird mittels einer erfindungsgemäßen Vorrichtung eine berührungsempfindliche Anzeigeeinheit emuliert, welche ein emuliertes kapazitives Annäherungsverfahren zur Unterscheidung, ob die Anzeigeeinheit durch einen Fahrzeugführer oder eine andere Person bedient wird, ermöglicht.
Abhängig von einer Blendenöffnung und/oder dem Aufbau der optischen Erfassungseinheit ist diese kontrolliert, z.B. mittels eines Schalters, steuerbar und kann zur Erfassung einer Kopfbewegung und/oder einer Blickrichtung, z.B. eines Fahrzeugfahrers, verwendet werden. Anhand der erfassten Kopfbewegung und/oder Blickrichtung kann darüber hinaus eine Nachführung oder eine Einstellung der Kopfstütze erfolgen und/oder eine Ablenkung des Fahrzeugfahrers vom aktuellen Verkehrsgeschehen erfasst werden. Vorzugsweise können dann entsprechende Aktionen, beispielsweise Warnsignale, aktiviert werden, wodurch eine Verkehrssicherheit erhöht ist.
Anhand der beigefügten schematischen Figuren wird die Erfindung im Folgenden näher erläutert.
Dabei zeigen:
Figur 1 schematisch eine Darstellung zum Funktionsprinzip der
erfindungsgemäßen Vorrichtung,
Figur 2 schematisch einen Ausschnitt eines simulierten Fahrzeuginnenraums mit einer Vorrichtung zur berührungslosen Erfassung von Bedienvorgängen einer Anzeigeeinheit sowie eine Anzeigeeinheit in Vorderansicht,
Figur 3 schematisch den Ausschnitt des simulierten Fahrzeuginnenraums mit der Vorrichtung und Anzeigeeinheit gemäß Figur 1 in Seitenansicht,
Figur 4 perspektivisch eine optische Erfassungseinheit in einer
bevorzugten Ausführungsform,
Figur 5 schematisch eine Darstellung zum Funktionsprinzip der
optischen Erfassungseinheit in der bevorzugten Ausführungsform gemäß Figur 4,
Figur 6 schematisch ein Ausgabebild eines optischen Sensors der optischen Erfassungseinheit gemäß Figur 4,
Figur 7 schematisch einen Ausschnitt des Ausgabebildes gemäß
Figur 6,
Figur 8 schematisch eine Draufsicht auf ein Fahrzeug in semitransparenter Darstellung, und
Figur 9 schematisch ein Ausführungsbeispiel für eine Verwendung der erfindungsgemäßen Vorrichtung in einem Fahrzeug.
Einander entsprechende Teile sind in allen Figuren mit den gleichen
Bezugszeichen versehen.
Figur 1 zeigt schematisch eine Darstellung zum Funktionsprinzip der erfindungsgemäßen Vorrichtung 1 . Die Vorrichtung 1 ist in einem in Figur 2 dargestellten Fahrzeuginnenraum 2 angeordnet und auf zumindest einen Fahrzeuginsassen 10 ausgerichtet.
Die Vorrichtung 1 umfasst zumindest eine Beleuchtungseinheit 5 und eine optische Erfassungseinheit 3, mittels der ein Bedienvorgang, z.B. eine Handbewegung zum Vergrößern einer dargestellten Information (Hand öffnen), eines Fahrzeuginsassen 10 in einem vorgebbaren Erfassungsbereich 4 dreidimensional erfassbar ist.
Die optische Erfassungseinheit 3 ist in einer bevorzugten Ausführungsform als eine sogenannte Time-of-flight (TOF) Kamera ausgebildet, welche zumindest ein optisches Element 6, zumindest einen optischen Sensor 7 und eine entsprechende Elektronik zur Ansteuerung und Auswertung umfasst.
Die Beleuchtungseinheit 5 dient dabei der Beleuchtung des Erfassungsbereichs 4, welcher vorzugsweise auf einen Fahrzeuginsassen 10 ausgerichtet ist. Die Beleuchtungseinheit 5 umfasst dazu ein oder mehrere Lichtquellen, welche als herkömmliche Laserdioden, insbesondere Infrarot- Laser-Dioden, ausgebildet sind. Vorzugsweise erzeugt die Beleuchtungseinheit 5 Licht im Infrarotbereich, damit beispielsweise die Fahrzeuginsassen 10 durch die Vorrichtung 1 optisch nicht beeinträchtigt werden.
Der optische Sensor 7, welcher vorzugsweise als ein herkömmlicher Photomischdetektor ausgebildet ist, erfasst die Laufzeit für jeden Bildpunkt der Kamera separat. Der optische Sensor 7 ist dabei in der TOF-Kamera integriert oder mit dieser gekoppelt. Beispielsweise ist der optische
Sensor 7 in der Dachkonsole eines Fahrzeugs anordbar. Alternativ dazu kann der optische Sensor 7 auch in einer Innenraumkonsole in Richtung des Fahrers ausgerichtet oder in der Instrumententafel oder in einer Kopfstütze eines Fahrzeugs angeordnet sein. Mittels des optischen Elements 6 der optischen Erfassungseinheit 3 ist der beleuchtete Erfassungsbereich 4 auf dem optischen Sensor 7 abbildbar. D.h. das optische Element 6 ist beispielsweise als ein optischer Bandpassfilter ausgebildet, welcher Licht nur mit der Wellenlänge passieren lässt, mit der der Erfassungsbereich 4 beleuchtet wird. Damit wird störendes Licht aus der Umgebung weitestgehend eliminiert oder ausgeblendet.
Mittels der Ansteuerelektronik 8 werden sowohl die Beleuchtungseinheit 5 als auch die optische Erfassungseinheit 3 angesteuert. Die Auswerteelektronik 9 wandelt den erfassten Bedienvorgang in ein entsprechendes Signal um und übermittelt dieses an eine nicht dargestellte Steuereinheit, welche den gewünschten Bedienvorgang entsprechend durchführt oder aktuiert.
Besonders bevorzugt ist die optische Erfassungseinheit 3 als eine
Stereokamera, insbesondere als eine Infrarot-Stereokamera ausgebildet, mittels der ein Bedienvorgang dreidimensional optisch erfassbar ist.
Abhängig von einer nicht näher dargestellten Ausformung einer
Blendenöffnung der optischen Erfassungseinheit 3 und/oder einer
Linsenstruktur des optischen Elements 6 können erfasste Bildbereiche verwendet werden, um beispielsweise eine Kopfbewegung des
Fahrzeugführers zu erfassen, um eine Ablenkung des Fahrzeugführers vom aktuellen Verkehrsgeschehen zu erfassen, und/oder um anhand der erfassten Kopfbewegung des Fahrzeugführers eine Kopfstütze einzustellen und/oder eine Fehlposition des Kopfes des Fahrzeugführers zu erfassen. Hierzu kann beispielsweise als optischer Sensor 7 ein multifokaler optischer Sensor verwendet werden. Alternativ ist ein einzelner Fokus des
optischen Sensors 7 mittels eines beweglichen optischen Systems, z.B. eines mikromechanischen Systems, schwenkbar. Wird beispielsweise eine Fehlposition des Fahrzeugführers und/oder eine Ablenkung vom aktuellen Verkehrsgeschehen erfasst, so können vorzugsweise entsprechende Aktionen, beispielsweise Warnsignale, aktiviert werden, wodurch eine Verkehrssicherheit verbessert ist und/oder Informationen auf einer Anzeigeeinheit, beispielsweise einem
herkömmlichen Kombinationsanzeigeinstrument ausgegeben werden.
Die Figuren 2 und 3 zeigen in einer schematischen Ansicht einen simulierten Fahrzeuginnenraum 17. Die Betrachtungsrichtung in Figur 2 verläuft dabei in Richtung einer simulierten Windschutzscheibe 18, auf der ein virtuelles Verkehrsgeschehen abgebildet ist. Figur 3 zeigt den simulierten Fahrzeuginnenraum 17 in einer Seitenansicht.
Seitlich eines im simulierten Fahrzeuginnenraum 17 angeordneten
Lenkrades 19 ist eine Anzeigeeinheit 20 angeordnet, welche zur Anzeige von Informationen und zur Bedienung von Funktionen dient. Die
Anzeigeeinheit 20 ist vorzugsweise als eine kombinierte Anzeige- und Eingabevorrichtung, insbesondere als ein sogenanntes Head-up-Display oder kombiniertes Head-up-Display, auch als combiner Head-up-Display bezeichnet, beispielsweise zur Bedienung einer Fahrzeuginnenraumbeleuchtung und zur Anzeige von Informationen, welche die Beleuchtung des Innenraums eines Fahrzeugs betreffen, ausgebildet.
Die Anzeigeeinheit 20 ist in nicht näher dargestellter Art und Weise mit einer Vorrichtung 1 zur berührungslosen Erfassung von Bedienvorgängen der Anzeigeeinheit 20 mechanisch und/oder elektrisch gekoppelt.
Die Vorrichtung 1 ist dabei in Betrachtungsrichtung oberhalb der
Anzeigeeinheit 20 angeordnet. Beispielsweise ist die Vorrichtung 1 an oder in einer Dachkonsole eines Fahrzeugs anordbar. Die Vorrichtung 1 umfasst zumindest eine optische Erfassungseinheit 3, mittels der ein Bedienvorgang, z.B. eine Handbewegung zum Vergrößern einer dargestellten Information (Hand öffnen), eines Fahrzeuginsassen in einem vorgebbaren Erfassungsbereich 4 dreidimensional erfassbar ist.
Die optische Erfassungseinheit 3 ist in einer bevorzugten Ausführungsform als eine sogenannte Time-of-flight (TOF) Kamera ausgebildet, welche eine Beleuchtungseinheit 5, zumindest ein optisches Element 6, zumindest einen optischen Sensor 7, welcher in Figur 4 näher dargestellt ist, und die entsprechende Ansteuerelektronik 8 zur Ansteuerung und die
entsprechende Auswerteelektronik 9 umfasst.
Die mit dem Sensor 7 gekoppelte Beleuchtungseinheit 5 dient dabei in der bereits beschriebenen Art und Weise der Beleuchtung des Erfassungsbereichs 4, welcher sich vorzugsweise in unmittelbarer Umgebung der Anzeigeeinheit 20 befindet.
In einer ersten alternativen Ausführungsform ist die optische Erfassungseinheit 3 als eine Stereokamera, insbesondere als eine Infrarot-Stereokamera ausgebildet, mittels der ein Bedienvorgang dreidimensional optisch erfassbar ist.
In einer zweiten alternativen Ausführungsform ist die optische Erfassungseinheit 3 als ein sogenannter Strukturiertes-Licht-Scanner ausgebildet, bei welchem ein Infrarotlichtgitter auf einen Fahrzeuginsassen appliziert wird.
Mittels der Vorrichtung 1 ist eine mittels einer herkömmlichen Anzeigeeinheit 20 berührungsempfindliche Anzeigeeinheit emulierbar, welche ein emuliertes kapazitives Annäherungsverfahren, z.B. zur Unterscheidung ob die Anzeigeeinheit durch den Fahrer oder Beifahrer bedient wird, ermöglicht. Damit ist ein sogenanntes Touch Panel als Center Information Display (kurz: CID) emulierbar.
Figur 4 zeigt eine als TOF-Kamera ausgebildete optische Erfassungseinheit 3 mit dem optischen Sensor 7 und der diesem zugeordneten
Beleuchtungseinheit 5 in perspektivischer Ansicht.
In Figur 5 ist schematisch ein Funktionsprinzip der optischen Erfassungseinheit 3 in der bevorzugten Ausführungsform gemäß Figur 4 dargestellt.
Das Funktionsprinzip basiert auf einem Laufzeitverfahren zur Distanzmessung (time of flight Verfahren).
Die Beleuchtungseinheit 5 emittiert ein Lichtsignal L1 in Form eines diffusen Lichtkegels mit modulierter Intensität, beispielsweise in Form eines Sinus, welches eine betrachtete Szene S beleuchtet und von dieser reflektiert wird. Die Wellenlänge des emittierten Lichtsignals L1 liegt im Bereich des nicht sichtbaren Infrarotlichts. Das reflektierte Lichtsignal L2 wird von dem optischen Sensor 7 erfasst. Durch eine Korrelation des emittierten und reflektierten Lichtsignals L1 , L2 kann eine Phasenverschiebung ermittelt werden, welche einer Distanzinformation entspricht. Hierzu werden die von dem optischen Sensor 7 empfangenen Photonen im photosensitiven
Halbleiterbereich in Elektronen umgewandelt und entfernungsabhängig in unterschiedlichen Ladungsschaukeln getrennt. Somit stellt das resultierende Ausgangssignal eines jeden Bildpunktes eine direkte Beziehung zur eigentlichen Tiefen Information der betrachteten Szene S her. Vorzugsweise ist die benötigte Zeit proportional zur entsprechenden Distanz.
Die Figuren 6 und 7 zeigen eine Ausgabe der in Figur 5 erfassten Szene S, wobei Figur 6 einen Ausschnitt der ausgegebenen Szene S' darstellt. Figur 8 zeigt einen herkömmlichen Fahrzeuginnenraum 2 eines
semitransparent dargestellten Fahrzeugs 1 1 .
In dem Fahrzeuginnenraum 2 ist die erfindungsgemäße Vorrichtung 1 beispielsweise in einer Instrumententafel 12, einer Dachkonsole 13, einer Mittelkonsole 14, einer Türverkleidung 15 und/oder einer Kopfstütze 16 anordbar.
Figur 9 zeigt verschiedene Anwendungsbeispiele für die Vorrichtung 1 im Fahrzeuginnenraum 2. Dabei umfasst die Vorrichtung 1 in diesem
Ausführungsbeispiel als optische Erfassungseinheit 3 eine Infrarot-Kamera, z. B. einen Infrarot-Laser, insbesondere eine Infrarot-Laserdiode, mit einem zugeordneten und abzudeckenden Erfassungsbereich 4. Die optische Erfassungseinheit 3 ist hierzu im Bereich der Dachkonsole 13 angeordnet, wobei der Erfassungsbereich 4 in Richtung der Mittelkonsole 14
ausgerichtet ist.
Im Bereich der Mittelkonsole 14 ist als eine Anzeigeeinheit 20 eine herkömmliche Flüssigkristallanzeige, insbesondere ein TFT-Bildschirm, angeordnet.
Zusätzlich oder alternativ kann im Bereich der Dachkonsole 13 oder im Bereich der Instrumententafel 12 eine Projektionseinheit 21 mit einem Projektionsbereich 22 vorgesehen sein, die Informationen im Bereich der Mittelkonsole 14 bzw. im Bereich einer Windschutzscheibe 22 und somit im Sichtfeld eines Fahrzeuginsassen 10, z. B. von Fahrer und/oder Beifahrer, auf einer weiteren, als Head-down-Display ausgebildeten Anzeigeeinheit 20 einblenden kann.
Dabei kann die jeweilige oder jede weitere Anzeigeeinheit 20 in Kombination mit der optischen Erfassungseinheit 3 eine kombinierte Anzeige- und Eingabevorrichtung bilden. In diesem Fall entspricht der Erfassungsbereich 4 der Erfassungseinheit 3 weitgehend dem Projektionsbereich der Projektionseinheit 21 . Somit können innerhalb des Erfassungsbereichs ausgeübte Aktionen und Gestiken des Fahrzeuginsassen 10 erfasst und zur Steuerung von Bedienfunktionen, virtuellen Bedienelementen und/oder virtuellen Anzeigen der Anzeigeeinheit 20 verwendet werden.
Alternativ zu einer im Bereich der Mittelkonsole projizierten Anzeigeeinheit 20 kann diese auf anderen Interior-Teilen und/oder anderen
Anzeigeeinheiten oder mit Projektion kombiniert als Touch-Panel realisiert werden.
In einer weiteren Ausführungsvariante können mittels der Vorrichtung 1 berührungsempfindliche Bedienelemente auf Oberflächen im Fahrzeuginnenraum 2, beispielsweise auf der Instrumententafel 12, an der
Dachkonsole 13, der Mittel konsole 14, der Türverkleidung 15 und/oder der Kopfstütze 16, emuliert werden. Dadurch sind herkömmliche, einem Verschleiß unterliegende Bedienelemente sowie aufwendige Verdrahtungen vermieden.
In einer weiteren möglichen Ausführungsvariante können mittels der Vorrichtung 1 in einer auf herkömmliche Weise projizierten Darstellung Bereiche emuliert werden, welche bei Annäherung oder Berührung einen Bedienvorgang auslösen.
In einer vorteilhaften Ausführungsvariante ist die Vorrichtung 1 derart ausgebildet, um zu unterscheiden, ob ein Fahrzeugführer oder ein anderer Fahrzeuginsasse 10 einen Bedienvorgang im Fahrzeug ausführt.
Beispielsweise ist derart unterscheidbar, ob der Fahrzeugführer während der Fahrt eine Navigationsvorrichtung bedient, woraus eine Ablenkung vom Verkehrsgeschehen und eine Gefährdung identifiziert werden könnte, oder ein anderer Fahrzeuginsasse 10 die Navigationsvorrichtung bedient. In einer vorteilhaften Ausführungsvariante kann beispielsweise ein solcher Bedienvorgang des Fahrzeugführers unterdrückt oder nicht ausgeführt werden, wohingegen ein Bedienvorgang durch einen anderen
Fahrzeuginsassen 10 zugelassen wird.
In einer weiteren vorteilhaften Ausführungsvariante können mittels der Vorrichtung 1 Bedienvorgänge eines Fahrzeuginsassen 10 erfasst werden, welche mehrere Anzeigemittel 20 betreffen. Dabei können beispielsweise dargestellte Inhalte und/oder Informationen zwischen den verschiedenen Anzeigemitteln 20 verschoben und/oder ausgetauscht werden.
Eine weitere Ausführungsform sieht vor, dass die virtuellen Anzeigen in einem der Anzeigemittel 20 manipuliert werden können. Beispielsweise können dargestellte Informationen und/oder Anzeigen durch entsprechende Aktion und/oder Gestik des Fahrzeuginsassen 10 vergrößert, verkleinert und/oder gesteuert werden. Auch können dargestellte Anzeigen und/oder Informationen verschiedener Anzeigemittel 20 vereinigt werden, indem Inhalte der Anzeigen bei Schieben einer der Anzeigen über eine andere Anzeige grafisch vereinigt werden. Auch können dargestellte Objekte ausgewählt und bewegt und/oder gesteuert werden.
Bei Ausbildung zumindest eines der Anzeigemittel 20 als eine
autostereoskopische Einheit können dargestellte 3D-Anzeigen durch Gesten und/oder Aktionen des Fahrzeuginsassen im Freiraum oder Erfassungsraum 4 manipuliert werden. Beispielsweise können Perspektiven von dargestellten 3D-Anzeigen geändert, beispielsweise gedreht, werden.
In einer weiteren vorteilhaften, nicht dargestellten Ausführungsvariante können mittels der Vorrichtung 1 geöffnete Fahrzeugfenster und/oder Schiebedächer überwacht und in der dadurch jeweils geschaffenen Öffnung angeordnete Körperteile von Fahrzeuginsassen 10 und/oder Gegenstände erfasst werden. Bei einer solchen Erfassung von Körperteilen und/oder Gegenständen in der Öffnung wird ein Schließen des betreffenden
Fahrzeugfensters oder Schiebedachs verhindert.
In einer weiteren vorteilhaften, nicht dargestellten Ausführungsvariante können mittels der Vorrichtung 1 Bewegungen im Fahrzeuginnenraum 2 überwacht und erfasste Bewegungen bei einem abgestellten Fahrzeug ausgewertet und bei einem identifizierten unerwünschten Eingriff in den Fahrzeuginnenraum 2 einer herkömmlichen Alarmanlage zugeleitet werden.
Alle vorstehend beschriebenen Verwendungsmöglichkeiten der
Vorrichtung 1 können alternativ oder kumulativ verwendet werden.
Bezugszeichenliste
1 Vorrichtung
2 Fahrzeuginnenraum
3 optische Erfassungseinheit
4 Erfassungsbereich
5 Beleuchtungseinheit
6 optisches Element
7 optischer Sensor
8 Ansteuerelektronik
9 Auswerteelektronik
10 Fahrzeuginsasse
1 1 Fahrzeug
12 Instrumententafel
13 Dachkonsole
14 Mittel konsole
15 Türverkleidung
16 Kopfstütze
17 simulierter Fahrzeuginnenraum
18 simulierte Windschutzscheibe
19 Lenkrad
20 Anzeigeeinheit
21 Projektionseinheit
22 Projektionsbereich
L1 emittiertes Lichtsignal L2 reflektiertes Lichtsignal
S Szene
S' ausgegebene Szene

Claims

Ansprüche
1 . Vorrichtung (1 ) zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen,
dadurch gekennzeichnet, dass die Vorrichtung (1 ) in einem
Fahrzeuginnenraum (2) angeordnet ist und zumindest eine
Beleuchtungseinheit (5), eine Anzeigeeinheit (20) und eine optische Erfassungseinheit (3) umfasst, wobei die Beleuchtungseinheit (5) aus zumindest einem Infrarot-Laser gebildet ist.
2. Vorrichtung (1 ) nach Anspruch 1 ,
dadurch gekennzeichnet, dass die optische Erfassungseinheit (3) zumindest einen optischen Sensor (7) umfasst.
3. Vorrichtung (1 ) nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass die optische Erfassungseinheit (3) als dreidimensionales Kamerasystem ausgebildet ist.
4. Vorrichtung (1 ) nach Anspruch 3,
dadurch gekennzeichnet, dass mittels der optischen
Erfassungseinheit (3) ein Laufzeitverfahren zur Distanzmessung durchführbar ist.
5. Vorrichtung (1 ) nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass die optische Erfassungseinheit (3) als Stereokamera ausgebildet ist.
6. Vorrichtung (1 ) nach einem der vorherigen Ansprüche,
dadurch gekennzeichnet, dass der zumindest eine optische Sensor (7) als Photomischdetektor ausgebildet ist.
7. Vorrichtung (1 ) nach einem der vorherigen Ansprüche,
dadurch gekennzeichnet, dass der optische Sensor (7) im
dreidimensionalen Kamerasystem oder der Stereokamera integriert oder mit diesem oder dieser gekoppelt ist.
8. Vorrichtung (1 ) nach einem der vorherigen Ansprüche,
dadurch gekennzeichnet, dass die Anzeigeeinheit (20) als
Frontsichtdisplay in einem Sichtbereich eines Fahrzeugsführers ausgebildet ist.
9. Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder
Bedienvorgängen,
dadurch gekennzeichnet, dass in einem Fahrzeuginnenraum (2) mittels einer optischen Erfassungseinheit (3) ein Gegenstand und/oder eine Person und/oder von dieser Person ausgeführte Gesten und/oder Bedienvorgänge dreidimensional erfasst werden.
10. Verfahren nach Anspruch 9,
dadurch gekennzeichnet, dass mittels einer Vorrichtung (1 ) eine berührungsempfindliche Anzeigeeinheit (20) emuliert wird, welche ein emuliertes kapazitives Annäherungsverfahren zur Unterscheidung, ob die Anzeigeeinheit durch einen Fahrzeugführer oder einen anderen Fahrzeuginsassen (10) bedient wird, ermöglicht.
1 1 . Verfahren nach Anspruch 9 oder 10,
dadurch gekennzeichnet, dass virtuelle Anzeigen der Anzeigeeinheit (20) durch ausgeführte Aktionen und/oder Gesten einer Person im Fahrzeuginnenraum (2) manipuliert, insbesondere verschoben, ausgetauscht, gedreht und/oder gesteuert werden.
12. Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 8 zur Darstellung und Manipulation virtueller Bilder auf einer
Anzeigeeinheit (20).
13. Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 8 zur Bedienung virtueller Bedienelemente erzeugt auf einer
Anzeigeeinheit (20).
14. Verwendung einer Vorrichtung nach einem der Ansprüche 1 bis 8 zur Überwachung und Sicherung eines Fahrzeuginnenraums (2) und/oder Öffnungen im Fahrzeug auf einen unerwünschten Eingriff.
PCT/EP2012/062781 2011-06-30 2012-06-29 Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen WO2013001084A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/129,866 US20140195096A1 (en) 2011-06-30 2012-06-29 Apparatus and method for contactlessly detecting objects and/or persons and gestures and/or operating procedures made and/or carried out thereby
KR1020147002503A KR20140041815A (ko) 2011-06-30 2012-06-29 사물 및/또는 사람 및 이에 의해 이루어지는 및/또는 실행되는 동작 및/또는 작동 과정을 비접촉식으로 검출하기 위한 장치 및 방법
CN201280040726.7A CN103748533A (zh) 2011-06-30 2012-06-29 用于以非接触的方式检测物体和/或人员以及由所述人员做出和/或执行的手势和/或操作程序的设备和方法
EP12733458.9A EP2726960A1 (de) 2011-06-30 2012-06-29 Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen
JP2014517750A JP2014518422A (ja) 2011-06-30 2012-06-29 オブジェクト及び/又は人物及びそれによって行われ及び/又は実行されるジェスチャ及び/又は操作手順を非接触式に検出する装置及び方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
DE102011106058 2011-06-30
DE102011106058.1 2011-06-30
DE102011111103 2011-08-19
DE102011111103.8 2011-08-19
DE102011089195A DE102011089195A1 (de) 2011-06-30 2011-12-20 Vorrichtung und Verfahren zur berührungslosen Erfassung von Gegenständen und/oder Personen und von diesen ausgeführten Gesten und/oder Bedienvorgängen
DE102011089195.1 2011-12-20

Publications (1)

Publication Number Publication Date
WO2013001084A1 true WO2013001084A1 (de) 2013-01-03

Family

ID=47355080

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2012/062781 WO2013001084A1 (de) 2011-06-30 2012-06-29 Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen

Country Status (7)

Country Link
US (1) US20140195096A1 (de)
EP (1) EP2726960A1 (de)
JP (1) JP2014518422A (de)
KR (1) KR20140041815A (de)
CN (1) CN103748533A (de)
DE (1) DE102011089195A1 (de)
WO (1) WO2013001084A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103488355A (zh) * 2013-10-16 2014-01-01 广东威创视讯科技股份有限公司 一种视频窗打开方法及系统、激光笔
WO2015022240A1 (de) * 2013-08-14 2015-02-19 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE102015113841A1 (de) 2015-08-20 2017-02-23 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
DE102015114016A1 (de) 2015-08-24 2017-03-02 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
DE102015115098A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
DE102015115096A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur optischen Erfassung von Bediengesten an Fahrzeugen
DE102015115101A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
DE102015115558A1 (de) 2015-09-15 2017-03-16 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
DE102015117967A1 (de) 2015-10-21 2017-04-27 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Bedienungsgesten an Fahrzeugen und Verfahren zum Betreiben der Sensoreinrichtung
WO2019215286A1 (de) 2018-05-09 2019-11-14 Motherson Innovations Company Ltd. Vorrichtung und verfahren zum betreiben einer objekterkennung für den innenraum eines kraftfahrzeugs sowie ein kraftfahrzeug
DE102018132683A1 (de) 2018-12-18 2020-06-18 Huf Hülsbeck & Fürst Gmbh & Co. Kg Pixelstruktur zur optischen abstandsmessung an einem objekt und zugehöriges abstandserfassungssystem
US10821831B2 (en) 2016-09-01 2020-11-03 Volkswagen Aktiengesellschaft Method for interacting with image contents displayed on a display device in a transportation vehicle

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104053564B (zh) 2012-01-17 2017-12-19 皇家飞利浦有限公司 用于加热生物的加热系统
DE102012205212B4 (de) * 2012-03-30 2015-08-20 Ifm Electronic Gmbh Informationsanzeigesystem mit einer virtuellen Eingabezone sowie Verfahren zum Betreiben eines Informationsanzeigesystems
DE102012205217B4 (de) * 2012-03-30 2015-08-20 Ifm Electronic Gmbh Informationsanzeigesystem mit einer virtuellen Eingabezone
DE102013000069B4 (de) * 2013-01-08 2022-08-11 Audi Ag Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102013000072A1 (de) * 2013-01-08 2014-07-10 Audi Ag Bedienschnittstelle für eine handschriftliche Zeicheneingabe in ein Gerät
DE102013000066A1 (de) * 2013-01-08 2014-07-10 Audi Ag Zoomen und Verschieben eines Bildinhalts einer Anzeigeeinrichtung
DE102013000080B4 (de) * 2013-01-08 2015-08-27 Audi Ag Aktivierung einer Kraftfahrzeugfunktion mittels eines optischen Sensors
DE102013000085A1 (de) * 2013-01-08 2014-07-10 Audi Ag Verfahren zum Wechseln eines Betriebsmodus eines Infotainmentsystems eines Kraftfahrzeugs
DE102013000083A1 (de) * 2013-01-08 2014-07-10 Audi Ag Kraftfahrzeug mit einer personenspezifischen Bedienschnittstelle
DE102013000071B4 (de) * 2013-01-08 2015-08-13 Audi Ag Synchronisieren von Nutzdaten zwischen einem Kraftfahrzeug und einem mobilen Endgerät
DE102013100521A1 (de) 2013-01-18 2014-07-24 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
DE102013100522A1 (de) 2013-01-18 2014-08-07 Huf Hülsbeck & Fürst Gmbh & Co. Kg Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
DE102013203925B4 (de) * 2013-03-07 2015-10-22 Ifm Electronic Gmbh Steuersystem für Fahrzeugscheinwerfer
JP6043671B2 (ja) * 2013-03-29 2016-12-14 株式会社デンソーアイティーラボラトリ クラクション発生装置、クラクション発生方法、プログラム及び乗物用入力装置
DE102013007980B4 (de) 2013-05-10 2017-10-05 Audi Ag Abtasten eines Innenraums eines Kraftfahrzeugs
DE102013009567B4 (de) 2013-06-07 2015-06-18 Audi Ag Verfahren zum Betreiben einer Gestenerkennungseinrichtung sowie Kraftfahrzeug mit räumlich beschränkter Gestenerkennung
DE102013010018B3 (de) * 2013-06-14 2014-12-04 Volkswagen Ag Kraftfahrzeug mit einem Fach zum Aufbewahren eines Gegenstands sowie Verfahren zum Betreiben eines Kraftfahrzeugs
DE102013011533B4 (de) 2013-07-10 2015-07-02 Audi Ag Erfassungsvorrichtung zum Bestimmen einer Position eines Objekts in einem Innenraum eines Kraftfahrzeugs
CN104281254A (zh) * 2013-07-12 2015-01-14 上海硅通半导体技术有限公司 一种手势识别装置
DE102013012466B4 (de) * 2013-07-26 2019-11-07 Audi Ag Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
DE102013108093A1 (de) 2013-07-29 2015-01-29 evolopment UG (haftungsbeschränkt) Vorrichtung zur Bedienung eines beweglichen Schiebeelementes
DE102013013225B4 (de) * 2013-08-08 2019-08-29 Audi Ag Kraftfahrzeug mit umschaltbarer Bedieneinrichtung
DE102013013697B4 (de) 2013-08-16 2021-01-28 Audi Ag Vorrichtung und Verfahren zum Eingeben von Schriftzeichen im freien Raum
DE102013019925B4 (de) 2013-11-22 2021-01-28 Audi Ag Kamerasystem und Verfahren zum Betreiben eines solchen Systems sowie Fahrzeug
DE102013021927A1 (de) 2013-12-20 2015-06-25 Audi Ag Verfahren und System zum Betreiben einer Anzeigeeinrichtung sowie Vorrichtung mit einer Anzeigeeinrichtung
EP2927780A1 (de) * 2014-04-03 2015-10-07 SMR Patents S.à.r.l. Schwenkbarer Innenspiegel für ein Fahrzeug
US11161457B2 (en) 2014-04-03 2021-11-02 SMR Patents S.à.r.l. Pivotable interior rearview device for a motor vehicle
CN106132783A (zh) * 2014-04-08 2016-11-16 Tk控股公司 用于夜视对象检测和驾驶员辅助的系统和方法
KR101519290B1 (ko) * 2014-04-09 2015-05-11 현대자동차주식회사 차량용 헤드 업 디스플레이 제어방법
FR3026502A1 (fr) * 2014-09-30 2016-04-01 Valeo Comfort & Driving Assistance Systeme et procede de commande d'un equipement d'un vehicule automobile
WO2016067082A1 (de) * 2014-10-22 2016-05-06 Visteon Global Technologies, Inc. Verfahren und vorrichtung zur gestensteuerung in einem fahrzeug
FR3028221B1 (fr) * 2014-11-12 2018-03-16 Psa Automobiles Sa. Interface homme/machine et procede de controle de fonctions d’un vehicule par detection de mouvement et/ou d’expression du conducteur
DE102014223629A1 (de) * 2014-11-19 2016-05-19 Bayerische Motoren Werke Aktiengesellschaft Kamera in einem Fahrzeug
DE102014118387A1 (de) * 2014-12-12 2016-06-16 Valeo Schalter Und Sensoren Gmbh Erfassungsvorrichtung zum Erkennen einer Geste und/oder einer Blickrichtung eines Insassen eines Kraftfahrzeugs durch synchrone Ansteuerung von Leuchteinheiten, Bedienanordnung, Kraftfahrzeug sowie Verfahren
DE102015201456B4 (de) * 2015-01-28 2016-12-15 Volkswagen Aktiengesellschaft Verfahren und System zur Ausgabe einer Warnmeldung in einem Fahrzeug
DE102015201901B4 (de) 2015-02-04 2021-07-22 Volkswagen Aktiengesellschaft Bestimmung einer Position eines fahrzeugfremden Objekts in einem Fahrzeug
JP6451390B2 (ja) * 2015-02-17 2019-01-16 トヨタ紡織株式会社 動き検出システム
US9845103B2 (en) 2015-06-29 2017-12-19 Steering Solutions Ip Holding Corporation Steering arrangement
US9834121B2 (en) 2015-10-22 2017-12-05 Steering Solutions Ip Holding Corporation Tray table, steering wheel having tray table, and vehicle having steering wheel
US9821726B2 (en) * 2016-03-03 2017-11-21 Steering Solutions Ip Holding Corporation Steering wheel with keyboard
US10322682B2 (en) 2016-03-03 2019-06-18 Steering Solutions Ip Holding Corporation Steering wheel with keyboard
JP2017210198A (ja) * 2016-05-27 2017-11-30 トヨタ紡織株式会社 車両用動き検出システム
US10144383B2 (en) 2016-09-29 2018-12-04 Steering Solutions Ip Holding Corporation Steering wheel with video screen and airbag
US10239381B2 (en) * 2017-01-23 2019-03-26 TSI Products, Inc. Vehicle roof fan
US10252688B2 (en) 2017-03-22 2019-04-09 Ford Global Technologies, Llc Monitoring a vehicle cabin
TWM556216U (zh) * 2017-07-19 2018-03-01 上海蔚蘭動力科技有限公司 汽車電子裝置控制系統
FR3069657A1 (fr) * 2017-07-31 2019-02-01 Valeo Comfort And Driving Assistance Dispositif optique pour l'observation d'un habitacle de vehicule
FR3075402B1 (fr) * 2017-12-20 2021-01-08 Valeo Comfort & Driving Assistance Dispositif de visualisation d'un habitacle de vehicule, habitacle et procede de visualisation associes
EP3659862B1 (de) 2018-11-27 2021-09-29 SMR Patents S.à.r.l. Schenkbarer innenspiegel für kraftfahrzeug
DE102019129797A1 (de) * 2019-11-05 2021-05-06 Valeo Schalter Und Sensoren Gmbh Dachbedienvorrichtung, Dachbediensystem, Verwendung einer Dachbedienvorrichtung und Fahrzeug mit einer Dachbedienvorrichtung
US11556175B2 (en) 2021-04-19 2023-01-17 Toyota Motor Engineering & Manufacturing North America, Inc. Hands-free vehicle sensing and applications as well as supervised driving system using brainwave activity

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10158415A1 (de) * 2001-11-29 2003-06-18 Daimler Chrysler Ag Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
DE102007028645A1 (de) 2007-06-21 2009-01-02 Siemens Ag Anordnung und Verfahren zur Steuerung von Geräteeinheiten
DE102008005106A1 (de) * 2008-01-14 2009-07-16 Trw Automotive Electronics & Components Gmbh Bedienvorrichtung für ein Kraftfahrzeug
US20100060722A1 (en) * 2008-03-07 2010-03-11 Matthew Bell Display with built in 3d sensing
DE102009032069A1 (de) * 2009-07-07 2011-01-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1031476B1 (de) * 1999-02-25 2003-05-02 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Erzeugen eines Positionsbildes eines Strahlung reflektierenden oder Strahlung streuenden Objekts oder einer Strahlung reflektierenden oder Strahlung streuenden Person
DE59910451D1 (de) * 1999-02-25 2004-10-14 Siemens Ag Vorrichtung und Verfahren zum Erfassen eines Objektes oder einer Person im Innenraum eines Fahrzeugs
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2005280526A (ja) * 2004-03-30 2005-10-13 Tdk Corp 車両用カメラ装置、これを用いた車両警報システム及び車両警報方法
JP2006285370A (ja) * 2005-03-31 2006-10-19 Mitsubishi Fuso Truck & Bus Corp ハンドパターンスイッチ装置及びハンドパターン操作方法
US7415352B2 (en) * 2005-05-20 2008-08-19 Bose Corporation Displaying vehicle information
CN101090482B (zh) * 2006-06-13 2010-09-08 唐琎 一种基于图象处理和信息融合技术的驾驶员疲劳监测系统及方法
US8452464B2 (en) * 2009-08-18 2013-05-28 Crown Equipment Corporation Steer correction for a remotely operated materials handling vehicle
US9645968B2 (en) * 2006-09-14 2017-05-09 Crown Equipment Corporation Multiple zone sensing for materials handling vehicles
DE102006055858A1 (de) * 2006-11-27 2008-05-29 Carl Zeiss Ag Verfahren und Anordnung zur Steuerung eines Fahrzeuges
US8589033B2 (en) * 2007-01-11 2013-11-19 Microsoft Corporation Contactless obstacle detection for power doors and the like
JP4942814B2 (ja) * 2007-06-05 2012-05-30 三菱電機株式会社 車両用操作装置
IL184868A0 (en) * 2007-07-26 2008-03-20 Univ Bar Ilan Motion detection system and method
JP2010122183A (ja) * 2008-11-21 2010-06-03 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
WO2010113397A1 (ja) * 2009-03-31 2010-10-07 三菱電機株式会社 表示入力装置
JP5316995B2 (ja) * 2009-10-26 2013-10-16 株式会社ユピテル 車両用録画装置
JP2011117849A (ja) * 2009-12-03 2011-06-16 Sanyo Electric Co Ltd 物体検出装置および情報取得装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10158415A1 (de) * 2001-11-29 2003-06-18 Daimler Chrysler Ag Verfahren zur Überwachung des Innenraums eines Fahrzeugs, sowie ein Fahrzeug mit mindestens einer Kamera im Fahrzeuginnenraum
DE102007028645A1 (de) 2007-06-21 2009-01-02 Siemens Ag Anordnung und Verfahren zur Steuerung von Geräteeinheiten
DE102008005106A1 (de) * 2008-01-14 2009-07-16 Trw Automotive Electronics & Components Gmbh Bedienvorrichtung für ein Kraftfahrzeug
US20100060722A1 (en) * 2008-03-07 2010-03-11 Matthew Bell Display with built in 3d sensing
DE102009032069A1 (de) * 2009-07-07 2011-01-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015022240A1 (de) * 2013-08-14 2015-02-19 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur erfassung von bediengesten an fahrzeugen
CN105473393A (zh) * 2013-08-14 2016-04-06 胡夫·许尔斯贝克和福斯特有限及两合公司 用于检测车辆上操控姿态的传感器机构
JP2016534343A (ja) * 2013-08-14 2016-11-04 フーフ・ヒュルスベック・ウント・フュルスト・ゲーエムベーハー・ウント・コンパニー・カーゲーHuf Hulsbeck & Furst Gmbh & Co. Kg 自動車の操作ジェスチャを認識するためのセンサ構成
US9927293B2 (en) 2013-08-14 2018-03-27 Huf Huelsbeck & Fuerst Gmbh & Co. Kg Sensor array for detecting control gestures on vehicles
CN105473393B (zh) * 2013-08-14 2018-01-02 胡夫·许尔斯贝克和福斯特有限及两合公司 用于检测车辆上操控姿态的传感器机构
CN103488355A (zh) * 2013-10-16 2014-01-01 广东威创视讯科技股份有限公司 一种视频窗打开方法及系统、激光笔
CN103488355B (zh) * 2013-10-16 2016-08-17 广东威创视讯科技股份有限公司 一种视频窗打开方法及系统、激光笔
DE102015113841A1 (de) 2015-08-20 2017-02-23 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
WO2017028984A1 (de) 2015-08-20 2017-02-23 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
DE102015114016A1 (de) 2015-08-24 2017-03-02 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
WO2017032473A1 (de) 2015-08-24 2017-03-02 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen erfassung von betätigungsgesten
WO2017041916A1 (de) 2015-09-08 2017-03-16 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen erfassung von betätigungsgesten
DE102015115096A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur optischen Erfassung von Bediengesten an Fahrzeugen
WO2017041917A1 (de) 2015-09-08 2017-03-16 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoranordnung zur optischen erfassung von bediengesten an fahrzeugen
WO2017041915A1 (de) 2015-09-08 2017-03-16 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
DE102015115098A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
DE102015115101A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
DE102015115558A1 (de) 2015-09-15 2017-03-16 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Betätigungsgesten
WO2017045787A1 (de) 2015-09-15 2017-03-23 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen erfassung von betätigungsgesten
WO2017067697A1 (de) 2015-10-21 2017-04-27 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung
DE102015117967A1 (de) 2015-10-21 2017-04-27 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensoreinrichtung zur optischen Erfassung von Bedienungsgesten an Fahrzeugen und Verfahren zum Betreiben der Sensoreinrichtung
US10821831B2 (en) 2016-09-01 2020-11-03 Volkswagen Aktiengesellschaft Method for interacting with image contents displayed on a display device in a transportation vehicle
WO2019215286A1 (de) 2018-05-09 2019-11-14 Motherson Innovations Company Ltd. Vorrichtung und verfahren zum betreiben einer objekterkennung für den innenraum eines kraftfahrzeugs sowie ein kraftfahrzeug
DE102018111239A1 (de) * 2018-05-09 2019-11-14 Motherson Innovations Company Limited Vorrichtung und Verfahren zum Betreiben einer Objekterkennung für den Innenraum eines Kraftfahrzeugs sowie ein Kraftfahrzeug
DE102018132683A1 (de) 2018-12-18 2020-06-18 Huf Hülsbeck & Fürst Gmbh & Co. Kg Pixelstruktur zur optischen abstandsmessung an einem objekt und zugehöriges abstandserfassungssystem
WO2020127304A1 (de) 2018-12-18 2020-06-25 Huf Hülsbeck & Fürst Gmbh & Co. Kg Pixelstruktur zur optischen abstandsmessung an einem objekt und zugehöriges abstandserfassungssystem

Also Published As

Publication number Publication date
KR20140041815A (ko) 2014-04-04
EP2726960A1 (de) 2014-05-07
DE102011089195A1 (de) 2013-01-03
CN103748533A (zh) 2014-04-23
US20140195096A1 (en) 2014-07-10
JP2014518422A (ja) 2014-07-28

Similar Documents

Publication Publication Date Title
EP2726960A1 (de) Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen
EP3040245B1 (de) Vorrichtung und verfahren zur unterstützung eines anwenders vor einer bedienung eines schalters zur elektromotorischen verstellung eines teils eines fortbewegungsmittels
DE102016211494B4 (de) Steuerungseinrichtung für ein Kraftfahrzeug
DE102016216415B4 (de) Verfahren zum Steuern einer Anzeigevorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Anzeigevorrichtung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2493718B1 (de) Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung
DE102013012466B4 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP2462497B1 (de) Verfahren zum betreiben einer bedienvorrichtung und bedienvorrichtung in einem fahrzeug
DE102014116292A1 (de) System zur Informationsübertragung in einem Kraftfahrzeug
WO2015062751A1 (de) Verfahren zum betreiben einer vorrichtung zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen in einem fahrzeuginnenraum
DE102016216577A1 (de) Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
EP3254172B1 (de) Bestimmung einer position eines fahrzeugfremden objekts in einem fahrzeug
DE102009057081A1 (de) Verfahren zum Bereitstellen einer Benutzerschnittstelle
DE102013000069B4 (de) Kraftfahrzeug-Bedienschnittstelle mit einem Bedienelement zum Erfassen einer Bedienhandlung
DE102016108878A1 (de) Anzeigeeinheit und Verfahren zur Darstellung von Informationen
DE102016211495A1 (de) Steuerungseinrichtung für ein Kraftfahrzeug
DE102009056014A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Bedienschnittstelle für ein in einem Fahrzeug lösbar befestigtes Gerät
DE102013013166A1 (de) Kraftwagen mit Head-up-Anzeige und zugehöriger Gestenbedienung
DE102020207040B3 (de) Verfahren und Vorrichtung zur manuellen Benutzung eines Bedienelementes und entsprechendes Kraftfahrzeug
DE102012025320B4 (de) Verfahren zum Steuern einer elektrischen Einrichtung durch Erfassen und Auswerten einer berührungslosen manuellen Bedieneingabe einer Hand einer Bedienperson sowie dafür geeignete Steuervorrichtung und Fahrzeug
WO2017108560A1 (de) Anzeigevorrichtung und bedieneinrichtung
DE102013000085A1 (de) Verfahren zum Wechseln eines Betriebsmodus eines Infotainmentsystems eines Kraftfahrzeugs
WO2021013809A1 (de) Optische anordnung und verfahren
DE102019127674A1 (de) Berührungslos bedienbare Bedienvorrichtung für ein Kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12733458

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014517750

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2012733458

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2012733458

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20147002503

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14129866

Country of ref document: US