WO2015022240A1 - Sensoranordnung zur erfassung von bediengesten an fahrzeugen - Google Patents

Sensoranordnung zur erfassung von bediengesten an fahrzeugen Download PDF

Info

Publication number
WO2015022240A1
WO2015022240A1 PCT/EP2014/066843 EP2014066843W WO2015022240A1 WO 2015022240 A1 WO2015022240 A1 WO 2015022240A1 EP 2014066843 W EP2014066843 W EP 2014066843W WO 2015022240 A1 WO2015022240 A1 WO 2015022240A1
Authority
WO
WIPO (PCT)
Prior art keywords
light source
detection
sensor device
detection device
vehicle
Prior art date
Application number
PCT/EP2014/066843
Other languages
English (en)
French (fr)
Inventor
Nadine Sticherling
Original Assignee
Huf Hülsbeck & Fürst Gmbh & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huf Hülsbeck & Fürst Gmbh & Co. Kg filed Critical Huf Hülsbeck & Fürst Gmbh & Co. Kg
Priority to JP2016533887A priority Critical patent/JP6449284B2/ja
Priority to US14/911,416 priority patent/US9927293B2/en
Priority to EP14748204.6A priority patent/EP3033251B1/de
Priority to CN201480043850.8A priority patent/CN105473393B/zh
Publication of WO2015022240A1 publication Critical patent/WO2015022240A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/2045Means to switch the anti-theft system on or off by hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/2054Means to switch the anti-theft system on or off by foot gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/30Detection related to theft or to other events relevant to anti-theft systems
    • B60R25/31Detection related to theft or to other events relevant to anti-theft systems of human presence inside or outside the vehicle
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • E05F15/74Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects using photoelectric cells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/0204Compact construction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0411Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using focussing or collimating elements, i.e. lenses or mirrors; Aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0437Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using masks, aperture plates, spatial light modulators, spatial filters, e.g. reflective filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/4228Photometry, e.g. photographic exposure meter using electric radiation detectors arrangements with two or more detectors, e.g. for sensitivity compensation
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F15/00Power-operated mechanisms for wings
    • E05F15/70Power-operated mechanisms for wings with automatic actuation
    • E05F15/73Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects
    • E05F2015/765Power-operated mechanisms for wings with automatic actuation responsive to movement or presence of persons or objects using optical sensors
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME ASSOCIATED WITH SUBCLASSES E05D AND E05F, RELATING TO CONSTRUCTION ELEMENTS, ELECTRIC CONTROL, POWER SUPPLY, POWER SIGNAL OR TRANSMISSION, USER INTERFACES, MOUNTING OR COUPLING, DETAILS, ACCESSORIES, AUXILIARY OPERATIONS NOT OTHERWISE PROVIDED FOR, APPLICATION THEREOF
    • E05Y2400/00Electronic control; Electrical power; Power supply; Power or signal transmission; User interfaces
    • E05Y2400/80User interfaces
    • E05Y2400/85User input means
    • E05Y2400/852Sensors

Definitions

  • the invention relates to sensor arrangements, which for the optically supported detection of operating gestures or
  • the invention relates to sensor arrangements, which can detect and evaluate temporally and spatially resolved optical information to the Everywillen a
  • optically-based systems To call video evaluations of surveillance systems that read patterns or movements from individual images or a sequence of images.
  • many other optically-based systems are known, the most basic of which include photocells or brightness sensors. optical
  • DE 10 2008 025 669 A1 discloses an optical sensor which detects a gesture, whereupon a closing element of a vehicle is automatically moved.
  • WO 2008/116699 A2 relates to an optical sensor chip and relates to an optical anti-pinch device for monitoring a windowpane, sliding door or tailgate in a motor vehicle.
  • WO 2012/084222 A1 discloses an optical sensor for actuating and monitoring a closing element.
  • the known systems require in view of the optical components and more complex electronics regularly more space than the capacitive systems.
  • the object of the invention is to provide an improved, compact optical sensor system for operator control
  • the sensor device according to the invention is for a
  • the sensor device can monitor and evaluate user's approaches and movements, especially in the outer area of the vehicle.
  • the sensor device is in particular for the switching of access elements, ie
  • Door locks or rear locks provided and corresponding in the side region of the vehicle, for example in the A- or B-pillar or in the rear of the vehicle, there, for example. to be arranged in the bumper or in the area of the license plate light.
  • the invention relates to a sensor arrangement which realizes the time-of-flight (ToF) method, so that this will be briefly explained here.
  • ToF time-of-flight
  • the ToF method is a space area with a
  • Illuminated light source and recorded the duration of the reflected back from an object in the space area light with a line or area sensor.
  • the light source and the sensor should be arranged as close as possible to one another, so that an angle between the illumination beam and the detection path can be approximately neglected.
  • Light pulses eg laser pulses of short duration (eg 30 ns to 300 ns)
  • the sensor is also pulsed to operate, for example by an electronic shutter. From the linear relationship of
  • the light transit time and the speed of light can be used to determine the distance between the sensor and the object to be measured.
  • Photodetector array can be varied.
  • the light source is pulsed in this concept.
  • the detection unit that is to say the sensitive pixel array, is switched pulsed sensitive, ie the integration window of the individual pixels is synchronized in time with the light source and limited in the integration period.
  • the photodetector array the photodetector array
  • Camera shutter is mounted in front of the image sensor or behind the photodetector, for example in the form of a switch, which interrupts the collection process of photogenerated charge carriers.
  • the basic idea of the measuring method is that only reflected light is registered within the short shutter opening time.
  • this collection method is not a pure image-based collection method. It is determined at each pixel distance information, which by the temporal
  • the sensor device according to the invention has as
  • Components include a light source and a
  • the detector has an array of optical pixels, that is, photosensitive
  • the device may be a CCD element or the like.
  • the array forms, together with the light source, the spatial data monitoring device of the type mentioned above of a "time-of-flight” system or else a "3D imager” or “range imager.”
  • a pixel array with a temporal control is generated which allows distance sensing and can detect object motion by analyzing the distance information in a timed sequence
  • the light source is located near the array of sensitive pixels, for example at a small distance adjacent to the array.
  • a control circuit controls both the operation of the light source and the operation of the pixel array.
  • the light source is driven in accordance with the emission of light pulses and emits light preferably in the long-wavelength, non-visible spectrum, in particular the infrared spectrum.
  • a laser diode or an extremely bright LED is provided.
  • the light source is equipped with optics which distribute the emitted light into the detection space according to the application.
  • an optical package e.g. Lens package be set in front of the light source, which is a widening of the
  • the sensor device For mounting on vehicles, the sensor device is integrated together with the light source and the detection device into a unit which can be easily mounted on the vehicle.
  • the light source and detection device are arranged in a receptacle which is provided and designed for fastening the sensor device to a vehicle.
  • the receptacle may be an enclosing housing or a shell, wherein for detection device and light source in each case at least
  • View window are formed to the detection area optically transparent in the relevant wavelength range.
  • the receptacle protects and holds the light source and the detection device and aligns them in the manner according to the invention.
  • the receptacle is designed for attachment to a vehicle, that the receptacle when mounted along a
  • Plant surface of the vehicle is to be arranged.
  • the abutment surface is defined, for example, by the bottom contour of a receiving space, e.g. a recess formed on the vehicle.
  • the light source according to the invention is tilted within the receptacle, so that between a normal to the contact surface and the
  • optical axis of the light source is an angle of at least 5 ° is formed.
  • the light source is thus tilted within the receptacle or arranged obliquely, so that the optical axis of Light source and the associated optics is inclined against the recording and the vehicle contour in the field of assembly.
  • the term of tilt or inclination refers to the
  • Detecting device tilted to record in the housing namely with the same direction tilting as the light source and the same or similar inclination.
  • an exclusive tilting of the illumination optics can take place or a tilting of both the illumination optics and the illumination
  • tilting is understood to mean that a tilting with respect to the mounting surface, e.g. Fixing level is provided on the vehicle, so the
  • At least 5 ° to the mounting surface on the vehicle At least 5 ° to the mounting surface on the vehicle.
  • Vehicle angle ranges between 5 ° and 45 ° come in amount, regularly slopes between 15 ° and 30 °.
  • the sensor arrangement is on a partially flexible printed circuit board, in particular one
  • Semiflex printed circuit board arranged.
  • Semiflex printed circuit boards are printed circuit boards, the sections and
  • the sensor device is integrally on a
  • the tilting of the optics is formed by being arranged on a part of the circuit board which is opposite to another part of the circuit board
  • control and evaluation circuit can be arranged on a first portion of the board, wherein offset along the board to this area a bending region of the printed circuit board extends and adjoins an area on which the light source is arranged with an optical package. The bending area between these board areas is deformed so that the
  • Light source is inclined relative to the first circuit board portion. This can be followed by a second
  • Circuit board portion which in turn is bent in the opposite direction and therefore in the direction of the first, not inclined
  • Detection axis of the detection device take place.
  • Illuminating element associated with optical elements in the form of diffractive optical elements is to selectively limited space a undergo optical control.
  • Diffractive optical elements Diffractive optical
  • Elements are elements for shaping a light beam
  • the radiation energy should be distributed as targeted as possible to the relevant irradiation areas.
  • the radiation source with a diffractive optical element having a beam splitting
  • the beam splitting takes place in such a way that light cones divided by the same light source and the same sensor device are emitted into different spatial areas. For example, when mounting the sensor device in the B-pillar of a vehicle, a lighting cone along the outer skin of the
  • Vehicle are divided in the direction of the door handle of the driver's door and directed, while another beam of light with a slight downward slope away from the vehicle to detect an approach of a user.
  • Lighting intensity can be an increased on the one hand
  • Energy density can be achieved in the illuminated areas, compared to a broad radiation in a larger area and on the other hand achieved a selection of the sensitive areas.
  • the unlit areas are namely not detected by the receiving optics or the detection device and hidden accordingly. It is essential that a beam splitting is achieved by the elements, so that a uniform light source intermittently illuminates angular ranges along a solid angle.
  • the diffractive optical elements can in addition to the
  • Beam splitting can also be used to widen the beam.
  • at least one of the lenses of the optical package of the illumination device is designed as a liquid lens. Such liquid lenses are
  • Liquid lenses are e.g. adjustable by means of electrical voltage, so that the
  • Irradiation angle of the illumination device as a function of the usage situation or the environmental conditions
  • control and evaluation circuit can apply a voltage to the liquid lens to change its focal length and different detection scenarios
  • Liquid lenses can in this case both in the illumination optics and in the
  • Figure 1 shows schematically the use situation of a patented detection device on a vehicle
  • Figure 2 shows the acting components of a
  • Figure 3 shows the schematic structure with tilted
  • Lighting device according to another embodiment of the invention in a schematic sectional view
  • FIGS. 4a, 4b show the beam splitting of the
  • a vehicle 1 is equipped with a sensor device 2 according to the invention.
  • the sensor device 2 As shown in FIG. 1, a vehicle 1 is equipped with a sensor device 2 according to the invention.
  • Sensor device 2 detects processes and movements in a detection area 3, here indicated by broken lines.
  • a user 4 who approaches the vehicle has the
  • the detection device 2 is accommodated laterally on the vehicle in the B-pillar.
  • FIG. 1 further shows that the detection region 3 is aligned with its optical axis inclined to the mounting plane on the vehicle.
  • the detection area is slightly inclined downwards from the horizontal. This is achieved by tilting the optics, as shown below.
  • Figure 2 shows the components of the detection device in a schematic representation. In this presentation that is
  • the device is arranged in a receptacle 2 and has a light source 10, which is formed in this example of a laser diode 11 and a dilating optics 12.
  • the optic 12 expands the beam cross-section, so that a broad detection area 3 is formed, in which a user 4 can enter and in which he can execute motion gestures. It may be e.g. to be a simple KunststoffStoffoptik or a glass optics, e.g. a condensing lens, asphere or even Fresnel lens. Alternatively, diffractive optical
  • a detection array 20 is disposed adjacent to the light source, aligned with the sensitive area toward the detection area 3.
  • the array 20 includes columns and rows of sensitive pixels, and is formed in this example as a CCD array.
  • the detection device 20 is preceded by an optical system 21, which images the detection area 3 on the CCD array.
  • This optics can also have a controllable closure or suitable filters, in particular
  • Infrared (IR) filters or polarizing filters which suppress the background light from the laser light.
  • this optics may have liquid lenses, the one
  • Both the light source 10 and the array 20 are coupled to a controller 30 having a clocked and timed operation of the light source 10 and
  • Detection device 20 enable. If the light source 10 is driven to emit a light pulse and the pixel array arrangement is triggered for detection, then integrate the
  • Each charge of each pixel present after integration is evaluated in the control device, so that for each pixel one for the integration period
  • the light information will not emanate solely from a user, from which the emitted light of the light source 10 is reflected back, but instead becomes a
  • Ambient light can be largely eliminated.
  • the control and evaluation device 30 detects the
  • the control device 30 and via it the entire detection device 2 is provided with a central
  • Control device 50 of the motor vehicle coupled.
  • Recognition of motion gestures can be based on a
  • the device 30 may also include pattern recognition, e.g. in the form of a neural network to detect operator gestures using characteristic spatial data.
  • the central control device 50 finally initiates function triggering of the motor vehicle as a function of the acquired data, for example the lowering of a side window or the opening of a door or tailgate.
  • FIG. 3 shows a first exemplary embodiment of the sensor structure in a lateral sectional view of the integrated sensor device.
  • a housing 100 forms a receptacle for the sensor components.
  • a support structure 110 which forms the base for the specialtylegende circuit arrangement.
  • the circuit arrangement is arranged on a partially flexible circuit board 120. This has thin, flexible areas and thicker, rigid areas.
  • the control and evaluation device 130 is applied in a first section of the board 120. This may include a microcontroller, memory modules and other electronic switching elements.
  • a tapered, flexible area of the boards 120 adjoins the area which carries the control and evaluation device 130, followed by a board section 140 which carries the illumination device 150.
  • the optical detector 160 in this example has a CMOS array and associated optics.
  • the support structure 110 is adapted to the board and its flexible areas so that the board sections are supported with different inclination. It can be seen that the middle rigid
  • Board portion is applied to a ramp of the support structure 110 such that the illumination device 150 is inclined to the other components, in particular the other portions of the board.
  • Vehicle can be mounted, however one
  • Radiation can make in a tilted to the mounting surface area. Since the board is initially equipped in a planar position, ie with planar alignment of the board sections and is introduced later in the receptacle and the support structure, the assembly of the optics 150 on the board 140 in a simple manner can be realized, they are the usual assembly of optics on a flat board corresponds. Only through the recording and the
  • Carrier structure in the recording receives the board with their tapered areas the inclination of the optical light source.
  • the detection device 160 could also be inclined according to the invention by a corresponding configuration of the support structure 110. Besides that is
  • a sensor arrangement is provided with an advantageous alignment of the optical components. It is possible for different vehicle models, the different
  • Detecting device can be used for different vehicle models.
  • Figures 4a and 4b show another concept according to another embodiment of the invention.
  • the sensor device 190 is accommodated in the B pillar of the vehicle and a beam splitter device is used as part of the optical package of the illumination device. These are small, diffractive optical elements
  • FIG. 4 a shows that part of the radiation energy in a radiation cone 200 is divided down and widened towards the front of the vehicle so that the door handle 210 of the driver's door lies in the illumination area. Another portion 220 of radiant energy is directed into a downwardly sloping cone laterally away from the vehicle to illuminate users approaching the vehicle therefrom. In this way, irrelevant or disturbing detection signals can be prevented, since only parts that are relevant for the detection
  • Beam cone which is directed to the door handle and thus ensures a significant signal increase in the reflected light on the detection device.
  • the beam splitting can be in several beam components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)
  • Photo Coupler, Interrupter, Optical-To-Optical Conversion Devices (AREA)

Abstract

Eine Sensoreinrichtung für ein Kraftfahrzeug, die eine Lichtquelle und eine optische Erfassungseinrichtung aufweist, wobei die Erfassungseinrichtung mit einem Array von optischen Pixeln ausgebildet ist. Die Lichtquelle ist zur Abgabe von Lichtpulsen ansteuerbar und die Erfassungseinrichtung zur Erfassung des von der Umgebung zurückgestrahlten Lichtes. Eine Steuer- und Auswerteeinrichtung, die Erfassungseinrichtung und die Lichtquelle sind zusammen als Time-of-Flight-Aufbau (ToF-Aufbau) zur Erfassung in einer ersten Raumrichtung ausgebildet sind, so dass räumlich zuordenbare Entfernungsdaten erfasst werden. Die Lichtquelle und die Erfassungseinrichtung sind in einer Aufnahme angeordnet, welche zur Montage der Sensoreinrichtung an einem Fahrzeug ausgebildet ist, wobei die Aufnahme entlang einer Anlagefläche des Fahrzeuges anzuordnen ist und die Lichtquelle innerhalb der Aufnahme gekippt angeordnet ist, so dass zwischen einer Normalen zu der Anlagefläche und der optischen Achse der Lichtquelle ein Winkel von mindestens 5° gebildet ist.

Description

Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
Die Erfindung betrifft Sensoranordnungen, welche zur optisch gestützten Erkennung von Bedienungsgesten oder
Bedienungshandlungen an Kraftfahrzeugen eingesetzt werden.
Insbesondere betrifft die Erfindung Sensoranordnungen, welche zeitlich und räumlich aufgelöste optische Informationen erfassen und auswerten können, um den Bedienwillen eines
Benutzers zu erkennen.
Im Stand der Technik sind optische Verfahren bekannt, die Betätigungen in Reaktion auf eine Auswertung von
Bildinformationen erkennen und daraufhin z.B. Schaltvorgänge auslösen. Beispielsweise sind hier automatische
Videoauswertungen von Überwachungssystemen zu nennen, welche Muster oder Bewegungen aus einzelnen Bildern oder einer Folge von Bilder herauslesen. Außerdem sind zahlreiche andere optisch gestützte Systeme bekannt, wobei zu den grundlegendsten davon Lichtschranken oder Helligkeitssensoren gehören. Optische
Systeme mit höherer Komplexität bedienen sich jedoch oft eines Rasters oder Arrays von optisch sensitiven Erfassungseinheiten, meist als Pixel bezeichnet, die parallel optische Informationen aufnehmen, beispielsweise in Gestalt eines CMOS-Arrays.
Die DE 10 2008 025 669 AI offenbart einen optischen Sensor, welcher eine Geste detektiert, woraufhin ein Schließelement eines Fahrzeugs automatisch bewegt wird.
Die WO 2008/116699 A2 betrifft einen optischen Sensorchip und bezieht sich auf eine optische Einklemmschutzvorrichtung für die Überwachung einer Fensterscheibe, Schiebetür oder einer Heckklappe in einem Kraftfahrzeug.
Die WO 2012/084222 AI offenbart einen optischen Sensor zur Betätigung und Überwachung eines Schließelements.
Da die Gestensteuerung in vielen technischen Bereichen der Benutzerinteraktion immer größere Akzeptanz erfährt, wurden auch Versuche unternommen, solche rein optischen Systeme zur Erkennung des Bedienwunsches bei Kraftfahrzeugen zu verwenden. Bei diesen Systemen herrscht jedoch weiterhin die Erfassung von Bedienungen über kapazitive Systeme vor.
Die DE 10 2011 089 195 AI offenbart ein System zur
berührungslosen Erfassung von Gegenständen und Bediengesten mit einer optisch gestützten Einrichtung ähnlicher Art, wie sie auch für die Erfindung einsetzbar ist.
Die bekannten Systeme erfordern angesichts der optischen Komponenten und komplexeren Elektronik regelmäßig mehr Bauraum als die kapazitiven Systeme.
Aufgabe der Erfindung ist es, ein verbessertes, kompaktes optisches Sensorsystem für die Bedienkontrolle bei
Zugangssystemen für Fahrzeuge bereitzustellen.
Diese Aufgabe wird durch eine Einrichtung mit den Merkmalen des Anspruchs 1 gelöst.
Die erfindungsgemäße Sensoreinrichtung ist für ein
Kraftfahrzeug bestimmt, wobei die Sensoreinrichtung Annäherungen und Bewegungen eines Nutzers insbesondere im Außenbereich des Fahrzeugs überwachen und auswerten kann. Die Sensoreinrichtung ist insbesondere für die Schaltung von Zugangselementen, also
Türschlössern oder Heckschlössern vorgesehen und entsprechend im Seitenbereich des Fahrzeugs, beispielsweise in der A- oder B- Säule oder im Heckbereich des Fahrzeugs, dort z.B. im Stoßfänger oder im Bereich der Kennzeichenbeleuchtung anzuordnen.
Die Erfindung betrifft dabei eine Sensoranordnung, welche das Time-of-Flight- ( ToF ) Verfahren realisiert, so dass dieses hier kurz erläutert wird.
Beim ToF-Verfahren wird ein Raumbereich mit einer
Lichtquelle beleuchtet und die Laufzeit des von einem Objekt im Raumbereich zurück reflektierten Lichtes mit einem Zeilen- oder Flächensensor aufgenommen. Dazu sollten Lichtquelle und Sensor möglichst nah zueinander angeordnet sein, so dass ein Winkel zwischen Beleuchtungsstrahl und Detektionsweg näherungsweise vernachlässigt werden kann. Von der Lichtquelle gehen Lichtpuls, z.B. Laserpulso geringer Dauer (z.B. 30ns bis 300ns) aus, treffen auf Objekte in der Umgebung, werden reflektiert und gelangen durch eine Optik auf den Sensor. Der Sensor ist ebenfalls gepulst zu betreiben, z.B. durch einen elektronischen Verschluss (Shutter) . Aus dem linearen Zusammenhang von
Lichtlaufzeit und Lichtgeschwindigkeit lässt sich die Distanz zwischen Sensor und Messobjekt bestimmen.
Zur Messung der zeitlichen Verzögerung muss eine
Synchronisation zwischen Lichtquelle und Sensor gegeben sein. Je nach zu detektierendem Entfernungsbereich kann die realive zeitliche Lage der aktiven Pulsphasen von Lichtquelle und
Photodetektorarray variiert werden.
Einerseits wird bei diesem Konzept also die Lichtquelle gepulst betrieben. Außerdem wird auch die Detektionseinheit , also das sensitive Pixelarray, gepulst sensitiv geschaltet, also das Integrationsfenster der einzelnen Pixel wird zeitlich mit der Lichtquelle synchronisiert und in der Integrationsdauer begrenzt. In dem Photodetektorarray werden durch die
eintreffenden Photonen freie Ladungsträger generiert, gesammelt und auf diese Weise das Spannungssignal entsprechend
proportional zum Integral über die eintreffende
Bestrahlungsstärke während der Verschlussöffnungszeit erzeugt.
Es ist möglich, mehrere Messungen bei verschiedenen
Verschlusszeiten zu machen, insbesondere um verschiedenen
Reflexionseigenschaften von erfassten Objekten Rechnung zu tragen. Außerdem kann zur Hintergrundlichtunterdrückung eine Differenzbildung zwischen Messungen mit Lichtpuls und ohne
Lichtpuls erfolgen.
Für das Messprinzip ist es unerheblich, ob der
Kameraverschluss vor dem Bildsensor angebracht ist oder hinter dem Photodetektor zum Beispiel in Form eines Schalters, der den Sammelprozess der photogenerierten Ladungsträger unterbricht. Die Grundidee des Messverfahrens ist, dass nur reflektiertes Licht innerhalb der kurzen Verschlussöffnungszeit registriert wird .
Zu den weiteren technischen Konzepten der optischen
Erfassung und räumlichen Zuordnung der Informationen wird auf diesbezügliche Ausarbeitungen verwiesen, welche diese
detailliert beschreiben, insbesondere die Dissertation
„Photodetektoren und Auslesekonzepte für 3D-Time-of-Flight- Bildsensoren in 0,35 μιη-Standard-CMOS-Technologie" , Andreas Spickermann, Fakultät für Ingenieurwissenschaften der,
Universität Duisburg-Essen, 2010.
Außerdem wird auf die Publikation „Optimized Distance
Measurement with 3D-CMOS Image Sensor and Real-Time Processing of the 3D Data for Applications in Automotive and Safety
Engineering", Bernhard König, Fakultät für
Ingenieurwissenschaften der Universität Duisburg-Essen, 2008 verwiesen .
Wesentlich ist, dass diese Erfassungsmethode keine reine bildbasierte Erfassungsmethode ist. Es wir bei jedem Pixel eine Abstandsinformation ermittelt, welche durch die zeitliche
Lichtdetektion erfolgt. Bei Verwendung eines Pixelarrays liegt schließlich eine Matrix von Abstandswerten vor, welche bei zyklischer Erfassung eine Interpretation und Verfolgung von Ob ektbewegungen zulässt.
Die erfindungsgemäße Sensoreinrichtung weist als
Bestandteile unter anderem eine Lichtquelle und eine
Erfassungseinrichtung (Detektion) auf. Die Erfassungseinrichtung hat einen Array von optischen Pixeln, also fotosensitiven
Elementen. Insbesondere kann es sich bei der Einrichtung um ein CCD-Element oder ähnliches handeln. Das Array bildet zusammen mit der Lichtquelle die Raumdaten-Überwachungseinrichtung der oben genannten Art eines „Time-of-Flight"-Systems oder auch eines ,,3D-Imager" oder „Range Imager" bezeichnet. Es wird dabei ein Pixelarray mit einer zeitlichen Ansteuerung verwendet, welches Abstandserfassungen erlaubt und eine Objektbewegung erfassen kann, indem die Abstandsinformation in einer zeitlichen Folge analysiert werden. In Autos werden bereits ähnliche SD- Sensoren in Spurhaltesystemen, zum Fußgängerschutz oder als Einparkhilfe eingesetzt.
Die Lichtquelle ist nahe dem Array von sensitiven Pixeln angeordnet, beispielsweise in geringem Abstand in Nachbarschaft zu dem Array. Eine Steuerschaltung steuert sowohl den Betrieb der Lichtquelle als auch den Betrieb des Pixelarrays.
Zur Ansteuerung und Synchronisierung der Lichtquelle und der Erfassungseinrichtung sind beide Elemente mit der erwähnten Steuer- und Auswerteeinrichtung gekoppelt. Diese übernimmt die zeitliche abgestimmte Bestrahlung des überwachten Raums und die zugehörige Schaltung der Erfassungseinrichtung in einen
Erfassungs-Modus. Die Lichtquelle wird entsprechend zur Abgabe von Lichtpulsen angesteuert und sendet dazu Licht vorzugsweise im langwelligen, nicht-sichtbaren Spektrum aus, insbesondere dem Infrarotspektrum. Dazu ist eine Laserdiode oder eine äußerst lichtstarke LED vorgesehen.
Die Lichtquelle ist mit einer Optik ausgestattet, welche das ausgesandte Licht gemäß der Anwendung in den Detektionsraum verteilt. Dazu kann ein Optikpaket, z.B. Linsenpaket vor die Lichtquelle gesetzt sein, welches eine Aufweitung des
ausgesendeten Lichtstrahls oder eine Umlenkung oder Fokussierung vornimmt .
Zur Montage an Fahrzeugen ist die Sensoreinrichtung mitsamt der Lichtquelle und der Erfassungseinrichtung zu einer Einheit integriert, welche in einfacher Weise am Fahrzeug montierbar ist. Dazu sind Lichtquelle und Erfassungseinrichtung in einer Aufnahme angeordnet, die zur Befestigung der Sensoreinrichtung an einem Fahrzeug vorgesehen und ausgebildet ist. Die Aufnahme kann ein umschließendes Gehäuse oder eine Schale sein, wobei für Erfassungseinrichtung und Lichtquelle jeweils zumindest
Sichtfenster zum Erfassungsbereich hin optisch transparent im maßgeblichen Wellenlängenbereich ausgebildet sind. Die Aufnahme schützt und hält die Lichtquelle und die Erfassungseinrichtung und richtet sie in der erfindungsgemäßen Weise aus.
Die Aufnahme ist so zur Befestigung an einem Fahrzeug ausgebildet, dass die Aufnahme bei Montage entlang einer
Anlagefläche des Fahrzeuges anzuordnen ist. Die Anlagefläche wird beispielsweise durch die Bodenkontur eines Aufnahmeraumes , z.B. einer Aussparung am Fahrzeug gebildet. Die Lichtquelle ist erfindungsgemäß innerhalb der Aufnahme gekippt angeordnet, so dass zwischen einer Normalen zu der Anlagefläche und der
optischen Achse der Lichtquelle ein Winkel von mindestens 5° gebildet ist.
Die Lichtquelle ist also innerhalb der Aufnahme verkippt oder schräg angeordnet, so dass die optische Achse der Lichtquelle und der zugehörigen Optik geneigt ist gegen die Aufnahme und die Fahrzeugkontur im Bereich der Montage. Der Begriff der Kippung oder Neigung bezeichnet dabei die
abweichende Ausrichtung der Lichtquelle mit ihrer optischen Achse von primären Montageebene innerhalb der Aufnahme. Dazu wird innerhalb der Aufnahme für elektronische Komponenten, z.B. Platinen, eine erste, primäre Montageebene bereitgestellt, gegen welche die Lichtquelle mit der erwähnten Neigung montiert wird. Wird ein derartiger Sensor beispielsweise in der B-Säule des Fahrzeugs angeordnet, so weist diese B-Säule eines Fahrzeuges oft eine Neigung gegen die Senkrechte auf, da sich der
Fahrzeugquerschnitt nach oben verjüngt. Um eine optimierte
Erfassung des Umfelds vom Fahrzeug zu ermöglichen, ohne den Bauraum zu vergrößern, erfolgt eine Verkippung oder
Schrägstellung der Beleuchtungseinrichtung selbst, innerhalb der Aufnahme und auch gegenüber der Außenhaut des Fahrzeugs. Dadurch wird die Schräglage der Anordnung am Fahrzeug kompensiert oder überkompensiert, um die Einrichtung in schmaler Bauweise am Fahrzeug anzuordnen. Wesentlich ist, dass die optische Achse der Anordnung aus Lichtquelle und Linsenpaket schräg zu der Aufnahme orientiert sein kann.
Während die Lichtquelle erfindungsgemäß mit ihrer optischen Achse gekippt in der Aufnahme angeordnet ist, braucht dies für die optische Achse der Erfassungseinrichtung nicht zu gelten. Allerdings ist es im Rahmen der Erfindung durchaus in
vorteilhafter Weise möglich, auch die optische Achse der
Erfassungseinrichtung verkippt im Gehäuse aufzunehmen, nämlich mit gleichsinniger Verkippung wie bei der Lichtquelle und gleicher oder ähnlicher Neigung. Erfindungsgemäß kann also eine ausschließliche Kippung der Beleuchtungsoptik stattfinden oder eine Kippung sowohl der Beleuchtungsoptik als auch der
Detektionsoptik . Der Begriff der Verkippung versteht sich dabei so, dass eine Kippung bezüglich der Befestigungsfläche, z.B. Befestigungsebene am Fahrzeug vorgesehen ist, also die
jeweiligen optischen Achsen einen Winkel von mindestens 5° zur Montagefläche am Fahrzeug einnehmen. Je nach Montageposition am Fahrzeug kommen Winkelbereiche zwischen 5° und 45° in Betrag, regelmäßig Neigungen zwischen 15° und 30°.
In einer Weiterbildung der Erfindung ist die Sensoranordnung auf einer teilflexiblen Leiterplatte, insbesondere einer
Semiflex-Leiterplatte angeordnet. Als Semiflex-Leiterplatten werden Leiterplatten bezeichnet, die abschnittsweise und
innerhalb vorgegebener Biegeradien als flexibel ausgebildet sind, wobei der Querschnitt der Leiterplatte im Biegebereich wesentlich verringert ist. In dieser Weiterbildung der Erfindung wird die Sensoreinrichtung integral auf einer
Leiterplattenanordnung vorgenommen, wobei unterschiedliche
Abschnitte der Leiterplatte durch semiflexible Bereiche
verbunden sind. Die Kippung der Optik ist ausgebildet, indem diese auf einem Teil der Leiterplatte angeordnet ist, der gegenüber einem anderen Teil der Leiterplatte um den
Neigungswinkel gekippt ist. Beispielsweise kann also die Steuer- und Auswerteschaltung auf einem ersten Abschnitt der Platine angeordnet sein, wobei sich entlang der Platine versetzt zu diesem Bereich ein Biegebereich der Leiterplatine erstreckt und sich daran ein Bereich anschließt, auf dem die Lichtquelle mit einem Optikpaket angeordnet ist. Der Biegebereich zwischen diesen Leiterplattenbereichen ist so verformt, dass die
Lichtquelle gegenüber dem ersten Leiterplattenabschnitt geneigt ist. Daran anschließen kann sich wiederum ein zweiter
Leiterplattenabschnitt der wiederum in die Gegenrichtung gebogen ist und daher in Richtung des ersten, nicht geneigten
Leiterplattenabschnitts. Wesentlich ist also, dass die Neigung oder Kippung der Optik trotz Montage auf einer einheitlichen Leiterplatte mit flexiblen Bereichen ausgebildet wird und die Neigung der Optik durch eine Verformung der Leiterplatte in den flexiblen Bereichen erreicht wird. In gleicher Weise kann durch eine Verformung der Leiterplatte auch eine Neigung der
Detektionsachse der Erfassungseinrichtung erfolgen.
Gemäß einem weiteren Aspekt der Erfindung werden dem
Beleuchtungselement optische Elemente in Gestalt diffraktiver optischer Elemente (DOE) zugeordnet. Ziel der erfindungsgemäßen Sensoreinrichtung ist es, gezielt begrenzte Raumbereiche einer optischen Kontrolle zu unterziehen. Diffraktive optische
Elemente sind Elemente zur Formung eines Lichtstrahls,
beispielsweise zur Strahlteilung, Strahlaufweitung oder auch Fokussierung . Sie bedienen sich im Gegensatz zu Linsenelementen dem physikalischen Prinzip von optischen Gittern. Durch Einsatz dieser äußerst klein bauenden diffraktiven optischen Elemente kann der Strahl der Beleuchtungseinrichtung auf solche
Raumbereiche verteilt und begrenzt werden, die für die Erfassung relevant sind.
Da die Leistung einer Beleuchtungseinrichtung in der
Sensoreinrichtung begrenzt ist, soll die Strahlungsenergie möglichst zielgerichtet auf die relevanten Bestrahlungsbereiche verteilt werden. Zu diesem Zweck ist gemäß einem weiteren Aspekt der Erfindung vorgesehen, der Strahlungsquelle ein diffraktives optisches Element zuzuordnen, welches eine Strahlteilung
vornimmt. Die Strahlteilung erfolgt derart, dass aus derselben Lichtquelle und derselben Sensoreinrichtung geteilte Lichtkegel in verschiedene Raumbereiche ausgesandt werden. Beispielsweise kann bei Montage der Sensoreinrichtung in der B-Säule eines Fahrzeugs ein Beleuchtungskegel entlang der Außenhaut des
Fahrzeugs in Richtung des Türgriffs der Fahrertür abgeteilt und gerichtet werden, während ein anderer Lichtkegel mit leichter Neigung nach unten vom Fahrzeug wegführt, um eine Annäherung eines Benutzers zu detektieren. Durch diese Teilung der
Beleuchtungsintensität kann einerseits eine erhöhte
Energiedichte in den beleuchteten Bereichen erreicht werden, gegenüber einer breiten Abstrahlung in einen größeren Bereich und andererseits eine Selektion der sensitiven Bereiche erzielt. Die unbeleuchteten Bereiche werden nämlich von der Empfangsoptik bzw. der Erfassungseinrichtung nicht detektiert und entsprechend ausgeblendet. Wesentlich ist, dass eine Strahlteilung durch die Elemente erreicht wird, so dass eine einheitliche Lichtquelle entlang eines Raumwinkels diskontinuierlich Winkelbereiche ausleuchtet .
Die diffraktiven optischen Elemente können neben der
Strahlteilung auch zur Aufweitung des Strahls eingesetzt werden. Gemäß einem weiteren Aspekt der Erfindung ist wenigstens eine der Linsen des Optikpakets der Beleuchtungseinrichtung als Flüssiglinse ausgebildet. Derartige Flüssiglinsen sind
insbesondere sehr klein realisierbar. Flüssiglinsen sind z.B. mittels elektrischer Spannung einstellbar, so dass der
Bestrahlungswinkel der Beleuchtungseinrichtung in Abhängigkeit von der Nutzungssituation oder der Umgebungsbedingungen
einstellbar ist. Die Steuer- und Auswerteschaltung kann eine Spannung an die Flüssiglinse anlegen, um deren Brennweite zu verändern und unterschiedliche Erfassungsszenarien
auszuleuchten. Es kann z.B. eine intensive, fokussierte
Beleuchtung eines Raumwinkels erfolgen oder eine breite
Ausleuchtung mit geringerer Energiedichte. Flüssiglinsen können hierbei sowohl in der Beleuchtungsoptik als auch in der
Empfangsoptik eingesetzt werden.
Die Erfindung wird nun anhand der beiliegenden Zeichnungen näher beschrieben.
Figur 1 zeigt in schematischer Weise die Einsatzsituation einer patentgemäßen Erfassungsvorrichtung an einem Fahrzeug;
Figur 2 zeigt die wirkenden Komponenten einer
erfindungsgemäßen Sensoranordnung in schematischer Darstellung;
Figur 3 zeigt den schematischen Aufbau mit gekippter
Beleuchtungseinrichtung gemäß einem weiteren Ausführungsbeispiel der Erfindung in einer schematischen Schnittansicht;
Figuren 4a, 4b zeigen die Strahlteilung der
Beleuchtungseinrichtung gemäß einem weiteren Ausführungsbeispiel der Erfindung;
Wie in Figur 1 dargestellt, ist ein Fahrzeug 1 mit einer erfindungsgemäßen Sensoreinrichtung 2 ausgestattet. Die
Sensoreinrichtung 2 erfasst Vorgänge und Bewegungen in einem Erfassungsbereich 3, hier durch gebrochene Linien angedeutet. Ein Benutzer 4, welcher sich dem Fahrzeug nähert, hat die
Möglichkeit, in den Erfassungsbereich 3 Bewegungsgesten
auszuführen, um Fahrzeugfunktionen abzurufen. In der hier gezeigten Ausführungsform ist die Erfassungsvorrichtung 2 seitlich am Fahrzeug in der B-Säule untergebracht. Eine
derartige Erfassungsvorrichtung kann jedoch auch an beliebiger anderer Stelle des Fahrzeuges, insbesondere im Heckbereich oder im Frontbereich angeordnet sein. In Figur 1 wird weiterhin gezeigt, dass der Erfassungsbereich 3 mit seiner optischen Achse geneigt zu der Montageebene am Fahrzeug ausgerichtet ist.
Während die B-Säule sich nach oben zum Fahrzeugzentrum neigt, ist der Erfassungsbereich gegenüber der Horizontalen leicht nach unten geneigt. Dies wird durch die Kippung der Optik erreicht, wie unten gezeigt.
Figur 2 zeigt die Komponenten der Erfassungsvorrichtung in schematischer Darstellung. In dieser Darstellung ist das
Fahrzeug 1 nicht gezeigt, um die Darstellung nicht unklar zu gestalten .
Die Einrichtung ist in einer Aufnahme 2 angeordnet und weist eine Lichtquelle 10 auf, welche in diesem Beispiel aus einer Laserdiode 11 und einer aufweitenden Optik 12 gebildet ist. Die Optik 12 erweitert den Strahlquerschnitt, so dass ein breiter Erfassungsbereich 3 gebildet ist, in welchen ein Benutzer 4 eintreten und in welchen er Bewegungsgesten ausführen kann. Es kann sich hierbei z.B. um eine einfache KunstStoffoptik oder auch eine Glasoptik handeln, z.B. eine Sammellinse, Asphäre oder auch Fresnel-Linse . Alternativ können diffraktive optische
Elemente die Optik oder einen Teil davon bilden.
Ein Detektionsarray 20 ist benachbart zu der Lichtquelle angeordnet, ausgerichtet mit dem sensitiven Bereich in Richtung des Erfassungsbereiches 3. Das Array 20 enthält Spalten und Zeilen von sensitiven Pixeln, und ist in diesem Beispiel als CCD-Array ausgebildet. Der Erfassungseinrichtung 20 ist eine Optik 21 vorgeschaltet, welche den Erfassungsbereich 3 auf das CCD-Array abbildet. Diese Optik kann auch einen ansteuerbaren Verschluss aufweisen oder geeignete Filter, insbesondere
Infrarot ( IR) -Filter oder auch Polarisationsfilter, welche das Hintergrundlicht gegenüber dem Laserlicht unterdrücken. Auch diese Optik kann Flüssigkeitslinsen aufweisen, die eine
Ansteuerung und Fokussierung erlauben oder auch ein
Mikrolinsenarray .
Sowohl die Lichtquelle 10 als auch das Array 20 sind mit einer Steuereinrichtung 30 gekoppelt, welche ein getakteten und zeitgesteuerten Betrieb der Lichtquelle 10 und
Erfassungseinrichtung 20 ermöglichen. Wird die Lichtquelle 10 zur Aussendung eines Lichtpulses angesteuert und die Pixelarray- Anordnung zur Erfassung angesteuert, so integrieren die
einzelnen Pixel die auftreffende Lichtenergie für eine
vorgegebene Zeitdauer. Jede nach Integration jeweils vorhandenen Ladung jedes Pixels wird in der Steuereinrichtung ausgewertet, so dass für jeden Pixel ein für den Integrationszeitraum
charakteristischer Erfassungswert generiert wird.
Über diese zeitabgestimmte und synchronisierte Ansteuerung sowohl der Lichtquelle 10 als auch der Erfassungseinrichtung 20 ist für jedes Pixel der Erfassungseinrichtung 20 eine Erfassung der Lichtlaufzeit und damit eine Abstandsdetektion möglich. Zu genauen Funktionen wird auf die Offenbarung der oben genannten Veröffentlichungen verwiesen, insbesondere auf die bekannten Time-of-Flight-Einrichtungen .
In der Praxis wird die LichtInformation nicht allein von einem Benutzer ausgehen, von dem das ausgestrahlte Licht der Lichtquelle 10 zurückgestrahlt wird, stattdessen wird eine
Integration über das gesamte empfangene Licht von allen
sichtbaren Punkten erfolgen. Auch die Umgebung wird zu der
Detektionsleistung beitragen. Es sind jedoch Algorithmen und Betriebsweisen der Sensoranordnung bekannt, bei denen das
Umgebungslicht weitgehend herausgerechnet werden kann.
Insbesondere können mehrere Aufnahmen kurz nacheinander und mit veränderten zeitlichen Parametern erfolgen, um Hintergrundlicht herauszurechnen. Eine solche Erfassung kann insbesondere mit unterschiedlichen Integrationszeiten erfolgen, um
Hintergrundeinflüsse zu beseitigen. Wird nämlich beispielsweise der Lichtpuls mit identischer Dauer ausgesendet, jedoch die Integration in ihrer Dauer variiert, so haben die
Hintergrundeinflüsse einen linearen Zusammenhang zur
Integrationszeit, während die Einflüsse durch den Lichtpuls nur für die Dauer des Lichtpulses bestehen.
Die Steuer- und Auswerteeinrichtung 30 erfasst die
Informationen und rechnet diese in einem Array von
Abstandsinformationen um. Dadurch kann eine 3D-Karte der Umgebung erstellt werden. Durch eine zeitliche Abfolge von
Handsteuerungen kann eine 3D-Information von Raumveränderungen und Ob ektbewegungen im Erfassungsbereich 3 erfasst werden.
Beispielsweise kann das Schwenken einer Hand des Benutzers 4 detektiert werden. Die Steuereinrichtung 30 und über sie die gesamte Erfassungseinrichtung 2 ist mit einer zentralen
Steuereinrichtung 50 des Kraftfahrzeuges gekoppelt. Die
Erkennung von Bewegungsgesten kann einerseits anhand einer
Bibliothek in der Steuer- und Auswerteeinrichtung 30 erfolgen oder eine Zeitfolge von 3D-Raumdaten wird der zentralen
Steuereinrichtung 50 zugeleitet, um dort ausgewertet zu werden. Die Einrichtung 30 kann außerdem eine Mustererkennung, z.B. in Gestalt eines neuronalen Netzes aufweisen, um Bedienungsgesten anhand charakteristischer Raumdaten zu erkennen. Die zentrale Steuereinrichtung 50 initiiert schließlich in Abhängigkeit von den erfassten Daten die Funktionsauslösung des Kraftfahrzeuges, beispielsweise das Absenken einer Seitenscheibe oder die Öffnung einer Tür oder Heckklappe.
Nachdem die Sensoranordnung in ihrem schematischen Aufbau und der Lage am Fahrzeug erläutert wurde, zeigt Figur 3 ein erstes Ausführungsbeispiel des Sensoraufbaus in einer seitlichen Schnittansicht der integrierten Sensoreinrichtung. Ein Gehäuse 100 bildet eine Aufnahme für die Sensorkomponenten. In dem
Gehäuse 100 ist eine Trägerstruktur 110 ausgebildet, welche die Unterlage für die aufzulegende Schaltungsanordnung bildet. Die Schaltungsanordnung ist auf einer teilweise flexiblen Platine 120 angeordnet. Diese weist dünne, flexible Bereiche auf und dickere, starre Bereiche. In einem ersten Abschnitt der Platine 120 ist die Steuer- und Auswerteeinrichtung 130 aufgebracht. Diese kann einen MikroController, Speicherbausteine und weitere elektronische Schaltelemente enthalten. An den Bereich, welcher die Steuer- und Auswerteeinrichtung 130 trägt schließt sich ein verjüngter, flexibler Bereich der Platinen 120 an, gefolgt von einem Platinenabschnitt 140, der die Beleuchtungseinrichtung 150 trägt. Weiter entlang der Platine 120 fortschreitend, folgt wieder ein verjüngter, flexibler Bereich der Platine und ein versteifter, dickerer Bereich der Platine 120, auf dem die optische Erfassungseinrichtung 160 ausgebildet ist. Die optische Erfassungseinrichtung 160 weist in diesem Beispiel ein CMOS- Array und eine zugehörige Optik auf. Die Trägerstruktur 110 ist so auf die Platine und ihre flexiblen Bereiche angepasst, dass die Platinenabschnitte mit unterschiedlicher Neigung unterstützt werden. Es ist ersichtlich, dass der mittlere starre
Platinenabschnitt derart auf einer Rampe der Trägerstruktur 110 aufgebracht ist, dass die Beleuchtungseinrichtung 150 geneigt zu den übrigen Komponenten, insbesondere den anderen Abschnitten der Platine ist.
Auf diese Weise wird ein kompakt bauender optischer Sensor bereitgestellt, der mit seiner rückseitigen Flachseite
(Unterseite in Figur 3) beispielsweise an der B-Säule des
Fahrzeugs montiert werden kann, gleichwohl jedoch eine
Abstrahlung in einen zu der Montagefläche geneigten Bereich vornehmen kann. Da die Platine zunächst im ebener Lage, also mit ebener Ausrichtung der Platinenabschnitte bestückt wird und erst später in die Aufnahme und die Trägerstruktur eingebracht wird, ist die Montage der Optik 150 auf der Platine 140 in einfacher Weise realisierbar, die sie der üblichen Montage einer Optik auf ebener Platine entspricht. Erst durch die Aufnahme und die
Trägerstruktur in der Aufnahme erhält die Platine mit ihren verjüngten Bereichen die Neigung der optischen Lichtquelle.
Es ist auch ersichtlich, dass auch die Detektionseinrichtung 160 durch eine entsprechende Ausgestaltung der Trägerstruktur 110 erfindungsgemäß geneigt werden könnte. Außerdem ist
ersichtlich, dass zur erfindungsgemäßen Neigung der Lichtquelle 150 nicht unbedingt eine Semiflex-Platine erforderlich ist, stattdessen können auch mehrere Platinen durch Leitverbindungen gekoppelt werden.
Durch die Abstimmung einer Trägerstruktur mit einer Neigung und die anschließende Aufbringung der verschiedenen Komponenten an den vorgesehenen Stellen der Trägerstruktur in der Aufnahme wird eine Sensoranordnung mit einer vorteilhaften Ausrichtung der optischen Komponenten geschaffen. Es ist möglich, für unterschiedliche Fahrzeugmodelle, die unterschiedliche
Montageebenen und Neigungswinkel erfordern, unterschiedliche Trägerstrukturen 110 in eine Aufnahme 100 anzubringen oder an unterschiedliche Aufnahmen 100 mit zugehörigen Trägerstrukturen auszubilden. Dann kann dieselbe Platinenanordnung mit
Lichtquelle, Steuer- und Auswerteschaltung und optischer
Erfassungseinrichtung für unterschiedliche Fahrzeugmodelle eingesetzt werden.
Dank des Konzepts der Bestückung in einer Ebene, wie in diesem Aufbau gezeigt und der Anordnung auf entsprechenden
Aufnahmestrukturen zur Kippung oder Neigung der Optik ist es möglich, handelsübliche Montagesätze für Optiken und LEDs oder Laserdioden zu verwenden.
Die Figuren 4a und 4b zeigen ein weiteres Konzept gemäß einem anderen Ausführungsbeispiel der Erfindung. Gemäß diesem Ausführungsbeispiel ist die Sensoreinrichtung 190 in der B-Säule des Fahrzeuges aufgenommen und wird als Teil des Optikpakets der Beleuchtungseinrichtung eine Strahlteilereinrichtung verwendet. Dazu werden klein bauende, diffraktive optische Elemente
eingesetzt, um die Strahlungsenergie der Lichtquelle selbst, beispielsweise der Laserdiode, in unterschiedliche Raumbereiche zu lenken. Figur 4a zeigt, dass ein Teil der Strahlungsenergie in einem Strahlungskegel 200 nach unten und zur Fahrzeugfront hin abgeteilt und aufgeweitet wird, so dass der Türgriff 210 der Fahrertür im Beleuchtungsbereich liegt. Ein anderer Anteil 220 der Strahlungsenergie wird in einen nach unten geneigten Kegel, seitlich vom Fahrzeug weggelenkt, um Benutzer zu beleuchten, die sich von dort an das Fahrzeug annähern. Auf diese Weise können irrelevante oder störende Detektionssignale verhindert werden, da nur Teilbereiche, die für die Erfassung relevant sind
beleuchtet werden. Nähert beispielsweise ein Benutzer seine Hand an den Türgriff an, bewegt er diese in den abgeteilten
Strahlkegel der auf den Türgriff gerichtet ist und sorgt damit für eine signifikante Signalerhöhung bei dem zurückgeworfenen Licht auf die Erfassungseinrichtung.
Die Strahlteilung kann in mehrere Strahlbestandteile
erfolgen, die in unterschiedliche Richtungen abgelenkt werden. Wesentlich ist, dass eine einzige Lichtquelle in diesem Fall ausreicht, um unterschiedliche und getrennte Bereiche zu bestrahlen und auch nur mit einer einheitlichen Erfassungseinrichtung das zurückgeworfene Licht detektiert

Claims

Patentansprüche
1. Sensoreinrichtung (2) für ein Kraftfahrzeug (1), mit wenigstens einer Lichtquelle (10; 150) und einer
Erfassungseinrichtung (20; 160), wobei die
Erfassungseinrichtung mit einem Array von optischen Pixeln ausgebildet ist,
wobei die Lichtquelle (10; 150) und die
Erfassungseinrichtung (20; 160) mit einer Steuer- und
Auswerteeinrichtung (30; 130) gekoppelt sind, welche die
Lichtquelle (10; 150) zur Abgabe von Lichtpulsen ansteuert und die Erfassungseinrichtung (20; 160) zur Erfassung des von der Umgebung zurückgestrahlten Lichtes ansteuert sowie die
erfassten Signale der Erfassungseinrichtung (20; 160)
auswertet,
wobei die Steuer- und Auswerteeinrichtung (30; 130), die Erfassungseinrichtung (20; 160) und die Lichtquelle (10; 150) zusammen als Time-of-Flight-Aufbau (ToF-Aufbau) zur Erfassung in einer ersten Raumrichtung ausgebildet sind, so dass räumlich zuordenbare Entfernungsdaten erfasst werden,
dadurch gekennzeichnet,
dass die Lichtquelle (10; 150) und die
Erfassungseinrichtung (20; 160) in einer Aufnahme angeordnet sind, die zur Montage der Sensoreinrichtung an einem Fahrzeug ausgebildet ist, wobei die Aufnahme entlang einer Anlagefläche des Fahrzeuges anzuordnen ist,
wobei die Lichtquelle innerhalb der Aufnahme gekippt angeordnet ist, so dass zwischen einer Normalen zu der
Anlagefläche und der optischen Achse der Lichtquelle ein
Winkel von mindestens 5° gebildet ist.
2. Sensoreinrichtung nach Anspruch 1, wobei in der
Aufnahme ein Trägerprofil angeordnet ist, welches wenigstens einen schräg verlaufenden Stützabschnitt für die Lichtquelle aufweist und diese in der Neigungslage hält.
3. Sensoreinrichtung nach Anspruch 1 oder 2, wobei die Lichtquelle und die Erfassungseinrichtung auf einer
teilflexiblen Leiterplatte aufgebracht sind, wobei der die Lichtquelle tragende Abschnitt der Leiterplatte gegenüber einem anderen Abschnitt der Leiterplatte in dem Neigungswinkel fixiert ist .
4. Sensoreinrichtung nach Anspruch 3, wobei die
Erfassungseinrichtung ebenfalls auf dem geneigten und die Lichtquelle tragenden Abschnitt der Leiterplatte fixiert ist.
5. Sensoreinrichtung nach einem der vorangehenden
Ansprüche, wobei die Lichtquelle optische Komponenten zur Strahlformung aufweist, wobei wenigstens eine der Komponenten aus einem diffraktiven optischen Element gebildet ist.
6. Sensoreinrichtung nach einem der vorangehenden
Ansprüche, wobei die Lichtquelle eine Strahlteilereinrichtung aufweist welche das ausgesendete Licht in diskontinuierliche Raumwinkelbereiche teilt.
7. Sensoreinrichtung nach einem der vorangehenden
Ansprüche, wobei die Lichtquelle als optische Komponente wenigstens eine Flüssiglinse aufweist.
8. Sensoreinrichtung nach Anspruch 7, wobei die
Flüssiglinse mit der Steuer- und Auswerteeinrichtung gekoppelt ist, um eine ansteuerungsabhängige Strahlformung der
Lichtquelle vorzunehmen.
9. Sensoreinrichtung nach einem der vorangehenden
Ansprüche, wobei der Erfassungseinrichtung wenigstens ein optisches Filter vorgeschaltet ist, insbesondere ein
Infrarotfilter oder ein Polarisationsfilter.
10. Sensoreinrichtung nach einem der vorangehenden Ansprüche, wobei der Neigungswinkel zwischen 5° und 30°, vorzugsweise zwischen 5° und 20° beträgt.
PCT/EP2014/066843 2013-08-14 2014-08-05 Sensoranordnung zur erfassung von bediengesten an fahrzeugen WO2015022240A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016533887A JP6449284B2 (ja) 2013-08-14 2014-08-05 自動車の操作ジェスチャを認識するためのセンサ構成
US14/911,416 US9927293B2 (en) 2013-08-14 2014-08-05 Sensor array for detecting control gestures on vehicles
EP14748204.6A EP3033251B1 (de) 2013-08-14 2014-08-05 Sensoranordnung zur erfassung von bediengesten an fahrzeugen
CN201480043850.8A CN105473393B (zh) 2013-08-14 2014-08-05 用于检测车辆上操控姿态的传感器机构

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013108824.4 2013-08-14
DE102013108824.4A DE102013108824A1 (de) 2013-08-14 2013-08-14 Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen

Publications (1)

Publication Number Publication Date
WO2015022240A1 true WO2015022240A1 (de) 2015-02-19

Family

ID=51298758

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/066843 WO2015022240A1 (de) 2013-08-14 2014-08-05 Sensoranordnung zur erfassung von bediengesten an fahrzeugen

Country Status (6)

Country Link
US (1) US9927293B2 (de)
EP (1) EP3033251B1 (de)
JP (1) JP6449284B2 (de)
CN (1) CN105473393B (de)
DE (1) DE102013108824A1 (de)
WO (1) WO2015022240A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3099547B1 (de) 2014-01-31 2018-07-18 Huf Hülsbeck & Fürst GmbH & Co. KG Montagemodul
JP2019512710A (ja) * 2016-03-19 2019-05-16 ベロダイン ライダー, インク. Lidarに基づく3次元撮像のための統合された照射及び検出

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014206236B4 (de) * 2013-04-04 2020-11-19 pmdtechnologies ag Lichtlaufzeitkamera für ein Fahrzeug
GB2529848B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile robot
DE102015113841A1 (de) 2015-08-20 2017-02-23 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
DE102015115101A1 (de) 2015-09-08 2017-03-09 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensorsystem einer Sensoreinrichtung eines Kraftfahrzeugs
IL247944B (en) * 2016-09-20 2018-03-29 Grauer Yoav A pulsating illuminator with a configurable structure
US20180094471A1 (en) * 2016-10-03 2018-04-05 Magna Mirrors Of America, Inc. Vehicle window with gesture control
DE102016014062A1 (de) 2016-11-25 2018-05-30 Huf Hülsbeck & Fürst GmbH & Co KG Sensorsystem eines Kraftfahrzeugs mit Halteeinrichtung
EP3343246A1 (de) * 2016-12-30 2018-07-04 Xenomatix NV System zur charakterisierung der umgebung eines fahrzeugs
DE102017107821A1 (de) 2017-04-11 2018-10-11 Osram Opto Semiconductors Gmbh Anordnung mit wenigstens zwei laserdioden und diffraktivem element
CN107462893A (zh) * 2017-08-15 2017-12-12 东莞市迈科新能源有限公司 一种基于tof相机的车载立体视觉系统
DE102018001391A1 (de) 2018-02-21 2019-08-22 Huf Hülsbeck & Fürst GmbH & Co KG Optisches Sensorsystem eines Kraftfahrzeugs zur Erfassung von Bediengesten
CN208572292U (zh) * 2018-03-18 2019-03-01 宁波舜宇光电信息有限公司 深度信息摄像模组及其基座组件和电子设备
KR102488006B1 (ko) * 2018-03-20 2023-01-12 엘지이노텍 주식회사 카메라 모듈 및 이를 포함하는 광학 기기
US10794107B2 (en) 2018-04-10 2020-10-06 Ford Global Technologies, Llc Vehicle door entry system and method
JP2019203774A (ja) * 2018-05-23 2019-11-28 酒井重工業株式会社 建設車両の障害物検知装置
DE102018124974B4 (de) * 2018-10-10 2021-08-12 Sick Ag Optoelektronischer Sensor zur Detektion von Objekten und autonomes Fahrzeug mit einem solchen Sensor
DE102018218745B4 (de) 2018-11-01 2021-06-17 Elektrobit Automotive Gmbh Kameravorrichtung, Fahrerassistenzsystem und Fahrzeug
WO2020149981A1 (en) * 2019-01-17 2020-07-23 Gentex Corporation Alignment system
DE102019107750A1 (de) * 2019-03-26 2020-10-01 Küster Holding GmbH Verstellantrieb für die motorische Verstellung eines Verstellelements sowie Verfahren zur Montage eines Verstellantriebs
US10780820B1 (en) * 2019-05-23 2020-09-22 Inview Vehicle Trim Corp. Vehicle door pillar light assembly and method of use thereof
JP7321834B2 (ja) * 2019-08-26 2023-08-07 ソニーセミコンダクタソリューションズ株式会社 照明装置、および、測距モジュール
US20230213650A1 (en) * 2020-10-19 2023-07-06 Lg Chem, Ltd. System for Observing Object by Using Hologram Optical Element

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008116699A2 (de) * 2007-03-23 2008-10-02 Continental Automotive Gmbh Optischer sensorchip und einklemmschutzvorrichtung mit einem solchen
DE102008025669A1 (de) * 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Fahrzeugschliesseinrichtungsbetätigungsvorrichtung und Verfahren für nicht freie Hände
US20110295469A1 (en) * 2007-01-11 2011-12-01 Canesta, Inc. Contactless obstacle detection for power doors and the like
WO2013001084A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5749885Y2 (de) * 1979-03-13 1982-11-01
JPS61259186A (ja) * 1985-05-14 1986-11-17 Nissan Motor Co Ltd 先行車位置検出装置
JPS62184381A (ja) * 1986-02-07 1987-08-12 Koito Mfg Co Ltd 自動車用レ−ダ装置
JPH06118161A (ja) * 1992-10-02 1994-04-28 Seiko Epson Corp 光センシング装置
JPH0867222A (ja) * 1994-08-29 1996-03-12 Calsonic Corp 光学式測定装置および光学式測定装置の取り付け方法
WO1999034235A1 (de) * 1997-12-23 1999-07-08 Siemens Aktiengesellschaft Verfahren und vorrichtung zur aufnahme eines dreidimensionalen abstandsbildes
US6323942B1 (en) * 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
JP2001337166A (ja) * 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
MXPA05001880A (es) * 2002-08-21 2005-06-03 Gentex Corp Metodos de adquisicion y procesamiento de imagen para control automatico de iluminacion exterior vehicular.
US7205527B2 (en) * 2003-12-09 2007-04-17 Delphi Technologies, Inc. Apparatus for fanning out near infrared radiation in an automotive occupant position restraint system
EP1650085A1 (de) * 2004-10-22 2006-04-26 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Bilderfassungssystem für Insassen
DE102007021328A1 (de) * 2007-05-07 2008-11-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrwerksvermessung
US8103438B2 (en) * 2007-09-26 2012-01-24 Trimble Navigation Limited Method and system for automatically directing traffic on a site
JP2009109355A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 距離測定装置及びその方法、距離測定装置を用いた厚さ測定装置
JP2009204691A (ja) * 2008-02-26 2009-09-10 Toyota Central R&D Labs Inc 光走査装置、レーザレーダ装置、及び光走査方法
JP2011117849A (ja) * 2009-12-03 2011-06-16 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
CN102163331A (zh) * 2010-02-12 2011-08-24 王炳立 采用标定方法的图像辅助系统
DE102010056171A1 (de) 2010-12-24 2012-06-28 Volkswagen Ag Verfahren zum automatischen Betätigen eines Schließelements eines Fahrzeugs sowie entsprechende Vorrichtung und Fahrzeug
JP2014102073A (ja) * 2011-03-10 2014-06-05 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
JP5853838B2 (ja) * 2011-07-12 2016-02-09 株式会社デンソー 車載レーザレーダ装置
GB2505675A (en) * 2012-09-06 2014-03-12 St Microelectronics Pte Ltd A cover for a sensor package with two transparent portions
KR102007772B1 (ko) * 2012-12-28 2019-08-06 엘지전자 주식회사 3차원 공간 측정 장치 및 동작 방법
DE102013100522A1 (de) * 2013-01-18 2014-08-07 Huf Hülsbeck & Fürst Gmbh & Co. Kg Universelle Sensoranordnung zur Erfassung von Bediengesten an Fahrzeugen
KR101770872B1 (ko) * 2013-12-27 2017-08-23 주식회사 만도 차량용 tof 카메라 및 그의 구동 방법
DE102014004675A1 (de) * 2014-03-31 2015-10-01 Audi Ag Gestenbewertungssystem, Verfahren zur Gestenbewertung und Fahrzeug

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110295469A1 (en) * 2007-01-11 2011-12-01 Canesta, Inc. Contactless obstacle detection for power doors and the like
WO2008116699A2 (de) * 2007-03-23 2008-10-02 Continental Automotive Gmbh Optischer sensorchip und einklemmschutzvorrichtung mit einem solchen
DE102008025669A1 (de) * 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Fahrzeugschliesseinrichtungsbetätigungsvorrichtung und Verfahren für nicht freie Hände
WO2013001084A1 (de) * 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3099547B1 (de) 2014-01-31 2018-07-18 Huf Hülsbeck & Fürst GmbH & Co. KG Montagemodul
JP2019512710A (ja) * 2016-03-19 2019-05-16 ベロダイン ライダー, インク. Lidarに基づく3次元撮像のための統合された照射及び検出
JP7149256B2 (ja) 2016-03-19 2022-10-06 ベロダイン ライダー ユーエスエー,インコーポレイテッド Lidarに基づく3次元撮像のための統合された照射及び検出

Also Published As

Publication number Publication date
CN105473393B (zh) 2018-01-02
US9927293B2 (en) 2018-03-27
JP6449284B2 (ja) 2019-01-09
DE102013108824A1 (de) 2015-02-19
EP3033251B1 (de) 2018-01-03
CN105473393A (zh) 2016-04-06
JP2016534343A (ja) 2016-11-04
US20160195430A1 (en) 2016-07-07
EP3033251A1 (de) 2016-06-22

Similar Documents

Publication Publication Date Title
EP3033251B1 (de) Sensoranordnung zur erfassung von bediengesten an fahrzeugen
EP2946226B1 (de) Universelle sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE102007008806C5 (de) Optoelektronische Überwachung mit Test durch Dynamisierung
DE602005004156T2 (de) Optischer Multifunktionssensor für Fahrassistenzsysteme in Kraftfahrzeugen
EP2946227B1 (de) Sensoranordnung zur erfassung von bediengesten an fahrzeugen
EP2314427B1 (de) Verfahren und Vorrichtung zur Steuerung von elektrischen Geräten mittels Bewegungsdetektion
DE112015004407T5 (de) Hintergrundlicht-Detektion für optische Navigationssysteme
WO2012092911A1 (de) Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung
DE102005000650A1 (de) Vorrichtung zur Erfassung visueller Daten
EP1185442B1 (de) Vorrichtung und verfahren zur sitzüberwachung mittels einer optoelektronischen triangulationstechnik
EP3311190A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
WO2010103061A1 (de) Vorrichtung und verfahren zur detektion mindestens eines objektes
EP3077255B1 (de) Beleuchtung zur detektion von regentropfen auf einer scheibe mittels einer kamera
WO2017041916A1 (de) Sensoreinrichtung zur optischen erfassung von betätigungsgesten
DE102019206370A1 (de) Außenleuchteinrichtung für ein Kraftfahrzeug
DE102017204836A1 (de) Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
EP1632791A2 (de) Nachtsichtsystem für ein Kraftfahrzeug
EP1865755B1 (de) Vorrichtung zur Beleuchtungssteuerung mit Anwesenheits-Erfassung
EP3317692A1 (de) Sensoranordnung zur optischen erfassung von bediengesten an fahrzeugen
EP3314297A1 (de) Sensoreinrichtung zur optischen erfassung von betätigungsgesten
DE10033103A1 (de) Infrarot-Sichtsystem
DE102014205282A1 (de) Vorrichtung zum Öffnen oder Schließen einer Öffnung eines Fahrzeugs
EP1262369B1 (de) Nachtsichteinrichtung für Fahrzeuge
EP3724601B1 (de) Abstandsermittlung basierend auf verschiedenen tiefenschärfebereichen bei unterschiedlichen fokuseinstellungen eines objektivs
WO2016110514A1 (de) Optische vorrichtung zur belichtung einer sensorvorrichtung für ein fahrzeug

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480043850.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14748204

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014748204

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016533887

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14911416

Country of ref document: US