WO2017067697A1 - Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung - Google Patents

Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung Download PDF

Info

Publication number
WO2017067697A1
WO2017067697A1 PCT/EP2016/070815 EP2016070815W WO2017067697A1 WO 2017067697 A1 WO2017067697 A1 WO 2017067697A1 EP 2016070815 W EP2016070815 W EP 2016070815W WO 2017067697 A1 WO2017067697 A1 WO 2017067697A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor device
control circuit
bluetooth
memory
data
Prior art date
Application number
PCT/EP2016/070815
Other languages
English (en)
French (fr)
Inventor
Nadine Sticherling
Christof HACHE
Oliver MÜLLER
Jean YOMKIL-MALABO
Original Assignee
Huf Hülsbeck & Fürst Gmbh & Co. Kg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huf Hülsbeck & Fürst Gmbh & Co. Kg filed Critical Huf Hülsbeck & Fürst Gmbh & Co. Kg
Priority to EP16770449.3A priority Critical patent/EP3365702A1/de
Publication of WO2017067697A1 publication Critical patent/WO2017067697A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Sensoreinrichtung mit einer gesteigerten Benutzerfreundlichkeit sowie ein Verfahren zum Betreiben der Einrichtung. Zur Steigerung der Benutzerfreundlichkeit umfasst die Sensoreinrichtung eine 3D-Kamera mit einer Pulslichtquelle (13), einer Steuerschaltung (15) mit einem Speicher (15b) sowie einem lichtsensitiven Erfassungschip (16), wobei die Steuerschaltung (15) basierend auf einer in dem Speicher (15b) abgelegten Firmware und/oder basierend auf in dem Speicher (15b) abgelegten Einstellungen die Pulslichtquelle (13) und den lichtsensitiven Erfassungschip (16) steuert und von dem lichtsensitiven Erfassungschip (16) empfangene Signale verarbeitet. Die Sensoreinrichtung (1) umfasst ferner eine mit der Steuerschaltung (15) gekoppelte Bluetooth-Schnittstelle (17), die dazu ausgebildet ist, mit einem Bluetooth-Endgerät (4) außerhalb des Kraftfahrzeuges in Kontakt zu treten und von diesem Daten zu empfangen und diese der Steuerschaltung (15) bereitzustellen, und die empfangenen Daten zu verarbeiten und die Firmware und / oder Einstellungen in dem Speicher (15b) anhand der Daten anzupassen.

Description

Sensoreinrichtung zur optischen Erfassung von
Bedienungsgesten an Fahrzeugen und Verfahren zum Betreiben der
Sensoreinrichtung
Die Erfindung betrifft Sensoreinrichtungen, welche zur optisch gestützten Erkennung von Bedienungsgesten oder
Bedienungshandlungen an Kraftfahrzeugen eingesetzt werden kann sowie ein Verfahren zum Betreiben der Sensoreinrichtung.
Insbesondere betrifft die Erfindung Sensoreinrichtungen, welche zeitlich und räumlich aufgelöste Informationen erfassen und auswerten, um den Bedienungswunsch eines Benutzers zu erkennen.
Aus dem Stand der Technik sind optische Verfahren bekannt, die Betätigungen in Reaktion auf eine Auswertung von
Bildinformationen erkennen und daraufhin z.B. Schaltvorgänge auslösen. Beispielsweise sind hier automatische
Videoauswertungen von Überwachungssystemen zu nennen, welche Muster oder Bewegungen aus einzelnen Bildern oder einer Folge von Bilder herauslesen. Außerdem sind zahlreiche andere optisch gestützte Systeme bekannt, wobei zu den grundlegendsten
Lichtschranken oder Helligkeitssensoren gehören. Optische
Systeme mit höherer Komplexität bedienen sich jedoch oft eines Arrays von optisch sensitiven Erfassungseinheiten, meist als Pixel bezeichnet, die parallel optische Informationen aufnehmen, beispielsweise in Gestalt eines CCD-Arrays.
Die DE 10 2008 025 669 AI offenbart einen optischen Sensor, welcher eine Geste detektiert, woraufhin ein Schließelement eines Fahrzeugs automatisch bewegt wird.
Die WO 2008/116699 A2 betrifft einen optischen Sensorchip und bezieht sich auf eine optische Einklemmschutzvorrichtung für die Überwachung einer Fensterscheibe, Schiebetür oder einer Heckklappe in einem Kraftfahrzeug.
Die WO 2012/084222 AI offenbart einen optischen Sensor zur Betätigung und Überwachung eines Schließelements. Da die Gestensteuerung in verschiedenen technischen Bereichen immer größere Akzeptanz erfährt, wurden auch Versuche unternommen, solche rein optischen Systeme zur Erkennung des Bedienwunsches bei Kraftfahrzeugen zu verwenden. Bei diesen Systemen herrscht jedoch weiterhin die Erfassung von Bedienungen über kapazitive Systeme vor.
Im Bereich der optischen Erfassung sind Systeme bekannt, welche eine pixelbezogene Ortsinformation, insbesondere eine Distanz von der Sensor- oder Erfassungseinrichtung erfassen. Die WO 2013/001084 AI offenbart ein System zur berührungslosen
Erfassung von Gegenständen und Bediengesten mit einer optisch gestützten Einrichtung ähnlicher Art, wie sie auch für die
Erfindung einsetzbar ist.
Diese Systeme werden beispielsweise, je nach angewandtem Auswertungsverfahren, als „time of flight"-Systeme oder auch als „3D-Imager" oder „Range Imager" bezeichnet. Die
Anwendungsgebiete solcher Systeme liegen im Bereich der
industriellen Automatisierungstechnik, in der Sicherheitstechnik und im Automobilbereich. In einem Auto werden 3D-Sensoren in Spurhaltesystemen, zum Fußgängerschutz oder als Einparkhilfe eingesetzt. Sowohl Konzepte der Triangulation als auch der
Interferometrie und auch der Lichtlaufzeitmessung (time of flight (TOF) ) können mit optischen Sensoren umgesetzt werden. In diesem Zusammenhang wird auf diesbezügliche Ausarbeitungen verwiesen, welche die technischen Konzepte und deren
Realisierung detailliert beschreiben, insbesondere die
Dissertation „Photodetektoren und Auslesekonzepte für 3D-Time- of-Flight-Bildsensoren in 0,35 ym-Standard-CMOS-Technologie" , Andreas Spickermann, Fakultät für Ingenieurwissenschaften der, Universität Duisburg-Essen, 2010.
Außerdem wird auf die Publikation „Optimized Distance
Measurement with 3D-CMOS Image Sensor and Real-Time Processing of the 3D Data for Applications in Automotive and Safety
Engineering", Bernhard König, Fakultät für
Ingenieurwissenschaften der Universität Duisburg-Essen, 2008 verwiesen . Die vorgenannten Arbeiten beschreiben das Konzept und die Realisierung von einsetzbaren optischen Sensorsystemen, so dass im Rahmen dieser Anmeldung auf deren Offenbarung verwiesen wird und nur zum Verständnis der Anmeldung relevante Aspekte
erläutert werden.
Die Erfindung betrifft eine Sensoreinrichtung welche das time of flight (TOF) -Verfahren nutzt, so dass dieses hier kurz erläutert wird.
Beim TOF-Verfahren wird ein Raumbereich mit einer
Lichtquelle beleuchtet und die Laufzeit des von einem Objekt im Raumbereich zurück reflektierten Lichtes von der Lichtquelle zurück zu einem Flächensensor aufgenommen. Dazu sollten
Lichtquelle und Sensor möglichst nah beieinander angeordnet sein .
Die benötigte Laufzeit des Lichts ist direkt proportional zur Distanz. Aus dem linearen Zusammenhang von Lichtlaufzeit und Lichtgeschwindigkeit lässt sich damit die Distanz zwischen
Sensor und Messobjekt bestimmen. Zur Messung der zeitlichen Verzögerung muss eine Synchronisation zwischen Lichtquelle und Sensor gegeben sein. Durch die Nutzung gepulster Lichtquellen können die Verfahren optimiert werden, denn kurze Lichtpulse (im ns-Bereich) ermöglichen eine effiziente
Hintergrundlichtunterdrückung. Außerdem werden durch die
Verwendung des gepulsten Lichts mögliche Mehrdeutigkeiten bei der Bestimmung der Distanz vermieden, so lange der Abstand genügend groß ist.
Einerseits wird bei diesem Konzept die Lichtquelle gepulst betrieben. Andererseits wird die Detektionseinheit , also das Pixelarray, gepulst sensitiv geschaltet, also das
Integrationsfenster der einzelnen Pixel wird zeitlich mit der Lichtquelle synchronisiert und in der Integrationsdauer
begrenzt. Durch den Vergleich von Ergebnissen mit
unterschiedlichen Integrationsdauern können insbesondere Effekte von Hintergrundlicht herausgerechnet werden.
Wesentlich ist, dass diese Erfassungsmethode keine rein bildbasierte Erfassungsmethode ist. Es wir bei jedem Pixel eine Abstandsinformation ermittelt, was durch die zeitliche Lichtdetektion erfolgt. Bei Verwendung eines Pixelarrays liegt schließlich eine Matrix von Abstandswerten vor, welche bei zyklischer Erfassung eine Interpretation und Verfolgung von Objektbewegungen zulässt.
Bei bekannten Sensoreinrichtungen mit 3D-Kameras, die nach dem time of flight-Prinzip arbeiten, sind diese
Sensoreinrichtungen mit dem Kabelbaum eines Kraftfahrzeuges verbunden. Über diesen Kabelbaum wird einer zentralen
Steuereinrichtung des Kraftfahrzeuges mitgeteilt, dass eine Bedienungsgeste detektiert wurde. Sofern bereits eine
Authentifizierung eines Benutzers stattgefunden hat wird dann von der zentralen Steuereinrichtung eine der Bedienungsgeste entsprechende Aktion ausgelöst.
Die Detektion einer solchen Bedienungsgeste erfolgt durch eine Steuerschaltung der 3D-Kamera, die die von einem
Erfassungschip der 3D-Kamera erhaltenen Daten verarbeitet und ermittelt, ob eine Bedienungsgeste durchgeführt wurde.
Die Verarbeitung der empfangenen Daten erfolgt auf der Basis einer Software und / oder Einstellungen, die in einem Speicher der Steuerschaltung der 3D-Kamera abgelegt sind.
Unterschiedliche Benutzer führen Gesten, die z.B. einen Öffnungswunsch darstellen sollen, unterschiedlich aus,
beispielsweise in Abhängigkeit von Geschlecht und Alter. Eine Anpassung der Sensoreinrichtung ist über den Kabelbaum möglich, dies ist aber nur durch spezialisierte Fachleute möglich, ein Benutzer kann eine entsprechende Änderung nicht durchführen.
Die Aufgabe der Erfindung besteht darin, eine optische
Sensoreinrichtung mit gesteigerter Benutzerfreundlichkeit zur Verfügung zu stellen.
Die Aufgabe wird durch eine Sensoreinrichtung mit den
Merkmalen des Patentanspruchs 1 gelöst.
Die erfindungsgemäße Sensoreinrichtung weist eine 3D-Kamera, insbesondere eine time of flight (TOF) -Kamera, auf. Diese
3D-Kamera weist eine Pulslichtquelle und einen lichtsensitiven Erfassungschip mit einem Pixelarray auf. Die Pulslichtquelle und der Erfassungschip sind mit einer Steuerschaltung mit einem Speicher gekoppelt, welche die Lichtpulse und die Auswertung der Sensorsignale koordiniert und steuert. Die Pulslichtquelle kann eine Laserdiode sein, die mit einer entsprechenden
Treiberschaltung zur Erzeugung kurzer Pulse gekoppelt ist.
Entsprechende Steuerschaltungen und Anordnungen sind aus dem Stand der Technik bekannt.
Sowohl die Pulslichtquelle als auch der Erfassungschip sind in einem gemeinsamen Bauraum angeordnet und zu einem
Erfassungsbereich der 3D-Kamera hin ausgerichtet.
Die Steuerschaltung steuert die Pulslichtquelle und den lichtsensitiven Erfassungschip und verarbeitet die von dem lichtsensitiven Erfassungschip empfangenen Signale, und zwar basierend auf einer in dem Speicher abgelegten Firmware und/oder basierend auf in dem Speicher abgelegten Einstellungen, wobei die Einstellungen beispielsweise den Benutzer oder spezielle „Eigenarten" des Benutzers näher kennzeichnen. So kann
beispielweise abgelegt sein, dass ein Benutzer eine
Öffnungsgeste stets von links nach rechts ausführt, was dazu beitragen kann, einen Öffnungswunsch bzw. eine Bedienungsgeste schneller und sicherer zu erkennen.
Erfindungsgemäß umfasst die Sensoreinrichtung eine mit der
Steuerschaltung der 3D-Kamera gekoppelte Bluetooth- Schnittstelle, wobei diese Bluetooth-Schnittstelle dazu
ausgebildet ist, mit einem Bluetooth-Endgerät außerhalb des Kraftfahrzeuges in Kontakt zu treten und von diesem Bluetooth- Endgerät Daten zu empfangen und diese der Steuerschaltung bereitzustellen. Ein in Kontakt treten mit einem Endgerät außerhalb des Kraftfahrzeuges kann zum Beispiel dadurch
erfolgen, dass die Bluetooth-Schnittstelle einen fest
vorgegebenen (oder programmierbaren) Bluetooth-PIN-Code
aufweist, welcher bei dem Bluetooth-Endgerät bei der ersten Kontaktaufnahme eingegeben werden muss. Nach dem sogenannten „Pairing" kann das so autorisierte Bluetooth-Endgerät ohne
Eingabe des PIN-Codes mit der Bluetooth-Schnittstelle
kommunizieren .
Die Steuerschaltung ist erfindungsgemäß dazu ausgebildet,
Daten von einem Bluetooth-Endgerät zu empfangen und diese der Steuerschaltung bereitzustellen, wobei die Steuerschaltung dazu ausgebildet ist, die empfangenen Daten zu verarbeiten und die Firmware und / oder Einstellungen in dem Speicher anhand der Daten anzupassen.
Erfindungsgemäß wird also weitere Kommunikationsmöglichkeit mit der Steuerschaltung der 3D-Kamera bereitgestellt, wobei diese Kommunikationsmöglichkeit auch einem „normalen" Benutzer offen steht. Erfindungsgemäß wird diese
Kommunikationsmöglichkeit durch eine Bluetooth-Schnittstelle geschaffen, die kostengünstig bereitstellbar ist und von
„Jedermann" genutzt werden kann. Lediglich die Bereitstellung der Bluetooth-Schnittstelle ist aber nicht ausreichend, es muss auch gewährleistet sein, dass diese Daten der Steuerschaltung der 3D-Kamera bereitgestellt werden können, d.h. dass die
Steuerschaltung dazu ausgebildet ist, Daten von der Bluetooth- Schnittstelle zu empfangen. Schließlich muss gewährleitet sein, dass die empfangenen Daten auch verarbeitet werden können, d.h. die Steuerschaltung muss dazu ausgelegt sein, die empfangenen Daten zu verarbeiten und die Firmware und / oder Einstellungen in dem Speicher anhand der Daten anzupassen. Nur eine
Kombination der oben genannten Merkmale ermöglicht es einem Benutzer, Änderungen an der Arbeitsweise der 3D-Kamera
vorzunehmen, diese beispielsweise an „Eigenarten" eines
Benutzers anzupassen und so die Benutzerfreundlichkeit zu erhöhen. Auch die Anpassung (Updaten) der Firmware erhöht die Benutzerfreundlichkeit, da ein solches Update regelmäßig die Erkennungsrate erhöht und die Verarbeitungsgeschwindigkeit erhöht .
Um zu vermeiden, dass die Bluetooth-Schnittstelle ständig versucht mit weiteren fahrzeuginternen Bluetooth-Schnittstellen zu kommunizieren kann es vorgesehen sein, dass die Kommunikation der Bluetooth-Schnittstelle in der Sensoreinrichtung mit anderen fahrzeuginternen Bluetooth-Schnittstellen unterbunden ist. Dies kann beispielsweise erfolgen, indem der Bluetooth-Schnittstelle der erfindungsgemäßen Sensoreinrichtung die individuellen und unverwechselbaren MAC-Adressen anderer fahrzeuginterner
Bluetooth-Schnittstellen bereitgestellt sind und eine
Kommunikation mit diesen unterbunden wird. Zur Verringerung des Stromverbrauchs kann die Bluetooth- Schnittstelle nach dem Bluetooth 4.0 Standard arbeiten.
Bevorzugt ist die Sensoreinrichtung insgesamt in einem einheitlichen Gehäuse aufgenommen, also die 3D-Kamera mit
Pulslichtquelle, Erfassungschip, und zugehörigen Komponenten sowie die Bluetooth-Schnittstelle. Auf diese Weise ist eine kompakte Sensoreinrichtung geschaffen, die in Halterungen oder Ausnehmungen am Fahrzeug einsetzbar ist. Die Ansteuerung sowie Versorgung erfolgt über einen einheitlichen Kabelbaum, wobei insbesondere eine Steckerverbindung zur Kopplung mit einem
Kabelbaum vorgesehen ist.
Es ist besonders vorteilhaft, wenn die Sensoreinrichtung eine einheitliche Platine für die Pulslichtquelle, den
Erfassungschip und die Bluetooth-Schnittstelle aufweist. Auf diese Weise ist eine feste Relation der Abstände und
Ausrichtungen der Komponenten gewährleistet und eine
Verschiebung der Komponenten durch Vibrationen oder
Umwelteinflüsse ist ausgeschlossen.
Die Aufgabe wird ferner gelöst durch ein Verfahren nach Patentanspruch 6. Gemäß dem erfindungsgemäßen Verfahren zum Betreiben einer Sensoreinrichtung zur optischen Erfassung von Objekten und deren räumlichen Bewegungen wird eine mit einer Steuerschaltung einer 3D-Kamera gekoppelte Bluetooth- Schnittstelle mit einem Bluetooth-Endgerät gekoppelt und
empfängt von diesem Bluetooth-Endgerät Daten. Ein „Koppeln" kann beispielsweise erfolgen, indem bei dem Bluetooth-Endgerät ein vorgegebener Bluetooth-PIN-Code der Bluetooth-Schnittstelle der Sensoreinrichtung eingegeben wird. Nach dem ersten „Pairing" ist eine solche Eingabe überflüssig, die Bluetooth-Schnittstellen erkennen sich gegenseitig anhand eines gespeicherten „Link Keys" .
Die empfangenen Daten werden von der Bluetooth-Schnittstelle an die Steuerschaltung weitergeleitet, und, basierend auf den Daten, werden Einstellungen und/oder eine Firmware, die in einem Speicher der Steuerschaltung gespeichert sind, angepasst.
Die 3D-Kamera steuert die Pulslichtquelle und den
lichtsensitiven Erfassungschip und verarbeitet von dem lichtsensitiven Erfassungschip empfangene Signale, und zwar basierend auf der in dem Speicher der Steuerschaltung abgelegten angepassten Firmware und/oder basierend auf in dem Speicher abgelegten angepassten Einstellungen.
Um dem Benutzer zu ermöglichen, das Ergebnis einer Anpassung zu prüfen ist es bei einer bevorzugten Ausführungsform
vorgesehen, dass vor und/oder nach dem Anpassen der
Einstellungen und/oder der Firmware Diagnosedaten über die
Bluetooth-Schnittstelle an das Bluetooth-Endgerät gesendet werden.
Eine bevorzugte Ausführungsform der Sensoreinrichtung sowie des Verfahrens zum Betreiben der Sensoreinrichtung wird anhand einer beiliegenden Zeichnung näher erläutert, in welcher
Figur 1 schematisch die Anordnung einer Ausführungsform an einem Fahrzeug zeigt, und
Figur 2 ein Blockschaltbild der bevorzugten Ausführungsform der erfindungsgemäßen Sensoreinrichtung zeigt.
In Figur 1 ist das Heck eines Fahrzeuges 1 gezeigt. Eine Sensoreinrichtung 2 ist im heckseitigen Stoßfänger des
Fahrzeuges angeordnet. Der Detektionsbereich 3 einer 3D-Kamera in der Sensoreinrichtung ist nach unten, hinten vom Fahrzeug weg gerichtet. Diese 3D-Kamera ist dazu vorgesehen, die
Bedienungsgeste für die Betätigung einer Heckklappe zu erfassen. Dazu kann der Benutzer in dem Bereich 3 eine Geste mit seinem Fuß ausführen, die als Bedienungsgeste erkannt wird und eine Öffnen oder Schließen der Heckklappe des Fahrzeuges 1 auslöst. Bei der Sensoreinrichtung 1, die unter anderem eine Bluetooth- Schnittstelle umfasst, ist ein Bluetooth-Endgerät 4 angedeutet, mit welchem Daten an die Sensoreinrichtung übermittelt oder von dieser empfangen werden können. Bei dem Bluetooth-Endgerät kann es sich um ein Smartphone, ein Tablet oder ähnliche Bluetooth¬ fähige Geräte handeln. Wie das Bluetooth-Endgerät mit der
Sensoreinrichtung gekoppelt werden kann ist unter Bezugnahme auf Figur 2 kurz dargestellt.
Figur 2 zeigt die Sensoreinrichtung 2 in einem schematischen
Blockschaltbild. Ein einheitliches Gehäuse 10 ist als Schutz ausgebildet und nimmt eine Platine 11 auf. Die Platine 11 weist Anschlüsse 12 auf, die mit einem Steckverbinder zur Kopplung der Sensoreinrichtung 2 mit einem Kabelbaum am Fahrzeug ausgebildet ist. Über den Kabelbaum wird beispielsweise einer zentralen (nicht dargestellten) Steuereinrichtung in dem Kraftfahrzeug mitgeteilt, dass eine Bedienungsgeste erkannt wurde.
Entsprechend der erkannten Bedienungsgeste wird die Heckklappe geöffnet oder geschlossen.
Auf der Platine 11 ist eine Pulslichtquelle 13 ausgebildet, bei der dargestellten Ausführungsform eine Laserdiode im nahen Infrarotbereich mit einer vorgesetzten Aufweitungsoptik . Die Laserdiode 13 ist mit einer Treiberschaltung 14 gekoppelt, welche die Laserdiode zur Aussendung von kurzen Pulsen im
Nanosekundenbereich ansteuert. Die Treiberschaltung 14 wiederum ist mit einer Steuerschaltung 15 gekoppelt, die auch den
lichtsensitiven Erfassungschip 16 ansteuert. Der Erfassungschip weist in dieser Ausführungsform ein Pixelarray von 30x30 Pixeln auf. Eine solche Pixelmatrix ist für Erfassungen von
Bewegungsgesten ausreichen, es können jedoch auch Arrays mit abweichender Auflösung eingesetzt werden.
Die Komponenten 13, 14, 15, 16 bilden die 3D-Kamera, die nach dem Laufzeitprinzip arbeitet. Die Steuerschaltung 15 der 3D-Kamera ist erfindungsgemäß mit einer Bluetooth-Schnittstelle 17 gekoppelt. Über diese können der Steuerschaltung 15 Daten bereitgestellt werden, und erfindungsgemäß kann die
Steuerschaltung 15 anhand dieser Daten Einstellungen und / oder die Firmware der Steuerschaltung, die in einem Speicher 15b abgelegt ist, anpassen. Auf der Basis der angepassten Firmware und/oder der angepassten Einstellungen kann die Steuerschaltung die von dem lichtsensitiven Erfassungschip erhaltenen Daten verarbeiten und ermitteln, ob eine Bedienungsgeste vorliegt.
Die Bluetooth-Schnittstelle 17 kann ebenfalls ganz oder zumindest teilweise auf der Platine 11 ausgebildet sein. Ferner kann die Sensoreinrichtung eine Hilfs-Steuerschaltung 18 umfassen. Mithilfe dieser Hilfs-Steuerschaltung, oder mit Hilfe der Steuerschaltung der 3D-Kamera, kann die
Kommunikationsberechtigung des Bluetooth-Endgeräts 4 ermittelt werden. Dazu können beispielsweise über den Kabelbaum Informationen bereitgestellt werden, anhand welcher ermittelt werden kann, ob das Bluetooth-Endgerät berechtigt ist, Daten an die Steuerschaltung zu senden. Nur wenn dies bestätigt ist, können die Daten gesendet und ggf. eine Anpassung von
Einstellungen oder der Firmware vorgenommen werden.
Beispielsweise ist es denkbar, dass die zentrale
Steuereinrichtung des Kraftfahrzeuges der Steuerschaltung die MAC-Adressen solcher Bluetooth-Endgeräte mitteilt, die mit der Sensoreinrichtung kommunizieren dürfen und/oder solche, die nicht mit der Sensoreinrichtung kommunizieren dürfen bzw. sollen (z.B. weitere fahrzeuginterne Bluetooth-Schnittstellen,
beispielsweise zum Anbinden eines Smartphones) .
Alternativ (oder zusätzlich) kann die
Kommunikationsberechtigung hergestellt werden, indem über das Bluetooth-Endgerät ein vorgegebener bzw. einprogrammierter Bluetooth-PIN-Code eingegeben wird. Wird der Code richtig eingegeben wird für beide Schnittstellen (die der
Sensoreinrichtung und die des Endgeräts) ein Link Key erstellt, der in beiden Schnittstellen gespeichert wird. Nach diesem als „Pairing" bezeichneten Vorgang kann das Endgerät bei vorhandenem Link Key ohne Eingabe eines Bluetooth-PIN-Codes mit der
Schnittstelle der Sensoreinrichtung gekoppelt werden. Geht der Link Key verloren, ist eine Neu-Authentifizierung notwendig.
Die Pulslichtquelle 13 definiert mit dem Erfassungschip 16 zusammen eine optische Achse 20. In Verlängerung der optischen Achse 20 ist bei der in Figur 2 gezeigten Ausführungsform eine Markierungslichtquelle 21 ausgebildet. In diesem Beispiel ist die Markierungslichtquelle 21 eine leistungsstarke Leuchtdiode. Die Markierungslichtquelle 21, der Erfassungschip 16 und die Pulslichtquelle 13 liegen also innerhalb eines einheitlichen Gehäuses 10 und auf einer gemeinsamen Platine 11 entlang einer optischen Achse 20. Die Markierungslichtquelle 21 ist außerdem benachbart zu den Anschlüssen 12 angeordnet. Zuleitungsbleche 22a, 22b liefern die Betriebsspannung der Markierungslichtquelle 21. Eine zugehörige Treiberschaltung 23 ist mit den Zuleitungen 22a, 22b gekoppelt und mit der Schaltung 15, welche auch die Zuschaltung der Markierungslichtquelle koordiniert. Die vorgeschlagene Anordnung ist eine kompakte, einheitliche Sensoreinrichtung mit einer 3D-Erfassung und Markierung eines Bedienbereiches. Da die Komponenten gemeinsam mit einem Gehäuse aufgenommen sind und zueinander dauerhaft ausgerichtet sind, ist der Einbau am Fahrzeug besonders einfach und zuverlässig.

Claims

Patentansprüche
1. Sensoreinrichtung (1) für ein Kraftfahrzeug zur optischen Erfassung von Objekten und deren räumlichen
Bewegungen, aufweisend,
eine 3D-Kamera, die räumliche Daten mit einem
Laufzeitverfahren erfasst, wobei die 3D-Kamera eine
Pulslichtquelle (13), eine Treiberschaltung (14), eine
Steuerschaltung (15) mit einem Speicher (15b) sowie einen lichtsensitiven Erfassungschip (16) umfasst,
wobei die Steuerschaltung (15) basierend auf einer in dem Speicher (15b) abgelegten Firmware und/oder basierend auf in dem Speicher (15b) abgelegten Einstellungen
die Pulslichtquelle (13) und den lichtsensitiven
Erfassungschip (16) steuert und von dem lichtsensitiven Erfassungschip (16) empfangene Signale verarbeitet,
dadurch gekennzeichnet,
dass die Sensoreinrichtung (1) eine mit der
Steuerschaltung (15) gekoppelte Bluetooth-Schnittstelle (17) aufweist, wobei die Bluetooth-Schnittstelle (17) dazu ausgebildet ist, mit einem Bluetooth-Endgerät (4) außerhalb des Kraftfahrzeuges in Kontakt zu treten und von diesem Bluetooth-Endgerät (4) Daten zu empfangen und diese der Steuerschaltung (15) bereitzustellen, und
die Steuerschaltung (15) dazu ausgebildet ist, die empfangenen Daten zu verarbeiten und die Firmware und / oder Einstellungen in dem Speicher (15b) anhand der Daten
anzupassen .
2. Sensoreinrichtung (1) nach Anspruch 1, dadurch gekennzeichnet, dass eine Kommunikation der Bluetooth- Schnittstelle (17) mit weiteren kraftfahrzeuginternen
Bluetooth-Schnittstellen verhindert ist.
3. Sensoreinrichtung (1) nach einem der Ansprüche 1 oder
2, dadurch gekennzeichnet, dass die 3D-Kamera und die Bluetooth-Schnittstelle (17) in einem gemeinsamen Gehäuse (10) aufgenommen sind.
4. Sensoreinrichtung nach einem der Ansprüche 1 - 3, dadurch gekennzeichnet, dass die Pulslichtquelle (13), der Erfassungschip (16) und die Bluetooth-Schnittstelle (17) auf einer gemeinsamen Platine (11) angeordnet sind.
5. Verfahren zum Betreiben einer Sensoreinrichtung (1) zur optischen Erfassung von Objekten und deren räumlichen
Bewegungen, wobei
eine mit einer Steuerschaltung (15) einer 3D-Kamera gekoppelte Bluetooth-Schnittstelle (17) mit einem Bluetooth- Endgerät (4) gekoppelt wird und von dem Bluetooth-Endgerät (17) Daten empfängt,
diese Daten von der Bluetooth-Schnittstelle an die
Steuerschaltung (15) weitergeleitet werden,
basierend auf den Daten Einstellungen und/oder eine
Firmware, die ein einem Speicher (15b) der Steuerschaltung gespeichert sind, angepasst wird, und
die 3D-Kamera basierend auf der in dem Speicher (15b) der Steuerschaltung (15) abgelegten Firmware und/oder basierend auf in dem Speicher (15b) abgelegten Einstellungen
die Pulslichtquelle (13) und den lichtsensitiven
Erfassungschip (16) steuert und von dem lichtsensitiven
Erfassungschip (16) empfangene Signale verarbeitet.
6. Verfahren zum Betreiben einer Sensoreinrichtung (1) zur optischen Erfassung von Objekten und deren räumlichen
Bewegungen nach Anspruch 5, dadurch gekennzeichnet, dass vor und/oder nach dem Anpassen der Einstellungen und/oder der Firmware Diagnosedaten über die Bluetooth-Schnittstelle (17) an das Bluetooth-Endgerät (4) gesendet werden.
PCT/EP2016/070815 2015-10-21 2016-09-05 Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung WO2017067697A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP16770449.3A EP3365702A1 (de) 2015-10-21 2016-09-05 Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015117967.9 2015-10-21
DE102015117967.9A DE102015117967A1 (de) 2015-10-21 2015-10-21 Sensoreinrichtung zur optischen Erfassung von Bedienungsgesten an Fahrzeugen und Verfahren zum Betreiben der Sensoreinrichtung

Publications (1)

Publication Number Publication Date
WO2017067697A1 true WO2017067697A1 (de) 2017-04-27

Family

ID=56990409

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2016/070815 WO2017067697A1 (de) 2015-10-21 2016-09-05 Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung

Country Status (3)

Country Link
EP (1) EP3365702A1 (de)
DE (1) DE102015117967A1 (de)
WO (1) WO2017067697A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020160649A1 (en) * 2019-02-04 2020-08-13 Photon Control Inc. Low profile optical sensor

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008116699A2 (de) 2007-03-23 2008-10-02 Continental Automotive Gmbh Optischer sensorchip und einklemmschutzvorrichtung mit einem solchen
DE102008025669A1 (de) 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Fahrzeugschliesseinrichtungsbetätigungsvorrichtung und Verfahren für nicht freie Hände
DE102010037509A1 (de) * 2010-09-13 2012-03-15 Huf Electronics Gmbh Sensoreinrichtung für ein Kraftfahrzeug
DE102010037577A1 (de) * 2010-09-16 2012-03-22 Huf Electronics Gmbh Erfassungsverfahren für Betätigungsgesten und zugehöriges Kalibrierungsverfahren
WO2012084222A1 (de) 2010-12-24 2012-06-28 Volkswagen Aktiengesellschaft Verfahren zum automatischen betätigen eines schliesselements eines fahrzeugs sowie entsprechende vorrichtung und fahrzeug
WO2013001084A1 (de) 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen
US20140049609A1 (en) * 2012-08-14 2014-02-20 Microsoft Corporation Wide angle depth detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008116699A2 (de) 2007-03-23 2008-10-02 Continental Automotive Gmbh Optischer sensorchip und einklemmschutzvorrichtung mit einem solchen
DE102008025669A1 (de) 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Fahrzeugschliesseinrichtungsbetätigungsvorrichtung und Verfahren für nicht freie Hände
DE102010037509A1 (de) * 2010-09-13 2012-03-15 Huf Electronics Gmbh Sensoreinrichtung für ein Kraftfahrzeug
DE102010037577A1 (de) * 2010-09-16 2012-03-22 Huf Electronics Gmbh Erfassungsverfahren für Betätigungsgesten und zugehöriges Kalibrierungsverfahren
WO2012084222A1 (de) 2010-12-24 2012-06-28 Volkswagen Aktiengesellschaft Verfahren zum automatischen betätigen eines schliesselements eines fahrzeugs sowie entsprechende vorrichtung und fahrzeug
WO2013001084A1 (de) 2011-06-30 2013-01-03 Johnson Controls Gmbh Vorrichtung und verfahren zur berührungslosen erfassung von gegenständen und/oder personen und von diesen ausgeführten gesten und/oder bedienvorgängen
US20140049609A1 (en) * 2012-08-14 2014-02-20 Microsoft Corporation Wide angle depth detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Optimized Distance Measurement with 3D-CMOS Image Sensor and Real-Time Processing of the 3D Data for Applications in Automotive and Safety Engineering", BERNHARD KÖNIG, FAKULTÄT FÜR INGENIEURWISSENSCHAFTEN DER UNIVERSITÄT DUISBURG-ESSEN, 2008
"Photodetektoren und Auslesekonzepte für 3D-Timeof-Flight-Bildsensoren in 0,35 pm-Standard-CMOS-Technologie", ANDREAS SPICKERMANN, FAKULTÄT FÜR INGENIEURWISSENSCHAFTEN DER, UNIVERSITÄT DUISBURG-ESSEN, 2010

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020160649A1 (en) * 2019-02-04 2020-08-13 Photon Control Inc. Low profile optical sensor

Also Published As

Publication number Publication date
DE102015117967A1 (de) 2017-04-27
EP3365702A1 (de) 2018-08-29

Similar Documents

Publication Publication Date Title
EP3033251B1 (de) Sensoranordnung zur erfassung von bediengesten an fahrzeugen
EP2946226B1 (de) Universelle sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE102016219455B4 (de) Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
DE102014101208A1 (de) Montagemodul
WO2014111286A1 (de) Sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE102017120502A1 (de) Fahrzeugeindringerkennung über eine Surround-View-Kamera
US20200210765A1 (en) Semantic segmentation using driver attention information
DE102006010295A1 (de) Kamerasystem mit zumindest zwei Bildaufnehmern
DE112018002395T5 (de) Optischer sensor und elektronische vorrichtung
DE102017118083A1 (de) Sensor zur Erfassung eines Objekts und Verfahren zum Einstellen eines Schaltpunktes
WO2017028984A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
DE112020006097T5 (de) Ebs/tof/rgb-kamera zur intelligenten überwachung und detektion von eindringlingen
DE112021004025T5 (de) Festkörperbildgebungsvorrichtung und steuerverfahren derselben
WO2017041915A1 (de) Sensorsystem einer sensoreinrichtung eines kraftfahrzeugs
DE112020004621T5 (de) Lichtdetektierende Vorrichtung und System
EP3317695B1 (de) Sensoreinrichtung zur optischen erfassung von betätigungsgesten
EP3365702A1 (de) Sensoreinrichtung zur optischen erfassung von bedienungsgesten an fahrzeugen und verfahren zum betreiben der sensoreinrichtung
EP3314297B1 (de) Sensoreinrichtung zur optischen erfassung von betätigungsgesten
DE112020002709T5 (de) Bildgebungssystem
DE102017205383A1 (de) Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Kraftfahrzeugs
EP3317692A1 (de) Sensoranordnung zur optischen erfassung von bediengesten an fahrzeugen
DE102019211382A1 (de) System und Verfahren zur Verarbeitung von Umfeldsensordaten
DE102014213270A1 (de) Verfahren und Vorrichtung zum Überwachen eines zum Öffnen einer Klappe eines Fahrzeugs erforderlichen Raums
DE112020002990T5 (de) Abstandsmessvorrichtung und abstandsmessverfahren
WO2020049013A1 (de) Verfahren zum auswählen eines bildausschnitts eines sensors

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16770449

Country of ref document: EP

Kind code of ref document: A1