DE102020207068A1 - Verfahren und System zum Auslösen einer Funktion sowie Transportmittel - Google Patents

Verfahren und System zum Auslösen einer Funktion sowie Transportmittel Download PDF

Info

Publication number
DE102020207068A1
DE102020207068A1 DE102020207068.7A DE102020207068A DE102020207068A1 DE 102020207068 A1 DE102020207068 A1 DE 102020207068A1 DE 102020207068 A DE102020207068 A DE 102020207068A DE 102020207068 A1 DE102020207068 A1 DE 102020207068A1
Authority
DE
Germany
Prior art keywords
virtual button
actuation
determined
image data
basis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102020207068.7A
Other languages
English (en)
Inventor
Günter Wolf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Mobility GmbH
Original Assignee
Siemens Mobility GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Mobility GmbH filed Critical Siemens Mobility GmbH
Priority to DE102020207068.7A priority Critical patent/DE102020207068A1/de
Publication of DE102020207068A1 publication Critical patent/DE102020207068A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03KPULSE TECHNIQUE
    • H03K17/00Electronic switching or gating, i.e. not by contact-making and –breaking
    • H03K17/94Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated
    • H03K17/941Electronic switching or gating, i.e. not by contact-making and –breaking characterised by the way in which the control signals are generated using an optical detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren (100) und ein System (1) zum Auslösen einer Funktion, insbesondere in einem Transportmittel (10), sowie ein Transportmittel (10) mit einem solchen System (1). Dabei wird ein Betätigungsobjekt (3) mithilfe einer Kamera (2) erfasst und entsprechende Bilddaten (B) erzeugt. Erfindungsgemäß wird auf Grundlage der Bilddaten (B) eine Lage des Betätigungsobjekts (3) relativ zu einer virtuellen Schaltfläche (5) ermittelt und auf Grundlage der ermittelten relativen Lage ein Steuerungssignal (S) erzeugt.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und ein System zum Auslösen einer Funktion, insbesondere in einem Transportmittel, sowie ein Transportmittel mit einem solchen System.
  • In Gebäuden oder Transportmitteln wie zum Beispiel Bussen, Flugzeugen oder Zügen, sind zur Auslösung von Funktionen üblicherweise Schalter oder Taster vorgesehen. Durch Betätigung eines solchen Schalters oder Tasters kann dabei ein Steuerungssignal, zum Beispiel in Form eines elektrischen Stroms bzw. einer elektrischen Spannung, erzeugt werden, welches dann die entsprechende Funktion direkt oder über eine nachgeschaltete Elektronik indirekt auslöst. Auf diese Weise kann zum Beispiel ein Leuchtmittel an- und/oder ausgeschaltet oder Servicepersonal zu einem Sitzplatz gerufen werden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, das Auslösen einer Funktion zu verbessern, insbesondere kostengünstiger zu ermöglichen und/oder den Wartungsaufwand zu reduzieren.
  • Diese Aufgabe wird gelöst durch ein Verfahren und ein System zum Auslösen einer Funktion, insbesondere in einem Transportmittel, sowie einem Transportmittel mit einem solchen System gemäß den unabhängigen Ansprüchen.
  • Bei einem, insbesondere computerimplementierten, Verfahren zum Auslösen einer Funktion, insbesondere in einem Transportmittel, gemäß einem ersten Aspekt der Erfindung wird ein Betätigungsobjekt mithilfe einer Kamera erfasst und entsprechende Bilddaten erzeugt. Erfindungsgemäß wird auf Grundlage der Bilddaten eine Lage des Betätigungsobjekts relativ zu einer virtuellen Schaltfläche ermittelt und auf Grundlage der ermittelten relativen Lage ein Steuerungssignal erzeugt.
  • Eine virtuelle Schaltfläche im Sinne der Erfindung ist insbesondere eine räumlich begrenzte Fläche, zum Beispiel auf einer Oberfläche eines Bauteils, die einer bestimmten Funktion zugeordnet ist. Mit anderen Worten ist eine virtuelle Schaltfläche eine Fläche, zum Beispiel ein Oberflächenabschnitt eines Bauteils, mit der ein Benutzer interagieren und die eine mit der Fläche assoziierte Funktion auslösen kann.
  • Ein Betätigungsobjekt im Sinne der Erfindung ist insbesondere ein Objekt zur Betätigung einer Schaltfläche, insbesondere einer virtuellen Schaltfläche. Das Betätigungsobjekt kann beispielsweise von einem, vorzugsweise ausgestreckten, Finger eines Benutzers, einem Stift und/oder dergleichen gebildet sein.
  • Bilddaten im Sinne der Erfindung sind insbesondere Daten, welche ein mithilfe einer Kamera aufgenommenes Bild charakterisieren. Bilddaten können zum Beispiel Bildpunkten zugeordnete Intensitäts- und/oder Farbinformation enthalten. Dabei charakterisieren Bilddaten vorzugsweise auch Bilderströme. Mit anderen Worten fallen unter den Begriff Bilddaten auch Videodaten bzw. entsprechende Datenströme, sodass auf Grundlage von Bilddaten auch eine Dynamik bzw. zeitliche Entwicklung ermittelt bzw. beurteilt werden kann.
  • Eine Lage eines Objekts relativ zu einem anderen Objekt im Sinne der Erfindung ist insbesondere eine Anordnung des Objekts relativ zu dem anderen Objekt. Bei der Lage des Objekts kann, muss es sich aber nicht um eine räumliche Position des Objekts handeln, also eine Position im dreidimensionalen Raum, die beispielsweise durch ein Tupel aus drei Koordinaten etwa in Form eines Vektors definiert ist. Eine Lage des Objekts kann sich auch auf die Anordnung relativ zum anderen Objekt in einem zweidimensionalen Bild handeln, in der die Beabstandung in einer dritten Dimension keine Rolle spielt.
  • Ein Aspekt der Erfindung basiert auf dem Ansatz, eine virtuelle Schaltfläche vorzusehen und deren Betätigung, zum Beispiel durch ein Betätigungsobjekt, auf der Grundlage von Bilddaten festzustellen, die von einer Kamera erzeugt werden. Zu diesem Zweck kann das Betätigungsobjekt, zum Beispiel eine Hand, insbesondere ein Finger, durch die Kamera erfasst werden. Die dabei erzeugten Bilddaten werden dann vorzugsweise genutzt, um eine Lage des Betätigungsobjekts mit einer Lage der virtuellen Schaltfläche zu korrelieren. Anhand der Bilddaten kann beispielsweise geprüft werden, ob das erfasste Betätigungsobjekt der virtuellen Schaltfläche zuordenbar ist. Die Korrelation bzw. ein durch sie erzeugter Wert kann dann der Erzeugung eines Steuerungssignals zugrunde gelegt werden.
  • Dabei ist es nicht notwendig, dass die virtuelle Schaltfläche selbst mechanische oder elektronische Komponenten, zum Beispiel Schalter oder Sensoren, aufweist, um eine Betätigung zu detektieren. Stattdessen ist die Betätigung etwa von einer Datenverarbeitungsvorrichtung alleine auf Grundlage der Bilddaten feststellbar. Eine aufwändige Verkabelung von konventionellen mechanischen oder elektronischen Schaltflächen kann somit entfallen, wodurch sich nicht nur Kosten senken lassen, sondern auch der Wartungsaufwand reduzierbar ist. Darüber hinaus ermöglicht das Vorsehen von virtuellen Schaltflächen und deren kamerabasierte Überwachung eine hohe Flexibilität bzw. Freiheit bei der Platzierung der Schaltflächen, wodurch sich wiederum eine effiziente Raumnutzung und/oder eine Komforterhöhung durch geeignete Platzierung der Schaltflächen erzielen lässt.
  • Eine virtuelle Schaltfläche ist nämlich vorzugsweise durch einen Abschnitt auf einer nahezu beliebigen Oberfläche eines Bauteils definiert. Beispielsweise können in einem Transportmittel, etwa in einem Zug, im Bereich jedes Sitzplatzes eine virtuelle Schaltfläche zur Bedienung eines Beleuchtungsmittels und/oder eine virtuelle Schaltfläche zum Rufen von Servicepersonal vorgesehen sein. Diese virtuelle(n) Schaltfläche(n) können sich zum Beispiel auf einer Gepäckablage, auf einem Vordersitz, auf einer Wandung und/oder dergleichen befinden.
  • Mithilfe einer Kamera wird dann vorzugsweise die Lage zum Beispiel eines ausgestreckten Fingers eines Passagiers relativ zu einer der virtuellen Schaltflächen ermittelt. Befindet sich der Finger zumindest in der Nähe einer der virtuellen Schaltflächen oder liegt gar darauf, kann ein entsprechendes Steuerungssignal zum An- oder Ausschalten des Beleuchtungsmittels bzw. zur Benachrichtigung von Servicepersonal erzeugt werden.
  • Dabei ist es auch denkbar, dass mithilfe der einen Kamera die Betätigung von mehr als einer virtuellen Schaltfläche detektiert werden kann. Die Kamera kann nämlich beispielsweise dazu eingerichtet sein, Betätigungsobjekte in einem Erfassungsbereich zu erfassen, der mehr als eine virtuelle Schaltfläche abdeckt bzw. aufweist. Da in diesem Fall nur eine Kamera und gegebenenfalls eine entsprechende Datenverarbeitungsvorrichtung benötigt wird anstelle vieler konventioneller Schalter oder Taster und deren Verkabelung bzw. Elektronik, lässt sich die Effizienz bei der Erzeugung von Steuerungssignalen signifikant erhöhen.
  • Zweckmäßigerweise wird zur Implementierung der Erfindung eine bereits vorhandene Kamera bzw. ein bereits vorhandenes Kamerasystem verwendet. Beispielsweise können Kameras zur Videoüberwachung, etwa des sogenannten iCCTVs von Siemens zum Erkennen der Sitzplatzbelegung, zum Erfassen von Fahrgastbewegungen und/oder zum Beurteilen von Gefahrenlagen in einem Zug, einfach zum Erfassen von Betätigungsobjekten bzw. dem Feststellen einer Betätigung von virtuellen Schaltflächen mitbenutzt werden. Mit einer derartigen, besonders effizienten Nutzung von bereits vorhandenen Kameras kann eine signifikante Kosteneinsparung erzielt werden. Es ist insbesondere auf einfache Weise möglich, bereits in Betrieb genommene Transportmittel nachzurüsten.
  • Nachfolgend werden bevorzugte Ausführungsformen der Erfindung und deren Weiterbildungen beschrieben, die jeweils, soweit dies nicht ausdrücklich ausgeschlossen wird, beliebig miteinander sowie mit den im Weiteren beschriebenen Aspekten der Erfindung kombiniert werden können.
  • In einer bevorzugten Ausführungsform wird auf Grundlage der Bilddaten ein Bewegungsmuster des Betätigungsobjekts, insbesondere eine Bewegung relativ zur virtuellen Schaltfläche, ermittelt und das Steuerungssignal auf Grundlage des ermittelten Bewegungsmusters erzeugt. Beispielsweise kann ermittelt werden, ob sich das erfasste Betätigungsobjekt in Richtung der virtuellen Schaltfläche bzw. auf die virtuelle Schaltfläche zubewegt. Dadurch lässt sich die Zuverlässigkeit, mit der eine Betätigung der virtuellen Schaltfläche detektiert wird, weiter erhöhen.
  • Es ist dabei denkbar, dass das ermittelte Bewegungsmuster mit einem vorgegebenen Bewegungsmuster verglichen und auf Grundlage eines Ergebnisses des Vergleichs das Steuerungssignal erzeugt wird. So lässt sich beispielsweise überprüfen, ob die vom Betätigungsobjekt ausgeführte Bewegung mit einer vorgegebenen Betätigungsgeste korrespondiert.
  • Zweckmäßigerweise werden zum Ermitteln des Bewegungsmusters aus den Bilddaten Bewegungsgrößen des Betätigungsobjekts abgeleitet, welche das Bewegungsmuster charakterisieren. Solche Bewegungsgrößen können zum Beispiel Bewegungsrichtung, Bewegungsgeschwindigkeit, Beschleunigung und/oder dergleichen abbilden. Dadurch kann die Lage des Betätigungsobjekts, insbesondere deren Dynamik, d. h. ihre zeitliche Veränderung, relativ zur virtuellen Schaltfläche besonders präzise beschrieben werden.
  • In einer weiteren bevorzugten Ausführungsform wird auf Grundlage des ermittelten Bewegungsmusters des Betätigungsobjekts geprüft, ob eine Bewegung des Betätigungsobjekts zum Auslösen der Funktion beabsichtigt ist. Insbesondere kann unterschieden werden zwischen einer Absicht, die virtuelle Schaltfläche zu betätigen (und damit die Funktion auszulösen) und einer zufälligen Bewegung, welche das Betätigungsobjekt zum Beispiel unbeabsichtigt in die Nähe der virtuellen Schaltfläche bringt. Mithilfe einer solchen Prüfung kann die Zuverlässigkeit der Funktionsauslösung erhöht werden.
  • Vorzugsweise werden zu diesem Zweck die Bewegungsgrößen des Betätigungsobjekts ermittelt und der Prüfung zugrunde gelegt. Repräsentieren die Bilddaten beispielsweise zweidimensionale Kamerabilder, kann aus der Bewegungsgeschwindigkeit und/oder der Beschleunigung geschlossen werden, ob eine Auslösung der Funktion gewünscht ist oder nicht. Ein mit hoher Geschwindigkeit und/oder unter häufigen Beschleunigungen bzw. Richtungswechseln bewegter Finger kann nämlich beispielsweise mit einem gesprächsbedingten Gestikulieren assoziiert werden, während ein, insbesondere in Richtung der virtuellen Schaltfläche, mit niedriger Geschwindigkeit konstant bewegter Finger auf eine Betätigungsabsicht hinweisen kann.
  • In einer weiteren bevorzugten Ausführungsform wird ein Abstand des Betätigungsobjekts zur virtuellen Schaltfläche ermittelt. Vorzugsweise wird dann geprüft, ob der ermittelte Abstand ein vorgegebenes Betätigungskriterium erfüllt. Beispielsweise kann geprüft werden, ob der ermittelte Abstand einen vorgegebenen Abstandsschwellenwert erreicht oder unterschreitet. Auf Grundlage eines Ergebnisses der Prüfung kann dann das Steuerungssignal erzeugt werden. Dabei lässt sich durch Berücksichtigung des Abstands eine Betätigungsabsicht besonders zuverlässig feststellen. Insbesondere kann das Risiko von Fehlinterpretationen von durch das Betätigungsobjekt ausgeführten Bewegungen bzw. Gesten beseitigt oder zumindest verringert werden.
  • Beispielsweise kann in einem zweidimensionalen Kamerabild eine virtuelle Größe des Betätigungsobjekts, d. h. seine Abmessung im Kamerabild, ermittelt und zweckmäßigerweise einem Abstand zugeordnet werden. Dem liegt der Gedanke zugrunde, dass ein sich nahe der Kamera befindliches Betätigungsobjekt einen größeren Anteil des Sichtbereichs (field of view) der Kamera einnimmt als ein weiter entferntes Betätigungsobjekt.
  • In einer weiteren bevorzugten Ausführungsform wird eine Verweildauer des Betätigungsobjekts in der ermittelten Lage relativ zur virtuellen Schaltfläche ermittelt. Vorzugsweise wird dann das Steuerungssignal auf Grundlage der ermittelten Verweildauer erzeugt. Beispielsweise kann geprüft werden, ob die ermittelte Verweildauer einen vorgegebenen Verweildauerschwellenwert erreicht oder überschreitet. In Abhängigkeit eines Ergebnisses der Prüfung ist dann das Steuerungssignal erzeugbar.
  • Dadurch kann die Zuverlässigkeit, mit der eine Betätigung der virtuellen Schaltfläche detektiert wird, weiter erhöht werden.
  • Beispielsweise kann ermittelt werden, wie lange sich das Betätigungsobjekt in der Nähe der virtuellen Schaltfläche, zum Beispiel in einem Abstand kleiner oder gleich dem vorgegebenen Abstandsschwellenwert, befindet. Erreicht oder überschreitet die derart ermittelte Verweildauer den vorgegebenen Verweildauerschwellenwert, kann mit hoher Sicherheit davon ausgegangen werden, dass die mit der virtuellen Schaltfläche korrespondierende Funktion ausgelöst werden soll.
  • Der vorgegebene Verweildauerschwellenwert entspricht zweckmäßigerweise im Wesentlichen einer Kontaktdauer, mit der ein Finger bei der Betätigung einer konventionellen Schaltfläche mit dieser Schaltfläche in Kontakt tritt. Der vorgegebene Verweildauerschwellenwert kann beispielsweise zwischen 10 und 1000 ms, vorzugsweise zwischen 50 und 500 ms, betragen. Dadurch kann mit besonders großer Sicherheit auf eine Betätigungsabsicht geschlossen werden.
  • In einer weiteren bevorzugten Ausführungsform wird das Betätigungsobjekt von wenigstens einer weiteren Kamera, insbesondere redundant, erfasst und entsprechende weitere Bilddaten erzeugt. Dabei wird die Lage des Betätigungsobjekts relativ zur virtuellen Schaltfläche vorzugsweise auf Grundlage der Bilddaten und/oder der weiteren Bilddaten ermittelt. Mit anderen Worten kann eine vermeintliche Betätigung der virtuellen Schaltfläche mithilfe der weiteren Kamera bzw. der von ihr erzeugten weiteren Bilddaten überprüft bzw. verifiziert werden. Gegebenenfalls können die weiteren Bilddaten der Erzeugung des Steuerungssignals insbesondere dann zugrunde gelegt werden, wenn die Bilddaten der (Haupt-)Kamera nicht zur Verfügung stehen, etwa weil eine Sichtlinie zwischen der (Haupt-)Kamera und der virtuellen Schaltfläche versperrt wird. Dies ermöglicht eine Ausräumung oder zumindest Verminderung des Ausfallrisikos.
  • In einer weiteren bevorzugten Ausführungsform wird die ermittelte Lage des Betätigungsobjekts, insbesondere dessen Ausrichtung, relativ zur virtuellen Schaltfläche mit einer vorgegebenen Lage bzw. Ausrichtung verglichen. Das Steuerungssignal wird dann vorzugsweise auf Grundlage eines Ergebnisses des Vergleichs erzeugt. Dadurch kann die Betriebszuverlässigkeit weiter erhöht werden.
  • Beispielsweise kann so besonders präzise geprüft werden, ob sich das Betätigungsobjekt auf der virtuellen Schaltfläche befindet, insbesondere ob das Betätigungsobjekt die virtuelle Schaltfläche kontaktiert oder ob eine Kontaktierung in der ermittelten Ausrichtung des Betätigungsobjekts überhaupt möglich ist. Eine solche Prüfung ist vorteilhaft, wenn davon ausgegangen wird, dass die virtuelle Schaltfläche mit einem Finger betätigt wird, den der Benutzer zur Auslösung der Funktion kurz auf der virtuellen Schaltfläche ablegt oder auf die virtuelle Schaltfläche drückt.
  • In einer weiteren bevorzugten Ausführungsform wird das Steuerungssignal mithilfe künstlicher Intelligenz erzeugt. Zu diesem Zweck kann die künstliche Intelligenz, zum Beispiel ein neuronales Netz, darauf trainiert sein, die Lage und/oder die Bewegung des Betätigungsobjekts relativ zur virtuellen Schaltfläche zu ermitteln und zu bewerten, insbesondere auf eine Betätigung der virtuellen Schaltfläche zu schließen. Die künstliche Intelligenz kann insbesondere darauf trainiert sein, auf Grundlage der Bilddaten (i) den Abstand zwischen dem Betätigungsobjekt und der virtuellen Schaltfläche, (ii) die Verweildauer in der ermittelten Lage und/oder (iii) das Bewegungsmuster des Betätigungsobjekts zu ermitteln und/oder (iv) zu prüfen, ob die Lage des Betätigungsobjekts zumindest im Wesentlichen mit der vorgegebenen Lage korrespondiert. Dadurch kann nicht nur eine besonders hohe Betriebszuverlässigkeit erreicht werden, sondern es besteht auch die Möglichkeit, diese im Betrieb durch weiteres Training der künstlichen Intelligenz weiter zu erhöhen.
  • Ein System zum Erzeugen eines Steuerungssignals, insbesondere in einem Transportmittel, gemäß einem zweiten Aspekt der Erfindung ist vorzugsweise dazu eingerichtet, das Verfahren gemäß dem ersten Aspekt der Erfindung auszuführen. Zweckmäßigerweise weist das System eine Kamera zum Erfassen eines Betätigungsobjekts und zum Erzeugen entsprechender Bilddaten sowie einer Datenverarbeitungsvorrichtung zum Verarbeiten der Bilddaten sowie eine virtuelle Schaltfläche zum Betätigen durch das Betätigungsobjekt auf. Die Datenverarbeitungsvorrichtung ist dabei vorzugsweise dazu eingerichtet, auf Grundlage der Bilddaten eine Lage des Betätigungsobjekts relativ zur virtuellen Schaltfläche zu ermitteln und auf Grundlage der ermittelten relativen Lage ein Steuerungssignal zu erzeugen.
  • In einer bevorzugten Ausführungsform ist die virtuelle Schaltfläche durch eine Markierung gekennzeichnet. Die virtuelle Schaltfläche kann beispielsweise ein Symbol, insbesondere ein Piktogramm, umfassen, welches vorzugsweise die mit der virtuellen Schaltfläche korrespondierende Funktion schematisch bzw. abstrakt darstellt. Dadurch kann einem Benutzer zum Beispiel kenntlich gemacht werden, welcher Abschnitt einer Oberfläche die virtuelle Schaltfläche bildet bzw. zur Auslösung der Funktion berührbar ist.
  • In einer weiteren bevorzugten Ausführungsform weist die virtuelle Schaltfläche einen QR-Code auf. Dabei kann der QR-Code die Markierung der virtuellen Schaltfläche bilden oder zusätzlich zu einem Symbol, insbesondere einem Piktogramm, vorgesehen sein. Über den QR-Code kann der virtuellen Schaltfläche besonders leicht eine spezifische Funktion zugeordnet werden, insbesondere wenn mehrere virtuelle Schaltflächen im Erfassungsbereich der Kamera angeordnet sind.
  • Zu diesem Zweck ist die Datenverarbeitungsvorrichtung vorzugsweise dazu eingerichtet, den QR-Code, etwa aus den Bilddaten, zu lesen und die darin codierte Information bei der Erzeugung des Steuerungssignals zu berücksichtigen. Dadurch lässt sich die Unterscheidung von mehreren im Erfassungsbereich der Kamera angeordneten virtuellen Schaltflächen und die Auslösung der entsprechenden Funktion mithilfe des Steuerungssignals erleichtern.
  • In einer weiteren bevorzugten Ausführungsform ist die Kamera dazu eingerichtet, die räumliche Position des Betätigungsobjekts zu erfassen und Sensordaten zu erzeugen, welche die räumliche Position des Betätigungsobjekts charakterisieren. Mit anderen Worten kann die Kamera als 3D-Kamera eingerichtet sein, sodass die von ihr erzeugten Bilddaten eine Tiefen- bzw. Abstandsinformation enthalten. Auf Grundlage der Sensordaten bzw. der Tiefeninformation kann so die räumliche Position des Betätigungsobjekts relativ zur virtuellen Schaltfläche, insbesondere der räumliche Abstand zwischen dem Betätigungsobjekt und der virtuellen Schaltfläche, präzise bestimmt werden. Dies erlaubt eine leichtere Beurteilung der Frage, ob eine Betätigungsabsicht vorliegt oder nicht. Insbesondere kann so besonders präzise ermittelt werden, ob ein Bewegungsmuster des Betätigungsobjekts einer Betätigungsgeste entspricht.
  • In einer weiteren bevorzugten Ausführungsform ist die Kamera als Stereokamera oder Time-of-Flight-Kamera ausgebildet. Mit einer derart ausgebildeten Kamera können die Sensordaten bzw. eine entsprechende Tiefeninformation leicht erzeugt werden.
  • In einer weiteren bevorzugten Ausführungsform ist der virtuellen Schaltfläche ein räumlicher Betätigungsbereich zugeordnet. Die Kamera weist vorzugweise einen räumlichen Erfassungsbereich auf, der den räumlichen Betätigungsbereich enthält. Der räumliche Betätigungsbereich entspricht dabei zweckmäßigerweise einem Volumen unmittelbar vor der virtuellen Schaltfläche. Die Datenverarbeitungsvorrichtung kann dann beispielsweise dazu eingerichtet sein, zu prüfen, ob die ermittelte Lage des Betätigungsobjekts, insbesondere die ermittelte räumliche Position des Betätigungsobjekts, innerhalb des Betätigungsbereichs liegt. Ist dies der Fall, kann die Datenverarbeitungsvorrichtung das Steuerungssignal erzeugen.
  • Ein Transportmittel, insbesondere ein Schienenfahrzeug, gemäß einem dritten Aspekt der Erfindung weist ein System gemäß dem zweiten Aspekt der Erfindung auf.
  • Die bisher gegebene Beschreibung bevorzugter Ausführungsformen der Erfindung enthält zahlreiche Merkmale, die in den einzelnen abhängigen Ansprüchen teilweise zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden. Insbesondere sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination mit dem Verfahren gemäß dem ersten Aspekt der Erfindung, dem System gemäß dem zweiten Aspekt der Erfindung und dem Transportmittel gemäß dem dritten Aspekt der Erfindung kombinierbar.
  • Die voranstehend beschriebenen Eigenschaften, Merkmale und Vorteile der Erfindung sowie die Art und Weise, wie diese erreicht werden, werden im Zusammenhang mit den Figuren in der folgenden Beschreibung von Ausführungsbeispielen der Erfindung näher erläutert. In den Figuren werden durchgängig dieselben Bezugszeichen für dieselben oder einander entsprechende Elemente der Erfindung verwendet. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebenen Kombinationen von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale der Ausführungsbeispiele auch explizit isoliert betrachtet und mit einem beliebigen der Ansprüche kombiniert werden.
  • Es zeigen, zumindest teilweise schematisch:
    • 1 ein Beispiel eines Systems zum Auslösen einer Funktion;
    • 2 ein Beispiel einer Innenansicht eines Transportmittels mit einem System zum Auslösen einer Funktion; und
    • 3 ein Beispiel eines Verfahrens zum Auslösen einer Funktion.
  • 1 zeigt ein Beispiel eines Systems 1 zum Auslösen einer Funktion, insbesondere in einem Transportmittel, mit einer Kamera 2 zum Erfassen eines Betätigungsobjekts 3 und zum Erzeugen entsprechender Bilddaten B sowie einer Datenverarbeitungsvorrichtung 4 zum Verarbeiten der Bilddaten B. Das System 1 weist des Weiteren eine virtuelle Schaltfläche 5 auf, die mithilfe des Betätigungsobjekts 3 betätigt werden kann. Die Datenverarbeitungsvorrichtung 4 ist dabei dazu eingerichtet, auf Grundlage der Bilddaten B eine Lage des Betätigungsobjekts 3 relativ zur virtuellen Schaltfläche 5 zu ermitteln und auf Grundlage der ermittelten Lage ein Steuerungssignal S zu erzeugen. Mithilfe des Steuerungssignals S kann die Datenverarbeitungsvorrichtung 4 die Funktion, insbesondere eine mit der virtuellen Schaltfläche 5 korrespondierende Funktion, auslösen.
  • Die virtuellen Schaltfläche 5 kann dabei zum Beispiel von einem Abschnitt der Oberfläche eines Gegenstands, zum Beispiel eines Bauteils, gebildet sein. Um einem Benutzer die Interaktion mit der virtuellen Schaltfläche 5 zu ermöglichen oder zumindest zu erleichtern, kann die virtuelle Schaltfläche 5 eine Markierung 7 zum Beispiel in Form eines Symbols, insbesondere eines Piktogramms, aufweisen bzw. durch diese gekennzeichnet sein. Die Markierung 7 ist zweckmäßigerweise auf der Oberfläche des Gegenstands angebracht, zum Beispiel aufgedruckt oder aufgeklebt.
  • Der virtuellen Schaltfläche 5 ist im gezeigten Beispiel ein Betätigungsbereich 8 zugeordnet, innerhalb dessen das Betätigungsobjekt 3 die virtuelle Schaltfläche 5 betätigen, d. h. die Funktion auslösen, kann. Der Betätigungsbereich 8 ist dabei zweckmäßigerweise in einem Erfassungsbereich 9 der Kamera 2 enthalten.
  • Nähert sich das Betätigungsobjekt 3 der virtuellen Schaltfläche 5 zum Zwecke der Betätigung, kann dies von der Datenverarbeitungsvorrichtung 4 anhand der Bilddaten B registriert werden. Dabei ist die Datenverarbeitungsvorrichtung 4 vorzugsweise dazu eingerichtet, das Steuerungssignal S zu erzeugen, wenn die relative Lage von Betätigungsobjekt 3 und virtueller Schaltfläche 5 ein vorgegebenes Kriterium erfüllt, zum Beispiel ein aus den Bilddaten B abgeleiteter Abstand zwischen dem Betätigungsobjekt 3 und der virtuellen Schaltfläche 5 einen vorgegebenen Abstandsschwellenwert erreicht oder unterschreitet, d. h. das Betätigungsobjekt 3 in den Betätigungsbereich 8 vordringt.
  • Alternativ oder zusätzlich kann der Erzeugung des Steuerungssignals S dabei auch ein aus den Bilddaten B abgeleitetes Bewegungsmuster des Betätigungsobjekts 3 zugrunde gelegt werden, wie ausführlicher im Zusammenhang mit 3 erläutert wird.
  • Mithilfe des Steuerungssignals S kann eine mit der Datenverarbeitungsvorrichtung 4 vorzugsweise signalverbundene Vorrichtung, welche zur Ausführung der Funktion eingerichtet ist, gesteuert werden. Im vorliegenden Beispiel handelt es sich bei dieser Vorrichtung um ein Leuchtmittel 6, das mithilfe des Steuerungssignals S an- und ausschaltbar ist.
  • In 1 ist das Betätigungsobjekt 3 rein beispielhaft als Hand bzw. ausgestreckter Finger eines Benutzers dargestellt. Das Betätigungsobjekt 3 kann aber auch durch einen anderen Gegenstand gebildet werden, zum Beispiel durch einen vom Benutzer gehaltenen Stift oder ein anderes, insbesondere zum Zeigen geeignetes Objekt.
  • 2 zeigt ein Beispiel einer Innenansicht eines Transportmittels 10 mit einem System 1 zum Auslösen einer Funktion. Das System 1 umfasst neben einer Datenverarbeitungsvorrichtung (nicht gezeigt) mehrere Kameras 2, welche einen Innenraum des Transportmittels 10 überwachen, sowie mehrere virtuelle Schaltflächen 5, die zur Betätigung durch ein Betätigungsobjekt vorgesehen sind. Jede der Kameras 2 ist dabei dazu eingerichtet, solch ein Betätigungsobjekt (nicht gezeigt) zu erfassen und entsprechende Bilddaten zu erzeugen, welche von der Datenverarbeitungsvorrichtung zum Ermitteln einer Lage des erfassten Betätigungsobjekts relativ zu wenigstens einer der virtuellen Schaltflächen 5 genutzt werden können. Die Datenverwaltungsvorrichtung kann dann ein Steuerungssignal erzeugen und damit eine entsprechende, der jeweiligen virtuellen Schaltfläche 5 zugeordnete Funktion auslösen.
  • Bei dem Transportmittel 10 handelt es sich im vorliegenden Beispiel um einen Zug mit einer Vielzahl von Sitzplätzen. Jedem dieser Sitzplätze, die durch jeweils einen Sitz 11 definiert sind, ist jeweils eine der virtuellen Schaltflächen 5 zugeordnet. Dadurch kann ein auf dem Sitz 11 sitzender Passagier die mit der virtuellen Schaltfläche 5 korrespondierende und seinem Sitz 11 zugeordnete Funktion auslösen. Aus Gründen der Übersichtlichkeit sind dabei nur die im Vordergrund von 2 dargestellten Sitze 11 und virtuellen Schaltflächen 5 mit einem Bezugszeichen versehen.
  • Im gezeigten Beispiel sind die den Sitzplätzen zugeordneten virtuellen Schaltflächen 5 dabei auf der Rückenlehne des jeweiligen Vordersitzes 11 angeordnet. An dieser Position können die virtuellen Schaltflächen 5 bequem von sitzenden Passagieren betätigt und von zumindest einer der Kameras 2 erfasst werden. Grundsätzlich sind allerdings auch andere Positionen denkbar, zum Beispiel oberhalb der Sitze 11 auf einer Gepäckablage 12 oder unterhalb von, gegebenenfalls sogar auf, Fenstern 13 des Transportmittels 10.
  • Die Datenverarbeitungsvorrichtung kann dabei für jedes von den Kameras 2 gelieferte Bild prüfen, ob die relative Lage von einem erfassten Betätigungsobjekt zu einer der virtuellen Schaltflächen 5 ein vorgegebenes Kriterium erfüllt. Enthalten die von den Kameras 2 erzeugten Bilddaten redundante Information, kann die relative Lage vom erfassten Betätigungsobjekt zur virtuellen Schaltfläche 5 auch dann ermittelt werden, wenn die Sicht einer der Kameras 2 auf das Betätigungsobjekt und/oder die entsprechende virtuelle Schaltfläche 5 verdeckt ist, etwa durch einen vorbeilaufenden Passagier oder ein Gepäckstück.
  • 3 zeigt ein Beispiel eines Verfahrens 100 zum Auslösen einer Funktion.
  • In einem Verfahrensschritt S1 wird ein Betätigungsobjekt, zum Beispiel der ausgestreckte Finger einer Hand eines Benutzers oder ein vom Benutzer geführter Stift, mithilfe einer Kamera erfasst und entsprechende Bilddaten erzeugt. Vorzugsweise wird das Betätigungsobjekt dabei für eine vorgegebene Mindestzeitdauer oder länger erfasst, sodass auch Bewegungsinformation zur Bewegung des Betätigungsobjekts in den Bilddaten enthalten ist.
  • In einem weiteren Verfahrensschritt S2 wird auf Grundlage der Bilddaten eine Lage des Betätigungsobjekts relativ zu einer virtuellen Schaltfläche ermittelt.
  • Zu diesem Zweck kann in einem oder mehreren von der Kamera erzeugten Bildern das Betätigungsobjekt identifiziert werden, etwa mithilfe von an sich bekannten Algorithmen zur digitalen Bildverarbeitung. Anhand der Bilddaten lassen sich dem Betätigungsobjekt so zumindest zweidimensionale Koordinaten zuordnen.
  • Zweckmäßigerweise wird analog die Position der virtuellen Schaltfläche in dem wenigstens einen Kamerabild ermittelt. Alternativ ist es auch denkbar, dass die entsprechenden, der virtuellen Schaltfläche zugeordneten Koordinaten intrinsisch bekannt sind, d. h. sich zum Beispiel aus einer vorgegebenen relativen Anordnung von Kamera und virtueller Schaltfläche ergeben.
  • Aus einer Korrelation dieser Koordinaten lässt sich dann in einfacher Weise die Lage des Betätigungsobjekts relativ zur virtuellen Schaltfläche ermitteln.
  • In einem weiteren Verfahrensschritt S3 kann beispielsweise ein Abstand zwischen dem Betätigungsobjekt und der virtuellen Schaltfläche ermittelt werden. Dazu werden die in Verfahrensschritt S2 ermittelten Koordinaten vorzugsweise voneinander subtrahiert. Der derart ermittelte Abstand kann dann in einem weiteren Verfahrensschritt S4 dahingehend überprüft werden, ob er einen vorgegebenen Abstandsschwellenwert erreicht oder unterschreitet. Wird der Abstandsschwellenwert erreicht oder überschritten (Bezugszeichen j), wird in einem weiteren Verfahrensschritt S5 zweckmäßigerweise ein Steuerungssignal erzeugt, um die mit der virtuellen Schaltfläche korrespondierende Funktion auszulösen.
  • Ist der vorgegebene Abstandsschwellenwert dagegen (noch) nicht erreicht (Bezugszeichen n), kann das Betätigungsobjekt im Verfahrensschritt S1 weiter erfasst werden.
  • Alternativ oder zusätzlich zum Ermitteln des Abstands in Verfahrensschritt S3 und der Prüfung in Verfahrensschritt S4 kann in Verfahrensschritt S4 auch die in Verfahrensschritt S2 ermittelte relative Lage von Betätigungsobjekt und virtueller Schaltfläche mit einer vorgegebenen Lage, die zweckmäßigerweise mit einer Betätigung der virtuellen Schaltfläche assoziiert ist, verglichen werden. Beispielsweise kann geprüft werden, ob das Betätigungsobjekt die virtuelle Schaltfläche kontaktiert. In Abhängigkeit eines Ergebnisses des Vergleichs kann dann mit Verfahrensschritt S5 (Betätigung liegt vor) bzw. Verfahrensschritt S1 (Betätigung liegt nicht vor) fortgefahren werden.
  • Die in Verfahrensschritt S1 erzeugten Bilddaten können auch der Ermittlung eines Bewegungsmusters des Betätigungsobjekts zugrunde gelegt werden, etwa indem Bewegungsgrößen des Betätigungsobjekts wie Bewegungsrichtung, Bewegungsgeschwindigkeit, Beschleunigung und/oder dergleichen aus den Bilddaten extrahiert werden. Der entsprechende Verfahrensschritt S6 kann dabei alternativ oder zusätzlich zu den Verfahrensschritten S2 und S3 durchgeführt werden. In Verfahrensschritt S4 kann dann gegebenenfalls auch geprüft werden, ob das ermittelte Bewegungsmuster mit einem vorgegebenen Bewegungsmuster, welches mit der Betätigung der virtuellen Schaltfläche assoziiert ist, zum Beispiel einer Betätigungsgeste, zumindest im Wesentlichen übereinstimmt.
  • Dabei ist es auch denkbar, dass auf Grundlage des ermittelten Bewegungsmusters geprüft wird, ob ein Auslösen der Funktion, welches ausgehend von der ermittelten relativen Lage von Betätigungsobjekt und virtueller Schaltfläche auszuführen wäre, tatsächlich gewünscht ist. Ist der ermittelte Abstand zwischen dem Betätigungsobjekt und der virtuellen Schaltfläche zwar kleiner als der vorgegebene Abstandsschwellenwert, eine Bewegungsgeschwindigkeit und/oder Beschleunigung des Betätigungsobjekts jedoch durchgängig, d. h. innerhalb eines vorgegebenen Verweildauerschwellenwerts, hoch, kann davon ausgegangen werden, dass sich das Betätigungsobjekt nur zufällig der virtuellen Schaltfläche angenähert hat und das Steuerungssignal entsprechend nicht erzeugt werden muss.
  • Obwohl die Erfindung im Detail durch bevorzugte Ausführungsbeispiele näher illustriert und beschrieben wurde, ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.

Claims (15)

  1. Verfahren (100) zum Auslösen einer Funktion, insbesondere in einem Transportmittel (10), wobei ein Betätigungsobjekt (3) mithilfe einer Kamera (2) erfasst und entsprechende Bilddaten (B) erzeugt (S1) werden, dadurch gekennzeichnet, dass auf Grundlage der Bilddaten (B) eine Lage des Betätigungsobjekts (3) relativ zu einer virtuellen Schaltfläche (5) ermittelt (S2) und auf Grundlage der ermittelten relativen Lage ein Steuerungssignal (S) erzeugt (S5) wird.
  2. Verfahren (100) nach Anspruch 1, dadurch gekennzeichnet, dass auf Grundlage der Bilddaten (B) ein Bewegungsmuster des Betätigungsobjekts (3) ermittelt (S6) und das Steuerungssignal (S) auf Grundlage des ermittelten Bewegungsmusters erzeugt wird.
  3. Verfahren (100) nach Anspruch 2, dadurch gekennzeichnet, dass auf Grundlage des ermittelten Bewegungsmusters des Betätigungsobjekts (3) geprüft (S4) wird, ob eine Bewegung des Betätigungsobjekts (3) zum Auslösen der Funktion beabsichtigt ist.
  4. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Abstand des Betätigungsobjekts (3) zur virtuellen Schaltfläche (5) ermittelt (S3) und geprüft (S4) wird, ob der ermittelte Abstand ein vorgegebenes Betätigungskriterium erfüllt.
  5. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Verweildauer des Betätigungsobjekts (3) in der ermittelten Lage relativ zur virtuellen Schaltfläche (5) ermittelt und das Steuerungssignal (S) auf Grundlage der ermittelten Verweildauer erzeugt wird.
  6. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Betätigungsobjekt (3) von wenigstens einer weiteren Kamera (2) erfasst und entsprechende weitere Bilddaten erzeugt werden, wobei die Lage des Betätigungsobjekts (3) relativ zur virtuellen Schaltfläche (5) auf Grundlage der Bilddaten (B) und/oder der weiteren Bilddaten (B) ermittelt wird.
  7. Verfahren (100) nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die ermittelte Lage des Betätigungsobjekts (3) relativ zur virtuellen Schaltfläche (5) mit einer vorgegebenen Lage verglichen (S4) wird und das Steuerungssignal (S) auf Grundlage eines Ergebnisses des Vergleichs erzeugt wird.
  8. Verfahren (100) nach Anspruch 7, dadurch gekennzeichnet, dass das Steuerungssignal (S) mithilfe künstlicher Intelligenz erzeugt wird.
  9. System (1) zum Auslösen einer Funktion, insbesondere in einem Transportmittel (10), mit einer Kamera (2) zum Erfassen eines Betätigungsobjekts (3) und zum Erzeugen entsprechender Bilddaten (B) sowie einer Datenverarbeitungsvorrichtung (4) zum Verarbeiten der Bilddaten (B), gekennzeichnet durch eine virtuelle Schaltfläche (5) zum Betätigen durch das Betätigungsobjekt (3), wobei die Datenverarbeitungsvorrichtung (4) dazu eingerichtet ist, auf Grundlage der Bilddaten (B) eine Lage des Betätigungsobjekts (3) relativ zur virtuellen Schaltfläche (5) zu ermitteln und auf Grundlage der ermittelten relativen Lage ein Steuerungssignal (S) zu erzeugen.
  10. System (1) nach Anspruch 9, dadurch gekennzeichnet, dass die virtuelle Schaltfläche (5) durch eine Markierung (7) gekennzeichnet ist.
  11. System (1) nach einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass die virtuelle Schaltfläche (5) einen QR-Code aufweist.
  12. System (1) nach einem der Ansprüche 9 bis 11 dadurch gekennzeichnet, dass die Kamera (2) dazu eingerichtet ist, die räumliche Position des Betätigungsobjekts (3) zu erfassen und Sensordaten zu erzeugen, welche die räumliche Position des Betätigungsobjekts (3) charakterisieren.
  13. System (1) nach Anspruch 12, dadurch gekennzeichnet, dass die Kamera (2) als Stereokamera oder Time-of-Flight-Kamera ausgebildet ist.
  14. System (1) nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass der virtuellen Schaltfläche (5) ein räumlicher Betätigungsbereich (8) zugeordnet ist und die Kamera (2) einen räumlichen Erfassungsbereich (9) aufweist, der den räumlichen Betätigungsbereich (8) enthält.
  15. Transportmittel (10), insbesondere Schienenfahrzeug, mit einem System (1) gemäß einem der Ansprüche 9 bis 14.
DE102020207068.7A 2020-06-05 2020-06-05 Verfahren und System zum Auslösen einer Funktion sowie Transportmittel Ceased DE102020207068A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020207068.7A DE102020207068A1 (de) 2020-06-05 2020-06-05 Verfahren und System zum Auslösen einer Funktion sowie Transportmittel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020207068.7A DE102020207068A1 (de) 2020-06-05 2020-06-05 Verfahren und System zum Auslösen einer Funktion sowie Transportmittel

Publications (1)

Publication Number Publication Date
DE102020207068A1 true DE102020207068A1 (de) 2021-08-12

Family

ID=76968683

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020207068.7A Ceased DE102020207068A1 (de) 2020-06-05 2020-06-05 Verfahren und System zum Auslösen einer Funktion sowie Transportmittel

Country Status (1)

Country Link
DE (1) DE102020207068A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023227351A1 (de) 2022-05-25 2023-11-30 Siemens Mobility GmbH Verfahren zum betreiben eines kamerasystems eines spurgebundenen fahrzeugs und system für ein spurgebundenes fahrzeug unter verwendung künstlicher intelligenz

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2365420A2 (de) 2010-03-11 2011-09-14 Deutsche Telekom AG System und Verfahren zur Erkennung von Handgesten für eine Fernbedienung einer Internetprotokoll-Television-Anwendung
DE102013000085A1 (de) 2013-01-08 2014-07-10 Audi Ag Verfahren zum Wechseln eines Betriebsmodus eines Infotainmentsystems eines Kraftfahrzeugs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2365420A2 (de) 2010-03-11 2011-09-14 Deutsche Telekom AG System und Verfahren zur Erkennung von Handgesten für eine Fernbedienung einer Internetprotokoll-Television-Anwendung
DE102013000085A1 (de) 2013-01-08 2014-07-10 Audi Ag Verfahren zum Wechseln eines Betriebsmodus eines Infotainmentsystems eines Kraftfahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DE LA BARRÉ, R. [et al.]: Touchless interaction-novel chances and challenges. In: International Conference on Human-Computer Interaction. Springer, Berlin, Heidelberg, 2009. S. 161-169.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023227351A1 (de) 2022-05-25 2023-11-30 Siemens Mobility GmbH Verfahren zum betreiben eines kamerasystems eines spurgebundenen fahrzeugs und system für ein spurgebundenes fahrzeug unter verwendung künstlicher intelligenz

Similar Documents

Publication Publication Date Title
DE102009029021B4 (de) Sensorsystem zur Umfeldüberwachung an einem mechanischen Bauteil und ein Verfahren zur Ansteuerung und Auswertung des Sensorsystems
DE102006048163B4 (de) Kamerabasierte Überwachung bewegter Maschinen und/oder beweglicher Maschinenelemente zur Kollisionsverhinderung
DE102008019731B4 (de) Verfahren und Vorrichtung zur Fahrer-Beifahrer-Unterscheidung
DE102015217329A1 (de) Handbeschleunigungssteuerungssystem
DE102012212754A1 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102013012466A1 (de) Bediensystem und Verfahren zum Bedienen einer fahrzeugseitigen Vorrichtung
EP2864852B1 (de) Bediensystem für ein kraftfahrzeug
DE102020207068A1 (de) Verfahren und System zum Auslösen einer Funktion sowie Transportmittel
DE102017106971B4 (de) Sitzbelegungserkennung
DE102016223106A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102009026091A1 (de) Verfahren und System zur Überwachung eines dreidimensionalen Raumbereichs mit mehreren Kameras
EP2723622B1 (de) Einrichtung und verfahren zum steuern eines schienenfahrzeugs
EP3575666A1 (de) Vorrichtung zur absicherung eines gefahrenbereichs einer anlage
DE102016007388A1 (de) Vorrichtung und Verfahren zur Erfassung von Gesten eines Nutzers eines Fahrzeugs
WO2016184971A1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
DE102013219511B4 (de) Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung eines Bediensystems, Kraftfahrzeug, Computerprogramm, Computer-Programmprodukt
DE102019113839B3 (de) Vorrichtung und Verfahren zur Überwachung einer Fahrgastzelle
DE102019127826B4 (de) Sicherer optoelektronischer Sensor und Verfahren zum Absichern eines Überwachungsbereichs
DE102019125572A1 (de) Verfahren zur Ermittlung des Nickwinkels eines Kraftfahrzeugs
DE102020204362A1 (de) Verfahren zum Bewerten einer Geste eines Fahrzeuginsassen in einem Innenraum eines Fahrzeugs, ein Verfahren zum Beleuchten eines Objekts sowie ein Beleuchtungssystem
DE102019208605B4 (de) Verfahren zum Erfassen einer Bedienhandlung, Bedienvorrichtung sowie Kraftfahrzeug mit einer Bedienvorrichtung
DE102018215513A1 (de) Anordnung von TOF-Sensoren zur Erfassung eines Passagierraums eines Peoplemovers, Auswerteeinrichtung zum Wahrnehmen eines Passagierraums eines Peoplemovers und Wahrnehmungssystem zum Wahrnehmen eines Blockierens einer Passagiertür eines Peoplemovers, einer Anzahl von Passagieren in dem Peoplemover und von Positionen, Körperposen und Aktivitäten der Passagiere
DE102017219155A1 (de) Verfahren zur Funktionsauslösung auf beliebigen Flächen
DE102007033133A1 (de) Verfahren und Vorrichtung zur Detektion von Objekten
DE102016202455A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Klassifikation einer frei im Raum ausgeführten Anwendergeste

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final