DE102012019649A1 - Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens - Google Patents

Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens Download PDF

Info

Publication number
DE102012019649A1
DE102012019649A1 DE201210019649 DE102012019649A DE102012019649A1 DE 102012019649 A1 DE102012019649 A1 DE 102012019649A1 DE 201210019649 DE201210019649 DE 201210019649 DE 102012019649 A DE102012019649 A DE 102012019649A DE 102012019649 A1 DE102012019649 A1 DE 102012019649A1
Authority
DE
Germany
Prior art keywords
camera
axis angle
detecting
motor vehicle
free space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201210019649
Other languages
English (en)
Inventor
Frank Bläsing
Christian Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kostal Automobil Elektrik GmbH and Co KG
Original Assignee
Leopold Kostal GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leopold Kostal GmbH and Co KG filed Critical Leopold Kostal GmbH and Co KG
Priority to DE201210019649 priority Critical patent/DE102012019649A1/de
Publication of DE102012019649A1 publication Critical patent/DE102012019649A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Beschrieben wird ein Verfahren zur Erkennung von Körpergesten, speziell von Wischgesten, das durch die Erkennung eines kontinuierlichen Bewegungsablaufes, sowohl die Unterscheidung von anderen Bewegungen als auch eine besonders schnelle Erkennung von bestimmten Gesten ermöglicht. Basis für diesen Ansatz ist eine auf den Bildern einer Kamera arbeitende Objektsegmentierung, die robuste Merkmale eines segmentierten Zeigeobjektes zur Verfügung stellt. Als wichtigster Parameter wird aus dem Kamerabild ein sogenannter Hauptachsenwinkel des segmentierten Zeigeobjektes ermittelt und dessen Änderungsgeschwindigkeit, also dessen erste zeitliche Ableitung, durch eine mit der Kamera verbundene Auswerteeinheit bestimmt. Bediengesten, bei denen der zeitliche Verlauf der Änderungsgeschwindigkeit bestimmte vorgegebene Bedingungen erfüllt, werden mit hoher Zuverlässigkeit erkannt. Vorgeschlagen wird zudem eine Vorrichtung zur Ausführung des Verfahrens.

Description

  • Die Steuerung einer Vorrichtung durch Körpergesten, die auf der Berührung einer festen Oberflächen, wie einem Touchpad oder Touchscreen, oder auf der Bewegung einer technischen Vorrichtung beruhen, wie zum Beispiel einer Maus am Computer, sind seit langem bekannt.
  • Durch die Implementierung optischer Sensoren und insbesondere von Kamerasystemen in Kraftfahrzeugen ergibt sich zunehmend die Möglichkeit, berührungslose Bedienelemente einzusetzen, die auf einer Gestenerkennung beruhen. Üblich ist die Erfassung von Finger-, Hand- oder Armgesten, die an einer beliebigen Stelle im freien Raum ausgeführt werden.
  • Solche Körpergesten, im Folgenden auch einfach als Bediengesten bezeichnet, können beispielsweise zur Steuerung von Funktionen eines Infotainmentsystems im Kraftfahrzeug vorgesehen sein. Zur Erkennung von Arm-, Hand- oder Fingerpositionen und -bewegungen werden 2D- und insbesondere auch 3D-Kamerasysteme eingesetzt, die in ihrer Bildebene in jedem Pixel den Abstand zu einem Objekt im Raum bestimmen. Hierbei kommen sowohl stereoskopische Verfahren (Stereokamera) als auch Lichtlaufzeit messende Verfahren („Time Of Flight”-Kamera) zum Einsatz. Der Bestand der unterstützten Bediengesten kann dabei von Handgesten, also zum Beispiel Wischbewegungen in verschiedene Richtungen bis hin zu Fingergesten, wie etwa Zeigegesten oder Pinch-/Spread-Gesten reichen.
  • Wichtig und zugleich problematisch ist, dass insbesondere in einem Kraftfahrzeug Körpergesten aus Sicherheitsgründen mit einer hohen Zuverlässigkeit und Eindeutigkeit erkannt werden müssen. Falsch als Bediengesten interpretierte Körperbewegungen und dadurch fehlerhaft ausgelösten Bedienfunktionen können zu unerwünschten Ereignissen oder sogar zu gefährlichen Situationen führen.
  • Bediengesten dürfen daher nicht mit sonstigen Bewegungen verwechselt werden, um die unbeabsichtigte Auslösung von Bedienfunktionen zu vermeiden. Andererseits dürfen Gesten aber auch nicht zu kompliziert sein, damit sie leicht ausführbar sind und dabei nicht zu viel Aufmerksamkeit der ausführenden Person in Anspruch nehmen.
  • Wichtig für die Akzeptanz solcher Systeme ist die robuste Erkennung von ausgeführten Bediengesten. Der Nutzer darf nicht durch zu häufige Fehlerkennungen in seinem Nutzungsverhalten gestört werden. Eine Schwierigkeit liegt hierbei in der Unterscheidung von zufälligen Arm- und Handbewegungen und relevanten Gesten zur Bedienung des Systems. Besonders Wischgesten, die mit der ganzen Hand, teilweise mit Unterstützung des Unterarms, ausgeführt werden, sind oftmals schwierig von Aushol- oder Greifbewegungen, etwa zur Betätigung herkömmlicher Bedienelemente, zu unterscheiden.
  • Es stellte sich die Aufgabe, ein Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten zu schaffen, welches eine besonders robuste Erkennung ermöglicht.
  • Diese Aufgabe wird erfindungsgemäß durch das im Anspruch 1 beschriebene Verfahren gelöst.
  • Vorgeschlagen wird ein Ansatz zur Wischgestenerkennung, der durch die Erkennung eines kontinuierlichen Bewegungsablaufes, sowohl die Unterscheidung von anderen Bewegungen als auch eine besonders schnelle Erkennung von bestimmten Gesten ermöglicht. Basis für diesen Ansatz ist eine auf den Bildern einer Kamera arbeitende Objektsegmentierung, die robuste Merkmale eines segmentierten Zeigeobjektes zur Verfügung stellt. Besonders vorteilhaft kann als Kamera eine abstandsauflösende Kamera vorgesehen werden. Als wichtigster Parameter wird aus dem Kamerabild ein sogenannter Hauptachsenwinkel des segmentierten Zeigeobjektes ermittelt und dessen Änderungsgeschwindigkeit, also dessen erste zeitliche Ableitung, durch eine mit der Kamera verbundene Auswerteeinheit bestimmt. Bediengesten, bei denen der zeitliche Verlauf der Änderungsgeschwindigkeit bestimmte vorgegebene Bedingungen erfüllt, werden mit hoher Zuverlässigkeit erkannt.
  • Nachfolgend soll die Erfindung anhand der Zeichnung näher erläutert werden. Es zeigen
  • 1 den Hauptachsenwinkel eines segmentierten Zeigeobjektes,
  • 2 eine skizzenhaft dargestellte Vorrichtung,
  • 3 typische Verläufe der Änderungsgeschwindigkeit des Hauptachsenwinkels bei erfindungsgemäß erfassbaren Wischbewegungen.
  • Die 2 verdeutlicht skizzenhaft eine bevorzugte Anwendung des erfindungsgemäßen Verfahrens. Eine Kamera 2 ist im Dachbereich 3 eines Kraftfahrzeugs angeordnet und blickt von dort schräg nach unten in den Fahrzeuginnenraum. Die Kamera 2 kann in einer Draufsicht einen Arm, eine Hand oder auch einen einzelnen Finger als Zeigeobjekt 1 erfassen. Aufgrund von erfassten Formen, Größen und Abständen im Kamerabild identifiziert eine mit der Kamera 2 verbundene elektronische Auswerteeinheit 4 die Lage der Längsachse (im Folgenden bezeichnet als Hauptachse 5) des zu erfassenden Zeigeobjekts 1 im Raum und bestimmt daraus, skizzenhaft dargestellt in der 1, als sogenannten Hauptachsenwinkel α die relative Position der Hauptachse 5 zu einem intern gespeicherten Koordinatensystem 6.
  • Die Kamera 2 kann besonders vorteilhaft als eine Stereokamera ausgeführt sein, welche Gegenstände räumlich erfassen kann. Äußerst vorteilhaft ist die Verwendung einer Time-of-Flight-Kamera, welche direkte Abstandsmessungen ermöglicht. Die mit der Kamera 2 verbundene Auswerteeinheit 4 ermittelt aus zeitlich nacheinander erfassten Kamerabildern die Lage und die zeitlichen Lageveränderungen des Hauptachsenwinkels α und berechnet daraus dessen jeweilige Änderungsgeschwindigkeit α'(t). Aus dem zeitlichen Verlauf der berechneten Änderungsgeschwindigkeit α'(t) kann die Auswerteeinheit 4 bestimmte Bediengesten eindeutig erkennen und zur Steuerung von hier nicht näher beschriebenen Bedienfunktionen verwenden.
  • Ein typischer Verlauf der Änderungsgeschwindigkeit α'(t) des Hauptachsenwinkels α eines Zeigeobjekts 1 bei der Ausführung von Bediengesten, die durch das hier beschriebenen Verfahren erkannt werden können, ist in der 3 skizziert. Der Kurvenverlauf stellt zwei unmittelbar aufeinander folgend ausgeführte Bediengesten dar.
  • Die erste Bediengeste sei im Folgenden anhand einiger hervorgehobener Punkte A bis H des α'(t)-Diagramms näher erläutert. Um eine absichtlich ausgeführte Bediengeste von einer irrelevanten Bewegung des Zeigeobjekts 1 (eines Arms, einer Hand oder eines Fingers) zu unterscheiden, besteht die Bediengeste aus einer Ausholbewegung in einer Richtung und einer sich unmittelbar anschließenden Wischbewegung in die entgegengesetzte Richtung. Es sei angenommen, das Zeigeobjekt 1 sei, wie in der 1 dargestellt eine Hand und die Hauptachse 5 sei durch die Längsachse der gestreckten Hand definiert. Es sei ferner angenommen, die Hand befinde sich bis zur Ausführung der Bediengeste, die am Punkt A beginnt in der Ruhelage. Die Änderungsgeschwindigkeit α'(t) variiert daher bis zum Punkt A nur geringfügig um den Nullpunkt 0 und überschreitet insbesondere zu keinem Zeitpunkt einen ersten Schwellenwert v1. Neben diesen ersten Schwellenwert v1 ist in der Auswerteeinheit 4 ein zweiter größerer Schwellenwert v2 definiert, sowie auch zwei zu diesen beiden Schwellenwerten v1, v2 betragsmäßig gleichgroße negative Schwellenwerte –v1, –v2.
  • Am Punkt A beginnt die die Bediengeste einleitende Ausholbewegung. Die Hand führt dazu aus der Ruhelage eine beschleunigte Winkelbewegung aus. Deren Änderungsgeschwindigkeit α'(t) überschreitet etwa am Punkt B den ersten Schwellenwert v1, was von der Auswerteeinheit 4 erkannt wird und der Auswerteeinheit 4 signalisiert, dass eine bestimmte Bediengeste eingeleitet sein könnte. Die Änderungsgeschwindigkeit α'(t) der Handbewegung überschreitet am Punkt C den zweiten Schwellenwert v2, was ein weiteres Kriterium zur Verifikation der Bediengeste ist. Die Änderungsgeschwindigkeit α'(t) der Ausholbewegung erreicht am Punkt D ihr Maximum, wird danach abgebremst und kommt am Punkt E zum Stillstand. Die Bewegung geht danach übergangslos in eine in der entgegengesetzten Richtung ausgeführte Wischbewegung über, deren Änderungsgeschwindigkeit α'(t) am Punkt F betragsmäßig den Schwellenwert –v1 überschreitet, danach am Punkt G betragsmäßig maximal wird und nach Abbremsung am Punkt H zur Ruhe kommt. Die Auswerteeinheit 4 erkennt die Bediengeste eindeutig daran, dass sie die Schwellenwert v1, v2 und –v1 in genau dieser Reihenfolge und innerhalb eines vorgegebenen Zeitintervalls Δt1 registriert.
  • Die Erkennung der Bediengeste am Punkt F erfolgt damit schon vor dem eigentlichen Ende der Wischbewegung am Punkt H. Dies ermöglicht beispielsweise bei einer Menünavigation durch Wischgesten eine zeitgleiche Bewegung des Menüs mit der eigentlichen Wischbewegung des Anwenders. Die beschriebene Bediengeste kann analog natürlich auch in umgekehrter Richtung erfolgen, was durch den weiteren Verlauf des in der 3 dargestellten Verlaufs der Änderungsgeschwindigkeit α'(t) angedeutet ist. In diesem Fall registriert die Auswerteeinheit 4 betragsmäßige Überschreitungen der Schwellenwerte –v1, –v2 und v1 in genau dieser Reihenfolge und innerhalb eines vorgegebenen Zeitintervalls Δt2. Die Breite des Zeitintervalls Δt2 kann natürlich den gleichen Wert aufweisen wie die des Zeitintervalls Δt1.
  • Diese Bedingungen, die jeweils einen zwar einfach ausführbaren aber dennoch sehr spezifischen Bewegungsablauf innerhalb eines limitierten Zeitraums erfordern, der durch das Zeitintervall Δt1 bzw. Δt2 vorgegeben ist, macht es sehr unwahrscheinlich, dass eine so definierte Bediengeste mit einer zufälligen Bewegung verwechselt wird. Hierdurch kann die Gefahr einer versehentlichen Auslösung der zugehörigen Bedienfunktionen praktisch ausgeschlossen werden.
  • Bezugszeichenliste
  • 1
    Zeigeobjekt
    2
    Kamera
    3
    Dachbereich
    4
    Auswerteeinheit
    5
    Hauptachse
    6
    Koordinatensystem
    0
    Nullpunkt
    α
    Hauptachsenwinkel
    α'(t)
    Änderungsgeschwindigkeit
    Δt1, Δt2
    Zeitintervalle
    v1, v2, –v1, –v2
    Schwellenwerte
    A–K
    Punkte (im Diagramm der 3)

Claims (10)

  1. Verfahren zur Erkennung einer im freien Raum ausgeführten Körpergeste durch einen optischen Sensor; gekennzeichnet durch eine sich wiederholende Abfolge folgender Verfahrensschritte: – Erfassung eines Bildes durch eine Kamera (2), – Segmentierung mindestens eines Zeigeobjekts (1) aufgrund dessen Form und Größe durch eine Auswerteeinheit (4), – Erfassung eines Hauptachsenwinkels (α) aus der Lage von Objektflächen des Zeigeobjekts (1) im Raum, – Bestimmung der Lageveränderung des Hauptachsenwinkels (α), – Berechnung des der Änderungsgeschwindigkeit (α'(t)) des Hauptachsenwinkels (α), – Überprüfung, ob der Wert der Änderungsgeschwindigkeit (α'(t)) des Hauptachsenwinkels (α) innerhalb eines vorgebbaren Zeitintervalls (Δt1, Δt2) mehrere beidseitig um den Nullpunkt (0) herum liegende Schwellenwerte (v1, v2, –v1, –v2) betragsmäßig überschreitet.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass sich die Verfahrensschritte zeitlich periodisch wiederholen.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Zeigeobjekt (1) eine Hand oder ein Finger oder ein Arm ist.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Körpergeste aus einer Ausholbewegung in einer Richtung und einer in der dazu entgegengesetzten Richtung erfolgenden Wischbewegung besteht.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera ein abstandsauflösendes Bild erfasst.
  6. Vorrichtung zur Ausführung des Verfahrens nach Anspruch 1, dadurch gekennzeichnet, dass die Vorrichtung zumindest eine Kamera (2) und eine Auswerteeinheit (4) zur Auswertung der von der Kamera (2) erfassten Bildsignale aufweist.
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Kamera (2) eine abstandsauflösende Kamera ist.
  8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Kamera (2) eine stereoskopische Kamera oder eine Time-of-Flight-Kamera ist.
  9. Vorrichtung nach einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass die Kamera (2) in einem Kraftfahrzeug angeordnet ist.
  10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass die Kamera (2) im Innenraum des Kraftfahrzeugs, vom Dachbereich (3) herabblickend angeordnet ist.
DE201210019649 2012-10-06 2012-10-06 Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens Ceased DE102012019649A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210019649 DE102012019649A1 (de) 2012-10-06 2012-10-06 Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210019649 DE102012019649A1 (de) 2012-10-06 2012-10-06 Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens

Publications (1)

Publication Number Publication Date
DE102012019649A1 true DE102012019649A1 (de) 2014-04-10

Family

ID=50336759

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210019649 Ceased DE102012019649A1 (de) 2012-10-06 2012-10-06 Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens

Country Status (1)

Country Link
DE (1) DE102012019649A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107683B3 (de) * 2014-06-02 2015-10-01 Insta Elektro Gmbh Verfahren zum Betreiben einer Gebäudeinstallation mit einem Situationswächter sowie Gebäudeinstallation mit einem Situationswächter
WO2022000149A1 (zh) * 2020-06-28 2022-01-06 华为技术有限公司 交互方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6573883B1 (en) * 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US20080074391A1 (en) * 2006-09-27 2008-03-27 Yahoo! Inc. Zero-click activation of an application
US20120105613A1 (en) * 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6573883B1 (en) * 1998-06-24 2003-06-03 Hewlett Packard Development Company, L.P. Method and apparatus for controlling a computing device with gestures
US20080074391A1 (en) * 2006-09-27 2008-03-27 Yahoo! Inc. Zero-click activation of an application
US20120105613A1 (en) * 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107683B3 (de) * 2014-06-02 2015-10-01 Insta Elektro Gmbh Verfahren zum Betreiben einer Gebäudeinstallation mit einem Situationswächter sowie Gebäudeinstallation mit einem Situationswächter
WO2022000149A1 (zh) * 2020-06-28 2022-01-06 华为技术有限公司 交互方法及电子设备

Similar Documents

Publication Publication Date Title
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102015012232A1 (de) Mit Menschen kollaborierendes Robotersystem
DE102018100217A1 (de) System für Mensch-Roboter-Kollaboration mit Funktion für Sicherheitsgewährleistungsbetrieb für einen Roboter
WO2008014909A1 (de) Kamarabasierte überwachung von maschinen mit beweglichen maschinenelementen zur kollisionsverhinderung
DE102018216034A1 (de) Robotersystem
WO2014001227A1 (de) Bediensystem für ein kraftfahrzeug
DE102017005194C5 (de) Steuern einer Roboteranordnung
DE102012019649A1 (de) Verfahren zur Erkennung von im freien Raum ausgeführten Körpergesten durch einen optischen Sensor und Vorrichtung zur Durchführung des Verfahrens
EP3234736B1 (de) Verfahren zum betreiben einer eingabevorrichtung, eingabevorrichtung, kraftfahrzeug
DE202015100273U1 (de) Eingabevorrichtung
DE102014106661B4 (de) Schalterbetätigungseinrichtung, mobiles Gerät und Verfahren zum Betätigen eines Schalters durch eine nicht-taktile Translationsgeste
EP3298477A1 (de) Verfahren zum betreiben einer bedienvorrichtung sowie bedienvorrichtung für ein kraftfahrzeug
EP3740358B1 (de) Überwachung eines arbeitsbereichs einer roboteranordnung
DE102018005248B4 (de) Kapazitives Sensorsystem zur Berührungserkennung
DE112020004020T5 (de) Fahrzeugkollisionsbestimmungsvorrichtung
EP3596828B1 (de) Verfahren zum bestimmen eines zeitpunkts einer berührung eines kapazitiven sensorelements
DE102010051935A1 (de) Verfahren zum Entnehmen eines Bauteils
DE102016202455B4 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Klassifikation einer frei im Raum ausgeführten Anwendergeste
DE102014224632A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102015217795A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung, Eingabevorrichtung
DE102013016878A1 (de) Verfahren zum Betreiben einer Maschine, insbesondere eines Roboters
LU500260B1 (de) Selbstfahrende Vorrichtung zum Einsatz in einer industriellen Umgebung
DE112018007394B4 (de) Eingabesteuerungsvorrichtung, Eingabesteuerungsverfahren und Anzeigevorrichtung
DE102020210116A1 (de) Verfahren zum Betreiben eines Assistenzsystems eines Fahrzeugs
DE102016202526A1 (de) Verfahren und Vorrichtung zur Erkennung einer Bediengeste eines Nutzers, insbesondere in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003000000

Ipc: G06K0009620000

Effective date: 20140410

R081 Change of applicant/patentee

Owner name: KOSTAL AUTOMOBIL ELEKTRIK GMBH & CO. KG, DE

Free format text: FORMER OWNER: LEOPOLD KOSTAL GMBH & CO. KG, 58513 LUEDENSCHEID, DE

R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030190000

Ipc: G06V0040200000

R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final