DE102018212309A1 - Method and user interface for controlling a device - Google Patents

Method and user interface for controlling a device Download PDF

Info

Publication number
DE102018212309A1
DE102018212309A1 DE102018212309.8A DE102018212309A DE102018212309A1 DE 102018212309 A1 DE102018212309 A1 DE 102018212309A1 DE 102018212309 A DE102018212309 A DE 102018212309A DE 102018212309 A1 DE102018212309 A1 DE 102018212309A1
Authority
DE
Germany
Prior art keywords
distance
determined
gesture
transmission signal
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018212309.8A
Other languages
German (de)
Inventor
Marco Klopp
Mathias Krusche
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BSH Hausgeraete GmbH
Original Assignee
BSH Hausgeraete GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Hausgeraete GmbH filed Critical BSH Hausgeraete GmbH
Priority to DE102018212309.8A priority Critical patent/DE102018212309A1/en
Publication of DE102018212309A1 publication Critical patent/DE102018212309A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Verfahren (300) zur Steuerung eines Geräts (100) beschrieben. Das Verfahren (300) umfasst das Emittieren (301) eines Infrarot, kurz IR, Sendesignals (201) von dem Gerät (100). Des Weiteren umfasst das Verfahren (300) das Erfassen (302) des an einem Objekt (204) mit menschlicher Haut reflektierten Sendesignals (201) als Empfangssignal (206) an dem Gerät (100). Ferner umfasst das Verfahren (300) das Ermitteln (303) eines Abstands (205) des Objekts (204) von dem Gerät (100), auf Basis des Empfangssignals (206), sowie das Betreiben (304) des Geräts (100) in Abhängigkeit von dem ermittelten Abstand (205).A method (300) for controlling a device (100) is described. The method (300) comprises emitting (301) an infrared, IR for short, transmission signal (201) from the device (100). The method (300) further comprises detecting (302) the transmission signal (201) reflected on an object (204) with human skin as a reception signal (206) on the device (100). The method (300) further comprises determining (303) a distance (205) of the object (204) from the device (100), based on the received signal (206), and operating (304) the device (100) as a function of it from the determined distance (205).

Description

Die Erfindung betrifft ein Verfahren und eine Benutzerschnittstelle zur Steuerung eines Geräts, insbesondere eines Hausgeräts.The invention relates to a method and a user interface for controlling a device, in particular a household appliance.

Haushalte verfügen typischerweise über eine Vielzahl von Hausgeräten, insbesondere über eine Vielzahl von Haushaltsgeräten, wie z.B. einen Kühlschrank, einen Ofen, einen Herd, eine Waschmaschine, eine Spülmaschine, einen Trockner, etc. Ein Hausgerät weist typischerweise eine Benutzerschnittstelle auf, die es einem Nutzer ermöglicht, eine Benutzereingabe bzw. eine Steueranweisung zu tätigen, um den Betrieb des Hausgeräts zu steuern, etwa um ein Betriebsprogramm des Hausgeräts auszuwählen und/oder um das Hausgerät zu aktivieren.Households typically have a large number of household appliances, in particular a large number of household appliances, such as a refrigerator, an oven, a stove, a washing machine, a dishwasher, a dryer, etc. A home appliance typically has a user interface that allows a user to enter a user or control instruction to control the operation of the home appliance , for example to select an operating program for the household appliance and / or to activate the household appliance.

Das vorliegende Dokument befasst sich mit der technischen Aufgabe, eine komfortable, zuverlässige und umfangreiche Steuerung eines Geräts, insbesondere eines Hausgeräts, durch einen menschlichen Nutzer zu ermöglichen.The present document deals with the technical task of enabling comfortable, reliable and extensive control of a device, in particular a domestic device, by a human user.

Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben.The task is solved by the independent claims. Advantageous embodiments include described in the dependent claims.

Gemäß einem Aspekt der Erfindung wird ein Verfahren zur Steuerung eines Geräts, insbesondere eines Hausgeräts bzw. eines Haushaltsgeräts, beschrieben. Das Verfahren kann durch eine Benutzerschnittstelle des Geräts ausgeführt werden. Insbesondere kann das Verfahren dazu genutzt werden, Steueranweisungen bzw. Benutzereingaben an das Gerät zu übermitteln.According to one aspect of the invention, a method for controlling a device, in particular a household appliance or a household appliance, is described. The method can be performed through a user interface of the device. In particular, the method can be used to transmit control instructions or user input to the device.

Das Verfahren umfasst das Emittieren eines Infrarot, kurz IR, Sendesignals von dem Gerät. Das Sendesignal kann insbesondere ein IR-Lasersignal umfassen. Das Sendesignal kann z.B. Wellenlängen im Bereich von 850nm bis 900nm umfassen. Dabei kann das Sendesignal durch einen Projektor (z.B. durch eine Laserdiode) des Geräts emittiert werden.The method comprises emitting an infrared, IR for short, transmission signal from the device. The transmission signal can in particular comprise an IR laser signal. The transmission signal can e.g. Include wavelengths in the range of 850nm to 900nm. The transmission signal can be emitted by a projector (e.g. a laser diode) of the device.

Außerdem umfasst das Verfahren das Erfassen des an einem Objekt mit menschlicher Haut (z.B. an einer Hand) reflektierten Sendesignals als Empfangssignal an dem Gerät, insbesondere an einem Sensor (z.B. an einer Fotodiode) des Geräts. Die menschliche Haut kann dabei (unabhängig von dem Typ der Haut) eine im Wesentlichen konstante Reflektivität für das IR-Sendesignal aufweisen. Mit anderen Worten, das (elektromagnetische) IR-Sendesignal kann derart sein (in Bezug auf die spektrale Zusammensetzung des Sendesignals), dass die Reflektivität des Sendesignals an menschlicher Haut im Wesentlichen unabhängig von dem Typ (z.B. der Farbe) der Haut ist.In addition, the method comprises the detection of the transmitted signal reflected on an object with human skin (e.g. on a hand) as a received signal on the device, in particular on a sensor (e.g. on a photodiode) of the device. The human skin can (regardless of the type of skin) have an essentially constant reflectivity for the IR transmission signal. In other words, the (electromagnetic) IR transmission signal can be such (in relation to the spectral composition of the transmission signal) that the reflectivity of the transmission signal on human skin is essentially independent of the type (e.g. the color) of the skin.

Das Verfahren umfasst ferner das Ermitteln des Abstands des Objekts von dem Gerät, auf Basis des Empfangssignals. Zu diesem Zweck kann Intensitäts-Information in Bezug auf die Intensität des Empfangssignals ermittelt werden. Insbesondere kann die elektrische Leistung an dem Sensor zum Erfassen des Empfangssignals als Indikator für die Intensität des Empfangssignals ermittelt werden. Alternativ oder ergänzend kann ein Verstärkungsfaktor zur Verstärkung des Empfangssignals ermittelt werden, durch den bewirkt wird, dass das verstärkte Empfangssignal eine bestimmte Intensität aufweist. Der Abstand kann dann in präziser Weise auf Basis der Intensitäts-Information (z.B. auf Basis der ermittelten elektrischen Leistung und/oder auf Basis des Verstärkungsfaktors) ermittelt werden.The method further includes determining the distance of the object from the device based on the received signal. For this purpose, intensity information can be determined in relation to the intensity of the received signal. In particular, the electrical power on the sensor for detecting the received signal can be determined as an indicator of the intensity of the received signal. As an alternative or in addition, an amplification factor for amplifying the received signal can be determined, which causes the amplified received signal to have a certain intensity. The distance can then be determined in a precise manner on the basis of the intensity information (for example on the basis of the electrical power determined and / or on the basis of the amplification factor).

Des Weiteren kann der Abstand auf Basis von Kenndaten ermittelt werden, wobei die Kenndaten für unterschiedliche Werte der Intensitäts-Information (insbesondere für unterschiedliche elektrische Leistungen und/oder für unterschiedliche Verstärktungsfaktoren) unterschiedliche Abstandswerte anzeigen. Die Kenndaten können im Vorfeld (z.B. experimentell) für eine bestimmte Kombination aus Projektor und Sensor ermittelt werden. Der Abstand kann dann in präziser und effizienter Weise auf Basis der Kenndaten und auf Basis der Intensitäts-Information (z.B. auf Basis der gemessenen elektrischen Leistung und/oder auf Basis des ermittelten Verstärkungsfaktors) ermittelt werden.Furthermore, the distance can be determined on the basis of characteristic data, the characteristic data indicating different distance values for different values of the intensity information (in particular for different electrical powers and / or for different amplification factors). The characteristic data can be determined in advance (e.g. experimentally) for a certain combination of projector and sensor. The distance can then be determined in a precise and efficient manner on the basis of the characteristic data and on the basis of the intensity information (for example on the basis of the measured electrical power and / or on the basis of the determined gain factor).

Außerdem umfasst das Verfahren das Betreiben des Geräts in Abhängigkeit von dem ermittelten Abstand. Beispielsweise kann ein Betriebsprogramm des Geräts in Abhängigkeit von dem ermittelten Abstand ausgewählt und/oder aktiviert werden. The method also includes operating the device as a function of the determined distance. For example, an operating program of the device can be selected and / or activated depending on the determined distance.

Insbesondere kann in Abhängigkeit von dem ermittelten Abstand, eine von dem Objekt ausgeführten Geste detektiert werden. Auf Basis der detektierten Geste kann dann eine Steueranweisung zur Steuerung des Geräts ermittelt werden. Des Weiteren kann veranlasst werden, dass das Gerät gemäß der Steueranweisung betrieben wird.In particular, depending on the determined distance, a gesture performed by the object can be detected. A control instruction for controlling the device can then be determined on the basis of the detected gesture. Furthermore, it can be arranged that the device is operated in accordance with the control instructions.

Das beschriebene Verfahren ermöglicht es somit, in effizienter Weise Abstandsinformation in Bezug auf den Abstand eines Objekts zu ermitteln und die Abstandsinformation bei der Steuerung eines Geräts zu berücksichtigen. Durch die Berücksichtigung des Abstands kann eine gestengesteuerte Benutzerschnittstelle bereitgestellt werden, die eine hohe Anzahl von unterschiedlichen Eingaben ermöglicht.The described method thus makes it possible to determine distance information in relation to the distance of an object in an efficient manner and to take the distance information into account when controlling a device. By taking the distance into account, a gesture-controlled user interface can be provided which enables a large number of different inputs.

Das Verfahren kann umfassen, das Emittieren des IR-Sendesignals in eine Vielzahl von unterschiedlichen Richtungen, so dass das Sendesignal an einer entsprechenden Vielzahl von unterschiedlichen Punkten an dem Objekt reflektiert wird. Es können dann auf Basis des an der Vielzahl von unterschiedlichen Punkten des Objektes reflektierten Sendesignals die Abstände der Vielzahl von unterschiedlichen Punkten des Objekts ermittelt werden. Mit anderen Worten, es kann eine örtliche Verteilung des Abstands der reflektierenden Oberfläche des Objekts ermittelt werden. Das Gerät kann dann in Abhängigkeit von den ermittelten Abständen für die Vielzahl von unterschiedlichen Punkten des Objekts betrieben werden. Durch die Berücksichtigung von unterschiedlichen Punkten eines Objekts können die Zuverlässigkeit der Gestenerkennung und die Anzahl der differenzierbaren Gesten weiter erhöht werden.The method may include emitting the IR transmit signal in a variety of different directions so that the transmit signal is reflected at a corresponding plurality of different points on the object. It the distances of the plurality of different points of the object can then be determined on the basis of the transmission signal reflected at the plurality of different points of the object. In other words, a local distribution of the distance of the reflecting surface of the object can be determined. The device can then be operated as a function of the determined distances for the large number of different points on the object. By taking different points of an object into account, the reliability of gesture recognition and the number of differentiable gestures can be increased further.

Auf Basis der Abstände für die Vielzahl von unterschiedlichen Punkten kann erkannt werden, ob es sich bei dem Objekt um eine Hand handelt oder nicht. Insbesondere können die Konturen des Objektes bestimmt werden. Durch Anwendung von Algorithmen der Mustererkennung kann ermittelt werden, ob es sich bei dem Objekt um eine menschliche Hand handelt oder nicht. Das Gerät kann dann in Abhängigkeit davon betrieben werden, ob bestimmt wurde, dass es sich um eine Hand handelt oder nicht. Beispielsweise können Eingaben, die nicht mit der Hand getätigt wurden, ignoriert werden. Andererseits können Eingaben, die mit der Hand getätigt wurden, als Gesten und somit als Steuereingaben interpretiert werden. Durch die Berücksichtigung der örtlichen Verteilung der ermittelten Abstände kann somit die Robustheit und die Zuverlässigkeit einer Benutzerschnittstelle weiter erhöht werden.On the basis of the distances for the large number of different points, it can be recognized whether the object is a hand or not. In particular, the contours of the object can be determined. By using algorithms of pattern recognition, it can be determined whether the object is a human hand or not. The device can then be operated depending on whether it has been determined that it is a hand or not. For example, entries that were not made by hand can be ignored. On the other hand, inputs that have been made by hand can be interpreted as gestures and thus as control inputs. By taking into account the local distribution of the determined distances, the robustness and reliability of a user interface can be further increased.

Im Rahmen des Verfahrens kann eine zeitliche Entwicklung des Abstands des Objekts als Funktion der Zeit ermittelt werden. Es kann dann eine Geste (und die damit assoziierte Steueranweisung) auf Basis der zeitlichen Entwicklung des Abstands bestimmt werden. Durch die Berücksichtigung der zeitlichen Entwicklung des Abstands kann der Umfang der erkennbaren Gesten weiter erhöht werden.A temporal development of the distance of the object as a function of time can be determined as part of the method. A gesture (and the associated tax instruction) can then be determined on the basis of the time evolution of the distance. The scope of the recognizable gestures can be increased further by taking into account the temporal development of the distance.

Insbesondere kann eine Vielzahl von unterschiedlichen Gesten mit einer entsprechenden Vielzahl von unterschiedlichen Steueranweisungen zur Steuerung des Geräts assoziiert sein. Dabei können sich die unterschiedlichen Gesten zumindest teilweise unterscheiden, in Bezug auf: einen absoluten Abstand des Objekts von dem Gerät während der Ausführung der Geste; eine zeitliche Entwicklung des Abstands des Objekts während der Ausführung der Geste; und/oder eine örtliche Verteilung des Abstands entlang der reflektierenden Oberfläche des Objekts während der Ausführung der Geste. Im Rahmen des Verfahrens kann dann in Abhängigkeit von dem ermittelten Abstand eine Geste aus der Vielzahl von unterschiedlichen Gesten selektiert werden. Des Weiteren kann das Gerät gemäß der selektierten Steueranweisung betrieben werden. Es kann somit eine Benutzerschnittstelle mit äußerst umfangreichen Eingabemöglichkeiten bereitgestellt werden.In particular, a large number of different gestures can be associated with a corresponding large number of different control instructions for controlling the device. The different gestures may differ, at least in part, with respect to: an absolute distance of the object from the device during the execution of the gesture; a temporal development of the distance of the object during the execution of the gesture; and / or a spatial distribution of the distance along the reflective surface of the object during the execution of the gesture. Within the scope of the method, a gesture can then be selected from the large number of different gestures depending on the determined distance. Furthermore, the device can be operated in accordance with the selected control instruction. A user interface with extremely extensive input options can thus be provided.

Gemäß einem weiteren Aspekt wird eine Benutzerschnittstelle für ein Gerät, insbesondere für ein Hausgerät, beschrieben Die Benutzerschnittstelle umfasst einen Projektor, der eingerichtet ist, ein Infrarot, kurz IR, Sendesignal zu emittieren. Außerdem umfasst die Benutzerschnittstelle einen Sensor, der eingerichtet ist, das an einem Objekt mit menschlicher Haut reflektierte Sendesignal als Empfangssignal zu erfassen. Des Weiteren umfasst die Benutzerschnittstelle eine Auswerteeinheit. Die Auswerteeinheit ist eingerichtet, auf Basis des Empfangssignals einen Abstand des Objekts zu der Benutzerschnittstelle zu ermitteln, und zu veranlassen, dass das Gerät in Abhängigkeit von dem ermittelten Abstand betrieben wird.According to a further aspect, a user interface for a device, in particular for a domestic appliance, is described. The user interface comprises a projector, which is set up to emit an infrared, IR for short, transmission signal. In addition, the user interface comprises a sensor which is set up to detect the transmission signal reflected on an object with human skin as a reception signal. The user interface also includes an evaluation unit. The evaluation unit is set up to determine a distance from the object to the user interface on the basis of the received signal and to cause the device to be operated as a function of the determined distance.

Gemäß einem weiteren Aspekt wird ein Gerät, insbesondere ein Hausgerät bzw. ein Haushaltsgerät, beschrieben, das die in diesem Dokument beschriebene Benutzerschnittstelle umfasst.According to a further aspect, a device, in particular a domestic appliance or a domestic appliance, is described which comprises the user interface described in this document.

Es ist zu beachten, dass jegliche Aspekte der in diesem Dokument beschriebenen Vorrichtung und/oder des in diesem Dokument beschriebenen Verfahrens in vielfältiger Weise miteinander kombiniert werden können. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that any aspects of the device and / or the method described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in a variety of ways.

Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen

  • 1 ein beispielhaftes Hausgerät mit einer Benutzerschnittstelle;
  • 2a eine beispielhafte Vorrichtung zur Gestenerkennung;
  • 2b eine beispielhafte Abtastung von unterschiedlichen Punkten auf einem Objekt;
  • 2c eine beispielhafte örtliche Verteilung des Abstands; und
  • 3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Steuerung eines elektrisch betriebenen Geräts durch einen Nutzer des Geräts.
The invention is described in more detail below on the basis of exemplary embodiments. Show
  • 1 an exemplary home appliance with a user interface;
  • 2a an exemplary device for gesture recognition;
  • 2 B an exemplary scan of different points on an object;
  • 2c an exemplary local distribution of the distance; and
  • 3 a flowchart of an exemplary method for controlling an electrically operated device by a user of the device.

Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Bereitstellung einer effizienten, kompakten und komfortablen Benutzerschnittstelle für ein elektrisch betriebenes Gerät. In diesem Zusammenhang zeigt 1 ein Hausgerät 100, z.B. eine Waschmaschine, das eine Benutzerschnittstelle 110 umfasst, über die Steuereingaben eines Nutzers des Hausgeräts 100 erfasst werden können. Insbesondere kann es die Benutzerschnittstelle 110 einem Nutzer ermöglichen, ein Betriebsprogramm des Hausgeräts 100 auszuwählen und/oder das Hausgerät 100 zu aktivieren.As stated at the beginning, the present document is concerned with providing an efficient, compact and comfortable user interface for an electrically operated device. In this context shows 1 a home appliance 100 , for example a washing machine that has a user interface 110 comprises, via the control inputs of a user of the household appliance 100 can be recorded. In particular, it can be the user interface 110 enable a user to run an operating program of the household appliance 100 to select and / or the household appliance 100 to activate.

Eine Benutzerschnittstelle 110 umfasst typischerweise mechanische Bedienelemente und/oder virtuelle Bedienelemente auf einem berührungsempfindlichen Bildschirm, die durch einen Nutzer für Steuereingaben betätigt werden können. Derartige Bedienelemente nehmen relativ viel Bauraum auf einem Hausgerät 100 in Anspruch. Des Weiteren ist die Anzahl von Eingaben, die über eine Benutzerschnittstelle 110 getätigt werden können, auf die Anzahl von Bedienelementen beschränkt. Ferner ist die Bereitstellung von Bedienelementen mit relativ hohen Kosten verbunden.A user interface 110 typically includes mechanical controls and / or virtual controls on a touch-sensitive screen that can be operated by a user for control inputs. Such controls take up a relatively large amount of space on a household appliance 100 claim. Furthermore, the number of inputs made through a user interface 110 can be done, limited to the number of controls. Furthermore, the provision of control elements is associated with relatively high costs.

1 veranschaulicht eine Benutzerschnittstelle 110, die es ermöglicht, in kosten- und bauraumeffizienter Weise eine Vielzahl von unterschiedlichen Steuereingaben zu erfassen. Insbesondere können anhand der in 1 dargestellten Benutzerschnittstelle 110 Gesten als Steuereingaben erfasst werden. Zu diesem Zweck umfasst die Benutzerschnittstelle 110 einen Projektor, insbesondere einen Laserprojektor, mit dem ein elektromagnetisches Sendesignal erzeugt werden kann, wobei das Sendesignal in Richtung eines Nutzers des Hausgeräts 100 ausgesendet wird. Das elektromagnetische Sendesignal kann insbesondere ein IR (Infrarot) Signal umfassen bzw. sein. 1 illustrates a user interface 110 , which enables a multitude of different control inputs to be recorded in a cost and space-efficient manner. In particular, based on the in 1 represented user interface 110 Gestures are recorded as tax inputs. For this purpose the user interface includes 110 a projector, in particular a laser projector, with which an electromagnetic transmission signal can be generated, the transmission signal being directed towards a user of the household appliance 100 is sent out. The electromagnetic transmission signal can in particular comprise or be an IR (infrared) signal.

Des Weiteren umfasst die Benutzerschnittstelle 110 einen Sensor 112 (z.B. eine Fotodiode), der eingerichtet ist, ein Reflektionssignal zu erfassen, das durch die Reflektion des Sendesignals an einem Objekt, insbesondere an einer menschlichen Hand, generiert wird. Das Reflektionssignal kann somit im Wesentlichen die gleiche spektrale Zusammensetzung aufweisen wie das Sendesignal. Das Reflektionssignal kann ausgewertet werden, insbesondere um eine bestimmte Geste des Objekts zu erkennen, wobei die Geste mit einer bestimmten Steuereingabe assoziiert ist.The user interface also includes 110 a sensor 112 (eg a photodiode), which is set up to detect a reflection signal which is generated by the reflection of the transmission signal on an object, in particular on a human hand. The reflection signal can thus have essentially the same spectral composition as the transmission signal. The reflection signal can be evaluated, in particular in order to recognize a specific gesture of the object, the gesture being associated with a specific control input.

2a zeigt eine beispielhafte Vorrichtung 200 zur Auswertung eines Reflektionssignals 202, insbesondere um eine Geste zu erkennen. Die Vorrichtung 200 kann somit Teil einer Benutzerschnittstelle 110 sein. Insbesondere zeigt 2a den Projektor 111, der eingerichtet ist, ein (IR-) Sendesignal 201 zu emittieren. Das Sendesignal 201 kann an einem Objekt 204, insbesondere an der Haut einer menschlichen Hand, zumindest teilweise reflektiert werden, so dass ein Reflektionssignal 202 auf den Sensor 112 umgelenkt wird. Das von dem Sensor 112 erfasste Empfangssignal 206 kann durch einen Verstärker 212 mit einem bestimmten Faktor F verstärkt oder gedämpft werden (im Folgenden allgemein als „verstärkt“ bezeichnet). Das verstärkte Empfangssignal 206 kann dann durch einen Analog-Digital (A/D) Wandler 213 in ein digitales Empfangssignal überführt und durch eine Auswerteeinheit 210 ausgewertet werden. Beispielsweise kann durch die Auswerteeinheit 210 die Intensität des verstärkten Empfangssignals 206 ermittelt werden. 2a shows an exemplary device 200 to evaluate a reflection signal 202 , especially to recognize a gesture. The device 200 can thus be part of a user interface 110 his. In particular shows 2a the projector 111 , which is set up, a (IR) transmission signal 201 to emit. The broadcast signal 201 can on an object 204 , in particular on the skin of a human hand, are at least partially reflected, so that a reflection signal 202 on the sensor 112 is redirected. That from the sensor 112 received signal received 206 can through an amplifier 212 can be amplified or damped with a certain factor F (hereinafter generally referred to as "amplified"). The amplified received signal 206 can then by an analog-digital (A / D) converter 213 converted into a digital received signal and by an evaluation unit 210 be evaluated. For example, by the evaluation unit 210 the intensity of the amplified received signal 206 be determined.

Die Reflektivität von menschlicher Haut weist insbesondere für elektromagnetische Strahlung im Infrarot-Frequenzbereich einen nahezu konstanten Wert auf, unabhängig von der Ethnie der Person (insbesondere unabhängig von der Hautfarbe). Somit kann die Reflektivität des Objekts 204 im Falle einer Hand als eine Konstante betrachtet werden. The reflectivity of human skin has an almost constant value, especially for electromagnetic radiation in the infrared frequency range, regardless of the ethnicity of the person (in particular regardless of the skin color). Thus the reflectivity of the object 204 be considered a constant in the case of a hand.

Ferner kann die Intensität des Sendesignals 201 als bekannt betrachtet werden. Beispielsweise kann die Intensität des Sendesignals 201 durch die Auswerteeinheit 210 eingestellt werden.Furthermore, the intensity of the transmission signal 201 be considered known. For example, the intensity of the transmission signal 201 through the evaluation unit 210 can be set.

Folglich ist die Intensität des Empfangssignals 206 allein von den Übertragungseigenschaften der Übertragungsstrecke von dem Projektor 111 bis zum Objekt 204 und von dem Objekt 204 bis zu dem Sensor 112 abhängig. Da es sich bei dem Übertragungsmedium typischerweise stets um Luft handelt, kann die Länge der Übertragungsstrecke, und somit der Abstand 205 zwischen dem Projektor 111 / Sensor 112 und dem Objekt 204 als wesentliche Übertragungseigenschaft betrachtet werden. Folglich kann aus der Intensität des Empfangssignals 206 in effizienter und präziser Weise der Abstand 205 zwischen dem Projektor 111 / Sensor 112 und dem Objekt 204 ermittelt werden.Hence the intensity of the received signal 206 solely from the transmission properties of the transmission path from the projector 111 to the object 204 and from the object 204 up to the sensor 112 dependent. Since the transmission medium is typically always air, the length of the transmission path, and thus the distance, can be changed 205 between the projector 111 / Sensor 112 and the object 204 be regarded as an essential transfer property. Consequently, the intensity of the received signal 206 the distance in an efficient and precise manner 205 between the projector 111 / Sensor 112 and the object 204 be determined.

Die Auswerteeinheit 210 kann eingerichtet sein, den Verstärker 212 zu veranlassen, das Empfangssignal 206 mit einem konstanten Verstärkungsfaktor F zu verstärken. Es kann dann die Intensität des verstärkten Empfangssignals 206 ermittelt und daraus der Abstand 205 bestimmt werden. Alternativ oder ergänzend kann die Auswerteeinheit 210 eingerichtet sein, das Empfangssignal 206 derart zu verstärken, dass das verstärkte Empfangssignal 206 eine bestimmte Intensität aufweist. Der Abstand 205 kann dann auf Basis des Verstärkungsfaktors F bestimmt werden, der erforderlich ist, um zu bewirken, dass das verstärkte Empfangssignal 206 die bestimmte Intensität aufweist. Durch den letzteren Ansatz kann eine Übersteuerung bzw. Überblendung des Sensors 112 und/oder des A/D-Wandlers 213 vermieden werden.The evaluation unit 210 can be set up the amplifier 212 to cause the received signal 206 with a constant gain factor F to reinforce. It can then adjust the intensity of the received signal 206 determined and from this the distance 205 be determined. As an alternative or in addition, the evaluation unit can 210 be set up, the received signal 206 to amplify such that the amplified received signal 206 has a certain intensity. The distance 205 can then be based on the gain factor F can be determined, which is required to cause the amplified received signal 206 that has a certain intensity. The latter approach can override or fade the sensor 112 and / or the A / D converter 213 be avoided.

Der Projektor 111 kann eingerichtet sein, eine bestimmte Umgebung abzuscannen (wie in 2b veranschaulicht). Zu diesem Zweck kann die Abstrahlrichtung des Sendesignals 201 nach und nach verschoben werden. Beispielsweise kann die Abstrahlrichtung in horizontaler Richtung 221 verschoben werden, um unterschiedliche Punkte 223 eines Objekts 204 auf einer horizontalen Zeile abzutasten. Des Weiteren kann die Abstrahlrichtung in vertikaler Richtung 222 verschoben werden, um unterschiedliche Punkte 223 eines Objekts 204 auf einer vertikalen Spalte abzutasten. So kann der Abstand 205 von unterschiedlichen Punkten 223 auf einem Objekt 204 ermittelt werden. Insbesondere kann so Tiefeninformation bezüglich eines Objekts 204 und ggf. einer Umgebung des Objekts 204 ermittelt werden. Mit anderen Worten, es kann eine örtliche Verteilung des Abstands 205 der reflektierenden Oberfläche des Objekts 204 ermittelt werden.The projector 111 can be set up to scan a specific environment (as in 2 B illustrated). For this purpose, the direction of radiation of the transmission signal 201 be gradually moved. For example, the direction of radiation in the horizontal direction 221 be moved to different points 223 of an object 204 to scan on a horizontal line. Furthermore, the direction of radiation in the vertical direction 222 be moved to different points 223 of an object 204 to scan on a vertical column. So the distance 205 from different points 223 on an object 204 be determined. In particular, depth information relating to an object can thus be obtained 204 and possibly an environment of the object 204 be determined. In other words, there can be a local distribution of the distance 205 the reflective surface of the object 204 be determined.

2c veranschaulicht den Verlauf bzw. die Verteilung 231 des ermittelten Abstands 205 zwischen unterschiedlichen Punkten 223 eines Objekts 204 entlang der horizontalen Richtung 221. Aus 2c ist ersichtlich, dass Punkte 223 des Objekts 204 einen relativ niedrigen Abstand 205 zu dem Projektor 111 / Sensor 112 aufweisen, während Punkte 223 der Umgebung des Objekts 204 relativ weit von dem Projektor 111 / Sensor 112 entfernt sind. Somit kann mittels eines scannenden Projektor 111 / Sensor 112 - Paares in effizienter Weise Tiefeninformation in Bezug auf ein Objekt 204 ermittelt werden. Diese Tiefeninformation kann insbesondere ohne Verwendung von relativ kostenintensiven ToF (Time of Flight) Sensoren und/oder stereoskopischen Sensoren ermittelt werden. 2c illustrates the course or distribution 231 the determined distance 205 between different points 223 of an object 204 along the horizontal direction 221 , Out 2c it can be seen that points 223 of the object 204 a relatively short distance 205 to the projector 111 / Sensor 112 exhibit while points 223 the surroundings of the object 204 relatively far from the projector 111 / Sensor 112 are removed. Thus, using a scanning projector 111 / Sensor 112 - Pair depth information in relation to an object in an efficient manner 204 be determined. This depth information can be determined in particular without using relatively expensive ToF (Time of Flight) sensors and / or stereoscopic sensors.

Die derart ermittelte Tiefeninformation kann z.B. im Rahmen der Bildauswertung eines Bildes eines Objekts 204 verwendet werden, um die erforderliche Rechenleistung zur Auswertung des Bildes zu reduzieren. Die Tiefeninformation kann ggf. auch für interaktive Anzeigen bzw. Bildschirme verwendet werden.The depth information determined in this way can be used, for example, as part of the image evaluation of an image of an object 204 can be used to reduce the computing power required to evaluate the image. The depth information can optionally also be used for interactive displays or screens.

Insbesondere kann die Tiefeninformation für die Definition von Gesten zur Gestensteuerung eines Geräts 100, insbesondere eines Hausgeräts 100, verwendet werden. Dabei können ein oder mehrere Gesten definiert werden, die von dem Abstand 205 des Objekts 204 (insbesondere von dem Abstand 205 einer menschlichen Hand) abhängen. Beispielsweise kann zur Erkennung einer bestimmten Geste ermittelt werden, ob sich das Objekt 204 in einem bestimmten Abstand 205 befindet. Des Weiteren kann ein zeitlicher Verlauf des Abstands 205 ermittelt werden, um eine bestimmte Geste zu detektieren.In particular, the depth information can be used to define gestures for gesture control of a device 100 , especially a household appliance 100 , be used. One or more gestures can be defined by the distance 205 of the object 204 (especially from the distance 205 of a human hand). For example, to identify a specific gesture, it can be determined whether the object is 204 at a certain distance 205 located. Furthermore, a time course of the distance 205 can be determined in order to detect a specific gesture.

3 zeigt ein Ablaufdiagramm eines beispielhaften Verfahrens 300 zu Steuerung eines Geräts 100, insbesondere eines Hausgeräts 100. Das Verfahren 300 kann z.B. durch eine Benutzerschnittstelle 110 des Geräts 100 ausgeführt werden. Das Verfahren 300 umfasst das Emittieren 301 eines Infrarot, kurz IR, Sendesignals 201 von dem Gerät 100, insbesondere von einem Projektor 111 des Geräts 100. Bei dem IR Sendesignal 201 kann es sich um ein IR-Lasersignal handeln. 3 shows a flowchart of an exemplary method 300 to control a device 100 , especially a household appliance 100 , The procedure 300 can, for example, through a user interface 110 of the device 100 be carried out. The procedure 300 includes emitting 301 an infrared, short IR, transmission signal 201 from the device 100 , especially from a projector 111 of the device 100 , With the IR transmission signal 201 can be an IR laser signal.

Außerdem umfasst das Verfahren 300 das Erfassen 302 des an einem Objekt 204 mit menschlicher Haut (insbesondere an einer Hand) reflektierten Sendesignals 201 als Empfangssignal 206 an dem Gerät 100 (insbesondere an einem Sensor 112, etwa an einer Fotodiode, des Geräts 100). Des Weiteren umfasst das Verfahren 300 das Ermitteln 303 des Abstands 205 des Objekts 204 von dem Gerät 100, auf Basis des Empfangssignals 206. Zu diesem Zweck kann die Intensität des Empfangssignals 206 ermittelt werden. Auf Basis von Kenndaten, die für unterschiedliche Intensitätswerte unterschiedliche Abstandswerte anzeigen, kann dann in präziser und effizienter Weise der Abstand 205 ermittelt werden.The procedure also includes 300 the grasping 302 of an object 204 with human skin (especially on a hand) reflected signal 201 as a received signal 206 on the device 100 (especially on a sensor 112 , for example on a photodiode, of the device 100 ). The procedure also includes 300 investigating 303 of distance 205 of the object 204 from the device 100 , based on the received signal 206 , For this purpose, the intensity of the received signal 206 be determined. The distance can then be used in a precise and efficient manner on the basis of characteristic data which show different distance values for different intensity values 205 be determined.

Ferner umfasst das Verfahren 300 das Betreiben 304 des Geräts 100 in Abhängigkeit von dem ermittelten Abstand 205. Insbesondere kann auf Basis des ermittelten Abstands 205 eine bestimmte von dem Objekt 204 ausgeführt Geste erkannt werden. Die Geste kann mit einer Steueranweisung an das Gerät 100 assoziiert sein. Im Rahmen des Verfahrens 300 kann dann veranlasst werden, dass das Gerät 100 gemäß der detektierten Steueranweisung betrieben wird. So kann in effizienter Weise eine komfortable Steuerung eines Geräts 100, insbesondere eines Hausgeräts, ermöglicht werden.The method further comprises 300 operating 304 of the device 100 depending on the distance determined 205 , In particular, based on the determined distance 205 a certain of the object 204 executed gesture to be recognized. The gesture can be sent to the device with a control instruction 100 be associated. As part of the process 300 can then have the device 100 is operated according to the detected control instruction. This allows convenient control of a device in an efficient manner 100 , in particular a household appliance, are made possible.

Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Vorrichtung und/oder des vorgeschlagenen Verfahrens veranschaulichen sollen.The present invention is not restricted to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed device and / or the proposed method.

Claims (11)

Verfahren (300) zur Steuerung eines Geräts (100); wobei das Verfahren (300) umfasst, - Emittieren (301) eines Infrarot, kurz IR, Sendesignals (201) von dem Gerät (100); - Erfassen (302) des an einem Objekt (204) mit menschlicher Haut reflektierten Sendesignals (201) als Empfangssignal (206) an dem Gerät (100); - Ermitteln (303) eines Abstands (205) des Objekts (204) von dem Gerät (100), auf Basis des Empfangssignals (206); und - Betreiben (304) des Geräts (100) in Abhängigkeit von dem ermittelten Abstand (205).Method (300) for controlling a device (100); the method (300) comprising - emitting (301) an infrared, short IR, transmission signal (201) from the device (100); - Detecting (302) the transmission signal (201) reflected on an object (204) with human skin as a reception signal (206) on the device (100); - determining (303) a distance (205) of the object (204) from the device (100), based on the received signal (206); and - Operation (304) of the device (100) depending on the determined distance (205). Verfahren (300) gemäß Anspruch 1, wobei - das Verfahren (300) umfasst, Ermitteln von Intensitäts-Information in Bezug auf eine Intensität des Empfangssignals (206); und - der Abstand (205) auf Basis der Intensitäts-Information ermittelt wird.Method (300) according to Claim 1 , wherein - the method (300) comprises determining intensity information relating to an intensity of the received signal (206); and - the distance (205) is determined on the basis of the intensity information. Verfahren (300) gemäß Anspruch 2, wobei das Ermitteln der Intensitäts-Information umfasst, - Ermitteln einer elektrischen Leistung an einem Sensor (112) zum Erfassen (302) des Empfangssignals (206); und/oder - Ermitteln eines Verstärkungsfaktors zur Verstärkung des Empfangssignals (206), durch den bewirkt wird, dass das verstärkte Empfangssignal (206) eine bestimmte Intensität aufweist.Method (300) according to Claim 2 , the determination of the intensity information comprising, Determining electrical power at a sensor (112) for detecting (302) the received signal (206); and / or - determining an amplification factor for amplifying the received signal (206), by which the amplified received signal (206) is caused to have a certain intensity. Verfahren (300) gemäß einem der Ansprüche 2 bis 3, wobei - der Abstand (205) auf Basis von Kenndaten ermittelt wird; und - die Kenndaten für unterschiedliche Werte der Intensitäts-Information unterschiedliche Abstandswerte anzeigen.Method (300) according to one of the Claims 2 to 3 , wherein - the distance (205) is determined on the basis of characteristic data; and - the characteristic data for different values of the intensity information indicate different distance values. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei das Verfahren (100) umfasst, - Emittieren (301) des IR-Sendesignals (201) in eine Vielzahl von unterschiedlichen Richtungen, so dass das Sendesignal (201) an einer entsprechenden Vielzahl von unterschiedlichen Punkten (223) an dem Objekt (204) reflektiert wird; - Ermitteln (303) des Abstands (205) der Vielzahl von unterschiedlichen Punkten (223) des Objekts (204), auf Basis des an der Vielzahl von unterschiedlichen Punkten (223) des Objektes (204) reflektierten Sendesignals (201); und - Betreiben (304) des Geräts (100) in Abhängigkeit von den ermittelten Abständen (205) für die Vielzahl von unterschiedlichen Punkten (223).The method (300) according to any one of the preceding claims, the method (100) comprising - emitting (301) the IR transmission signal (201) in a plurality of different directions, so that the transmission signal (201) is reflected at a corresponding plurality of different points (223) on the object (204); - determining (303) the distance (205) of the plurality of different points (223) of the object (204), based on the transmission signal (201) reflected at the plurality of different points (223) of the object (204); and - Operation (304) of the device (100) depending on the determined distances (205) for the plurality of different points (223). Verfahren (300) gemäß Anspruch 5, wobei das Verfahren (100) umfasst, - Bestimmen, auf Basis der Abstände (205) für die Vielzahl von unterschiedlichen Punkten (223), ob es sich bei dem Objekt (204) um eine Hand handelt oder nicht; und - Betreiben (304) des Geräts (100) in Abhängigkeit davon, ob bestimmt wurde, dass es sich um eine Hand handelt oder nicht.Method (300) according to Claim 5 , the method (100) comprising - determining, based on the distances (205) for the plurality of different points (223), whether or not the object (204) is a hand; and - operating (304) the device (100) depending on whether it has been determined that it is a hand or not. Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei das Verfahren (300) umfasst, - Detektieren, in Abhängigkeit von dem ermittelten Abstand (205), einer von dem Objekt (204) ausgeführten Geste; und - Ermitteln, auf Basis der detektierten Geste, einer Steueranweisung zur Steuerung des Geräts (100).The method (300) according to any one of the preceding claims, the method (300) comprising - Detecting, depending on the determined distance (205), a gesture carried out by the object (204); and - Determine, based on the detected gesture, a control instruction for controlling the device (100). Verfahren (300) gemäß Anspruch 7, wobei das Verfahren (300) umfasst, - Ermitteln einer zeitlichen Entwicklung des Abstands (205) des Objekts (204) als Funktion der Zeit; und - Detektieren der Geste auf Basis der zeitlichen Entwicklung des Abstands (205).Method (300) according to Claim 7 , the method (300) comprising - determining a temporal development of the distance (205) of the object (204) as a function of time; and - detecting the gesture based on the time evolution of the distance (205). Verfahren (300) gemäß einem der Ansprüche 7 bis 8, wobei - eine Vielzahl von unterschiedlichen Gesten mit einer entsprechenden Vielzahl von unterschiedlichen Steueranweisungen zur Steuerung des Geräts (100) assoziiert sind; - sich die unterschiedlichen Gesten zumindest teilweise unterscheiden in Bezug auf -einen absoluten Abstand (205) des Objekts (204) von dem Gerät (100) während der Ausführung der Geste; -eine zeitliche Entwicklung des Abstands (205) des Objekts (204) während der Ausführung der Geste; und/oder -eine örtliche Verteilung des Abstands (205) entlang einer Oberfläche des Objekts (204) während der Ausführung der Geste; und - das Verfahren (300) umfasst, Selektieren einer Geste aus der Vielzahl von unterschiedlichen Gesten, in Abhängigkeit von dem ermittelten Abstand (205).Method (300) according to one of the Claims 7 to 8th , wherein - a plurality of different gestures are associated with a corresponding plurality of different control instructions for controlling the device (100); - The different gestures differ at least partially with respect to an absolute distance (205) of the object (204) from the device (100) during the execution of the gesture; a time evolution of the distance (205) of the object (204) during the execution of the gesture; and / or a local distribution of the distance (205) along a surface of the object (204) during the execution of the gesture; and - the method (300) comprises selecting a gesture from the plurality of different gestures, depending on the determined distance (205). Verfahren (300) gemäß einem der vorhergehenden Ansprüche, wobei das Gerät (100) ein Hausgerät, insbesondere ein Haushaltsgerät, ist.Method (300) according to one of the preceding claims, wherein the device (100) is a domestic appliance, in particular a domestic appliance. Benutzerschnittstelle (110) für ein Gerät (100), wobei die Benutzerschnittstelle (110) umfasst, - einen Projektor (111), der eingerichtet ist, ein Infrarot, kurz IR, Sendesignal (201) zu emittieren; - einen Sensor (112), der eingerichtet ist, das an einem Objekt (204) mit menschlicher Haut reflektierte Sendesignal (201) als Empfangssignal (206) zu erfassen; und - eine Auswerteeinheit (210), die eingerichtet ist, -auf Basis des Empfangssignals (206) einen Abstand (205) des Objekts (204) zu der Benutzerschnittstelle (110) zu ermitteln; und -zu veranlassen, dass das Gerät (100) in Abhängigkeit von dem ermittelten Abstand (205) betrieben wird.User interface (110) for a device (100), the user interface (110) comprising - A projector (111), which is set up to emit an infrared, IR for short, transmission signal (201); - a sensor (112) which is set up to detect the transmission signal (201) reflected on an object (204) with human skin as a reception signal (206); and - an evaluation unit (210) which is set up - on the basis of the received signal (206) to determine a distance (205) of the object (204) from the user interface (110); and to cause the device (100) to be operated as a function of the determined distance (205).
DE102018212309.8A 2018-07-24 2018-07-24 Method and user interface for controlling a device Pending DE102018212309A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018212309.8A DE102018212309A1 (en) 2018-07-24 2018-07-24 Method and user interface for controlling a device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018212309.8A DE102018212309A1 (en) 2018-07-24 2018-07-24 Method and user interface for controlling a device

Publications (1)

Publication Number Publication Date
DE102018212309A1 true DE102018212309A1 (en) 2020-01-30

Family

ID=69148967

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018212309.8A Pending DE102018212309A1 (en) 2018-07-24 2018-07-24 Method and user interface for controlling a device

Country Status (1)

Country Link
DE (1) DE102018212309A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025669A1 (en) * 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Vehicle lock actuator and non-free hand method
WO2012152476A1 (en) * 2011-05-12 2012-11-15 Robert Bosch Gmbh Method for detecting gestures
DE102013100521A1 (en) * 2013-01-18 2014-07-24 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensor arrangement for detecting operating gestures on vehicles
US20170090580A1 (en) * 2015-09-24 2017-03-30 Stmicroelectronics Sa Device and method for recognizing hand gestures using time-of-flight sensing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008025669A1 (en) * 2007-06-01 2008-12-11 GM Global Technology Operations, Inc., Detroit Vehicle lock actuator and non-free hand method
WO2012152476A1 (en) * 2011-05-12 2012-11-15 Robert Bosch Gmbh Method for detecting gestures
DE102013100521A1 (en) * 2013-01-18 2014-07-24 Huf Hülsbeck & Fürst Gmbh & Co. Kg Sensor arrangement for detecting operating gestures on vehicles
US20170090580A1 (en) * 2015-09-24 2017-03-30 Stmicroelectronics Sa Device and method for recognizing hand gestures using time-of-flight sensing

Similar Documents

Publication Publication Date Title
EP1761729B2 (en) Domestic appliance with adjusting device
DE102014115460A1 (en) Method and device for operating a domestic appliance and household appliance
DE202006020910U1 (en) Home appliance with fingerprint sensor
EP2990825B1 (en) Method and device for controlling a domestic appliance and domestic appliance
DE102014200298A1 (en) A method of establishing a wireless communication link between at least two home appliances
DE102014007173A1 (en) Device for operating an electronic device
DE102012217350A1 (en) Cooking appliance
EP1341158A2 (en) Voice-controlled electric appliance, in particular fume exhausting hood
DE102014017833A1 (en) Hood
DE102018212309A1 (en) Method and user interface for controlling a device
EP2400472A2 (en) Portable operating module for a domestic appliance and system with such a portable operating module and method for operating a domestic appliance with a portable operating module
DE102018219741A1 (en) Operation of an induction cooker
DE102016217364A1 (en) motor vehicle
DE102014000573A1 (en) Operating device for an electronic device
DE102014206664A1 (en) Device for detecting a fire hazard and / or a fire
EP2723622B1 (en) Device and method for controlling a rail vehicle
DE102015109053B4 (en) Cooking field device and method of operation
WO2012150216A1 (en) Cooking hob with an operating device that uses a camera
DE102019127281A1 (en) Method and device for controlling a laser source of a LIDAR system
EP3079444A1 (en) Method for operating a cooking hob, and a cooking hob
EP3001109B1 (en) Domestic appliance with gesture detection
CN107390280B (en) Movable inspection system
DE102015009806B4 (en) Device and method for operating an electronic device
DE102015017191A1 (en) Device and method for operating an electronic device
DE102022131769A1 (en) Method for controlling an electrical household appliance, control system and electrical household appliance

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication