DE102018212309A1 - Method and user interface for controlling a device - Google Patents
Method and user interface for controlling a device Download PDFInfo
- Publication number
- DE102018212309A1 DE102018212309A1 DE102018212309.8A DE102018212309A DE102018212309A1 DE 102018212309 A1 DE102018212309 A1 DE 102018212309A1 DE 102018212309 A DE102018212309 A DE 102018212309A DE 102018212309 A1 DE102018212309 A1 DE 102018212309A1
- Authority
- DE
- Germany
- Prior art keywords
- distance
- determined
- gesture
- transmission signal
- different
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Es wird ein Verfahren (300) zur Steuerung eines Geräts (100) beschrieben. Das Verfahren (300) umfasst das Emittieren (301) eines Infrarot, kurz IR, Sendesignals (201) von dem Gerät (100). Des Weiteren umfasst das Verfahren (300) das Erfassen (302) des an einem Objekt (204) mit menschlicher Haut reflektierten Sendesignals (201) als Empfangssignal (206) an dem Gerät (100). Ferner umfasst das Verfahren (300) das Ermitteln (303) eines Abstands (205) des Objekts (204) von dem Gerät (100), auf Basis des Empfangssignals (206), sowie das Betreiben (304) des Geräts (100) in Abhängigkeit von dem ermittelten Abstand (205).A method (300) for controlling a device (100) is described. The method (300) comprises emitting (301) an infrared, IR for short, transmission signal (201) from the device (100). The method (300) further comprises detecting (302) the transmission signal (201) reflected on an object (204) with human skin as a reception signal (206) on the device (100). The method (300) further comprises determining (303) a distance (205) of the object (204) from the device (100), based on the received signal (206), and operating (304) the device (100) as a function of it from the determined distance (205).
Description
Die Erfindung betrifft ein Verfahren und eine Benutzerschnittstelle zur Steuerung eines Geräts, insbesondere eines Hausgeräts.The invention relates to a method and a user interface for controlling a device, in particular a household appliance.
Haushalte verfügen typischerweise über eine Vielzahl von Hausgeräten, insbesondere über eine Vielzahl von Haushaltsgeräten, wie z.B. einen Kühlschrank, einen Ofen, einen Herd, eine Waschmaschine, eine Spülmaschine, einen Trockner, etc. Ein Hausgerät weist typischerweise eine Benutzerschnittstelle auf, die es einem Nutzer ermöglicht, eine Benutzereingabe bzw. eine Steueranweisung zu tätigen, um den Betrieb des Hausgeräts zu steuern, etwa um ein Betriebsprogramm des Hausgeräts auszuwählen und/oder um das Hausgerät zu aktivieren.Households typically have a large number of household appliances, in particular a large number of household appliances, such as a refrigerator, an oven, a stove, a washing machine, a dishwasher, a dryer, etc. A home appliance typically has a user interface that allows a user to enter a user or control instruction to control the operation of the home appliance , for example to select an operating program for the household appliance and / or to activate the household appliance.
Das vorliegende Dokument befasst sich mit der technischen Aufgabe, eine komfortable, zuverlässige und umfangreiche Steuerung eines Geräts, insbesondere eines Hausgeräts, durch einen menschlichen Nutzer zu ermöglichen.The present document deals with the technical task of enabling comfortable, reliable and extensive control of a device, in particular a domestic device, by a human user.
Die Aufgabe wird durch die unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben.The task is solved by the independent claims. Advantageous embodiments include described in the dependent claims.
Gemäß einem Aspekt der Erfindung wird ein Verfahren zur Steuerung eines Geräts, insbesondere eines Hausgeräts bzw. eines Haushaltsgeräts, beschrieben. Das Verfahren kann durch eine Benutzerschnittstelle des Geräts ausgeführt werden. Insbesondere kann das Verfahren dazu genutzt werden, Steueranweisungen bzw. Benutzereingaben an das Gerät zu übermitteln.According to one aspect of the invention, a method for controlling a device, in particular a household appliance or a household appliance, is described. The method can be performed through a user interface of the device. In particular, the method can be used to transmit control instructions or user input to the device.
Das Verfahren umfasst das Emittieren eines Infrarot, kurz IR, Sendesignals von dem Gerät. Das Sendesignal kann insbesondere ein IR-Lasersignal umfassen. Das Sendesignal kann z.B. Wellenlängen im Bereich von 850nm bis 900nm umfassen. Dabei kann das Sendesignal durch einen Projektor (z.B. durch eine Laserdiode) des Geräts emittiert werden.The method comprises emitting an infrared, IR for short, transmission signal from the device. The transmission signal can in particular comprise an IR laser signal. The transmission signal can e.g. Include wavelengths in the range of 850nm to 900nm. The transmission signal can be emitted by a projector (e.g. a laser diode) of the device.
Außerdem umfasst das Verfahren das Erfassen des an einem Objekt mit menschlicher Haut (z.B. an einer Hand) reflektierten Sendesignals als Empfangssignal an dem Gerät, insbesondere an einem Sensor (z.B. an einer Fotodiode) des Geräts. Die menschliche Haut kann dabei (unabhängig von dem Typ der Haut) eine im Wesentlichen konstante Reflektivität für das IR-Sendesignal aufweisen. Mit anderen Worten, das (elektromagnetische) IR-Sendesignal kann derart sein (in Bezug auf die spektrale Zusammensetzung des Sendesignals), dass die Reflektivität des Sendesignals an menschlicher Haut im Wesentlichen unabhängig von dem Typ (z.B. der Farbe) der Haut ist.In addition, the method comprises the detection of the transmitted signal reflected on an object with human skin (e.g. on a hand) as a received signal on the device, in particular on a sensor (e.g. on a photodiode) of the device. The human skin can (regardless of the type of skin) have an essentially constant reflectivity for the IR transmission signal. In other words, the (electromagnetic) IR transmission signal can be such (in relation to the spectral composition of the transmission signal) that the reflectivity of the transmission signal on human skin is essentially independent of the type (e.g. the color) of the skin.
Das Verfahren umfasst ferner das Ermitteln des Abstands des Objekts von dem Gerät, auf Basis des Empfangssignals. Zu diesem Zweck kann Intensitäts-Information in Bezug auf die Intensität des Empfangssignals ermittelt werden. Insbesondere kann die elektrische Leistung an dem Sensor zum Erfassen des Empfangssignals als Indikator für die Intensität des Empfangssignals ermittelt werden. Alternativ oder ergänzend kann ein Verstärkungsfaktor zur Verstärkung des Empfangssignals ermittelt werden, durch den bewirkt wird, dass das verstärkte Empfangssignal eine bestimmte Intensität aufweist. Der Abstand kann dann in präziser Weise auf Basis der Intensitäts-Information (z.B. auf Basis der ermittelten elektrischen Leistung und/oder auf Basis des Verstärkungsfaktors) ermittelt werden.The method further includes determining the distance of the object from the device based on the received signal. For this purpose, intensity information can be determined in relation to the intensity of the received signal. In particular, the electrical power on the sensor for detecting the received signal can be determined as an indicator of the intensity of the received signal. As an alternative or in addition, an amplification factor for amplifying the received signal can be determined, which causes the amplified received signal to have a certain intensity. The distance can then be determined in a precise manner on the basis of the intensity information (for example on the basis of the electrical power determined and / or on the basis of the amplification factor).
Des Weiteren kann der Abstand auf Basis von Kenndaten ermittelt werden, wobei die Kenndaten für unterschiedliche Werte der Intensitäts-Information (insbesondere für unterschiedliche elektrische Leistungen und/oder für unterschiedliche Verstärktungsfaktoren) unterschiedliche Abstandswerte anzeigen. Die Kenndaten können im Vorfeld (z.B. experimentell) für eine bestimmte Kombination aus Projektor und Sensor ermittelt werden. Der Abstand kann dann in präziser und effizienter Weise auf Basis der Kenndaten und auf Basis der Intensitäts-Information (z.B. auf Basis der gemessenen elektrischen Leistung und/oder auf Basis des ermittelten Verstärkungsfaktors) ermittelt werden.Furthermore, the distance can be determined on the basis of characteristic data, the characteristic data indicating different distance values for different values of the intensity information (in particular for different electrical powers and / or for different amplification factors). The characteristic data can be determined in advance (e.g. experimentally) for a certain combination of projector and sensor. The distance can then be determined in a precise and efficient manner on the basis of the characteristic data and on the basis of the intensity information (for example on the basis of the measured electrical power and / or on the basis of the determined gain factor).
Außerdem umfasst das Verfahren das Betreiben des Geräts in Abhängigkeit von dem ermittelten Abstand. Beispielsweise kann ein Betriebsprogramm des Geräts in Abhängigkeit von dem ermittelten Abstand ausgewählt und/oder aktiviert werden. The method also includes operating the device as a function of the determined distance. For example, an operating program of the device can be selected and / or activated depending on the determined distance.
Insbesondere kann in Abhängigkeit von dem ermittelten Abstand, eine von dem Objekt ausgeführten Geste detektiert werden. Auf Basis der detektierten Geste kann dann eine Steueranweisung zur Steuerung des Geräts ermittelt werden. Des Weiteren kann veranlasst werden, dass das Gerät gemäß der Steueranweisung betrieben wird.In particular, depending on the determined distance, a gesture performed by the object can be detected. A control instruction for controlling the device can then be determined on the basis of the detected gesture. Furthermore, it can be arranged that the device is operated in accordance with the control instructions.
Das beschriebene Verfahren ermöglicht es somit, in effizienter Weise Abstandsinformation in Bezug auf den Abstand eines Objekts zu ermitteln und die Abstandsinformation bei der Steuerung eines Geräts zu berücksichtigen. Durch die Berücksichtigung des Abstands kann eine gestengesteuerte Benutzerschnittstelle bereitgestellt werden, die eine hohe Anzahl von unterschiedlichen Eingaben ermöglicht.The described method thus makes it possible to determine distance information in relation to the distance of an object in an efficient manner and to take the distance information into account when controlling a device. By taking the distance into account, a gesture-controlled user interface can be provided which enables a large number of different inputs.
Das Verfahren kann umfassen, das Emittieren des IR-Sendesignals in eine Vielzahl von unterschiedlichen Richtungen, so dass das Sendesignal an einer entsprechenden Vielzahl von unterschiedlichen Punkten an dem Objekt reflektiert wird. Es können dann auf Basis des an der Vielzahl von unterschiedlichen Punkten des Objektes reflektierten Sendesignals die Abstände der Vielzahl von unterschiedlichen Punkten des Objekts ermittelt werden. Mit anderen Worten, es kann eine örtliche Verteilung des Abstands der reflektierenden Oberfläche des Objekts ermittelt werden. Das Gerät kann dann in Abhängigkeit von den ermittelten Abständen für die Vielzahl von unterschiedlichen Punkten des Objekts betrieben werden. Durch die Berücksichtigung von unterschiedlichen Punkten eines Objekts können die Zuverlässigkeit der Gestenerkennung und die Anzahl der differenzierbaren Gesten weiter erhöht werden.The method may include emitting the IR transmit signal in a variety of different directions so that the transmit signal is reflected at a corresponding plurality of different points on the object. It the distances of the plurality of different points of the object can then be determined on the basis of the transmission signal reflected at the plurality of different points of the object. In other words, a local distribution of the distance of the reflecting surface of the object can be determined. The device can then be operated as a function of the determined distances for the large number of different points on the object. By taking different points of an object into account, the reliability of gesture recognition and the number of differentiable gestures can be increased further.
Auf Basis der Abstände für die Vielzahl von unterschiedlichen Punkten kann erkannt werden, ob es sich bei dem Objekt um eine Hand handelt oder nicht. Insbesondere können die Konturen des Objektes bestimmt werden. Durch Anwendung von Algorithmen der Mustererkennung kann ermittelt werden, ob es sich bei dem Objekt um eine menschliche Hand handelt oder nicht. Das Gerät kann dann in Abhängigkeit davon betrieben werden, ob bestimmt wurde, dass es sich um eine Hand handelt oder nicht. Beispielsweise können Eingaben, die nicht mit der Hand getätigt wurden, ignoriert werden. Andererseits können Eingaben, die mit der Hand getätigt wurden, als Gesten und somit als Steuereingaben interpretiert werden. Durch die Berücksichtigung der örtlichen Verteilung der ermittelten Abstände kann somit die Robustheit und die Zuverlässigkeit einer Benutzerschnittstelle weiter erhöht werden.On the basis of the distances for the large number of different points, it can be recognized whether the object is a hand or not. In particular, the contours of the object can be determined. By using algorithms of pattern recognition, it can be determined whether the object is a human hand or not. The device can then be operated depending on whether it has been determined that it is a hand or not. For example, entries that were not made by hand can be ignored. On the other hand, inputs that have been made by hand can be interpreted as gestures and thus as control inputs. By taking into account the local distribution of the determined distances, the robustness and reliability of a user interface can be further increased.
Im Rahmen des Verfahrens kann eine zeitliche Entwicklung des Abstands des Objekts als Funktion der Zeit ermittelt werden. Es kann dann eine Geste (und die damit assoziierte Steueranweisung) auf Basis der zeitlichen Entwicklung des Abstands bestimmt werden. Durch die Berücksichtigung der zeitlichen Entwicklung des Abstands kann der Umfang der erkennbaren Gesten weiter erhöht werden.A temporal development of the distance of the object as a function of time can be determined as part of the method. A gesture (and the associated tax instruction) can then be determined on the basis of the time evolution of the distance. The scope of the recognizable gestures can be increased further by taking into account the temporal development of the distance.
Insbesondere kann eine Vielzahl von unterschiedlichen Gesten mit einer entsprechenden Vielzahl von unterschiedlichen Steueranweisungen zur Steuerung des Geräts assoziiert sein. Dabei können sich die unterschiedlichen Gesten zumindest teilweise unterscheiden, in Bezug auf: einen absoluten Abstand des Objekts von dem Gerät während der Ausführung der Geste; eine zeitliche Entwicklung des Abstands des Objekts während der Ausführung der Geste; und/oder eine örtliche Verteilung des Abstands entlang der reflektierenden Oberfläche des Objekts während der Ausführung der Geste. Im Rahmen des Verfahrens kann dann in Abhängigkeit von dem ermittelten Abstand eine Geste aus der Vielzahl von unterschiedlichen Gesten selektiert werden. Des Weiteren kann das Gerät gemäß der selektierten Steueranweisung betrieben werden. Es kann somit eine Benutzerschnittstelle mit äußerst umfangreichen Eingabemöglichkeiten bereitgestellt werden.In particular, a large number of different gestures can be associated with a corresponding large number of different control instructions for controlling the device. The different gestures may differ, at least in part, with respect to: an absolute distance of the object from the device during the execution of the gesture; a temporal development of the distance of the object during the execution of the gesture; and / or a spatial distribution of the distance along the reflective surface of the object during the execution of the gesture. Within the scope of the method, a gesture can then be selected from the large number of different gestures depending on the determined distance. Furthermore, the device can be operated in accordance with the selected control instruction. A user interface with extremely extensive input options can thus be provided.
Gemäß einem weiteren Aspekt wird eine Benutzerschnittstelle für ein Gerät, insbesondere für ein Hausgerät, beschrieben Die Benutzerschnittstelle umfasst einen Projektor, der eingerichtet ist, ein Infrarot, kurz IR, Sendesignal zu emittieren. Außerdem umfasst die Benutzerschnittstelle einen Sensor, der eingerichtet ist, das an einem Objekt mit menschlicher Haut reflektierte Sendesignal als Empfangssignal zu erfassen. Des Weiteren umfasst die Benutzerschnittstelle eine Auswerteeinheit. Die Auswerteeinheit ist eingerichtet, auf Basis des Empfangssignals einen Abstand des Objekts zu der Benutzerschnittstelle zu ermitteln, und zu veranlassen, dass das Gerät in Abhängigkeit von dem ermittelten Abstand betrieben wird.According to a further aspect, a user interface for a device, in particular for a domestic appliance, is described. The user interface comprises a projector, which is set up to emit an infrared, IR for short, transmission signal. In addition, the user interface comprises a sensor which is set up to detect the transmission signal reflected on an object with human skin as a reception signal. The user interface also includes an evaluation unit. The evaluation unit is set up to determine a distance from the object to the user interface on the basis of the received signal and to cause the device to be operated as a function of the determined distance.
Gemäß einem weiteren Aspekt wird ein Gerät, insbesondere ein Hausgerät bzw. ein Haushaltsgerät, beschrieben, das die in diesem Dokument beschriebene Benutzerschnittstelle umfasst.According to a further aspect, a device, in particular a domestic appliance or a domestic appliance, is described which comprises the user interface described in this document.
Es ist zu beachten, dass jegliche Aspekte der in diesem Dokument beschriebenen Vorrichtung und/oder des in diesem Dokument beschriebenen Verfahrens in vielfältiger Weise miteinander kombiniert werden können. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden.It should be noted that any aspects of the device and / or the method described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in a variety of ways.
Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen
-
1 ein beispielhaftes Hausgerät mit einer Benutzerschnittstelle; -
2a eine beispielhafte Vorrichtung zur Gestenerkennung; -
2b eine beispielhafte Abtastung von unterschiedlichen Punkten auf einem Objekt; -
2c eine beispielhafte örtliche Verteilung des Abstands; und -
3 ein Ablaufdiagramm eines beispielhaften Verfahrens zur Steuerung eines elektrisch betriebenen Geräts durch einen Nutzer des Geräts.
-
1 an exemplary home appliance with a user interface; -
2a an exemplary device for gesture recognition; -
2 B an exemplary scan of different points on an object; -
2c an exemplary local distribution of the distance; and -
3 a flowchart of an exemplary method for controlling an electrically operated device by a user of the device.
Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der Bereitstellung einer effizienten, kompakten und komfortablen Benutzerschnittstelle für ein elektrisch betriebenes Gerät. In diesem Zusammenhang zeigt
Eine Benutzerschnittstelle
Des Weiteren umfasst die Benutzerschnittstelle
Die Reflektivität von menschlicher Haut weist insbesondere für elektromagnetische Strahlung im Infrarot-Frequenzbereich einen nahezu konstanten Wert auf, unabhängig von der Ethnie der Person (insbesondere unabhängig von der Hautfarbe). Somit kann die Reflektivität des Objekts
Ferner kann die Intensität des Sendesignals
Folglich ist die Intensität des Empfangssignals
Die Auswerteeinheit
Der Projektor
Die derart ermittelte Tiefeninformation kann z.B. im Rahmen der Bildauswertung eines Bildes eines Objekts
Insbesondere kann die Tiefeninformation für die Definition von Gesten zur Gestensteuerung eines Geräts
Außerdem umfasst das Verfahren
Ferner umfasst das Verfahren
Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur das Prinzip der vorgeschlagenen Vorrichtung und/oder des vorgeschlagenen Verfahrens veranschaulichen sollen.The present invention is not restricted to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed device and / or the proposed method.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018212309.8A DE102018212309A1 (en) | 2018-07-24 | 2018-07-24 | Method and user interface for controlling a device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018212309.8A DE102018212309A1 (en) | 2018-07-24 | 2018-07-24 | Method and user interface for controlling a device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018212309A1 true DE102018212309A1 (en) | 2020-01-30 |
Family
ID=69148967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018212309.8A Pending DE102018212309A1 (en) | 2018-07-24 | 2018-07-24 | Method and user interface for controlling a device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102018212309A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008025669A1 (en) * | 2007-06-01 | 2008-12-11 | GM Global Technology Operations, Inc., Detroit | Vehicle lock actuator and non-free hand method |
WO2012152476A1 (en) * | 2011-05-12 | 2012-11-15 | Robert Bosch Gmbh | Method for detecting gestures |
DE102013100521A1 (en) * | 2013-01-18 | 2014-07-24 | Huf Hülsbeck & Fürst Gmbh & Co. Kg | Sensor arrangement for detecting operating gestures on vehicles |
US20170090580A1 (en) * | 2015-09-24 | 2017-03-30 | Stmicroelectronics Sa | Device and method for recognizing hand gestures using time-of-flight sensing |
-
2018
- 2018-07-24 DE DE102018212309.8A patent/DE102018212309A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008025669A1 (en) * | 2007-06-01 | 2008-12-11 | GM Global Technology Operations, Inc., Detroit | Vehicle lock actuator and non-free hand method |
WO2012152476A1 (en) * | 2011-05-12 | 2012-11-15 | Robert Bosch Gmbh | Method for detecting gestures |
DE102013100521A1 (en) * | 2013-01-18 | 2014-07-24 | Huf Hülsbeck & Fürst Gmbh & Co. Kg | Sensor arrangement for detecting operating gestures on vehicles |
US20170090580A1 (en) * | 2015-09-24 | 2017-03-30 | Stmicroelectronics Sa | Device and method for recognizing hand gestures using time-of-flight sensing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1761729B2 (en) | Domestic appliance with adjusting device | |
DE102014115460A1 (en) | Method and device for operating a domestic appliance and household appliance | |
DE202006020910U1 (en) | Home appliance with fingerprint sensor | |
EP2990825B1 (en) | Method and device for controlling a domestic appliance and domestic appliance | |
DE102014200298A1 (en) | A method of establishing a wireless communication link between at least two home appliances | |
DE102014007173A1 (en) | Device for operating an electronic device | |
DE102012217350A1 (en) | Cooking appliance | |
EP1341158A2 (en) | Voice-controlled electric appliance, in particular fume exhausting hood | |
DE102014017833A1 (en) | Hood | |
DE102018212309A1 (en) | Method and user interface for controlling a device | |
EP2400472A2 (en) | Portable operating module for a domestic appliance and system with such a portable operating module and method for operating a domestic appliance with a portable operating module | |
DE102018219741A1 (en) | Operation of an induction cooker | |
DE102016217364A1 (en) | motor vehicle | |
DE102014000573A1 (en) | Operating device for an electronic device | |
DE102014206664A1 (en) | Device for detecting a fire hazard and / or a fire | |
EP2723622B1 (en) | Device and method for controlling a rail vehicle | |
DE102015109053B4 (en) | Cooking field device and method of operation | |
WO2012150216A1 (en) | Cooking hob with an operating device that uses a camera | |
DE102019127281A1 (en) | Method and device for controlling a laser source of a LIDAR system | |
EP3079444A1 (en) | Method for operating a cooking hob, and a cooking hob | |
EP3001109B1 (en) | Domestic appliance with gesture detection | |
CN107390280B (en) | Movable inspection system | |
DE102015009806B4 (en) | Device and method for operating an electronic device | |
DE102015017191A1 (en) | Device and method for operating an electronic device | |
DE102022131769A1 (en) | Method for controlling an electrical household appliance, control system and electrical household appliance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |