DE102009000653B4 - Method and device for operating at least one household appliance - Google Patents
Method and device for operating at least one household appliance Download PDFInfo
- Publication number
- DE102009000653B4 DE102009000653B4 DE102009000653A DE102009000653A DE102009000653B4 DE 102009000653 B4 DE102009000653 B4 DE 102009000653B4 DE 102009000653 A DE102009000653 A DE 102009000653A DE 102009000653 A DE102009000653 A DE 102009000653A DE 102009000653 B4 DE102009000653 B4 DE 102009000653B4
- Authority
- DE
- Germany
- Prior art keywords
- user interface
- interaction element
- virtual user
- operating device
- operating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F24—HEATING; RANGES; VENTILATING
- F24C—DOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
- F24C7/00—Stoves or ranges heated by electric energy
- F24C7/08—Arrangement or mounting of control or safety devices
- F24C7/082—Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Verfahren zum Bedienen mindestens eines Haushaltsgeräts (2, 3) unter Verwendung einer bewegbaren virtuellen Benutzeroberfläche (8), wobei die virtuelle Benutzeroberfläche (8) eine projizierte virtuelle Benutzeroberfläche (8) ist,
dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte aufweist:
– Projizieren der virtuellen Benutzeroberfläche (8) auf ein bewegbares Interaktionselement (9) und
– Anpassen der virtuellen Benutzeroberfläche (8) als Reaktion auf eine Bewegung des Interaktionselements (9) auch während eines Betriebs des Haushaltsgeräts (2, 3),
– wobei der Schritt des Anpassens der virtuellen Benutzeroberfläche (8) ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche (8) nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels (α) des Interaktionselements (9) umfasst.Method for operating at least one household device (2, 3) using a movable virtual user interface (8), wherein the virtual user interface (8) is a projected virtual user interface (8),
characterized in that the method comprises the following steps:
Projecting the virtual user interface (8) onto a movable interaction element (9) and
Adapting the virtual user interface (8) in response to movement of the interaction element (9) also during operation of the household appliance (2, 3),
- wherein the step of adapting the virtual user interface (8) comprises tilting an image content of the virtual user interface (8) after exceeding or falling below a predetermined spatial position angle (α) of the interaction element (9).
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bedienen von Haushaltsgeräten unter Verwendung einer bewegbaren virtuellen Benutzeroberfläche.The invention relates to a method and a device for operating household appliances using a movable virtual user interface.
Weitere Projektionsbedienvorrichtungen sind beispielsweise aus
Es ist die Aufgabe der vorliegenden Erfindung, eine flexibel konfigurierbare Benutzeroberfläche bereitzustellen, welche besonders bedienerfreundlich ist.It is the object of the present invention to provide a flexibly configurable user interface which is particularly user-friendly.
Die Aufgabe wird mittels eines Verfahrens und einer Vorrichtung nach dem jeweiligen unabhängigen Anspruch gelöst. Bevorzugte Ausführungsformen sind insbesondere den abhängigen Ansprüchen entnehmbar.The object is achieved by means of a method and a device according to the respective independent claim. Preferred embodiments are in particular the dependent claims.
Das Verfahren dient zum Bedienen mindestens eines Haushaltsgeräts unter Verwendung einer projizierten virtuellen Benutzeroberfläche. Die projizierte virtuelle Benutzeroberfläche kann beispielsweise mindestens ein projiziertes virtuelles Betätigungselement und/oder eine projizierte virtuelle Anzeigefläche aufweisen oder eine kombinierte Anzeige- und Betätigungsfläche ähnlich zu einem berührungsempfindlichen Bildschirm. Unter einem Bedienen kann somit ein reines Anzeigen von Informationen verstanden werden als beispielsweise auch ein interaktives Bedienen einschließlich einer Betätigung der Benutzeroberfläche durch einen Benutzer. Das Anzeigen kann auch ein Anzeigen von mit einer Bedienung oder Nutzung des Haushaltsgeräts im allgemeinen Sinne zusammenhängenden, auch geräteunabhängigen Information umfassen, z. B. ein Anzeigen von Rezepten und/oder Kochanleitungen für ein Gargerät usw. Ein Betätigungselement kann beispielsweise eine Taste, einen Linearslider, einen Zirkularslider usw. nachbilden. Eine solche projizierte virtuelle Benutzeroberfläche ist physisch nicht anfassbar. Das Betätigungselement und/oder die Anzeigefläche werden mittels einer Projektionseinheit, z. B. eines Laserprojektors, auf eine Oberfläche projektiert oder projiziert. Eine Erfassungseinheit mit mindestens einem Sensor kann die Position eines Objekts, z. B. Bedienerfingers, im Bereich der virtuellen Benutzeroberfläche ermitteln. Der mindestens eine Sensor kann einen optischen Sensor und/oder einen Ultraschallsensor umfassen. Die Funktionsweise einer virtuellen Benutzeroberfläche ist grundsätzlich bekannt. Die projizierte virtuelle Benutzeroberfläche ist bewegbar. Das Verfahren weist die folgenden Schritte auf: Projizieren der virtuellen Benutzeroberfläche auf ein bewegbares Interaktionselement und Anpassen der virtuellen Benutzeroberfläche als Reaktion auf eine Bewegung des Interaktionselements. Wird also das Interaktionselement bewegt, z. B. um während eines Kochvorgangs Platz für einen Kochtopf zu schaffen, wird auch die virtuelle Benutzeroberfläche entsprechend bewegt, so dass sie dazu lageinvariant auf das Interaktionselement projiziert wird. Durch dieses Verfahren kann eine besonders flexible Positionierung der Benutzeroberfläche erreicht werden, die sich gut an ein Verhalten des Nutzers anpasst. Zudem ist die projizierte virtuelle Benutzeroberfläche frei gestaltbar und dadurch zur Bedienung an unterschiedliche Haushaltsgeräte und/oder an verschiedene Bediensituationen eines Haushaltsgeräts, z. B. zur Steuerung unterschiedlicher Betriebsarten, anpassbar, was eine Bedienerfreundlichkeit weiter erhöht.The method is for operating at least one home appliance using a projected virtual user interface. For example, the projected virtual user interface may include at least one projected virtual actuator and / or projected virtual display area, or a combined display and actuation area similar to a touch-sensitive screen. Operating can thus be understood to be a pure display of information, for example also an interactive operation, including an operation of the user interface by a user. The display may also include displaying associated with an operation or use of the household appliance in the general sense, even device-independent information, such. B. an indication of recipes and / or cooking instructions for a cooking appliance, etc. An actuator, for example, a button, a linear slider, a circular slider, etc. replicate. Such a projected virtual user interface is not physically tangible. The actuating element and / or the display surface by means of a projection unit, for. B. a laser projector, projected or projected onto a surface. A detection unit with at least one sensor can detect the position of an object, e.g. B. operator finger, in the virtual UI area. The at least one sensor may comprise an optical sensor and / or an ultrasonic sensor. The functionality of a virtual user interface is known in principle. The projected virtual user interface is movable. The method includes the steps of: projecting the virtual UI onto a movable interaction element and adjusting the virtual UI in response to movement of the interaction element. So if the interaction element is moved, z. For example, in order to create space for a cooking pot during a cooking process, the virtual user interface is moved accordingly so that it is projected to the interaction element in a position-invariant manner. Through this method, a particularly flexible positioning of the user interface can be achieved, which adapts well to a behavior of the user. In addition, the projected virtual user interface is freely designable and thereby to operate on different household appliances and / or to different operating situations of a household appliance, eg. B. for controlling different modes of operation, adaptable, which further increases user-friendliness.
Eine Bedienerfreundlichkeit wird dadurch noch gesteigert, dass der Schritt des Anpassens der virtuellen Benutzeroberfläche ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels des Interaktionselements umfasst. Dadurch kann die virtuelle Benutzeroberfläche in einem vorbestimmten Winkelbereich gehalten werden und eine für eine Bedienung zu schräge oder sogar auf den Kopf stehende Darstellung vermieden werden. Beim Drehen des Interaktionselements richtet sich das darauf projizierte Bild oder Benutzeroberfläche somit auf eine optimale Lesbarkeit hin aus. Eine optimale Winkelausrichtung kann erreicht werden, wenn der vorbestimmte Raumlagewinkel etwa 45° oder ein rechtwinkliges Vielfaches davon (135°, 225° und/oder 315°) beträgt. Der vorbestimmte Raumlagewinkel kann grundsätzlich relativ zu einem beliebigen Referenzpunkt oder einer beliebigen Referenzlinie bestimmt werden. Der vorbestimmte Raumlagewinkel kann beispielsweise relativ zu einer Kante einer Positionierungsfläche, innerhalb derer sich die projizierte virtuelle Benutzeroberfläche befinden kann, bestimmt werden. Zur besonders intuitiven Bedienerführung kann der vorbestimmte Raumlagewinkel relativ zu einer Kante einer Arbeitsfläche bestimmt werden, auf der sich die Positionierungsfläche befindet. Vorteilhafterweise liegt eine Kante der Positionierungsfläche parallel zur der Kante der Arbeitsfläche. Dies bedeutet, dass sich bei einem (drehrichtungsunabhängigen) Winkel des Interaktionselementes von 45° oder höher zur Vorderkante der Arbeitsfläche der projizierte Inhalt um 90° dreht.User-friendliness is further enhanced in that the step of adapting the virtual user interface comprises tilting an image content of the virtual user interface after exceeding or falling below a predetermined spatial position angle of the interaction element. As a result, the virtual user interface can be kept within a predetermined angular range and a display that is too inclined or even upside down for operation can be avoided. When the interaction element is rotated, the image or user interface projected onto it is thus oriented toward optimum readability. Optimal angular alignment can be achieved when the predetermined spatial attitude angle is about 45 ° or a rectangular multiple thereof (135 °, 225 ° and / or 315 °). The predetermined spatial position angle can basically be determined relative to any reference point or any reference line. The predetermined spatial position angle can, for example, relative to a Edge of a positioning surface within which the projected virtual user interface may be located. For a particularly intuitive user guidance, the predetermined spatial position angle relative to an edge of a work surface on which the positioning surface is located can be determined. Advantageously, an edge of the positioning surface is parallel to the edge of the work surface. This means that at a (direction of rotation independent) angle of the interaction element of 45 ° or higher to the front edge of the work surface, the projected content rotates through 90 °.
Gemäß einer Ausgestaltung kann die virtuelle Benutzeroberfläche mit einer Bewegung des Interaktionselements mitgeführt werden. Die Bewegung des Interaktionselements kann eine Verschiebung und/oder eine Drehung umfassen. Dadurch kann die virtuelle Benutzeroberfläche beliebig in der Positionierungsfläche angeordnet werden, was einem Nutzer eine maximale Flexibilität bei der Anordnung der Benutzeroberfläche erlaubt. Der Nutzer kann dieses Interaktionselement in den für ihn idealen Bereich schieben, wodurch ein Stören beim Zubereiten von Speisen usw. vermieden werden kann.According to one embodiment, the virtual user interface can be carried along with a movement of the interaction element. The movement of the interaction element may include a displacement and / or a rotation. As a result, the virtual user interface can be arranged arbitrarily in the positioning area, which allows a user maximum flexibility in the arrangement of the user interface. The user can push this interaction element into the ideal area for him, whereby disturbing the preparation of food, etc. can be avoided.
Die Positionierungsfläche mag eine Breite von 1 m und eine Tiefe von 1 m nicht überschreiten, so dass einem Nutzer eine ausreichend große Positionierungsfläche bei noch beschränkten Gerätekosten zu Verfügung steht. Als besonders vorteilhaft haben sich eine Breite der Positionierungsfläche von ca. 0,8 m und eine Tiefe von ca. 0,6 m erwiesen. Jedoch ist die Größe der Positionierungsfläche nicht auf diese Maße oder eine rechteckige Form beschränkt und kann beispielsweise kleiner oder größer sein.The positioning surface may not exceed a width of 1 m and a depth of 1 m, so that a user has a sufficiently large positioning surface with still limited equipment costs available. A width of the positioning surface of approximately 0.8 m and a depth of approximately 0.6 m have proven particularly advantageous. However, the size of the positioning surface is not limited to these dimensions or a rectangular shape, and may be smaller or larger, for example.
Zum sicheren Detektieren eines Fingers beim Bedienen der virtuellen Benutzeroberfläche mögen spezifische anatomische Merkmale dieses Fingers erkannt oder analysiert werden. Dadurch kann beispielsweise eine Zugangskontrolle zum Bedienfeld implementiert werden, z. B. zur Umsetzung einer Kindersicherung. Vorteilhafterweise kann eine Justierung der virtuellen Benutzeroberfläche auf einen bestimmten Finger mittels eines Auflegens des Fingers auf ein vorgegebenes (z. B. temporär nur für die Justierung) projiziertes Eichfeld auf dem Interaktionselement durchgeführt werden.To safely detect a finger when operating the virtual user interface, specific anatomical features of that finger may be recognized or analyzed. As a result, for example, an access control to the control panel can be implemented, for. B. to implement a child safety. Advantageously, an adjustment of the virtual user interface to a specific finger by means of placing the finger on a predetermined (eg, temporarily only for the adjustment) projected calibration field on the interaction element can be performed.
Auch kann vorteilhafterweise eine Erkennung eines bestimmten Benutzers aufgrund individueller Merkmale eines oder mehrerer seiner Finger durchgeführt werden ('Fingerdetektion'). Aufgrund der Fingerdetektion kann dann vorteilhafterweise eine auf den erkannten Benutzer abgestimmte Benutzeroberfläche dargestellt werden.Also, advantageously, detection of a particular user may be performed based on individual features of one or more of his fingers ('finger detection'). Due to the finger detection, a user interface adapted to the recognized user can then advantageously be displayed.
Die Bedienvorrichtung ist zum Bedienen mindestens eines Haushaltsgeräts eingerichtet und weist eine Erfassungseinheit zum Erfassen von Bedieneingaben an einer zur Bedienung des mindestens einen Haushaltsgeräts vorgesehenen bewegbaren virtuellen Benutzeroberfläche auf, z. B. mit einer Kamera und/oder einem Ultraschallsensor. Die Erfassungseinheit mag beispielsweise eine Position und/oder eine Höhe eines Objekts, z. B. eines Fingers, relativ zu einem bestimmten Betätigungselement erfassen, als auch eine Bewegung des Objekts in Bezug auf ein bestimmtes Bedienfeld. Die Bedienvorrichtung weist ferner eine Projektionseinheit zum Projizieren der virtuellen Benutzeroberfläche auf ein bewegbares Interaktionselement auf, z. B. einen Laserprojektor oder einen Beamer. Die Bedienvorrichtung ist dazu eingerichtet, die Projektion der virtuellen Benutzeroberfläche an das bewegbare Interaktionselement als Reaktion auf eine Bewegung des Interaktionselements anzupassen. Auch durch die Vorrichtung kann eine besonders flexible Positionierung der Benutzeroberfläche erreicht werden, die sich gut an ein Verhalten des Nutzers anpasst. Zudem ist die projizierte virtuelle Benutzeroberfläche frei gestaltbar und dadurch zur Bedienung an unterschiedliche Haushaltsgeräte und/oder an verschiedene Bediensituationen eines Haushaltsgeräts, z. B. zur Steuerung unterschiedlicher Betriebsarten, anpassbar, was eine Bedienerfreundlichkeit weiter erhöht.The operating device is set up for operating at least one household appliance and has a detection unit for detecting operating inputs on a movable virtual user interface provided for operating the at least one household appliance, for. B. with a camera and / or an ultrasonic sensor. For example, the detection unit may have a position and / or a height of an object, e.g. A finger, relative to a particular actuator, as well as movement of the object relative to a particular panel. The operating device further comprises a projection unit for projecting the virtual user interface onto a movable interaction element, for. B. a laser projector or a projector. The operating device is configured to adapt the projection of the virtual user interface to the movable interaction element in response to a movement of the interaction element. Also by the device, a particularly flexible positioning of the user interface can be achieved, which adapts well to behavior of the user. In addition, the projected virtual user interface is freely designable and thereby to operate on different household appliances and / or to different operating situations of a household appliance, eg. B. for controlling different modes of operation, adaptable, which further increases user-friendliness.
Das Interaktionselement kann ein passives Interaktionselement sein und mag vorzugsweise keine sensorischen oder elektronischen Komponenten aufweisen. Dadurch wird eine leichte Reinigbarkeit und Robustheit erreicht.The interaction element may be a passive interaction element and may preferably have no sensory or electronic components. This achieves easy cleanability and robustness.
Das Interaktionselement kann an seiner Oberseite mindestens eine durch die Erfassungseinheit erfassbare Markierung zu seiner Identifizierung, Lagebestimmung und/oder Positionsbestimmung aufweisen. So mag das Interaktionselement aufgrund bestimmter Markierungen als ein solches erkannt werden. Auch mag eine Position und Lage des Interaktionselements durch eine Auswertung der Markierung(en) erkannt werden. Diese Markierungen können u. a. Linien, Logos und/oder spezielle Markierungselemente wie Kreuze usw. umfassen.The interaction element may have on its upper side at least one mark detectable by the detection unit for its identification, position determination and / or position determination. Thus, the interaction element may be recognized as such due to certain markers. Also, a position and location of the interaction element may be detected by an evaluation of the marker (s). These marks can u. a. Lines, logos and / or special marking elements such as crosses etc. include.
Das Interaktionselement kann ein Trägermaterial mit einer zumindest teilweise hellen, insbesondere weißen, Oberfläche aufweisen. Auf der hellen Oberfläche ist das projizierte Bedienfeld besonders gut ablesbar und ein Objekt, z. B. ein Finger, ist gegen den hellen Untergrund besonders gut erkennbar. Das Interaktionselement kann vorteilhafterweise überwiegend oder ausschließlich aus einem bestimmten Trägermaterial, vorzugsweise Kunststoff oder Metall, bestehen. Dadurch wird eine besonders gute Reinigbarkeit und Robustheit erreicht. Auch kann ganz allgemein eine geräteunabhängige Gestaltung erreicht werden.The interaction element may have a carrier material with an at least partially light, in particular white, surface. On the bright surface, the projected control panel is particularly easy to read and an object, eg. As a finger, is particularly well recognizable against the light background. The interaction element may advantageously consist predominantly or exclusively of a specific carrier material, preferably plastic or metal. This achieves a particularly good cleanability and robustness. In addition, a device-independent design can generally be achieved.
Das Interaktionselement kann vorzugsweise eine rechteckige, insbesondere quadratische, Fläche zur Darstellung der Benutzeroberfläche aufweisen. Bei einer quadratischen Fläche braucht das Bedienfeld nach Erreichen des vorbestimmten Raumlagewinkels nicht umskaliert zu werden. Das Interaktionselement kann auch tragbar sein. The interaction element may preferably have a rectangular, in particular square, surface for displaying the user interface. In a square area, the panel does not need to be rescaled after reaching the predetermined spatial position angle. The interaction element can also be portable.
Zur optisch dezenten Anmutung und klaren Projektion können die Projektionseinheit und die Erfassungseinheit über oder oberhalb der Positionierungsfläche angeordnet sein, insbesondere in einem verdeckten Bereich unter einem Oberschrank. Die Projektionseinheit und die Erfassungseinheit können in eine gemeinsame Einheit integriert sein. Die Projektionseinheit und die Erfassungseinheit sind vorzugsweise in einem definierten Abstand und einer definierten Position zur Arbeitsfläche montiert. Der Positionierungsbereich, in dem das Interaktionselement positioniert werden kann, wird vom Kamerabereich vollständig erfasst, und Projektionen sind in diesem Bereich möglich.For optically discreet appearance and clear projection, the projection unit and the detection unit can be arranged above or above the positioning surface, in particular in a hidden area under a wall unit. The projection unit and the detection unit can be integrated into a common unit. The projection unit and the detection unit are preferably mounted in a defined distance and a defined position to the work surface. The positioning area in which the interaction element can be positioned is completely captured by the camera area, and projections are possible in this area.
Zur Erreichung einer kompakten Bauweise ist eine Steuerung der Bedienvorrichtung zum Betrieb derselben in der Projektionseinheit integriert. Die Steuerung kann zur Bildprojektion und zur optischen Auswertung eingerichtet sein. In oder an der Steuerung können alle Erkennungsalgorithmen, z. B. zur Erkennung einer Betätigung der Benutzeroberfläche, hinterlegt sein. Ein Erkennungsalgorithmus kann zur Erkennung einer definierten „Betätigung” (Schaltung) auf dem Interaktionselement oder Bedienfeld ausgestaltet sein. Diese Betätigung wird vorzugsweise durch das Legen eines Fingers oder eines anderen Objekts in einen vordefinierten Betätigungsbereich des Interaktionselements, z. B. ein Betätigungselement, ausgelöst. Zur sicheren Detektierung des Fingers oder einer bewussten Betätigung eines virtuellen Betätigungselements können insbesondere spezifische anatomische Merkmale des Objekts, insbesondere Benutzerfingers, ausgewertet werden. Eine Justierung oder Eichung auf einen jeweiligen Benutzerfinger kann vorzugsweise durch einen einmaligen Justagevorgang beim Justieren des Systems durch Auflegen des Fingers in ein vorgegebenes projiziertes Eichfeld auf dem Interaktionselement vorgenommen werden. Neben den anatomischen Merkmalen können beispielsweise ferner Hautfarbe, Reflexionseigenschaften, Schattenbildung usw. zur Auswertung verwendet werden.To achieve a compact design, a control of the operating device for operating the same is integrated in the projection unit. The controller may be configured for image projection and optical evaluation. In or on the controller, all detection algorithms, eg. B. for detecting an operation of the user interface, be deposited. A recognition algorithm may be configured to detect a defined "actuation" (circuit) on the interaction element or control panel. This operation is preferably performed by placing a finger or other object in a predefined operating area of the interaction element, e.g. B. an actuator triggered. For reliable detection of the finger or a conscious actuation of a virtual actuating element, in particular specific anatomical features of the object, in particular the user's finger, can be evaluated. An adjustment or calibration on a respective user's finger can preferably be made by a one-time adjustment process when adjusting the system by placing the finger in a predetermined projected gauge field on the interaction element. In addition to the anatomical features, skin color, reflection properties, shadowing, etc. can also be used for evaluation, for example.
Es können Sicherheitsalgorithmen, die eine versehentliche Betätigung einer virtuellen Schaltfläche verhindern, implementiert sein, z. B. abrufbar durch die Steuereinrichtung. Schaltaktionen, die nicht auf einer sicheren Erkennung der Schaltabsicht des Schaltfingers oder eines anderen erlaubten Objekts beruhen (z. B. bei versehentlichem Agieren im Projektionsstrahl), werden nichtvorgenommen. Mit dem Schaltfinger oder Objekt kann insbesondere ein definierter Bewegungsablauf aufgeführt werden, der die Absicht einer Betätigung und damit Auslösung eines Schaltvorgangs eindeutig identifizieren lässt.Security algorithms that prevent inadvertent activation of a virtual button may be implemented, e.g. B. retrievable by the controller. Switching actions that are not based on a reliable detection of the switching intent of the shift finger or other permitted object (eg accidental action in the projection beam) are not made. With the shift finger or object, in particular, a defined movement sequence can be listed, which clearly identifies the intention of an actuation and thus triggering a switching operation.
In den folgenden Figuren wird die Erfindung anhand eines Ausführungsbeispiels schematisch genauer beschrieben. Dabei können zur besseren Übersichtlichkeit gleiche oder gleichwirkende Elemente mit gleichen Bezugszeichen versehen sein.In the following figures, the invention will be described schematically with reference to an embodiment schematically. It can be provided with the same reference numerals for better clarity identical or equivalent elements.
Zum Betrieb des Kochfelds
Im Folgenden wird von der Projektionseinheit
Das flache Interaktionselement
In der Lage L1 liegen das Interaktionselement
Selbstverständlich ist die vorliegende Erfindung nicht auf das gezeigte Ausführungsbeispiel beschränkt.Of course, the present invention is not limited to the embodiment shown.
So kann die virtuelle Benutzeroberfläche auch zur Bedienung anderer Haushaltsgeräte verwendet werden, z. B. zur Bedienung der Esse 3. Flächen sind im Ausführungsbeispiel als rechteckig beschrieben, können jedoch auch jede andere Form aufweisen, z. B. oval, rund, mehreckig oder frei geformt. Alternativ oder zusätzlich kann die Bedienvorrichtung beispielsweise mindestens einen Ultraschallwandler und einen ultraschallgestützten Abstands- oder 3D-Sensor aufweisen.Thus, the virtual user interface can also be used to operate other household appliances, eg. B. surfaces are described in the embodiment as rectangular, but may also have any other shape, for. B. oval, round, polygonal or free-shaped. Alternatively or additionally, the operating device may have, for example, at least one ultrasonic transducer and one ultrasound-assisted distance or 3D sensor.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Küchekitchen
- 22
- Kochfeldhob
- 33
- DunstabzugshaubeHood
- 44
- Arbeitsflächeworking surface
- 55
- OberschrankWall unit
- 66
- Projektions/Erfassungs-EinheitProjection / detection unit
- 77
- Projektionseinheitprojection unit
- 88th
- virtuelle Benutzeroberflächevirtual user interface
- 99
- InteraktionselementInteraction element
- 1010
- Erfassungseinheitacquisition unit
- 1111
- Erfassungsflächedetecting surface
- 1212
- Positionierungsflächepositioning surface
- 1313
- Logologo
- 1414
- Betätigungselementactuator
- 1515
- Anzeigefelddisplay
- 1616
- untere Kante des Interaktionselementslower edge of the interaction element
- 1717
- untere Kante der Positionierungsflächelower edge of the positioning surface
- 1818
- Fingerfinger
- 1919
- Schattenshadow
- L1L1
- erste Lage des Interaktionselementsfirst position of the interaction element
- L2L2
- zweite Lage des Interaktionselementssecond layer of the interaction element
- αα
- RaumlagewinkelAttitude angles
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009000653A DE102009000653B4 (en) | 2009-02-06 | 2009-02-06 | Method and device for operating at least one household appliance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009000653A DE102009000653B4 (en) | 2009-02-06 | 2009-02-06 | Method and device for operating at least one household appliance |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009000653A1 DE102009000653A1 (en) | 2010-08-12 |
DE102009000653B4 true DE102009000653B4 (en) | 2011-03-17 |
Family
ID=42317249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009000653A Active DE102009000653B4 (en) | 2009-02-06 | 2009-02-06 | Method and device for operating at least one household appliance |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009000653B4 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018203341A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
WO2019170448A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
DE102018203347A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
DE102018203344A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
EP4040047A4 (en) * | 2019-10-01 | 2022-11-02 | Panasonic Intellectual Property Management Co., Ltd. | Thermal cooker |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011000429B4 (en) * | 2011-02-01 | 2015-08-06 | Sartorius Lab Instruments Gmbh & Co. Kg | Weighing cabin with integrated balance |
EP2527747B1 (en) * | 2011-05-24 | 2018-01-03 | Diehl AKO Stiftung & Co. KG | Device for operating a hotplate |
ES2432234B1 (en) * | 2012-05-30 | 2014-11-12 | Bsh Electrodomésticos España, S.A. | Home appliance control device |
CN104807048B (en) * | 2014-01-26 | 2018-05-08 | 博西华电器(江苏)有限公司 | Kitchen range system, range hood and kitchen range |
DE102014109734A1 (en) | 2014-07-11 | 2016-01-14 | Miele & Cie. Kg | Method for operating a data pair that can be coupled to a domestic appliance, method for operating a household appliance that can be coupled with a smart phone, data glasses, home appliance and system for controlling a household appliance |
IT201600126190A1 (en) * | 2016-12-14 | 2018-06-14 | Samuele Miatello | INTERFACE DEVICE AND METHOD FOR THE CONTROL AND COMMAND OF PERIPHERAL OPERATING UNITS IN A BUILDING AUTOMATION PLANT |
DE102019202409A1 (en) * | 2019-02-22 | 2020-08-27 | BSH Hausgeräte GmbH | Interaction system |
DE102019206903A1 (en) * | 2019-05-13 | 2020-11-19 | BSH Hausgeräte GmbH | System with interaction device |
DE102020121415B3 (en) | 2020-08-14 | 2021-12-02 | Bayerische Motoren Werke Aktiengesellschaft | Projection system for generating a graphical user interface, graphical user interface and method for operating a projection system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19739285C1 (en) * | 1997-09-08 | 1998-11-19 | Siemens Nixdorf Inf Syst | Data representation and virtual input device |
DE10337538A1 (en) * | 2003-08-06 | 2005-02-24 | E.G.O. Elektro-Gerätebau GmbH | Apparatus and method for operating a cooking system |
DE102005011295A1 (en) * | 2005-03-04 | 2006-09-07 | E.G.O. Elektro-Gerätebau GmbH | Household appliance system, for projecting operating information onto the surface of an appliance, e.g. a fitted cooker, has a control unit which projects information based on the determined projection surface properties |
DE102005059449A1 (en) * | 2005-12-13 | 2007-06-14 | GM Global Technology Operations, Inc., Detroit | Control system for controlling functions, has display device for graphical display of virtual control elements assigned to functions on assigned display surface in vehicle, and detection device for detecting control data |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2439399A (en) | 1998-02-09 | 1999-08-23 | Haim Azaria | Video camera computer touch screen system |
LU90675B1 (en) | 2000-11-10 | 2002-05-13 | Iee Sarl | Device control method |
US7242388B2 (en) | 2001-01-08 | 2007-07-10 | Vkb Inc. | Data input device |
EP2259169B1 (en) | 2005-07-04 | 2018-10-24 | Electrolux Home Products Corporation N.V. | Houshold appliance with virtual data interface |
-
2009
- 2009-02-06 DE DE102009000653A patent/DE102009000653B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19739285C1 (en) * | 1997-09-08 | 1998-11-19 | Siemens Nixdorf Inf Syst | Data representation and virtual input device |
DE10337538A1 (en) * | 2003-08-06 | 2005-02-24 | E.G.O. Elektro-Gerätebau GmbH | Apparatus and method for operating a cooking system |
DE102005011295A1 (en) * | 2005-03-04 | 2006-09-07 | E.G.O. Elektro-Gerätebau GmbH | Household appliance system, for projecting operating information onto the surface of an appliance, e.g. a fitted cooker, has a control unit which projects information based on the determined projection surface properties |
DE102005059449A1 (en) * | 2005-12-13 | 2007-06-14 | GM Global Technology Operations, Inc., Detroit | Control system for controlling functions, has display device for graphical display of virtual control elements assigned to functions on assigned display surface in vehicle, and detection device for detecting control data |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018203341A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
WO2019170460A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
WO2019170448A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
DE102018203347A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
DE102018203344A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
WO2019170451A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
DE102018203343A1 (en) | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaction module |
EP4040047A4 (en) * | 2019-10-01 | 2022-11-02 | Panasonic Intellectual Property Management Co., Ltd. | Thermal cooker |
Also Published As
Publication number | Publication date |
---|---|
DE102009000653A1 (en) | 2010-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009000653B4 (en) | Method and device for operating at least one household appliance | |
EP2615376B1 (en) | Cooking hob and method for operating a cooking hob | |
DE102012103032B3 (en) | Method for operating an industrial robot | |
EP2920656A1 (en) | Method for the secure and intentional activation of functions and/or movements of controllable industrial equipment | |
DE102014113453A1 (en) | Lighting controller and lighting control system | |
DE102012103030B3 (en) | Method for operating an industrial robot | |
CH700524B1 (en) | Household unit with touchless gesture operation. | |
DE112014004307T5 (en) | Robot operation device, robot system, and robot operation program | |
EP3545237B1 (en) | Household appliance with removable haptic operating element | |
WO2009024112A2 (en) | Display device with image surface | |
WO2013144323A1 (en) | Device and method for operating an industrial robot | |
DE102018005902B4 (en) | Robot system and robot controller | |
DE102011102394B4 (en) | Device and method for operating a hob | |
EP2527747A1 (en) | Device for operating a hotplate | |
DE102016100949B4 (en) | Household electrical appliance and method for controlling it | |
EP3898310A1 (en) | Method and system for setting a value for a parameter | |
EP3265617A1 (en) | Electronically controlled sanitary fitting | |
DE102017218173A1 (en) | Home appliance with control and image projector | |
DE102017207302B4 (en) | Control device for a motor vehicle, method for operating the control device and motor vehicle | |
DE102018202740A1 (en) | Operating element with integrated gesture recognition sensor, operating device and household appliance | |
EP3001109B1 (en) | Domestic appliance with gesture detection | |
DE102013100255A1 (en) | Mobile furniture | |
AT505672B1 (en) | COMPUTER-ASSISTED INTERFACE SYSTEM | |
DE102019216411A1 (en) | Device for acquiring an input by means of an actuation object and method for operating a device for acquiring an input | |
EP3762654A1 (en) | Interaction module |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R020 | Patent grant now final |
Effective date: 20110703 |
|
R081 | Change of applicant/patentee |
Owner name: BSH HAUSGERAETE GMBH, DE Free format text: FORMER OWNER: BSH BOSCH UND SIEMENS HAUSGERAETE GMBH, 81739 MUENCHEN, DE Effective date: 20150409 |
|
R084 | Declaration of willingness to licence |