DE102009000653B4 - Method and device for operating at least one household appliance - Google Patents

Method and device for operating at least one household appliance Download PDF

Info

Publication number
DE102009000653B4
DE102009000653B4 DE102009000653A DE102009000653A DE102009000653B4 DE 102009000653 B4 DE102009000653 B4 DE 102009000653B4 DE 102009000653 A DE102009000653 A DE 102009000653A DE 102009000653 A DE102009000653 A DE 102009000653A DE 102009000653 B4 DE102009000653 B4 DE 102009000653B4
Authority
DE
Germany
Prior art keywords
user interface
interaction element
virtual user
operating device
operating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009000653A
Other languages
German (de)
Other versions
DE102009000653A1 (en
Inventor
Markus Theine
Tanja Haberlander
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BSH Hausgeraete GmbH
Original Assignee
BSH Bosch und Siemens Hausgeraete GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BSH Bosch und Siemens Hausgeraete GmbH filed Critical BSH Bosch und Siemens Hausgeraete GmbH
Priority to DE102009000653A priority Critical patent/DE102009000653B4/en
Publication of DE102009000653A1 publication Critical patent/DE102009000653A1/en
Application granted granted Critical
Publication of DE102009000653B4 publication Critical patent/DE102009000653B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F24HEATING; RANGES; VENTILATING
    • F24CDOMESTIC STOVES OR RANGES ; DETAILS OF DOMESTIC STOVES OR RANGES, OF GENERAL APPLICATION
    • F24C7/00Stoves or ranges heated by electric energy
    • F24C7/08Arrangement or mounting of control or safety devices
    • F24C7/082Arrangement or mounting of control or safety devices on ranges, e.g. control panels, illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zum Bedienen mindestens eines Haushaltsgeräts (2, 3) unter Verwendung einer bewegbaren virtuellen Benutzeroberfläche (8), wobei die virtuelle Benutzeroberfläche (8) eine projizierte virtuelle Benutzeroberfläche (8) ist,
dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte aufweist:
– Projizieren der virtuellen Benutzeroberfläche (8) auf ein bewegbares Interaktionselement (9) und
– Anpassen der virtuellen Benutzeroberfläche (8) als Reaktion auf eine Bewegung des Interaktionselements (9) auch während eines Betriebs des Haushaltsgeräts (2, 3),
– wobei der Schritt des Anpassens der virtuellen Benutzeroberfläche (8) ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche (8) nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels (α) des Interaktionselements (9) umfasst.
Method for operating at least one household device (2, 3) using a movable virtual user interface (8), wherein the virtual user interface (8) is a projected virtual user interface (8),
characterized in that the method comprises the following steps:
Projecting the virtual user interface (8) onto a movable interaction element (9) and
Adapting the virtual user interface (8) in response to movement of the interaction element (9) also during operation of the household appliance (2, 3),
- wherein the step of adapting the virtual user interface (8) comprises tilting an image content of the virtual user interface (8) after exceeding or falling below a predetermined spatial position angle (α) of the interaction element (9).

Figure 00000001
Figure 00000001

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Bedienen von Haushaltsgeräten unter Verwendung einer bewegbaren virtuellen Benutzeroberfläche.The invention relates to a method and a device for operating household appliances using a movable virtual user interface.

DE 103 37 538 A1 beschreibt eine Vorrichtung zur Bedienung eines Kochsystems mit einem Kochbereich, mit einer optischen Sensoreinheit zur Bilderkennung und einer Bedieneinheit sowie ein zugehöriges Bedienverfahren. Die Bedieneinheit ist als Bedienfeld mit mehreren Bedienflächen ausgeführt, die bei einer Betätigung durch einen Benutzer jeweils eine Kochfunktion des Kochsystems aktivieren, wobei die Sensoreinheit das Bedienfeld überwacht und die Betätigung einer der Bedienflächen erkennt, wenn der Benutzer einen Finger auf eine der Bedienflächen legt. DE 103 37 538 A1 describes a device for operating a cooking system with a cooking area, with an optical sensor unit for image recognition and a control unit and an associated operating method. The control unit is designed as a control panel with multiple control surfaces that activate a cooking function of the cooking system when actuated by a user, the sensor unit monitors the control panel and detects the operation of one of the control surfaces when the user puts a finger on one of the control surfaces.

DE 10 2005 059 449 A1 beschreibt ein Bediensystem zum Bedienen von Funktionen in einem Fahrzeug, mit einer Darstellungseinrichtung zur graphischen Darstellung von den Funktionen zugeordneten, fiktiven Betätigungselementen auf einer zugeordneten Darstellungsfläche in dem Fahrzeug, und mit einer Erfassungseinheit zum Erfassen von Bedieneingaben bei einer Betätigung der fiktiven Betätigungselemente. DE 10 2005 059 449 A1 describes a control system for operating functions in a vehicle, with a display device for the graphical representation of the functions associated with fictitious actuators on an associated display surface in the vehicle, and with a detection unit for detecting operating inputs upon actuation of the fictitious actuators.

Weitere Projektionsbedienvorrichtungen sind beispielsweise aus EP 1 742 144 A1 , EP 1 352 301 B1 , WO 02/054169 A2 und aus WO 99/40562 bekannt.Other projection controls are for example off EP 1 742 144 A1 . EP 1 352 301 B1 . WO 02/054169 A2 and from WO 99/40562 known.

Es ist die Aufgabe der vorliegenden Erfindung, eine flexibel konfigurierbare Benutzeroberfläche bereitzustellen, welche besonders bedienerfreundlich ist.It is the object of the present invention to provide a flexibly configurable user interface which is particularly user-friendly.

Die Aufgabe wird mittels eines Verfahrens und einer Vorrichtung nach dem jeweiligen unabhängigen Anspruch gelöst. Bevorzugte Ausführungsformen sind insbesondere den abhängigen Ansprüchen entnehmbar.The object is achieved by means of a method and a device according to the respective independent claim. Preferred embodiments are in particular the dependent claims.

Das Verfahren dient zum Bedienen mindestens eines Haushaltsgeräts unter Verwendung einer projizierten virtuellen Benutzeroberfläche. Die projizierte virtuelle Benutzeroberfläche kann beispielsweise mindestens ein projiziertes virtuelles Betätigungselement und/oder eine projizierte virtuelle Anzeigefläche aufweisen oder eine kombinierte Anzeige- und Betätigungsfläche ähnlich zu einem berührungsempfindlichen Bildschirm. Unter einem Bedienen kann somit ein reines Anzeigen von Informationen verstanden werden als beispielsweise auch ein interaktives Bedienen einschließlich einer Betätigung der Benutzeroberfläche durch einen Benutzer. Das Anzeigen kann auch ein Anzeigen von mit einer Bedienung oder Nutzung des Haushaltsgeräts im allgemeinen Sinne zusammenhängenden, auch geräteunabhängigen Information umfassen, z. B. ein Anzeigen von Rezepten und/oder Kochanleitungen für ein Gargerät usw. Ein Betätigungselement kann beispielsweise eine Taste, einen Linearslider, einen Zirkularslider usw. nachbilden. Eine solche projizierte virtuelle Benutzeroberfläche ist physisch nicht anfassbar. Das Betätigungselement und/oder die Anzeigefläche werden mittels einer Projektionseinheit, z. B. eines Laserprojektors, auf eine Oberfläche projektiert oder projiziert. Eine Erfassungseinheit mit mindestens einem Sensor kann die Position eines Objekts, z. B. Bedienerfingers, im Bereich der virtuellen Benutzeroberfläche ermitteln. Der mindestens eine Sensor kann einen optischen Sensor und/oder einen Ultraschallsensor umfassen. Die Funktionsweise einer virtuellen Benutzeroberfläche ist grundsätzlich bekannt. Die projizierte virtuelle Benutzeroberfläche ist bewegbar. Das Verfahren weist die folgenden Schritte auf: Projizieren der virtuellen Benutzeroberfläche auf ein bewegbares Interaktionselement und Anpassen der virtuellen Benutzeroberfläche als Reaktion auf eine Bewegung des Interaktionselements. Wird also das Interaktionselement bewegt, z. B. um während eines Kochvorgangs Platz für einen Kochtopf zu schaffen, wird auch die virtuelle Benutzeroberfläche entsprechend bewegt, so dass sie dazu lageinvariant auf das Interaktionselement projiziert wird. Durch dieses Verfahren kann eine besonders flexible Positionierung der Benutzeroberfläche erreicht werden, die sich gut an ein Verhalten des Nutzers anpasst. Zudem ist die projizierte virtuelle Benutzeroberfläche frei gestaltbar und dadurch zur Bedienung an unterschiedliche Haushaltsgeräte und/oder an verschiedene Bediensituationen eines Haushaltsgeräts, z. B. zur Steuerung unterschiedlicher Betriebsarten, anpassbar, was eine Bedienerfreundlichkeit weiter erhöht.The method is for operating at least one home appliance using a projected virtual user interface. For example, the projected virtual user interface may include at least one projected virtual actuator and / or projected virtual display area, or a combined display and actuation area similar to a touch-sensitive screen. Operating can thus be understood to be a pure display of information, for example also an interactive operation, including an operation of the user interface by a user. The display may also include displaying associated with an operation or use of the household appliance in the general sense, even device-independent information, such. B. an indication of recipes and / or cooking instructions for a cooking appliance, etc. An actuator, for example, a button, a linear slider, a circular slider, etc. replicate. Such a projected virtual user interface is not physically tangible. The actuating element and / or the display surface by means of a projection unit, for. B. a laser projector, projected or projected onto a surface. A detection unit with at least one sensor can detect the position of an object, e.g. B. operator finger, in the virtual UI area. The at least one sensor may comprise an optical sensor and / or an ultrasonic sensor. The functionality of a virtual user interface is known in principle. The projected virtual user interface is movable. The method includes the steps of: projecting the virtual UI onto a movable interaction element and adjusting the virtual UI in response to movement of the interaction element. So if the interaction element is moved, z. For example, in order to create space for a cooking pot during a cooking process, the virtual user interface is moved accordingly so that it is projected to the interaction element in a position-invariant manner. Through this method, a particularly flexible positioning of the user interface can be achieved, which adapts well to a behavior of the user. In addition, the projected virtual user interface is freely designable and thereby to operate on different household appliances and / or to different operating situations of a household appliance, eg. B. for controlling different modes of operation, adaptable, which further increases user-friendliness.

Eine Bedienerfreundlichkeit wird dadurch noch gesteigert, dass der Schritt des Anpassens der virtuellen Benutzeroberfläche ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels des Interaktionselements umfasst. Dadurch kann die virtuelle Benutzeroberfläche in einem vorbestimmten Winkelbereich gehalten werden und eine für eine Bedienung zu schräge oder sogar auf den Kopf stehende Darstellung vermieden werden. Beim Drehen des Interaktionselements richtet sich das darauf projizierte Bild oder Benutzeroberfläche somit auf eine optimale Lesbarkeit hin aus. Eine optimale Winkelausrichtung kann erreicht werden, wenn der vorbestimmte Raumlagewinkel etwa 45° oder ein rechtwinkliges Vielfaches davon (135°, 225° und/oder 315°) beträgt. Der vorbestimmte Raumlagewinkel kann grundsätzlich relativ zu einem beliebigen Referenzpunkt oder einer beliebigen Referenzlinie bestimmt werden. Der vorbestimmte Raumlagewinkel kann beispielsweise relativ zu einer Kante einer Positionierungsfläche, innerhalb derer sich die projizierte virtuelle Benutzeroberfläche befinden kann, bestimmt werden. Zur besonders intuitiven Bedienerführung kann der vorbestimmte Raumlagewinkel relativ zu einer Kante einer Arbeitsfläche bestimmt werden, auf der sich die Positionierungsfläche befindet. Vorteilhafterweise liegt eine Kante der Positionierungsfläche parallel zur der Kante der Arbeitsfläche. Dies bedeutet, dass sich bei einem (drehrichtungsunabhängigen) Winkel des Interaktionselementes von 45° oder höher zur Vorderkante der Arbeitsfläche der projizierte Inhalt um 90° dreht.User-friendliness is further enhanced in that the step of adapting the virtual user interface comprises tilting an image content of the virtual user interface after exceeding or falling below a predetermined spatial position angle of the interaction element. As a result, the virtual user interface can be kept within a predetermined angular range and a display that is too inclined or even upside down for operation can be avoided. When the interaction element is rotated, the image or user interface projected onto it is thus oriented toward optimum readability. Optimal angular alignment can be achieved when the predetermined spatial attitude angle is about 45 ° or a rectangular multiple thereof (135 °, 225 ° and / or 315 °). The predetermined spatial position angle can basically be determined relative to any reference point or any reference line. The predetermined spatial position angle can, for example, relative to a Edge of a positioning surface within which the projected virtual user interface may be located. For a particularly intuitive user guidance, the predetermined spatial position angle relative to an edge of a work surface on which the positioning surface is located can be determined. Advantageously, an edge of the positioning surface is parallel to the edge of the work surface. This means that at a (direction of rotation independent) angle of the interaction element of 45 ° or higher to the front edge of the work surface, the projected content rotates through 90 °.

Gemäß einer Ausgestaltung kann die virtuelle Benutzeroberfläche mit einer Bewegung des Interaktionselements mitgeführt werden. Die Bewegung des Interaktionselements kann eine Verschiebung und/oder eine Drehung umfassen. Dadurch kann die virtuelle Benutzeroberfläche beliebig in der Positionierungsfläche angeordnet werden, was einem Nutzer eine maximale Flexibilität bei der Anordnung der Benutzeroberfläche erlaubt. Der Nutzer kann dieses Interaktionselement in den für ihn idealen Bereich schieben, wodurch ein Stören beim Zubereiten von Speisen usw. vermieden werden kann.According to one embodiment, the virtual user interface can be carried along with a movement of the interaction element. The movement of the interaction element may include a displacement and / or a rotation. As a result, the virtual user interface can be arranged arbitrarily in the positioning area, which allows a user maximum flexibility in the arrangement of the user interface. The user can push this interaction element into the ideal area for him, whereby disturbing the preparation of food, etc. can be avoided.

Die Positionierungsfläche mag eine Breite von 1 m und eine Tiefe von 1 m nicht überschreiten, so dass einem Nutzer eine ausreichend große Positionierungsfläche bei noch beschränkten Gerätekosten zu Verfügung steht. Als besonders vorteilhaft haben sich eine Breite der Positionierungsfläche von ca. 0,8 m und eine Tiefe von ca. 0,6 m erwiesen. Jedoch ist die Größe der Positionierungsfläche nicht auf diese Maße oder eine rechteckige Form beschränkt und kann beispielsweise kleiner oder größer sein.The positioning surface may not exceed a width of 1 m and a depth of 1 m, so that a user has a sufficiently large positioning surface with still limited equipment costs available. A width of the positioning surface of approximately 0.8 m and a depth of approximately 0.6 m have proven particularly advantageous. However, the size of the positioning surface is not limited to these dimensions or a rectangular shape, and may be smaller or larger, for example.

Zum sicheren Detektieren eines Fingers beim Bedienen der virtuellen Benutzeroberfläche mögen spezifische anatomische Merkmale dieses Fingers erkannt oder analysiert werden. Dadurch kann beispielsweise eine Zugangskontrolle zum Bedienfeld implementiert werden, z. B. zur Umsetzung einer Kindersicherung. Vorteilhafterweise kann eine Justierung der virtuellen Benutzeroberfläche auf einen bestimmten Finger mittels eines Auflegens des Fingers auf ein vorgegebenes (z. B. temporär nur für die Justierung) projiziertes Eichfeld auf dem Interaktionselement durchgeführt werden.To safely detect a finger when operating the virtual user interface, specific anatomical features of that finger may be recognized or analyzed. As a result, for example, an access control to the control panel can be implemented, for. B. to implement a child safety. Advantageously, an adjustment of the virtual user interface to a specific finger by means of placing the finger on a predetermined (eg, temporarily only for the adjustment) projected calibration field on the interaction element can be performed.

Auch kann vorteilhafterweise eine Erkennung eines bestimmten Benutzers aufgrund individueller Merkmale eines oder mehrerer seiner Finger durchgeführt werden ('Fingerdetektion'). Aufgrund der Fingerdetektion kann dann vorteilhafterweise eine auf den erkannten Benutzer abgestimmte Benutzeroberfläche dargestellt werden.Also, advantageously, detection of a particular user may be performed based on individual features of one or more of his fingers ('finger detection'). Due to the finger detection, a user interface adapted to the recognized user can then advantageously be displayed.

Die Bedienvorrichtung ist zum Bedienen mindestens eines Haushaltsgeräts eingerichtet und weist eine Erfassungseinheit zum Erfassen von Bedieneingaben an einer zur Bedienung des mindestens einen Haushaltsgeräts vorgesehenen bewegbaren virtuellen Benutzeroberfläche auf, z. B. mit einer Kamera und/oder einem Ultraschallsensor. Die Erfassungseinheit mag beispielsweise eine Position und/oder eine Höhe eines Objekts, z. B. eines Fingers, relativ zu einem bestimmten Betätigungselement erfassen, als auch eine Bewegung des Objekts in Bezug auf ein bestimmtes Bedienfeld. Die Bedienvorrichtung weist ferner eine Projektionseinheit zum Projizieren der virtuellen Benutzeroberfläche auf ein bewegbares Interaktionselement auf, z. B. einen Laserprojektor oder einen Beamer. Die Bedienvorrichtung ist dazu eingerichtet, die Projektion der virtuellen Benutzeroberfläche an das bewegbare Interaktionselement als Reaktion auf eine Bewegung des Interaktionselements anzupassen. Auch durch die Vorrichtung kann eine besonders flexible Positionierung der Benutzeroberfläche erreicht werden, die sich gut an ein Verhalten des Nutzers anpasst. Zudem ist die projizierte virtuelle Benutzeroberfläche frei gestaltbar und dadurch zur Bedienung an unterschiedliche Haushaltsgeräte und/oder an verschiedene Bediensituationen eines Haushaltsgeräts, z. B. zur Steuerung unterschiedlicher Betriebsarten, anpassbar, was eine Bedienerfreundlichkeit weiter erhöht.The operating device is set up for operating at least one household appliance and has a detection unit for detecting operating inputs on a movable virtual user interface provided for operating the at least one household appliance, for. B. with a camera and / or an ultrasonic sensor. For example, the detection unit may have a position and / or a height of an object, e.g. A finger, relative to a particular actuator, as well as movement of the object relative to a particular panel. The operating device further comprises a projection unit for projecting the virtual user interface onto a movable interaction element, for. B. a laser projector or a projector. The operating device is configured to adapt the projection of the virtual user interface to the movable interaction element in response to a movement of the interaction element. Also by the device, a particularly flexible positioning of the user interface can be achieved, which adapts well to behavior of the user. In addition, the projected virtual user interface is freely designable and thereby to operate on different household appliances and / or to different operating situations of a household appliance, eg. B. for controlling different modes of operation, adaptable, which further increases user-friendliness.

Das Interaktionselement kann ein passives Interaktionselement sein und mag vorzugsweise keine sensorischen oder elektronischen Komponenten aufweisen. Dadurch wird eine leichte Reinigbarkeit und Robustheit erreicht.The interaction element may be a passive interaction element and may preferably have no sensory or electronic components. This achieves easy cleanability and robustness.

Das Interaktionselement kann an seiner Oberseite mindestens eine durch die Erfassungseinheit erfassbare Markierung zu seiner Identifizierung, Lagebestimmung und/oder Positionsbestimmung aufweisen. So mag das Interaktionselement aufgrund bestimmter Markierungen als ein solches erkannt werden. Auch mag eine Position und Lage des Interaktionselements durch eine Auswertung der Markierung(en) erkannt werden. Diese Markierungen können u. a. Linien, Logos und/oder spezielle Markierungselemente wie Kreuze usw. umfassen.The interaction element may have on its upper side at least one mark detectable by the detection unit for its identification, position determination and / or position determination. Thus, the interaction element may be recognized as such due to certain markers. Also, a position and location of the interaction element may be detected by an evaluation of the marker (s). These marks can u. a. Lines, logos and / or special marking elements such as crosses etc. include.

Das Interaktionselement kann ein Trägermaterial mit einer zumindest teilweise hellen, insbesondere weißen, Oberfläche aufweisen. Auf der hellen Oberfläche ist das projizierte Bedienfeld besonders gut ablesbar und ein Objekt, z. B. ein Finger, ist gegen den hellen Untergrund besonders gut erkennbar. Das Interaktionselement kann vorteilhafterweise überwiegend oder ausschließlich aus einem bestimmten Trägermaterial, vorzugsweise Kunststoff oder Metall, bestehen. Dadurch wird eine besonders gute Reinigbarkeit und Robustheit erreicht. Auch kann ganz allgemein eine geräteunabhängige Gestaltung erreicht werden.The interaction element may have a carrier material with an at least partially light, in particular white, surface. On the bright surface, the projected control panel is particularly easy to read and an object, eg. As a finger, is particularly well recognizable against the light background. The interaction element may advantageously consist predominantly or exclusively of a specific carrier material, preferably plastic or metal. This achieves a particularly good cleanability and robustness. In addition, a device-independent design can generally be achieved.

Das Interaktionselement kann vorzugsweise eine rechteckige, insbesondere quadratische, Fläche zur Darstellung der Benutzeroberfläche aufweisen. Bei einer quadratischen Fläche braucht das Bedienfeld nach Erreichen des vorbestimmten Raumlagewinkels nicht umskaliert zu werden. Das Interaktionselement kann auch tragbar sein. The interaction element may preferably have a rectangular, in particular square, surface for displaying the user interface. In a square area, the panel does not need to be rescaled after reaching the predetermined spatial position angle. The interaction element can also be portable.

Zur optisch dezenten Anmutung und klaren Projektion können die Projektionseinheit und die Erfassungseinheit über oder oberhalb der Positionierungsfläche angeordnet sein, insbesondere in einem verdeckten Bereich unter einem Oberschrank. Die Projektionseinheit und die Erfassungseinheit können in eine gemeinsame Einheit integriert sein. Die Projektionseinheit und die Erfassungseinheit sind vorzugsweise in einem definierten Abstand und einer definierten Position zur Arbeitsfläche montiert. Der Positionierungsbereich, in dem das Interaktionselement positioniert werden kann, wird vom Kamerabereich vollständig erfasst, und Projektionen sind in diesem Bereich möglich.For optically discreet appearance and clear projection, the projection unit and the detection unit can be arranged above or above the positioning surface, in particular in a hidden area under a wall unit. The projection unit and the detection unit can be integrated into a common unit. The projection unit and the detection unit are preferably mounted in a defined distance and a defined position to the work surface. The positioning area in which the interaction element can be positioned is completely captured by the camera area, and projections are possible in this area.

Zur Erreichung einer kompakten Bauweise ist eine Steuerung der Bedienvorrichtung zum Betrieb derselben in der Projektionseinheit integriert. Die Steuerung kann zur Bildprojektion und zur optischen Auswertung eingerichtet sein. In oder an der Steuerung können alle Erkennungsalgorithmen, z. B. zur Erkennung einer Betätigung der Benutzeroberfläche, hinterlegt sein. Ein Erkennungsalgorithmus kann zur Erkennung einer definierten „Betätigung” (Schaltung) auf dem Interaktionselement oder Bedienfeld ausgestaltet sein. Diese Betätigung wird vorzugsweise durch das Legen eines Fingers oder eines anderen Objekts in einen vordefinierten Betätigungsbereich des Interaktionselements, z. B. ein Betätigungselement, ausgelöst. Zur sicheren Detektierung des Fingers oder einer bewussten Betätigung eines virtuellen Betätigungselements können insbesondere spezifische anatomische Merkmale des Objekts, insbesondere Benutzerfingers, ausgewertet werden. Eine Justierung oder Eichung auf einen jeweiligen Benutzerfinger kann vorzugsweise durch einen einmaligen Justagevorgang beim Justieren des Systems durch Auflegen des Fingers in ein vorgegebenes projiziertes Eichfeld auf dem Interaktionselement vorgenommen werden. Neben den anatomischen Merkmalen können beispielsweise ferner Hautfarbe, Reflexionseigenschaften, Schattenbildung usw. zur Auswertung verwendet werden.To achieve a compact design, a control of the operating device for operating the same is integrated in the projection unit. The controller may be configured for image projection and optical evaluation. In or on the controller, all detection algorithms, eg. B. for detecting an operation of the user interface, be deposited. A recognition algorithm may be configured to detect a defined "actuation" (circuit) on the interaction element or control panel. This operation is preferably performed by placing a finger or other object in a predefined operating area of the interaction element, e.g. B. an actuator triggered. For reliable detection of the finger or a conscious actuation of a virtual actuating element, in particular specific anatomical features of the object, in particular the user's finger, can be evaluated. An adjustment or calibration on a respective user's finger can preferably be made by a one-time adjustment process when adjusting the system by placing the finger in a predetermined projected gauge field on the interaction element. In addition to the anatomical features, skin color, reflection properties, shadowing, etc. can also be used for evaluation, for example.

Es können Sicherheitsalgorithmen, die eine versehentliche Betätigung einer virtuellen Schaltfläche verhindern, implementiert sein, z. B. abrufbar durch die Steuereinrichtung. Schaltaktionen, die nicht auf einer sicheren Erkennung der Schaltabsicht des Schaltfingers oder eines anderen erlaubten Objekts beruhen (z. B. bei versehentlichem Agieren im Projektionsstrahl), werden nichtvorgenommen. Mit dem Schaltfinger oder Objekt kann insbesondere ein definierter Bewegungsablauf aufgeführt werden, der die Absicht einer Betätigung und damit Auslösung eines Schaltvorgangs eindeutig identifizieren lässt.Security algorithms that prevent inadvertent activation of a virtual button may be implemented, e.g. B. retrievable by the controller. Switching actions that are not based on a reliable detection of the switching intent of the shift finger or other permitted object (eg accidental action in the projection beam) are not made. With the shift finger or object, in particular, a defined movement sequence can be listed, which clearly identifies the intention of an actuation and thus triggering a switching operation.

In den folgenden Figuren wird die Erfindung anhand eines Ausführungsbeispiels schematisch genauer beschrieben. Dabei können zur besseren Übersichtlichkeit gleiche oder gleichwirkende Elemente mit gleichen Bezugszeichen versehen sein.In the following figures, the invention will be described schematically with reference to an embodiment schematically. It can be provided with the same reference numerals for better clarity identical or equivalent elements.

1 zeigt einen Blick von schräg oben in eine Küche, die mit einer Positionierungsfläche zur Positionierung eines Interaktionselements ausgestattet ist; 1 shows a view obliquely from above in a kitchen, which is equipped with a positioning surface for positioning an interaction element;

2 zeigt in Draufsicht eine Arbeitsfläche mit der Positionierungsfläche aus 1, auf der ein Interaktionselement angeordnet ist; und 2 shows in plan view of a work surface with the positioning surface 1 on which an interaction element is arranged; and

3 zeigt das Interaktionselement in einer vergrößerten Darstellung. 3 shows the interaction element in an enlarged view.

1 zeigt einen Blick in eine Küche 1, welche beispielsweise ein Kochfeld 2, eine über dem Kochfeld 2 angebrachte Dunstabzugshaube 3, eine rechts neben dem Kochfeld 2 angeordnete Arbeitsfläche 4 einer Arbeitsplatte und einen über bzw. oberhalb der Arbeitsfläche 4 angebrachten Oberschrank 5 aufweist. An einer Unterseite des Oberschranks 5 ist verdeckt eine kombinierte Projektions/Erfassungs-Einheit 6 angebracht. Die Projektions/Erfassungs-Einheit 6 weist eine Projektionseinheit 7 zum Projizieren einer virtuellen Benutzeroberfläche 8 auf ein Interaktionselement 9 und eine Erfassungseinheit 10 mit einer Kamera zum Erfassen einer Bedienung der virtuellen Benutzeroberfläche 8 in einer Erfassungsfläche 11 auf. Die Projektions/Erfassungs-Einheit 6 wird in einem definierten Abstand und einer definierten Lage zur Arbeitsfläche 4 montiert. In die Projektionseinheit 7 ist eine intelligente Steuerung (o. Abb.) integriert. Neben einer optischen Auswertung und einer Projektion sind hier alle Erkennungsalgorithmen hinterlegt, z. B. ein Betätigungsalgorithmus zum sicheren Erkennung einer definierten „Betätigung” (Schaltung) der virtuellen Benutzeroberfläche 8 auf dem Interaktionelement 9, ein Justierungsalgorithmus zum Justieren oder Eichen auf einen jeweiligen Benutzerfinger und Sicherheitsalgorithmen, die eine versehentliche Betätigung einer virtuellen Schaltfläche verhindern. 1 shows a view into a kitchen 1 , which, for example, a hob 2 , one above the hob 2 attached cooker hood 3 , one to the right of the hob 2 arranged work surface 4 a worktop and one above or above the work surface 4 attached wall unit 5 having. At the bottom of the upper cabinet 5 is concealed a combined projection / detection unit 6 appropriate. The projection / detection unit 6 has a projection unit 7 to project a virtual UI 8th on an interaction element 9 and a detection unit 10 with a camera for detecting operation of the virtual user interface 8th in a detection area 11 on. The projection / detection unit 6 is at a defined distance and a defined position to the work surface 4 assembled. In the projection unit 7 An intelligent controller (not shown) is integrated. In addition to an optical evaluation and a projection all detection algorithms are stored here, z. B. an actuation algorithm for the secure detection of a defined "operation" (circuit) of the virtual user interface 8th on the interaction element 9 , an adjustment algorithm for adjusting or calibrating to a respective user's finger and security algorithms that prevent inadvertent operation of a virtual button.

Zum Betrieb des Kochfelds 2 kann die virtuelle Benutzeroberfläche 8 hergenommen werden, wie in Folgenden beispielhaft erklärt wird. Dadurch kann das Kochfeld 2 besonders großflächig und übersichtlich ausgestaltet werden. Beim Aktivieren des Kochfelds 2 sucht die Erfassungseinheit 10 in der Erfassungsfläche 11 nach einem Interaktionselement 9. Dazu wird in diesem Ausführungsbeispiel eine Objekterkennung durchgeführt, bei der die Erfassungseinheit 10 nach einer oder mehreren Markierungen sucht, welche auf ein Interaktionselement 9 hinweisen. Diese Markierungen können beispielsweise bestimmte Schriften, Logos oder geometrische Muster sein. Ist ein Interaktionselement 9 als solches erkannt worden, werden seine Position und sein Drehwinkel relativ zur Erfassungsfläche 11 und damit hier auch relativ zur Arbeitsfläche 4 bestimmt. Bei dem Interaktionselement 9 handelt es sich um ein flaches Objekt mit einer zumindest oberseitig ebenen Fläche. Das Interaktionselement 9 enthält vorzugsweise keine sensorischen oder elektronischen Komponenten, sondern besteht lediglich aus einem robusten Trägermaterial. Das Trägermaterial weist vorzugsweise Kunststoff oder Metall auf und ist vorteilhafterweise als Kunststoffmatte bzw. Metallplatte ausgeführt. Auf die Oberseite des Trägermaterials ist hier zur verbesserten Erkennungsleistung eine weiße Schicht aufgebracht ist, z. B. ähnlich zu einem Mauspad. Das Interaktionselement 9 ist tragbar und verschiebbar.To operate the hob 2 can the virtual UI 8th are taken as exemplified below. This allows the hob 2 be designed particularly large and clear. When activating the hob 2 searches the registration unit 10 in the detection area 11 after an interaction element 9 , For this purpose, an object recognition is performed in this embodiment, in which the detection unit 10 looking for one or more markers, which points to an interaction element 9 clues. These markers may be, for example, certain fonts, logos or geometric patterns. Is an interaction element 9 as such, its position and its angle of rotation become relative to the detection surface 11 and thus also here relative to the workspace 4 certainly. At the interaction element 9 it is a flat object with at least an upper surface flat. The interaction element 9 preferably contains no sensory or electronic components, but consists only of a robust carrier material. The carrier material preferably comprises plastic or metal and is advantageously designed as a plastic mat or metal plate. On the upper side of the carrier material is here for improved recognition performance, a white layer is applied, for. B. similar to a mouse pad. The interaction element 9 is portable and movable.

Im Folgenden wird von der Projektionseinheit 7 die virtuelle Benutzeroberfläche 8 auf das Interaktionselement 9 projiziert, und die Erfassungseinheit 10 überwacht eine Bedienung der virtuellen Benutzeroberfläche 8. Ein Nutzer kann dann über die virtuelle Benutzeroberfläche 8 das Kochfeld steuern. Dabei kann er während eines Kochbetriebs auch das Interaktionselement 9 bewegen, d. h., verschieben und/oder verdrehen. Dadurch kann auf der Arbeitsfläche 4 beispielsweise Platz für Töpfe usw. geschaffen werden. Die Projektionseinheit 7 passt die virtuelle Benutzeroberfläche 8 an das Interaktionselement 9 durch Nachführen der virtuellen Benutzeroberfläche 8 so an, dass die virtuelle Benutzeroberfläche 8 in Bezug auf das Interaktionselement 9 lageinvariant bleibt, und zwar zumindest innerhalb eines vorbestimmten Raumwinkelsektors des Interaktionselements 9.The following is from the projection unit 7 the virtual user interface 8th on the interaction element 9 projected, and the capture unit 10 monitors an operation of the virtual user interface 8th , A user can then use the virtual UI 8th control the hob. He can also during a cooking operation, the interaction element 9 move, ie, move and / or twist. This can be done on the work surface 4 For example, space for pots etc. can be created. The projection unit 7 fits the virtual UI 8th to the interaction element 9 by tracking the virtual UI 8th so on that the virtual UI 8th in terms of the interaction element 9 positionally invariant remains, at least within a predetermined solid angle sector of the interaction element 9 ,

2 zeigt in Draufsicht die Arbeitsfläche 4 mit einem darauf angeordneten Interaktionselement 9 in zwei möglichen Lagen L1 und L2. Die Arbeitsfläche 4 weist einen rechteckigen Grundriss auf. Innerhalb der Arbeitsfläche 4 befindet sich eine formgleiche Positionierungsfläche 12, welche die Überdeckungsfläche von der Erfassungsfläche 11 und einer maximalen Projektionsfläche darstellt. Innerhalb der Positionierungsfläche 12 kann die virtuelle Benutzeroberfläche 8 aufgebaut werden. Im gezeigten Fall sind die Erfassungsfläche 11 und die maximale Projektionsfläche deckungsgleich. Der Positionierungsfläche 12, weist etwa eine Breite von 80 cm und eine Tiefe von 60 cm auf. Auf der Arbeitsfläche 4 ist das Interaktionselement 9 frei positionierbar. 2 shows in plan view the work surface 4 with an interaction element arranged thereon 9 in two possible positions L1 and L2. The work surface 4 has a rectangular floor plan. Inside the workspace 4 there is an identical positioning surface 12 showing the coverage area of the detection area 11 and a maximum projection area. Within the positioning area 12 can the virtual UI 8th being constructed. In the case shown are the detection surface 11 and the maximum projection area congruent. The positioning surface 12 , has about a width of 80 cm and a depth of 60 cm. On the work surface 4 is the interaction element 9 freely positionable.

Das flache Interaktionselement 9 weist beidseitig einen Rand 12 auf, wobei an einem Rand eine Markierung in Form eines Logos ”LOGO” 13 aufgebracht ist, die zur Bestimmung von dessen Position und/oder Raumwinkel verwendet wird. Zur Erkennung des Interaktionselementes 9 als solchem dienen zwei Streifen (nicht dargestellt) an den Rändern. Alternativ kann auch die Position mittels einer ersten Markierung erkannt werden, z. B. mittels der zwei Streifen, während der Raumwinkel mittels einer weiteren Markierung, z. B. des Logos 13, erkannt wird. Auch mag mittels einer ersten Markierung das Interaktionselement 9 erkannt und dessen Position grob ermittelt werden, während mittels einer weiteren Markierung Position und Raumwinkel bzw. Raumlage genauer erkannt werden. Alternativ kann eine Erkennung und Ermittlung von Position und Raumwinkel anhand einer einzigen Markierung durchgeführt werden. Das Feld zwischen den Rändern 12 dient als Bedienfläche, auf welche die virtuelle Benutzeroberfläche 8 projiziert wird. Die Bedienfläche weist eine Kantenlänge von hier 20 cm auf. Im gezeigten Fall weist die virtuelle Benutzeroberfläche 8 getrennt fünf in Reihe angeordnete Betätigungselemente 14 und darüber ein Anzeigefeld 15 auf. Alternativ oder zusätzlich kann das Anzeigefeld gleichzeitig eine Betätigungsfunktion aufweisen, z. B. im Sinne eines projizierten virtuellen berührungsempfindlichen Bildschirms (”virtueller Touchscreen”).The flat interaction element 9 has an edge on both sides 12 on, where on one edge a mark in the form of a logo "LOGO" 13 is applied, which is used to determine its position and / or solid angle. For recognition of the interaction element 9 as such serve two strips (not shown) at the edges. Alternatively, the position can be detected by means of a first marker, z. B. by means of the two strips, while the solid angle by means of another marker, z. B. the logo 13 , is recognized. Also likes by means of a first mark the interaction element 9 detected and its position are roughly determined, while using a further mark position and solid angle or spatial position are more accurately detected. Alternatively, recognition and determination of position and solid angle can be performed using a single mark. The field between the edges 12 serves as a control surface on which the virtual user interface 8th is projected. The control surface has an edge length of 20 cm here. In the case shown, the virtual UI points 8th separated five in-line actuators 14 and above that a display field 15 on. Alternatively or additionally, the display panel can simultaneously have an actuating function, for. B. in the sense of a projected virtual touch-sensitive screen ("virtual touch screen").

In der Lage L1 liegen das Interaktionselement 9 und damit die virtuelle Benutzeroberfläche 8 ausrichtungsgleich zur Positionierungsfläche 12 und damit zur Arbeitsfläche 4, d. h., dass eine untere Kante 16 des Interaktionselements 9 und der virtuellen Benutzeroberfläche 8 parallel zu einer unteren Kante 17 der Positionierungsfläche 12 liegt. In dieser Lage liegt das Interaktionselement 9 mit einem Raumlagewinkel α von 0° auf der Arbeitsfläche 4. Der Raumlagewinkel α ist hier als ein Winkel zwischen einer unteren Kante 16 des Interaktionselements 9 und der unteren Kante 17 der Positionierungsfläche 12 definiert. Dabei ist die unteren Kante 16 des Interaktionselements 9 die jeweils mit der unteren Kante 17 der Positionierungsfläche 12 am weitesten winkelübereinstimmende Kante. In der Lage 12 ist das Interaktionselement 9 nach rechts unten verschoben und um einen Raumlagewinkel α mit einem Wert von weniger als 45° gegen den Uhrzeigersinn gegenüber der unteren Kante 17 der Positionierungsfläche 12 verdreht. Die virtuelle Benutzeroberfläche 8 ist entsprechend nachgeführt worden und um die gleiche Strecke wie das Interaktionselement 9 verschoben und um den gleichen Raumlagewinkel α verdreht. Dadurch ist die virtuelle Benutzeroberfläche 8 lageinvariant gegenüber dem Interaktionselement 9. Erreicht oder überschreitet der Raumlagewinkel α 45°, dreht sich die virtuelle Benutzeroberfläche 8 um 90° so, dass sie wieder einen Raumlagewinkel α < 45° einnimmt. Die unteren Kante 16 des Interaktionselements 9 wird dadurch umdefiniert. Im gezeigten Fall würde sich bei einer weiteren Drehung des Interaktionselements 9 in der Lage 12 gegen den Uhrzeigersinn bei Erreichen oder Überschreiten des Raumlagewinkels α von 45° die virtuelle Benutzeroberfläche 8 um 90° im Uhrzeigersinn drehen (umklappen). Dadurch wird erreicht, dass die virtuelle Benutzeroberfläche 8 immer den geringst möglichen Raumlagewinkel α bei gleichzeitiger Lageinvarianz gegenüber dem Interaktionselement 9 einnimmt. Damit ein Nutzer dieses Umklappen möglichst wenig bemerkt, weisen die virtuelle Benutzeroberfläche 8 und die Bedienfläche des Interaktionselements 9 vorteilhafterweise eine quadratische Kontur auf. Gegenüber der Lage L1 ist das Interaktionselement 9 beispielsweise um den gezeigten Raumlagewinkel α + 90° gegen den Uhrzeigersinn verdreht, wobei die virtuelle Benutzeroberfläche 8 bereits mindestens einmal umgeklappt wurde. Der Raumlagewinkel α kann beispielsweise mittels der Lage des Logos 13 bestimmt werden.In the situation L1 are the interaction element 9 and thus the virtual user interface 8th Alignment equal to the positioning surface 12 and thus to the work surface 4 that is, a lower edge 16 of the interaction element 9 and the virtual UI 8th parallel to a lower edge 17 the positioning surface 12 lies. In this situation lies the interaction element 9 with a space angle α of 0 ° on the work surface 4 , The space attitude angle α is here as an angle between a lower edge 16 of the interaction element 9 and the lower edge 17 the positioning surface 12 Are defined. Here is the bottom edge 16 of the interaction element 9 each with the lower edge 17 the positioning surface 12 furthest angle-matching edge. In a position 12 is the interaction element 9 shifted to the lower right and to a spatial position angle α with a value of less than 45 ° counterclockwise to the lower edge 17 the positioning surface 12 twisted. The virtual user interface 8th has been updated accordingly and the same distance as the interaction element 9 shifted and rotated by the same space angle α. This is the virtual UI 8th position invariant with respect to the interaction element 9 , If the space angle α reaches or exceeds 45 °, the virtual user interface rotates 8th by 90 ° so that it again occupies a spatial position angle α <45 °. The lower edge 16 of the interaction element 9 is thereby redefined. In the case shown, upon further rotation of the interaction element 9 in a position 12 counterclockwise when reaching or exceeding the spatial position angle α of 45 °, the virtual user interface 8th Turn 90 ° clockwise (fold down). This will accomplish that the virtual UI 8th always the lowest possible spatial position angle α with simultaneous position invariance with respect to the interaction element 9 occupies. For a user to notice this flipping as little as possible, have the virtual user interface 8th and the control surface of the interaction element 9 advantageously a square contour. Opposite the situation L1 is the interaction element 9 for example, rotated by the shown space angle α + 90 ° counterclockwise, the virtual user interface 8th has already been folded at least once. The spatial position angle α can, for example, by means of the location of the logo 13 be determined.

3 zeigt in Draufsicht das Interaktionselement 9 aus 2 mit der darauf projizierten Benutzeroberfläche 8 mit seinen Betätigungselementen 14 und seinem Anzeigefeld 15, wobei ein Objekt in Gestalt eines Fingers 18 das am weitesten links angeordnete Betätigungselement 14 'betätigt'. Zur Vermeidung von Fehlbetätigungen ist ein wichtiger Bestandteil bei dem Betrieb der virtuellen Benutzeroberfläche 8 eine sichere Erkennung einer definierten „Betätigung” (Schaltung) auf dem Interaktionelement 9. Diese Betätigung kann vorzugsweise durch das Legen des Fingers 18 in den Bereich des vordefinierten Betätigungselements 14 des Interaktionselements 9 ausgelöst werden. Zur sicheren Detektierung des Fingers 18 oder einer bewussten Betätigung eines virtuellen Betätigungselements (Schaltfläche o. ä.) 14 können hier spezifische anatomische Merkmale des Benutzerfingers 18 analysiert werden. Eine Justierung oder Eichung auf den Benutzerfinger 18 kann vorzugsweise durch einen einmaligen Justagevorgang beim Justieren des Systems durch Auflegen des Fingers 18 in ein vorgegebenes projiziertes, Eichfeld (o. Abb.) auf dem Interaktionselement 9 vorgenommen werden. Neben den anatomischen Merkmalen können beispielsweise auch eine Hautfarbe, Reflexionseigenschaften, eine Bildung eines Schattens 19 usw. zur Auswertung verwendet werden. Vorgebliche Schaltaktionen, die nicht auf einer sicheren Erkennung des Schaltfingers 18 beruhen (z. B. bei versehentlichem Agieren in einem Projektionsstrahl der Projektionseinheit 7), werden nicht vorgenommen. Vorzugsweise kann mit dem Schaltfinger 18 ein definierter Bewegungsablauf ausgeführt werden, der die Absicht einer Betätigung und damit Auslösung eines Schaltvorgangs eindeutig identifizieren lässt. 3 shows in top view the interaction element 9 out 2 with the user interface projected on it 8th with its actuators 14 and his display panel 15 , where an object in the form of a finger 18 the leftmost actuator 14 ' actuated '. Avoidance of misoperation is an important part of running the virtual UI 8th a secure detection of a defined "actuation" (circuit) on the interaction element 9 , This operation can preferably be done by laying the finger 18 in the area of the predefined actuating element 14 of the interaction element 9 to be triggered. For safe detection of the finger 18 or conscious operation of a virtual actuator (button or the like) 14 Here are specific anatomical features of the user's finger 18 to be analyzed. An adjustment or calibration on the user's finger 18 can preferably by a one-time adjustment process when adjusting the system by hanging up the finger 18 into a given projected, gauge field (not shown) on the interaction element 9 be made. In addition to the anatomical features, for example, a skin color, reflective properties, a formation of a shadow 19 etc. are used for evaluation. Alleged switching actions that are not based on secure detection of the shift finger 18 (eg accidental action in a projection beam of the projection unit 7 ) are not made. Preferably, with the shift finger 18 a defined sequence of movements are carried out, which clearly identifies the intention of an actuation and thus triggering a switching operation.

Selbstverständlich ist die vorliegende Erfindung nicht auf das gezeigte Ausführungsbeispiel beschränkt.Of course, the present invention is not limited to the embodiment shown.

So kann die virtuelle Benutzeroberfläche auch zur Bedienung anderer Haushaltsgeräte verwendet werden, z. B. zur Bedienung der Esse 3. Flächen sind im Ausführungsbeispiel als rechteckig beschrieben, können jedoch auch jede andere Form aufweisen, z. B. oval, rund, mehreckig oder frei geformt. Alternativ oder zusätzlich kann die Bedienvorrichtung beispielsweise mindestens einen Ultraschallwandler und einen ultraschallgestützten Abstands- oder 3D-Sensor aufweisen.Thus, the virtual user interface can also be used to operate other household appliances, eg. B. surfaces are described in the embodiment as rectangular, but may also have any other shape, for. B. oval, round, polygonal or free-shaped. Alternatively or additionally, the operating device may have, for example, at least one ultrasonic transducer and one ultrasound-assisted distance or 3D sensor.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

11
Küchekitchen
22
Kochfeldhob
33
DunstabzugshaubeHood
44
Arbeitsflächeworking surface
55
OberschrankWall unit
66
Projektions/Erfassungs-EinheitProjection / detection unit
77
Projektionseinheitprojection unit
88th
virtuelle Benutzeroberflächevirtual user interface
99
InteraktionselementInteraction element
1010
Erfassungseinheitacquisition unit
1111
Erfassungsflächedetecting surface
1212
Positionierungsflächepositioning surface
1313
Logologo
1414
Betätigungselementactuator
1515
Anzeigefelddisplay
1616
untere Kante des Interaktionselementslower edge of the interaction element
1717
untere Kante der Positionierungsflächelower edge of the positioning surface
1818
Fingerfinger
1919
Schattenshadow
L1L1
erste Lage des Interaktionselementsfirst position of the interaction element
L2L2
zweite Lage des Interaktionselementssecond layer of the interaction element
αα
RaumlagewinkelAttitude angles

Claims (14)

Verfahren zum Bedienen mindestens eines Haushaltsgeräts (2, 3) unter Verwendung einer bewegbaren virtuellen Benutzeroberfläche (8), wobei die virtuelle Benutzeroberfläche (8) eine projizierte virtuelle Benutzeroberfläche (8) ist, dadurch gekennzeichnet, dass das Verfahren die folgenden Schritte aufweist: – Projizieren der virtuellen Benutzeroberfläche (8) auf ein bewegbares Interaktionselement (9) und – Anpassen der virtuellen Benutzeroberfläche (8) als Reaktion auf eine Bewegung des Interaktionselements (9) auch während eines Betriebs des Haushaltsgeräts (2, 3), – wobei der Schritt des Anpassens der virtuellen Benutzeroberfläche (8) ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche (8) nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels (α) des Interaktionselements (9) umfasst.Method for operating at least one household appliance ( 2 . 3 ) using a movable virtual user interface ( 8th ), whereby the virtual user interface ( 8th ) a projected virtual user interface ( 8th ), characterized in that the method comprises the following steps: - projecting the virtual user interface ( 8th ) on a movable interaction element ( 9 ) and - Customizing the virtual user interface ( 8th ) in response to a movement of the interaction element ( 9 ) during operation of the household appliance ( 2 . 3 ), Wherein the step of adapting the virtual user interface ( 8th ) tilting a picture content of the virtual user interface ( 8th ) after exceeding or falling below a predetermined spatial position angle (α) of the interaction element ( 9 ). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt des Anpassens der virtuellen Benutzeroberfläche (8) ein Nachführen der virtuellen Benutzeroberfläche (8) mit einer Bewegung des Interaktionselements (9) umfasst.Method according to claim 1, characterized in that the step of adapting the virtual user interface ( 8th ) a tracking of the virtual user interface ( 8th ) with a movement of the interaction element ( 9 ). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der vorbestimmte Raumlagewinkel (α) etwa 45° oder ein rechtwinkliges Vielfaches davon beträgt.Method according to one of the preceding claims, characterized in that the predetermined spatial position angle (α) is about 45 ° or a rectangular multiple thereof. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der vorbestimmte Raumlagewinkel (α) relativ zu einer Kante einer Positionierungsfläche (12) bestimmt wird.Method according to one of the preceding claims, characterized in that the predetermined spatial position angle (α) relative to an edge of a positioning surface ( 12 ) is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der vorbestimmte Raumlagewinkel (α) relativ zu einer Kante (17) der Positionierungsfläche (12) bestimmt wird.Method according to one of the preceding claims, characterized in that the predetermined spatial position angle (α) relative to an edge ( 17 ) of the positioning surface ( 12 ) is determined. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für eine Erkennung eines bestimmten Benutzers individuelle Merkmale eines oder mehrerer seiner Fingers (18) erfasst werden und aufgrund der Erkennung eine Benutzeroberfläche auf den bestimmten Benutzer abgestimmt wird.Method according to one of the preceding claims, characterized in that individual features of one or more of his fingers ( 18 ) and, based on the recognition, a user interface is tuned to the particular user. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass eine Justierung der virtuellen Benutzeroberfläche (8) auf den bestimmten Finger (18) mittels Auflegens des Fingers (18) auf ein vorgegebenes projiziertes Eichfeld auf dem Interaktionselement (9) durchgeführt wird.Method according to claim 6, characterized in that an adjustment of the virtual user interface ( 8th ) on the particular finger ( 18 ) by laying on the finger ( 18 ) to a predetermined projected gauge field on the interaction element ( 9 ) is carried out. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Eichfeld temporär nur für die Justierung erzeugt wird.A method according to claim 7, characterized in that the calibration field is temporarily generated only for the adjustment. Bedienvorrichtung zum Bedienen mindestens eines Haushaltsgeräts (2, 3), aufweisend eine Erfassungseinheit (10) zum Erfassen von Bedieneingaben an einer zur Bedienung des mindestens einen Haushaltsgerät (2, 3) vorgesehenen bewegbaren virtuellen Benutzeroberfläche (8), dadurch gekennzeichnet, dass – die Bedienvorrichtung ferner eine Projektionseinheit (7) zum Projizieren der virtuellen Benutzeroberfläche (8) auf ein bewegbares Interaktionselement (9) aufweist und – die Bedienvorrichtung dazu eingerichtet ist, die Projektion der virtuellen Benutzeroberfläche (8) an das bewegbare Interaktionselement (9) als Reaktion auf eine Bewegung des Interaktionselements (9) anzupassen, – wobei die Bedienvorrichtung dazu eingerichtet ist, ein Kippen eines Bildinhalts der virtuellen Benutzeroberfläche (8) nach Überschreiten oder Unterschreiten eines vorbestimmten Raumlagewinkels (α) des Interaktionselements (9) vorzunehmen.Operating device for operating at least one household appliance ( 2 . 3 ), comprising a registration unit ( 10 ) for detecting operating inputs at a for operating the at least one household appliance ( 2 . 3 ) provided movable virtual user interface ( 8th ), characterized in that - the operating device further comprises a projection unit ( 7 ) for projecting the virtual user interface ( 8th ) on a movable interaction element ( 9 ) and - the operating device is set up to monitor the projection of the virtual user interface ( 8th ) to the movable interaction element ( 9 ) in response to a movement of the interaction element ( 9 ), wherein the operating device is set up to tilt a picture content of the virtual user interface ( 8th ) after exceeding or falling below a predetermined spatial position angle (α) of the interaction element ( 9 ). Bedienvorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass das Interaktionselement (9) passiv ist.Operating device according to claim 9, characterized in that the interaction element ( 9 ) is passive. Bedienvorrichtung nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass das Interaktionselement (9) an seiner Oberseite mindestens eine durch die Erfassungseinheit (10) erfassbare Markierung (13) zu seiner Identifizierung, Lagebestimmung und/oder Positionsbestimmung aufweist.Operating device according to claim 9 or 10, characterized in that the interaction element ( 9 ) at its upper side at least one by the detection unit ( 10 ) detectable mark ( 13 ) for its identification, orientation and / or position determination. Bedienvorrichtung nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass das Interaktionselement (9) ein Trägermaterial mit einer zumindest teilweise hellen, insbesondere weißen, Oberfläche aufweist.Operating device according to one of claims 9 to 11, characterized in that the interaction element ( 9 ) has a carrier material having an at least partially bright, in particular white, surface. Bedienvorrichtung nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass eine Steuerung der Bedienvorrichtung in der Projektionseinheit (7) integriert ist.Operating device according to one of claims 9 to 12, characterized in that a control of the operating device in the projection unit ( 7 ) is integrated. Bedienvorrichtung nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass die Projektionseinheit (7) und die Erfassungseinheit (10) über der Positionierungsfläche (12) angeordnet sind, insbesondere in einem verdeckten Bereich unter einem Oberschrank (5).Operating device according to one of claims 9 to 13, characterized in that the projection unit ( 7 ) and the registration unit ( 10 ) above the positioning surface ( 12 ) are arranged, in particular in a hidden area under a wall unit ( 5 ).
DE102009000653A 2009-02-06 2009-02-06 Method and device for operating at least one household appliance Active DE102009000653B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009000653A DE102009000653B4 (en) 2009-02-06 2009-02-06 Method and device for operating at least one household appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009000653A DE102009000653B4 (en) 2009-02-06 2009-02-06 Method and device for operating at least one household appliance

Publications (2)

Publication Number Publication Date
DE102009000653A1 DE102009000653A1 (en) 2010-08-12
DE102009000653B4 true DE102009000653B4 (en) 2011-03-17

Family

ID=42317249

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009000653A Active DE102009000653B4 (en) 2009-02-06 2009-02-06 Method and device for operating at least one household appliance

Country Status (1)

Country Link
DE (1) DE102009000653B4 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019170448A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203347A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203341A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203344A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
EP4040047A4 (en) * 2019-10-01 2022-11-02 Panasonic Intellectual Property Management Co., Ltd. Thermal cooker

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011000429B4 (en) * 2011-02-01 2015-08-06 Sartorius Lab Instruments Gmbh & Co. Kg Weighing cabin with integrated balance
EP2527747B1 (en) * 2011-05-24 2018-01-03 Diehl AKO Stiftung & Co. KG Device for operating a hotplate
ES2432234B1 (en) * 2012-05-30 2014-11-12 Bsh Electrodomésticos España, S.A. Home appliance control device
CN104807048B (en) * 2014-01-26 2018-05-08 博西华电器(江苏)有限公司 Kitchen range system, range hood and kitchen range
DE102014109734A1 (en) 2014-07-11 2016-01-14 Miele & Cie. Kg Method for operating a data pair that can be coupled to a domestic appliance, method for operating a household appliance that can be coupled with a smart phone, data glasses, home appliance and system for controlling a household appliance
IT201600126190A1 (en) * 2016-12-14 2018-06-14 Samuele Miatello INTERFACE DEVICE AND METHOD FOR THE CONTROL AND COMMAND OF PERIPHERAL OPERATING UNITS IN A BUILDING AUTOMATION PLANT
DE102019202409A1 (en) * 2019-02-22 2020-08-27 BSH Hausgeräte GmbH Interaction system
DE102019206903A1 (en) * 2019-05-13 2020-11-19 BSH Hausgeräte GmbH System with interaction device
DE102020121415B3 (en) 2020-08-14 2021-12-02 Bayerische Motoren Werke Aktiengesellschaft Projection system for generating a graphical user interface, graphical user interface and method for operating a projection system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19739285C1 (en) * 1997-09-08 1998-11-19 Siemens Nixdorf Inf Syst Data representation and virtual input device
DE10337538A1 (en) * 2003-08-06 2005-02-24 E.G.O. Elektro-Gerätebau GmbH Apparatus and method for operating a cooking system
DE102005011295A1 (en) * 2005-03-04 2006-09-07 E.G.O. Elektro-Gerätebau GmbH Household appliance system, for projecting operating information onto the surface of an appliance, e.g. a fitted cooker, has a control unit which projects information based on the determined projection surface properties
DE102005059449A1 (en) * 2005-12-13 2007-06-14 GM Global Technology Operations, Inc., Detroit Control system for controlling functions, has display device for graphical display of virtual control elements assigned to functions on assigned display surface in vehicle, and detection device for detecting control data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999040562A1 (en) 1998-02-09 1999-08-12 Joseph Lev Video camera computer touch screen system
LU90675B1 (en) 2000-11-10 2002-05-13 Iee Sarl Device control method
CN100489881C (en) 2001-01-08 2009-05-20 Vkb有限公司 Data input device and method
EP1742144B1 (en) 2005-07-04 2018-10-24 Electrolux Home Products Corporation N.V. Household appliance with virtual data interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19739285C1 (en) * 1997-09-08 1998-11-19 Siemens Nixdorf Inf Syst Data representation and virtual input device
DE10337538A1 (en) * 2003-08-06 2005-02-24 E.G.O. Elektro-Gerätebau GmbH Apparatus and method for operating a cooking system
DE102005011295A1 (en) * 2005-03-04 2006-09-07 E.G.O. Elektro-Gerätebau GmbH Household appliance system, for projecting operating information onto the surface of an appliance, e.g. a fitted cooker, has a control unit which projects information based on the determined projection surface properties
DE102005059449A1 (en) * 2005-12-13 2007-06-14 GM Global Technology Operations, Inc., Detroit Control system for controlling functions, has display device for graphical display of virtual control elements assigned to functions on assigned display surface in vehicle, and detection device for detecting control data

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019170448A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203347A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203343A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203341A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
DE102018203344A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
WO2019170460A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
WO2019170451A1 (en) 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaction module
EP4040047A4 (en) * 2019-10-01 2022-11-02 Panasonic Intellectual Property Management Co., Ltd. Thermal cooker

Also Published As

Publication number Publication date
DE102009000653A1 (en) 2010-08-12

Similar Documents

Publication Publication Date Title
DE102009000653B4 (en) Method and device for operating at least one household appliance
DE69724416T2 (en) HAND CONTROL WITH USER RETURN MECHANISM
EP2615376B1 (en) Cooking hob and method for operating a cooking hob
DE102012103032B3 (en) Method for operating an industrial robot
EP2920656A1 (en) Method for the secure and intentional activation of functions and/or movements of controllable industrial equipment
EP2834050B1 (en) Method for operating an industrial robot
DE102014113453A1 (en) Lighting controller and lighting control system
CH700524B1 (en) Household unit with touchless gesture operation.
EP2181383A2 (en) Display device with image surface
EP3545237B1 (en) Household appliance with removable haptic operating element
DE102011102394B4 (en) Device and method for operating a hob
EP2527747A1 (en) Device for operating a hotplate
DE102016100949B4 (en) Household electrical appliance and method for controlling it
DE102017218173A1 (en) Home appliance with control and image projector
DE102017207302B4 (en) Control device for a motor vehicle, method for operating the control device and motor vehicle
EP3187785B1 (en) Cooking hob comprising a gesture detection
EP3898310A1 (en) Method and system for setting a value for a parameter
DE102018202740A1 (en) Operating element with integrated gesture recognition sensor, operating device and household appliance
EP3001109B1 (en) Domestic appliance with gesture detection
DE102008062715A1 (en) Device with an input device for inputting control commands
DE102013100255A1 (en) Mobile furniture
AT505672B1 (en) COMPUTER-ASSISTED INTERFACE SYSTEM
DE102019216411A1 (en) Device for acquiring an input by means of an actuation object and method for operating a device for acquiring an input
EP3762654A1 (en) Interaction module
DE102014115284A1 (en) Operating device for setting the function of an electrical device and method for setting the function of an electrical device by means of an operating device

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R020 Patent grant now final

Effective date: 20110703

R081 Change of applicant/patentee

Owner name: BSH HAUSGERAETE GMBH, DE

Free format text: FORMER OWNER: BSH BOSCH UND SIEMENS HAUSGERAETE GMBH, 81739 MUENCHEN, DE

Effective date: 20150409

R084 Declaration of willingness to licence