DE102013014889A1 - Mouse pointer control for an operating device - Google Patents
Mouse pointer control for an operating device Download PDFInfo
- Publication number
- DE102013014889A1 DE102013014889A1 DE201310014889 DE102013014889A DE102013014889A1 DE 102013014889 A1 DE102013014889 A1 DE 102013014889A1 DE 201310014889 DE201310014889 DE 201310014889 DE 102013014889 A DE102013014889 A DE 102013014889A DE 102013014889 A1 DE102013014889 A1 DE 102013014889A1
- Authority
- DE
- Germany
- Prior art keywords
- body part
- camera
- image processing
- selection element
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienvorrichtung (10) für ein elektronisches Gerät (12), indem durch eine Kamera (14) ein erstes Körperteil (22) und ein zweites Körperteil (24) eines Benutzers gefilmt werden, durch eine Bildverarbeitungseinrichtung (16) in Kamerabildern (V) der Kamera (14) das erste Körperteil (22) und das zweite Körperteil (24) erkannt werden, durch eine graphische Benutzerschnittstelle (26) ein Auswahlelement (36) zum Auswählen zumindest einer Funktion (F1, F2, F3, F4) des elektronischen Geräts (12) angezeigt wird und durch eine Steuereinrichtung (18) das Auswahlelement (36) in der graphischen Benutzerschnittstelle (26) positioniert wird, um hierdurch die Auswahl festzulegen. Es sollen räumliche Einschränkungen beim Bedienen der Bedienvorrichtung (10) beseitigt werden. Durch die Bildverarbeitungseinrichtung (16) wird hierzu anhand der Kamerabilder (V) eine Relativbewegung (48) des zweiten Körperteils (24) bezüglich des ersten Körperteils (22) ermittelt und durch die Steuereinrichtung (18) das Auswahlelement (36) in Abhängigkeit von der erfassten Relativbewegung (48) positioniert.The invention relates to a method for operating an operating device (10) for an electronic device (12) in that a first body part (22) and a second body part (24) of a user are filmed by a camera (14) by an image processing device (16 ) in camera images (V) of the camera (14) the first body part (22) and the second body part (24) are detected by a graphical user interface (26) a selection element (36) for selecting at least one function (F1, F2, F3 F4) of the electronic device (12) is displayed and by a control device (18) the selection element (36) is positioned in the graphical user interface (26) to thereby determine the selection. It should be eliminated spatial restrictions when operating the operating device (10). For this purpose, a relative movement (48) of the second body part (24) with respect to the first body part (22) is determined by the image processing device (16) on the basis of the camera images (V) and the selection element (36) is detected by the control device (18) as a function of the detected Relative movement (48) positioned.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienvorrichtung für ein mobiles elektronisches Gerät, z. B. ein Infotainmentsystem oder eine Datenbrille. Durch das Gerät wird zumindest eine Funktion bereitgestellt, also z. B. eine Navigationsassistenz oder Mobiltelefonie. Die Bedienvorrichtung weist zudem eine graphische Benutzerschnittstelle (GUI – Graphical User Interface) auf, mit der man über ein Auswahlelement, z. B. einen Cursor oder einen Mauszeiger oder eine Listenauswahl, eine der Funktionen des Geräts auswählen und aktivieren kann. Die Bedienvorrichtung weist zusätzlich eine Kamera und eine Bildverarbeitungseinrichtung für eine Gestenerkennung auf.The invention relates to a method for operating an operating device for a mobile electronic device, for. B. an infotainment system or a data glasses. By the device at least one function is provided, so z. B. a navigation assistant or mobile telephony. The operating device also has a graphical user interface (GUI - Graphical User Interface), with which you have a selection element, eg. As a cursor or a mouse pointer or a list selection, one of the functions of the device can select and activate. The operating device additionally has a camera and an image processing device for gesture recognition.
Aus der
Aus der
Von Kraftfahrzeugen ist bekannt, dass z. B. bei einem Infotainmentsystem ein Bildschirm mit einer graphischen Benutzerschnittstelle in Höhe des Lenkrads und örtlich getrennt davon ein Touchpad oder ein Dreh-Drück-Steller zum Lenken eines Auswahlelements der graphischen Benutzerschnittstelle nahe einer Armlehen in der Mittelkonsole angeordnet sein kann. Der Benutzer muss dann nicht mit seiner Hand hoch zu dem Bildschirm fassen, um das Auswahlelement zu verschieben. Er kann die Hand bequem z. B. auf der Armlehne der Mittelkonsole liegen lassen. Aber für eine Person auf der Rückbank des Fahrzeugs bleiben auch ein Touchpad und ein Dreh-Drück-Steller an der Mittelkonsole schwer erreichbar. Einem Beifahrer kann die Bedienung ebenfalls schwer fallen, da er das Touchpad oder den Dreh-Drück-Steller in ungewohnter Weise mit der anderen Hand bedienen muss, als er es als Fahrer gewohnt ist. Grund dafür ist, dass die Bedienhandhabe, also das Touchpad oder der Dreh-Drück-Steller, eben einen festen Ort aufweisen, der nach den Bedürfnissen des Fahrers gewählt wird.Of motor vehicles it is known that z. For example, in an infotainment system, a screen with a graphical user interface at the level of the steering wheel and spatially separated therefrom may be a touchpad or a rotary push-button for directing a graphical user interface selector element near an armrest in the center console. The user then does not have to raise his hand up to the screen to move the selection item. He can hand comfortably z. B. lying on the armrest of the center console. But for a person in the back of the vehicle, a touchpad and a rotary push-button on the center console remain difficult to reach. The operation can also be difficult for a passenger since he has to operate the touchpad or the turn-push actuator in an unfamiliar manner with the other hand than he is used to as a driver. The reason for this is that the operating handle, ie the touchpad or the rotary push-button, just have a fixed location, which is selected according to the needs of the driver.
Der Erfindung liegt die Aufgabe zugrunde, räumliche Einschränkungen beim Bedienen einer Bedienvorrichtung mit graphischer Benutzerschnittstelle zu beseitigen.The invention has for its object to eliminate spatial restrictions when operating a control device with graphical user interface.
Die Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteransprüche gegeben.The object is solved by the subject matters of the independent claims. Advantageous developments of the invention are given by the dependent claims.
Mit dem erfindungsgemäßen Verfahren wird eine Bedienvorrichtung für ein elektronisches Gerät betrieben. Bevorzugt handelt es sich bei dem elektronischen Gerät um ein mobiles Gerät, also z. B. ein Infotainmentsystem eines Kraftfahrzeugs oder auch eine Datenbrille oder ein Laptop. Das elektronische Gerät kann in bekannter Weise zumindest eine Funktion bereitstellen, also z. B. das Aufbauen einer Telefonverbindung im Falle eines Infotainmentsystems oder das Einblenden von bestimmten Informationen im Benutzer-Blickfeld bei der Datenbrille oder das Starten eines Programms im Falle eines Laptops. Welche Funktionen zur Auswahl stehen, kann durch eine graphische Benutzerschnittstelle angezeigt werden, z. B. in Form von Icons, die z. B. mit einem Mauszeiger ausgewählt und zum Aktivieren der Funktion angeklickt werden können, oder in Form einer Liste eines Bedienmenüs, deren Listeneinträge jeweils eine Funktion angeben, die dann in bekannter Weise ausgewählt und aktiviert werden kann.The method according to the invention operates an operating device for an electronic device. Preferably, the electronic device is a mobile device, so z. As an infotainment system of a motor vehicle or a smart glasses or a laptop. The electronic device can provide at least one function in a known manner, ie z. As the setting up of a telephone connection in the case of an infotainment system or the fading of certain information in the user's field of vision in the data glasses or starting a program in the case of a laptop. Which functions are available for selection can be indicated by a graphical user interface, eg. B. in the form of icons, the z. B. can be selected with a mouse pointer and clicked to activate the function, or in the form of a list of a control menu whose list entries each specify a function that can then be selected and activated in a known manner.
Im Zusammenhang mit der Erfindung wichtig ist dabei, dass allgemein zum Auswählen und Aktivieren zumindest einer Funktion des elektronischen Geräts ein Auswahlelement in der graphischen Benutzerschnittstelle angezeigt wird, der z. B. der besagte Mauszeiger. Um die Auswahl einer Funktion festzulegen, um also z. B. den Mauszeiger zu bewegen oder in einer Liste einen Listeneintrag auszuwählen, wird das Auswahlelement durch eine Steuereinrichtung, z. B. einen Prozessor mit darin ablaufendem Steuerprogramm, in der graphischen Benutzerschnittstelle gesteuert.It is important in the context of the invention that, in general, for selecting and activating at least one function of the electronic device, a selection element is displayed in the graphical user interface, which, for example, is shown in FIG. B. the said mouse pointer. To specify the selection of a function, so z. B. to move the mouse pointer or select a list entry in a list, the selection element by a control device, for. As a processor with expiring control program, controlled in the graphical user interface.
Um nun die räumliche Einschränkungen beim Bewegen oder Ausrichten des Auswahlelements für den Benutzer zu verringern, werden bei dem Verfahren durch eine Kamera ein erstes Körperteil sowie ein zweites Körperteil des Benutzers gefilmt. Insbesondere können als das erste Körperteil ein Arm oder eine Hand und als das zweite Körperteil die andere Hand oder ein Finger der anderen Hand gefilmt werden. In Kamerabildern der Kamera werden das erste Körperteil und das zweite Körperteil durch eine Bildverarbeitungseinrichtung, z. B. einem weiteren Programm des genannten Prozessors, erkannt. Eine solche Objekterkennung kann in an sich bekannter Weise erfolgen. Durch die Bildverarbeitungseinrichtung wird anhand der Kamerabilder auch eine Relativbewegung des zweiten Körperteils bezüglich des ersten Körperteils ermittelt. Z. B. kann also ermittelt werden, wie der Benutzer mit einem Finger über die Handinnenfläche der anderen Hand streicht. Durch die Steuereinrichtung wird dann das Auswahlelement in Abhängigkeit von der erfassten Relativbewegung gesteuert. Streicht also der Benutzer z. B. mit dem Finger nach rechts, wird auch das Auswahlelement im Falle eines Mauszeigers in der graphischen Benutzerschnittstelle nach rechts bewegt. Im Falle eines Bedienmenüs kann z. B. in ein Untermenü gewechselt werden.In order to reduce the spatial restrictions on moving or aligning the selection element for the user, in the method by a camera, a first body part and a second body part of the user are filmed. Specifically, as the first body part, an arm or a hand and, as the second body part, the other hand or a finger of the other hand may be filmed. In camera images of the camera, the first body part and the second body part by an image processing device, for. B. another program of said processor recognized. Such object recognition can be done in a conventional manner. By the image processing device is based on the camera images and a relative movement of the second body part with respect to the first body part determined. For example, it can be determined how the user strokes with one finger on the palm of the other hand. By the control device, the selection element is then controlled in dependence on the detected relative movement. So if the user z. B. with the finger to the right, and the selection element is moved in the case of a mouse pointer in the graphical user interface to the right. In the case of an operating menu z. B. be changed to a submenu.
Die Erfindung weist den Vorteil auf, dass bei der erfindungsgemäßen Bedienvorrichtung der Benutzer seine „Bedienhandhabe” immer bei sich hat, nämlich die beiden Körperteile. Er muss zum Lenken des Auswahlelements also nicht nach einem Touchpad oder einem Dreh-Drück-Steller greifen. Er kann einfach eine Relativbewegung mit den beiden Körperteilen ausführen und hierdurch das Auswahlelement lenken. Z. B. kann also in einen Kraftfahrzeug eine Person einfach von der Rückbank aus das Infotainmentsystem bedienen, ohne sich nach vorne in den Frontbereich des Kraftfahrzeugs beugen zu müssen. Bei einer Datenbrille reicht es entsprechend aus, z. B. mit einem Finger einer Hand über die andere Hand zu streichen.The invention has the advantage that in the operating device according to the invention the user always has his "operating handle" with him, namely the two body parts. So he does not have to reach for the selection element for a touchpad or a rotary-push-dial. He can simply perform a relative movement with the two body parts and thereby direct the selection element. For example, in a motor vehicle, a person can simply operate the infotainment system from the rear seat without having to lean forward into the front area of the motor vehicle. With a data glasses, it is sufficient accordingly, z. B. with one finger of one hand on the other hand to stroke.
Die ebenfalls zur Erfindung gehörige Bedienvorrichtung für ein elektronisches Gerät ist zum Durchführen einer Ausführungsform des erfindungsgemäßen Verfahrens ausgelegt. Sie weist hierzu die Kamera zum Filmen eines ersten Körperteils und eines zweiten Körperteils eines Benutzers, die Bildverarbeitungseinrichtung zum Erkennen des ersten Körperteils und des zweiten Körperteils in den Kamerabildern der Kamera, die graphische Benutzerschnittstelle und die Steuereinrichtung zum Positionieren des Auswahlelements in der graphischen Benutzerschnittstelle auf. Die graphische Benutzerschnittstelle kann z. B. eine Datenbrille zum Einblenden der graphischen Benutzerschnittstelle in ein Blickfeld des Benutzers oder durch einen Bildschirm realisiert sein. Die Benutzerschnittstelle ist dazu ausgelegt, das beschriebene Auswahlelements zum Auswählen und Aktivieren zumindest einer Funktion des elektronischen Geräts anzuzeigen. Durch das Positionieren des Auswahlelements wird festgelegt, welche Funktion ausgewählt ist.The likewise belonging to the invention control device for an electronic device is designed to carry out an embodiment of the method according to the invention. It has for this purpose the camera for filming a first body part and a second body part of a user, the image processing device for recognizing the first body part and the second body part in the camera images of the camera, the graphical user interface and the control device for positioning the selection element in the graphical user interface. The graphical user interface can, for. Example, a data glasses for displaying the graphical user interface in a field of view of the user or be implemented by a screen. The user interface is adapted to display the described selection element for selecting and activating at least one function of the electronic device. Positioning the selector determines which feature is selected.
Bei einer Weiterbildung der Erfindung wird durch die Steuereinrichtung das Auswahlelement gemäß der Relativbewegung dabei nur gesteuert, falls durch die Bildverarbeitungseinrichtung erkannt und signalisiert wird, dass das erste und/oder das zweite Körperteil eine vorbestimmte Haltung eingenommen hat und/oder dass das zweite Körperteil das erste Körperteil berührt. Mit anderen Worten wird der Interaktionsmodus durch die Einnahme der richtigen Position der beiden positionsvorgebenden Gliedmaßen oder Körperteile zueinander automatisch aktiviert. Hierdurch wird vermieden, dass der Benutzer die Bedienvorrichtung unbeabsichtigt bedient. Z. B. kann vorgesehen sein, dass der Benutzer ein bestimmte Hand flach mit der Handinnenfläche zur Kamera wenden muss und zum Positionieren des Auswahlelements mit einem bestimmten Finger der andere Hand über die Handinnenfläche streichen muss. Indem sich die Körperteile berühren müssen, wird ohne zusätzliche technische Aktoren zusätzlich erreicht, dass der Benutzer auch eine haptische Rückmeldung bei der Bedienung erfährt.In a further development of the invention, the selection element according to the relative movement is only controlled by the control device, if detected and signaled by the image processing device that the first and / or the second body part has taken a predetermined posture and / or that the second body part of the first Body part touched. In other words, the interaction mode is automatically activated by taking the correct position of the two position-predetermining limbs or body parts. This prevents the user from unintentionally operating the operating device. For example, it may be provided that the user must turn a certain hand flat with the palm of his hand to the camera and to place the selection element with a specific finger of the other hand on the palm of the hand must strike. By having to touch the body parts is achieved without additional technical actuators in addition that the user also receives a haptic feedback during operation.
Bei einer Weiterbildung der Erfindung wird durch die Bildverarbeitungseinrichtung eine vorbestimmte Auslösegeste des zweiten Körperteils erkannt und durch die Steuereinrichtung eine momentan durch das Auswahlelement ausgewählte Funktion des Geräts aktiviert. Durch eine solche Auslösegeste kann als z. B. die Funktion eines Mausklicks nachgeahmt werden. Die Auslösegeste kann je nach Genauigkeit der Kamera insbesondere ein kurzer Bewegungsimpuls des führenden Fingers oder eine zu definierende Fingerbewegung zumindest zweier Finger zueinander sein.In a further development of the invention, a predetermined triggering gesture of the second body part is detected by the image processing device, and the control device activates a function of the device currently selected by the selection element. By such a triggering gesture can be used as z. B. the function of a mouse click to be imitated. Depending on the accuracy of the camera, the triggering gesture may in particular be a short movement pulse of the leading finger or a finger movement of at least two fingers to be defined.
Eine Bewegung des Auswahlelements kann auf einen vorbestimmten Auswahlbereich beschränkt sein. Bei einem Mauszeiger kann dies z. B. eine Bildschirmfläche sein. Bei einem Bedienmenü ist die Auswahl auf die Liste der Menüeinträge beschränkt. Die Bewegung der beiden gefilmten Körperteile zueinander sollte bevorzugt dahingehend in ein günstiges Verhältnis zu der Bewegung des Auswahlelements gesetzt werden, dass der Benutzer bei Ausführen einer Bewegung mit einer bestimmten maximalen Bewegungsweite dann auch mit dem Auswahlelement den gesamten Auswahlbereich durchquert hat. Bei einer Weiterbildung der Erfindung wird hierzu durch die Bildverarbeitungseinrichtung in den Kamerabildern jeweils eine Referenzfläche festgelegt. Diese überdeckt insbesondere zumindest einen Teil des ersten Körperteils oder das ganze erste Körperteil. Es kann z. B. der in den Kamerabildern erkennbare Rand einer Handinnenfläche oder ein Rechteck innerhalb der abgebildeten Handinnenfläche als Referenzfläche festgelegt werden. Durch die Steuereinrichtung wird dann die Relativbewegung des zweiten Körperteils innerhalb der Referenzfläche in eine Bewegung des Auswahlelements innerhalb des Auswahlbereichs derart übersetzt, dass die Referenzfläche mit dem Auswahlbereich korrespondiert. Erreicht also das zweite Körperteil einen bestimmten Rand der Referenzfläche, erreicht entsprechend auch das Auswahlelement eine korrespondierende Grenze des Auswahlbereichs, was z. B. ein Rand des Bildschirms oder das Ende einer Auswahlliste oder eines Bedienmenüs sein kann.A movement of the selection element may be limited to a predetermined selection range. For a mouse pointer this z. B. be a screen area. With an operating menu, the selection is limited to the list of menu items. The movement of the two filmed body parts relative to one another should preferably be set in a favorable relationship to the movement of the selection element such that the user has traversed the entire selection region when executing a movement with a certain maximum movement distance then also with the selection element. In a development of the invention, in each case a reference surface is defined by the image processing device in the camera images. This covers in particular at least a part of the first body part or the whole first body part. It can, for. B. the recognizable in the camera images edge of a palm or a rectangle within the imaged palm are set as the reference surface. The control device then translates the relative movement of the second body part within the reference area into a movement of the selection element within the selection area in such a way that the reference area corresponds to the selection area. Thus, when the second body part reaches a certain edge of the reference surface, the selection element correspondingly also reaches a corresponding boundary of the selection region, which, for B. may be an edge of the screen or the end of a selection list or a control menu.
Bevorzugt wird hierbei dem Benutzer durch eine Anzeigeeinrichtung ein auf dem ersten Körperteil verlaufender Rand der Referenzfläche visualisiert. Die erfindungsgemäße Bedienvorrichtung weist gemäß einer Ausführungsform der Erfindung hierzu eine Anzeigeeinrichtung auf, die dazu ausgelegt ist, einen Rand einer von der Bildverarbeitungsrichtung für die Bestimmung der Relativbewegung festgelegten Referenzfläche in Bilddaten die Kamerabilder einzublenden. Dies ist insbesondere im Zusammenhang mit einer Datenbrille vorteilhaft, durch welche der Benutzer seine beiden Körperteile betrachtet. Durch das Einblenden des Randes in die auf der Datenbrille dargestellten Kamerabilder ergibt sich der sogenannte Augmented-Reality-Effekt. In this case, the user is preferably visualized by means of a display device an edge of the reference surface running on the first body part. According to an embodiment of the invention, the operating device according to the invention has for this purpose a display device which is designed to display an edge of a reference surface defined by the image processing direction for determining the relative movement in image data, the camera images. This is particularly advantageous in the context of data goggles by which the user views his two body parts. By fading in the edge into the camera images displayed on the data glasses, the so-called augmented reality effect results.
Zusätzlich oder alternativ hierzu sieht die Erfindung gemäß einer Weiterbildung eine Projektionseinrichtung vor, die dazu ausgelegt ist, den Rand der von der Bildverarbeitungsrichtung für die Bestimmung der Relativbewegung festgelegten Referenzfläche auf das erste Körperteil zu projizieren. Die Projektionseinrichtung kann z. B. durch einen Laser realisiert sein. Die Projektionseinrichtung kann z. B. einen leuchtenden Rand eines Rechtecks auf eine Handinnenfläche projizieren, falls diese das erste Körperteil darstellt.In addition or as an alternative to this, according to a further development, the invention provides a projection device which is designed to project the edge of the reference surface defined by the image processing direction for the determination of the relative movement onto the first body part. The projection device can, for. B. be realized by a laser. The projection device can, for. B. projecting a luminous edge of a rectangle on a palm, if this represents the first body part.
Die Kamera ist gemäß einer Ausführungsform der Erfindung eine PMD-Kamera (PMD – Photonic Mixing Device), also eine Time-of-Flight-Kamera, oder aber eine Stereokamera. Eine PMD-Kamera und auch eine Stereokamera erzeugt jeweils als Kamerabild 3D-Bilddaten mit Tiefeninformationen bezüglich der optischen Achse der Kamera. Die Bildverarbeitungseinrichtung ist entsprechend vorteilhaft dazu ausgelegt, die Relativbewegung der Körperteile räumlich zu ermitteln. Hierdurch kann in vorteilhafter Weise auch ein Antippen des ersten Körperteils durch das zweite Körperteil auch dann erkannt werden, falls die Bewegung beim Antippen entlang der optischen Achse verläuft, also von der Kamera weg und zu ihr hin. Ein solches Antippen kann dann von dem Benutzer wie der bekannte Mausklick genutzt werden, um eine ausgewählte Funktion zu aktivieren.According to one embodiment of the invention, the camera is a PMD camera (PMD - Photonic Mixing Device), that is to say a time-of-flight camera, or else a stereo camera. A PMD camera and also a stereo camera generates as a camera image 3D image data with depth information with respect to the optical axis of the camera. The image processing device is correspondingly advantageously designed to spatially determine the relative movement of the body parts. As a result, a tapping of the first body part by the second body part can also be detected in an advantageous manner, if the movement during tapping along the optical axis, ie away from the camera and towards her. Such a tap can then be used by the user, such as the familiar mouse click, to activate a selected function.
Im Folgenden ist ein konkretes Ausführungsbeispiel der Erfindung erläutert. Hierzu zeigt die einzige Figur (Fig.) eine schematische Darstellung einer Ausführungsform der erfindungsgemäßen Bedienvorrichtung.In the following, a concrete embodiment of the invention is explained. For this purpose, the single FIGURE (FIG.) Shows a schematic representation of an embodiment of the operating device according to the invention.
Bei dem im Folgenden erläuterten Ausführungsbeispiel handelt es sich um eine bevorzugte Ausführungsform der Erfindung. Bei dem Ausführungsbeispiel stellen aber die beschriebenen Komponenten der Ausführungsform jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren ist die beschriebene Ausführungsform auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiment explained below is a preferred embodiment of the invention. In the exemplary embodiment, however, the described components of the embodiment each represent individual features of the invention, which are to be considered independently of each other, which also develop the invention independently of one another and thus also individually or in a different combination than the one shown as part of the invention. Furthermore, the described embodiment can also be supplemented by further features of the invention already described.
In der Figur ist eine Bedienvorrichtung
Das Gerät
Die Anzeigeeinrichtung
Zum Positionieren des Auswahlelements
Über die Kamera
Die Bildverarbeitungseinrichtung
Es kann auch ein virtuelles Touchpad
Durch die Bildverarbeitungseinrichtung kann auch eine vorbestimmte Auslösegeste z. B. des Fingers
Insgesamt erfolgt bei der Bedieneinrichtung
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 6771294 B1 [0002] US 6771294 B1 [0002]
- US 2011/0213664 A1 [0003] US 2011/0213664 A1 [0003]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310014889 DE102013014889A1 (en) | 2013-09-06 | 2013-09-06 | Mouse pointer control for an operating device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE201310014889 DE102013014889A1 (en) | 2013-09-06 | 2013-09-06 | Mouse pointer control for an operating device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013014889A1 true DE102013014889A1 (en) | 2015-03-12 |
Family
ID=52478221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201310014889 Withdrawn DE102013014889A1 (en) | 2013-09-06 | 2013-09-06 | Mouse pointer control for an operating device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013014889A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015006664A1 (en) * | 2015-05-22 | 2016-11-24 | Giesecke & Devrient Gmbh | System and method for processing value documents |
DE102016116774A1 (en) | 2016-09-07 | 2018-03-08 | Bundesdruckerei Gmbh | Data glasses for interacting with a user |
CN116176430A (en) * | 2023-05-04 | 2023-05-30 | 长城汽车股份有限公司 | Virtual key display method and device, vehicle and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
-
2013
- 2013-09-06 DE DE201310014889 patent/DE102013014889A1/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20110213664A1 (en) | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Local advertising content on an interactive head-mounted eyepiece |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015006664A1 (en) * | 2015-05-22 | 2016-11-24 | Giesecke & Devrient Gmbh | System and method for processing value documents |
US10496179B2 (en) | 2015-05-22 | 2019-12-03 | Giesecke+Devrient Currency Technology Gmbh | System and method for processing value documents |
DE102016116774A1 (en) | 2016-09-07 | 2018-03-08 | Bundesdruckerei Gmbh | Data glasses for interacting with a user |
CN116176430A (en) * | 2023-05-04 | 2023-05-30 | 长城汽车股份有限公司 | Virtual key display method and device, vehicle and storage medium |
CN116176430B (en) * | 2023-05-04 | 2023-08-29 | 长城汽车股份有限公司 | Virtual key display method and device, vehicle and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1998996B1 (en) | Interactive operating device and method for operating the interactive operating device | |
DE102012020607B4 (en) | A motor vehicle with a gesture control device and method for controlling a selection element | |
DE102009048043A1 (en) | Multifunction display and control system and method for controlling such a system with optimized graphical operator display | |
DE102016210288A1 (en) | Eyetracker unit operating device and method for calibrating an eyetracker unit of an operating device | |
DE102016108885A1 (en) | Method for contactless moving of visual information | |
DE102017122396A1 (en) | Vehicle-side actuator | |
DE102016216577A1 (en) | A method of interacting with image content displayed on a display device in a vehicle | |
DE112012003889T5 (en) | Method, apparatus and computer program for pointing to an object | |
EP3508968A1 (en) | Human-machine interface and method for operating a human-machine interface | |
DE102014019005A1 (en) | Method for operating an operating device of a motor vehicle in different operating modes and operating device and motor vehicle | |
DE102013000066A1 (en) | Zooming and moving an image content of a display device | |
DE102013014889A1 (en) | Mouse pointer control for an operating device | |
WO2014108152A2 (en) | Motor vehicle user interface comprising a control element for detecting a control action | |
DE102016218003B4 (en) | Method and device for optimizing the presentation on multiple displays in a vehicle | |
DE102014218506A1 (en) | Vehicle with freely positionable haptic controls | |
DE102013021814A1 (en) | Control device with eyetracker | |
DE102013014877A1 (en) | Motor vehicle operating device with self-explanatory gesture recognition | |
WO2014108160A2 (en) | User interface for the contactless selection of a device function | |
DE102012219814A1 (en) | Providing an operator input using a head-mounted display | |
EP3025214B1 (en) | Method for operating an input device, and input device | |
EP3274789B1 (en) | Motor vehicle simulation system for simulating a virtual environment with a virtual motor vehicle and method for simulating a virtual environment | |
DE102014222751A1 (en) | Device for vehicles for operating multi-level GUIs | |
DE102020100073A1 (en) | Method and system for selecting an entry from a list | |
DE102013211046A1 (en) | Method and device for obtaining a control signal from an operating gesture | |
DE102012218155A1 (en) | Method for preparation of input for rider of e.g. passenger car on touch-sensitive display, involves displaying a section of graphical interface on display unit, in response to detecting that driver needs to perform the input process |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |