WO2011054740A1 - Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen - Google Patents
Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen Download PDFInfo
- Publication number
- WO2011054740A1 WO2011054740A1 PCT/EP2010/066396 EP2010066396W WO2011054740A1 WO 2011054740 A1 WO2011054740 A1 WO 2011054740A1 EP 2010066396 W EP2010066396 W EP 2010066396W WO 2011054740 A1 WO2011054740 A1 WO 2011054740A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- display
- hand
- stylus
- finger
- dimensional position
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0428—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Definitions
- Operation via gestures and movements of the user in this case is about a completely different approach. It's not about interpreting more complex movements (gestures) of the user on a relatively large distance and assigning these gestures to different functions, but about three-dimensionally locating objects that move into the immediate vicinity of the screen and then immediately a corresponding one To generate reaction which is intended to announce to the user what will happen if he approaches the screen and finally touches it. Quite in the sense of this operating philosophy are already known devices to understand, which have haptic feedback, which trigger a touch of a function associated with the surface of the screen vibration of the device, which the user can feel.
- the described invention seeks to further improve the ease of use by extending the operating feel by the third dimension.
- the desired effect can be additionally supported by acoustic signals, which also vary analogous to an approximation of a sound effect.
- the sound effect can be chosen differently depending on the function stored in the position in question, so that the user can already distinguish acoustically which function will trigger his keystroke.
- Another aspect and advantage of the three-dimensional method of operation is that, if desired, today's common touch systems, which eg electromechanical or capacitive function, can be replaced. Many of these methods require another slide over the display, adversely affecting its display quality.
- Figure 1 shows an advantageous embodiment of this invention using two cameras (b).
- An operator (e) interacts with a graphical application (human machine interface) which is displayed on a graphic display (a) by a computer (d).
- the operation is e.g. with a finger or a stylus.
- the cameras (b), the modulable light sources (c) and the display (a) are connected to the computer application (d) and are controlled by them.
- the operator (e) now approaches, e.g. with his finger on the display (a)
- this is detected by the cameras (b) and its three-dimensional position in relation to the display (a) is calculated by the computer application (d).
- the image presented by the computer application is now changed in relation to the position of the operator.
- Figure 2 shows schematically a possible graphic display. If the operator approaches (e) this display, the image is changed accordingly at this point.
- Figure 3 shows a possible optical change.
- the degree of this change becomes stronger the closer the operator approaches the display with his finger. The change moves
- the three-dimensional analysis of the position of the finger or operator's pen is performed in an advantageous configuration with two cameras (b), which can be mounted laterally on the display.
- An advantageous embodiment of this object is such that the cameras (b) each offset by 90 degrees are attached to the side of the screen, so for example, top and right.
- this system can be supported by modulated light sources (c) mounted near the cameras. These light sources can be in the infrared range work so as not to disturb the operator.
- the light sources eg LEDs
- This method allows for easy extraction of interfering objects in the field of view of the camera that are farther away.
- the 90 degree offset configuration of the cameras allows the use of simpler algorithms for three-dimensional positioning than would be necessary if arranged side by side or left / right of the screen. This is important, for example, in order to keep the costs for this system as low as possible, because the lower complexity of the image processing means that less demands are placed on the computing capacity of the corresponding system and therefore simpler hardware can be used.
- This technique also makes it easier to operate small objects on the screen or to display and operate more information on small, high-resolution screens.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
Abstract
Die vorliegende Erfindung beschreibt die Bedienung eines Gerätes mit einer grafischen Anzeige, welches mit der Hand oder einem Stift bedient wird, dadurch gekennzeichnet, dass eine grafische Interaktion auf dieser Anzeige erzeugt wird, die in Analogie zur dreidimensionalen Position der Hand oder des Stiftes steht, sobald sich diese in der unmittelbaren Nähe dieser Anzeige befinden. Es geht um ein System, welches den Bediener bei der Manipulation von grafischen Benutzeroberflächen in einer dreidimensionalen Form unterstützt, dergestalt, dass auf der bestehenden graphischen Applikation bereits bei Annäherung des Bedieners eine optische Reaktion erfolgt, die eine analoge Funktion zur Position des Fingers oder des Bedienstiftes wiederspiegelt. Das Benutzerinterface reagiert an der Stelle, wo sich der Finger des Benutzers nähert, indem sich die Darstellung beispielsweise wie durch eine Kugel gesehen verkrümmt. Je näher der Finger kommt, desto stärker wird der Effekt, bis schliesslich die Berührung mit der Oberfläche die vorgesehene Aktion ausführt.
Description
Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen
BESCHREIBUNG
Die Bedienung von Computersystemen, welche über graphische Benutzeroberflächen verfügen, erfolgt heute oftmals über sogenannte Touchscreens , welche bei Berührung des Bildschirmes mit dem Finger oder einem Stift eine an der betreffenden Position vorgesehene Interaktion auslösen. Solche Systme sind heute beispielsweise in der Industrie für die Bedienung von Steuerungen (Operator Panels) , aber auch auf portablen Geräten, z.B. im Mobilfunkbereich, breit im Einsatz .
Im Bereich der industriellen Anwendungen hat der Operateur häufig den Blick parallel auf die Maschine oder die Anlage gerichtet, um die reale Reaktion seiner Interaktionen zu beobachten. Es ist daher sehr wichtig, dass diese User- Interfaces sehr einfach und übersichtlich gehalten werden, um diese noch sicher bedienen zu können, wenn der Benutzer sich auch auf andere Objekte konzentrieren muss. Es ist aus diesem Blickwinkel betrachtet daher wünschenswert, wenn der Benutzer über möglichst viele Kanäle seiner Wahrnehmung und seiner Sinne einen Feedback über seine Aktionen bekommt, da er die Bedienung dadurch schneller und sicherer vornehmen kann. Im Unterschied zu einer bereits bekannten Technik zur
Bedienung über Gesten und Bewegungen des Benutzers geht es in diesen Fall um einen komplett anderen Ansatz. Es geht nicht darum, komplexere Bewegungsabläufe (Gestik) des Benutzers auf eine u.U. relativ grössere Entfernung zu interpretieren und diesen Gesten unterschiedlichen Funktionen zuzuordnen, sondern darum, Objekte, welche sich in den Nahbereich des Bildschirmes hinein bewegen, dreidimensional zu orten und darauf unmittelbar eine entsprechende Reaktion zu erzeugen,
welche dazu dienen soll, dem Benutzer anzukündigen, was passieren wird, wenn er sich dem Bildschirm weiter nähert und diesen schliesslich berührt. Ganz im Sinne dieser Bedienphilosophie sind bereits bekannte Geräte zu verstehen, welche über haptische Rückmeldungen verfügen, die bei Berührung einer mit einer Funktion verknüpften Fläche des Bildschirmes eine Vibration des Gerätes auslösen, welche der Benutzer spüren kann.
In diese Richtung will die beschriebene Erfindung eine weitere Verbesserung der Benutzerfreundlichkeit erreichen, indem das Bediengefühl um die dritte Dimension erweitert wird . Der gewünschte Effekt kann zusätzlich noch durch akustische Signale unterstützt werden, welche ebenfalls analog zu einer Annäherung einen Toneffekt variieren. Der Toneffekt kann je nach der an der fraglichen Position hinterlegten Funktion anders gewählt sein, sodass der Benutzer schon rein akustisch unterscheiden kann, welche Funktion sein Tastendruck auslösen wird.
Wird der Touchscreen von der Seite her bedient, so wird es für den Bediener normalerweise schwieriger, die Position seines Fingers relativ zur Oberfläche abzuschätzen. Auch hier hilft dieses System, weil die Benutzeroberfläche kontinuierlich eine objektive optische Rückmeldung liefert, die die Position des Fingers zur gesuchten Funktion genau beschreibt .
Neben der vorgängig beschriebenen Funktion zur Unterstützung der Positionierung des Fingers sind auch weitere Funktionen möglich. Auf PC Programmen kennt man seit
langem die sogenannten Tooltips, welche wie Schilder über einer Funktion aufklappen, wenn der Benutzer seinen Mauszeiger darüber bewegt. Auf Touchscreen Systemen ist diese Funktion kaum benutzt, weil keine sichere Unterscheidung gemacht werden kann zwischen den auf dem PC üblichen Mouse- Move bzw. Mouse-Up/Down Ereignissen. Um ein Mouse-Move zu machen, muss der Benutzer ja zuerst den Schirm berühren, was zwangsläufig einen Mouse-Down erzeugt. Mittels dieses dreidimensionalen Verfahrens können diese Events und damit verbundene Effekte jetzt problemlos auch bei Touchscreens eingesetzt werden.
Ein weiterer Aspekt und Vorteil des dreidimensionalen Verfahrens zur Bedienung besteht darin, dass auf Wunsch die heute gebräuchlichen Touch-Systeme , welche z.B. elektromechanisch oder kapazitiv funktionieren, ersetzt werden können. Viele dieser Verfahren benötigen eine weitere Folie über dem Display, was dessen Anzeigequalität nachteilig beeinflusst .
Ablauf
Abbildung 1 zeigt eine vorteilhafte Ausführung dieser Erfindung unter Verwendung von zwei Kameras (b) . Ein Bediener (e) interagiert mit einer grafischen Applikation (Mensch Maschine Interface) , welche mit einem Computer (d) auf einer grafischen Anzeige (a) dargestellt wird. Die Bedienung erfolgt z.B. mit einem Finger oder einem Bedienstift. Die Kameras (b) , die modulierbaren Leuchtquellen (c) sowie das Display (a) sind mit der Computer Applikation (d) verbunden und werden durch diese gesteuert. Nähert sich der Bediener (e) nun z.B. mit seinem Finger dem Display (a) , so wird dieser durch die Kameras (b) erfasst und dessen dreidimensionale Position in Relation zur Anzeige (a) wird durch die Computer Applikation (d) berechnet. Das durch die Computer Applikation dargestellte Bild wird nun in Relation zur Position des Bedieners verändert. Abbildung 2 zeigt schematisch eine mögliche grafische Anzeige. Nähert sich der Bediener (e) dieser Anzeige, so wird an dieser Stelle das Bild entsprechend verändert. Abbildung 3 zeigt eine mögliche optische Veränderung. Der Grad dieser Veränderung wird umso stärker, je näher der Bediener sich mit seinem Finger dem Display annähert. Die Veränderung bewegt sich horizontal und vertikal, parallel zur Bewegung des Benutzers.
Die dreidimensionale Analyse der Position des Fingers oder Bedienerstiftes erfogt in einer vorteilhaften Konfiguration mit zwei Kameras (b) , welche seitlich am Display angebracht werden können. Eine vorteilhafte Ausführung dieser Aufgabe erfolgt dergestalt, dass die Kameras (b) jeweils um 90 Grad versetzt an der Seite des Bildschirmes angebracht werden, also z.B. oben und rechts. Ausserdem kann dieses System durch in der Nähe der Kameras angebrachte, modulierbare Lichtquellen (c) unterstützt werden. Diese Lichtquellen können im Infrarot Bereich
arbeiten, um den Bediener nicht zu stören. Die Lichtquellen (z.B. LED's) werden jeweils zyklisch für die Aufnahme eines Bildes ein- und beim nächsten Bild wieder ausgeschaltet. Dieses Verfahren ermöglicht eine einfache Extraktion von störenden Objekten im Blickfeld der Kamera, die weiter entfernt sind. Ein sich näherndes Objekt ist somit einmal sehr gut beleuchtet und in der nächsten Aufnahme nicht mehr beleuchtet, was die Bildanalyse stark vereinfacht. Die um 90 Grad versetzte Konfiguration der Kameras wiederum erlaubt den Einsatz von einfacheren Algorithmen zur dreidimesionalen Positionsbestimmung als dies bei einer Anordnung nebeneinander oder links/rechts vom Bildschirm notwendig wäre. Dies ist z.B von Bedeutung, um die Kosten für dieses System möglicht gering zu halten, weil durch die geringere Komplexität der Bildverarbeitung weniger hohe Anforderungen an die Rechenkapazität des entsprechenden Systemes gefordert werden und daurch eine einfachere Hardware verwendet werden kann .
Ein weiteres Anwendungsfeld von solchen kameragestützten Bediensensoren ist im Bereich von Bediengeräten zu sehen, welche komplett und möglichst gut geschützt hinter einer Glasscheibe angebracht werden. Diese werden eingesetzt in Bereichen, wo eine hohe Robustheit gefordert ist, z.B. gegen Vandalismus, oder auch in Bereichen, wo die Geräte leicht mit Chemikalien und mechanischen Hilfsmitteln (Wasser, Dampf, Hochdruck, etc.) gereinigt werden sollen (Bereich Food, Labor, Medizin), oder wo sehr viel Schmutz vorhanden ist. Die Kamera kann somit, zusammen mit dem Display, hinter dem schützenden Glas angebracht werden. Um Problemen vorzubeugen, die durch Verschmutzung auftreten können, können diese Kameras redundant ausgeführt werden. Es wird, wie bereits beschrieben, von zwei Seiten her beobachtet, jedoch können von jeder Seite her mehrere Kameras nebeneinander versetzt
angebracht werden. Auf diese Weise ist es möglich, partielle Verschmutzungen an der Glasoberfläche herauszurechnen.
Zusammenfassung der Vorteile:
Bedieneroberflächen werden durch eine optische Reaktion bereits bei der Annäherung der Hand interaktiver und deshalb für den Benutzer leichter zu bedienen.
Es wird durch diese Technik auch einfacher, kleine Objekte auf dem Bildschirm zu bedienen bzw. auf kleinen, hochauflösenden Bildschirmen mehr Informationen darzustellen und diese zu bedienen.
Claims
Patentansprüche :
Verfahren zur Bedienung eines Gerätes mit einer grafischen Anzeige, welches mit der Hand oder einem Stift bedient wird, dadurch gekennzeichnet, dass eine grafische Interaktion auf dem Bedienbild dieser Anzeige erzeugt wird, die in Analogie zur dreidimensionalen Position der Hand oder des Stiftes steht, sobald sich diese in der unmittelbaren Nähe dieser Anzeige befinden
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Auswertung dieser dreidimensionalen Position auch zur Erzeugung von Mouse-Move Ereignissen genutzt wird, ohne dass dazu eine Berührung des Bildschirmes erforderlich ist
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die in Anspruch 1 beschriebenen graphischen Funktionen in analoger Weise durch Toneffekte unterstützt werden
Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Anwendung der in 1 beschriebenen Ansprüche im Bereich von Maschinen- und Anlagenbedienung erfolgt
Verfahren und Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dieser dreidimensionalen Position über zwei Kamerasysteme, welche sich in einer vorteilhaften Konfiguration jeweils um 90 Grad versetzt an der Seite des Bildschirmes befinden und vorzugsweise durch eine modulierbare Beleuchtung unterstützt werden Verfahren und Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dieser dreidimensionalen Position über mehr als zwei Kamerasysteme erfolgt, um
durch eine redundante Konfiguration Störungen, z.B. durch Verschmutzung der Optik, auszugleichen
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/505,944 US20120218217A1 (en) | 2009-11-04 | 2010-10-28 | Method for three-dimensional support of the manual operation of graphical user interfaces |
EP10778917A EP2497006A1 (de) | 2009-11-04 | 2010-10-28 | Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CH01701/09 | 2009-11-04 | ||
CH01701/09A CH702146A1 (de) | 2009-11-04 | 2009-11-04 | Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen. |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011054740A1 true WO2011054740A1 (de) | 2011-05-12 |
Family
ID=43528378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2010/066396 WO2011054740A1 (de) | 2009-11-04 | 2010-10-28 | Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120218217A1 (de) |
EP (1) | EP2497006A1 (de) |
CH (1) | CH702146A1 (de) |
WO (1) | WO2011054740A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
LU92408B1 (en) * | 2014-03-21 | 2015-09-22 | Olivier Raulot | User gesture recognition |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080062123A1 (en) * | 2001-06-05 | 2008-03-13 | Reactrix Systems, Inc. | Interactive video display system using strobed light |
EP1932727A1 (de) * | 2006-12-14 | 2008-06-18 | Volkswagen Aktiengesellschaft | Bedienvorrichtung eines Kraftfahrzeugs und Verfahren zum Erfassen von Nutzereingaben |
US20090139778A1 (en) * | 2007-11-30 | 2009-06-04 | Microsoft Corporation | User Input Using Proximity Sensing |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61196317A (ja) * | 1985-02-27 | 1986-08-30 | Nippon Telegr & Teleph Corp <Ntt> | 情報入力方式 |
JPH05189137A (ja) * | 1992-01-16 | 1993-07-30 | Sumitomo Heavy Ind Ltd | 計算機用コマンド入力装置 |
US5317140A (en) * | 1992-11-24 | 1994-05-31 | Dunthorn David I | Diffusion-assisted position location particularly for visual pen detection |
JP4033582B2 (ja) * | 1998-06-09 | 2008-01-16 | 株式会社リコー | 座標入力/検出装置および電子黒板システム |
DE19918072A1 (de) * | 1999-04-21 | 2000-06-29 | Siemens Ag | Bedienverfahren und Bedienvorrichtung für einen bildschirmgesteuerten Prozeß |
US6803906B1 (en) * | 2000-07-05 | 2004-10-12 | Smart Technologies, Inc. | Passive touch system and method of detecting user input |
US8381135B2 (en) * | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US8274484B2 (en) * | 2008-07-18 | 2012-09-25 | Microsoft Corporation | Tracking input in a screen-reflective interface environment |
-
2009
- 2009-11-04 CH CH01701/09A patent/CH702146A1/de not_active Application Discontinuation
-
2010
- 2010-10-28 EP EP10778917A patent/EP2497006A1/de not_active Withdrawn
- 2010-10-28 US US13/505,944 patent/US20120218217A1/en not_active Abandoned
- 2010-10-28 WO PCT/EP2010/066396 patent/WO2011054740A1/de active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080062123A1 (en) * | 2001-06-05 | 2008-03-13 | Reactrix Systems, Inc. | Interactive video display system using strobed light |
EP1932727A1 (de) * | 2006-12-14 | 2008-06-18 | Volkswagen Aktiengesellschaft | Bedienvorrichtung eines Kraftfahrzeugs und Verfahren zum Erfassen von Nutzereingaben |
US20090139778A1 (en) * | 2007-11-30 | 2009-06-04 | Microsoft Corporation | User Input Using Proximity Sensing |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
LU92408B1 (en) * | 2014-03-21 | 2015-09-22 | Olivier Raulot | User gesture recognition |
WO2015139969A3 (en) * | 2014-03-21 | 2016-04-07 | Raulot Olivier | User gesture recognition |
US10310619B2 (en) | 2014-03-21 | 2019-06-04 | Artnolens Sa | User gesture recognition |
Also Published As
Publication number | Publication date |
---|---|
CH702146A1 (de) | 2011-05-13 |
EP2497006A1 (de) | 2012-09-12 |
US20120218217A1 (en) | 2012-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012109058B4 (de) | Steuerverfahren und elektronische Einrichtung | |
DE102019002898A1 (de) | Robotorsimulationsvorrichtung | |
DE10340188A1 (de) | Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe | |
DE102019106684B4 (de) | System zur haptischen Interaktion mit virtuellen Objekten für Anwendungen in der virtuellen Realität | |
WO2010081702A2 (de) | Multitouch-bedienfeld | |
DE102009043655A1 (de) | Maus mit Schwenk-, Zoom- und Bildlaufsteuerelementen | |
DE102016204473A1 (de) | Verfahren zum unterstützen einer benutzereingabe mit berührungsanzeige | |
DE102014014498B4 (de) | Mit einem Touchscreen ausgestattetes Gerät sowie Verfahren zur Steuerung eines derartigen Geräts | |
DE102006033014A1 (de) | Eingabevorrichtung für ein Kraftfahrzeug | |
AT512350A1 (de) | Computeranlage und steuerungsverfahren dafür | |
DE102008061039A1 (de) | Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle | |
DE102012020607B4 (de) | Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements | |
DE102015102238A1 (de) | Verfahren und Anordnung zum Überprüfen einer Fläche | |
EP2953793B1 (de) | System zur druckmaschinenbedienung | |
DE102014000876B3 (de) | 3D Digitaler Proof | |
DE69026516T2 (de) | Digitalisiertablett mit zweimodenläufer/maus | |
EP3366434A1 (de) | Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung | |
DE102014107211A1 (de) | Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät | |
DE19918072A1 (de) | Bedienverfahren und Bedienvorrichtung für einen bildschirmgesteuerten Prozeß | |
EP2497006A1 (de) | Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen | |
AT518250B1 (de) | Touchscreen | |
DE102006040572A1 (de) | Vorrichtung zum Bedienen von Funktionen eines Gerätes | |
WO2022017786A1 (de) | Anzeigegerät und verfahren zum visualisieren | |
DE102010036904A1 (de) | Haptische Messvorrichtung und Messverfahren | |
WO2003042802A2 (de) | Eingabegerät, webcam und bildschirm mit spracheingabefunktion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10778917 Country of ref document: EP Kind code of ref document: A1 |
|
REEP | Request for entry into the european phase |
Ref document number: 2010778917 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2010778917 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 13505944 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |