WO2011054740A1 - Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen - Google Patents

Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen Download PDF

Info

Publication number
WO2011054740A1
WO2011054740A1 PCT/EP2010/066396 EP2010066396W WO2011054740A1 WO 2011054740 A1 WO2011054740 A1 WO 2011054740A1 EP 2010066396 W EP2010066396 W EP 2010066396W WO 2011054740 A1 WO2011054740 A1 WO 2011054740A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
hand
stylus
finger
dimensional position
Prior art date
Application number
PCT/EP2010/066396
Other languages
English (en)
French (fr)
Inventor
Peter Brügger
Original Assignee
Bruegger Peter
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bruegger Peter filed Critical Bruegger Peter
Priority to US13/505,944 priority Critical patent/US20120218217A1/en
Priority to EP10778917A priority patent/EP2497006A1/de
Publication of WO2011054740A1 publication Critical patent/WO2011054740A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0428Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by sensing at the edges of the touch surface the interruption of optical paths, e.g. an illumination plane, parallel to the touch surface which may be virtual
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • Operation via gestures and movements of the user in this case is about a completely different approach. It's not about interpreting more complex movements (gestures) of the user on a relatively large distance and assigning these gestures to different functions, but about three-dimensionally locating objects that move into the immediate vicinity of the screen and then immediately a corresponding one To generate reaction which is intended to announce to the user what will happen if he approaches the screen and finally touches it. Quite in the sense of this operating philosophy are already known devices to understand, which have haptic feedback, which trigger a touch of a function associated with the surface of the screen vibration of the device, which the user can feel.
  • the described invention seeks to further improve the ease of use by extending the operating feel by the third dimension.
  • the desired effect can be additionally supported by acoustic signals, which also vary analogous to an approximation of a sound effect.
  • the sound effect can be chosen differently depending on the function stored in the position in question, so that the user can already distinguish acoustically which function will trigger his keystroke.
  • Another aspect and advantage of the three-dimensional method of operation is that, if desired, today's common touch systems, which eg electromechanical or capacitive function, can be replaced. Many of these methods require another slide over the display, adversely affecting its display quality.
  • Figure 1 shows an advantageous embodiment of this invention using two cameras (b).
  • An operator (e) interacts with a graphical application (human machine interface) which is displayed on a graphic display (a) by a computer (d).
  • the operation is e.g. with a finger or a stylus.
  • the cameras (b), the modulable light sources (c) and the display (a) are connected to the computer application (d) and are controlled by them.
  • the operator (e) now approaches, e.g. with his finger on the display (a)
  • this is detected by the cameras (b) and its three-dimensional position in relation to the display (a) is calculated by the computer application (d).
  • the image presented by the computer application is now changed in relation to the position of the operator.
  • Figure 2 shows schematically a possible graphic display. If the operator approaches (e) this display, the image is changed accordingly at this point.
  • Figure 3 shows a possible optical change.
  • the degree of this change becomes stronger the closer the operator approaches the display with his finger. The change moves
  • the three-dimensional analysis of the position of the finger or operator's pen is performed in an advantageous configuration with two cameras (b), which can be mounted laterally on the display.
  • An advantageous embodiment of this object is such that the cameras (b) each offset by 90 degrees are attached to the side of the screen, so for example, top and right.
  • this system can be supported by modulated light sources (c) mounted near the cameras. These light sources can be in the infrared range work so as not to disturb the operator.
  • the light sources eg LEDs
  • This method allows for easy extraction of interfering objects in the field of view of the camera that are farther away.
  • the 90 degree offset configuration of the cameras allows the use of simpler algorithms for three-dimensional positioning than would be necessary if arranged side by side or left / right of the screen. This is important, for example, in order to keep the costs for this system as low as possible, because the lower complexity of the image processing means that less demands are placed on the computing capacity of the corresponding system and therefore simpler hardware can be used.
  • This technique also makes it easier to operate small objects on the screen or to display and operate more information on small, high-resolution screens.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die vorliegende Erfindung beschreibt die Bedienung eines Gerätes mit einer grafischen Anzeige, welches mit der Hand oder einem Stift bedient wird, dadurch gekennzeichnet, dass eine grafische Interaktion auf dieser Anzeige erzeugt wird, die in Analogie zur dreidimensionalen Position der Hand oder des Stiftes steht, sobald sich diese in der unmittelbaren Nähe dieser Anzeige befinden. Es geht um ein System, welches den Bediener bei der Manipulation von grafischen Benutzeroberflächen in einer dreidimensionalen Form unterstützt, dergestalt, dass auf der bestehenden graphischen Applikation bereits bei Annäherung des Bedieners eine optische Reaktion erfolgt, die eine analoge Funktion zur Position des Fingers oder des Bedienstiftes wiederspiegelt. Das Benutzerinterface reagiert an der Stelle, wo sich der Finger des Benutzers nähert, indem sich die Darstellung beispielsweise wie durch eine Kugel gesehen verkrümmt. Je näher der Finger kommt, desto stärker wird der Effekt, bis schliesslich die Berührung mit der Oberfläche die vorgesehene Aktion ausführt.

Description

Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen
BESCHREIBUNG
Die Bedienung von Computersystemen, welche über graphische Benutzeroberflächen verfügen, erfolgt heute oftmals über sogenannte Touchscreens , welche bei Berührung des Bildschirmes mit dem Finger oder einem Stift eine an der betreffenden Position vorgesehene Interaktion auslösen. Solche Systme sind heute beispielsweise in der Industrie für die Bedienung von Steuerungen (Operator Panels) , aber auch auf portablen Geräten, z.B. im Mobilfunkbereich, breit im Einsatz .
Im Bereich der industriellen Anwendungen hat der Operateur häufig den Blick parallel auf die Maschine oder die Anlage gerichtet, um die reale Reaktion seiner Interaktionen zu beobachten. Es ist daher sehr wichtig, dass diese User- Interfaces sehr einfach und übersichtlich gehalten werden, um diese noch sicher bedienen zu können, wenn der Benutzer sich auch auf andere Objekte konzentrieren muss. Es ist aus diesem Blickwinkel betrachtet daher wünschenswert, wenn der Benutzer über möglichst viele Kanäle seiner Wahrnehmung und seiner Sinne einen Feedback über seine Aktionen bekommt, da er die Bedienung dadurch schneller und sicherer vornehmen kann. Im Unterschied zu einer bereits bekannten Technik zur
Bedienung über Gesten und Bewegungen des Benutzers geht es in diesen Fall um einen komplett anderen Ansatz. Es geht nicht darum, komplexere Bewegungsabläufe (Gestik) des Benutzers auf eine u.U. relativ grössere Entfernung zu interpretieren und diesen Gesten unterschiedlichen Funktionen zuzuordnen, sondern darum, Objekte, welche sich in den Nahbereich des Bildschirmes hinein bewegen, dreidimensional zu orten und darauf unmittelbar eine entsprechende Reaktion zu erzeugen, welche dazu dienen soll, dem Benutzer anzukündigen, was passieren wird, wenn er sich dem Bildschirm weiter nähert und diesen schliesslich berührt. Ganz im Sinne dieser Bedienphilosophie sind bereits bekannte Geräte zu verstehen, welche über haptische Rückmeldungen verfügen, die bei Berührung einer mit einer Funktion verknüpften Fläche des Bildschirmes eine Vibration des Gerätes auslösen, welche der Benutzer spüren kann.
In diese Richtung will die beschriebene Erfindung eine weitere Verbesserung der Benutzerfreundlichkeit erreichen, indem das Bediengefühl um die dritte Dimension erweitert wird . Der gewünschte Effekt kann zusätzlich noch durch akustische Signale unterstützt werden, welche ebenfalls analog zu einer Annäherung einen Toneffekt variieren. Der Toneffekt kann je nach der an der fraglichen Position hinterlegten Funktion anders gewählt sein, sodass der Benutzer schon rein akustisch unterscheiden kann, welche Funktion sein Tastendruck auslösen wird.
Wird der Touchscreen von der Seite her bedient, so wird es für den Bediener normalerweise schwieriger, die Position seines Fingers relativ zur Oberfläche abzuschätzen. Auch hier hilft dieses System, weil die Benutzeroberfläche kontinuierlich eine objektive optische Rückmeldung liefert, die die Position des Fingers zur gesuchten Funktion genau beschreibt .
Neben der vorgängig beschriebenen Funktion zur Unterstützung der Positionierung des Fingers sind auch weitere Funktionen möglich. Auf PC Programmen kennt man seit langem die sogenannten Tooltips, welche wie Schilder über einer Funktion aufklappen, wenn der Benutzer seinen Mauszeiger darüber bewegt. Auf Touchscreen Systemen ist diese Funktion kaum benutzt, weil keine sichere Unterscheidung gemacht werden kann zwischen den auf dem PC üblichen Mouse- Move bzw. Mouse-Up/Down Ereignissen. Um ein Mouse-Move zu machen, muss der Benutzer ja zuerst den Schirm berühren, was zwangsläufig einen Mouse-Down erzeugt. Mittels dieses dreidimensionalen Verfahrens können diese Events und damit verbundene Effekte jetzt problemlos auch bei Touchscreens eingesetzt werden.
Ein weiterer Aspekt und Vorteil des dreidimensionalen Verfahrens zur Bedienung besteht darin, dass auf Wunsch die heute gebräuchlichen Touch-Systeme , welche z.B. elektromechanisch oder kapazitiv funktionieren, ersetzt werden können. Viele dieser Verfahren benötigen eine weitere Folie über dem Display, was dessen Anzeigequalität nachteilig beeinflusst .
Ablauf
Abbildung 1 zeigt eine vorteilhafte Ausführung dieser Erfindung unter Verwendung von zwei Kameras (b) . Ein Bediener (e) interagiert mit einer grafischen Applikation (Mensch Maschine Interface) , welche mit einem Computer (d) auf einer grafischen Anzeige (a) dargestellt wird. Die Bedienung erfolgt z.B. mit einem Finger oder einem Bedienstift. Die Kameras (b) , die modulierbaren Leuchtquellen (c) sowie das Display (a) sind mit der Computer Applikation (d) verbunden und werden durch diese gesteuert. Nähert sich der Bediener (e) nun z.B. mit seinem Finger dem Display (a) , so wird dieser durch die Kameras (b) erfasst und dessen dreidimensionale Position in Relation zur Anzeige (a) wird durch die Computer Applikation (d) berechnet. Das durch die Computer Applikation dargestellte Bild wird nun in Relation zur Position des Bedieners verändert. Abbildung 2 zeigt schematisch eine mögliche grafische Anzeige. Nähert sich der Bediener (e) dieser Anzeige, so wird an dieser Stelle das Bild entsprechend verändert. Abbildung 3 zeigt eine mögliche optische Veränderung. Der Grad dieser Veränderung wird umso stärker, je näher der Bediener sich mit seinem Finger dem Display annähert. Die Veränderung bewegt sich horizontal und vertikal, parallel zur Bewegung des Benutzers.
Die dreidimensionale Analyse der Position des Fingers oder Bedienerstiftes erfogt in einer vorteilhaften Konfiguration mit zwei Kameras (b) , welche seitlich am Display angebracht werden können. Eine vorteilhafte Ausführung dieser Aufgabe erfolgt dergestalt, dass die Kameras (b) jeweils um 90 Grad versetzt an der Seite des Bildschirmes angebracht werden, also z.B. oben und rechts. Ausserdem kann dieses System durch in der Nähe der Kameras angebrachte, modulierbare Lichtquellen (c) unterstützt werden. Diese Lichtquellen können im Infrarot Bereich arbeiten, um den Bediener nicht zu stören. Die Lichtquellen (z.B. LED's) werden jeweils zyklisch für die Aufnahme eines Bildes ein- und beim nächsten Bild wieder ausgeschaltet. Dieses Verfahren ermöglicht eine einfache Extraktion von störenden Objekten im Blickfeld der Kamera, die weiter entfernt sind. Ein sich näherndes Objekt ist somit einmal sehr gut beleuchtet und in der nächsten Aufnahme nicht mehr beleuchtet, was die Bildanalyse stark vereinfacht. Die um 90 Grad versetzte Konfiguration der Kameras wiederum erlaubt den Einsatz von einfacheren Algorithmen zur dreidimesionalen Positionsbestimmung als dies bei einer Anordnung nebeneinander oder links/rechts vom Bildschirm notwendig wäre. Dies ist z.B von Bedeutung, um die Kosten für dieses System möglicht gering zu halten, weil durch die geringere Komplexität der Bildverarbeitung weniger hohe Anforderungen an die Rechenkapazität des entsprechenden Systemes gefordert werden und daurch eine einfachere Hardware verwendet werden kann .
Ein weiteres Anwendungsfeld von solchen kameragestützten Bediensensoren ist im Bereich von Bediengeräten zu sehen, welche komplett und möglichst gut geschützt hinter einer Glasscheibe angebracht werden. Diese werden eingesetzt in Bereichen, wo eine hohe Robustheit gefordert ist, z.B. gegen Vandalismus, oder auch in Bereichen, wo die Geräte leicht mit Chemikalien und mechanischen Hilfsmitteln (Wasser, Dampf, Hochdruck, etc.) gereinigt werden sollen (Bereich Food, Labor, Medizin), oder wo sehr viel Schmutz vorhanden ist. Die Kamera kann somit, zusammen mit dem Display, hinter dem schützenden Glas angebracht werden. Um Problemen vorzubeugen, die durch Verschmutzung auftreten können, können diese Kameras redundant ausgeführt werden. Es wird, wie bereits beschrieben, von zwei Seiten her beobachtet, jedoch können von jeder Seite her mehrere Kameras nebeneinander versetzt angebracht werden. Auf diese Weise ist es möglich, partielle Verschmutzungen an der Glasoberfläche herauszurechnen.
Zusammenfassung der Vorteile:
Bedieneroberflächen werden durch eine optische Reaktion bereits bei der Annäherung der Hand interaktiver und deshalb für den Benutzer leichter zu bedienen.
Es wird durch diese Technik auch einfacher, kleine Objekte auf dem Bildschirm zu bedienen bzw. auf kleinen, hochauflösenden Bildschirmen mehr Informationen darzustellen und diese zu bedienen.

Claims

Patentansprüche :
Verfahren zur Bedienung eines Gerätes mit einer grafischen Anzeige, welches mit der Hand oder einem Stift bedient wird, dadurch gekennzeichnet, dass eine grafische Interaktion auf dem Bedienbild dieser Anzeige erzeugt wird, die in Analogie zur dreidimensionalen Position der Hand oder des Stiftes steht, sobald sich diese in der unmittelbaren Nähe dieser Anzeige befinden
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Auswertung dieser dreidimensionalen Position auch zur Erzeugung von Mouse-Move Ereignissen genutzt wird, ohne dass dazu eine Berührung des Bildschirmes erforderlich ist
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die in Anspruch 1 beschriebenen graphischen Funktionen in analoger Weise durch Toneffekte unterstützt werden
Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Anwendung der in 1 beschriebenen Ansprüche im Bereich von Maschinen- und Anlagenbedienung erfolgt
Verfahren und Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dieser dreidimensionalen Position über zwei Kamerasysteme, welche sich in einer vorteilhaften Konfiguration jeweils um 90 Grad versetzt an der Seite des Bildschirmes befinden und vorzugsweise durch eine modulierbare Beleuchtung unterstützt werden Verfahren und Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Analyse dieser dreidimensionalen Position über mehr als zwei Kamerasysteme erfolgt, um durch eine redundante Konfiguration Störungen, z.B. durch Verschmutzung der Optik, auszugleichen
PCT/EP2010/066396 2009-11-04 2010-10-28 Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen WO2011054740A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/505,944 US20120218217A1 (en) 2009-11-04 2010-10-28 Method for three-dimensional support of the manual operation of graphical user interfaces
EP10778917A EP2497006A1 (de) 2009-11-04 2010-10-28 Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH01701/09A CH702146A1 (de) 2009-11-04 2009-11-04 Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen.
CH01701/09 2009-11-04

Publications (1)

Publication Number Publication Date
WO2011054740A1 true WO2011054740A1 (de) 2011-05-12

Family

ID=43528378

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/066396 WO2011054740A1 (de) 2009-11-04 2010-10-28 Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen

Country Status (4)

Country Link
US (1) US20120218217A1 (de)
EP (1) EP2497006A1 (de)
CH (1) CH702146A1 (de)
WO (1) WO2011054740A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080062123A1 (en) * 2001-06-05 2008-03-13 Reactrix Systems, Inc. Interactive video display system using strobed light
EP1932727A1 (de) * 2006-12-14 2008-06-18 Volkswagen Aktiengesellschaft Bedienvorrichtung eines Kraftfahrzeugs und Verfahren zum Erfassen von Nutzereingaben
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196317A (ja) * 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> 情報入力方式
JPH05189137A (ja) * 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd 計算機用コマンド入力装置
US5317140A (en) * 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
JP4033582B2 (ja) * 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
DE19918072A1 (de) * 1999-04-21 2000-06-29 Siemens Ag Bedienverfahren und Bedienvorrichtung für einen bildschirmgesteuerten Prozeß
US6803906B1 (en) * 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8274484B2 (en) * 2008-07-18 2012-09-25 Microsoft Corporation Tracking input in a screen-reflective interface environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080062123A1 (en) * 2001-06-05 2008-03-13 Reactrix Systems, Inc. Interactive video display system using strobed light
EP1932727A1 (de) * 2006-12-14 2008-06-18 Volkswagen Aktiengesellschaft Bedienvorrichtung eines Kraftfahrzeugs und Verfahren zum Erfassen von Nutzereingaben
US20090139778A1 (en) * 2007-11-30 2009-06-04 Microsoft Corporation User Input Using Proximity Sensing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU92408B1 (en) * 2014-03-21 2015-09-22 Olivier Raulot User gesture recognition
WO2015139969A3 (en) * 2014-03-21 2016-04-07 Raulot Olivier User gesture recognition
US10310619B2 (en) 2014-03-21 2019-06-04 Artnolens Sa User gesture recognition

Also Published As

Publication number Publication date
US20120218217A1 (en) 2012-08-30
EP2497006A1 (de) 2012-09-12
CH702146A1 (de) 2011-05-13

Similar Documents

Publication Publication Date Title
EP2377005B1 (de) Multitouch-bedienfeld
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
EP1811364B1 (de) Anzeigevorrichtung mit Berührung sensitiver Oberfläche
DE102019002898A1 (de) Robotorsimulationsvorrichtung
DE10340188A1 (de) Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
DE102019106684B4 (de) System zur haptischen Interaktion mit virtuellen Objekten für Anwendungen in der virtuellen Realität
DE102009043655A1 (de) Maus mit Schwenk-, Zoom- und Bildlaufsteuerelementen
EP2017756A1 (de) Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE102016204473A1 (de) Verfahren zum unterstützen einer benutzereingabe mit berührungsanzeige
DE102006033014A1 (de) Eingabevorrichtung für ein Kraftfahrzeug
DE102008061039A1 (de) Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle
DE102015102238A1 (de) Verfahren und Anordnung zum Überprüfen einer Fläche
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE69026516T2 (de) Digitalisiertablett mit zweimodenläufer/maus
EP2953793B1 (de) System zur druckmaschinenbedienung
EP3366434A1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102014107211A1 (de) Vorrichtung zum Anzeigen einer virtuellen Realität sowie Messgerät
WO2011054740A1 (de) Verfahren zur dreidimensionalen unterstützung der manuellen bedienung von graphischen benutzeroberflächen
DE19918072A1 (de) Bedienverfahren und Bedienvorrichtung für einen bildschirmgesteuerten Prozeß
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
DE102006040572A1 (de) Vorrichtung zum Bedienen von Funktionen eines Gerätes
EP3098565B1 (de) Verfahren zum bedienen eines baulasers
DE102010036904A1 (de) Haptische Messvorrichtung und Messverfahren
EP1444566A2 (de) Eingabegerät, webcam und bildschirm mit spracheingabefunktion

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10778917

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2010778917

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010778917

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13505944

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE