WO2015176707A1 - Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug - Google Patents
Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug Download PDFInfo
- Publication number
- WO2015176707A1 WO2015176707A1 PCT/DE2015/100152 DE2015100152W WO2015176707A1 WO 2015176707 A1 WO2015176707 A1 WO 2015176707A1 DE 2015100152 W DE2015100152 W DE 2015100152W WO 2015176707 A1 WO2015176707 A1 WO 2015176707A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- virtual
- input device
- computer
- operator
- hand
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Definitions
- Input device computer or operating system
- the invention relates to an input device for a computer or an operating system, wherein the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the input device has a gesture recognition device and a display device, which provides an operator with a virtual environment and a computer or an operating system which the
- the object of the invention is to improve the state of the art.
- the object is achieved by an input device for a computer or an operating system, wherein the input device has a gesture recognition device and a display device which provides an operator with a virtual environment, wherein the input device is a virtual operating element by means of the operating system or the computer Operator inputs are aufoniagbar are.
- an input device can be provided that allows an operator to virtually customize controls to his needs.
- no other external device such as joystick or mouse is necessary, which may no longer be optimally usable under adverse conditions.
- the input device provides an interface between a machine to be operated and an operator, which provides an extensive operating potential based on the movement and gestures of the operator.
- information displayed by the display device can be edited or edited directly by means of the controls.
- the present "input device” is a new input means such as a computer mouse or a computer keyboard, and the input device can be seen as a supplement or substitute for a control panel, in particular mechanical components such as those found in a joystick or a mouse, for example. no longer necessary
- the input device can be connected either directly to a machine for controlling the machine or to a computer to which corresponding operating signals are impressed.
- Operating concept can be provided to an operator.
- a "computer” is also called a “computer.” This computer may be a controller or a computer of another machine, in particular sensors and / or actuators may be connected to the computer.
- control system can be a complex system such as a power plant or a special instrument such as an active or passive sonar.
- the "gesture recognition device” recognizes by means of its sensors certain deliberate movements of the operator, in particular these movements may be the hand movements
- Gesture recognition device for optical inputs, which be taken in particular by two cameras and processed by appropriate software. It is also possible for example to arrange transmitters or receivers on the hand, which emit and / or receive corresponding signals. Thus, a corresponding movement in space can be detected by these signals.
- these transmitters can be ultrasound transmitters or infrared transmitters and the corresponding receivers.
- the "display device” is in particular a screen or a virtual spectacle, by means of which a three-dimensional image can be imprinted on the eyes of the beholder.
- a display device gives a spatial impression, so that, in particular, individual operating elements are displayed spatially distributed the operator by a hand movement in real space and the corresponding detection by the
- Gesture recognition device the user's eyes on the display device, the impression that the hand is in the mediated by the display device room.
- the display device provides an operator with a virtual environment in which he arranges the corresponding control element or the corresponding controls and their operation is made possible by movement of the real hand.
- a "virtual control element” is a control element that is displayed in the virtual environment but is controlled by movements of the real hand.
- the virtual control element is directly coupled to the operating system or the computer, so that control signals that can be detected by the real hand
- the virtual control is a mouse
- the real hand in the virtual environment may comprise the mouse, which in the real world is, for example, a hand containing a cavity on a tabletop
- an up and down of individual fingers as operating the individual mouse buttons or the buckling of individual fingers can be interpreted as moving the rolling wheel of a mouse.
- the computer or the operating system has a sensor and a sensor signal obtained by the sensor is imprinted visually or haptically on the operator by means of the input device.
- values measured by a sensor can be displayed by means of the display device as a digital or pointer value.
- the real hand has a glove which, on the one hand, detects movements directly and, on the other hand, also makes it possible to impart a certain force by having actuators of the hand, the haptic feedback of a sensor value can take place.
- a virtual representation of the hand can be displayed by means of the display device, which accesses the operating element and / or other operating elements and / or data virtually.
- Gesture recognition device on a coupling unit which is attachable to a body part, in particular hand, the operator, so that a movement of the body part by means of the coupling unit can be detected.
- the coupling unit can be, for example, a data glove or can also be individually attachable sensors such as microphones and / or receivers, so that a movement of the hand in space can be detected and a corresponding representation in the virtual environment can take place.
- the gesture recognition device can have a movement detection sensor which detects the movements of a body part, in particular of the hand.
- a motion detection sensor may be, for example, a stereo camera with two camera lenses.
- the measurement of inductive or electrostatic fields and the influence of the hand on these fields can also be used to determine the movements of the hand.
- the input device has further virtual operating elements by means of which the operating system can be controlled or Calculator operating inputs are imoniagbar.
- the virtual controls can be configured switchable so that they can be activated and / or deactivated by the operator.
- one of the controls may be a virtual mouse, a virtual joystick, a virtual touchpad, a virtual slider, a virtual switch, a virtual knob, and / or a virtual stylus.
- control elements can be provided virtually, which can then be controlled and operated by the operator accordingly. Also, a linking of the respective control element with a sensor, actuator, input, output or the same can be done.
- the object is achieved by a computer or an operating system, in particular a sonar, which or which has a previously described input device.
- a completely new operating element can be used by an operator Be made available, which allows him to handle the most complex tasks.
- the object is achieved by a vehicle, in particular aircraft, ship or submarine, which has a previously described computer or a previously described control system.
- an operator can be provided a variety of controls with which he can operate an instrument to be operated such as a sonar effectively.
- Figure 1 is a schematic representation of a
- Input device with an SD screen and a stereo camera.
- An input device 101 is connected to an active sonar 181.
- the input device 101 comprises an SD screen 103 and a stereo camera 105.
- the stereo camera 105 has two mutually offset camera lenses 107.
- the 3D screen 103 is divided into a display area 109 and a toolbar 111.
- sonar data 113 and digital displays 133 are shown on the 3D screen 103.
- In the display area 109 three controls are shown.
- the controls include a virtual joystick 117, a virtual slider 129 and a virtual toggle switch 131 which is switchable between two states (I / O).
- a virtual mouse 119 In the toolbar 111, a virtual mouse 119, a virtual scissors 121, a virtual knob 123, a virtual knife 125, and a virtual brush 127 are shown. Using these tools 119, 121, 123, 125, 127, the sonar data can be manipulated or the active sonar 181 can be operated.
- the toggle switch 131 switches the sonar 181 so that in one state (I) an active sonar and in the other state (0) a passive sonar is present.
- the transmission frequency of the sonar 181 is set.
- the emission direction of the active sonar can be adjusted.
- the representation 115 of the hand also called the virtual hand, traces all movements of the real hand 155.
- the representative 115 can hand the hand when it is moved to the right and "taps" the toggle switch 133.
- the virtual hand is represented by dots, which represent, for example, each a finger joint and possibly a palm.
- dots represent, for example, each a finger joint and possibly a palm.
- individual points are connected with lines or bars, so that a phalanx is simulated.
- the data 113 which are determined online by means of the sonar 181 can be processed.
- the virtual hand 115 can "grab" a virtual knife 125 and virtually cut through the data 113, which represent, for example, a data cloud, in order to look at certain planes or sections and, if necessary, to better recognize objects.
- the virtual hand 115 may move a knob 123 into the display area 109 and associate it with functionality of the sonar 181.
- the frequency of the sonar 181 can also be adjusted by actuating the rotary knob 123, so that, for example, the slider 129 is then replaced by the rotary knob 123.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
Description
Eingabevorrichtung, Rechner oder Bedienanlage
Fahrzeug
[Ol] Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt und einen Rechner oder eine Bedienanlage, welche die
Eingabevorrichtung aufweist sowie ein Fahrzeug mit einem Rechner oder einer Bedienanlage.
[02] Das Bedienen von Anlagen und Maschinen erfolgt im Allgemeinen über entsprechende Schieberregler, Drehknöpfe, Schalter oder sonstige Eingabemittel. Auch sind Computermäuse oder Tastaturen für die Eingabe vorgesehen. Der Nachteil dabei ist, dass bei dem physikalischen Verwenden von derartigen Eingabemitteln der entsprechende Platz zur Verfügung gestellt werden muss. Auch wenn eine Vielzahl von Bedienelementen verwendet werden muss, kann die Komplexität den Bediener der Anlage überfordern.
[03] Insbesondere wenn komplexe Maschinenanlagen wie beispielsweise Sonare auf Schiffen oder U-Booten bedient werden müssen, kann ein entsprechender Seegang die Eingabe verfälschen oder dazu führen, dass die Eingabe nicht rechtzeitig und zielgenau erfolgt.
[04] Aufgabe der Erfindung ist es den Stand der Technik zu verbessern .
[05] Gelöst wird die Aufgabe durch eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeneinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei die Eingabevorrichtung ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind aufweist.
[06] Somit kann eine Eingabevorrichtung bereitgestellt werden, die es einem Bediener ermöglicht Bedienelemente virtuell seinen Bedürfnissen anzupassen. Zudem ist kein weiteres externes Gerät wie Joystick oder Maus notwendig, welches gegebenenfalls unter widrigen Bedingungen nicht mehr optimal einsetzbar ist.
[07] Somit stellt die Eingabevorrichtung eine Schnittstelle zwischen einer zu bedienenden Maschine und einem Bediener her, welche anhand der Bewegung und Gesten des Bedieners ein umfangreiches Bedienpotential zur Verfügung stellt. Zudem kann durch die Anzeigeeinrichtung dargestellte Information direkt mittels der Bedienelemente bearbeitet oder aufbereitet werden.
[08] Insbesondere bei Sonaren, welche dreidimensionale Daten bereitstellen, kann durch eine Interaktion mittels der virtuellen Bedienelemente sich der Bediener einen schnellen Überblick über die Lage verschaffen.
[09] Folgendes Begriffliche sei erläutert:
[10] Vorliegende „Eingabevorrichtung" ist ein neues Eingabemittel wie beispielsweise eine Computermaus oder eine Computertastatur. Auch kann die Eingabevorrichtung als Ergänzung oder Ersatz für einen Bedienpult gesehen werden. Insbesondere sind mechanische Bauteile, wie sie beispielsweise bei einem Joystick oder einer Maus vorhanden sind, nicht mehr notwendig. Die Eingabevorrichtung kann sowohl direkt an eine Maschine zum Steuern der Maschine oder auch an einen Rechner angeschlossen werden, welchem entsprechende Bediensignale aufgeprägt werden.
[11] Mit dieser Eingabevorrichtung werden vorteilhafter Weise physische Bedienelemente in eine virtuelle Umgebung transferiert, sodass ein vollständig neuartiges
Bedienkonzept einem Bediener zur Verfügung gestellt werden kann .
[12] Ein „Rechner" wird auch Computer genannt. Dieser Rechner kann ein Steuergerät oder ein Rechner einer sonstigen Maschine sein. Insbesondere können an dem Rechner Sensoren und/oder Aktuatoren angeschlossen sein.
[13] Bei der „Bedienanlage" kann es sich um eine komplexe Anlage wie beispielsweise ein Kraftwerk oder auch ein spezielles Instrument wie beispielsweise ein aktives oder passives Sonar handeln.
[14] Die „Gestenerkennungseinrichtung" erkennt mittels ihrer Sensoren bestimmte gewollte Bewegungen des Bedieners. Insbesondere können diese Bewegungen die Handbewegungen sein. Vorteilhafterweise basiert die
Gestenerkennungseinrichtung auf optische Eingaben, welche
insbesondere durch zwei Kameras aufgenommen und mittels entsprechender Software aufbereitet werden. Auch können beispielsweise an der Hand Sender oder Empfänger angeordnet sein, welche entsprechende Signale aussenden und/oder empfangen. So kann durch diese Signale eine entsprechende Bewegung im Raum festgestellt werden. Insbesondere sei hier erwähnt, dass es sich bei diesen Sendern um Ultraschallsender oder Infrarotsender und die entsprechenden Empfänger handeln kann.
[15] Die „Anzeigeeinrichtung" ist insbesondere ein Bildschirm oder eine virtuelle Brille, mittels derer den Augen des Betrachters ein dreidimensionales Bild aufgeprägt werden kann. Insbesondere vermittelt eine derartige Anzeigeeinrichtung einen räumlichen Eindruck, sodass insbesondere einzelne Bedienelemente räumlich verteilt dargestellt werden. Somit kann beispielsweise der Bediener durch eine Handbewegung im realen Raum und der entsprechenden Erkennung durch die
Gestenerkennungseinrichtung den Augen des Benutzers über die Anzeigeeinrichtung der Eindruck vermittelt werden, dass sich die Hand in den durch die Anzeigeeinrichtung vermittelten Raum befindet.
[16] Somit stellt die Anzeigeeinrichtung einen Bediener eine virtuelle Umgebung zur Verfügung, in der dieser das entsprechende Bedienelement oder die entsprechenden Bedienelemente anordnet und deren Bedienen durch Bewegung der realen Hand ermöglicht ist.
[17] Ein „virtuelles Bedienelement" ist ein Bedienelement, welches in der virtuellen Umgebung angezeigt wird, jedoch durch Bewegungen der realen Hand angesteuert wird. Das virtuelle Bedienelement ist direkt mit der Bedienanlage oder dem Rechner gekoppelt, sodass durch die reale Hand aufprägbare Stellsignale zum Ansteuern der Bedienanlage oder des Rechners verwendet werden. Für den Fall, dass das virtuelle Bedienelement eine Maus ist, kann beispielsweise die reale Hand in der virtuellen Umgebung die Maus umfassen, was in der realen Welt beispielsweise eine Hand ist, welche auf einer Tischplatte einen Hohlraum aufweist und welche über die Tischplatte bewegt wird. Dabei kann ein Auf und Ab einzelner Finger als Bedienen der einzelnen Maustasten oder das Knicken einzelner Finger als das Bewegen des Rollrades einer Maus interpretiert werden.
[18] In einer weiteren Ausgestaltung weist der Rechner oder die Bedienanlage einen Sensor auf und ein durch den Sensor gewonnenes Sensorsignal wird mittels der Eingabevorrichtung optisch oder haptisch dem Bediener aufgeprägt.
[19] So können beispielsweise durch einen Sensor gemessene Werte mittels der Anzeigeeinrichtung als Digital- oder Zeigerwert angezeigt werden. Für den Fall, dass beispielsweise die reale Hand einen Handschuh aufweist, welcher zum einen Bewegungen direkt detektiert und zum anderen auch ermöglicht, durch aufweisende Aktuatoren der Hand eine bestimmte Kraft aufzuprägen, kann das haptische Rückkoppeln eines Sensorwertes erfolgen.
[20] Auch kann eine virtuelle Repräsentanz der Hand mittels der Anzeigeeinrichtung angezeigt werden, welche das Bedienelement und/oder andere Bedienelemente und/oder Daten virtuell greift.
[21] In einer Ausführungsform weist die
Gestenerkennungseinrichtung eine Kopplungseinheit auf, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektiertbar ist.
[22] Die Kopplungseinheit kann beispielsweise ein Datenhandschuh oder können auch einzeln anbringbare Sensoren wie Mikrofone und/oder Empfänger sein, sodass eine Bewegung der Hand im Raum detektierbar ist und eine entsprechende Repräsentanz in der virtuellen Umgebung erfolgen kann.
[23] Um insbesondere berührungslos oder ohne Hilfsmittel die Bewegung eines Körperteils zu bestimmen, kann die Gestenerkennungseinrichtung einen Bewegungsdetektionssensor aufweisen, welche die Bewegungen eines Körperteils, insbesondere der Hand, detektiert. Ein derartiger Bewegungsdetektionssensor kann beispielsweise eine Stereokamera mit zwei Kameraobjektiven sein. Auch die Messung induktiver oder elektrostatischer Felder und der Einfluss der Hand auf diese Felder kann dazu dienen, die Bewegungen der Hand zu bestimmen.
[24] In einer weiteren Ausführungsform weist die Eingabevorrichtung weitere virtuelle Bedienelemente auf, mittels derer die Bedienanlage steuerbar ist oder dem
Rechner Bedieneingaben aufprägbar sind. Somit kann sich beispielsweise ein Bediener ein eigenes Bedienpult mit unterschiedlichsten virtuellen Bedienelementen aufbauen. Zum Bedienen reicht es insbesondere aus, eine Hand im Raum zu bewegen und virtuell einzelne Bedienelemente zu „greifen" und entsprechend zu betätigen. Auch können dabei virtuelle Bedienelemente entsprechend den Anforderungen des Bedieners angepasst werden oder neue Bedienelemente hinzugefügt oder alte entfernt werden. Um dies zu realisieren, können die virtuellen Bedienelemente schaltbar ausgestaltet sein, sodass diese durch die Bediener aktivierbar und/oder deaktivierbar sind.
[25] Insbesondere kann eines der Bedienelemente eine virtuelle Maus, ein virtueller Joystick, ein virtuelles Touchpad, ein virtueller Schieberegler, ein virtueller Schalter, ein virtueller Drehknopf und/oder ein virtueller Stift sein.
[26] Es können eine Vielzahl von unterschiedlichsten Bedienelementen virtuell zur Verfügung gestellt werden, welche dann von dem Bediener entsprechend angesteuert und bedient werden können. Auch kann ein Verknüpfen des jeweiligen Bedienelements mit einem Sensor, Aktuator, Eingabe, Ausgabe oder der Gleichen erfolgen.
[27] In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch einen Rechner oder eine Bedienanlage, insbesondere ein Sonar, welche oder welcher eine zuvor beschriebene Eingabevorrichtung aufweist. Somit kann ein völlig neuartiges Bedienelement einem Bediener zur
Verfügung gestellt werden, welches ihm ermöglicht komplexeste Aufgabenstellungen zu bewältigen.
[28] In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch ein Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen zuvor beschriebenen Rechner oder eine zuvor beschriebene Bedienanlage aufweist.
[29] Somit können insbesondere in beengten Verhältnissen oder unter schwierigen Bedingungen wie beispielsweise bei einem Schiff bei hohem Seegang einem Bediener eine Vielzahl von Bedienelementen zur Verfügung gestellt werden, mit denen er ein zu bedienendes Instrument wie beispielsweise ein Sonar effektiv bedienen kann.
[30] Im Weiteren wird die Erfindung anhand eines Ausführungsbeispiels erläutert. Es zeigt
Figur 1 eine schematische Darstellung einer
Eingabevorrichtung mit einem SD- Bildschirm und einer Stereokamera.
[31] An ein aktives Sonar 181 ist ein Eingabegerät 101 angeschlossen. Das Eingabegerät 101 umfasst einen SD- Bildschirm 103 und eine Stereokamera 105. Die Stereokamera 105 weist zwei zueinander versetzte Kameraobjektive 107 auf. Der 3D-Bildschirm 103 ist in einen Anzeigebereich 109 und in eine Werkzeugleiste 111 aufgeteilt. Zudem sind auf dem 3D-Bildschirm 103 Sonardaten 113 sowie Digitalanzeigen 133 dargestellt.
[32] Im Anzeigebereich 109 sind drei Bedienelemente dargestellt. Zu den Bedienelementen gehört ein virtueller Joystick 117, ein virtueller Schieberegler 129 und ein virtueller Kippschalter 131, welcher zwischen zwei Zuständen (I/O) schaltbar ist.
[33] In der Werkzeugleiste 111 sind eine virtuelle Maus 119, eine virtuelle Schere 121, ein virtueller Drehknopf 123, ein virtuelles Messer 125 und ein virtueller Pinsel 127 dargestellt. Mithilfe dieser Werkzeuge 119, 121, 123, 125, 127 können die Sonardaten manipuliert oder das aktive Sonar 181 bedient werden.
[34] Der Kippschalter 131 schaltet das Sonar 181, sodass im einen Zustand (I) ein aktives Sonar und im anderen Zustand (0) ein passives Sonar vorliegt. Mittels des Schiebereglers 129 wird die Sendefrequenz des Sonars 181 eingestellt. Mit Hilfe des virtuellen Joysticks 117 kann die Abstrahlrichtung des aktiven Sonars eingestellt werden.
[35] Setzt sich ein Bediener vor das Eingabegerät 101 wird seine Hand 155 durch die Stereokamera 105 mit den versetzten Kameraobjektiven 107 detektiert. Mittels implementierter Software wird die Hand 155 erkannt und es werden Änderungen der Hand 155 detektiert. Zusätzlich wird eine virtuelle Repräsentanz 115 der Hand in dem SD- Bildschirm 103 dargestellt.
[36] Die Repräsentanz 115 der Hand, wird auch virtuelle Hand genannt, führt sämtliche Bewegungen der realen Hand 155 nach. So kann die Repräsentanz 115 der Hand wenn sie nach rechts geführt wird und den Kippschalter 133 „greift"
durch eine Bewegung nach oben das aktive Sonar in ein passives Sonar umschalten. Führt die Repräsentanz 115 der Hand eine Bewegung nach links aus und umgreift diese gedanklich den virtuellen Joystick 117, so kann die Strahlrichtung des Sonars geändert werden. Auch kann die virtuelle Hand 115 noch weiter nach links greifen, um mittels des Schiebereglers 129 die Sendefrequenz des aktiven Sonars zu verändern.
[37] Alternativ wird die virtuelle Hand mittels Punkten dargestellt, welche beispielsweise jeweils ein Fingergelenk und ggf. eine Handfläche darstellen. Dazu alternativ sind einzelne Punkte mit Strichen oder Balken verbunden, sodass ein Fingerglied nachgebildet ist.
[38] Auch können mittels der Repräsentanz 115 der Hand die Daten 113, welche online mittels des Sonars 181 ermittelt werden, bearbeitet werden. Beispielsweise kann die virtuelle Hand 115 ein virtuelles Messer 125 „ergreifen" und die Daten 113, welche beispielsweise eine Datenwolke darstellen, virtuell durchschneiden, um bestimmte Ebenen oder Schnitte anzuschauen und um gegebenenfalls Objekte besser erkennen zu können.
[39] Auch kann die virtuelle Hand 115 einen Drehknopf 123 in den Anzeigebereich 109 versetzen und diesen mit einer Funktionalität des Sonars 181 verknüpfen. Durch Betätigen des Drehknopfs 123 kann beispielsweise ebenfalls die Frequenz des Sonars 181 eingestellt werden, sodass beispielsweise dann der Schieberegler 129 durch den Drehknopf 123 ersetzt ist.
Bezugs zeichenliste
101 Eingabegerät
103 Bildschirm
105 Stereokamera
107 versetzte Kameraobjekt
109 Anzeigebereich
111 Werkzeugleiste
113 Daten
115 virtuelle Hand
117 Joystick
119 Maus
121 Schere
123 Drehknopf
125 Messer
127 Pinsel
129 Regler
131 Kippschalter
133 Digitalanzeige
155 Hand
181 Sonar
Claims
1. Eingabevorrichtung (101) für einen Rechner oder eine Bedienanlage (181), wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung (107) und eine Anzeigeeinrichtung (103) aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, gekennzeichnet durch ein virtuelles Bedienelement (117) mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
2. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Rechner oder die Bedienanlage einen Sensor aufweist und ein durch den Sensor gewonnenes Sensorsignal mittels der Eingabevorrichtung optisch und/oder haptisch dem Bediener aufgeprägt wird.
3. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die
Gestenerkennungseinrichtung eine Kopplungseinheit aufweist, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektierbar ist .
4. Eingabevorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die
Gestenerkennungseinrichtung einen Bewegungsdetektionssensor (107) aufweist, welcher die Bewegung eines Körperteils, insbesondere der Hand, defektiert .
5. Eingabevorrichtung nach einem der vorherigen Ansprüche, gekennzeichnet durch weitere virtuelle Bedienelemente (129, 131) mittels derer der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
6. Eingabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die virtuellen Bedienelemente schaltbar ausgesatltet sind, sodass diese durch den Bediener aktivierbar und/oder deaktivierbar sind.
7. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eines der Bedienelemente eine virtuelle Maus (119), ein virtueller Joystick (117), ein virtuelles Touch-Pad, ein virtueller Schieberegler (129), ein virtueller Schalter (131), ein virtueller Drehknopf (123) oder ein virtueller Stift ist.
8. Rechner oder Bedienanlage, insbesondere Sonar, welcher oder welche eine Eingabevorrichtung nach einem der vorherigen Ansprüche aufweist.
9. Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen Rechner oder eine Bedienanlage nach Anspruch 8 aufweist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014107220.0 | 2014-05-22 | ||
DE102014107220.0A DE102014107220A1 (de) | 2014-05-22 | 2014-05-22 | Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015176707A1 true WO2015176707A1 (de) | 2015-11-26 |
Family
ID=53365684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/DE2015/100152 WO2015176707A1 (de) | 2014-05-22 | 2015-04-10 | Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102014107220A1 (de) |
WO (1) | WO2015176707A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020058598A1 (fr) | 2018-09-21 | 2020-03-26 | Psa Automobiles Sa | Procédé de commande d'un système embarqué |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110298704A1 (en) * | 2005-10-21 | 2011-12-08 | Apple Inc. | Three-dimensional imaging and display system |
US20130050069A1 (en) * | 2011-08-23 | 2013-02-28 | Sony Corporation, A Japanese Corporation | Method and system for use in providing three dimensional user interface |
DE102011112618A1 (de) * | 2011-09-08 | 2013-03-14 | Eads Deutschland Gmbh | Interaktion mit einem dreidimensionalen virtuellen Szenario |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863326A (ja) * | 1994-08-22 | 1996-03-08 | Hitachi Ltd | 画像処理装置及び方法 |
US8287373B2 (en) * | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
KR20050102803A (ko) * | 2004-04-23 | 2005-10-27 | 삼성전자주식회사 | 가상입력장치, 시스템 및 방법 |
US20110276891A1 (en) * | 2010-05-06 | 2011-11-10 | Marc Ecko | Virtual art environment |
-
2014
- 2014-05-22 DE DE102014107220.0A patent/DE102014107220A1/de not_active Withdrawn
-
2015
- 2015-04-10 WO PCT/DE2015/100152 patent/WO2015176707A1/de active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110298704A1 (en) * | 2005-10-21 | 2011-12-08 | Apple Inc. | Three-dimensional imaging and display system |
US20130050069A1 (en) * | 2011-08-23 | 2013-02-28 | Sony Corporation, A Japanese Corporation | Method and system for use in providing three dimensional user interface |
DE102011112618A1 (de) * | 2011-09-08 | 2013-03-14 | Eads Deutschland Gmbh | Interaktion mit einem dreidimensionalen virtuellen Szenario |
Non-Patent Citations (2)
Title |
---|
NGUYEN THONG DANG: "A STEREOSCOPIC 3D VISUALIZATION ENVIRONMENT FOR AIR TRAFFIC CONTROL AN ANALYSIS OF INTERACTION AND A PROPOSAL OF NEW INTERACTION TECHNIQUES", PH.D. THESIS, 31 December 2005 (2005-12-31), XP055046789, Retrieved from the Internet <URL:http://www.eurocontrol.int/eec/gallery/content/public/documents/PhD_theses/2005/Ph.D_Thesis_2005_Dang_T.pdf> [retrieved on 20121205] * |
ROBERT J. BARTON III ET AL: "Large Scale Interactive Data Visualization for Undersea Warfare Applications", 13 September 2002 (2002-09-13), XP055201668, Retrieved from the Internet <URL:http://www.dzdvi.net/uploads/3/8/5/3/38536945/largescaledataviz_sept02.pdf> [retrieved on 20150710] * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020058598A1 (fr) | 2018-09-21 | 2020-03-26 | Psa Automobiles Sa | Procédé de commande d'un système embarqué |
FR3086420A1 (fr) | 2018-09-21 | 2020-03-27 | Psa Automobiles Sa | Procede de commande d’un systeme embarque |
Also Published As
Publication number | Publication date |
---|---|
DE102014107220A1 (de) | 2015-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019002898B4 (de) | Robotersimulationsvorrichtung | |
EP3359348B1 (de) | Robotersystem und verfahren zur steuerung eines robotersystems | |
EP3458939B1 (de) | Interaktionssystem und -verfahren | |
DE112017004677T5 (de) | Berührungsempfindliche Tastatur | |
DE102019106684B4 (de) | System zur haptischen Interaktion mit virtuellen Objekten für Anwendungen in der virtuellen Realität | |
EP2520993A2 (de) | Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken | |
EP3259667B1 (de) | Verfahren und anordnung zum überprüfen einer fläche | |
EP3366434B1 (de) | Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung | |
EP2953793B1 (de) | System zur druckmaschinenbedienung | |
EP3904984B1 (de) | Verfahren für eine immersive mensch-maschine-interaktion | |
EP2876526B1 (de) | Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung | |
DE112012003889T5 (de) | Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen | |
WO2015176708A1 (de) | Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät | |
WO2015176707A1 (de) | Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug | |
DE102019004478B3 (de) | System zum Vornehmen einer Eingabe an einem Robotermanipulator | |
EP3132331B1 (de) | Haptisches system und verfahren zum betreiben | |
EP1444566A2 (de) | Eingabegerät, webcam und bildschirm mit spracheingabefunktion | |
EP2494928B1 (de) | Bedieneinrichtung für eine technische Vorrichtung, insbesondere eine medizinische Vorrichtung | |
EP2624114A1 (de) | Handsteuergerät zur Steuerung einer Vorrichtung und Verfahren | |
DE102019117219B4 (de) | System zum Bedienen einer grafischen Benutzeroberfläche | |
EP3268852A1 (de) | Verfahren zur gezielten auswahl von angezeigten elementen auf einer berührungssensitiven anzeige | |
CH702146A1 (de) | Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen. | |
AT514926B1 (de) | Sitzmöbel mit berührungsloser Abtastung der Fingerbewegungen des darin sitzenden Operators zur Steuerung von elektrischen und elektronischen Geräten | |
DE102016001545A1 (de) | Bedienelement mit sensorik zur erkennung der bedienabsicht | |
WO2011060848A1 (de) | Vorrichtung zum steuren eines geräts über seinen sensorbildschirm mittles schaltelementen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15727540 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 15727540 Country of ref document: EP Kind code of ref document: A1 |