DE102014107220A1 - Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug - Google Patents

Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug Download PDF

Info

Publication number
DE102014107220A1
DE102014107220A1 DE102014107220.0A DE102014107220A DE102014107220A1 DE 102014107220 A1 DE102014107220 A1 DE 102014107220A1 DE 102014107220 A DE102014107220 A DE 102014107220A DE 102014107220 A1 DE102014107220 A1 DE 102014107220A1
Authority
DE
Germany
Prior art keywords
virtual
input device
computer
operator
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102014107220.0A
Other languages
English (en)
Inventor
Jeronimo Dzaack
Ronald Meyer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atlas Elektronik GmbH
Original Assignee
Atlas Elektronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlas Elektronik GmbH filed Critical Atlas Elektronik GmbH
Priority to DE102014107220.0A priority Critical patent/DE102014107220A1/de
Priority to PCT/DE2015/100152 priority patent/WO2015176707A1/de
Publication of DE102014107220A1 publication Critical patent/DE102014107220A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.

Description

  • Die Erfindung betrifft eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeeinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt und einen Rechner oder eine Bedienanlage, welche die Eingabevorrichtung aufweist sowie ein Fahrzeug mit einem Rechner oder einer Bedienanlage.
  • Das Bedienen von Anlagen und Maschinen erfolgt im Allgemeinen über entsprechende Schieberregler, Drehknöpfe, Schalter oder sonstige Eingabemittel. Auch sind Computermäuse oder Tastaturen für die Eingabe vorgesehen. Der Nachteil dabei ist, dass bei dem physikalischen Verwenden von derartigen Eingabemitteln der entsprechende Platz zur Verfügung gestellt werden muss. Auch wenn eine Vielzahl von Bedienelementen verwendet werden muss, kann die Komplexität den Bediener der Anlage überfordern.
  • Insbesondere wenn komplexe Maschinenanlagen wie beispielsweise Sonare auf Schiffen oder U-Booten bedient werden müssen, kann ein entsprechender Seegang die Eingabe verfälschen oder dazu führen, dass die Eingabe nicht rechtzeitig und zielgenau erfolgt.
  • Aufgabe der Erfindung ist es den Stand der Technik zu verbessern.
  • Gelöst wird die Aufgabe durch eine Eingabevorrichtung für einen Rechner oder eine Bedienanlage, wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung und eine Anzeigeneinrichtung aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, wobei die Eingabevorrichtung ein virtuelles Bedienelement mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind aufweist.
  • Somit kann eine Eingabevorrichtung bereitgestellt werden, die es einem Bediener ermöglicht Bedienelemente virtuell seinen Bedürfnissen anzupassen. Zudem ist kein weiteres externes Gerät wie Joystick oder Maus notwendig, welches gegebenenfalls unter widrigen Bedingungen nicht mehr optimal einsetzbar ist.
  • Somit stellt die Eingabevorrichtung eine Schnittstelle zwischen einer zu bedienenden Maschine und einem Bediener her, welche anhand der Bewegung und Gesten des Bedieners ein umfangreiches Bedienpotential zur Verfügung stellt. Zudem kann durch die Anzeigeeinrichtung dargestellte Information direkt mittels der Bedienelemente bearbeitet oder aufbereitet werden.
  • Insbesondere bei Sonaren, welche dreidimensionale Daten bereitstellen, kann durch eine Interaktion mittels der virtuellen Bedienelemente sich der Bediener einen schnellen Überblick über die Lage verschaffen.
  • Folgendes Begriffliche sei erläutert:
    Vorliegende „Eingabevorrichtung“ ist ein neues Eingabemittel wie beispielsweise eine Computermaus oder eine Computertastatur. Auch kann die Eingabevorrichtung als Ergänzung oder Ersatz für einen Bedienpult gesehen werden. Insbesondere sind mechanische Bauteile, wie sie beispielsweise bei einem Joystick oder einer Maus vorhanden sind, nicht mehr notwendig. Die Eingabevorrichtung kann sowohl direkt an eine Maschine zum Steuern der Maschine oder auch an einen Rechner angeschlossen werden, welchem entsprechende Bediensignale aufgeprägt werden.
  • Mit dieser Eingabevorrichtung werden vorteilhafter Weise physische Bedienelemente in eine virtuelle Umgebung transferiert, sodass ein vollständig neuartiges Bedienkonzept einem Bediener zur Verfügung gestellt werden kann.
  • Ein „Rechner“ wird auch Computer genannt. Dieser Rechner kann ein Steuergerät oder ein Rechner einer sonstigen Maschine sein. Insbesondere können an dem Rechner Sensoren und/oder Aktuatoren angeschlossen sein.
  • Bei der „Bedienanlage“ kann es sich um eine komplexe Anlage wie beispielsweise ein Kraftwerk oder auch ein spezielles Instrument wie beispielsweise ein aktives oder passives Sonar handeln.
  • Die „Gestenerkennungseinrichtung“ erkennt mittels ihrer Sensoren bestimmte gewollte Bewegungen des Bedieners. Insbesondere können diese Bewegungen die Handbewegungen sein. Vorteilhafterweise basiert die Gestenerkennungseinrichtung auf optische Eingaben, welche insbesondere durch zwei Kameras aufgenommen und mittels entsprechender Software aufbereitet werden. Auch können beispielsweise an der Hand Sender oder Empfänger angeordnet sein, welche entsprechende Signale aussenden und/oder empfangen. So kann durch diese Signale eine entsprechende Bewegung im Raum festgestellt werden. Insbesondere sei hier erwähnt, dass es sich bei diesen Sendern um Ultraschallsender oder Infrarotsender und die entsprechenden Empfänger handeln kann.
  • Die „Anzeigeeinrichtung“ ist insbesondere ein Bildschirm oder eine virtuelle Brille, mittels derer den Augen des Betrachters ein dreidimensionales Bild aufgeprägt werden kann. Insbesondere vermittelt eine derartige Anzeigeeinrichtung einen räumlichen Eindruck, sodass insbesondere einzelne Bedienelemente räumlich verteilt dargestellt werden. Somit kann beispielsweise der Bediener durch eine Handbewegung im realen Raum und der entsprechenden Erkennung durch die Gestenerkennungseinrichtung den Augen des Benutzers über die Anzeigeeinrichtung der Eindruck vermittelt werden, dass sich die Hand in den durch die Anzeigeeinrichtung vermittelten Raum befindet.
  • Somit stellt die Anzeigeeinrichtung einen Bediener eine virtuelle Umgebung zur Verfügung, in der dieser das entsprechende Bedienelement oder die entsprechenden Bedienelemente anordnet und deren Bedienen durch Bewegung der realen Hand ermöglicht ist.
  • Ein „virtuelles Bedienelement“ ist ein Bedienelement, welches in der virtuellen Umgebung angezeigt wird, jedoch durch Bewegungen der realen Hand angesteuert wird. Das virtuelle Bedienelement ist direkt mit der Bedienanlage oder dem Rechner gekoppelt, sodass durch die reale Hand aufprägbare Stellsignale zum Ansteuern der Bedienanlage oder des Rechners verwendet werden. Für den Fall, dass das virtuelle Bedienelement eine Maus ist, kann beispielsweise die reale Hand in der virtuellen Umgebung die Maus umfassen, was in der realen Welt beispielsweise eine Hand ist, welche auf einer Tischplatte einen Hohlraum aufweist und welche über die Tischplatte bewegt wird. Dabei kann ein Auf und Ab einzelner Finger als Bedienen der einzelnen Maustasten oder das Knicken einzelner Finger als das Bewegen des Rollrades einer Maus interpretiert werden.
  • In einer weiteren Ausgestaltung weist der Rechner oder die Bedienanlage einen Sensor auf und ein durch den Sensor gewonnenes Sensorsignal wird mittels der Eingabevorrichtung optisch oder haptisch dem Bediener aufgeprägt.
  • So können beispielsweise durch einen Sensor gemessene Werte mittels der Anzeigeeinrichtung als Digital- oder Zeigerwert angezeigt werden. Für den Fall, dass beispielsweise die reale Hand einen Handschuh aufweist, welcher zum einen Bewegungen direkt detektiert und zum anderen auch ermöglicht, durch aufweisende Aktuatoren der Hand eine bestimmte Kraft aufzuprägen, kann das haptische Rückkoppeln eines Sensorwertes erfolgen.
  • Auch kann eine virtuelle Repräsentanz der Hand mittels der Anzeigeeinrichtung angezeigt werden, welche das Bedienelement und/oder andere Bedienelemente und/oder Daten virtuell greift.
  • In einer Ausführungsform weist die Gestenerkennungseinrichtung eine Kopplungseinheit auf, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektiertbar ist.
  • Die Kopplungseinheit kann beispielsweise ein Datenhandschuh oder können auch einzeln anbringbare Sensoren wie Mikrofone und/oder Empfänger sein, sodass eine Bewegung der Hand im Raum detektierbar ist und eine entsprechende Repräsentanz in der virtuellen Umgebung erfolgen kann.
  • Um insbesondere berührungslos oder ohne Hilfsmittel die Bewegung eines Körperteils zu bestimmen, kann die Gestenerkennungseinrichtung einen Bewegungsdetektionssensor aufweisen, welche die Bewegungen eines Körperteils, insbesondere der Hand, detektiert. Ein derartiger Bewegungsdetektionssensor kann beispielsweise eine Stereokamera mit zwei Kameraobjektiven sein. Auch die Messung induktiver oder elektrostatischer Felder und der Einfluss der Hand auf diese Felder kann dazu dienen, die Bewegungen der Hand zu bestimmen.
  • In einer weiteren Ausführungsform weist die Eingabevorrichtung weitere virtuelle Bedienelemente auf, mittels derer die Bedienanlage steuerbar ist oder dem Rechner Bedieneingaben aufprägbar sind. Somit kann sich beispielsweise ein Bediener ein eigenes Bedienpult mit unterschiedlichsten virtuellen Bedienelementen aufbauen. Zum Bedienen reicht es insbesondere aus, eine Hand im Raum zu bewegen und virtuell einzelne Bedienelemente zu „greifen“ und entsprechend zu betätigen. Auch können dabei virtuelle Bedienelemente entsprechend den Anforderungen des Bedieners angepasst werden oder neue Bedienelemente hinzugefügt oder alte entfernt werden. Um dies zu realisieren, können die virtuellen Bedienelemente schaltbar ausgestaltet sein, sodass diese durch die Bediener aktivierbar und/oder deaktivierbar sind.
  • Insbesondere kann eines der Bedienelemente eine virtuelle Maus, ein virtueller Joystick, ein virtuelles Touchpad, ein virtueller Schieberegler, ein virtueller Schalter, ein virtueller Drehknopf und/oder ein virtueller Stift sein.
  • Es können eine Vielzahl von unterschiedlichsten Bedienelementen virtuell zur Verfügung gestellt werden, welche dann von dem Bediener entsprechend angesteuert und bedient werden können. Auch kann ein Verknüpfen des jeweiligen Bedienelements mit einem Sensor, Aktuator, Eingabe, Ausgabe oder der Gleichen erfolgen.
  • In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch einen Rechner oder eine Bedienanlage, insbesondere ein Sonar, welche oder welcher eine zuvor beschriebene Eingabevorrichtung aufweist. Somit kann ein völlig neuartiges Bedienelement einem Bediener zur Verfügung gestellt werden, welches ihm ermöglicht komplexeste Aufgabenstellungen zu bewältigen.
  • In einer weiteren Ausgestaltung der Erfindung wird die Aufgabe gelöst durch ein Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen zuvor beschriebenen Rechner oder eine zuvor beschriebene Bedienanlage aufweist.
  • Somit können insbesondere in beengten Verhältnissen oder unter schwierigen Bedingungen wie beispielsweise bei einem Schiff bei hohem Seegang einem Bediener eine Vielzahl von Bedienelementen zur Verfügung gestellt werden, mit denen er ein zu bedienendes Instrument wie beispielsweise ein Sonar effektiv bedienen kann.
  • Im Weiteren wird die Erfindung anhand eines Ausführungsbeispiels erläutert. Es zeigt
  • 1 eine schematische Darstellung einer Eingabevorrichtung mit einem 3D-Bildschirm und einer Stereokamera.
  • An ein aktives Sonar 181 ist ein Eingabegerät 101 angeschlossen. Das Eingabegerät 101 umfasst einen 3D-Bildschirm 103 und eine Stereokamera 105. Die Stereokamera 105 weist zwei zueinander versetzte Kameraobjektive 107 auf. Der 3D-Bildschirm 103 ist in einen Anzeigebereich 109 und in eine Werkzeugleiste 111 aufgeteilt. Zudem sind auf dem 3D-Bildschirm 103 Sonardaten 113 sowie Digitalanzeigen 133 dargestellt.
  • Im Anzeigebereich 109 sind drei Bedienelemente dargestellt. Zu den Bedienelementen gehört ein virtueller Joystick 117, ein virtueller Schieberegler 129 und ein virtueller Kippschalter 131, welcher zwischen zwei Zuständen (I/O) schaltbar ist.
  • In der Werkzeugleiste 111 sind eine virtuelle Maus 119, eine virtuelle Schere 121, ein virtueller Drehknopf 123, ein virtuelles Messer 125 und ein virtueller Pinsel 127 dargestellt. Mithilfe dieser Werkzeuge 119, 121, 123, 125, 127 können die Sonardaten manipuliert oder das aktive Sonar 181 bedient werden.
  • Der Kippschalter 131 schaltet das Sonar 181, sodass im einen Zustand (I) ein aktives Sonar und im anderen Zustand (O) ein passives Sonar vorliegt. Mittels des Schiebereglers 129 wird die Sendefrequenz des Sonars 181 eingestellt. Mit Hilfe des virtuellen Joysticks 117 kann die Abstrahlrichtung des aktiven Sonars eingestellt werden.
  • Setzt sich ein Bediener vor das Eingabegerät 101 wird seine Hand 155 durch die Stereokamera 105 mit den versetzten Kameraobjektiven 107 detektiert. Mittels implementierter Software wird die Hand 155 erkannt und es werden Änderungen der Hand 155 detektiert. Zusätzlich wird eine virtuelle Repräsentanz 115 der Hand in dem 3D-Bildschirm 103 dargestellt.
  • Die Repräsentanz 115 der Hand, wird auch virtuelle Hand genannt, führt sämtliche Bewegungen der realen Hand 155 nach. So kann die Repräsentanz 115 der Hand wenn sie nach rechts geführt wird und den Kippschalter 133 „greift“ durch eine Bewegung nach oben das aktive Sonar in ein passives Sonar umschalten. Führt die Repräsentanz 115 der Hand eine Bewegung nach links aus und umgreift diese gedanklich den virtuellen Joystick 117, so kann die Strahlrichtung des Sonars geändert werden. Auch kann die virtuelle Hand 115 noch weiter nach links greifen, um mittels des Schiebereglers 129 die Sendefrequenz des aktiven Sonars zu verändern.
  • Alternativ wird die virtuelle Hand mittels Punkten dargestellt, welche beispielsweise jeweils ein Fingergelenk und ggf. eine Handfläche darstellen. Dazu alternativ sind einzelne Punkte mit Strichen oder Balken verbunden, sodass ein Fingerglied nachgebildet ist.
  • Auch können mittels der Repräsentanz 115 der Hand die Daten 113, welche online mittels des Sonars 181 ermittelt werden, bearbeitet werden. Beispielsweise kann die virtuelle Hand 115 ein virtuelles Messer 125 „ergreifen“ und die Daten 113, welche beispielsweise eine Datenwolke darstellen, virtuell durchschneiden, um bestimmte Ebenen oder Schnitte anzuschauen und um gegebenenfalls Objekte besser erkennen zu können.
  • Auch kann die virtuelle Hand 115 einen Drehknopf 123 in den Anzeigebereich 109 versetzen und diesen mit einer Funktionalität des Sonars 181 verknüpfen. Durch Betätigen des Drehknopfs 123 kann beispielsweise ebenfalls die Frequenz des Sonars 181 eingestellt werden, sodass beispielsweise dann der Schieberegler 129 durch den Drehknopf 123 ersetzt ist.
  • Bezugszeichenliste
  • 101
    Eingabegerät
    103
    Bildschirm
    105
    Stereokamera
    107
    versetzte Kameraobjektive
    109
    Anzeigebereich
    111
    Werkzeugleiste
    113
    Daten
    115
    virtuelle Hand
    117
    Joystick
    119
    Maus
    121
    Schere
    123
    Drehknopf
    125
    Messer
    127
    Pinsel
    129
    Regler
    131
    Kippschalter
    133
    Digitalanzeige
    155
    Hand
    181
    Sonar

Claims (9)

  1. Eingabevorrichtung (101) für einen Rechner oder eine Bedienanlage (181), wobei die Eingabevorrichtung eine Gestenerkennungseinrichtung (107) und eine Anzeigeeinrichtung (103) aufweist, welche einem Bediener eine virtuelle Umgebung zur Verfügung stellt, gekennzeichnet durch ein virtuelles Bedienelement (117) mittels dem der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
  2. Eingabevorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der Rechner oder die Bedienanlage einen Sensor aufweist und ein durch den Sensor gewonnenes Sensorsignal mittels der Eingabevorrichtung optisch und/oder haptisch dem Bediener aufgeprägt wird.
  3. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Gestenerkennungseinrichtung eine Kopplungseinheit aufweist, welche an einem Körperteil, insbesondere Hand, des Bedieners anbringbar ist, sodass eine Bewegung des Körperteils mittels der Kopplungseinheit detektierbar ist.
  4. Eingabevorrichtung nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass die Gestenerkennungseinrichtung einen Bewegungsdetektionssensor (107) aufweist, welcher die Bewegung eines Körperteils, insbesondere der Hand, detektiert.
  5. Eingabevorrichtung nach einem der vorherigen Ansprüche, gekennzeichnet durch weitere virtuelle Bedienelemente (129, 131) mittels derer der Bedienanlage oder dem Rechner Bedieneingaben aufprägbar sind.
  6. Eingabevorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die virtuellen Bedienelemente schaltbar ausgesatltet sind, sodass diese durch den Bediener aktivierbar und/oder deaktivierbar sind.
  7. Eingabevorrichtung nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass eines der Bedienelemente eine virtuelle Maus (119), ein virtueller Joystick (117), ein virtuelles Touch-Pad, ein virtueller Schieberegler (129), ein virtueller Schalter (131), ein virtueller Drehknopf (123) oder ein virtueller Stift ist.
  8. Rechner oder Bedienanlage, insbesondere Sonar, welcher oder welche eine Eingabevorrichtung nach einem der vorherigen Ansprüche aufweist.
  9. Fahrzeug, insbesondere Flugzeug, Schiff oder Unterseeboot, welches einen Rechner oder eine Bedienanlage nach Anspruch 8 aufweist.
DE102014107220.0A 2014-05-22 2014-05-22 Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug Withdrawn DE102014107220A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014107220.0A DE102014107220A1 (de) 2014-05-22 2014-05-22 Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug
PCT/DE2015/100152 WO2015176707A1 (de) 2014-05-22 2015-04-10 Eingabevorrichtung, rechner oder bedienanlage sowie fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014107220.0A DE102014107220A1 (de) 2014-05-22 2014-05-22 Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug

Publications (1)

Publication Number Publication Date
DE102014107220A1 true DE102014107220A1 (de) 2015-11-26

Family

ID=53365684

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014107220.0A Withdrawn DE102014107220A1 (de) 2014-05-22 2014-05-22 Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug

Country Status (2)

Country Link
DE (1) DE102014107220A1 (de)
WO (1) WO2015176707A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3086420B1 (fr) 2018-09-21 2020-12-04 Psa Automobiles Sa Procede de commande d’un systeme embarque

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801704A (en) * 1994-08-22 1998-09-01 Hitachi, Ltd. Three-dimensional input device with displayed legend and shape-changing cursor
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface
US20100144436A1 (en) * 2008-12-05 2010-06-10 Sony Computer Entertainment Inc. Control Device for Communicating Visual Information
US20110276891A1 (en) * 2010-05-06 2011-11-10 Marc Ecko Virtual art environment

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5801704A (en) * 1994-08-22 1998-09-01 Hitachi, Ltd. Three-dimensional input device with displayed legend and shape-changing cursor
US20050237296A1 (en) * 2004-04-23 2005-10-27 Samsung Electronics Co., Ltd. Apparatus, system and method for virtual user interface
US20100144436A1 (en) * 2008-12-05 2010-06-10 Sony Computer Entertainment Inc. Control Device for Communicating Visual Information
US20110276891A1 (en) * 2010-05-06 2011-11-10 Marc Ecko Virtual art environment

Also Published As

Publication number Publication date
WO2015176707A1 (de) 2015-11-26

Similar Documents

Publication Publication Date Title
EP3359348B1 (de) Robotersystem und verfahren zur steuerung eines robotersystems
DE102019002898A1 (de) Robotorsimulationsvorrichtung
EP3458939B1 (de) Interaktionssystem und -verfahren
EP3709133B1 (de) System zur haptischen interaktion mit virtuellen objekten für anwendungen in der virtuellen realität
DE102014106960A1 (de) Verfahren zur Darstellung einer virtuellen Interaktion auf zumindest einem Bildschirm und Eingabevorrichtung, System und Verfahren für eine virtuelle Anwendung mittels einer Recheneinheit
EP2520993A2 (de) Vorrichtung zum Bedienen einer automatisierten Maschine zur Handhabung, Montage oder Bearbeitung von Werkstücken
DE10340188A1 (de) Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
EP3366434B1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
DE102017202439A1 (de) Eingabeeinrichtung, Verfahren zur Bereitstellung von Bewegungsbefehlen an einen Aktor und Aktorsystem
EP2876526B1 (de) Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung
DE112012003889T5 (de) Verfahren, Vorrichtung und Computerprogramm, die zum Zeigen auf ein Objekt dienen
EP2953793B1 (de) System zur druckmaschinenbedienung
DE102015102238A1 (de) Verfahren und Anordnung zum Überprüfen einer Fläche
EP3146411A1 (de) Vorrichtung zum anzeigen einer virtuellen realität sowie messgerät
EP3904984B1 (de) Verfahren für eine immersive mensch-maschine-interaktion
DE102014107220A1 (de) Eingabevorrichtung, Rechner oder Bedienanlage sowie Fahrzeug
DE102019004478B3 (de) System zum Vornehmen einer Eingabe an einem Robotermanipulator
DE102019206606A1 (de) Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukt, Modul sowie Kraftfahrzeug
EP2494928B1 (de) Bedieneinrichtung für eine technische Vorrichtung, insbesondere eine medizinische Vorrichtung
CH702146A1 (de) Verfahren zur dreidimensionalen Unterstützung der manuellen Bedienung von graphischen Benutzeroberflächen.
EP2624114A1 (de) Handsteuergerät zur Steuerung einer Vorrichtung und Verfahren
DE102019117219A1 (de) System zum Bedienen einer grafischen Benutzeroberfläche
DE102019114752A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erfassen einer Eingabe und Fahrzeug mit einer solchen Vorrichtung
AT514926B1 (de) Sitzmöbel mit berührungsloser Abtastung der Fingerbewegungen des darin sitzenden Operators zur Steuerung von elektrischen und elektronischen Geräten

Legal Events

Date Code Title Description
R163 Identified publications notified
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee