DE4201934A1 - Gestik computer - Google Patents

Gestik computer

Info

Publication number
DE4201934A1
DE4201934A1 DE19924201934 DE4201934A DE4201934A1 DE 4201934 A1 DE4201934 A1 DE 4201934A1 DE 19924201934 DE19924201934 DE 19924201934 DE 4201934 A DE4201934 A DE 4201934A DE 4201934 A1 DE4201934 A1 DE 4201934A1
Authority
DE
Germany
Prior art keywords
data processing
processing system
user interface
objects
graphical user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19924201934
Other languages
English (en)
Inventor
Christoph Maggioni
Brigitte Wirtz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE19924201934 priority Critical patent/DE4201934A1/de
Publication of DE4201934A1 publication Critical patent/DE4201934A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

Die Verbesserung der Kommunikation zwischen Mensch und Ma­ schine und die Suche nach neuen Eingabetechniken gewinnt be­ dingt durch immer komplexer werdende Computeranwendungen immer mehr an Bedeutung. Aus diesem Grunde ist es ein Ziel vieler technischer Entwicklungen, neben den klassischen Eingabegerä­ ten eines Computers, wie z. B. Tastatur, Graphik-Tablett, Maus etc. und in Entwicklung befindlichen Eingabemethoden, wie Sprach- und Handschrifterkennung, neue, der natürlichen räum­ lichen menschlichen Kommunikation angepaßte Interaktionsmög­ lichkeiten mit der Maschine zu entwickeln. Hierfür bieten sich die Gestik und Mimik des Menschen auf natürliche Weise an, da diese Ausdrucksformen in der natürlichen Kommunikation zwi­ schen Menschen von großer Bedeutung sind. Um diese Ausdrucks­ formen des Menschen als Eingabemethode für Computer nutzbar zu machen, müssen Kopf- und Körperbewegungen erkannt und inter­ pretiert werden.
Das bisher einzige am Markt tatsächlich etablierte benutzer­ freundliche Eingabemedium für Computer ist die Maus. Betrach­ tet man den Einfluß dieses Eingabemediums auf die gesamte Ent­ wicklung von Computern bzw. deren Benutzerschnittstellen, so stellt man eine sehr große Steigerung der Benutzerfreundlich­ keit und der Effektivität von damit ausgerüsteten Computern fest. Fensteroberflächen, in denen graphische Objekte (Icons) mit der Maus manipuliert werden können, stellen im Vergleich zu den alten, an der Tastatur orientierten Bedienweisen eine völlig neue Art dar, Computer zu benutzen. Dieser qualitative Sprung in der Bedienung ermöglichte eine wesentliche Steige­ rung der Arbeitsproduktivität, eine deutliche Verringerung der Anlernzeiten und machte viele Computeranwendungen erst mög­ lich.
Die Maus ist ein zweidimensionales Eingabemedium. Im Gegensatz dazu denkt und bewegt sich der Mensch in dreidimensionalen Um­ gebungen. Seine Gesten und Wahrnehmungen sind räumlich ge­ prägt. Diese Umstände sollten konsequenter Weise in einem dreidimensionalen Eingabemedium und in entsprechenden dreidi­ mensionalen Benutzeroberflächen ihre Entsprechung finden.
Neben der Maus wurde in den letzten Jahren ein weiteres Einga­ bemedium, welches als Data Glove (Datenhandschuh) bezeichnet wird, bekannt. Diese Date Glove wurde in den Jahren 1984 bis 1987 von der Firma VPL-Research von Thomas G. Zimmermann und L. Young Harvill entwickelt. Der Data Glove übersetzt Bewegun­ gen der Hand und der Finger in elektrische Signale. Zwischen zwei Stofflagen verlaufen fieberoptische Kabel entlang aller Finger und des Daumens. Beide Enden jedes Kabels münden in ein Interface-Board nahe des Handgelenks. Eine lichtemittierende Diode an einem Ende sendet Licht entlang des Kabels zu einem Phototransistor am anderen Ende, der das Licht in ein elektri­ sches Signal umwandelt. Das Signal gelant vom Handgelenk zum angeschlossenen Rechner durch ein angeschlossenes Kabel. Je stärker die Finger gekrümmt werden, desto größer ist der Lichtverlust im fieberoptischen Kabel, und desto kleiner damit das entsprechende elektrische Signal. Die Lage und Orientie­ rung der Hand im Raum wird mit Hilfe eines sog. Pollhemus-Sen­ sors (Mc Donnel Douglas Corporation), der auf dem Handrücken montiert wird, bestimmt. Dieser Sensor mißt die Stärke und Orientierung dreier aufeinander senkrecht stehender künstlich erzeugter Magnetfelder im Raum.
Die Nachteile des Data Glove sind in erster Linie in seinem hohen Preis und in seiner relativ hohen Anfälligkeit gegenüber mechanischen Einflüssen zu sehen. Ferner bestehen erhebliche Akzeptanzprobleme, da der Data Glove nicht immer angenehm zu tragen ist. Ferner schränkt der Data Glove die Beweglichkeit des Anwenders durch Zuführungskabel und sein Gewicht ein. Der Benutzer ist durch den Data Glove allgemein in seiner Aktions­ fähigkeit eingeschränkt, da er die Hand nicht für weitere Ar­ beiten, wie z. B. Schreiben, verwenden kann.
Die Firma Xerox Palo Alto Research Center, der Erfinder der Schreibtischbenutzeroberflächen von Computersystemen, stellte vor kurzem einen Prototyp einer dreidimensionalen Benutze­ roberfläche vor. Die Idee ist hierbei, daß sich auf dem Bild­ schirm Strukturen befinden, welche sich in Echtzeit im dreidi­ mensionalen Raum bewegen, und vom menschlichen visuellen Sy­ stem in ihrer räumlichen Struktur wahrgenommen und interpre­ tiert werden (Mark A. Clarkson, Xerox PARC: "An Easier Inter­ face, Byte Magazine", February 1991, pp. 277-282; George G. Ro­ bertson, Stuart K. Card and Jock D. Mackinlay, Xerox PARC: "The Cognitive Coprocessor Architecture for Interactive User Interfaces", Proceedings of the ACM SIGGRAPH Symposium on User Interface Software and Technology, New York 1989, pp. 10-18).
Für eine sinnvolle Arbeit mit derartigen dreidimensionalen Be­ nutzeroberflächen wird ein dreidimensionales Eingabegerät für Computer benötigt. Wünschenswert ist ein dreidimensionales Eingabemedium, welches den Benutzer nicht behindert, so daß er frei arbeiten kann, das vom Benutzer möglichst wenig Anpassung an seinen Rechnerarbeitsplatz fordert, das in der Lage ist, menschliche Metaphern zu erkennen und zu interpretieren und das relativ unabhängig gegenüber Umwelteinflüssen ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Datenverarbei­ tungssystem anzugeben, welches in der Lage ist, die Ausdrucks­ formen der menschlichen Gestik direkt in Befehle zu seiner Steuerung umzusetzen. Diese Aufgabe wird durch ein Datenverar­ beitungssystem mit Merkmalen nach Anspruch 1 gelöst.
Bei diesem Datenverarbeitungssystem, welches durch Ausdrucks­ formen der menschlichen Gestik gesteuert wird, sind Mittel vorgesehen, zur Aufnahme von Bildern des menschlichen Körpers oder von Körperteilen, zur Extraktion solcher Ausdrucksformen aus solchen Bildern, und zur Übersetzung solcher Ausdrucksfor­ men in Befehle zur Steuerung des Datenverarbeitungssystems.
Ein derartiges Datenverarbeitungssystem macht die Verwendung technischer Eingabemedien, wie z. B. einer Maus oder einer Ta­ statur, weitgehend, wenn nicht völlig, entbehrlich. In einer bevorzugten Ausführungsform der Erfindung ist bei dem Daten­ verarbeitungssystem eine graphische Benutzeroberfläche vorge­ sehen, deren Bedienungselemente mit Hilfe von Objekten manipu­ liert werden können, welche extrahierte Ausdrucksformen der menschlichen Gestik darstellen, wodurch das Datenverarbei­ tungssystem gesteuert wird. Die graphische Benutzeroberfläche kann dabei sowohl zweidimensional als auch dreidimensional sein. Eine Weiterbildung der Erfindung sieht vor, daß extra­ hierte Ausdrucksformen der menschlichen Gestik durch Objekte auf dieser graphischen Benutzeroberfläche dargestellt werden, welche geeignet sind, Bewegungen und Stellungen der menschli­ chen Hand oder beider Hände eines Menschen zu visualisieren. Dabei ist es besonders vorteilhaft, wenn die graphische Benut­ zeroberfläche des Datenverarbeitungssystems Strukturmerkmale der realen Arbeitsumgebung eines typischen Anwenders des Da­ tenverarbeitungssystems oder Strukturmerkmale von Gegenständen aus dieser Arbeitsumgebung aufweist, wobei Bedienungselemente dieser Benutzeroberfläche mit Hilfe graphischer Darstellungen von Gegenständen aus dieser Arbeitsumgebung oder Teilen sol­ cher Gegenstände visualisiert werden. Je nach Anwendungsart kann die graphische Benutzeroberfläche dabei z. B. Struktur­ merkmale eines Schreibtisches aufweisen. Zusätzlich oder al­ ternativ dazu kann die graphische Benutzeroberfläche auch Strukturmerkmale eines Karteikastens oder mehrerer Karteikä­ sten aufweisen. Für viele Anwendungen ist es vorteilhaft, wenn die graphische Benutzeroberfläche außerdem Strukturmerkmale eines Schriftstücks oder mehrerer Schriftstücke aufweist. Schließlich gibt es eine Reihe von Anwendungen, für welche die graphische Benutzeroberfläche vorteilhaft Strukturmerkmale ei­ nes Aktenschranks oder mehrerer Aktenschränke aufweist. Für eine Reihe von Anwendungen ist es vorteilhaft, wenn die Benut­ zeroberfläche gleichzeitig Strukturmerkmale von mehreren der genannten Arbeitsumgebungen bzw. von mehreren Gegenständen aus einer Arbeitsumgebung aufweist.
In anderen Anwendungen sind graphische Benutzeroberflächen be­ sonders geeignet, welche Strukturmerkmale einer technischen Leitwarte aufweisen. Schließlich ist es in einer Reihe von me­ dizintechnischen Anwendungen vorteilhaft, wenn die graphische Benutzeroberfläche Strukturmerkmale bestimmter medizintechni­ scher Geräte aufweist.
Die Extraktion von Ausdrucksformen der menschlichen Gestik ge­ lingt besonders zuverlässig und effizient, wenn zu diesem Zweck die Lage von Markierungen auf der Oberfläche des men­ schlichen Körpers ausgewertet wird. Bei vielen Anwendungen kommt hierfür bevorzugt die Auswertung der Lage von Markierun­ gen auf der Handoberfläche in Betracht. In anderen Anwendungen ist es vorteilhaft, die Blickrichtung eines Anwenders, seine Augenbewegungen, seine Kopfbewegungen, seine Mundbewegungen, seine Mimik oder die Bewegung des Körpers insgesamt auszuwer­ ten. Mit Hilfe eines derartigen Datenverarbeitungssystems ist die intuitive Bedienung eines Computers in verschiedensten An­ wendungen möglich. Im Ergebnis wird hierdurch quasi ein neues dreidimensionales Eingabegerät für Computer geschaffen, wel­ ches Handgesten und Bewegungen der menschlichen Hand erkennt, verfolgt, interpretiert und dann zur Steuerung von Rechnerak­ tionen verwendet.
Gegenüber bestehenden Eingabemedien wie z. B. einer Maus oder einem Trackball, besitzt die erfindungsgemäße Lösung folgende Vorteile: Sie gewährleistet eine noch intuitivere Bedienbar­ keit des Rechners, welche vom Benutzer ein Minimum an Anpas­ sung an seinen Rechnerarbeitsplatz fordert. Die Freiheit des Benutzers wird weitgehend erhalten, da er kein zusätzliches Eingabegerät bedienen muß und deshalb in seiner gewohnten Ar­ beitsumgebung frei weiterarbeiten kann. Beide Hände des Be­ nutzers können gleichzeitig zur Steuerung des Datenverarbei­ tungssystems verwendet werden. Die räumliche Welt des Benut­ zers wird bei Verwendung einer dreidimensionalen Benutzerober­ fläche in eine räumliche Interaktionswelt mit dem Rechner ab­ gebildet.

Claims (20)

1. Datenverarbeitungssystem, welches durch Ausdrucksformen der menschlichen Gestik gesteuert wird, mit Mitteln
  • - zur Aufnahme von Bildern des menschlichen Körpers oder Teilen davon,
  • - zur Extraktion solcher Ausdrucksformen aus solchen Bil­ dern, und
  • - zur Übersetzung solcher Ausdrucksformen in Befehle zur Steuerung des Datenverarbeitungssystems.
2. Datenverarbeitungssystem nach Anspruch 1 mit einer graphi­ schen Benutzeroberfläche, auf der erste Objekte sichtbar sind, welche Bedienungselemente der Benutzeroberfläche dar­ stellen, und auf der zweite Objekte sichtbar sind, welche extrahierte Ausdrucksformen der menschlichen Gestik dar­ stellen, wobei erste Objekte mit Hilfe von zweiten Objekten manipuliert werden können, wodurch das Datenverarbeitungs­ system gesteuert wird.
3. Datenverarbeitungssystem nach Anspruch 2 mit einer zweidi­ mensionalen graphischen Benutzeroberfläche.
4. Datenverarbeitungssystem nach Anspruch 2 mit einer dreidi­ mensionalen graphischen Benutzeroberfläche.
5. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 4, bei dem extrahierte Ausdrucksformen der menschlichen Gestik durch Objekte dargestellt werden, welche geeignet sind, Be­ wegungen und Stellungen der menschlichen Hand oder beider Hände eines Menschen zu visualisieren.
6. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 5, dessen graphische Benutzeroberfläche Strukturmerkmale der realen Arbeitsumgebung eines typischen Anwenders des Daten­ verarbeitungssystems oder Strukturmerkmale von Gegenständen aus dieser Arbeitsumgebung aufweist, wobei Bedienungsele­ mente dieser Benutzeroberfläche mit Hilfe graphischer Dar­ stellungen von Gegenständen aus diese Arbeitsumgebung oder Teilen solcher Gegenstände visualisiert werden.
7. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 6, dessen graphische Benutzeroberfläche Strukturmerkmale ei­ nes Schreibtisches aufweist.
8. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 7, dessen graphische Benutzeroberfläche Strukturmerkmale ei­ nes Karteikastens oder mehrerer Karteikästen aufweist.
9. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 8, dessen graphische Benutzeroberfläche Strukturmerkmale ei­ nes Schriftstücks oder mehrerer Schriftstücke aufweist.
10. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 9, dessen graphische Benutzeroberfläche Strukturmerkmale ei­ nes Aktenschranks oder mehrerer Aktenschränke aufweist.
11. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 10, dessen graphische Benutzeroberfläche Strukturmerkmale einer technischen Leitwarte aufweist.
12. Datenverarbeitungssystem nach einem der Ansprüche 1 bis 11, dessen graphische Benutzeroberfläche Strukturmerkmale medizintechnischer Geräte aufweist.
13. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Lage von Markierungen auf der Ober­ fläche des menschlichen Körpers zur Extraktion von Aus­ drucksformen der menschlichen Gestik auswertet.
14. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Lage von Markierungen auf der Hand­ oberfläche zur Extraktion von Ausdrucksformen der men­ schlichen Gestik auswertet.
15. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Blickrichtung eines Anwenders auswer­ tet.
16. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Augenbewegungen eines Anwenders aus­ wertet.
17. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Kopfbewegung eines Anwenders auswer­ tet.
18. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Mundbewegungen eines Anwenders aus­ wertet.
19. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Mimik eines Anwenders auswertet.
20. Datenverarbeitungssystem nach einem der vorhergehenden An­ sprüche, welches die Körperbewegung eines Anwenders aus­ wertet.
DE19924201934 1992-01-24 1992-01-24 Gestik computer Withdrawn DE4201934A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19924201934 DE4201934A1 (de) 1992-01-24 1992-01-24 Gestik computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19924201934 DE4201934A1 (de) 1992-01-24 1992-01-24 Gestik computer

Publications (1)

Publication Number Publication Date
DE4201934A1 true DE4201934A1 (de) 1993-07-29

Family

ID=6450191

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19924201934 Withdrawn DE4201934A1 (de) 1992-01-24 1992-01-24 Gestik computer

Country Status (1)

Country Link
DE (1) DE4201934A1 (de)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19601026A1 (de) * 1996-01-13 1997-07-17 Gordon Pipa Entwicklung eines Gerätes welches es ermöglicht einen Computer mittels der Augenbewegung zu steuern
DE19845027A1 (de) * 1998-09-30 2000-04-06 Siemens Ag Medizintechnisches System
US6175610B1 (en) 1998-02-11 2001-01-16 Siemens Aktiengesellschaft Medical technical system controlled by vision-detected operator activity
DE10022321A1 (de) * 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
DE10125653C1 (de) * 2001-05-25 2002-11-07 Siemens Ag Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung
EP1477351A2 (de) 2003-05-15 2004-11-17 Webasto AG Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten
EP1830244A2 (de) 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
DE102008004980A1 (de) * 2008-01-17 2009-08-06 Hansjörg Lienert Vorrichtung für die Datenein- und -ausgabe
EP2283790A1 (de) 2009-08-14 2011-02-16 Karl Storz GmbH & Co. KG Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
DE102014207637A1 (de) 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9495613B2 (en) 2012-01-17 2016-11-15 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging using formed difference images
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US9945660B2 (en) 2012-01-17 2018-04-17 Leap Motion, Inc. Systems and methods of locating a control object appendage in three dimensional (3D) space
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
US10585193B2 (en) 2013-03-15 2020-03-10 Ultrahaptics IP Two Limited Determining positional information of an object in space
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US10739862B2 (en) 2013-01-15 2020-08-11 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11720180B2 (en) 2012-01-17 2023-08-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US11740705B2 (en) 2013-01-15 2023-08-29 Ultrahaptics IP Two Limited Method and system for controlling a machine according to a characteristic of a control object
US11775033B2 (en) 2013-10-03 2023-10-03 Ultrahaptics IP Two Limited Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US11778159B2 (en) 2014-08-08 2023-10-03 Ultrahaptics IP Two Limited Augmented reality with motion sensing
US11868687B2 (en) 2013-10-31 2024-01-09 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
EP0393368A2 (de) * 1989-03-20 1990-10-24 Hitachi, Ltd. Rechner-Mensch-Schnittstelle
EP0438017A2 (de) * 1990-01-18 1991-07-24 International Business Machines Corporation Verfahren zum graphischen Zugriff auf elektronische Daten mit beweglichen Ikonen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
JPH02132510A (ja) * 1988-11-12 1990-05-22 Sony Corp 入力装置
EP0393368A2 (de) * 1989-03-20 1990-10-24 Hitachi, Ltd. Rechner-Mensch-Schnittstelle
EP0438017A2 (de) * 1990-01-18 1991-07-24 International Business Machines Corporation Verfahren zum graphischen Zugriff auf elektronische Daten mit beweglichen Ikonen

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Mc Avinney, Paul: Telltale Gestures, In: BYTE 7/1990 S. 237-240 *
Ohmura, Kazunori et. al.: Method of detecting facedirection using image processing for human interface, In: SPIE Vol. 1001 Visual Communications and Image Processing 1988, S. 625-632 *

Cited By (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19601026A1 (de) * 1996-01-13 1997-07-17 Gordon Pipa Entwicklung eines Gerätes welches es ermöglicht einen Computer mittels der Augenbewegung zu steuern
US6175610B1 (en) 1998-02-11 2001-01-16 Siemens Aktiengesellschaft Medical technical system controlled by vision-detected operator activity
DE19845027A1 (de) * 1998-09-30 2000-04-06 Siemens Ag Medizintechnisches System
DE19845027C2 (de) * 1998-09-30 2000-08-31 Siemens Ag Medizintechnisches System
DE10022321A1 (de) * 2000-05-09 2001-11-15 Bayerische Motoren Werke Ag Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung
DE10125653C1 (de) * 2001-05-25 2002-11-07 Siemens Ag Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung
EP1262158A3 (de) * 2001-05-25 2003-10-29 Siemens Aktiengesellschaft Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung
US7312788B2 (en) 2003-03-11 2007-12-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Gesture-based input device for a user interface of a computer
DE10321964A1 (de) * 2003-05-15 2004-12-09 Webasto Ag Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten
US7342485B2 (en) 2003-05-15 2008-03-11 Webasto Ag Motor vehicle roof with a control means for electrical motor vehicle components and process for operating electrical motor vehicle components
DE10321964B4 (de) * 2003-05-15 2008-05-29 Webasto Ag Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten
EP1477351A2 (de) 2003-05-15 2004-11-17 Webasto AG Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten
EP1830244A2 (de) 2006-03-01 2007-09-05 Audi Ag Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs
DE102008004980A1 (de) * 2008-01-17 2009-08-06 Hansjörg Lienert Vorrichtung für die Datenein- und -ausgabe
US8817085B2 (en) 2009-08-14 2014-08-26 Karl Storz Gmbh & Co. Kg Control system and method to operate an operating room lamp
EP2283790A1 (de) 2009-08-14 2011-02-16 Karl Storz GmbH & Co. KG Steuerung und Verfahren zum Betreiben einer Operationsleuchte
US9778752B2 (en) 2012-01-17 2017-10-03 Leap Motion, Inc. Systems and methods for machine control
US11782516B2 (en) 2012-01-17 2023-10-10 Ultrahaptics IP Two Limited Differentiating a detected object from a background using a gaussian brightness falloff pattern
US12086327B2 (en) 2012-01-17 2024-09-10 Ultrahaptics IP Two Limited Differentiating a detected object from a background using a gaussian brightness falloff pattern
US11994377B2 (en) 2012-01-17 2024-05-28 Ultrahaptics IP Two Limited Systems and methods of locating a control object appendage in three dimensional (3D) space
US10767982B2 (en) 2012-01-17 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of locating a control object appendage in three dimensional (3D) space
US9436998B2 (en) 2012-01-17 2016-09-06 Leap Motion, Inc. Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections
US10699155B2 (en) 2012-01-17 2020-06-30 Ultrahaptics IP Two Limited Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US9495613B2 (en) 2012-01-17 2016-11-15 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging using formed difference images
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9626591B2 (en) 2012-01-17 2017-04-18 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9652668B2 (en) 2012-01-17 2017-05-16 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US9672441B2 (en) 2012-01-17 2017-06-06 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9697643B2 (en) 2012-01-17 2017-07-04 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US9741136B2 (en) 2012-01-17 2017-08-22 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US9767345B2 (en) 2012-01-17 2017-09-19 Leap Motion, Inc. Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US11308711B2 (en) 2012-01-17 2022-04-19 Ultrahaptics IP Two Limited Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US9934580B2 (en) 2012-01-17 2018-04-03 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US9945660B2 (en) 2012-01-17 2018-04-17 Leap Motion, Inc. Systems and methods of locating a control object appendage in three dimensional (3D) space
US9153028B2 (en) 2012-01-17 2015-10-06 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US10565784B2 (en) 2012-01-17 2020-02-18 Ultrahaptics IP Two Limited Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space
US10366308B2 (en) 2012-01-17 2019-07-30 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging based on differences between images
US10410411B2 (en) 2012-01-17 2019-09-10 Leap Motion, Inc. Systems and methods of object shape and position determination in three-dimensional (3D) space
US11720180B2 (en) 2012-01-17 2023-08-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US10097754B2 (en) 2013-01-08 2018-10-09 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US11740705B2 (en) 2013-01-15 2023-08-29 Ultrahaptics IP Two Limited Method and system for controlling a machine according to a characteristic of a control object
US11353962B2 (en) 2013-01-15 2022-06-07 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US11874970B2 (en) 2013-01-15 2024-01-16 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US10739862B2 (en) 2013-01-15 2020-08-11 Ultrahaptics IP Two Limited Free-space user interface and control using virtual constructs
US10585193B2 (en) 2013-03-15 2020-03-10 Ultrahaptics IP Two Limited Determining positional information of an object in space
US11693115B2 (en) 2013-03-15 2023-07-04 Ultrahaptics IP Two Limited Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10452151B2 (en) 2013-04-26 2019-10-22 Ultrahaptics IP Two Limited Non-tactile interface systems and methods
US11776208B2 (en) 2013-08-29 2023-10-03 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11282273B2 (en) 2013-08-29 2022-03-22 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US12086935B2 (en) 2013-08-29 2024-09-10 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US11461966B1 (en) 2013-08-29 2022-10-04 Ultrahaptics IP Two Limited Determining spans and span lengths of a control object in a free space gesture control environment
US11775033B2 (en) 2013-10-03 2023-10-03 Ultrahaptics IP Two Limited Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US11868687B2 (en) 2013-10-31 2024-01-09 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
WO2015162058A1 (de) 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges
US10585487B2 (en) 2014-04-23 2020-03-10 Bayerische Motoren Werke Aktiengesellschaft Gesture interaction with a driver information system of a vehicle
DE102014207637A1 (de) 2014-04-23 2015-10-29 Bayerische Motoren Werke Aktiengesellschaft Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges
US11778159B2 (en) 2014-08-08 2023-10-03 Ultrahaptics IP Two Limited Augmented reality with motion sensing
US12095969B2 (en) 2014-08-08 2024-09-17 Ultrahaptics IP Two Limited Augmented reality with motion sensing
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space

Similar Documents

Publication Publication Date Title
DE4201934A1 (de) Gestik computer
Gabbard A taxonomy of usability characteristics in virtual environments
EP3143478B1 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung
DE69434843T2 (de) Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem
DE102009032637B4 (de) Bildvergrößerungssystem für eine Computerschnittstelle
Poupyrev et al. Developing a generic augmented-reality interface
DE69432344T2 (de) Dateneingabevorrichtung mit Anzeigetastatur
Duval et al. Improving awareness for 3D virtual collaboration by embedding the features of users’ physical environments and by augmenting interaction tools with cognitive feedback cues
Kim et al. Tangible 3D: Hand Gesture Interaction for Immersive 3D Modeling.
DE69026516T2 (de) Digitalisiertablett mit zweimodenläufer/maus
Jeffri et al. Guidelines for the interface design of ar systems for manual assembly
WO2004034241A2 (de) Schnell-eingabevorrichtung
Zhang et al. Design and evaluation of bare-hand interaction for precise manipulation of distant objects in AR
Lu et al. Classification, application, challenge, and future of midair gestures in augmented reality
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
Tano et al. Three design principles learned through developing a series of 3D sketch systems:“Memory Capacity”,“Cognitive Mode”, and “Life-size and Operability”
Card The Human, the Computer, the Task, and Their Interaction—Analytic Models and Use-Centered Design
Heemsbergen et al. Physical digitality: Making reality visible through multimodal digital affordances for human perception
Poor et al. Applying the Norman 1986 user-centered model to post-WIMP UIs: Theoretical predictions and empirical outcomes
Bornschein et al. Collaborative tactile graphic workstation for touch-sensitive pin-matrix devices
Su et al. A logical hand device in virtual environments
DE10054242A1 (de) Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung
Chignell et al. Human—computer interaction: The psychology of augmented human behavior
Soares et al. Ego-exo: A cooperative manipulation technique with automatic viewpoint control
Wanick et al. Applying games design thinking for scientific data visualization in virtual reality environments

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8130 Withdrawal