DE4201934A1 - Gestik computer - Google Patents
Gestik computerInfo
- Publication number
- DE4201934A1 DE4201934A1 DE19924201934 DE4201934A DE4201934A1 DE 4201934 A1 DE4201934 A1 DE 4201934A1 DE 19924201934 DE19924201934 DE 19924201934 DE 4201934 A DE4201934 A DE 4201934A DE 4201934 A1 DE4201934 A1 DE 4201934A1
- Authority
- DE
- Germany
- Prior art keywords
- data processing
- processing system
- user interface
- objects
- graphical user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
Die Verbesserung der Kommunikation zwischen Mensch und Ma
schine und die Suche nach neuen Eingabetechniken gewinnt be
dingt durch immer komplexer werdende Computeranwendungen immer
mehr an Bedeutung. Aus diesem Grunde ist es ein Ziel vieler
technischer Entwicklungen, neben den klassischen Eingabegerä
ten eines Computers, wie z. B. Tastatur, Graphik-Tablett, Maus
etc. und in Entwicklung befindlichen Eingabemethoden, wie
Sprach- und Handschrifterkennung, neue, der natürlichen räum
lichen menschlichen Kommunikation angepaßte Interaktionsmög
lichkeiten mit der Maschine zu entwickeln. Hierfür bieten sich
die Gestik und Mimik des Menschen auf natürliche Weise an, da
diese Ausdrucksformen in der natürlichen Kommunikation zwi
schen Menschen von großer Bedeutung sind. Um diese Ausdrucks
formen des Menschen als Eingabemethode für Computer nutzbar zu
machen, müssen Kopf- und Körperbewegungen erkannt und inter
pretiert werden.
Das bisher einzige am Markt tatsächlich etablierte benutzer
freundliche Eingabemedium für Computer ist die Maus. Betrach
tet man den Einfluß dieses Eingabemediums auf die gesamte Ent
wicklung von Computern bzw. deren Benutzerschnittstellen, so
stellt man eine sehr große Steigerung der Benutzerfreundlich
keit und der Effektivität von damit ausgerüsteten Computern
fest. Fensteroberflächen, in denen graphische Objekte (Icons)
mit der Maus manipuliert werden können, stellen im Vergleich
zu den alten, an der Tastatur orientierten Bedienweisen eine
völlig neue Art dar, Computer zu benutzen. Dieser qualitative
Sprung in der Bedienung ermöglichte eine wesentliche Steige
rung der Arbeitsproduktivität, eine deutliche Verringerung der
Anlernzeiten und machte viele Computeranwendungen erst mög
lich.
Die Maus ist ein zweidimensionales Eingabemedium. Im Gegensatz
dazu denkt und bewegt sich der Mensch in dreidimensionalen Um
gebungen. Seine Gesten und Wahrnehmungen sind räumlich ge
prägt. Diese Umstände sollten konsequenter Weise in einem
dreidimensionalen Eingabemedium und in entsprechenden dreidi
mensionalen Benutzeroberflächen ihre Entsprechung finden.
Neben der Maus wurde in den letzten Jahren ein weiteres Einga
bemedium, welches als Data Glove (Datenhandschuh) bezeichnet
wird, bekannt. Diese Date Glove wurde in den Jahren 1984 bis
1987 von der Firma VPL-Research von Thomas G. Zimmermann und
L. Young Harvill entwickelt. Der Data Glove übersetzt Bewegun
gen der Hand und der Finger in elektrische Signale. Zwischen
zwei Stofflagen verlaufen fieberoptische Kabel entlang aller
Finger und des Daumens. Beide Enden jedes Kabels münden in ein
Interface-Board nahe des Handgelenks. Eine lichtemittierende
Diode an einem Ende sendet Licht entlang des Kabels zu einem
Phototransistor am anderen Ende, der das Licht in ein elektri
sches Signal umwandelt. Das Signal gelant vom Handgelenk zum
angeschlossenen Rechner durch ein angeschlossenes Kabel. Je
stärker die Finger gekrümmt werden, desto größer ist der
Lichtverlust im fieberoptischen Kabel, und desto kleiner damit
das entsprechende elektrische Signal. Die Lage und Orientie
rung der Hand im Raum wird mit Hilfe eines sog. Pollhemus-Sen
sors (Mc Donnel Douglas Corporation), der auf dem Handrücken
montiert wird, bestimmt. Dieser Sensor mißt die Stärke und
Orientierung dreier aufeinander senkrecht stehender künstlich
erzeugter Magnetfelder im Raum.
Die Nachteile des Data Glove sind in erster Linie in seinem
hohen Preis und in seiner relativ hohen Anfälligkeit gegenüber
mechanischen Einflüssen zu sehen. Ferner bestehen erhebliche
Akzeptanzprobleme, da der Data Glove nicht immer angenehm zu
tragen ist. Ferner schränkt der Data Glove die Beweglichkeit
des Anwenders durch Zuführungskabel und sein Gewicht ein. Der
Benutzer ist durch den Data Glove allgemein in seiner Aktions
fähigkeit eingeschränkt, da er die Hand nicht für weitere Ar
beiten, wie z. B. Schreiben, verwenden kann.
Die Firma Xerox Palo Alto Research Center, der Erfinder der
Schreibtischbenutzeroberflächen von Computersystemen, stellte
vor kurzem einen Prototyp einer dreidimensionalen Benutze
roberfläche vor. Die Idee ist hierbei, daß sich auf dem Bild
schirm Strukturen befinden, welche sich in Echtzeit im dreidi
mensionalen Raum bewegen, und vom menschlichen visuellen Sy
stem in ihrer räumlichen Struktur wahrgenommen und interpre
tiert werden (Mark A. Clarkson, Xerox PARC: "An Easier Inter
face, Byte Magazine", February 1991, pp. 277-282; George G. Ro
bertson, Stuart K. Card and Jock D. Mackinlay, Xerox PARC:
"The Cognitive Coprocessor Architecture for Interactive User
Interfaces", Proceedings of the ACM SIGGRAPH Symposium on User
Interface Software and Technology, New York 1989, pp. 10-18).
Für eine sinnvolle Arbeit mit derartigen dreidimensionalen Be
nutzeroberflächen wird ein dreidimensionales Eingabegerät für
Computer benötigt. Wünschenswert ist ein dreidimensionales
Eingabemedium, welches den Benutzer nicht behindert, so daß er
frei arbeiten kann, das vom Benutzer möglichst wenig Anpassung
an seinen Rechnerarbeitsplatz fordert, das in der Lage ist,
menschliche Metaphern zu erkennen und zu interpretieren und
das relativ unabhängig gegenüber Umwelteinflüssen ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Datenverarbei
tungssystem anzugeben, welches in der Lage ist, die Ausdrucks
formen der menschlichen Gestik direkt in Befehle zu seiner
Steuerung umzusetzen. Diese Aufgabe wird durch ein Datenverar
beitungssystem mit Merkmalen nach Anspruch 1 gelöst.
Bei diesem Datenverarbeitungssystem, welches durch Ausdrucks
formen der menschlichen Gestik gesteuert wird, sind Mittel
vorgesehen, zur Aufnahme von Bildern des menschlichen Körpers
oder von Körperteilen, zur Extraktion solcher Ausdrucksformen
aus solchen Bildern, und zur Übersetzung solcher Ausdrucksfor
men in Befehle zur Steuerung des Datenverarbeitungssystems.
Ein derartiges Datenverarbeitungssystem macht die Verwendung
technischer Eingabemedien, wie z. B. einer Maus oder einer Ta
statur, weitgehend, wenn nicht völlig, entbehrlich. In einer
bevorzugten Ausführungsform der Erfindung ist bei dem Daten
verarbeitungssystem eine graphische Benutzeroberfläche vorge
sehen, deren Bedienungselemente mit Hilfe von Objekten manipu
liert werden können, welche extrahierte Ausdrucksformen der
menschlichen Gestik darstellen, wodurch das Datenverarbei
tungssystem gesteuert wird. Die graphische Benutzeroberfläche
kann dabei sowohl zweidimensional als auch dreidimensional
sein. Eine Weiterbildung der Erfindung sieht vor, daß extra
hierte Ausdrucksformen der menschlichen Gestik durch Objekte
auf dieser graphischen Benutzeroberfläche dargestellt werden,
welche geeignet sind, Bewegungen und Stellungen der menschli
chen Hand oder beider Hände eines Menschen zu visualisieren.
Dabei ist es besonders vorteilhaft, wenn die graphische Benut
zeroberfläche des Datenverarbeitungssystems Strukturmerkmale
der realen Arbeitsumgebung eines typischen Anwenders des Da
tenverarbeitungssystems oder Strukturmerkmale von Gegenständen
aus dieser Arbeitsumgebung aufweist, wobei Bedienungselemente
dieser Benutzeroberfläche mit Hilfe graphischer Darstellungen
von Gegenständen aus dieser Arbeitsumgebung oder Teilen sol
cher Gegenstände visualisiert werden. Je nach Anwendungsart
kann die graphische Benutzeroberfläche dabei z. B. Struktur
merkmale eines Schreibtisches aufweisen. Zusätzlich oder al
ternativ dazu kann die graphische Benutzeroberfläche auch
Strukturmerkmale eines Karteikastens oder mehrerer Karteikä
sten aufweisen. Für viele Anwendungen ist es vorteilhaft, wenn
die graphische Benutzeroberfläche außerdem Strukturmerkmale
eines Schriftstücks oder mehrerer Schriftstücke aufweist.
Schließlich gibt es eine Reihe von Anwendungen, für welche die
graphische Benutzeroberfläche vorteilhaft Strukturmerkmale ei
nes Aktenschranks oder mehrerer Aktenschränke aufweist. Für
eine Reihe von Anwendungen ist es vorteilhaft, wenn die Benut
zeroberfläche gleichzeitig Strukturmerkmale von mehreren der
genannten Arbeitsumgebungen bzw. von mehreren Gegenständen aus
einer Arbeitsumgebung aufweist.
In anderen Anwendungen sind graphische Benutzeroberflächen be
sonders geeignet, welche Strukturmerkmale einer technischen
Leitwarte aufweisen. Schließlich ist es in einer Reihe von me
dizintechnischen Anwendungen vorteilhaft, wenn die graphische
Benutzeroberfläche Strukturmerkmale bestimmter medizintechni
scher Geräte aufweist.
Die Extraktion von Ausdrucksformen der menschlichen Gestik ge
lingt besonders zuverlässig und effizient, wenn zu diesem
Zweck die Lage von Markierungen auf der Oberfläche des men
schlichen Körpers ausgewertet wird. Bei vielen Anwendungen
kommt hierfür bevorzugt die Auswertung der Lage von Markierun
gen auf der Handoberfläche in Betracht. In anderen Anwendungen
ist es vorteilhaft, die Blickrichtung eines Anwenders, seine
Augenbewegungen, seine Kopfbewegungen, seine Mundbewegungen,
seine Mimik oder die Bewegung des Körpers insgesamt auszuwer
ten. Mit Hilfe eines derartigen Datenverarbeitungssystems ist
die intuitive Bedienung eines Computers in verschiedensten An
wendungen möglich. Im Ergebnis wird hierdurch quasi ein neues
dreidimensionales Eingabegerät für Computer geschaffen, wel
ches Handgesten und Bewegungen der menschlichen Hand erkennt,
verfolgt, interpretiert und dann zur Steuerung von Rechnerak
tionen verwendet.
Gegenüber bestehenden Eingabemedien wie z. B. einer Maus oder
einem Trackball, besitzt die erfindungsgemäße Lösung folgende
Vorteile: Sie gewährleistet eine noch intuitivere Bedienbar
keit des Rechners, welche vom Benutzer ein Minimum an Anpas
sung an seinen Rechnerarbeitsplatz fordert. Die Freiheit des
Benutzers wird weitgehend erhalten, da er kein zusätzliches
Eingabegerät bedienen muß und deshalb in seiner gewohnten Ar
beitsumgebung frei weiterarbeiten kann. Beide Hände des Be
nutzers können gleichzeitig zur Steuerung des Datenverarbei
tungssystems verwendet werden. Die räumliche Welt des Benut
zers wird bei Verwendung einer dreidimensionalen Benutzerober
fläche in eine räumliche Interaktionswelt mit dem Rechner ab
gebildet.
Claims (20)
1. Datenverarbeitungssystem, welches durch Ausdrucksformen der
menschlichen Gestik gesteuert wird, mit Mitteln
- - zur Aufnahme von Bildern des menschlichen Körpers oder Teilen davon,
- - zur Extraktion solcher Ausdrucksformen aus solchen Bil dern, und
- - zur Übersetzung solcher Ausdrucksformen in Befehle zur Steuerung des Datenverarbeitungssystems.
2. Datenverarbeitungssystem nach Anspruch 1 mit einer graphi
schen Benutzeroberfläche, auf der erste Objekte sichtbar
sind, welche Bedienungselemente der Benutzeroberfläche dar
stellen, und auf der zweite Objekte sichtbar sind, welche
extrahierte Ausdrucksformen der menschlichen Gestik dar
stellen, wobei erste Objekte mit Hilfe von zweiten Objekten
manipuliert werden können, wodurch das Datenverarbeitungs
system gesteuert wird.
3. Datenverarbeitungssystem nach Anspruch 2 mit einer zweidi
mensionalen graphischen Benutzeroberfläche.
4. Datenverarbeitungssystem nach Anspruch 2 mit einer dreidi
mensionalen graphischen Benutzeroberfläche.
5. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 4,
bei dem extrahierte Ausdrucksformen der menschlichen Gestik
durch Objekte dargestellt werden, welche geeignet sind, Be
wegungen und Stellungen der menschlichen Hand oder beider
Hände eines Menschen zu visualisieren.
6. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 5,
dessen graphische Benutzeroberfläche Strukturmerkmale der
realen Arbeitsumgebung eines typischen Anwenders des Daten
verarbeitungssystems oder Strukturmerkmale von Gegenständen
aus dieser Arbeitsumgebung aufweist, wobei Bedienungsele
mente dieser Benutzeroberfläche mit Hilfe graphischer Dar
stellungen von Gegenständen aus diese Arbeitsumgebung oder
Teilen solcher Gegenstände visualisiert werden.
7. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 6,
dessen graphische Benutzeroberfläche Strukturmerkmale ei
nes Schreibtisches aufweist.
8. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 7,
dessen graphische Benutzeroberfläche Strukturmerkmale ei
nes Karteikastens oder mehrerer Karteikästen aufweist.
9. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 8,
dessen graphische Benutzeroberfläche Strukturmerkmale ei
nes Schriftstücks oder mehrerer Schriftstücke aufweist.
10. Datenverarbeitungssystem nach einem der Ansprüche 2 bis 9,
dessen graphische Benutzeroberfläche Strukturmerkmale ei
nes Aktenschranks oder mehrerer Aktenschränke aufweist.
11. Datenverarbeitungssystem nach einem der Ansprüche 2 bis
10, dessen graphische Benutzeroberfläche Strukturmerkmale
einer technischen Leitwarte aufweist.
12. Datenverarbeitungssystem nach einem der Ansprüche 1 bis
11, dessen graphische Benutzeroberfläche Strukturmerkmale
medizintechnischer Geräte aufweist.
13. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Lage von Markierungen auf der Ober
fläche des menschlichen Körpers zur Extraktion von Aus
drucksformen der menschlichen Gestik auswertet.
14. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Lage von Markierungen auf der Hand
oberfläche zur Extraktion von Ausdrucksformen der men
schlichen Gestik auswertet.
15. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Blickrichtung eines Anwenders auswer
tet.
16. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Augenbewegungen eines Anwenders aus
wertet.
17. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Kopfbewegung eines Anwenders auswer
tet.
18. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Mundbewegungen eines Anwenders aus
wertet.
19. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Mimik eines Anwenders auswertet.
20. Datenverarbeitungssystem nach einem der vorhergehenden An
sprüche, welches die Körperbewegung eines Anwenders aus
wertet.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19924201934 DE4201934A1 (de) | 1992-01-24 | 1992-01-24 | Gestik computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19924201934 DE4201934A1 (de) | 1992-01-24 | 1992-01-24 | Gestik computer |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4201934A1 true DE4201934A1 (de) | 1993-07-29 |
Family
ID=6450191
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19924201934 Withdrawn DE4201934A1 (de) | 1992-01-24 | 1992-01-24 | Gestik computer |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4201934A1 (de) |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19601026A1 (de) * | 1996-01-13 | 1997-07-17 | Gordon Pipa | Entwicklung eines Gerätes welches es ermöglicht einen Computer mittels der Augenbewegung zu steuern |
DE19845027A1 (de) * | 1998-09-30 | 2000-04-06 | Siemens Ag | Medizintechnisches System |
US6175610B1 (en) | 1998-02-11 | 2001-01-16 | Siemens Aktiengesellschaft | Medical technical system controlled by vision-detected operator activity |
DE10022321A1 (de) * | 2000-05-09 | 2001-11-15 | Bayerische Motoren Werke Ag | Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung |
DE10125653C1 (de) * | 2001-05-25 | 2002-11-07 | Siemens Ag | Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung |
EP1477351A2 (de) | 2003-05-15 | 2004-11-17 | Webasto AG | Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten |
EP1830244A2 (de) | 2006-03-01 | 2007-09-05 | Audi Ag | Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs |
US7312788B2 (en) | 2003-03-11 | 2007-12-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Gesture-based input device for a user interface of a computer |
DE102008004980A1 (de) * | 2008-01-17 | 2009-08-06 | Hansjörg Lienert | Vorrichtung für die Datenein- und -ausgabe |
EP2283790A1 (de) | 2009-08-14 | 2011-02-16 | Karl Storz GmbH & Co. KG | Steuerung und Verfahren zum Betreiben einer Operationsleuchte |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
DE102014207637A1 (de) | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US9945660B2 (en) | 2012-01-17 | 2018-04-17 | Leap Motion, Inc. | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US10099368B2 (en) | 2016-10-25 | 2018-10-16 | Brandon DelSpina | System for controlling light and for tracking tools in a three-dimensional space |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US10739862B2 (en) | 2013-01-15 | 2020-08-11 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPH02132510A (ja) * | 1988-11-12 | 1990-05-22 | Sony Corp | 入力装置 |
EP0393368A2 (de) * | 1989-03-20 | 1990-10-24 | Hitachi, Ltd. | Rechner-Mensch-Schnittstelle |
EP0438017A2 (de) * | 1990-01-18 | 1991-07-24 | International Business Machines Corporation | Verfahren zum graphischen Zugriff auf elektronische Daten mit beweglichen Ikonen |
-
1992
- 1992-01-24 DE DE19924201934 patent/DE4201934A1/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4843568A (en) * | 1986-04-11 | 1989-06-27 | Krueger Myron W | Real time perception of and response to the actions of an unencumbered participant/user |
JPH02132510A (ja) * | 1988-11-12 | 1990-05-22 | Sony Corp | 入力装置 |
EP0393368A2 (de) * | 1989-03-20 | 1990-10-24 | Hitachi, Ltd. | Rechner-Mensch-Schnittstelle |
EP0438017A2 (de) * | 1990-01-18 | 1991-07-24 | International Business Machines Corporation | Verfahren zum graphischen Zugriff auf elektronische Daten mit beweglichen Ikonen |
Non-Patent Citations (2)
Title |
---|
Mc Avinney, Paul: Telltale Gestures, In: BYTE 7/1990 S. 237-240 * |
Ohmura, Kazunori et. al.: Method of detecting facedirection using image processing for human interface, In: SPIE Vol. 1001 Visual Communications and Image Processing 1988, S. 625-632 * |
Cited By (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19601026A1 (de) * | 1996-01-13 | 1997-07-17 | Gordon Pipa | Entwicklung eines Gerätes welches es ermöglicht einen Computer mittels der Augenbewegung zu steuern |
US6175610B1 (en) | 1998-02-11 | 2001-01-16 | Siemens Aktiengesellschaft | Medical technical system controlled by vision-detected operator activity |
DE19845027A1 (de) * | 1998-09-30 | 2000-04-06 | Siemens Ag | Medizintechnisches System |
DE19845027C2 (de) * | 1998-09-30 | 2000-08-31 | Siemens Ag | Medizintechnisches System |
DE10022321A1 (de) * | 2000-05-09 | 2001-11-15 | Bayerische Motoren Werke Ag | Vorrichtung in Fahrzeugen zum Erkennen einer Handstellung |
DE10125653C1 (de) * | 2001-05-25 | 2002-11-07 | Siemens Ag | Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung |
EP1262158A3 (de) * | 2001-05-25 | 2003-10-29 | Siemens Aktiengesellschaft | Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung |
US7312788B2 (en) | 2003-03-11 | 2007-12-25 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Gesture-based input device for a user interface of a computer |
DE10321964A1 (de) * | 2003-05-15 | 2004-12-09 | Webasto Ag | Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten |
US7342485B2 (en) | 2003-05-15 | 2008-03-11 | Webasto Ag | Motor vehicle roof with a control means for electrical motor vehicle components and process for operating electrical motor vehicle components |
DE10321964B4 (de) * | 2003-05-15 | 2008-05-29 | Webasto Ag | Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten |
EP1477351A2 (de) | 2003-05-15 | 2004-11-17 | Webasto AG | Fahrzeugdach mit einer Bedieneinrichtung für elektrische Fahrzeugkomponenten sowie Verfahren zur Bedienung elektrischer Fahrzeugkomponenten |
EP1830244A2 (de) | 2006-03-01 | 2007-09-05 | Audi Ag | Verfahren und Vorrichtung zum Betreiben von zumindest zwei Funktionskomponenten eines Systems, insbesondere eines Fahrzeugs |
DE102008004980A1 (de) * | 2008-01-17 | 2009-08-06 | Hansjörg Lienert | Vorrichtung für die Datenein- und -ausgabe |
US8817085B2 (en) | 2009-08-14 | 2014-08-26 | Karl Storz Gmbh & Co. Kg | Control system and method to operate an operating room lamp |
EP2283790A1 (de) | 2009-08-14 | 2011-02-16 | Karl Storz GmbH & Co. KG | Steuerung und Verfahren zum Betreiben einer Operationsleuchte |
US9778752B2 (en) | 2012-01-17 | 2017-10-03 | Leap Motion, Inc. | Systems and methods for machine control |
US11782516B2 (en) | 2012-01-17 | 2023-10-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US12086327B2 (en) | 2012-01-17 | 2024-09-10 | Ultrahaptics IP Two Limited | Differentiating a detected object from a background using a gaussian brightness falloff pattern |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US10767982B2 (en) | 2012-01-17 | 2020-09-08 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US9436998B2 (en) | 2012-01-17 | 2016-09-06 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US10699155B2 (en) | 2012-01-17 | 2020-06-30 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9495613B2 (en) | 2012-01-17 | 2016-11-15 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging using formed difference images |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9626591B2 (en) | 2012-01-17 | 2017-04-18 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9652668B2 (en) | 2012-01-17 | 2017-05-16 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9672441B2 (en) | 2012-01-17 | 2017-06-06 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US9697643B2 (en) | 2012-01-17 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9741136B2 (en) | 2012-01-17 | 2017-08-22 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US9767345B2 (en) | 2012-01-17 | 2017-09-19 | Leap Motion, Inc. | Systems and methods of constructing three-dimensional (3D) model of an object using image cross-sections |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US11308711B2 (en) | 2012-01-17 | 2022-04-19 | Ultrahaptics IP Two Limited | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9934580B2 (en) | 2012-01-17 | 2018-04-03 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US9945660B2 (en) | 2012-01-17 | 2018-04-17 | Leap Motion, Inc. | Systems and methods of locating a control object appendage in three dimensional (3D) space |
US9153028B2 (en) | 2012-01-17 | 2015-10-06 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10565784B2 (en) | 2012-01-17 | 2020-02-18 | Ultrahaptics IP Two Limited | Systems and methods for authenticating a user according to a hand of the user moving in a three-dimensional (3D) space |
US10366308B2 (en) | 2012-01-17 | 2019-07-30 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging based on differences between images |
US10410411B2 (en) | 2012-01-17 | 2019-09-10 | Leap Motion, Inc. | Systems and methods of object shape and position determination in three-dimensional (3D) space |
US11720180B2 (en) | 2012-01-17 | 2023-08-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US10097754B2 (en) | 2013-01-08 | 2018-10-09 | Leap Motion, Inc. | Power consumption in motion-capture systems with audio and optical signals |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US11740705B2 (en) | 2013-01-15 | 2023-08-29 | Ultrahaptics IP Two Limited | Method and system for controlling a machine according to a characteristic of a control object |
US11353962B2 (en) | 2013-01-15 | 2022-06-07 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US11874970B2 (en) | 2013-01-15 | 2024-01-16 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US10739862B2 (en) | 2013-01-15 | 2020-08-11 | Ultrahaptics IP Two Limited | Free-space user interface and control using virtual constructs |
US10585193B2 (en) | 2013-03-15 | 2020-03-10 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US11693115B2 (en) | 2013-03-15 | 2023-07-04 | Ultrahaptics IP Two Limited | Determining positional information of an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10452151B2 (en) | 2013-04-26 | 2019-10-22 | Ultrahaptics IP Two Limited | Non-tactile interface systems and methods |
US11776208B2 (en) | 2013-08-29 | 2023-10-03 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11282273B2 (en) | 2013-08-29 | 2022-03-22 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US12086935B2 (en) | 2013-08-29 | 2024-09-10 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US10846942B1 (en) | 2013-08-29 | 2020-11-24 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11461966B1 (en) | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11775033B2 (en) | 2013-10-03 | 2023-10-03 | Ultrahaptics IP Two Limited | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
WO2015162058A1 (de) | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem fahrerinformationssystem eines fahrzeuges |
US10585487B2 (en) | 2014-04-23 | 2020-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Gesture interaction with a driver information system of a vehicle |
DE102014207637A1 (de) | 2014-04-23 | 2015-10-29 | Bayerische Motoren Werke Aktiengesellschaft | Gesteninteraktion mit einem Fahrerinformationssystem eines Fahrzeuges |
US11778159B2 (en) | 2014-08-08 | 2023-10-03 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US12095969B2 (en) | 2014-08-08 | 2024-09-17 | Ultrahaptics IP Two Limited | Augmented reality with motion sensing |
US10099368B2 (en) | 2016-10-25 | 2018-10-16 | Brandon DelSpina | System for controlling light and for tracking tools in a three-dimensional space |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4201934A1 (de) | Gestik computer | |
Gabbard | A taxonomy of usability characteristics in virtual environments | |
EP3143478B1 (de) | Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung | |
DE69434843T2 (de) | Am Kopf montierte Bildanzeigevorrichtung und diese enthaltendes Datenverarbeitungssystem | |
DE102009032637B4 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
Poupyrev et al. | Developing a generic augmented-reality interface | |
DE69432344T2 (de) | Dateneingabevorrichtung mit Anzeigetastatur | |
Duval et al. | Improving awareness for 3D virtual collaboration by embedding the features of users’ physical environments and by augmenting interaction tools with cognitive feedback cues | |
Kim et al. | Tangible 3D: Hand Gesture Interaction for Immersive 3D Modeling. | |
DE69026516T2 (de) | Digitalisiertablett mit zweimodenläufer/maus | |
Jeffri et al. | Guidelines for the interface design of ar systems for manual assembly | |
WO2004034241A2 (de) | Schnell-eingabevorrichtung | |
Zhang et al. | Design and evaluation of bare-hand interaction for precise manipulation of distant objects in AR | |
Lu et al. | Classification, application, challenge, and future of midair gestures in augmented reality | |
DE112019002798T5 (de) | Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm | |
Tano et al. | Three design principles learned through developing a series of 3D sketch systems:“Memory Capacity”,“Cognitive Mode”, and “Life-size and Operability” | |
Card | The Human, the Computer, the Task, and Their Interaction—Analytic Models and Use-Centered Design | |
Heemsbergen et al. | Physical digitality: Making reality visible through multimodal digital affordances for human perception | |
Poor et al. | Applying the Norman 1986 user-centered model to post-WIMP UIs: Theoretical predictions and empirical outcomes | |
Bornschein et al. | Collaborative tactile graphic workstation for touch-sensitive pin-matrix devices | |
Su et al. | A logical hand device in virtual environments | |
DE10054242A1 (de) | Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung | |
Chignell et al. | Human—computer interaction: The psychology of augmented human behavior | |
Soares et al. | Ego-exo: A cooperative manipulation technique with automatic viewpoint control | |
Wanick et al. | Applying games design thinking for scientific data visualization in virtual reality environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8130 | Withdrawal |