DE10054242A1 - Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung - Google Patents
Verfahren zum Eingeben von Daten in ein System und EingabeeinrichtungInfo
- Publication number
- DE10054242A1 DE10054242A1 DE10054242A DE10054242A DE10054242A1 DE 10054242 A1 DE10054242 A1 DE 10054242A1 DE 10054242 A DE10054242 A DE 10054242A DE 10054242 A DE10054242 A DE 10054242A DE 10054242 A1 DE10054242 A1 DE 10054242A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- user
- display
- real
- real image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Abstract
Es wird ein Verfahren zum Eingeben von Daten in ein System und eine Eingabeeinrichtung angegeben. DOLLAR A Hierbei möchte man die Kommunikation zwischen einem Menschen und einem System anders gestalten können. DOLLAR A Hierzu ist eine Eingabeeinrichtung (1) vorgesehen mit einem Augenvorsatz (3), der mindestens ein Display (4) aufweist, eine Bildaufnahmeeinrichtung (5), deren Bildaufnahme als reelles Bild (11) im Display (4) anzeigbar ist, einem Bildgenerator (7), der ein virtuelles Bild (12) in das Display (4) einblendet und eine Auswerteeinrichtung (8), die mit der Bildaufnahmeeinrichtung (5) gekoppelt ist und Bereiche des reellen Bildes (11) auswertet, die denen des virtuellen Bildes (12) auf dem Display (4) entsprechen. Man nimmt also ein reelles Bild auf und zeigt es dem Benutzer an, erzeugt ein virtuelles Bild und blendet es in das reelle Bild ein und wertet das reelle Bild in Bereichen aus, die denjenigen des virtuellen Bildes entsprechen.
Description
Die Erfindung betrifft ein Verfahren zum Eingeben von
Daten in ein System und eine Eingabeeinrichtung.
Die Erfindung soll im folgenden an einem Beispiel be
schrieben werden, bei dem ein Benutzer Daten ähnlich
wie bei der Eingabe über eine alphanumerische Tatstatur
in ein System, beispielsweise einen Computer oder eine
andere Datenverarbeitungseinrichtung, eingeben möchte.
Die Erfindung ist jedoch nicht darauf beschränkt. Man
kann sie beispielsweise auch in Fällen anwenden, in den
ein Benutzer ein Musikinstrument über Tasten oder ande
re Betätigungselemente spielen möchte. Ein weiterer An
wendungsfall ist das Navigieren mit Hilfe von Landkar
ten, bei dem der Benutzer Start und Ziel auf der Land
karte antippt. Man kann auch eine Daten- oder Informa
tionseingabe bewerkstelligen, bei denen ein Benutzer in
"on-screen-Menüs" navigiert.
Unter "Daten" sollen im folgenden alle Arten von Infor
mationen verstanden werden, also nicht nur die Eingabe
von alphanumerischen Zeichen.
Zur Dateneingabe sind neben der herkömmlichen Tasta
tureingabe weitere Möglichkeiten bekannt.
In DE 197 39 285 C1 ist eine Vorrichtung zur Darstel
lung und virtuellen Eingabe von Daten beschrieben, bei
der ein Projektor ein Bild auf die Rückseite einer
durchsichtigen Projektionsfläche projiziert, so daß es
von der Vorderseite aus sichtbar ist. Die Vorderseite
ihrerseits wird von einer Kamera überwacht, die mit ei
ner Auswerteeinrichtung verbunden ist. Wenn ein Benut
zer mit seinen Fingern oder einem Werkzeug auf bestimm
te Bereiche des projizierten Bildes tippt, wird dies
von der Kamera erfaßt und von der Auswerteeinrichtung
ausgewertet. Es wird also sozusagen eine "virtuelle"
Tastatur erzeugt.
GB 2 308 212 A beschreibt eine Eingabeeinrichtung, bei
der ein Benutzer auf einen dicht vor dem Auge angeord
neten Schirm schaut, auf dem Informationsinhalte, bei
spielsweise Buchstaben oder Zahlen, in einzelnen Fel
dern abgebildet sind. Eine Kamera überwacht und erfaßt
die Position des Auges. Wenn das Auge auf einem Infor
mationsfeld verharrt, nimmt es an, daß der Benutzer die
Informationen dieses Informationsfeldes eingeben woll
te.
GB 2 299 856 A beschreibt eine Eingabeeinrichtung, bei
der ein Benutzer mit einem Lichtgriffel auf einer Un
terlage schreibt, wobei die Position des Lichtgriffels
fortlaufend erfaßt werden kann.
US 6 104 384 zeigt einen Bildschirm, auf dem verschie
dene Teilflächen mit unterschiedlichen Informationen
angezeigt werden. Durch das Anklicken einer Teilfläche
mit Hilfe eines Maus-Zeigers kann man eine Eingabe be
wirken.
Der Erfindung liegt die Aufgabe zugrunde, die Kommuni
kation zwischen einem Menschen und einem System anders
zu gestalten.
Diese Aufgabe wird durch ein Verfahren zum Eingeben von
Daten in ein System gelöst, bei dem man ein reelles
Bild aufnimmt und dem Benutzer anzeigt, ein virtuelles
Bild erzeugt und in das reelle Bild einblendet und das
reelle Bild in Bereichen auswertet, die denjenigen des
virtuellen Bildes entsprechen.
Der Benutzer sieht also in der Anzeige des reellen Bil
des, beispielsweise auf einem Monitor oder auf einem
Display, ein virtuelles Bild eingeblendet, das bei
spielsweise einer alphanumerischen Tastatur entsprechen
kann. Der Benutzer kann nun, auf welche Art auch immer,
in einzelnen Bereichen des reellen Bildes Änderungen
vornehmen. Diese Änderungen werden ihm angezeigt. Da
das reelle Bild durch das virtuelle Bild überlagert
ist, hat der Benutzer die Möglichkeit, die Änderungen
des reellen Bildes gezielt vorzunehmen. Durch die An
zeige des reellen Bildes können nämlich die Änderungen
auf den Benutzer zurückgekoppelt werden, so daß er so
fort beurteilen kann, ob die von ihm bewirkte Änderung
an der gewünschten Stelle erfolgt ist oder nicht.
Gleichzeitig kann man die Änderungen des reellen Bildes
auswerten und zwar unter Berücksichtigung der Inhalte,
die im virtuellen Bild angezeigt werden. Wenn bei
spielsweise das virtuelle Bild eine alphanumerische Tastatur
beinhaltet und der Benutzer eine Änderung in der
Realität vornimmt, die zu einer Veränderung des reellen
Bildes dort führt, wo das virtuelle Bild den Buchstaben
"a" anzeigt, dann ergibt sich bei der Auswertung des
reellen Bildes die Eingabe des Buchstabens "a" in das
System.
Vorzugsweise bewirkt der Benutzer Änderungen des reel
len Bildes durch Bewegung einer Hand oder eines handge
führten Werkzeugs. Der Benutzer tippt also in der Rea
lität dorthin, wo im virtuellen Bild die gewünschte Ta
ste oder eine andere Informationsschaltfläche angeord
net ist. Dieses "Tippen" wird erfaßt, weil es eine Än
derung des reellen Bildes bewirkt.
Die Aufgabe wird auch durch eine Eingabeeinrichtung ge
löst mit einem Augenvorsatz, der mindestens ein Display
aufweist, eine Bildaufnahmeeinrichtung, deren Bildauf
nahme als reelles Bild im Display anzeigbar ist, einem
Bildgenerator, der ein virtuelles Bild in das Display
einblendet und eine Auswerteeinrichtung, die mit der
Bildaufnahmeeinrichtung gekoppelt ist und Bereiche des
reellen Bildes auswertet, die denen des virtuellen Bil
des auf dem Display entsprechen.
Als Augenvorsatz kann man Brillen, Helme, Visiere oder
andere Einrichtungen verwenden, die es ermöglichen, ein
Display vor dem Auge des Benutzers zu halten. Zweckmä
ßigerweise sollte das Display so dicht vor dem Auge an
geordnet sein, daß der Benutzer nur das Bild auf dem
Display wahrnimmt. Da die Bildaufnahmeeinrichtung
gleichzeitig ein reelles Bild erzeugt, ist für den Be
nutzer damit im Grunde kein Informationsverlust über
seine Umwelt verbunden. Er sieht zwar nicht unmittelbar
seine Umgebung. Er sieht aber das Abbild der Umgebung,
wie es auf dem Display dargestellt ist. Dieses Bild
wird als reelles Bild definiert. Zusätzlich ist in dem
Display ein virtuelles Bild erkennbar, beispielsweise
eine alphanumerische Tastatur, eine Klaviatur oder ähn
liches. Der Benutzer kann dann das reelle Bild verän
dern. Hierzu kann er beispielsweise seine Finger, ande
re Körperteile, Werkzeuge oder ähnliches verwenden. Der
Einfachheit halber wird die Erfindung im folgenden an
hand der Finger des Benutzers erläutert. Da der Benut
zer seine Finger in dem reellen Bild sieht, kann er
seine Finger dorthin bewegen, wo auf dem Display das
virtuelle Bild dargestellt ist. Die Änderung des reel
len Bildes wird von der Bildaufnahmeeinrichtung, bei
spielsweise einer Kamera, erfaßt und kann mit herkömm
licher Bilderkennungssoftware ausgewertet werden. Bei
der Auswertung werden zusätzlich die Informationen des
virtuellen Bildes berücksichtigt. Die Information, die
dem entsprechenden Bereich des virtuellen Bildes als
Informationsgehalt zugeordnet ist, wird über die Zuord
nung des virtuellen Bildes zum reellen Bild ausgewer
tet. Die Eingabeeinrichtung hat eine Reihe von Vortei
len: Die eingegebene Information ist nur für den Benut
zer erkennbar. Von außen kann man zwar erkennen, daß
der Benutzer mit seinen Fingern im Raum oder auf einer
Unterlage Bewegungen ausführt. Diesen Bewegungen ist
jedoch keine Information zugeordnet, beispielsweise ist
nicht erkennbar, welche "Tasten" der Benutzer gerade
betätigt, wie dies bei einem herkömmlichen transporta
blen Personalcomputer (Laptop) der Fall wäre. Darüber
hinaus kann man das virtuelle Bild im Rahmen der Anzei
gemöglichkeiten praktisch beliebig groß machen, so daß
es insbesondere sehbehinderten Menschen erleichtert
wird, einzelne Teilbereiche des virtuellen Bildes von
einander zu unterscheiden und gezielt anzusteuern.
Vorzugsweise sind der Augenvorsatz und die Bildaufnah
meeinrichtung miteinander gekoppelt. Wenn der Benutzer
seinen Kopf bewegt, bewegt sich der Augenvorsatz mit.
Gleichzeitig wird die Bildaufnahmeeinrichtung entspre
chend mitbewegt, so daß sich das reelle Bild, das der
Benutzer auf dem Display sieht, mit seiner Bewegung än
dert. Damit kann der Benutzer auch während der Daten
eingabe visuell mit seiner Umwelt kommunizieren.
Vorzugsweise ist die Bildaufnahmeeinrichtung am Augen
vorsatz angeordnet. Eine derartige Ausbildung ist bei
spielsweise von Nachtsichtbrillen her bekannt. Bei die
ser Anordnung ist die Zuordnung des reellen Bildes, das
auf dem Display angezeigt wird, zu der Realität am be
sten beizubehalten.
Vorzugsweise ist der Bildgenerator so einstellbar, daß
das virtuelle Bild auf einem wählbaren Bereich des re
ellen Bildes liegt. Beispielsweise kann es für den Be
nutzer von Vorteil sein, wenn das virtuelle Bild auf
einer Tischplatte "liegt". In diesem Fall wird der Be
nutzer zur Eingabe bestimmte Bereiche der Tischplatte
antippen, um die jeweilige Information, die dem ent
sprechenden Bereich des virtuellen Bildes zugeordnet
ist, in das System einzugeben. Von außen ist diese In
formation jedoch nicht erkennbar. Die Zuordnung des
virtuellen Bildes zu einem Gegenstand erleichtert in
vielen Fällen die Koordination der Finger des Benutzers
oder eines Werkzeugs im Hinblick auf die Treffsicher
heit der Bereiche des virtuellen Bildes im reellen
Bild.
Bevorzugterweise ist das virtuelle Bild in eine Mehr
zahl von Teilbereiche unterteilt und die Auswerteein
richtung reagiert auf vorbestimmte Änderungen in den
Teilbereichen. Die Teilbereiche können beispielsweise
so angeordnet sein, wie Tasten einer alphanumerischen
Tastatur. Die Auswerteeinrichtung reagiert nur dann,
wenn der Benutzer eine "Taste" eindeutig trifft. Sobald
die Taste nicht mehr eindeutig identifizierbar ist,
wird keine Information zur Eingabe identifiziert. Die
vorbestimmten Änderungen können beispielsweise darin
bestehen, daß die Auswerteeinrichtung darauf reagiert,
daß die Farbe des Teilbereichs in Hautfarben geändert
wird, wenn vorgesehen ist, daß der Bediener mit seinen
Fingern hantiert, um die Eingaben vorzunehmen.
Vorzugsweise sind die Teilbereiche markiert. Der Benut
zer kann also auf dem Display sofort erkennen, welche
Informationen einem bestimmten Teilbereich zugeordnet
ist. Wenn er dann durch eine Aktion in der Realität und
der damit verbundenen Änderungen des reellen Bildes den
entsprechenden Teilbereich des virtuellen Bildes "be
rührt", dann wird die entsprechende Information ausge
wertet.
Vorzugsweise weisen die Teilbereiche jeweils eine Betä
tigungsmarkierung auf und die Auswerteeinrichtung ist
mit dem Bildgenerator gekoppelt, der nach einer Ände
rung und einer vorbestimmten Wartezeit die Betätigungs
markierung ändert. Damit ist es möglich, dem Benutzer
eine Rückkopplung dahingehend zu verschaffen, daß das
System die gewünschte Information erhalten hat. Bei
spielsweise kann man den Teilbereichen als Markierung
einen Buchstaben zuweisen, vorzugsweise den Buchstaben,
der als Information mit dem Teilbereich verbunden sein
soll. Dieser Buchstabe kann dann seine Farbe ändern
oder verschwinden, wenn das System die Information an
genommen hat.
In einer bevorzugten Ausgestaltung ist vorgesehen, daß
die Bildaufnahmeeinrichtung zwei Bilder aus unter
schiedlichen Blickwinkeln aufnimmt. Bei dieser Ausge
staltung ergibt sich sozusagen eine Stereo-Bilderfas
sung, mit der es möglich ist, eine weitere Achse der
Fingerbewegung auszuwerten, so daß die Eingabeeinrich
tung mit einer erhöhten Zuverlässigkeit feststellen
kann, wann der Benutzer auf eine bestimmte "Taste" ge
tippt hat. Mit der räumlichen Erfassung kann man auch
die Auswertemöglichkeiten erweitern. Beispielsweise
kann der Benutzer virtuelle 3D-Objekte (dreidimen
sionale Objekte) manipulieren, d. h. er greift mit sei
nen Händen nach Objekten, die auf dem Display einge
blendet sind. Da die beiden Kameras die Hände aufnehmen
kann, kann die Software sogar die verdeckten Kanten der
Objekte korrekt berechnen.
Alternativ oder zusätzlich kann vorgesehen sein, daß
die Eingabeeinrichtung einen Kontaktgeber aufweist. Die
Information wird also dann ausgewertet oder übertragen,
wenn der Benutzer einerseits einen Bereich im virtuel
len Bild markiert hat und andererseits ein Kontakt über
den Kontaktgeber ausgelöst wird.
Hierbei ist besonders bevorzugt, daß der Kontaktgeber
als Handschuh oder Fingerüberzug ausgebildet ist. Die
Kontakte können auf alle möglichen Arten ausgebildet
sein, d. h. elektromechanisch, optisch, kapazitiv, in
duktiv, thermisch, piezoelektrisch oder ähnlich. Diese
Ausgestaltung ist insbesondere dann von Vorteil, wenn
gleichzeitig das virtuelle Bild auf einen bestimmten
Gegenstand im reellen Bild projiziert wird, beispielsweise
die oben erwähnte Tischplatte. Die Eingabe der
Information erfolgt dann, wenn der Benutzer auf den Be
reich der Tischplatte tippt, der im reellen Bild auf
dem Display mit dem Teilbereich des virtuellen Bildes
überlagert ist, dem die einzugebende Information zuge
ordnet ist.
In einer besonders bevorzugten Ausgestaltung ist vorge
sehen, daß das Display einen Anzeigebereich aufweist,
in dem Ergebnisse der Auswerteeinrichtung anzeigbar
sind. Der Benutzer sieht also im Display sofort, was er
eingegeben hat. Dies ist eine verbesserte Rückkopp
lungsmöglichkeit, die dem Benutzer die Eingabe von Da
ten erleichtert.
Die Erfindung wird im folgenden anhand eines bevorzug
ten Ausführungsbeispiels in Verbindung mit der Zeich
nung näher beschrieben. Hierin zeigen:
Fig. 1 eine Eingabeeinrichtung,
Fig. 2 einen Benutzer mit einer Abbildung des reel
len Bildes,
Fig. 3 den Benutzer mit der Abbildung des reellen
Bildes, in das ein virtuelles Bild eingeblen
det ist und
Fig. 4 den Benutzer bei der Dateneingabe.
Fig. 1 zeigt eine Eingabeeinrichtung 1 in Form einer
Brille. Die Brille kann, wie dies von Brillen allgemein
bekannt ist, vor den Augen eines Benutzers 2 angeordnet
werden. Anstelle der in Fig. 1 dargestellten Brille
kann man auch andere Arten von Augenvorsätzen verwenden,
beispielsweise einen Helm, ein Visier oder ähnli
ches.
Die Brille 3 weist zwei Displays 4 und eine Kamera 5
auf, die in einem Gehäuse 6 angeordnet sind. In dem Ge
häuse 6 sind ferner ein Bildgenerator 7 und eine Aus
werteeinrichtung 8' untergebracht, die allerdings nur
schematisch angedeutet sind. Zur Weiterleitung von In
formationen an ein angeschlossenes System, beispiels
weise ein Datenverarbeitungssystem (nicht näher darge
stellt) ist ein Kabel 9 oder andere Mittel zur lei
tungslosen Übertragung von Daten, beispielsweise Sen
der/Empfänger, vorgesehen. Über das Kabel 9 kann auch
die Zufuhr von elektrischer Energie erfolgen, wenn die
Brille 3 nicht selbst mit einer Batterie ausgestattet
ist.
Derartige Brillen sind an sich bekannt, beispielsweise
als aktive Nachtsichtbrillen oder -systeme.
In Fig. 2 ist in einem Rahmen 10 das Bild dargestellt,
daß der Benutzer 2 auf den Displays 4 sieht. Da die
Displays 4 praktisch den gesamten Sichtbereich des Be
nutzers 2 abdecken, weil die Displays 4 relativ dicht
an den Augen angeordnet sind, beschränkt sich die opti
sche Wahrnehmung des Benutzers 2 auf das Bild, das in
Fig. 2 in dem Rahmen 10 dargestellt ist. Dieses Bild
ist durch die Kamera 5 aufgenommen. Es ist damit ein
Abbild der Umwelt und zwar des Bereichs, den der Benut
zer 2 normalerweise mit seinen Augen ebenfalls wahrneh
men würde. Dieses Bild wird daher im folgenden als
"reelles" Bild 11 bezeichnet. Wenn der Benutzer seinen
Kopf schwenkt oder bewegt, dann verändert sich auch der
Blickwinkel der Kamera 5. Der Benutzer 2 wird dann einen
anderen Bereich seiner Umwelt in den Displays 4 an
gezeigt bekommen.
Die Bilderzeugungseinrichtung 7 erzeugt nun ein virtu
elles Bild 12, das ebenfalls in den Displays 4 ange
zeigt wird und zwar so, daß es das reelle Bild 11 über
lagert. Vorzugsweise überdeckt das virtuelle Bild 12
das reelle Bild 11 transparent, d. h. das virtuelle Bild
12 ist durchsichtig, so daß das reelle Bild 11 voll
ständig oder abgeschwächt sichtbar bleibt.
Das virtuelle Bild 12 hat im Ausführungsbeispiel die
Form einer alphanumerischen Tastatur, wie sie von PC-
oder Schreibmaschinen-Tastaturen her bekannt ist. Diese
Tastatur ist allerdings nur für den Benutzer 2 sicht
bar. Das virtuelle Bild 12 weist eine Vielzahl von
Teilbereichen 13 auf. Jeder Teilbereich 13 entspricht
einer "Taste" einer normalen Tastatur. Jeder Teilbe
reich 13 weist eine Markierung auf, die im vorliegenden
Fall durch den Buchstaben gebildet ist, der mit dem
Teilbereich 13 verbunden ist.
Fig. 4 zeigt nun, wie der Benutzer 2 in den leeren Raum
greift, um die Teilbereiche 13 des virtuellen Bildes zu
"berühren". Tatsächlich berührt er diese Teilbereiche
natürlich nicht, weil sie in Wirklichkeit nicht vorhan
den sind. Wenn seine Hand (oder nur ein Finger) bzw.
ein Werkzeug, das in der Hand hält, in einen Bereich
des reellen Bildes kommt, der von der Kamera 5 erfaßt
wird, dann sieht der Benutzer 2 seine Hand 14 mit den
Fingern 15 und die entsprechende Zuordnung des ge
wünschten Fingers zu dem entsprechenden Teilbereich 13.
Im vorliegenden Fall "tippt" der Mittelfinger auf den
Buchstaben "V". Der Benutzer 2 hat also durch eine vi
suelle Rückkopplung laufend die Kontrolle darüber, welche
Bereiche des virtuellen Bildes 12 er nun anspricht
oder "berührt".
Die Kamera 5 und die angeschlossene Auswerteeinrichtung
8 hingegen stellt fest, daß sich das reelle Bild 11 ge
ändert hat. Beispielsweise ist in dem Bereich, der auf
dem Display mit dem Teilbereich 13 (V) angezeigt wird,
eine Farbänderung dahingehend eingetreten, daß die Far
be des Schrankes 16, der bislang angezeigt worden ist,
durch die Farbe des Fingers 15 ersetzt worden ist. Um
die Signalwirkung zu erhöhen, kann der Benutzer auch
einen Handschuh 17 tragen, der beispielsweise eine spe
zielle Farbe aufweist, so daß eine Änderung für die
Auswerteeinrichtung 8 leichter erkennbar wird.
Die Displays 4 können noch einen Anzeigebereich 18 auf
weisen, in dem die Information, die der Benutzer durch
Ansprechen der Teilbereiche eingegeben hat, erscheint,
im Beispiel der Fig. 4 erscheint in der linken oberen
Ecke des Displays 4, also im Anzeigebereich, der Buch
stabe "V". Damit hat der Benutzer 2 die Möglichkeit,
unmittelbar zu überprüfen, ob er das, was er eingeben
wollte, auch tatsächlich eingegeben hat.
Eine gewisse Schwierigkeit besteht darin, daß die Aus
werteeinrichtung 8 erkennen muß, wann der Benutzer 2
einen Teilbereich 13 tatsächlich so angesprochen hat,
daß die Information als eingegeben zu gelten hat. Mit
anderen Worten muß die Auswerteeinrichtung 8 erkennen,
ob eine "Taste" gedrückt worden ist oder nicht. Hierfür
gibt es verschiedene Möglichkeiten. Man kann beispiels
weise eine Zeitauswertung benutzen. Dabei muß der Be
nutzer 2 seinen Finger 15 eine vorbestimmte Zeit in dem
Teilbereich 13 halten. Oder es besteht die Möglichkeit,
anstelle der einen Kamera 5 zwei Kameras zu verwenden,
die ein Bild aus unterschiedlichen Blickwinkeln aufneh
men. Durch eine derartige Stereo-Bilderfassung läßt
sich dann eine räumliche Auswertung der Bewegung des
Fingers 15 vornehmen, so daß eine weitere "Achse" der
Bewegung erkennbar ist. Man kann auch den Handschuh 17
mit handelsüblichen Kontakten ausrüsten, beispielsweise
elektromechanischen, optischen, kapazitiven, indukti
ven, thermischen oder piezoelektrischen Kontakten, so
daß der Benutzer dann, wenn er beispielsweise mit einer
Hand den Teilbereich 13 berührt hat, mit der anderen
Hand den entsprechenden Kontakt auslösen kann. Noch
einfacher ist die Vorgehensweise, wenn der Benutzer bei
der Eingabe auf seine Tischplatte 19 blickt und das
virtuelle Bild 12 ebenfalls auf die Tischplatte 19 pro
jiziert wird. Gegebenenfalls kann man mit einer nicht
näher dargestellten Einstellvorrichtung die Bilderzeu
gungseinrichtung so einstellen, daß das virtuelle Bild
12 dann genau auf die Tischplatte projiziert wird. In
diesem Fall kann der Benutzer mit einem Kontakthand
schuh 17 unmittelbar beim Tippen auf den Teilbereich 13
die entsprechenden Befehle zum Einlesen der Information
geben.
Claims (13)
1. Verfahren zum Eingeben von Daten in ein System, bei
dem man ein reelles Bild aufnimmt und dem Benutzer
anzeigt, ein virtuelles Bild erzeugt und in das re
elle Bild einblendet und das reelle Bild in Berei
chen auswertet, die denjenigen des virtuellen Bil
des entsprechen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß der Benutzer Änderungen des reellen Bildes
durch Bewegung einer Hand oder eines handgeführten
Werkzeugs bewirkt.
3. Eingabeeinrichtung mit einem Augenvorsatz (3), der
mindestens ein Display (4) aufweist, eine Bildauf
nahmeeinrichtung (5), deren Bildaufnahme als reel
les Bild (11) im Display (4) anzeigbar ist, einem
Bildgenerator (7), der ein virtuelles Bild (12) in
das Display (4) einblendet und eine Auswerteein
richtung (8), die mit der Bildaufnahmeeinrichtung
(5) gekoppelt ist und Bereiche des reellen Bildes
(11) auswertet, die denen des virtuellen Bildes
(12) auf dem Display (4) entsprechen.
4. Einrichtung nach Anspruch 3, dadurch gekennzeich
net, daß der Augenvorsatz (3) und die Bildaufnahme
einrichtung (5) miteinander gekoppelt sind.
5. Einrichtung nach Anspruch 4, dadurch gekennzeich
net, daß die Bildaufnahmeeinrichtung (5) am Augen
vorsatz (3) angeordnet ist.
6. Einrichtung nach einem der Ansprüche 3 bis 5, da
durch gekennzeichnet, daß der Bildgenerator (7) so
einstellbar ist, daß das virtuelle Bild (12) auf
einem wählbaren Bereich (19) des reellen Bildes
(11) liegt.
7. Einrichtung nach einem der Ansprüche 3 bis 6, da
durch gekennzeichnet, daß das virtuelle Bild (12)
in eine Mehrzahl von Teilbereiche (13) unterteilt
ist und die Auswerteeinrichtung (8) auf vorbestimm
te Änderungen in den Teilbereichen (13) reagiert.
8. Einrichtung nach Anspruch 7, dadurch gekennzeich
net, daß die Teilbereiche (13) markiert sind.
9. Einrichtung nach Anspruch 7 oder 8, dadurch gekenn
zeichnet, daß die Teilbereiche (13) jeweils eine
Betätigungsmarkierung aufweisen und die Auswerte
einrichtung (8) mit dem Bildgenerator (7) gekoppelt
ist, der nach einer Änderung und einer vorbestimm
ten Wartezeit die Betätigungsmarkierung ändert.
10. Einrichtung nach einem der Ansprüche 3 bis 9, da
durch gekennzeichnet, daß die Bildaufnahmeeinrich
tung (5) zwei Bilder (5) aus unterschiedlichen
Blickwinkeln aufnimmt.
11. Einrichtung nach einem der Ansprüche 3 bis 10, da
durch gekennzeichnet, daß sie einen Kontaktgeber
aufweist.
12. Einrichtung nach Anspruch 11, dadurch gekennzeich
net, daß der Kontaktgeber als Handschuh (17) oder
Fingerüberzug ausgebildet ist.
13. Einrichtung nach einem der Ansprüche 3 bis 12, da
durch gekennzeichnet, daß das Display (4) einen An
zeigebereich (18) aufweist, in dem Ergebnisse der
Auswerteeinrichtung (8) anzeigbar sind.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10054242A DE10054242A1 (de) | 2000-11-02 | 2000-11-02 | Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10054242A DE10054242A1 (de) | 2000-11-02 | 2000-11-02 | Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10054242A1 true DE10054242A1 (de) | 2002-05-16 |
Family
ID=7661851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10054242A Withdrawn DE10054242A1 (de) | 2000-11-02 | 2000-11-02 | Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10054242A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004025517A1 (de) * | 2004-05-21 | 2005-12-15 | X3D Technologies Gmbh | Alphanumerische Eingabeeinrichtung |
DE112006002954B4 (de) * | 2005-10-31 | 2011-12-08 | National University Of Singapore | Virtuelles Schnittstellensystem |
DE102010041348A1 (de) * | 2010-09-24 | 2012-03-29 | Carl Zeiss Ag | Anzeigevorrichtung |
GB2494907A (en) * | 2011-09-23 | 2013-03-27 | Sony Corp | A Head-mountable display with gesture recognition |
GB2495159A (en) * | 2011-09-23 | 2013-04-03 | Gixia Group Co | A head-mounted somatosensory control and display system based on a user's body action |
EP2887122A1 (de) * | 2013-12-20 | 2015-06-24 | Abb Ag | Intelligente Brillenvorrichtung für elektronische oder elektrische Anwendungen |
CN110134197A (zh) * | 2019-06-26 | 2019-08-16 | 北京小米移动软件有限公司 | 可穿戴式控制设备、虚拟/增强现实系统及控制方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5381158A (en) * | 1991-07-12 | 1995-01-10 | Kabushiki Kaisha Toshiba | Information retrieval apparatus |
EP0679984A1 (de) * | 1994-04-22 | 1995-11-02 | Canon Kabushiki Kaisha | Anzeigegerät |
US5581484A (en) * | 1994-06-27 | 1996-12-03 | Prince; Kevin R. | Finger mounted computer input device |
-
2000
- 2000-11-02 DE DE10054242A patent/DE10054242A1/de not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5381158A (en) * | 1991-07-12 | 1995-01-10 | Kabushiki Kaisha Toshiba | Information retrieval apparatus |
EP0679984A1 (de) * | 1994-04-22 | 1995-11-02 | Canon Kabushiki Kaisha | Anzeigegerät |
US5581484A (en) * | 1994-06-27 | 1996-12-03 | Prince; Kevin R. | Finger mounted computer input device |
Non-Patent Citations (1)
Title |
---|
MANN, Steve: Wearable Computing: A First Step Toward Personal Imaging. In: Computer 2/97, S. 25-32 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004025517A1 (de) * | 2004-05-21 | 2005-12-15 | X3D Technologies Gmbh | Alphanumerische Eingabeeinrichtung |
DE112006002954B4 (de) * | 2005-10-31 | 2011-12-08 | National University Of Singapore | Virtuelles Schnittstellensystem |
DE102010041348A1 (de) * | 2010-09-24 | 2012-03-29 | Carl Zeiss Ag | Anzeigevorrichtung |
DE102010041348B4 (de) * | 2010-09-24 | 2020-01-30 | tooz technologies GmbH | Anzeigevorrichtung |
GB2494907A (en) * | 2011-09-23 | 2013-03-27 | Sony Corp | A Head-mountable display with gesture recognition |
GB2495159A (en) * | 2011-09-23 | 2013-04-03 | Gixia Group Co | A head-mounted somatosensory control and display system based on a user's body action |
EP2887122A1 (de) * | 2013-12-20 | 2015-06-24 | Abb Ag | Intelligente Brillenvorrichtung für elektronische oder elektrische Anwendungen |
CN110134197A (zh) * | 2019-06-26 | 2019-08-16 | 北京小米移动软件有限公司 | 可穿戴式控制设备、虚拟/增强现实系统及控制方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE4344050C1 (de) | Eingabeverfahren und Eingabevorrichtung für Computerterminals zum Schutz vor Ausspähung und zur Gewährleistung der Intimität eines Nutzers | |
DE19525644C2 (de) | Vorrichtung zur Eingabe von Daten in einen Computer | |
DE60025926T2 (de) | Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm | |
EP3143478B1 (de) | Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung | |
DE102016107202B4 (de) | Anzeigesystem | |
DE102009032637A1 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE10209797A1 (de) | Optische Pseudo-Rollkugel zur Steuerung des Betriebs einer Vorrichtung oder Maschine | |
DE4201934A1 (de) | Gestik computer | |
DE10340188A1 (de) | Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe | |
DE102009014555A1 (de) | Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds | |
DE102018117790A1 (de) | Maschinenbedienpanel mit integriertem Bedienterminal, und externes Gerät | |
DE4241937C2 (de) | Taktiles Bildwiedergabegerät | |
DE3609469A1 (de) | Anzeigesteuervorrichtung | |
DE10056291A1 (de) | Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-Sichtfeld | |
EP1161740A1 (de) | Anordnung zur interaktion | |
DE10054242A1 (de) | Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung | |
DE102014101545A1 (de) | System zur Druckmaschinenbedienung | |
EP1573502A2 (de) | Schnell-eingabevorrichtung | |
DE3034933C2 (de) | ||
DE10110864A1 (de) | Druckmaschine mit Sichtfenster und mit im Bereich des Sichtfensters angeordneten Steuer- und/oder Anzeigeelementen | |
DE19744941C2 (de) | Verfahren zur Fernbedienung einer Präsentationseinrichtung | |
DE4035273A1 (de) | Eingabeeinrichtung fuer rechner, elektronische schreibmaschine u. ae. | |
DE112019002798T5 (de) | Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm | |
EP2977855A1 (de) | Virtuelle Tastatur und Eingabeverfahren für eine virtuelle Tastatur | |
DE10124834C2 (de) | Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8139 | Disposal/non-payment of the annual fee |