DE10054242A1 - Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung - Google Patents

Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung

Info

Publication number
DE10054242A1
DE10054242A1 DE10054242A DE10054242A DE10054242A1 DE 10054242 A1 DE10054242 A1 DE 10054242A1 DE 10054242 A DE10054242 A DE 10054242A DE 10054242 A DE10054242 A DE 10054242A DE 10054242 A1 DE10054242 A1 DE 10054242A1
Authority
DE
Germany
Prior art keywords
image
user
display
real
real image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10054242A
Other languages
English (en)
Inventor
Oliver Machui
Stefan Fromberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VISYS AG
Original Assignee
VISYS AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VISYS AG filed Critical VISYS AG
Priority to DE10054242A priority Critical patent/DE10054242A1/de
Publication of DE10054242A1 publication Critical patent/DE10054242A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface

Abstract

Es wird ein Verfahren zum Eingeben von Daten in ein System und eine Eingabeeinrichtung angegeben. DOLLAR A Hierbei möchte man die Kommunikation zwischen einem Menschen und einem System anders gestalten können. DOLLAR A Hierzu ist eine Eingabeeinrichtung (1) vorgesehen mit einem Augenvorsatz (3), der mindestens ein Display (4) aufweist, eine Bildaufnahmeeinrichtung (5), deren Bildaufnahme als reelles Bild (11) im Display (4) anzeigbar ist, einem Bildgenerator (7), der ein virtuelles Bild (12) in das Display (4) einblendet und eine Auswerteeinrichtung (8), die mit der Bildaufnahmeeinrichtung (5) gekoppelt ist und Bereiche des reellen Bildes (11) auswertet, die denen des virtuellen Bildes (12) auf dem Display (4) entsprechen. Man nimmt also ein reelles Bild auf und zeigt es dem Benutzer an, erzeugt ein virtuelles Bild und blendet es in das reelle Bild ein und wertet das reelle Bild in Bereichen aus, die denjenigen des virtuellen Bildes entsprechen.

Description

Die Erfindung betrifft ein Verfahren zum Eingeben von Daten in ein System und eine Eingabeeinrichtung.
Die Erfindung soll im folgenden an einem Beispiel be­ schrieben werden, bei dem ein Benutzer Daten ähnlich wie bei der Eingabe über eine alphanumerische Tatstatur in ein System, beispielsweise einen Computer oder eine andere Datenverarbeitungseinrichtung, eingeben möchte. Die Erfindung ist jedoch nicht darauf beschränkt. Man kann sie beispielsweise auch in Fällen anwenden, in den ein Benutzer ein Musikinstrument über Tasten oder ande­ re Betätigungselemente spielen möchte. Ein weiterer An­ wendungsfall ist das Navigieren mit Hilfe von Landkar­ ten, bei dem der Benutzer Start und Ziel auf der Land­ karte antippt. Man kann auch eine Daten- oder Informa­ tionseingabe bewerkstelligen, bei denen ein Benutzer in "on-screen-Menüs" navigiert.
Unter "Daten" sollen im folgenden alle Arten von Infor­ mationen verstanden werden, also nicht nur die Eingabe von alphanumerischen Zeichen.
Zur Dateneingabe sind neben der herkömmlichen Tasta­ tureingabe weitere Möglichkeiten bekannt.
In DE 197 39 285 C1 ist eine Vorrichtung zur Darstel­ lung und virtuellen Eingabe von Daten beschrieben, bei der ein Projektor ein Bild auf die Rückseite einer durchsichtigen Projektionsfläche projiziert, so daß es von der Vorderseite aus sichtbar ist. Die Vorderseite ihrerseits wird von einer Kamera überwacht, die mit ei­ ner Auswerteeinrichtung verbunden ist. Wenn ein Benut­ zer mit seinen Fingern oder einem Werkzeug auf bestimm­ te Bereiche des projizierten Bildes tippt, wird dies von der Kamera erfaßt und von der Auswerteeinrichtung ausgewertet. Es wird also sozusagen eine "virtuelle" Tastatur erzeugt.
GB 2 308 212 A beschreibt eine Eingabeeinrichtung, bei der ein Benutzer auf einen dicht vor dem Auge angeord­ neten Schirm schaut, auf dem Informationsinhalte, bei­ spielsweise Buchstaben oder Zahlen, in einzelnen Fel­ dern abgebildet sind. Eine Kamera überwacht und erfaßt die Position des Auges. Wenn das Auge auf einem Infor­ mationsfeld verharrt, nimmt es an, daß der Benutzer die Informationen dieses Informationsfeldes eingeben woll­ te.
GB 2 299 856 A beschreibt eine Eingabeeinrichtung, bei der ein Benutzer mit einem Lichtgriffel auf einer Un­ terlage schreibt, wobei die Position des Lichtgriffels fortlaufend erfaßt werden kann.
US 6 104 384 zeigt einen Bildschirm, auf dem verschie­ dene Teilflächen mit unterschiedlichen Informationen angezeigt werden. Durch das Anklicken einer Teilfläche mit Hilfe eines Maus-Zeigers kann man eine Eingabe be­ wirken.
Der Erfindung liegt die Aufgabe zugrunde, die Kommuni­ kation zwischen einem Menschen und einem System anders zu gestalten.
Diese Aufgabe wird durch ein Verfahren zum Eingeben von Daten in ein System gelöst, bei dem man ein reelles Bild aufnimmt und dem Benutzer anzeigt, ein virtuelles Bild erzeugt und in das reelle Bild einblendet und das reelle Bild in Bereichen auswertet, die denjenigen des virtuellen Bildes entsprechen.
Der Benutzer sieht also in der Anzeige des reellen Bil­ des, beispielsweise auf einem Monitor oder auf einem Display, ein virtuelles Bild eingeblendet, das bei­ spielsweise einer alphanumerischen Tastatur entsprechen kann. Der Benutzer kann nun, auf welche Art auch immer, in einzelnen Bereichen des reellen Bildes Änderungen vornehmen. Diese Änderungen werden ihm angezeigt. Da das reelle Bild durch das virtuelle Bild überlagert ist, hat der Benutzer die Möglichkeit, die Änderungen des reellen Bildes gezielt vorzunehmen. Durch die An­ zeige des reellen Bildes können nämlich die Änderungen auf den Benutzer zurückgekoppelt werden, so daß er so­ fort beurteilen kann, ob die von ihm bewirkte Änderung an der gewünschten Stelle erfolgt ist oder nicht. Gleichzeitig kann man die Änderungen des reellen Bildes auswerten und zwar unter Berücksichtigung der Inhalte, die im virtuellen Bild angezeigt werden. Wenn bei­ spielsweise das virtuelle Bild eine alphanumerische Tastatur beinhaltet und der Benutzer eine Änderung in der Realität vornimmt, die zu einer Veränderung des reellen Bildes dort führt, wo das virtuelle Bild den Buchstaben "a" anzeigt, dann ergibt sich bei der Auswertung des reellen Bildes die Eingabe des Buchstabens "a" in das System.
Vorzugsweise bewirkt der Benutzer Änderungen des reel­ len Bildes durch Bewegung einer Hand oder eines handge­ führten Werkzeugs. Der Benutzer tippt also in der Rea­ lität dorthin, wo im virtuellen Bild die gewünschte Ta­ ste oder eine andere Informationsschaltfläche angeord­ net ist. Dieses "Tippen" wird erfaßt, weil es eine Än­ derung des reellen Bildes bewirkt.
Die Aufgabe wird auch durch eine Eingabeeinrichtung ge­ löst mit einem Augenvorsatz, der mindestens ein Display aufweist, eine Bildaufnahmeeinrichtung, deren Bildauf­ nahme als reelles Bild im Display anzeigbar ist, einem Bildgenerator, der ein virtuelles Bild in das Display einblendet und eine Auswerteeinrichtung, die mit der Bildaufnahmeeinrichtung gekoppelt ist und Bereiche des reellen Bildes auswertet, die denen des virtuellen Bil­ des auf dem Display entsprechen.
Als Augenvorsatz kann man Brillen, Helme, Visiere oder andere Einrichtungen verwenden, die es ermöglichen, ein Display vor dem Auge des Benutzers zu halten. Zweckmä­ ßigerweise sollte das Display so dicht vor dem Auge an­ geordnet sein, daß der Benutzer nur das Bild auf dem Display wahrnimmt. Da die Bildaufnahmeeinrichtung gleichzeitig ein reelles Bild erzeugt, ist für den Be­ nutzer damit im Grunde kein Informationsverlust über seine Umwelt verbunden. Er sieht zwar nicht unmittelbar seine Umgebung. Er sieht aber das Abbild der Umgebung, wie es auf dem Display dargestellt ist. Dieses Bild wird als reelles Bild definiert. Zusätzlich ist in dem Display ein virtuelles Bild erkennbar, beispielsweise eine alphanumerische Tastatur, eine Klaviatur oder ähn­ liches. Der Benutzer kann dann das reelle Bild verän­ dern. Hierzu kann er beispielsweise seine Finger, ande­ re Körperteile, Werkzeuge oder ähnliches verwenden. Der Einfachheit halber wird die Erfindung im folgenden an­ hand der Finger des Benutzers erläutert. Da der Benut­ zer seine Finger in dem reellen Bild sieht, kann er seine Finger dorthin bewegen, wo auf dem Display das virtuelle Bild dargestellt ist. Die Änderung des reel­ len Bildes wird von der Bildaufnahmeeinrichtung, bei­ spielsweise einer Kamera, erfaßt und kann mit herkömm­ licher Bilderkennungssoftware ausgewertet werden. Bei der Auswertung werden zusätzlich die Informationen des virtuellen Bildes berücksichtigt. Die Information, die dem entsprechenden Bereich des virtuellen Bildes als Informationsgehalt zugeordnet ist, wird über die Zuord­ nung des virtuellen Bildes zum reellen Bild ausgewer­ tet. Die Eingabeeinrichtung hat eine Reihe von Vortei­ len: Die eingegebene Information ist nur für den Benut­ zer erkennbar. Von außen kann man zwar erkennen, daß der Benutzer mit seinen Fingern im Raum oder auf einer Unterlage Bewegungen ausführt. Diesen Bewegungen ist jedoch keine Information zugeordnet, beispielsweise ist nicht erkennbar, welche "Tasten" der Benutzer gerade betätigt, wie dies bei einem herkömmlichen transporta­ blen Personalcomputer (Laptop) der Fall wäre. Darüber hinaus kann man das virtuelle Bild im Rahmen der Anzei­ gemöglichkeiten praktisch beliebig groß machen, so daß es insbesondere sehbehinderten Menschen erleichtert wird, einzelne Teilbereiche des virtuellen Bildes von­ einander zu unterscheiden und gezielt anzusteuern.
Vorzugsweise sind der Augenvorsatz und die Bildaufnah­ meeinrichtung miteinander gekoppelt. Wenn der Benutzer seinen Kopf bewegt, bewegt sich der Augenvorsatz mit. Gleichzeitig wird die Bildaufnahmeeinrichtung entspre­ chend mitbewegt, so daß sich das reelle Bild, das der Benutzer auf dem Display sieht, mit seiner Bewegung än­ dert. Damit kann der Benutzer auch während der Daten­ eingabe visuell mit seiner Umwelt kommunizieren.
Vorzugsweise ist die Bildaufnahmeeinrichtung am Augen­ vorsatz angeordnet. Eine derartige Ausbildung ist bei­ spielsweise von Nachtsichtbrillen her bekannt. Bei die­ ser Anordnung ist die Zuordnung des reellen Bildes, das auf dem Display angezeigt wird, zu der Realität am be­ sten beizubehalten.
Vorzugsweise ist der Bildgenerator so einstellbar, daß das virtuelle Bild auf einem wählbaren Bereich des re­ ellen Bildes liegt. Beispielsweise kann es für den Be­ nutzer von Vorteil sein, wenn das virtuelle Bild auf einer Tischplatte "liegt". In diesem Fall wird der Be­ nutzer zur Eingabe bestimmte Bereiche der Tischplatte antippen, um die jeweilige Information, die dem ent­ sprechenden Bereich des virtuellen Bildes zugeordnet ist, in das System einzugeben. Von außen ist diese In­ formation jedoch nicht erkennbar. Die Zuordnung des virtuellen Bildes zu einem Gegenstand erleichtert in vielen Fällen die Koordination der Finger des Benutzers oder eines Werkzeugs im Hinblick auf die Treffsicher­ heit der Bereiche des virtuellen Bildes im reellen Bild.
Bevorzugterweise ist das virtuelle Bild in eine Mehr­ zahl von Teilbereiche unterteilt und die Auswerteein­ richtung reagiert auf vorbestimmte Änderungen in den Teilbereichen. Die Teilbereiche können beispielsweise so angeordnet sein, wie Tasten einer alphanumerischen Tastatur. Die Auswerteeinrichtung reagiert nur dann, wenn der Benutzer eine "Taste" eindeutig trifft. Sobald die Taste nicht mehr eindeutig identifizierbar ist, wird keine Information zur Eingabe identifiziert. Die vorbestimmten Änderungen können beispielsweise darin bestehen, daß die Auswerteeinrichtung darauf reagiert, daß die Farbe des Teilbereichs in Hautfarben geändert wird, wenn vorgesehen ist, daß der Bediener mit seinen Fingern hantiert, um die Eingaben vorzunehmen.
Vorzugsweise sind die Teilbereiche markiert. Der Benut­ zer kann also auf dem Display sofort erkennen, welche Informationen einem bestimmten Teilbereich zugeordnet ist. Wenn er dann durch eine Aktion in der Realität und der damit verbundenen Änderungen des reellen Bildes den entsprechenden Teilbereich des virtuellen Bildes "be­ rührt", dann wird die entsprechende Information ausge­ wertet.
Vorzugsweise weisen die Teilbereiche jeweils eine Betä­ tigungsmarkierung auf und die Auswerteeinrichtung ist mit dem Bildgenerator gekoppelt, der nach einer Ände­ rung und einer vorbestimmten Wartezeit die Betätigungs­ markierung ändert. Damit ist es möglich, dem Benutzer eine Rückkopplung dahingehend zu verschaffen, daß das System die gewünschte Information erhalten hat. Bei­ spielsweise kann man den Teilbereichen als Markierung einen Buchstaben zuweisen, vorzugsweise den Buchstaben, der als Information mit dem Teilbereich verbunden sein soll. Dieser Buchstabe kann dann seine Farbe ändern oder verschwinden, wenn das System die Information an­ genommen hat.
In einer bevorzugten Ausgestaltung ist vorgesehen, daß die Bildaufnahmeeinrichtung zwei Bilder aus unter­ schiedlichen Blickwinkeln aufnimmt. Bei dieser Ausge­ staltung ergibt sich sozusagen eine Stereo-Bilderfas­ sung, mit der es möglich ist, eine weitere Achse der Fingerbewegung auszuwerten, so daß die Eingabeeinrich­ tung mit einer erhöhten Zuverlässigkeit feststellen kann, wann der Benutzer auf eine bestimmte "Taste" ge­ tippt hat. Mit der räumlichen Erfassung kann man auch die Auswertemöglichkeiten erweitern. Beispielsweise kann der Benutzer virtuelle 3D-Objekte (dreidimen­ sionale Objekte) manipulieren, d. h. er greift mit sei­ nen Händen nach Objekten, die auf dem Display einge­ blendet sind. Da die beiden Kameras die Hände aufnehmen kann, kann die Software sogar die verdeckten Kanten der Objekte korrekt berechnen.
Alternativ oder zusätzlich kann vorgesehen sein, daß die Eingabeeinrichtung einen Kontaktgeber aufweist. Die Information wird also dann ausgewertet oder übertragen, wenn der Benutzer einerseits einen Bereich im virtuel­ len Bild markiert hat und andererseits ein Kontakt über den Kontaktgeber ausgelöst wird.
Hierbei ist besonders bevorzugt, daß der Kontaktgeber als Handschuh oder Fingerüberzug ausgebildet ist. Die Kontakte können auf alle möglichen Arten ausgebildet sein, d. h. elektromechanisch, optisch, kapazitiv, in­ duktiv, thermisch, piezoelektrisch oder ähnlich. Diese Ausgestaltung ist insbesondere dann von Vorteil, wenn gleichzeitig das virtuelle Bild auf einen bestimmten Gegenstand im reellen Bild projiziert wird, beispielsweise die oben erwähnte Tischplatte. Die Eingabe der Information erfolgt dann, wenn der Benutzer auf den Be­ reich der Tischplatte tippt, der im reellen Bild auf dem Display mit dem Teilbereich des virtuellen Bildes überlagert ist, dem die einzugebende Information zuge­ ordnet ist.
In einer besonders bevorzugten Ausgestaltung ist vorge­ sehen, daß das Display einen Anzeigebereich aufweist, in dem Ergebnisse der Auswerteeinrichtung anzeigbar sind. Der Benutzer sieht also im Display sofort, was er eingegeben hat. Dies ist eine verbesserte Rückkopp­ lungsmöglichkeit, die dem Benutzer die Eingabe von Da­ ten erleichtert.
Die Erfindung wird im folgenden anhand eines bevorzug­ ten Ausführungsbeispiels in Verbindung mit der Zeich­ nung näher beschrieben. Hierin zeigen:
Fig. 1 eine Eingabeeinrichtung,
Fig. 2 einen Benutzer mit einer Abbildung des reel­ len Bildes,
Fig. 3 den Benutzer mit der Abbildung des reellen Bildes, in das ein virtuelles Bild eingeblen­ det ist und
Fig. 4 den Benutzer bei der Dateneingabe.
Fig. 1 zeigt eine Eingabeeinrichtung 1 in Form einer Brille. Die Brille kann, wie dies von Brillen allgemein bekannt ist, vor den Augen eines Benutzers 2 angeordnet werden. Anstelle der in Fig. 1 dargestellten Brille kann man auch andere Arten von Augenvorsätzen verwenden, beispielsweise einen Helm, ein Visier oder ähnli­ ches.
Die Brille 3 weist zwei Displays 4 und eine Kamera 5 auf, die in einem Gehäuse 6 angeordnet sind. In dem Ge­ häuse 6 sind ferner ein Bildgenerator 7 und eine Aus­ werteeinrichtung 8' untergebracht, die allerdings nur schematisch angedeutet sind. Zur Weiterleitung von In­ formationen an ein angeschlossenes System, beispiels­ weise ein Datenverarbeitungssystem (nicht näher darge­ stellt) ist ein Kabel 9 oder andere Mittel zur lei­ tungslosen Übertragung von Daten, beispielsweise Sen­ der/Empfänger, vorgesehen. Über das Kabel 9 kann auch die Zufuhr von elektrischer Energie erfolgen, wenn die Brille 3 nicht selbst mit einer Batterie ausgestattet ist.
Derartige Brillen sind an sich bekannt, beispielsweise als aktive Nachtsichtbrillen oder -systeme.
In Fig. 2 ist in einem Rahmen 10 das Bild dargestellt, daß der Benutzer 2 auf den Displays 4 sieht. Da die Displays 4 praktisch den gesamten Sichtbereich des Be­ nutzers 2 abdecken, weil die Displays 4 relativ dicht an den Augen angeordnet sind, beschränkt sich die opti­ sche Wahrnehmung des Benutzers 2 auf das Bild, das in Fig. 2 in dem Rahmen 10 dargestellt ist. Dieses Bild ist durch die Kamera 5 aufgenommen. Es ist damit ein Abbild der Umwelt und zwar des Bereichs, den der Benut­ zer 2 normalerweise mit seinen Augen ebenfalls wahrneh­ men würde. Dieses Bild wird daher im folgenden als "reelles" Bild 11 bezeichnet. Wenn der Benutzer seinen Kopf schwenkt oder bewegt, dann verändert sich auch der Blickwinkel der Kamera 5. Der Benutzer 2 wird dann einen anderen Bereich seiner Umwelt in den Displays 4 an­ gezeigt bekommen.
Die Bilderzeugungseinrichtung 7 erzeugt nun ein virtu­ elles Bild 12, das ebenfalls in den Displays 4 ange­ zeigt wird und zwar so, daß es das reelle Bild 11 über­ lagert. Vorzugsweise überdeckt das virtuelle Bild 12 das reelle Bild 11 transparent, d. h. das virtuelle Bild 12 ist durchsichtig, so daß das reelle Bild 11 voll­ ständig oder abgeschwächt sichtbar bleibt.
Das virtuelle Bild 12 hat im Ausführungsbeispiel die Form einer alphanumerischen Tastatur, wie sie von PC- oder Schreibmaschinen-Tastaturen her bekannt ist. Diese Tastatur ist allerdings nur für den Benutzer 2 sicht­ bar. Das virtuelle Bild 12 weist eine Vielzahl von Teilbereichen 13 auf. Jeder Teilbereich 13 entspricht einer "Taste" einer normalen Tastatur. Jeder Teilbe­ reich 13 weist eine Markierung auf, die im vorliegenden Fall durch den Buchstaben gebildet ist, der mit dem Teilbereich 13 verbunden ist.
Fig. 4 zeigt nun, wie der Benutzer 2 in den leeren Raum greift, um die Teilbereiche 13 des virtuellen Bildes zu "berühren". Tatsächlich berührt er diese Teilbereiche natürlich nicht, weil sie in Wirklichkeit nicht vorhan­ den sind. Wenn seine Hand (oder nur ein Finger) bzw. ein Werkzeug, das in der Hand hält, in einen Bereich des reellen Bildes kommt, der von der Kamera 5 erfaßt wird, dann sieht der Benutzer 2 seine Hand 14 mit den Fingern 15 und die entsprechende Zuordnung des ge­ wünschten Fingers zu dem entsprechenden Teilbereich 13. Im vorliegenden Fall "tippt" der Mittelfinger auf den Buchstaben "V". Der Benutzer 2 hat also durch eine vi­ suelle Rückkopplung laufend die Kontrolle darüber, welche Bereiche des virtuellen Bildes 12 er nun anspricht oder "berührt".
Die Kamera 5 und die angeschlossene Auswerteeinrichtung 8 hingegen stellt fest, daß sich das reelle Bild 11 ge­ ändert hat. Beispielsweise ist in dem Bereich, der auf dem Display mit dem Teilbereich 13 (V) angezeigt wird, eine Farbänderung dahingehend eingetreten, daß die Far­ be des Schrankes 16, der bislang angezeigt worden ist, durch die Farbe des Fingers 15 ersetzt worden ist. Um die Signalwirkung zu erhöhen, kann der Benutzer auch einen Handschuh 17 tragen, der beispielsweise eine spe­ zielle Farbe aufweist, so daß eine Änderung für die Auswerteeinrichtung 8 leichter erkennbar wird.
Die Displays 4 können noch einen Anzeigebereich 18 auf­ weisen, in dem die Information, die der Benutzer durch Ansprechen der Teilbereiche eingegeben hat, erscheint, im Beispiel der Fig. 4 erscheint in der linken oberen Ecke des Displays 4, also im Anzeigebereich, der Buch­ stabe "V". Damit hat der Benutzer 2 die Möglichkeit, unmittelbar zu überprüfen, ob er das, was er eingeben wollte, auch tatsächlich eingegeben hat.
Eine gewisse Schwierigkeit besteht darin, daß die Aus­ werteeinrichtung 8 erkennen muß, wann der Benutzer 2 einen Teilbereich 13 tatsächlich so angesprochen hat, daß die Information als eingegeben zu gelten hat. Mit anderen Worten muß die Auswerteeinrichtung 8 erkennen, ob eine "Taste" gedrückt worden ist oder nicht. Hierfür gibt es verschiedene Möglichkeiten. Man kann beispiels­ weise eine Zeitauswertung benutzen. Dabei muß der Be­ nutzer 2 seinen Finger 15 eine vorbestimmte Zeit in dem Teilbereich 13 halten. Oder es besteht die Möglichkeit, anstelle der einen Kamera 5 zwei Kameras zu verwenden, die ein Bild aus unterschiedlichen Blickwinkeln aufneh­ men. Durch eine derartige Stereo-Bilderfassung läßt sich dann eine räumliche Auswertung der Bewegung des Fingers 15 vornehmen, so daß eine weitere "Achse" der Bewegung erkennbar ist. Man kann auch den Handschuh 17 mit handelsüblichen Kontakten ausrüsten, beispielsweise elektromechanischen, optischen, kapazitiven, indukti­ ven, thermischen oder piezoelektrischen Kontakten, so daß der Benutzer dann, wenn er beispielsweise mit einer Hand den Teilbereich 13 berührt hat, mit der anderen Hand den entsprechenden Kontakt auslösen kann. Noch einfacher ist die Vorgehensweise, wenn der Benutzer bei der Eingabe auf seine Tischplatte 19 blickt und das virtuelle Bild 12 ebenfalls auf die Tischplatte 19 pro­ jiziert wird. Gegebenenfalls kann man mit einer nicht näher dargestellten Einstellvorrichtung die Bilderzeu­ gungseinrichtung so einstellen, daß das virtuelle Bild 12 dann genau auf die Tischplatte projiziert wird. In diesem Fall kann der Benutzer mit einem Kontakthand­ schuh 17 unmittelbar beim Tippen auf den Teilbereich 13 die entsprechenden Befehle zum Einlesen der Information geben.

Claims (13)

1. Verfahren zum Eingeben von Daten in ein System, bei dem man ein reelles Bild aufnimmt und dem Benutzer anzeigt, ein virtuelles Bild erzeugt und in das re­ elle Bild einblendet und das reelle Bild in Berei­ chen auswertet, die denjenigen des virtuellen Bil­ des entsprechen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Benutzer Änderungen des reellen Bildes durch Bewegung einer Hand oder eines handgeführten Werkzeugs bewirkt.
3. Eingabeeinrichtung mit einem Augenvorsatz (3), der mindestens ein Display (4) aufweist, eine Bildauf­ nahmeeinrichtung (5), deren Bildaufnahme als reel­ les Bild (11) im Display (4) anzeigbar ist, einem Bildgenerator (7), der ein virtuelles Bild (12) in das Display (4) einblendet und eine Auswerteein­ richtung (8), die mit der Bildaufnahmeeinrichtung (5) gekoppelt ist und Bereiche des reellen Bildes (11) auswertet, die denen des virtuellen Bildes (12) auf dem Display (4) entsprechen.
4. Einrichtung nach Anspruch 3, dadurch gekennzeich­ net, daß der Augenvorsatz (3) und die Bildaufnahme­ einrichtung (5) miteinander gekoppelt sind.
5. Einrichtung nach Anspruch 4, dadurch gekennzeich­ net, daß die Bildaufnahmeeinrichtung (5) am Augen­ vorsatz (3) angeordnet ist.
6. Einrichtung nach einem der Ansprüche 3 bis 5, da­ durch gekennzeichnet, daß der Bildgenerator (7) so einstellbar ist, daß das virtuelle Bild (12) auf einem wählbaren Bereich (19) des reellen Bildes (11) liegt.
7. Einrichtung nach einem der Ansprüche 3 bis 6, da­ durch gekennzeichnet, daß das virtuelle Bild (12) in eine Mehrzahl von Teilbereiche (13) unterteilt ist und die Auswerteeinrichtung (8) auf vorbestimm­ te Änderungen in den Teilbereichen (13) reagiert.
8. Einrichtung nach Anspruch 7, dadurch gekennzeich­ net, daß die Teilbereiche (13) markiert sind.
9. Einrichtung nach Anspruch 7 oder 8, dadurch gekenn­ zeichnet, daß die Teilbereiche (13) jeweils eine Betätigungsmarkierung aufweisen und die Auswerte­ einrichtung (8) mit dem Bildgenerator (7) gekoppelt ist, der nach einer Änderung und einer vorbestimm­ ten Wartezeit die Betätigungsmarkierung ändert.
10. Einrichtung nach einem der Ansprüche 3 bis 9, da­ durch gekennzeichnet, daß die Bildaufnahmeeinrich­ tung (5) zwei Bilder (5) aus unterschiedlichen Blickwinkeln aufnimmt.
11. Einrichtung nach einem der Ansprüche 3 bis 10, da­ durch gekennzeichnet, daß sie einen Kontaktgeber aufweist.
12. Einrichtung nach Anspruch 11, dadurch gekennzeich­ net, daß der Kontaktgeber als Handschuh (17) oder Fingerüberzug ausgebildet ist.
13. Einrichtung nach einem der Ansprüche 3 bis 12, da­ durch gekennzeichnet, daß das Display (4) einen An­ zeigebereich (18) aufweist, in dem Ergebnisse der Auswerteeinrichtung (8) anzeigbar sind.
DE10054242A 2000-11-02 2000-11-02 Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung Withdrawn DE10054242A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10054242A DE10054242A1 (de) 2000-11-02 2000-11-02 Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10054242A DE10054242A1 (de) 2000-11-02 2000-11-02 Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung

Publications (1)

Publication Number Publication Date
DE10054242A1 true DE10054242A1 (de) 2002-05-16

Family

ID=7661851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10054242A Withdrawn DE10054242A1 (de) 2000-11-02 2000-11-02 Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung

Country Status (1)

Country Link
DE (1) DE10054242A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004025517A1 (de) * 2004-05-21 2005-12-15 X3D Technologies Gmbh Alphanumerische Eingabeeinrichtung
DE112006002954B4 (de) * 2005-10-31 2011-12-08 National University Of Singapore Virtuelles Schnittstellensystem
DE102010041348A1 (de) * 2010-09-24 2012-03-29 Carl Zeiss Ag Anzeigevorrichtung
GB2494907A (en) * 2011-09-23 2013-03-27 Sony Corp A Head-mountable display with gesture recognition
GB2495159A (en) * 2011-09-23 2013-04-03 Gixia Group Co A head-mounted somatosensory control and display system based on a user's body action
EP2887122A1 (de) * 2013-12-20 2015-06-24 Abb Ag Intelligente Brillenvorrichtung für elektronische oder elektrische Anwendungen
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
EP0679984A1 (de) * 1994-04-22 1995-11-02 Canon Kabushiki Kaisha Anzeigegerät
US5581484A (en) * 1994-06-27 1996-12-03 Prince; Kevin R. Finger mounted computer input device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381158A (en) * 1991-07-12 1995-01-10 Kabushiki Kaisha Toshiba Information retrieval apparatus
EP0679984A1 (de) * 1994-04-22 1995-11-02 Canon Kabushiki Kaisha Anzeigegerät
US5581484A (en) * 1994-06-27 1996-12-03 Prince; Kevin R. Finger mounted computer input device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MANN, Steve: Wearable Computing: A First Step Toward Personal Imaging. In: Computer 2/97, S. 25-32 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004025517A1 (de) * 2004-05-21 2005-12-15 X3D Technologies Gmbh Alphanumerische Eingabeeinrichtung
DE112006002954B4 (de) * 2005-10-31 2011-12-08 National University Of Singapore Virtuelles Schnittstellensystem
DE102010041348A1 (de) * 2010-09-24 2012-03-29 Carl Zeiss Ag Anzeigevorrichtung
DE102010041348B4 (de) * 2010-09-24 2020-01-30 tooz technologies GmbH Anzeigevorrichtung
GB2494907A (en) * 2011-09-23 2013-03-27 Sony Corp A Head-mountable display with gesture recognition
GB2495159A (en) * 2011-09-23 2013-04-03 Gixia Group Co A head-mounted somatosensory control and display system based on a user's body action
EP2887122A1 (de) * 2013-12-20 2015-06-24 Abb Ag Intelligente Brillenvorrichtung für elektronische oder elektrische Anwendungen
CN110134197A (zh) * 2019-06-26 2019-08-16 北京小米移动软件有限公司 可穿戴式控制设备、虚拟/增强现实系统及控制方法

Similar Documents

Publication Publication Date Title
DE4344050C1 (de) Eingabeverfahren und Eingabevorrichtung für Computerterminals zum Schutz vor Ausspähung und zur Gewährleistung der Intimität eines Nutzers
DE19525644C2 (de) Vorrichtung zur Eingabe von Daten in einen Computer
DE60025926T2 (de) Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm
EP3143478B1 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung
DE102016107202B4 (de) Anzeigesystem
DE102009032637A1 (de) Bildvergrößerungssystem für eine Computerschnittstelle
DE10209797A1 (de) Optische Pseudo-Rollkugel zur Steuerung des Betriebs einer Vorrichtung oder Maschine
DE4201934A1 (de) Gestik computer
DE10340188A1 (de) Bildschirm mit einer berührungsempfindlichen Bedienoberfläche zur Befehlseingabe
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
DE102018117790A1 (de) Maschinenbedienpanel mit integriertem Bedienterminal, und externes Gerät
DE4241937C2 (de) Taktiles Bildwiedergabegerät
DE3609469A1 (de) Anzeigesteuervorrichtung
DE10056291A1 (de) Verfahren zur visuellen Darstellung und interaktiven Steuerung von virtuellen Objekten auf einem Ausgabe-Sichtfeld
EP1161740A1 (de) Anordnung zur interaktion
DE10054242A1 (de) Verfahren zum Eingeben von Daten in ein System und Eingabeeinrichtung
DE102014101545A1 (de) System zur Druckmaschinenbedienung
EP1573502A2 (de) Schnell-eingabevorrichtung
DE3034933C2 (de)
DE10110864A1 (de) Druckmaschine mit Sichtfenster und mit im Bereich des Sichtfensters angeordneten Steuer- und/oder Anzeigeelementen
DE19744941C2 (de) Verfahren zur Fernbedienung einer Präsentationseinrichtung
DE4035273A1 (de) Eingabeeinrichtung fuer rechner, elektronische schreibmaschine u. ae.
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
EP2977855A1 (de) Virtuelle Tastatur und Eingabeverfahren für eine virtuelle Tastatur
DE10124834C2 (de) Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee