DE10211340A1 - Optisches Bildschirmzeigegerät mit Trägheitseigenschaften - Google Patents
Optisches Bildschirmzeigegerät mit TrägheitseigenschaftenInfo
- Publication number
- DE10211340A1 DE10211340A1 DE10211340A DE10211340A DE10211340A1 DE 10211340 A1 DE10211340 A1 DE 10211340A1 DE 10211340 A DE10211340 A DE 10211340A DE 10211340 A DE10211340 A DE 10211340A DE 10211340 A1 DE10211340 A1 DE 10211340A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- motion
- movement
- motion data
- imaging surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003287 optical effect Effects 0.000 title claims description 44
- 230000033001 locomotion Effects 0.000 claims abstract description 211
- 238000003384 imaging method Methods 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims description 43
- 230000007423 decrease Effects 0.000 claims description 5
- 238000007620 mathematical function Methods 0.000 claims description 5
- 239000002699 waste material Substances 0.000 claims 2
- 241000894007 species Species 0.000 claims 1
- 230000000694 effects Effects 0.000 description 7
- 238000013519 translation Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 229920001410 Microfiber Polymers 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000003658 microfiber Substances 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- VLCQZHSMCYCDJL-UHFFFAOYSA-N tribenuron methyl Chemical compound COC(=O)C1=CC=CC=C1S(=O)(=O)NC(=O)N(C)C1=NC(C)=NC(OC)=N1 VLCQZHSMCYCDJL-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14678—Contact-type imagers
Abstract
Eine Vorrichtung zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit einer Bildschirmanzeige umfaßt eine Bilderzeugungsoberfläche, auf der ein Abschnitt der Spitze eines menschlichen Fingers plaziert werden kann. Eine Lichtquelle beleuchtet diesen Abschnitt der Spitze des Fingers, der auf der Bilderzeugungsoberfläche plaziert ist, wodurch Spiegelbilder erzeugt werden. Die Vorrichtung umfaßt einen Bewegungswandler. Eine Linse empfängt die Spiegelbilder und lenkt die Spiegelbilder auf den Bewegungswandler. Der Bewegungswandler erzeugt digitale Darstellungen der Spiegelbilder. Der Bewegungswandler erzeugt einen ersten Satz von Bewegungsdaten, basierend auf den digitalen Darstellungen der Spiegelbilder. Der erste Satz von Bewegungsdaten zeigt die Bewegung der Spitze des Fingers über der Bilderzeugungsoberfläche an. Ein Controller erzeugt einen zweiten Satz von Bewegungsdaten, wenn die Spitze des menschlichen Fingers von der Bilderzeugungsoberfläche entfernt wird. Der zweite Satz von Bewegungsdaten zeigt die Bewegung der Spitze des Fingers über der Bilderzeugungsoberfläche vor dem Entfernen der Spitze an.
Description
Diese Anmeldung bezieht sich auf den Gegenstand, der in den
nachstehenden US-Patenten beschrieben ist: US-Patent Nr.
5.578.813, eingereicht am 2. März 1995, erteilt am 26. No
vember 1996, mit dem Titel FREEHAND IMAGE SCANNING DEVICE
WHICH COMPENSATES FOR NON-LINEAR MOVEMENT; US-Patent Nr.
5.644.139, einreicht am 14. August 1996, erteilt am 1. Juli
1997, mit dem Titel NAVIGATION TECHNIQUE FOR DETECTING
MOVEMENT OF NAVIGATION SENSORS RELATIVE TO AN OBJECT; und
US-Patent Nr. 5.786.804, eingereicht am 6. Oktober 1995,
erteilt am 28. Juli 1998 mit dem Titel METHOD AND SYSTEM
FOR TRACKING ATTITUDE. Diese drei Patente beschreiben Ver
fahren zum Verfolgen von einer Positionsbewegung und von
Computerzeigegeräten. Diese Verfahren sind eine Komponente
in einem bevorzugten Ausführungsbeispiel, das nachstehend
beschrieben ist. Folglich sind die US-Patente Nr.
5.578.813, 5.644.139 und 5.786.804 hierin durch Bezugnahme
aufgenommen.
Diese Anwendung bezieht sich auch auf den Gegenstand, der
in dem US-Patent Nr. 6.057.540, eingereicht am 30. April
1998, erteilt am 2. Mai 2000, mit dem Titel MOUSELESS
OPTICAL AND POSITION TRANSLATION TYPE SCREEN POINTER
CONTROL FOR A COMPUTER SYSTEM; US-Patent Nr. 6.151.015,
eingereicht am 27. April 1998, erteilt am 21. November
2000, mit dem Titel PEN LIKE COMPUTER POINTING DEVICE; und
US-Patentanmeldung, fortlaufende Nummer 09/052.046, einge
reicht am 30. März 1998, mit dem Titel SEEING EYE MOUSE FOR
A COMPUTER SYSTEM beschrieben ist. Diese zwei verwandten
Patente und die Patentanmeldung beschreiben Bildschirm-
Zeigegeräte basierend auf den Verfahren, die in den US-
Patenten Nr. 5.578.813, 5.644.139 und 5.786.804 beschrieben
sind. Daher sind die US-Patente, Nr. 6.057.540 und
6.151.015 und die US-Patentanmeldung, fortlaufende Nr.
09/052.046, eingereicht am 30. März 1998, mit dem Titel
SEEING EYE MOUSE FOR A COMPUTER SYSTEM hierin durch Bezug
nahme aufgenommen.
Diese Erfindung bezieht sich im allgemeinen auf Vorrichtun
gen zum Steuern eines Cursors auf einem Anzeigebildschirm,
die auch als Zeigegeräte bekannt sind. Spezieller bezieht
sich diese Erfindung auf ein optisches Zeigegerät mit Träg
heitseigenschaften.
Die Verwendung eines handbetriebenen Zeigegeräts zur Ver
wendung bei einem Computer und seiner Anzeige ist nahezu
überall anzutreffen. Die bei weitem beliebteste der ver
schiedenen Vorrichtungen ist die konventionelle (mechani
sche) Maus, die in Verbindung mit einem kooperierenden
Mauspad verwendet wird. Ein Loch, durch das sich ein Ab
schnitt der Unterseite einer Stahlkugel mit Gummioberfläche
erstreckt, ist in der unter Oberfläche der Maus zentral an
geordnet. Das Mauspad ist typischerweise eine geschlossene
Zellschaumgummi-Fläche, die mit einem geeigneten Stoff be
zogen ist. Reibungsarme Flächen bzw. Blöcke auf der unteren
Oberfläche der Maus gleiten leicht über den Stoff, die Gum
mikugel rutscht dabei jedoch nicht. Vielmehr rollt die Gum
mikugel über den Stoff, während die Maus bewegt wird. Im
Inneren der Maus sind Rollen, oder Räder, die die Kugel an
ihrem Äquator kontaktieren und ihre Rotation in elektrische
Signale konvertieren, die orthogonale Komponenten einer
Mausbewegung darstellen. Diese elektrischen Signale sind
mit einem Computer gekoppelt, wo die Software auf die Si
gnale anspricht, um die angezeigte Position eines Zeigers
(Cursors) gemäß der Bewegung der Maus um ein ΔX und ein ΔY
zu verändern. Der Benutzer bewegt die Maus nach Bedarf, um
den angezeigten Zeiger zu einer bestimmten Stelle oder Po
sition zu bewegen. Sobald der Zeiger auf dem Bildschirm auf
ein interessantes Objekt oder eine interessante Stelle
zeigt, wird eine Taste auf der Maus mit den Fingern der
Hand, die die Maus halten, aktiviert. Die Aktivierung dient
als eine Anweisung, um eine Maßnahme zu ergreifen, deren
Art und Weise durch die Software im Computer definiert ist.
Ein "Trackball" ist ein weiteres Beispiel eines mechani
schen Typs eines Zeigegeräts. Ein Trackball ist im Grunde
eine auf den Kopf gestellte Maus. Bei einem Trackball wird
die Vorrichtung an sich nicht über eine Oberfläche gescho
ben, um eine Zeigerbewegung wie bei einer Maus zu erzeugen,
sondern der Benutzer kontaktiert die mechanische Kugel di
rekt mit dem Finger des Benutzers und bewirkt, daß sich die
Kugel dreht. Wie bei einer Maus erzeugt die Bewegung der
mechanischen Kugel in einem Trackball eine entsprechende
Bewegung des angezeigten Zeigers.
Bei einem Trackball kann die mechanische Kugel mit dem Fin
ger "angeschnipst" werden, und die Kugel dreht sich gemäß
ihrem eigenen Impuls weiter, nachdem der Finger der Benut
zers von der Kugel entfernt worden ist. Die Rotation hält
an, bis der Benutzer die mechanische Kugel erneut kontak
tiert oder bis Reibungskräfte schließlich bewirken, daß die
Kugel zu drehen aufhört. Die Trägheitseigenschaften eines
Trackballs, die es ihm ermöglichen, die Erzeugung einer
Zeigerbewegung fortzusetzen, nachdem der Benutzer aufgehört
hat, die mechanische Kugel zu kontaktieren, resultiert in
einem guten dynamischen Bereich. Kleine Handbewegungen kön
nen zu großen Zeigerbewegungen führen. Die Trägheitseigen
schaften eines Trackballs sind bei manchen Anwendungen, wie
z. B. Spieleanwendungen, wo manchmal große und schnelle
Zeigerbewegungen wünschenswert sind, nützlich. Einige me
chanische Mausverrichtungen können auch Trägheitseffekte
wie ein Trackball schaffen. Eine mechanische Maus kann
schnell über da Mauspad bewegt und dann von der Fläche ab
gehoben werden, wodurch sich die Kugel nach ihrem eigenen
Impuls weiterdrehen kann. Einige mechanische Mausgeräte be
wirken jedoch, daß die Kugel die Bewegung unmittelbar ein
stellt, wenn die Maus vom Mauspad abgehoben worden ist.
Optische Zeigegeräte verwenden keine mechanische Kugel oder
ein anderes ähnliches bewegliches mechanisches Element, das
Trägheitseigenschaften aufweist. Bei einer Form eines opti
schen Zeigegeräts wird, nicht wie bei der Verwendung eines
beweglichen mechanischen Elements, die relative Bewegung
zwischen einer Bilderzeugungsoberfläche, wie z. B. einem
Finger oder einem Desktop, und Photodetektoren innerhalb
des optischen Zeigegeräts optisch erfaßt und in Bewegungs
informationen konvertiert. Es wäre bei manchen Anwendungen
für ein optisches Zeigegerät wünschenswert, Trägheitseffek
te zu schaffen, wie die, die durch einen Trackball gelie
fert werden. Es wäre ebenfalls für ein optisches Zeigegerät
wünschenswert, ein Geschwindigkeitsprofil aufzuweisen, das
benutzerdefinierbar ist.
Es ist die Aufgabe der vorliegenden Erfindung eine Vorrich
tung und ein Verfahren zum Steuern der Position eines Bild
schirmzeigers für eine elektronisches Gerät mit einem An
zeigebildschirm zu schaffen.
Diese Aufgabe wird durch Vorrichtungen gemäß den Ansprüchen
1, 30 und 39 und Verfahren gemäß den Ansprüchen 11 und 21
gelöst.
Die vorliegende Erfindung schafft eine Vorrichtung zum
Steuern der Position eines Bildschirmzeigers für ein elek
tronisches Gerät, das eine Bildschirmanzeige aufweist, und
eine Bilderzeugungsoberfläche umfaßt, auf die ein Abschnitt
der Spitze eines menschlichen Fingers plaziert werden kann.
Eine Lichtquelle beleuchtet diesen Abschnitt der Spitze des
Fingers, der auf der Bilderzeugungsoberfläche plaziert
wird, wodurch Spiegelbilder (bzw. reflektierte Bilder) er
zeugt werden. Die Vorrichtung umfaßt einen Bewegungswand
ler. Eine Linse empfängt die Spiegelbilder und lenkt die
Spiegelbilder auf den Bewegungswandler. Der Bewegungswand
ler erzeugt digitale Darstellungen der Spiegelbilder. Der
Bewegungswandler erzeugt einen ersten Satz von Bewegungsda
ten basierend auf den digitalen Darstellungen der Spiegel
bilder. Der erste Satz von Bewegungsdaten zeigt die Bewe
gung der Spitze des Fingers über der Bilderzeugungsoberflä
che an. Eine Steuerung erzeugt einen zweiten Satz von Bewe
gungsdaten, wenn die Spitze des menschlichen Fingers von
der Bilderzeugungsoberfläche entfernt worden ist. Der zwei
te Satz von Bewegungsdaten zeigt die Bewegung der Spitze
des Fingers über der Bilderzeugungsoberfläche vor dem
Entfernen der Spitze an.
Ein Aspekt der vorliegenden Erfindung sieht ein Verfahren
zum Steuern der Position eines Bildschirmzeigers für ein
elektronisches Gerät mit einer Bildschirmanzeige vor. Ein
Abschnitt einer Gliedmaße der menschlichen Hand wird auf
einer Bilderzeugungsoberfläche plaziert. Licht wird auf die
Bilderzeugungsoberfläche gelenkt, um diesen Abschnitt der
Gliedmaße, das sich auf der Bilderzeugungsoberfläche befin
det, zu beleuchten. Die Bilder, die vom Abschnitt der
Gliedmaße reflektiert werden, werden auf ein Array von Pho
todetektoren fokussiert. Ausgabewerte der Photodetektoren
werden digitalisiert, wodurch digitale Darstellungen der
Spiegelbilder erzeugt werden. Zumindest eine Version einer
ersten der digitalen Darstellungen ist mit zumindest einer
Version einer zweiten der digitalen Darstellungen korre
liert, um einen ersten Satz von Bewegungsdaten zu erzeugen,
die eine Bewegung in orthogonalen Achsen über der Bilder
zeugungsoberfläche durch die Gliedmaße anzeigen. Die Posi
tion des Bildschirmzeigers wird gemäß dem ersten Satz von
Bewegungsdaten eingestellt. Ein zweiter Satz von Bewegungs
daten wird basierend auf zumindest einem Teilsatz des er
sten Satzes von Bewegungsdaten erzeugt, nachdem die Glied
maße von der Bilderzeugungsoberfläche entfernt worden ist.
Die Position des Bildschirmzeigers wird gemäß dem zweiten
Satz von Bewegungsdaten eingestellt, nachdem die Gliedmaße
von der Bilderzeugungsoberfläche entfernt worden ist.
Eine weitere Form der vorliegenden Erfindung sieht ein Ver
fahren zum Steuern der Position eines Bildschirmzeigers für
ein elektronisches Gerät mit einer Bildschirmanzeige vor.
Licht wird auf eine Arbeitsoberfläche gelenkt, wodurch
Spiegelbilder erzeugt werden. Die Spiegelbilder werden auf
ein Array von Photodetektoren fokussiert. Das Array von
Photodetektoren wird relativ zur Arbeitsoberfläche bei ei
ner im wesentlichen konstanten Entfernung von der Arbeits
oberfläche bewegt. Die digitalen Darstellungen der Spiegel
bilder werden basierend auf Ausgangssignalen der Photode
tektoren erzeugt. Zumindest eine Version einer ersten der
digitalen Darstellungen ist mit zumindest einer Version ei
ner zweiten der digitalen Darstellungen korreliert, um ei
nen ersten Satz von Bewegungsdaten zu erzeugen, die die Be
wegung des Arrays von Photodetektoren relativ zur Arbeits
oberfläche anzeigen. Die Position des Bildschirmzeigers
wird gemäß dem ersten Satz von Bewegungsdaten eingestellt.
Ein zweiter Satz von Bewegungsdaten wird basierend auf zu
mindest einem Teilsatz des ersten Satzes von Bewegungsdaten
erzeugt, wenn das Array von Photodetektoren von der Ar
beitsoberfläche über die im wesentlichen konstante Entfer
nung hinaus abgehoben worden ist. Die Position des Bild
schirmzeigers wird gemäß dem zweiten Satz von Bewegungsda
ten eingestellt.
Eine weitere Form der vorliegenden Erfindung sieht eine
Vorrichtung zum Steuern der Position eines Bildschirmzei
gers für ein elektronisches Gerät mit einer Bildschirman
zeige vor. Eine Lichtquelle beleuchtet eine Arbeitsoberflä
che, wodurch Spiegelbilder erzeugt werden. Ein Bewegungs
wandler wird relativ zur Arbeitsoberfläche bei einer im we
sentlichen konstanten Entfernung von der Arbeitsoberfläche
bewegt. Eine Linse empfängt die Spiegelbilder und lenkt die
Spiegelbilder auf den Bewegungswandler. Der Bewegungswand
ler erzeugt digitale Darstellungen der Spiegelbilder. Der
Bewegungswandler erzeugt einen ersten Satz von Bewegungsda
ten basierend auf den digitalen Darstellungen der Spiegel
bilder. Der erste Satz von. Bewegungsdaten zeigt die Bewe
gung des Bewegungswandlers relativ zur Arbeitsoberfläche
an. Eine Steuerung erzeugt einen zweiten Satz von Bewe
gungsdaten, wenn der Bewegungswandler über die im wesentli
chen konstante Entfernung von der Arbeitsoberfläche hinaus
abgehoben worden ist. Der zweite Satz von Bewegungsdaten
zeigt die Bewegung des Bewegungswandlers relativ zur Ar
beitsoberfläche an, bevor der Bewegungswandler über die im
wesentlichen konstante Entfernung hinaus abgehoben worden
ist.
Eine weitere Form der vorliegenden Erfindung sieht ein com
puterlesbares Medium mit computerausführbaren Anweisungen
zum Ausführen eines Verfahrens zum Erzeugen von Bewegungs
daten zum Steuern der Position eines Bildschirmzeigers für
ein elektronisches Gerät mit einer Bildschirmanzeige und
einer optischen Zeigevorrichtung vor. Die optische Zeige
vorrichtung erzeugt Bewegungsdaten, wenn sie mit einer Bil
derzeugungsoberfläche in Kontakt steht. Die Bewegungsdaten
zeigen die relative Bewegung zwischen der Bilderzeugungs
oberfläche und dem optischen Zeigegerät an. Das Verfahren
umfaßt ein Identifizieren, wenn ein Kontaktverlust zwischen
dem optischen Zeigegerät und der Bilderzeugungsoberfläche
auftritt. Ein erster Satz von Bewegungsdaten wird identifi
ziert. Der erste Satz von Bewegungsdaten zeigt die relative
Bewegung zwischen der Bilderzeugungsoberfläche und der op
tischen Zeigevorrichtung vor dem Kontaktverlust an. Ein
zweiter Satz von Bewegungsdaten wird basierend auf dem er
sten Satz von Bewegungsdaten erzeugt, wenn ein Kontaktver
lust zwischen dem optischen Zeigegerät und der Bilderzeu
gungsoberfläche auftritt. Der zweite Satz von Bewegungsda
ten bewirkt eine graduelle Abnahme der Geschwindigkeit des
Bildschirmzeigers.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung
werden nachfolgend Bezug nehmend auf die beiliegenden
Zeichnungen näher erläutert. Es zeigen
Fig. 1 eine piktographische Seitenansicht der Hauptkom
ponenten von einem Ausführungsbeispiel eines op
tischen Bildschirmzeigergeräts des Bewegungsüber
setzungstyps gemäß der vorliegenden Erfindung.
Fig. 2 ein Diagramm, das typische Geschwindigkeitsprofi
le für ein mechanisches Zeigegerät, wie z. B. ei
nen Trackball, und ein optisches Zeigegerät dar
stellt.
Fig. 3 ein Blockdiagramm, das ein Ausführungsbeispiel
eines Impulssimulators- oder Emulators für ein
Bildschirmzeigegerät des optischen Bewegungsüber
setzungstyps darstellt, das Trägheitseffekte lie
fert.
Fig. 4 ein Flußdiagramm, das ein Verfahren zum Liefern
von Trägheitseffekten in einem optischen Bild
schirmzeigegerät des Bewegungsübersetzungstyps
gemäß der vorliegenden Erfindung darstellt.
In der nachstehenden ausführlichen Beschreibung der bevor
zugten Ausführungsbeispiele wird auf die beigefügten Zeich
nungen Bezug genommen, die einen Teil derselben bilden, und
bei denen spezifische Ausführungsbeispiele mittels Darstel
lung gezeigt sind, durch die die Erfindung praktiziert wer
den kann. Es wird darauf hingewiesen, daß weitere Ausfüh
rungsbeispiele genutzt und strukturelle oder logische Ver
änderungen vorgenommen werden können, ohne vom Schutzbe
reich der vorliegenden Erfindung abzuweichen. Die nachste
hende ausführliche Beschreibung ist daher nicht in einem
einschränkenden Sinne aufzufassen, und der Schutzbereich
der vorliegenden Erfindung ist durch die angehängten An
sprüche definiert.
Fig. 1 zeigt eine vereinfachte Darstellung einer Seitenan
sicht einer Bewegungserfassungsanordnung 1, die zum Verfol
gen der Bewegung eines menschlichen Fingers 7, der gegen
eine Oberfläche 5 eines transparenten Stiftes 3, der bei
einem Ausführungsbeispiel aus Kunststoff gefertigt ist, ge
drückt wird, geeignet ist. Eine Bewegungserfassungsanord
nung wie jene, die in Fig. 1 gezeigt ist, wird im oben auf
genommenen US-Patent Nr. 6.057.540 (das 540er Patent) aus
führlich beschrieben. Der Betrieb der Bewegungserfassungs
anordnung 1 wird nachstehend ebenfalls zusammengefaßt. Ob
wohl die vorliegende Erfindung unter Bezugnahme auf die
spezielle optische Zeigegerätanordnung, die in Fig. 1 ge
zeigt ist, beschrieben ist, sind die hierin beschriebenen
Verfahren ebenfalls auf andere optische Zeigegeräte, die
eine optische Maus umfassen, wie jene, die in der oben auf
genommenen US-Patentanmeldung, fortlaufende Nr. 09/052.046
offenbart ist, und ein optisches stiftartiges Zeigegerät
umfassen, wie jenes, das in der oben aufgenommenen US-
Patentanmeldung Nr. 6.151.015 offenbart ist, anwendbar.
Eine Lichtquelle 2, die bei einem Ausführungsbeispiel eine
LED ist, emittiert Licht, das durch eine Linse 4 gesammelt
und fokussiert wird, um eine Oberfläche 5 zu beleuchten.
Die Oberfläche 5 kann flach sein oder vorzugsweise eine
leichte Krümmung aufweisen. Die Krümmung unterstützt das
Vergrößern der Größe des Bereichs der Oberfläche 5, die
sich im Brennpunkt für den Bewegungsdetektor 9, der nach
stehend beschrieben ist, befindet. Die Oberfläche 5 kann
ein Glas oder eine andere verschleißfeste Beschichtung
sein, die an das Ende des transparenten Stiftes 3 ange
bracht ist. Bei einer Form der vorliegenden Erfindung weist
die Oberfläche 5 im Durchmesser etwa 3/16 bis 1/4 eines
Zolls auf, und die Länge des transparenten Stifts 3 reicht
von etwa 3/8 bis 3/4 eines Zolls. Ein weiterer Begriff, der
den transparenten Stift 3 beschreibt, ist der Begriff
"Stablinse". Eine lichtundurchlässige Barriere 10 verhin
dert, daß Streulicht von der LED 2 den Bewegungsdetektor 9
erreicht.
Wenn die Spitze 6 des Fingers 7 gegen die Oberfläche 5 ge
drückt wird, sind Hautfurchen oder andere Mikrofasermerkma
le auf der Ebene der Oberfläche 5 sichtbar, so als ob sie
ein Teil der Oberfläche 5 wären. Die Linse 8 fokussiert das
Licht von diesen Merkmalen auf ein Array von Photodetekto
ren, das Teil des Bewegungssensors 9 ist. Der Bewegungssen
sor 9 erwirbt automatisch jedes geeignete Bild und verfolgt
dasselbe. Beim Verfolgen eines Bildes erzeugt der Bewe
gungssensor 9 inkrementale (X, Y) Signale (d. h. Geschwin
digkeitssignale in zwei Dimensionen).
Indem die Fingerspitze 6 von der Oberfläche 5 um mehr als
einen Bruchteil eines Millimeters angehoben wird, wird das
Bild entfokussiert und ein Verfolgungsverlust erzeugt. Die
se Bedingung wird im Bewegungsdetektor 9 erfaßt, und bei
einem Ausführungsbeispiel wird die Erzeugung der inkremen
talen (X, Y) Signale bei graduell abnehmenden Beträgen
fortgesetzt. Dies hat den Effekt, daß die Bewegung des
Bildschirmzeigers fortgesetzt wird. Bei einer Form der vor
liegenden Erfindung ist die fortgesetzte Bewegung der Bewe
gung eines Bildschirmzeigers ähnlich, wenn eine mechanische
Kugel eine Trackballs "angeschnippt" wird. Wenn die Finger
spitze 6 anschließend wieder auf die Oberfläche 5 gesetzt
wird, erkennt ein Bewegungsdetektor 9, daß ein Bild erwor
ben worden ist, und behandelt diesen Erwerb bei einem Aus
führungsbeispiel, als ob eine Rücksetzung ausgeführt worden
wäre. Das heißt, daß, bis im Anschluß an den neuen Erwerb
eine neue Bewegung eingesetzt hat, die Inkrementalkoordina
ten (X, Y), den Wert (0, 0) aufweisen. Daher, wenn sich der
Bildschirmzeiger bewegt, wenn die Fingerspitze 6 wieder auf
die Oberfläche 5 gesetzt wird, stoppt die Bewegung, wenn
der Bewegungsdetektor 9 den Kontakt erfaßt hat. Der Bild
schirmzeiger verbleibt in der Position, wo er anhielt, bis
der Bewegungsdetektor 9 die Bewegung der Fingerspitze 6 auf
der Oberfläche 5 erfaßt hat.
Der Bewegungssensor 9 verwendet exakt oder im wesentlichen
das gleiche Verfahren wie die Bilderzeugungs- und Navigati
onsanordnung, die in den aufgenommenen Patenten beschrieben
ist. Bei den speziellen Betriebseinstellungen, die darin
beschrieben sind, war es wünschenswert, eine gewisse Ver
größerung des Bildes vorzunehmen, bevor es den Sensor er
reichte, aufgrund der geringen Größe der Mikromerkmale, die
abgebildet und verfolgt werden (z. B. Papierfasern). Hier
sind die Merkmale auf der Fingerspitze 6 vergleichsweise
wirklich ziemlich groß, so daß die Vergrößerung bei einem
Ausführungsbeispiel nicht verwendet wird. Auch wenn eine
Form eines Bilderzeugungs- und Navigationsmechanismus in
den aufgenommenen Patenten beschrieben ist, ist nachstehend
ein kurzer Überblick über das Verfahren vorgesehen.
Eine LED 2, die bei einem Ausführungsbeispiel eine Infra
rot-LED ist, emittiert Licht, das durch die Linsen 4 auf
einen Bereich 5, der Teil einer Arbeitsoberfläche 6 ist,
die für eine Navigation abgebildet werden soll, projiziert
wird. Bei einer Form der vorliegenden Erfindung ist der Be
wegungssensor 9 eine integrierte Schaltung (IC) mit einem
Array von Photodetektoren, einem Speicher und arithmeti
schen Schaltungen, die angeordnet sind, um eine Bildkorre
lation und Verfolgungsfunktionen, die hierin und in den
aufgenommenen Patenten beschrieben sind, zu implementieren.
Ein Bild des beleuchteten Bereichs 6 wird durch ein opti
sches Fenster (das der transparente Stift 3 an sich sein
kann) auf ein Gehäuse (nicht gezeigt) der integrierten
Schaltung 9 und auf das Array von Photodetektoren proji
ziert. Die Linse 8 unterstützt die Projektion des Bildes auf
die Photodetektoren.
Ein bevorzugtes optisches Navigationsverfahren gemäß der
vorliegenden Erfindung erfaßt in optischer Weise die Bewe
gung durch direktes Abbilden der verschiedenen speziellen
optischen Merkmale, die auf der Oberfläche 5 sichtbar sind,
als ein Array von Pixeln, ganz ähnlich so, wie man annimmt,
daß die menschliche Sichtweise funktioniert. Das IR-Licht,
das von einer strukturierten Arbeitsoberfläche reflektiert
wird, die gegen die Oberfläche 5 gedrückt wird, wird auf
ein geeignetes Array (z. B. 16 × 16 oder 24 × 24) der Pho
todetektoren fokussiert. Die Antworten der einzelnen Photo
detektoren werden bis zu einer geeigneten Auflösung (z. B.
6 oder 8 Bits) digitalisiert und als ein Rahmen in entspre
chenden Stellen innerhalb eines Arrays des Speichers ge
speichert. Bei einem Ausführungsbeispiel entspricht jedes
Pixel in einem Rahmen einem der Photodetektoren.
Die Gesamtgröße des Arrays von Photodetektoren ist vorzugs
weise groß genug, um ein Bild mit mehreren Merkmalen (z. B.
Furchen in den Hautwirbeln) zu empfangen. Auf diese Weise
erzeugen Bilder von solchen räumlichen Merkmalen übersetzte
Muster von Pixelinformationen, während sich die Fingerspit
ze 6 bewegt. Die Anzahl von Photodetektoren in dem Array
und die Rahmenrate, bei der ihre Inhalte digitalisiert und
erfaßt werden, kooperieren, um zu beeinflussen, wie schnell
die Fingerspitze 6 über die Oberfläche 5 bewegt und immer
noch verfolgt werden kann. Das Verfolgen wird durch Ver
gleichen eines neu erfaßten Abtastrahmens mit einem zuvor
erfaßten Referenzrahmen erreicht, um die Richtung und den
Betrag der Bewegung zu ermitteln.
Bei einem Ausführungsbeispiel wird der gesamte Inhalt von
einem der Rahmen um eine Entfernung von einem Pixel sukzes
sive in jede der acht Richtungen verschoben, die durch eine
Einpixel-Versatz-Versuchsverschiebung möglich sind (eins
seitlich, eins seitlich und eins hinunter, eins hinunter,
eins hinauf, eins hinauf und eins seitlich, eins seitlich
in die andere Richtung etc.). Dies ergibt bis zu acht Ver
suche. Da auch keine Bewegung stattgefunden haben muß, wird
auch ein neunter Versuchs "Nullverschiebung" verwendet.
Nach jeder Versuchsverschiebung werden diese Abschnitt der
Rahmen, die einander überlappen, auf einer Pixel-mal-
Pixelbasis subtrahiert, und die resultierenden Differenzen
werden vorzugsweise quadriert und dann summiert, um ein Maß
der Ähnlichkeit (Korrelation) innerhalb dieses Bereichs der
Überlappung zu bilden. Größere Versuchsverschiebungen sind
natürlich möglich (z. B. zwei seitlich und eins hinunter),
jedoch vernichtet die dazugehörige Komplexität an einem ge
wissen Punkt den Vorteil, und es wird bevorzugt, einfach
eine ausreichend hohe Rahmenrate mit kleinen Versuchsver
schiebungen aufzuweisen. Die Versuchsverschiebung mit der
geringsten Differenz (größten Korrelation) kann als ein
Hinweis der Bewegung zwischen den zwei Rahmen betrachtet
werden. Das heißt sie liefert rohe Bewegungsinformationen,
die skaliert oder akkumuliert werden können, um Anzeigezei
gerbewegungs-Informationen (ΔX und ΔY) einer angenehmen
Körnigkeit und bei einer geeigneten Informationsaus
tauschrate zu liefern.
Der Sensor 9 erfaßt automatisch, wann die Fingerspitze 6
von der Oberfläche 5 entfernt worden ist, indem er erfaßt,
daß alle oder die Mehrheit der Pixel im Bild "dunkel gewor
den sind". Das Verfahren ist eigentlich etwas komplizierter
als jenes, das unten erläutert ist.
Wenn die Fingerspitze 6 von der Oberfläche 5 entfernt wor
den ist, erreicht das IR-Licht von der beleuchtenden LED 2
die Photodetektoren nicht mehr in derselben Menge als sie
es vorher tat, wenn überhaupt; die reflektierende Oberflä
che ist zu weit entfernt oder ist einfach nicht in Sicht.
Wenn die Fingerspitze 6 jedoch entfernt worden ist, und die
Oberfläche 5 infolgedessen einer intensiv beleuchteten Um
gebung freigesetzt wird, dann können sich die Ausgangssi
gnale der Photodetektoren auf einem beliebigen Pegel befin
den. Von Bedeutung ist, daß die Ausgangssignale der Photo
detektoren einheitlich oder nahezu einheitlich sind. Der
Hauptgrund, daß die Ausgangssignale einheitlich werden,
ist, daß kein fokussiertes Bild mehr vorhanden ist. Alle
Bildmerkmale sind undeutlich, und sie sind jeweils über die
gesamte Sammlung der Photodetektoren verstreut. Daher ge
langen die Photodetektoren einheitlich zu einem bestimmten
Durchschnittspegel. Dies verhält sich in einem deutlichen
Kontrast zu dem Fall, wo ein fokussiertes Bild vorhanden
ist. Im Falle des fokussierten Bildes weisen die Korrela
tionen zwischen den Rahmen (man erinnere sich an eins seit
lich, eins seitlich und eins hinunter etc.) ein deutliches
Phänomen auf.
Während des Betriebes sollten Bilder bei einer Rate erwor
ben werden, die ausreicht, daß sich nachfolgende Bilder be
züglich der Entfernung um nicht mehr als vielleicht ein
Viertel der Breite des Arrays oder vier Pixel für ein 16-
mal-16-Array von Lichtsensoren unterscheiden. Experimente
haben gezeigt, daß eine Fingergeschwindigkeit von
50 mm/Sekunde nicht unangemessen sind. Bei einer Bilderzeu
gung von 1 : 1 entspricht dies einer Geschwindigkeit am Array
von 800 Pixeln pro Sekunde. Um eine Anforderung, nicht mehr
als vier Pixel pro Zyklus zu bewegen, zu erfüllen, ist eine
Meßrate von 200 Abtastwerten pro Sekunde notwendig. Diese
Rate ist durchaus praktizierbar, und es wäre wünschenswert,
bei einem Mehrfachen dieser Rate zu arbeiten.
Fig. 2 ist ein Diagramm, das typische Geschwindigkeitspro
file für ein mechanisches Zeigegerät, wie z. B. einen
Trackball, und ein optisches Zeigegerät darstellt. Das Dia
gramm 20 umfaßt eine horizontale Achse, eine vertikale Ach
se, eine Kurve 24 und eine Kurve 26. Die horizontale Achse
des Diagramms 20 stellt die Zeit dar, und die vertikale
Achse stellt die Geschwindigkeit dar. Die Kurve 26 stellt
die Geschwindigkeit gegenüber dem Zeit- oder Geschwindig
keitsprofil einer mechanischen Maus oder eines Trackballs
dar, wenn diese "angeschnippst" oder schnell beschleunigt
und dann wieder freigegeben werden. Die Gesamtentfernung,
die zurückgelegt wird, verhält sich proportional zum Be
reich unter der Kurve 26. Die Kurve 26 wird von einer Reihe
von Geschwindigkeitsabtastwerten 22 erzeugt. Wie durch die
Kurve 26 gezeigt ist, nimmt die Geschwindigkeit der mecha
nischen Kugel beim Trackball anfangs bei einer nahezu kon
stanten Rate zu, wobei der Geschwindigkeitsanstieg durch
einen Finger, der eine Schnippaktion auf der Kugel beginnt,
bewirkt wird. Nachdem die mechanische Kugel angeschnippt
und freigeben worden ist, sinkt die Geschwindigkeit der Ku
gel graduell auf 0 ab. Im Gegensatz dazu sinkt die Ge
schwindigkeit bei einem typischen optischen Zeigegerät so
fort auf 0, wie durch die Kurve 24 gezeigt wird, wenn ein
Benutzer seinen Finger nach dem Ausführen einer Schnippak
tion vom Gerät entfernt hat. Die Kurven 24 und 26 sind für
typische Geschwindigkeitsprofile für einen Typ der Zeiger
gerätbewegung repräsentativ und variieren abhängig von der
exakten Bewegung, die durch einen Benutzer bewirkt wird.
Bei einer Form der vorliegenden Erfindung wird das Ge
schwindigkeitsprofil einer mechanischen Maus oder eines
Trackballs, das durch die Kurve 26 dargestellt ist, als ein
Modell beim Bestimmen eines angemessenen Geschwindigkeits
profils für ein optisches Zeigegerät mit Trägheitseigen
schaften verwendet.
Fig. 3 ist ein Blockdiagramm, das ein Ausführungsbeispiel
eines Impulssimulators- oder Emulators für ein Bildschirm
zeigergerät des optischen Bewegungsübersetzungstyps, das
Trägheitseffekte liefert, darstellt. Der Impulssimulator 40
umfaßt einen Reibungssimulator oder Controller 44, ein ge
schwindigkeitszustandsvariierbares Register 46 und eine
Zeitkonstante 48. Bei einem Ausführungsbeispiel sind der
Impulssimulator 40 und der Bewegungsdetektor 9 in einem
einzelnen IC-Gehäuse integriert. Bei einem alternativen
Ausführungsbeispiel sind der Impulssimulator 40 und der Be
wegungsdetektor 9 separate ICs. Der Bewegungsdetektor 9
gibt Geschwindigkeitsdaten für X- und Y-Dimensionen aus,
die vorstehend unter Bezugnahme auf Fig. 1 erläutert wur
den. Bei einem Ausführungsbeispiel multipliziert der Bewe
gungsdetektor 9 die Geschwindigkeitsdaten mit einem Multi
plikationsfaktor, wodurch die Geschwindigkeitsdaten norma
lisiert werden. Die normalisierten Geschwindigkeitsdaten
werden an den Reibungssimulator 44 ausgegeben, der die Rei
bung tatsächlich zu den Geschwindigkeitsdaten hinzuaddiert
und graduell verringerte Geschwindigkeitsdaten ausgibt. Die
Ausgabe des Reibungssimulators 44 kann mit einem beliebigen
Gerät gekoppelt werden, das einen Bildschirmzeiger oder
Cursor verwendet, einschließlich Computer, Mobiltelephone,
persönliche digitale Assistenten (PDAs), digitale Kameras,
tragbare Spielgeräte, oder andere Geräte, die einen Bild
schirmzeiger verwenden.
Bei einem Ausführungsbeispiel basiert die Rate, bei der die
Geschwindigkeitsdaten durch den Reibungssimulator 44 ver
ringert werden, auf einem exponentiellen Abfall bei einer
Zeitkonstante, die durch den Wert der Zeitkonstante 48 spe
zifiziert ist. Bei einer Form der Erfindung kann der Wert
der Zeitkonstante 48 durch einen Benutzer spezifiziert wer
den. Der Reibungssimulator 44 speichert die Geschwindig
keitsdaten im geschwindigkeitszustandsvariierbaren Register
46. Der Impulssimulator 40 wird nachstehend unter Bezugnah
me auf Fig. 4 ausführlicher beschrieben.
Fig. 4 ist ein Flußdiagramm, das ein Verfahren 60 zum Bie
fern von Trägheitseffekten in einem optischen Bildschirm
zeigergerät des Bewegungsübersetzungstyps gemäß der vorlie
genden Erfindung darstellt. Bei Schritt 62 bestimmt der Be
wegungsdetektor 9, ob die Fingerspitze 6 die Oberfläche 5
berührt. Wenn die Fingerspitze 6 die Oberfläche 5 nicht be
rührt, gibt der Bewegungsdetektor 9 null Geschwindigkeit
aus und erfaßt weiterhin, ob die Fingerspitze 6 die Ober
fläche 5 berührt. Wenn die Fingerspitze 6 die Oberfläche 5
berührt, berechnet der Bewegungsdetektor 9 die X- und Y-
Komponenten der Geschwindigkeit der Fingerspitze 6, wie
oben erläutert wurde, und gibt bei Schritt 64 die Geschwin
digkeitsdaten oder Bewegungsdaten an den Reibungssimulator
44 aus. Bei Schritt 66 erfaßt der Bewegungsdetektor 9, ob
die Fingerspitze 6 von der Oberfläche 5 entfernt worden
ist. Wenn die Fingerspitze 6 die Oberfläche 5 nicht ausge
lassen hat, gibt der Bewegungsdetektor 9 weiterhin die Ge
schwindigkeitsdaten aus, wie durch Schritt 64 dargestellt
ist. Daher gibt der Bewegungsdetektor 9 weiterhin die Ge
schwindigkeitsdaten, die die Bewegung darstellen, aus, so
lange sich die Fingerspitze 6 weiterhin über die Oberfläche
5 bewegt. Die Geschwindigkeitsdaten, die durch den Bewe
gungsdetektor 9 ausgegeben werden, sind normalisiert. Bei
einem Ausführungsbeispiel multipliziert der Bewegungsdetek
tor 9 die Geschwindigkeitsdaten mit 100 und gibt die norma
lisierten Geschwindigkeitsdaten an den Reibungssimulator 44
aus. Der Reibungssimulator 44 gibt die normalisierten Ge
schwindigkeitsdaten ohne Hinzufügen der Reibung aus, da
sich die Fingerspitze 6 noch immer auf der Oberfläche 5 be
findet.
Bei Schritt 68, wenn die Fingerspitze 6 von der Oberfläche
5 entfernt worden ist, werden die Geschwindigkeit zum Zeit
punkt des Entfernens oder die aktuellen Geschwindigkeitsda
ten im Register 46 gespeichert. Bei Schritt 70 verringert
der Reibungssimulator 44 die Geschwindigkeitsdaten in Zy
klen um einen Betrag, der durch die Zeitkonstante 48 be
stimmt wird. Bei Schritt 74 speichert der Reibungssimulator
44 die verringerten Geschwindigkeitsdaten für den aktuellen
Zyklus im Register 46. Bei Schritt 76 bestimmt der Rei
bungssimulator 44, ob die verringerten Geschwindigkeitsda
ten, die im Register 46 gespeichert sind, einen spezifi
zierten Schwellenwertpegel unterschritten haben. Wenn die
verringerten Geschwindigkeitsdaten den spezifizierten
Schwellenwertpegel unterschritten haben, gibt der Reibungs
simulator 44 bei Schritt 80 null Geschwindigkeit aus, und
der Bewegungsdetektor 9 wartet erneut, daß die Fingerspitze
6 die Oberfläche 5 berührt, wie durch Schritt 62 angezeigt
ist. Wenn die verringerten Geschwindigkeitsdaten, die im
Register 46 gespeichert sind, den spezifizierten Schwellen
wertpegel nicht unterschritten haben, gibt der Reibungssi
mulator 44 bei Schritt 78 die verringerten Geschwindig
keitsdaten aus. Wenn die Fingerspitze 6 die Oberfläche 5
(Schritt 72) nicht wieder berührt, fährt der Reibungssimu
lator 44 fort, die Geschwindigkeitsdaten graduell zu ver
ringern und die verringerten Geschwindigkeitsdaten aus
zugeben (Schritte 70, 74, 76 und 78) auszugeben, bis die
Geschwindigkeitsdaten den spezifizierten Schwellenpegel un
terschritten haben. Bei Schritt 72, wenn die Fingerspitze 6
die Oberfläche 5 erneut berührt, springt das Verfahren zu
Schritt 64, wo der Bewegungsdetektor 9 die aktuelle Ge
schwindigkeit der Bewegung bestimmt und entsprechende Ge
schwindigkeitsdaten ausgibt.
Um das Verfahren 60 gemäß einem Ausführungsbeispiel der
vorliegenden Erfindung weiter zu veranschaulichen, ist ein
Beispiel vorgesehen. Es wird davon ausgegangen, daß die
Zeitkonstante 48 eine Sekunde ist und daß der Impulssimula
tor 40 Geschwindigkeitsdaten bei 100 Abtastwerten/Sekunde
ausgibt. Diese Werte werden gewählt, um die Mathematik zu
vereinfachen, und andere Werte können für ein handelsübli
ches Gerät geeigneter sein. Man geht des weiteren davon
aus, daß die Fingerspitze 6 gerade von der Oberfläche 5
entfernt worden ist und daß die normalisierte Geschwindig
keit, die durch den Bewegungsdetektor 9 zum Zeitpunkt des
Entfernens ausgegeben wurde, 1,0 Zoll/Sekunde beträgt. Der
Reibungssimulator 44 speichert die normalisierte Geschwin
digkeit im Register 46. Während der ersten Zyklusperiode
(d. h. der ersten Millisekunde) verringert der Reibungssi
mulator 44 die Geschwindigkeit, die im Register 46 gespei
chert ist, um ein Prozent, speichert die verringerte Ge
schwindigkeit (d. h. 0,9900 Zoll/Sekunde) im Register 46
und gibt die verringerte Geschwindigkeit aus. Während der
zweiten Zyklusperiode verringert der Reibungssimulator 44
erneut die im Register 46 gespeicherte Geschwindigkeit um
ein Prozent, speichert die verringerte Geschwindigkeit (d. h.
0,9801 Zoll/Sekunde) im Register 46 und gibt die verrin
gerte Geschwindigkeit aus. Der Reibungssimulator 44 verrin
gert die Geschwindigkeit weiterhin um ein Prozent jede Mil
lisekunde, bis die Geschwindigkeit den spezifizierten
Schwellenwert unterschritten hat, wobei der Reibungssimula
tor 44 an diesem Punkt einen Wert von 0 Geschwindigkeit
ausgibt.
Für eine Zeitkonstante 48 von einer Sekunde treibt der Rei
bungssimulator 44, nach der ersten Sekunde, die anfängliche
Geschwindigkeit von 1 Zoll/Sekunde auf 0,37 Zoll/Sekunde.
Nach zwei Sekunden treibt der Reibungssimulator 44 die Ge
schwindigkeit auf 0,14 Zoll/Sekunde herunter. Angenommen,
daß der spezifizierte Schwellenwert 0,10 Zoll/Sekunde be
trägt, treibt der Reibungssimulator 44 die anfängliche Ge
schwindigkeit nach gerade einmal zwei Sekunden auf 0 herun
ter. Andere Werte für die Zeitkonstante 48 können gewählt
werden, um einen gewünschten Reibungspegel zu liefern. Zu
sätzlich können Beschleunigungs- und Verlangsamungscharak
teristika explizit durch einen Benutzer definiert werden.
Bei einem Ausführungsbeispiel führen schnellere Finger
schnippbewegungen zu größeren Anfangsgeschwindigkeiten und
längeren Absetzzeiten, und langsamere Fingerschnippbewegun
gen führen zu kleineren Anfangsgeschwindigkeiten und kürze
ren Absetzzeiten. Bei einem Ausführungsbeispiel kann die
Trägheitsbewegung zu einem beliebigen Zeitpunkt gestoppt
werden, indem die Oberfläche 5 erneut berührt wird. Bei ei
nem Ausführungsbeispiel wird die fortgesetzte Trägheitsbe
wegung der vorliegenden Erfindung nur geliefert, wenn eine
spezifizierte Mindestbeschleunigung durch einen Benutzer
bereitgestellt worden ist.
Alternative Verfahren werden im Gegensatz zur Verwendung
eines Geschwindigkeitsprofils basierend auf dem exponenti
ellen Abfall, wie oben erläutert wurde, bevorzugt verwen
det. Bei einem Ausführungsbeispiel kann ein Benutzer z. B.
ein Abtastgeschwindigkeitsprofil graphisch eingeben, und es
wird eine mathematische Darstellung des eingegebenen Pro
fils automatisch erzeugt. Der Reibungssimulator 44 verwen
det dann die mathematische Darstellung, um die gewünschten
Geschwindigkeitscharakteristika zu erzeugen.
Bei einem weiteren Ausführungsbeispiel kann ein Benutzer
einen "Schnippbewegungsfaktor" eingeben, der die Bild
schirmzeigerbewegung definiert, wenn das optische Zeigerge
rät angeschnippt wird. Eine Schnippbewegung des optischen
Zeigegeräts von 1 Zoll/Sekunde könnte z. B. bewirken, daß
sich der Bildschirmzeiger quer über den Bildschirm bewegt
und zu einem Anschlag gleitet.
Fachleute mit durchschnittlicher Qualifikation werden er
kennen, daß es für einen Benutzer zahlreiche Möglichkeiten
gibt, um Daten, die die gewünschten Zeigerbewegungscharak
teristika darstellen, einzugeben. Die eingegebenen Daten
können dann durch den Reibungssimulator 44 verwendet wer
den, um die gewünschte Antwort zu erzeugen. Bei einem Aus
führungsbeispiel kann ein Benutzer z. B. spezifizieren, daß
das Gerät keine Reibung aufweisen soll, so daß, wenn das
optische Zeigegerät angeschnippt wird, sich der Zeiger wei
terhin über den Bildschirm bewegt, bis er eine Bildschirm
grenze erreicht, oder bis der Benutzer das Zeigegerät er
neut kontaktiert. Bei einem weiteren Ausführungsbeispiel
kann ein Benutzer spezifizieren, daß das Gerät eine weitere
Beschleunigung des Bildschirmzeigers liefern soll, nachdem
ein Benutzer das optische Zeigegerät angeschnippt hat. Eine
solche Weiterbeschleunigung könnte bei einem einfachen me
chanischen Trackball aufgrund der Gesetze der Physik nicht
geliefert werden. Wenn ein Trackball losgelassen worden
ist, kann er nicht weiter beschleunigt werden, es sei denn,
er würde durch einen Benutzer erneut angestoßen werden. Ei
ne beliebige mathematische Funktion oder willkürliche Kurve
kann durch einen Benutzer eingegeben werden, um die ge
wünschte Antwort des optischen Zeigegeräts einschließlich
Funktionen oder Kurven zu spezifizieren, die schließlich zu
einer Nullgeschwindigkeit führen, und Funktionen und Kur
ven, die zur fortgesetzten Geschwindigkeit und/oder Be
schleunigung führen, nachdem ein Benutzer aufgehört hat,
das optische Zeigegerät zu kontaktieren. Die fortgesetzte
Geschwindigkeit und/oder Beschleunigung kann vom Benutzer
umgangen werden, indem er das optische Zeigegerät kontak
tiert. Ein Benutzer kann die gewünschten Charakteristika
des optischen Zeigegeräts für jede spezielle Anwendung spe
zifizieren.
Eine Fachmann durchschnittlicher Qualifikation wird verste
hen, daß Funktionen, die durch den Impulssimulator 40 aus
geführt werden, in einer Hardware, Software, Firmware oder
einer beliebigen Kombination aus denselben implementiert
werden können. Die Implementierung kann über einen Mikro
prozessor, ein programmierbares logisches Gerät oder eine
Zustandsmaschine erfolgen. Die Komponenten der vorliegenden
Erfindung können sich in einer Software auf einem oder meh
reren computerlesbaren Medien befinden. Der Begriff compu
terlesbares Medium, der hierin verwendet wird, ist defi
niert, um eine beliebige Art von Speicher, flüchtig oder
nicht flüchtig, wie z. B. Disketten, Festplatten, CD-ROMs,
Flash-Speicher, Nur-Lese-Speicher (ROM; ROM = read only me
mory) und Direktzugriffsspeicher, zu umfassen.
Wie bei einem Beispiel können, anstatt die Trägheitseigen
schaften oder andere Bewegungscharakteristika in einem Sen
sor oder anderem Chip (z. B. Impulssimulator 40) in einem
optischen Zeigegerät zu implementieren, die gewünschten Be
wegungscharakteristika in einem Softwaretreiber eines Host
geräts (z. B. Computer, PDA, Digitalkamera, Mobiltelephon,
tragbares Spielegerät, etc.), das mit dem optischen Zeige
gerät gekoppelt ist, implementiert sein.
Die Ausführungsbeispiele der vorliegenden Erfindung bieten
zahlreiche Vorteile einschließlich der Fähigkeit, den dyna
mischen Bereich eines optischen Zeigegeräts zu erhöhen, was
speziell für größere Bildschirme nützlich ist. Kleine Hand
bewegungen können zu großen Bildschirmzeigerbewegungen füh
ren. Ein optisches Zeigegerät, wie das, das in Fig. 1 ge
zeigt ist, kann so ausgeführt sein, um sich wie ein mecha
nischer Trackball anzufühlen und zu arbeiten, was für Per
sonen, die mit dem Betreiben solcher mechanischen Zeigege
räte vertraut sind, wünschenswert sein kann.
Claims (39)
1. Vorrichtung (1) zum Steuern der Position eines Bild
schirmzeigers für ein elektronisches Gerät mit einem
Anzeigebildschirm, wobei die Vorrichtung folgende
Merkmale aufweist:
eine Bilderzeugungsoberfläche (5), auf der ein Ab schnitt der Spitze (6) eines menschlichen Fingers (7) plaziert werden kann;
eine Lichtquelle (2) zum Beleuchten dieses Abschnitts der Spitze (6) dieses Fingers (7), der auf der Bilder zeugungsoberfläche (5) plaziert ist, wodurch reflek tierte Bilder erzeugt werden;
einen Bewegungswandler (9);
eine Linse (8) zum Empfangen der reflektierten Bilder und zum Richten der reflektierten Bilder auf den Bewe gungswandler (9), wobei der Bewegungswandler (9) digi tale Darstellungen der reflektierten Bilder erzeugt, wobei der Bewegungswandler (9) einen ersten Satz von Bewegungsdaten basierend auf den digitalen Darstellun gen der reflektierten Bilder erzeugt, wobei der erste Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsfläche anzeigt; und
eine Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn die Spitze (6) eines menschlichen Fingers (7) von der Bil derzeugungsoberfläche (5) entfernt wird, wobei der zweite Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsoberfläche (5) vor dem Entfernen der Spitze (6) anzeigt.
eine Bilderzeugungsoberfläche (5), auf der ein Ab schnitt der Spitze (6) eines menschlichen Fingers (7) plaziert werden kann;
eine Lichtquelle (2) zum Beleuchten dieses Abschnitts der Spitze (6) dieses Fingers (7), der auf der Bilder zeugungsoberfläche (5) plaziert ist, wodurch reflek tierte Bilder erzeugt werden;
einen Bewegungswandler (9);
eine Linse (8) zum Empfangen der reflektierten Bilder und zum Richten der reflektierten Bilder auf den Bewe gungswandler (9), wobei der Bewegungswandler (9) digi tale Darstellungen der reflektierten Bilder erzeugt, wobei der Bewegungswandler (9) einen ersten Satz von Bewegungsdaten basierend auf den digitalen Darstellun gen der reflektierten Bilder erzeugt, wobei der erste Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsfläche anzeigt; und
eine Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn die Spitze (6) eines menschlichen Fingers (7) von der Bil derzeugungsoberfläche (5) entfernt wird, wobei der zweite Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsoberfläche (5) vor dem Entfernen der Spitze (6) anzeigt.
2. Vorrichtung gemäß Anspruch 1, bei der der zweite Satz
von Bewegungsdaten auf einem exponentiellen Abfall ba
siert.
3. Vorrichtung gemäß Anspruch 2, bei der Charakteristika
des exponentiellen Abfalls durch einen Benutzer spezi
fiziert werden können.
4. Vorrichtung gemäß Anspruch 2 oder 3, bei der Charakte
ristika des exponentiellen Abfalls auf einer Zeitkon
stante basieren, die durch einen Benutzer spezifiziert
werden kann.
5. Vorrichtung gemäß einem der Ansprüche 1 bis 4, bei der
Charakteristika des zweiten Satzes von Bewegungsdaten
benutzerdefinierbar sind.
6. Vorrichtung gemäß Anspruch 5, bei der die Charakteri
stika des zweiten Satzes von Bewegungsdaten durch eine
graphische Kurve definiert sind, die durch einen Be
nutzer bereitgestellt wird.
7. Vorrichtung gemäß Anspruch 5, bei der die Charakteri
stika des zweiten Satzes von Bewegungsdaten durch eine
mathematische Funktion definiert sind, die durch einen
Benutzer bereitgestellt wird.
8. Vorrichtung gemäß einem der Ansprüche 1 bis 7, bei der
Charakteristika des ersten Satzes und des zweiten Sat
zes von Bewegungsdaten benutzerdefinierbar sind.
9. Vorrichtung gemäß einem der Ansprüche 1 bis 8, bei der
die Steuerung (40) konfiguriert ist, um ein Erzeugen
des zweiten Satzes von Bewegungsdaten zu stoppen, wenn
die Spitze (6) des menschlichen Fingers (7) erneut auf
der Bilderzeugungsoberfläche (5) plaziert wird.
10. Vorrichtung gemäß einem der Ansprüche 1 bis 9, bei der
der zweite Satz von Bewegungsdaten auf Trägheitseigen
schaften eines mechanischen Bildschirmzeigegerätes ba
siert.
11. Verfahren zum Steuern der Position eines Bildschirm
zeigers für ein elektronisches Gerät mit einer Bild
schirmanzeige, wobei das Verfahren folgende Schritte
aufweist:
Plazieren eines Abschnitts (6) einer Gliedmaße (7) der menschlichen Hand auf einer Bilderzeugungsoberfläche (5);
Richten von Licht auf die Bilderzeugungsoberfläche (5), um diesen Abschnitt (6) der Gliedmaße (7) zu be leuchten, der sich auf der Bilderzeugungsoberfläche (5) befindet;
Fokussieren von Bildern, die von dem Abschnitt (6) der Gliedmaße (7) reflektiert werden, auf ein Array von Photodetektoren;
Digitalisieren von Ausgabewerten der Photodetektoren, wodurch digitale Darstellungen der reflektierten Bil der erzeugt werden;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die eine Bewegung in orthogonalen Achsen über der Bilderzeu gungsoberfläche (5) durch die Gliedmaße (7) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist.
Plazieren eines Abschnitts (6) einer Gliedmaße (7) der menschlichen Hand auf einer Bilderzeugungsoberfläche (5);
Richten von Licht auf die Bilderzeugungsoberfläche (5), um diesen Abschnitt (6) der Gliedmaße (7) zu be leuchten, der sich auf der Bilderzeugungsoberfläche (5) befindet;
Fokussieren von Bildern, die von dem Abschnitt (6) der Gliedmaße (7) reflektiert werden, auf ein Array von Photodetektoren;
Digitalisieren von Ausgabewerten der Photodetektoren, wodurch digitale Darstellungen der reflektierten Bil der erzeugt werden;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die eine Bewegung in orthogonalen Achsen über der Bilderzeu gungsoberfläche (5) durch die Gliedmaße (7) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist.
12. Verfahren gemäß Anspruch 11, bei dem der zweite Satz
von Bewegungsdaten auf einem exponentiellen Abfall ba
siert.
13. Verfahren gemäß Anspruch 12, das ferner folgenden
Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
14. Verfahren gemäß Anspruch 12 oder 13, das ferner fol
genden Schritt aufweist:
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex ponentiellen Abfalls definieren.
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex ponentiellen Abfalls definieren.
15. Verfahren gemäß einem der Ansprüche 11 bis 14, das
ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des zweiten Satzes von Be wegungsdaten spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des zweiten Satzes von Be wegungsdaten spezifizieren.
16. Verfahren gemäß Anspruch 15, bei dem die Bewegungsde
finitionsdaten eine graphische Darstellung von ge
wünschten Charakteristika des zweiten Satzes von Bewe
gungsdaten sind.
17. Verfahren gemäß Anspruch 15, bei dem die Bewegungsde
finitionsdaten eine mathematische Funktion sind.
18. Verfahren gemäß einem der Ansprüche 11 bis 17, das
ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
19. Verfahren gemäß einem der Ansprüche 11 bis 18, das
ferner folgenden Schritt aufweist:
Stoppen der Bewegung des Bildschirmzeigers, wenn die Gliedmaße (7) erneut auf der Bilderzeugungsoberfläche (5) plaziert wird.
Stoppen der Bewegung des Bildschirmzeigers, wenn die Gliedmaße (7) erneut auf der Bilderzeugungsoberfläche (5) plaziert wird.
20. Verfahren gemäß einem der Ansprüche 11 bis 19, bei dem
der zweite Satz von Bewegungsdaten auf Trägheitseigen
schaften eines mechanischen Bildschirmzeigegerätes ba
siert.
21. Verfahren zum Steuern der Position eines Bildschirm
zeigers für ein elektronisches Gerät mit einer Bild
schirmanzeige, wobei das Verfahren folgende Schritte
aufweist:
Richten von Licht auf eine Arbeitsoberfläche (6), wo durch reflektierte Bilder erzeugt werden;
Fokussieren der reflektierten Bilder auf ein Array von Photodetektoren;
Bewegen des Arrays von Photodetektoren relativ zur Ar beitsoberfläche (6) bei einer im wesentlichen konstan ten Entfernung von der Arbeitsoberfläche (6);
Erzeugen von digitalen Darstellungen der reflektierten Bilder basierend auf Ausgangssignalen der Photodetek toren;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die die Bewegung des Arrays von Photodetektoren relativ zur Arbeitsoberfläche (6) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, wenn das Array von Photodetektoren von der Arbeitsoberfläche (6) über die im wesentlichen konstante Entfernung hinaus angehoben wird; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten.
Richten von Licht auf eine Arbeitsoberfläche (6), wo durch reflektierte Bilder erzeugt werden;
Fokussieren der reflektierten Bilder auf ein Array von Photodetektoren;
Bewegen des Arrays von Photodetektoren relativ zur Ar beitsoberfläche (6) bei einer im wesentlichen konstan ten Entfernung von der Arbeitsoberfläche (6);
Erzeugen von digitalen Darstellungen der reflektierten Bilder basierend auf Ausgangssignalen der Photodetek toren;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die die Bewegung des Arrays von Photodetektoren relativ zur Arbeitsoberfläche (6) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, wenn das Array von Photodetektoren von der Arbeitsoberfläche (6) über die im wesentlichen konstante Entfernung hinaus angehoben wird; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten.
22. Verfahren gemäß Anspruch 21, bei dem der zweite Satz
von Bewegungsdaten auf einem exponentiellen Abfall ba
siert.
23. Verfahren gemäß Anspruch 22, das ferner folgenden
Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
24. Verfahren gemäß einem Anspruch 22 oder 23, das ferner
folgenden Schritt aufweist:
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex ponentiellen Abfalls definieren.
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex ponentiellen Abfalls definieren.
25. Verfahren gemäß einem der Ansprüche 21 bis 24, das
ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die die Charakteristika des zweiten Satzes von Bewegungsdaten spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die die Charakteristika des zweiten Satzes von Bewegungsdaten spezifizieren.
26. Verfahren gemäß Anspruch 25, bei dem die Bewegungsde
finitionsdaten eine graphische Darstellung von ge
wünschten Charakteristika des zweiten Satzes von Bewe
gungsdaten sind.
27. Verfahren gemäß Anspruch 25, bei dem die Bewegungsde
finitionsdaten eine mathematische Funktion sind.
28. Verfahren gemäß einem der Ansprüche 21 bis 27, das
ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
Empfangen von Bewegungsdefinitionsdaten von einem Be nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
29. Verfahren gemäß einem der Ansprüche 21 bis 28, bei dem
der zweite Satz von Bewegungsdaten auf Trägheitseigen
schaften eines mechanischen Bildschirmzeigegeräts ba
siert.
30. Vorrichtung zum Steuern der Position eines Bildschirm
zeigers für ein elektronisches Gerät mit einer Bild
schirmanzeige, wobei die Vorrichtung folgende Merkmale
aufweist:
eine Lichtquelle (2) zum Beleuchten einer Arbeitsober fläche (6), wodurch reflektierte Bilder erzeugt wer den;
einen Bewegungswandler (9), der relativ zur Arbeits oberfläche (6) bei einer im wesentlichen konstanten Entfernung von der Arbeitsoberfläche (6) beweglich ist;
eine Linse (8) zum Empfangen der reflektierten Bilder und Richten der reflektierten Bilder auf den Bewe gungswandler (9), wobei der Bewegungswandler (9) kon figuriert, um digitale Darstellungen der reflektierten Bilder zu erzeugen, wobei der Bewegungswandler (9) konfiguriert ist, um einen ersten Satz von Bewegungs daten basierend auf den digitalen Darstellungen der reflektierten Bilder zu erzeugen, wobei der erste Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Arbeitsoberfläche (6) anzeigt; und
einen Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn der Bewegungswandler (9) über die im wesentlichen konstan te Entfernung von der Arbeitsoberfläche (6) hinaus an gehoben wird, wobei der zweite Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Ar beitsoberfläche (6) vor dem Anheben des Bewegungswand lers (9) über die im wesentlichen konstante Entfernung hinaus anzeigt.
eine Lichtquelle (2) zum Beleuchten einer Arbeitsober fläche (6), wodurch reflektierte Bilder erzeugt wer den;
einen Bewegungswandler (9), der relativ zur Arbeits oberfläche (6) bei einer im wesentlichen konstanten Entfernung von der Arbeitsoberfläche (6) beweglich ist;
eine Linse (8) zum Empfangen der reflektierten Bilder und Richten der reflektierten Bilder auf den Bewe gungswandler (9), wobei der Bewegungswandler (9) kon figuriert, um digitale Darstellungen der reflektierten Bilder zu erzeugen, wobei der Bewegungswandler (9) konfiguriert ist, um einen ersten Satz von Bewegungs daten basierend auf den digitalen Darstellungen der reflektierten Bilder zu erzeugen, wobei der erste Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Arbeitsoberfläche (6) anzeigt; und
einen Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn der Bewegungswandler (9) über die im wesentlichen konstan te Entfernung von der Arbeitsoberfläche (6) hinaus an gehoben wird, wobei der zweite Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Ar beitsoberfläche (6) vor dem Anheben des Bewegungswand lers (9) über die im wesentlichen konstante Entfernung hinaus anzeigt.
31. Vorrichtung gemäß Anspruch 30, bei der der zweite Satz
von Bewegungsdaten auf einem exponentiellen Abfall ba
siert.
32. Vorrichtung gemäß Anspruch 31, bei der Charakteristika
des exponentiellen Abfalls durch einen Benutzer spezi
fiziert werden können.
33. Vorrichtung gemäß Anspruch 31 oder 32, bei der Charak
teristika des exponentiellen Abfalls auf einer Zeit
konstante basieren, die durch einen Benutzer spezifi
ziert werden kann.
34. Vorrichtung gemäß einem der Ansprüche 30 bis 33, bei
der Charakteristika des zweiten Satzes der Bewegungs
daten benutzerdefinierbar sind.
35. Vorrichtung gemäß Anspruch 34, bei der die Charakteri
stika des zweiten Satzes der Bewegungsdaten durch eine
graphische Kurve, die durch einen Benutzer bereitge
stellt wird, definiert sind.
36. Vorrichtung gemäß Anspruch 34, bei der die Charakteri
stika des zweiten Satzes von Bewegungsdaten durch eine
mathematische Funktion, die durch einen Benutzer be
reitgestellt wird, definiert sind.
37. Vorrichtung gemäß einem der Ansprüche 30 bis 36, bei
der die Charakteristika des ersten Satzes und des
zweiten Satzes von Bewegungsdaten benutzerdefinierbar
sind.
38. Vorrichtung gemäß einem der Ansprüche 30 bis 37, bei
der der zweite Satz von Bewegungsdaten auf Trägheits
eigenschaften eines mechanischen Bildschirmzeigegerä
tes basiert.
39. Computerlesbares Medium mit computerausführbaren An
weisungen zum Ausführen eines Verfahrens zum Erzeugen
von Bewegungsdaten zum Steuern der Position eines
Bildschirmzeigers für ein elektronisches Gerät mit ei
ner Bildschirmanzeige und einem optischen Zeigegerät,
wobei das optische Zeigegerät Bewegungsdaten erzeugt,
wenn es sich in Kontakt mit einer Bilderzeugungsober
fläche (5) befindet, wobei die Bewegungsdaten die re
lative Bewegung zwischen der Bilderzeugungsoberfläche
(5) und dem optischen Zeigegerät anzeigt, wobei das
Verfahren folgende Schritte aufweist:
Identifizieren, wenn ein Kontaktverlust zwischen dem optischen Zeigegerät und der Bilderzeugungsoberfläche (5) auftritt;
Identifizieren eines ersten Satzes von Bewegungsdaten, wobei der erste Satz von Bewegungsdaten die relative Bewegung zwischen der Bilderzeugungsoberfläche (5) und dem optischen Zeigegerät vor dem Kontaktverlust an zeigt; und
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf dem ersten Satz von Bewegungsdaten, wenn zwischen dem ersten Zeigegerät und der Bilderzeugungs oberfläche (5) ein Kontaktverlust auftritt, wobei der zweite Satz von Bewegungsdaten eine graduelle Abnahme der Geschwindigkeit des Bildschirmzeigers bewirkt.
Identifizieren, wenn ein Kontaktverlust zwischen dem optischen Zeigegerät und der Bilderzeugungsoberfläche (5) auftritt;
Identifizieren eines ersten Satzes von Bewegungsdaten, wobei der erste Satz von Bewegungsdaten die relative Bewegung zwischen der Bilderzeugungsoberfläche (5) und dem optischen Zeigegerät vor dem Kontaktverlust an zeigt; und
Erzeugen eines zweiten Satzes von Bewegungsdaten ba sierend auf dem ersten Satz von Bewegungsdaten, wenn zwischen dem ersten Zeigegerät und der Bilderzeugungs oberfläche (5) ein Kontaktverlust auftritt, wobei der zweite Satz von Bewegungsdaten eine graduelle Abnahme der Geschwindigkeit des Bildschirmzeigers bewirkt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/810,745 US6621483B2 (en) | 2001-03-16 | 2001-03-16 | Optical screen pointing device with inertial properties |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10211340A1 true DE10211340A1 (de) | 2002-10-02 |
Family
ID=25204596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10211340A Withdrawn DE10211340A1 (de) | 2001-03-16 | 2002-03-14 | Optisches Bildschirmzeigegerät mit Trägheitseigenschaften |
Country Status (4)
Country | Link |
---|---|
US (1) | US6621483B2 (de) |
JP (1) | JP2002278693A (de) |
DE (1) | DE10211340A1 (de) |
GB (1) | GB2374409B (de) |
Families Citing this family (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7084859B1 (en) | 1992-09-18 | 2006-08-01 | Pryor Timothy R | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US9513744B2 (en) * | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
US8482534B2 (en) * | 1995-06-29 | 2013-07-09 | Timothy R. Pryor | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US8228305B2 (en) | 1995-06-29 | 2012-07-24 | Apple Inc. | Method for providing human input to a computer |
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US7808479B1 (en) | 2003-09-02 | 2010-10-05 | Apple Inc. | Ambidextrous mouse |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US8482535B2 (en) | 1999-11-08 | 2013-07-09 | Apple Inc. | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
US8576199B1 (en) | 2000-02-22 | 2013-11-05 | Apple Inc. | Computer control systems |
US20080122799A1 (en) * | 2001-02-22 | 2008-05-29 | Pryor Timothy R | Human interfaces for vehicles, homes, and other applications |
US20070018970A1 (en) * | 2000-12-22 | 2007-01-25 | Logitech Europe S.A. | Optical slider for input devices |
US20080024463A1 (en) * | 2001-02-22 | 2008-01-31 | Timothy Pryor | Reconfigurable tactile control display applications |
US7184026B2 (en) * | 2001-03-19 | 2007-02-27 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Impedance sensing screen pointing device |
US6809723B2 (en) * | 2001-05-14 | 2004-10-26 | Agilent Technologies, Inc. | Pushbutton optical screen pointing device |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US7259747B2 (en) | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
GB2383128B (en) * | 2001-12-17 | 2005-02-16 | Behavior Tech Computer Corp | Optical pointing device |
US20030184520A1 (en) * | 2002-03-28 | 2003-10-02 | Patrick Wei | Mouse with optical buttons |
US20050179667A1 (en) * | 2002-04-03 | 2005-08-18 | Leif Nilsson | Method of navigating in a virtual three-dimensional environment and an electronic device employing such method |
US7348963B2 (en) * | 2002-05-28 | 2008-03-25 | Reactrix Systems, Inc. | Interactive video display system |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7358963B2 (en) * | 2002-09-09 | 2008-04-15 | Apple Inc. | Mouse having an optically-based scrolling feature |
WO2004055776A1 (en) | 2002-12-13 | 2004-07-01 | Reactrix Systems | Interactive directed light/sound system |
US6888988B2 (en) | 2003-03-14 | 2005-05-03 | Agilent Technologies, Inc. | Small form factor all-polymer optical device with integrated dual beam path based on total internal reflection optical turn |
US7321359B2 (en) * | 2003-07-30 | 2008-01-22 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Method and device for optical navigation |
US20040227954A1 (en) * | 2003-05-16 | 2004-11-18 | Tong Xie | Interferometer based navigation device |
US7587072B2 (en) * | 2003-08-22 | 2009-09-08 | Authentec, Inc. | System for and method of generating rotational inputs |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
CN1902930B (zh) | 2003-10-24 | 2010-12-15 | 瑞克楚斯系统公司 | 管理交互式视频显示系统的方法和系统 |
US7167162B2 (en) * | 2003-12-12 | 2007-01-23 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Apparatus and method for controlling a screen pointer |
US7042575B2 (en) * | 2004-05-21 | 2006-05-09 | Silicon Light Machines Corporation | Speckle sizing and sensor dimensions in optical positioning device |
US7773070B2 (en) | 2004-05-21 | 2010-08-10 | Cypress Semiconductor Corporation | Optical positioning device using telecentric imaging |
US20050259078A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device with multi-row detector array |
US7285766B2 (en) * | 2004-05-21 | 2007-10-23 | Silicon Light Machines Corporation | Optical positioning device having shaped illumination |
US20050259097A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device using different combinations of interlaced photosensitive elements |
US20050258346A1 (en) * | 2004-05-21 | 2005-11-24 | Silicon Light Machines Corporation | Optical positioning device resistant to speckle fading |
US7268341B2 (en) | 2004-05-21 | 2007-09-11 | Silicon Light Machines Corporation | Optical position sensing device including interlaced groups of photosensitive elements |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7719523B2 (en) | 2004-08-06 | 2010-05-18 | Touchtable, Inc. | Bounding box gesture recognition on a touch detecting interactive display |
US7521719B2 (en) * | 2004-08-13 | 2009-04-21 | Paul Steven Schranz | Light emitting and image sensing device and apparatus |
US20100231506A1 (en) * | 2004-09-07 | 2010-09-16 | Timothy Pryor | Control of appliances, kitchen and home |
US7761814B2 (en) * | 2004-09-13 | 2010-07-20 | Microsoft Corporation | Flick gesture |
NO20044073D0 (no) * | 2004-09-27 | 2004-09-27 | Isak Engquist | Informasjonsbehandlingssystem og fremgangsmate |
US7138620B2 (en) * | 2004-10-29 | 2006-11-21 | Silicon Light Machines Corporation | Two-dimensional motion sensor |
US7248345B2 (en) * | 2004-11-12 | 2007-07-24 | Silicon Light Machines Corporation | Signal processing method for use with an optical navigation system |
US7925996B2 (en) * | 2004-11-18 | 2011-04-12 | Microsoft Corporation | Method and system for providing multiple input connecting user interface |
US7405389B2 (en) * | 2004-11-19 | 2008-07-29 | Silicon Light Machines Corporation | Dense multi-axis array for motion sensing |
TW200627252A (en) * | 2004-12-02 | 2006-08-01 | Silicon Light Machines Corp | Signal processing method for optical sensors |
US20060170653A1 (en) * | 2005-02-01 | 2006-08-03 | Eastman Kodak Company | Pointing device with switch |
US9128519B1 (en) * | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
US7710397B2 (en) | 2005-06-03 | 2010-05-04 | Apple Inc. | Mouse with improved input mechanisms using touch sensors |
US7898524B2 (en) | 2005-06-30 | 2011-03-01 | Logitech Europe S.A. | Optical displacement detection over varied surfaces |
US7399954B2 (en) * | 2005-08-16 | 2008-07-15 | Avago Technologies Ecbu Ip Pte Ltd | System and method for an optical navigation device configured to generate navigation information through an optically transparent layer and to have skating functionality |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
US7567235B2 (en) | 2005-12-12 | 2009-07-28 | Cypress Semiconductor Corporation | Self-aligning optical sensor package |
US8471191B2 (en) | 2005-12-16 | 2013-06-25 | Cypress Semiconductor Corporation | Optical navigation system having a filter-window to seal an enclosure thereof |
US7765251B2 (en) * | 2005-12-16 | 2010-07-27 | Cypress Semiconductor Corporation | Signal averaging circuit and method for sample averaging |
US7737948B2 (en) * | 2005-12-20 | 2010-06-15 | Cypress Semiconductor Corporation | Speckle navigation system |
US7810504B2 (en) * | 2005-12-28 | 2010-10-12 | Depuy Products, Inc. | System and method for wearable user interface in computer assisted surgery |
US8077147B2 (en) | 2005-12-30 | 2011-12-13 | Apple Inc. | Mouse with optical sensing surface |
US7298460B2 (en) * | 2006-01-03 | 2007-11-20 | Silicon Light Machines Corporation | Method for determining motion using a velocity predictor |
US7884801B1 (en) | 2006-02-16 | 2011-02-08 | Cypress Semiconductor Corporation | Circuit and method for determining motion with redundant comb-arrays |
US7297912B1 (en) | 2006-03-27 | 2007-11-20 | Silicon Light Machines Corporation | Circuit and method for reducing power consumption in an optical navigation system having redundant arrays |
US7721609B2 (en) | 2006-03-31 | 2010-05-25 | Cypress Semiconductor Corporation | Method and apparatus for sensing the force with which a button is pressed |
US7809035B2 (en) * | 2006-03-31 | 2010-10-05 | Cypress Semiconductor Corporation | Eye-safe laser navigation sensor |
US7492445B1 (en) | 2006-06-05 | 2009-02-17 | Cypress Semiconductor Corporation | Method and apparatus for robust velocity prediction |
US7755604B2 (en) | 2006-06-19 | 2010-07-13 | Cypress Semiconductor Corporation | Optical navigation sensor with tracking and lift detection for optically transparent contact surfaces |
US7728816B2 (en) * | 2006-07-10 | 2010-06-01 | Cypress Semiconductor Corporation | Optical navigation sensor with variable tracking resolution |
US7742514B1 (en) | 2006-10-31 | 2010-06-22 | Cypress Semiconductor Corporation | Laser navigation sensor |
US8072429B2 (en) * | 2006-12-22 | 2011-12-06 | Cypress Semiconductor Corporation | Multi-axial touch-sensor device with multi-touch resolution |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US8314774B1 (en) | 2007-07-09 | 2012-11-20 | Cypress Semiconductor Corporation | Method and apparatus for quasi-3D tracking using 2D optical motion sensors |
EP2017702A1 (de) * | 2007-07-13 | 2009-01-21 | Flinglab AB | Verfahren zur Steuerung der Cursorbewegung |
US8263921B2 (en) | 2007-08-06 | 2012-09-11 | Cypress Semiconductor Corporation | Processing methods for speckle-based motion sensing |
WO2009029912A1 (en) * | 2007-08-30 | 2009-03-05 | Microstrain, Inc. | Optical linear and rotation displacement sensor |
CN101952818B (zh) | 2007-09-14 | 2016-05-25 | 智慧投资控股81有限责任公司 | 基于姿态的用户交互的处理 |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
US20090135140A1 (en) * | 2007-11-27 | 2009-05-28 | Logitech Europe S.A. | System and method for accurate lift-detection of an input device |
US8259069B1 (en) | 2008-01-11 | 2012-09-04 | Cypress Semiconductor Corporation | Speckle-based optical navigation on curved tracking surface |
US8031176B1 (en) | 2008-01-22 | 2011-10-04 | Cypress Semiconductor Corporation | Optical navigation system using a single-package motion sensor |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
US8212776B2 (en) * | 2008-09-23 | 2012-07-03 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Optical finger navigation device with integrated tactile switch |
US8541727B1 (en) | 2008-09-30 | 2013-09-24 | Cypress Semiconductor Corporation | Signal monitoring and control system for an optical navigation sensor |
US7723659B1 (en) | 2008-10-10 | 2010-05-25 | Cypress Semiconductor Corporation | System and method for screening semiconductor lasers |
US8217334B1 (en) | 2008-12-24 | 2012-07-10 | Cypress Semiconductor Corporation | Optical navigation sensor including a spatial frequency filter |
US8711096B1 (en) | 2009-03-27 | 2014-04-29 | Cypress Semiconductor Corporation | Dual protocol input device |
JP5552772B2 (ja) * | 2009-08-26 | 2014-07-16 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP5461335B2 (ja) * | 2010-07-28 | 2014-04-02 | 京セラ株式会社 | 電子機器 |
US20120242620A1 (en) * | 2011-03-22 | 2012-09-27 | Research In Motion Limited | Combined optical navigation and button |
CN102959494B (zh) | 2011-06-16 | 2017-05-17 | 赛普拉斯半导体公司 | 具有电容式传感器的光学导航模块 |
US8896553B1 (en) | 2011-11-30 | 2014-11-25 | Cypress Semiconductor Corporation | Hybrid sensor module |
KR20140137656A (ko) * | 2013-05-23 | 2014-12-03 | 삼성전자주식회사 | 데이터를 스캔하기 위한 방법 및 그 전자 장치 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5994134A (ja) * | 1982-11-20 | 1984-05-30 | Matsushita Electric Ind Co Ltd | 入力装置 |
US5578813A (en) | 1995-03-02 | 1996-11-26 | Allen; Ross R. | Freehand image scanning device which compensates for non-linear movement |
US5786804A (en) | 1995-10-06 | 1998-07-28 | Hewlett-Packard Company | Method and system for tracking attitude |
US5825352A (en) * | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
JPH11161413A (ja) * | 1997-11-28 | 1999-06-18 | Sony Corp | 入力装置 |
WO1999046602A1 (en) * | 1998-03-09 | 1999-09-16 | Gou Lite Ltd. | Optical translation measurement |
US6424407B1 (en) * | 1998-03-09 | 2002-07-23 | Otm Technologies Ltd. | Optical translation measurement |
US6151015A (en) | 1998-04-27 | 2000-11-21 | Agilent Technologies | Pen like computer pointing device |
US6057540A (en) | 1998-04-30 | 2000-05-02 | Hewlett-Packard Co | Mouseless optical and position translation type screen pointer control for a computer system |
US5994710A (en) | 1998-04-30 | 1999-11-30 | Hewlett-Packard Company | Scanning mouse for a computer system |
JP2001067180A (ja) * | 1999-08-30 | 2001-03-16 | Matsushita Electric Ind Co Ltd | 光学式ポインティング入力装置 |
-
2001
- 2001-03-16 US US09/810,745 patent/US6621483B2/en not_active Expired - Lifetime
-
2002
- 2002-01-28 GB GB0201893A patent/GB2374409B/en not_active Expired - Fee Related
- 2002-03-14 DE DE10211340A patent/DE10211340A1/de not_active Withdrawn
- 2002-03-18 JP JP2002074128A patent/JP2002278693A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
GB2374409B (en) | 2005-02-02 |
JP2002278693A (ja) | 2002-09-27 |
GB0201893D0 (en) | 2002-03-13 |
US6621483B2 (en) | 2003-09-16 |
US20020130839A1 (en) | 2002-09-19 |
GB2374409A (en) | 2002-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10211340A1 (de) | Optisches Bildschirmzeigegerät mit Trägheitseigenschaften | |
DE10221415B4 (de) | Optische Druckknopfbildschirm-Zeigevorrichtung | |
DE10241392B4 (de) | Vorrichtung und Verfahren zum Erfassen einer dreidimensionalen Relativbewegung | |
DE20221921U1 (de) | Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten | |
DE60205662T2 (de) | Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige | |
DE102009043800A1 (de) | Optische Fingernavigation unter Verwendung von quantisierter Bewegungsinformation | |
DE69926908T2 (de) | System zur kontrastreichen und verzerrungsarmen bilderfassung | |
DE60028894T2 (de) | Präsentationssystem mit einer interaktiven Darstellung | |
DE60033490T2 (de) | Optische Hinweisanordnung | |
DE69629658T2 (de) | Lichtstifteingabesysteme | |
DE69906139T2 (de) | Vorrichtung zum verfolgen von augenbewegungen | |
DE602004007760T2 (de) | Optische Vorrichtung zur Messung des Abstandes zwischen der Vorrichtung und einer Fläche | |
DE60124549T2 (de) | Kamerabasiertes beruehrungssystem | |
DE4423005C1 (de) | Eingabevorrichtung für einen Computer | |
DE102009014555A1 (de) | Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds | |
DE19615568A1 (de) | Zeigegerät mit einer Photodetektor-Anordnung | |
DE112014000441T5 (de) | Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation | |
EP1637985A2 (de) | Eingabesteuerung für Geräte | |
DE202005010368U1 (de) | Bildlaufvorrichtung | |
DE69433918T2 (de) | Verbesserungen der Blickverfolgung für Perimeter | |
DE4437961A1 (de) | Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit | |
DE102015210302A1 (de) | Verfahren zum Steuern der Bewegung einer Koordinatenmessmaschine | |
DE102019200287A1 (de) | Bildmessgerät und computerlesbares Medium | |
DE102005034608A1 (de) | Mauseingabevorrichtung mit sekundärer Eingabevorrichtung | |
DE19535295A1 (de) | Lichtmengensteuervorrichtung und zugehöriges Verfahren für einen Projektor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., |
|
8128 | New person/name/address of the agent |
Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELLSCHA |
|
8139 | Disposal/non-payment of the annual fee |