DE10211340A1 - Optisches Bildschirmzeigegerät mit Trägheitseigenschaften - Google Patents

Optisches Bildschirmzeigegerät mit Trägheitseigenschaften

Info

Publication number
DE10211340A1
DE10211340A1 DE10211340A DE10211340A DE10211340A1 DE 10211340 A1 DE10211340 A1 DE 10211340A1 DE 10211340 A DE10211340 A DE 10211340A DE 10211340 A DE10211340 A DE 10211340A DE 10211340 A1 DE10211340 A1 DE 10211340A1
Authority
DE
Germany
Prior art keywords
data
motion
movement
motion data
imaging surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10211340A
Other languages
English (en)
Inventor
Hugh Wallace
Gary B Gordon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Avago Technologies International Sales Pte Ltd
Original Assignee
Agilent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agilent Technologies Inc filed Critical Agilent Technologies Inc
Publication of DE10211340A1 publication Critical patent/DE10211340A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14678Contact-type imagers

Abstract

Eine Vorrichtung zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit einer Bildschirmanzeige umfaßt eine Bilderzeugungsoberfläche, auf der ein Abschnitt der Spitze eines menschlichen Fingers plaziert werden kann. Eine Lichtquelle beleuchtet diesen Abschnitt der Spitze des Fingers, der auf der Bilderzeugungsoberfläche plaziert ist, wodurch Spiegelbilder erzeugt werden. Die Vorrichtung umfaßt einen Bewegungswandler. Eine Linse empfängt die Spiegelbilder und lenkt die Spiegelbilder auf den Bewegungswandler. Der Bewegungswandler erzeugt digitale Darstellungen der Spiegelbilder. Der Bewegungswandler erzeugt einen ersten Satz von Bewegungsdaten, basierend auf den digitalen Darstellungen der Spiegelbilder. Der erste Satz von Bewegungsdaten zeigt die Bewegung der Spitze des Fingers über der Bilderzeugungsoberfläche an. Ein Controller erzeugt einen zweiten Satz von Bewegungsdaten, wenn die Spitze des menschlichen Fingers von der Bilderzeugungsoberfläche entfernt wird. Der zweite Satz von Bewegungsdaten zeigt die Bewegung der Spitze des Fingers über der Bilderzeugungsoberfläche vor dem Entfernen der Spitze an.

Description

Diese Anmeldung bezieht sich auf den Gegenstand, der in den nachstehenden US-Patenten beschrieben ist: US-Patent Nr. 5.578.813, eingereicht am 2. März 1995, erteilt am 26. No­ vember 1996, mit dem Titel FREEHAND IMAGE SCANNING DEVICE WHICH COMPENSATES FOR NON-LINEAR MOVEMENT; US-Patent Nr. 5.644.139, einreicht am 14. August 1996, erteilt am 1. Juli 1997, mit dem Titel NAVIGATION TECHNIQUE FOR DETECTING MOVEMENT OF NAVIGATION SENSORS RELATIVE TO AN OBJECT; und US-Patent Nr. 5.786.804, eingereicht am 6. Oktober 1995, erteilt am 28. Juli 1998 mit dem Titel METHOD AND SYSTEM FOR TRACKING ATTITUDE. Diese drei Patente beschreiben Ver­ fahren zum Verfolgen von einer Positionsbewegung und von Computerzeigegeräten. Diese Verfahren sind eine Komponente in einem bevorzugten Ausführungsbeispiel, das nachstehend beschrieben ist. Folglich sind die US-Patente Nr. 5.578.813, 5.644.139 und 5.786.804 hierin durch Bezugnahme aufgenommen.
Diese Anwendung bezieht sich auch auf den Gegenstand, der in dem US-Patent Nr. 6.057.540, eingereicht am 30. April 1998, erteilt am 2. Mai 2000, mit dem Titel MOUSELESS OPTICAL AND POSITION TRANSLATION TYPE SCREEN POINTER CONTROL FOR A COMPUTER SYSTEM; US-Patent Nr. 6.151.015, eingereicht am 27. April 1998, erteilt am 21. November 2000, mit dem Titel PEN LIKE COMPUTER POINTING DEVICE; und US-Patentanmeldung, fortlaufende Nummer 09/052.046, einge­ reicht am 30. März 1998, mit dem Titel SEEING EYE MOUSE FOR A COMPUTER SYSTEM beschrieben ist. Diese zwei verwandten Patente und die Patentanmeldung beschreiben Bildschirm- Zeigegeräte basierend auf den Verfahren, die in den US- Patenten Nr. 5.578.813, 5.644.139 und 5.786.804 beschrieben sind. Daher sind die US-Patente, Nr. 6.057.540 und 6.151.015 und die US-Patentanmeldung, fortlaufende Nr. 09/052.046, eingereicht am 30. März 1998, mit dem Titel SEEING EYE MOUSE FOR A COMPUTER SYSTEM hierin durch Bezug­ nahme aufgenommen.
Diese Erfindung bezieht sich im allgemeinen auf Vorrichtun­ gen zum Steuern eines Cursors auf einem Anzeigebildschirm, die auch als Zeigegeräte bekannt sind. Spezieller bezieht sich diese Erfindung auf ein optisches Zeigegerät mit Träg­ heitseigenschaften.
Die Verwendung eines handbetriebenen Zeigegeräts zur Ver­ wendung bei einem Computer und seiner Anzeige ist nahezu überall anzutreffen. Die bei weitem beliebteste der ver­ schiedenen Vorrichtungen ist die konventionelle (mechani­ sche) Maus, die in Verbindung mit einem kooperierenden Mauspad verwendet wird. Ein Loch, durch das sich ein Ab­ schnitt der Unterseite einer Stahlkugel mit Gummioberfläche erstreckt, ist in der unter Oberfläche der Maus zentral an­ geordnet. Das Mauspad ist typischerweise eine geschlossene Zellschaumgummi-Fläche, die mit einem geeigneten Stoff be­ zogen ist. Reibungsarme Flächen bzw. Blöcke auf der unteren Oberfläche der Maus gleiten leicht über den Stoff, die Gum­ mikugel rutscht dabei jedoch nicht. Vielmehr rollt die Gum­ mikugel über den Stoff, während die Maus bewegt wird. Im Inneren der Maus sind Rollen, oder Räder, die die Kugel an ihrem Äquator kontaktieren und ihre Rotation in elektrische Signale konvertieren, die orthogonale Komponenten einer Mausbewegung darstellen. Diese elektrischen Signale sind mit einem Computer gekoppelt, wo die Software auf die Si­ gnale anspricht, um die angezeigte Position eines Zeigers (Cursors) gemäß der Bewegung der Maus um ein ΔX und ein ΔY zu verändern. Der Benutzer bewegt die Maus nach Bedarf, um den angezeigten Zeiger zu einer bestimmten Stelle oder Po­ sition zu bewegen. Sobald der Zeiger auf dem Bildschirm auf ein interessantes Objekt oder eine interessante Stelle zeigt, wird eine Taste auf der Maus mit den Fingern der Hand, die die Maus halten, aktiviert. Die Aktivierung dient als eine Anweisung, um eine Maßnahme zu ergreifen, deren Art und Weise durch die Software im Computer definiert ist.
Ein "Trackball" ist ein weiteres Beispiel eines mechani­ schen Typs eines Zeigegeräts. Ein Trackball ist im Grunde eine auf den Kopf gestellte Maus. Bei einem Trackball wird die Vorrichtung an sich nicht über eine Oberfläche gescho­ ben, um eine Zeigerbewegung wie bei einer Maus zu erzeugen, sondern der Benutzer kontaktiert die mechanische Kugel di­ rekt mit dem Finger des Benutzers und bewirkt, daß sich die Kugel dreht. Wie bei einer Maus erzeugt die Bewegung der mechanischen Kugel in einem Trackball eine entsprechende Bewegung des angezeigten Zeigers.
Bei einem Trackball kann die mechanische Kugel mit dem Fin­ ger "angeschnipst" werden, und die Kugel dreht sich gemäß ihrem eigenen Impuls weiter, nachdem der Finger der Benut­ zers von der Kugel entfernt worden ist. Die Rotation hält an, bis der Benutzer die mechanische Kugel erneut kontak­ tiert oder bis Reibungskräfte schließlich bewirken, daß die Kugel zu drehen aufhört. Die Trägheitseigenschaften eines Trackballs, die es ihm ermöglichen, die Erzeugung einer Zeigerbewegung fortzusetzen, nachdem der Benutzer aufgehört hat, die mechanische Kugel zu kontaktieren, resultiert in einem guten dynamischen Bereich. Kleine Handbewegungen kön­ nen zu großen Zeigerbewegungen führen. Die Trägheitseigen­ schaften eines Trackballs sind bei manchen Anwendungen, wie z. B. Spieleanwendungen, wo manchmal große und schnelle Zeigerbewegungen wünschenswert sind, nützlich. Einige me­ chanische Mausverrichtungen können auch Trägheitseffekte wie ein Trackball schaffen. Eine mechanische Maus kann schnell über da Mauspad bewegt und dann von der Fläche ab­ gehoben werden, wodurch sich die Kugel nach ihrem eigenen Impuls weiterdrehen kann. Einige mechanische Mausgeräte be­ wirken jedoch, daß die Kugel die Bewegung unmittelbar ein­ stellt, wenn die Maus vom Mauspad abgehoben worden ist.
Optische Zeigegeräte verwenden keine mechanische Kugel oder ein anderes ähnliches bewegliches mechanisches Element, das Trägheitseigenschaften aufweist. Bei einer Form eines opti­ schen Zeigegeräts wird, nicht wie bei der Verwendung eines beweglichen mechanischen Elements, die relative Bewegung zwischen einer Bilderzeugungsoberfläche, wie z. B. einem Finger oder einem Desktop, und Photodetektoren innerhalb des optischen Zeigegeräts optisch erfaßt und in Bewegungs­ informationen konvertiert. Es wäre bei manchen Anwendungen für ein optisches Zeigegerät wünschenswert, Trägheitseffek­ te zu schaffen, wie die, die durch einen Trackball gelie­ fert werden. Es wäre ebenfalls für ein optisches Zeigegerät wünschenswert, ein Geschwindigkeitsprofil aufzuweisen, das benutzerdefinierbar ist.
Es ist die Aufgabe der vorliegenden Erfindung eine Vorrich­ tung und ein Verfahren zum Steuern der Position eines Bild­ schirmzeigers für eine elektronisches Gerät mit einem An­ zeigebildschirm zu schaffen.
Diese Aufgabe wird durch Vorrichtungen gemäß den Ansprüchen 1, 30 und 39 und Verfahren gemäß den Ansprüchen 11 und 21 gelöst.
Die vorliegende Erfindung schafft eine Vorrichtung zum Steuern der Position eines Bildschirmzeigers für ein elek­ tronisches Gerät, das eine Bildschirmanzeige aufweist, und eine Bilderzeugungsoberfläche umfaßt, auf die ein Abschnitt der Spitze eines menschlichen Fingers plaziert werden kann. Eine Lichtquelle beleuchtet diesen Abschnitt der Spitze des Fingers, der auf der Bilderzeugungsoberfläche plaziert wird, wodurch Spiegelbilder (bzw. reflektierte Bilder) er­ zeugt werden. Die Vorrichtung umfaßt einen Bewegungswand­ ler. Eine Linse empfängt die Spiegelbilder und lenkt die Spiegelbilder auf den Bewegungswandler. Der Bewegungswand­ ler erzeugt digitale Darstellungen der Spiegelbilder. Der Bewegungswandler erzeugt einen ersten Satz von Bewegungsda­ ten basierend auf den digitalen Darstellungen der Spiegel­ bilder. Der erste Satz von Bewegungsdaten zeigt die Bewe­ gung der Spitze des Fingers über der Bilderzeugungsoberflä­ che an. Eine Steuerung erzeugt einen zweiten Satz von Bewe­ gungsdaten, wenn die Spitze des menschlichen Fingers von der Bilderzeugungsoberfläche entfernt worden ist. Der zwei­ te Satz von Bewegungsdaten zeigt die Bewegung der Spitze des Fingers über der Bilderzeugungsoberfläche vor dem Entfernen der Spitze an.
Ein Aspekt der vorliegenden Erfindung sieht ein Verfahren zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit einer Bildschirmanzeige vor. Ein Abschnitt einer Gliedmaße der menschlichen Hand wird auf einer Bilderzeugungsoberfläche plaziert. Licht wird auf die Bilderzeugungsoberfläche gelenkt, um diesen Abschnitt der Gliedmaße, das sich auf der Bilderzeugungsoberfläche befin­ det, zu beleuchten. Die Bilder, die vom Abschnitt der Gliedmaße reflektiert werden, werden auf ein Array von Pho­ todetektoren fokussiert. Ausgabewerte der Photodetektoren werden digitalisiert, wodurch digitale Darstellungen der Spiegelbilder erzeugt werden. Zumindest eine Version einer ersten der digitalen Darstellungen ist mit zumindest einer Version einer zweiten der digitalen Darstellungen korre­ liert, um einen ersten Satz von Bewegungsdaten zu erzeugen, die eine Bewegung in orthogonalen Achsen über der Bilder­ zeugungsoberfläche durch die Gliedmaße anzeigen. Die Posi­ tion des Bildschirmzeigers wird gemäß dem ersten Satz von Bewegungsdaten eingestellt. Ein zweiter Satz von Bewegungs­ daten wird basierend auf zumindest einem Teilsatz des er­ sten Satzes von Bewegungsdaten erzeugt, nachdem die Glied­ maße von der Bilderzeugungsoberfläche entfernt worden ist. Die Position des Bildschirmzeigers wird gemäß dem zweiten Satz von Bewegungsdaten eingestellt, nachdem die Gliedmaße von der Bilderzeugungsoberfläche entfernt worden ist.
Eine weitere Form der vorliegenden Erfindung sieht ein Ver­ fahren zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit einer Bildschirmanzeige vor.
Licht wird auf eine Arbeitsoberfläche gelenkt, wodurch Spiegelbilder erzeugt werden. Die Spiegelbilder werden auf ein Array von Photodetektoren fokussiert. Das Array von Photodetektoren wird relativ zur Arbeitsoberfläche bei ei­ ner im wesentlichen konstanten Entfernung von der Arbeits­ oberfläche bewegt. Die digitalen Darstellungen der Spiegel­ bilder werden basierend auf Ausgangssignalen der Photode­ tektoren erzeugt. Zumindest eine Version einer ersten der digitalen Darstellungen ist mit zumindest einer Version ei­ ner zweiten der digitalen Darstellungen korreliert, um ei­ nen ersten Satz von Bewegungsdaten zu erzeugen, die die Be­ wegung des Arrays von Photodetektoren relativ zur Arbeits­ oberfläche anzeigen. Die Position des Bildschirmzeigers wird gemäß dem ersten Satz von Bewegungsdaten eingestellt. Ein zweiter Satz von Bewegungsdaten wird basierend auf zu­ mindest einem Teilsatz des ersten Satzes von Bewegungsdaten erzeugt, wenn das Array von Photodetektoren von der Ar­ beitsoberfläche über die im wesentlichen konstante Entfer­ nung hinaus abgehoben worden ist. Die Position des Bild­ schirmzeigers wird gemäß dem zweiten Satz von Bewegungsda­ ten eingestellt.
Eine weitere Form der vorliegenden Erfindung sieht eine Vorrichtung zum Steuern der Position eines Bildschirmzei­ gers für ein elektronisches Gerät mit einer Bildschirman­ zeige vor. Eine Lichtquelle beleuchtet eine Arbeitsoberflä­ che, wodurch Spiegelbilder erzeugt werden. Ein Bewegungs­ wandler wird relativ zur Arbeitsoberfläche bei einer im we­ sentlichen konstanten Entfernung von der Arbeitsoberfläche bewegt. Eine Linse empfängt die Spiegelbilder und lenkt die Spiegelbilder auf den Bewegungswandler. Der Bewegungswand­ ler erzeugt digitale Darstellungen der Spiegelbilder. Der Bewegungswandler erzeugt einen ersten Satz von Bewegungsda­ ten basierend auf den digitalen Darstellungen der Spiegel­ bilder. Der erste Satz von. Bewegungsdaten zeigt die Bewe­ gung des Bewegungswandlers relativ zur Arbeitsoberfläche an. Eine Steuerung erzeugt einen zweiten Satz von Bewe­ gungsdaten, wenn der Bewegungswandler über die im wesentli­ chen konstante Entfernung von der Arbeitsoberfläche hinaus abgehoben worden ist. Der zweite Satz von Bewegungsdaten zeigt die Bewegung des Bewegungswandlers relativ zur Ar­ beitsoberfläche an, bevor der Bewegungswandler über die im wesentlichen konstante Entfernung hinaus abgehoben worden ist.
Eine weitere Form der vorliegenden Erfindung sieht ein com­ puterlesbares Medium mit computerausführbaren Anweisungen zum Ausführen eines Verfahrens zum Erzeugen von Bewegungs­ daten zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit einer Bildschirmanzeige und einer optischen Zeigevorrichtung vor. Die optische Zeige­ vorrichtung erzeugt Bewegungsdaten, wenn sie mit einer Bil­ derzeugungsoberfläche in Kontakt steht. Die Bewegungsdaten zeigen die relative Bewegung zwischen der Bilderzeugungs­ oberfläche und dem optischen Zeigegerät an. Das Verfahren umfaßt ein Identifizieren, wenn ein Kontaktverlust zwischen dem optischen Zeigegerät und der Bilderzeugungsoberfläche auftritt. Ein erster Satz von Bewegungsdaten wird identifi­ ziert. Der erste Satz von Bewegungsdaten zeigt die relative Bewegung zwischen der Bilderzeugungsoberfläche und der op­ tischen Zeigevorrichtung vor dem Kontaktverlust an. Ein zweiter Satz von Bewegungsdaten wird basierend auf dem er­ sten Satz von Bewegungsdaten erzeugt, wenn ein Kontaktver­ lust zwischen dem optischen Zeigegerät und der Bilderzeu­ gungsoberfläche auftritt. Der zweite Satz von Bewegungsda­ ten bewirkt eine graduelle Abnahme der Geschwindigkeit des Bildschirmzeigers.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen näher erläutert. Es zeigen
Fig. 1 eine piktographische Seitenansicht der Hauptkom­ ponenten von einem Ausführungsbeispiel eines op­ tischen Bildschirmzeigergeräts des Bewegungsüber­ setzungstyps gemäß der vorliegenden Erfindung.
Fig. 2 ein Diagramm, das typische Geschwindigkeitsprofi­ le für ein mechanisches Zeigegerät, wie z. B. ei­ nen Trackball, und ein optisches Zeigegerät dar­ stellt.
Fig. 3 ein Blockdiagramm, das ein Ausführungsbeispiel eines Impulssimulators- oder Emulators für ein Bildschirmzeigegerät des optischen Bewegungsüber­ setzungstyps darstellt, das Trägheitseffekte lie­ fert.
Fig. 4 ein Flußdiagramm, das ein Verfahren zum Liefern von Trägheitseffekten in einem optischen Bild­ schirmzeigegerät des Bewegungsübersetzungstyps gemäß der vorliegenden Erfindung darstellt.
In der nachstehenden ausführlichen Beschreibung der bevor­ zugten Ausführungsbeispiele wird auf die beigefügten Zeich­ nungen Bezug genommen, die einen Teil derselben bilden, und bei denen spezifische Ausführungsbeispiele mittels Darstel­ lung gezeigt sind, durch die die Erfindung praktiziert wer­ den kann. Es wird darauf hingewiesen, daß weitere Ausfüh­ rungsbeispiele genutzt und strukturelle oder logische Ver­ änderungen vorgenommen werden können, ohne vom Schutzbe­ reich der vorliegenden Erfindung abzuweichen. Die nachste­ hende ausführliche Beschreibung ist daher nicht in einem einschränkenden Sinne aufzufassen, und der Schutzbereich der vorliegenden Erfindung ist durch die angehängten An­ sprüche definiert.
Fig. 1 zeigt eine vereinfachte Darstellung einer Seitenan­ sicht einer Bewegungserfassungsanordnung 1, die zum Verfol­ gen der Bewegung eines menschlichen Fingers 7, der gegen eine Oberfläche 5 eines transparenten Stiftes 3, der bei einem Ausführungsbeispiel aus Kunststoff gefertigt ist, ge­ drückt wird, geeignet ist. Eine Bewegungserfassungsanord­ nung wie jene, die in Fig. 1 gezeigt ist, wird im oben auf­ genommenen US-Patent Nr. 6.057.540 (das 540er Patent) aus­ führlich beschrieben. Der Betrieb der Bewegungserfassungs­ anordnung 1 wird nachstehend ebenfalls zusammengefaßt. Ob­ wohl die vorliegende Erfindung unter Bezugnahme auf die spezielle optische Zeigegerätanordnung, die in Fig. 1 ge­ zeigt ist, beschrieben ist, sind die hierin beschriebenen Verfahren ebenfalls auf andere optische Zeigegeräte, die eine optische Maus umfassen, wie jene, die in der oben auf­ genommenen US-Patentanmeldung, fortlaufende Nr. 09/052.046 offenbart ist, und ein optisches stiftartiges Zeigegerät umfassen, wie jenes, das in der oben aufgenommenen US- Patentanmeldung Nr. 6.151.015 offenbart ist, anwendbar.
Eine Lichtquelle 2, die bei einem Ausführungsbeispiel eine LED ist, emittiert Licht, das durch eine Linse 4 gesammelt und fokussiert wird, um eine Oberfläche 5 zu beleuchten. Die Oberfläche 5 kann flach sein oder vorzugsweise eine leichte Krümmung aufweisen. Die Krümmung unterstützt das Vergrößern der Größe des Bereichs der Oberfläche 5, die sich im Brennpunkt für den Bewegungsdetektor 9, der nach­ stehend beschrieben ist, befindet. Die Oberfläche 5 kann ein Glas oder eine andere verschleißfeste Beschichtung sein, die an das Ende des transparenten Stiftes 3 ange­ bracht ist. Bei einer Form der vorliegenden Erfindung weist die Oberfläche 5 im Durchmesser etwa 3/16 bis 1/4 eines Zolls auf, und die Länge des transparenten Stifts 3 reicht von etwa 3/8 bis 3/4 eines Zolls. Ein weiterer Begriff, der den transparenten Stift 3 beschreibt, ist der Begriff "Stablinse". Eine lichtundurchlässige Barriere 10 verhin­ dert, daß Streulicht von der LED 2 den Bewegungsdetektor 9 erreicht.
Wenn die Spitze 6 des Fingers 7 gegen die Oberfläche 5 ge­ drückt wird, sind Hautfurchen oder andere Mikrofasermerkma­ le auf der Ebene der Oberfläche 5 sichtbar, so als ob sie ein Teil der Oberfläche 5 wären. Die Linse 8 fokussiert das Licht von diesen Merkmalen auf ein Array von Photodetekto­ ren, das Teil des Bewegungssensors 9 ist. Der Bewegungssen­ sor 9 erwirbt automatisch jedes geeignete Bild und verfolgt dasselbe. Beim Verfolgen eines Bildes erzeugt der Bewe­ gungssensor 9 inkrementale (X, Y) Signale (d. h. Geschwin­ digkeitssignale in zwei Dimensionen).
Indem die Fingerspitze 6 von der Oberfläche 5 um mehr als einen Bruchteil eines Millimeters angehoben wird, wird das Bild entfokussiert und ein Verfolgungsverlust erzeugt. Die­ se Bedingung wird im Bewegungsdetektor 9 erfaßt, und bei einem Ausführungsbeispiel wird die Erzeugung der inkremen­ talen (X, Y) Signale bei graduell abnehmenden Beträgen fortgesetzt. Dies hat den Effekt, daß die Bewegung des Bildschirmzeigers fortgesetzt wird. Bei einer Form der vor­ liegenden Erfindung ist die fortgesetzte Bewegung der Bewe­ gung eines Bildschirmzeigers ähnlich, wenn eine mechanische Kugel eine Trackballs "angeschnippt" wird. Wenn die Finger­ spitze 6 anschließend wieder auf die Oberfläche 5 gesetzt wird, erkennt ein Bewegungsdetektor 9, daß ein Bild erwor­ ben worden ist, und behandelt diesen Erwerb bei einem Aus­ führungsbeispiel, als ob eine Rücksetzung ausgeführt worden wäre. Das heißt, daß, bis im Anschluß an den neuen Erwerb eine neue Bewegung eingesetzt hat, die Inkrementalkoordina­ ten (X, Y), den Wert (0, 0) aufweisen. Daher, wenn sich der Bildschirmzeiger bewegt, wenn die Fingerspitze 6 wieder auf die Oberfläche 5 gesetzt wird, stoppt die Bewegung, wenn der Bewegungsdetektor 9 den Kontakt erfaßt hat. Der Bild­ schirmzeiger verbleibt in der Position, wo er anhielt, bis der Bewegungsdetektor 9 die Bewegung der Fingerspitze 6 auf der Oberfläche 5 erfaßt hat.
Der Bewegungssensor 9 verwendet exakt oder im wesentlichen das gleiche Verfahren wie die Bilderzeugungs- und Navigati­ onsanordnung, die in den aufgenommenen Patenten beschrieben ist. Bei den speziellen Betriebseinstellungen, die darin beschrieben sind, war es wünschenswert, eine gewisse Ver­ größerung des Bildes vorzunehmen, bevor es den Sensor er­ reichte, aufgrund der geringen Größe der Mikromerkmale, die abgebildet und verfolgt werden (z. B. Papierfasern). Hier sind die Merkmale auf der Fingerspitze 6 vergleichsweise wirklich ziemlich groß, so daß die Vergrößerung bei einem Ausführungsbeispiel nicht verwendet wird. Auch wenn eine Form eines Bilderzeugungs- und Navigationsmechanismus in den aufgenommenen Patenten beschrieben ist, ist nachstehend ein kurzer Überblick über das Verfahren vorgesehen.
Eine LED 2, die bei einem Ausführungsbeispiel eine Infra­ rot-LED ist, emittiert Licht, das durch die Linsen 4 auf einen Bereich 5, der Teil einer Arbeitsoberfläche 6 ist, die für eine Navigation abgebildet werden soll, projiziert wird. Bei einer Form der vorliegenden Erfindung ist der Be­ wegungssensor 9 eine integrierte Schaltung (IC) mit einem Array von Photodetektoren, einem Speicher und arithmeti­ schen Schaltungen, die angeordnet sind, um eine Bildkorre­ lation und Verfolgungsfunktionen, die hierin und in den aufgenommenen Patenten beschrieben sind, zu implementieren. Ein Bild des beleuchteten Bereichs 6 wird durch ein opti­ sches Fenster (das der transparente Stift 3 an sich sein kann) auf ein Gehäuse (nicht gezeigt) der integrierten Schaltung 9 und auf das Array von Photodetektoren proji­ ziert. Die Linse 8 unterstützt die Projektion des Bildes auf die Photodetektoren.
Ein bevorzugtes optisches Navigationsverfahren gemäß der vorliegenden Erfindung erfaßt in optischer Weise die Bewe­ gung durch direktes Abbilden der verschiedenen speziellen optischen Merkmale, die auf der Oberfläche 5 sichtbar sind, als ein Array von Pixeln, ganz ähnlich so, wie man annimmt, daß die menschliche Sichtweise funktioniert. Das IR-Licht, das von einer strukturierten Arbeitsoberfläche reflektiert wird, die gegen die Oberfläche 5 gedrückt wird, wird auf ein geeignetes Array (z. B. 16 × 16 oder 24 × 24) der Pho­ todetektoren fokussiert. Die Antworten der einzelnen Photo­ detektoren werden bis zu einer geeigneten Auflösung (z. B. 6 oder 8 Bits) digitalisiert und als ein Rahmen in entspre­ chenden Stellen innerhalb eines Arrays des Speichers ge­ speichert. Bei einem Ausführungsbeispiel entspricht jedes Pixel in einem Rahmen einem der Photodetektoren.
Die Gesamtgröße des Arrays von Photodetektoren ist vorzugs­ weise groß genug, um ein Bild mit mehreren Merkmalen (z. B. Furchen in den Hautwirbeln) zu empfangen. Auf diese Weise erzeugen Bilder von solchen räumlichen Merkmalen übersetzte Muster von Pixelinformationen, während sich die Fingerspit­ ze 6 bewegt. Die Anzahl von Photodetektoren in dem Array und die Rahmenrate, bei der ihre Inhalte digitalisiert und erfaßt werden, kooperieren, um zu beeinflussen, wie schnell die Fingerspitze 6 über die Oberfläche 5 bewegt und immer noch verfolgt werden kann. Das Verfolgen wird durch Ver­ gleichen eines neu erfaßten Abtastrahmens mit einem zuvor erfaßten Referenzrahmen erreicht, um die Richtung und den Betrag der Bewegung zu ermitteln.
Bei einem Ausführungsbeispiel wird der gesamte Inhalt von einem der Rahmen um eine Entfernung von einem Pixel sukzes­ sive in jede der acht Richtungen verschoben, die durch eine Einpixel-Versatz-Versuchsverschiebung möglich sind (eins seitlich, eins seitlich und eins hinunter, eins hinunter, eins hinauf, eins hinauf und eins seitlich, eins seitlich in die andere Richtung etc.). Dies ergibt bis zu acht Ver­ suche. Da auch keine Bewegung stattgefunden haben muß, wird auch ein neunter Versuchs "Nullverschiebung" verwendet. Nach jeder Versuchsverschiebung werden diese Abschnitt der Rahmen, die einander überlappen, auf einer Pixel-mal- Pixelbasis subtrahiert, und die resultierenden Differenzen werden vorzugsweise quadriert und dann summiert, um ein Maß der Ähnlichkeit (Korrelation) innerhalb dieses Bereichs der Überlappung zu bilden. Größere Versuchsverschiebungen sind natürlich möglich (z. B. zwei seitlich und eins hinunter), jedoch vernichtet die dazugehörige Komplexität an einem ge­ wissen Punkt den Vorteil, und es wird bevorzugt, einfach eine ausreichend hohe Rahmenrate mit kleinen Versuchsver­ schiebungen aufzuweisen. Die Versuchsverschiebung mit der geringsten Differenz (größten Korrelation) kann als ein Hinweis der Bewegung zwischen den zwei Rahmen betrachtet werden. Das heißt sie liefert rohe Bewegungsinformationen, die skaliert oder akkumuliert werden können, um Anzeigezei­ gerbewegungs-Informationen (ΔX und ΔY) einer angenehmen Körnigkeit und bei einer geeigneten Informationsaus­ tauschrate zu liefern.
Der Sensor 9 erfaßt automatisch, wann die Fingerspitze 6 von der Oberfläche 5 entfernt worden ist, indem er erfaßt, daß alle oder die Mehrheit der Pixel im Bild "dunkel gewor­ den sind". Das Verfahren ist eigentlich etwas komplizierter als jenes, das unten erläutert ist.
Wenn die Fingerspitze 6 von der Oberfläche 5 entfernt wor­ den ist, erreicht das IR-Licht von der beleuchtenden LED 2 die Photodetektoren nicht mehr in derselben Menge als sie es vorher tat, wenn überhaupt; die reflektierende Oberflä­ che ist zu weit entfernt oder ist einfach nicht in Sicht. Wenn die Fingerspitze 6 jedoch entfernt worden ist, und die Oberfläche 5 infolgedessen einer intensiv beleuchteten Um­ gebung freigesetzt wird, dann können sich die Ausgangssi­ gnale der Photodetektoren auf einem beliebigen Pegel befin­ den. Von Bedeutung ist, daß die Ausgangssignale der Photo­ detektoren einheitlich oder nahezu einheitlich sind. Der Hauptgrund, daß die Ausgangssignale einheitlich werden, ist, daß kein fokussiertes Bild mehr vorhanden ist. Alle Bildmerkmale sind undeutlich, und sie sind jeweils über die gesamte Sammlung der Photodetektoren verstreut. Daher ge­ langen die Photodetektoren einheitlich zu einem bestimmten Durchschnittspegel. Dies verhält sich in einem deutlichen Kontrast zu dem Fall, wo ein fokussiertes Bild vorhanden ist. Im Falle des fokussierten Bildes weisen die Korrela­ tionen zwischen den Rahmen (man erinnere sich an eins seit­ lich, eins seitlich und eins hinunter etc.) ein deutliches Phänomen auf.
Während des Betriebes sollten Bilder bei einer Rate erwor­ ben werden, die ausreicht, daß sich nachfolgende Bilder be­ züglich der Entfernung um nicht mehr als vielleicht ein Viertel der Breite des Arrays oder vier Pixel für ein 16- mal-16-Array von Lichtsensoren unterscheiden. Experimente haben gezeigt, daß eine Fingergeschwindigkeit von 50 mm/Sekunde nicht unangemessen sind. Bei einer Bilderzeu­ gung von 1 : 1 entspricht dies einer Geschwindigkeit am Array von 800 Pixeln pro Sekunde. Um eine Anforderung, nicht mehr als vier Pixel pro Zyklus zu bewegen, zu erfüllen, ist eine Meßrate von 200 Abtastwerten pro Sekunde notwendig. Diese Rate ist durchaus praktizierbar, und es wäre wünschenswert, bei einem Mehrfachen dieser Rate zu arbeiten.
Fig. 2 ist ein Diagramm, das typische Geschwindigkeitspro­ file für ein mechanisches Zeigegerät, wie z. B. einen Trackball, und ein optisches Zeigegerät darstellt. Das Dia­ gramm 20 umfaßt eine horizontale Achse, eine vertikale Ach­ se, eine Kurve 24 und eine Kurve 26. Die horizontale Achse des Diagramms 20 stellt die Zeit dar, und die vertikale Achse stellt die Geschwindigkeit dar. Die Kurve 26 stellt die Geschwindigkeit gegenüber dem Zeit- oder Geschwindig­ keitsprofil einer mechanischen Maus oder eines Trackballs dar, wenn diese "angeschnippst" oder schnell beschleunigt und dann wieder freigegeben werden. Die Gesamtentfernung, die zurückgelegt wird, verhält sich proportional zum Be­ reich unter der Kurve 26. Die Kurve 26 wird von einer Reihe von Geschwindigkeitsabtastwerten 22 erzeugt. Wie durch die Kurve 26 gezeigt ist, nimmt die Geschwindigkeit der mecha­ nischen Kugel beim Trackball anfangs bei einer nahezu kon­ stanten Rate zu, wobei der Geschwindigkeitsanstieg durch einen Finger, der eine Schnippaktion auf der Kugel beginnt, bewirkt wird. Nachdem die mechanische Kugel angeschnippt und freigeben worden ist, sinkt die Geschwindigkeit der Ku­ gel graduell auf 0 ab. Im Gegensatz dazu sinkt die Ge­ schwindigkeit bei einem typischen optischen Zeigegerät so­ fort auf 0, wie durch die Kurve 24 gezeigt wird, wenn ein Benutzer seinen Finger nach dem Ausführen einer Schnippak­ tion vom Gerät entfernt hat. Die Kurven 24 und 26 sind für typische Geschwindigkeitsprofile für einen Typ der Zeiger­ gerätbewegung repräsentativ und variieren abhängig von der exakten Bewegung, die durch einen Benutzer bewirkt wird. Bei einer Form der vorliegenden Erfindung wird das Ge­ schwindigkeitsprofil einer mechanischen Maus oder eines Trackballs, das durch die Kurve 26 dargestellt ist, als ein Modell beim Bestimmen eines angemessenen Geschwindigkeits­ profils für ein optisches Zeigegerät mit Trägheitseigen­ schaften verwendet.
Fig. 3 ist ein Blockdiagramm, das ein Ausführungsbeispiel eines Impulssimulators- oder Emulators für ein Bildschirm­ zeigergerät des optischen Bewegungsübersetzungstyps, das Trägheitseffekte liefert, darstellt. Der Impulssimulator 40 umfaßt einen Reibungssimulator oder Controller 44, ein ge­ schwindigkeitszustandsvariierbares Register 46 und eine Zeitkonstante 48. Bei einem Ausführungsbeispiel sind der Impulssimulator 40 und der Bewegungsdetektor 9 in einem einzelnen IC-Gehäuse integriert. Bei einem alternativen Ausführungsbeispiel sind der Impulssimulator 40 und der Be­ wegungsdetektor 9 separate ICs. Der Bewegungsdetektor 9 gibt Geschwindigkeitsdaten für X- und Y-Dimensionen aus, die vorstehend unter Bezugnahme auf Fig. 1 erläutert wur­ den. Bei einem Ausführungsbeispiel multipliziert der Bewe­ gungsdetektor 9 die Geschwindigkeitsdaten mit einem Multi­ plikationsfaktor, wodurch die Geschwindigkeitsdaten norma­ lisiert werden. Die normalisierten Geschwindigkeitsdaten werden an den Reibungssimulator 44 ausgegeben, der die Rei­ bung tatsächlich zu den Geschwindigkeitsdaten hinzuaddiert und graduell verringerte Geschwindigkeitsdaten ausgibt. Die Ausgabe des Reibungssimulators 44 kann mit einem beliebigen Gerät gekoppelt werden, das einen Bildschirmzeiger oder Cursor verwendet, einschließlich Computer, Mobiltelephone, persönliche digitale Assistenten (PDAs), digitale Kameras, tragbare Spielgeräte, oder andere Geräte, die einen Bild­ schirmzeiger verwenden.
Bei einem Ausführungsbeispiel basiert die Rate, bei der die Geschwindigkeitsdaten durch den Reibungssimulator 44 ver­ ringert werden, auf einem exponentiellen Abfall bei einer Zeitkonstante, die durch den Wert der Zeitkonstante 48 spe­ zifiziert ist. Bei einer Form der Erfindung kann der Wert der Zeitkonstante 48 durch einen Benutzer spezifiziert wer­ den. Der Reibungssimulator 44 speichert die Geschwindig­ keitsdaten im geschwindigkeitszustandsvariierbaren Register 46. Der Impulssimulator 40 wird nachstehend unter Bezugnah­ me auf Fig. 4 ausführlicher beschrieben.
Fig. 4 ist ein Flußdiagramm, das ein Verfahren 60 zum Bie­ fern von Trägheitseffekten in einem optischen Bildschirm­ zeigergerät des Bewegungsübersetzungstyps gemäß der vorlie­ genden Erfindung darstellt. Bei Schritt 62 bestimmt der Be­ wegungsdetektor 9, ob die Fingerspitze 6 die Oberfläche 5 berührt. Wenn die Fingerspitze 6 die Oberfläche 5 nicht be­ rührt, gibt der Bewegungsdetektor 9 null Geschwindigkeit aus und erfaßt weiterhin, ob die Fingerspitze 6 die Ober­ fläche 5 berührt. Wenn die Fingerspitze 6 die Oberfläche 5 berührt, berechnet der Bewegungsdetektor 9 die X- und Y- Komponenten der Geschwindigkeit der Fingerspitze 6, wie oben erläutert wurde, und gibt bei Schritt 64 die Geschwin­ digkeitsdaten oder Bewegungsdaten an den Reibungssimulator 44 aus. Bei Schritt 66 erfaßt der Bewegungsdetektor 9, ob die Fingerspitze 6 von der Oberfläche 5 entfernt worden ist. Wenn die Fingerspitze 6 die Oberfläche 5 nicht ausge­ lassen hat, gibt der Bewegungsdetektor 9 weiterhin die Ge­ schwindigkeitsdaten aus, wie durch Schritt 64 dargestellt ist. Daher gibt der Bewegungsdetektor 9 weiterhin die Ge­ schwindigkeitsdaten, die die Bewegung darstellen, aus, so lange sich die Fingerspitze 6 weiterhin über die Oberfläche 5 bewegt. Die Geschwindigkeitsdaten, die durch den Bewe­ gungsdetektor 9 ausgegeben werden, sind normalisiert. Bei einem Ausführungsbeispiel multipliziert der Bewegungsdetek­ tor 9 die Geschwindigkeitsdaten mit 100 und gibt die norma­ lisierten Geschwindigkeitsdaten an den Reibungssimulator 44 aus. Der Reibungssimulator 44 gibt die normalisierten Ge­ schwindigkeitsdaten ohne Hinzufügen der Reibung aus, da sich die Fingerspitze 6 noch immer auf der Oberfläche 5 be­ findet.
Bei Schritt 68, wenn die Fingerspitze 6 von der Oberfläche 5 entfernt worden ist, werden die Geschwindigkeit zum Zeit­ punkt des Entfernens oder die aktuellen Geschwindigkeitsda­ ten im Register 46 gespeichert. Bei Schritt 70 verringert der Reibungssimulator 44 die Geschwindigkeitsdaten in Zy­ klen um einen Betrag, der durch die Zeitkonstante 48 be­ stimmt wird. Bei Schritt 74 speichert der Reibungssimulator 44 die verringerten Geschwindigkeitsdaten für den aktuellen Zyklus im Register 46. Bei Schritt 76 bestimmt der Rei­ bungssimulator 44, ob die verringerten Geschwindigkeitsda­ ten, die im Register 46 gespeichert sind, einen spezifi­ zierten Schwellenwertpegel unterschritten haben. Wenn die verringerten Geschwindigkeitsdaten den spezifizierten Schwellenwertpegel unterschritten haben, gibt der Reibungs­ simulator 44 bei Schritt 80 null Geschwindigkeit aus, und der Bewegungsdetektor 9 wartet erneut, daß die Fingerspitze 6 die Oberfläche 5 berührt, wie durch Schritt 62 angezeigt ist. Wenn die verringerten Geschwindigkeitsdaten, die im Register 46 gespeichert sind, den spezifizierten Schwellen­ wertpegel nicht unterschritten haben, gibt der Reibungssi­ mulator 44 bei Schritt 78 die verringerten Geschwindig­ keitsdaten aus. Wenn die Fingerspitze 6 die Oberfläche 5 (Schritt 72) nicht wieder berührt, fährt der Reibungssimu­ lator 44 fort, die Geschwindigkeitsdaten graduell zu ver­ ringern und die verringerten Geschwindigkeitsdaten aus­ zugeben (Schritte 70, 74, 76 und 78) auszugeben, bis die Geschwindigkeitsdaten den spezifizierten Schwellenpegel un­ terschritten haben. Bei Schritt 72, wenn die Fingerspitze 6 die Oberfläche 5 erneut berührt, springt das Verfahren zu Schritt 64, wo der Bewegungsdetektor 9 die aktuelle Ge­ schwindigkeit der Bewegung bestimmt und entsprechende Ge­ schwindigkeitsdaten ausgibt.
Um das Verfahren 60 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung weiter zu veranschaulichen, ist ein Beispiel vorgesehen. Es wird davon ausgegangen, daß die Zeitkonstante 48 eine Sekunde ist und daß der Impulssimula­ tor 40 Geschwindigkeitsdaten bei 100 Abtastwerten/Sekunde ausgibt. Diese Werte werden gewählt, um die Mathematik zu vereinfachen, und andere Werte können für ein handelsübli­ ches Gerät geeigneter sein. Man geht des weiteren davon aus, daß die Fingerspitze 6 gerade von der Oberfläche 5 entfernt worden ist und daß die normalisierte Geschwindig­ keit, die durch den Bewegungsdetektor 9 zum Zeitpunkt des Entfernens ausgegeben wurde, 1,0 Zoll/Sekunde beträgt. Der Reibungssimulator 44 speichert die normalisierte Geschwin­ digkeit im Register 46. Während der ersten Zyklusperiode (d. h. der ersten Millisekunde) verringert der Reibungssi­ mulator 44 die Geschwindigkeit, die im Register 46 gespei­ chert ist, um ein Prozent, speichert die verringerte Ge­ schwindigkeit (d. h. 0,9900 Zoll/Sekunde) im Register 46 und gibt die verringerte Geschwindigkeit aus. Während der zweiten Zyklusperiode verringert der Reibungssimulator 44 erneut die im Register 46 gespeicherte Geschwindigkeit um ein Prozent, speichert die verringerte Geschwindigkeit (d. h. 0,9801 Zoll/Sekunde) im Register 46 und gibt die verrin­ gerte Geschwindigkeit aus. Der Reibungssimulator 44 verrin­ gert die Geschwindigkeit weiterhin um ein Prozent jede Mil­ lisekunde, bis die Geschwindigkeit den spezifizierten Schwellenwert unterschritten hat, wobei der Reibungssimula­ tor 44 an diesem Punkt einen Wert von 0 Geschwindigkeit ausgibt.
Für eine Zeitkonstante 48 von einer Sekunde treibt der Rei­ bungssimulator 44, nach der ersten Sekunde, die anfängliche Geschwindigkeit von 1 Zoll/Sekunde auf 0,37 Zoll/Sekunde. Nach zwei Sekunden treibt der Reibungssimulator 44 die Ge­ schwindigkeit auf 0,14 Zoll/Sekunde herunter. Angenommen, daß der spezifizierte Schwellenwert 0,10 Zoll/Sekunde be­ trägt, treibt der Reibungssimulator 44 die anfängliche Ge­ schwindigkeit nach gerade einmal zwei Sekunden auf 0 herun­ ter. Andere Werte für die Zeitkonstante 48 können gewählt werden, um einen gewünschten Reibungspegel zu liefern. Zu­ sätzlich können Beschleunigungs- und Verlangsamungscharak­ teristika explizit durch einen Benutzer definiert werden. Bei einem Ausführungsbeispiel führen schnellere Finger­ schnippbewegungen zu größeren Anfangsgeschwindigkeiten und längeren Absetzzeiten, und langsamere Fingerschnippbewegun­ gen führen zu kleineren Anfangsgeschwindigkeiten und kürze­ ren Absetzzeiten. Bei einem Ausführungsbeispiel kann die Trägheitsbewegung zu einem beliebigen Zeitpunkt gestoppt werden, indem die Oberfläche 5 erneut berührt wird. Bei ei­ nem Ausführungsbeispiel wird die fortgesetzte Trägheitsbe­ wegung der vorliegenden Erfindung nur geliefert, wenn eine spezifizierte Mindestbeschleunigung durch einen Benutzer bereitgestellt worden ist.
Alternative Verfahren werden im Gegensatz zur Verwendung eines Geschwindigkeitsprofils basierend auf dem exponenti­ ellen Abfall, wie oben erläutert wurde, bevorzugt verwen­ det. Bei einem Ausführungsbeispiel kann ein Benutzer z. B. ein Abtastgeschwindigkeitsprofil graphisch eingeben, und es wird eine mathematische Darstellung des eingegebenen Pro­ fils automatisch erzeugt. Der Reibungssimulator 44 verwen­ det dann die mathematische Darstellung, um die gewünschten Geschwindigkeitscharakteristika zu erzeugen.
Bei einem weiteren Ausführungsbeispiel kann ein Benutzer einen "Schnippbewegungsfaktor" eingeben, der die Bild­ schirmzeigerbewegung definiert, wenn das optische Zeigerge­ rät angeschnippt wird. Eine Schnippbewegung des optischen Zeigegeräts von 1 Zoll/Sekunde könnte z. B. bewirken, daß sich der Bildschirmzeiger quer über den Bildschirm bewegt und zu einem Anschlag gleitet.
Fachleute mit durchschnittlicher Qualifikation werden er­ kennen, daß es für einen Benutzer zahlreiche Möglichkeiten gibt, um Daten, die die gewünschten Zeigerbewegungscharak­ teristika darstellen, einzugeben. Die eingegebenen Daten können dann durch den Reibungssimulator 44 verwendet wer­ den, um die gewünschte Antwort zu erzeugen. Bei einem Aus­ führungsbeispiel kann ein Benutzer z. B. spezifizieren, daß das Gerät keine Reibung aufweisen soll, so daß, wenn das optische Zeigegerät angeschnippt wird, sich der Zeiger wei­ terhin über den Bildschirm bewegt, bis er eine Bildschirm­ grenze erreicht, oder bis der Benutzer das Zeigegerät er­ neut kontaktiert. Bei einem weiteren Ausführungsbeispiel kann ein Benutzer spezifizieren, daß das Gerät eine weitere Beschleunigung des Bildschirmzeigers liefern soll, nachdem ein Benutzer das optische Zeigegerät angeschnippt hat. Eine solche Weiterbeschleunigung könnte bei einem einfachen me­ chanischen Trackball aufgrund der Gesetze der Physik nicht geliefert werden. Wenn ein Trackball losgelassen worden ist, kann er nicht weiter beschleunigt werden, es sei denn, er würde durch einen Benutzer erneut angestoßen werden. Ei­ ne beliebige mathematische Funktion oder willkürliche Kurve kann durch einen Benutzer eingegeben werden, um die ge­ wünschte Antwort des optischen Zeigegeräts einschließlich Funktionen oder Kurven zu spezifizieren, die schließlich zu einer Nullgeschwindigkeit führen, und Funktionen und Kur­ ven, die zur fortgesetzten Geschwindigkeit und/oder Be­ schleunigung führen, nachdem ein Benutzer aufgehört hat, das optische Zeigegerät zu kontaktieren. Die fortgesetzte Geschwindigkeit und/oder Beschleunigung kann vom Benutzer umgangen werden, indem er das optische Zeigegerät kontak­ tiert. Ein Benutzer kann die gewünschten Charakteristika des optischen Zeigegeräts für jede spezielle Anwendung spe­ zifizieren.
Eine Fachmann durchschnittlicher Qualifikation wird verste­ hen, daß Funktionen, die durch den Impulssimulator 40 aus­ geführt werden, in einer Hardware, Software, Firmware oder einer beliebigen Kombination aus denselben implementiert werden können. Die Implementierung kann über einen Mikro­ prozessor, ein programmierbares logisches Gerät oder eine Zustandsmaschine erfolgen. Die Komponenten der vorliegenden Erfindung können sich in einer Software auf einem oder meh­ reren computerlesbaren Medien befinden. Der Begriff compu­ terlesbares Medium, der hierin verwendet wird, ist defi­ niert, um eine beliebige Art von Speicher, flüchtig oder nicht flüchtig, wie z. B. Disketten, Festplatten, CD-ROMs, Flash-Speicher, Nur-Lese-Speicher (ROM; ROM = read only me­ mory) und Direktzugriffsspeicher, zu umfassen.
Wie bei einem Beispiel können, anstatt die Trägheitseigen­ schaften oder andere Bewegungscharakteristika in einem Sen­ sor oder anderem Chip (z. B. Impulssimulator 40) in einem optischen Zeigegerät zu implementieren, die gewünschten Be­ wegungscharakteristika in einem Softwaretreiber eines Host­ geräts (z. B. Computer, PDA, Digitalkamera, Mobiltelephon, tragbares Spielegerät, etc.), das mit dem optischen Zeige­ gerät gekoppelt ist, implementiert sein.
Die Ausführungsbeispiele der vorliegenden Erfindung bieten zahlreiche Vorteile einschließlich der Fähigkeit, den dyna­ mischen Bereich eines optischen Zeigegeräts zu erhöhen, was speziell für größere Bildschirme nützlich ist. Kleine Hand­ bewegungen können zu großen Bildschirmzeigerbewegungen füh­ ren. Ein optisches Zeigegerät, wie das, das in Fig. 1 ge­ zeigt ist, kann so ausgeführt sein, um sich wie ein mecha­ nischer Trackball anzufühlen und zu arbeiten, was für Per­ sonen, die mit dem Betreiben solcher mechanischen Zeigege­ räte vertraut sind, wünschenswert sein kann.

Claims (39)

1. Vorrichtung (1) zum Steuern der Position eines Bild­ schirmzeigers für ein elektronisches Gerät mit einem Anzeigebildschirm, wobei die Vorrichtung folgende Merkmale aufweist:
eine Bilderzeugungsoberfläche (5), auf der ein Ab­ schnitt der Spitze (6) eines menschlichen Fingers (7) plaziert werden kann;
eine Lichtquelle (2) zum Beleuchten dieses Abschnitts der Spitze (6) dieses Fingers (7), der auf der Bilder­ zeugungsoberfläche (5) plaziert ist, wodurch reflek­ tierte Bilder erzeugt werden;
einen Bewegungswandler (9);
eine Linse (8) zum Empfangen der reflektierten Bilder und zum Richten der reflektierten Bilder auf den Bewe­ gungswandler (9), wobei der Bewegungswandler (9) digi­ tale Darstellungen der reflektierten Bilder erzeugt, wobei der Bewegungswandler (9) einen ersten Satz von Bewegungsdaten basierend auf den digitalen Darstellun­ gen der reflektierten Bilder erzeugt, wobei der erste Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsfläche anzeigt; und
eine Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn die Spitze (6) eines menschlichen Fingers (7) von der Bil­ derzeugungsoberfläche (5) entfernt wird, wobei der zweite Satz von Bewegungsdaten die Bewegung der Spitze (6) des Fingers (7) über der Bilderzeugungsoberfläche (5) vor dem Entfernen der Spitze (6) anzeigt.
2. Vorrichtung gemäß Anspruch 1, bei der der zweite Satz von Bewegungsdaten auf einem exponentiellen Abfall ba­ siert.
3. Vorrichtung gemäß Anspruch 2, bei der Charakteristika des exponentiellen Abfalls durch einen Benutzer spezi­ fiziert werden können.
4. Vorrichtung gemäß Anspruch 2 oder 3, bei der Charakte­ ristika des exponentiellen Abfalls auf einer Zeitkon­ stante basieren, die durch einen Benutzer spezifiziert werden kann.
5. Vorrichtung gemäß einem der Ansprüche 1 bis 4, bei der Charakteristika des zweiten Satzes von Bewegungsdaten benutzerdefinierbar sind.
6. Vorrichtung gemäß Anspruch 5, bei der die Charakteri­ stika des zweiten Satzes von Bewegungsdaten durch eine graphische Kurve definiert sind, die durch einen Be­ nutzer bereitgestellt wird.
7. Vorrichtung gemäß Anspruch 5, bei der die Charakteri­ stika des zweiten Satzes von Bewegungsdaten durch eine mathematische Funktion definiert sind, die durch einen Benutzer bereitgestellt wird.
8. Vorrichtung gemäß einem der Ansprüche 1 bis 7, bei der Charakteristika des ersten Satzes und des zweiten Sat­ zes von Bewegungsdaten benutzerdefinierbar sind.
9. Vorrichtung gemäß einem der Ansprüche 1 bis 8, bei der die Steuerung (40) konfiguriert ist, um ein Erzeugen des zweiten Satzes von Bewegungsdaten zu stoppen, wenn die Spitze (6) des menschlichen Fingers (7) erneut auf der Bilderzeugungsoberfläche (5) plaziert wird.
10. Vorrichtung gemäß einem der Ansprüche 1 bis 9, bei der der zweite Satz von Bewegungsdaten auf Trägheitseigen­ schaften eines mechanischen Bildschirmzeigegerätes ba­ siert.
11. Verfahren zum Steuern der Position eines Bildschirm­ zeigers für ein elektronisches Gerät mit einer Bild­ schirmanzeige, wobei das Verfahren folgende Schritte aufweist:
Plazieren eines Abschnitts (6) einer Gliedmaße (7) der menschlichen Hand auf einer Bilderzeugungsoberfläche (5);
Richten von Licht auf die Bilderzeugungsoberfläche (5), um diesen Abschnitt (6) der Gliedmaße (7) zu be­ leuchten, der sich auf der Bilderzeugungsoberfläche (5) befindet;
Fokussieren von Bildern, die von dem Abschnitt (6) der Gliedmaße (7) reflektiert werden, auf ein Array von Photodetektoren;
Digitalisieren von Ausgabewerten der Photodetektoren, wodurch digitale Darstellungen der reflektierten Bil­ der erzeugt werden;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi­ on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die eine Bewegung in orthogonalen Achsen über der Bilderzeu­ gungsoberfläche (5) durch die Gliedmaße (7) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba­ sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten, nachdem die Gliedmaße (7) von der Bilderzeugungsoberfläche (5) entfernt worden ist.
12. Verfahren gemäß Anspruch 11, bei dem der zweite Satz von Bewegungsdaten auf einem exponentiellen Abfall ba­ siert.
13. Verfahren gemäß Anspruch 12, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
14. Verfahren gemäß Anspruch 12 oder 13, das ferner fol­ genden Schritt aufweist:
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex­ ponentiellen Abfalls definieren.
15. Verfahren gemäß einem der Ansprüche 11 bis 14, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die Charakteristika des zweiten Satzes von Be­ wegungsdaten spezifizieren.
16. Verfahren gemäß Anspruch 15, bei dem die Bewegungsde­ finitionsdaten eine graphische Darstellung von ge­ wünschten Charakteristika des zweiten Satzes von Bewe­ gungsdaten sind.
17. Verfahren gemäß Anspruch 15, bei dem die Bewegungsde­ finitionsdaten eine mathematische Funktion sind.
18. Verfahren gemäß einem der Ansprüche 11 bis 17, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
19. Verfahren gemäß einem der Ansprüche 11 bis 18, das ferner folgenden Schritt aufweist:
Stoppen der Bewegung des Bildschirmzeigers, wenn die Gliedmaße (7) erneut auf der Bilderzeugungsoberfläche (5) plaziert wird.
20. Verfahren gemäß einem der Ansprüche 11 bis 19, bei dem der zweite Satz von Bewegungsdaten auf Trägheitseigen­ schaften eines mechanischen Bildschirmzeigegerätes ba­ siert.
21. Verfahren zum Steuern der Position eines Bildschirm­ zeigers für ein elektronisches Gerät mit einer Bild­ schirmanzeige, wobei das Verfahren folgende Schritte aufweist:
Richten von Licht auf eine Arbeitsoberfläche (6), wo­ durch reflektierte Bilder erzeugt werden;
Fokussieren der reflektierten Bilder auf ein Array von Photodetektoren;
Bewegen des Arrays von Photodetektoren relativ zur Ar­ beitsoberfläche (6) bei einer im wesentlichen konstan­ ten Entfernung von der Arbeitsoberfläche (6);
Erzeugen von digitalen Darstellungen der reflektierten Bilder basierend auf Ausgangssignalen der Photodetek­ toren;
Korrelieren von zumindest einer Version einer ersten der digitalen Darstellungen mit zumindest einer Versi­ on einer zweiten der digitalen Darstellungen, um einen ersten Satz von Bewegungsdaten zu erzeugen, die die Bewegung des Arrays von Photodetektoren relativ zur Arbeitsoberfläche (6) anzeigen;
Einstellen der Position des Bildschirmzeigers gemäß dem ersten Satz von Bewegungsdaten;
Erzeugen eines zweiten Satzes von Bewegungsdaten ba­ sierend auf zumindest einem Teilsatz des ersten Satzes von Bewegungsdaten, wenn das Array von Photodetektoren von der Arbeitsoberfläche (6) über die im wesentlichen konstante Entfernung hinaus angehoben wird; und
Einstellen der Position des Bildschirmzeigers gemäß dem zweiten Satz von Bewegungsdaten.
22. Verfahren gemäß Anspruch 21, bei dem der zweite Satz von Bewegungsdaten auf einem exponentiellen Abfall ba­ siert.
23. Verfahren gemäß Anspruch 22, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die Charakteristika des exponentiellen Abfalls spezifizieren.
24. Verfahren gemäß einem Anspruch 22 oder 23, das ferner folgenden Schritt aufweist:
Empfangen von Zeitkonstantendaten von einem Benutzer, wobei die Zeitkonstantendaten Charakteristika des ex­ ponentiellen Abfalls definieren.
25. Verfahren gemäß einem der Ansprüche 21 bis 24, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die die Charakteristika des zweiten Satzes von Bewegungsdaten spezifizieren.
26. Verfahren gemäß Anspruch 25, bei dem die Bewegungsde­ finitionsdaten eine graphische Darstellung von ge­ wünschten Charakteristika des zweiten Satzes von Bewe­ gungsdaten sind.
27. Verfahren gemäß Anspruch 25, bei dem die Bewegungsde­ finitionsdaten eine mathematische Funktion sind.
28. Verfahren gemäß einem der Ansprüche 21 bis 27, das ferner folgenden Schritt aufweist:
Empfangen von Bewegungsdefinitionsdaten von einem Be­ nutzer, die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten spezifizieren.
29. Verfahren gemäß einem der Ansprüche 21 bis 28, bei dem der zweite Satz von Bewegungsdaten auf Trägheitseigen­ schaften eines mechanischen Bildschirmzeigegeräts ba­ siert.
30. Vorrichtung zum Steuern der Position eines Bildschirm­ zeigers für ein elektronisches Gerät mit einer Bild­ schirmanzeige, wobei die Vorrichtung folgende Merkmale aufweist:
eine Lichtquelle (2) zum Beleuchten einer Arbeitsober­ fläche (6), wodurch reflektierte Bilder erzeugt wer­ den;
einen Bewegungswandler (9), der relativ zur Arbeits­ oberfläche (6) bei einer im wesentlichen konstanten Entfernung von der Arbeitsoberfläche (6) beweglich ist;
eine Linse (8) zum Empfangen der reflektierten Bilder und Richten der reflektierten Bilder auf den Bewe­ gungswandler (9), wobei der Bewegungswandler (9) kon­ figuriert, um digitale Darstellungen der reflektierten Bilder zu erzeugen, wobei der Bewegungswandler (9) konfiguriert ist, um einen ersten Satz von Bewegungs­ daten basierend auf den digitalen Darstellungen der reflektierten Bilder zu erzeugen, wobei der erste Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Arbeitsoberfläche (6) anzeigt; und
einen Steuerung (40), die konfiguriert ist, um einen zweiten Satz von Bewegungsdaten zu erzeugen, wenn der Bewegungswandler (9) über die im wesentlichen konstan­ te Entfernung von der Arbeitsoberfläche (6) hinaus an­ gehoben wird, wobei der zweite Satz von Bewegungsdaten die Bewegung des Bewegungswandlers (9) relativ zur Ar­ beitsoberfläche (6) vor dem Anheben des Bewegungswand­ lers (9) über die im wesentlichen konstante Entfernung hinaus anzeigt.
31. Vorrichtung gemäß Anspruch 30, bei der der zweite Satz von Bewegungsdaten auf einem exponentiellen Abfall ba­ siert.
32. Vorrichtung gemäß Anspruch 31, bei der Charakteristika des exponentiellen Abfalls durch einen Benutzer spezi­ fiziert werden können.
33. Vorrichtung gemäß Anspruch 31 oder 32, bei der Charak­ teristika des exponentiellen Abfalls auf einer Zeit­ konstante basieren, die durch einen Benutzer spezifi­ ziert werden kann.
34. Vorrichtung gemäß einem der Ansprüche 30 bis 33, bei der Charakteristika des zweiten Satzes der Bewegungs­ daten benutzerdefinierbar sind.
35. Vorrichtung gemäß Anspruch 34, bei der die Charakteri­ stika des zweiten Satzes der Bewegungsdaten durch eine graphische Kurve, die durch einen Benutzer bereitge­ stellt wird, definiert sind.
36. Vorrichtung gemäß Anspruch 34, bei der die Charakteri­ stika des zweiten Satzes von Bewegungsdaten durch eine mathematische Funktion, die durch einen Benutzer be­ reitgestellt wird, definiert sind.
37. Vorrichtung gemäß einem der Ansprüche 30 bis 36, bei der die Charakteristika des ersten Satzes und des zweiten Satzes von Bewegungsdaten benutzerdefinierbar sind.
38. Vorrichtung gemäß einem der Ansprüche 30 bis 37, bei der der zweite Satz von Bewegungsdaten auf Trägheits­ eigenschaften eines mechanischen Bildschirmzeigegerä­ tes basiert.
39. Computerlesbares Medium mit computerausführbaren An­ weisungen zum Ausführen eines Verfahrens zum Erzeugen von Bewegungsdaten zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät mit ei­ ner Bildschirmanzeige und einem optischen Zeigegerät, wobei das optische Zeigegerät Bewegungsdaten erzeugt, wenn es sich in Kontakt mit einer Bilderzeugungsober­ fläche (5) befindet, wobei die Bewegungsdaten die re­ lative Bewegung zwischen der Bilderzeugungsoberfläche (5) und dem optischen Zeigegerät anzeigt, wobei das Verfahren folgende Schritte aufweist:
Identifizieren, wenn ein Kontaktverlust zwischen dem optischen Zeigegerät und der Bilderzeugungsoberfläche (5) auftritt;
Identifizieren eines ersten Satzes von Bewegungsdaten, wobei der erste Satz von Bewegungsdaten die relative Bewegung zwischen der Bilderzeugungsoberfläche (5) und dem optischen Zeigegerät vor dem Kontaktverlust an­ zeigt; und
Erzeugen eines zweiten Satzes von Bewegungsdaten ba­ sierend auf dem ersten Satz von Bewegungsdaten, wenn zwischen dem ersten Zeigegerät und der Bilderzeugungs­ oberfläche (5) ein Kontaktverlust auftritt, wobei der zweite Satz von Bewegungsdaten eine graduelle Abnahme der Geschwindigkeit des Bildschirmzeigers bewirkt.
DE10211340A 2001-03-16 2002-03-14 Optisches Bildschirmzeigegerät mit Trägheitseigenschaften Withdrawn DE10211340A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/810,745 US6621483B2 (en) 2001-03-16 2001-03-16 Optical screen pointing device with inertial properties

Publications (1)

Publication Number Publication Date
DE10211340A1 true DE10211340A1 (de) 2002-10-02

Family

ID=25204596

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10211340A Withdrawn DE10211340A1 (de) 2001-03-16 2002-03-14 Optisches Bildschirmzeigegerät mit Trägheitseigenschaften

Country Status (4)

Country Link
US (1) US6621483B2 (de)
JP (1) JP2002278693A (de)
DE (1) DE10211340A1 (de)
GB (1) GB2374409B (de)

Families Citing this family (101)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US9513744B2 (en) * 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US8482534B2 (en) * 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8228305B2 (en) 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US8576199B1 (en) 2000-02-22 2013-11-05 Apple Inc. Computer control systems
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
US20070018970A1 (en) * 2000-12-22 2007-01-25 Logitech Europe S.A. Optical slider for input devices
US20080024463A1 (en) * 2001-02-22 2008-01-31 Timothy Pryor Reconfigurable tactile control display applications
US7184026B2 (en) * 2001-03-19 2007-02-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Impedance sensing screen pointing device
US6809723B2 (en) * 2001-05-14 2004-10-26 Agilent Technologies, Inc. Pushbutton optical screen pointing device
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
GB2383128B (en) * 2001-12-17 2005-02-16 Behavior Tech Computer Corp Optical pointing device
US20030184520A1 (en) * 2002-03-28 2003-10-02 Patrick Wei Mouse with optical buttons
US20050179667A1 (en) * 2002-04-03 2005-08-18 Leif Nilsson Method of navigating in a virtual three-dimensional environment and an electronic device employing such method
US7348963B2 (en) * 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7358963B2 (en) * 2002-09-09 2008-04-15 Apple Inc. Mouse having an optically-based scrolling feature
WO2004055776A1 (en) 2002-12-13 2004-07-01 Reactrix Systems Interactive directed light/sound system
US6888988B2 (en) 2003-03-14 2005-05-03 Agilent Technologies, Inc. Small form factor all-polymer optical device with integrated dual beam path based on total internal reflection optical turn
US7321359B2 (en) * 2003-07-30 2008-01-22 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and device for optical navigation
US20040227954A1 (en) * 2003-05-16 2004-11-18 Tong Xie Interferometer based navigation device
US7587072B2 (en) * 2003-08-22 2009-09-08 Authentec, Inc. System for and method of generating rotational inputs
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7167162B2 (en) * 2003-12-12 2007-01-23 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus and method for controlling a screen pointer
US7042575B2 (en) * 2004-05-21 2006-05-09 Silicon Light Machines Corporation Speckle sizing and sensor dimensions in optical positioning device
US7773070B2 (en) 2004-05-21 2010-08-10 Cypress Semiconductor Corporation Optical positioning device using telecentric imaging
US20050259078A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device with multi-row detector array
US7285766B2 (en) * 2004-05-21 2007-10-23 Silicon Light Machines Corporation Optical positioning device having shaped illumination
US20050259097A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device using different combinations of interlaced photosensitive elements
US20050258346A1 (en) * 2004-05-21 2005-11-24 Silicon Light Machines Corporation Optical positioning device resistant to speckle fading
US7268341B2 (en) 2004-05-21 2007-09-11 Silicon Light Machines Corporation Optical position sensing device including interlaced groups of photosensitive elements
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7521719B2 (en) * 2004-08-13 2009-04-21 Paul Steven Schranz Light emitting and image sensing device and apparatus
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
US7761814B2 (en) * 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
NO20044073D0 (no) * 2004-09-27 2004-09-27 Isak Engquist Informasjonsbehandlingssystem og fremgangsmate
US7138620B2 (en) * 2004-10-29 2006-11-21 Silicon Light Machines Corporation Two-dimensional motion sensor
US7248345B2 (en) * 2004-11-12 2007-07-24 Silicon Light Machines Corporation Signal processing method for use with an optical navigation system
US7925996B2 (en) * 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US7405389B2 (en) * 2004-11-19 2008-07-29 Silicon Light Machines Corporation Dense multi-axis array for motion sensing
TW200627252A (en) * 2004-12-02 2006-08-01 Silicon Light Machines Corp Signal processing method for optical sensors
US20060170653A1 (en) * 2005-02-01 2006-08-03 Eastman Kodak Company Pointing device with switch
US9128519B1 (en) * 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US7898524B2 (en) 2005-06-30 2011-03-01 Logitech Europe S.A. Optical displacement detection over varied surfaces
US7399954B2 (en) * 2005-08-16 2008-07-15 Avago Technologies Ecbu Ip Pte Ltd System and method for an optical navigation device configured to generate navigation information through an optically transparent layer and to have skating functionality
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US7567235B2 (en) 2005-12-12 2009-07-28 Cypress Semiconductor Corporation Self-aligning optical sensor package
US8471191B2 (en) 2005-12-16 2013-06-25 Cypress Semiconductor Corporation Optical navigation system having a filter-window to seal an enclosure thereof
US7765251B2 (en) * 2005-12-16 2010-07-27 Cypress Semiconductor Corporation Signal averaging circuit and method for sample averaging
US7737948B2 (en) * 2005-12-20 2010-06-15 Cypress Semiconductor Corporation Speckle navigation system
US7810504B2 (en) * 2005-12-28 2010-10-12 Depuy Products, Inc. System and method for wearable user interface in computer assisted surgery
US8077147B2 (en) 2005-12-30 2011-12-13 Apple Inc. Mouse with optical sensing surface
US7298460B2 (en) * 2006-01-03 2007-11-20 Silicon Light Machines Corporation Method for determining motion using a velocity predictor
US7884801B1 (en) 2006-02-16 2011-02-08 Cypress Semiconductor Corporation Circuit and method for determining motion with redundant comb-arrays
US7297912B1 (en) 2006-03-27 2007-11-20 Silicon Light Machines Corporation Circuit and method for reducing power consumption in an optical navigation system having redundant arrays
US7721609B2 (en) 2006-03-31 2010-05-25 Cypress Semiconductor Corporation Method and apparatus for sensing the force with which a button is pressed
US7809035B2 (en) * 2006-03-31 2010-10-05 Cypress Semiconductor Corporation Eye-safe laser navigation sensor
US7492445B1 (en) 2006-06-05 2009-02-17 Cypress Semiconductor Corporation Method and apparatus for robust velocity prediction
US7755604B2 (en) 2006-06-19 2010-07-13 Cypress Semiconductor Corporation Optical navigation sensor with tracking and lift detection for optically transparent contact surfaces
US7728816B2 (en) * 2006-07-10 2010-06-01 Cypress Semiconductor Corporation Optical navigation sensor with variable tracking resolution
US7742514B1 (en) 2006-10-31 2010-06-22 Cypress Semiconductor Corporation Laser navigation sensor
US8072429B2 (en) * 2006-12-22 2011-12-06 Cypress Semiconductor Corporation Multi-axial touch-sensor device with multi-touch resolution
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8314774B1 (en) 2007-07-09 2012-11-20 Cypress Semiconductor Corporation Method and apparatus for quasi-3D tracking using 2D optical motion sensors
EP2017702A1 (de) * 2007-07-13 2009-01-21 Flinglab AB Verfahren zur Steuerung der Cursorbewegung
US8263921B2 (en) 2007-08-06 2012-09-11 Cypress Semiconductor Corporation Processing methods for speckle-based motion sensing
WO2009029912A1 (en) * 2007-08-30 2009-03-05 Microstrain, Inc. Optical linear and rotation displacement sensor
CN101952818B (zh) 2007-09-14 2016-05-25 智慧投资控股81有限责任公司 基于姿态的用户交互的处理
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20090135140A1 (en) * 2007-11-27 2009-05-28 Logitech Europe S.A. System and method for accurate lift-detection of an input device
US8259069B1 (en) 2008-01-11 2012-09-04 Cypress Semiconductor Corporation Speckle-based optical navigation on curved tracking surface
US8031176B1 (en) 2008-01-22 2011-10-04 Cypress Semiconductor Corporation Optical navigation system using a single-package motion sensor
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8212776B2 (en) * 2008-09-23 2012-07-03 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical finger navigation device with integrated tactile switch
US8541727B1 (en) 2008-09-30 2013-09-24 Cypress Semiconductor Corporation Signal monitoring and control system for an optical navigation sensor
US7723659B1 (en) 2008-10-10 2010-05-25 Cypress Semiconductor Corporation System and method for screening semiconductor lasers
US8217334B1 (en) 2008-12-24 2012-07-10 Cypress Semiconductor Corporation Optical navigation sensor including a spatial frequency filter
US8711096B1 (en) 2009-03-27 2014-04-29 Cypress Semiconductor Corporation Dual protocol input device
JP5552772B2 (ja) * 2009-08-26 2014-07-16 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5461335B2 (ja) * 2010-07-28 2014-04-02 京セラ株式会社 電子機器
US20120242620A1 (en) * 2011-03-22 2012-09-27 Research In Motion Limited Combined optical navigation and button
CN102959494B (zh) 2011-06-16 2017-05-17 赛普拉斯半导体公司 具有电容式传感器的光学导航模块
US8896553B1 (en) 2011-11-30 2014-11-25 Cypress Semiconductor Corporation Hybrid sensor module
KR20140137656A (ko) * 2013-05-23 2014-12-03 삼성전자주식회사 데이터를 스캔하기 위한 방법 및 그 전자 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5994134A (ja) * 1982-11-20 1984-05-30 Matsushita Electric Ind Co Ltd 入力装置
US5578813A (en) 1995-03-02 1996-11-26 Allen; Ross R. Freehand image scanning device which compensates for non-linear movement
US5786804A (en) 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH11161413A (ja) * 1997-11-28 1999-06-18 Sony Corp 入力装置
WO1999046602A1 (en) * 1998-03-09 1999-09-16 Gou Lite Ltd. Optical translation measurement
US6424407B1 (en) * 1998-03-09 2002-07-23 Otm Technologies Ltd. Optical translation measurement
US6151015A (en) 1998-04-27 2000-11-21 Agilent Technologies Pen like computer pointing device
US6057540A (en) 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system
US5994710A (en) 1998-04-30 1999-11-30 Hewlett-Packard Company Scanning mouse for a computer system
JP2001067180A (ja) * 1999-08-30 2001-03-16 Matsushita Electric Ind Co Ltd 光学式ポインティング入力装置

Also Published As

Publication number Publication date
GB2374409B (en) 2005-02-02
JP2002278693A (ja) 2002-09-27
GB0201893D0 (en) 2002-03-13
US6621483B2 (en) 2003-09-16
US20020130839A1 (en) 2002-09-19
GB2374409A (en) 2002-10-16

Similar Documents

Publication Publication Date Title
DE10211340A1 (de) Optisches Bildschirmzeigegerät mit Trägheitseigenschaften
DE10221415B4 (de) Optische Druckknopfbildschirm-Zeigevorrichtung
DE10241392B4 (de) Vorrichtung und Verfahren zum Erfassen einer dreidimensionalen Relativbewegung
DE20221921U1 (de) Tragbare elektronische Vorrichtung mit mausähnlichen Fähigkeiten
DE60205662T2 (de) Vorrichtung und Verfahren zur Berechnung einer Position einer Anzeige
DE102009043800A1 (de) Optische Fingernavigation unter Verwendung von quantisierter Bewegungsinformation
DE69926908T2 (de) System zur kontrastreichen und verzerrungsarmen bilderfassung
DE60028894T2 (de) Präsentationssystem mit einer interaktiven Darstellung
DE60033490T2 (de) Optische Hinweisanordnung
DE69629658T2 (de) Lichtstifteingabesysteme
DE69906139T2 (de) Vorrichtung zum verfolgen von augenbewegungen
DE602004007760T2 (de) Optische Vorrichtung zur Messung des Abstandes zwischen der Vorrichtung und einer Fläche
DE60124549T2 (de) Kamerabasiertes beruehrungssystem
DE4423005C1 (de) Eingabevorrichtung für einen Computer
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
DE19615568A1 (de) Zeigegerät mit einer Photodetektor-Anordnung
DE112014000441T5 (de) Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation
EP1637985A2 (de) Eingabesteuerung für Geräte
DE202005010368U1 (de) Bildlaufvorrichtung
DE69433918T2 (de) Verbesserungen der Blickverfolgung für Perimeter
DE4437961A1 (de) Optische Positionserfassungseinheit und optische Koordinateneingabeeinheit
DE102015210302A1 (de) Verfahren zum Steuern der Bewegung einer Koordinatenmessmaschine
DE102019200287A1 (de) Bildmessgerät und computerlesbares Medium
DE102005034608A1 (de) Mauseingabevorrichtung mit sekundärer Eingabevorrichtung
DE19535295A1 (de) Lichtmengensteuervorrichtung und zugehöriges Verfahren für einen Projektor

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD.,

8128 New person/name/address of the agent

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELLSCHA

8139 Disposal/non-payment of the annual fee