DE102010006146B4 - System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten - Google Patents
System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten Download PDFInfo
- Publication number
- DE102010006146B4 DE102010006146B4 DE102010006146.8A DE102010006146A DE102010006146B4 DE 102010006146 B4 DE102010006146 B4 DE 102010006146B4 DE 102010006146 A DE102010006146 A DE 102010006146A DE 102010006146 B4 DE102010006146 B4 DE 102010006146B4
- Authority
- DE
- Germany
- Prior art keywords
- image data
- frames
- noise pattern
- spatial noise
- pattern determination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
Abstract
Description
- HINTERGRUND DER ERFINDUNG
- Optische Navigationssysteme werden zum Bestimmen von Bewegungen zwischen den optischen Navigationssystemen und Zielflächen zum Durchführen von Verfolgungsoperationen („tracking“) betrieben. Ein optisches Navigationssystem verwendet eine Lichtquelle, wie zum Beispiel eine Leuchtdiode (LED) oder eine Laserdiode, um einen Bereich einer Zielfläche zu beleuchten und einen Bildsensor zum Empfangen des Lichts, das von der Zielfläche reflektiert wird, zum sukzessiven Aufnehmen von Frames von Bilddaten von der Zielfläche. Das optische Navigationssystem vergleicht die sukzessiven Bildframes und bestimmt die relativen Bewegungen zwischen dem optischen Navigationssystem und der Zielfläche basierend auf dem Vergleich zwischen dem gegenwärtigen Bildframe und einem vorherigen Bildframe. Der Vergleich wird basierend auf dem Detektieren und Berechnen von Verschiebungen von Merkmalen in den aufgenommenen Frames von Bilddaten durchgeführt.
- Optische Navigationssysteme werden üblicherweise in optischen Computermäusen verwendet, um die Bewegungen der Mäuse relativ zu den Navigationsflächen zu verfolgen oder zu „tracken“, wobei die Mäuse auf den Navigationsflächen manuell manipuliert (zum Beispiel verschoben) werden. Die Bewegungen einer Computermaus werden zum Steuern eines Cursors auf einem Monitor eines Computersystems verwendet. Die Genauigkeit einer optischen Computermaus bezüglich des Positionierens des Cursors hängt von der Qualität von Bildframes von einer Navigationsfläche ab, die für Biidvergleiche aufgenommen werden.
- Ein Bedenken mit einer herkömmlichen optischen Computermaus ist, dass eine Kontamination von Staub und/oder anderen Materialien an den optischen Elementen der Maus ein räumliches Rauschmuster („spatial noise pattern“) in den aufgenommenen Bildframes von der Navigationsfläche einführen. Diese Bildframes mit optischen räumlichen Rauschmustern können zu Fehlern bei der Berechnung einer Verschiebung führen, welche die Leistungsfähigkeit der optischen Computermaus betreffend ein Verfolgen verschlechtern könnte, Ein anderes Bedenken ist, dass Variationen der Intensität in den aufgenommenen Frames von Bilddaten aufgrund von Herstellungsabweichungen in dem Bildsensor und/oder in anderen elektronischen Komponenten des optischen Navigationssystems auch die Leistungsfähigkeit der optischen Computermaus betreffend ein Verfolgen verschlechtern können.
-
DE 10 2005 004 861 A1 beschreibt eine Vorrichtung zum Steuern der Position eines Bildschirmanzeigers mit niedriger Empfindlichkeit für Partikelkontamination. Die Vorrichtung weist insbesondere einen Fehlerpixeldetektor auf, der schlechte oder fehlerhafte Pixel in Digitalbildern identifiziert und entfernt, damit Digitalbilddaten mit lediglich „guten“ (d.h. nicht fehlerhaften) Pixeln zur Verarbeitung in einem Navigationsprozessor ausgegeben werden. Eine weitere Vorrichtung ist aus derUS 2006/0044267 A1 - ZUSAMMENFASSUNG DER ERFINDUNG
- Es ist somit eine Aufgabe der Erfindung, ein System und ein Verfahren für optische Navigation bereitzustellen, welche eine ausreichend gute Genauigkeit beim Verfolgen einer optischen Navigationsoperation aufweisen. Diese Aufgabe wird durch die Gegenstände gemäß den unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
- Gemäß exemplarischen Ausführungsbeispielen der Erfindung sind ein System und ein Verfahren zum Adressieren des räumlichen Rauschmusters aufgrund von optischen bzw. elektrischen Quellen in den Frames von Bilddaten geschaffen, die zur Bestimmung von Verschiebung verwendet werden können.
- Ein System und ein Verfahren zum Durchführen von optischer Navigation gemäß exemplarischen Ausführungsbeispielen der Erfindung verwenden eine Bestimmung oder Abschätzung des räumlichen Rauschmusters in aufgenommenen Frames von Bilddaten, das durch eine Kontamination an zumindest einer Komponente des Systems verursacht wird, um das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen, bevor die aufgenommenen Frames von Bilddaten zur Bestimmung einer Verschiebung verwendet werden.
- Ein System für optische Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung weist einen Bildsensor auf, der zum Aufnehmen von Frames von Bilddaten von einer Zielfläche konfiguriert ist, ein räumliches-Rauschmusterbestimmungsmodul (oder ein räumliches-Rauschmusterebschätzungsmodul), das zum Erzeugen einer räumliches-Rauschmusterbestimmung (oder einer räumliches-Rauschmusterabschätzung) von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer Komponente des Systems verursacht ist, ein Normierungsmodul, das zum Normieren bestimmter Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung konfiguriert ist, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zu entfernen oder im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren, und ein Navigationsengine, der zum Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten konfiguriert ist.
- Ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung weist ein Aufnehmen von Frames von Bilddaten von einer Zielfläche auf, ein Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer zum Aufnehmen der Frames von Bilddaten verwendeten Komponente verursacht wird, ein Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu erzeugen, und ein Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
- Ein Verfahren zum Durchführen von optischer Navigation gemäß einem anderen exemplarischen Ausführungsbeispiel der Erfindung weist ein Aufnehmen von Frames von Bilddaten von einer Zielfläche auf, wobei jeder der aufgenommenen Frames von Bilddaten eine Mehrzahl von Pixelwerten enthält, ein Erzeugen einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer zum Aufnehmen der Frames von Bilddaten verwendeten Komponente verursacht wird, wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Bilden eines Mittelwerts der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten enthält, ein Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmen Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu erzeugen, und ein Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
- Andere Aspekte und Vorteile der vorliegenden Erfindung werden anhand der folgenden detaillierten Beschreibung offensichtlich werden, wenn diese in Zusammenhang mit den beigefügten Zeichnungen betrachtet wird, veranschaulicht anhand von Beispielen der Prinzipien der Erfindung.
- Figurenliste
-
-
1 zeigt ein optisches Navigationssystem, das in einer optischen Computermaus enthalten ist, gemäß einem exemplarischen Ausführungsbeispiel der Erfindung. -
2 ist ein Diagramm eines optischen Navigationssystems gemäß einem exemplarischen Ausführungsbeispiel der Erfindung. -
3 ist ein Prozessflussdiagramm des Betriebs des optischen Navigationssystems von2 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung. -
4 ist ein Diagramm des optischen Navigationssystems gemäß einem anderen Ausführungsbeispiel der Erfindung. -
5 ist ein Flussdiagramm betreffend ein Verfahren zum Betrieb des optischen Navigationssystems von4 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung. -
6 ist ein Flussdiagramm betreffend ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung. - AUSFÜHRLICHE BESCHREIBUNG
- Unter Bezugnahme auf
1 ist ein optisches Navigationssystem100 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung gezeigt. Wie in1 gezeigt, ist das optische Navigationssystem100 in einer optischen Computermaus102 enthalten, die an einen Computer104 angeschlossen ist. - In dieser Implementierung wird das optische Navigationssystem
100 zum Verfolgen der Bewegungen der optischen Maus102 verwendet, wenn die optische Maus102 durch einen Benutzer über oder entlang einer Zielfläche106 manipuliert (zum Beispiel verschoben) wird, um einen an dem Computer104 angezeigten Cursor (oder Mauszeiger oder dergleichen) zu steuern. Allerdings kann in anderen Implementierungen das optische Navigationssystem100 in unterschiedlichen Produkten für verschiedene Verfolgungsanwendungen verwendet werden. Wie unten im Detail beschrieben wird, ist das optische Navigationssystem100 konfiguriert, das räumliche Rauschmuster in Frames von Bilddaten der Zielfläche106 wesentlich oder im Wesentlichen zu entfernen, so dass das optische Navigationssystem100 die relative Bewegung der optischen Maus102 bezüglich der Zielfläche106 zuverlässig verfolgen kann, selbst wenn die Zielfläche106 eine hoch reflektive Fläche (insbesondere Oberfläche) ist, wie zum Beispiel eine Glasfläche oder eine Granitfläche. - Wie in
2 gezeigt, enthält das optische Navigationssystem100 eine Lichtquelle208 , eine Fokussierlinse210 , eine Abbildlinse212 , einen Bildsensor214 , einen Treiberschaltkreis216 , einen Speicher218 , ein räumliches-Rauschmusterbestimmungsmodul220 , ein Normierungsmodul222 und einen Prozessor224 mit einem Navigationsengine226 . Obwohl diese Komponenten des optischen Navigationssystems100 in2 als separate Komponenten gezeigt sind, können einige dieser Komponenten integriert sein. Zum Beispiel können der Bildsensor214 , der Treiberschaltkreis216 , der Speicher218 , das räumliches-Rauschmusterbestimmungsmodul220 , das Normierungsmodul222 und der Prozessor224 mit dem Navigationsengine226 in einem einzigen integrierten Schaltkreischip integriert sein. Ferner können einige der Komponenten des optischen Navigationssystems100 , wie zum Beispiel der Navigationsengine226 , das räumliches-Rauschmusterbestimmungsmodul220 und das Normierungsmodul222 in jeder beliebigen Kombination als Software, als Hardware und/oder als Firmware implementiert sein. - Die Lichtquelle
208 ist zum Erzeugen von Licht in Reaktion auf ein angelegtes Treibersignal konfiguriert. Die Lichtquelle208 kann ein beliebiger Typ eines Licht emittierenden Geräts sein, wie zum Beispiel eine Leuchtdiode oder eine Laserdiode. Zum Beispiel kann die Lichtquelle208 ein Vertical-Cavity-Surface-Emitting-Laser (VCSEL) sein, der einen kohärenten Laserstrahl von Licht erzeugt, Die Lichtquelle208 wird mittels des Treiberschaltkreises216 aktiviert, der Treibersignale an die Lichtquelle208 bereitstellt. Die Fokussierlinse210 ist zwischen der Lichtquelle208 und der Zielfläche106 positioniert, um das Licht von der Lichtquelle208 auf einen Bereich auf der Zielfläche106 zu fokussieren. Die Abbildlinse212 ist zwischen der Zielfläche106 und dem Bildsensor214 positioniert, um das von der Zielfläche106 zurück reflektierte Licht auf den Bildsensor214 zu fokussieren. - Der Bildsensor
214 ist konfiguriert, um Frames von Bilddaten von der Zielfläche106 zur Bestimmung einer Verschiebung aufzunehmen. Der Bildsensor214 enthält eine Anordnung von fotosensitiven Pixelelementen215 , die Bilddaten in Reaktion auf Licht generieren, das auf die Elemente215 einfällt. Zum Beispiel kann der Bildsensor106 ein Charged-Coupled-Device-(CCD) Bildsensor oder ein Complementary-Metal-Oxide-Semiconductor (CMOS) Bildsensor sein. Die Anzahl von fotosensitiven Pixelelementen215 , die in dem Bildsensor214 enthalten sind, kann abhängig von zumindest der bestimmten Anwendung des optischen Navigationssystems100 variieren. Zum Beispiel kann der Bildsensor214 eine 30×30-Anordnung von fotosensitiven Pixelelementen215 enthalten. Zumindest einige der aufgenommenen Frames von Bilddaten werden von dem räumliches-Rauschmusterbestimmungsmodul220 zum Erzeugen einer räumlichen Rauschmusterbestimmung (die zum Beispiel als ein Maß für das räumliche Rauschmuster angesehen werden kann) verwendet, die in dem Speicher218 gespeichert wird, um von dem Normierungsmodul222 verwendet zu werden. Der Speicher218 kann ein beliebiger Typ von Lese/Schreibspeicher sein, wie zum Beispiel ein Random-Access-Memory, Obwohl der Speicher218 in2 so gezeigt ist, dass er außerhalb des Prozessors224 lokalisiert ist, kann der Speicher218 auch innerhalb des Prozessors224 lokalisiert sein. - Das räumliches-Rauschmusterbestimmungsmodul
220 ist konfiguriert, eine räumliches-Rauschmusterbestimmung (oder eine räumliches-Rauschmusterabschätzung) des räumlichen Rauschmusters in den aufgenommenen Frames von Bilddaten zu produzieren, verursacht durch eine Kontamination an den optischen Elementen des optischen Navigationssystems100 , wie zum Beispiel die Fokussierlinse210 und/oder die Abbildlinse212 . Gemäß einem exemplarischen Ausführungsbeispiel der Erfindung kann das räumliches-Rauschmusterbestimmungsmodul220 konfiguriert sein, die räumliches-Rauschmusterbestimmung in der Form eines räumliches-Rauschmusterbestimmungsframes zu produzieren, der in dem Speicher218 gespeichert wird. Der räumliches-Rauschmusterbestimmungsframe ist ein Frame von Pixelwerten, der ein räumliches Rauschmuster enthält, das von dem optischen räumlichen Rauschen erzeugt wird, das durch eine Kontamination an den optischen Elementen des Systems100 verursacht wird. Beispiele für eine Kontamination der optischen Elemente sind Staub, Kratzer, Schmutz und Ausformfehler („molding flaws“) in dem Festkörper („bulk“) und an der Oberfläche der Linsen210 und212 . Das räumliche Rauschmuster ist im Wesentlichen fix oder fest, da die Kontamination an den optischen Elementen des Systems100 die Tendenz haben wird, sich über die Zeit während eines typischen Verwendens der optischen Maus102 hinweg langsam zu verändern. Das räumliche Rauschmuster wird in die Frames von Bilddaten der Zielfläche106 eingeführt werden, die mittels des Bildsensors214 aufgenommen werden, Folglich kann, falls die aufgenommenen Frames von Bilddaten zum Bestimmen einer relativen Verschiebung zwischen der optischen Maus102 und der Zielfläche106 verwendet werden, ohne dass das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten berücksichtigt wird, die resultierende Bestimmung der Verschiebung Fehler enthalten, welche die Leistungsfähigkeit des optischen Navigationssystems100 betreffend ein Verfolgen signifikant verschlechtern können. - Gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird der räumliches-Rauschmusterbestimmungsframe durch Mitteln der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten produziert, die in dem Speicher
218 gespeichert sind. Zum Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelns der entsprechenden Pixelwerte der erstenN (Anzahl) der aufgenommenen Frames von Bilddaten produziert werden, nachdem eine initiale Bewegung der optischen Maus100 detektiert worden ist, wobei N eine ganze Zahl größer als eins ist. In einem anderen Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelns (oder Mittelwertbildens) der aufgenommenen Frames von Bilddaten produziert werden, die wesentlich unterschiedliche Bildhelligkeit (zum Beispiel Abweichung von ± 30 % oder mehr) zeigen, als zuvor aufgenommene Frames von Bilddaten, Eine wesentlich unterschiedliche Bildhelligkeit in diesem Sinne kann zum Beispiel angenommen werden, wenn die Abweichung der Bildhelligkeit größer als ein vorgebbarer Schwellwert ist. In noch einem anderen Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelns der aufgenommenen Frames von Bilddaten produziert werden, die nach einer wesentlichen Bewegung (zum Beispiel Bewegung um 10 Pixel oder mehr) erhalten werden, verglichen mit zuvor aufgenommenen Frames von Bilddaten, Eine wesentliche Bewegung in diesem Sinne kann zum Beispiel angenommen werden, wenn die Bewegung zu einer Verschiebung größer als ein vorgebbarer Pixelschwellwert führt. Daher ist in diesem Ausführungsbeispiel die Größe des räumliches-Rauschmusterbestimmungsframes identisch zu der Größe der aufgenommenen Frames von Bilddaten, Das heißt, dass der räumliches-Rausehmusterbestimmungsframe dieselbe Anzahl von Pixelwerten enthalten kann wie die aufgenommenen Frames von Bilddaten. Der räumliches-Rauschmusterbestimmungsframe kann zum Beispiel in dem Speicher218 oder in einem beliebigen anderen Speichergerät gespeichert werden. - Nachdem der räumliches-Rauschmusterbestimmungsfreme produziert worden ist, kann der räumliches-Rauschmusterbestimtnungsframe mittels des räumliches-Rauschmusterbestimmungsmoduls
220 unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten von der Zielfläche106 aktualisiert werden, so dass alle beliebigen Veränderungen des räumlichen Rauschmusters aufgrund von Veränderungen der Kontamination in dem aktualisierten räumliches-Rauschmusterbestimmungsframe berücksichtigt werden können. Zum Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelwertbildens des gegenwärtigen räumliches-Rauschmusterbestimmungsframes mit einem oder mehreren nacheinander aufgenommenen Frames von Bilddaten unter Verwendung von unterschiedlichen Gewichtungen für den gegenwärtigen räumliches-Rauschmusterbestimmungsframe und die nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden. Zum Beispiel kann der gegenwärtigen Rauschbestimmung eine Gewichtung von 0,99 gegeben werden, wohingegen jedem der nacheinander aufgenommenen Frames von Bilddaten eine Gewichtung von 0,01 gegeben werden kann. Bei dem Aktualisieren des räumliches-Rauschmusterbestimmungsframes muss nicht jeder aufgenommene Frame von Bilddaten zum Aktualisieren des räumliches-Rauschmusterbestimmungsframes verwendet werden. In einigen Ausführungsbeispielen kann jeder M-te aufgenommene Frame von Bilddaten zum Aktualisieren des räumliche-Rauschmusterbestimmungsframes verwendet werden, wobei M jede beliebige ganze Zahl größer als eins sein kann. In anderen Ausführungsbeispielen ist eine vorbestimmte Menge von Bewegung oder Bildveränderung erforderlich, bevor der räumliches-Rauschmusterbestimmungsframe aktualisiert wird, um so eine Fehlinterpretation von Merkmalen der Navigationsfläche als ein räumliches Rauschmuster zu vermeiden. - Das Normierungsmodul
222 ist konfiguriert, den gegenwärtig aufgenommenen Frame von Bilddaten unter Verwendung des neuesten räumliches-Rauschmusterbestimmungsframes zu normieren, um das räumliche Rauschmuster in dem gegenwärtig aufgenommenen Frame von Bilddaten im Wesentlichen zu entfernen. Das Normierungsmodul222 empfängt Frames von Bilddaten, die mittels des Bildsensors214 aufgenommen worden sind, bevor die aufgenommenen Frames von Bilddaten für eine Bestimmung einer Verschiebung verwendet werden. Das Normierungsmodul222 empfängt auch den neuesten räumliches-Rauschmusterbestimmungsframe, der in dem Speicher218 gespeichert ist. Für jeden aufgenommenen Frame von Bilddaten verwendet das Normierungsrmodul222 die Pixelwerte des räumliches-Rauschmusterbestimmungsframes als Normierungsparameter, um das räumliche Rauschmuster in dem aufgenommenen Frame von Bilddaten im Wesentlichen zu entfernen. Als ein Beispiel kann jeder Pixelwert des räumliches-Rauschmusterbestimmungsframes als ein Normierungsfaktor verwendet werden, um das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen. Als anderes Beispiel können die Pixelwerte des räumliches-Rauschmusterbestimmungsframes zum Subtrahieren des räumlichen Rauschmusters in den aufgenommenen Frames von Bilddaten verwendet werden. Die normierten Frames von Bilddaten werden dann an den Prozessor224 übermittelt, um für eine Bestimmung einer Verschiebung verwendet zu werden. Die normierten Frames von Bilddaten werden dann an den Prozessor224 übermittelt, um zur Bestimmung (oder zur Abschätzung) der Verschiebung verwendet zu werden. - Der Prozessor
224 ist konfiguriert, den Treiberschaltkreis216 und den Bildsensor214 zu steuern, um Frames von Bilddaten der Zielfläche106 aufzunehmen. Der Prozessor224 ist elektrisch an den Treiberschaltkreis216 und an den Bildsensor214 angeschlossen, um Steuersignale bereitzustellen. Der Prozessor224 stellt dem Treiberschaltkreis216 Steuersignale bereit, um den Treiberschaltkreis216 anzuweisen, Treibersignale an die Lichtquelle208 zum Aktivieren der Lichtquelle208 anzulegen. Der Prozessor224 stellt dem Bildsensor214 Steuersignale bereit, um elektrische Ladung an den fotosensitiven Pixelelementen215 zu akkumulieren und zumindest einige der fotosensitiven Pixelelemente215 zu integrieren oder zusammen zu schließen, um jeden Frame von Bilddaten der Zielfläche106 zu produzieren. Daher ist der Prozessor224 dazu in der Lage, die Framerate des Bildsensors214 zu steuern. - Der Prozessor
224 kann als ein digitaler Prozessor für universale Anwendungen, wie zum Beispiel als ein Mikroprozessor oder als ein Mikrocontroller, ausgestaltet sein. In anderen Ausführungsbeispielen kann der Prozessor224 ein spezifisch zugeschnittener Prozessor wie zum Beispiel ein digitaler Signalprozessor sein. In noch anderen Ausführungsbeispielen kann der Prozessor224 ein anderer Typ Controller oder ein Field-Programmable-Gate-Array (FPGA) sein. - Der Prozessor
224 enthält den Navigationsengine226 , der in diesem Ausführungsbeispiel in dem Prozessor224 programmiert ist. In anderen Ausführungsbeispielen kann der Navigationsengine226 eine separate Komponente sein. Der Navigationsengine226 wird betrieben, um Frames von Bilddaten zu korrelieren, die mittels des Bildsensors214 aufgenommen worden sind, um Verschiebungsveränderungen zwischen dem optischen Navigationssystem100 und der Zielfläche106 in Bezug aufX - undY -Richtungen zu bestimmen. Falls normierte Frames von Bilddaten verfügbar sind, verwendet der Navigationsengine226 die normierten Frames von Bilddaten für eine Korrelation, so dass das räumliche Rauschmuster in den ursprünglich aufgenommenen Frames von Bilddaten die Integrität der Bestimmung der Verschiebung nicht signifikant beeinflusst. - Der Prozess des Korrelierens von Frames von Bilddaten zur Bestimmung einer Verschiebung oder zur Navigation ist wohl bekannt und wird daher hier nicht beschrieben. Die Ausgabe des Navigationsengines
220 enthält gerichteteDelta-X -Verschiebungswerte und gerichteteDelta-Y -Verschiebungswerte. Jeder gerichtete Verschiebungswert enthält eine Information mit einem negativen oder mit einem positiven Vorzeichen, welches eine Richtung anzeigt, und enthält einen absoluten Wert der Verschiebung, welcher die Größe der Verschiebung in dieser Richtung anzeigt. In einer bestimmten Implementierung werden die gerichtetenDelta-X - und -Y -Verschiebungswerte in der Form von zwei komplementären Binärzahlen erzeugt. - Der Betrieb des optischen Navigationssystems
100 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird nun unter Bezugnahme auf ein Flussdiagramm eines Verfahrens gemäß3 beschrieben. Bei Block302 wird ein Frame von Bilddaten von der Zielfläche106 aufgenommen. Der Prozess des Aufnehmens eines Frames von Bilddaten von einer Zielfläche106 beinhaltet es, dass der Treiberschaltkreis216 ein Treibersignal an die Lichtquelle216 anlegt, die in Reaktion auf das angelegte Treibersignal Licht in Richtung der Zielfläche106 emittiert. Der Bildsensor214 empfängt das Licht, das von der Zielfläche106 reflektiert worden ist, und produziert den Frame von Bilddaten der Zielfläche106 aus dem empfangenen Licht. - Als nächstes wird in einem Block
304 eine Ermittlung durchgeführt, ob ein räumliches-Rauschmusterbestimmungsframe produziert worden ist. Falls ja, dann fährt die Operation mit Block306 fort, wo der aufgenommene Frame von Bilddaten unter Verwendung des räumliches- Rauschmusterbestimmungsframes normiert wird. Als nächstes wird in Block308 die Bestimmung der Verschiebung mittels des Navigationsengines226 berechnet, indem der normierte Frame von Bilddaten mit einem zuvor normierten Frame von Bilddaten korreliert wird. - Wenn allerdings die Rauschbestimmung nicht produziert worden ist (das heißt nicht genug Frames von Bilddaten aufgenommen worden sind), dann fährt die Operation direkt mit Block
308 fort, wo die Bestimmung der Verschiebung mittels des Navigationsengines226 berechnet wird, indem der gegenwärtige Frame von Bilddaten mit einem vorherigen Frame von Bilddaten korreliert wird. - In der Zwischenzeit wird der gegenwärtige Frame von Bilddaten zum Aktualisieren der Werte verwendet, die in dem Speicher
218 gespeichert sind, so dass der gegenwärtige Frame zum Produzieren eines räumliches-Rauschmusterbestimmungsframes mittels des räumliches-Rauschmusterbestimmungsmoduls220 verwendet werden kann, wie oben beschrieben. Nachdem der räumliches-Rauschmusterbestimmungsframe produziert worden ist, kann der räumliches-Rauschmusterbestimmungsframe unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden, wie oben beschrieben. - In diesem Ausführungsbeispiel ist das optische Navigationssystem
100 ausgestaltet, ein räumliches Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen, das durch eine Kontamination an den optischen Elementen des Systems100 verursacht wird. Allerdings kann in anderen Ausführungsbeispielen das optische Navigationssystem100 ausgestaltet sein, Variationen hinsichtlich der Intensität in aufgenommenen Frames von Bilddaten zu korrigieren, die durch Abweichungen in einem Herstellungsprozess in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems100 verursacht werden. - Wendet man sich nun
4 zu, dann ist dort ein optisches Navigationssystem400 gemäß einem anderen exemplarischen Ausführungsbeispiel der Erfindung gezeigt. Das optische Navigationssystem400 enthält all die Komponenten des optischen Navigationssystems100 von1 . Allerdings enthält das optische Navigationssystem400 auch ein Intensitätsbestimmungsmodul430 und ein Intensitätskompensationsmodul432 , die zum Kompensieren von Variationen in der Intensität in den Pixeln von aufgenommenen Frames von Bilddaten aufgrund von Abweichungen in einem Herstellungsprozess in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems400 betrieben werden. Zum Beispiel werden, falls der Bildsensor214 zwei Bildsensoranordnungen enthält, die beide an einen separaten Analog-zu-Digital (ADC) Wandler angeschlossen sind, Abweichungen in einem Herstellungsprozess in den Bildsensoranordnungen und/oder in den ADCs, insbesondere in den Feldeffekttransistoren in den ADCs, fixe oder feste Variationen in der Intensität in den Frames von Bilddaten produzieren, die mittels des Bildsensors214 aufgenommen worden sind. Diese Variationen in der Intensität, ähnlich wie bei dem räumlichen Rauschmuster aufgrund von Kontamination, können die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems400 beeinflussen. Daher ist, mittels Kompensierens dieser Variationen in der Intensität, das optische Navigationssystem400 in der Lage, seine Leistungsfähigkeit des Verfolgens („tracking performance“) zu verbessern. - Das Intensitätsbestimmungsmodul
430 ist eingerichtet, eine Intensitätsvariationsbestimmung (oder eine Intensitätsvariationsabschätzung) unter Verwendung der aufgenommenen Frames von Bilddaten zu produzieren, die in dem Speicher218 gespeichert sind. Die Intensitätsvariationsbestimmung ist eine Bestimmung von einem fixen oder festen Intensitätsmuster in den aufgenommenen Frames von Bilddaten, verursacht durch Abweichungen in einem Herstellungsprozess in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems400 . Die Intensitätsvariationsbestimmung wird von der Intensitätsinformation der individuellen Pixel der aufgenommenen Frames von Bilddaten abgeleitet. Ähnlich wie das räumliche Rauschmuster ist das Intensitätsmuster im Wesentlichen fix oder fest, da die Ursachen des Intensitätsmusters fix oder fest sind. Das fixe oder feste Intensitätsmuster in den aufgenommenen Frames von Bilddaten der Zielfläche106 kann Fehler in der Verfolgung bewirken, welche die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems400 verschlechtern können. - In einem Ausführungsbeispiel wird die Intensitätsvariationsbestimmung mittels Mittelns (oder Bildens eines Mittelwerts, zum Beispiel Bilden eines arithmetischen Mittelwerts) der Intensitätswerte von einigen oder allen der aufgenommenen Frames von Bilddaten produziert, die in dem Speicher
218 gespeichert sind. Die Intensitätsvariationsbestimmung enthält Intensitätsinformation von jedem Pixel der aufgenommenen Frames von Bilddaten. Unter der Annahme, dass es keine herstellungsbedingten Abweichungen in dem Bildsensor214 und in anderen elektrischen Komponenten des optischen Navigationssystems400 gibt, und dass es keine Kontamination an den optischen Elementen des optischen Navigationssystems400 gibt, kann erwartet werden, dass sich jeder gemittelte Intensitätswert der Pixel der aufgenommen Frames von Bilddaten einem vorbestimmten Wert annähert. Unterschiede zwischen unterschiedlichen mittleren Intensitätswerten der Pixel der aufgenommenen Frames von Bilddaten können Variationen in der Intensität aufgrund von Abweichungen in der Herstellung in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems400 zugeschrieben werden. Falls es zum Beispiel Variationen in der Intensität gibt, die durch Unterschiede zwischen einer Hälfte der Bildsensoranordnung und der anderen Hälfte der Bildsensoranordnung verursacht sind, werden diese Variationen in der Intensität als Unterschiede in den Intensitätswerten von den entsprechenden Pixeln der aufgenommenen Frames von Bilddaten in Erscheinung treten. Diese Unterschiede in den Intensitätswerten der Pixel der aufgenommenen Frames von Bilddaten werden in der Intensitätsvariationsbestimmung als Intensitätsinformation für jedes Pixel von einem Frame von Bilddaten dargestellt werden, die von dem Bildsensor214 aufgenommen werden. Die Intensitätsvariationsbestimmung wird zum Kompensieren der Variationen in der Intensität in den aufgenommenen Frames von Bilddaten verwendet, bevor die Verschiebungsbestimmung unter Verwendung von diesen Frames von Bilddaten berechnet wird. Die Intensitätsvariationsbestimmung kann als Daten zum Beispiel in dem Speicher218 oder einem beliebigen anderen Speichergerät gespeichert werden. Die Intensitätsvariationsbestimmung kann kontinuierlich unter Verwendung der nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden. - Das Intensitätskompensationsmodul
432 ist konfiguriert, die Variationen in der Intensität in dem gegenwärtig aufgenommenen Frame von Bilddaten unter Verwendung der neuesten Intensitätsvariationsbestimmung zu konfigurieren, um die Variationen in der Intensität auszugleichen, die durch Abweichungen in der Herstellung in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems400 verursacht werden. In diesem Ausführungsbeispiel empfängt das Intensitätskompensationsmodul432 die normierten Frames von Bilddaten und die neueste Intensitätsvariationsbestimmung, um die normierten Frames von Bilddaten weiter zu verarbeiten, um Variationen in der Intensität in den Frames von Bilddaten zu kompensieren. Allerdings kann in anderen Ausführungsbeispielen das Intensitätskompensationsmodul432 zuerst die aufgenommenen Frames von Bilddaten verarbeiten, um Variationen in der Intensität zu kompensieren, bevor die Frames von Bilddaten mittels des Normierungsmoduls222 normiert werden, um das räumliche Rauschmuster im Wesentlichen zu entfernen. - Für jeden aufgenommenen Frame von Bilddaten verwendet das Intensitätskompensationsmodul
432 die Intensitätspixelweite der Intensitätsvariationsbestimmung als Parameter zum Kompensieren der Variationen in der Intensität in den aufgenommenen Frames von Bilddaten, Zum Beispiel kann jeder Intensitätspixelwert der Intensitätsvariationsbestimmung als ein Faktor zum Erhöhen oder zum Erniedrigen des zugehörigen Pixelwerts der aufgenommenen Bilddaten verwendet werden, um die Variationen in der Intensität zu glätten oder auszugleichen. Die verarbeiteten Frames von Bilddaten können dann zur Bestimmung der Verschiebung mittels des Navigationsengines226 verwendet werden. - Der Betrieb des optischen Navigationssystems
400 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird nun unter Bezugnahme auf ein Flussdiagramm eines Verfahrens gemäß5 beschrieben. Bei Block502 wird ein Frame von Bilddaten der Zielfläche106 aufgenommen. Der Prozess des Aufnehmens eines Frames von Bilddaten von einer Zielfläche106 involviert, dass der Treiberschaltkreis216 ein Treibersignal an die Lichtquelle216 anlegt, die in Reaktion auf das angelegte Treibersignal Licht in Richtung der Zielfläche106 emittiert. Der Bildsensor214 empfängt das Licht, das von der Zielfläche106 reflektiert wird und erzeugt den Frame von Bilddaten der Zielfläche106 aus dem empfangenen Licht. - Als nächstes wird in Block
504 eine Ermittlung durchgeführt, ob ein räumliches-Rauschmusterbestimmungsframe produziert worden ist. Falls ja, dann fährt die Operation in Block506 fort, wo der aufgenommene Frame von Bilddaten unter Verwendung des räumliches-Rauschmusterbestimmungsframes normiert wird. Als nächstes wird in Block508 der normierte Frame von Bilddaten mittels des Intensitätskompensationsmoduls432 unter Verwendung der Intensitätsvariationsbestimmung verarbeitet. Als nächstes wird in Block510 die Verschiebungsbestimmung mittels des Navigationsengines226 berechnet, indem der prozessierte Frame von Bilddaten mit einem zuvor prozessierten Frame von Bilddaten korreliert wird. - Falls allerdings eine Rauschbestimmung nicht produziert worden ist (das heißt nicht genug Frames von Bilddaten aufgenommen worden sind), dann fährt die Operation in Block
508 fort, wo der aufgenommene Frame von Bilddaten mittels des Intensitätskompensationsmoduls432 unter Verwendung der Intensitätsvariationsbestimmung verarbeitet wird. Als nächstes wird in Block510 die Verschiebungsbestimmung mittels des Navigationsengines226 berechnet, indem der gegenwärtige verarbeitete Frame von Bilddaten mit einem zuvor verarbeiteten Frame von Bilddaten korreliert wird. - In der Zwischenzeit wird der gegenwärtige Frame von Bilddaten in dem Speicher
218 gespeichert, so dass der gegenwärtige Frame zum Produzieren eines räumliches-Rauschmusterbestimmungsframes mittels des räumliches-Rauschmusterbestimmungsmoduls220 und zum Aktualisieren der Intensitätsvariationsbestimmung mittels des Intensitätsbestimmungsmoduls430 verwendet werden kann, wie oben beschrieben. Nachdem der räumliches-Rauschmusterbestimmungsframe produziert worden ist, kann der räumliches-Rauschmusterbestimmungsframe unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden, wie oben beschrieben. - Auf diese Weise ist das optische Navigationssystem
400 in der Lage, das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten aufgrund einer Kontamination an den optischen Elementen des optischen Navigationssystems im Wesentlichen zu entfernen und Variationen in der Intensität in den aufgenommenen Frames von Bilddaten aufgrund von Abweichungen in der Herstellung in dem Bildsensor214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems zu kompensieren. Unter Verwendung dieser verarbeiteten Frames von Bilddaten zur Verschiebungsbestimmung kann die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems400 signifikant verbessert werden. - Ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird unter Bezugnahme auf ein Flussdiagramm gemäß
6 beschrieben. Bei Block602 werden Frames von Bilddaten von einer Zielfläche aufgenommen. Als nächstes wird bei Block604 unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten eine räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten erzeugt, das durch eine Kontamination an zumindest einer Komponente des Systems verursacht ist. Als nächstes werden bei Block606 bestimmte Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung normiert, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren. Als nächstes werden bei Block608 Verschiebungswerte basierend auf den normierten Frames von Bilddaten generiert. - Obwohl spezielle Ausführungsbeispiele der Erfindung beschrieben und veranschaulicht worden sind, darf die Erfindung nicht auf die speziellen Formen oder Anordnungen von so beschriebenen und veranschaulichten Teilen limitiert werden. Der Schutzumfang der Erfindung wird durch die hier beigefügten Patentansprüche definiert, und durch ihre Äquivalente.
Claims (17)
- Ein System für optische Navigation, wobei das System aufweist: einen Bildsensor (214), der zum Aufnehmen von Frames von Bilddaten von einer Zielfläche (106) konfiguriert ist; ein räumliches-Rauschmusterbestimmungsmodul (220), das zum Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente des Systems verursacht ist; ein Normierungsmodul (222), das zum Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung konfiguriert ist, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren; ein Intensitätsbestimmungsmodul (430), das zum Produzieren einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten unter Verwendung von einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei die Variationen der Intensität von mindestens einer elektrischen Komponente verursacht sind; ein Intensitätskompensationsmodul, das zum Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung konfiguriert ist; und einen Navigationsengine (226), der zum Generieren von Verschiebungswerten basierend auf den normierten Frames von Bilddaten konfiguriert ist.
- Das System gemäß
Anspruch 1 , wobei das räumliches-Rauschmusterbestimmungsmodul (220) konfiguriert ist, einige der aufgenommenen Frames von Bilddaten zu mitteln, um die räumliches- Rauschmusterbestimmung zu produzieren. - Das System gemäß
Anspruch 2 , wobei das räumliches-Rauschmusterbestimmungsmodul (220) konfiguriert ist, die ersten N der aufgenommenen Frames von Bilddaten nach Detektieren einer initialen Bewegung zum Erzeugen der räumliches-Rauschmusterbestimmung zu mitteln, wobei N eine ganze Zahl größer als eins ist. - Das System gemäß
Anspruch 3 , wobei das räumliches- Rauschmusterbestimmungsmodul (220) konfiguriert ist, die räumliches- Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten zu aktualisieren, die nachfolgend zu den ersten N der aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mittelwertbildens der später aufgenommenen Frames von Bilddaten und der räumliches-Rauschmusterbestimmung. - Das System gemäß einem der
Ansprüche 2 bis4 , wobei das räumliches- Rauschmusterbestimmungsmodul (220) konfiguriert ist, die aufgenommenen Frames von Bilddaten zu mitteln, welche eine wesentlich unterschiedliche Bildhelligkeit als zuvor aufgenommenen Frames von Bilddaten zeigen. - Das System gemäß einem der
Ansprüche 2 bis5 , wobei das räumliches- Rauschmusterbestimmungsmodul (220) konfiguriert ist, die aufgenommenen Frames von Bilddaten zu mitteln, die nach einer wesentlichen Bewegung, verglichen mit zuvor aufgenommenen Frames von Bilddaten, erhalten worden sind. - Das System gemäß einem der
Ansprüche 1 bis6 , wobei das Normierungsmodul (222) konfiguriert ist, die bestimmten Frames von Bilddaten unter Verwendung von Pixeldaten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte von den bestimmten Frames von Bilddaten zu normieren. - Ein Verfahren zum Durchführen von optischer Navigation, wobei das Verfahren aufweist: Aufnehmen von Frames von Bilddaten von einer Zielfläche (106); Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente, die zum Aufnehmen der Frames von Bilddaten verwendet wird, verursacht ist; Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zum Erzeugen normierter Frames von Bilddaten im Wesentlichen zu entfernen; Produzieren einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten unter Verwendung von einigen der aufgenommenen Frames von Bilddaten, wobei die Variationen der Intensität durch mindestens eine elektrische Komponente verursacht ist; Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung, und Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
- Das Verfahren gemäß
Anspruch 8 , wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Mittelwertbilden von einigen der aufgenommenen Frames von Bilddaten enthält, um die räumliches- Rauschmusterbestimmung zu produzieren. - Das Verfahren gemäß
Anspruch 9 , wobei das Mittelwertbilden von einigen der aufgenommenen Frames von Bilddaten ein Mittelwertbilden der ersten N der aufgenommenen Frames von Bilddaten nach Detektieren einer initialen Bewegung enthält, um die räumliches-Rauschmusterbestimmung zu produzieren, wobei N eine ganze Zahl größer als eins ist. - Das Verfahren gemäß
Anspruch 10 , wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Aktualisieren der räumliches-Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten enthält, die nachfolgend zu den ersten N aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mittelwertbildens der später aufgenommenen Frames von Bilddaten und der räumliches-Rauschmusterbestimmung. - Das Verfahren gemäß einem der
Ansprüche 8 bis11 , wobei das Normieren der bestimmten Frames von Bilddaten ein Normieren der bestimmten Frames von Bilddaten unter Verwendung von Pixelwerten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte der bestimmten Frames von Bilddaten enthält. - Das Verfahren gemäß einem der
Ansprüche 8 bis12 , wobei das Aufnehmen der Frames von Bilddaten ein Emittieren von Licht auf die Zielfläche (106) enthält. - Ein Verfahren zum Durchführen von optischer Navigation, wobei das Verfahren aufweist: Aufnehmen von Frames von Bilddaten von einer Zielfläche (106), wobei jeder der aufgenommenen Frames von Bilddaten eine Mehrzahl von Pixelwerten enthält; Erzeugen einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente, die zum Aufnehmen der Frames von Bilddaten verwendet wird, verursacht ist, wobei das Erzeugen der räumliches- Rauschmusterbestimmung ein Mittelwertbilden der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten enthält; Normieren bestimmter Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zum Erzeugen von normierten Frames von Bilddaten im Wesentlichen zu entfernen; Erzeugen einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten, wobei die Variationen der Intensität durch mindestens eine elektrische Komponente verursacht sind, unter Verwendung von einigen der aufgenommenen Frames von Bilddaten; Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung, und Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
- Das Verfahren gemäß
Anspruch 14 , wobei das Mittelwertbilden der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten ein Mittelwertbilden der Pixelwerte der ersten N der aufgenommenen Frames von Bilddaten enthält, nachdem eine initiale Bewegung detektiert worden ist, zum Erzeugen der räumliches-Rauschmusterbestimmung, wobei N eine ganze Zahl größer als eins ist. - Das Verfahren gemäß
Anspruch 15 , wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Aktualisieren der räumliches-Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten enthält, die nachfolgend zu den ersten N aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mitteiwertbildens von Pixelwerten der später aufgenommenen Frames von Bilddaten und Werten der räumliches-Rauschmusterbestimmung. - Das Verfahren gemäß einem der
Ansprüche 14 bis16 , wobei das Normieren der bestimmten Frames von Bilddaten ein Normieren der bestimmten Frames von Bilddaten unter Verwendung von Pixelwerten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte der bestimmten Frames von Bilddaten enthält.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/362,663 | 2009-01-30 | ||
US12/362,663 US8189954B2 (en) | 2009-01-30 | 2009-01-30 | System and method for performing optical navigation using enhanced frames of image data |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010006146A1 DE102010006146A1 (de) | 2010-08-05 |
DE102010006146B4 true DE102010006146B4 (de) | 2019-06-13 |
Family
ID=42309133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010006146.8A Active DE102010006146B4 (de) | 2009-01-30 | 2010-01-29 | System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten |
Country Status (3)
Country | Link |
---|---|
US (1) | US8189954B2 (de) |
KR (1) | KR20100088543A (de) |
DE (1) | DE102010006146B4 (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4480760B2 (ja) * | 2007-12-29 | 2010-06-16 | 株式会社モルフォ | 画像データ処理方法および画像処理装置 |
TWI479372B (zh) * | 2012-07-27 | 2015-04-01 | Pixart Imaging Inc | 光學位移偵測裝置及方法 |
US11175747B2 (en) * | 2013-02-04 | 2021-11-16 | Pixart Imaging Inc. | Optical processing apparatus and operating method thereof |
TWI501131B (zh) * | 2013-02-04 | 2015-09-21 | Pixart Imaging Inc | 光學處理裝置、光源亮度設定方法及其電腦程式產品 |
US10241593B2 (en) * | 2013-02-04 | 2019-03-26 | Pixart Imaging Inc. | Optical processing apparatus and light source luminance adjustment method thereof |
CN103986880B (zh) * | 2013-02-08 | 2017-10-10 | 原相科技股份有限公司 | 光学处理装置、光源亮度设定方法 |
US10013078B2 (en) * | 2014-04-11 | 2018-07-03 | Pixart Imaging Inc. | Optical navigation device and failure identification method thereof |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005004861A1 (de) | 2004-03-22 | 2005-10-20 | Agilent Technologies Inc | Vorrichtung zum Steuern der Position eines Bildschirmzeigers mit niedriger Empfindlichkeit für Partikelkontamination |
US20060044267A1 (en) | 2004-09-01 | 2006-03-02 | Tong Xie | Apparatus for controlling the position of a screen pointer with low sensitivity to fixed pattern noise |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5767922A (en) * | 1996-04-05 | 1998-06-16 | Cornell Research Foundation, Inc. | Apparatus and process for detecting scene breaks in a sequence of video frames |
US6463175B1 (en) * | 2000-12-15 | 2002-10-08 | Shih-Jong J. Lee | Structure-guided image processing and image feature enhancement |
US7576332B2 (en) * | 2003-08-01 | 2009-08-18 | St. George's Healthcare Nhs Trust | Imaging system |
US7227621B2 (en) * | 2004-08-30 | 2007-06-05 | Postech Foundation | System for visualizing flow and measuring velocity field using X-ray particle image velocimetry |
-
2009
- 2009-01-30 US US12/362,663 patent/US8189954B2/en active Active
-
2010
- 2010-01-28 KR KR1020100007744A patent/KR20100088543A/ko active IP Right Grant
- 2010-01-29 DE DE102010006146.8A patent/DE102010006146B4/de active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005004861A1 (de) | 2004-03-22 | 2005-10-20 | Agilent Technologies Inc | Vorrichtung zum Steuern der Position eines Bildschirmzeigers mit niedriger Empfindlichkeit für Partikelkontamination |
US20060044267A1 (en) | 2004-09-01 | 2006-03-02 | Tong Xie | Apparatus for controlling the position of a screen pointer with low sensitivity to fixed pattern noise |
Also Published As
Publication number | Publication date |
---|---|
US20100195935A1 (en) | 2010-08-05 |
DE102010006146A1 (de) | 2010-08-05 |
KR20100088543A (ko) | 2010-08-09 |
US8189954B2 (en) | 2012-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010006146B4 (de) | System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten | |
DE102005004861B4 (de) | Vorrichtung zum Steuern der Position eines Bildschirmzeigers mit niedriger Empfindlichkeit für Partikelkontamination, Verfahren zum Erzeugen von Bewegungsdaten bei einem optischen Zeigegerät und Navigationssensor zum Erzeugen von Bewegungsdaten | |
DE102005025221B4 (de) | Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung | |
DE69113857T2 (de) | Einrichtung zum Analysieren der Augenbewegung. | |
DE102008054985B4 (de) | Verfahren und Vorrichtung zur optischen Vermessung von dreidimensionalen Objekten mittels einer dentalen 3D-Kamera unter Verwendung eines Triangulationsverfahrens | |
EP3136711A1 (de) | Verfahren zur erzeugung und auswertung eines bilds | |
EP1158460B1 (de) | Verfahren und Vorrichtung zur Bildverarbeitung | |
DE10252321A1 (de) | Systeme und Verfahren zum Verringern von Positionsfehlern in Bildkorrelationssystemen während der Verschiebung von inneren Referenzbildern | |
DE102014107143B4 (de) | System und Verfahren zur Messung der Verschiebung einer Objektoberfläche | |
DE2830846A1 (de) | Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken | |
DE102010000699A1 (de) | Absolute Verfolgung in einem Subpixelbereich | |
DE112015003527T5 (de) | System und Verfahren zum Steuern einer Zielbeleuchtung für ein Abbildungs-Lesegerät | |
DE3304817A1 (de) | Verfahren und vorrichtung zur automatischen erkennung von fehlern in geweben und aehnlichen textilen flaechengebilden | |
DE112017001464B4 (de) | Abstandsmessvorrichtung und Abstandsmessverfahren | |
DE102014113487A1 (de) | Verfahren und Vorrichtung zum Überprüfen des Erscheinungsbildes eines Objekts | |
EP2312864B1 (de) | Bildsensor und Betriebsverfahren | |
DE102016118192A1 (de) | Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium | |
DE10316208A1 (de) | Navigationssystem und Navigationsverfahren | |
DE202017006792U1 (de) | Bildverarbeitungseinheit und Computerprogramm zur Erkennung und Korrektur von Bildfehlern | |
DE102017125799A1 (de) | Reduktion von Bildstörungen in Bildern | |
DE19815066B4 (de) | Filmabtaster mit Bildstandsfehlerkorrektur | |
DE112006001641T5 (de) | Signalverarbeitungseinrichtung | |
DE102013211286A1 (de) | Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor | |
DE102008016393B4 (de) | Verfahren zur Korrektur von Bildfehlern elektronischer Kameras | |
US11756214B2 (en) | Method and apparatus for tracking nematode worms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed |
Effective date: 20120502 |
|
R081 | Change of applicant/patentee |
Owner name: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE., SG Free format text: FORMER OWNER: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., SINGAPORE, SG Effective date: 20130606 Owner name: PIXART IMAGING INC., TW Free format text: FORMER OWNER: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., SINGAPORE, SG Effective date: 20130606 |
|
R082 | Change of representative |
Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE Effective date: 20130606 Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE Effective date: 20130606 |
|
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: PIXART IMAGING INC., TW Free format text: FORMER OWNER: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE. LTD., SINGAPORE, SG |
|
R082 | Change of representative |
Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE |
|
R082 | Change of representative |
Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE |
|
R082 | Change of representative |
Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE |
|
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |