DE102010006146A1 - System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten - Google Patents

System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten Download PDF

Info

Publication number
DE102010006146A1
DE102010006146A1 DE102010006146A DE102010006146A DE102010006146A1 DE 102010006146 A1 DE102010006146 A1 DE 102010006146A1 DE 102010006146 A DE102010006146 A DE 102010006146A DE 102010006146 A DE102010006146 A DE 102010006146A DE 102010006146 A1 DE102010006146 A1 DE 102010006146A1
Authority
DE
Germany
Prior art keywords
image data
frames
spatial noise
noise pattern
pattern determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010006146A
Other languages
English (en)
Other versions
DE102010006146B4 (de
Inventor
Michael J. Fremont Brosnan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pixart Imaging Inc
Original Assignee
Avago Technologies ECBU IP Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Avago Technologies ECBU IP Singapore Pte Ltd filed Critical Avago Technologies ECBU IP Singapore Pte Ltd
Publication of DE102010006146A1 publication Critical patent/DE102010006146A1/de
Application granted granted Critical
Publication of DE102010006146B4 publication Critical patent/DE102010006146B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0317Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

Ein System und ein Verfahren zum Durchführen von optischer Navigation verwendet eine räumliche Rauschmusterbestimmung des räumlichen Rauschmusters in aufgenommenen Frames von Bilddaten, verursacht durch eine Kontamination an zumindest einer Komponente des Systems, um das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen, bevor die aufgenommenen Frames von Bilddaten für eine Bestimmung einer Verschiebung verwendet werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • Optische Navigationssysteme werden zum Bestimmen von Bewegungen zwischen den optischen Navigationssystemen und Zielflächen zum Durchführen von Verfolgungsoperationen („tracking”) betrieben. Ein optisches Navigationssystem verwendet eine Lichtquelle, wie zum Beispiel eine Leuchtdiode (LED) oder eine Laserdiode, um einen Bereich einer Zielfläche zu beleuchten und einen Bildsensor zum Empfangen des Lichts, das von der Zielfläche reflektiert wird, zum sukzessiven Aufnehmen von Frames von Bilddaten von der Zielfläche. Das optische Navigationssystem vergleicht die sukzessiven Bildframes und bestimmt die relativen Bewegungen zwischen dem optischen Navigationssystem und der Zielfläche basierend auf dem Vergleich zwischen dem gegenwärtigen Bildframe und einem vorherigen Bildframe. Der Vergleich wird basierend auf dem Detektieren und Berechnen von Verschiebungen von Merkmalen in den aufgenommenen Frames von Bilddaten durchgeführt.
  • Optische Navigationssysteme werden üblicherweise in optischen Computermäusen verwendet, um die Bewegungen der Mäuse relativ zu den Navigationsflächen zu verfolgen oder zu „tracken”, wobei die Mäuse auf den Navigationsflächen manuell manipuliert (zum Beispiel verschoben) werden. Die Bewegungen einer Computermaus werden zum Steuern eines Cursors auf einem Monitor eines Computersystems verwendet. Die Genauigkeit einer optischen Computermaus bezüglich des Positionierens des Cursors hängt von der Qualität von Bildframes von einer Navigationsfläche ab, die für Bildvergleiche aufgenommen werden.
  • Ein Bedenken mit einer herkömmlichen optischen Computermaus ist, dass eine Kontamination von Staub und/oder anderen Materialien an den optischen Elementen der Maus ein räumliches Rauschmuster („spatial noise Pattern”) in den aufgenommenen Bildframes von der Navigationsfläche einführen. Diese Bildframes mit optischen räumlichen Rauschmustern können zu Fehlern bei der Berechnung einer Verschiebung führen, welche die Leistungsfähigkeit der optischen Computermaus betreffend ein Verfolgen verschlechtern könnte. Ein anderes Bedenken ist, dass Variationen der Intensität in den aufgenommenen Frames von Bilddaten aufgrund von Herstellungsabweichungen in dem Bildsensor und/oder in anderen elektronischen Komponenten des optischen Navigationssystems auch die Leistungsfähigkeit der optischen Computermaus betreffend ein Verfolgen verschlechtern können.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist somit eine Aufgabe der Erfindung, ein System und ein Verfahren für optische Navigation bereitzustellen, welche eine ausreichend gute Genauigkeit beim Verfolgen einer optischen Navigationsoperation aufweisen. Diese Aufgabe wird durch die Gegenstände gemäß den unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausgestaltungen sind in den abhängigen Ansprüchen angegeben.
  • Gemäß exemplarischen Ausführungsbeispielen der Erfindung sind ein System und ein Verfahren zum Adressieren des räumlichen Rauschmusters aufgrund von optischen bzw. elektrischen Quellen in den Frames von Bilddaten geschaffen, die zur Bestimmung von Verschiebung verwendet werden können.
  • Ein System und ein Verfahren zum Durchführen von optischer Navigation gemäß exemplarischen Ausführungsbeispielen der Erfindung verwenden eine Bestimmung oder Abschätzung des räumlichen Rauschmusters in aufgenommenen Frames von Bilddaten, das durch eine Kontamination an zumindest einer Komponente des Systems verursacht wird, um das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen, bevor die aufgenommenen Frames von Bilddaten zur Bestimmung einer Verschiebung verwendet werden.
  • Ein System für optische Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung weist einen Bildsensor auf, der zum Aufnehmen von Frames von Bilddaten von einer Zielfläche konfiguriert ist, ein räumliches-Rauschmusterbestimmungsmodul (oder ein räumliches-Rauschmusterabschätzungsmodul), das zum Erzeugen einer räumliches-Rauschmusterbestimmung (oder einer räumliches-Rauschmusterabschätzung) von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer Komponente des Systems verursacht ist, ein Normierungsmodul, das zum Normieren bestimmter Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung konfiguriert ist, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zu entfernen oder im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren, und ein Navigationsengine, der zum Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten konfiguriert ist.
  • Ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung weist ein Aufnehmen von Frames von Bilddaten von einer Zielfläche auf, ein Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer zum Aufnehmen der Frames von Bilddaten verwendeten Komponente verursacht wird, ein Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu erzeugen, und ein Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
  • Ein Verfahren zum Durchführen von optischer Navigation gemäß einem anderen exemplarischen Ausführungsbeispiel der Erfindung weist ein Aufnehmen von Frames von Bilddaten von einer Zielfläche auf, wobei jeder der aufgenommenen Frames von Bilddaten eine Mehrzahl von Pixelwerten enthält, ein Erzeugen einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch Kontamination an zumindest einer zum Aufnehmen der Frames von Bilddaten verwendeten Komponente verursacht wird, wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Bilden eines Mittelwerts der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten enthält, ein Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmen Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu erzeugen, und ein Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
  • Andere Aspekte und Vorteile der vorliegenden Erfindung werden anhand der folgenden detaillierten Beschreibung offensichtlich werden, wenn diese in Zusammenhang mit den beigefügten Zeichnungen betrachtet wird, veranschaulicht anhand von Beispielen der Prinzipien der Erfindung.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein optisches Navigationssystem, das in einer optischen Computermaus enthalten ist, gemäß einem exemplarischen Ausführungsbeispiel der Erfindung.
  • 2 ist ein Diagramm eines optischen Navigationssystems gemäß einem exemplarischen Ausführungsbeispiel der Erfindung.
  • 3 ist ein Prozessflussdiagramm des Betriebs des optischen Navigationssystems von 2 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung.
  • 4 ist ein Diagramm des optischen Navigationssystems gemäß einem anderen Ausführungsbeispiel der Erfindung.
  • 5 ist ein Flussdiagramm betreffend ein Verfahren zum Betrieb des optischen Navigationssystems von 4 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung.
  • 6 ist ein Flussdiagramm betreffend ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Unter Bezugnahme auf 1 ist ein optisches Navigationssystem 100 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung gezeigt. Wie in 1 gezeigt, ist das optische Navigationssystem 100 in einer optischen Computermaus 102 enthalten, die an einen Computer 104 angeschlossen ist.
  • In dieser Implementierung wird das optische Navigationssystem 100 zum Verfolgen der Bewegungen der optischen Maus 102 verwendet, wenn die optische Maus 102 durch einen Benutzer über oder entlang einer Zielfläche 106 manipuliert (zum Beispiel verschoben) wird, um einen an dem Computer 104 angezeigten Cursor (oder Mauszeiger oder dergleichen) zu steuern. Allerdings kann in anderen Implementierungen das optische Navigationssystem 100 in unterschiedlichen Produkten für verschiedene Verfolgungsanwendungen verwendet werden. Wie unten im Detail beschrieben wird, ist das optische Navigationssystem 100 konfiguriert, das räumliche Rauschmuster in Frames von Bilddaten der Zielfläche 106 wesentlich oder im Wesentlichen zu entfernen, so dass das optische Navigationssystem 100 die relative Bewegung der optischen Maus 102 bezüglich der Zielfläche 106 zuverlässig verfolgen kann, selbst wenn die Zielfläche 106 eine hoch reflektive Fläche (insbesondere Oberfläche) ist, wie zum Beispiel eine Glasfläche oder eine Granitfläche.
  • Wie in 2 gezeigt, enthält das optische Navigationssystem 100 eine Lichtquelle 208, eine Fokussierlinse 210, eine Abbildlinse 212, einen Bildsensor 214, einen Treiberschaltkreis 216, einen Speicher 218, ein räumliches-Rauschmusterbestimmungsmodul 220, ein Normierungsmodul 222 und einen Prozessor 224 mit einem Navigationsengine 226. Obwohl diese Komponenten des optischen Navigationssystems 100 in 2 als separate Komponenten gezeigt sind, können einige dieser Komponenten integriert sein. Zum Beispiel können der Bildsensor 214, der Treiberschaltkreis 216, der Speicher 218, das räumliches-Rauschmusterbestimmungsmodul 220, das Normierungsmodul 222 und der Prozessor 224 mit dem Navigationsengine 226 in einem einzigen integrierten Schaltkreischip integriert sein. Ferner können einige der Komponenten des optischen Navigationssystems 100, wie zum Beispiel der Navigationsengine 226, das räumliches-Rauschmusterbestimmungsmodul 220 und das Normierungsmodul 222 in jeder beliebigen Kombination als Software, als Hardware und/oder als Firmware implementiert sein.
  • Die Lichtquelle 208 ist zum Erzeugen von Licht in Reaktion auf ein angelegtes Treibersignal konfiguriert. Die Lichtquelle 208 kann ein beliebiger Typ eines Licht emittierenden Geräts sein, wie zum Beispiel eine Leuchtdiode oder eine Laserdiode. Zum Beispiel kann die Lichtquelle 208 ein Vertical-Cavity-Surface-Emitting-Laser (VCSEL) sein, der einen kohärenten Laserstrahl von Licht erzeugt. Die Lichtquelle 208 wird mittels des Treiberschaltkreises 216 aktiviert, der Treibersignale an die Lichtquelle 208 bereitstellt. Die Fokussierlinse 210 ist zwischen der Lichtquelle 208 und der Zielfläche 106 positioniert, um das Licht von der Lichtquelle 208 auf einen Bereich auf der Zielfläche 106 zu fokussieren. Die Abbildlinse 212 ist zwischen der Zielfläche 106 und dem Bildsensor 214 positioniert, um das von der Zielfläche 106 zurück reflektierte Licht auf den Bildsensor 214 zu fokussieren.
  • Der Bildsensor 214 ist konfiguriert, um Frames von Bilddaten von der Zielfläche 106 zur Bestimmung einer Verschiebung aufzunehmen. Der Bildsensor 214 enthält eine Anordnung von fotosensitiven Pixelelementen 215, die Bilddaten in Reaktion auf Licht generieren, das auf die Elemente 215 einfällt. Zum Beispiel kann der Bildsensor 106 ein Charged-Coupled-Device (CCD) Bildsensor oder ein Complementary-Metal-Oxide-Semiconductor (CMOS) Bildsensor sein. Die Anzahl von fotosensitiven Pixelelementen 215, die in dem Bildsensor 214 enthalten sind, kann abhängig von zumindest der bestimmten Anwendung des optischen Navigationssystems 100 variieren. Zum Beispiel kann der Bildsensor 214 eine 30 × 30-Anordnung von fotosensitiven Pixelelementen 215 enthalten. Zumindest einige der aufgenommenen Frames von Bilddaten werden von dem räumliches-Rauschmusterbestimmungsmodul 220 zum Erzeugen einer räumlichen Rauschmusterbestimmung (die zum Beispiel als ein Maß für das räumliche Rauschmuster angesehen werden kann) verwendet, die in dem Speicher 218 gespeichert wird, um von dem Normierungsmodul 222 verwendet zu werden. Der Speicher 218 kann ein beliebiger Typ von Lese/Schreibspeicher sein, wie zum Beispiel ein Random- Access-Memory. Obwohl der Speicher 218 in 2 so gezeigt ist, dass er außerhalb des Prozessors 224 lokalisiert ist, kann der Speicher 218 auch innerhalb des Prozessors 224 lokalisiert sein.
  • Das räumliches-Rauschmusterbestimmungsmodul 220 ist konfiguriert, eine räumliches-Rauschmusterbestimmung (oder eine räumliches-Rauschmusterabschätzung) des räumlichen Rauschmusters in den aufgenommenen Frames von Bilddaten zu produzieren, verursacht durch eine Kontamination an den optischen Elementen des optischen Navigationssystems 100, wie zum Beispiel die Fokussierlinse 210 und/oder die Abbildlinse 212. Gemäß einem exemplarischen Ausführungsbeispiel der Erfindung kann das räumliches-Rauschmusterbestimmungsmodul 220 konfiguriert sein, die räumliches-Rauschmusterbestimmung in der Form eines räumliches-Rauschmusterbestimmungsframes zu produzieren, der in dem Speicher 218 gespeichert wird. Der räumliches-Rauschmusterbestimmungsframe ist ein Frame von Pixelwerten, der ein räumliches Rauschmuster enthält, das von dem optischen räumlichen Rauschen erzeugt wird, das durch eine Kontamination an den optischen Elementen des Systems 100 verursacht wird. Beispiele für eine Kontamination der optischen Elemente sind Staub, Kratzer, Schmutz und Ausformfehler („molding flaws”) in dem Festkörper („bulk”) und an der Oberfläche der Linsen 210 und 212. Das räumliche Rauschmuster ist im Wesentlichen fix oder fest, da die Kontamination an den optischen Elementen des Systems 100 die Tendenz haben wird, sich über die Zeit während eines typischen Verwendens der optischen Maus 102 hinweg langsam zu verändern. Das räumliche Rauschmuster wird in die Frames von Bilddaten der Zielfläche 106 eingeführt werden, die mittels des Bildsensors 214 aufgenommen werden. Folglich kann, falls die aufgenommenen Frames von Bilddaten zum Bestimmen einer relativen Verschiebung zwischen der optischen Maus 102 und der Zielfläche 106 verwendet werden, ohne dass das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten berücksichtigt wird, die resultierende Bestimmung der Verschiebung Fehler enthalten, welche die Leistungsfähigkeit des optischen Navigationssystems 100 betreffend ein Verfolgen signifikant verschlechtern können.
  • Gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird der räumliches-Rauschmusterbestimmungsframe durch Mitteln der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten produziert, die in dem Speicher 218 gespeichert sind. Zum Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelns der entsprechenden Pixelwerte der ersten N (Anzahl) der aufgenommenen Frames von Bilddaten produziert werden, nachdem eine initiale Bewegung der optischen Maus 100 detektiert worden ist, wobei N eine ganze Zahl größer als eins ist. In einem anderen Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelns (oder Mittelwertbildens) der aufgenommenen Frames von Bilddaten produziert werden, die wesentlich unterschiedliche Bildhelligkeit (zum Beispiel Abweichung von ±30% oder mehr) zeigen, als zuvor aufgenommene Frames von Bilddaten. Eine wesentlich unterschiedliche Bildhelligkeit in diesem Sinne kann zum Beispiel angenommen werden, wenn die Abweichung der Bildhelligkeit größer als ein vorgebbarer Schwellwert ist. In noch einem anderen Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mitteins der aufgenommenen Frames von Bilddaten produziert werden, die nach einer wesentlichen Bewegung (zum Beispiel Bewegung um 10 Pixel oder mehr) erhalten werden, verglichen mit zuvor aufgenommenen Frames von Bilddaten. Eine wesentliche Bewegung in diesem Sinne kann zum Beispiel angenommen werden, wenn die Bewegung zu einer Verschiebung größer als ein vorgebbarer Pixelschwellwert führt. Daher ist in diesem Ausführungsbeispiel die Größe des räumliches-Rauschmusterbestimmungsframes identisch zu der Größe der aufgenommenen Frames von Bilddaten. Das heißt, dass der räumliches-Rauschmusterbestimmungsframe dieselbe Anzahl von Pixelwerten enthalten kann wie die aufgenommenen Frames von Bilddaten. Der räumliches- Rauschmusterbestimmungsframe kann zum Beispiel in dem Speicher 218 oder in einem beliebigen anderen Speichergerät gespeichert werden.
  • Nachdem der räumliches-Rauschmusterbestimmungsframe produziert worden ist, kann der räumliches-Rauschmusterbestimmungsframe mittels des räumliches-Rauschmusterbestimmungsmoduls 220 unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten von der Zielfläche 106 aktualisiert werden, so dass alle beliebigen Veränderungen des räumlichen Rauschmusters aufgrund von Veränderungen der Kontamination in dem aktualisierten räumliches-Rauschmusterbestimmungsframe berücksichtigt werden können. Zum Beispiel kann der räumliches-Rauschmusterbestimmungsframe mittels Mittelwertbildens des gegenwärtigen räumliches-Rauschmusterbestimmungsframes mit einem oder mehreren nacheinander aufgenommenen Frames von Bilddaten unter Verwendung von unterschiedlichen Gewichtungen für den gegenwärtigen räumliches-Rauschmusterbestimmungsframe und die nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden. Zum Beispiel kann der gegenwärtigen Rauschbestimmung eine Gewichtung von 0,99 gegeben werden, wohingegen jedem der nacheinander aufgenommenen Frames von Bilddaten eine Gewichtung von 0,01 gegeben werden kann. Bei dem Aktualisieren des räumliches-Rauschmusterbestimmungsframes muss nicht jeder aufgenommene Frame von Bilddaten zum Aktualisieren des räumliches-Rauschmusterbestimmungsframes verwendet werden. In einigen Ausführungsbeispielen kann jeder M-te aufgenommene Frame von Bilddaten zum Aktualisieren des räumliches-Rauschmusterbestimmungsframes verwendet werden, wobei M jede beliebige ganze Zahl größer als eins sein kann. In anderen Ausführungsbeispielen ist eine vorbestimmte Menge von Bewegung oder Bildveränderung erforderlich, bevor der räumliches-Rauschmusterbestimmungsframe aktualisiert wird, um so eine Fehlinterpretation von Merkmalen der Navigationsfläche als ein räumliches Rauschmuster zu vermeiden.
  • Das Normierungsmodul 222 ist konfiguriert, den gegenwärtig aufgenommenen Frame von Bilddaten unter Verwendung des neuesten räumliches-Rauschmusterbestimmungsframes zu normieren, um das räumliche Rauschmuster in dem gegenwärtig aufgenommenen Frame von Bilddaten im Wesentlichen zu entfernen. Das Normierungsmodul 222 empfängt Frames von Bilddaten, die mittels des Bildsensors 214 aufgenommen worden sind, bevor die aufgenommenen Frames von Bilddaten für eine Bestimmung einer Verschiebung verwendet werden. Das Normierungsmodul 222 empfängt auch den neuesten räumliches-Rauschmusterbestimmungsframe, der in dem Speicher 218 gespeichert ist. Für jeden aufgenommenen Frame von Bilddaten verwendet das Normierungsmodul 222 die Pixelwerte des räumliches-Rauschmusterbestimmungsframes als Normierungsparameter, um das räumliche Rauschmuster in dem aufgenommenen Frame von Bilddaten im Wesentlichen zu entfernen. Als ein Beispiel kann jeder Pixelwert des räumliches-Rauschmusterbestimmungsframes als ein Normierungsfaktor verwendet werden, um das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen. Als anderes Beispiel können die Pixelwerte des räumliches-Rauschmusterbestimmungsframes zum Subtrahieren des räumlichen Rauschmusters in den aufgenommenen Frames von Bilddaten verwendet werden. Die normierten Frames von Bilddaten werden dann an den Prozessor 224 übermittelt, um für eine Bestimmung einer Verschiebung verwendet zu werden. Die normierten Frames von Bilddaten werden dann an den Prozessor 224 übermittelt, um zur Bestimmung (oder zur Abschätzung) der Verschiebung verwendet zu werden.
  • Der Prozessor 224 ist konfiguriert, den Treiberschaltkreis 216 und den Bildsensor 214 zu steuern, um Frames von Bilddaten der Zielfläche 106 aufzunehmen. Der Prozessor 224 ist elektrisch an den Treiberschaltkreis 216 und an den Bildsensor 214 angeschlossen, um Steuersignale bereitzustellen. Der Prozessor 224 stellt dem Treiberschaltkreis 216 Steuersignale bereit, um den Treiberschaltkreis 216 anzuweisen, Treibersignale an die Lichtquelle 208 zum Aktivieren der Lichtquelle 208 anzulegen. Der Prozessor 224 stellt dem Bildsensor 214 Steuersignale bereit, um elektrische Ladung an den fotosensitiven Pixelelementen 215 zu akkumulieren und zumindest einige der fotosensitiven Pixelelemente 215 zu integrieren oder zusammen zu schließen, um jeden Frame von Bilddaten der Zielfläche 106 zu produzieren. Daher ist der Prozessor 224 dazu in der Lage, die Framerate des Bildsensors 214 zu steuern.
  • Der Prozessor 224 kann als ein digitaler Prozessor für universale Anwendungen, wie zum Beispiel als ein Mikroprozessor oder als ein Mikrocontroller, ausgestaltet sein. In anderen Ausführungsbeispielen kann der Prozessor 224 ein spezifisch zugeschnittener Prozessor wie zum Beispiel ein digitaler Signalprozessor sein. In noch anderen Ausführungsbeispielen kann der Prozessor 224 ein anderer Typ Controller oder ein Field-Programmable-Gate-Array (FPGA) sein.
  • Der Prozessor 224 enthält den Navigationsengine 226, der in diesem Ausführungsbeispiel in dem Prozessor 224 programmiert ist. In anderen Ausführungsbeispielen kann der Navigationsengine 226 eine separate Komponente sein. Der Navigationsengine 226 wird betrieben, um Frames von Bilddaten zu korrelieren, die mittels des Bildsensors 214 aufgenommen worden sind, um Verschiebungsveränderungen zwischen dem optischen Navigationssystem 100 und der Zielfläche 106 in Bezug auf X- und Y-Richtungen zu bestimmen. Falls normierte Frames von Bilddaten verfügbar sind, verwendet der Navigationsengine 226 die normierten Frames von Bilddaten für eine Korrelation, so dass das räumliche Rauschmuster in den ursprünglich aufgenommenen Frames von Bilddaten die Integrität der Bestimmung der Verschiebung nicht signifikant beeinflusst.
  • Der Prozess des Korrelierens von Frames von Bilddaten zur Bestimmung einer Verschiebung oder zur Navigation ist wohl bekannt und wird daher hier nicht beschrieben. Die Ausgabe des Navigationsengines 220 enthält gerichtete Delta-X-Verschiebungswerte und gerichtete Delta-Y-Verschiebungswerte. Jeder gerichtete Verschiebungswert enthält eine Information mit einem negativen oder mit einem positiven Vorzeichen, welches eine Richtung anzeigt, und enthält einen absoluten Wert der Verschiebung, welcher die Größe der Verschiebung in dieser Richtung anzeigt. In einer bestimmten Implementierung werden die gerichteten Delta-X- und -Y-Verschiebungswerte in der Form von zwei komplementären Binärzahlen erzeugt.
  • Der Betrieb des optischen Navigationssystems 100 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird nun unter Bezugnahme auf ein Flussdiagramm eines Verfahrens gemäß 3 beschrieben. Bei Block 302 wird ein Frame von Bilddaten von der Zielfläche 106 aufgenommen. Der Prozess des Aufnehmens eines Frames von Bilddaten von einer Zielfläche 106 beinhaltet es, dass der Treiberschaltkreis 216 ein Treibersignal an die Lichtquelle 216 anlegt, die in Reaktion auf das angelegte Treibersignal Licht in Richtung der Zielfläche 106 emittiert. Der Bildsensor 214 empfängt das Licht, das von der Zielfläche 106 reflektiert worden ist, und produziert den Frame von Bilddaten der Zielfläche 106 aus dem empfangenen Licht.
  • Als nächstes wird in einem Block 304 eine Ermittlung durchgeführt, ob ein räumliches-Rauschmusterbestimmungsframe produziert worden ist. Falls ja, dann fährt die Operation mit Block 306 fort, wo der aufgenommene Frame von Bilddaten unter Verwendung des räumliches-Rauschmusterbestimmungsframes normiert wird. Als nächstes wird in Block 308 die Bestimmung der Verschiebung mittels des Navigationsengines 226 berechnet, indem der normierte Frame von Bilddaten mit einem zuvor normierten Frame von Bilddaten korreliert wird.
  • Wenn allerdings die Rauschbestimmung nicht produziert worden ist (das heißt nicht genug Frames von Bilddaten aufgenommen worden sind), dann fährt die Operation direkt mit Block 308 fort, wo die Bestimmung der Verschiebung mittels des Navigationsengines 226 berechnet wird, indem der gegenwärtige Frame von Bilddaten mit einem vorherigen Frame von Bilddaten korreliert wird.
  • In der Zwischenzeit wird der gegenwärtige Frame von Bilddaten zum Aktualisieren der Werte verwendet, die in dem Speicher 218 gespeichert sind, so dass der gegenwärtige Frame zum Produzieren eines räumliches-Rauschmusterbestimmungsframes mittels des räumliches-Rauschmusterbestimmungsmoduls 220 verwendet werden kann, wie oben beschrieben. Nachdem der räumliches-Rauschmusterbestimmungsframe produziert worden ist, kann der räumliches-Rauschmusterbestimmungsframe unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden, wie oben beschrieben.
  • In diesem Ausführungsbeispiel ist das optische Navigationssystem 100 ausgestaltet, ein räumliches Rauschmuster in den aufgenommenen Frames von Bilddaten im Wesentlichen zu entfernen, das durch eine Kontamination an den optischen Elementen des Systems 100 verursacht wird. Allerdings kann in anderen Ausführungsbeispielen das optische Navigationssystem 100 ausgestaltet sein, Variationen hinsichtlich der Intensität in aufgenommenen Frames von Bilddaten zu korrigieren, die durch Abweichungen in einem Herstellungsprozess in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems 100 verursacht werden.
  • Wendet man sich nun 4 zu, dann ist dort ein optisches Navigationssystem 400 gemäß einem anderen exemplarischen Ausführungsbeispiel der Erfindung gezeigt. Das optische Navigationssystem 400 enthält all die Komponenten des optischen Navigationssystems 100 von 1. Allerdings enthält das optische Navigationssystem 400 auch ein Intensitätsbestimmungsmodul 430 und ein Intensitätskompensationsmodul 432, die zum Kompensieren von Variationen in der Intensität in den Pixeln von aufgenommenen Frames von Bilddaten aufgrund von Abweichungen in einem Herstellungsprozess in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems 400 betrieben werden. Zum Beispiel werden, falls der Bildsensor 214 zwei Bildsensoranordnungen enthält, die beide an einen separaten Analog-zu-Digital (ADC) Wandler angeschlossen sind, Abweichungen in einem Herstellungsprozess in den Bildsensoranordnungen und/oder in den ADCs, insbesondere in den Feldeffekttransistoren in den ADCs, fixe oder feste Variationen in der Intensität in den Frames von Bilddaten produzieren, die mittels des Bildsensors 214 aufgenommen worden sind. Diese Variationen in der Intensität, ähnlich wie bei dem räumlichen Rauschmuster aufgrund von Kontamination, können die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems 400 beeinflussen. Daher ist, mittels Kompensierens dieser Variationen in der Intensität, das optische Navigationssystem 400 in der Lage, seine Leistungsfähigkeit des Verfolgens („tracking performance”) zu verbessern.
  • Das Intensitätsbestimmungsmodul 430 ist eingerichtet, eine Intensitätsvariationsbestimmung (oder eine Intensitätsvariationsabschätzung) unter Verwendung der aufgenommenen Frames von Bilddaten zu produzieren, die in dem Speicher 218 gespeichert sind. Die Intensitätsvariationsbestimmung ist eine Bestimmung von einem fixen oder festen Intensitätsmuster in den aufgenommenen Frames von Bilddaten, verursacht durch Abweichungen in einem Herstellungsprozess in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems 400. Die Intensitätsvariationsbestimmung wird von der Intensitätsinformation der individuellen Pixel der aufgenommenen Frames von Bilddaten abgeleitet. Ähnlich wie das räumliche Rauschmuster ist das Intensitätsmuster im Wesentlichen fix oder fest, da die Ursachen des Intensitätsmusters fix oder fest sind. Das fixe oder feste Intensitätsmuster in den aufgenommenen Frames von Bilddaten der Zielfläche 106 kann Fehler in der Verfolgung bewirken, welche die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems 400 verschlechtern können.
  • In einem Ausführungsbeispiel wird die Intensitätsvariationsbestimmung mittels Mittelns (oder Bildens eines Mittelwerts, zum Beispiel Bilden eines arithmetischen Mittelwerts) der Intensitätswerte von einigen oder allen der aufgenommenen Frames von Bilddaten produziert, die in dem Speicher 218 gespeichert sind. Die Intensitätsvariationsbestimmung enthält Intensitätsinformation von jedem Pixel der aufgenommenen Frames von Bilddaten. Unter der Annahme, dass es keine herstellungsbedingten Abweichungen in dem Bildsensor 214 und in anderen elektrischen Komponenten des optischen Navigationssystems 400 gibt, und dass es keine Kontamination an den optischen Elementen des optischen Navigationssystems 400 gibt, kann erwartet werden, dass sich jeder gemittelte Intensitätswert der Pixel der aufgenommen Frames von Bilddaten einem vorbestimmten Wert annähert. Unterschiede zwischen unterschiedlichen mittleren Intensitätswerten der Pixel der aufgenommenen Frames von Bilddaten können Variationen in der Intensität aufgrund von Abweichungen in der Herstellung in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems 400 zugeschrieben werden. Falls es zum Beispiel Variationen in der Intensität gibt, die durch Unterschiede zwischen einer Hälfte der Bildsensoranordnung und der anderen Hälfte der Bildsensoranordnung verursacht sind, werden diese Variationen in der Intensität als Unterschiede in den Intensitätswerten von den entsprechenden Pixeln der aufgenommenen Frames von Bilddaten in Erscheinung treten. Diese Unterschiede in den Intensitätswerten der Pixel der aufgenommenen Frames von Bilddaten werden in der Intensitätsvariationsbestimmung als Intensitätsinformation für jedes Pixel von einem Frame von Bilddaten dargestellt werden, die von dem Bildsensor 214 aufgenommen werden. Die Intensitätsvariationsbestimmung wird zum Kompensieren der Variationen in der Intensität in den aufgenommenen Frames von Bilddaten verwendet, bevor die Verschiebungsbestimmung unter Verwendung von diesen Frames von Bilddaten berechnet wird. Die Intensitätsvariationsbestimmung kann als Daten zum Beispiel in dem Speicher 218 oder einem beliebigen anderen Speichergerät gespeichert werden. Die Intensitätsvariationsbestimmung kann kontinuierlich unter Verwendung der nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden.
  • Das Intensitätskompensationsmodul 432 ist konfiguriert, die Variationen in der Intensität in dem gegenwärtig aufgenommenen Frame von Bilddaten unter Verwendung der neuesten Intensitätsvariationsbestimmung zu konfigurieren, um die Variationen in der Intensität auszugleichen, die durch Abweichungen in der Herstellung in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems 400 verursacht werden. In diesem Ausführungsbeispiel empfängt das Intensitätskompensationsmodul 432 die normierten Frames von Bilddaten und die neueste Intensitätsvariationsbestimmung, um die normierten Frames von Bilddaten weiter zu verarbeiten, um Variationen in der Intensität in den Frames von Bilddaten zu kompensieren. Allerdings kann in anderen Ausführungsbeispielen das Intensitätskompensationsmodul 432 zuerst die aufgenommenen Frames von Bilddaten verarbeiten, um Variationen in der Intensität zu kompensieren, bevor die Frames von Bilddaten mittels des Normierungsmoduls 222 normiert werden, um das räumliche Rauschmuster im Wesentlichen zu entfernen.
  • Für jeden aufgenommenen Frame von Bilddaten verwendet das Intensitätskompensationsmodul 432 die Intensitätspixelwerte der Intensitätsvariationsbestimmung als Parameter zum Kompensieren der Variationen in der Intensität in den aufgenommenen Frames von Bilddaten. Zum Beispiel kann jeder Intensitätspixelwert der Intensitätsvariationsbestimmung als ein Faktor zum Erhöhen oder zum Erniedrigen des zugehörigen Pixelwerts der aufgenommenen Bilddaten verwendet werden, um die Variationen in der Intensität zu glätten oder auszugleichen. Die verarbeiteten Frames von Bilddaten können dann zur Bestimmung der Verschiebung mittels des Navigationsengines 226 verwendet werden.
  • Der Betrieb des optischen Navigationssystems 400 gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird nun unter Bezugnahme auf ein Flussdiagramm eines Verfahrens gemäß 5 beschrieben. Bei Block 502 wird ein Frame von Bilddaten der Zielfläche 106 aufgenommen. Der Prozess des Aufnehmens eines Frames von Bilddaten von einer Zielfläche 106 involviert, dass der Treiberschaltkreis 216 ein Treibersignal an die Lichtquelle 216 anlegt, die in Reaktion auf das angelegte Treibersignal Licht in Richtung der Zielfläche 106 emittiert. Der Bildsensor 214 empfängt das Licht, das von der Zielfläche 106 reflektiert wird und erzeugt den Frame von Bilddaten der Zielfläche 106 aus dem empfangenen Licht.
  • Als nächstes wird in Block 504 eine Ermittlung durchgeführt, ob ein räumliches-Rauschmusterbestimmungsframe produziert worden ist. Falls ja, dann fährt die Operation in Block 506 fort, wo der aufgenommene Frame von Bilddaten unter Verwendung des räumliches-Rauschmusterbestimmungsframes normiert wird. Als nächstes wird in Block 508 der normierte Frame von Bilddaten mittels des Intensitätskompensationsmoduls 432 unter Verwendung der Intensitätsvariationsbestimmung verarbeitet. Als nächstes wird in Block 510 die Verschiebungsbestimmung mittels des Navigationsengines 226 berechnet, indem der prozessierte Frame von Bilddaten mit einem zuvor prozessierten Frame von Bilddaten korreliert wird.
  • Falls allerdings eine Rauschbestimmung nicht produziert worden ist (das heißt nicht genug Frames von Bilddaten aufgenommen worden sind), dann fährt die Operation in Block 508 fort, wo der aufgenommene Frame von Bilddaten mittels des Intensitätskompensationsmoduls 432 unter Verwendung der Intensitätsvariationsbestimmung verarbeitet wird. Als nächstes wird in Block 510 die Verschiebungsbestimmung mittels des Navigationsengines 226 berechnet, indem der gegenwärtige verarbeitete Frame von Bilddaten mit einem zuvor verarbeiteten Frame von Bilddaten korreliert wird.
  • In der Zwischenzeit wird der gegenwärtige Frame von Bilddaten in dem Speicher 218 gespeichert, so dass der gegenwärtige Frame zum Produzieren eines räumliches-Rauschmusterbestimmungsframes mittels des räumliches-Rauschmusterbestimmungsmoduls 220 und zum Aktualisieren der Intensitätsvariationsbestimmung mittels des Intensitätsbestimmungsmoduls 430 verwendet werden kann, wie oben beschrieben. Nachdem der räumliches-Rauschmusterbestimmungsframe produziert worden ist, kann der räumliches-Rauschmusterbestimmungsframe unter Verwendung von nacheinander aufgenommenen Frames von Bilddaten aktualisiert werden, wie oben beschrieben.
  • Auf diese Weise ist das optische Navigationssystem 400 in der Lage, das räumliche Rauschmuster in den aufgenommenen Frames von Bilddaten aufgrund einer Kontamination an den optischen Elementen des optischen Navigationssystems im Wesentlichen zu entfernen und Variationen in der Intensität in den aufgenommenen Frames von Bilddaten aufgrund von Abweichungen in der Herstellung in dem Bildsensor 214 und/oder in anderen elektrischen Komponenten des optischen Navigationssystems zu kompensieren. Unter Verwendung dieser verarbeiteten Frames von Bilddaten zur Verschiebungsbestimmung kann die Leistungsfähigkeit des Verfolgens des optischen Navigationssystems 400 signifikant verbessert werden.
  • Ein Verfahren zum Durchführen von optischer Navigation gemäß einem exemplarischen Ausführungsbeispiel der Erfindung wird unter Bezugnahme auf ein Flussdiagramm gemäß 6 beschrieben. Bei Block 602 werden Frames von Bilddaten von einer Zielfläche aufgenommen. Als nächstes wird bei Block 604 unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten eine räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten erzeugt, das durch eine Kontamination an zumindest einer Komponente des Systems verursacht ist. Als nächstes werden bei Block 606 bestimmte Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung normiert, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren. Als nächstes werden bei Block 608 Verschiebungswerte basierend auf den normierten Frames von Bilddaten generiert.
  • Obwohl spezielle Ausführungsbeispiele der Erfindung beschrieben und veranschaulicht worden sind, darf die Erfindung nicht auf die speziellen Formen oder Anordnungen von so beschriebenen und veranschaulichten Teilen limitiert werden. Der Schutzumfang der Erfindung wird durch die hier beigefügten Patentansprüche definiert, und durch ihre Äquivalente.

Claims (20)

  1. Ein System für optische Navigation, wobei das System aufweist: einen Bildsensor, der zum Aufnehmen von Frames von Bilddaten von einer Zielfläche konfiguriert ist; ein räumliches-Rauschmusterbestimmungsmodul, das zum Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in den aufgenommenen Frames von Bilddaten unter Verwendung von zumindest einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente des Systems verursacht ist; ein Normierungsmodul, das zum Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung konfiguriert ist, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten im Wesentlichen zu entfernen, um normierte Frames von Bilddaten zu produzieren; und einen Navigationsengine, der zum Generieren von Verschiebungswerten basierend auf den normierten Frames von Bilddaten konfiguriert ist.
  2. Das System gemäß Anspruch 1, wobei das räumliches-Rauschmusterbestimmungsmodul konfiguriert ist, einige der aufgenommenen Frames von Bilddaten zu mitteln, um die räumliches-Rauschmusterbestimmung zu produzieren.
  3. Das System gemäß Anspruch 2, wobei das räumliches-Rauschmusterbestimmungsmodul konfiguriert ist, die ersten N der aufgenommenen Frames von Bilddaten nach Detektieren einer initialen Bewegung zum Erzeugen der räumliches-Rauschmusterbestimmung zu mitteln, wobei N eine ganze Zahl größer als eins ist.
  4. Das System gemäß Anspruch 3, wobei das räumliches-Rauschmusterbestimmungsmodul konfiguriert ist, die räumliches-Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten zu aktualisieren, die nachfolgend zu den ersten N der aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mittelwertbildens der später aufgenommenen Frames von Bilddaten und der räumliches-Rauschmusterbestimmung.
  5. Das System gemäß einem der Ansprüche 2 bis 4, wobei das räumliches-Rauschmusterbestimmungsmodul konfiguriert ist, die aufgenommenen Frames von Bilddaten zu mitteln, welche eine wesentlich unterschiedliche Bildhelligkeit als zuvor aufgenommenen Frames von Bilddaten zeigen.
  6. Das System gemäß einem der Ansprüche 2 bis 5, wobei das räumliches-Rauschmusterbestimmungsmodul konfiguriert ist, die aufgenommenen Frames von Bilddaten zu mitteln, die nach einer wesentlichen Bewegung, verglichen mit zuvor aufgenommenen Frames von Bilddaten, erhalten worden sind.
  7. Das System gemäß einem der Ansprüche 1 bis 6, wobei das Normierungsmodul konfiguriert ist, die bestimmten Frames von Bilddaten unter Verwendung von Pixeldaten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte von den bestimmten Frames von Bilddaten zu normieren.
  8. Das System gemäß einem der Ansprüche 1 bis 7, ferner aufweisend: ein Intensitätsbestimmungsmodul, das zum Produzieren einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten unter Verwendung von einigen der aufgenommenen Frames von Bilddaten konfiguriert ist, wobei die Variationen der Intensität von mindestens einer elektrischen Komponente verursacht sind; und ein Intensitätskompensationsmodul, das zum Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung konfiguriert ist.
  9. Ein Verfahren zum Durchführen von optischer Navigation, wobei das Verfahren aufweist: Aufnehmen von Frames von Bilddaten von einer Zielfläche; Produzieren einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente, die zum Aufnehmen der Frames von Bilddaten verwendet wird, verursacht ist; Normieren von bestimmten Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zum Erzeugen normierter Frames von Bilddaten im Wesentlichen zu entfernen; und Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
  10. Das Verfahren gemäß Anspruch 9, wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Mittelwertbilden von einigen der aufgenommenen Frames von Bilddaten enthält, um die räumliches-Rauschmusterbestimmung zu produzieren.
  11. Das Verfahren gemäß Anspruch 10, wobei das Mittelwertbilden von einigen der aufgenommenen Frames von Bilddaten ein Mittelwertbilden der ersten N der aufgenommenen Frames von Bilddaten nach Detektieren einer initialen Bewegung enthält, um die räumliches-Rauschmusterbestimmung zu produzieren, wobei N eine ganze Zahl größer als eins ist.
  12. Das Verfahren gemäß Anspruch 11, wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Aktualisieren der räumliches-Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten enthält, die nachfolgend zu den ersten N aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mittelwertbildens der später aufgenommenen Frames von Bilddaten und der räumliches-Rauschmusterbestimmung.
  13. Das Verfahren gemäß einem der Ansprüche 9 bis 12, wobei das Normieren der bestimmten Frames von Bilddaten ein Normieren der bestimmten Frames von Bilddaten unter Verwendung von Pixelwerten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte der bestimmten Frames von Bilddaten enthält.
  14. Das Verfahren gemäß einem der Ansprüche 9 bis 13, ferner aufweisend: Produzieren einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten unter Verwendung von einigen der aufgenommenen Frames von Bilddaten, wobei die Variationen der Intensität durch mindestens eine elektrische Komponente verursacht ist; und Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung.
  15. Das Verfahren gemäß einem der Ansprüche 9 bis 14, wobei das Aufnehmen der Frames von Bilddaten ein Emittieren von Licht auf die Zielfläche enthält.
  16. Ein Verfahren zum Durchführen von optischer Navigation, wobei das Verfahren aufweist: Aufnehmen von Frames von Bilddaten von einer Zielfläche, wobei jeder der aufgenommenen Frames von Bilddaten eine Mehrzahl von Pixelwerten enthält; Erzeugen einer räumliches-Rauschmusterbestimmung von einem räumlichen Rauschmuster in dem aufgenommenen Frame von Bilddaten, wobei das räumliche Rauschmuster durch eine Kontamination an zumindest einer Komponente, die zum Aufnehmen der Frames von Bilddaten verwendet wird, verursacht ist, wobei das Erzeugen der räumliches-Rauschmusterbestimmung ein Mittelwertbilden der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten enthält; Normieren bestimmter Frames von Bilddaten unter Verwendung der räumliches-Rauschmusterbestimmung, um das räumliche Rauschmuster von den bestimmten Frames von Bilddaten zum Erzeugen von normierten Frames von Bilddaten im Wesentlichen zu entfernen; und Erzeugen von Verschiebungswerten basierend auf den normierten Frames von Bilddaten.
  17. Das Verfahren gemäß Anspruch 16, wobei das Mittelwertbilden der Pixelwerte von einigen der aufgenommenen Frames von Bilddaten ein Mittelwertbilden der Pixelwerte der ersten N der aufgenommenen Frames von Bilddaten enthält, nachdem eine initiale Bewegung detektiert worden ist, zum Erzeugen der räumliches-Rauschmusterbestimmung, wobei N eine ganze Zahl größer als eins ist.
  18. Das Verfahren gemäß Anspruch 17, wobei das Produzieren der räumliches-Rauschmusterbestimmung ein Aktualisieren der räumliches-Rauschmusterbestimmung unter Verwendung von später aufgenommenen Frames von Bilddaten enthält, die nachfolgend zu den ersten N aufgenommenen Frames von Bilddaten aufgenommen worden sind, mittels gewichteten Mittelwertbildens von Pixelwerten der später aufgenommenen Frames von Bilddaten und Werten der räumliches-Rauschmusterbestimmung.
  19. Das Verfahren gemäß einem der Ansprüche 16 bis 18, wobei das Normieren der bestimmten Frames von Bilddaten ein Normieren der bestimmten Frames von Bilddaten unter Verwendung von Pixelwerten der räumliches-Rauschmusterbestimmung als Normierungsfaktoren für zugehörige Pixelwerte der bestimmten Frames von Bilddaten enthält.
  20. Das Verfahren gemäß einem der Ansprüche 16 bis 19, ferner aufweisend: Erzeugen einer Intensitätsvariationsbestimmung von Variationen der Intensität in den aufgenommenen Frames von Bilddaten, wobei die Variationen der Intensität durch mindestens eine elektrische Komponente verursacht sind, unter Verwendung von einigen der aufgenommenen Frames von Bilddaten; und Kompensieren der Variationen der Intensität in zumindest einigen der aufgenommenen Frames von Bilddaten unter Verwendung der Intensitätsvariationsbestimmung.
DE102010006146.8A 2009-01-30 2010-01-29 System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten Active DE102010006146B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/362,663 2009-01-30
US12/362,663 US8189954B2 (en) 2009-01-30 2009-01-30 System and method for performing optical navigation using enhanced frames of image data

Publications (2)

Publication Number Publication Date
DE102010006146A1 true DE102010006146A1 (de) 2010-08-05
DE102010006146B4 DE102010006146B4 (de) 2019-06-13

Family

ID=42309133

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010006146.8A Active DE102010006146B4 (de) 2009-01-30 2010-01-29 System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten

Country Status (3)

Country Link
US (1) US8189954B2 (de)
KR (1) KR20100088543A (de)
DE (1) DE102010006146B4 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4480760B2 (ja) * 2007-12-29 2010-06-16 株式会社モルフォ 画像データ処理方法および画像処理装置
TWI479372B (zh) * 2012-07-27 2015-04-01 Pixart Imaging Inc 光學位移偵測裝置及方法
TWI501131B (zh) * 2013-02-04 2015-09-21 Pixart Imaging Inc 光學處理裝置、光源亮度設定方法及其電腦程式產品
US10241593B2 (en) * 2013-02-04 2019-03-26 Pixart Imaging Inc. Optical processing apparatus and light source luminance adjustment method thereof
US11175747B2 (en) * 2013-02-04 2021-11-16 Pixart Imaging Inc. Optical processing apparatus and operating method thereof
CN103986880B (zh) * 2013-02-08 2017-10-10 原相科技股份有限公司 光学处理装置、光源亮度设定方法
US10013078B2 (en) * 2014-04-11 2018-07-03 Pixart Imaging Inc. Optical navigation device and failure identification method thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767922A (en) * 1996-04-05 1998-06-16 Cornell Research Foundation, Inc. Apparatus and process for detecting scene breaks in a sequence of video frames
US6463175B1 (en) * 2000-12-15 2002-10-08 Shih-Jong J. Lee Structure-guided image processing and image feature enhancement
US7576332B2 (en) * 2003-08-01 2009-08-18 St. George's Healthcare Nhs Trust Imaging system
US7446756B2 (en) 2004-03-22 2008-11-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus for controlling the position of a screen pointer with low sensitivity to particle contamination
US7227621B2 (en) * 2004-08-30 2007-06-05 Postech Foundation System for visualizing flow and measuring velocity field using X-ray particle image velocimetry
US7423633B2 (en) 2004-09-01 2008-09-09 Avago Technologies Ec Buip Pte Ltd Apparatus for controlling the position of a screen pointer with low sensitivity to fixed pattern noise

Also Published As

Publication number Publication date
DE102010006146B4 (de) 2019-06-13
KR20100088543A (ko) 2010-08-09
US8189954B2 (en) 2012-05-29
US20100195935A1 (en) 2010-08-05

Similar Documents

Publication Publication Date Title
DE102010006146B4 (de) System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten
DE102005004861B4 (de) Vorrichtung zum Steuern der Position eines Bildschirmzeigers mit niedriger Empfindlichkeit für Partikelkontamination, Verfahren zum Erzeugen von Bewegungsdaten bei einem optischen Zeigegerät und Navigationssensor zum Erzeugen von Bewegungsdaten
DE112010003649B4 (de) Distanzmessvorrichtung, Distanzmessverfahren und Programm
DE102005025221B4 (de) Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung
DE602004007760T2 (de) Optische Vorrichtung zur Messung des Abstandes zwischen der Vorrichtung und einer Fläche
DE102008054985B4 (de) Verfahren und Vorrichtung zur optischen Vermessung von dreidimensionalen Objekten mittels einer dentalen 3D-Kamera unter Verwendung eines Triangulationsverfahrens
EP2353146B1 (de) Vermessung des wachstums von blattscheiben von pflanzen
DE10349607A1 (de) Vorrichtung zum Steuern eines Bildschirmzeigers mit einer Rahmenrate, die auf einer Geschwindigkeit basiert
DE102017126378A1 (de) Verfahren zum Verarbeiten eines Rohbildes einer Time-of-Flight-Kamera, Bildverarbeitungsvorrichtung und Computerprogramm
DE10252321A1 (de) Systeme und Verfahren zum Verringern von Positionsfehlern in Bildkorrelationssystemen während der Verschiebung von inneren Referenzbildern
DE102010000699A1 (de) Absolute Verfolgung in einem Subpixelbereich
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE602004011093T2 (de) Einrichtung zum scannen dreidimensionaler objekte
DE102004047070A1 (de) Zeigevorrichtung mit adaptivem Beleuchtungspegel
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
DE102014113487A1 (de) Verfahren und Vorrichtung zum Überprüfen des Erscheinungsbildes eines Objekts
DE10316208A1 (de) Navigationssystem und Navigationsverfahren
DE102016118192A1 (de) Fokuserfassungsvorrichtung, Prädiktionsverfahren und zugehöriges Speichermedium
DE102008026865A1 (de) Systemarchitektur zur Erfassung einer absoluten Position unter Verwendung eines Zielmusters
DE102017125799A1 (de) Reduktion von Bildstörungen in Bildern
DE102006050850B4 (de) Verfahren und Vorrichtung zur Wegmessung
DE112021001751T5 (de) Intelligentes verfahren zur verfolgung eines fokus in maschinellen sichtanwendungen
DE112006001641T5 (de) Signalverarbeitungseinrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120502

R081 Change of applicant/patentee

Owner name: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE., SG

Free format text: FORMER OWNER: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., SINGAPORE, SG

Effective date: 20130606

Owner name: PIXART IMAGING INC., TW

Free format text: FORMER OWNER: AVAGO TECHNOLOGIES ECBU IP (SINGAPORE) PTE. LTD., SINGAPORE, SG

Effective date: 20130606

R082 Change of representative

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE

Effective date: 20130606

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE

Effective date: 20130606

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: PIXART IMAGING INC., TW

Free format text: FORMER OWNER: AVAGO TECHNOLOGIES GENERAL IP (SINGAPORE) PTE. LTD., SINGAPORE, SG

R082 Change of representative

Representative=s name: DILG HAEUSLER SCHINDELMANN PATENTANWALTSGESELL, DE

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE

R082 Change of representative

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE

R082 Change of representative

Representative=s name: VIERING, JENTSCHURA & PARTNER MBB PATENT- UND , DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final