DE10301484B4 - Bildqualifikation für einen optischen Navigationssensor - Google Patents

Bildqualifikation für einen optischen Navigationssensor Download PDF

Info

Publication number
DE10301484B4
DE10301484B4 DE2003101484 DE10301484A DE10301484B4 DE 10301484 B4 DE10301484 B4 DE 10301484B4 DE 2003101484 DE2003101484 DE 2003101484 DE 10301484 A DE10301484 A DE 10301484A DE 10301484 B4 DE10301484 B4 DE 10301484B4
Authority
DE
Germany
Prior art keywords
frame
dimension
pixel
peak values
movements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE2003101484
Other languages
English (en)
Other versions
DE10301484A1 (de
Inventor
Chun-Huang Lin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Pixart Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pixart Imaging Inc filed Critical Pixart Imaging Inc
Publication of DE10301484A1 publication Critical patent/DE10301484A1/de
Application granted granted Critical
Publication of DE10301484B4 publication Critical patent/DE10301484B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur Echtzeit-Bildqualifikation, insbesondere für einen optischen Navigationssensor, umfassend:
Bestimmen, dass ein Bildpunkt in einer Dimension eines Frames ein oberer Helligkeitsspitzenwert ist, wenn Bildpunkte von zwei Seiten der Dimension eine geringere Helligkeit als Bildpunkt aufweisen;
Bestimmen, dass ein Bildpunkt in einer Dimension eines Frames ein unterer Helligkeitsspitzenwert ist, wenn Bildpunkte von zwei Seiten der Dimension eine größere Helligkeit als der Bildpunkt aufweisen;
Bestimmen, dass ein Bildpunkt an einem Rand einer Dimension des Frames kein oberer Spitzenwert ist, selbst wenn der Bildpunkt eine maximale Helligkeit aufweist;
Bestimmen, dass ein Bildpunkt an einem Rand einer Dimension des Frames kein unterer Spitzenwert ist, selbst wenn der Bildpunkt eine minimale Helligkeit aufweist; und
Bestimmen, dass der Frame ein guter Frame ist, wenn eine Anzahl der Spitzenwerte des Frames Anforderungen genügt, oder Bestimmen, dass der Frame ein schlechter Frame ist;
wobei ein guter Frame zum Bestimmen von Bewegungen des...

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Bildqualifikation und insbesondere ein Verfahren für einen optischen Navigationssensor.
  • Ein optischer Navigationssensor bestimmt Bewegungen durch Vergleichen der Korrelation von Bildern, die bei verschiedenen Zeiten erfasst werden. Die Bildqualität beeinflusst folglich Bewegungen, die durch den optischen Navigationssensor bestimmt werden. Die Bildqualität resultiert aus Rauschen, Unscharf-werden der Bildschärfe, Beleuchtung, usw. Die LED (Leuchtdiode) in dem optischen Navigationssensor wird konstant beleuchtet, um Fehler beim Bestimmen von Bewegungen zu verhindern, die aus einer Beleuchtungsvariation resultieren. Wenn der optische Navigationssensor einer Beleuchtung von einem Fluoreszenzlampenlicht ausgesetzt wird, das durch einen 60 Hz oder 50 Hz Wechselstrom betrieben wird, sind jedoch periodische Variationen vorhanden, die zu Flimmern bei Bildern, die von dem optischen Navigationssensor erfasst werden, und nachfolgenden Fehlern beim Bestimmen von Bewegungen führen.
  • Der Nachteil von herkömmlicher Bildqualifikation ist, dass mehrere Bildframes benötigt werden, um Korrelationen dazwischen zu berechnen zum Bestimmen, ob die optische Navigation außerhalb der Bildschärfe ist. Mehrere Puffer werden deshalb benötigt und eine Totzeit ist unvermeidbar. Es besteht ein Bedarf, eine Bildqualifikation für einen optischen Navigationssensor bereitzustellen, die nur ein Bildframe benötigt.
  • US 4,251,157 verwendet CCD-Sensoren, um aufgenommene Bilder nach ihrer Bildschärfe auszuwählen. Die Bildauswahl erfolgt anhand der Kantenschärfe.
  • Es ist deshalb eine Aufgabe der vorliegenden Erfindung eine Bildqualifikation in Echtzeit für einen optischen Navigationssensor bereitzustellen.
  • Um die vorstehenden Aufgaben zu lösen, stellt die vorliegende Erfindung ein Verfahren zur Bildqualifikation bereit, das nur ein Bildframe auf einmal benötigt. Die Bildqualifikation in der vorliegenden Erfindung umfasst die folgenden Schritte.
  • Ein Bildpunkt bzw. Pixel in einer Dimension eines Frames wird bestimmt, einen oberen Helligkeitsspitzenwert aufzuweisen, wenn Bildpunkte an zwei Seiten der Dimension eine geringere Helligkeit als der Bildpunkt aufweisen.
  • Ein Bildpunkt in einer Dimension des Frames wird bestimmt, einen unteren Helligkeitsspitzenwert aufzuweisen, wenn Bildpunkte an zwei Seiten der Dimension eine größere Helligkeit als der Bildpunkt aufweisen.
  • Ein Bildpunkt an einem Rand einer Dimension des Frames wird bestimmt, keinen oberen Spitzenwert aufzuweisen, selbst wenn der Bildpunkt eine maximale Helligkeit aufweist. Ein Bildpunkt an einem Rand einer Dimension des Frames wird bestimmt, keinen unteren Spitzenwert aufzuweisen, selbst wenn der Bildpunkt eine minimale Helligkeit aufweist.
  • Der Frame wird auf Basis der Anzahl der Spitzenwerte bestimmt, die Anforderungen genügen, ein guter oder schlechter Frame zu sein. Ein guter Frame wird zum Bestimmen von Bewegungen des Frames verwendet. Ein schlechter Frame wird nicht zum Bestimmten von Bewegungen des Frames verwendet.
  • Die vorstehend erwähnten Aufgaben, Merkmale und Vorteile dieser Erfindung wird durch Bezugnahme auf die folgende detaillierte Beschreibung der bevorzugten Ausführungsformen mit Bezugnahme auf die begleitenden Zeichnungen klarer werden, in denen:
  • 1A eine schematische Zeichnung zeigt, um zwei Dimensionen von Bildsensorarrays zu veranschaulichen.
  • 1B eine schematische Zeichnung zeigt, um Bilder zu veranschaulichen, die von einem Bildsensorarray in einer Dimension erfasst werden.
  • 2A bis 2E schematische Zeichnungen zeigen, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird.
  • 3 eine schematische Zeichnung zeigt, um ein Ablaufdiagramm eines Anti-Flimmer-Verfahrens zu veranschaulichen, das auf dem erfindungsgemäßen Verfahren zur Bildqualifikation zum Verhindern von Bewegungsfehlern basiert.
  • Die vorliegende Erfindung offenbart ein Verfahren zur Bildqualifikation, das nur ein Bildframe benötigt, um zu bestimmen, ob der Frame zum Bestimmen von Bewegungen ohne irgendeinen Puffer qualifiziert ist, so dass die Qualifikation in Echtzeit durchgeführt wird.
  • 1A zeigt eine schematische Zeichnung, um zwei Dimensionen von Bildsensorarrays zu veranschaulichen. Um die Qualität eines Frames zu bestimmen, wird eine Dimension der Bildsensorbildpunkte zum Qualifizieren genommen. Zum Beispiel wird ein Bildsensorarray AA einer Dimension in X-Richtung analysiert und dann werden alle Bildsensorarrays in X-Richtung auf dem gleichen Weg analysiert. Ein Bildsensorarray BB einer Dimension in Y-Richtung wird analysiert und dann werden alle Bildsensorarrays in Y-Richtung auf dem gleichen Weg analysiert.
  • 1B zeigt eine schematische Zeichnung, um Bilder zu veranschaulichen, die von einem Bildsensorarray in einer Dimension erfasst werden. Das Bildsensorarray in 1B kann in X- oder Y-Richtung in 1A sein. 1B zeigt, dass Variationen bei der Helligkeit der Bild-Bildpunkte bzw. -Pixel in einer Dimension vorhanden sind, d. h. dass lokale Maxima bei der Helligkeit vorhanden sind.
  • Die Qualität von Bildern in einer Dimension wird durch die Spitzenwerte der Helligkeit bestimmt. Es gibt zwei Arten von Spitzenwerten, die in der vorliegenden Erfindung wie folgt definiert sind:
    Oberer Spitzenwert: Ein Bildpunkt in einer Dimension eines Frames, bei dem Bildpunkte an zwei Seiten der Dimension eine geringere Helligkeit als der Bildpunkt bis zu einem gewissen Grad aufweisen, wie U1, U2, die in 1B gezeigt sind.
  • Unterer Spitzenwert: Ein Bildpunkt in einer Dimension eines Frames, bei dem Bildpunkte an zwei Seiten der Dimension eine größere Helligkeit als der Bildpunkt bis zu einem gewissen Grad aufweisen, wie D1, D2, die in 1B gezeigt sind. Ein Bildpunkt bei einem Rand einer Dimension des Frames, wie M in 1B, wird nicht als ein oberer Spitzenwert definiert, selbst wenn der Bildpunkt eine maximale Helligkeit aufweist. Ein Bildpunkt bei einem Rand einer Dimension des Frames, wie m in 1B, wird nicht als ein unterer Spitzenwert definiert, selbst wenn der Bildpunkt eine minimale Helligkeit aufweist. Die Anzahl der oberen Spitzenwerte oder der unteren Spitzenwerte kann als die Anzahl der Helligkeitsspitzenwerte in einer Dimension gezählt werden. Wenn die Anzahl der Spitzenwerte eine kritische Anzahl überschreitet, werden die Bilder in einer Dimension als qualifiziert definiert.
  • Wenn ein Bildframe in zwei Dimensionen durch einen optischen Navigationssensor gelesen wurde, wurde die Anzahl der Spitzenwerte in zwei Dimensionen vollständig berechnet. Die Anzahl der Spitzenwerte in zwei Dimensionen, die Anforderungen genügen, hängt von der Anwendung ab. Sie kann zum Beispiel auf viele Weisen definiert werden, so dass wenigstens eine Spalte oder eine Zeile Anforderungen genügt oder dass dies jede Spalte tut oder jede Zeile tut, dann erfüllt der Bildframe in zwei Dimensionen Anforderungen und wird als ein guter Bildframe definiert. Ansonsten wird bestimmt, dass der Bildframe nicht die Anforderungen erfüllt und ein schlechter Bildframe ist.
  • Es kann ein guter Bildframe zur Bewegungselementschätzung und Korrelationsbewertung verwendet werden, um Bewegungen zu bestimmen. Ein schlechter Bildframe kann nicht zur Bestimmung von Bewegungen verwendet werden.
  • Eine andere Anwendung folgt. Es kann der gute Bildframe verwendet werden, um Bewegung zu bestimmen, und durch den guten Bildframe bestimmte Bewegungen werden ausgegeben. Es wird nicht gestattet, dass durch den schlechten Bildframe bestimmte Bewegungen ausgegeben werden.
  • Eine andere Anwendung ist wie folgt. Es kann der gute Bildframe verwendet werden, um Bewegungen zu bestimmen, und durch den guten Bildframe bestimmte Bewegungen werden ausgegeben. Wenn Bewegungen durch den schlechten Bildframe bestimmt werden, dann werden prädiktive Bewegungen gemäß den vorhergehenden Bewegungen ausgegeben. Wenn der optische Navigationssensor unter einem Flimmerbereich ist, resultieren Bewegungsfehler aus dem Flimmerbereich. Das in der vorliegenden Erfindung offenbarte Verfahren zur Bildqualifikation zum Verhindern von Bewegungsfehlern kann als Basis eines Anti-Flimmer-Verfahrens dienen.
  • 2A zeigt eine schematische Zeichnung, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird.
  • Zu der Zeit t1 ist ein optischer Navigationssensor 10 nicht in einen Flimmerbereich 20, wie ein von einem Fluoreszenzlampenlicht beleuchteter Bereich, eingetreten. Ein von dem optischen Navigationssensor 10 erfasster Bildframe weist NR1 Zeilen von Bildpunkten auf, wobei jede Zeile eine größere Anzahl der Spitzenwerte als eine kritische Anzahl NPX davon aufweist. NR1 der Zeilen ist größer als NRX. Die Qualität des Bildframes erfüllt folglich Anforderungen. Eine zweite Anzahl der Bildframes mit der Qualität, die Anforderungen erfüllt, wird gezählt, so dass die zweite Anzahl ein zweites Maximum Nmax2 überschreitet. Dann wird eine erste Anzahl der Bildframes mit der Qualität, die nicht Anforderungen erfüllt, abgeglichen bzw. zurückgesetzt, und dieses Bild kann zum Bestimmen von Bewegung verwendet werden.
  • 2B zeigt eine schematische Zeichnung, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird. Zu der Zeit t2 weist der optische Navigationssensor 10 einen eigenen Teil auf, der in den Flimmerbereich 20 eingetreten ist. Ein von dem optischen Navigationssensor 10 erfasster Bildframe weist NR2 Zeilen von Bildpunkten auf, wobei jede Zeile eine größere Anzahl von Spitzenwerten als eine kritische Anzahl NPX der Spitzenwerte aufweist. NR2 der Zeilen ist geringer als eine Anzahl NRX. Die Qualität der Bildframes erfüllt folglich nicht Anforderungen. Die erste Anzahl der Bildframes mit der Qualität, die nicht Anforderungen erfüllt, wird gezählt, so dass die erste Anzahl nicht ein erstes Maximum Nmax1 überschreitet. Bewegungen werden dann von dem Bildframe bestimmt.
  • 2C zeigt eine schematische Zeichnung, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird. Zu der Zeit t3 ist ein optischer Navigationssensor 10 vollständig in den Flimmerbereich 20 eingetreten. Ein von dem optischen Navigationssensor 10 erfasster Bildframe weist NR3 Zeilen von Bildpunkten auf, wobei jede Zeile eine größere Anzahl der Spitzenwerte als eine kritische Anzahl NPX der Spitzenwerte aufweist. NR3 der Zeilen ist kleiner als eine Anzahl NRX. Die Qualität des Bildframes erfüllt folglich nicht Anforderungen. Die erste Anzahl der Bildframes mit der Qualität, die nicht Anforderungen erfüllt, wird gezählt, so dass die erste Anzahl das erste Maximum Nmax1 überschreitet. Die erste Anzahl und die zweite Anzahl werden beide abgeglichen bzw. zurückgesetzt. Der Bildframe wird übersprungen. Ein neuer Bildframe wird erfasst.
  • 2D zeigt eine schematische Zeichnung, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird. Zu der Zeit t4 weist der optische Navigationssensor 10 einen eigenen Teil auf, der den Flimmerbereich 20 verlassen hat. Ein von dem optischen Navigationssensor 10 erfasster Bildframe weist NR4 Zeilen von Bildpunkten auf, wobei jede Zeile eine größere Anzahl der Spitzenwerte als eine kritische Anzahl NPX der Spitzenwerte aufweist. NR4 der Zeilen ist größer als NRX. Die Qualität des Bildframes erfüllt folglich Anforderungen. Die zweite Anzahl der Bildframes mit der Qualität, die Anforderungen erfüllt, wird gezählt, so dass die zweite Anzahl nicht das zweite Maximum Nmax2 überschreitet. Der Bildframe wird dann übersprungen. Ein neuer Bildframe wird erfasst.
  • 2E zeigt eine schematische Zeichnung, um einen Flimmerbereich zu veranschaulichen, durch den der optische Navigationssensor beeinflusst wird. Zu der Zeit t5 hat der optische Navigationssensor 10 den Flimmerbereich 20 vollständig verlassen. Ein von dem optischen Navigationssensor 10 erfasster Bildframe weist NR5 Zeilen von Bildpunkten auf, wobei jede Zeile eine größere Anzahl der Spitzenwerte als eine kritische Anzahl NPX der Spitzenwerte aufweist. NR5 der Zeilen ist größer als NRX. Die Qualität des Bildframes erfüllt folglich Anforderungen. Die zweite Anzahl der Bildframes mit der Qualität, die Anforderungen erfüllt, wird gezählt, so dass die zweite Anzahl das zweite Maximum Nmax2 überschreitet. Dann wird die erste Anzahl abgeglichen bzw. zurückgesetzt. Bewegungen werden durch den Bildframe bestimmt.
  • 3 zeigt eine schematische Zeichnung, um ein Ablaufdiagramm des Anti-Flimmer-Verfahrens zu veranschaulichen.
  • Bei Schritt S31 wird ein Bildframe erfasst, um die Qualität des Bildes zu bestimmen.
  • Bei Schritt S32 ist der Bildframe, wenn die Qualität des Bildframes die Anforderungen erfüllt, ein guter Bildframe, die Ausführung fährt mit Schritt S36 fort. Wenn nicht, fährt die Ausführung mit Schritt S33 fort.
  • Bei Schritt S33 wird eine erste Anzahl des Bildframes, der nicht die Anforderungen erfüllt, aufgespeichert. Wenn die erste Anzahl des Bildframes mit der Qualität, die nicht Anforderungen erfüllt, ein erstes Maximum Nmax1 überschreitet, fährt die Ausführung mit Schritt S34 fort. Ansonsten fährt die Ausführung mit Schritt S38 fort.
  • Bei Schritt S34 wird ein erster Zähler, der die erste Anzahl der Bildframes mit der Qualität zählt, die nicht Anforderungen erfüllt, abgeglichen bzw. zurückgesetzt. Ein zweiter Zähler, der die zweite Anzahl der Bildframes zählt, deren Qualität die Anforderungen erfüllt, wird abgeglichen bzw. zurückgesetzt.
  • Bei Schritt S35 wird der Bildframe übersprungen, und Bewegungen werden nicht ausgegeben. Das Verfahren geht zu Schritt S31 zurück.
  • Bei Schritt S36 erfüllt die Qualität des Bildframes Anforderungen, der zweite Zähler zählt die zweite Anzahl des Bildframes, dessen Qualität Anforderungen erfüllt. Wenn die zweite Anzahl des Bildframes mit der Qualität, die Anforderungen erfüllt, ein zweites Maximum Nmax2 überschreitet, fährt die Ausführung mit Schritt S37 fort, oder die Ausführung geht zu Schritt S35 zurück.
  • Bei Schritt S37 wird der erste Zähler abgeglichen bzw. zurückgesetzt.
  • Bei Schritt S38 werden Bewegungen des optischen Navigationssensors durch den Bildframe geschätzt.
  • Obwohl die vorliegende Erfindung in ihrer bevorzugten Ausführungsform beschrieben wurde, wird nicht beabsichtigt, die Erfindung auf diese hier offenbarte, präzise Ausführungsform einzuschränken. Der Fachmann kann immer noch verschiedene Alternativen oder Modifikationen machen, ohne das Wesen und den Schutzumfang dieser Erfindung zu verlassen. Der Schutzumfang der vorliegenden Erfindung soll deshalb durch die folgenden Ansprüche und ihre Äquivalente definiert und geschützt werden.

Claims (8)

  1. Verfahren zur Echtzeit-Bildqualifikation, insbesondere für einen optischen Navigationssensor, umfassend: Bestimmen, dass ein Bildpunkt in einer Dimension eines Frames ein oberer Helligkeitsspitzenwert ist, wenn Bildpunkte von zwei Seiten der Dimension eine geringere Helligkeit als Bildpunkt aufweisen; Bestimmen, dass ein Bildpunkt in einer Dimension eines Frames ein unterer Helligkeitsspitzenwert ist, wenn Bildpunkte von zwei Seiten der Dimension eine größere Helligkeit als der Bildpunkt aufweisen; Bestimmen, dass ein Bildpunkt an einem Rand einer Dimension des Frames kein oberer Spitzenwert ist, selbst wenn der Bildpunkt eine maximale Helligkeit aufweist; Bestimmen, dass ein Bildpunkt an einem Rand einer Dimension des Frames kein unterer Spitzenwert ist, selbst wenn der Bildpunkt eine minimale Helligkeit aufweist; und Bestimmen, dass der Frame ein guter Frame ist, wenn eine Anzahl der Spitzenwerte des Frames Anforderungen genügt, oder Bestimmen, dass der Frame ein schlechter Frame ist; wobei ein guter Frame zum Bestimmen von Bewegungen des Frames verwendet wird, und ein schlechter Frame nicht zum Bestimmten von Bewegungen des Frames verwendet wird.
  2. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, wobei die Anzahl der Spitzenwerte des Frames eine Anzahl der oberen Spitzenwerte oder eine Anzahl der unteren Spitzenwerte ist.
  3. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem die Anzahl der Spitzenwerte des Frames eine Anzahl der oberen Spitzenwerte einer Dimension des Frames oder eine Anzahl der unteren Spitzenwerte einer Dimension des Frames ist; und wobei, wenn wenigstens eine Spalte von Bildpunkten des Frames eine größere Anzahl der Spitzenwerte des Frames als eine kritische Anzahl der Spitzenwerte aufweist, bestimmt wird, dass der Frame Anforderungen genügt.
  4. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem die Anzahl der Spitzenwerte des Frames eine Anzahl der oberen Spitzenwerte einer Dimension eines Frames oder eine Anzahl der unteren Spitzenwerte einer Dimension des Frames ist; und wobei, wenn wenigstens eine Zeile von Bildpunkten des Frames eine größere Anzahl der Spitzenwerte des Frames als eine kritische Anzahl der Spitzenwerte aufweist, bestimmt wird, dass der Frame Anforderungen genügt.
  5. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem die Anzahl der Spitzenwerte einer Dimension des Frames eine Anzahl der oberen Spitzenwerte einer Dimension des Frames oder eine Anzahl der unteren Spitzenwerte der Dimension des Frames ist; und wobei, wenn jede Zeile von Bildpunkten des Frames eine größere Anzahl der Spitzenwerte des Frames als eine kritische Anzahl der Spitzenwerte aufweist, bestimmt wird, dass der Frame Anforderungen genügt.
  6. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem die Anzahl der Spitzenwerte des Frames eine Anzahl der oberen Spitzenwerte einer Dimension des Frames oder eine Anzahl der unteren Spitzenwerte einer Dimension des Frames ist; und wobei, wenn jede Spalte von Bildpunkten des Frames eine größere Anzahl der Spitzenwerte einer Dimension des Frames als eine kritische Anzahl der Spitzenwerte aufweist, bestimmt wird, dass der Frame Anforderungen genügt.
  7. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem der gute Frame zum Bestimmen von Bewegungen des Frames und Ausgeben der Bewegungen verwendet wird; und die durch den schlechten Frame bestimmten Bewegungen nicht ausgegeben werden.
  8. Verfahren zur Echtzeit-Bildqualifikation gemäß Anspruch 1, bei dem der gute Frame zum Bestimmen von Bewegungen des Frames verwendet wird und die Bewegungen ausgegeben werden; und wenn ein schlechter Frame bestimmt wird, prädiktive Bewegungen gemäß den vorhergehenden Bewegungen ausgegeben werden.
DE2003101484 2002-04-16 2003-01-16 Bildqualifikation für einen optischen Navigationssensor Expired - Lifetime DE10301484B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW91107727A TW526662B (en) 2002-04-16 2002-04-16 Method to determine the image quality in real time
TW91107727 2002-04-16

Publications (2)

Publication Number Publication Date
DE10301484A1 DE10301484A1 (de) 2003-11-13
DE10301484B4 true DE10301484B4 (de) 2006-08-31

Family

ID=28451412

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2003101484 Expired - Lifetime DE10301484B4 (de) 2002-04-16 2003-01-16 Bildqualifikation für einen optischen Navigationssensor

Country Status (3)

Country Link
JP (1) JP2003317104A (de)
DE (1) DE10301484B4 (de)
TW (1) TW526662B (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4251157A (en) * 1978-07-20 1981-02-17 Agfa-Gevaert, A.G. Apparatus for selecting originals for copying

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4251157A (en) * 1978-07-20 1981-02-17 Agfa-Gevaert, A.G. Apparatus for selecting originals for copying

Also Published As

Publication number Publication date
TW526662B (en) 2003-04-01
JP2003317104A (ja) 2003-11-07
DE10301484A1 (de) 2003-11-13

Similar Documents

Publication Publication Date Title
DE102007005219B4 (de) Erkennung von bewegtem interlaced Text für Filmmode-Abklärung
DE4318140C2 (de) Verfahren zur Zuordnung der einkoppelseitigen Enden der einzelnen Lichtleitfasern eines Lichtleiterbündels zu den auskoppelseitigen Enden dieser Lichtleitfasern
EP2276585B1 (de) Verfahren zum optischen detektieren von bewegten objekten
EP1432231A2 (de) Einrichtung und Verfahren zur störungsarmen Aufnahme von hochaufgelösten zweidimensionalen Bildern
DE3427658A1 (de) Positionssteuervorrichtung
EP1742041A1 (de) Kostengünstige multi-sensorielle Oberflächeninspektion
DE102013212495A1 (de) Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs
DE69029429T2 (de) Binäres Bildreduzierungsverfahren
DE60018684T2 (de) Detektion von wiederholten und eingefrorenen Bildern in einem Videosignal
DE4102587A1 (de) Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung
DE60024535T2 (de) Verfahren zur Zeichentrennung
EP3247990B1 (de) Verfahren und vorrichtung zur ermittlung der wirkung von wirkstoffen an nematoden und anderen organismen in wässrigen tests
DE3905234C2 (de)
DE19843919B4 (de) Verfahren zum Einblenden von Nebenbildern in ein Hauptbild
DE2517008A1 (de) Vorrichtung zur dynamischen sichtbarmachung der verteilung der auflagedrucke der fussohle
DE69205811T2 (de) Verfahren zur Bildanalyse.
DE10301484B4 (de) Bildqualifikation für einen optischen Navigationssensor
WO2006105949A2 (de) Verfahren zur ermittlung der belegung eines raumes
DE2935312C2 (de)
DE10142457B4 (de) Digitale Bildmessung retroreflektierender Marken
DE102010014733A1 (de) Chromakeyverfahren und Chromakeyvorrichtung zur Aufnahme und Bildbearbeitung von Kamerabildern
EP1397002B1 (de) Gradientengestütztes Verfahren zur Bildpunktinterpolation
DE69112574T2 (de) Anzeigeverfahren und -einrichtung.
EP3316216B1 (de) Verfahren zum prüfen eines gegenstands
DE69531412T2 (de) Bildkodierung beruhend auf Bildbereichen und deren segmentierten Randlinien

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R081 Change of applicant/patentee

Owner name: SAMSUNG ELECTRONICS CO., LTD., SUWON-SI, KR

Free format text: FORMER OWNER: PIXART IMAGING INC., HSIN-CHU, TW

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R071 Expiry of right