DE69320014T3 - Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen - Google Patents

Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen Download PDF

Info

Publication number
DE69320014T3
DE69320014T3 DE69320014T DE69320014T DE69320014T3 DE 69320014 T3 DE69320014 T3 DE 69320014T3 DE 69320014 T DE69320014 T DE 69320014T DE 69320014 T DE69320014 T DE 69320014T DE 69320014 T3 DE69320014 T3 DE 69320014T3
Authority
DE
Germany
Prior art keywords
lens
edge
pixel
pixels
picture elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69320014T
Other languages
English (en)
Other versions
DE69320014T2 (de
DE69320014D1 (de
Inventor
James A. Jacksonville Ebel
Peter Knoxville Sites
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Johnson and Johnson Vision Care Inc
Original Assignee
Johnson and Johnson Vision Products Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=25539896&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE69320014(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Johnson and Johnson Vision Products Inc filed Critical Johnson and Johnson Vision Products Inc
Application granted granted Critical
Publication of DE69320014D1 publication Critical patent/DE69320014D1/de
Publication of DE69320014T2 publication Critical patent/DE69320014T2/de
Publication of DE69320014T3 publication Critical patent/DE69320014T3/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/0278Detecting defects of the object to be tested, e.g. scratches or dust
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0242Testing optical properties by measuring geometrical properties or aberrations
    • G01M11/025Testing optical properties by measuring geometrical properties or aberrations by determining the shape of the object to be tested

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Eyeglasses (AREA)
  • Image Analysis (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Image Processing (AREA)
  • Prostheses (AREA)
  • Pharmaceuticals Containing Other Organic And Inorganic Compounds (AREA)
  • Acyclic And Carbocyclic Compounds In Medicinal Compositions (AREA)
  • Eye Examination Apparatus (AREA)

Description

  • Hintergrund der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur automatischen Inspektion von ophthalmischen Linsen und insbesondere ophthalmischen Linsen, wie zum Beispiel Hydrogel-Kontaktlinsen, deren Aufbau aus einem wesentlichen Wasseranteil besteht, obwohl das Verfahren auch zur Inspektion von anderen kleinen hochpräzisen ophthalmischen Linsen, wie zum Beispiel Augenlinsen, geeignet ist.
  • Aufgrund der kritischen Beschaffenheit von ophthalmischen Linsen (die zum korrekten Sehen auf oder in dem menschlichen Auge verwendet werden) ist es in der Industrie für ophthalmische Linsen extrem wichtig und äußerst vorrangig, daß derartige Linsen überprüft werden, um sicher zu sein, daß sie die geforderten Eigenschaften aufweisen. Diese Anforderungen erstrecken sich nicht nur auf die optischen Eigenschaften der Linse, das heißt, die optische Brechkraft, sondern auch die physikalischen Eigenschaften, wie zum Beispiel Abmessung, Krümmung, Unversehrtheit der Kante und Fehlen von Blasen, Einschlüssen und anderen Fehlern.
  • Bis jetzt bestand das zuverlässigste Verfahren zur Inspektion derartiger Linsen darin, daß ein menschlicher Prüfer jede Linse in einem vergrößerten Maßstab betrachtet, um zu verifizieren, daß die Linse jede der geforderten Eigenschaften erfüllt. Da die Industrie für ophthalmische Linsen gewachsen ist, hat eine derartige Inspektion der Industrie eine große Personal- und Kostenlast auferlegt und erfordert sie eine langweilige Aufgabe seitens des Prüfers. Insbesondere im Hinblick auf Kontaktlinsen, die für einen periodischen häufigen Austausch vorgesehen sind, nahm die Anzahl von Linsen, die hergestellt und somit geprüft werden müssen, dramatisch zu.
  • Ein mit der Inspektion von ophthalmischen Linsen verbundenes Problem besteht darin, daß die Linse selbst optisch transparent ist und somit nicht die üblichen hellen und dunklen Merkmale aufweist, die bei der Inspektion von üblicheren Gegenständen vorliegen.
  • Gegenwärtige von Menschen durchgeführte Inspektionsverfahren verwenden das auf dem Gebiet gut bekannte Schlieren-Verfahren mit Dunkelfeldbeleuchtung insbesondere zur Untersuchung von transparenten Flüssigkeitsströmungen und Inspektion von optischen Komponenten. Bei diesem Verfahren wird Licht von einer Punktquelle von einer Linse kollimiert, das dann durch das Medium (d.h. Linse) der Untersuchung tritt. Das Licht wird dann von einer zweiten Linse direkt auf eine Messerkante fokussiert. Irgendwelches von einer brechenden Ungleichmäßigkeit in der Linse (wenn auch transparent) abgelenktes Licht wird nicht an der Messerkante fokussiert. Das auf diese Weise von der Unterbrechung durch die Messerkante abgelenkte Licht wird dann von einer Objektlinse auf einen Schirm projiziert, und es tritt dann ein Lichtfleck auf dem ansonsten dunklen Projektionsschirm auf, der der Ungleichförmigkeit entspricht.
  • Ein weiteres für die Inspektion von ophthalmischen Linsen eigentümliches Problem besteht darin, daß, während die Größe der Linse um einen bestimmten Betrag von einer Nennabmessung variieren kann, die Größe von akzeptierbaren Fehlern, wie zum Beispiel Kerben in der Kante oder Blasen in der Mitte, nicht akzeptierbar ist, selbst wenn sie zwei Größenordnungen geringer als die erlaubte Abweichung der Nennabmessung ist. Die normalen Verfahren zur automatischen Inspektion, bei denen einen Schablone oder Maske auf dem zu überprüfenden Bild plaziert und dann mit dem Bild verglichen wird, sind nicht für die Inspektion von ophthalmischen Linsen geeignet, da die Fehler, nach denen mittels der Inspektion gesucht wird, um einen Faktor einhundert kleiner als eine zulässige Abweichung in der Nennabmessung der Linse sein können.
  • Es ist somit eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zur automatischen Hochgeschwindigkeitsinspektion von ophthalmischen Linsen mit einem Genauigkeitsgrad in der Größenordnung der Genauigkeit bei der menschlichen Inspektion unter Vergrößerung bereitzustellen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, die oben genannte Inspektion unter Verwendung einer leicht verfügbaren Video-Ausrüstung, elektronischen Komponenten und Rechensystemen zu bewerkstelligen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, bestimmen zu können, ob eine Linse in der Produktionsstraße fehlt.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, die Bildanalyse auf den Teil der Linse zu konzentrieren, der für Produktionsfehler am anfälligsten ist.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, Linsenmerkmale, die auf der Linse vor dem Lokalisieren der Linsenkante gefunden worden sind, zu analysieren und zu bestimmen, ob ein derartiges Merkmal einen Fehler darstellt, der die Linse fehlerhaft macht.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, irgendwelche an der Linsenkante aufgefundene Unstetigkeiten zu überbrücken, so daß kleinere Linsenfehler und Bildverarbeitungsausfälle den Inspektionsvorgang für eine spezielle Linse nicht nutzlos machen, was zu der Zurückweisung der guten Linse führt.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, Merkmalsabweichungen entsprechend Kategorien zu kategorisieren, um die in den Linsen aufgefundenen Fehler zu katalogisieren und dadurch Informationen über den Herstellvorgang zu liefern.
  • In EP-A-0491663 wird ein Verfahren (und entsprechende Vorrichtung) zur optischen Untersuchung von Kontaktlinsen offenbart, das die Schritte des Beleuchtens einer Linse, Erstellen eines Bildes der Linse auf einem Satz von Bildelementen, Umwandeln des Bildes in Binärinformation, Zählen der Anzahl von beleuchteten Bildelementen und Vergleichen der Anzahl von Bildelementen mit einer vorab bestimmten Anzahl von Bildelementen zur Bestimmung des Ausmaßes von Fehlern in der Linse umfaßt.
  • Gemäß der vorliegenden Erfindung wird ein Verfahren und eine Vorrichtung zur Inspektion von ophthalmischen Linsen gemäß den nachfolgenden Ansprüchen 1 und 22 bereitgestellt.
  • Diese und weitere Aufgaben werden erzielt, indem eine elektronische Kamera ein Bild einer ophthalmischen Linse, die von einer Lichtquelle beleuchtet worden ist, erfaßt. Das Bild fällt auf den Empfängerteil einer Kamera; dieser Empfänger besteht aus mehreren Bildelementen. Der Ort und die darauf einfallende Lichtintensität jedes Bildelementes wird in eine elektrische Größe umgewandelt, die dann übertragen und in einem Speicher gespeichert wird. Ein Computer ist mit dem Speicher betriebsfähig verbunden und kann sowohl die darin gespeicherten Orts- als auch Intensitätswerte wiederauffinden. Der Computer enthält Anweisungen zum Vergleich der Intensitäts- und Ortswerte der Bildelemente.
  • In einer bevorzugten Ausführungsform umfaßt dieser Vergleich den Beginn an einem Bildelement in der Nähe der Mitte des Empfängerfeldes und Fortsetzen in Richtung zu der Kante des Bildelementfeldes, bis eine Intensitätsabweichung auftritt. Durch Auswerten der das mittlere Bildelement mit der Intensitätsvariation umgebenden Bildelemente, Auffinden der dichtesten Übereinstimmung mit dem Bildelement, dann Wiederholen der Prozedur, werden die Merkmale im groben erhalten. Wenn die Charakteristiken des Merkmals nicht mit einer Linsenkante übereinstimmen, wird das Merkmal zur Bestimmung ausgewertet, ob die Linse zurückgewiesen werden sollte. Wenn das Merkmal nicht der Linsenkante entspricht, werden die Charakteristiken der Kante zur Bestimmung ausgewertet, ob die Kante und dadurch die Linse akzeptabel ist.
  • In einer bevorzugten Ausführungsform wird dies durch Absuchen um den Kantenort bewerkstelligt, bis näherungsweise 30 Datenpunkte in 12°-Intervallen aufgefunden worden sind. Es werden dann drei gekoppelte Gleichungen für zehn Gruppen mit 3 Punkten gelöst, um den durchschnittlichen Mittelpunkt der Linse und den durchschnittlichen Radius zu vermitteln. Damit wird unter Verwendung der Mittelpunkt- und Radiusdaten ein Kreisring erzeugt. Die Grenzen dieses Kreisringes umschließen die tatsächliche Linsenkante. Mit diesem Kreisring werden alle Bildelemente von einem absoluten Intensitätswert in einen Gradientenwert umgewandelt, wodurch die Linsenkante durch zwei Übergangskanten, eine von der Innen- und eine von der Außenseite der Kontaktlinsenkante, wiedergegeben werden kann. Diese zwei Kanten werden dann dünner gemacht, so daß nur die Maximalintensitätsbildelemente entlang der Kante übrigbleiben. Die Linsenkanten werden dann von einem XY-System in ein polares System umgewandelt, wodurch Werte für den Radius, Winkel und Intensitätsgradienten erhalten werden. Die Merkmalsextraktion wird dann auf diesen zwei Datenmatrizen durchgeführt. Diese Merkmalsextraktion umfaßt eine Suche nach der radialen Abweichung, Ortsgradientenabweichung, räumlichen Abweichung, DIP-Ortsgradientenabweichung, Einende-Ortsgradientenabweichung und Unstetigkeit. Nach Vornahme dieser Bildelementwertbestimmungen wird jedes fehlerhafte Bildelement als Mitglied einer Fehlergruppe angesehen. Nach separatem Gruppieren sowohl der inneren als auch der äußeren Umrisse der Linsenkante fallen diejenigen Gruppen, die sich auf beiden Seiten der Linsenkante in einem Gebiet der Linse überlappen, in Kombinationsfehlergruppen. Wenn die Gruppen bestimmt worden sind, erhält jede Gruppe auf der Grundlage der Anzahl, Art und Schwere der der Gruppe zugeordneten fehlerhaften Bildelemente Punkte. Damit kann der gesamten Linse eine gewichtete Punktzahl gegeben werden, und basierend auf dieser Punktzahl gelangt die Linse entweder durch die Inspektion oder fällt sie hindurch.
  • Beschreibung der Zeichnungen
  • 1 ist ein Blockdiagramm, das die zu der vorliegenden Erfindung gehörigen physikalischen Komponenten, die Art, in der sie miteinander verbunden sind, sowie die Lichtquelle und die zu prüfende Linse zeigt.
  • 2 ist ein Flußdiagramm, das die von der Vorrichtung der vorliegenden Erfindung zur Abbildung der Linse und Verarbeitung des Bildes zur Bestimmung der Akzeptierbarkeit der Linse durchgeführten Schritte zeigt.
  • 3 ist ein Diagramm, das die von dem Algorithmus gemäß der vorliegenden Erfindung zum Lokalisieren der Linse auf einem Bild verwendete Technik zeigt.
  • 4 ist eine Darstellung der Weise, in der Datenpunkte um einen Linsenkante in Dreiersätzen gesammelt werden.
  • 5 ist ein Beispiel des Verfahrens, durch das Mittelpunkt und Radius zur Bewertung der Linsenkante anhand der vorangehend erzielten Datenpunkte bestimmt werden.
  • 6 ist eine Darstellung eines Bearbeitungskreisringes, der um die vorher abgeleitete theoretische Kontaktlinsenkante erzeugt ist.
  • 7 ist eine Darstellung der Ergebnisse des Kantenverstärkungsoperators, der zwei Übergänge zu der Linsenkante liefert, die eine Innenkante und eine Außenkante liefern.
  • 8 ist eine Darstellung der verschiedenen Bereiche, in die die Linse unterteilt ist, um Kantenoperatoren mit unterschiedlichen Richtungen zu benutzen.
  • 9 ist ein Diagramm, das die von den in dem Algorithmus der vorliegenden Erfindung verwendeten Gleichungen zur Bezeichnung von unterschiedlichen Bildelementorten verwendete Notation zeigt.
  • 10 ist ein Diagramm, das die für die Winkelnotation in einem Linsenbild verwendete Konvention zeigt.
  • 11 ist eine Darstellung von unterschiedlichen Ergebnissen, die aus der Anwendung von Suchvektoren zum Lokalisieren der Linse innerhalb des Bearbeitungskreisringes resultieren.
  • 12 zeigt in 12a die rechtwinkligen Koordinaten und in 12b Polarkoordinaten, eine Unstetigkeit in einem verstärkten Linsenbild und die Bildelementverarbeitung, die zum Detektieren einer Unstetigkeit durchgeführt wird.
  • 13 zeigt in rechtwinkligen Koordinaten in 13a und in Polarkoordinaten in 13b eine Darstellung der Überbrückung eines fragmentierten Bereichs einer Linse. Das anfängliche Überbrücken verwendet eine Extrapolationstechnik, während das letzte Überbrücken eine Sprungtechnik verwendet.
  • 14 ist eine Darstellung der Bewertung der radialen Abweichung der Linsenkante, die unter Verwendung der Bildelementverarbeitung durchgeführt wird, wobei 14a in rechtwinkligen Koordinaten und 14b in Polarkoordinaten vorliegt.
  • 15 zeigt die Beziehung des interessierenden Bildelements und seines Nachbarn für einen Gradienten.
  • 16 zeigt in rechtwinkligen Koordinaten in 16a und Polarkoordinaten in 16b die aus der Bildelementverarbeitung abgeleitete Gradientenextraktion.
  • 17 zeigt in 17a im rechtwinkligen System und in 17b in Polarkoordinaten das Verfahren, mit dem die Merkmale der räumlichen Ableitung anhand der Linsenkanten extrahiert werden.
  • Beschreibung der bevorzugten Ausführungsform
  • Die Implementierung der vorliegenden Erfindung gilt nicht speziell für irgendein besonderes Hardwaresystem und kann durch eine Anzahl von Software-Schemata vorgenommen werden. Das folgende ist jedoch ein spezielles Beispiel für die beste Ausführungsform.
  • Unter Bezugnahme auf 1a besteht das System der vorliegenden Erfindung aus einem Aufbau (nicht gezeigt), der eine Kontaktlinsenverpackung 10, die eine Kontaktlinse 12 enthält, in entionisiertem Wasser enthalt, über einer Lichtquelle 14 und unter einer Kamera 16 hält.
  • Eine ausführlichere Beschreibung der bevorzugten Ausführungsform der Linsenverpackung ist in der gleichzeitig anhängigen EP-A-0 604 177 enthalten, die gleichzeitig mit dieser Anmeldung eingereicht worden ist.
  • Die Kamera 16 ist eine hochauflösende Festkörperkamera, wie die von Kodak, Rochester (New York) hergestellte Videk MegaPlus®-Kamera.
  • Diese Kamera umfaßt eine Linse 18, und in dieser Ausführungsform ist die Linse auf ein 14,5 Millimeter-Sehfeld eingestellt. Die Kamera war mit einer Nikkor 55 Millimeter-Standardlinse ausgestattet. Die Linse wurde auf f/2,8 eingestellt, dann an einem Andover-Bandpassfilter mit dem Wellenlängenschwerpunkt bei 550 nm und einer Vollwellenhalbwertsbreite (FWHH) von 10 nm an der Seite der Kameralinse angebracht. Ein derartiges Filter hält chromatische Aberrationen fern, um dadurch die gesamte räumliche Auflösung zu verbessern, und hält eine Tagesempfindlichkeit für die Linseninspektion aufrecht, die der Augenempfindlichkeit eines menschlichen Prüfers ähnelt. Dieses Filter 22 entfernt auch Infrarotlicht an dem CCD-Detektor, das die Gesamtsystemmodulationsübertragungsfunktion (MTF) vermindern würde.
  • Unter der Verpackung, die die Linse in entionisiertem Wasser enthält, befindet sich ein optischer Diffusor 13 aus überfangenem Milchglas und darunter befindet sich eine Lichtquelle, wie zum Beispiel ein Stroboskoplicht 14. Die Stroboskoplampe kann einen 10 Mikrosekunden-Lichtimpuls mit 5 Joule abgeben, der von dem Bildverarbeitungssystem gezündet wird. Typischerweise benötigt das Stroboskop zum Wiederaufladen zwischen zwei Pulsen eine Erholungszeit von 450 Millisekunden.
  • Eine ausführlichere Beschreibung der bevorzugten Ausführungsform des Beleuchtungssystems ist in der dazu anhängigen Europäischen Patentanmeldung EP-A-0604 178 gegeben, die gleichzeitig mit der vorliegenden Anmeldung eingereicht worden ist.
  • Die Kamera 16 wird von einem präzisen Spindelantrieb fokussiert, der die Kamera an dem Rahmen, an dem sie befestigt ist, hinauf- und hinunterbewegt. Wenn die Kamera fokussiert ist, bleibt sie während der Durchführung des Inspektionsvorgangs stationär.
  • Die Kamera umfaßt weiterhin einen CCD(charged coupled device)-Sensor, der als ein Lichtempfänger dient. Dieser CCD-Empfänger besteht aus einer Matrix von Bildelementen in einer rechteckigen Anordnung, 1.320 × 1.035.
  • Der CCD-Sensor-Empfänger der Kamera wandelt die Lichtintensität in ein elektrisches Signal um. Dieses analoge elektrische Signal wird dann von einem Schaltkreis 24 mittels eines 8 Bit-Analog/Digital(A/D)-Wandlers von einem analogen in ein digitales Videoausgangssignal mit 256 Graustufen umgewandelt.
  • Die Kamera wird unter Verwendung eines von der Linse und der sich an den richtigen Ort bewegenden Verpackung erzeugten Signals asynchron betrieben, um sowohl die Zündung des Stroboskops als auch die nachfolgende Übertragung des Bildes anzusteuern.
  • Eine ausführlichere Beschreibung der bevorzugten Ausführungsform des Linsentransportsystems und -palettensystems mit Beleuchtungsansteuerung wird in den dazu anhängigen Europäischen Patentanmeldungen EP-A-0604 180 und EP-A-0604175 gegeben, die gleichzeitig mit der vorliegenden Anmeldung eingereicht worden sind.
  • Das Bild wird über Schaltkreise in der Kamera 24 zu dem Eingabemodul 26 des Bildverarbeitungssystems übertragen. Das Bildverarbeitungssystem besteht aus drei Teilen, dem Eingabemodul 26, dem CPU-Modul 28 und dem Abbildungs-Motherboard 30.
  • Das digitale Signal in dem Eingabemodul 26 wird zur Sicherstellung, daß jede Zeile ein entsprechendes Videosynchronisiersignal aufweist, verarbeitet. Das korrigierte digitale Signal wird dann einem Video-Multiplexer 34 zugeführt, der das digitalisierte Signal zu dem CPU-Modul 28 überträgt.
  • Dieser Datensatz, der ein Videobild (oder bei der speziell beschriebenen Kamera 1.048.576 Bildpunkte) darstellt, ist über Videobusse 36 zugängig, die eine Übergabe an eine andere Verarbeitungs-Hardware erlauben. Das Bild wird auch unter Verwendung eines Video-Bildwiederholspeicher-D/A-Wandlers (RAMDAC) 38 dargestellt, das danach von einem Wandler 40 in eine Pseudofarbausgabe umgewandelt und über einen RGB-Ausgang 42 zu einem Video bildschirm 44 übertragen werden kann, wo ein Bild dargestellt werden kann. Der RGB-Pseudovideofarbausgang wird von drei Referenztabellen (look-up tables (LUTs)) bereitgestellt.
  • Die Eingabe in das CPU-Modul 28 wird in dem dritten Beispiel als erstes zu einem Bildspeicher 46 mit näherungsweise einem Megabyte übertragen. Die in dem Bildspeicher 46 gespeicherten Daten werden von einer Bildabfolgesteuerung der Reihe nach zu Verarbeitungseinheiten 48 übertragen.
  • Die Verarbeitung der Daten wird von einer Motorola 68040-CPU durchgeführt.
  • Der erforderliche Bildverarbeitungscode wird in einem löschbaren, programmierbaren Festwertspeicher EPROM 52 gespeichert. Die Ergebnisse des verarbeiteten Bildes werden dann für eine geeignete Ausgabesteuerung dem Abbildungs-Motherboard 30 bereitgestellt. Die Ausgabe kann entweder über digitale parallele 16 Bit-Eingänge/Ausgänge 60 oder über serielle RS 232- oder RS 422-Anschlüsse 62 erfolgen.
  • Die von dem Prozessor vorgenommene Annahme/Rückweisungs-Entscheidung wird dem Übertragungsmechanismus 66 mitgeteilt, der dann anordnet, daß die Linse 12 entweder durch Verpacken und Sterilisieren weiterbearbeitet oder als durchgefallene Linse zerstört wird.
  • Unter Bezugnahme auf 2 wird der durch die in 1 gezeigte Vorrichtung implementierte Prüfungsvorgang in Blockdiagrammform und der von dem CPU-Modul 28 durchgeführte Prüfungsalgorithmus ausführlicher gezeigt.
  • In dem ersten Schritt wird von der Kamera ein Rohbild erfaßt und dem Bildverarbeitungssystem zugeführt. Das Bild, das in einen Strom von digitalen Daten umgewandelt ist, enthält einen Algorithmus zur Korrektur von bekannten fehlerhaften Bildelementen in der Kamera.
  • Der Preis einer hochauflösenden Kamera hängt von der Anzahl von in dem CCD-Sensor-Empfänger 20 zulässigen fehlerhaften Bildelementen ab. Diese umfassen in erster Linie Bildelemente, deren Lichtempfindlichkeit um 10% oder mehr von ihren Nachbarbildelementen abweicht, und Pakete derartiger Elemente in Gruppen von 5 oder weniger.
  • Da die Anzahl von fehlerhaften Bildelementen sogar bei der preiswertesten Klasse von Kameras begrenzt ist und die Anzahl von zusammengepackten derartigen Bildelementen begrenzt ist, kann auch eine kostengünstige Kamera für die Linsenprüfung verwendet werden.
  • Der in der Videk MegaPlus-Kamera verwendete CCD-Sensor enthält eine Anzahl von spaltenartigen Fehlern. Diese Fehler sind üblicherweise auf eine einzige Spalte beschränkt und können sich über mehrere Bildelemente bis zu 50 oder mehr Bildelemente erstrecken. Diese fehlerhaften Gebiete führen dazu, daß die Bildelementgraustufen unabhängig von der abgebildeten Szene höher oder niedriger als die Nachbarbildelemente sind. Wenn diese Fehler an oder nahe bei der Linsenkante auftreten, können sie fälschlicherweise dazu führen, daß die Software sie als Fehler oder Unstetigkeiten in der Linse interpretiert.
  • Fehlerhafte Gebiete werden durch manuelles Absuchen eines Bildes eines gleichförmiges Testobjektes nach Gebieten bestimmt, in denen die Graustufenwerte unerwartet abweichen. Da die Fehler auf eine einzige Spalte beschränkt sind, führt eine Interpolation zwischen benachbarten Spalten zu einer adäquaten Korrektur. Die Interpolation von spaltenartigen Fehlern stellt sich als der Mittelwert der Graustufenwerte der Spalten auf jeder Seite des Fehlers heraus. Der Sensor der verwendeten Kamera kann auch paketartige Fehler enthalten, die die Form kreisrunder Kleckse annehmen. Dieser Fehlerart kann entweder durch Bringen derselben in ein Gebiet, das nicht die Bildverarbeitung stören würde, oder unter Verwendung der oben genannten selben Interpolationstechnik begegnet werden.
  • Nachdem die oben beschriebene Korrektur für bekannte fehlerhafte Kamerabildelemente durchgeführt worden ist, wird die Linse durch Identifizieren der Linsenkante in dem Bildfeld angeordnet. Nach Durchführung eines Versuches zum Lokalisieren der Linsenkante wird eine Entscheidung getroffen, ob die Linse sich tatsächlich in dem Behälter befindet oder ob der Behälter keine Linse aufweist. Wenn der Behälter keine Linse aufweist, wird eine durchgefallene Linse angenommen, so daß eine leere Verpackung nicht verarbeitet und nicht zu dem Verbraucher geschickt wird.
  • Nachdem nachgewiesen worden ist, daß eine Linsenkante vorhanden ist, werden Daten im Hinblick auf den Ort von Punkten um die Linsenkante gesammelt. Diese Daten werden zur Erstellung einer Anzahl von Kantentripletts verwendet, die einen Kreis und einen Kreismittelpunkt definieren. Die Mitte mit der größten Entfernung von der durchschnittlichen Mitte wird zur Eliminierung von unfundierten Daten verworfen.
  • Außer den Kantentripletts, die zum Definieren des Ortes der Kante und des Linsenmittelpunktes verwendet werden, ist zu diesem Zeitpunkt keine spezielle Kanteninformation erzielt worden.
  • Um die Kanten tatsächlich zu überprüfen, werden die berechneten Mittelpunkte zum Erzeugen eines Verarbeitungskreisringes verwendet, der die darin befindliche tatsächliche Kontaktlinse enthält. Dies ermöglicht es, daß die weitere ausführliche Datenverarbeitung auf nur den die interessierende Kante enthaltenden Kreisring konzentriert wird.
  • Um die Linsenkante vom Hintergrund zu unterscheiden, wird auf die Bildelemente in dem Verarbeitungskreisring ein Kantenverstärkungsoperator angewandt. Diese Kantenverstärkung liefert zwei Linsenübergangskanten. Eine erstreckt sich von der Innenseite der Linse zu der Kante und die zweite von der Außenseite der Linse in die Kante.
  • Obwohl zu diesem Zeitpunkt nur Kanteninformationen zurückbleiben, sind die zwei Kanten (die tatsächlich Kantenübergänge sind) weiterhin etwas verschwommen, wobei ein Intensitätsgradient in die Kante hinein- und von dort herausgeht. Um diese Übergangskanten genauer zu definieren, wird an den in dem Verarbeitungskreisring enthaltenen Kantendaten eine modifizierte Skelettier (modified skeletonization)-Operation durchgeführt. Von dem Skelettieroperator werden Graustufeninformationen erhalten, da er für eine Merkmalsextraktion nützliche Informationen enthält.
  • Der nächste in dem Algorithmus vorgenommene Schritt besteht in der Anwendung eines Schwellenwertoperators, der Graustufeninformationen eliminiert, die über die bei der Merkmalsextraktion nützlichen hinausgehen.
  • Der nächste von dem Algorithmus durchgeführte Schritt besteht in dem Absuchen der inneren und äußeren Kanten, um Linsenkantenmerkmale zu extrahieren. Dieses Absuchen wird in einer zu der anfänglichen Lokalisierung der Linsenkante ähnlichen Weise begonnen; sie unterscheidet sich jedoch darin, daß zum Lokalisieren der Linsenkante bei der Suche von der inneren Grenze des Verarbeitungskreisringes nach außen Graustufenkriterien verwendet werden. Wenn auf ein Bildelement, das die Graustufenschwellenwertkriterien erfüllt, getroffen wird, werden eine Reihe von Nebenbildelementen abgesucht, um zu bestimmen, ob es sich um die Linsenkante handelt. Wenn dies so ist, wird die Linsenkante um die gesamte Kante verfolgt und werden die Orte und die entsprechenden Bildelementintensitätsgradienten gespeichert.
  • Die rechtwinklige Koordinateninformation wird dann in Radial- und Winkelverschiebungswerte in dem polaren System umgewandelt und mit dem zugehörigen Intensitätsgradientenwert verbunden. Um die Daten richtig zu verarbeiten und nicht fälschlicherweise gute Linsen zurückzuweisen, werden Unstetigkeiten unter einer bestimmten Anzahl von Bildelementen nicht überbrückt.
  • Mit der nun in Polarkoordinaten verfügbaren Information werden vier Arten von Merkmalsextraktionen durchgeführt. Die erste besteht in der Bestimmung von radialen Abweichungen (Radial Deviations (RD)) von idealen inneren und äußeren Linsenkanten. Die nächste ist die Ortsgradientenabweichung (Localized Gradient Deviations (LGD)), die den Gradienten des Intensitäts wertes in jedem Bildelement in Bezug auf seine Nachbarn berücksichtigt. Dann wird die Merkmalsextraktion bezüglich der räumlichen Ableitung (Spatial Derivative(SD)) durchgeführt. Die räumliche Ableitung mißt die Änderung des Radius gegenüber der Änderung der Winkelverschiebung. Im Gegensatz zu der Extraktion der radialen Abweichung achtet die Extraktion der räumlichen Ableitung hauptsächlich auf scharfe oder plötzliche Änderungen in dem Kantenradius gegenüber der Änderung in der Winkelverschiebung.
  • Es werden drei abschließende Merkmalsextraktionen durchgeführt. Der Unstetigkeitsfehler ist das Ergebnis einer Unstetigkeit, die in entweder der inneren oder der äußeren Linsenkante so groß ist, daß sie von dem Algorithmus, der diese Unstetigkeiten überbrückt, als nicht korrigierbar erachtet wird.
  • Ähnlich wie das Merkmal der Ortsgradientenabweichung achtet die DIP-Ortsgradientenabweichung (Dip Localized Gradient Deviation (DLGD)) auf den Betrag der Abweichung in dem Gradientenwert des interessierenden Bildelements von dem Mittelwert seiner lokalen Nachbarn. Der Unterschied besteht darin, daß mehr Nachbarn verwendet werden und es einen größeren Spalt von nicht benutzten Bildelementen um das interessierende Bildelement gibt. Die DLGD ist dafür vorgesehen, daß sie nur für Gradientenabweichungen empfindlich ist, die geringer als deren Nachbarn sind, daher der Name "Dip".
  • Das DLGD-Merkmal identifiziert speziell kleine Kantenschnipsel, die durch andere Merkmale nicht identifizierbar sind. Der Betrag der Abweichung eines basierend auf DLGD als fehlerhaft klassifizierten Bildelements wird als ein Zeichen der Schwere gespeichert.
  • Die Einende-Ortsgradientenabweichung (One Tail Localized Gradient Deviation (ALGD)) verwendet Nachbarbildelemente zur Berechnung von Abweichungen von einer Seite des interessierenden Bildelementes. Zum Bestimmen des Nachbarschaftsmittelwertes werden 20 Bildelemente vor dem interessierenden Bildelement verwendet, wobei die vier unmittelbar vor dem interessierenden Bildelement befindlichen Bildelemente ausgenommen sind. ALGD achtet sowohl auf negative als auch auf positive Gradientenabweichungen.
  • Während die oben beschriebenen Merkmalsextraktionsschritte stattfinden, werden jedem der identifizierten Merkmale Punktzahlen zugeordnet, die proportional zur Stärke des Fehlers abgeleitet werden. Zusätzlich werden durch Achten auf abweichende Bildelemente auf sowohl der inneren als auch der äußeren Kante Fehler in Gruppen angeordnet, um zu bestimmen, ob sie Teil eines größeren Fehlers sind, der einer Fehlergruppe zuzuordnen ist. Diese Gruppen werden dann bewertet, um zu sehen, ob sie miteinander kombiniert werden soll ten, um größere Gruppen zu bilden, und ob Innen- und Außenfehlergruppen in Kombination als ein einziger Fehler betrachtet werden sollten.
  • Schließlich erhält jeder Fehler oder jede Fehlergruppe eine Punktzahl, die von der Schwere abhängt, und jede Fehlerart wird entsprechend dem Einfluß, den er auf die Qualität der Linse hat, gewichtet.
  • Diese numerischen Ergebnisse aller Fehler werden dann zum Bereitstellen einer einzigen Zahl addiert, die dann bestimmt, ob die Linse akzeptabel ist oder verworfen werden muß.
  • Zusätzlich kann die von dem Gewichtungs- und Punkteverteilungsvorgang abgeleitete quantitative Information aufgelistet oder angezeigt werden, um eine statistische Qualitätsanalyse der hergestellten Linsen zu liefern und dadurch diejenigen, die das Herstellverfahren steuern, anzuleiten, irgendwelche abweichenden Prozeßparameter zu identifizieren sowie den Einfluß von Änderungen auf das Herstellverfahren abzuschätzen.
  • Die in dem oben beschriebenen Algorithmus durchgeführten Schritte werden nun ausführlicher beschrieben.
  • Unter Bezugnahme auf 3 ist dort das Empfängerfeld 70 gezeigt, das aus einer Anzahl von Bildelementen (nicht gezeigt) besteht. In dem Feld befindet sich das Bild einer Kontaktlinse 72. Bei diesem speziellen Bild besteht die Linse aus einer Kante 74 und Fehlern oder Rauschen 76. In diesem speziellen Linsenbild befindet sich auch ein Spalt in der Kante 78.
  • Die Linsenkante wird mit einem Suchvektor 80 durch Starten von der Mitte des Feldes unter einem 45°-Winkel lokalisiert. Der Suchvektor bewegt sich von der Mitte des Feldes von Bildelement zu Bildelement radial zu einem erwarteten Zusammentreffen mit der Linsenkante weg. Der Algorithmus testet jedes Bildelement entlang des Suchvektors, bis das Kantenkriterium erfüllt ist; jedes Bildelement wird mit einer Graustufe und einem vorab bestimmten kalibrierten Kriterium verglichen. Wenn das gegenwärtige Bildelement in dem Vektor einen Grauwert aufweist, der geringer als der von dem "trk_thres"-Parameter spezifizierte Wert ist, dann wird angenommen, daß auf ein Bildelement auf der Linsenkante gestoßen wurde.
  • Zur Verifizierung, daß das angetroffene Objekt die Linsenkante ist, verfolgt der Vektor dann den Umriß des aufgefundenen Objekts. Im Falle der Suchvektoren 80 und 82 erkennt der Algorithmus, daß die angetroffenen Objekte nicht Teil der Linsenkante sind, da die Krümmung des Weges nicht mit der erwarteten Krümmung oder dem Kreisumfang einer Linsenkante übereinstimmt. Diese Überprüfungstechnik funktioniert sehr einfach durch Bestimmen, ob die Umrißabsuche über das Startbildelement innerhalb einer spezifizierten Anzahl von Bildelementen zurückläuft, und es wird festgestellt, daß es klein genug ist, um Rauschen oder ein Linsenfehler zu sein. Wenn auf ein Rauschobjekt gestoßen wird, dann wird ein weiterer Suchvektor in einer Drehrichtung im Uhrzeigersinn um näherungsweise 11° erzeugt und wird eine ansonsten mit dem ursprünglichen Vektor identische Suche durchgeführt.
  • Es ist ein weiterer Suchvektor 84 gezeigt, der einen Weg zurückgelegt hat, der zu einem Spalt in der Linsenkante 78 führt. Der Suchvektor setzt damit fort, bis er eine Grenze des Empfängerfeldes 70 erreicht, wo die Suche beendet wird und ein weiterer Suchvektor 86 näherungsweise 11° im Uhrzeigersinn von dem vorangehenden Suchvektor 84 beginnt. In jedem Fall wird die Suche Pixel zu Pixel entweder horizontal, vertikal oder diagonal treppenstufenartig zu Nebenbildelementen durchgeführt. Für jede der zwei vorangehenden Arten von angetroffenen Linsenfehlern, entweder Fehler in dem Körper der Linse 76 oder ein Spalt in der Linsenkante 78 können geeignete Kriterien angewandt werden und kann die Linse zurückgewiesen werden.
  • Im Falle des Vektors 86 ist die Suche erfolgreich und wird die Linsenkante 74 gefunden. Eine Verifikation, daß das gefundene Merkmal tatsächlich die Linsenkante ist, ist unter Bezugnahme auf 4 gezeigt.
  • Ausgehend von dem in dem vorangehenden Schritt gefundenen guten Datenpunkt folgt die Software dem Umriß der Linse unter Verwendung einer 4-Verknüpfung-Absuche (4-connectivity tracking) über 90 Bildelemente. In Abhängigkeit von dem tatsächlichen Radius in der Linse r wird die verwendete Absuchstrecke sich von Bild zu Bild unterscheiden basierend auf der Formel: Absuchstrecke ≡ T = (1024/F) × (2 "π" r/30),wobei
  • F
    = 14,5 mm (Sehfeld) ist.
  • Somit beträgt T üblicherweise 90 Bildelemente für eine 12,2 mm-Linse in entionisiertem Wasser. Wenn die Strecke T um die Linsenkante erfolgreich abgeschritten worden ist, wird ein Datenpunkt aufgezeichnet.
  • Somit wird der Ort der Linsenkante verifiziert. Nachdem insgesamt 30 weitere Datenpunkte in 12°-Intervallen aufgefunden worden sind, werden drei gekoppelte Gleichungen für 10 Gruppen mit drei Punkten gelöst, um die definierten Werte des mittleren Mittelpunktes der Linse und des Radius zu bestimmen.
  • In 4 geben die quadratischen, dreieckigen und kreisförmigen Symbole Punkte wieder, an denen Daten erfaßt worden sind. Symbole mit denselben internen Mustern sind in demselben Datensatz erfaßt worden.
  • Die zehn Datensätze werden dann zum Berechnen der Gleichungen für 10 verschiedene Kreise, wobei jeder Kreis ein Modell der Linsenkante darstellt, verwendet. Es wird ein mittlerer Zeilenbildelement- und Spaltenbildelementkreismittelpunkt berechnet. Als nächstes wird die Entfernung von jedem der zehn Kreismittelpunkte zu dem mittleren Mittelpunkt bestimmt. Es wird dann jeder Mittelpunkt mit einer vorab bestimmten Abweichung von dem Mittelpunkt, der als der statistisch häufigste Wert der Verteilung der Mittelpunkte bestimmt worden ist, eliminiert. Diese Eliminierung wird zum Entfernen von zufälligen Linsenkanten, die von an Fehlerstellen erfaßten Daten resultiert haben können, die von der normalen Linsenkante abweichen, durchgeführt. Dies wird in 5 gezeigt, wo ein Mittelpunkt 88 gezeigt ist, der von dem verbleibenden Paket aus neun weiteren Mittelpunkten aufgrund der Linsenkantenaberration 87 abweicht und somit eliminiert wird.
  • Es werden dann Standardabweichungen für die verbleibenden Zeilen- und Spaltenmittelpunkte berechnet und mit einem speziellen Schwellenwert verglichen. Wenn sowohl die Zeilen- als auch Spaltenstandardabweichungen das Schwellenwertkriterium erfüllen, dann ist die Linse gefunden worden. Der in dem Endmodell verwendete Radius ist der Mittelwert der verbleibenden Kreisradien. Wenn eine Standardabweichung herausfällt, dann wird ein neuer Suchfaktor erzeugt. Der Startwinkel dieses neuen Vektors wird von dem vorangehenden Vektor in der Weise gedreht, daß die Daten nicht an denselben Punkten entlang der Linsenkante erfaßt werden. Dieser verschachtelte iterative Vorgang des Lokalisierens einer Linse und Sammelns von Datenpunkten wird für maximal zwei Kreise fortgesetzt. Wenn eine Linse nicht innerhalb dieser Zeit erfolgreich aufgefunden wird, wird davon ausgegangen, daß die Linse fehlt, und wird sie automatisch zurückgewiesen.
  • Unter Bezugnahme auf 6 wird ein Verarbeitungskreisring 90 erzeugt und über die Kontaktlinsenkante 72 gelegt. Da dieser Kreisring unter Verwendung der Werte für den vorher hergeleiteten Mittelpunkt und Radius und unter Verwendung eines internen Parameters für die Breite des Verarbeitungskreisringes erzeugt wird, schließen die Grenzen des Verarbeitungskreisringes mit Sicherheit die Linsenkante ein. Die gesamte weitere Verarbeitung des Bildes wird nur innerhalb dieses Kreisringes durchgeführt, um die Geschwindigkeit zu erhöhen und die Verarbeitungszeit durch Begrenzen der Anzahl von zu bewertenden Bildelementen zu verringern. Die Anforderungen bezüglich der Größe des Kreisringes (und in der Tat die Notwendigkeit, einen beschränkten Verarbeitungskreisring überhaupt zu verwenden) hängt von der verfügbaren Computer-Datenhandhabung und -Verarbeitung und den damit verbundenen Kosten ab. Der Mittelpunkt des Kreisringes ist der in dem vorangehenden Schritt des Algorith mus modellierte Kreis. Die Breite des Kreisringes in Bildelementen wird von dem Parameter "anls_width" bestimmt.
  • Bezugnehmend auf 7 wird dort der nächste Schritt des Algorithmus dargestellt, wobei der Verarbeitungskreisring der vorangehenden Figur nicht gezeigt ist. Wiederum ist auf dem Sensor-Empfängerfeld 70 der durchschnittliche Mittelpunkt 92 gezeigt. Es wird ein Kantenverstärkungsoperator auf das Rohlinsenbild angewandt, da die Graustufeninformation alleine nicht empfindlich genug ist, um eine Unterscheidung zwischen normalen und fehlerhaften Gebieten einer Linsenkante zu ermöglichen. Somit wird diese Operation zum Herausbringen von entlang der Innen- und Außenseiten des Linsenkantenbildes enthaltener Unterscheidungsinformation verwendet. Der verwendete Operator ist ein modifizierter 3 × 3-Operator, der unterschiedliche Zonen um die Linsenkante benutzt. Die Kontaktlinsenkante 72 in der vorangehenden Figur ist durch Anwendung des Kantenverstärkungsoperators eliminiert worden. Der Kantenverstärkungsoperator verarbeitet das Rohlinsenkantenbild, das 2 bis 4 Bildelemente breit ist, in eine separate innere 94 und äußere Kante 96, wie es in 6 nach Anwendung des Kantenverstärkungsoperators auf ein Rohlinsenbild gezeigt ist.
  • Zur Anwendung des Kantenverstärkungsoperators muß die Linse in unterschiedliche Zonen aufgeteilt werden.
  • Der genaue Anfang und das genaue Ende der Zonen hängt von der Größe der Linse in dem Bild und dem Ort der Linse in dem Bild ab. 8 zeigt die Beziehung zwischen den in einer Linse verwendeten fünf Zonen. Die Zonen wurden zum Trennen der meistens horizontalen, vertikalen und diagonalen Gebiete um die Linse erstellt.
  • Jede Zone in 8 verwendet einen Kantenoperator einer unterschiedlichen Richtung. Für die Zonen 1, 3 und 5 wird ein diagonaler Operator verwendet. Für die Zonen 2 und 4 wird ein horizontaler/vertikaler Operator verwendet. Es werden Operatoren unterschiedlicher Richtungen zum Kompensieren der Krümmung der Linse und zum Ausgleichen des Gradientenbetrages um die Linse verwendet. Das heißt, ein diagonaler Operator in einem hauptsächlich vertikalen Bereich der Linse ist grob gleich einem horizontalen/vertikalen Operator auf einem hauptsächlich diagonalen Bereich der Linse.
  • Der Kantenoperator wird in Bezug auf die gerade verarbeitete Kante diagonal gemacht, um eine unerwünschte Zitterbewegung zu unterdrücken. Die Dicke einer normalen Rohlinsenkante schwankt etwas in lokalisierten Gebieten. Ein parallel und senkrecht zu der Richtung des Rohlinsenkantenbildes arbeitender Kantenoperator würde somit dazu neigen, Schwankungen aufzugreifen und fälschlicherweise kleine Abweichungen in der Kante aufrechtzuerhalten. Die Merkmalsextraktions-Software würde dann diese kleinen Abweichungen als Kantenfehler betrachten.
  • In 9 ist die bei der Implementierung der Kantenverstärkungsoperatoren verwendete Bildelementnotation gezeigt. Wie es von einem Fachmann auf dem Gebiet erkannt werden kann, ist diese Notation die bei der Benennung der Elemente in einer Matrix oder einer Anordnung verwendete Standardnotation.
  • Die folgenden Gleichungen 1–6 zeigen den für die zwei Kantenoperatoren verwendeten Algorithmus. Die resultierenden Gradientenwerte für jedes Bildelement werden dann skaliert, um in den 8-Bit-Bereich von 0 bis 255 zu fallen. Horz-/Vert-Operator = abs(hdif) + abs(vdif),wobei hdif = Pi–1j+1 + 2·Pij+1 + Pi+1j+1 – (Pi–1j–1 + 2·Pij–1 + Pi+1j–1) vdif = Pi+1j+1 + 2·Pi+1j + Pi+1j–1 – (Pi–1j+1 + 2·Pi–1j + Pi–1j–1) Diag-Operator = abs(d1dif) + abs(d2dif),wobei d1dif = Pi–1j + 2·Pi–1j–1 + Pij–1 – (Pij+1 + 2·Pi+1j+1 + Pi+1j) d2dif = Pi–1j + 2·Pi–1j+1 + Pij+1 – (Pij–1 + 2·Pi+1j–1 + Pi+1j).
  • Nachdem die diagonale Kantenverstärkung in den Zonen 1, 3 und 5 durchgeführt worden ist, wird die horizontale/vertikale Kantenverstärkung in den Zonen 2 und 4 durchgeführt, wobei die resultierenden inneren und äußeren Kanten mit einem Skelettieroperator bearbeitet werden. Die resultierenden Kanten sind typischerweise ein einziges Bildelement breit und enthalten, von dem Kantenquerschnitt betrachtet, nur von dem stärksten Teil der Kante Informationen. Während dieser Prozedur wird jedoch die in diesem Bildelement enthaltene Graustufeninformation beibehalten. Die Kantenverstärkung wird auf diese Weise in einer Anschlußrichtung mit den in den jeweiligen Kreisringzonen verwendeten Operatoren durchgeführt. Bei Gebrauch lediglich der Gradienteninformation von dem vorangehenden Schritt sucht diese Operation nach Spitzenwerten in vier Richtungen von dem interessierenden Bildelement. Wenn sie einen Spitzenwert findet, ersetzt sie das interessierende Bildelement durch diesen Wert. Anderenfalls erhält das Bildelement den Wert null, was zu dem Bild von 7 führt.
  • Der nächste Schritt in dem Algorithmus besteht in der Lokalisie rung und Absuche der erneut verstärkten und skelettierten inneren und äußeren Linsenkanten unter Verwendung eines Schwellenwertmechanismus. Die Schwellenwertoperation wird nur entlang des Linsenumrisses durchgeführt, während die Kante abgesucht wird.
  • Der nächste Schritt in dem Algorithmus besteht in der Anwendung eines Schwellenwertes auf ausgewählte Bildelemente oberhalb eines spezifizierten Bildelementintensitätswertes. Der Zweck der Anwendung einer Schwellenwertoperation besteht in der Eliminierung aller Bildelemente innerhalb des Kreisringes, die nicht länger Teil der interessierenden Kanten sind und als Rauschen erscheinen. Der für die Schwellenwertoperation verwendete Graustufenwert ist der "inner_thr"- und "outer_thr"-Parameter jeweils für die inneren und äußeren Kanten. Dies sind die in dem Algorithmus zum Absuchen des Umrisses verwendeten Schwellenwerte. Die Implementierung der Schwellenwertoperation geht wie folgt:
    Wenn (Pij >= Schwellenwert und ein Bildelement entlang der verarbeiteten Innenkante ist),
    dann Pij = ein Umrißbildelement.
  • In 9 ist die für eine Linse in einem Bild innerhalb des Sensorfeldes 70 verwendete Winkelnotation gezeigt. Zum Lokalisieren der Linsenkante für eine anfängliche Absuche wird ein Suchvektor benutzt, der dem anfänglich zum Lokalisieren der Linse verwendeten ähnelt. In diesem Beispiel verwendet der Suchvektor nur Graustufen als Kriterien bei der Suche nach dem nächsten Bildelement.
  • Unter Bezugnahme auf 10 beginnt der Vektor genau innerhalb des Verarbeitungskreisringes bei 0° und schreitet er entlang einer Bildelementzeile voran, bis er auf die Linsenkante trifft oder bis er die gegenüberliegende Seite des Verarbeitungskreisringes erreicht.
  • Bezugnehmend auf 11 sind die möglichen Suchszenarien für eine innere Kante dargestellt.
  • In dieser Figur zeigt ein vergrößerter Bereich einer verstärkten Linsenkante eine innere Kante 94, eine äußere Kante 96 und einen Verarbeitungskreisring 90. Der Verarbeitungskreisring 90 besteht aus der inneren Grenze 98 und der äußeren Grenze 100.
  • Beispielhaft ist ein oben beschriebener erster Suchvektor 102 gezeigt. In dem Beispiel dieses ersten Suchvektors wird auf einen kleinen Fehler oder Rauschen 104 gestoßen, da dieses Rauschen oder der kleine Fehler 104 eine unterscheidbare Graustufe aufweist. Der Suchvektor verfolgt seine Grenze, aber der Algorithmus weist dieses Objekt zurück, da die Krümmung nicht mit derjeni gen einer Linsenkante, wie er durch die Anzahl von verfolgten Bildelementen vor Treffen auf das Startbildelement bestimmt werden kann, übereinstimmt.
  • Nach einem derartigen fehlgeschlagenen Versuch zum Lokalisieren der Kante wird ein von dem vorangehenden um 20 Bildelementzeilen versetzter Suchvektor erzeugt. Beispielsweise versucht dieser zweite Suchvektor 106, die innere Linsenkante 94 durch Beginn an der inneren Grenze des Verarbeitungskreisringes 98 und Schreiten zu dem Kreisring 100 der äußeren Grenze zu lokalisieren. In diesem Beispiel trifft der Suchvektor 106 nicht auf von einer Linsenkante verschiedene Bildelemente und tritt er durch einen Spalt 108 und die innere Kante 94 und die äußere Kante 96. Wenn der Suchvektor die äußere Grenze des Verarbeitungskreisringes 100 erreicht, wird die Suche beendet.
  • Es wird dann eine dritter Suchvektor 110 erzeugt, der wiederum 20 Bildelementzeilen von dem zweiten Suchvektor 106 versetzt ist. In diesem Beispiel des dritten Suchvektors 110 ist der Versuch des Auffindens der inneren Linsenkante 94 erfolgreich und konzentriert sich der Algorithmus dann auf die Absuche der inneren und äußere Linsenkante 94 und 96.
  • Der Vorgang des Erzeugens eines neuen Suchvektors, jedesmal wenn ein vorangehender Vektor aufgrund des Treffens auf einen kleinen Fehler oder einen Spalt in dem Linsenkante erfolglos gewesen ist, wird wiederholt, bis die Linsenkante lokalisiert ist oder maximal 15 Versuche durchgeführt worden sind. Dieser Lokalisierungsvorgang wird für die innere Linsenkante 94 und die äußere Linsenkante 96 separat durchgeführt.
  • Wenn eine Kante lokalisiert worden ist, wird eine 8-Verknüpfungs-Absuche durchgeführt. Der Vektor beginnt bei 0° und sucht die inneren und äußeren Umrisse der Linsenkante unter Verwendung von 8-Verknüpfbarkeit ab. Die 8-Verknüpfbarkeit stellt sicher, daß irgendein an der Kante hängendes Bildelement in dem endgültigen Umriß enthalten sein wird. Es wird ein Graustufen-Schwellenwert zur Bestimmung, ob ein Bildelement Teil der Kante ist, unter Verwendung des Wertes des "inner_thr"-Parameters für die innere Kante und des Wertes des "outer_thr"-Parameters für die äußere Kante verwendet.
  • Der Algorithmus macht eine Drehung nach rechts, wenn das gerade angetroffene Bildelement ein Kantenbildelement ist, und eine Drehung nach links, wenn das angetroffene Bildelement kein Kantenbildelement ist. Es werden diagonale Bildelemente überprüft, wenn spezielle Umstände erfüllt sind. Da derselbe Code zum Verfolgen der inneren und äußeren Kanten verwendet wird, tritt eine Absuche in einer Richtung im Uhrzeigersinn für die innere Kante und in einer Richtung entgegen dem Uhrzeigersinn für die äußere Kante ein.
  • Wenn alles abgeschlossen ist, besteht die Linsenkante aus nähe rungsweise 6000 Bildelementen, 3000 an der inneren Kante und 3000 an der äußeren Kante. Wenn die Anzahl von Bildelementen sich nicht innerhalb der erstellten Grenzen befindet, stellt der Algorithmus fest, daß keine Linse gefunden wurde, und der Vorgang kann dann entweder wiederholt werden oder die Packung kann zurückgewiesen werden.
  • Für jedes Bildelement auf der Kante wird ein Informationssatz in einer Anordnung von Strukturen gesichert. Diese Information schließt die radiale und winkelmäßige Position, Gradientengraustufe, Fehlerart und -schwere ein. An diesem Punkt in dem Algorithmus sind noch nicht alle Linsenanordnungsinformationen vorhanden, aber es wird Speicher für eine zukünftige Verwendung bereitgestellt.
  • Wenn festgestellt wurde, daß ein Bildelement Teil der Kante ist, wird eine Transformation von rechtwinkligen Koordinaten zu Polarkoordinaten durchgeführt. Der Mittelpunkt der rechtwinkligen und Polarkoordinatensysteme ist der anhand der anfänglichen Lokalisierung der Linse bestimmte Linsenmittelpunkt. Die folgenden Gleichungen zeigen, wie die Transformation implementiert ist, wobei theta der Winkel und r der Radius ist. θ = arctan [(Linsenmittelpunktzeile – Bildelementzeile)/(Bildelementspalte – Linsenmittelpunktspalte)] R = SQRT [(Bildelementspalte – Linsenmittelpunktspalte)2 + (Linsenmittelpunktzeile – Bildelementzeile)2]
  • Theta wird von einem Gleitkommawert im Bereich von 0,0 bis 360,0 Grad in einen Ganzzahlwert im Bereich von 0 bis 8191, der durch 13 Bits, 213, darstellbar ist, umgewandelt. R wird zu Beginn auch als ein Gleitkommawert berechnet und auf einen Ganzzahlwert abgerundet.
  • Die Radius- und Winkelverschiebungswerte für jedes Umrißbildelement werden dann in der großen Anordnung von Strukturen angeordnet. Die weitere Verarbeitung wird durch Verarbeitung von lediglich etwa 6000 in dieser großen Anordnung aufgefundenen Bildelementen effizienter gemacht.
  • In den folgenden Figuren ist die Linsenkante bildlich gezeigt. Die Operationen werden jedoch von dem Algorithmus im digitalen Bereich durchgeführt.
  • Bezugnehmend auf 12 wird dort das verstärkte Linsenbild in 12a in rechtwinkligen Koordinaten und in 12b in Polarkoordinaten gezeigt. Da die Kante aufgefunden und abgesucht worden ist, ist der Verarbeitungskreisring aus dieser Figur entfernt. In den 12a und 12b sind die innere Linsenkante 94 und die äußere Linsenkante 96 gezeigt. Bei der in 12 gezeigten Operation werden Unstetigkeiten in den Kanten durch Fehler an der Linse, schwache Kanten oder durch die Kante oder die Kantenverstärkungsoperatoren resultierende Anomalien verursacht. Unabhängig von dem Grund ist es notwendig, diese Unstetigkeiten zu detektieren und zu überbrücken, so daß der verbleibende Bereich der Kanten verarbeitet werden kann.
  • Die Unstetigkeit wird durch Beibehalten der Winkelverschiebung des weitesten Bildelements, das abgesucht worden ist, und Vergleichen derselben mit der Winkelverschiebung des Bildelements, das gegenwärtig verarbeitet wird, detektiert, was in 12b gezeigt ist. Wenn der zwischen dem weitesten Bildelement 112 und dem gegenwärtigen Bildelement erzeugte Winkel sich in der zu der Absuche entgegengesetzten Richtung befindet und wenn er größer als der durch den Parameter "bktrk_degs" spezifizierte Winkel ist, dann ist eine Unstetigkeit detektiert worden. Dies ist in 12b an dem durch 114 gekennzeichneten Punkt gezeigt.
  • Wenn eine Unstetigkeit detektiert wird, verwendet der Algorithmus das äußerste Bildelement als Bezugspunkt zum Überbrücken. Der anfängliche Versuch des Überbrückens einer Unstetigkeit besteht in einer Extrapolationstechnik, die einen Spalt über ein bis drei Bildelement(e) überbrücken kann. Die Extrapolation verwendet die Richtung der Bewegung genau vor dem Erreichen der Unstetigkeit.
  • In gewissen Fällen beträgt der Spalt in der Kante mehr als drei Bildelemente und kann er nicht durch Extrapolation überbrückt werden. Unter Bezugnahme auf 13 wird in den Fällen, in denen eine Extrapolation zum Schließen einer Unstetigkeit, wie zum Beispiel 116, nicht erfolgreich ist, eine Sprungtechnik verwendet. Die Sprungtechnik nimmt den winkelmäßigen Ort der Unstetigkeit, dreht in der Richtung der Absuche um die in dem Parameter "gap_angle" spezifizierten Gradzahlen und setzt einen Suchvektor zum Lokalisieren der anderen Seite der Unstetigkeit in Gang.
  • Der Suchvektor beginnt genau innerhalb des Inneren des Verarbeitungskreisringes und sucht in Abhängigkeit von dem winkelmäßigen Ort der Unstetigkeit entlang einer Zeile oder Spalte. Die Suche setzt sich fort, bis ein Kantenbildelement angetroffen wird oder bis die äußere Kante des Verarbeitungskreisringes erreicht ist. Wenn ein Kantenbildelement nicht während der Suche gefunden wird, wird davon ausgegangen, daß die Linse extrem verformt ist, und wird die Linse zurückgewiesen. Wenn ein Kantenbildelement gefunden wird, setzt sich die Verarbeitung normal fort. Die Tatsache, daß die Unstetigkeit nicht durch Extrapolation überbrückt werden kann, ist ein Anzeichen für das Vorliegen eines Fehlers und eine "Überbrückung durch Springen" wird als ein Merkmal identifiziert.
  • Alle Bildelemente, die seit dem äußersten Bildelement und dann weiter bis zur Detektion der Unstetigkeit verarbeitet worden sind, werden aus der Umrißanordnung entfernt, da sie eine Rückverfolgung durch die Kantenabsuche darstellen.
  • Manchmal wird ein Bereich der Linsenkante in der Weise fragmentiert, daß eine Überbrückung einer Unstetigkeit den Absuchvorgang auf einen kleinen isolierten Abschnitt der in 13a gezeigten Kante 118 bringt. In diesem Fall funktioniert die normale Methode zur Detektierung einer Unstetigkeit nicht, da es für den Absuchvorgang nicht möglich ist, um den erforderlichen Betrag zurückzugehen. Um diese Anomalie zu überwinden, wird eine spezielle Detektionstechnik implementiert. Diese Technik behält die Zeilen- und Spaltenwerte für die genau vor dem Überbrücken einer Unstetigkeit angetroffenen Bildelemente. Wenn die Weiterverfolgung durch dieses Eingangsbildelement viermal zurück hindurchtritt, ist ein kleiner, isolierter Bereich der Kante detektiert worden. Das in dem Fragment gefundene äußerste Bildelement wird dann als Ort zum Versuch einer weiteren Überbrückung verwendet. In 13b ist ein Szenario gezeigt, das eine Mehrfachüberbrückung 120 gefolgt von einer vorher als 116 beschriebenen "Brücke durch Sprung" mit sich bringt.
  • Die Überbrückung von mehrfachen isolierten Abschnitten einer Kante ist ein iterativer Vorgang, der so oft wie zum Aufspannen des fragmentierten Abschnittes erforderlich durchgeführt wird. Jede Iteration wird als erstes eine Extrapolationsbrücke und dann eine Sprungbrücke versuchen.
  • Nach der Absuche der Kante und irgendwelcher überbrückter Spalte extrahiert der Algorithmus sechs unterschiedliche Merkmale von jedem auf dem Kantenumriß gefundenen Bildelement. Die Merkmale sind wie folgt:
    Radiale Abweichung (RD)
    Ortsgradientenabweichung (LGD)
    Räumliche Ableitung (SD)
    Unstetigkeit (D)
    Dip-Ortsgradientenabweichung (DLGD)
    Einende-Ortsgradientenabweichung (ALGD)
  • Die letzten zwei Merkmale beziehen sich auf die Ortsgradientenabweichung und werden zur Identifizierung spezieller Fehlerarten, die anderenfalls nicht detektierbar sein können, hinzugefügt.
  • Die für jedes Merkmal berechneten Werte werden mit Schwellenwerten verglichen. Alle Schwellenwerte sind als Benutzerparameter zugänglich. Wenn ein Merkmalswert das Schwellenwertkriterium erfüllt, dann wird das Bildelement auf der Grundlage des Merkmals als fehlerhaft klassifiziert. Es ist möglich, daß ein einzelnes Bildelement durch mehr als ein Merkmal als fehlerhaft klassifiziert wird.
  • Nun bezugnehmend auf 14 ist die verstärkte Linsenkante in 14a in rechtwinkligen Koordinaten und in 14b in Polarkoordinaten und mit Merkmalen, die als radiale Abweichung kategorisiert werden können, gezeigt. Die radiale Abweichung ist die Strecke, die der Radius des interessierenden Bildelements von dem Nennradius abweicht. Wenn die Abweichung gleich oder größer als der in dem Parameter "rad_dev_thr" spezifizierte Wert ist, dann wird das Bildelement als fehlerhaft angesehen. Der normale Radius ist als der mittlere Radiuswert der 250 Umrißbildelemente vor und der 250 Umrißbildelemente nach dem interessierenden Bildelement definiert. Wenn ein Bildelement anhand der radialen Abweichung als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen für die Schwere behalten. In den 14a und 14b sind die innere Linsenkante 94 und die äußere Linsenkante 96 gezeigt. Zusätzlich zeigt 14b auch die wie oben beschrieben berechneten idealen Radien für die inneren und äußeren Kanten 122. 14b zeigt auch drei Beispiele der Radialabweichungsmerkmale 124, 126 und 128. Die zur Implementierung der Radialabweichungs-Merkmalsextraktion verwendeten Gleichungen lauten wie folgt:
    Figure 00220001
    wobei
  • R
    = Radiuswert und
    i,n,m
    = Umrißindexwerte sind,
    wenn (RD >= Schwellenwert oder RD <= -Schwellenwert) gilt, dann ist das interessierende Bildelement fehlerhaft.
  • Das nächste extrahierte Merkmal ist die Ortsgradientenabweichung. Die LGD betrachtet den Betrag der Abweichung in dem Gradientenwert des interessierenden Bildelements von dem Mittelwert der lokalen Nachbarn. Als Nachbarbildelemente werden diejenigen Bildelemente betrachtet, die während der Absuche des Umrisses der Kante am dichtesten an dem interessierenden Bildelement sind. Unter Bezugnahme auf 15 hat das interessierende Bildelement 130 die Bezeichnung i erhalten. Der zur Bestimmung, ob ein Bildelement fehlerhaft ist, auf der Grundlage der LGD verwendete Schwellenwert ergibt sich aus dem "grd_dev_thr"-Parameter. Die folgenden Gleichungen zeigen die Implementierung dieses Merkmals.
    Figure 00230001
    wobei
  • G
    = Gradientenwert und
    i,n,m
    = Umrißindexwerte,
    wenn (LGD >= Schwellenwert), dann interessierendes Bildelement = fehlerhaft.
  • Dieser Vorgang der Extraktion der Ortsgradientenabweichung ist in 16 gezeigt. 16a ist wiederum eine bildliche Darstellung der verstärkten Linsenkante, wohingegen 16b eine Darstellung der Gradienteninformationen im Polarsystem ist. Wie es ersichtlich ist, tritt eine in 16a gezeigte Ortsgradientenabweichung 134 nur an einer Kante des verstärkten Linsenkantenbildes auf und erscheint sie als eine unpaarige Unregelmäßigkeit 136, wenn sie in dem Polarsystem verfolgt und angezeigt wird. Wenn ein Bildelement basierend auf der LGD als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen der Schwere behalten.
  • Das nächste bei der Merkmalsextraktion betrachtete Merkmal ist die Unstetigkeit. Wie es vorangehend beschrieben wurde, wird ein Unstetigkeitsfehler durch Überbrücken einer Kantenunstetigkeit mit der Sprungtechnik verursacht. Durch Betrachten des Unterschiedes bei der Winkelverschiebung von einem Bildelement in dem Umriß zu dem nächsten wird er durch die Merkmalsextraktion identifiziert. Die Unstetigkeit enthält keine Informationen über die Schwere und zeigt nur an, daß ein Sprung aufgefunden wurde. Anfangsbildelemente auf jeder Seite der Unstetigkeit werden als fehlerhaft betrachtet.
  • Das nächste extrahierte Merkmal ist die Dip-Ortsgradientenabweichung. Die Dip-Ortsgradientenabweichung ähnelt dem Merkmal der Ortsgradientenabweichung, das extrahiert worden ist. Wie die LGD betrachtet die DLGD den Betrag der Abweichung in dem Intensitätsgradientenwert des interessierenden Bildelements von dem Mittelwert seiner lokalen Nachbarn. Der Unterschied besteht darin, daß mehr Nachbarn verwendet werden und es einen größeren Spalt von nicht verwendeten Bildelementen um das interessierende Bildelement gibt. DLGD ist auch geschaffen worden, um nur für die Gradientenabweichungen in der Intensität, die geringer als deren Nachbarn sind, empfindlich zu sein und wird somit als "Dip"-Ortsgradientenabweichung bezeichnet.
  • Der zur Bestimmung, ob ein Bildelement fehlerhaft ist, auf der Grund lage der DLGD verwendete Schwellenwert ergibt sich aus dem "dip_lgd_thr"-Parameter. Die folgenden Gleichungen zeigen die Implementierung dieses Merkmals.
    Figure 00240001
    wobei
  • G
    = Gradientenwert und
    i,n,m
    = Umrißindexwerte,
    wenn (DLGD <= Schwellenwert), dann ist das interessierende Bildelement fehlerhaft.
  • Das DLGD-Merkmal ist speziell zur Identifizierung von kleinen Kantenschnipseln, die nicht durch andere Merkmale identifiziert werden, implementiert. Wenn ein Bildelement basierend auf der DLGD als fehlerhaft klassifiziert wird, dann wird der Betrag der Abweichung als ein Anzeichen für die Schwere gespeichert.
  • Ein weiteres Merkmal, das extrahiert wird, ist die Einende-Ortsgradientenabweichung (ALGD). Bei der Extrahierung dieses Merkmals werden die zur Berechnung der Abweichung verwendeten Bildelementnachbarn von einer einzigen Seite des interessierenden Bildelements genommen. Es werden zwanzig Bildelemente vor dem interessierenden Bildelement zur Bestimmung des Nachbarschaftsmittelwertes verwendet. Die vier Bildelemente genau vor dem interessierenden Bildelement werden jedoch nicht verwendet. ALGD betrachtet sowohl negative als auch positive Gradientenabweichungen.
  • Die zum Vergleich verwendeten Schwellenwerte sind in den Parametern "aux_lgd_low" und "aux_lgd_up" gespeichert. Die folgenden Gleichungen zeigen die Implementierung des ALGD-Merkmals.
    Figure 00240002
    wobei
  • G
    = Gradientenwert und
    i,n,m
    = Umrißindexwerte,
    wenn (ALGD >= oberer Schwellenwert oder untere ALGD <= Schwellenwert), dann ist das interessierende Bildelement fehlerhaft.
  • Das letzte Merkmal, das extrahiert wird, ist die räumliche Ableitung (SD). Die räumliche Ableitung mißt die Änderung des Radius gegenüber der Änderung der Winkelverschiebung. Wenn eine scharfe Radiusänderung über eine kleine Winkelstrecke eintritt, dann ist es wahrscheinlich, daß ein Fehler vorliegt. Das Merkmal der räumlichen Ableitung ist in 17 dargestellt. 17a zeigt wiederum die verstärkte Linsenkante in rechtwinkligen Koordinaten und 17b ist in das Polarsystem übertragen, das wieder die idealen Radien 122 für die innere Linsenkante 94 und die äußere Linsenkante 96 zeigt.
  • Es ist der Fehler mit Merkmalen 136 der räumlichen Ableitung gezeigt, und in 17b ist seine Änderung des Radius 138 über den Winkel 140 dargestellt.
  • Die Implementierung des Merkmals der räumlichen Ableitung ist durch die folgenden Gleichungen gegeben:
  • ΔR
    = abs(Radiuswert des Umrißbildelementsi+2 – Radiuswert des Umrißbildelementsi–2), wobei
    ΔR
    = Radiusänderung und
    i
    = Umrißindex in bezug auf das interessierende Bildelement,
    Δθ
    = Winkelverschiebungswert des Umrißbildelementsi–2 – Winkelverschiebungswert des Umrißbildelementsi+2,
    wobei
    Δθ
    = Änderung der Winkelverschiebung und
    i
    = Umrißindex in bezug auf das interessierende Bildelement ist.
    SD
    = ΔR/Δθ,
    wobei
    SD
    = räumliche Ableitung,
    wenn (SD >= positiver Schwellenwert oder DS <= 0), dann ist das interessierende Bildelement fehlerhaft.
  • Wenn ein Bildelement gemäß der letzten oben genannten Gleichung als fehlerhaft klassifiziert wird, wird keine Information über die Schwere behalten. Die Weiterverarbeitung durch den Algorithmus basiert nur auf der Tatsache, daß das Bildelement basierend auf SD als fehlerhaft angesehen worden ist.
  • Nach der Bildelementwerteinschätzung wird jedes fehlerhafte Bildelement als Mitglied einer Fehlergruppe angesehen. Es kann viele Fehlergruppen um die Linse geben und ein Bildelement muß nicht dicht bei weiteren fehlerhaf ten Bildelementen sein, um einer Gruppe anzugehören.
  • Eine Fehlergruppierung bringt drei Schritte mit sich. Die ersten zwei Schritte werden unabhängig an der inneren und äußeren Kante durchgeführt, und der letzte Schritt kombiniert Informationen sowohl von der inneren als auch der äußeren Kante. Nach Abschluß des Gruppiervorgangs an den inneren und äußeren Kante werden die Nähen der resultierenden Gruppen miteinander verglichen, um zu sehen, ob irgendwelche Gruppen von der inneren Kante mit Gruppen von der äußeren Kante kombiniert werden sollten. Wenn eine Verschmelzung stattfindet, wird eine Kombinationsfehlergruppe gebildet.
  • Der anfängliche Schritt betrachtet jedes fehlerhafte Bildelement von Bildelement zu Bildelement und entscheidet, ob es Teil eines größeren Fehlers ist. Wenn ein Bildelement als Teil eines größeren Fehlers ermittelt wird, dann wird es in einer Struktur plaziert, die Fehlergruppe genannt wird.
  • Der zweite Schritt bestimmt, ob irgendwelche dieser Fehlergruppen zur Bildung größerer Gruppen miteinander kombiniert werden sollten. Der letzte Schritt vergleicht die Innen- und Außenfehlergruppen miteinander, um zu bestimmen, ob sie kombiniert werden sollten. Das Ergebnis ist die größtmögliche Fehlergruppe zur Darstellung des diskreten Fehlers auf der Linse. Dies wiederum liefert die genaueste Wiedergabe der wahren Fehlerschwere. Klarerweise sind Kombinationsfehler schwerer als Einzelfehlergruppen und treten sie nur bei den ernsteren Kantenfehlern auf.
  • Wie es vorangehend genannt wurde, wird der Vorgang durch Gruppieren von Bildelement zu Bildelement begonnen. Das allererste fehlerhafte Bildelement, auf das getroffen wird, wird zum Starten des Vorgangs automatisch in einer Einzelbildelementfehlergruppe plaziert. Die Winkelverschiebungen von nachfolgenden fehlerhaften Bildelementen werden mit dem äußersten Bildelement in der gegenwärtig aktiven Fehlergruppe verglichen. Wenn das Bildelement sich innerhalb der durch den Parameter "prox_zone" spezifizierten Winkelverschiebung befindet, wird es in der Gruppe plaziert, und wird der äußerste Winkel der Gruppe aktualisiert. Wenn das fehlerhafte Bildelement nicht in die gegenwärtig aktive Fehlergruppe fällt, dann wird davon ausgegangen, daß auf einen neuen Fehler getroffen wurde. Das Ergebnis besteht darin, daß eine neue Fehlergruppe, die nur das gegenwärtige fehlerhafte Bildelement enthält, gebildet wird und die gegenwärtig aktive Gruppe wird. Dieser Vorgang setzt sich fort, bis alle fehlerhaften Bildelemente an der Kante überprüft worden sind.
  • Wenn fehlerfreie Bildelemente auf dem Umriß zwischen einem Bildelement, das in einer Fehlergruppe plaziert werden soll, gefunden werden, dann werden sie auch in die Fehlergruppe aufgenommen und erneut von fehlerfreien zu gruppenartigen fehlerhaften Bildelementen klassifiziert.
  • Der zweite Schritt des gesamten Gruppierungsvorgangs sieht wie folgt aus. Es ist möglich, daß ein einzelner Fehler von mehr als einer Fehlergruppe wiedergegeben wird. Um diese Komplikation zu eliminieren, wird ein Durchlauf über alle auf einer Kante gefundenen Fehlergruppen durchgeführt. Es werden zwei Vergleiche vorgenommen. Ein Vergleich überprüft die Startwinkelverschiebung einer Gruppe mit einer Endwinkelverschiebung einer weiteren Gruppe. Der zweite Vergleich überprüft dieselbe Endwinkelverschiebung einer Gruppe mit den Startwinkelverschiebungen der anderen Gruppe. Wenn einer dieser Vergleiche eine Änderung der Winkelverschiebung ergibt, die geringer als der durch "prox_angle" spezifizierte Betrag ist, werden die zwei Gruppen verschmolzen. Die Gruppe mit einem Startwinkel, der dicht genug bei dem Endwinkel der anderen Gruppe ist, schließt dann die Gruppe ein. Die Gruppe, die eingeschlossen ist, überträgt ihre Information und wird dann ungültig gemacht.
  • Schließlich werden winkelmäßig entsprechende Innen- und Außenkantenfehlergruppen gemeinsam gruppiert. Diese Gruppierung ähnelt der unabhängig an den inneren und äußeren Kanten durchgeführten Gruppierung. Es wird ein Vergleich zwischen den Start- und Endorten der Gruppe durchgeführt. Es wird auch ein Extravergleich zur Bestimmung, ob eine Gruppe vollständig von einer anderen Gruppe umgeben ist, durchgeführt. Wenn irgendein Vergleich zu einer Verschmelzung führt, wird eine separate Struktur, die Informationen von beiden Fehlergruppen enthält, geschaffen und werden die zwei ursprünglichen Gruppen ungültig gemacht.
  • Nach Identifizierung der fehlerhaften Bildelemente und Durchführung der oben genannten Gruppieroperationen wird jeder Fehlergruppe eine Schwerepunktzahl zugeordnet. Die Schwerepunktzahl ist die Summe aller den jeweiligen Bildelementen in der Gruppe zugeordneten Punktzahlen. Wenn ein einziges Bildelement durch mehr als eine Fehlerart als fehlerhaft klassifiziert wird, ist das Ergebnis eine Mehrfachpunktzahl für dieses spezielle Bildelement.
  • Jedem Fehlertyp wird eine Gewichtung zugeordnet, die es ermöglicht, daß die unterschiedlichen Fehler in Bezug aufeinander unterschiedliche Stärken aufweisen. Werte für alle Gewichtungen können durch benutzerzugängliche Parameter kontrolliert werden. RD-, LGD-, SD-, D-, DLGD- und ALGD-Gewichtungen sind den jeweiligen Parametern "rd_weight", "lgd_weight", "sd_weight", "disc_weight", "dip_lgd_wgt" und "aux_lgd_wgt" entnehmbar.
  • Anders als die anderen drei Fehler enthalten die RD-, LGD- und DLGD-Fehler Information über die Schwere für ein bestimmtes Bildelement. Diese Information über die Schwere ist durch die jedem der betroffenen Bildelemente zugeordneten Fehlerartgewichtungen normiert und multipliziert. Die Normierung wird verwendet, da der Bereich der Werte für die unterschiedlichen Merkmale nicht vergleichbar ist. Nach einer Normierung wird jede gewichtete Punktzahl in einen Bereich zwischen 1,0 und 2,0 fallen. Der Normierungsbereich wird durch die Werte der verwendeten Schwellenwerte und der minimalen oder maximalen theoretischen Werte, die die Merkmale annehmen können, bestimmt.
  • Wenn beispielsweise ein Bildelementmerkmal denselben Wert wie der Nennwert aufweist, beträgt die gewichtete Punktzahl 1,0. Wenn im Gegensatz dazu ein Bildelementmerkmal einen Wert aufweist, der dem höchsten maximalen oder minimalen Wert, der möglich ist, gleicht, dann wird die gewichtete Schwerepunktzahl als 2,0 berechnet. Der maximale theoretische Wert für die radiale Abweichung und Ortsgradientenabweichung wird durch die in den jeweiligen "max_rd" und "max_lgd" aufgefundenen jeweiligen Parameterwerte bestimmt. Der minimale theoretische Wert für die Dip-Ortsgradientenabweichung ergibt sich aus dem Parameter "min_dip_lgd".
  • Die SD-, ALGD-, Gruppen- und D-artigen Fehler sind in keiner Weise normiert. "Unstetigkeit" und "Gruppe" sind Boolesche Fehler mit Werten von 0 und 1. Die räumliche Ableitung und die ALGD enthalten nicht genügend Informationen über die Schwere, um sie zu behalten.
  • Die Bildelementfehlerschweregleichungen für jede der sechs Fehlerarten gemeinsam mit irgendeiner geeigneten Normierung und Gewichtung sehen wie folgt aus. RD-Punktzahl = (1,0 + (abs(Bildelement-RD-Wert) – RD-Schwellenwert)/(maximaler theoretischer RD-Wert – RD-Schwellenwert))·rd_weight, wobei
  • RD-Punktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der RD-Klassifizierung zugeordnet worden ist,
    Bildelement-RD-Wert
    = RD-Merkmalswert für das interessierende Bildelement,
    RD-Schwellenwert
    = zur Bestimmung des Vorliegens eines RD-Fehlers verwendeter Schwellenwert,
    Maximaler theoretischer RD-Wert
    = maximal möglicher Wert anhand des RD-Merkmals, und
    rd_weight
    = der RD-Fehlerart zugeordnete Gewichtung.
    LGD-Punktzahl = (1,0 + (Bildelement-LGD-Wert – LGD-Schwellenwert)/(maximaler theoretischer LGD-Wert – LGD-Schwellenwert))·lgd_weight, wobei
    LGD-Punktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der LGD-Klassifizierung zugeordnet worden ist,
    Bildelement-LGD-Wert
    = LGD-Merkmalswert für das interessierende Bildelement,
    LGD-Schwellenwert
    = zur Bestimmung des Vorliegens eines LGD-Fehlers verwendeter Schwellenwert,
    Maximaler theoretischer LGD-Wert
    = maximal möglicher Wert anhand des LGD-Merkmals, und
    lgd_weight
    = der LGD-Fehlerart zugeordnete Gewichtung.
    DLGD-Punktzahl = (1,0 + (Bildelement-DLGD-Wert – DLGD-Schwellenwert)/(maximaler theoretischer DLGD-Wert – DLGD-Schwellenwert))·dip_lgd_weight, wobei
    DLGD-Punktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der DLGD-Klassifizierung zugeordnet worden ist,
    Bildelement-DLGD-Wert
    = DLGD-Merkmalswert für das interessierende Bildelement,
    DLGD-Schwellenwert
    = zur Bestimmung des Vorliegens eines DLGD-Fehlers verwendeter Schwellenwert,
    Maximaler theoretischer DLGD-Wert
    = maximal möglicher Wert anhand des DLGD-Merkmals, und
    dip_lgd_weight
    = der DLGD-Fehlerart zugeordnete Gewichtung.
    SD-Punktzahl = sd_weight, wobei
    SD-Punktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der SD-Klassifizierung zugeordnet worden ist, und
    sd_weight
    = der SD-Fehlerart zugeordnete Gewichtung.
    Gruppenpunktzahl = grp_weight, wobei
    Gruppenpunktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der Gruppenklassifizierung zugeordnet worden ist, und
    grp_weight
    = der Gruppenfehlerart zugeordnete Gewichtung.
    Disc-Punktzahl = disc_weight, wobei
    Disc-Punktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der Unstetigkeitsklassifizierung zugeordnet worden ist, und
    disc_weight
    = der Unstetigkeitsfehlerart zugeordnete Gewichtung.
    ALGD-Punktzahl = aux_lgd_wgt, wobei
    Gruppenpunktzahl
    = Gesamtpunktzahl, die einem Bildelement anhand der Gruppenklassifizierung zugeordnet worden ist, und
    aux_lgd_wgt
    = der ALGD-Fehlerart zugeordnete Gewichtung.
  • Nach den oben beschriebenen Bildelementwertabschätzungen und Plazieren der fehlerhaften Bildelemente in Fehlergruppen (die einschließen: Verschmelzungsüberlappungsfehler, Gruppierfehler, die sich benachbart zueinander befinden, und Gruppierfehler, die sich in derselben Winkelverschiebung sowohl an der inneren Kante als auch der äußeren Kante befinden) wird eine Fehlergruppenschwerepunktzahl berechnet. Diese Fehlergruppenschwerepunktzahl gibt die irgendeiner bestimmten Fehlergruppe zugeordnete Gesamtschwerepunktzahl wieder und wird durch die folgende Gleichung berechnet: "Fehlergruppen"-Schwerepunktzahl = ΣΩ RD-Punktzahl + ΣΩ LGD-Punktzahl + ΣΩ DLGD-Punktzahl + ΣΩ SD-Punktzahl + ΣΩ Disc-Punktzahl + ΣΩ Gruppenpunktzahl + ΣΩ ALGD-Punktzahl, wobei
  • "Fehlergruppen"-Schwerepunktzahl
    = Gesamtpunktzahl, die eine "Fehlergruppe" anhand aller in der Gruppe aufgefundenen fehlerhaften Bildelemente zugeordnet worden ist, und
    Ω
    = Summenbereich zum Einschließen aller in einer bestimmten "Fehlergruppe" aufgefundenen Bildelemente.
  • Nachdem die obigen Berechnungen durchgeführt worden sind, werden die Schwerepunktzahlen jeder Fehlergruppe durch eine benutzerdefinierbare Parabelfunktion gewichtet. Die Parabelfunktion ordnet größeren Fehlern eine proportional größere Schwerepunktzahl zu. Zum Beispiel wird ein Fehler, der zweimal so groß wie zwei kleinere Fehler ist, mit einer Schwere enden, die größer als die Summe der zwei kleinen Fehler ist.
  • Die Gewichtungsfunktion wird durch die folgende Gleichung beschrieben: Gewichtete "Fehlergruppen" – Schwerepunktzahl a_coeff·("Defektgruppe" Schwerepunktzahl)2 + b_coeff·("Defektgruppe" Schwerepunktzahl), wobei
  • a_coeff
    = ein benutzerzugänglicher Parameter, der die Parabelgewichtungsfunktion definiert,
    b_coeff
    = ein benutzerzugänglicher Parameter, der die Parabelgewichtungsfunktion definiert.
  • Die resultierende gewichtete Punktzahl wird dann so skaliert, daß sie in einen Bereich von 0 bis 999 fällt. Der Skalierfaktor wird anhand der folgenden Gleichung bestimmt: Skalierfaktor = 999,0/maximale gewichtete Punktzahl, wobei
  • maximale gewichtete Punktzahl
    = a_coeff·(max_score)2 + b_coeff(max_score),
    wobei
    Max_score
    = ein empirisch bestimmter benutzerdefinierbarer Parameter.
  • Eine Fehlergruppe, die Punkte von mehr als 999 aufweist, wird abgeschnitten. Die Summe aller Fehlergruppenpunktzahlen ist die Endpunktzahl für eine bestimmte Linse. Wenn die Punktzahl größer als oder gleich ein/einen Schwellenwert (der als Benutzerparameter zugänglich ist) sein sollte, dann wird die Linse zurückgewiesen. Anderenfalls wird die Linse akzeptiert.
  • Obwohl das Endergebnis der Linsenpunktzahl darin besteht, daß entweder die Linse durchkommt oder durchfällt, sind alle Zwischendaten, -berechnungen und -punktzahlen zur Bereitstellung von Informationen hinsichtlich der Linsenqualität und der Charakteristikarten, die bei der Linse beobachtet wurden, verfügbar.
  • Es ist für einen Fachmann klar, daß diese Information über eine Linse auf Basis der Linse oder als statistische Information oder als eine visuelle Ausgabe auf einem Computerbildschirm gegeben werden kann.
  • Der oben beschriebene Algorithmus wurde bei der oben beschriebenen Vorrichtung implementiert, und es wurden ophthalmische Linsen überprüft. Diese Linsen waren Johnson & Johnson Vision Products AcuvueTM-Soft-Hydrogel-Kontaktlinsen, die zu 58% aus Wasser bestehen. Es wurden 128 Linsen in einem ersten Test verwendet.
  • Als erstes wurden die Linsen durch erfahrene Produktionsstraßen-Linsenprüfer in entionisiertem Wasser unter Verwendung eines Bildvergrößerungssystems überprüft. Jede Linse wurde von dem Prüfer als durchgelassen oder durchgefallen klassifiziert, und es wurde die Fehlerart für jeden Fehler identifiziert.
  • Wenn die Linsen von dem hierin beschriebenen automatisierten Prüfsystem überprüft wurden, wurde jede Linse manuell in der Prüfpackung zentriert, um irgendwelche Beleuchtungsprobleme zu vermeiden.
  • Nachdem das automatisierte Prüfsystem von allen 128 Linsen Bilder gemacht hatte, wurden 25 Punkteverteilungsabweichungen zu den menschlichen Prüfern identifiziert. Die Ergebnisse des Vergleichs zwischen maschinenüberprüften und mit dem menschlichen Auge überprüften Linsen sind in Tabelle 1 angegeben.
  • TABELLE 1: Zusammenfassung von Maschinen- gegenüber menschlicher Überprüfung #1
    Figure 00320001
  • Obwohl die Ergebnisse andeuten, daß die Maschinenprüfung bei 19,5% falsch war, gab es 12 Fälle (9,4%), in denen die Maschine übermäßig kritisch war und eine Linse durchfallen ließ, die ein menschlicher Prüfer hätte durchgehen lassen. Das ist eine negative Beurteilung der Maschine. Es gab auch 13 Fälle (10,1%), in denen die Maschine zu positiv beurteilte und eine Linse hindurchließ, die der menschliche Prüfer als schlecht gekennzeichnet hatte (positive Beurteilung der Maschine).
  • In dem Fall der positiven Beurteilung der Maschine erschien es, daß die Beleuchtung der Linse in dem maschinengeprüften System ungeeignet eingestellt war und richtiggestellt werden konnte. Bei den negativen Beurteilungen der Maschine erschien es, daß die Maschinenparametereinstellungen zu empfindlich waren und eingestellt werden mußten. Es ist jedoch kein großer Fehler der Detektion entkommen und die meisten versäumten Fehler wiesen eine Grenzliniengröße unter 50 Mikron auf. Nicht eine einzige halbe Linse oder fehlende Linse entkam der Detektion.
  • Von den zwölf negativen Beurteilungen der Maschinen wiesen sieben Bilder aufgrund der Beleuchtungsfehler schwache Kanten auf und in fünf Fällen traten echte Fehler auf, die von dem menschlichen Prüfer nicht gesehen wurden, aber von der Maschine und einem zweiten menschlichen Prüfer gesehen wurden. Von den dreizehn positiven Beurteilungen der Maschine wiesen vier Linsen nicht länger Fehler auf oder sind sie durch zusätzliches Material, das abgewaschen worden ist, verursacht worden. Sechs Bilder wiesen aufgrund der Beleuchtungsfehler schwache Kanten auf und drei Linsen hatten Fehler, die zu klein waren, um von einem menschlichen Prüfer gesehen zu werden.
  • Somit waren von den 128 getesteten Linsen grob 20% mit der menschlichen Überprüfung inkonsistent. Von diesen Fehlern wurden 56% der Beleuchtung, 36% Fehlern des menschlichen Prüfers oder Änderungen des Linsenzustandes durch Handhabung und 12% falschen Entscheidungen zugeordnet. Diese 12% entsprechen nur 2,3% falschen Entscheidungen insgesamt.
  • Da die Mehrheit der inkonsistenten Entscheidungen auf Beleuchtungsproblemen beruht, wurde eine Untersuchung vorgenommen, und es wurde herausgefunden, daß eine Ungleichförmigkeit der Lichtquelle und insbesondere über die Beleuchtung die Linsenkante verwaschen ließ und Fehler nicht sichtbar machte.
  • Ein weiterer Grund für ein inkonsistentes Ergebnis zwischen der menschlichen Prüfung und der Maschinenprüfung bestand darin, daß die Linse weder während der menschlichen Überprüfung noch der Maschinenüberprüfung in Bewegung gehalten wurde, wobei eine Unterscheidung zwischen Teilchen in dem Wasser und Fehlern an der Linse nicht leicht offenbar war.
  • Die Beleuchtung der Linse wurde durch Bereitstellen einer gleichförmigeren und diffuseren Beleuchtungsquelle verbessert. Nach den Beleuchtungsverbesserungen wurden 128 zusätzliche Linsen maschinenüberprüft. Bei diesem Überprüfungsprotokoll wurden für jede Linse zwei Bilder von der Maschine aufgenommen und mit einem Überprüfungsbericht eines menschlichen Prüfers verglichen. Die Ergebnisse dieser Überprüfung durch die Maschine und den Menschen sind in Tabelle 2 gegeben.
  • TABELLE 2: Zusammenfassung von Maschinen- gegenüber menschlicher Inspektion #2
    Figure 00340001
  • Wie anhand der in Tabelle 2 gegebenen Daten beobachtet werden kann, wurde eine neue Kategorie von negativen Beurteilungen, "nicht fokussiertes Bild", beobachtet. Die Spur führte dazu, daß die Linse falsch unter der Kammer angeordnet worden ist, was dazu führte, daß ein Teil der Linse sich nicht im Fokus befand. Als ein Maß für die Systemleistung ist ein nicht fokussiertes Bild nicht für die Zuverlässigkeit kennzeichnend, sondern eine Form von Benutzerfehler, und diese Datenpunkte wurden richtigerweise ausgeschlossen.
  • verursachte, beträgt der Anteil von Linsen, bei denen die menschliche Überprüfung und die Maschine nicht übereinstimmen, nur 15,6%. Dies ist eine Verbesserung um 3,9% gegenüber den ersten 128 Linsen.
  • In einem dritten Vergleichsexperimentdurchgang wurden 192 Linsen von einem Menschen überprüft und dann zweimal von der Maschine abgebildet. Die Ergebnisse ähnelten den vorangehenden Experimentdurchgängen. Von der Gesamtanzahl von 384 Bildern stimmten 317 Einstufungen, 82,6%, mit der menschlichen Überprüfung überein. Als ein Maß der Konsistenz bei dem Verarbeitungsalgorithmus und der resultierenden Linseneinstufung wurden beide von der Maschine aufgenommenen Bilder von dem Algorithmus bearbeitet und in 84% der Fälle waren die Punktzahlen in dem zweiten Durchgang mit denjenigen des ersten identisch.
  • Obwohl das Prüfsystem in erster Linie gestaltet ist, um die Linsenkante zu überprüfen, wurden fehlende Linsen aufgrund der bei der Lokalisierung der Linsenkante benutzten Suchvektoren richtig aufgefunden. Da die Linsenkantensuchroutine mehrere Male durchgeführt wird, wurden Linsen mit Löchern detektiert, zusätzliche Stücke aufgefunden und Linsen mit Kantentropfen aufgefunden.
  • In der folgenden Tabelle 3 sind die Ergebnisse der dritten Überprüfung unterteilt in negative Beurteilungen der Maschine, positive Beurteilungen der Maschine und korrekte Einstufungen angegeben. Nur 8,1% der Maschinenüberprüfungen waren falsche negative Beurteilungen und 9,4% waren falsche positive Beurteilungen.
  • Gesamtzahl der Negative Be- Positive Be- fehlenden Gesamturteilungen urteilungen Überein- zahl Prozent
    Figure 00350001
  • Die Ergebnisse der ersten zwei Schalen waren schlechter als die folgenden vier, da das Wasser Staubverschmutzungen aufgenommen hatte. Und somit ist dies nicht für die Systemleistung kennzeichnend.
  • Insgesamt stimmten der menschliche Prüfer und die Maschine 317 mal überein und stimmten sie 67 mal nicht überein. Bei Betrachtung der übereinstimmenden und negativen Beurteilung der Maschine waren die Entscheidungen aus Sicht der Überprüfung akzeptierbar, wobei die Verfügung über die Linse zu 90,6% genau war.

Claims (22)

  1. Verfahren zur Inspektion einer ophtalmischen Linse, das die Schritte umfaßt: Erzeugen eines beleuchteten Bildes der Linse auf einer Anordnung von Bildelementen; Erzeugen von Datenwerten, die die Intensität des beleuchteten Bildes auf der Anordnung von Bildelementen darstellen; Zuordnen eines Positionswertes und eines Bildintensitätswertes, der die Intensität des Linsenbildes auf dem Bildelement darstellt, zu jedem der Bildelemente; gekennzeichnet durch die Schritte: Verwenden eines Computers zum: (i) Vergleichen der Positionswerte und der Bildintensitätswerte der Bildelemente, um Beziehungen zwischen den Bildelementen herzustellen, (ii) Identifizieren von Sätzen von Bildelementen in beleuchteten Bildern mit vorab bestimmten Merkmalen der Linse anhand der Beziehungen, und (iii) Vergleichen der Beziehungen zwischen den Bildelementen in den identifizierten Sätzen von Bildelementen mit einer vorab hergestellten Beziehung, um festzustellen, ob eine Linse akzeptierbar ist.
  2. Das Verfahren nach Anspruch 1, worin der Vergleich zwischen Bildelementen entlang eines dem Umriß der Linsenkante (74) folgenden Weges durchgeführt wird.
  3. Das Verfahren nach Anspruch 1, worin die Identifikation von Merkmalen das Sammeln von Bildelementen, die eine Merkmalscharakteristik gemeinsam haben, zum Erzeugen eines Satzes von Bildelementen umfaßt.
  4. Das Verfahren von Anspruch 1, worin der Vergleich unter einem die Linsenkante (74) umfassenden Satz von Bildelementen stattfindet.
  5. Das Verfahren von Anspruch 1, worin der Vergleich unter einem einen Bereich des Linseninneren umfassenden Satz von Bildelementen stattfindet.
  6. Das Verfahren von Anspruch 2, worin die Linsenkante (74) als erstes an einem Punkt in der Nähe der Mitte der Anordnung von Bildelementen beginnend und zu der Grenze der Anordnung von Bildelementen voranschreitend, bis ein Bildelement mit einer Intensitätswertscharakteristik einer Linsenkante aufgefunden ist, aufgefunden wird.
  7. Das Verfahren von Anspruch 6, worin dem Umriß eines Satzes von verbundenen zusätzlichen Bildelementen in der Nähe des Bildelements mit einer Intensitätswertscharakteristik einer Linsenkante gefolgt wird, um zu bestimmen, ob der Umriß derjenige einer Linsenkante (74) ist.
  8. Das Verfahren von Anspruch 4, worin ein Verarbeitungskreisring (90) um die Linsenkante (74) gelegt wird, um die Anzahl von verarbeiteten Bildelementen auf in der Nähe der Linsenkante befindliche zu beschränken.
  9. Das Verfahren von Anspruch 4, worin der Satz von Bildelementen mit der Linsenkante (74) zusätzlich in zwei Untergruppen von Bildelementen zum Durchführen des Vergleiches unterteilt wird, wobei eine Untergruppe von Bildelementen den Übergang von dem Linseninneren zu der Linsenkante und eine Untergruppe von Bildelementen den Übergang von dem Gebiet außerhalb der Linse zu der Linsenkante umfaßt.
  10. Verfahren von Anspruch 9, worin der Vergleich unter Bildelementen von der Untergruppe von Bildelementen mit dem Übergang von dem Linseninneren zu der Linsenkante durchgeführt wird.
  11. Das Verfahren von Anspruch 9, worin der Vergleich unter Bildelementen von der Untergruppe von Bildelementen mit dem Übergang von dem Gebiet außerhalb der Linse zu der Linsenkante durchgeführt wird.
  12. Das Verfahren von Anspruch 9, worin der Vergleich zwischen Bildelementen von der Untergruppe von Bildelementen mit dem Übergang von dem Linseninneren zu der Linsenkante und der Untergruppe mit dem Übergang von dem Gebiet außerhalb der Linse zu der Linsenkante durchgeführt wird.
  13. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine Unstetigkeit in den die Linsenkante erzeugenden Bildelementen ist.
  14. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine Gradientenabweichung in der Intensität der die Linsenkante erzeugenden Bildelemente ist.
  15. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine radiale Abweichung in der Lage der die Linsenkante erzeugenden Bildelemente ist.
  16. Das Verfahren von Anspruch 4, worin die verglichene Beziehung eine räumliche Abweichung der Lage der die Linsenkante erzeugenden Bildelemente ist.
  17. Das Verfahren von Anspruch 1, das die Schritte umfaßt: 1) Zuordnen eines der Datenwerte zu jedem von einer Gruppe von Bildelementen; 2) Auswählen eines der Bildelemente in der Anordnung als ein interessierendes Bildelement; 3) Bestimmen anhand der Datenwerte, ob das interessierende Bildelement eine Merkmalscharakteristik aufweist; wenn das interessierende Bildelement nicht die Merkmalscharakteristik aufweist, 4a) Auswechseln des interessierenden Bildelements durch ein anderes Bildelement in der Anordnung von Bildelementen, wobei sowohl das eine und als auch das andere Bildelement auf einem bestimmten Weg liegen, und 4b) Wiederholen des Schrittes (3); wenn das interessierende Bildelement die Merkmalscharakteristik aufweist, 5a) Vergleichen der den Bildelementen, die sich benachbart zu dem interessierenden Bildelement befinden, zugeordneten Datenwerte. 5b) Bestimmen des benachbarten Bildelements, das die beste Korrelation mit der Merkmalscharakteristik aufweist; 5c) Auswechseln des interessierenden Bildelements durch dasjenige benachbarte Bildelement, das die beste Korrelation aufweist; 5d) Wiederholen der Schritte (5a), (5b) und (5c), bis das interessierende Bildelement die Vervollständigung der Merkmalscharakteristik darstellt; 5e) Bestimmen, ob der von den interessierenden Bildelementen erzeugte Satz eine Katne des beleuchteten Bildes der Linse erzeugt; 6) Wiederholen der Schritte (4a) und (4b) für diejenigen Sätze von Bildelementen, die nicht eine Linsenkante darstellen; und 7) Vergleichen der Beziehung zwischen den Bildelementen der Sätze mit vorab bestimmten Beziehungen, um zu bestimmen, ob die Linse akzeptierbar ist, für diejenigen Sätze von Bildelementen, die eine Linsenkante darstellen.
  18. Das Verfahren von Anspruch 17, worin das Startbildelement sich in der Nähe der Mitte der Linse befindet und der die Linsenkante kreuzende Weg sich entlang eines sich von der Mitte der Linse erstreckenden Strahls befindet.
  19. Das Verfahren von Anspruch 18, das außerdem in Schritt (6) den Schritt des Vergleichens des Satzes von Bildelementen, die nicht eine Linsenkante darstellen, mit einer vorab bestimmten Beziehung umfaßt, um zu bestimmen, ob die Linse akzeptierbar ist.
  20. Das Verfahren von Anspruch 18, worin die ungefähre Mitte der Linse durch Heranziehen wenigstens eines Satzes von wenigstens drei Punkten mit einer Kantencharakteristik bestimmt wird.
  21. Das Verfahren von Anspruch 17, worin die Merkmalscharakteristik ein Absolutwert eines Bildintensitätsgradienten ist.
  22. Vorrichtung zur Inspektion und Bewertung von ophtalmischen Linsen, mit: einer Lichtquelle (14) zum Beleuchten einer Linse (12); einer Kamera (16) mit einem Empfänger (20), der mehrere Bildelemente zum Empfangen eines beleuchteten Bildes der Linse (12) einschließt; und einer Einrichtung (26, 28, 30) zum Erzeugen von Datenwerten, die die Intensität des beleuchteten Bildes auf jedem Bildelement darstellen; gekennzeichnet durch eine Speichereinrichtung (46) zum Speichern des zu jedem Bildelement gehörigen Bildintensitätswerts und zum Speichern eines zu der Lage jedes Bildelements in dem Empfänger gehörigen Lagewertes; und einen digitalisierten Computer (28), der zum Empfangen der Bildintensitätswerte und Lagewerte mit der Speichereinrichtung (46) verbunden ist und eine Einrichtung zum Vergleichen der Bildintensitätswerte und der Lagewerte zur Herstellung von Beziehungen zwischen den Bildelementen zur Identifizierung von Sätzen von Bildelementen in beleuchteten Bildern mit vorab bestimmten Merkmalen der Linse anhand genannter Beziehungen einschließt und ferner eine Einrichtung zum Vergleichen von Beziehungen zwischen Bildelementen in den identifizierten Sätzen von Bildelementen mit einer vorab hergestellten Beziehung, um festzustellen, ob genannte Merkmale die Linse nicht akzeptierbar machen, einschließt.
DE69320014T 1992-12-21 1993-12-20 Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen Expired - Lifetime DE69320014T3 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US99375692A 1992-12-21 1992-12-21
US993756 1992-12-21

Publications (3)

Publication Number Publication Date
DE69320014D1 DE69320014D1 (de) 1998-09-03
DE69320014T2 DE69320014T2 (de) 1999-03-04
DE69320014T3 true DE69320014T3 (de) 2006-08-24

Family

ID=25539896

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69320014T Expired - Lifetime DE69320014T3 (de) 1992-12-21 1993-12-20 Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen

Country Status (23)

Country Link
US (1) US5717781A (de)
EP (1) EP0604179B9 (de)
JP (1) JP3708138B2 (de)
KR (1) KR100233218B1 (de)
CN (1) CN1071893C (de)
AT (1) ATE169109T1 (de)
AU (1) AU668606B2 (de)
BR (1) BR9305148A (de)
CA (1) CA2111738C (de)
CZ (1) CZ278293A3 (de)
DE (1) DE69320014T3 (de)
ES (1) ES2121064T3 (de)
FI (1) FI935739A (de)
GR (1) GR1002468B (de)
GT (1) GT199300075A (de)
HK (1) HK1003444A1 (de)
HU (1) HUT65571A (de)
IL (1) IL107603A (de)
MX (1) MX9400085A (de)
NO (1) NO934708L (de)
NZ (1) NZ250427A (de)
TW (1) TW278133B (de)
ZA (1) ZA939538B (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GR1002574B (el) * 1992-12-21 1997-02-06 Johnson & Johnson Vision Products Inc. Παλλετα για την υποδοχη και μεταφορα δοχειων οφθαλμικων φακων.
IL107605A (en) * 1992-12-21 1998-01-04 Johnson & Johnson Vision Prod Lens test system
TW325744U (en) * 1993-07-21 1998-01-21 Ciba Geigy Ag Two-sided contact lens mold
ES2101465T3 (es) * 1993-09-17 1997-07-01 Essilor Int Procedimiento de medicion absoluta de la estructura geometrica u optica de un componente optico y dispositivo para su puesta en practica.
US5528878A (en) 1994-06-10 1996-06-25 Johnson & Johnson Vision Products, Inc. Automated apparatus and method for consolidating products for packaging
US6148097A (en) * 1995-06-07 2000-11-14 Asahi Kogaku Kogyo Kabushiki Kaisha Optical member inspecting apparatus and method of inspection thereof
FR2743241B1 (fr) * 1995-12-28 1998-02-13 Sagem Procede de modification de la resolution d'une image numerisee
US5818573A (en) * 1997-02-06 1998-10-06 Pbh, Inc. Opthalmic lens inspection system
US5801822A (en) * 1997-02-06 1998-09-01 Pbh, Inc. Ophthalmic lens inspection system
US6113817A (en) * 1997-03-25 2000-09-05 Novartis Ag Molding processes
US6625318B1 (en) * 1998-11-13 2003-09-23 Yap-Peng Tan Robust sequential approach in detecting defective pixels within an image sensor
DE29901791U1 (de) * 1999-02-02 2000-07-06 Novartis Ag Linsenmesseinrichtung
US6567565B1 (en) * 1999-07-22 2003-05-20 Xerox Corporation Antialiased image rendering algorithm
WO2001080068A1 (en) * 2000-04-14 2001-10-25 Mobileye, Inc. Generating a model of the path of a roadway from an image recorded by a camera
US7474337B1 (en) * 2000-10-24 2009-01-06 Sony Corporation Method and apparatus to provide edge enhancements as part of a demosaicing process
US6577387B2 (en) 2000-12-29 2003-06-10 Johnson & Johnson Vision Care, Inc. Inspection of ophthalmic lenses using absorption
EP1245372B1 (de) 2001-03-26 2011-09-28 Novartis AG Giessform und Verfahren zur Herstellung von opthalmischen Linsen
DE10146499B4 (de) * 2001-09-21 2006-11-09 Carl Zeiss Smt Ag Verfahren zur Optimierung der Abbildungseigenschaften von mindestens zwei optischen Elementen sowie Verfahren zur Optimierung der Abbildungseigenschaften von mindestens drei optischen Elementen
US6788399B2 (en) * 2001-11-30 2004-09-07 Bausch & Lomb Incorporated Ophthalmic article inspection system
US7256881B2 (en) 2002-02-15 2007-08-14 Coopervision, Inc. Systems and methods for inspection of ophthalmic lenses
JP2005518537A (ja) * 2002-02-21 2005-06-23 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド 光学素子検査方法及び装置
FR2838513B1 (fr) * 2002-04-12 2004-09-10 Essilor Int Procede pour relever la forme d'un contour d'une lentille ophtalmique prealablement usinee
TWI224860B (en) * 2004-03-18 2004-12-01 Pixart Imaging Inc Automatically-packaging apparatus which can package an optical sensing module with a preferred distance between a lens and an optical sensor
GB2417073A (en) * 2004-08-13 2006-02-15 Mv Res Ltd A machine vision analysis system and method
US7038185B1 (en) * 2004-12-01 2006-05-02 Mitsubishi Electric Research Laboratories, Inc. Camera for directly generating a gradient image
JP4764040B2 (ja) * 2005-03-18 2011-08-31 キヤノン株式会社 レンズの非球面の偏心軸の偏心測定方法
US20060232766A1 (en) * 2005-03-31 2006-10-19 Watterson Robert J Jr Methods of inspecting ophthalmic lenses
US7663742B2 (en) * 2005-11-24 2010-02-16 Novartis Ag Lens inspection system using phase contrast imaging
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
US8122878B1 (en) * 2006-10-20 2012-02-28 Energy Innovations, Inc. Solar concentrator with camera alignment and tracking
CN101329281B (zh) * 2007-06-20 2011-08-10 佛山普立华科技有限公司 影像感测晶片污点检测系统及其检测方法
JP4991499B2 (ja) * 2007-11-28 2012-08-01 株式会社日立ハイテクノロジーズ レチクル検査装置及びレチクル検査方法
US8358828B2 (en) * 2007-12-28 2013-01-22 Cadence Design Systems, Inc. Interpolation of irregular data in a finite-dimensional metric space in lithographic simulation
JP2009170019A (ja) * 2008-01-15 2009-07-30 Taiyo Yuden Co Ltd 光ディスクの表面評価方法及び光ディスク記録再生装置
US7990531B2 (en) * 2008-06-05 2011-08-02 Coopervision International Holding Company, Lp Multi-imaging automated inspection methods and systems for wet ophthalmic lenses
SI2461767T1 (sl) 2010-07-30 2013-08-30 Novartis Ag Silikonske hidrogelne leče s površinami, bogatimi z vodo
US8696117B2 (en) * 2010-09-14 2014-04-15 Truform Optics Fitting a contact lens
US8699813B2 (en) * 2010-11-19 2014-04-15 Analog Devices, Inc Adaptive filter for low-light noise reduction
US20120133958A1 (en) * 2010-11-30 2012-05-31 Widman Michael F Laser confocal sensor metrology system
JP2012196245A (ja) * 2011-03-18 2012-10-18 Canon Inc 眼科情報処理装置及びその制御方法
SG11201400228WA (en) 2011-10-12 2014-05-29 Novartis Ag Method for making uv-absorbing ophthalmic lenses by coating
US8832621B1 (en) 2011-11-28 2014-09-09 Cadence Design Systems, Inc. Topology design using squish patterns
WO2013119775A1 (en) 2012-02-10 2013-08-15 Johnson & Johnson Vision Care, Inc. Method and apparatus for determining a thickness profile of an ophthalmic lens using a single point thickness and refractive index measurements
CN102768214B (zh) * 2012-05-28 2014-09-03 明基材料有限公司 隐形眼镜检测系统与方法
US8606011B1 (en) 2012-06-07 2013-12-10 Amazon Technologies, Inc. Adaptive thresholding for image recognition
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
SG11201504763UA (en) 2012-12-17 2015-07-30 Novartis Ag Method for making improved uv-absorbing ophthalmic lenses
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
US9256795B1 (en) 2013-03-15 2016-02-09 A9.Com, Inc. Text entity recognition
TW201508254A (zh) * 2013-08-27 2015-03-01 Hon Hai Prec Ind Co Ltd 鏡頭模組的測量方法
DE112014004645T5 (de) 2013-10-08 2016-08-18 Emage Vision Pte. Ltd. System und Verfahren zur Inspektion feuchter Kontaktlinsen
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
WO2015095157A1 (en) 2013-12-17 2015-06-25 Novartis Ag A silicone hydrogel lens with a crosslinked hydrophilic coating
WO2015174927A1 (en) 2014-05-15 2015-11-19 Emage Vision Pte. Ltd. System and method for inspecting opthalmic lenses
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US11002884B2 (en) 2014-08-26 2021-05-11 Alcon Inc. Method for applying stable coating on silicone hydrogel contact lenses
FR3039660B1 (fr) * 2015-07-30 2017-09-08 Essilor Int Methode de verification d'une caracteristique geometrique et d'une caracteristique optique d'une lentille ophtalmique detouree et dispositif associe
SG11201803726VA (en) 2015-12-15 2018-06-28 Novartis Ag Method for applying stable coating on silicone hydrogel contact lenses
EP3529581A2 (de) 2016-10-18 2019-08-28 Eyoto Group Limited Linsenuntersuchungsausrüstung und verfahren
EP3388813B1 (de) * 2017-04-13 2021-09-29 Carl Zeiss Vision International GmbH Verfahren zur herstellung eines brillenglases gemäss wenigstens eines datensatzes von formranddaten
EP3724697B1 (de) 2017-12-13 2022-01-12 Alcon Inc. Verfahren zur herstellung von mps-kompatiblen kontaktlinsen mit wassergradient
DE102018222140B3 (de) * 2018-12-18 2020-02-06 Siemens Mobility GmbH Ermitteln einer Durchlassgüte einer Optikeinheit eines Kamerasystems
CN112666178A (zh) * 2020-12-14 2021-04-16 杭州当虹科技股份有限公司 一种户外led大屏坏点在线监控方法
CN116503397B (zh) * 2023-06-26 2023-09-01 山东天通汽车科技股份有限公司 基于图像数据的车内传输带缺陷检测方法
CN116883446B (zh) * 2023-09-08 2023-11-21 鲁冉光电(微山)有限公司 一种车载摄像头镜片碾磨程度实时监测系统
CN117269179B (zh) * 2023-11-23 2024-02-02 平方和(北京)科技有限公司 基于机器视觉的隐形眼镜边缘缺陷的高精度检测方法和系统

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL112574C (de) 1958-01-14 1900-01-01
DD138110A1 (de) * 1978-07-27 1979-10-10 Horst Riesenberg Auflicht-beleuchtungseinrichtung fuer mikroskope
US4275964A (en) 1979-05-18 1981-06-30 Rodenstock Instruments Corporation Apparatus and method for determining the refractive characteristics of a test lens
DE3115634A1 (de) * 1981-04-18 1982-11-04 Feldmühle AG, 4000 Düsseldorf Verfahren und vorrichtung zum pruefen von durch kreislinien begrenzten flaechen
US4598420A (en) * 1983-12-08 1986-07-01 Mts Systems Corporation Optical grid analyzer system for automatically determining strain in deformed sheet metal
JPS60159637A (ja) 1984-01-31 1985-08-21 Kirin Brewery Co Ltd 欠陥検出方法および装置
DE3432002A1 (de) * 1984-08-31 1986-03-06 Fa. Carl Zeiss, 7920 Heidenheim Verfahren und vorrichtung zur optischen untersuchung von kontaktlinsen
GB2171812B (en) * 1984-11-20 1988-08-17 Michael Roy Killpartrick Wet cell inspection of contact lenses
JPH0616013B2 (ja) 1984-11-22 1994-03-02 肇産業株式会社 自動検査装置
JPS61223542A (ja) 1985-03-28 1986-10-04 Eisai Co Ltd アンプルの溶閉不良検出方法及び装置
US4691231A (en) 1985-10-01 1987-09-01 Vistech Corporation Bottle inspection system
US4817184A (en) * 1986-04-14 1989-03-28 Vartec Corporation Electronic inspection system and methods of inspection
US4817166A (en) * 1986-05-05 1989-03-28 Perceptics Corporation Apparatus for reading a license plate
DD249525A1 (de) 1986-06-02 1987-09-09 Zeiss Jena Veb Carl Anordnung zum fotoelektrischen erkennen des zusammenfallens zweier objektbilder
DE3629676A1 (de) * 1986-09-01 1988-03-10 Rodenstock Instr Einrichtung zur messung der refraktionseigenschaften von brillenglaesern
US4798460A (en) * 1986-11-07 1989-01-17 Buffington Robert D Method and apparatus for detecting and modifying peripheral curves and junction ridges in contact lenses
JPH0711494B2 (ja) 1988-06-16 1995-02-08 松下電工株式会社 透光性容器の検査方法
US5081685A (en) * 1988-11-29 1992-01-14 Westinghouse Electric Corp. Apparatus and method for reading a license plate
JPH02257007A (ja) * 1989-03-30 1990-10-17 Seiko Epson Corp コンタクトレンズ外周欠け検査装置
FR2647912B1 (fr) 1989-06-05 1991-09-13 Essilor Int Dispositif optique a reseau pour le controle, en transmission, par detection de phase, d'un quelconque systeme optique, en particulier d'une lentille ophtalmique
US5080839A (en) * 1990-04-17 1992-01-14 Johnson & Johnson Vision Products, Inc. Process for hydrating soft contact lenses
US5094609A (en) * 1990-04-17 1992-03-10 Vistakon, Inc. Chamber for hydrating contact lenses
JP2942596B2 (ja) * 1990-07-06 1999-08-30 株式会社ニデック 自動レンズメーター
JP2981762B2 (ja) 1990-08-21 1999-11-22 三菱電線工業株式会社 Oリング検査方法
US5100232A (en) * 1990-11-05 1992-03-31 American Optical Corporation Apparatus and method for detecting hidden marks on progressive aspheric ophthalmic lenses
JPH0776757B2 (ja) * 1990-12-14 1995-08-16 インターナショナル・ビジネス・マシーンズ・コーポレイション 光学的検査装置
AU649291B2 (en) * 1990-12-19 1994-05-19 Bodenseewerk Geratetechnik Gmbh Process and apparatus for examining optical components, especially optical components for the eye and device for illuminating clear-transparent test-objects
JPH04305144A (ja) * 1991-04-01 1992-10-28 Seiko Epson Corp コンタクトレンズ外周欠け検査装置
US5301004A (en) 1992-03-13 1994-04-05 Leica Inc. Method and apparatus for determining the optical properties of a lens

Also Published As

Publication number Publication date
NO934708L (no) 1994-06-22
EP0604179A3 (de) 1995-02-15
GT199300075A (es) 1995-06-08
IL107603A (en) 1997-01-10
HUT65571A (en) 1994-07-28
NO934708D0 (no) 1993-12-20
EP0604179B2 (de) 2006-01-04
NZ250427A (en) 1997-03-24
AU668606B2 (en) 1996-05-09
KR100233218B1 (ko) 1999-12-01
FI935739A0 (fi) 1993-12-20
EP0604179B9 (de) 2006-06-28
MX9400085A (es) 1994-07-29
KR940015471A (ko) 1994-07-21
ATE169109T1 (de) 1998-08-15
US5717781A (en) 1998-02-10
TW278133B (de) 1996-06-11
AU5194493A (en) 1994-06-30
HU9303348D0 (en) 1994-03-28
DE69320014T2 (de) 1999-03-04
HK1003444A1 (en) 1998-10-30
BR9305148A (pt) 1994-08-16
GR1002468B (el) 1996-11-08
JPH06229873A (ja) 1994-08-19
GR930100477A (el) 1994-08-31
ES2121064T3 (es) 1998-11-16
DE69320014D1 (de) 1998-09-03
IL107603A0 (en) 1994-02-27
CN1092166A (zh) 1994-09-14
FI935739A (fi) 1994-06-22
CA2111738A1 (en) 1994-06-22
ZA939538B (en) 1995-06-20
EP0604179B1 (de) 1998-07-29
JP3708138B2 (ja) 2005-10-19
CA2111738C (en) 2005-09-06
EP0604179A2 (de) 1994-06-29
CN1071893C (zh) 2001-09-26
CZ278293A3 (en) 1996-03-13

Similar Documents

Publication Publication Date Title
DE69320014T3 (de) Verfahren und Vorrichtung zur Inspektion von ophthalmischen Linsen
DE69319875T3 (de) Beleuchtungs- und Abbildungs-Teilsysteme für ein Linseninspektionssystem
DE3612233C2 (de)
DE3937950C2 (de)
DE69320020T3 (de) Verfahren und System zur Inspektion von ophthalmischen Linsen
DE4410603C1 (de) Verfahren zur Erkennung von Fehlern bei der Inspektion von strukturierten Oberflächen
DE69831917T2 (de) Verbessertes Verfahren und Vorrichtung zur Waferprobendetektion
DE102018129425B4 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
EP0023574B1 (de) Opto-elektronisches Prüfsystem zur automatischen Beschaffenheitsprüfung von Leiterplatten, deren Zwischenprodukte und Druckwerkzeuge
DE3336471A1 (de) Verfahren und anordnung zur inspektion von bildern
DE4222804A1 (de) Einrichtung und verfahren zur automatischen visuellen pruefung elektrischer und elektronischer baueinheiten
DE2508611A1 (de) Verfahren zur bestimmung der charakteristischen brechkraefte einer linse und vorrichtung zur durchfuehrung desselben
DE10011200A1 (de) Verfahren zur Bewertung von Strukturfehlern auf einer Waferoberfläche
DE60018663T2 (de) Abstandsmesser, welcher stereoskopische Bilder verwendet
EP0938662B1 (de) Verfahren zum testen der zuverlässigkeit eines prüfgerätes, insbesondere eines leerflascheninspektors
DE102020102853A1 (de) Fehlerprüfvorrichtung und -verfahren
DE2653590A1 (de) Vorrichtung zum ermitteln von fehlern in flaechenhaften mustern, insbesondere in photomasken
EP4233500A1 (de) Verfahren und vorrichtung zur optischen qualitätskontrolle während der fertigung von leiterplatten
DE19632058C1 (de) Optoelektronisch erfaßbares Identifizierungs- oder Zielelement sowie Verfahren zu seiner Erfassung
DD239369A1 (de) Anordnung zur automatischen ueberwachung von ein- und mehrschneidigen werkzeugen an bearbeitungsmaschinen
WO2009127572A1 (de) Inspektionssystem und -verfahren für die optische untersuchung von objektoberflächen, insbesondere von waferoberflächen
DE20317095U1 (de) Vorrichtung zur Erkennung von Oberflächenfehlern
WO2004049267A1 (de) Verfahren zur fotografischen aufnahme eines zylinderförmigen, insbesondere plattenförmigen gegenstandes
DE19929118C2 (de) Verfahren zum optischen Prüfen der Zwischenschicht eines wenigstens dreischichtigen flächigen Gegenstandes
DE10351925B4 (de) Verfahren und Vorrichtung zur Erkennung von Oberflächenfehlern

Legal Events

Date Code Title Description
8363 Opposition against the patent
8366 Restricted maintained after opposition proceedings
8328 Change in the person/name/address of the agent

Representative=s name: BOEHMERT & BOEHMERT, 28209 BREMEN