DE102014106482A1 - Automatisierte boroskopische Messung beim Sondenpräzisionstest - Google Patents

Automatisierte boroskopische Messung beim Sondenpräzisionstest Download PDF

Info

Publication number
DE102014106482A1
DE102014106482A1 DE201410106482 DE102014106482A DE102014106482A1 DE 102014106482 A1 DE102014106482 A1 DE 102014106482A1 DE 201410106482 DE201410106482 DE 201410106482 DE 102014106482 A DE102014106482 A DE 102014106482A DE 102014106482 A1 DE102014106482 A1 DE 102014106482A1
Authority
DE
Germany
Prior art keywords
light
test
inspection
geometric property
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201410106482
Other languages
English (en)
Inventor
Clark Alexander Bendall
Joshua Lynn Scott
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102014106482A1 publication Critical patent/DE102014106482A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Die Messgenauigkeit eines visuellen Fernprüfsystems (RVI) wird unter Verwendung eines Prüfobjekts getestet, das ein Prüfmerkmal aufweist, welches eine bekannte geometrische Eigenschaft aufweist. Unter Verwendung einer Steuereinheit wird die Anbringung einer abnehmbaren optischen Messspitze an einer RVI-Sonde erfasst. Dann wird ein Anwender aufgefordert, eine Prüfung der Messgenauigkeit durchzuführen. Wenn der Anwender angibt, dass das Prüfmerkmal sichtbar ist, nimmt das System eines oder mehrere Bilder von dem Prüfmerkmal auf, bestimmt Koordinaten des Prüfmerkmals anhand der Bilder und misst eine geometrische Eigenschaft des Prüfmerkmals unter Verwendung der Koordinaten. Ein Genauigkeitsergebnis wird unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft bestimmt, und an den Anwender wird eine Angabe des Ergebnisses des Vergleichs ausgegeben. Ein RVI-System mit einer Anwenderaufforderungsvorrichtung wird ebenfalls beschrieben.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gegenstand der vorliegenden Beschreibung sind visuelle Prüfsysteme, und genauer Möglichkeiten der Evaluierung der Leistung solcher Systeme.
  • Visuelle Fernprüfsysteme (RVI-Systeme), z.B. Boroskope, ermöglichen die Betrachtung von Merkmalen, die für menschliche Inspektoren nicht direkt zugänglich sind, beispielsweise Turbinenblätter. RVI-Systeme ermöglichen außerdem eine visuelle Prüfung in Bereichen, die für Menschen gefährlich sind, beispielsweise in toxischen oder sehr heißen Umgebungen. RVI-Systeme weisen abnehmbare Spitzen auf. Ein Prüfer wählt für jede Prüfung eine passende Spitze aus. Einige Spitzen gestatten nicht nur die Aufnahme von Bildern von Objekten, die überprüft werden, sondern auch die Erfassung dreidimensionaler Daten über die Form dieser Objekte. Zum Beispiel projizieren Phasenmessspitzen strukturierte Lichtmuster, z.B. parallele Linien, auf Prüfziele. Dann werden Bilder des Ziels aufgenommen. Die Phasen der strukturierten Lichtmuster, die von den Zielen zurückgeworfen werden, hängen von den Distanzen zwischen den Musterprojektoren und den Zielen ab. In verschiedenen Beispielen werden Unterschiede zwischen den absoluten Phasen zweier separat projizierter Fringe- bzw. Streifensätze verwendet, um Objektdistanzen zu bestimmen.
  • Jedoch kann durch das wiederholte Anbringen und Abnehmen von Spitzen, zusätzlich zu den Umgebungsbedingungen, in denen sie eingesetzt werden, die Leistung der Spitzen im Lauf der Zeit abnehmen oder verschoben werden. Zum Beispiel weisen manche Spitzen Lichtquellen auf. Diese Lichtquellen können mit Staub oder anderen Verunreinigungen verkrustet werden, was die Lichtabgabe verringert. Bei Spitzen, die im Allgemeinen gleichmäßig leuchten, beispielsweise Phasenmessspitzen, kann die Verringerung der differenziellen Helligkeit die Genauigkeit verringern, mit der 3D-Daten gemessen werden.
  • Systeme des Standes der Technik verwenden einen Prüfblock, um eine Verifizierung der Vergrößerung an Bildaufnahmespitzen durchzuführen. Bei Spitzen für 3D-Messungen können die Prüfblöcke auch verwendet werden, um eine Triangulationsgeometrie zu verifizieren. Der Prüfblock weist ein sichtbares Merkmal von bekannter Größe auf und eine Halterung, um die Spitze in Bezug auf das Merkmal festzuhalten. Um die Vergrößerung zu überprüfen, führt ein Anwender die Spitze in den Prüfblock ein und nimmt ein Bild des Merkmals auf. Dann verwendet der Anwender die normalen Messfunktionen des RVI-Systems, um die Größe des Merkmals zu messen. Dies beinhaltet im Allgemeinen eine manuelle Positionierung von Fadenkreuzen, Zeigern oder anderen Positionsgebern über Abschnitten des Merkmals, ein Eingeben von Daten über die Spitze und den Testblock in das RVI-System, das Empfangen eines Messwerts vom Fadenkreuz des RVI-Systems und das Vergleichen dieses Messwerts mit einem bekannten Wert. Obwohl diese Verifizierung nützlich sein kann, ist sie auf eine einfache dimensionale Messung beschränkt und eignet sich nicht für höher entwickelte Spitzen, wie Phasenmessspitzen, die verwendet werden können, um 3D-Messungen durchzuführen.
  • Die obige Erörterung soll nur allgemeine Hintergrundinformationen liefern und soll nicht dafür verwendet werden, den Bereich des beanspruchten Gegenstands zu bestimmen.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • Außerdem besteht ein Problem, das im Stand der Technik nicht erkannt wird, darin, dass allmähliche Änderungen, die im Lauf der Zeit passieren, für Menschen schwer wahrzunehmen sind. Ein menschlicher Prüfer, der Bilder von einer 3D-Messspitze mit unterschiedlich verunklarten Lichtquellen betrachtet, erkennt möglicherweise nicht, dass die 3D-Daten nicht so genau sind wie sie sein sollten. Obwohl manche RVI-Systeme, die zu einer Stereomessung fähig sind, Tests beinhalten, um die Genauigkeit der Stereodaten zu bestimmen, werden diese Tests nur auf eine Aufforderung eines Prüfers hin durchgeführt. Somit besteht ein Bedarf an einer Möglichkeit, automatisch zu bestimmen, ob die Leistung einer Spitze beeinträchtigt ist, und, falls dem so ist, den Anwender des RVI-Systems zu warnen.
  • Somit wird die Messgenauigkeit eines visuellen Fernprüfsystems (RVI) unter Verwendung eines Prüfobjekts getestet, das ein Prüfmerkmal aufweist, welches eine bekannte geometrische Eigenschaft aufweist. Unter Verwendung einer Steuereinheit wird die Anbringung einer abnehmbaren optischen Messspitze an einer RVI-Sonde erfasst. Dann wird ein Anwender aufgefordert, eine Prüfung der Messgenauigkeit durchzuführen. Wenn der Anwender angibt, dass das Prüfmerkmal sichtbar ist, nimmt das System eines oder mehrere Bilder von dem Prüfmerkmal auf, bestimmt Koordinaten des Prüfmerkmals anhand der Bilder und misst eine geometrische Eigenschaft des Prüfmerkmals unter Verwendung der Koordinaten. Ein Genauigkeitsergebnis wird unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft bestimmt, und an den Anwender wird eine Angabe des Ergebnisses des Vergleichs ausgegeben.
  • Ein Vorteil, der bei der Durchführung einiger offenbarter Ausführungsformen des Verfahrens erzielt werden kann, besteht darin, dass die Daten automatisch auf ihre Genauigkeit geprüft werden, ohne dass ein Anwender ein Fadenkreuz positionieren müsste oder andere manuelle Aktionen ausführen müsste, nachdem das Prüfmerkmal im Sichtfeld der Spitze positioniert worden ist. Der Anwender wird aufgefordert, eine Verifizierung durchzuführen, wodurch vorteilhafterweise die Wahrscheinlichkeit dafür, dass allmähliche Änderungen unentdeckt bleiben, verringert wird. Verschiedene Ausführungsformen können eine Verifizierung der Spitzen leisten, die Messdaten jenseits einer Bildaufnahme ermöglichen, beispielsweise 3D-Phasenmessspitzen.
  • In einer Ausführungsform wird ein Verfahren zum Prüfen der Messgenauigkeit eines visuellen Fernprüfsystems offenbart. Die Prüfung wird unter Verwendung eines Prüfobjekts durchgeführt, welches ein Prüfmerkmal mit einer bekannten geometrischen Eigenschaft aufweist. Das Verfahren umfasst das automatische Durchführen der folgenden Schritte unter Verwendung einer Steuereinheit: Erfassen der Anbringung einer abnehmbaren optischen Messspitze an einer Sonde des visuellen Fernprüfsystems, Auffordern eines Anwenders über eine Anwenderaufforderungsvorrichtung, eine Prüfung der Messgenauigkeit des visuellen Fernprüfsystems durchführen, nachdem die Anbringung der abnehmbaren optischen Messspitze erfasst worden ist, Aufnehmen eines oder mehrerer Bilder von dem Prüfmerkmal des Prüfobjekts, Bestimmen von Koordinaten des Prüfmerkmals unter Verwendung mindestens einiger von den aufgenommenen Bildern, Bestimmen einer gemessenen geometrischen Eigenschaft des Prüfmerkmals unter Verwendung der gemessenen geometrischen Koordinaten des Prüfmerkmals, Bestimmen eines Genauigkeitsergebnisses unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft und Ausgeben einer Angabe des bestimmten Genauigkeitsergebnisses.
  • Das Verfahren kann umfassen, dass der Schritt des Bestimmens des Genauigkeitsergebnisses das Berechnen des Genauigkeitsergebnisses als Differenz zwischen der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft des Prüfmerkmals beinhaltet.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Schritt des Bestimmens des Genauigkeitsergebnisses beinhaltet: Bestimmen eines Genauigkeitswerts auf Basis einer Differenz zwischen der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft des Prüfmerkmals; Vergleichen des Genauigkeitswerts mit einem vorgegebenen annehmbaren Genauigkeitswert; und Ausgeben eines Ergebnisses des Vergleichs als Genauigkeitsergebnis.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Erfassungsschritt das Anlegen einer Prüfspannung an eine Erfassungsschaltung und das Messen einer Spannung an einem Prüfpunkt in der Erfassungsschaltung beinhaltet, wobei die Erfassungsschaltung so gestaltet ist, dass die Spannung am Prüfpunkt, wenn die abnehmbare optische Messspitze angebracht worden ist, anders ist als wenn die abnehmbare optische Messspitze nicht angebracht ist.
  • Jedes der oben genannten Verfahren kann umfassen, dass die Sonde einen Bildsensor aufweist und dass die abnehmbare optische Messspitze eine optische Spitze, die strukturiertes Licht misst, eine stereooptische Spitze oder eine schattenoptische Spitze ist.
  • Jedes der oben genannten Verfahren kann umfassen, dass die abnehmbare optische Messspitze mehrere Leuchtdioden (LEDs) aufweist und dafür ausgelegt ist, ein strukturiertes Lichtmuster auf ein Objekt im Sichtfeld des Bildsensors zu projizieren, wenn die Steuereinheit irgendeine der LEDs aktiviert.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Aufforderungsschritt das Warten auf eine Prüfstartanzeige von einer Anwendereingabevorrichtung beinhaltet.
  • Jedes der oben genannten Verfahren kann umfassen, dass die Anwenderaufforderungsvorrichtung ein Bildschirm ist.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Aufforderungsschritt beinhaltet: Präsentieren eines bewegten Bildes von einem Bildsensor in der Sonde auf dem Bildschirm; und Präsentieren einer visuellen Darstellung eines Bildes von einem Bildsensor in einer gewünschten Ausrichtung in Bezug auf das Prüfmerkmal auf dem Bildschirm.
  • Jedes der oben genannten Verfahren kann ferner das Bestimmen einer Identität der angebrachten optischen Messspitze und das Auswählen der visuellen Darstellung unter Verwendung der bestimmten Identität beinhalten.
  • Jedes der oben genannten Verfahren kann umfassen, dass die gemessene geometrische Eigenschaft eine Länge, eine Breite, eine Höhe, eine Tiefe, ein Radius oder eine Abweichung von einer flachen Ebene oder einer anderen Bezugsoberfläche des Prüfmerkmals ist, und wobei das Prüfmerkmal eine flache Oberfläche, eine kugelige oder andere erhabene dreidimensionale (3D-)Oberfläche oder eine Nut, eine kreisförmige Eintiefung oder eine andere eingetiefte 3D-Oberfläche beinhaltet.
  • Jedes der oben genannten Verfahren kann umfassen, dass die bestimmten Koordinaten dreidimensionale (3D-)Koordinaten sind, dass die bekannte geometrische Eigenschaft 3D-Koordinaten von mehreren Bezugspunkten beinhaltet, und dass die gemessene geometrische Eigenschaft ein Distanzmaß zwischen den bestimmen Koordinaten und den Bezugspunkten ist.
  • Jedes der oben genannten Verfahren kann umfassen, dass das Distanzmaß ein mittleres Quadrat, eine Quadratsumme, ein quadratischer Mittelwert oder ein Durchschnitt jeweiliger Abstände zwischen zumindest einigen von den bestimmten Koordinaten und entsprechenden Bezugspunkten ist.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Schritt des Bestimmens der gemessenen geometrischen Eigenschaft beinhaltet: Bereitstellen eines oder mehrerer Werte, die für die gemessene geometrische Eigenschaft repräsentativ sind; dass die bekannte geometrische Eigenschaft einen oder mehrere vorgegebene Werte beinhaltet, die repräsentativ sind für das Prüfmerkmal; und dass der Schritt des Bestimmens der Genauigkeit das Berechnen von einer oder mehreren Differenzen zwischen dem einen oder den mehreren Werten, die repräsentativ sind für die gemessene geometrische Eigenschaft, und dem einen oder den mehreren vorgegebenen Werten der bekannten geometrischen Eigenschaft beinhaltet.
  • Jedes der oben genannten Verfahren kann umfassen, dass der Vergleichsschritt das Bestimmen beinhaltet, ob die mindestens eine berechnete Differenz kleiner ist als der vorgegebene annehmbare Genauigkeitswert.
  • Jedes der oben genannten Verfahren kann umfassen, dass ein Hinweisausgabeschritt beinhaltet, dass einem Anwender über eine Anwenderausgabevorrichtung ein visueller, akustischer oder haptischer Hinweis auf das Vergleichsergebnis präsentiert wird.
  • Jedes der oben genannten Verfahren kann umfassen, dass das Prüfmerkmal erste, zweite und dritte Marken aufweist, die so angeordnet sind, dass sie von einem Bildsensor in der Sonde erfasst werden können, und dass der Schritt des Bestimmens der gemessenen geometrischen Eigenschaft das Bestimmen einer ersten Distanz zwischen der ersten Marke und der zweiten Marke und einer zweiten Distanz zwischen der zweiten Marke und der dritten Marke beinhaltet.
  • Jedes der oben genannten Verfahren kann ferner das automatische Abrufen von Kalibrierungsdaten beinhalten, die der angebrachten optischen Messspitze entsprechen, wobei der Messschritt unter Verwendung der abgerufenen Kalibrierungsdaten durchgeführt wird.
  • Jedes der oben genannten Verfahren kann ferner beinhalten: Bestimmen einer Identität der angebrachten optischen Messspitze; Speichern der bestimmten Identität und des bestimmten Genauigkeitsergebnisses; und mehrfaches Wiederholten der Schritte der Erfassung einer Anbringung, der Aufforderung an einen Anwender, der Aufnahme eines Bildes, der Bestimmung von Koordinaten, der Bestimmung von Eigenschaften, der Bestimmung eines Genauigkeitsergebnisses, der Bestimmung der Identität und der Speicherung.
  • In einer anderen Ausführungsform wird ein optisches Fernprüfsystem offenbart. Das System beinhaltet eine Sonde, die dafür ausgelegt ist, eine abnehmbare optische Messspitze aufzunehmen, wobei die Sonde einen Bildsensor aufweist, der dafür ausgelegt ist, ein Ziel durch die abnehmbare optische Messspitze zu betrachten und eines oder mehrere Bilder von dem Ziel aufzunehmen, eine Anwenderaufforderungsvorrichtung, eine Erfassungsschaltung, die dafür ausgelegt ist, eine Anbringung der abnehmbaren optischen Messspitze an der Sonde zu erfassen, und eine Steuereinheit, die auf eine Erfassung einer Anbringung durch die Erfassungsschaltung reagiert, um einen Anwender über die Anwenderaufforderungsvorrichtung aufzufordern, ein Prüfobjekt in einer ausgewählten Ausrichtung in Bezug auf den Bildsensor anzuordnen, wobei das Prüfobjekt ein Prüfmerkmal aufweist, das eine bekannte geometrische Eigenschaft aufweist, den Bildsensor zu betätigen, um eines oder mehrere Bilder des Prüfmerkmals aufzunehmen, Koordinaten des Prüfmerkmals unter Verwendung mindestens einiger der aufgenommenen Bilder zu bestimmen, eine gemessene geometrische Eigenschaft des Prüfmerkmals unter Verwendung der bestimmten Koordinaten des Prüfmerkmals zu bestimmen, ein Genauigkeitsergebnis unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft zu bestimmen und einen Hinweis auf das bestimmte Genauigkeitsergebnis auszugeben.
  • Demgemäß kann ein visuelles Fernprüfsystem umfassen: eine Sonde, die dafür ausgelegt ist, eine abnehmbare optische Messspitze aufzunehmen, wobei die Sonde einen Bildsensor aufweist, der dafür ausgelegt ist, ein Ziel durch die abnehmbare optische Messspitze zu betrachten und eines oder mehrere Bilder von dem Ziel aufzunehmen; eine Anwenderaufforderungsvorrichtung; eine Erfassungsschaltung, die dafür ausgelegt ist, eine Anbringung der abnehmbaren optischen Messspitze an der Sonde zu erfassen; und eine Steuereinheit, die auf eine Erfassung einer Anbringung durch die Erfassungsschaltung reagiert, um: einen Anwender über die Anwenderaufforderungsvorrichtung aufzufordern, ein Prüfobjekt in einer ausgewählten Ausrichtung in Bezug auf den Bildsensor anzuordnen, wobei das Prüfobjekt ein Prüfmerkmal aufweist, das eine bekannte geometrische Eigenschaft aufweist; den Bildsensor zu betätigen, um eines oder mehrere Bilder des Prüfmerkmals aufzunehmen; Koordinaten des Prüfmerkmals unter Verwendung mindestens einiger der aufgenommenen Bilder zu bestimmen; eine gemessene geometrische Eigenschaft des Prüfmerkmals unter Verwendung der bestimmten Koordinaten des Prüfmerkmals zu bestimmen; ein Genauigkeitsergebnis unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft zu bestimmen; und einen Hinweis auf das bestimmte Genauigkeitsergebnis auszugeben.
  • Die kurze Beschreibung der Erfindung soll nur einen kurzen Überblick über den hierin offenbarten Gegenstand gemäß einer oder mehrerer erläuternder Ausführungsformen liefern und dient nicht als Leitfaden zur Interpretierung der Ansprüche oder zur Definierung oder Begrenzung des Bereichs der Erfindung, der nur von den beigefügten Ansprüchen definiert wird. Diese kurze Beschreibung wird abgegeben, um in vereinfachter Form eine erläuternde Auswahl von Konzepten vorzustellen, die nachstehend in der ausführlichen Beschreibung näher beschrieben sind. Diese kurze Beschreibung ist nicht dazu gedacht, die wichtigsten Merkmale oder wesentliche Merkmale des beanspruchten Gegenstands zu benennen, und sie soll auch nicht als Hilfsmittel verwendet werden, um den Bereich des beanspruchten Gegenstands zu bestimmen. Der beanspruchte Gegenstand ist nicht auf Implementierungen beschränkt, welche die Probleme, die im Abschnitt über den Stand der Technik beschrieben worden sind, zum Teil oder vollständig lösen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Damit die Merkmale der Erfindung verständlich werden, kann eine ausführliche Beschreibung der Erfindung auf bestimmte Ausführungsformen Bezug nehmen, von denen einige in den beigefügten Ansprüchen beschrieben sind. Man beachte jedoch, dass die Zeichnungen nur bestimmten Ausführungsformen der Erfindung darstellen und daher nicht als Beschränkung ihres Bereichs aufzufassen sind, da der Bereich der Erfindung andere gleich wirksame Ausführungsformen umfasst. Die Zeichnungen sind nicht unbedingt maßstabsgetreu, da der Schwerpunkt im Allgemeinen auf der Verdeutlichung der Merkmale bestimmter Ausführungsformen der Erfindung liegt. In den Zeichnungen werden gleiche Bezugszahlen verwendet, um gleiche Teile in den verschiedenen Ansichten zu bezeichnen. Um die Erfindung besser verständlich zu machen, kann somit auf die folgende ausführliche Beschreibung Bezug genommen werden, die in Zusammenschau mit den Zeichnungen zu lesen ist, in denen:
  • 1 ein schematisches Diagramm eines als Beispiel dienenden visuellen Fernprüfsystems ist;
  • 2 eine Perspektive von Komponenten einer abnehmbaren Spitze für ein visuelles Fernprüfsystem gemäß einer Ausführungsform ist;
  • 3 ein Ablaufschema ist, das Beispiele für Methoden zum Prüfen der Messgenauigkeit eines visuellen Fernprüfsystems zeigt;
  • 4 eine Skizze ist, die ein Beispiel für ein Datenverarbeitungssystem und zugehörige Komponenten zeigt;
  • 5 eine Draufsicht auf ein Beispiel für eine Leuchtdioden-(LED)-Anordnung auf einem Lichtemittermodul ist, das unter Verwendung einer länglichen Form hergestellt worden ist,
  • 6 eine Draufsicht auf ein Beispiel für ein intensitätmodulierendes Element ist, das ein Liniengitter beinhaltet.
  • 7 ein Beispielsbild eines strukturierten Lichtmusters ist, das durch Leiten von Licht durch ein intensitätmodulierendes Element erzeugt wird.
  • 8A eine Perspektive eines Beispiels für ein Prüfmerkmal ist;
  • 8B eine Perspektive ist, die einen Querschnitt eines Beispiels für ein Prüfmerkmal zeigt;
  • 9 eine Draufsicht auf ein Beispiel für ein Prüfmerkmal ist; und
  • 10 eine Perspektive eines Beispiels für ein Prüfobjekt ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • In der folgenden Beschreibung werden einige Ausführungsformen im Hinblick auf einen Gegenstand beschrieben, der üblicherweise als Software-Programme implementiert werden würden. Der Fachmann wird ohne Weiteres erkennen, dass das Äquivalent einer solchen Software auch als Hardware (fest-verdrahtet bzw. anwendungsspezifisch oder programmierbar), Firmware oder Mikrocode konstruiert werden kann. Somit können Ausführungsformen der vorliegenden Erfindung die Form einer ganz aus Hardware bestehenden Ausführungsform, einer ganz aus Software bestehenden Ausführungsform (einschließlich Firmware, systemeigener Software oder Mikrocode) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, aufweisen. Software, Hardware und Kombinationen davon können hierin alle mit dem Oberbegriff „Service“, „Schaltung“, „Schaltkreis“, „Modul“ oder „System“ bezeichnet werden. Verschiedene Aspekte können als Systeme, Verfahren oder computerprogrammierbare Produkte ausgeführt sein. Da Datenmanipulierungsalgorithmen und -systeme bekannt sind, wird die vorliegende Beschreibung insbesondere auf Algorithmen und Systeme ausgerichtet, die einen Teil der hierin beschriebenen Systeme und Verfahren bilden oder direkter damit zusammenwirken. Andere Aspekte solcher Algorithmen und Systeme und Hardware und Software zur Erzeugung oder anderweitig zur Verarbeitung von Signalen und Daten, die dran beteiligt sind, die hierin nicht eigens dargestellt oder beschrieben sind, werden aus solchen Systemen, Algorithmen, Komponenten und Elementen ausgewählt, die in der Technik bekannt sind. Angesichts der hierin beschriebenen Systeme und Verfahren ist Software, die hierin nicht eigens dargestellt, vorgeschlagen oder beschrieben wird und die geeignet ist zur Implementierung irgendeines Aspekts, bekannt und Teil des Wissens des Durchschnittsfachmanns.
  • 1 ist ein Schema eines als Beispiel dienenden visuellen Fernprüfsystems. Weitere Einzelheiten dieses Systems sind in der US-Veröffentlichung Nr. 2011/0205552 beschrieben. In 1 ist ein Beispiel für eine boroskopische/endoskopische Sonde oder ein System 100 dargestellt. Ein Einführungsrohr 40 umfasst einen länglichen Abschnitt 46 und eine abnehmbare distale Spitze 42 Der längliche Abschnitt 46 umfasst einen langen, flexiblen Hauptabschnitt, einen gebogenen Hals und einen Kamerakopf. Eine Abgrenzungslinie 41 zeigt, wo der Kamerakopf am länglichen Abschnitt 46 anfängt. Der Kamerakopf des länglichen Abschnitts 46 weist in der Regel mindestens einen Bildsensor 112, Elektronik 113 und eine Sondenoptik 115 auf. Die abnehmbare Spitze 42 ist in der Regel am Kamerakopf des genannten länglichen Abschnitts 46 angebracht. Die abnehmbare Spitze 42 enthält eine Betrachtungsoptik 44, die in Kombination mit der Sondenoptik 115 verwendet wird, um Licht, das von einer Oberfläche oder einem Objekt (nicht dargestellt) empfangen wird, zum Bildsensor 112 zu führen und zu fokussieren. Die Betrachtungsoptik 44 kann optional eine Relaisoptik, beispielsweise ein Linsen- oder faseroptisches System beinhalten, um den Kamerakopf weg von der der distalen Spitze 42 zu bringen. Im Folgenden sind die Begriffe „Bildgeber“ und „Bildsensor“ austauschbar.
  • Der Bildsensor 112 kann beispielsweise eine zweidimensionale Anordnung von lichtempfindlichen Pixeln umfassen, die als Antwort auf den von den einzelnen Pixeln abgefühlten Lichtpegel ein Videosignal ausgibt. Der Bildsensor 112 kann eine ladungsgekoppelte Vorrichtung (CCD), einen komplementären Metalloxidhalbleiter (CMOS)-Bildsensor oder andere Vorrichtungen mit einer ähnlichen Funktion umfassen. Das Videosignal wird durch die Elektronik 113 gepuffert und über eine Signalleitung 114 auf eine Bildgeberschnittstellenelektronik 31 übertragen. Die Bildgeberschnittstellenelektronik 31 kann beispielsweise Leistungsquellen, einen Taktgenerator zur Erzeugung von Bildsensor-Taktsignalen, eine Analogfrontende zum Digitalisieren des Bildsensor-Videoausgangssignals und einen Digitalsignalprozessor zum Verarbeiten der digitalisierten Bildsensor-Videodaten in ein Format, das für einen Videoprozessor 50 besser geeignet ist, beinhalten.
  • Der Videoprozessor 50 führt verschiedene Funktionen aus, unter anderem Bildaufnahme, Bildverstärkung, Zusammenführung von graphischen Überlagerungen und Videoformatumwandlung, und speichert Informationen in Bezug auf diese Funktionen im Videospeicher 52. Der Videoprozessor 50 kann im Feld programmierbare Gatteranordnung (FPGA)-, Digitalsignalprozessor (DSP)- oder andere Verarbeitungselemente umfassen und gibt Informationen an eine zentrale Verarbeitungseinheit (CPU) 56 aus und empfängt Informationen von dieser. Die ausgegebenen und empfangenen Informationen können Befehle, Zustandsinformationen, Video, Standbilder oder graphische Überlagerungen betreffen. Der Videoprozessor 50 gibt auch Signale an verschiedene Monitore aus, beispielsweise einen Computermonitor 122, einen Videomonitor 120 und eine integrierte Anzeige 121. Beispiele für Komponenten, die zum Videoprozessor 50 gehören oder mit diesem verbunden sind, sind nachstehend mit Bezug auf 4 beschrieben.
  • Wenn sie angeschlossen sind, zeigen der Computermonitor 122, der Videomonitor 120 oder die integrierte Anzeige 121 in der Regel jeweils Anzeigebilder des überprüften Objekts oder der überprüften Oberfläche, Menüs, Cursors und Messergebnisse an. Der Computermonitor 122 ist in der Regel ein externer Computermonitor. Ebenso beinhaltet der Videomonitor 120 in der Regel einen externen Videomonitor. Die integrale Anzeige ist in die Sonde oder das System 100 integriert oder eingebaut und umfasst eine Flüssigkristallanzeige (LCD).
  • Die CPU 56 kann sowohl einen Programmspeicher 58 als auch einen nicht-flüchtigen Speicher 60 nutzen, die abnehmbare Speichervorrichtungen beinhalten können. Die CPU 56 kann auch einen flüchtigen Speicher, beispielsweise einen RAM, für Programmausführung und Zwischenspeicherung verwenden. Eine Tastatur und ein Joystick 62 können eine Anwendereingabe für Funktionen wie Menüauswahl, Cursor-Bewegung, Schieberregulierung und Artikulierungssteuerung in die CPU 56 übertragen. Eine Computer-I/O-Schnittstelle 66 stellt verschiedene Computerschnittstellen für die CPU 56 bereit, wie USB-, FIREWIRE-, Ethernet, Audio-I/O- und drahtlose Transceiver. Zusätzliche Anwender-I/O-Vorrichtungen, wie die Tastatur oder die Maus, können mit der Computer-I/O-Schnittstelle 66 verbunden sein, um eine Steuerung durch den Anwender zu ermöglichen. Die CPU 56 erzeugt graphische Überlagerungsdaten zum Anzeigen, bietet Recall-Funktionen und Systemsteuerung und bietet Bild-, Video- und Audiospeicherung. Beispiele für Komponenten, die zur CPU 56 gehören oder mit dieser verbunden sind, sind nachstehend mit Bezug auf 4 beschrieben. In verschiedenen Ausführungsformen ist die CPU 56 so gestaltet, dass sie eine Phasenverschiebung oder eine Schattenanalyse und Messwerteverarbeitung durchführt.
  • Die Sonde oder das System 100 umfasst ferner Kontakte 36, die den länglichen Abschnitt 46 durch den Kamerakopf hindurch mit der distalen Spitze 42 verbinden. Die Kontakte 36 können federbelastet sein und außerdem elektrische Leistung von einer Treiberleitung 35 zum Lichtemittermodul 37 liefern, welches mehrere Lichtemitter umfassen kann. Die Treiberleitung 35 liefert Leistung vom Emittertreiber 32 zu den mehreren Lichtemittern, die parallel am distalen Ende des Einführungsrohrs 40 angeordnet sind. Die Treiberleitung 35 umfasst einen oder mehrere Drähte und kann mit einer Signalleitung 114 in einer gemeinsamen Ummantelung (nicht dargestellt) zusammengefasst sein. Die Treiberleitung 35 kann auch Leiter mit der Signalleitung 114 gemeinsam haben, um die Struktur des Einführungsrohrs 40 zum Liefern von Strom zu nutzen. Der Emittertreiber 32 weist beispielsweise eine regulierbare Stromquelle mit einer Zeitvariablen auf, um einen Ausgleich für Lichtemitter mit anderer Leistungsfähigkeit und anderem Wirkungsgrad zu schaffen. Der Emittertreiber 32 umfasst außerdem eine Helligkeits- oder Streifenkontrastbestimmungsfunktion 39. Alternativ dazu kann der oben geschilderte Videoprozessor 50 die Streifenkontrastbestimmungsfunktion 39 beinhalten.
  • Das mindestens eine Lichtemittermodul 37 an der distalen Spitze 42 kann mehrere Lichtemitter und optional andere Elektronik zum Steuern/Sequenzieren von Lichtemittern, zum Abfühlen der Temperatur und zum Speichern/Abrufen von Kalibrierungsdaten beinhalten. Das mindestens eine Lichtemittermodul 37 kann eine Wärmesenke aufweisen, die aus Keramik oder Metall besteht, beispielsweise um den Temperaturanstieg der mehreren Lichtemitter zu verringern. In verschiedenen Ausführungsformen wird Licht von mehreren Lichtemittern, die an einer distalen Spitze 42 angeordnet sind, durch mindestens ein intensitätmodulierendes Element 38 geleitet, um die Lichtverteilung zu ändern und mindestens ein strukturiertes Lichtmuster auf eine Oberfläche zu projizieren, die sich für eine Phasenverschiebungsanalyse eignet. Ein Streifensatz umfasst ein strukturiertes Lichtmuster, das projiziert wird, wenn eine Lichtemittergruppe aus mindestens einem von den mehreren Lichtemittern Licht emittiert. Licht von den mehreren Lichtemittern wird durch das mindestens eine intensitätmodulierende Element 38 geleitet, um mehrere Streifensätze auf die Oberfläche zu projizieren. In anderen Ausführungsformen wird ein Teil des Lichts von einem oder mehreren Lichtemittern von einem Objekt absorbiert oder reflektiert, das dadurch einen Schatten mit einer bekannten Form wirft.
  • In Ausführungsformen, die eine Phasenmessung verwenden, arbeitet die Sonde im Messmodus, wenn mindestens einer von den mehreren Streifensätzen auf die Oberfläche projiziert wird. Im Messmodus wird das Lichtemittermodul 37 aktiviert, und mindestens ein digitales Bild, das ein strukturiertes Lichtmuster auf der Oberfläche umfasst, wird aufgenommen. Eine Phasenverschiebungsanalyse kann direkt an dem mindestens einen aufgenommenen digitalen Bild durchgeführt werden. Sie kann auch an Daten vorgenommen werden, die von dem mindestens einen aufgenommenen digitalen Bild abgeleitet worden sind. Zum Beispiel kann eine Luminanzkomponente, die von einem YCrCb-, RGB- oder irgendeinem anderen aufgenommenen Bildformat abgeleitet wird, verwendet werden. Somit würde jede Bezugnahme auf die Durchführung einer Phasenverschiebungsanalyse an einem Bild hierin die Durchführung einer Phasenverschiebungsanalyse an dem eigentlichen Bild, auf das Bezug genommen wird, oder an Daten, die von dem Bild, auf das Bezug genommen wird, abgeleitet werden, beinhalten.
  • In Ausführungsformen, die eine Phasenmessung verwenden, oder in anderen Ausführungsformen arbeitet die Sonde im Prüfmodus, wenn das mindestens eine strukturierte Lichtmuster fehlt. Im Prüfmodus ist eine Prüflichtquelle 123 aktiviert und gibt Licht vom distalen Ende des Einführungsrohrs 40 aus. Die Elemente, die im Prüfmodus Licht erzeugen und abgeben, können mit dem Oberbegriff Prüflichtabgabesystem bezeichnet werden. In einer Ausführungsform umfasst das Prüflichtabgabesystem die Prüflichtquelle 123, ein Quellenfaserbündel 24, einen Verschlussmechanismus 34, ein Sondenfaserbündel 135 und ein Lichtleiterelement 43. In anderen Ausführungsformen kann das Prüflichtabgabesystem sehr unterschiedliche Elemente umfassen, beispielsweise im Falle von distal angeordneten weißen LEDs eine LED-Treiberschaltung, die deaktiviert werden kann oder einen regulierbaren Ausgangsstrom liefert, Drähte für die Lieferung von Leistung zu den LEDs, die LEDs selbst und ein Schutzelement, um die LEDs zu schützen. Im Messmodus wird die Intensität von Licht, das vom Prüflichtabgabesystem ausgegeben wird, automatisch gesenkt, um beispielsweise eine Verringerung des Kontrasts des mindestens einen strukturierten Lichtmusters zu vermeiden.
  • Die Prüflichtquelle 123 ist in der Regel eine weiße Lichtquelle, kann auch jede für eine Sonde geeignete Lichtquelle umfassen, beispielsweise eine Quecksilber- oder Metallhalogenid-Bogenlampe, eine Halogenlampe, ein Laser-/Phosphorsystem oder eine auf LED basierende Lichtquelle, die entweder proximal oder distal angeordnet sein kann. Wenn eine auf Fasern basierende Lichtquelle verwendet wird, ist das Quellenfaserbündel 24 in der Sonde oder im System 100 enthalten. Das Quellenfaserbündel 24 umfasst ein kohärentes oder semi-kohärentes faseroptisches Bündel und sendet Licht zum Verschlussmechanismus 34. Der Verschlussmechanismus 34 ermöglicht eine Lichtausgabe vom Prüflichtabgabesystem im Prüfmodus oder während einer regulären Prüfung und blockiert Licht, das aus dem Prüflichtabgabesystem ausgegeben wird, im Messmodus oder während einer Messmusterprojektion, oder hemmt es auf andere Weise. Der Verschlussmechanismus 34 weist beispielsweise einen magnet- oder motorbetriebenen mechanischen Verschluss oder einen Deaktivator für die elektrische Lichtquelle auf. Der Ort, wo der Verschlussmechanismus 34 angeordnet ist, kann abhängig von seiner Implementierung variieren. Wenn der Verschlussmechanismus 34 Licht durchlässt, gibt das Sondenfaserbündel 125 Licht über ein Lichtleiterelement 43 an die Oberfläche oder die Prüfstelle aus. Das Sondenfaserbündel 125 kann ein nicht-kohärentes faseroptisches Bündel beinhalten. Das Lichtleiterelement 43 kann ein Glasrohr, geformte Fasern oder Verteilungssteuerungsmerkmale wie Linsen oder einen Diffusor beinhalten.
  • Die Bildgeberschnittstellenelektronik 31, der Emittertreiber 32 und der Verschlussmechanismus 34, die genannten wurden, sind in der Sondenelektronik 48 enthalten. Die Sondenelektronik 48 kann physisch von einer Hauptsteuereinheit oder CPU 56 getrennt sein, um eine bessere lokale Steuerung von mit der Sonde zusammenhängenden Operationen durchzuführen. Die Sondenelektronik 48 umfasst ferner einen Kalibrierungsspeicher 33. Der Kalibrierungsspeicher 33 speichert Informationen in Bezug auf das optische System der distalen Spitze 42 oder den länglichen Abschnitt 46, beispielsweise Vergrößerungsdaten, Daten über eine optische Verzerrung und Musterprojektionsgeometriedaten.
  • Ein Mikrocontroller 30, der ebenfalls in der Sondenelektronik 48 enthalten ist, kommuniziert mit der Bildgeberschnittstellenelektronik 31, um Verstärkungs- und Belichtungseinstellungen zu bestimmen und einzustellen; steuert die Schaltung des Emittertreibers 32; speichert und liest Kalibrierungsdaten im bzw. aus dem Kalibrierungsspeicher 33; steuert den Verschlussmechanismus 34; und kommuniziert mit der CPU 56. Beispiele für Komponenten, die zum Mikrocontroller 30 gehören oder mit diesem verbunden sind, sind nachstehend mit Bezug auf 4 beschrieben.
  • Betrachtet man erneut die distale Spitze 42, so können die Elemente, die in der distalen Spitze 42 dargestellt sind, alternativ auch am länglichen Abschnitt 46 angeordnet sein. Diese Elemente beinhalten die Betrachtungsoptik 44, mindestens ein Lichtemittermodul 37, mindestens ein intensitätmodulierendes Element 38 und das Lichtleiterelement 43, wie oben angegeben. Außerdem kann das mindestens eine Lichtemittermodul 37, das mehrere Lichtemitter umfasst, am Einführungsrohr 40 fixiert sein, während das mindestens eine intensitätmodulierende Element 38 an der distalen Spitze 42 angeordnet ist. In solchen Ausführungsformen ist eine präzise und reproduzierbare Ausrichtung zwischen der distalen Spitze 42 und dem länglichen Abschnitt 46 erforderlich, kann der Vorteil, dass verschiedene Sichtfelder zugelassen werden können, realisiert werden, während die Notwendigkeit für Kontakte zwischen dem länglichen Abschnitt 46 und der distalen Spitze 42 eliminiert ist.
  • Wie oben angegeben, wird in den Phasenmessungsausführungsformen ein strukturiertes Lichtmuster an der Oberfläche erzeugt durch Leiten von Licht durch mindestens ein intensitätmodulierendes Element 38, das die Lichtverteilung ändert. Das strukturierte Lichtmuster kann parallele helle und dunkle Linien umfassen, die sinusförmige Intensitätsprofile umfassen. Linienmuster mit quadratischen, rautenförmigen, dreieckigen oder andere Profilen können ebenfalls auf die Oberfläche projiziert werden, wenn sie mit einer geeigneten Phasenverschiebungsanalyse verwendet werden, um die Phase des Musters zu bestimmen. Das Muster kann außerdem andere als gerade, parallele Linien umfassen. Zum Beispiel können gekrümmte Linien, Wellenlinien oder andere derartige Muster mit einer geeigneten Analyse verwendet werden.
  • In einer Phasenmessungsausführungsform umfasst das mindestens eine intensitätmodulierende Element 38 ein Liniengitter 90, das in 6 dargestellt ist. Außerdem umfasst das mindestens eine Lichtemittermodul mehrere Lichtemitter. Insbesondere umfasst das mindestens eine Lichtemittermodul LEDs oder eine LED-Anordnung.
  • In verschiedenen Phasenmessungsausführungsformen umfasst ein Streifensatz ein strukturiertes Lichtmuster, das projiziert wird, wenn eine Lichtemittergruppe aus mindestens einem von den mehreren Lichtemittern Licht emittiert. Die mehreren Lichtemitter des Lichtemittermoduls 37 sind so positioniert, dass das strukturierte Lichtmuster, das projiziert wird, wenn eine Gruppe aus mindestens einem Lichtemitter emittiert, eine räumliche oder Phasenverschiebung relativ zu den strukturierten Lichtmustern zeigt, die projiziert werden, wenn andere Gruppen aus dem mindestens einen Lichtemitter emittieren. Anders ausgedrückt zeigt das strukturierte Lichtmuster eines Streifensatzes eine räumliche oder Phasenverschiebung in Bezug auf die strukturierten Lichtmuster anderer Streifensätze.
  • 2 ist eine Perspektive von Komponenten einer abnehmbaren Spitze 142 für ein visuelles Fernprüfsystem, z.B. einer distalen Spitze 42 (1) gemäß einem Ausführungsbeispiel. Die Spitze 142 kann am Einführungsrohr 40 angebracht werden, das zur Orientierung dargestellt ist. Die dargestellten Komponenten der Spitze 142 können in einem Gehäuse eingeschlossen sein, das diese Komponenten gegen Schmutz oder andere Verunreinigungen, mechanischen Schaden oder harsche Umgebungsbedingungen abschirmt. Die Spitze 142 kann verwendet werden, um Phasenmessungen unter Verwendung von strukturierten Lichtmustern durchzuführen. Weitere Einzelheiten der Spitze 142 sind in der oben genannten US-Veröffentlichung Nr. 2011/0205552 beschrieben.
  • Zwei Lichtemittermodule 137a, 137b, die mehrere Lichtemitter umfassen, sind auf jeder Seite einer vorwärts gerichteten Betrachtungsoptik 144 angeordnet. Die mehreren Lichtemitter, die auf einer Seite der Betrachtungsoptik 144 angeordnet sind, umfassen ein erstes Lichtemittermodul 137a, und die mehreren Lichtemitter, die auf der anderen Seite der Betrachtungsoptik 144 angeordnet sind, umfassen ein zweites Lichtemittermodul 137b. Außerdem umfasst das intensitätmodulierende Element 138 zweite intensitätmodulierende Bereiche 138a und 138b, einen intensitätmodulierenden Bereich, der auf jeder Seite der vorwärts gewandten Optik 144 angeordnet ist. Licht aus dem ersten Lichtemittermodul 137a wird auf dem Weg 170a durch den intensitätmodulierenden Bereich 138a, der einen ersten Projektionssatz bildet, geleitet, und Licht aus dem zweiten Emittermodul 137b wird auf dem Weg 170b durch den intensitätmodulierenden Bereich 138b, der einen zweiten Projektionssatz bildet, geleitet. Das intensitätmodulierende Element 138 umfasst ein Liniengitter 190, das die Lichtverteilung ändert und ein strukturiertes Lichtmuster auf der Oberfläche bildet, die mit einer Phasenverschiebungsanalyse kompatibel ist.
  • Ein (nicht dargestellter) Bildsensor erhält einen ersten Bildsatz und einen zweiten Bildsatz. Der erste Bildsatz umfasst mindestens ein Bild einer Projektion mindestens eines von den mehreren Streifensätzen des ersten Projektionssatzes auf der Oberfläche, und der zweite Bildsatz umfasst mindestens ein Bild einer Projektion mindestens eines von den mehreren Streifensätzen des zweiten Projektionssatzes auf der Oberfläche.
  • Das erste Lichtemittermodul 137a, das mit dem ersten intensitätmodulierenden Bereich 138a assoziiert ist, ist auf einer Seite der Betrachtungsoptik 144 angeordnet, und das zweite Lichtemittermodul 137b, das mit dem zweiten intensitätmodulierenden Bereich 138b assoziiert ist, ist auf der anderen Seite der Betrachtungsoptik 144 angeordnet, so dass das mindestens ein strukturiertes Lichtmuster, das von der mindestens einen Oberfläche reflektiert wird, durch die Betrachtungsoptik 144 geleitet wird, um den Bildsensor (nicht dargestellt) zu erreichen.
  • Die beiden Lichtemittermodule 137a, 137b umfassen jeweils eine längliche LED-Gruppe 180, die ihrerseits mindestens drei Lichtemitter umfasst. Alternativ dazu können die beiden Lichtemittermodule 137a, 137b jeweils mehrere Lichtemitter umfassen, wobei jeder von den mehreren Lichtemittern eine Reihenkette aus mindestens zwei LEDs umfasst. Ein lichtleitendes Element (nicht dargestellt), das Licht aus einer Prüflichtquelle 123 (1) zur Oberfläche abgibt, kann ebenfalls in der distalen Spitze 142 enthalten sein. Eine optionale Schaltung 150, die an der distalen Spitze 142 angeordnet ist, kann die Sequenzierung der LEDs steuern, zwischen Einzel- und Mehrfach-LEDs auswählen, die Temperatur abfühlen und Kalibrierungsdaten speichern/abrufen. Die optionale Schaltung 150 kann von der CPU 56 oder dem Mikrocontroller 30, die in 1 dargestellt sind, verwaltet werden.
  • In der Sonde oder dem System 100 umfasst der erste Projektionssatz mehrere Streifensätze und der zweite Projektionssatz umfasst mehrere Streifensätze. Die mehreren Lichtemitter sind so angeordnet, dass das strukturierte Lichtmuster eines Streifensatzes des ersten Projektionssatzes, das von einer Lichtemittergruppe des ersten Lichtemittermoduls emittiert wird, eine Phasenverschiebung in Bezug auf das strukturierte Lichtmuster der anderen Streifensätze des ersten Projektionssatzes zeigt, das von den anderen Lichtemittergruppen des ersten Lichtemittermoduls emittiert wird. Ebenso zeigt das strukturierte Lichtmuster eines Streifensatzes des zweiten Projektionssatzes, das von einer Lichtemittergruppe des zweiten Lichtemittermoduls projiziert wird, eine Phasenverschiebung in Bezug auf die strukturierten Lichtmuster der anderen Streifensätze des zweiten Projektionssatzes, die von den anderen Lichtemittergruppen des zweiten Lichtemittermoduls emittiert werden.
  • Die mehreren Lichtemitter sind so angeordnet, dass das strukturierte Lichtmuster eines Streifensatzes des ersten Projektionssatzes eine räumliche oder Phasenverschiebung in Bezug auf die strukturierten Lichtmuster anderer Streifensätze des ersten Projektionssatzes zeigt. Ebenso zeigt das strukturierte Lichtmuster eines Streifensatzes des zweiten Projektionssatzes eine räumliche oder Phasenverschiebung in Bezug auf die strukturierten Lichtmuster anderer Streifensätze des zweiten Projektionssatzes.
  • In einer Ausführungsform umfasst das erste Lichtemittermodul drei Lichtemittergruppen, und das zweite Lichtemittermodul umfasst drei Lichtemittergruppen. Daher werden drei Streifensätze, die den ersten Projektionssatz umfassen, von einer Seite der Betrachtungsoptik 144 produziert, und drei Streifensätze, die den zweiten Projektionssatz umfassen, werden von der anderen Seite der Betrachtungsoptik 144 produziert. Daher kann die Sonde oder das System 100 insgesamt sechs Streifensätze projizieren, drei Streifensätze von jeder Seite des Sichtfelds. Um Helligkeit und Kontrast zu verbessern, können die Lichtemittermodule 137a und 137b mehr als drei LEDs zusammen mit einer Helligkeitsbestimmungsfunktion aufweisen, die oben ausführlich beschrieben worden ist. Ferner können die mehreren Lichtemitter der Lichtemittermodule 137a und 137b jeweils eine Reihenkette aus mindestens zwei LEDs aufweisen.
  • Die Genauigkeit eines Systems, das eine strukturierte Lichtprojektion und Phasenverschiebungsanalyse verwendet, wird weitgehend von seinem Grundlinienabstand bestimmt. Im Falle eines typischen Systems, bei dem die absolute Phase eines Streifensatzes in Kombination mit seiner Position im Sichtfeld verwendet wird, um eine absolute Objektdistanz zu bestimmen, ist der Grundlinienabstand die Distanz zwischen dem Projektionsursprung und dem Kamerasichtfeldursprung. In dieser Ausführungsform, wo die Differenz zwischen den absoluten Phasen der beiden separaten Streifensätze verwendet wird, um eine absolute Objektdistanz zu bestimmen, ist der Grundlinienabstand die Distanz zwischen den Lichtemittermodulen 137a und 137b. Somit ist die Genauigkeit verbessert, wenn die Distanz zwischen den beiden Lichtemittermodulen 137a und 137b größer ist als die Distanz zwischen der Betrachtungsoptik 144 und einem einzigen Lichtemittermodul 137. Da mechanische Beschränkungen in Sonden mit kleinem Durchmesser eine nennenswerte Versetzung der Betrachtungsoptik 144 vom Mittelpunkt des Einführungsrohrs 140 erschweren, kann die beschriebene Ausführungsform, die zwei Lichtemittermodule 137a und 137b verwendet, im Allgemeinen einen größeren Grundlinienabstand erreichen als mit einem einzelnen Lichtemittermodul 137 in einem vorwärts gewandten Betrachtungssystem erreicht werden könnte.
  • Außerdem bewirkt eine Veränderbarkeit der Positionierung der distalen Spitze 142 am Einführungsrohr, dass die Projektionen, die von der Spitze ausgehen, sich relativ zum Sichtfeld verschieben. Wenn die Objektdistanz unter Verwendung der absoluten Phase berechnet wird, die mit der Position im Sichtfeld kombiniert ist, bewirkt diese Verschiebung einen Fehler in der berechneten Objektdistanz. In dieser Ausführungsform ist ein solcher Fehler eliminiert, da die absolute Phasendifferenz durch die Positionierung der Spitze am Einführungsrohr nicht beeinflusst wird. In einem alternativen Ansatz können die beiden LED-Gruppen auch auf einer Seite der Betrachtungsoptik mit einem großen Gitter angeordnet sein, wo der erste Projektionssatz etwas weiter als der zweite Projektionssatz von der Betrachtungsoptik versetzt ist.
  • Bei manchen Anwendungen ist es günstig, eine Sicht in einer Richtung senkrecht zur Sondenachse zu erhalten, die als Seitensicht bezeichnet wird. Um eine solche Sicht zu erhalten, kann die distale Spitze 142 durch eine abnehmbare Seitenbetrachtungsspitze 242 ersetzt werden (8 und 9), die Elemente wie ein Seitenbetrachtungsprisma 210 umfasst, durch welches die mehreren Streifensätze, die von der Oberfläche reflektiert werden, durch die Betrachtungsoptik geleitet werden, so dass sie den Bildsensor (nicht dargestellt) zu erreichen.
  • 3 ist ein Ablaufschema, das Beispiele für Methoden zum Prüfen der Messgenauigkeit eines visuellen Fernprüfsystems (RVI-Systems) zeigt; Kurz gesagt wird ein Prüfobjekt im Sichtfeld des RVI-Systems platziert. Das Prüfobjekt umfasst ein Prüfmerkmal, z.B. eine Marke, mit bekannten geometrischen Eigenschaften. Bilder des Prüfobjekts werden aufgenommen, und eine geometrische Eigenschaft des Prüfmerkmals wird gemessen. Die gemessenen Koordinaten werden mit den bekannten geometrischen Eigenschaften verglichen, um einen Genauigkeitswert des RVI-Systems zu bestimmen. Die Schritte dieses Verfahrens können unter Verwendung einer Steuereinheit automatisch durchgeführt werden. Die Verarbeitung beginnt mit Schritt 310.
  • In Schritt 310 wird die Anbringung einer abnehmbaren optischen Messspitze an einer Sonde des visuellen Fernprüfsystems erfasst. Die Sonde kann z.B. eine Geradeausbetrachtungs- oder Seitenbetrachtungsspitze sein. in verschiedenen Ausführungsformen empfängt die Steuereinheit eine Unterbrechung bei der Anbringung der abnehmbaren optischen Messspitze. Die Steuereinheit kann auch periodisch einen elektrischen Zustand eines Leiters messen, um die Anbringung der abnehmbaren optischen Messspitze zu erfassen. Die Steuereinheit kann die Anbringung durch Überwachen oder Warten auf entweder Pegelauslösesignale oder Flankenauslösesignale erfassen. Nachdem die Anbringung der abnehmbaren optischen Messspitze erfasst worden ist, folgt auf Schritt 310 der Schritt 320 In verschiedenen Ausführungsformen beinhaltet die Sonde einen Bildsensor (CCD oder CMOS). In anderen Ausführungsformen beinhaltet die abnehmbare optische Messspitze einen Bildsensor.
  • In verschiedenen Ausführungsformen beinhaltet der Erfassungsschritt 310 die Erfassung einer Änderung des Widerstands einer Testschaltung, wenn die abnehmbare optische Messspitze angebracht wird. Zum Beispiel kann eine Prüfspannung an eine Erfassungsschaltung angelegt werden und eine Spannung eines Prüfpunkts in der Erfassungsschaltung kann gemessen werden. Die Erfassungsschaltung ist so gestaltet, dass die Spannung des Prüfpunkts, wenn die abnehmbare optische Messspitze angebracht ist, anders ist als wenn die abnehmbare optische Messspitze nicht angebracht ist. In einem Beispiel wird der Prüfpunkt durch einen Widerstand hochgezogen, z.B. auf +3.3 VDC, wenn die optische Spitze nicht angebracht ist, aber wenn die optisch Spitze angebracht ist, erdet sie den Prüfpunkt.
  • In verschiedenen Ausführungsformen beinhaltet der Erfassungsschritt 310 einen Identifizierungsschritt 315. In Schritt 315 wird eine Identität der angebrachten optischen Messspitze bestimmt. Die optische Messspitze kann (über Drähte oder drahtlos) Identifizierungsinformationen an die Steuereinheit senden, oder die Steuereinheit kann einen Widerstandswert oder eine andere elektrische Eigenschaft an einer Schnittfläche zwischen der Spitze und der Sonde analysieren. Die Identifizierungsinformationen können verwendet werden, um Messkalibrierungsdaten, die mit der angebrachten optischen Messspitze assoziiert sind, auszuwählen.
  • In Schritt 320 wird ein Anwender über eine Anwenderaufforderungsvorrichtung (z.B. einen Computermonitor 122, 1) aufgefordert, eine Prüfung der Messgenauigkeit des visuellen Fernprüfsystems durchzuführen. Zum Beispiel kann eine Nachricht „zum Prüfen OK drücken“ auf einem Bildschirm angezeigt werden. Der Aufforderungsschritt 320 kann ein Warten auf eine Prüfbeginnanzeige von einer Anwendereingabevorrichtung beinhalten, z.B. eine Berührung eines berührungsempfindlichen Sensors, der betriebsmäßig in Bezug auf die Anwenderaufforderungsvorrichtung angeordnet ist. Der berührungsempfindliche Sensor und die Anwenderaufforderungsvorrichtung können gemeinsam einen Touchscreen bilden. Die Anwendereingabevorrichtung kann auch eine Taste, z.B. auf einer Tastatur, ein Joystick, eine Maus, ein Trackball oder ein Chassis oder Handset eines RVI-Systems sein.
  • In manchen Ausführungsformen beinhaltet der Schritt 320 einen Anleitungsschritt 325. Im Anleitungsschritt 325 wird ein bewegtes Bild von einem Bildsensor in der Sonde auf dem Bildschirm angezeigt. Dies kann ein live-Video-Feed vom Bildsensor sein oder nacheinander dargestellte Standbilder (z.B. eines pro Sekunde) vom Bildsensor. Außerdem wird entweder gleichzeitig oder nicht eine visuelle Darstellung eines Bildes von einem Bildsensor in einer gewünschten Ausrichtung in Bezug auf das Prüfmerkmal auf dem Bildschirm dargestellt. Die gewünschten Informationen können eine gewünschte relative Position (eine translationale Verlagerung des Bildsensors zum Prüfmerkmal), eine relative Drehung oder beides sein. Die visuelle Darstellung kann z.B. ein Bild oder ein Thumbnail eines Bildes sein, das aufgenommen wurde, als ein Bildsensor in der gewünschten Ausrichtung in Bezug auf das Prüfmerkmal war. Die visuelle Darstellung kann in einem nicht-flüchtigen Speicher des RVI-Systems, z.B. dem Datenspeichersystem 1140 (4) gespeichert werden.
  • In manchen Ausführungsformen, die den Schritt 315 verwenden, beinhaltet der Anleitungsschritt 325 das Auswählen der visuellen Darstellung unter Verwendung der bestimmten Identität. In einem Beispiel, das in 10 dargestellt ist, ist das Prüfobjekt ein Prüfblock 1010 mit dem Prüfmerkmal 1020 und zwei Zugängen 1011, 1077: einem Zugang 1011 zum Einführen von Sonden, die Geradeausbetrachtungsspitzen tragen, und einem Zugang 1077 zum Einführen von Sonden, die Seitenbetrachtungsspitzen tragen. Gepunktete Linien sind für die Ausrichtung dargestellt. Die Linie 1012 zeigt ein Beispiel für die Ausrichtung einer Sonde, die eine Geradeausbetrachtungsspitze trägt, die auf ein Prüfmerkmal 1020 hinunter sieht (der Begriff „hinunter“ ist nicht beschränkend). Man sieht, dass eine Seitenbetrachtungsspitze im Zugang 1077 das Prüfmerkmal 1020 nur aus einem begrenzten Bereich von Ausrichtungen in der Ebene des Prüfmerkmals 1020 betrachten kann (in einem Drehwinkel θ nahe 0°; wie nahe, kann auf Basis der Größe des Prüfziels 120 und des Sichtfelds der Seitenbetrachtungsspitze gewählt werden). Jedoch kann eine Geradeausbetrachtungsspitze im Zugang 1011 frei gedreht werden, um das Prüfmerkmal 1020 von jedem θ aus zu betrachten. Wegen der Eigenschaften der jeweiligen verwendeten Spitzen kann es gewünscht sein, dass Geradeausbetrachtungsspitzen das Prüfmerkmal 1020 in einem Winkel θ ≠ 0° betrachten. Darüber hinaus kippen manche Seitenbetrachtungsspitzen das Bild vertikal oder horizontal. Daher unterscheidet sich die visuelle Darstellung, die den Anwender bei der Drehung einer Sonde, welche eine Geradeausbetrachtungsspitze trägt, in den korrekten θ anleitet, von der visuellen Darstellung, die den Anwender beim Drehen einer Sonde, die eine Seitenbetrachtungsspitze trägt, in den korrekten Winkel φ anleitet (Drehung um eine Achse, die senkrecht ist zur θ-Achse; in diesem Beispiel gilt θ ≡ 0° für eine Seitenbetrachtungsspitze).
  • Nach der Aufforderung an den Nutzer (Schritt 320) werden in Schritt 330 eines oder mehrere Bilder des Prüfmerkmals am Prüfobjekts aufgenommen. Dies wird unter Verwendung des Bildsensors durchgeführt, der Bilddaten auf eine Weise aufnimmt, die für die angebrachte optische Messspitze geeignet ist. Zum Beispiel kann für Stereo-, Schatten- oder Laserpunktspitzen ein einzelnes Bild aufgenommen werden. Für eine Phasenmessung können mehrere Bilder aufgenommen werden. Auf Schritt 330 folgt Schritt 340.
  • In verschiedenen Ausführungsformen ist die abnehmbare optische Messspitze eine optische Spitze zum Messen von strukturiertem Licht mit LEDs und Gittern, z.B. wie nachstehend mit Bezug auf 57 erörtert wird. In anderen Ausführungsformen ist die abnehmbare optische Messspitze eine stereooptische Spitze oder eine schattenoptische Spitze. Schattenspitzen können z.B. eine Schlitzblende beinhalten, durch die Licht an einer undurchsichtigen Linie, die parallel zu der Blende ausgerichtet ist, vorbei fällt. In Ausführungsformen, die strukturiertes Licht verwenden, kann die abnehmbare optische Messspitze mehrere Leuchtdioden (LEDs) beinhalten. Die Spitze projiziert ein strukturiertes Lichtmuster auf ein Objekt im Sichtfeld des Bildsensors, wenn die Steuereinheit irgendeine der LEDs aktiviert. Stereospitzen können einen Strahlteiler, z.B. ein Prisma, beinhalten, das Licht aus zwei verschiedenen Betrachtungswinkeln durch eine Linse auf den Bildsensor lenkt. Daher beinhaltet das aufgenommene Bild zwei separate Aufnahmen nebeneinander, eine Aufnahme aus jedem der Betrachtungswinkel. Weitere Beispiele für Stereospitzen sind im US-Patent Nr. 7,170,677 , Bendall et al., beschrieben, das durch Bezugnahme hierin aufgenommen ist. Weitere Beispiele für Schattenspitzen sind im US-Patent Nr. 4,980,763 , Lia, beschrieben, das durch Bezugnahme hierin aufgenommen ist.
  • In verschiedenen Ausführungsformen beinhaltet Schritt 330 (oder Schritt 340) das Analysieren mindestens eines aufgenommenen Bildes, um eine Ausrichtung des Prüfmerkmals in Bezug auf den Bildsensor zu bestimmen. Zum Beispiel können optische und mechanische Toleranzen, sowie Änderungen der Art und Weise, wie der Anwender die Spitze in Bezug auf das Prüfmerkmal positioniert, bewirken, dass das Prüfmerkmal in einem aufgenommenen Bild-Frame jedes Mal an anderen Stellen angeordnet ist, wenn eine Prüfsequenz (beginnend mit Schritt 310) durchgeführt wird. Die aufgenommenen Bilder selbst können durch Identifizieren bekannter Merkmale (z.B. Orientierungsmarken wie ein Buchstabe „F“) in dem Bild und durch Bestimmen, wie diese Merkmale in Bezug auf den Bildsensor orientiert sind, analysiert werden. Dies kann eine Bestimmung ermöglichen, ob eine Geradeausbetrachtungsspitze oder eine Seitenbetrachtungsspitze verwendet wird. (Im obigen Beispiel zeigt θ, der weiter weg von 0 ist als der zulässige Bereich, an, dass eine Geradeausbetrachtungsspitze verwendet wird.) Dadurch können auch Bilder verwendet werden, die bei Winkeln aufgenommen werden, die sich von einem ausgewählten Bezugswinkel unterscheiden. Dies ist nützlich, da es sein kann, dass die Anwender die Spitze nicht immer in genau einem gewünschten Winkel angeordnet haben, bevor die Bilder aufgenommen wurden. Wenn aufgenommene Bilder modifiziert oder auf andere Weise verarbeitet werden, verwenden nachfolgende Schritte die modifizierten oder verarbeiteten Bilder als aufgenommene Bilder.
  • In Schritt 340 werden Koordinaten des Prüfmerkmals unter Verwendung zumindest einiger der aufgenommenen Bilder bestimmt. Dies kann unter Verwendung von Merkmalsextraktionstechniken wie Schwellenwertbildung, Hochpassfilterung oder anderen Randerfassungsschemata, Regionsextraktion, Dilatation oder Erodierung von Bilddaten oder Farbextraktion durchgeführt werden. Bekannte Farben oder die bekannte geometrische Eigenschaft des Prüfmerkmals können in dem bzw. den betrachteten aufgenommenen Bild(ern) gesucht werden. Jede Koordinatenanzahl ≥ 1 kann bestimmt werden. Die bestimmten Koordinaten können zweidimensionale (2D) oder dreidimensionale (3D) Koordinaten sein. Koordinaten können in kartesischer, polarer, sphärischer, zylindrischer oder homogener Form ausgedrückt werden. 2D-Koordinaten können z.B. durch inverses Projektions-Mapping der Bilddaten auf eine Objektebene bestimmt werden. 3D-Koordinaten können unter Verwendung vorhandener Techniken, wie Stereo-, Abtastsysteme, Stereotriangulation, Strukturlichtmethoden wie Phasenverschiebungsanalyse, Phasenverschiebungs-Moiré und Laserpunktprojektion bestimmt werden. Einige dieser Techniken verwenden Kalibrierungsdaten, die unter anderem Daten über optische Eigenschaften beinhalten, die verwendet werden, um Fehler in den dreidimensionalen Koordinaten zu verringern, die andernfalls optische Verzerrungen induzieren würden. Mit einigen Techniken können die dreidimensionalen Koordinaten unter Verwendung eines oder mehrerer Bilder, die in großer Zeitnähe aufgenommen wurden und die projizierte Muster und dergleichen beinhalten können, bestimmt. Auf Schritt 340 folgt Schritt 350.
  • In manchen Ausführungsformen geht dem Schritt 350 ein Schritt 319 voraus. In Schritt 319 werden Kalibrierungsdaten, die der angebrachten optischen Messspitze entsprechen, automatisch von der Steuereinheit abgerufen. Die Kalibrierungsdaten können Informationen beinhalten, welche die Größe von Bildern von Gegenständen mit der Größe dieser Objekte, Bildkoordinaten-Frames mit Objektkoordinaten-Frames oder Helligkeit zu Distanz in Beziehung setzen. Die Kalibrierungsdaten können auch Informationen über die Spitze beinhalten, beispielsweise Abmessungen von Gittern auf einer Strukturlichtmessspitze. Die Kalibrierungsdaten können Informationen beinhalten, welche die Vergrößerung zur Distanz in Beziehung setzen, oder Informationen über optische Verzerrung, Strukturlicht-Projektionsgeometrie oder Stereoperspektivengeometrie.
  • In Schritt 350 wird eine geometrische Eigenschaft des Prüfmerkmals unter Verwendung der bestimmten Koordinaten des Prüfmerkmals gemessen. In einem Beispiel beinhaltet das Prüfmerkmal zwei Marken, und die geometrische Eigenschaft ist die Distanz dazwischen. Diese Distanz kann durch Transformieren der bestimmten Koordinaten des Prüfmerkmals im Bildraum in physikalische Abmessungen (z.B. mm) gemessen werden. Der euklidische Abstand zwischen den physikalischen Koordinaten kann dann berechnet werden, um die Distanz zu bestimmen. In Ausführungsformen, die Schritt 319 verwenden, wird der Messschritt unter Verwendung der abgerufenen Kalibrierungsdaten durchgeführt. Auf Schritt 350 folgt Schritt 359 oder Schritt 360.
  • Die gemessene geometrische Eigenschaft kann eine Länge, eine Breite, eine Höhe, eine Tiefe oder ein Radius des Prüfmerkmals sein. Die gemessene geometrische Eigenschaft kann auch eine Abweichung des Prüfmerkmals von einer flachen Ebene oder anderen Bezugsoberfläche sein. Das Prüfmerkmal kann eine flache Oberfläche, eine kugelige oder anderweitig erhabene dreidimensionale (3D) Oberfläche oder eine Nut, eine kreisförmige Eintiefung oder eine andere eingetiefte 3D-Oberfläche sein.
  • In verschiedenen Ausführungsformen sind die bestimmten Koordinaten dreidimensionale (3D) Koordinaten. Die bekannte geometrische Eigenschaft beinhaltet 3D-Koordinaten mehrerer Bezugspunkte, und die gemessene geometrische Eigenschaft beinhaltet ein Distanzmaß zwischen zumindest einigen von den bestimmten Koordinaten und den Bezugspunkten. In verschiedenen Ausführungsformen beinhaltet Schritt 350 das Messen von 3D-Objektkoordinaten mehrerer Punkte auf dem Prüfmerkmal. Die 3D-Objektkoordinaten werden dann über eine Koordinatentransfomation in einen Koordinatenrahmen der Bezugspunkte transformiert. Zum Beispiel können optische Strukturlicht-, Stereo- und Schattenmessspitzen verwendet werden, um Bilder aufzunehmen, welche die Steuereinheit in dreidimensionale Daten nachbearbeiten kann. Die 3D-Objektkoordinaten können aus diesen Daten in einem Frame in Bezug zur Sonde extrahiert werden. Sie können dann in einen Frame in Bezug auf Bezugspunkte, z.B. in Bezug auf das Prüfmerkmal, transformiert werden.
  • In verschiedenen Ausführungsformen ist das Distanzmaß ein Effektivwert (RMS), eine Quadratsumme, ein quadratischer Mittelwert oder ein Durchschnitt jeweiliger Abstände zwischen zumindest einigen von den bestimmten Koordinaten und entsprechenden Bezugspunkten. In einem Beispiel sei die i-te bestimmte Koordinate (xi, yi, zi) als Vektor k →i = [xi, yi, zi] dargestellt und der i-te Messpunkt sei ebenso m →i, i ∊ [1, n] . Die gemessene geometrische Eigenschaft kann der Effektivwert (RMS)-Ausdruck sein
    Figure DE102014106482A1_0002
    Dieser stellt die Gesamtdifferenz zwischen den bekannten Punkten und den Messpunkten mit einem einzigen Wert dar, der in Schritt 370 geprüft werden kann.
  • In einem anderen Beispiel werden in Schritt 350 einer oder mehrere Werte, die repräsentativ sind für die gemessene geometrische Eigenschaft, bereitgestellt. In diesem Beispiel beinhaltet die bekannte geometrische Eigenschaft einen oder mehrere Werte, die für das Prüfmerkmal repräsentativ sind. Auf diese Weise kann der Wert bzw. können die Werte, die für das Prüfmerkmal repräsentativ sind, anstelle der Messdaten des Prüfmerkmals selbst verwendet werden. In einem Beispiel ist das Prüfmerkmal eine Halbkugel, und zwei Werte, die dafür repräsentativ sind, sind die maximalen Breiten der Halbkugel entlang zweier zueinander senkrechter Achse (z.B. Achsen, die parallel sind zu θ = 0°, θ = 90° in 10). Diese Werte sollten innerhalb der Fertigungstoleranzen des Prüfmerkmals gleich sein. Das Maß, bis zu dem die Werte sich jenseits dieser Toleranzen unterscheiden, ist daher ein Hinweis auf die Ungenauigkeit der Messung. Die beiden Werte können mit einem bekannten Breitenwert verglichen werden, um Ungenauigkeiten in Maßstabsmessungen zu bestimmen (wenn z.B. beide Werte etwa zweimal so groß sind wie der bekannte Wert, zeigt dies einen 2x-Vergrößerungsfehler an), oder um Ungenauigkeiten in Messungen in einer Richtung im Vergleich zu Messungen in einer anderen Richtung zu bestimmen.
  • In einem anderen Beispiel ist in 3D die bekannte geometrische Eigenschaft die Flachheit des Prüfmerkmals. Das Prüfmerkmal kann so ausgelegt sein, dass es innerhalb von Fertigungstoleranzen eben ist, und die Flachheit kann der Abstand zwischen zwei parallelen Ebenen sein, zwischen denen das Prüfmerkmal liegt. Die gemessene geometrische Eigenschaft ist der entsprechende Abstand für die gemessenen Koordinaten und kann z.B. durch Anpassen einer Ebene auf die gemessenen Punkte und Bestimmen der Distanz entlang der Normalen zu der Ebene zwischen den beiden Punkten, die am weitesten von der Ebene weg sind, in Richtung dieser Normalen bestimmt werden. Diese Anpassung kann durch kleinste Quadrate oder Minimax-Optimierung oder andere mechanische Optimierungstechniken durchgeführt werden.
  • In verschiedenen Ausführungsformen besteht die bekannte geometrische Eigenschaft aus mehreren Regionen und entsprechenden Flachheiten. Zum Beispiel können die Anforderungen an eine Flachheit von Messdaten einer bekanntermaßen flachen Oberfläche in der Mitte des Sichtfelds stringenter sein als an einem Rand. Andere hierin beschriebene geometrische Eigenschaften können auch von der Mitte zum Rand oder von Punkt zu Punkt oder von Bereich zu Bereich eines aufgenommenen Bildes oder des Prüfobjekts selbst variieren. Die bekannte geometrische Eigenschaft kann Fertigungstoleranzen des Prüfobjekts entsprechen.
  • In Schritt 359 wird ein Genauigkeitsergebnis unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft bestimmt. Dies kann z.B. wie nachstehend unter Bezugnahme auf Schritt 360 beschrieben durchgeführt werden. Das Genauigkeitsergebnis ist mit der Messgenauigkeit des visuellen Fernprüfsystems korreliert. In einem Beispiel beinhaltet der Schritt des Bestimmens des Genauigkeitsergebnisses, 359, das Berechnen des Genauigkeitsergebnisses als Differenz zwischen der gemessenen geometrischen Eigenschaft aus Schritt 350 und der bekannten geometrischen Eigenschaft des Prüfmerkmals. Auf Schritt 359 kann Schritt 380 oder Schritt 360 folgen.
  • In Schritt 360 wird in verschiedenen Ausführungsformen ein Genauigkeitswert auf Basis des Unterschieds zwischen der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft des Prüfmerkmals bestimmt. Dieser Genauigkeitswert wird unter Verwendung der Messungen bereitgestellt, die in Schritt 350 durchgeführt werden, die ihrerseits Berechnungen sein können, die auf erfassten Bilddaten basieren. Unter Fortsetzung des obigen Marken-Distanz-Beispiels kann der Genauigkeitswert das Ergebnis der Subtrahierung oder Dividierung der bekannten Distanz zwischen den Marken (z.B. 3 mm) und der gemessenen Distanz zwischen den Marken (z.B. 3,14 mm) in beliebiger Reihenfolge sein. Der Genauigkeitswert kann in physikalischen Einheiten, Bildsensoreinheiten, Prozent, Standardabweichungen oder einer anderen geeigneten Messbasis ausgedrückt werden. Auf Schritt 360 folgt Schritt 370.
  • In Schritt 370 wird der bestimmte Genauigkeitswert mit einem vorgegebenen annehmbaren Genauigkeitswert verglichen. Zum Beispiel kann der bestimmte Genauigkeitswert das Verhältnis einer gemessenen Eigenschaft zu einer bekannten Eigenschaft sein, und der vorgegebene annehmbare Genauigkeitswert kann eine Prozentspanne sein, z.B. 100 ± 20 %. Der bestimmte Genauigkeitswert kann die Differenz |gemessen bekannt| sein wie oben beschrieben, und der vorgegebene annehmbare Genauigkeitswert kann ein Differenzschwellenwert k sein, so dass a ≤ k (d.h. der bzw. die berechnete(n) Differenz(en) kleiner sind als der vorgegebene annehmbare Genauigkeitswert) oder 0 ≤ a ≤ k. Unter Fortsetzung des oben angegebenen Distanzmaßbeispiels berücksichtigt die bekannte geometrische Eigenschaft cmg die Bezugspunkte und die Messpunkte, daher muss der cmg-Wert nicht mit einem separaten bekannten Wert verglichen werden. Daher kann der Vergleich des bestimmten Genauigkeitswerts cmg mit dem vorgegebenen annehmbaren Genauigkeitswert k die Bestimmung beinhalten, ob 0 ≤ cmg ≤ k. Ein Ergebnis des Vergleichs wird als Genauigkeitsergebnis ausgegeben (oben mit Bezug auf Schritt 359 erörtert). Auf Schritt 370 folgt Schritt 380.
  • In den oben angegebenen Beispielen, die einen Wert bzw. Werte verwenden, die repräsentativ sind für die geometrischen Eigenschaften, beinhaltet Schritt 360 eine bzw. mehrere Rechendifferenzen zwischen dem einen oder den mehreren Werten, die für die gemessene geometrische Eigenschaft repräsentativ sind und dem einen oder den mehreren Werten der bekannten geometrischen Eigenschaft. Wenn mehr als Wert verwendet wird, kann die Differenz eine einzige Differenz sein, die aus mehreren (Messwert, bekannter Wert)-Paaren berechnet wird, oder eine Mehrzahl von Differenzen zwischen jeweiligen (Messwert, bekannter Wert)-Paaren. Schritt 370 kann dann die Bestimmung beinhalten, ob der bzw. die berechneten Differenzen in einem ausgewählten Prozentbereich oder einer dimensionalen Menge des vorgegebenen annehmbaren Genauigkeitswerts liegt (z.B. eine Differenz von 0 ± 5% oder 0 +5% 0%).
  • In Schritt 380 wird ein Hinweis auf das bestimmte Genauigkeitsergebnis, z.B. über die oben beschriebene Differenz (Schritt 359) oder ein Ergebnis über den oben beschriebenen Vergleich (Schritt 370) beschrieben. Zum Beispiel kann der Hinweis ein Flag sein, das in einem Speicher gesetzt oder gelöscht wird, der betriebsmäßig mit der Steuereinheit verbunden ist. Der Hinweis kann auch ein Signal sein, das erzeugt oder nicht erzeugt wird, oder das bei einem bestimmten Wert oder Pegel gemäß dem Ergebnis des Vergleichs erzeugt wird. Der Hinweis kann auch ein visueller, akustischer, taktiler, haptischer, olfaktorischer oder gustatorischer Stimulus sein, der dem Anwender präsentiert wird, z.B. über eine Anwenderausgabevorrichtung (z.B. einen Computermonitor 122, 1). Als Beispiel wird unter Verwendung der Anwenderaufforderungsvorrichtung als Anwenderausgabevorrichtung eine Nachricht auf dem Bildschirm angezeigt, dass entweder der „Messwert innerhalb der Spezifikation“ liegt oder der „Messwert nicht innerhalb der Spezifikation“ liegt. In manchen Ausführungsformen wird der Hinweis nur bei Erfolg (die bestimmte Genauigkeit liegt innerhalb annehmbarer Genauigkeitsgrenzen) oder Misserfolg ausgegeben. Genauer wird der Hinweis in manchen Ausführungsformen nur angezeigt, wenn der Vergleichsschritt 370 bestimmt, dass der gemessene Genauigkeitswert nicht zumindest die vorgegebene annehmbare Genauigkeit liefert. In manchen Ausführungsformen folgt dem Schritt 370 oder dem Schritt 380 ein Schritt 390.
  • In verschiedenen Ausführungsformen aktiviert die Steuereinheit in Schritt 390 nach dem Vergleichsschritt 370 mindestens eine LED an der optischen Messspitze bei einem ausgewählten Ansteuerungsstrom und nimmt ein Bild unter Verwendung des Bildsensors auf. In manchen von diesen Ausführungsformen beinhaltet der Aufnahmeschritt 330 das Leiten eines ausgewählten Prüfstroms durch die mindestens eine von den LEDs auf der optischen Messspitze. Der ausgewählte Prüfstrom ist stärker als der ausgewählte Ansteuerungsstrom. Dies kann ein verbessertes Signal-Rausch-Verhältnis für Bilder ergeben, die aufgenommen werden, um die Messgenauigkeit zu prüfen, ohne dass das Ausbrennen der LEDs während des normalen Betriebs beschleunigt wird.
  • In verschiedenen Beispielen wird eine Identität der angebrachten optischen Messspitze bestimmt, z.B. wie oben mit Bezug auf Schritt 315 erörtert. Die bestimmte Identität und das bestimmte Genauigkeitsergebnis werden gespeichert, z.B. in einer Datenbank, einer Datei oder einem anderen Datenspeicher. Der Anbringungserfassungsschritt 310, der Anwenderaufforderungsschritt 320, der Bildaufnahmeschritt 330, der Koordinatenbestimmungsschritt 340, der Eigenschaftsbestimmungsschritt 350, der Genauigkeitsergebnisbestimmungsschritt 359, der Identitätsbestimmungsschritt 315 und der Speicherschritt werden dann einmal oder öfter wiederholt. Dies erstellt eine Historie im Datenspeicher der Spitzen, die z.B. mit einem bestimmten visuellen Fernprüfsystem verwendet worden sind. Die Historie kann dann einem Anwender präsentiert werden. Es können auch Trends bestimmt werden und Abweichungen von diesen Trends können einem Anwender präsentiert werden. Dies kann z.B. die Ausgabe eines Hinweises an den Anwender zulassen, dass sich eine Spitze einem Punkt nähert, an dem sie eine Wartung braucht. Unter Verwendung des Datenspeichers können die Eigenschaften einer oder mehrere Spitzen für Diagnose- oder Prognosezwecke verfolgt werden. In verschiedenen Aspekten beinhaltet der Speicherschritt (nicht dargestellt) das Speichern einer vorgegebenen Seriennummer oder eines anderen Identitätswerts der Spitze, das Datum, zu dem die Messungen durchgeführt wurden (z.B. in Schritt 330), Messwerte, wie die bestimmte geometrische Eigenschaft oder das bestimmte Genauigkeitsergebnis (z.B. aus Schritt 359) oder den bestimmten Genauigkeitswert (z.B. aus Schritt 360). Der Datenspeicher kann intern, z.B. auf einem internen Flash-Speicher, oder extern sein, z.B. auf einem USB-Antrieb oder einer SD-Karte. Daten können in den Datenspeicher importiert oder daraus exportiert werden, z.B. über ein Netz oder eine USB-Verbindung. Daten aus derselben Spitze, die an verschiedenen Boreskopen verwendet wird, können kombiniert werden, um zu bestimmen, ob die Spitze oder das Boreskope reparaturbedürftig sind.
  • 5 ist eine Draufsicht auf ein Beispiel für eine Leuchtdioden-(LED)-Anordnung auf einem Lichtemittermodul, das unter Verwendung eines länglichen Plättchens hergestellt worden ist. Diese Anordnung kann z.B. verwendet werden, um Phasenmessungen durchzuführen. Weitere Einzelheiten dieser Anordnung sind in der oben genannten US-Veröffentlichung Nr. 2011/0205552 beschrieben. Das Liniengitter 90 (6) weist eine Gitterperiode p auf. Jeder Lichtemitter 81 weist eine Breite auf, die kleiner ist als 1/3 der Gitterperiode p, und die einzelnen Lichtemitter 81 sind angrenzend aneinander mit einem Abstand p/3 von Mitte zu Mitte aneinander gereiht. Bei dieser Konfiguration weist das Linienmuster, das projiziert wird, wenn ein Lichtemitter 81 emittiert, eine räumliche oder Phasenverschiebung von ungefähr 1/3 der Linienperiode oder 120° in Bezug auf das Linienmuster auf, das projiziert wird, wenn der angrenzende Lichtemitter 81 emittiert. Beispiele für Emitterbereichsabmessungen für die einzelnen Lichtemitter 81, die mit einer 8 Zyklen/mm Gitterperiode p verwendet werden, können 35 µm × 50µm sein.
  • Alternativ dazu kann eine effektive Phasenverschiebung von 120° mit Konfigurationen erreicht werden, bei denen der Abstand des Lichtemitters 81 nicht 1/3 der Gitterperiode ist. Zum Beispiel kann bei einem Abstand des Lichtemitters 81 von 2/3 der Gitterperiode das Lichtmuster, das projiziert wird, wenn ein bestimmter Lichtemitter 81 emittiert, eine Phasenverschiebung von 240° in Bezug auf das Linienmuster aufweisen, das projiziert wird, wenn der angrenzende Lichtemitter 81 emittiert. Bei dieser Gestaltung weist jeder Lichtemitter 81 eine Breite auf, die kleiner ist als 2/3 der Gitterperiode p, und die einzelnen Lichtemitter 81 sind angrenzend aneinander mit einem Abstand 2p/3 von Mitte zu Mitte aneinander gereiht. Da mehrere Linien projiziert werden, die jeweils einen Phasenbereich von 0 bis 360° aufweisen, ist die 240°-Phasenverschiebung einer 120°-Phasenverschiebung gleichwertig. Verallgemeinernd ausgedrückt kann durch Positionieren von Lichtemittern 81 mit einem Mitte-zu-Mitte-Abstand von etwa p/3 der Gitterperiode, wobei p eine ganze Zahl ist, die kein Mehrfaches von 3 ist, das Lichtmuster, das projiziert wird, wenn ein bestimmter Lichtemitter 81 emittiert, eine effektive Phasenverschiebung von ungefähr 120° in Bezug auf das Linienmuster aufweisen, das projiziert wird, wenn der angrenzende Lichtemitter 81 emittiert.
  • Mehrere Lichtemitter 81 sind durch eine Gitterperiode voneinander getrennt, um drei separate Lichtemittergruppen zu bilden. Nur zur Verdeutlichung sind die Lichtemitter 81, die jeweils die drei Lichtemittergruppen umfassen, in 2 mit einem unterschiedlichen Muster dargestellt. Die LED-Anordnung 80 umfasst einzelne Lichtemitter 81 der gleichen Farbe. Jedoch kann sich die Farbe von Lichtemittern 81, die eine bestimmte Lichtemittergruppe umfassen, von der Farbe der Lichtemitter 81, die andere Lichtemittergruppen umfassen, unterscheiden.
  • Eine Mehrzahl von Lichtemittern 81, welche die einzelnen Lichtemittergruppen umfassen, können entlang der Achse, die senkrecht ist zu den Lichtemittern 81 und zu den Linien des Liniengitters, über eine Distanz, die ungefähr einer ganzzahligen Anzahl von Perioden des Liniengitters entspricht, beabstandet sein. Infolgedessen summieren sich die strukturierten Lichtmuster, die von jedem von den vielen Lichtemittern 81 produziert werden, wenn die mehreren Lichtemitter 81, die eine bestimmte Lichtemittergruppe umfassen, gleichzeitig Licht emittieren. Dadurch wird ein helleres Lichtmuster gebildet als von einem einzelnen Lichtemitterelement emittiert werden würde. Die Vergrößerung der Lichtemitterbreite kann die Helligkeit verstärken, aber die Liniengitterperiode muss proportional zunehmen, was eine proportional höhere Empfindlichkeit gegenüber Bildrauschen bewirkt. Durch Verwenden einer Mehrzahl von schmalen Lichtemittern 81 wie oben beschrieben, kann die Helligkeit des Musters erhöht werden, ohne die Liniengitterperiode zu vergrößern.
  • Wie in 5 und auch in 1 dargestellt ist, umfasst der Emittertreiber 32 eine Helligkeits- oder Streifenkontrast-Bestimmungsfunktion 39, um zu bestimmen, ob nur ein Lichtemitter 81 oder mehrere Lichtemitter 81 für jede Lichtemittergruppe aktiviert werden sollten. Da das Licht von den Lichtemittern 81 nicht gebeugt wird, werden die projizierten Streifensätze breiter, wenn die Distanz vom Liniengitter zunimmt. Wenn mehrere Lichtemitter 81 einer Lichtemittergruppe gleichzeitig emittieren, sind die einzelnen Streifensätze über eine konstante Distanz (eine Gitterperiode p, wie in den Beispielsfällen von 5 und 6 dargestellt ist), und nicht über eine konstante Phase zueinander versetzt, so dass ihre Phasen stärker ausgerichtet synchronisiert werden, wenn sie sich ausdehnen. Dies führt zu einem zunehmend stärkeren Kontrast, wenn die Distanz zum Gitter zunimmt. Wenn eine Oberfläche vermessen wird, wo mehr Intensität gebraucht wird, um ein geringes Bildrauschen zu erzielen, können somit mehrere Lichtemitter 81 aus demselben Streifensatz gleichzeitig eingeschaltet werden, um mehr Helligkeit bei höherem Kontrast zu schaffen. Jedoch sind die sinusförmigen Intensitäten bei kleinen Abständen nicht phasensynchron und der Streifensatzkontrast nimmt ab. Ebenso ist bei kleinen Abständen weniger Intensität erforderlich, bei Betrachtung einer näheren Oberfläche kann somit nur ein Lichtemitter 81 eingeschaltet werden, um eine ausreichende Intensität und einen hohen Kontrast zu erzielen.
  • Abhängig von der Evaluierung aus der Helligkeitsoder Streifenkontrastbestimmungsfunktion 39 wird ein Lichtemitter 81 oder werden mehrere Lichtemitter 81 in jeder Lichtemittergruppe für jeden Streifensatz aktiviert. In einer Ausführungsform umfasst der Treiberleiter 35 einen oder mehrere Treiberdrähte (nicht dargestellt) pro LED. Die Helligkeits- oder Streifenkontrastbestimmungsfunktion 39 sendet selektiv Strom durch spezifische Treiberdrähte des Treiberleiters 35, um eine angemessene Anzahl von LEDs pro Streifensatz leuchten zu lassen.
  • Alternativ dazu kann eine Helligkeits- oder Streifenkontrastbestimmungsfunktion 39 getrennt vom Emittertreiber 32 angeordnet sein und kann beispielsweise eine Analogerfassungsschaltung oder einen Videoprozessor umfassen. Mit dieser Anordnung verbindet ein Treiberdraht des Treiberleiters 35 den Emittertreiber 32 mit dem Lichtemittermodul 37, und einer oder mehrere Steuerdrähte (nicht dargestellt), die durch die Helligkeits- oder Streifenkontrastbestimmungsfunktion 39 gesteuert werden, sind ebenfalls mit dem Lichtemittermodul 37 verbunden. Eine Schaltung (nicht dargestellt), die am Lichtemittermodul 37 enthalten ist, kann ansprechend auf Signale an dem bzw. den Steuerdrähten selektiv eine oder mehrere LEDs mit dem Treiberdraht verbinden.
  • Durch die Verwendung mehrerer Lichtemitter 81 pro Streifensatz und die Helligkeits- oder Streifenkontrastbestimmungsfunktion 39 bietet die LED-Anordnung 80 eine ausreichende Helligkeit und einen ausrechenden Kontrast während Bildaufnahme und Messung. Die LED-Anordnung 80 bietet außerdem eine konsistente, gleichmäßige Ausleuchtung, keine Sprenkelung und eine rasche Umschaltung zwischen den Streifensätzen. Eine schnelle Umschaltung ermöglicht eine Aufnahme von Streifensatzbildern in aufeinanderfolgenden Frames, was die Wahrscheinlichkeit einer Bewegung zwischen Bildaufnahmezeiten verringert. Aus mindestens drei Gründen sind LED-Anordnungen in dieser Konfiguration praktisch. Jedoch reicht jede Lichtemissionsquelle, welche die oben genannten Qualitäten bietet, für eine Verwendung in der Sonde oder dem System 100 aus. Solche anderen Lichtquellen sind unter anderem organische LEDs, Plasmaelemente, fasergekoppelte Laser und Laseranordnungen.
  • In einer anderen Ausführungsform wird die LED-Anordnung 80 unter Verwendung mehrerer Reihen von LEDs hergestellt, die einen Lichtemitter 81 einer Lichtemittergruppe umfassen. Ein Lichtemitter 81 in dieser Konfiguration kann auch als Kette bezeichnet werden. Jeder Lichtemitter oder jede Kette 83 kann z.B. 4 LEDs umfassen, die in Reihe verbunden sind. Jeder Lichtemitter oder jede Kette 83 kann um etwa p/3 Perioden versetzt sein, wobei p eine ganze Zahl ist, die kein Vielfaches von 3 ist. Jeder von den mehreren Lichtemittern 81 kann eine Kette von mindestens zwei LEDs umfassen. Zum Beispiel können drei Ketten verwendet werden, die jeweils vier LEDs umfassen, wobei jede Kette ihre eigene Lichtemittergruppe umfasst. Jedoch kann eine Lichtemittergruppe auch eine Mehrzahl von Lichtemittern 81 oder Ketten umfassen.
  • Die LED-Leistung ist in der Regel proportional zum Treiberstrom. Jedoch ist die Zufuhr starker Ströme zu distal angeordneten LEDs unter Verwendung kleiner Drähte sehr ineffizient. Unter Verwendung mehrerer LEDs, die in Reihe verbunden sind, so dass sie einen Lichtemitter oder eine Kette 83 umfassen, ist weniger Strom nötig, um einen bestimmten kombinierten LED-Leistungspegel zu erreichen. Zum Beispiel können Ketten aus 4 LEDs, wie in 4 dargestellt, die gleiche Leistung erzielen wie einzelne LEDs unter Verwendung 1/4 des Stromes.
  • 6 ist eine Draufsicht auf ein Beispiel für ein intensitätmodulierendes Element, das eine Strichteilung beinhaltet. Dieses Element kann verwendet werden, um Phasenmessungen durchzuführen. In mindestens einer Ausführungsform umfasst das mindestens eine intensitätmodulierende Element 38 ein Liniengitter 90. Außerdem umfasst das mindestens eine Lichtemittermodul mehrere Lichtemitter. Das mindestens eine Lichtemittermodul kann LEDs oder eine LED-Anordnung umfassen.
  • Ein Streifensatz umfasst ein strukturiertes Lichtmuster, das projiziert wird, wenn eine Lichtemittergruppe aus mindestens einem von den mehreren Lichtemittern Licht emittiert. Die mehreren Lichtemitter des Lichtemittermoduls 37 sind so positioniert, dass das strukturierte Lichtmuster, das projiziert wird, wenn eine Gruppe aus mindestens einem Lichtemitter emittiert, eine räumliche oder Phasenverschiebung relativ zu den strukturierten Lichtmustern zeigt, die projiziert werden, wenn andere Gruppen aus dem mindestens einen Lichtemitter emittieren. Anders ausgedrückt zeigt das strukturierte Lichtmuster eines Streifensatzes eine räumliche oder Phasenverschiebung in Bezug auf die strukturierten Lichtmuster anderer Streifensätze.
  • 7 ist ein Beispielsbild eines strukturierten Lichtmusters, das durch Leiten von Licht durch ein intensitätmodulierendes Element erzeugt wird. Ein strukturiertes Lichtmuster 400 wird an der Oberfläche eines Objekts im Sichtfeld des Bildsensors, z.B. eines Prüfobjekts, durch Leiten von Licht durch mindestens ein intensitätmodulierendes Element 38 (1), z.B. das Liniengitter 90 (6), wodurch die Lichtverteilung geändert wird, erzeugt. Das strukturierte Lichtmuster 400 kann parallele helle und dunkle Linien umfassen, die ein sinusförmiges Intensitätsprofil in senkrechter Richtung zu den Linien umfassen (z.B. von links nach rechts in 7). In diesem Beispiel weisen die Mitten der hellen Linien hohe Luminanzwerte auf und die Mitten der dunklen Linien weisen wenig oder gar keine Luminanz auf. Die dunklen Linien des strukturierten Lichtmusters 400 und die Null-Luminanzwerte des sinusförmigen Intensitätsprofils können von den Spalten von Gitterelementen im Liniengitter 90 gebildet werden. Die Gitterperiode (p) ist dargestellt als die Distanz von der Mitte einer hellen Linie zur Mitte der nächsten hellen Linie. Selbstverständlich kann die Gitterperiode auch so definiert werden, dass sie an anderen Punkten entlang des sinusförmigen Intensitätsprofils beginnt (und endet).
  • In einer Ausführungsform kann die Länge der Gitterperiode (p) (z.B. 0,125 mm (0,0049 in.)) des ersten sinusförmigen Musters auf dem intensitätmodulierenden Element mindestens die doppelte Breite der Lichtemitter 81 sein (5) (z.B. 0,05 mm (0,00197 in.)), um einen effektiven Kontrast zu schaffen, während eine angemessene Anzahl heller und dunkler Linien in den aufgenommenen Bildern geschaffen wird. Durch eine Verkürzung der Gitterperiode (p) wird die Anzahl der hellen und dunklen Linien erhöht und der Kontrast des Bildes wird für eine gegebene Breite des Lichtemitters 81 gesenkt. In einer Ausführungsform kann die Amplitude des ersten sinusförmigen Musters viel kleiner (z.B. mindestens fünfmal kleiner) sein als die Länge der Lichtemitter 81, so dass die Amplitude der einzelnen Sinuswellen (0,015 mm (0,00118 in.) im projizierten Muster relativ klein ist, wodurch die Verschlechterung des Sinus-Intensitätsprofils minimiert wird, aber groß genug, um einen guten Kontrast mit herstellbaren Merkmalsgrößen (z.B. größer als 0,001 mm (0,0000394 in.)) zu erzielen. Ein höherer Musterkontrast kann ein geringeres Rauschen ermöglichen als ein schwacher Musterkontrast. In einer Ausführungsform können die intensitätmodulierenden Elemente ungefähr 15 Spalten und ungefähr 100 Zeilen aus Gitterelementen umfassen.
  • In einer Ausführungsform kann das Substrat des intensitätmodulierenden Elements um der Haltbarkeit willen aus Saphir bestehen. In einer Ausführungsform sind die Gitterelemente durch Photolithographie auf den intensitätmodulierenden Elementen unter Verwendung einer Beschichtung ausgebildet, die stark absorbierend ist für die Wellenlängen, die von den Lichtemittern 81 emittiert werden, um Reflektionen zu minimieren. Wenn die Lichtemitter 81 beispielsweise eine rote Wellenlänge emittieren, kann ein blaues Chromat, das stark absorbierend ist für die rote Wellenlänge (z.B. weniger als etwa 5 Prozent Reflektivität bei 750 nm) für die Gitterelemente verwendet werden. Selbstverständlich können auch andere Beschichtungen und Farben verwendet werden, um eine starke Absorption der Wellenlängen zu ermöglichen, die von den Lichtemittern 81 emittiert werden (z.B. schwarz anodisiert). In einer Ausführungsform kann es sein, dass die Gitterelemente nur auf einer Vorderseite (d.h. der Seite des intensitätmodulierenden Elements, die den Lichtemittern 81 zugewandt ist) aufgebracht sind, um ein Zerkratzen oder eine Beschädigung an den Gitterelementen zu vermeiden, wenn sie auf der freiliegenden Rückseite des intensitätmodulierenden Elements angeordnet sind. In einer anderen Ausführungsform kann es sein, dass die Gitterelemente nur auf der Rückseite des intensitätmodulierenden Elements aufgebracht sind, während in einer noch weiteren Ausführungsform die Gitterelemente sowohl auf die Vorderseite als auch auf die Rückseite des intensitätmodulierenden Elements aufgebracht sein können. In einer Ausführungsform kann eine antireflektive Beschichtung über den Gitterelementen aufgebracht sein.
  • Selbstverständlich können auch Gitterelemente mit nicht-sinusförmigen Mustern, die einem sinusförmigen Muster ähneln (z.B. mit einem Dreiecksmuster, einem Sechsecksmuster) verwendet werden, um ein nahezu sinusförmiges Intensitätsprofil zu erzeugen, das während der Phasenverschiebungsanalyse durch die Software kompensiert werden kann.
  • 8A ist eine Perspektive, und 8B ist eine Perspektive und ein Querschnitt eines Beispiels für ein Prüfmerkmal. In diesem Beispiel ist das Prüfmerkmal 4 eine Nut in einem Prüfobjekts 2. Die bekannte geometrische Eigenschaft ist die Distanz 810, bei der es sich um die Tiefe des Prüfmerkmals 4 handelt. Die gemessene geometrische Eigenschaft ist die Distanz 820 zwischen einem Punkt 15 und einer Bezugsoberfläche 20. In einem idealen (perfekt hergestellten) System sind die Distanzen 810 und 820 gleich. Unterschiede zwischen der Distanz 810 und der Distanz 820, die über Fertigungstoleranzen hinausgehen, können den Zustand des Messsystems anzeigen. Der Ort und die Ausrichtung des Punktes 15 und der Bezugsoberfläche 20 werden aus den Koordinaten gemessen, die aus den Bilddaten bestimmt werden. In diesem Beispiel sind die Koordinaten dreidimensional.
  • Der erste Oberflächenpunkt 11 (z.B. ein Oberflächenstartpunkt), der zweite Oberflächenpunkt 12 (z.B. ein Oberflächenstopppunkt) und der dritte Oberflächenpunkt 813 werden auf der Oberfläche 10 des Prüfobjekts 2 automatisch ausgewählt. Die automatische Auswahl kann Teil des Schrittes 350 sein (3). Die automatische Auswahl kann z.B. durch Lokalisieren von drei Marken in den Bilddaten und Auswählen von Koordinaten (aus Schritt 340, 3) von jeder als die drei Punkte 11, 12, 813 durchgeführt werden. In einer Ausführungsform kann ein erster Oberflächenpunkt 11 auf einer Seite (z.B. der linken Seite) des zu vermessenden Prüfmerkmals 4 ausgewählt werden, während der zweite Oberflächenpunkt 12 auf der anderen Seite (z.B. der rechten Seite) des zu vermessenden Prüfmerkmals 4 ausgewählt werden kann.
  • Geht man über zu Schritt 350 (3), so wird in diesen Ausführungsformen die Bezugsoberfläche 20 auf Basis der dreidimensionalen Koordinaten des ersten Oberflächenpunkts 11 und des zweiten Oberflächenpunkts 12 bestimmt. In diesem Beispiel ist die Bezugsoberfläche 20 flach, während in anderen Ausführungsformen die Bezugsoberfläche 20 gekrümmt sein kann. Ebenso kann in einer Ausführungsform die Bezugsoberfläche 20 die Form einer Ebene aufweisen, während die Bezugsoberfläche 20 in anderen Ausführungsformen in einer anderen Form ausgebildet sein kann (z.B. als Zylinder, Kugel usw.). Die Steuereinheit kann eine Oberflächenanpassung der dreidimensionalen Koordinaten des ersten Oberflächenpunkts 11, des zweiten Oberflächenpunkts 12 und des dritten Oberflächenpunkts 813 durchführen, um eine Bezugsoberflächengleichung (z.B. für eine Ebene) mit der folgenden Form zu bestimmen: k0RS + k1RS·xiRS + k2RS·yiRS = ziRS (13) worin (xiRS, yiRS, ziRS) die Koordinaten der Oberflächenpunkte sind und k0RS, k1RS und k2RS Koeffizienten sind, die durch eine Kurvenanpassung der dreidimensionalen Koordinaten erhalten werden. Es können mehr als drei Punkte verwendet werden. Zum Beispiel kann die Bezugsoberfläche 20 z.B. auf Basis von Oberflächenanpassung an die dreidimensionalen Koordinaten einer ersten Mehrzahl 13 von Punkten auf der Oberfläche 10 (xiASP, yiASP, ziASP) und die dreidimensionalen Koordinaten einer zweiten Mehrzahl 14 von Punkten auf der Oberfläche 10 (xiBSP, yiBSP, ziBSP) und optional mindestens eines weiteren Punktes, der von den Mehrzahlen 13, 14 beabstandet ist, bestimmt werden.
  • Man beachte, dass mehrere Punkte (d.h. mindestens so viele Punkte wie die Anzahl von k Koeffizienten) verwendet werden, um die Anpassung durchzuführen. Die Anpassung findet die k Koeffizienten, die den besten Fit für die verwendeten Punkte liefern (z.B. die Methode der kleinsten Quadrate). Die k Koeffizienten definieren dann die Ebene oder andere Bezugsoberfläche 20, welche die verwendeten dreidimensionalen Punkte approximiert. Setzt man jedoch die x-und y-Koordinaten der Punkte in die Ebenengleichung (13) ein, dann stimmen die z-Ergebnisse wegen des Rauschens und etwaiger Abweichungen von einer Ebene, die in der Realität existiert, im Allgemeinen nicht exakt mit den z-Koordinaten der Punkte überein. Somit können xiRS und yiRS arbiträre Werte sein, und das ziRS-Ergebnis teilt z für die definierte Ebene bei xiRS, yiRS mit. Somit können die Koordinaten, die in diesen Gleichungen dargestellt sind, für arbiträre Punkte gelten, die exakt auf der definierten Oberfläche liegen, aber nicht notwendigerweise für die Punkte, die bei der Anpassung verwendet werden, um die k Koeffizienten zu bestimmen.
  • In verschiedenen Ausführungsformen kann die Steuereinheit die dreidimensionalen Koordinaten eines ersten Bezugsoberflächenpunkts 21 auf der Bezugsoberfläche 20, der dem ersten Oberflächenpunkt 11 auf der Oberfläche 10 entspricht, und eines zweiten Oberflächenpunkts 22 auf der Bezugsoberfläche 20, der dem zweiten Bezugsoberflächenpunkt 12 auf der Oberfläche entspricht, bestimmen. Unter manchen Umständen können die dreidimensionalen Koordinaten des ersten Bezugsoberflächenpunkts 21 und des ersten Oberflächenpunkts 11 dieselben sein. Ebenso können die dreidimensionalen Koordinaten des zweiten Bezugsoberflächenpunkts 22 und des zweiten Oberflächenpunkts 12 dieselben sein. Jedoch liegen unter manchen Umständen aufgrund von Rauschen oder kleinen Variationen in der Oberfläche 10 der erste Oberflächenpunkt 11 und der zweite Oberflächenpunkt 12 nicht exakt auf der Bezugsoberfläche 20 und haben daher andere Koordinaten.
  • Bei der Bestimmung von Punkten auf der Bezugsoberfläche 20, die Punkten auf der Bezugsoberfläche 10 entsprechen, ist es zweckmäßig, das Konzept von Linienrichtungen anzuwenden, welche die relativen Neigungen der Linien in den x-, y- und z-Ebenen vermitteln und verwendet werden können, um senkrechte oder parallele Linien einzurichten. Für eine gegebenen Linie, die durch zwei dreidimensionale Koordinaten (x0, y0, z0) und (x1, y1, z1) verläuft, können die Linienrichtungen (dx, dy, dz) definiert werden als: dx = x1 – x0 (14) dy = y1 – y0 (15) dz = z1 – z0 (16)
  • Wenn ein Punkt auf einer Linie (x0, y0, z0) und die Richtungen der Linie (dx, dy, dz) gegeben sind, dann kann die Linie definiert werden durch: (x – x0) / dx = (y – y0) / dy = (z – z0) / dz (17)
  • Wenn eine von den x-, y- oder z-Koordinaten gegeben ist, können somit die verbliebenen zwei berechnet werden. Parallele Linien haben die gleichen oder linear skalierte Richtungen. Zwei Linien mit Richtungen (dx0, dy0, dz0) und (dx1, dy1, dz1) sind senkrecht, wenn: dx0·dx1 + dy0·dy1 + dz0·dz1 = 0 (18)
  • Die Richtungen aller Linien, die normal sind zu einer Bezugsebene, die anhand der Gleichung (13) definiert wird, werden erhalten durch: dxRSN = –k1RS (19) dyRSN = –k2RS (20) dzRSN = 1 (21)
  • Auf Basis der Gleichungen (17) und (19) bis (21) kann eine Linie, die senkrecht ist zu einer Bezugsoberfläche 20 und durch einen Oberflächenpunkt (xS, yS, zS) verläuft, definiert werden als:
    Figure DE102014106482A1_0003
  • In einer Ausführungsform können die Koordinaten eines Punktes auf der Bezugsoberfläche 20 (xiRS, yiRS, ziRS), die einem Punkt auf der Oberfläche 10 (xiS, yiS, ziS) entsprechen (z.B. dreidimensionale Koordinaten eines ersten Bezugsoberflächenpunkts 21 auf der Bezugsoberfläche 20, die dem ersten Oberflächenpunkt 11 auf der Oberfläche 10 entsprechen) können durch Definieren einer Linie bestimmt werden, die normal ist zur Bezugsebene mit Richtungen, die in (19)–(21) angegeben sind, und durch (xiS, yiS, ziS) verlaufen, und durch Bestimmen der Koordinaten des Schnittpunkts dieser Linie mit der Bezugsebene. Somit erhält man aus den Gleichungen (13) und (22):
    Figure DE102014106482A1_0004
  • In einer Ausführungsform können diese Schritte (Gleichungen (14) bis (25)) verwendet werden, um die dreidimensionalen Koordinaten eines ersten Bezugsoberflächenpunkts 21 (xARS, yARS, zARS) auf der Bezugsoberfläche 20, die dem ersten Oberflächenpunkt 11 (xAS, yAS, zAS) auf der Oberfläche 10 entsprechen, und eines zweiten Bezugsoberflächenpunkts 22 (xBRS, yBRS, zBRS) auf der Bezugsoberfläche 20, der dem zweiten Bezugsoberflächenpunkt 12 (xBS, yBS, zBS) auf der Oberfläche 10 entspricht, zu bestimmen.
  • Die Steuereinheit kann auch die dreidimensionalen Koordinaten einer Bezugsoberflächenlinie 29 auf der Bezugsoberfläche 20 aus dem ersten Bezugsoberflächenpunkt 21 bis zum zweiten Bezugsoberflächenpunkt 22 bestimmen. Es gibt mehrere Möglichkeiten der Bestimmung der dreidimensionalen Koordinaten einer Bezugsoberflächenlinie 29. In einer Ausführungsform, wo die Bezugsoberfläche 20 eine Ebene ist, können die dreidimensionalen Koordinaten eines Bezugsoberflächenlinienpunkts 28 (xRSL, yRSL, zRSL) auf der Bezugsoberfläche 29 auf Basis der dreidimensionalen Koordinaten des ersten Bezugsoberflächenpunkts 21 (xARS, yARS, zARS) und des zweiten Bezugsoberflächenpunkts 22 (xBRS, yBRS, zBRS) unter Verwendung der folgenden Gleichung bestimmt werden, wobei die Kenntnis einer der Koordinaten des Bezugsoberflächenlinienpunkts 28 (xRSL oder yRSL oder zRSL) verwendet werden können, um die anderen beiden zu bestimmen:
    Figure DE102014106482A1_0005
  • Sobald die dreidimensionalen Koordinaten der Bezugsoberflächenlinienpunkte 28 (xiRSL, yiRSL, ziRSL) auf der Bezugsoberflächenlinie 29 bestimmt worden sind, kann die Steuereinheit die dreidimensionalen Koordinaten einer Oberflächenkontur 19 bestimmen, bei der es sich um die Projektion der Bezugsoberflächenlinie 29 auf der Oberfläche 10 des Prüfobjekts 2 senkrecht zur Bezugsoberfläche 29 handelt. Wie dargestellt, ist die Oberflächenkontur 19 nicht unbedingt eine gerade Linie. Die Bezugsoberflächenlinie 29 und die Oberflächenkontur 19 können sich zwischen zweien von den Punkten, die verwendet werden, um die Bezugsoberfläche 20 zu bestimmen, oder einem dieser Punkte und einem anderen Punkt auf der Bezugsoberfläche 20 oder zwei anderen Punkten auf der Bezugsoberfläche 20 erstrecken.
  • Die Steuereinheit kann die Distanz der Linien 26 von der Bezugsoberflächenlinie 29 zu mehreren Bezugsoberflächenpunkten 25 (xiRS, yiRS, ziRS) auf der Bezugsoberfläche 20 bestimmen, wo Oberflächen-zu-Bezugsoberflächenlinien 16 von mehreren Oberflächenpunkten 15 (xiS, yiS, ziS) auf der Oberfläche 10 senkrecht sind zur Bezugsoberfläche 20 und die Bezugsoberfläche 20 schneiden. Die Steuereinheit kann die Oberflächenpunkte 15 automatisch aus den 3D-Koordinaten auswählen, die in Schritt 340 bestimmt worden sind. Zum Beispiel kann das Prüfmerkmal 4 durch eine Marke identifiziert werden, und die Steuereinheit kann Punkte innerhalb einer bestimmten Distanz der Marke als Oberflächenpunkte 15 bestimmen. Alternativ dazu kann die Steuereinheit, wenn die Bezugsoberfläche 20 bestimmt worden ist, als Oberflächenpunkte 15 Punkte auswählen, die weiter als eine vorausgewählte Distanz von der Bezugsoberfläche 20 weg sind. Die vorgegebene Distanz oder vorausgewählte Distanz kann in den bekannten geometrischen Eigenschaften enthalten sein.
  • In einer Ausführungsform können für jeden von den mehreren Oberflächenpunkten 15 (xiS, yiS, ziS) die Gleichungen (14) bis (25) verwendet werden, um die dreidimensionalen Koordinaten der Bezugsoberflächenpunkte 25 (xiRS, yiRS, ziRS) auf der Bezugsoberfläche 20 zu bestimmen, die den Oberflächenpunkten 15 (xiS, yiS, ziS) auf der Oberfläche 10 entsprechen (z.B. ist jedes Mal der Bezugsoberflächenpunkt 25, wo eine Oberfläche-zu-Bezugsoberfläche-Linie 16 von den Oberflächenpunkten 15 aus verläuft, senkrecht ist zur Bezugsoberfläche 20 und die Bezugsoberfläche 20 schneidet. Die Länge der Oberfläche-zu-Bezugsoberfläche-Linie 16 ist die Distanz 820, bei der es sich um die gemessene geometrische Eigenschaft handelt.
  • In einer Ausführungsform kann die Steuereinheit, sobald die dreidimensionalen Koordinaten der Bezugsoberflächenpunkte 25 (xiRS, yiRS, ziRS) bestimmt worden sind, die Distanzen von Linien 26 bestimmen, die in der Bezugsoberfläche 20 von den Bezugsoberflächenpunkten 25, aus verlaufen und die senkrecht sind zur Bezugsoberflächenlinie 29 und die Bezugsoberflächenlinie 29 an Bezugsoberflächenlinien-Schnittpunkten 27 (xiRSLI, yiRSLI, ziRSLI) schneiden. Die dreidimensionalen Koordinaten der Bezugsoberflächenlinien-Schnittpunkte 27 können durch die folgenden Schritte bestimmt werden:
    Figure DE102014106482A1_0006
  • Sobald in einer zweiten Ausführungsform die dreidimensionalen Koordinaten der Bezugsoberflächenlinien-Schnittpunkte 27 (xiRSLI, yiRSLI, ziRSLI), die den Bezugsoberflächenpunkten 25 (xiRS, yiRS, ziRS) entsprechen, bestimmt worden sind, kann die Distanz (d26) der Linie 26 zwischen diesen Punkten unter Verwendung der folgenden bestimmt werden:
    Figure DE102014106482A1_0007
  • In einer Ausführungsform kann diese Form der Gleichung (33) verwendet werden, um die Distanz einer Linie zwischen beliebigen zwei Punkten auf der Bezugsoberfläche 20 zu bestimmen, deren Koordinaten (x, y, z) bekannt sind (z.B. die Distanz (d16) der Oberfläche-zu-Bezugsoberfläche-Linie 16 von einem Oberflächenpunkt 15 zu einem Bezugsoberflächenpunkt 25, die Distanz (d23) der Linie 23 von einem Bezugsoberflächenpunkt-Schnittpunkt 27 zum ersten Bezugsoberflächenpunkt 21 usw.).
  • Die Steuereinheit kann die dreidimensionalen Koordinaten einer Oberflächenkontur 19 auf der Oberfläche 10 vom ersten Bezugsoberflächenpunkt 21 zum zweiten Bezugsoberflächenpunkt 22 auf Basis der Oberflächenpunkte 15, deren senkrechte Oberfläche-zu-Bezugsoberfläche-Linien 16 die Bezugsoberfläche 20 auf oder in einer vorgegebenen Distanz von der Bezugsoberflächenlinie 29 schneiden. Wenn beispielsweise die Distanz der Linie 26 für einen bestimmten Bezugsoberflächenpunkt 25 größer ist als ein Schwellenwert, ist dies ein Hinweis darauf, dass der Oberflächenpunkt 15 (xS, yS, zS), der dem Bezugsoberflächenpunkt 25 entspricht, weit weg von der gewünschten Oberflächenkontur 19 liegt, bei der es sich um die Projektion der Bezugsoberflächenlinie 29 auf die Oberfläche 10 des Prüfobjekts 2 senkrecht zur Bezugsoberfläche 29 handelt. Wenn dagegen die Distanz der Linie 26 für einen bestimmten Bezugsoberflächenpunkt 25 null oder kleiner ist als ein Schwellenwert, ist dies ein Hinweis darauf, dass der Oberflächenpunkt 15 (xS, yS, zS) auf der oder nahe an der gewünschten Oberflächenkontur 19 liegt, bei der es sich um die Projektion der Bezugsoberflächenlinie 29 auf die Oberfläche 10 des Prüfobjekts 2 senkrecht zur Bezugsoberfläche 29 handelt.
  • In einer Ausführungsform kann die Steuereinheit aus den Oberflächenpunkten 15 den Satz von Oberflächenkonturpunkten 18 (xiSCL, yiSCL, ziSCL) auswählen, deren entsprechende Bezugsoberflächenpunkte 25 Linien 26 aufweisen mit Distanzen ((d26), die von der Gleichung (33)) gegeben werden), die kleiner sind als ein Schwellenwert, der die Oberflächenkontur 19 bilden kann. Die Steuereinheit kann eine Überlagerung auf dem Bild der Oberfläche 10 zeigen, was den Ort der Oberflächenkontur 19 auf der Oberfläche anzeigt.
  • Die Steuereinheit kann das Profil der Oberfläche 10 des Prüfobjekts 2 durch Bestimmen der Distanz (z.B. der senkrechten Distanz) von der Bezugsoberfläche 20 zur Oberflächenkontur 19 vom ersten Bezugsoberflächenpunkt 21 (xARS, yARS, zARS) zum zweiten Bezugsoberflächenpunkt 22 (xBRS, yBRS, zBRS) bestimmen. In einer Ausführungsform kann die Steuereinheit die Fläche eines Raums 843 zwischen der Bezugsoberfläche 20 und der Oberflächenkontur 19 automatisch bestimmen und anzeigen. Die Fläche kann durch Teilen des Raums 843 zwischen der Bezugsoberflächenlinie 29 und der Oberflächenkontur 19 in mehrere Polygone, beispielsweise Rechtecke, und Summieren der Flächen dieser Polygone bestimmt werden. Die Steuereinheit kann auch die Distanz von der Bezugsoberfläche 20 zu dem Punkt auf der Oberflächenkontur 19, der am weitesten weg von der Bezugsoberfläche 20 liegt, automatisch bestimmen und anzeigen, um den tiefsten oder höchsten Punkt im Prüfmerkmal 4 anzuzeigen. In einer Ausführungsform kann die Distanz oder Fläche zwischen der Bezugsoberfläche 20 und der Oberflächenkontur 19 die Distanz oder Fläche zwischen der Bezugsoberflächenlinie 29 und der Oberflächenkontur 19 sein.
  • In einer Ausführungsform kann die Steuereinheit eine (nicht dargestellte) graphische Darstellung des Profils der Oberfläche 10 zeigen, die einen Querschnitt des Prüfobjekts 2 an der Oberflächenkontur 19 vom ersten Bezugsoberflächenpunkt 21 zum zweiten Bezugsoberflächenpunkt 22 umfasst. Die Bezugsoberflächenlinie 29 wird in manchen Ausführungsformen möglicherweise nicht dargestellt. Die graphische Darstellung kann auch eine Skala aufweisen, welche die Distanz von der Bezugsoberfläche 20 zur Oberflächenkontur 19 anzeigt. Die graphische Darstellung kann auch von einem Thumbnail des Bildes der Oberfläche 10 des Prüfobjekts 2 begleitet werden, welcher die Bezugsoberflächenlinie 29 zeigt.
  • Zurück zu 6: in einer Ausführungsform kann die graphische Darstellung des Profils der Oberfläche 10 ein Diagramm der Distanzen von den Oberflächenkonturpunkten 18 auf der Oberflächenkontur 19 zur Bezugsoberfläche 20 beinhalten. In einer Ausführungsform kann die Bezugsoberflächenlinie 29 in gleichmäßig beabstandete Bezugsoberflächenlinienpunkte 28 geteilt sein, von denen jeder einem x-Wert der graphischen Darstellung entspricht. Für jeden Bezugsoberflächenlinienpunkt 28 kann die Distanz von der Oberflächenkontur 19 zur Bezugsoberfläche 20 durch Auswählen der Oberflächenkonturpunkte 18, deren entsprechende Bezugsoberflächenpunkte 25 innerhalb einer bestimmten Schwellendistanz vom Bezugsoberflächenlinienpunkt 28 liegen, und Bestimmen des gewichteten Mittelwerts der Distanz von diesen ausgewählten Oberflächenkonturpunkten 18 zum Bezugsoberflächenkonturpunkt 28 bestimmt werden. Die Gewichtung, die der Distanz jedes ausgewählten Oberflächenkonturpunkts 18 zugewiesen wird, kann umgekehrt proportional sein zur Distanz vom Bezugsoberflächenpunkt 25, der diesen Oberflächenkonturpunkt 18 entspricht, zum Bezugsoberflächenlinienpunkt 28 (d.h. je kleiner die Distanz, desto größer die Gewichtung).
  • In verschiedenen Ausführungsformen können die dreidimensionalen Koordinaten von mindestens drei Oberflächenpunkten 11, 12, 813 verwendet werden, um die Bezugsoberfläche 20 (z.B. eine Ebene) zu bestimmen. In einer Ausführungsform und für eine verbesserte Genauigkeit kann die Steuereinheit die dreidimensionalen Koordinaten sämtlicher Oberflächenpunkt auf dem Prüfobjekts 2 nutzen, um die Bezugsoberfläche 20 zu bestimmen. Darüber hinaus können dreidimensionale Koordinaten von mindestens drei anderen Oberflächenpunkten verwendet werden, um eine zweite Bezugsoberfläche (z.B. eine Ebene) für einen zweiten Abschnitt des Prüfobjekts 2 zu bestimmen. Jede Zahl von Ebenen oder Bezugsoberflächen kann für ein bestimmtes Prüfmerkmal 4 oder für mehrere Prüfmerkmale am Prüfobjekt 2 bestimmt werden. Die bekannte geometrische Eigenschaft kann Daten beinhalten, die anzeigen, wie viele Bezugsoberflächen passen, wo diese Oberflächen in Bezug auf Marken oder andere Merkmale des Prüfobjekts anzuordnen sind, und zur Verwendung bei der Berechnung, welche gemessene geometrische Eigenschaft.
  • 9 ist eine Draufsicht auf ein Beispiel für ein Prüfmerkmal. Das Prüfmerkmal 910 ist eine im Wesentlichen plane Oberfläche des Prüfobjekts 900, das mit mindestens zwei Marken 921, 922 markiert oder anderweitig versehen ist. Marken 921, 922 sind so angeordnet, dass sie von einem Bildsensor in der Sonde erfasst werden können. Wenn zum Beispiel der Bildsensor dafür ausgelegt ist, sichtbares Licht zu erfassen, sind Marken 921, 922 ausgebildet, um sichtbares Licht anders als die Umgebung 915 zu reflektieren oder zu absorbieren. Die Steuereinheit kann die Marken im Bild durch Bildverarbeitungstechniken erfassen, die Marken 921, 922, 923 (z.B. schwarze Tinte) von der Umgebung 915 (z.B. einer weißen Oberfläche) unterscheiden, wie oben erörtert. Das Prüfmerkmal kann eine matte oder glänzende Oberfläche oder eine Kombination davon aufweisen. In einem Beispiel weisen die Marken 921, 922, 923 und die Umgebung 915 eine matte Oberflächenbehandlung auf.
  • In verschiedenen Ausführungsformen weist das Prüfmerkmal 910 ferner eine dritte Marke 923 auf, die auch so ausgebildet ist, dass sie von einem Bildsensor in der Sonde erfasst werden kann. Die Marken 921, 922, 923 können die gleiche Form oder unterschiedliche Formen aufweisen oder zwei können die gleiche Form aufweisen und eine kann eine andere Form aufweisen. Die Marken können durch die Art, wie sie angeordnet sind, voneinander unterscheidbar sein. In diesem Beispiel sind sie so angeordnet, dass die drei paarweise geordneten Distanzen zwischen ihnen verschieden sind. Die Marken können auch durch ihre Formen, Farben oder andere Eigenschaften, die vom Bildsensor erfasst werden können oder die durch Verarbeitung von Daten vom Bildsensor bestimmt werden können, unterscheidbar sein. In diesem Beispiel ist die Marke 921 von den Marken 922 und 923 durch ihre Form unterscheidbar, und die Marken sind durch ihre jeweiligen Teilungen von der Marke 921 untereinander unterscheidbar. Ob die Marken nun unterscheidbar sind oder nicht, kann der Messschritt 350 (3) die Bestimmung einer ersten Distanz 931 zwischen der ersten Marke 921 und der zweiten Marke 922 und einer ersten Distanz 932 zwischen der zweiten Marke 922 und der dritten Marke 923 beinhalten. Wenn die Marken nicht unterscheidbar sind (z.B. an den Ecken eines gleichseitigen Dreiecks liegen und identisch sind), kann die Wahl, welche von den Marken die erste, die zweite und die dritte ist, beliebig vorgenommen werden oder unter Verwendung eines Zufalls- oder Pseudozufallszahlengenerators.
  • In diesem Beispiel beinhaltet das Prüfmerkmal 910 Labels 941, 942, die einem Menschen (oder einem Computer mit Technologie zur Erkennung optischer Zeichen) die erste Distanz zwischen Marken 921 und 922 und die zweite Distanz zwischen Marken 922 und 923 anzeigen. Diese Labels liefern einen Sinn für die Größenordnung, z.B. wenn der Anwender ein Anleitungsbild betrachtet (Schritt 325, 3). In verschiedenen Ausführungsformen können die Labels 941, 942 maschinenlesbare Informationen, z.B. Barcodes beinhalten, welche die Seriennummer des Prüfobjekts 900, die ersten und zweiten Distanzen oder andere Informationen beinhalten.
  • 4 ist eine Skizze, die die Komponenten eines Beispiels für ein Datenverarbeitungssystem zum Analysieren von Daten und Durchführen anderer hierin beschriebener Analysen zeigt. Das System beinhaltet ein Datenverarbeitungssystem 1110, ein peripheres System 1120, ein Anwenderschnittstellensystem 1130 und ein Datenspeichersystem 1140. Das periphere System 1120, das Anwenderschnittstellensystem 1130 und das Datenspeichersystem 1140 sind kommunikationsmäßig mit dem Datenverarbeitungssystem 1110 verbunden. Das Datenverarbeitungssystem 1110 kann kommunikationsmäßig mit einem Netz 1150 verbunden sein, z.B. mit dem Internet oder einem X.25-Netz, wie nachstehend erörtert. Eine Steuereinheit, welche die oben beschriebenen Arbeitsschritte ausführt (z.B. in 3), kann eines oder mehrere von den Systemen 1110, 1120, 1130 oder 1140 beinhalten und kann mit einem oder mehreren Netzen 1150 verbunden sein. Zum Beispiel können der Mikrocontroller 30, die CPU 56 oder der bzw. die Videoprozessor(en) 50 (alle in 1) jeweils ein System 1110 und eines oder mehrere von den Systemen 1120, 1130 oder 1140 beinhalten.
  • Das Datenverarbeitungssystem 1110 beinhaltet einen oder mehrere Datenprozessoren, die Prozesse verschiedener hierin beschriebener Ausführungsformen implementieren. Ein „Datenprozessor“ ist eine Vorrichtung zum automatischen Operieren mit Daten und kann eine zentrale Verarbeitungseinheit (CPU), einen Desktop-Computer, einen Laptop-Computer, einen Mainframe-Computer, einen Personal Digital Assistant, eine Digitalkamera, eine Mobiltelefon, ein Smartphone oder irgendeine andere Vorrichtung zum Verarbeiten von Daten, Verwalten von Daten oder für den Umgang mit Daten beinhalten, seien diese nun mit elektrischen, magnetischen, optischen, biologischen Komponenten oder auf andere Weise implementiert.
  • Der Ausdruck „kommunikationsmäßig verbunden“ beinhaltet jede Art der Verbindung, verdrahte oder drahtlos, zwischen Vorrichtungen, Datenprozessoren oder Programmen, in denen Daten übermittelt werden können. Teilsysteme, wie das periphere System 1120, das Anwenderschnittstellensystem 1130 und das Datenspeichersystem 1140 sind separat vom Datenverarbeitungssystem 1110 dargestellt, können aber vollständig oder teilweise im Datenverarbeitungssystem 1110 untergebracht sein.
  • Das Datenspeichersystem 1140 beinhaltet oder ist kommunikationsmäßig verbunden mit einem oder mehreren materiellen nicht-flüchtigen, computerlesbaren Speichermedien, die so gestaltet sind, dass sie Informationen, einschließlich Informationen, die gebraucht werden, um Prozesse gemäß verschiedenen Ausführungsformen auszuführen, speichern. Ein „materielles nicht-flüchtiges, computerlesbares Speichermedium“, wie hierin verwendet, bezeichnet jede nicht-transitorische Vorrichtung oder jedes nicht-transitorische Erzeugnis, das an der Speicherung von Befehlen beteiligt ist, die dem Datenverarbeitungssystem 1110 zur Ausführung vorgelegt werden. Ein solches nicht-transitorisches Medium kann nichtflüchtig oder flüchtig sein. Beispiele für nicht-flüchtige Medien beinhalten Floppy-Disks, flexible Disks oder andere tragbare Computerdisketten, Festplattenlaufwerke, Magnetband oder andere magnetische Medien, Compact Discs und Compact-Discs mit Nur-Lese-Speicher (CD-ROM), DVDs, BLU-RAY-Disks, HD-DVD-Disks, andere optische Speichermedien, Flash-Speicher, Nur-Lese-Speicher (ROM) und löschbare programmierbare Nur-Lese-Speicher (EPROM oder EEPROM). Beispiele für flüchtige Medien beinhalten einen dynamischen Speicher, wie Register und Speicher mit wahlfreiem Zugriff (RAM). Speichermedien können Daten elektronisch, magnetisch, optisch, chemisch, mechanisch oder auf andere Weise speichern und können elektronische, magnetische, optische, elektromagnetische, Infrarot- oder Halbleiterkomponenten beinhalten.
  • Ausführungsformen der vorliegenden Erfindung können die Form eines Computerprogrammprodukts annehmen, das in einem computerlesbaren Medium oder mehreren computerlesbaren Medien verkörpert sein kann, auf dem computerausführbarer Code ausgeführt wird. Solche Medien können hergestellt werden wie für diese Artikel üblich, z.B. durch Pressen einer CD-ROM. Das Programm, das in den Medien verkörpert ist, beinhaltet Computerprogrammbefehle, die das Datenverarbeitungssystem 1110 anweisen können, eine bestimmte Reihe von Arbeitsschritten durchzuführen, wenn es geladen ist, wodurch Funktionen oder Aktionen implementiert werden, die hierin spezifiziert sind.
  • In einem Beispiel beinhaltet das Datenspeichersystem 1140 einen Code-Memory 1141, z.B. einen Speichermit wahlfreiem Zugriff, und eine Platte 1142, z.B. eine materielle, computerlesbare Speichervorrichtung, wie eine Festplatte oder einen Festzustands-Flash-Speicher. Computerprogrammbefehle werden von der Platte 1142 oder über eine Drahtlose, verdrahtete, optische Faser oder andere Verbindung in den Code-Memory 1141 eingelesen. Das Datenverarbeitungssystem 1110 führt dann eine oder mehrere Sequenzen der Computerprogrammbefehle aus, die in den Code-Memory 1141 geladen worden sind, und führt als Folge davon Verfahrensschritte aus wie hierin beschrieben. Auf diese Weise führt das Datenverarbeitungssystem 1110 einen computerimplementierten Prozess aus, der eine technische Wirkung der Messung geometrischer Eigenschaften des Prüfmerkmals liefert und den physikalischen Zustand eines visuellen Fernprüfsystems bestimmt. Dieser Zustand (exakt oder nicht) kann dann an einen Anwender gemeldet werden. In verschiedenen Ausführungsformen können Blöcke der Ablaufschemadarstellungen oder Blockdiagramme hierin und Kombinationen davon von Computerprogrammbefehlen implementiert werden.
  • Computerprogrammcode kann in jeder Kombination aus einer oder mehreren Programmiersprachen geschrieben sein, z.B. Java, Smalltalk, C++, C oder eine geeignete Assemblierungssprache. Der Programmcode zur Ausführung von hierin beschriebenen Verfahren kann ganz auf einem einzigen Datenverarbeitungssystem 1110 oder auf mehreren kommunikationsmäßig miteinander verbundenen Datenverarbeitungssystemen 1110 ausgeführt werden. Zum Beispiel kann der Code ganz oder teilweise auf einem Anwendercomputer und ganz oder teilweise auf einem Remote-Computer, z.B. einem Server, ausgeführt werden. Der Remote-Computer kann über das Netz 1150 mit dem Computer des Anwenders verbunden sein. Der Computer des Anwenders oder der Remote-Computer kann jeweils ein nicht-tragbarer Computer, beispielsweise ein herkömmlicher Desktop-Personal-Computer (PC) sein oder kann ein tragbarer Computer sein wie ein Tablet, ein Mobiltelefon, ein Smartphone oder ein Laptop.
  • Das periphere System 1120 kann eine oder mehrere Vorrichtungen beinhalten, die so gestaltet sind, dass sie Aufzeichnungen über digitalen Inhalt oder andere Daten an das Datenverarbeitungssystem 1110 ausgeben. Zum Beispiel kann das periphere System 1120 digitale Fotokameras, digitale Videokameras, Mobiltelefone oder andere Datenverarbeitungseinrichtungen beinhalten. Das Datenverarbeitungssystem 1110 kann nach Empfang von Daten von einer Vorrichtung im peripheren System 1120 solche Daten im Datenspeichersystem 1140 speichern.
  • Das Anwenderschnittstellensystem 1130 kann eine Maus, eine Tastatur, einen anderen Computer (der über ein Netz oder ein Null-Modem-Kabel angeschlossen ist), ein Mikrofon oder einen Sprachprozessor oder eine oder mehrere andere Vorrichtungen zum Empfangen von Sprachbefehlen, eine Kamera und einen Bildprozessor oder andere Vorrichtungen zum Empfangen von optischen Befehlen, z.B. Gesten, oder jede Vorrichtung oder Kombination von Vorrichtungen, von denen aus Daten in das Datenverarbeitungssystem 1110 eingegeben werden, sein. Was dies betrifft, so ist zwar das periphere System 1120 separat vom Anwenderschnittstellensystem 1130 dargestellt, aber das periphere System 1120 kann als Teil des Anwenderschnittstellensystems 1130 enthalten sein.
  • Das Anwenderschnittstellensystem 1130 kann auch eine Anzeigevorrichtung, einen für einen Prozessor zugänglichen Speicher oder irgendeine Vorrichtung oder Kombination von Vorrichtungen sein, an die Daten vom Datenverarbeitungssystem 1110 ausgegeben werden. Was dies betrifft, so kann ein solcher Speicher Teil des Datenspeichersystems 1140 sein, wenn das Anwenderschnittstellensystem 1130 einen für einen Prozessor zugänglichen Speicher 1140 beinhaltet, auch wenn das Anwenderschnittstellensystem 1130 und das Datenspeichersystem 1140 in 4 separat dargestellt sind.
  • In verschiedenen Ausführungsformen beinhaltet das Datenverarbeitungssystem 1110 eine Kommunikationsschnittstelle 1115, die über eine Netzverbindung 1116 mit dem Netz 1150 verbunden ist. Zum Beispiel kann die Kommunikationsschnittstelle 1115 eine Integrated Services Digital Network (ISDN)-Karte oder ein Modem sein, um eine Datenkommunikationsverbindung mit einer entsprechenden Art von Telefonleitung bereitzustellen. Als weiteres Beispiel kann die Kommunikationsschnittstelle 1115 eine Netzkarte sein, um eine Datenkommunikationsverbindung mit einem kompatiblen Local-Area Network (LAN), z.B. einem Ethernet-LAN oder einem Wide-Area Network (WAN) bereitzustellen. Drahtlose Verbindungen, z.B. WiFi oder GSM, können ebenfalls verwendet werden. Die Kommunikationsschnittstelle 1115 sendet und empfängt elektrische, elektronische oder optische Signale, die digitale Datenströme transportieren, die verschiedene Arten von Informationen über die Netzverbindung 1116 zum Netz 1150 darstellen. Die Netzverbindung 1116 kann über einen Schalter, ein Gateway, einen Hub, einen Router, oder eine andere Netzvorrichtung mit dem Netz 1150 verbunden sein.
  • Die Netzverbindung 1116 kann eine Datenkommunikation über eines oder mehrere Netze mit anderen Datenvorrichtungen bereitstellen. Zum Beispiel kann die Netzverbindung 1116 eine Verbindung durch ein lokales Netz mit einem Host-Computer oder einer Datenausrüstung, die von einem Internet Service Provider (ISP) betrieben wird, bereitstellen.
  • Das Datenverarbeitungssystem 1110 kann durch das Netz 1150, eine Netzverbindung 1116 und eine Kommunikationsschnittstelle 1115 Nachrichten senden und Daten empfangen, einschließlich Programmcode. Zum Beispiel kann ein Server benötigten Code für ein Anwendungsprogramm (z.B. ein JAVA-Applet) auf einem materiellen, nicht flüchtigen computerlesbaren Speichermedium, mit dem er verbunden ist, speichern. Der Server kann den Code vom Medium abrufen und über das Internet, dann einen lokalen ISP, dann ein lokales Netz, dann eine Kommunikationsschnittstelle 1115 senden. De empfangene Code kann dann vom Datenverarbeitungssystem 1110 verarbeitet werden, sobald er empfangen worden ist, oder für eine spätere Ausführung im Datenspeichersystem 1140 gespeichert werden.
  • Angesichts der obigen Ausführungen bilden verschiedenen Ausführungsformen der Erfindung das Prüfmerkmal ab und verarbeiten die Bilder, um zu bestimmen, ob ein visuelles Fernprüfsystem innerhalb akzeptabler Genauigkeitsgrenzen arbeitet. Eine technische Wirkung besteht darin, zu bestimmen, ob ein visuelles Fernprüfsystem verwendet werden sollte oder nicht verwendet werden sollte oder ob es einer Reparatur oder Neukalibrierung bedarf.
  • Die Erfindung schließt Kombinationen der hierin beschriebenen Aspekte oder Ausführungsformen ein. Bezugnahmen auf „einen speziellen Aspekt“ oder eine „Ausführungsform“ und dergleichen bezeichnen Merkmale, die in mindestens einem Aspekt der Erfindung vorhanden sind. Separate Bezugnahmen auf „einen Aspekt“ oder „spezielle Aspekte“ oder „Ausführungsformen“ oder dergleichen beziehen sich nicht unbedingt auf den gleichen Aspekt oder die gleichen Aspekte; jedoch schließen sich diese Aspekte nicht gegenseitig aus, solang dies nicht angegeben ist oder für einen Fachmann eindeutig nahe liegt. Die Verwendung des Singulars oder Plurals, wenn auf Verfahren Bezug genommen wird, ist nicht beschränkend. Das Wort „oder“ wird in dieser Offenbarung in einem nicht-exklusiven Sinn verwendet, wenn nicht ausdrücklich etwas anderes angegeben ist.
  • Die Erfindung wurde ausführlich unter ausdrücklicher Bezugnahme auf bestimmte bevorzugte Aspekte davon beschrieben, aber es sei klargestellt, dass Variationen, Kombinationen und Modifikationen von einem Durchschnittsfachmann vorgenommen werden können, die im Gedanken und Bereich der Erfindung liegen. Beispiele für Variationen, Kombinationen und Modifikationen, die im Bereich der Ansprüche liegen sollen, sind solche, die strukturelle Elemente aufweisen, die sich vom Wortlaut der Ansprüche nicht unterscheiden, und solche gleichwertigen strukturellen Elemente, die sich vom Wortlaut der Ansprüche nur unerheblich unterscheiden.
  • Die Messgenauigkeit eines visuellen Fernprüfsystems (RVI) wird unter Verwendung eines Prüfobjekts getestet, das ein Prüfmerkmal aufweist, welches eine bekannte geometrische Eigenschaft aufweist. Unter Verwendung einer Steuereinheit wird die Anbringung einer abnehmbaren optischen Messspitze an einer RVI-Sonde erfasst. Dann wird ein Anwender aufgefordert, eine Prüfung der Messgenauigkeit durchzuführen. Wenn der Anwender angibt, dass das Prüfmerkmal sichtbar ist, nimmt das System eines oder mehrere Bilder von dem Prüfmerkmal auf, bestimmt Koordinaten des Prüfmerkmals anhand der Bilder und misst eine geometrische Eigenschaft des Prüfmerkmals unter Verwendung der Koordinaten. Ein Genauigkeitsergebnis wird unter Verwendung der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft bestimmt, und an den Anwender wird eine Angabe des Ergebnisses des Vergleichs ausgegeben. Ein RVI-System mit einer Anwenderaufforderungsvorrichtung wird ebenfalls beschrieben.
  • Bezugszeichenliste
  • 2
    Prüfobjekt
    4
    Prüfmerkmal
    10
    Oberfläche
    11
    Oberflächenpunkt
    12
    Oberflächenpunkt
    13, 14
    Mehrzahl
    15
    Oberflächenpunkt
    16
    Oberfläche-zu-Bezugsoberfläche-Linien
    18
    Oberflächenkonturpunkt
    19
    Oberflächenkontur
    20
    Bezugsoberfläche
    21
    Bezugsoberflächenpunkt
    22
    Bezugsoberflächenpunkt
    23
    Linie
    24
    Quellfaserbündel
    25
    Bezugsoberflächenpunkt
    26
    Linie
    27
    Bezugsoberflächenpunkt-Schnittpunkt
    28
    Bezugsoberflächenlinienpunkt
    29
    Bezugsoberflächenlinie
    30
    Mikrocontroller
    31
    Bildgeberschnittstellenelektronik
    32
    Emittertreiber
    33
    Kalibrierungsspeicher
    34
    Verschlussmechanismus
    35
    Treiberleiter
    36
    Kontakt
    37
    Lichtemittermodul
    38
    intensitätmodulierendes Element
    39
    Streifenkontrast-Bestimmungsfunktion
    40
    Einführungsrohr
    41
    Abgrenzungslinie
    42
    distale Spitze
    43
    Lichtleiterelement
    44
    Betrachtungsoptik
    46
    länglicher Abschnitt
    48
    Sondenelektronik
    50
    Videoprozessor
    52
    Videospeicher
    56
    CPU
    58
    Programmspeicher
    60
    nicht-flüchtiger Speicher
    62
    Joystick
    64
    Tastatur
    66
    I/O-Schnittstelle
    80
    LED-Anordnung
    81
    Lichtemitter
    83
    Kette
    90
    Liniengitter
    100
    System
    112
    Bildsensor
    113
    Elektronik
    114
    Signalleitung
    115
    Sondenoptik
    120
    Videomonitor
    121
    integrale Anzeige
    122
    Computermonitor
    123
    Prüflichtquelle
    125
    Sondenfaserbündel
    137
    einzelnes Lichtemittermodul
    137a, 137b
    Lichtemittermodul
    138
    intensitätsmodulierendes Element
    138a, 138b
    intensitätmodulierender Bereich
    140
    Einführungsrohr
    142
    distale Spitze
    144
    Betrachtungsoptik
    150
    optionale Schaltung
    170a, 170b
    Weg
    180
    längliche LED-Anordnung
    190
    Liniengitter
    210
    Seitenbetrachtungsprisma
    242
    abnehmbare Seitenbetrachtungsspitze
    244
    Betrachtungsoptik
    310, 315, 319, 320, 325
    Schritt
    330, 340, 350, 359, 360
    Schritt
    370, 380, 390
    Schritt
    400
    strukturiertes Lichtmuster
    810
    Distanz
    813
    Oberflächenpunkt
    820
    Distanz
    843
    Raum
    900
    Prüfobjekt
    910
    Prüfmerkmal
    915
    Umgebung
    921, 922, 923
    Marke
    931, 923
    Distanz
    941, 942
    Label
    1010
    Prüfblock
    1011
    Zugang
    1012
    Linie
    1020
    Prüfmerkmal
    1077
    Zugang
    1110
    Datenverarbeitungssystem
    1115
    Kommunikationsschnittstelle
    1116
    Netzverbindung
    1120
    peripheres System
    1130
    Anwenderschnittstellensystem
    1140
    Datenspeichersystem
    1141
    Codespeicher
    1142
    Platte
    1150
    Netz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2011/0205552 [0044, 0060, 0097]
    • US 7170677 [0079]
    • US 4980763 [0079]

Claims (10)

  1. Verfahren zum Prüfen der Messgenauigkeit eines visuellen Fernprüfsystems, wobei die Prüfung ein Prüfobjekt verwendet, das ein Prüfmerkmal mit einer bekannten geometrischen Eigenschaft aufweist, wobei das Verfahren die automatische Durchführung der folgenden Schritte unter Verwendung einer Steuereinheit umfasst: Erfassen der Anbringung einer abnehmbaren optischen Messspitze an einer Sonde des visuellen Fernprüfsystems; Auffordern eines Anwenders über eine Anwenderausgabevorrichtung, eine Prüfung der Messgenauigkeit des visuellen Fernprüfsystems vorzunehmen, nachdem die Anbringung der abnehmbaren optischen Messspitze erfasst worden ist; Aufnehmen eines oder mehrerer Bilder des Prüfmerkmals an dem Prüfobjekt; Bestimmen von Koordinaten des Prüfmerkmals unter Verwendung zumindest einiger der aufgenommenen Bilder; Bestimmen einer geometrischen Eigenschaft des Prüfmerkmals unter Verwendung der bestimmten Koordinaten des Prüfmerkmals; Bestimmen eines Genauigkeitsergebnisses unter Verwendung der gemessenen geometrischen Eigenschaften und der bekannten geometrischen Eigenschaften; und Ausgeben eines Hinweises auf das bestimmte Genauigkeitsergebnis.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Bestimmens des Genauigkeitsergebnisses das Berechnen des Genauigkeitsergebnisses als Differenzen zwischen der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft des Prüfmerkmals beinhaltet; und/oder wobei der Schritt des Bestimmens des Genauigkeitsergebnisses beinhaltet: Bestimmen eines Genauigkeitswerts auf Basis eines Unterschieds zwischen der gemessenen geometrischen Eigenschaft und der bekannten geometrischen Eigenschaft des Prüfmerkmals; Vergleichen des Genauigkeitswerts mit einem vorgegebenen annehmbaren Genauigkeitswert; und Ausgeben eines Ergebnisses des Vergleichs als Genauigkeitsergebnis.
  3. Verfahren nach Anspruch 1, wobei der Erfassungsschritt das Anlegen einer Prüfspannung an eine Erfassungsschaltung und das Messen einer Spannung an einem Prüfpunkt in der Erfassungsschaltung beinhaltet, wobei die Erfassungsschaltung so gestaltet ist, dass die Spannung am Prüfpunkt, wenn die abnehmbare optische Messspitze angebracht worden ist, anders ist als wenn die abnehmbare optische Messspitze nicht angebracht ist.
  4. Verfahren nach Anspruch 1, wobei die Sonde einen Bildsensor aufweist und dass die abnehmbare optische Messspitze eine optische Spitze, die strukturiertes Licht misst, eine stereooptische Spitze oder eine schattenoptische Spitze ist.
  5. Verfahren nach Anspruch 4, wobei die abnehmbare optische Messspitze mehrere Leuchtdioden (LEDs) aufweist und dafür ausgelegt ist, ein strukturiertes Lichtmuster auf ein Objekt im Sichtfeld des Bildsensors zu projizieren, wenn die Steuereinheit irgendeine der LEDs aktiviert.
  6. Verfahren nach Anspruch 1, wobei der Aufforderungsschritt beinhaltet: Warten auf einen Prüfungsbeginnhinweis von einer Anwendereingabevorrichtung; und/oder wobei der Aufforderungsschritt beinhaltet: Präsentieren eines bewegten Bildes von einem Bildsensor in der Sonde auf dem Bildschirm; und Präsentieren einer visuellen Darstellung eines Bildes von einem Bildsensor in einer gewünschten Ausrichtung in Bezug auf das Prüfmerkmal.
  7. Verfahren nach Anspruch 6, ferner das Bestimmen einer Identität der angebrachten optischen Messspitze und das Auswählen der visuellen Darstellung unter Verwendung der bestimmten Identität beinhaltend.
  8. Verfahren nach Anspruch 1, wobei die gemessene geometrische Eigenschaft eine Länge, eine Breite, eine Höhe, eine Tiefe, ein Radius oder eine Abweichung von einer flachen Ebene oder einer anderen Bezugsoberfläche des Prüfmerkmals ist, und wobei das Prüfmerkmal eine flache Oberfläche, eine kugelige oder andere erhabene dreidimensionale (3D-)Oberfläche oder eine Nut, eine kreisförmige Eintiefung oder eine andere eingetiefte 3D-Oberfläche beinhaltet.
  9. Verfahren nach Anspruch 1, wobei die bestimmten Koordinaten dreidimensionale (3D-)Koordinaten sind, die bekannte geometrische Eigenschaft 3D-Koordinatenen von mehreren Bezugspunkten beinhaltet, und die gemessene geometrische Eigenschaft ein Distanzmaß zwischen den bestimmen Koordinaten und den Bezugspunkten ist.
  10. Verfahren nach Anspruch 9, wobei das Distanzmaß ein mittleres Quadrat, eine Quadratsumme, ein quadratischer Mittelwert oder ein Durchschnitt jeweiliger Abstände zwischen zumindest einigen von den bestimmten Koordinaten und entsprechenden Bezugspunkten ist.
DE201410106482 2013-05-13 2014-05-08 Automatisierte boroskopische Messung beim Sondenpräzisionstest Withdrawn DE102014106482A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/892,794 2013-05-13
US13/892,794 US9074868B2 (en) 2013-05-13 2013-05-13 Automated borescope measurement tip accuracy test

Publications (1)

Publication Number Publication Date
DE102014106482A1 true DE102014106482A1 (de) 2014-11-13

Family

ID=51787712

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201410106482 Withdrawn DE102014106482A1 (de) 2013-05-13 2014-05-08 Automatisierte boroskopische Messung beim Sondenpräzisionstest

Country Status (4)

Country Link
US (1) US9074868B2 (de)
JP (1) JP2014222224A (de)
CN (1) CN104155081A (de)
DE (1) DE102014106482A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109708851A (zh) * 2018-12-27 2019-05-03 重庆大学 一种胶囊内窥镜动态成像性能检测系统

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
WO2016124677A1 (en) * 2015-02-06 2016-08-11 Imec Vzw Large area lens-free imaging device
EP3314571B1 (de) * 2015-06-29 2020-10-07 General Electric Company Verfahren und system zur detektion bekannter messbarer objektmerkmale
US10073008B2 (en) 2016-01-27 2018-09-11 General Electric Company Electrostatic sensor
US9714967B1 (en) 2016-01-27 2017-07-25 General Electric Company Electrostatic dust and debris sensor for an engine
JP6865046B2 (ja) * 2016-02-08 2021-04-28 ゼネラル・エレクトリック・カンパニイ 視認物体の深度測定において関心点を自動的に識別する方法および装置
US10984237B2 (en) * 2016-11-10 2021-04-20 Neurotrack Technologies, Inc. Method and system for correlating an image capturing device to a human user for analyzing gaze information associated with cognitive performance
TR201700580A2 (tr) * 2017-01-13 2018-07-23 Anadolu Ueniversitesi Artirilmiş gerçekli̇k tabanli bi̇r test düzeneği̇
US10666927B2 (en) * 2017-03-15 2020-05-26 Baker Hughes, A Ge Company, Llc Method and device for inspection of an asset
CA3106823A1 (en) 2018-07-19 2020-01-23 Activ Surgical, Inc. Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
CN109323654B (zh) * 2018-11-14 2023-10-27 张家港康得新光电材料有限公司 一种检测装置及检测方法
EP3952720A4 (de) 2019-04-08 2023-04-05 Activ Surgical, Inc. Systeme und verfahren zur medizinischen bildgebung
US11375886B2 (en) * 2019-06-20 2022-07-05 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for laser mapping imaging
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
CN114599263A (zh) 2019-08-21 2022-06-07 艾科缇弗外科公司 用于医疗成像的系统和方法
CN116929257B (zh) * 2023-07-25 2024-01-26 昆山市建设工程质量检测中心 基于测量型内窥镜的预制叠合剪力墙表面粗糙度采集方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980763A (en) 1989-06-12 1990-12-25 Welch Allyn, Inc. System for measuring objects viewed through a borescope
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
US20110205552A1 (en) 2008-03-05 2011-08-25 General Electric Company Fringe projection system for a probe with intensity modulating element suitable for phase-shift analysis

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4493105A (en) * 1982-03-31 1985-01-08 General Electric Company Method and apparatus for visual image processing
WO2003032129A2 (en) * 2001-10-11 2003-04-17 Laser Projection Technologies Inc. A Delaware Corporation Method and system for visualizing surface errors
EP1600564A1 (de) * 2004-05-24 2005-11-30 Leica Geosystems AG Verfahren zur Steuerung einer oberflächenverändernden Maschine
US8107083B2 (en) * 2008-03-05 2012-01-31 General Electric Company System aspects for a probe system that utilizes structured-light
US7821649B2 (en) * 2008-03-05 2010-10-26 Ge Inspection Technologies, Lp Fringe projection system and method for a probe suitable for phase-shift analysis
US7969583B2 (en) * 2008-03-05 2011-06-28 General Electric Company System and method to determine an object distance from a reference point to a point on the object surface
CN101871767B (zh) * 2009-04-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 零件形位公差检测系统及方法
US8760447B2 (en) * 2010-02-26 2014-06-24 Ge Inspection Technologies, Lp Method of determining the profile of a surface of an object
US8411083B2 (en) * 2011-04-06 2013-04-02 General Electric Company Method and device for displaying an indication of the quality of the three-dimensional data for a surface of a viewed object
US10018467B2 (en) * 2011-06-09 2018-07-10 Clark Alexander Bendall System and method for measuring a distance to an object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4980763A (en) 1989-06-12 1990-12-25 Welch Allyn, Inc. System for measuring objects viewed through a borescope
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
US20110205552A1 (en) 2008-03-05 2011-08-25 General Electric Company Fringe projection system for a probe with intensity modulating element suitable for phase-shift analysis

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109708851A (zh) * 2018-12-27 2019-05-03 重庆大学 一种胶囊内窥镜动态成像性能检测系统
CN109708851B (zh) * 2018-12-27 2021-06-08 重庆大学 一种胶囊内窥镜动态成像性能检测系统

Also Published As

Publication number Publication date
CN104155081A (zh) 2014-11-19
JP2014222224A (ja) 2014-11-27
US20140333778A1 (en) 2014-11-13
US9074868B2 (en) 2015-07-07

Similar Documents

Publication Publication Date Title
DE102014106482A1 (de) Automatisierte boroskopische Messung beim Sondenpräzisionstest
US9412189B2 (en) Method and system for detecting known measurable object features
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
DE112014001459B4 (de) Verfahren zur Ermittlung dreidimensionaler Koordinaten auf einer Oberfläche eines Objekts
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
DE69826753T2 (de) Optischer Profilsensor
DE112014005911T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP3314571B1 (de) Verfahren und system zur detektion bekannter messbarer objektmerkmale
DE102015210028A1 (de) Koordinatenmesseinrichtung
DE112014001483T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
DE102017223342A1 (de) Dreidimensionale messvorrichtung
DE102017102227A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle in einer Tiefenmessung an einem betrachteten Objekt
DE102008064104A1 (de) Vorrichtung und Verfahren zum dreidimensionalen optischen Vermessen von stark reflektierenden oder durchsichtigen Objekten
DE112013001142T5 (de) Verfahren zum Identifizieren abnormaler Spektralprofile, die von einem chromatischen konfokalen Entfernungssensor gemessen werden
DE102017223341A1 (de) Optische abtasthöhenmessvorrichtung
DE102010030928A1 (de) Kontaktfreies Messen einer mittleren Oberflächentemperatur eines Messbereichs
WO2015169345A1 (de) Verfahren und vorrichtung zum kalibrieren einer abbildungsoptik für messtechnische anwendungen
DE102017223344A1 (de) Optische abtasthöhenmessvorrichtung
DE102017223343A1 (de) Optische abtasthöhenmessvorrichtung
DE102019131693A1 (de) Messgerät zur untersuchung einer probe und verfahren zum bestimmen einer höhenkarte einer probe
DE102018105794B4 (de) Abbildung eines Objektes mittels Schattenwurf
EP3809371A1 (de) Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut
DE102017203391A1 (de) Verfahren und Koordinatenmessgerät zur metrologischen Vermessung von Werkstücken mit Hilfe eines Leuchttischs
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE102014215062B4 (de) Kontaktelement verwendendes Kontakt-Abstandsmessgerät

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee