DE102017102228A1 - Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt - Google Patents

Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt Download PDF

Info

Publication number
DE102017102228A1
DE102017102228A1 DE102017102228.7A DE102017102228A DE102017102228A1 DE 102017102228 A1 DE102017102228 A1 DE 102017102228A1 DE 102017102228 A DE102017102228 A DE 102017102228A DE 102017102228 A1 DE102017102228 A1 DE 102017102228A1
Authority
DE
Germany
Prior art keywords
point
contour line
offset
surface contour
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017102228.7A
Other languages
English (en)
Inventor
Clark Alexander Bendall
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baker Hughes Holdings LLC
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/018,587 external-priority patent/US9842430B2/en
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102017102228A1 publication Critical patent/DE102017102228A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle (845) an einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung. Das Verfahren umfasst ein Platzieren eines ersten Cursors (831) auf einem Bild (800) des Objektes (202), um eine erste Schnittebene (881) und eine erste Oberflächenkonturlinie (891) festzulegen, sowie ein Platzieren eines weiteren Cursors (833), zu dem ersten Cursor (831) versetzt, der verwendet wird, um eine versetzte (zweite) Schnittebene (882) und eine versetzte (zweite) Oberflächenkonturlinie (892) festzulegen. Anschließend werden Profilschnittebenen (843) und Profiloberflächenkonturlinien (844) zwischen entsprechenden Punkten (841), (842) auf der ersten Oberflächenkonturlinie (891) und der versetzten (zweiten) Oberflächenkonturlinie (892) bestimmt, um die interessierende Stelle (845) automatisch zu identifizieren.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung ist eine teilweise Fortsetzungsanmeldung und beansprucht Priorität der US-Patentanmeldung mit dem Aktenzeichen 14/512,835, die am 13. Oktober 2014 eingereicht wurde und den Titel METHOD AND DEVICE FOR AUTOMATICALLY IDENTIFYING A POINT OF INTEREST ON THE SURFACE OF AN ANOMALY (VERFAHREN UND VORRICHTUNG ZUR AUTOMATISCHEN IDENTIFIZIERUNG EINER INTERESSIERENDEN STELLE AUF DER OBERFLÄCHE EINER ANOMALIE) trägt, deren Gesamtheit hierin durch Verweis mit aufgenommen ist und die eine teilweise Fortsetzungsanmeldung der US-Patentanmeldung mit dem Aktenzeichen 14/108,976 ist und deren Priorität beansprucht, die am 17. Dezember 2013 eingereicht wurde und den Titel METHOD AND DEVICE FOR AUTOMATICALLY IDENTIFYING THE DEEPEST POINT ON THE SURFACE OF AN ANOMALY (VERFAHREN UND VORRICHTUNG ZUR AUTOMATISCHEN IDENTIFIZIERUNG DER TIEFSTEN STELLE AUF DER OBERFLÄCHE EINER ANOMALIE) trägt, deren Gesamtheit hierin durch Verweis mit aufgenommen ist.
  • HINTERGRUND
  • Der hierin offenbarte Gegenstand betrifft ein Verfahren und eine Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle (z.B. der tiefsten oder höchsten Stelle) an einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung.
  • Videoinspektionsvorrichtungen, beispielsweise Videoendoskope oder Boroskope, können verwendet werden, um eine Oberfläche eines Objekts zu untersuchen, um Anomalien (z.B. Grübchen oder Dellen) auf dem Objekt, die beispielsweise eine Folge von Beschädigung, Abnutzung, Korrosion oder unsachgemäßem Einbau sein können, zu erkennen und zu analysieren. In vielen Fällen ist die Oberfläche des Objekts nicht zugänglich und kann ohne die Verwendung der Videoinspektionsvorrichtung nicht betrachtet werden. Zum Beispiel kann eine Videoinspektionsvorrichtung verwendet werden, um die Oberfläche einer Laufschaufel eines Turbinentriebwerks an einem Flugzeug oder einer Turbine einer Stromerzeugungseinheit zu untersuchen, um etwaige Anomalien zu identifizieren, die sich auf der Oberfläche gebildet haben können, um zu bestimmen, ob irgendeine Reparatur oder eine weitere Wartungsmaßnahme nötig ist. Um diese Bewertung vornehmen zu können, ist es häufig nötig, hochgenaue dimensionale Messwerte von der Oberfläche und der Anomalie zu erhalten, um zu verifizieren, dass die Anomalie einen Betriebsgrenzwert oder eine geforderte Spezifikation für dieses Objekt nicht überschreitet oder außerhalb davon liegt.
  • Eine Videoinspektionsvorrichtung kann verwendet werden, um ein zweidimensionales Bild der Oberfläche eines betrachteten Objekts, welches die Anomalie zeigt, zu erhalten und anzuzeigen, um die Dimensionen einer Anomalie auf der Oberfläche zu bestimmen. Dieses zweidimensionale Bild der Oberfläche kann verwendet werden, um dreidimensionale Daten von der Oberfläche zu erzeugen, welche die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Punkten auf der Oberfläche, einschließlich nahe an einer Anomalie, liefern. In manchen Videoinspektionsvorrichtungen kann der Anwender die Videoinspektionsvorrichtung in einem Messmodus betätigen, um in einen Messbildschirm zu gelangen, in dem der Anwender Positionsanzeiger (Cursor) auf dem zweidimensionalen Bild platziert, um geometrische Abmessungen der Anomalie zu bestimmen. In vielen Fällen lässt sich der Umriss eines betrachteten Merkmals aus dem zweidimensionalen Bild nur schwer bestimmen, wodurch eine hochgenaue Platzierung der Cursor in der Nähe der Anomalie schwierig ist. Wenn beispielsweise versucht wird, die Tiefe einer Anomalie zu messen, kann es schwierig sein, aus dem zweidimensionalen Bild den Ort der tiefste Stelle auf der Oberfläche der Anomalie zu bestimmen und einen Cursor dort zu platzieren.
  • In manchen Videoinspektionsvorrichtungen wird die Tiefe einer Anomalie dadurch bestimmt, dass drei Cursor zeitlich nacheinander um die Anomalie herum platziert werden, um eine Bezugsebene einzurichten, und dann ein vierter Cursor auf einem Punkt nicht auf der Ebene platziert wird, um den senkrechten Abstand zwischen der Bezugsoberfläche und der Oberfläche an dem vierten Punkt zu bestimmen. Diese Tiefenmessung wird am häufigsten verwendet, um zu versuchen, die tiefste Stelle auf der Oberfläche der Anomalie zu messen. Nachdem jeder Cursor unter Verwendung eines Joysticks positioniert worden ist, drückt der Anwender eine Taste bzw. eine Schaltfläche, um anzuzeigen, dass er mit diesem Cursor fertig und bereit für den nächsten ist, wonach ein neuer Cursor zunächst einmal willkürlich in der Mitte des Bildschirms positioniert wird. Daher muss der Anwender für den vierten Cursor einer Tiefenmessung den Cursor aus der Mitte des Bildschirms zu dem Ort der Anomalie bewegen und muss den Cursor dann umherbewegen, um die tiefste Stelle auf der Oberfläche der Anomalie manuell zu finden. Dieser Vorgang kann zeitaufwändig sein und kann nicht immer zum Ergebnis haben, dass die tiefste Stelle identifiziert wird.
  • KURZBESCHREIBUNG
  • Es sind ein Verfahren und eine Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle (z.B. der tiefsten oder der höchsten Stelle) an einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung offenbart. Das Verfahren umfasst ein Platzieren eines ersten Positionsanzeigers (Cursors) auf einem Bild des Objektes, um eine erste Schnittebene und eine erste Oberflächenkonturlinie festzulegen, sowie Platzieren eines weiteren Positionsanzeigers, zu dem ersten Positionsanzeiger versetzt, der verwendet wird, um eine versetzte (zweite) Schnittebene und eine versetzte (zweite) Oberflächenkonturlinie festzulegen. Es werden dann Profilschnittebenen und Profiloberflächenkonturlinien zwischen entsprechenden Punkten auf der ersten Oberflächenkonturlinie und der versetzten (zweiten) Oberflächenkonturlinie bestimmt, um automatisch die interessierende Stelle zu identifizieren. Ein Vorteil, der bei der Ausführung einiger offenbarter Ausführungsformen des Verfahrens und der Vorrichtung zur automatischen Identifizierung der interessierenden Stelle realisiert werden kann, besteht darin, die zur Durchführung der Messung erforderliche Zeit zu reduzieren und die Genauigkeit der Messung zu verbessern, weil der Benutzer die interessierende Stelle (die tiefste oder höchste Stelle) nicht von Hand zu identifizieren braucht.
  • In einem Aspekt ist ein Verfahren zur automatischen Identifizierung einer interessierenden Stelle auf einem betrachteten Objekt offenbart. Das Verfahren weist die Schritte des Anzeigens eines Bildes des betrachteten Objektes auf einem Monitor, des Bestimmens der dreidimensionalen Koordinaten von mehreren Punkten auf einer Oberfläche des betrachteten Objektes unter Verwendung einer zentralen Verarbeitungseinheit, des Auswählens eines ersten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung, des Auswählens eines zweiten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung, des Bestimmens einer Bezugsoberfläche basierend auf mehreren Punkten auf der Oberfläche des betrachteten Objektes, die dem ersten Bezugslinien-Positionierpunkt und dem zweiten Bezugslinien-Positionierpunkt zugeordnet sind, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer ersten Schnittebene, die zu der Bezugsoberfläche senkrecht ausgerichtet ist und einen Punkt auf der Oberfläche des betrachteten Objektes, der dem ersten Bezugslinien-Positionierpunkt zugeordnet ist, und einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem zweiten Bezugslinien-Positionierpunkt zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer ersten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der ersten Schnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit, des Auswählens eines versetzten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung, des Bestimmens einer versetzten Schnittebene, die einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem versetzten Bezugslinien-Positionierpunkt zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer versetzten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der versetzten Schnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens mehrerer Profiloberflächenkonturlinien zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit und des Bestimmens der interessierenden Stelle als die tiefste oder höchste Stelle auf irgendeiner der mehreren Profiloberflächenkonturlinien unter Verwendung der zentralen Verarbeitungseinheit.
  • In dem zuvor erwähnten Verfahren können der erste Bezugslinien-Positionierpunkt und der zweite Bezugslinien-Positionierpunkt Endpunkte der ersten Oberflächenkonturlinie sein.
  • Zusätzlich oder als eine Alternative kann die erste Oberflächenkonturlinie Punkte auf der Oberfläche des betrachteten Objektes, die sich auf der ersten Schnittebene befinden, Punkte, die innerhalb eines vorbestimmten Abstands zu der ersten Schnittebene liegen, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der ersten Schnittebene befinden, oder Punkte enthalten, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden und die Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der ersten Schnittebene befinden.
  • Weiter zusätzlich oder als eine weitere Alternative kann die versetzte Oberflächenkonturlinie Punkte auf der Oberfläche des betrachteten Objektes, die sich auf der versetzten Schnittebene befinden, Punkte, die innerhalb eines vorbestimmten Abstands zu der versetzten Schnittebene liegen, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der versetzten Schnittebene befinden, oder Punkte enthalten, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der versetzten Schnittebene befinden.
  • In einigen Ausführungsformen kann jedes beliebige vorstehend erwähnte Verfahren ferner die Schritte des Bestimmens mehrerer möglicher Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten für die versetzte Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, des Berechnens eines Krümmungsunterschiedswertes zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie zwischen jedem der mehreren möglichen Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten unter Verwendung der zentralen Verarbeitungseinheit und des Auswählens eines der mehreren möglichen Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten basierend auf seinem Krümmungsunterschiedswert als die Endpunkte der versetzten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit aufweisen.
  • In einigen Ausführungsformen eines beliebigen vorstehend erwähnten Verfahrens kann die versetzte Schnittebene zu der ersten Schnittebene parallel verlaufen.
  • In einigen Ausführungsformen eines beliebigen vorstehend erwähnten Verfahrens kann jede der mehreren Profiloberflächenkonturlinien zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie einen ersten Punkt auf oder in der Nähe der ersten Oberflächenkonturlinie und einen zweiten Punkt auf oder in der Nähe der versetzten Oberflächenkonturlinie aufweisen.
  • In jedem beliebigen vorstehend erwähnten Verfahren kann der Schritt des Bestimmens mehrerer Profiloberflächenkonturlinien ferner für jede Profiloberflächenkonturlinie aufweisen: Bestimmen eines ersten Profilschnittebenen-Endpunktes auf der ersten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen eines zweiten Profilschnittebenen-Endpunktes auf der versetzten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Profilschnittbezugsoberfläche basierend auf wenigstens einem Punkt auf der ersten Oberflächenkonturlinie in der Nähe des ersten Profilschnittebenen-Endpunktes und wenigstens eines Punktes auf der zweiten Oberflächenkonturlinie in der Nähe des zweiten Profilschnittebenen-Endpunktes unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Profilschnittebene, die zu der Profilschnittbezugsoberfläche senkrecht ausgerichtet ist und den ersten Profilschnittebenen-Endpunkt und den zweiten Profilschnittebenen-Endpunkt enthält, unter Verwendung der zentralen Verarbeitungseinheit und Bestimmen einer Profiloberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der Profilschnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit.
  • Zusätzlich kann das Verfahren der vorstehend erwähnten Art ferner die Schritte des Bestimmens der Abstände zwischen der Profilschnittbezugsoberfläche und den mehreren Punkten auf der Profiloberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit und des Bestimmens der dreidimensionalen Koordinaten der interessierenden Stelle auf der Oberfläche, die den größten Abstand zu der Profilschnittbezugsoberfläche aufweist, unter Verwendung der zentralen Verarbeitungseinheit.
  • In jedem beliebigen vorstehend erwähnten Verfahren kann die Bezugsoberfläche eine Bezugsebene sein.
  • In einem weiteren Aspekt ist ein Verfahren zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt offenbart. Das Verfahren weist die Schritte des Anzeigens eines Bildes des betrachteten Objektes auf einem Monitor, des Bestimmens der dreidimensionalen Koordinaten von mehreren Punkten auf einer Oberfläche des betrachteten Objektes unter Verwendung einer zentralen Verarbeitungseinheit, des Auswählens eines ersten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung, des Bestimmens einer Bezugsoberfläche basierend auf mehreren Punkten auf der Oberfläche des betrachteten Objektes, die dem ersten Bezugslinien-Positionierpunkt zugeordnet sind, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer ersten Schnittebene, die zu der Bezugsoberfläche senkrecht verläuft und einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem ersten Bezugslinien-Positionierpunkt zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer ersten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der ersten Schnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit, des Auswählens eines versetzten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung, des Bestimmens einer versetzten Schnittebene, die einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem versetzten Bezugslinien-Positionierpunkt zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens einer versetzten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der versetzten Schnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit, des Bestimmens mehrerer Profiloberflächenkonturlinien zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, und des Bestimmens der interessierenden Stelle als die tiefste oder höchste Stelle auf irgendeiner der mehreren Profiloberflächenkonturlinien unter Verwendung der zentralen Verarbeitungseinheit auf.
  • In dem zuvor erwähnten Verfahren gemäß dem zweiten Aspekt kann die erste Oberflächenkonturlinie Punkte auf der Oberfläche des betrachteten Objektes, die sich auf der ersten Schnittebene befinden, Punkte, die innerhalb eines vorbestimmten Abstands zu der ersten Schnittebene liegen, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der ersten Schnittebene befinden, oder Punkte enthalten, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der ersten Schnittebene befinden.
  • Zusätzlich oder als eine Alternative kann die versetzte Oberflächenkonturlinie Punkte auf der Oberfläche des betrachteten Objektes, die sich auf der versetzten Schnittebene befinden, Punkte, die innerhalb eines vorbestimmten Abstandes zu der versetzten Schnittebene liegen, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der versetzten Schnittebene befinden, oder Punkte enthalten, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der versetzten Schnittebene befinden.
  • In einigen Ausführungsformen kann jedes beliebige vorstehend erwähnte Verfahren gemäß dem zweiten Aspekt ferner die Schritte des Bestimmens mehrere möglicher Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten für die versetzte Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, des Berechnens eines Krümmungsunterschiedswertes zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie zwischen jedem der mehreren möglichen Paaren vo ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten unter Verwendung der zentralen Verarbeitungseinheit und des Auswählens eines der mehreren möglichen Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten basierend auf seinem Krümmungsunterschiedswert als die Endpunkte der versetzen Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit aufweisen.
  • In einigen Ausführungsformen eines beliebigen vorstehend erwähnten Verfahrens gemäß dem zweiten Aspekt kann die versetzte Schnittebene zu der ersten Schnittebene parallel verlaufen.
  • In einigen Ausführungsformen eines beliebigen vorstehend erwähnten Verfahrens gemäß dem zweiten Aspekt kann jede der mehreren Profiloberflächenkonturlinien zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie einen ersten Punkt auf oder in der Nähe der ersten Oberflächenkonturlinie und einen zweiten Punkt auf oder in der Nähe der versetzten Oberflächenkonturlinie aufweisen.
  • In jedem beliebigen vorstehend erwähnten Verfahren gemäß dem zweiten Aspekt kann der Schritt des Bestimmens mehrerer Profiloberflächenkonturlinien ferner für jede Profiloberflächenkonturlinie aufweisen: Bestimmen eines ersten Profilschnittebenen-Endpunktes auf der ersten Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen eines zweiten Profilschnittebenen-Endpunktes auf der versetzen Oberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Profilschnittbezugsoberfläche basierend auf wenigstens einem Punkt auf der ersten Oberflächenkonturlinie in der Nähe des ersten Profilschnittebenen-Endpunktes und wenigstens eines Punktes auf der zweiten Oberflächenkonturlinie in der Nähe des zweiten Profilschnittebenen-Endpunktes unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Profilschnittebene, die senkrecht zu der Profilschnittbezugsoberfläche ausgerichtet ist und den ersten Profilschnittebenen-Endpunkt und den zweiten Profilschnittebenen-Endpunkt enthält, unter Verwendung der zentralen Verarbeitungseinheit und Bestimmen einer Profiloberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der Profilschnittebene enthält, unter Verwendung der zentralen Verarbeitungseinheit.
  • Zusätzlich kann das Verfahren der zuvor erwähnten Art ferner die Schritte des Bestimmens der Abstände zwischen der Profilschnittbezugsoberfläche und den mehreren Punkten auf der Profiloberflächenkonturlinie unter Verwendung der zentralen Verarbeitungseinheit und des Bestimmens der dreidimensionalen Koordinaten der interessierenden Stelle auf der Oberfläche, die den größten Abstand zu der Profilschnittbezugsoberfläche aufweist, unter Verwendung der zentralen Verarbeitungseinheit aufweisen.
  • In jedem beliebigen vorstehend erwähnten Verfahren gemäß dem zweiten Aspekt kann die Bezugsoberfläche eine Bezugsebene sein.
  • In einer noch weiteren Ausführungsform ist eine Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt offenbart. Die Vorrichtung weist einen Monitor zur Anzeige eines Bildes der Objektoberfläche, eine Zeigevorrichtung zur Auswahl eines ersten Bezugslinien-Positionierpunktes unter Verwendung einer Zeigevorrichtung und zur Auswahl eines versetzten Bezugslinien-Positionierpunktes und eine zentrale Verarbeitungseinheit zur Bestimmung der dreidimensionalen Koordinaten mehrerer Punkte auf einer Oberfläche des betrachteten Objektes, Bestimmung einer Bezugsoberfläche basierend auf mehreren Punkten auf der Oberfläche des betrachteten Objektes, die dem ersten Bezugslinien-Positionierpunkt und dem zweiten Bezugslinien-Positionierpunkt zugeordnet sind, Bestimmung einer ersten Schnittebene, die zu der Bezugsoberfläche senkrecht ausgerichtet ist und einen Punkt auf der Oberfläche des betrachteten Objektes, der dem ersten Bezugslinien-Positionierpunkt zugeordnet ist, und einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem zweiten Bezugslinien-Positionierpunkt zugeordnet ist, Bestimmung einer ersten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der ersten Schnittebene enthält, Bestimmung einer versetzten Schnittebene, die einen Punkt auf der Oberfläche des betrachteten Objektes enthält, der dem versetzten Bezugslinien-Positionierpunkt zugeordnet ist, Bestimmung einer versetzten Oberflächenkonturlinie, die mehrere Punkte auf der Oberfläche des betrachteten Objektes in der Nähe der versetzten Schnittebene enthält, Bestimmung mehrerer Profiloberflächenkonturlinien zwischen der ersten Oberflächenkonturlinie und der versetzten Oberflächenkonturlinie und Bestimmung der interessierenden Stelle als die tiefste oder höchste Stelle auf irgendeiner der mehreren Profiloberflächenkonturlinien auf.
  • Die vorstehenden Ausführungsformen sind lediglich beispielhaft. Andere Ausführungsformen liegen innerhalb des Umfangs des offenbarten Gegenstands.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Damit die Merkmale der Erfindung verständlich werden, kann eine detaillierte Beschreibung der Erfindung auf bestimmte Ausführungsformen Bezug nehmen, von denen einige in den beigefügten Zeichnungen veranschaulicht sind. Man beachte jedoch, dass die Zeichnungen nur bestimmten Ausführungsformen dieser Erfindung darstellen und daher nicht als Beschränkung ihres Umfangs aufzufassen sind, da der Umfang des Offenbarungsgegenstands auch andere Ausführungsformen umfasst. Die Zeichnungen sind nicht unbedingt maßstabsgetreu, wobei der Schwerpunkt allgemein auf der Verdeutlichung der Merkmale bestimmter Ausführungsformen der Erfindung liegt. In den Zeichnungen werden gleiche Bezugszahlen verwendet, um gleiche Teile in den verschiedenen Ansichten zu bezeichnen.
  • 1 zeigt ein Blockdiagramm einer beispielhaften Videoinspektionsvorrichtung;
  • 2 zeigt ein Beispiel für ein Bild, das durch die Videoinspektionsvorrichtung von der Objektoberfläche eines eine Anomalie aufweisenden betrachteten Objekts erhalten worden ist, in einer beispielhaften Ausführungsform der Erfindung;
  • 3 zeigt ein Flussdiagramm eines beispielhaften Verfahrens zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie an einem betrachteten Objekt, das in dem Bild von 2 gezeigt ist, in einer beispielhaften Ausführungsform der Erfindung;
  • 4 veranschaulicht ein Beispiel für eine Bezugsoberfläche, die von der Videoinspektionsvorrichtung bestimmt worden ist;
  • 5 veranschaulicht ein Beispiel für einen interessierenden Bereich, der von der Videoinspektionsvorrichtung bestimmt worden ist;
  • 6 veranschaulicht ein anderes Beispiel für einen interessierenden Bereich zeigt, der von der Videoinspektionsvorrichtung bestimmt worden ist;
  • 7 zeigt eine grafische Darstellung eines Beispiels für ein Profil der Objektoberfläche des betrachteten Objekts, das in dem Bild von 1 gezeigt ist, in einer beispielhaften Ausführungsform der Erfindung;
  • 8 zeigt ein weiteres beispielhaftes Bild, das durch die Videoinspektionsvorrichtung von der Objektoberfläche eines betrachteten Objektes, das eine Anomalie aufweist, in einer weiteren beispielhaften Ausführungsform der Erfindung gewonnen worden ist;
  • 9 veranschaulicht die Bestimmung einer beispielhaften Profiloberflächenkonturlinie auf der Objektoberfläche zwischen der ersten Bezugslinie und der zweiten Bezugslinie, die die interessierende Stelle auf der Oberfläche der Anomalie enthält;
  • 10 zeigt eine grafische Darstellung eines weiteren beispielhaften Profils der Objektoberfläche des betrachteten Objektes, das in dem Bild nach 8 veranschaulicht ist, in einer beispielhaften Ausführungsform der Erfindung;
  • 11 zeigt ein Flussdiagramm eines weiteren beispielhaften Verfahrens zur automatischen Identifizierung einer interessierenden Stelle auf einer Oberfläche einer Anomalie auf einer Objektoberfläche eines betrachteten Objektes, das in dem Bild nach 8 veranschaulicht ist, in einer beispielhaften Ausführungsform der Erfindung;
  • 12 zeigt ein noch weiteres beispielhaftes Bild, das durch die Videoinspektionsvorrichtung von der Objektoberfläche eines betrachteten Objektes, das eine Anomalie aufweist, gewonnen wurde, in einer beispielhaften Ausführungsform der Erfindung; und
  • 13 zeigt ein noch weiteres beispielhaftes Bild, das durch die Videoinspektionsvorrichtung von der Innenseite eines Rohrs in einer beispielhaften Ausführungsform der Erfindung erhalten wurde.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Ausführungsformen des Offenbarungsgegenstandes stellen Techniken zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung bereit. In einer Ausführungsform umfasst das Verfahren ein Platzieren eines ersten Positionsanzeigers (Cursors) auf einem Bild des Objektes, um eine erste Schnittebene und eine erste Oberflächenkonturlinie festzulegen, sowie Platzieren eines weiteren Positionsanzeigers (Cursors), zu dem ersten Positionsanzeiger versetzt, der verwendet wird, um eine versetzte (zweite) Schnittebene und eine versetzte (zweite) Oberflächenkonturlinie festzulegen. Es werden dann Profilschnittebenen und Profiloberflächenkonturlinien zwischen entsprechenden Punkten auf der ersten Oberflächenkonturlinie und der versetzten (zweiten) Oberflächenkonturlinie bestimmt, um die interessierende Stelle automatisch zu identifizieren. Weitere Ausführungsformen liegen in dem Umfang des offenbarten Gegenstands.
  • 1 zeigt ein Blockdiagramm einer als Beispiel dienenden Videoinspektionsvorrichtung 100. Es wird verstanden, dass die in 1 gezeigte Videoinspektionsvorrichtung 100 ein Beispiel ist und dass der Umfang der Erfindung nicht auf irgendeine bestimmte Videoinspektionsvorrichtung 100 oder irgendeine bestimmte Gestaltung von Komponenten innerhalb einer Videoinspektionsvorrichtung 100 beschränkt ist.
  • Die Videoinspektionsvorrichtung 100 kann eine längliche Sonde 102 aufweisen, die ein Einführungsrohr 110 und eine Kopfbaugruppe 120, die an dem distalen Ende des Einführungsrohrs 110 angeordnet ist, umfasst. Das Einführungsrohr 110 kann ein flexibler, rohrförmiger Abschnitt sein, durch den sämtliche Verbindungen zwischen der Kopfbaugruppe 120 und einer Sondenelektronik 140 verlaufen. Die Kopfbaugruppe 120 kann eine Sondenoptik 122 aufweisen, um Licht von dem betrachteten Objekt 202 auf einen Bildgeber 124 zu lenken und zu fokussieren. Die Sondenoptik 122 kann z.B. eine Einzellinse oder eine Linse mit mehreren Komponenten umfassen. Der Bildgeber 124 kann ein Festkörper-CCD- oder CMOS-Bildsensor sein, mit dem ein Bild von dem betrachteten Objekt 202 erhalten wird.
  • Eine abnehmbare Spitze oder ein Adapter 130 kann an dem distalen Ende der Kopfbaugruppe 120 angeordnet sein. Die abnehmbare Spitze 130 kann eine Spitzenbetrachtungsoptik 132 (z.B. Linsen, Fenster oder Öffnungen) aufweisen, die in Verbindung mit der Sondenoptik 122 zusammenwirkt, um Licht von dem betrachteten Objekt 202 auf einen Bildgeber 124 zu lenken und zu fokussieren. Die abnehmbare Spitze 130 kann auch Beleuchtungs-LEDs (nicht dargestellt) aufweisen, wenn die Lichtquelle für die Videoinspektionsvorrichtung 100 von der Spitze 130 ausgeht, oder sie kann ein lichtdurchlässiges Element (nicht dargestellt) aufweisen, das Licht von der Sonde 102 zu dem betrachteten Objekt 202 durchlässt. Die Spitze 130 kann auch die Fähigkeit zur seitlichen Betrachtung verleihen, wenn ein Wellenleiter (z.B. ein Prisma) aufgenommen wird, um den Kamerablick und die Lichtausgabe zur Seite zu drehen. Die Spitze 130 kann auch eine stereoskopische Optik oder strukturiertes Licht projizierende Elemente aufweisen, die verwendet werden, um dreidimensionale Daten der betrachteten Oberfläche zu bestimmen. Die Elemente, die in der Spitze 130 enthalten sein können, können auch in der Sonde 102 selbst enthalten sein.
  • Der Bildgeber 134 kann mehrere Pixel aufweisen, die in mehreren Zeilen und Spalten ausgebildet sind, und kann Signale in Form von analogen Spannungen erzeugen, die Licht repräsentieren, das auf die einzelnen Pixel des Bildgebers 124 trifft. Die Bildsignale können durch eine Bildgebungshybrideinrichtung 126, die eine Elektronik für die Signalpufferung und -konditionierung bereitstellt, zu einem Kabelbaum 112 des Bildgebers übertragen werden, der Drähte für Steuer- und Videosignale zwischen der Hybrideinrichtung 126 und der Bildgeberschnittstellenelektronik 142 bereitstellt. Die Bildgeberschnittstellenelektronik 142 kann Leistungsversorgungen, einen Taktgenerator zur Erzeugung von Bildsensor-Taktsignalen, ein Analog-Frontend zum Digitalisieren des Videoausgangssignals des Bildgebers und einen Digitalsignalprozessor zum Verarbeiten der digitalisierten Bildgeber-Videodaten in ein besser geeignetes Format enthalten.
  • Die Bildgeberschnittstellenelektronik 142 ist Teil der Sondenelektronik 140, die eine Reihe von Funktionen zum Betreiben der Videoinspektionsvorrichtung 10 bereitstellt. Die Sondenelektronik 140 kann außerdem einen Kalibrierungsspeicher 144 aufweisen, der die Kalibrierungsdaten für die Sonde 102 und/oder die Spitze 130 speichert. Ein Mikrocontroller 146 kann ebenfalls in der Sondenelektronik 140 enthalten sein, um mit der Bildgeberschnittstellenelektronik 142 zu kommunizieren, um Verstärkungs- und Belichtungseinstellungen zu bestimmen und einzustellen, Kalibrierungsdaten zu speichern und aus dem Kalibrierungsspeicher 144 auszulesen, das Licht, das zu dem betrachteten Objekt 202 geliefert wird, zu steuern bzw. zu regeln und mit einer zentralen Verarbeitungseinheit (CPU) 150 der Videoinspektionsvorrichtung 100 zu kommunizieren.
  • Zusätzlich zur Kommunikation mit dem Mikrocontroller 146 kann die Bildgeberschnittstellenelektronik 142 auch mit einem oder mehreren Videoprozessoren 160 kommunizieren. Der Videoprozessor 160 kann ein Videosignal von der Bildgeberschnittstellenelektronik 142 empfangen und Ausgangssignale an verschiedene Monitore 170, 172, einschließlich einer integrierten Anzeige 170 oder eines externen Monitors 172, ausgeben. Die integrierte Anzeige 170 kann ein LCD-Bildschirm sein, der in die Videoinspektionsvorrichtung 100 eingebaut ist, um einem Prüfer verschiedene Bilder oder Daten (z.B. das Bild des betrachteten Objekts 202, Menüs, Positionsanzeiger, Messergebnisse) anzuzeigen. Der externe Monitor 172 kann ein Videomonitor oder ein Computermonitor sein, der mit der Videoinspektionsvorrichtung 100 verbunden ist, um verschiedene Bilder oder Daten anzuzeigen.
  • Der Videoprozessor 160 kann Befehle, Zustandsinformationen, Videostreams, Videostandbilder und grafische Overlays an die CPU 150 auszugeben bzw. von dieser zu empfangen und kann aus FPGAs, DSPs oder anderen Verarbeitungselementen bestehen, die Funktionen wie Bildaufnahme, Bildverstärkung, Zusammenführen von grafischen Overlays, Korrektur von Verzerrungen, Bildmittelung, Skalierung, digitales Zoomen, Überlagern, Zusammenführen, Kippen, Bewegungserfassung und Videoformatumwandlung und -kompression bereitstellen.
  • Die CPU 150 kann verwendet werden, um die Anwenderschnittstelle durch den Empfang von Eingaben über einen Joystick 180, Schalter bzw. Tasten 182, eine Tastatur 184 und/oder ein Mikrofon 186 zu bewältigen, zusätzlich dazu, dass sie eine große Anzahl anderer Funktionen, einschließlich Bild-, Video- und Audiospeicherungs- und -abruffunktionen, Systemsteuerung und Messwertverarbeitung, bereitstellt. Der Joystick 180 kann vom Anwender manipuliert werden, um Operationen wie Menüauswahl, Cursorbewegung, Schieberjustierung und Bewegungssteuerung der Sonde 102 durchzuführen, und kann eine Drucktastenfunktion enthalten. Die Schalter bzw. Tasten 182 und/oder die Tastatur 184 können auch für die Menüauswahl und für die Ausgabe von Anwenderbefehlen (z.B. Einfrieren oder Speichern eines Standbildes) an die CPU 150 verwendet werden. Das Mikrofon 186 kann von dem Prüfer verwendet werden, um Sprachbefehle zum Einfrieren oder Speichern eines Standbildes auszugeben.
  • Der Videoprozessor 160 kann auch mit einem Videospeicher 162 kommunizieren, der von dem Videoprozessor 160 zum Frame-Puffern und zum Zwischenspeichern von Daten während der Verarbeitung verwendet wird. Die CPU 150 kann auch mit einem CPU-Programmspeicher 152 kommunizieren, der Programme speichert, die von der CPU 150 ausgeführt werden. Außerdem kann die CPU 150 mit einem flüchtigen Speicher 154 (z.B. einem RAM) und mit einem nicht-flüchtigen Speicher 156 (z.B. einer Flash-Speichervorrichtung, einem Festplattenlaufwerk, einer DVD oder einer EPROM-Speichervorrichtung) kommunizieren. Der nicht-flüchtige Speicher 156 ist der primäre Speicher für Videostreams und Standbilder.
  • Die CPU 150 kann auch mit einer Computer-I/O-Schnittstelle 158 kommunizieren, die verschiedene Schnittstellen für periphere Vorrichtungen und Netze bereitstellt, wie USB, Firewire, Ethernet, Audio-I/O und drahtlose Transceiver. Diese Computer-I/O-Schnittstelle 158 kann verwendet werden, um Standbilder, Videostreams oder Audio zu speichern, abzurufen, zu übertragen und/oder zu empfangen. Zum Beispiel kann ein USB-Stick bzw. "Thumb Drive" oder eine CompactFlash-Speicherkarte in die Computer-I/O-Schnittstelle 158 gesteckt werden. Außerdem kann die Videoinspektionsvorrichtung 100 so eingerichtet sein, dass sie Frames von Bilddaten oder Videostream-Daten an einen externen Computer oder Server senden kann. Die Videoinspektionsvorrichtung 100 kann eine TCP/IP-Kommunikationsprotokollsuite enthalten und kann in einem Weitverkehrsnetz enthalten sein, das mehrere lokale und ferne bzw. Remote-Computer enthält, wobei jeder von diesen Computern ebenfalls eine TCP/IP-Kommunikationsprotokoll-Suite enthält. Dadurch, dass sie die TCP/IP-Kommunikationsprotokoll-Suite enthält, weist die Videoinspektionsvorrichtung 100 mehrere Transportschichtprotokolle, einschließlich TCP und UDP, und mehrere andere Schichtprotokolle auf, einschließlich HTTP und FTP.
  • Es wird verstanden, dass in 1 bestimmte Komponenten als eine einzige Komponente dargestellt sind (z.B. die CPU 150), dass aber auch mehrere separate Komponenten verwendet werden können, um die Funktionen der Komponente auszuführen.
  • 2 ist ein Beispiel für ein Bild 200, das durch die Videoinspektionsvorrichtung 100 von der Objektoberfläche 210 eines eine Anomalie 204 aufweisenden betrachteten Objekts erhalten wird, in einem Ausführungsbeispiel der Erfindung. In diesem Beispiel ist die Anomalie 204 als eine Kerbe dort dargestellt, wo in der Anomalie 204 Material von der Objektoberfläche 210 des betrachteten Objekts 202 durch Beschädigung oder Abnutzung entfernt worden ist. Es wird verstanden, dass die in diesem Ausführungsbeispiel dargestellte Anomalie 204 nur ein Beispiel ist und dass das Verfahren gemäß der Erfindung auf andere Arten von Unregelmäßigkeiten (z.B. Risse, Korrosionsgruben, Verlust einer Beschichtung, oberflächliche Anlagerungen usw.) angewendet werden kann. Sobald das Bild 200 erhalten worden ist und die Anomalie 204 erkannt worden ist, kann das Bild 200 verwendet werden, um die Abmessungen der Anomalie 204 (z.B. die Höhe oder die Tiefe, die Länge, die Breite, die Fläche, das Volumen, Punkt-zu-Linie, einen Profilschnitt usw.) zu bestimmen. In einer Ausführungsform kann das verwendete Bild 200 ein zweidimensionales Bild 200 der Objektoberfläche 210 des betrachteten Objekts 202 einschließlich der Anomalie 204 sein.
  • 3 ist ein Flussdiagramm eines Beispiels für ein Verfahren 300 zur automatischen Identifizierung der tiefsten Stelle auf der Objektoberfläche 210 einer Anomalie 204 an einem betrachteten Objekt 202, das in dem Bild 200 von 2 gezeigt ist, in einem Ausführungsbeispiel der Erfindung. Es wird verstanden, dass die in dem Flussdiagramm von 3 beschriebenen Schritte in einer anderen Reihenfolge ausgeführt werden können, als in dem Flussdiagramm dargestellt, und dass für manche Ausführungsformen nicht all die Schritte notwendig sind.
  • Im Schritt 310 des beispielhaften Verfahrens 300 (3), und wie in 2 dargestellt, kann der Anwender die Videoinspektionsvorrichtung 100 (z.B. den Bildgeber 124) verwenden, um mindestens ein Bild 200 von der Objektoberfläche 210 eines betrachteten Objekts 202, das eine Anomalie 204 aufweist, zu erhalten und dieses auf einem Videomonitor (z.B. einer integrierten Anzeige 170 oder einem externen Monitor 172) anzuzeigen.
  • Im Schritt 320 des beispielhaften Verfahrens 300 (3) kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Oberflächenpunkten auf der Objektoberfläche 210 des betrachteten Objekts 202, einschließlich von Oberflächenpunkten der Anomalie 204, bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung dreidimensionale Daten von dem Bild 200 erzeugen, um die dreidimensionalen Koordinaten zu bestimmen. Es können mehrere existierende Techniken verwendet werden, um die dreidimensionalen Koordinaten der Oberflächenpunkte in dem Bild 200 (2) der Objektoberfläche 210 zu liefern (z.B. Stereoskopie, Abtastsysteme, stereoskopische Triangulation, Strukturlichtverfahren, wie Phasenverschiebungsanalyse, Phasenverschiebungs-Moiré, Laserpunktprojektion usw.).
  • Die meisten solchen Techniken verwenden Kalibrierungsdaten, die unter anderem Daten über optische Eigenschaften enthalten, die verwendet werden, um Fehler in den dreidimensionalen Koordinaten zu verringern, die andernfalls durch optische Verzerrungen hervorgerufen werden würden. Mit einigen Techniken können die dreidimensionalen Koordinaten unter Verwendung eines oder mehrerer Bilder, die in großer Zeitnähe aufgenommen wurden und die projizierten Muster und dergleichen enthalten können, bestimmt werden. Es wird verstanden, dass Bezugnahmen auf dreidimensionale Koordinaten, die unter Verwendung des Bildes 200 bestimmt werden, auch dreidimensionale Koordinaten umfassen können, die unter Verwendung eines oder mehrerer in nahem zeitlichem Abstand aufgenommener Bilder 200 der Objektoberfläche 210 bestimmt werden, und dass das Bild 200, das dem Anwender während der beschriebenen Operationen angezeigt wird, bei der Bestimmung der dreidimensionalen Koordinaten tatsächlich verwendet worden sein kann, aber nicht muss.
  • Im Schritt 330 des beispielhaften Verfahrens 300 (3), und wie in 4 dargestellt, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberfläche 250 bestimmen. In manchen Ausführungsformen kann die Bezugsoberfläche 250 flach sein, während die Bezugsoberfläche 250 in anderen Ausführungsformen gekrümmt sein kann. Ebenso kann in einer Ausführungsform die Bezugsoberfläche 250 die Form einer Ebene aufweisen, während die Bezugsoberfläche 250 in anderen Ausführungsformen in einer anderen Form (z.B. als Zylinder, Kugel usw.) ausgebildet sein kann. Zum Beispiel kann ein Anwender den Joystick 180 (oder eine andere Zeigevorrichtung (z.B. eine Maus, einen berührungsempfindlichen Bildschirm) der Videoinspektionsvorrichtung 100 verwenden, um einen oder mehrere Bezugsoberflächenpunkte auf der Objektoberfläche 210 des betrachteten Objekts 202 in der Nähe der Anomalie 204 auszuwählen, um eine Bezugsoberfläche zu bestimmen.
  • In einer Ausführungsform, und wie in 4 dargestellt, werden insgesamt drei Bezugsoberflächenpunkte 221, 222, 223 auf der Objektoberfläche 210 des betrachteten Objekts 202 in der Nähe der Anomalie 204 ausgewählt, um eine Tiefenmessung der Anomalie 204 durchzuführen, wobei die drei Bezugsoberflächenpunkte 221, 222, 223 auf der Objektoberfläche 210 in der Nähe der Anomalie 204 ausgewählt werden. In einer Ausführungsform können die mehreren Bezugsoberflächenpunkte 221, 222, 223 auf der Objektoberfläche 210 des betrachteten Objekts 202 dadurch ausgewählt werden, dass Bezugsoberflächen-Positionsanzeiger 231, 232, 233 (oder andere Zeigevorrichtungen) auf Pixeln 241, 242, 243 des Bildes 200 platziert werden, die den mehreren Bezugsoberflächenpunkten 221, 222, 223 auf der Objektoberfläche 210 entsprechen. In der beispielhaften Tiefenmessung kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten von jedem von den mehreren Bezugsoberflächenpunkten 221, 222, 223 bestimmen.
  • Die dreidimensionalen Koordinaten von drei oder mehreren Oberflächenpunkten in der Nähe von einem oder mehreren von den drei Bezugsoberflächenpunkten 221, 222, 223, die auf der Objektoberfläche 210 in der Nähe der Anomalie 204 ausgewählt worden sind, können verwendet werden, um eine Bezugsoberfläche 250 (z.B. eine Ebene) zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Kurvenanpassung der dreidimensionalen Koordinaten der drei Bezugsoberflächenpunkte 221, 222, 223 durchführen, um eine Gleichung für die Bezugsoberfläche 250 (z.B. für eine Ebene) zu bestimmen, welche die folgende Form aufweist: k0RS + k1RS1·xiRS + k2RS·yiRS1 = ziRS (1) worin (xiRS, yiRS, ziRS) Koordinaten von irgendwelchen drei Dimensionspunkten auf der definierten Bezugsoberfläche 250 sind und k0RS, k1RS und k2RS Koeffizienten sind, die durch eine Kurvenanpassung der dreidimensionalen Koordinaten erhalten werden.
  • Es sollte beachtet werden, dass mehrere Bezugsoberflächenpunkte (d.h. mindestens so viele Punkte wie die Anzahl der k Koeffizienten) verwendet werden, um die Kurvenanpassung durchzuführen. Die Kurvenanpassung findet die k Koeffizienten, die den besten Fit (die beste Passung) für die verwendeten Punkte ergeben (z.B. die Methode der kleinsten Quadrate). Die k Koeffizienten definieren dann die Ebene oder andere Bezugsoberfläche 250, welche die verwendeten dreidimensionalen Punkte approximiert. Werden in der Kurvenanpassung jedoch mehr Punkte verwendet, als k Koeffizienten vorhanden sind, so stimmen allerdings, wenn man die x- und y-Koordinaten der verwendeten Punkte in die Ebenengleichung (1) einsetzt, die z-Ergebnisse wegen des Rauschens und etwaiger Abweichungen von einer Ebene, die tatsächlich existieren können, im Allgemeinen nicht exakt mit den z-Koordinaten der Punkte überein. Somit können xiRS1 und yiRS1 arbiträre Werte sein, und der resultierende ziRS verrät einem, was z in der definierten Ebene bei xiRS, yiRS ist. Somit können die Koordinaten, die in diesen Gleichungen dargestellt sind, für arbiträre Punkte gelten, die exakt auf der definierten Oberfläche liegen, aber nicht notwendigerweise für die Punkte, die bei der Anpassung verwendet werden, um die k Koeffizienten zu bestimmen.
  • In anderen Ausführungsformen wird nur einer oder werden nur zwei Bezugsoberflächenpunkte ausgewählt, wodurch die Verwendung der Kurvenanpassung lediglich auf Basis von dreidimensionalen Koordinaten für diese Bezugsoberflächenpunkte nicht in Frage kommt, da drei Punkte benötigt werden, um k0RS, k1RS und k2RS zu bestimmen. In diesem Fall kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) mehrere Pixel in der Nähe der einzelnen Pixel des Bildes identifizieren, die mehreren Punkten auf der Objektoberfläche 210 in der Nähe des bzw. der Bezugsoberflächenpunkte(s) entsprechen, und die dreidimensionalen Koordinaten des nahen Punkts bzw. der nahen Punkte bestimmen, wodurch eine Kurvenanpassung zur Bestimmung einer Bezugsoberfläche 250 ermöglicht wird.
  • Obwohl das Beispiel für eine Bezugsoberfläche 250 auf Basis von Bezugsoberflächenpunkten 221, 222, 223 beschrieben wurde, die durch Bezugsoberflächen-Positionsanzeiger 231, 232, 233 ausgewählt werden, kann die Bezugsoberfläche 250 in anderen Ausführungsformen unter Verwendung einer Zeigevorrichtung gebildet werden, mit der eine Bezugsoberflächenform (z.B. ein Kreis, ein Quadrat, ein Rechteck, ein Dreieck usw.) in die Nähe der Anomalie platziert wird und die Bezugsoberflächenpunkte 261, 262, 263, 264 der Form 260 verwendet werden, um die Bezugsoberfläche 250 zu bestimmen. Es wird verstanden, dass die Bezugsoberflächenpunkte 261, 262, 263, 264 der Form 260 Punkte, die durch die Zeigevorrichtung ausgewählt werden, oder andere Punkte sein können, die auf oder in der Nähe der Umfangslinie der Form liegen, die so bemessen sein kann, dass sie die Anomalie 204 umschließt.
  • Im Schritt 340 des beispielhaften Verfahrens 300 (3), und wie in 5 dargestellt, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) einen interessierenden Bereich 270 in der Nähe der Anomalie 204 auf Basis der Bezugsoberflächenpunkte der Bezugsoberfläche 250. Der interessierende Bereich 270 enthält mehrere Oberflächenpunkte der Anomalie 204. In einer Ausführungsform wird ein interessierender Bereich 270 durch Ausbilden einer Form des interessierenden Bereiches 271 (z.B. eines Kreises) auf Basis von zwei oder mehreren von den Bezugsoberflächenpunkten 221, 222, 223 gebildet. In einer anderen Ausführungsform kann der interessierende Bereich 270 dadurch gebildet werden, dass man einen Zylinder senkrecht zu der Bezugsoberfläche 260 ausbildet und ihn durch oder in die Nähe von zwei oder mehreren von den Bezugsoberflächenpunkten 221, 222, 223 führt. Indem erneut auf 4 Bezug genommen wird, könnte ein interessierender Bereich innerhalb der Bezugsoberflächenform 260 und der Bezugsoberflächenpunkte 261, 262, 263, 264 gebildet werden.
  • Obwohl das Beispiel für die Form 271 des interessierenden Bereiches in 5 so gebildet ist, dass sie durch die Bezugsoberflächenpunkte 221, 222, 223 verläuft, kann in einer anderen Ausführungsform eine Bezugsoberflächenform mit kleinerem Durchmesser so gebildet werden, dass sie nur in der Nähe der Bezugsoberflächenpunkte verläuft. Wie in 6 dargestellt ist, wird beispielsweise ein interessierender Bereich 280 dadurch gebildet, dass man eine Form 281 des interessierenden Bereiches (z.B. einen Kreis) so anordnet, dass er in der Nähe von zwei der Bezugsoberflächenpunkte 221, 222 verläuft, wobei der Durchmesser des Kreises 281 kleiner als der Abstand zwischen den beiden Bezugsoberflächenpunkten 221, 222 ist. Es wird verstanden, dass die Formen 271, 281 des interessierenden Bereiches und die interessierenden Bereiche 270, 280 auf dem Bild 200 dargestellt werden können, aber nicht müssen.
  • Nachdem der interessierende Bereich 270, 280 bestimmt worden ist, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) im Schritt 350 des beispielhaften Verfahrens 300 (3) den Abstand (d.h. die Tiefe) von jedem von den mehreren Oberflächenpunkten in dem interessierenden Bereich zu der Bezugsoberfläche 250. In einer Ausführungsform bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die Länge einer Linie, die zwischen der Bezugsoberfläche 250 und jedem von den mehreren Oberflächenpunkten in dem interessierenden Bereich 270, 280 verläuft, wobei die Linie die Bezugsoberfläche 250 senkrecht schneidet.
  • Im Schritt 360 des beispielhaften Verfahrens 300 (3) bestimmt die Videoinspektionsvorrichtung den Ort der tiefsten Oberflächenstelle 224 in dem interessierenden Bereich 270, 280 durch Bestimmung des Oberflächenpunktes, der am weitesten von der Bezugsoberfläche 250 entfernt ist (z.B. durch Auswählen des Oberflächenpunktes mit der längsten Linie, die zu der Bezugsoberfläche 250 verläuft). Es wird verstanden, dass die "tiefste Stelle" oder die "tiefste Oberflächenstelle", wie hierin verwendet, eine am weitesten entfernte Stelle, die in Bezug auf die Bezugsoberfläche 250 zurückgesetzt ist, oder eine am weitesten entfernte Stelle (d.h. höchster Punkt) sein kann, die von der Bezugsoberfläche 250 vorsteht. Die Videoinspektionsvorrichtung 100 kann die tiefste Oberflächenstelle 224 in dem interessierenden Bereich 270, 280 auf dem Bild durch Anzeigen z.B. eines Positionsanzeigers (Cursors) 234 (5) oder einer anderen grafischen Kennzeichnung 282 (6) auf der tiefsten Oberflächenstelle 224 kennzeichnen. Außerdem kann die Videoinspektionsvorrichtung 100, wie in den 5 und 6 dargestellt ist, die Tiefe 290 der tiefsten Oberflächenstelle 224 in dem interessierenden Bereich 270, 280 (z.B. die Länge der senkrechten Linie, die von dem tiefsten Oberflächenpunkt 224 zu der Bezugsoberfläche 250 verläuft) auf dem Bild 200 (in Zoll oder Millimeter) anzeigen. Dadurch, dass der Positionsanzeiger 234 oder die andere grafische Kennzeichnung 282 (6) automatisch an der tiefsten Oberflächenstelle 224 in dem interessierenden Bereich 270, 280 angezeigt wird, verkürzt die Videoinspektionsvorrichtung 100 die Zeit, die nötig ist, um die Tiefenmessung durchzuführen, und sie verbessert die Genauigkeit der Tiefenmessung, da der Anwender die tiefste Oberflächenstelle 224 in der Anomalie 204 nicht manuell kennzeichnen muss.
  • Sobald der Positionsanzeiger 234 an der tiefsten Oberflächenstelle 224 in dem interessierenden Bereich 270, 280 angezeigt wird, kann der Anwender diesen Punkt auswählen und einen Tiefenmesswert aufnehmen und speichern. Der Anwender kann außerdem den Positionsanzeiger 234 in dem interessierenden Bereich 270, 280 bewegen, um die Tiefe anderer Oberflächenpunkte in dem interessierenden Bereich 270, 280 zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die Bewegung des Positionsanzeigers 234 überwachen und erfassen, wenn der Positionsanzeiger 234 aufgehört hat sich zu bewegen. Wenn sich der Positionsanzeiger 234 über eine vorgegebene Zeit (z.B. 1 Sekunde) nicht mehr bewegt hat, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die tiefste Oberflächenstelle in der Nähe des Positionsanzeigers 234 (z.B. in einem vorgegebenen Kreis mit dem Positionsanzeiger 234 als Mittelpunkt) bestimmen und den Positionsanzeiger 234 automatisch in diese Position überführen.
  • 7 zeigt eine grafische Darstellung eines Beispielsprofils 400 der Objektoberfläche 210 des betrachteten Objekts 202, das in dem Bild 200 von 1 gezeigt ist. In diesem beispielhaften Profil 400 ist die Bezugsoberfläche 250 veranschaulicht, wie sie sich zwischen zwei Bezugsoberflächenpunkten 221, 222 und ihren jeweiligen Bezugsoberflächen-Positionsanzeigern 231, 232 erstreckt. Der Ort und die Tiefe 290 der tiefsten Oberflächenstelle 224 in dem interessierenden Bereich sind in der grafischen Darstellung ebenfalls gezeigt. In einer anderen Ausführungsform kann auch eine Punktwolkenansicht verwendet werden, um die tiefste Oberflächenstelle 224 zu veranschaulichen.
  • 8 zeigt ein weiteres Bild 500, das durch die Videoinspektionsvorrichtung 100 von der Objektoberfläche 210 eines betrachteten Objektes 202, das eine Anomalie 204 aufweist, gewonnen worden ist, in einem Ausführungsbeispiel der Erfindung. Erneut ist in diesem Beispiel die Anomalie 204 als eine Delle dort veranschaulicht, wo Material von der Objektoberfläche 210 des betrachteten Objektes 202 in der Anomalie 204 durch Beschädigung oder Verschleiß entfernt worden ist. Es wird verstanden, dass die in diesem Ausführungsbeispiel veranschaulichte Anomalie 204 nur ein Beispiel darstellt und dass das erfindungsgemäße Verfahren auch für andere Arten von Unregelmäßigkeiten (z.B. Risse, Korrosionsgrübchen, Beschichtungsverlust, oberflächliche Anlagerungen usw.) angewendet werden kann. Sobald das Bild 500 erhalten wird und die Anomalie 204 identifiziert wird, kann das Bild 500 verwendet werden, um die Dimensionen der Anomalie 204 (z.B. Höhe oder Tiefe, Länge, Weite, Fläche, Volumen, Punkt-zu-Linie, einen Profilschnitt, usw.) zu bestimmen. In einer Ausführungsform kann das verwendete Bild 500 ein zweidimensionales Bild 500 der Objektoberfläche 210 des betrachteten Objektes 202, das die Anomalie 204 enthält, sein. In einer anderen Ausführungsform kann das Bild 500 eine Punktwolke oder andere dreidimensionale Darstellung der Objektoberfläche 210 des betrachteten Objektes 202, das die Anomalie 204 enthält, sein.
  • 11 zeigt ein Flussdiagramm eines weiteren beispielhaften Verfahrens 700 zur automatischen Identifizierung einer interessierenden Stelle 502 auf einer Oberfläche einer Anomalie 204 auf einer Objektoberfläche 210 eines betrachteten Objektes 202, das in dem Bild 500 nach 8 veranschaulicht ist, in einer beispielhaften Ausführungsform der Erfindung. Es wird verstanden, dass die in dem Flussdiagramm der 11 beschriebenen Schritte in einer anderen Reihenfolge, als sie in dem Flussdiagramm veranschaulicht ist, ausgeführt werden können und dass für bestimmte Ausführungsformen nicht alle Schritte erforderlich sind.
  • Im Schritt 710 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, kann der Benutzer die Videoinspektionsvorrichtung 100 (z.B. den Bildgeber 124) verwenden, um wenigstens ein Bild 500 von der Objektoberfläche 210 eines betrachteten Objektes 202, das eine Anomalie 204 aufweist, zu erhalten und dieses auf einem Videomonitor (z.B. einer integrierten Anzeige 170 oder einem externen Monitor 172) anzuzeigen. In einer Ausführungsform kann das Bild 500 in einem Messbetriebsmodus der Videoinspektionsvorrichtung 100 angezeigt werden.
  • Im Schritt 720 des beispielhaften Verfahrens 700 (11) bestimmt die CPU 150 der Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Oberflächenpunkten auf der Objektoberfläche 210 des betrachteten Objektes 202, einschließlich der Oberflächenpunkte 501, 502, 503 der Anomalie 204. In einer Ausführungsform kann die Videoinspektionsvorrichtung dreidimensionale Daten von dem Bild 500 generieren, um die dreidimensionalen Koordinaten zu bestimmen. Es können etliche verschiedene existierende Techniken verwendet werden, um die dreidimensionalen Koordinaten der Oberflächenpunkte in dem Bild 500 (8) der Objektoberfläche 210 zu liefern (z.B. Stereoskopie, Abtastsysteme, stereoskopische Triangulation, Strukturlichtverfahren, wie etwa Phasenverschiebungsanalyse, Phasenverschiebungs-Moiré, Laserpunktprojektion, usw.).
  • Erneut weisen die meisten derartigen Techniken die Verwendung von Kalibrierungsdaten auf, die unter anderem optische charakteristische Daten enthalten, die verwendet werden, um Fehler in den dreidimensionalen Koordinaten zu reduzieren, die ansonsten durch optische Verzerrungen hervorgerufen sein würden. Bei einigen Techniken können die dreidimensionalen Koordinaten unter Verwendung eines oder mehrerer Bilder bestimmt werden, die in enger zeitlicher Nähe aufgenommen werden und die projizierte Muster und Vergleiche enthalten können. Es sollte verstanden werden, dass Bezugnahmen auf dreidimensionale Koordinaten, die unter Verwendung des Bildes 500 bestimmt werden, auch dreidimensionale Koordinaten umfassen können, die unter Verwendung eines oder mehrerer Bilder 500 von der Objektoberfläche 210 bestimmt werden, die in enger zeitlicher Nähe aufgenommen werden, und dass das Bild 500, das für den Benutzer während der beschriebenen Operationen angezeigt wird, tatsächlich bei der Bestimmung der dreidimensionalen Koordinaten verwendet oder nicht verwendet werden kann.
  • Im Schritt 730 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, legt der Benutzer eine erste Bezugslinie 510 durch die Auswahl eines ersten Bezugslinienendpunktes 511 auf einem ersten Pixel 561 des Bildes 500 und durch die Auswahl eines zweiten Bezugslinienendpunktes 512 auf einem zweiten Pixel 562 des Bildes 500 unter Verwendung einer Zeigevorrichtung (z.B. eines Joysticks, einer Maus, eines Berührungsbildschirms), um Positionsanzeiger (Cursors) auf dem Bild 500 zu platzieren, fest. Der erste Bezugslinienendpunkt 511 und der zweite Bezugslinienendpunkt 512 können ausgewählt werden, um in der Nähe und auf einer ersten Seite der Anomalie 204 zu liegen. Im Schritt 732 des beispielhaften Verfahrens 700 (11) kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten mehrerer Punkte auf der ersten Bezugslinie 510 bestimmen, die sich zwischen dem ersten Bezugslinienendpunkt 511 und dem zweiten Bezugslinienendpunkt 512 erstreckt.
  • Ebenso legt der Benutzer im Schritt 734 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, eine zweite Bezugslinie 520 durch die Auswahl eines dritten Bezugslinienendpunkts 521 auf einem dritten Pixel 563 des Bildes 500 und durch die Auswahl eines vierten Bezugslinienendpunktes 522 auf einem vierten Pixel 564 des Bildes 500 unter Verwendung einer Zeigevorrichtung zur Platzierung von Positionsanzeigern (Cursors) auf dem Bild 500 fest. Der dritte Bezugslinienendpunkt 521 und der vierte Bezugslinienendpunkt 522 können ausgewählt werden, um in der Nähe der sowie auf einer zweiten Seite der Anomalie 204 zu liegen. Im Schritt 736 des beispielhaften Verfahrens 700 (11) kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten mehrerer Punkte auf der zweiten Bezugslinie 520 bestimmen, die sich zwischen dem dritten Bezugslinienendpunkt 521 und dem vierten Bezugslinienendpunkt 522 erstreckt. Wie in 8 gesehen werden kann, können die erste Bezugslinie 510 und die zweite Bezugslinie 520 positioniert sein, um die Anomalie 204 zu streifen oder zu umgeben.
  • In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Kleinste-Quadrate-Regression (zur Reduktion der Auswirkungen von Rauschen) auf die dreidimensionalen Koordinaten von Pixeln zwischen dem ersten Bezugslinienendpunkt 511 und dem zweiten Bezugslinienendpunkt 512 anwenden, um die folgenden Gleichungen für die erste Bezugslinie 510 zu bestimmen: x(d1) = kx0 + kx1·d1 + kx2·d1 2 (2) y(d1) = ky0 + ky1·d1 + ky2d1 2 (3) z(d1) = kz0 + kz1·d1 + kz2·d1 2 (4), worin d1 der Bruchteil entlang der ersten Bezugslinie 510 im Bereich von z.B. 0,0 bis 1,0 ist. Zum Beispiel wird, wie in 8 veranschaulicht, die erste Bezugslinie 510 in 10 Segmente (d1 = 0,0, 0,10, 0,20, ... 0,90, 1,00) unterteilt. Es wird ein Satz von konstanten (k) Termen für die erste Bezugslinie 510 bestimmt. Der gleiche Prozess wird für die zweite Bezugslinie 520 mit der gleichen Anzahl von Segmenten durchgeführt (d.h. d2 = 0,0, 0,10, 0,20, ... 0,90, 1,00). Obwohl in der beispielhaften Ausführungsform die erste Bezugslinie 510 und die zweite Bezugslinie 520 veranschaulicht sind, wie sie die gleiche Länge mit der gleichen Anzahl von Segmenten aufweisen, können die Bezugslinien 510, 520 in anderen Ausführungsformen andere Längen aufweisen und/oder mit einer anderen Anzahl von Segmenten versehen sein.
  • In der in 8 veranschaulichten Ausführungsform sind die erste Bezugslinie 510 und die zweite Bezugslinie 520 gerade Linien. In einer Ausführungsform führt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Regression an den dreidimensionalen Koordinaten von Punkten auf der Objektoberfläche 210 durch, die Pixeln auf dem Bild 500 in der Nähe einer geraden Linie zwischen dem ersten Pixel 561 und dem zweiten Pixel 562 entsprechen. In einer anderen Ausführungsform führt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Tiefpassfilterung an den dreidimensionalen Koordinaten von Punkten auf der Objektoberfläche 210, die Pixeln des Bildes 500 in der Nähe einer geraden Linie zwischen dem ersten Pixel 561 und dem zweiten Pixel 562 entsprechen, durch.
  • In einer weiteren Ausführungsform (z.B. wenn die Objektoberfläche 210 komplexer oder gekrümmter ist) bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) für den Schritt des Bestimmens der dreidimensionalen Koordinaten der mehreren Punkte auf der ersten Bezugslinie 510 eine erste Bezugslinienebene 581, die die Objektoberfläche (z.B. senkrecht zu dieser) schneidet und durch den ersten Bezugslinienendpunkt 511 und den zweiten Bezugslinienendpunkt 512 verläuft. Die Videoinspektionsvorrichtung 100 bestimmt anschließend die dreidimensionalen Koordinaten mehrerer Punkte einer ersten Oberflächenkonturlinie 591 auf der Objektoberfläche 210 in der Nähe der ersten Bezugslinienebene 581 (z.B. auf oder innerhalb eines vorbestimmten Abstands zu der ersten Bezugslinienebene 581). Ebenso bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) für den Schritt des Bestimmens der dreidimensionalen Koordinaten der mehreren Punkte auf der zweiten Bezugslinie 520 eine zweite Bezugslinienebene 582, die die Objektoberfläche 210 (z.B. senkrecht zu dieser) schneidet und durch den dritten Bezugslinienendpunkt 521 sowie den vierten Bezugslinienendpunkt 522 verläuft. Die Videoinspektionsvorrichtung 100 bestimmt anschließend die dreidimensionalen Koordinaten mehrerer Punkte einer zweiten Oberflächenkonturlinie 592 auf der Objektoberfläche 210 in der Nähe der zweiten Bezugslinienebene 582 (z.B. auf oder innerhalb eines vorbestimmten Abstands zu der zweiten Bezugslinienebene 582). In dieser Ausführungsform würde, wenn die Bezugslinien gekrümmt sein können, ein anderer Satz von Konstanten (k) für die Gleichungen und d-Werte entlang der Bezugslinien bestimmt werden.
  • Im Schritt 740 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberfläche 550 unter Verwendung der dreidimensionalen Koordinaten von wenigstens zwei der mehreren Punkte (z.B. 514, 515, 516) auf der ersten Bezugslinie 510 und wenigstens eines der mehreren Punkte (z.B. 524, 525, 526) auf der zweiten Bezugslinie 520. Der Übersichtlichkeit wegen zeigt 8 nur die Bestimmung einer einzelnen Bezugsoberfläche 550 für eine Gruppe von Punkten entlang der ersten Bezugslinie 510 und der zweiten Bezugslinie 520. Jedoch werden in dem beispielhaften Verfahren mehrere Bezugsoberflächen für verschiedene Gruppen von Punkten entlang der ersten Bezugslinie 510 und der zweiten Bezugslinie 520 erzeugt. Während z.B. die veranschaulichte Bezugsoberfläche 550 basierend auf den Punkten in der Nähe von d1 = d2 = 0,50 bestimmt sein kann, können andere Bezugsoberflächen basierend auf Punkten in der Nähe von d1 = d2 = 0,00, 0,10, 0,20, 0,30, 0,40, 0,60, 0,70, 0,90, 1,00 bestimmt werden.
  • In einigen Ausführungsformen kann die Bezugsoberfläche 550 flach (z.B. eine Ebene) sein, während in anderen Ausführungsformen die Bezugsoberfläche gekrümmt oder in Form einer anderen Gestalt (z.B. eines Zylinders, einer Kugel, usw.) ausgebildet sein kann. In einer Ausführungsform, in der die erste Bezugslinie 510 und/oder die zweite Bezugslinie 520 gekrümmt sind, können die Bezugsoberflächen 550 entlang jeder von der ersten Bezugslinie 510 und/oder der zweiten Bezugslinie 520 Bezugsoberflächen enthalten, wobei wenigstens zwei von diesen nicht parallel zueinander sind.
  • Zurückkehrend zu 8, der beispielhaften Bezugsoberfläche 550, die der Position auf der ersten Bezugslinie 510 und der zweiten Bezugslinie 520 entspricht, wobei d1 = d2 = 0,50, werden die dreidimensionalen Koordinaten eines Satzes von zwei Punkten 514, 516 (d1 = 0,50 ± 0,05) auf der ersten Bezugslinie 510 und eines Satzes von zwei Punkten 524, 526 (d2 = 0,50 ± 0,05) auf der zweiten Bezugslinie 520 verwendet, um die Bezugsoberfläche 550 als eine Bezugsebene zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Anpassung der dreidimensionalen Koordinaten von wenigstens drei der vier Punkten 514, 516, 524, 526 durchführen, um eine Gleichung für die Bezugsoberfläche 550 zu bestimmen, die die folgende Form aufweist: z(x, y) = a0 + a1·x + a2y (5), worin (x, y, z) Koordinaten irgendeines dreidimensionalen Punktes auf der definierten Bezugsoberfläche 550 sind und a0, a1 und a2 Koeffizienten sind, die durch eine Anpassung der dreidimensionalen Koordinaten erhalten werden. Während in der beispielhaften Ausführungsform die Bezugsoberfläche 550 basierend auf Punkten von zwei entsprechenden Segmenten der Bezugslinien 510, 520 (d.h. d1 = d2) bestimmt wurde, könnte die Bezugsoberfläche 550 in anderen Ausführungsformen basierend auf zwei Segmenten bestimmt werden, die einander nicht entsprechen (d.h. d1 ≠ d2).
  • Im Schritt 750 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) einen interessierenden Bereich 570 für jede Bezugsoberfläche 550, die mehrere Punkte 501, 502, 503 auf der Oberfläche der Anomalie 204 aufweist. In einer Ausführungsform wird der interessierende Bereich 570 durch Bestimmung eines Polygons 571 auf der Bezugsoberfläche 550 mit Eckpunkten auf der Basis der wenigstens zwei der mehreren Punkte 514, 516 auf der ersten Bezugslinie 510 und wenigstens eines der mehreren Punkte 524, 526 auf der zweiten Bezugslinie 520 erzeugt. Der interessierende Bereich 570 enthält mehrere Punkte 501, 502, 503 auf der Oberfläche der Anomalie 204, die auf zu der Bezugsoberfläche 550 senkrechten Linien liegen und die die Bezugsoberfläche 550 innerhalb des Polygons 571 schneiden.
  • In einer weiteren Ausführungsform wird der interessierende Bereich 571 erzeugt, indem eine Ebene 580 des interessierenden Bereiches bestimmt wird, die die Bezugsoberfläche 550 (z.B. senkrecht zu dieser) schneidet und durch die erste Bezugslinie 510 zwischen wenigstens zwei der mehreren Punkte 514, 516 auf der ersten Bezugslinie 510 verläuft. Der interessierende Bereich 570 weist mehrere Punkte 501, 502, 503 auf der Oberfläche der Anomalie 204 auf, die innerhalb eines vorbestimmten Abstandes 571, 572 zu der Ebene 580 des interessierenden Bereiches liegen.
  • Im Schritt 760 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die Abstände zwischen den Bezugsoberflächen 550 und den mehreren Punkten 501, 502, 503 auf der Oberfläche der Anomalie 204 in jedem der interessierenden Bereiche 570. Im Schritt 770 des beispielhaften Verfahrens 700 (11), und wie in 8 veranschaulicht, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten der interessierenden Stelle 502 auf der Oberfläche der Anomalie 204 in dem interessierenden Bereich 570, die den größten Abstand zu der Bezugsoberfläche aufweist (z.B. die tiefste Stelle in einer Vertiefung oder die höchste Stelle auf einem Vorsprung). Sobald die interessierende Stelle 502 identifiziert worden ist, versucht die Videoinspektionsvorrichtung 100 (z.B. die CPU 150), das Profil (oder den Profilschnitt) zu finden, das durch die interessierende Stelle 502 verläuft.
  • Im Schritt 780 des beispielhaften Verfahrens 700 (11), und wie in 9 veranschaulicht, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Profiloberflächenkonturlinie 594 auf der Objektoberfläche 210 zwischen der ersten Bezugslinie 510 und der zweiten Bezugslinie 520, die die interessierende Stelle 502 auf der Oberfläche der Anomalie 204 enthält, wie in 9 veranschaulicht. In einer Ausführungsform weist die Profiloberflächenkonturlinie 594 einen ersten Punkt 518 auf oder in der Nähe der ersten Bezugslinie 510, einen zweiten Punkt 528 auf oder in der Nähe der zweiten Bezugslinie 520 und die interessierende Stelle auf der Oberfläche dr Anomalie 204 auf, wie in 9 veranschaulicht. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150), um eine Profiloberflächenkonturlinie 594 zu bestimmen, die durch die interessierende Stelle 502 (die tiefste oder höchste Stelle) verläuft, einen iterativen Prozess in dem bestimmten Segment der ersten Bezugslinie 510 und der zweiten Bezugslinie 520 durchführen, in dem die interessierende Stelle 502 gefunden wurde. Weil z.B., und wie in 9 veranschaulicht, die interessierende Stelle 502 in dem Segment gefunden wurde, das d1 = d2 = 0,50 entspricht, kann die Videoinspektionsvorrichtung 100 mehrere Bezugsoberflächenebenen 583, 584 bestimmen, die die Bezugsoberfläche 550 (z.B. senkrecht zu dieser) schneiden und durch entsprechende Punkte auf den Bezugslinien 510, 520 (z.B., wo d1 = d2) verlaufen. Während in der beispielhaften Ausführungsform die mehreren Bezugsoberflächenebenen 583, 584 auf der Basis von Punkten aus zwei entsprechenden Segmenten der Bezugslinien 510, 520 (d.h. d1 = d2) bestimmt werden, könnten in anderen Ausführungsformen die Bezugsoberflächenebenen 583, 584 auf der Basis von zwei Segmenten bestimmt werden, die einander nicht entsprechen (d.h. d1 ≠ d2).
  • Zum Beispiel kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) den Abstand zwischen der interessierenden Stelle 502 und der Ebene 580 des interessierenden Bereiches für d1 = d2 = 0,50 bestimmen. Wie in 9 gesehen werden kann, befindet sich die interessierende Stelle 502 in einem Abstand 574 von der Ebene 580 des interessierenden Bereiches entfernt, so dass das Profil (oder der Profilschnitt), das an der Ebene 580 des interessierenden Bereiches erfasst wird, die interessierende Stelle 502 nicht enthalten würde.
  • Als nächstes kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberflächenebene 583 bestimmen, die die ursprüngliche Bezugsoberfläche 550 oder eine neue Bezugsoberfläche (die unter Verwendung der Punkte auf den Bezugslinien 510, 520 in der Nähe von d1 = d2 = 0,52 erzeugt wird) (z.B. senkrecht zu dieser) schneidet und durch einen Bezugslinienpunkt 517 auf der ersten Bezugslinie 510 und einen entsprechenden Bezugslinienpunkt 527 auf der zweiten Bezugslinie 520 für d1 = d2 = 0,52 verläuft. Die Videoinspektionsvorrichtung 100 kann anschließend den Abstand zwischen der interessierenden Stelle 502 und der Bezugsoberflächenebene 583 für d1 = d2 = 0,52 bestimmen. Wie in 9 gesehen werden kann, befindet sich die interessierende Stelle 502 in einem Abstand 575 von der Bezugsoberflächenebene 583 entfernt, so dass ein an der Bezugsoberflächenebene 583 erfasstes Profil (oder Profilschnitt) die interessierende Stelle 502 nicht enthalten würde.
  • Weiter mit der Iteration fortfahrend kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberflächenebene 584 bestimmen, die die Bezugsoberfläche 550 oder eine neue Bezugsoberfläche (die unter Verwendung von Punkten auf den Bezugslinien 510, 520 in der Nähe von d1 = d2 = 0,53 erzeugt wird)(z.B. senkrecht zu dieser) schneidet und durch einen Bezugslinienpunkt 518 auf oder in der Nähe von der ersten Bezugslinie 510 und einen entsprechenden Bezugslinienpunkt 528 auf oder in der Nähe von der zweiten Bezugslinie 520 für d1 = d2 = 0,53 verläuft. Die Videoinspektionsvorrichtung 100 kann anschließend den Abstand zwischen der interessierenden Stelle 502 und der Bezugsoberflächenebene 584 für d1 = d2 = 0,53 bestimmen. Wie in 9 gesehen werden kann, befindet sich die interessierende Stelle 502 auf der Bezugsoberflächenebene 584, so dass ein an der Bezugsoberflächenebene 584 erfasstes Profil (oder Profilschnitt) die interessierende Stelle 502 enthalten würde. Die Videoinspektionsvorrichtung 100 kann anschließend die dreidimensionalen Koordinaten von mehreren Punkten einer Profiloberflächenkonturlinie 594 auf der Objektoberfläche 210 in der Nähe der Bezugsoberflächenebene 584 (z.B. auf oder innerhalb eines bestimmten Abstandes zu der Bezugsoberflächenebene 584) bestimmen. Die Profiloberflächenkonturlinie 594 weist einen Punkt 518 auf oder in der Nähe zu der ersten Bezugslinie 510, einen Punkt 528 auf oder in der Nähe der zweiten Bezugslinie 520 und die interessierende Stelle 502 auf der Oberfläche der Anomalie 204 auf, wie in 9 veranschaulicht.
  • Im Schritt 790 des beispielhaften Verfahrens 700 (11) bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) ein Profil der Objektoberfläche 210, die die interessierende Stelle 502 enthält, durch Bestimmung des Abstandes von der Bezugsoberfläche 550 zu den mehreren Punkten der Profiloberflächenkonturlinie 594 auf der Objektoberfläche 210. 10 zeigt ein Bild 600 der grafischen Darstellung des Profils der Objektoberfläche 210 des betrachteten Objektes 202, das in dem Bild 500 nach 8 veranschaulicht ist. Die grafische Darstellung des Profils, die einen Querschnitt des betrachteten Objektes 210 an der Profiloberflächenkonturlinie 594 zeigt, kann auf dem Videomonitor (z.B. einer integrierten Anzeige 170 oder einem externen Monitor 172) angezeigt werden. Das Profil enthält einen Punkt 518 auf oder in der Nähe der ersten Bezugslinie 510, einen Punkt 528 auf oder in der Nähe der zweiten Bezugslinie 520 und die interessierende Stelle 502 auf der Oberfläche der Anomalie 204. Die grafische Darstellung des Profils zeigt ferner den Abstand 602 zwischen der Bezugsoberfläche 550 und der interessierenden Stelle 502 auf der Oberfläche an. In einer anderen Ausführungsform kann ein Punktwolkenbild, das z.B. eine dreidimensionale Darstellung der Bezugsoberfläche 550 und die Profiloberflächenkonturlinie 594, einschließlich des Punktes 518 auf oder in der Nähe der ersten Bezugslinie 510, des Punktes 528 auf oder in der Nähe der zweiten Bezugslinie 520 und der interessierenden Stelle 502 auf der Oberfläche der Anomalie 204, aufweist, auf dem Videomonitor (z.B. einer integrierten Anzeige 170 oder einem externen Monitor 172) angezeigt werden.
  • 12 zeigt ein noch weiteres beispielhaftes Bild 800, das durch die Videoinspektionsvorrichtung 100 von der Objektoberfläche 210 eines betrachteten Objektes 202, das eine Anomalie 204 aufweist, in einer weiteren beispielhaften Ausführungsform der Erfindung erhalten wurde. Erneut ist in diesem Beispiel die Anomalie 204 als eine Delle veranschaulicht, worin Material von der Objektoberfläche 210 des betrachteten Objektes 202 in der Anomalie 204 durch Beschädigung oder Verschleiß entfernt worden ist. Es wird verstanden, dass die in dieser beispielhaften Ausführungsform veranschaulichte Anomalie 204 nur ein Beispiel darstellt und dass das erfindungsgemäße Verfahren auf andere Arten von Unregelmäßigkeiten (z.B. Risse, Korrosionsgrübchen, Beschichtungsverlust, oberflächliche Anlagerungen usw.), Oberflächenmerkmale (z.B. Schweißnähte) oder Freiräume zwischen Oberflächen (z.B. Abstände zwischen Spitze und Mantel) angewendet werden kann. Sobald das Bild 800 erhalten wird und die Anomalie 204 identifiziert wird, kann das Bild 800 verwendet werden, um die Dimensionen der Anomalie 804 (z.B. Höhe oder Tiefe, Länge, Weite, Fläche, Volumen, Punkt-zu-Linie, Profilschnitt, usw.) zu bestimmen. In einer Ausführungsform kann das Bild 800 ein zweidimensionales Bild 800 von der Objektoberfläche 210 des betrachteten Objektes 202, das die Anomalie 204 enthält, sein. In einer weiteren Ausführungsform kann das verwendete Bild 800 eine Punktwolke oder eine andere dreidimensionale Darstellung der Objektoberfläche 210 des betrachteten Objektes 202, das die Anomalie 204 enthält, sein.
  • Wie in 12 veranschaulicht, kann der Benutzer die Videoinspektionsvorrichtung 100 (z.B. den Bildgeber 124) verwenden, um wenigstens ein Bild 800 von der Objektoberfläche 210 eines betrachteten Objektes 202, das eine Anomalie 204 aufweist, zu erhalten und dieses auf einen Videomonitor (z.B. einer integralen Anzeige 170 oder einem externen Monitor 172) anzuzeigen. In einer Ausführungsform kann das Bild 800 in einem Messbetriebsmodus der Videoinspektionsvorrichtung 100 angezeigt werden.
  • Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) kann die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Oberflächenpunkten auf der Objektoberfläche 210 des betrachteten Objektes 202, einschließlich der Oberflächenpunkte der Anomalie 204, bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung dreidimensionale Daten von dem Bild 800 generieren, um die dreidimensionalen Koordinaten zu bestimmen. Es können etliche verschiedene existierende Techniken dazu verwendet werden, die dreidimensionalen Koordinaten der Oberflächenpunkte in dem Bild 800 (12) der Objektoberfläche 210 zu liefern (z.B. Stereoskopie, Abtastsysteme, stereoskopische Triangulation, Strukturlichtverfahren, wie bspw. Phasenverschiebungsanalyse, Phasenverschiebungs-Moiré, Laserpunktprojektion, usw.).
  • Erneut weisen die meisten derartigen Techniken die Verwendung von Kalibrierungsdaten auf, die unter anderem optische charakteristische Daten enthalten, die verwendet werden, um Fehler in den dreidimensionalen Koordinaten zu reduzieren, die ansonsten durch optische Verzerrungen hervorgerufen sein würden. Bei einigen Techniken können die dreidimensionalen Koordinaten unter Verwendung eines oder mehrerer Bilder bestimmt werden, die in enger zeitlicher Nähe aufgenommen werden und die projizierte Muster und dergleichen enthalten können. Es sollte verstanden werden, dass Bezugnahmen auf dreidimensionale Koordinaten, die unter Verwendung des Bildes 800 bestimmt werden, auch dreidimensionale Koordinaten umfassen können, die unter Verwendung eines oder mehrerer Bilder 800 von der Objektoberfläche 210 bestimmt werden, die in enger zeitlicher Nähe erfasst werden, und dass das Bild 800, das während der beschriebenen Operationen für den Benutzer angezeigt wird, tatsächlich bei der Bestimmung der dreidimensionalen Koordinaten verwendet oder nicht verwendet werden kann.
  • Wie in 12 veranschaulicht, kann der Benutzer in einer Ausführungsform einen ersten Bezugslinien-Positionierpunkt 811 auf einem ersten Pixel 861 des Bildes 800 durch Platzierung eines ersten Positionsanzeigers (Cursors) 831 auswählen, und er kann einen zweiten Bezugslinien-Positionierpunkt 812 auf einem zweiten Pixel 862 des Bildes 800 durch Platzierung eines zweiten Positionsanzeigers 832 unter Verwendung z.B. einer Zeigevorrichtung (z.B. eines Joysticks, einer Maus, eines Berührungsbildschirms), um die Positionsanzeiger auf dem Bild 800 zu platzieren, auswählen. Der erste Bezugslinien-Positionierpunkt 811 und der zweite Bezugslinien-Positionierpunkt 812 können auf einer ersten Seite der Anomalie 204 ausgewählt werden. In einer weiteren Ausführungsform wählt der Benutzer nur einen ersten Bezugslinien-Positionierpunkt 811 auf einem ersten Pixel 861 des Bildes 800 durch Platzierung eines ersten Positionsanzeigers 831 aus, und er wählt keinen zweiten Bezugslinien-Positionierpunkt 812 aus.
  • Wie in 12 veranschaulicht, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberfläche 850 bestimmen. In einigen Ausführungsformen kann die Bezugsoberfläche 850 flach sein, während in anderen Ausführungsformen die Bezugsoberfläche 850 gekrümmt sein kann. Ebenso kann die Bezugsoberfläche 850 in einer Ausführungsform in Form einer Ebene vorliegen, während in anderen Ausführungsformen die Bezugsoberfläche 850 die Form einer anderen Gestalt (z.B. eines Zylinders, einer Kugel, etc.) aufweisen kann. Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) kann die dreidimensionalen Koordinaten der Oberflächenpunkte auf der Objektoberfläche 210 des betrachteten Objektes 202 bestimmen, die den Pixeln in der Umgebung des ersten Positionsanzeigers 831 für den ersten Bezugslinien-Positionierpunkt 811 zugeordnet sind und den Pixeln in der Umgebung des zweiten Positionsanzeigers 832 für den zweiten Bezugslinien-Positionierpunkt 812 zugeordnet sind. Diese dreidimensionalen Koordinaten können verwendet werden, um eine Bezugsoberfläche 850 (z.B. eine Ebene) zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Kurvenanpassung der dreidimensionalen Koordinaten der Oberflächenpunkte, die den Pixeln in der Umgebung des ersten Positionsanzeigers 831 und des zweiten Positionsanzeigers 832 zugeordnet sind, durchführen, um eine Gleichung für die Bezugsoberfläche 850 (z.B. für eine Ebene) zu bestimmen, wie vorstehend in der Gleichung (1) beschrieben. In einer weiteren Ausführungsform kann die Kurvenanpassung nur die dreidimensionalen Koordinaten der Oberflächenpunkte, die den Pixeln in der Umgebung des ersten Positionsanzeigers 831 zugeordnet sind, oder nur die dreidimensionalen Koordinaten der Oberflächenpunkte, die den Pixeln in der Umgebung des zweiten Positionsanzeigers 832 zugeordnet sind, verwenden, um eine Gleichung für die Bezugsoberfläche 850 zu bestimmen.
  • In einer Ausführungsform bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine erste Schnittebene 881, die senkrecht zu (oder rechtwinklig zu) der Bezugsoberfläche 850 ausgerichtet ist, die Objektoberfläche 210 schneidet und eine dreidimensionale Koordinate, die einem Pixel in der Umgebung des ersten Positionsanzeigers 831 (des ersten Bezugslinien-Positionierpunktes 811) zugeordnet ist, und eine dreidimensionale Koordinate enthält, die einem Pixel in der Umgebung des zweiten Positionsanzeigers 832 (des zweiten Bezugslinien-Positionierpunktes 812) zugeordnet ist. Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) bestimmt anschließend die dreidimensionalen Koordinaten von mehreren Oberflächenpunkten einer ersten Oberflächenkonturlinie 891 auf der Objektoberfläche 210 in der Nähe der ersten Schnittebene 881 (z.B. auf oder innerhalb eines vorbestimmten Abstandes (z.B. 0,1 mm) zu) der ersten Schnittebene 881, Oberflächenpunkten, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die auf gegenüberliegenden Seiten der ersten Schnittebene 881 liegen, oder Punkten, die aus Oberflächenpunkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der ersten Schnittebene 881 befinden). Wie in 12 veranschaulicht, enthält die erste Oberflächenkonturlinie 891 in einer Ausführungsform Oberflächenpunkte, die zwischen dem ersten Positionsanzeiger 831 (der dem ersten Bezugslinien-Positionierpunkt 811 zugeordnet ist) und dem zweiten Positionsanzeiger 832 (der dem zweiten Bezugslinien-Positionierpunkt 812 zugeordnet ist) angeordnet sind. In einer Ausführungsform führt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Regression und/oder eine Tiefpassfilterung an den dreidimensionalen Koordinaten der mehreren Oberflächenpunkte der ersten Oberflächenkonturlinie 891 auf der Objektoberfläche 210 in der Nähe der ersten Schnittebene 881 durch.
  • Wie in 12 veranschaulicht, kann der Benutzer einen versetzten Bezugslinien-Positionierpunkt 813 auf einem dritten Pixel 863 des Bildes 800 durch Platzierung eines dritten Positionsanzeigers (Cursors) 833 unter Verwendung z.B. einer Zeigevorrichtung (z.B. eines Joysticks, einer Maus, eines Berührungsbildschirms), um den Positionsanzeiger 833 auf dem Bild 800 zu platzieren, auswählen. In einer Ausführungsform bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine versetzte (zweite) Schnittebene 882, die eine dreidimensionale Koordinate eines Oberflächenpunktes auf der Objektoberfläche 210 des betrachteten Objektes 202 enthält, der einem Pixel in der Umgebung des dritten Positionsanzeigers 833 zugeordnet ist. Die versetzte (zweite) Schnittebene 882 ist um einen senkrechten Abstand (D) zu der ersten Schnittebene 881 in einer ersten Richtung versetzt. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine versetzte (zweite) Schnittebene 882 bestimmen, indem sie eine Schnittebene bestimmt, die zu der ersten Schnittebene 881 parallel verläuft, und diese Schnittebene versetzt, bis diese einen Oberflächenpunkt auf der Objektoberfläche 210 des betrachteten Objektes 202 enthält, der einem Pixel in der Umgebung des dritten Positionsanzeigers 833 zugeordnet ist. In einer weiteren Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die versetzte (zweite) Schnittebene 882 bestimmen, indem sie eine erste Linie, die durch den ersten Bezugslinien-Positionierpunkt 811 und den zweiten Bezugslinien-Positionierpunkt 812 verläuft, eine zweite Linie, die zu der ersten Linie parallel verläuft und durch den versetzten Bezugslinien-Positionierpunkt 813 verläuft, und eine versetzte zur Oberfläche senkrechte Linie bestimmt, die zu der Objektoberfläche 210 in der Umgebung des versetzten Bezugslinien-Positionierpunktes 813 senkrecht ausgerichtet ist und durch den versetzten Bezugslinien-Positionierpunkt 813 verläuft, wobei die versetzte (zweite) Schnittebene die zweite Linie und die versetzte zur Oberfläche senkrechte Linie enthält.
  • Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) bestimmt anschließend die dreidimensionalen Koordinaten mehrerer Oberflächenpunkte einer versetzten (zweiten) Oberflächenkonturlinie 892 auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882 (z.B. auf oder innerhalb eines vorbestimmten Abstandes zu der versetzten (zweiten) Schnittebene 882, Oberflächenpunkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die auf gegenüberliegenden Seiten der versetzten (zweiten) Schnittebene 882 angeordnet sind, oder Punkte, die aus Oberflächenpunkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der versetzen (zweiten) Schnittebene 882 befinden). In einer Ausführungsform führt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Regression und/oder eine Tiefpassfilterung an den dreidimensionalen Koordinaten der mehreren Oberflächenpunkte der versetzten (zweiten) Oberflächenkonturlinie 892 auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882 durch. Wie in 12 gesehen werden kann, sind die erste Oberflächenkonturlinie 891 und die versetzte (zweite) Oberflächenkonturlinie 892 positioniert, um die Anomalie 204 zu streifen oder zu umgeben.
  • Wie in 12 veranschaulicht, kann die versetzte (zweite) Oberflächenkonturlinie 892 in einer Ausführungsform all die mehreren Oberflächenpunkte auf der Objektoberfläche 210 in der Nähe zu der versetzten (zweiten) Schnittebene 882 aufweisen, oder sie kann nur einen Teil oder ein Segment der mehreren Oberflächenpunkte auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882 (z.B. zwischen dem ersten Endpunkt 821 der versetzten (zweiten) Oberflächenkonturlinie und dem zweiten Endpunkt 822 der versetzten (zweiten) Oberflächenkonturlinie) aufweisen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) verschiedene Abschnitte oder Segmente (z.B. Streifen) der gesamten Länge der versetzten (zweiten) Oberflächenkonturlinie 892 (d.h. all die mehreren Oberflächenpunkte auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882) auswerten, um ein Segment oder Segmente zu finden, das bzw. die eine Krümmung hat bzw. haben, die der Krümmung der ersten Oberflächenkonturlinie 891 ähnlich ist (d.h. mit dieser übereinstimmt oder eine minimale Krümmungsdifferenz zu dieser aufweist), oder eine Krümmungsdifferenz mit der ersten Oberflächenkonturlinie 891 aufweist bzw. aufweisen, die unterhalb eines Schwellenwertes oder innerhalb eines zulässigen Bereiches liegt. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) auch verschiedene Abschnitte oder Segmente (z.B. Streifen) der gesamten Länge der versetzten (zweiten) Oberflächenkonturlinie 892 (d.h. all die näheren Oberflächenpunkte auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882) auswerten, um ein Segment oder Segmente zu finden, die in der Richtung senkrecht zu der Bezugsoberfläche 850) parallel zu der ersten Oberflächenkonturlinie 891 verlaufen. Wie in 12 veranschaulicht, wird das Segment der versetzten (zweiten) Oberflächenkonturlinie 892 zwischen dem ersten Endpunkt 821 der versetzten (zweiten) Oberflächenkonturlinie und dem zweiten Endpunkt 822 der versetzten (zweiten) Oberflächenkonturlinie derart gewählt, dass es eine ähnliche Krümmung wie die Krümmung der ersten Oberflächenkonturlinie 891 aufweist und parallel zu der ersten Oberflächenkonturlinie 891 verläuft. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) Paare von Punkten auf der versetzten (zweiten) Oberflächenkonturlinie identifizieren, die um den Abstand zwischen dem ersten Bezugslinien-Positionierpunkt 811 und dem zweiten Bezugslinien-Positionierpunkt 812 voneinander beabstandet sind. Für jedes Punktepaar wird der Winkel zwischen einer Linie, die durch beide Punkte des Paars verläuft, und einer Linie, die durch den ersten Bezugslinien-Positionierpunkt 811 und den zweiten Bezugslinien-Positionierpunkt 812 verläuft, als ein Krümmungsdifferenzwert berechnet, und das Punktepaar, das den kleinsten Krümmungsdifferenzwert ergibt, wird als der erste Endpunkt 821 der versetzten (zweiten) Oberflächenkonturlinie und der zweite Endpunkt 822 der versetzten (zweiten) Oberflächenkonturlinie gewählt. In dem veranschaulichten Beispiel entspricht der erste Endpunkt 821 der versetzten (zweiten) Oberflächenkonturlinie dem ersten Bezugslinien-Positionierpunkt 811 der ersten Oberflächenkonturlinie 891. In einigen Beispielen wird die versetzte (zweite) Oberflächenkonturlinie 892 eine andere Länge aufweisen als die erste Oberflächenkonturlinie 891. In einer Ausführungsform führt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Regression und/oder eine Tiefpassfilterung an den dreidimensionalen Koordinaten der mehreren Oberflächenpunkte des ausgewählten Abschnitts oder Segmentes der versetzten (zweiten) Oberflächenkonturlinie 892 auf der Objektoberfläche 210 in der Nähe der versetzten (zweiten) Schnittebene 882 durch. Wie in 12 gesehen werden kann, sind die erste Oberflächenkonturlinie 891 und die versetzte (zweite) Oberflächenkonturlinie 892 positioniert, um die Anomalie 204 zu streifen oder zu umgeben.
  • 13 zeigt ein noch weiteres beispielhaftes Bild 900, das durch die Videoinspektionsvorrichtung 100 von der Innenseite eines Rohrs in einer weiteren beispielhaften Ausführungsform der Erfindung erhalten wurde. Wie in 13 ersichtlich, kann der Benutzer einen ersten Positionsanzeiger (Cursor) 931 und einen zweiten Positionsanzeiger (Cursor) 932 unter Verwendung z.B. einer Zeigevorrichtung (z.B. eines Joysticks, einer Maus, eines Berührungsbildschirms), um die Positionsanzeiger auf dem Bild 800 der Innenseite des Rohrs zu platzieren, platzieren. Unter Verwendung der vorstehend beschriebenen Techniken bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) anschließend die dreidimensionalen Koordinaten mehrerer Oberflächenpunkte einer ersten Oberflächenkonturlinie 991 auf der inneren Oberfläche des Rohrs. Wie in 13 veranschaulicht, kann der Benutzer einen versetzten Bezugslinien-Positionierpunkt auswählen, indem er einen dritten Positionsanzeiger (Cursor) 933 unter Verwendung z.B. einer Zeigevorrichtung (z.B. einer Maus, eines Joysticks, eines Berührungsbildschirms) zur Platzierung des Cursors 933 auf dem Bild 900 platziert. Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) bestimmt anschließend die dreidimensionalen Koordinaten mehrerer Oberflächenpunkte einer versetzten (zweiten) Oberflächenkonturlinie 992.
  • Wie in 13 veranschaulicht, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) ein Segment der versetzten (zweiten) Oberflächenkonturlinie 992 finden, das eine Krümmung aufweist, die der Krümmung der ersten Oberflächenkonturlinie 991 ähnlich ist (d.h. mit dieser übereinstimmt oder eine minimale Krümmungsdifferenz zu dieser aufweist) oder eine Krümmungsdifferenz mit der ersten Oberflächenkonturlinie 991 aufweist, die unterhalb eines Schwellenwertes oder innerhalb eines zulässigen Bereiches liegt. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) ein Segment der versetzten (zweiten) Oberflächenkonturlinie 992 finden, das parallel zu der ersten Oberflächenkonturlinie 991 verläuft. Wie in 13 veranschaulicht, wird das Segment der versetzten (zweiten) Oberflächenkonturlinie 992 derart gewählt, dass es eine ähnliche Krümmung wie die Krümmung der ersten Oberflächenkonturlinie 991 aufweist und es zu der ersten Oberflächenkonturlinie 991 parallel verläuft. Diese parallele Anordnung der ersten Oberflächenkonturlinie 991 und der versetzten (zweiten) Oberflächenkonturlinie 992 hat eine Profiloberflächenkonturlinie 944 zum Ergebnis, die sich in Längsrichtung die innere Oberfläche des Rohrs hinunter erstreckt.
  • Erneut zurückkehrend zu 12 kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150), sobald die erste Oberflächenkonturlinie 891 und die versetzte (zweite) Oberflächenkonturlinie 892 bestimmt sind, Paare entsprechender Punkte, einen Punkt auf oder in der Nähe jeder der Oberflächenkonturlinien 891, 892 (z.B. den ersten Profilschnittebenen-Endpunkt 841 und den zweiten Profilschnittebenen-Endpunkt 842) identifizieren und anschließend eine Profilschnittebene 893 und eine Profiloberflächenkonturlinie 844 zwischen jedem Paar der Endpunkte 841, 842 bestimmen. Zum Beispiel kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) in 12 eine Profilschnittbezugsoberfläche 851 basierend auf den dreidimensionalen Koordinaten mehrerer Punkte auf der Oberfläche des betrachteten Objektes 210, die dem ersten Profilschnittebenenendpunkt 841 und dem zweiten Profilschnittebenenendpunkt 842 zugeordnet sind, und/oder Punkte auf der ersten Oberflächenkonturlinie 891 und der versetzten (zweiten) Oberflächenkonturlinie 892, die Oberflächenpunkte oder dreidimensionale Koordinaten sein können, die durch eine Kurvenanpassung oder Tiefpassfilterung bestimmt werden, in der Nähe des Paars der Profilschnittebenenendpunkte 841, 842 bestimmen. Die Profilschnittbezugsoberfläche 851 kann unter Verwendung der gleichen Techniken bestimmt werden, wie sie vorstehend zur Bestimmung der Bezugsoberfläche 850 beschrieben sind.
  • Nachdem die Profilschnittbezugsoberfläche 851 festgelegt ist, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Profilschnittebene 843, die zu der Profilschnittbezugsoberfläche 851 senkrecht (oder rechtwinklig) ausgerichtet ist, die Objektoberfläche 210 schneidet und die dreidimensionalen Koordinaten enthält, die dem Paar von Profilschnittebenen-Endpunkten 841, 842 zugeordnet sind. Die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) bestimmt anschließend die dreidimensionalen Koordinaten von mehreren Oberflächenpunkten einer Profiloberflächenkonturlinie 844 zwischen dem Paar Endpunkte 841, 842 in der Nähe der Profilschnittebene 843 (z.B. auf oder innerhalb eines vorbestimmten Abstandes zu der Profilschnittebene 843, Oberflächenpunkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der Profilschnittebene 843 befinden, oder Punkte, die aus Oberflächenpunkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der Profilschnittebene 843 befinden). Wie vorstehend in Bezug auf die 8 und 9 beschrieben, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) Profilschnitte für mehrere Paare entsprechende Punkte auf jeder der Oberflächenkonturlinien 891, 892, und sie identifiziert den Profilschnitt, der die interessierende Stelle 845, d.h. die Oberflächenstelle mit dem größten Abstand zu der Profilschnittbezugsoberfläche 850 (z.B. die tiefste Stelle in einer Vertiefung oder die höchste Stelle auf einem Vorsprung) aufweist. Sobald die interessierende Stelle 845 identifiziert worden ist, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) den Abstand zu der Bezugsoberfläche anzeigen und den entsprechenden Schnittweg und die Position der interessierenden Stelle auf dem Bild 800 oder auf einer 3D-Punktwolke anzeigen.
  • Angesichts des vorstehenden bestimmen Ausführungsformen der Erfindung automatisch die Tiefe oder Höhe eines Punktes auf einer Anomalie auf einer Oberfläche. Ein technischer Effekt besteht darin, dass die zur Durchführung der Messung erforderliche Zeit reduziert und die Genauigkeit der Messung verbessert wird, weil der Benutzer die interessierende Stelle (die tiefste oder höchste Stelle) nicht von Hand zu identifizieren braucht. Außerdem wird in Ausführungsformen der Erfindung, in denen die Endpunkte der versetzten (zweiten) Oberflächenkonturlinie basierend auf einer Übereinstimmung mit der Krümmung der ersten Oberflächenkonturlinie automatisch bestimmt werden, der Benutzer von der Last befreit, die Endpunkte von Hand korrekt identifizieren zu müssen, so dass die Oberflächenkrümmung die gemessene Höhe oder Tiefe an der interessierenden Stelle nicht beeinflusst oder minimal beeinflusst.
  • Wie ein Fachmann erkennen wird, können Aspekte der vorliegenden Erfindung als ein System, Verfahren oder Computerprogrammprodukt verkörpert sein. Demgemäß können Aspekte der vorliegenden Erfindung die Form einer ganz und gar aus Hardware bestehenden Ausführungsform, einer ganz und gar aus Software bestehenden Ausführungsform (was auch Firmware, residente Software, Mikro-Code usw. einschließt) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hierin alle als "Dienst", "Stromkreis", "Schaltung", "Modul" und/oder "System" bezeichnet werden können. Ferner können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem computerlesbaren Medium oder mehreren computerlesbaren Medien verkörpert sein kann, in dem bzw. denen computerlesbarer Code verkörpert ist.
  • Es können beliebige Kombinationen aus einem computerlesbaren Medium oder mehreren computerlesbaren Medien verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann z.B. ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -gerät oder -element oder jede geeignete Kombination der genannten sein, ohne darauf beschränkt zu sein. Spezifischere Beispiele (eine nicht erschöpfende Liste) für das computerlesbare Speichermedium würden die folgenden enthalten: eine elektrische Verbindung mit einem oder mehreren Drähten, eine tragbare Computerdiskette, eine Festplatte, einen Schreib-Lese-Speicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren, nicht wiederbeschreibbaren CD-Speicher (CD-ROM), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede geeignete Kombination der oben genannten. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium jedes materielle Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, -apparat oder -element enthalten oder speichern kann.
  • Ein Programmcode und/oder ausführbare Befehle, der bzw. die auf einem computerlesbaren Medium verkörpert ist bzw. sind, kann bzw. können mittels eines beliebigen geeigneten Mediums übertragen werden, was drahtlos, über Drahtleitung, optisches Faserkabel, HF usw. oder irgendeine geeignete Kombination der genannten einschließt, ohne darauf beschränkt zu sein.
  • Ein Computerprogrammcode zur Durchführung von Arbeitsschritten für Aspekte der vorliegenden Erfindung kann in einer beliebigen Kombination einer oder mehrerer Programmiersprachen geschrieben sein, wozu eine objektorientierte Programmiersprache, wie Java, Smalltalk, C++ oder dergleichen, und herkömmliche prozedurale Programmiersprachen, wie die "C"-Programmiersprache oder ähnliche Programmiersprachen, gehören. Der Programmcode kann vollständig auf dem Computer (der Vorrichtung) des Anwenders, teilweise auf dem Computer des Anwenders, als eigenständiges Softwarepaket, zum Teil auf dem Computer des Anwenders und zum Teil auf einem Remote-Computer oder ganz und gar auf dem Remote-Computer oder einem Server ausgeführt werden. Im letztgenannten Szenario kann der Remote-Computer über irgendeine Art von Netz mit dem Computer des Anwenders verbunden sein, was unter anderem ein lokales Netz (LAN) oder ein Weitverkehrsnetz (WAN) umfasst, oder die Verbindung kann mit einem externen Computer (beispielsweise über das Internet unter Nutzung eines Internetdienstanbieters) hergestellt werden.
  • Aspekte der vorliegenden Erfindung sind hierin mit Bezug auf Darstellungen von Ablaufschemata und/oder Blockdiagramme von Verfahren, Apparaten (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird verstanden, dass jeder Block der dargestellten Ablaufschemata und/oder Blockdiagramme und Kombinationen von Blöcken in den dargestellten Ablaufschemata und/oder Blockdiagrammen durch Computerprogrammbefehle implementiert werden kann. Die Computerprogrammbefehle können an einen Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung geliefert werden, um eine Maschine hervorzubringen, so dass die Befehle, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, eine Einrichtung zur Implementierung der Funktionen/Aspekte erzeugen, welche in dem Ablaufschema und/oder in dem Block oder den Blöcken des Blockschemas angegeben sind.
  • Diese Computerprogrammbefehle können auch in einem computerlesbaren Medium gespeichert werden, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen anweisen kann, auf eine bestimmte Art zu funktionieren, so dass die Befehle, die in dem computerlesbaren Medium gespeichert sind, ein Erzeugnis hervorbringen, das Befehle enthält, welche die Funktion/Aktion implementieren, die in dem Ablaufschema und/der in dem Block oder in den Blöcken des Blockdiagramms angegeben ist.
  • Die Computerprogrammbefehle können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen geladen werden, um zu bewirken, dass auf dem Computer, der anderen programmierbaren Vorrichtung oder den anderen Vorrichtungen eine Reihe von Arbeitsschritten ausgeführt werden, um einen computerimplementierten Prozess zu erzeugen, so dass die Befehle, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Prozesse zur Implementierung der Funktionen/Aktionen, die in dem Ablaufschema und/oder in dem Block oder in den Blöcken des Blockdiagramms angegeben sind, bereitstellen.
  • Soweit die Ansprüche die Formulierung „wenigstens eine(r, s) von“ bei der Bezugnahme auf mehrere Elemente rezitieren, soll dies wenigstens ein(e) oder mehrere der aufgeführten Elemente bedeuten, und es ist nicht auf wenigstens eines von jedem Element beschränkt. Zum Beispiel soll „wenigstens eines von einem Element A, Element B und Element C“ das Element A alleine oder das Element B alleine oder das Element C alleine oder jede beliebige Kombination von diesen angeben. „Wenigstens eines von dem Element A, Element B und Element C“ soll nicht auf wenigstens eines von einem Element A, wenigstens eines von einem Element B und wenigstens eines von einem Element C beschränkt sein.
  • Diese schriftliche Beschreibung verwendet Beispiele, um die Erfindung, einschließlich der besten Weise zu ihrer Ausführung, zu beschreiben und um den Fachmann in die Lage zu versetzen, die Erfindung in die Praxis umzusetzen, wozu auch die Herstellung und Verwendung von Vorrichtungen und Systemen und die Ausführung enthaltener Verfahren gehören. Der schutzwürdige Umfang der Erfindung wird von den Ansprüchen definiert und kann andere Beispiele einschließen, die für den Fachmann naheliegend sein mögen. Diese anderen Beispiele sollen in dem Umfang der Ansprüche liegen, wenn sie strukturelle Elemente aufweisen, die sich vom Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie gleichwertige strukturelle Elemente aufweisen, die sich vom Wortsinn der Ansprüche nur unerheblich unterscheiden.
  • Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle 845 an einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung. Das Verfahren umfasst ein Platzieren eines ersten Cursors 831 auf einem Bild 800 des Objektes 202, um eine erste Schnittebene 881 und eine erste Oberflächenkonturlinie 891 festzulegen, sowie ein Platzieren eines weiteren Cursors 833, zu dem ersten Cursor 831 versetzt, der verwendet wird, um eine versetzte (zweite) Schnittebene 882 und eine versetzte (zweite) Oberflächenkonturlinie 892 festzulegen. Anschließend werden Profilschnittebenen 843 und Profiloberflächenkonturlinien 844 zwischen entsprechenden Punkten 841, 842 auf der ersten Oberflächenkonturlinie 891 und der versetzten (zweiten) Oberflächenkonturlinie 892 bestimmt, um die interessierende Stelle 845 automatisch zu identifizieren.
  • Bezugszeichenliste
  • 100
    Videoinspektionsvorrichtung
    102
    Sonde
    110
    Einführungsrohr
    112
    Bildgeberkabelbaum
    120
    Kopfbaugruppe
    122
    Sondenoptik
    124
    Bildgeber
    126
    Bildgeberhybrideinrichtung
    130
    lösbare Spitze
    132
    Spitzenbetrachtungsoptik
    140
    Sondenelektronik
    142
    Bildgeberschnittstellenelektronik
    144
    Kalibrierungsspeicher
    146
    Mikrocontroller
    150
    CPU
    152
    CPU-Programmspeicher
    154
    flüchtiger Speicher
    156
    nicht-flüchtiger Speicher
    158
    Computer-I/O-Schnittstelle
    160
    Videoprozessor
    162
    Videospeicher
    170
    integrierte Anzeige
    172
    externer Monitor
    180
    Joystick
    182
    Tasten
    184
    Tastatur
    186
    Mikrofon
    200
    Bild
    202
    betrachtetes Objekt
    204
    Anomalie
    210
    Oberfläche
    221
    Bezugsoberflächenpunkt
    222
    Bezugsoberflächenpunkt
    223
    Bezugsoberflächenpunkt
    224
    tiefster Oberflächenpunkt
    231
    Bezugsoberflächen-Positionsanzeiger
    232
    Bezugsoberflächen-Positionsanzeiger
    233
    Bezugsoberflächen-Positionsanzeiger
    234
    Positionsanzeiger für die tiefste Stelle
    241
    Pixel
    242
    Pixel
    243
    Pixel
    250
    Bezugsoberfläche
    260
    Bezugsoberflächenform
    261
    Bezugsoberflächenpunkt
    262
    Bezugsoberflächenpunkt
    263
    Bezugsoberflächenpunkt
    264
    Bezugsoberflächenpunkt
    270
    Interessierender Bereich
    271
    Form eines interessierenden Bereiches
    280
    Interessierender Bereich
    281
    Form eines interessierenden Bereiches
    282
    grafischer Anzeiger der tiefsten Stelle
    290
    Tiefe
    300
    Verfahren
    310
    Bild der Oberfläche (Schritt)
    320
    3D von Oberflächenpunkten (Schritt)
    330
    Bezugsoberflächen (Schritt)
    340
    interessierender Bereich (Schritt)
    350
    Tiefe der Oberflächenpunkte in des interessierenden Bereiches (Schritt)
    360
    Ort und Tiefe der tiefsten Oberflächenstelle (Schritt)
    400
    Profil
    500
    Bild
    501
    Objektoberflächenpunkt
    502
    Objektoberflächenpunkt (interessierende Stelle)
    503
    Objektoberflächenpunkt
    510
    erste Bezugslinie
    511
    erster Bezugslinienendpunkt (erste Bezugslinie)
    512
    zweiter Bezugslinienendpunkt (erste Bezugslinie)
    514
    Bezugslinienpunkt (erste Bezugslinie)
    515
    Bezugslinienpunkt (erste Bezugslinie)
    516
    Bezugslinienpunkt (erste Bezugslinie)
    517
    Bezugslinienpunkt (erste Bezugslinie)
    518
    Bezugslinienpunkt (erste Bezugslinie)
    520
    zweite Bezugslinie
    521
    dritter Bezugslinienendpunkt (zweite Bezugslinie)
    522
    vierter Bezugslinienendpunkt (zweite Bezugslinie)
    524
    Bezugslinienpunkt (zweite Bezugslinie)
    525
    Bezugslinienpunkt (zweite Bezugslinie)
    526
    Bezugslinienpunkt (zweite Bezugslinie)
    527
    Bezugslinienpunkt (zweite Bezugslinie)
    528
    Bezugslinienpunkt (zweite Bezugslinie)
    560
    Bezugsoberfläche
    561
    erstes Pixel (erster Bezugspositionsanzeiger/Cursor)
    562
    zweites Pixel (zweiter Bezugspositionsanzeiger/Cursor)
    563
    drittes Pixel (dritter Bezugspositionsanzeiger/Cursor)
    564
    viertes Pixel (vierter Bezugspositionsanzeiger/Cursor)
    570
    interessierender Bereich
    571
    Form des interessierenden Bereiches
    572
    erster Abstand des interessierenden Bereiches
    573
    zweiter Abstand des interessierenden Bereiches
    574
    Abstand vom Oberflächenpunkt zur Ebene
    575
    Abstand vom Oberflächenpunkt zur Ebene
    580
    Ebene des interessierenden Bereiches (eben zur Bezugsoberfläche)
    581
    erste Bezugslinienebene (eben zur Objektoberfläche)
    582
    zweite Bezugslinienebene (eben zur Objektoberfläche)
    583
    Ebene für die Bezugsoberfläche
    584
    Ebene für die Bezugsoberfläche
    591
    erste Oberflächenkonturlinie
    592
    zweite Oberflächenkonturlinie
    594
    Profiloberflächenkonturlinie
    600
    Profil
    602
    Tiefenmessung
    604
    Tiefenmesswertanzeige
    700
    Verfahren
    710
    Bild der Objektoberfläche (Schritt)
    720
    3D der Objektoberflächenpunkte (Schritt)
    730
    erste Bezugslinie (Schritt)
    732
    3D der ersten Bezugslinienpunkte (Schritt)
    734
    zweite Bezugslinie (Schritt)
    736
    3D der zweiten Bezugslinienpunkte (Schritt)
    740
    Bezugsoberfläche(n) (Schritt)
    750
    interessierende(r) Bereich(e)(Schritt)
    760
    Abstände der Anomalieoberflächenpunkte (Schritt)
    770
    3D der interessierenden Stelle (Schritt)
    780
    3D der Profiloberflächenkonturlinie (Schritt)
    790
    Profil der Objektoberfläche (Schritt)
    800
    Bild
    811
    erster Bezugslinienendpunkt
    812
    zweiter Bezugslinienendpunkt
    813
    versetzter Bezugslinien-Positionierpunkt
    821
    erster Endpunkt der versetzten (zweiten) Oberflächenkonturlinie
    822
    zweiter Endpunkt der versetzten (zweiten) Oberflächenkonturlinie
    831
    erster Positionsanzeiger/Cursor
    832
    zweiter Positionsanzeiger/Cursor
    833
    versetzter Positionsanzeiger/Cursor
    841
    erster Endpunkt der Profilschnittebene
    842
    zweiter Endpunkt der Profilschnittebene
    844
    Profiloberflächenkonturlinie
    845
    interessierende Stelle
    850
    Bezugsoberfläche
    851
    Profilschnittbezugsoberfläche
    861
    erstes Pixel
    862
    zweites Pixel
    863
    drittes Pixel
    881
    erste Schnittebene (eben zur Objektoberfläche)
    882
    versetzte (zweite) Schnittebene (eben zur Objektoberfläche)
    891
    erste Oberflächenkonturlinie
    892
    versetzte (zweite) Oberflächenkonturlinie
    900
    Bild
    931
    erster Positionsanzeiger/Cursor
    932
    zweiter Positionsanzeiger/Cursor
    933
    versetzter Positionsanzeiger/Cursor
    944
    Profiloberflächenkonturlinie
    991
    erste Oberflächenkonturlinie
    992
    versetzte (zweite) Oberflächenkonturlinie

Claims (10)

  1. Verfahren zur automatischen Identifizierung einer interessierenden Stelle (845) an einem betrachteten Objekt (202), wobei das Verfahren die Schritte aufweist: Anzeigen eines Bildes (800) des betrachteten Objektes (202) auf einem Monitor (170, 172); Bestimmen der dreidimensionalen Koordinaten von mehreren Punkten auf einer Oberfläche (210) des betrachteten Objektes (202) unter Verwendung einer zentralen Verarbeitungseinheit (150); Auswählen eines ersten Bezugslinien-Positionierpunktes (811) unter Verwendung einer Zeigevorrichtung; Auswählens eines zweiten Bezugslinien-Positionierpunktes (812) unter Verwendung einer Zeigevorrichtung; Bestimmen einer Bezugsoberfläche (850) basierend auf mehreren Punkten auf der Oberfläche (210) des betrachteten Objektes (202), die dem ersten Bezugslinien-Positionierpunkt (811) und dem zweiten Bezugslinien-Positionierpunkt (812) zugeordnet sind, unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen einer ersten Schnittebene (881), die zu der Bezugsoberfläche (850) senkrecht ausgerichtet ist und einen Punkt auf der Oberfläche (210) des betrachteten Objektes (202), der dem ersten Bezugslinien-Positionierpunkt (811) zugeordnet ist, und einen Punkt auf der Oberfläche (210) des betrachteten Objektes (202) enthält, der dem zweiten Bezugslinien-Positionierpunkt (812) zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen einer ersten Oberflächenkonturlinie (891), die mehrere Punkte auf der Oberfläche (210) des betrachteten Objektes (202) in der Nähe der ersten Schnittebene (881) enthält, unter Verwendung der zentralen Verarbeitungseinheit (150); Auswählen eines versetzten Bezugslinien-Positionierpunktes (813) unter Verwendung einer Zeigevorrichtung; Bestimmen einer versetzten Schnittebene (882), die einen Punkt auf der Oberfläche (210) des betrachteten Objektes (202) enthält, der dem versetzten Bezugslinien-Positionierpunkt zugeordnet ist, unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen einer versetzten Oberflächenkonturlinie (892), die mehrere Punkte auf der Oberfläche (210) des betrachteten Objektes (202) in der Nähe der versetzten Schnittebene (882) enthält, unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen mehrerer Profiloberflächenkonturlinien (844) zwischen der ersten Oberflächenkonturlinie (891) und der versetzten Oberflächenkonturlinie (892) unter Verwendung der zentralen Verarbeitungseinheit (150); und Bestimmen der interessierenden Stelle (845) als die tiefste oder höchste Stelle auf irgendeiner der mehreren Profiloberflächenkonturlinien (844) unter Verwendung der zentralen Verarbeitungseinheit (150).
  2. Verfahren nach Anspruch 1, wobei der erste Bezugslinien-Positionierpunkt (811) und der zweite Bezugslinien-Positionierpunkt (812) Endpunkte der ersten Oberflächenkonturlinie (891) sind.
  3. Verfahren nach Anspruch 1 oder 2, wobei die erste Oberflächenkonturlinie (891) Punkte auf der Oberfläche (210) des betrachteten Objektes (202), die sich auf der ersten Schnittebene (881) befinden, Punkte, die innerhalb eines vorbestimmten Abstandes zu der ersten Schnittebene (881) liegen, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der ersten Schnittebene (881) befinden, oder Punkte enthält, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der ersten Schnittebene (881) befinden.
  4. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, wobei die versetzte Oberflächenkonturlinie (892) Punkte auf der Oberfläche (210) des betrachteten Objektes (202), die sich auf der versetzten Schnittebene (882) befinden, Punkte, die sich innerhalb eines vorbestimmten Abstandes zu der versetzten Schnittebene (882) befinden, Punkte, die Pixeln zugeordnet sind, die sich diagonal berühren oder nebeneinanderliegend berühren und die sich auf gegenüberliegenden Seiten der versetzten Schnittebene (882) befinden, oder Punkte enthält, die aus Punkten interpoliert sind, die sich diagonal oder nebeneinanderliegend berührenden Pixeln zugeordnet sind, die sich auf gegenüberliegenden Seiten der versetzten Schnittebene (882) befinden.
  5. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, das ferner die Schritte aufweist: Bestimmen mehrerer möglicher Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten für die versetzte Oberflächenkonturlinie (892) unter Verwendung der zentralen Verarbeitungseinheit (150); Berechnen eines Krümmungsunterschiedswertes zwischen der ersten Oberflächenkonturlinie (891) und der versetzten Oberflächenkonturlinie (892) zwischen jedem der mehreren möglichen Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten unter Verwendung der zentralen Verarbeitungseinheit (150); und Auswählen eines der mehreren möglichen Paare von ersten und zweiten versetzten Oberflächenkonturlinien-Endpunkten basierend auf dessen Krümmungsunterschiedswert als die Endpunkte der versetzten Oberflächenkonturlinie (892) unter Verwendung der zentralen Verarbeitungseinheit (150).
  6. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, wobei die versetzte Schnittebene (882) zu der ersten Schnittebene (881) parallel verläuft.
  7. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, wobei jede der mehreren Profiloberflächenkonturlinien (844) zwischen der ersten Oberflächenkonturlinie (891) und der versetzten Oberflächenkonturlinie (892) einen ersten Punkt auf oder in der Nähe der ersten Oberflächenkonturlinie (891) und einen zweiten Punkt auf oder in der Nähe der versetzten Oberflächenkonturlinie (892) aufweist.
  8. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, wobei der Schritt des Bestimmens mehrerer Profiloberflächenkonturlinien (844) ferner für jede Profiloberflächenkonturlinie (844) aufweist: Bestimmen eines ersten Profilschnittebenen-Endpunktes (841) auf der ersten Oberflächenkonturlinie (891) unter Verwendung der zentralen Verarbeitungseinheit; Bestimmen eines zweiten Profilschnittebenen-Endpunktes (842) auf der versetzten Oberflächenkonturlinie (892) unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen einer Profilschnittbezugsoberfläche (851) basierend auf wenigstens einem Punkt auf der ersten Oberflächenkonturlinie (891) in der Nähe des ersten Profilschnittebenen-Endpunktes (841) und wenigstens eines Punktes auf der zweiten Oberflächenkonturlinie (892) in der Nähe des zweiten Profilschnittebenen-Endpunktes (842) unter Verwendung der zentralen Verarbeitungseinheit (150); Bestimmen einer Profilschnittebene (843), die zu der Profilschnittbezugsoberfläche (851) senkrecht ausgerichtet ist die und den ersten Profilschnittebenen-Endpunkt (841) und den zweiten Profilschnittebenen-Endpunkt (842) enthält, unter Verwendung der zentralen Verarbeitungseinheit (150); und Bestimmen einer Profiloberflächenkonturlinie (844), die mehrere Punkte auf der Oberfläche des betrachteten Objektes (202) in der Nähe der Profilschnittebene (843) enthält, unter Verwendung der zentralen Verarbeitungseinheit (150).
  9. Verfahren nach Anspruch 8, das ferner die Schritte aufweist: Bestimmen der Abstände zwischen der Profilschnittbezugsoberfläche (851) und den mehreren Punkten auf der Profiloberflächenkonturlinie (844) unter Verwendung der zentralen Verarbeitungseinheit (150); und Bestimmen der dreidimensionalen Koordinaten der interessierenden Stelle (845) auf der Oberfläche, die den größten Abstand zu der Profilschnittbezugsoberfläche (851) aufweist, unter Verwendung der zentralen Verarbeitungseinheit (150).
  10. Verfahren nach einem beliebigen der vorhergehenden Ansprüche, wobei die Bezugsoberfläche (850) eine Bezugsebene ist.
DE102017102228.7A 2016-02-08 2017-02-06 Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt Pending DE102017102228A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/018,587 US9842430B2 (en) 2013-12-17 2016-02-08 Method and device for automatically identifying a point of interest on a viewed object
US15/018587 2016-02-08

Publications (1)

Publication Number Publication Date
DE102017102228A1 true DE102017102228A1 (de) 2017-08-10

Family

ID=59382219

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017102228.7A Pending DE102017102228A1 (de) 2016-02-08 2017-02-06 Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt

Country Status (2)

Country Link
JP (1) JP7098271B2 (de)
DE (1) DE102017102228A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023102837B3 (de) 2023-02-06 2024-04-25 K.A. Schmersal Holding Gmbh & Co. Kg Verfahren zur Definition einer räumlichen Begrenzung eines Schutzbereichs

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392866B2 (ja) 2020-09-09 2023-12-06 日本電気株式会社 異常検出システム、異常検出方法、及びプログラム
JP7392867B2 (ja) 2020-09-09 2023-12-06 日本電気株式会社 異常検出システム、異常検出方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2313868B1 (de) * 2008-07-18 2016-03-16 Vorum Research Corporation Verfahren, vorrichtung, signale und medien zum erstellen einer computerrepräsentation einer dreidimensionalen oberfläche eines geräts für einen lebenden körper
IT1395344B1 (it) * 2009-05-28 2012-09-14 Geosoft S R L Metodo di restituzione fotogrammetrica assistita da nuvola di punti e relativo apparato.
US8760447B2 (en) * 2010-02-26 2014-06-24 Ge Inspection Technologies, Lp Method of determining the profile of a surface of an object
JP5530225B2 (ja) * 2010-03-09 2014-06-25 オリンパス株式会社 内視鏡装置およびプログラム
US9013469B2 (en) * 2011-03-04 2015-04-21 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
JP6446251B2 (ja) * 2014-10-13 2018-12-26 ゼネラル・エレクトリック・カンパニイ 異常の表面上の関心点を自動的に識別するための方法およびデバイス

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023102837B3 (de) 2023-02-06 2024-04-25 K.A. Schmersal Holding Gmbh & Co. Kg Verfahren zur Definition einer räumlichen Begrenzung eines Schutzbereichs

Also Published As

Publication number Publication date
JP2017162452A (ja) 2017-09-14
JP7098271B2 (ja) 2022-07-11

Similar Documents

Publication Publication Date Title
DE102014118015A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
DE102014118424A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle auf der Oberfläche einer Anomalie
DE102017102227A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle in einer Tiefenmessung an einem betrachteten Objekt
US9013469B2 (en) Method and device for displaying a three-dimensional view of the surface of a viewed object
US11308343B2 (en) Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
EP3557523B1 (de) Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
US9842430B2 (en) Method and device for automatically identifying a point of interest on a viewed object
DE102014106482A1 (de) Automatisierte boroskopische Messung beim Sondenpräzisionstest
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
JP6895382B2 (ja) 観視対象の3次元形状を描画する画像と同時に観視対象の2次元画像を表示するための方法および機器
DE102011113138A1 (de) Vorrichtung und Verfahren zur Vermessung von Oberflächen
DE102017102228A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung einer interessierenden Stelle an einem betrachteten Objekt
DE102017112404A1 (de) Vorrichtung und verfahren zur dreidimensionalen untersuchung
DE102016002186A1 (de) Verfahren und Bildverarbeitungsvorrichtung zur Bestimmung einer geometrischen Messgröße eines Objektes
DE102016008744A1 (de) Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is
WO2018133890A1 (de) Verfahren und vorrichtung zum erzeugen eines 3d-thermogramms
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
DE102005043070B4 (de) Verfahren zur hochgenauen dreidimensionalen Vermessung und/oder Rekonstruktion von Objekten mit Hilfe digitaler Bildaufnahmen, beispielsweise zur Bildauswertung von Verkehrsstrecken
DE112020001064T5 (de) System und verfahren zur einstellbaren produktionslinienprüfung
DE102012209664B4 (de) Vorrichtung und verfahren zum kalibrieren von trackingsystemen
WO2013017618A1 (de) Optische oberflächenabtastung mit strukturierter beleuchtung
EP3875892B1 (de) Optische messvorrichtung, verfahren zum erstellen eines messprogramms zur optischen vermessung eines messobjektes und prüfverfahren zur optischen vermessung eines messobjektes
DE102010029627A1 (de) Vorrichtung und Verfahren zur Bestimmung der Struktur einer spiegelnden Oberfläche eines Objekts

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: BAKER HUGHES HOLDINGS LLC, HOUSTON, US

Free format text: FORMER OWNER: GENERAL ELECTRIC COMPANY, SCHENECTADY, N.Y., US

R012 Request for examination validly filed