DE102014118015A1 - Method and apparatus for automatically identifying the lowest point on the surface of an anomaly - Google Patents

Method and apparatus for automatically identifying the lowest point on the surface of an anomaly Download PDF

Info

Publication number
DE102014118015A1
DE102014118015A1 DE102014118015.1A DE102014118015A DE102014118015A1 DE 102014118015 A1 DE102014118015 A1 DE 102014118015A1 DE 102014118015 A DE102014118015 A DE 102014118015A DE 102014118015 A1 DE102014118015 A1 DE 102014118015A1
Authority
DE
Germany
Prior art keywords
anomaly
interest
points
region
reference surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014118015.1A
Other languages
German (de)
Inventor
Clark Alexander Bendall
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baker Hughes Holdings LLC
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102014118015A1 publication Critical patent/DE102014118015A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie auf einem betrachteten Objekts unter Verwendung einer Videoinspektionsvorrichtung. Die Videoinspektionsvorrichtung erstellt ein Bild der Oberfläche des betrachteten Objekts und zeigt dieses an. Es wird eine Bezugsoberfläche zusammen mit einer Region von Interesse bestimmt, die mehrere Punkte auf der Oberfläche der Anomalie enthält. Die Videoinspektionsvorrichtung bestimmt eine Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse. Der Punkt auf der Oberfläche der Anomalie, der die größte Tiefe aufweist, wird als die tiefste Stelle identifiziert.A method and apparatus for automatically identifying the lowest point on the surface of an anomaly on a viewed object using a video inspection device. The video inspection device makes an image of the surface of the object under consideration and displays it. A reference surface is determined along with a region of interest containing multiple points on the surface of the anomaly. The video inspection device determines a depth for each of the multiple points on the surface of the anomaly in the region of interest. The point on the surface of the anomaly that has the greatest depth is identified as the deepest point.

Description

HINTERGRUND ZU DER ERFINDUNGBACKGROUND TO THE INVENTION

Der hierin offenbarte Gegenstand betrifft ein Verfahren und eine Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie eines betrachteten Objekts unter Verwendung einer Videoinspektionsvorrichtung.The subject matter disclosed herein relates to a method and apparatus for automatically identifying the lowest point on the surface of an anomaly of a viewed object using a video inspection device.

Videoinspektionsvorrichtungen, beispielsweise Videoendoskope oder Boreskope, können verwendet werden, um eine Oberfläche eines Objekts zu untersuchen, um Anomalien (z.B. Gruben oder Kerben) auf dem Objekt, die beispielsweise eine Folge von Beschädigung, Abnutzung, Korrosion oder unsachgemäßem Einbau sein können, zu erkennen und zu analysieren. In vielen Fällen ist die Oberfläche des Objekts nicht zugänglich und kann ohne die Verwendung der Videoinspektionsvorrichtung nicht betrachtet werden. Zum Beispiel kann eine Videoinspektionsvorrichtung verwendet werden, um die Oberfläche einer Schaufel einer Turbine an einem Flugzeug oder einer Stromerzeugungseinheit zu untersuchen, um etwaige Anomalien zu erkennen, die sich auf der Oberfläche gebildet haben können, um zu bestimmen, ob irgendeine Reparatur oder eine weitere Wartungsmaßnahme nötig ist. Um die Bewertung durchführen zu können, ist es häufig nötig, hochgenaue dimensionale Messwerte der Oberfläche und der Anomalie zu erhalten, um zu verifizieren, dass die Anomalie einen Betriebsgrenzwert oder eine geforderte Spezifikation für dieses Objekt nicht überschreitet oder außerhalb davon liegt.Video inspection devices, such as video-endoscopes or borescopes, may be used to inspect a surface of an object to detect anomalies (eg, pits or notches) on the object, which may be, for example, a result of damage, wear, corrosion, or improper installation analyze. In many cases, the surface of the object is inaccessible and can not be viewed without the use of the video inspection device. For example, a video inspection device may be used to inspect the surface of a blade of a turbine on an aircraft or power generation unit to detect any anomalies that may have formed on the surface to determine whether there is any repair or other maintenance is necessary. In order to perform the assessment, it is often necessary to obtain highly accurate dimensional surface and anomaly readings to verify that the anomaly does not exceed or exceed an operating limit or specification for that object.

Eine Videoinspektionsvorrichtung kann verwendet werden, um ein zweidimensionales Bild der Oberfläche eines betrachteten Objekts, welches die Anomalie aufweist, zu erhalten und anzuzeigen, um die Dimensionen einer Anomalie auf der Oberfläche zu bestimmen. Dieses zweidimensionale Bild der Oberfläche kann verwendet werden, um dreidimensionale Daten von der Oberfläche zu erzeugen, welche die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Punkten auf der Oberfläche, einschließlich nahe an der Anomalie, liefern. In manchen Videoinspektionsvorrichtungen kann der Anwender die Videoinspektionsvorrichtung in einem Messmodus betätigen, um in einen Messbildschirm zu gelangen, in dem der Anwender Positionsmarkierungen (Cursor) auf dem zweidimensionalen Bild platziert, um geometrische Abmessungen der Anomalie zu bestimmen. In vielen Fällen lässt sich der Umriss eines betrachteten Merkmals aus dem zweidimensionalen Bild nur schwer bestimmen, wodurch eine hochgenaue Platzierung der Positionsmarkierungen in der Nähe der Anomalie schwierig ist. Wenn beispielsweise versucht wird, die Tiefe einer Anomalie zu messen, kann es schwierig sein, aus dem zweidimensionalen Bild den Ort der tiefste Stelle auf der Oberfläche der Anomalie zu bestimmen und eine Positionsmarkierung dort zu platzieren.A video inspection device may be used to obtain and display a two-dimensional image of the surface of a viewed object having the anomaly to determine the dimensions of an anomaly on the surface. This two-dimensional image of the surface can be used to generate three-dimensional data from the surface that provide the three-dimensional coordinates (e.g., (x, y, z)) of multiple points on the surface, including near the anomaly. In some video inspection devices, the user may operate the video inspection device in a metering mode to enter a metering screen in which the user places position markers (cursors) on the two-dimensional image to determine geometrical dimensions of the anomaly. In many cases, it is difficult to determine the outline of a feature of interest from the two-dimensional image, making it difficult to accurately locate the location marks near the anomaly. For example, when trying to measure the depth of an anomaly, it may be difficult to determine from the two-dimensional image the location of the lowest point on the surface of the anomaly and place a position marker there.

In manchen Videoinspektionsvorrichtungen wird die Tiefe einer Anomalie dadurch bestimmt, dass nacheinander drei Positionsmarkierungen um die Anomalie herum platziert werden, um eine Bezugsebene einzurichten, und dann eine vierte Positionsmarkierung auf einem Punkt nicht auf der Ebene platziert wird, um den senkrechten Abstand zwischen der Bezugsebene und der Oberfläche an dem vierten Punkt zu bestimmen. Diese Tiefenmessung wird am häufigsten verwendet, um zu versuchen, die tiefste Stelle auf der Oberfläche der Anomalie zu messen. Nachdem jede Positionsmarkierung unter Verwendung eines Joysticks positioniert worden ist, drückt der Anwender einen Knopf bzw. eine Schaltfläche, um anzuzeigen, dass er mit dieser Positionsmarkierung fertig und bereit für die nächste ist, wonach die neue Positionsmarkierung zunächst einmal willkürlich in der Mitte des Bildschirms positioniert wird. Daher muss der Anwender für die vierte Positionsmarkierung einer Tiefenmessung die Positionsmarkierung aus der Mitte des Bildschirms zu dem Ort der Anomalie bewegen und muss die Positionsmarkierung dann umherbewegen, um die tiefste Stelle auf der Oberfläche der Anomalie manuell zu finden. Dieser Vorgang kann Zeit beanspruchen und hat nicht immer zum Ergebnis, dass die tiefste Stelle identifiziert bzw. gekennzeichnet wird.In some video inspection devices, the depth of an anomaly is determined by successively placing three position marks around the anomaly to establish a reference plane and then placing a fourth position mark on a point not on the plane by the vertical distance between the reference plane and to determine the surface at the fourth point. This depth measurement is most commonly used to try to measure the deepest point on the surface of the anomaly. After each position marker has been positioned using a joystick, the user presses a button or button to indicate that he is finished with that position marker and ready for the next, after which the new position marker is initially positioned arbitrarily in the center of the screen becomes. Therefore, for the fourth position marker of a depth measurement, the user must move the position marker from the center of the screen to the location of the anomaly and then move the position marker around to manually find the lowest point on the surface of the anomaly. This process can take time and does not always result in the lowest point being identified or flagged.

Die obige Erörterung wird nur dargeboten, um allgemeine Hintergrundinformationen zu liefern, und soll nicht als eine Hilfe verwendet werden, um den Umfang des beanspruchten Gegenstands zu bestimmen.The above discussion is offered only to provide general background information and is not to be taken as an aid to determining the scope of the claimed subject matter.

KURZE BESCHREIBUNG DER ERFINDUNGBRIEF DESCRIPTION OF THE INVENTION

Es werden ein Verfahren und eine Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie auf einem betrachteten Objekt unter Verwendung einer Videoinspektionsvorrichtung offenbart. Die Videoinspektionsvorrichtung erstellt ein Bild der Oberfläche des betrachteten Objekts und zeigt dieses an. Es wird eine Bezugsoberfläche zusammen mit einer Region von Interesse bestimmt, die mehrere Punkte auf der Oberfläche der Anomalie enthält. Die Videoinspektionsvorrichtung bestimmt eine Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse. Der Punkt auf der Oberfläche der Anomalie, der die größte Tiefe aufweist, wird als die tiefste Stelle identifiziert. Ein Vorteil, der bei der Umsetzung einiger offenbarter Ausführungsformen des Verfahrens und der Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie verwirklicht werden kann, besteht darin, dass die Zeit für die Durchführung der Tiefenmessung verkürzt ist und die Genauigkeit der Messung verbessert ist, da der Anwender die tiefste Stelle nicht manuell identifizieren muss.A method and apparatus for automatically identifying the lowest point on the surface of an anomaly on a viewed object using a video inspection device is disclosed. The video inspection device makes an image of the surface of the object under consideration and displays it. A reference surface is determined along with a region of interest containing multiple points on the surface of the anomaly. The video inspection device determines a depth for each of the multiple points on the surface of the anomaly in the region of interest. The point on the surface of the anomaly that has the greatest depth is identified as the deepest point. An advantage that can be realized in the implementation of some disclosed embodiments of the method and apparatus for automatically identifying the lowest point on the surface of an anomaly is that the time taken to perform the depth measurement is shortened and the accuracy of the depth measurement Measurement is improved because the user does not have to manually identify the lowest point.

In einem Aspekt [ist] ein Verfahren zur automatischen Identifizierung einer tiefsten Stelle auf einer Oberfläche einer Anomalie auf einer Oberfläche eines betrachteten Objekts [geschaffen]. Das Verfahren umfasst die Schritte: Erstellen eines Bildes von der Oberfläche des betrachteten Objekts mit einem Bildgeber, Anzeigen eines Bildes des betrachteten Objekts auf einem Monitor, Bestimmen der dreidimensionalen Koordinaten mehrerer Punkte auf der Oberfläche des betrachteten Objekts unter Verwendung einer zentralen Verarbeitungseinheit, Bestimmen einer Bezugsoberfläche unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Region von Interesse, die mehrere Punkte auf der Oberfläche der Anomalie enthält, unter Verwendung einer zentralen Verarbeitungseinheit, Bestimmen einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse unter Verwendung einer zentralen Verarbeitungseinheit und Bestimmen des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie unter Verwendung einer zentralen Verarbeitungseinheit.In one aspect, a method is provided for automatically identifying a deepest location on a surface of an anomaly on a surface of a viewed object. The method comprises the steps of: forming an image of the surface of the viewed object with an imager, displaying an image of the object under consideration on a monitor, determining the three-dimensional coordinates of a plurality of points on the surface of the object under consideration using a central processing unit, determining a reference surface using the central processing unit, determining a region of interest containing a plurality of points on the surface of the anomaly, using a central processing unit, determining a depth for each of the multiple points on the surface of the anomaly in the region of interest using a central processing unit and determining the point on the surface of the anomaly in the region of interest having the greatest depth as the deepest point on the surface of the anomaly using a central processing unit.

Das zuvor genannte Verfahren kann ferner den Schritt des Anzeigens eines grafischen Anzeigers auf dem Monitor an dem Ort der tiefsten Stelle auf der Oberfläche der Anomalie auf dem Bild von der Oberfläche der Anomalie umfassen.The aforementioned method may further include the step of displaying a graphical indicator on the monitor at the location of the lowest point on the surface of the anomaly on the image of the surface of the anomaly.

In einer bevorzugten Ausführungsform ist der grafische Anzeiger ein PositionsanzeigerIn a preferred embodiment, the graphical indicator is a position indicator

Das Verfahren kann dann ferner die folgenden Schritte umfassen: Überwachen der Bewegung des Positionsanzeigers in der Region von Interesse unter Verwendung der zentralen Verarbeitungseinheit, Erfassen, ob der Positionsanzeiger aufgehört hat, sich zu bewegen, unter Verwendung der zentralen Verarbeitungseinheit, Bestimmen einer Tiefe für jeden von mehreren Punkten auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers unter Verwendung einer zentralen Verarbeitungseinheit, Identifizieren des Punktes auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers unter Verwendung einer zentralen Verarbeitungseinheit und Bewegen des Positionsanzeigers zu der tiefsten Stelle auf der Oberfläche der Anomalie in der Nähe des PositionsanzeigersThe method may further comprise the steps of: monitoring movement of the cursor in the region of interest using the central processing unit, detecting whether the cursor has stopped moving using the central processing unit, determining a depth for each of a plurality of points on the surface of the anomaly near the position indicator using a central processing unit, identifying the point on the surface of the anomaly near the position indicator having the greatest depth as the deepest point on the surface of the anomaly in the vicinity the position indicator using a central processing unit and moving the position indicator to the lowest point on the surface of the anomaly in the vicinity of the position indicator

Das Verfahren jeder der oben genannten Arten kann ferner die Schritte des Bestimmens der Tiefe der tiefsten Stelle auf der Oberfläche der Anomalie und des Anzeigens der Tiefe der tiefsten Stelle auf der Oberfläche der Anomale auf dem Monitor umfassen.The method of each of the above types may further comprise the steps of determining the depth of the lowest point on the surface of the anomaly and displaying the depth of the deepest point on the surface of the anomalies on the monitor.

Das Bild von jedem der oben genannten Verfahren kann ein zweidimensionales Bild sein.The image of each of the above methods may be a two-dimensional image.

In einer Ausführungsform des Verfahrens jeder der oben genannten Arten umfasst der Schritt des Bestimmens einer Bezugsoberfläche das Auswählen von mehreren Bezugsoberflächenpunkten auf der Oberfläche des betrachteten Objekts in der Nähe der Anomalie unter Verwendung einer Zeigevorrichtung und das Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten von den mehreren Bezugsoberflächenpunkten.In an embodiment of the method of each of the above-mentioned types, the step of determining a reference surface comprises selecting a plurality of reference surface points on the surface of the object under consideration in the vicinity of the anomaly by using a pointing device and performing a curve fitting of the three-dimensional coordinates of the plurality of reference surface points.

In einer alternativen Ausführungsform umfasst der Schritt des Bestimmens einer Bezugsoberfläche das Platzieren einer Bezugsoberflächenform in der Nähe der Anomalie unter Verwendung einer Zeigevorrichtung, wobei die Bezugsoberflächenform mehrere Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts umfasst, und das Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten der mehreren Bezugsoberflächenpunkte.In an alternative embodiment, the step of determining a reference surface comprises placing a reference surface shape in the vicinity of the anomaly using a pointing device, wherein the reference surface shape comprises a plurality of reference surface points on the surface of the object being viewed, and performing a curve fit of the three-dimensional coordinates of the plurality of reference surface points.

Die Bezugsoberfläche jedes der oben genannten Verfahren ist vorzugsweise eine Ebene, ein Zylinder oder eine Kugel.The reference surface of each of the above methods is preferably a plane, a cylinder or a sphere.

In der Ausführungsform des oben genannten Verfahrens, welches das Auswählen von mehreren Bezugsoberflächenpunkten enthält, kann der Schritt des Bestimmens einer Region von Interesse, die mehrere Punkte auf der Oberfläche der Anomalie enthält, das Ausbilden einer Form der Region von Interesse in der Nähe der Anomalie auf Basis der Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts umfassen.In the embodiment of the above method including selecting a plurality of reference surface points, the step of determining a region of interest containing a plurality of points on the surface of the anomaly may include forming a shape of the region of interest in the vicinity of the anomaly Base of the reference surface points on the surface of the object under consideration.

Außerdem kann die Form der Region von Interesse dadurch ausgebildet werden, dass eine Form durch die oder in der Nähe der Bezugsoberflächenpunkte geführt wird.In addition, the shape of the region of interest may be formed by passing a shape through or near the reference surface points.

Alternativ oder zusätzlich dazu ist die Form der Region von Interesse vorzugsweise ein Kreis, ein Quadrat, ein Rechteck, ein Dreieck oder ein Zylinder.Alternatively or additionally, the shape of the region of interest is preferably a circle, a square, a rectangle, a triangle, or a cylinder.

In dem Verfahren jeder der oben genannten Arten kann der Schritt des Bestimmens einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse das Bestimmen der Länge einer Linie, die zwischen der Bezugsoberfläche und den einzelnen Punkten verläuft, umfassen, wobei die Linie die Bezugsoberfläche senkrecht schneidet.In the method of each of the above-mentioned modes, the step of determining a depth for each of the plurality of points on the surface of the anomaly in the region of interest may include determining the length of a line passing between the reference surface and the individual points, wherein the line intersects the reference surface perpendicularly.

Zusätzlich oder alternativ dazu kann der Schritt des Bestimmens des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie das Auswählen des Punktes mit der längsten Linie, die zwischen der Bezugsoberfläche und jedem von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse verläuft, umfassen. Additionally or alternatively, the step of determining the point on the surface of the anomaly in the region of interest having the greatest depth as the lowest point on the surface of the anomaly may include selecting the point with the longest line between the reference surface and each of the multiple points on the surface of the anomaly in the region of interest.

In dem Verfahren jeder der oben genannten Arten kann die tiefste Stelle auf der Oberfläche der Anomalie in der Region von Interesse in Bezug auf die Bezugsoberfläche zurückgesetzt sein.In the method of each of the above-mentioned types, the deepest spot on the surface of the anomaly may be reset in the region of interest with respect to the reference surface.

Alternativ kann die tiefste Stelle auf der Oberfläche der Anomalie in der Region von Interesse in Bezug auf die Bezugsoberfläche vorstehen.Alternatively, the lowest point on the surface of the anomaly may protrude in the region of interest with respect to the reference surface.

In einem anderen Aspekt [ist] eine Vorrichtung zur automatischen Identifizierung einer tiefsten Stelle auf einer Oberfläche einer Anomalie auf einer Oberfläche eines betrachteten Objekts [geschaffen]. Die Vorrichtung umfasst einen Bildgeber zum Erstellen eines Bildes von der Oberfläche des betrachteten Objekts, einen Monitor zum Anzeigen eines Bildes des betrachteten Objekts und eine zentrale Verarbeitungseinheit zum Bestimmen der dreidimensionalen Koordinaten mehrerer Punkte auf der Oberfläche des betrachteten Objekts, zum Bestimmen einer Bezugsoberfläche, zum Bestimmen einer Region von Interesse, die mehrere Punkte auf der Oberfläche der Anomalie enthält, zum Bestimmen einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse und zum Bestimmen des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie.In another aspect, an apparatus for automatically identifying a deepest spot on a surface of an anomaly on a surface of a viewed object is provided. The apparatus comprises an imager for taking an image of the surface of the object under consideration, a monitor for displaying an image of the object under consideration, and a central processing unit for determining the three-dimensional coordinates of a plurality of points on the surface of the object under consideration, for determining a reference surface, for determining a region of interest containing a plurality of points on the surface of the anomaly for determining a depth for each of the multiple points on the surface of the anomaly in the region of interest and for determining the point on the surface of the anomaly in the region of interest , which has the greatest depth, as the deepest point on the surface of the anomaly.

Die zuvor genannte Vorrichtung kann ferner eine Zeigevorrichtung zum Auswählen mehrerer Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts in der Nähe der Anomalie umfassen, wobei die mehreren Bezugsoberflächenpunkte verwendet werden können, um die Bezugsoberfläche durch Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten der mehreren Bezugsoberflächenpunkte zu bestimmen.The aforementioned apparatus may further comprise a pointing device for selecting a plurality of reference surface points on the surface of the object under consideration in the vicinity of the anomaly, wherein the plurality of reference surface points may be used to determine the reference surface by making a curve fit of the three-dimensional coordinates of the plurality of reference surface points.

Die oben genannte Vorrichtung kann alternativ dazu ferner eine Zeigevorrichtung umfassen, um eine Bezugsoberflächenform in der Nähe der Anomalie zu platzieren, wobei die Bezugsoberflächenform mehrere Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts umfasst und wobei die mehreren Bezugsoberflächenpunkte verwendet werden können, um die Bezugsoberfläche durch Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten der mehreren Bezugsoberflächenpunkte zu bestimmen.The above-mentioned apparatus may alternatively comprise a pointing device for placing a reference surface shape in the vicinity of the anomaly, wherein the reference surface shape comprises a plurality of reference surface points on the surface of the object under consideration and wherein the plurality of reference surface points may be used to make the reference surface pass through Curve fitting of the three-dimensional coordinates of the plurality of reference surface points to determine.

Die kurze Beschreibung der Erfindung soll nur einen kurzen Überblick über den hierin offenbarten Gegenstand gemäß einer oder mehrerer erläuternder Ausführungsformen liefern und dient nicht als Leitfaden zur Interpretierung der Ansprüche oder zur Definition oder Begrenzung des Umfangs der Erfindung, der nur von den beigefügten Ansprüchen definiert wird. Diese kurze Beschreibung wird abgegeben, um in vereinfachter Form eine erläuternde Auswahl von Konzepten vorzustellen, die nachstehend in der detaillierten Beschreibung näher beschrieben sind. Diese kurze Beschreibung ist nicht dazu gedacht, die wichtigsten Merkmale oder wesentliche Merkmale des beanspruchten Gegenstands zu identifizieren, und sie soll auch nicht als Hilfsmittel verwendet werden, um den Umfang des beanspruchten Gegenstands zu bestimmen. Der beanspruchte Gegenstand ist nicht auf Implementierungen beschränkt, welche irgendwelche oder alle Nachteile, die in dem Hintergrundabschnitt erwähnt sind, lösen.The brief description of the invention is intended to provide a brief overview of the subject matter disclosed herein, in accordance with one or more illustrative embodiments, and is not intended as a guide to interpret the claims or to define or limit the scope of the invention, which is defined only by the appended claims. This brief description is provided to introduce in simplified form an illustrative selection of concepts, which are described in more detail below in the detailed description. This brief description is not intended to identify key features or essential features of the claimed subject matter, nor is it intended to be used as a tool to determine the scope of the claimed subject matter. The claimed subject matter is not limited to implementations that solve any or all of the disadvantages mentioned in the Background section.

KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Damit die Merkmale der Erfindung verständlich werden, kann eine detaillierte Beschreibung der Erfindung auf bestimmte Ausführungsformen Bezug nehmen, von denen einige in den beigefügten Zeichnungen veranschaulicht sind. Man beachte jedoch, dass die Zeichnungen nur bestimmten Ausführungsformen der Erfindung darstellen und daher nicht als Beschränkung ihres Umfangs aufzufassen sind, da der Umfang der Erfindung andere gleich wirksame Ausführungsformen umfasst. Die Zeichnungen sind nicht unbedingt maßstabsgetreu, wobei der Schwerpunkt allgemein auf der Verdeutlichung der Merkmale bestimmter Ausführungsformen der Erfindung liegt. In den Zeichnungen werden gleiche Bezugszahlen verwendet, um gleiche Teile in den verschiedenen Ansichten zu bezeichnen. Um die Erfindung besser verständlich zu machen, kann somit auf die folgende detaillierte Beschreibung Bezug genommen werden, die in Verbindung mit den Zeichnungen zu lesen ist, in denen zeigen:In order that the features of the invention may be understood, a detailed description of the invention may be made to certain embodiments, some of which are illustrated in the accompanying drawings. It should be understood, however, that the drawings illustrate only particular embodiments of the invention and are therefore not to be considered as limiting its scope, for the scope of the invention includes other equally effective embodiments. The drawings are not necessarily to scale, the emphasis generally being on illustrating the features of certain embodiments of the invention. In the drawings, like reference numerals are used to designate like parts throughout the several views. In order that the invention may be better understood, reference may now be made to the following detailed description taken in conjunction with the drawings, in which:

1 ein Blockdiagramm einer als Beispiel dienenden Videoinspektionsvorrichtung; 1 a block diagram of an exemplary video inspection device;

2 ein Beispiel für ein Bild, das durch die Videoinspektionsvorrichtung von der Oberfläche eines eine Anomalie aufweisenden betrachteten Objekts erhalten wird, in einem Ausführungsbeispiel der Erfindung; 2 an example of an image obtained by the video inspection device from the surface of an object having an anomaly in an embodiment of the invention;

3 ein Ablaufschema eines Beispiels für ein Verfahren und eine Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie an einem betrachteten Objekt, das in dem Bild von 2 gezeigt ist, in einem Ausführungsbeispiel der Erfindung ist; 3 FIG. 3 is a flowchart of an example of a method and apparatus for automatically identifying the lowest point on the surface of an anomaly on a viewed object. FIG. that in the picture of 2 is shown in one embodiment of the invention;

4 ein Beispiel für eine Bezugsoberfläche, die von der Videoinspektionsvorrichtung bestimmt worden ist; 4 an example of a reference surface determined by the video inspection device;

5 ein Beispiel für eine Region von Interesse, die von der Videoinspektionsvorrichtung bestimmt worden ist; 5 an example of a region of interest determined by the video inspection device;

6 ein anderes Beispiel für eine Region von Interesse zeigt, die von der Videoinspektionsvorrichtung bestimmt worden ist; und 6 shows another example of a region of interest that has been determined by the video inspection device; and

7 eine grafische Darstellung eines Beispiels für ein Profil der Oberfläche des betrachteten Objekts, das in dem Bild von 1 gezeigt ist, in einem Ausführungsbeispiel der Erfindung ist. 7 FIG. 4 is a graphical representation of an example of a profile of the surface of the object under consideration displayed in the image of FIG 1 is shown in one embodiment of the invention.

DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION OF THE INVENTION

1 ist ein Blockdiagramm einer als Beispiel dienenden Videoinspektionsvorrichtung 100. Es sei klargestellt, dass die in 1 gezeigte Videoinspektionsvorrichtung 100 ein Beispiel ist und dass der Umfang der Erfindung nicht auf irgendeine bestimmte Videoinspektionsvorrichtung 100 oder irgendeine bestimmte Gestaltung von Komponenten innerhalb einer Videoinspektionsvorrichtung 100 beschränkt ist. 1 Fig. 10 is a block diagram of an exemplary video inspection apparatus 100 , It should be clarified that the in 1 shown video inspection device 100 an example and that the scope of the invention is not limited to any particular video inspection device 100 or any particular design of components within a video inspection device 100 is limited.

Die Videoinspektionsvorrichtung 100 kann eine längliche Sonde 102 aufweisen, die ein Einführungsrohr 110 und eine Kopfbaugruppe 120, die am distalen Ende des Einführungsrohrs 110 angeordnet ist, umfasst. Das Einführungsrohr 110 kann ein flexibler, rohrförmiger Abschnitt sein, durch den sämtliche Verbindungen zwischen der Kopfbaugruppe 120 und einer Sondenelektronik 140 verlaufen. Die Kopfbaugruppe 120 kann eine Sondenoptik 122 aufweisen, um Licht von dem betrachteten Objekt 202 auf einen Bildgeber 124 zu lenken und zu fokussieren. Die Sondenoptik 122 kann z.B. eine Einzellinse oder eine Linse mit mehreren Komponenten umfassen. Der Bildgeber 124 kann ein Festkörper-CCD- oder CMOS-Bildsensor sein, mit dem ein Bild von dem betrachteten Objekt 202 erhalten wird.The video inspection device 100 can be an elongated probe 102 which have an insertion tube 110 and a head assembly 120 at the distal end of the insertion tube 110 is arranged comprises. The insertion tube 110 may be a flexible, tubular section through which all connections between the head assembly 120 and a probe electronics 140 run. The head assembly 120 can be a probe optics 122 to show light from the object being viewed 202 on an imager 124 to direct and focus. The probe optics 122 For example, it may comprise a single lens or a multi-component lens. The imager 124 may be a solid state CCD or CMOS image sensor that captures an image of the object being viewed 202 is obtained.

Eine abnehmbare Spitze oder ein Adapter 130 kann an dem distalen Ende der Kopfbaugruppe 120 angeordnet sein. Die abnehmbare Spitze 130 kann eine Spitzenbetrachtungsoptik 132 (z.B. Linsen, Fenster oder Öffnungen) aufweisen, die mit der Sondenoptik 122 zusammenwirkt, um Licht von dem betrachteten Objekt 202 auf einen Bildgeber 124 zu lenken und zu fokussieren. Die abnehmbare Spitze 130 kann auch Beleuchtungs-LEDs (nicht dargestellt) aufweisen, wenn die Lichtquelle für die Videoinspektionsvorrichtung 100 von der Spitze 130 ausgeht, oder sie kann ein lichtdurchlässiges Element (nicht dargestellt) aufweisen, das Licht von der Sonde 102 zu dem betrachteten Objekt 202 durchlässt. Die Spitze 130 kann auch die Fähigkeit zur seitlichen Betrachtung verleihen, wenn ein Wellenleiter (z.B. ein Prisma) aufgenommen wird, um den Kamerablick und die Lichtausgabe zur Seite zu drehen. Die Spitze 130 kann auch eine stereoskopische Optik oder strukturiertes Licht projizierende Elemente aufweisen, die verwendet werden, um dreidimensionale Daten der betrachteten Oberfläche zu bestimmen. Die Elemente, die in der Spitze 130 enthalten sein können, können auch in der Sonde 102 selbst enthalten sein.A removable tip or adapter 130 can be at the distal end of the head assembly 120 be arranged. The removable top 130 can be a top-viewing optic 132 (For example, lenses, windows or openings), with the probe optics 122 interacts to receive light from the object under consideration 202 on an imager 124 to direct and focus. The removable top 130 may also have illumination LEDs (not shown) when the light source for the video inspection device 100 from the top 130 or it may have a translucent element (not shown) that receives light from the probe 102 to the object under consideration 202 pass through. The summit 130 Also, it can impart the lateral viewing ability when a waveguide (eg, a prism) is picked up to turn the camera view and the light output to the side. The summit 130 may also include stereoscopic optics or structured light projecting elements used to determine three-dimensional data of the viewed surface. The elements in the top 130 may also be contained in the probe 102 to be self contained.

Der Bildgeber 134 kann mehrere Pixel aufweisen, die in mehreren Zeilen und Spalten ausgebildet sind, und kann Signale in Form von analogen Spannungen erzeugen, die Licht repräsentieren, das auf die einzelnen Pixel des Bildgebers 124 trifft. Die Bildsignale können durch eine Bildgebungshybrideinrichtung 126, die eine Elektronik für die Signalpufferung und -konditionierung bereitstellt, zu einem Kabelbaum 112 des Bildgebers übertragen werden, der Drähte für Steuer- und Videosignale zwischen der Hybrideinrichtung 126 und der Bildgeberschnittstellenelektronik 142 bereitstellt. Die Bildgeberschnittstellenelektronik 142 kann Leistungsversorgungen, einen Taktgenerator zur Erzeugung von Bildsensor-Taktsignalen, ein Analog-Frontend zum Digitalisieren des Bildgeber-Videoausgangssignals und einen Digitalsignalprozessor zum Verarbeiten der digitalisierten Bildgeber-Videodaten in ein besser geeignetes Format enthalten.The imager 134 may comprise a plurality of pixels formed in a plurality of rows and columns, and may generate signals in the form of analog voltages representing light responsive to the individual pixels of the imager 124 meets. The image signals may be transmitted through an imaging hybrid device 126 , which provides electronics for signal buffering and conditioning, to a wiring harness 112 of the imager, the wires for control and video signals between the hybrid device 126 and the imager interface electronics 142 provides. The imager interface electronics 142 may include power supplies, a clock generator for generating image sensor clock signals, an analog front end for digitizing the imager video output signal, and a digital signal processor for processing the digitized imager video data into a more suitable format.

Die Bildgeberschnittstellenelektronik 142 ist Teil der Sondenelektronik 140, die eine Reihe von Funktionen zum Betreiben der Videoinspektionsvorrichtung 10 bereitstellt. Die Sondenelektronik 140 kann außerdem einen Kalibrierungsspeicher 144 aufweisen, der die Kalibrierungsdaten für die Sonde 102 und/oder die Spitze 130 speichert. Ein Mikrocontroller 146 kann ebenfalls in der Sondenelektronik 140 enthalten sein, um mit der Bildgeberschnittstellenelektronik 142 zu kommunizieren, um Verstärkungs- und Belichtungseinstellungen zu bestimmen und einzustellen, Kalibrierungsdaten zu speichern und aus dem Kalibrierungsspeicher 144 auszulesen, das Licht, das zu dem betrachteten Objekt 202 geliefert wird, zu steuern bzw. zu regeln und mit einer zentralen Verarbeitungseinheit (CPU) 150 der Videoinspektionsvorrichtung 100 zu kommunizieren.The imager interface electronics 142 is part of the probe electronics 140 , which provides a number of functions for operating the video inspection device 10 provides. The probe electronics 140 also has a calibration memory 144 comprising the calibration data for the probe 102 and / or the top 130 stores. A microcontroller 146 can also be found in the probe electronics 140 be included with the imager interface electronics 142 to determine and adjust gain and exposure settings, to store calibration data and out of the calibration memory 144 to read out the light that belongs to the object under consideration 202 supplied, to be controlled and with a central processing unit (CPU) 150 the video inspection device 100 to communicate.

Zusätzlich zur Kommunikation mit dem Mikrocontroller 146 kann die Bildgeberschnittstellenelektronik 142 auch mit einem oder mehreren Videoprozessoren 160 kommunizieren. Der Videoprozessor 160 kann ein Videosignal von der Bildgeberschnittstellenelektronik 142 empfangen und Ausgangssignale an verschiedene Monitore 170, 172, einschließlich einer integrierten Anzeige 170 oder eines externen Monitors 172, ausgeben. Die integrierte Anzeige 170 kann ein LCD-Bildschirm sein, der in die Videoinspektionsvorrichtung 100 eingebaut ist, um einem Prüfer verschiedene Bilder oder Daten (z.B. das Bild des betrachteten Objekts 202, Menüs, Positionsanzeiger, Messergebnisse) anzuzeigen. Der externe Monitor 172 kann ein Videomonitor oder ein Computermonitor sein, der mit der Videoinspektionsvorrichtung 100 verbunden ist, um verschiedene Bilder oder Daten anzuzeigen.In addition to communication with the microcontroller 146 can the imager interface electronics 142 also with one or more video processors 160 communicate. The video processor 160 can be a video signal from the encoder interface electronics 142 receive and output signals to different monitors 170 . 172 including an integrated display 170 or an external monitor 172 , output. The integrated display 170 There may be an LCD screen in the video inspection device 100 is built to a reviewer different images or data (eg the image of the object under consideration 202 , Menus, position indicators, measurement results). The external monitor 172 may be a video monitor or a computer monitor connected to the video inspection device 100 connected to display various images or data.

Der Videoprozessor 160 kann Befehle, Zustandsinformationen, Videostreams, Videostandbilder und grafische Overlays an die CPU 150 auszugeben bzw. von dieser zu empfangen und kann aus FPGAs, DSPs oder anderen Verarbeitungselementen bestehen, die Funktionen wie Bildaufnahme, Bildverstärkung, Zusammenführen von grafischen Overlays, Korrektur von Verzerrungen, Bildmittelung, Skalierung, digitales Zoomen, Überlagern, Zusammenführen, Kippen, Bewegungserfassung und Videoformatumwandlung undkompression bereitstellen.The video processor 160 can send commands, state information, video streams, video stills and graphical overlays to the CPU 150 and may consist of FPGAs, DSPs, or other processing elements that perform such functions as image acquisition, image enhancement, merging of graphical overlays, distortion correction, image averaging, scaling, digital zooming, overlaying, merging, tilting, motion detection, and video format conversion and provide compression.

Die CPU 150 kann verwendet werden, um die Anwenderschnittstelle durch den Empfang von Eingaben über einen Joystick 180, Schalter bzw. Tasten 182, eine Tastatur 184 und/oder ein Mikrofon 186 zu bewältigen, zusätzlich dazu, dass sie eine große Anzahl anderer Funktionen, einschließlich Bild-, Video- und Audiospeicherungs- und -abruffunktionen, Systemsteuerung und Messwertverarbeitung, bereitstellt. Der Joystick 180 kann vom Anwender manipuliert werden, um Operationen wie Menüauswahl, Cursorbewegung, Schieberjustierung und Bewegungssteuerung der Sonde 102 durchzuführen, und kann eine Drucktastenfunktion enthalten. Die Schalter bzw. Tasten 182 und/oder die Tastatur 184 können auch für die Menüauswahl und für die Ausgabe von Anwenderbefehlen (z.B. Einfrieren oder Speichern eines Standbildes) an die CPU 150 verwendet werden. Das Mikrofon 186 kann von dem Prüfer verwendet werden, um Sprachbefehle zum Einfrieren oder Speichern eines Standbildes auszugeben.The CPU 150 Can be used to control the user interface by receiving inputs via a joystick 180 , Switches or buttons 182 , a keyboard 184 and / or a microphone 186 in addition to providing a large number of other functions, including image, video and audio storage and retrieval functions, system control and measurement processing. The joystick 180 can be manipulated by the user to perform operations such as menu selection, cursor movement, slider adjustment, and motion control of the probe 102 and may include a push-button function. The switches or buttons 182 and / or the keyboard 184 can also be used for menu selection and for issuing user commands (eg freezing or saving a still image) to the CPU 150 be used. The microphone 186 can be used by the reviewer to issue voice commands to freeze or save a still image.

Der Videoprozessor 160 kann auch mit einem Videospeicher 162 kommunizieren, der von dem Videoprozessor 160 zum Frame-Puffern und zum Zwischenspeichern von Daten während der Verarbeitung verwendet wird. Die CPU 150 kann auch mit einem CPU-Programmspeicher 152 kommunizieren, der Programme speichert, die von der CPU 150 ausgeführt werden. Außerdem kann die CPU 150 mit einem flüchtigen Speicher 154 (z.B. einem RAM) und mit einem nicht-flüchtigen Speicher 156 (z.B. einer Flash-Speichervorrichtung, einem Festplattenlaufwerk, einer DVD oder einer EPROM-Speichervorrichtung) kommunizieren. Der nicht-flüchtige Speicher 156 ist der primäre Speicher für Videostreams und Standbilder.The video processor 160 can also use a video memory 162 communicate by the video processor 160 is used for frame buffering and caching of data during processing. The CPU 150 can also work with a CPU program memory 152 Communicate programs stored by the CPU 150 be executed. Besides, the CPU can 150 with a volatile memory 154 (eg a RAM) and with a non-volatile memory 156 (eg a flash memory device, hard disk drive, DVD or EPROM memory device). The non-volatile memory 156 is the primary storage for video streams and still images.

Die CPU 150 kann auch mit einer Computer-I/O-Schnittstelle 158 kommunizieren, die verschiedene Schnittstellen für periphere Vorrichtungen und Netze bereitstellt, wie USB, Firewire, Ethernet, Audio-I/O und drahtlose Transceiver. Diese Computer-I/O-Schnittstelle 158 kann verwendet werden, um Standbilder, Videostreams oder Audio zu speichern, abzurufen, zu übertragen und/oder zu empfangen. Zum Beispiel kann ein USB-Stick bzw. "Thumb Drive" oder eine CompactFlash-Speicherkarte in die Computer-I/O-Schnittstelle 158 gesteckt werden. Außerdem kann die Videoinspektionsvorrichtung 100 so eingerichtet sein, dass sie Frames von Bilddaten oder Videostream-Daten an einen externen Computer oder Server senden kann. Die Videoinspektionsvorrichtung 100 kann eine TCP/IP-Kommunikationsprotokollsuite enthalten und kann in einem Weitverkehrsnetzes enthalten sein, das mehrere lokale und ferne bzw. Remote-Computer enthält, wobei jeder von diesen Computern ebenfalls eine TCP/IP-Kommunikationsprotokoll-Suite enthält. Dadurch, dass sie die TCP/IP-Kommunikationsprotokoll-Suite enthält, weist die Videoinspektionsvorrichtung 100 mehrere Transportschichtprotokolle, einschließlich TCP und UDP, und mehrere andere Schichtprotokolle auf, einschließlich HTTP und FTP.The CPU 150 can also work with a computer I / O interface 158 which provides various interfaces for peripheral devices and networks, such as USB, Firewire, Ethernet, audio I / O, and wireless transceivers. This computer I / O interface 158 can be used to store, retrieve, transfer and / or receive still images, video streams or audio. For example, a USB stick or "Thumb Drive" or a CompactFlash memory card in the computer I / O interface 158 be plugged. In addition, the video inspection device 100 be configured to send frames of image data or video stream data to an external computer or server. The video inspection device 100 may include a TCP / IP communication protocol suite and may be included in a wide area network that includes multiple local and remote computers, each of which also includes a TCP / IP communication protocol suite. By including the TCP / IP communication protocol suite, the video inspection device assigns 100 multiple transport layer protocols, including TCP and UDP, and several other layer protocols, including HTTP and FTP.

Es sei klargestellt, dass in 1 bestimmte Komponenten als eine einzige Komponente dargestellt sind (z.B. die CPU 150), dass aber auch mehrere separate Komponenten verwendet werden können, um die Funktionen der Komponente auszuführen.It should be made clear that in 1 certain components are represented as a single component (eg the CPU 150 ), but several separate components can be used to perform the functions of the component.

2 ist ein Beispiel für ein Bild 200, das durch die Videoinspektionsvorrichtung 100 von der Oberfläche 210 eines eine Anomalie 204 aufweisenden betrachteten Objekts erhalten wird, in einem Ausführungsbeispiel der Erfindung. In diesem Beispiel ist die Anomalie 204 als eine Kerbe dargestellt, wo in der Anomalie 204 Material von der Oberfläche 210 des betrachteten Objekts 202 durch Beschädigung oder Abnutzung entfernt worden ist. Es sei klargestellt, dass die in diesem Ausführungsbeispiel dargestellte Anomalie 204 nur ein Beispiel ist und dass das Verfahren gemäß der Erfindung auf andere Arten von Unregelmäßigkeiten (z.B. Risse, Korrosionsgruben, Verlust einer Beschichtung, oberflächliche Anlagerungen usw.) angewendet werden kann. Sobald das Bild 200 erhalten worden ist und die Anomalie 204 erkannt worden ist, kann das Bild 200 verwendet werden, um die Abmessungen der Anomalie 204 (z.B. die Höhe oder die Tiefe, die Länge, die Breite, die Fläche, das Volumen, Punkt-zu-Linie, einen Profilschnitt usw.) zu bestimmen. In einer Ausführungsform kann das verwendete Bild 200 ein zweidimensionales Bild 200 der Oberfläche 210 des betrachteten Objekts 202 einschließlich der Anomalie 204 sein. 2 is an example of a picture 200 that through the video inspection device 100 from the surface 210 one anomaly 204 having received viewed object, in one embodiment of the invention. In this example, the anomaly is 204 represented as a notch, where in the anomaly 204 Material from the surface 210 of the considered object 202 has been removed by damage or wear. It should be understood that the anomaly illustrated in this embodiment 204 is only an example and that the method according to the invention can be applied to other types of imperfections (eg cracks, corrosion pits, loss of coating, superficial deposits, etc.). Once the picture 200 has been received and the anomaly 204 has been recognized, the picture can be 200 used to measure the dimensions of the anomaly 204 (eg height or depth, length, width, area, volume, point-to-line, profile section, etc.). In one embodiment, the image used 200 a two-dimensional picture 200 the surface 210 of the considered object 202 including the anomaly 204 be.

3 ist ein Ablaufschema eines Beispiels für ein Verfahren 300 zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche 210 einer Anomalie 204 an einem betrachteten Objekt 202, das in dem Bild 200 von 2 gezeigt ist, in einem Ausführungsbeispiel der Erfindung. Es sei klargestellt, dass die in dem Ablaufschema von 3 beschriebenen Schritte in einer anderen Reihenfolge ausgeführt werden können, als in dem Ablaufschema dargestellt, und dass für manche Ausführungsformen nicht all die Schritte notwendig sind. 3 is a flowchart of an example of a method 300 to automatically identify the lowest point on the surface 210 an anomaly 204 on a viewed object 202 that in the picture 200 from 2 is shown, in one embodiment of the invention. It should be clarified that in the flow chart of 3 described steps can be performed in a different order than shown in the flowchart, and that for some embodiments, not all the steps are necessary.

Im Schritt 310 des Ausführungsbeispiels 300 (3), und wie in 2 dargestellt, kann der Anwender die Videoinspektionsvorrichtung 100 (z.B. den Bildgeber 124) verwenden, um mindestens ein Bild 200 der Oberfläche 210 eines betrachteten Objekts 202, das eine Anomalie 204 aufweist, zu erhalten und dieses auf einem Videomonitor (z.B. einer integrierten Anzeige 170 oder einem externen Monitor 172) anzuzeigen.In step 310 of the embodiment 300 ( 3 ), and as in 2 the user can view the video inspection device 100 (eg the imager 124 ) use at least one image 200 the surface 210 of a considered object 202 That's an anomaly 204 to receive and this on a video monitor (eg an integrated display 170 or an external monitor 172 ).

Im Schritt 320 des Beispielsverfahrens 300 (3) kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten (z.B. (x, y, z)) von mehreren Oberflächenpunkten auf der Oberfläche 210 des betrachteten Objekts 202, einschließlich von Oberflächenpunkten der Anomalie 204, bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung dreidimensionale Daten von dem Bild 200 erzeugen, um die dreidimensionalen Koordinaten zu bestimmen. Es können mehrere existierende Techniken verwendet werden, um die dreidimensionalen Koordinaten der Oberflächenpunkte in dem Bild 200 (2) der Oberfläche 210 zu liefern (z.B. Stereo-, Abtastsysteme, Stereotriangulation, Strukturlichtverfahren, wie Phasenverschiebungsanalyse, Phasenverschiebungs-Moiré, Laserpunktprojektion usw.).In step 320 of the example procedure 300 ( 3 ), the video inspection device 100 (eg the CPU 150 ) the three-dimensional coordinates (eg, (x, y, z)) of several surface points on the surface 210 of the considered object 202 , including surface points of the anomaly 204 , determine. In one embodiment, the video inspection device may obtain three-dimensional data from the image 200 generate to determine the three-dimensional coordinates. Several existing techniques can be used to obtain the three-dimensional coordinates of the surface points in the image 200 ( 2 ) of the surface 210 (eg stereo, scanning, stereotriangulation, pattern light techniques, such as phase shift analysis, phase shift moire, laser spot projection, etc.).

Die meisten solchen Techniken verwenden Kalibrierungsdaten, die unter anderem Daten über optische Eigenschaften enthalten, die verwendet werden, um Fehler in den dreidimensionalen Koordinaten zu verringern, die andernfalls durch optische Verzerrungen hervorgerufen werden würden. Mit einigen Techniken können die dreidimensionalen Koordinaten unter Verwendung eines oder mehrerer Bilder, die in großer Zeitnähe aufgenommen wurden und die projizierten Muster und dergleichen enthalten können, bestimmt werden. Es sei klargestellt, dass Bezugnamen auf dreidimensionale Koordinaten, die unter Verwendung des Bildes 200 bestimmt werden, auch dreidimensionale Koordinaten umfassen können, die unter Verwendung eines oder mehrerer in nahem zeitlichem Abstand aufgenommener Bilder 200 der Oberfläche 210 bestimmt werden, und dass das Bild 200, das dem Anwender während der beschriebenen Operationen angezeigt wird, bei der Bestimmung der dreidimensionalen Koordinaten tatsächlich verwendet worden sein kann, aber nicht muss.Most such techniques use calibration data that includes, among other things, optical property data that is used to reduce errors in the three-dimensional coordinates that would otherwise be caused by optical distortions. With some techniques, the three-dimensional coordinates may be determined using one or more images taken in close proximity to time that may contain the projected patterns and the like. It should be understood that reference names refer to three-dimensional coordinates using the image 200 may also comprise three-dimensional coordinates using one or more close-spaced images 200 the surface 210 be determined and that the picture 200 which may be displayed to the user during the described operations, but may or may not have been used in determining the three-dimensional coordinates.

Im Schritt 330 des Beispielsverfahrens 300 (3), und wie in 4 dargestellt, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Bezugsoberfläche 250 bestimmen. In manchen Ausführungsformen kann die Bezugsoberfläche 250 flach sein, während die Bezugsoberfläche 250 in anderen Ausführungsformen gekrümmt sein kann. Ebenso kann in einer Ausführungsform die Bezugsoberfläche 250 die Form einer Ebene aufweisen, während die Bezugsoberfläche 250 in anderen Ausführungsformen in einer anderen Form (z.B. als Zylinder, Kugel usw.) ausgebildet sein kann. Zum Beispiel kann ein Anwender den Joystick 180 (oder eine andere Zeigevorrichtung (z.B. eine Maus, einen berührungsempfindlichen Bildschirm) der Videoinspektionsvorrichtung 100 verwenden, um einen oder mehrere Bezugsoberflächenpunkte auf der Oberfläche 210 des betrachteten Objekts 202 in der Nähe der Anomalie 204 auszuwählen, um eine Bezugsoberfläche zu bestimmen.In step 330 of the example procedure 300 ( 3 ), and as in 4 shown, the video inspection device 100 (eg the CPU 150 ) a reference surface 250 determine. In some embodiments, the reference surface may 250 be flat while the reference surface 250 in other embodiments may be curved. Similarly, in one embodiment, the reference surface 250 have the shape of a plane while the reference surface 250 may be formed in other embodiments in a different form (eg as a cylinder, ball, etc.). For example, a user can use the joystick 180 (or another pointing device (eg, a mouse, a touch-sensitive screen) of the video inspection device 100 Use one or more reference surface points on the surface 210 of the considered object 202 near the anomaly 204 to select a reference surface.

In einer Ausführungsform, und wie in 4 dargestellt, werden insgesamt drei Bezugsoberflächenpunkte 221, 222, 223 auf der Oberfläche 210 des betrachteten Objekts 202 in der Nähe der Anomalie 204 ausgewählt, um eine Tiefenmessung der Anomalie 204 durchzuführen, wobei die drei Bezugsoberflächenpunkte 221, 222, 223 auf der Oberfläche 210 in der Nähe der Anomalie 204 ausgewählt werden. In einer Ausführungsform können die mehreren Bezugsoberflächenpunkte 221, 222, 223 auf der Oberfläche 210 des betrachteten Objekts 202 dadurch ausgewählt werden, dass Bezugsoberflächen-Positionsanzeiger 231, 232, 233 (oder andere Zeigevorrichtungen) auf Pixeln 241, 242, 243 des Bildes 200 platziert werden, die den mehreren Bezugsoberflächenpunkten 221, 222, 223 auf der Oberfläche 210 entsprechen. In dem Beispiel für die Tiefenmessung kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die dreidimensionalen Koordinaten von jedem von den mehreren Bezugsoberflächenpunkten 221, 222, 223 bestimmen.In one embodiment, and as in 4 are shown, a total of three reference surface points 221 . 222 . 223 on the surface 210 of the considered object 202 near the anomaly 204 selected to make a depth measurement of the anomaly 204 perform, with the three reference surface points 221 . 222 . 223 on the surface 210 near the anomaly 204 to be selected. In an embodiment, the plurality of reference surface points 221 . 222 . 223 on the surface 210 of the considered object 202 be selected by reference surface position indicator 231 . 232 . 233 (or other pointing devices) on pixels 241 . 242 . 243 of the picture 200 are placed, which are the multiple reference surface points 221 . 222 . 223 on the surface 210 correspond. In the example of the depth measurement, the video inspection device 100 (eg the CPU 150 ) the three-dimensional coordinates of each of the plurality of reference surface points 221 . 222 . 223 determine.

Die dreidimensionalen Koordinaten von drei oder mehreren Oberflächenpunkten in der Nähe von einem oder mehreren von den drei Bezugsoberflächenpunkten 221, 222, 223, die auf der Oberfläche 210 in der Nähe der Anomalie 204 ausgewählt worden sind, können verwendet werden, um eine Bezugsoberfläche 250 (z.B. eine Ebene) zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Kurvenanpassung der dreidimensionalen Koordinaten der drei Bezugsoberflächenpunkte 221, 222, 223 durchführen, um eine Gleichung für die Bezugsoberfläche 250 (z.B. für eine Ebene) zu bestimmen, welche die folgende Form aufweist: k0RS + k1RS1·xiRS + k2RS·yiRS1 = ziRS (1) worin (xiRS, yiRS, ziRS) Koordinaten von irgendwelchen drei Dimensionspunkten auf der definierten Bezugsoberfläche 250 sind und k0RS, k1RS und k2RS Koeffizienten sind, die durch eine Kurvenanpassung der dreidimensionalen Koordinaten erhalten werden.The three-dimensional coordinates of three or more surface points near one or more of the three reference surface points 221 . 222 . 223 on the surface 210 near the anomaly 204 can be used to make a reference surface 250 (eg a level). In an embodiment, the video inspection device 100 (eg the CPU 150 ) a curve fit of the three-dimensional coordinates of the three reference surface points 221 . 222 . 223 Perform an equation for the reference surface 250 (eg for a plane), which has the following form: k 0RS + k 1RS1 · x iRS + k 2RS · y iRS1 = z iRS (1) where (x iRS , y iRS , z iRS ) coordinates of any three dimension points on the defined reference surface 250 and k are 0RS , k is 1RS and k is 2RS coefficients obtained by a curve fitting of the three-dimensional coordinates.

Es sei klargestellt, dass mehrere Bezugsoberflächenpunkte (d.h. mindestens so viele Punkte wie die Anzahl der k Koeffizienten) verwendet werden, um die Kurvenanpassung durchzuführen. Die Kurvenanpassung findet die k Koeffizienten, die den besten Fit für die verwendeten Punkte liefern (z.B. die Methode der kleinsten Quadrate). Die k Koeffizienten definieren dann die Ebene oder andere Bezugsoberfläche 250, welche die verwendeten dreidimensionalen Punkte approximiert. Werden in der Kurvenanpassung jedoch mehr Punkte verwendet, als k Koeffizienten vorhanden sind, so stimmen allerdings, wenn man die x- und y-Koordinaten der verwendeten Punkte in die Ebenengleichung (1) einsetzt, die z-Ergebnisse wegen des Rauschens und etwaiger Abweichungen von einer Ebene, die tatsächlich existieren können, im Allgemeinen nicht exakt mit den z-Koordinaten der Punkte überein. Somit können xiRS1 und yiRS1 arbiträre Werte sein, und der resultierende ziRS verrät einem, was z in der definierten Ebene bei xiRS, yiRS ist. Somit können die Koordinaten, die in diesen Gleichungen dargestellt sind, für arbiträre Punkte gelten, die exakt auf der definierten Oberfläche liegen, aber nicht notwendigerweise für die Punkte, die bei der Anpassung verwendet werden, um die k Koeffizienten zu bestimmen.It should be understood that multiple reference surface points (ie, at least as many points as the number of k coefficients) are used to perform the curve fit. The curve fit finds the k coefficients that provide the best fit for the points used (eg the least squares method). The k coefficients then define the plane or other reference surface 250 which approximates the three-dimensional points used. However, if more points are used in the curve fit than k coefficients are present, then if one uses the x and y coordinates of the points used in the plane equation (1), the z results will be due to noise and possible deviations from In general, a plane that can actually exist does not exactly match the z-coordinates of the points. Thus, x iRS1 and y iRS1 may be arbitrary values, and the resulting z iRS reveals what z is in the defined plane at x iRS , y iRS . Thus, the coordinates represented in these equations may apply to arbitrary points that are exactly on the defined surface, but not necessarily to the points used in the fitting to determine the k coefficients.

In anderen Ausführungsformen wird nur einer oder werden nur zwei Bezugsoberflächenpunkte ausgewählt, wodurch die Verwendung der Kurvenanpassung lediglich auf Basis von dreidimensionalen Koordinaten für diese Bezugsoberflächenpunkte nicht in Frage kommt, da drei Punkte benötigt werden, um k0RS, k1RS und k2RS zu bestimmen. In diesem Fall kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) mehrere Pixel in der Nähe der einzelnen Pixel des Bildes identifizieren, die mehreren Punkten auf der Oberfläche 210 in der Nähe des bzw. der Bezugsoberflächenpunkt(e) entsprechen, und die dreidimensionalen Koordinaten des nahen Punkts bzw. der nahen Punkte bestimmen, wodurch eine Kurvenanpassung zur Bestimmung einer Bezugsoberfläche 250 ermöglicht wird.In other embodiments, only one or only two reference surface points are selected, which eliminates the use of curve fitting based solely on three-dimensional coordinates for these reference surface points, since three points are needed to determine k 0RS , k 1RS, and k 2RS . In this case, the video inspection device 100 (eg the CPU 150 ) identify multiple pixels near each pixel of the image, the multiple points on the surface 210 in the vicinity of the reference surface point (s), and determine the three-dimensional coordinates of the near point (s), thereby providing curve fitting for determining a reference surface 250 is possible.

Obwohl das Beispiel für eine Bezugsoberfläche 250 auf Basis von Bezugsoberflächenpunkten 221, 222, 223 beschrieben wurde, die durch Bezugsoberflächen-Positionsanzeiger 231, 232, 233 ausgewählt werden, kann die Bezugsoberfläche 250 in anderen Ausführungsformen unter Verwendung einer Zeigevorrichtung ausgebildet werden, mit der eine Bezugsoberflächenform (z.B. ein Kreis, ein Quadrat, ein Rechteck, ein Dreieck usw.) in die Nähe der Anomalie platziert wird und die Bezugsoberflächenpunkte 261, 262, 263, 264 der Form 260 verwendet werden, um die Bezugsoberfläche 250 zu bestimmen. Es sei klargestellt, dass die Bezugsoberflächenpunkte 261, 262, 263, 264 der Form 260 Punkte, die durch die Zeigevorrichtung ausgewählt werden, oder andere Punkte sein können, die auf oder in der Nähe der Umfangslinie der Form liegen, die so bemessen sein kann, dass sie die Anomalie 204 umschließt.Although the example of a reference surface 250 based on reference surface points 221 . 222 . 223 by reference surface position indicator 231 . 232 . 233 can be selected, the reference surface 250 in other embodiments, using a pointing device with which a reference surface shape (eg, a circle, a square, a rectangle, a triangle, etc.) is placed in the vicinity of the anomaly and the reference surface points 261 . 262 . 263 . 264 the form 260 used to cover the reference surface 250 to determine. It should be understood that the reference surface points 261 . 262 . 263 . 264 the form 260 Points selected by the pointing device or may be other points lying on or near the perimeter of the shape, which may be sized to be the anomaly 204 encloses.

Im Schritt 340 des Beispielsverfahrens 300 (3), und wie in 5 dargestellt, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) eine Region von Interesse 270 in der Nähe der Anomalie 204 auf Basis der Bezugsoberflächenpunkte der Bezugsoberfläche 250. Die Region von Interesse 270 enthält mehrere Oberflächenpunkte der Anomalie 204. In einer Ausführungsform wird eine Region von Interesse 270 durch Ausbilden einer Form der Region von Interesse 271 (z.B. eines Kreises) auf Basis von zwei oder mehreren von den Bezugsoberflächenpunkten 221, 222, 223 gebildet. In einer anderen Ausführungsform kann die Region von Interesse 270 dadurch gebildet werden, dass man einen Zylinder senkrecht zu der Bezugsoberfläche 260 ausbildet und ihn durch oder in die Nähe von zwei oder mehreren von den Bezugsoberflächenpunkten 221, 222, 223 führt. Indem erneut auf 4 Bezug genommen wird, könnte eine Region von Interesse innerhalb der Bezugsoberflächenform 260 und der Bezugsoberflächenpunkte 261, 262, 263, 264 gebildet werden.In step 340 of the example procedure 300 ( 3 ), and as in 5 shown determines the video inspection device 100 (eg the CPU 150 ) a region of interest 270 near the anomaly 204 based on the reference surface points of the reference surface 250 , The region of interest 270 contains several surface points of the anomaly 204 , In one embodiment, a region becomes of interest 270 by forming a shape of the region of interest 271 (eg, a circle) based on two or more of the reference surface points 221 . 222 . 223 educated. In another embodiment, the region of interest 270 be formed by a cylinder perpendicular to the reference surface 260 and train it through or near two or more of the reference surface points 221 . 222 . 223 leads. By again on 4 For example, a region of interest could be within the reference surface shape 260 and the reference surface points 261 . 262 . 263 . 264 be formed.

Obwohl das Beispiel für die Form 271 der Region von Interesse in 5 so gebildet wird, dass sie durch die Bezugsoberflächenpunkte 221, 222, 223 verläuft, kann in einer anderen Ausführungsform eine Bezugsoberflächenform mit kleinerem Durchmesser so gebildet werden, dass sie nur in der Nähe der Bezugsoberflächenpunkte verläuft. Wie in 6 dargestellt ist, wird beispielsweise eine Region von Interesse 280 dadurch gebildet, dass man eine Form 281 der Region von Interesse (z.B. einen Kreis) so anordnet, dass er in der Nähe von zwei der Bezugsoberflächenpunkte 221, 222 verläuft, wobei der Durchmesser des Kreises 281 kleiner ist als der Abstand zwischen den beiden Bezugsoberflächenpunkten 221, 222 ist. Es sei klargestellt, dass die Formen 271, 281 der Region von Interesse und die Regionen von Interesse 270, 280 auf dem Bild 200 dargestellt werden können, aber nicht müssen.Although the example of the form 271 the region of interest in 5 is formed so that it passes through the reference surface points 221 . 222 . 223 In another embodiment, a smaller diameter reference surface shape may be formed to extend only near the reference surface points. As in 6 For example, a region becomes of interest 280 formed by having a shape 281 arranges the region of interest (eg a circle) so that it is near two of the reference surface points 221 . 222 runs, with the diameter of the circle 281 is less than the distance between the two reference surface points 221 . 222 is. It should be made clear that the forms 271 . 281 the region of interest and the regions of interest 270 . 280 in the picture 200 can be represented, but not necessarily.

Nachdem die Region von Interesse 270, 280 bestimmt worden ist, bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) im Schritt 350 des Beispielsverfahrens 300 (3) den Abstand (d.h. die Tiefe) von jedem von den mehreren Oberflächenpunkten in der Region von Interesse zu der Bezugsoberfläche 250. In einer Ausführungsform bestimmt die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die Länge einer Linie, die zwischen der Bezugsoberfläche 250 und jedem von den mehreren Oberflächenpunkten in der Region von Interesse 270, 280 verläuft, wobei die Linie die Bezugsoberfläche 250 senkrecht schneidet.After the region of interest 270 . 280 has been determined determines the video inspection device 100 (eg the CPU 150 ) in step 350 of the example procedure 300 ( 3 ) the distance (ie, the depth) of each of the multiple surface points in the region of interest to the reference surface 250 , In one embodiment, the video inspection device determines 100 (eg the CPU 150 ) the length of a line between the reference surface 250 and each of the multiple surface points in the region of interest 270 . 280 runs, the line being the reference surface 250 vertical cuts.

Im Schritt 360 des Beispielsverfahrens 300 (3) bestimmt die Videoinspektionsvorrichtung den Ort der tiefsten Oberflächenstelle 224 in der Region von Interesse 270, 280 durch Bestimmung des Oberflächenpunktes, der am weitesten von der Bezugsoberfläche 250 entfernt ist (z.B. durch Auswählen des Oberflächenpunktes mit der längsten Linie, die zu der Bezugsoberfläche 250 verläuft). Es sei klargestellt, dass die "tiefste Stelle" oder die "tiefste Oberflächenstelle" eine am weitesten entfernte Stelle, die in Bezug auf die Bezugsoberfläche 250 zurückgesetzt ist, oder eine am weitesten entfernte Stelle sein kann, die von der Bezugsoberfläche 250 vorsteht. Die Videoinspektionsvorrichtung 100 kann die tiefste Oberflächenstelle 224 in der Region von Interesse 270, 280 auf dem Bild durch Anzeigen z.B. eines Positionsanzeigers 234 (5) oder einer anderen grafischen Kennzeichnung 282 (6) auf der tiefsten Oberflächenstelle 224 kennzeichnen. Außerdem kann die Videoinspektionsvorrichtung 100, wie in 5 und 6 dargestellt ist, die Tiefe 290 der tiefsten Oberflächenstelle 224 in der Region von Interesse 270, 280 (z.B. die Länge der senkrechten Linie, die von der tiefsten Oberflächenstelle 224 zu der Bezugsoberfläche 250 verläuft) auf dem Bild 200 (in Zoll oder Millimeter) anzeigen. Dadurch, dass der Positionsanzeiger 234 oder die andere grafische Kennzeichnung 282 (6) automatisch an der tiefsten Oberflächenstelle 224 in der Region von Interesse 270, 280 angezeigt wird, verkürzt die Videoinspektionsvorrichtung 100 die Zeit, die nötig ist, um die Tiefenmessung durchzuführen, und sie verbessert die Genauigkeit der Tiefenmessung, da der Anwender die tiefste Oberflächenstelle 224 in der Anomalie 204 nicht manuell kennzeichnen muss.In step 360 of the example procedure 300 ( 3 ), the video inspection device determines the location of the deepest surface location 224 in the region of interest 270 . 280 by determining the surface point farthest from the reference surface 250 is removed (eg by selecting the surface point with the longest line to the reference surface 250 runs). It should be understood that the "lowest point" or "the deepest surface location" is a farthest point relative to the reference surface 250 is reset, or may be the furthest away from the reference surface 250 protrudes. The video inspection device 100 can be the deepest surface area 224 in the region of interest 270 . 280 in the picture by displaying eg a position indicator 234 ( 5 ) or other graphic designation 282 ( 6 ) on the deepest surface 224 mark. In addition, the video inspection device 100 , as in 5 and 6 is shown, the depth 290 the deepest surface area 224 in the region of interest 270 . 280 (eg, the length of the vertical line from the deepest surface point 224 to the reference surface 250 runs) in the picture 200 (in inches or millimeters). Because of the position indicator 234 or the other graphic designation 282 ( 6 ) automatically at the deepest surface 224 in the region of interest 270 . 280 is displayed, shortens the video inspection device 100 the time it takes to perform the depth measurement, and it improves the accuracy of the depth measurement because the user has the deepest surface location 224 in the anomaly 204 do not have to mark manually.

Sobald der Positionsanzeiger 234 an der tiefsten Oberflächenstelle 224 in der Region von Interesse 270, 280 angezeigt wird, kann der Anwender diesen Punkt auswählen und eine Tiefenmessung vornehmen und speichern. Der Anwender kann außerdem den Positionsanzeiger 234 in der Region von Interesse 270, 280 bewegen, um die Tiefe anderer Oberflächenpunkte in der Region von Interesse 270, 280 zu bestimmen. In einer Ausführungsform kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die Bewegung des Positionsanzeigers 234 überwachen und erfassen, wenn der Positionsanzeiger 234 aufgehört hat sich zu bewegen. Wenn sich der Positionsanzeiger 234 über eine vorgegebene Zeit (z.B. 1 Sekunde) nicht mehr bewegt hat, kann die Videoinspektionsvorrichtung 100 (z.B. die CPU 150) die tiefste Oberflächenstelle in der Nähe des Positionsanzeigers 234 (z.B. in einem vorgegebenen Kreis mit dem Positionsanzeiger 234 als Mittelpunkt) bestimmen und den Positionsanzeiger 234 automatisch in diese Position überführen.Once the cursor 234 at the deepest surface 224 in the region of interest 270 . 280 is displayed, the user can select this point and make a depth measurement and save. The user can also see the cursor 234 in the region of interest 270 . 280 move to the depth of other surface points in the region of interest 270 . 280 to determine. In an embodiment, the video inspection device 100 (eg the CPU 150 ) the movement of the position indicator 234 monitor and record when the cursor is 234 has stopped moving. When the cursor is 234 has not moved for a predetermined time (eg 1 second), the video inspection device 100 (eg the CPU 150 ) the deepest surface location near the cursor 234 (eg in a given circle with the cursor 234 as the center point) and the position indicator 234 automatically transfer to this position.

7 ist eine grafische Darstellung eines Beispielsprofils 400 der Oberfläche 210 des betrachteten Objekts 202, das in dem Bild 200 von 1 gezeigt ist. In diesem Beispielsprofil 400 ist die Bezugsoberfläche 250 veranschaulicht, wie sie sich zwischen zwei Bezugsoberflächenpunkten 221, 222 und ihren jeweiligen Bezugsoberflächen-Positionsanzeigern 231, 232 erstreckt. Der Ort und die Tiefe 290 der tiefsten Oberflächenstelle 224 in der Region von Interesse sind in der grafischen Darstellung ebenfalls gezeigt. In einer anderen Ausführungsform kann auch eine Punktwolkenansicht verwendet werden, um die tiefste Oberflächenstelle 224 zu zeigen. 7 is a graphical representation of a sample profile 400 the surface 210 of the considered object 202 that in the picture 200 from 1 is shown. In this example profile 400 is the reference surface 250 illustrates how it relates between two reference surface points 221 . 222 and their respective reference surface position indicators 231 . 232 extends. The place and the depth 290 the deepest surface area 224 in the region of interest are also shown in the graph. In another embodiment, a point cloud view may also be used to determine the deepest surface location 224 to show.

Wie aus den obigen Ausführungen hervorgeht, bestimmen Ausführungsformen der Erfindung automatisch die Tiefe einer Anomalie auf einer Oberfläche. Eine technische Wirkung besteht darin, dass die Zeit, die nötig ist, um die Tiefenmessung durchzuführen, verkürzt ist und außerdem die Genauigkeit der Tiefenmessung verbessert ist, da der Anwender die tiefste Stelle nicht manuell kennzeichnen muss.As is apparent from the above, embodiments of the invention automatically determine the depth of an anomaly on a surface. A technical effect is that the time required to perform the depth measurement is shortened and, moreover, the accuracy of the depth measurement is improved since the user does not have to manually mark the deepest point.

Wie ein Fachmann erkennen wird, können Aspekte der vorliegenden Erfindung als ein System, Verfahren oder Computerprogrammprodukt verkörpert werden. Demgemäß können Aspekte der vorliegenden Erfindung die Form einer ganz und gar aus Hardware bestehenden Ausführungsform, einer ganz und gar aus Software bestehenden Ausführungsform (was auch Firmware, residente Software, Mikro-Code usw. einschließt) oder einer Ausführungsform, die Software- und Hardware-Aspekte kombiniert, annehmen, die hierin alle als "Dienst", "Stromkreis", "Schaltung", "Modul" und/oder "System" bezeichnet werden können. Ferner können Aspekte der vorliegenden Erfindung die Form eines Computerprogrammprodukts annehmen, das in einem computerlesbaren Medium oder mehreren computerlesbaren Medien verkörpert sein kann, in dem bzw. denen computerlesbarer Code verkörpert ist.As one skilled in the art will appreciate, aspects of the present invention may be embodied as a system, method, or computer program product. Accordingly, aspects of the present invention may take the form of an all-hardware embodiment, an all-software embodiment (including firmware, resident software, micro-code, etc.) or an embodiment, software and hardware. Aspects combined, all of which may be referred to herein as "service", "circuit", "circuit", "module" and / or "system". Further, aspects of the present invention may take the form of a computer program product that may be embodied in a computer-readable medium or multiple computer-readable media in which computer-readable code is embodied.

Es können beliebige Kombinationen aus einem computerlesbaren Medium oder mehreren computerlesbaren Medien verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann z.B. ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -gerät oder -element oder jede geeignete Kombination der genannten sein, ohne darauf beschränkt zu sein. Spezifischere Beispiele (eine nicht erschöpfende Liste) für das computerlesbare Speichermedium würden die folgenden enthalten: eine elektrische Verbindung mit einem oder mehreren Drähten, eine tragbare Computerdiskette, eine Festplatte, einen Schreib-Lese-Speicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren, nicht wiederbeschreibbaren CD-Speicher (CD-ROM), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder jede geeignete Kombination der oben genannten. Im Kontext dieses Dokuments kann ein computerlesbares Speichermedium jedes materielle Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem Befehlsausführungssystem, -apparat oder -element enthalten oder speichern kann.Any combination of a computer-readable medium or multiple computer-readable media may be used. The computer readable medium may be a computer readable signal medium or a computer readable storage medium. A computer-readable storage medium may be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared, or semiconductor system, device, or element, or any suitable combination of the foregoing. More specific examples (a non-exhaustive list) of the computer readable storage medium would include the following: an electrical connection to one or more of the following a plurality of wires, a portable computer disk, a hard disk, a random access memory (RAM), a read only memory (ROM), an erasable programmable read only memory (EPROM or flash memory), an optical fiber, a portable non-rewritable CD memory (CD-ROM), an optical storage device, a magnetic storage device, or any suitable combination of the above. In the context of this document, a computer-readable storage medium may be any tangible medium that may contain or store a program for use by or in connection with an instruction execution system, apparatus, or item.

Ein Programmcode und/oder ausführbare Befehle, der bzw. die auf einem computerlesbaren Medium verkörpert ist bzw. sind, kann bzw. können mittels eines beliebigen geeigneten Mediums übertragen werden, was drahtlos, über Drahtleitung, optisches Faserkabel, HF usw. oder irgendeine geeignete Kombination der genannten einschließt, ohne darauf beschränkt zu sein.Program code and / or executable instructions embodied on a computer readable medium may be transmitted by any suitable means, including wireless, wireline, optical fiber cable, RF, etc., or any suitable combination includes, but is not limited to.

Ein Computerprogrammcode zur Durchführung von Arbeitsschritten für Aspekte der vorliegenden Erfindung kann in einer beliebigen Kombination einer oder mehrerer Programmiersprachen geschrieben sein, wozu eine objektorientierte Programmiersprache, wie Java, Smalltalk, C++ oder dergleichen, und herkömmliche prozedurale Programmiersprachen, wie die "C"-Programmiersprache oder ähnliche Programmiersprachen, gehören. Der Programmcode kann vollständig auf dem Computer (der Vorrichtung) des Anwenders, teilweise auf dem Computer des Anwenders, als eigenständiges Softwarepaket, zum Teil auf dem Computer des Anwenders und zum Teil auf einem Remote-Computer oder ganz und gar auf dem Remote-Computer oder einem Server ausgeführt werden. Im letztgenannten Szenario kann der Remote-Computer über irgendeine Art von Netz mit dem Computer des Anwenders verbunden sein, was unter anderem ein lokales Netz (LAN) oder ein Weitverkehrsnetz (WAN) umfasst, oder die Verbindung kann mit einem externen Computer (beispielsweise über das Internet unter Nutzung eines Internetdienstanbieters) hergestellt werden.Computer program code for performing operations for aspects of the present invention may be written in any combination of one or more programming languages, including an object-oriented programming language such as Java, Smalltalk, C ++ or the like, and conventional procedural programming languages such as the "C" programming language or similar programming languages. The program code may be stored completely on the user's computer (the device), partly on the user's computer, as a stand-alone software package, partly on the user's computer and partly on a remote computer or entirely on the remote computer or a server. In the latter scenario, the remote computer may be connected to the user's computer via some type of network including, but not limited to, a local area network (LAN) or wide area network (WAN), or the connection may be to an external computer (e.g. Internet using an Internet service provider) are produced.

Aspekte der vorliegenden Erfindung sind hierin mit Bezug auf Darstellungen von Ablaufschemata und/oder Blockdiagramme von Verfahren, Apparaten (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es sei klargestellt, dass jeder Block der dargestellten Ablaufschemata und/oder Blockdiagramme und Kombinationen von Blöcken in den dargestellten Ablaufschemata und/oder Blockdiagrammen durch Computerprogrammbefehle implementiert werden kann. Die Computerprogrammbefehle können an einen Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung geliefert werden, um eine Maschine hervorzubringen, so dass die Befehle, die über den Prozessor des Computers oder der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführt werden, eine Einrichtung zur Implementierung der Funktionen/Aspekte erzeugen, welche in dem Ablaufschema und/oder in dem Block oder den Blöcken des Blockschemas angegeben sind.Aspects of the present invention are described herein with reference to flowchart illustrations and / or block diagrams of methods, apparatus (systems) and computer program products according to embodiments of the invention. It should be understood that each block of the illustrated flowcharts and / or block diagrams and combinations of blocks in the illustrated flowcharts and / or block diagrams may be implemented by computer program instructions. The computer program instructions may be provided to a processor of a general-purpose computer, a special purpose computer, or other programmable data processing device to spawn a machine such that the instructions executed via the processor of the computer or other programmable data processing device include means for implementing the functions. Create aspects that are specified in the flowchart and / or in the block or blocks of the block schema.

Diese Computerprogrammbefehle können auch in einem computerlesbaren Medium gespeichert werden, das einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen anweisen kann, auf eine bestimmte Art zu funktionieren, so dass die Befehle, die in dem computerlesbaren Medium gespeichert sind, ein Erzeugnis hervorbringen, das Befehle enthält, welche die Funktion/Aktion implementieren, die in dem Ablaufschema und/der in dem Block oder in den Blöcken des Blockdiagramms angegeben ist.These computer program instructions may also be stored in a computer-readable medium that may instruct a computer, other programmable computing device, or other devices to function in a particular manner so that the instructions stored in the computer-readable medium produce a product Contains instructions that implement the function / action specified in the flowchart and / or in the block or blocks of the block diagram.

Die Computerprogrammbefehle können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder andere Vorrichtungen geladen werden, um zu bewirken, dass auf dem Computer, der anderen programmierbaren Vorrichtung oder den anderen Vorrichtungen eine Reihe von Arbeitsschritten ausgeführt werden, um einen computerimplementierten Prozess zu erzeugen, so dass die Befehle, die auf dem Computer oder der anderen programmierbaren Vorrichtung ausgeführt werden, Prozesse zur Implementierung der Funktionen/Aktionen, die in dem Ablaufschema und/oder in dem Block oder in den Blöcken des Blockdiagramms angegeben sind, bereitstellen.The computer program instructions may also be loaded onto a computer, other programmable computing device, or other device to cause a number of operations to be performed on the computer, other programmable device, or other devices to produce a computer-implemented process the instructions executed on the computer or other programmable device provide processes for implementing the functions / actions indicated in the flowchart and / or in the block or blocks of the block diagram.

Diese schriftliche Beschreibung verwendet Beispiele, um die Erfindung, einschließlich der besten Weise zu ihrer Ausführung, zu beschreiben und um den Fachmann in die Lage zu versetzen, die Erfindung in die Praxis umzusetzen, wozu auch die Herstellung und Verwendung von Vorrichtungen und Systemen und die Ausführung enthaltener Verfahren gehören. Der schutzwürdige Umfang der Erfindung wird von den Ansprüchen definiert und kann andere Beispiele einschließen, die für den Fachmann naheliegend sein mögen. Diese anderen Beispiele sollen in dem Umfang der Ansprüche liegen, wenn sie strukturelle Elemnte aufweisen, die sich vom Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie gleichwertige strukturelle Elemente aufweisen, die sich vom Wortsinn der Ansprüche nur unerheblich unterscheiden.This written description uses examples to describe the invention, including the best mode for carrying it out, and to enable one skilled in the art to practice the invention, including the manufacture and use of devices and systems and the practice included in the procedure. The scope of the invention which is to be protected is defined by the claims and may include other examples which may be obvious to those skilled in the art. These other examples are intended to be within the scope of the claims if they have structural elements that do not differ from the literal language of the claims, or if they have equivalent structural elements that differ only insubstantially from the literal language of the claims.

Ein Verfahren und eine Vorrichtung zur automatischen Identifizierung der tiefsten Stelle auf der Oberfläche einer Anomalie auf einem betrachteten Objekts unter Verwendung einer Videoinspektionsvorrichtung. Die Videoinspektionsvorrichtung erstellt ein Bild der Oberfläche des betrachteten Objekts und zeigt dieses an. Es wird eine Bezugsoberfläche zusammen mit einer Region von Interesse bestimmt, die mehrere Punkte auf der Oberfläche der Anomalie enthält. Die Videoinspektionsvorrichtung bestimmt eine Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse. Der Punkt auf der Oberfläche der Anomalie, der die größte Tiefe aufweist, wird als die tiefste Stelle identifiziert.A method and apparatus for automatically identifying the lowest point on the surface of an anomaly on a viewed object using a video inspection device. The video inspection device makes an image of the surface of the object under consideration and displays it. A reference surface is determined along with a region of interest containing multiple points on the surface of the anomaly. The video inspection device determines a depth for each of the multiple points on the surface of the anomaly in the region of interest. The point on the surface of the anomaly that has the greatest depth is identified as the deepest point.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

100100
Videoinspektionsvorrichtung Video inspection device
102102
Sonde probe
110110
Einführungsrohr insertion tube
112112
Bildgeberkabelbaum Imager harness
120120
Kopfbaugruppe head assembly
122122
Sondenoptik special optics
124124
Bildgeber imager
126126
Bildgeberhybrideinrichtung Imager hybrid device
130130
lösbare Spitze detachable tip
132132
Spitzenbetrachtungsoptik Peak viewing optics
140140
Sondenelektronik probe electronics
142142
Bildgeberschnittstellenelektronik Imager interface electronics
144144
Kalibrierungsspeicher calibration memory
146146
Mikrocontroller microcontroller
150150
CPU CPU
152152
CPU-Programmspeicher CPU program memory
154154
flüchtiger Speicher volatile memory
156156
nicht-flüchtiger Speicher non-volatile memory
158158
Computer-I/O-Schnittstelle Computer I / O interface
160160
Videoprozessor video processor
162162
Videospeicher video memory
170170
integrierte Anzeige integrated display
172172
externer Monitor external monitor
180180
Joystick joystick
182182
Tasten Keys
184184
Tastatur keyboard
186186
Mikrofon microphone
200200
Bild image
202202
betrachtetes Objekt viewed object
204204
Anomalie anomaly
210210
Oberfläche surface
221221
Bezugsoberflächenpunkt Reference surface point
222222
Bezugsoberflächenpunkt Reference surface point
223223
Bezugsoberflächenpunkt Reference surface point
224224
tiefster Oberflächenpunkt deepest surface point
231231
Bezugsoberflächen-Positionsanzeiger Reference surface position indicator
232232
Bezugsoberflächen-Positionsanzeiger Reference surface position indicator
233233
Bezugsoberflächen-Positionsanzeiger Reference surface position indicator
234234
Positionsanzeiger für die tiefste Stelle Position indicator for the lowest point
241241
Pixel pixel
242242
Pixel pixel
243243
Pixel pixel
250250
Bezugsoberfläche reference surface
260260
Bezugsoberflächenform Reference surface shape
261261
Bezugsoberflächenpunkt Reference surface point
262262
Bezugsoberflächenpunkt Reference surface point
263263
Bezugsoberflächenpunkt Reference surface point
264264
Bezugsoberflächenpunkt Reference surface point
270270
Region von Interesse Region of interest
271271
Form einer Region von Interesse Form of a region of interest
280280
Region von Interesse Region of interest
281281
Form einer Region von Interesse Form of a region of interest
282282
grafischer Anzeiger der tiefsten Stelle graphical indicator of the lowest point
290290
Tiefe depth
300300
Verfahren method
310310
Bild der Oberfläche (Schritt) Image of the surface (step)
320320
3D von Oberflächenpunkten (Schritt) 3D of surface points (step)
330330
Bezugsoberflächen (Schritt) Reference surfaces (step)
340340
Region von Interesse (Schritt) Region of interest (step)
350350
Tiefe der Oberflächenpunkte in der Region von Interesse (Schritt) Depth of surface points in the region of interest (step)
360360
Ort und Tiefe der tiefsten Oberflächenstelle Location and depth of the deepest surface location
400400
Profil profile

Claims (10)

Verfahren zur automatischen Identifizierung einer tiefsten Stelle auf einer Oberfläche einer Anomalie auf einer Oberfläche eines betrachteten Objekts, wobei das Verfahren die Schritte aufweist: Erstellen eines Bildes von der Oberfläche des betrachteten Objekts mit einem Bildgeber; Anzeigen eines Bildes des betrachteten Objekts auf einem Monitor; Bestimmen der dreidimensionalen Koordinaten von mehreren Punkten auf der Oberfläche des betrachteten Objekts unter Verwendung einer zentralen Verarbeitungseinheit; Bestimmen einer Bezugsoberfläche unter Verwendung der zentralen Verarbeitungseinheit; Bestimmen einer Region von Interesse, die mehreren Punkte auf der Oberfläche der Anomalie enthält, unter Verwendung einer zentralen Verarbeitungseinheit; Bestimmen einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse unter Verwendung einer zentralen Verarbeitungseinheit; und Bestimmen des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie unter Verwendung einer zentralen Verarbeitungseinheit.A method of automatically identifying a deepest location on a surface of an anomaly on a surface of a viewed object, the method comprising the steps of: Creating an image of the surface of the viewed object with an imager; Displaying an image of the object under consideration on a monitor; Determining the three-dimensional coordinates of a plurality of points on the surface of the object under consideration using a central processing unit; Determining a reference surface using the central processing unit; Determining a region of interest containing a plurality of points on the surface of the anomaly using a central processing unit; Determining a depth for each of the plurality of points on the surface of the anomaly in the region of interest using a central processing unit; and Determining the point on the surface of the anomaly in the region of interest having the greatest depth as the lowest point on the surface of the anomaly using a central processing unit. Verfahren nach Anspruch 1, ferner den Schritt des Anzeigens eines grafischen Anzeigers an dem Ort der tiefsten Stelle auf der Oberfläche der Anomalie auf dem Bild von der Oberfläche der Anomalie auf dem Monitor umfassend; wobei der grafische Anzeiger vorzugsweise ein Positionsanzeiger ist. The method of claim 1, further comprising the step of displaying a graphical indicator at the location of the lowest point on the surface of the anomaly on the image of the surface of the anomaly on the monitor; wherein the graphical indicator is preferably a position indicator. Verfahren nach Anspruch 2, ferner die folgenden Schritte umfassend: Überwachen der Bewegung des Positionsanzeigers in der Region von Interesse unter Verwendung der zentralen Verarbeitungseinheit; Erfassen, ob der Positionsanzeiger aufgehört hat sich zu bewegen unter Verwendung der zentralen Verarbeitungseinheit; Bestimmen einer Tiefe für jeden von mehreren Punkten auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers unter Verwendung einer zentralen Verarbeitungseinheit, Identifizieren des Punktes auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers unter Verwendung einer zentralen Verarbeitungseinheit; und Bewegen des Positionsanzeigers zu der tiefsten Stelle auf der Oberfläche der Anomalie in der Nähe des Positionsanzeigers.The method of claim 2, further comprising the steps of: Monitoring the movement of the cursor in the region of interest using the central processing unit; Detecting whether the cursor has stopped moving using the central processing unit; Determining a depth for each of a plurality of points on the surface of the anomaly near the cursor using a central processing unit, identifying the point on the surface of the anomaly near the cursor that has the greatest depth as the deepest point on the cursor Surface of the anomaly near the cursor using a central processing unit; and moving the cursor to the lowest point on the surface of the anomaly near the cursor. Verfahren nach einem beliebigen der vorangehenden Ansprüche, ferner die Schritte umfassend: Bestimmen der Tiefe der tiefsten Stelle auf der Oberfläche der Anomalie; und Anzeigen der Tiefe der tiefsten Stelle auf der Oberfläche der Anomalie auf dem Monitor.The method of any one of the preceding claims, further comprising the steps of: Determining the depth of the lowest point on the surface of the anomaly; and View the depth of the deepest spot on the surface of the anomaly on the monitor. Verfahren nach einem beliebigen der vorangehenden Ansprüche, wobei der Schritt des Bestimmens der Bezugsoberfläche aufweist: Auswählen mehrerer Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts in der Nähe der Anomalie unter Verwendung einer Zeigevorrichtung; und Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten der mehreren Bezugsoberflächenpunkte.The method of any one of the preceding claims, wherein the step of determining the reference surface comprises: Selecting a plurality of reference surface points on the surface of the object under consideration in the vicinity of the anomaly using a pointing device; and Performing a curve fit of the three-dimensional coordinates of the plurality of reference surface points. Verfahren nach einem beliebigen der Ansprüche 1–4, wobei der Schritt des Bestimmens einer Bezugsoberfläche aufweist: Platzieren einer Bezugsoberflächenform in die Nähe der Anomalie unter Verwendung einer Zeigevorrichtung, wobei die Bezugsoberflächenform mehrere Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts enthält; und Durchführen einer Kurvenanpassung der dreidimensionalen Koordinaten der mehreren Bezugsoberflächenpunkte.The method of any of claims 1-4, wherein the step of determining a reference surface comprises: Placing a reference surface shape in the vicinity of the anomaly using a pointing device, wherein the reference surface shape includes a plurality of reference surface points on the surface of the object of interest; and Performing a curve fit of the three-dimensional coordinates of the plurality of reference surface points. Verfahren nach Anspruch 5, wobei der Schritt des Bestimmens einer Region von Interesse, die mehrere Punkte auf der Oberfläche der Anomalie enthält, ein Ausbilden einer Form einer Region von Interesse in der Nähe der Anomalie auf Basis der Bezugsoberflächenpunkte auf der Oberfläche des betrachteten Objekts enthält; wobei die Form der Region von Interesse vorzugsweise dadurch ausgebildet wird, dass eine Form so angeordnet wird, dass sie durch oder in der Nähe der Bezugsoberflächenpunkte verläuft; und/oder wobei die Form der Region von Interesse vorzugsweise ein Kreis, ein Quadrat, ein Rechteck, ein Dreieck oder ein Zylinder ist.The method of claim 5, wherein the step of determining a region of interest containing a plurality of points on the surface of the anomaly includes forming a shape of a region of interest in the vicinity of the anomaly based on the reference surface points on the surface of the object of interest; wherein the shape of the region of interest is preferably formed by arranging a shape to pass through or in the vicinity of the reference surface points; and or wherein the shape of the region of interest is preferably a circle, a square, a rectangle, a triangle or a cylinder. Verfahren nach einem beliebigen der vorangehenden Ansprüche, wobei der Schritt des Bestimmens einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse ein Bestimmen der Länge einer Linie, die zwischen der Bezugsoberfläche und jedem Punkt verläuft, umfasst, wobei die Linie die Bezugsoberfläche senkrecht schneidet; und/oder wobei der Schritt des Bestimmens des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie ein Auswählen des Punktes mit der längsten Linie, die zwischen der Bezugsoberfläche und jedem von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse verläuft, aufweist.The method of any one of the preceding claims, wherein the step of determining a depth for each of the plurality of points on the surface of the anomaly in the region of interest comprises determining the length of a line passing between the reference surface and each point, wherein the line perpendicularly intersects the reference surface; and or wherein the step of determining the point on the surface of the anomaly in the region of interest having the greatest depth as the lowest point on the surface of the anomaly, selecting the point with the longest line separating between the reference surface and each of the has multiple points on the surface of the anomaly in the region of interest. Verfahren nach einem beliebigen der vorangehenden Ansprüche, wobei die tiefste Stelle auf der Oberfläche der Anomalie in der Region von Interesse in Bezug auf die Bezugsoberfläche zurückgesetzt ist oder in Bezug auf die Bezugsoberfläche vorsteht.A method according to any one of the preceding claims, wherein the lowest point on the surface of the anomaly in the region of interest is recessed with respect to the reference surface or projects with respect to the reference surface. Vorrichtung zur automatischen Identifizierung einer tiefsten Stelle auf einer Oberfläche einer Anomalie auf einer Oberfläche eines betrachteten Objekts, wobei die Vorrichtung aufweist: einen Bildgeber zum Erstellen eines Bildes von der Oberfläche des betrachteten Objekts; einen Monitor zum Anzeigen eines Bildes des betrachteten Objekts; und eine zentrale Verarbeitungseinheit zum Bestimmen der dreidimensionalen Koordinaten von mehreren Punkten auf der Oberfläche des betrachteten Objekts, Bestimmen einer Bezugsoberfläche, Bestimmen einer Region von Interesse, die mehrere Punkte auf der Oberfläche der Anomalie enthält, Bestimmen einer Tiefe für jeden von den mehreren Punkten auf der Oberfläche der Anomalie in der Region von Interesse, und Bestimmen des Punktes auf der Oberfläche der Anomalie in der Region von Interesse, der die größte Tiefe aufweist, als die tiefste Stelle auf der Oberfläche der Anomalie.Apparatus for automatically identifying a deepest location on a surface of an anomaly on a surface of a viewed object, the apparatus comprising: an imager for creating an image of the surface of the object under consideration; a monitor for displaying an image of the object under consideration; and a central processing unit for Determining the three-dimensional coordinates of a plurality of points on the surface of the viewed object, Determining a reference surface, Determining a region of interest containing multiple points on the surface of the anomaly, Determining a depth for each of the multiple points on the surface of the anomaly in the region of interest, and Determine the point on the surface of the anomaly in the region of interest that has the greatest depth, as the deepest point on the surface of the anomaly.
DE102014118015.1A 2013-12-17 2014-12-05 Method and apparatus for automatically identifying the lowest point on the surface of an anomaly Pending DE102014118015A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/108,976 US9875574B2 (en) 2013-12-17 2013-12-17 Method and device for automatically identifying the deepest point on the surface of an anomaly
US14/108,976 2013-12-17

Publications (1)

Publication Number Publication Date
DE102014118015A1 true DE102014118015A1 (en) 2015-06-18

Family

ID=53192776

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014118015.1A Pending DE102014118015A1 (en) 2013-12-17 2014-12-05 Method and apparatus for automatically identifying the lowest point on the surface of an anomaly

Country Status (4)

Country Link
US (1) US9875574B2 (en)
JP (1) JP6537814B2 (en)
CN (1) CN104713529A (en)
DE (1) DE102014118015A1 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
CA2998880C (en) * 2015-09-25 2024-01-09 General Electric Company Method and device for measuring features on or near an object
JP6865046B2 (en) * 2016-02-08 2021-04-28 ゼネラル・エレクトリック・カンパニイ Methods and devices for automatically identifying points of interest in depth measurement of visible objects
JP6736383B2 (en) * 2016-06-27 2020-08-05 株式会社キーエンス measuring device
JP6695748B2 (en) * 2016-06-27 2020-05-20 株式会社キーエンス measuring device
CA3009798A1 (en) * 2017-07-12 2019-01-12 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
WO2019244345A1 (en) * 2018-06-22 2019-12-26 オリンパス株式会社 Landmark estimation method and endoscope device
KR102022964B1 (en) * 2018-06-26 2019-09-19 주식회사 노바테크 Apparatus for inspecting the inside of a structure
KR102013732B1 (en) * 2018-07-16 2019-08-23 금나송 Marker apparatus for scaning and scan system using the same
CN109900713B (en) * 2019-04-17 2022-01-18 中国人民解放军国防科技大学 Camera-guided unmanned aerial vehicle wind power blade defect dynamic detection system and method thereof
JP2021049248A (en) * 2019-09-26 2021-04-01 キヤノン株式会社 Image processing system and method for controlling the same
CN113393464B (en) * 2021-08-18 2021-11-05 苏州鼎纳自动化技术有限公司 Three-dimensional detection method for plate glass defects

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL6918432A (en) * 1969-01-09 1970-07-13
US4357660A (en) * 1973-05-01 1982-11-02 Schlumberger Technology Corporation Formation dip and azimuth processing technique
US4188122A (en) * 1978-03-27 1980-02-12 Rockwell International Corporation Interferometer
US4493105A (en) 1982-03-31 1985-01-08 General Electric Company Method and apparatus for visual image processing
US4688184A (en) * 1984-03-29 1987-08-18 Mitsubishi Denki Kabushiki Kaisha System for measuring three-dimensional coordinates
US4983836A (en) * 1988-06-30 1991-01-08 Nkk Corporation Method for detecting thinned out portion on inner surface or outer surface of pipe
US4988886A (en) 1989-04-06 1991-01-29 Eastman Kodak Company Moire distance measurement method and apparatus
FR2647913B1 (en) 1989-06-05 1991-09-13 Essilor Int NETWORK OPTICAL DEVICE AND SEPARATOR FOR THE PHASE DETECTION CONTROL OF ANY OPTICAL SYSTEM, IN PARTICULAR AN OPHTHALMIC LENS
US4980763A (en) 1989-06-12 1990-12-25 Welch Allyn, Inc. System for measuring objects viewed through a borescope
US5198877A (en) * 1990-10-15 1993-03-30 Pixsys, Inc. Method and apparatus for three-dimensional non-contact shape sensing
US5434669A (en) 1990-10-23 1995-07-18 Olympus Optical Co., Ltd. Measuring interferometric endoscope having a laser radiation source
US5175601A (en) 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
EP0549182A2 (en) 1991-12-23 1993-06-30 General Electric Company Apparatus and method for displaying surgical cuts in three-dimensional models
DE4301716C2 (en) 1992-02-04 1999-08-12 Hitachi Ltd Projection exposure device and method
US5273429A (en) * 1992-04-03 1993-12-28 Foster-Miller, Inc. Method and apparatus for modeling a dental prosthesis
US5716324A (en) 1992-08-25 1998-02-10 Fuji Photo Film Co., Ltd. Endoscope with surface and deep portion imaging systems
US5307152A (en) 1992-09-29 1994-04-26 Industrial Technology Institute Moire inspection system
US5633675A (en) 1993-02-16 1997-05-27 Welch Allyn, Inc, Shadow probe
US5645740A (en) * 1993-11-01 1997-07-08 Naiman; Charles S. System and assemblage for producing microtexturized substrates and implants
US5510833A (en) 1994-06-13 1996-04-23 Display Laboratories Inc. Method and apparatus for transforming coordinate systems in an automated video monitor alignment system
US5581352A (en) 1994-09-22 1996-12-03 Zeien; Robert Phase shifting device with selectively activated grating generator
US5782762A (en) 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6208416B1 (en) 1996-03-22 2001-03-27 Loughborough University Innovations Limited Method and apparatus for measuring shape of objects
US6064759A (en) 1996-11-08 2000-05-16 Buckley; B. Shawn Computer aided inspection machine
US5822066A (en) 1997-02-26 1998-10-13 Ultratech Stepper, Inc. Point diffraction interferometer and pin mirror for use therewith
GB9716240D0 (en) 1997-07-31 1997-10-08 Tricorder Technology Plc Scanning apparatus and methods
US6201541B1 (en) 1997-12-11 2001-03-13 Cognitens, Ltd. System and method for “Stitching” a plurality of reconstructions of three-dimensional surface features of object(s) in a scene defined relative to respective coordinate systems to relate them to a common coordinate system
US6438272B1 (en) 1997-12-31 2002-08-20 The Research Foundation Of State University Of Ny Method and apparatus for three dimensional surface contouring using a digital video projection system
US6011624A (en) 1998-01-06 2000-01-04 Zygo Corporation Geometrically-Desensitized interferometer with adjustable range of measurement depths
JP3561403B2 (en) 1998-01-21 2004-09-02 富士通株式会社 Three-dimensional data converter and recording medium
US6717578B1 (en) 1998-02-17 2004-04-06 Sun Microsystems, Inc. Graphics system with a variable-resolution sample buffer
US6256595B1 (en) 1998-03-04 2001-07-03 Amada Company, Limited Apparatus and method for manually selecting, displaying, and repositioning dimensions of a part model
JP2000227326A (en) 1998-12-02 2000-08-15 Nikon Corp Flatness measuring device
US6129722A (en) * 1999-03-10 2000-10-10 Ruiz; Luis Antonio Interactive corrective eye surgery system with topography and laser system interface
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
JP4399068B2 (en) * 1999-11-18 2010-01-13 本田技研工業株式会社 Cylindrical workpiece evaluation method and evaluation apparatus
JP4574770B2 (en) 1999-11-29 2010-11-04 株式会社東芝 Medical three-dimensional image display device
US7065242B2 (en) 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6956576B1 (en) 2000-05-16 2005-10-18 Sun Microsystems, Inc. Graphics system using sample masks for motion blur, depth of field, and transparency
US6670962B2 (en) 2001-03-16 2003-12-30 Mitsubishi Electric Research Laboratories, Inc. Surface following interaction method for adaptively sampled distance fields
JP2002286422A (en) * 2001-03-25 2002-10-03 Omron Corp Displacement sensor
US20020163573A1 (en) 2001-04-11 2002-11-07 Bieman Leonard H. Imaging system
CA2463570C (en) * 2001-10-11 2012-06-19 Laser Projection Technologies, Inc. Method and system for visualizing surface errors
US6714307B2 (en) 2001-10-16 2004-03-30 Zygo Corporation Measurement of complex surface shapes using a spherical wavefront
JP3898945B2 (en) 2001-12-21 2007-03-28 ペンタックス株式会社 Photogrammetry system, photogrammetry method and recording medium storing photogrammetry program
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
GB2389914B (en) 2002-06-18 2004-05-26 Keymed Dual capability borescope
JP3938721B2 (en) 2002-07-01 2007-06-27 オリンパス株式会社 Endoscope device for measurement
DE10242922A1 (en) 2002-09-16 2004-04-01 Siemens Ag Computer-aided selection procedure for part of a volume
US6909988B2 (en) * 2002-10-15 2005-06-21 General Electric Company Method for positioning defects in metal billets
DE10308383A1 (en) 2003-02-27 2004-09-16 Storz Endoskop Produktions Gmbh Method and optical system for measuring the topography of a measurement object
US7286246B2 (en) 2003-03-31 2007-10-23 Mitutoyo Corporation Method and apparatus for non-contact three-dimensional surface measurement
SE526735C2 (en) 2003-06-13 2005-11-01 Atos Medical Ab Device for measuring physical properties of the eardrum
WO2005054780A1 (en) 2003-11-28 2005-06-16 The General Hospital Corporation Method and apparatus for three-dimensional spectrally encoded imaging
FR2868156B1 (en) * 2004-03-25 2006-11-10 Airbus France Sas METHOD AND DEVICE FOR NON-DESTRUCTIVE CONTROL OF STRUCTURE STRUCTURE AND CHARACTERIZATION OF THE STRUCTURE DAMAGE BY THE SHADOW MOIRE PRINCIPLE
JP4536422B2 (en) 2004-05-21 2010-09-01 株式会社キーエンス Magnification observation apparatus, magnification image observation method, magnification observation operation program, and computer-readable recording medium or recorded apparatus
EP1600564A1 (en) 2004-05-24 2005-11-30 Leica Geosystems AG Method for controlling a surface modification machine
WO2006056614A1 (en) 2004-11-27 2006-06-01 Bracco Imaging S.P.A. 2d / 3d integrated contour editor
US7755817B2 (en) 2004-12-07 2010-07-13 Chimei Innolux Corporation Color gamut mapping
JP2007029460A (en) 2005-07-27 2007-02-08 Topcon Corp Ophthalmic image processor and ophthalmic image processing program
JP4701948B2 (en) 2005-09-21 2011-06-15 オムロン株式会社 Pattern light irradiation device, three-dimensional shape measurement device, and pattern light irradiation method
WO2007043899A1 (en) * 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
CA2528791A1 (en) 2005-12-01 2007-06-01 Peirong Jia Full-field three-dimensional measurement method
JP4869699B2 (en) 2005-12-13 2012-02-08 オリンパス株式会社 Endoscope device
JP2007205918A (en) 2006-02-02 2007-08-16 Olympus Corp Measuring endoscope
US7855732B2 (en) 2006-09-05 2010-12-21 Pc Connection, Inc. Hand producer for background separated images
DE102006048234A1 (en) 2006-10-11 2008-04-17 Steinbichler Optotechnik Gmbh Method and device for determining the 3D coordinates of an object
US8810636B2 (en) 2006-12-20 2014-08-19 Ge Inspection Technologies, Lp Inspection apparatus method and apparatus comprising selective frame output
US7782453B2 (en) 2006-12-28 2010-08-24 Ge Inspection Technologies, Lp Method for measuring missing corner dimensions
US20080198159A1 (en) 2007-02-16 2008-08-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for efficient and flexible surveillance visualization with context sensitive privacy preserving and power lens data mining
AU2008271910A1 (en) 2007-06-29 2009-01-08 Three Pixels Wide Pty Ltd Method and system for generating a 3D model from images
US20090041553A1 (en) * 2007-08-06 2009-02-12 3M Innovative Properties Company Fly-cutting system and method, and related tooling and articles
JP4492654B2 (en) 2007-08-29 2010-06-30 オムロン株式会社 3D measuring method and 3D measuring apparatus
US8199813B2 (en) 2007-12-18 2012-06-12 GE Inspection Technologies Method for embedding frames of high quality image data in a streaming video
US8422030B2 (en) 2008-03-05 2013-04-16 General Electric Company Fringe projection system with intensity modulating by columns of a plurality of grating elements
US7821649B2 (en) 2008-03-05 2010-10-26 Ge Inspection Technologies, Lp Fringe projection system and method for a probe suitable for phase-shift analysis
US8107083B2 (en) 2008-03-05 2012-01-31 General Electric Company System aspects for a probe system that utilizes structured-light
US7812968B2 (en) 2008-03-05 2010-10-12 Ge Inspection Technologies, Lp Fringe projection system and method for a probe using a coherent fiber bundle
US7969583B2 (en) 2008-03-05 2011-06-28 General Electric Company System and method to determine an object distance from a reference point to a point on the object surface
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
EP2313868B1 (en) * 2008-07-18 2016-03-16 Vorum Research Corporation Method, apparatus, signals and media for producing a computer representation of a three-dimensional surface of an appliance for a living body
JP5253109B2 (en) * 2008-11-25 2013-07-31 オリンパス株式会社 Endoscope apparatus and endoscopic image program
CA2754812A1 (en) 2009-03-19 2010-09-23 General Electric Company Optical gage and three-dimensional surface profile measurement method
WO2010110237A1 (en) * 2009-03-26 2010-09-30 Hoya株式会社 Substrate provided with multilayer reflection film for reflective mask, reflective mask blank, and methods for manufacturing the substrate and the mask blank
CN101871767B (en) 2009-04-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 System and method for detecting form and position tolerance of components
IT1395344B1 (en) 2009-05-28 2012-09-14 Geosoft S R L METHOD OF RETURN PHOTOGRAMMETRIC ASSISTED BY CLOUD OF POINTS AND ITS APPARATUS.
JP5503935B2 (en) * 2009-09-30 2014-05-28 富士フイルム株式会社 Hard coat film, antireflection film, polarizing plate and image display device
KR20110054852A (en) * 2009-11-18 2011-05-25 삼성전자주식회사 Terminal having touch screen and method for measuring geometric data thereof
JP2011158549A (en) 2010-01-29 2011-08-18 Olympus Corp Endoscope apparatus and program
US8760447B2 (en) * 2010-02-26 2014-06-24 Ge Inspection Technologies, Lp Method of determining the profile of a surface of an object
JP5530225B2 (en) * 2010-03-09 2014-06-25 オリンパス株式会社 Endoscope apparatus and program
US8422034B2 (en) * 2010-04-21 2013-04-16 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
US8165351B2 (en) 2010-07-19 2012-04-24 General Electric Company Method of structured light-based measurement
US9013469B2 (en) * 2011-03-04 2015-04-21 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
US9984474B2 (en) * 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US8411083B2 (en) 2011-04-06 2013-04-02 General Electric Company Method and device for displaying an indication of the quality of the three-dimensional data for a surface of a viewed object
US8686943B1 (en) * 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
US10018467B2 (en) 2011-06-09 2018-07-10 Clark Alexander Bendall System and method for measuring a distance to an object
US8849620B2 (en) * 2011-11-18 2014-09-30 Nike, Inc. Automated 3-D modeling of shoe parts
US20130287288A1 (en) * 2012-04-25 2013-10-31 General Electric Company Method and device for determining the offset distance between two surfaces
US10330608B2 (en) * 2012-05-11 2019-06-25 Kla-Tencor Corporation Systems and methods for wafer surface feature detection, classification and quantification with wafer geometry metrology tools
JP6052956B2 (en) * 2012-07-02 2016-12-27 株式会社ミツトヨ Shape analysis method and shape analysis program
GB2505926A (en) 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
JP6176978B2 (en) * 2013-01-31 2017-08-09 オリンパス株式会社 Endoscope image processing apparatus, endoscope apparatus, operation method of endoscope image processing apparatus, and image processing program
JP6737705B2 (en) * 2013-11-14 2020-08-12 ザ・ジョージ・ワシントン・ユニバーシティThe George Washingtonuniversity Method of operating system for determining depth of injury site and system for generating images of heart tissue
US9818039B2 (en) * 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9600928B2 (en) * 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
US9842430B2 (en) * 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object

Also Published As

Publication number Publication date
JP6537814B2 (en) 2019-07-03
JP2015129746A (en) 2015-07-16
US9875574B2 (en) 2018-01-23
CN104713529A (en) 2015-06-17
US20150170352A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
DE102014118015A1 (en) Method and apparatus for automatically identifying the lowest point on the surface of an anomaly
DE102014118424A1 (en) Method and apparatus for automatically identifying a point of interest on the surface of an anomaly
US11514643B2 (en) Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
DE102017102227A1 (en) Method and device for automatic identification of a point of interest in a depth measurement on a viewed object
US9013469B2 (en) Method and device for displaying a three-dimensional view of the surface of a viewed object
US9600928B2 (en) Method and device for automatically identifying a point of interest on the surface of an anomaly
DE102013009288B4 (en) 3D recording device, method for creating a 3D image and method for setting up a 3D recording device
EP3467432B1 (en) Method for operating a device for detecting the three-dimensional geometry of objects
DE102014106482A1 (en) Automated boroscopic measurement during probe precision test
DE102010013377B4 (en) Image processing method and thermal imaging camera
JP6895382B2 (en) A method and device for displaying a two-dimensional image of an object to be viewed at the same time as an image for drawing a three-dimensional shape of the object to be viewed.
EP2886043A1 (en) Method for continuing recordings to detect three-dimensional geometries of objects
DE102011103933A1 (en) Endoscope that can display a scale to determine the size of the target
DE102017102228A1 (en) Method and device for automatically identifying a point of interest on a viewed object
DE102011007678A1 (en) Measurement system for determining biometric data of human foot of children during shoe purchase, aligns human foot on boundary surface with respect to measurement coordinate system
DE102007047499B4 (en) Method and device for acquiring information of a tool
EP3537383A1 (en) Monitoring of vibrations of an object by means of a video camera
DE102017100885B4 (en) METHOD AND DEVICE FOR GENERATING AND PROJECTING A 3D THERMOGRAM COMPLETE WITH DATA ON THE RECORDING CONDITIONS
EP3385916A1 (en) Measuring tool and corresponding measuring method
DE102014202977A1 (en) Determination of coordinates of a workpiece using a coordinate measuring machine
DE102005043070B4 (en) Method for high-precision three-dimensional measurement and / or reconstruction of objects with the aid of digital image recordings, for example for image evaluation of traffic routes
DE4426355A1 (en) Optical system for determining spatial position of object
DE112020001064T5 (en) SYSTEM AND PROCEDURE FOR ADJUSTABLE PRODUCTION LINE INSPECTION
EP3486607A1 (en) Image-based edge measurement
DE102012209664B4 (en) DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01N0021880000

Ipc: G01B0011240000

R081 Change of applicant/patentee

Owner name: BAKER HUGHES HOLDINGS LLC, HOUSTON, US

Free format text: FORMER OWNER: GENERAL ELECTRIC COMPANY, SCHENECTADY, NY, US