DE102008041523A1 - Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung - Google Patents

Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung Download PDF

Info

Publication number
DE102008041523A1
DE102008041523A1 DE102008041523A DE102008041523A DE102008041523A1 DE 102008041523 A1 DE102008041523 A1 DE 102008041523A1 DE 102008041523 A DE102008041523 A DE 102008041523A DE 102008041523 A DE102008041523 A DE 102008041523A DE 102008041523 A1 DE102008041523 A1 DE 102008041523A1
Authority
DE
Germany
Prior art keywords
image
coordinate
measurement
dimensional
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008041523A
Other languages
English (en)
Other versions
DE102008041523B4 (de
Inventor
Shiro Fujieda
Hiroshi Yano
Yasuyuki Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE102008041523A1 publication Critical patent/DE102008041523A1/de
Application granted granted Critical
Publication of DE102008041523B4 publication Critical patent/DE102008041523B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0691Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of objects while moving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Es werden Bilder eines Werkstücks, in dem das Messobjekt auf einen spezifischen Punkt oder Bereich beschränkt ist, von einer Kamera, welche das Bild des Werkstücks von einer Vorderansichtsrichtung aufnimmt, und einer Kamera, welche das Bild von schräg oben aufnimmt, aufgenommen, und es wird eine Höhe jedes Messobjektbereichs gemessen. Jeder Bildpunkt des bei der Messverarbeitung verwendeten Vorderansichtsbilds wird virtuell in einem dreidimensionalen Koordinatensystem angeordnet, welches x- und y-Achsen, die ein Koordinatensystem des Bilds darstellen, und eine z-Achse, welche die Höhe angibt, umfasst, und es wird eine perspektivische Transformation durchgeführt, um ein Verarbeitungsergebnisbild zu erzeugen, welches das Messergebnis ausdrückt. Ein Messwert wird als z-Koordinate an dem Bildpunkt festgelegt, welcher eine Höhe des Messobjekts darstellt, und die z-Koordinaten anderer Bildpunkte werden an anderen Bildpunkten festgelegt. Eine Markierung zur Identifizierung einer Position und eine Hilfslinie, welche die Höhe angibt, werden als Messobjektpunkte und Messobjektbereich in dem Bild festgelegt.

Description

  • HINTERGRUND DER ERFINDUNG
  • BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Verfahren zur Durchführung einer dreidimensionalen Messung an einem Messobjekt, welches eine vorbestimmte Form aufweist, mit einer optischen Einheit zur dreidimensionalen Messung und eine Vorrichtung zur dreidimensionalen Messung, bei der das Verfahren angewendet wird.
  • BESCHREIBUNG DES STANDS DER TECHNIK
  • Bei einer konventionellen Vorrichtung zur dreidimensionalen Messung liegt eine Vorrichtung vor, welche eine Funktion aufweist, eine Vielzahl an dreidimensionalen Koordinaten für ein Messobjekt zu berechnen und ein dreidimensionales Bild basierend auf den berechneten Koordinaten darzustellen. Beispielsweise offenbart die Japanische Patentanmeldungsoffenlegung Nr. 2000-39566 ein Vergrößerungsbeobachtungssystem für ein Mikroskop, welches mit einem Mikroskop-Objektivtubus und einer Abbildungsvorrichtung ausgestattet ist, wobei die Höheninformation an jedem Bildpunkt (Pixel), welcher in einem abbildenden Objektbereich enthalten ist, durch Erzeugen mehrerer fokussierter Brennpunktbereiche erhalten wird, und ein Bild dargestellt wird, welches einen Zustand ausdrückt, in dem die Daten des dreidimensionalen Bilds, die von einer Bildpunktgruppe gebildet werden, von der die Höheninformation mitgeteilt wurde, aus verschiedenen Richtungen beobachtet wird.
  • In dem in der Japanischen Patenanmeldungsoffenlegung Nr. 2000-39566 offenbarten System stellt ein Messobjekt einen gesamten Bereich dar, welcher in einem Gesichtsfeld der Abbildungseinheit ent halten ist. Jedoch ist der Bereich, in dem die Messung erforderlich ist, in einer Produktionslinie oder einer Inspektionslinie einer industriellen Anlage häufig begrenzt. Aufgrund des Erfordernisses einer verstärkten Verarbeitung bei einer "In-Line"-Messung besteht ein hoher Bedarf an einer dreidimensionalen Messung, die auf den Bereich beschränkt ist, in dem die Messung erforderlich ist. Gleichzeitig besteht bei der Ausgabe des Messergebnisses ein Bedarf derart, dass nicht nur einfach eine numerische Information geliefert wird, sondern aus der Sicht des Benutzers es ebenso möglich ist, das Messergebnis auf einfache Art zu bestätigen.
  • Eine Aufgabe der Erfindung ist, dem obigen Bedarf zu entsprechen, indem das Bild, welches einfach das Messergebnis ausdrückt, dargestellt wird, während das Messergebnis mit einem Gesamtbild des Messobjekts korreliert wird, auch wenn der Objektbereich der dreidimensionalen Messung in dem Messobjekt begrenzt ist.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein erfindungsgemäßes Verfahren zur dreidimensionalen Messung zur Beobachtung eines Messobjekts stellt ein Verfahren dar, in dem ein oder mehrere Bereiche des Messobjekts zuvor definiert werden, wobei eine optische Einheit zur dreidimensionalen Messung eine Koordinate für jeden Bereich des Messobjekts errechnet, wobei eine Koordinate eine Position relativ zu einer Bezugsebene, die wenigstens dem Messobjektbereich gegenüberliegt, angibt.
  • In dem erfindungsgemäßen Verfahren können eine Vorrichtung zur dreidimensionalen Messung, die mit einer Mehrzahl an Kameras ausgestattet ist, in der ein Stereoverfahren angewendet wird, eine Vorrichtung zur dreidimensionalen Messung, in der ein Lichtschnittverfahren angewendet wird, und ein Verschiebungssensor als "optische Einheit zur dreidimensionalen Messung" eingesetzt werden. Die "vorbestimmte Bezugsebene, welche dem Messobjektbereich gegenüberliegt" stellt eine Ebene dar, welche beispielsweise das Messobjekt trägt. Die "vorbestimmte Bezugsebene, die dem Messobjektbereich gegenüberliegt" ist nicht auf eine tatsächlich existierende Ebene beschränkt, sondern es kann auch eine virtuelle Ebene, welche hinter oder vor dem Messobjektbereich eingestellt wird, als Bezugsebene festgelegt werden.
  • Wenn beispielsweise die Trägeroberfläche des Messobjektbereichs als Bezugsebene festgelegt wird, um das Messobjekt mit einer optischen Einheit zur dreidimensionalen Messung von schräg oben zu betrachten, drückt die Koordinate, welche die Position relativ zu der Bezugsebene angibt, die Höhe des Messobjektbereichs aus.
  • Wenn andererseits ein Bereich, wie beispielsweise eine Vertiefung oder ein Stufenabschnitt, welcher von der Umgebung zurückgesetzt ist, vermessen wird, wird die virtuelle Ebene in Übereinstimmung mit der Höhe um den Messobjektbereich herum eingestellt, und die virtuelle Ebene kann als Bezugsebene festgelegt werden.
  • In dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung wird ein Bild von dem Messobjekt aufgenommen, wodurch ein zweidimensionales Bild erzeugt wird; eine Koordinate wird an dem Bildpunkt (Pixel) festgelegt, der dem Messobjektbereich in dem zweidimensionalen Bild entspricht, wobei die Koordinate die Position relativ zu der Bezugsebene angibt; ein konstanter Wert wird an einem weiteren Bildpunkt festgelegt, wobei der konstante Wert aus der Koordinate besteht, welche die Position relativ zu der Bezugsebene angibt. Jeder der festgelegten Bildpunkte ist virtuell in einem dreidimensionalen Raum angeordnet, wobei der dreidimensionale Raum durch die beiden Achsen, welche ein Koordinatensystem des zweidimensionalen Bilds bilden, und eine Achse, welche die Position relativ zur Bezugsebene angibt, gebildet wird; eine perspektivische Transformation wird an jedem Bildpunkt von einer vorbestimmten Richtung aus durchgeführt; und ein zweidimensio nales Bild, welches durch die perspektivische Transformation erzeugt wird, wird verarbeitet und dargestellt, so dass der Messobjektbereich von einem anderen Bereich unterschieden werden kann.
  • In dem erfindungsgemäßen Verfahren wird die z-Koordinate, welche durch die dreidimensionale Messung berechnet wird, unter den Bildpunkten, welche das zweidimensionale Bild bilden, an dem Bildpunkt festgelegt, der dem Messobjektbereich entspricht, und der konstante Wert z0 (zum Beispiel z0 = 0) wird als z-Koordinate an den Bildpunkten, mit Ausnahme der Bildpunkte außerhalb des Messobjektbereichs, festgelegt. Die z-Koordinate wird an jedem Bildpunkt festgelegt, und die perspektivische Transformation wird durchgeführt, während die Bildpunkte in dem virtuellen dreidimensionalen Raum, welcher die x-, y- und z-Achsen aufweist, angeordnet werden, so dass ein Bild mit Tiefengefühl für den Bereich erzeugt werden kann, bei dem es sich nicht um das Messobjekt handelt, während der Messobjektbereich an der Stelle projiziert wird, welche die Magnitude der z-Koordinate widerspiegelt.
  • Zudem wird das durch die perspektivische Transformation erzeugte Bild verarbeitet und derart dargestellt, dass der Messobjektbereich von anderen Bereichen unterschieden werden kann, so dass der Benutzer leicht das Ergebnis der dreidimensionalen Messung visuell bestätigen kann, wobei er die Beziehung zwischen dem Messobjektbereich und seiner Umgebung erkennt.
  • Es ist nicht immer notwendig, dass das Bild, welches das Verarbeitungsobjekt der perspektivischen Transformation wird, das Gesamtbild des Messobjekts umfasst. Jedoch umfasst das Bild, welches das Verarbeitungsobjekt der perspektivischen Transformation wird, bevorzugt den gesamten Bereich, der als Objekt zur dreidimensionalen Messung festgelegt wird, und ebenso den Bereich, bei dem es sich nicht um das Messobjekt handelt, in ausreichend großem Umfang.
  • Des Weiteren wird in dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung bevorzugt ein Vorderansichtsbild, welches erzeugt wird, indem ein Bild des Messobjekts aus einer Vorderrichtung aufgenommen wird, als das Objektbild der perspektivischen Transformation festgelegt, eine Manipulation zum Einstellen einer Richtung der perspektivischen Transformation basierend auf einer Vorderansichtsrichtung wird akzeptiert, während das Vorderansichtsbild dargestellt wird, und die perspektivische Transformation an einer Bildpunktgruppe von einer Richtung durchgeführt, die durch einen durch die Manipulation festgelegten Winkel angegeben wird, wobei die Bildpunktgruppe virtuell in dem dreidimensionalen Raum angeordnet wird.
  • Demgemäß wird, da das Bild der perspektivischen Transformation aus einer beliebigen, durch den Benutzer festgesetzten Richtung erzeugt wird, der Freiheitsgrad verstärkt, wenn das Messergebnis bestätigt wird. Das Bild nahe dem durch den Benutzer beabsichtigten Bild kann dargestellt werden, da die perspektivische Transformation basierend auf einer Richtung durchgeführt wird, welche basierend auf einem Zustand, in dem das Messobjekt von einer Vorderseite betrachtet wird, eingestellt wird.
  • Ferner wird in dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung bevorzugt, nachdem eine Koordinate, die jedem Messobjektbereich entspricht, in mehreren zweidimensionalen Bildern spezifiziert wurde, mit einer Vorrichtung, die von der optischen Einheit zur dreidimensionalen Messung zur Durchführung dreidimensionaler Messungen mehrere, durch die Mehrzahl an Kameras erzeugte zweidimensionale Bilder verwendet, unter Verwendung der spezifizierten Koordinate eine Koordinate errechnet, welche eine Position relativ zu der Bezugsebene angibt. Zudem wird für eines der in der dreidimensionalen Messung verwendeten zweidimensionalen Bilder die Koordinate, die als die Koordinate berechnet wird, welche eine Position relativ zu der Be zugsebene angibt, an einem Bildpunkt festgelegt, dessen Koordinate als die Koordinate spezifiziert wird, die dem Messobjektbereich entspricht, die konstante Koordinate wird an anderen Bildpunkten als die Koordinate festgelegt, welche die Position relativ zu der Bezugsebene angibt, und die Verarbeitung der perspektivischen Transformation wird durchgeführt.
  • Demgemäß wird, während die Verarbeitung der dreidimensionalen Messung, in der die Mehrzahl an Kameras eingesetzt wird, durchgeführt wird, eines der zweidimensionalen Bilder, die in der dreidimensionalen Messung verwendet werden, als Objekt der perspektivischen Transformation festgelegt, die gemessene z-Koordinate wird an dem Bildpunkt festgelegt, der tatsächlich in der dreidimensionalen Messung verwendet wird, und die perspektivische Transformation wird durchgeführt. Somit kann der Benutzer leicht bestimmen, ob der Bereich, der als Objekt der dreidimensionalen Messung festgelegt wurde, korrekt ist oder nicht, oder ob der Messwert geeignet ist oder nicht.
  • Eine erfindungsgemäße Vorrichtung zur dreidimensionalen Messung umfasst eine Mehrzahl an Kameras, welche in definierter Lagebeziehung und Richtung der optischen Achse derart angeordnet sind, dass die Gesichtsfelder der Kameras in einem vorbestimmten Bereich überlappen; eine Bildeingabeeinheit, in welche eine Mehrzahl an zweidimensionalen Bildern eingegeben wird, wobei die Mehrzahl an zweidimensionalen Bildern erzeugt wird, indem ein Bild eines Messobjekts, welches in den Bereich eintritt, in dem sich die Gesichtsfelder der Kameras überlappen, unter Verwendung der Kameras aufgenommen wird; eine Messeinheit, welche eine Koordinate eines entsprechenden Punkts in jedem Eingabebild für einen oder mehrere vorbestimmte Messobjektbereiche des Messobjekts extrahiert, wobei die Messeinheit unter Verwendung jeder extrahierten Koordinate eine Koordinate errechnet, welche eine Position relativ zu einer Bezugsebene, die wenigstens einem Messob jektbereich gegenüberliegt, angibt; eine Verarbeitungsergebnis-Bilderzeugungseinheit, welche ein zweidimensionales Bild des Verarbeitungsergebnisses, welches das Messergebnis der Messeinheit ausdrückt, erzeugt; und eine Display-Einheit, welche das Bild des Verarbeitungsergebnisses darstellt.
  • In der erfindungsgemäßen Vorrichtung zur dreidimensionalen Messung legt bei einem spezifischen Bild aus der Mehrzahl an zweidimensionalen Bildern, die zum Messen durch die Messeinheit eingesetzt werden, die Verarbeitungsergebnis-Bilderzeugungseinheit die Koordinate fest, die als die Koordinate berechnet wurde, welche die Position relativ zu der Bezugsebene angibt, an einem Bildpunkt, dessen Koordinate, welche dem Messobjektbereich entspricht, durch die Messeinheit in jedem bildenden Bildpunkt in dem spezifischen Bild extrahiert wurde; die Verarbeitungsergebnis-Bilderzeugungseinheit legt einen konstanten Wert als die Koordinate fest, welche die Position relativ zu der Bezugsebene an anderen Bildpunkten angibt. Dann ordnet die Verarbeitungsergebnis-Bilderzeugungseinheit die festgelegten Bildpunkte virtuell in einem dreidimensionalen Raum an, wobei der dreidimensionale Raum zwei Achsen, welche ein Koordinatensystem des spezifischen Bilds bilden, und eine Achse, welche die Position relativ zu der Bezugsebene angibt, umfasst, und die Verarbeitungsergebnis-Bilderzeugungseinheit führt eine perspektivische Transformation zu jedem Bildpunkt von einer vorbestimmten Richtung durch und verarbeitet das Bild der perspektivischen Transformation, so dass der Messobjektbereich von anderen Bereichen unterschieden werden kann, wodurch ein Verarbeitungsergebnisbild erzeugt wird.
  • Bei der erfindungsgemäßen dreidimensionalen Messung wird die dreidimensionale Messung akkurat zu jedem Messobjektbereich unter Verwendung der durch die von der Mehrzahl an Kameras erzeugten Bilder durchgeführt, und die Magnitude der z-Koordinate des in der tat sächlichen dreidimensionalen Messung verwendeten Bildpunkts kann mit dem Tiefengefühl der Umgebung durch die Verarbeitung der perspektivischen Transformation, in der das spezifische, in der Messung verwendete Bild eingesetzt wird, dargestellt werden.
  • Des Weiteren umfasst die erfindungsgemäße Vorrichtung zur dreidimensionalen Messung bevorzugt außerdem eine Manipulationseinheit, welche eine Manipulation durchführt, um einen Winkel einzustellen, welcher eine Richtung der perspektivischen Transformation basierend auf einer Vorderansichtsrichtung durchführt, während eine bestimmte Kamera aus der Mehrzahl an Kameras derart angeordnet ist, dass sie ein Bild von dem Messobjekt aus einer Vorderansichtsrichtung aufnimmt. In der erfindungsgemäßen Vorrichtung zur dreidimensionalen Messung stellt die Verarbeitungsergebnis-Bilderzeugungseinheit ein durch die bestimmte Kamera erzeugtes Vorderansichtsbild eines Messobjekts auf der Display-Einheit dar, wobei die Verarbeitungsergebnis-Bilderzeugungseinheit einstellende Manipulation der Manipulationseinheit akzeptiert, während das Vorderansichtsbild auf der Display-Einheit dargestellt wird, und die Verarbeitungsergebnis-Bilderzeugungseinheit führt die perspektivische Transformation zu einer Bildpunktgruppe durch, die virtuell in dem dreidimensionalen Raum angeordnet ist, von einer Richtung, die durch den Winkel angegeben wird, der durch die Manipulation eingestellt wird.
  • Demgemäß wird das Bild der perspektivischen Transformation aus einer beliebigen, durch den Benutzer festgelegten Richtung erzeugt, so dass der Freiheitsgrad verstärkt wird, wenn das Messergebnis bestätigt wird. Das Bild, welches nahe an dem Bild liegt, welches durch den Benutzer beabsichtigt ist, kann dargestellt werden, da die perspektivische Transformation basierend auf der Richtung durchgeführt wird, die auf der Grundlage des Zustands, in dem das Messobjekt von der Vorderseite betrachtet wird, eingestellt wird.
  • Auch wenn in dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung und der Vorrichtung zur dreidimensionalen Messung das Ergebnis, welches die gesamte dreidimensionale Figur des Messobjekts ausdrückt, nicht erhalten wird, da der Messobjektbereich eingeschränkt ist, kann das Bild, welches eine Beziehung zwischen dem Messobjektbereich und der Umgebung bestätigt, darges tellt werden, oder bestätigt werden, ob der korrekte Bereich vermessen wurde oder nicht, während die Magnitude der durch die dreidimensionale Messung erhaltenen Koordinate bestätigt wird; dadurch kann die Anwenderfreundlichkeit verbessert werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine perspektivische Ansicht einer Konfiguration und ein Platzierungsbeispiel einer Abbildungsvorrichtung;
  • 2 zeigt ein funktionelles Blockdiagramm einer Konfiguration einer Vorrichtung zur dreidimensionalen Messung;
  • 3 zeigt eine erläuternde Ansicht eines Beispiels eines durch eine Kamera erzeugten Vorderansichtsbilds;
  • 4 zeigt eine erläuternde Ansicht eines Darstellungsbeispiels eines Verarbeitungsergebnisbilds;
  • 5 zeigt ein Flussdiagramm eines Verfahrens der Bildstransformationsverarbeitung;
  • 6 zeigt ein Flussdiagramm eines Verfahrens eines Messvorgangs;
  • 7 zeigt eine erläuternde Ansicht eines anderen Beispiels für eine Bildtransformation;
  • 8 zeigt eine erläuternde Ansicht eines weiteren Beispiels einer Bildtransformation; und
  • 9 zeigt eine erläuternde Ansicht eines weiteren Beispiels einer Konfiguration und eines Beispiels einer Messung einer Vorrichtung zur dreidimensionalen Messung.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 zeigt eine Konfiguration und ein Beispiel für eine Platzierung einer Abbildungseinheit einer Vorrichtung zur dreidimensionalen Messung gemäß einer ersten Ausführungsform der Erfindung.
  • In dieser Vorrichtung zur dreidimensionalen Messung nimmt eine Abbildungseinheit 1 aufeinander folgend Bilder von Messobjekten (im Folgenden als "Werkstück W" bezeichnet) gleicher Form auf, die auf einer Produktionslinie oder Inspektionslinie in einer Industrieanlage befördert werden, und in einem vorbestimmten Messobjektbereich jedes Werkstücks W wird eine Höhe gemessen. Die gemessene Höheninformation wird bei der Lageregelung eines Antriebssystems, wie beispielsweise einer Roboterhand, oder einem Unterscheidungsprozess bei der Inspektion verwendet.
  • Die Abbildungseinheit 1 besitzt eine Struktur, in der zwei Kameras C0 und C1 in ein Chassis 15 eingebaut sind, und die Abbildungseinheit 1 ist über einem Werkstück-Beförderungsweg L platziert. Die Kamera C0 ist derart platziert, dass die optische Achse in vertikale Richtung orientiert ist, so dass ein Bild der oberen Oberfläche des Werkstücks W von einer Vorderseite aufgenommen wird. Die Kamera C1 ist derart platziert, dass ein Bild des Werkstücks W von schräg oben aufgenommen wird, wobei die Gesichtsfelder der Kameras C0 und C1 sich gegenseitig überlappen.
  • 2 ist ein funktionelles Blockdiagramm, welches die gesamte Konfiguration der Vorrichtung zur dreidimensionalen Messung zeigt. Ein Computer ist in eine Steuer-/Verarbeitungseinheit 10 eingebaut. Neben der Abbildungseinheit 1 sind eine Manipulationseinheit 11 und eine Display-Einheit 12 mit der Steuer-/Verarbeitungseinheit 10 verbunden.
  • Die Steuer-/Verarbeitungseinheit 10 umfasst Bildeingabeeinheiten 100 und 101, welche den Kameras C0 und C1 entsprechen, einen Bildspeicher 102, eine Einstell-/Verarbeitungseinheit 103, eine Bildverarbeitungseinheit 104, eine Parameterberechnungseinheit 105, eine Parameterspeichereinheit 106, eine Einheit zur dreidimensionalen Messung 107, eine Koordinatentransformationseinheit 108, eine Post-Transformations-Bilderzeugungseinheit 109 und eine Ausgabeeinheit 110. Die Einheiten mit Ausnahme der Bildeingabeeinheiten 100 und 101, des Bildspeichers 102 und der Parameterspeichereinheit 106, stellen Funktionen dar, die in dem Computer durch ein dediziertes Programm eingestellt sind. Das dedizierte Programm wird in einer Speichervorrichtung mit großer Kapazität (nicht gezeigt), wie beispielsweise einer Festplatte oder einer Flash-Disk, gespeichert. Der Bildspeicher 102 und die Parameterspeichereinheit 106 werden ebenso in der Speichervorrichtung eingestellt.
  • In der Bildverarbeitungseinheit 104 wird das Vorderansichtsbild von der Kamera C0 als Referenzbild bei der Extraktion eines Objektbereichs der dreidimensionalen Messung festgelegt, ein vorbestimmter Messobjektbereich (in der vorliegenden Ausführungsform wird angenommen, dass es sich bei dem Bereich, welcher einen Merkmalspunkt umfasst, wie beispielsweise einen Kanten-bildenden Punkt oder ein bestimmtes Merkmalsmuster, um einen Messobjektbereich handelt) des Werkstücks W wird extrahiert, um eine Koordinate für die dreidimensionale Messung basierend auf dem Referenzbild durch eine Technik, wie beispielsweise Binärisierung, Kantenextraktion und Musterabgleich ("Pattern-Matching"), zu spezifizieren. Während das Bild (im Folgenden als "Vergleichsbild" bezeichnet), welches von der Kamera C1 geliefert wird, erfasst wird, wird ein Punkt oder ein Bereich, welcher dem Mess objektbereich in dem Referenzbild entspricht, gesucht, um gleichfalls die Koordinate für die dreidimensionale Messung zu spezifizieren.
  • Die Einstell-/Verarbeitungseinheit 103 akzeptiert spezifische Inhalte (beispielsweise ein Verfahren zur Extraktion des Messobjektbereichs und einen Objektbereich der Extraktionsverarbeitung) der Verarbeitung, welche durch die Bildverarbeitungseinheit 104 durchgeführt werden sollte, oder eine Manipulation zum Einstellen der in der Verarbeitung der perspektivischen Transformation verwendeten Winkelinformation von einer Manipulationseinheit 11. Anschließend stellt die Einstell-/Verarbeitungseinheit 103 die Inhalte der Einstellungsmanipulation zu der Bildverarbeitungseinheit 104 oder der Koordinatentransformationseinheit 108 ein.
  • Die Einheit zur dreidimensionalen Messung 107 errechnet eine dreidimensionale Koordinate unter Verwendung einer Koordinate eines repräsentativen Punkts in dem Referenzbild, welcher durch die Bildverarbeitungseinheit 104 extrahiert wurde, und einer entsprechenden Koordinate eines repräsentativen Punkts auf der Vergleichsbildseite. Die Einheit zur dreidimensionalen Messung 107 gibt das Berechnungsergebnis an die Ausgabeeinheit 110 weiter, und das Berechnungsergebnis wird an eine Display-Einheit 12 oder eine externe Vorrichtung (nicht dargestellt) ausgegeben.
  • In der Parameterspeichereinheit 106 werden mehrere Parameter, die bei der Verarbeitung der dreidimensionalen Messung verwendet werden, gespeichert. Die Parameter fluktuieren entsprechend einer Änderung im Stereokoordinatensystem, welches durch die Kameras C0 und C1 gebildet wird, und einer Änderung der Beziehung (wie beispielsweise des Abstands zwischen den Ursprüngen der Koordinaten und einem Drehverschiebungsgrad des Stereokoordinatensystems in Bezug auf das Raumkoordinatensystem) zwischen dem Stereokoordinatensystem und dem Raumkoordinatensystem, welches die Position im tatsäch lichen Raum anzeigt. Die Parameter werden durch Kalibrierung erhalten, wobei ein Kalibrierungswerkstück mit mehreren Merkmalspunkten vor der Hauptverarbeitung eingesetzt wird. Während der Kalibrierung führt die Bildverarbeitungseinheit 104 die Verarbeitung der Merkmalspunktextraktion durch, und die Parameterberechnungseinheit 105 führt eine Berechnung zum Erhalt der Parameter durch.
  • In der vorliegenden Ausführungsform werden verschiedene vorbestimmte Punkte des Werkstücks W als Messobjektbereich festgelegt, es wird eine Höhe jedes Bereichs gemessen, und die numerische Information, welche das Messergebnis anzeigt, wird an eine externe Vorrichtung (nicht dargestellt) ausgegeben. Gleichzeitig wird ein Bild (im Folgenden als "Verarbeitungsergebnisbild" bezeichnet), welches das Messergebnis anzeigt, erzeugt und auf der Display-Einheit 12 dargestellt, damit ein Benutzer erkennt, ob die Verarbeitung an dem korrekten Messobjektbereich oder der korrekten Höhe des Messobjektbereichs durchgeführt wurde oder nicht. Das Bild wird auf der Grundlage eines Ergebnisses erzeugt, bei dem eine perspektivische Transformation an dem Vorderansichtsbild (dem von der Kamera C0 aufgenommenen Referenzbild) durchgeführt wurde, welches in der dreidimensionalen Messung verwendet wurde. Die Koordinatentransformationseinheit 108 führt eine Berechnung (später beschriebene Gleichungen (1) und (2)) für die perspektivische Transformation durch. Auf der Grundlage des Berechnungsergebnisses erzeugt die Post-Transformations-Bilderzeugungseinheit 109 unter Verwendung des Referenzbilds in dem Bildspeicher 102 ein Verarbeitungsbild des Objekts. Die Ausgabeeinheit 110 gibt das erzeugte Bild an die Display-Einheit 12 weiter, und das Bild wird auf der Display-Einheit 12 dargestellt.
  • Der Messobjektbereich und das Verarbeitungsergebnisbild der Ausführungsform werden später detailliert mit Bezug auf ein spezifisches Beispiel erläutert.
  • 3 zeigt ein Beispiel für ein durch die Kamera C0 erzeugtes Referenzbild. Das Referenzbild wird durch Aufnahme eines Bilds von einem Teil des Werkstücks W (in diesem Beispiel IC) erzeugt. Mehrere Elektroden-Pins, eine ins Gehäuse gedruckte Kennzeichnungsreihe (welche die Typennummer angibt), und ein in dem Gehäuse ausgebildeter Stufenabschnitt sind in 3 dargestellt. In der vorliegenden Ausführungsform wird eine horizontale Richtung des Referenzbilds als Richtung der x-Achse festgelegt, und eine vertikale Richtung wird als Richtung der y-Achse festgelegt.
  • In 3 besteht der Messobjektbereich aus den Punkten P1 bis P4, die durch "+"-Markierungen angegeben werden, und einem Bereich R, der durch einen Rahmen mit gepunkteter Linie angedeutet wird. Im Folgenden werden die Punkte P1 bis P4 und der Bereich R als "Messobjektpunkte" und "Messobjektbereich" bezeichnet.
  • Die Messobjektpunkte P1 und P2 stellen konstitutionelle Punkte an den linken und rechten Enden der sechs Elektroden-Pins des Bilds dar. Die Messobjektpunkte P1 und P2 werden auf der Grundlage einer Kante, die in Längsrichtung des Elektroden-Pins durch Beleuchtungslicht (nicht gezeigt) erzeugt wurde, oder eines Abstands von einem Komponenten-Hauptkörper extrahiert. Der Einfachheit halber ist die Anzahl der Elektroden-Pins in dem Messobjektbereich auf zwei begrenzt. Tatsächlich wird jedoch wenigstens ein Messobjektpunkt in jedem Elektroden-Pin extrahiert.
  • Die Messobjektpunkte P3 und P4 stellen konstitutionelle Punkte an den Grenzen des Stufenabschnitts des Gehäuses dar. Die Messobjektpunkte P3 und P4 werden ebenso durch die Kantenextraktionsverarbeitung extrahiert.
  • Der Messobjektbereich R umfasst einen Kennzeichnungsstreifen "5B". Der Messobjektbereich R wird durch Musterabgleich ("Pattern- Matching"), bei dem ein Modell des Kennzeichnungsstreifens eingesetzt wird, extrahiert.
  • Basierend auf einem Triangulationsprinzip berechnet die Einheit zur dreidimensionalen Messung 107 eine Koordinate (z-Koordinate), welche die Höhe für die Messobjektpunkte P1 bis P4 und den Messobjektbereich R in jedem Koordinatensatz, welcher eine Korrelation zwischen dem durch die Kamera C0 erzeugten Referenzbild und dem durch die Kamera C1 erzeugten Vergleichsbild aufweist, angibt. Für den Messobjektbereich R wird eine Koordinate eines Mittelpunkts des Bereichs R aus jedem Bild extrahiert, um die z-Koordinate zu berechnen, und die berechnete z-Koordinate wird auf sämtliche Bildpunkte in dem Messobjektbereich R angewendet.
  • Die z-Koordinate wird berechnet, während eine Trägeroberfläche (insbesondere die obere Oberfläche der Werkstück-Beförderungslinie) des Werkstücks W oder eine Höhe einer virtuellen horizontalen Ebene, die in einem vorbestimmten Abstand zu der Trägeroberfläche liegt, auf Null eingestellt wird. Es wird ein dreidimensionales Koordinatensystem, in dem die x-Achse und die y-Achse des Referenzbilds mit einer z-Achse kombiniert werden, welche die Höhe anzeigt, festgelegt, und die konstitutionellen Bildpunkte des Referenzbilds werden virtuell in dem dreidimensionalen Koordinatensystem angeordnet, um die Verarbeitung der perspektivischen Transformation durchzuführen, wodurch das Verarbeitungsergebnisbild erzeugt wird.
  • Bei der Verarbeitung zum Anordnen der Bildpunkte in dem dreidimensionalen Koordinatensystem wird die Koordinate (Koordinate der Bildpunkteinheit) des ursprünglichen Referenzbilds direkt auf die x- und y-Koordinaten angewendet. Die z-Koordinate (Einheiten in mm), welche durch die Höhenmessung errechnet wird, wird an dem Bildpunkt eingestellt, welcher dem Messobjektpunkt oder dem Messobjektbereich entspricht. Andererseits wird unter der Annahme, dass der Bildpunkt au ßerhalb des Messobjekts in der xy-Ebene angeordnet ist, die z-Koordinate des Bildpunkts außerhalb des Messobjekts auf Null eingestellt.
  • 4 zeigt ein Darstellungsbeispiel für das Verarbeitungsergebnisbild. Das Verarbeitungsergebnisbild von 4 zeigt ein dreidimensionales Bild, in dem die Bildpunkte in dem Referenzbild von 3 virtuell in dem dreidimensionalen Koordinatensystem auf die oben beschriebene Weise angeordnet sind und die Bildpunktgruppe von schräg oben betrachtet wird. Die Punkte P1' bis P4', welchen den Messobjektpunkten P1 bis P4 in dem Bild entsprechen, sind der Deutlichkeit wegen mit einer "+"-Markierung gekennzeichnet. An den Punkten P1' bis P4' werden Hilfslinien (in 4 durch gepunktete Linien dargestellt) in einer vorbestimmten Farbe vertikal von den entsprechenden Punkten gezogen, in dem Fall, in dem die Höhe des Messobjektspunkts Null beträgt. Somit können die Höhen der Messobjektpunkte P1 bis P4 durch die Länge der Hilfslinie bestätigt werden.
  • Ein Bereich R', welcher dem Messobjektbereich R entspricht, wird an einer Position dargestellt, die auf der Grundlage der gemessenen Höhe erhalten wird. In 4 wird ein entsprechender Bereich R1 in einem Fall bestimmt, in dem die Höhe des Messobjektbereichs R auf Null gesetzt wird, und der Bereich R1 wird in einer vorbestimmten Farbe markiert (in 4 ist der Bereich R1 durch ein Halbton-Muster dargestellt). Wie bei den Messobjektpunkten P1' bis P4', werden Hilfslinien zwischen den Apices der Bereiche R1 und R' gezogen.
  • Die Gitterlinien g werden zweiseitig auf der Tiefenseite des Verarbeitungsergebnisbilds angegeben, um die Richtungen der x-, y- und z-Achsen und der Koordinate auszudrücken. Ob die Gitterlinie g angegeben wird oder nicht, kann anhand der Manipulationseinheit 11 entsprechend ausgewählt werden.
  • In der Bilddarstellung von 4 wird das gesamte durch die Kamera C0 erzeugte Vorderansichtsbild dargestellt, während es in das perspektivische Bild mit Tiefengefühl transformiert wird, und der Bereich, der tatsächlich die Höhe des Messobjekts wird, wird an einer Position ausgedrückt, welche den Messwert zusammen mit den Hilfslinien widerspiegelt. Somit kann der Benutzer leicht erkennen, ob der zu vermessende Bereich korrekt vermessen wurde oder ob der Messwert akzeptabel ist oder nicht.
  • In der vorliegenden Ausführungsform legt der Benutzer die Richtung der perspektivischen Transformation fest, wodurch ein perspektivisches Bild erhalten wird, welches einen Zustand anzeigt, in dem das Werkstück W aus der gewünschten Richtung betrachtet wird.
  • Die Richtung der perspektivischen Transformation wird durch einen Azimuthwinkel θ und einen Höhenwinkel ϕ mit Bezug auf das dreidimensionale Koordinatensystem, in dem die Bildpunktgruppe angeordnet ist, festgelegt. Der Azimuthwinkel θ stellt eine Orientierung um die z-Achse herum dar, welche die Höhe anzeigt. Beispielsweise wird der Azimuthwinkel θ durch einen Winkel bezogen auf eine positive Richtung der x-Achse ausgedrückt. Der Höhenwinkel ϕ wird durch einen Winkel bezogen auf die xy-Ebene ausgedrückt.
  • Die durch den Benutzer festgelegte Manipulation ist nicht auf die Eingabe des spezifischen numerischen Werts, wie beispielsweise der Winkel θ und ϕ, beschränkt. Beispielsweise werden die x-, y- und z-Achsen auf der Display-Einheit 12 dargestellt, und die x-, y- und z-Achsen werden durch Manipulation mit der Maus rotiert, um die Winkel θ und ϕ von den Drehwinkeln zu spezifizieren.
  • Unter der Annahme, dass (x, y, z) eine Position darstellt, an der jeder Bildpunkt in dem Referenzbild in dem dreidimensionalen Raum angeordnet ist, und die perspektivische Transformation an der Bildpunktgruppe von der Richtung durchgeführt wird, die durch die Winkel θ und ϕ ausgedrückt wird, wird eine Post-Transformations-Koordinate (x', y') jedes Bildpunkts durch folgende Gleichung (1) berechnet. [Formel 1]
    Figure 00180001
    a = mxy·sinθ b = mxy·cosθ·sinϕ c = mxy·cosθ d = mxy·sinθ·sinϕ e = mz·cosϕ
  • Die Koeffizienten a, b, c, d und e sind unter der Gleichung (1) beschrieben.
  • In der Gleichung (1) ist (x0, y0) eine Koordinate, die einem Ursprung des dreidimensionalen Koordinatensystems im Referenzbild entspricht. Außerdem zeigt (xt, yt) einen Bewegungsgrad an in einem Fall, in dem eine Darstellungsposition des Post-Transformations-Bilds in jede der Richtungen der x- und y-Achsen bewegt wird; mxy stellt die Vergrößerung in Richtung der x- und y-Achsen des Post-Transformations-Bilds dar; und mz stellt die Vergrößerung in Richtung x-Achse des Post-Transformations-Bilds dar.
  • Unter Anwendung der Gleichung (1) kann jeder Bildpunkt, welcher virtuell in dem dreidimensionalen Koordinatensystem angeordnet ist, in einen spezifischen Punkt des zweidimensionalen Koordinatensystems transformiert werden, welches das Post-Transformations-Bild ausdrückt.
  • Unter der Annahme, dass die z-Koordinate bereits bekannt ist, kann eine Gleichung zum Erhalt der Koordinate (x, y) des entsprechenden Bildpunkts auf dem Referenzbild für die Koordinate (x', y') in dem Post-Transformations-Bild durch Umformen der Gleichung (1) abgeleitet werden. Der spezifische Funktionsausdruck wird als Gleichung (2) erhalten. [Formel 2]
    Figure 00190001
  • 5 zeigt ein Verarbeitungsverfahren zur Erzeugung des Bilds der Transformationsverarbeitung von 4 unter Verwendung des Referenzbilds von 3.
  • In der in 5 dargestellten Verarbeitung wird die Verarbeitung der perspektivischen Transformation an dem gesamten Referenzbild durchgeführt. Insbesondere wird in dem Fall von z = 0 die Gleichung (2) an jeder Koordinate (x', y') des Post-Transformations-Bilds durchgeführt, wodurch die Koordinate (x, y), welche der Koordinate (x', y') auf der Referenzbildseite entspricht, berechnet wird (Schritt A). Dann werden die Bilddaten der entsprechenden Koordinate auf der Referenzbildseite, die durch die Berechnung spezifiziert wurden, an jeder Koordinate des Post-Transformations-Bilds festgelegt (Schritt B). Das Referenzbild, welches den Zustand einer Vorderansicht ausdrückt, kann in das Bild, welches die perspektivische Ansicht ausdrückt, durch die Verarbeitungsschritte in Schritt A und B transformiert werden.
  • In Schritt C wird die z-Koordinate, die für den Messobjektbereich R gemessen wurde, in z in Gleichung (2) eingesetzt und es wird, ähnlich wie in Schritt A, die Gleichung (2) an jedem Bildpunkt des Post-Transformations-Bilds unter Verwendung der Koordinate (x', y') durchgeführt. Wenn die Koordinate (x, y), die durch die Berechnung erhalten wurde, mit der Koordinate in dem Messobjektbereich auf der Referenzbildseite in Übereinstimmung gebracht wird, wird die Koordinate (x', y'), die in die Berechnung eingesetzt wurde, als die Koordinate spezifiziert, die dem Messobjektbereich R entspricht. In Schritt D werden die Bilddaten jeder in Schritt C spezifizierten Koordinate in Bilddaten der entsprechenden Bildpunkte (Bildpunkt mit der Koordinate (x, y), errechnet durch die Berechnung in Schritt C) auf der Referenzbildseite umgewandelt.
  • Das Bild des Messobjektbereichs in dem Post-Transformations-Bild kann durch die Verarbeitungsschritte in den Schritten C und D zu der Position bewegt werden, die der gemessenen Höhe entspricht.
  • In Schritt E wird, für den Fall, dass z = 0 ist, wiederum unter Verwendung des Berechnungsergebnisses von Schritt A, die Koordinate, die dem Messobjektbereich entspricht, in dem Post-Transformations-Bild spezifiziert, und die Bilddaten jeder spezifizierten Koordinate werden durch Daten ersetzt, welche eine Markierungsfarbe anzeigen.
  • In Schritt F wird die Gleichung (1), in der die Koordinate (x, y) auf der Referenzbildseite verwendet wird, auf den Messobjektpunkt und jeden Vertex des Messobjektbereichs angewendet, um die Koordinate (x', y') des entsprechenden Punkts in dem Post-Transformations-Bild zu erhalten. An diesem Punkt wird die Berechnung, bei der die gemessene z-Koordinate eingesetzt wird, und die Berechnung, in der z auf Null gesetzt wird, an jedem Punkt durchgeführt.
  • In Schritt G werden auf der Grundlage des Berechnungsergebnisses aus Schritt F die "+"-Markierung, welche den entsprechenden Punkt basierend auf der z-Koordinate angibt, und die Bilddaten der Hilfslinie, welche den entsprechenden, durch die "+"-Markierung angezeigten Punkt und den entsprechenden Punkt im Fall von z = 0 verbindet, in das Post-Transformations-Bild eingesetzt.
  • In der in 5 dargestellten Verarbeitung wird der entsprechende Bildpunkt in dem Prä-Transformations-Referenzbild für jeden Bildpunkt des Post-Transformations-Bilds unter Anwendung der Gleichung (2) spezifiziert, und die Bilddaten des entsprechenden Bildpunkts wer den eingesetzt. Somit können, auch wenn ein Bild erzeugt wird, welches mit den Vergrößerungen mxy, und mz vergrößert ist, die Bilddaten im Wesentlichen an allen Bildpunkten festgelegt werden, um die Bildgenauigkeit zu stabilisieren.
  • Die Manipulation zum Einstellen des Azimuthwinkels θ und des Höhenwinkels ϕ, welche in der Transformation verwendet werden, wird vor der Hauptverarbeitung durchgeführt, während das Vorderansichtsbild des Modells des Werkstücks W dargestellt wird. Nachdem das Verarbeitungsbild des Objekts in der Hauptverarbeitung dargestellt wird, kann die Manipulation zur Veränderung der Winkel θ und ϕ akzeptiert werden, um die Darstellung des Verarbeitungsbilds des Objekts zu verändern.
  • Da die Ebene, die dem Vorderansichtsbild entspricht, der xy-Ebene des virtuellen dreidimensionalen Koordinatensystems entspricht, kann interpretiert werden, dass die Winkel θ und ϕ der Richtung nach der Veränderung entsprechen, wenn der Benutzer eine visuelle Linie der Vorderansicht in eine Schrägrichtung ändert. Da eine perspektivische Ansicht dargestellt werden kann, die nahe an dem Bild ist, welches von der durch den Benutzer angenommen Betrachtungsrichtung aufgenommen wurde, kann die Richtung, die zur Bestätigung des Messergebnisses geeignet ist, leicht bestimmt werden, um den Einstellvorgang vorzunehmen.
  • 6 zeigt einen Verarbeitungsablauf, der an einem Werkstück W durchgeführt wird. Gemäß 6 startet die Verarbeitung, indem das Werkstück W des Messobjekts in einen abbildenden Objektbereich der Kameras C0 und C1 befördert wird. In Schritt 1 werden die Kameras C0 und C1 gleichzeitig gesteuert, um das Referenzbild und das Vergleichsbild zu erzeugen.
  • In Schritt 2 werden der Messobjektpunkt und der Messobjektbereich durch die verschiedenen Schritte der Bildverarbeitung aus dem Referenzbild extrahiert und die in der Höhenmessung verwendeten Koordinaten für die Messung des Objektpunkts und des Messobjektbereichs spezifiziert. Der Punkt und der Bereich, die dem Messobjektpunkt und dem Messobjektbereich entsprechen, werden aus dem Vergleichsbild extrahiert und die in der Höhenmessung eingesetzten Koordinaten spezifiziert.
  • In Schritt 3 wird die z-Koordinate, welche die Höhe angibt, durch Durchführen der Berechnung mit den Parametern in jeder entsprechenden Koordinate zwischen den Bildern berechnet.
  • In Schritt 4 wird das Verarbeitungsergebnisbild durch die Verarbeitung der Bildtransformation gemäß 5 erzeugt. Das erzeugte Verarbeitungsergebnisbild wird dargestellt (Schritt 5) und der Wert der Höhenmessung ausgegeben (Schritt 6). Damit ist die Verarbeitung beendet.
  • In der vorliegenden Ausführungsform wird bei der Messung des Objektbereichs die z-Koordinate, welche mit der Koordinate des Mittelpunkts des Bereichs berechnet wird, als Höhe des gesamten Bereichs ausgedrückt. Alternativ kann die Höhe individuell für die Mehrzahl an repräsentativen Punkten, die in dem Bereich mit einer vorbestimmten Fläche enthalten sind, gemessen werden, um das Verarbeitungsergebnisbild, welches das Messergebnis widerspiegelt, darzustellen.
  • 7 zeigt ein Beispiel, in dem die Höhenmessung an den Apices a, b und c eines dreieckigen Bereichs durchgeführt wird, und die perspektivische Transformation an den Apices a, b und c basierend auf den x- und y-Koordinaten in dem Referenzbild und der gemessenen z-Koordinate durchgeführt wird. In dem Bild von 7 werden die Apices a, b und c jeweils in die entsprechenden Punkte a', b' und c', welche durch die Gleichung (1) spezifiziert werden, transformiert, und die Hilfslinien, ähnlich zu denen von 4, werden derart eingestellt, dass sie die gemessene Höhe jedes Punkts ausdrücken. Andererseits wird das Bild des gesamten Bereichs auf einen vorbestimmten Bereich projiziert, indem die Gleichung (2) für den Fall z = 0 ausgeführt wird.
  • Da in dem Beispiel von 7 die Hilfslinie an dem Punkt c' kürzer ist als die anderen Hilfslinien, kann erkannt werden, dass der Punkt c tiefer liegt als die Punkte a und b. Das Display von 7 kann das Verarbeitungsergebnisbild darstellen, welches geeignet ist, die Neigung einer bestimmten Oberfläche oder die Existenz einer Unregelmäßigkeit zu bestätigen.
  • Bei dieser Art von Messung ist nicht immer das Messobjekt höher als die Bezugsebene, sondern es wird zuweilen ein Bereich gemessen, der in Bezug auf die Umgebung vertieft ist. Bei Durchführung der Messung des in Bezug auf die Umgebung vertieften Abschnitts kann das Verarbeitungsergebnisbild durch die gleiche Verarbeitung der perspektivischen Transformation erzeugt und dargestellt werden.
  • 8 zeigt ein Beispiel, in dem das Messobjekt eine hemisphärische Vertiefung darstellt, die in einem rechteckigen Gehäusekörper ausgebildet ist.
  • In dem Beispiel von 8 wird ein Paar von Kantenpunkten p und q, welche einander in radialer Richtung gegenüberliegen, von einer Kante extrahiert, welche einen äußeren Umfang der Vertiefung angibt; die Punkte p und q und ein Punkt o (Mittelpunkt einer Strecke pq), welcher dem Mittelpunkt der Vertiefung entspricht, werden als Messobjektpunkte festgelegt, um die z-Koordinate jedes Punkts zu berechnen. Die berechneten z-Koordinaten werden in die Messobjektpunkte eingesetzt, und die entsprechenden Punkte o', p' und q' werden in dem Post-Transformations-Bild unter Anwendung der Gleichung (1) erhalten. Andererseits wird ein konstanter Wert, bei dem die z-Koordinate größer als Null ist, in alle Bildpunkte eingesetzt, und das gesamte Referenzbild wird durch die Verarbeitung der perspektivischen Transformation basierend auf der Gleichung (2) transformiert.
  • Beispielsweise kann eine typische Höhe des Gehäusekörpers, welche aus der konstanten z-Koordinate besteht, in jeden Bildpunkt eingesetzt werden. Ein Messobjektpunkt wird ebenso außerhalb der Vertiefung bereitgestellt, um die z-Koordinate zu messen, und der gemessene Wert kann gewöhnlich an den Bildpunkten festgelegt werden.
  • In dem Beispiel von 8 wird das perspektivische Bild des gesamten Gehäusekörpers durch die Verarbeitung der Transformation dargestellt, die entsprechenden Punkte o', p' und q' werden an Positionen dargestellt, die der gemessenen z-Koordinate für die Messobjektpunkte o, p und q entsprechen, und es wird die Hilfslinie, welche die Höhe anzeigt, eingestellt.
  • In der Darstellung von 8 kann leicht bestätigt werden, um wieviel der Mittelpunkt oder die Vertiefung mit Bezug auf die äußere Umgebung abfällt, oder ob der Objektbereich korrekt vermessen wurde oder nicht.
  • In der vorliegenden Ausführungsform wird das Verarbeitungsergebnisbild, welches das Messergebnis des Bereichs anzeigt, der verwendet wird, um tatsächlich die z-Koordinate zu berechnen, unter Verwendung des Bilds, welches in der Verarbeitung der dreidimensionalen Messung, in der die Stereokamera eingesetzt wird, dargestellt. In dem Verfahren zur dreidimensionalen Messung kann, mit Ausnahme des Stereoverfahrens, wenn der Bildpunkt, der dem Messobjektbereich entspricht, spezifiziert werden kann, das gleiche Verarbeitungsergebnisbild gemessen und dargestellt werden.
  • 9 zeigt ein Konfigurationsbeispiel einer Vorrichtung zur dreidimensionalen Messung, welche das Verarbeitungsergebnisbild ähnlich wie in den oben beschriebenen Beispielen darstellen kann.
  • Die Vorrichtung von 9 misst die Höhe durch ein Lichtschnittverfahren. Die Vorrichtung umfasst eine Flutlichteinheit 20, welche ein Messobjekt mit einem Laserspaltlicht 22 bestrahlt, eine zweidimensio nale Kamera 21 und eine Steuerverarbeitungseinheit (nicht gezeigt). Das Werkstück W ist IC, und das Messobjekt stellen die Elektroden-Pins 30 dar.
  • Ähnlich wie die Kamera C0 der Ausführungsform, wird die Kamera 21 derart platziert, dass die optische Achse in vertikaler Richtung orientiert ist, so dass das Vorderansichtsbild des Werkstücks W erzeugt wird. Die Flutlichteinheit 20 wird schräg oberhalb des Werkstücks W angeordnet, um die Elektroden-Pins 30 mit dem Spaltlicht 22 entlang einer Richtung, in der die Elektroden-Pins 30 angeordnet sind, zu beleuchten.
  • Die Steuer-/Verarbeitungseinheit extrahiert ein Lichtstrahlbild des reflektierten Lichts des Spaltlichts 22 aus dem von der Kamera 21 erzeugten Bild, und die Steuer-/Verarbeitungseinheit legt mehrere in dem Lichtstrahlbild enthaltenen Punkte als Messobjektpunkte fest, um die Koordinaten der Messobjektpunkte in den vorbestimmten Funktionsausdruck einzusetzen, wodurch die Höhe, die jedem Messobjektpunkt entspricht, berechnet wird.
  • In dem Beispiel von 9 wird die Höhenmessung durchgeführt, während der vorbestimmte Bildpunkt in dem Vorderansichtsbild des Werkstücks W als Messobjektpunkt festgelegt wird, so dass der in der Messung verwendete Bildpunkt in die Position transformiert werden kann, die der gemessenen Höhe in dem bei der Messung verwendeten Vorderansichtsbild entspricht. Demgemäß kann, obwohl das Lichtschnittverfahren sich von dem Stereoverfahren in der dreidimensionalen Messtechnik unterscheidet, ähnlich wie bei der Vorrichtung zur dreidimensionalen Messung, bei der das Stereoverfahren angewendet wird, das Verarbeitungsergebnisbild erzeugt und dargestellt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2000-39566 [0002, 0003]

Claims (5)

  1. Verfahren zur dreidimensionalen Messung zur Beobachtung eines Messobjekts, bei dem ein oder mehrere Messobjektbereiche zuvor definiert werden, mit einer optischen Einheit zur dreidimensionalen Messung zur Berechnung einer Koordinate für jeden Messobjektbereich, wobei die Koordinate eine Position relativ zu einer vorbestimmten Bezugsebene angibt, welche wenigstens dem Messobjektbereich gegenüberliegt, wobei das Verfahren zur dreidimensionalen Messung umfasst: die Aufnahme eines Bilds von dem Messobjekt zur Erzeugung eines zweidimensionalen Bilds; das Festlegen einer Koordinate an einem Bildpunkt, welcher dem Messobjektbereich in dem zweidimensionalen Bild entspricht, wobei die Koordinate die Position relativ zu der Bezugsebene angibt; das Festlegen eines konstanten Werts an einem anderen Bildpunkt, wobei der konstante Wert aus der Koordinate besteht, welche die Position relativ zu der Bezugsebene angibt; die virtuelle Anordnung jedes festgelegten Bildpunkts in einem dreidimensionalen Raum, wobei der dreidimensionale Raum durch zwei Achsen, die ein Koordinatensystem des zweidimensionalen Bilds bilden, und eine Achse, welche die Position relativ zu der Bezugsebene angibt, gebildet wird; Durchführen einer perspektivischen Transformation jedes Bildpunkts von einer vorbestimmten Richtung aus; und Verarbeiten und Darstellen eines durch die perspektivische Transformation erzeugten zweidimensionalen Bilds, so dass der Messobjektbereich von einem anderen Bereich unterschieden werden kann.
  2. Verfahren zur dreidimensionalen Messung gemäß Anspruch 1, wobei ein Vorderansichtsbild, welches durch Aufnehmen eines Bilds von dem Messobjekt aus einer Vorderrichtung erzeugt wird, als Objektbild der perspektivischen Transformation festgelegt wird, eine Manipulation zum Einstellen einer Richtung der perspektivischen Transformation basierend auf einer Vorderansichtsrichtung akzeptiert wird, während das Vorderansichtsbild dargestellt wird, und die perspektivische Transformation zu einer Bildpunktgruppe von einer Richtung durchgeführt wird, die durch einen durch die Manipulation festgelegten Winkel angegeben wird, wobei die Bildpunktgruppe virtuell in dem dreidimensionalen Raum angeordnet ist.
  3. Verfahren zur dreidimensionalen Messung gemäß Anspruch 1 oder 2, wobei, nachdem eine Koordinate, die jedem Messobjektbereich entspricht, in mehreren zweidimensionalen Bildern spezifiziert wurde, mit einer Vorrichtung, welche von der optischen Einheit zur dreidimensionalen Messung zur Durchführung der dreidimensionalen Messung mehrere zweidimensionale Bilder verwendet, die durch eine Mehrzahl an Kameras erzeugt werden, unter Verwendung der spezifizierten Koordinate eine Koordinate errechnet wird, welche eine Position relativ zu der Bezugsebene angibt, und für eines der zweidimensionalen Bilder, die in der dreidimensionalen Messung eingesetzt werden, die Koordinate, die als Koordinate errechnet wurde, welche eine Position relativ zu der Bezugsebene angibt, an einem Bildpunkt festgelegt wird, dessen Koordinate als die Koordinate spezifiziert wurde, die dem Messobjektbereich entspricht, die konstante Koordinate an anderen Bildpunkten als Koordinate festgelegt wird, welche eine Position relativ zu der Bezugsebene angibt, und die Verarbeitung der perspektivischen Transformation durchgeführt wird.
  4. Vorrichtung zur dreidimensionalen Messung, umfassend: eine Mehrzahl an Kameras, welche bei definierter Lagebeziehung und Richtung der optischen Achse derart angeordnet sind, dass die Gesichtsfelder der Kameras in einem vorbestimmten Bereich überlappen; eine Bildeingabeeinheit, in welche eine Mehrzahl an zweidimensionalen Bildern eingespeist wird, wobei die Mehrzahl an zweidimensionalen Bildern durch Aufnehmen eines Bilds von einem Messobjekt, welches in den Bereich eintritt, in dem sich die Gesichtsfelder der Kameras überlappen, unter Verwendung der Kameras erzeugt werden; eine Messeinheit, welche eine Koordinate eines entsprechenden Punkts in jedem Eingabebild für einen oder mehrere vorbestimmte Messobjektbereiche des Messobjekts extrahiert, wobei die Messeinheit eine Koordinate berechnet, welche eine Position relativ zu einer Bezugsebene, die wenigstens dem Messobjektbereich gegenüberliegt, unter Verwendung jeder extrahierter Koordinate berechnet; eine Verarbeitungsergebnis-Bilderzeugungseinheit, welche ein zweidimensionales Bild des Verarbeitungsergebnisses erzeugt, welches das Messergebnis der Messeinheit ausdrückt; und eine Display-Einheit, welche das Verarbeitungsergebnisbild darstellt, wobei für ein bestimmtes Bild aus einer Mehrzahl an zweidimensionalen Bildern, die zur Messung durch die Messeinheit eingesetzt werden, die Verarbeitungsergebnis-Bilderzeugungseinheit die Koordinate, die als die Koordinate berechnet wurde, welche die Position relativ zu der Bezugsebene angibt, an einem Bildpunkt festgelegt, dessen Koordinate, welche dem Messobjektbereich entspricht, durch die Messeinheit in jedem konstitutionellen Bildpunkt in dem spezifischen Bild extrahiert wird, die Verarbeitungsergebnis-Bilderzeugungseinheit einen konstanten Wert als Koordinate festlegt, welche die Position relativ zu der Bezugsebene an anderen Bildpunkten angibt, die Verarbeitungsergebnis-Bilderzeugungseinheit die festgelegten Bildpunkte virtuell in einem dreidimensionalen Raum anordnet, wobei der dreidimensionale Raum zwei Achsen, welche ein Koordinatensystem des spezifischen Bilds bilden, und eine Achse, welche die Position relativ zu der Bezugsebene angibt, umfasst, und die Verarbeitungsergebnis-Bildproduktionseinheit eine perspektivische Transformation zu jedem Bildpunkt von einer vorbestimmten Richtung aus durchführt und das Bild de perspektivischen Transformation verarbeitet, so dass der Messobjektbereich von anderen Bereichen unterschieden und ein Verarbeitungsergebnisbild erzeugt werden kann.
  5. Vorrichtung zur dreidimensionalen Messung gemäß Anspruch 4, weiterhin umfassend eine Manipulationseinheit, welche eine Manipulation zum Festlegen eines Winkels, welcher eine Richtung der perspektivischen Transformation basierend auf einer Vorderansichtsrichtung angibt, durchführt, wobei eine bestimmte Kamera aus der Mehrzahl an Kameras derart angeordnet ist, dass ein Bild des Messobjekt von der Vorderansichtsrichtung aufgenommen wird, wobei die Verarbeitungsergebnis-Bilderzeugungseinheit ein Vorderansichtsbild eines Messobjekts, welches durch die spezifische Kamera aufgenommen wurde, auf der Display-Einheit darstellt, die Verarbeitungsergebnis-Bilderzeugungseinheit einstellende Manipulation der Manipulationseinheit akzeptiert, während das Vorderansichtsbild auf der Display-Einheit dargestellt wird, und die Verarbeitungsergebnis-Bildproduktionseinheit die perspektivische Transformation zu einer Bildpunktgruppe durchführt, die virtuell in dem dreidimensionalen Raum angeordnet ist, aus einer Richtung, die durch den durch die Manipulation eingestellten Winkel angegeben wird.
DE102008041523.5A 2007-08-29 2008-08-25 Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung Active DE102008041523B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007-222356 2007-08-29
JP2007222356A JP4492654B2 (ja) 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置

Publications (2)

Publication Number Publication Date
DE102008041523A1 true DE102008041523A1 (de) 2009-04-30
DE102008041523B4 DE102008041523B4 (de) 2020-09-03

Family

ID=40406939

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008041523.5A Active DE102008041523B4 (de) 2007-08-29 2008-08-25 Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung

Country Status (3)

Country Link
US (1) US8564655B2 (de)
JP (1) JP4492654B2 (de)
DE (1) DE102008041523B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021113805A (ja) * 2020-01-20 2021-08-05 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 顕微鏡および顕微鏡の測定位置を決定する方法

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5218177B2 (ja) * 2009-03-13 2013-06-26 オムロン株式会社 画像処理装置および方法
JP5257335B2 (ja) 2009-11-24 2013-08-07 オムロン株式会社 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US9013469B2 (en) * 2011-03-04 2015-04-21 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
US9875574B2 (en) 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
KR101276208B1 (ko) * 2011-05-30 2013-06-18 전자부품연구원 스테레오 카메라용 보정 시스템 및 스테레오 영상 보정 장치
DE202011051565U1 (de) * 2011-10-06 2011-11-03 Leuze Electronic Gmbh & Co. Kg Optischer Sensor
KR20130086773A (ko) * 2012-01-26 2013-08-05 두산인프라코어 주식회사 비전 기반 공작물 셋업 방법
US9521294B2 (en) 2012-06-04 2016-12-13 Hewlett-Packard Development Company, L.P. Adjusting digital images for parallax
CN103033132B (zh) * 2012-12-20 2016-05-18 中国科学院自动化研究所 基于单目视觉的平面测量方法及装置
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
DE102013111761B4 (de) * 2013-10-25 2018-02-15 Gerhard Schubert Gmbh Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9600928B2 (en) 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
DE102014114506B4 (de) * 2014-10-07 2020-06-04 Sick Ag Kamera zur Montage an einer Fördereinrichtung und Verfahren zur Inspektion oder Identifikation
US10121249B2 (en) * 2016-04-01 2018-11-06 Baja Education, Inc. Enhanced visualization of areas of interest in image data
JP6817804B2 (ja) * 2016-12-16 2021-01-20 クラリオン株式会社 区画線認識装置
JP7378934B2 (ja) * 2019-01-29 2023-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US10928186B2 (en) * 2019-04-02 2021-02-23 Premier Innovations, LLC System and method for thickness measurement in tortilla production
CN110365884A (zh) * 2019-07-29 2019-10-22 威米深智(苏州)工业技术有限公司 一种高精度光学引导局部成像方法
JPWO2021199730A1 (de) * 2020-03-31 2021-10-07

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039566A (ja) 1998-07-24 2000-02-08 Sony Corp 拡大観察装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479252A (en) * 1993-06-17 1995-12-26 Ultrapointe Corporation Laser imaging system for inspection and analysis of sub-micron particles
DE4419359A1 (de) * 1994-06-03 1995-12-07 Wolfram Dipl Ing Kirchner Verfahren zur Erfassung, Auswertung, Ausmessung und Speicherung von Geo-Informationen
GB2372656A (en) * 2001-02-23 2002-08-28 Ind Control Systems Ltd Optical position determination
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
JP4774824B2 (ja) * 2005-06-17 2011-09-14 オムロン株式会社 3次元計測処理の計測対象範囲の確認方法および計測対象範囲の設定方法ならびに各方法を実施する装置
KR101155816B1 (ko) * 2005-06-17 2012-06-12 오므론 가부시키가이샤 3차원 계측을 행하는 화상 처리 장치 및 화상 처리 방법
JP4232166B2 (ja) * 2006-01-31 2009-03-04 株式会社アイメトリクス・ジャパン 眼鏡装着シミュレーション方法及び装置
US8023156B2 (en) * 2007-04-10 2011-09-20 Xerox Corporation Image output color management system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000039566A (ja) 1998-07-24 2000-02-08 Sony Corp 拡大観察装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021113805A (ja) * 2020-01-20 2021-08-05 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 顕微鏡および顕微鏡の測定位置を決定する方法
JP7153258B2 (ja) 2020-01-20 2022-10-14 カール ツァイス マイクロスコピー ゲーエムベーハー 顕微鏡および顕微鏡の測定位置を決定する方法
US11830215B2 (en) 2020-01-20 2023-11-28 Carl Zeiss Microscopy Gmbh Microscope and method for determining a measuring location of a microscope

Also Published As

Publication number Publication date
US8564655B2 (en) 2013-10-22
JP4492654B2 (ja) 2010-06-30
US20090059242A1 (en) 2009-03-05
DE102008041523B4 (de) 2020-09-03
JP2009053147A (ja) 2009-03-12

Similar Documents

Publication Publication Date Title
DE102008041523B4 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE69826753T2 (de) Optischer Profilsensor
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
EP2040026B1 (de) Verfahren und System zur Kalibrierung einer Vorrichtung zur Formmessung einer spiegelnden Oberfläche
DE69723213T2 (de) System zum Messen des Spiels und der Koplanarität zweier nebeneinander liegender Objekte
DE102018109774B4 (de) Bildverarbeitungssystem, Bildverarbeitungsvorrichtung und Bildverarbeitungsprogramm
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE102008041524B4 (de) Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
DE112014004190T5 (de) Positurschätzverfahren und Roboter
DE112006002674T5 (de) Verfahren und Vorrichtungen für praktisches 3D-Sichtigkeitssystem
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112010002174T5 (de) Verfahren und vorrichtung für ein praktisches 3d-sehsystem
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE10137241A1 (de) Registrierung von Tiefenbildern mittels optisch projizierter Marken
EP1173749A2 (de) Bildbearbeitung zur vorbereitung einer texturnalyse
EP2019283A2 (de) Verfahren und Vorrichtung zur Vermessung von Ist-Messdaten eines Bauteils
DE102005037841B4 (de) Verfahren und Anordnung zur Bestimmung der relativen Lage eines ersten Objektes bezüglich eines zweiten Objektes, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
DE102004033526A1 (de) Verfahren und Vorrichtung zur Analyse zumindest partiell reflektierender Oberflächen
DE102019103519A1 (de) Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts
EP2031348B1 (de) Oberflächeninspektionsverfahren zum Detektieren von Oberflächendefekten und/oder Vermessen der Oberflächentopographie
DE102007037131A1 (de) Verfahren zur dreidimensionalen Vermessung einer Oberfläche
DE102019131693A1 (de) Messgerät zur untersuchung einer probe und verfahren zum bestimmen einer höhenkarte einer probe

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

Representative=s name: KILIAN KILIAN & PARTNER, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final