DE102008041524A1 - Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen - Google Patents

Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen Download PDF

Info

Publication number
DE102008041524A1
DE102008041524A1 DE102008041524A DE102008041524A DE102008041524A1 DE 102008041524 A1 DE102008041524 A1 DE 102008041524A1 DE 102008041524 A DE102008041524 A DE 102008041524A DE 102008041524 A DE102008041524 A DE 102008041524A DE 102008041524 A1 DE102008041524 A1 DE 102008041524A1
Authority
DE
Germany
Prior art keywords
cameras
camera
point
dimensional measurement
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102008041524A
Other languages
English (en)
Other versions
DE102008041524B4 (de
Inventor
Yasuyuki Ikeda
Shiro Fujieda
Hiroshi Yano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE102008041524A1 publication Critical patent/DE102008041524A1/de
Application granted granted Critical
Publication of DE102008041524B4 publication Critical patent/DE102008041524B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Eine Steuer-/Verarbeitungseinheit steuert gleichzeitig Kameras, um Bilder von einem Messobjekt zu erzeugen, die Steuer-/Verarbeitungseinheit sucht einen entsprechenden Punkt auf einem von einer der Kameras erzeugten Vergleichsbild für einen repräsentativen Punkt in einem durch eine andere Kamera erzeugten Referenzbild, und die Steuer-/Verarbeitungseinheit berechnet unter Verwendung der Koordinate jedes durch die Suche korrelierten Punkts eine dreidimensionale Koordinate, welche einer Koordinate entspricht. Die Steuer-/Verarbeitungseinheit erhält außerdem einen Verschiebungsgrad an dem entsprechenden, durch die Suche spezifizierten Punkt zu einer epipolaren Linie, die auf der Grundlage einer Koordinate eines repräsentativen Punkts auf der Referenzbildseite oder eines Parameters, welcher eine Beziehung zwischen den Kameras angibt, spezifiziert wurde, und die Steuer-/Verarbeitungseinheit gibt den Verschiebungsgrad als Bewertungswert, welcher die Genauigkeit der dreidimensionalen Messung anzeigt, zusammen mit dem Ergebnis der dreidimensionalen Messung aus.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Bereich der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Durchführung dreidimensionaler Messungen unter Einsatz einer Mehrzahl an Kameras, welche unter Festlegung der Lagebeziehung und der Richtungen der optischen Achse derart angeordnet sind, dass die Gesichtsfelder der Kameras innerhalb eines vorbestimmten Bereichs überlappen.
  • 2. Beschreibung des Stands der Technik
  • Bei dieser Art der Verarbeitung dreidimensionaler Messungen werden im Allgemeinen zwei Kameras eingesetzt, wobei für Merkmalspunkte, welche den durch beide Kameras erzeugten Bildern gemeinsam scheinen, auf der Grundlage eines Triangulationsprinzips eine dreidimensionale Koordinate berechnet wird. Um den Merkmalspunkt zu spezifizieren, welcher ein Messziel darstellt, wird eines der Bilder als Bezugs- oder Referenzbild festgelegt, ein repräsentativer Punkt, welcher in dem Messobjekt enthalten ist, von dem Referenzbild extrahiert, und eine Verarbeitung (beispielsweise ein Musterabgleich) durchgeführt, um den entsprechenden Punkt in dem anderen Bild zu suchen, wobei ein Bild innerhalb eines Bereichs mit einer vorbestimmten Größe, welcher den repräsentativen Punkt enthält, verwendet wird. Bei der Berechnung der dreidimensionalen Koordinate wird die Berechnung unter Verwen dung von zuvor durch Kalibrierung eingestellten Parametern durchgeführt.
  • Bei der entsprechenden Punktsuchverarbeitung wird, um die Suche effizient und akkurat durchzuführen, meist ein Verfahren angewendet, in dem, basierend auf einer Koordinate des repräsentativen Punkts in dem Referenzbild oder einer Lagebeziehung zwischen den Kameras, eine epipolare Linie auf einem Suchzielbild spezifiziert wird und ein Bereich, welcher dem Bereich entspricht, der den Merkmalspunkt enthält, entlang der epipolaren Linie abgesucht wird (siehe beispielsweise Japanische Patentanmeldungsoffenlegung Nr. 2004-234423 ).
  • Bei der Verarbeitung der dreidimensionalen Messung ist es notwendig, dass die relative Lagebeziehung und die Richtungen der optischen Achse der Kameras mit Bezug auf den Messzielbereich festgelegt sind. Jedoch kommt es vor, dass eine Position oder Einstellung der Kamera aus irgendeinem Grund verändert wird. In solchen Fällen wird, da der Punkt, der dem Merkmalspunkt auf der Referenzbildseite entspricht, aus der richtigen Position verschoben wird, das Berechnungsergebnis der dreidimensionalen Koordinate ebenso unkorrekt.
  • Wenn das Ergebnis der dreidimensionalen Messung aufgrund der Veränderung der Position oder Einstellung der Kamera ungenau wird, kommt es möglicherweise zu einem folgeschweren Schaden in dem Fall, in dem ein exaktes Messergebnis erforderlich ist.
  • Wenn beispielsweise eine Roboterhand durch die dreidimensionale Messung in einer Produktionslinie einer Industrieanlage positioniert wird, wird bei fortschreitender Verarbeitung ohne Kenntnisnahme des inkorrekten Messergebnisses möglicherweise ein Defektteil erzeugt, oder es kommt zu einem Verarbeitungsfehler. In dem Fall, in dem eine Überprüfung durch die dreidimensionale Messung vorgenommen wird, wird das Defektteil übersehen und ausgeliefert, oder es besteht ein Risiko, dass eine erhöhte Anzahl an Produkten als Defektteile bestimmt werden, obwohl sie nicht defekt sind.
  • Im Hinblick auf das oben beschriebene Problem ist es Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Durchführen dreidimensionaler Messungen bereitzustellen, mittels welcher ein Anwender schnell das fehlerhafte Ergebnis der dreidimensionalen Messung erkennen und darauf reagieren kann, da sich die Beziehung zwischen den Kameras von der des anfänglich eingestellten Zustands unterscheidet.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • In dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung sind eine Mehrzahl an Kameras unter Festlegung einer Lagebeziehung und der Richtungen der optischen Achse derart angeordnet, dass die Gesichtsfelder der Kameras innerhalb eines vorbestimmten Bereichs überlappen, wobei insbesondere eine Kamera aus der Mehrzahl an Kameras als Referenzkamera festgelegt wird, und die dreidimensionale Messung an einem Messobjekt durch einen ersten Schritt, einen zweiten Schritt, einen dritten Schritt und einen vierten Schritt vorbestimmte Male durchgeführt wird, wobei in dem ersten Schritt das Messobjekt, welches in einen Bereich eintritt, in dem sich die Gesichtsfelder der Mehrzahl an Kameras überlappen, von den Kameras aufgenommen wird, im zweiten Schritt ein repräsentativer Punkt des Messobjekts von einem durch die Referenzkamera erzeugten Referenzbild extrahiert wird, im dritten Schritt ein Punkt, welcher dem repräsentativen Punkt auf der Referenzbildseite entspricht, in einem durch eine Kamera, ausgenommen der Referenzkamera, erzeugten Bild gesucht wird, und im vierten Schritt unter Verwendung der Koordinate jedes Punkts, der durch die Suche im dritten Schritt korreliert wurde, eine dreidimensionale Koordinate, welche einer Koordinate entspricht, erhalten wird.
  • In dem dritten Schritt ist es wünschenswert, die Suche entlang der epipolaren Linie durchzuführen, um die Suche effizient durchzuführen. In derartigen Fällen ist es notwendig, dass das Suchziel einen Bereich abdeckt, der sich in einiger Entfernung von der epipolaren Linie befindet, für den Fall, dass der entsprechende Punkt von der epipolaren Linie verschoben ist.
  • Wenn sich die Beziehung zwischen den Kameras von der Beziehung unterscheidet, die vor der Messung durch Kalibrierung spezifiziert wurde, da eine Position oder Einstellung der Kamera verändert ist, wird der dem repräsentativen Punkt, der aus dem Referenzbild extrahiert wurde, entsprechende Punkt des anderen Bilds auf Grundlage der durch die Kalibrierung spezifizierten Beziehung zwischen den Kameras an einer Position im Abstand von der epipolaren Linie lokalisiert.
  • In der vorliegenden Erfindung ist die Aufmerksamkeit auf diesen Punkt gerichtet, wobei, während die Verarbeitung der dreidimensionalen Messung an einem Messobjekt durchgeführt wird, ein Verschiebungsgrad an dem entsprechenden Punkt, welcher durch die Suche im dritten Schritt erhalten wurde, zu einer epipolaren Linie basierend auf einer vorbestimmten Beziehung zwischen der Kamera und der Koordinate des repräsentativen Punkts in dem Referenzbild für wenigstens einen repräsentativen Punkt berechnet wird, die Bewertungsinformation, welche die Genauigkeit des Ergebnisses der dreidimensionalen Messung anzeigt, basierend auf dem berechneten Verschiebungsgrad festgelegt wird, und die Bewertungsinformation zusammen mit dem Ergebnis der dreidimensionalen Messung des Messobjekts geliefert wird.
  • Gemäß dem Verfahren wird, während die Verarbeitung der dreidimensionalen Messung an einem Messobjekt durchgeführt wird, die Bewertungsinformation, welche die Genauigkeit des Messergebnisses anzeigt, erhalten, und die Bewertungsinformation wird zusammen mit dem Ergebnis der dreidimensionalen Messung geliefert. Somit wird, wenn die Genauigkeit der dreidimensionalen Messung aufgrund einer Veränderung der Beziehung zwischen den Kameras erniedrigt ist, der Anwender davor bewahrt, die Verminderung der Genauigkeit der dreidimensionalen Messung zu übersehen.
  • Es ist wünschenswert, die Verarbeitung zum Erhalt des Verschiebungsgrads an dem entsprechenden Punkt und die Ausgabe der Bewertungsinformation an allen Messobjekten durchzuführen. Alternativ können die Verarbeitung zum Erhalt des Verschiebungsgrads an dem entsprechenden Punkt und die Ausgabe der Bewertungsinformation jederzeit an nicht weniger als zwei Messobjekten durchgeführt werden.
  • Der Bestimmungsort der Ausgabe der Bewertungsinformation ist nicht auf eine Displayvorrichtung und eine externe Vorrichtung beschränkt; die Bewertungsinformation kann auch an eine Speichervorrichtung oder an ein Treibergerät für ein entfernbares Speichermedium weitergegeben werden.
  • Die Japanische Patentanmeldungsoffenlegung Nr. 2004-234423 offenbart eine Technik, bei der ein Zuverlässigkeitsgrad der Verarbeitung der dreidimensionalen Messung erhalten wird, während die dreidimensionale Messung durchgeführt wird. Jedoch wird in der Japanischen Patentanmeldungsoffenlegung Nr. 2004-234423 der Zuverlässigkeitsgrad verwendet, um zu bestimmen, ob ein Punkt, der sich von dem tatsächlichen entsprechenden Punkt unterscheidet, falsch extrahiert wurde oder nicht, während der entsprechende Punkt entlang der epipolaren Linie gesucht wird.
  • Die Bewertungsinformation der vorliegenden Erfindung wird verwendet, um einen Zustand zu erkennen, in dem der Parameter, der zur Berechnung der dreidimensionalen Koordinate notwendig ist, nicht den tatsächlichen Anordnungen der Kameras entspricht, obwohl der entsprechende Punkt selbst korrekt ist. Somit unterscheidet sich die Bewertungsinformation in der vorliegenden Erfindung im Konzept vollstän dig von dem Zuverlässigkeitsgrad in der Japanischen Patentanmeldungsoffenlegung Nr. 2004-234423 . In der Japanischen Patentanmeldungsoffenlegung Nr. 2004-234423 wird, während ein Abtastfenster entlang der epipolaren Linie in einem überprüfenden Zielbild abgetastet wird, der Zuverlässigkeitsgrad durch die Operation berechnet, in der die Summe des absoluten Werts (SAD) eines Helligkeitsunterschieds mit dem Referenzfenster in jeder Abtastposition eingesetzt wird; es wird nicht beschrieben, dass der Verschiebungsgrad zu der epipolaren Linie an dem entsprechenden Punkt erhalten wird.
  • Wenn die Positionen oder Einstellungen der Referenzkamera und der Kamera, mit Ausnahme der Referenzkamera, gleichermaßen verändert werden, wird das Phänomen, dass der dem repräsentativen Punkt entsprechende Punkt auf der Referenzbildseite von der epipolaren Linie verschoben wird, nicht verursacht, da die relative Beziehung zwischen den Kameras nicht verändert wird. Jedoch wird die Genauigkeit der dreidimensionalen Messung herabgesetzt, da das Verhältnis zwischen dem Stereo-Koordinatensystem der Kameras und dem Raumkoordinatensystem, welches die dreidimensionale Koordinate spezifiziert, verändert wird.
  • Des Weiteren werden in dem erfindungsgemäßen Verfahren zur dreidimensionalen Messung nicht weniger als drei Kameras eingesetzt, wobei die Kameras, mit Ausnahme der Referenzkamera, individuell mit der Referenzkamera kombiniert werden, der zweite, dritte und vierte Schritt und die Berechnung des Verschiebungsgrads in jeder Kombination durchgeführt werden, und die Bewertungsinformation auf der Grundlage des größten Verschiebungsgrads geliefert wird.
  • Gemäß der Konfiguration wird, auch wenn eine der Kameras, mit Ausnahme der Referenzkamera, und die Referenzkamera bewegt werden, während die Beziehung zwischen den beiden Kameras aufrecht erhalten wird, der Verschiebungsgrad in Verbindung mit der Kombination der Referenzkamera und der anderen Kamera, welche korrekt angeordnet ist, größer, so dass die Abnahme der Genauigkeit der dreidimensionalen Messung detektiert werden kann.
  • Die erfindungsgemäße Vorrichtung zur dreidimensionalen Messung umfasst eine Bildeingabe (Input)-Einheit, in die ein Bild eines Messobjekts, welches in einen Bereich eintritt, in dem die Gesichtsfelder der Mehrzahl an Kameras überlappen, individuell von der Mehrzahl an Kameras eingegeben wird, wobei die Mehrzahl an Kameras derart angeordnet sind, dass eine Lagebeziehung und die Richtungen der optischen Achse festgelegt sind, so dass die Gesichtsfelder der Kameras innerhalb eines vorbestimmten Bereichs überlappen; eine Einheit zur Extraktion eines repräsentativen Punkts, welche einen repräsentativen Punkt des Messobjekts aus einem Referenzbild, welches durch eine Referenzkamera erzeugt wird, extrahiert, wobei insbesondere eine Kamera aus der Mehrzahl an Kameras als Referenzkamera festgelegt wird; eine Einheit zur Suche eines entsprechenden Punkts, welche einen Punkt sucht, der dem repräsentativen Punkt auf der Referenzbildseite in einem von einer Kamera, mit Ausnahme der Referenzkamera, erzeugten Bild entspricht; eine Einheit zur Berechnung dreidimensionaler Koordinaten, welche unter Verwendung der Koordinate jedes Punkts, die durch die Suchverarbeitung der Einheit zur Suche eines entsprechenden Punkts korreliert wurde, eine dreidimensionale Koordinate berechnet, die einer Koordinate entspricht; und eine Ausgabe (Output)-Einheit, welche die Information des Ergebnisses der dreidimensionalen Messung auf der Grundlage der dreidimensionalen Koordinaten, die für vorbestimmte repräsentative Punkte, welche durch die Extraktionseinheit für repräsentative Punkte extrahiert wurden, liefert.
  • Die Vorrichtung zur dreidimensionalen Messung umfasst außerdem eine Einheit zur Berechnung des Verschiebungsgrads, welche einen Verschiebungsgrad an dem entsprechenden Punkt, welcher durch die Suche durch die Einheit zur Suche eines entsprechenden Punkts erhalten wurde, zu einer epipolaren Linie, basierend auf einer vorbestimmten Beziehung zwischen der Kamera und der Koordinate des repräsentativen Punkts in dem Referenzbild, für wenigstens einen repräsentativen Punkt berechnet, während eine dreidimensionale Messung an einem Messobjekt vorgenommen wird. Die Ausgabeeinheit legt die Bewertungsinformation fest, welche die Genauigkeit des Ergebnisses der dreidimensionalen Messung auf der Grundlage des durch die Verschiebungsgrad-Berechnungseinheit berechneten Verschiebungsgrad angibt, und liefert die Bewertungsinformation zusammen mit dem Ergebnis der dreidimensionalen Messung des Messobjekts.
  • Gemäß der Konfiguration wird eine Basisverarbeitung des Verfahrens zur dreidimensionalen Messung durchgeführt. Dadurch wird es dem Benutzer ermöglicht, zu erkennen, dass die Genauigkeit des Ergebnisses der dreidimensionalen Messung verringert ist, und der Anwender kann schnell auf die Abweichung reagieren.
  • Ferner werden in der erfindungsgemäßen Vorrichtung zur dreidimensionalen Messung Bilder von nicht weniger als drei Kameras in die Bildeingabeeinheit eingespeist; in der Einheit zur Suche des entsprechenden Punkts, der Einheit zur Berechnung dreidimensionaler Koordinaten und der Einheit zur Berechnung des Abweichungsgrads werden die Kameras, mit Ausnahme der Referenzkamera, individuell mit der Referenzkamera kombiniert, und die Verarbeitung wird in jeder Kombination durchgeführt. Zudem erzeugt und liefert die Ausgabeeinheit die Bewertungsinformation auf der Grundlage eines maximalen Werts der Verschiebungsgrade, die in den Kombinationen der Kameras berechnet wurden.
  • Gemäß der Konfiguration kann, auch wenn die Referenzkamera und eine der Kameras gleichermaßen bewegt werden, die Bewertungsinformation, welche anzeigt, dass die Genauigkeit der dreidimensionalen Messung herabgesetzt ist, geliefert werden.
  • Des Weiteren umfasst die erfindungsgemäße Vorrichtung zur dreidimensionalen Messung außerdem eine Meldungseinheit, welche eine Warnmeldung ausgibt, wenn der Verschiebungsgrad, der zur Erzeugung der Bewertungsinformation eingesetzt wird, einen vorbestimmten zulässigen Wert überschreitet, oder wenn ein Zuverlässigkeitsgrad des Ergebnisses der dreidimensionalen Messung, welcher durch die Bewertungsinformation angezeigt wird, geringer ist als ein vorbestimmter Referenzwert. Gemäß der Konfiguration wird es dem Anwender durch die Warnung ermöglicht zu erkennen, dass die Genauigkeit der dreidimensionalen Messung unzulässig wird, so dass die Verwendung des Messergebnisses, welches geringe Genauigkeit aufweist, verhindert werden kann.
  • In dem Verfahren zur dreidimensionalen Messung und der Vorrichtung zur dreidimensionalen Messung wird die Bewertungsinformation, welche den Grad der Zuverlässigkeit der Messverarbeitung angibt, gleichzeitig mit der Ausgabe des Ergebnisses der dreidimensionalen Messung geliefert, so dass die Verwendung des Ergebnisses der dreidimensionalen Messung, welches geringe Genauigkeit aufweist, verhindert werden kann.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein funktionelles Blockdiagramm einer Konfiguration einer dreidimensionalen Messung;
  • 2 zeigt eine erläuternde Ansicht eines Platzierungsbeispiels zweier Kameras;
  • 3 stellt eine Ansicht dar, welche erklärt, wie sich eine Veränderung der Höhe einer Markierung M auf den Bildern A0 und A1, welche durch die Kameras von 2 erzeugt werden, widerspiegelt;
  • 4 stellt eine erläuternde Ansicht eines Beispiels dar, in dem eine Markierung M in Entfernung von einer epipolaren Linie in einem Vergleichsbild A1 lokalisiert ist;
  • 5 zeigt ein Flussdiagramm eines Beispiels einer Verarbeitung einer dreidimensionalen Messung;
  • 6 zeigt eine erläuternde Ansicht eines Konzepts eines Verschiebungsgrads;
  • 7 zeigt ein Flussdiagramm eines anderen Beispiels für eine Verarbeitung einer dreidimensionalen Messung; und
  • 8 zeigt ein Flussdiagramm eines weiteren Beispiels für eine Verarbeitung einer dreidimensionalen Messung.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • 1 zeigt eine Vorrichtung zur dreidimensionalen Messung gemäß einer Ausführungsform der Erfindung.
  • In einer Produktionslinie einer Anlage liefert die Vorrichtung zur dreidimensionalen Messung aufeinander folgend Messobjekte der gleichen Form an einen Bearbeitungszielbereich, um die dreidimensionale Messung unter Einsatz zweier oder dreier Kameras durchzuführen.
  • Gemäß 1 ist ein Computer in einer Steuer-/Verarbeitungseinheit 10 enthalten. Die Kameras C0, C1 und C2, eine Manipulationseinheit 11 und eine Displayeinheit 12 sind mit der Steuer-/Verarbeitungseinheit 10 verbunden. Da die dritte Kamera C2 gegebenenfalls in der Gesamtheit der Kameras C0, C1 und C2 enthalten sein kann, ist ein Rahmen der Kamera C2 durch eine unterbrochene Linie angedeutet.
  • Die Steuer-/Verarbeitungseinheit 10 umfasst Bildeingabeeinheiten 100, 101 und 102, welche den Kameras C0, C1 und C2 entsprechen, einen Bildspeicher 103, eine Einstell-/Verarbeitungseinheit 104, eine Bildverarbeitungseinheit 105, eine Parameterberechnungseinheit 106, eine Parameterspeichereinheit 107, eine Einheit zur dreidimensionalen Messung 108, eine Bewertungswert-Berechnungseinheit 109, eine Bestimmungseinheit 110, eine Ausgabeeinheit 111 und eine Warnungsausgabeeinheit 112. Die Einheiten, mit Ausnahme der Bildeingabeeinheiten 100 bis 102, des Bildspeichers 103 und der Parameterspeichereinheit 107, stellen Funktionen dar, die in einem Computer durch ein dediziertes Programm eingestellt wurden. Das dedizierte Programm wird in einer Speichervorrichtung mit großer Kapazität (nicht gezeigt), wie beispielsweise einer Festplatte oder Flash-Disk, gespeichert. Der Bildspeicher 103 und die Parameterspeichereinheit 107 sind ebenso in der Speichervorrichtung eingestellt.
  • In der vorliegenden Ausführungsform ist die Kamera C0 derart angeordnet, dass eine optische Achse in vertikaler Richtung orientiert ist, um ein Bild eines Messobjekts direkt von oben aufzunehmen, und die Kameras C1 und C2 sind derart angeordnet, dass sie ein Bild des Messobjekts von schräg oben aufnehmen. In jeder Kamera werden eine Verschiebungsposition und die Richtung der optischen Achse derart eingestellt, dass ein Gesichtsfeld der Kamera den gesamten Bearbeitungszielbereich, in dem das Messobjekt platziert ist, umfasst. Die Kamera C0 wird als Referenzkamera festgelegt, und die Kameras C1 und C2 werden individuell mit der Referenzkamera C0 kombiniert. Die dreidimensionale Messung wird in jeder Kombination durchgeführt.
  • Die Bildverarbeitungseinheit 105 extrahiert einen repräsentativen Punkt (wie beispielsweise einen Kanten-bildenden Punkt oder einen Massenmittelpunkt eines Bereichs mit einem bestimmten Merkmal) des Messobjekts für das Bild, welches von der Referenzkamera C0 eingespeist wird, durch eine Technik, wie beispielsweise Binärisation, Kantenextraktion oder Musterabgleich ("Pattern-Matching"). Die Bildverar beitungseinheit 105 führt eine Verarbeitung zum Suchen eines Punkts, welcher einem repräsentativen Punkt in dem Referenzbild A0 entspricht, für die Bilder (im Folgenden als "Vergleichsbild" bezeichnet), die von den Kameras C1 und C2 eingespeist werden, durch.
  • Die Einstell-/Verarbeitungseinheit 104 akzeptiert eine Manipulation zum Einstellen spezifischer Inhalte (wie beispielsweise ein Verfahren zum Extrahieren des repräsentativen Punkts und eine Zielbereichextraktionsverarbeitung), welche durch die Bildverarbeitungseinheit 105 von der Manipulationseinheit 11 durchgeführt werden sollte, und die Einstell-/Verarbeitungseinheit 104 stellt die spezifischen Inhalte in der Bildverarbeitungseinheit 105 ein.
  • Die Einheit zur dreidimensionalen Messung 108 berechnet unter Verwendung einer Koordinate des repräsentativen Punkts in dem Referenzbild A0, welcher durch die Bildverarbeitungseinheit 105 extrahiert wurde, und von Koordinaten der entsprechenden repräsentativen Punkte auf den Seiten der Vergleichsbilder A1 und A2 eine dreidimensionale Koordinate. Das Berechnungsergebnis wird an die Ausgabeeinheit 111 abgegeben und auf der Display-Einheit 12 oder einer externen Vorrichtung (nicht gezeigt) angezeigt.
  • In der Parameterspeichereinheit 107 werden mehrere Parameter, die während der Verarbeitung der dreidimensionalen Messung verwendet werden, gespeichert. Die Parameter werden vor der Hauptverarbeitung durch Kalibrierung spezifiziert, wobei Kalibrierungsarbeit mit mehreren Merkmalspunkten angewendet wird. Zu Beispielen für die Parameter zählen ein Parameter, welcher einen Koeffizienten einer Berechnungsgleichung zum Berechnen der dreidimensionalen Koordinate bildet, und ein Parameter zur Spezifizierung einer epipolaren Linie.
  • Die verschiedenen Parameter variieren in Abhängigkeit von einer Veränderung des Stereo-Koordinatensystems, welches durch die Kameras gebildet wird, und einer Veränderung der Beziehung zwischen dem Stereo-Koordinatensystem und einem Raumkoordinatensystem, welches eine Position in einem tatsächlichen Raum ausdrückt (einen Abstand zwischen den Ursprüngen des Koordinatensystems und einem Rotationsverschiebungsgrad des Stereo-Koordinatensystems in Bezug auf das Raumkoordinatensystem). Demgemäß kann in einem Fall, in dem eine Position oder Einstellung der Kamera verändert wird, die Genauigkeit der dreidimensionalen Messung nicht gewährleistet werden, wenn nicht die Kalibrierung durchgeführt wird, um die Parameter erneut zu berechnen.
  • Da die dreidimensionale Messung durchgeführt wird, während die Kameras C1 und C2 individuell mit der Referenzkamera C0 kombiniert werden, ist es in der vorliegenden Ausführungsform notwendig, die Parameter in jeder Kombination zu berechnen.
  • 2 zeigt ein Platzierungsbeispiel für den Fall, in dem die Kameras C0 und C1 verwendet werden. In dieser Ausführungsform ist eine Gesichtsmarkierung M schematisch als Messobjekt gezeigt. In der vorliegenden Ausführungsform werden die Messobjekte aufeinander folgend an einen Bearbeitungszielbereich mit einem vorbestimmten Raum zur Durchführung der dreidimensionalen Messung abgeliefert. Die Referenzkamera C0 ist direkt oberhalb des Bearbeitungszielbereichs angeordnet, so dass die optische Achse der Referenzkamera C0 in vertikale Richtung orientiert ist, wobei die Referenzkamera C0 ein Bild (Gesichtsbild von vorne) erzeugt, welches einen Zustand anzeigt, in dem eine Oberseite des Messobjekts von vorne betrachtet wird. Andererseits ist die Kamera C1, welche das Vergleichsbild erzeugt, derart angeordnet, dass das Bild des verarbeitenden Zielbereichs von schräg oben aufgenommen wird.
  • 3 zeigt, wie sich eine Änderung der Höhe der in 2 dargestellten Markierung M auf dem durch die Kamera C0 erzeugten Referenzbild A0 und dem durch die Kamera C1 erzeugten Vergleichsbild A1 widerspiegelt. Der Einfachheit halber sind die Markierungen in den Bildern A0 und A1 ebenso mit dem Buchstaben M bezeichnet.
  • Unter der Annahme, dass ein zentraler Punkt C0 der Markierung M in dem Bild zu dem repräsentativen Punkt eingestellt wird, wird, da das Referenzbild A0 das Bild der Vorderseite der Markierung M darstellt, eine Koordinate des repräsentativen Punkts P0 konstant gehalten, auch wenn die tatsächliche Höhe geändert wird. Andererseits wird in dem durch die Kamera C1 erzeugten Vergleichsbild A1, wenn die Höhe der tatsächlichen Markierung M geändert wird, der repräsentative Punkt P1 in dem Bild entlang einer bestimmten geraden Linie EP bewegt. Die gerade Linie EP stellt die epipolare Linie des repräsentativen Punkts dar.
  • In dem Fall, in dem die Positionen oder Einstellungen der Kameras C0 und C1 wie im Kalibrierungszustand beibehalten werden, kann die epipolare Linie EP auf der Grundlage der Koordinate des repräsentativen Punkts P0 auf der Seite des Referenzbilds A0 und der in der Parameterspeichereinheit 107 gespeicherten Parameter akkurat erhalten werden.
  • Im Falle einer Änderung der Position oder Einstellung der Kamera C1 wird, wenn ein Anwender ein Bild aufnimmt, ohne von der Änderung der Position oder Einstellung der Kamera C1 Notiz zu nehmen, die tatsächliche epipolare Linie eine gerade Linie, die sich von der in 3 dargestellten epipolaren Linie EP unterscheidet, und die korrekte epipolare Linie EP kann nicht durch die Speicherparameter spezifiziert werden. Aus diesem Grund wird, wie in 4 gezeigt, der repräsentative Punkt P1 in dem Vergleichsbild A1 von der epipolaren Linie EP verschoben.
  • Im Fall einer Änderung der Position oder Einstellung der Kamera C0 erscheint, da die Kamera C1 nicht bewegt wird, die Markierung M in dem Vergleichsbild A1 auf der geraden Linie EP, wie in dem Beispiel von 3. Da jedoch die Position des repräsentativen Punkts P0 auf der Seite des Referenzbilds A0 durch die Bewegung der Kamera C0 verän dert wird, unterscheidet sich die durch die veränderte Koordinate spezifizierte epipolare Linie von dem Beispiel von 3. Somit wird der repräsentative Punkt P1 in dem Vergleichsbild A1 ebenso von der epipolaren Linie, welche durch den repräsentativen Punkt P0 des Referenzbilds A0 oder die gespeicherten Parameter spezifiziert wird, verschoben.
  • Wenn die Kamera C0 oder C1 bewegt wird, wodurch die Beziehung zwischen den Kameras variiert wird, erscheint der repräsentative Punkt P1 auf der Seite des Vergleichsbilds A1 an einer Position im Abstand von der epipolaren Linie EP, welche durch den repräsentativen Punkt P0 des Referenzbilds A0 oder die gespeicherten Parameter spezifiziert wird. Somit wird, wenn der entsprechende Punkt P1 für den repräsentativen P0 in dem Referenzbild A0 gesucht wird, in der vorliegenden Ausführungsform davon ausgegangen, dass der Suchzielbereich einen Bereich im Abstand von der epipolaren Linie EP durch einen vorbestimmten Abstand basierend auf der theoretischen epipolaren Linie EP, die aus der Koordinate des repräsentativen Punkts P0 oder verschiedenen Parametern erhalten wird, abdeckt. Andererseits berechnet die Bewertungswert-Berechnungseinheit 109 einen Bewertungswert, welcher die Bewertung der Genauigkeit der dreidimensionalen Messung angibt. Der Bewertungswert wird derart eingestellt, dass der Wert ansteigt, wenn sich die Genauigkeit der dreidimensionalen Messung verschlechtert.
  • Die Ausgabeeinheit 111 liefert den Bewertungswert zusammen mit dem Ergebnis der dreidimensionalen Messung, und der Bewertungswert wird in die Bestimmungseinheit 110 eingespeist.
  • Die Bestimmungseinheit 110 vergleicht den Bewertungswert mit einem vorbestimmten zulässigen Wert. Wenn ein Bewertungswert detektiert wird, der über den zulässigen Wert hinausgeht, wird die Warnungsausgabeeinheit 112 aktiviert. Die Warnungsausgabeeinheit 112 erzeugt eine Information, die anzeigt, dass ein Zulässigkeitsniveau des Ergebnisses der dreidimensionalen Messung signifikant herabgesetzt ist, und die Warnungsausgabeeinheit 112 liefert die Meldung an die Displayeinheit 112 (im Folgenden wird die durch die Warnungsausgabeeinheit 12 durchgeführte Verarbeitung als "Warnungsausgabe" bezeichnet).
  • Obwohl nicht deutlich in 1 dargestellt, wird die Rückführbarkeitsinformation, in der bei Durchführung der Verarbeitung das Ergebnis der dreidimensionalen Messung und der Bewertungswert jedes Messobjekts mit einem Identifikationscode des Messobjekts oder Datum und Zeit korreliert wird, erzeugt und im internen Speicher der Steuerverarbeitungseinheit 10 gespeichert. Auch wenn der Benutzer die Ausgabe des Bewertungswerts oder die Warnungsausgabe übersieht und die Messverarbeitung durchführt, obwohl die Genauigkeit der dreidimensionalen Messung herabgesetzt ist, kann somit das Messobjekt, bei dem Fehler im Verarbeitungsergebnis bestehen, durch Überprüfen der Rückverfolgungsinformation zu einem späteren Zeitpunkt spezifiziert werden Die Verarbeitung der dreidimensionalen Messung und die Verarbeitung der Bewertungswertberechnung werden im Folgenden detailliert mit Bezug auf das Flussdiagramm von 5 beschrieben.
  • In dem Beispiel von 5 wird angenommen, dass die dreidimensionale Messung an mehreren Messzielbereichen jedes Messobjekts vorgenommen wird. Jedoch wird in einigen Fällen nur ein repräsentativer Punkt gemessen. Das Gleiche gilt für die Beispiele der 7 und 8.
  • In ST1 ("Schritt" wird mit ST abgekürzt) werden die Kameras C0 und C1 gleichzeitig als Antwort auf die Abgabe des Messobjekts an den Bearbeitungszielbereich gesteuert. Somit erzeugt die Kamera C0 das Referenzbild A0, welches einen Zustand anzeigt, in dem das Messobjekt von der Vorderseite betrachtet wird, und die Kamera C1 erzeugt das Vergleichsbild A1, welches einen Zustand anzeigt, in dem das Messobjekt von schräg oben betrachtet wird. Das Referenzbild A0 und das Ver gleichsbild A1 werden in dem Bildspeicher 103 gespeichert.
  • In ST2 werden vorbestimmte repräsentative Punkte aus dem Referenzbild A0 durch zuvor eingestellte Bildverarbeitung extrahiert. Dann wird die Aufmerksamkeit nacheinander auf die extrahierten repräsentativen Punkte gerichtet, wobei Teile der Verarbeitung in ST3 bis ST9 durchgeführt werden.
  • In ST3 wird für den fokussierten repräsentativen Punkt die epipolare Linie auf dem Vergleichsbild A1 auf der Grundlage der Koordinate auf der Seite des Referenzbilds A0 spezifiziert. In ST4 wird ein bandförmiger Bereich mit vorbestimmter Breite derart festgelegt, dass die epipolare Linie die Mittellinie darstellt, und der bandförmige Bereich wird zu dem entsprechenden Punktsuchbereich festgelegt.
  • In ST5 wird die Verarbeitung zur Suche eines Punkts, welcher dem fokussierten repräsentativen Punkt entspricht, in dem Suchbereich durchgeführt. Insbesondere wird ein lokaler Bereich mit einer vorbestimmten Größe in dem Referenzbild A0 festgelegt, wobei der fokussierte repräsentative Punkt zentriert wird, und das Bild innerhalb des lokalen Bereichs wird als Musterbild ausgeschnitten. Anschließend wird das Musterbild sequenziell mit einem Inspektionsbereich auf der Seite des Vergleichsbilds A1 in Übereinstimmung gebracht, während der Inspektionsbereich gescannt wird, und der Bereich mit der höchsten Ähnlichkeit zu dem Musterbild wird spezifiziert. Die Koordinate des Mittelpunkts des spezifizierten Bereichs wird detektiert, und die Koordinate wird zu der Koordinate des Punkts, welcher dem fokussierten repräsentativen Punkt entspricht, eingestellt.
  • Somit wird der Punkt, welcher dem fokussierten repräsentativen Punkt entspricht, spezifiziert. In ST6 wird unter Verwendung der Koordinate des repräsentativen Punkts auf der Seite des Referenzbilds A0 und der Koordinate des entsprechenden Punkts auf der Seite des Vergleichsbilds A1 die dreidimensionale Koordinate, welche diesen Koordi naten entspricht, berechnet.
  • In ST7 wird ein Verschiebungsgrad d von der in ST3 spezifizierten epipolaren Linie für den entsprechenden Punkt (der P1 in den 3 und 4 entspricht), welcher durch Suchverarbeitung in ST5 spezifiziert wurde, berechnet. Wie in 6 dargestellt, wird der Verschiebungsgrad d als Abstand von der epipolaren Linie EP zu dem repräsentativen Punkt P1 erhalten.
  • In ST8 wird der berechnete Verschiebungsgrad d mit einem vorbestimmten zulässigen Wert D verglichen. Wenn der Verschiebungsgrad d über den zulässigen Wert D hinausgeht, geht der Fluss weiter zu ST9, und es wird eine Warnung ausgegeben. Wenn der Verschiebungsgrad d nicht größer ist als der zulässige Wert D, wird ST9 übersprungen. Ungeachtet des Bestimmungsergebnisses in ST8 wird der Wert des Verschiebungsgrads d provisorisch jedes Mal in einem Arbeitsspeicher gespeichert.
  • Obwohl der zulässige Wert D standardmäßig eingestellt wird, kann der zulässige Wert D entsprechend durch vom Benutzer durchgeführte Manipulation verändert werden.
  • Wenn die Verarbeitungsschritte in ST3 bis ST9 an sämtlichen in ST2 extrahierten repräsentativen Punkten durchgeführt wurden, wird eine bestätigende Bestimmung in ST10 durchgeführt, und der Fluss geht zu ST11. In ST11 wird ein maximaler Wert aus den für die repräsentativen Punkte berechneten Verschiebungsgraden d extrahiert, und der maximale Wert des Verschiebungsgrads d wird zu einem Bewertungswert H eingestellt.
  • In ST12 werden die dreidimensionale Koordinate jedes in ST6 erhaltenen repräsentativen Punkts und der Bewertungswert H, der in ST11 festgelegt wurde, ausgegeben. Wie oben beschrieben, wird die Ausgabe auf drei Arten durchgeführt: auf dem Display, externe Ausgabe und Speicherung in dem Speicher.
  • In den oben beschriebenen Verarbeitungsschritten kann der Benutzer durch den gelieferten Bewertungswert H feststellen, ob die Genauigkeit der dreidimensionalen Messung erniedrigt ist oder nicht. Der maximale Wert des Verschiebungsgrad d an den Punkten, die den repräsentativen Punkten entsprechen, zu der epipolaren Linie wird als Bewertungswert H ausgegeben, so dass das Ergebnis, in dem die Genauigkeit der dreidimensionalen Messung bewertet wird, auf strengste Art ausgegeben werden kann. Wenn der Verschiebungsgrad d, welcher den zulässigen Wert D übersteigt, berechnet wird, während die Messverarbeitung durchgeführt wird, wird die Warnung unmittelbar ausgegeben. Somit kann, wenn eine der Kameras C0 und C1 derart bewegt wird, dass die Genauigkeit der dreidimensionalen Messung beträchtlich verringert wird, der Benutzer unmittelbar die Verringerung der Genauigkeit der dreidimensionalen Messung erkennen.
  • Im dem Beispiel von 5 wird der maximale Wert der Verschiebungsgrade d, der für die Mehrzahl an repräsentativen Punkten berechnet wurde, als Bewertungswert H ausgegeben. Jedoch ist die Ausgabeform nicht auf diese Ausführungsform beschränkt. Beispielsweise kann eine mittlere oder Fluktuationsbreite (Unterschied zwischen dem maximalen Wert und dem minimalen Wert) der Verschiebungsgrade d an der Mehrzahl der repräsentativen Punkte geliefert werden. Der Verschiebungsgrad d, der in jedem repräsentativen Punkt berechnet wurde, kann direkt als Bewertungswert ausgegeben werden, während er mit der dreidimensionalen Koordinate korreliert wird. Während die dreidimensionalen Koordinaten aufeinander folgend für die mehreren repräsentativen Punkte berechnet werden, kann der Verschiebungsgrad d lediglich für einen bestimmten repräsentativen Punkt erhalten werden, und der Verschiebungsgrad d kann als Bewertungswert ausgegeben werden.
  • In dem Beispiel von 5 kann der Bewertungswert, welcher die Genauigkeit der dreidimensionalen Koordinate anzeigt, leicht unter Ausnutzung eines Prinzips, in dem die epipolare Linie basierend auf den registrierten Parametern ungenau wird, wodurch der entsprechende Punkt des Vergleichsbilds A1 von der epipolaren Linie getrennt wird, wenn die Beziehung zwischen den Kameras C0 und C1 variiert, erhalten werden.
  • Wenn andererseits die Kameras C0 und C1 gleichermaßen bewegt werden, während die relative Beziehung zwischen den Kameras C0 und C1 aufrecht erhalten wird (beispielsweise werden die Kameras C0 und C1 parallel um die gleiche Distanz bewegt, oder die Kameras C0 und C1 werden um den gleichen Winkel rotiert), wird die epipolare Linie augenscheinlich normal (anders ausgedrückt, können die Koordinate des repräsentativen Punkts des Referenzbilds A0 und der entsprechende Punkt auf der epipolaren Linie EP basierend auf den registrierten Parametern gefunden werden). Da an diesem Punkt das Verhältnis zwischen dem Stereo-Koordinatensystem und dem Raum-Koordinatensystem fehlerhaft wird, drücken die Koordinaten der repräsentativen Punkte P0 und P1 in den Bildern A0 und A1 jedoch nicht die Positionen aus, an denen sie liegen sollten, und die dreidimensionale Koordinate kann nicht korrekt berechnet werden.
  • Somit wird, auch wenn die Positionen oder Einstellungen der beiden Kameras gleichermaßen verändert werden, die Genauigkeit der dreidimensionalen Messung verringert. Da jedoch der entsprechende Punkt auf dem Vergleichsbild auf der epipolaren Linie lokalisiert ist, kann die Erniedrigung der Messgenauigkeit nicht durch den Bewertungswert H, der anhand des Verschiebungsgrads d an dem entsprechenden Punkt erhalten wurde, erkannt werden.
  • Um das Problem zu lösen, sind in einem in 7 dargestellten Beispiel drei Kameras mit der Steuer-/Verarbeitungseinheit 10 verbunden, wobei die Kameras C1 und C2, welche Bilder von schräg oben aufnehmen, individuell mit der Referenzkamera C0 kombiniert sind, und die dreidimensionale Koordinate oder der Bewertungswert in jeder Kombination berechnet werden.
  • In 7 werden die Kameras C0, C1 und C2 gleichzeitig als Antwort auf das Zuführen des Messobjekts zu dem Bearbeitungszielbereich (ST21) gesteuert, und die Verarbeitung der Extraktion des repräsentativen Punkts wird an dem durch die Kamera C0 erzeugten Referenzbild A0 durchgeführt (ST22).
  • Während die Aufmerksamkeit nacheinander auf die repräsentativen Punkte gerichtet wird, werden die Verarbeitung zur Spezifizierung der epipolaren Linie (ST23a und ST23b), die Verarbeitung zum Festsetzen des Suchbereichs basierend auf der epipolaren Linie (ST24a und ST24b), die Verarbeitung zum Suchen des entsprechenden Punkts (ST25a und ST25b), die Verarbeitung zur Berechnung der dreidimensionalen Koordinate (ST26a und ST26b) und die Verarbeitung zur Berechnung des Verschiebungsgrads an dem entsprechenden Punkt zu der epipolaren Linie (ST27a und ST27b) gleichzeitig für das durch die Kamera C1 erzeugte Vergleichbild A1 und das durch die Kamera C2 erzeugte Vergleichsbild A2 durchgeführt. Die Verarbeitungsschritte entsprechen denen in ST3 bis ST7 von 5, weshalb eine detaillierte Beschreibung nicht erfolgt.
  • Somit werden die dreidimensionale Koordinate und der Verschiebungsgrad individuell für die Vergleichsbilder A1 und A2 berechnet (der Einfachheit halber wird hierin angenommen, dass d1 ein Verschiebungsgrad ist, der dem Vergleichsbild A1 entspricht, und d2 ein Verschiebungsgrad ist, der dem Vergleichsbild A2 entspricht). In ST28 werden die Verschiebungsgrade d1 und d2 miteinander verglichen, und der größere Verschiebungsgrad wird zu einem Bewertungswert h eingestellt. In ST29 wird unter den dreidimensionalen Koordinaten, die in jeder Kombination der Kameras erhalten wurden, die dreidimensionale Koordinate, die einer Kombination mit dem kleineren Verschiebungs grad entspricht, als Messergebnis festgelegt. Wenn der Bewertungswert h den zulässigen Wert D übersteigt, geht der Fluss von ST30 weiter zu ST31, und es wird eine Warnung ausgegeben.
  • Wenn die oben beschriebenen Verarbeitungsschritte an allen repräsentativen Punkten durchgeführt wurden, wird eine bestätigende Bestimmung in ST32 durchgeführt, der Fluss geht zu ST33, die in ST29 festgelegte dreidimensionale Koordinate und der in ST28 festgelegte Bewertungswert h werden kombiniert und in jedem repräsentativen Punkt ausgegeben.
  • Beispielsweise werden die Referenzkamera C0 und die Kamera C1 bewegt, während die relative Beziehung aufrechterhalten wird, und ein kleiner Verschiebungsgrad wird an dem entsprechenden Punkt auf dem Vergleichsbild A1 erzeugt. Auch in diesem Fall wird das Phänomen, dass der entsprechende Punkt von der epipolaren Linie verschoben wird, in dem Vergleichsbild A2, welches von der normal platzierten verbleibenden Kamera C2 erstellt wurde, erzeugt.
  • In dieser Ausführungsform sind die Kameras C1 und C2 individuell mit der Referenzkamera C0 kombiniert, wobei die dreidimensionale Koordinate und der Verschiebungsgrad an dem entsprechenden Punkt in jeder Kombination berechnet werden, und der größere Verschiebungsgrad als Bewertungswert verwendet wird. Somit kann Benutzer leicht anhand des Bewertungswerts die Erniedrigung der Genauigkeit der dreidimensionalen Messung erkennen.
  • Der Grund dafür, dass die dreidimensionale Koordinate mit dem kleineren Verschiebungsgrad als das Ergebnis der dreidimensionalen Messung verwendet wird, wird im Folgenden erklärt. Das Ergebnis, bei dem einer der Verschiebungsgrade d1 und d2 kleiner wird, während der andere größer wird, wird in dem Fall erhalten, in dem die Beziehung zwischen den Kameras in Verbindung mit einer der Kombinationen verändert wird, während die Beziehung zwischen den Kameras in Verbin dung mit der anderen Kombination normal bleibt, zusätzlich zu dem Fall, in dem die Beziehung zwischen sämtlichen Kameras aufgrund der Bewegung der Referenzkamera C0 fehlerhaft wird. In derartigen Fällen wird der Verschiebungsgrad, welcher der normalen Beziehung entspricht, geringer, so dass die Genauigkeit der dreidimensionalen Messung durch Übernehmen der dreidimensionalen Koordinate mit dem geringeren Verschiebungsgrad aufrechterhalten werden kann.
  • Wenn beispielsweise lediglich die Kamera C1 unter den Kameras C0 bis C2 bewegt wird, wird die Genauigkeit der dreidimensionalen Messung in Verbindung mit der Kombination der Kameras C0 und C1 erniedrigt, wobei der Verschiebungsgrad d1 erhöht wird, da die Beziehung zwischen den Kameras C0 und C1 verändert wird. Andererseits sind die Kameras C0 und C2 korrekt angeordnet, das Ergebnis der dreidimensionalen Messung in Verbindung mit der Kombination der Kameras C0 und C2 ist korrekt, und der Verschiebungsgrad d2 ist ebenso vermindert. In derartigen Fällen wird gemäß den Verarbeitungsschritten von 7 der Verschiebungsgrad d1 in Verbindung mit der Kombination der Kameras C0 und C1, deren Beziehung fehlerhaft wird, als Bewertungswert h ausgegeben, und die korrekte dreidimensionale Koordinate in Verbindung mit der Kombination der Kameras C0 und C2 wird ebenso ausgegeben und als Ergebnis der dreidimensionalen Messung festgelegt. Somit kommt es, auch wenn das gelieferte Ergebnis der dreidimensionalen Messung verwendet wird, zu keinem Fehler.
  • In dem Fall jedoch, in dem einer der Verschiebungsgrade d1 und d2 nahe Null ist, während der andere einen hohen Wert aufweist, kann eine Bestimmung, ob die Kameras in Verbindung mit der Kombination, welche den kleineren Verschiebungsgrad aufweist, korrekt angeordnet sind oder nicht, nicht nur auf der Grundlage dieses Phänomens vorgenommen werden. In dieser Ausführungsform wird der größere Wert der Verschiebungsgrade d1 und d2 stets als Bewertungswert h verwendet, und die Warnung wird ausgegeben, wenn der Bewertungswert h den zulässigen Wert D übersteigt. Somit kann, auch wenn die Kameraanordnung mit dem kleineren Verschiebungsgrad fehlerhaft wird, verhindert werden, dass die Abweichung übersehen wird.
  • 8 zeigt ein weiteres Beispiel für einen Fall, in dem die dreidimensionale Messung unter Verwendung der Kameras C0, C1 und C2 durchgeführt wird. In dem Beispiel von 8 werden ähnlich wie in dem Beispiel von 7 die Kameras C1 und C2 individuell mit der Referenzkamera C0 kombiniert, und die Verarbeitung der Berechnung der dreidimensionalen Koordinate wird in jeder Kombination durchgeführt. Jedoch unterscheidet sich das Verfahren zur Bewertung der Genauigkeit der dreidimensionalen Messung von der Bewertung aus dem Beispiel von 7.
  • Gemäß 8 werden Kameras C0, C1 und C2 gleichzeitig in ST41 gesteuert, und der repräsentative Punkt wird auf dem durch die Kamera C0 in ST42 erzeugten Referenzbild A0 extrahiert. Die beiden Verarbeitungsschritte in St41 und ST42 sind identisch zu denen in ST21 und 22 von 7.
  • Anschließend werden, während die Aufmerksamkeit nacheinander auf die repräsentativen Punkte gerichtet wird, die Verarbeitung zur Spezifizierung der epipolaren Linie (ST42a und ST43b), die Verarbeitung zum Einstellen des Suchbereichs (ST44a und ST44b), die Verarbeitung zum Suchen des entsprechenden Punkts (ST45a und ST45b) und die Verarbeitung zur Berechnung der dreidimensionalen Koordinate (ST46a und ST46b) in jedem Vergleichsbild durchgeführt. Da diese Verarbeitungsschritte ebenso denen des Beispiels von 7 entsprechen, wird auf eine detaillierte Beschreibung verzichtet.
  • Nach Beendigung der Verarbeitung zur Berechnung der dreidimensionalen Koordinate geht der Fluss zu ST47, wo eine Distanz L zwischen der dreidimensionalen Koordinate, die von der Einstellung der Bilder A0 und A1 erhalten wurde, und der dreidimensionalen Koordinate, die von der Einstellung der Bilder A0 und A2 erhalten wurde, berechnet wird. In ST48 wird die Distanz L mit einem vorbestimmten zulässigen Wert LX verglichen.
  • Wenn die Distanz L größer ist als der vorbestimmte zulässige Wert LX, geht der Fluss weiter zu ST51, wo eine Warnungsausgabe erfolgt, und die nachfolgende Messung wird gestrichen.
  • Wenn die Distanz L für jeden repräsentativen Punkt nicht größer ist als der vorbestimmte zulässige Wert LX, wird die bestätigende Bestimmung schließlich in ST49 vorgenommen, der Fluss geht zu ST50, und der maximale Wert der Distanzen L wird zu einem Bewertungswert H1 eingestellt. In ST51 werden die dreidimensionale Koordinate jedes repräsentativen Punkts und der Bewertungswert H1 ausgegeben, und die Verarbeitung wird beendet.
  • Wenn die Kameras C0, C1 und C2 normal angeordnet sind, werden die dreidimensionalen Koordinaten, die aus den Kombinationen der Kameras erhalten werden, fehlerlos miteinander in Übereinstimmung gebracht. In dem Beispiel von 8 wird die Aufmerksamkeit auf diesen Punkt gerichtet, und die Verarbeitung wird gestrichen, wenn in der dreidimensionalen Koordinate, die in jeder Kombination der Kameras erhalten wird, eine Differenz erzeugt wird, die über den zulässigen Wert LX hinausgeht, so dass die Verwendung des Messergebnisses mit geringer Genauigkeit verhindert werden kann.
  • In den Beispielen wird die dreidimensionale Koordinate jedes repräsentativen Punkts direkt als Ergebnis der dreidimensionalen Messung ausgegeben. Jedoch ist die Ausgabeform nicht auf diese Beispiele beschränkt. Beispielsweise kann, wenn der Kanten-bildende Punkt des Messobjekts als repräsentativer Punkt extrahiert wird, eine Massenmittelpunkts-Position des Objekts unter Verwendung der dreidimensionalen Koordinate jedes repräsentativen Punkts erhalten werden, und die Mas senmittelpunkts-Position kann als Ergebnis der dreidimensionalen Messung angegeben werden. In dem Fall, in dem die Vorrichtung zum Zweck einer Überprüfung verwendet wird, werden die dreidimensionale Koordinate oder das Berechnungsergebnis, in dem die dreidimensionale Koordinate verwendet wird, mit einem vorbestimmten Wert in Übereinstimmung gebracht, und es kann eine Information bezüglich des Übereinstimmungsergebnisses ausgegeben werden.
  • In den Beispielen werden die Teile der numerischen Information H, h und H1 als Bewertungsinformation ausgegeben, welche die Genauigkeit der dreidimensionalen Messung angibt. Alternativ kann die Messgenauigkeit auf mehreren Niveaus ausgedrückt werden. In derartigen Fällen kann das Niveau, welches die Messgenauigkeit angibt, auf der Grundlage des letztendlich festgelegten Bewertungswerts oder des in jeder Messung berechneten Bewertungswerts erhalten werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - JP 2004-234423 [0003, 0015, 0015, 0016, 0016]

Claims (5)

  1. Verfahren zur dreidimensionalen Messung, bei dem eine Mehrzahl an Kameras unter Festlegung einer Lagebeziehung und der Richtungen der optischen Achse derart angeordnet sind, dass die Gesichtsfelder der Kameras innerhalb eines vorbestimmten Bereichs überlappen, wobei insbesondere eine Kamera aus der Mehrzahl an Kameras als Referenzkamera festgelegt wird, und die dreidimensionale Messung an einem Messobjekt durch einen ersten Schritt, einen zweiten Schritt, einen dritten Schritt und einen vierten Schritt vorbestimmte Male durchgeführt wird, wobei im ersten Schritt das Messobjekt, welches in einen Bereich eintritt, in dem sich die Gesichtsfelder der Mehrzahl an Kameras überlappen, von den Kameras aufgenommen wird, im zweiten Schritt ein repräsentativer Punkt des Messobjekts von einem durch die Referenzkamera erzeugten Referenzbild extrahiert wird, im dritten Schritt ein Punkt, welcher dem repräsentativen Punkt auf der Referenzbildseite entspricht, in einem durch eine Kamera, mit Ausnahme der Referenzkamera, erzeugten Bild gesucht wird, und im vierten Schritt unter Verwendung der Koordinate jedes Punkts, der durch die Suche im dritten Schritt korreliert wurde, eine dreidimensionale Koordinate, welche einer Koordinate entspricht, erhalten wird, wobei bei Durchführung der Verarbeitung der dreidimensionalen Messung an einem Messobjekt ein Verschiebungsgrad an dem entsprechenden Punkt, der durch die Suche im dritten Schritt erhalten wurde, zu einer epipolaren Linie auf der Grundlage einer vorbestimmten Beziehung zwischen der Kamera und der Koordinate des repräsentativen Punkts in dem Referenzbild für wenigstens einen repräsentativen Punkt berechnet wird, eine Bewertungsinformation, welche die Genauigkeit des Ergebnisses der dreidimensionalen Messung angibt, basierend auf dem errechneten Verschiebungsgrad festgelegt wird, und die Bewer tungsinformation zusammen mit dem Ergebnis der dreidimensionalen Messung des Messobjekts ausgegeben wird.
  2. Verfahren zur dreidimensionalen Messung gemäß Anspruch 1, wobei nicht weniger als drei Kameras eingesetzt werden, wobei die Kameras, mit Ausnahme der Referenzkamera, individuell mit der Referenzkamera kombiniert werden, wobei der zweite, dritte und vierte Schritt und die Verarbeitung zur Berechnung des Verschiebungsgrads in jeder Kombination durchgeführt werden, und die Bewertungsinformation auf der Grundlage des größten Verschiebungsgrads ausgegeben wird.
  3. Vorrichtung zur dreidimensionalen Messung, umfassend: eine Bildeingabeeinheit, in welche ein Bild eines Messobjekts, welches in einen Bereich eintritt, in dem Gesichtsfelder der Mehrzahl an Kameras überlappen, individuell von der Mehrzahl an Kameras eingespeist wird, wobei die Mehrzahl an Kameras unter Festlegung einer Lagebeziehung und der Richtungen der optischen Achse derart angeordnet sind, dass die Gesichtsfelder der Kameras innerhalb eines vorbestimmten Bereichs überlappen; eine Einheit zur Extraktion eines repräsentativen Punkts, welche einen repräsentativen Punkt des Messobjekts aus einem durch eine Referenzkamera erzeugten Referenzbild extrahiert, wobei insbesondere eine Kamera aus der Mehrzahl an Kameras als Referenzkamera festgelegt wird; eine Einheit zur Suche eines entsprechenden Punkts, welche einen Punkt sucht, der dem repräsentativen Punkt auf der Referenzbildseite in einem durch eine Kamera, mit Ausnahme der Referenzkamera, erzeugten Bild entspricht; eine Einheit zur Berechnung einer dreidimensionalen Koordinate, welche unter Verwendung der Koordinate jedes Punkts, welcher durch die Suchverarbeitung der Einheit zum Suchen eines entsprechenden Punkts korreliert wurde, eine dreidimensionale Koordinate erhält, die einer Koordinate entspricht; und eine Ausgabeeinheit, welche die Information des Ergebnisses der dreidimensionalen Messung basierend auf den dreidimensionalen Koordinaten, die für vorbestimmte repräsentative Punkte, welche durch die Einheit zur Extraktion repräsentativer Punkte extrahiert wurden, berechnet wurden, ausgibt, wobei die Vorrichtung zur dreidimensionalen Messung ferner eine Einheit zur Berechnung eines Verschiebungsgrads umfasst, welche einen Verschiebungsgrad an dem entsprechenden Punkt, welcher durch die Suche der Einheit zur Suche eines entsprechenden Punkts erhalten wurde, zu einer epipolaren Linie auf der Grundlage einer vorbestimmten Beziehung zwischen der Kamera und der Koordinate des repräsentativen Punkts in dem Referenzbild für wenigstens einen repräsentativen Punkt berechnet, wenn die Verarbeitung einer dreidimensionalen Messung an einem Messobjekt durchgeführt wird, und die Ausgabeeinheit die Bewertungsinformation, welche die Genauigkeit des Ergebnisses der dreidimensionalen Messung angibt, auf der Grundlage des Verschiebungsgrads, der durch die Einheit zur Berechnung des Verschiebungsgrads berechnet wurde, festlegt und die Bewertungsinformation zusammen mit dem Ergebnis der dreidimensionalen Messung des Messobjekts ausgibt.
  4. Vorrichtung zur dreidimensionalen Messung gemäß Anspruch 3, wobei Bilder von nicht weniger als drei Kameras in die Bildeingabeeinheit eingespeist werden, in der Einheit zur Suche eines entsprechenden Punkts, der Einheit zur Berechnung einer dreidimensionalen Koordinate und der Einheit zur Berechnung des Verschiebungsgrads die Kameras, mit Ausnahme der Referenzkamera, individuell mit der Referenzkamera kombiniert werden, und eine Verarbeitung in jeder Kombination durchgeführt wird, und die Ausgabeeinheit die Bewertungsinformation auf der Grundlage eines maximalen Werts der Verschiebungsgrade, die in den Kombinationen der Kameras berechnet wurden, erzeugt und ausgibt.
  5. Vorrichtung zur dreidimensionalen Messung gemäß Anspruch 3 oder 4, weiterhin umfassend eine Meldungseinheit, welche eine Warnungsmeldung ausgibt, wenn der Verschiebungsgrad, der zur Erzeugung der Bewertungsinformation verwendet wurde, einen vorbestimmten zulässigen Wert überschreitet, oder wenn ein Zuverlässigkeitsgrad des Ergebnisses der dreidimensionalen Messung, welcher durch die Bewertungsinformation angezeigt wird, geringer als ein vorbestimmter Referenzwert ist.
DE102008041524.3A 2007-08-29 2008-08-25 Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen Active DE102008041524B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007-222168 2007-08-29
JP2007222168A JP4442661B2 (ja) 2007-08-29 2007-08-29 3次元計測方法および3次元計測装置

Publications (2)

Publication Number Publication Date
DE102008041524A1 true DE102008041524A1 (de) 2009-05-14
DE102008041524B4 DE102008041524B4 (de) 2022-09-15

Family

ID=40431505

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008041524.3A Active DE102008041524B4 (de) 2007-08-29 2008-08-25 Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen

Country Status (3)

Country Link
US (1) US8648895B2 (de)
JP (1) JP4442661B2 (de)
DE (1) DE102008041524B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017117594A1 (de) * 2017-08-03 2019-02-07 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Automatisierte Erkennung einer Scheinwerferfehlstellung
US10735670B2 (en) 2016-02-22 2020-08-04 Sony Corporation Information processing apparatus and information processing method

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
JP5663352B2 (ja) * 2011-03-03 2015-02-04 日本電産エレシス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
IL216515A (en) * 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
US10085001B2 (en) 2014-03-21 2018-09-25 Omron Corporation Method and apparatus for detecting and mitigating mechanical misalignments in an optical system
US9674504B1 (en) * 2015-12-22 2017-06-06 Aquifi, Inc. Depth perceptive trinocular camera system
JP2018017617A (ja) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 建設機械
JP6684682B2 (ja) 2016-08-18 2020-04-22 株式会社神戸製鋼所 建設機械
JP7186019B2 (ja) * 2017-06-20 2022-12-08 株式会社ミツトヨ 三次元形状計測装置及び三次元形状計測方法
CN110966984B (zh) * 2018-09-29 2023-01-20 宝钢新日铁汽车板有限公司 一种基于视觉图像的炉鼻子水平监测系统及方法
US11636621B2 (en) * 2020-08-28 2023-04-25 Unity Technologies Sf Motion capture calibration using cameras and drones
US11600022B2 (en) * 2020-08-28 2023-03-07 Unity Technologies Sf Motion capture calibration using drones
CN115655206B (zh) * 2022-12-09 2023-04-07 富视达技术(武汉)有限公司 基于多视觉位移测量设备的测量数据联合解算系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234423A (ja) 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004106856A1 (ja) 2003-05-29 2004-12-09 Olympus Corporation ステレオカメラ支持装置、ステレオカメラ支持方法及びキャリブレーション検出装置及びキャリブレーション補正装置並びにステレオカメラシステム
JP2004354256A (ja) 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234423A (ja) 2003-01-31 2004-08-19 Seiko Epson Corp ステレオ画像処理方法およびステレオ画像処理装置、並びにステレオ画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735670B2 (en) 2016-02-22 2020-08-04 Sony Corporation Information processing apparatus and information processing method
DE102017117594A1 (de) * 2017-08-03 2019-02-07 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Automatisierte Erkennung einer Scheinwerferfehlstellung

Also Published As

Publication number Publication date
DE102008041524B4 (de) 2022-09-15
US20090066968A1 (en) 2009-03-12
JP2009053136A (ja) 2009-03-12
JP4442661B2 (ja) 2010-03-31
US8648895B2 (en) 2014-02-11

Similar Documents

Publication Publication Date Title
DE102008041524B4 (de) Verfahren und Vorrichtung zur Durchführung dreidimensionaler Messungen
DE69625423T2 (de) Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
DE102016001337A1 (de) Werkstückpositionierungsvorrichtung, die eine Bildgabeeinheit verwendet
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE102016013986A1 (de) Vorrichtung zum messen von positionen und stellungen einer mehrzahl von artikeln sowie die vorrichtung aufweisendes robotersystem
DE102020216406A1 (de) Inspektionssystem und verfahren für fahrzeugunterboden
DE102008041523A1 (de) Verfahren zur dreidimensionalen Messung und Vorrichtung zur dreidimensionalen Messung
DE102018129425A1 (de) System zur Erkennung eines Bearbeitungsfehlers für ein Laserbearbeitungssystem zur Bearbeitung eines Werkstücks, Laserbearbeitungssystem zur Bearbeitung eines Werkstücks mittels eines Laserstrahls umfassend dasselbe und Verfahren zur Erkennung eines Bearbeitungsfehlers eines Laserbearbeitungssystems zur Bearbeitung eines Werkstücks
DE102009046295A1 (de) Optische Abweichungskorrektur für maschinelle Sichtinspektionssysteme
DE112014006253T5 (de) Werkzeugformmessvorrichtung und Werkzeugformmessverfahren
DE102017210692B4 (de) Lebensdauerbestimmungsvorrichtung; Lebensdauerbestimmungsverfahren, und Programm für Schneidwerkzeug
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
DE102019131284A1 (de) Robotersystem und Koordinatenumwandlungsverfahren
DE102016201741A1 (de) Verfahren zur Höhenerkennung
DE102019131693A1 (de) Messgerät zur untersuchung einer probe und verfahren zum bestimmen einer höhenkarte einer probe
EP2394247A1 (de) Verfahren und vorrichtung zum betrieb eines videobasierten fahrerassistenzsystems in einem fahrzeug
DE102018214307A1 (de) System und Verfahren zur Qualitätsprüfung bei der Herstellung von Einzelteilen
DE102005043753A1 (de) Verfahren zur Bestimmung der Raumkoordinaten von Oberflächenpunkten eines Prüflings und Vorrichtung zur Durchführung des Verfahrens
EP3659113B1 (de) Erkennungssystem, arbeitsverfahren und trainingsverfahren zum erzeugen eines 3d-modells mit referenzdaten
DE19581950B4 (de) Automatisches Formberechnungsverfahren und Vorrichtung für eine Konturformmessmaschine
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE202021003596U1 (de) Druckvorrichtung für additive Fertigungsverfahren mit automatischer Positionskalibrierung
DE102015219660A1 (de) Verfahren und System zur Ermittlung von Daten für ein Objekt
DE69325194T2 (de) Verfahren zur Erzeugung des Kennzeichens eines auf einem numerischen Bild dargestellten Objektes mit Bestimmung mindestens einer charakteristischen Grösse dieses Objektes und zugehöriges Verfahren zur Prüfung des Objektkennzeichens

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R082 Change of representative

Representative=s name: KILIAN KILIAN & PARTNER MBB PATENTANWAELTE, DE

Representative=s name: KILIAN KILIAN & PARTNER, DE

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01C0011040000

Ipc: G01C0011300000

R020 Patent grant now final