DE102020205516A1 - Dreidimensionale koordinatenmessvorrichtung - Google Patents

Dreidimensionale koordinatenmessvorrichtung Download PDF

Info

Publication number
DE102020205516A1
DE102020205516A1 DE102020205516.5A DE102020205516A DE102020205516A1 DE 102020205516 A1 DE102020205516 A1 DE 102020205516A1 DE 102020205516 A DE102020205516 A DE 102020205516A DE 102020205516 A1 DE102020205516 A1 DE 102020205516A1
Authority
DE
Germany
Prior art keywords
camera
markers
motorized
probe
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020205516.5A
Other languages
English (en)
Inventor
Masayasu Ikebuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Publication of DE102020205516A1 publication Critical patent/DE102020205516A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • G01B11/007Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/047Accessories, e.g. for positioning, for tool-setting, for measuring probes

Abstract

Eine dreidimensionale Koordinatenmessvorrichtung wird bereitgestellt, die in der Lage ist, hochzuverlässige Formmessungen mit hoher Genauigkeit ohne komplizierte Kalibrierungsarbeiten durchzuführen. Eine motorisierte Drehbühne ist in Bezug auf eine Referenzbasis drehbar gelagert. Eine Referenzkamera ist an der Referenzbasis befestigt, die Referenzkamera erfasst ein Bild einer Vielzahl von Referenzmarkern, die auf der motorisierten Drehbühne angebracht sind. Zum Zeitpunkt der Kalibrierung wird eine Vielzahl von Markern des Bezugselements in jeweils unterschiedlichen Positionen der motorisierten Drehbühne erfasst. Neue Kameraparameter werden auf der Grundlage einer Vielzahl von Referenzbildern und Referenzmarker-Informationen berechnet, die die Anordnung der Vielzahl von Markern angeben, und dann werden die Kameraparameter im Hauptspeicher auf die neuen Kameraparameter aktualisiert.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine dreidimensionale Koordinatenmessvorrichtung, die in der Lage ist, die Form und Ähnliches eines Messobjekts zu messen.
  • Beschreibung der verwandten Technik
  • Herkömmlicherweise wird eine dreidimensionale Koordinatenmessvorrichtung verwendet, um die Form und Ähnliches eines Messobjekts zu messen. In einer dreidimensionalen Koordinatenmessvorrichtung werden die Positionen einer Vielzahl von Messpunkten auf der Oberfläche eines Messziels nacheinander berechnet. Die Positionen der zu berechnenden Messpunkte werden in einem dreidimensionalen Koordinatensystem dargestellt. Die Abmessungen eines gewünschten Teils des Messziels werden auf der Grundlage der berechneten Positionen der Vielzahl von Messpunkten gemessen.
  • Bei der in JP-A-2000-266524 beschriebenen dreidimensionalen Koordinatenmessvorrichtung (dreidimensionale Formmessvorichtung) wird das Messziel auf einer θ-Bühne („θ stage“) platziert. Die θ-Bühne ist um eine vertikal verlaufende Drehachse drehbar. Ein optischer Messtaster ist über der θ-Bühne so angebracht, dass er in einer vertikalen Ebene einschließlich der Drehachse beweglich ist.
  • Wenn die Form des Messziels gemessen wird, wird die vertikale Position der optischen Sonde so eingestellt, dass das von der optischen Sonde ausgesandte Licht auf die Oberfläche des Messziels trifft. Außerdem bewegt sich die optische Sonde horizontal innerhalb der vertikalen Ebene und die θ-Bühne sich. Dies bewirkt, dass die optische Sonde die gesamte obere Oberfläche des Messziels abtastet.
  • Die Position der optischen Sonde, wenn das von der optischen Sonde emittierte Licht auf jeden von mehreren Messpunkten auf dem Messziel einfällt, wird durch eine Vielzahl von Erfassungsabschnitten, wie beispielsweise eine Vielzahl von Laser-Längenmessgeräte und Rotations-Codierer, erfasst. Die Positionen (dreidimensionale Koordinaten) der Messpunkte werden auf der Grundlage einer Vielzahl von Erfassungsergebnissen berechnet.
  • Wie oben beschrieben, werden in einer optischen Koordinatenmessvorrichtung die Positionen der Vielzahl von Messpunkten auf dem Messziel durch die Vielzahl der Detektionsabschnitte berechnet. Dementsprechend verhindert eine Verringerung der Erkennungsgenauigkeit der Erkennungsabschnitte die Messung der Form des Messziels mit hoher Genauigkeit. Die Erkennungsgenauigkeit durch die Erkennungsabschnitte wird beispielsweise durch eine Verformung verschiedener Komponenten der Erkennungsabschnitte, eine Abweichung in der Positionsbeziehung zwischen der Vielzahl der Komponenten und ähnliches reduziert. Dementsprechend müssen in der optischen Koordinatenmessvorrichtung die Detektionsabschnitte zu geeigneten Zeitpunkten kalibriert werden, um eine hohe Messgenauigkeit zu erhalten.
  • Im Allgemeinen bereitet die Benutzerin von Erfassungsabschnitten wie Laser-Längenmessvorrichtungen und Rotations-Codierern vorgegebene Kalibrierwerkzeuge entsprechend dem Erfassungsabschnitt vor und führt die Kalibrierung mit den Werkzeugen durch. Dementsprechend muss die Benutzerin zur Kalibrierung der Vielzahl von Erfassungsabschnitten in der oben beschriebenen dreidimensionalen Koordinatenmessvorrichtung ein Kalibrierwerkzeug für jeden der Erfassungsabschnitte vorbereiten und die Kalibrierung durchführen. Eine solche Kalibrierarbeit ist für die Benutzerin mühsam.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gegenstand der Erfindung ist das Bereitstellen einer dreidimensionalen Koordinatenmessvorrichtung, die in der Lage ist, ohne komplizierte Kalibrierarbeiten eine sehr zuverlässige Formmessung mit hoher Genauigkeit durchzuführen.
  • (1) Eine erfindungsgemäße dreidimensionale Koordinatenmessvorrichtung umfasst eine Messpunkt-Informationserfassungseinheit, die als Messpunktinformation Informationen über die Position eines Messpunktes auf einem Messziel erfasst, wenn eine Form eines Messziels gemessen wird; ein motorisiertes Rotationselement, auf dem die Messpunkt-Informationserfassungseinheit montierbar ist oder das Messziel platzierbar ist, wobei das motorisierte Rotationselement um eine erste Drehachse drehbar ist; eine Vielzahl von Referenzmarkern, die auf dem motorisierten Rotationselement vorgesehen sind; eine Referenzabbildungseinheit, die an einer Referenzbasis befestigt ist, wobei die Referenzabbildungseinheit die Vielzahl von Referenzmarkern erfasst; eine Speichereinheit, die Informationen über die Anordnung der Vielzahl von Referenzmarkern als Referenzmarkierungsinformationen speichert und einen Abbildungsparameter der Referenzabbildungseinheit speichert; eine Koordinatenberechnungseinheit, die Positions-/Haltungsinformationen berechnet, die eine Position und eine Haltung des motorisierten Rotationselements in Bezug auf die Referenzbildgebungseinheit auf der Grundlage von Referenzbilddaten, die ein Bild der Vielzahl von Referenzmarkern, die von der Referenzbildgebungseinheit erfasst werden, und die Referenzmarkierungsinformationen und den in der Speichereinheit gespeicherten Bildparameter anzeigen, wenn die Form des Messziels gemessen wird, und die Koordinaten des Messpunkts auf der Grundlage der berechneten Positions-/Haltungsinformationen und der von der Messpunktinformationserfassungseinheit erfassten Messpunktinformationen berechnet; und eine Kalibrierungs-Aktualisierungseinheit, die einen neuen Abbildungsparameter auf der Grundlage der in der Speichereinheit gespeicherten Referenzmarker-Information und einer Vielzahl von Stücken von Referenzbilddaten berechnet, die dadurch gewonnen werden, dass die Referenzbildgebungseinheit veranlasst wird, die Vielzahl von Referenzmarkern in einer Vielzahl von Zuständen zu erfassen, in denen eine Position und eine Haltung des motorisierten Rotationselements unterschiedlich sind, während das motorisierte Rotationselement veranlasst wird, sich in die Vielzahl von Zuständen zu verschieben, indem das motorisierte Rotationselement um die erste Rotationsachse gedreht wird, und den in der Speichereinheit gespeicherten Abbildungsparameter vor der Kalibrierung auf den berechneten neuen Abbildungsparameter aktualisiert, wenn die Kalibrierung der Referenzbildgebungseinheit durchgeführt wird.
  • Bei der dreidimensionalen Koordinatenmessvorrichtung wird die Einheit zur Erfassung der Messpunktinformationen an dem motorisierten Rotationselement befestigt oder das Messziel wird auf dem motorisierten Rotationselement platziert. Wenn sich das motorisierte Rotationselement in dem Zustand dreht, in dem die Messpunktinformations-Erfassungseinheit am motorisierten Rotationselement angebracht ist, werden die Position und die Haltung der Messpunktinformations-Erfassungseinheit in Bezug auf die Referenzbasis mit dieser Drehung geändert. Wenn sich das motorisierte Rotationselement in dem Zustand dreht, in dem das Messziel auf dem motorisierten Rotationselement platziert ist, werden alternativ die Position und die Haltung des Messziels in Bezug auf die Referenzbasis mit dieser Drehung geändert.
  • Wenn die Form des Messziels gemessen wird, erfasst die Messpunktinformationserfassungseinheit Informationen über die Position des Messpunkts auf dem Messziel als Messpunktinformation. Darüber hinaus erfasst die Referenzbildgebungseinheit eine Vielzahl von Referenzmarkern, die auf dem motorisierten Rotationselement vorgesehen sind, und erzeugt Referenzbilddaten. Danach werden die Positions-/Haltungsinformationen auf der Grundlage der Referenzbilddaten, der Referenzmarker-Informationen und der Abbildungsparameter berechnet, und dann werden die Koordinaten des Messpunkts auf der Grundlage der berechneten Positions-/Haltungsinformationen und der Messpunktinformationen berechnet.
  • Wenn die Kalibrierung der Referenz-Bildgebungseinheit durchgeführt wird, verschiebt sich das motorisierte Rotationselement in eine Vielzahl von Zuständen, in denen seine Position und Haltung unterschiedlich sind. In jedem der mehreren Zustände erfasst die Referenzabbildungseinheit die mehreren Referenzmarkern. Ein neuer Abbildungsparameter wird auf der Grundlage einer Vielzahl von Referenzbilddaten und Referenzmarker-Informationen, die auf diese Weise erfasst wurden, berechnet, und der in der Speichereinheit gespeicherte Abbildungsparameter wird auf den neuen Abbildungsparameter aktualisiert. In diesem Fall wird der in der Speichereinheit gespeicherte Abbildungsparameter auf den neuen Abbildungsparameter aktualisiert, selbst wenn sich mehrere in der Referenzabbildungseinheit enthaltene Komponenten verformen oder die Positionsbeziehung zwischen den mehreren Komponenten abweicht, ohne dass die Benutzerin komplizierte Kalibrierungsarbeiten durchführen muss.
  • Dadurch kann eine sehr zuverlässige Formmessung mit hoher Genauigkeit ohne komplizierte Kalibrierarbeiten durchgeführt werden.
  • (2) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren eine Kalibrierungs-Entscheidungseinheit enthalten, die die Positionen der projizierten Bilder der mehreren Referenzmarkern auf einer Lichtempfangsfläche der Referenzabbildungseinheit auf der Grundlage der Referenzmarker-Informationen und der in der Speichereinheit gespeicherten Abbildungsparameter berechnet, erkennt eine tatsächliche Position der projizierten Bilder der mehreren Referenzmarkern auf der Lichtempfangsfläche auf der Grundlage der mehreren Stücke von Referenzbilddaten, die dadurch erfasst werden, dass die Referenzbildgebungseinheit die mehreren Referenzmarkern erfasst, trifft eine Entscheidung über die Notwendigkeit der Kalibrierung der Referenzbildgebungseinheit in Abhängigkeit davon, ob eine Beziehung zwischen den berechneten Positionen der projizierten Bilder und den erfassten tatsächlichen Positionen der projizierten Bilder eine vorgegebene zulässige Bedingung erfüllt, und gibt ein Ergebnis der Entscheidung aus.
  • In diesem Fall kann die Benutzerin die Notwendigkeit einer Kalibrierung der Referenz-Bildgebungseinheit auf der Grundlage des Ergebnisses der Entscheidungsausgabe der kalibrierenden Entscheidungseinheit nachvollziehen.
  • (3) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren eine Präsentationseinheit enthalten, die der Benutzerin das Ergebnis der Entscheidungsausgabe der kalibrierenden Entscheidungseinheit präsentiert.
  • In diesem Fall wird das Ergebnis der Entscheidung in einer Präsentationseinheit dargestellt. Dies ermöglicht der Benutzerin, die Notwendigkeit der Kalibrierung der Referenzbildgebungseinheit leicht zu erfassen.
  • (4) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren einen Messtaster enthalten, der eine Vielzahl von Messmarkern aufweist und den Messpunkt auf dem Messziel bezeichnet, wobei die Messpunktinformationserfassungseinheit an dem motorisierten Rotationselement angebracht und so konfiguriert werden kann, dass sie die Vielzahl von Messmarkern des Messtasters erfassen kann, und die Messpunktinformation kann Messbilddaten enthalten, die ein Bild der Vielzahl von Messmarkern anzeigen, das von der Messpunktinformationserfassungseinheit erfasst wurde.
  • In diesem Fall wird bei der Messung der Form des Messziels die Vielzahl der Messmarkern der Sonde von der Messpunktinformationserfassungseinheit erfasst und Messbilddaten erzeugt. Dies ermöglicht die Berechnung der Koordinaten des von der Sonde angezeigten Messpunkts in Bezug auf die Messpunktinformationserfassungseinheit auf der Grundlage des Bildes der durch die Messbilddaten angezeigten Vielzahl von Messmarkern.
  • (5) Die erste Drehachse kann sich vertikal oder horizontal erstrecken.
  • In diesem Fall dreht sich das Messziel oder die auf dem motorisierten Rotationselement platzierte Messpunkt-Informationserfassungseinheit zusammen mit dem motorisierten Rotationselement um die vertikal oder horizontal verlaufende Drehachse.
  • (6) Das motorisierte Rotationselement kann auch um eine zweite Drehachse drehbar sein, wobei die erste Drehachse vertikal und die zweite Drehachse horizontal verlaufen kann.
  • In diesem Fall dreht sich das Messziel oder die auf dem motorisierten Rotationselement platzierte Messpunkt-Informationserfassungseinheit zusammen mit dem motorisierten Rotationselement um die vertikal oder horizontal verlaufende Drehachse.
  • (7) Das motorisierte Rotationselement kann innerhalb einer vorgegebenen Ebene beweglich sein.
  • In diesem Fall bewegt sich die an dem motorisierten Rotationselement angebrachte Messpunktinformationserfassungseinheit oder das auf dem motorisierten Rotationselement platzierte Messziel zusammen mit dem motorisierten Rotationselement innerhalb einer vorbestimmten Ebene.
  • Laut der Erfindung kann eine hoch zuverlässige Formmessung mit hoher Genauigkeit ohne komplizierte Kalibrierarbeiten durchgeführt werden.
  • Figurenliste
    • 1 ist eine schematische Darstellung, die ein Beispiel für die Verwendung einer dreidimensionalen Koordinatenmessvorrichtung entsprechend einer Ausführungsform der Erfindung zeigt;
    • 2 ist ein Blockdiagramm, das die grundlegenden Strukturen eines Abbildungskopfes und einer Verarbeitungsvorrichtung veranschaulicht;
    • 3 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes veranschaulicht;
    • 4 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes zeigt, von dem ein Gehäuse entfernt wurde;
    • 5 ist eine schematische Querschnittsansicht, die den in einer virtuellen Ebene aufgenommenen Abbildungskopf in 3 zeigt;
    • 6A ist ein schematischer Vertikalschnitt, der ein Bezugselement in 5 zeigt, und 6B ist eine Ansicht von unten, die das Bezugselement zeigt;
    • 7 zeigt Beispiele von Bildern einer Vielzahl von Markern, die durch die Aufnahme des Referenzteils mit einer Referenzkamera erhalten wurden;
    • 8 ist ein Blockdiagramm, das den Aufbau einer Sonde veranschaulicht;
    • 9 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild der Sonde veranschaulicht;
    • 10 ist ein Blockdiagramm, das die funktionelle Struktur einer Hauptkörper-Steuerschaltung veranschaulicht;
    • 11 ist ein Flussdiagramm, das den Ablauf der Messverarbeitung durch die Hauptkörper-Steuerschaltung in 2 veranschaulicht;
    • 12 ist ein Flussdiagramm, das den Ablauf einer Messpunkt-Koordinatenberechnung veranschaulicht;
    • 13 ist ein Flussdiagramm, das den Ablauf der Nachführungsverarbeitung durch die Hauptkörper-Steuerschaltung in 2 veranschaulicht;
    • 14 ist ein Flussdiagramm, das den Ablauf der Kalibrierverarbeitung durch die Hauptkörper-Steuerschaltung in 2 veranschaulicht;
    • 15 ist ein Flussdiagramm, das einen Fluss der Kalibrier-Entscheidungsverarbeitung durch die Hauptkörper-Steuerschaltung in 2 veranschaulicht;
    • 16 zeigt ein Beispiel für die Anzeige eines Entscheidungsergebnisses durch eine Kalibrierungsentscheidungsfunktion;
    • 17 zeigt ein Beispiel für den Aufbau einer dreidimensionalen Koordinatenmessvorrichtung nach einer anderen Ausführungsform; und
    • 18 zeigt ein weiteres Beispiel für den Aufbau der dreidimensionalen Koordinatenmessvorrichtung entsprechend der anderen Ausführungsform.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Grundstruktur und Anwendungsbeispiel einer dreidimensionalen Koordinatenmessvorrichtung
  • 1 ist eine schematische Darstellung, die ein Anwendungsbeispiel für eine dreidimensionale Koordinatenmessvorrichtung gemäß einer Ausführungsform der Erfindung darstellt. Wie in 1 dargestellt, umfasst eine dreidimensionale Koordinatenmessvorrichtung 1 gemäß der Ausführungsform der Erfindung im Wesentlichen einen Abbildungskopf 100, eine Sonde 200 und eine Verarbeitungsvorrichtung 300 und dient beispielsweise zum Messen physikalischer Größen wie die Abmessungen von Abschnitten eines großen Messziels S. Im Beispiel in 1 wird ein großes Rohr als Messziel S dargestellt. Das Messziel S wird auf einer Bodenfläche platziert.
  • Die Sonde 200 wird von einer Benutzerin U getragen. Die Sonde 200 hat einen Kontaktteil 211a. Die Benutzerin U bringt das Kontaktteil 211a der Sonde 200 mit einem gewünschten Abschnitt des Messziels S in Kontakt. Der Abschnitt des Messziels S, der mit dem Kontaktteil 211a in Kontakt kommt, ist ein Messpunkt.
  • Der Abbildungskopf 100 wird mit einem Referenzständer 10 beispielsweise an der Bodenfläche als Montagefläche befestigt. Eine bewegliche Kamera 120 ist im Abbildungskopf 100 vorgesehen. Die bewegliche Kamera 120 erfasst eine Vielzahl von Markern eq (9), die später beschrieben werden, die an der Sonde 200 vorgesehen sind. Der Referenzständer 10 ist ein Stativständer und umfasst einen Befestigungsabschnitt 11 und einen Beinabschnitt 12. Der Befestigungsabschnitt 11 hat eine ebene Oberseite. Der Referenzständer 10 ist konfiguriert, um eine Haltungsanpassung zwischen dem Befestigungsabschnitt 11 und dem Beinabschnitt 12 zu ermöglichen, so dass die Oberseite des Befestigungsabschnitts 11 horizontal befestigt wird. Die Oberseite des Befestigungsabschnitts 11 wird in der folgenden Beschreibung als horizontal befestigt angenommen.
  • Zusätzlich ist der Abbildungskopf 100 über ein Kabel CA mit der Verarbeitungsvorrichtung 300 verbunden. Die Verarbeitungsvorrichtung 300 ist beispielsweise ein Personalcomputer, an den eine Hauptanzeigeeinheit 310 und eine Hauptkörperbedieneinheit 320 angeschlossen sind. In der Verarbeitungsvorrichtung 300 wird die Position eines Messpunktes auf dem Messziel S auf der Grundlage der Bilddaten (im Folgenden als Messbilddaten bezeichnet) berechnet, die durch die Erfassung der Sonde 200 mit der beweglichen Kamera 120 und den später beschriebenen Positions-/Haltungsinformationen erhalten werden. Die Koordinaten eines oder mehrerer Messpunkte auf dem Messziel S werden berechnet und die physikalischen Größen des Messziels S werden auf der Grundlage des Berechnungsergebnisses gemessen.
  • Wenn sich die Benutzerin U bewegt, während sie die Sonde 200 trägt, wie in 1 durch den gestrichelten Linienpfeil dargestellt, folgt die Ausrichtung des abbildenden Gesichtsfeldes der beweglichen Kamera 120 der Bewegung der Sonde 200. Das heißt, die Ausrichtung der beweglichen Kamera 120 ändert sich so, dass die Sonde 200 im Sichtfeld der beweglichen Kamera 120 positioniert ist, wenn sich die Sonde 200 bewegt. Dementsprechend weist die dreidimensionale Koordinatenmessvorrichtung 1 eine große messbare Fläche auf. Die Strukturen der einzelnen Abschnitte der dreidimensionalen Koordinatenmessvorrichtung 1 werden im Folgenden ausführlich beschrieben.
  • Strukturen des Abbildungskopfes 100 und der Verarbeitungsvorrichtung 300
  • 2 ist ein Blockdiagramm, das die Strukturen des Abbildungskopfes 100 und der Verarbeitungsvorrichtung 300 veranschaulicht. 3 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes 100 veranschaulicht, 4 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes 100 veranschaulicht, aus dem ein Gehäuse 90 entfernt wurde, und 5 ist eine schematische Längsschnittansicht, die den Abbildungskopf 100 in einer virtuellen Ebene VP in 3 darstellt.
  • Zunächst wird die Struktur des Abbildungskopfes 100 beschrieben. Wie in 2 dargestellt, umfasst der Abbildungskopf 100 eine Referenzkamera 110, die bewegliche Kamera 120, eine Marker-Treiberschaltung 130, eine Rotations-Treiberschaltung 140, eine Kopfsteuerschaltung 150, eine drahtlose Kommunikationsschaltung 160, eine Kommunikationsschaltung 170, eine Vogelperspektivenkamera 180 und das Bezugselement 190 als elektrische Komponenten. Diese Komponenten sind in dem in 3 dargestellten Gehäuse 90 in dem Zustand untergebracht, in dem sie von einem der Befestigungs- und Koppelabschnitte 20, einem Stützelement 30 und einem beweglichen Element 40 getragen werden, die durch Punkt-Punkt-Strichlinien in 2 gekennzeichnet sind.
  • Wie in 3 dargestellt, umfasst das Gehäuse 90 ein Untergehäuse 91 und ein Obergehäuse 92. Wie in 3 und 5 dargestellt, ist das Untergehäuse 91 im Wesentlichen zylindrisch und erstreckt sich um einen bestimmten Abstand vom unteren Endteil des Abbildungskopfes 100 nach oben. Das Obergehäuse 92 ist oberhalb des Untergehäuses 91 vorgesehen. Das Obergehäuse 92 ist im Wesentlichen glockenförmig und zusammen mit dem nachfolgend beschriebenen Stützelement 30 (4) in einer horizontalen Ebene drehbar angeordnet.
  • Wie in 3 dargestellt, ist in einem Teil des Obergehäuses 92 ein Schlitz 93 ausgebildet, der sich in Auf/Ab-Richtung erstreckt. Der Schlitz 93 führt das abbildende Gesichtsfeld der beweglichen Kamera 120 zur Außenseite des Gehäuses 90. Zusätzlich ist im Obergehäuse 92 ein Fenster 94 für die Vogelperspektivenkamera ausgebildet. Das Fenster 94 für die Vogelperspektivenkamera führt das bildgebende Gesichtsfeld der Vogelperspektivenkamera 180 zur Außenseite des Gehäuses 90.
  • Wie in 4 und 5 dargestellt, umfasst der Befestigungs- und Koppelabschnitt 20 die untere Befestigungsplatte 21, eine obere Befestigungsplatte 22, eine Vielzahl von (beispielsweise vier) Säulen 23 und die hohle Stützwelle 24. Die untere Befestigungsplatte 21 ist scheibenförmig und wird mit Schrauben an der Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 befestigt. Die obere Befestigungsplatte 22 ist über die untere Befestigungsplatte 21 über die Vielzahl der Säulen 23 vorgesehen. Die obere Befestigungsplatte 22 ist scheibenförmig wie die untere Befestigungsplatte 21. In der Mitte der oberen Befestigungsplatte 22 ist eine kreisförmige Öffnung ausgebildet. Die hohle Stützwelle 24 wird mit Schrauben an der Oberseite der oberen Befestigungsplatte 22 befestigt, um die Öffnung in der Mitte der oberen Befestigungsplatte 22 zu umgeben. Das Untergehäuse 91 in 3 ist an einem der Elemente befestigt, die den Befestigungs- und Koppelabschnitt 20 bilden.
  • Im Befestigungs- und Koppelabschnitt 20 ist der Raum zwischen der unteren Befestigungsplatte 21 und der oberen Befestigungsplatte 22 mit verschiedenen Arten von Substraten versehen, auf denen die Rotations-Treiberschaltung 140, die Kopfsteuerschaltung 150, die drahtlose Kommunikationsschaltung 160 und die Kommunikationsschaltung 170 in 2 montiert sind. Zusätzlich ist auf der unteren Befestigungsplatte 21 die Referenzkamera 110 so vorgesehen, dass sie sich von der unteren Befestigungsplatte 21 zur Innenseite der hohlen Stützwelle 24 durch die Öffnung der oberen Befestigungsplatte 22 erstreckt, wie in 5 dargestellt. In diesem Zustand zeigt das bildgebende Gesichtsfeld der Referenzkamera 110 nach oben. In der Ausführungsform ist eine optische Achse 110c des optischen Systems der Referenzkamera 110 mit der Mittelachse der hohlen Stützwelle 24 ausgerichtet.
  • Auf der unteren Befestigungsplatte 21 und der oberen Befestigungsplatte 22 ist neben verschiedenen Substrattypen und der oben beschriebenen Referenzkamera 110 ein horizontaler Drehmechanismus 141 vorgesehen. Der horizontale Drehmechanismus 141 dient zum Drehen des Stützelements 30, das später beschrieben wird, um die Mittelachse der hohlen Stützwelle 24 (in einer Ebene parallel zur Oberseite des Referenzständers 10). Der horizontale Drehmechanismus 141 umfasst beispielsweise einen Motor und verschiedene Arten von Kraftübertragu ngselementen.
  • Wie in 4 dargestellt, ist das Stützelement 30 auf der hohlen Stützwelle 24 des Befestigungs- und Koppelabschnitts 20 vorgesehen. Das Stützelement 30 umfasst die Drehbasis 31 und ein Paar Stützrahmen 32 und 33. Eine Drehbasis 31 weist in ihrer Mitte eine Öffnung auf und ist über ein Kreuzrollenlager CB (5) am oberen Endteil der hohlen Stützwelle 24 so montiert, dass das Stützelement 30 um die Mittelachse der hohlen Stützwelle 24 drehbar ist. Das Obergehäuse 92 in 3 ist an einem der Elemente montiert, die das Stützelement 30 bilden. Wenn sich das Stützelement 30 in Bezug auf die hohle Stützwelle 24 dreht, dreht sich das Obergehäuse 92 zusammen mit dem Stützelement 30 in Bezug auf das Untergehäuse 91.
  • Das Paar der Stützrahmen 32 und 33 ist so ausgebildet, dass sie sich von einer Seite und der anderen Seite der Drehbasis 31 nach oben erstrecken, während sie einander zugewandt sind. Zwischen dem Paar von Stützrahmen 32 und 33 ist das bewegliche Element 40 in einem vorgegebenen Abstand von der Drehbasis 31 vorgesehen.
  • Das bewegliche Element 40 wird von den Stützrahmen 32 und 33 um eine Drehachse 30c drehbar (in Bezug auf die horizontale Ebene neigbar) getragen, die durch die einander zugewandten Abschnitte des Stützrahmenpaares 32 und 33 verläuft. In der Ausführungsform ist die Drehachse 30c orthogonal zur optischen Achse 110c der Referenzkamera 110 (5) und zur Mittelachse der hohlen Stützwelle 24.
  • In der Nähe des oberen Endteils des einen Stützrahmens 32 ist die Vogelperspektivkamera 180 in einem Teil montiert, der auf der Drehachse 30c auf der dem beweglichen Element 40 gegenüberliegenden Seite positioniert ist. In der Nähe des oberen Endteils des anderen Stützrahmens 33 ist ein Kippdrehmechanismus 143 in einem Abschnitt montiert, der auf der Drehachse 30c auf einer dem beweglichen Element 40 gegenüberliegenden Seite angeordnet ist. Der Kippdrehmechanismus 143 umfasst beispielsweise einen Motor und verschiedene Arten von Kraftübertragungselementen. Der Kippdrehmechanismus 143 dreht das bewegliche Element 40 um die Drehachse 30c. Dabei ist zu beachten, dass der Bereich, in dem der Kippdrehmechanismus 143 das bewegliche Element 40 drehen kann, auf beispielsweise 60 Grad oder so begrenzt ist.
  • Das bewegliche Element 40 ist in einem im Wesentlichen quadratischen Kurzzylinder ausgebildet und weist eine obere Fläche 41 und eine untere Fläche 42 auf. Die bewegliche Kamera 120 und verschiedene Arten von Substraten, die die bewegliche Kamera 120 begleiten, sind am beweglichen Element 40 befestigt. In diesem Zustand ist eine optische Achse 120c (5) des optischen Systems der beweglichen Kamera 120 parallel zur Oberseite 41 des beweglichen Elements 40.
  • Ein Substrat 43, auf dem die Marker-Treiberschaltung 130 in 2 montiert ist, ist im oberen Endteil des beweglichen Elements 40 vorgesehen, um die Öffnung in der Mitte davon zu schließen.
  • Wie in 5 dargestellt, ist das Bezugselement 190 mit der Vielzahl von Markern ep (2) innerhalb des beweglichen Elements 40 vorgesehen. 6A ist eine schematische Längsschnittansicht, die das Bezugselement 190 in 5 und 6B eine Unteransicht, die das Bezugselement 190 darstellt.
  • Wie in den 6A und 6B dargestellt, umfasst das Bezugselement 190 ein lichtemittierendes Substrat 191, eine Diffusionsplatte 192, eine Glasplatte 193 und eine diffuse Reflexionsfolie 195. Das lichtemittierende Substrat 191, die Diffusionsplatte 192 und die Glasplatte 193 sind in dieser Reihenfolge von oben nach unten geschichtet. Die diffuse Reflexionsfolie 195 ist so vorgesehen, dass sie den äußeren Umfangsteil dieses Schichtkörpers umschließt.
  • Eine Vielzahl von lichtemittierenden Elementen L ist auf der gesamten Unterseite des lichtemittierenden Substrats 191 montiert. Die lichtemittierenden Elemente L sind beispielsweise Infrarot-LEDs (Leuchtdioden). Als lichtemittierende Elemente L können LEDs mit anderen Wellenlängen anstelle von Infrarot-LEDs oder andere Arten von lichtemittierenden Elementen wie Filamente verwendet werden. Die Marker-Treiberschaltung 130 steuert die Vielzahl der lichtemittierenden Elemente L auf dem lichtemittierenden Substrat 191. Dies bewirkt, dass die Vielzahl der lichtemittierenden Elemente L Licht emittiert.
  • Die Diffusionsplatte 192 ist ein Plattenelement, das beispielsweise aus Harz besteht und das von der Vielzahl der lichtemittierenden Elemente L abgegebene Licht nach unten durchlässt, während das Licht gestreut wird. Die diffuse Reflexionsfolie 195 ist ein streifenförmiges Plattenelement, das beispielsweise aus Harz besteht und das Licht aus der Vielzahl der lichtemittierenden Elemente L zur Seite (außen) des Bezugselements 190 nach innen reflektiert, während das Licht gestreut wird.
  • Die Glasplatte 193 ist ein Plattenelement aus beispielsweise Quarzglas oder Sodaglas. Die Unterseite der Glasplatte 193 ist mit der Maske 194 versehen, die eine Vielzahl von kreisförmigen Öffnungen aufweist. Die Maske 194 ist eine Chrommaske, die auf der Unterseite der Glasplatte 193 beispielsweise durch ein Sputterverfahren oder ein Aufdampfverfahren gebildet wird.
  • In der oben beschriebenen Struktur wird das von der Vielzahl der lichtemittierenden Elemente L ausgesandte und von der Diffusionsplatte 192 und der diffusen Reflexionsplatte 195 gestreute Licht nach unten vom Bezugselement 190 durch die Glasplatte 193 und die Vielzahl der kreisförmigen Öffnungen der Maske 194 freigegeben. Auf diese Weise wird die Vielzahl von Selbstemissionsmarkern ep gebildet, die jeweils der Vielzahl der kreisförmigen Öffnungen entspricht.
  • In der Ausführungsform, wie in 6B dargestellt, ist die Vielzahl von Markern ep in regelmäßigen Abständen in einer Matrix auf der Unterseite (Ebene) des Bezugselements 190 angeordnet. Von der Vielzahl von Markern ep werden der in der Mitte befindliche Marker ep und ein Marker ep, der sich in einer Position in einem vorbestimmten Abstand vom Marker ep in der Mitte befindet, durch Identifikationsmarkern (Punkte in diesem Beispiel) gekennzeichnet, um diese beiden Marker von den anderen Markern ep zu identifizieren. Diese Identifikationsmarkern werden durch einen Teil der Maske 194 gebildet. In der folgenden Beschreibung wird zur Unterscheidung dieser beiden durch die Identifikationsmarkern ep bezeichneten Marker ep von den anderen Markern ep der Marker ep in der Mitte mit der Identifikationsmarke als ein erster Marker ep1 bezeichnet. Darüber hinaus wird der andere Marker ep mit der Identifikationsmarke als zweiter Marker ep2 bezeichnet.
  • In der oben beschriebenen Struktur wird das Bezugselement 190 an dem beweglichen Element 40 so angebracht, dass die nach unten gerichtete Vielzahl von Markern ep im Bereich des abbildenden Gesichtsfeldes der Referenzkamera 110 positioniert ist. Zusätzlich wird das Bezugselement 190 an dem beweglichen Element 40 so angebracht, dass der erste Marker ep1 auf der optischen Achse 110c positioniert ist, wenn die obere Fläche 41 und die untere Fläche 42 des beweglichen Elements 40 orthogonal zur Richtung der optischen Achse 110c der Bezugskamera 110 sind. Dabei ist zu beachten, dass das Bezugselement 190 vorzugsweise so angeordnet ist, dass die meisten der Vielzahl von Markern ep auf das gesamte abbildende Gesichtsfeld der Referenzkamera 110 verteilt sind.
  • Wenn sich das Stützelement 30 auf dem Befestigungs- und Kopplungsabschnitt 20 und das bewegliche Element 40 um die Drehachse 30c dreht, ändert sich das Bild der Vielzahl von Markern ep, das man erhält, wenn die Referenzkamera 110 das Bezugselement 190 erfasst.
  • 7A bis 7C veranschaulichen Beispiele für die Bilder der Vielzahl von Markern ep, die erhalten werden, wenn die Referenzkamera 110 das Bezugselement 190 aufnimmt. Da Licht von der Vielzahl von Markern ep in 6B freigesetzt wird, erscheinen die Bilder, die der Vielzahl von Markern ep entsprechen, in dem Bild des Bezugselements 190, das mit dem Abbildungskopf 100 aufgenommen wurde.
  • Wenn beispielsweise das tragende Element 30 und das bewegliche Element 40 in ihren vorbestimmten Referenzhaltungen gehalten werden, wird angenommen, dass ein Bild 110i, das in 7A dargestellt ist, erhalten wird. In den Referenzhaltungen ist die untere Fläche des Referenzteils 190 orthogonal zur optischen Achse 110c der Referenzkamera 110 und wird horizontal gehalten. Im Bild 110i in 7A sind die Marker-Bilder, d.h. die der Vielzahl von Markern ep entsprechen, in einer Matrix wie in der Vielzahl der tatsächlichen Marker ep in 6B angeordnet. Zusätzlich ist das Markerbild iep1, das der ersten Marker ep1 in 6B entspricht, im mittleren Teil des Bildes, das der Mitte des Gesichtsfeldes der Referenzkamera 110 entspricht, dargestellt. Zusätzlich wird ein Markerbild iep2, das der zweiten Marke ep2 in 6B entspricht, in einer Position dargestellt, die einen vorbestimmten Abstand zum Markerbild iep1 aufweist.
  • Wenn sich das Stützelement 30 aus der Referenzhaltung um die optische Achse 110c dreht, ändern sich die Abstände zwischen der Vielzahl von Markern ep und der Referenzkamera 110 nicht wesentlich. Bei dieser Drehung, wie in 7B dargestellt, dreht sich die Vielzahl der Markerbilder iep um den zentralen Teil des Bildes. In diesem Fall kann der Drehwinkel des Stützelements 30 aus der Referenzhaltung auf der Grundlage der Positionsbeziehung zwischen den beiden Markerbildern iep1 und iep2 ermittelt werden.
  • Wenn sich das bewegliche Element 40 aus der Referenzhaltung um die Drehachse 30c dreht, ändern sich die Abstände zwischen der Vielzahl von Markern ep und der Referenzkamera 110 einzeln. Zum Beispiel werden die Abstände zwischen Teilen der Vielzahl von Markern ep und der Referenzkamera 110 kleiner und die Abstände zwischen anderen Teilen der Vielzahl von Markern ep und der Referenzkamera 110 größer. Wenn sich beispielsweise das bewegliche Element 40 aus der Referenzhaltung in dem Zustand dreht, in dem das Stützelement 30 in der Drehposition gehalten wird, die dem Bild 110i in 7B entspricht, ändert sich dementsprechend der Anordnungszustand der Vielzahl von Markierungsbildern iep wie in 7C dargestellt. In diesem Fall kann der Drehwinkel des beweglichen Elements 40 aus der Referenzhaltung auf der Grundlage der Positionsbeziehung aller Markierungsbilder iep einschließlich der beiden Markierungsbilder iep1 und iep2 ermittelt werden.
  • Wie oben beschrieben, sind die bewegliche Kamera 120 und das Bezugselement 190 einstückig mit dem beweglichen Element 40 verbunden. Dementsprechend können die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 auf der Grundlage der Bilddaten (im Folgenden als Referenzbilddaten bezeichnet) berechnet werden, die durch die Erfassung der Vielzahl von Markern ep des Bezugselements 190 mit der Referenzkamera 110 erhalten werden. Einzelheiten zur Berechnung der Position und der Haltung der beweglichen Kamera 120 werden später beschrieben.
  • Zwischen dem beweglichen Element 40 und der Rotationsbasis 31 ist ein Balgen 50 vorgesehen, um einen Abbildungsraum rs (5) einschließlich des Bildgebungssichtfeldes der Referenzkamera 110 von der Referenzkamera 110 zum Bezugselement 190 von der Außenseite des Abbildungsraums rs räumlich zu blockieren.
  • Der obere Endteil des Balges 50 ist mit der Unterseite 42 des beweglichen Elements 40 und der untere Endteil des Balges 50 mit der Oberseite des Drehgestells 31 gekoppelt. Wenn sich das Stützelement 30 in der horizontalen Ebene dreht, dreht sich demnach auch der Balgen 50 zusammen mit dem Stützelement 30.
  • Darüber hinaus ist der Balgen 50 in diesem Beispiel in einer im Wesentlichen quadratischen Säule ausgebildet und, wenn der Kippdrehmechanismus 143 das bewegliche Element 40 dreht, nach der Drehung verformt, wodurch der optische und räumliche Blockzustand des Abbildungsraums rs erhalten bleibt. Wenn der Balgen 50 nach der Drehung des beweglichen Elements 40 verformt wird, ist der Balgen 50 außerdem so vorgesehen, dass er das abbildende Gesichtsfeld der Referenzkamera 110 nicht stört.
  • Diese Struktur verhindert, dass Licht von der Au ßenseite des Abbildungsraums rs in den Abbildungsraum rs gelangt. Darüber hinaus wird selbst bei Erwärmung eines Motors oder dergleichen um den Abbildungsraum rs herum verhindert, dass die erzeugte Wärme in den Abbildungsraum rs eintritt. Dadurch wird verhindert, dass die Atmosphäre des Abbildungsraums rs schwankt. Da die Vielzahl von Markern ep mit hoher Genauigkeit erfasst wird, können die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 mit hoher Genauigkeit berechnet werden.
  • Darüber hinaus wird in der oben beschriebenen Struktur, da der Innenraum des Balges 50 räumlich vom Außenraum blockiert ist, die Atmosphäre des Innenraums des Balges 50 stabilisiert. Dementsprechend kann die außerhalb des Balgens 50 vorgesehene Wärmequelle durch einen Ventilator oder dergleichen zwangsgekühlt werden.
  • Dabei ist zu beachten, dass die dem Abbildungsraum rs zugewandte Innenfläche des Balges 50 vorzugsweise mit einer Farbe oder einem Material konfiguriert ist, das ein geringes Lichtreflexionsvermögen aufweist und Licht absorbiert. So kann beispielsweise die Farbe der Innenfläche des Balges 50 schwarz sein. Alternativ kann die Innenfläche des Balges 50 durch ein nicht reflektierendes Material konfiguriert werden, das das Licht nicht reflektiert. Alternativ kann die Innenfläche des Balges 50 mit einem nicht reflektierenden Material beschichtet werden. Dadurch wird verhindert, dass das von der Vielzahl von Markern ep abgegebene Licht von der Innenfläche des Balges 50 unregelmäßig reflektiert wird. Dementsprechend kann die Vielzahl von Markern ep mit hoher Genauigkeit erfasst werden.
  • Im Abbildungskopf 100 ist, wie in 4 dargestellt, die bewegliche Kamera 120 vorzugsweise so vorgesehen, dass sich der Schwerpunkt der beweglichen Kamera 120 einem Schnittpunkt GC zwischen der optischen Achse 110c der Referenzkamera 110 und der Drehachse 30c nähert. In diesem Fall, da der Schwerpunkt der beweglichen Kamera 120 näher am Schnittpunkt GC liegt, wird die Drehung des Stützelements 30 um die optische Achse 110c stabiler und die Drehung des beweglichen Elements 40 um die Drehachse 30c stabiler. Darüber hinaus kann die zum Drehen des Stützelements 30 und des beweglichen Elements 40 erforderliche Antriebskraft reduziert werden. Dadurch wird die Belastung der Antriebseinheiten, wie beispielsweise des Motors, reduziert.
  • Wie in 4 dargestellt, ist die Vogelperspektivenkamera 180 auf dem Stützrahmen 32 so angeordnet, dass ihr abbildendes Gesichtsfeld in die gleiche oder im Wesentlichen gleiche Richtung wie das abbildende Gesichtsfeld der beweglichen Kamera 120 ausgerichtet ist. Der Blickwinkel der Vogelperspektivenkamera 180 ist größer als der Blickwinkel der Referenzkamera 110 und der beweglichen Kamera 120. Dementsprechend ist das abbildende Gesichtsfeld der Vogelperspektivenkamera 180 größer als die abbildenden Gesichtsfelder der Referenzkamera 110 und der beweglichen Kamera 120. Dabei ist zu beachten, dass der Blickwinkel der beweglichen Kamera 120 so eingestellt ist, dass er beispielsweise einen Kreisbereich mit einem Durchmesser von etwa 15 cm an einer Position von 1,5 Metern von der beweglichen Kamera 120 entfernt liegt.
  • Bei der Tracking-Verarbeitung, die später beschrieben wird, wird die Vogelperspektivenkamera 180 verwendet, um die Sonde 200 über einen weiten Bereich aufzunehmen. Auch wenn beispielsweise die Sonde 200 durch die Bewegung der Sonde 200 vom abbildenden Gesichtsfeld der beweglichen Kamera 120 abweicht, kann durch die Aufnahme der Sonde 200 mit der Vogelperspektivenkamera 180 die ungefähre Position der Sonde 200 basierend auf den Bilddaten (im Folgenden Vogelperspektive-Bilddaten genannt) durch die Aufnahme festgelegt werden. Die Position und Haltung der beweglichen Kamera 120 wird basierend auf der vorgegebenen Position so eingestellt, dass die Sonde 200 im abbildenden Gesichtsfeld der beweglichen Kamera 120 positioniert ist.
  • Wie in 2 dargestellt, sind die Referenzkamera 110, die bewegliche Kamera 120, die Marker-Treiberschaltung 130, die Rotations-Treiberschaltung 140, die drahtlose Kommunikationsschaltung 160 und die Kommunikationsschaltung 170 mit der Kopfsteuerschaltung 150 verbunden. Die Kopfsteuerschaltung 150 umfasst eine CPU (Zentrale Recheneinheit) und einen Speicher oder einen Mikrocomputer und steuert die Referenzkamera 110, die bewegliche Kamera 120, die Marker-Treiberschaltung 130 und die Rotations-Treiberschaltung 140.
  • Jede der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 umfasst einen CMOS-Bildsensor (komplementärer Metalloxidfilm-Halbleiter), der Infrarotlicht als Bildelement erfassen kann. Darüber hinaus umfasst jede der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 eine Vielzahl von Linsen (optische Systeme), die nicht dargestellt sind.
  • Wie vorstehend beschrieben, geben die Pixel der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 die analogen elektrischen Signale (im Folgenden Lichtempfangssignale genannt) entsprechend der Erfassungsgröße der Kopfsteuerschaltung 150 aus.
  • Ein A/D-Wandler (Analog-Digital-Wandler) und ein FIFO-Speicher (First-in-First-out), die nicht dargestellt sind, sind auf der Kopfsteuerschaltung 150 montiert. Die von der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 ausgegebenen lichtempfindlichen Signale werden vom A/D-Wandler der Kopfsteuerschaltung 150 in einer konstanten Abtastzeit abgetastet und in digitale Signale umgewandelt. Die vom A/D-Wandler ausgegebenen digitalen Signale werden nacheinander im FIFO-Speicher gesammelt. Die im FIFO-Speicher angesammelten digitalen Signale werden nacheinander als Pixeldaten an die Verarbeitungsvorrichtung 300 übertragen.
  • Die Marker-Treiberschaltung 130 treibt das lichtemittierende Substrat 191 in 6A unter Steuerung der Kopfsteuerschaltung 150 an. Dies bewirkt, dass die Vielzahl der lichtemittierenden Elemente L auf dem lichtemittierenden Substrat 191 Licht emittiert und die Vielzahl der Marker eq des Bezugselements 190 Licht freisetzt. Dabei ist zu beachten, dass sich diese Lichtemissionszeit mit der Aufnahmezeit der Referenzkamera 110 synchronisiert.
  • Die Rotations-Treiberschaltung 140 treibt den horizontalen Drehmechanismus 141 in 4 unter Steuerung der Kopfsteuerschaltung 150 an. Dadurch wird das Stützelement 30 in 4 am Befestigungs- und Koppelabschnitt 20 gedreht und das bewegliche Element 40 und das Obergehäuse 92 (3). Zu diesem Zeitpunkt, da sich das bewegliche Element 40 dreht, dreht sich das bildgebende Gesichtsfeld der beweglichen Kamera 120, die von der Innenseite zur Außenseite des Obergehäuses 92 durch den Schlitz 93 (3) eingeführt wird, in horizontaler Richtung auf dem Referenzständer 10 in 1.
  • Darüber hinaus treibt die Rotations-Treiberschaltung 140 den Kippdrehmechanismus 143 in 4 unter Steuerung der Kopfsteuerschaltung 150 an. Dadurch wird das bewegliche Element 40 in 4 um die Drehachse 30c zwischen dem Paar der Stützrahmen 32 und 33 gedreht. Zu diesem Zeitpunkt dreht sich das abbildende Gesichtsfeld der beweglichen Kamera 120, die durch den Schlitz 93 ( 3) hindurchgeht, in Aufwärts-Richtung entlang des Schlitzes 93 auf dem Referenzständer 10 in 1. Die Drehung des bildgebenden Gesichtsfeldes der beweglichen Kamera 120 durch die Rotations-Treiberschaltung 140 erfolgt auf der Grundlage einer Tracking-Verarbeitung, die später von der Verarbeitungsvorrichtung 300 beschrieben wird.
  • Die Kopfsteuerschaltung 150 führt eine drahtlose Kommunikation mit der Sonde 200 über die drahtlose Kommunikationsschaltung 160 durch. Darüber hinaus führt die Kopfsteuerschaltung 150 eine drahtgebundene Kommunikation mit der Verarbeitungsvorrichtung 300 über die Kommunikationsschaltung 170 und das Kabel CA durch (1).
  • Wie in 2 dargestellt, umfasst die Verarbeitungsvorrichtung 300 eine Kommunikationsschaltung 301, eine Hauptkörper-Steuerschaltung 302 und einen Hauptkörperspeicher 303. Die Kommunikationsschaltung 301 und der Hauptkörperspeicher 303 sind mit der Hauptsteuerschaltung 302 verbunden. Darüber hinaus sind eine Hauptkörperbedieneinheit 320 und eine Hauptkörper-Anzeigeeinheit 310 mit dem Hauptkörpersteuerkreis 302 verbunden.
  • Der Hauptkörperspeicher 303 umfasst ein ROM (Nur-Lese-Speicher), einen RAM (Direktzugriffsspeicher) und eine Festplatte. Im Hauptkörperspeicher 303 sind ein Messverarbeitungsprogramm, ein Nachverfolgungsverarbeitungsprogramm, ein Kalibrierungsprogramm und ein Programm zur Entscheidung über die Kalibrierung, die später beschrieben werden, sowie ein Systemprogramm gespeichert. Zusätzlich werden im Hauptkörperspeicher 303 die Kameraparameter der Referenzkamera 110 gespeichert. Zu den Kameraparametern der Referenzkamera 110 gehören ein Wert, der die durch die Linse verursachten und in den Referenzbilddaten enthaltenen Dehnungskomponenten betrifft, sowie ein Wert, der die relative Positionsbeziehung zwischen der Linse und der Abbildungsvorrichtung betrifft. Darüber hinaus speichert der Hauptkörperspeicher 303 als Referenzmarker-Information Informationen, die die relative Positionsbeziehung (im Entwurf definiert) zwischen der Vielzahl von Markern ep des Bezugselements 190 angeben. Spezifische Beispiele für die Kameraparameter und die Referenzmarker-Informationen werden später beschrieben. Darüber hinaus wird der Hauptkörperspeicher 303 zur Verarbeitung verschiedener Datentypen oder zur Speicherung verschiedener Datentypen, wie beispielsweise Pixeldaten, die durch den Abbildungskopf 100 gegeben sind, verwendet.
  • Die Hauptkörper-Steuerschaltung 302 umfasst eine CPU. In der Ausführungsform werden die Hauptkörper-Steuerschaltung 302 und der Hauptkörperspeicher 303 durch einen Personalcomputer realisiert. Die Hauptkörper-Steuerschaltung 302 erzeugt Bilddaten auf der Grundlage von Pixeldaten, die vom Abbildungskopf 100 über das Kabel CA (1) und die Kommunikationsschaltung 301 ausgegeben werden. Die Bilddaten sind ein Satz, der eine Vielzahl von Pixeldaten umfasst.
  • In den Ausführungsformen werden Referenzbilddaten, Messbilddaten und Bilddaten aus der Vogelperspektive erzeugt, die der Referenzkamera 110, der beweglichen Kamera 120 bzw. der am Abbildungskopf 100 vorgesehenen Vogelperspektivkamera 180 entsprechen. Zusätzlich werden Bilddaten erzeugt, die einer später beschriebenen Sonden-Kamera 208 entsprechen, die auf der Sonde 200 vorgesehen ist. Die Hauptkörper-Steuerschaltung 302 berechnet die Position des Kontaktteils 211a (1) der Sonde 200 auf der Grundlage der Kameraparameter der Referenzkamera 110, der Referenzbilddaten und der Messbilddaten, wenn die Form des Messziels S gemessen wird. Darüber hinaus berechnet die Hauptkörper-Steuerschaltung 302 geeignete Kameraparameter der Referenzkamera 110 als neue Kameraparameter. Zusätzlich aktualisiert die Steuerschaltung 302 des Hauptkörpers die im Speicher 303 des Hauptkörpers gespeicherten Kameraparameter der Referenzkamera 110 auf die neuen Kameraparameter. Dadurch wird die Referenzkamera 110 kalibriert. Einzelheiten zu den verschiedenen Funktionen der Hauptkörper-Steuerschaltung 302 werden später beschrieben.
  • Die Hauptanzeigeeinheit 310 wird beispielsweise durch ein Flüssigkristall-Anzeigepanel oder eine organische EL (Elektrolumineszenz)-Platte konfiguriert. Die Hauptanzeigeeinheit 310 zeigt die Positionen der Messpunkte auf dem Messziel S, die Messergebnisse einzelner Teile des Messziels S und ähnliches auf der Grundlage der Steuerung durch die Hauptkörper-Steuerschaltung 302 an. Zusätzlich zeigt die Hauptkörperanzeigeeinheit 310 einen Einstellbildschirm an, auf dem verschiedene Einstellungen über die Messung vorgenommen werden.
  • Die Hauptkörperbedieneinheit 320 umfasst eine Tastatur und eine Zeigevorrichtung. Die Zeigevorrichtung umfasst eine Maus, einen Joystick oder dergleichen. Die Hauptkörperbedieneinheit 320 wird von der Benutzerin U bedient.
  • Aufbau der Sonde 200
  • 8 ist ein Blockdiagramm, das die Struktur der Sonde 200 veranschaulicht. 9 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild der Sonde 200 veranschaulicht. Wie in 8 dargestellt, umfasst die Sonde 200 eine Sonden-Steuereinheit 201, eine Anzeigelampe 202, eine Batterie 203, eine Marker-Treiberschaltung 204, einen Sonden-Speicher 205, eine drahtlose Kommunikationsschaltung 206, einen Bewegungssensor 207, die Sonden-Kamera 208, eine Sonden-Steuereinheit 221, eine Touchpanel-Anzeige 230 und eine Vielzahl von (in diesem Beispiel drei) Zielelementen 290 als elektrische Komponenten.
  • Die Batterie 203 versorgt andere in der Sonde 200 vorgesehene Komponenten mit elektrischer Energie. Die Sonden-Steuereinheit 201 umfasst eine CPU und einen Speicher oder einen Mikrocomputer und steuert die Anzeigelampe 202, die Marker-Treiberschaltung 204, die Sonden-Kamera 208 und die Touchpanel-Anzeige 230. Darüber hinaus führt die Sonden-Steuereinheit 201 verschiedene Arten von Verarbeitungen als Reaktion auf die Bedienung der Sonden-Steuereinheit 221 und der Touchpanel-Anzeige 230 durch die Benutzerin U durch.
  • Wie durch eine Punkt-Punkt-Strichlinie in 8 dargestellt, weist die Sonde 200 ein Sonden-Gehäuse 210 auf, das die oben beschriebenen Komponenten aufnimmt oder trägt, sowie ein Griffteil 220. Die Sonden-Steuereinheit 201, die Anzeigelampe 202, die Batterie 203, die Marker-Treiberschaltung 204, der Sonden-Speicher 205, die drahtlose Kommunikationsschaltung 206, der Bewegungssensor 207 und die Sonden-Kamera 208 sind im Sonden-Gehäuse 210 untergebracht. Die Vielzahl der Zielelemente 290 ist auf einem oberen Oberflächenteil 210c (9) des Sonden-Gehäuses 210 vorgesehen, das später beschrieben wird. Die Sonden-Steuereinheit 221 ist eine Taste, die gedrückt und im Griffteil 220 vorgesehen sein kann.
  • Die Touchpanel-Anzeige 230 umfasst eine Sonden-Anzeigeeinheit 231 und ein Touchpanel 232. Die Sonden-Anzeigeeinheit 231 wird beispielsweise durch eine Flüssigkristallanzeigetafel oder eine organische EL-Platte konfiguriert.
  • Die Anzeigelampe 202 umfasst beispielsweise eine oder mehrere LEDs und ein lichtemittierender Abschnitt davon ist so vorgesehen, dass er der Außenseite des Sonden-Gehäuses 210 ausgesetzt ist. Die Anzeigelampe 202 emittiert Licht entsprechend dem Zustand der Sonde 200 unter Steuerung der Sonden-Steuereinheit 201.
  • Die drei Zielelemente 290 haben im Wesentlichen die gleiche Struktur wie das Bezugselement 190 in den 6A und 6B. Die Marker-Treiberschaltung 204 ist mit der Vielzahl von Zielelementen 290 verbunden und steuert eine Vielzahl von lichtemittierenden Elementen, die in den Zielelementen 290 enthalten sind, unter Steuerung der Sonden-Steuereinheit 201.
  • Der Sonden-Speicher 205 umfasst ein Aufzeichnungsmedium, wie beispielsweise einen nichtflüchtigen Speicher oder eine Festplatte. Der Sonden-Speicher 205 wird verwendet, um verschiedene Arten von Daten zu verarbeiten oder verschiedene Arten von Daten zu speichern, wie beispielsweise Bilddaten, die vom Abbildungskopf 100 ausgegeben werden.
  • Der Bewegungssensor 207 erfasst die Bewegung der Sonde 200, wenn sich beispielsweise die Benutzerin U bewegt, während sie die Sonde 200 trägt. So erfasst der Bewegungssensor 207 beispielsweise die Bewegungsrichtung, die Beschleunigung, die Haltung und dergleichen, wenn sich die Sonde 200 bewegt. Die Sonden-Kamera 208 ist beispielsweise eine CCD-Kamera (charge-coupled device).
  • In der Sonden-Steuereinheit 201 sind neben der CPU und dem Speicher oder dem vorstehend beschriebenen Mikrorechner auch ein A/D-Wandler und ein FIFO-Speicher eingebaut, die nicht dargestellt sind. Dementsprechend werden in der Sonden-Steuereinheit 201 Signale, die die vom Bewegungssensor 207 erfasste Bewegung der Sonde 200 anzeigen, in Daten vom digitalen Signaltyp (im Folgenden Bewegungsdaten genannt) umgewandelt. Darüber hinaus wandelt die Sonden-Steuereinheit 201 lichtempfindliche Signale, die von Pixeln der Sonden-Kamera 208 ausgegeben werden, in eine Vielzahl von Pixeldaten des digitalen Signaltyps um. Die Sonden-Steuereinheit 201 überträgt über die drahtlose Kommunikation die digitalen Bewegungsdaten und die Vielzahl von Pixeldaten über die drahtlose Kommunikationsschaltung 206 an den Abbildungskopf 100 in 2. In diesem Fall werden die Bewegungsdaten und die Vielzahl von Pixeldaten weiter an die Verarbeitungsvorrichtung 300 vom Abbildungskopf 100 übertragen.
  • Wie in 9 dargestellt, ist das Sonden-Gehäuse 210 so ausgebildet, dass es sich in eine Richtung erstreckt und weist einen vorderen Endteil 210a, einen hinteren Endteil 210b, den oberen Oberflächenteil 210c und einen unteren Oberflächenteil 210d auf. Das untere Oberflächenteil 210d ist mit dem Griffteil 220 versehen. Das Griffteil 220 ist so ausgebildet, dass es sich parallel zum Sonden-Gehäuse 210 erstreckt. Die Sonden-Steuereinheit 221 ist im Teil des Griffteils 220 nahe dem hinteren Endteil 210b des Sonden-Gehäuses 210 vorgesehen.
  • Das hintere Endteil 210b des Sonden-Gehäuses 210 ist mit dem Touchpanel-Display 230 ausgestattet. Das vordere Endteil 210a ist mit einem Stift 211 versehen. Der Stift 211 ist ein stabförmiges Element mit dem Kontaktteil 211a an seiner Spitze. Das vordere Endteil 210a hat weiterhin die Sonden-Kamera 208.
  • Der obere Oberflächenteil 210c des Sondengehäuses 210 ist mit den drei Zielelementen 290 versehen, die vom vorderen Endteil 210a bis zum hinteren Endteil 210b angeordnet sind. Von den drei Zielelementen 290 in diesem Beispiel hat das Zielelement 290, das dem vorderen Endteil 210a am nächsten liegt, die drei Markierungen eq. Jedes der beiden verbleibenden Zielelementen 290 hat die beiden Markierungen Gl. Die Marker GI. sind selbst emittierende Marker, die Infrarotlicht aussenden. Dabei ist zu beachten, dass der Emissionszeitpunkt der Vielzahl von Markern eq. mit dem Aufnahmezeitpunkt der beweglichen Kamera 120 des Abbildungskopfes 100 synchronisiert ist.
  • Die Benutzerin U greift das Griffteil 220 so, dass das obere Oberflächenteil 210c des Sonden-Gehäuses 210 dem Abbildungskopf 100 zugewandt ist. In diesem Zustand bringt die Benutzerin U das Kontaktteil 211a mit einem gewünschten Teil des Messziels S in Kontakt. Darüber hinaus bedient die Benutzerin U die Sonden-Steuereinheit 221 und die Touchpanel-Anzeige 230 und erkennt dabei visuell ein auf der Touchpanel-Anzeige 230 angezeigtes Bild.
  • Verfahren zur Berechnung der Koordinaten eines Messpunktes
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 wird entsprechend der Ausführungsform ein dreidimensionales Koordinatensystem (im Folgenden als Weltkoordinatensystem bezeichnet) definiert, das eine vorgegebene Beziehung beispielsweise zum Referenzständer 10 hat. Zusätzlich wird ein dreidimensionales Koordinatensystem (im Folgenden als Referenzkamera-Koordinatensystem bezeichnet) mit einer vorgegebenen Beziehung zur Referenzkamera 110 definiert. Zusätzlich wird ein dreidimensionales Koordinatensystem (im Folgenden als bewegliches Kamerakoordinatensystem bezeichnet) mit einer vorgegebenen Beziehung zur beweglichen Kamera 120 definiert.
  • Wenn die Form des Messziels S gemessen wird, erfasst die bewegliche Kamera 120 die Sonde 200 und erzeugt Messbilddaten. Aus den Messbilddaten lassen sich die Koordinaten im Koordinatensystem der beweglichen Kamera für die Positionen der Vielzahl von Markern eq. Bei der Sonde 200 besteht eine bestimmte Positionsbeziehung zwischen der Vielzahl der Marken Gl. und dem Kontaktteil 211a. Dementsprechend können die Koordinaten im Koordinatensystem der beweglichen Kamera der Position eines Messpunktes auf dem Messziel S auf der Grundlage der berechneten Koordinaten der Vielzahl von Markern eq berechnet werden.
  • Die Haltung der beweglichen Kamera 120 ändert sich, wenn sich wenigstens eines der Stützelemente 30 und das bewegliche Element 40 dreht. Dementsprechend ändert sich die Beziehung zwischen dem Koordinatensystem der beweglichen Kamera und dem Weltkoordinatensystem, wenn sich die Position und die Haltung der beweglichen Kamera 120 ändern. Die Koordinaten im Weltkoordinatensystem der Position des Messpunkts sind notwendig, um die Form des Messziels S zu messen. Dementsprechend müssen die Koordinaten im Koordinatensystem der beweglichen Kamera des Messpunkts einer Koordinatenumrechnung unterzogen werden, so dass die Koordinaten im Weltkoordinatensystem entsprechend der Position und der Haltung der beweglichen Kamera 120 dargestellt werden.
  • Diese Koordinatenumwandlung wird durch die Verwendung von Informationen (im Folgenden als Positions-/Haltungsinformationen bezeichnet) erreicht, die die Position und die Haltung des beweglichen Elements 40 in Bezug auf die am Referenzständer 10 befestigte Referenzkamera 110 angeben.
  • Das Verfahren zur Berechnung von Positions-/Haltungsinformationen wird beschrieben. Positions-/Haltungsinformationen umfassen eine Rotationsmatrix und eine Translationsmatrix und werden durch einen Ausdruck (1) unten dargestellt, wenn die Elemente der Rotationsmatrix r11, r12, r13, r21, r22, r23, r31, r32 und r33 und die Elemente der Translationsmatrix tx, ty und tz sind.
  • ( r 11 r 12 r 13 t x r 21 r 22 r 23 t y r 31 r 32 r 33 t z )
    Figure DE102020205516A1_0001
  • Die Koordinaten im Weltkoordinatensystem der Position einer Marker-EP werden als (X, Y, Z) und die Koordinaten im Referenzkamera-Koordinatensystem der Position eines Markers ep werden als (Xc, Yc, Zc) angenommen. In diesem Fall gelten die unten stehenden Gleichungen (2), (3) und (4) unter Verwendung der Elemente der im Ausdruck (1) dargestellten Matrizen.
  • Xc = r11X + r12Y + r13Z + tx
    Figure DE102020205516A1_0002
    Yc = r21X + r22Y + r23Z + ty
    Figure DE102020205516A1_0003
    Zc = r31X + r32Y + r33Z + tz
    Figure DE102020205516A1_0004
  • Bei der Referenzkamera 110 wird angenommen, dass es sich um eine Lochkamera handelt, und die Koordinaten im Referenzkamera-Koordinatensystem des projizierten Bildes eines Markers ep auf der Lichtempfangsfläche einer Abbildungsvorrichtung werden als (u, v) angenommen. In diesem Fall, wenn der Abstand (Brennweite) von der Lichtempfangsfläche zum optischen Zentrum (Hauptpunkt der Linse) in der Referenzkamera 110 als f angenommen wird, gelten die Gleichungen (5) und (6) unten auf der Grundlage der Ähnlichkeitsbeziehung.
  • u / f = Xc / Zc
    Figure DE102020205516A1_0005
    v / f = Yc / Zc
    Figure DE102020205516A1_0006
  • Die Gleichungen (5) und (6) können mit Hilfe der Gleichungen (2), (3) und (4) zu den Gleichungen (7) bzw. (8) unten verformt werden.
  • u / f ( r11X + r12Y + r13Z + tx ) / ( r31X + r32Y + r33Z + tz ) = 0
    Figure DE102020205516A1_0007
    v / f ( r21X + r22Y + r23Z + tx ) / ( r31X + r32Y + r33Z + tz ) = 0
    Figure DE102020205516A1_0008
  • Die obigen beiden Gleichungen (7) und (8) werden für einen Marker ep erzeugt. Wenn die Gesamtzahl der Marker ep des Bezugselements 190 als N angenommen wird, können dementsprechend (N x 2) Ausdrücke generiert werden.
  • Die Koordinaten (u, v) können auf der Grundlage der projizierten Bilder der Marker ep auf der Lichtempfangsfläche in der Referenzkamera 110 erfasst werden. Die Positionsbeziehung zwischen der Vielzahl von Markern ep wird als Referenzmarker-Information im Hauptkörperspeicher 303 gespeichert. Dementsprechend sind die oben beschriebenen X-, Y- und Z-Werte bekannte Werte, die auf der Grundlage der Positionsbeziehung in Bezug auf die ersten und zweiten Marker ep1 und ep2 unter Verwendung von Referenzmarker-Informationen abgeleitet werden können.
  • Wenn die Brennweite f der Referenzkamera 110 bekannt ist und N gleich oder größer als ein vorgegebener Wert ist, können demnach alle Elemente (Positions-/Haltungsinformationen) der Rotationsmatrix und der Translationsmatrix durch ein Verfahren wie die Least-Square-Technik auf der Grundlage von (N x 2) Gleichungen (Simultangleichungen) erfasst werden.
  • In diesem Fall gilt: Je größer die Anzahl N der Marker ep, desto höher ist die Zuverlässigkeit der Rotationsmatrix und der zu berechnenden Translationsmatrix. In Anbetracht dessen hat das Bezugselement 190 nach der Ausführungsform beispielsweise etwa 400 Marker ep.
  • Kameraparameter und Kalibrierung der Referenzkamera 110
  • Die in der Referenzkamera 110 auf die Lichtempfangsfläche der Abbildungsvorrichtung tatsächlich projizierten Bilder der Vielzahl von Markern ep umfassen Dehnungskomponenten, die durch die Linse verursacht werden, und Abweichungskomponenten, die durch die Positionsbeziehung zwischen Linse und Abbildungsvorrichtung verursacht werden. Im Gegensatz dazu nehmen die Koordinaten (u, v) der projizierten Bilder, die in den obigen Gleichungen (5) bis (8) verwendet werden, ein Lochkameramodell an, bei dem Dehnungskomponenten und Abweichungskomponenten in den projizierten Bildern auf der Lichtempfangsfläche in der Referenzkamera 110 nicht vorhanden sind. Dementsprechend müssen die Koordinaten des projizierten Bildes, das tatsächlich von einer Markierung ep auf die Lichtempfangsfläche projiziert wird, korrigiert werden, um die Koordinaten (u, v) der projizierten Bilder für die Berechnung von Positions-/Haltungsinformationen genau zu erfassen.
  • Es wird angenommen, dass die Koordinaten im Koordinatensystem der Referenzkamera für die Position eines Markers ep (x, y, z) und die Koordinaten (x/z, y/z) eines projizierten Bildes eines Markers ep auf eine normalisierte Ebene (x', y') sind.
  • In diesem Fall kann der Abweichungsbetrag x", y" (verursacht durch die Linse) des projizierten Bildes einer auf die normierte Ebene projizierten Markierung ep durch die folgenden Gleichungen (9) und (10) dargestellt werden.
  • y ' ' = y ' ( 1 + k1r 2 + k2r 4 + k3r 6 ) + 2p1x ' y ' + p2 ( r 2 + 2 x ' 2 )
    Figure DE102020205516A1_0009
    y'' = y' ( 1 + k1r 2 + k2r 4 + k3r 6 ) + p 1 ( r 2 + 2 y ' 2 ) + 2 p2x ' y '
    Figure DE102020205516A1_0010
  • In diesen Gleichungen (9) und (10) ist r2 = x'2 + y'2. Zusätzlich sind in den Gleichungen (9) und (10) k1, k2 und k3 Korrekturkoeffizienten zur Korrektur von Dehnungskomponenten in radialer Richtung der Linse und p1 und p2 Korrekturkoeffizienten zur Korrektur von Dehnungskomponenten in tangentialer Richtung der Linse.
  • Wenn der obige Abweichungsbetrag x", y" erfasst werden kann, können die Koordinaten (u, v) des projizierten Bildes zur Berechnung von Positions-/Haltungsinformationen mit den folgenden Gleichungen (11) und (12) unter Verwendung der Brennweite f berechnet werden.
  • u = f × x ' ' + u 0
    Figure DE102020205516A1_0011
    v = f × y ' ' + v 0
    Figure DE102020205516A1_0012
  • In diesen Gleichungen (11) und (12) stellen u0, v0 die Koordinaten der Position (im Folgenden als Schnittpunkt der optischen Achse bezeichnet) auf der Lichtempfangsfläche der Abbildungsvorrichtung dar, an der sich die optische Achse der Linse mit der Lichtempfangsfläche schneidet. Wenn sich der Schnittpunkt der optischen Achse am Ursprung (beispielsweise in der Mitte der Lichtempfangsfläche) der Lichtempfangsfläche befindet, ist demnach u0 gleich 0 und v0 gleich 0.
  • Wie oben beschrieben, müssen die Brennweite f, die Koordinaten (u0, v0) des Schnittpunkts der optischen Achse und die Korrekturkoeffizienten k1, k2, k3, p1 und p2, die den durch die Linse verursachten Dehnungskomponenten entsprechen, bekannt sein, um die Koordinaten (u, v) des projizierten Bildes zu berechnen, die in den Gleichungen (5) bis (8) verwendet werden. Dementsprechend werden in der dreidimensionalen Koordinatenmessvorrichtung 1 entsprechend der Ausführungsform vorgegebene Werte, die durch die oben genannten Symbole f, u0, v0, k1, k2, k3, p1 und p2 dargestellt werden, im Hauptkörperspeicher 303 als Kameraparameter gespeichert.
  • Übrigens kann sich bei der Referenzkamera 110 die Linse verformen oder die Positionsbeziehung zwischen Linse und Abbildungsvorrichtung aufgrund von Temperaturänderungen im Installationsraum, jahrelangem Gebrauch und ähnlichem abweichen. In diesem Fall ändern sich die entsprechenden Werte der Kameraparameter der Referenzkamera 110 mit der Verformung der Linse und der Veränderung der Positionsbeziehung zwischen Linse und Abbildungsvorrichtung.
  • Wie oben beschrieben, ist das Bezugselement 190 vorzugsweise so angeordnet, dass die meisten der Vielzahl von Markern ep im gesamten abbildenden Gesichtsfeld der Referenzkamera 110 verteilt sind. Positions-/Haltungsinformationen können mit höherer Genauigkeit berechnet werden, indem Referenzbilddaten verwendet werden, die ein Bild anzeigen, in dem mehr Marker ep in einem größeren Bereich des abbildenden Gesichtsfeldes der Referenzkamera 110 verteilt sind. Von den Referenzbilddaten werden jedoch die Daten des Teils, der dem anderen Bereich als dem mittleren Teil des abbildenden Gesichtsfeldes entspricht, leicht durch die oben genannten Kameraparameter beeinflusst.
  • Entsprechend verfügt die dreidimensionale Koordinatenmessvorrichtung 1 gemäß der Ausführungsform über eine Kalibrierfunktion für die Referenzkamera 110, die die in der Vergangenheit im Hauptkörperspeicher 303 gespeicherten Kameraparameter auf neue, derzeit geeignete Kameraparameter kalibriert.
  • Ds so genannte Zhang-Verfahren (siehe Zhang „A flexible new technique for camera calibration“, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, Nr. 11, S. 1330 bis 1334, 2000) ist als Kamerakalibrierungsverfahren bekannt. In der Kalibrierfunktion in diesem Beispiel wird die Referenzkamera 110 nach dem Verfahren von Zhang kalibriert. Dieses Kalibrierungsverfahren wird im Detail beschrieben.
  • Wenn die tatsächlichen Koordinaten des projizierten Bildes einer Markierung ep auf der Lichtempfangsfläche als (u', v') angenommen werden, kann der Fehler ex und ey zwischen den Koordinaten und den obigen Koordinaten (u, v) durch die folgenden Gleichungen (13) und (14) dargestellt werden.
  • ex = u u '
    Figure DE102020205516A1_0013
    ey = v - v'
    Figure DE102020205516A1_0014
  • Wenn die Referenzkamera 110 kalibriert ist, drehen sich das Stützelement 30 und das bewegliche Element 40 nacheinander mit vorbestimmten Steigungen. Dementsprechend verschiebt sich das Bezugselement 190 in eine Vielzahl von verschiedenen Positions-/Haltungszuständen. Insbesondere dreht sich das Stützelement 30 nacheinander um die optische Achse 110c mit einer Neigung von beispielsweise 30 Grad und das bewegliche Element 40 nacheinander um die Drehachse 30c mit einer Neigung von beispielsweise 10 Grad.
  • Darüber hinaus wird die Vielzahl von Markern ep von der Referenzkamera 110 in jedem der Vielzahl von Positions-/Haltungszuständen erfasst. Basierend auf den durch diese Erfassung erfassten Bilddaten werden die Koordinaten der Vielzahl der projizierten Bilder der Vielzahl von Markern ep als die oben beschriebenen Koordinaten (u', v') erfasst.
  • Die Positionsbeziehung der Vielzahl von Markern ep wird als Referenzmarker-Information im Hauptkörperspeicher 303 gespeichert. Dementsprechend sind die Werte von x, y und z oben bekannte Werte, die auf der Grundlage der Positionsbeziehung in Bezug auf die erste und zweite Marke ep1 und ep2 unter Verwendung der Referenzmarker-Information abgeleitet werden können.
  • Daher werden die neuen Werte (Werte, die durch die Symbole f, u0, v0, k1, k2, k3, p1 und p2 repräsentiert werden) der Kameraparameter, die für alle Bilddaten eindeutig definiert sind, so bestimmt, dass der integrierte Wert aller für die Vielzahl von Markern ep erfassten Fehler ex und ey in der Vielzahl der Positions-/Haltungszustände des Bezugselements 190 minimiert wird. Zu diesem Zeitpunkt werden die integrierten Werte der Fehler ex und ey entsprechend den ermittelten Kameraparametern im Hauptkörperspeicher 303 gespeichert.
  • Danach werden die vor der Kalibrierung im Hauptkörperspeicher 303 gespeicherten Kameraparameter auf die wie oben beschrieben ermittelten neuen Kameraparameter aktualisiert. Dementsprechend wird auch bei einer Änderung der Temperaturumgebung um die dreidimensionale Koordinatenmessvorrichtung 1 oder bei längerem Einsatz der dreidimensionalen Koordinatenmessvorrichtung 1 eine Verringerung der Berechnungsgenauigkeit der Positions-/Haltungsinformationen verhindert.
  • Dabei ist zu beachten, dass die anfänglichen Kameraparameter der dreidimensionalen Koordinatenmessvorrichtung 1 durch die oben beschriebene Kalibrierfunktion bestimmt werden, wenn die dreidimensionale Koordinatenmessvorrichtung 1 vor der Auslieferung vom Werk oder nach der Auslieferung vom Werk zum ersten Mal verwendet wird. Die zu diesem Zeitpunkt ermittelten Kameraparameter werden im Hauptkörperspeicher 303 gespeichert.
  • Kalibrier-Entscheidungsfunktion
  • Die dreidimensionale Koordinatenmessvorrichtung 1 nach der Ausführungsform umfasst des Weiteren eine Kalibrier-Entscheidungsfunktion, die über die Notwendigkeit der Kalibrierung der Referenzkamera 110 entscheidet und das Entscheidungsergebnis der Benutzerin U präsentiert.
  • Eine Kalibrierungsentscheidung wird auf der Grundlage der Frage durchgeführt, ob die Beziehung zwischen den Positionen der projizierten Bilder auf der Lichtempfangsfläche der Vielzahl von Markern ep, die auf der Grundlage der Referenzmarkierungsinformation und der im Hauptkörperspeicher 303 gespeicherten Kameraparameter berechnet wurden, und den tatsächlichen Positionen der projizierten Bilder auf der Lichtempfangsfläche der Vielzahl von Markern ep, die auf der Grundlage der Referenzbilddaten erfasst wurden, eine vorbestimmte zulässige Bedingung erfüllt.
  • Es wird ein Beispiel für eine spezifische Kalibrierungsentscheidung beschrieben. Wie bei der Kalibrierung drehen sich beispielsweise zunächst das Tragelement 30 und das bewegliche Element 40 nacheinander mit jeweils vorbestimmten Steigungen, das Bezugselement 190 verschiebt sich in die Vielzahl der Zustände, in denen seine Haltung unterschiedlich ist, und die jedem der Zustände entsprechenden Referenzbilddaten werden erfasst. Dann wird der integrierte Wert (im Folgenden als zeitintegrierter Entscheidungsfehlers bezeichnet) des gesamten Fehlers ex und ey, der für die Vielzahl von Markern ep in der Vielzahl von Zuständen des Bezugselements 190 erfasst wurde, unter Verwendung der Referenzmarkierungsinformation, der Kameraparameter und der Vielzahl von Referenzbilddaten erhalten.
  • Danach wird entschieden, ob das Verhältnis des zeitintegrierten Entscheidungsfehlers zum integrierten Wert (im Folgenden als Kalibrierzeitintegrierter Fehler bezeichnet) des Fehlers ex und ey, der bei der unmittelbar vorher durchgeführten Kalibrierung berechnet wurde, gleich oder größer als ein als zulässige Bedingung vorgegebenes Verhältnis (beispielsweise 1,5) ist. Diese zulässige Bedingung wird beispielsweise im Hauptkörperspeicher 303 im voraus gespeichert.
  • Wenn dieses Verhältnis gleich oder größer als das zulässige Verhältnis ist, erscheint dementsprechend in der Anzeigeeinheit 310 des Hauptgehäuses als Entscheidungsergebnis die Meldung, dass die Referenzkamera 110 kalibriert werden sollte. Ist dieses Verhältnis dagegen kleiner als das zulässige Verhältnis, erscheint in der Anzeigeeinheit 310 des Hauptteils als Entscheidungsergebnis die Meldung, dass die Referenzkamera 110 nicht kalibriert werden muss.
  • Dabei ist zu beachten, dass die Entscheidung über die Kalibrierung nicht auf das obige Beispiel beschränkt ist und durch die Entscheidung erfolgen kann, ob beispielsweise der integrierte Fehler der Entscheidungszeit gleich oder größer als der als zulässige Bedingung vorgegebene Schwellenwert ist. In diesem Fall wird entschieden, dass die Referenzkamera 110 kalibriert werden sollte, wenn der integrierte Fehler der Entscheidungszeit gleich oder größer als der vorgegebene Schwellenwert ist. Wenn der zeitintegrierte Fehler der Entscheidungszeit hingegen kleiner als der vorgegebene Schwellenwert ist, wird entschieden, dass die Referenzkamera 110 nicht kalibriert werden muss.
  • Beispiel für eine Messung
  • Die Sonden-Steuereinheit 221 in 9 wird von der Benutzerin U gedrückt, um die Koordinaten eines Messpunktes zu berechnen. So drückt beispielsweise die Benutzerin U die Sonden-Steuereinheit 221 in dem Zustand, in dem das Kontaktteil 211a mit einem gewünschten Teil des Messziels S in Kontakt kommt. In diesem Fall werden die Koordinaten des Teils des Messziels S, der mit dem Kontaktteil 211a in Kontakt steht, als Koordinaten des Messpunkts berechnet. Die berechneten Koordinaten des Messpunktes werden als Messergebnis im Hauptkörperspeicher 303 gespeichert und auf der Sonden-Anzeigeeinheit 231 und der Hauptkörper-Anzeigeeinheit 310 angezeigt.
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 kann die Benutzerin U die gewünschten Messbedingungen für das Messziel S einstellen, indem sie die Hauptkörperbedieneinheit 320 in 2 oder die Touchpanel-Anzeige 230 in 8 bedient.
  • Insbesondere wählt die Benutzerin U das geometrische Element und das Messobjekt des Messziels S aus. Das geometrische Element stellt die geometrische Form des Teils des zu messenden Messziels S dar. Die geometrische Form ist ein Punkt, eine Gerade, eine Ebene, ein Kreis, ein Zylinder, eine Kugel oder dergleichen. Darüber hinaus stellt die Messgröße die Art einer physikalischen Größe des zu messenden Messziels S dar, wie beispielsweise eine Entfernung, ein Winkel oder eine Ebenheit.
  • Nach der Auswahl des geometrischen Elements und des Messobjekts weist die Benutzerin U einen oder mehrere Messpunkte des ausgewählten geometrischen Elements mit der Sonde 200 an. Dadurch werden Informationen (im Folgenden als Element spezifizierende Informationen bezeichnet) erzeugt, die das ausgewählte geometrische Element angeben, das durch einen oder mehrere Messpunkte auf dem Messziel S im Gerätekoordinatensystem spezifiziert ist. Danach wird der Wert des für das erzeugte Element ausgewählten Messpunktes unter Angabe von Informationen berechnet.
  • Wenn die Benutzerin U beispielsweise den Abstand zwischen einer ersten Oberfläche und einer zweiten Oberfläche (des Messziels S) messen möchte, die parallel zueinander und einander gegenüberliegend sind, wählt die Benutzerin U die geometrischen Elemente „Ebene 1“ und „Ebene 2“. Zusätzlich wählt die Benutzerin U einen Messpunkt „Entfernung“ aus.
  • Um in diesem Fall die Ebene (erste Oberfläche) auf dem Messziel S entsprechend dem geometrischen Element „Ebene 1“ festzulegen, gibt die Benutzerin U eine Vielzahl von Punkten (in diesem Beispiel drei oder mehr Punkte) auf der ersten Oberfläche des Messziels S als Messpunkte mit dem Messtaster 200 an. Dadurch wird das Element erzeugt, das Informationen entsprechend dem geometrischen Element „Ebene 1“ angibt.
  • Um zusätzlich die Ebene (zweite Oberfläche) auf dem Messziel S entsprechend dem geometrischen Element „Ebene 2“ festzulegen, gibt die Benutzerin U eine Vielzahl von Punkten (in diesem Beispiel drei oder mehr Punkte) auf der zweiten Oberfläche des Messziels S als Messpunkte mit dem Messtaster 200 an. Dadurch wird das Element erzeugt, das Informationen entsprechend dem geometrischen Element „Ebene 2“ angibt.
  • Danach wird der Abstand zwischen der ersten Oberfläche und der zweiten Oberfläche des Messziels S, der einem Messpunkt „Abstand“ entspricht, auf der Grundlage von zwei Elementen berechnet, die Informationen angeben, die jeweils „Ebene 1“ und „Ebene 2“ entsprechen.
  • Das berechnete Messergebnis wird im Hauptkörperspeicher 303 gespeichert und in der Sonden-Anzeigeeinheit 231 und der Hauptanzeigeeinheit 310 angezeigt.
  • Funktionelle Struktur der Hauptkörper-Steuerschaltung 302
  • 10 ist ein Blockdiagramm, das die funktionelle Struktur der Hauptkörper-Steuerschaltung 302 veranschaulicht. Wie in 10 dargestellt, umfasst die Hauptkörper-Steuerschaltung 302 eine Koordinatenberechnungseinheit 391, eine Aufnahmeeinheit 392, eine Messeinheit 393, eine Kalibrierungs-Aktualisierungseinheit 394, eine Kalibrierungs-Entscheidungseinheit 395 und eine Anzeige-Steuereinheit 396. Diese Funktionseinheiten werden dadurch erreicht, dass die CPU der Hauptkörper-Steuerschaltung 302 veranlasst wird, ein Messverarbeitungsprogramm, ein Kalibrierprogramm, ein Kalibrierentscheidungsprogramm und ähnliches, das im Hauptkörperspeicher 303 gespeichert ist, auszuführen. Dabei ist zu beachten, dass ein Teil oder die Gesamtheit der oben beschriebenen Vielzahl von Funktionseinheiten durch Hardware, wie beispielsweise elektronische Schaltungen, erreicht werden kann.
  • Die Koordinatenberechnungseinheit 391 erzeugt bei der Messung der Form des Messziels S Positions-/Haltungsinformationen, die die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 auf der Grundlage der Referenzbilddaten und der im Hauptkörperspeicher 303 gespeicherten Referenzmarker-Informationen und Kameraparameter angeben. Zusätzlich berechnet die Koordinatenberechnungseinheit 391 die Koordinaten eines Messpunktes auf dem Messziel S auf der Grundlage der erzeugten Positions-/Haltungsinformationen und der Messbilddaten.
  • Die Annahmeeinheit 392 akzeptiert das geometrische Element und das von der Benutzerin U aus der Vielzahl der vorgegebenen geometrischen Elemente und der Vielzahl der vorgegebenen Maßeinheiten ausgewählte Maßelement. Die Messeinheit 393 berechnet den Wert des ausgewählten Messelements bezüglich des ausgewählten geometrischen Elements, das durch den Messpunkt im Messziel S spezifiziert ist, basierend auf dem geometrischen Element und dem von der Aufnahmeeinheit 392 akzeptierten Messelement und den Koordinaten des von der Koordinatenberechnungseinheit 391 berechneten Messpunkts. Zusätzlich speichert die Messeinheit 393 den berechneten Wert im Hauptkörperspeicher 303 als Messergebnis ab.
  • Bei der Kalibrierung der Referenzkamera 110 dreht die Kalibrierungs-Aktualisierungseinheit 394 das bewegliche Element 40 um wenigstens eine der optischen Achse 110c und der Drehachse 30c. Dadurch werden die bewegliche Kamera 120 und das Bezugselement 190 zusammen mit dem beweglichen Element 40 gedreht. Dies bewirkt, dass die Kalibrierungs-Aktualisierungseinheit 394 die Vielzahl von Markern ep des Bezugselements 190 über die Referenzkamera 110 in einer Vielzahl von Zuständen erfasst, in denen deren Haltung unterschiedlich ist, während die bewegliche Kamera 120 in der Vielzahl von Zuständen verschoben wird. Darüber hinaus berechnet die Kalibrierungs-Aktualisierungseinheit 394 neue Kameraparameter auf der Grundlage der Vielzahl von Referenzbilddaten und der durch diese Erfassung gewonnenen Referenzmarker-Informationen. Darüber hinaus aktualisiert die Kalibrierungs-Aktualisierungseinheit 394 die im Hauptkörperspeicher 303 gespeicherten Kameraparameter vor der Kalibrierung auf die berechneten neuen Kameraparameter.
  • Die Kalibrierungs-Entscheidungseinheit 395 berechnet die Positionen der projizierten Bilder der Vielzahl von Markern ep auf der Lichtempfangsfläche der Referenzkamera 110 auf Grundlage der Referenzmarker-Informationen und der im Hauptkörperspeicher 303 gespeicherten Kameraparameter. Darüber hinaus erfasst die Kalibrierungs-Entscheidungseinheit 395 die tatsächlichen Positionen der projizierten Bilder der Vielzahl von Markern ep auf der Lichtempfangsfläche auf der Grundlage der Referenzbilddaten, die durch die Erfassung der Vielzahl von Markern ep über die Referenzkamera 110 erhalten wurden. Danach entscheidet die Kalibrierungs-Entscheidungseinheit 395 über die Notwendigkeit einer Kalibrierung auf der Grundlage der Frage, ob das Verhältnis zwischen den berechneten Positionen der projizierten Bilder und den erfassten tatsächlichen Positionen der projizierten Bilder eine vorbestimmte zulässige Bedingung erfüllt, und gibt ein Entscheidungsergebnis aus. Die Anzeigesteuereinheit 396 zeigt das von der Kalibrierungs-Entscheidungseinheit 395 ausgegebene Entscheidungsergebnis in der Hauptanzeigeeinheit 310 an.
  • Messverarbeitung
  • 11 ist ein Flussdiagramm, das einen Fluss der Messverarbeitung durch die Hauptkörper-Steuerschaltung 302 in 2 zeigt. Die Messverarbeitung in 11 wird in einer vorgegebenen Zeitspanne wiederholt, indem die CPU der Hauptkörper-Steuerschaltung 302 in 2 veranlasst wird, das im Hauptkörperspeicher 303 gespeicherte Messverarbeitungsprogramm auszuführen. Außerdem wird zu Beginn der Messverarbeitung der in der Hauptsteuerschaltung 302 enthaltene Timer zurückgesetzt und dann gestartet.
  • Zunächst entscheidet die Aufnahmeeinheit 392 der Hauptkörper-Steuerschaltung 302, ob das geometrische Element und der Messpunkt aufgrund des Vorhandenseins oder Nichtvorhandenseins der Bedienung der Hauptkörper-Bedieneinheit 320 in 2 oder des Touchpanel-Displays 230 in 8 durch die Benutzerin U (Schritt S11) ausgewählt wurde.
  • Wenn das geometrische Element und der Messpunkt ausgewählt wurden, stellt die Aufnahmeeinheit 392 der Hauptkörper-Steuerschaltung 302 das ausgewählte geometrische Element und den Messpunkt als Messbedingungen ein, indem sie das geometrische Element und den Messpunkt im Hauptkörperspeicher 303 in 2 speichert (Schritt S12). Danach kehrt die Aufnahmeeinheit 392 der Hauptkörper-Steuerschaltung 302 zur Verarbeitung in Schritt S11 zurück.
  • Wenn das geometrische Element und der Messpunkt in Schritt S11 nicht ausgewählt wurden, entscheidet die Messeinheit 393 der Hauptkörper-Steuerschaltung 302, ob das geometrische Element und der Messpunkt eingestellt wurden (Schritt S13). Wenn das geometrische Element und die Messposition eingestellt sind, entscheidet die Messeinheit 393 der Hauptkörper-Steuerschaltung 302, ob ein Befehl zum Starten der Messung des Messziels S empfangen wurde (Schritt S14). Diese Entscheidung wird beispielsweise aufgrund des Vorhandenseins oder Nichtvorhandenseins einer Bedienung der Hauptkörper-Bedieneinheit 320 oder der Touchpanel-Anzeige 230 durch die Benutzerin U getroffen.
  • Wenn der Befehl zum Starten der Messung des Messziels S empfangen wurde, führt die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302 die Verarbeitung der Messpunkt-Koordinatenberechnung durch (Schritt S15). Einzelheiten zur Verarbeitung der Messpunkt-Koordinatenberechnung werden später beschrieben. Diese Verarbeitung veranlasst die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302, die Koordinaten der Messpunkte zu berechnen, die das ausgewählte geometrische Element auf der Grundlage einer Operation der Sonde 200 durch die Benutzerin U angeben.
  • Die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302 speichert im Hauptkörperspeicher 303 die Koordinaten eines oder mehrerer Messpunkte, die von der Messpunkt-Koordinatenberechnungsverarbeitung in Schritt S15 berechnet wurden (Schritt S16).
  • Als nächstes entscheidet die Messeinheit 393 der Hauptkörper-Steuerschaltung 302, ob ein Befehl zur Beendigung der Messung des Messziels S empfangen wurde (Schritt S17). Diese Entscheidung wird beispielsweise auf der Grundlage des Vorhandenseins oder Nichtvorhandenseins der Bedienung der Hauptkörper-Bedieneinheit 320 oder der Touchpanel-Anzeige 230 durch die Benutzerin U getroffen.
  • Wenn der Befehl zum Beenden der Messung nicht empfangen wurde, kehrt die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302 zur oben beschriebenen Verarbeitung in Schritt S15 zurück. Im Gegensatz dazu erzeugt die Messeinheit 393 der Hauptkörper-Steuerschaltung 302, wenn der Befehl zum Beenden der Messung empfangen wurde, das Element, das die Information für den geometrischen Elementsatz angibt, aus den Koordinaten eines oder mehrerer Messpunkte, die im Hauptkörperspeicher 303 gespeichert sind, in der Verarbeitung im Schritt S16 unmittelbar zuvor (Schritt S18).
  • Danach berechnet die Messeinheit 393 der Hauptkörper-Steuerschaltung 302 den Wert des Messpositionssatzes auf der Grundlage des Elements, das die bei der Verarbeitung in Schritt S18 erzeugten Informationen angibt, und beendet die Messverarbeitung (Schritt S19). Wenn in der Entscheidung in Schritt S13 eine Vielzahl von geometrischen Elementen (beispielsweise zwei Ebenen oder ähnliches) festgelegt wird, wird die oben beschriebene Verarbeitung in den Schritten S14 bis S18 für jedes der festgelegten geometrischen Elemente durchgeführt.
  • Wenn das geometrische Element und der Messpunkt in Schritt S13 nicht eingestellt wurden und wenn der Befehl zum Starten der Messung des Messziels S in Schritt S14 nicht empfangen wurde, entscheidet die Messeinheit 393 der Hauptkörper-Steuerschaltung 302 anhand der Messzeit durch den eingebauten Timer, ob eine vorbestimmte Zeit nach dem Start der Messverarbeitung verstrichen ist (Schritt S20).
  • Wenn die vorgegebene Zeit nicht verstrichen ist, kehrt die Aufnahmeeinheit 392 der Hauptkörper-Steuerschaltung 302 zur Verarbeitung in Schritt S11 zurück. Im Gegensatz dazu führt die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302 nach Ablauf der vorgegebenen Zeit die später beschriebene Messpunkt-Koordinatenberechnungsverarbeitung wie bei der Verarbeitung in Schritt S15 durch (Schritt S21). Danach beendet die Koordinatenberechnungseinheit 391 der Hauptkörper-Steuerschaltung 302 die Messverarbeitung.
  • Dabei ist zu beachten, dass die Verarbeitung in Schritt S21 durchgeführt wird, um beispielsweise zu entscheiden, ob die Sonde 200 im bildgebenden Gesichtsfeld der beweglichen Kamera 120 oder der Vogelperspektivenkamera 180 in der Tracking-Verarbeitung vorhanden ist, was später beschrieben wird.
  • 12 ist ein Flussdiagramm, das den Ablauf einer Messpunkt-Koordinatenberechnung veranschaulicht. Zuerst weist die Koordinatenberechnungseinheit 391 die Taststeuereinheit 201 der Sonde 200 an, Licht von der Vielzahl von Markern eq (9) zu emittieren, und weist die Kopfsteuerschaltung 150 des Abbildungskopfes 100 an, Licht von der Vielzahl von Markern ep (6B) des Bezugselements 190 zu emittieren (Schritt S101).
  • Als nächstes erzeugt die Koordinatenberechnungseinheit 391 Referenzbilddaten, indem sie die Kopfsteuerschaltung 150 veranlasst, die Vielzahl von Markern ep des Bezugselements 190 mit der Referenzkamera 110 zu erfassen (Schritt S102). Darüber hinaus berechnet die Koordinatenberechnungseinheit 391 die Positions-/Haltungsinformationen, die die Position und die Haltung der beweglichen Kamera 120 anzeigen, auf der Grundlage der erzeugten Referenzbilddaten und der Referenzmarker-Informationen und der im Hauptkörperspeicher 303 gespeicherten Kameraparameter (Schritt S103).
  • Als nächstes erzeugt die Koordinatenberechnungseinheit 391 Messbilddaten, indem sie mit der beweglichen Kamera 120 (Schritt S104) die Vielzahl der Markierungen eq der Sonde 200 erfasst. Zusätzlich berechnet die Koordinatenberechnungseinheit 391 die Koordinaten im Koordinatensystem der beweglichen Kamera des Messpunkts auf dem Messziel S auf der Grundlage der erzeugten Messbilddaten (Schritt S105).
  • Danach führt die Koordinatenberechnungseinheit 391 die Koordinatenumrechnung der im Schritt S105 berechneten Koordinaten von den Koordinaten im Koordinatensystem der beweglichen Kamera in die Koordinaten im Weltkoordinatensystem auf der Grundlage der berechneten Positions-/Haltungsinformationen durch (Schritt S106). Damit wird die Verarbeitung der Messpunkt-Koordinatenberechnung beendet.
  • Dabei ist zu beachten, dass die Verarbeitung in den oben beschriebenen Schritten S102 und S103 und die Verarbeitung in den Schritten S104 und S105 in umgekehrter Reihenfolge erfolgen kann.
  • Gemäß der vorstehend beschriebenen Messverarbeitung kann die Benutzerin U leicht eine gewünschte physikalische Größe des Messziels S messen, indem sie ein gewünschtes geometrisches Element und einen gewünschten Messgegenstand aus der Vielzahl der vorgegebenen geometrischen Elemente und der Vielzahl der vorgegebenen Messgegenstände auswählt.
  • Nachführungsverarbeitung
  • 13 ist ein Flussdiagramm, das den Ablauf der Nachführungsverarbeitung durch die Hauptkörper-Steuerschaltung 302 in 2 veranschaulicht. Die Nachführungsverarbeitung in 13 wird in einer vorgegebenen Zeitspanne wiederholt, indem die CPU des Hauptkörpersteuerkreises 302 in 2 veranlasst wird, das im Hauptkörperspeicher 303 gespeicherte Verfolgungsverarbeitungsprogramm auszuführen.
  • Zunächst entscheidet die Hauptkörper-Steuerschaltung 302, ob die Sonde 200 im abbildenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist (Schritt S31). Diese Entscheidung wird durchgeführt, indem entschieden wird, ob die während der Verarbeitung in Schritt S15 und Schritt S21 in der Messverarbeitung erzeugten Messbilddaten die Bilddaten umfassen, die der Vielzahl von Markern eq.
  • Wenn sich die Sonde 200 im bildgebenden Gesichtsfeld der beweglichen Kamera 120 befindet, fährt die Hauptkörper-Steuerschaltung 302 mit der Verarbeitung in Schritt S38 fort, die später beschrieben wird. Im Gegensatz dazu, wenn die Sonde 200 nicht im abbildenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist, entscheidet die Hauptkörper-Steuerschaltung 302, ob sich die Sonde 200 im abbildenden Gesichtsfeld der Vogelperspektivenkamera 180 befindet (Schritt S32). Diese Entscheidung wird getroffen, indem entschieden wird, ob die während der Verarbeitung in Schritt S15 und Schritt S21 in der vorstehend beschriebenen Messverarbeitung erzeugten Bilddaten aus der Vogelperspektivenkamera die Bilddaten der Vielzahl von Markern eq entsprechen.
  • Wenn sich die Sonde 200 im bildgebenden Gesichtsfeld der Vogelperspektivenkamera 180 befindet, fährt die Hauptkörper-Steuerschaltung 302 mit der Verarbeitung in Schritt S37 fort, die später beschrieben wird. Im Gegensatz dazu, wenn die Sonde 200 nicht im bildgebenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist, entscheidet die Hauptkörper-Steuerschaltung 302, ob die Koordinatenschätzung der Sonde 200 basierend auf den von der Sonde 200 übertragenen Bewegungsdaten aktiviert wird (Schritt S33). Diese Entscheidung wird beispielsweise dadurch getroffen, ob die Bewegungsdaten einen abnormalen Wert anzeigen oder ob der durch die Bewegungsdaten angezeigte Wert Null ist. Wenn die Bewegungsdaten einen abnormalen Wert anzeigen oder wenn die Bewegungsdaten Null sind, wird die Koordinatenschätzung der Sonde 200 aktiviert.
  • Wenn die Koordinatenschätzung der Sonde 200 aktiviert ist, schätzt die Hauptkörper-Steuerschaltung 302 die Position der Sonde 200 basierend auf den Bewegungsdaten. Darüber hinaus weist die Hauptkörper-Steuerschaltung 302 die Einstellung der Position und der Haltung der beweglichen Kamera 120 so an, dass die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S34). Danach kehrt die Hauptkörper-Steuerschaltung 302 zur Verarbeitung in Schritt S31 zurück.
  • Hier kann die Benutzerin U die Hauptkörper-Steuerschaltung 302 anweisen, nach der Sonde 200 zu suchen, indem sie die Hauptkörper-Bedieneinheit 320 in 2 oder die Touchpanel-Anzeige 230 in 8 bedient.
  • Wenn die Koordinatenschätzung der Sonde 200 in Schritt S33 deaktiviert ist, entscheidet die Hauptsteuerschaltung 302, ob ein Befehl zur Suche nach der Sonde 200 empfangen wurde (Schritt S35). Wenn der Befehl zur Suche nach der Sonde 200 nicht empfangen wurde, kehrt die Hauptkörper-Steuerschaltung 302 zur Verarbeitung in Schritt S31 zurück. Im Gegensatz dazu, wenn der Befehl zum Suchen nach der Sonde 200 empfangen wurde, weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, das Stützelement 30 des Abbildungskopfes 100 zu drehen. Auf diese Weise sucht die Hauptkörper-Steuerschaltung 302 mit der Vogelperspektivenkamera 180 nach der Sonde 200 (Schritt S36).
  • Danach, wenn die Sonde 200 innerhalb des bildgebenden Gesichtsfeldes der Vogelperspektivenkamera 180 positioniert ist, berechnet die Hauptkörper-Steuerschaltung 302 die Position der Sonde 200 basierend auf den Bilddaten der Vogelperspektive. Darüber hinaus weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, die Position und die Haltung der beweglichen Kamera 120 so einzustellen, dass die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S37).
  • Als nächstes, wenn die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist, weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, die Position und die Haltung der beweglichen Kamera 120 so einzustellen, dass das Baryzentrum der Vielzahl von Markern eq der Sonde 200 in der Mitte des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S38). Danach beendet die Hauptkörper-Steuerschaltung 302 die Tracking-Verarbeitung.
  • Gemäß der vorstehend beschriebenen Tracking-Verarbeitung folgt das abbildende Gesichtsfeld der beweglichen Kamera 120 auch bei einer Bewegung der Sonde 200 der Vielzahl von Markern eq der Sonde 200. Daher muss die Benutzerin U das bildgebende Gesichtsfeld der beweglichen Kamera 120 nicht manuell einstellen. Dementsprechend können die Koordinaten eines gewünschten Messpunktes des Messziels S über einen weiten Bereich gemessen werden, ohne dass eine aufwändige Justierung erforderlich ist.
  • Kalibrierverarbeitung
  • 14 ist ein Flussdiagramm, das den Ablauf der Kalibrierverarbeitung durch die Hauptkörper-Steuerschaltung 302 in 2 veranschaulicht. Die Kalibrierverarbeitung in 14 wird erreicht, wenn die CPU der Hauptkörper-Steuerschaltung 302 in 2 das im Hauptkörperspeicher 303 gespeicherte Kalibrierprogramm ausführt und als Reaktion auf einen Befehl zur Kalibrierverarbeitung gestartet wird, der bereitgestellt wird, wenn die Benutzerin U die Hauptkörper-Bedieneinheit 320 in 2 bedient.
  • Wenn die Kalibrierverarbeitung gestartet wird, liest die Kalibrierungs-Aktualisierungseinheit 394 der Hauptkörper-Steuerschaltung 302 die im Hauptkörperspeicher 303 gespeicherten Referenzmarker-Informationen im Voraus aus (Schritt S41).
  • Als nächstes weist die Kalibrierungs-Aktualisierungseinheit 394 den Abbildungskopf 100 an, die Haltung der beweglichen Kamera 120 so einzustellen, dass die bewegliche Kamera 120 in einen von mehreren vorgegebenen Zuständen eintritt (Schritt S42). Dadurch wird die Stellung der beweglichen Kamera 120 so eingestellt, dass die Stellung in einen Zustand eintritt, indem ein Drehantriebskreis 140 veranlasst wird, wenigstens einen der horizontalen Drehmechanismen 141 und einen Kippdrehmechanismus 143 in 4 im Abbildungskopf 100 anzutreiben.
  • Als nächstes erzeugt die Kalibrierungs-Aktualisierungseinheit 394 Referenzbilddaten, indem sie die Referenzkamera 110 veranlasst, die Vielzahl von Markern ep des Bezugselements 190 zu erfassen und diese Referenzbilddaten im Hauptkörperspeicher 303 zu speichern (Schritt S43).
  • Als nächstes entscheidet die Kalibrierungs-Aktualisierungseinheit 394, ob die bewegliche Kamera 120 nach dem Start der laufenden Kalibrierbearbeitung alle der Vielzahl der vorgegebenen Zustände erreicht hat (Schritt S44).
  • Wenn die bewegliche Kamera 120 nicht alle der Vielzahl von vorbestimmten Zuständen in Schritt S44 erreicht hat, weist die Kalibrierungs-Aktualisierungseinheit 394 den Abbildungskopf 100 an, die Haltung der beweglichen Kamera 120 so einzustellen, dass die bewegliche Kamera 120 einen anderen Zustand erreicht, der unter der Vielzahl von vorbestimmten Zuständen nicht erreicht wurde (Schritt S45). Dadurch wird die Stellung der beweglichen Kamera 120 in einen anderen Zustand eingestellt, indem der Drehantriebskreis 140 veranlasst wird, wenigstens einen der horizontalen Drehmechanismen 141 und den Kippdrehmechanismus 143 in 4 im Abbildungskopf 100 anzutreiben. Danach kehrt die Kalibrierungs-Aktualisierungseinheit 394 zur Verarbeitung in Schritt S41 zurück.
  • Wenn die bewegliche Kamera 120 alle der Vielzahl von vorbestimmten Zuständen in Schritt S44 erreicht hat, berechnet die Kalibrierungs-Aktualisierungseinheit 394 neue Kameraparameter auf der Grundlage der Vielzahl von Referenzbilddaten und der Referenzmarkierungsinformationen, die im Hauptkörperspeicher 303 bei der Verarbeitung in Schritt S43 gespeichert sind (Schritt S46).
  • Danach aktualisiert die Kalibrierungs-Aktualisierungseinheit 394 die im Hauptkörperspeicher 303 gespeicherten Kameraparameter auf die berechneten neuen Kameraparameter (Schritt S47). Damit wird die Kalibrierbearbeitung beendet.
  • In dem oben beschriebenen Beispiel wird die Kalibrierbearbeitung als Reaktion auf eine Startanweisung für die Kalibrierbearbeitung gestartet, die erteilt wird, wenn die Benutzerin U die Hauptkörper-Bedieneinheit 320 bedient. Die Kalibrierverarbeitung ist nicht auf dieses Beispiel beschränkt und kann beispielsweise als Reaktion auf das Einschalten der dreidimensionalen Koordinatenmessvorrichtung 1 automatisch gestartet werden. Alternativ kann die Kalibrierverarbeitung automatisch gestartet werden, wenn beispielsweise ein Temperaturdetektor die Temperatur um die dreidimensionale Koordinatenmessvorrichtung 1 herum überwacht und die erfasste Temperatur außerhalb eines vorbestimmten Temperaturbereichs liegt. Alternativ kann die Kalibrierverarbeitung jedes Mal automatisch durchgeführt werden, wenn die Betriebszeit der dreidimensionalen Koordinatenmessvorrichtung 1 eine vorbestimmte Zeit verstreicht.
  • Verarbeitung von Kalibrierungsentscheidungen
  • 15 ist ein Flussdiagramm, das einen Fluss der Kalibrier-Entscheidungsverarbeitung durch die Hauptkörper-Steuerschaltung 302 in 2 veranschaulicht. Die Verarbeitung der Kalibrierungsentscheidung in 15 wird dadurch erreicht, dass die CPU der Hauptkörper-Steuerschaltung 302 in 2 veranlasst wird, das im Hauptkörperspeicher 303 gespeicherte Kalibrierungsentscheidungsprogramm auszuführen, und als Reaktion auf eine Operation der Hauptkörper-Operationseinheit 320 in 2 durch die Benutzerin U gestartet wird. Es wird angenommen, dass der Hauptkörperspeicher 303 den integrierten Fehler der Kalibrierzeit und den zulässigen Zustand im Voraus im Anfangszustand speichert.
  • Wenn die Verarbeitung der Kalibrierungsentscheidung gestartet wird, liest die Kalibrierungs-Entscheidungseinheit 395 der Hauptkörper-Steuerschaltung 302 die Referenzmarker-Information, die Kameraparameter, den integrierten Fehler der Kalibrierzeit und den zulässigen Zustand, der im Hauptkörperspeicher 303 gespeichert ist, im Voraus aus (Schritt S51).
  • Als nächstes weist die Kalibrierungs-Entscheidungseinheit 395 den Abbildungskopf 100 an, die Haltung der beweglichen Kamera 120 so einzustellen, dass die bewegliche Kamera 120 in einen von mehreren vorgegebenen Zuständen eintritt (Schritt S52). Zusätzlich erzeugt die Kalibrierungs-Entscheidungseinheit 395 Referenzbilddaten, indem sie den Kopf-Steuerkreis 150 veranlasst, die Vielzahl von Markern ep des Bezugselements 190 unter Verwendung der Referenzkamera 110 zu erfassen und die Referenzbilddaten im Hauptkörperspeicher 303 zu speichern (Schritt S53).
  • Als nächstes entscheidet die Kalibrierungs-Entscheidungseinheit 395, ob die bewegliche Kamera 120 nach dem Start der laufenden Kalibrierbearbeitung alle der Vielzahl der vorgegebenen Zustände erreicht hat (Schritt S54).
  • Wenn die bewegliche Kamera 120 nicht alle der Vielzahl von vorbestimmten Zuständen in Schritt S54 erreicht hat, weist die Kalibrierungs-Entscheidungseinheit 395 den Abbildungskopf 100 an, die Haltung der beweglichen Kamera 120 so einzustellen, dass die bewegliche Kamera 120 einen anderen Zustand erreicht, der unter der Vielzahl von vorbestimmten Zuständen nicht erreicht wurde (Schritt S55). Danach kehrt die Kalibrierungs-Entscheidungseinheit 395 zur Verarbeitung in Schritt S51 zurück.
  • Wenn die bewegliche Kamera 120 alle der Vielzahl von vorbestimmten Zuständen in Schritt S54 erreicht hat, berechnet die Kalibrierungs-Entscheidungseinheit 395 den Entscheidungszeit-integrierten Fehler auf der Grundlage der Vielzahl von Referenzbilddaten, der Referenzmarker-Informationen und der im Hauptkörperspeicher 303 gespeicherten Kameraparameter bei der Verarbeitung in Schritt S53 (Schritt S56).
  • Danach entscheidet die Kalibrierungs-Entscheidungseinheit 395 über die Notwendigkeit einer Kalibrierung auf Grundlage des berechneten zeitintegrierten Entscheidungsfehlers, des integrierten Fehlers der Lesekalibrierungszeit und des zulässigen Lesezustands und gibt das Entscheidungsergebnis aus (Schritt S57). Damit wird die Verarbeitung der Kalibrierungsentscheidung beendet.
  • In dem oben beschriebenen Beispiel wird die Verarbeitung der Kalibrierungsentscheidung als Reaktion auf eine Startanweisung für die Verarbeitung der Kalibrierungsentscheidung gestartet, die erteilt wird, wenn die Benutzerin U die Hauptkörper-Bedieneinheit 320 bedient. Die Kalibrier-Entscheidungsverarbeitung ist nicht auf dieses Beispiel beschränkt und kann beispielsweise als Reaktion auf das Einschalten der dreidimensionalen Koordinatenmessvorrichtung 1 automatisch gestartet werden. Alternativ kann die Verarbeitung der Kalibrierungsentscheidung automatisch gestartet werden, wenn beispielsweise ein Temperaturdetektor die Temperatur um die dreidimensionale Koordinatenmessvorrichtung 1 herum überwacht und die erfasste Temperatur außerhalb eines vorbestimmten Temperaturbereichs liegt. Alternativ kann die Kalibrier-Entscheidungsverarbeitung jedes Mal automatisch durchgeführt werden, wenn die Betriebszeit der dreidimensionalen Koordinatenmessvorrichtung 1 eine vorbestimmte Zeit verstreicht.
  • Das von der Kalibrierungs-Entscheidungseinheit 395 ausgegebene Entscheidungsergebnis wird in der Hauptanzeigeeinheit 310 in 2 durch die Anzeigesteuereinheit 396 der Hauptkörper-Steuerschaltung 302 angezeigt. 16 zeigt ein Beispiel für die Anzeige des Entscheidungsergebnisses durch die Kalibrierungsentscheidungsfunktion.
  • Wenn entschieden wird, dass die Referenzkamera 110 als Ergebnis der Kalibrierungsentscheidung kalibriert werden soll, wie durch eine dicke gepunktete Linie in 16A dargestellt, wird auf dem Bildschirm der Hauptanzeigeeinheit 310 eine Meldung angezeigt, die die Benutzerin U zu einem Kalibrierungsvorgang auffordert. Wenn dagegen entschieden wird, dass die Referenzkamera 110 aufgrund der Kalibrierungsentscheidung nicht kalibriert werden muss, wie durch eine dicke gepunktete Linie in 16B dargestellt, wird auf dem Bildschirm der Hauptanzeigeeinheit 310 eine Meldung angezeigt, die besagt, dass die Benutzerin U keinen Kalibrierungsvorgang durchführen muss. Dadurch kann die Benutzerin U die Notwendigkeit der Kalibrierung der Referenzkamera 110 leicht nachvollziehen.
  • Verwendungsbeispiel für die Sonden-Kamera 208
  • Ein Bild des Messziels S kann in der Hauptanzeigeeinheit 310 in 2 angezeigt werden, indem das Messziel S mit der Sonden-Kamera 208 in 8 erfasst wird. Ein von der Sonden-Kamera 208 aufgenommenes Bild wird im Folgenden als aufgenommenes Bild bezeichnet.
  • Die Positionsbeziehung zwischen der Vielzahl von Markern eq der Sonde 200 und der Sonden-Kamera 208 und den Eigenschaften (Blickwinkel, Verzerrung und dergleichen) der Sonden-Kamera 208 werden im Voraus als Abbildungsinformationen beispielsweise im Hauptkörperspeicher 303 in 2 gespeichert. Wenn also die Vielzahl von Markern eq innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 vorhanden ist, wird der von der Sonden-Kamera 208 erfasste Bereich von der Hauptkörper-Steuerschaltung 302 in 2 erkannt. Das heißt, der dem aufgenommenen Bild entsprechende dreidimensionale Raum wird von der Hauptkörper-Steuerschaltung 302 erkannt. In diesem Fall ist es möglich, das geometrische Element und das zum Zeitpunkt der Messung des Messziels S eingestellte Messobjekt zu überlagern und das aufgenommene Bild auf der Hauptanzeige 310 anzuzeigen.
  • Dabei ist zu beachten, dass das aufgenommene Bild auf der Touchpanel-Anzeige 230 der Sonde 200 angezeigt werden kann. So zeigt beispielsweise die Touch-Panel-Anzeige 230 ein aufgenommenes Bild an, das durch Erfassen eines Teils eines bestimmten Messziels S erhalten wurde, das mit der Sonden-Kamera 208 im Voraus gemessen werden soll. In diesem Fall kann die Benutzerin U den zu messenden Abschnitt eines anderen Messziels S leicht identifizieren, indem sie die Sonde 200 bedient und dabei das aufgenommene Bild visuell erkennt.
  • Wirkungen
  • In der oben beschriebenen dreidimensionalen Koordinatenmessvorrichtung 1 wird bei der Messung der Form des Messziels S das Messziel S von der beweglichen Kamera 120 erfasst und Messbilddaten erzeugt. Zusätzlich wird die Vielzahl der Markierungen ep des Bezugselements 190, die integral mit der beweglichen Kamera 120 vorgesehen sind, von der Referenzkamera 110 erfasst und es werden Referenzbilddaten erzeugt. Danach werden die Positions-/Haltungsinformationen auf der Grundlage der Referenzbilddaten, der Referenzmarker-Informationen und der Kameraparameter berechnet, und die Koordinaten im Weltkoordinatensystem des Messpunkts werden auf der Grundlage der berechneten Positions-/Haltungsinformationen und der Messbilddaten berechnet.
  • Wenn die Referenzkamera 110 kalibriert wird, verschiebt sich die bewegliche Kamera 120 in eine Vielzahl von Zuständen, in denen ihre Position und Haltung unterschiedlich ist. Die Vielzahl von Markern ep des Bezugselements 190 wird von der Referenzkamera 110 in jedem der Vielzahl von Zuständen erfasst. Neue Kameraparameter werden auf der Grundlage der Vielzahl von Referenzbilddaten und der wie oben beschrieben erhaltenen Referenzmarker-Informationen berechnet, und die im Hauptkörperspeicher 303 gespeicherten Kameraparameter werden auf die neuen Kameraparameter aktualisiert. Dementsprechend werden die im Hauptkörperspeicher 303 gespeicherten Kameraparameter ohne komplizierte Kalibrierarbeiten durch die Benutzerin U, wie beispielsweise die Vorbereitung von Kalibrierwerkzeugen, auf die entsprechenden Kameraparameter aktualisiert.
  • Dadurch kann eine sehr zuverlässige Formmessung mit hoher Genauigkeit ohne komplizierte Kalibrierarbeiten durchgeführt werden.
  • Andere Ausführungsformen
  • (1) Obwohl jeder der Vielzahl von Markern ep des Bezugselements 190 in der oben beschriebenen Ausführung eine planare Kreisform aufweist, ist die Erfindung nicht auf dieses Beispiel beschränkt. Im Bezugselement 190 müssen die Position und die Haltung der beweglichen Kamera 120 nur auf der Grundlage der durch die Aufnahme mit der Bezugskamera 110 gewonnenen Bilddaten berechnet werden.
  • Die Form jedes der Marker ep ist nicht auf eine planare kreisförmige Form beschränkt und kann eine planare polygonale Form, eine planare elliptische Form, eine planare Sternform oder eine sphärische Form sein. Alternativ kann das Bezugselement 190 beispielsweise mit einer Vielzahl von linearen Markern versehen sein, die in einem Gitter gebildet sind, mit ringförmigen Markern oder mit codierten Markern versehen sein.
  • (2) In der vorstehend beschriebenen Ausführungsform weist jede der Vielzahl von Markern ep des Bezugselements 190 eine Selbstemissionsstruktur auf, in der die Vielzahl von lichtemittierenden Elementen L Licht durch Lichtemission freisetzt, wobei die vorliegende Erfindung nicht auf dieses Beispiel beschränkt ist. Jeder der Marker ep kann eine retroreflektierende Struktur aufweisen. In diesem Fall, wenn die Referenzkamera 110 die Vielzahl von Markern ep erfasst, müssen die Marker ep mit Licht bestrahlt werden.
  • (3) In der vorstehend beschriebenen Ausführungsform wird die bewegliche Kamera 120 mit einem zyklopischen Auge als bewegliche Abbildungseinheit zur Aufnahme der Sonde 200 verwendet, wobei die Erfindung nicht auf dieses Beispiel beschränkt ist. Eine Verbund-Augenkamera kann als bewegliche Abbildungseinheit verwendet werden.
  • (4) In der vorstehend beschriebenen Ausführungsform wird die Referenzkamera 110 mit einem zyklopischen Auge als Referenzbildeinheit zum Erfassen der Vielzahl von Markern ep des Bezugselements 190 verwendet, wobei die Erfindung nicht auf dieses Beispiel beschränkt ist. Eine Verbund-Augenkamera kann als Referenzbildeinheit verwendet werden.
  • (5) In der vorstehend beschriebenen Ausführungsform ist die Referenzkamera 110 so vorgesehen, dass ihre optische Achse 110c orthogonal zur Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 verläuft, aber die Erfindung ist nicht auf dieses Beispiel beschränkt. Die Referenzkamera 110 kann so vorgesehen sein, dass ihre optische Achse 110c in Bezug auf die Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 geneigt ist.
  • (6) In der dreidimensionalen Koordinatenmessvorrichtung 1 nach der oben beschriebenen Ausführungsform ist die bewegliche Kamera 120 so konfiguriert, dass ihr abbildendes Gesichtsfeld durch den Kippdrehmechanismus 143 vertikal bewegt werden kann, aber die vorliegende Erfindung ist nicht auf dieses Beispiel beschränkt. Der Kippdrehmechanismus 143 braucht nicht vorgesehen zu werden. In diesem Fall dreht sich das abbildende Gesichtsfeld der beweglichen Kamera 120 nur in horizontaler Richtung um die optische Achse 110c der Referenzkamera 110.
  • (7) In der dreidimensionalen Koordinatenmessvorrichtung 1 nach der oben beschriebenen Ausführungsform kann das abbildende Gesichtsfeld der beweglichen Kamera 120 durch den horizontalen Drehmechanismus 141 horizontal um die optische Achse 110c der Referenzkamera 110 gedreht werden, aber die Erfindung ist nicht auf dieses Beispiel beschränkt. Der horizontale Drehmechanismus 141 muss nicht vorgesehen werden. In diesem Fall bewegt sich das abbildende Gesichtsfeld der beweglichen Kamera 120 nur vertikal.
  • (8) Die bewegliche Kamera 120 kann innerhalb der horizontalen Ebene über der Referenzkamera 110 beweglich angebracht werden.
  • (9) In der dreidimensionalen Koordinatenmessvorrichtung 1 nach der oben beschriebenen Ausführung ist die bewegliche Kamera 120 an dem beweglichen Element 40 befestigt, so dass dessen Haltung gegenüber dem Referenzständer 10 und der Referenzkamera 110 verändert werden kann, aber die Erfindung ist nicht auf dieses Beispiel beschränkt. Die bewegliche Kamera 120 kann so vorgesehen werden, dass die Position und die Haltung an der Referenzkamera 110 befestigt werden kann. Im Folgenden wird ein Beispiel für die Struktur beschrieben, bei der die bewegliche Kamera 120 so vorgesehen ist, dass die Position und die Haltung an der Referenzkamera 110 fixiert ist.
  • 17 zeigt ein Beispiel für den Aufbau einer dreidimensionalen Koordinatenmessvorrichtung nach einer anderen Ausführungsform. 17 zeigt den Aufbau der dreidimensionalen Koordinatenmessvorrichtung, aus der die Verarbeitungsvorrichtung 300, die Hauptkörper-Anzeigeeinheit 310 und die Hauptkörper-Bedieneinheit 320 in 1 entfernt wurden.
  • In der dreidimensionalen Koordinatenmessvorrichtung in 17 sind die Referenzkamera 110, ein Standelement 620 und eine Bühnenstützvorrichtung 630 auf einem ebenen Basiselement 610 vorgesehen. Das Standelement 620 ist an einem Teil der Oberseite des Basisteils 610 befestigt, so dass es sich nach oben erstreckt. Die bewegliche Kamera 120 ist am oberen Endteil des Standelements 620 befestigt, so dass das abbildende Gesichtsfeld schräg nach unten gerichtet ist.
  • Die Bühnenstützvorrichtung 630 ist am Basiselement 610 befestigt und trägt eine Rotationstransferbühne 640, auf der das Messziel S platziert wird, so dass die Rotationstransferbühne 640 sich horizontal bewegen, in der horizontalen Ebene drehen, sich gegenüber der horizontalen Ebene neigen und vertikal bewegen kann. Zusätzlich kann die Bühnenstützvorrichtung 630 die Position und die Haltung der Rotationstransferbühne 640 als Reaktion auf eine Anweisung der Verarbeitungsvorrichtung 300 ändern.
  • Die Rotationstransferbühne 640 ist so gelagert, dass sich der Raum über der Rotationstransferbühne 640 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 befindet. Dadurch kann die bewegliche Kamera 120 das Messziel S in dem Zustand erfassen, in dem sich das Messziel S auf der Rotationstransferbühne 640 befindet.
  • Die untere Fläche der Rotationstransferbühne 640 ist mit dem Bezugselement 190 entsprechend der oben beschriebenen Ausführung versehen. Die Referenzkamera 110 ist so an dem Basiselement 610 befestigt, dass das abbildende Gesichtsfeld nach oben zeigt und die Vielzahl von Markern ep des Bezugselements 190 innerhalb des abbildenden Gesichtsfeldes der Referenzkamera 110 liegt.
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 mit der oben beschriebenen Struktur wird der Messpunkt auf dem Messziel S durch die Sonde 200 in dem Zustand angewiesen, in dem das Messziel S auf der Rotationstransferbühne 640 platziert ist. In diesem Fall können die Koordinaten im Koordinatensystem der beweglichen Kamera des angewiesenen Messpunktes berechnet werden, indem die bewegliche Kamera 120 veranlasst wird, die Vielzahl von Markern eq der Sonde 200 zu erfassen.
  • Informationen (Positions-/Haltungsinformationen), die die Position und die Haltung der Rotationstransferbühne 640 in Bezug auf die bewegliche Kamera 120 und die Referenzkamera 110 angeben, können auf der Grundlage von Referenzbilddaten berechnet werden, die durch die Erfassung des Bezugselements 190 durch die Referenzkamera 110 gewonnen wurden. Dementsprechend können bei einer Änderung der Position und der Haltung der Rotationstransferbühne 640 die Koordinaten des Messpunktes im Koordinatensystem relativ zur Rotationstransferbühne 640 auf der Grundlage der Koordinaten des Messpunktes im Koordinatensystem der beweglichen Kamera und der nach dieser Änderung berechneten Positions-/Haltungsinformationen berechnet werden. Dadurch kann die gesamte Form des Messziels S erfasst werden, während die Position und die Haltung des Messziels S in Bezug auf die bewegliche Kamera 120 geändert wird.
  • (10) Obwohl die Koordinaten des Messpunktes auf dem Messziel S auf der Grundlage von Messbilddaten berechnet werden, die dadurch gewonnen werden, dass die bewegliche Kamera 120 die Sonde 200 in der dreidimensionalen Koordinatenmessvorrichtung 1 entsprechend der oben beschriebenen Ausführungsform erfasst, ist die Erfindung nicht auf dieses Beispiel beschränkt.
  • Die Koordinaten des Messpunktes auf dem Messziel S können durch einen anderen Positionserfassungsabschnitt anstelle der oben beschriebenen beweglichen Kamera 120 und der Sonde 200 berechnet werden.
  • 18 zeigt ein weiteres Beispiel für den Aufbau der dreidimensionalen Koordinatenmessvorrichtung entsprechend der anderen Ausführungsform. 18 zeigt den Aufbau der dreidimensionalen Koordinatenmessvorrichtung, aus der die Verarbeitungsvorrichtung 300, die Hauptkörper-Anzeigeeinheit 310 und die Hauptkörper-Bedieneinheit 320 in 1, wie im Beispiel in 17, entfernt wurden.
  • Wie in 18 dargestellt, unterscheidet sich die dreidimensionale Koordinatenmessvorrichtung in diesem Beispiel von der dreidimensionalen Koordinatenmessvorrichtung in 17 dadurch, dass anstelle der beweglichen Kamera 120 und des Tasters 200 eine Messpunkt-Koordinatenerfassungsvorrichtung 650 vorgesehen ist.
  • Es wird angenommen, dass in diesem Beispiel ein dreidimensionales Koordinatensystem (im Folgenden als Unterkoordinatensystem bezeichnet) mit einer vorgegebenen Beziehung in Bezug auf die Messpunkt-Koordinatenerfassungsvorrichtung 650 definiert ist.
  • Die Messpunkt-Koordinatenerfassungsvorrichtung 650 ist oberhalb der Rotationstransferbühne 640 durch das Standelement 620 vorgesehen, um die Koordinaten im Unterkoordinatensystem des Messpunktes auf dem Messziel S berechnen zu können. In diesem Fall kann die Messpunkt-Koordinatenerfassungsvorrichtung 650 beispielsweise eine Tiefensonde für ein Rastersondenmikroskop und ein dreidimensionales Rastelement zum Abtasten der Tiefensonde oder einen optischen Messtaster zur Formmessung und ein dreidimensionales Rastelement zum Abtasten der optischen Sonde enthalten.
  • In der dreidimensionalen Koordinatenmessvorrichtung mit der oben beschriebenen Struktur werden die Koordinaten im Unterkoordinatensystem des Messpunktes auf dem Messziel S mit Hilfe der Messpunkt-Koordinatenerfassungsvorrichtung 650 in dem Zustand berechnet, in dem das Messziel S auf der Rotationstransferbühne 640 platziert ist. Zusätzlich werden die Positions-/Haltungsinformationen der Rotationstransferbühne 640 berechnet, indem die Referenzkamera 110 veranlasst wird, das Bezugselement 190 zu erfassen. Dementsprechend können bei einer Änderung der Position und der Haltung der Rotationstransferbühne 640 die Koordinaten des Messpunktes im Koordinatensystem relativ zur Rotationstransferbühne 640 auf der Grundlage der Koordinaten im Unterkoordinatensystem des Messpunktes und der nach dieser Änderung berechneten Positions-/Haltungsinformationen berechnet werden. Dadurch kann die gesamte Form des Messziels S erfasst werden, während die Position und die Haltung des Messziels S in Bezug auf die Messpunkt-Koordinatenerfassungsvorrichtung 650 geändert wird.
  • Korrespondenz zwischen Komponenten in Ansprüchen und Einheiten in der Ausführungsform
  • Im Folgenden wird ein Beispiel für die Übereinstimmung zwischen den Komponenten in den Ansprüchen und den Einheiten in der Ausführungsform beschrieben, aber die Erfindung ist nicht auf das folgende Beispiel beschränkt.
  • In der oben beschriebenen Ausführung sind die bewegliche Kamera 120 und die Messpunkt-Koordinatenerfassungsvorrichtung 650 Beispiele für die MesspunktInformationserfassungseinheit, das bewegliche Element 40 und das Bezugselement 190 Beispiele für das motorisierte Rotationselement, die Vielzahl von Markern ep des Bezugselements 190 ist ein Beispiel für die Vielzahl von Referenzmarkern, die Referenzkamera 110 ist ein Beispiel für die Referenzabbildungseinheit und der Abbildungsparameter ist ein Beispiel für den Kameraparameter.
  • Darüber hinaus ist der Hauptkörperspeicher 303 ein Beispiel für die Speichereinheit, die Koordinatenberechnungseinheit 391 ein Beispiel für die Koordinatenberechnungseinheit, die Kalibrierungs-Aktualisierungseinheit 394 ein Beispiel für die Kalibrierungs-Aktualisierungseinheit, die kalibrierbestimmende Einheit 395 ein Beispiel für die kalibrierbestimmende Einheit und die Hauptanzeigeeinheit 310 ein Beispiel für die Präsentationseinheit.
  • Darüber hinaus ist die Sonde 200 ein Beispiel für die Sonde, die Vielzahl von Markern eq der Sonde 200 ist ein Beispiel für die Vielzahl von Messmarkern, die optische Achse 110c der Referenzkamera 110 oder die Drehachse 30c des beweglichen Elements 40 ist ein Beispiel für die erste Drehachse und die Drehachse 30c des beweglichen Elements 40 ist ein Beispiel für die zweite Drehachse.
  • Als Komponenten in den Ansprüchen können auch andere verschiedene Komponenten mit den in den Ansprüchen beschriebenen Strukturen oder Funktionen verwendet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2000266524 A [0003]

Claims (10)

  1. Dreidimensionale Koordinatenmessvorrichtung zum Messen von Koordinaten eines Messpunktes, wobei die dreidimensionale Koordinatenmessvorrichtung umfasst: eine Referenzbasis; eine motorisierte Drehbühne, die in Bezug auf die Referenzbasis drehbar gelagert ist, wobei die motorisierte Drehbühne um eine erste Drehachse drehbar ist; eine Vielzahl von Referenzmarkern, die auf der motorisierten Drehbühne vorgesehen sind; eine Referenzkamera, die an der Referenzbasis befestigt ist, wobei die Referenzkamera ein Bild der Vielzahl von Referenzmarkern aufnimmt; einen Speicher, der Informationen über die Anordnung der Vielzahl von Referenzmarkern als Referenzmarker-Information speichert und einen Abbildungsparameter der Referenzkamera speichert; eine Koordinatenberechnungseinheit, die Positions-/Haltungsinformationen berechnet, die eine Position und eine Haltung der motorisierten Drehbühne in Bezug auf die Referenzkamera auf der Grundlage des Bildes der Vielzahl von Referenzmarkern, die von der Referenzkamera erfasst wurden, und der Referenzmarker-Informationen und des im Speicher gespeicherten Bildparameters angeben, und die Koordinaten eines Messpunktes auf der Grundlage der Positions-/Haltungsinformationen berechnet; und eine Kalibrierungs-Aktualisierungseinheit, die einen neuen Abbildungsparameter auf der Grundlage einer Vielzahl von Referenzbildern berechnet, die jeweils das von der Referenzkamera aufgenommene Bild der Vielzahl von Referenzmarkern und die in dem Speicher gespeicherte Referenzmarker-Information enthalten, wobei jedes der Vielzahl von Referenzbildern in jeweils unterschiedlichen Positionen der motorisierten Drehbühne durch Drehen der motorisierten Drehbühne um die erste Drehachse aufgenommen wird, und die den in dem Speicher gespeicherten Abbildungsparameter auf den neuen Abbildungsparameter aktualisiert.
  2. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, die des Weiteren umfasst: eine Kalibrierungs-Entscheidungseinheit, die erste Positionen von projizierten Bildern der Vielzahl von Referenzmarkern auf einer Lichtempfangsfläche der Referenzkamera auf der Grundlage der Referenzmarker-Informationen und der im Speicher gespeicherten Bildparameter berechnet und die tatsächlichen Positionen auf der Lichtempfangsfläche erfasst, der projizierten Bilder der Vielzahl von Referenzmarkern auf der Grundlage der Vielzahl von Referenzbildern, die in jeweils unterschiedlichen Positionen der motorisierten Drehbühne aufgenommen wurden, führt eine Entscheidung in Verbindung mit einer Kalibrierung der Referenzkamera auf der Grundlage einer Beziehung zwischen den ersten Positionen der projizierten Bilder und den tatsächlichen Positionen der projizierten Bilder und einem vorgegebenen Kriterium durch und gibt ein Ergebnis der Entscheidung aus.
  3. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 2, die des Weiteren umfasst: eine Präsentationseinheit, die einer Benutzerin das Ergebnis der Entscheidungsausgabe der kalibrierenden Entscheidungseinheit präsentiert.
  4. Dreidimensionale Koordinatenmessvorrichtung nach einem der Ansprüche 1 bis 3, die des Weiteren umfasst: eine Sonde, die eine Vielzahl von Messmarker aufweist und den Messpunkt auf dem Messziel bezeichnet; und eine bewegliche Kamera, die an der motorisierten Drehbühne befestigt ist und so konfiguriert ist, dass sie ein Bild der Vielzahl von Messmarkern der Sonde erfasst; wobei die Koordinatenberechnungseinheit die Koordinaten des von der Sonde bezeichneten Messpunktes auf der Grundlage der Positions-/Haltungsinformationen und der Messpunktinformationen berechnet, die das Bild der Vielzahl der von der beweglichen Kamera erfassten Messmarkern anzeigen.
  5. Dreidimensionale Koordinatenmessvorrichtung nach einem der Ansprüche 1 bis 4, wobei die erste Drehachse vertikal oder horizontal verläuft.
  6. Dreidimensionale Koordinatenmessvorrichtung nach einem der Ansprüche 1 bis 4, wobei die motorisierte Drehbühne auch um eine zweite Drehachse drehbar ist, wobei die erste Drehachse vertikal verläuft, und wobei die zweite Drehachse horizontal verläuft.
  7. Dreidimensionale Koordinatenmessvorrichtung nach einem der Ansprüche 1 bis 6, wobei die motorisierte Drehbühne innerhalb einer vorgegebenen Ebene beweglich ist.
  8. Dreidimensionale Koordinatenmessvorrichtung nach einem der Ansprüche 1 bis 3, umfassend: eine Einheit zur Erfassung von Messpunktinformationen, die als Messpunktinformation Informationen über eine Position des Messpunkts auf dem Messziel erfasst, wobei das Messziel auf dem motorisierten Rotationstisch platziert werden kann, und wobei die Koordinatenberechnungseinheit die Koordinaten des Messpunkts auf der Grundlage der Positions-/Haltungsinformationen und der von der Messpunktinformationserfassungseinheit erfassten Messpunktinformationen berechnet.
  9. Kalibrierverfahren für eine dreidimensionale Koordinatenmessvorrichtung, umfassend eine Referenzbasis; eine motorisierte Drehbühne, die in Bezug auf die Referenzbasis drehbar gelagert ist, wobei die motorisierte Drehbühne um eine erste Drehachse drehbar ist; eine Vielzahl von Referenzmarkern, die auf der motorisierten Drehbühne vorgesehen sind; eine Referenzkamera, die an der Referenzbasis befestigt ist, wobei die Referenzkamera ein Bild der Vielzahl von Referenzmarkern aufnimmt, wobei das Kalibrierungsverfahren umfasst: Speichern von Informationen über die Anordnung der Vielzahl von Referenzmarkern als Referenzmarker-Information; Speichern eines Abbildungsparameters der Referenzkamera; Berechnen von Positions-/Haltungsinformationen, die eine Position und eine Haltung der motorisierten Drehbühne in Bezug auf die Referenzkamera angeben, auf der Grundlage des Bildes der von der Referenzkamera erfassten Vielzahl von Referenzmarkern und der Referenzmarker-Informationen und des Abbildungsparameters; Berechnen der Koordinaten eines Messpunkts auf der Grundlage der Positions-/Haltu ngsinformationen; Drehen der motorisierten Drehbühne um die erste Drehachse, um die Haltung der motorisierten Drehbühne zu ändern; Aufnehmen jedes einzelnen von eine Vielzahl von Referenzbildern durch die Referenzkamera in jeweils unterschiedlichen Positionen der motorisierten Drehbühne; Berechnen eines neuen Abbildungsparameters auf der Grundlage der Vielzahl von Referenzbildern, die jeweils das von der Referenzkamera aufgenommene Bild der Vielzahl von Referenzmarkern und die Referenzmarker-Information enthalten; Aktualisieren des Abbildungsparameters auf den neuen Abbildungsparameter.
  10. Verfahren zur Benachrichtigung in Verbindung mit Kalibrierung für eine dreidimensionale Koordinatenmessvorrichtung, umfassend eine Referenzbasis; eine motorisierte Drehbühne, die in Bezug auf die Referenzbasis drehbar gelagert ist, wobei die motorisierte Drehbühne um eine erste Drehachse drehbar ist; eine Vielzahl von Referenzmarkern, die auf der motorisierten Drehbühne vorgesehen sind; eine Referenzkamera, die an der Referenzbasis befestigt ist, wobei die Referenzkamera ein Bild der Vielzahl von Referenzmarkern aufnimmt, wobei das Verfahren umfasst: Speichern von Informationen über die Anordnung der Vielzahl von Referenzmarkern als Referenzmarker-Information; Speichern eines Abbildungsparameters der Referenzkamera; Berechnen von Positions-/Haltungsinformationen, die eine Position und eine Haltung der motorisierten Drehbühne in Bezug auf die Referenzkamera angeben, auf der Grundlage des Bildes der von der Referenzkamera erfassten Vielzahl von Referenzmarkern und der Referenzmarker-Informationen und des Abbildungsparameters; Berechnen der Koordinaten eines Messpunkts auf der Grundlage der Positions-/Haltungsinformationen; Drehen der motorisierten Drehbühne um die erste Drehachse, um die Haltung der motorisierten Drehbühne zu ändern; Berechnen erster Positionen auf einer Lichtempfangsfläche der Referenzkamera von projizierten Bildern der Vielzahl von Referenzmarkern auf der Grundlage der Referenzmarker-Information und der Abbildungsparameter; Erfassen der tatsächlichen Positionen der projizierten Bilder der Vielzahl von Referenzmarkern auf der Lichtempfangsfläche auf der Grundlage der Vielzahl von Referenzbildern, die von der Referenzkamera in jeweils unterschiedlichen Positionen der motorisierten Drehbühne aufgenommen wurden; Durchführen einer Entscheidung in Verbindung mit einer Kalibrierung der Referenzkamera auf der Grundlage einer Beziehung zwischen den ersten Positionen der projizierten Bilder und den tatsächlichen Positionen der projizierten Bilder und einem vorgegebenen Kriterium; und Ausgeben eines Entscheidungsergebnisses.
DE102020205516.5A 2019-05-17 2020-04-30 Dreidimensionale koordinatenmessvorrichtung Pending DE102020205516A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019093824A JP7211891B2 (ja) 2019-05-17 2019-05-17 三次元座標測定装置
JP2019-093824 2019-05-17

Publications (1)

Publication Number Publication Date
DE102020205516A1 true DE102020205516A1 (de) 2020-11-19

Family

ID=73019312

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020205516.5A Pending DE102020205516A1 (de) 2019-05-17 2020-04-30 Dreidimensionale koordinatenmessvorrichtung

Country Status (3)

Country Link
US (1) US10837757B1 (de)
JP (1) JP7211891B2 (de)
DE (1) DE102020205516A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11815454B2 (en) * 2020-03-27 2023-11-14 Samsung Electronics Co., Ltd. Method and system for optimizing Monte Carlo simulations for diffuse reflectance spectroscopy
CN112577708B (zh) * 2020-12-29 2023-03-21 中国航天空气动力技术研究院 一种基于背光成像的高焓激波风洞发动机推阻测量系统方法
CN112923860B (zh) * 2021-01-28 2022-04-08 北京科技大学 模拟高浓度尾砂料浆地表堆存行为的实验装置及方法
CN112923853B (zh) * 2021-01-29 2022-07-29 北京理工大学 齿轮回转轴线位姿及齿轮轴系装配误差测量的方法和系统
CN113409406A (zh) * 2021-08-19 2021-09-17 武汉中观自动化科技有限公司 一种大范围单目跟踪扫描设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3604944B2 (ja) 1999-03-17 2004-12-22 キヤノン株式会社 3次元形状測定機およびその測定方法
US7423666B2 (en) * 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
JP4052382B2 (ja) * 2002-11-13 2008-02-27 学校法人東京電機大学 非接触画像計測装置
JP2004354256A (ja) * 2003-05-29 2004-12-16 Olympus Corp キャリブレーションずれ検出装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
JP4418841B2 (ja) * 2008-01-24 2010-02-24 キヤノン株式会社 作業装置及びその校正方法
JP2010025759A (ja) * 2008-07-18 2010-02-04 Fuji Xerox Co Ltd 位置計測システム
JP2010071677A (ja) * 2008-09-16 2010-04-02 Fuji Xerox Co Ltd 位置計測システム
JP5299231B2 (ja) * 2009-11-17 2013-09-25 富士通株式会社 キャリブレーション装置
EP2381214B1 (de) * 2010-04-22 2020-06-10 Metronor A/S Optisches Messsystem
JP6325871B2 (ja) * 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325896B2 (ja) 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325877B2 (ja) 2014-04-18 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6316663B2 (ja) * 2014-05-30 2018-04-25 株式会社キーエンス 座標測定装置
JP6722502B2 (ja) 2016-04-27 2020-07-15 株式会社キーエンス 三次元座標測定器
JP6670161B2 (ja) 2016-04-27 2020-03-18 株式会社キーエンス 光学式三次元座標測定器及びその計測方法
JP6209648B1 (ja) * 2016-06-03 2017-10-04 Kyb株式会社 ステレオカメラの設置パラメータ校正方法
JP7257113B2 (ja) 2018-08-01 2023-04-13 株式会社キーエンス 三次元座標測定装置
JP7306803B2 (ja) * 2018-08-01 2023-07-11 株式会社キーエンス 三次元座標測定装置

Also Published As

Publication number Publication date
JP7211891B2 (ja) 2023-01-24
US20200363188A1 (en) 2020-11-19
US10837757B1 (en) 2020-11-17
JP2020187097A (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
DE102020205516A1 (de) Dreidimensionale koordinatenmessvorrichtung
DE60305779T2 (de) Mikroskop
DE69826753T2 (de) Optischer Profilsensor
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
DE112006004097B4 (de) Gerät und Verfahren zur Messung des Neigungswinkels
DE60202198T2 (de) Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild
DE102018200154A1 (de) Kalibrationsvorrichtung, Kalibrationsverfahren und Programm für einen visuellen Sensor
DE602005003610T2 (de) Vorrichtung zum Bestimmen der dreidimensionalen Form eines Objekts
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
EP3346230B1 (de) Vorrichtung und verfahren zur erfassung einer drahtkrümmung
DE112014001391T5 (de) Dreidimensionaler Koordinatenscanner und Betriebsverfahren
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
DE102015206988A1 (de) Optische Koordinatenmesseinrichtung
DE102019211488A1 (de) Dreidimensionale Koordinatenmessvorrichtung
DE102015210028A1 (de) Koordinatenmesseinrichtung
EP2726816B1 (de) Konstruktionsvermessungsgerät zum verfolgen, vermessen und markieren von kanten und eckpunkten aneinandergrenzender oberflächen
EP2609395B1 (de) Neigungssensor für ein gerät und verfahren zur bestimmung der neigung eines gerätes
EP1190211A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE102015205615A1 (de) Optische Koordinatenmesseinrichtung
DE102017210765A1 (de) Messvorrichtung
DE102021113391A1 (de) Koordinatenmessgerät mit sichttaster zum durchführen von messvorgängen des typs punkte-aus-fokus
DE10017087B4 (de) Kante-Zu-Kante Bildsensor und -Navigator für einen tragbaren Scanner
DE19800336A1 (de) Kamera mit Abstandsmessungs-Sensoreinheit
WO1999009880A2 (de) Vorrichtung zum bestimmen eines fixationspunktes
DE102015205616A1 (de) Optische Koordinatenmesseinrichtung