DE102019211488A1 - Dreidimensionale Koordinatenmessvorrichtung - Google Patents

Dreidimensionale Koordinatenmessvorrichtung Download PDF

Info

Publication number
DE102019211488A1
DE102019211488A1 DE102019211488.1A DE102019211488A DE102019211488A1 DE 102019211488 A1 DE102019211488 A1 DE 102019211488A1 DE 102019211488 A DE102019211488 A DE 102019211488A DE 102019211488 A1 DE102019211488 A1 DE 102019211488A1
Authority
DE
Germany
Prior art keywords
unit
probe
measurement
camera
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019211488.1A
Other languages
English (en)
Inventor
Masayasu Ikebuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Publication of DE102019211488A1 publication Critical patent/DE102019211488A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/004Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points
    • G01B5/008Measuring arrangements characterised by the use of mechanical techniques for measuring coordinates of points using coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • G01B11/007Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/02Means for marking measuring points
    • G01C15/06Surveyors' staffs; Movable markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Bereitstellung einer dreidimensionalen Koordinatenmessvorrichtung, die in der Lage ist, Koordinaten über einen großen Bereich mit hoher Genauigkeit und hoher Zuverlässigkeit zu messen. Auf einer Montagefläche ist ein Referenzständer 10 vorgesehen. Eine Referenzkamera 110 ist am Referenzständer 10 befestigt. Eine bewegliche Kamera 120 und ein Bezugselement 190 sind in Bezug auf den Referenzständer 10 an der Referenzkamera 110 drehbar vorgesehen. Das Bezugselement 190 ist mit einer Vielzahl von Markern versehen, die von der Referenzkamera 110 erfasst werden können. Die Referenzkamera 110, die bewegliche Kamera 120 und das Bezugselement 190 sind in einem Gehäuse 90 untergebracht. Die bewegliche Kamera 120 erfasst eine Sonde, die mit einem Messziel in Kontakt kommt, und die Referenzkamera 110 erfasst die Vielzahl von Markern des Bezugselements 190. Die Koordinaten eines Punktes, an dem die Sonde mit dem Messziel in Kontakt kommt, werden basierend auf den durch die Erfassung gewonnenen Bilddaten berechnet.

Description

  • HINTERGRUND DER ERFINDUNG
  • Bereich der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine dreidimensionale Koordinatenmessvorrichtung mit einer Kontaktsonde.
  • Beschreibung der verwandten Technik
  • Eine dreidimensionale Koordinatenmessvorrichtung vom Kontakttyp ist mit einer Sonde mit einem Kontaktteil versehen. Der Kontaktteil der Sonde wird mit einem Messziel in Kontakt gebracht und die Kontaktposition zwischen dem Messziel und dem Kontaktteil berechnet. Die Abmessungen eines gewünschten Teils des Messziels werden durch Berechnen einer Vielzahl von Positionen auf dem Messziel gemessen.
  • Eine optische Koordinatenmessvorrichtung, die in JP-A-2015-194452 als ein Beispiel für eine dreidimensionale Koordinatenmessvorrichtung beschrieben ist, umfasst einen Montagetisch, eine Sonde und eine Abbildungseinheit.
  • Der Kontaktteil der Sonde wird mit dem auf dem Montagetisch befindlichen Messziel in Kontakt gebracht. Eine Abbildungseinheit erzeugt Bilddaten durch Erfassen einer Vielzahl von Markern, die auf der Sonde vorgesehen sind. Aus den Bilddaten werden die Koordinaten der Kontaktposition zwischen Messziel und Kontaktteil berechnet.
  • In der vorstehend beschriebenen optischen Koordinatenmessvorrichtung werden eine Abbildungseinheit und ein Montagetisch ganzheitlich von einem Halteabschnitt gehalten, so dass der Bereich über einem Montagetisch von der Abbildungseinheit erfasst wird. In dieser Struktur ist das bildgebende Gesichtsfeld der Abbildungseinheit so eingestellt, dass es einen Abschnitt oberhalb des Montagetisches abdeckt.
  • Wenn jedoch Koordinaten des Messziels größer als der Montagetisch gemessen werden, muss das bildgebende Gesichtsfeld der Abbildungseinheit vergrößert werden. Wenn der Sichtwinkel der Abbildungseinheit vergrößert wird, um das bildgebende Gesichtsfeld zu vergrößern, wird die Auflösung der durch die Aufnahme gewonnenen Bilddaten reduziert. Darüber hinaus muss die optische Koordinatenmessvorrichtung Koordinaten mit hoher Zuverlässigkeit messen, ohne durch störendes Licht, Staub und dergleichen beeinträchtigt zu werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ziel der Erfindung ist es, eine dreidimensionale Koordinatenmessvorrichtung bereitzustellen, die in der Lage ist, Koordinaten über einen weiten Bereich mit hoher Genauigkeit und hoher Zuverlässigkeit zu messen.
  • (1) Eine dreidimensionale Koordinatenmessvorrichtung gemäß der Erfindung umfasst eine Sonde, die eine Vielzahl von Messmarkern aufweist und einen Messpunkt auf einem Messziel anweist; eine auf einer Installationsoberfläche vorgesehene Referenzbasis; eine auf der Referenzbasis befestigte Referenzbildgebungseinheit; eine bewegliche Abbildungseinheit, die in Bezug auf die Referenzbasis beweglich vorgesehen ist, wobei die bewegliche Abbildungseinheit eine Vielzahl von Messmarkern der Sonde erfasst; einen Referenzmarker, der auf der Referenzbasis so vorgesehen ist, dass er zusammen mit der beweglichen Abbildungseinheit drehbar ist, wobei der Referenzmarker durch die Referenzbildeinheit erfasst werden kann; ein Gehäuse, in dem die Referenzbildeinheit, die bewegliche Abbildungseinheit und der Referenzmarker untergebracht sind; und eine Recheneinheit, die eine erste Positions-/Haltungsinformation erzeugt, die eine Position und eine Haltung der beweglichen Abbildungseinheit basierend auf Referenzbilddaten erzeugt, die ein Bild des von der Referenzbildeinheit aufgenommenen Referenzmarkers anzeigen, eine zweite Positions-/Haltungsinformation erzeugt, die eine Position und eine Haltung der Sonde in Bezug auf die bewegliche Abbildungseinheit anzeigt, basierend auf Messbilddaten, die ein Bild der Vielzahl von Messmarken anzeigen, die von der beweglichen Abbildungseinheit aufgenommen wurden, erzeugt dritte Positions-/Haltungsinformationen, die eine Position und eine Haltung der Sonde in Bezug auf die Referenzbildeinheit basierend auf den erzeugten ersten und zweiten Positions-/Haltungsinformationen anzeigen, und berechnet Koordinaten des von der Sonde angezeigten Messpunkts basierend auf den erzeugten dritten Positions-/Haltungsinformationen.
  • Bei der dreidimensionalen Koordinatenmessvorrichtung ist die Referenzbasis auf einer Kontaktfläche vorgesehen. Da die Referenzbildeinheit an der Referenzbasis befestigt ist, ist der Installationszustand stabil. Dementsprechend können die ersten Positions-/Haltungsinformationen mit hoher Genauigkeit erzeugt werden, indem der Referenzmarker mit der Referenzbildeinheit erfasst wird.
  • Die bewegliche Abbildungseinheit ist in Bezug auf die Referenzbasis drehbar. In diesem Fall kann durch Drehen der beweglichen Abbildungseinheit der von der beweglichen Abbildungseinheit erfassbare Bereich erweitert werden, ohne das Sichtfeld der beweglichen Abbildungseinheit zu vergrößern. Dementsprechend können durch Erfassen der Vielzahl von Messmarkern der Sonde unter Verwendung der beweglichen Abbildungseinheit die zweiten Positions-/Haltungsinformationen mit hoher Genauigkeit erzeugt werden.
  • Da die Referenzbildeinheit, die bewegliche Abbildungseinheit und der Referenzmarker im Gehäuse in der vorstehend beschriebenen Struktur untergebracht sind, ist es zudem unwahrscheinlicher, dass Staub und Störlicht in den Raum um die Referenzbildeeinheit, die bewegliche Abbildungseinheit und den Referenzmarker eindringen. Dementsprechend wird die Zuverlässigkeit der dritten Position/Haltungsinformation, die basierend auf der ersten und zweiten Position/Haltungsinformation erzeugt wird, verbessert.
  • Die Koordinaten des Messpunktes auf dem Messziel werden basierend auf den erzeugten dritten Positions-/Haltungsinformationen berechnet. Dadurch können die Koordinaten über einen weiten Bereich mit hoher Genauigkeit und hoher Zuverlässigkeit gemessen werden.
  • (2) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren ein bewegliches Element umfassen, das in Bezug auf die Referenzbasis drehbar vorgesehen ist, wobei die bewegliche Abbildungseinheit an dem beweglichen Element befestigt ist, wobei die Bezugsmarke an wenigstens einer der beweglichen Abbildungseinheiten und dem beweglichen Element vorgesehen sein kann.
  • Da sich in diesem Fall der Referenzmarker und die bewegliche Abbildungseinheit ganzheitlich miteinander bewegen, können die ersten Positions-/Haltungsinformationen mit hoher Genauigkeit erzeugt werden.
  • (3) Das bewegliche Element kann einen Befestigungsabschnitt aufweisen, an dem eine bewegliche Abbildungseinheit befestigt ist, wobei die Referenzmarkierung auf dem beweglichen Element so angebracht werden kann, dass sie einer dem Befestigungsabschnitt gegenüberliegenden Seite zugewandt ist, und die Referenzbildeinheit kann auf einer der beweglichen Abbildungseinheit gegenüberliegenden Seite in Bezug auf das bewegliche Element angeordnet werden.
  • In diesem Fall kann die erste Positions-/Haltungsinformation in einer einfachen Struktur generiert werden.
  • (4) Die Referenzbildeinheit kann an der Referenzbasis so befestigt werden, dass ein bildgebendes Gesichtsfeld der Referenzbildeinheit nach oben gerichtet ist und das bewegliche Element über der Referenzbildeinheit vorgesehen sein kann.
  • In diesem Fall kann die Referenzbildeinheit einfach und stabil an der Referenzbasis befestigt werden. Dementsprechend können die ersten Positions-/Haltungsinformationen mit hoher Genauigkeit erzeugt werden.
  • (5) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren ein Raumsperrelement umfassen, das räumlich einen Abbildungsraum einschließlich eines Abbildungssichtfeldes der Referenzbildeinheit von der Referenzbildeinheit bis zum Referenzmarker von einer Außenseite des Abbildungsraums blockiert.
  • In diesem Fall wird verhindert, dass heiße Luft oder dergleichen von der Außenseite des Abbildungsraums in den Abbildungsraum der Referenzbildeinheit gelangt. Dementsprechend wird verhindert, dass das auf die Referenzbildeinheit einfallende Licht durch die Schwankungen der Atmosphäre im Abbildungsraum gebrochen wird. Dadurch können die ersten Positions-/Haltungsinformationen mit höherer Genauigkeit erzeugt werden.
  • (6) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren ein lichtblockierendes Element umfassen, das den Abbildungsraum einschließlich des Abbildungssichtfeldes der Referenzbildeinheit von der Referenzbildeinheit bis zum Referenzmarker von der Außenseite des Abbildungsraums optisch blockiert.
  • In diesem Fall wird verhindert, dass Licht von außen in den Abbildungsraum der Referenzbildgebungseinheit gelangt. Dadurch wird verhindert, dass Licht von außen in die Referenzbildeinheit eindringt. Dadurch können die ersten Positions-/Haltungsinformationen mit höherer Genauigkeit erzeugt werden.
  • (7) Die Referenzbasis kann einen Befestigungsabschnitt aufweisen, an dem die Referenzbildeinheit befestigt ist, und einen Beinabschnitt, der den Befestigungsabschnitt auf der Montagefläche trägt.
  • In diesem Fall wird das Befestigungsprofil durch das Beinprofil stabil auf der Montagefläche abgestützt. Dadurch wird der Fixierungszustand der Referenzbildeinheit stabilisiert.
  • (8) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren eine Rotationsantriebseinheit, die die bewegliche Abbildungseinheit in Bezug auf die Referenzbasis dreht, und eine Rotationssteuereinheit umfassen, die die Rotationsantriebseinheit so steuert, dass die Vielzahl von Messmarken in einem Abbildungsgesichtsfeld der beweglichen Abbildungseinheit positioniert ist.
  • In diesem Fall folgt das abbildende Gesichtsfeld der beweglichen Abbildungseinheit auch bei Bewegung der Sonde der Vielzahl der Messmarker der Sonde. Somit muss die Benutzerin das abbildende Gesichtsfeld der beweglichen Abbildungseinheit nicht anpassen. So können die Koordinaten eines gewünschten Messpunktes des Messziels über einen weiten Bereich gemessen werden, ohne dass eine aufwändige Justierung erforderlich ist.
  • (9) Die dreidimensionale Koordinatenmessvorrichtung kann des Weiteren eine Annahmeeinheit umfassen, die ein geometrisches Element und ein aus einer Vielzahl von vorbestimmten geometrischen Elementen und einer Vielzahl von vorbestimmten Messobjekten ausgewähltes Messobjekt akzeptiert, und eine Messeinheit, die einen Wert des ausgewählten Messobjekts bezüglich des ausgewählten geometrischen Elements berechnet, das durch einen oder mehrere Messpunkte im Messziel spezifiziert ist, basierend auf dem geometrischen Element und dem von der Annahmeeinheit akzeptierten Messobjekt und Koordinaten des einen oder der mehreren von der Berechnungseinheit berechneten Messpunkte.
  • In diesem Fall kann die Benutzerin leicht eine gewünschte physikalische Größe des Messziels messen, indem sie ein gewünschtes geometrisches Element und ein Messobjekt aus der Vielzahl der vorgegebenen geometrischen Elemente und der Vielzahl der vorgegebenen Messobjekte auswählt.
  • Nach der Erfindung ist es möglich, Koordinaten über einen weiten Bereich mit hoher Genauigkeit und hoher Zuverlässigkeit zu messen.
  • Figurenliste
    • 1 ist eine schematische Darstellung, die ein Anwendungsbeispiel für eine dreidimensionale Koordinatenmessvorrichtung gemäß einer Ausführungsform der Erfindung darstellt;
    • 2 ist ein Blockdiagramm, das die Strukturen eines Abbildungskopfes und einer Verarbeitungsvorrichtung veranschaulicht;
    • 3 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes veranschaulicht;
    • 4 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes veranschaulicht, von dem ein Gehäuse entfernt wurde;
    • 5 ist eine schematische Schnittansicht, die den in einer virtuellen Ebene in 3 aufgenommenen Abbildungskopf darstellt;
    • 6A ist eine schematische Längsschnittansicht, die ein Bezugselement in 5 darstellt;
    • 6B ist eine Unteransicht, die das Bezugselement veranschaulicht;
    • Die 7A bis 7C veranschaulichen Beispiele für Bilder einer Vielzahl von Markern, die durch Erfassen des Bezugselements mit einer Referenzkamera erhalten werden;
    • 8 ist ein Blockdiagramm, das den Aufbau einer Sonde veranschaulicht;
    • 9 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild der Sonde veranschaulicht;
    • 10 ist ein Flussdiagramm, das einen Fluss der Messverarbeitung durch einen Hauptkörper-Steuerkreis in 2 darstellt;
    • 11 ist ein Flussdiagramm, das einen Fluss von Messpunktkoordinatenberechnungen veranschaulicht; und
    • 12 ist ein Flussdiagramm, das einen Fluss der Tracking-Verarbeitung durch den Hauptkörper-Steuerkreis in 2 darstellt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Grundstruktur und Anwendungsbeispiel eines dreidimensionalen Koordinatenmessgerätes
  • 1 ist eine schematische Darstellung, die ein Anwendungsbeispiel für eine dreidimensionale Koordinatenmessvorrichtung gemäß einer Ausführungsform der Erfindung darstellt. Wie in 1 dargestellt, umfasst eine dreidimensionale Koordinatenmessvorrichtung 1 gemäß der Ausführungsform der Erfindung im Wesentlichen einen Abbildungskopf 100, eine Sonde 200 und eine Verarbeitungsvorrichtung 300 und dient beispielsweise zum Messen physikalischer Größen wie die Abmessungen von Abschnitten eines großen Messziels S. Im Beispiel in 1 wird ein großes Rohr als Messziel S dargestellt. Das Messziel S wird auf einer Bodenfläche platziert.
  • Die Sonde 200 wird von einer Benutzerin U getragen. Die Sonde 200 hat einen Kontaktteil 211a. Die Benutzerin U bringt das Kontaktteil 211a der Sonde 200 mit einem gewünschten Abschnitt des Messziels S in Kontakt. Der Abschnitt des Messziels S, der mit dem Kontaktteil 211a in Kontakt kommt, ist ein Messpunkt.
  • Der Abbildungskopf 100 wird mit einem Referenzständer 10 beispielsweise an der Bodenfläche als Montagefläche befestigt. Eine bewegliche Kamera 120 ist im Abbildungskopf 100 vorgesehen. Die bewegliche Kamera 120 erfasst eine Vielzahl von Markern eq (9), die später beschrieben werden, die an der Sonde 200 vorgesehen sind. Der Referenzständer 10 ist ein Stativständer und umfasst einen Befestigungsabschnitt 11 und einen Beinabschnitt 12. Der Befestigungsabschnitt 11 hat eine ebene Oberseite. Der Referenzständer 10 ist konfiguriert, um eine Haltungsanpassung zwischen dem Befestigungsabschnitt 11 und dem Beinabschnitt 12 zu ermöglichen, so dass die Oberseite des Befestigungsabschnitts 11 horizontal befestigt wird. Die Oberseite des Befestigungsabschnitts 11 wird in der folgenden Beschreibung als horizontal befestigt angenommen.
  • Darüber hinaus ist der Abbildungskopf 100 über ein Kabel CA mit der Verarbeitungsvorrichtung 300 verbunden. Die Verarbeitungsvorrichtung 300 ist beispielsweise ein Personalcomputer, an den eine Hauptkörper-Anzeigeeinheit 310 und eine Hauptkörperbedieneinheit 320 angeschlossen sind. In der Verarbeitungsvorrichtung 300 werden die Koordinaten eines Messpunktes auf dem Messziel S basierend auf den Bilddaten (im Folgenden als Messbilddaten bezeichnet) berechnet, die durch das Erfassen der Sonde 200 mit der beweglichen Kamera 120 und später beschriebenen Referenzbilddaten erhalten werden. Es werden die Koordinaten eines oder mehrerer Messpunkte auf dem Messziel S berechnet und basierend auf dem Berechnungsergebnis die physikalischen Größen des Messziels S gemessen.
  • Wenn sich die Benutzerin U bewegt, während sie die Sonde 200 trägt, wie in 1 durch den gestrichelten Linienpfeil dargestellt, folgt die Ausrichtung des abbildenden Gesichtsfeldes der beweglichen Kamera 120 der Bewegung der Sonde 200. Das heißt, die Ausrichtung der beweglichen Kamera 120 ändert sich so, dass die Sonde 200 im Sichtfeld der beweglichen Kamera 120 positioniert ist, wenn sich die Sonde 200 bewegt. Dementsprechend weist die dreidimensionale Koordinatenmessvorrichtung 1 eine große messbare Fläche auf. Die Strukturen der einzelnen Abschnitte der dreidimensionalen Koordinatenmessvorrichtung 1 werden im Folgenden ausführlich beschrieben.
  • Strukturen des Abbildungskopfes 100 und der Verarbeitungsvorrichtung 300
  • 2 ist ein Blockdiagramm, das die Strukturen des Abbildungskopfes 100 und der Verarbeitungsvorrichtung 300 veranschaulicht. 3 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes 100 veranschaulicht, 4 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild des Abbildungskopfes 100 veranschaulicht, aus dem ein Gehäuse 90 entfernt wurde, und 5 ist eine schematische Längsschnittansicht, die den Abbildungskopf 100 in einer virtuellen Ebene VP in 3 darstellt.
  • Zunächst wird die Struktur des Abbildungskopfes 100 beschrieben. Wie in 2 dargestellt, umfasst der Abbildungskopf 100 eine Referenzkamera 110, die bewegliche Kamera 120, eine Marker-Treiberschaltung 130, eine Rotations-Treiberschaltung 140, eine Kopfsteuerschaltung 150, eine drahtlose Kommunikationsschaltung 160, eine Kommunikationsschaltung 170, eine Vogelperspektivenkamera 180 und das Bezugselement 190 als elektrische Komponenten. Diese Komponenten sind in dem in 3 dargestellten Gehäuse 90 in dem Zustand untergebracht, in dem sie von einem der Befestigungs- und Koppelabschnitte 20, einem Trägerelement 30 und einem beweglichen Element 40 getragen werden, die durch Punkt-Punkt-Strichlinien in 2 gekennzeichnet sind.
  • Wie in 3 dargestellt, umfasst das Gehäuse 90 ein Untergehäuse 91 und ein Obergehäuse 92. Wie in 3 und 5 dargestellt, ist das Untergehäuse 91 im Wesentlichen zylindrisch und erstreckt sich um einen bestimmten Abstand vom unteren Endteil des Abbildungskopfes 100 nach oben. Das Obergehäuse 92 ist oberhalb des Untergehäuses 91 vorgesehen. Das Obergehäuse 92 ist im Wesentlichen glockenförmig und zusammen mit dem nachfolgend beschriebenen Stützelement 30 (4) in einer horizontalen Ebene drehbar angeordnet.
  • Wie in 3 dargestellt, ist in einem Teil des Obergehäuses 92 ein Schlitz 93 ausgebildet, der sich in Auf/Ab-Richtung erstreckt. Der Schlitz 93 führt das abbildende Gesichtsfeld der beweglichen Kamera 120 zur Außenseite des Gehäuses 90. Zusätzlich ist im Obergehäuse 92 ein Fenster 94 für die Vogelperspektivenkamera ausgebildet. Das Fenster 94 für die Vogelperspektivenkamera führt das bildgebende Gesichtsfeld der Vogelperspektivenkamera 180 zur Außenseite des Gehäuses 90.
  • Wie in 4 und 5 dargestellt, umfasst der Befestigungs- und Koppelabschnitt 20 die untere Befestigungsplatte 21, eine obere Befestigungsplatte 22, eine Vielzahl von (beispielsweise vier) Säulen 23 und die hohle Stützwelle 24. Die untere Befestigungsplatte 21 ist scheibenförmig und wird mit Schrauben an der Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 befestigt. Die obere Befestigungsplatte 22 ist über die untere Befestigungsplatte 21 über die Vielzahl der Säulen 23 vorgesehen. Die obere Befestigungsplatte 22 ist scheibenförmig wie die untere Befestigungsplatte 21. In der Mitte der oberen Befestigungsplatte 22 ist eine kreisförmige Öffnung ausgebildet. Die hohle Stützwelle 24 wird mit Schrauben an der Oberseite der oberen Befestigungsplatte 22 befestigt, um die Öffnung in der Mitte der oberen Befestigungsplatte 22 zu umgeben. Das Untergehäuse 91 in 3 ist an einem der Elemente befestigt, die den Befestigungs- und Koppelabschnitt 20 bilden.
  • Im Befestigungs- und Koppelabschnitt 20 ist der Raum zwischen der unteren Befestigungsplatte 21 und der oberen Befestigungsplatte 22 mit verschiedenen Arten von Substraten versehen, auf denen die Dreh-Treiberschaltung 140, die Kopfsteuerschaltung 150, die drahtlose Kommunikationsschaltung 160 und die Kommunikationsschaltung 170 in 2 montiert sind. Zusätzlich ist auf der unteren Befestigungsplatte 21 die Referenzkamera 110 so vorgesehen, dass sie sich von der unteren Befestigungsplatte 21 zur Innenseite der hohlen Stützwelle 24 durch die Öffnung der oberen Befestigungsplatte 22 erstreckt, wie in 5 dargestellt. In diesem Zustand zeigt das bildgebende Gesichtsfeld der Referenzkamera 110 nach oben. In der Ausführungsform ist eine optische Achse 110c des optischen Systems der Referenzkamera 110 mit der Mittelachse der hohlen Stützwelle 24 ausgerichtet.
  • Auf der unteren Befestigungsplatte 21 und der oberen Befestigungsplatte 22 ist neben verschiedenen Substrattypen und der oben beschriebenen Referenzkamera 110 ein horizontaler Drehmechanismus 141 vorgesehen. Der horizontale Drehmechanismus 141 dient zum Drehen des Trägerelements 30, das später beschrieben wird, um die Mittelachse der hohlen Stützwelle 24 (in einer Ebene parallel zur Oberseite des Referenzständers 10). Der horizontale Drehmechanismus 141 umfasst beispielsweise einen Motor und verschiedene Arten von Kraftübertragungselementen.
  • Wie in 4 dargestellt, ist das Stützelement 30 auf der hohlen Stützwelle 24 des Befestigungs- und Koppelabschnitts 20 vorgesehen. Das Stützelement 30 umfasst die Drehbasis 31 und ein Paar Stützrahmen 32 und 33. Eine Drehbasis 31 weist in ihrer Mitte eine Öffnung auf und ist über ein Kreuzrollenlager CB (5) am oberen Endteil der Hohlstehlagerwelle 24 so montiert, dass das Stützelement 30 um die Mittelachse der Hohlstehlagerwelle 24 drehbar ist. Das Obergehäuse 92 in 3 ist an einem der Elemente montiert, die das Stützelement 30 bilden. Wenn sich das Stützelement 30 in Bezug auf die hohle Stützwelle 24 dreht, dreht sich das Obergehäuse 92 zusammen mit dem Stützelement 30 in Bezug auf das Untergehäuse 91.
  • Das Paar der Stützrahmen 32 und 33 ist so ausgebildet, dass sie sich von einer Seite und der anderen Seite der Drehbasis 31 nach oben erstrecken, während sie einander zugewandt sind. Zwischen dem Paar von Stützrahmen 32 und 33 ist das bewegliche Element 40 in einem vorgegebenen Abstand von der Drehbasis 31 vorgesehen.
  • Das bewegliche Element 40 wird von den Tragrahmen 32 und 33 um eine Drehachse 30c drehbar (in Bezug auf die horizontale Ebene neigbar) getragen, die durch die einander zugewandten Abschnitte des Stützrahmenpaares 32 und 33 verläuft. In der Ausführungsform ist die Drehachse 30c orthogonal zur optischen Achse 110c der Referenzkamera 110 (5) und zur Mittelachse der hohlen Stützwelle 24.
  • In der Nähe des oberen Endteils des einen Tragrahmens 32 ist die Vogelperspektivenkamera 180 in einem Abschnitt auf der Drehachse 30c auf einer dem beweglichen Element 40 gegenüberliegenden Seite montiert. In der Nähe des oberen Endteils des anderen Tragrahmens 33 ist ein Kippdrehmechanismus 143 in einem Abschnitt montiert, der auf der Drehachse 30c auf einer dem beweglichen Element 40 gegenüberliegenden Seite angeordnet ist. Der Kippdrehmechanismus 143 umfasst beispielsweise einen Motor und verschiedene Arten von Kraftübertragungselementen. Der Kippdrehmechanismus 143 dreht das bewegliche Element 40 um die Drehachse 30c. Dabei ist zu beachten, dass der Bereich, in dem der Kippdrehmechanismus 143 das bewegliche Element 40 drehen kann, auf beispielsweise 30 Grad oder so begrenzt ist.
  • Das bewegliche Element 40 ist in einem im Wesentlichen quadratischen Kurzzylinder ausgebildet und weist eine obere Fläche 41 und eine untere Fläche 42 auf. Die bewegliche Kamera 120 und verschiedene Arten von Substraten, die die bewegliche Kamera 120 begleiten, sind am beweglichen Element 40 befestigt. In diesem Zustand ist eine optische Achse 120c (5) des optischen Systems der beweglichen Kamera 120 parallel zur Oberseite 41 des beweglichen Elements 40.
  • Ein Substrat 43, auf dem die Markierungsantriebsschaltung 130 in 2 montiert ist, ist im oberen Endteil des beweglichen Elements 40 vorgesehen, um die Öffnung in der Mitte davon zu schließen.
  • Wie in 5 dargestellt, ist das Bezugselement 190 mit der Vielzahl von Markern ep (2) innerhalb des beweglichen Elements 40 vorgesehen. 6A ist eine schematische Längsschnittansicht, die das Bezugselement 190 in 5 und 6B eine Unteransicht, die das Bezugselement 190 darstellt.
  • Wie in den 6A und 6B dargestellt, umfasst das Bezugselement 190 ein lichtemittierendes Substrat 191, eine Diffusionsplatte 192, eine Glasplatte 193 und eine diffuse Reflexionsfolie 195. Das lichtemittierende Substrat 191, die Diffusionsplatte 192 und die Glasplatte 193 sind in dieser Reihenfolge von oben nach unten geschichtet. Die diffuse Reflexionsfolie 195 ist so vorgesehen, dass sie den äußeren Umfangsteil dieses Schichtkörpers umschließt.
  • Eine Vielzahl von lichtemittierenden Elementen L ist auf der gesamten Unterseite des lichtemittierenden Substrats 191 montiert. Die lichtemittierenden Elemente L sind beispielsweise Infrarot-LEDs (Leuchtdioden). Als lichtemittierende Elemente L können LEDs mit anderen Wellenlängen anstelle von Infrarot-LEDs oder andere Arten von lichtemittierenden Elementen wie Filamente verwendet werden. Die Marker-Treiberschaltung 130 steuert die Vielzahl der lichtemittierenden Elemente L auf dem lichtemittierenden Substrat 191. Dies bewirkt, dass die Vielzahl der lichtemittierenden Elemente L Licht emittiert.
  • Die Diffusionsplatte 192 ist ein Plattenelement, das beispielsweise aus Harz besteht und das von der Vielzahl der lichtemittierenden Elemente L abgegebene Licht nach unten durchlässt, während das Licht gestreut wird. Die diffuse Reflexionsfolie 195 ist ein streifenförmiges Plattenelement, das beispielsweise aus Harz besteht und das Licht aus der Vielzahl der lichtemittierenden Elemente L zur Seite (außen) des Bezugselements 190 nach innen reflektiert, während das Licht gestreut wird.
  • Die Glasplatte 193 ist ein Plattenelement, das beispielsweise aus Quarzglas oder Sodaglas besteht. Die Unterseite der Glasplatte 193 ist mit der Maske 194 mit einer Vielzahl von kreisförmigen Öffnungen versehen. Die Maske 194 ist eine Chrommaske, die auf der Unterseite beispielsweise der Glasplatte 193 durch ein Sputterverfahren oder ein Dampfabscheideverfahren gebildet wird.
  • In der vorstehend beschriebenen Struktur wird das von der Vielzahl der lichtemittierenden Elemente L emittierte und von der Diffusionsplatte 192 und der diffusen Reflexionsplatte 195 diffundierte Licht durch die Glasplatte 193 und die Vielzahl der kreisförmigen Öffnungen der Maske 194 vom Bezugselement 190 nach unten abgegeben. Auf diese Weise wird die Vielzahl der Selbstemissionsmarker ep gebildet, die der Vielzahl der kreisförmigen Öffnungen entspricht.
  • In der Ausführungsform, wie in 6B dargestellt, ist die Vielzahl der Marker ep in regelmäßigen Abständen in einer Matrix auf der Unterseite (Ebene) des Bezugselements 190 angeordnet. Von der Vielzahl der Marker ep werden das in der Mitte platzierte Marker ep und das in einem vorbestimmten Abstand von dem Marker ep in der Mitte beabstandete Marker ep durch Identifizierungsmarken (Punkte in diesem Beispiel) gekennzeichnet, um diese beiden Marker von den anderen Markern ep zu identifizieren. Diese Kennzeichnungen werden durch einen Teil der Maske 194 gebildet. Um diese beiden Marker ep, die durch die Identifizierungsmarken gekennzeichnet sind, von der Vielzahl der Marker ep zu unterscheiden, wird in der folgenden Beschreibung der mittlere Marker ep mit der Identifizierungsmarke als erster Marker ep1 bezeichnet. Darüber hinaus wird der andere Marker ep mit der Identifikationsmarke als zweiter Marker ep2 bezeichnet.
  • In der vorstehend beschriebenen Struktur ist das Bezugselement 190 an dem beweglichen Element 40 befestigt, so dass die Vielzahl der nach unten gerichteten Marker ep innerhalb des Bereichs des abbildenden Gesichtsfeldes der Referenzkamera 110 positioniert ist. Darüber hinaus ist das Bezugselement 190 an dem beweglichen Element 40 befestigt, so dass die erste Markierung ep1 auf der optischen Achse 110c positioniert ist, wenn die Oberseite 41 und die Unterseite 42 des beweglichen Elements 40 orthogonal zur Richtung der optischen Achse 110c der Referenzkamera 110c sind.
  • Wenn sich das Stützelement 30 auf dem Befestigungs- und Kopplungsabschnitt 20 dreht und wenn sich das bewegliche Element 40 um die Drehachse 30c dreht, wird das Bild der Vielzahl von Markierungen geändert, die beim Erfassen des Bezugselements 190 durch die Referenzkamera 110 erhalten werden.
  • Die 7A bis 7C veranschaulichen Beispiele für die Bilder der Vielzahl von Markern ep, die erhalten werden, wenn die Referenzkamera 110 das Bezugselement 190 erfasst. Da in 6B Licht aus der Vielzahl von Markern ep freigesetzt wird, erscheinen die der Vielzahl von Markern ep entsprechenden Bilder im Bild des Bezugselements 190, das vom Abbildungskopf 100 aufgenommen wurde.
  • Wenn beispielsweise das Stützelement 30 und das bewegliche Element 40 in ihren vorbestimmten Referenzhaltungen gehalten werden, wird angenommen, dass ein in 7A dargestelltes Bild 110i erhalten wird. In den Referenzhaltungen ist die Unterseite des Bezugselements 190 orthogonal zur optischen Achse 110c der Referenzkamera 110c und horizontal gehalten. In dem Bild 110i in 7A sind Markerbilder d.h. Bilder, die der Vielzahl von Markern ep entsprechen, in einer Matrix wie in der Vielzahl von tatsächlichen Markern ep in 6B angeordnet. Zusätzlich ist das dem ersten Marker ep1 in 6B entsprechende Markerbild iep1 im mittleren Teil des Bildes entsprechend der Mitte des Gesichtsfeldes der Referenzkamera 110 dargestellt. Darüber hinaus wird ein Markierungsbild iep2, das dem zweiten Marker ep2 in 6B entspricht, in einer Position dargestellt, die in einem vorgegebenen Abstand vom Markierungsbild iep1 beabstandet ist.
  • Wenn sich das Stützelement 30 von der Referenzhaltung aus dreht, ändern sich die Abstände zwischen der Vielzahl von Markern ep und der Referenzkamera 110 nicht wesentlich. In dieser Drehung, wie in 7B dargestellt, dreht sich die Vielzahl der Markierungsbilder d.h. um den zentralen Teil des Bildes. In diesem Fall kann der Drehwinkel des Stützelements 30 aus der Referenzhaltung basierend auf der Positionsbeziehung zwischen den beiden Markerbildern iep1 und iep2 ermittelt werden.
  • Wenn sich das bewegliche Element 40 von der Referenzhaltung aus dreht, ändern sich die Abstände zwischen der Vielzahl von Markern ep und der Referenzkamera 110 einzeln. So werden beispielsweise die Abstände zwischen Teilen der Vielzahl von Markern ep und der Referenzkamera 110 kleiner und die Abstände zwischen anderen Teilen der Vielzahl von Markern ep und der Referenzkamera 110 größer. Dementsprechend, wenn sich beispielsweise das bewegliche Element 40 von der Referenzhaltung in dem Zustand dreht, in dem das Stützelement 30 in der Rotationsposition gehalten wird, die dem Bild 110i in 7B entspricht, wird die Anordnung der Vielzahl von Markierungsbildern verzerrt, wie in 7C dargestellt. In diesem Fall kann der Drehwinkel des beweglichen Elements 40 aus der Referenzhaltung basierend auf der Positionsbeziehung aller Markerbilder iep einschließlich der beiden Markerbilder iep1 und iep2 erhalten werden. Hierbei ist zu beachten, dass der Drehwinkelbereich des beweglichen Elements 40 wie vorstehend beschrieben relativ klein ist (ca. 30 Grad). Daher ändert sich die Positionsbeziehung zwischen den beiden Markerbildern iep1 und iep2 auch bei Drehung des beweglichen Elements 40 nicht wesentlich.
  • Wie vorstehend beschrieben, sind die bewegliche Kamera 120 und das Bezugselement 190 ganzheitlich an dem beweglichen Element 40 befestigt. Dementsprechend können die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 basierend auf den Bilddaten (im Folgenden als Referenzbilddaten bezeichnet) berechnet werden, die durch Erfassen der Vielzahl von Markern ep des Bezugselements 190 mit der Referenzkamera 110 erhalten werden.
  • Zwischen dem beweglichen Element 40 und der Rotationsbasis 31 ist ein Balgen 50 vorgesehen, um einen Abbildungsraum rs (5) einschließlich des Bildgebungssichtfeldes der Referenzkamera 110 von der Referenzkamera 110 zum Bezugselement 190 von der Außenseite des Abbildungsraums rs räumlich zu blockieren.
  • Der obere Endteil des Balges 50 ist mit der Unterseite 42 des beweglichen Elements 40 und der untere Endteil des Balges 50 mit der Oberseite des Drehgestells 31 gekoppelt. Wenn sich das Stützelement 30 in der horizontalen Ebene dreht, dreht sich demnach auch der Balg 50 zusammen mit dem Stützelement 30.
  • Darüber hinaus ist der Balgen 50 in diesem Beispiel in einer im Wesentlichen quadratischen Säule ausgebildet und, wenn der Kippdrehmechanismus 143 das bewegliche Element 40 dreht, nach der Drehung verformt, wodurch der optische und räumliche Blockzustand des Abbildungsraums rs erhalten bleibt. Wenn der Balg 50 nach der Drehung des beweglichen Elements 40 verformt wird, ist der Balg 50 außerdem so vorgesehen, dass er das abbildende Gesichtsfeld der Referenzkamera 110 nicht stört.
  • Diese Struktur verhindert, dass Licht von der Außenseite des Abbildungsraums rs in den Abbildungsraum rs gelangt. Darüber hinaus wird selbst bei Erwärmung eines Motors oder dergleichen um den Abbildungsraum rs herum verhindert, dass die erzeugte Wärme in den Abbildungsraum rs eintritt. Dadurch wird verhindert, dass die Atmosphäre des Abbildungsraums rs schwankt. Da die Vielzahl der Marker ep mit hoher Genauigkeit erfasst wird, können die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 mit hoher Genauigkeit berechnet werden.
  • Darüber hinaus wird in der oben beschriebenen Struktur, da der Innenraum des Balges 50 räumlich vom Außenraum blockiert ist, die Atmosphäre des Innenraums des Balges 50 stabilisiert. Dementsprechend kann die außerhalb des Balgens 50 vorgesehene Wärmequelle durch einen Ventilator oder dergleichen zwangsgekühlt werden.
  • Dabei ist zu beachten, dass die dem Abbildungsraum rs zugewandte Innenfläche des Balges 50 vorzugsweise mit einer Farbe oder einem Material konfiguriert ist, das ein geringes Lichtreflexionsvermögen aufweist und Licht absorbiert. So kann beispielsweise die Farbe der Innenfläche des Balges 50 schwarz sein. Alternativ kann die Innenfläche des Balges 50 durch ein nicht reflektierendes Material konfiguriert werden, das das Licht nicht reflektiert. Alternativ kann die Innenfläche des Balges 50 mit einem nicht reflektierenden Material beschichtet werden. Dadurch wird verhindert, dass das von der Vielzahl der Marker ep abgegebene Licht von der Innenfläche des Balges 50 unregelmäßig reflektiert wird. Dementsprechend kann die Vielzahl der Marker ep mit hoher Genauigkeit erfasst werden.
  • Im Abbildungskopf 100 ist, wie in 4 dargestellt, die bewegliche Kamera 120 vorzugsweise so vorgesehen, dass sich der Schwerpunkt der beweglichen Kamera 120 einem Schnittpunkt GC zwischen der optischen Achse 110c der Referenzkamera 110 und der Drehachse 30c nähert. In diesem Fall, da der Schwerpunkt der beweglichen Kamera 120 näher am Schnittpunkt GC liegt, wird die Drehung des Stützelements 30 um die optische Achse 110c stabiler und die Drehung des beweglichen Elements 40 um die Drehachse 30c stabiler. Darüber hinaus kann die zum Drehen des Stützelements 30 und des beweglichen Elements 40 erforderliche Antriebskraft reduziert werden. Dadurch wird die Belastung der Antriebseinheiten, wie beispielsweise des Motors, reduziert.
  • Wie in 4 dargestellt, ist die Vogelperspektivenkamera 180 auf dem Tragrahmen 32 so angeordnet, dass ihr abbildendes Gesichtsfeld in die gleiche oder im Wesentlichen gleiche Richtung wie das abbildende Gesichtsfeld der beweglichen Kamera 120 ausgerichtet ist. Der Blickwinkel der Vogelperspektivenkamera 180 ist größer als der Blickwinkel der Referenzkamera 110 und der beweglichen Kamera 120. Dementsprechend ist das abbildende Gesichtsfeld der Vogelperspektivenkamera 180 größer als die abbildenden Gesichtsfelder der Referenzkamera 110 und der beweglichen Kamera 120. Dabei ist zu beachten, dass der Blickwinkel der beweglichen Kamera 120 so eingestellt ist, dass er beispielsweise einen Kreisbereich mit einem Durchmesser von etwa 15 cm an einer Position von 1,5 Metern von der beweglichen Kamera 120 entfernt liegt.
  • Bei der Tracking-Verarbeitung, die später beschrieben wird, wird die Vogelperspektivenkamera 180 verwendet, um die Sonde 200 über einen weiten Bereich aufzunehmen. Auch wenn beispielsweise die Sonde 200 durch die Bewegung der Sonde 200 vom abbildenden Gesichtsfeld der beweglichen Kamera 120 abweicht, kann durch die Aufnahme der Sonde 200 mit der Vogelperspektivenkamera 180 die ungefähre Position der Sonde 200 basierend auf den Bilddaten (im Folgenden Vogelperspektive-Bilddaten genannt) durch die Aufnahme festgelegt werden. Die Position und Haltung der beweglichen Kamera 120 wird basierend auf der vorgegebenen Position so eingestellt, dass die Sonde 200 im abbildenden Gesichtsfeld der beweglichen Kamera 120 positioniert ist.
  • Wie in 2 dargestellt, sind die Referenzkamera 110, die bewegliche Kamera 120, die Marker-Treiberschaltung 130, die Dreh-Treiberschaltung 140, die drahtlose Kommunikationsschaltung 160 und die Kommunikationsschaltung 170 mit der Kopfsteuerschaltung 150 verbunden. Die Kopfsteuerschaltung 150 umfasst eine CPU (Zentrale Recheneinheit) und einen Speicher oder einen Mikrocomputer und steuert die Referenzkamera 110, die bewegliche Kamera 120, die Marker-Treiberschaltung 130 und die Dreh-Treiberschaltung 140.
  • Jede der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 umfasst einen CMOS-Bildsensor (komplementärer Metalloxidfilm-Halbleiter), der Infrarotlicht als Bildelement erfassen kann. Darüber hinaus umfasst jede der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 eine Vielzahl von Objektiven (optische Systeme), die nicht dargestellt sind.
  • Wie vorstehend beschrieben, geben die Pixel der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 die analogen elektrischen Signale (im Folgenden Lichtempfangssignale genannt) entsprechend der Erfassungsgröße der Kopfsteuerschaltung 150 aus.
  • Ein A/D-Wandler (Analog-Digital-Wandler) und ein FIFO-Speicher (First-in-First-out), die nicht dargestellt sind, sind auf der Kopfsteuerschaltung 150 montiert. Die von der Referenzkamera 110, der beweglichen Kamera 120 und der Vogelperspektivenkamera 180 ausgegebenen lichtempfindlichen Signale werden vom A/D-Wandler der Kopfsteuerschaltung 150 in einer konstanten Abtastzeit abgetastet und in digitale Signale umgewandelt. Die vom A/D-Wandler ausgegebenen digitalen Signale werden nacheinander im FIFO-Speicher gesammelt. Die im FIFO-Speicher angesammelten digitalen Signale werden nacheinander als Pixeldaten an die Verarbeitungsvorrichtung 300 übertragen.
  • Die Marker-Treiberschaltung 130 treibt das lichtemittierende Substrat 191 in 6A unter Steuerung der Kopfsteuerschaltung 150 an. Dies bewirkt, dass die Vielzahl der lichtemittierenden Elemente L auf dem lichtemittierenden Substrat 191 Licht emittiert und die Vielzahl der Marker eq des Bezugselements 190 Licht freisetzt. Dabei ist zu beachten, dass sich diese Lichtemissionszeit mit der Aufnahmezeit der Referenzkamera 110 synchronisiert.
  • Die Dreh-Treiberschaltung 140 treibt den horizontalen Drehmechanismus 141 in 4 unter Steuerung der Kopfsteuerschaltung 150 an. Dadurch wird das Stützelement 30 in 4 am Befestigungs- und Koppelabschnitt 20 gedreht und das bewegliche Element 40 und das Obergehäuse 92 (3). Zu diesem Zeitpunkt, da sich das bewegliche Element 40 dreht, dreht sich das bildgebende Gesichtsfeld der beweglichen Kamera 120, die von der Innenseite zur Außenseite des Obergehäuses 92 durch den Schlitz 93 (3) eingeführt wird, in horizontaler Richtung auf dem Referenzständer 10 in 1.
  • Darüber hinaus treibt die Rotations-Treiberschaltung 140 den Neigungsdrehantrieb 143 in 4 unter Steuerung der Kopfsteuerschaltung 150 an. Dadurch wird das bewegliche Element 40 in 4 um die Drehachse 30c zwischen dem Paar der Stützrahmen 32 und 33 gedreht. Zu diesem Zeitpunkt dreht sich das abbildende Gesichtsfeld der beweglichen Kamera 120, die durch den Schlitz 93 (3) hindurchgeht, in Aufwärts-Richtung entlang des Schlitzes 93 auf dem Referenzständer 10 in 1. Die Drehung des bildgebenden Gesichtsfeldes der beweglichen Kamera 120 durch die Rotations-Treiberschaltung 140 erfolgt auf der Grundlage einer Tracking-Verarbeitung, die später von der Verarbeitungsvorrichtung 300 beschrieben wird.
  • Die Kopfsteuerschaltung 150 führt eine drahtlose Kommunikation mit der Sonde 200 über die drahtlose Kommunikationsschaltung 160 durch. Darüber hinaus führt die Kopfsteuerschaltung 150 eine drahtgebundene Kommunikation mit der Verarbeitungsvorrichtung 300 über die Kommunikationsschaltung 170 und das Kabel CA durch (1).
  • Wie in 2 dargestellt, umfasst die Verarbeitungsvorrichtung 300 eine Kommunikationsschaltung 301, eine Hauptkörper-Steuerschaltung 302 und einen Hauptkörperspeicher 303. Die Kommunikationsschaltung 301 und der Hauptkörperspeicher 303 sind mit der Hauptsteuerschaltung 302 verbunden. Darüber hinaus sind eine Hauptkörperbedieneinheit 320 und eine Hauptkörper-Anzeigeeinheit 310 mit dem Hauptkörpersteuerkreis 302 verbunden.
  • Der Hauptkörperspeicher 303 umfasst ein ROM (Read-only Memory), ein RAM (Random Access Memory) und eine Festplatte. Der Hauptkörperspeicher 303 speichert ein Messverarbeitungsprogramm und ein Tracking-Verarbeitungsprogramm, das später zusammen mit einem Systemprogramm beschrieben wird. Darüber hinaus wird der Hauptkörperspeicher 303 verwendet, um verschiedene Arten von Daten zu verarbeiten oder verschiedene Arten von Daten zu speichern, wie beispielsweise Pixeldaten, die vom Abbildungskopf 100 ausgegeben werden.
  • Die Hauptkörper-Steuerschaltung 302 umfasst eine CPU. In der Ausführungsform werden die Hauptkörper-Steuerschaltung 302 und der Hauptkörperspeicher 303 durch einen Personalcomputer erreicht. Die Hauptkörper-Steuerschaltung 302 erzeugt Bilddaten basierend auf Pixeldaten, die vom Abbildungskopf 100 über das Kabel CA (1) und die Kommunikationsschaltung 301 ausgegeben werden. Die Bilddaten sind ein Satz, der eine Vielzahl von Pixeldaten enthält.
  • In den Ausführungsformen, die am Abbildungskopf 100 vorgesehen sind, werden Referenzbilddaten, Messbilddaten und Vogelperspektivbilddaten entsprechend der Referenzkamera 110, der beweglichen Kamera 120 bzw. der Vogelperspektivkamera 180 erzeugt. Zusätzlich werden Bilddaten entsprechend einer Sonden-Kamera 208 erzeugt, die später beschrieben werden, die auf der Sonde 200 bereitgestellt werden. Die Hauptkörper-Steuerschaltung 302 berechnet die Position des Kontaktteils 211a (1) der Sonde 200 basierend auf den Referenzbilddaten und den Messbilddaten.
  • Die Hauptkörper-Anzeigeeinheit 310 ist beispielsweise durch eine Flüssigkristallanzeigetafel oder eine organische EL (Elektrolumineszenz)-Platte konfiguriert. Die Hauptkörper-Anzeigeeinheit 310 zeigt die Koordinaten von Messpunkten auf dem Messziel S, die Messergebnisse einzelner Abschnitte des Messziels S und dergleichen unter Steuerung der Hauptkörper-Steuerschaltung 302 an. Darüber hinaus zeigt die Hauptkörperanzeige 310 einen Einstellbildschirm an, auf dem verschiedene Einstellungen zur Messung vorgenommen werden.
  • Die Hauptbedieneinheit 320 umfasst eine Tastatur und eine Zeigevorrichtung. Die Zeigevorrichtung umfasst eine Maus, einen Joystick oder dergleichen. Die Hauptbedieneinheit 320 wird von der Benutzerin U bedient.
  • Aufbau der Sonde 200
  • 8 ist ein Blockdiagramm, das die Struktur der Sonde 200 veranschaulicht. 9 ist eine perspektivische Ansicht, die das äußere Erscheinungsbild der Sonde 200 veranschaulicht. Wie in 8 dargestellt, umfasst die Sonde 200 eine Sonden-Steuereinheit 201, eine Anzeigelampe 202, eine Batterie 203, eine Marker-Treiberschaltung 204, einen Sonden-Speicher 205, eine drahtlose Kommunikationsschaltung 206, einen Bewegungssensor 207, die Sonden-Kamera 208, eine Sonden-Bedieneinheit 221, eine Touchpanel-Anzeige 230 und eine Vielzahl von (in diesem Beispiel drei) Zielelementen 290 als elektrische Komponenten.
  • Die Batterie 203 versorgt andere in der Sonde 200 vorgesehene Komponenten mit elektrischer Energie. Die Sonden-Steuereinheit 201 umfasst eine CPU und einen Speicher oder einen Mikrocomputer und steuert die Anzeigelampe 202, die Marker-Treiberschaltung 204, die Sonden-Kamera 208 und die Touchpanel-Anzeige 230. Darüber hinaus führt die Sonden-Steuereinheit 201 verschiedene Arten von Verarbeitungen als Reaktion auf die Bedienung der Sonden-Steuereinheit 221 und der Touchpanel-Anzeige 230 durch die Benutzerin U durch.
  • Wie durch eine Punkt-Punkt-Strichlinie in 8 dargestellt, weist die Sonde 200 ein Sonden-Gehäuse 210 auf, das die oben beschriebenen Komponenten aufnimmt oder trägt, sowie ein Griffteil 220. Die Sonden-Steuereinheit 201, die Anzeigelampe 202, die Batterie 203, die Marker-Treiberschaltung 204, der Sonden-Speicher 205, die drahtlose Kommunikationsschaltung 206, der Bewegungssensor 207 und die Sonden-Kamera 208 sind im Sonden-Gehäuse 210 untergebracht. Die Vielzahl der Zielelemente 290 ist auf einem oberen Oberflächenteil 210c (9) des Sonden-Gehäuses 210 vorgesehen, das später beschrieben wird. Die Sonden-Bedieneinheit 221 ist eine Taste, die gedrückt und im Griffteil 220 vorgesehen sein kann.
  • Die Touchpanel-Anzeige 230 umfasst eine Sonden-Anzeigeeinheit 231 und ein Touchpanel 232. Die Sonden-Anzeigeeinheit 231 wird beispielsweise durch eine Flüssigkristallanzeigetafel oder eine organische EL-Platte konfiguriert.
  • Die Anzeigelampe 202 umfasst beispielsweise eine oder mehrere LEDs und ein lichtemittierender Abschnitt davon ist so vorgesehen, dass er der Außenseite des Sonden-Gehäuses 210 ausgesetzt ist. Die Anzeigelampe 202 emittiert Licht entsprechend dem Zustand der Sonde 200 unter Steuerung des Sonden-Steuergerätes 201.
  • Die drei Zielelemente 290 haben im Wesentlichen die gleiche Struktur wie das Bezugselement 190 in den 6A und 6B. Die Marker-Treiberschaltung 204 ist mit der Vielzahl von Zielelementen 290 verbunden und steuert eine Vielzahl von lichtemittierenden Elementen, die in den Zielelementen 290 enthalten sind, unter Steuerung der Sonden-Steuereinheit 201.
  • Der Sonden-Speicher 205 umfasst ein Aufzeichnungsmedium, wie beispielsweise einen nichtflüchtigen Speicher oder eine Festplatte. Der Sonden-Speicher 205 wird verwendet, um verschiedene Arten von Daten zu verarbeiten oder verschiedene Arten von Daten zu speichern, wie beispielsweise Bilddaten, die vom Abbildungskopf 100 ausgegeben werden.
  • Der Bewegungssensor 207 erfasst die Bewegung der Sonde 200, wenn sich beispielsweise die Benutzerin U bewegt, während sie die Sonde 200 trägt. So erfasst der Bewegungssensor 207 beispielsweise die Bewegungsrichtung, die Beschleunigung, die Haltung und dergleichen, wenn sich die Sonde 200 bewegt. Die Sonden-Kamera 208 ist beispielsweise eine CCD-Kamera (charge-coupled device).
  • In der Sonden-Steuereinheit 201 sind neben der CPU und dem Speicher oder dem vorstehend beschriebenen Mikrorechner auch ein A/D-Wandler und ein FIFO-Speicher eingebaut, die nicht dargestellt sind. Dementsprechend werden in der Sonden-Steuereinheit 201 Signale, die die vom Bewegungssensor 207 erfasste Bewegung der Sonde 200 anzeigen, in Daten vom digitalen Signaltyp (im Folgenden Bewegungsdaten genannt) umgewandelt. Darüber hinaus wandelt die Sonden-Steuereinheit 201 lichtempfindliche Signale, die von Pixeln der Sonden-Kamera 208 ausgegeben werden, in eine Vielzahl von Pixeldaten des digitalen Signaltyps um. Die Sonden-Steuereinheit 201 überträgt über die drahtlose Kommunikation die digitalen Bewegungsdaten und die Vielzahl von Pixeldaten über die drahtlose Kommunikationsschaltung 206 an den Abbildungskopf 100 in 2. In diesem Fall werden die Bewegungsdaten und die Vielzahl von Pixeldaten weiter an die Verarbeitungsvorrichtung 300 vom Abbildungskopf 100 übertragen.
  • Wie in 9 dargestellt, ist das Sonden-Gehäuse 210 so ausgebildet, dass es sich in eine Richtung erstreckt und weist einen vorderen Endteil 210a, einen hinteren Endteil 210b, den oberen Oberflächenteil 210c und einen unteren Oberflächenteil 210d auf. Das untere Oberflächenteil 210d ist mit dem Griffteil 220 versehen. Das Griffteil 220 ist so ausgebildet, dass es sich parallel zum Sonden-Gehäuse 210 erstreckt. Die Sonden-Bedieneinheit 221 ist im Teil des Griffteils 220 nahe dem hinteren Endteil 210b des Sonden-Gehäuses 210 vorgesehen.
  • Das hintere Endteil 210b des Sonden-Gehäuses 210 ist mit dem Touchpanel-Display 230 ausgestattet. Das vordere Endteil 210a ist mit einem Stift 211 versehen. Der Stift 211 ist ein stabförmiges Element mit dem Kontaktteil 211a an seiner Spitze. Das vordere Endteil 210a hat weiterhin die Sonden-Kamera 208.
  • Der obere Oberflächenteil 210c des Sonden-Gehäuses 210 ist mit den drei Zielelementen 290 versehen, die vom vorderen Endteil 210a bis zum hinteren Endteil 210b angeordnet sind. Von den drei Zielelementen 290 in diesem Beispiel weist das Zielelement 290, das dem Frontendteil 210a am nächsten liegt, drei Marker eq auf. Jedes der beiden verbleibenden Zielelemente 290 weist die beiden Marker eq. Die Marker eq sind Selbstemissionsmarker, die Infrarotlicht emittieren. Dabei ist zu beachten, dass der Emissionszeitpunkt der Vielzahl von Markern eq mit dem Erfassungszeitpunkt der beweglichen Kamera 120 des Abbildungskopfes 100 synchronisiert ist.
  • Die Benutzerin U greift das Griffteil 220 so, dass das obere Oberflächenteil 210c des Sonden-Gehäuses 210 dem Abbildungskopf 100 zugewandt ist. In diesem Zustand bringt die Benutzerin U das Kontaktteil 211a mit einem gewünschten Teil des Messziels S in Kontakt. Darüber hinaus bedient die Benutzerin U die Sonden-Bedieneinheit 221 und die Touchpanel-Anzeige 230 und erkennt dabei visuell ein auf der Touchpanel-Anzeige 230 angezeigtes Bild.
  • Verfahren zum Berechnen der Koordinaten eines Messpunktes
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 ist gemäß der Ausführungsform ein dreidimensionales Koordinatensystem (im Folgenden als Gerätekoordinatensystem bezeichnet) mit einer vorgegebenen Beziehung zur Referenzkamera 110 vorgegeben. Darüber hinaus speichert der Hauptkörperspeicher 303 der Verarbeitungsvorrichtung 300 im Voraus die relative Positionsbeziehung der Vielzahl von Markern ep im Bezugselement 190.
  • Wie vorstehend beschrieben, erfasst die Referenzkamera 110 die Vielzahl von Markern ep des Bezugselements 190. In diesem Fall berechnet die Hauptkörper-Steuerschaltung 302 in 2 die Koordinaten der Marker ep im Gerätekoordinatensystem basierend auf den durch die Erfassung erhaltenen Referenzbilddaten und der Positionsbeziehung der Vielzahl von Markern ep im Hauptkörperspeicher 303. Zu diesem Zeitpunkt wird die Vielzahl von Markern ep des Bezugselements 190 basierend auf den ersten und zweiten Markern ep1 und ep2 identifiziert.
  • Danach erzeugt die Hauptkörper-Steuerschaltung 302 basierend auf den berechneten Koordinaten der Vielzahl von Markern ep als erste Positions-/Haltungsinformation die Informationen, die die Position und die Haltung der beweglichen Kamera 120 anzeigen, die am Bezugselement 190 im Gerätekoordinatensystem befestigt ist.
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 ist gemäß der Ausführungsform zusätzlich zu dem vorstehend beschriebenen Gerätekoordinatensystem ein dreidimensionales Koordinatensystem (im Folgenden als bewegliches Koordinatensystem bezeichnet) mit einer vorgegebenen Beziehung zur beweglichen Kamera 120 vordefiniert. Darüber hinaus speichert der Hauptkörperspeicher 303 der Verarbeitungsvorrichtung 300 im Voraus die relative Positionsbeziehung der Vielzahl von Markern eq der Sonde 200.
  • Wie vorstehend beschrieben, erfasst die bewegliche Kamera 120 die Vielzahl der Marker eq der Sonde 200. In diesem Fall berechnet die Hauptkörper-Steuerschaltung 302 in 2 die Koordinaten der Marker eq im beweglichen Koordinatensystem basierend auf den durch die Erfassung erhaltenen Messbilddaten und der Positionsbeziehung der Vielzahl von Markern eq im Hauptkörperspeicher 303.
  • Danach erzeugt die Hauptkörper-Steuerschaltung 302 die Informationen, die die Position und die Haltung der Sonde 200 als zweite Positions-/Haltungsinformation basierend auf den berechneten Koordinaten der Vielzahl von Markern eq.
  • Die Referenzkamera 110 ist am Referenzständer 10 befestigt. Daher ändert sich das Gerätekoordinatensystem nicht, während das Messziel S gemessen wird. Im Gegensatz dazu ist die bewegliche Kamera 120 drehbar angeordnet, so dass das abbildende Gesichtsfeld der Bewegung der Sonde 200 folgt. Dementsprechend ändert sich die Beziehung zwischen dem Gerätekoordinatensystem und dem beweglichen Koordinatensystem, wenn sich die bewegliche Kamera 120 dreht.
  • Dementsprechend erzeugt die Hauptkörper-Steuerschaltung 302 in der Ausführungsform die dritte Positions-/Haltungsinformation, die die Position und die Haltung der Sonde 200 im Gerätekoordinatensystem basierend auf den ersten und zweiten Positions-/Haltungsinformationen anzeigt. Das heißt, die Hauptkörper-Steuerschaltung 302 berechnet die Beziehung des beweglichen Koordinatensystems zum Gerätekoordinatensystem basierend auf den ersten Positions-/Haltungsinformationen und wandelt die zweiten Positions-/Haltungsinformationen in Informationen um, die dem Gerätekoordinatensystem basierend auf der berechneten Beziehung folgen. Dadurch wird die dritte Positions-/Haltungsinformation erzeugt.
  • Danach berechnet die Hauptkörper-Steuerschaltung 302 die Koordinate des von der Sonde 200 angezeigten Messpunktes basierend auf der erzeugten dritten Position/Haltungsinformation und der Positionsbeziehung zwischen der Vielzahl von Markern eq und dem Kontaktteil 211a der Sonde 200.
  • Beispiel für eine Messung
  • Die Sonden-Bedieneinheit 221 in 9 wird von der Benutzerin U gedrückt, um die Koordinaten eines Messpunktes zu berechnen. So drückt beispielsweise die Benutzerin U die Sonden-Bedieneinheit 221 in dem Zustand, in dem das Kontaktteil 211a mit einem gewünschten Teil des Messziels S in Kontakt kommt. In diesem Fall werden die Koordinaten des Teils des Messziels S, der mit dem Kontaktteil 211a in Kontakt steht, als Koordinaten des Messpunkts berechnet. Die berechneten Koordinaten des Messpunktes werden als Messergebnis im Hauptkörperspeicher 303 gespeichert und auf der Sonden-Anzeigeeinheit 231 und der Hauptkörper-Anzeigeeinheit 310 angezeigt.
  • In der dreidimensionalen Koordinatenmessvorrichtung 1 kann die Benutzerin U die gewünschten Messbedingungen für das Messziel S einstellen, indem sie die Hauptkörperbedieneinheit 320 in 2 oder die Touchpanel-Anzeige 230 in 8 bedient.
  • Insbesondere wählt die Benutzerin U das geometrische Element und das Messobjekt des Messziels S aus. Das geometrische Element stellt die geometrische Form des Teils des zu messenden Messziels S dar. Die geometrische Form ist ein Punkt, eine Gerade, eine Ebene, ein Kreis, ein Zylinder, eine Kugel oder dergleichen. Darüber hinaus stellt die Messgröße die Art einer physikalischen Größe des zu messenden Messziels S dar, wie beispielsweise eine Entfernung, ein Winkel oder eine Ebenheit.
  • Nach der Auswahl des geometrischen Elements und des Messobjekts weist die Benutzerin U einen oder mehrere Messpunkte des ausgewählten geometrischen Elements mit der Sonde 200 an. Dadurch werden Informationen (im Folgenden als Element spezifizierende Informationen bezeichnet) erzeugt, die das ausgewählte geometrische Element angeben, das durch einen oder mehrere Messpunkte auf dem Messziel S im Gerätekoordinatensystem spezifiziert ist. Danach wird der Wert des für das erzeugte Element ausgewählten Messpunktes unter Angabe von Informationen berechnet.
  • Wenn die Benutzerin U beispielsweise den Abstand zwischen einer ersten Oberfläche und einer zweiten Oberfläche (des Messziels S) messen möchte, die parallel zueinander und einander gegenüberliegend sind, wählt die Benutzerin U die geometrischen Elemente „Ebene 1“ und „Ebene 2“. Zusätzlich wählt die Benutzerin U einen Messpunkt „Entfernung“ aus.
  • In diesem Fall weist die Benutzerin U eine Vielzahl von Punkten (in diesem Beispiel drei oder mehr Punkte) auf der ersten Oberfläche des Messziels S als Messpunkte mit der Sonde 200 an, um die Ebene (erste Oberfläche) auf dem Messziel S entsprechend dem geometrischen Element „Ebene 1“ festzulegen. Dadurch wird das Element erzeugt, das Informationen spezifiziert, die dem geometrischen Element „Ebene 1“ entsprechen.
  • Um zusätzlich die Ebene (zweite Oberfläche) auf dem Messziel S entsprechend dem geometrischen Element „Ebene 2“ festzulegen, weist die Benutzerin U eine Vielzahl von Punkten (in diesem Beispiel drei oder mehr Punkte) auf der zweiten Oberfläche des Messziels S als Messpunkte mit der Sonde 200 an. Dadurch wird das Element erzeugt, das Informationen spezifiziert, die dem geometrischen Element „Ebene 2“ entsprechen.
  • Danach wird der Abstand zwischen der ersten Oberfläche und der zweiten Oberfläche des Messziels S, das dem Messwert „Abstand“ entspricht, basierend auf dem Element berechnet, das Informationen angibt, die den geometrischen Elementen „Ebene 1“ entsprechen, und dem Element, das Informationen angibt, die der „Ebene 2“ entsprechen.
  • Das berechnete Messergebnis wird im Hauptkörperspeicher 303 gespeichert und auf der Sonden-Anzeigeeinheit 231 und der Hauptkörper-Anzeigeeinheit 310 angezeigt.
  • Messwertverarbeitung
  • 10 ist ein Flussdiagramm, das einen Fluss der Messverarbeitung durch den Hauptkörper-Steuerkreis 302 in 2 darstellt. Die Messverarbeitung in 10 wird zu einem vorbestimmten Zeitpunkt wiederholt, indem die CPU der Hauptkörper-Steuerschaltung 302 in 2 veranlasst wird, das im Hauptkörperspeicher 303 gespeicherte Messverarbeitungsprogramm auszuführen. Darüber hinaus wird zu Beginn der Messwertverarbeitung der im Hauptsteuerkreis 302 enthaltene Timer zurückgesetzt und anschließend gestartet.
  • Zunächst entscheidet der Hauptsteuerkreis 302, ob das geometrische Element und das Messobjekt ausgewählt wurden, basierend auf dem Vorhandensein oder Fehlen des Betriebs der Hauptkörperbedieneinheit 320 in 2 oder der Touchpanel-Anzeige 230 in 8 durch die Benutzerin U (Schritt S11).
  • Wenn das geometrische Element und das Messobjekt ausgewählt wurden, setzt die Hauptkörper-Steuerschaltung 302 das ausgewählte geometrische Element und das Messobjekt als Messbedingungen, indem sie das geometrische Element und das Messobjekt im Hauptkörperspeicher 303 in 2 (Schritt S12) speichert. Danach kehrt der Hauptkörper-Steuerkreis 302 zur Verarbeitung in Schritt S11 zurück.
  • Wenn das geometrische Element und das Messobjekt in Schritt S11 nicht ausgewählt wurden, entscheidet die Hauptkörper-Steuerschaltung 302, ob das geometrische Element und das Messobjekt eingestellt sind (Schritt S13). Wenn das geometrische Element und das Messobjekt eingestellt sind, entscheidet die Hauptkörper-Steuerschaltung 302, ob ein Befehl zum Starten der Messung des Messziels S empfangen wurde (Schritt S14). Diese Entscheidung wird beispielsweise aufgrund des Vorhandenseins oder Fehlens der Bedienung der Hauptkörperbedieneinheit 320 oder der Touchpanel-Anzeige 230 durch die Benutzerin U getroffen.
  • Wenn der Befehl zum Starten der Messung des Messziels S empfangen wurde, führt die Hauptsteuerschaltung 302 die Berechnung der Messpunktkoordinaten durch (Schritt S15). Details zur Verarbeitung der Messpunktkoordinatenberechnung werden später beschrieben. Diese Verarbeitung veranlasst die Hauptkörper-Steuerschaltung 302, die Koordinaten der Messpunkte zu berechnen, die das ausgewählte geometrische Element basierend auf der Bedienung der Sonde 200 durch die Benutzerin spezifizieren.
  • Die Hauptkörper-Steuerschaltung 302 speichert im Hauptkörperspeicher 303 die Koordinaten eines oder mehrerer Messpunkte, die durch die Verarbeitung der Messpunktkoordinatenberechnung in Schritt S15 (Schritt S16) berechnet wurden.
  • Anschließend entscheidet die Hauptkörper-Steuerschaltung 302, ob ein Befehl zum Beenden der Messung des Messziels S empfangen wurde (Schritt S17). Diese Entscheidung wird beispielsweise aufgrund des Vorhandenseins oder Fehlens der Bedienung der Hauptkörperbedieneinheit 320 oder der Touchpanel-Anzeige 230 durch die Benutzerin U getroffen.
  • Wenn der Befehl zum Beenden der Messung nicht empfangen wurde, kehrt der Hauptkörper-Steuerkreis 302 zu der oben beschriebenen Verarbeitung in Schritt S15 zurück. Im Gegensatz dazu erzeugt die Hauptkörper-Steuerschaltung 302 nach Empfang des Befehls zum Beenden der Messung aus den Koordinaten eines oder mehrerer im Hauptkörperspeicher 303 gespeicherter Messpunkte bei der Verarbeitung in Schritt S16 unmittelbar davor das Element, das Informationen für den geometrischen Elementsatz spezifiziert (Schritt S18).
  • Danach berechnet die Hauptkörper-Steuerschaltung 302 den Wert des Messobjekts, das basierend auf dem Element gesetzt wurde, das die in der Verarbeitung in Schritt S18 (Schritt S19) erzeugten Informationen spezifiziert, und beendet die Messverarbeitung. Wenn bei der Entscheidung in Schritt S13 eine Vielzahl von geometrischen Elementen (beispielsweise zwei Ebenen oder dergleichen) eingestellt wird, wird die oben beschriebene Verarbeitung in den Schritten S14 bis S18 für jedes der eingestellten geometrischen Elemente durchgeführt.
  • Wenn das geometrische Element und das Messobjekt in Schritt S13 nicht eingestellt wurden und der Befehl zum Starten der Messung des Messziels S in Schritt S14 nicht empfangen wurde, entscheidet die Hauptkörper-Steuerschaltung 302 anhand der Messzeit durch den eingebauten Timer (Schritt S20), ob nach Beginn der Messverarbeitung eine vorbestimmte Zeit verstrichen ist.
  • Wenn die vorbestimmte Zeit nicht abgelaufen ist, kehrt der Hauptkörper-Steuerkreis 302 zur Verarbeitung in Schritt S11 zurück. Im Gegensatz dazu führt die Hauptkörper-Steuerschaltung 302 nach Ablauf der vorgegebenen Zeit die Verarbeitung der Messpunktkoordinatenberechnung durch, die später wie bei der Verarbeitung in Schritt S15 beschrieben wird (Schritt S21). Danach beendet die Hauptkörper-Steuerschaltung 302 die Messwertverarbeitung.
  • Dabei ist zu beachten, dass die Verarbeitung in Schritt S21 durchgeführt wird, um beispielsweise zu entscheiden, ob die Sonde 200 im bildgebenden Gesichtsfeld der beweglichen Kamera 120 oder der Vogelperspektivenkamera 180 in der Tracking-Verarbeitung vorhanden ist, was später beschrieben wird.
  • 11 ist ein Flussdiagramm, das einen Fluss der Verarbeitung der Messpunktkoordinatenberechnung veranschaulicht. Zunächst weist die Hauptkörper-Steuerschaltung 302 die Sonden-Steuereinheit 201 der Sonde 200 an, Licht aus der Vielzahl von Markern eq zu emittieren (9) und weist die Kopfsteuerschaltung 150 des Abbildungskopfes 100 an, Licht aus der Vielzahl von Markern ep (6B) des Bezugselements 190 zu emittieren (Schritt S101).
  • Anschließend erzeugt die Hauptkörper-Steuerschaltung 302 Referenzbilddaten, indem sie die Kopfsteuerschaltung 150 veranlasst, die Vielzahl von Markern ep des Bezugselements 190 mit der Referenzkamera 110 aufzunehmen (Schritt S102). Darüber hinaus erzeugt die Hauptkörper-Steuerschaltung 302 basierend auf den erzeugten Referenzbilddaten die erste Positions-/Haltungsinformation, die die Position und die Haltung der beweglichen Kamera 120 im Gerätekoordinatensystem anzeigt (Schritt S103).
  • Anschließend erzeugt die Hauptkörper-Steuerschaltung 302 Messbilddaten, indem sie die Vielzahl von Markern eq der Sonde 200 mit der beweglichen Kamera 120 erfasst (Schritt S104). Zusätzlich erzeugt die Hauptkörper-Steuerschaltung 302 basierend auf den erzeugten Messbilddaten die zweite Positions-/Haltungsinformation, die die Position und die Haltung der Sonde 200 im beweglichen Koordinatensystem anzeigt (Schritt S105).
  • Danach erzeugt die Hauptkörper-Steuerschaltung 302 basierend auf den ersten und zweiten Positions-/Haltungsinformationen die dritten Positions-/Haltungsinformationen, die die Position und die Haltung der Sonde 200 im Gerätekoordinatensystem anzeigen (Schritt S106). Darüber hinaus berechnet die Hauptkörper-Steuerschaltung 302 die Koordinaten des von der Sonde 200 angezeigten Messpunktes basierend auf den erzeugten dritten Positions-/Haltungsinformationen.
  • Dabei ist zu beachten, dass die Verarbeitung in den oben beschriebenen Schritten S102 und S103 und die Verarbeitung in den Schritten S104 und S105 in umgekehrter Reihenfolge erfolgen kann.
  • Gemäß der vorstehend beschriebenen Messverarbeitung kann die Benutzerin U leicht eine gewünschte physikalische Größe des Messziels S messen, indem sie ein gewünschtes geometrisches Element und einen gewünschten Messgegenstand aus der Vielzahl der vorgegebenen geometrischen Elemente und der Vielzahl der vorgegebenen Messgegenstände auswählt.
  • Tracking-Verarbeitung
  • 12 ist ein Flussdiagramm, das einen Fluss der Tracking-Verarbeitung durch den Hauptkörper-Steuerkreis 302 in 2 darstellt. Die Tracking-Verarbeitung in 12 wird zu einem vorbestimmten Zeitpunkt wiederholt, indem die CPU der Hauptkörper-Steuerschaltung 302 in 2 veranlasst wird, das im Hauptkörperspeicher 303 gespeicherte Tracking-Verarbeitungsprogramm auszuführen.
  • Zunächst entscheidet die Hauptkörper-Steuerschaltung 302, ob die Sonde 200 im abbildenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist (Schritt S31). Diese Entscheidung wird durchgeführt, indem entschieden wird, ob die während der Verarbeitung in Schritt S15 und Schritt S21 in der Messverarbeitung erzeugten Messbilddaten die Bilddaten umfassen, die der Vielzahl von Markern eq.
  • Wenn sich die Sonde 200 im bildgebenden Gesichtsfeld der beweglichen Kamera 120 befindet, fährt die Hauptkörper-Steuerschaltung 302 mit der Verarbeitung in Schritt S38 fort, die später beschrieben wird. Im Gegensatz dazu, wenn die Sonde 200 nicht im abbildenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist, entscheidet die Hauptkörper-Steuerschaltung 302, ob sich die Sonde 200 im abbildenden Gesichtsfeld der Vogelperspektivenkamera 180 befindet (Schritt S32). Diese Entscheidung wird getroffen, indem entschieden wird, ob die während der Verarbeitung in Schritt S15 und Schritt S21 in der vorstehend beschriebenen Messverarbeitung erzeugten Bilddaten aus der Vogelperspektivenkamera die Bilddaten der Vielzahl von Markern eq entsprechen.
  • Wenn sich die Sonde 200 im bildgebenden Gesichtsfeld der Vogelperspektivenkamera 180 befindet, fährt die Hauptkörper-Steuerschaltung 302 mit der Verarbeitung in Schritt S37 fort, die später beschrieben wird. Im Gegensatz dazu, wenn die Sonde 200 nicht im bildgebenden Gesichtsfeld der beweglichen Kamera 120 vorhanden ist, entscheidet die Hauptkörper-Steuerschaltung 302, ob die Koordinatenschätzung der Sonde 200 basierend auf den von der Sonde 200 übertragenen Bewegungsdaten aktiviert wird (Schritt S33). Diese Entscheidung wird beispielsweise dadurch getroffen, ob die Bewegungsdaten einen abnormalen Wert anzeigen oder ob der durch die Bewegungsdaten angezeigte Wert Null ist. Wenn die Bewegungsdaten einen abnormalen Wert anzeigen oder wenn die Bewegungsdaten Null sind, wird die Koordinatenschätzung der Sonde 200 aktiviert.
  • Wenn die Koordinatenschätzung der Sonde 200 aktiviert ist, schätzt die Hauptkörper-Steuerschaltung 302 die Position der Sonde 200 basierend auf den Bewegungsdaten. Darüber hinaus weist die Hauptkörper-Steuerschaltung 302 die Einstellung der Position und der Haltung der beweglichen Kamera 120 so an, dass die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S34). Danach kehrt der Hauptkörper-Steuerkreis 302 zur Verarbeitung in Schritt S31 zurück.
  • Hier kann die Benutzerin U den Hauptkörper-Steuerkreis 302 anweisen, nach der Sonde 200 zu suchen, indem sie die Hauptkörper-Bedieneinheit 320 in 2 oder die Touchpanel-Anzeige 230 in 8 bedient.
  • Wenn die Koordinatenschätzung der Sonde 200 in Schritt S33 deaktiviert ist, entscheidet die Hauptsteuerschaltung 302, ob ein Befehl zur Suche nach der Sonde 200 empfangen wurde (Schritt S35). Wenn der Befehl zur Suche nach der Sonde 200 nicht empfangen wurde, kehrt die Hauptkörper-Steuerschaltung 302 zur Verarbeitung in Schritt S31 zurück. Im Gegensatz dazu, wenn der Befehl zum Suchen nach der Sonde 200 empfangen wurde, weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, das Stützelement 30 des Abbildungskopfes 100 zu drehen. Auf diese Weise sucht die Hauptkörper-Steuerschaltung 302 mit der Vogelperspektivenkamera 180 nach der Sonde 200 (Schritt S36).
  • Danach, wenn die Sonde 200 innerhalb des bildgebenden Gesichtsfeldes der Vogelperspektivenkamera 180 positioniert ist, berechnet die Hauptkörper-Steuerschaltung 302 die Position der Sonde 200 basierend auf den Bilddaten der Vogelperspektive. Darüber hinaus weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, die Position und die Haltung der beweglichen Kamera 120 so einzustellen, dass die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S37).
  • Als nächstes, wenn die Sonde 200 innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist, weist die Hauptkörper-Steuerschaltung 302 die Kopfsteuerschaltung 150 an, die Position und die Haltung der beweglichen Kamera 120 so einzustellen, dass das Baryzentrum der Vielzahl von Markern eq der Sonde 200 in der Mitte des abbildenden Gesichtsfeldes der beweglichen Kamera 120 positioniert ist (Schritt S38). Danach beendet die Hauptkörper-Steuerschaltung 302 die Tracking-Verarbeitung.
  • Gemäß der vorstehend beschriebenen Tracking-Verarbeitung folgt das abbildende Gesichtsfeld der beweglichen Kamera 120 auch bei einer Bewegung der Sonde 200 der Vielzahl von Markern eq der Sonde 200. Daher muss die Benutzerin U das bildgebende Gesichtsfeld der beweglichen Kamera 120 nicht manuell einstellen. Dementsprechend können die Koordinaten eines gewünschten Messpunktes des Messziels S über einen weiten Bereich gemessen werden, ohne dass eine aufwändige Justierung erforderlich ist.
  • Anwendungsbeispiel der Sonden-Kamera 208
  • Ein Bild des Messziels S kann auf der Hauptkörper-Anzeigeeinheit 310 in 2 angezeigt werden, indem das Messziel S mit der Sonden-Kamera 208 in 8 erfasst wird. Ein von der Sonden-Kamera 208 erhaltenes Bild wird im Folgenden als aufgenommenes Bild bezeichnet.
  • Die Positionsbeziehung zwischen der Vielzahl von Markern eq der Sonde 200 und der Sonden-Kamera 208 und den Eigenschaften (Blickwinkel, Verzerrung und dergleichen) der Sonden-Kamera 208 werden im Voraus als Abbildungsinformationen beispielsweise im Hauptkörperspeicher 303 in 2 gespeichert. Wenn also die Vielzahl von Markern eq innerhalb des abbildenden Gesichtsfeldes der beweglichen Kamera 120 vorhanden ist, wird der von der Sonden-Kamera 208 erfasste Bereich von der Hauptkörper-Steuerschaltung 302 in 2 erkannt. Das heißt, der dem aufgenommenen Bild entsprechende dreidimensionale Raum wird von der Hauptkörper-Steuerschaltung 302 erkannt. In diesem Fall ist es möglich, das geometrische Element und das zum Zeitpunkt der Messung des Messziels S eingestellte Messobjekt zu überlagern und das aufgenommene Bild auf der Hauptanzeige 310 anzuzeigen.
  • Dabei ist zu beachten, dass das aufgenommene Bild auf dem Touchpanel-Display 230 der Sonde 200 angezeigt werden kann. So zeigt beispielsweise die Touch-Panel-Anzeige 230 ein aufgenommenes Bild an, das durch Erfassen eines Teils eines bestimmten Messziels S erhalten wurde, das mit der Sonden-Kamera 208 im Voraus gemessen werden soll. In diesem Fall kann die Benutzerin U den zu messenden Abschnitt eines anderen Messziels S leicht identifizieren, indem sie die Sonde 200 bedient und dabei das aufgenommene Bild visuell erkennt.
  • Effekte
  • (1) In der vorstehend beschriebenen dreidimensionalen Koordinatenmessvorrichtung 1 ist der Referenzständer 10 auf der Bodenfläche vorgesehen. Da die Referenzkamera 110 am Befestigungsabschnitt 11 des Referenzständers 10 befestigt ist, ist der Einbauzustand stabil. Dementsprechend ist es möglich, die ersten Positions-/Haltungsinformationen, die die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 anzeigen, mit hoher Genauigkeit zu erzeugen, indem die Marker ep des Bezugselements 190 mit der Referenzkamera 110 erfasst werden.
  • Die bewegliche Kamera 120 ist gegenüber dem Befestigungsabschnitt 11 des Referenzständers 10 drehbar. In diesem Fall wird durch Drehen der beweglichen Kamera 120 der von der beweglichen Kamera 120 erfassbare Bereich erweitert, ohne das Sichtfeld der beweglichen Kamera 120 zu erweitern. Dementsprechend ist es möglich, die zweite Positions-/Haltungsinformation, die die Position und die Haltung der Sonde 200 in Bezug auf die bewegliche Kamera 120 anzeigt, mit hoher Genauigkeit zu erzeugen, indem die Vielzahl von Markern eq der Sonde 200 mit der beweglichen Kamera 120 erfasst wird.
  • Dementsprechend können die dritten Positions-/Haltungsinformationen, die die Position und die Haltung der Sonde 200 in Bezug auf die Referenzkamera 110 anzeigen, mit hoher Genauigkeit basierend auf den ersten und zweiten Positions-/Haltungsinformationen erzeugt werden.
  • Darüber hinaus sind in der vorstehend beschriebenen Struktur die Referenzkamera 110, die bewegliche Kamera 120 und das Bezugselement 190 im Gehäuse 90 untergebracht. Daher ist es weniger wahrscheinlich, dass Staub und Störlicht in den Raum um die Referenzkamera 110, die bewegliche Kamera 120 und das Bezugselement 190 gelangen. Dementsprechend wird die Zuverlässigkeit der dritten Positions-/Haltungsinformation verbessert.
  • Basierend auf den erzeugten dritten Positions-/Haltungsinformationen werden die Koordinaten des Messpunktes auf dem Messziel S berechnet. Dadurch können Koordinaten über einen großen Bereich mit hoher Genauigkeit und hoher Zuverlässigkeit gemessen werden.
  • (2) In dem vorstehend beschriebenen Abbildungskopf 100 ist die Referenzkamera 110 am Referenzständer 10 so befestigt, dass das bildgebende Gesichtsfeld der Referenzkamera 110 nach oben zeigt. Dadurch wird die Referenzkamera 110 einfach und stabil auf dem Referenzständer 10 befestigt.
  • Andere Ausführungsformen
  • (1) Obwohl jede der Vielzahl von Markern ep des Bezugselements 190 eine planare Kreisform in der vorstehend beschriebenen Ausführungsform aufweist, ist die Erfindung nicht auf dieses Beispiel beschränkt. Im Bezugselement 190 müssen die Position und die Haltung der beweglichen Kamera 120 nur auf der Grundlage der Bilddaten berechnet werden, die durch die Aufnahme mit der Referenzkamera 110 erhalten wurden.
  • Die Form jedes der Marker ep ist nicht auf eine planare kreisförmige Form beschränkt und kann eine planare polygonale Form, eine planare elliptische Form, eine planare Sternform oder eine sphärische Form sein. Alternativ kann das Bezugselement 190 beispielsweise mit einer Vielzahl von linearen Markem versehen sein, die in einem Gitter gebildet sind, mit ringförmigen Markern oder mit codierten Markern versehen sein.
  • (2) In der vorstehend beschriebenen Ausführungsform weist jede der Vielzahl von Markern ep des Bezugselements 190 eine Selbstemissionsstruktur auf, in der die Vielzahl von lichtemittierenden Elementen L Licht durch Lichtemission freisetzt, wobei die vorliegende Erfindung nicht auf dieses Beispiel beschränkt ist. Jeder der Marker ep kann eine retroreflektierende Struktur aufweisen. In diesem Fall, wenn die Referenzkamera 110 die Vielzahl von Markern ep erfasst, müssen die Marker ep mit Licht bestrahlt werden.
  • (3) In der vorstehend beschriebenen Ausführungsform wird die bewegliche Kamera 120 mit einem zyklopischen Auge als bewegliche Abbildungseinheit zur Aufnahme der Sonde 200 verwendet, wobei die Erfindung nicht auf dieses Beispiel beschränkt ist. Eine Verbund-Augenkamera kann als bewegliche Abbildungseinheit verwendet werden.
  • (4) In der vorstehend beschriebenen Ausführungsform wird die Referenzkamera 110 mit einem zyklopischen Auge als Referenzbildeinheit zum Erfassen der Vielzahl von Markern ep des Bezugselements 190 verwendet, wobei die Erfindung nicht auf dieses Beispiel beschränkt ist. Eine Verbund-Augenkamera kann als Referenzbildeinheit verwendet werden.
  • (5) In der vorstehend beschriebenen Ausführungsform ist die Referenzkamera 110 so vorgesehen, dass ihre optische Achse 110c orthogonal zur Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 verläuft, aber die Erfindung ist nicht auf dieses Beispiel beschränkt. Die Referenzkamera 110 kann so vorgesehen sein, dass ihre optische Achse 110c in Bezug auf die Oberseite des Befestigungsabschnitts 11 des Referenzständers 10 geneigt ist.
  • (6) In der dreidimensionalen Koordinatenmessvorrichtung 1 gemäß der vorstehend beschriebenen Ausführungsform ist die Vogelperspektivenkamera 180 am Trägerelement 30 befestigt, die Vogelperspektivenkamera 180 kann jedoch am Befestigungs- und Koppelabschnitt 20 befestigt werden. In diesem Fall hat die Vogelperspektivenkamera 180 wünschenswert einen größeren Blickwinkel, da sich die Vogelperspektivenkamera 180 beim Drehen des Trägerelements 30 nicht in horizontaler Richtung dreht. Alternativ muss die Vogelperspektivenkamera 180 nicht vorgesehen sein. In diesem Fall wird die Struktur der dreidimensionalen Koordinatenmessvorrichtung 1 vereinfacht und die Anzahl der Komponenten reduziert.
  • (7) In der dreidimensionalen Koordinatenmessvorrichtung 1 gemäß der vorstehend beschriebenen Ausführungsform ist die bewegliche Kamera 120 so konfiguriert, dass ihr bildgebendes Gesichtsfeld durch den Schwenkdrehmechanismus 143 in Auf/Ab-Richtung bewegt werden kann, wobei die vorliegende Erfindung nicht auf dieses Beispiel beschränkt ist. Der Kippdrehmechanismus 143 muss nicht vorgesehen sein. In diesem Fall dreht sich das abbildende Gesichtsfeld der beweglichen Kamera 120 nur in horizontaler Richtung um die optische Achse 110c der Referenzkamera 110.
  • (8) In der vorstehend beschriebenen Ausführungsform ist der Balgen 50 vorgesehen, um den Abbildungsraum rs (5) einschließlich des abbildenden Gesichtsfeldes der Referenzkamera 110 von der Außenseite des Abbildungsraums rs optisch und räumlich zu blockieren, die Erfindung ist nicht auf das Beispiel beschränkt.
  • Zwischen dem beweglichen Element 40 und der Rotationsbasis 31 kann anstelle des Balges 50 ein vorhangartiges weiches Material vorgesehen sein, das den Abbildungsraum rs optisch und räumlich von der Außenseite des Abbildungsraums rs blockieren kann. So kann beispielsweise Stoff oder Gummi als Weichteil verwendet werden. In diesem Fall muss das weiche Material so bereitgestellt werden, dass es das abbildende Gesichtsfeld der Referenzkamera 110 beim Drehen des beweglichen Elements 40 nicht stört.
  • (9) In der vorstehend beschriebenen Ausführungsform ist der Balgen 50 so vorgesehen, dass er den Abbildungsraum rs (5) einschließlich des Abbildungsgesichtsfeldes der Referenzkamera 110 optisch und räumlich von der Außenseite des Abbildungsraums rs blockiert, wobei die Erfindung nicht auf dieses Beispiel beschränkt ist.
  • Wenn das Gehäuse 90 das Eindringen von Licht in den Abbildungsraum rs von der Außenseite des Abbildungsraums rs ausreichend unterdrückt, muss der Abbildungsraum rs nicht optisch von der Außenseite des Abbildungsraums rs blockiert werden. Darüber hinaus muss der Abbildungsraum rs nicht räumlich von der Außenseite des Abbildungsraums rs blockiert werden, wenn die Temperaturatmosphäre im Gehäuse 90 in einem einheitlichen und stabilen Zustand gehalten wird. Dementsprechend muss der Balgen 50 in diesen Fällen nicht unbedingt vorgesehen sein.
  • (10) In der vorstehend beschriebenen Ausführungsform ist die Unterseite des Bezugselements 190 durch eine ebene Fläche konfiguriert. Die Erfindung ist nicht auf dieses Beispiel beschränkt und die Unterseite des Bezugselements 190 kann durch eine oder mehrere Schritte und eine Vielzahl von ebenen Oberflächen konfiguriert werden. In diesem Fall kann durch Anordnen der Vielzahl von Markierungen, die auf wenigstens einer der Vielzahl von ebenen Oberflächen ep sind, die Position und die Haltung der beweglichen Kamera 120 in Bezug auf die Referenzkamera 110 wie in dem oben beschriebenen Beispiel berechnet werden.
  • Korrespondenz zwischen den Komponenten der Ansprüche und den Abschnitten der Ausführungsform
  • Obwohl im Folgenden das Beispiel der Übereinstimmung der Komponenten von Ansprüchen und Teilen der Ausführungsform beschrieben wird, ist die Erfindung nicht auf das folgende Beispiel beschränkt.
  • In der vorstehend beschriebenen Ausführungsform ist die Vielzahl von Markern eq der Sonde 200 ein Beispiel für die Vielzahl von Messmarkern, der Referenzständer 10 ist ein Beispiel für die Referenzbasis, die Referenzkamera 110 ist ein Beispiel für die Referenzbildeinheit und die bewegliche Kamera 120 ist ein Beispiel für die bewegliche Abbildungseinheit.
  • Darüber hinaus ist die Vielzahl der Markierungen ep des Bezugselements 190 ein Beispiel für die Referenzmarkierung, die Hauptkörper-Steuerschaltung 302 ist ein Beispiel für die Berechnungseinheit und die Messeinheit, die Oberseite 41 des beweglichen Elements 40 ist ein Beispiel für den Befestigungsabschnitt, und der Balg 50 ist ein Beispiel für das Raumsperrelement und das Lichtschutzorgan, die Dreh-Treiberschaltung 140 ist ein Beispiel für die Drehantriebseinheit, und die Kopfsteuerschaltung 150 und die Hauptkörper-Steuerschaltung 302 sind Beispiele für die Drehantriebseinheit.
  • Darüber hinaus sind das Touch-Panel-Display 230, die Sonden-Steuereinheit 201, die Hauptkörperbedieneinheit 320 und die Hauptkörper-Steuerschaltung 302 Beispiele für die Annahmeeinheit.
  • Als Komponenten der Ansprüche können auch andere verschiedene Elemente mit der in den Ansprüchen beschriebenen Struktur oder Funktion verwendet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015194452 A [0003]

Claims (9)

  1. Dreidimensionale Koordinatenmessvorrichtung, umfassend: eine Sonde, die eine Vielzahl von Messmarkern aufweist und einen Messpunkt auf einem Messziel anweist; eine auf einer Montagefläche vorgesehene Referenzbasis; eine bewegliche Abbildungseinheit, die drehbar auf der Referenzbasis gelagert ist, die konfiguriert ist zum Erfassen eines Bildes einer Vielzahl von Messmarkern der Sonde, um Messbilddaten zu erzeugen, die das Bild der Vielzahl von Messmarkern anzeigen; eine Referenzmarkierung, die zusammen mit der beweglichen Abbildungseinheit auf der Referenzbasis drehbar gelagert ist; eine Referenzbildeinheit, die an der Referenzbasis befestigt ist, die konfiguriert ist, um ein Bild der Referenzmarke aufzunehmen, um Referenzbilddaten zu erzeugen, die das Bild der Referenzmarke anzeigen; ein Gehäuse, in dem die Referenzbildeinheit, die bewegliche Abbildungseinheit und die Referenzmarke untergebracht sind; und eine Recheneinheit, die erste Positions-/Haltungsinformationen erzeugt, die eine Position und eine Haltung der beweglichen Abbildungseinheit basierend auf den Referenzbilddaten anzeigen, zweite Positions-/Haltungsinformationen erzeugt, die eine Position und eine Haltung der Sonde in Bezug auf die bewegliche Abbildungseinheit basierend auf den Messbilddaten anzeigen, dritte Positions-/Haltungsinformationen erzeugt, die eine Position und eine Haltung der Sonde in Bezug auf die Referenzbildeinheit basierend auf den erzeugten ersten und zweiten Positions-/Haltungsinformationen anzeigen, und Koordinaten des von der Sonde angezeigten Messpunktes basierend auf den erzeugten dritten Positions-/Haltungsinformationen berechnet.
  2. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, des Weiteren umfassend: ein bewegliches Element, das in Bezug auf die Referenzbasis drehbar vorgesehen ist, wobei die bewegliche Abbildungseinheit an dem beweglichen Element befestigt ist, wobei die Referenzmarke auf wenigstens einer der beweglichen Abbildungseinheiten und dem beweglichen Element vorgesehen ist.
  3. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 2, wobei das bewegliche Element einen Befestigungsabschnitt aufweist, an dem die bewegliche Abbildungseinheit befestigt ist, wobei die Referenzmarke auf dem beweglichen Element so angebracht ist, dass sie einer dem Befestigungsabschnitt gegenüberliegenden Seite zugewandt ist, und wobei die Referenzbildeinheit auf einer Seite angeordnet ist, die der beweglichen Abbildungseinheit in Bezug auf das bewegliche Element gegenüberliegt.
  4. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 3, wobei die Referenzbildeinheit an der Referenzbasis so befestigt ist, dass ein abbildendes Gesichtsfeld der Referenzbildeinheit nach oben zeigt und wobei das bewegliche Element oberhalb der Referenzbildeinheit vorgesehen ist.
  5. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, des Weiteren umfassend: ein Raumblockierelement, das räumlich einen Abbildungsraum blockiert, der ein Abbildungsgesichtsfeld der Referenzbildgebungseinheit von der Referenzbildgebungseinheit bis zum Referenzmarker von einer Außenseite des Abbildungsraums umfasst.
  6. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, des Weiteren umfassend: ein lichtblockierendes Element, das den Abbildungsraum einschließlich des abbildenden Gesichtsfeldes der Referenzbildeinheit von der Referenzbildeinheit bis zum Referenzmarker von der Außenseite des Abbildungsraums optisch blockiert.
  7. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, wobei die Referenzbasis einen Befestigungsabschnitt aufweist, an dem die Referenzbildeinheit befestigt ist, und wobei ein Beinabschnitt, der das Befestigungsabschnitt auf der Montagefläche trägt.
  8. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, des Weiteren umfassend: eine Drehantriebseinheit, die die bewegliche Abbildungseinheit in Bezug auf die Referenzbasis dreht; und eine Rotationssteuereinheit, die die Rotationsantriebseinheit so steuert, dass die Vielzahl von Messmarkern in einem bildgebenden Gesichtsfeld der beweglichen Abbildungseinheit positioniert ist.
  9. Dreidimensionale Koordinatenmessvorrichtung nach Anspruch 1, des Weiteren umfassend: eine Annahmeeinheit, die ein geometrisches Element und ein Messobjekt akzeptiert, das aus einer Vielzahl von vorbestimmten geometrischen Elementen und einer Vielzahl von vorbestimmten Messobjekten ausgewählt ist; und eine Messeinheit, die einen Wert des ausgewählten Messelements bezüglich des ausgewählten geometrischen Elements berechnet, das durch einen oder mehrere Messpunkte im Messziel spezifiziert ist, basierend auf dem geometrischen Element und dem von der übernehmenden Einheit akzeptierten Messelement und den Koordinaten eines oder mehrerer von der Berechnungseinheit berechneter Messpunkte.
DE102019211488.1A 2018-08-01 2019-08-01 Dreidimensionale Koordinatenmessvorrichtung Pending DE102019211488A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-145463 2018-08-01
JP2018145463A JP7257113B2 (ja) 2018-08-01 2018-08-01 三次元座標測定装置

Publications (1)

Publication Number Publication Date
DE102019211488A1 true DE102019211488A1 (de) 2020-02-06

Family

ID=69168535

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019211488.1A Pending DE102019211488A1 (de) 2018-08-01 2019-08-01 Dreidimensionale Koordinatenmessvorrichtung

Country Status (3)

Country Link
US (1) US10739126B2 (de)
JP (1) JP7257113B2 (de)
DE (1) DE102019211488A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020138345A1 (ja) * 2018-12-27 2021-11-04 日本電気通信システム株式会社 物品位置管理装置、物品位置管理システム、物品位置管理方法及びプログラム
JP7211891B2 (ja) * 2019-05-17 2023-01-24 株式会社キーエンス 三次元座標測定装置
CN210725068U (zh) * 2019-11-12 2020-06-09 武汉联一合立技术有限公司 智能摄影系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01219510A (ja) * 1988-02-26 1989-09-01 Matsushita Electric Ind Co Ltd 動きベクトル検出装置
JPH05145823A (ja) * 1991-11-25 1993-06-11 Matsushita Electric Ind Co Ltd 動体追尾装置
JP2000122125A (ja) * 1998-10-16 2000-04-28 Casio Comput Co Ltd 撮影装置
JP4914068B2 (ja) * 2006-01-11 2012-04-11 キヤノン株式会社 駆動装置、電子機器、制御方法、及びプログラム
US8629905B2 (en) * 2008-02-12 2014-01-14 Trimble Ab Localization of a surveying instrument in relation to a ground mark
EP2381214B1 (de) * 2010-04-22 2020-06-10 Metronor A/S Optisches Messsystem
JP2014516409A (ja) * 2011-04-15 2014-07-10 ファロ テクノロジーズ インコーポレーテッド レーザトラッカの改良位置検出器
EP2607846B1 (de) * 2011-12-19 2017-08-23 Kabushiki Kaisha TOPCON Vermessungsgerät
EP2620745A1 (de) * 2012-01-30 2013-07-31 Hexagon Technology Center GmbH Vermessungssystem mit einem Vermessungsgerät und einem Scanmodul
JP6325896B2 (ja) 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325871B2 (ja) 2014-03-28 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6325877B2 (ja) 2014-04-18 2018-05-16 株式会社キーエンス 光学式座標測定装置
JP6316663B2 (ja) 2014-05-30 2018-04-25 株式会社キーエンス 座標測定装置
JP6670161B2 (ja) 2016-04-27 2020-03-18 株式会社キーエンス 光学式三次元座標測定器及びその計測方法
JP6722502B2 (ja) 2016-04-27 2020-07-15 株式会社キーエンス 三次元座標測定器
JP6722522B2 (ja) * 2016-06-24 2020-07-15 株式会社キーエンス 三次元測定装置及びその制御方法

Also Published As

Publication number Publication date
US20200041250A1 (en) 2020-02-06
JP7257113B2 (ja) 2023-04-13
JP2020020699A (ja) 2020-02-06
US10739126B2 (en) 2020-08-11

Similar Documents

Publication Publication Date Title
DE102020205516A1 (de) Dreidimensionale koordinatenmessvorrichtung
DE102019211488A1 (de) Dreidimensionale Koordinatenmessvorrichtung
DE602005000530T2 (de) Teleskopsystem mit automatischem Höhe-Azimut Ortungsgestell und Methoden für dessen Kalibrierung
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
EP4303618A2 (de) Laserscanner
DE102008024462B4 (de) Interaktives Bildsystem, interaktive Vorrichtung und Betriebsverfahren derselben
DE102018129143A1 (de) Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon
EP2821750A1 (de) Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
DE202014011422U1 (de) Optisches Navigations- und Positionierungssystem
EP2918972A2 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP2726816B1 (de) Konstruktionsvermessungsgerät zum verfolgen, vermessen und markieren von kanten und eckpunkten aneinandergrenzender oberflächen
EP1517117A1 (de) Verfahren und System zur Bestimmung einer Aktualposition eines Positionierungsgerätes
EP3346230B1 (de) Vorrichtung und verfahren zur erfassung einer drahtkrümmung
CH695121A5 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter.
DE102015206988A1 (de) Optische Koordinatenmesseinrichtung
EP2663836B1 (de) Vermessungsgerät mit einer dynamischen anzielfunktionalität und zugehöriges verfahren
DE102017210765A1 (de) Messvorrichtung
EP1127245B1 (de) Vorrichtung zur bestimmung der räumlichen koordinaten von gegenständen
DE102017207092A1 (de) Dreidimensionale Koordinatenmesseinrichtung
DE102021113391A1 (de) Koordinatenmessgerät mit sichttaster zum durchführen von messvorgängen des typs punkte-aus-fokus
DE102016200877A1 (de) System zum Messen einer dreidimensionalen Position
DE102015205616A1 (de) Optische Koordinatenmesseinrichtung
EP2825907B1 (de) Kamerasystem mit einem zoomobjektiv und einem linearencoder
DE10341822A1 (de) Verfahren und Anordnung zur photogrammetrischen Messbildaufnahme und -verarbeitung
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum