DE102015000386A1 - Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium - Google Patents

Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium Download PDF

Info

Publication number
DE102015000386A1
DE102015000386A1 DE102015000386.0A DE102015000386A DE102015000386A1 DE 102015000386 A1 DE102015000386 A1 DE 102015000386A1 DE 102015000386 A DE102015000386 A DE 102015000386A DE 102015000386 A1 DE102015000386 A1 DE 102015000386A1
Authority
DE
Germany
Prior art keywords
pattern
captured image
image
projected
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015000386.0A
Other languages
English (en)
Other versions
DE102015000386B4 (de
Inventor
Toshihiro c/o CANON KABUSHIKI KAISHA Kobayashi
Tomoaki c/o CANON KABUSHIKI KAISHA Higo
Masayoshi c/o CANON KABUSHIKI KAISHA Yamasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102015000386A1 publication Critical patent/DE102015000386A1/de
Application granted granted Critical
Publication of DE102015000386B4 publication Critical patent/DE102015000386B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2536Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Ein erstes Bild eines Raums wird erfasst, auf den ein aus hellen und dunklen Bereichen gebildetes erstes Lichtmuster sowie ein auf jede Region des durch das erste Muster aufgeteilten Raums projiziertes Koordinatendetektionsmuster projiziert worden sind. Ein zweites Bild des Raums wird erfasst, auf den ein zweites Lichtmuster, das eine Grenzposition zwischen hellen und dunklen Bereichen besitzt, die verschieden von der des ersten Musters ist, sowie ein auf jede Region des durch das zweite Muster aufgeteilten Raums projiziertes Koordinatendetektionsmuster projiziert worden sind. Eines aus dem ersten Bild und zweiten Bild wird ausgewählt, um Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts basierend auf dem Auswahlbild durchzuführen.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Technik zum Messen der dreidimensionalen Form eines Messzielobjekts.
  • Beschreibung des Standes der Technik
  • Eine Vorrichtung zum dreidimensionalen Messen ist weit bekannt, die dreidimensionale Koordinaten durch das Triangulierungsprinzip erhält basierend auf einer Position, wo eine Bildaufnahmeeinheit Reflexionslicht beobachtet, wenn eine Projektionseinheit wie etwa ein Projektor ein durch ein Raumcodierverfahren oder dergleichen verkörpertes gestreiftes Muster auf einen Messgegenstand projiziert. Mit so einer Vorrichtung hängt die Messgenauigkeit von dreidimensionalen Koordinaten in hohem Maße vom Material eines Messgegenstands ab.
  • Im allgemeinen verschlechtert sich für einen aus einem Material wie etwa Kunststoff oder dergleichen gemachten Messgegenstand die Messgenauigkeit oder die Messung selbst wird unmöglich aufgrund eines Untergrundstreuung oder interne Streuung genannten Phänomens. Zum Messzeitpunkt so eines Gegenstands ist eine Bearbeitung des Gegenstands zum Beispiel durch im Voraus Anwenden eines weißen Pulvers oder dergleichen an der Oberfläche des Gegenstands erforderlich, wodurch die Anwendungsmöglichkeiten der Vorrichtung zum dreidimensionalen Messen beträchtlich begrenzt wird.
    Patentdokument 1 ( Japanische Patentoffenlegungsschrift Nr. 2008-281399 ) offenbart ein Verfahren zum genauen Messen der dreidimensionalen Form eines zu messenden lichtdurchlässigen Objekts durch Bereitstellen einer linear polarisierenden Platte in einem Strahlengang, um Oberflächenreflexionslicht und intern gestreutes Licht zu trennen.
    Patentdokument 2 ( Japanische Patentoffenlegungsschrift Nr. 2012-251893 ) offenbart ein Verfahren zum Schätzen der Reflexionspositionskoordinaten eines Objekts durch im Voraus Projizieren eines Muster auf einen Messgegenstand, um ein Referenzluminanzmuster zu erfassen, sowie Vergleichen eines zum Zeitpunkt der Messung beobachten Luminanzmusters mit dem Referenzluminanzmuster. Dieses Verfahren ist nicht auf ein lichtdurchlässiges Objekt beschränkt, und es ist möglich Messen einer dreidimensionalen Form mit hoher Genauigkeit ungeachtet der Reflexionscharakteristik eines Objekts durchzuführen.
    Nichtpatentdokument 1 (Tongbo Chen, Hans-Peter Seidel, Hendrik P. A. Lensch, Modulated phase-shifting for 3D scanning, CVPR 2008) schlägt ein Verfahren zum Messen einer dreidimensionalen Form, das kaum durch interne Streuung beeinflusst wird, durch Modulieren eines sinusförmigen Musters in einem Phasenverschiebungsverfahren mit einem hochfrequenten sinusförmigen Muster vor.
    Nichtpatentdokument 2 (Tatsuhiko Furuse, Shinsaku Hiura, und Kosuke Sato, "3-D Shape Measurement Method with Modulated Slit Light Robust for Interreflection and Subsurface Scattering", MIRU2009, Meeting an Image Recognition and Understanding) schlägt ein Verfahren zum Messen einer dreidimensionalen Form, das kaum durch interne Streuung beeinflusst wird, durch Modulieren von schlitzförmigen Licht mit eine M-Sequenz beinhaltenden Hochfrequenzkomponenten vor.
  • Im in Patentdokument 1 beschriebenen Verfahren muss jedoch die geometrische Beziehung zwischen einer Lichtquelle, einer Lichtempfangseinheit und einer Messzieloberfläche eine gegebene Bedingung erfüllen, um Oberflächenreflexionslicht und intern gestreutes Licht mittels Polarisation zu trennen. Durchführen der Messung, so dass die Bedingung erfüllt wird, kann schwierig sein.
  • Im in Patentdokument 2 beschriebenen Verfahren hängt die Wellenform des Luminanzmusters zusätzlich zum Material des Messzielobjekts von einer Anzahl Parameter ab wie etwa die Form des Zielobjekts und die geometrische Beziehung zwischen einer Lichtquelle und einer Lichtempfangseinheit. Um einen weiten Umfang an Objekten zu messen ist es daher notwendig, eine enorme Anzahl von Referenzluminanzmustern im Voraus zu erfassen, um viele Kombinationen abzudecken.
  • Ähnlich ist es in den in Nichtpatentdokumenten 1 und 2 beschriebenen Verfahren notwendig Aufnahmen durch Projizieren etlicher musterförmiger Lichtbündel durchzuführen, um das gesamte Zielobjekt zu messen, was in einer langen Messzeit resultiert.
  • OFFENBARUNG DER ERFINDUNG
  • Es ist wünschenswert die obigen Probleme zu lösen, wie etwa durch Bereitstellen einer Technik zum Messen einer dreidimensionalen Form für stabiles Durchführen von dreidimensionalem Messen mit hoher Genauigkeit in einem allgemeinen Messumfeld, ohne eine enorme Menge im Voraus Vorbereitung für einen Messgegenstand zu benötigen, der einen lichtdurchlässigen Bereich beinhaltet.
  • Gemäß dem ersten Aspekt der vorliegenden Erfindung wird eine Vorrichtung zum Messen einer dreidimensionalen Form bereitgestellt, die umfasst: eine erste Erfassungseinrichtung, die konfiguriert ist ein erstes aufgenommenes Bild eines Raums zu erfassen, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; eine zweite Erfassungseinrichtung, die konfiguriert ist ein zweites aufgenommenes Bild des Raums zu erfassen, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; eine Auswahleinrichtung, die konfiguriert ist, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, für jede aus mindestens einer vorbestimmten Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild eines, das die mindestens eine vorbestimmte Region enthält, als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild auszuwählen; sowie eine Messeinrichtung, die konfiguriert ist Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts durchzuführen basierend auf dem durch die Auswahleinrichtung ausgewählten Auswahlbild.
  • Gemäß dem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Messen einer dreidimensionalen Form bereitgestellt, das umfasst: einen ersten Erfassungsschritt des Erfassens eines ersten aufgenommenen Bilds eines Raums, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; einen zweiten Erfassungsschritt des Erfassens eines zweiten aufgenommenen Bilds des Raums, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; einen Auswahlschritt des Auswählens, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, eines aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild für jede vorbestimmte Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild; sowie einen Messschritt des Durchführens von Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts basierend auf dem im Auswahlschritt ausgewählten Auswahlbild.
  • Gemäß dem dritten Aspekt der vorliegenden Erfindung wird ein nichtflüchtiges computerlesbares Speichermedium bereitgestellt, das ein Computerprogramm speichert zum Bewirken, dass ein Computer fungiert als erste Erfassungseinrichtung, die konfiguriert ist ein erstes aufgenommenes Bild eines Raums zu erfassen, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; als zweite Erfassungseinrichtung, die konfiguriert ist ein zweites aufgenommenes Bild des Raums zu erfassen, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; als Auswahleinrichtung, die konfiguriert ist, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, für jede vorbestimmte Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds eines aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild auszuwählen; sowie als Messeinrichtung, die konfiguriert ist Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts durchzuführen basierend auf dem durch die Auswahleinrichtung ausgewählten Auswahlbild.
  • Die Erfindung wird nun, lediglich beispielhaft, unter Bezugnahme auf die unten aufgelisteten Zeichnungen beschrieben.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 illustriert ein Beispiel für die Konfiguration eines Systems;
  • 2 ist ein Blockdiagramm, das ein Beispiel für die funktionale Anordnung des Systems zeigt;
  • 3 illustriert Beispiele für Raumaufteilungsmuster;
  • 4A und 4B sind Schaubilder zum Erklären eines Codierfehlers;
  • 5 illustriert Beispiele für Raumaufteilungsmuster;
  • 6 illustriert ein Beispiel für ein Koordinatendetektionsmuster;
  • 7 ist ein Flussdiagramm, das durch eine Steuerungsvorrichtung 103 ausgeführte Verarbeitung illustriert;
  • 8A und 8B zeigen jeweils ein Beispiel für ein Maskenmuster;
  • 9 zeigt ein Maskierergebnis;
  • 10 zeigt ein Maskierergebnis;
  • 11 zeigt ein Beispiel für ein Koordinatendetektionsmuster;
  • 12 illustriert die Verarbeitung, die benutzt wird, um mehrere Koordinatendetektionsmuster zu erzeugen;
  • 13 ist ein Flussdiagramm, das durch eine Steuerungsvorrichtung 103 ausgeführte Verarbeitung illustriert; und
  • 14 ist ein Blockdiagramm, das ein Beispiel für die Hardwareanordnung einer Computervorrichtung zeigt.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Ausführungsformen der vorliegenden Erfindung werden im Folgenden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Man beachte, dass die im Folgenden erläuterten Ausführungsformen lediglich Beispiele für eine konkrete Implementierung der vorliegenden Erfindung und konkrete Beispiele für eine in den folgenden Ansprüchen dargelegte Anordnung sind.
  • [Erste Ausführungsform]
  • In dieser Ausführungsform wird ein Raumaufteilungsmuster, das vorsieht kaum Codierfehler zu verursachen, in einen Messraum projiziert, um den ein Messzielobjekt enthaltenden Messraum in eine vorbestimmte Anzahl Regionen aufzuteilen. Dann wird die dreidimensionale Form des Messzielobjekts (die dreidimensionalen Koordinaten der Oberfläche des Messzielobjekts) präzise durch Projizieren eines für jede aufgeteilte Region einmaligen Koordinatendetektionsmusters berechnet.
  • Ein Beispiel für die Konfiguration eines Systems gemäß dieser Ausführungsform wird unter Bezugnahme auf 1 beschrieben. Ein System 100 gemäß dieser Ausführungsform beinhaltet eine Projektionseinheit 101 zum Projizieren von musterförmigen Licht auf ein Messzielobjekt 104, eine Bildaufnahmeeinheit 102 zum Aufnehmen eines Bilds des Messzielobjekts 104, auf das das musterförmige Licht projiziert worden ist, sowie eine Steuerungsvorrichtung 103 zum Durchführen von Messen einer dreidimensionalen Form des Messzielobjekts 104.
  • Ein Beispiel für die funktionale Anordnung der Steuerungsvorrichtung 103, die als eine Vorrichtung zum Messen einer dreidimensionalen Form fungiert, und deren Peripheriegeräte (die Projektionseinheit 101 und die Bildaufnahmeeinheit 102) wird unter Bezugnahme auf ein in 2 gezeigtes Blockdiagramm beschrieben.
  • Die Projektionseinheit 101 projiziert musterförmiges Licht, das auf einem von einer Projektionsmuster-Erzeugungseinheit 202 gelieferten Muster basiert (dieser Schritt wird hiernach auch einfach ”die Projektionseinheit 101 projiziert ein Muster” genannt). in dieser Ausführungsform ist das Projektionsziel des durch die Projektionseinheit 101 projizierten musterförmigen Lichts ein das Messzielobjekt 104 enthaltender Raum, wobei letzteres Messen einer dreidimensionalen Form unterzogen werden soll. Die Projektionseinheit 101 dient als Projektor mit einer Auflösung von 128 Pixel in der horizontalen Richtung. Dies ist lediglich ein Beispiel für eine konkrete Beschreibung, und die Wesen der folgenden Beschreibung ist nicht darauf beschränkt.
  • Die Bildaufnahmeeinheit 102 nimmt ein Bild vom das Messzielobjekt 104 enthaltenden Raum auf, auf den das musterförmige Licht durch die Projektionseinheit 101 projiziert worden ist, und nimmt insbesondere Licht auf, das durch die Oberfläche des Messzielobjekts 104 reflektiert wird. Die Bildaufnahmeeinheit 102 sendet das aufgenommene Bild an eine Bildeingabeeinheit 204 der Steuerungsvorrichtung 103.
  • Wie später beschrieben wird, projiziert die Projektionseinheit 101 verschiedene Arten musterförmiges Licht auf das Messzielobjekt 104, und die Bildaufnahmeeinheit 102 nimmt das Bild vom das Messzielobjekt 104 enthaltenden Raum auf, jedes Mal wenn musterförmiges Licht projiziert wird. Das heißt, Projektion von musterförmigen Licht durch die Projektionseinheit 101 ist mit Aufnehmen vom Bilds des Raums durch die Bildaufnahmeeinheit 102 synchronisiert, und somit nimmt die Bildaufnahmeeinheit 102 ein Bild auf, wenn jedes musterförmige Lichtbündel projiziert wird. Eine Steuerungseinheit 210 der Steuerungsvorrichtung 103 führt Steuerungsverarbeitung durch (Verarbeitung zum Steuern der Projektionseinheit 101 und der Bildaufnahmeeinheit 102 derart, dass Projektion von musterförmigen Licht mit der Aufnahme vom Bild des Messzielobjekts 104 synchronisiert wird). Das heißt, die Bildaufnahmeeinheit 102 empfängt ein durch die Steuerungseinheit 210 gesendetes Bildaufnahme-Steuersignal, und nimmt ein Bild mit einer vorbestimmten Belichtungszeit, Blendenzahl und Fokusposition basierend auf dem Empfangstiming auf. Die Steuerungseinheit 210 steuert die Projektionseinheit 101 und die Bildaufnahmeeinheit 102, um Projektion und Bildaufnahme im Gleichlauf zueinander auszuführen durch Senden von Steuersignalen an die Projektionseinheit 101 und die Bildaufnahmeeinheit 102 zur selben Zeit oder zumindest durch Senden von Steuersignalen mit Gleichlaufinformation.
  • Die Projektionsmuster-Erzeugungseinheit 202 erzeugt ein an die Projektionseinheit 101 zu lieferndes Muster. In dieser Ausführungsform wird das Muster aus einem Raumaufteilungsmuster und einem Koordinatendetektionsmuster gebildet. Der Einfachheit halber wird angenommen, dass das Raumaufteilungsmuster und das Koordinatendetektionsmuster Muster derselben Größe sind.
  • Das Raumaufteilungsmuster ist ein Muster, das durch die Projektionseinheit 101 projiziert wird, um einen durch von der Projektionseinheit 101 projizierbares Licht definierten Raum (der das Messzielobjekt 104 enthaltende Raum) in mehrere Regionen aufzuteilen und jedes Muster im Koordinatendetektionsmuster zu identifizieren und spezifizieren.
  • Das Koordinatendetektionsmuster ist ein Muster, das durch die Projektionseinheit 101 zusammen mit dem Raumaufteilungsmuster projiziert wird, um die dreidimensionale Form des Messzielobjekts 104 in mehr Detail zu vermessen.
  • 3 zeigt Beispiele für die Raumaufteilungsmuster. Auf der linken Seite von 3 werden Muster (Gray-Codes) P1 bis P4 illustriert, in denen jeweils ein heller Bereich und ein dunkler Bereich abwechselnd angeordnet sind und in denen Anordnungsmuster der hellen und dunklen Bereiche verschieden sind (d. h. die Grenzpositionen zwischen den hellen und dunklen Bereichen sind verschieden). Die Muster P1 bis P4 können Positivmuster (nicht-invertierte Muster) genannt werden.
  • Die Projektionseinheit 101 projiziert nacheinander die Muster P1 bis P4 (zusammen mit dem Koordinatendetektionsmuster) auf das Messzielobjekt 104. Jedes Mal wenn jedes der Muster P1 bis P4 projiziert wird, führt die Bildaufnahmeeinheit 102 Bildaufnahme durch. Mit dieser Verarbeitung wird das aufgenommene Bild des Messzielobjekts 104, auf das das Muster P1 projiziert worden ist, und das aufgenommene Bild des Messzielobjekts 104, auf das das Muster P2 projiziert worden ist, erhalten. Außerdem werden das aufgenommene Bild des Messzielobjekts 104, auf das das Muster P3 projiziert worden ist, und das aufgenommene Bild des Messzielobjekts 104, auf das das Muster P4 projiziert worden ist, erhalten. Es gibt 16 (24) Kombinationen von hellen und dunklen Bereichen auf den vier aufgenommenen Bildern. Wenn der gesamte Raum, auf den die Projektionseinheit 101 das Muster projiziert, in 16 Regionen aufgeteilt wird, es ist möglich eine Region festzulegen, zu der jede Position auf den aufgenommenen Bildern gehört. Dies ist äquivalent zum Spezifizieren eines Bereichs des durch Projektionseinheit 101 projizierten Musterbilds, der jeden Pixel der Musterbilder beleuchtet. Die Auflösung in der horizontalen Richtung der Projektionseinheit 101 beträgt 128 Pixel. In diesem Fall wird daher eine Region alle 8 Pixel spezifiziert erhalten durch Teilen der 128 Pixel durch 16.
  • Wenn die oben erwähnten vier aufgenommenen Bilder erhalten sind, weist eine Bildverarbeitungseinheit 205 jeder Pixelposition auf dem aufgenommenen Bild (irgendeins aus den obigen vier aufgenommenen Bildern), einen Code zu, der durch Ausrichten von Bits erhalten wird, die jeweils anzeigen, welcher aus einem hellen Bereich und dunklen Bereich an der Pixelposition von jedem der vier aufgenommenen Bilder enthalten ist. Zum Beispiel kann ein heller Bereich an einer Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 enthalten sein, auf das das Muster P1 projiziert worden ist, wohingegen ein dunkler Bereich an derselben Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 enthalten sein kann, auf das das verschiedene Muster P2 projiziert worden ist. Ähnlich kann ein heller Bereich an der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 enthalten sein, auf das das Muster P3 projiziert worden ist, und ein dunkler Bereich kann dann an der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 enthalten sein, auf das das Muster P4 projiziert worden ist. Ein Bit ”1” wird einer Pixelposition zugewiesen, wo ein heller Bereich enthalten ist, und ein Bit ”0” wird einer Pixelposition zugewiesen, wo ein dunkler Bereich enthalten ist. In diesem Fall wird das Bit ”1” der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 zugewiesen, auf das das Muster P1 projiziert worden ist; das Bit ”0” wird der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 zugewiesen, auf das das Muster P2 projiziert worden ist; das Bit ”1” wird der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 zugewiesen, auf das das Muster P3 projiziert worden ist, und schließlich das Bit ”0” wird der Pixelposition (x, y) im aufgenommenen Bild des Messzielobjekts 104 zugewiesen, auf das das Muster P4 projiziert worden ist.
  • Durch Ausrichten in der Reihenfolge der Projektion der Muster P1, P2, P3 und P4 der Bits für die Pixelposition (x, y) in den aufgenommenen Bildern des Messzielobjekts 104, auf das die Muster projiziert worden sind, wird ein Binärcode ”1010” erhalten. In einem Gray-Code wird die Binärzahl ”1010” interpretiert als eine Dezimalzahl ”14”. Daher gehört die Pixelposition (x, y) zur vierzehnten Region aus 16 Regionen erhalten durch Aufteilen des Raums wie oben beschrieben. Die vierzehnte Region ist definiert durch den Ort eines Pixels vom aufgenommenen Bild, wo derselbe Gray-Code gebildet wird. In diesem Fall entspricht die vierzehnte Region einem Pixel vom aufgenommenen Bild, der den hellen Bereich im Muster P1, den dunklen Bereich im Muster P2, den hellen Bereich im Muster P3, und den dunklen Bereich im Muster P4 bildet.
  • Andererseits wird zusätzlich zu den Mustern P1 bis P4, um eine Kombination aus hellen und dunklen Bereichen aus den aufgenommenen Bildern zu lesen, eine Projektion von Mustern N1 bis N4 (auf der rechten Seite von 3) breit durchgeführt, die durch Invertieren der hellen und dunklen Bereiche der Muster P1 bis P4 erhalten sind. Die Muster N1 bis N4 können Negativ- oder invertierte Muster genannt werden.
  • Zum Beispiel projiziert die Projektionseinheit 101 nacheinander die Muster P1 und N1, und die Bildaufnahmeeinheit 102 nimmt die jeweiligen Bilder auf. Das aufgenommene Bild kann durch IP1(u, v) dargestellt werden, wenn das Muster P1 projiziert wird, und wenn das Muster N1 projiziert wird, kann das aufgenommene Bild durch IN1(u, v) dargestellt werden (u bzw. v stehen für x- bzw. y-Koordinatenwerte in jedem aufgenommenen Bild). Zu diesem Zeitpunkt weist die Bildverarbeitungseinheit 205 das Bit ”1” einer Pixelposition (u, v) zu, die IP1(u, v) > IN1(u, v) erfüllt, und weist das Bit ”0” der Pixelposition (u, v) zu, die IP1(u, v) ≤ IN1(u, v) erfüllt. Die Bildverarbeitungseinheit 205 weist die Bits für die Muster P2 bis P4 und N2 bis N4 in derselben Weise zu, und weist somit ähnlich zum obigen Verfahren jeder Pixelposition einen Code zu.
  • Falls jedoch Teile von oder das gesamte Messzielobjekt 104 lichtdurchlässig sind, zum Beispiel wenn das Material des Messzielobjekts 104 Kunststoff oder dergleichen ist, kann ein Fehler in der hell/dunkel-Bereichsbestimmung in Abhängigkeit von der Projektionsrichtung der Projektionseinheit 101 und der Orientierung des Messzielobjekts 104 auftreten. Genauer gesagt, wenn gestreutes Licht innerhalb des Messzielobjekts 104 zu Reflexionslicht von der Oberfläche des Messzielobjekts 104 hinzukommt, wird die im aufgenommenen Bild beobachtete Wellenform des Musters in hohem Maße verzerrt. Da innerhalb des Messzielobjekts 104 auftretende Streuung von der Orientierung der Oberfläche des Messzielobjekts 104 und der Richtung von in das Messzielobjekt 104 eintretendem Licht abhängt, wird das Projektionslicht von nur einem aus dem Positivmuster und Negativmuster beträchtlich verzerrt, und das Projektionslicht des anderen Musters wird kaum verzerrt. Als Ergebnis verschiebt sich eine Grenze zum Erfüllen der obigen Bedingung hinsichtlich eines Falls, in dem keine interne Streuung auftritt. Andernfalls kann eine ähnliche Verschiebung auftreten, wenn das System 100 oder die Projektionseinheit 101 oder Bildaufnahmeeinheit 102 als eine Komponente des Systems 100 Vibrationen erzeugt.
  • Dieses Phänomen wird im Detail unter Bezugnahme auf 4A und 4B beschrieben. 4A zeigt ein Beispiel einer Luminanzänderung auf derselben horizontalen Linie (u) nahe dem hell/dunkel-Grenzbereich in aufgenommenen Bildern IP1 und IN1, wenn die Muster P1 und N1 auf ein lichtundurchlässiges Objekt projiziert werden. 4B zeigt ein Beispiel einer Luminanzänderung auf derselben horizontalen Linie (u) nahe dem hell/dunkel-Grenzbereich in den aufgenommenen Bildern IP1 und IN1, wenn die Muster P1 und N1 auf ein lichtdurchlässigen Objekt projiziert werden. In beiden 4A und 4B steht eine Volllinie für ein Beispiel einer Luminanzänderung auf der horizontalen Line nahe dem hell/dunkel-Grenzbereich im aufgenommenen Bild IP1, und ein Strichlinie steht für ein Beispiel einer Luminanzänderung auf derselben horizontalen Linie nahe dem hell/dunkel-Grenzbereich im aufgenommenen Bild IN1. Zu diesem Zeitpunkt steht ein Wert für u, der IP1(u, v) = IN1(u, v) erfüllt, für eine Grenze, die als vertikale Volllinie angezeigt wird. Mit Bezug auf 4A wird die linke Region in Bezug auf die vertikale Volllinie als dunkler Bereich (Bit ”0”) bestimmt und die rechte Region wird als heller Bereich (Bit ”1”) bestimmt.
  • Andererseits mit Bezug auf 4B wird eine durch die Volllinie angezeigte Wellenform in hohem Maße verzerrt, und die Position vom Schnittpunkt der Wellenform der Volllinie und der Wellenform der Strichlinie verschiebt sich verglichen mit 4A. Eine schraffierte Region 400 von 4B ist eine Region, wo ursprünglich ein dunkler Bereich (Bit ”0”) bestimmt werden sollte, aber ein heller Bereich (Bit ”1”) aufgrund der Verzerrung der Wellenform nebst interner Streuung fehlerhaft bestimmt wird, was in einen Codierfehler resultiert.
  • In dieser Ausführungsform erzeugt die Projektionsmuster-Erzeugungseinheit 202 zusätzlich zu Mustern wie die Muster P1 bis P4 und N1 bis N4 Musterbilder durch Ändern der Grenzpositionen zwischen den hellen und dunklen Bereichen in den Mustern. In den in 3 gezeigten Raumaufteilungsmustern ist eine Position, wo ein wie oben beschriebener Codierfehler auftritt, auf eine Region nahe der Grenze zwischen den hellen und dunklen Bereichen beschränkt. Daher erzeugt die Projektionsmuster-Erzeugungseinheit 202 in dieser Ausführungsform weiterhin andere Raumaufteilungsmuster, die jeweils keine Grenze zwischen den hellen und dunklen Bereichen des Musters nahe der Position besitzen, wo ein Codierfehler auftritt. 5 zeigt Beispiele für solche Raumaufteilungsmuster.
  • Jedes in 5 gezeigte Muster P1' bis P4' wird durch Ändern der Positionen der Grenzen zwischen den hellen und dunklen Bereichen in jedem Muster P1 bis P4 von 3 erhalten. Das heißt, die Grenzpositionen in jedem Muster P1 bis P4 sind verschieden von denen in jedem entsprechenden Muster P1' bis P4'. Genauer gesagt, jedes Muster P1' bis P4' wird durch Verschieben der Grenzpositionen in jedem entsprechenden Muster P1 bis P4 um eine Hälfte einer Mindesteinheit erzeugt. Zum Beispiel wird, falls die Breite jedes Musters P1 bis P4 32 Pixel beträgt, jedes Muster P1' bis P4' durch Verschieben des Musters eines entsprechenden Musters P1 bis P4 um einen Pixel nach links erzeugt. Die in 3 gezeigten Raumaufteilungsmuster werden hiernach Gray-Code-Muster genannt, und die in 5 gezeigten Raumaufteilungsmuster werden hiernach Versatz-Gray-Code-Muster genannt. Man beachte, dass jedes Muster P1 bis P4 und jedes entsprechende Muster P1' bis P4' nur Raumaufteilungsmuster mit verschiedenen Grenzpositionen sein müssen. So lange diese Bedingung erfüllt ist, können die Muster P1 bis P4 und P1' bis P4' jegliche Raumaufteilungsmuster sein.
  • Man beachte, dass bezüglich der in 3 und 5 gezeigten Raumaufteilungsmuster die Breiten der hellen und dunklen Bereiche wünschenswerterweise gemäß dem Grad der tatsächlichen Streuung des Messzielobjekts 104 angepasst werden. Zum Beispiel falls die Breite der Region 400 in 4B groß ist, ist es möglich die Wahrscheinlichkeit, dass ein Codierfehler auftritt, durch Vergrößern der Breiten der hellen und dunklen Bereiche zu reduzieren. Falls die Auflösung des Musters dieselbe ist, verringert sich die Bittiefe des Musters dementsprechend, und eine Raumaufteilungszahl verringert sich auch. Daher wird ein angemessener Wert eingestellt gemäß der Toleranz-Auftrittswahrscheinlichkeit eines Codierfehlers und der Anzahl Musterprojektionsoperationen (auch als Aufnahmeoperationen bekannt).
  • Zusätzlich zu den oben beschriebenen Raumaufteilungsmustern liefert die Projektionsmuster-Erzeugungseinheit 202 das Koordinatendetektionsmuster an die Projektionseinheit 101. 6 zeigt ein Beispiel für das Koordinatendetektionsmuster. Das Koordinatendetektionsmuster von 6 beinhaltet mehrere vertikale Volllinien (Koordinatendetektionsmuster), und die dreidimensionalen Koordinaten des Messzielobjekts 104 werden unter Verwendung der individuellen Volllinien präzise gemessen. Andererseits werden in dieser Ausführungsform die Volllinien im Abstand von 8 Pixeln gezeichnet, und somit wird nur eine Volllinie gleichzeitig auf eine durch das Raumaufteilungsmuster aufgeteilte Region projiziert. Daher werden die in 3 und 5 gezeigten Raumaufteilungsmuster projiziert, und Kombinationen von hellen und dunklen Bereichen werden decodiert, wodurch die Regionen im Raum identifiziert und die individuellen Volllinien spezifiziert werden.
  • Man beachte, dass die oben erwähnten Raumaufteilungsmuster und Koordinatendetektionsmuster im Voraus erzeugt und in einem Datenspeicher (nicht gezeigt) gespeichert werden können, und nach Bedarf durch die Projektionsmuster-Erzeugungseinheit 202 ausgelesen und an die Projektionseinheit 101 geliefert werden können. Andernfalls kann die Projektionsmuster-Erzeugungseinheit 202 nach Bedarf Raumaufteilungsmuster und ein Koordinatendetektionsmuster erzeugen und diese an die Projektionseinheit 101 liefern.
  • Bei Empfang eines durch die Bildaufnahmeeinheit 102 gesendeten aufgenommenen Bilds überträgt die Bildeingabeeinheit 204 das empfangene aufgenommene Bild an die Bildverarbeitungseinheit 205. Die Übertragungsform ist nicht darauf beschränkt. Zum Beispiel kann die Bildeingabeeinheit 204 ein durch die Bildaufnahmeeinheit 102 gesendetes aufgenommenes Bild in einem Datenspeicher (nicht gezeigt) speichern. Wenn aufgenommene Bilder gespeichert sind, die für eine Operation zum Messen einer dreidimensionalen Form zu benutzen sind, kann die Bildeingabeeinheit 204 die Gruppe von im Datenspeicher gespeicherten aufgenommenen Bildern an die Bildverarbeitungseinheit 205 übertragen.
  • Für das von der Bildeingabeeinheit 204 übertragene aufgenommene Bild führt die Bildverarbeitungseinheit 205 Bildverarbeitung durch, wie etwa das Decodieren von im aufgenommenen Bild enthaltenen musterförmigen Licht und das Verarbeiten zum Normalisieren von Projektionskoordinaten und Bildkoordinaten. Wenn das aufgenommene Bild eine von einem optischen System entstehende Verzerrung aufweist, führt die Bildverarbeitungseinheit 205 auch Verarbeitung zum Korrigieren und Entfernen der Verzerrung durch. Bezüglich jedes Pixels des aufgenommenen Bilds decodiert (oder spezifiziert) die Bildverarbeitungseinheit 205 eine entsprechende Region im Raum, wo das Muster projiziert worden ist, durch Zuweisen des Codes an jede Pixelposition auf dem aufgenommenen Bild unter Verwendung der hellen und dunklen Bereiche des aufgenommenen Bilds.
  • Die durch die Bildverarbeitungseinheit 205 ausgeführte Verarbeitung wird unten in mehr Detail beschrieben. Muster P1 bis Pn (wobei n eine natürliche Zahl von 2 oder mehr ist) können als die Positivmuster der Gray-Code-Muster benutzt werden, und Muster N1 bis Nn können als die Negativmuster der Gray-Code-Muster benutzt werden. Ähnlich können Muster P1' bis Pn' als die Positivmuster der Versatz-Gray-Code-Muster benutzt werden, und Muster N1' bis Nn' können als die Negativmuster der Versatz-Gray-Code-Muster benutzt werden.
  • Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster P1 bis Pn (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IP1 bis IPn dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster N1 bis Nn (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IN1 bis INn dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster P1' bis Pn' (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IP1' bis IPn' dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster N1' bis Nn' (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IN1' bis INn' dargestellt.
  • Zu diesem Zeitpunkt erhält die Bildverarbeitungseinheit 205 dpk(u, v) und dp'k(u, v) für alle Werte k, die 1 ≤ k ≤ n erfüllen, gemäß:
    Figure DE102015000386A1_0002
    wobei IPk(u, v) für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild IPk (nicht-invertiertes Bild) steht, und INk(u, v) für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild INk (invertiertes Bild) steht. Außerdem steht dpk(u, v) für die Luminanzdifferenz zwischen IPk(u, v) und INk(u, v) unter Berücksichtigung der Helligkeit jedes aufgenommenen Bilds.
  • Zusätzlich steht IPk'(u, v) für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild IPk', und INk'(u, v) steht für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild INk'. Außerdem steht dpk'(u, v) für die Luminanzdifferenz zwischen IPk'(u, v) und INk'(u, v) unter Berücksichtigung der Helligkeit jedes aufgenommenen Bilds.
  • Die Bildverarbeitungseinheit 205 erhält dp(u, v), das einen kleinsten Wert von dp1(u, v) bis dpn(u, v) darstellt, und dp'(u, v), das einen kleinsten Wert von dp1'(u, v) bis dpn'(u, v) darstellt, gemäß:
    Figure DE102015000386A1_0003
  • Wenn dp oder dp' kleiner ist, liegt die Pixelposition (u, v) im aufgenommenen Bild näher an der Grenzposition zwischen den hellen und dunklen Bereichen. Die Bildverarbeitungseinheit 205 vergleicht die Beträge von dp(u, v) und dp'(u, v). Falls dp(u, v) > dp'(u, v) ist, werden die aufgenommenen Bilder des Messzielobjekts 104, auf das die Gray-Code-Muster projiziert worden sind, das heißt, die aufgenommenen Bilder IP1 bis IPn und IN1 bis INn als aufgenommene Bilder ausgewählt (auch Auswahlbilder genannt), die zu benutzen sind einen Code für die Pixelposition (u, v) festzulegen. Andererseits, falls dp(u, v) ≤ dp'(u, v) ist, werden die aufgenommenen Bilder des Messzielobjekts 104, auf das die Versatz-Gray-Code-Muster projiziert worden sind, als aufgenommene Bilder ausgewählt (Auswahlbilder), die zu benutzen sind einen Code für die Pixelposition (u, v) festzulegen. Das heißt, die aufgenommenen Bilder IP1' bis IPn' und IN1' bis INn' werden ausgewählt.
  • In jedem Fall wird hell/dunkel-Bestimmung für jede Pixelposition der aufgenommenen Bilder unter Verwendung der durch Projizieren der Positivmuster erhaltenen n aufgenommenen Bilder und der durch Projizieren der Negativmuster erhaltenen n aufgenommenen Bilder durchgeführt, wodurch der Pixelposition ein Code zugewiesen wird. Mit dieser Verarbeitung ist es möglich einen Bitstring (d. h. einen Code) aus n Bits für jede Pixelposition zu erhalten.
  • Wie oben beschrieben wird der Raum, wo die Projektionseinheit 101 die Raumaufteilungsmuster projiziert, in 8-Pixel Regionen aufgeteilt. Folglich kann die Position einer Region auf dem Muster, das einer Pixelposition entspricht, für die unter Verwendung der aufgenommenen Bilder IP1 bis IPn und IN1 bis INn ein Code erhalten worden ist, durch Multiplizieren eines den Code darstellenden Dezimalwerts mit 8 erhalten werden. Zum Beispiel, falls der den Code darstellende Dezimalwert 14 beträgt, entspricht der Code der vierzehnten Region aus durch Aufteilen des Musters in der horizontalen Richtung erhaltenen 16 Regionen. Da die Position der vierzehnten Region (die Grenzposition zwischen den dreizehnten und vierzehnten Region) 14 × 8 = 112 beträgt, beträgt die Position der Region auf dem Muster, das der Pixelposition entspricht, für die der Code erhalten worden ist, 112.
  • Andererseits verschiebt sich wie oben beschrieben jedes Versatz-Gray-Code-Muster dieser Ausführungsform um 1/32 bezüglich des entsprechenden Gray-Code-Musters, und verschiebt sich somit um 4 Pixel (128 ÷ 32 = 4) bezüglich der horizontalen Auflösung ”128” der Projektionseinheit 101. Folglich kann die Position der Region auf dem Muster, das der Pixelposition entspricht, für die der Code unter Verwendung der aufgenommenen Bilder P1' bis IPn' und IN1' bis INn' erhalten worden ist, durch Subtrahieren von 4 von einem Wert erhalten werden, der durch Multiplizieren eines den Code darstellenden Dezimalwerts mit 8 erhalten wird.
  • Da die Konstanten der Multiplikations- und Subtraktionsoperationen abhängig von der Auflösung der Projektionseinheit 101, der Anzahl Projektionsmuster (auch Regionsaufteilungszahl genannt), der Anordnungen der Versatz-Gray-Code-Muster, und dergleichen verschieden sind, es ist notwendig angemessene Werte gemäß dieser Ausführungsform einzustellen.
  • Die obige Verarbeitung ermöglicht es die Position einer spezifischen Region auf dem Muster zu spezifizieren, das einem jeder Pixelposition auf dem aufgenommenen Bild zugewiesenen Code entspricht. Die Bildverarbeitungseinheit 205 spezifiziert ein Koordinatendetektionsmuster, das jedem Koordinatendetektionsmuster im aufgenommenen Bild entspricht, wodurch die Korrespondenz zwischen dem Koordinatendetektionsmuster im aufgenommenen Bild und dem im ursprünglichen Koordinatendetektionsmuster erhalten wird.
  • Die Bildverarbeitungseinheit 205 berechnet mit hoher Genauigkeit die Bildkoordinaten von jedem auf das Messzielobjekt 104 projizierten Koordinatendetektionsmuster aus den aufgenommenen Bildern (werden genannt: aufgenommene Bilder benutzt einen Code zu erhalten). Als Verfahren zum Berechnen der Bildkoordinaten sind verschiedene Verfahren bekannt, wie etwa ein Verfahren zum Schätzen der Projektionsmitte der projizierten Koordinatendetektionsmuster (Linie) aus dem größten Luminanzwert der Linie. Falls das Messzielobjekt 104 ein lichtdurchlässiges Objekt ist, wird eine durch Projizieren des Linienmusters erhaltene Wellenform aus den oben beschriebenen Gründen verzerrt. Es ist möglich die Koordinaten der Mitte der Linie durch Anwenden des in Patentdokument 2 offenbarten Verfahrens genau zu schätzen.
  • Die Bildverarbeitungseinheit 205 erhält eine Position (x + y) durch Addieren eines Werts y, der durch die unteren drei Bits der Position jedes Koordinatendetektionsmusters dargestellt wird, zu einer Position x auf einem Muster, das einem Code entspricht, der den Bildkoordinaten eines aus den aufgenommenen Bildern erhaltenen Koordinatendetektionsmusters Z entspricht. Die Bildverarbeitungseinheit 205 spezifiziert ein Koordinatendetektionsmuster Z' an der Position (x + y) im Koordinatendetektionsmuster, das dem Koordinatendetektionsmuster Z entspricht. Auf diese Weise es ist möglich ein Koordinatendetektionsmuster im ursprünglichen Koordinatendetektionsmuster zu spezifizieren, das einem der im aufgenommenen Bild enthaltenen Koordinatendetektionsmuster entspricht. Dies ermöglicht es die Korrespondenz zwischen dem Koordinatendetektionsmuster im aufgenommenen Bild und dem im ursprünglichen Koordinatendetektionsmuster zu erhalten. In dieser Ausführungsform ist, da das Koordinatendetektionsmuster mit einer Breite von 8 Pixeln projiziert wird, der Wert y allen Volllinien gemeinsam (der Wert y ist für jedes Koordinatendetektionsmuster definiert).
  • Die Bildverarbeitungseinheit 205 sendet an eine Berechnungseinheit für dreidimensionale Koordinaten 208 die Korrespondenz zwischen der Position (Bildkoordinaten) jedes Koordinatendetektionsmusters im aufgenommenen Bild und der Position (Projektionskoordinaten) des Koordinatendetektionsmusters im ursprünglichen Koordinatendetektionsmuster, das dem Koordinatendetektionsmuster im aufgenommenen Bild entspricht.
  • Eine Parameterspeichereinheit 206 speichert Steuerparameter, die durch die Steuerungseinheit 210 zu benutzen sind, um die Bildaufnahmeeinheit 102 und die Projektionseinheit 101 zu steuern, Parameter, die durch die Berechnungseinheit für dreidimensionale Koordinaten 208 zu benutzen sind, um Berechnungsverarbeitung für dreidimensionale Koordinaten auszuführen, und dergleichen. Daher lesen die Steuerungseinheit 210 und die Berechnungseinheit für dreidimensionale Koordinaten 208 die in der Parameterspeichereinheit 206 gespeicherten Parameter nach Bedarf aus und benutzen diese.
  • Die Berechnungseinheit für dreidimensionale Koordinaten 208 erfasst die Korrespondenz zwischen den Bildkoordinaten und den Projektionskoordinaten, die von der Bildverarbeitungseinheit 205 gesendet worden ist, sowie in der Parameterspeichereinheit 206 gespeicherte Kalibierdaten der Projektionseinheit 101 und Bildaufnahmeeinheit 102. Die Berechnungseinheit für dreidimensionale Koordinaten 208 misst die dreidimensionale Form des Messzielobjekts 104 durch ein wohlbekanntes Verfahren unter Verwendung der erfassten Informationen, und sendet ein Messergebnis an eine Ergebnisausgabeeinheit 209.
  • Die Ergebnisausgabeeinheit 209 gibt das Messergebnis der Berechnungseinheit für dreidimensionale Koordinaten 208 aus. Die Ausgabeform ist nicht auf irgendeine bestimmte Ausgabeform beschränkt. Das Messergebnis kann auf einer Anzeigeeinheit (nicht gezeigt) angezeigt werden, oder an einen innerhalb oder außerhalb der Vorrichtung bereitgestellten Datenspeicher oder Apparat ausgegeben werden. Wahlweise kann das Messergebnis an ein Gerät wie etwa eine Roboter zum Handhaben des Messzielobjekts 104 ausgegeben werden.
  • Die oben beschriebene Verarbeitung zum Messen einer dreidimensionalen Form des Messzielobjekts 104 durch die Steuerungsvorrichtung 103 wird unter Bezugnahme auf 7 erklärt, die ein die Verarbeitung illustrierendes Flussdiagramm zeigt. Man beachte, dass Verarbeitungsinhalte in jedem in 7 gezeigten Schritt wie oben beschrieben sind, und die Verarbeitung in jedem Schritt unten kurz erklärt wird.
  • Wenn die Steuerungsvorrichtung 103 aktiviert wird, zum Beispiel die Steuerungsvorrichtung 103 eingeschaltet wird, führt die Steuerungseinheit 210 verschiedene Arten Initialisierungsverarbeitung des Systems 100 in Schritt S1000 durch. In der Initialisierungsverarbeitung werden die Projektionseinheit 101 und die Bildaufnahmeeinheit 102 aktiviert, und verschiedene Parameter wie etwa Kalibierdaten der Projektionseinheit 101 und der Bildaufnahmeeinheit 102 werden in der Parameterspeichereinheit 206 gespeichert.
  • In Schritt S1100 erzeugt die Projektionsmuster-Erzeugungseinheit 202 ein Raumaufteilungsmuster und ein Koordinatendetektionsmuster, und sendet das Raumaufteilungsmuster zusammen mit dem Koordinatendetektionsmuster an die Projektionseinheit 101.
  • In Schritt S1200 projiziert die Projektionseinheit 101 das Raumaufteilungsmuster und das Koordinatendetektionsmuster, die Bildaufnahmeeinheit 102 führt die Bildaufnahme durch, und somit erfasst die Bildeingabeeinheit 204 ein aufgenommenes Bild, das erhalten wird, jedes Mal wenn die Bildaufnahmeeinheit 102 Bildaufnahme durchführt.
  • In Schritt S1300 erzeugt die Bildverarbeitungseinheit 205 einen Code für jede Pixelposition unter Verwendung der jeweiligen durch die Bildaufnahmeeinheit 102 erhaltenen aufgenommenen Bilder. In Schritt S1400 erhält die Bildverarbeitungseinheit 205 die Position eines Koordinatendetektionsmusters aus den jeweiligen aufgenommenen Bildern, und erhält durch die oben erwähnte Verarbeitung die Korrespondenz zwischen Bildkoordinaten und Projektionskoordinaten.
  • In Schritt S1500 misst die Berechnungseinheit für dreidimensionale Koordinaten 208 die dreidimensionale Form des Messzielobjekts 104 durch ein wohlbekanntes Verfahren unter Verwendung der in Schritt S1400 erhaltenen Korrespondenz zwischen den Bildkoordinaten und den Projektionskoordinaten und der in der Parameterspeichereinheit 206 gespeicherten Kalibierdaten. Die Berechnungseinheit für dreidimensionale Koordinaten 208 sendet ein Messergebnis an die Ergebnisausgabeeinheit 209, und die Ergebnisausgabeeinheit 209 gibt das Messergebnis der Berechnungseinheit für dreidimensionale Koordinaten 208 aus.
  • In Schritt S1600 bestimmt die Steuerungseinheit 210, ob die Endbedingung des Prozesses erfüllt worden ist, zum Beispiel ob eine Endanweisung des Prozesses eingegeben worden ist. Falls bestimmt wird, dass die Endbedingung erfüllt worden ist, endet der Prozess; ansonsten kehrt der Prozess zu Schritt S1100 zurück, um die nachfolgende Verarbeitung durchzuführen.
  • Man beachte, dass jeder Verarbeitungsschritt aus den in 7 gezeigten Schritten S1200 bis S1500 nicht immer in der in 7 gezeigten Reihenfolge ausgeführt werden braucht. Verarbeitungsschritte, die keine gegenseitige Abhängigkeit besitzen, können parallel ausgeführt werden, und die Reihenfolge der Verarbeitungsschritte kann bei Bedarf geändert werden.
  • In Schritt S1200 ist es nicht immer notwendig im Voraus alle Muster zu projizieren und Bildaufnahme durchzuführen. Wenn ein für eine nächste Verarbeitung notwendiges Bild erhalten wird, können Projektion und Bildaufnahme in Schritt S1200 unterbrochen werden, um zur nächsten Verarbeitung vorauszueilen. Es kann konfiguriert sein, die Projektion der verbleibenden Muster und Bildaufnahme bei Abschluss der Verarbeitung fortzusetzen.
  • Wie oben beschrieben, wird gemäß dieser Ausführungsform weiterhin ein Raumaufteilungsmuster projiziert, das einen Codierfehler unterdrückt, und ein ein Messzielobjekt enthaltender Messraum wird in eine vorbestimmte Anzahl Regionen aufgeteilt. Die Projektionseinheit kann ein für jede aufgeteilte Region einmaliges Koordinatendetektionsmuster projizieren, wodurch die dreidimensionalen Koordinaten der Messzielobjektoberfläche präzise berechnet werden. Diese Ausführungsform weist eine große Wirkung auf insbesondere, wenn ein Messzielobjekt einen lichtdurchlässigen Bereich beinhaltet, der interne Streuung verursacht.
  • Zusammengefasst wird in dieser Ausführungsform das erste aufgenommene Bild eines Raums erfasst, auf den das aus hellen und dunklen Bereichen gebildete erste Muster sowie das auf jede Region des durch Projizieren des ersten Musters aufgeteilten Raums projizierte Koordinatendetektionsmuster projiziert worden sind. Außerdem wird das zweite aufgenommene Bild des Raums erfasst, auf den das zweite Muster, das aus hellen und dunklen Bereichen gebildet ist und eine Grenzposition zwischen den hellen und dunklen Bereichen besitzt, die verschieden von der des ersten Musters ist, sowie das auf jede Region des durch Projizieren des zweiten Musters aufgeteilten Raums projizierte Koordinatendetektionsmuster projiziert worden sind. Eines aus den ersten und zweiten aufgenommenen Bildern wird als Auswahlbild ausgewählt unter Verwendung von Luminanzwerten in den ersten und zweiten aufgenommenen Bildern. Das Messen einer dreidimensionalen Form des im Raum enthaltenen Objekts wird durchgeführt unter Verwendung der Korrespondenz zwischen einem Koordinatendetektionsmuster im Auswahlbild und dem projizierten Koordinatendetektionsmuster für das Auswahlbild.
  • [Zweite Ausführungsform]
  • In dieser Ausführungsform wird zum Projektionszeitpunkt eines Raumaufteilungsmusters der Grenzbereich zwischen den hellen und dunklen Bereichen so maskiert, dass das Raumaufteilungsmuster nicht projiziert wird. Dies reduziert weiter die Wahrscheinlichkeit eines Codierfehlers zum Raumaufteilungszeitpunkt, wodurch es möglich wird die dreidimensionalen Koordinaten einer Messzielobjektoberfläche stabiler zu berechnen.
  • Unten wird hauptsächlich der Unterschied zur ersten Ausführungsform beschrieben, und eine Beschreibung derselben Punkte wie in der ersten Ausführungsform wird ausgelassen. Das heißt Details sind dieselben wie in der ersten Ausführungsform, sofern nicht ausdrücklich anders ausgeführt.
  • 8A und 8B zeigen jeweils ein Beispiel eines Maskenmusters, das benutzt wird ein durch eine Projektionseinheit 101 zu projizierendes Muster zu maskieren. 8A zeigt ein Beispiel eines Maskenmusters, das benutzt wird ein Gray-Code-Muster zu maskieren. 8B zeigt ein Beispiel eines Maskenmusters, das benutzt wird ein Versatz-Gray-Code-Muster zu maskieren.
  • Wenn das Maskenmuster benutzt wird, um ein Gray-Code-Muster (Versatz-Gray-Code-Muster) zu maskieren und projizieren, wird musterförmiges Licht für weiße Bereiche des Maskenmusters projiziert und für schwarze Bereiche des Maskenmusters blockiert. Das heißt, die Projektionseinheit 101 maskiert ein von einer Projektionsmuster-Erzeugungseinheit 202 geliefertes Gray-Code-Muster (Versatz-Gray-Code-Muster) unter Verwendung der Maskenmusters, und projiziert dann das Muster.
  • Jedes dieser Maskenmuster wird so eingestellt, dass die Projektionseinheit 101 nur nahe der hell/dunkel-Grenze vom entsprechenden Gray-Code-Muster oder Versatz-Gray-Code-Muster kein musterförmiges Licht projiziert. Das heißt, in dieser Ausführungsform wird die Decodiergenauigkeit verbessert durch Projizieren durch die Projektionseinheit 101 von keinem Muster nahe der Grenze zwischen den hellen und dunklen Bereichen des Musters, das einen Codierfehler verursacht, wenn das Material eines Messzielobjekts 104 lichtdurchlässig ist.
  • 9 zeigt die Ergebnisse des Maskierens von in 3 gezeigten Gray-Code-Mustern unter Verwendung der in 8A gezeigten Maskenmuster. 10 zeigt die Ergebnisse des Maskierens von in 5 gezeigten Versatz-Gray-Code-Mustern unter Verwendung der in 8B gezeigten Maskenmuster.
  • Mit Bezug auf 9 bezeichnen Bezugszeichen PM1 bis PM4 Ergebnisse des Maskierens von entsprechenden Mustern P1 bis P4 von 3 unter Verwendung der Maskenmuster von 8A; und NM1 bis NM4 Ergebnisse des Maskierens von entsprechenden Mustern N1 bis N4 von 3 unter Verwendung der Maskenmuster von 8A.
  • Mit Bezug auf 10 bezeichnen Bezugszeichen PM1' bis PM4' Ergebnisse des Maskierens vom entsprechenden Mustern P1' bis P4' von 5 unter Verwendung der Maskenmuster von 8; und NM1' bis NM4' Ergebnisse des Maskierens vom entsprechenden Mustern N1' bis N4' unter Verwendung der Maskenmuster von 8B.
  • Man beachte, dass in dieser Ausführungsform wie oben beschrieben die Projektionseinheit 101 das von der Projektionsmuster-Erzeugungseinheit 202 gelieferte Gray-Code-Muster (Versatz-Gray-Code-Muster) unter Verwendung der Maskenmuster maskiert, und dann das Muster projiziert. Jedoch kann die Projektionsmuster-Erzeugungseinheit 202 an die Projektionseinheit 101 die Ergebnisse von Maskieren der Gray-Code-Muster (Versatz-Gray-Code-Muster) unter Verwendung der Maskenmuster liefern.
  • In dieser Ausführungsform ist ein Prozess zum Entscheiden, ob durch Projizieren der Gray-Code-Muster erhaltene aufgenommene Bilder oder durch Projizieren der Versatz-Gray-Code-Muster erhaltene aufgenommene Bilder zum Festlegen eines Codes für jede Pixelposition zu benutzen sind, von dem in der ersten Ausführungsform verschieden.
  • Angenommen dass Muster PM1 bis PMn (zum Beispiel PM1 bis PM4 von 9) als die Positivmuster der Gray-Code-Muster benutzt werden, und Muster NM1 bis NMn (zum Beispiel NM1 bis NM4 von 9) als die Negativmuster der Gray-Code-Muster benutzt werden. Auch angenommen dass Muster PM1' bis PMn' (zum Beispiel PM1' bis PM4' von 10) als die Positivmuster der Versatz-Gray-Code-Muster benutzt werden, und Muster NM1' bis NMn' (zum Beispiel NM1' bis NM4' von 10) als die Negativmuster der Versatz-Gray-Code-Muster benutzt werden.
  • Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster PM1 bis PMn (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IPM1 bis IPMn dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster NM1 bis NMn (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch INM1 bis INMn dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster PM1' bis PMn' (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch IPM1' bis IPMn' dargestellt. Die aufgenommenen Bilder des Messzielobjekts 104, auf das die jeweiligen Muster NM1' bis NMn' (zusammen mit dem Koordinatendetektionsmuster) projiziert worden sind, werden durch INM1' bis INMn' dargestellt.
  • In diesem Fall erhält eine Bildverarbeitungseinheit 205 dpmk(u, v) und dpm'k(u, v) für alle Werte k, die erfüllen 1 ≤ k ≤ n, gemäß: dpmk(u, v) = |IPMk(u, v) – INMk(u, v)| dpm'k(u, v) = |IPM'k(u, v) – INM'k(u, v)| (3) wobei IPMk(u, v) für den Luminanzwert eines Pixels an einer Pixelposition (u, v) in einem aufgenommenen Bild IPMk steht, und INMk(u, v) steht für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild INMk. Außerdem steht dpmk(u, v) für die Luminanzdifferenz zwischen IPMk(u, v) und INMk(u, v).
  • Außerdem steht IPMk'(u, v) für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild IPMk', und INMk'(u, v) steht für den Luminanzwert eines Pixels an der Pixelposition (u, v) in einem aufgenommenen Bild INMk. Außerdem steht dpmk'(u, v) für die Luminanzdifferenz zwischen IPMk'(u, v) und INMk'(u, v).
  • In dieser Ausführungsform wird eine Region nahe der Grenze zwischen den hellen und dunklen Bereichen des Musters maskiert, um musterförmiges Licht am projiziert werden durch die Projektionseinheit 101 zu hindern, und somit ist einer der Werte dpmk und dpm'k klein für alle Werte k. Das heißt für alle Werte k gilt immer dpmk(u, v) > dpm'k(u, v) oder dpmk(u, v) < dpmk(u, v).
  • Daher wird für ein gegebenes k bestimmt, ob dpmk(u, v) > dpm'k(u, v) oder dpmk(u, v) < dpm'k(u, v) gilt. Falls dpmk(u, v) > dpm'k(u, v) gilt, werden die aufgenommenen Bilder des Messzielobjekts 104, auf das die Gray-Code-Muster projiziert worden sind, das heißt die aufgenommenen Bilder IPM1 bis IPMn und INM1 bis INMn als aufgenommene Bilder ausgewählt, die zu benutzen sind einen Code für die Pixelposition (u, v) festzulegen. Andererseits falls dpmk(u, v) ≤ dpm'k(u, v) gilt, werden die aufgenommenen Bilder des Messzielobjekts 104, auf das die Versatz-Gray-Code-Muster projiziert worden sind, als aufgenommene Bilder ausgewählt, die zu benutzen sind einen Code für die Pixelposition (u, v) festzulegen. Das heißt, die aufgenommenen Bilder IPM1' bis IPMn' und INM1' bis INMn' werden ausgewählt.
  • Wie oben beschrieben, ist es in dieser Ausführungsform möglich die Gray-Code-Muster oder Versatz-Gray-Code-Muster zuverlässiger als in der ersten Ausführungsform auszuwählen. Durch Anwenden des Maskenmusters werden alle Raumaufteilungsmuster mit einer hohen Frequenz moduliert. Folglich ist es wie in Nichtpatentdokument 1 beschrieben möglich die Wirkung zum Unterdrücken des Einflusses von interner Streuung zu erhalten. Das heißt, wenn das Messzielobjekt 104 einen lichtdurchlässigen Bereich beinhaltet, ist es möglich die Auftrittswahrscheinlichkeit eines Codierfehlers zum Identifikationszeitpunkt einer Region zu reduzieren, wodurch stabile dreidimensionale Messung implementiert wird.
  • Wie oben beschrieben, wird gemäß dieser Ausführungsform für ein zu projizierendes Raumaufteilungsmuster ein Maskenmuster so eingestellt und gesteuert, dass der hell/dunkel-Grenzbereich des Musters nicht projiziert wird. Dies reduziert weiter die Wahrscheinlichkeit eines Codierfehlers zum Raumaufteilungszeitpunkt, wodurch es möglich wird die dreidimensionalen Koordinaten einer Messzielobjektoberfläche stabiler zu berechnen.
  • [Dritte Ausführungsform]
  • In der ersten Ausführungsform wird das aus mehreren Liniensegmenten gebildete Koordinatendetektionsmuster benutzt, wie in 6 gezeigt. In dieser Ausführungsform wird, wie in 11 gezeigt, ein aus mehreren Strichlinien gebildetes Koordinatendetektionsmuster benutzt. Durch Projizieren eines solchen Koordinatendetektionsmusters auf ein Messzielobjekt 104, wird der Einfluss von im Messzielobjekt 104 auftretender interner Streuung entfernt, was in genauere Berechnung von dreidimensionalen Koordinaten auf der Oberfläche des Messzielobjekts 104 resultiert.
  • Unten wird hauptsächlich der Unterschied zur ersten Ausführungsform beschrieben, und eine Beschreibung derselben Punkte wie in der ersten Ausführungsform wird ausgelassen. Das heißt Details sind dieselben wie in der ersten Ausführungsform, sofern nicht ausdrücklich anders ausgeführt.
  • In dieser Ausführungsform liefert eine Projektionsmuster-Erzeugungseinheit 202 an eine Projektionseinheit 101 das aus den mehreren Strichlinien gebildete in 11 gezeigte Koordinatendetektionsmuster anstelle des aus den mehreren Liniensegmenten gebildeten in 6 gezeigten Koordinatendetektionsmusters. Die Projektionseinheit 101 projiziert auf einen das Messzielobjekt 104 enthaltenden Raum das aus den mehreren Strichlinien gebildete Koordinatendetektionsmuster, das von der Projektionsmuster-Erzeugungseinheit 202 geliefert worden ist. Wie in Nichtpatentdokument 2 beschrieben, wird in dieser Ausführungsform das Strichlinienmuster auf das Messzielobjekt 104 projiziert, und der Einfluss von interner Streuung des Messzielobjekts 104 wird entfernt, wodurch es möglich wird die Projektionskoordinaten präziser zu berechnen.
  • Die Projektionsmuster-Erzeugungseinheit 202 erzeugt für das in 11 gezeigte Strichlinienmuster mehrere Muster durch nacheinander Verschieben der Strichlinien in einer Längsrichtung (die vertikale Richtung im Koordinatendetektionsmuster), und sendet die erzeugten Muster zur Projektionseinheit 101. 12 ist eine Ansicht zum Erklären der Verarbeitung zum Erzeugen mehrerer Koordinatendetektionsmuster durch Extrahieren von nur manchen der die Koordinatendetektionsmuster bildenden Strichlinien.
  • Die Projektionsmuster-Erzeugungseinheit 202 erzeugt ein Muster durch Verschieben der Strichlinien in der vertikalen Richtung um einen Pixel. In 12 zeigt a eine Strichlinie mit einem Wiederholungsmuster an, in dem zwei Pixel in der Längsrichtung der Strichlinie einen hellen Bereich bilden und zwei Pixel der Strichlinie einen dunklen Bereich bezüglich der Pixel der Projektionseinheit 101 bilden. Die Projektionsmuster-Erzeugungseinheit 202 erzeugt neu ein Muster (b von 12) durch Verschieben der in a von 12 gezeigten Strichlinien nach unten um einen Pixel, und sendet das erzeugte Muster an die Projektionseinheit 101. Die Projektionseinheit 101 projiziert das Muster in den das Messzielobjekt 104 enthaltenden Raum. Jedes Mal wenn ein Muster projiziert wird, nimmt die Bildaufnahmeeinheit 102 den das Messzielobjekt 104 enthaltenden Raum auf.
  • Als nächstes erzeugt die Projektionsmuster-Erzeugungseinheit 202 ein Muster (c von 12) durch weiteres Verschieben der Strichlinien nach unten um einen Pixel, und sendet das erzeugte Muster an die Projektionseinheit 101. Die Projektionsmuster-Erzeugungseinheit 202 erzeugt Koordinatendetektionsmuster durch Wiederholen der Verschiebungsverarbeitung für einen Zyklus der Strichlinie. In diesem Beispiel erzeugt die Projektionsmuster-Erzeugungseinheit 202 vier Muster (a bis d von 12) durch Verschieben der Strichlinien in der Längsrichtung, und sendet die erzeugten Muster an die Projektionseinheit 101.
  • Eine Bildverarbeitungseinheit 205 berechnet aus durch Projizieren der Koordinatendetektionsmuster erhaltenen aufgenommenen Bildern genau Bildkoordinaten, wo die Koordinatendetektionsmuster auf dem Messzielobjekt 104 beobachtet werden. In dieser Ausführungsform erfasst die Bildaufnahmeeinheit 102 aufgenommene Bilder (vier), die durch Projizieren der vier Arten durch Verschieben des Strichlinienmusters erzeugten Koordinatendetektionsmustern erhalten werden, und berechnet Bildkoordinaten aus den vier aufgenommenen Bildern.
  • Die Bildverarbeitungseinheit spezifiziert für jede Pixelposition (u, v) 205 einen größten Wert T und einen kleinsten Wert S von Luminanzwerten an der Pixelposition der jeweiligen vier aufgenommenen Bilder. Bezüglich eines auf dem Messzielobjekt 104 zu messenden Punkts wird musterförmiges Licht nicht direkt auf einen Pixel projiziert, der einem dunklen Bereich zum Zeitpunkt der Projektion des Strichlinienmusters entspricht, und somit wird nur interne Streuung beobachtet. Andererseits wird das musterförmige Licht direkt auf einen Punkt projiziert, der einem hellen Bereich entspricht, und somit wird beides Reflexionslicht und interne Streuung beobachtet. Unter der Bedingung, dass die Frequenz der Strichlinien genügend hoch ist, steht der kleinste Wert S für eine interne Streukomponente selbst, und ein durch Subtrahieren des kleinsten Werts S vom größten Wert T erhaltener Wert steht für eine durch die Oberfläche des Messzielobjekts 104 reflektierte Reflexionslichtkomponente. Die Bildverarbeitungseinheit 205 berechnet eine Reflexionslichtkomponente aus den durch Projizieren der Koordinatendetektionsmuster erhaltenen mehreren aufgenommenen Bildern. Das heißt, für jede Pixelposition wird das für die Pixelposition erhaltene Ergebnis aus Subtrahieren des kleinsten Werts S vom größten Wert T als ein Luminanzwert (Reflexionslichtkomponente) für die Pixelposition erhalten. Die Position des Koordinatendetektionsmusters wird aus dem Bild (das aufgenommene Bild der Reflexionslichtkomponente) detektiert, in dem der Pixel an jeder Pixelposition die erhaltene Reflexionskomponente aufweist. Da der Einfluss von interner Streuung schon von der Reflexionslichtkomponente entfernt worden ist, es ist möglich Bildkoordinaten hoher Genauigkeit zu erfassen durch intaktes Verwenden des aufgenommenen Bilds der Reflexionslichtkomponente anstelle der durch Projizieren der Koordinatendetektionsmuster erhaltenen aufgenommenen Bilder in der ersten Ausführungsform.
  • Die oben beschriebene Verarbeitung zum Durchführen von Messen einer dreidimensionalen Form des Messzielobjekts 104 durch eine Steuerungsvorrichtung 103 wird unter Bezugnahme auf 13 beschrieben, die ein den Prozess illustrierendes Flussdiagramm zeigt. Das in 13 gezeigte Flussdiagramm wird durch Hinzufügen von Schritt S1350 zum Flussdiagramm von 7 erhalten.
  • In Schritt S1350 erzeugt die Bildverarbeitungseinheit 205 ein aufgenommenes Bild einer Reflexionslichtkomponente durch Berechnen der Reflexionslichtkomponente wie oben beschrieben. Daher erhält die Bildverarbeitungseinheit 205 in Schritt S1400 die Position des Koordinatendetektionsmusters aus dem aufgenommenen Bild der Reflexionslichtkomponente, wodurch die Korrespondenz zwischen Bildkoordinaten und Projektionskoordinaten erhalten wird.
  • Wie oben beschrieben, werden gemäß dieser Ausführungsform die Strichlinienmuster als Koordinatendetektionsmuster projiziert, um den Einfluss von im Messzielobjekt auftretender interner Streuung zu entfernen, wodurch es möglich wird dreidimensionale Koordinaten auf der Oberfläche des Messzielobjekts genauer zu berechnen. Man beachte, dass manche oder alle der oben beschriebenen Ausführungsformen nach Bedarf kombiniert benutzt werden können.
  • In jeder der Ausführungsformen ist es möglich den Einfluss von Streuung und dergleichen zu unterdrücken, wenn ein einen lichtdurchlässigen Bereich enthaltendes Messzielobjekt mit musterförmigen Licht beleuchtet wird, und dreidimensionale Messung mit hoher Genauigkeit stabil durchzuführen.
  • [Vierte Ausführungsform]
  • Jede Einheit der in 2 gezeigten Steuerungsvorrichtung 103 kann durch Hardware implementiert werden. Jedoch können die Bildeingabeeinheit 204, Projektionsmuster-Erzeugungseinheit 202, Berechnungseinheit für dreidimensionale Koordinaten 208, Bildverarbeitungseinheit 205, Ergebnisausgabeeinheit 209, und dergleichen durch Software (Computerprogramme) implementiert werden. In diesem Fall ist eine Vorrichtung, die die Funktionen der Steuerungseinheit 210 und Parameterspeichereinheit 206 besitzt und die Computerprogramme ausführen kann, an der Steuerungsvorrichtung 103 einsetzbar. 14 zeigt ein Beispiel der Hardwareanordnung einer an der Steuerungsvorrichtung 103 einsetzbaren Computervorrichtung.
  • Eine CPU 1401 steuert die Gesamtoperation der Computervorrichtung durch Ausführen von verschiedenen Prozessen unter Verwendung von in einem RAM 1402 und einem ROM 1403 gespeicherten Computerprogrammen und Daten, und führt auch jeden Prozess aus, der als durch die Steuerungsvorrichtung 103 auszuführend beschrieben wurde. Somit fungiert die CPU 1401 auch als die Steuerungseinheit 210.
  • Das RAM 1402 besitzt einen Bereich zum temporären Speichern von Computerprogrammen und Daten, die von einem externen Speichergerät 1406 geladen werden, und von Computerprogrammen und Daten, die über an I/F (Interface) 1407 von außen empfangen werden. Das RAM 1402 besitzt auch einen Arbeitsbereich, der durch die CPU 1401 benutzt wird, um verschiedene Prozesse auszuführen. Das heißt, das RAM 1402 kann nach Bedarf verschiedene Bereiche bereitstellen. Das ROM 1403 speichert ein Bootprogramm und Einstelldaten der Computervorrichtung.
  • Eine Bedieneinheit 1404 wird aus einer Maus, einer Tastatur, und dergleichen gebildet, und kann durch den Benutzer der Computervorrichtung bedient werden, um verschiedene Anweisungen an die CPU 1401 einzugeben. Zum Beispiel ist es möglich eine Verarbeitungsendanweisung, eine Aktivierungsanweisung der Computervorrichtung, und dergleichen durch Bedienen dieser Bedieneinheit 1404 einzugeben.
  • Eine Anzeigeeinheit 1405 wird aus einer Bildröhre (CRT), einem Flüssigkristallbildschirm, oder dergleichen gebildet, und kann das Verarbeitungsergebnis der CPU 1401 durch Bilder, Zeichen, und dergleichen anzeigen. Zum Beispiel kann die Anzeigeeinheit 1405 als das Ausgabeziel der Ergebnisausgabeeinheit 209 benutzt werden.
  • Das externe Speichergerät 1406 ist ein Masseninformationsspeichergerät wie etwa ein Festplattenlaufwerkgerät. Das externe Speichergerät 1406 sichert Daten und Computerprogramme zum Bewirken, dass die CPU 1401 ein OS (Betriebssystem) sowie die jeweiligen Prozesse auszuführt, die als durch die Steuerungsvorrichtung 103 auszuführend beschrieben wurden. Die Computerprogramme beinhalten Computerprogramme zum Bewirken, dass die CPU 1401 die jeweiligen Prozesse ausführt, die als durch die Bildeingabeeinheit 204, Projektionsmuster-Erzeugungseinheit 202, Bildverarbeitungseinheit 205, Berechnungseinheit für dreidimensionale Koordinaten 208, und Ergebnisausgabeeinheit 209 auszuführend beschrieben wurden. Die Daten beinhalten die Information, die als in der Parameterspeichereinheit 206 zu sichernd beschriebenen wurden, und die verschiedene Arten als bekannte Information beschriebene Information. Das heißt, das externe Speichergerät 1406 fungiert auch als die Parameterspeichereinheit 206.
  • Die im externen Speichergerät 1406 gesicherten Computerprogramme und Daten werden nach Bedarf unter der Steuerung der CPU 1401 in das RAM 1402 geladen, und sind durch die CPU 1401 zu verarbeiten.
  • Das I/F 1407 wird benutzt, um ein externes Gerät mit der Computervorrichtung zu verbinden, und kann die Bildaufnahmeeinheit 102 und die Projektionseinheit 101 verbinden. Alle oben beschriebenen jeweiligen Einheiten sind mit einem Bus 1408 verbunden.
  • Andere Ausführungsformen
  • Ausführungsform(en) der vorliegenden Erfindung können auch durch einen Computer eines Systems oder Vorrichtung realisiert werden, der auf einem Speichermedium (das vollständiger auch als ein 'nicht-flüchtiges computerlesbares Speichermedium' bezeichnet werden kann) aufgezeichnete computerausführbare Anweisungen (z. B. ein oder mehr Programme) ausliest und ausführt, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen, und/oder der ein oder mehr Schaltungen (z. B. eine anwenderspezifisch-integrierte Schaltung (ASIC)) beinhaltet zum Durchführen der Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en), sowie durch ein durch den Computer des Systems oder Vorrichtung durchgeführtes Verfahren durch, zum Beispiel, Auslesen und Ausführen der computerausführbaren Anweisungen von dem Speichermedium, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen, und/oder Steuern der ein oder mehr Schaltungen, um die Funktionen von einer oder mehr der oben beschriebenen Ausführungsform(en) durchzuführen. Der Computer kann einen oder mehr Prozessoren (z. B. eine zentrale Verarbeitungseinheit (CPU), eine Mikroprozessoreinheit (MPU)) umfassen, und kann ein Netzwerk von separaten Computern oder separaten Computerprozessoren enthalten, um die computerausführbaren Anweisungen auszulesen und auszuführen. Die computerausführbaren Anweisungen können dem Computer zum Beispiel von einem Netzwerk oder dem Speichermedium zur Verfügung gestellt werden. Das Speichermedium kann zum Beispiel eins oder mehr aus einer Festplatte, einem Speicher mit wahlfreiem Zugriff (RAM), einem Nur-Lese-Speicher (ROM), einem Speicher von verteilten Computersystemen, einer optischen Platte (wie etwa eine Compact Disc (CD), Digital Versatile Disc (DVD) oder Blu-ray Disc (BD)TM), einer Flashspeichervorrichtung, einer Speicherkarte, und dergleichen enthalten.
  • Obwohl die vorliegende Erfindung unter Bezugnahme auf Ausführungsbeispiele beschrieben worden ist, ist selbstverständlich, dass die Erfindung nicht auf die offenbarten Ausführungsbeispiele begrenzt ist. Dem Umfang der folgenden Ansprüche soll die weitestgehende Interpretation zugestanden werden, sodass alle solchen Modifikationen und äquivalenten Strukturen und Funktionen erfasst sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2008-281399 [0003]
    • JP 2012-251893 [0003]
  • Zitierte Nicht-Patentliteratur
    • Tongbo Chen, Hans-Peter Seidel, Hendrik P. A. Lensch, Modulated phase-shifting for 3D scanning, CVPR 2008 [0003]
    • Tatsuhiko Furuse, Shinsaku Hiura, und Kosuke Sato, ”3-D Shape Measurement Method with Modulated Slit Light Robust for Interreflection and Subsurface Scattering”, MIRU2009, Meeting an Image Recognition and Understanding [0003]

Claims (16)

  1. Vorrichtung zum Messen einer dreidimensionalen Form, umfassend: eine erste Erfassungseinrichtung, die konfiguriert ist ein erstes aufgenommenes Bild eines Raums zu erfassen, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; eine zweite Erfassungseinrichtung, die konfiguriert ist ein zweites aufgenommenes Bild des Raums zu erfassen, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; eine Auswahleinrichtung, die konfiguriert ist, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, für jede aus mindestens einer vorbestimmten Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild eines, das die mindestens eine vorbestimmte Region enthält, als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild auszuwählen; sowie eine Messeinrichtung, die konfiguriert ist Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts durchzuführen, basierend auf dem durch die Auswahleinrichtung ausgewählten Auswahlbild.
  2. Vorrichtung nach Anspruch 1, wobei die Messeinrichtung betrieben werden kann, Messen einer dreidimensionalen Form des Objekts unter Verwendung eines in der vorbestimmten Region im Auswahlbild gelegenen Pixelwerts durchzuführen.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei das erste aufgenommene Bild und das zweite aufgenommene Bild jeweils aus einem nicht-invertierten Bild als aufgenommenes Bild des Raums, auf den ein aus einem hellen Bereich und einem dunklen Bereich gebildetes Muster projiziert worden ist, und einem invertierten Bild als aufgenommenes Bild des Raums, auf den ein durch Invertieren des hellen Bereichs und des dunklen Bereichs des Musters erhaltenes Muster projiziert worden ist, gebildet ist, wobei die Auswahleinrichtung betrieben werden kann, für jede vorbestimmte Region, als erste Differenz eine Differenz zwischen einem Luminanzwert in der vorbestimmten Region innerhalb des nicht-invertierten Bilds als das erste aufgenommene Bild und einem Luminanzwert in der vorbestimmten Region innerhalb des invertierten Bilds als das erste aufgenommene Bild zu erfassen sowie als zweite Differenz eine Differenz zwischen einem Luminanzwert in der vorbestimmten Region innerhalb des nicht-invertierten Bilds als das zweite aufgenommene Bild und einem Luminanzwert in der vorbestimmten Region innerhalb des invertierten Bilds als das zweite aufgenommene Bild zu erfassen, und wobei die Auswahleinrichtung eines aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild als Auswahlbild basierend auf der ersten Differenz und der zweiten Differenz auswählt.
  4. Vorrichtung nach Anspruch 3, wobei die Auswahleinrichtung betrieben werden kann, das erste aufgenommene Bild als das Auswahlbild für die vorbestimmte Region auszuwählen, wo die erste Differenz größer als die zweite Differenz ist, und das zweite aufgenommene Bild als das Auswahlbild für die vorbestimmte Region auszuwählen, wo die erste Differenz kleiner als die zweite Differenz ist.
  5. Vorrichtung nach einem der vorstehenden Ansprüche, wobei das erste aufgenommene Bild ein Bild des Raums beinhaltet, wo ein Koordinatendetektionsmuster auf jede Region des durch Projizieren des ersten Musters aufgeteilten Raums projiziert wird, und das zweite aufgenommene Bild ein Bild des Raums beinhaltet, wo ein Koordinatendetektionsmuster auf jede Region des durch Projizieren des zweiten Musters aufgeteilten Raums projiziert wird.
  6. Vorrichtung nach Anspruch 5, wobei die Messeinrichtung betrieben werden kann, unter den jeweiligen Regionen des durch Projizieren des Musters im Auswahlbild aufgeteilten Raums eine Region zu spezifizieren, auf der das Koordinatendetektionsmuster im Auswahlbild projiziert worden ist, sowie das Messen einer dreidimensionalen Form unter Verwendung einer Korrespondenz zwischen dem Koordinatendetektionsmuster im Auswahlbild und dem auf die spezifizierte Region projizierten Koordinatendetektionsmuster unter den für das Auswahlbild projizierten Koordinatendetektionsmustern durchzuführen.
  7. Vorrichtung nach Anspruch 5 oder 6, wobei die Koordinatendetektionsmuster Strichlinienmuster sind, in denen Luminanzwerte diskontinuierlich sind.
  8. Vorrichtung nach Anspruch 5, 6 oder 7, wobei die Koordinatendetektionsmuster mehrere Muster sind, die durch nacheinander Verschieben von Strichlinien in einer Längsrichtung bezüglich der Strichlinien erzeugt sind.
  9. Vorrichtung nach einem der vorstehenden Ansprüche, wobei das erste Muster und das zweite Muster Muster sind, in denen ein Grenzbereich zwischen einem hellen Bereich und einem dunklen Bereich maskiert wird.
  10. Vorrichtung nach einem der vorstehenden Ansprüche, weiterhin umfassend: eine Einrichtung, die konfiguriert ist ein aufgenommenes Bild einer Reflexionslichtkomponente zu erzeugen, die durch Entfernen des Einflusses von im Objekt auftretender Untergrundstreuung vom Auswahlbild erhalten wird, wobei die Messeinrichtung betrieben werden kann, das Messen einer dreidimensionalen Form unter Verwendung des aufgenommenen Bilds der Reflexionslichtkomponente als das Auswahlbild durchzuführen.
  11. Vorrichtung nach einem der vorstehenden Ansprüche, wobei das erste Muster und das zweite Muster auf Gray-Codes basierende Muster sind.
  12. Vorrichtung nach einem der vorstehenden Ansprüche, wobei das erste Muster mehrere jeweils aus einem hellen Bereich und einem dunklen Bereich gebildete Muster beinhaltet, wobei eine Breite von mindestens einem aus dem hellen Bereich und dem dunklen Bereich zwischen den verschiedenen Mustern verschieden sind, wobei das erste aufgenommene Bild eine durch Aufnehmen der mehreren Muster erhaltene Gruppe von aufgenommenen Bildern anzeigt, wobei das zweite Muster mehrere jeweils aus einem hellen Bereich und einem dunklen Bereich gebildete Muster beinhaltet, wobei eine Breite von mindestens einem aus dem hellen Bereich und dem dunklen Bereich zwischen den Mustern verschieden sind, und wobei das zweite aufgenommene Bild eine durch Aufnehmen der mehreren Muster erhaltene Gruppe von aufgenommenen Bildern anzeigt.
  13. Vorrichtung nach einem der vorstehenden Ansprüche, wobei das Objekt ein lichtdurchlässiges Objekt ist.
  14. Vorrichtung nach einem der vorstehenden Ansprüche, weiterhin umfassend: eine Projektionseinrichtung, die konfiguriert ist jedes aus dem ersten Muster und zweiten Muster zu projizieren; und eine Bildaufnahmeeinrichtung, die konfiguriert ist das erste aufgenommene Bild des Raums, auf den das erste Muster projiziert worden ist, sowie das zweite aufgenommene Bild des Raums, auf den das zweite Muster projiziert worden ist, aufzunehmen.
  15. Verfahren zum Messen einer dreidimensionalen Form, umfassend: einen ersten Erfassungsschritt des Erfassens eines ersten aufgenommenen Bilds eines Raums, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; einen zweiten Erfassungsschritt des Erfassens eines zweiten aufgenommenen Bilds des Raums, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; einen Auswahlschritt des Auswählens, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, eines aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild für jede vorbestimmte Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild; sowie einen Messschritt des Durchführens von Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts basierend auf dem im Auswahlschritt ausgewählten Auswahlbild.
  16. Nichtflüchtiges computerlesbares Speichermedium, das ein Computerprogramm speichert zum Bewirken, dass ein Computer fungiert als erste Erfassungseinrichtung, die konfiguriert ist ein erstes aufgenommenes Bild eines Raums zu erfassen, auf den ein erstes Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist; als zweite Erfassungseinrichtung, die konfiguriert ist ein zweites aufgenommenes Bild des Raums zu erfassen, auf den ein zweites Lichtmuster projiziert worden ist, das aus einem hellen Bereich und einem dunklen Bereich gebildet ist und eine Grenzposition zwischen dem hellen Bereich und dem dunklen Bereich besitzt, die verschieden von der des ersten Musters ist; als Auswahleinrichtung, die konfiguriert ist, basierend auf einem Luminanzwert im ersten aufgenommenen Bild und einem Luminanzwert im zweiten aufgenommenen Bild, für jede vorbestimmte Region des ersten aufgenommenen Bilds oder des zweiten aufgenommenen Bilds eines aus dem ersten aufgenommenen Bild und dem zweiten aufgenommenen Bild als ein zum Messen einer dreidimensionalen Form zu benutzendes Auswahlbild auszuwählen; sowie als Messeinrichtung, die konfiguriert ist Messen einer dreidimensionalen Form eines im Raum enthaltenen Objekts durchzuführen basierend auf dem durch die Auswahleinrichtung ausgewählten Auswahlbild.
DE102015000386.0A 2014-01-17 2015-01-13 Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium Active DE102015000386B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-007271 2014-01-17
JP2014007271A JP6320051B2 (ja) 2014-01-17 2014-01-17 三次元形状計測装置、三次元形状計測方法

Publications (2)

Publication Number Publication Date
DE102015000386A1 true DE102015000386A1 (de) 2015-07-23
DE102015000386B4 DE102015000386B4 (de) 2018-06-07

Family

ID=53497939

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015000386.0A Active DE102015000386B4 (de) 2014-01-17 2015-01-13 Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium

Country Status (5)

Country Link
US (1) US9557167B2 (de)
JP (1) JP6320051B2 (de)
CN (1) CN104792277B (de)
DE (1) DE102015000386B4 (de)
GB (1) GB2522551B (de)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9759553B2 (en) * 2013-07-09 2017-09-12 Auburn University Determining geometric characteristics of reflective surfaces
JP6434788B2 (ja) * 2014-03-06 2018-12-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 計測システム、計測方法およびビジョンチップ
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
JP6418884B2 (ja) * 2014-10-10 2018-11-07 キヤノン株式会社 三次元計測装置、三次元計測方法及びプログラム
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US10281264B2 (en) * 2014-12-01 2019-05-07 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and control method for the same
US10032279B2 (en) * 2015-02-23 2018-07-24 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
JP6681258B2 (ja) * 2015-06-01 2020-04-15 キヤノン株式会社 計測装置、システム、物品の製造方法、算出方法及びプログラム
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) * 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3396313B1 (de) * 2015-07-15 2020-10-21 Hand Held Products, Inc. Verfahren und vorrichtung zur mobilen dimensionierung mit dynamischer nist-standardkonformer genauigkeit
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
KR102368597B1 (ko) * 2015-11-11 2022-03-02 삼성전자주식회사 영상 촬영 장치 및 이의 제어 방법
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
CN105588511A (zh) * 2015-12-15 2016-05-18 中核(天津)机械有限公司 激光测量透明件尺寸的辅助方法
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
US10685490B2 (en) 2016-03-10 2020-06-16 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10192311B2 (en) * 2016-08-05 2019-01-29 Qualcomm Incorporated Methods and apparatus for codeword boundary detection for generating depth maps
EP3309616A1 (de) * 2016-10-14 2018-04-18 ASML Netherlands B.V. Verfahren für die prüfung von einem substrat, metrologievorrichtung und lithografisches system
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
JP6702171B2 (ja) * 2016-12-22 2020-05-27 カシオ計算機株式会社 投影制御装置、投影制御方法及びプログラム
JP6673266B2 (ja) * 2017-03-08 2020-03-25 オムロン株式会社 相互反射検出装置、相互反射検出方法、およびプログラム
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10262428B2 (en) * 2017-04-07 2019-04-16 Massachusetts Institute Of Technology System and method for adaptive range 3D scanning
JP7029654B2 (ja) 2017-07-12 2022-03-04 パナソニックIpマネジメント株式会社 投影撮像システム、計測装置および投影撮像方法
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
JP7178803B2 (ja) 2018-06-04 2022-11-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
WO2020127828A1 (de) * 2018-12-21 2020-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, vermessungssystem und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche unter verwendung zweier spiegelungsmuster
CN114080535A (zh) * 2019-06-28 2022-02-22 佳能株式会社 测量设备、摄像设备、测量系统、控制方法以及程序
JP2021022807A (ja) * 2019-07-26 2021-02-18 セイコーエプソン株式会社 プロジェクターの制御方法、及び、プロジェクター
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
JP2021060326A (ja) * 2019-10-09 2021-04-15 興和株式会社 表面検査装置
JP2021076531A (ja) * 2019-11-12 2021-05-20 Juki株式会社 3次元計測装置及び3次元計測方法
CN113155053A (zh) * 2020-01-22 2021-07-23 株式会社三丰 三维几何形状测量装置和三维几何形状测量方法
WO2021258273A1 (zh) * 2020-06-23 2021-12-30 广东省航空航天装备技术研究所 基于三维成像的加工方法、装置、设备及存储介质
CN112414301B (zh) * 2020-10-22 2021-09-03 光华临港工程应用技术研发(上海)有限公司 一种用于线结构光三维测量的设备
CN112762860B (zh) * 2020-12-28 2022-03-15 电子科技大学 一种高帧率正弦条纹场投射模块
WO2022172227A1 (en) * 2021-02-13 2022-08-18 Gupta Arbind Measurement of position and orientation of an object
CN113256798B (zh) * 2021-06-04 2023-05-05 猫岐智能科技(上海)有限公司 光幕遮挡区域生成系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281399A (ja) 2007-05-09 2008-11-20 Konica Minolta Sensing Inc 三次元測定装置及び携帯型計測器
JP2012251893A (ja) 2011-06-03 2012-12-20 Seiko Epson Corp 形状計測装置、形状計測装置の制御方法、およびプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848188A (en) * 1994-09-08 1998-12-08 Ckd Corporation Shape measure device
JP2002164066A (ja) 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP4347614B2 (ja) * 2003-06-10 2009-10-21 Jfeテクノリサーチ株式会社 3次元曲面形状の測定装置及び測定方法
JP2005293075A (ja) 2004-03-31 2005-10-20 Brother Ind Ltd 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム
JP4501587B2 (ja) 2004-08-18 2010-07-14 富士ゼロックス株式会社 3次元画像測定装置および方法
WO2006109308A1 (en) 2005-04-12 2006-10-19 Sharon Ehrlich Real-time imaging method and system using structured light
JP4917351B2 (ja) * 2006-05-16 2012-04-18 ローランドディー.ジー.株式会社 3次元形状測定装置におけるキャリブレーション方法
KR20080043047A (ko) 2006-11-13 2008-05-16 주식회사 고영테크놀러지 새도우 모아레를 이용한 3차원형상 측정장치
CA2670214A1 (en) 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8477318B2 (en) * 2007-11-01 2013-07-02 Dimensional Photonics International, Inc. Optical fiber-based three-dimensional imaging system
JP2009216650A (ja) * 2008-03-12 2009-09-24 Aisin Seiki Co Ltd 三次元形状測定装置
JP5486182B2 (ja) * 2008-12-05 2014-05-07 キヤノン株式会社 情報処理装置および情報処理方法
WO2011013373A1 (en) 2009-07-29 2011-02-03 Canon Kabushiki Kaisha Measuring apparatus, measuring method, and program
JP5698465B2 (ja) * 2010-04-22 2015-04-08 キヤノン株式会社 眼科装置、表示制御方法及びプログラム
JP5576726B2 (ja) 2010-06-29 2014-08-20 キヤノン株式会社 三次元計測装置、三次元計測方法、及びプログラム
US9007602B2 (en) 2010-10-12 2015-04-14 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program
US20120141544A1 (en) * 2010-12-03 2012-06-07 Fuisz Richard C Solid Dosage Form That Promotes Reliable Oral, Esophageal and GI Transit
JP5815940B2 (ja) 2010-12-15 2015-11-17 キヤノン株式会社 距離計測装置、距離計測方法、およびプログラム
JP5611022B2 (ja) * 2010-12-20 2014-10-22 キヤノン株式会社 三次元計測装置及び三次元計測方法
JP2012208005A (ja) * 2011-03-29 2012-10-25 Hiroshima Univ 計測装置、検査装置及び計測方法
JP5995408B2 (ja) * 2011-04-01 2016-09-21 キヤノン株式会社 情報処理装置、撮影システム、情報処理方法および情報処理をコンピュータに実行させるためのプログラム
US9482529B2 (en) 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9182221B2 (en) * 2011-06-13 2015-11-10 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5918984B2 (ja) * 2011-12-06 2016-05-18 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6238521B2 (ja) * 2012-12-19 2017-11-29 キヤノン株式会社 3次元計測装置およびその制御方法
JP6104662B2 (ja) * 2013-03-25 2017-03-29 株式会社東芝 計測装置、方法及びプログラム
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
CN103438832B (zh) * 2013-08-30 2016-01-20 解则晓 基于线结构光的三维影像测量方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281399A (ja) 2007-05-09 2008-11-20 Konica Minolta Sensing Inc 三次元測定装置及び携帯型計測器
JP2012251893A (ja) 2011-06-03 2012-12-20 Seiko Epson Corp 形状計測装置、形状計測装置の制御方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Tatsuhiko Furuse, Shinsaku Hiura, und Kosuke Sato, "3-D Shape Measurement Method with Modulated Slit Light Robust for Interreflection and Subsurface Scattering", MIRU2009, Meeting an Image Recognition and Understanding
Tongbo Chen, Hans-Peter Seidel, Hendrik P. A. Lensch, Modulated phase-shifting for 3D scanning, CVPR 2008

Also Published As

Publication number Publication date
JP2015135294A (ja) 2015-07-27
GB201500627D0 (en) 2015-03-04
CN104792277B (zh) 2018-04-10
GB2522551B (en) 2018-06-27
US20150204662A1 (en) 2015-07-23
DE102015000386B4 (de) 2018-06-07
JP6320051B2 (ja) 2018-05-09
GB2522551A (en) 2015-07-29
US9557167B2 (en) 2017-01-31
CN104792277A (zh) 2015-07-22

Similar Documents

Publication Publication Date Title
DE102015000386B4 (de) Vorrichtung und Verfahren zum Messen einer dreidimensionalen Form und nichtflüchtiges computerlesbares Speichermedium
DE102015104732B4 (de) Informationsverarbeitungsvorrichtung, verfahren zum steuern einer informationsverarbeitungsvorrichtung, greifsystem und speichermedium
DE112012001243B4 (de) Verfahren zum Messen von Tiefenwerten in einer Szene
DE60124604T2 (de) Stereobildmessvorrichtung
US10430962B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and storage medium that calculate a three-dimensional shape of an object by capturing images of the object from a plurality of directions
DE102016107959A1 (de) Auf strukturiertem Licht basierende Multipfadlöschung bei Top-Bilderzeugung
DE112011103006T5 (de) Verfahren und Vorrichtung zum Messen der Form eines Objekts
DE102012108567A1 (de) Verfahren und Vorrichtung zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
US20160094830A1 (en) System and Methods for Shape Measurement Using Dual Frequency Fringe Patterns
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
DE102016003294A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE112011103452T5 (de) Verfahren zum Angleichen von Pixeln einer Entfernungsdarstellung
DE102016106511A1 (de) Parametrische Online-Kalibrierung und Kompensation bei der TOF-Bilderzeugung
DE102016205826A1 (de) Systeme und Verfahren für Laufzeitmessung mittels einer einzigen Belichtung
DE102013205762A1 (de) Informationsverarbeitungsvorrichtung, die eine dreidimensionale Formvermessung durchführt, Informationsverarbeitungsverfahren und Speichermedium
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE112012005755B4 (de) Vorrichtung zur dreidimensionalen Messung
DE102015207638A1 (de) Tragbarer 3D-Scanner und Verfahren zum Erzeugen eines einem Objekt entsprechenden 3D-Scanergebnisses
DE102016014188A1 (de) Erzeugung eines 3-D-Modells aus 2-D-Bildern
DE102015103785A1 (de) Verfahren und Vorrichtung zur Kalibration einer Kamera
DE102020132238A1 (de) Verfahren, systeme, herstellungsgegenstände und einrichtungen zum weiterentwickeln von bildtiefenvertrauenskarten
DE202013012443U1 (de) Zusammenführung dreidimensionaler Modelle auf Basis des Konfidenzmaßes
DE102017009983A1 (de) Bilderfassungsvorrichtung und Bilderfassungsverfahren
US20170116739A1 (en) Apparatus and method for raw-cost calculation using adaptive window mask
DE102014102011A1 (de) System und Verfahren zum Erzeugen eines Bildes mit einem breiten dynamischen Bereich

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final