DE112017001464B4 - Abstandsmessvorrichtung und Abstandsmessverfahren - Google Patents

Abstandsmessvorrichtung und Abstandsmessverfahren Download PDF

Info

Publication number
DE112017001464B4
DE112017001464B4 DE112017001464.6T DE112017001464T DE112017001464B4 DE 112017001464 B4 DE112017001464 B4 DE 112017001464B4 DE 112017001464 T DE112017001464 T DE 112017001464T DE 112017001464 B4 DE112017001464 B4 DE 112017001464B4
Authority
DE
Germany
Prior art keywords
distance
unit
distance measuring
focal length
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112017001464.6T
Other languages
English (en)
Other versions
DE112017001464T5 (de
Inventor
Takeo Fujita
Koichi Yamashita
Narihiro Matoba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of DE112017001464T5 publication Critical patent/DE112017001464T5/de
Application granted granted Critical
Publication of DE112017001464B4 publication Critical patent/DE112017001464B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/12Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with monocular observation at a single point, e.g. coincidence type
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Abstandsmessvorrichtung (1, 2), umfassend:eine Projektionseinheit (13), die eine Vielzahl von Lichtmustern auf ein Subjekt projiziert;ein optisches System (11) mit einem Mechanismus, der eine Brennweite ändert;eine Abbildungseinheit (12), die das Subjekt über das optische System (11) fotografiert;eine Steuereinheit (14), die die Projektionseinheit (13) veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit (12) veranlasst, eine Vielzahl von ersten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System (11) veranlasst wird, die Brennweite auf eine erste Brennweite einzustellen, und die die Projektionseinheit (13) veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit (12) veranlasst, eine Vielzahl von zweiten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System (11) veranlasst wird, die Brennweite auf eine zweite Brennweite einzustellen, die länger ist als die erste Brennweite;eine erste Abstandsmesseinheit (21), die das Vorhandensein oder Nichtvorhandensein einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder bestimmt und einen ersten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel, erwirbt aus einem Bildunschärfeindexwert, anzeigend einen Grad der Bildunschärfe;eine zweite Abstandsmesseinheit (22), die einen zweiten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel, erwirbt auf Grundlage von Triangulation aus der Vielzahl der ersten erworbenen Bilder und der Vielzahl der zweiten erworbenen Bilder; undeine Messergebnissyntheseeinheit (23), die den ersten Abstand für ein Pixel ausgibt, für das durch die erste Abstandsmesseinheit (21) bestimmt ist, ein Pixel mit der Bildunschärfe zu sein, und die den zweiten Abstand für ein Pixel ausgibt, für das bestimmt ist, ein Pixel ohne Bildunschärfe zu sein.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Abstandsmessvorrichtung und ein Abstandsmessverfahren, das einen Abstand zu einem Subjekt misst.
  • HINTERGRUND ZUM STAND DER TECHNIK
  • Herkömmlicherweise ist eine Abstandsmessvorrichtung bekannt, die einen Abstand (einen Subjektabstand) zu einem Subjekt (einem Objekt) misst, unter Verwendung eines Unschärfegrades eines aufgenommenen Bildes (Bilddaten), das durch eine Abbildungseinheit einer Kamera erhalten wurde (siehe z.B. Patentreferenz 1). Es ist auch eine Vorrichtung bekannt, das eine Form eines zu messenden Objekts auf der Grundlage eines aufgenommenen Bildes (Bilddaten) misst, das durch Fotografieren des Subjekts (zu messendes Objekt) mit einer Kamera erhalten wurde, die mit Lichtmustern durch eine Lichtprojektionseinrichtung beleuchtet wurde (siehe z.B. Patentreferenz 2).
  • Patentreferenz 3 beschreibt ein Verfahren zum Anfertigen eines Bildes eines Objektes mit Tiefeninformationen. Dabei wird das Objekt mit einem periodischen Muster beleuchtet, wobei eine Beleuchtungseinrichtung dergestalt ist, dass sich das Muster im Fokus einer Fokusebene befindet und sich mit zunehmendem Abstand von der Fokusebene zunehmend defokussiert. Das Objekt wird so platziert, dass verschiedene Teile davon sich in unterschiedlichen Distanzen von der Fokusebene befinden. Es werden dann Bilddaten des beleuchteten Objekts aufgenommen, das aufgenommene Bild analysiert, um Tiefeninformationen, basierend auf dem Maß der Defokussierung, abzuleiten und das Bild ohne das Muster und mit Tiefeninformationen angezeigt.
  • Patentreferenz 4 beschreibt einen 3D-Triangulationsscanner mit einem Projektor, einer Kamera und einem Prozessor. Zumindest einer aus Projektor und Kamera hat eine Zoom-Linse und einen motorisierten Zoom-Anpassungsmechanismus. Es werden 3D-Koordinaten von Punkten auf einer Oberfläche berechnet, die zumindest teilweise auf einer Basislänge, einer Orientierung des Projektors und der Kamera, einer Position eines korrespondierenden Quellenpunktes auf einer Beleuchtungsmusterquelle des Projektors und einer Position eines korrespondierenden Bildpunktes auf einem fotosensitiven Array der Kamera basieren.
  • REFERENZEN ZUM STAND DER TECHNIK
  • PATENTREFERENZ
    • PATENTREFERENZ 1: Japanische Patentanmeldung JP 2013 - 512 626 A (Absätze 0009-0032, 1, 2A, 2B)
    • PATENTREFERENZ 2: Japanische Patentanmeldung JP H05- 332 737 A (Seiten 3-5, 1)
    • PATENTREFERENZ 3: US 2006 / 0 072 123 A1
    • PATENTREFERENZ 4: US 2015 / 0 015 701 A1
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDES PROBLEM
  • Da die in Patentreferenz 1 gezeigte Vorrichtung jedoch keine Lichtprojektionseinrichtung aufweist, die Lichtmuster emittiert, besteht das Problem, dass ein Abstand zu einem Subjekt, das keinen für die Merkmalsextraktion geeigneten Punkt (Merkmalspunkt) aufweist, nicht genau gemessen werden kann.
  • Die in Patentreferenz 2 gezeigte Vorrichtung weist eine Lichtprojektionseinrichtung auf, die Lichtmuster emittiert. So kann die Vorrichtung einen Abstand zu einem Subjekt messen, das keinen Merkmalspunkt aufweist. Die Vorrichtung hat jedoch das Problem, dass sie einen Abstand zu einem Subjekt, das sich an einer Stelle befindet, an der die Kamera nicht scharfstellen kann (eine Stelle, an der eine Bildunschärfe vorhanden ist), nicht genau messen kann.
  • Eine Aufgabe der vorliegenden Erfindung besteht somit darin, eine Abstandsmessvorrichtung und ein Abstandsmessverfahren bereitzustellen, die unabhängig vom Vorhandensein oder Nichtvorhandensein einer Bildunschärfe einen Abstand zu einem Subjekt genau messen können.
  • MITTEL ZUR LÖSUNG DES PROBLEMS
  • Eine Abstandsmessvorrichtung nach einem Aspekt der vorliegenden Erfindung umfasst: eine Projektionseinheit, die eine Vielzahl von Lichtmustern auf ein Subjekt projiziert; ein optisches System mit einem Mechanismus, der eine Brennweite ändert; eine Abbildungseinheit, die das Subjekt über das optische System fotografiert; eine Steuereinheit, die die Projektionseinheit veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit veranlasst, eine Vielzahl von ersten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System veranlasst wird, die Brennweite auf eine erste Brennweite einzustellen, und die die Projektionseinheit veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit veranlasst, eine Vielzahl von zweiten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System veranlasst wird, die Brennweite auf eine zweite Brennweite einzustellen, die länger ist als die erste Brennweite; eine erste Abstandsmesseinheit, die Vorhandensein oder Nichtvorhandensein einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder bestimmt und einen ersten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel, aus einem Bildunschärfeindexwert, der einen Grad der Bildunschärfe anzeigt, erwirbt; eine zweite Abstandsmesseinheit, die einen zweiten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel erwirbt auf der Grundlage von Triangulation aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder; und eine Messergebnissyntheseeinheit, die den ersten Abstand für ein Pixel ausgibt, für das durch die erste Abstandsmesseinheit bestimmt ist, ein Pixel mit der Bildunschärfe zu sein, und die den zweiten Abstand für ein Pixel ausgibt, für das bestimmt ist, ein Pixel ohne Bildunschärfe zu sein.
  • Ein Abstandsmessverfahren nach einem weiteren Aspekt der vorliegenden Erfindung ist das Verfahren, das durch eine Vorrichtung durchgeführt wird, aufweisend eine Projektionseinheit, die eine Vielzahl von Lichtmustern auf ein Subjekt projiziert, ein optisches System mit einem Mechanismus, der eine Brennweite ändert, und eine Abbildungseinheit, die das Subjekt über das optische System fotografiert, und umfasst: einen Schritt des Veranlassens der Projektionseinheit die Vielzahl von Lichtmustern sequentiell zu projizieren und des Veranlassens der Abbildungseinheit eine Vielzahl von ersten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn die Brennweite des optischen Systems auf eine erste Brennweite eingestellt ist; einen Schritt des Veranlassens der Projektionseinheit die Vielzahl von Lichtmustern sequentiell zu projizieren und des Veranlassens der Abbildungseinheit eine Vielzahl von zweiten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn die Brennweite des optischen Systems auf eine zweite Brennweite länger als die erste Brennweite eingestellt ist; einen Schritt des Bestimmens des Vorhandenseins oder Nichtvorhandenseins einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder und Erwerbens eines ersten Abstands, der ein Abstand zu dem Subjekt ist, pro Pixel, aus einem Bildunschärfeindexwert, der einen Grad der Bildunschärfe anzeigt; einen Schritt des Erwerbens eines zweiten Abstands, der ein Abstand zu dem Subjekt ist, pro Pixel, auf Grundlage von Triangulation aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder; und einen Schritt des Ausgebens des ersten Abstands für ein Pixel, für das bestimmt ist, ein Pixel mit der Bildunschärfe zu sein in dem Schritt des Erwerbens des ersten Abstands, und Ausgebens des zweiten Abstands für ein Pixel, für das bestimmt ist, ein Pixel ohne Bildunschärfe zu sein.
  • WIRKUNGEN DER ERFINDUNG
  • Gemäß der vorliegenden Erfindung kann ein Abstand zu einem Subjekt genau gemessen werden, unabhängig davon, ob eine Bildunschärfe vorhanden ist oder nicht vorhanden ist.
  • Figurenliste
    • 1 ist ein Blockschaltbild, das die schematische Konfiguration einer Abstandsmessvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung darstellt.
    • 2 ist eine schematische Darstellung der Anordnung eines optischen Systems, einer Abbildungseinheit und einer Projektionseinheit, die in 1 dargestellt sind.
    • 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) sind Diagramme zum Darstellen von Beispielen für 12 Arten von Lichtmustern, die durch die in 1 dargestellte Projektionseinheit projiziert werden.
    • 4(A) und 4(B) sind Diagramme, die jeweils ein Lichtmuster mit Streifen von hellen Bereichen und Streifen von dunklen Bereichen darstellen, wobei diese Lichtmuster eine entgegengesetzte Anordnungsfolge zueinander haben; 4(C) und 4(D) sind Diagramme, die Pixelwerte von aufgenommenen Bildern darstellen, die durch Fotografieren eines Objekts erhalten wurden, auf das die Lichtmuster in 4(A) und 4(B) projiziert werden (wenn keine Bildunschärfe vorhanden ist); 4(E) ist ein Diagramm, das eine Pixelwertdifferenz zwischen 4(C) und 4(D) darstellt; 4(F) und 4(G) sind Diagramme, die Pixelwerte der aufgenommenen Bilder darstellen, die durch Fotografieren des Objekts, auf das die Lichtmuster in 4(A) und 4(B) projiziert werden (wenn eine Bildunschärfe vorhanden ist) erhalten wurden; und 4(H) ist ein Diagramm, das eine Pixelwertdifferenz zwischen 4(F) und 4(G) darstellt.
    • 5 ist ein Diagramm, das in einem Tabellenformat ein Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen und ein Bildunschärfe-Indexwert-Kennzeichen darstellt, das von einer in 1 dargestellten ersten Abstandsmesseinheit in Bezug auf eine Kombination aus einem ersten Bestimmungsergebnis, das erhalten wird, wenn eine Brennweite des optischen Systems auf eine nahe Position (eine erste Position) eingestellt wird, und einem zweiten Bestimmungsergebnis, das erhalten wird, wenn die Brennweite des optischen Systems auf eine ferne Position (eine zweite Position) eingestellt wird, ausgegeben wird.
    • 6(A) und 6(B) sind Diagramme zum Darstellen von Beispielen von LUTs als Daten, die von der in 1 dargestellten ersten Abstandsmesseinheit verwendet werden, um einen Subjektabstand aus dem Bildunschärfeindexwert zu erhalten.
    • 7 ist ein Diagramm, das ein Verfahren zum Berechnen der Positionsnummern der Streifen, die ein Lichtmuster bilden, darstellt, wobei die Positionsnummern verwendet werden, um Positionen auf einem Subjekt anzuzeigen, auf das das Lichtmuster projiziert wird (Positionsnummern der Streifen von hellen Bereichen und der Streifen von dunklen Bereichen in 3(A1) und 3(A2)).
    • 8 ist ein Diagramm, das eine Beziehung zwischen den Positionen auf dem Subjekt, auf die Lichtmuster projiziert werden, und den Positionsnummern der Streifen, die die Lichtmuster bilden (Positionsnummern der Streifen von hellen Bereichen und Streifen von dunklen Bereichen in 3(A1) und 3(A2)) darstellt.
    • 9 ist ein Diagramm, das ein Abstandsmessverfahren darstellt, das von der in 1 dargestellten zweiten Abstandsmesseinheit durchgeführt wird auf der Grundlage einer Positionsbeziehung zwischen der Projektionseinheit, der Abbildungseinheit und dem Subjekt.
    • 10 ist ein Flussdiagramm, das die Verarbeitung der Ausgabe eines Ergebnisses der Messung des Subjektabstandes durch die in 1 dargestellte Bilddatenverarbeitungseinheit veranschaulicht.
    • 11 ist ein Blockschaltbild, das eine schematische Konfiguration einer Abstandsmessvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung darstellt.
    • 12 ist ein Flussdiagramm, das die Verarbeitung der Ausgabe eines Ergebnisses der Messung des Subjektabstandes durch eine in 11 dargestellte Bilddatenverarbeitungseinheit darstellt.
    • 13(A) ist ein Diagramm, das einen Fehlerauftrittsbereich darstellt, und 13(B) bis 13(E) sind Diagramme, die Pixelpositionen darstellen, auf die sich bezogen wird, wenn die Bewegungsrichtung der Fotografiereinheit in Bezug auf den Fehlerauftrittsbereich bestimmt wird.
    • 14 ist ein Diagramm, das die Bewegung der Position der Fotografiereinheit mit einem optischen System, einer Abbildungseinheit und einer Projektionseinheit darstellt, wie in 11 dargestellt.
    • 15 ist ein Hardware-Konfigurationsdiagramm, das die Konfiguration einer Variation der Abstandsmessvorrichtungen gemäß der ersten und zweiten Ausführungsform darstellt.
  • AUSFÜRHUNGSFORM ZUR AUSFÜHRUNG DER ERFINDUNG
  • Erste Ausführungsform
  • Konfiguration
  • 1 ist ein Blockschaltbild, das die schematische Konfiguration einer Abstandsmessvorrichtung 1 gemäß einer ersten Ausführungsform der vorliegenden Erfindung darstellt. Die Abstandsmessvorrichtung 1 ist eine Vorrichtung, die ein Abstandsmessverfahren gemäß der ersten Ausführungsform durchführen kann. Wie in 1 dargestellt, umfasst die Abstandsmessvorrichtung 1 als Hauptkomponenten eine Bilddatenerwerbungseinheit (eine Kamera und eine Lichtprojektionseinrichtung) 10, die ein aufgenommenes Bild (Bilddaten) erwerben, das durch Fotografieren eines Subjekts (eines Objekts) erhalten wurde, und eine Bilddatenverarbeitungseinheit 20, die unter Verwendung der von der Bilddatenerwerbungseinheit 10 erworbenen Bilddaten (z.B. ein Leuchtdichtewert jedes Pixels im aufgenommenen Bild) einen Abstand (einen Subjektabstand) zum Subjekt erhält und Abstandsdaten Zout ausgibt, die den erhaltenen Abstand (z.B. Abstandsdaten pro Pixel) angeben. Die Bilddatenverarbeitungseinheit 20 kann eine Anzeigeeinheit (eine Flüssigkristallanzeigeeinheit) zur Anzeige der Abstandsdaten Zout als einen Zahlenwert oder eine Karte mit den Abstandsdaten und eine Bedieneinheit für Benutzeroperationen enthalten.
  • Wie in 1 dargestellt, umfasst die Bilddatenerwerbungseinheit 10: ein optisches System 11 mit einem optischen Element, wie einer Linse oder einer Gruppe von Linsen, und einem Mechanismus, der eine Brennweite (Brennpunktposition) ändert; eine Abbildungseinheit 12, die das Subjekt über das optische System 11 (zum Beispiel über die Linse) fotografiert; und eine Projektionseinheit 13, die eine Lichtprojektionseinrichtung ist, die eine Vielzahl von Lichtmustern auf das in einem Abbildungsraum vorhandene Subjektprojiziert (emittiert). Das optische System 11 kann einen Blendenanpassungsmechanismus enthalten, der eine Blende anpasst. Zusätzlich umfasst die Bilddatenerwerbungseinheit 10 eine Steuereinheit 14, die die Bilddatenerwerbungseinheit 10 (das optische System 11, die Abbildungseinheit 12 und die Projektionseinheit 13 in der ersten Ausführung) vollständig steuert.
  • Die Steuereinheit 14 veranlasst das optische System 11 die Brennweite auf eine erste Brennweite f1 (eine kurze Brennweite, d.h. eine Brennpunktposition in der Nähe der Abbildungseinheit 12) ein. In diesem Zustand veranlasst die Steuereinheit 14 die Projektionseinheit 13 eine Vielzahl von Lichtmustern sequentiell zu projizieren und veranlasst die Abbildungseinheit 12 eine Vielzahl von ersten aufgenommenen Bildern G1 entsprechend der Vielzahl von Lichtmustern zu erwerben. Beispiele für die Vielzahl der Lichtmuster sind in 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) dargestellt, die nachfolgend beschrieben werden. Die Vielzahl der ersten aufgenommenen Bilder G1 entsprechend der Vielzahl der Lichtmuster kann auch durch G1A1, G1A2, G1B1, G1B2, G1C1, G1C2, G1D1, G1D2, G1E1, G1E2, G1F1 und G1F2 bezeichnet werden.
  • Zusätzlich veranlasst die Steuereinheit 14 das optische System 11 die Brennweite auf eine zweite Brennweite f2 (eine lange Brennweite, d.h. eine von der Abbildungseinheit 12 entfernte Brennpunktposition) länger als die erste Brennweite f1 einzustellen. In diesem Zustand veranlasst die Steuereinheit 14 die Projektionseinheit 13 die Vielzahl von Lichtmustern sequentiell zu projizieren und veranlasst die Abbildungseinheit 12 eine Vielzahl von zweiten aufgenommenen Bildern G2 entsprechend der Vielzahl von Lichtmustern zu erwerben. Beispiele für die Vielzahl der Lichtmuster sind in 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) dargestellt, die nachfolgend beschrieben werden. Die Vielzahl der zweiten aufgenommenen Bilder G2 entsprechend der Vielzahl der Lichtmuster werden auch durch G2A1, G2A2, G2B1, G2B2, G2C1, G2C2, G2D1, G2D2, G2E1, G2E2, G2F1 und G2F2 bezeichnet.
  • Wie in 1 dargestellt, umfasst die Bilddatenverarbeitungseinheit 20 eine ersten Abstandsmesseinheit (eine Bildunschärfe-Bestimmungseinheit) 21, eine zweite Abstandsmesseinheit (eine Triangulationseinheit) 22, einer Messergebnissyntheseeinheit 23 und eine Steuereinheit 24. Die erste Abstandsmesseinheit 21 kann eine Speichereinheit 21a umfassen, z.B. einen Speicher, in dem Informationen gespeichert sind. Die zweite Abstandsmesseinheit 22 kann eine Speichereinheit 22a aufweisen, z.B. einen Speicher, in dem Informationen gespeichert sind. Die Speichereinheit 21a kann außerhalb der ersten Abstandsmesseinheit 21 vorgesehen werden. Die Speichereinheit 22a kann außerhalb der zweiten Abstandsmesseinheit 22 vorgesehen werden. Die Speichereinheiten 21a und 22a können unterschiedliche Bereiche im gleichen Speicher sein.
  • Die erste Abstandsmesseinheit 21 bestimmt das Vorhandensein oder Nichtvorhandensein einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder G1 und der Vielzahl der zweiten aufgenommenen Bilder G2, die von der Abbildungseinheit 12 empfangen wurden, und gibt ein Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen Qf aus, das ein Ergebnis der Bestimmung anzeigt. Die erste Abstandsmesseinheit 21 gibt ein Bildunschärfe-Indexwert-Kennzeichen Qi aus, das einen Grad der Bildunschärfe anzeigt. Zusätzlich erwirbt die erste Abstandsmesseinheit 21 aus einem Bildunschärfe-Indexwert If einen ersten Abstand Zd, der ein Abstand zum Subjekt ist, pro Pixel, und gibt den ersten Abstand Zd aus.
  • Die zweite Abstandsmesseinheit 22 erwirbt aus der Vielzahl der ersten aufgenommenen Bilder G1 und der Vielzahl der zweiten aufgenommenen Bilder G2, die von der Abbildungseinheit 12 empfangen wurden, zweite Abstände Zn und Zf, die jeweils ein Abstand zum Subjekt sind pro Pixel, die auf Grundlage der Triangulation berechnet wurden. Der zweite Abstand Zn ist ein Abstand, der auf Grundlage der Triangulation aus der Vielzahl der ersten aufgenommenen Bilder G1 berechnet wird, wenn die Brennweite des optischen Systems 11 auf die erste Brennweite f1 (Brennpunktposition in der Nähe des optischen Systems 11) eingestellt ist. Der zweite Abstand Zf ist ein Abstand, der auf Grundlage der Triangulation aus der Vielzahl der zweiten aufgenommenen Bilder G2 berechnet wird, wenn die Brennweite des optischen Systems 11 auf die zweite Brennweite f2 (Brennpunktposition fern vom optischen System 11) eingestellt ist.
  • Die Messergebnissyntheseeinheit 23 gibt den ersten Abstand Zd als einen Ausgabewert Zout für ein Pixel aus, für das durch die erste Abstandsmesseinheit 21 bestimmt ist, ein Pixel mit der Bildunschärfe (Qf = 1) zu sein, und gibt den zweiten Abstand Zf oder Zn als den Ausgabewert Zout für ein Pixel aus, für das durch die erste Abstandsmesseinheit 21 bestimmt ist, ein Pixel ohne Bildunschärfe (Qf = 0) zu sein. Die Messergebnissyntheseeinheit 23 gibt Daten aus, die einen Fehler als den Ausgabewert Zout für ein Pixel (Qf = - 1) anzeigen, in denen ein Bestimmungsergebnis der ersten Abstandsmesseinheit 21 der Fehler ist.
  • 2 ist ein Diagramm zur schematischen Darstellung einer Anordnung des optischen Systems 11, der Abbildungseinheit 12 und der Projektionseinheit 13 in 1. Wie in 2 dargestellt, projiziert die Projektionseinheit 13 in der Bilddatenerwerbungseinheit 10 der Abstandsmessvorrichtung 1 die Lichtmuster 13a auf die Subjekte OJ1 und OJ2 im Abbildungsraum JS, und jedes der Lichtmuster 13a ist aus Streifen von hellen Bereichen (mit Licht von der Projektionseinheit 13 beleuchtete Bereiche) und Streifen von dunklen Bereichen (nicht mit Licht von der Projektionseinheit 13 beleuchtete Bereiche), die dunkler sind als die hellen Bereiche, gebildet, wobei die Streifen von hellen Bereichen und die Streifen von dunklen Bereichen abwechselnd angeordnet sind (d.h., jedes der Lichtmuster 13a wird durch die Streifen der hellen Bereiche und die Streifen der dunklen Bereiche gebildet). Die Abbildungseinheit 12 fotografiert die Subjekte OJ1 und OJ2, auf die das Lichtmuster 13a über das optische System 11 projiziert wird.
  • 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) zeigen Beispiele von 12 Arten der Lichtmuster 13a, die von der in 1 dargestellten Projektionseinheit 13 projiziert werden, und zwar Beispiele für die Lichtmuster, in denen die Streifen von hellen Bereichen (schattierte Bereiche in 3) und die Streifen von dunklen Bereichen (weiße Bereiche in 3) abwechselnd in Richtung der Anordnung (in horizontaler Richtung in 3) angeordnet sind. Die Beispiele der Lichtmuster 13a sind nicht auf die dargestellten Beispiele beschränkt, und die Anzahl der Arten des Lichtmusters 13a ist nicht auf 12 beschränkt.
  • 3(A1) und 3(A2) zeigen Lichtmuster, bei denen die Breite des Streifens des hellen Bereichs in Richtung der Anordnung am schmalsten ist. Die Breite des Streifens in den Lichtmustern in 3(B1) und 3(B2) ist doppelt so breit wie die Breite des Streifens in den Lichtmustern in 3(A1) und 3(A2). Die Breite des Streifens in den Lichtmustern in 3(C1) und 3(C2) ist doppelt so breit wie die Breite des Streifens in den Lichtmustern in 3(B1) und 3(B2). Die Breite des Streifens in den Lichtmustern in 3(D1) und 3(D2) ist doppelt so breit wie die Breite des Streifens in den Lichtmustern in 3(C1) und 3(C2). Die Breite des Streifens in den Lichtmustern in 3(E1) und 3(E2) ist doppelt so breit wie die Breite des Streifens in den Lichtmustern in 3(D1) und 3(D2). Die Breite des Streifens in den Lichtmustern in 3(F1) und 3(F2) ist doppelt so breit wie die Breite des Streifens in den Lichtmustern in 3(E1) und 3(E2).
  • Das Lichtmuster in 3(A2) wird durch Vertauschen (Invertieren) der Streifen der hellen Bereiche und der Streifen der dunklen Bereiche im Lichtmuster in 3(A1) erhalten. Das Lichtmuster in 3(B2) wird durch Vertauschen (Invertieren) der Streifen heller Bereiche mit den Streifen dunkler Bereiche im Lichtmuster in 3(B1) erhalten. Das Lichtmuster in 3(C2) wird durch Vertauschen (Invertieren) der Streifen heller Bereiche und der Streifen dunkler Bereiche im Lichtmuster in 3(C1) erhalten. Das Lichtmuster in 3(D2) wird durch Vertauschen (Invertieren) der Streifen heller Bereiche und der Streifen dunkler Bereiche im Lichtmuster in 3(D1) erhalten. Das Lichtmuster in 3(E2) wird durch Vertauschen (Invertieren) der Streifen heller Bereiche und der Streifen dunkler Bereiche im Lichtmuster in 3(E1) erhalten. Das Lichtmuster in 3(F2) wird durch Vertauschen (Invertieren) der Streifen heller Bereiche und der Streifen dunkler Bereiche im Lichtmuster in 3(F1) erhalten.
  • Betrieb
  • Die Steuereinheit 14 veranlasst das optische System 11 die Brennweite auf die erste Brennweite (die kurze Brennweite, d.h. die Brennpunktposition in der Nähe der Abbildungseinheit 12) f1 einzustellen. In diesem Zustand veranlasst die Steuereinheit 14 die Projektionseinheit 13 die Vielzahl von Lichtmustern sequentiell zu projizieren, und veranlasst die Abbildungseinheit 12 die Vielzahl der ersten aufgenommenen Bilder G1 entsprechend der Vielzahl der Lichtmuster zu erwerben. Die Beispiele für die Vielzahl der Lichtmuster sind in 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) dargestellt.
  • Zusätzlich veranlasst die Steuereinheit 14 das optische System 11 die Brennweite auf die zweite Brennweite f2 (die lange Brennweite, d.h. die von der Abbildungseinheit 12 entfernte Brennpunktposition) länger als die erste Brennweite f1 einzustellen. In diesem Fall veranlasst die Steuereinheit 14 die Projektionseinheit 13 die Vielzahl der Lichtmuster sequentiell zu projizieren und veranlasst die Abbildungseinheit 12 die Vielzahl der zweiten aufgenommenen Bilder G2 entsprechend der Vielzahl der Lichtmuster zu erfassen. Die Beispiele für die Vielzahl der Lichtmuster sind in 3(A1), 3(A2), 3(B1), 3(B2), 3(C1), 3(C2), 3(D1), 3(D2), 3(E1), 3(E2), 3(F1) und 3(F2) dargestellt.
  • Auf diese Weise führt die Steuereinheit 14 in der ersten Ausführungsform Steuerung, um das optische System 11 zu veranlassen, eine der zwei Arten von Brennweiten (Brennpunktpositionen) f1 und f2 einzustellen, Steuerung, um die Projektionseinheit 13 zu veranlassen, die Vielzahl von Arten von Lichtmustern sequentiell zu projizieren, und Steuerung des Verschlussbetriebs der Abbildungseinheit 12 synchron mit dem Schalten der Arten der Lichtmuster (d.h. Steuerung des Fotografierzeitpunkts) durch, und die Bilddatenerwerbungseinheit 10 nimmt dadurch ein Bild auf, wenn das Lichtmuster in Bezug auf jedes der Vielzahl von Lichtmustern projiziert wird. Da die Abstandsmessvorrichtung 1 gemäß der ersten Ausführungsform Bilder für die 12 Arten von Mustern hinsichtlich der zwei Arten von Brennpunktpositionen aufnimmt, erhält die Abstandsmessvorrichtung 1 aus insgesamt 24 aufgenommenen Bildern den Subjektabstand pro Pixel.
  • 4(A) und 4(B) sind Diagramme, die jeweils das Lichtmuster mit den Streifen von hellen Bereichen und Streifen von dunklen Bereichen darstellen, wobei diese Lichtmuster eine entgegengesetzte Anordnungsfolge haben. 4(C) und 4(D) sind Diagramme, die Pixelwerte der aufgenommenen Bilder darstellen, die durch Fotografieren des Objekts, auf das die Lichtmuster in 4(A) und 4(B) projiziert werden (wenn die Bildunschärfe nicht vorhanden ist), erhalten werden, und 4(E) ist ein Diagramm, das eine Differenz Df zwischen den Pixelwerten in 4(C) und 4(D) darstellt. 4(F) und 4(G) sind Diagramme, die Pixelwerte der aufgenommenen Bilder darstellen, die durch Fotografieren des Objekts, auf das die Lichtmuster in 4(A) und 4(B) projiziert werden (wenn die Bildunschärfe vorhanden ist), erhalten werden, und 4(H) ist ein Diagramm, das eine Differenz Df zwischen den Pixelwerten in 4(F) und 4(G) darstellt.
  • Auf Grundlage der Pixelwertdifferenz Df, welche die Differenz zwischen den aufgenommenen Bildern, die einem Lichtmusterpaar entspricht, in dem helle Bereiche und dunkle Bereiche invertiert sind, bestimmt die erste Abstandsmesseinheit 21, ob es im aufgenommenen Bild pro lokalem Bereich, aufweisend ein Zielpixel, die Unschärfe gibt oder nicht. Das für diese Bestimmung verwendete Lichtmuster ist das Lichtmuster, bei dem die Breite jedes Streifens am schmalsten ist, d.h. die Lichtmuster in 3(A1) und 3(A2) werden für die Bestimmung verwendet, in einem Fall, wenn die Muster in 3(A1), 3(A2) bis 3(F1), 3(F2) verwendet werden. Die erste Abstandsmesseinheit 21 führt die Verarbeitung in Bezug auf jedes der mit den zwei Arten von Brennpunktpositionen f1 und f2 fotografierten Bilder durch.
  • Da die Helligkeit des Subjekts, auf das das Lichtmuster projiziert wird (die Helligkeit des Musters), je nach Reflexionsvermögen des Subjekts variiert, wird ein um einen Pixelwert normierter Bildunschärfe-Indexwert pro Pixel berechnet. Pixelwerte an einer bestimmten (beliebigen) Pixelposition R werden durch P(A1) und P(A2) bezeichnet. P(A1) gibt den Pixelwert an der Pixelposition R an, wenn das Lichtmuster A1 (dargestellt in 3(A1)) projiziert wird, und P(A2) gibt den Pixelwert an derselben Pixelposition R an, wenn das Lichtmuster A2 (dargestellt in 3(A2)) projiziert wird. Df gibt die normierte Pixelwertdifferenz Df an der gleichen Pixelposition R an. Die Pixelwertdifferenz Df an der Pixelposition R wird durch den Ausdruck (1) dargestellt, und ein mittlerer Pixelwert Sf an der Pixelposition R wird durch den Ausdruck (2) dargestellt. Df = { P ( A 1 ) P ( A 2 ) } / { ( P ( A 1 ) + P ( A 2 ) ) / 2 }
    Figure DE112017001464B4_0001
    Sf = ( P ( A 1 ) + P ( A 2 ) ) / 2
    Figure DE112017001464B4_0002
  • Wenn ein Bildunschärfe-Indexwert If in Bezug auf ein bestimmtes Zielpixel berechnet wird, wird die Differenz zwischen einem Maximalwert Dfmax und einem Minimalwert Dfmin (Dfmax - Dfmin) der normierten Pixelwertdifferenz Df in der Nähe des Zielpixels (z.B. ein Bereich in einem Rechteck von 5 Pixel Höhe und 5 Pixel Breite mit dem Zielpixel in der Mitte) als der Bildunschärfe-Indexwert If bestimmt. Genauer gesagt der Bildunschärfe-Indexert durch den folgenden Ausdruck (3) dargestellt. If = Dfmax Dfmin
    Figure DE112017001464B4_0003
  • Zusätzlich wird ein Mittelwert der durchschnittlichen Pixelwerte Sf von Zielpixeln in der Nähe eines Zielpixels durch Sf_avg bezeichnet.
  • In einem Fall, in dem der durchschnittliche Pixelwert Sf_avg in der Nähe eines Zielpixels kleiner ist als ein vorherbestimmter durchschnittlicher Pixelwertschwellenwert Ta (Sf_avg < Ta) (d.h. in einem Fall, in dem ein Bereich des Streifens des hellen Bereichs im Lichtmuster nicht ausreichend hell ist), betrachtet die erste Abstandsmesseinheit 21 die Leuchtdichte des Bildes an der Zielpixelposition als unzureichend, bestimmt, dass es sich um einen Fehler handelt und beendet somit die Verarbeitung.
  • In einem Fall, in dem die Bilder keine Bildunschärfe aufweisen, wie in 4(C), 4(D) und 4(E) dargestellt, schwankt die Pixelwertdifferenz Df zwischen den zwei Bildern stärker als in einem Fall, in dem die Bilder die Bildunschärfe aufweisen, wie in 4(F), 4(G) und 4(H) dargestellt. Dadurch wird der Bildunschärfe-Indexwert If erhöht. Das heißt, je größer der Bildunschärfe-Indexwert If ist, desto kleiner ist die Bildunschärfe. Je kleiner der Bildunschärfe-Indexwert If ist, desto größer ist die Bildunschärfe.
  • Wenn also der mittlere Pixelwert Sf_avg in der Nähe des Zielpixels gleich ist wie oder größer ist als der mittlere Pixelwertschwellwert Ta (Sf_avg Ta), wenn der Bildunschärfe-Indexwert If größer ist als ein vorherbestimmter Bildunschärfebestimmungsschwellenwert Tf (If > Tf), bestimmt die erste Abstandsmesseinheit 21, dass an der Zielpixelposition keine Bildunschärfe vorliegt. Im Gegensatz dazu, wenn Sf_avg Ta, wenn der Bildunschärfe-Indexwert If gleich ist wie oder kleiner ist als der BildunschärfeBestimmungsschwellenwert Tf (If Tf), bestimmt die erste Abstandsmesseinheit 21, dass die Bildunschärfe vorliegt.
  • Wenn der Bildunschärfe-indexwert If erhalten wird, da eine Möglichkeit besteht, dass ein Fehler (eine Rauschkomponente) der normierten Pixelwertdifferenz Df aufgrund eines Rauschens oder dergleichen des Originalbildes groß ist, kann die erste Abstandsmesseinheit 21 ein Verfahren des Berechnens des Bildunschärfeindexwerts If aus der Differenz zwischen dem n-t größten Pixelwert und dem n-t kleinsten Pixelwert (n = 2, 3, 4,...) anwenden, anstatt des Berechnens des Bildunschärfe-Indexwerts If aus dem Maximalwert und dem Minimalwert der Pixelwertdifferenz Df.
  • 5 ist ein Diagramm, das in einem Tabellenformat Informationen (das Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen Qf und das Bildunschärfe-Indexwert-Kennzeichen Qi) darstellt, die von der ersten Abstandsmesseinheit 21 gemäß einer Kombination eines Bestimmungsergebnisses, das erhalten wird, wenn die Brennweite des optischen Systems 11 auf eine erste Brennpunktposition (die kurze erste Brennweite f1) eingestellt wird, die eine Nahposition ist, und eines Bestimmungsergebnisses, das erhalten wird, wenn die Brennweite des optischen Systems 11 auf eine zweite Brennpunktposition (die zweite Brennweite f2 länger als die erste Brennweite f1) eingestellt wird, die eine Fernposition ist, ausgegeben werden.
  • Die erste Abstandsmesseinheit 21 führt Bildunschärfebestimmungsverarbeitung durch, um das Vorhandensein oder Nichtvorhandensein der Bildunschärfe nach Projektion von Lichtmustern auf das Subjekt zu überprüfen, in Bezug auf ein Bild, das erhalten wird, wenn die Brennweite auf die erste Brennpunktposition (die erste Brennweite f1) in der Nähe des optischen Systems 11 (erste Einstellung) eingestellt wird, und ein Bild, das erhalten wird, wenn die Brennweite auf die zweite Brennpunktposition (die zweite Brennweite f2) fern vom optischen System 11 (zweite Einstellung) eingestellt wird. Genauer gesagt führt die erste Abstandsmesseinheit 21 die Bestimmung in Bezug auf Bilder durch, wenn die erste und zweite Einstellung durchgeführt werden. Die erste Abstandsmesseinheit 21 führt die finale Bestimmung auf die Kombination der Bilder gemäß einer Kombination der Bestimmungsergebnisse durch, die durch die Verwendung der zwei Arten von Brennpunkten erzielt werden.
  • Die erste Abstandsmesseinheit 21 gibt das Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen Qf, das Bildunschärfe-Indexwert-Kennzeichen Qi und den Subjektabstand Zd auf der Grundlage eines Bildunschärfeanteils aus, gemäß der Kombination der Bestimmungsergebnisse, die durch die Verwendung der zwei Arten von Brennpunktpositionen erhalten werden. Qf = 1 steht für das „Vorhandensein der Bildunschärfe“. Qf = 0 steht für das „Nichtvorhandensein der Bildunschärfe“. Qf = -1 stellt einen „Fehler“ dar. 5 zeigt die Ausgabewerte des Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichens Qf und des Bildunschärfe-Indexwert-Kennzeichens Qi gemäß der Kombination der zwei Arten von Bestimmungsergebnis dar. Bezüglich eines in 5 als „Qi = *“ geschriebenen Elements wird der Wert auf der Grundlage der Größenbeziehung zwischen den Bildunschärfe-Indexwerten If (Ifn und Iff) bestimmt.
  • Hinsichtlich des als „Qi = *“ in 5 geschriebenen Elements, wenn der Bildunschärfe-Indexwert If des Bildes, der erhalten wird, wenn die Brennpunktposition (die erste Brennweite f1) der zwei Arten von Brennpunktpositionen näher ist, durch Ifn bezeichnet ist, und der Bildunschärfe-Indexwert If des Bildes, der erhalten wird, wenn die Brennweite (die zweite Brennweite f2) von den zwei Arten von Brennpunktpositionen weiter ist, durch Iff bezeichnet ist, wenn Ifn > Iff (wenn die Bildunschärfe des Bildes, die erhalten wird, wenn die Brennweite näher ist, kleiner ist), Qi = 1 eingestellt ist, und wenn Ifn ≤ Iff (wenn die Bildunschärfe des Bildes, die erhalten wird, wenn die Brennweite weiter ist, kleiner ist), Qi = 0 eingestellt ist.
  • Zusätzlich wird, wenn Qf = 1 (wenn die Bildunschärfe vorhanden ist) ein Wert, der dem Abstandsmessergebnis entspricht, auf der Grundlage des Bildunschärfeanteils, wie nachfolgend beschrieben wird, als Subjektabstand Zd eingestellt. Wenn Qf ≠ 1 (d.h. wenn Qf = 0 oder wenn Qf = -1), wird Zd = 0 eingestellt.
  • Wenn bestimmt wird, dass die Bildunschärfe auf der Grundlage der Kombination der Bestimmungsergebnisse, die durch die Verwendung der zwei Arten von Brennpunktpositionen erhalten werden, vorhanden ist, nämlich, wenn Qf = 1 (die Bildunschärfe ist vorhanden) eingestellt ist, wird die Messung des Abstands auf jedem Pixel fortgesetzt.
  • 6(A) und 6(B) sind Diagramme, die Beispiele von Lookup-Tabellen (LUTs) als Daten darstellen, die von der ersten in 1 dargestellten Abstandsmesseinheit 21 verwendet werden, um den Subjektabstand vom Bildunschärfe-Indexwert If zu erhalten. Beispielsweise werden diese LUTs in der Speichereinheit 21a der ersten Abstandsmesseinheit 21 zuvor gespeichert.
  • Wenn Ifn > Iff (wenn die Bildunschärfe des Bildes, die erhalten wird, wenn die Brennweite näher ist, kleiner ist), nämlich, wenn der Bildunschärfeindexwert Ifn des Bildes, der erhalten wird, wenn die Brennweite näher ist, größer ist als der Bildunschärfe-Indexwert Iff des Bildes, der erhalten wird, wenn die Brennweite weiter ist, führt die erste Abstandsmesseinheit 21 eine Abstandsmessung durch, unter der Annahme, dass das Subjekt dort vorhanden ist, wo die Brennweite näher ist. Durch Bezugnahme auf die LUT ( 6(A)), die verwendet wird, wenn sich das Subjekt auf der nahen Seite befindet, wird der Subjektabstand aus dem Bildunschärfe-Indexwert Ifn erhalten.
  • Wenn Ifn ≤ Iff (wenn die Bildunschärfe des Bildes, die erhalten wird, wenn die Brennweite weiter, kleiner ist), nämlich, wenn der Bildunschärfe-Indexwert Ifn des Bildes, der erhalten wird, wenn die Brennweite näher ist, gleich oder kleiner ist als der Bildunschärfe-Indexwert Iff des Bildes, der erhalten wird, wenn die Brennweite weiter ist, führt die erste Abstandsmesseinheit 21 eine Abstandsmessung durch, unter der Annahme, dass das Subjekt dort vorhanden ist, wo die Brennweite weiter ist. Durch Bezugnahme auf die LUT (6(B)), die verwendet wird, wenn das Subjekt auf der fernen Seite vorhanden ist, wird der Subjektabstand aus einem Wert des Bildunschärfe-Indexwertes Iff erhalten.
  • Die erste Abstandsmesseinheit 21 gibt den durch die Verwendung der LUT als den Abstand Zd erhaltenen Abstand aus.
  • 7 ist ein Diagramm, das ein Verfahren zur Berechnung der Positionsnummern S der Streifen, die das Lichtmuster bilden, darstellt, wobei die Positionsnummern verwendet werden, um Positionen auf dem Subjekt anzuzeigen, auf das das Lichtmuster projiziert wird (Positionsnummern der Streifen von hellen Bereichen und der Streifen von dunklen Bereichen in 3(A1) und 3(A2)). 8 ist ein Diagramm, das eine Beziehung zwischen den Positionen auf dem Subjekt, auf das die Lichtmuster projiziert werden, und den Positionsnummern S von Streifen, die die Lichtmuster bilden (Positionsnummern der Streifen von hellen Bereichen und der Streifen von dunklen Bereichen in 3(A1) und (A2)) darstellt.
  • Auf der Grundlage der Differenz zwischen den aufgenommenen Bildern, die einem Lichtmusterpaar entsprechen, in dem helle Bereiche und dunkle Bereiche invertiert sind, bestimmt die zweite Abstandsmesseinheit (Triangulationseinheit) 22 die Positionen der auf die aufgenommenen Bilder projizierten Muster und misst den Abstand zum Subjekt nach dem Triangulationsprinzip.
  • Die Pixelwerte eines Zielpixels in den aufgenommenen Bildern, die bei der Projektion der Lichtmuster in 3(A1), 3(A1) bis 3(F1), 3(F2) erhalten werden, werden durch P(A1), P(A2), P(B1), P(B2), P(C1), P(C2), P(D1), P(D2), P(E1), P(E2), P(F1) und P(F2) bezeichnet.
  • Auf der Grundlage der Beziehung zwischen den Pixelwerten P(A1) und P(A2) bestimmt die zweite Abstandsmesseinheit 22 einen Wert von Bit0 der Musterpositionsnummer S. Die zweite Abstandsmesseinheit 22 stellt die Musterpositionsnummer als S (ein 6-Bit-Wert) dar und verwendet einen vorherbestimmten Schwellenwert Ts. Wenn P(A1) + Ts < P(A2), weist die zweite Abstandsmesseinheit 22 dem Bit0 der Musterpositionsnummer S 1 zu. Wenn P(A1) > P(A2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit0 der Musterpositionsnummer S 0 zu. Wenn |P(A1) ‐ P(A2)| ≤ Ts, bestimmt die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als die Musterpositionsnummer S ein. Wenn ein Fehler auftritt, kann die Verarbeitung beendet werden.
  • Ebenso bestimmt die zweite Abstandsmesseinheit 22 auf der Grundlage der Beziehung zwischen P(B1) und P(B2) einen Wert von Bit1 der Musterpositionsnummer S. Wenn P(B1) + Ts < P(B2), weist die zweite Abstandsmesseinheit 22 dem Bit1 der Musterpositionsnummer S 1 zu. Wenn P(B1) > P(B2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit1 der Musterpositionsnummer S 0 zu. Wenn | P(B1) - P(B2) | ≤ Ts, bestimmt die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als die Musterpositionsnummer S ein. Wenn ei Fehler auftritt, kann die Verarbeitung beendet werden.
  • Ebenso bestimmt die zweite Abstandsmesseinheit 22 auf der Grundlage der Beziehung zwischen P(C1) und P(C2) einen Wert von Bit2 der Musterpositionsnummer S. Wenn P(C1) + Ts < P(C2), weist die zweite Abstandsmesseinheit 22 dem Bit2 der Musterpositionsnummer S 1 zu. Wenn P(C1) > P(C2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit2 der Musterpositionsnummer S 0 zu. Wenn | P(C1) - P(C2) | ≤ Ts, bestimmt die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als die Musterpositionsnummer S ein. Wenn ein Fehler auftritt, kann die Verarbeitung beendet werden.
  • Ebenso bestimmt die zweite Abstandsmesseinheit 22 auf der Grundlage der Beziehung zwischen P(D1) und P(D2) einen Wert von Bit3 der Musterpositionsnummer S. Wenn P(D1) + Ts < P(D2), weist die zweite Abstandsmesseinheit 22 dem Bit3 der Musterpositionsnummer S 1 zu. Wenn P(D1) > P(D2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit3 der Musterpositionsnummer S 0 zu. Wenn |P(D1) ‐ P(D2)| ≤ Ts, die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als die Musterpositionsnummer S ein. Wenn ein Fehler auftritt, kann die Verarbeitung beendet werden.
  • Ebenso bestimmt die zweite Abstandsmesseinheit 22 auf der Grundlage der Beziehung zwischen P(E1) und P(E2) einen Wert von Bit4 der Musterpositionsnummer S. Wenn P(E1) + Ts < P(E2), weist die zweite Abstandsmesseinheit 22 1 dem Bit4 der Musterpositionsnummer S 1 zu. Wenn P(E1) > P(E2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit4 der Musterpositionsnummer S 0 zu. Wenn |P(E1) ‐ P(E2)| ≤ Ts, bestimmt die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als Musterpositionsnummer S ein. Wenn ein Fehler auftritt, kann die Verarbeitung beendet werden.
  • Ebenso bestimmt die zweite Abstandsmesseinheit 22 auf der Grundlage der Beziehung zwischen P(F1) und P(F2) einen Wert von Bit5 der Musterpositionsnummer S. Wenn P(F1) + Ts < P(F2), weist die zweite Abstandsmesseinheit 22 dem Bit5 der Musterpositionsnummer S 1 zu. Wenn P(F1) > P(F2) + Ts, weist die zweite Abstandsmesseinheit 22 dem Bit5 der Musterpositionsnummer S 0 zu. Wenn |P(F1) ‐ P(F2)| ≤ Ts, bestimmt die zweite Abstandsmesseinheit 22, dass ein Fehler auftritt und stellt einen Wert, der den Fehler anzeigt, als die Musterpositionsnummer S ein. Wenn ein Fehler auftritt, kann die Verarbeitung beendet werden.
  • Durch die obige Verarbeitung wird ein eindeutiger Wert, der einer Position auf dem Muster entspricht, als die Musterpositionsnummer S eingestellt.
  • 9 ist ein Diagramm, das ein Abstandsmessverfahren, das durch die in 1 dargestellte zweite Abstandsmesseinheit 22 durchgeführt wird, auf der Grundlage einer Positionsbeziehung zwischen der Projektionseinheit 13, der Abbildungseinheit 12 und dem Subjekt darstellt. In 9 kann ein Winkel θ auf der Grundlage der zuvor erhaltenen Musterpositionsnummer S berechnet werden. Insbesondere kann durch die Erstellung einer ersten Lookup-Tabelle (LUT), die Daten für die Zuordnung der Musterpositionsnummer S zum Winkel θ enthält, in der Speichereinheit 22a und durch Bezugnahme auf die erste LUT der Winkel θ ermittelt werden. Zusätzlich kann in 9 ein Winkel ϕ auf der Grundlage einer Position auf dem aufgenommenen Bild berechnet werden, das durch Fotografieren durch die Abbildungseinheit 12 erworben wurde. Durch die Erstellung einer zweiten Lookup-Tabelle (LUT) zur Zuordnung einer horizontalen Koordinate des Subjekts auf dem Bild zum Winkel ϕ in der Speichereinheit 22a und durch Bezugnahme auf die zweite LUT wird der Winkel ϕ erhalten. Der Abstand z zum Subjekt wird nach folgendem Ausdruck (4) aus den Werten des Winkels θ, des Winkels ϕ und einer Grundlinienlänge L berechnet. z = L / ( tan θ + tan ϕ )
    Figure DE112017001464B4_0004
  • Die obige Verarbeitung wird in Bezug auf Bilder durchgeführt, die mit den zwei Arten von Brennpunktpositionen f1 und f2 erhalten wurden, und es werden die den jeweiligen Bildern entsprechenden Abstände erhalten. Der Abstand z, der unter Verwendung des Bildes berechnet wird, das erhalten wird, wenn die Brennpunktposition eine der beiden Arten von Brennpositionen f1 und f2 ist, die sich in der Nähe des optischen Systems 11 befindet (die erste Brennweite f1), wird durch Zn bezeichnet, und der Abstand z, der unter Verwendung des Bildes berechnet wird, das erhalten wird, wenn die Brennpunktposition die andere ist, die vom optischen System 11 entfernt ist (die zweite Brennweite f2), wird durch Zf bezeichnet.
  • 10 ist ein Flussdiagramm, das die Verarbeitung darstellt, die durch die Messergebnissyntheseeinheit 23 der Bilddatenverarbeitungseinheit 20 durchgeführt wird. Die Messergebnissyntheseeinheit 23 bestimmt das Ausgangssignal Zout (ein Signal, das den Subjektabstand anzeigt, oder ein Signal, das einen Fehler anzeigt) pro Pixel auf der Grundlage des Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichens Qf, des Bildunschärfe-Indexwert-Kennzeichens Qi, des Subjektabstandes Zd, der auf der Basis des Bildunschärfeanteils erhalten wird, die von der ersten Abstandsmesseinheit 21 ausgegeben werden, und der Subjektabstände Zn und Zf, die die durch die Abstandsmesseinheit 22 berechneten zwei Arten von Abstandsinformationen angeben.
  • Zuerst bestimmt die Messergebnissyntheseeinheit 23, ob das aus der ersten Abstandsmesseinheit 21 erhaltene Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen Qf-1 (Qf = -1) ist oder nicht, was auf einen Bestimmungsfehler hinweist (Schritt ST1). Wenn Qf = -1 (JA in Schritt ST1), gibt die Messergebnissyntheseeinheit 23 -1 (Zout = -1), das einen Messfehler anzeigt, als das Ausgangssignal Zout (Schritt ST2) aus.
  • Wenn das Ergebnis der Bestimmung in Schritt ST1 NEIN (Qf ≠-1) ist, bestimmt die Messergebnissyntheseeinheit 23, ob das aus der ersten Abstandsmesseinheit 21 erhaltene Bildunschärfe-Vorhandensein/Nichtvorhandensein-Kennzeichen Qf 1 (Qf = 1) ist, das das Vorhandensein der Bildunschärfe anzeigt (Schritt ST3). Wenn Qf = 1 (JA in Schritt ST3) ist, gibt die Messergebnissyntheseeinheit 23 als das Ausgangssignal Zout den Abstand Zd aus, der auf der Grundlage des Bildunschärfeanteils (Zout = Zd) (Schritt ST4) erhalten wird.
  • Wenn das Ergebnis der Bestimmung in Schritt ST3 NEIN ist (Qf ≠ 1, das Nichtvorhandensein der Bildunschärfe), bestimmt die Messergebnissyntheseeinheit 23, ob das aus der ersten Abstandsmesseinheit 21 erhaltene Bildunschärfe-Indexwert-Kennzeichen Qi 1 ist oder nicht (Qi = 1) (of Ifn > Iff, nämlich ob die Bildunschärfe im Bild, die erhalten wird, wenn die Brennweite nahe ist, kleiner ist) (Schritt ST5). Ist Qi = 1 (JA in Schritt ST5), gibt die Messergebnissyntheseeinheit 23 den von der zweiten Abstandsmesseinheit 22 berechneten Abstand Zn aus, durch Verwendung des Bildes, das erhalten wird, wenn Brennweite nahe ist, als das Ausgangssignal Zout (Zout = Zn) (Schritt ST6). Wenn im Schritt ST6 das Berechnungsergebnis des Abstands Zn einen Fehler anzeigt, gibt die Messergebnissyntheseeinheit 23 -1 als Zout (Zout = Zn = -1) aus.
  • Wenn das Ergebnis der Bestimmung in Schritt ST5 NEIN (Qi ≠ 1) ist (wenn Ifn ≤ Iff, d.h. wenn die Bildunschärfe in dem Bild, die erhalten wird, wenn die Brennweite entfernt ist, kleiner ist), gibt die Messergebnissyntheseeinheit 23 den von der zweiten Abstandsmesseinheit 22 berechneten Abstand Zf unter Verwendung des Bildes, das erhalten wird, wenn die Brennweite entfernt ist, als das Ausgangssignal Zout (Zout = Zf) aus (Schritt ST7). Wenn im Schritt ST7 das Berechnungsergebnis des Abstands Zf einen Fehler anzeigt, gibt die Messergebnissyntheseeinheit 23 -1 als Zout aus (Zout = Zf = -1).
  • Durch sequentielles Durchführen der obigen Verarbeitung in Bezug auf jeden Punkt auf dem aufgenommenen Bild als ein Zielpixel ist es möglich, Daten über eine Subjektabstandsverteilung des gesamten aufgenommenen Bildes zu erwerben (nämlich eine Karte, die die Subjektabstände auf dem gesamten aufgenommenen Bild anzeigt).
  • Wirkungen
  • Durch eine herkömmliche Abstandsmessung auf der Grundlage von Triangulation können keine genauen Abstandsinformationen hinsichtlich eines Bereichs mit der Bildunschärfe im aufgenommenen Bild gewonnen werden. Im Gegensatz dazu wird gemäß der Abstandsmessvorrichtung 1 und dem Abstandsmessverfahren der ersten Ausführungsform der Abstand Zd, der auf der Grundlage des Bildunschärfeanteils erhalten wird, als der Subjektabstand Zout bezüglich eines Bereichs mit der Bildunschärfe ausgegeben, und der Abstand Zn oder der Abstand Zf, die aus der Abstandsmessung auf Grundlage von Triangulation berechnet werden, als der Subjektabstand Zout bezüglich eines Bereichs ohne Bildunschärfe ausgegeben. So ist es gemäß der Abstandsmessvorrichtung 1 und dem Abstandsmessverfahren der ersten Ausführungsform möglich, den Abstand zum Subjekt unabhängig vom Vorhandensein oder Nichtvorhandensein der Bildunschärfe genau zu messen.
  • Zweite Ausführungsform
  • Konfiguration
  • Die erste Ausführungsform beschreibt die Vorrichtung und das Verfahren, die die Abstandsdaten Zout ausgeben, indem die Projektionseinheit 13 und die Abbildungseinheit 12 an einer einzigen Position fixiert werden und die Abstandsmessung unter Verwendung des Bildunschärfeanteils und die Abstandmessung auf der Grundlage von Triangulation kombiniert werden. In einem Fall, in dem das Subjekt eine komplexe Form aufweist (z.B. in einem Fall, in dem das Subjekt einen vertieften Teil hat), kann die Projektion des Lichtmusters durch die an der einzelnen Position fixierte Projektionseinheit 13 einen blinder-Fleck-Bereich erzeugen, der nicht mit dem Lichtmuster auf dem Subjekt beleuchtet wird. In Bezug auf einen solchen Bereich, der nicht mit dem Lichtmuster auf dem Subjekt beleuchtet wird, kann der Subjektabstand in einigen Fällen nicht genau gemessen werden, auch nicht mit der Abstandsmessvorrichtung 1 und dem Verfahren gemäß der ersten Ausführungsform. So wird in einer zweiten Ausführungsform durch Bewegen einer Fotografiereinheit 10b, aufweisend die Projektionseinheit 13, das optische System 11 und die Abbildungseinheit 12, Ändern einer Fotografierrichtung der Abbildungseinheit 12 (Drehen der Fotografiereinheit 10b) und Durchführen von Fotografieren unter mehreren Aufnahmewinkeln aus einer Vielzahl von Positionen ein Bereich, der nicht mit dem Lichtmuster beleuchtet ist (Bereich, für den eine Abstandsmessung nicht möglich ist), verkleinert (erwünschterweise eliminiert).
  • 11 ist ein Blockschaltbild, das die schematische Konfiguration einer Abstandsmessvorrichtung 2 gemäß der zweiten Ausführungsform der vorliegenden Erfindung darstellt. Die Abstandsmessvorrichtung 2 ist eine Vorrichtung, die ein Abstandsmessverfahren gemäß der zweiten Ausführungsform durchführen kann. In 11 werden Komponenten, die gleich sind wie die in 1 dargestellten Komponenten oder diesen entsprechen, durch die gleichen Bezugszeichen wie in 1 bezeichnet. Wie in 11 dargestellt, umfasst die Abstandsmessvorrichtung 2 neben dem optischen System 11, der Abbildungseinheit 12, der Projektionseinheit 13, der Steuereinheit 14 und der Bilddatenverarbeitungseinheit 20 eine Kameraarmeinheit 15 als einen Bewegungs- und Drehmechanismus. Das optische System 11, die Abbildungseinheit 12 und die Projektionseinheit 13 sind am gleichen Stützelement befestigt und bilden so die Fotografiereinheit (Kamera) 10b.
  • Die Kameraarmeinheit 15 ist ein Arm, der sich von einer festen Referenzposition aus erstreckt, und die Fotografiereinheit 10b gemäß der zweiten Ausführung ist an einem Ende der Kameraarmeinheit 15 befestigt. Die Kameraarmeinheit 15 wird von der Steuereinheit 14 gesteuert und wird verwendet, um die Position der Fotografiereinheit 10b in Bezug auf das Subjekt zu verändern. Die Kameraarmeinheit 15 kann entweder ein Mechanismus sein, dessen Position und Winkel vom Benutzer geändert werden können, oder ein Mechanismus sein, dessen Position und Winkel durch einen Antriebskrafterzeugungsmechanismus, wie einen Motor, und einen Antriebskraftübertragungsmechanismus, wie ein Getriebe, geändert werden können.
  • Betrieb
  • Die Abstandsmessvorrichtung 2 gemäß der zweiten Ausführungsform führt zunächst eine Abstandsmessung (eine erste Abstandsmessung) durch, indem diese eine Kombination aus einer Abstandsmessung auf Grundlage des Bildunschärfeanteils und einer Abstandsmessung auf Grundlage der Triangulation verwendet. Als nächstes verschiebt die Abstandsmessvorrichtung 2 die Position der Fotografiereinheit 10b durch Steuerung der Kameraarmeinheit 15 und führt zweite und nachfolgende Abstandsmessungen durch.
  • Obwohl die erste Abstandsmessung unter Verwendung der Kombination aus der Abstandsmessung auf Grundlage des Bildunschärfeanteils und der Abstandsmessung auf Grundlage der Triangulation eine Abstandsmessung mit geringer Genauigkeit sein kann (da die Genauigkeit durch die zweite und nachfolgenden Abstandsmessungen verbessert werden kann), kann die gleiche Verarbeitung wie die Abstandsmessung gemäß der ersten Ausführungsform angewendet werden.
  • Zunächst wird ein Verfahren zum Bestimmen der Position, in die die Fotografiereinheit 10b bewegt wird, auf der Grundlage des Ergebnisses der ersten Abstandsmessung beschrieben.
  • Es sind zwei Arten von Fällen denkbar, wie ein Fall, bei dem das Ergebnis einer Abstandsmessung an einem bestimmten Punkt (Pixelposition) R0 ein Fehler als das Ergebnis der ersten Abstandsmessung ist: ein Fall, bei dem das reflektierte Licht an dem Punkt R0 so schwach ist, dass das aufgenommene Bild mit ausreichender Leuchtdichte nicht erhalten werden kann (Fall A); und ein Fall, bei dem die Differenz zwischen den Leuchtdichtewerten nicht ausreichend groß ist in Bezug auf Bilder, die einem Paar von Lichtmustern entsprechen, in denen helle Bereiche und dunkle Bereiche invertiert sind, als das Ergebnis des Fotografierens an dem Punkt R0 (Fall B). Der Fall A wird weiter in folgende Fälle eingeteilt: einen Fall (Fall A1), in dem sich der Punkt R0 in einem toten Winkel befindet, in dem das projizierte Licht nicht ankommt; und einen Fall (Fall A2), in dem diffuse Reflexion kaum auftritt, weil das Reflexionsvermögen des Subjekts gering ist oder das Subjekt eine Substanz mit Metallglanz ist und somit ein Bestandteil des reflektierten Lichts, das sich zur Abbildungseinheit 12 bewegt, schwach ist, obwohl das projizierte Licht das Subjekt erreicht.
  • 12 ist ein Flussdiagramm, das die Verarbeitung des Ausgebens eines Messergebnisses des Subjektabstands durch die in 11 dargestellte Messergebnissyntheseeinheit 23 der Bilddatenverarbeitungseinheit 20 darstellt. In 12 werden die gleichen Verarbeitungsschritte wie in 10 durch die gleichen Schrittnummern wie in 10 bezeichnet. Die Fälle A (A1, A2) und B unterscheiden sich voneinander durch die Auftretensposition eines Fehlers bei Durchführung der ersten Abstandsmessung. Die Verarbeitung in 12 ist nahezu identisch mit der Verarbeitung in 10, ermöglicht jedoch die Bestimmung der Ursache des Fehlers durch Änderung eines als Zout eingestellten Wertes, wenn ein Fehler auftritt (durch Einstellung eines anderen Wertes als dem in 10). Zout = -1 (Schritt ST22) zeigt nämlich an, dass ein Fehler des Falles A aufgetreten ist. Zusätzlich zeigt Zout = -2 (Schritte ST26 und ST27) an, dass ein Fehler des Falles B aufgetreten ist.
  • In Bezug auf eine Position, an ein Fehler des Falles A aufgetreten ist, da die Möglichkeit besteht, dass die Leuchtdichte des aufgenommenen Bildes niedrig ist, wird ein Bild aufgenommen, indem die Belichtungssteuerung zur weiteren Aufhellung des aufgenommenen Bildes durchgeführt wird. Zur Aufhellung des aufgenommenen Bildes gibt es folgende Steuerverfahren: Verlängerung der Belichtungszeit (die Zeit, für die der Verschluss der Abbildungseinheit 12 geöffnet ist) (Verfahren 1); Vergrößerung der Öffnung der Blende des optischen Systems 11 (Verfahren 2); und Erhöhung der Sensorverstärkung eines Fotografierelements der Abbildungseinheit 12 (Verfahren 3). Eine Steuereinheit (in den Zeichnungen nicht dargestellt) der Bilddatenverarbeitungseinheit 20 führt die Steuerung in der Reihenfolge der Priorität durch, d.h. einer Reihenfolge des (Verfahrens 1), (Verfahrens 2) und (Verfahrens 3), z.B. innerhalb eines einstellbaren Bereichs auf der Grundlage von Systembeschränkungen. Der Grund, warum dem (Verfahren 1) die höchste Priorität gegeben wird, ist, dass unter der Annahme, dass sich das Subjekt während dem Fotografieren nicht bewegt, die Verlängerung der Belichtungszeit keine Nachteile für das aufgenommene Bild hat, jedoch die Vergrößerung der Blendenöffnung die Schärfentiefe der Abbildungseinheit 12 verringert und das aufgenommene Bild leicht verwischt. Zudem ist der Grund, warum dem (Verfahren 3) die niedrigste Priorität gegeben wird, dass die Erhöhung der Sensorverstärkung das Rauschen des aufgenommenen Bildes durch die Abbildungseinheit 12 erhöht und die Möglichkeit erhöht, dass die Größenbeziehung der Leuchtdichte zwischen den aufgenommenen Bildern nicht genau bestimmt werden kann.
  • In Bezug auf einen Bereich, in dem das Ergebnis der ersten Abstandsmessung Zout = -1 ist, wird Fotografieren durch Aufhellung des aufgenommenen Bildes durchgeführt und somit der Fehler behoben, wobei das Ergebnis der Abstandsmessung durch ein neues Ergebnis ersetzt wird. Als ein Ergebnis der vorangehenden Operation, wenn ein Teil, der Zout = -1 anzeigt, noch vorhanden ist, wird das aufgenommene Bild im Bereich der Systembeschränkungen weiter aufgehellt und das Fotografieren und die Abstandsmessung werden wiederholt.
  • Als nächstes, um eine Abstandsmessung für einen Bereich durchzuführen, in dem das Ergebnis der ersten Abstandsmessung Zout = -2 ist, wird Fotografieren durch Verdunkelung des aufgenommenen Bildes durchgeführt. Zur Verdunkelung des aufgenommenen Bildes gibt es folgende Steuerverfahren: Verkürzung der Belichtungszeit (die Zeit, für die der Verschluss der Abbildungseinheit 12 geöffnet ist) (Verfahren 4); Verkleinerung der Öffnung der Blende des optischen Systems 11 (Verfahren 5); und Verringerung der Sensorverstärkung des Fotografierelements der Abbildungseinheit 12 (Verfahren 6). Die Steuereinheit (nicht in den Zeichnungen dargestellt) der Bilddatenverarbeitungseinheit 20 führt Steuerung in der Reihenfolge des (Verfahrens 6), (Verfahrens 5) und (Verfahrens 4) innerhalb des möglichen Bereichs auf der Grundlage der Systembeschränkungen durch. Der Grund, warum dem (Verfahren 6) und (Verfahren 5) höhere Priorität eingeräumt wird, ist, obwohl das (Verfahren 4) keinen Einfluss auf die Bildqualität hat, dass es sehr wahrscheinlich ist, dass das (Verfahren 6) und das (Verfahren 5) eine Verbesserung der Bildqualität erreichen. Hinsichtlich einer Position, in welcher ein Fehler durch Verdunkelung des aufgenommenen Bildes behoben wurde, wird das Abstandsmessergebnis durch ein neues Abstandsmessergebnis ersetzt. Als ein Ergebnis der vorangehenden Operation, wenn ein Teil, der Zout = -2 anzeigt, noch vorhanden ist, wird das aufgenommene Bild im Bereich der Systembeschränkungen weiter verdunkelt und das Fotografieren und die Abstandsmessung werden wiederholt.
  • Hinsichtlich eines Bereichs, in dem ein Fehler auch als ein Ergebnis des Fotografierens durch Änderung der Helligkeit des Bildes nicht behoben wurde, da die Möglichkeit besteht, dass der Bereich ein Bereich (ein blinder Fleck) ist, in dem die Lichtmuster nicht ankommen, werden die zweite und nachfolgenden Abstandsmessungen durch Verschieben der Position der Fotografiereinheit 10b durchgeführt. Bei dieser Operation werden zur Festlegung einer Bewegungsrichtung der Fotografiereinheit 10b Ergebnisse von Abstandsmessungen auf einer oberen Seite und einer unteren Seite eines Fehlerauftrittsbereichs miteinander verglichen und Ergebnisse von Abstandsmessungen auf einer linken Seite und einer rechten Seite des Fehlerauftrittsbereichs miteinander verglichen. Zuerst wird eine Gruppe von Fehlerauftretenspositionen, die sich in Auf- und Abwärtsrichtung und in Links- und Rechtsrichtung fortsetzen, als der Fehlerauftrittsbereich extrahiert.
  • 13(A) ist ein Diagramm, das den Fehlerauftrittsbereich anzeigt, und 13(B) bis 13(E) sind Diagramme, die Pixelpositionen darstellen, auf die sich bezogen wird, wenn die Bewegungsrichtung der Fotografiereinheit 10b in Bezug auf den in 13(A) dargestellten Fehlerauftrittsbereich bestimmt wird.
  • Wie in 13(B) dargestellt, werden, wenn sich auf Pixel auf der linken Seite des Fehlerauftrittsbereichs bezogen wird, Pixelpositionen extrahiert, die eine Bedingung erfüllen, dass der Fehlerauftrittsbereich unmittelbar auf der rechten Seite des Pixels liegt (Pixel, die durch eine dicke Linie gekennzeichnet sind), und ein Mittelwert der Abstandsmessergebnisse der Pixelpositionen erhalten wird.
  • Ebenso werden, wie in 13(C) dargestellt, wenn sich auf Pixel auf der rechten Seite des Fehlerauftrittsbereichs bezogen wird, Pixelpositionen extrahiert, die eine Bedingung erfüllen, dass sich der Fehlerauftrittsbereich unmittelbar auf der linken Seite des Pixels befindet (Pixel, die durch eine dicke Linie gekennzeichnet sind), und ein Mittelwert der Abstandsmessergebnisse der Pixelpositionen erhalten wird.
  • Ebenso werden, wie in 13(D) dargestellt, wenn sich auf Pixel auf der oberen Seite des Fehlerauftrittsbereichs bezogen wird, Pixelpositionen extrahiert, die eine Bedingung erfüllen, dass sich der Fehlerauftrittsbereich unmittelbar auf der Unterseite des Pixels befindet (Pixel, die durch eine dicke Linie gekennzeichnet sind) und ein Mittelwert der Abstandsmessergebnisse der Pixelpositionen erhalten wird.
  • Ebenso werden, wie in 13(E) dargestellt, wenn sich auf Pixel auf der unteren Seite des Fehlerauftrittsbereichs bezogen wird, Pixelpositionen extrahiert, die eine Bedingung erfüllen, dass sich der Fehlerauftrittsbereich unmittelbar auf der oberen Seite des Pixels befindet (Pixel, die durch eine dicke Linie gekennzeichnet sind) und ein Mittelwert der Abstandsmessergebnisse der Pixelpositionen erhalten wird.
  • Der Mittelwert der Abstandsmessergebnisse, wenn sich auf die Pixel auf der linken Seite des in 13(B) dargestellten Fehlerauftrittsbereichs bezogen wird, wird mit Zout_I bezeichnet, der Mittelwert der Abstandsmessergebnisse, wenn sich auf die Pixel auf der rechten Seite des in 13(C) dargestellten Fehlerauftrittsbereichs bezogen wird, wird mit Zout_r bezeichnet, der Mittelwert der Abstandsmessergebnisse, wenn sich auf die Pixel auf der oberen Seite des in 13 (D) dargestellten Fehlerauftrittsbereichs bezogen wird, wird mit Zout_r bezeichnet, der Mittelwert der Abstandsmessergebnisse, wenn sich auf die Pixel auf der unteren Seite des in 13(E) dargestellten Fehlerauftrittsbereichs bezogen wird, wird durch Zout_d bezeichnet, und der Bewegungsabstand und Drehwinkel der Fotografiereinheit 10b können aus der Größenbeziehung zwischen diesen Werten erhalten werden. Wenn ein vorherbestimmter Abstandsdifferenzschwellenwert mit Tz bezeichnet ist, werden der Bewegungsabstand und der Drehwinkel der Fotografiereinheit 10b mit M bezeichnet, wobei die Steuereinheit 14 die Position der Fotografiereinheit 10b und die Fotografierrichtung der Abbildungseinheit 12 wie folgt änder (die Fotografiereinheit 10b dreht).
  • Wenn z.B. Zout_u > Zout_d + Tz, bewegt die Steuereinheit 14 die Fotografiereinheit 10b in die Aufwärtsrichtung und ändert die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b um M Grad in die Abwärtsrichtung (z.B. ein dem Bewegungsabstand entsprechender Winkel) (dreht die Fotografiereinheit 10b).
  • Wenn Zout_u + Tz < Zout_d, bewegt die Steuereinheit 14 die Fotografiereinheit 10b in die Abwärtsrichtung und ändert die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b um M Grad in die Aufwärtsrichtung (dreht die Fotografiereinheit 10b).
  • Wenn | Zout_u - Zout_d | ≤ Tz bewegt die Steuereinheit 14 die Fotografiereinheit 10b weder in die Aufwärtsrichtung noch in die Abwärtsrichtung noch ändert sie die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b.
  • Zum Beispiel, wenn Zout_r > Zout_l + Tz, bewegt die Steuereinheit 14 die Fotografiereinheit 10b in die rechte Richtung und ändert die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b in die linke Richtung um M Grad (dreht die Fotografiereinheit 10b).
  • Wenn Zout_r + Tz < Zout_l, bewegt die Steuereinheit 14 die Fotografiereinheit 10b in die linke Richtung und ändert die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b in die rechte Richtung um M Grad (dreht die Fotografiereinheit 10b).
  • Wenn | Zout_r - Zout_l | ≤ Tz, bewegt die Steuereinheit 14 weder die Fotografiereinheit 10b in die rechte noch in die linke Richtung noch ändert sie die Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b (die Fotografiereinheit 10b wird nicht gedreht).
  • 14 ist ein Diagramm, das Bewegung und Drehung der Position der Fotografiereinheit 10b, aufweisend das optische System 11, die Abbildungseinheit 12 und die Projektionseinheit 13, dargestellt in 11, zeigt. Die Fotografiereinheit 10b wird in der Aufwärts- und Abwärtsrichtung oder der Links- und Rechtsrichtung von der ursprünglichen Position der Fotografiereinheit 10b als eine Referenz bewegt (verschoben). Bei diesem Vorgang wird die Fotografiereinheit 10b so bewegt, dass die Mitte des Blickwinkels mit der Mitte des Blickwinkels übereinstimmt, bevor die Fotografiereinheit 10b bewegt wird. Die Fotografiereinheit 10b wird in eine Position bewegt, in der die Änderung der Fotografierrichtung der Abbildungseinheit 12 der Fotografiereinheit 10b (die Drehung der Fotografiereinheit 10b) als ein Ergebnis der Bewegung M Grad entspricht. Als das Ergebnis der Bestimmung, wenn weder Bewegung in der Aufwärts- und Abwärtsrichtung und der Links- und Rechtsrichtung noch eine Änderung der Fotografierrichtung durchgeführt wird, wird beurteilt, dass eine Vergrößerung des möglichen Abstandsmessbereichs durch Bewegung der Fotografiereinheit 10b und Ändern der Fotografierrichtung schwierig ist, und die Abstandsmessverarbeitung wird in Bezug auf den Zielfehlerauftrittsbereich beendet.
  • Die Belichtungszeit, die eingestellt wird, wenn die Fotografiereinheit 10b bewegt wird, ist die gleiche wie die, welche bei der ersten Abstandsmessung eingestellt ist, und je nach Auftreten eines Messfehlers an der Position nach der Bewegung, wird das Fotografieren durch Aufhellen oder Verdunkeln des aufgenommenen Bildes in der gleichen Weise durchgeführt wie bei der ersten Abstandsmessung.
  • Die Messergebnissyntheseeinheit 23 synthetisiert die als das Ergebnis des Fotografierens durch Bewegung der Fotografiereinheit 10b erhaltenen Abstandsdaten mit den Abstandsdaten des Ergebnisses der ersten Abstandsmessung. Zuerst werden die Abstandsdaten, die durch die Abstandsmessung erhalten werden, bevor die Fotografiereinheit 10b bewegt wird, auf einen dreidimensionalen Raum aufgetragen. Als nächstes werden die Abstandsdaten, die erworben werden, nachdem die Fotografiereinheit 10b bewegt wird, auf den gleichen dreidimensionalen Raum aufgetragen. Bei dieser Operation, wenn ein Punkt der Abstandsdaten, der durch die Abstandsmessung erhalten wird, die durchgeführt wird, bevor die Fotografiereinheit 10b bewegt wird, auf einer Linie vorhanden ist, die einen zusätzlich aufgetragenen Punkt und die Abbildungseinheit 12 der Fotografiereinheit 10b verbindet, wird kein zusätzliches Auftragen durchgeführt. Auf diese Weise werden durch Auftragen der Abstandsdaten auf dem dreidimensionalen Raum nur die Abstandsmessergebnisse, die näher zur Fotografiereinheit 10b erhalten wurden, aufgezeichnet. Auf diese Weise kann die Möglichkeit verringert werden, dass eine Position, an der das Subjekt tatsächlich vorhanden ist, fälschlicherweise als eine Position bestimmt wird, an der das Subjekt aufgrund eines Erfassungsfehlers in den Abstandsmessergebnisdaten nicht vorhanden ist.
  • Die Bewegung der Position der Fotografiereinheit 10b und Abstandsmessung werden mit der Anzahl der Fehlerauftrittsbereiche wiederholt. Um die für die Abstandsmessung erforderliche Zeit zu verkürzen, kann ein Schwellenwert für die Anzahl der Pixel, die den Fehlerauftrittsbereich bilden, festgelegt werden. In diesem Fall, wenn die Anzahl der im Fehlerauftrittsbereich enthaltenen Pixel gleich ist wie oder kleiner ist als der Schwellenwert, kann Verarbeitung ausschließend den Fehlerauftrittsbereich aus dem Ziel der Bewegung der Fotografiereinheit 10b und der Abstandsmessung durchgeführt werden.
  • Ferner, um die für die Abstandsmessung erforderliche Zeit zu verkürzen, bevor die Position der Fotografiereinheit 10b tatsächlich bewegt wird und die Abstandsmessung tatsächlich durchgeführt wird, können die Bewegung und die Drehung der Fotografiereinheit 10b und die Abstandsmessung durchgeführt werden, indem im Voraus Bewegungspositionen der Fotografiereinheit 10b in Bezug auf alle Fehlerauftrittsbereiche aufgelistet und überlappende Bewegungspositionen der Fotografiereinheit 10b als eine einzige Position behandelt werden.
  • Wirkung
  • Wie oben beschrieben, werden gemäß der Abstandsmessvorrichtung 2 und dem Abstandsmessverfahren der zweiten Ausführungsform Bilddaten durch Bewegen und Drehen der Fotografiereinheit 10b erworben, um die Fehlerauftrittsbereiche zu reduzieren, auf der Grundlage des Ergebnisses der ersten Abstandsmessung und durch Änderung der Belichtungsbedingung, der Fotografierposition und der Fotografierrichtung für die zweite und nachfolgenden Abstandsmessungen, und somit die Abstandsmessung durchgeführt wird. Daher gibt es nur wenige Bereiche, für die die Abstandsmessung nicht durchgeführt werden kann, und es ist möglich, den Subjektabstand mit hoher Genauigkeit zu erwerben.
  • Variante
  • 15 ist ein Hardware-Konfigurationsdiagramm, das die Konfiguration einer Variation der Bilddatenverarbeitungseinheiten der Abstandsmessvorrichtungen gemäß der obigen ersten und zweiten Ausführungsform darstellt. Jede der Bilddatenverarbeitungseinheiten 20 der Abstandsmessvorrichtungen 1 und 2 kann durch Verwendung eines Speichers 91 als eine Speichereinrichtung, die ein Programm als Software speichert, und eines Prozessors 92 als eine Informationsverarbeitungseinheit, die das im Speicher 91 gespeicherte Programm ausführt, realisiert werden (z.B. durch Verwendung eines Computers). In diesem Fall entspricht jede der Bilddatenverarbeitungseinheiten 20 in 1 und 11 dem Speicher 91 und dem Prozessor 92, der das Programm in 15 ausführt. Ein Teil der in 1 dargestellten Bilddatenverarbeitungseinheit 20 kann durch den Speicher 91 und den Prozessor 92, der das Programm in 15 ausführt, realisiert sein.
  • Bezugszeichenliste
  • 1, 2
    Abstandsmessvorrichtung;
    10, 10a
    Bilddatenerwerbungseinheit;
    10b
    Fotografiereinheit;
    11
    optisches System;
    12
    Abbildungseinheit;
    13
    Projektionseinheit;
    14
    Steuereinheit;
    15
    Kameraarmeinheit;
    20
    Bilddatenverarbeitungseinheit;
    21
    erste Abstandsmesseinheit (Bildunschärfe- Bestimmungseinheit);
    22
    zweite Abstandsmesseinheit (Triangulationseinheit);
    23
    Messergebnissyntheseeinheit;
    24
    Steuereinheit.

Claims (8)

  1. Abstandsmessvorrichtung (1, 2), umfassend: eine Projektionseinheit (13), die eine Vielzahl von Lichtmustern auf ein Subjekt projiziert; ein optisches System (11) mit einem Mechanismus, der eine Brennweite ändert; eine Abbildungseinheit (12), die das Subjekt über das optische System (11) fotografiert; eine Steuereinheit (14), die die Projektionseinheit (13) veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit (12) veranlasst, eine Vielzahl von ersten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System (11) veranlasst wird, die Brennweite auf eine erste Brennweite einzustellen, und die die Projektionseinheit (13) veranlasst, die Vielzahl von Lichtmustern sequentiell zu projizieren, und die Abbildungseinheit (12) veranlasst, eine Vielzahl von zweiten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn das optische System (11) veranlasst wird, die Brennweite auf eine zweite Brennweite einzustellen, die länger ist als die erste Brennweite; eine erste Abstandsmesseinheit (21), die das Vorhandensein oder Nichtvorhandensein einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder bestimmt und einen ersten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel, erwirbt aus einem Bildunschärfeindexwert, anzeigend einen Grad der Bildunschärfe; eine zweite Abstandsmesseinheit (22), die einen zweiten Abstand, der ein Abstand zu dem Subjekt ist, pro Pixel, erwirbt auf Grundlage von Triangulation aus der Vielzahl der ersten erworbenen Bilder und der Vielzahl der zweiten erworbenen Bilder; und eine Messergebnissyntheseeinheit (23), die den ersten Abstand für ein Pixel ausgibt, für das durch die erste Abstandsmesseinheit (21) bestimmt ist, ein Pixel mit der Bildunschärfe zu sein, und die den zweiten Abstand für ein Pixel ausgibt, für das bestimmt ist, ein Pixel ohne Bildunschärfe zu sein.
  2. Abstandsmessvorrichtung (1, 2) nach Anspruch 1, wobei die Vielzahl der von der Projektionseinheit (13) projizierten Lichtmuster umfassen: ein erstes Lichtmuster mit einem ersten hellen Bereich und einem ersten dunklen Bereich, die abwechselnd regelmäßig in einer Richtung angeordnet sind und eine gleiche Breite in einer Anordnungsrichtung aufweisen, und ein zweites Lichtmuster mit einem zweiten dunklen Bereich und einem zweiten hellen Bereich, die zu dem ersten hellen Bereich und dem ersten dunklen Bereich im ersten Lichtmuster invertiert sind.
  3. Abstandsmessvorrichtung (1, 2) nach Anspruch 2, wobei der Bildunschärfeindexwert eine Differenz zwischen einem Maximalwert und einem Minimalwert eines normierten Differenzwertes ist, der durch Normieren eines Differenzwertes zwischen einem Leuchtdichtewert eines Zielpixels in dem ersten aufgenommenen Bild, das erhalten wird, wenn das erste Lichtmuster projiziert wird, und einem Leuchtdichtewert des Zielpixels in dem zweiten erworbenen Bild, das erhalten wird, wenn das zweite Lichtmuster projiziert wird, erhalten wird.
  4. Abstandsmessvorrichtung (1, 2) nach einem der Ansprüche 1 bis 3, wobei die zweite Abstandsmesseinheit (22) eine Abstandsmessung auf Grundlage von Triangulation durchführt unter Verwendung von Nahbrennpunkt-Positionsbilddaten, die durch Fotografieren erworben werden, wenn die Brennweite auf die erste Brennweite eingestellt ist, und von Fernbrennpunkt-Positionsbilddaten, die durch Fotografieren erworben werden, wenn die Brennweite auf die zweite Brennweite eingestellt ist, und die Messergebnissyntheseeinheit (23) betreffend einen Abschnitt, auf dem die erste Abstandsmesseinheit (21) bestimmt, dass ein Bild der Nahbrennpunkt-Positionsbilddaten und der Fernbrennpunkt-Positionsbilddaten keine Bildunschärfe aufweisen und ein weiteres Bild die Bildunschärfe aufweist, ein Abstandsmessergebnis des Bildes ohne Bildunschärfe ausgibt, wobei das Abstandsmessergebnis durch die zweite Abstandsmesseinheit (22) erhalten wird, und betreffend einen Abschnitt, auf dem die erste Abstandsmesseinheit (21) bestimmt, dass weder die Nahbrennpunkt-Positionsbilddaten noch die Fernbrennpunkt-Positionsbilddaten die Bildunschärfe aufweisen, ein weiteres Abstandsmessergebnis eines Bildes mit einem größeren Bildunschärfeindexwert, anzeigend eine Bildunschärfe, ausgibt, wobei das weitere Abstandsmessergebnis durch die zweite Abstandsmesseinheit (22) erhalten wird.
  5. Abstandsmessvorrichtung (2) nach einem der Ansprüche 1 bis 4, ferner umfassend eine Kameraarmeinheit (15), die die Positionen der Projektionseinheit (13), des optischen Systems (11) und der Abbildungseinheit (12) und eine Fotografierrichtung der Abbildungseinheit (12) in Bezug auf das Subjekt ändert, wobei, nachdem eine erste Abstandsmessung durch die erste Abstandsmesseinheit (21), die zweite Abstandsmesseinheit (22) und die Messergebnissyntheseeinheit (23) durchgeführt wurde, Intensität der Lichtmuster von der Projektionseinheit (13) und die Fotografierposition und die Fotografierrichtung der Abbildungseinheit (12) geändert werden, und dann zweite und nachfolgende Abstandsmessungen durch die erste Abstandsmesseinheit (21), die zweite Abstandsmesseinheit (22) und die Messergebnissyntheseeinheit (23) durchgeführt werden, und die Messergebnissyntheseeinheit (23) die Ergebnisse synthetisiert, die durch Durchführen der ersten und zweiten und nachfolgenden Abstandsmessungen erhalten wurden, und die synthetisierten Ergebnisse ausgibt.
  6. Abstandsmessvorrichtung (2) nach Anspruch 5, wobei Abstandsmessergebnisse auf einer oberen Seite und einer unteren Seite eines Fehlerauftrittsbereichs, in welchem ein Fehler bei der ersten Abstandsmessung durch die erste Abstandsmesseinheit (21), die zweite Abstandsmesseinheit (22) und die Messergebnissyntheseeinheit (23) auftritt, miteinander verglichen werden, Abstandsmessergebnisse auf einer linken Seite und einer rechten Seite des Fehlerauftrittsbereichs miteinander verglichen werden, und auf der Grundlage der Vergleichsergebnisse der Abstandsmessergebnisse, die Kameraarmeinheit (15) die Projektionseinheit (13), das optische System (11) und die Abbildungseinheit (12) bewegt und die Fotografierrichtung der Abbildungseinheit (12) ändert.
  7. Abstandsmessvorrichtung (2) nach Anspruch 5 oder 6, wobei die Messergebnissyntheseeinheit (23) eine Verarbeitung des Auftragens eines Punktes, der durch einen Subjektabstand angegeben ist, der gemessen wurde, bevor die Projektionseinheit (13) das optische System (11) und die Abbildungseinheit (12) bewegt werden, als einen Punkt, anzeigend einen auszugebenden Messabstand, auf einen dreidimensionalen Raum durchführt, und in Subjektabständen, die durch Bewegen der Projektionseinheit (13), des optischen Systems (11) und der Abbildungseinheit (12) und durch Ändern der Fotografierrichtung der Abbildungseinheit (12) gemessen werden, wenn ein Punkt, der durch einen Subjektabstand angegeben ist, der gemessen wurde, bevor die Abbildungseinheit (12) bewegt wird, auf einer Linie, verbindend einen zuvor aufgetragenen Punkt und die Abbildungseinheit (12), nicht vorhanden ist, zusätzliches Auftragen durchgeführt wird, und wenn ein Punkt, der durch einen Subjektabstand angegeben ist, der gemessen wurde, bevor die Abbildungseinheit (12) bewegt wird, auf einer Linie, verbindend einen zuvor aufgetragenen Punkt und die Abbildungseinheit (12), vorhanden ist, zusätzliches Auftragen nicht durchgeführt wird.
  8. Abstandsmessverfahren, das durch eine Vorrichtung durchgeführt wird, die eine Projektionseinheit (13), die eine Vielzahl von Lichtmustern auf ein Subjekt projiziert, ein optisches System (11) mit einem Mechanismus, der eine Brennweite ändert, und eine Abbildungseinheit (12) umfasst, die das Subjekt über das optische System (11) fotografiert, wobei das Abstandsmessverfahren umfasst: einen Schritt des Veranlassens der Projektionseinheit (13) die Vielzahl von Lichtmustern sequentiell zu projizieren und des Veranlassens der Abbildungseinheit (12) eine Vielzahl von ersten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn die Brennweite des optischen Systems (11) auf eine erste Brennweite eingestellt ist; einen Schritt des Veranlassens der Projektionseinheit (13) die Vielzahl von Lichtmustern sequentiell zu projizieren und des Veranlassens der Abbildungseinheit (12) eine Vielzahl von zweiten aufgenommenen Bildern entsprechend der Vielzahl von Lichtmustern zu erwerben, wenn die Brennweite des optischen Systems (11) auf eine zweite Brennweite länger als die erste Brennweite eingestellt ist; einen Schritt des Bestimmens des Vorhandenseins oder Nichtvorhandenseins einer Bildunschärfe pro Pixel aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder und des Erwerbens eines ersten Abstands, der ein Abstand zu dem Subjekt ist, pro Pixel, aus einem Bildunschärfeindexwert, der einen Grad der Bildunschärfe anzeigt; einen Schritt des Erwerbens eines zweiten Abstands, der ein Abstand zu dem Subjekt ist, pro Pixel, auf Grundlage von Triangulation aus der Vielzahl der ersten aufgenommenen Bilder und der Vielzahl der zweiten aufgenommenen Bilder; und einen Schritt des Ausgebens des ersten Abstands für ein Pixel, für das bestimmt ist, ein Pixel mit der Bildunschärfe zu sein im Schritt des Erwerbens des ersten Abstands, und Ausgebens des zweiten Abstands für ein Pixel, für das bestimmt ist, ein Pixel ohne Bildunschärfe zu sein.
DE112017001464.6T 2016-03-22 2017-01-06 Abstandsmessvorrichtung und Abstandsmessverfahren Active DE112017001464B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016056400 2016-03-22
JP2016-056400 2016-03-22
PCT/JP2017/000240 WO2017163537A1 (ja) 2016-03-22 2017-01-06 距離計測装置及び距離計測方法

Publications (2)

Publication Number Publication Date
DE112017001464T5 DE112017001464T5 (de) 2019-01-24
DE112017001464B4 true DE112017001464B4 (de) 2021-09-23

Family

ID=59899929

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017001464.6T Active DE112017001464B4 (de) 2016-03-22 2017-01-06 Abstandsmessvorrichtung und Abstandsmessverfahren

Country Status (5)

Country Link
US (1) US10955235B2 (de)
JP (1) JP6377295B2 (de)
CN (1) CN108885098B (de)
DE (1) DE112017001464B4 (de)
WO (1) WO2017163537A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10360693B2 (en) * 2017-03-01 2019-07-23 Cognex Corporation High speed structured light system
JP7052564B2 (ja) * 2018-05-29 2022-04-12 オムロン株式会社 視覚センサシステム、制御方法およびプログラム
US11040452B2 (en) * 2018-05-29 2021-06-22 Abb Schweiz Ag Depth sensing robotic hand-eye camera using structured light
US10498948B1 (en) * 2018-06-05 2019-12-03 Applied Materials, Inc. Methods and apparatus for absolute and relative depth measurements using camera focus distance
JP7482070B2 (ja) * 2021-03-16 2024-05-13 株式会社東芝 学習方法、プログラム及び画像処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05332737A (ja) 1991-03-15 1993-12-14 Yukio Sato 形状計測装置
US20060072123A1 (en) 2003-01-25 2006-04-06 Wilson John E Methods and apparatus for making images including depth information
JP2013512626A (ja) 2009-12-16 2013-04-11 ソニー エレクトロニクス インク シーン内の正確な及び相対的な被写体距離を推定するためのアルゴリズム
US20150015701A1 (en) 2013-07-10 2015-01-15 Faro Technologies, Inc. Triangulation scanner having motorized elements

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5332737A (en) 1976-09-08 1978-03-28 Olympus Optical Co Ltd Thermal developing device
JP2734221B2 (ja) * 1991-03-13 1998-03-30 株式会社高岳製作所 表面形状測定用光学装置
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
IL125659A (en) * 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
JP4032603B2 (ja) * 2000-03-31 2008-01-16 コニカミノルタセンシング株式会社 3次元計測装置
JP2002022424A (ja) 2000-07-12 2002-01-23 Minolta Co Ltd 3次元測定装置
US20030123707A1 (en) * 2001-12-31 2003-07-03 Park Seujeung P. Imaging-based distance measurement and three-dimensional profiling system
DE602005004332T2 (de) * 2004-06-17 2009-01-08 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
JP4380663B2 (ja) * 2006-06-08 2009-12-09 コニカミノルタセンシング株式会社 三次元形状測定方法、装置、及びフォーカス調整方法
TWI433052B (zh) * 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
JP5595211B2 (ja) * 2010-10-12 2014-09-24 キヤノン株式会社 三次元形状測定装置、三次元形状測定方法及びコンピュータプログラム
US9349182B2 (en) * 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
US9295532B2 (en) * 2011-11-10 2016-03-29 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
JP6370038B2 (ja) * 2013-02-07 2018-08-08 キヤノン株式会社 位置姿勢計測装置及び方法
JP6537237B2 (ja) * 2013-11-05 2019-07-03 キヤノン株式会社 情報処理装置および方法
WO2015074078A1 (en) * 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9258467B2 (en) * 2013-11-19 2016-02-09 Stmicroelectronics Pte Ltd. Camera module
EP3146291A2 (de) * 2014-05-18 2017-03-29 ADOM Advanced Optical Technologies Ltd. System für tomografie- und/oder topografiemessungen eines überlagerten objekts
US9482624B2 (en) * 2014-10-29 2016-11-01 SUNMOON UNIVERSITY Industry-University Cooperation Apparatus for inspecting
JP6552230B2 (ja) * 2015-03-18 2019-07-31 キヤノン株式会社 計測装置
DE102015209402A1 (de) * 2015-05-22 2016-11-24 Sirona Dental Systems Gmbh Vorrichtung zur optischen 3D-Vermessung eines Objekts
JP6366546B2 (ja) * 2015-07-13 2018-08-01 株式会社モリタ製作所 口腔内三次元計測装置、口腔内三次元計測方法及び口腔内三次元計測結果の表示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05332737A (ja) 1991-03-15 1993-12-14 Yukio Sato 形状計測装置
US20060072123A1 (en) 2003-01-25 2006-04-06 Wilson John E Methods and apparatus for making images including depth information
JP2013512626A (ja) 2009-12-16 2013-04-11 ソニー エレクトロニクス インク シーン内の正確な及び相対的な被写体距離を推定するためのアルゴリズム
US20150015701A1 (en) 2013-07-10 2015-01-15 Faro Technologies, Inc. Triangulation scanner having motorized elements

Also Published As

Publication number Publication date
US10955235B2 (en) 2021-03-23
JP6377295B2 (ja) 2018-08-22
CN108885098A (zh) 2018-11-23
DE112017001464T5 (de) 2019-01-24
US20180372484A1 (en) 2018-12-27
CN108885098B (zh) 2020-12-04
WO2017163537A1 (ja) 2017-09-28
JPWO2017163537A1 (ja) 2018-05-24

Similar Documents

Publication Publication Date Title
DE112017001464B4 (de) Abstandsmessvorrichtung und Abstandsmessverfahren
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE602005000296T2 (de) Projektor mit automatischer Fokuseinstellung
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE69726421T2 (de) Projektor mit einer schaltung und verfahren zum automatischen einstellen des projektors
DE602004001500T2 (de) Apparat für dreidimensionale Messungen
DE102008015499A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
EP3136711A1 (de) Verfahren zur erzeugung und auswertung eines bilds
DE102014107143B4 (de) System und Verfahren zur Messung der Verschiebung einer Objektoberfläche
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102007025304B4 (de) Verfahren zur Verbesserung der Reproduzierbarkeit einer Koordinaten-Messmaschine und deren Genauigkeit
WO2016146105A1 (de) Verfahren und vorrichtung zur kalibration einer kamera
DE102016202928A1 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
DE112014006672T5 (de) Bildverarbeitungsvorrichtung, Bildgebungsvorrichtung, Mikroskopsystem, Bildverarbeitungsverfahren und ein Bildverarbeitungsprogramm
DE102014211657A1 (de) Verbesserung der Reproduzierbarkeit der Fokushöhe in einem Bildverarbeitungs-Inspektionssystem
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
CH710375A2 (de) Verfahren und System zur Aufnahme und Auswertung von Bildern in mehreren Fokusebenen.
DE102020201814A1 (de) Bildverarbeitungsvorrichtung
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE102008015979A1 (de) Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren
DE10008676B4 (de) Verfahren und Vorrichtung zur automatischen Seitenerfassung durch eine Digitalkamera
EP4067809A2 (de) Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
DE102011055967B4 (de) Messverfahren und Vorrichtung zur Durchführung des Messverfahrens
DE102017221853A1 (de) Anordnung und Verfahren zum dreidimensionalen optischen Vermessen eines Objekts
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final