DE112020003295T5 - Dreidimensionales erfassungssystem - Google Patents

Dreidimensionales erfassungssystem Download PDF

Info

Publication number
DE112020003295T5
DE112020003295T5 DE112020003295.7T DE112020003295T DE112020003295T5 DE 112020003295 T5 DE112020003295 T5 DE 112020003295T5 DE 112020003295 T DE112020003295 T DE 112020003295T DE 112020003295 T5 DE112020003295 T5 DE 112020003295T5
Authority
DE
Germany
Prior art keywords
light
unit
operation mode
dimensional
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020003295.7T
Other languages
English (en)
Inventor
Susumu Noda
Takuya Kushimoto
Menaka DE ZOYSA
Yoshinori Tanaka
Kenji ISHIZAKI
Eiji Miyai
Wataru Kunishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Kyoto University
Original Assignee
Rohm Co Ltd
Kyoto University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020059842A external-priority patent/JP2021015113A/ja
Application filed by Rohm Co Ltd, Kyoto University filed Critical Rohm Co Ltd
Publication of DE112020003295T5 publication Critical patent/DE112020003295T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01SDEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
    • H01S5/00Semiconductor lasers
    • H01S5/10Construction or shape of the optical resonator, e.g. extended or external cavity, coupled cavities, bent-guide, varying width, thickness or composition of the active region
    • H01S5/12Construction or shape of the optical resonator, e.g. extended or external cavity, coupled cavities, bent-guide, varying width, thickness or composition of the active region the resonator having a periodic structure, e.g. in distributed feedback [DFB] lasers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01SDEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
    • H01S5/00Semiconductor lasers
    • H01S5/10Construction or shape of the optical resonator, e.g. extended or external cavity, coupled cavities, bent-guide, varying width, thickness or composition of the active region
    • H01S5/18Surface-emitting [SE] lasers, e.g. having both horizontal and vertical cavities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Das 3D-Erfassungssystem weist auf: ein PC-Laserarray (10), in dem PC-Laserelemente in einer Ebene angeordnet sind; eine Steuereinheit (14), die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Treibereinheit (12), die dazu ausgebildet ist, eine Treibersteuerung des PC-Laserarrays gemäß einem von der Steuereinheit gesteuerten Betriebsmodus auszuführen; eine Lichtempfangseinheit (16, 18), die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das Laserlicht ist, das von dem PC-Laserarray emittiert und von einem Messobjekt reflektiert wird; eine Signalverarbeitungseinheit (20), die dazu ausgebildet ist, eine Signalverarbeitung des von der Lichtempfangseinheit empfangenen reflektierten Lichts gemäß dem Betriebsmodus auszuführen; und eine Abstandsberechnungseinheit (22), die dazu ausgebildet ist, eine Berechnungsverarbeitung eines Abstands zu dem Messobjekt in Bezug auf ein von der Signalverarbeitungseinheit verarbeitetes Signal gemäß dem Betriebsmodus auszuführen, und Abstandsdaten auszugeben. Es wird ein 3D-Erfassungssystem bereitgestellt, das eine höhere Genauigkeit, eine höhere Ausgabe, Miniaturisierung, und Robustheit, sowie eine höhere Anpassungsfähigkeit an Erfassungsbereiche und Erfassungsobjekte aufweist und in der Lage ist, eine Vielzahl von Erfassungsmodi zu unterstützen.

Description

  • TECHNISCHER BEREICH
  • Die hierin beschriebenen Ausführungsformen betreffen ein dreidimensionales (3D) Erfassungssystem.
  • HINTERGRUND
  • Es wurden Radarvorrichtungen vorgeschlagen, die dazu ausgebildet sind, einen Abstand zu einem Messobjekt, und dessen Form, das um ein Fahrzeug oder dergleichen herum vorhanden ist, zu detektieren.
  • Herkömmliche Radarvorrichtungen, die beispielsweise ein LiDAR- (Light Detection and Ranging) Verfahren verwenden, weisen aufgrund der bei der Strahlabtastung beteiligten mechanischen beweglichen Teile Probleme hinsichtlich Größe, Gewicht, Genauigkeit, Zuverlässigkeit, Lebensdauer und dergleichen auf. Insbesondere bei der Montage an einem Fahrzeug ist es schwierig, alle Anforderungen gleichzeitig zu erfüllen, da nicht nur Genauigkeit, Zuverlässigkeit und Lebensdauer, sondern aufgrund des zur Verfügung stehenden Bauraums oft auch strenge Beschränkungen hinsichtlich Größe und Gewicht einbezogen werden müssen.
  • Zusätzlich zum Treiben und Steuern einer Laserlichtquelle sind auch eine Treiberschaltung für eine Strahlabtastung und eine Steuerschaltung davon erforderlich. In manchen Fällen sind auch Mechanismen und Schaltungen zum Überwachen einer Emissionsrichtung erforderlich.
  • Da ein von einer Laserlichtquelle emittierter Strahl einen bestimmten Aufweitungswinkel hat, ist ein bestimmtes optisches Kondensorsystem wie etwa eine Linse erforderlich, bevor der Strahl auf einen Strahlabtastabschnitt einfällt, und Größe, Gewicht und Montagegenauigkeit stellen Probleme dar.
  • Bei einem einfachen, rasterbasierten Vorgang ist die Strahlankunftszeitdichte an beiden Enden eines Abtastabschnitts hoch, und daher wird die Zeitdichte in einem mittleren Abschnitt, wo das Interesse der Abtastung hoch ist, verringert. Obwohl es wünschenswert wäre, dass eine Detektionsregion gemäß einer sich bewegenden Situation oder Umgebung geändert werden kann, und dadurch nur die Region abgetastet werden kann oder eine Vielzahl von Regionen gleichzeitig abgetastet werden können, ist es außerdem schwierig, dies mit einer einfachen Strahlabtastung zu bewerkstelligen.
  • Ein sogenanntes Blitz-Lidar-Verfahren bzw. Flash-Lidar-Verfahren zum Berechnen des Abstands für jedes Pixel durch Emittieren von gepulstem Beleuchtungslicht in Richtung des gesamten Erfassungsraums und Empfangen von reflektiertem Licht davon durch einen Bildsensor ist als Erfassungsverfahren ebenfalls vielversprechend, kann jedoch keine großen Abstände, wie etwa die, welche für die Erfassung beim automatischen Fahren benötigt werden, handhaben. Auch das strukturierte Lichtverfahren mit Lichtmusterprojektion ist für die Erfassung bei großen Abständen ungeeignet. Es ist zwar üblich, dass von jedem davon eine Lichtquelle und eine Abbildungsvorrichtung verwendet werden, sie können jedoch nicht gemeinsam genutzt werden, da die Anforderungen an die Lichtquelle sich voneinander unterscheiden.
  • Jedes Verfahren hat seine eigenen Vor- und Nachteile, und es ist praktisch, je nach Situation ein geeignetes Verfahren auszuwählen.
  • Andererseits wurden oberflächenemittierende Laser (SELs) mit photonischen Kristallen (PC) als Halbleiterlaserlichtquelle der nächsten Generation vorgeschlagen.
  • Zitationsliste
    • Patentliteratur 1: Japanische Patentveröffentlichung Nr. 3659239
    • Patentliteratur 2: Japanische Patentveröffentlichung Nr. 6080941
    • Patentliteratur 3: Japanische Patentveröffentlichung Nr. 6083703
    • Patentliteratur 4: Japanische Patentveröffentlichung Nr. 5794687
    • Patentliteratur 5: Japanische Patentveröffentlichung Nr. 6305056
  • Nichtpatentliteratur 1: Velodyne, „High Definition Lidar“, Internet <URL: http://www.velodynelidar.com/lidar/lidar.aspx>
  • KURZDARSTELLUNG DER ERFINDUNG
  • Technisches Problem
  • Die Ausführungsformen stellen ein 3D-Erfassungssystem bereit, das eine höhere Genauigkeit, eine höhere Ausgabe, Miniaturisierung und Robustheit, sowie eine höhere Anpassungsfähigkeit an Erfassungsbereiche und Erfassungsobjekte aufweist und in der Lage ist, eine Vielzahl von Erfassungsmodi zu unterstützen.
  • Lösung des Problems
  • Gemäß einem Aspekt der Ausführungsformen wird ein dreidimensionales Erfassungssystem bereitgestellt, aufweisend: ein photonisches Kristalllaserarray, in dem ein photonisches Kristalllaserelement in einer Ebene angeordnet ist; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Treibereinheit, die dazu ausgebildet ist, eine Treibersteuerung des photonischen Kristalllaserarrays gemäß dem von der Steuereinheit gesteuerten Betriebsmodus auszuführen; eine Lichtempfangseinheit, die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das Laserlicht ist, das von dem photonischen Kristalllaserarray emittiert wird, das von einem Messobjekt reflektiert wird; eine Signalverarbeitungseinheit, die dazu ausgebildet ist, eine Signalverarbeitung des von der Signalempfangseinheit empfangenen reflektierten Lichts gemäß dem Betriebsmodus auszuführen; und eine Abstandsberechnungseinheit, die dazu ausgebildet ist, eine Berechnungsverarbeitung eines Abstands zu dem Messobjekt in Bezug auf ein von der Signalverarbeitungseinheit verarbeitetes Signal gemäß dem Betriebsmodus auszuführen und ein Berechnungsergebnis als Abstandsdaten auszugeben.
  • Gemäß einem anderen Aspekt der Ausführungsformen wird ein dreidimensionales Erfassungssystem bereitgestellt, aufweisend: eine Signalsendeeinheit, die ein zweidimensionales oberflächenemittierendes photonisches Kristalllaserzellenarray aufweist, das dazu ausgebildet ist, Laserlicht auf ein Messobjekt zu emittieren; eine Signalempfangseinheit, die ein optisches System und einen Bildsensor aufweist, der dazu ausgebildet ist, reflektiertes Licht zu empfangen, das von der Signalsendeeinheit emittiert und von dem Messobjekt reflektiert wird; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Lichtquelle des Laserlichts zu steuern; eine Senderichtungs-Erkennungseinheit, die dazu ausgebildet ist, eine Emissionsrichtung des Laserlichts zu erkennen, das von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittiert wird; eine Treibereinheit für ein zweidimensionales photonisches Kristallzellenarray, die dazu ausgebildet ist, eine Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays basierend auf der Emissionsrichtung des von der Senderichtungs-Erkennungseinheit erkannten Laserlichts auszuführen, gemäß dem Betriebsmodus; und eine Signalverarbeitungseinheit, die eine Abstandsdetektionseinheit aufweist, die dazu ausgebildet ist, einen Abstand zu dem Messobjekt basierend auf einer Lichtempfangsposition auf einer Abbildungsfläche des Bildsensors und einer Zeit von der Lichtemission bis zum Lichtempfang gemäß dem Betriebsmodus zu berechnen.
  • Gemäß noch einem weiteren Aspekt der Ausführungsformen wird ein dreidimensionales Erfassungssystem bereitgestellt, aufweisend: eine Blitzlichtquelle, die dazu ausgebildet ist, Laserlicht auf eine gesamte Fläche einer spezifischen Region zu emittieren; ein zweidimensionales oberflächenemittierendes photonisches Kristalllaserzellenarray, das dazu ausgebildet ist, das Laserlicht zu einer Zielregion der spezifischen Region zu emittieren; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Blitztreibereinheit, die dazu ausgebildet ist, eine Treibersteuerung der Blitzlichtquelle auszuführen, und eine Treibereinheit für ein zweidimensionales photonisches Kristallzellenarray, die dazu ausgebildet ist, eine Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays auszuführen, gemäß dem von der Steuervorrichtung gesteuerten Betriebsmodus; eine Signalempfangseinheit, die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das das von der Blitzlichtquelle emittierte und von einem Messobjekt, das in der spezifischen Region enthalten ist, reflektierte Laserlicht ist, und reflektiertes Licht zu empfangen, das das von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittierte Laserlicht ist, das von dem Messobjekt reflektiert wird, das in der Zielregion enthalten ist; eine Signalverarbeitungseinheit, die dazu ausgebildet ist, eine Signalverarbeitung des reflektierten Lichts auszuführen, das die Signalempfangseinheit gemäß dem Betriebsmodus empfangen hat; und eine Abstandsdetektionseinheit, die dazu ausgebildet ist, eine Berechnungsverarbeitung des Abstands zu dem Messobjekt in Bezug auf das von der Signalverarbeitungseinheit verarbeitete Signal gemäß dem Betriebsmodus auszuführen, wobei die Signalverarbeitungseinheit bestimmt, ob es eine Region gibt oder nicht, in dem das Signal-Rausch-Verhältnis des reflektierten Lichts, das von der Blitzlichtquelle emittiert und reflektiert wird, in der bestimmten Region niedriger als der vorbestimmte Schwellenwert ist, wobei, wenn es eine Region gibt, in dem das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, die Signalverarbeitungseinheit die Treibereinheit des zweidimensionalen photonischen Kristallzellenarrays steuert, um nur die Region, in der das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, als Ziel mit Punktlaserlicht von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray zu bestrahlen.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß den Ausführungsformen kann ein 3D-Erfassungssystem bereitgestellt werden, das eine höhere Genauigkeit, eine höhere Ausgabe, Miniaturisierung und Robustheit, sowie eine höhere Anpassungsfähigkeit an Erfassungsbereiche und Erfassungsobjekte aufweist und in der Lage ist, eine Vielzahl von Erfassungsmodi zu unterstützen.
  • Figurenliste
    • [1] Ein schematisches Konfigurationsdiagramm aus der Vogelperspektive einer oberflächenemittierenden Laser- (SEL) Zelle eines zweidimensionalen photonischen Kristalls (2D-PC), die auf ein 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
    • [2] Ein schematisches Konfigurationsdiagramm der 2D-PC-SEL-Zelle aus der Vogelperspektive, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, und die mit einer transparenten Elektrode oder einer DBR-Schicht ausgebildet ist, die rückgekoppeltes Laserlicht C (FB) an einer Rückseite davon durchlässt.
    • [3] In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands als ein Gitterpunkt angeordnet ist, an dem ein Loch (Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht angeordnet ist; (b) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht angeordnet ist; (c) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem das Gitter 212A zum Bilden des optischen Resonanzzustands und das Gitter 212B zur Emission von Licht angeordnet sind; und (d) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Loch 211 angeordnet ist.
    • [4] In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein schematisches Diagramm zur Emission von Licht A und Emission von Licht B; und (b) ein schematisches Diagramm zum Erklären eines Aspekts, dass das emittierte Licht A und das emittierte Licht B, die in derselben Ebene vorhanden sind, gedreht werden.
    • [5] In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands, der aus einem quadratischen Gitter besteht, als ein Gitterpunkt angeordnet ist, wobei ein Loch (Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht angeordnet ist; (b) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht, das aus einem orthorhombischen Gitter besteht, angeordnet ist; und (c) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem das Gitter 212A zum Bilden des optischen Resonanzzustands und das Gitter 212B zur Emission von Licht angeordnet sind.
    • [6] In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein schematisches Diagramm von Ausgabeeigenschaften, das eine Beziehung zwischen der Laserlichtintensität L eines Injektionsstroms I des emittierten Lichts A und des emittierten Lichts B darstellt und; und (b) ein schematisches Konfigurationsdiagramm einer Konfiguration mit einer transparenten Elektrode (oder DBR-Schicht), die dazu ausgebildet ist, rückgekoppeltes Laserlicht C (FB) passieren zu lassen, und einer Fotodiode (PD) 118PD, die dazu ausgebildet ist, Laserlicht C (FB) zu detektieren, an der Rückseite davon.
    • [7] Ein schematisches Blockkonfigurationsdiagramm zum Erklären eines Rückkopplungssteuermechanismus, der durch Kombinieren eines 2D-PC-SEL-Zellenarrays und eines zweidimensionalen Fotodioden- (2D-PD) Zellenarrays in dem 3D-Erfassungssystem gemäß den Ausführungsformen gebildet wird.
    • [8] Ein schematisches Konfigurationsdiagramm zum Erklären eines Rückkopplungssteuermechanismus, der durch Laminieren und Kombinieren des 2D-PC-SEL-Zellenarrays und des 2D-PD-Zellenarrays über eine transparente Elektrode in einem 3D-Erfassungssystem gemäß den Ausführungsformen gebildet wird.
    • [9] Ein schematisches Ebenenkonfigurationsdiagramm des 2D-PC-SEL-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
    • [10] Ein schematisches Ebenenkonfigurationsdiagramm des 2D-PD-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
    • [11] Ein schematisches Blockkonfigurationsdiagramm zum Erklären eines Überblicks über das 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [12] Ein Betriebsablaufdiagramm zum Erklären einer Abstandsberechnungsprozedur für drei Betriebsmodi in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [13] Ein Betriebsablaufdiagramm zum Erkläre n der drei Betriebsmodi in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [14] In dem LiDAR-Betriebsmodus, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird, (a) ein schematisches Diagramm zum Erklären eines Betriebsprinzips des Detektierens von reflektiertem Licht RA bzw. reflektiertem Licht RB entsprechend dem emittierten Licht A und dem emittierten Licht B durch einen Bildsensor; und (b) ein Konzeptdiagramm des Bildsensors, der dazu ausgebildet ist, das reflektierte Licht RA und das reflektierte Licht RB zu detektieren.
    • [15] In einem Blitz-LiDAR-Betriebsmodus, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird, (a) ein schematisches Diagramm zum Erklären eines Betriebsprinzips des Detektierens von reflektiertem Licht RFL entsprechend dem emittierten Licht FL durch den Bildsensor; und (b) ein Konzeptdiagramm des Bildsensors, der dazu ausgebildet ist, das reflektierte Licht RFL zu detektieren.
    • [16] In einem Lichtschnittverfahren-Betriebsmodus, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird, (a) ein schematisches Diagramm zum Erklären eines Betriebsprinzips des Detektierens von reflektiertem Licht RST entsprechend dem drehenden streifenförmigen emittierten Licht ST durch den Bildsensor; und (b) ein Konzeptdiagramm des Bildsensors, der dazu ausgebildet ist, das reflektierte Licht RST zu detektieren.
    • [17] Ein Diagramm zum Erklären von Details eines Betriebs des Detektierens des reflektierten Lichts RST entsprechend dem drehenden streifenförmigen emittierten Licht ST durch den Bildsensor in dem Lichtschnittverfahrens-Betriebsmodus, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird.
    • [18] Ein Flussdiagramm des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [19] Ein Flussdiagramm des Blitz-LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [20] Ein Flussdiagramm des Lichtschnittverfahren-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [21A] Ein schematisches Blockkonfigurationsdiagramm des 3D-Erfassungssystems gemäß den Ausführungsformen.
    • [21B] Ein alternatives schematisches Blockkonfigurationsdiagramm des 3D-Erfassungssystems gemäß den Ausführungsformen.
    • [22A] Ein schematisches Blockkonfigurationsdiagramm eines 3D-Erfassungssystems gemäß einem modifizierten Beispiel 1 der Ausführungsformen.
    • [22B] Ein alternatives schematisches Blockkonfigurationsdiagramm des 3D-Erfassungssystems gemäß dem modifizierten Beispiel 1 der Ausführungsformen.
    • [23] Ein schematisches Blockkonfigurationsdiagramm einer 2D-PC-Zellenarray-Treibereinheit, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
    • [24A] Ein schematisches Blockkonfigurationsdiagramm eines 3D-Erfassungssystems gemäß einem modifizierten Beispiel 2 der Ausführungsformen.
    • [24B] Ein alternatives schematisches Blockkonfigurationsdiagramm des 3D-Erfassungssystems gemäß dem modifizierten Beispiel 2 der Ausführungsformen.
    • [25] Ein schematisches Blockkonfigurationsdiagramm eines 3D-Erfassungssystems gemäß einem modifizierten Beispiel 3 der Ausführungsformen als Flugzeit- (TOF) Abstandsmesssystem.
    • [26] Ein schematisches Blockkonfigurationsdiagramm eines Bildsensors (Bereich), der auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
    • [27] (a) ein schematisches Diagramm eines Beispiels einer Anordnung eines Zweifachstrahls, der von dem 2D-PC-SEL-Zellenarray emittiert wird, anwendbar auf das 3D-Erfassungssystem gemäß den Ausführungsformen; und (b) eine schematische, vergrößerte Zeichnung eines zentralen Strahls und eines dazu benachbarten Strahls.
    • [28] Ein schematisches Diagramm eines Beispiels einer Zweifachstrahlanordnung, die von dem 2D-PC-SEL-Zellenarray emittiert wird, anwendbar auf ein 3D-Erfassungssystem gemäß den Ausführungsformen, insbesondere ein Beispiel einer Strahlanordnung, die ein engstes Packungsmuster von Kreisen verwendet.
    • [29] In einem Beispiel des Zweifachstrahls, der das engste Packungsmuster von Kreisen verwendet, und der von dem 2D-PC-SEL-Zellenarray emittiert wird, anwendbar auf das 3D-Erfassungssystem gemäß den Ausführungsformen, (a) ein erklärendes Diagramm des maximalen horizontalen Winkels MHD und des maximalen vertikalen Winkel MVD in einem Teil einer sphärischen Oberfläche, der einen Erfassungsbereich zeigt; (b) ein erklärendes Diagramm, das einen Strahldivergenzwinkel BDA und eine Mittelposition des Strahls einer gleichseitigen Dreiecksanordnung zeigt; und (c) ein Beispiel einer Anordnung des Laserstrahls.
    • [30] In dem 3D-Erfassungssystem gemäß den Ausführungsformen, (a) ein schematisches Diagramm eines Lichtempfangssystems (16, 18), das dazu ausgebildet ist, reflektiertes Licht R zu empfangen; und (b) ein schematisches Diagramm des in 30(a) dargestellten Bildsensors.
    • [31] Als schematische Diagramme zum Erklären eines Beispiels, in dem Unterschiede in der Lichtintensität gemäß einer Richtung (Position) auftreten, selbst wenn der gleiche Stromwert in jede Zelle des 2D-PC-SEL-Zellenarrays injiziert wird, in dem 3D-Erfassungssystem gemäß zu einem Vergleichsbeispiel, (a) ein Diagramm, das einen Aspekt der Strahlung eines Strahls BM darstellt, wenn der gleiche Stromwert I in jede Zelle 121, 122, 123, 124 injiziert wird; (b) ein Diagramm, das einen Aspekt des Fernfeldmusters (FFP) darstellt, wenn der Strahl-, BM, Strahlungswinkel θ = 0 Grad ist; (c) ein Diagramm, das einen Aspekt von FFP darstellt, wenn θ = 20 Grad ist; (d) ein Diagramm, das einen Aspekt des FFP darstellt, wenn θ = 40 Grad ist; und (e) ein Diagramm, das einen Aspekt des FFP darstellt, wenn θ = 60 Grad ist.
    • [32] Als schematische Diagramme zum Erklären eines Beispiels, bei dem die Lichtintensität gemäß der Richtung (Position) durch Injizieren eines unterschiedlichen Stromwerts für jede Position in jede Zelle des 2D-PC-SEL-Zellenarrays in dem 3D-Erfassungssystem vereinheitlicht wird, gemäß den Ausführungsformen, (a) ein Diagramm, das einen Aspekt der Strahlung des Strahls BM darstellt, wenn unterschiedliche Stromwerte I1, I2, I3 bzw. I4 in die Zellen 121, 122, 123 und 124 injiziert werden; (b) ein Diagramm, das einen Aspekt des FFP darstellt, wenn der Strahl-, BM, Strahlungswinkel θ = 0 Grad ist; (c) ein Diagramm, das einen Aspekt des FFP darstellt, wenn θ = 20 Grad ist; (d) ein Diagramm, das einen Aspekt des FFP darstellt, wenn θ = 40 Grad ist; und (e) ein Diagramm, das einen Aspekt des FFP darstellt, wenn θ = 60 Grad ist.
    • [33] In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands und ein Gitter 212B zur Emission von Licht in einer Zelle angeordnet sind; (b) ein schematisches Draufsichtdiagramm einer Zelle; und (c) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer uniaxialen Abtastung.
    • [34] In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein Diagramm, das eine Beziehung zwischen Parametern r1, r2, die eine Position angeben, und dem Winkel θ darstellt; und (b) ein alternatives strukturelles Beispiel der Elektrodenanordnung zum Realisieren der uniaxialen Abtastung.
    • [35] In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer biaxialen Abtastung; und (b) ein schematisches Diagramm einer Abtastrichtung.
    • [36] In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer rotierenden Abtastung; und (b) ein schematisches Diagramm einer Abtastrichtung.
    • [37] In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, (a) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands als ein Gitterpunkt angeordnet ist, an dem ein Loch (eine Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht angeordnet ist; (b) ein Diagramm einer Draufsicht, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht angeordnet ist; (c) ein Draufsichtdiagramm, das einen Zustand darstellt, in dem obere Elektroden 252 angeordnet sind; und (d) ein Draufsichtdiagramm, das einen alternativen Zustand darstellt, in dem die oberen Elektroden 252 angeordnet sind.
    • [38] Ein Konzeptdiagramm eines Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird.
    • [39] Ein Betriebsablaufdiagramm eines Blitz-LiDAR-Systems gemäß einem Vergleichsbeispiel.
    • [40] Ein Betriebsablaufdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird.
    • [41] Ein schematisches Schnittdiagramm eines Beispiels eines Bestrahlungsmusters als Beispiel einer photonischen Kristalllaserlichtquelle bzw. einer Laserlichtquelle mit photonischem Kristall (PC) für die Bestrahlung der gesamten Oberfläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [42] Ein schematisches Diagramm einer Beleuchtungsfläche eines Beispiels des Bestrahlungsmusters als Beispiel der PC-Laserlichtquelle für die Bestrahlung der gesamten Oberfläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen.
    • [43A] Ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird.
    • [43B] Ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird.
    • [44A] Ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 4 der Ausführungsformen realisiert wird.
    • [44B] Ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß dem modifizierten Beispiel 4 der Ausführungsformen realisiert wird.
    • [45] Ein schematisches Blockkonfigurationsdiagramm einer 2D-PC-Zellenarray-Treibereinheit und einer Blitzlichtquellen-Treibereinheit (FL-Treibereinheit), anwendbar auf den Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem realisiert wird, gemäß den Ausführungsformen.
    • [46A] Ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 5 der Ausführungsformen realisiert wird.
    • [46B] Ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß dem modifizierten Beispiel 5 der Ausführungsformen realisiert wird.
    • [47] Ein schematisches Blockkonfigurationsdiagramm eines Flugzeit- (TOF) Abstandsmesssystems in dem Betriebsmodus, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 6 der Ausführungsformen realisiert wird.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Es werden nun Ausführungsforme unter Bezugnahme auf die Zeichnungen beschrieben. In der Beschreibung der nachfolgenden zu erklärenden Zeichnungen sind gleiche oder ähnliche Bezugszeichen an gleichen oder ähnlichen Teilen angebracht. Jedoch sollte beachtet werden, dass die Zeichnungen schematisch sind und die Beziehung zwischen der Dicke und der Flächengröße und das Verhältnis der Dicke jeder Schicht von einer realen Sache abweicht. Daher sollten die genaue Dicke und Größe unter Berücksichtigung der folgenden Erklärung bestimmt werden. Natürlich ist der Teil, von dem sich die Beziehung und das Verhältnis einer gegenseitigen Größe unterscheiden, auch in den jeweiligen Zeichnungen enthalten.
  • Darüber hinaus veranschaulichen die nachfolgend beschriebenen Ausführungsformen lediglich die Vorrichtung und das Verfahren zur Verwirklichung der technischen Idee; und die Ausführungsformen spezifizieren, wie im Folgenden, nicht das Material, die Form, die Struktur, die Anordnung usw. jedes Komponententeils. Die Ausführungsforme der vorliegenden Erfindung können geändert werden, ohne vom Geist oder Umfang der Ansprüche abzuweichen.
  • [Ausführungsformen]
  • Die Ausführungsformen offenbaren ein 3D-Erfassungssystem, das durch Kombinieren eines zweidimensionalen photonischen Kristalls (2D-PC) eines oberflächenemittierenden Laserelements (SEL) und eines zweidimensionalen (2D) Array-Elements davon mit einer Abbildungsvorrichtung gebildet wird.
  • Das 3D-Erfassungssystem gemäß den Ausführungsformen berechnet einen Abstand zu einem Messobjekt und eine Richtung davon durch Bestrahlen des Messobjekts mit strahlenförmigen Laserlicht und Empfangen eines Streulichts von dem Messobjekt. Da der photonische Kristall eine flexible Steuerbarkeit eines Laserstrahls besitzt, kann er eine Strahlrichtung (Emissionsrichtung des Laserlichts) flexibel steuern, selbst wenn keine mechanische Betriebseinheit (Festkörper) bereitgestellt wird.
  • Insbesondere wird es möglich, eine Lichtquelle für die 3D-Erfassung zu realisieren, die eine Vielzahl von Betriebsmodi aufweist, indem Eigenschaften des photonischen Kristalls verwendet werden, wie etwa eine flexible Emissionssteuerungsfunktion (Zeit, Intensität, Richtung), höhere Leistung, Strahl mit höherer Qualität, geringe Größe, und Robustheit (schwer zu brechen), und erschwinglicher Preis.
  • Darüber hinaus wird es möglich, ein Steuerverfahren für einen symmetrischen Emissionsstrahl zu realisieren, der eine Eigenschaft des PC-Lasers ist (ein Strahlanordnungs-Entwurfsverfahren zum Sättigen einer Region als ein Erfassungsobjekt, und eine dementsprechende Emissionsmustersteuerung (einschließlich auch des Falles eines Einzelstrahls, der in eine normale Richtung der Vorrichtung emittiert wird)). Das 3D-Erfassungssystem gemäß den Ausführungsformen kann durch Ändern der Betriebsmodi der Laserlichtquelle die folgenden drei Erfassungsmodi (1) bis (3) in einem 3D-Erfassungssystem konfigurieren.
    • (1) LiDAR: Ein Erfassungsmodus (Strahlabtasttyp), bei dem Laserlicht in eine bestimmte Richtung emittiert wird, reflektiertes Licht von einem Messobjekt detektiert wird, und dadurch ein Abstand zu dem Messobjekt für jeden Strahl berechnet wird.
    • (2) Blitz-LiDAR: Ein Erfassungsmodus (Blitztyp), bei dem ein bestimmter Bereich (Erfassungsraum) für eine gegebene Zeitdauer mit Licht bestrahlt wird, Streulicht von einem Messobjekt von einer Abbildungsvorrichtung empfangen wird, und dadurch ein Abstand zu dem Messobjekt im Bestrahlungsbereich basierend auf einer Rückkehrzeit für jedes Pixel der bildgebenden Vorrichtung berechnet wird.
    • (3) Strukturierte Lichtprojektion: Ein Erfassungsmodus, bei dem ein Messobjekt mit einem bestimmten Lichtmuster bestrahlt wird, ein Bild des Musters mit einem durch eine Abbildungsvorrichtung erhaltenen Bild abgeglichen wird, und dadurch ein Abstand zu dem Messobjekt berechnet wird.
  • Der LiDAR vom Strahlabtasttyp tastet den Strahl (Sendesignal) innerhalb eines Detektionsbereichs des Messobjekts ab, nimmt das von dem Messobjekt gestreute reflektierte Licht (reflektiertes Signal) auf, berechnet die Richtung, indem er erkennt, aus welcher Richtung das Licht reflektiert wird, und berechnet dadurch den Abstand anhand der Zeit, bis das Licht reflektiert und zurückgeworfen wird (Flugzeit (TOF)).
  • Verschiedene Technologien in Bezug auf ein Laserradar sind eine Brillanz für eine Signalverarbeitungslogik zum Berechnen des Abstands und der Richtung, ein Abtastverfahren des dementsprechenden Strahls, und ein Verfahren einer räumlichen Modulation zum Realisieren eines solchen Abtastens. Als Mittel zur räumlichen Modulation gibt es Verfahren, wie einen Polygonspiegel, einen Galvanospiegel und MEMS (Micro Electro Mechanical Systems), ein Verfahren zum Anordnen der einer Lichtsteuerung zu unterziehenden Laserlichtquelle, VCSEL (Vertical Cavity Surface Emitting Laser, usw.), oder ein optisches phasengesteuertes Array.
  • Das 3D-Erfassungssystem gemäß den Ausführungsformen ist in der Lage, selbst im Abtastmodus vom Strahlabtasttyp unterschiedlich zu herkömmlicher Rasterabtastung abzutasten (z. B. Drehabtastung). Darüber hinaus kann das angeordnete Lichtempfangselement kann auch reflektiertes Licht von einer Vielzahl von Laserstrahlen unterscheiden und auch als Blitz-LiDAR fungieren. Außerdem ist es im Erfassungsmodus des Blitztyps auch möglich, nur eine bestimmte Region zu erfassen.
  • Da die Emissionssteuerfunktion des 3D-Erfassungssystems gemäß den Ausführungsformen eine hohe Kompatibilität (Erfassungsregion, kooperativer Betrieb einer Vielzahl von Systemen, lernende Steuerung) mit einer Softwaresteuerung (Programmsteuerung) aufweist, kann sie leicht auch eine adaptive Erfassung unterstützen, die Lernfunktionen usw. beinhaltet. Gemäß solchen Eigenschaften ist es auch leicht möglich, die Anwendbarkeit der Codierung des emittierenden Strahls, einen kooperativen Betrieb einer Vielzahl von Systemen usw. zu unterstützen.
  • Das 3D-Erfassungssystem gemäß den Ausführungsformen ist ein Festkörpersystem, das klein und schwer zu brechen ist und eine größere Flexibilität einer Einstellpositionen ermöglicht. Darüber hinaus ist es rausch- und störungsresistent (unter Verwendung hervorragender Steuerbarkeit in Hardware und Software).
  • Da eine Lichtemissionseinheit des 3D-Erfassungssystems gemäß den Ausführungsformen keinen Strahlabtastmechanismus erfordert, ist ihre Größe auf dem Niveau eines Halbleitergehäuses, und es ist auch kein optisches System (kollimierendes optisches System) zum Konvergieren des emittierenden Strahls erforderlich. Daher ist es möglich, Licht in jedem Ansteuerzustand unabhängig in flexiblen Richtungen zu emittieren, und es kann auch ein kooperativer Betrieb einer Vielzahl von Vorrichtungen realisiert werden. Da darüber hinaus kein Strahlabtastmechanismus, wie etwa ein sich drehender Spiegel oder ein MEMS-Spiegel, der für die LiDAR-Anwendbarkeit erforderlich ist, erforderlich ist, kann ein System realisiert werden, das ultrakompakt und robust ist und frei realisiert werden kann.
  • [2D-PC SEL-Anwendung auf ein 3D-Erfassungssystem]
  • In der folgenden Beschreibung wird der in Patentliteratur 3 beschriebene 2D-PC SEL verwendet, jedoch kann stattdessen der in Patentliteratur 2 beschriebene Laser mit moduliertem photonischen Kristall (PC) verwendet werden. Das Strahlsteuerungsprinzip ist für beide gleich, und jeder davon kann in den vorliegenden Ausführungsformen verwendet werden. 1 stellt schematisch aus der Vogelperspektive eine Konfiguration eines 2D-PC-SEL 120 dar, der auf ein 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist. 2 stellt schematisch aus der Vogelperspektive eine Konfiguration dar, bei der eine transparente Elektrode 251T, durch die rückgekoppeltes Laserlicht C (FB) hindurchtritt, auf einer Rückseitenoberfläche des 2D-PC SEL 120 bereitgestellt wird.
  • Die 1 und 2 stellen schematisch einen Aspekt dar, dass Laserlicht A, B von dessen Oberfläche emittiert wird, und Rückkopplungslaserlicht C (FB) von dessen Rückseite emittiert wird.
  • Der PC-Laser, der auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, wird durch Laminieren einer transparenten Elektrode 251T, eines unteren Substrats 241, einer ersten Mantelschicht 231, einer zweidimensionalen photonischen Kristall- (2D-PC) Schicht 221, einer aktiven Schicht 222, einer zweiten Mantelschicht 232, eines oberen Substrats 242 und einer fensterförmigen Elektrode 252 gebildet, in dieser Reihenfolge. Bei dem PC-Laser in den Ausführungsformen geht der emittierte Laserstrahl (Laserlicht A, B) durch einen Hohlraumbereich (Fenster) hindurch, der in einem Mittelabschnitt der fensterförmigen Elektrode 252 in einer Richtung vorgesehen ist, die um einen Emissionswinkel θ geneigt ist bezüglich einer vertikalen Linie auf einer Oberfläche an einer Seite der fensterförmigen Elektrode 252 des oberen Substrats 242. Es sollte beachtet werden, dass die Reihenfolge der 2D-PC-Schicht 221 und der aktiven Schicht 222 entgegengesetzt zu der oben genannten Reihenfolge sein kann. Der Einfachheit halber werden in den Ausführungsformen die Wörter „obere“ und „untere“ verwendet, aber diese Wörter definieren nicht die tatsächliche Ausrichtung (nach oben oder unten) des PC-Lasers.
  • In den Ausführungsformen wird ein Halbleiter-Galliumarsenid (GaAs) vom p-Typ für das untere Substrat 241 verwendet, ein GaAs vom n-Typ wird für das obere Substrat 242 verwendet, ein Halbleiter-Aluminiumgalliumarsenid (AIGaAs) vom p-Typ wird für die erste Mantelschicht 231 verwendet, und ein AlGaAs vom n-Typ wird für die zweite Mantelschicht 232 verwendet. Eine Schicht mit einer Mehrfach-Quantenmulde (MQW), die aus einem Indiumgalliumarsenid/Galliumarsenid (InGaAs/GaAs) besteht, wird für die aktive Schicht 222 verwendet. Gold (Au) wird für das Material der fensterförmigen Elektrode 252 verwendet. SnO2, In2O3 oder dergleichen werden für das Material der transparenten Elektrode 251T verwendet. Anstelle der transparenten Elektrode 251T kann auch eine Schicht aus einem Bragg-Spiegel (DBR), die das Laserlicht passieren kann, als mehrschichtige Struktur einer Isolierschicht verwendet werden. Es sollte beachtet werden, dass die Materialien dieser einzelnen Schichten nicht auf die oben erwähnten Materialien beschränkt sind, und es möglich ist, die gleichen Materialien wie die Materialien zu verwenden, die für die jeweiligen Schichten des herkömmlichen oberflächenemittierenden photonischem Kristalllasers (PC-SEL) verwendet werden. Darüber hinaus können andere Schichten, wie beispielsweise eine Abstandsschicht, zwischen jeder der oben erwähnten Schichten eingefügt werden.
  • Die 2D-PC-Schicht 221 wird durch periodisches Anordnen von Löchern (Regionen mit unterschiedlichem Brechungsindex) 211 an den unten erwähnten Gitterpunkten in einem plattenförmigen Basismaterial (Platte) 214 gebildet. Als Material der Platte wird in den Ausführungsformen ein p-GaAs verwendet 214. Obwohl die Form des Lochs 211 in den Ausführungsformen ein gleichseitiges Dreieck ist, kann eine andere Form, wie etwa eine Kreisform, dafür verwendet werden. Es sollte beachtet werden, dass das Material der Platte 214 nicht auf das oben erwähnte Material beschränkt ist und jedes beliebige Material, das für das Basiselement in herkömmlichen PC-Lasern verwendet wird, ebenfalls dafür verwendet werden kann. Darüber hinaus kann jedes Element (Element mit unterschiedlichem Brechungsindex), von dem sich der Brechungsindex unterscheidet, für die Region mit unterschiedlichem Brechungsindex in der Platte 214 anstelle des Lochs 211 verwendet werden. Die Löcher haben den Vorteil, dass sie leicht verarbeitet werden können, während Elemente mit unterschiedlichem Brechungsindex in dem Fall bevorzugt werden, in dem das Basiselement aufgrund einer Verarbeitungswärme oder anderer Faktoren möglicherweise verformt werden kann.
  • In der 2D-PC-SEL 120 Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, 3(a) ist ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands als ein Gitterpunkt angeordnet ist, wobei ein Loch (Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht 221 angeordnet ist; 3(b) ist ein Diagramm einer Draufsicht, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht angeordnet ist; 3(c) ist eine Draufsicht, die einen Zustand darstellt, in dem das Gitter 212A zum Bilden des optischen Resonanzzustands und das Gitter 212B zur Emission von Licht angeordnet sind; und 3(d) ist eine Draufsicht, die einen Zustand darstellt, in dem ein Loch 211 angeordnet ist.
  • Der Gitterpunkt, an dem das Loch 211 in der 2D-PC-Schicht 221 angeordnet ist, wird nun unter Bezugnahme auf 3 beschrieben. Die 2D-PC-Schicht 221 der Ausführungsformen weist ein Gitter 212A auf, das eine PC-Struktur zum Bilden eines optischer Resonanzzustands bildet (3(a)), und ein Gitter 212B, das eine PC-Struktur zur Emission von Licht bildet (3(b)).
  • Das Gitter 212A zum Bilden des optischen Resonanzzustands besteht aus einem quadratischen Gitter mit einer Gitterkonstanten a. Im Folgenden wird in dem quadratischen Gitter eine der beiden Richtungen, in denen die Gitterpunkte 213A im Intervall a ausgerichtet sind, als x-Richtung und die andere als y-Richtung bezeichnet. Daher wird das x-y-Koordinatensystem des Gitterpunkts 213A unter Verwendung von ganzen Zahlen m und n als (ma, na) ausgedrückt.
  • Im Gegensatz dazu ist in dem Gitter 212B zur Emission von Licht ein orthorhombisches Gitter mit einem Basistranslationsvektor von c1↑=(r1, 1)a and c2↑=(r2, 1)a konfiguriert. Die Gitterkonstanten c1 und c2 dieses orthorhombischen Gitters sind die Größen des Basistranslationsvektors, c1↑ und c2↑ sind (r1 0,5+1)a bzw. (r2 0,5+1)a; und der Winkel α zwischen c1↑ und c2↑ erfüllt eine Beziehung cosα=(r1r2+1)x(r1 2+1)-0,5x(r2 2+1)-0,5. Die Gitterpunkte 213B sind in der y-Richtung im Intervall a ausgerichtet, sowohl für das Gitter 212A zum Bilden des optischen Resonanzzustands als auch das Gitter 212B zur Emission von Licht.
  • In den Ausführungsformen beträgt die Emissionswellenlänge λ 980 nm. Darüber hinaus wird der effektive Brechungsindex neff der 2D-PC-Schicht 221 durch den Brechungsindex (3,55) des p-Typ-GaAs bestimmt, das ein Material der Platte 214 ist, und eine Rate des Lochs 211 in der Platte 214 (Brechungsindex 1). In den Ausführungsformen wird der effektive Brechungsindex neff der 2D-PC-Schicht 221 durch Anpassen der Fläche des Lochs 211 auf 3,5 eingestellt. Dementsprechend wird die Gitterkonstante a in den Ausführungsformen aus der unten beschriebenen Gleichung (3) auf 2 -0,5×980 nm/3,4 ≈ 200 nm eingestellt.
  • In der 2D-PC-Schicht 221 der Ausführungsformen wird die PC-Struktur durch Anordnen des Lochs 211 am Gitterpunkt des Gitters 212C (3(c)) durch Überlagern des Gitters 212A zum Bilden des optischen Resonanzzustands und des Gitters 212B zur Emission von Licht gebildet (3(d)).
  • In der 2D-PC-Schicht 221 der Ausführungsformen wird der Laserstrahl in die Richtung emittiert, mit der r1 und r2, die Parameter sind, die die Position des Gitterpunktes 213B anzeigen, der die unten beschriebene Gleichung (1) und die Gleichung (2) erfüllt.
  • In der 2D-PC-SEL-Zelle 120, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, 4(a) ist ein schematisches Diagramm von emittiertem Licht (Strahl) A und emittiertem Licht (Strahl) B, und 4(b)) ist ein schematisches Diagramm zum Erklären eines Aspekts, dass die emittierten Lichter A, B, die in derselben Ebene vorhanden sind, gedreht werden.
  • Durch Anwenden einer periodischen Treibermodulation auf die PC-Struktur und Bereitstellen eines Beugungseffekts an einer Oberseite zusätzlich zum Resonanzeffekt kann die Strahlemissionsrichtungssteuerung (Strahlabtastung), die den Bereich der biaxialen Richtung abdeckt, ausgeführt werden.
  • Wie in 4(a) dargestellt, werden zwei von dem Ursprungspunkt O emittierte Basisstrahlen A und B (auch als Zweifachstrahl („Twin-Beam“) bezeichnet) gleichzeitig emittiert. Zwei Strahlen A und B sind in derselben Ebene PS vorhanden. Die Richtung der Strahlen A und B kann innerhalb eines Neigungswinkels -θ bzw. +θ von der 90°-Richtung beliebig geändert werden. Die Emissionsrichtungen der Strahlen A und B sind jedoch bezüglich des Neigungswinkels symmetrisch, und die beiden Strahlen A und B werden gleichzeitig mit derselben Leistung emittiert. Es ist auch möglich, die Leistung eines Strahls (Strahl A oder Strahl B) durch Einführung einer Asymmetrie in Bezug auf den Neigungswinkel relativ zu reduzieren, aber die Leistung kann nicht vollständig null werden.
  • Wie in 4(b) dargestellt, kann die Ebene PS willkürlich gedreht werden, zentriert an dem Ursprungspunkt O (z. B. in Richtung PS0 → PS1 → PS2). Dementsprechend kann eine Strahlabtastung in einem auf den Ursprungspunkt O zentrierten Kegel realisiert werden, indem die Abtastung in der Ebene PS mit der Drehung der Ebene PS kombiniert wird. Darüber hinaus kann eine beliebige Trajektorie durch Ausführen einer gleichzeitigen Abtastung mit den beiden Strahlen A und B gezeichnet werden, wobei der Ursprungspunkt O in dem Kegel symmetrisch ist. Darüber hinaus können eine Vielzahl von Zweifachstrahlen (A, B) in einer Vielzahl von Elementarrays unabhängig gesteuert werden (z. B. werden die Strahlen A und B in der Ebene PS1 und der Ebene PS2, die in 4(b) dargestellt sind, gleichzeitig emittiert, und der Neigungswinkel θ und dessen Drehung können jeweils unabhängig gesteuert werden).
  • Als spezifisches Beispiel für den Zweifachstrahl A, B beträgt der Aufweitungswinkel eines Strahls (Strahl A oder B) 0,34°, beträgt die Leistung des Zweifachstrahls A, B 1 bis 10 W, beträgt die Modulationsfrequenz mehrere Hundert MHz und |θ| < 50°. Streng genommen werden nicht alle Strahlen vom Ursprungspunkt O emittiert, aber da der Übergang höchstens ungefähr µm beträgt, können die Strahlen in den LiDAR-Anwendungen zur Erfassung von mehreren Metern bis mehreren hundert Metern als vom gleichen Punkt ausgesendet angesehen werden.
  • In der 2D-PC-SEL-Zelle 120, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, 5(a) stellt einen Zustand dar, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands, der aus einem quadratischen Gitter besteht, als ein Gitterpunkt angeordnet ist, an dem ein Loch (Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht 221 angeordnet ist; 5(b) ist ein Draufsichtdiagramm, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht, das aus einem orthorhombischen Gitter besteht, angeordnet ist; und 5(c) stellt einen Zustand dar, in dem das Gitter 212A zum Bilden des optischen Resonanzzustands und das Gitter 212B zur Emission von Licht angeordnet sind.
  • Der hier verwendete photonische Kristall ist ein in 5(c) dargestellter photonischer Kristall für die Strahlabtastung, der durch Überlagern des Gitters zum Bilden eines optischen Resonanzzustands, das aus einem in 5(a) dargestellten quadratischen Gitter besteht, und des Gitters zur Emission von Licht, das aus einem in 5(b) dargestellten orthorhombischen Gitter besteht, erhalten wird.
  • In der 2D-PC-Schicht 221 der Ausführungsformen wird der Laserstrahl in die Richtung emittiert, mit der r1 und r2, die Parameter sind, die die Position des Gitterpunktes angeben, der die Gleichung (1) und die Gleichung (2) wie folgt erfüllt: r 1 = n eff + 2 sin θ sin ϕ n eff 2 sin θ cos ϕ
    Figure DE112020003295T5_0001
    r 2 = n eff 2 sin θ sin ϕ n eff 2 sin θ cos ϕ
    Figure DE112020003295T5_0002
    wobei θ der Neigungswinkel bezüglich der Normalen der PC-Schicht ist, φ der Azimutwinkel bezüglich der x-Richtung ist, und neff der effektive Brechungsindex ist.
  • Darüber hinaus wird die Gitterkonstante a in der 2D-PC-Schicht 221 der Ausführungsformen durch die folgende Gleichung (3) erhalten: a = 1 2 λ n eff
    Figure DE112020003295T5_0003
    wobei λ die Emissionswellenlänge ist.
  • Die 2D-PC-Schicht 221 der auf diese Weise gestalteten Ausführungsformen ermöglicht eine Emission der Strahlen A und B in die biaxialen Richtungen.
  • [Rückkopplungssteuerung des 2D-PC SEL]
  • 6(a) stellt schematisch ein Beispiel von Ausgangskennlinien dar, die eine Beziehung zwischen der Laserlichtintensität L des emittierten Lichts A, B und dem Injektionsstrom I in der 2D-PC-SEL-Zelle 120 anzeigen, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist. 6(b) stellt schematisch ein strukturelles Beispiel der 2D-PC-SEL-Zelle 120 mit einer transparenten Elektrode (oder DBR-Schicht) 251T dar, durch die das rückgekoppelte Laserlicht C (FB) hindurchgeht, und einer Fotodiode (PD) 118PD, die dazu ausgebildet ist, Laserlicht C (FB) auf der Rückseite davon zu detektieren.
  • 7 stellt ein schematisches Blockkonfigurationsdiagramm eines Rückkopplungssteuermechanismus dar, der durch Kombinieren eines 2D-PC-SEL-Zellenarrays 120AR und des 2D-PD-Zellenarrays 118PDAR in dem 3D-Erfassungssystem gemäß den Ausführungsformen gebildet wird.
  • Der Rückkopplungssteuermechanismus weist auf: das 2D-PC-SEL-Zellenarray 120AR; das 2D-PD-Zellenarray 118PDAR, das dazu ausgebildet ist, das rückgekoppelte Laserlichts C (FB) von jeder Zelle, die von einer Rückseitenoberfläche des 2D-PC-SEL-Zellenarrays 120AR emittiert wird, zu erfassen; eine Rückkopplungssteuereinheit 130, die dazu ausgebildet ist, eine 2D-PD-Array-Treibereinheit 140AR basierend auf dem Erfassungsergebnisses durch das 2D-PD-Zellenarray 118PDAR zu steuern; und die 2D-PD-Array-Treibereinheit 140AR, die dazu ausgebildet ist, das 2D-PC-SEL-Zellenarray 120AR gemäß der Steuerung durch die Rückkopplungssteuereinheit 130 zu treiben.
  • Selbst wenn beispielsweise der gleiche Strom I in jede Zelle des 2D-PC-SEL-Zellenarrays 120AR injiziert wird, kann die Lichtintensität L in Abhängigkeit von deren Richtung (Position) unterschiedlich sein. Die Lichtintensität L kann jedoch durch Konfigurieren des Rückkopplungssteuermechanismus, wie in 7 dargestellt, vereinheitlicht werden, wobei eine Änderung der Lichtintensität L in dem 2D-PC-SEL-Zellenarray 120AR basierend auf dem Rückkopplungslaserlichts C (FB) detektiert wird, und eine Treibersteuerung so ausgeführt wird, dass der Injektionsstrom I für jede Zelle des 2D-PC-SEL-Zellenarrays 120AR geändert werden kann.
  • 8 stellt schematisch ein alternatives strukturelles Beispiel des Rückkopplungssteuermechanismus dar, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen bereitgestellt wird. Der in 8 beispielhaft dargestellte Rückkopplungssteuermechanismus wird durch Laminieren des 2D-PC-SEL-Zellenarrays 120AR und des zweidimensionalen Fotodioden- (2D-PD) Zellenarrays 118PDAR gebildet, um eine transparente Elektrode (oder DBR-Schicht + transparente Elektrode) 251T dazwischen einzufügen, um kombiniert zu werden.
  • 9 stellt schematisch ein Beispiel einer ebenen Konfiguration des 2D-PC-SEL-Zellenarrays 120AR dar, und 10 stellt schematisch ein Beispiel einer ebenen Konfiguration des 2D-PD-Zellenarrays 118PDAR dar, die jeweils auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar sind.
  • Wie in 9 dargestellt, besteht das 2D-PC-SEL-Zellenarray 120AR aus 2D-PC-SEL-Zellen mit n Spalten x m Reihen. Zum Beispiel sind n Stück 2D-PC-SEL-Zellen (C11 bis C1n) in der ersten Reihe angeordnet, sind n Stück 2D-PC-SEL-Zellen (C21 bis C2n) in der zweiten Reihe angeordnet, ... und sind n Stück 2D -PC-SEL-Zellen (Cm1 bis Cmn) in der m-ten Reihe angeordnet.
  • Wie in 10 dargestellt, besteht das 2D-PD-Zellenarray 118PDAR aus 2D-PD-Zellen mit n Spalten x m Zeilen. Zum Beispiel sind n Stück 2D-PD-Zellen (PD11 bis PD1n) in der ersten Reihe angeordnet, sind n Stück 2D-PD-Zellen (PD21 bis PD2n) in der zweiten Reihe angeordnet, ... und sind n Stück 2D-PD Zellen (PDm1 bis PDmn) in der m-ten Reihe angeordnet.
  • [3D-Erfassungssystem gemäß Ausführungsformen]
  • (Schematische Struktur des 3D-Erfassungssystems)
  • 11 stellt schematisch ein Beispiel einer schematischen Struktur des 3D-Erfassungssystems gemäß den Ausführungsformen dar.
  • Wie in 11 dargestellt, weist das 3D-Erfassungssystem gemäß den Ausführungsformen auf: ein PC-Laserarray 10, in dem PC-Laserelemente in einer Ebene angeordnet sind; eine Steuereinheit 14, die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Treibereinheit 12, die dazu ausgebildet ist, eine Treibersteuerung des PC-Laserarrays 10 gemäß einem von der Steuereinheit 14 gesteuerten Betriebsmodus auszuführen; eine Lichtempfangseinheit (eine Abbildungslinse 16 und ein TOF-Bildsensor (oder ein gruppiertes Lichtempfangselement mit einer Funktion der TOF-Messung, im Folgenden einfach als ein Bildsensor oder ein gruppiertes Lichtempfangselement bezeichnet) 18), die dazu ausgebildet ist, reflektiertes Streulicht zu empfangen, das von dem PC-Laserarray 10 emittiert und von einem Messobjekt reflektiert wird; eine Signalverarbeitungseinheit 20, die dazu ausgebildet ist, eine Signalverarbeitung des reflektierten Lichts auszuführen, das von der Lichtempfangseinheit empfangen wird, gemäß dem von der Steuereinheit 14 gesteuerten Betriebsmodus; und eine Abstandsberechnungseinheit 22, die dazu ausgebildet ist, eine Berechnungsverarbeitung eines Abstands zu dem Messobjekt in Bezug auf ein von der Signalverarbeitungseinheit 20 verarbeitetes Signal gemäß dem von der Steuereinheit 14 gesteuerten Betriebsmodus auszuführen und ein Berechnungsergebnis als Abstandsdaten DM auszugeben.
  • Das PC-Laser-Array 10 ist eine Vorrichtung, bei der die PC-Laserelemente, wie in den 1 bis 5 dargestellt, in einer Ebene angeordnet sind.
  • Die Steuereinheit 14 führt die Betriebssteuerung jeder Einheit basierend auf drei Betriebsmodi (d. h. einem LiDAR-Betriebsmodus, einem Blitz-LiDAR-Betriebsmodus und einem Lichtschnittverfahren-Betriebsmodus) aus.
  • Die Treibereinheit 12 führt die Treibersteuerung des vom PC-Laserarray 10 emittierten Strahls gemäß den Betriebsmodi (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), die von der Steuereinheit 14 gesteuert werden, aus.
  • Außerdem ist eine Rückkopplungssteuerung, wie in den 6 bis 10 dargestellt, in der Treibersteuerung enthalten, die von der Treibereinheit 12 ausgeführt wird. Genauer gesagt sind ferner die transparente Elektrode oder DBR-Schicht (251T), die durch das rückgekoppelte Laserlicht C (FB) hindurchgeht, und die Fotodiode (PD) (118PD), die dazu ausgebildet sind, das rückgekoppelte Laserlichts C (FB) zu erfassen, darin enthalten; die Treibereinheit 12 erfasst eine Änderung der Lichtintensität L in der PC-Laserarray 10 basierend auf dem rückgekoppelten Laserlichts C (FB), und die Treibersteuerung wird so ausgeführt, dass der Injektionsstrom I für jede Zelle des photonischen Kristall- (PC) Laserarrays 10 geändert wird, und dadurch kann die Lichtintensität L vereinheitlicht werden.
  • Die Lichtempfangseinheit mit der Abbildungslinse 16 und dem Bildsensor (oder das in einem Array angeordnete Lichtempfangselement) 18 empfängt das gestreute reflektierte Licht, das von der PC-Laserarray 10 emittiert und von dem Objekt durch die Abbildungslinse 16 hindurch durch den Bildsensor (oder dem in einem Array angeordneten Lichtempfangselement) 18 reflektiert wird.
  • Die Signalverarbeitungseinheit 20 führt eine Signalverarbeitung des von der Lichtempfangseinheit empfangenen reflektierten Laserstrahls gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der von der Steuereinheit 14 gesteuert wird, aus, um an die Abstandsberechnungseinheit 22 übertragen werden. Das Messprinzip des LiDAR-Betriebsmodus und das Messprinzip des Blitz-LiDAR-Betriebsmodus sind darin gleich, dass die Reflexion von der Vielzahl von Strahlen, die von dem PC-Laser-Array 10 emittiert werden, durch den Bildsensor aufgenommen wird, und der Abstand dazu durch die Zeitmessfunktion berechnet wird. Der Unterschied zwischen den beiden ist die Auflösung (Positionsgenauigkeit) des zu messenden Raums. Die Auflösung im LiDAR-Modus hängt von der Genauigkeit der Emissionsrichtung des abgestrahlten Strahls ab, und die Auflösung im Blitz-LiDAR-Betriebsmodus hängt von der Anzahl der Pixel in Bezug auf einen bestimmten Blickwinkel ab.
  • Die Abstandsberechnungseinheit 22 berechnet den Abstand zu dem Messobjekt basierend auf der Lichtempfangsposition in der Abbildungsfläche des Bildsensors 18 und der Zeit von der Lichtemission bis zum Lichtempfang (Ankunftszeit) gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der durch die Steuereinheit 14 gesteuert wird, und gibt das Berechnungsergebnis als Abstandsdaten DM aus.
  • (Abstandsberechnungsverarbeitung)
  • 12 stellt ein Beispiel einer Abstandsberechnungsprozedur der drei Betriebsmodi in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Die Abstandsberechnungsverarbeitung wird in Schritt S0 gestartet.
  • In Schritt S1 führt die Treibereinheit 12 gemäß dem von der Steuereinheit 14 gesteuerten Betriebsmodus die Treibersteuerung des PC-Laserarrays 10 aus, und der Laserstrahl wird von dem PC-Laserarray 10 emittiert. Genauer gesagt wird jedes von dem Emittieren des Zweifachstrahls / Emittieren in regionaler Form / Emittieren eines optischen Musters gemäß drei Betriebsmodi (LiDAR-Betriebsmodus (M1) / Blitz-LiDAR-Betriebsmodus (M2) / Lichtschnittverfahren-Betriebsmodus (M3)) ausgewählt, und der Strahl wird von der PC-Laserarray 10 emittiert. Wenn nämlich der Betriebsmodus der LiDAR-Betriebsmodus ist, wird ein Laserelement getrieben, und der Zweifachstrahl (A, B) wird in eine bestimmte Richtung emittiert; wenn der Betriebsmodus der Blitz-LiDAR-Betriebsmodus ist, wird eine bestimmte Region (Erfassungsraum) für eine gegebene Zeitdauer mit dem Licht bestrahlt; und wenn der Betriebsmodus der Lichtschnittverfahren-Betriebsmodus ist, wird streifenförmiges Licht auf das Messobjekt projiziert.
  • In Schritt S2 empfängt die Lichtempfangseinheit (16, 18) das gestreute reflektierte Licht, das von dem PC-Laserarray 10 emittiert und dann von dem Messobjekt durch den Bildsensor (oder dem in einem Array angeordnete Lichtempfangselement) 18 durch die Abbildungslinse 16 hindurch reflektiert wird.
  • In Schritt S3 ordnet die Steuereinheit 14 die Verarbeitung gemäß dem Betriebsmodus einem von Schritt S4, Schritt S5 und Schritt S6 zu. Genauer gesagt, wenn der Betriebsmodus ein LiDAR-Betriebsmodus (M1) ist (Emission eines Zweistrahls), geht die Verarbeitung zu Schritt S4 über; wenn der Betriebsmodus der Blitz-LiDAR-Betriebsmodus (M2) ist (Emission in regionaler Form), geht die Verarbeitung zu Schritt S5 über; und wenn der Betriebsmodus der Lichtschnittverfahren-Betriebsmodus (M3) ist (Emission eines optischen Musters), wechselt sie zu Schritt S6.
  • Wenn der Betriebsmodus der LiDAR-Betriebsmodus (M1) ist (Emission eines Zweifachstrahls), trennt die Abstandsberechnungseinheit 22 in Schritt S4 das reflektierte Licht, das vom Messobjekt emittiert und reflektiert wird, von jedem Strahl, und berechnet den Abstand zu dem Messobjekt basierend auf der Ankunftszeit (TOF) des reflektierten Lichts. Als Ergebnis werden Informationen über den Abstand und die Richtung des Messobjekts, das in der Richtung vorhanden ist, in der der Strahl emittiert wird, erhalten, und die Abstandsberechnungseinheit 22 gibt die erhaltenen Informationen in Schritt S5 als die Abstandsdaten DM1 (13) aus. Hier wird bei der Trennungsverarbeitung des reflektierten Lichts das reflektierte Licht getrennt, indem detektiert wird, welches Pixel (Pixel) des Bildsensors 18 das Licht empfangen hat. Da die Emissionsrichtung des Zweifachstrahls von der PC-Laserarray 10 offensichtlich ist, kann aufgrund dessen auch die Einfallsrichtung des reflektierten Lichts identifiziert werden. Wenn ein bestimmtes reflektiertes Licht vorhanden ist, kann bestimmt werden, ob das Pixel in dem Bildsensor 18 entsprechend der Ankunftsrichtung des reflektierten Lichts das Licht empfängt, und dadurch kann auch die Ankunftszeit gemessen werden. Ist der Bildsensor fähig zu trennen, können auch eine Vielzahl von Zweifachstrahlen gleichzeitig emittiert werden.
  • Wenn der Betriebsmodus Blitz-LiDAR (M2) ist (Emission in regionaler Form), berechnet die Abstandsberechnungseinheit 22 in Schritt S5 den Abstand für jedes Pixel basierend auf der Pixelposition und der Ankunftszeit des reflektierten Lichts für jedes Pixel. Als Ergebnis der Abstandsinformationen kann für jedes Pixel der Abstand zu dem im Emissionsbereich vorhandenen Messobjekt erhalten werden, und die Abstandsberechnungseinheit 22 gibt die erhaltenen Informationen in Schritt S5 als Abstandsdaten DM2 (13) aus.
  • Wenn der Betriebsmodus das Lichtschnittverfahren (M3) ist (Emission eines optischen Musters), führt die Abstandsberechnungseinheit 22 in Schritt S6 eine Triangulationsmessung mit dem streifenförmigen Abbildungsmuster aus, das auf das Messobjekt projiziert wird, und berechnet dadurch den Abstand zu dem Messobjekt. Als Ergebnis können die dreidimensionalen (3D) Daten des Messobjekts durch Bewegen der Abstandsinformationen und der Linie entlang des projizierten Streifenmusterlichts erhalten werden, und die Abstandsberechnungseinheit 22 gibt die erhaltenen Informationen in Schritt S5 als die Abstandsdaten DM3 (13) aus.
  • (Betriebsmodus in dem 3D-Erfassungssystem)
  • 13 stellt ein Beispiel eines Betriebsablaufdiagramms von drei Betriebsmodi in einem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • In Schritt S11 führt die Steuereinheit 14 eine Betriebssteuerung der Treibereinheit 12 und der Abstandsberechnungseinheit 22 basierend auf drei Betriebsmodi aus (d. h., dem LiDAR-Betriebsmodus, dem Blitz-LiDAR-Betriebsmodus, dem Lichtschnittverfahren-Betriebsmodus).
  • In Schritt S12 führt die Treibereinheit 12 die Treibersteuerung des PC-Laserarrays 10 gemäß den folgenden drei Betriebsmodi aus.
    • (1) LiDAR-Betriebsmodus (M1): Ein Laserelement wird getrieben, um einen Zweifachstrahl (A, B) in eine bestimmte Richtung zu emittieren.
    • (2) Blitz-LiDAR-Betriebsmodus (M2): Eine Region wird für eine vorgegebene Zeitdauer mit Licht bestrahlt (eine Vielzahl von Elementen, die zwei Strahlen emittieren, werden gleichzeitig getrieben, oder ein einzelnes oder eine Vielzahl von Elementen mit gesteuertem Streuwinkel emittieren gleichzeitig).
    • (3) Lichtschnittverfahren-Betriebsmodus (M3): Eine Vielzahl von Elementen wird gleichzeitig getrieben, um das Streifenmusterlicht auf das Messobjekt zu projizieren.
  • Dann, wenn die Lichtempfangseinheit (16, 18) das gestreute reflektierte Licht empfängt, das von der PC-Laserarray 10 emittiert und von dem Messobjekt reflektiert wird, führen die Signalverarbeitungseinheit 20 und die Abstandsberechnungseinheit 22 eine Verarbeitung gemäß dem Betriebsmodus aus.
  • Genauer gesagt wenn der Betriebsmodus in Schritt S13 M1 oder M2 ist, misst die Abstandsberechnungseinheit 22 die Ankunftszeit des reflektierten Lichts für jedes Pixel in Schritt S14, und wenn der Betriebsmodus in Schritt S16 M1 ist, führt die Abstandsberechnungseinheit 22 in Schritt S17 eine Korrespondenzverarbeitung für den emittierten Strahl aus, berechnet den Abstand zu dem Messobjekt basierend auf der Ankunftszeit des emittierten Strahls, und gibt die berechnete Entfernung als die Abstandsdaten DM1 aus. Im Gegensatz dazu gibt die Abstandsberechnungseinheit 22, wenn der Betriebsmodus in Schritt S16 M2 ist, die Informationen, die basierend auf der Ankunftszeit des reflektierten Lichts erhalten werden, das in Schritt S14 gemessen wird, als Abstandsdaten DM2 aus.
  • Andererseits, wenn der Betriebsmodus in Schritt S13 M3 ist, erhält die Abstandsberechnungseinheit 22 in Schritt S15 ein Bild aus reflektiertem Licht (Abbildungsmuster) (Pixel), und die Abstandsberechnungseinheit 22 führt in Schritt S18 eine Triangulationsmessung mit dem Abbildungsmuster aus, berechnet den Abstand zu dem Messobjekt, und gibt den berechneten Abstand als Abstandsdaten DM3 aus.
  • (Funktionsprinzip des LiDAR-Betriebsmodus (M1))
  • 14(a) stellt schematisch ein Betriebsprinzip zum Detektieren von reflektiertem Licht RA und reflektiertem Licht RB bezüglich des emittierten Lichts A und des emittierten Lichts B durch den Bildsensor 18 dar, und 14 (b) stellt ein Konzeptdiagramm des Bildsensor 18 zum Detektieren des reflektierten Lichts RA und des reflektierten Lichts RB im LiDAR-Betriebsmodus dar, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird.
  • Von einem Element des PC-Laserarrays 10 werden zwei Strahlen (Zweifachstrahl) A und B gemäß einer Winkelspezifikation basierend auf deren Design emittiert. In einem Beispiel von 14(a) wird das emittierte Licht A von dem Messobjekt 24T1 reflektiert, und von dem Bildsensor 18 durch die Abbildungslinse 16 hindurch als das reflektierte Licht RA empfangen, und das emittierte Licht B wird von dem Messobjekt 24T2 reflektiert und wird von dem Bildsensor 18 durch die Abbildungslinse 16 hindurch als reflektiertes Licht RB empfangen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Wenn das reflektierte Licht RA und das reflektierte Licht RB detektiert werden, bestimmt die Abstandsberechnungseinheit 22 basierend auf einer Lichtempfangsposition (x, y) auf der Abbildungsfläche des Bildsensors 18, welcher Strahl des emittierten Lichts A oder B das reflektierte Licht ist, und misst die Zeit von der Lichtemission bis zum Lichtempfang. Zum Beispiel kann identifiziert werden, dass die Lichtempfangsposition 2411 in dem in 14(b) dargestellten Bildsensor 18 einer Lichtempfangsposition des reflektierten Lichts RA von dem Messobjekt 24T1 entspricht und die Lichtempfangsposition 24I2 einer Lichtempfangsposition des reflektierten Lichts RB von dem Messobjekt 24T2 entspricht. Dementsprechend ist es möglich, basierend auf der Lichtempfangsposition (x, y) in der Abbildungsfläche des Bildsensors 18 zu identifizieren, welche Richtung des emittierten Lichts A oder B das reflektierte Licht RA oder RB ist. Wenn der Bildsensor 18 eine ausreichende Auflösung hat, um die Winkelauflösung des Zweifachstrahls A, B abzudecken, ist es möglich, die Abbildungsposition (x, y) für jeden Strahl zu trennen.
  • Die Abstandsberechnungseinheit 22 berechnet den Abstand zu jedem der Messobjekte 24T1 und 24T2, die in der Emissionsrichtung des Zweifachstrahls A, B vorhanden sind, basierend auf den obigen Informationen. Dabei ist der Abstand zu jedem der Messobjekte 24T1 und 24T2 = die Lichtgeschwindigkeit x die Ankunftszeit / 2.
  • Im LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen wird die obige Abstandsberechnung wiederholt in Bezug auf unterschiedliche Emissionsrichtungen ausgeführt.
  • (Funktionsprinzip des Blitz-LiDAR-Betriebsmodus (M2))
  • 15(a) stellt schematisch ein Funktionsprinzip zum Detektieren von reflektiertem Licht RFL in Bezug auf durch den Bildsensor emittiertes Licht FL dar, und 15(b) stellt ein Konzeptdiagramm des Bildsensors dar, der dazu ausgebildet ist, das reflektierte Licht RFL zu detektieren, in einem Blitz-LiDAR-Betriebsmodus, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird.
  • Von einer Vielzahl von Elementen des PC-Laserarrays 10 wird gleichzeitig Laserlicht FL in eine spezifische Region emittiert. In einem in 15(a) dargestellten Beispiel wird das emittierte Licht FL von den Messobjekten 24T1 und 24T2 reflektiert und von dem Bildsensor 18 durch die Abbildungslinse 16 hindurch als reflektiertes Licht RFL empfangen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Die Abstandsberechnungseinheit 22 misst die Ankunftszeit (Zeit von der Lichtemission bis zum Lichtempfang) des reflektierten Lichts für jedes Pixel, wenn das reflektierte Licht RFL detektiert wird. Beispielsweise kann erkannt werden, dass die Lichtempfangsposition 2411 in dem Beleuchtungsbereich ILL des in 15(b) dargestellten Bildsensors 18 einer Lichtempfangsposition des von dem Messobjekt 24T1 reflektierten Lichts RFL entspricht, und die Lichtempfangsposition 24I2 einer Lichtempfangsposition des von dem Messobjekt 24T2 reflektierten Lichts RFL entspricht.
  • Die Abstandsberechnungseinheit 22 berechnet den Abstand zu jedem der Messobjekte 24T1 und 24T2, die in dem Abbildungsbereich für jedes Pixel vorhanden sind, basierend auf den obigen Informationen. In dem Blitz-LiDAR-Betriebsmodus können die Abstandsinformationen entsprechend der Anzahl der Pixel im Beleuchtungsbereich ILL auf einmal erfasst werden.
  • (Funktionsprinzip des Lichtschnittverfahren- (strukturierte Lichtprojektion) Betriebsmodus (M3))
  • 16(a) stellt schematisch ein Betriebsprinzip zum Detektieren von reflektiertem Licht RST in Bezug auf sich drehendes streifenförmiges emittiertes Licht ST durch den Bildsensor dar, und 16(b) stellt ein konzeptionelles Diagramm des Bildsensors dar, der dazu ausgebildet ist, das reflektierte Licht RST zu detektieren, in dem Lichtschnittverfahren-Betriebsmodus (auch als der Projektionsbetriebsmodus für strukturiertes Licht bezeichnet) in dem 3D-Erfassungssystem gemäß den Ausführungsformen. Darüber hinaus stellt 17 ein detailliertes Beispiel eines Vorgangs zum Detektieren des reflektierten Lichts RST entsprechend dem drehenden streifenförmigen emittierten Licht ST durch den Bildsensor in dem Lichtschnittverfahren-Betriebsmodus dar, der in dem 3D-Erfassungssystem gemäß den Ausführungsformen ausgeführt wird.
  • Ein Beispiel für einen 3D-Messvorgang mittels der strukturierten Lichtprojektion wird nun als eine Lichtschnittverfahrensvorgang unter Bezugnahme auf die 16 und 17 beschrieben. Nicht nur diese Verfahren, sondern auch einige Messungen mit Musterbeleuchtung können unterstützt werden. Das Lichtschnittverfahren kann auch auf ein Verfahren zum Vergleichen des Lichtempfangsmusters des streifenförmigen Lichts oder des zufälligen Punktmusterlichts in Bezug auf eine Referenzform mit dem tatsächlichen Lichtempfangsmuster und zum Berechnen der Form aus der Abweichung davon angewendet werden, usw. (z. B. Gesichtserkennungsfunktion zur Verwendung für Mobiltelefone).
  • Im Lichtschnittverfahren-Betriebsmodus wird das Messobjekt 24T mit streifenförmigem Laserlicht ST bestrahlt, das von dem PC-Laserarray 10 erzeugt wird. In einem in 16(a) dargestellten Beispiel wird das emittierte Licht ST von dem Messobjekt 24T reflektiert, und wird von dem Bildsensor 18 durch die Abbildungslinse 16 hindurch als reflektiertes Licht RST (241) empfangen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Die Abstandsberechnungseinheit 22 erhält, wenn das reflektierte Licht RST detektiert wird, ein Bild aus reflektiertem Licht (Abbildungsmuster) (Pixel), führt eine Triangulationsmessung mit dem Abbildungsmuster durch, berechnet den Abstand zu dem Messobjekt 24T, und erhält 3D-Abstandsdaten für eine Linie des streifenförmigen Lichts.
  • Außerdem können, wie in 16(a) dargestellt, 3D-Daten des gesamten Messobjekts 24T durch Drehabtastung des streifenförmigen Lichts ST (ROT) erhalten werden.
  • Eine Positionsbeziehung zwischen dem PC-Laserarray 10, dem Messobjekt 24T, der Abbildungslinse 16 und dem Bildsensor 18, die in 17 dargestellt sind, wird durch die folgende Gleichung erhalten:
  • X = Dcos θ a sin θ b /sin ( θ a + θ b )
    Figure DE112020003295T5_0004
    Y = Dsin θ a sin θ b /sin ( θ a + θ b )
    Figure DE112020003295T5_0005
    Z = Dtan φ a /sin θ a
    Figure DE112020003295T5_0006
    wobei θa = tan-1(f/ Xa), φa = tan-1(Yacosθa / Xa) ist, D die Basislinienlänge ist, f die Brennweite der Abbildungslinse 16 ist, und Xa und Ya Positionen des Punktlichtbildes auf dem Bildsensor 18 sind.
  • (Betriebsablauf des LiDAR-Betriebsmodus (M1))
  • 18 stellt ein Flussdiagramm des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Zuerst wird in Schritt S101 der Zweifachstrahl A, B von einem Element (einem spezifischen Element) in dem PC-Laserarray 10 in eine bestimmte Richtung emittiert.
  • Als nächstes werden in Schritt S102 das reflektierte Licht RA und das reflektierte Licht RB, die von dem PC-Laserarray 10 emittiert und jeweils von den Messobjekten 24T1 und 24T2 reflektiert werden, durch den Bildsensor 18 durch die Abbildungslinse 16 hindurch aufgenommen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Als nächstes unterscheidet die Abstandsberechnungseinheit 22 in Schritt S103, welcher Strahl des emittierten Lichts A oder B das reflektierte Licht von der Lichtempfangsposition (Position des Pixels) auf der Abbildungsfläche des Bildsensors 18 ist.
  • Als nächstes misst die Abstandsberechnungseinheit 22 in Schritt S104 die Ankunftszeit des reflektierten Lichts von jedem der Messobjekte 24T1 und 24T2 an dem Pixel des Bildsensors 18.
  • Als Nächstes berechnet die Abstandsberechnungseinheit 22 in Schritt S105 den Abstand zu jedem der Messobjekte 24T1 und 24T2, die in der Emissionsrichtung des Laserlichts A und B vorhanden sind, basierend auf den Informationen von jedem von dem emittierten Licht A und dem emittierten Licht B, das sich an der Position des Pixels in dem Bildsensor 18 unterscheidet, und den Informationen über die Ankunftszeit des reflektierten Lichts RA und des von dem Messobjekt zu dem Pixel in dem Bildsensor 18 reflektierten Lichts RB.
  • Die oben beschriebene Abstandsberechnung wird für unterschiedliche Emissionsrichtungen wiederholt (Schritt S106).
  • (Betriebsablauf des Blitz-LiDAR-Betriebsmodus (M2))
  • 19 stellt ein Flussdiagramm des Blitz-LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Zuerst wird in Schritt S201 von einer Vielzahl von Elementen in dem PC-Laserarray 10 gleichzeitig Laserlicht FL in eine spezifische Region emittiert.
  • Als nächstes wird in Schritt S202 das reflektierte Licht RFL, das von dem PC-Laserarray 10 emittiert und von den Messobjekten 24T1 und 24T2 reflektiert wird, durch den Bildsensor 18 durch die Abbildungslinse 16 hindurch aufgenommen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Als nächstes misst, in Schritt S203, wenn das reflektierte Licht RFL detektiert wird, die Abstandsberechnungseinheit 22 die Ankunftszeit (Zeit von der Lichtemission bis zum Lichtempfang) des reflektierten Lichts in jedem Pixel.
  • Als nächstes berechnet die Abstandsberechnungseinheit 22 in Schritt S204 den Abstand zu jedem der Messobjekte 24T1 und 24T2, die in dem Abbildungsbereich für jedes Pixel vorhanden sind. In dem Blitz-LiDAR-Betriebsmodus können die Abstandsinformationen entsprechend der Anzahl der Pixel in dem Beleuchtungsbereich ILL auf einmal erfasst werden.
  • (Betriebsablauf des Lichtschnittverfahren- (strukturierte Lichtprojektion) Betriebsmodus (M3))
  • 20 stellt ein Flussdiagramm des Lichtschnittverfahren-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Zuerst wird in Schritt S301 das Messobjekt 24T mit streifenförmigem Licht ST bestrahlt, das durch das PC-Laserarray 10 erzeugt wird.
  • Als nächstes wird in Schritt S302 das reflektierte Licht RST, das von dem PC-Laserarray 10 emittiert und von dem Messobjekt 24T reflektiert wird, von dem Bildsensor 18 durch die Abbildungslinse 16 hindurch empfangen. Die Abstandsberechnungseinheit 22 erhält ein Bild aus reflektiertem Licht (Abbildungsmuster) (Pixel), führt eine Triangulationsmessung mit dem Abbildungsmuster aus, berechnet den Abstand zu dem Messobjekt 24T, und erhält 3D-Abstandsdaten für eine Linie des streifenförmigen Lichts.
  • Als nächstes werden in Schritt S303 3D-Daten des gesamten Messobjekts 24T erhalten, indem streifenförmiges Licht ST (ROT) drehend abgetastet wird.
  • (Blockkonfiguration des 3D-Erfassungssystems)
  • 21 stellt schematisch ein Beispiel einer Blockstruktur des 3D-Erfassungssystems 100 gemäß den Ausführungsformen dar. Darüber hinaus stellt 21B schematisch ein alternatives Blockstrukturbeispiel des 3D-Erfassungssystems gemäß den Ausführungsformen dar. Der Unterschied zwischen der Struktur in 21A und der Struktur in 21B besteht darin, dass in 21A die Signalsendeeinheit 200 ein Rückkopplungs-Fotodioden- (FBPD) Array 204 aufweist, während die Signalsendeeinheit in 21B 200 kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da der Rückkopplungsvorgang auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Wie in 21A dargestellt, weist das 3D-Erfassungssystem 100 gemäß den Ausführungsformen auf: eine Signalsendeeinheit 200 mit einem zweidimensionalen photonischen Kristall- (2D-PC) Zellenarray 202, das dazu ausgebildet ist, Laserlicht auf ein Messobjekt zu emittieren; eine Signalempfangseinheit 300 mit einem optischen System 304 und einem Bildsensor 302, die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das von der Signalsendeeinheit 200 emittiert und von dem Messobjekt reflektiert wird; und eine Signalsendeeinheit 200. Die Signalsendeeinheit 200 weist auf: eine Steuereinheit (CPU) 408, die dazu ausgebildet ist, einen Betriebsmodus der Laserlichtquelle zu steuern; eine Senderichtungs-Erkennungseinheit 404, die dazu ausgebildet ist, eine Emissionsrichtung des von dem 2D-PC-Zellenarray 202 emittierten Laserlichts zu erkennen; eine 2D-PC-Zellenarray-Treibereinheit 402, die dazu ausgebildet ist, eine Treibersteuerung des 2D-PC-Zellenarrays 202 gemäß dem von der CPU 408 gesteuerten Betriebsmodus basierend auf der Emissionsrichtung von Laserlicht, die durch die Senderichtungs-Erkennungseinheit 404 erkannt wird, auszuführen; und eine Abstandsdetektionseinheit (TOF) 412, die dazu ausgebildet ist, den Abstand zu dem Messobjekt basierend auf einer Lichtempfangsposition auf einer Abbildungsfläche des Bildsensors 18 und der Zeit von der Lichtemission bis zum Lichtempfang gemäß dem Betriebsmodus, der von der CPU 408 gesteuert wird, zu berechnen.
  • Die Signalsendeeinheit 200 weist ferner das FBPD-Array 204 auf, das dazu ausgebildet ist, eine Rückkopplungssteuerung des emittierten Laserlichts auszuführen, und die Senderichtungs-Erkennungseinheit 404 erkennt eine Emissionsrichtung des von der Signalsendeeinheit 200 emittierten Laserlichts gemäß Rückkopplungs-Informationen, die von dem FBPD-Array 204 bereitgestellt werden.
  • Die Signalsendeeinheit 200 kann auch eine Empfangsrichtungs-Erkennungseinheit 406 umfassen, die dazu ausgebildet ist, eine Empfangsrichtung des reflektierten Lichts von der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors 18 zu erkennen, und die 2D-PC-Zellenarray-Treibereinheit 402 führt eine Treibersteuerung des 2D-PC-Zellenarrays 202 basierend auf der Emissionsrichtung des Laserlichts, die von der Senderichtungserkennungseinheit 404 erkannt wird, und der Empfangsrichtung des reflektierten Lichts, das von der Empfangsrichtungs-Erkennungseinheit 406 erkannt wird, aus.
  • Die Signalsendeeinheit 200 weist ferner eine Objekterkennungslogik 414 auf, die dazu ausgebildet ist, das Messobjekt basierend auf einem Berechnungsergebnis der Abstandsdetektionseinheit (TOF) 412 zu identifizieren.
  • Genauer gesagt weist das 3D-Erfassungssystem 100 gemäß den Ausführungsformen, wie in 21A dargestellt, eine Signalsendeeinheit 200, eine Signalempfangseinheit 300, eine Signalverarbeitungseinheit 400, eine Hauptsteuereinheit (MCPU) 500 und eine künstliche Intelligenzeinheit (AI) 502 auf.
  • Die Signalsendeeinheit 200 weist ein 2D-PC-Zellenarray 202, das dazu ausgebildet ist, Laserlicht auf ein Messobjekt zu emittieren, und ein FBPD-Array 204, das dazu ausgebildet ist, eine Rückkopplungssteuerung des emittierten Laserlichts auszuführen, auf. Das 2D-PC-Zellenarray 202 entspricht beispielsweise dem in 11 dargestellten PC-Laser-Array 10, und das FBPD-Array 204 entspricht der in 6 dargestellten Fotodiode (PD) 118PD oder dem in 8 dargestellten 2D-PC 118PDAR.
  • Die Signalempfangseinheit 300 weist ein optisches System 304 und einen Bildsensor (Linie/Fläche) 302 auf, der dazu ausgebildet ist, gestreutes reflektiertes Licht zu empfangen, das von der Signalsendeeinheit 200 emittiert und von dem Messobjekt reflektiert wird. Das optische System 304 und der Bildsensor 302 entsprechen jeweils der Abbildungslinse 16 und dem Bildsensor 18, die in 11 dargestellt sind.
  • Die Signalverarbeitungseinheit 400 weist eine 2D-PC-Zellenarray-Treibereinheit 402, eine Senderichtungs-Erkennungseinheit 404, eine Empfangsrichtungs-Erkennungseinheit 406, eine CPU 408, eine 3D-Bildspeichereinheit 410, eine Abstandsdetektionseinheit (TOF) 412, und eine Objekterkennungslogik 414 auf. Die CPU 408 führt eine Betriebssteuerung jeder Einheit basierend auf drei Betriebsmodi (d. h. LiDAR-Betriebsmodus, Blitz-LiDAR-Betriebsmodus, Lichtschnittverfahren-Betriebsmodus) aus. Die CPU 408 entspricht der Steuereinheit 14, die in 11 dargestellt ist.
  • Die 2D-PC-Zellenarray-Treibereinheit 402 führt die Treibersteuerung des 2D-PC-Zellenarrays 202 basierend auf der Emissionsrichtung des von der Senderichtungs-Erkennungseinheit 404 erkannten Laserlichts und der Empfangsrichtung des von der Empfangsrichtungs-Erkennungseinheit 406 erkannten reflektierten Lichts aus, gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der von der CPU 408 gesteuert wird. Eine Treibersteuerung des von dem 2D-PC-Zellenarray 202 emittierten Lichtstrahls wird ausgeführt.
  • Die Senderichtungs-Erkennungseinheit 404 erkennt eine Emissionsrichtung des von der Signalsendeeinheit 200 emittierten Laserlichts gemäß den Rückkopplungs-Informationen, die von dem FBPD-Array 204 bereitgestellt werden, und stellt ein Erkennungsergebnis an die CPU 408 und die 2D-PC-Zellenarray-Treibereinheit 402 bereit. Die Empfangsrichtungs-Erkennungseinheit 406 erkennt eine Empfangsrichtung des von der Lichtempfangsposition reflektierten Lichts auf der Abbildungsfläche des Bildsensors 18, und stellt ein Erkennungsergebnis an die CPU 408 bereit. Die 3D-Bildspeichereinheit 410 speichert von dem Bildsensor 18 aufgenommene Bilddaten und stellt die gespeicherten Bilddaten an die Abstandsdetektionseinheit (TOF) 412 bereit, usw.
  • Die Abstandsdetektionseinheit (TOF) 412 berechnet einen Abstand zu dem Messobjekt basierend auf der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors 18 und der Zeit von der Lichtemission bis zum Lichtempfang (Ankunftszeit), gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der von der CPU 408 gesteuert wird. Die Abstandsdetektionseinheit (TOF) 412 entspricht der Abstandsberechnungseinheit 22, die in 11 dargestellt ist.
  • Die Objekterkennungslogik 414 identifiziert das Messobjekt basierend auf einem Berechnungsergebnis der Abstandsdetektionseinheit (TOF) 412.
  • Die MCPU 500 steuert das gesamte Hauptsystem, das in dem 3D-Erfassungssystem 100 gemäß den Ausführungsformen montiert ist. Wenn beispielsweise das 3D-Erfassungssystem 100 in einem Fahrzeug montiert ist, entspricht die MCPU 500 einer Haupt-CPU, die in dem Fahrzeugs vorgesehen ist.
  • Mit der MCPU 500 ist eine Benutzerschnittstellen- (I/F) Einheit 504 verbunden. Die Benutzer-I/F-Einheit 504 weist auf: eine Eingabeeinheit 506 für einen Benutzer, um Anweisungen (z. B. Start/Ende der Erfassungsverarbeitung, Auswahl eines Betriebsmodus, und dergleichen) in das 3D-Erfassungssystem 100 einzugeben; und eine Ausgabeeinheit 508 zum Präsentieren von durch das 3D-Erfassungssystem 100 detektieren Erfassungsinformationen für den Benutzer. Die von dem 3D-Erfassungssystem 100 detektierten Erfassungsinformationen können als ein Bild, das ein Messobjekt darstellt, ausgegeben werden und können als Toninformationen, wie beispielsweise ein Warnton, ausgegeben werden.
  • Basierend auf den in der 3D-Bildspeichereinheit 410 gespeicherten und akkumulierten Bilddaten lernt die AI-Einheit 502 das Erfassungsergebnis von dem 3D-Erfassungssystem 100, und unterstützt die Erfassungsverarbeitung, die durch das 3D-Erfassungssystem 100 ausgeführt wird, angemessener.
  • (Modifiziertes Beispiel 1 des 3D-Erfassungssystems)
  • 22A stellt schematisch ein Blockstrukturbeispiel eines 3D-Erfassungssystems 100 gemäß einem modifizierten Beispiel 1 der Ausführungsformen dar. Darüber hinaus stellt 22B schematisch ein alternatives Blockstrukturbeispiel des 3D-Erfassungssystems gemäß dem modifizierten Beispiel 1 der Ausführungsformen dar. Der Unterschied zwischen der Struktur in 22A und der Struktur in 22B besteht darin, dass in 22A die Signalsendeeinheit 200 ein Rückkopplungs-Fotodioden- (FBPD) Array 204 aufweist, während die Signalsendeeinheit 200 in 22B kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da der Rückkopplungsvorgang auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Der Unterschied zwischen dem in 21A dargestellten 3D-Erfassungssystem 100 und dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 1 besteht darin, dass die Signalverarbeitungseinheit 400 keine Empfangsrichtungs-Erkennungseinheit 406 aufweist, wie in 22A darstellt wird.
  • In dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 1 der Ausführungsformen führt die 2D-PC-Zellenarray-Treibereinheit 402 die Treibersteuerung des 2D-PC-Zellenarrays 202 basierend auf der Emissionsrichtung des Laserlichts aus, das von der Sende-/Empfangsrichtungs-Erkennungseinheit 405 erkannt wird.
  • Das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 1 ist das gleiche wie das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß den in 21A dargestellten Ausführungsformen, mit Ausnahme des oben erwähnten Unterschieds.
  • (Blockkonfiguration der 2D-PC-Zellenarray-Treibereinheit)
  • 23 stellt schematisch ein Blockstrukturbeispiel der 2D-PC-Zellenarray-Treibereinheit 402 dar, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
  • Die 2D-PC-Zellenarray-Treibereinheit 402 weist eine Betriebsauswahleinheit 4022, eine LiDAR-Betriebssteuereinheit 4024, eine Blitz-LiDAR-Steuereinheit 4026 und eine strukturierte Lichtschnittsteuereinheit 4028 auf, wie in 23 dargestellt.
  • Die Betriebsauswahleinheit 4022 steuert die LiDAR-Betriebssteuereinheit 4024, die Blitz-LiDAR-Steuereinheit 4026 und die strukturierte Lichtschnittsteuereinheit 4028 gemäß dem Betriebsmodus (LiDAR-Betriebsmodus (M1)/Blitz-LiDAR-Betriebsmodus (M2))/Lichtschnittverfahren-Betriebsmodus (M3)), der durch die CPU 408 gesteuert wird.
  • Insbesondere wenn der Betriebsmodus der LiDAR-Betriebsmodus (M1) ist, führt die LiDAR-Betriebssteuereinheit 4024 die Treibersteuerung des 2D-PC-Zellenarrays 202 aus, so dass ein Laserelement getrieben wird und der Zweifachstrahl (A, B) emittiert wird. Wenn der Betriebsmodus der Blitz-LiDAR-Betriebsmodus (M2) ist, führt die Blitz-LiDAR-Steuereinheit 4026 die Treibersteuerung des 2D-PC-Zellenarrays 202 aus, so dass eine bestimmte Region (Erfassungsraum) für eine gegebene Zeitdauer mit Licht bestrahlt wird. Wenn der Betriebsmodus der Lichtschnittverfahren-Betriebsmodus (M3) ist, führt die strukturierte Lichtschnittsteuereinheit 4028 die Treibersteuerung des 2D-PC-Zellenarrays 202 aus, so dass das Streifenmusterlicht auf das Messobjekt projiziert wird.
  • Die Betriebsauswahleinheit 4022 führt eine Auswahlsteuerung der drei Betriebsmodi beispielsweise wie folgt aus.
  • Zuerst wird die Blitz-LiDAR-Steuereinheit 4026 veranlasst, die Treibersteuerung gemäß dem Blitz-LiDAR-Betriebsmodus (M2) auszuführen (beispielsweise eine höhere Leistung von ungefähr einigen 100 W). Als nächstes wird die LiDAR-Betriebssteuereinheit 4024 veranlasst, die Treibersteuerung gemäß dem LiDAR-Betriebsmodus (M1) auszuführen (beispielsweise eine Ausgabe von ungefähr mehreren W bis ungefähr mehreren zehn W). Als nächstes wird die strukturierte Lichtschnittsteuereinheit 4028 veranlasst, die Treibersteuerung gemäß dem Lichtschnittverfahren-Betriebsmodus auszuführen (M3).
  • Dann kann die Betriebsauswahleinheit 4022 den Betriebsmodus auf den anfänglichen Blitz-LiDAR-Betriebsmodus (M2) zurückführen, oder kann die Verarbeitung beenden. Darüber hinaus kann die Reihenfolge der Verarbeitung des Blitz-LiDAR-Betriebsmodus (M2) und der Verarbeitung des Lichtschnittverfahren-Betriebsmodus (M3) umgekehrt werden. Ein oder zwei Betriebsmodi der drei Betriebsmodi können auch miteinander kombiniert werden.
  • Auf diese Weise kann die Art und Weise, wie die drei Betriebsmodi kombiniert werden, beliebig gewählt werden, aber im Prinzip wird die Verarbeitung nicht zu dem nächsten Betriebsmodus wechseln, bis die Erfassungsverarbeitung in einem Betriebsmodus abgeschlossen ist.
  • (Modifiziertes Beispiel 2 des 3D-Erfassungssystems)
  • 24A stellt schematisch ein Blockstrukturbeispiel eines 3D-Erfassungssystems 100 gemäß einem modifizierten Beispiel 2 der Ausführungsformen dar. Darüber hinaus stellt 24B schematisch ein alternatives schematisches Blockstrukturbeispiel des 3D-Erfassungssystems gemäß dem modifizierten Beispiel 2 der Ausführungsformen dar. Der Unterschied zwischen der Struktur in 24A und der Struktur in 24B besteht darin, dass die Signalsendeeinheit 200 in 24A ein Rückkopplungs-Fotodioden- (FBPD) Array 204 aufweist, während die in 24B Signalsendeeinheit 200 kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da die Rückkopplungsoperation auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Der Unterschied zwischen dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 2 und dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 1 ( 22A) besteht darin, dass die AI-Einheit 407 in der Signalverarbeitungseinheit 400 bereitgestellt ist, wie in 24A dargestellt.
  • In dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 2 der Ausführungsformen lernt die AI-Einheit 407 ein Erfassungsergebnis des 3D-Erfassungssystems 100 basierend auf den in der 3D-Bildspeichereinheit 410 gespeicherten und akkumulierten Bilddaten, und steuert die nächste und nachfolgende Erfassungsverarbeitung, die durch das 3D-Erfassungssystem 100 (insbesondere die Sende-/Empfangsrichtungs-Erkennungseinheit 405 und die Abstandsdetektionseinheit (TOF) 412) ausgeführt wird, angemessener.
  • Das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 2 ist das gleiche wie das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 1 der in 22A dargestellten Ausführungsformen, mit Ausnahme des oben erwähnten Unterschieds.
  • (Modifiziertes Beispiel 3 des 3D-Erfassungssystems)
  • 25 stellt schematisch ein Blockstrukturbeispiel eines Flugzeit- (TOF) Abstandsmesssystems 600 in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 3 der Ausführungsformen dar. Nun wird hauptsächlich ein Beispiel für das Erfassen gemäß dem LiDAR-Betriebsmodus beschrieben.
  • Das TOF-Abstandssystem 600 bestrahlt ein Messobjekt 700 mit Laserlicht A, B, misst die Zeit, bis reflektiertes Licht RA, RB reflektiert und zurückgeworfen wird, und misst dadurch den Abstand zu dem Messobjekt 700.
  • Das TOF-Abstandsmesssystem 600 weist ein 2D-PC-Zellenarray 202, eine PWM-Modulationssteuereinheit 203, eine Phasendifferenz-Erfassungseinheit 205, einen Bildsensor 302, ein optisches System 304 und eine Abstandsdetektionseinheit 412 auf. Beachte, da die Praxis der vorliegenden Anmeldung das gleiche Zeitmessprinzip wie das des Blitz-LiDAR verwendet, kann eine gewisse Impulsbreite erforderlich sein, jedoch kann auch ein Betrieb realisiert werden, bei dem die Impulsbreite nicht geändert wird. Typischerweise werden bei der Anwendung für eine solche Messung Pulse von mehreren ns bis zehn und mehreren ns so kurz wie möglich wiederholt erzeugt. Die Wiederholungsfrequenz wird gemäß der erfassten Entfernung bestimmt. Nachdem die Reflexion von dem eingestellten Abstand des ersten Impulses zurückgekehrt und die Verarbeitung abgeschlossen ist, wird der nächste Impuls ausgegeben.
  • Das 2D-PC-Zellenarray 202 emittiert den Zweifachstrahl A, B, bei dem die Amplitude durch die PWM-Modulationssteuereinheit 203 auf die Grundfrequenz (z. B. einige 100 MHz) moduliert wird. Das emittierte Licht A und das emittierte Licht B werden von dem Messobjekt 700 reflektiert, und werden von dem Bildsensor 302 durch das optische System 304 als das reflektierte Licht RA bzw. das reflektierte Licht RB empfangen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Die Phasendifferenz-Erfassungseinheit 205 erfasst eine Phasendifferenz in der Frequenz zwischen dem emittierten Licht A und dem emittierten Licht B bzw. dem reflektierten Licht RA und dem reflektierten Licht RB.
  • Die Abstandsdetektionseinheit 412 weist eine Abstandsberechnungsschaltung 4121, die dazu ausgebildet ist, die Zeit basierend auf der Phasendifferenz zu berechnen, die von der Phasendifferenz-Erfassungseinheit 205 detektiert wird, und eine Abstandsdaten-Erfassungseinheit 4122, die dazu ausgebildet ist, den Abstand zu dem Messobjekt 700 durch Multiplizieren der von der Abstandberechnungsschaltung 4121 berechneten Zeit mit der Lichtgeschwindigkeit zu detektieren, auf.
  • In dem LiDAR-Betriebsmodus des TOF-Abstandsmesssystems 600 gemäß dem modifizierten Beispiel 3 wird die obige Abstandsberechnung für verschiedene Emissionsrichtungen wiederholt ausgeführt.
  • Obwohl nicht dargestellt, kann das TOF-Abstandsmesssystem 600 gemäß dem modifizierten Beispiel 3 auch die AI-Einheit 502, die 3D-Bildspeichereinheit 410, die Objekterkennungslogik 414 und/oder die Benutzer-I/F-Einheit 504 einschließlich der Eingabeeinheit 506 und die in 21A dargestellte Ausgabeeinheit 508, oder dergleichen, aufweisen.
  • (Bildsensor, der auf das 3D-Erfassungssystem (Fläche) anwendbar ist)
  • 26 stellt schematisch ein Blockstrukturbeispiel eines Bildsensors (Fläche) 302 dar, der auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist.
  • Der Bildsensor (Fläche) 302 ist ein Bildsensor, der dazu ausgebildet ist, den Abstand zu dem Messobjekt mittels des TOF-Verfahrens zu messen, und gibt eine Phasendifferenzinformation des Lichtemissions-/Empfangszeitpunkts unter Verwendung von PWMmoduliertem Laserlicht aus. Wie in 26 dargestellt, weist der Bildsensor (Fläche) 302 eine Lichtempfangseinheit 3021, ein vertikales Schieberegister 3022, eine Vorspannungserzeugungsschaltung 3023, eine Zeitgeberschaltung 3024, eine Abtast- und Halteschaltung 3025, ein horizontales Schieberegister 3026, und Pufferverstärker 3027A, 3027B auf. Ein von der Lichtempfangseinheit 3021 ausgegebenes Signal wird der erforderlichen Signalverarbeitung in der Abtast- und Halteschaltung 3025 und einer sequentiellen Abtastung in dem horizontalen Schieberegister 3026 unterzogen und dann als Spannungsausgabe ausgelesen. Zwei Phasensignale, die den Abstandinformationen entsprechen, werden von den Ausgangsanschlüssen Vout1, Vout2 ausgegeben.
  • (Strahlanordnung)
  • 27(a) stellt schematisch ein Beispiel einer Anordnung eines Zweifachstrahls dar, der von dem 2D-PC-SEL-Zellenarray 10 emittiert wird, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist; und 27(b) stellt schematisch eine vergrößerte Zeichnung eines zentralen Strahls und eines dazu benachbarten Strahls dar.
  • Das 3D-Erfassungssystem hat während der Erfassung die folgenden Funktionen.
  • (1) Zwei gleichzeitig erzeugte Strahlen (Zweifachstrahl („Twin-Beam“)) werden gehandhabt.
  • Daher ist es wichtig, die Emission und den Empfang der Zweifachstrahlen zum Erfassen zu handhaben.
  • (2) Bei der Lichtemission ist die Strahlabtastebene aus einem drehenden System (Punktsymmetrie) aufgebaut.
  • (3) Bei Lichtempfang kann das reflektierte Licht von zwei durch das drehende System abgetasteten Strahlen unterschieden werden.
  • (4) Beliebige Zweifachstrahlen können gleichzeitig emittiert werden.
  • In 27(a) ist der Durchmesser (Auflösung) des Strahls, in dem der Kegel der Zweifachstrahlanordnung (Abtastebene, Emissionswinkel) 0,34° Strahl angeordnet ist, unter Berücksichtigung des Emissionswinkels (dichteste Kreispackung) 200 m: 1,19 m, 100 m: 0,59 m, 50 m: 0,29 m, 10 m: 0,06 m.
  • Die in 27(b) gezeigte Anordnung ist ein Beispiel für die Strahlenanordnung, und in der Praxis ist es notwendig, eine Strahlenanordnung ohne Auslassungen im Erfassungsraum zu betrachten. Als ein Beispiel wird die engste Packung von Kreisen zu einer unendlichen Ebene verwendet. Die optimale Strahlanordnung wird entworfen, indem eine Überlappung in diesen kreisförmigen Bereichen entsprechend der Intensitätsverteilung des Laserstrahls gesteuert wird.
  • 28 stellt schematisch ein Beispiel einer Zweifachstrahlanordnung dar, die von dem 2D-PC-SEL-Zellenarray emittiert wird, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, insbesondere ein Beispiel einer Strahlanordnung, die ein engstes Packungsmuster von Kreisen verwendet. In 28 repräsentieren die entsprechenden Zahlen ein Paar von Zweifachstrahlen.
  • 28 stellt ein Beispiel einer Strahlanordnung unter Verwendung des engsten Packungsmusters von Kreisen dar, und ein Strahlaufweitungswinkel des PC-Lasers und die Ebene, die die Strahlen aufweist, ist so ausgebildet, dass sich der Zweifachstrahl in einer punktsymmetrischen Position zentriert an der Strahlposition 0 befindet. Die Strahlabtastung zum Zeitpunkt der tatsächlichen Abtastung durch das 3D-Abtastsystem gemäß den Ausführungsformen unterscheidet sich von dem Verfahren, wie beispielsweise der herkömmlichen Rasterabtastung, und es ist auch möglich, der Reihe nach in völlig andere Richtungen abzutasten. Wenn die angrenzenden Regionen abgetastet werden, kann die Reihenfolge der Strahlpositionen wie folgt berücksichtigt werden: 0 → 1 → 5 → 8 → 2 → 11 → 6 → 4 → 9 → 13 → 2 .... So besteht beispielsweise beim Einbau in ein Fahrzeug eine hohe Flexibilität bei der fahrsituationsabhängigen Steuerung des Systems, wie etwa ein Abtasten nur der mittleren Region bei einer Autobahnfahrt. Bei gleichzeitiger Emission der Strahlpositionen 0, 1, 2 und 3 wird ein linienförmiges Muster projiziert, bei Emission der Strahlpositionen 0, 1, 5 und 8 wird die mittlere Region beleuchtet.
  • In einem Beispiel des Zweifachstrahls, das das engste Packungsmuster von Kreisen verwendet, die von dem 2D-PC-SEL-Zellenarray emittiert werden, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 29(a) ein erklärendes Diagramm des maximalen horizontalen Winkels MHD und des maximalen vertikalen Winkels MVD in einem Teil einer Kugeloberfläche dar, die einen Erfassungsbereich zeigt; 29(b) stellt ein erklärendes Diagramm dar, das einen Strahldivergenzwinkel BDA und eine Mittelposition des Strahls einer gleichseitigen Dreiecksanordnung zeigt; und 29(c) stellt ein Beispiel einer Anordnung der Laserstrahlen dar.
  • In 28 ist die Strahlanordnung zum Erfassen aus Gründen der Übersichtlichkeit als eine Vielzahl von Kreisen in einer Ebene gezeigt, aber genau genommen ist der Schnittpunkt zwischen einer Kugel mit einem Radius einer bestimmten Entfernung und einem aus dem Strahl gebildeten Kegel gezeigt, wie in 29 dargestellt. Wie in 29(b) gezeigt, ist der Strahl, wenn er als Schnittlinie mit einer Ebene in einem bestimmten Abstand gezeichnet wird, eine Ellipse mit Ausnahme der „0ten“ Strahlposition, aber dies ist nicht der Abstand in dem Fall der „0ten“ Strahlposition.
  • 29(a) stellt einen Teil einer sphärischen Fläche SF dar, die einen Erfassungsbereich repräsentiert (eine sphärische Fläche, die durch Schneiden einer sphärischen Fläche mit einem Radius in einem bestimmten Abstand vom Ursprung O in einem Winkelbereich erhalten wird, der einen Erfassungsbereich repräsentiert). MHD (1/2) ist der maximale horizontale Winkelbereich (1/2) und MVD (1/2) ist der maximale vertikale Winkelbereich (1/2).
  • In 29(b) ist θh der Horizontalwinkel, ist θv der Vertikalwinkel, und ist BDA der Strahldivergenzwinkel. 29(b) stellt eine gleichseitige Dreiecksanordnung (Polarkoordinaten) dar, die die Mittelposition des Strahls zeigt, der Scheitelpunkt ist der Strahlmittelpunkt, und eine Seite der Dreiecksform entspricht dem Strahldivergenzwinkel. Nachdem der horizontale und vertikale Winkelbereich definiert ist, kann die Anzahl der benötigten Strahlen berechnet werden.
  • 29(c) stellt ein Koordinatensystem zum Ausdrücken eines Beispiels der Anordnung des Laserstrahls in Bezug auf den Winkel dar, wobei die Länge einen Winkel angibt und nicht der Länge in der Projektionsebene in einem bestimmten Abstand entspricht. Die Anzahl der erforderlichen Strahlen wird vorläufig berechnet, indem die spezifischen Bedingungen wie folgt definiert werden. Nämlich der horizontale Winkelbereich: -50° bis 50°, der vertikale Winkelbereich: -10° bis 10°, der Strahldivergenzwinkel: 0,34°, die Reichweite beträgt 238 Meter horizontal und 35 Meter vertikal, bei 100 Meter Entfernung (die Reichweite beträgt 60 Meter horizontal und 9 Meter vertikal bei 25 Metern Entfernung), die horizontale Strahlanzahl: 100/0,34+1=295, die vertikale Strahlanzahl: 20/(0,34x0,87)+1= 69 (da es eine Überlappung in vertikaler Richtung gibt, wird sie auf horizontal sin60° verkürzt), die Gesamtzahl der Strahlen: 20.355, und die gesamte PC-SEL-Anzahl: 10.178.
  • Die Strahlspezifikation jedes oberflächenemittierenden Lasers (PC SEL) aus photonischen Kristallen, der das 2D-Array bildet, wird durch Auswählen eines Scheitelpunktpaars mit der Ursprungspunktsymmetrie bestimmt, wie durch die entsprechende Zahl in einem Beispiel der Laserstrahlanordnung in 29 (c) gezeigt wird. Der Aufweitungswinkel des Zweifachstrahls wird aus der Länge zwischen den Scheitelpunkten berechnet (die Länge einer Seite des gleichseitigen Dreiecks entspricht dem Strahldivergenzwinkel), und der Drehwinkel des Strahls wird durch den Winkel zwischen den Liniensegmenten, die die Scheitelpunktpaare verbinden, und die Achse bestimmt. Bei dem Zweifachstrahl Nr. 5 beträgt der Strahlaufweitungswinkel beispielsweise das Doppelte des Strahldivergenzwinkels, und der Drehwinkel beträgt 60° gegen den Uhrzeigersinn zur horizontalen Achse.
  • (Lichtempfangssystem)
  • In dem 3D-Erfassungssystem gemäß den Ausführungsformen stellt 30(a) ein schematisches Diagramm eines Lichtempfangssystems (16, 18) dar, das dazu ausgebildet ist, reflektiertes Licht R zu empfangen, und 30(b) stellt ein schematisches Diagramm des Bildsensors in 30(a) dar.
  • Das Lichtempfangssystem in dem 3D-Erfassungssystem gemäß den Ausführungsformen weist eine Abbildungslinse 16 und einen Bildsensor (oder ein in einem Array angeordnetes Lichtempfangselement) 18 auf und ist dazu ausgebildet, das reflektierte Licht R zu empfangen, wie in 30(a) dargestellt wird. Das Lichtempfangssystem kann in Ausführungsformen reflektiertes Licht von zwei Laserstrahlen unterscheiden, die in Richtung des zentralen Ziels emittiert werden, was eine Eigenschaft von PC-Lasern ist. Darüber hinaus kann durch die Nutzung der Eigenschaften photonischer Kristalle eine große Anzahl von Laserstrahlen gleichzeitig als Beleuchtungslicht in eine bestimmte Region emittiert werden, das auch als Blitz-LiDAR fungieren kann.
  • (Beziehung zwischen Laserlichtintensität und Injektionsstrom)
  • In einem 3D-Erfassungssystem gemäß einem Vergleichsbeispiel stellen die 31(a) bis 31(e) ein Beispiel dar, bei dem sich die Lichtintensität in Abhängigkeit von der Richtung (Position) unterscheidet, selbst wenn in jeder Zelle 121, 122, 123 und 124 des 2D-PC-SEL-Zellenarray 120AR der gleiche Stromwert I injiziert wird. 31(a) stellt das 2D-PC-SEL-Zellenarray 120AR und jede Zelle 121, 122, 123 und 124 dar, und stellt schematisch einen Aspekt der Strahlung des Strahls BM dar, wenn der gleiche Stromwert I in jede Zelle 121, 122, 123 und 124 injiziert wird. 31(b) stellt schematisch einen Aspekt des FFP dar, wenn der BM-Strahlungswinkel θ = 0 Grad ist, 31(c) stellt schematisch einen Aspekt des FFP dar, wenn θ = 20 Grad ist, 31(d) stellt schematisch einen Aspekt des FFP dar, wenn θ = 40 Grad ist, und 31(e) stellt schematisch einen Aspekt des FFP dar, wenn θ = 60 Grad ist.
  • Wie in dem Vergleichsbeispiel in den 31 (a) bis 31(e) beispielhaft dargestellt wird, kann sich, selbst wenn der gleiche Strom I in jede Zelle 121, 122, 123, 124 des 2D-PC-SEL-Zellenarrays 120AR injiziert wird, die Lichtintensität L in Abhängigkeit von dem Winkel θ voneinander unterscheiden.
  • Andererseits stellen bei dem 3D-Erfassungssystem gemäß den Ausführungsformen die 32(a) bis 32(e) ein Beispiel dar, bei dem die Lichtintensität sogar in Abhängigkeit von der Richtung (Position) durch Einspeisen unterschiedlicher Stromwerte I1, I2, I3 bzw. I4 in die Zellen 121, 122, 123 und 124 des 2D-PC-SEL-Zellenarrays 120AR vereinheitlicht wird. 32(a) stellt das 2D-PC-SEL-Zellenarray 120AR und jede Zelle 121, 122, 123 und 124 dar, und stellt schematisch einen Aspekt der Strahlung des Strahls BM beim Injizieren der unterschiedlichen Stromwerte 11, 12, 13, bzw. I4 in die Zellen 121, 122, 123 bzw. 124 dar. 32(b) stellt schematisch einen Aspekt des FFP dar, wenn der Strahl BM-Strahlungswinkel θ = 0 Grad ist, 32(c) stellt schematisch einen Aspekt von FFP = 20 Grad dar, 32(d) stellt schematisch einen Aspekt des FFP dar, wenn θ = 40 Grad ist, und 32(e) stellt schematisch einen Aspekt des FFP dar, wenn θ = 60 Grad ist.
  • Wie in den 32(a) bis 32(e) dargestellt, wird die Variation der Lichtintensität in dem 2D-PC-SEL-Zellenarray 120AR detektiert, und die Treibersteuerung des 2D-PC-SEL-Zellenarrays 120AR wird so ausgeführt, dass die jeweiligen unterschiedlichen Stromwerte I1, I2, I3 und I4 in die jeweiligen Zellen 121, 122, 123 und 124 des 2D-PC-SEL-Zellenarrays 120AR injiziert werden, und dadurch kann die Lichtintensität vereinheitlicht werden. Beispielsweise kann durch Konfigurieren des Rückkopplungssteuermechanismus, wie in 7 dargestellt, die Variation der Lichtintensität in dem 2D-PC-SEL-Zellenarray 120AR basierend auf dem Rückkopplungslaserlichts C (FB) detektiert werden.
  • (Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarray)
  • In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays 120AR, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 33(a) einen Zustand dar, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands und ein Gitter 212B zur Emission von Licht in einer Zelle angeordnet sind, stellt 33(b) ein schematisches Draufsichtdiagramm der einen Zelle dar, und stellt 33(c) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer uniaxialen Abtastung dar.
  • Das in 33(a) dargestellte Beispiel des Anordnungszustands des Gitters 212A zum Bilden des optischen Resonanzzustands und des Gitters 212B zur Emission von Licht entspricht dem Beispiel des in 5 dargestellten Anordnungszustands, und der Laserstrahl wird in die Richtung emittiert, in der die Parameter (r1, r2), der die Position des Gitterpunktes angibt, die zuvor gezeigten Gleichungen (1) und (2) erfüllen.
  • Wie in 33(c) dargestellt, werden die Parameter (r1, r2), die die Position des Gitterpunktes in Richtung zu den Elektroden E1 bis E4 anzeigen, kontinuierlich geändert. Wenn beispielsweise der Strom nur durch die Elektrode E2 fließt, wird der Strahl in Richtung (θ, φ) = (20, 0) emittiert. Der Stromausgleich für die benachbarte Elektrode (E1 bis E4) ermöglicht eine kontinuierliche Winkelschwingung.
  • In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays 120AR, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 34(a) eine Beziehung zwischen r1, r2 und dem Winkel θ dar, und 34(b) stellt ein alternatives strukturelles Beispiel der Elektrodenanordnung zum Realisieren einer uniaxialen Abtastung dar. Auch in 34(b) werden r1 und r2 kontinuierlich über die Elektroden E1 bis E4 geändert. Die Abtastung wird in der uniaxialen Richtung ausgeführt, die in 34(b) dargestellt ist.
  • In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays 120AR, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 35(a) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer biaxialen Abtastung dar, und stellt 35(b) ein schematisches Diagramm von Abtastrichtungen dar. Das Abtasten wird in biaxialen Richtungen (SV1, SV2 und SH1, SH2) ausgeführt, wie in 35(b) dargestellt.
  • In einem Beispiel einer Emissionsstrahlsteuerung des 2D-PC-SEL-Zellenarrays 120AR, das auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 36(a) ein strukturelles Beispiel einer Elektrodenanordnung zum Realisieren einer Drehabtastung dar, und stellt 36(b) ein schematisches Diagramm von Abtastrichtungen dar. Die Drehabtastung wird in den Abtastrichtungen (SV1, SV2, SC und SH1, SH3) ausgeführt, die in 36(b) dargestellt sind.
  • (Streifenförmige Elektrodenanordnung)
  • In der 2D-PC-SEL-Zelle, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar ist, stellt 37(a) ein Draufsichtdiagramm dar, das einen Zustand darstellt, in dem ein Gitter 212A zum Bilden eines optischen Resonanzzustands als ein Gitterpunkt angeordnet ist, an dem ein Loch (Region mit unterschiedlichem Brechungsindex) an einer 2D-PC-Schicht angeordnet ist; stellt 37(b) ein Diagramm einer Draufsicht dar, das einen Zustand darstellt, in dem ein Gitter 212B zur Emission von Licht angeordnet ist; stellt 37(c) ein Diagramm einer Draufsicht dar, das einen Zustand darstellt, in dem streifenförmige obere Elektroden 252 angeordnet sind; und stellt 37(d) ein Diagramm einer Draufsicht dar, das einen alternativen Zustand darstellt, in dem die streifenförmigen oberen Elektroden 252 angeordnet sind.
  • Hier werden die unten beschriebenen streifenförmigen Elektroden E1 bis E19 als die untere Elektrode verwendet, anstelle der unteren Elektrode, die in 1 oder 2 nicht dargestellt ist. Abgesehen davon ist die Konfiguration des PC-Lasers dieselbe wie die Konfiguration des PC-Lasers in den 1, 2, und dergleichen.
  • Die in 37 dargestellte 2D-PC-Schicht wird durch Anordnen eines Lochs (Region mit unterschiedlichem Brechungsindex) an jedem Gitterpunkt des Gitters (nicht gezeigt) erhalten, das durch Kombinieren und Überlagern des Gitters 212A zum Bilden eines optischen Resonanzzustands (37(a)) und des Gitters 212B zur Emission von Licht ( 37(b)) gebildet wird. Das Gitter 212A zum Bilden des optischen Resonanzzustands ist ein quadratisches Gitter mit der Gitterkonstanten a. In dem Gitter 212B zur Emission von Licht sind die Gitterpunkte in der y-Richtung in Intervallen a angeordnet, und die Gitter 212B zur Emission von Licht sind in unterschiedlichen Intervallen für jede einer Vielzahl der virtuell in der x-Richtung unterteilten Regionen 66 angeordnet (es wird auf Regionen mit unterschiedlicher Periode Bezug genommen. Dies unterscheidet sich von der Region mit unterschiedlichem Brechungsindex).
  • Streifenförmige Elektroden (E1 bis E5), (E6 bis E12) und (E13 bis E19) sind auf einer Oberseite des oberen Substrats 242 als obere Elektrode 252 vorgesehen, wie in 37(c) dargestellt wird. Diese streifenförmigen Elektroden (E1 bis E5), (E6 bis E12) und (E13 bis E19) sind viele Elektroden, deren Breite in x-Richtung schmaler als die Breite der Regionen 66 mit unterschiedlicher Periode ist, die in x-Richtung angeordnet sind (37(c)).
  • 37(d) stellt einen Zustand dar, in dem die streifenförmigen Elektroden (E1, E3, E5), (E7, E10) und (E13, E16, E19) in x-Richtung angeordnet sind.
  • Bei dem in 37 dargestellten PC-Laser wird der Strom in die aktive Schicht 222 nur von Elektroden injiziert, die sich direkt über und/oder unter einer Region 66 mit unterschiedlicher Periode der vielen Elektroden E1 bis E19 befinden, die als obere Elektrode 252 vorgesehen sind. Als Ergebnis wird Licht in einer Wellenlängenregion emittiert, die Licht einer vorbestimmten Wellenlänge aufweist, also in einer aktiven Schicht 222, die direkt unter der Region 66 mit unterschiedlicher Periode liegt, das Licht der vorbestimmten Wellenlänge verursacht Resonanz in der Region 66 mit unterschiedlicher Periode, und ein geneigter Strahl wird emittiert. Hierin ist die Struktur des Gitters 212B zur Emission von Licht für jede Region 66 mit unterschiedlicher Periode unterschiedlich. Dementsprechend kann durch Umschalten der Region 66 mit unterschiedlicher Periode, wo das Licht Resonanz verursacht, d. h. durch Umschalten der einzelnen Elektroden der streifenförmigen Elektroden E1 bis E19, wo der Strom injiziert wird, die Laseroszillationsposition allmählich geändert werden. und der Strahlneigungswinkel kann kontinuierlich geändert werden.
  • Das 2D-PC-SEL-Array und der Bildsensor, sowie Antrieb und die Steuerung des 2D-PC-SEL-Arrays und des Bildsensors wurden oben beschrieben, und die Unterstützung für mehrere Betriebsmodi einschließlich Blitz wurde ebenfalls oben beschrieben.
  • Im Fall eines Systems, das den Blitzbetrieb immer fest für die gesamte Fläche einer spezifischen Region verwendet, kann als weiterer Aspekt der Ausführungsformen zusätzlich zu dem PC-SEL-Array eine dedizierte Blitzlichtquelle wie ein Laser oder eine LED verwendet werden. Die Einzelheiten werden nun nachstehend beschrieben.
  • (3D-Erfassungssystem nach Betriebsmodus in Kombination aus Blitzbetriebsmodus und LiDAR-Betriebsmodus)
  • 38 stellt ein konzeptionelles Diagramm eines Betriebsmodus in Kombination des Blitzbetriebsmodus und des LiDAR-Betriebsmodus (dieser wird auch lediglich als „Kombinationsbetriebsmodus“ bezeichnet) in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Das 3D-Erfassungssystem in dem Kombinationsbetriebsmodus gemäß den Ausführungsformen weist eine Blitzlichtquelle (FL) 250 zur Bestrahlung der gesamten Oberfläche als Lichtquelle und ein 2D-PC-SEL-Zellenarray 202 zur Bestrahlung einer Zielregion auf.
  • Die FL-Quelle 250 emittiert Laserlicht FL auf die gesamte Fläche einer spezifischen Region (Erfassungsregion). In einem in 38 dargestellten Beispiel sind in einer Region drei Messobjekte vorhanden, d. h. ein Fahrzeug VH, ein Fahrzeug VB und ein Fußgänger (Person) HM.
  • Reflektiertes Licht RVH, RVB, RHM wird von der FL-Quelle 250 emittiert und von den Messobjekten VH, VB, HM durch eine Flugzeit- (TOF) Kamera 350 reflektiert, um den Abstand zu jedem Messobjekt VH, VB, HM zu messen.
  • Zu diesem Zeitpunkt sind beispielsweise die Karosseriefarbe des Fahrzeugs VH und die Kleidungsfarbe des Fußgängers HM relativ hell (z. B. auf Weiß basierend, auf Gelb basierend usw.) und die Karosseriefarbe des Fahrzeugs VB ist relativ dunkel (z. B. auf Schwarz basierend, auf Dunkelblau basierend, auf Braun basierend usw.). Dementsprechend kann die TOF-Kamera 350 das Fahrzeug VH und den Fußgänger HM beobachten, da das Reflexionsvermögen des Fahrzeugs VH und des Fußgängers HM mit relativ heller Farbe relativ hoch ist und ihr Signal-Rausch-Verhältnis (S/N) ebenfalls hoch ist. Da jedoch das Reflexionsvermögen des Fahrzeugs VB mit relativ dunkler Farbe relativ gering ist und dessen S/N-Verhältnis ebenfalls gering ist, ist es für die TOF-Kamera 350 schwierig, das Fahrzeug VB zu beobachten.
  • Daher wird nur die Zielregion des Messobjekts (in diesem Fall das Fahrzeug VB) mit niedrigem Reflexionsvermögen und unzureichendem S/N-Verhältnis mit einem Punktstrahl von der 2D-PC-SEL-Zellenanordnung 202 bestrahlt, und dann wird das reflektierte Licht beobachtet. Im Ergebnis ermöglicht dies eine Messung des Abstands mit hoher Empfindlichkeit, auch für Messobjekte wie das Fahrzeug VB.
  • (Vergleichsbeispiele)
  • Ein Betriebsablauf eines Blitz-LiDAR-Systems gemäß einem Vergleichsbeispiel wird nun unter Bezugnahme auf 39 beschrieben. Das Blitz-LiDAR-System gemäß dem Vergleichsbeispiel verwendet nur den Blitz-LiDAR-Betriebsmodus in dem in 38 veranschaulichten 3D-Erfassungssystem.
  • In Schritt S400 wird die gesamte Fläche der spezifischen Region mit Laserlicht FL von der FL-Quelle 250 bestrahlt.
  • Als nächstes wird in Schritt S401 das reflektierte Licht RVH, RVB, RHM, das von der FL-Quelle 250 emittiert und jeweils von den Messobjekten VH, VB, HM reflektiert wird, von der TOF-Kamera 350 beobachtet. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Als nächstes wird in Schritt S402 bestimmt, ob es eine Region gibt, in der das S/N des reflektierten Lichts niedriger als ein vorbestimmter Schwellenwert T ist. Ein Ergebnis der Bestimmung in Schritt S402 wird, wenn keine Region vorhanden ist, in der das S/N des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist (im Fall von NEIN in Schritt S402), in Schritt S403 in Abstandbild (3D-Bild) ausgegeben.
  • Im Gegensatz dazu kann, als Ergebnis der Bestimmung in Schritt S402, wenn es eine Region gibt, in der das S/N des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist (im Fall von JA in Schritt S402), ein Abstandbild, das durch Berechnen des Abstands der Region zu erhalten ist, nicht ausgegeben werden. Dementsprechend wird in Schritt S404 die Bestrahlungsintensität der FL-Quelle 250 erhöht, und die gesamte Fläche einer spezifischen Region wird erneut mit dem Laserlicht FL bestrahlt.
  • Als nächstes wird in Schritt S405 das von der FL-Quelle 250 emittierte und von dem Messobjekt reflektierte Licht von der TOF-Kamera 350 beobachtet. Jedoch wird eine andere Region als eine Region, in der das S/N-Verhältnis niedriger als der vorbestimmte Schwellenwert T ist, durch das Rauschen gesättigt, und daher kann kein Abstandsbild ausgegeben werden. Auf diese Weise wird, wenn ein Messobjekt mit geringem Reflexionsvermögen enthalten ist, die Abstandsmessung aufgrund der Verringerung des S/N-Verhältnisses schwierig.
  • (Betriebsablauf des 3D-Erfassungssystems im kombinierten Betriebsmodus)
  • Ein Betriebsablauf des in 38 dargestellten 3D-Erfassungssystems wird nun unter Bezugnahme auf 40 beschrieben.
  • In Schritt S500 wird die gesamte Fläche der spezifischen Region mit Laserlicht FL von der FL-Quelle 250 (Blitztyp) bestrahlt.
  • Als nächstes wird in Schritt S501 das reflektierte Licht RVH, RVB, RHM, das von der FL-Quelle 250 emittiert und von den Messobjekten VH, VB, HM jeweils reflektiert wird, durch die TOF-Kamera 350 beobachtet.
  • In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Als nächstes wird in Schritt S502 bestimmt, ob es eine Region gibt, in dem das S/N des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist. Ein Ergebnis der Bestimmung in Schritt S502, wird, wenn kein Bereich vorhanden ist, in dem das S/N des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist (im Fall von NEIN in Schritt S502), in Schritt S503 ein Abstandbild (3D-Bild) ausgegeben.
  • Im Gegensatz dazu kann, als Ergebnis der Bestimmung in Schritt S502, wenn es eine Region gibt, in dem das S/N des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist (im Fall von JA in Schritt S502), z. B. falls das Fahrzeug VB ein relativ niedriges Reflexionsvermögen und ein relativ niedriges S/N-Verhältnis hat, ein Abstandsbild, das durch Berechnen des Abstands des Bereichs zu erhalten ist, nicht ausgegeben werden. Daher wird in Schritt S504 nur ein Bereich, in dem das S/N-Verhältnis niedriger als der vorbestimmte Schwellenwert T ist, mit einem Punktstrahl von dem 2D-PC-SEL-Zellenarray 202 (Strahlabtasttyp) bestrahlt.
  • Als nächstes wird in Schritt S505 das reflektierte Licht, das von dem 2D-PC-SEL-Zellenarray 202 emittiert und von dem Messobjekt reflektiert wird, von der TOF-Kamera 350 beobachtet, und in Schritt S506 wird bestimmt, ob es eine Region gibt, in dem das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist.
  • Wenn das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist (im Fall von NEIN in Schritt S506), wird in Schritt S507 ein Abstandbild (3D-Bild) ausgegeben.
  • Im Gegensatz dazu kann, als Ergebnis der Bestimmung in Schritt S506, wenn es eine Region gibt, in der das S/N des reflektierten Lichts niedriger ist als der vorbestimmte Schwellenwert T (im Fall von JA in Schritt S506), obwohl angenommen wird, dass es eine Art von Messobjekt gibt, ein Abstandsbild, das durch Berechnen des Abstands des Bereichs zu erhalten ist, nicht ausgegeben werden.
  • Daher wird in Schritt S508 die von der 2D-PC-Zellenanordnung 202 zu emittierende Lichtintensität erhöht, dann wird zu Schritt S504 zurückgekehrt, wobei nur die betreffende Region mit einem Punktstrahl von der 2D-PC-SEL-Zellenanordnung 202 bestrahlt wird. Hier kann, als ein Anpassungsverfahren zum Erhöhen der Lichtintensität in Schritt S508, beispielsweise ein Verfahren zum Erhöhen einer dem 2D-PC-SEL-Zellenarray 202 zugeführten Spannung angewendet werden.
  • Dann wird die Verarbeitung der Schritte S504 bis S508 wiederholt, bis es keine weitere Region mehr gibt, in der das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist, d. h., bis alle Messobjekte in der Region erfasst sind.
  • Auf diese Weise kann, durch Einführung des Betriebsmodus in Kombination aus dem Blitzbetriebsmodus und dem LiDAR-Betriebsmodus in das 3D-Erfassungssystem gemäß den Ausführungsformen, selbst wenn ein Messobjekt mit geringem Reflexionsvermögen in einem Erfassungsbereich enthalten ist, der Abstand des Messobjekts mit geringem Reflexionsvermögen gemessen werden.
  • Es wird so konfiguriert, dass zunächst die gesamte Fläche der spezifischen Region mit dem Laserlicht FL von der FL-Quelle 250 vorher bestrahlt wird und das Messobjekt, das in der spezifischen gesamten Region enthalten ist, detektiert wird (Blitzbetriebsmodus), und dann nur das zu diesem Zeitpunkt nicht detektierbare Messobjekt mit dem Punktstrahl aus dem zu detektierenden 2D-PC-SEL-Zellenarray 202 bestrahlt wird (LiDAR-Betriebsmodus). Dementsprechend kann die Verarbeitung von Anfang bis Ende effizienter ausgeführt werden als der Betrieb im LiDAR-Betriebsmodus.
  • (Modulierte PC-Laserlichtquelle zur Bestrahlung der Zielregion)
  • 41 stellt schematisch ein Schnittdiagramm eines Beispiels eines Bestrahlungsmusters als Beispiel einer PC-Laserlichtquelle für die Bestrahlung der gesamten Oberfläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar. 42 stellt schematisch ein Diagramm einer Beleuchtungsfläche eines Beispiels des Bestrahlungsmusters als ein Beispiel der PC-Laserlichtquelle für die Bestrahlung der gesamten Oberfläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Die 41 und 42 stellen ein Beispiel der modulierten PC-Laserlichtquelle (2D-PC-SEL-Zellenarray 202) zum Bestrahlen einer Zielregion in dem Punkt in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar. Die PC-Laserlichtquelle zum Bestrahlen der Zielregion (2D-PC-SEL-Zellenarray 202) bestrahlt eine vorgegebene Position (z. B. eine Position zum Bestrahlen der Zielregion in 42) innerhalb eines Bereichs von ±60° der horizontalen Richtung und ± 60° der vertikalen Richtung, zum Beispiel mit Laserlicht. Einer der Zweifachstrahlen, z. B. der Strahl B, der von der modulierten PC-Laserquelle zur Bestrahlung des Zielbereichs emittiert wird, wird verwendet, aber beide Strahlen A und B können verwendet werden.
  • Der Emissionswinkel beträgt zum Beispiel ungefähr 2° pro Punkt in einer vorgegebenen Richtung, was ungefähr ± 60° in horizontaler Richtung und ± 60° in vertikaler Richtung für das gesamte Array ist.
  • Die Leistung beträgt beispielsweise mehr als ca. 0,2 W pro Punkt. Durch Anordnen einer Vielzahl von Lichtquellen B ist es möglich, die Ausgabe zu erhöhen, aber wenn die Pulsbreite lang oder die Wiederholungsfrequenz hoch ist, kann eine Brillanz für die Wärmeableitung erforderlich sein.
  • (PC-Laserlichtquelle zur Bestrahlung der gesamten Oberfläche)
  • 41 stellt schematisch ein Schnittdiagramm eines Beispiels eines Bestrahlungsmusters als Beispiel einer PC-Laserlichtquelle (FL-Quelle 250) für die Bestrahlung der gesamten Fläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar. 42 stellt schematisch ein Diagramm einer Beleuchtungsfläche eines Beispiels des Bestrahlungsmusters als Beispiel der PC-Laserlichtquelle (FL-Quelle 250) für die Bestrahlung der gesamten Fläche in dem 3D-Erfassungssystem gemäß den Ausführungsformen dar.
  • Der als FL-Quelle 250 verwendete Laser ist beispielsweise ein PC-SEL oder VCSEL vom Vertikalflächentyp, emittiertes Laserlicht wird geeignet durch eine Linse oder einen Diffusor gestreut, und strahlt eine Region von ±60° aus. Die hier verwendete Linse ist beispielsweise eine Kugellinse, eine Gradientenindex- (Gl) Linse, oder eine Linse, die durch Kombinieren einer Vielzahl von Linsen erhalten wird. Expansiver kann eine Bestrahlung im Bereich von ±60° ohne Einsatz von Linsen oder Diffusoren realisiert werden.
  • Die PC-Laserlichtquelle für die Bestrahlung der gesamten Fläche ist ein Ganzflächenbestrahlungstyp, beispielsweise in einem Bereich von ±60° in horizontaler Richtung und ±60° in vertikaler Richtung, und bestrahlt die gesamte Fläche des Erfassungsbereichs mit Laserlicht FL durch Streuung der Lichtemission eines einzelnen Elements. Der Emissionswinkel beträgt zum Beispiel ungefähr 2° pro einzelnem Element, und expansiver strahlt es gleichmäßig in einem Bereich von ungefähr ±60° in horizontaler Richtung und ungefähr ±60° in vertikaler Richtung ab.
  • Die Leistung beträgt beispielsweise mehr als ca. 5 W. Wenn die Pulsbreite lang ist oder die Wiederholungsfrequenz hoch ist, kann eine Brillanz für die Wärmeableitung erforderlich sein. Das dafür zu verwendende Paket ist beispielsweise ein 5,6 mm φ Stamm.
  • (Blockkonfiguration des 3D-Erfassungssystems im kombinierten Betriebsmodus)
  • 43A stellt schematisch eine Blockkonfiguration im kombinierten Betriebsmodus des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem im kombinierten Betriebsmodus gemäß den Ausführungsformen dar. Ein identisches oder ähnliches Bezugszeichen ist an einer identischen oder ähnlichen Blockkonfiguration, wie in 21A dargestellt, angebracht, und dessen Beschreibung wird weggelassen oder vereinfacht.
  • 43A stellt ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird. 43B stellt ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß den Ausführungsformen realisiert wird. Der Unterschied zwischen der Struktur in 43A und der Struktur in 43B besteht darin, dass die Signalsendeeinheit 200 in 43A ein Rückkopplungs-Fotodioden- (FBPD) Array 204 aufweist, während die Signalsendeeinheit 200 in 43A kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da der Rückkopplungsvorgang auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Wie in 43A dargestellt wird, weist das 3D-Erfassungssystem 100 gemäß den Ausführungsformen auf: eine Blitzlichtquelle 250 für die Bestrahlung der gesamten Fläche, die dazu ausgebildet ist, Laserlicht auf eine gesamte Fläche einer spezifischen Region (Erfassungsregion) zu emittieren; ein 2D-PC-SEL-Zellenarray 202, das dazu ausgebildet ist, Laserlicht auf eine Zielregion der spezifischen Region zu emittieren; eine Steuereinheit (CPU) 408, die dazu ausgebildet ist, einen Betriebsmodus der Laserlichtquelle (202, 250) zu steuern; eine Blitztreibereinheit 415 zum Ausführen einer Treibersteuerung der Blitzlichtquelle 250 und eine 2D-PC-Zellenarray-Treibereinheit 402, die dazu ausgebildet ist, eine Treibersteuerung des 2D-PC-SEL-Zellenarrays 202 gemäß dem durch die Steuereinheit 408 gesteuerten Betriebsmodus auszuführen; eine Signalempfangseinheit 300, die dazu ausgebildet ist, das von der Blitzlichtquelle 250 emittierte und von einem Messobjekt reflektierte Laserlicht, das in der spezifischen Region enthalten ist, als reflektiertes Licht zu empfangen, und das Laserlicht, das von dem 2D-PC-SEL-Zellenarray 202 emittiert und von einem Messobjekt, das in einer Zielregion enthalten ist, reflektiert wird, als reflektiertes Licht zu empfangen; eine Signalverarbeitungseinheit 400, die dazu ausgebildet ist, eine Signalverarbeitung des reflektierten Lichts auszuführen, das von der Signalempfangseinheit 300 gemäß dem Betriebsmodus empfangen wird; und eine Abstandsdetektionseinheit 412, die dazu ausgebildet ist, eine Berechnungsverarbeitung des Abstands zu dem Messobjekt in Bezug auf das von der Signalverarbeitungseinheit 400 verarbeitete Signal gemäß dem Betriebsmodus auszuführen.
  • Die Signalverarbeitungseinheit 400 bestimmt, ob es eine Region gibt oder nicht, in der das S/N-Verhältnis des reflektierten Lichts, das von der Blitzlichtquelle 250 emittiert und reflektiert wird, in der spezifischen Region niedriger als der vorbestimmte Schwellenwert ist. Wenn es eine Region gibt, in der das S/N-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, steuert die Signalverarbeitungseinheit 400 die 2D-PC-Zellenarray-Treibereinheit 402 so, dass sie nur die Region, in dem das S/N-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, als Ziel mit Punktlaserlicht aus dem 2D-PC-SEL-Zellenarray 202 bestrahlt.
  • Darüber hinaus bestimmt die Signalverarbeitungseinheit 400, ob es eine Region gibt oder nicht, in der das S/N-Verhältnis des punktförmigen reflektierten, von dem 2D-PC-SEL-Zellenarray 202 emittierten Lichts niedriger als der vorbestimmte Schwellenwert T ist. Als Ergebnis der Bestimmung steuert, wenn es eine Region gibt, in dem das S/N-Verhältnis niedriger als der vorbestimmte Schwellenwert T ist, die Signalverarbeitungseinheit 400 das 2D-PC-Zellenarray-Treibereinheit 402, um die von dem 2D-PC-SEL-Zellenarray 202 emittierte Lichtintensität zu erhöhen, und dann nur die betroffenen Region mit dem Punktlaserlicht von dem 2D-PC-SEL-Zellenarray 202 gezielt zu bestrahlen.
  • In diesem Fall gibt es den Blitzbetriebsmodus und den LiDAR-Betriebsmodus als Betriebsmodus, wobei die Blitztreibereinheit 415 die Treibersteuerung der Blitzlichtquelle 250 ausführt, wenn der Betriebsmodus der Blitzbetriebsmodus ist, und die 2D-PC-Zellenarray-Treibereinheit 402 die Treibersteuerung des 2D-PC-SEL-Zellenarrays 202 ausführt, wenn der Betriebsmodus der LiDAR-Betriebsmodus ist.
  • Das 3D-Erfassungssystem 100 gemäß den Ausführungsformen wird nun ausführlicher beschrieben.
  • Das 3D-Erfassungssystem 100 gemäß den Ausführungsformen weist eine Signalsendeeinheit 200, eine Signalempfangseinheit 300 und eine Signalverarbeitungseinheit 400 auf, wie in 43A dargestellt.
  • Die Signalsendeeinheit 200 weist auf: eine Blitzlichtquelle (FL) 250 zur Bestrahlung der gesamten Fläche, die dazu ausgebildet ist, Laserlicht FL auf die gesamte Fläche einer spezifischen Region zu emittieren, und ein 2D-PC-SEL-Zellenarray 202, das dazu ausgebildet ist, Laserlicht in eine Zielregion in der spezifischen Region zu emittieren.
  • Die Signalempfangseinheit 300 weist ein optisches System 304 und einen Bildsensor (Linie/Fläche) 302 auf, der dazu ausgebildet ist, reflektiertes Licht zu empfangen, das von der Signalsendeeinheit 200 emittiert und von dem Messobjekt reflektiert wird.
  • Die Signalverarbeitungseinheit 400 weist auf: eine Steuereinheit (CPU) 408, die dazu ausgebildet ist, einen Betriebsmodus der Laserlichtquelle zu steuern; eine Senderichtungs-Erkennungseinheit 404, die dazu ausgebildet ist, eine Emissionsrichtung des Laserlichts zu erkennen, das von dem 2D-PC-SEL-Zellenarray 202 emittiert wird; eine 2D-PC-Zellenarray-Treibereinheit 402, die dazu ausgebildet ist, eine Treibersteuerung des 2D-PC-SEL-Zellenarrays 202 gemäß dem Betriebsmodus, der von der CPU 408 gesteuert wird, basierend auf der Emissionsrichtung von Laserlicht, die durch die Senderichtungs-Erkennungseinheit 404 erkannt wird, auszuführen; eine FL-Treibereinheit 415, die dazu ausgebildet ist, eine Treibersteuerung der FL-Quelle 250 auszuführen; und eine Abstandsdetektionseinheit (TOF) 412, die dazu ausgebildet ist, den Abstand zu dem Messobjekt basierend auf einer Lichtempfangsposition auf einer Abbildungsfläche des Bildsensors 18 und der Zeit von der Lichtemission bis zum Lichtempfang gemäß dem Betriebsmodus, der von der CPU 408 gesteuert wird, zu berechnen.
  • Die FL-Quelle 250 emittiert zuerst Laserlicht FL auf die gesamte Fläche der spezifischen Region. Das von der FL-Quelle 250 emittierte und von dem Messobjekt reflektierte Licht wird in der Signalempfangseinheit 300 empfangen, und der Abstand zu dem Messobjekt wird durch die Abstandsdetektionseinheit 412 in der Signalverarbeitungseinheit 400 gemessen.
  • Zu diesem Zeitpunkt bestimmt die Signalverarbeitungseinheit 400, ob es eine Region gibt, in der das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist. Als Ergebnis der Bestimmung wird, wenn das S/N-Verhältnis des reflektierten Lichts ist niedriger als der vorbestimmte Schwellenwert T ist, ein Abstandsbild ausgegeben. Im Gegensatz dazu steuert die Signalverarbeitungseinheit 400 die 2D-PC-Zellenarray-Treibereinheit 402 so, dass nur die Zielregion, in der das S/N Verhältnis niedriger als der vorbestimmte Schwellenwert ist, mit einem Punktstrahl von dem 2D-PC-SEL-Zellenarray 202 bestrahlt wird.
  • Das reflektierte Licht, das von dem 2D-PC-SEL-Zellenarray 202 emittiert und von dem Messobjekt reflektiert wird, wird in der Signalempfangseinheit 300 empfangen. Die Signalverarbeitungseinheit 400 bestimmt, ob es eine Region gibt, in der das S/N-Verhältnis des reflektierten Licht niedriger als der vorbestimmte Schwellenwert T ist. Als Ergebnis der Bestimmung wird, wenn es keine Region gibt, in dem das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist, ein Abstandsbild ausgegeben. Im Gegensatz dazu steuert, wenn es eine Region gibt, in der das S/N-Verhältnis des reflektierten Lichts niedriger als der vorbestimmte Schwellenwert T ist, die Signalverarbeitungseinheit 400 die 2D-PC-Zellenarray-Treibereinheit 402, die von dem 2D-PC-SEL-Zellenarray 202 emittierte Lichtintensität zu erhöhen, und dann nur die betroffenen Region mit dem Punktstrahl aus dem 2D-PC-SEL-Zellenarray 202 gezielt zu bestrahlen.
  • Die Signalsendeeinheit 200 weist ferner das FBPD-Array 204 auf, das dazu ausgebildet ist, eine Rückkopplungssteuerung des emittierten Laserlichts auszuführen, und die Senderichtungs-Erkennungseinheit 404 erkennt eine Emissionsrichtung des von der Signalsendeeinheit 200 emittierten Laserlichts gemäß den von dem FBPD-Array 204 bereitgestellten Rückkopplungs-Informationen.
  • Die Signalsendeeinheit 200 kann auch eine Empfangsrichtungs-Erkennungseinheit 406 aufweisen, die dazu ausgebildet ist, eine Empfangsrichtung des reflektierten Lichts von der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors 18 zu erkennen, und die 2D-PC-Zellenarray-Treibereinheit 402 führt eine Treibersteuerung des 2D-PC-Zellenarrays 202 basierend auf der Emissionsrichtung des Laserlichts, die von der Senderichtungserkennungseinheit 404 erkannt wird, und der Empfangsrichtung des reflektierten Lichts, das von der Empfangsrichtungs-Erkennungseinheit 406 erkannt wird, aus.
  • Die Signalverarbeitungseinheit 400 weist ferner eine Objekterkennungslogik 414 auf, die dazu ausgebildet ist, das Messobjekt basierend auf einem Berechnungsergebnis der Abstandsdetektionseinheit (TOF) 412 zu identifizieren.
  • Das 3D-Erfassungssystem 100 gemäß den Ausführungsformen ist mit einer Signalsendeeinheit 200, einer Signalempfangseinheit 300, einer Signalverarbeitungseinheit 400, einer Hauptsteuereinheit (MCPU) 500 und einer Einheit für künstliche Intelligenz (A.I. „Artificial Intelligence“) 502 versehen, so wie es 43A dargestellt werden kann.
  • Die Signalsendeeinheit 200 weist auf: eine FL-Quelle 250 zur Bestrahlung der gesamten Fläche, die dazu ausgebildet ist, Laserlicht FL auf die gesamte Fläche der spezifischen Region zu emittieren; ein 2D-PC-SEL-Zellenarray 202, das dazu ausgebildet ist, Laserlicht auf das Messobjekt zu emittieren; und ein FBPD-Array 204, das dazu ausgebildet ist, eine Rückkopplungssteuerung des emittierten Laserlichts auszuführen. Das FBPD-Array 204 entspricht dem in 6 dargestellten PD 118PD oder dem in 8 dargestellten 2D-PC 118PDAR.
  • Die Signalempfangseinheit 300 weist ein optisches System 304 und einen Bildsensor (Linie/Fläche) 302 auf, der dazu ausgebildet ist, ein gestreutes reflektiertes Licht zu empfangen, das von der Signalsendeeinheit 200 emittiert und von dem Messobjekt reflektiert wird.
  • Die Signalverarbeitungseinheit 400 weist eine 2D-PC-Zellenarray-Treibereinheit 402, eine Senderichtungserkennungseinheit 404, eine Empfangsrichtungs-Erkennungseinheit 406, eine CPU 408, eine 3D-Bildspeichereinheit 410, eine Abstandsdetektionseinheit (TOF) 412, und eine Objekterkennungslogik 414 auf. Die CPU 408 führt eine Betriebssteuerung jeder Einheit basierend auf drei Betriebsmodi (d h., LiDAR-Betriebsmodus, Blitz-LiDAR-Betriebsmodus, Lichtschnittverfahren-Betriebsmodus) aus. Die CPU 408 entspricht der Steuereinheit 14, die in 11 dargestellt ist.
  • Die 2D-PC-Zellenarray-Treibereinheit 402 führt eine Treibersteuerung des 2D-PC-SEL-Zellenarrays 202 basierend auf der Emissionsrichtung des Laserlichts, das von der Senderichtungserkennungseinheit 404 erkannt wird, und der Empfangsrichtung des reflektierten Lichts, das von der Empfangsrichtungs-Erkennungseinheit 406 erkannt wird, gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der von der CPU 408 gesteuert wird, aus. Die FL-Treibereinheit 415 führt eine Treibersteuerung der FL-Quelle 250 aus.
  • Die Senderichtungs-Erkennungseinheit 404 erkennt eine Emissionsrichtung des von der Signalsendeeinheit 200 emittierten Laserlichts gemäß den Rückkopplungs-Informationen, die von dem FBPD-Array 204 bereitgestellt werden, und stellt ein Erkennungsergebnis an die CPU 408 und die 2D-PC-Zellenarray-Treibereinheit 402 und die FL-Treibereinheit 415 bereit. Die Empfangsrichtungs-Erkennungseinheit 406 erkennt eine Empfangsrichtung des von der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors 18 reflektierten Lichts und stellt ein Erkennungsergebnis an die CPU 408 bereit. Die 3D-Bildspeichereinheit 410 speichert Bilddaten, die von dem Bildsensor 18 aufgenommen wurden, und stellt die gespeicherten Bilddaten an die Abstandsdetektionseinheit (TOF) 412 usw. bereit.
  • Die Abstandsdetektionseinheit (TOF) 412 berechnet einen Abstand zu dem Messobjekt basierend auf der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors 18 und der Zeit von der Lichtemission bis zum Lichtempfang (Ankunftszeit) gemäß dem Betriebsmodus (LiDAR-Betriebsmodus/Blitz-LiDAR-Betriebsmodus/Lichtschnittverfahren-Betriebsmodus), der von der CPU 408 gesteuert wird. Die Abstandsdetektionseinheit (TOF) 412 entspricht der Abstandsberechnungseinheit 22, die in 11 dargestellt ist.
  • Die Objekterkennungslogik 414 identifiziert das Messobjekt basierend auf einem Berechnungsergebnis der Abstandsdetektionseinheit (TOF) 412.
  • Die MCPU 500 steuert das gesamte Hauptsystem, das in dem 3D-Erfassungssystem 100 gemäß den Ausführungsformen montiert ist. Wenn das 3D-Erfassungssystem 100 beispielsweise in einem Fahrzeug montiert ist, entspricht die MCPU 500 einer Haupt-CPU, die in einem Fahrzeugs vorgesehen ist.
  • Mit der MCPU 500 ist eine Benutzerschnittstellen-(I/F)-Einheit 504 verbunden. Die Benutzer-I/F-Einheit 504 weist auf: eine Eingabeeinheit 506 für einen Benutzer zum Eingeben von Anweisungen (z. B. Start/Ende einer Erfassungsverarbeitung, Auswahl eines Betriebsmodus, und dergleichen) an das 3D-Erfassungssystem 100; und eine Ausgabeeinheit 508 zum Präsentieren von durch das 3D-Erfassungssystem 100 detektierten Erfassungsinformationen für den Benutzer. Die von dem 3D-Erfassungssystem 100 detektierten Erfassungsinformationen können als ein Bild, das ein Messobjekt darstellt, ausgegeben werden, und können als Toninformationen, wie beispielsweise ein Warnton, ausgegeben werden.
  • Basierend auf in der 3D-Bildspeichereinheit 410 gespeicherten und akkumulierten Bilddaten lernt die AI-Einheit 502 das Erfassungsergebnis von dem 3D-Erfassungssystem 100 und unterstützt die Erfassungsverarbeitung, die durch das 3D-Erfassungssystem 100 ausgeführt wird, angemessener.
  • Modifiziertes Beispiel 4 des 3D-Erfassungssystems im kombinierten Betriebsmodus)
  • 44A stellt ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 4 der Ausführungsformen realisiert wird. 44B stellt ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß dem modifizierten Beispiel 4 der Ausführungsformen realisiert wird. Der Unterschied zwischen der Struktur in 44A und der Struktur in 44B besteht darin, dass die Signalsendeeinheit 200 in 44A ein Rückkopplungsfotodioden- (FBPD) Array 204 aufweist, während die Signalsendeeinheit 200 in 44B kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da die Rückkopplungsoperation auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Der Unterschied zwischen dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 4 und dem in 43A dargestellten 3D-Erfassungssystem 100 besteht darin, dass die Signalverarbeitungseinheit 400 keine Empfangsrichtungs-Erkennungseinheit 406 aufweist.
  • In dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 4 der Ausführungsformen führt die 2D-PC-Zellenarray-Treibereinheit 402 die Treibersteuerung des 2D-PC-SEL-Zellenarrays 202 basierend auf der Emissionsrichtung des Laserlichts aus, das von der Sende-/Empfangsrichtungs-Erkennungseinheit 405 erkannt wird.
  • Das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 4 ist das gleiche wie das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß den in 43A dargestellten Ausführungsformen, mit Ausnahme des oben erwähnten Unterschieds.
  • (Blockkonfiguration der 2D-PC-Zell-Array-Treibereinheit und der FL-Treibereinheit)
  • 45 stellt schematisch ein Blockstrukturbeispiel der 2D-PC-Zellenarray-Treibereinheit 402 und der FL-Treibereinheit 415, die auf das 3D-Erfassungssystem gemäß den Ausführungsformen anwendbar sind, dar. Ein identisches oder ähnliches Bezugszeichen ist an einer identischen oder ähnlichen Blockkonfiguration, wie in 23 dargestellt, angebracht, und dessen Beschreibung wird weggelassen oder vereinfacht.
  • So wie in 23 weist die 2D-PC-Zellenarray-Treibereinheit 402 eine Betriebsauswahleinheit 4022, eine LiDAR-Betriebssteuereinheit 4024, eine Blitz-LiDAR-Steuereinheit 4026 und eine strukturierte Lichtschnittsteuereinheit 4028 auf und ist dazu ausgebildet, eine Treibersteuerung des 2D-PC-Zellenarrays 202 gemäß der Steuerung durch die CPU 408 auszuführen.
  • Die FL-Treibereinheit 415 führt eine Treibersteuerung der FL-Quelle 250 gemäß der Steuerung durch die CPU 408 aus.
  • (Modifiziertes Beispiel 5 des 3D-Erfassungssystems im kombinierten Betriebsmodus)
  • 46A stellt ein schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in einem 3D-Erfassungssystem gemäß einem modifizierten Beispiel 5 der Ausführungsformen realisiert wird. 46B stellt ein alternatives schematisches Blockkonfigurationsdiagramm des Betriebsmodus dar, der durch Kombinieren des Blitzbetriebsmodus und des LiDAR-Betriebsmodus in dem 3D-Erfassungssystem gemäß dem modifizierten Beispiel 5 der Ausführungsformen realisiert wird. Der Unterschied zwischen der Struktur in 46A und der Struktur in 46B besteht darin, dass die Signalsendeeinheit 200 in 46A ein Rückkopplungsfotodioden- (FBPD) Array 204 aufweist, während die Signalsendeeinheit 200 in 46B kein FBPD-Array 204 aufweist. Auf diese Weise kann das FBPD-Array 204 enthalten sein oder weggelassen werden. Da die Rückkopplungsoperation auch durch eine Kamera ausgeführt werden kann, kann das FBPD-Array 204 weggelassen werden.
  • Der Unterschied zwischen dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 5 und dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 4 ( 44A) besteht darin, dass die AI-Einheit 407 in der Signalverarbeitungseinheit 400 bereitgestellt ist.
  • In dem 3D-Erfassungssystem 100 gemäß dem modifizierten Beispiel 5 der Ausführungsformen lernt die AI-Einheit 407 ein Erfassungsergebnis des 3D-Erfassungssystems 100 basierend auf der in der 3D-Bildspeichereinheit 410 gespeicherten und akkumulierten Bilddaten, und steuert die nächste und nachfolgende Erfassungsverarbeitung, die durch das 3D-Erfassungssystem 100 (insbesondere die Sende-/Empfangsrichtungs-Erkennungseinheit 405 und die Abstandsdetektionseinheit (TOF) 412) ausgeführt wird, angemessener.
  • Das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 5 ist das gleiche wie das Blockstrukturbeispiel des 3D-Erfassungssystems 100 gemäß dem modifizierten Beispiel 4 der in 44A dargestellten Ausführungsformen, mit Ausnahme des oben erwähnten Unterschieds.
  • (Modifiziertes Beispiel 6 des 3D-Erfassungssystems im kombinierten Betriebsmodus)
  • 47 stellt schematisch ein Blockstrukturbeispiel eines Flugzeit- (TOF) Abstandsmesssystems 600 in einem 3D-Erfassungssystem in einem Kombinationsbetriebsmodus gemäß einem modifizierten Beispiel 6 der Ausführungsformen dar. Nun wird hauptsächlich ein Beispiel für das Erfassen gemäß dem LiDAR-Betriebsmodus beschrieben.
  • Im Blitzbetriebsmodus bestrahlt das TOF-Abstandsmesssystem 600 ein Messobjekt 700 mit Laserlicht FL, misst die Zeit, bis reflektiertes Licht reflektiert und zurückgeworfen wird, und misst dadurch den Abstand zu dem Messobjekt 700. In dem LiDAR-Betriebsmodus bestrahlt das TOF-Abstandsmesssystem 600 ein Messobjekt 700 mit Laserlicht A, B, misst die Zeit, bis reflektiertes Licht RA, RB reflektiert und zurückgeworfen wird, und misst dadurch den Abstand zu dem Messobjekt 700.
  • Das TOF-Abstandsmesssystem 600 weist eine FL-Lichtquelle 250, ein 2D-PC-Zellenarray 202, eine PWM-Modulationssteuereinheit 203, eine Phasendifferenzerkennungseinheit 205, einen Bildsensor 302, ein optisches System 304 und eine Abstanderkennungseinheit 412 auf. Beachte, dass im LiDAR-Betriebsmodus, da die Praxis der vorliegenden Anmeldung das gleiche Zeitmessprinzip wie das des Blitz-LiDAR verwendet, eine gewisse Impulsbreite erforderlich sein kann, jedoch auch ein Betrieb realisiert werden, bei dem der Impuls Breite nicht verändert wird. Typischerweise werden bei der Anwendung für eine solche Messung Pulse von mehreren ns bis zehn und mehreren ns so kurz wie möglich wiederholt erzeugt. Die Wiederholungsfrequenz wird gemäß des detektierten Abstands bestimmt. Nachdem die Reflexion von dem eingestellten Abstand des ersten Impulses zurückgekehrt und die Verarbeitung abgeschlossen ist, wird der nächste Impuls ausgegeben.
  • Im LiDAR-Betriebsmodus emittiert das 2D-PC-SEL-Zellenarray 202 den Zweifachstrahl A, B, bei dem die Amplitude durch die PWM-Modulationssteuereinheit 203 auf die Grundfrequenz (z. B. einige 100 MHz) moduliert wird. Das emittierte Licht A und das emittierte Licht B werden von dem Messobjekt 700 reflektiert und von dem Bildsensor 302 durch das optische System 304 als das reflektierte Licht RA bzw. das reflektierte Licht RB empfangen. In diesem Fall ist, wenn kein reflektiertes Licht vorhanden ist, zu erkennen, dass kein Objekt (kein Messobjekt) in der entsprechenden Richtung vorhanden ist.
  • Die Phasendifferenz-Erfassungseinheit 205 detektiert eine Phasendifferenz in der Frequenz zwischen dem emittierten Licht A und dem emittierten Licht B bzw. dem reflektierten Licht RA und dem reflektierten Licht RB.
  • Die Abstandsdetektionseinheit 412 weist eine Abstandsberechnungsschaltung 4121, die dazu ausgebildet ist, die Zeit, die von der Phasendifferenz-Erfassungseinheit 205 detektiert wird, basierend auf der Phasendifferenz zu berechnen, und eine Abstandsdaten-Erfassungseinheit 4122, die dazu ausgebildet ist, den Abstand zu dem Messobjekt 700 durch Multiplizieren der von der Abstandberechnungsschaltung 4121 berechneten Zeit mit der Lichtgeschwindigkeit zu detektieren, auf.
  • Im LiDAR-Betriebsmodus des TOF-Abstandsmesssystems 600 gemäß dem modifizierten Beispiel 6 wird die obige Abstandsberechnung wiederholt für verschiedene Emissionsrichtungen ausgeführt.
  • Obwohl nicht dargestellt, kann das TOF-Abstandsmesssystem 600 gemäß dem modifizierten Beispiel 6 auch die AI-Einheit 502, die 3D-Bildspeichereinheit 410, die Objekterkennungslogik 414 und/oder die Benutzer-I/F-Einheit 504 einschließlich der Eingabeeinheit 506, und die in 21A dargestellte Ausgabeeinheit 508 oder dergleichen aufweisen.
  • Wie oben beschrieben, kann gemäß den Ausführungsformen ein 3D-Erfassungssystem bereitgestellt werden, das eine höhere Genauigkeit, eine höhere Ausgabe, Miniaturisierung und Robustheit, sowie eine höhere Anpassungsfähigkeit an Erfassungsbereiche und Erfassungsobjekte aufweist und in der Lage ist, eine Vielzahl von Erfassungsmodi zu unterstützen.
  • [Andere Ausführungsformen]
  • Die vorliegenden Ausführungsformen wurden durch die Ausführungsformen als eine Offenbarung beschrieben, die eine zugehörige Beschreibung und Zeichnungen aufweist, die als veranschaulichend und nicht als einschränkend zu verstehen sind. Diese Offenbarung macht für den Fachmann eine Vielzahl von alternativen Ausführungsformen, Arbeitsbeispielen und Betriebstechniken deutlich.
  • Wenn dies der Fall ist, decken die Ausführungsformen eine Vielzahl von Ausführungsformen ab, ob beschrieben oder nicht.
  • INDUSTRIELLE ANWENDBARKEIT
  • Das 3D-Erfassungssystem gemäß den Ausführungsformen ist beispielsweise als Erfassungstechnologie zum Unterstützen des sicheren Fahrens von Fahrzeugen verfügbar, wie beispielsweise ein fahrzeuginterner Sensor, der dazu ausgebildet ist, den Abstand zu und die Form von Messobjekten, die um die Fahrzeuge herum vorhanden sind, zu erfassen; und ist darüber hinaus auch als Sensortechnologie zur Realisierung fortschrittlicher automatischer Fahrsysteme erhältlich. Darüber hinaus ist es nicht nur auf Fahrzeuge, sondern auch auf Flugzeuge, Satelliten, Raumfahrzeuge, Schiffe usw. anwendbar. Darüber hinaus ist es auch auf eine Vielzahl von Gebieten, einschließlich Geologie, Seismologie und Ozeanographie, anwendbar.
  • Bezugszeichenliste
  • 10, 120AR, 202
    oberflächenemittierendes Laser- (SEL) Zellenarray mit zweidimensionalem photonischen Kristall (2D-PC)
    12
    Treibereinheit
    14
    Steuervorrichtung
    16
    Abbildungsobjektiv
    18, 302
    Bildsensor
    20, 400
    Signalverarbeitungseinheit
    22
    Abstandsberechnungseinheit
    2411, 24I2
    Lichtempfangsposition
    24T, 24T1, 24T2, 700
    Messobjekt
    100
    3D-Erfassungssystem
    118PD
    Fotodiode (PD)
    118PDAR
    zweidimensionales Fotodioden- (2D-PD) Zellenarray
    120
    oberflächenemittierende Laser- (SEL) Zelle mit zweidimensionalem photonischen Kristall (2D-PC)
    130
    Rückkopplungssteuereinheit
    140AR
    Treibereinheit für zweidimensionale Fotodioden (2D-PD)
    200
    Signalsendeeinheit
    203
    PWM-Modulations-Steuervorrichtung
    204
    FBPD-Array
    205
    Phasendifferenz-Erkennungseinheit
    250
    Blitzlichtquelle (FL-Quelle)
    251T
    transparente Elektrode
    252
    fensterförmige Elektrode (obere Elektrode)
    300
    Signalempfangseinheit
    304
    optisches System
    350
    Flugzeit- (TOF) Kamera
    402
    2D-PC-Zellenarray-Treibereinheit
    404
    Senderichtungs-Erkennungseinheit
    405
    Sende-/Empfangsrichtungs-Erkennungseinheit
    406
    Empfangsrichtungs-Erkennungseinheit
    407, 502
    Einheit für künstliche Intelligenz (Kl)
    408
    Steuereinheit (CPU)
    410
    3D-Bildspeicher
    412
    Abstandsdetektionseinheit
    414
    Objekterkennungslogik
    415
    Blitzlichtquellen-Treibereinheit (FL-Treibereinheit)
    500
    Hauptsteuereinheit (MCPU)
    504
    Benutzer-I/F-Einheit
    506
    Eingabeeinheit
    508
    Ausgabeeinheit
    600
    Flugzeit- (TOF) Abstandsmesssystem
    3021
    Lichtempfangseinheit
    3022
    vertikales Schieberegister
    3023
    Bias-Erzeugungsschaltung
    3024
    Zeitschaltkreis
    3025
    Abtast- und Halteschaltung
    3026
    horizontales Schieberegister
    3027A, 3027B
    Pufferverstärker
    4022
    Betriebsauswahleinheit
    4024
    LiDAR-Betriebssteuervorrichtung
    4026
    Blitz-LiDAR-Steuereinheit
    4028
    Steuervorrichtung für strukturierte Lichtschnitte
    4121
    Abstandberechnungsschaltung
    4122
    Abstandsdaten-Erfassungseinheit

Claims (31)

  1. Dreidimensionales Erfassungssystem, aufweisend: ein photonisches Kristalllaserarray, in dem ein photonisches Kristalllaserelement in einer Ebene angeordnet ist; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Treibereinheit, die dazu ausgebildet ist, eine Treibersteuerung des photonischen Kristalllaserarrays gemäß dem von der Steuereinheit gesteuerten Betriebsmodus auszuführen; eine Lichtempfangseinheit, die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das von dem photonischen Kristalllaserarray emittiertes Laserlicht ist, das von einem Messobjekt reflektiert wird; eine Signalverarbeitungseinheit, die dazu ausgebildet ist, eine Signalverarbeitung des von der Signalempfangseinheit empfangenen reflektierten Lichts gemäß dem Betriebsmodus auszuführen; und eine Abstandsberechnungseinheit, die dazu ausgebildet ist, eine Berechnungsverarbeitung eines Abstands zu dem Messobjekt in Bezug auf ein von der Signalverarbeitungseinheit verarbeitetes Signal gemäß dem Betriebsmodus auszuführen und ein Berechnungsergebnis als Abstandsdaten auszugeben.
  2. Dreidimensionales Erfassungssystem nach Anspruch 1, ferner aufweisend: eine transparente Elektrode oder eine DBR-Schicht, die durch ein rückgekoppeltes Laserlicht hindurchgeht; und eine Fotodiode, die dazu ausgebildet ist, das rückgekoppelte Laserlicht zu detektieren, wobei die Treibereinheit eine Variation der Lichtintensität in dem photonischen Kristalllaserarray basierend auf dem rückgekoppelten Laserlicht detektiert und eine Treibersteuerung so ausführt, dass ein Injektionsstrom für jede Zelle des photonischen Kristalllaserarrays geändert wird.
  3. Dreidimensionales Erfassungssystem nach Anspruch 1 oder 2, wobei die Lichtempfangseinheit eine Abbildungslinse und einen Bildsensor aufweist, wobei die Abstandsberechnungseinheit den Abstand zu dem Messobjekt basierend auf einer Lichtempfangsposition auf einer Abbildungsfläche des Bildsensors und einer Zeit von der Lichtemission bis zum Lichtempfang des Laserlichts, das von dem photonischen Kristalllaserarray emittiert wird, gemäß mit dem von der Steuereinheit gesteuerten Betriebsmodus berechnet, und ein Berechnungsergebnis als Abstandsdaten ausgibt.
  4. Dreidimensionales Erfassungssystem nach Anspruch 3, wobei der Betriebsmodus einen LiDAR-Betriebsmodus, einen Blitz-LiDAR-Betriebsmodus und einen Lichtschnittverfahren-Betriebsmodus aufweist.
  5. Dreidimensionales Erfassungssystem nach Anspruch 4, wobei wenn der Betriebsmodus der LiDAR-Betriebsmodus ist, die Treibereinheit die Treibersteuerung des photonischen Kristalllaserarrays so ausführt, dass ein Zweifachstrahl von einem Element des photonischen Kristalllaserarrays emittiert wird.
  6. Dreidimensionales Erfassungssystem nach Anspruch 5, wobei die Abstandsberechnungseinheit bestimmt, welcher Strahl des emittierten Lichts das reflektierte Licht ist, basierend auf der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors, wenn das reflektierte Licht detektiert wird, und die Zeit ab der Emission des Laserlichts bis zum Lichtempfang misst.
  7. Dreidimensionales Erfassungssystem nach Anspruch 4, wobei wenn der Betriebsmodus der Blitz-LiDAR-Betriebsmodus ist, die Treibereinheit die Treibersteuerung des photonischen Kristalllaserarrays so ausführt, dass das Laserlicht gleichzeitig von einer Vielzahl von Elementen des photonischen Kristalllaserarrays in einen spezifischen Bereich emittiert wird.
  8. Dreidimensionales Erfassungssystem nach Anspruch 7, wobei die Abstandsberechnungseinheit die Zeit von der Emission bis zum Lichtempfang in jedem Pixel des Bildsensors misst, wenn das reflektierte Licht detektiert wird.
  9. Dreidimensionales Erfassungssystem nach Anspruch 4, wobei wenn der Betriebsmodus der Lichtschnittverfahren-Betriebsmodus ist, die Treibereinheit die Treibersteuerung des photonisches Kristalllaserarrays ausführt, um das Messobjekt mit streifenförmigem Laserlicht zu bestrahlen, das von dem photonischen Kristalllaserarray erzeugt wird.
  10. Dreidimensionales Erfassungssystem nach Anspruch 9, wobei die Abstandsberechnungseinheit, wenn das reflektierte Licht detektiert wird, ein Bild aus reflektiertem Licht als ein Abbildungsmuster erhält, eine Triangulationsmessung mit dem Abbildungsmuster durchführt, den Abstand zu dem Messobjekt berechnet, und dreidimensionale Abstandsdaten für eine Linie des streifenförmigen Lichts erhält.
  11. Dreidimensionales Erfassungssystem, aufweisend: eine Signalsendeeinheit, die ein zweidimensionales oberflächenemittierendes photonisches Kristalllaserzellenarray aufweist, das dazu ausgebildet ist, Laserlicht auf ein Messobjekt zu emittieren; eine Signalempfangseinheit, die ein optisches System und einen Bildsensor, der dazu ausgebildet ist, reflektiertes Licht zu empfangen, das von der Signalsendeeinheit emittiert und von dem Messobjekt reflektiert wird, aufweist; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Lichtquelle des Laserlichts zu steuern; eine Senderichtungs-Erkennungseinheit, die dazu ausgebildet ist, eine Emissionsrichtung des Laserlichts zu erkennen, das von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittiert wird; eine Treibereinheit für ein zweidimensionales photonisches Kristallzellenarray, die dazu ausgebildet ist, eine Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays basierend auf der Emissionsrichtung des von der Senderichtungs-Erkennungseinheit erkannten Laserlichts gemäß dem Betriebsmodus auszuführen; und eine Signalverarbeitungseinheit, die eine Abstandsdetektionseinheit aufweist, die dazu ausgebildet ist, einen Abstand zu dem Messobjekt basierend auf einer Lichtempfangsposition auf einer Abbildungsfläche des Bildsensors und einer Zeit von der Lichtemission bis zum Lichtempfang gemäß dem Betriebsmodus zu berechnen.
  12. Dreidimensionales Erfassungssystem nach Anspruch 11, wobei die Signalsendeeinheit ferner ein Rückkopplungs-Fotodioden-Array aufweist, das dazu ausgebildet ist, eine Rückkopplungssteuerung des emittierten Laserlichts auszuführen, wobei die Senderichtungs-Erkennungseinheit eine Emissionsrichtung des von der Signalsendeeinheit emittierten Laserlichts gemäß Rückkopplungs-Informationen erkennt, die von dem Rückkopplungs-Fotodioden-Array bereitgestellt werden.
  13. Dreidimensionales Erfassungssystem nach Anspruch 12, wobei die Signalverarbeitungseinheit ferner eine Empfangsrichtungs-Erkennungseinheit aufweist, die dazu ausgebildet ist, eine Empfangsrichtung des reflektierten Lichts basierend auf der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors zu erkennen, wobei die Treibereinheit für das zweidimensionale photonische Kristallzellenarray die Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays basierend auf der Emissionsrichtung des Laserlichts, die von der Senderichtungs-Erkennungseinheit erkannt wird, und der Empfangsrichtung des reflektierten Lichts, die von der Empfangsrichtungs-Erkennungseinheit erkannt wird, ausführt.
  14. Dreidimensionales Erfassungssystem nach einem der Ansprüche 11-13, wobei die Signalverarbeitungseinheit ferner eine Objekterkennungslogik aufweist, die dazu ausgebildet ist, das Messobjekt basierend auf einem Berechnungsergebnis der Abstandsdetektionseinheit zu identifizieren.
  15. Dreidimensionales Erfassungssystem nach einem der Ansprüche 11-14, ferner aufweisend eine Hauptsteuereinheit, die dazu ausgebildet ist, das gesamte Hauptsystem zu steuern, in dem das dreidimensionale Erfassungssystem montiert ist.
  16. Dreidimensionales Erfassungssystem nach Anspruch 15, wobei die Signalverarbeitungseinheit eine 3D-Bildspeichereinheit aufweist, die dazu ausgebildet ist, von dem Bildsensor aufgenommene Bilddaten zu speichern, wobei das dreidimensionale Erfassungssystem ferner eine künstliche Intelligenzeinheit aufweist, die dazu ausgebildet ist, ein Erfassungsergebnis des dreidimensionalen Erfassungssystems basierend auf den in der 3D-Bildspeichereinheit gespeicherten und akkumulierten Bilddaten zu lernen und die von dem dreidimensionalen Erfassungssystem ausgeführte Erfassungsverarbeitung zu unterstützen.
  17. Dreidimensionales Erfassungssystem nach Anspruch 15 oder 16, ferner aufweisend eine Benutzerschnittstelleneinheit, die mit der Hauptsteuereinheit verbunden ist, wobei die Benutzerschnittstelleneinheit eine Eingabeeinheit für einen Benutzer, um eine Anweisung in das dreidimensionale Erfassungssystem einzugeben, und eine Ausgabeeinheit zum Darstellen der durch das dreidimensionale Erfassungssystem detektierten Benutzererfassungsinformationen aufweist.
  18. Dreidimensionales Erfassungssystem nach einem der Ansprüche 11-17, wobei der Betriebsmodus einen LiDAR-Betriebsmodus, einen Blitz-LiDAR-Betriebsmodus und einen Lichtschnittverfahren-Betriebsmodus aufweist.
  19. Dreidimensionales Erfassungssystem nach Anspruch 18, wobei wenn der Betriebsmodus der LiDAR-Betriebsmodus ist, die Treibereinheit für das zweidimensionale photonische Kristallzellenarray die Treibersteuerung der Treibereinheit für das zweidimensionale photonische Kristallzellenarray so ausführt, dass ein Zweifachstrahl von einem Element der Treibereinheit für das zweidimensionale photonische Kristallzellenarray emittiert wird.
  20. Dreidimensionales Erfassungssystem nach Anspruch 19, wobei die Abstandsdetektionseinheit bestimmt, welcher Strahl des emittierten Lichts das reflektierte Licht ist, basierend auf der Lichtempfangsposition auf der Abbildungsfläche des Bildsensors, wenn das reflektierte Licht detektiert wird, und die Zeit ab der Emission des Laserlichts bis zum Lichtempfang misst.
  21. Dreidimensionales Erfassungssystem nach Anspruch 18, wobei wenn der Betriebsmodus der Blitz-LiDAR-Betriebsmodus ist, die Treibereinheit für das zweidimensionale photonische Kristallzellenarray die Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays so ausführt, dass das Laserlicht gleichzeitig zu einem spezifischen Bereich von einer Vielzahl von Elementen des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays emittiert wird.
  22. Dreidimensionales Erfassungssystem nach Anspruch 21, wobei die Abstandsdetektionseinheit die Zeit von der Emission bis zum Lichtempfang in jedem Pixel des Bildsensors misst, wenn das reflektierte Licht detektiert wird.
  23. Dreidimensionales Erfassungssystem nach Anspruch 18, wobei wenn der Betriebsmodus der Lichtschnittverfahren-Betriebsmodus ist, die Treibereinheit für das zweidimensionale photonische Kristallzellenarray die Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays ausführt, um das Messobjekt mit streifenförmigem Laserlicht zu bestrahlen, das durch das zweidimensionale oberflächenemittierende photonische Kristalllaserzellenarray erzeugt wird.
  24. Dreidimensionales Erfassungssystem nach Anspruch 23, wobei die Abstandsdetektionseinheit, wenn das reflektierte Licht detektiert wird, ein Bild aus reflektiertem Licht als ein Abbildungsmuster erhält, eine Triangulationsmessung mit dem Abbildungsmuster ausführt, den Abstand zu dem Messobjekt berechnet, und dreidimensionale Abstandsdaten für eine Linie des streifenförmigen Lichts erhält.
  25. Dreidimensionales Erfassungssystem, aufweisend: eine Blitzlichtquelle, die dazu ausgebildet ist, Laserlicht auf eine gesamte Fläche einer spezifischen Region zu emittieren; ein zweidimensionales oberflächenemittierendes photonisches Kristalllaserzellenarray, das dazu ausgebildet ist, das Laserlicht zu einer Zielregion der spezifischen Region zu emittieren; eine Steuereinheit, die dazu ausgebildet ist, einen Betriebsmodus einer Laserlichtquelle zu steuern; eine Blitztreibereinheit, die dazu ausgebildet ist, eine Treibersteuerung der Blitzlichtquelle auszuführen, und eine Treibereinheit für ein zweidimensionales photonisches Kristallzellenarray, die dazu ausgebildet ist, eine Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays auszuführen, gemäß dem von der Steuereinheit gesteuerten Betriebsmodus; eine Signalempfangseinheit, die dazu ausgebildet ist, reflektiertes Licht zu empfangen, das das von der Blitzlichtquelle emittierte und von einem Messobjekt, das in der spezifischen Region enthalten ist, reflektierte Laserlicht ist, und reflektiertes Licht zu empfangen, das das von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittierte Laserlicht ist, das von dem Messobjekt reflektiert wird, das in der Zielregion enthalten ist; eine Signalverarbeitungseinheit, die dazu ausgebildet ist, eine Signalverarbeitung des reflektierten Lichts, das die Signalempfangseinheit empfangen hat, gemäß dem Betriebsmodus auszuführen; und eine Abstandsdetektionseinheit, die dazu ausgebildet ist, eine Berechnungsverarbeitung des Abstands zu dem Messobjekt in Bezug auf das von der Signalverarbeitungseinheit verarbeitete Signal gemäß dem Betriebsmodus auszuführen, wobei die Signalverarbeitungseinheit bestimmt, ob es eine Region gibt oder nicht, in der das Signal-Rausch-Verhältnis des reflektierten Lichts, das von der Blitzlichtquelle emittiert und reflektiert wird, niedriger als der vorbestimmte Schwellenwert in der spezifischen Region ist, wobei wenn es eine Region gibt, in der das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, die Signalverarbeitungseinheit die Treibereinheit für das zweidimensionale photonische Kristallzellenarray steuert, um nur die Region, in der das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, als ein Ziel mit Punktlaserlicht aus dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray zu bestrahlen.
  26. Dreidimensionales Erfassungssystem nach Anspruch 25, wobei die Signalverarbeitungseinheit bestimmt, ob es eine Region gibt, in der das Signal-Rausch-Verhältnis des reflektierten Lichts, das punktförmig von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittiert wird und reflektiert wird, niedriger als der vorbestimmte Schwellenwert ist, wenn es eine Region gibt, in der das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, die Signalverarbeitungseinheit als Ergebnis der Bestimmung die Treibereinheit für das zweidimensionale photonische Kristallzellenarray steuert, um die von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray emittierte Lichtintensität zu erhöhen, und nur die Region, in der das Signal-Rausch-Verhältnis niedriger als der vorbestimmte Schwellenwert ist, als Ziel mit Punktlaserlicht von dem zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarray zu bestrahlen.
  27. Dreidimensionales Erfassungssystem nach Anspruch 25 oder 26, wobei der Betriebsmodus einen Blitzbetriebsmodus und einen LiDAR-Betriebsmodus aufweist.
  28. Dreidimensionales Erfassungssystem nach Anspruch 27, wobei die Blitztreibereinheit eine Treibersteuerung der Blitzlichtquelle ausführt, wenn der Betriebsmodus der Blitzbetriebsmodus ist.
  29. Dreidimensionales Erfassungssystem nach Anspruch 27, wobei die Treibereinheit für das zweidimensionale photonische Kristallzellenarray eine Treibersteuerung des zweidimensionalen oberflächenemittierenden photonischen Kristalllaserzellenarrays ausführt, wenn der Betriebsmodus der LiDAR-Betriebsmodus ist.
  30. Dreidimensionales Erfassungssystem nach einem der Ansprüche 25-29, ferner aufweisend eine Linse oder ein Diffusor zur Streuung des von der Blitzlichtquelle emittierten Laserlichts.
  31. Dreidimensionales Erfassungssystem nach Anspruch 30, wobei die Linse eine Kugellinse, eine Gradientenindexlinse, oder eine Linse, die durch Kombination einer Vielzahl von Linsen erhalten wird, aufweist.
DE112020003295.7T 2019-07-11 2020-07-10 Dreidimensionales erfassungssystem Pending DE112020003295T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019129075 2019-07-11
JP2019-129075 2019-07-11
JP2020-059842 2020-03-30
JP2020059842A JP2021015113A (ja) 2019-07-11 2020-03-30 3次元センシングシステム
PCT/JP2020/027059 WO2021006338A1 (ja) 2019-07-11 2020-07-10 3次元センシングシステム

Publications (1)

Publication Number Publication Date
DE112020003295T5 true DE112020003295T5 (de) 2022-04-07

Family

ID=74115249

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020003295.7T Pending DE112020003295T5 (de) 2019-07-11 2020-07-10 Dreidimensionales erfassungssystem

Country Status (3)

Country Link
US (1) US20220128696A1 (de)
DE (1) DE112020003295T5 (de)
WO (1) WO2021006338A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022127877A1 (de) 2022-10-21 2024-05-02 Ams-Osram International Gmbh Oszillatorschaltung und verfahren

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114296094B (zh) * 2021-12-31 2023-07-14 探维科技(苏州)有限公司 一种雷达检测方法、装置、系统及介质
WO2023181308A1 (ja) * 2022-03-24 2023-09-28 株式会社ソニー・インタラクティブエンタテインメント コンピュータシステム、方法およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006278662A (ja) * 2005-03-29 2006-10-12 Nec Corp 光通信用光源
JP2012088169A (ja) * 2010-10-19 2012-05-10 Nikon Corp 距離情報取得装置および撮像装置
US8970827B2 (en) * 2012-09-24 2015-03-03 Alces Technology, Inc. Structured light and time of flight depth capture with a MEMS ribbon linear array spatial light modulator
US10503265B2 (en) * 2015-09-08 2019-12-10 Microvision, Inc. Mixed-mode depth detection
JP6789541B2 (ja) * 2017-03-17 2020-11-25 スタンレー電気株式会社 レーザーレーダー装置
US11296484B2 (en) * 2017-05-16 2022-04-05 The Regents Of The University Of California Photonic generation and steering of coherent vortex beams
WO2019020395A1 (en) * 2017-07-24 2019-01-31 Lumileds Holding B.V. VCSEL SET

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022127877A1 (de) 2022-10-21 2024-05-02 Ams-Osram International Gmbh Oszillatorschaltung und verfahren

Also Published As

Publication number Publication date
US20220128696A1 (en) 2022-04-28
WO2021006338A1 (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
DE112020003295T5 (de) Dreidimensionales erfassungssystem
EP3557284A2 (de) Optoelektronischer sensor und verfahren zur abstandsbestimmung
EP3168641B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE202017007509U1 (de) Optisches System zur Sammlung von Entfernungsinformationen in einem Feld
EP3581958B1 (de) Optoelektronischer sensor und verfahren zur erfassung von dreidimensionalen bilddaten
DE112019004770T5 (de) Verbesserte Beleuchtungseinrichtung
DE10301971A1 (de) Positionsbestimmungsvorrichtung
EP3633405A1 (de) Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren
DE102018108340A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
CN109343025A (zh) 一种激光雷达的发射系统、探测系统及探测方法
DE112018001611T5 (de) Lichtemittierendes halbleiterelement und verfahren zur herstellung eines lichtemittierenden halbleiterelements
DE102018222721A1 (de) LIDAR-Sensor für ein LIDAR-System
EP2753267A1 (de) Verfahren und vorrichtung zur dreidimensionalen konfokalen vermessung
DE202016005126U1 (de) Optische Vorrichtung
DE102015122627A1 (de) Optoelektronische Anordnung und Tiefenerfassungssystem
DE102019105478A1 (de) LIDAR-Sensoren und Verfahren für dieselben
DE102008059665A1 (de) Optischer Modulator, optisches Modulatormodul und diese enthaltende Abtastanzeigevorrichtung
DE102019125684B4 (de) Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
DE102019133135B4 (de) Lidar-sensor
WO2022089936A1 (de) Fmcw-lidar-system
EP3519858A1 (de) Abtasteinheit einer optischen sende- und empfangseinrichtung einer optischen detektionsvorrichtung eines fahrzeugs
DE112020005353T5 (de) Lichtquelle, Sensor und Verfahren zum Beleuchten einer Szene
DE102017205474B4 (de) Vorrichtung, beispielsweise für einen LIDAR-Sensor, zum Erzeugen von variablen Interferenzmustern und Verfahren zum Betreiben einer solchen Vorrichtung
DE102017107821A1 (de) Anordnung mit wenigstens zwei laserdioden und diffraktivem element
EP4307005A1 (de) Detektionsvorrichtung

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)