DE112022003129T5 - Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung - Google Patents

Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung Download PDF

Info

Publication number
DE112022003129T5
DE112022003129T5 DE112022003129.8T DE112022003129T DE112022003129T5 DE 112022003129 T5 DE112022003129 T5 DE 112022003129T5 DE 112022003129 T DE112022003129 T DE 112022003129T DE 112022003129 T5 DE112022003129 T5 DE 112022003129T5
Authority
DE
Germany
Prior art keywords
light
irradiation
irradiation light
light source
emitted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022003129.8T
Other languages
English (en)
Inventor
Takahiro KADO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112022003129T5 publication Critical patent/DE112022003129T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Technologie bezieht sich auf eine Lichtquellen-Steuerungsvorrichtung, ein Lichtquellen-Steuerungsverfahren und eine Abstandsmessvorrichtung, die die Auflösung einer Abstandsmessvorrichtung verbessern können, die eine Lichtquelle mit einer Vielzahl lichtemittierender Bereiche nutzt.Die Lichtquellen-Steuerungsvorrichtung umfasst eine Lichtquellen-Steuerungseinheit, die eine Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt ansteuert, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt. Die vorliegende Technologie kann beispielsweise für LiDAR verwendet werden.

Description

  • [Technisches Gebiet]
  • Die vorliegende Technologie bezieht sich auf eine Lichtquellen-Steuerungsvorrichtung, ein Lichtquellen-Steuerungsverfahren und eine Abstandsmessvorrichtung und bezieht sich insbesondere auf eine Lichtquellen-Steuerungsvorrichtung, ein Lichtquellen-Steuerungsverfahren und eine Abstandsmessvorrichtung, die die Auflösung der Abstandsmessvorrichtung verbessern.
  • [Hintergrundtechnik]
  • Herkömmlicherweise wurde vorgeschlagen, eine Lichtquelle, die eine Vielzahl lichtemittierender Bereiche (zum Beispiel eine Vielzahl an Laserdioden) enthält, in einer Abstandsmessvorrichtung zu verwenden (siehe zum Beispiel PTL 1).
  • [Zitatliste]
  • [Patentliteratur]
  • [PTL 1] JP 2020-118569A
  • [Zusammenfassung]
  • [Technisches Problem]
  • In der in PTL 1 beschriebenen Erfindung wird jedoch ein Verfahren zum Steuern einer Vielzahl lichtemittierender Bereiche nicht besonders untersucht.
  • Die vorliegende Technologie wurde im Hinblick auf diese Situation entwickelt und soll die Auflösung einer Abstandsmessvorrichtung verbessern, die eine Lichtquelle mit einer Vielzahl lichtemittierender Bereiche nutzt.
  • [Lösung für das Problem]
  • Eine Lichtquellen-Steuerungsvorrichtung gemäß einem ersten Aspekt der vorliegenden Technologie enthält eine Lichtquellen-Steuerungseinheit, die eine Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt ansteuert, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
  • Ein Lichtquellen-Steuerungsverfahren gemäß einem ersten Aspekt der vorliegenden Technologie umfasst das Ansteuern einer Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt, das Veranlassen, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und das Einstellen eines Emissionsintervalls von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt.
  • Im ersten Aspekt der vorliegenden Technologie wird das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und wird das Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt eingestellt.
  • Eine Abstandsmessvorrichtung gemäß einem zweiten Aspekt der vorliegenden Technologie umfasst eine Lichtquelle, in der (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, eine Lichtquellen-Steuerungseinheit, die die Lichtquelle in Einheiten einer vorbestimmten Zeit Δt ansteuert, eine Scan-Einheit, die das Bestrahlungslicht in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung scannt, eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht des eingestrahlten Lichts enthält, und eine Abstandsmesseinheit, die einen Abstand basierend auf dem einfallenden Licht misst, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in der dritten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
  • Im zweiten Aspekt der vorliegenden Technologie wird das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und wird das Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt eingestellt.
  • [Kurze Beschreibung der Zeichnungen]
    • [1] 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuerungssystems darstellt.
    • [2] 2 ist ein Diagramm, das ein Beispiel für Erfassungsbereiche darstellt.
    • [3] 3 ist ein Blockdiagramm, das eine Ausführungsform eines LiDAR darstellt, für das die vorliegende Technologie verwendet wird.
    • [4] 4 ist ein Diagramm, das ein Beispiel der Konfiguration von LD-Kanälen darstellt.
    • [5] 5 ist eine Draufsicht eines optischen LiDAR-Systems.
    • [6] 6 ist eine grafische Darstellung, die ein erstes Beispiel für eine Emissionszeitsteuerung bzw. einen Emissionszeitpunkt eines Bestrahlungslichts von jedem Kanal darstellt.
    • [7] 7 ist ein Diagramm, das ein erstes Beispiel der Bestrahlungsrichtung des Bestrahlungslichts jedes Kanals darstellt.
    • [8] 8 ist eine grafische Darstellung, die ein zweites Beispiel für den Emissionszeitpunkt des Bestrahlungslichts von jedem Kanal darstellt.
    • [9] 9 ist eine grafische Darstellung, die ein drittes Beispiel für den Emissionszeitpunkt des Bestrahlungslichts von jedem Kanal darstellt.
    • [10] 10 ist ein Diagramm, das ein zweites Beispiel der Bestrahlungsrichtung des Bestrahlungslichts von jedem Kanal darstellt.
    • [11] 11 ist eine grafische Darstellung, die ein viertes Beispiel für den Emissionszeitpunkt des Bestrahlungslichts von jedem Kanal darstellt.
    • [12] 12 ist eine grafische Darstellung, die ein fünftes Beispiel für den Emissionszeitpunkt des Bestrahlungslichts von jedem Kanal darstellt.
    • [13] 13 ist eine grafische Darstellung, die ein sechstes Beispiel des Emissionszeitpunkts des Bestrahlungslichts von jedem Kanal darstellt.
  • [Beschreibung von Ausführungsformen]
  • Eine Ausführungsform zum Implementieren der vorliegenden Technik wird unten beschrieben. Die Beschreibung wird in der folgenden Reihenfolge vorgenommen.
    1. 1. Konfigurationsbeispiel eines Fahrzeugsteuerungssystems
    2. 2. Ausführungsform
    3. 3. Modifikationsbeispiel
    4. 4. Sonstiges
  • <<1. Konfigurationsbeispiel eines Fahrzeugsteuerungssystems>>
  • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuerungssystems 11 darstellt, bei dem es sich um ein Beispiel eines Steuerungssystems für eine mobile Vorrichtung handelt, für die die vorliegende Technologie verwendet werden soll.
  • Das Fahrzeugsteuerungssystem 11 ist in einem Fahrzeug 1 vorgesehen und führt eine Verarbeitung in Bezug auf die Fahrunterstützung und automatisiertes Fahren des Fahrzeugs 1 durch.
  • Das Fahrzeugsteuerungssystem 11 umfasst eine ECU (elektronische Steuerungseinheit; Electronic Control Unit) 21 der Fahrzeugsteuerung, eine Kommunikationseinheit 22, eine Karteninformations-Speichereinheit 23, eine Positionsinformations-Erfassungseinheit 24, einen Sensor 25 zur externen Erkennung, einen bordeigenen bzw. fahrzeuginternen Sensor 26, einen Fahrzeugsensor 27, eine Speichereinheit 28, eine Steuerungseinheit 29 für Fahrunterstützung/automatisiertes Fahren, ein DMS (Fahrerüberwachungssystem; Driver Monitoring System) 30, eine HMI (Mensch-Maschine-Schnittstelle; Human Machine Interface) 31 und eine Fahrzeug-Steuerungseinheit 32.
  • Die ECU 21 der Fahrzeugsteuerung, die Kommunikationseinheit 22, die Karteninformations-Speichereinheit 23, die Positionsinformations-Erfassungseinheit 24, der Sensor 25 zur externen Erkennung, der fahrzeuginterne Sensor 26, der Fahrzeugsensor 27, die Speichereinheit 28, die Steuerungseinheit 29 für Fahrunterstützung/automatisiertes Fahren, das Fahrerüberwachungssystem (DMS) 30, die Mensch-Maschine-Schnittstelle (HMI) 31 und die Fahrzeug-Steuerungseinheit 32 sind über ein Kommunikationsnetzwerk 41 so verbunden, dass sie miteinander kommunizieren können. Das Kommunikationsnetzwerk 41 wird von einem im Fahrzeug montierten Kommunikationsnetzwerk, das mit digitalen Zweiwege-Kommunikationsstandards kompatibel ist, wie etwa CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (eingetragenes Warenzeichen) und Ethernet (eingetragenes Warenzeichen), einem Bus und dergleichen gebildet. Das Kommunikationsnetzwerk 41 kann je nach der Art von zu übertragenden Daten unterschiedlich genutzt werden. Beispielsweise kann CAN für Daten in Bezug auf die Fahrzeugsteuerung verwendet werden und kann Ethernet für Daten mit großer Kapazität genutzt werden. Man beachte, dass jede Einheit des Fahrzeugsteuerungssystems 11 unter Verwendung einer drahtlosen Kommunikation, die eine Kommunikation über eine verhältnismäßig kurze Distanz unterstellt, wie etwa beispielsweise einer Nahfeldkommunikation (NFC) oder Bluetooth (eingetragenes Warenzeichen) direkt verbunden werden kann, ohne das Kommunikationsnetzwerk 41 einzubeziehen.
  • Wenn jede Einheit des Fahrzeugsteuerungssystems 11 über das Kommunikationsnetzwerk 41 kommunizieren soll, wird hierin im Folgenden eine Beschreibung des Kommunikationsnetzwerks 41 weggelassen. Wenn beispielsweise die ECU 21 der Fahrzeugsteuerung und die Kommunikationseinheit 22 eine Kommunikation über das Kommunikationsnetzwerk 41 durchführen, wird einfach festgestellt, dass die ECU 21 der Fahrzeugsteuerung und die Kommunikationseinheit 22 eine Kommunikation durchführen bzw. kommunizieren.
  • Die ECU 21 der Fahrzeugsteuerung wird von beispielsweise verschiedenen Prozessoren wie etwa einer CPU (zentrale Verarbeitungseinheit; Central Processing Unit) und einer MPU (Mikroverarbeitungseinheit; Micro Processing Unit) gebildet. Die ECU 21 der Fahrzeugsteuerung steuert die gesamten, oder einen Teil der, Funktionen des Fahrzeugsteuerungssystems 11.
  • Die Kommunikationseinheit 22 kommuniziert mit verschiedenen Vorrichtungen innerhalb und außerhalb des Fahrzeugs, anderen Fahrzeugen, Servern, Basisstationen und dergleichen und führt eine Übertragung/einen Empfang verschiedener Arten von Daten durch. Zu dieser Zeit kann die Kommunikationseinheit 22 eine Kommunikation unter Verwendung einer Vielzahl von Kommunikationsverfahren durchführen.
  • Die Kommunikation mit der äußeren Umgebung bzw. Außenwelt des Fahrzeugs, die mittels der Kommunikationseinheit 22 durchgeführt werden kann, wird schematisch erläutert. Die Kommunikationseinheit 22 kommuniziert mit einem im externen Netzwerk befindlichen Server (worauf hier im Folgenden als externer Server verwiesen wird) über eine Basisstation oder einen Zugangspunkt unter Verwendung eines drahtlosen Kommunikationsverfahrens wie etwa 5G (Mobilfunk-Kommunikationssystem der fünften Generation; fifth-generation mobile communication system), LTE (Long Term Evolution) oder DSRC (Dedicated Short Range Communications). Das externe Netzwerk, mit dem die Kommunikationseinheit 22 kommuniziert, ist beispielsweise das Internet, ein Cloud-Netzwerk oder ein für einen Betreiber spezifisches Netzwerk. Das Kommunikationsverfahren, das die Kommunikationseinheit 22 mit dem externen Netzwerk durchführt, ist nicht sonderlich beschränkt, solange es sich um ein drahtloses Kommunikationsverfahren handelt, das eine digitale Zweiwege-Kommunikation mit einer vorbestimmten Kommunikationsgeschwindigkeit oder höher und über eine vorbestimmte Distanz oder länger ermöglicht.
  • Darüber hinaus kann die Kommunikationseinheit 22 beispielsweise mit einem in der Nähe des Host-Fahrzeugs befindlichen Endgerät unter Verwendung einer P2P-(Peer To Peer-)Technologie kommunizieren. Endgeräte, die in der Nähe des Host-Fahrzeugs vorhanden sind, umfassen beispielsweise Endgeräte, die von sich bewegenden Objekten, die sich mit verhältnismäßig geringen Geschwindigkeiten bewegen, wie etwa Fußgängern und Fahrrädern getragen werden, Endgeräte, die an festen Stellen in Geschäften installiert sind, oder MTC-(Machine Type Communication-)Endgeräte. Darüber hinaus kann die Kommunikationseinheit 22 auch eine V2X-Kommunikation durchführen. V2X-Kommunikation bezieht sich auf eine Kommunikation zwischen dem Host-Fahrzeug und einem anderen Fahrzeug wie etwa beispielsweise eine Fahrzeug-Fahrzeug-Kommunikation mit einem anderen Fahrzeug, eine Fahrzeug-Infrastruktur-Kommunikation mit straßenseitigen Vorrichtungen oder dergleichen, eine Fahrzeug-Heim-Kommunikation mit dem eigenen Heim und eine Fahrzeug-Fußgänger-Kommunikation mit Endgeräten, die Fußgänger oder dergleichen besitzen.
  • Die Kommunikationseinheit 22 kann beispielsweise ein Programm zum Aktualisieren einer Software, die den Betrieb des Fahrzeugsteuerungssystems 11 steuert, von außen (over the air) empfangen. Die Kommunikationseinheit 22 kann ferner Karteninformationen, Verkehrsinformationen, Informationen über die Umgebung des Fahrzeugs 1 und dergleichen von außen empfangen. Ferner kann die Kommunikationseinheit 22 beispielsweise Informationen in Bezug auf das Fahrzeug 1, Informationen über die Umgebung des Fahrzeugs 1 und dergleichen nach außen übertragen. Die Informationen in Bezug auf das Fahrzeug 1, die die Kommunikationseinheit 22 nach außen überträgt, umfassen beispielsweise Daten, die den Zustand des Fahrzeugs 1 angeben, Erkennungsergebnisse, die durch die Erkennungseinheit 73 erhalten werden, und dergleichen. Beispielsweise führt die Kommunikationseinheit 22 eine Kommunikation, die Notfallmeldesysteme des Fahrzeugs wie etwa eCall unterstützt, durch.
  • Die Kommunikationseinheit 22 empfängt beispielsweise elektromagnetische Wellen, die mittels eines Fahrzeug-Informations- und -Kommunikationssystems (VICS (eingetragenes Warenzeichen); Vehicle Information and Communication System) unter Verwendung einer Funkbake, einer Lichtbake, eines FM-Multiplex-Rundfunks und dergleichen übertragen werden.
  • Die Kommunikation innerhalb des Fahrzeugs, die von der Kommunikationseinheit 22 ausgeführt werden kann, wird schematisch erläutert. Die Kommunikationseinheit 22 kann mit jeder Vorrichtung im Fahrzeug unter Verwendung beispielsweise einer drahtlosen Kommunikation kommunizieren. Die Kommunikationseinheit 22 kann eine drahtlose Kommunikation mit Vorrichtungen im Fahrzeug unter Verwendung eines Kommunikationsverfahrens wie etwa eines drahtlosen LAN, Bluetooth, NFC oder WUSB (Wireless USB) durchführen, das eine digitale Zweiwege-Kommunikation mit einer vorbestimmten Kommunikationsgeschwindigkeit oder höher über die drahtlose Kommunikation ermöglicht. Die Kommunikationseinheit 22 ist nicht auf diese beschränkt und kann auch mit jeder Vorrichtung im Fahrzeug unter Verwendung einer drahtgebundenen Kommunikation kommunizieren. Beispielsweise kann die Kommunikationseinheit 22 über ein mit einem (nicht dargestellten) Verbindungsendgerät verbundenes Kabel mit jeder Vorrichtung im Fahrzeug über eine drahtgebundene Kommunikation kommunizieren. Die Kommunikationseinheit 22 kann mit jeder Vorrichtung im Fahrzeug unter Verwendung eines Kommunikationsverfahrens wie etwa USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (eingetragenes Warenzeichen) und MHL (Mobile High-definition Link) kommunizieren, das eine digitale Zweiwege-Kommunikation mit einer vorbestimmten Kommunikationsgeschwindigkeit oder höher über die drahtgebundene Kommunikation ermöglicht.
  • Die fahrzeuginterne Vorrichtung bezieht sich hier auf beispielsweise eine Vorrichtung, die nicht mit dem Kommunikationsnetzwerk 41 im Fahrzeug verbunden ist. Beispiele für fahrzeuginterne Vorrichtungen umfassen mobile Vorrichtungen und tragbare Vorrichtungen, die von Insassen wie etwa Fahrern mit sich geführt werden, Informationsvorrichtungen, die in das Fahrzeug gebracht und vorübergehend installiert werden, und dergleichen.
  • Die Karteninformations-Speichereinheit 23 speichert eine von außen erlangte Karte und eine vom Fahrzeug 1 erzeugte Karte oder beide. Beispielsweise akkumuliert die Karteninformations-Speichereinheit 23 eine dreidimensionale Karte mit hoher Genauigkeit, eine globale Karte, die weniger genau als die Karte mit hoher Genauigkeit ist, die aber einen weiten Bereich abdeckt, und dergleichen.
  • Beispiele für Karten mit hoher Genauigkeit umfassen dynamische Karten, Punktwolkenkarten, Vektorkarten und dergleichen. Die dynamische Karte ist beispielsweise eine Karte, die aus vier Schichten von dynamischen Informationen, semi-dynamischen Informationen, semi-statischen Informationen und statischen Informationen besteht, und wird dem Fahrzeug 1von einem externen Server oder dergleichen bereitgestellt. Die Punktwolkenkarte ist eine Karte, die aus Punktwolken (Punktwolkendaten) besteht. Die Vektorkarte ist eine Karte, die mit ADAS (Advanced Driver Assistance System) und AD (Autonomous Driving) kompatibel ist, indem Verkehrsinformationen wie etwa Positionen von Fahrspuren und Ampeln mit einer Punktwolkenkarte verbunden bzw. assoziiert werden.
  • Die Punktwolkenkarte und die Vektorkarte können beispielsweise von einem externen Server oder dergleichen bereitgestellt oder vom Fahrzeug 1 als Karte erzeugt werden, die mit einer (später zu beschreibenden) lokalen Karte basierend auf Erfassungsergebnissen durch eine Kamera 51, ein Radar 52, ein LiDAR 53 oder dergleichen abgeglichen werden soll und in der Karteninformations-Speichereinheit 23 akkumuliert werden soll. Wenn eine Karte mit hoher Genauigkeit von einem externen Server oder dergleichen bereitgestellt werden soll, um die Kommunikationskapazität zu reduzieren, werden außerdem Kartendaten von beispielsweise einem Quadrat von mehreren hundert Metern pro Seite in Bezug auf einen geplanten Weg, der vom Fahrzeug 1 zurückgelegt werden soll, vom externen Server oder dergleichen erlangt.
  • Die Positionsinformations-Erfassungseinheit 24 empfängt von einem GNSS-(Global Navigation Satellite System-)Satelliten ein GNSS-Signal und erfasst Positionsinformationen des Fahrzeugs 1. Die erfassten Positionsinformationen werden der Steuerungseinheit 29 für Fahrunterstützung/automatisiertes Fahren bereitgestellt. Man beachte, dass die Positionsinformations-Erfassungseinheit 24 nicht auf das GNSS-Signale nutzende Verfahren beschränkt ist und Positionsinformationen beispielsweise unter Verwendung einer Bake erfassen kann.
  • Der Sensor 25 zur externen Erkennung umfasst verschiedene Sensoren, die verwendet werden, um eine Situation außerhalb des Fahrzeugs 1 zu erkennen, und versorgt jede Einheit des Fahrzeugsteuerungssystems 11 mit Sensordaten von jedem Sensor. Der Sensor 25 zur externen Erkennung kann jede beliebige Art oder jede beliebige Anzahl von Sensoren enthalten.
  • Beispielsweise umfasst der Sensor 25 zur externen Erkennung die Kamera 41, das Radar 52, das LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53 und einen Ultraschallsensor 54. Die Konfiguration ist nicht auf diese beschränkt, und der Sensor 25 zur externen Erkennung kann eine oder mehrere Arten von Sensoren unter der Kamera 51, dem Radar 52, dem LiDAR 53 und dem Ultraschallsensor 54 umfassen. Die Anzahl der Kameras 51, der Radarsensoren 52, LiDAR-Sensoren 53 und Ultraschallsensoren 54 ist nicht sonderlich beschränkt, solange sie im Fahrzeug 1 realistisch installiert werden können. Beispielsweise sind die Arten von im Sensor 25 zur externen Erkennung enthaltenen Sensoren nicht auf dieses Beispiel beschränkt und kann der Sensor 25 zur externen Erkennung andere Arten von Sensoren einschließen. Beispiele für Erfassungsbereiche jedes Sensors, der im Sensor 25 zur externen Erkennung enthalten ist, werden später beschrieben.
  • Man beachte, dass das Fotografier- bzw. Aufnahmeverfahren der Kamera 51 nicht sonderlich beschränkt ist. Beispielsweise können für die Kamera 51 nach Bedarf Kameras mit verschiedenen Aufnahmeverfahren wie etwa eine ToF-(Time Of Flight-)Kamera, eine Stereokamera, eine monokulare Kamera und eine Infrarotkamera, die imstande sind, die Entfernung bzw. den Abstand zu messen, verwendet werden. Die Kamera 51 ist nicht auf diese beschränkt, und die Kamera 51 kann einfach genutzt werden, um unabhängig von einer Abstandsmessung ein fotografiertes Bild aufzunehmen.
  • Ferner kann der Sensor 25 zur externen Erkennung beispielsweise einen Umgebungssensor zum Detektieren der Umgebung des Fahrzeugs 1 einschließen. Der Umgebungssensor ist ein Sensor, um die Umgebung wie etwa das Wetter, die Witterung bzw. das Klima, die Helligkeit und dergleichen zu detektieren, und kann verschiedene Sensoren wie etwa einen Regentropfensensor, einen Nebelsensor, einen Sonnensensor, einen Schneesensor und einen Beleuchtungsstärkesensor umfassen.
  • Darüber hinaus schließt der Sensor 25 zur externen Erkennung beispielsweise ein Mikrofon ein, das genutzt werden soll, um Geräusche in der Umgebung des Fahrzeugs 1, eine Position einer Schallquelle oder dergleichen zu detektieren.
  • Der fahrzeuginterne Sensor 26 umfasst verschiedene Sensoren zum Detektieren von Informationen innerhalb des Fahrzeugs und versorgt jede Einheit des Fahrzeugsteuerungssystems 11 mit Sensordaten von jedem Sensor. Die Arten und die Anzahl verschiedener Sensoren, die im fahrzeuginternen Sensor 26 einbezogen sind, sind nicht sonderlich beschränkt, solange sie im Fahrzeug 1 realistisch installiert werden können.
  • Der fahrzeuginterne Sensor 26 kann beispielsweise eine oder mehrere Arten von Sensoren, darunter eine Kamera, ein Radar, einen Sitzsensor, einen Lenkradsensor, ein Mikrofon und einen biologischen Sensor, umfassen. Es ist möglich, als die im fahrzeuginternen Sensor 26 enthaltene Kamera Kameras mit verschiedenen Aufnahmeverfahren, die imstande sind, einen Abstand zu messen, wie etwa eine ToF-Kamera, eine Stereokamera, eine monokulare Kamera und eine Infrarotkamera zu nutzen. Jedoch ist die vorliegende Erfindung nicht auf diese beschränkt, und die im fahrzeuginternen Sensor 26 enthaltene Kamera kann einfach genutzt werden, um ungeachtet einer Abstandsmessung fotografierte Bilder zu erfassen. Der im fahrzeuginternen Sensor 26 enthaltene Biosensor ist beispielsweise in einem Sitz oder einem Lenkrad vorgesehen und detektiert verschiedene Arten biologischer Informationen eines Insassen wie etwa eines Fahrers.
  • Der Fahrzeugsensor 27 umfasst verschiedene Sensoren zum Detektieren eines Zustands des Fahrzeugs 1 und versorgt jede Einheit des Fahrzeugsteuerungssystems 11 mit Sensordaten von jedem Sensor. Die Arten und Anzahl verschiedener Sensoren, die im Fahrzeugsensor 27 einbezogen sind, sind nicht sonderlich beschränkt, solange sie im Fahrzeug 1 realistisch installiert werden können.
  • Beispielsweise umfasst der Fahrzeugsensor 27 einen Geschwindigkeitssensor, einen Beschleunigungssensor, einen Winkelgeschwindigkeitssensor (Gyroskop-Sensor) und eine Trägheitsmesseinheit (IMU), die diese Sensoren integriert. Der Fahrzeugsensor 27 umfasst beispielsweise einen Lenkwinkelsensor, der einen Lenkwinkel des Lenkrads detektiert, einen Gierratensensor, einen Gaspedalsensor, der einen Betätigungsumfang des Gaspedals detektiert, und einen Bremssensor, der einen Bestätigungsumfang des Bremspedals detektiert. Der Fahrzeugsensor 27 umfasst zum Beispiel einen Rotationssensor, der eine Drehzahl einer Maschine oder eines Motors detektiert, einen Luftdrucksensor, der den Luftdruck eines Reifens detektiert, einen Schlupfverhältnissensor, der ein Schlupfverhältnis eines Reifens detektiert, und einen Radgeschwindigkeitssensor, der eine Drehzahl eines Rads detektiert. Beispielsweise umfasst der Fahrzeugsensor 27 einen Batteriesensor, der die verbleibende Batterielebensdauer und die Temperatur einer Batterie detektiert, und einen Aufprallsensor, der einen Aufprall von außen detektiert.
  • Die Speichereinheit 28 enthält zumindest eines eines nicht-flüchtigen Speichermediums und eines flüchtigen Speichermediums und speichert Daten und Programme. Die Speichereinheit 28 wird beispielsweise als EEPROM (Electrically Erasable Programmable Read Only Memory) und RAM (Random Access Memory) genutzt. Eine Magnetspeichervorrichtung wie etwa ein HDD (Hard Disc Drive), eine Halbleiterspeichervorrichtung, eine optische Speichervorrichtung und eine magnetooptische Speichervorrichtung können als das Speichermedium genutzt werden. Die Speichereinheit 28 speichert verschiedene Programme und Daten, die von jeder Einheit des Fahrzeugsteuerungssystems 11 verwendet werden. Beispielsweise enthält die Speichereinheit 28 einen EDR (Event Data Recorder) und ein DSSAD (Data Storage System for Automated Driving) und speichert Informationen über das Fahrzeug 1 vor und nach einem Ereignis wie etwa einem Unfall und Informationen, die vom fahrzeuginternen Sensor 26 erfasst werden.
  • Die Steuerungseinheit 29 für Fahrunterstützung/automatisiertes Fahren steuert die Fahrunterstützung und das automatisierte Fahren des Fahrzeugs 1. Beispielsweise enthält die Steuerungseinheit 29 für Fahrunterstützung/automatisiertes Fahren eine Analyseeinheit 61, eine Aktionsplanungseinheit 62 und eine Betriebs-Steuerungseinheit 63.
  • Die Analyseeinheit 61 führt eine Analyseverarbeitung des Fahrzeugs 1 und seiner Umgebung durch. Die Analyseeinheit 61 umfasst eine Einheit 71 zur Abschätzung der eigenen Position, eine Sensorfusionseinheit 72 und eine Erkennungseinheit 73.
  • Die Einheit 71 zur Abschätzung der eigenen Position schätzt die eigene Position des Fahrzeugs 1 basierend auf Sensordaten vom Sensor 25 zur externen Erkennung und der in der Karteninformations-Speichereinheit 23 akkumulierten Karte mit hoher Genauigkeit ab. Beispielsweise schätzt die Einheit 71 zur Abschätzung der eigenen Position die eigene Position des Fahrzeugs 1, indem eine lokale Karte basierend auf Sensordaten vom Sensor 25 zur externen Erkennung erzeugt wird und die lokale Karte und die Karte mit hoher Genauigkeit miteinander abgeglichen werden. Eine Position des Fahrzeugs 1 basiert auf beispielsweise einer Mitte der Hinterachse.
  • Die lokale Karte ist beispielsweise eine dreidimensionale Karte mit hoher Genauigkeit, eine Belegungsgitterkarte oder dergleichen, die unter Verwendung einer Technik wie etwa SLAM (Simultaneous Localization and Mapping) erzeugt wird. Ein Beispiel einer dreidimensionalen Karte mit hoher Genauigkeit ist die oben beschriebene Punktwolkenkarte. Eine Belegungsgitterkarte ist eine Karte, die erzeugt wird, indem ein dreidimensionaler oder zweidimensionaler Raum um das Fahrzeug 1 in Raster bzw. Gitter einer vorbestimmten Größe unterteilt wird, und die eine Belegung eines Objekts in Gittereinheiten angibt. Die Belegung eines Objekts wird durch beispielsweise das Vorhandensein oder Nichtvorhandensein des Objekts oder eine Wahrscheinlichkeit für das Vorhandensein des Objekts repräsentiert. Die lokale Karte wird auch in beispielsweise einer Detektionsverarbeitung und Erkennungsverarbeitung der Umgebung des Fahrzeugs 1 durch die Erkennungseinheit 73 verwendet.
  • Man beachte, dass die Einheit 71 zur Abschätzung der eigenen Position die eigene Position des Fahrzeugs 1 basierend auf den von der Positionsinformations-Erfassungseinheit 24 erfassten Positionsinformationen und Sensordaten vom Fahrzeugsensor 27 abschätzen kann.
  • Die Sensorfusionseinheit 72 führt eine Sensorfusionsverarbeitung durch, um neue Informationen zu erhalten, indem Sensordaten einer Vielzahl verschiedener Arten (zum Beispiel von der Kamera 51 bereitgestellte Bilddaten und vom Radar 52 bereitgestellte Sensordaten) kombiniert werden. Verfahren zum Kombinieren von Sensordaten einer Vielzahl verschiedener Arten umfassen eine Integration, eine Fusion und Assoziation bzw. Zuordnung.
  • Die Erkennungseinheit 73 führt einen Detektionsprozess zum Detektieren einer Situation außerhalb des Fahrzeugs 1 und einen Erkennungsprozess zum Erkennen einer Situation außerhalb des Fahrzeugs 1 durch.
  • Beispielsweise führt die Erkennungseinheit 73 eine Detektionsverarbeitung und Erkennungsverarbeitung der Umgebungen des Fahrzeugs 1 basierend auf Informationen vom Sensor 25 zur externen Erkennung, Informationen von der Einheit 71 zur Abschätzung der eigenen Position, Informationen von der Sensorfusionseinheit 72 und dergleichen durch.
  • Konkret führt beispielsweise die Erkennungseinheit 73 eine Detektionsverarbeitung, eine Erkennungsverarbeitung und dergleichen eines Objekts in der Umgebung des Fahrzeugs 1 durch. Die Detektionsverarbeitung eines Objekts bezieht sich auf beispielsweise eine Verarbeitung zum Detektieren des Vorhandenseins oder Nichtvorhandenseins, einer Größe, einer Form, einer Position, einer Bewegung oder dergleichen eines Objekts. Die Erkennungsverarbeitung eines Objekts bezieht sich auf beispielsweise eine Verarbeitung zum Erkennen eines Attributs wie etwa einer Art eines Objekts oder Identifizieren eines spezifischen Objekts. Jedoch ist eine Unterscheidung zwischen einer Detektionsverarbeitung und Erkennungsverarbeitung nicht immer offensichtlich, und manchmal kommt es zu einer Überschneidung.
  • Beispielsweise detektiert die Erkennungseinheit 73 Objekte in der Umgebung des Fahrzeugs 1, indem ein Clustering bzw. eine Cluster-Verarbeitung durchgeführt wird, um Punktwolken basierend auf Sensordaten von dem Radar 52, dem LiDAR 53 und dergleichen für jeden Cluster von Punktwolken zu klassifizieren. Dementsprechend werden das Vorhandensein oder Nichtvorhandensein, eine Größe, eine Form und eine Position eines Objekts in der Umgebung des Fahrzeugs 1 detektiert.
  • Beispielsweise detektiert die Erkennungseinheit 73 eine Bewegung des Objekts in der Umgebung des Fahrzeugs 1, indem eine Verfolgung durchgeführt wird, um eine Bewegung eines Clusters von Punktwolken zu verfolgen, die mittels Clustering klassifiziert wurden. Dementsprechend werden eine Geschwindigkeit und Fahrtrichtung (ein Bewegungsvektor) des Objekts in der Umgebung des Fahrzeugs 1 detektiert.
  • Die Erkennungseinheit 73 detektiert oder erkennt beispielsweise Fahrzeuge, Personen, Fahrräder, Hindernisse, Strukturen, Straßen, Ampeln, Verkehrszeichen, Straßenmarkierungen und dergleichen basierend auf den von der Kamera 51 bereitgestellten Bilddaten. Weiterhin kann die Erkennungseinheit 73 die Arten von Objekten in der Umgebung des Fahrzeugs 1 erkennen, indem eine Erkennungsverarbeitung wie etwa eine semantische Segmentierung durchgeführt wird.
  • Beispielsweise kann die Erkennungseinheit 73 eine Erkennungsverarbeitung von Verkehrsregeln in der Umgebung des Fahrzeugs 1 basierend auf der in der Karteninformations-Speichereinheit 23 gespeicherten Karte, dem von der Einheit 71 zur Abschätzung der eigenen Position erhaltenen Ergebnis der Abschätzung der eigenen Position und dem durch die Erkennungseinheit 73 erhaltenen Erkennungsergebnis von Objekten in der Umgebung des Fahrzeugs 1 durchführen. Durch diese Verarbeitung kann die Erkennungseinheit 73 die Positionen und Zustände von Ampeln, die Inhalte von Verkehrszeichen und Straßenmarkierungen, die Inhalte von Verkehrsbeschränkungen, die Fahrspuren, auf denen das Fahrzeug fahren kann, und dergleichen erkennen.
  • Beispielsweise kann die Erkennungseinheit 73 eine Erkennungsverarbeitung der Umgebung um das Fahrzeug 1 durchführen. Die Umgebung, die die Erkennungseinheit 73 erkennen soll, umfasst das Wetter, die Temperatur, die Feuchtigkeit, die Helligkeit, Bedingungen der Straßenoberfläche und dergleichen.
  • Die Aktionsplanungseinheit 62 erzeugt einen Aktionsplan des Fahrzeugs 1. Beispielsweise erzeugt die Aktionsplanungseinheit 62 einen Aktionsplan, indem eine Verarbeitung einer Wegplanung und Wegverfolgung durchgeführt wird.
  • Die Wegplanung (Globale Wegplanung) ist eine Verarbeitung zum Planen eines allgemeinen Wegs vom Start bis zum Ziel. Die Wegplanung umfasst auch die Verarbeitung einer Trajektorien-Erzeugung (lokale Wegplanung), auf die als Trajektorien-Planung verwiesen wird und die eine sichere und reibungslose Fahrt in der Umgebung bzw. in der Nähe des Fahrzeugs 1 unter Berücksichtigung der Bewegungscharakteristiken des Fahrzeugs 1 entlang einem geplanten Weg ermöglicht.
  • Die Wegverfolgung bezieht sich auf eine Verarbeitung zum Planen eines Betriebs zum sicheren und genauen Abfahren des mittels der Wegplanung geplanten Wegs innerhalb einer geplanten Zeit. Die Aktionsplanungseinheit 62 kann beispielsweise die Zielgeschwindigkeit und Zielwinkelgeschwindigkeit des Fahrzeugs 1 basierend auf dem Ergebnis dieses Prozesses zur Streckenverfolgung berechnen.
  • Die Betriebs-Steuerungseinheit 63 steuert Betriebsvorgänge bzw. den Betrieb des Fahrzeugs 1, um den durch die Aktionsplanungseinheit 62 erzeugten Aktionsplan zu realisieren.
  • Beispielsweise steuert die Betriebs-Steuerungseinheit 63 eine Lenk-Steuerungseinheit 81, eine Brems-Steuerungseinheit 82 und eine Antriebs-Steuerungseinheit 83, die in einer später beschriebenen Fahrzeug-Steuerungseinheit 32 enthalten sind, um eine Beschleunigungs-/Verzögerungssteuerung und Richtungssteuerung so durchzuführen, dass das Fahrzeug 1 entlang einer mittels der Trajektorien-Planung berechneten Trajektorie fährt. Beispielsweise führt die Betriebs-Steuerungseinheit 63 eine kooperative Steuerung durch, um Funktionen eines ADAS wie etwa eine Kollisionsvermeidung oder Stoßdämpfung, das Fahren, bei dem man einem Wagen folgt, das Fahren mit konstanter Geschwindigkeit, eine Kollisionswarnung des eigenen Fahrzeugs und eine Spurabweichungswarnung des eigenen Fahrzeugs zu realisieren. Beispielsweise führt die Betriebs-Steuerungseinheit 63 die kooperative Steuerung durch, um automatisiertes Fahren oder dergleichen zu realisieren, bei dem ein Fahrzeug unabhängig von Manipulationen bzw. Eingriffen durch einen Fahrer autonom fährt.
  • Das DMS 30 führt eine Authentifizierungsverarbeitung eines Fahrers, eine Erkennungsverarbeitung für einen Zustand des Fahrers und dergleichen basierend auf Sensordaten vom fahrzeuginternen Sensor 26, Eingabedaten, die in die später beschriebene HMI 31 eingegeben werden, und dergleichen durch. Als ein Zustand des Fahrers, der ein Erkennungsziel sein soll, wird beispielsweise ein körperlicher Zustand, ein Erregungsniveau, ein Konzentrationsniveau, ein Ermüdungsniveau, eine Blickrichtung, ein Rauschniveau, ein Fahrbetrieb oder eine Haltung angenommen.
  • Alternativ dazu kann das DMS 30 so konfiguriert sein, dass es eine Authentifizierungsverarbeitung eines Insassen, bei dem es sich nicht um den Fahrer handelt, und eine Erkennungsverarbeitung des Zustands solch eines Insassen durchführt. Das DMS 30 kann zum Beispiel außerdem so konfiguriert sein, dass es eine Erkennungsverarbeitung einer Situation innerhalb des Fahrzeugs basierend auf Sensordaten vom fahrzeuginternen Sensor 26 durchführt. Als der Umstand bzw. die Situation innerhalb des Fahrzeugs, die ein Erkennungsziel sein soll, wird beispielsweise die Temperatur, die Luftfeuchtigkeit, die Helligkeit oder der Geruch angenommen.
  • Die HMI 31 gibt verschiedene Stücke von Daten, Anweisungen und dergleichen ein und präsentiert dem Fahrer verschiedene Datenstücke und dergleichen.
  • Mittels der HMI 31 eingegebene Daten werden kurz beschrieben. Die HMI 31 umfasst eine Eingabevorrichtung für eine Person, um Daten einzugeben. Die HMI 31 erzeugt Eingangssignale basierend auf Daten, Anweisungen und dergleichen, die mittels einer Eingabeeinheit eingegeben werden, und stellt sie jeder Einheit des Fahrzeugsteuerungssystems 11 bereit. Die HMI 31 umfasst Operatoren bzw. Bedienelemente wie etwa ein Touch-Panel, Tasten, Schalter und Hebel als Eingabevorrichtungen. Die vorliegende Erfindung ist jedoch nicht auf diese beschränkt, und die HMI 31 kann ferner eine Eingabevorrichtung umfassen, die imstande ist, Informationen mittels eines anderen Verfahrens als einer manuellen Bedienung unter Verwendung von Sprache, einer Geste oder dergleichen einzugeben. Weiter kann die HMI 31 als Eingabevorrichtung beispielsweise eine extern verbundene Vorrichtung wie etwa eine Fernsteuerungsvorrichtung, die Infrarotstrahlen oder Funkwellen nutzt, eine mobile Vorrichtung oder eine tragbare Vorrichtung, die mit dem Betrieb des Fahrzeugsteuerungssystems 11 kompatibel ist, nutzen.
  • Die Präsentation von Daten mittels der HMI 31 wird kurz beschrieben. Die HMI 31 erzeugt visuelle Informationen, akustische Informationen und taktile Informationen für den Insassen oder die äußere Umgebung des Fahrzeugs. Darüber hinaus führt die HMI 31 eine Ausgabesteuerung durch, um die Ausgabe, den Inhalt der Ausgabe, den Zeitpunkt der Ausgabe, das Ausgabeverfahren und dergleichen von jedem Stück erzeugter Informationen zu steuern. Die HMI 31 erzeugt und gibt als visuelle Informationen beispielsweise Informationen aus, die mittels Bilder und Licht wie etwa eines Bedienschirms, einer Zustandsanzeige des Fahrzeugs 1, einer Warnanzeige und eines Monitorbildes, das die Umgebungssituation des Fahrzeugs 1 angibt, angegeben werden. Die HMI 31 erzeugt und gibt überdies als akustische Informationen Informationen aus, die mittels Töne wie etwa einer Sprachführung, Warntöne und Warnmeldungen angegeben werden. Die HMI 31 erzeugt und gibt darüber hinaus als taktile Informationen Informationen aus, die dem Tastsinn des Insassen mittels beispielsweise einer Kraft, Vibration, einer Bewegung oder dergleichen vermittelt werden.
  • Als Ausgabevorrichtung für die HMI 31, um visuelle Informationen auszugeben, kann beispielsweise eine Anzeigevorrichtung, die visuelle Informationen durch Anzeigen eines Bildes präsentiert, oder eine Projektorvorrichtung, die visuelle Informationen durch Projizieren eines Bildes präsentiert, verwendet werden. Zusätzlich zu Anzeigevorrichtungen, die ein normales Display bzw. eine normale Anzeige aufweisen, kann die Anzeigevorrichtung eine Anzeigevorrichtung, die visuelle Informationen innerhalb des Sichtfeldes des Insassen anzeigt, wie etwa beispielsweise ein Head-up-Display, ein durchlässiges Display und eine tragbare Vorrichtung mit einer AR-(Augmented Reality-)Funktion sein. Die HMI 31 kann ferner auch eine im Fahrzeug 1 vorgesehene Anzeigevorrichtung, die in einer Navigationsvorrichtung, einer Instrumententafel, einem CMS (Camera Monitoring System), einem elektronischen Spiegel, einer Lampe und dergleichen enthalten ist, als Ausgabevorrichtung nutzen, die visuelle Informationen ausgibt.
  • Als Ausgabevorrichtung für die HMI 31, um akustische Informationen auszugeben, können beispielsweise ein Lautsprecher, Kopfhörer und Ohrhörer verwendet werden.
  • Als Ausgabevorrichtung für die HMI 31, um taktile Informationen auszugeben, kann beispielsweise ein eine haptische Technologie nutzendes haptisches Element verwendet werden. Das haptische Element ist in einem Teil des Fahrzeugs 1, der mit einem Insassen in Kontakt kommt, wie etwa einem Lenkrad oder einem Sitz vorgesehen.
  • Die Fahrzeug-Steuerungseinheit 32 steuert jede Einheit des Fahrzeugs 1. Die Fahrzeug-Steuerungseinheit 32 umfasst die Lenk-Steuerungseinheit 81, die Brems-Steuerungseinheit 82, die Antriebs-Steuerungseinheit 83, eine Karosseriesystem-Steuerungseinheit 84, eine Licht-Steuerungseinheit 85 und eine Hupen-Steuerungseinheit 86.
  • Die Lenk-Steuerungseinheit 81 führt eine Detektion, Steuerung und dergleichen eines Zustandes eines Lenksystems des Fahrzeugs 1 durch. Das Lenksystem umfasst beispielsweise einen Lenkmechanismus, der das Lenkrad und dergleichen umfasst, eine elektronische Servolenkung und dergleichen. Beispielsweise umfasst die Lenk-Steuerungseinheit 81, eine Lenk-ECU, die das Lenksystem steuert, einen Aktuator, der das Lenksystem ansteuert, und dergleichen.
  • Die Brems-Steuerungseinheit 82 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Bremssystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Bremssystem einen Bremsmechanismus, der ein Bremspedal und dergleichen umfasst, ein ABS (Antilock Brake System), einen regenerativen Bremsmechanismus und dergleichen. Beispielsweise umfasst die Brems-Steuerungseinheit 82 eine Brems-ECU, die das Bremssystem steuert, einen Aktuator, der das Bremssystem ansteuert, und dergleichen.
  • Die Antriebs-Steuerungseinheit 83 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Antriebssystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Antriebssystem ein Gaspedal, eine Antriebskraft-Erzeugungseinheit zum Erzeugen einer Antriebskraft wie etwa einen Verbrennungsmotor oder einen Antriebsmotor, einen Antriebskraft-Übertragungsmechanismus zum Übertragen der Antriebskraft auf die Räder und dergleichen. Beispielsweise umfasst die Antriebs-Steuerungseinheit 83 eine Antriebs-ECU, die das Antriebssystem steuert, einen Aktuator, der das Antriebssystem ansteuert, und dergleichen.
  • Die Karosseriesystem-Steuerungseinheit 84 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Karosseriesystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Karosseriesystem ein schlüsselloses Zugangssystem, ein Smart-Key-System, eine elektrische Fensterhebeeinrichtung, einen elektrisch verstellbaren Sitz, eine Klimaanlage, einen Airbag, einen Sicherheitsgurt und einen Schalthebel. Beispielsweise umfasst die Karosseriesystem-Steuerungseinheit 84 eine Karosseriesystem-ECU, die das Karosseriesystem steuert, einen Aktuator, der das Karosseriesystem ansteuert, und dergleichen.
  • Die Licht-Steuerungseinheit 85 führt eine Detektion, Steuerung und dergleichen eines Zustands verschiedener Leuchten des Fahrzeugs 1 durch. Als Leuchten, die ein Steuerungsziel bilden sollen, werden beispielsweise ein Scheinwerfer, eine Rückleuchte, eine Nebelleuchte, ein Blinker, eine Bremsleuchte, eine Projektorleuchte und eine Stoßfängeranzeige angenommen. Die Licht-Steuerungseinheit 85 umfasst eine Licht-ECU, die die Leuchten steuert, einen Aktuator, der die Leuchten ansteuert, und dergleichen.
  • Die Hupen-Steuerungseinheit 86 führt eine Detektion, Steuerung und dergleichen eines Zustands einer Autohupe des Fahrzeugs 1 durch. Beispielsweise umfasst die Hupen-Steuerungseinheit 86 eine Hupen-ECU, die die Autohupe steuert, einen Aktuator, der die Autohupe ansteuert, und dergleichen.
  • 2 ist ein Diagramm, das ein Beispiel eines Erfassungsbereichs durch die Kamera 51, das Radar 52, das LiDAR 53, den Ultraschallsensor 54 und dergleichen des Sensors 25 zur externen Erkennung in 1 darstellt. Man beachte, dass 2 das von oben betrachtete Fahrzeug 1 schematisch darstellt, wobei die Seite am linken Ende die Seite des vorderen Endes (der Front) des Fahrzeugs 1 ist und die Seite am rechten Ende die Seite des hinteren Endes (des Hecks) des Fahrzeugs 1 ist.
  • Ein Erfassungsbereich 101F und ein Erfassungsbereich 101B repräsentieren ein Beispiel für Erfassungsbereiche des Ultraschallsensors 54. Der Erfassungsbereich 101F deckt den Bereich in der Umgebung des vorderen Endes des Fahrzeugs 1 durch eine Vielzahl von Ultraschallsensoren 54 ab. Der Erfassungsbereich 101B deckt den Bereich in der Umgebung des hinteren Endes des Fahrzeugs 1 durch eine Vielzahl von Ultraschallsensoren 54 ab.
  • Erfassungsergebnisse in dem Erfassungsbereich 101F und dem Erfassungsbereich 101B werden verwendet, um das Fahrzeug 1 mit einer Einparkhilfe oder dergleichen zu versehen.
  • Ein Erfassungsbereich 102F bis zu einem Erfassungsbereich 102B repräsentieren ein Beispiel für Erfassungsbereiche des Radars 52 für kurze oder mittlere Abstände bzw. Entfernungen. Der Erfassungsbereich 102F erstreckt sich bzw. deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 101F, vor dem Fahrzeug 1 ab. Der Erfassungsbereich 1012B deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 101B, hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 102L deckt eine Peripherie in Richtung des Hecks einer linksseitigen Oberfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 102R deckt eine Peripherie in Richtung des Hecks einer rechtsseitigen Oberfläche des Fahrzeugs 1 ab.
  • Ein Erfassungsergebnis im Erfassungsbereich 102F wird genutzt, um beispielsweise ein Fahrzeug, einen Fußgänger oder dergleichen zu detektieren, die sich vor dem Fahrzeug 1 befinden. Ein Erfassungsergebnis im Erfassungsbereich 102B wird von beispielsweise einer Funktion zum Verhindern einer Kollision mit dem Heck des Fahrzeugs 1 verwendet. Erfassungsergebnisse in dem Erfassungsbereich 102L und dem Erfassungsbereich 102R werden genutzt, um beispielsweise ein in einem toten Winkel an den Seiten des Fahrzeugs 1 vorhandenes Objekt zu detektieren.
  • Ein Erfassungsbereich 103F bis zu einem Erfassungsbereich 103B repräsentieren ein Beispiel für Erfassungsbereiche durch die Kamera 51. Der Erfassungsbereich 103F deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 102F, vor dem Fahrzeug 1 ab. Der Erfassungsbereich 103B deckt eine Position, die weiter entfernt liegt als der Erfassungsbereich 102B, hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 103L deckt eine Peripherie der linksseitigen Oberfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 103R deckt eine Peripherie der rechtsseitigen Oberfläche des Fahrzeugs 1 ab.
  • Die Erfassungsergebnisse im Erfassungsbereich 103F können beispielsweise zur Erkennung von Ampeln und Verkehrszeichen, für Unterstützungssysteme zur Vermeidung von Fahrspurabweichungen und Systeme zur automatischen Scheinwerfersteuerung verwendet werden. Die Erfassungsergebnisse im Erfassungsbereich 103B können beispielsweise in Systemen für eine Einparkhilfe und Rundumsicht verwendet werden. Die Erfassungsergebnisse in dem Erfassungsbereich 103L und dem Erfassungsbereich 103R können beispielsweise für Rundumsichtsysteme genutzt werden.
  • Ein Erfassungsbereich 104 repräsentiert ein Beispiel für einen Erfassungsbereich des LiDAR 53. Der Erfassungsbereich 104 deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 103F, vor dem Fahrzeug 1 ab. Auf der anderen Seite weist der Erfassungsbereich 104 einen engeren Bereich in einer Links-Rechts-Richtung als der Erfassungsbereich 103F auf.
  • Erfassungsergebnisse im Erfassungsbereich 104 werden genutzt, um beispielsweise Objekte wie etwa in der Nähe befindliche Fahrzeuge zu detektieren.
  • Ein Erfassungsbereich 105 repräsentiert ein Beispiel für einen Erfassungsbereich des Radar 52 für große Entfernungen. Der Erfassungsbereich 105 deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 104, vor dem Fahrzeug 1 ab. Auf der anderen Seite weist der Erfassungsbereich 105 einen engeren Bereich in der Links-Rechts-Richtung als der Erfassungsbereich 104 auf.
  • Die Erfassungsergebnisse im Erfassungsbereich 105 werden beispielsweise für ACC (Adaptive Cruise Control), eine Notbremsung, eine Kollisionsvermeidung und dergleichen verwendet.
  • Man beachte, dass die Erfassungsbereiche der Kameras 51, des Radars 52, des LIDAR 53 und der Ultraschallsensoren 54, die im Sensor 25 zur externen Erkennung enthalten sind, verschiedene Konfigurationen aufweisen, die sich von jenen, die in 2 dargestellt sind, unterscheiden. Konkret kann der Ultraschallsensor 54 so konfiguriert sein, dass er die Seiten des Fahrzeugs 1 erfasst, oder kann das LiDAR 53 so konfiguriert sein, dass es den Heckbereich des Fahrzeugs 1 erfasst. Außerdem ist die Installationsposition jedes Sensors nicht auf jedes oben erwähnte Beispiel beschränkt. Ferner kann die Anzahl an Sensoren eins oder mehr als eins betragen.
  • Die vorliegende Technologie kann beispielsweise für das LiDAR 53 verwendet werden.
  • <<2. Ausführungsform>>
  • Als Nächstes werden mit Verweis auf 3 bis 13 Ausführungsformen der vorliegenden Technologie beschrieben.
  • <Konfigurationsbeispiel des LiDAR 201>
  • 3 stellt eine Ausführungsform des LiDAR 201 dar, für das die vorliegende Technologie verwendet wird.
  • Das LiDAR 201 wird von beispielsweise einem dToF- (Direct Time of Flight-)LiDAR gebildet. Das LiDAR 201 umfasst eine lichtemittierende Einheit 211, eine Scan-Einheit 212, eine lichtempfangende Einheit 213, eine Steuerungseinheit 214 und eine Datenverarbeitungseinheit 215. Die lichtemittierende Einheit 211 umfasst eine LD (Laser Diode) (Laserdiode) 221 und einen LD-Treiber 222. Die Scan-Einheit 212 umfasst einen Polygonspiegel 231 und einen Polygonspiegel-Treiber 232. Die Steuerungseinheit 214 umfasst eine Lichtemissionszeitpunkt-Steuerungseinheit 241, eine Spiegel-Steuerungseinheit 242, eine Lichtempfangs-Steuerungseinheit 243 und eine Gesamt-Steuerungseinheit 244. Die Datenverarbeitungseinheit 215 umfasst eine Umwandlungseinheit 251, eine Histogramm-Erzeugungseinheit 252, eine Abstandsmesseinheit 253 und eine Punktwolken-Erzeugungseinheit 254.
  • Die LD 221 emittiert gepulstes Laserlicht (worauf hier im Folgenden als Bestrahlungslicht verwiesen wird) unter der Steuerung des LD-Treibers 222.
  • Der LD-Treiber 222 steuert die LD 221 in Einheiten einer vorbestimmten Zeit Δt unter der Steuerung der Lichtemissionszeitpunkt-Steuerungseinheit 241 an.
  • Der Polygonspiegel 231 reflektiert das von der LD 221 einfallende Bestrahlungslicht, während er sich um eine vorbestimmte Achse unter der Steuerung des Polygonspiegel-Treibers 232 dreht. Infolgedessen wird das Bestrahlungslicht in der Links-Rechts-Richtung (horizontalen Richtung) gescannt.
  • Das Koordinatensystem eines LiDAR 201 (worauf hier im Folgenden auch als LiDAR-Koordinatensystem verwiesen wird) ist hier durch beispielsweise eine X-Achse, eine Y-Achse und eine Z-Achse definiert, die zueinander orthogonal sind. Die X-Achse ist beispielsweise eine Achse parallel zur Links-Rechts-Richtung (horizontalen Richtung) des LiDAR 201. Daher handelt es sich bei der Abtast- bzw. Scan-Richtung des Bestrahlungslichts um die X-Achsenrichtung. Die Y-Achse ist beispielsweise eine Achse parallel zur Aufwärts-Abwärts-Richtung (vertikalen Richtung des LiDAR 201. Die Z-Achse ist beispielsweise eine Achse parallel zur Vorwärts-Rückwärts-Richtung (Tiefenrichtung, Entfernungs- bzw. Abstandsrichtung) des LiDAR 201.
  • Der Polygonspiegel-Treiber 232 steuert den Polygonspiegel 231 unter der Steuerung der Spiegel-Steuerungseinheit 242 an.
  • Die lichtempfangende Einheit 213 umfasst beispielsweise eine Pixel-Arrayeinheit, in der Pixel, in denen SPADs (Single Photon Avalanche Diodes; Einzelphotonen-Lawinendioden) zweidimensional angeordnet sind, in einer vorbestimmten Richtung angeordnet sind.
  • Hier ist das Koordinatensystem der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 durch beispielsweise die x-Achse und die y-Achse definiert. Die x-Achsenrichtung ist eine Richtung, die der X-Achsenrichtung des LiDAR-Koordinatensystems entspricht, und die y-Achsenrichtung ist eine Richtung, die der Y-Achsenrichtung des LiDAR-Koordinatensystems entspricht. In der Pixel-Arrayeinheit sind Pixel in der y-Achsenrichtung angeordnet.
  • Jedes Pixel der lichtempfangenden Einheit 213 empfängt einfallendes Licht, das reflektiertes Licht enthält, das erhalten wird, indem das Bestrahlungslicht von einem Objekt reflektiert wird, unter der Steuerung der Lichtempfangs-Steuerungseinheit 243. Die lichtempfangende Einheit 213 stellt der Lichtempfangs-Steuerungseinheit 243 ein Pixel-Signal bereit, das die Intensität des von jedem Pixel empfangenen einfallenden Lichts angibt.
  • Die Lichtemissionszeitpunkt-Steuerungseinheit 241 steuert den LD-Treiber 222 unter der Steuerung der Gesamt-Steuerungseinheit 244 und steuert den Lichtemissionszeitpunkt der LD 221.
  • Die Spiegel-Steuerungseinheit 242 steuert den Polygonspiegel-Treiber 232 unter der Steuerung der Gesamt-Steuerungseinheit 244 und steuert den Abtast- bzw. Scan-Vorgang des Bestrahlungslichts mittels des Polygonspiegels 231.
  • Die Lichtempfangs-Steuerungseinheit 243 steuert die lichtempfangende Einheit 213 an. Die Lichtempfangs-Steuerungseinheit 243 stellt der Gesamt-Steuerungseinheit 244 das Pixel-Signal von jedem Pixel bereit, das von der lichtempfangenden Einheit 213 bereitgestellt wird.
  • Die Gesamt-Steuerungseinheit 244 steuert die Lichtemissionszeitpunkt-Steuerungseinheit 241, die Spiegel-Steuerungseinheit 242 und die Lichtempfangs-Steuerungseinheit 243. Ferner stellt die Gesamt-Steuerungseinheit 244 der Umwandlungseinheit 251 das von der Lichtempfangs-Steuerungseinheit 243 bereitgestellte Pixel-Signal bereit.
  • Die Umwandlungseinheit 251 wandelt das von der Gesamt-Steuerungseinheit 244 bereitgestellte Pixel-Signal in ein digitales Signal um und stellt es der Histogramm-Erzeugungseinheit 252 bereit.
  • Die Histogramm-Erzeugungseinheit 252 erzeugt ein Histogramm, das eine Zeitreihenverteilung der Intensität des einfallenden Lichts aus jedem vorbestimmten Einheitssichtfeld erzeugt. Das Histogramm jedes Einheitssichtfeldes stellt beispielsweise eine Zeitreihenverteilung der Intensität eines einfallenden Lichts von jedem Einheitssichtfeld von dem Zeitpunkt an, zu dem das Bestrahlungslicht für jedes Einheitssichtfeld emittiert wird, dar.
  • Die Position jedes Einheitssichtfeldes ist hier durch die Position der X-Achsenrichtung und der Y-Achsenrichtung des LiDAR-Koordinatensystems definiert.
  • Beispielsweise wird das Bestrahlungslicht innerhalb eines vorbestimmten Bereichs (worauf hier im Folgenden als Abtast- bzw. Scan-Bereich verwiesen wird) in der X-Achsenrichtung gescannt. Die Abstandsmessverarbeitung wird dann für jedes Einheitssichtfeld mit einem vorbestimmten Sichtwinkel ΔΘ in der X-Achsenrichtung durchgeführt. Falls beispielsweise der Scan-Bereich des Bestrahlungslichts innerhalb des Bereichs von -60° bis 60° liegt und der Sichtwinkel des Einheitssichtfeldes 0,2° beträgt, beträgt die Anzahl an Einheitssichtfeldern in der X-Achsenrichtung 600 (120° ÷ 0,2°). Der Sichtwinkel in der X-Achsenrichtung des Einheitssichtfeldes wird die Auflösung des LiDAR 201 in der X-Achsenrichtung.
  • Jedes Pixel der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 empfängt beispielsweise reflektiertes Licht von verschiedenen Einheitssichtfeldern in der Y-Achsenrichtung. Daher ist die Anzahl an Einheitssichtfeldern in der Y-Achsenrichtung gleich der Anzahl an Pixeln in der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 in der y-Achsenrichtung. Wenn beispielsweise die Anzahl an Pixeln in der y-Achsenrichtung der Pixel-Arrayeinheit 64 beträgt, beträgt die Anzahl an Einheitssichtfeldern in der Y-Achsenrichtung 64. Der Sichtwinkel des Einheitssichtfeldes in der Y-Achsenrichtung wird die Auflösung des LiDAR 201 in der Y-Achsenrichtung.
  • Auf diese Weise wird der Bestrahlungsbereich des Bestrahlungslichts in Einheitssichtfelder unterteilt, die in der X-Achsenrichtung und der Y-Achsenrichtung zweidimensional angeordnet sind. Für jedes Einheitssichtfeld wird dann eine Abstandsmessverarbeitung durchgeführt.
  • Die Histogramm-Erzeugungseinheit 252 stellt der Abstandsmesseinheit 253 Histogrammdaten entsprechend jedem Einheitssichtfeld bereit.
  • Die Abstandsmesseinheit 253 misst die Entfernung bzw. den Abstand (die Tiefe) in der Z-Achsenrichtung zum Reflexionspunkt des Bestrahlungslichts in jedem Einheitssichtfeld basierend auf dem Histogramm jedes Einheitssichtfeldes. Beispielsweise erzeugt die Abstandsmesseinheit 253 eine Näherungskurve eines Histogramms und detektiert den Peak der Näherungskurve. Der Zeitpunkt, zu dem diese Näherungskurve ihren Peak erreicht, ist die Zeit von dem Zeitpunkt, zu dem das Bestrahlungslicht emittiert wird, bis zu dem Zeitpunkt, zu dem das reflektierte Licht empfangen wird. Die Abstandsmesseinheit 253 wandelt den Zeitpunkt, zu dem die Näherungskurve jedes Histogramms einen Peak erreicht, in den Abstand zum Reflexionspunkt, wo das Bestrahlungslicht reflektiert wird, um. Die Abstandsmesseinheit 253 stellt der Punktwolken-Erzeugungseinheit 254 Informationen bereit, die den Abstand zum Reflexionspunkt innerhalb jedes Einheitssichtfeldes angeben.
  • Die Punktwolken-Erzeugungseinheit 254 erzeugt eine Punktwolke (Punktwolkendaten), die die Verteilung jedes Reflexionspunkts im LiDAR-Koordinatensystem basierend auf dem Abstand zum Reflexionspunkt innerhalb jedes Einheitssichtfeldes angibt. Die Punktwolken-Erzeugungseinheit 254 gibt Daten, die die erzeugte Punktwolke angeben, an eine nachfolgende Vorrichtung aus.
  • <Beispiel einer Kanalkonfiguration einer LD 221>
  • Als Nächstes wird mit Verweis auf 4 ein Beispiel der Kanalkonfiguration der LD 221 beschrieben.
  • In der LD 221 sind lichtemittierende Bereiche, die imstande sind, acht Kanäle eines Bestrahlungslichts von ch1 bis ch8 individuell zu emittieren, in einer der Y-Achsenrichtung des LiDAR-Koordinatensystems entsprechenden Richtung angeordnet. Die LD 221 kann Bestrahlungslicht jedes Kanals individuell emittieren. Das heißt, die LD 221 kann das Bestrahlungslicht jedes Kanals zu verschiedenen Zeitpunkten emittieren oder kann das Bestrahlungslicht einer Vielzahl von Kanälen gleichzeitig emittieren.
  • Das von der LD 221 emittierte Bestrahlungslicht jedes Kanals wird durch eine Projektionslinse 261 in einer der Y-Achsenrichtung des LiDAR-Koordinatensystems entsprechende Richtung gestreut bzw. gespreizt und wird gestrecktes Licht. Ferner ist das Bestrahlungslicht jedes Kanals in einer Richtung entsprechend der Y-Achsenrichtung des LiDAR-Koordinatensystems angeordnet.
  • <Konfigurationsbeispiel eines optischen Systems des LiDAR 201>
  • Als Nächstes wird mit Verweis auf 5 ein Konfigurationsbeispiel des optischen Systems des LiDAR 201 beschrieben. 5 ist eine Draufsicht des optischen LiDAR-Systems. A in 5 stellt den Fall dar, in dem die Richtung des eingestrahlten Lichts 30° beträgt, B in 5 stellt den Fall dar, in dem die Richtung des eingestrahlten Lichts 90° beträgt, und C in 5 stellt den Fall dar, in dem die Richtung des eingestrahlten Lichts 150° beträgt. Die Richtung des eingestrahlten Lichts in diesem Fall wird durch den Winkel der Ausgangsrichtung in Bezug auf die Einfallsrichtung des eingestrahlten Lichts zum Polygonspiegel 231 ausgedrückt.
  • Das LiDAR 201 umfasst zusätzlich zu der oben mit Verweis auf 3 und 4 beschriebenen Konfiguration einen Klappspiegel 262, ein Außenfenster 263 und eine lichtempfangende Linse 264.
  • Das Bestrahlungslicht jedes Kanals (in der Figur ist nur das Bestrahlungslicht von ch1 dargestellt), das von der LD 221 emittiert und durch die Projektionslinse 261 gestreckt wird, wird vom Polygonspiegel 231 reflektiert, gelangt durch das Außenfenster 263 und wird auf einen vorbestimmten Bestrahlungsbereich eingestrahlt. Zu diesem Zeitpunkt wird, indem der Polygonspiegel 231 in der X-Achsenrichtung um eine vorbestimmte Drehachse gedreht wird, das Bestrahlungslicht jedes Kanals in der X-Achsenrichtung gescannt.
  • Wenn das Bestrahlungslicht jedes Kanals gleichzeitig emittiert wird, weist ferner der Bestrahlungsbereich des Bestrahlungslichts jedes Kanals annähernd die gleiche Position in der X-Achsenrichtung auf und setzt sich in der Y-Achsenrichtung fort. Das heißt, die Bestrahlungsbereiche des Bestrahlungslichts von ch1 und des Bestrahlungslichts von ch2 sind in der Y-Achsenrichtung einander benachbart, die Bestrahlungsbereiche des Bestrahlungslichts von ch2 und des Bestrahlungslichts von ch3 sind in der Y-Achsenrichtung einander benachbart, die Bestrahlungsbereiche des Bestrahlungslichts von ch3 und des Bestrahlungslichts von ch4 sind in der Y-Achsenrichtung einander benachbart, die Bestrahlungsbereiche des Bestrahlungslichts von ch4 und des Bestrahlungslichts von ch5 sind in der Y-Achsenrichtung einander benachbart, die Bestrahlungsbereiche des Bestrahlungslichts von ch5 und des Bestrahlungslichts von ch6 sind in der Y-Achsenrichtung einander benachbart, die Bestrahlungsbereiche des Bestrahlungslichts von ch6 und des Bestrahlungslichts ch7 sind in der Y-Achsenrichtung einander benachbart und die Bestrahlungsbereiche des Bestrahlungslichts von ch7 und des Bestrahlungslichts von ch8 sind in der Y-Achsenrichtung einander benachbart.
  • Das Bestrahlungslicht jedes Kanals wird von einem Objekt reflektiert, und das einfallende Licht, das das reflektierte Licht Lr enthält, gelangt durch das Außenfenster 263, tritt in den Polygonspiegel 231 ein und wird in der dem Bestrahlungslicht jedes Kanals entgegengesetzten Richtung reflektiert. Danach gelangt das einfallende Licht durch den Klappspiegel 262, wird durch die lichtempfangende Linse 264 gebündelt und tritt in die Pixel-Arrayeinheit der lichtempfangenden Einheit 213 ein.
  • In der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 ist beispielsweise eine Vielzahl von Pixeln für jeden Kanal angeordnet. Beispielsweise sind in der Pixel-Arrayeinheit acht Pixel in der y-Achsenrichtung für jeden Kanal angeordnet. Daher sind insgesamt vierundsechzig Pixel in der y-Achsenrichtung in der Pixel-Arrayeinheit angeordnet und beträgt die Anzahl an Einheitssichtfeldern in der Y-Achsenrichtung 64. Das das reflektierte Licht des Bestrahlungslichts jedes Kanals enthaltende einfallende Licht fällt auf die Pixel-Gruppe des entsprechenden Kanals.
  • <Erste Ausführungsform des Bestrahlungslicht-Steuerungsverfahrens>
  • Als Nächstes wird mit Verweis auf 6 und 7 eine erste Ausführungsform eines Verfahrens zum Steuern des Bestrahlungslichts jedes Kanals der LD 221 beschrieben.
  • 6 ist eine grafische Darstellung, die ein Beispiel für den Emissionszeitpunkt des Bestrahlungslichts jedes Kanals darstellt. Die horizontale Achse stellt die Zeit dar, und die vertikale Achse stellt Kanäle dar. 7 stellt schematisch ein Beispiel für die Bestrahlungsrichtung des Bestrahlungslichts jedes Kanals dar.
  • Das Bestrahlungslicht jedes Kanals wird für jedes Einheitssichtfeld in der X-Achsenrichtung eine vorbestimmte Anzahl von Malen emittiert. Mit anderen Worten wird das Bestrahlungslicht jedes Kanals eine vorbestimmte Anzahl von Malen jedes Mal emittiert, wenn das Bestrahlungslicht in der X-Achsenrichtung um einen vorbestimmten Sichtwinkel ΔΘ gescannt wird.
  • Wie in 7 dargestellt ist, werden beispielsweise die Bestrahlungslichter von ch1 bis ch8 zweimal innerhalb des Einheitssichtfeldes V1 des Sichtwinkels ΔΘ emittiert und werden die Bestrahlungslichter von ch1 bis ch8 zweimal innerhalb des Einheitssichtfeldes V2 des Sichtwinkels ΔΘ emittiert.
  • Danach wird der Abstand in jedem Einheitssichtfeld in der Y-Achsenrichtung für jedes Einheitssichtfeld in der X-Achsenrichtung gemessen. Beispielsweise werden Abstände in 64 Einheitssichtfeldern in der Y-Achsenrichtung im Einheitssichtfeld V1 gemessen und werden Abstände in 64 Einheitssichtfeldern in der Y-Achsenrichtung im Einheitssichtfeld V2 gemessen.
  • Innerhalb des Einheitssichtfeldes in der X-Achsenrichtung wird in diesem Beispiel der Schritt zum Emittieren eines Bestrahlungslichts in einer Kanalreihenfolge in Zeitintervallen Δt zweimal wiederholt. Konkret wird das Bestrahlungslicht von ch1 zu einem Zeitpunkt t1 emittiert, wird das Bestrahlungslicht von ch2 zu einem Zeitpunkt t2 emittiert, wird das Bestrahlungslicht von ch3 zu einem Zeitpunkt t3 emittiert, wird das Bestrahlungslicht von ch4 zu einem Zeitpunkt t4 emittiert, wird das Bestrahlungslicht von ch5 zu einem Zeitpunkt t5 emittiert, wird das Bestrahlungslicht von ch6 zu einem Zeitpunkt t6 emittiert, wird das Bestrahlungslicht von ch7 zu einem Zeitpunkt t7 emittiert und wird das Bestrahlungslicht von ch8 zu einem Zeitpunkt t8 emittiert. Als Nächstes wird das Bestrahlungslicht von ch1 zu einem Zeitpunkt t9 emittiert, wird das Bestrahlungslicht von ch2 zu einem Zeitpunkt t10 emittiert, wird das Bestrahlungslicht von ch3 zu einem Zeitpunkt t11 emittiert, wird das Bestrahlungslicht von ch4 zu einem Zeitpunkt t12 emittiert, wird das Bestrahlungslicht von ch5 zu einem Zeitpunkt t13 emittiert, wird das Bestrahlungslicht von ch6 zu einem Zeitpunkt t14 emittiert, wird das Bestrahlungslicht von ch7 zu einem Zeitpunkt t15 emittiert und wird das Bestrahlungslicht von ch8 zu einem Zeitpunkt t16 emittiert.
  • Danach werden für jeden Kanal die Intensität des das reflektierte Licht für das erste Bestrahlungslicht enthaltenden einfallenden Lichts und die Intensität des das reflektierte Licht für das zweite Bestrahlungslicht enthaltenden einfallenden Lichts integriert und wird basierend auf der integrierten Intensität des einfallenden Lichts eine Abstandsmessung durchgeführt.
  • Daher ist beispielsweise des Emissionsintervall des Bestrahlungslichts von ch1 Zeitpunkt t9 - Zeitpunkt t1 = 8Δt. Die Emissionsintervalle der Bestrahlungslichter anderer Kanäle betragen ebenfalls 8Δt.
  • Je länger das Emissionsintervall der Bestrahlungslichter von jedem Kanal ist, desto größer ist die Abweichung zwischen den ersten und zweiten Bestrahlungsrichtungen des Bestrahlungslichts von jedem Kanal. Infolgedessen können beispielsweise das erste Bestrahlungslicht und das zweite Bestrahlungslicht von verschiedenen Objekten reflektiert werden, was es unmöglich macht, einen Abstand zu messen und die Auflösung in der X-Achsenrichtung reduziert. Deshalb ist es wünschenswert, das Emissionsintervall des Bestrahlungslichts jedes Kanals innerhalb jedes Einheitssichtfeldes in der X-Achsenrichtung zu verkürzen.
  • Man beachte, dass hier im Folgenden auf die Periode Δt, die den Emissionszeitpunkt des Bestrahlungslichts definiert, als Slot bzw. Schlitz verwiesen wird. Daher sind in diesem Beispiel sechzehn Schlitze für jedes Einheitssichtfeld in der X-Achsenrichtung vorgesehen.
  • <Zweite Ausführungsform eines Bestrahlungslicht-Steuerungsverfahrens>
  • Als Nächstes wird mit Verweis auf 8 eine zweite Ausführungsform eines Verfahrens zum Steuern eines Bestrahlungslichts jedes Kanals der LD 221 beschrieben.
  • Ähnlich wie bei 6 ist 8 eine grafische Darstellung, die ein Beispiel für den Emissionszeitpunkt des Bestrahlungslichts jedes Kanals darstellt.
  • In diesem Beispiel wird das Bestrahlungslicht jedes Kanals innerhalb eines Einheitssichtfeldes in der X-Achsenrichtung kontinuierlich emittiert. Konkret wird zu einem Zeitpunkt t1 und einem Zeitpunkt t2 das Bestrahlungslicht von ch1 kontinuierlich emittiert. Zu einem Zeitpunkt t3 und einem Zeitpunkt t4 wird das Bestrahlungslicht von ch2 kontinuierlich emittiert. Zu einem Zeitpunkt t5 und einem Zeitpunkt t6 wird das Bestrahlungslicht von ch3 kontinuierlich emittiert. Zu einem Zeitpunkt t7 und einem Zeitpunkt t8 wird das Bestrahlungslicht von ch4 kontinuierlich emittiert. Zu einem Zeitpunkt t9 und einem Zeitpunkt t10 wird das Bestrahlungslicht von ch5 kontinuierlich emittiert. Zu einem Zeitpunkt t11 und einem Zeitpunkt t12 wird das Bestrahlungslicht von ch6 kontinuierlich emittiert. Zu einem Zeitpunkt t13 und einem Zeitpunkt t14 wird das Bestrahlungslicht von ch7 kontinuierlich emittiert. Zu einem Zeitpunkt t15 und einem Zeitpunkt t16 wird das Bestrahlungslicht von ch8 kontinuierlich emittiert.
  • Infolgedessen kann das Emissionsintervall des Bestrahlungslichts jedes Kanals auf Δt verkürzt werden und kann eine Abnahme der Auflösung in der X-Achsenrichtung unterdrückt werden.
  • Man beachte, dass in diesem Fall das Emissionsintervall des Bestrahlungslichts zwischen Kanälen groß wird. Beispielsweise ist das Emissionsintervall zwischen dem zweiten Bestrahlungslicht von ch1 und dem ersten Bestrahlungslicht von ch8 Zeitpunkt t15 - Zeitpunkt t2 - 13At. Da jedoch diese Differenz im Emissionszeitpunkt zwischen Kanälen bekannt ist, wird beispielsweise der Einfluss von Differenzen im Emissionszeitpunkt zwischen Kanälen eliminiert, indem die Position des Punktes in der X-Achsenrichtung für jeden Kanal basierend auf dem Emissionsintervall zwischen Kanälen korrigiert wird, wenn eine Punktwolke erzeugt wird.
  • <Dritte Ausführungsform eines Bestrahlungslicht-Steuerungsverfahrens>
  • Als Nächstes wird mit Verweis auf 9 und 10 eine dritte Ausführungsform eines Verfahrens zum Steuern eines Bestrahlungslichts jedes Kanals der LD 221 beschrieben.
  • Ähnlich wie bei 6 ist 9 eine grafische Darstellung, die ein Beispiel für den Emissionszeitpunkt des Bestrahlungslichts jedes Kanals darstellt. Ähnlich wie bei 7 stellt 10 schematisch ein Beispiel für das Bestrahlungslicht jedes Kanals dar.
  • In der oben mit Verweis auf 8 beschriebenen zweiten Ausführungsform wird das Bestrahlungslicht jedes Kanals kontinuierlich emittiert. Ferner werden die Bestrahlungslichter benachbarter Kanäle kontinuierlich emittiert. Beispielsweise werden das Bestrahlungslicht von ch1 und das Bestrahlungslicht von ch2 kontinuierlich emittiert. Daher kann das Bestrahlungslicht innerhalb eines engen Bereichs emittiert und konzentriert werden. Dies erhöht die Wahrscheinlichkeit, die Intensität des Bestrahlungslichts pro Zeit aufgrund der Einschränkungen der Laserlicht-Sicherheitsstandards begrenzt sein wird.
  • Auf der anderen Seite wird, wie in 9 und 10 dargestellt ist, beispielsweise der Emissionszeitpunkt des Bestrahlungslichts jedes Kanals gesteuert.
  • Konkret wird zu einem Zeitpunkt t1 und einem Zeitpunkt t3 das Bestrahlungslicht von ch1 emittiert. Zu einem Zeitpunkt t2 und einem Zeitpunkt t4 wird das Bestrahlungslicht von ch3 emittiert. Zu einem Zeitpunkt t5 und einem Zeitpunkt t7 wird das Bestrahlungslicht von ch2 emittiert. Zu einem Zeitpunkt t6 und einem Zeitpunkt t8 wird das Bestrahlungslicht von ch4 emittiert. Zu einem Zeitpunkt t9 und einem Zeitpunkt t11 wird das Bestrahlungslicht von ch5 emittiert. Zu einem Zeitpunkt t10 und einem Zeitpunkt t12 wird das Bestrahlungslicht von ch7 emittiert. Zu einem Zeitpunkt t13 und einem Zeitpunkt t15 wird das Bestrahlungslicht von ch6 emittiert. Zu einem Zeitpunkt t14 und einem Zeitpunkt t16 wird das Bestrahlungslicht von ch8 emittiert.
  • Infolgedessen kann im Vergleich mit dem Beispiel von 6 das Emissionsintervall des Bestrahlungslichts jedes Kanals auf 2Δt verkürzt werden und kann eine Abnahme der Auflösung in der X-Achsenrichtung unterdrückt werden.
  • Darüber hinaus wird im Vergleich mit dem Beispiel von 8 das Emissionsintervall des Bestrahlungslichts jedes Kanals auf 2Δt verlängert. Überdies wird eine sukzessive Einstrahlung von Bestrahlungslicht benachbarter Kanäle verhindert. Infolgedessen wird verhindert, dass das Bestrahlungslicht in einem engen Bereich emittiert und konzentriert wird, und die Wahrscheinlichkeit, dass die Intensität des Bestrahlungslichts pro Zeit aufgrund der Einschränkungen der Laserlicht-Sicherheitsstandards begrenzt ist, kann reduziert werden.
  • Außerdem wird im Fall dieses Beispiels streng genommen das Bestrahlungslicht benachbarter Kanäle zwischen dem Zeitpunkt t4 und dem Zeitpunkt t5, zwischen dem Zeitpunkt t8 und dem Zeitpunkt t9 und zwischen dem Zeitpunkt t12 und dem Zeitpunkt t13 kontinuierlich eingestrahlt.
  • Auf der anderen Seite kann das Intervall zwischen den Zeitpunkten, zu denen die Bestrahlungslichter benachbarter Kanäle (zum Beispiel zwischen dem Zeitpunkt t4 und dem Zeitpunkt t5) kontinuierlich eingestrahlt werden, länger eingestellt werden als das Intervall zwischen den Zeitpunkten, zu denen die Bestrahlungslichter benachbarter Kanäle (zum Beispiel zwischen dem Zeitpunkt t1 und dem Zeitpunkt t2) kontinuierlich eingestrahlt werden.
  • Ferner kann beispielsweise der Emissionszeitpunkt des Bestrahlungslichts jedes Kanals, wie in 11 dargestellt ist, geändert werden.
  • Konkret wird zu einem Zeitpunkt t1 und einem Zeitpunkt t3 das Bestrahlungslicht von ch1 emittiert. Zu einem Zeitpunkt t2 und einem Zeitpunkt t4 wird das Bestrahlungslicht von ch3 emittiert. Zu einem Zeitpunkt t5 und einem Zeitpunkt t7 wird das Bestrahlungslicht von ch5 emittiert. Zu einem Zeitpunkt t6 und einem Zeitpunkt t8 wird das Bestrahlungslicht von ch7 emittiert. Zu einem Zeitpunkt t9 und einem Zeitpunkt t11 wird das Bestrahlungslicht von ch2 emittiert. Zu einem Zeitpunkt t10 und einem Zeitpunkt t12 wird das Bestrahlungslicht von ch4 emittiert. Zu einem Zeitpunkt t13 und einem Zeitpunkt t15 wird das Bestrahlungslicht von ch6 emittiert. Zu einem Zeitpunkt t14 und einem Zeitpunkt t16 wird das Bestrahlungslicht von ch8 emittiert.
  • Dies verhindert vollständig eine sukzessive Einstrahlung von Bestrahlungslicht benachbarter Kanäle.
  • <Vierte Ausführungsform eines Bestrahlungslicht-Steuerungsverfahrens>
  • Als Nächstes wird mit Verweis auf 12 eine vierte Ausführungsform eines Verfahrens zum Steuern eines Bestrahlungslichts beschrieben.
  • Ähnlich wie bei 6 stellt 12 ein Beispiel für den Emissionszeitpunkt des Bestrahlungslichts jedes Kanals dar.
  • Konkret werden zu einem Zeitpunkt t1 und einem Zeitpunkt t3 die Bestrahlungslichter von ch1 und ch3 emittiert. Zu einem Zeitpunkt t2 und einem Zeitpunkt t4 werden die Bestrahlungslichter von ch2 und ch4 emittiert. Zu einem Zeitpunkt t5 und einem Zeitpunkt t7 werden die Bestrahlungslichter von ch5 und ch7 emittiert. Zu einem Zeitpunkt t6 und einem Zeitpunkt t8 werden die Bestrahlungslichter von ch6 und ch8 emittiert.
  • Auf diese Weise werden die Bestrahlungslichter von zwei Kanälen, die einander nicht benachbart sind, gleichzeitig emittiert. Ferner wird ähnlich der dritten Ausführungsform des Emissionsintervall der Bestrahlungslichter desselben Kanals auf 2Δt eingestellt.
  • Wie in der dritten Ausführungsform verhindert dies, dass das Bestrahlungslicht in einem engen Bereich emittiert und konzentriert wird, während eine Abnahme der Auflösung in der X-Achsenrichtung unterdrückt wird.
  • Ferner kann die Zeit verkürzt werden, die erforderlich ist, um Bestrahlungslicht von allen Kanälen innerhalb eines Einheitssichtfeldes in der X-Achsenrichtung zu emittieren. Dies macht es möglich, beispielsweise den Sichtwinkel des Einheitssichtfeldes einzugrenzen bzw. zu verringern und die Auflösung in der X-Achsenrichtung zu erhöhen. Alternativ dazu wird es beispielsweise möglich, die Frame-Rate durch Erhöhen der Scan-Geschwindigkeit in der X-Achsenrichtung zu erhöhen.
  • Man beachte, dass beispielsweise der Emissionszeitpunkt des Bestrahlungslichts jedes Kanals wie in 13 dargestellt geändert werden kann.
  • Konkret werden zu dem Zeitpunkt t1 und dem Zeitpunkt t3 die Bestrahlungslichter von ch1 und ch3 emittiert. Zu dem Zeitpunkt t2 und dem Zeitpunkt t4 werden die Bestrahlungslichter von ch5 und c7 emittiert. Zu dem Zeitpunkt t5 und dem Zeitpunkt t7 werden die Bestrahlungslichter von ch2 und c4 emittiert. Zu dem Zeitpunkt t6 und dem Zeitpunkt t8 werden die Bestrahlungslichter von ch6 und c8 emittiert.
  • Infolgedessen wird im Vergleich mit dem Beispiel von 12 eine übermäßige Einstrahlung von Bestrahlungslichtern benachbarter Kanäle unterdrückt.
  • <<3. Modifikationsbeispiele>>
  • Im Folgenden werden hierin Modifikationsbeispiele der vorhergehenden Ausführungsformen der vorliegenden Technik beschrieben.
  • Die Anzahl an Kanälen der LD 221 kann nach Bedarf geändert werden. Jedoch können die Effekte der vorliegenden Technologie nur erzielt werden, wenn vier oder mehr Kanäle vorliegen.
  • In der dritten Ausführungsform und der vierten Ausführungsform des Bestrahlungslicht-Steuerungsverfahrens wurde ein Beispiel dargestellt, bei dem das Emissionsintervall des Bestrahlungslichts desselben Kanals auf 2Δt eingestellt ist; das Emissionsintervall kann aber auf einen anderen Wert als 2Δt eingestellt werden.
  • Wenn beispielsweise die Anzahl an Kanälen der LD 221 n Kanäle beträgt, kann, indem das Emissionsintervall des Bestrahlungslichts jedes Kanals kürzer als nΔt eingestellt wird, im Vergleich mit dem Beispiel von 6 das Emissionsintervall des Bestrahlungslichts jedes Kanals verkürzt werden. Ferner wird, indem beispielsweise das Emissionsintervall des Bestrahlungslichts jedes Kanals auf 2Δt oder mehr eingestellt wird, im Vergleich mit dem Beispiel in 8 verhindert, dass das Bestrahlungslicht jedes Kanals in konzentrierter Weise emittiert wird. Das heißt, in der vorliegenden Technologie ist es, indem man das Emissionsintervall des Bestrahlungslichts jedes Kanals auf 2Δt oder mehr und weniger als nΔt einstellt, möglich, den Effekt einer Verkürzung des Emissionsintervalls des Bestrahlungslichts jedes Kanals zu erzielen, während verhindert wird, dass das Bestrahlungslicht jedes Kanals in konzentriert Weise emittiert wird.
  • Die vorliegende Technik kann auch auf den Fall angewendet werden, in dem das Bestrahlungslicht jedes Kanals m-mal, das heißt drei oder mehr Male, innerhalb eines Einheitssichtfeldes emittiert wird. In diesem Fall kann zum Beispiel in jeder Ausführungsform das gleiche Emissionsverfahren wie das Emissionsverfahren bis zum zweiten Bestrahlungslicht jedes Kanals wiederholt durchgeführt werden.
  • Beispielsweise kann in der oben mit Verweis auf 8 beschriebenen zweiten Ausführungsform das Bestrahlungslicht jedes Kanals m-mal kontinuierlich emittiert werden. In der oben mit Verweis auf 9 bis 11 beschriebenen dritten Ausführungsform und der oben mit Verweis auf 12 und 13 beschriebenen vierten Ausführungsform kann beispielsweise das Bestrahlungslicht jedes Kanals jeden zweiten Schlitz m-mal emittiert werden.
  • In der dritten Ausführungsform wurde ein Beispiel dargestellt, bei dem der Kanal des Bestrahlungslichts, das im nächsten Schlitz (Ausgabezeitpunkt) emittiert wird, auf einen Kanal eingestellt wird, der vom Kanal des im vorherigen Schlitz (Ausgabezeitpunkt) emittierten Bestrahlungslichts zwei Kanäle entfernt liegt. Beispielsweise wurde ein Beispiel dargestellt, bei dem das Bestrahlungslicht von ch1 zu einem Zeitpunkt t1 emittiert wird und dann das Bestrahlungslicht von ch3, der zwei Kanäle von ch1 entfernt liegt, zu einem Zeitpunkt t2 emittiert wird. Auf der anderen Seite kann beispielsweise das Bestrahlungslicht eines Kanals, der drei oder mehr Kanäle vom Kanal des im vorherigen Schlitz emittierten Bestrahlungslichts entfernt liegt, emittiert werden.
  • In der vierten Ausführungsform wurde ein Beispiel dargestellt, bei dem das Intervall zwischen Kanälen von gleichzeitig emittierten Bestrahlungslichtern zwei Kanäle beträgt. Beispielsweise wurde ein Beispiel dargestellt, bei dem zu einem Zeitpunkt t1 die Bestrahlungslichter von ch1 und ch3, der von ch1 zwei Kanäle entfernt liegt, gleichzeitig emittiert werden. Auf der anderen Seite können die Bestrahlungslichter von Kanälen emittiert werden, die um drei Kanäle oder mehr voneinander getrennt sind.
  • In der vierten Ausführungsform können beispielsweise Bestrahlungslichter von drei oder mehr Kanälen, die einander nicht benachbart sind, gleichzeitig emittiert werden.
  • In der obigen Beschreibung wurde ein Beispiel dargestellt, bei dem eine Vielzahl von lichtemittierenden Bereichen, die Bestrahlungslicht emittieren, bereitgestellt wird, indem die LD in eine Vielzahl von Kanälen unterteilt wird; aber eine Vielzahl lichtemittierender Bereiche kann unter Verwendung anderer Verfahren bereitgestellt werden. Beispielsweise kann eine Vielzahl lichtemittierender Bereiche unter Verwendung einer Vielzahl von LDs, die einzeln angesteuert werden können, bereitgestellt werden.
  • Die vorliegende Technologie kann auch angewendet werden, wenn beispielsweise eine andere Lichtquelle als eine LD verwendet wird.
  • Es ist beispielsweise möglich, eine APD (Lawinen-Fotodiode; avalanche photodiode), eine hochempfindliche Fotodiode oder dergleichen als das lichtempfangende Element der Pixel-Arrayeinheit 213A zu verwenden.
  • Das Verfahren zum Scannen des Bestrahlungslichts ist nicht auf das oben beschriebene Beispiel beschränkt, und andere Verfahren können ebenfalls angewendet werden. Beispielsweise kann das Bestrahlungslicht unter Verwendung eines rotierenden Spiegels, eines Galvano-Spiegels, eines Risley-Prismas, einer MMT (Micro Motion Technology), eines Head-Spin bzw. einer Kopfdrehung, eines MEMS-(Micro-Electro-Mechanical Systems-)Spiegels, eines OPA (optisches phasengesteuertes Array; Optical Phased Array), eines Flüssigkristalls, eines Scans mit einem VCSEL-(Vertical Cavity Surface Emitting Laser-)Array und dergleichen gescannt werden.
  • Das Bestrahlungslicht kann beispielsweise so geformt sein, dass es sich in der X-Achsenrichtung erstreckt, und das Bestrahlungslicht kann in der Y-Achsenrichtung gescannt werden.
  • Zusätzlich zu einem LiDAR kann die vorliegende Technologie auf eine Abstandsmessvorrichtung angewendet werden, die von einer Vielzahl von lichtemittierenden Bereichen emittiertes eingestrahltes Licht scannt und einen Abstand basierend auf einem reflektiertes Licht des eingestrahlten Lichts enthaltenden einfallenden Licht misst.
  • <<4. Sonstiges>>
  • <Konfigurationsbeispiel eines Computers>
  • Die oben beschriebene Reihe von Verarbeitungen kann mittels Hardware ausgeführt werden oder kann mittels Software ausgeführt werden. Wenn die Reihe von Verarbeitungsschritten mittels Software ausgeführt wird, wird ein Programm der Software in einem Computer installiert. Der Computer umfasst hier einen in einer dedizierten Hardware eingebetteten Computer oder beispielsweise einen Mehrzweck-Personalcomputer, der imstande ist, verschiedene Funktionen durch Installieren verschiedener Programme auszuführen.
  • Ein von einem Computer ausgeführtes Programm kann bereitgestellt werden, indem es auf einem austauschbaren Medium wie etwa beispielsweise einem Package-Medium aufgezeichnet wird. Das Programm kann auch über ein drahtgebundenes oder drahtloses Übertragungsmedium wie etwa ein Local Area Network bzw. lokales Netzwerk, das Internet oder digitalen Satellitenfunk bereitgestellt werden.
  • Man beachte, dass das von einem Computer ausgeführte Programm ein Programm sein kann, das eine Verarbeitung in der Reihenfolge, die in der vorliegenden Beschreibung beschrieben wurde, chronologisch durchführt, oder ein Programm sein kann, das eine Verarbeitung parallel oder zu einem erforderlichen Zeitpunkt wie etwa einer Aufrufzeit durchführt.
  • In der vorliegenden Beschreibung meint ein System einen Satz einer Vielzahl von Bestandteilelementen (Vorrichtungen, Module (Komponenten) oder dergleichen), und all die Bestandteilelemente können in demselben Gehäuse untergebracht sein oder auch nicht. Dementsprechend bilden sowohl eine Vielzahl von Vorrichtungen, die in separaten Gehäusen untergebracht und über ein Netzwerk verbunden sind, als auch eine Vorrichtung, in der eine Vielzahl von Modulen in einem Gehäuse untergebracht ist, Systeme.
  • Ferner sind Ausführungsformen der vorliegenden Technik nicht auf die oben erwähnte Ausführungsform beschränkt und können verschiedene Modifikationen vorgenommen werden, ohne vom Kern der vorliegenden Technik abzuweichen.
  • Beispielsweise kann die vorliegende Technik als Cloud-Computing ausgestaltet sein, bei der eine Vielzahl von Vorrichtungen über ein Netzwerk sich eine Funktion teilen und kooperativ verarbeiten.
  • Außerdem kann jeder im obigen Ablaufplan beschriebene Schritt von einer Vorrichtung ausgeführt werden oder von einer Vielzahl von Vorrichtungen gemeinsam ausgeführt werden.
  • In einem Fall, in dem ein Schritt eine Vielzahl von Prozessen umfasst, kann überdies die Vielzahl von in dem einen Schritt enthaltenen Prozessen von einer Vorrichtung ausgeführt werden oder von einer Vielzahl von Vorrichtungen gemeinsam ausgeführt werden.
  • <Kombinationsbeispiel einer Konfiguration>
  • Die vorliegende Technologie kann auch die folgende Konfiguration aufweisen.
    1. (1) Eine Lichtquellen-Steuerungsvorrichtung, aufweisend: eine Lichtquellen-Steuerungseinheit, die eine Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt ansteuert, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
    2. (2) Die Lichtquellen-Steuerungsvorrichtung gemäß (1), wobei die Lichtquellen-Steuerungseinheit das Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt einstellt.
    3. (3) Die Lichtquellen-Steuerungsvorrichtung gemäß (2), wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht zu einem nächsten Zeitpunkt von dem lichtemittierenden Bereich emittiert wird, der dem lichtemittierenden Bereich nicht benachbart ist, der das Bestrahlungslicht zu einem vorherigen Zeitpunkt emittiert hat.
    4. (4) Die Lichtquellen-Steuerungsvorrichtung gemäß (3), wobei die Lichtquellen-Steuerungseinheit so konfiguriert ist, dass das Bestrahlungslicht von einem ersten lichtemittierenden Bereich zu einem ersten Zeitpunkt emittiert wird, das Bestrahlungslicht von einem zweiten lichtemittierenden Bereich, in dem ein Bestrahlungsbereich des Bestrahlungslichts jenem des ersten lichtemittierenden Bereichs nicht benachbart ist, zu einem zweiten Zeitpunkt nach dem ersten Zeitpunkt emittiert wird und das Bestrahlungslicht von dem ersten lichtemittierenden Bereich zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt emittiert wird.
    5. (5) Die Lichtquellen-Steuerungsvorrichtung gemäß (2), wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht von zwei oder mehr lichtemittierenden Bereichen, die einander nicht benachbart sind, gleichzeitig emittiert wird.
    6. (6) Die Lichtquellen-Steuerungsvorrichtung gemäß (5), wobei die Lichtquellen-Steuerungseinheit so konfiguriert ist, dass das Bestrahlungslicht von einem ersten lichtemittierenden Bereich und einem zweiten lichtemittierenden Bereich, in denen Bestrahlungsbereiche des Bestrahlungslichts einander nicht benachbart sind, zu einem ersten Zeitpunkt emittiert wird, das Bestrahlungslicht von einem dritten lichtemittierenden Bereich und einem vierten lichtemittierenden Bereich, in denen Bestrahlungsbereiche des Bestrahlungslichts einander nicht benachbart sind, zu einem zweiten Zeitpunkt nach dem ersten Zeitpunkt emittiert wird und das Bestrahlungslicht von dem ersten lichtemittierenden Bereich und dem zweiten lichtemittierenden Bereich zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt emittiert wird.
    7. (7) Die Lichtquellen-Steuerungsvorrichtung gemäß einem von (1) bis (6), wobei sich das Bestrahlungslicht in der zweiten Richtung lang erstreckt.
    8. (8) Die Lichtquellen-Steuerungsvorrichtung gemäß einem von (1) bis (7), wobei die zweite Richtung eine Aufwärts-Abwärts-Richtung ist und die dritte Richtung eine Links-Rechts-Richtung ist.
    9. (9) Ein Lichtquellen-Steuerungsverfahren, aufweisend: das Ansteuern einer Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt; das Veranlassen, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird; und das Einstellen eines Emissionsintervalls von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt.
    10. (10) Eine Abstandsmessvorrichtung, aufweisend: eine Lichtquelle, in der (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind; eine Lichtquellen-Steuerungseinheit, die die Lichtquelle in Einheiten einer vorbestimmten Zeit Δt ansteuert; eine Scan-Einheit, die das Bestrahlungslicht in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung scannt; eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht des eingestrahlten Lichts enthält; und eine Abstandsmesseinheit, die basierend auf dem einfallenden Licht einen Abstand misst, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in der dritten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
  • Die in der vorliegenden Beschreibung beschriebenen vorteilhaften Effekte sind nur beispielhaft und nicht einschränkend, und andere vorteilhafte Effekte können erhalten werden.
  • [Bezugszeichenliste]
  • 201
    LiDAR
    211
    lichtemittierende Einheit
    212
    Scan-Einheit
    213
    lichtempfangende Einheit
    214
    Steuerungseinheit
    215
    Datenverarbeitungseinheit
    221
    LD
    222
    LD-Treiber
    231
    Polygonspiegel
    232
    Polygonspiegel-Treiber
    241
    Lichtemissionszeitpunkt-Steuerungseinheit
    242
    Spiegel-Steuerungseinheit
    243
    Lichtempfangs-Steuerungseinheit
    244
    Gesamt-Steuerungseinheit
    252
    Histogramm-Erzeugungseinheit
    253
    Abstandsmesseinheit
    254
    Punktwolken-Erzeugungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2020118569 A [0003]

Claims (10)

  1. Lichtquellen-Steuerungsvorrichtung, aufweisend: eine Lichtquellen-Steuerungseinheit, die eine Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt ansteuert, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
  2. Lichtquellen-Steuerungsvorrichtung nach Anspruch 1, wobei die Lichtquellen-Steuerungseinheit das Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt einstellt.
  3. Lichtquellen-Steuerungsvorrichtung nach Anspruch 2, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht zu einem nächsten Zeitpunkt von dem lichtemittierenden Bereich emittiert wird, der dem lichtemittierenden Bereich nicht benachbart ist, der das Bestrahlungslicht zu einem vorherigen Zeitpunkt emittiert hat.
  4. Lichtquellen-Steuerungsvorrichtung nach Anspruch 3, wobei die Lichtquellen-Steuerungseinheit so konfiguriert ist, dass das Bestrahlungslicht von einem ersten lichtemittierenden Bereich zu einem ersten Zeitpunkt emittiert wird, das Bestrahlungslicht von einem zweiten lichtemittierenden Bereich, in dem ein Bestrahlungsbereich des Bestrahlungslichts jenem des ersten lichtemittierenden Bereichs nicht benachbart ist, zu einem zweiten Zeitpunkt nach dem ersten Zeitpunkt emittiert wird und das Bestrahlungslicht von dem ersten lichtemittierenden Bereich zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt emittiert wird.
  5. Lichtquellen-Steuerungsvorrichtung nach Anspruch 2, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht von zwei oder mehr lichtemittierenden Bereichen, die einander nicht benachbart sind, gleichzeitig emittiert wird.
  6. Lichtquellen-Steuerungsvorrichtung nach Anspruch 5, wobei die Lichtquellen-Steuerungseinheit so konfiguriert ist, dass das Bestrahlungslicht von einem ersten lichtemittierenden Bereich und einem zweiten lichtemittierenden Bereich, in denen Bestrahlungsbereiche des Bestrahlungslichts einander nicht benachbart sind, zu einem ersten Zeitpunkt emittiert wird, das Bestrahlungslicht von einem dritten lichtemittierenden Bereich und einem vierten lichtemittierenden Bereich, in denen Bestrahlungsbereiche des Bestrahlungslichts einander nicht benachbart sind, zu einem zweiten Zeitpunkt nach dem ersten Zeitpunkt emittiert wird und das Bestrahlungslicht von dem ersten lichtemittierenden Bereich und dem zweiten lichtemittierenden Bereich zu einem dritten Zeitpunkt nach dem zweiten Zeitpunkt emittiert wird.
  7. Lichtquellen-Steuerungsvorrichtung nach Anspruch 1, wobei sich das Bestrahlungslicht in der zweiten Richtung lang erstreckt.
  8. Lichtquellen-Steuerungsvorrichtung nach Anspruch 1, wobei die zweite Richtung eine Aufwärts-Abwärts-Richtung ist und die dritte Richtung eine Links-Rechts-Richtung ist.
  9. Lichtquellen-Steuerungsverfahren, aufweisend: das Ansteuern einer Lichtquelle, in der n (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind, in Einheiten einer vorbestimmten Zeit Δt; das Veranlassen, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung gescannt wird; und das Einstellen eines Emissionsintervalls von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt.
  10. Abstandsmessvorrichtung, aufweisend: eine Lichtquelle, in der (n ist 4 oder höher) lichtemittierende Bereiche, die Bestrahlungslicht individuell emittieren, in einer ersten Richtung angeordnet sind; eine Lichtquellen-Steuerungseinheit, die die Lichtquelle in Einheiten einer vorbestimmten Zeit Δt ansteuert; eine Scan-Einheit, die das Bestrahlungslicht in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung scannt; eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht des eingestrahlten Lichts enthält; und eine Abstandsmesseinheit, die basierend auf dem einfallenden Licht einen Abstand misst, wobei die Lichtquellen-Steuerungseinheit veranlasst, dass das Bestrahlungslicht m-mal (m ist 2 oder höher) von jedem der lichtemittierenden Bereiche jedes Mal emittiert wird, wenn das Bestrahlungslicht um einen vorbestimmten Winkel in der dritten Richtung gescannt wird, und ein Emissionsintervall von jedem der lichtemittierenden Bereiche auf 2Δt oder mehr und weniger als nΔt einstellt.
DE112022003129.8T 2021-06-18 2022-02-15 Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung Pending DE112022003129T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021-101371 2021-06-18
JP2021101371A JP2023000505A (ja) 2021-06-18 2021-06-18 光源制御装置、光源制御方法、及び、測距装置
PCT/JP2022/005800 WO2022264512A1 (ja) 2021-06-18 2022-02-15 光源制御装置、光源制御方法、及び、測距装置

Publications (1)

Publication Number Publication Date
DE112022003129T5 true DE112022003129T5 (de) 2024-04-11

Family

ID=84526061

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022003129.8T Pending DE112022003129T5 (de) 2021-06-18 2022-02-15 Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung

Country Status (3)

Country Link
JP (1) JP2023000505A (de)
DE (1) DE112022003129T5 (de)
WO (1) WO2022264512A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118569A (ja) 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6671629B2 (ja) * 2015-03-18 2020-03-25 株式会社リコー 物体検出装置、センシング装置、及び移動体装置
JP6644348B2 (ja) * 2015-11-06 2020-02-12 株式会社リコー 物体検出装置、センシング装置及び移動体装置
WO2018147453A1 (ja) * 2017-02-09 2018-08-16 コニカミノルタ株式会社 走査型の光学系及びレーザーレーダー装置
US11543495B2 (en) * 2018-11-01 2023-01-03 Waymo Llc Shot reordering in LIDAR systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118569A (ja) 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距装置

Also Published As

Publication number Publication date
JP2023000505A (ja) 2023-01-04
WO2022264512A1 (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
DE102018129197B4 (de) Verkehrssignalerkennungsvorrichtung und System zum autonomen Fahren
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112021002953T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112020004545T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung
WO2022004423A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
DE112022003129T5 (de) Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung
DE112022003108T5 (de) Abstandsmessvorrichtung und abstandsmessverfahren
DE112019004606T5 (de) Informationsverarbeitungsvorrichtung, endgerätevorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm
DE112019006281T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112019004125T5 (de) Bildverarbeitungsgerät, bildverarbeitungsverfahren und programm
WO2023276223A1 (ja) 測距装置、測距方法及び制御装置
WO2023021756A1 (ja) 情報処理システム、情報処理装置、及び情報処理方法
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20220172484A1 (en) Information processing method, program, and information processing apparatus
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2022075075A1 (ja) 情報処理装置および方法、並びに情報処理システム
WO2022019117A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
DE112022003723T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2022239348A1 (ja) レーダ装置、信号処理方法、及びプログラム
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム
WO2023145460A1 (ja) 振動検出システムおよび振動検出方法
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム