DE112022003108T5 - Abstandsmessvorrichtung und abstandsmessverfahren - Google Patents

Abstandsmessvorrichtung und abstandsmessverfahren Download PDF

Info

Publication number
DE112022003108T5
DE112022003108T5 DE112022003108.5T DE112022003108T DE112022003108T5 DE 112022003108 T5 DE112022003108 T5 DE 112022003108T5 DE 112022003108 T DE112022003108 T DE 112022003108T DE 112022003108 T5 DE112022003108 T5 DE 112022003108T5
Authority
DE
Germany
Prior art keywords
unit
light
distance measuring
irradiation
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112022003108.5T
Other languages
English (en)
Inventor
Takahiro KADO
Takuya Yokoyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112022003108T5 publication Critical patent/DE112022003108T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Technologie bezieht sich auf eine Abstandsmessvorrichtung und ein Abstandsmessverfahren, das imstande ist, die Auflösung der Abstandsmessvorrichtung zu verbessern, indem die Anzahl lichtempfangender Elemente unterdrückt wird. Die Abstandsmessvorrichtung umfasst eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert, eine Scan-Einheit, die das Bestrahlungslicht in einer ersten Richtung scannt, eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält, eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt, und eine Steuerungseinheit, die eine Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der ersten Richtung zwischen Frames verschiebt, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird. Die vorliegende Technologie kann beispielsweise für LiDAR verwendet werden.

Description

  • [Technisches Gebiet]
  • Die vorliegende Technologie bezieht sich auf eine Abstandsmessvorrichtung und ein Abstandsmessverfahren und konkreter auf eine Abstandsmessvorrichtung und ein Abstandsmessverfahren mit verbesserter Auflösung.
  • [Hintergrundtechnik]
  • Herkömmlicherweise wurde eine Abstandsmessvorrichtung vorgeschlagen, bei der die Auflösung verbessert wird, indem die Positionen von Pixeln in einer Pixel-Arrayeinheit, die das reflektierte Licht des von einer Lichtquelle emittierten Bestrahlungslichts empfängt, jedes Mal, wenn eine Abtastung bzw. ein Scan durchgeführt wird, in der Zeilenrichtung und der Spaltenrichtung verschoben werden (siehe zum Beispiel PTL 1).
  • [Zitatliste]
  • [Patentliteratur]
  • [PTL 1] JP 2020-118570A
  • [Zusammenfassung]
  • [Technisches Problem]
  • Jedoch sind in der Abstandsmessvorrichtung der in PTL 1 beschriebenen Erfindung die Pixel, in denen die lichtempfangenden Elemente zweidimensional angeordnet sind, in der Pixel-Arrayeinheit zweidimensional angeordnet und erhöht sich hier die Anzahl erforderlicher lichtempfangender Elemente.
  • Die vorliegende Technologie wurde im Hinblick auf derartige Umstände geschaffen, und deren Ziel besteht darin, die Auflösung einer Abstandsmessvorrichtung zu verbessern, während die Anzahl lichtempfangender Elemente unterdrückt bzw. gedrückt wird.
  • [Lösung für das Problem]
  • Eine Abstandsmessvorrichtung gemäß einem Aspekt der vorliegenden Technologie enthält eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert, eine Scan-Einheit, die das Bestrahlungslicht in einer ersten Richtung scannt, eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält, eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt, und eine Steuerungseinheit, die eine Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung in der ersten Richtung ist, zwischen Einzelbildern bzw. Frames verschiebt, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
  • Ein Abstandsmessverfahren gemäß einem Aspekt der vorliegenden Technologie ist ein Abstandsmessverfahren in einer Abstandsmessvorrichtung, die eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert, eine Scan-Einheit, die das Bestrahlungslicht in der vorbestimmten Richtung scannt, eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält, und eine Abstandsmesseinheit enthält, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt, wobei die Abstandsmessvorrichtung ausführt: das Verschieben einer Bestrahlungsrichtung des Bestrahlungslichts in der vorbestimmten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der vorbestimmten Richtung zwischen Frames, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
  • In einem Aspekt der vorliegenden Technologie wird die Bestrahlungsrichtung des Bestrahlungslichts in der vorbestimmten Richtung innerhalb eines Bereichs, der kleiner als die Auflösung ist, in der vorbestimmten Richtung zwischen Frames verschoben.
  • [Kurze Beschreibung der Zeichnungen]
    • [1] 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuerungssystems darstellt.
    • [2] 2 ist ein Diagramm, das ein Beispiel für Erfassungsbereiche darstellt.
    • [3] 3 ist ein Blockdiagramm, das eine Ausführungsform eines LiDAR darstellt, für das die vorliegende Technologie verwendet wird.
    • [4] 4 ist ein Diagramm, das ein Konfigurationsbeispiel eines optischen Systems eines LiDAR darstellt.
    • [5] 5 ist ein Diagramm, das ein Konfigurationsbeispiel einer Pixel-Arrayeinheit einer lichtempfangenden Einheit eines LiDAR darstellt.
    • [6] 6 ist ein Diagramm, das ein erstes Beispiel für Bestrahlungsrichtungen eines Bestrahlungslichts darstellt.
    • [7] 7 ist ein Diagramm, das ein zweites Beispiel für Bestrahlungsrichtungen eines Bestrahlungslichts darstellt.
    • [8] 8 ist ein Diagramm, das ein erstes Beispiel eines Verfahrens zum Verschieben des Einheitssichtfelds darstellt.
    • [9] 9 ist ein Diagramm, das ein zweites Beispiel eines Verfahrens zum Verschieben des Einheitssichtfelds darstellt.
  • [Beschreibung von Ausführungsformen]
  • Eine Ausführungsform zum Implementieren der vorliegenden Technik wird unten beschrieben. Die Beschreibung wird in der folgenden Reihenfolge vorgenommen.
    1. 1. Konfigurationsbeispiel eines Fahrzeugsteuerungssystems
    2. 2. Ausführungsform
    3. 3. Modifikationsbeispiel
    4. 4. Sonstiges
  • <<1. Konfigurationsbeispiel eines Fahrzeugsteuerungssystems >>
  • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuerungssystems 11 darstellt, bei dem es sich um ein Beispiel für ein Steuerungssystem für eine mobile Einrichtung handelt, für das die vorliegende Technologie verwendet werden soll.
  • Das Fahrzeugsteuerungssystem 11 ist in einem Fahrzeug 1 vorgesehen und führt eine Verarbeitung in Bezug auf eine Fahrunterstützung und automatisiertes Fahren des Fahrzeugs 1 durch.
  • Das Fahrzeugsteuerungssystem 11 umfasst eine elektronische Steuerungseinheit (ECU) 21 der Fahrzeugsteuerung, eine Kommunikationseinheit 22, eine Karteninformations-Akkumulationseinheit 23, eine Positionsinformations-Erfassungseinheit 24, einen Sensor 25 zur externen Erkennung, einen fahrzeuginternen Sensor 26, einen Fahrzeugsensor 27, eine Speichereinheit 28, eine Steuerungseinheit 29 für Fahrassistenz/automatisiertes Fahren, ein Fahrerüberwachungssystem (DMS) 30, eine Mensch-Maschine-Schnittstelle (HMI) 31 und eine Fahrzeug-Steuerungseinheit 32.
  • Die ECU 21 der Fahrzeugsteuerung, die Kommunikationseinheit 22, die Karteninformations-Akkumulationseinheit 23, die Positionsinformations-Erfassungseinheit 24, der Sensor 25 zur externen Erkennung, der fahrzeuginterne Sensor 26, der Fahrzeugsensor 27, die Speichereinheit 28, die Steuerungseinheit 29 für Fahrassistenz/automatisiertes Fahren, das Fahrerüberwachungssystem (DMS) 30, die Mensch-Maschine-Schnittstelle (HMI) 31 und die Fahrzeug-Steuerungseinheit 32 sind über ein Kommunikationsnetzwerk 41 verbunden, sodass sie miteinander kommunizieren können. Das Kommunikationsnetzwerk 41 besteht beispielsweise aus einem im Fahrzeug montierten Kommunikationsnetzwerk, das einem digitalen Zweiwege-Kommunikationsstandard entspricht, wie etwa einem Controller Area Network (CAN), einem Local-Interconnect-Network (LIN), einem Local Area Network (LAN), FlexRay (eingetragenes Warenzeichen) oder Ethernet (eingetragenes Warenzeichen), einem Bus und dergleichen. Das Kommunikationsnetzwerk 41 kann je nach der Art von zu übertragenden Daten geeignet genutzt werden. Beispielsweise kann das CAN für Daten in Bezug auf eine Fahrzeugsteuerung genutzt werden und kann das Ethernet für Daten mit großer Kapazität genutzt werden. Es sollte besonders erwähnt werden, dass die jeweiligen Einheiten des Fahrzeugsteuerungssystems 11 über eine drahtlose Kommunikation direkt verbunden sein können, wobei eine Kommunikation über verhältnismäßig kurze Strecken wie etwa eine Near Field Communication (NFC) oder Bluetooth (eingetragenes Warenzeichen) beispielsweise unterstellt wird, ohne über das Kommunikationsnetzwerk 41 zu verlaufen.
  • Im Folgenden wird hierin, wenn die jeweiligen Einheiten des Fahrzeugsteuerungssystems 11 über das Kommunikationsnetzwerk 41 kommunizieren, eine Beschreibung des Kommunikationsnetzwerks 41 weggelassen. Wenn beispielsweise die ECU 21 der Fahrzeugsteuerung und die Kommunikationseinheit 22 über das Kommunikationsnetzwerk 41 kommunizieren, wird einfach beschrieben, dass die ECU 21 der Fahrzeugsteuerung und die Kommunikationseinheit 22 miteinander kommunizieren.
  • Die ECU 21 der Fahrzeugsteuerung ist durch verschiedene Prozessoren wie etwa beispielsweise eine zentrale Verarbeitungseinheit (CPU) und eine Mikroverarbeitungseinheit (MPU) realisiert. Die ECU 21 der Fahrzeugsteuerung steuert die Funktionen des gesamten Fahrzeugsteuerungssystems 11 oder eines Teils davon.
  • Die Kommunikationseinheit 22 kommuniziert mit verschiedenen Vorrichtungen innerhalb und außerhalb der Vorrichtung, anderen Fahrzeugen, Servern, Basisstationen und dergleichen und führt eine Übertragung/einen Empfang verschiedener Arten von Daten durch. Zu dieser Zeit kann die Kommunikationseinheit 22 eine Kommunikation unter Verwendung einer Vielzahl von Kommunikationsverfahren durchführen.
  • Eine Kommunikation mit der äußeren Umgebung des Fahrzeugs, die mittels der Kommunikationseinheit 22 durchgeführt werden kann, wird schematisch beschrieben. Die Kommunikationseinheit 22 kommuniziert mit einem Server oder dergleichen, der in einem externen Netzwerk vorhanden ist, (worauf hier im Folgenden als externer Server verwiesen wird) gemäß einem Verfahren für drahtlose Kommunikation wie etwa 5G (5th Generation Mobile Communication System), LTE (Long Term Evolution) oder DSRC (Dedicated Short Range Communications) über eine Basisstation oder einen Zugangspunkt. Das externe Netzwerk, mit dem die Kommunikationseinheit 22 kommuniziert, ist beispielsweise das Internet, ein Cloud-Netzwerk oder ein unternehmensspezifisches Netzwerk. Das Kommunikationsverfahren, entsprechend dem die Kommunikationseinheit 22 eine Kommunikation mit dem externen Netzwerk durchführt, ist nicht sonderlich beschränkt, solange es sich um ein Verfahren für drahtlose Kommunikation handelt, das eine digitale Zwei wege-Kommunikation mit einer Kommunikationsgeschwindigkeit mit einem vorbestimmten Wert oder höher und einer Entfernung mit einem vorbestimmten Wert oder höher ermöglicht.
  • Ferner kann die Kommunikationseinheit 22 beispielsweise mit einem Endgerät, das in der Umgebung des Host-Fahrzeugs vorhanden ist, unter Verwendung einer P2P-(Peer-to-Peer-)Technologie kommunizieren. Endgeräte in der Umgebung des Host-Fahrzeugs sind beispielsweise Endgeräte, die von mobilen Körpern wie etwa Fußgängern und Fahrrädern getragen werden, die sich mit einer verhältnismäßig geringen Geschwindigkeit bewegen, Endgeräte, die an festen Standorten wie etwa Geschäften installiert sind, oder ein MTC-(Machine Type Communication)Endgerät. Darüber hinaus kann die Kommunikationseinheit 22 auch eine V2X-Kommunikation durchführen. Beispiele für eine V2X-Kommunikation umfassen eine Fahrzeug-Fahrzeug-Kommunikation mit einem anderen Fahrzeug, eine Fahrzeug-Infrastruktur-Kommunikation mit einer straßenseitigen Vorrichtung oder dergleichen, eine Fahrzeug-Heim-Kommunikation mit dem eigenen Heim und eine Fahrzeug-Fußgänger-Kommunikation mit einem Endgerät, das ein Fußgänger oder dergleichen besitzt.
  • Die Kommunikationseinheit 22 kann beispielsweise ein Programm zum Aktualisieren einer Software, die den Betrieb des Fahrzeugsteuerungssystems 11 steuert, (Over The Air) empfangen. Die Kommunikationseinheit 22 kann auch Karteninformationen, Verkehrsinformationen, Informationen über die Umgebung des Fahrzeugs 1 und dergleichen von außen empfangen. Ferner kann die Kommunikationseinheit 22 beispielsweise Informationen über das Fahrzeug 1, Informationen über die Umgebung des Fahrzeugs 1 und dergleichen nach außen übertragen. Die Informationen über das Fahrzeug 1, die die Kommunikationseinheit 22 nach außen überträgt, umfassen beispielsweise Daten, die den Zustand des Fahrzeugs 1 angeben, Erkennungsergebnisse durch die Erkennungseinheit 73 und dergleichen. Überdies führt die Kommunikationseinheit 22 beispielsweise eine Kommunikation, die Notfallmeldesysteme des Fahrzeugs wie etwa eCall unterstützt, durch.
  • Die Kommunikationseinheit 22 empfängt beispielsweise elektromagnetische Wellen, die von einem Fahrzeuginformations- und -kommunikationssystem (VICS (eingetragenes Warenzeichen); Vehicle Information and Communication System) unter Verwendung einer Funkbake, einer Lichtbake, eines FM-Multiplex-Rundfunks und dergleichen übertragen werden.
  • Die Kommunikation innerhalb des Fahrzeugs, die von der Kommunikationseinheit 22 durchgeführt werden kann, wird schematisch beschrieben. Die Kommunikationseinheit 22 kann mit jeder Vorrichtung im Fahrzeug unter Verwendung beispielsweise einer drahtlosen Kommunikation kommunizieren. Die Kommunikationseinheit 22 kann eine drahtlose Kommunikation mit Vorrichtungen im Fahrzeug unter Verwendung eines Kommunikationsverfahrens wie etwa eines drahtlosen LAN, Bluetooth, NFC und WSUB (Wireless USB) durchführen, das eine digitale Zweiwege-Kommunikation mit einer höheren Kommunikationsgeschwindigkeit als ein vorbestimmter Wert ermöglicht. Darüber hinaus kann die Kommunikationseinheit 22, ohne darauf beschränkt zu sein, auch mit jeder Vorrichtung im Fahrzeug unter Verwendung einer drahtgestützten Kommunikation kommunizieren. Beispielsweise kann die Kommunikationseinheit 22 mit jeder Vorrichtung im Fahrzeug mittels einer drahtgestützten Kommunikation über ein mit einem (nicht dargestellten) Verbindungsanschluss verbundenes Kabel kommunizieren. Die Kommunikationseinheit 22 kann mit jeder Vorrichtung im Fahrzeug entsprechend einem Kommunikationsverfahren wie etwa USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (eingetragenes Warenzeichen) und MHL (Mobile High-Definition Link), das eine digitale Zweiwege-Kommunikation mit einer vorbestimmten Kommunikationsgeschwindigkeit oder höher ermöglicht, mittels einer drahtgebundenen Kommunikation kommunizieren.
  • In diesem Fall bezieht sich eine Vorrichtung im Fahrzeug auf beispielsweise eine Vorrichtung, die mit dem Kommunikationsnetzwerk 41 im Fahrzeug nicht verbunden ist. Beispiele für Vorrichtungen im Fahrzeug umfassen eine mobile Vorrichtung oder eine tragbare Vorrichtung, die ein Insasse wie etwa ein Fahrer mit sich führt, oder eine darin vorübergehend installierte Informationsvorrichtung, die an Bord des Fahrzeugs mitgeführt wird.
  • Die Karteninformations-Akkumulationseinheit 23 akkumuliert eine der von außen erlangten Karten und vom Fahrzeug 1 erzeugten Karten oder beide. Beispielsweise akkumuliert die Karteninformations-Akkumulationseinheit 23 eine dreidimensionale Karte mit hoher Genauigkeit, eine globale Karte, die weniger genau als die Karte mit hoher Genauigkeit ist, aber einen weiten Bereich abdeckt, und dergleichen.
  • Die Karte mit hoher Genauigkeit ist beispielsweise eine dynamische Karte, eine Punktwolkenkarte, eine Vektorkarte oder dergleichen. Eine dynamische Karte ist eine Karte, die aus vier Schichten von dynamischen Informationen, quasi-dynamischen Informationen, quasi-statischen Informationen und statischen Informationen besteht und die dem Fahrzeug 1 von einem externen Server oder dergleichen bereitgestellt wird. Eine Punktwolkenkarte ist eine Karte, die aus einer Punktwolke (Punktwolkendaten) besteht. Eine Vektorkarte ist beispielsweise eine Karte, die an ADAS (Advanced Driver Assistance System) und AD (Autonomous Driving) angepasst wird, indem Verkehrsinformationen wie etwa Fahrspuren und Positionen von Ampeln mit einer Punktwolkenkarte assoziiert bzw. verknüpft werden.
  • Beispielsweise können die Punktwolkenkarte und die Vektorkarte von einem externen Server oder dergleichen bereitgestellt oder vom Fahrzeug 1 als eine Karte erzeugt werden, die mit einer (später zu beschreibenden) lokalen Karte basierend auf Erfassungsergebnissen durch eine Kamera 51, ein Radar 52, ein LiDAR 53 oder dergleichen abgeglichen und in der Karteninformations-Akkumulationseinheit 23 akkumuliert werden soll. Außerdem werden, wenn eine Karte mit hoher Genauigkeit von einem externen Server oder dergleichen bereitgestellt werden soll, um die Kommunikationskapazität zu reduzieren, Kartendaten von beispielsweise einem Quadrat von mehreren hundert Metern je Seite in Bezug auf einen geplanten Weg, der vom Fahrzeug 1 zurückgelegt werden soll, vom externen Server oder dergleichen erlangt.
  • Die Positionsinformations-Erfassungseinheit 24 empfängt GNSS-Signale von GNSS-(Global Navigation Satellite System)Satelliten und erfasst Positionsinformationen des Fahrzeugs 1. Die erfassten Positionsinformationen werden der Steuerungseinheit 29 für Fahrassistenz/automatisiertes Fahren bereitgestellt. Man beachte, dass die Positionsinformations-Erfassungseinheit 24 nicht auf das GNSS-Signale nutzende Verfahren beschränkt ist und Positionsinformationen beispielsweise unter Verwendung von Baken erfassen kann.
  • Der Sensor 25 zur externen Erkennung umfasst verschiedene Sensoren 25, die genutzt werden, um eine Situation außerhalb des Fahrzeugs 1 zu erkennen, und stellt jeder Einheit des Fahrzeugsteuerungssystems 11 Sensordaten von jedem Sensor bereit. Der Sensor 25 zur externen Erkennung kann jede beliebige Art von oder jede beliebige Anzahl an Sensoren umfassen.
  • Beispielsweise umfasst der Sensor 25 zur externen Erkennung eine Kamera 51, das Radar 52, das LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53 und einen Ultraschallsensor 54. Die Konfiguration ist nicht darauf beschränkt, und der Sensor 25 zur externen Erkennung kann so konfiguriert werden, dass er eine oder mehrere Arten von Sensoren unter der Kamera 51, dem Radar 52, dem LiDAR 53 und dem Ultraschallsensor 54 umfasst. Die Anzahl der Kameras 51, Radarsensoren 52, LiDAR-Sensoren 53 und Ultraschallsensoren 54 ist nicht sonderlich beschränkt, solange sie im Fahrzeug 1 realistisch installiert werden können. Außerdem ist die Art des im Sensor 25 zur externen Erkennung vorgesehenen Sensors nicht auf dieses Beispiel beschränkt und kann der Sensor 25 zur externen Erkennung mit anderen Arten von Sensoren versehen sein. Ein Beispiel des Erfassungsbereichs jedes im Sensor 25 zur externen Erkennung enthaltenen Sensors wird später beschrieben.
  • Man beachte, dass das Bilderzeugungsverfahren der Kamera 51 nicht sonderlich beschränkt ist. Beispielsweise können für die Kamera 51 nach Bedarf Kameras verschiedener Arten wie etwa eine ToF-(Time of Flight)Kamera, eine Stereokamera, eine monokulare Kamera und eine Infrarotkamera verwendet werden, die für eine Entfernungs- bzw. Abstandsmessung tauglich sind. Die Kamera 51 ist nicht auf diese beschränkt und kann einfach ein fotografiertes Bild unabhängig von der Abstandsmessung aufnehmen.
  • Außerdem kann der Sensor 25 zur externen Erkennung beispielsweise einen Umgebungssensor zum Detektieren der Umgebung in Bezug auf das Fahrzeug 1 einschließen. Der Umgebungssensor ist ein Sensor, um die Umgebung bzw. äußeren Umstände wie etwa das Wetter, das Klima, die Helligkeit und dergleichen zu detektieren, und kann verschiedene Sensoren wie etwa Regentropfensensoren, Nebelsensoren, Sonnensensoren, Schneesensoren und Beleuchtungsstärkesensoren umfassen.
  • Darüber hinaus schließt der Sensor 25 zur externen Erkennung beispielsweise ein Mikrofon ein, das genutzt werden soll, um Geräusche in der Umgebung des Fahrzeugs 1, eine Position einer Schallquelle oder dergleichen zu detektieren.
  • Der bordeigene bzw. fahrzeuginterne Sensor 26 umfasst verschiedene Sensoren zum Detektieren von Informationen innerhalb des Fahrzeugs und stellt jeder Einheit des Fahrzeugsteuerungssystems 11 Sensordaten von jedem Sensor bereit. Die Arten und die Anzahl verschiedener Sensoren, die im fahrzeuginternen Sensor 26 enthalten sind, sind nicht sonderlich beschränkt, solange es sich um die Arten und die Anzahl handelt, die innerhalb des Fahrzeugs 1 realistisch installiert werden können.
  • Beispielsweise kann der fahrzeuginterne Sensor 26 eine oder mehrere Kameras, Radar, Sitzsensoren, Lenkradsensoren, Mikrofone, biometrische Sensoren umfassen. Als die im fahrzeuginternen Sensor 26 vorgesehene Kamera können beispielsweise Kameras mit verschiedenen Aufnahmeverfahren, die für eine Abstandsmessung tauglich sind, wie etwa eine ToF-Kamera, eine Stereokamera, eine monokulare Kamera und eine Infrarotkamera verwendet werden. Die im fahrzeuginternen Sensor 26 enthaltene Kamera ist nicht auf diese beschränkt und kann einfach ein fotografiertes Bild unabhängig von der Abstandsmessung aufnehmen. Der im fahrzeuginternen Sensor 26 enthaltene Biosensor ist beispielsweise in einem Sitz oder einem Lenkrad vorgesehen und detektiert verschiedene Arten biologischer Informationen eines Insassen wie etwa eines Fahrers.
  • Der Fahrzeugsensor 27 umfasst verschiedene Sensoren zum Detektieren eines Zustands des Fahrzeugs 1 und stellt jeder Einheit des Fahrzeugsteuerungssystems 11 Daten von jedem Sensor bereit. Die Arten und die Anzahl verschiedener im Fahrzeugsensor 27 enthaltener Sensoren sind nicht sonderlich beschränkt, solange die Arten und die Anzahl im Fahrzeug 1 praktisch installiert werden können.
  • Beispielsweise umfasst der Fahrzeugsensor 27 einen Geschwindigkeitssensor, einen Beschleunigungssensor, einen Winkelgeschwindigkeitssensor (Gyroskopsensor) und eine Trägheitsmesseinheit (IMU), die diese integriert. Beispielsweise umfasst der Fahrzeugsensor 27 einen Lenkwinkelsensor, der einen Lenkwinkel des Lenkrades detektiert, einen Gierratensensor, einen Gaspedalsensor, der einen Betätigungsumfang des Gaspedals detektiert, und einen Bremssensor, der einen Betätigungsumfang des Bremspedals detektiert. Beispielsweise umfasst der Fahrzeugsensor 27 einen Rotationssensor, der eine Drehzahl einer Maschine oder eines Motors detektiert, einen Luftdrucksensor, der den Luftdruck eines Reifens detektiert, einen Schlupfverhältnissensor, der ein Schlupfverhältnis eines Reifens detektiert, und ein Raddrehzahlsensor, der eine Drehzahl eines Rades detektiert. Beispielsweise umfasst der Fahrzeugsensor 27 einen Batteriesensor, der die verbleibende Batterielebensdauer und die Temperatur einer Batterie detektiert, und einen Aufprallsensor, der einen Aufprall von außen detektiert.
  • Die Speichereinheit 28 umfasst zumindest eines eines nicht-flüchtigen Speichermediums und eines flüchtigen Speichermediums und speichert Daten und Programme. Die Speichereinheit 28 wird beispielsweise als EEPROM (Electrically Erasable Programmable Read Only Memory) und RAM (Random Access Memory) genutzt. Als Speichermedium kann eine magnetische Speichervorrichtung wie etwa eine HDD (Hard Disc Drive), eine Halbleiterspeichervorrichtung, eine optische Speichervorrichtung und eine magnetooptische Speichervorrichtung verwendet werden. Die Speichereinheit 28 speichert verschiedene Programme und Daten, die von jeder Einheit des Fahrzeugsteuerungssystems genutzt werden. Beispielsweise enthält die Speichereinheit 28 einen EDR (Event Data Recorder) und ein DSSAD (Date Storage System for Automated Driving) und speichert Informationen über das Fahrzeug 1 und Informationen, die vom fahrzeuginternen Sensor 26 vor und nach einem Ereignis wie etwa einem Unfall erfasst werden.
  • Die Steuerungseinheit 29 für Fahrassistenz/automatisiertes Fahren steuert die Fahrunterstützung und das automatisierte Fahren des Fahrzeugs 1. Beispielsweise umfasst die Steuerungseinheit 29 für Fahrassistenz/automatisiertes Fahren eine Analyseeinheit 61, eine Aktionsplanungseinheit 62 und eine Betriebs-Steuerungseinheit 63.
  • Die Analyseeinheit 61 führt eine Analyseverarbeitung des Fahrzeugs 1 und seiner Umgebung durch. Die Analyseeinheit 61 umfasst eine Einheit 71 zur Abschätzung der eigenen Position, eine Sensorfusionseinheit 72 und eine Erkennungseinheit 73.
  • Die Einheit 71 zur Abschätzung der eigenen Position schätzt die eigene Position des Fahrzeugs 1 basierend auf Sensordaten vom Sensor 25 zur externen Erkennung und der in der Karteninformations-Akkumulationseinheit 23 akkumulierten Karte mit hoher Genauigkeit ab. Beispielsweise schätzt die Einheit 71 zur Abschätzung der eigenen Position die eigene Position des Fahrzeugs 1 ab, indem eine lokale Karte basierend auf Sensordaten vom Sensor 25 zur externen Erkennung erzeugt wird und die lokale Karte und die Karte mit hoher Genauigkeit miteinander abgeglichen werden. Die Position des Fahrzeugs 1 basiert auf beispielsweise einer Mitte der Hinterachse.
  • Die lokale Karte ist beispielsweise eine dreidimensionale Karte mit hoher Genauigkeit, eine Belegungsgitterkarte oder dergleichen, die unter Verwendung einer Technik wie etwa SLAM (Simultaneous Localization and Mapping) erzeugt wird. Ein Beispiel einer dreidimensionalen Karte mit hoher Genauigkeit ist die oben beschriebene Punktwolkenkarte. Eine Belegungsgitterkarte ist eine Karte, die erzeugt wird, indem ein dreidimensionaler oder zweidimensionaler Raum um das Fahrzeug 1 in Gitter einer vorbestimmten Größe unterteilt wird, und die eine Belegung eines Objekts in Gittereinheiten angibt. Die Belegung eines Objekts wird durch beispielsweise das Vorhandensein oder Nichtvorhandensein des Objekts oder eine Wahrscheinlichkeit für das Vorhandensein des Objekts repräsentiert. Die lokale Karte wird auch in beispielsweise einer Detektionsverarbeitung und Erkennungsverarbeitung der Umgebung des Fahrzeugs 1 durch die Erkennungseinheit 73 verwendet.
  • Es sollte besonders erwähnt werden, dass die Einheit 71 zur Abschätzung der eigenen Position die eigene Position des Fahrzeugs 1 basierend auf den von der Positionsinformations-Erfassungseinheit 24 erfassten Positionsinformationen und Sensordaten vom Fahrzeugsensor 27 abschätzen kann.
  • Die Sensorfusionseinheit 72 führt eine Sensorfusionsverarbeitung durch, um neue Informationen zu erhalten, indem Sensordaten einer Vielzahl verschiedener Arten (zum Beispiel von der Kamera 51 bereitgestellte Bilddaten und vom Radar 52 bereitgestellte Sensordaten) kombiniert werden. Verfahren zum Kombinieren von Sensordaten einer Vielzahl verschiedener Arten umfassen eine Integration, Fusion und Verbindung bzw. Zuordnung.
  • Die Erkennungseinheit 73 führt eine Detektionsverarbeitung zum Detektieren der Situation außerhalb des Fahrzeugs 1 und eine Erkennungsverarbeitung zum Erkennen der Situation außerhalb des Fahrzeugs 1 durch.
  • Beispielsweise führt die Erkennungseinheit 73 eine Detektionsverarbeitung und Erkennungsverarbeitung der Umgebung des Fahrzeugs 1 basierend auf Informationen vom Sensor 25 zur externen Erkennung, Informationen von der Einheit 71 zur Abschätzung der eigenen Position, Informationen von der Sensorfusionseinheit 72 und dergleichen durch.
  • Konkret führt beispielsweise die Erkennungseinheit 73 eine Detektionsverarbeitung, eine Erkennungsverarbeitung und dergleichen eines Objekts in der Umgebung des Fahrzeugs 1 durch. Die Detektionsverarbeitung eines Objekts bezieht sich auf zum Beispiel eine Verarbeitung zum Detektieren des Vorhandenseins oder Nichtvorhandenseins, einer Größe, einer Form, einer Position, einer Bewegung oder dergleichen eines Objekts. Die Erkennungsverarbeitung eines Objekts bezieht sich auf beispielsweise eine Verarbeitung zum Erkennen eines Attributs wie etwa einer Objektart oder Identifizieren eines spezifischen Objekts. Jedoch ist eine Unterscheidung zwischen einer Detektionsverarbeitung und Erkennungsverarbeitung nicht immer offensichtlich, und manchmal kommt es zu einer Überlappung.
  • Beispielsweise detektiert die Erkennungseinheit 73 ein Objekt in der Umgebung des Fahrzeugs 1, indem ein Clustering bzw. eine Cluster-Verarbeitung durchgeführt wird, bei der eine Punktwolke basierend auf durch das Radar 52 oder das LiDAR 53 oder dergleichen erhaltenen Sensordaten in Blöcke von Punktgruppen klassifiziert wird. Dementsprechend werden das Vorhandensein oder Nichtvorhandensein, eine Größe, eine Form und eine Position eines Objekts in der Umgebung des Fahrzeugs 1 detektiert.
  • Beispielsweise detektiert die Erkennungseinheit 73 eine Bewegung des Objekts in der Umgebung des Fahrzeugs 1, indem eine Verfolgung durchgeführt wird, um eine Bewegung eines Clusters von Punktwolken zu verfolgen, die mittels Clustering klassifiziert wurden. Dementsprechend werden eine Geschwindigkeit und Fahrtrichtung (ein Bewegungsvektor) des Objekts in der Umgebung des Fahrzeugs 1 detektiert.
  • Die Erkennungseinheit 73 detektiert oder erkennt beispielsweise Fahrzeuge, Personen, Fahrräder, Hindernisse, Strukturen, Straßen, Ampeln, Verkehrszeichen, Straßenmarkierungen und dergleichen basierend auf den von der Kamera 51 bereitgestellten Bilddaten. Beispielsweise kann die Erkennungseinheit 73 die Art eines Objekts in der Umgebung des Fahrzeugs 1 detektieren, indem eine Erkennungsverarbeitung wie etwa eine semantische Segmentierung durchgeführt wird.
  • Die Erkennungseinheit 73 kann beispielsweise eine Erkennungsverarbeitung von Verkehrsregeln in der Umgebung des Fahrzeugs 1 basierend auf in der Karteninformations-Akkumulationseinheit 23 akkumulierten Karten, einem Abschätzungsergebnis für die eigene Position, das durch die Einheit 71 zur Abschätzung der eigenen Position erhalten wurde, und einem Erkennungsergebnis eines Objekts in der Umgebung des Fahrzeugs 1, das durch die Erkennungseinheit 73 erhalten wurde, durchführen. Durch diese Verarbeitung kann die Erkennungseinheit 73 die Position und den Zustand von Ampeln, den Inhalt von Verkehrsschildern und Straßenmarkierungen, den Inhalt von Verkehrseinschränkungen, die Fahrspuren, auf denen das Fahrzeug fahren kann, und dergleichen erkennen.
  • Die Erkennungseinheit 73 kann beispielsweise eine Erkennungsverarbeitung einer Umgebung des Fahrzeugs 1 durchführen. Das mittels der Erkennungseinheit 73 zu erkennende Umfeld umfasst das Wetter, die Temperatur, die Luftfeuchtigkeit, die Helligkeit, Bedingungen der Straßenoberfläche und dergleichen.
  • Die Aktionsplanungseinheit 62 erzeugt einen Aktionsplan des Fahrzeugs 1. Beispielsweise erzeugt die Aktionsplanungseinheit 62 einen Aktionsplan, indem eine Verarbeitung zur Wegplanung und Wegverfolgung durchgeführt wird.
  • Die Wegplanung (globale Wegplanung) ist eine Verarbeitung zum Planen eines allgemeinen Wegs vom Start bis zum Ziel. Die Wegplanung umfasst auch eine Verarbeitung einer Trajektorien-Erzeugung (lokale Wegplanung), auf die als Trajektorien-Planung verwiesen wird und die eine sichere und reibungslose Fahrt in der Umgebung des Fahrzeugs 1 unter Berücksichtigung der Bewegungscharakteristiken des Fahrzeugs 1 entlang einem geplanten Weg ermöglicht.
  • Die Wegverfolgung bezieht sich auf eine Verarbeitung zum Planen eines Betriebs zum sicheren und genauen Abfahren des mittels der Wegplanung geplanten Wegs innerhalb einer geplanten Zeit. Die Aktionsplanungseinheit 62 kann beispielsweise die Zielgeschwindigkeit und Zielwinkelgeschwindigkeit des Fahrzeugs 1 basierend auf dem Ergebnis dieser Verarbeitung zur Wegverfolgung berechnen.
  • Die Betriebs-Steuerungseinheit 63 steuert Betriebsvorgänge bzw. den Betrieb des Fahrzeugs 1, um den durch die Aktionsplanungseinheit 62 erzeugten Aktionsplan zu realisieren.
  • Beispielsweise steuert die Betriebs-Steuerungseinheit 63 eine Lenk-Steuerungseinheit 81, eine Brems-Steuerungseinheit 82 und eine Antriebs-Steuerungseinheit 83, die in der Fahrzeug-Steuerungseinheit 32 enthalten sind, die später beschrieben wird, um eine Beschleunigungs-/Verzögerungssteuerung und Richtungssteuerung so durchzuführen, dass das Fahrzeug 1 entlang einer mittels der Trajektorien-Planung berechneten Trajektorie fährt. Beispielsweise führt die Betriebs-Steuerungseinheit 63 eine kooperative Steuerung durch, um Funktionen des ADAS wie etwa eine Kollisionsvermeidung oder Stoßdämpfung, das Fahren, bei dem man einem Wagen folgt, das Fahren mit konstanter Geschwindigkeit, eine Kollisionswarnung des Host-Fahrzeugs und eine Spurabweichungswarnung des Host-Fahrzeugs zu realisieren. Beispielsweise führt die Betriebs-Steuerungseinheit 63 eine kooperative Steuerung durch, um automatisiertes Fahren oder dergleichen zu realisieren, bei dem ein Fahrzeug unabhängig von Manipulationen durch einen Fahrer autonom fährt.
  • Das DMS 30 führt eine Authentifizierungsverarbeitung eines Fahrers, eine Erkennungsverarbeitung für einen Zustand des Fahrers und dergleichen basierend auf Sensordaten vom fahrzeuginternen Sensor 26, Eingabedaten, die in die später beschreibende HMI 31 eingegeben werden, und dergleichen durch. Als Zustand des Fahrers, der ein Erkennungsziel sein soll, wird zum Beispiel ein körperlicher Zustand, ein Erregungsniveau, ein Konzentrationsniveau, ein Ermüdungsniveau bzw. -grad, eine Blickrichtung, ein Rauschniveau, ein Fahrbetrieb oder eine Haltung angenommen.
  • Alternativ dazu kann das DMS 30 auch so konfiguriert sein, dass es eine Authentifizierungsverarbeitung eines Insassen, bei dem es sich nicht um den Fahrer handelt, und eine Erkennungsverarbeitung eines Zustands eines solchen Insassen durchführt. Darüber hinaus kann beispielsweise das DMS 30 so konfiguriert sein, dass es eine Erkennungsverarbeitung einer Situation innerhalb des Fahrzeugs basierend auf Sensordaten vom fahrzeuginternen Sensor 26 durchführt. Als die Situation innerhalb des Fahrzeugs, die ein Erkennungsziel sein soll, wird beispielsweise die Temperatur, die Luftfeuchtigkeit, die Helligkeit oder der Geruch angenommen.
  • Die HMI 31 gibt verschiedene Stücke von Daten, Anweisungen und dergleichen ein und präsentiert dem Fahrer verschiedene Datenstücke oder dergleichen.
  • Mittels der HMI 31 eingegebene Daten werden schematisch beschrieben. Die HMI 31 umfasst eine Eingabevorrichtung für eine Person, um Daten einzugeben. Die HMI 31 erzeugt ein Eingangssignal basierend auf Eingabedaten, einer Eingabeanweisung oder dergleichen, die mittels einer Eingabevorrichtung eingegeben werden, und stellt jeder Einheit des Fahrzeugsteuerungssystems 11 das erzeugte Eingangssignal bereit. Die HMI 31 umfasst Operatoren bzw. Bedienelemente wie etwa ein Touch-Panel, Tasten, Schalter und Hebel als Eingabevorrichtungen. Die HMI 31 ist nicht auf diese beschränkt und kann ferner eine Eingabevorrichtung einschließen, die imstande ist, Informationen mittels eines anderen Verfahrens als einer manuellen Bedienung unter Verwendung von Sprache, Gesten oder dergleichen einzugeben. Darüber hinaus kann die HMI 31 als Eingabevorrichtung eine Fernsteuerungsvorrichtung, die Infrarotstrahlen oder Funkwellen nutzt, oder eine Vorrichtung für eine externe Verbindung wie etwa eine Mobilvorrichtung oder tragbare Vorrichtung entsprechend dem Betrieb des Fahrzeugsteuerungssystems 11 nutzen.
  • Die Präsentation von Daten mittels der HMI 31 wird schematisch beschrieben. Die HMI 31 erzeugt visuelle Informationen, akustische Informationen und taktile Informationen für den Insassen oder die äußere Umgebung des Fahrzeugs. Außerdem führt die HMI 31 eine Ausgabesteuerung durch, um die Ausgabe, den Inhalt der Ausgabe, den Zeitpunkt der Ausgabe, das Ausgabeverfahren und dergleichen von jedem der erzeugten Stücke an Informationen zu steuern. Die HMI 31 erzeugt und gibt als visuelle Informationen beispielsweise Informationen aus, die mittels Bilder und Licht wie etwa eines Bedienschirms, einer Zustandsanzeige des Fahrzeugs 1, einer Warnanzeige und eines Monitorbild, das die Umgebung des Fahrzeugs 1 angibt, dargestellt werden. Die HMI 31 erzeugt und gibt als akustische Informationen auch Informationen aus, die mittels Töne wie etwa einer Sprachführung, Warntöne, Warnmeldungen und dergleichen dargestellt werden. Die HMI 31 erzeugt und gibt als taktile Informationen darüber hinaus Informationen aus, die einem Insassen mittels einer Kraft, Vibration, Bewegung oder dergleichen taktil präsentiert werden.
  • Als Ausgabevorrichtung, über die die HMI 31 optische Informationen ausgibt, kann beispielsweise eine Anzeigevorrichtung, die visuelle Informationen durch Anzeigen eines Bildes selbst präsentiert, oder eine Projektorvorrichtung, die visuelle Informationen durch Projizieren eines Bildes präsentiert, verwendet werden. Zusätzlich zur Anzeigevorrichtung mit einer normalen Anzeige kann die Anzeigevorrichtung eine Vorrichtung sein, die visuelle Informationen innerhalb des Sichtfeldes des Insassen anzeigt, wie etwa ein Head-up-Display, ein durchlässiges Display und eine tragbare Vorrichtung mit einer AR-(Augmented Reality)Funktion. Die HMI 31 kann auch eine im Fahrzeug 1 vorgesehene Anzeigevorrichtung wie etwa eine Navigationsvorrichtung, eine Instrumententafel, ein CMS (Camera Monitoring System), einen elektronischen Spiegel, eine Lampe und dergleichen als Ausgabevorrichtung zum Ausgeben visueller Informationen nutzen.
  • Als Ausgabevorrichtung, über die die HMI 31 akustische Informationen ausgibt, können beispielsweise Lautsprecher, Kopfhörer und Ohrhörer verwendet werden.
  • Als Ausgabevorrichtung, über die die HMI 31 taktile Informationen ausgibt, kann beispielsweise ein eine haptische Technologie nutzendes haptisches Element verwendet werden. Ein haptisches Element ist an einem Teil des Fahrzeugs 1, der mit einem Insassen in Kontakt ist, wie etwa einem Lenkrad oder einem Sitz, vorgesehen.
  • Die Fahrzeug-Steuerungseinheit 32 steuert jede Einheit des Fahrzeugs 1. Die Fahrzeug-Steuerungseinheit 32 umfasst die Lenk-Steuerungseinheit 81, die Brems-Steuerungseinheit 82, die Antriebs-Steuerungseinheit 83, eine Karosseriesystem-Steuerungseinheit 84, eine Licht-Steuerungseinheit 85 und eine Hupen-Steuerungseinheit 86.
  • Die Lenk-Steuerungseinheit 81 führt eine Detektion, Steuerung und dergleichen eines Zustandes eines Lenksystems des Fahrzeugs 1 durch. Das Lenksystem umfasst beispielsweise einen Lenkmechanismus, der das Lenkrad und dergleichen, eine elektronische Servolenkung und dergleichen umfasst. Beispielsweise umfasst die Lenk-Steuerungseinheit 81 eine Lenk-ECU, die das Lenksystem steuert, einen Aktuator, der das Lenksystem ansteuert, und dergleichen.
  • Die Brems-Steuerungseinheit 82 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Bremssystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Bremssystem einen Bremsmechanismus, der ein Bremspedal und dergleichen umfasst, ein ABS (Antilock Brake System), einen regenerativen Bremsmechanismus und dergleichen. Die Brems-Steuerungseinheit 82 umfasst zum Beispiel eine Brems-ECU, die das Bremssystem steuert, einen Aktuator, der das Bremssystem ansteuert, und dergleichen.
  • Die Antriebs-Steuerungseinheit 83 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Antriebssystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Antriebssystem ein Gaspedal, eine Antriebskraft-Erzeugungseinrichtung zum Erzeugen einer Antriebskraft wie etwa einen Verbrennungsmotor oder einen Antriebsmotor, einen Antriebskraft-Übertragungsmechanismus zum Übertragen der Antriebskraft auf die Räder und dergleichen. Beispielsweise umfasst die Antriebs-Steuerungseinheit 83 eine Antriebs-ECU, die das Antriebssystem steuert, einen Aktuator, der das Antriebssystem ansteuert, und dergleichen.
  • Die Karosseriesystem-Steuerungseinheit 84 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Karosseriesystems des Fahrzeugs 1 durch. Beispielsweise umfasst das Karosseriesystem ein schlüsselloses Zugangssystem, ein Smart-Key-System, eine elektrische Fensterhebereinrichtung, einen elektrisch verstellbaren Sitz, eine Klimaanlage, einen Airbag, einen Sicherheitsgurt und einen Schalthebel. Beispielsweise umfasst die Karosseriesystem-Steuerungseinheit 84 eine Karosseriesystem-ECU, die das Karosseriesystem steuert, einen Aktuator, der das Karosseriesystem ansteuert, und dergleichen.
  • Die Licht-Steuerungseinheit 85 führt eine Detektion, Steuerung und dergleichen eines Zustands verschiedener Leuchten des Fahrzeugs 1 durch. Als Leuchten, die ein Steuerungsziel bilden sollen, werden beispielsweise ein Scheinwerfer, eine Rückleuchte, eine Nebelleuchte, ein Blinker, eine Bremsleuchte, eine Projektorleuchte und eine Stoßfängeranzeige angenommen. Die Licht-Steuerungseinheit 85 umfasst eine Licht-ECU, die das Licht steuert, einen Aktuator, der die Leuchten ansteuert, und dergleichen.
  • Die Hupen-Steuerungseinheit 86 führt eine Detektion, Steuerung und dergleichen eines Zustands einer Autohupe des Fahrzeugs 1 durch. Beispielsweise umfasst die Hupen-Steuerungseinheit 86 eine Hupen-ECU, die die Autohupe steuert, einen Aktuator, der die Autohupe ansteuert, und dergleichen.
  • 2 ist ein Diagramm, das ein Beispiel der Erfassungsbereiche mittels der Kamera 51, des Radars 52, des LiDAR 53, des Ultraschallsensors 54 und dergleichen des Sensors 25 zur externen Erkennung in 1 darstellt. 2 stellt schematisch das von oben betrachtete Fahrzeug 1 dar, wobei die Seite am linken Ende die Seite des vorderen Endes (der Front) des Fahrzeugs 1 ist und die Seite am rechten Ende die Seite des hinteren Endes (des Hecks) des Fahrzeugs 1 ist.
  • Ein Erfassungsbereich 101F und ein Erfassungsbereich 101B repräsentieren ein Beispiel für Erfassungsbereiche des Ultraschallsensors 54. Der Erfassungsbereich 101F deckt die Peripherie des vorderen Endes des Fahrzeugs 1 mit einer Vielzahl von Ultraschallsensoren 54 ab. Der Erfassungsbereich 101B deckt die Peripherie des hinteren Endes des Fahrzeugs 1 mit einer Vielzahl von Ultraschallsensoren 54 ab.
  • Erfassungsergebnisse in dem Erfassungsbereich 101F und dem Erfassungsbereich 101B werden verwendet, um das Fahrzeug 1 mit einer Einparkhilfe oder dergleichen zu versehen.
  • Ein Erfassungsbereich 102F bis zu einem Erfassungsbereich 102B repräsentieren ein Beispiel für Erfassungsbereiche des Radars 52 für kurze und mittlere Entfernungen bzw. Abstände. Der Erfassungsbereich 102F deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 101F, vor dem Fahrzeug 1 ab. Der Erfassungsbereich 102B deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 101B, hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 102L deckt die Peripherie in Richtung des Hecks einer linksseitigen Oberfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 102R deckt die Peripherie in Richtung des Hecks einer rechtsseitigen Oberfläche des Fahrzeugs 1 ab.
  • Ein Erfassungsergebnis im Erfassungsbereich 102F wird genutzt, um beispielsweise ein Fahrzeug, einen Fußgänger oder dergleichen zu detektieren, die vor dem Fahrzeug 1 vorhanden sind. Ein Erfassungsergebnis im Erfassungsbereich 102B wird durch beispielsweise eine Funktion zum Verhindern einer Kollision hinter dem Fahrzeug 1 genutzt. Erfassungsergebnisse in dem Erfassungsbereich 102L und dem Erfassungsbereich 102R werden genutzt, um beispielsweise ein in einem toten Winkel an den Seiten des Fahrzeugs 1 vorhandenes Objekt zu detektieren.
  • Ein Erfassungsbereich 103F bis zu einem Erfassungsbereich 103B repräsentieren ein Beispiel für Erfassungsbereiche durch die Kamera 51. Der Erfassungsbereich 103F deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 102F, vor dem Fahrzeug 1 ab. Der Erfassungsbereich 103B deckt eine Position, die weiter entfernt liegt als der Erfassungsbereich 102B, hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 103L deckt eine Peripherie der linksseitigen Oberfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 103R deckt eine Peripherie der rechtsseitigen Oberfläche des Fahrzeugs 1 ab.
  • Ein Erfassungsergebnis im Erfassungsbereich 103F kann beispielsweise verwendet werden, um eine Ampel oder ein Verkehrszeichen zu erkennen, was von einem Unterstützungssystem zur Vermeidung von Fahrspurabweichungen und einem System zur automatischen Scheinwerfersteuerung genutzt wird. Ein Erfassungsergebnis im Erfassungsbereich 103B kann beispielsweise für eine Einparkhilfe und ein Rundumsichtsystem verwendet werden. Erfassungsergebnisse in dem Erfassungsbereich 103L und dem Erfassungsbereich 103R können beispielsweise in einem Rundumsichtsystem genutzt werden.
  • Ein Erfassungsbereich 104 repräsentiert ein Beispiel für einen Erfassungsbereich des LiDAR 53. Der Erfassungsbereich 104 deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 103F, vor dem Fahrzeug 1 ab. Auf der anderen Seite weist der Erfassungsbereich 104 einen engeren Bereich in der Links-Rechts-Richtung als der Erfassungsbereich 103F auf.
  • Erfassungsergebnisse im Erfassungsbereich 104 werden beispielsweise verwendet, um Objekte wie etwa Fahrzeuge in der Umgebung zu detektieren.
  • Ein Erfassungsbereich 105 repräsentiert ein Beispiel für einen Erfassungsbereich des Radars 52 für große Entfernungen. Der Erfassungsbereich 105 deckt bis zu einer Position, die weiter entfernt liegt als der Erfassungsbereich 104, vor dem Fahrzeug 1 ab. Auf der anderen Seite weist der Erfassungsbereich 105 einen engeren Bereich in der Links-Rechts-Richtung als der Erfassungsbereich 104 auf.
  • Das Erfassungsergebnis im Erfassungsbereich 105 wird beispielsweise für ACC (Adaptive Cruise Control), eine Notbremsung, eine Kollisionsvermeidung und dergleichen verwendet.
  • Die Erfassungsbereiche der Kamera 51, des Radars 52, des LiDAR 53 und des Ultraschallsensors 54, die im Sensor 25 zur externen Erkennung enthalten sind, können verschiedene Konfigurationen aufweisen, die sich von jenen, die in 2 dargestellt sind, unterscheiden. Konkret kann der Ultraschallsensor 54 so konfiguriert sein, dass er auch die Seiten des Fahrzeugs 1 erfasst, oder kann das LiDAR 53 so konfiguriert sein, dass es auch den Heckbereich des Fahrzeugs 1 erfasst. Außerdem ist die Installationsposition jedes Sensors nicht auf jedes oben erwähnte Beispiel beschränkt. Darüber hinaus kann die Anzahl der einzelnen Sensoren eins oder mehr betragen.
  • Die vorliegende Technologie kann beispielsweise für das LiDAR 53 verwendet werden.
  • «2. Ausführungsform»
  • Als Nächstes werden Ausführungsformen der vorliegenden Technologie mit Verweis auf 3 bis 9 beschrieben.
  • <Konfigurationsbeispiel eines LiDAR 201>
  • 3 stellt eine Ausführungsform des LiDAR 201 dar, für das die vorliegende Technologie verwendet wird.
  • Bei dem LiDAR 201 handelt es sich beispielsweise um ein dToF-(Direct Time of Flight)LiDAR. Das LiDAR 201 umfasst eine lichtemittierende Einheit 211, eine Scan-Einheit 212, eine lichtempfangende Einheit 213, eine Steuerungseinheit 214 und eine Datenverarbeitungseinheit 215. Die lichtemittierende Einheit 211 umfasst eine LD (Laser Diode) (Laserdiode) 221 und einen ID-Treiber 222. Die Scan-Einheit 212 weist einen Polygonspiegel 231 und einen Polygonspiegel-Treiber 232 auf. Die Steuerungseinheit 214 weist eine Lichtemissionszeitpunkt-Steuerungseinheit 241, eine Spiegel-Steuerungseinheit 242, eine Lichtempfangs-Steuerungseinheit 243 und eine Gesamt-Steuerungseinheit 244 auf. Die Datenverarbeitungseinheit 215 umfasst eine Umwandlungseinheit 251, eine Histogramm-Erzeugungseinheit 252, eine Abstandsmesseinheit 253 und eine Punktwolken-Erzeugungseinheit 254.
  • Die LD 221 emittiert gepulstes Laserlicht (worauf hier im Folgenden als Bestrahlungslicht verwiesen wird) unter der Steuerung des LD-Treibers 222.
  • Der LD-Treiber 222 treibt bzw. steuert die LD 221 in Einheiten einer vorbestimmten Zeit Δt unter der Steuerung der Lichtemissionszeitpunkt-Steuerungseinheit 241 an.
  • Der Polygonspiegel 231 reflektiert das einfallende Licht von der LD 221, während er sich unter der Steuerung des Polygonspiegel-Treibers 232 um eine vorbestimmte Achse dreht. Auf diese Weise wird das Bestrahlungslicht in der Links-Rechts-Richtung (horizontalen Richtung) gescannt.
  • Das Koordinatensystem des LiDAR 201 (worauf hier im Folgenden als LiDAR-Koordinatensystem verwiesen wird) ist durch beispielsweise zueinander orthogonale X-, Y- und Z-Achsen definiert. Die X-Achse ist beispielsweise eine Achse parallel zur Links-Rechts-Richtung (horizontalen Richtung) des LiDAR 201. Daher handelt es sich bei der Abtast- bzw. Scan-Richtung des Bestrahlungslichts um die X-Achsenrichtung. Die Y-Achse ist beispielsweise eine Achse parallel zur vertikalen Richtung (longitudinalen Richtung) des LiDAR 201. Die Z-Achse ist beispielsweise eine Achse parallel zur Vorwärts-Rückwärts-Richtung (Tiefenrichtung, Entfernungs- bzw. Abstandsrichtung) des LiDAR 201.
  • Der Polygonspiegel-Treiber 232 steuert den Polygonspiegel 231 unter der Steuerung der Spiegel-Steuerungseinheit 242.
  • Die lichtempfangende Einheit 213 enthält beispielsweise eine Pixel-Arrayeinheit, in der Pixel, in denen Einzelphotonen-Lawinendioden (SPADs; Single Photon Avalanche Diodes) zweidimensional angeordnet sind, in einer vorbestimmten Richtung angeordnet sind.
  • Hier ist das Koordinatensystem der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 durch beispielsweise die x-Achse und die y-Achse definiert. Die x-Achsenrichtung ist die Richtung, die der X-Achsenrichtung des LiDAR-Koordinatensystems entspricht, und die y-Achsenrichtung ist die der Y-Achsenrichtung des LiDAR-Koordinatensystems entsprechende Richtung. In der Pixel-Arrayeinheit ist jedes Pixel in der y-Achsenrichtung angeordnet.
  • Jedes Pixel der lichtempfangenden Einheit 213 empfängt einfallendes Licht, das reflektiertes Licht enthält, bei dem es sich um das von einem Objekt reflektierte Licht handelt, unter der Steuerung der Lichtempfangs-Steuerungseinheit 243. Die lichtempfangende Einheit 213 stellt der Lichtempfangs-Steuerungseinheit 243 ein Pixel-Signal bereit, das die Intensität des von jedem Pixel empfangenen einfallenden Lichts angibt.
  • Die Lichtemissionszeitpunkt-Steuerungseinheit 241 steuert den LD-Treiber 222 unter der Steuerung der Gesamt-Steuerungseinheit 244, um den Lichtemissionszeitpunkt der LD 221 zu steuern.
  • Die Spiegel-Steuerungseinheit 242 steuert den Polygonspiegel-Treiber 232 unter der Steuerung der Gesamt-Steuerungseinheit 244, um das Abtasten bzw. Scannen des Bestrahlungslichts mittels des Polygonspiegels 231 zu steuern.
  • Die Lichtempfangs-Steuerungseinheit 243 treibt bzw. steuert die lichtempfangende Einheit 213 an. Die Lichtempfangs-Steuerungseinheit 243 stellt der Gesamt-Steuerungseinheit 244 das von der lichtempfangenden Einheit 213 bereitgestellte Pixel-Signal jedes Pixels bereit.
  • Die Gesamt-Steuerungseinheit 244 steuert die Lichtemissionszeitpunkt-Steuerungseinheit 241, die Spiegel-Steuerungseinheit 242 und die Lichtempfangs-Steuerungseinheit 243. Außerdem stellt die Gesamt-Steuerungseinheit 244 der Umwandlungseinheit 251 das von der Lichtempfangs-Steuerungseinheit 243 bereitgestellte Pixel-Signal bereit.
  • Die Umwandlungseinheit 251 wandelt das von der Gesamt-Steuerungseinheit 244 bereitgestellte Pixel-Signal in ein digitales Signal um und stellt der Histogramm-Erzeugungseinheit 252 das digitale Signal bereit.
  • Die Histogramm-Erzeugungseinheit 252 erzeugt ein Histogramm, das die Zeitreihenverteilung der Intensität des einfallenden Lichts von jedem vorbestimmten Einheitssichtfeld darstellt. Das Histogramm jedes Einheitssichtfeldes gibt beispielsweise die Zeitreihenverteilung der Intensität eines einfallenden Lichts von jedem Einheitssichtfeld seit dem Zeitpunkt, zu dem das Bestrahlungslicht für jedes Einheitssichtfeld emittiert wurde, an.
  • Die Position jedes Einheitssichtfeldes ist durch die Positionen in der X-Achsenrichtung und der Y-Achsenrichtung des LiDAR-Koordinatensystems definiert.
  • Beispielsweise wird das Bestrahlungslicht innerhalb eines vorbestimmten Bereichs (worauf hier im Folgenden als Abtast- bzw. Scan-Bereich verwiesen wird) in der X-Achsenrichtung gescannt. Die Abstandsmessverarbeitung wird dann für jedes Einheitssichtfeld mit einem vorbestimmten Sichtwinkel ΔΘ in der X-Achsenrichtung durchgeführt. Falls beispielsweise der Abtast-Bereich des Bestrahlungslichts innerhalb des Bereichs von -60° bis 60° liegt und der Sichtwinkel des Einheitssichtfeldes 0,2° beträgt, beträgt die Anzahl an Einheitssichtfeldern in der X-Achsenrichtung 600 (=120°/0,2°). Der Sichtwinkel des Einheitssichtfeldes in der X-Achsenrichtung ist die Auflösung des LiDAR 201 in der X-Achsenrichtung. Die Auflösung in der X-Achsenrichtung des LiDAR 201 entspricht beispielsweise dem Pixel-Abstand in der x-Achsenrichtung der Pixel-Arrayeinheit der lichtempfangenden Einheit 213.
  • Jedes Pixel der Pixel-Arrayeinheit der lichtempfangenden Einheit 213 empfängt beispielsweise reflektiertes Licht von verschiedenen Einheitssichtfeldern in der Y-Achsenrichtung. Daher ist die Anzahl an Einheitssichtfeldern in der Y-Achsenrichtung gleich der Anzahl an Pixeln in der y-Achsenrichtung der Pixel-Arrayeinheit der lichtempfangenden Einheit 213. Wenn beispielsweise die Anzahl an Pixeln in der y-Achsenrichtung der Pixel-Arrayeinheit 64 beträgt, beträgt die Anzahl an Einheitssichtfeldern in der Y-Achsenrichtung 64. Der Sichtwinkel des Einheitssichtfeldes in der Y-Achsenrichtung ist die Auflösung des LiDAR 201 in der Y-Achsenrichtung.
  • Auf diese Weise wird der Bestrahlungsbereich des Bestrahlungslichts in Einheitssichtfelder unterteilt, die in der X-Achsenrichtung und der Y-Achsenrichtung zweidimensional angeordnet sind. Für jedes Einheitssichtfeld wird dann eine Abstandsmessverarbeitung durchgeführt.
  • Die Histogramm-Erzeugungseinheit 252 stellt der Abstandsmesseinheit 253 die Histogrammdaten entsprechend jedem Einheitssichtfeld bereit.
  • Die Abstandsmesseinheit 253 misst den Abstand (die Tiefe) in der Z-Achsenrichtung zum Reflexionspunkt des Bestrahlungslichts in jedem Einheitssichtfeld basierend auf dem Histogramm jedes Einheitssichtfeldes. Beispielsweise erzeugt die Abstandsmesseinheit 253 eine Näherungskurve des Histogramms und detektiert den Peak der Näherungskurve. Der Zeitpunkt, zu dem diese Näherungskurve ihren Peak erreicht, ist die Zeit von dem Zeitpunkt, zu dem das Bestrahlungslicht emittiert wird, bis zu dem Zeitpunkt, zu dem das reflektierte Licht empfangen wird. Die Abstandsmesseinheit 253 wandelt die Peak-Zeit der Näherungskurve jedes Histogramms in den Abstand zum Reflexionspunkt, wo das Bestrahlungslicht reflektiert wird, um. Die Abstandsmesseinheit 253 stellt der Punktwolken-Erzeugungseinheit 254 Informationen bereit, die den Abstand zum Reflexionspunkt in jedem Einheitssichtfeld angeben.
  • Die Punktwolken-Erzeugungseinheit 254 erzeugt eine Punktwolke (Punktwolkendaten), die die Verteilung jedes Reflexionspunkts im LiDAR-Koordinatensystem basierend auf dem Abstand zu jedem Reflexionspunkt in jedem Einheitssichtfeld repräsentiert. Die Punktwolken-Erzeugungseinheit 254 gibt die erzeugte Punktwolke repräsentierende Daten an eine nachfolgende Vorrichtung aus.
  • <Konfigurationsbeispiel eines optischen Systems des LiDAR 201>
  • 4 stellt ein Konfigurationsbeispiel des optischen Systems des LiDAR 201 dar.
  • Das LiDAR 201 umfasst zusätzlich zu der oben mit Verweis auf 3 beschriebenen Konfiguration eine Linse 261, einen Klappspiegel 262 und eine Linse 263.
  • Von der LD 221 emittiertes Bestrahlungslicht wird durch die Linse 261 in einer der Y-Achsenrichtung des LiDAR-Koordinatensystems entsprechenden Richtung gespreizt bzw. gestreut und dann vom Klappspiegel 262 in Richtung des Polygonspiegels 232 reflektiert. Der Polygonspiegel 231 reflektiert das Bestrahlungslicht, während er sich um eine Achse φ in der X-Achsenrichtung dreht, wodurch das in der Y-Achsenrichtung gestreckte Bestrahlungslicht in der X-Achsenrichtung radial gescannt wird.
  • Das einfallende Licht, das das reflektierte Licht enthält, das von einem innerhalb des Scan-Bereichs des Bestrahlungslichts vorhandenen Objekt reflektiert wurde, tritt in den Polygonspiegel 231 ein und wird vom Polygonspiegel 231 in Richtung des Klappspiegels 262 reflektiert. Das vom Polygonspiegel 231 reflektierte einfallende Licht geht durch den Klappspiegel 262 hindurch, wird durch die Linse 263 gesammelt und tritt in die lichtempfangende Einheit 213 ein.
  • <Erste Ausführungsform zum Erhöhen der Auflösung des LiDAR 201>
  • Als Nächstes wird mit Verweis auf 5 eine erste Ausführungsform zum Erhöhen der Auflösung des LiDAR 201 beschrieben.
  • 5 stellt ein Konfigurationsbeispiel der Pixel-Arrayeinheit 213A der lichtempfangenden Einheit 213 des LiDAR 201 dar. Kleine quadratische Rahmen bzw. Frames in A und B von 5 geben die Positionen von SPADs an. Große dicke quadratische Frames in A und B von 5 geben die Positionen von Pixeln an.
  • Konkret sind in der Pixel-Arrayeinheit 213A SPADs in der x-Achsenrichtung und der y-Achsenrichtung zweidimensional angeordnet. Die x-Achsenrichtung der Pixel-Arrayeinheit 213A entspricht der Scan-Richtung des Bestrahlungslichts, und die y-Achsenrichtung der Pixel-Arrayeinheit 213A entspricht der Richtung, in der sich das Bestrahlungslicht erstreckt. Außerdem wird ein Pixel von einer vorbestimmten Anzahl an SPADs in der x-Achsenrichtung und der y-Achsenrichtung gebildet. In diesem Beispiel besteht ein Pixel aus 36 SPADs, sechs in der x-Achsenrichtung und sechs in der y-Achsenrichtung. Jedes Pixel ist in der y-Achsenrichtung angeordnet.
  • Jedes Pixel gibt dann ein Pixel-Signal ab, das die Intensität des einfallenden Lichts basierend auf der Anzahl an SPADs, die Photonen empfangen haben, angibt.
  • Wie in A und B von 5 dargestellt ist, kann die lichtempfangende Einheit 213 die Positionen der Pixel der Pixel-Arrayeinheit 213A unter der Steuerung der Lichtempfangs-Steuerungseinheit 243 verschieben.
  • Im Beispiel A von 5 sind beispielsweise acht Pixel P1A bis P8A in der y-Achsenrichtung angeordnet. Auf der anderen Seite sind im Beispiel B von 5 Pixel P1B bis P8B an Positionen angeordnet, die um 1/2 des Pixel-Abstands gegenüber den Pixeln P1A bis P8A in der y-Achsenrichtung verschoben sind.
  • Beispielsweise verschiebt die Lichtempfangs-Steuerungseinheit 243 die Positionen der Pixel der Pixel-Arrayeinheit 213A in der y-Achsenrichtung für jeden Frame unter der Steuerung der Gesamt-Steuerungseinheit 244. Beispielsweise setzt die Lichtempfangs-Steuerungseinheit 243 die Pixel-Position auf die in A von 5 gezeigte Position in ungeradzahlig nummerierten Frames und setzt die Pixel-Position auf die in B von 5 dargestellte Position in geradzahlig nummerierten Frames.
  • Infolgedessen wird der Pixel-Abstand in der y-Achsenrichtung der Pixel-Arrayeinheit 213A im Wesentlichen halbiert und wird der Abstand zwischen den Einheitssichtfeldern in der Y-Achsenrichtung im Wesentlichen halbiert. Als Ergebnis wird die Auflösung des LiDAR 201 in der Y-Achsenrichtung im Wesentlichen halbiert und kann die Auflösung des LiDAR 201 verbessert werden, während die Anzahl an SPADs in der Pixel-Arrayeinheit 213A unterdrückt wird.
  • Man beachte, dass beispielsweise die Punktwolken-Erzeugungseinheit 254 die im ungeradzahlig nummerierten Frame erzeugte Punktwolke und die im geradzahlig nummerierten Frame erzeugte Punktwolke synthetisieren kann. Dies ermöglicht, dass die Punktwolke feiner ist.
  • Ferner ist der Verschiebungsbetrag in der y-Achsenrichtung der Position des Pixels in der Pixel-Arrayeinheit 213A nicht auf 1/2 des Pixel-Abstands beschränkt. Beispielsweise kann der Verschiebungsbetrag der Pixel-Position in der y-Achsenrichtung 1/3 oder mehr und 2/3 oder weniger des Pixel-Abstands betragen. Mit anderen Worten kann der Verschiebungsbetrag in der Y-Achsenrichtung der Positionen der Einheitssichtfelder 1/3 oder mehr und 2/3 oder weniger des Abstands zwischen den Einheitssichtfeldern in der Y-Achsenrichtung bilden.
  • <Zweite Ausführungsform zum Erhöhen der Auflösung des LiDAR 201>
  • Als Nächstes wird mit Verweis auf 6 eine zweite Ausführungsform zum Erhöhen der Auslösung des LiDAR 201 beschrieben.
  • In der folgenden Beschreibung wird angenommen, dass der Sichtwinkel des Einheitssichtfeldes in der X-Achsenrichtung 0,2° beträgt. Daher beträgt die Auflösung des LiDAR 201 in der X-Achsenrichtung 0,2°.
  • Beispielsweise treibt bzw. steuert die Lichtemissionszeitpunkt-Steuerungseinheit 241 den LD-Treiber 222 an, um den Lichtemissionszeitpunkt der LD 221 so zu ändern, dass die Bestrahlungsrichtung des Bestrahlungslichts um 1/2 des Sichtwinkels des Einheitssichtfeldes, das heißt 0,1°, was 1/2 der Auflösung des LiDAR 201 ist, zwischen Frames in der X-Achsenrichtung verschoben wird. Infolgedessen werden der Scan-Bereich des Bestrahlungslichts und das Einheitssichtfeld zwischen Frames um 0,1° in der X-Achsenrichtung verschoben.
  • Wie in 6 dargestellt ist, wird beispielsweise in ungeradzahlig nummerierten Frames der Scan-Bereich des Bestrahlungslichts auf den Bereich von -60,0° bis +60,0° in der X-Achsenrichtung eingestellt. Dann wird der Scan-Bereich von - 60,0° bis +60,0° alle 0,2° in der X-Achsenrichtung in Einheitssichtfelder unterteilt. Auf der anderen Seite wird in geradzahlig nummerierten Frames der Scan-Bereich des Bestrahlungslichts auf den Bereich von -59,9° bis +60,1° in der X-Achsenrichtung eingestellt. Dann wird der Scan-Bereich von -59,9° bis +60,1° alle 0,2° in der X-Achsenrichtung in Einheitssichtfelder unterteilt. Als Ergebnis wird die Position des Einheitssichtfeldes um 0,1° in der X-Achsenrichtung zwischen den ungeradzahlig nummerierten Frames und den geradzahlig nummerierten Frames verschoben.
  • Außerdem ändert die Lichtempfangs-Steuerungseinheit 243 den Zeitpunkt der Ansteuerung der lichtempfangenden Einheit 213 entsprechend der Änderung des Emissionszeitpunkts des Bestrahlungslichts der LD 221 zwischen Frames.
  • Infolgedessen wird der Abstand zwischen den Einheitssichtfeldern in der X-Achsenrichtung im Wesentlichen halbiert. Als Ergebnis wird die Auflösung des LiDAR 201 in der X-Achsenrichtung im Wesentlichen halbiert (0,1°) und kann die Auflösung des LiDAR 201 verbessert werden, während die Anzahl an SPADs in der Pixel-Arrayeinheit 213A unterdrückt wird.
  • Man beachte, dass beispielsweise die Spiegel-Steuerungseinheit 242 den Polygonspiegel-Treiber 232 so ansteuern kann, dass die Bestrahlungsrichtung des Bestrahlungslichts um 0,1° in der X-Achsenrichtung zwischen Frames verschoben wird und der Scan-Zeitpunkt des Bestrahlungslichts durch den Polygonspiegel 231 geändert wird.
  • Ferner können beispielsweise sowohl der Lichtemissionszeitpunkt als auch der Scan-Zeitpunkt des Bestrahlungslichts so geändert werden, dass die Bestrahlungsrichtung des Bestrahlungslichts um 0,1° zwischen Frames verschoben wird.
  • Überdies kann beispielsweise die Punkwolken-Erzeugungseinheit 254 die in den ungeradzahlig nummerierten Frames erzeugte Punktwolke und die in den geradzahlig nummerierten Frames erzeugte Punktwolke synthetisieren. Dies ermöglicht, dass die Punktwolke feiner ist.
  • Ferner ist der Verschiebungsbetrag in der X-Achsenrichtung der Bestrahlungsrichtung des Bestrahlungslichts nicht auf 1/2 der Auflösung des LiDAR 201 in der X-Achsenrichtung beschränkt. Beispielsweise kann der Verschiebungsbetrag in der X-Achsenrichtung der Bestrahlungsrichtung des Bestrahlungslichts 1/3 oder mehr und 2/3 oder weniger der Auflösung in der X-Achsenrichtung des LiDAR 201 betragen. Mit anderen Worten kann der Verschiebungsbetrag in der X-Achsenrichtung der Positionen der Einheitssichtfelder 1/3 oder mehr und 2/3 oder weniger des Abstands zwischen den Einheitssichtfeldern in der X-Achsenrichtung betragen.
  • <Dritte Ausführungsform zum Erhöhen der Auflösung des LiDAR 201>
  • Als Nächstes wird mit Verweis auf 7 und 8 eine dritte Ausführungsform zum Erhöhen der Auflösung des LiDAR 201 beschrieben. In der dritten Ausführungsform sind die erste Ausführungsform und die zweite Ausführungsform kombiniert.
  • Konkret werden die Positionen der Pixel der lichtempfangenden Einheit 213 zwischen Frames um 1/2 des Pixel-Abstands in der y-Achsenrichtung verschoben und wird die Bestrahlungsrichtung des Bestrahlungslichts um 1/2 des Sichtwinkels des Einheitssichtfeldes in der X-Achsenrichtung verschoben.
  • Auf diese Weise wird, wie in 7 schematisch dargestellt ist, der Bestrahlungsbereich des Bestrahlungslichts in der X-Achsenrichtung und der Y-Achsenrichtung zwischen den ungeradzahlig nummerierten Frames und den geradzahlig nummerierten Frames verschoben.
  • 8 stellt Positionen der Einheitssichtfelder in ungeradzahlig nummerierten Frames und geradzahlig nummerierten Frames schematisch dar. Jeder Frame in durchgezogener Linie gibt die Position des Einheitssichtfeldes im ungeradzahlig nummerierten Frame an, und jeder Frame in gestrichelter Linie gibt die Position des Einheitssichtfeldes im geradzahlig nummerierten Frame an.
  • Auf diese Weise werden zwischen ungeradzahlig nummerierten Frames und geradzahlig nummerierten Frames die Positionen der Einheitssichtfelder um 1/2 des Abstands zwischen den Einheitssichtfeldern in der X-Achsenrichtung verschoben und um 1/2 des Abstands zwischen den Einheitssichtfeldern in der Y-Achsenrichtung verschoben.
  • Infolgedessen wird der diagonale Abstand zwischen den Einheitssichtfeldern im Wesentlichen halbiert. Als Ergebnis wird die Auflösung des LiDAR 201 im Wesentlichen halbiert und kann die Auflösung des LiDAR 201 verbessert werden, während die Anzahl an SPADs in der Pixel-Arrayeinheit 213A unterdrückt wird.
  • Man beachte, dass beispielsweise die Punktwolken-Erzeugungseinheit 254 die in den ungeradzahlig nummerierten Frames erzeugte Punktwolke und die in den geradzahlig nummerierten Frames erzeugte Punktwolke synthetisieren kann. Dies ermöglicht, dass die Punktwolke feiner ist.
  • Ferner ist der Verschiebungsbetrag in der y-Achsenrichtung der Position des Pixels in der Pixel-Arrayeinheit 213A nicht auf 1/2 des Pixel-Abstands beschränkt. Beispielsweise kann der Verschiebungsbetrag der Pixel-Position in der y-Achsenrichtung 1/3 oder mehr und 2/3 oder weniger des Pixel-Abstands betragen. Der Verschiebungsbetrag in der X-Achsenrichtung der Bestrahlungsrichtung des Bestrahlungslichts ist nicht auf 1/2 der Auflösung in der X-Achsenrichtung des LiDAR 201 beschränkt. Beispielsweise kann der Verschiebungsbetrag in der X-Achsenrichtung der Bestrahlungsrichtung des Bestrahlungslichts 1/3 oder mehr und 2/3 oder weniger der Auflösung in der X-Achsenrichtung des LiDAR 201 betragen. Mit anderen Worten kann der Verschiebungsbetrag der Position des Einheitssichtfeldes in der X-Achsenrichtung und der Y-Achsenrichtung 1/3 oder mehr und 2/3 oder weniger des Abstands zwischen den Einheitssichtfeldern in der X-Achsenrichtung und der Y-Achsenrichtung betragen.
  • <Vierte Ausführungsform zum Erhöhen der Auflösung des LiDAR 201>
  • Mit Verweis auf 9 wird als Nächstes eine vierte Ausführungsform zum Erhöhen der Auflösung des LiDAR 201 beschrieben.
  • In der vierten Ausführungsform werden die oben beschriebene erste Ausführungsform und die zweite Ausführungsform in Einheiten von vier Frames abwechselnd ausgeführt.
  • Konkret stellt 9 die Positionen der Einheitssichtfelder in Frames 1 bis 4, welche die ersten bis vierten Frames in einer Einheit aus vier Frames sind, ähnlich wie in 8 schematisch dar. Jeder Frame in durchgezogener Linie gibt die Position des Einheitssichtfeldes in jedem Frame an, und jeder Frame in gestrichelter Linie gibt die Position des Einheitssichtfeldes in Frame 1 an.
  • Beispielsweise wird die oben beschriebene erste Ausführungsform zwischen dem Frame 1 und dem Frame 2 ausgeführt und werden die Positionen der Pixel in der Pixel-Arrayeinheit 213A um 1/2 des Pixel-Abstands in der y-Achsenrichtung verschoben. Infolgedessen werden die Positionen der Einheitssichtfelder um 1/2 des Abstands zwischen Einheitssichtfeldern in der Y-Achsenrichtung verschoben.
  • Als Nächstes wird die oben beschriebene zweite Ausführungsform zwischen Frames 2 und 3 durchgeführt und werden die Positionen der Einheitssichtfelder um 1/2 des Abstands zwischen den Einheitssichtfeldern in der X-Achsenrichtung verschoben.
  • Dann wird die oben beschriebene erste Ausführungsform zwischen dem Frames 3 und 4 ausgeführt und werden die Positionen der Pixel in der Pixel-Arrayeinheit 213A um 1/2 des Pixel-Abstands in der entgegengesetzten Richtung zur Richtung zwischen den Frames 1 und 2 verschoben. Infolgedessen kehrt die Position des Einheitssichtfeldes in der Y-Achsenrichtung zur gleichen Position wie Frame 1 zurück.
  • Als Nächstes wird die oben beschriebene zweite Ausführungsform zwischen den Frame 4 und Frame 1 der nächsten Gruppe durchgeführt und werden die Positionen der Einheitssichtfelder um 1/2 des Abstands zwischen den Einheitssichtfeldern in der entgegengesetzten Richtung zu der Richtung zwischen Frame 1 nach Frame 2 verschoben. Infolgedessen kehrt die Position des Einheitssichtfeldes in der X-Achsenrichtung zur gleichen Position wie in Frame 1 zurück.
  • Die obige Verarbeitung wird alle vier Frames wiederholt ausgeführt. Das heißt, die Verarbeitung, bei der die Positionen der Einheitssichtfelder in einer der positiven Richtung und der negativen Richtung der Y-Achse um 1/2 des Abstands zwischen den Einheitssichtfeldern in einem geradzahlig nummerierten Frame verschoben werden, die Positionen in der anderen Richtung der Y-Achse um 1/2 des Abstands zwischen den Einheitssichtfeldern im nächsten geradzahlig nummerierten Frame verschoben werden, die Positionen in einer der positiven und negativen Richtungen der X-Achse um 1/2 des Abstands zwischen den Einheitssichtfeldern in einem ungeradzahlig nummerierten Frame verschoben werden und die Positionen in der anderen Richtung der X-Achse um 1/2 des Abstands zwischen den Einheitssichtfeldern im nächsten ungeradzahlig nummerierten Frame verschoben werden, wird wiederholt.
  • Als Ergebnis werden die Abstände zwischen den Einheitssichtfeldern in der X-Achsenrichtung und der Y-Achsenrichtung jeweils im Wesentlichen halbiert. Infolgedessen wird die Auflösung des LiDAR 201 in der X-Achsenrichtung und der Y-Achsenrichtung im Wesentlichen halbiert und kann die Auflösung des LiDAR 201 verbessert werden, während die Anzahl an SPADs in der Pixel-Arrayeinheit 213A unterdrückt wird.
  • Man beachte, dass beispielsweise die Richtung, in der das Einheitssichtfeld in geradzahlig nummerierten Frames verschoben wird, und die Richtung, in der das Einheitssichtfeld in ungeradzahlig nummerierten Frames verschoben wird, umgekehrt sein können. Das heißt, das Einheitssichtfeld kann in geradzahlig nummerierten Frames in der X-Achsenrichtung verschoben werden, und das Einheitssichtfeld kann in ungeradzahlig nummerierten Frames in der Y-Achsenrichtung verschoben werden.
  • Außerdem kann beispielsweise die Punktwolken-Erzeugungseinheit 254 die in den obigen vier Frames jeweils erzeugten Punktwolken synthetisieren. Dies ermöglicht, dass die Punktwolke feiner ist.
  • «3. Modifikationsbeispiele»
  • Im Folgenden werden hierin Modifikationsbeispiele der vorhergehenden Ausführungsformen der vorliegenden Technik beschrieben.
  • In der obigen Beschreibung kann der Verschiebungsbetrag der Pixel-Positionen in der Pixel-Arrayeinheit 213A auf jeden beliebigen Wert innerhalb eines Bereichs eingestellt werden, der kleiner als der Pixel-Abstand ist. Beispielsweise kann der Verschiebungsbetrag der Pixel-Position auf 1/3 des Pixel-Abstands eingestellt werden und kann die Pixel-Position alle drei Frames zur ursprünglichen Position zurückgeführt werden. Infolgedessen wird der Pixel-Abstand der lichtempfangenden Einheit 213 im Wesentlichen auf 1/3 reduziert und wird die Auflösung des LiDAR 201 in der Y-Achsenrichtung im Wesentlichen auf 1/3 reduziert.
  • In der obigen Beschreibung kann der Verschiebungsbetrag in der Bestrahlungsrichtung des Bestrahlungslichts in der X-Achsenrichtung auf jeden beliebigen Wert innerhalb eines Bereichs eingestellt werden, der kleiner als die Auflösung des LiDAR 201 in der X-Achsenrichtung ist. Beispielsweise kann der Verschiebungsbetrag der Bestrahlungsrichtung des Bestrahlungslichts auf 1/3 der Auflösung in der X-Achsenrichtung eingestellt werden und kann die Bestrahlungsrichtung des Bestrahlungslichts alle drei Frames zur ursprünglichen Richtung zurückgeführt werden. Infolgedessen wird der Abstand zwischen den Einheitssichtfeldern in der X-Achsenrichtung im Wesentlichen auf 1/3 reduziert und wird die Auflösung des LiDAR 201 in der X-Achsenrichtung auf im Wesentlichen 1/3 reduziert.
  • Die Auflösung des LiDAR 201 in der X-Achsenrichtung kann beispielsweise erhöht werden, indem die Anzahl an SPADs in der x-Achsenrichtung der lichtempfangenden Einheit 213 erhöht wird und die Pixel-Positionen der lichtempfangenden Einheit 213 in der x-Achsenrichtung verschoben werden.
  • Beispielsweise kann für das lichtempfangende Element der Pixel-Arrayeinheit 213A eine APD (Avalanche Photodiode; Lawinen-Fotodiode), eine hochempfindliche Fotodiode oder dergleichen verwendet werden.
  • Das Scan-Verfahren für Bestrahlungslicht ist nicht auf das oben beschriebene Beispiel beschränkt, und andere Verfahren können angewendet werden. Beispielsweise kann das Bestrahlungslicht unter Verwendung von rotierenden Spiegeln, Galvanometer-Spiegeln, Risley-Prismen, MMT (Mikrobewegungstechnologie; Micro Motion Technology), Head-spin bzw. Kopfdrehung, MEMS-(Micro-Electro-Mechanical Systems-)Spiegel, OPA (optisches phasengesteuertes Array; Optical Phased Array), Flüssigkristallen, Scans mit einem VCSEL- (oberflächenemittierender Laser mit vertikalen Hohlraum; Vertical Cavity Surface Emitting Laser)Array oder dergleichen gescannt werden.
  • Das Bestrahlungslicht kann beispielsweise so geformt sein, dass es sich in der X-Achsenrichtung erstreckt, und das Bestrahlungslicht kann in der Y-Achsenrichtung gescannt werden.
  • Zusätzlich zu einem LiDAR kann die vorliegende Technologie auf eine Abstandsmessvorrichtung angewendet werden, die Bestrahlungslicht scannt und einen Abstand basierend auf einem reflektiertes Licht des Bestrahlungslichts enthaltenden einfallenden Licht misst.
  • «4. Sonstiges»
  • Die oben beschriebene Reihe von Verarbeitungen kann auch mittels Hardware oder Software durchgeführt werden. Wenn die Reihe der Verarbeitungsschritte mittels Software durchgeführt wird, wird ein Programm der Software in einem Computer installiert. Der Computer enthält hier einen in einer dedizierten Hardware eingebetteten Computer oder beispielsweise einen Mehrzweck-Personalcomputer, der imstande ist, verschiedene Funktionen durch Installieren verschiedener Programme auszuführen.
  • Ein von einem Computer auszuführendes Programm kann bereitgestellt werden, indem es auf einem austauschbaren Medium wie etwa beispielsweise einem Package-Medium aufgezeichnet wird. Das Programm kann auch über ein drahtgebundenes oder drahtloses Übertragungsmedium wie etwa ein Local Area Network bzw. lokales Netzwerk, das Internet oder digitalen Satellitenrundfunk bereitgestellt werden.
  • Ausführungsformen der vorliegenden Technologie sind nicht auf die oben beschriebenen Ausführungsformen beschränkt und können auf verschiedene Weise innerhalb des Umfangs der vorliegenden Technologie geändert werden, ohne vom Kern der vorliegenden Technologie abzuweichen.
  • <Konfigurationsbeispiel der Konfiguration>
  • Die vorliegende Technologie kann auch die folgende Konfiguration aufweisen.
    • (1) Eine Abstandsmessvorrichtung, aufweisend:
      • eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert;
      • eine Scan-Einheit, die das Bestrahlungslicht in einer ersten Richtung scannt;
      • eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält;
      • eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt; und
      • eine Steuerungseinheit, die eine Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der ersten Richtung zwischen Frames verschiebt, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
    • (2) Die Abstandsmessvorrichtung gemäß (1), wobei die lichtempfangende Einheit eine Pixel-Arrayeinheit aufweist, in der Pixel, die jeweils eine Vielzahl lichtempfangender Elemente aufweisen, die zweidimensional angeordnet sind, in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung angeordnet sind, und die Steuerungseinheit Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung innerhalb eines Bereichs, der kleiner als ein Pixel-Abstand ist, zwischen Frames verschiebt.
    • (3) Die Abstandsmessvorrichtung gemäß (2), wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung um 1/2 der Auflösung in der ersten Richtung zwischen Frames verschiebt und die Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung um 1/2 des Pixel-Abstands verschiebt.
    • (4) Die Abstandsmessvorrichtung gemäß (2), wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung um 1/2 der Auflösung in der ersten Richtung in ungeradzahlig nummerierten Frames oder geradzahlig nummerierten Frames verschiebt und die Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung um 1/2 des Pixel-Abstands in den anderen Frames verschiebt.
    • (5) Die Abstandsmessvorrichtung gemäß einem von (2) bis (4), wobei in jedem der Pixel die lichtempfangenden Elemente in der zweiten Richtung und der dritten Richtung angeordnet sind.
    • (6) Die Abstandsmessvorrichtung gemäß einem von (2) bis (5), wobei das lichtempfangende Element eine SPAD (Einzelphotonen-Lawinendiode; Single Photon Avalanche Diode) ist.
    • (7) Die Abstandsmessvorrichtung gemäß einem von (2) bis (6), wobei die Auflösung in der ersten Richtung einem Pixel-Abstand in der zweiten Richtung der Pixel-Arrayeinheit entspricht.
    • (8) Die Abstandsmessvorrichtung gemäß (1), wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts um einen vorbestimmten Verschiebungsbetrag in der ersten Richtung zwischen Frames verschiebt und der Verschiebungsbetrag 1/3 oder mehr und 2/3 oder weniger der Auflösung in der ersten Richtung beträgt.
    • (9) Die Abstandsmessvorrichtung gemäß (8), wobei der Verschiebungsbetrag 1/2 der Auflösung in der ersten Richtung beträgt.
    • (10) Die Abstandsmessvorrichtung gemäß einem von (1) bis (9), wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung verschiebt, indem zumindest einer eines Zeitpunkts, zu dem das Bestrahlungslicht von der Lichtquelle emittiert wird, und eines Zeitpunkts, zu dem das Bestrahlungslicht mittels der Scan-Einheit scannt, gesteuert wird.
    • (11) Die Abstandsmessvorrichtung gemäß einem von (1) bis (10), wobei sich das Bestrahlungslicht in einer Richtung senkrecht zur ersten Richtung lang erstreckt.
    • (12) Die Abstandsmessvorrichtung gemäß einem von (1) bis (11), wobei die erste Richtung eine Links-Rechts-Richtung ist.
    • (13) Ein Abstandsmessverfahren in einer Abstandsmessvorrichtung, aufweisend:
      • eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert;
      • eine Scan-Einheit, die das Bestrahlungslicht in einer vorbestimmten Richtung scannt;
      • eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält; und
      • eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt, wobei die Abstandsmessvorrichtung ausführt:
        • das Verschieben einer Bestrahlungsrichtung des Bestrahlungslichts in der vorbestimmten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der vorbestimmten Richtung zwischen Frames, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
  • Die in der vorliegenden Beschreibung beschriebenen vorteilhaften Effekte sind nur beispielhaft und nicht beschränkt, und andere vorteilhafte Effekte können erhalten werden.
  • [Bezugszeichenliste]
  • 201
    LiDAR
    211
    lichtemittierende Einheit
    212
    Scan-Einheit
    213
    lichtempfangende Einheit
    213A
    Pixel-Arrayeinheit
    214
    Steuerungseinheit
    215
    Datenverarbeitungseinheit
    221
    LD
    222
    LD-Treiber
    231
    Polygonspiegel
    232
    Polygonspiegel-Treiber
    241
    Lichtemissionszeitpunkt-Steuerungseinheit
    242
    Spiegel-Steuerungseinheit
    243
    Lichtempfangs-Steuerungseinheit
    244
    Gesamt-Steuerungseinheit
    252
    Histogramm-Erzeugungseinheit
    253
    Abstandsmesseinheit
    254
    Punktwolken-Erzeugungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2020118570 A [0003]

Claims (13)

  1. Abstandsmessvorrichtung, aufweisend: eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert; eine Scan-Einheit, die das Bestrahlungslicht in einer ersten Richtung scannt; eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält; eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt; und eine Steuerungseinheit, die eine Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der ersten Richtung zwischen Frames verschiebt, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
  2. Abstandsmessvorrichtung nach Anspruch 1, wobei die lichtempfangende Einheit eine Pixel-Arrayeinheit aufweist, in der Pixel, die jeweils eine Vielzahl lichtempfangender Elemente aufweisen, die zweidimensional angeordnet sind, in einer dritten Richtung senkrecht zu einer zweiten Richtung entsprechend der ersten Richtung angeordnet sind, und die Steuerungseinheit Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung innerhalb eines Bereichs, der kleiner als ein Pixel-Abstand ist, zwischen Frames verschiebt.
  3. Abstandsmessvorrichtung nach Anspruch 2, wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung um 1/2 der Auflösung in der ersten Richtung zwischen Frames verschiebt und die Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung um 1/2 des Pixel-Abstands verschiebt.
  4. Abstandsmessvorrichtung nach Anspruch 2, wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung um 1/2 der Auflösung in der ersten Richtung in ungeradzahlig nummerierten Frames oder geradzahlig nummerierten Frames verschiebt und die Positionen der Pixel in der Pixel-Arrayeinheit in der dritten Richtung um 1/2 des Pixel-Abstands in den anderen Frames verschiebt.
  5. Abstandsmessvorrichtung nach Anspruch 2, wobei in jedem der Pixel die lichtempfangenden Elemente in der zweiten Richtung und der dritten Richtung angeordnet sind.
  6. Abstandsmessvorrichtung nach Anspruch 2, wobei das lichtempfangende Element eine SPAD (Einzelphotonen-Lawinendiode; Single Photon Avalanche Diode) ist.
  7. Abstandsmessvorrichtung nach Anspruch 2, wobei die Auflösung in der ersten Richtung einem Pixel-Abstand in der zweiten Richtung der Pixel-Arrayeinheit entspricht.
  8. Abstandsmessvorrichtung nach Anspruch 1, wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts um einen vorbestimmten Verschiebungsbetrag in der ersten Richtung zwischen Frames verschiebt und der Verschiebungsbetrag 1/3 oder mehr und 2/3 oder weniger der Auflösung in der ersten Richtung beträgt.
  9. Abstandsmessvorrichtung nach Anspruch 8, wobei der Verschiebungsbetrag 1/2 der Auflösung in der ersten Richtung beträgt.
  10. Abstandsmessvorrichtung nach Anspruch 1, wobei die Steuerungseinheit die Bestrahlungsrichtung des Bestrahlungslichts in der ersten Richtung verschiebt, indem zumindest einer eines Zeitpunkts, zu dem das Bestrahlungslicht von der Lichtquelle emittiert wird, und eines Zeitpunkts, zu dem das Bestrahlungslicht mittels der Scan-Einheit scannt, gesteuert wird.
  11. Abstandsmessvorrichtung nach Anspruch 1, wobei sich das Bestrahlungslicht in einer Richtung senkrecht zur ersten Richtung lang erstreckt.
  12. Abstandsmessvorrichtung nach Anspruch 1, wobei die erste Richtung eine Links-Rechts-Richtung ist.
  13. Abstandsmessverfahren in einer Abstandsmessvorrichtung, aufweisend: eine Lichtquelle, die gepulstes Bestrahlungslicht emittiert; eine Scan-Einheit, die das Bestrahlungslicht in einer vorbestimmten Richtung scannt; eine lichtempfangende Einheit, die einfallendes Licht empfängt, das reflektiertes Licht in Bezug auf das Bestrahlungslicht enthält; und eine Abstandsmesseinheit, die eine Abstandsmessung basierend auf dem einfallenden Licht durchführt, wobei die Abstandsmessvorrichtung ausführt: das Verschieben einer Bestrahlungsrichtung des Bestrahlungslichts in der vorbestimmten Richtung innerhalb eines Bereichs, der kleiner als eine Auflösung ist, in der vorbestimmten Richtung zwischen Frames, indem zumindest eine der Lichtquelle und der Scan-Einheit gesteuert wird.
DE112022003108.5T 2021-06-17 2022-02-15 Abstandsmessvorrichtung und abstandsmessverfahren Pending DE112022003108T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021100953 2021-06-17
JP2021-100953 2021-06-17
PCT/JP2022/005799 WO2022264511A1 (ja) 2021-06-17 2022-02-15 測距装置及び測距方法

Publications (1)

Publication Number Publication Date
DE112022003108T5 true DE112022003108T5 (de) 2024-04-11

Family

ID=84526068

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112022003108.5T Pending DE112022003108T5 (de) 2021-06-17 2022-02-15 Abstandsmessvorrichtung und abstandsmessverfahren

Country Status (4)

Country Link
JP (1) JPWO2022264511A1 (de)
CN (1) CN117337402A (de)
DE (1) DE112022003108T5 (de)
WO (1) WO2022264511A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118570A (ja) 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測定装置および測距装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008292308A (ja) * 2007-05-24 2008-12-04 Jtekt Corp 光レーダ装置
EP3652555B1 (de) * 2017-08-31 2024-03-06 SZ DJI Technology Co., Ltd. Festkörperlichterfassungs- und entfernungssystem (lidar) und verfahren zur verbesserung der festkörperlichterfassung und entfernungsauflösung (lidar)
DE102018113848A1 (de) * 2018-06-11 2019-12-12 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von dreidimensionalen Bilddaten
CN113287204A (zh) * 2019-02-21 2021-08-20 索尼半导体解决方案公司 雪崩光电二极管传感器和测距装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118570A (ja) 2019-01-24 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 測定装置および測距装置

Also Published As

Publication number Publication date
JPWO2022264511A1 (de) 2022-12-22
CN117337402A (zh) 2024-01-02
WO2022264511A1 (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
US10992860B2 (en) Dynamic seam adjustment of image overlap zones from multi-camera source images
DE102018109366B4 (de) Verfahren zur lichtsignalanlagenerfassung
DE102018129197B4 (de) Verkehrssignalerkennungsvorrichtung und System zum autonomen Fahren
DE112015001534B4 (de) Fahrzeugerkennungsbenachrichtigungsvorrichtung und Fahrzeugerkennungsbenachrichtigungssystem
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112019001657T5 (de) Signalverarbeitungsvorrichtung und signalverarbeitungsverfahren, programm und mobiler körper
DE112016006746T5 (de) Fahrzeugsteuerungssystem, Fahrzeugsteuerungsverfahren und Fahrzeugsteuerungsprogramm
DE112017001322T5 (de) Signalverarbeitungsvorrichtung und Signalverarbeitungsverfahren
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
WO2020031689A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper
DE112017008079T5 (de) Anzeigesystem, anzeigeverfahren und programm
DE112020004545T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung
DE112021002953T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112017007832T5 (de) Fahrzeugsteuersystem, Fahrzeugsteuerverfahren und Programm
DE112020003963T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US20220172484A1 (en) Information processing method, program, and information processing apparatus
DE112020003708T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
DE112022003108T5 (de) Abstandsmessvorrichtung und abstandsmessverfahren
DE102022117085A1 (de) Objekterkennungsvorrichtung und nicht-flüchtiges aufzeichnungsmedium
DE112022003129T5 (de) Lichtquellen-steuerungsvorrichtung, lichtquellen-steuerungsverfahren und abstandsmessvorrichtung
DE112019004125T5 (de) Bildverarbeitungsgerät, bildverarbeitungsverfahren und programm
DE112019006281T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
US20240241227A1 (en) Distance measuring device and distance measuring method

Legal Events

Date Code Title Description
R083 Amendment of/additions to inventor(s)