DE112020004545T5 - Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung - Google Patents

Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung Download PDF

Info

Publication number
DE112020004545T5
DE112020004545T5 DE112020004545.5T DE112020004545T DE112020004545T5 DE 112020004545 T5 DE112020004545 T5 DE 112020004545T5 DE 112020004545 T DE112020004545 T DE 112020004545T DE 112020004545 T5 DE112020004545 T5 DE 112020004545T5
Authority
DE
Germany
Prior art keywords
attribute
grid
unit
occupancy
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020004545.5T
Other languages
English (en)
Inventor
Tatsuya Ishikawa
Chao Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112020004545T5 publication Critical patent/DE112020004545T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/133Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
    • G08G1/137Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Technologie betrifft eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren, ein Programm und eine mobile Vorrichtung, die es ermöglichen, eine Belegungsrasterkarte zu erhalten, in der eine geeignete Route eingestellt werden kann. Die Signalverarbeitungsvorrichtung weist Folgendes auf: eine Kartenerstellungseinheit, die auf der Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts im Umfeld der mobilen Vorrichtung verwendeten ersten Sensor eine Belegungsrasterkarte erstellt, die das Vorhandensein oder Nichtvorhandensein eines Objekts in Rastereinheiten angibt; eine Attributeinstellungseinheit, die die Attribute des Rasters der Belegungsrasterkarte auf der Grundlage der Attribute des Objekts einstellt; und eine Korrektureinheit, die die Belegungsrasterkarte auf der Grundlage der Attribute des Rasters korrigiert. Die vorliegende Technologie kann beispielsweise auf ein System angewendet werden, das automatisches Fahren steuert.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Technologie betrifft eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren, ein Programm und eine mobile Vorrichtung und insbesondere eine Signalverarbeitungsvorrichtung, ein Signalverarbeitungsverfahren, ein Programm und eine mobile Vorrichtung, die in der Lage sind, eine Belegungsrasterkarte zu erhalten, in der ein geeigneter Pfad eingestellt werden kann.
  • STAND DER TECHNIK
  • In den letzten Jahren wurde eine Technik zum Einstellen einer Route zum Umgehen eines Hindernisses durch Verwenden einer unter Verwendung von Lichtdetektion und Entfernungsmessung oder Laserbildgebungsdetektion und Entfernungsmessung (LiDAR) erstellten Belegungsrasterkarte entwickelt (siehe zum Beispiel Patentdokument 1).
  • In der in Patentdokument 1 beschriebenen Erfindung wird in einem Fall, in dem ein Raster einer Belegungsrasterkarte in einem Totwinkelbereich enthalten ist, wenn die Hinderniszuverlässigkeit des Rasters ein maximaler Wert ist, die Hinderniszuverlässigkeit allmählich auf einen Zwischenwert verringert, der angibt, dass das Vorhandensein des Hindernisses unbekannt ist. Handelt es sich bei dem Hindernis in dem Raster um ein stationäres Objekt, so wird ferner eine Verringerungsrate der Hinderniszuverlässigkeit reduziert.
  • LISTE BEKANNTER SCHRIFTEN
  • PATENTDOKUMENT
  • Patentdokument 1: Japanische Patentanmeldung mit der Offenlegungs-Nr. 2012-238151
  • KURZDARSTELLUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Jedoch wurde in der in Patentdokument 1 beschriebenen Erfindung nur ein Fall untersucht, in dem ein Raster in einem Totwinkelbereich enthalten ist, wenn es sich bei einem Hindernis um ein stationäres Objekt handelt. Daher ist es zum Beispiel in einem Fall, in dem eine fehlerhafte Detektion, ein Detektionsversäumnis oder dergleichen eines Hindernisses aufgrund von Rauschen oder dergleichen auftritt, schwierig, einen geeigneten Pfad auf der Grundlage der Belegungsrasterkarte einzustellen.
  • Die vorliegende Technologie wurde im Hinblick auf eine solche Situation entwickelt und soll es ermöglichen, eine Belegungsrasterkarte zu erhalten, in der ein geeigneter Pfad eingestellt werden kann.
  • LÖSUNGEN DER PROBLEME
  • Eine Signalverarbeitungsvorrichtung gemäß einem ersten Aspekt der vorliegenden Technologie weist Folgendes auf: eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten ersten Sensor; eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
  • Ein Signalverarbeitungsverfahren gemäß dem ersten Aspekt der vorliegenden Technologie weist Folgendes auf: Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten ersten Sensor; Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
  • Ein Programm gemäß dem ersten Aspekt der vorliegenden Technologie bewirkt, dass ein Computer die Folgende Verarbeitung ausführt: Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten ersten Sensor; Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
  • Eine mobile Vorrichtung gemäß einem zweiten Aspekt der vorliegenden Technologie weist Folgendes auf: eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von einem zum Detektieren des Objekts in einer Umgebung verwendeten Sensor; eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters; und eine Handlungsplanungseinheit, ausgebildet zum Einstellen eines Pfads auf der Grundlage der korrigierten Belegungsrasterkarte.
  • In dem ersten Aspekt der vorliegenden Technologie wird die Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein des Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von dem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten Sensor erstellt, ein Attribut des Rasters der Belegungsrasterkarte wird auf der Grundlage eines Attributs des Objekts eingestellt und die Belegungsrasterkarte wird auf der Grundlage eines Attributs des Rasters korrigiert.
  • In dem zweiten Aspekt der vorliegenden Technologie wird die Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von dem zum Detektieren des Objekts in einer Umgebung verwendeten Sensor erstellt, ein Attribut des Rasters der Belegungsrasterkarte wird auf der Grundlage eines Attributs des Objekts eingestellt, die Belegungsrasterkarte wird auf der Grundlage eines Attributs des Rasters korrigiert und ein Pfad wird auf der Grundlage der korrigierten Belegungsrasterkarte eingestellt.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuersystems veranschaulicht.
    • 2 ist eine Ansicht, die ein Beispiel eines Erfassungsbereichs veranschaulicht.
    • 3 ist eine Ansicht zur Erläuterung eines Problems einer Erweiterungsverarbeitung einer Belegungsrasterkarte.
    • 4 ist eine Ansicht zur Erläuterung eines Problems der Erweiterungsverarbeitung der Belegungsrasterkarte.
    • 5 ist eine Ansicht zur Erläuterung eines Problems einer Allmähliche-Verringerung-Verarbeitung einer Vorhandenseinswahrscheinlichkeit der Belegungsrasterkarte.
    • 6 ist eine Ansicht zur Erläuterung eines Problems der Allmähliche-Verringerung-Verarbeitung einer Vorhandenseinswahrscheinlichkeit der Belegungsrasterkarte.
    • 7 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Informationsverarbeitungseinheit veranschaulicht, auf die die vorliegende Technologie angewendet wird.
    • 8 ist ein Flussdiagramm zur Erläuterung einer Kartenerstellungsverarbeitung.
    • 9 ist eine Tabelle, die einen Erweiterungsbetrag für jede Art eines mobilen Objekts veranschaulicht.
    • 10 ist ein Graph, der ein Beispiel eines Übergangs einer Vorhandenseinswahrscheinlichkeit bei hoher LiDAR-Zuverlässigkeit veranschaulicht.
    • 11 ist ein Graph, der ein Beispiel eines Übergangs einer Vorhandenseinswahrscheinlichkeit bei geringer LiDAR-Zuverlässigkeit veranschaulicht.
    • 12 ist eine Ansicht, die schematisch ein Beispiel der Belegungsrasterkarte veranschaulicht.
    • 13 ist eine Ansicht, die ein Beispiel eines belegten Bereichs eines Fußgängers veranschaulicht.
    • 14 ist eine Ansicht, die ein Beispiel eines belegten Bereichs eines Fahrzeugs veranschaulicht.
    • 15 ist ein Blockdiagramm, das eine Modifikation der Informationsverarbeitungseinheit, auf die die vorliegende Technologie angewendet wird, veranschaulicht.
    • 16 ist eine Ansicht, die eine Modifikation des belegten Bereichs des Fahrzeugs veranschaulicht.
    • 17 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Computers veranschaulicht.
  • AUSFÜHRUNGSWEISE DER ERFINDUNG
  • Im Folgenden wird eine Ausführungsform zum Implementieren der vorliegenden Technologie beschrieben. Die Beschreibung wird in der folgenden Reihenfolge gegeben.
    1. 1. Konfigurationsbeispiel des Fahrzeugsteuersystems
    2. 2. Problem der Belegungsrasterkarte
    3. 3. Ausführungsform
    4. 4. Modifikation
    5. 5. Weiteres
  • «Konfigurationsbeispiel des
  • Fahrzeugsteuersystems»
  • 1 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Fahrzeugsteuersystems 11 zeigt, das ein Beispiel für ein Mobilvorrichtungssteuersystem ist, auf das die vorliegende Technologie angewendet wird.
  • Das Fahrzeugsteuersystem 11 ist in einem Fahrzeug 1 bereitgestellt und führt eine Verarbeitung in Bezug auf Fahrassistenz und automatisches Fahren des Fahrzeugs 1 durch.
  • Das Fahrzeugsteuersystem 11 weist einen Prozessor 21, eine Kommunikationseinheit 22, eine Karteninformationsakkumulationseinheit 23, eine GNSS-Empfangseinheit 24 (GNSS: Globales Navigationssatellitensystem), einen externen Erkennungssensor 25, einen fahrzeuginternen Sensor 26, einen Fahrzeugsensor 27, eine Aufzeichnungseinheit 28, eine Steuereinheit 29 für Fahrassistenz/automatisches Fahren, ein Fahrerüberwachungssystem (DMS) 30, eine Mensch-Maschine-Schnittstelle (HMI) 31 und eine Fahrzeugsteuereinheit 32 auf.
  • Der Prozessor 21, die Kommunikationseinheit 22, die Karteninformationsakkumulationseinheit 23, die GNSS-Empfangseinheit 24, der externe Erkennungssensor 25, der fahrzeuginterne Sensor 26, der Fahrzeugsensor 27, die Aufzeichnungseinheit 28, die Steuereinheit 29 für Fahrassistenz/automatisches Fahren, das Fahrerüberwachungssystem (DMS) 30, die Mensch-Maschine-Schnittstelle (HMI) 31 und die Fahrzeugsteuereinheit 32 sind über ein Kommunikationsnetzwerk 41 miteinander verbunden. Das Kommunikationsnetzwerk 41 weist zum Beispiel einen Bus, ein fahrzeuginternes Kommunikationsnetzwerk, das einem beliebigen Standard entspricht, wie etwa ein Controller Area Network (CAN), ein Local Interconnect Network (LIN), ein Local Area Network (LAN), FlexRay (eingetragenes Markenzeichen) oder Ethernet (eingetragenes Markenzeichen) und dergleichen auf. Es sei angemerkt, dass es auch einen Fall gibt, in dem jede Einheit des Fahrzeugsteuersystems 11 beispielsweise direkt durch drahtlose Nahbereichskommunikation (Nahfeldkommunikation (NFC)), Bluetooth (eingetragenes Markenzeichen) oder dergleichen ohne über das Kommunikationsnetzwerk 41 verbunden ist.
  • Es sei angemerkt, dass im Folgenden in einem Fall, in dem jede Einheit des Fahrzeugsteuersystems 11 über das Kommunikationsnetzwerk 41 kommuniziert, eine Beschreibung des Kommunikationsnetzwerks 41 weggelassen wird. Beispielsweise wird in einem Fall, in dem der Prozessor 21 und die Kommunikationseinheit 22 eine Kommunikation über das Kommunikationsnetzwerk 41 durchführen, einfach beschrieben, dass der Prozessor 21 und die Kommunikationseinheit 22 eine Kommunikation durchführen.
  • Der Prozessor 21 weist verschiedene Prozessoren auf, wie zum Beispiel eine zentrale Verarbeitungseinheit (CPU), eine Mikroverarbeitungseinheit (MPU) und eine elektronische Steuereinheit (ECU). Der Prozessor 21 steuert das gesamte Fahrzeugsteuersystem 11.
  • Die Kommunikationseinheit 22 kommuniziert mit verschiedenen Arten von Geräten innerhalb und außerhalb des Fahrzeugs, anderen Fahrzeugen, Servern, Basisstationen und dergleichen und sendet und empfängt verschiedene Daten. Als Kommunikation mit der äußeren Umgebung des Fahrzeugs empfängt die Kommunikationseinheit 22 beispielsweise von außen ein Programm zum Aktualisieren von Software zum Steuern eines Betriebs des Fahrzeugsteuersystems 11, Karteninformationen, Verkehrsinformationen, Informationen im Umfeld des Fahrzeugs 1 und dergleichen. Beispielsweise überträgt die Kommunikationseinheit 22 Informationen bezüglich des Fahrzeugs 1 (beispielsweise Daten, die einen Zustand des Fahrzeugs 1 angeben, ein Erkennungsergebnis durch eine Erkennungseinheit 73 und dergleichen), Informationen im Umfeld des Fahrzeugs 1 und dergleichen nach außen. Beispielsweise führt die Kommunikationseinheit 22 eine Kommunikation durch, die einem Fahrzeug-Notrufsystem wie einem eCall entspricht.
  • Es sei angemerkt, dass ein Kommunikationsverfahren der Kommunikationseinheit 22 nicht speziell beschränkt ist. Des Weiteren können mehrere Kommunikationsverfahren verwendet werden.
  • Als Kommunikation mit dem Innenraum des Fahrzeugs führt die Kommunikationseinheit 22 beispielsweise eine drahtlose Kommunikation mit fahrzeuginternen Geräten durch ein Kommunikationsverfahren wie drahtloses LAN, Bluetooth, NFC oder drahtloses USB (WUSB) durch. Beispielsweise führt die Kommunikationseinheit 22 eine drahtgebundene Kommunikation mit fahrzeuginternen Geräten durch ein Kommunikationsverfahren wie Universal Serial Bus (USB), High Definition Multimedia Interface (HDMI, eingetragenes Markenzeichen) oder Mobile High-Definition Link (MHL) über einen Verbindungsanschluss (nicht veranschaulicht) (und gegebenenfalls ein Kabel) durch.
  • Hier handelt es sich bei den fahrzeuginternen Geräten beispielsweise um Geräte, die nicht mit dem Kommunikationsnetzwerk 41 in dem Fahrzeug verbunden sind. Zum Beispiel werden mobile Geräte oder Wearable-Geräte, die von einem Insassen wie einem Fahrer mitgeführt werden, Informationsgeräte, die in das Fahrzeug gebracht und vorübergehend installiert werden, und dergleichen angenommen.
  • Beispielsweise verwendet die Kommunikationseinheit 22 ein Drahtloskommunikationsverfahren wie ein Mobilkommunikationssystem der vierten Generation (4G), ein Mobilkommunikationssystem der fünften Generation (5G), Long Term Evolution (LTE) oder Dedicated Short Range Communications (DSRC), um über eine Basisstation oder einen Zugangspunkt mit einem in einem externen Netzwerk (z. B. dem Internet, einem Cloud-Netzwerk oder einem firmenspezifischen Netzwerk) vorhandenen Server oder dergleichen zu kommunizieren.
  • Zum Beispiel verwendet die Kommunikationseinheit 22 eine Peer-to-Peer(P2P)-Technologie, um mit einem Endgerät (zum Beispiel einem Endgerät eines Fußgängers oder eines Geschäfts oder einem Maschinentypkommunikations(MTC)-Endgerät) zu kommunizieren, das in der Nähe des eigenen Fahrzeugs vorhanden ist. Beispielsweise führt die Kommunikationseinheit 22 eine V2X-Kommunikation durch. Die V2X-Kommunikation ist beispielsweise eine Fahrzeug-zu-Fahrzeug-Kommunikation mit einem anderen Fahrzeug, eine Fahrzeug-zu-Infrastruktur-Kommunikation mit einer Straßenrandvorrichtung oder dergleichen, eine Fahrzeug-zu-Haus-Kommunikation, eine Fahrzeug-zu-Fußgänger-Kommunikation mit einem Endgerät oder dergleichen, das einem Fußgänger gehört, oder dergleichen.
  • Beispielsweise empfängt die Kommunikationseinheit 22 eine elektromagnetische Welle, die durch ein Straßenverkehrsinformations-Kommunikationssystem (Vehicle Information and Communication System (VICS), eingetragenes Markenzeichen) übertragen wird, wie etwa eine Funkwellenbake, eine optische Bake oder FM-Multiplex-Rundfunk.
  • Die Karteninformationsakkumulationseinheit 23 akkumuliert eine von außen erworbene Karte und eine durch das Fahrzeug 1 erstellte Karte. Beispielsweise akkumuliert die Karteninformationsakkumulationseinheit 23 eine dreidimensionale Hochpräzisionskarte, eine globale Karte, die eine geringere Genauigkeit als die Hochpräzisionskarte hat und einen weiten Bereich abdeckt, und dergleichen.
  • Die Hochpräzisionskarte ist beispielsweise eine dynamische Karte, eine Punktwolkenkarte, eine Vektorkarte (auch als Fahrerassistenzsystem(FAS)-Karte bezeichnet) oder dergleichen. Die dynamische Karte ist beispielsweise eine Karte mit vier Schichten aus dynamischen Informationen, halbdynamischen Informationen, halbstatischen Informationen und statischen Informationen und wird von einem externen Server oder dergleichen geliefert. Die Punktwolkenkarte ist eine Karte, die eine Punktwolke (Punktgruppendaten) aufweist. Die Vektorkarte ist eine Karte, in der Informationen wie eine Fahrspur und eine Position einer Ampel mit der Punktwolkenkarte assoziiert sind. Die Punktwolkenkarte und die Vektorkarte können beispielsweise von einem externen Server oder dergleichen geliefert werden oder können durch das Fahrzeug 1 als eine Karte zum Durchführen eines Abgleichs mit einer später beschriebenen lokalen Karte auf der Grundlage eines Erfassungsergebnisses durch ein Radar 52, ein LiDAR 53 oder dergleichen erstellt werden und können in der Karteninformationsakkumulationseinheit 23 akkumuliert werden. Ferner werden in einem Fall, in dem die Hochpräzisionskarte von einem externen Server oder dergleichen geliefert wird, um eine Kommunikationskapazität zu reduzieren, beispielsweise Kartendaten von mehreren hundert Quadratmetern bezüglich eines geplanten Pfads, auf dem das Fahrzeug 1 fahren wird, von einem Server oder dergleichen erfasst.
  • Die GNSS-Empfangseinheit 24 empfängt ein GNSS-Signal von einem GNSS-Satelliten und liefert es an die Steuereinheit 29 für Fahrassistenz/automatisches Fahren.
  • Der externe Erkennungssensor 25 weist verschiedene Sensoren auf, die zum Erkennen einer Situation außerhalb des Fahrzeugs 1 verwendet werden, und liefert Sensordaten von jedem Sensor an jede Einheit des Fahrzeugsteuersystems 11. Eine beliebige Art und Anzahl von in dem externen Erkennungssensor 25 enthaltenen Sensoren kann verwendet werden.
  • Zum Beispiel weist der externe Erkennungssensor 25 eine Kamera 51, das Radar 52, die Lichtdetektion und Entfernungsmessung oder Laserbildgebungserkennung und Entfernungsmessung (LiDAR) 53 und einen Ultraschallsensor 54 auf. Eine beliebige Anzahl der Kameras 51, des Radars 52, des LiDAR 53 und des Ultraschallsensors 54 kann verwendet werden, und ein Beispiel eines Erfassungsbereichs jedes Sensors wird später beschrieben.
  • Es sei angemerkt, dass als Kamera 51 zum Beispiel eine Kamera eines beliebigen Bildaufnahmesystems wie etwa eine Laufzeit(ToF)-Kamera, eine Stereokamera, eine Monokularkamera oder eine Infrarotkamera nach Bedarf verwendet wird.
  • Ferner weist der externe Erkennungssensor 25 beispielsweise einen Umweltsensor zum Detektieren von Wetter, einem meteorologischen Zustand, einer Helligkeit und dergleichen auf. Der Umweltsensor weist beispielsweise einen Regentropfensensor, einen Nebelsensor, einen Sonnenscheinsensor, einen Schneesensor, einen Beleuchtungsstärkesensor und dergleichen auf.
  • Darüber hinaus weist der externe Erkennungssensor 25 beispielsweise ein Mikrofon auf, das dazu verwendet wird, Töne im Umfeld des Fahrzeugs 1, eine Position einer Tonquelle und dergleichen zu detektieren.
  • Der fahrzeuginterne Sensor 26 weist verschiedene Sensoren zum Detektieren von Informationen im Innenraum des Fahrzeugs auf und liefert Sensordaten von jedem Sensor an jede Einheit des Fahrzeugsteuersystems 11. Eine beliebige Art und Anzahl von in dem fahrzeuginternen Sensor 26 enthaltenen Sensoren kann verwendet werden.
  • Beispielsweise weist der fahrzeuginterne Sensor 26 eine Kamera, ein Radar, einen Sitzsensor, einen Lenkradsensor, ein Mikrofon, einen biologischen Sensor und dergleichen auf. Als Kamera kann beispielsweise eine Kamera eines beliebigen Bildaufnahmesystems wie etwa eine ToF-Kamera, eine Stereokamera, eine Monokularkamera oder eine Infrarotkamera verwendet werden. Der biologische Sensor ist beispielsweise in einem Sitz, einem Lenkrad oder dergleichen bereitgestellt und detektiert verschiedene Arten von biologischen Informationen eines Insassen, wie etwa eines Fahrers.
  • Der Fahrzeugsensor 27 weist verschiedene Sensoren zum Detektieren eines Zustands des Fahrzeugs 1 auf und liefert Sensordaten von jedem Sensor an jede Einheit des Fahrzeugsteuersystems 11. Eine beliebige Art und Anzahl von in dem Fahrzeugsensor 27 enthaltenen Sensoren kann verwendet werden.
  • Beispielsweise weist der Fahrzeugsensor 27 einen Geschwindigkeitssensor, einen Beschleunigungssensor, einen Winkelgeschwindigkeitssensor (Gyrosensor) und eine inertiale Messeinheit (IMU) auf. Beispielsweise weist der Fahrzeugsensor 27 einen Lenkwinkelsensor, der einen Lenkwinkel eines Lenkrads detektiert, einen Gierratensensor, einen Beschleunigungssensor, der ein Betätigungsausmaß eines Gaspedals detektiert, und einen Bremssensor, der ein Betätigungsausmaß eines Bremspedals detektiert, auf. Beispielsweise weist der Fahrzeugsensor 27 einen Rotationssensor, der eine Anzahl von Umdrehungen einer Kraftmaschine oder eines Elektromotors detektiert, einen Luftdrucksensor, der einen Luftdruck eines Reifens detektiert, einen Schlupfratensensor, der eine Schlupfrate eines Reifens detektiert, und einen Raddrehzahlsensor, der eine Drehzahl eines Rads detektiert, auf. Beispielsweise weist der Fahrzeugsensor 27 einen Batteriesensor, der eine verbleibende Menge und eine Temperatur einer Batterie detektiert, und einen Aufprallsensor, der einen externen Aufprall detektiert, auf.
  • Die Aufzeichnungseinheit 28 weist zum Beispiel eine Magnetspeichervorrichtung, wie etwa einen Nurlesespeicher (ROM), einen Direktzugriffsspeicher (RAM) und ein Festplattenlaufwerk (HDD), eine Halbleiterspeichervorrichtung, eine optische Speichervorrichtung und eine magnetooptische Speichervorrichtung und dergleichen auf. Die Aufzeichnungseinheit 28 speichert verschiedene Programme, Daten und dergleichen, die durch jede Einheit des Fahrzeugsteuersystems 11 verwendet werden. Beispielsweise zeichnet die Aufzeichnungseinheit 28 eine rosbag-Datei auf, die eine Nachricht aufweist, übertragen und empfangen durch ein Robot Operating System (ROS), in dem ein Anwendungsprogramm bezüglich automatischen Fahrens arbeitet. Beispielsweise weist die Aufzeichnungseinheit 28 einen Event Data Recorder (EDR) und ein Data Storage System for Automated Driving (DSSAD) auf und zeichnet Informationen des Fahrzeugs 1 vor und nach einem Ereignis wie einem Unfall auf.
  • Die Steuereinheit 29 für Fahrassistenz/automatisches Fahren steuert die Fahrunterstützung und das automatische Fahren des Fahrzeugs 1. Zum Beispiel weist die Steuereinheit 29 für Fahrassistenz/automatisches Fahren eine Analyseeinheit 61, eine Handlungsplanungseinheit 62 und eine Betriebssteuereinheit 63 auf.
  • Die Analyseeinheit 61 führt eine Analyseverarbeitung an einer Situation des Fahrzeugs 1 und der Umgebung durch. Die Analyseeinheit 61 weist eine Eigenpositionsschätzungseinheit 71, eine Sensorfusionseinheit 72 und die Erkennungseinheit 73 auf.
  • Die Eigenpositionsschätzungseinheit 71 schätzt eine Eigenposition des Fahrzeugs 1 auf der Grundlage von Sensordaten von dem externen Erkennungssensor 25 und einer Hochpräzisionskarte, die in der Karteninformationsakkumulationseinheit 23 akkumuliert ist. Beispielsweise erzeugt die Eigenpositionsschätzungseinheit 71 eine lokale Karte auf der Grundlage von Sensordaten von dem externen Erkennungssensor 25 und schätzt die Eigenposition des Fahrzeugs 1 durch Durchführen eines Abgleichs der lokalen Karte mit der Hochpräzisionskarte. Die Position des Fahrzeugs 1 basiert beispielsweise auf einem Mittelpunkt einer Hinterradpaarachse.
  • Die lokale Karte ist zum Beispiel eine dreidimensionale Hochpräzisionskarte, eine Belegungsrasterkarte oder dergleichen, die unter Verwendung einer Technik wie simultane Lokalisation und Kartenerstellung (SLAM: Simultaneous Localization And Mapping) erstellt wird. Die dreidimensionale Hochpräzisionskarte ist beispielsweise die oben beschriebene Punktwolkenkarte oder dergleichen. Die Belegungsrasterkarte ist eine Karte, in der ein dreidimensionaler oder zweidimensionaler Raum im Umfeld des Fahrzeugs 1 in Raster einer vorbestimmten Größe unterteilt ist und ein Belegungszustand eines Objekts in einer Einheit eines Rasters angegeben ist. Der Belegungszustand des Objekts wird beispielsweise durch ein Vorhandensein oder Nichtvorhandensein oder eine Vorhandenseinswahrscheinlichkeit des Objekts angegeben. Die lokale Karte wird beispielsweise auch zur Detektionsverarbeitung und Erkennungsverarbeitung einer Situation außerhalb des Fahrzeugs 1 durch die Erkennungseinheit 73 verwendet.
  • Es sei angemerkt, dass die Eigenpositionsschätzungseinheit 71 die Eigenposition des Fahrzeugs 1 auf der Grundlage eines GNSS-Signals und von Sensordaten von dem Fahrzeugsensor 27 schätzen kann.
  • Die Sensorfusionseinheit 72 führt eine Sensorfusionsverarbeitung zum Kombinieren mehrerer verschiedener Arten von Sensordaten (zum Beispiel Bilddaten, die von der Kamera 51 geliefert werden, und Sensordaten, die von dem Radar 52 geliefert werden) durch, um neue Informationen zu erhalten. Zu Verfahren zum Kombinieren verschiedener Arten von Sensordaten gehören Integration, Fusion, Assoziation und dergleichen.
  • Die Erkennungseinheit 73 führt eine Detektionsverarbeitung und eine Erkennungsverarbeitung einer Situation außerhalb des Fahrzeugs 1 durch.
  • Beispielsweise führt die Erkennungseinheit 73 eine Detektionsverarbeitung und eine Erkennungsverarbeitung einer Situation außerhalb des Fahrzeugs 1 auf der Grundlage von Informationen von dem externen Erkennungssensor 25, Informationen von der Eigenpositionsschätzungseinheit 71, Informationen von der Sensorfusionseinheit 72, und dergleichen durch.
  • Insbesondere führt die Erkennungseinheit 73 beispielsweise eine Detektionsverarbeitung, eine Erkennungsverarbeitung und dergleichen eines Objekts im Umfeld des Fahrzeugs 1 durch. Die Detektionsverarbeitung des Objekts ist beispielsweise eine Verarbeitung zum Detektieren eines Vorhandenseins oder Nichtvorhandenseins, einer Größe, einer Form, einer Position, einer Bewegung und dergleichen des Objekts. Die Erkennungsverarbeitung des Objekts ist beispielsweise eine Verarbeitung zum Erkennen eines Attributs, wie etwa einer Art des Objekts, oder zum Identifizieren eines bestimmten Objekts. Die Detektionsverarbeitung und die Erkennungsverarbeitung sind jedoch nicht notwendigerweise klar getrennt und können sich überschneiden.
  • Beispielsweise detektiert die Erkennungseinheit 73 ein Objekt im Umfeld des Fahrzeugs 1, indem sie Clustering zum Klassifizieren einer Punktwolke auf der Grundlage von Sensordaten des LiDAR, des Radars oder dergleichen für jeden Cluster von Punktgruppen durchführt. Als Ergebnis werden ein Vorhandensein oder Nichtvorhandensein, eine Größe, eine Form und eine Position des Objekts im Umfeld des Fahrzeugs 1 detektiert.
  • Beispielsweise detektiert die Erkennungseinheit 73 eine Bewegung des Objekts im Umfeld des Fahrzeugs 1, indem sie eine Verfolgung durchführt, die einer Bewegung des Clusters von mittels Clustering klassifizierten Punktgruppen folgt. Als Ergebnis werden eine Geschwindigkeit und eine Fortbewegungsrichtung (ein Bewegungsvektor) des Objekts im Umfeld des Fahrzeugs 1 detektiert.
  • Beispielsweise erkennt die Erkennungseinheit 73 eine Art des Objekts im Umfeld des Fahrzeugs 1 durch Durchführen einer Objekterkennungsverarbeitung, wie etwa einer semantischen Segmentierung, an Bilddaten, die von der Kamera 51 geliefert werden.
  • Es sei angemerkt, dass als zu detektierendes oder zu erkennendes Objekt beispielsweise ein Fahrzeug, eine Person, ein Fahrrad, ein Hindernis, eine Struktur, eine Straße, eine Ampel, ein Verkehrszeichen, ein Straßenschild und dergleichen angenommen werden.
  • Beispielsweise führt die Erkennungseinheit 73 eine Erkennungsverarbeitung von Verkehrsregeln im Umfeld des Fahrzeugs 1 auf der Grundlage einer in der Karteninformationsakkumulationseinheit 23 akkumulierten Karte, eines Schätzergebnisses der Eigenposition und eines Erkennungsergebnisses des Objekts im Umfeld des Fahrzeugs 1 durch. Durch diese Verarbeitung werden beispielsweise eine Position und ein Zustand einer Ampel, Inhalte eines Verkehrszeichens und eines Straßenschilds, Inhalte einer Verkehrsregelung, einer befahrbaren Fahrspur und dergleichen erkannt.
  • Beispielsweise führt die Erkennungseinheit 73 eine Erkennungsverarbeitung von Umweltbedingungen im Umfeld des Fahrzeugs 1 durch. Als zu erkennende Umweltbedingungen in der Umgebung werden beispielsweise Wetter, Temperatur, Feuchtigkeit, Helligkeit, Straßenoberflächenbedingungen und dergleichen angenommen.
  • Die Handlungsplanungseinheit 62 erstellt einen Handlungsplan des Fahrzeugs 1. Beispielsweise erstellt die Handlungsplanungseinheit 62 einen Handlungsplan, indem sie eine Verarbeitung zur Pfadplanung und Pfadverfolgung durchführt.
  • Es sei angemerkt, dass die Pfadplanung (globale Pfadplanung) eine Verarbeitung zum Planen eines groben Pfads von einem Start zu einem Ziel ist. Diese Pfadplanung wird als Spurplanung bezeichnet und weist auch eine Verarbeitung zur Spurerzeugung (lokale Pfadplanung) auf, die ein sicheres und reibungsloses Fahren in der Nähe des Fahrzeugs 1 ermöglicht, unter Berücksichtigung von Bewegungseigenschaften des Fahrzeugs 1 auf dem mittels der Pfadplanung geplanten Pfad.
  • Die Pfadverfolgung ist eine Verarbeitung zum Planen eines Betriebs zum sicheren und genauen Befahren eines mittels der Pfadplanung geplanten Pfads innerhalb einer geplanten Zeit. Beispielsweise werden eine Sollgeschwindigkeit und eine Sollwinkelgeschwindigkeit des Fahrzeugs 1 berechnet.
  • Die Betriebssteuereinheit 63 steuert einen Betrieb des Fahrzeugs 1, um den durch die Handlungsplanungseinheit 62 erstellten Handlungsplan umzusetzen.
  • Beispielsweise steuert die Betriebssteuereinheit 63 eine Lenksteuereinheit 81, eine Bremssteuereinheit 82 und eine Antriebssteuereinheit 83, um eine Beschleunigungs-/Verzögerungssteuerung und eine Richtungssteuerung durchzuführen, sodass das Fahrzeug 1 auf einer mittels der Spurplanung berechneten Spur fährt. Beispielsweise führt die Betriebssteuereinheit 63 eine kooperative Steuerung zum Implementieren von Funktionen des FAS durch, wie etwa Kollisionsvermeidung oder Aufprallabschwächung, Folgefahrt, Fahren mit Geschwindigkeitsbeibehaltung, Kollisionswarnung des eigenen Fahrzeugs, Fahrspurabweichungswarnung des eigenen Fahrzeugs und dergleichen. Des Weiteren führt die Betriebssteuereinheit 63 beispielsweise eine kooperative Steuerung zum Zweck des automatischen Fahrens oder dergleichen des autonomen Fahrens ohne Abhängigkeit von einer Bedienung des Fahrers durch.
  • Das DMS 30 führt eine Fahrerauthentifizierungsverarbeitung, eine Erkennungsverarbeitung eines Zustands des Fahrers und dergleichen auf der Grundlage von Sensordaten von dem fahrzeuginternen Sensor 26, Eingabedaten, die in die HMI 31 eingegeben werden, und dergleichen durch. Als zu erkennender Zustand des Fahrers können beispielsweise eine körperliche Verfassung, ein Wachheitsgrad, ein Konzentrationsgrad, ein Ermüdungsgrad, eine Blickrichtung, ein Trunkenheitsgrad, ein Fahrbedienvorgang, eine Körperhaltung und dergleichen angenommen werden.
  • Es sei angemerkt, dass das DMS 30 eine Authentifizierungsverarbeitung eines anderen Insassen als des Fahrers und eine Erkennungsverarbeitung eines Zustands des Insassen durchführen kann. Ferner kann das DMS 30 beispielsweise eine Erkennungsverarbeitung einer Situation im Innenraum des Fahrzeugs auf der Grundlage von Sensordaten von dem fahrzeuginternen Sensor 26 durchführen. Als zu erkennende Situation im Innenraum des Fahrzeugs werden beispielsweise eine Temperatur, eine Feuchtigkeit, eine Helligkeit, ein Geruch und dergleichen angenommen.
  • Die HMI 31 wird zum Eingeben verschiedener Daten, Anweisungen und dergleichen verwendet, erzeugt ein Eingabesignal auf der Grundlage der eingegebenen Daten, Anweisungen und dergleichen und führt es jeder Einheit des Fahrzeugsteuersystems 11 zu. Die HMI 31 weist zum Beispiel Folgendes auf: Bedienvorrichtungen wie ein Berührungsfeld, eine Taste, ein Mikrofon, einen Schalter und einen Hebel; eine Bedienvorrichtung, die durch ein anderes Verfahren als eine manuelle Bedienung eingegeben werden kann, wie etwa mit Sprache oder einer Geste; und dergleichen. Es sei angemerkt, dass die HMI 31 beispielsweise eine Fernsteuervorrichtung sein kann, die Infrarotstrahlen oder andere Funkwellen verwendet, oder ein externes Verbindungsgerät, wie etwa ein mobiles Gerät oder ein tragbares Gerät, das einem Betrieb des Fahrzeugsteuersystems 11 entspricht.
  • Des Weiteren führt die HMI 31 eine Ausgabesteuerung durch, um die Erzeugung und Ausgabe von visuellen Informationen, akustischen Informationen und taktilen Informationen an den Insassen oder das Umfeld des Fahrzeugs zu steuern, und um Ausgabeinhalte, Ausgabezeiten, ein Ausgabeverfahren und dergleichen zu steuern. Die visuellen Informationen sind zum Beispiel Informationen, die durch ein Bild oder Licht angegeben werden, wie etwa einen Bedienungsbildschirm, eine Zustandsanzeige des Fahrzeugs 1, eine Warnanzeige oder ein Monitorbild, das eine Situation im Umfeld des Fahrzeugs 1 angibt. Die akustischen Informationen sind zum Beispiel durch Ton angegebene Informationen, wie etwa eine Führung, ein Warnton oder eine Warnmeldung. Die taktilen Informationen sind beispielsweise Informationen, die einem taktilen Empfinden des Insassen durch eine Kraft, eine Vibration, eine Bewegung oder dergleichen bereitgestellt werden.
  • Als eine Vorrichtung, die visuelle Informationen ausgibt, werden beispielsweise eine Anzeigevorrichtung, ein Projektor, eine Navigationsvorrichtung, ein Instrumentenpanel, ein Kameraüberwachungssystem (CMS: Camera Monitoring System), ein elektronischer Spiegel, eine Leuchte und dergleichen angenommen. Die Anzeigevorrichtung kann beispielsweise eine Vorrichtung sein, die visuelle Informationen im Sichtfeld eines Insassen anzeigt, wie etwa ein Head-Up-Display, eine durchlässige Anzeige oder eine Wearable-Vorrichtung mit AR-Funktion (AR: Augmented Reality - erweiterte Realität), zusätzlich zu einer Vorrichtung mit einer normalen Anzeige.
  • Als eine Vorrichtung, die akustische Informationen ausgibt, wird beispielsweise ein Audiolautsprecher, ein Kopfhörer, ein Ohrhörer oder dergleichen angenommen.
  • Als eine Vorrichtung, die taktile Informationen ausgibt, wird beispielsweise ein haptisches Element, das eine haptische Technologie verwendet, oder dergleichen angenommen. Das haptische Element ist beispielsweise an einem Lenkrad, einem Sitz oder dergleichen bereitgestellt.
  • Die Fahrzeugsteuereinheit 32 steuert jede Einheit des Fahrzeugs 1. Die Fahrzeugsteuereinheit 32 weist die Lenksteuereinheit 81, die Bremssteuereinheit 82, die Antriebssteuereinheit 83, eine Karosseriesystemsteuereinheit 84, eine Lichtsteuereinheit 85 und eine Hupensteuereinheit 86 auf.
  • Die Lenksteuereinheit 81 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Lenksystems des Fahrzeugs 1 durch. Das Lenksystem weist beispielsweise einen Lenkmechanismus mit einem Lenkrad und dergleichen, eine Servolenkung und dergleichen auf. Die Lenksteuereinheit 81 weist beispielsweise eine Steuereinheit, wie etwa eine ECU, die das Lenksystem steuert, einen Aktor, der das Lenksystem antreibt, und dergleichen auf.
  • Die Bremssteuereinheit 82 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Bremssystems des Fahrzeugs 1 durch. Das Bremssystem weist beispielsweise einen Bremsmechanismus mit einem Bremspedal, einem Antiblockiersystem (ABS) und dergleichen auf. Die Bremssteuereinheit 82 weist zum Beispiel eine Steuereinheit, wie etwa eine ECU, die ein Bremssystem steuert, einen Aktor, der das Bremssystem antreibt, und dergleichen auf.
  • Die Antriebssteuereinheit 83 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Antriebssystems des Fahrzeugs 1 durch. Das Antriebssystem weist zum Beispiel ein Gaspedal, eine Antriebskrafterzeugungsvorrichtung zur Erzeugung einer Antriebskraft, wie etwa eine Brennkraftmaschine oder einen Antriebsmotor, einen Antriebskraftübertragungsmechanismus zum Übertragen der Antriebskraft auf Räder und dergleichen auf. Die Antriebssteuereinheit 83 weist zum Beispiel eine Steuereinheit, wie etwa eine ECU, die das Antriebssystem steuert, einen Aktor, der das Antriebssystem antreibt, und dergleichen auf.
  • Die Karosseriesystemsteuereinheit 84 führt eine Detektion, Steuerung und dergleichen eines Zustands eines Karosseriesystems des Fahrzeugs 1 durch. Das Karosseriesystem weist zum Beispiel ein schlüsselloses Zugangssystem, ein Smart-Key-System, eine elektrische Fensterhebervorrichtung, einen elektrisch verstellbaren Sitz, eine Klimaanlage, einen Airbag, einen Sicherheitsgurt, einen Schalthebel und dergleichen auf. Die Karosseriesystemsteuereinheit 84 weist zum Beispiel eine Steuereinheit, wie etwa eine ECU, die das Karosseriesystem steuert, einen Aktor, der das Karosseriesystem antreibt, und dergleichen auf.
  • Die Lichtsteuereinheit 85 führt eine Detektion, Steuerung und dergleichen eines Zustands verschiedener Lichter des Fahrzeugs 1 durch. Als zu steuernde Lichter werden beispielsweise ein Scheinwerfer, ein Rücklicht, ein Nebellicht, ein Blinker, ein Bremslicht, eine Projektion, eine Anzeige einer Stoßstange und dergleichen angenommen. Die Lichtsteuereinheit 85 weist eine Steuereinheit, wie etwa eine ECU, die Lichter steuert, einen Aktor, der Lichter antreibt, und dergleichen auf.
  • Die Hupensteuereinheit 86 führt eine Detektion, Steuerung und dergleichen des Zustands einer Autohupe des Fahrzeugs 1 durch. Die Hupensteuereinheit 86 weist zum Beispiel eine Steuereinheit, wie etwa eine ECU, die die Autohupe steuert, einen Aktor, der die Autohupe antreibt, und dergleichen auf.
  • 2 ist eine Ansicht, die ein Beispiel eines Erfassungsbereichs durch die Kamera 51, das Radar 52, das LiDAR 53 und den Ultraschallsensor 54 des externen Erkennungssensors 25 in 1 veranschaulicht.
  • Erfassungsbereiche 101F und 101B veranschaulichen Beispiele von Erfassungsbereichen des Ultraschallsensors 54. Der Erfassungsbereich 101F deckt eine Peripherie eines vorderen Endes des Fahrzeugs 1 ab. Der Erfassungsbereich 101B deckt eine Peripherie eines hinteren Endes des Fahrzeugs 1 ab.
  • Erfassungsergebnisse in den Erfassungsbereichen 101F und 101B werden beispielsweise zur Einparkhilfe und dergleichen des Fahrzeugs 1 verwendet.
  • Erfassungsbereiche 102F bis 102B veranschaulichen Beispiele von Erfassungsbereichen des Radars 52 für eine kurze Distanz oder eine mittlere Distanz. Der Erfassungsbereich 102F deckt eine Position weiter als der Erfassungsbereich 101F vor dem Fahrzeug 1 ab. Der Erfassungsbereich 102B deckt eine Position weiter als der Erfassungsbereich 101B hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 102L deckt eine hintere Peripherie einer linken Seitenfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 102R deckt eine hintere Peripherie einer rechten Seitenfläche des Fahrzeugs 1 ab.
  • Ein Erfassungsergebnis in dem Erfassungsbereich 102F wird beispielsweise zum Detektieren eines Fahrzeugs, eines Fußgängers oder dergleichen, das bzw. der sich vor dem Fahrzeug 1 befindet, und dergleichen verwendet. Ein Erfassungsergebnis in dem Erfassungsbereich 102B wird beispielsweise für eine Kollisionsverhinderungsfunktion oder dergleichen hinter dem Fahrzeug 1 verwendet. Erfassungsergebnisse in den Erfassungsbereichen 102L und 102R werden beispielsweise zur Detektion eines Objekts in einem toten Winkel auf einer Seite des Fahrzeugs 1 und dergleichen verwendet.
  • Erfassungsbereiche 103F bis 103B veranschaulichen Beispiele von Erfassungsbereichen durch die Kamera 51. Der Erfassungsbereich 103F deckt eine Position weiter als der Erfassungsbereich 102F vor dem Fahrzeug 1 ab. Der Erfassungsbereich 103B deckt eine Position weiter als der Erfassungsbereich 102B hinter dem Fahrzeug 1 ab. Der Erfassungsbereich 103L deckt eine Peripherie einer linken Seitenfläche des Fahrzeugs 1 ab. Der Erfassungsbereich 103R deckt eine Peripherie einer rechten Seitenfläche des Fahrzeugs 1 ab.
  • Ein Erfassungsergebnis in dem Erfassungsbereich 103F wird beispielsweise zur Erkennung einer Ampel oder eines Verkehrszeichens, für ein Spurhalteassistenzsystem und dergleichen verwendet. Ein Erfassungsergebnis in dem Erfassungsbereich 103B wird beispielsweise für eine Einparkhilfe, ein Surround-View-System und dergleichen verwendet. Erfassungsergebnisse in den Erfassungsbereichen 103L und 103R werden beispielsweise in einem Surround-View-System oder dergleichen verwendet.
  • Ein Erfassungsbereich 104 zeigt ein Beispiel eines Erfassungsbereichs des LiDAR 53. Der Erfassungsbereich 104 deckt eine Position weiter als der Erfassungsbereich 103F vor dem Fahrzeug 1 ab. Jedoch hat der Erfassungsbereich 104 eine schmalere Reichweite in einer von links nach rechts verlaufenden Richtung als der Erfassungsbereich 103F.
  • Ein Erfassungsergebnis in dem Erfassungsbereich 104 wird beispielsweise zur Notbremsung, Kollisionsvermeidung, Fußgängerdetektion und dergleichen verwendet.
  • Ein Erfassungsbereich 105 veranschaulicht ein Beispiel eines Erfassungsbereichs des Radars 52 für eine lange Distanz. Der Erfassungsbereich 105 deckt eine Position weiter als der Erfassungsbereich 104 vor dem Fahrzeug 1 ab. Jedoch hat der Erfassungsbereich 105 eine schmalere Reichweite in einer von links nach rechts verlaufenden Richtung als der Erfassungsbereich 104.
  • Ein Erfassungsergebnis in dem Erfassungsbereich 105 wird beispielsweise zur einer adaptiven Geschwindigkeitsregelung (ACC) und dergleichen verwendet.
  • Es sei angemerkt, dass der Erfassungsbereich jedes Sensors verschiedene andere Konfigurationen als die in 2 aufweisen kann. Insbesondere kann der Ultraschallsensor 54 auch eine Erfassung auf einer Seite des Fahrzeugs 1 durchführen, oder das LiDAR 53 kann eine Erfassung hinter dem Fahrzeug 1 durchführen.
  • «2. Problem der Belegungsrasterkarte»
  • Als Nächstes wird ein Problem der Belegungsrasterkarte unter Bezugnahme auf 3 bis 6 beschrieben.
  • Wie oben beschrieben, ist die Belegungsrasterkarte eine Karte, die einen Belegungszustand eines Objekts in einem Raum im Umfeld des Fahrzeugs 1 in einer Einheit eines Rasters repräsentiert.
  • Beispielsweise wird der Belegungszustand jedes Rasters durch eine Vorhandenseinswahrscheinlichkeit eines Objekts repräsentiert. Die Vorhandenseinswahrscheinlichkeit wird beispielsweise in einem Bereich von 0 (ein Objekt ist nicht vorhanden) bis 1 (ein Objekt ist vorhanden) ausgedrückt und nähert sich 1 mit Zunahme der Wahrscheinlichkeit, dass ein Objekt vorhanden ist, und nähert sich 0 mit Abnahme der Wahrscheinlichkeit, dass ein Objekt vorhanden ist.
  • Des Weiteren wird der Belegungszustand jedes Rasters beispielsweise durch ein Vorhandensein oder Nichtvorhandensein eines Objekts repräsentiert. Beispielsweise wird der Belegungszustand jedes Rasters durch drei Arten von Werten repräsentiert: vorhanden (ein Objekt ist vorhanden), nicht vorhanden (ein Objekt ist nicht vorhanden) und unbekannt. Beispielsweise wird in einem Raster, dessen Belegungszustand nicht „unbekannt“ ist, der Belegungszustand auf „vorhanden“ eingestellt, falls die Vorhandenseinswahrscheinlichkeit gleich oder größer als ein vorbestimmter Schwellenwert ist, und der Belegungszustand wird auf „nicht vorhanden“ eingestellt, falls die Vorhandenseinswahrscheinlichkeit kleiner als der vorbestimmte Schwellenwert ist.
  • Beispielsweise stellt die Handlungsplanungseinheit 62 des Fahrzeugs 1 einen nächstgelegenen Pfad derart ein, dass er durch einen Bereich verläuft, in dem kein Objekt in der Belegungsrasterkarte vorhanden ist.
  • Außerdem wird in der Regel eine Erweiterungsverarbeitung an der Belegungsrasterkarte durchgeführt. Die Erweiterungsverarbeitung ist eine Verarbeitung zum Erweitern, auf ein benachbartes Raster, einer Grenze eines Bereichs (im Folgenden als ein belegter Bereich bezeichnet), in dem jedes Objekt auf der Belegungsrasterkarte belegt (vorhanden ist). Infolgedessen wird der belegte Bereich jedes Objekts größer als ein tatsächlicher Bereich des Objekts in der Belegungsrasterkarte, und ein Risiko einer Kollision oder eines Kontakts mit dem Objekt wird verringert, selbst wenn das Fahrzeug 1 einen Pfad nahe der Grenze des belegten Bereichs einstellt.
  • Des Weiteren wird in einer herkömmlichen Belegungsrasterkarte eine gewisse Erweiterungsverarbeitung an allen Objekten durchgeführt. Das heißt, ein konstantes Erweiterungsausmaß wird auf alle Objekte angewendet, und eine Grenze eines belegten Bereichs jedes Objekts wird um die gleiche Anzahl von Rastern erweitert.
  • Wird hierbei zum Beispiel das Erweiterungsausmaß erhöht, so vergrößert sich ein Spielraum für jedes Objekt, und ein Pfad, der selbst bei Bewegung eines mobilen Objekts wie eines Fahrzeugs oder einer Person ein sicheres Umgehen ermöglicht, ist einzustellen. Da der belegte Bereich jedes Objekts vergrößert wird, wird jedoch ein Bereich, in dem das Fahrzeug 1 passieren kann, schmaler, wodurch es schwierig werden kann, einen Pfad einzustellen oder zu veranlassen, dass das Fahrzeug 1 einen Umweg nimmt.
  • Wird dagegen das Erweiterungsausmaß verringert, so wird der Bereich, in dem das Fahrzeug 1 passieren kann, verbreitert. Da der Spielraum für jedes Objekt abnimmt, steigt jedoch ein Risiko einer Kollision mit einem mobilen Objekt.
  • Beispielsweise veranschaulicht 3 ein Beispiel, in dem das Fahrzeug 1 dabei ist, zwischen einem stationären Objekt 201 und einem stationären Objekt 202 hindurchzufahren.
  • A in 3 veranschaulicht ein Beispiel, in dem das Erweiterungsausmaß reduziert ist. In diesem Fall nehmen ein belegter Bereich 211A für das stationäre Objekt 201 und ein belegter Bereich 212A für das stationäre Objekt 202 ab. Dann ist zwischen dem belegten Bereich 211A und dem belegten Bereich 212A ein Platz gewährleistet, der das Fahren gestattet, und das Fahrzeug 1 kann in Richtung des Pfeils A1 fahren.
  • Dagegen veranschaulicht B in 3 ein Beispiel, in dem das Erweiterungsausmaß erhöht ist. In diesem Fall sind ein belegter Bereich 211B für das stationäre Objekt 201 und ein belegter Bereich 212B für das stationäre Objekt 202 vergrößert. Dann ist zwischen dem belegten Bereich 211B und dem belegten Bereich 212B kein Platz gewährleistet, der das Fahren gestattet, und das Fahrzeug 1 kann sich nicht in Richtung des Pfeils A2 bewegen und muss einen Umweg fahren.
  • 4 veranschaulicht ein Beispiel, in dem das Fahrzeug 1 dabei ist, an einer Person 221 vorbeizufahren.
  • A in 4 veranschaulicht ein Beispiel, in dem das Erweiterungsausmaß reduziert ist. In diesem Fall wird ein belegter Bereich 231A für die Person 221 klein und ein Spielraum nimmt ab. Daher fährt das Fahrzeug 1 unmittelbar in der Nähe der Person 221 und ein Risiko einer Kollision oder eines Kontakts mit der Person 221 nimmt zu.
  • Dagegen veranschaulicht B in 4 ein Beispiel, in dem das Erweiterungsausmaß erhöht ist. In diesem Fall ist ein belegter Bereich 231B für die Person 221 vergrößert und ein Spielraum ist vergrößert. Daher fährt das Fahrzeug 1 an einer von der Person 221 entfernten Position, und das Risiko einer Kollision oder eines Kontakts mit der Person 221 ist verringert.
  • Wie oben beschrieben, ist es zum Beispiel in der herkömmlichen Erweiterungsverarbeitung schwierig, durch einen schmalen Bereich zwischen Objekten sicher hindurchzufahren und dabei die Objekte zu umgehen.
  • Des Weiteren werden im Allgemeinen eine Allmähliche-Verringerung-Verarbeitung und eine Allmähliche-Erhöhung-Verarbeitung der Vorhandenseinswahrscheinlichkeit an der Belegungsrasterkarte durchgeführt. Die Allmähliche-Verringerung-Verarbeitung der Vorhandenseinswahrscheinlichkeit ist eine Verarbeitung zum allmählichen Verringern der Vorhandenseinswahrscheinlichkeit eines bestimmten Rasters auf 0 im Laufe der Zeit, ohne sie sofort auf 0 zu ändern, selbst wenn kein Objekt mehr in dem Raster detektiert wird. Die Allmähliche-Erhöhung-Verarbeitung der Vorhandenseinswahrscheinlichkeit ist eine Verarbeitung zum allmählichen Erhöhen der Vorhandenseinswahrscheinlichkeit eines bestimmten Rasters auf 1 im Laufe der Zeit, ohne sie sofort auf 1 zu ändern, selbst wenn ein Objekt in dem Raster detektiert wird. Durch die Allmähliche-Verringerung-Verarbeitung und die Allmähliche-Erhöhung-Verarbeitung der Vorhandenseinswahrscheinlichkeit wird verhindert, dass ein Belegungszustand jedes Rasters aufgrund von Rauschen oder dergleichen fehlerhaft eingestellt wird.
  • Ferner werden bei einer herkömmlichen Allmähliche-Verringerung-Verarbeitung und Allmähliche-Erhöhung-Verarbeitung der Vorhandenseinswahrscheinlichkeit eine Allmähliche-Verringerung-Zeit und eine Allmähliche-Erhöhung-Zeit als konstant eingestellt. Hier ist die Allmähliche-Verringerung-Zeit eine zum Ändern der Vorhandenseinswahrscheinlichkeit von 1 auf 0 benötigte Zeit. Hier ist die Allmähliche-Erhöhung-Zeit eine zum Ändern der Vorhandenseinswahrscheinlichkeit von 0 auf 1 benötigte Zeit.
  • Werden zum Beispiel die Allmähliche-Verringerung-Zeit und die Allmähliche-Erhöhung-Zeit verkürzt, so ist eine Bewegung oder dergleichen des Objekts schnell in der Belegungsrasterkarte widerzuspiegeln. Allerdings ist es wahrscheinlich, dass sich der Belegungszustand jedes Rasters aufgrund von Rauschen oder dergleichen ändert, und es besteht ein hohes Risiko, dass der Belegungszustand falsch eingestellt wird. Beispielsweise besteht ein hohes Risiko, dass ein Belegungszustand eines Bereichs, in dem tatsächlich ein stationäres Objekt vorhanden ist, auf „nicht vorhanden“ eingestellt wird.
  • Werden dagegen die Allmähliche-Verringerung-Zeit und die Allmähliche-Erhöhung-Zeit verlängert, so ist es weniger wahrscheinlich, dass sich der Belegungszustand jedes Rasters aufgrund von Rauschen oder dergleichen ändert. Allerdings wird eine Bewegung oder dergleichen des Objekts nicht schnell in der Belegungsrasterkarte widergespiegelt, und beispielsweise wird ein Belegungszustand eines Bereichs, in dem sich ein Objekt bereits bewegt hat und nicht mehr vorhanden ist, auf „vorhanden“ eingestellt, und es besteht eine hohe Wahrscheinlichkeit, dass das Fahrzeug 1 nicht passieren kann.
  • Beispielsweise veranschaulicht 5 ein Beispiel, in dem das Fahrzeug 1 zwischen einem stationären Objekt 241 und einem stationären Objekt 241 hindurchfährt und ein Ziel 243 rechts von dem stationären Objekt 242 erreichen möchte.
  • A in 5 veranschaulicht ein Beispiel, in dem die Allmähliche-Verringerung-Zeit verkürzt ist. In diesem Beispiel sind belegte Bereiche 251 bis 253 für das stationäre Objekt 241 eingestellt, und belegte Bereiche 254 bis 256 sind für das stationäre Objekt 242 eingestellt. Jedoch ist zwischen dem belegten Bereich 251 und dem belegten Bereich 252 und zwischen dem belegten Bereich 252 und dem belegten Bereich 253 aufgrund eines geringen Reflexionsgrads des stationären Objekts 241 oder dergleichen kein belegter Bereich eingestellt. Ferner ist zwischen dem belegten Bereich 254 und dem belegten Bereich 255 und zwischen dem belegten Bereich 255 und dem belegten Bereich 256 aufgrund eines geringen Reflexionsgrads des stationären Objekts 242 oder dergleichen kein belegter Bereich eingestellt.
  • Daher bestimmt das Fahrzeug 1, dass sich kein Objekt in einem eingekreisten Bereich B21 befindet und fährt in Richtung des Pfeils A21 weiter, und ein Risiko einer Kollision mit dem stationären Objekt 242 nimmt zu.
  • B von 5 veranschaulicht ein Beispiel, in dem die Allmähliche-Verringerung-Zeit verlängert ist. In diesem Beispiel sind ein belegter Bereich 261 und ein belegter Bereich 262 auch zwischen dem belegten Bereich 251 und dem belegten Bereich 252 und zwischen dem belegten Bereich 252 und dem belegten Bereich 253 eingestellt. Ferner sind ein belegter Bereich 263 und ein belegter Bereich 264 auch zwischen dem belegten Bereich 254 und dem belegten Bereich 255 und zwischen dem belegten Bereich 255 und dem belegten Bereich 256 eingestellt.
  • Daher fährt das Fahrzeug 1 in Richtung des Pfeils A22, während es das stationäre Objekt 242 umgeht, und kann das Ziel 243 erreichen, ohne mit dem stationären Objekt 242 zu kollidieren.
  • 6 veranschaulicht ein Beispiel, in dem das Fahrzeug 1 dabei ist, an einer Person 271 vorbeizufahren, die in Richtung des Pfeils A32 geht.
  • A in 6 veranschaulicht ein Beispiel, in dem die Allmähliche-Verringerung-Zeit verkürzt ist. In diesem Beispiel ist eine Zeit, bis sich ein Belegungszustand eines Rasters nach dem Gehen der Person 271 auf „nicht vorhanden“ ändert, verkürzt. Daher ist ein belegter Bereich 281A für die Person 271 schmaler und das Fahrzeug 1 kann schnell durch den Bereich hindurchfahren, nachdem die Person 271 in Richtung des Pfeils A31 verschwunden ist.
  • B von 6 veranschaulicht ein Beispiel, in dem die Allmähliche-Verringerung-Zeit verlängert ist. In diesem Beispiel ist eine Zeit, bis sich ein Belegungszustand eines Rasters nach dem Gehen der Person 271 auf „nicht vorhanden“ ändert, verlängert. Daher wird ein belegter Bereich 281B für die Person 271 in einer von vorne nach hinten verlaufenden Richtung der Person 271 lang, und das Fahrzeug 1 kann sich nicht in Richtung des Pfeils A33 bewegen, obgleich die Person 271 nicht vorhanden ist.
  • Wie oben beschrieben, ist es zum Beispiel in der herkömmlichen Allmähliche-Verringerung-Verarbeitung schwierig, durch einen schmalen Bereich zwischen Objekten sicher hindurchzufahren und dabei die Objekte zu umgehen.
  • Die vorliegende Technologie soll diese Probleme lösen.
  • «3. Ausführungsform»
  • Als Nächstes wird eine Ausführungsform der vorliegenden Technologie unter Bezugnahme auf 7 bis 15 beschrieben.
  • <Konfigurationsbeispiel der Informationsverarbeitungseinheit 301>
  • 7 veranschaulicht ein Konfigurationsbeispiel einer Informationsverarbeitungseinheit 301, auf die die vorliegende Technologie angewendet wird.
  • Die Informationsverarbeitungseinheit 301 ist beispielsweise in der Erkennungseinheit 73 des Fahrzeugsteuersystems 11 in 1 enthalten und erstellt eine Belegungsrasterkarte. Die Informationsverarbeitungseinheit 301 weist eine Attributdetektionseinheit 311, eine Kartenerstellungseinheit 312, eine Attributeinstellungseinheit 313 und eine Korrektureinheit 314 auf.
  • Die Kamera 51 nimmt ein Bild der Umgebung des Fahrzeugs 1 auf und liefert Bilddaten einschließlich Informationen, die ein Attribut eines Objekts im Umfeld des Fahrzeugs 1 angeben, an die Informationsverarbeitungseinheit 301.
  • Das LiDAR 53 führt eine Erfassung im Umfeld des Fahrzeugs 1 durch, um eine Position eines Objekts im Umfeld des Fahrzeugs 1 zu detektieren, und erzeugt eine dreidimensionale Punktwolke, die eine Verteilung von Reflexionspunkten jedes Objekts angibt, und liefert sie an die Informationsverarbeitungseinheit 301.
  • Die Attributdetektionseinheit 311 detektiert ein Attribut eines Objekts im Umfeld des Fahrzeugs 1 auf der Grundlage von Bilddaten und einer Punktwolke. Die Attributdetektionseinheit 311 weist eine Klassifikationseinheit 321, eine Objektdetektionseinheit 322 und eine Bewegungsschätzungseinheit 323 auf.
  • Die Klassifikationseinheit 321 erkennt auf der Grundlage von Bilddaten eine Objektart, die eines der Attribute des Objekts im Umfeld des Fahrzeugs 1 ist. Die Klassifikationseinheit 321 liefert ein Erkennungsergebnis der Art des Objekts an die Objektdetektionseinheit 322.
  • Die Objektdetektionseinheit 322 detektiert ein Objekt in einem dreidimensionalen Raum im Umfeld des Fahrzeugs 1 auf der Grundlage einer Punktwolke. Ferner assoziiert die Objektdetektionseinheit 322 die Art des durch die Klassifikationseinheit 321 erkannten Objekts mit dem detektierten Objekt. Die Objektdetektionseinheit 322 liefert ein Objektdetektionsergebnis an die Bewegungsschätzungseinheit 323 und die Attributeinstellungseinheit 313.
  • Die Bewegungsschätzungseinheit 323 führt eine Verfolgung eines durch die Objektdetektionseinheit 322 detektierten Objekts durch, um eine Bewegung des Objekts zu schätzen, die eines der Attribute des Objekts im Umfeld des Fahrzeugs 1 ist. Die Bewegungsschätzungseinheit 323 liefert ein Schätzergebnis der Bewegung des Objekts an die Attributeinstellungseinheit 313.
  • Die Kartenerstellungseinheit 312 erstellt auf der Grundlage einer Punktwolke eine Belegungsrasterkarte im Umfeld des Fahrzeugs 1. Die Kartenerstellungseinheit 312 liefert die Belegungsrasterkarte an die Attributeinstellungseinheit 313.
  • Die Attributeinstellungseinheit 313 stellt ein Attribut jedes Rasters der Belegungsrasterkarte auf der Grundlage eines Detektionsergebnisses des Objekts und eines Ergebnisses der Bewegungsschätzung ein. Die Attributeinstellungseinheit 313 liefert die Belegungsrasterkarte mit dem Attribut an die Korrektureinheit 314.
  • Die Korrektureinheit 314 korrigiert die Belegungsrasterkarte auf der Grundlage eines Attributs jedes Rasters. Die Korrektureinheit 314 liefert die korrigierte Belegungsrasterkarte an eine anschließende Stufe (zum Beispiel die Handlungsplanungseinheit 62 oder dergleichen).
  • < Kartenerstellungsverarbeitung >
  • Als Nächstes wird unter Bezugnahme auf ein Flussdiagramm von 8 eine Kartenerstellungsverarbeitung beschrieben, die durch die Informationsverarbeitungseinheit 301 ausgeführt wird.
  • Diese Verarbeitung wird beispielsweise gestartet, wenn die Leistungszufuhr zum Fahrzeug 1 eingeschaltet wird, und wird beendet, wenn die Leistungszufuhr ausgeschaltet wird.
  • In Schritt S1 erwirbt die Informationsverarbeitungseinheit 301 Erfassungsdaten.
  • Insbesondere nimmt die Kamera 51 ein Bild der Umgebung des Fahrzeugs 1 auf und liefert erhaltene Bilddaten an die Informationsverarbeitungseinheit 301. Die Klassifikationseinheit 321 erwirbt die von der Kamera 51 gelieferten Bilddaten. Es sei angemerkt, dass die Bilddaten entweder farbig oder monochrom sein können.
  • Das LiDAR 52 führt eine Erfassung an der Umgebung des Fahrzeugs 1 durch, erstellt eine dreidimensionale Punktwolke und liefert die Punktwolke an die Informationsverarbeitungseinheit 301. Die Kartenerstellungseinheit 312 und die Objektdetektionseinheit 322 erwerben die von dem LiDAR 52 gelieferte Punktwolke.
  • In Schritt S2 detektiert die Objektdetektionseinheit 322 ein Objekt. Insbesondere entfernt die Objektdetektionseinheit 322 Rauschen oder dergleichen in geeigneter Weise aus der Punktwolke und führt dann Clustering durch, um eine Position, eine Größe und eine Form des Objekts in der Punktwolke zu detektieren.
  • In Schritt S3 erkennt die Klassifikationseinheit 321 eine Art des Objekts. Insbesondere verwendet die Klassifikationseinheit 321 eine Instanzsegmentierung, um eine Art des Objekts, zu dem jedes Pixel gehört, für jedes Pixel der Bilddaten zu erkennen. Die Art des Objekts wird beispielsweise in ein Fahrzeug, einen Fußgänger, ein Fahrrad, eine Straßenoberfläche, eine Leitplanke, ein Gebäude und dergleichen klassifiziert. Die Klassifikationseinheit 321 liefert ein Erkennungsergebnis der Art des Objekts an die Objektdetektionseinheit 322.
  • Die Objektdetektionseinheit 322 gibt jedem Punkt der Punktwolke ein Attribut, indem sie jeden Punkt mit einem Bildkoordinatensystem assoziiert. Die Objektdetektionseinheit 322 liefert Informationen, die eine Position, eine Größe, eine Form und eine Art des Objekts in dem dreidimensionalen Koordinatensystem angeben, an die Attributeinstellungseinheit 313 und die Bewegungsschätzungseinheit 323.
  • In Schritt S4 erstellt die Kartenerstellungseinheit 312 eine Belegungsrasterkarte. Insbesondere entfernt die Kartenerstellungseinheit 312 Rauschen oder dergleichen in geeigneter Weise aus einer Punktwolke, unterteilt dann den dreidimensionalen Raum in Raster einer vorbestimmten Größe und stellt einen Belegungszustand ein, der ein Vorhandensein oder Nichtvorhandensein eines Objekts für jedes Raster angibt.
  • Beispielsweise wird in der Punktwolke ein Belegungszustand eines Rasters, das einem Bereich entspricht, in dem der Reflexionsgrad gleich oder größer als ein vorbestimmter Schwellenwert ist, auf „vorhanden“ eingestellt, wodurch das Vorhandensein eines Objekts angegeben wird. Ein Belegungszustand eines Rasters, das einem Bereich entspricht, durch den reflektiertes Licht hindurchtritt, wird auf „nicht vorhanden“ eingestellt, wodurch das Nichtvorhandensein eines Objekts angegeben wird. Ein Belegungszustand eines Rasters, das einem Bereich entspricht, in den reflektiertes Licht nicht zurückgekehrt ist, wird auf „unbekannt“ eingestellt, wodurch angegeben wird, dass ein Vorhandensein oder Nichtvorhandensein eines Objekts in allen Bereichen in einer Strahlungsrichtung, durch die ein Laser von einer Emissionsposition des Lasers hindurchtreten würde, unbekannt ist. Die Kartenerstellungseinheit 312 liefert die erstellte Belegungsrasterkarte an die Attributeinstellungseinheit 313.
  • Es sei angemerkt, dass die Verarbeitung in den Schritten S2 und S3 und die Verarbeitung in Schritt S4 beispielsweise parallel durchgeführt werden.
  • In Schritt S5 führt die Bewegungsschätzungseinheit 323 eine Verfolgung des Objekts durch. Insbesondere verwendet die Bewegungsschätzungseinheit 323 ein Kalman-Filter, ein Partikelfilter oder dergleichen, um eine Bewegung jedes in der Punktwolke detektierten Objekts (eines Clusters von Punktgruppen) zu erkennen. Zu diesem Zeitpunkt wendet die Bewegungsschätzungseinheit 323 das Kalman-Filter oder das Partikelfilter beispielsweise gemäß Eigenschaften (zum Beispiel einem Unterschied zwischen einem mobilen Objekt und einem stationären Objekt, einer angenommenen Geschwindigkeit und dergleichen) jedes Objekts an.
  • In Schritt S6 schätzt die Bewegungsschätzungseinheit 323 einen Bewegungsvektor des Objekts. Insbesondere schätzt die Bewegungsschätzungseinheit 323 den Bewegungsvektor jedes Objekts, das heißt eine Geschwindigkeit und eine Fortbewegungsrichtung (eine Bewegungsrichtung) jedes Objekts auf der Grundlage eines Ergebnisses der Verfolgung jedes Objekts. Die Bewegungsschätzungseinheit 323 liefert Informationen, die ein Schätzergebnis des Bewegungsvektors jedes Objekts angeben, an die Attributeinstellungseinheit 313.
  • In Schritt S7 stellt die Attributeinstellungseinheit 313 ein Attribut jedes Rasters der Belegungsrasterkarte auf der Grundlage des Detektionsergebnisses des Attributs jedes Objekts und des Schätzergebnisses des Bewegungsvektors jedes Objekts ein. Insbesondere für ein Raster, dessen Belegungszustand der Belegungsrasterkarte „vorhanden“ ist, stellt die Attributeinstellungseinheit 313 Folgendes als Attribute ein: ob ein Objekt in dem Raster ein stationäres Objekt oder ein mobiles Objekt ist, und eine Art, eine Geschwindigkeit und eine Fortbewegungsrichtung des Objekts. Es sei angemerkt, dass in einem Fall, in dem ein mobiles Objekt stillsteht, ein Attribut eines das mobile Objekt aufweisenden Rasters auf ein mobiles Objekt eingestellt wird. Die Attributeinstellungseinheit 313 liefert die Belegungsrasterkarte mit dem Attribut an die Korrektureinheit 314.
  • In Schritt S8 korrigiert die Korrektureinheit 314 die Belegungsrasterkarte auf der Grundlage des Attributs jedes Rasters.
  • Insbesondere führt die Korrektureinheit 314 die Erweiterungsverarbeitung auf der Grundlage des Attributs jedes Rasters aus. Beispielsweise stellt die Korrektureinheit 314 ein Erweiterungsausmaß und eine Erweiterungsrichtung auf der Grundlage eines Attributs eines Rasters an einer Grenze (einem Endabschnitt) des belegten Bereichs jedes Objekts auf der Belegungsrasterkarte ein.
  • Beispielsweise ist in einem Fall, in dem das Attribut des Rasters an der Grenze des belegten Bereichs ein mobiles Objekt ist, das Erweiterungsausmaß im Vergleich zu einem Fall eines stationären Objekts erhöht. Das heißt, der belegte Bereich des mobilen Objekts ist in größerem Ausmaß erweitert als der belegte Bereich des stationären Objekts.
  • Ferner ist beispielsweise in einem Fall, in dem das Attribut des Rasters an der Grenze des belegten Bereichs ein mobiles Objekt ist, das Erweiterungsausmaß in einer Richtung näher an einer Fortbewegungsrichtung erhöht. Das heißt, der belegte Bereich des mobilen Objekts ist für die Fortbewegungsrichtung in größerem Ausmaß erweitert.
  • Zudem ist beispielsweise in einem Fall, in dem das Attribut des Rasters an der Grenze des belegten Bereichs ein mobiles Objekt ist, das Erweiterungsausmaß erhöht, wenn eine Geschwindigkeit zunimmt. Das heißt, ein belegter Bereich eines mobilen Objekts mit einer höheren Geschwindigkeit ist in größerem Ausmaß erweitert.
  • Ferner ist beispielsweise in einem Fall, in dem das Attribut des Rasters an der Grenze des belegten Bereichs ein mobiles Objekt ist, in einem Fall eines mobilen Objekts, bei dem es schwierig ist, eine Richtung des mobilen Objekts zu ändern, das Erweiterungsausmaß in einer Richtung, die weiter von der Fortbewegungsrichtung entfernt ist, reduziert. Das heißt, in dem belegten Bereich des mobilen Objekts, dessen Richtung schwer zu ändern ist, nimmt das Erweiterungsausmaß mit Zunahme eines Abstands von der Fortbewegungsrichtung ab.
  • 9 veranschaulicht ein Beispiel eines Erweiterungsausmaßes und einer Erweiterungsrichtung für jede Art des mobilen Objekts. Hier werden Beispiele von Fällen veranschaulicht, in denen eine Verfolgung eines Objekts durchgeführt wird und eine Fortbewegungsrichtung des Objekts detektiert wurde und in denen keine Verfolgung eines Objekts durchgeführt wird und die Fortbewegungsrichtung des Objekts nicht detektiert wurde.
  • Beispielsweise wird in einem Fall, in dem die Fortbewegungsrichtung des Objekts detektiert wurde, das Erweiterungsausmaß in der Fortbewegungsrichtung für alle Objekte größer als üblich gemacht. Dagegen wird das Erweiterungsausmaß in einer von links nach rechts verlaufenden Richtung senkrecht zur Fortbewegungsrichtung nicht geändert, sondern wie üblich für einen Fußgänger, einen Büroroboter und eine Drohne, deren Richtung leicht geändert werden kann, beibehalten. Für ein Fahrrad, ein Motorrad, ein Automobil und einen Fabriktransportroboter, bei denen es schwierig ist, die Richtung zu ändern, wird das Erweiterungsausmaß in der von links nach rechts verlaufenden Richtung senkrecht zur Fortbewegungsrichtung kleiner als üblich gemacht. Hier ist das normale Erweiterungsausmaß beispielsweise ein Erweiterungsausmaß zum Zeitpunkt eines Stillstands.
  • Es sei angemerkt, dass ein Fall, in dem die Fortbewegungsrichtung des Objekts nicht detektiert wurde, später beschrieben wird.
  • Dann erweitert die Korrektureinheit 314 den belegten Bereich jedes Objekts auf der Belegungsrasterkarte auf der Grundlage des eingestellten Erweiterungsausmaßes und der eingestellten Erweiterungsrichtung. Als Ergebnis wird die Grenze des belegten Bereichs jedes Objekts auf der Grundlage des eingestellten Erweiterungsausmaßes und der eingestellten Erweiterungsrichtung auf ein benachbartes Raster erweitert.
  • Ferner stellt die Korrektureinheit 314 ein Attribut eines erweiterten Rasters, das heißt eines Rasters, dessen Belegungszustand durch die Erweiterungsverarbeitung auf „vorhanden“ korrigiert wurde, auf den gleichen Wert wie das Attribut des Rasters an der Grenze des belegten Bereichs vor der Erweiterung ein.
  • Zudem passt in einem Fall, in dem sich ein mobiles Objekt und ein stationäres Objekt einander durch die Erweiterungsverarbeitung überschneiden, die Korrektureinheit 314 ein Attribut eines Rasters des Überschneidungsabschnitts an das Attribut des stationären Objekts an.
  • Als Nächstes stellt die Korrektureinheit 314 einen Änderungskoeffizienten jedes Rasters der Belegungsrasterkarte nach der Erweiterungsverarbeitung ein. Der Änderungskoeffizient ist ein Koeffizient, der den Betrag und eine Richtung angibt, in der die Vorhandenseinswahrscheinlichkeit jedes Rasters geändert wird.
  • Falls der Änderungskoeffizient ein positiver Wert ist, nimmt die Vorhandenseinswahrscheinlichkeit allmählich mit einer Erhöhungsrate gemäß dem Änderungskoeffizienten zu. Mit Erhöhung des Änderungskoeffizienten nimmt ferner eine Erhöhungsrate der Vorhandenseinswahrscheinlichkeit zu, nimmt eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit zunimmt (im Folgenden als Allmähliche-Erhöhung-Geschwindigkeit bezeichnet), zu und wird eine Allmähliche-Erhöhung-Zeit der Vorhandenseinswahrscheinlichkeit verkürzt.
  • Falls der Änderungskoeffizient jedoch ein negativer Wert ist, nimmt die Vorhandenseinswahrscheinlichkeit allmählich mit einer Verringerungsrate gemäß dem Änderungskoeffizienten ab. Ferner nimmt mit Abnahme des Änderungskoeffizienten (mit Zunahme eines Absolutwerts des Änderungskoeffizienten) eine Verringerungsrate der Vorhandenseinswahrscheinlichkeit zu, nimmt eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit abnimmt (im Folgenden als eine Allmähliche-Verringerung-Geschwindigkeit bezeichnet), zu und wird eine Allmähliche-Verringerung-Zeit der Vorhandenseinswahrscheinlichkeit verkürzt.
  • Zuerst wird ein Beispiel eines Verfahrens zum Einstellen eines Änderungskoeffizienten für ein Raster, dessen Belegungszustand „nicht vorhanden“ ist, beschrieben.
  • In einem Fall, in dem der Belegungszustand des Rasters „nicht vorhanden“ ist, wird der Änderungskoeffizient auf einen negativen Wert eingestellt. Das heißt, der Änderungskoeffizient wird in einer Richtung eingestellt, in der die Vorhandenseinswahrscheinlichkeit verringert ist.
  • Ferner wird beispielsweise ein Wert des Änderungskoeffizienten auf der Grundlage eines Belegungszustands und eines Attributs eines Rasters einen Zyklus zuvor angepasst. Beispielsweise wird in einem Fall, in dem der Belegungszustand des Rasters einen Zyklus zuvor „vorhanden“ ist, wenn das Attribut des Rasters einen Zyklus zuvor ein bewegliches Objekt ist, ein Absolutwert des Änderungskoeffizienten gegenüber dem, wenn das Attribut des Rasters einen Zyklus zuvor ein stationäres Objekt ist, erhöht. Als Ergebnis wird ein Belegungszustand eines Rasters in einem Bereich, in dem ein mobiles Objekt nicht mehr vorhanden ist, wenn sich das mobile Objekt bewegt, schneller widergespiegelt. Des Weiteren wird verhindert, dass ein Belegungszustand eines Rasters in einem Bereich, in dem ein stationäres Objekt vorhanden ist, aufgrund von Rauschen oder dergleichen fälschlicherweise als „nicht vorhanden“ detektiert wird.
  • Des Weiteren wird beispielsweise ein Wert des Änderungskoeffizienten auf der Grundlage der Zuverlässigkeit (einer Objekterkennung) des LiDAR 53 angepasst, das eine zum Erstellen der Belegungsrasterkarte verwendete Erfassungsvorrichtung ist. Beispielsweise wird der Absolutwert des Änderungskoeffizienten erhöht, wenn die Zuverlässigkeit des LiDAR 53 höher ist, während der Absolutwert des Änderungskoeffizienten verringert wird, wenn die Zuverlässigkeit des LiDAR 53 geringer ist. Diese Konfiguration verhindert, dass ein Detektionsversäumnis eines Objekts in der Belegungsrasterkarte widergespiegelt wird, beispielsweise in einem Fall, in dem die Zuverlässigkeit des LiDAR 53 gering ist.
  • Dagegen wird beispielsweise in einem Fall, in dem der Belegungszustand des Rasters einen Zyklus zuvor „nicht vorhanden“ oder „unbekannt“ ist, ein Wert des Änderungskoeffizienten nicht geändert. Das heißt, der Änderungskoeffizient einen Zyklus zuvor wird unverändert verwendet.
  • Als Nächstes wird ein Beispiel eines Verfahrens zum Einstellen eines Änderungskoeffizienten für ein Raster, dessen Belegungszustand „vorhanden“ ist, beschrieben.
  • In einem Fall, in dem der Rasterbelegungszustand „vorhanden“ ist, wird der Änderungskoeffizient auf einen positiven Wert eingestellt. Das heißt, der Änderungskoeffizient wird in einer Richtung eingestellt, in der die Vorhandenseinswahrscheinlichkeit erhöht ist. Des Weiteren wird ein Absolutwert des Änderungskoeffizienten im Vergleich zu einem Fall, in dem der Rasterbelegungszustand „nicht vorhanden“ ist, erhöht. Als Ergebnis wird in jedem Raster der Belegungszustand in einem Fall, in dem sich das Objekt nähert, schneller widergespiegelt als in einem Fall, in dem sich das Objekt entfernt.
  • Zudem wird beispielsweise ein Wert des Änderungskoeffizienten auf der Grundlage eines Attributs des Rasters angepasst. Ist beispielsweise das Attribut des Rasters ein mobiles Objekt, so wird ein Wert des Änderungskoeffizienten im Vergleich zu einem Fall eines stationären Objekts erhöht. Als Ergebnis wird ein Belegungszustand eines Rasters in einem Bereich, in dem ein mobiles Objekt vorhanden ist, wenn sich das mobile Objekt bewegt, schneller widergespiegelt.
  • Ferner wird beispielsweise ähnlich wie in dem Fall, in dem der Rasterbelegungszustand „nicht vorhanden“ ist, der Wert des Änderungskoeffizienten auf der Grundlage der Zuverlässigkeit des LiDAR 53 angepasst. Beispielsweise wird der Wert des Änderungskoeffizienten erhöht, wenn die Zuverlässigkeit des LiDAR 53 höher ist, während der Wert des Änderungskoeffizienten verringert wird, wenn die Zuverlässigkeit des LiDAR 53 geringer ist. Diese Konfiguration verhindert, dass ein fälschlicherweise detektiertes Objekt in der Belegungsrasterkarte widergespiegelt wird, beispielsweise in einem Fall, in dem die Zuverlässigkeit des LiDAR 53 gering ist.
  • Als Nächstes wird ein Beispiel eines Verfahrens zum Einstellen eines Änderungskoeffizienten für ein Raster, dessen Belegungszustand „unbekannt“ ist, beschrieben.
  • In einem Fall, in dem der Rasterbelegungszustand „unbekannt“ ist, wird der Änderungskoeffizient auf einen negativen Wert eingestellt. Das heißt, der Änderungskoeffizient wird in einer Richtung eingestellt, in der die Vorhandenseinswahrscheinlichkeit verringert ist.
  • Ferner wird ein Wert des Änderungskoeffizienten auf der Grundlage eines Belegungszustands und eines Attributs eines Rasters einen Zyklus zuvor angepasst. Beispielsweise wird in einem Fall, in dem der Belegungszustand des Rasters einen Zyklus zuvor „vorhanden“ ist, wenn das Attribut des Rasters einen Zyklus zuvor ein bewegliches Objekt ist, ein Absolutwert des Änderungskoeffizienten gegenüber dem, wenn das Attribut des Rasters einen Zyklus zuvor ein stationäres Objekt ist, erhöht. Ferner wird der Absolutwert des Änderungskoeffizienten kleiner gemacht als in einem Fall, in dem der Belegungszustand des aktuellen Rasters „nicht vorhanden“ ist. Das heißt, in einem Fall, in dem der Belegungszustand „unbekannt“ ist, ist nicht klar, ob ein Objekt tatsächlich vorhanden ist oder nicht, sodass eine Verringerung der Vorhandenseinswahrscheinlichkeit unterdrückt wird.
  • Es sei angemerkt, dass ähnlich wie in dem Fall, in dem der Belegungszustand des Rasters „nicht vorhanden“ ist, ein Wert des Änderungskoeffizienten auf der Grundlage der Zuverlässigkeit des LiDAR 53 angepasst oder nicht angepasst werden kann.
  • Ferner wird beispielsweise in einem Fall, in dem der Belegungszustand des Rasters einen Zyklus zuvor „nicht vorhanden“ oder „unbekannt“ ist, ein Wert des Änderungskoeffizienten nicht geändert. Das heißt, der Änderungskoeffizient einen Zyklus zuvor wird unverändert verwendet.
  • Als Nächstes berechnet die Korrektureinheit 314 eine Vorhandenseinswahrscheinlichkeit jedes Rasters auf der Grundlage des eingestellten Änderungskoeffizienten. Die Vorhandenseinswahrscheinlichkeit nimmt zu, wenn der Änderungskoeffizient positiv ist, und ein Erhöhungsbetrag der Vorhandenseinswahrscheinlichkeit nimmt mit Erhöhung des Änderungskoeffizienten zu. Übersteigt die Vorhandenseinswahrscheinlichkeit jedoch 1, so wird die Vorhandenseinswahrscheinlichkeit auf 1 korrigiert. Dagegen nimmt die Vorhandenseinswahrscheinlichkeit ab, wenn der Änderungskoeffizient negativ ist, und ein Verringerungsbetrag der Vorhandenseinswahrscheinlichkeit nimmt mit Erhöhung eines Absolutwerts des Änderungskoeffizienten zu. Beträgt die Vorhandenseinswahrscheinlichkeit jedoch weniger als 0, so wird die Vorhandenseinswahrscheinlichkeit auf 0 korrigiert.
  • 10 und 11 sind Graphen, die ein Beispiel eines Übergangs einer Vorhandenseinswahrscheinlichkeit eines gewissen Rasters auf der Belegungsrasterkarte veranschaulichen. Eine horizontale Achse des Graphen stellt die Zeit dar und eine vertikale Achse stellt eine Vorhandenseinswahrscheinlichkeit dar.
  • 10 veranschaulicht ein Beispiel in einem Fall, in dem die Zuverlässigkeit des LiDAR 53 hoch ist.
  • Zum Zeitpunkt t1, wenn sich der Belegungszustand von „nicht vorhanden“ zu „vorhanden“ ändert, nimmt die Vorhandenseinswahrscheinlichkeit allmählich zu, ohne sofortige Änderung von 0 auf 1. Dann, zum Zeitpunkt t2, hat die Vorhandenseinswahrscheinlichkeit 1 erreicht.
  • Zum Zeitpunkt t3, wenn sich der Belegungszustand von „vorhanden“ auf „nicht vorhanden“ ändert, nimmt die Vorhandenseinswahrscheinlichkeit allmählich ab, ohne sofortige Änderung von 1 auf 0. Dann, zum Zeitpunkt t4, hat die Vorhandenseinswahrscheinlichkeit 0 erreicht.
  • Hier ist die Zeit vom Zeitpunkt t3 bis zum Zeitpunkt t4 länger als die Zeit vom Zeitpunkt t1 bis zum Zeitpunkt t2. Das heißt, in einem Raster der Belegungsrasterkarte wird das Verschwinden des Objekts später widergespiegelt als das Erscheinen des Objekts.
  • Zum Zeitpunkt t5, wenn sich der Belegungszustand von „nicht vorhanden“ zu „vorhanden“ ändert, nimmt die Vorhandenseinswahrscheinlichkeit allmählich zu, ohne sofortige Änderung von 0 auf 1. Hier ist eine Erhöhungsrate der Vorhandenseinswahrscheinlichkeit im Wesentlichen gleich einer Erhöhungsrate in einem Zeitraum vom Zeitpunkt t1 bis zum Zeitpunkt t2. Dann, zum Zeitpunkt t6, hat die Vorhandenseinswahrscheinlichkeit 1 erreicht.
  • Zum Zeitpunkt t7 nimmt die Vorhandenseinswahrscheinlichkeit allmählich ab, wenn sich der Belegungszustand von „vorhanden“ zu „unbekannt“ ändert. Hier wird eine Verringerungsrate der Vorhandenseinswahrscheinlichkeit kleiner gemacht als eine Verringerungsrate in einem Zeitraum vom Zeitpunkt t3 bis zum Zeitpunkt t4. Das heißt, da unklar ist, ob ein Objekt vorhanden ist oder nicht, wird ein Widerspiegeln des Verschwindens des Objekts in dem Raster der Belegungsrasterkarte verzögert.
  • 11 dagegen veranschaulicht ein Beispiel in einem Fall, in dem die Zuverlässigkeit des LiDAR 53 gering ist.
  • Zum Zeitpunkt t11, wenn sich der Belegungszustand von „nicht vorhanden“ zu „vorhanden“ ändert, nimmt die Vorhandenseinswahrscheinlichkeit allmählich zu, ohne sofortige Änderung von 0 auf 1. Da die Zuverlässigkeit des LiDAR 53 gering ist, wird hier eine Erhöhungsrate der Vorhandenseinswahrscheinlichkeit kleiner gemacht als in dem Zeitraum vom Zeitpunkt t1 bis zum Zeitpunkt t2 in 10.
  • Dann, bevor die Vorhandenseinswahrscheinlichkeit 1 erreicht, ändert sich der Belegungszustand zum Zeitpunkt t12 von „vorhanden“ zu „nicht vorhanden“. Daher kann es in einem Zeitraum vom Zeitpunkt t11 bis zum Zeitpunkt t12 abhängig von einem Wert eines Schwellenwerts einen Fall geben, in dem der Belegungszustand „nicht vorhanden“ bleibt, ohne dass am Ende bestimmt wird, dass er „vorhanden“ ist.
  • Danach nimmt die Vorhandenseinswahrscheinlichkeit allmählich ab und erreicht zum Zeitpunkt t13 0.
  • Da die Zuverlässigkeit des LiDAR 53 gering ist, ist hier eine Verringerungsrate der Vorhandenseinswahrscheinlichkeit kleiner als diejenige in dem Zeitraum vom Zeitpunkt t3 bis zum Zeitpunkt t4 in 10, und ein Zeitraum vom Zeitpunkt t12 bis zum Zeitpunkt t13 ist länger als der Zeitraum vom Zeitpunkt t3 bis zum Zeitpunkt t4.
  • Zum Zeitpunkt t14, wenn sich der Belegungszustand von „nicht vorhanden“ zu „vorhanden“ ändert, nimmt die Vorhandenseinswahrscheinlichkeit allmählich zu, ohne sofortige Änderung von 0 auf 1. Hier ist eine Erhöhungsrate der Vorhandenseinswahrscheinlichkeit im Wesentlichen gleich einer Erhöhungsrate in einem Zeitraum vom Zeitpunkt t11 bis zum Zeitpunkt t12. Dann, zum Zeitpunkt t15, hat die Vorhandenseinswahrscheinlichkeit 1 erreicht.
  • Zum Zeitpunkt t16 nimmt die Vorhandenseinswahrscheinlichkeit allmählich ab, wenn sich der Belegungszustand von „vorhanden“ zu „unbekannt“ ändert. Hier ist eine Verringerungsrate der Vorhandenseinswahrscheinlichkeit im Wesentlichen gleich derjenigen in einem Zeitraum nach dem Zeitpunkt t7 in 10.
  • Dann korrigiert die Korrektureinheit 314 den Belegungszustand jedes Rasters auf der Grundlage der Vorhandenseinswahrscheinlichkeit jedes Rasters. Zum Beispiel korrigiert die Korrektureinheit 314 unter Rastern, deren Belegungszustand „vorhanden“ ist, einen Belegungszustand eines Rasters, dessen Vorhandenseinswahrscheinlichkeit geringer als ein vorbestimmter Schwellenwert ist, zu „nicht vorhanden“. Beispielsweise korrigiert die Korrektureinheit 314 unter Rastern, deren Belegungszustand „nicht vorhanden“ ist, einen Belegungszustand eines Rasters, dessen Vorhandenseinswahrscheinlichkeit gleich oder größer als ein vorbestimmter Schwellenwert ist, auf „vorhanden“. Der Belegungszustand des Rasters, dessen Belegungszustand „unbekannt“ ist, bleibt unverändert.
  • 12 veranschaulicht schematisch ein Beispiel der Belegungsrasterkarte.
  • In diesem Beispiel fährt das Fahrzeug 1 zwischen einer Wand 403 und einer Wand 404 hinter einer Person 401 und einem Fahrzeug 402. Die Person 401 bewegt sich in einer diagonal nach links verlaufenden Vorwärtsrichtung, wie durch den Pfeil A101 angegeben. Das Fahrzeug 402 fährt vorwärts, wie durch den Pfeil A102 angegeben.
  • In diesem Fall erweitert sich, wie in 13 veranschaulicht, ein belegter Bereich 411 für die Person 401 in der Fortbewegungsrichtung der Person 401. Des Weiteren verschwindet der belegte Bereich 411 allmählich, ohne sich zu erweitern, in einer der Fortbewegungsrichtung der Person 401 entgegengesetzten Richtung. Zudem ist der belegte Bereich 411 in einer von links nach rechts verlaufenden Richtung senkrecht zu der Fortbewegungsrichtung schmaler als in einer von vorne nach hinten verlaufenden Richtung.
  • Als Ergebnis wird verhindert, dass das Fahrzeug 1 in einen Bereich fährt, in dem sich die Person 401 fortbewegt, und die Sicherheit der Person 401 ist gewährleistet. Des Weiteren kann das Fahrzeug 1 in einen Bereich fahren, nachdem die Person 401 vorbeigegangen ist, und die Anzahl von Optionen des Pfads des Fahrzeugs 1 nimmt zu.
  • Des Weiteren erweitert sich, wie in 14 veranschaulicht, ein belegter Bereich 412 für das Fahrzeug 402 in Fahrtrichtung des Fahrzeugs 402. Des Weiteren verschwindet der belegte Bereich 412 allmählich, ohne sich zu erweitern, in einer der Fahrtrichtung des Fahrzeugs 402 entgegengesetzten Richtung. Zudem ist der belegte Bereich 412 in einer von links nach rechts verlaufenden Richtung senkrecht zu der Fahrtrichtung schmaler als in einer von vorne nach hinten verlaufenden Richtung.
  • Als Ergebnis wird verhindert, dass das Fahrzeug 1 in einen Bereich fährt, in dem das Fahrzeug 402 fährt, und die Sicherheit des Fahrzeugs 402 ist gewährleistet. Des Weiteren kann das Fahrzeug 1 in einen Bereich fahren, nachdem das Fahrzeug 402 vorbeigefahren ist, und die Anzahl von Optionen des Pfads des Fahrzeugs 1 nimmt zu.
  • Zudem ist die Wand 403 von belegten Bereichen 413 bis 417 umgeben, und es wird verhindert, dass das Fahrzeug 1 mit der Wand 403 kollidiert. Gleichermaßen ist die Wand 404 von belegten Bereichen 418 bis 422 umgeben, und es wird verhindert, dass das Fahrzeug 1 mit der Wand 404 kollidiert.
  • Da die Wand 403 ein stationäres Objekt ist, werden ferner die belegten Bereiche 413 bis 417 nicht in großem Ausmaß erweitert und weisen im Wesentlichen die gleiche Größe wie die Wand 403 auf. Somit wird verhindert, dass die belegten Bereiche 413 bis 417 einen Pfad des Fahrzeugs 1 blockieren. Gleichermaßen werden, da die Wand 404 ein stationäres Objekt ist, die belegten Bereiche 418 bis 422 nicht in großem Ausmaß erweitert und weisen im Wesentlichen die gleiche Größe wie die Wand 404 auf. Daher wird verhindert, dass die belegten Bereiche 418 bis 422 einen Pfad des Fahrzeugs 1 blockieren.
  • Da die belegten Bereiche 413 bis 417 belegte Bereiche für die Wand 403 sind, die ein stationäres Objekt ist, ist zudem ein Absolutwert des Änderungskoeffizienten jedes Rasters klein eingestellt. Somit wird beispielsweise verhindert, dass die belegten Bereiche 413 bis 417 verschwinden, selbst wenn ein Bereich mit einem kleinen Reflexionsgrad in der Wand 403 vorhanden ist oder Rauschen in einer Punktwolke auftritt. Somit wird verhindert, dass das Fahrzeug 1 mit der Wand 403 kollidiert. Gleichermaßen ist, da die belegten Bereiche 418 bis 422 belegte Bereiche für die Wand 404 sind, die ein stationäres Objekt ist, ein Absolutwert des Änderungskoeffizienten jedes Rasters klein eingestellt. Somit wird beispielsweise verhindert, dass die belegten Bereiche 418 bis 422 verschwinden, selbst wenn ein Bereich mit einem kleinen Reflexionsgrad in der Wand 404 vorhanden ist oder Rauschen in einer Punktwolke auftritt. Somit wird verhindert, dass das Fahrzeug 1 mit der Wand 404 kollidiert.
  • Die Korrektureinheit 314 liefert die korrigierte Belegungsrasterkarte beispielsweise an die Handlungsplanungseinheit 62 oder dergleichen.
  • Die Handlungsplanungseinheit 62 verwendet ein beliebiges Pfadplanungsverfahren, wie etwa A*, um die Planung des Pfads derart durchzuführen, dass er durch einen Bereich verläuft, in dem ein Objekt in der Belegungsrasterkarte nicht vorhanden ist.
  • Die Betriebssteuereinheit 63 steuert das Fahrzeug 1 so, dass es den durch die Handlungsplanungseinheit 62 geplanten Pfad durchfährt.
  • Danach kehrt die Verarbeitung zu Schritt S1 zurück, und die Verarbeitung der Schritte S1 bis S8 wird wiederholt ausgeführt.
  • Da, wie oben beschrieben, die Erweiterungsverarbeitung und die Einstellverarbeitung der Vorhandenseinswahrscheinlichkeit auf der Grundlage eines Attributs jedes Rasters der Belegungsrasterkarte durchgeführt werden, wird der belegte Bereich für jedes Objekt geeignet eingestellt. Als Ergebnis wird ein Pfad des Fahrzeugs 1 geeignet eingestellt. Das heißt, es wird ein kürzerer Pfad eingestellt, indem ein unnötiger Umweg vermieden wird und gleichzeitig eine Kollision oder ein Kontakt mit einem Hindernis vermieden wird und die Sicherheit gewährleistet wird.
  • «4. Modifikation»
  • Im Folgenden wird eine Modifikation der oben beschriebenen Ausführungsform der vorliegenden Technologie beschrieben.
  • <Modifikation bezüglich des Korrekturverfahrens der Belegungsrasterkarte>
  • 15 veranschaulicht eine Modifikation der Informationsverarbeitungseinheit. Es sei angemerkt, dass Teile, die denen der Informationsverarbeitungseinheit 301 in 7 entsprechen, mit den gleichen Bezugszeichen bezeichnet sind und eine Beschreibung davon gegebenenfalls weggelassen wird.
  • Eine Informationsverarbeitungseinheit 501 in 15 ist darin identisch mit der Informationsverarbeitungseinheit 301, dass eine Kartenerstellungseinheit 312 enthalten ist. Ferner unterscheidet sich die Informationsverarbeitungseinheit 501 von der Informationsverarbeitungseinheit 301 darin, dass eine Attributdetektionseinheit 511, eine Attributeinstellungseinheit 512 und eine Korrektureinheit 513 anstelle der Attributdetektionseinheit 311, der Attributeinstellungseinheit 313 und der Korrektureinheit 314 enthalten sind. Die Attributdetektionseinheit 511 weist nur eine Klassifikationseinheit 321 auf.
  • Wie oben beschrieben, erkennt die Klassifikationseinheit 321 eine Art eines Objekts für jedes Pixel von Bilddaten und liefert ein Erkennungsergebnis der Art des Objekts an die Attributeinstellungseinheit 512.
  • Die Attributeinstellungseinheit 512 wandelt eine Punktwolke oder einen Tiefenpunkt in dreidimensionalen Koordinaten in Bildkoordinaten um und stellt ein Attribut ein. Dann stellt die Attributeinstellungseinheit 512 als ein Attribut eines Rasters, dessen Belegungszustand einer Belegungsrasterkarte „vorhanden“ ist, Folgendes ein: ob das Objekt, zu dem das Raster gehört, ein stationäres Objekt oder ein mobiles Objekt ist, und eine Art des Objekts. Die Attributeinstellungseinheit 512 liefert die Belegungsrasterkarte mit dem Attribut an die Korrektureinheit 513.
  • Dann führt die Korrektureinheit 513 die Erweiterungsverarbeitung der Belegungsrasterkarte und die Einstellungsverarbeitung der Vorhandenseinswahrscheinlichkeit auf der Grundlage eines Attributs jedes Rasters durch. Das heißt, die Korrektureinheit 513 führt die Erweiterungsverarbeitung der Belegungsrasterkarte und die Einstellungsverarbeitung der Vorhandenseinswahrscheinlichkeit durch, ohne einen Bewegungsvektor (eine Fortbewegungsrichtung und eine Geschwindigkeit) des Objekts zu verwenden.
  • Außerdem wird in diesem Fall ein belegter Bereich jedes Objekts geeigneter eingestellt als in einem Fall, in dem die Erweiterungsverarbeitung und die Einstellungsverarbeitung der Vorhandenseinswahrscheinlichkeit an allen Objekten ähnlich durchgeführt werden.
  • Beispielsweise wird, wie in der oben beschriebenen 9 veranschaulicht, in einem Fall, in dem eine Fortbewegungsrichtung des Objekts nicht detektiert wurde, das Erweiterungsausmaß für die gesamte Peripherie für einen Fußgänger und eine Drohne, deren Richtung leicht geändert werden kann, ähnlich eingestellt. Des Weiteren wird für ein Fahrrad, ein Motorrad, ein Automobil und einen Fabriktransportroboter, bei denen es schwierig ist, eine Richtung zu ändern, das Erweiterungsausmaß für die Vorderseite, in deren Richtung sich das Objekt wahrscheinlich fortbewegt, beispielsweise in einem Fall, in dem eine Richtung eines Objekts detektiert werden kann, vergrößert. Dagegen wird in einem Fall, in dem die Richtung des Objekts nicht detektiert werden kann, das Erweiterungsausmaß für die gesamte Peripherie ähnlich eingestellt.
  • Es sei angemerkt, dass, da es unwahrscheinlich ist, dass ein Büroroboter, der leicht eine Richtung ändern kann, plötzlich die Richtung ändert, das Erweiterungsausmaß ähnlich wie bei einem Fahrrad, einem Motorrad, einem Automobil und einem Fabriktransportroboter eingestellt wird, bei denen es schwierig ist, die Richtung zu ändern.
  • Es sei ferner angemerkt, dass die Art des Objekts nur in ein mobiles Objekt oder ein stationäres Objekt klassifiziert werden kann, und nur, ob ein mobiles Objekt oder ein stationäres Objekt als Attribut jedes Rasters eingestellt werden kann. Außerdem wird in diesem Fall ein belegter Bereich jedes Objekts geeigneter eingestellt als in einem Fall, in dem die Erweiterungsverarbeitung und die Einstellungsverarbeitung der Vorhandenseinswahrscheinlichkeit an allen Objekten ähnlich durchgeführt werden.
  • Des Weiteren können beispielsweise eine Erweiterungsrichtung und ein Erweiterungsausmaß auf der Grundlage nur einer Fortbewegungsrichtung eingestellt werden, ohne eine Geschwindigkeit des mobilen Objekts zu verwenden.
  • Zudem können beispielsweise die Erweiterungsverarbeitung und die Einstellungsverarbeitung der Vorhandenseinswahrscheinlichkeit an einem stillstehenden mobilen Objekt durchgeführt werden, indem ein Erweiterungsausmaß und ein Änderungskoeffizient ähnlich denen eines stationären Objekts oder ein Erweiterungsausmaß und ein Änderungskoeffizient nahe denen eines stationären Objekts verwendet werden.
  • In diesem Fall kann beispielsweise ein Schwellwert einer Geschwindigkeit, der zum Bestimmen verwendet wird, ob das Objekt stillsteht oder nicht, für jede Art von Objekt auf einen anderen Wert eingestellt werden. Beispielsweise kann auf der Grundlage von Schwellenwerten unterschiedlicher Geschwindigkeiten bestimmt werden, ob ein Fahrzeug und ein Fußgänger stillstehen oder nicht.
  • Ferner kann beispielsweise auf der Grundlage eines Zustands des Objekts eine Bestimmung erfolgen, ob das Objekt stillsteht oder nicht. Beispielsweise kann ein Fahrrad, auf dem keine Person sitzt, als stationäres Objekt bestimmt werden. Es ist wahrscheinlich, dass sich ein stillstehendes Fahrrad, auf dem jedoch eine Person sitzt, bewegt, und es kann daher als mobiles Objekt oder als Objekt nahe einem stationären Objekt (im Folgenden als quasi-stationäres Objekt bezeichnet) bestimmt werden. Beispielsweise kann ein Fahrzeug, in dem kein Fahrer sitzt, als stationäres Objekt bestimmt werden, und ein Fahrzeug, in dem ein Fahrer sitzt, kann als mobiles Objekt oder quasi-stationäres Objekt bestimmt werden.
  • Ferner kann in einem Fall, in dem ein Fahrzeug stillsteht oder langsam fährt, eine Tür geöffnet werden. Daher kann beispielsweise in einem Fall, in dem eine Geschwindigkeit des Fahrzeugs geringer als ein vorbestimmter Schwellenwert ist, ein Erweiterungsausmaß eines belegten Bereichs in einer von links nach rechts verlaufenden Richtung in Bezug auf das Fahrzeug erhöht sein.
  • Beispielsweise kann, wie in 16 veranschaulicht, in einem Fall, in dem eine Geschwindigkeit eines Fahrzeugs 551 in einer Richtung des Pfeils A103 (einer Vorwärtsrichtung) geringer als ein vorbestimmter Schwellenwert ist, ein Erweiterungsausmaß eines belegten Bereichs 552 in einer von links nach rechts verlaufenden Richtung erhöht sein. Als Ergebnis stellt das Fahrzeug 1 beispielsweise einen Pfad ein, der eine Kollision oder einen Kontakt mit dem Fahrzeug 551 selbst dann vermeiden kann, wenn eine Tür des Fahrzeugs 551 geöffnet ist.
  • Ferner können beispielsweise eine Allmähliche-Erhöhung-Geschwindigkeit und eine Allmähliche-Verringerung-Geschwindigkeit einer Vorhandenseinswahrscheinlichkeit eines Rasters, in dem ein mobiles Objekt vorhanden ist, dessen Sicherheit selbst bei einer Kollision gewährleistet ist, auf das Maximum eingestellt werden. Als Ergebnis werden das Erscheinen und das Verschwinden des beweglichen Objekts in jedem Raster schnell widergespiegelt.
  • Zudem kann beispielsweise ein Änderungskoeffizient für ein mobiles Objekt auf der Grundlage einer Geschwindigkeit des Fahrzeugs 1 angepasst werden. Beispielsweise können in einem Fall, in dem das Fahrzeug 1 mit einer hohen Geschwindigkeit, die gleich oder höher als eine vorbestimmte Geschwindigkeit ist, auf einem Highway oder dergleichen fährt, eine Allmähliche-Erhöhung-Geschwindigkeit und eine Allmähliche-Verringerung-Geschwindigkeit einer Vorhandenseinswahrscheinlichkeit eines Rasters, in dem ein mobiles Objekt vorhanden ist, auf das Maximum eingestellt werden. Als Ergebnis werden das Erscheinen und Verschwinden eines mobilen Objekts in jedem Raster schnell widergespiegelt.
  • Des Weiteren kann beispielsweise eine Vorhandenseinswahrscheinlichkeit eines Rasters, dessen Belegungszustand sich von „vorhanden“ zu „nicht vorhanden“ geändert hat, sofort auf 0 eingestellt werden, und nur eine Vorhandenseinswahrscheinlichkeit eines Rasters, dessen Belegungszustand sich von „vorhanden“ auf „unbekannt“ geändert hat, kann allmählich verringert werden.
  • Zudem wurde in der obigen Beschreibung ein Beispiel beschrieben, in dem sich ein Objekt in einer horizontalen Richtung bewegt. Jedoch wird selbst in einem Fall, in dem sich das Objekt in einer anderen Richtung als der horizontalen Richtung (beispielsweise in einer vertikalen Richtung) bewegt, die Erweiterungsverarbeitung auf der Grundlage der Bewegungsrichtung des Objekts ähnlich dem oben beschriebenen Beispiel durchgeführt.
  • <Modifikation bezüglich des Korrekturverfahrens der Belegungsrasterkarte>
  • Beispielsweise kann ein anderes Verfahren als die oben beschriebene Instanzsegmentierung zur Erkennungsverarbeitung einer Art eines Objekts verwendet werden. Beispielsweise ist es möglich, ein Verfahren wie semantische Segmentierung, You Only Look Once (YOLO) oder Single Shot Multibox Detector (SSD) zu verwenden.
  • Es sei angemerkt, dass beispielsweise ein mobiles Objekt unter Verwendung eines optischen Flusses detektiert werden kann, wobei in diesem Fall jedoch ein stillstehendes mobiles Objekt nicht detektiert werden kann.
  • Des Weiteren kann eine Punktwolke unter Verwendung eines anderen Sensors als des LiDAR erstellt werden. Beispielsweise kann eine Punktwolke durch ein Radar, eine Tiefenkamera (beispielsweise eine Stereokamera oder eine ToF-Kamera) oder dergleichen erstellt werden. Des Weiteren kann eine Punktwolke auf der Grundlage mehrerer Bilddatenelemente erstellt werden, die durch eine Monokularkamera in verschiedenen Ausrichtungen aufgenommen wurden.
  • Zudem kann die Belegungsrasterkarte beispielsweise auf der Grundlage eines anderen dreidimensionalen Modells als der Punktwolke erstellt werden.
  • Des Weiteren kann beispielsweise eine Bewegungsschätzung eines Objekts auf der Grundlage von Bilddaten durchgeführt werden.
  • Zudem kann die vorliegende Technologie auch auf eine zweidimensionale Belegungsrasterkarte angewendet werden. In diesem Fall wird beispielsweise ein Erkennungsergebnis eines Objekts aus Bilddaten in eine zweidimensionale Vogelperspektive projektionsumgewandelt und mit jedem Objekt assoziiert.
  • Ferner kann beispielsweise ein oberer Grenzwert einer Bewegungsgeschwindigkeit eines Objekts auf der Grundlage einer Art des Objekts bereitgestellt werden. Als Ergebnis lässt sich eine fehlerhafte Detektion der Bewegungsgeschwindigkeit verhindern.
  • Zudem kann beispielsweise ein Sensor wie die Kamera 51 die Erkennungsverarbeitung einer Art eines Objekts durchführen und ein Erkennungsergebnis der Art des Objekts an die Informationsverarbeitungseinheit 301 oder die Informationsverarbeitungseinheit 501 liefern.
  • Ferner kann die vorliegende Technologie auch auf einen Fall angewendet werden, in dem eine Belegungsrasterkarte in einer anderen mobilen Vorrichtung als einem Fahrzeug erstellt wird, beispielsweise einer Drohne, einem Roboter oder dergleichen.
  • «5. Weiteres»
  • <Computerkonfigurationsbeispiel>
  • Die oben beschriebene Reihe von Prozessen kann durch Hardware oder auch durch Software ausgeführt werden. Wird die Reihe von Prozessen durch Software durchgeführt, so wird ein Programm, das die Software konfiguriert, auf einem Computer installiert. Hier gehören zu Beispielen des Computers zum Beispiel ein Computer, der in dedizierte Hardware eingebaut ist, ein Mehrzweck-Personal-Computer, der verschiedene Funktionen durchführen kann, indem verschiedene Programmen auf ihm installiert werden, und dergleichen.
  • 17 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Hardware eines Computers veranschaulicht, der die Reihe von oben beschriebenen Prozessen gemäß einem Programm ausführt.
  • In einem Computer 1000 sind eine zentrale Verarbeitungseinheit (CPU: Central Processing Unit) 1001, ein Nurlesespeicher (ROM: Read Only Memory) 1002 und ein Direktzugriffsspeicher (RAM: Random Access Memory) 1003 durch einen Bus 1004 miteinander verbunden.
  • Der Bus 1004 ist ferner mit einer Eingabe/Ausgabe-Schnittstelle 1005 verbunden. Mit der Eingabe/Ausgabe-Schnittstelle 1005 sind eine Eingabeeinheit 1006, eine Ausgabeeinheit 1007, eine Aufzeichnungseinheit 1008, eine Kommunikationseinheit 1009 und ein Laufwerk 1010 verbunden.
  • Die Eingabeeinheit 1006 weist einen Eingabeschalter, eine Taste, ein Mikrofon, einen Bildsensor und dergleichen auf. Die Ausgabeeinheit 1007 weist eine Anzeige, einen Lautsprecher und dergleichen auf. Die Aufzeichnungseinheit 1008 weist eine Festplatte, einen nichtflüchtigen Speicher und dergleichen auf. Die Kommunikationseinheit 1009 weist eine Netzwerkschnittstelle oder dergleichen auf. Das Laufwerk 1010 treibt ein entfernbares Medium 1011 an, wie etwa eine magnetische Platte, eine optische Platte, eine magnetooptische Platte oder einen Halbleiterspeicher.
  • In dem wie oben beschrieben ausgebildeten Computer 1000 wird die Reihe von oben beschriebenen Prozessen beispielsweise durch die CPU 1001 durchgeführt, die ein in der Aufzeichnungseinheit 1008 aufgezeichnetes Programm über die Eingabe/Ausgabe-Schnittstelle 1005 und den Bus 1004 in den RAM 1003 lädt und ausführt.
  • Das durch den Computer 1000 (die CPU 1001) ausgeführte Programm kann bereitgestellt werden, indem es beispielsweise auf dem entfernbaren Medium 1011 als ein Paketmedium oder dergleichen aufgezeichnet wird. Ferner kann das Programm über ein drahtgebundenes oder drahtloses Übertragungsmedium, wie etwa ein Local Area Network (Lokalnetzwerk), das Internet oder digitalen Satellitenrundfunk, bereitgestellt werden.
  • In dem Computer 1000 kann durch Anbringen des entfernbaren Mediums 1011 an dem Laufwerk 1010 das Programm in der Aufzeichnungseinheit 1008 über die Eingabe/Ausgabe-Schnittstelle 1005 installiert werden. Ferner kann das Programm durch die Kommunikationseinheit 1009 über ein drahtgebundenes oder drahtloses Übertragungsmedium empfangen und in der Aufzeichnungseinheit 1008 installiert werden. Außerdem kann das Programm vorab in dem ROM 1002 und der Aufzeichnungseinheit 1008 installiert werden.
  • Es sei angemerkt, dass das durch den Computer ausgeführte Programm ein Programm sein kann, das eine Verarbeitung in einer Zeitreihe gemäß einer in dieser Patentschrift beschriebenen Reihenfolge durchführt, oder ein Programm sein kann, das eine Verarbeitung parallel oder zu einem erforderlichen Zeitpunkt durchführt, wie beispielsweise bei Tätigung eines Anrufs.
  • Ferner bedeutet das System in dieser Patentschrift einen Satz mehrerer Komponenten (eine Vorrichtung, ein Modul (ein Teil) und dergleichen), und es spielt keine Rolle, ob sich alle Komponenten in demselben Gehäuse befinden oder nicht. Daher handelt es sich bei mehreren Vorrichtungen, die in getrennten Gehäusen untergebracht und über ein Netzwerk verbunden sind, und bei einer einzelnen Vorrichtung mit mehreren in einem Gehäuse untergebrachten Modulen um Systeme.
  • Zudem ist die Ausführungsform der vorliegenden Technologie nicht auf die oben beschriebene Ausführungsform beschränkt und verschiedene Modifikationen können vorgenommen werden, ohne vom Schutzumfang der vorliegenden Technologie abzuweichen.
  • Beispielsweise kann die vorliegende Technologie eine Cloud-Computing-Konfiguration aufweisen, in der eine Funktion über ein Netzwerk durch mehrere Vorrichtungen geteilt und gemeinsam verarbeitet wird.
  • Des Weiteren kann jeder in dem oben beschriebenen Flussdiagramm beschriebene Schritt durch eine Vorrichtung ausgeführt werden und auch durch mehrere Vorrichtungen geteilt und ausgeführt werden.
  • Zudem können in einem Fall, in dem ein Schritt mehrere Prozesse aufweist, die mehreren in dem einen Schritt enthaltenen Prozesse durch eine Vorrichtung ausgeführt werden und auch durch mehrere Vorrichtungen geteilt und ausgeführt werden.
  • <Kombinationsbeispiel der Konfiguration>
  • Die vorliegende Technologie kann auch die folgenden Konfigurationen aufweisen.
    • (1) Eine Signalverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten ersten Sensor;
      • eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und
      • eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
    • (2) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (1), wobei die Korrektureinheit ein Erweiterungsausmaß eines belegten Bereichs des Objekts auf der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters einstellt und eine Erweiterungsverarbeitung des belegten Bereichs auf der Grundlage des Erweiterungsausmaßes durchführt.
    • (3) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (2), wobei ein Attribut des Rasters eine Art des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß auf der Grundlage einer Art des Objekts einstellt.
    • (4) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (3), wobei eine Art des Objekts ein mobiles Objekt und ein stationäres Objekt aufweist, und die Korrektureinheit ein Erweiterungsausmaß für ein mobiles Objekt größer als ein Erweiterungsausmaß für ein stationäres Objekt einstellt.
    • (5) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (2) bis (4), wobei ein Attribut des Rasters eine Fortbewegungsrichtung des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß und eine Erweiterungsrichtung des belegten Bereichs auf der Grundlage einer Fortbewegungsrichtung des Objekts einstellt.
    • (6) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (5), wobei ein Attribut des Rasters ferner eine Geschwindigkeit des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß ferner auf der Grundlage einer Geschwindigkeit des Objekts einstellt.
    • (7) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (2), wobei ein Attribut des Rasters eine Richtung des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß und eine Erweiterungsrichtung des belegten Bereichs auf der Grundlage einer Richtung des Objekts einstellt.
    • (8) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (1) bis (7), wobei die Korrektureinheit eine Vorhandenseinswahrscheinlichkeit des Objekts in dem Raster auf der Grundlage eines Belegungszustands, der ein Vorhandensein oder Nichtvorhandensein des Objekts in dem Raster angibt, und auf der Grundlage eines Attributs des Rasters einstellt.
    • (9) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (8), wobei ein Attribut des Rasters eine Art des Objekts in dem Raster aufweist, und die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters erhöht oder verringert wird, auf der Grundlage einer Art des Objekts in dem Raster einstellt.
    • (10) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (9), wobei eine Art des Objekts ein mobiles Objekt und ein stationäres Objekt aufweist, und in einem Fall, in dem sich der Belegungszustand des Rasters von vorhanden zu nicht vorhanden geändert hat, wenn das Objekt in dem Raster ein mobiles Objekt ist, die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters verringert wird, verglichen mit einem Fall, in dem das Objekt in dem Raster ein stationäres Objekt ist, erhöht.
    • (11) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (8) bis (10), wobei in einem Fall, in dem sich der Belegungszustand des Rasters von vorhanden zu unbekannt geändert hat, die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters verringert wird, verglichen mit einem Fall, in dem sich der Belegungszustand von vorhanden zu nicht vorhanden geändert hat, verringert.
    • (12) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (8) bis (11), wobei die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters erhöht oder verringert wird, auf der Grundlage der Zuverlässigkeit des ersten Sensors einstellt.
    • (13) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (8) bis (12), wobei die Korrektureinheit den Belegungszustand auf der Grundlage der Vorhandenseinswahrscheinlichkeit des Rasters korrigiert.
    • (14) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (1) bis (13), die ferner Folgendes aufweist:
      • eine Attributdetektionseinheit, ausgebildet zum Detektieren eines Attributs des Objekts auf der Grundlage von zweiten Sensordaten von einem zweiten Sensor.
    • (15) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (14), wobei die Attributdetektionseinheit eine Art des Objekts als ein Attribut des Objekts auf der Grundlage der zweiten Sensordaten detektiert.
    • (16) Die Signalverarbeitungsvorrichtung nach dem oben beschriebenen Punkt (14) oder (15), wobei die Attributdetektionseinheit eine Fortbewegungsrichtung und eine Geschwindigkeit des Objekts als Attribute des Objekts auf der Grundlage der ersten Sensordaten und der zweiten Sensordaten detektiert.
    • (17) Die Signalverarbeitungsvorrichtung nach einem der oben beschriebenen Punkte (14) bis (16), wobei der zweite Sensor ein Sensor ist, der zum Erwerben von Informationen verwendet wird, die ein Attribut des Objekts angeben.
    • (18) Ein Signalverarbeitungsverfahren, das Folgendes aufweist:
      • Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten Sensor;
      • Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und
      • Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
    • (19) Ein Programm zum Bewirken, dass ein Computer die folgende Verarbeitung ausführt:
      • Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten Sensor;
      • Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts; und
      • Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters.
    • (20) Eine mobile Vorrichtung, die Folgendes aufweist:
      • eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf der Grundlage von Sensordaten von einem zum Detektieren des Objekts in einer Umgebung verwendeten Sensor;
      • eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf der Grundlage eines Attributs des Objekts;
      • eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf der Grundlage eines Attributs des Rasters; und
      • eine Handlungsplanungseinheit, ausgebildet zum Einstellen eines Pfads auf der Grundlage der korrigierten Belegungsrasterkarte.
  • Es sei angemerkt, dass die in dieser Patentschrift beschriebenen Effekte lediglich Beispiele sind und nicht beschränkt sind und andere Effekte vorliegen können.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    11
    Fahrzeugsteuersystem
    51
    Kamera
    53
    LiDAR
    73
    Erkennungseinheit
    62
    Handlungsplanungseinheit
    301
    Informationsverarbeitungseinheit
    311
    Attributeinstellungseinheit
    312
    Kartenerstellungseinheit
    313
    Attributeinstellungseinheit
    314
    Korrektureinheit
    321
    Klassifikationseinheit
    322
    Objektdetektionseinheit
    323
    Bewegungsschätzungseinheit
    501
    Informationsverarbeitungseinheit
    511
    Attributdetektionseinheit
    512
    Attributeinstellungseinheit
    513
    Korrektureinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2012238151 [0004]

Claims (20)

  1. Signalverarbeitungsvorrichtung, die Folgendes aufweist: eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf einer Grundlage von ersten Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten ersten Sensor; eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf einer Grundlage eines Attributs des Objekts; und eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf einer Grundlage eines Attributs des Rasters.
  2. Signalverarbeitungsvorrichtung nach Anspruch 1, wobei die Korrektureinheit ein Erweiterungsausmaß eines belegten Bereichs des Objekts auf der Belegungsrasterkarte auf einer Grundlage eines Attributs des Rasters einstellt und eine Erweiterungsverarbeitung des belegten Bereichs auf einer Grundlage des Erweiterungsausmaßes durchführt.
  3. Signalverarbeitungsvorrichtung nach Anspruch 2, wobei ein Attribut des Rasters eine Art des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß auf einer Grundlage einer Art des Objekts einstellt.
  4. Signalverarbeitungsvorrichtung nach Anspruch 3, wobei eine Art des Objekts ein mobiles Objekt und ein stationäres Objekt aufweist, und die Korrektureinheit ein Erweiterungsausmaß für ein mobiles Objekt größer als ein Erweiterungsausmaß für ein stationäres Objekt einstellt.
  5. Signalverarbeitungsvorrichtung nach Anspruch 2, wobei ein Attribut des Rasters eine Fortbewegungsrichtung des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß und eine Erweiterungsrichtung des belegten Bereichs auf einer Grundlage einer Fortbewegungsrichtung des Objekts einstellt.
  6. Signalverarbeitungsvorrichtung nach Anspruch 5, wobei ein Attribut des Rasters ferner eine Geschwindigkeit des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß ferner auf einer Grundlage einer Geschwindigkeit des Objekts einstellt.
  7. Signalverarbeitungsvorrichtung nach Anspruch 2, wobei ein Attribut des Rasters eine Richtung des Objekts in dem Raster aufweist, und die Korrektureinheit das Erweiterungsausmaß und eine Erweiterungsrichtung des belegten Bereichs auf einer Grundlage einer Richtung des Objekts einstellt.
  8. Signalverarbeitungsvorrichtung nach Anspruch 1, wobei die Korrektureinheit eine Vorhandenseinswahrscheinlichkeit des Objekts in dem Raster auf einer Grundlage eines Belegungszustands, der ein Vorhandensein oder Nichtvorhandensein des Objekts in dem Raster angibt, und auf einer Grundlage eines Attributs des Rasters einstellt.
  9. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei ein Attribut des Rasters eine Art des Objekts in dem Raster aufweist, und die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters erhöht oder verringert wird, auf einer Grundlage einer Art des Objekts in dem Raster einstellt.
  10. Signalverarbeitungsvorrichtung nach Anspruch 9, wobei eine Art des Objekts ein mobiles Objekt und ein stationäres Objekt aufweist, und in einem Fall, in dem sich der Belegungszustand des Rasters von vorhanden zu nicht vorhanden geändert hat, wenn das Objekt in dem Raster ein mobiles Objekt ist, die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters verringert wird, verglichen mit einem Fall, in dem das Objekt in dem Raster ein stationäres Objekt ist, erhöht.
  11. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei in einem Fall, in dem sich der Belegungszustand des Rasters von vorhanden zu unbekannt geändert hat, die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters verringert wird, verglichen mit einem Fall, in dem sich der Belegungszustand von vorhanden zu nicht vorhanden geändert hat, verringert.
  12. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei die Korrektureinheit eine Geschwindigkeit, mit der die Vorhandenseinswahrscheinlichkeit des Rasters erhöht oder verringert wird, auf einer Grundlage der Zuverlässigkeit des ersten Sensors einstellt.
  13. Signalverarbeitungsvorrichtung nach Anspruch 8, wobei die Korrektureinheit den Belegungszustand auf einer Grundlage der Vorhandenseinswahrscheinlichkeit des Rasters korrigiert.
  14. Signalverarbeitungsvorrichtung nach Anspruch 1, die ferner Folgendes aufweist: eine Attributdetektionseinheit, ausgebildet zum Detektieren eines Attributs des Objekts auf einer Grundlage von zweiten Sensordaten von einem zweiten Sensor.
  15. Signalverarbeitungsvorrichtung nach Anspruch 14, wobei die Attributdetektionseinheit eine Art des Objekts als ein Attribut des Objekts auf einer Grundlage der zweiten Sensordaten detektiert.
  16. Signalverarbeitungsvorrichtung nach Anspruch 14, wobei die Attributdetektionseinheit eine Geschwindigkeit und eine Fortbewegungsrichtung des Objekts als Attribute des Objekts auf einer Grundlage der ersten Sensordaten und der zweiten Sensordaten detektiert.
  17. Signalverarbeitungsvorrichtung nach Anspruch 14, wobei der zweite Sensor ein Sensor ist, der zum Erwerben von Informationen verwendet wird, die ein Attribut des Objekts angeben.
  18. Signalverarbeitungsverfahren, das Folgendes aufweist: Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf einer Grundlage von Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten Sensor; Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf einer Grundlage eines Attributs des Objekts; und Korrigieren der Belegungsrasterkarte auf einer Grundlage eines Attributs des Rasters.
  19. Programm zum Bewirken, dass ein Computer die folgende Verarbeitung ausführt: Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf einer Grundlage von Sensordaten von einem zum Detektieren des Objekts in der Umgebung einer mobilen Vorrichtung verwendeten Sensor; Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf einer Grundlage eines Attributs des Objekts; und Korrigieren der Belegungsrasterkarte auf einer Grundlage eines Attributs des Rasters.
  20. Mobile Vorrichtung, die Folgendes aufweist: eine Kartenerstellungseinheit, ausgebildet zum Erstellen einer Belegungsrasterkarte, die ein Vorhandensein oder Nichtvorhandensein eines Objekts in einer Einheit eines Rasters angibt, auf einer Grundlage von Sensordaten von einem zum Detektieren des Objekts in einer Umgebung verwendeten Sensor; eine Attributeinstellungseinheit, ausgebildet zum Einstellen eines Attributs des Rasters der Belegungsrasterkarte auf einer Grundlage eines Attributs des Objekts; eine Korrektureinheit, ausgebildet zum Korrigieren der Belegungsrasterkarte auf einer Grundlage eines Attributs des Rasters; und eine Handlungsplanungseinheit, ausgebildet zum Einstellen eines Pfads auf einer Grundlage der korrigierten Belegungsrasterkarte.
DE112020004545.5T 2019-09-25 2020-09-11 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung Pending DE112020004545T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019174077 2019-09-25
JP2019-174077 2019-09-25
PCT/JP2020/034437 WO2021060018A1 (ja) 2019-09-25 2020-09-11 信号処理装置、信号処理方法、プログラム、及び、移動装置

Publications (1)

Publication Number Publication Date
DE112020004545T5 true DE112020004545T5 (de) 2022-08-18

Family

ID=75166657

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020004545.5T Pending DE112020004545T5 (de) 2019-09-25 2020-09-11 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung

Country Status (5)

Country Link
US (1) US20220383749A1 (de)
JP (1) JPWO2021060018A1 (de)
CN (1) CN114424265A (de)
DE (1) DE112020004545T5 (de)
WO (1) WO2021060018A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220092738A (ko) * 2020-12-24 2022-07-04 현대자동차주식회사 회피 조향 제어가 개선된 주차 지원 시스템 및 방법
US11808885B2 (en) * 2021-02-03 2023-11-07 Autonomous Solutions, Inc. Localization system for autonomous vehicles using sparse radar data
DE102021203809B4 (de) * 2021-03-16 2023-05-04 Continental Autonomous Mobility Germany GmbH Fahrverlaufsschätzung in einem Umfeldmodel
KR102524105B1 (ko) * 2022-11-30 2023-04-21 (주)토탈소프트뱅크 항만의 객체 점유 공간 인식 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238151A (ja) 2011-05-11 2012-12-06 Toyota Motor Corp 周辺監視装置および周辺監視方法並びに運転支援装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009047390A1 (de) * 2009-12-02 2011-06-09 Robert Bosch Gmbh Verfahren und Steuergerät zur Bestimmung einer Bewegungsrichtung eine sich auf ein Fahrzeug zu bewegenden Objektes
CN105511485B (zh) * 2014-09-25 2018-07-06 科沃斯机器人股份有限公司 用于自移动机器人栅格地图的创建方法
JP6160634B2 (ja) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
DE102016122296A1 (de) * 2016-11-21 2018-05-24 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erfassen und zur Klassifizierung eines Objekts mittels zumindest einer Sensorvorrichtung auf Basis einer Belegungskarte, Fahrerassistenzsystem sowie Kraftfahrzeug
JP6969738B2 (ja) * 2017-07-10 2021-11-24 株式会社Zmp 物体検出装置及び方法
US20210403015A1 (en) * 2017-08-03 2021-12-30 Koito Manufacturing Co., Ltd Vehicle lighting system, vehicle system, and vehicle
CN107480638B (zh) * 2017-08-16 2020-06-30 北京京东尚科信息技术有限公司 车辆避障方法、控制器、装置和车辆
JP7081098B2 (ja) * 2017-09-01 2022-06-07 株式会社デンソー 走行環境認識装置、走行環境認識方法、プログラム
CN108775902A (zh) * 2018-07-25 2018-11-09 齐鲁工业大学 基于障碍物虚拟膨胀的伴随机器人路径规划方法及系统
EP3894789A4 (de) * 2018-12-12 2022-07-20 INTEL Corporation Zeitbewusste belegungsrasterkartierung für roboter in dynamischen umgebungen

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238151A (ja) 2011-05-11 2012-12-06 Toyota Motor Corp 周辺監視装置および周辺監視方法並びに運転支援装置

Also Published As

Publication number Publication date
US20220383749A1 (en) 2022-12-01
WO2021060018A1 (ja) 2021-04-01
CN114424265A (zh) 2022-04-29
JPWO2021060018A1 (de) 2021-04-01

Similar Documents

Publication Publication Date Title
DE112020002602T5 (de) Multi-objektverfolgung mit hilfe von korrelationsfiltern in videoanalyseanwendungen
DE112020002166T5 (de) Simulation realistischer testdaten aus transformierten sensordaten der realen welt für autonome maschinenanwendungen
DE112019000279T5 (de) Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
DE102021126254A1 (de) Überwachen der Aufmerksamkeit und der kognitiven Belastung der Insassen für autonome und halbautonome Fahranwendungen
DE112020004545T5 (de) Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren, programm und mobile vorrichtung
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112021002953T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112019001659T5 (de) Steuervorrichtung, steuerverfahren und programm
DE112020002546T5 (de) Steuervorrichtung für autonomes fahren, steuersystem für autonomes fahren und steuerverfahren für autonomes fahren
WO2020183892A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
JP7487178B2 (ja) 情報処理方法、プログラム、及び、情報処理装置
DE112020003708T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
WO2022004423A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
DE112021004884T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112020001581T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20230377108A1 (en) Information processing apparatus, information processing method, and program
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム
WO2023007785A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023079881A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2024062976A1 (ja) 情報処理装置及び情報処理方法