DE112020002037T5 - Fahrzeugsteuersystem und Fahrzeugsteuerverfahren - Google Patents

Fahrzeugsteuersystem und Fahrzeugsteuerverfahren Download PDF

Info

Publication number
DE112020002037T5
DE112020002037T5 DE112020002037.1T DE112020002037T DE112020002037T5 DE 112020002037 T5 DE112020002037 T5 DE 112020002037T5 DE 112020002037 T DE112020002037 T DE 112020002037T DE 112020002037 T5 DE112020002037 T5 DE 112020002037T5
Authority
DE
Germany
Prior art keywords
sensor
error
integration unit
speed
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020002037.1T
Other languages
English (en)
Inventor
Hiroshi Tsuchida
Naoto Aoki
Akira Kuriyama
Shigenori Hayase
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112020002037T5 publication Critical patent/DE112020002037T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level

Abstract

Es wird die Genauigkeit eines Gruppierungsprozesses verbessert, indem ein Fehler eines Beobachtungswertes eines Sensors genau erhalten wird. Ein Fahrzeugsteuersystem enthält eine Integrationseinheit, die auf der Grundlage von Informationen von einem Sensor, der Informationen über den externen Bereich eines eigenen Fahrzeugs erfasst, Informationen über eine Position und eine Geschwindigkeit eines Zielobjekts, das in einem externen Bereich vorhanden ist, und Fehler der Position und der Geschwindigkeit schätzt. Die Integrationseinheit schätzt einen Fehler eines Detektionsergebnisses aus dem Detektionsergebnis eines Sensors, der einen externen Bereich eines Fahrzeugs detektiert, in Übereinstimmung mit einer Eigenschaft des Sensors, bestimmt eine Korrelation zwischen Detektionsergebnissen mehrerer Sensoren und integriert korrelierte Detektionsergebnisse und berechnet die Fehler der Position und der Geschwindigkeit des Zielobjekts.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Fahrzeugsteuersystem, das einen Zustand eines Gegenstands unter Verwendung von Informationen über den Gegenstand schätzt, die durch verschiedene Arten von Sensoren detektiert werden.
  • Hintergrund
  • Der Hintergrund des betreffenden technischen Gebiets enthält den folgenden Stand der Technik. In PTL ( JP 2018-97765 A ) wird dann, wenn ein Radarzielobjekt, das einen Gegenstand angibt, der durch ein Radar detektiert wird, und ein Bildzielobjekt, das einen Gegenstand angibt, der durch eine Bildaufnahmevorrichtung detektiert wird, von demselben Gegenstand erzeugt werden, ein Fusionszielobjekt erzeugt, indem das Radarzielobjekt und das Bildzielobjekt integriert werden. Anschließend wird unter Verwendung der Position des Bildzielobjekts, das verwendet worden ist, um das Fusionszielobjekt zu erzeugen in einer Breitenrichtung des eigenen Fahrzeugs als eine seitliche Position und unter Verwendung einer Bewegungsgeschwindigkeit in der Breitenrichtung des eigenen Fahrzeugs als eine seitliche Geschwindigkeit eine Berechnung durchgeführt. PTL 1 offenbart eine Gegenstandsdetektionsvorrichtung, die dann, wenn kein Fusionszielobjekt erzeugt wird, indem ein Radarzielobjekt erfasst wird und kein Bildzielobjekt erfasst wird, durch die seitliche Position und die seitliche Geschwindigkeit des Bildzielobjekts, das verwendet worden ist, um das Fusionszielobjekt zu erzeugen, und ein Radarzielobjekt, das durch eine Radarzielobjekt-Erfassungseinheit erfasst wird, ein vorläufiges Fusionszielobjekt erzeugt (siehe Zusammenfassung).
  • Entgegenhaltungsliste
  • Patentliteratur
  • PTL 1: JP 2018-97765 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • In der in PTL 1 offenbarten Technik wird ein konstanter Wert für einen Beobachtungsfehler eines Sensors (Radar und Bildaufnahmevorrichtung) verwendet. Somit wird eine Gruppierung eines Zielobjekts mit einer Position, die aus mehreren Sensorwerten geschätzt wird, möglicherweise fehlerhaft durchgeführt, und ein Gegenstand kann fehlerhaft als mehrere Gegenstände erkannt werden. Außerdem wird der Beobachtungswert des Sensors mit hoher Genauigkeit nicht ausgewählt und das Erkennungsergebnis des Sensors wird nicht integriert, obwohl der Trend des Fehlers abhängig von der Art des Sensors variiert. Somit kann die Erkennungsgenauigkeit insgesamt herabgesetzt werden. Ferner variiert der Fehler des Sensors abhängig von der Umgebung des externen Bereichs, und der Einfluss des externen Bereichs wird nicht in Betracht gezogen.
  • Lösung des Problems
  • Ein repräsentatives Beispiel für die in dieser Anmeldung offenbarte Erfindung ist wie folgt. Ein Fahrzeugsteuersystem enthält eine Integrationseinheit, die auf der Grundlage von Informationen von einem Sensor, der Informationen über den externen Bereich eines eigenen Fahrzeugs erfasst, Informationen über eine Position und eine Geschwindigkeit eines Zielobjekts, das in einem externen Bereich vorhanden ist, und Fehler der Position und der Geschwindigkeit schätzt. Die Integrationseinheit schätzt einen Fehler eines Detektionsergebnisses aus dem Detektionsergebnis eines Sensors, der einen externen Bereich eines Fahrzeugs detektiert, in Übereinstimmung mit einer Eigenschaft des Sensors, bestimmt eine Korrelation zwischen Detektionsergebnissen mehrerer Sensoren und integriert korrelierte Detektionsergebnisse und berechnet die Fehler der Position und der Geschwindigkeit des Zielobjekts.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß einem Aspekt der vorliegenden Erfindung ist es möglich, einen Fehler eines Beobachtungswertes eines Sensors genau zu erhalten und die Genauigkeit eines Gruppierungsprozesses zu verbessern. Andere Aufgaben, Konfigurationen und Wirkungen als die oben beschriebenen werden durch die Beschreibungen der folgenden Ausführungsformen verdeutlicht.
  • Figurenliste
    • 1 ist ein Konfigurationsdiagramm, das ein Fahrzeugsteuersystem gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
    • 2 ist ein Ablaufplan, der eine Gesamtheit der Integrationsverarbeitung in der vorliegenden Ausführungsform veranschaulicht.
    • 3 ist ein Ablaufplan eines Vorhersageaktualisierungsprozesses in Schritt S2.
    • 4 ist ein Diagramm, das einen Prozess in Schritt S2 veranschaulicht.
    • 5 ist ein Diagramm, das einen Gruppierungsprozess (S3) im verwandten Gebiet veranschaulicht.
    • 6 ist ein Diagramm, das den Gruppierungsprozess (S3) veranschaulicht.
  • Beschreibung der Ausführungsformen
  • Im Folgenden wird unter Bezugnahme auf die Zeichnungen eine Ausführungsform beschrieben.
  • 1 ist ein Konfigurationsdiagramm, das ein Fahrzeugsteuersystem gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • Das Fahrzeugsteuersystem in der vorliegenden Ausführungsform enthält einen Sensor D001 zur Erkennung einer Bewegung des eigenen Fahrzeugs, eine Sensorgruppe D002 zur Erkennung eines externen Bereichs, ein Positionsbestimmungssystem D003, eine Karteneinheit D004, ein Eingangskommunikationsnetz D005, eine Sensorerkennungs-Integrationsvorrichtung D006, eine Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren und eine Aktorengruppe D008. Der Sensor D001 zur Erkennung einer Bewegung des eigenen Fahrzeugs enthält einen Kreiselsensor, einen Raddrehzahlsensor, einen Lenkwinkelsensor, einen Beschleunigungssensor und dergleichen, die am Fahrzeug angebracht sind, und misst eine Gierrate, eine Raddrehzahl, einen Lenkwinkel, eine Beschleunigung und dergleichen, die die Bewegung des eigenen Fahrzeugs darstellen. Die Sensorgruppe D002 zur Erkennung eines externen Bereichs detektiert ein Fahrzeug, eine Person, eine weiße Linie einer Straße, ein Zeichen und dergleichen außerhalb des eigenen Fahrzeugs und erkennt Informationen über das Fahrzeug, die Person, die weiße Linie, das Zeichen oder dergleichen. Eine Position, eine Geschwindigkeit und eine Art des Gegenstands eines Gegenstands wie etwa eines Fahrzeugs oder einer Person werden erkannt. Die Form der weißen Linie der Straße einschließlich der Position wird erkannt. Für die Aussage werden die Position und der Inhalt eines Zeichens erkannt. Als die Sensorgruppe D002 zur Erkennung eines externen Bereichs werden Sensoren wie etwa ein Radar, eine Kamera und ein Sonar verwendet. Die Konfiguration und die Anzahl der Sensoren sind nicht insbesondere eingeschränkt. Das Positionsbestimmungssystem D003 misst die Position des eigenen Fahrzeugs. Als ein Beispiel für das Positionsbestimmungssystem D003 gibt es ein Satellitenpositionsbestimmungssystem. Die Karteneinheit D004 wählt Karteninformationen um das eigene Fahrzeug aus und gibt diese aus. Das Eingangskommunikationsnetz D005 erfasst Informationen von diversen Informationserfassungsvorrichtungen und überträgt die Informationen an die Sensorerkennungs-Integrationsvorrichtung D006. Als das Eingangskommunikationsnetz D005 werden das Steuereinheitsbereichsnetz (CAN), Ethernet, Drahtloskommunikation und dergleichen verwendet. Das CAN ist ein Netz, das im Allgemeinen in einem Fahrzeugsystem verwendet wird. Die Sensorerkennungs-Integrationsvorrichtung D006 erfasst Informationen über eine Bewegung des eigenen Fahrzeugs, Sensorgegenstandsinformationen, Sensorstraßeninformationen, Positionsbestimmungsinformationen und Karteninformationen vom Eingangskommunikationsnetz D005. Daraufhin intergiert die Sensorerkennungs-Integrationsvorrichtung D006 die Informationskomponenten als Umgebungsinformationen des eigenen Fahrzeugs und gibt die Umgebungsinformationen des eigenen Fahrzeugs an die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren aus. Die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren empfängt die Informationen vom Eingangskommunikationsnetz D005 und die Umgebungsinformationen des eigenen Fahrzeugs von der Sensorerkennungs-Integrationsvorrichtung D006. Die Vorrichtung zur Bestimmung eines Plans zum autonomen Fahren plant und bestimmt, wie das eigene Fahrzeug bewegt werden soll, und gibt Befehlsinformationen an die Aktorengruppe D008 aus. Die Aktorengruppe D008 betätigt die Aktoren in Übereinstimmung mit den Befehlsinformationen.
  • Die Sensorerkennungs-Integrationsvorrichtung D006 in der vorliegenden Ausführungsform enthält eine Informationsspeichereinheit D009, eine Sensorgegenstandsinformationen-Integrationseinheit D010 und eine Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs. Die Informationsspeichereinheit D009 speichert Informationen (z. B. Sensordaten, die durch die Sensorgruppe D002 zur Erkennung eines externen Bereichs gemessen werden) vom Eingangskommunikationsnetz D005 und stellt die Informationen für die Sensorgegenstandsinformationen-Integrationseinheit D010 und die Integrationseinheit D0011 für Umgebungsinformationen des eigenen Fahrzeugs bereit. Die Sensorgegenstandsinformationen-Integrationseinheit D010 erfasst die Sensorgegenstandsinformationen aus der Informationsspeichereinheit D009 und integriert die Informationen desselben Gegenstands, die durch mehrere Sensoren detektiert werden, als dieselben Informationen. Anschließend gibt die Sensorgegenstandsinformationen-Integrationseinheit das Integrationsergebnis als Integrationsgegenstandsinformationen an die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs aus. Die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs erfasst die Integrationsgegenstandsinformationen und die Bewegungsinformationen des eigenen Fahrzeugs, die Sensorstraßeninformationen, die Positionsbestimmungsinformationen und die Karteninformationen aus der Informationsspeichereinheit D009. Anschließend integriert die Integrationseinheit D011 für Umgebungsinformationen des eigenen Fahrzeugs die erfassten Informationen als Umgebungsinformationen des eigenen Fahrzeugs und gibt die Umgebungsinformationen des eigenen Fahrzeugs an die Vorrichtung D007 zur Bestimmung eines Plans zum autonomen Fahren aus.
  • Die Sensorerkennungs-Integrationsvorrichtung D006 ist durch einen Computer (Mikrocomputer) konfiguriert, der eine Vorrichtung für arithmetische Operationen, einen Datenspeicher und eine Eingangs/Ausgangs-Vorrichtung enthält.
  • Die Vorrichtung für arithmetische Operationen enthält einen Prozessor und führt ein Programm aus, das im Datenspeicher gespeichert ist. Ein Abschnitt der Verarbeitung, die durch die Vorrichtung für arithmetische Operationen durchgeführt wird, die das Programm ausführt, kann durch eine weitere Vorrichtung für arithmetische Operationen (z. B. Hardware wie etwa ein anwenderprogrammierbares Gate-Array (FPGA) und eine anwendungsspezifische integrierte Schaltung (ASIC)) ausgeführt werden.
  • Der Datenspeicher enthält einen ROM und einen RAM, die nichtflüchtige Speicherelemente sind. Der ROM speichert ein unveränderbares Programm (z. B. BIOS) und dergleichen. Der RAM enthält ein flüchtiges Speicherelement mit hoher Geschwindigkeit wie etwa einen dynamischen Schreib/Lese-Speicher (DRAM) und ein nichtflüchtiges Speicherelement wie etwa einen statischen Schreib/Lese-Speicher (SRAM). Der RAM speichert ein Programm, das durch die Vorrichtung für arithmetische Operationen ausgeführt wird, und Daten, die verwendet werden, wenn das Programm ausgeführt wird. Das Programm, das durch die Vorrichtung für arithmetische Operationen ausgeführt wird, ist in einem nichtflüchtigen Speicherelement gespeichert, das ein nichtflüchtiges Speichermedium der Sensorerkennungs-Integrationsvorrichtung D006 ist.
  • Die Eingangs/Ausgangs-Vorrichtung ist eine Schnittstelle, die in Übereinstimmung mit einem vorgegebenen Protokoll Verarbeitungsinhalte durch die Sensorerkennungs-Integrationsvorrichtung D006 nach außerhalb überträgt oder Daten von außerhalb empfängt.
  • 2 ist ein Ablaufplan, der eine Gesamtheit der Integrationsverarbeitung in der vorliegenden Ausführungsform veranschaulicht.
  • Die Informationsspeichereinheit D009 speichert Sensordaten. Die Sensordaten sind Informationen über einen Gegenstand (ein Zielobjekt), der durch diverse Sensoren (Radar, Kamera, Sonar und dergleichen) der Sensorgruppe D002 zur Erkennung eines externen Bereichs erkannt wird, und enthalten Daten über eine relative Position, eine relative Geschwindigkeit und eine relative Position/Geschwindigkeit des erkannten Gegenstands zusätzlich zu Daten über einen Abstand und eine Richtung zum Gegenstand. Die relative Position/Geschwindigkeit kann durch einen Bereich (z. B. eine Fehlerellipse vom Typ einer Gauß-Verteilung) dargestellt sein, in der der Gegenstand mit einer vorgegebenen Wahrscheinlichkeit zu einer vorgegebenen Zeit vorhanden ist. Die Fehlerellipse vom Typ einer Gauß-Verteilung kann durch eine Kovarianzmatrix dargestellt werden, die im folgenden Ausdruck gezeigt ist, und kann in einem weiteren Format dargestellt werden. Zum Beispiel kann der Existenzbereich des Gegenstands als eine weitere Form durch eine allgemeine Verteilung ungleich der Gauß-Verteilung dargestellt werden, die unter Verwendung des Partikelfilters geschätzt wird.
  • Die Kovarianzmatrix, die im folgenden Ausdruck gezeigt ist, enthält ein Element, das eine Korrelation zwischen Positionen angibt, ein Element, das eine Korrelation zwischen Geschwindigkeiten angibt, und ein Element, das eine Korrelation zwischen Positionen und Geschwindigkeiten angibt. P = ( P x x P x y P x v x P x v y P y x P y y P y v x P y v y P v x x P v x y P v x v x P v x v y P v y x P v y y P v y v x P v y v y )
    Figure DE112020002037T5_0001
    wobei P x x P x y P y x P y y
    Figure DE112020002037T5_0002
    Elemente sind, die eine Korrelation zwischen Positionen angeben und P v x v x P v x v y P v y v x P v y v y
    Figure DE112020002037T5_0003
    Elemente sind, die eine Korrelation zwischen Geschwindigkeiten angeben.
  • Der Datenspeicher der Sensorgegenstandsinformationen-Integrationseinheit D010 speichert Nachverfolgungsdaten, die eine Bahnkurve eines Gegenstands angeben, der durch die diversen Sensoren der Sensorgruppe D002 zur Erkennung eines externen Bereichs erkannt wird.
  • Bei der Integrationsverarbeitung schätzt die Sensorgegenstandsinformationen-Integrationseinheit D010 zuerst einen Fehler der Sensordaten (S1). Dieser Fehler wird durch die Art des Sensors, die Position eines Gegenstands, der in einem Erkennungsbereich erkannt wird (z. B. ist der Fehler groß, wenn der Abstand zum Gegenstand groß ist, und weist der Gegenstand, der in der Mitte des Erkennungsbereichs erkannt wird, einen kleinen Fehler auf) und eine externe Umgebung (Helligkeit des externen Bereichs, Sichtbarkeit, Regen, Schneefall, Temperatur und dergleichen) bestimmt. Außerdem werden mehrere Komponenten von Sensordaten in ein gemeinsames Koordinatensystem umgesetzt, wenn Koordinatensysteme von Komponenten von Sensordaten, die von den diversen Sensoren der Sensorgruppe D002 zur Erkennung des externen Bereichs ausgegeben werden, voneinander verschieden sind, und daraufhin wird ein Fehler der Sensordaten geschätzt. Einzelheiten eines Fehlerschätzungsprozesses (S1) werden später beschrieben.
  • Die Sensorgegenstandsinformationen-Integrationseinheit D010 aktualisiert Vorhersagedaten der Nachverfolgungsdaten (S2). Zum Beispiel wird unter der Annahme, dass der Gegenstand, der durch die Nachverfolgungsdaten dargestellt wird, vom vorher erkannten Punkt eine gleichmäßige, geradlinige Bewegung durchführt, ohne die Bewegungsrichtung und die Geschwindigkeit zu ändern, die Position des Gegenstands zum nächsten Zeitpunkt vorhergesagt, und die Nachverfolgungsdaten werden aktualisiert. Einzelheiten eines Vorhersagedaten-Aktualisierungsprozesses (S1) werden später beschrieben.
  • Anschließend führt die Sensorgegenstandsinformationen-Integrationseinheit D010 eine Gruppierungsprozess des Integrierens von Daten, die einen Gegenstand darstellen, von der unter Verwendung der Nachverfolgungsdaten vorhergesagten Position und der unter Verwendung der Sensordaten beobachteten Position aus (S3). Zum Beispiel wird eine Überlappung zwischen dem Fehlerbereich der unter Verwendung der Nachverfolgungsdaten vorhergesagten Position und dem Fehlerbereich der unter Verwendung der Sensordaten beobachteten Position bestimmt und die vorhergesagte Position und die beobachtete Position, bei denen die Fehlerbereiche einander überlappen, werden als Daten, die denselben Gegenstand darstellen, gruppiert. Einzelheiten eines Gruppierungsprozesses (S3) werden später beschrieben.
  • Daraufhin integriert die Sensorgegenstandsinformationen-Integrationseinheit D010 die Beobachtungsergebnisse unter Verwendung der Daten, die als die Gruppe, die denselben Gegenstand darstellt, bestimmt worden sind (S4). Zum Beispiel wird ein gewichteter Mittelwert der vorhergesagten Positionen und der beobachteten Positionen, die als die Daten, die denselben Gegenstand darstellen, gruppiert sind, unter Berücksichtigung von Fehlern der vorhergesagten Positionen und der beobachteten Positionen berechnet und eine integrierte Position des Gegenstands wird berechnet.
  • Daraufhin wird die integrierte Position als ein Fusionsergebnis ausgegeben und die Nachverfolgungsdaten werden weiter aktualisiert (S5).
  • 3 ist ein Ablaufplan des Vorhersageaktualisierungsprozesses in Schritt S2 aus 2. 4 ist ein Diagramm, das einen Prozess in jedem Schritt veranschaulicht. In 4 ist die Geschwindigkeit durch einen Pfeil dargestellt, die Position ist durch eine Position auf 4 dargestellt und die Position/relative Geschwindigkeit ist durch eine Fehlerellipse dargestellt.
  • Zuerst erfasst die Sensorgegenstandsinformationen-Integrationseinheit D010 eine erste relative Geschwindigkeit Vr_t1_t1, eine erste relative Position X_t1_t1 und eine erste relative Position/relative Geschwindigkeit Pr_ t1_t1 eines Gegenstands um ein Fahrzeug zu einem vorgegebenen Zeitpunkt t1 (S21). Die relative Geschwindigkeit, die relative Position und die relative Position/relative Geschwindigkeit werden im Allgemeinen in einem folgenden Koordinatensystem (ebenso als ein relatives Koordinatensystem bezeichnet) auf der Grundlage einer Position der Fahrzeugmitte des eigenen Fahrzeugs dargestellt, können jedoch in einem Koordinatensystem auf der Grundlage der Position des Sensors, der die Sensordaten gemessen hat, dargestellt werden.
  • Daraufhin setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die relativen Geschwindigkeitsdaten in dem folgenden Koordinatensystem in absolute Geschwindigkeitsdaten in einem feststehenden Koordinatensystem um. Zum Beispiel verwendet die Sensorgegenstandsinformationen-Integrationseinheit D010 die erste relative Position X_t1_t1, um die erfasste erste relative Geschwindigkeit Vr_t1_t1 und die erste relative Position/relative Geschwindigkeit Pr_t1_t1 in dem folgenden Koordinatensystem in eine erste absolute Geschwindigkeit Va_t1_t1 und eine erste relative Position/absolute Geschwindigkeit Pa_t1_t1 in dem feststehenden Koordinatensystem umzusetzen (S22).
  • Anschließend erhält die Sensorgegenstandsinformationen-Integrationseinheit D010 die Position zu Zeitpunkt t2 aus der Position zu Zeitpunkt t1. Zum Beispiel setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die erste absolute Geschwindigkeit Va_t1_t1, die erste relative Position X_t1_t1 und die erste relative Position/absolute Geschwindigkeit Pa_t1_t1 zum Zeitpunkt t1 mit der Position 0 t1 t1 des Fahrzeugs als den Ursprung in die zweite absolute Geschwindigkeit Va_t2_t1, die zweite relative Position X_t2 t1 und die zweite relative Position/absolute Geschwindigkeit -a t2 t1 zum Zeitpunkt t2 um (S23).
  • Anschließend aktualisiert die Sensorgegenstandsinformationen-Integrationseinheit D010 die Ursprungsposition des Koordinatensystems vom Zeitpunkt t1 auf den Zeitpunkt t2, das heißt, von dem Koordinatensystem zum Zeitpunkt t1 auf das Koordinatensystem zum Zeitpunkt t2. Zum Beispiel aktualisiert die Sensorgegenstandsinformationen-Integrationseinheit D010 die zweite relative Position X_t2_t1, die zweite absolute Geschwindigkeit Va_t2_t1 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t1 des Gegenstands mit der Position 0 t1 t1 des Fahrzeugs zum Zeitpunkt t1 als den Ursprung auf die zweite relative Position X_t2_t2, die zweite absolute Geschwindigkeit Va_t2_t2 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 des Gegenstands mit der Position 0_t2_t1 des Fahrzeugs zum Zeitpunkt t2 als den Ursprung (S24).
  • Bei der Umsetzung von der Ursprungsposition 0 t1 t1 zum Zeitpunkt t1 auf die Ursprungsposition 0_t2_t1 zum Zeitpunkt t2 werden die Messwerte (das heißt, der Abbiegevorgang) der Fahrzeuggeschwindigkeit und der Gierrate des eigenen Fahrzeugs verwendet.
  • Da die Messwerte der Fahrzeuggeschwindigkeit und der Gierrate Fehler enthalten, kann der Fehlerbereich, der durch die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 angegeben wird, unter Berücksichtigung des Fehlers der Fahrzeuggeschwindigkeit und des Fehlers der Gierrate vergrößert sein.
  • Daraufhin setzt die Sensorgegenstandsinformationen-Integrationseinheit D010 die absoluten Geschwindigkeitsdaten in dem feststehenden Koordinatensystem in relative Geschwindigkeitsdaten in dem folgenden Koordinatensystem um. Zum Beispiel verwendet die Sensorgegenstandsinformationen-Integrationseinheit D010 die zweite relative Position X_t2_t2, um die zweite absolute Geschwindigkeit Va_t2_t2 und die zweite relative Position/absolute Geschwindigkeit Pa_t2_t2 in dem feststehenden Koordinatensystem in die zweite relative Geschwindigkeit Vr_t2_t2 und die zweite relative Position/relative Geschwindigkeit Pr_t2_t2 in dem folgenden Koordinatensystem im aktualisierten Koordinatensystem umzusetzen (S25)
  • Wie oben beschrieben ist, ist es gemäß dem Vorhersageaktualisierungsprozess der vorliegenden Ausführungsform möglich, die relative Position/relative Geschwindigkeit (den Fehlerbereich) genauer zu berechnen.
  • Außerdem ist es möglich, die Gruppierungsleistung der Sensordaten des Zielobjekts zu verbessern und die Bestimmungsleistung eines Betriebsplans zu verbessern.
  • Als nächstes werden Einzelheiten des Gruppierungsprozesses (S3) beschrieben.
  • Zum Beispiel wird ein Fall betrachtet, der in 5 veranschaulicht ist, das heißt, ein Fall, in dem die Beobachtungswerte eines Sensors A und eines Sensors B und das Vorhersageaktualisierungsergebnis erhalten werden, der Fehlerbereich des Beobachtungswertes des Sensors auf einen konstanten Wert eingestellt wird und der Fehlerbereich nach der Vorhersageaktualisierung ebenfalls auf einen konstanten Wert eingestellt wird. An einem Beobachtungspunkt 1 überlappen der Fehlerbereich des Beobachtungswertes des Sensors A, der Fehlerbereich des Beobachtungswertes des Sensors B und der Fehlerbereich des Vorhersageaktualisierungsergebnisses einander. Daher werden drei Zielobjekte, die am Beobachtungspunkt 1 beobachtet werden, in eines integriert und als ein Gegenstand erkannt. An dem Beobachtungspunkt 1, der in 5 veranschaulicht ist, überlappen die drei Fehlerbereiche einander. Selbst in einem Fall, in dem der Fehlerbereich des Beobachtungswertes des Sensors A den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappt und der Fehlerbereich des Beobachtungswertes des Sensors B den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappt, das heißt, einem Fall, in dem der Fehlerbereich des Beobachtungswertes des Sensors A und der Fehlerbereich des Beobachtungswertes des Sensors B einander über den Fehlerbereich des Vorhersageaktualisierungsergebnisses überlappen, werden die drei Zielobjekte in eines integriert und als ein Gegenstand erkannt. An einem Beobachtungspunkt 2 gibt es keine Überlappung zwischen dem Fehlerbereich des Beobachtungswertes des Sensors A, dem Fehlerbereich des Beobachtungswertes des Sensors B und dem Fehlerbereich des Vorhersageaktualisierungsergebnisses.
  • Daher werden die drei Zielobjekte, die am Beobachtungspunkt 2 beobachtet werden, nicht in eines integriert und werden als drei Gegenstände erkannt.
  • 6 ist ein Diagramm, das einen Gruppierungsprozess (S3) in der vorliegenden Ausführungsform veranschaulicht. In der vorliegenden Ausführungsform wird der Gruppierungsprozess unter Verwendung des Fehlerbereichs, der in Übereinstimmung mit der Art des Sensors berechnet wird, ausgeführt. Der Sensor A ist z. B. ein Radar, das einen Abstand und eine Richtung zu einem Zielobjekt misst. Der Sensor A weist in einer Abstandsrichtung (vertikalen Richtung), die eine Richtung vom Sensor zum Zielobjekt ist, einen kleinen Fehler auf, weist jedoch in einer Drehungsrichtung (seitlichen Richtung), die zur Abstandsrichtung senkrecht ist, einen großen Fehler auf. Der Sensor B ist z. B. eine Kamera, die ein Bild des externen Bereichs aufnimmt. Der Sensor B weist in der Drehungsrichtung (horizontalen Richtung) einen kleinen Fehler auf, weist jedoch in der Abstandsrichtung (vertikalen Richtung) einen großen Fehler auf. Daher wird ein Fehlerbereich unter Berücksichtigung der Fehlereigenschaft abhängig von der Art des Senors erhalten, wie in 6 veranschaulicht ist. Wenn der Gruppierungsprozess unter Verwendung des Fehlerbereichs, der auf diese Weise berechnet worden ist, ausgeführt wird, überlappen der Fehlerbereich des Beobachtungswertes des Sensors A, der Fehlerbereich des Beobachtungswertes des Sensors B und der Fehlerbereich des Vorhersageaktualisierungsergebnisses einander am Beobachtungspunkt 1, ähnlich der obigen Beschreibung (5). Somit werden die drei Zielobjekte, die am Beobachtungspunkt 1 beobachtet werden, in eines integriert und als ein Gegenstand erkannt. Außerdem überlappt am Beobachtungspunkt 2 der Fehlerbereich des Beobachtungswertes des Sensors A den Fehlerbereich des Vorhersageaktualisierungsergebnisses und der Fehlerbereich des Beobachtungswertes des Sensors B überlappt den Fehlerbereich des Vorhersageaktualisierungsergebnisses. Somit werden die drei Zielobjekte, die am Beobachtungspunkt 2 beobachtet werden, in eines integriert und als ein Gegenstand erkannt.
  • Da in dem Fehlerschätzungsprozess (S1) in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit der Art und der Eigenschaft des Sensors berechnet wird und der Fehlerbereich eingestellt wird, ist es möglich, Zielobjekte, die durch die mehreren Sensoren beobachtet werden, genau zu integrieren und die Zielobjekte als einen Gegenstand zu erkennen. Das heißt, da die Genauigkeit des Gruppierungsprozesses verbessert wird und die Position eines Gegenstands außerhalb des Fahrzeugs genau beobachtet werden kann, ist es möglich, das Fahrzeug genau zu steuern.
  • Außerdem kann in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit dem Beobachtungsergebnis des Sensors berechnet werden. Daher kann die Sensorgegenstandsinformationen-Integrationseinheit D010 den Fehlerbereich unter Verwendung einer Funktion bestimmen, die das Beobachtungsergebnis (z. B. den Abstand zum Zielobjekt) als einen Parameter verwendet. Die Sensorgegenstandsinformationen-Integrationseinheit D010 kann den Fehlerbereich unter Verwendung einer Fehlertabelle, die vorab eingestellt wird, anstelle der Funktion bestimmen.
  • Zum Beispiel weist der Sensor im Allgemeinen an einem Detektionsbereichsende einen größeren Fehler als in der Mitte eines Detektionsbereichs auf. Daher kann der Fehler des Zielobjekts, das in der Mitte des Detektionsbereichs detektiert wird, kleiner eingestellt werden, und der Fehler des Zielobjekts, das in einem Abschnitt näher am Ende einer Detektionsverlagerung detektiert wird, kann größer eingestellt werden.
  • Außerdem weist das Radar als eine Art von Sensor einen kleinen Fehler in der Abstandsrichtung (vertikalen Richtung) und einen großen Fehler in der Drehungsrichtung (horizontalen Richtung) auf, jedoch variiert der Fehlerbereich abhängig vom Abstand zum Zielobjekt. Das heißt, der Fehler in der Drehungsrichtung (horizontalen Richtung) nimmt proportional zum Abstand zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) ist ungeachtet des Abstands im Wesentlichen derselbe. Außerdem nimmt bei dem Radar, das eine Bereichsumschaltfunktion aufweist, der Fehler in der Drehungsrichtung (horizontalen Richtung) auf der Weitwinkelseite (Seite mit kurzem Abstand) zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) ist ungeachtet des Bereichs im Wesentlichen derselbe.
  • Die Kamera als eine Art von Sensor weist einen kleinen Fehler in der Abstandsrichtung (vertikalen Richtung) und einen großen Fehler in der Drehungsrichtung (horizontalen Richtung) auf, jedoch variiert der Fehlerbereich abhängig vom Abstand zum Zielobjekt. Das heißt, der Fehler in der Drehungsrichtung (horizontalen Richtung) nimmt proportional zum Abstand zu und der Fehler in der Abstandsrichtung (vertikalen Richtung) nimmt proportional zum Quadrat des Abstands zu.
  • Da in der vorliegenden Ausführungsform wie oben beschrieben der Fehler des Sensors in Übereinstimmung mit der Position des beobachteten Zielobjekts berechnet wird und der Fehlerbereich eingestellt wird, ist es möglich, den Fehler des Beobachtungswertes des Sensors genau zu erhalten. Insbesondere wird der Fehler vergrößert, wenn der Abstand zum Zielobjekt groß ist; wird der Fehler in Übereinstimmung mit der Detektionsrichtung des Zielobjekts geändert, wird der Fehler des Zielobjekts nahe am Ende des Detektionsbereichs vergrößert und wird der Fehler auf einer Weitwinkelseite vergrößert. Daher ist es möglich, einen angemessenen Fehlerbereich für den Gruppierungsprozess zu verwenden. Daher ist es möglich, Zielobjekte, die durch mehrere Sensoren beobachtet werden, genau zu integrieren und die Zielobjekte als einen Gegenstand zu erkennen. Das heißt, da die Genauigkeit des Gruppierungsprozesses verbessert wird und die Position eines Gegenstands außerhalb des Fahrzeugs genauer beobachtet werden kann, ist es möglich, das Fahrzeug genau zu steuern.
  • In der vorliegenden Ausführungsform kann der Fehler in Übereinstimmung mit der Umgebung des externen Bereichs berechnet werden. Zum Beispiel ist der Sensorfehler bei gutem Wetter klein und bei regnerischem Wetter groß. Außerdem weist die Kamera als eine Art von Sensor unter Tags, wenn die Beleuchtungsstärke des externen Bereichs hoch ist, einen kleinen Fehler auf und weist nachts, wenn die Beleuchtungsstärke des externen Bereichs niedrig ist, einen großen Fehler auf.
  • Da, wie oben beschrieben ist, in der vorliegenden Ausführungsform der Fehler in Übereinstimmung mit der Umgebung außerhalb des Fahrzeugs berechnet wird, ist es möglich, einen genaueren Fehler zu berechnen, die Genauigkeit des Gruppierungsprozesses zu verbessern und das Fahrzeug genau zu steuern.
  • Die vorliegende Erfindung ist nicht auf die oben beschriebene Ausführungsform eingeschränkt und enthält diverse Modifikationen und äquivalente Konfigurationen innerhalb des Erfindungsgedankens der beigefügten Ansprüche. Zum Beispiel sind die obigen Beispiele im Einzelnen beschrieben, um die vorliegende Erfindung auf einfach zu verstehende Weise zu erklären, und die vorliegende Erfindung ist nicht notwendigerweise auf einen Fall eingeschränkt, der alle beschriebenen Konfigurationen enthält. Außerdem kann ein Abschnitt der Konfiguration eines Beispiels durch die Konfiguration eines weiteren Beispiels ersetzt werden. Ferner kann die Konfiguration eines Beispiels zur Konfiguration eines weiteren Beispiels hinzugefügt werden.
  • Bezüglich einiger Komponenten in den Beispielen können andere Komponenten hinzugefügt, gelöscht oder ersetzt werden.
  • Außerdem können einige oder alle der oben beschriebenen Konfigurationen, Funktionen, Verarbeitungseinheiten, Verarbeitungsmittel und dergleichen durch Hardware realisiert sein, indem sie z. B. mit einer integrierten Schaltung entworfen sind, oder können durch Software realisiert sein, indem ein Prozessor ein Programm zum Realisieren jeder Funktion interpretiert und ausführt.
  • Informationen wie etwa ein Programm, eine Tabelle und eine Datei, die jede Funktion realisieren, können in einem Datenspeicher, einer Speichervorrichtung wie etwa einer Festplatte und einem Festkörperlaufwerk (SSD) oder einem Aufzeichnungsmedium wie etwa einer IC-Karte, einer SD-Karte und einer DVD gespeichert sein.
  • Steuerleitungen und Informationsleitungen, die für die Beschreibungen als notwendig erachtet werden, sind veranschaulicht, und es sind nicht notwendigerweise alle Steuerleitungen und Informationsleitungen im Zusammenbau gezeigt. In der Praxis kann in Betracht gezogen werden, dass nahezu alle Komponenten miteinander verbunden sind.
  • Bezugszeichenliste
  • D001
    Sensor zur Erkennung einer Bewegung des eigenen Fahrzeugs
    D002
    Sensorgruppe zur Erkennung eines externen Bereichs
    D003
    Positionsbestimmungssystem
    D004
    Karteneinheit
    D005
    Eingangskommunikationsnetz
    D006
    Sensorerkennungs-Integrationsvorrichtung
    D007
    Vorrichtung zur Bestimmung eines Plans zum autonomen Fahren
    D008
    Aktorengruppe
    D009
    Informationsspeichereinheit
    D010
    Sensorgegenstandsinformationen-Integrationseinheit
    D011
    Integrationseinheit für Umgebungsinformationen des eigenen Fahrzeugs
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2018097765 A [0002, 0003]

Claims (10)

  1. Fahrzeugsteuersystem, das Folgendes umfasst: eine Integrationseinheit, die auf der Grundlage von Informationen von einem Sensor, der Informationen über den externen Bereich eines eigenen Fahrzeugs erfasst, Informationen über eine Position und eine Geschwindigkeit eines Zielobjekts, das in einem externen Bereich vorhanden ist, und Fehler der Position und der Geschwindigkeit schätzt, wobei die Integrationseinheit einen Fehler eines Detektionsergebnisses aus dem Detektionsergebnis eines Sensors, der einen externen Bereich eines Fahrzeugs detektiert, in Übereinstimmung mit einer Eigenschaft des Sensors bestimmt, eine Korrelation zwischen Detektionsergebnissen mehrerer Sensoren bestimmt und korrelierte Detektionsergebnisse integriert und die Fehler der Position und der Geschwindigkeit des Zielobjekts berechnet.
  2. Fahrzeugsteuersystem nach Anspruch 1, wobei der Fehler durch eine Wahrscheinlichkeitsverteilung dargestellt wird.
  3. Fahrzeugsteuersystem nach Anspruch 1, wobei die Integrationseinheit eine Position und eine Geschwindigkeit des Zielobjekts und Fehler der Position und der Geschwindigkeit zu einem zweiten Zeitpunkt nach einem ersten Zeitpunkt aus einer Position und einer Geschwindigkeit des Zielobjekts und Fehlern der Position und der Geschwindigkeit zum ersten Zeitpunkt vorhersagt, ohne das Detektionsergebnis des Sensors zu verwenden, eine Korrelation zwischen den Detektionsergebnissen der mehreren Sensoren und einer vorhergesagten Position des Zielobjekts bestimmt und das Detektionsergebnis und die vorhergesagte Position des Zielobjekts, die miteinander korreliert sind, integriert und die Fehler der Position und der Geschwindigkeit des Zielobjekts berechnet.
  4. Fahrzeugsteuersystem nach Anspruch 1, wobei die Integrationseinheit den Fehler von jedem der Detektionsergebnisse schätzt, nachdem die Detektionsergebnisse der mehreren Sensoren in ein Koordinatensystem umgesetzt worden sind.
  5. Fahrzeugsteuersystem nach Anspruch 1, wobei die Integrationseinheit den Fehler des Detektionsergebnisses in Übereinstimmung mit der Position des Zielobjekts bestimmt.
  6. Fahrzeugsteuersystem nach Anspruch 5, wobei die Integrationseinheit den Fehler derart schätzt, dass der Fehler des Detektionsergebnisses zunimmt, wenn der Abstand zum Zielobjekt zunimmt.
  7. Fahrzeugsteuersystem nach Anspruch 6, wobei die Integrationseinheit den Fehler derart schätzt, dass der Fehler des Detektionsergebnisses zu einem Quadrat des Abstands zum Zielobjekt proportional ist.
  8. Fahrzeugsteuersystem nach Anspruch 1, wobei die Integrationseinheit den Fehler derart schätzt, dass der Fehler des Detektionsergebnisses bei Annäherung an ein Ende eines Detektionsbereichs des Sensors zunimmt.
  9. Fahrzeugsteuersystem nach Anspruch 1, wobei die Integrationseinheit den Fehler derart schätzt, dass der Fehler des Detektionsergebnisses zunimmt, wenn sich die Eigenschaft des Sensors zu einer Weitwinkelseite ändert.
  10. Fahrzeugsteuerverfahren, das durch ein Fahrzeugsteuersystem durchgeführt wird, das eine Integrationseinheit enthält, die auf der Grundlage von Informationen von einem Sensor, der Informationen über den externen Bereich eines eigenen Fahrzeugs erfasst, Informationen über eine Position und eine Geschwindigkeit eines Zielobjekts, das in einem externen Bereich vorhanden ist, und Fehler der Position und der Geschwindigkeit schätzt, wobei das Fahrzeugsteuerverfahren Folgendes umfasst: Schätzen eines Fehlers eines Detektionsergebnisses aus einem Detektionsergebnis eines Sensors, der einen externen Bereich eines Fahrzeugs detektiert, durch die Integrationseinheit in Übereinstimmung mit einer Eigenschaft des Sensors; Bestimmen einer Korrelation zwischen Detektionsergebnissen von mehreren Sensoren durch die Integrationseinheit; und Integrieren korrelierter Detektionsergebnisse und Berechnen der Fehler der Position und der Geschwindigkeit des Zielobjekts durch die Integrationseinheit.
DE112020002037.1T 2019-05-23 2020-05-15 Fahrzeugsteuersystem und Fahrzeugsteuerverfahren Pending DE112020002037T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-096642 2019-05-23
JP2019096642 2019-05-23
PCT/JP2020/019403 WO2020235466A1 (ja) 2019-05-23 2020-05-15 車両制御システム及び車両制御方法

Publications (1)

Publication Number Publication Date
DE112020002037T5 true DE112020002037T5 (de) 2022-03-24

Family

ID=73458917

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020002037.1T Pending DE112020002037T5 (de) 2019-05-23 2020-05-15 Fahrzeugsteuersystem und Fahrzeugsteuerverfahren

Country Status (4)

Country Link
US (1) US20220227396A1 (de)
JP (1) JP7181997B2 (de)
DE (1) DE112020002037T5 (de)
WO (1) WO2020235466A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210181758A1 (en) * 2019-10-26 2021-06-17 Zoox, Inc. Object detection and tracking
KR20230011696A (ko) * 2021-07-14 2023-01-25 (주)스마트레이더시스템 레이더를 이용한 타겟 검출 장치 및 방법
JP2023118437A (ja) * 2022-02-15 2023-08-25 日立Astemo株式会社 物標算出方法、演算装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097765A (ja) 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4405940A (en) * 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
CA2132515C (en) * 1992-03-20 2006-01-31 Glen William Auty An object monitoring system
KR100228068B1 (ko) * 1996-08-30 1999-12-01 김태구 센서의 오차보정방법
EP1314950B1 (de) * 2001-11-23 2005-11-16 Oerlikon Contraves Ag Verfahren und Vorrichtung zum Beurteilen der Richtfehler eines Waffensystems und Verwendung der Vorrichtung
JP3925332B2 (ja) * 2002-07-04 2007-06-06 日産自動車株式会社 車両用外界認識装置
US20060287824A1 (en) * 2005-01-29 2006-12-21 American Gnc Corporation Interruption free navigator
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
DE102011087339A1 (de) * 2011-11-29 2012-11-15 Siemens Aktiengesellschaft Verfahren zum Erkennen eines Messfehlers sowie Einrichtung für ein Fahrzeug
JP6409680B2 (ja) * 2015-05-29 2018-10-24 株式会社デンソー 運転支援装置、運転支援方法
WO2017002258A1 (ja) * 2015-07-02 2017-01-05 三菱電機株式会社 経路予測装置
JP6256531B2 (ja) * 2016-06-10 2018-01-10 三菱電機株式会社 物体認識処理装置、物体認識処理方法および自動運転システム
JP6643215B2 (ja) * 2016-09-29 2020-02-12 株式会社デンソー 他車線監視装置
JP7007632B2 (ja) * 2017-08-03 2022-01-24 住友電気工業株式会社 検知装置、検知方法および検知プログラム
JP7018277B2 (ja) * 2017-09-14 2022-02-10 株式会社デンソー 物体検出装置、物体検出方法及び車両制御システム
JP7194275B2 (ja) * 2019-05-23 2022-12-21 日立Astemo株式会社 車両制御システム及び車両制御方法
JP7225400B2 (ja) * 2019-07-03 2023-02-20 日立Astemo株式会社 車両制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097765A (ja) 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Also Published As

Publication number Publication date
JP7181997B2 (ja) 2022-12-01
US20220227396A1 (en) 2022-07-21
WO2020235466A1 (ja) 2020-11-26
JPWO2020235466A1 (de) 2020-11-26

Similar Documents

Publication Publication Date Title
DE112020002037T5 (de) Fahrzeugsteuersystem und Fahrzeugsteuerverfahren
DE112018006161B4 (de) System und Verfahren zum Steuern eines Fahrzeugs
DE10115080B4 (de) Objekterkennungssystem
DE102017105305A1 (de) Verfahren zur automatischen bestimmung einer sensorstellung
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE112016006692T5 (de) Verfahren zur Vorhersage einer Bewegung eines Objekts
DE10055572C1 (de) Verfahren zur Leitungserkennung für tieffliegende Fluggeräte
DE102018113992A1 (de) Verfahren und Gerät zum Erfassen einer Fahrspur
DE112019001542T5 (de) Positionsschätzvorrichtung
DE112018004529T5 (de) Positionsschätzeinrichtung und positionsschätzverfahren einer mobileinheit
DE102018201154A1 (de) Verfahren zur Kalibrierung von Sensoren und/oder von Sensoranordnungen
DE102019215811A1 (de) Vorrichtung und verfahren zum erkennen des standortes in einem autonomen fahrzeug
DE112019000325T5 (de) Vorrichtung zur vorhersage des verhaltens eines sich bewegenden objekts
DE102020200911B3 (de) Verfahren zum Erkennen von Objekten in einer Umgebung eines Fahrzeugs
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE112020002138T5 (de) Fahrzeugsteuersystem und Fahrzeugsteuerverfahren
DE112018007297T5 (de) Aktion-Auswahleinrichtung, Aktion-Auswahlprogramm und Aktion-Auswahlverfahren
DE102020109598A1 (de) System und Verfahren zum Verfolgen eines angekoppelten Fahrzeugs
DE102019126631A1 (de) Verbesserte Trajektorienschätzung basierend auf Ground Truth
CN107316331B (zh) 针对道路图像的灭点自动标定方法
DE102023001750A1 (de) Verfahren und System zur Messung des Fahrzeugabstands, Fahrzeug und Programmprodukt
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE112019002050T5 (de) Gegenstandsdetektionsvorrichtung für ein Fahrzeug
DE112019006588T5 (de) Informationsverarbeitungsvorrichtung, programm und informationsverarbeitungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed