DE112021002118T5 - Sensorerkennungsintegrationsvorrichtung - Google Patents

Sensorerkennungsintegrationsvorrichtung Download PDF

Info

Publication number
DE112021002118T5
DE112021002118T5 DE112021002118.4T DE112021002118T DE112021002118T5 DE 112021002118 T5 DE112021002118 T5 DE 112021002118T5 DE 112021002118 T DE112021002118 T DE 112021002118T DE 112021002118 T5 DE112021002118 T5 DE 112021002118T5
Authority
DE
Germany
Prior art keywords
integration
information
object information
sensor
processing mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021002118.4T
Other languages
English (en)
Inventor
Yuya Tanaka
Katsuro Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of DE112021002118T5 publication Critical patent/DE112021002118T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Es wird eine Sensorerkennungsintegrationsvorrichtung geschaffen, die die Last der Integrationsverarbeitung verringern kann, um die minimal nötige Genauigkeit zu erfüllen, die zur Fahrzeugbewegungssteuerung erforderlich ist, und die Verarbeitungsleistung einer ECU verbessern und eine Zunahme der Kosten verhindern kann. Eine Sensorerkennungsintegrationsvorrichtung B006, die mehrere Teile von Objektinformationen, die mit einem Objekt in der Nähe eines Trägerfahrzeugs in Beziehung stehen und durch mehrere Außenerkennungssensoren detektiert wurden, integriert, enthält Folgendes: eine Vorhersageaktualisierungseinheit 100, die vorhergesagte Objektinformationen, die durch Vorhersagen einer Aktion des Objekts erhalten werden, erzeugt; eine Zuordnungseinheit 101, die eine Beziehung zwischen den vorhergesagten Objektinformationen und den mehreren Teilen von Objektinformationen berechnet; eine Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die einen Integrationsverarbeitungsmodus zum Bestimmen eines Verfahrens zum Integrieren der mehreren Teile von Objektinformationen auf der Grundlage einer Positionsbeziehung zwischen einem bestimmten Bereich (z. B. ein Grenzabschnitt) in einem Überlappungsbereich von Detektionsbereichen der mehreren Außenerkennungssensoren und den vorhergesagten Objektinformationen wechselt; und eine Integrationszielinformations-Erzeugungseinheit 104, die die mehreren Teile von Objektinformationen, die den vorhergesagten Objektinformationen zugeordnet sind, auf der Grundlage des Integrationsverarbeitungsmodus integriert.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Sensorerkennungsintegrationsvorrichtung zum Verarbeiten der Integration mehrerer Teile von Objektdaten (Objektinformationen), z. B. von mehreren Sensoren verschiedener Typen mit einer niedrigen Last.
  • Technischer Hintergrund
  • Beim autonomen Fahren eines Personenkraftwagens wird ein Objekt in der Nähe des Trägerfahrzeugs erkannt und wird das Fahren in Übereinstimmung mit dem Objekt geplant und bestimmt. Es existieren verschiedene Sensoren zum Detektieren eines Objekts wie z. B. ein Radar, eine Kamera, ein Sonar und ein Laserradar. Da diese Sensoren verschiedene Bedingungen für einen Detektionsbereich, ein detektierbares Objekt, eine Detektionsgenauigkeit, Kosten und dergleichen aufweisen, ist es nötig, mehrere Sensoren gemäß einem Zweck zu kombinieren und Objektinformationen, die durch sämtliche Sensoren detektiert oder erfasst werden, zu integrieren. Allerdings ist es dann, wenn die Anzahl von Objekten, die verarbeitet werden sollen, zunimmt, nötig, die Verarbeitungsleistung einer ECU abhängig von den Verarbeitungskosten der Integration zu verbessern, und ist es somit nötig, die Last der Integrationsverarbeitung zu verringern. Die „Verarbeitungskosten“ beziehen sich auf eine Verarbeitungszeit für die Integration.
  • PTL 1 ist ein Dokument des Stands der Technik, das die Last des Verarbeitens von Informationen mehrerer Sensoren verringert. Die Technik, die in 1 von PTL 1 offenbart ist, enthält Folgendes: ein erstes Radar, das einen ersten Detektionsbereich aufweist und eine Berechnung in einer langen Berechnungszeit durchführt; ein zweites Radar, das einen zweiten Detektionsbereich, der mit dem ersten Detektionsbereich überlappt, aufweist und eine Berechnung in einer kurzen Berechnungszeit durchführt; ein erstes Bestimmungsmittel, das eine Anwesenheitsbestimmung eines Ziels auf der Grundlage eines Berechnungsergebnisses des ersten Radars durchführt; ein zweites Bestimmungsmittel, das eine Anwesenheitsbestimmung eines Ziels auf der Grundlage eines Berechnungsergebnisses des zweiten Radars durchführt; ein Anwesenheitsbestätigungsmittel, das die Anwesenheit eines Ziels aus einem Anwesenheitsbestimmungsergebnis des ersten Bestimmungsmittels bestätigt; und ein Festlegungsmittel, das ein Berechnungsergebnis des zweiten Radars in das zweite Bestimmungsmittel eingibt und das zweite Bestimmungsmittel veranlasst, nach Bestätigung eines vorhergehenden Ziels eine aktuelle Anwesenheitsbestimmung durchzuführen, wenn das Ziel, dessen Vorliegen durch das Anwesenheitsbestätigungsmittel bestätigt wurde, in einem Überlappungsbereich des ersten und des zweiten Radars vorhanden ist. In dieser Zieldetektionsvorrichtung kann, wenn die Anwesenheit des Ziels im Überlappungsbereich des ersten und des zweiten Radars bestätigt wird, die Anwesenheit oder das Fehlen des nächsten Ziels selbst mit niedriger Genauigkeit bestätigt werden. Deshalb gibt dann, wenn das Ziel, dessen Vorliegen durch das Anwesenheitsbestätigungsmittel bestätigt wurde, im Überlappungsbereich vorhanden ist, das Festlegungsmittel das Berechnungsergebnis, das durch das zweite Radar in der kurzen Berechnungszeit erhalten wird, in das zweite Bestimmungsmittel ein und verursacht, dass das zweite Bestimmungsmittel, nach der Bestätigung des vorhergehenden Ziels die aktuelle Anwesenheit bestimmt. Somit kann das Ziel bei hoher Geschwindigkeit detektiert werden. Wenn das Ziel aus dem nicht überlappenden Detektionsbereich des zweiten Radars in den Überlappungsbereich mit dem ersten Radar eintritt, kann der Berechnungsaufwand durch Verengen des Detektionsbereichs durch Setzen des fokussierten Detektionsbereichs in der Nähe der Grenze zwischen dem Überlappungsbereich und dem Nichtüberlappungsbereich verringert werden.
  • Entgegenhaltungsliste
  • Patentliteratur
  • PTL 1: JP 2006-046962 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Allerdings wird in PTL 1 angenommen, dass die Sensoren vom selben Typ wie z. B. die Radare sind, und wenn ein Ziel aus dem nicht überlappenden Detektionsbereich des zweiten Radars in den Überlappungsbereich mit dem ersten Radar eintritt, wird lediglich der Detektionsbereich in der Nähe der Grenze zwischen dem Überlappungsbereich und dem Nichtüberlappungsbereich verengt und besteht z. B. in einer Systemkonfiguration, die mehrere Typen von Sensoren verarbeitet, das Problem, dass die Last der Integrationsverarbeitung nicht verringert werden kann, während die Genauigkeit unter Verwendung der Merkmale der mehreren Typen von Sensoren aufrechterhalten wird.
  • Die vorliegende Erfindung würde im Hinblick auf die oben beschriebenen Umstände gemacht und eine Aufgabe der vorliegenden Erfindung ist, eine Sensorerkennungsintegrationsvorrichtung zu schaffen, die die Last der Integrationsverarbeitung verringern kann, um die minimal nötige Genauigkeit zu erfüllen, die zur Fahrzeugbewegungssteuerung erforderlich ist, und die Verarbeitungsleistung einer ECU verbessern und eine Zunahme der Kosten verhindern kann.
  • Lösung des Problems
  • Um das oben beschriebene Problem zu lösen, ist eine Sensorerkennungsintegrationsvorrichtung gemäß der vorliegenden Erfindung eine Sensorerkennungsintegrationsvorrichtung, die mehrere Teile von Objektinformationen, die mit einem Objekt in der Nähe eines Trägerfahrzeugs, das durch mehrere Außenerkennungssensoren detektiert wurde, in Beziehung stehen, integriert, wobei die Sensorerkennungsintegrationsvorrichtung Folgendes enthält: eine Vorhersageaktualisierungseinheit, die vorhergesagte Objektinformationen erzeugt, die durch Vorhersagen einer Aktion des Objekts auf der Grundlage einer Aktion des Trägerfahrzeugs, die aus einem Verhalten des Trägerfahrzeugs und den Objektinformationen, die durch die Außenerkennungssensoren detektiert wurden, geschätzt wird, erhalten werden; eine Zuordnungseinheit, die eine Beziehung zwischen den vorhergesagten Objektinformationen und den mehreren Teilen von Objektinformationen berechnet; eine Integrationsverarbeitungsmodus-Bestimmungseinheit, die einen Integrationsverarbeitungsmodus zum Bestimmen eines Verfahrens zum Integrieren der mehreren Teile von Objektinformationen auf der Grundlage einer Positionsbeziehung zwischen einem bestimmten Bereich in einem Überlappungsbereich von Detektionsbereichen der mehreren Außenerkennungssensoren und den vorhergesagten Objektinformationen wechselt; und eine Integrationszielinformations-Erzeugungseinheit, die die mehreren Teile von Objektinformationen, die den vorhergesagten Objektinformationen zugeordnet sind, auf der Grundlage des Integrationsverarbeitungsmodus integriert.
  • Vorteilhafte Wirkungen der Erfindung
  • Gemäß der vorliegenden Erfindung ist es möglich, die Last der Integrationsverarbeitung zu verringern, um die minimal nötige Genauigkeit, die für die Fahrzeugbewegungssteuerung gemäß der Detektionssituation erforderlich ist, zu erfüllen, und ist es möglich, die Wirkungen des Verbesserns der Verarbeitungsleistung einer ECU und des Verhinderns einer Zunahme der Kosten zu erhalten.
  • Probleme, Konfigurationen und Wirkungen außer den oben beschriebenen werden von der folgenden Beschreibung von Ausführungsformen verdeutlicht.
  • Figurenliste
    • [1] 1 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 gemäß einer ersten Ausführungsform der vorliegenden Erfindung enthält.
    • [2] 2 ist ein Sensorkonfigurationsbeispiel für eine Sensorobjektinformations-Integrationseinheit B010 der Sensorerkennungsintegrationsvorrichtung B006 gemäß der ersten Ausführungsform der vorliegenden Erfindung.
    • [3] 3 ist ein Funktionsblockdiagramm der Sensorobjektinformations-Integrationseinheit B010 der Sensorerkennungsintegrationsvorrichtung B006 gemäß der ersten Ausführungsform der vorliegenden Erfindung.
    • [4] 4 ist ein Ablaufplan einer Zuordnungseinheit 101, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
    • [5] 5 ist ein Ablaufplan einer Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
    • [6] 6 ist ein Ablaufplan einer Integrationszielinformations-Erzeugungseinheit 104, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
    • [7] 7 ist ein Ablaufplan einer Vorhersageaktualisierungseinheit 100, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
    • [8] 8 ist ein Ablaufplan einer Integrationsaktualisierungseinheit 105, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird.
    • [9] 9 ist ein Diagramm eines Integrationsbeispiels (eines Integrationsverarbeitungsmodus mit hoher Verarbeitungslast), wobei Komponenten, die einen kleinen Fehler jedes Sensors aufweisen, als Integrationsverarbeitung der Integrationszielinformations-Erzeugungseinheit 104 in 6 kombiniert werden.
    • [10] 10 ist ein Diagramm eines Integrationsbeispiels (eines Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast), wobei ein Objekt jedes Sensors durch eine Durchschnittsverarbeitung als Integrationsverarbeitung der Integrationszielinformations-Erzeugungseinheit 104 in 6 berechnet wird.
    • [11] 11 ist ein Diagramm, das ein Beispiel der Verwendung eines Überlappungsbereichs und eines Grenzabschnitts von Detektionsbereichen als Bedingungen der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in 5 veranschaulicht.
    • [12] 12 ist ein schematisches Diagramm zum Berechnen einer Entfernung zwischen einem Ziel und dem Grenzabschnitt des Überlappungsbereichs der Detektionsbereiche in 11.
    • [13] 13 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 enthält, die eine Fahrtroutenschätzeinheit B012 gemäß einer zweiten Ausführungsform der vorliegenden Erfindung aufweist.
    • [14] 14 ist ein Diagramm, das ein Beispiel der Verwendung einer Fahrtroute als eine Bedingung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in 5 veranschaulicht.
    • [15] 15 ist ein Diagramm, das ein Beispiel der Verwendung einer Zuverlässigkeit als eine Bedingung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in 5 veranschaulicht.
    • [16] 16 ist ein Diagramm, das eine Kombination mehrerer Bedingungen der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 veranschaulicht.
    • [17] 17 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 enthält, die einen geplanten Pfad von einer Planbestimmungsvorrichtung B007 für autonomes Fahren gemäß einer fünften Ausführungsform der vorliegenden Erfindung als Eingabe aufweist.
    • [18] 18 ist ein Funktionsblockdiagramm einer Sensorobjektinformations-Integrationseinheit B010 einer Sensorerkennungsintegrationsvorrichtung B006 gemäß einer siebten Ausführungsform der vorliegenden Erfindung.
  • Beschreibung der Ausführungsformen
  • Im Folgenden werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen genau beschrieben. In allen Zeichnungen zum Beschreiben der Ausführungsformen der Erfindung werden Abschnitte, die dieselben Funktionen besitzen, durch dieselben Bezugszeichen bezeichnet und wird ihre wiederholte Beschreibung ausgelassen.
  • <<Erste Ausführungsform>>
  • <Gesamtkonfiguration des Systems für autonomes Fahren>
  • 1 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 gemäß einer ersten Ausführungsform der vorliegenden Erfindung enthält. Das System für autonomes Fahren gemäß der vorliegenden Ausführungsform ist ein System, das ein Objekt in der Nähe eines Trägerfahrzeugs (der Außenwelt) in einem Fahrzeug wie z. B. einem Personenkraftwagen erkennt und ein Fahren gemäß dem Objekt plant und bestimmt, eine Fahrzeugbewegungssteuerung automatisch durchführt oder den Fahrvorgang (das Lenken) eines Fahrers unterstützt.
  • [Beschreibung der Konfiguration]
  • Das System für autonomes Fahren gemäß der vorliegenden Ausführungsform enthält eine Informationserfassungsvorrichtung B000, ein Eingabekommunikationsnetz B005, die Sensorerkennungsintegrationsvorrichtung B006, eine Planbestimmungsvorrichtung B007 für autonomes Fahren und eine Aktorgruppe B008. Die Informationserfassungsvorrichtung B000 enthält einen Trägerfahrzeug-Verhaltenserkennungssensor B001, eine Außenerkennungssensorgruppe B002, ein Positionierungssystem B003 und eine Karteneinheit B004. Die Sensorerkennungsintegrationsvorrichtung B006 enthält eine Informationsspeichereinheit B009, eine Sensorobjektinformations-Integrationseinheit B010 und eine Trägerfahrzeugumgebungsinformations-Integrationseinheit B011.
  • [Beschreibung der Eingabe und Ausgabe]
  • Der Trägerfahrzeug-Verhaltenserkennungssensor B001 gibt erkannte Informationen D001 zum Eingabekommunikationsnetz B005 aus.
  • Die Außenerkennungssensorgruppe B002 gibt erkannte Informationen D002 zum Eingabekommunikationsnetz B005 aus.
  • Das Positionierungssystem B003 gibt positionierte Informationen D003 zum Eingabekommunikationsnetz B005 aus.
  • Die Karteneinheit B004 gibt erfasste Informationen D004 zum Eingabekommunikationsnetz B005 aus.
  • D001, D002, D003 und D004 werden in das Eingabekommunikationsnetz B005 eingegeben und das Eingabekommunikationsnetz B005 gibt Informationen D005a, die durch das Kommunikationsnetz fließen, zur Sensorerkennungsintegrationsvorrichtung B006 aus. D001 werden in das Eingabekommunikationsnetz B005 eingegeben und das Eingabekommunikationsnetz B005 gibt Informationen D005b, die durch das Kommunikationsnetz fließen, zur Planbestimmungsvorrichtung B007 für autonomes Fahren aus.
  • Die Sensorerkennungsintegrationsvorrichtung B006 empfängt die Informationen D005a vom Eingabekommunikationsnetz B005 als Eingabe und gibt ein Integrationsergebnis D011, das Fahrzeugumgebungsinformationen sind, als Ausgabeinformationen zur Planbestimmungsvorrichtung B007 für autonomes Fahren aus.
  • Die Planbestimmungsvorrichtung 8007 für autonomes Fahren empfängt die Informationen D005b vom Eingabekommunikationsnetz B005 und das Integrationsergebnis D011 von der Sensorerkennungsintegrationsvorrichtung B006 als Eingabe und gibt ein Planbestimmungsergebnis D007 als Anweisungsinformationen zur Aktorgruppe B008 als Ausgabeinformationen aus.
  • Die Informationen D005a vom Eingabekommunikationsnetz B005 werden in die Informationsspeichereinheit B009 eingegeben und die Informationsspeichereinheit B009 gibt gespeicherte Informationen D009a zur Sensorobjektinformations-Integrationseinheit B010 aus. Die , Informationsspeichereinheit B009 gibt gespeicherte Informationen D009b zur Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 aus.
  • Die Sensorobjektinformatiöns-Integrationseinheit B010 empfängt die Informationen D009a von der Informationsspeichereinheit B009 als Eingabe und gibt ein Integrationsergebnis D010, d. h. integrierte Objektinformationen, zur Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 als Ausgabeinformationen aus.
  • Die Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 empfängt die Informationen D009b von der Informationsspeichereinheit B009 als Eingabe und gibt ein Integrationsergebnis D011, d. h. Fahrzeugumgebungsinformationen, zur Planbestimmungsvorrichtung B007 für autonomes Fahren als Ausgabeinformationen aus.
  • [Beschreibung der Daten]
  • Der Trägerfahrzeug-Verhaltenserkennungssensor B001 enthält einen Kreiselsensor, einen Raddrehzahlsensor, einen Lenkwinkelsensor, einen Beschleunigungssensor und dergleichen, die am Fahrzeug montiert sind, und die erkannten Informationen D001 enthalten eine Gierrate, eine Raddrehzahl, einen Lenkwinkel, eine Beschleunigung und dergleichen, die das Verhaltens des Trägerfahrzeugs repräsentieren.
  • Die Informationen D002, die von der Außenerkennungssensorgruppe B002 erkannt werden, enthalten Informationen (Positionsinformationen, Geschwindigkeitsinformationen und dergleichen), die durch Detektieren eines Objekts außerhalb (in der Nähe) das Trägerfahrzeug erhalten werden, eine weiße Linie einer Fahrbahn, ein Verkehrszeichen und dergleichen. Als die Außenerkennungssensorgruppe B002 wird eine Kombination mehrerer Außenerkennungssensoren (die im Folgenden einfach als ein Sensor bezeichnet wird) wie z. B. ein Radar, eine Kamera und ein Sonar verwendet. Zusätzlich können V2X und C2X enthalten sein und ist die Konfiguration des Sensors nicht besonders beschränkt.
  • Die positionierten Informationen D003 vom Positionierungssystem B003 enthalten ein Ergebnis des Schätzens der Position des Trägerfahrzeugs. Ein Beispiel des Positionierungssystems B003 ist ein Satellitenpositionierungssystem.
  • Die Informationen D004, die von der Karteneinheit B004 erfasst werden, enthalten Karteninformationen in der Nähe des Trägerfahrzeugs. Zusätzlich können die erfassten Informationen D004 zusammenwirkend mit einer Navigation Routeninformationen enthalten.
  • Die Informationen D005a vom Eingabekommunikationsnetz B005 enthalten alle oder ein Teil der Informationen D001, D002, D003 und D004. Ferner enthalten die Informationen D005b mindestens die Informationen D001. Als das Eingabekommunikationsnetz B005 wird ein Steuereinheitsbereichsnetz (CAN), Ethernet (eingetragenes Warenzeichen), drahtlose Kommunikation oder dergleichen, was ein Netz ist, das in fahrzeuginternen Systemen im Allgemeinen verwendet wird, verwendet.
  • Die Ausgabeinformationen D011 von der Sensorerkennungsintegrationsvorrichtung B006 enthalten Daten, die durch Integrieren als Fahrzeugumgebungsinformationen von Fahrzeugverhaltensinformationen, Sensorobjektinformationen, Sensorfahrbahninformationen, Positionierungsinformationen und Karteninformationen vom Eingabekommunikationsnetz B005 erhalten werden.
  • Die Anweisungsinformationen D007 von der Planbestimmungsvorrichtung B007 für autonomes Fahren enthalten Informationen, die durch Planen und Bestimmen, wie das Trägerfahrzeug bewegt werden soll, auf der Grundlage der Informationen vom Eingabekommunikationsnetz B005 und den Trägerfahrzeugumgebungsinformationen von der Sensorerkennungsintegrationsvorrichtung B006 erhalten werden.
  • Die Aktorgruppe B008 betreibt das Fahrzeug in Übereinstimmung mit den Anweisungsinformationen D007 von der Planbestimmungsvorrichtung B007 für autonomes Fahren. Die Aktorgruppe B008 enthält verschiedene Aktoren wie z. B. eine Fahrpedalvorrichtung, eine Bremsvorrichtung und eine Lenkvorrichtung, die am Fahrzeug montiert sind.
  • [Beschreibung der Unterkonfiguration]
  • Die Sensorerkennungsintegrationsvorrichtung B006 gemäß der vorliegenden Ausführungsform enthält die Informationsspeichereinheit B009, die Sensorobjektinformations-Integrationseinheit B010 und die Trägerfahrzeugumgebungsinformations-Integrationseinheit B011.
  • [Beschreibung der Unterdaten]
  • Die Informationsspeichereinheit B009 speichert die Informationen vom Eingabekommunikationsnetz B005 und gibt Informationen D009a in Reaktion auf Anforderungen von der Sensorobjektinformations-Integrationseinheit B010 und der Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 aus. Die Anforderungen von der Sensorobjektinformations-Integrationseinheit B010 und der Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 enthalten eine Zeitsynchronisation von Daten der Informationen D002 von den mehreren Sensoren, die die Außenerkennungssensorgruppe B002 bilden, eine Normung eines Koordinatensystems und dergleichen. Die Sensorobjektinformations-Integrationseinheit B010 erfasst die Informationen (die Sensorobjektinformationen) D009a von der Informationsspeichereinheit B009, integriert Informationen desselben Objekts, das durch die mehreren Sensoren, die die Außenerkennungssensorgruppe B002 bilden, als dasselbe Objekt (das später genau beschrieben werden.soll), detektiert wurde, und gibt die integrierten Objektinformationen D010 zur Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 aus. Deshalb können selbst dann, wenn das Positionierungssystem B003 und die Karteneinheit B004 nicht montiert sind, die integrierten Objektinformationen D010 von der Sensorobjektinformations-Integrationseinheit B010 ausgegeben werden und werden die integrierten Objektinformationen D010 statt der Ausgabeinformationen D011 der Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 ausgegeben, wodurch die Sensorobjektinformations-Integrationseinheit B010 als ein System aufgebaut ist. Deshalb wird selbst dann, wenn das Positionierungssystem B003 und die Karteneinheit B004 nicht notwendigerweise montiert sind, die Operation der vorliegenden Ausführungsform nicht behindert. Die Trägerfahrzeugumgebungsinformations-Integrationseinheit B011 erfasst die integrierten Objektinformationen D010 von der Sensorobjektinformations-Integrationseinheit B010 und die Informationen D009b (die die Trägerfahrzeugverhaltensinformationen, die Sensorfahrbahninformationen, die Positionierungsinformationen und die Karteninformationen enthalten) von der Informationsspeichereinheit B009, integriert sie als die Trägerfahrzeugumgebungsinformationen D011 und gibt sie zur Planbestimmungsvorrichtung B007 für autonomes Fahren aus. Die Trägerfahrzeugumgebungsinformationen D011 enthalten Informationen, die angeben, welcher einer weißen Linie auf einer Fahrbahn und einer Fahrspur auf einer Karte die integrierten Objektinformationen D010 von der Sensorobjektinformations-Integrationseinheit B010 angehören.
  • <Befestigungskonfiguration der Außenerkennungssensorgruppe B002>
  • 2 ist ein Befestigungsbeispiel der Außenerkennungssensorgruppe B002 gemäß der ersten Ausführungsform der vorliegenden Erfindung. Ein Kamerasensor, der einen Sensordetektionsbereich F02 aufweist, ein linker Frontradarsensor, der einen Sensordetektionsbereich F03 aufweist, ein rechter Frontradarsensor, der einen Sensordetektionsbereich F04 aufweist, ein linker Heckradarsensor, der einen Sensordetektionsbereich F05 aufweist, und ein rechter Heckradarsensor, der einen Sensordetektionsbereich F06 aufweist, sind um das Trägerfahrzeug F01 angeordnet und die Detektionsbereiche der jeweiligen Sensoren überlappen (mit anderen Worten weisen die Sensoren Überlappungsbereiche der Detektionsbereiche auf). Es ist festzuhalten, dass die Befestigungskonfiguration und die Typen der Sensoren nicht beschränkt sind.
  • Vom Standpunkt der Redundanz und Genauigkeitsverbesserung sind verschiedene Typen von Sensorkonfigurationen wünschenswert.
  • <Funktionsblockkonfiguration der Sensorobjektinformations-Integrationseinheit B010 der Sensorerkennungsintegrationsvorrichtung B006>
  • 3 ist ein Funktionsblockdiagramm der Sensorobjektinformations-Integrationseinheit B010 der Sensorerkennungsintegrationsvorrichtung B006 gemäß der ersten Ausführungsform der vorliegenden Erfindung.
  • [Beschreibung der Konfiguration]
  • Die Sensorobjektinformations-Integrationseinheit B010 enthält eine Vorhersageaktualisierungseinheit 100, eine Zuordnungseinheit 101, eine Integrationsverarbeitungsmodus-Bestimmungseinheit 102, eine Integrationszielinformations-Erzeugungseinheit 104, eine Integrationsaktualisierungseinheit 105 und eine Speichereinheit 106 für integrierte Objektinformationen. Die Verarbeitung der Sensorobjektinformations-Integrationseinheit B010 wird kontinuierlich oft wiederholt ausgeführt. In jeder Ausführung wird bestimmt, zu welcher Zeit Informationen geschätzt werden sollen. Zur Erläuterung wird angenommen, dass nach der Ausführung der Schätzung von Informationen zum Zeitpunkt t1 die Schätzung von Informationen zum Zeitpunkt t2, die die Zeit nach der Zeit Δt ist, ausgeführt wird.
  • [Beschreibung der Daten]
  • Die Sensorobjektinformationen 207A und 207B besitzen eine Sensorobjektkennung, die durch Verfolgen der Verarbeitung in den Sensoren, die die Außenerkennungssensorgruppe B002 bilden, zugewiesen wird, eine Relativposition in Bezug auf das Trägerfahrzeug, eine Relativgeschwindigkeit in Bezug auf das Trägerfahrzeug und eine Fehlerkovarianz. Informationen wie z. B. der Objekttyp, die Detektionszeit und die Zuverlässigkeit der Informationen können zusätzlich enthalten sein.
  • Ein Integrationsverarbeitungsmodus 209 besitzt einen Modus zum Bestimmen eines Integrationsverfahrens in der Integrationszielinformations-Erzeugungseinheit 104.
  • Vorhergesagte Objektinformationen 200 und integrierte Objektinformationen 205A und 205B (synonym zu den integrierten Objektinformationen D010 in 1) enthalten die zu schätzende Zeit, eine Objektkennung, eine Relativposition eines Objekts, Informationen einer Relativgeschwindigkeit des Objekts, eine Fehlerkovarianz oder die Entsprechung. Zusätzlich können Informationen wie z. B. der Objekttyp und die Zuverlässigkeit der Informationen zusätzlich enthalten sein.
  • Integrationszielinformationen 204 enthalten Informationen über ein Sensorobjekt nach einer Integration, dem die Objektkennung jedes Objekts in den vorhergesagten Objektinformationen 200 zugeordnet werden soll. Eine Position und eine Geschwindigkeit der Sensorobjektinformationen, die in den Integrationszielinformationen 204 enthalten sind, stimmen nicht notwendigerweise mit den ursprünglichen Sensorobjektinformationen 207A überein und ein integrierter Wert unter Verwendung der Eigenschaften der mehreren Sensoren, die die Außenerkennungssensorgruppe B002 bilden, wird auf der Grundlage des Integrationsverarbeitungsmodus 209 der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 berechnet.
  • Zuordnungsinformationen 201A und 201B enthalten Informationen, die eine Entsprechung zwischen den vorhergesagten Objektinformationen 200 und den mehreren Teilen von Sensorobjektinformationen 207A und 207B angeben.
  • Wie in 2 veranschaulicht ist, besitzt ein Sensordetektionsbereich (der auch als ein Detektionsbereich bezeichnet wird) 208 ein horizontales Sichtfeld (FOV), einen Befestigungswinkel, eine maximale Detektionsentfernung und dergleichen sämtlicher Sensoren, die die Außenerkennungssensorgruppe B002 bilden.
  • [Beschreibung des Ablaufs]
  • (Vorhersageaktualisierungseinheit 100)
  • Die Vorhersageaktualisierungseinheit 100 empfängt die integrierten Objektinformationen 205B zum Zeitpunkt t1, von der Speichereinheit 106 für integrierte Objektinformationen und erzeugt die vorhergesagten Objektinformationen 200 zum Zeitpunkt t2 und gibt sie aus.
  • (Zuordnungseinheit 101)
  • Die Zuordnungseinheit 101 empfängt die mehreren Teile von Sensorobjektinformationen 207A von der Außenerkennungssensorgruppe B002 und die vorhergesagten Objektinformationen 200 zum Zeitpunkt t2 von der Vorhersageaktualisierungseinheit 100 als Eingabe und gibt die Zuordnungsinformationen 201A aus, die angeben, welche vorhergesagten Objektinformationen welchem der mehreren Teile von Sensorobjektinformationen zum Zeitpunkt t2 zugeordnet sind. Ferner werden die Sensorobjektinformationen 207A als die Sensorobjektinformationen 207B ausgegeben, ohne geändert zu werden. Es ist festzuhalten, dass die Sensorobjektinformationen 207A und 207B in derselben Zeitzone wie die vorhergesagten Objektinformationen 200 zum Zeitpunkt t2 sein müssen und die Sensorobjektinformationen 207A und 207B mit der Zeit t2 in der Informationsspeichereinheit B009 in 1 zeitlich synchronisiert sind.
  • (Integrationsverarbeitungsmodus-Bestimmungseinheit 102)
  • Die Integrationsverarbeitungsmodus-Bestimmungseinheit 102 berechnet (wechselt) den Integrationsverarbeitungsmodus 209 auf der Grundlage der Sensorobjektinformationen 207B und der Zuordnungsinformationen 201A von der Zuordnungseinheit 101 und des Sensordetektionsbereichs 208, der im Voraus in der Informationsspeichereinheit B009 in 1 gespeichert wurde, oder dergleichen (was später genau beschrieben werden soll) und gibt ihn aus. Zusätzlich werden die Zuordnungsinformationen 201A als die Zuordnungsinformationen 201B ausgegeben, ohne geändert zu werden.
  • (Integrationszielinformations-Erzeugungseinheit 104).
  • Die Integrationszielinformations-Erzeugungseinheit 104 empfängt die Zuordnungsinformationen 201B zum Zeitpunkt t2 von der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die Sensorobjektinformationen 207B von der Zuordnungseinheit 101 und den Integrationsverarbeitungsmodus 209 von der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 als Eingabe und berechnet einen integrierten Wert aus Koordinaten und einer Geschwindigkeit von Objektinformationen, die jedem vorhergesagten Objekt zum Zeitpunkt t2 zugeordnet sind, und gibt den integrierten Wert als die Integrationszielinformationen 204 aus. Zum jetzigen Zeitpunkt ist eine Funktion des Wechselns des Integrationsverfahrens auf der Grundlage des Integrationsverarbeitungsmodus 209 von der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 enthalten (was später genau beschrieben wird).
  • (Integrationsaktualisierungseinheit 105)
  • Die Integrationsaktualisierungseinheit 105 empfängt die Integrationszielinformationen 204 von der Integrationszielinformations-Erzeugungseinheit 104 und die vorhergesagten Objektinformationen 200 zum Zeitpunkt t2 von der Vorhersageaktualisierungseinheit 100, schätzt einen Zustand (wie z. B. Koordinaten und eine Geschwindigkeit) jedes Objekts zum Zeitpunkt t2 und gibt den geschätzten Zustand als die integrierten Objektinformationen 205A aus. Selbst wenn das Integrationsverfahren durch die Integrationszielinformations-Erzeugungseinheit 104 gewechselt wird, können die integrierten Objektinformationen 205A in der Integrationsaktualisierungseinheit 105 derart erzeugt werden, dass die Positionsinformationen und die Geschwindigkeitsinformationen des Objekts sich nicht plötzlich ändern. Um die integrierten Objektinformationen 205A, die die Objektinformationen nach der Integration sind, problemlos (kontinuierlich) zu ändern, kann, wenn das Integrationsverfahren (d. h. der Integrationsverarbeitungsmodus 209) in der Integrationszielinformations-Erzeugungseinheit 104 gewechselt wird, wenn sich die Positionsinformationen oder die Geschwindigkeitsinformationen plötzlich ändern, ein Verfahren zum Ändern der Positionsinformationen oder der Geschwindigkeitsinformationen vom Wert vor der Änderung zum Wert nach der Änderung durch lineare Interpolation betrachtet werden. Zusätzlich kann das Änderungsverfahren nicht nur lineare Interpolation, sondern auch Spline-Interpolation sein.
  • (integrierte Objektinformationen Speichereinheit 106)
  • Die Speichereinheit 106 für integrierte Objektinformationen speichert die integrierten Objektinformationen 205A von der Integrationsaktualisierungseinheit 105 und gibt die integrierten Objektinformationen 205A als die integrierten Objektinformationen 205B zur Vorhersageaktualisierungseinheit 100 aus.
  • [Beschreibung des Ablaufplans]
  • (Zuordnungseinheit 101)
  • 4 ist ein Ablaufplan der Zuordnungseinheit 101, der durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die Verarbeitung wird gestartet (S500). Ein nicht verarbeitetes vorhergesagtes Objekt wird von der Vorhersageaktualisierungseinheit 100 aus den vorhergesagten Objektinformationen 200 extrahiert (S502). In S504 schreitet dann, wenn ein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S504: Ja), die Verarbeitung fort zu S508. Dann werden zum Zeitpunkt t2 alle Sensorobjekte in den Sensorobjektinformationen 207A als Kandidatenzuordnungsziele extrahiert (S508). Alternativ ist es auch möglich, einen Satz, der mindestens alle Zuordnungsziele enthält, durch ein Verfahren wie z. B. Indizieren zu extrahieren. Dann wird, wenn ein nicht verarbeitetes Sensorobjekt ist unter den Sensorobjekten als die Kandidatenzuordnungsziele in S510 vorhanden ist (S510: Ja), eine Zuordnungsbestimmung (S512) an dem nicht verarbeiteten Sensorobjekt in S512 durchgeführt und kehrt die Verarbeitung zurück zu S508. In S510 kehrt dann, wenn kein nicht verarbeitetes Sensorobjekt vorhanden ist (S510: Nein), die Verarbeitung zurück zu S502. In S504 endet, die Verarbeitung (S538) dann, wenn kein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S504: Nein).
  • In der Zuordnungsbestimmung (S512) wird bestimmt, ob eine Entfernung zwischen den vorhergesagten Objektinformationen 200 von der Vorhersageaktualisierungseinheit 100 und Positionsinformationen, Geschwindigkeitsinformationen und dergleichen des Sensorobjekts, das in den mehreren Teilen von Sensorobjektinformationen 207A von der Außenerkennungssensorgruppe B002 enthalten ist, kurz ist, und wird bestimmt, ob eine Zuordnung durchgeführt werden soll. Ferner wird das Ergebnis als Zuordnungsinformationen 201A ausgegeben. Als die Entfernung, die zum jetzigen Zeitpunkt erhalten werden soll, kann die Mahalanobis-Entfernung auf der Grundlage der Entfernung im euklidischen Raum der Koordinaten und der Geschwindigkeit jedes Sensors, der Koordinaten und der Geschwindigkeit jedes Sensors und der Fehlerkovariariz verwendet werden. Es ist festzuhalten, dass die Mahalanobis-Entfernung eine allgemeinen definierte Entfernung ist und ihre Beschreibung in der vorliegenden Ausführungsform unterlassen wird.
  • (Integrationsverarbeitungsmodus-Bestimmungseinheit 102)
  • 5 ist ein Ablaufplan der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die durch die Sensorobjektinformations-integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die Verarbeitung wird gestartet (S550) und schreitet fort zu S551. In S551 wird ein nicht verarbeitetes vorhergesagtes Objekt aus den vorhergesagten Objektinformationen 200 von der Vorhersageaktualisierungseinheit 100 extrahiert. In S554 schreitet dann, wenn ein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S554: Ja), die Verarbeitung fort zu S557. In S557 schreitet dann, wenn mehrere Sensorobjekte in den Zuordnungsinformationen 201A vorhanden sind, die den vorhergesagten . Objektinformationen 200 zugeordnet sind, die durch die Zuordnungseinheit 101 berechnet wurden, (S557: Ja), die Verarbeitung fort zu S560. In S560 werden die Positionsinformationen der vorhergesagten Objektinformationen 200 und eine Entfernung 561 zu einer Grenze im Sensordetektionsbereich 208, der im Voraus in der Informationsspeichereinheit B009 oder dergleichen in 1 gespeichert wurde, berechnet und schreitet die Verarbeitung fort zu S565. Wenn die berechnete Entfernung 561 in S565 gleich oder kleiner als ein Schwellenwert ist (S565: Ja), wird ein Integrationsverarbeitungsmodus mit hoher Verarbeitungslast (der im Folgenden auch als ein Modus mit hoher Verarbeitungslast bezeichnet wird) eingestellt (S571). Wenn die berechnete Entfernung 561 in S565 nicht gleich oder kleiner als der Schwellenwert ist (S565: Nein), wird ein Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast (der im Folgenden auch als ein Verarbeitungsmodus mit niedriger Last bezeichnet wird) eingestellt (S572). Es ist festzuhalten, dass z. B. der Modus mit hoher Verarbeitungslast einen Modus zum Erhalten eines Berechnungsergebnisses hinsichtlich der Position und der Geschwindigkeit des Objekts relativ genau angibt. Zusätzlich gibt der Verarbeitungsmodus mit niedriger Last einen Modus zum Erhalten eines Berechnungsergebnisses hinsichtlich der Position und der Geschwindigkeit des Objekts in einer relativ einfachen Weise an. Wenn in S557 lediglich ein einzelnes Sensorobjekt in den Zuordnungsinformationen 201A vorhanden ist (S557: Nein), wird ein Auswahlverarbeitungsmodus eingestellt (S573). Ferner werden die Einstellungsergebnisse von S571, S572 und S573 als der Integrationsverarbeitungsmodus 209 ausgegeben.
  • Nach der Einstellung in S571, S572 und S573 kehrt die Verarbeitung zurück zu S551. Dann wird die Verarbeitung wiederholt, bis in S554 kein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist, und wenn kein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S554: Nein), endet die Verarbeitung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in S588.
  • Es ist festzuhalten, dass der Auswahlverarbeitungsmodus (S573) bedeutet, dass Objektinformationen eines einzelnen Sensors angewendet werden. Der Auswahlverarbeitungsmodus (S573) kann in der Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast (S572) durchgeführt werden.
  • Hier ist der Grund dafür, dass der Integrationsverarbeitungsmodus 209 (der Integrationsverarbeitungsmodus mit hoher Verarbeitungslast, der Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast),unter Verwendung der Positionsinformationen der vorhergesagten Objektinformationen 200 und der Entfernung 561 zur Grenze im Überlappungsbereich des Sensordetektionsbereichs 208 als ein Bestimmungskriterium eingestellt (gewechselt) wird, dass der Detektionsfehler des Sensors zwischen der Grenze im Überlappungsbereich des Sensordetektionsbereichs 208 und des Bereichs mit Ausnahme der Grenze variiert, speziell tendiert der Detektionsfehler des Sensors bei der Grenze im Überlappungsbereich des Sensordetektionsbereichs 208 dazu, relativ groß zu sein.
  • (Integrationszielinformations-Erzeugungseinheit 104)
  • 6 ist ein Ablaufplan der Integrationszielinformations-Erzeugungseinheit 104, die durch die Sensorobjektinformations-Integrationseinheit 8010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die Verarbeitung der Integrationszielinformations-Erzeugungseinheit 104 wird in S600 gestartet und schreitet fort zu S603. In S603 wird ein nicht verarbeitetes vorhergesagtes Objekt aus den Zuordnungsinformationen 201B von der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 extrahiert und schreitet die Verarbeitung fort zu S606. Wenn in S606 ein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S606: Ja), schreitet die Verarbeitung fort zu S609. In S609 wird ein Sensorobjekt, das dem extrahierten vorhergesagten Objekt zugeordnet ist, extrahiert und werden Informationen des extrahierten Sensorobjekts auf der Grundlage des Integrationsverarbeitungsmodus 209, der durch die Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in S618 (der später beschrieben wird) berechnet wird, integriert. Das Integrationsergebnis wird als die Integrationszielinformationen 204 ausgegeben. Dann kehrt die Verarbeitung zurück zu S603. Wenn in S606 kein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S606: Nein), endet die Integrationszielinformationserzeugung in S624.
  • Für ein Objekt von einem Sensor, der keinem vorhergesagten Objekt zugeordnet ist, kann die Zuordnungsbestimmung zwischen Objekten jedes Sensors durchgeführt werden, wie in 4 veranschaulicht ist, kann der Integrationsverarbeitungsmodus in 5 bestimmt werden und kann die Integration in 6 ähnlich durchgeführt werden.
  • (Vorhersageaktualisierungseinheit 100)
  • 7 ist ein Ablaufplan der Vorhersageaktualisierungseinheit 100, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. In S650 wird die Verarbeitung der Vorhersageaktualisierungseinheit 100 gestartet und schreitet fort zu S653. In S653 wird ein nicht verarbeitetes integriertes Objekt auf der Grundlage der integrierten Objektinformationen 205B von der Speichereinheit 106 für integrierte Objektinformationen extrahiert und schreitet die Verarbeitung fort zu S656. In S656 schreitet dann, wenn ein nicht verarbeitetes integriertes Objekt vorhanden ist (S656: Ja), die Verarbeitung fort zu S659 und schreitet dann, wenn kein nicht verarbeitetes integriertes Objekt vorhanden ist (S656: Nein), die Verarbeitung fort zu S662. In S659 wird der Zustand des Objekts zum Zeitpunkt t2 ohne Verwendung der Sensorobjektinformationen von der Außenerkennungssensorgruppe B002 vorhergesagt, wird das Vorhersageergebnis als die vorhergesagten Objektinformationen 200 ausgegeben und kehrt die Verarbeitung zurück zu S653. In S662 endet die Verarbeitung der Vorhersageaktualisierungseinheit 100. in der Vorhersage in S659 wird angenommen, dass die Vorhersage auf der Grundlage des Verhaltens des Trägerfahrzeugs und des Verhaltens des Objekts durchgeführt wird. Die Aktion des Trägerfahrzeugs wird auf der Grundlage einer Geschwindigkeit, einer Gierrate oder dergleichen des Trägerfahrzeugs geschätzt. Zusätzlich wird die Aktion des Objekts auf der Grundlage einer Geschwindigkeit, einer Gierrate oder dergleichen des Objekts geschätzt.
  • (Integrationsaktualisierungseinheit 105)
  • 8 ist ein Ablaufplan der Integrationsaktualisierungseinheit 105, die durch die Sensorobjektinformations-Integrationseinheit B010 gemäß der ersten Ausführungsform der vorliegenden Erfindung ausgeführt wird. Die Verarbeitung der Integrationsaktualisierungseinheit 105 wird in S700 gestartet und schreitet fort zu S703. In S703 wird ein nicht verarbeitetes vorhergesagtes Objekt aus den Integrationszielinformationen 204 von der Integrationszielinformations-Erzeugungseinheit 104 extrahiert und schreitet die Verarbeitung fort zu S706. In S706 schreitet dann, wenn ein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S706: Ja), die Verarbeitung fort zu S712 und schreitet dann, wenn kein nicht verarbeitetes vorhergesagtes Objekt vorhanden ist (S706: Nein), die Verarbeitung fort zu S718. In S712 werden mehrere Sensorobjekte, die dem vorhergesagten Objekt zugeordnet werden sollen, extrahiert und schreitet die Verarbeitung fort zu S715. In S715 wird die Position des Objekts aus dem vorhergesagten Objekt von der Vorhersageaktualisierungseinheit 100 und den mehreren Sensorobjekten geschätzt und wird das Schätzergebnis als die integrierten Objektinformationen 205A ausgegeben und kehrt die Verarbeitung zurück zu S703. Die Sensorobjekte in S715 beziehen sich auf Objekte nach einer Integration. In Schritt S718 endet die Verarbeitung der Integrationsaktualisierungseinheit 105,
  • [Zusätzliche Beschreibung des Integrationsverarbeitungsmodus]
  • Als Beispiel des Integrationsverarbeitungsmodus mit hoher Verarbeitungslast in der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, mit anderen Worten als Beispiel des Integrationsverarbeitungsmodus mit hoher Verarbeitungslast, der in der Integrationsverarbeitung der Integrationszielinformations-Erzeugungseinheit 104 verwendet wird, ist in 9 ein Integrationsverfahren veranschaulicht. 9 veranschaulicht ein Beispiel, in dem die Fahrtrichtung des Trägerfahrzeugs nach oben ist.
  • In 9 repräsentiert F41 eine Position, bei der ein Objekt durch das Radar detektiert wird, und repräsentiert F44 eine Fehlerkovarianz. Da der Fehler des Radars als der Außenerkennungssensor von der Winkelauflösung abhängt, breitet sich der Fehler in der Querrichtung in Bezug auf die Befestigungsrichtung der Sensoren aus. Ferner repräsentiert F42 in 9 eine Position, bei der ein Objekt durch die Kamera detektiert wird, und repräsentiert F45 eine Fehlerkovarianz. Die Fehlerkovarianz des Objekts durch die Kamera als der Außenerkennungssensor breitet sich in der vertikalen Richtung in Bezug auf die Befestigungsrichtung der Sensoren abhängig von der Größe des Pixelabstands oder dergleichen aus. Im Falle des Handhabens von Sensoren, die verschiedene Prinzipien aufweisen, wie oben beschrieben ist, ist es denkbar, dass die Ausbreitungen von Fehlern (die Fehlerverteilungen) verschieden sind. Im Integrationsverarbeitungsmodus mit hoher Verarbeitungslast ist es möglich, die Positionsgenauigkeit des Objekts durch Verwenden einer Komponente mit einem kleinen Fehler jedes Sensors und Berechnen eines Integrationsergebnisses F43 auf der Grundlage des Integrationsverarbeitungsmodus mit hoher Verarbeitungslast in der Integrationszielinformations-Erzeugungseinheit 104 zu verbessern. Diese Verarbeitung erfordert eine Matrixinvertierungsoperation der Fehlerkovarianzmatrix und ist eine (genaue) Integrationsverarbeitung mit hoher Verarbeitungslast.
  • Als Beispiel des Integrationsverarbeitungsmodus mit hoher Verarbeitungslast in der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, mit anderen Worten als Beispiel des Integrationsverarbeitungsmodus mit hoher Verarbeitungslast, der in der Integrationsverarbeitung der Integrationszielinformations-Erzeugungseinheit 104 verwendet wird, ist ein Integrationsverfahren vorhanden, das in 10 veranschaulicht ist.
  • Ähnlich 9 repräsentiert F41 in 10 eine Position, bei der ein Objekt durch das Radar detektiert wird, und repräsentiert F44 eine Fehlerkovarianz. Ferner repräsentiert F42 in 10 eine Position, bei der ein Objekt durch die Kamera detektiert wird, und repräsentiert F45 eine Fehlerkovarianz. F46 in 10 repräsentiert ein Integrationsergebnis auf der Grundlage der Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast, wobei die Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast ein Verfahren zum Mitteln von Positionen von Objekten jedes Sensors ist. Diese Verarbeitung ist eine Integrationsverarbeitung mit einfacher Berechnung und einer niedrigen Verarbeitungslast. Es ist festzuhalten, dass der Durchschnitt ein gewichteter Durchschnitt sein kann oder ein Gewichtsparameter aus der Fehlerkovarianz berechnet werden kann. Es ist wünschenswert, das Gewicht von sensorspezifischen Informationen derart zu setzten, dass die Eigenschaften der Sensoren selbst mit einer niedrigen Verarbeitungslast berücksichtigt werden können. Zusätzlich können als Integrationsverarbeitung mit einer niedrigen Verarbeitungslast dann, wenn ein Objekt, das durch mehrere Sensoren detektiert wird, vorhanden ist, Informationen eines der Sensoren wahlweise verwendet werden. Es ist festzuhalten, dass das Verfahren zum Anwenden von Informationen von einem der Sensoren und der Auswahlverarbeitungsmodus (S573) in 5 dieselbe Bedeutung haben.
  • [Zusätzliche Beschreibung der Berechnung der Entfernung zur Grenze]
  • Das Verfahren zum Berechnen der Positionsinformationen der vorhergesagten Objektinformationen 200 und der Entfernung 561 zur Grenze im Sensordetektionsbereich 208 in S560 von 5 wird ergänzt. In 11 gehören vorhergesagte Objektinformationen F15 dem Sensordetektionsbereich an. F11 und F14 repräsentieren Detektionsbereiche eines einzelnen Sensors (z. B. eine Kamera oder ein Radar) und F12 und F13 repräsentieren einen Bereich, in dem Detektionsbereiche mehrerer Sensoren (z. B. Kameras und Radare) überlappen. Eine gepunktete Linie von F13 repräsentiert einen Grenzabschnitt des Überlappungsbereichs und F12 repräsentiert einen Nichtgrenzabschnitt des Überlappungsbereichs.
  • In der Integrationszielinformations-Erzeugungseinheit 104 ist der Bereich, in dem die Sensordetektionsbereiche überlappen, ein Ziel und sollen vorhergesagte Objektinformationen F15, die bei F12 und F13 positioniert sind, integriert werden. Es ist festzuhalten, dass mehrere Objekte vom Sensor durch die Zuordnungseinheit 101 den vorhergesagten Objektinformationen F15 zugeordnet sind und mehrere Objekte vom Sensor, die zugeordnet werden sollen, erhalten werden. Die mehreren Objekte vom Sensor sollen integriert werden. Zunächst wird, um zu bestimmen, ob die vorhergesagten Objektinformationen F15 F12 oder F13 angehören, die Entfernung zwischen dem Grenzabschnitt von F13 und der Position der vorhergesagten Objektinformationen F15 berechnet. Als ein einfaches Verfahren wird, wie in 12 veranschaulicht ist, eine senkrechte Linie von der Position der vorhergesagten Aktualisierungsinformationen F15 zum Grenzabschnitt von F13 gezogen und wird eine Entfernung d = min(d1, d2, d3) von der nächstliegenden Seite zu einer Entfernung 561 (d1 in dem Beispiel, das in 12 veranschaulicht ist) zum Grenzabschnitt eingestellt. Wenn die Form des Grenzabschnitts komplex ist, kann ein Polygonpolygon definiert werden und kann die Entfernung für jede Seite berechnet werden. In der Bestimmung, ob die Entfernung in S565 in 5 gleich oder kleiner als der Schwellenwert ist, kann der Schwellenwert im Hinblick auf eine Marge vom Grenzabschnitt gesetzt werden. Zusätzlich kann der Schwellenwert für jeden Sensor geändert werden oder kann der Schwellenwert veränderlich sein.
  • Zusätzlich zur Bedingung von 5 kann dann, wenn die Entfernung vom Trägerfahrzeug zum Objekt (das auch als ein Ziel bezeichnet wird) gleich größer als der Schwellenwert ist, der Integrationsverarbeitungsmodus mit hoher Verarbeitungslast gesetzt werden und kann dann, wenn die Entfernung vom Trägerfahrzeug zum Objekt (zum Ziel) kleiner als der Schwellenwert ist, der Verarbeitungsmodus mit niedriger Last gesetzt werden. Dies ist darauf zurückzuführen, dass der Detektionsfehler des Sensors dazu tendiert, zuzunehmen, wenn die Entfernung vom Trägerfahrzeug zum Objekt zunimmt, und ist es somit bevorzugt, den Modus mit hoher Verarbeitungslast einzustellen, in dem eine Komponente, die einen kleinen Fehler des Sensors aufweist, genommen wird und die Genauigkeit des Integrationsergebnisses verbessert wird.
  • [Beschreibung der Wirkungen]
  • Wie oben beschrieben ist, ist die vorliegende Ausführungsform die Sensorerkennungsintegrationsvorrichtung 8006, die mehrere Teile von Objektinformationen (Sensorobjektinformationen), die mit einem Objekt in der Nähe eines Trägerfahrzeugs, das durch mehrere Außenerkennungssensoren detektiert wurde, in Beziehung stehen, integriert, wobei die Sensorerkennungsintegrationsvorrichtung B006 Folgendes enthält: die Vorhersageaktualisierungseinheit 100, die vorhergesagte Objektinformationen erzeugt, die durch Vorhersagen einer Aktion des Objekts auf der Grundlage einer Aktion des Trägerfahrzeugs, die aus einem Verhalten des Trägerfahrzeugs und den Objektinformationen, die durch die Außenerkennungssensoren detektiert wurden, geschätzt wird, erhalten werden; die Zuordnungseinheit 101, die eine Beziehung (Zuordnungsinformationen) zwischen den vorhergesagten Objektinformationen und den mehreren Teilen von Objektinformationen berechnet; die Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die einen Integrationsverarbeitungsmodus (einen Integrationsverarbeitungsmodus mit hoher Verarbeitungslast, in dem eine Verarbeitung des Integrierens der mehreren Teile von Objektinformationen eine relativ genaue Verarbeitung ist, und einen Integrationsverarbeitungsmodus mit niedriger Verarbeitungslast, in dem eine Verarbeitung des Integrierens der mehreren Teile von Objektinformationen eine relativ einfache Verarbeitung ist) zum Bestimmen eines Verfahrens zum Integrieren der mehreren Teile von Objektinformationen auf der Grundlage einer Positionsbeziehung zwischen einem bestimmten Bereich (z. B. ein Grenzabschnitt) in einem Überlappungsbereich von Detektionsbereichen der mehreren Außenerkennungssensoren und der vorhergesagten Objektinformationen wechselt; und die Integrationszielinformations-Erzeugungseinheit 104, die die mehreren Teile von Objektinformationen, die mit den vorhergesagten Objektinformationen in Beziehung stehen (ihnen entsprechend), auf der Grundlage des Integrationsverarbeitungsmodus integriert.
  • Gemäß der vorliegenden Ausführungsform ist z. B. die Integrationsverarbeitung mit einer hohen Verarbeitungslast dem Grenzabschnitt im Überlappungsbereich der Sensoren zugewiesen und wird sonst die Integrationsverarbeitung mit einer niedrigen Verarbeitungslast durchgeführt, derart, dass der Anteil der Integrationsverarbeitung mit einer hohen Verarbeitungslast insgesamt minimiert wird, und kann die Wirkung des Verringerns der Verarbeitungslast erwartet werden. Zusätzlich nimmt ungeachtet der Integrationsverarbeitung mit hoher Verarbeitungslast oder der Integrationsverarbeitung mit niedriger Verarbeitungslast die Integrationszielinformations-Erzeugungseinheit 104 unter Berücksichtigung der Fehlerkovarianz (der Fehlerverteilung) des Objekts Komponenten mit geringen Fehlern der mehreren Sensoren und kann die Genauigkeit als ein System verbessert werden.
  • Gemäß der vorliegenden Ausführungsform ist es möglich, die Last der Integrationsverarbeitung, um die minimal nötige Genauigkeit, die für die Fahrzeugbewegungssteuerung gemäß der Detektionssituation erforderlich ist, zu erfüllen, zu verringern, und ist es möglich, die Wirkungen des Verbesserns der Verarbeitungsleistung einer ECU und des Verhinderns einer Zunahme der Kosten zu erhalten.
  • <<Zweite Ausführungsform>>
  • In der zweiten Ausführungsform werden wie in der ersten Ausführungsform das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings sind die Systemkonfiguration für autonomes Fahren von 1 und die Bestimmungsbedingung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die in 5 veranschaulicht ist, von denen der ersten Ausführungsform verschieden. 13 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 gemäß einer zweiten Ausführungsform der vorliegenden Erfindung enthält.
  • In 13 wird eine Unterkonfiguration zur Systemkonfiguration für autonomes Fahren von 1 hinzugefügt. Im Hinblick auf zusätzliche Abschnitte wird eine Fahrtroutenschätzeinheit B012 zur Sensorerkennungsintegrationsvorrichtung B006 hinzugefügt und werden Informationen (Daten) D009c von der Informationsspeichereinheit B009 zur Fahrtroutenschätzeinheit B012 ausgegeben. Die Fahrtroutenschätzeinheit B012 gibt das Fahrtroutenschätzergebnis D012 zu einer Sensorobjektinformations-Integrationseinheit B010 aus.
  • Die Fahrtroutenschätzeinheit B012 schätzt eine Fahrtroute F22 (siehe 14) eines Trägerfahrzeugs F20 auf der Grundlage der Daten D009c von der Informationsspeichereinheit B009. Es ist festzuhalten, dass die Fahrtroute des Trägerfahrzeugs einen Bewegungspfad des Trägerfahrzeugs repräsentiert und eine Geschwindigkeit oder eine Gierrate des Trägerfahrzeugs auf dem Pfad als zusätzliche Informationen angeben kann. Die Daten D009c repräsentieren Informationen (z. B. werden die Informationen durch den Trägerfahrzeug-Verhaltenserkennungssensor B001 erfasst und in der Informationsspeichereinheit B009 gespeichert) wie z. B. eine Trägerfahrzeuggeschwindigkeit, eine Gierrate und einen Lenkwinkel und berechnet (schätzt) die Fahrtroutenschätzeinheit B012 einen Bewegungspfad des Trägerfahrzeugs in Zukunft auf der Grundlage der Informationen. Speziell wird der Wenderadius des Trägerfahrzeugs auf der Grundlage des Zustands des Lenkwinkels und der Gierrate geschätzt. Wann und bei welcher Position das Trägerfahrzeug vorhanden ist, wird auf der Grundlage des Wenderadius vorhergesagt, und wird das Vorhersageergebnis zur Sensorobjektinformations-Integrationseinheit B010 als ein Fahrtroutenschätzergebnis D012 ausgegeben.
  • Eine Szene, die in 14 veranschaulicht ist, ist eine Szene, in der das Trägerfahrzeug F20 in einer Situation, in der ein Fußgänger F21 eine Fahrbahn überquert, bei einer Kreuzung links abbiegt. In 14 befindet sich die vorhergesagte Position der Fahrtroute F22 (die durch die Fahrtroutenschätzeinheit B012 berechnet wird), die aus der Fahrzeuggeschwindigkeit und der Gierrate geschätzt wird, in den Sensordetektionsbereichen F23 und F24. In diesem Fall wird ein Objekt priorisiert, das eine hohe Relevanz für die Fahrtroute F22, auf der das Trägerfahrzeug F20 sich bewegt, aufweist, wird der Modus mit hoher Verarbeitungslast lediglich im Überlappungsabschnitt der Sensordetektionsbereiche von F23 und F24, die sich auf der Fahrtroute F22 des Trägerfahrzeugs F20 befinden, eingestellt und wird der Modus zum Verarbeitungsmodus mit niedriger Last für die weiteren Sensordetektionsbereiche F25, F26 und F27 gewechselt. Die Bedingung kann mit der Bedingung auf der Grundlage des Grenzabschnitts (des Überlappungsbereichs) der Sensordetektionsbereiche in 5, die in der ersten Ausführungsform beschrieben sind, kombiniert werden.
  • Durch Anwenden der Fahrtroute F22 der zweiten Ausführungsform kann zusätzlich zu den Wirkungen der ersten Ausführungsform der Anteil der Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert. Da die Fahrtroute, auf der das Trägerfahrzeug sich bewegt, hervorgehoben wird, wird der Fußgänger F21, der wahrscheinlich einen Alarm oder ein Bremsen erfordert, bevorzugt verarbeitet. Zusätzlich besitzt, falls ein Fahrrad oder ein Motorrad vorhanden ist, das links des Trägerfahrzeugs vorbeifährt, ein Sensordetektionsbereich F26, der in 14 veranschaulicht ist, auch eine hohe Priorität. Deshalb ist es nötig, die Bedingung für den Modus mit hoher Verarbeitungslast abhängig von der Szene zu wechseln. Zum Beispiel kann unter der Annahme, dass die Fahrtroute F22 zur linken Seite geleitet wird, ein Verfahren zum Erhöhen der Priorität der Sensoren, die auf der linken Seite des Trägerfahrzeugs F20 montiert sind, betrachtet werden. Zusätzlich kann als eine weitere Denkweise die vorhergesagte Position des Objekts geschätzt werden, kann der Modus mit hoher Verarbeitungslast auf ein Objekt, das eine Möglichkeit zum Kreuzen der Fahrtroute F22 aufweist und sich mit einer hohen Relativgeschwindigkeit bewegt (d. h. ein Objekt, das eine hohe Wirkung auf die Fahrtroute F22 aufweist), angewendet werden und kann der Verarbeitungsmodus mit niedriger Last auf weitere Objekte, die eine geringe Möglichkeit eines Kreuzens aufweisen (d. h. Objekte, die eine geringe Wirkung auf die Fahrtroute F22 aufweisen), angewendet werden.
  • <<Dritte Ausführungsform>>
  • In der dritten Ausführungsform werden wie in der ersten Ausführungsform die Systemkonfiguration für autonomes Fahren von 1, das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings ist die Bestimmungsbedingung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 von 5 von der der ersten Ausführungsform verschieden.
  • F31 und F32, die in 15 veranschaulicht sind, sind Beispiele von Bereichen, in denen die Zuverlässigkeit im Sensordetektionsbereich abnimmt. F31 repräsentiert einen Bereich, in dem die Zuverlässigkeit im Detektionsbereich F02 der Kamera abnimmt, und wenn die Zuverlässigkeit abnimmt, kann die Genauigkeit der Position oder der Geschwindigkeit eines Objekts abnehmen oder kann eine fehlerhafte Detektion auftreten. Zusätzlich repräsentiert F32 einen Bereich, in dem die Zuverlässigkeit im Detektionsbereich F03 des Radars abnimmt, und kann dann, wenn die Zuverlässigkeit abnimmt, die Genauigkeit der Position und der Geschwindigkeit eines Objekts abnehmen oder kann eine fehlerhafte Detektion auftreten. Deshalb wird der Verarbeitungsmodus mit niedriger Last auf den Bereich angewendet, in dem die Zuverlässigkeit selbst im Grenzabschnitt des Überlappungsbereichs der Detektionsbereiche F02 und F03 geringer als die der weiteren Bereiche ist. Der Modus mit hoher Verarbeitungslast wird auf den Bereich angewendet, der eine höhere Zuverlässigkeit als die weiteren Bereiche im Grenzabschnitt des Überlappungsbereichs der Detektionsbereiche F02 und F03 aufweist. Zum jetzigen Zeitpunkt werden im Verarbeitungsmodus mit niedriger Last Objektinformationen eines Sensors mit hoher Zuverlässigkeit gewählt.
  • Durch Anwenden des Konzepts der Zuverlässigkeit der Sensoren (der Außenerkennungssensoren) der dritten Ausführungsform kann zusätzlich zu den Wirkungen der ersten Ausführungsform der Anteil einer Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert. Zusätzlich wird durch Ausschließen von Informationen von einem Sensor, der eine geringe Zuverlässigkeit aufweist, eine Wirkung des Verhinderns einer fehlerhaften Detektion eines Integrationsergebnisses und einer Abnahme der Genauigkeit erhalten.
  • Zusätzlich können die erste, die zweite und die dritte Ausführungsform kombiniert werden und kann der Modus zwischen dem Modus mit hoher Verarbeitungslast, dem Verarbeitungsmodus mit niedriger Last und dem Auswahlverarbeitungsmodus auf der Grundlage einer Kombination der Bedingungen gewechselt werden, wie in 16 veranschaulicht ist. Wenn eine Bedingung für die Entfernung vom Trägerfahrzeug Nichtnähe ist, gibt ein Objekt ein Objekt bei einer fernen Position an, und wenn die Bedingung für die Entfernung vom Trägerfahrzeug Nähe ist, gibt das Objekt ein Objekt bei einer nahen Position an (siehe die Bedingung der ersten Ausführungsform). Zusätzlich gibt dann, wenn ein Überlappungsbedingung einen Grenzbereich angibt, die Bedingung einen Grenzabschnitt eines Überlappungsbereichs von Detektionsbereichen an und gibt dann, wenn die Überlappungsbedingung einen Nichtgrenzbereich angibt, die Bedingung einen Bereich außer dem Grenzabschnitt des Überlappungsbereichs der Detektionsbereiche an. Wenn die Überlappungsbedingung ein nicht überlappender Bereich ist, gibt die Bedingung einen Bereich an, in dem Detektionsbereiche nicht überlappen (siehe die Bedingung der ersten Ausführungsform). Wenn eine Fahrtroutenbedingung „o“ angibt, gibt die Bedingung einen Detektionsbereich an, der auf der Fahrtroute vorhanden ist. Wenn die Bedingung „x“ angibt, gibt die Bedingung einen Detektionsbereich an, der nicht auf der Fahrtroute vorhanden ist (siehe die Bedingung der zweiten Ausführungsform). Wenn eine Zuverlässigkeitsbedingung „o“ angibt, gibt die Bedingung einen Bereich an, in dem die Zuverlässigkeit des Sensors hoch ist, und wenn die Zuverlässigkeitsbedingung „x“ angibt, gibt die Bedingung einen Bereich an, in dem die Zuverlässigkeit des Sensors gering ist (siehe die Bedingung der dritten Ausführungsform). Wie in 16 veranschaulicht ist, kann die Kombination der Bedingungen den Anteil einer Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimieren und wird die Wirkung des Verringerns der Verarbeitungslast verbessert.
  • <<Vierte Ausführungsform>>
  • In der vierten Ausführungsform werden wie in der ersten Ausführungsform die Systemkonfiguration für autonomes Fahren von 1, das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings ist die Bestimmungsbedingung der Integratiönsverarbeitungsmodus-Bestimmungseinheit 102 von 5 von der der ersten Ausführungsform verschieden.
  • In der vierten Ausführungsform wird der Integrationsverarbeitungsmodus 209 auf der Grundlage eines Verfolgungszustands eines vorhergesagten Objekts gewechselt (eingestellt). Hier bezieht sich der Verfolgungszustand auf eine Verfolgungszeit, mit der das vorhergesagte Objekt ohne Unterbrechung kontinuierlich verfolgt werden kann. Falls das Verfolgen kontinuierlich durchgeführt werden kann, erhält das Verfolgungsobjekt dieselbe Verfolgungskennung. Im Falle der anfänglichen Detektion, wobei die Verfolgungszeit des vorhergesagten Objekts kurz ist, wird der Modus zum Modus mit hoher Verarbeitungslast gesetzt, und falls die Verfolgungszeit teilweise lang ist, wird der Modus zum Verarbeitungsmodus mit niedriger Last gewechselt. Zusätzlich kann die Bedingung ein Fall sein, in dem die Verfolgungszeit groß ist und die Entfernung des Objekts vom Trägerfahrzeug groß ist. Wenn bestimmt wird (z. B. aus der Verfolgungszeit des vorhergesagten Objekts oder dergleichen berechnet wird), dass die Existenzwahrscheinlichkeit des vorhergesagten Objekts niedrig ist, wird der Verarbeitungsmodus mit niedriger Last eingestellt, und wenn bestimmt wird, dass die Existenzwahrscheinlichkeit des vorhergesagten Objekts hoch ist, wird der Modus mit hoher Verarbeitungslast eingestellt. Zusätzlich wird der Modus zwischen dem Modus mit hoher Verarbeitungslast, dem Verarbeitungsmodus mit niedriger Last und dem Auswahlverarbeitungsmodus gemäß der Existenzwahrscheinlichkeit eines Sensorobjekts, das durch den Sensor statt des vorhergesagten Objekts detektiert wird, gewechselt.
  • Durch Anwenden des Konzepts des Verfolgungszustands eines Objekts, das ein vorhergesagtes Objekt, ein Sensorobjekt oder dergleichen enthält, kann gemäß der vierten Ausführungsform zusätzlich zu den Wirkungen der ersten Ausführungsform der Anteil einer Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert.
  • <<Fünfte Ausführungsform>>
  • In der fünften Ausführungsform werden wie in der ersten Ausführungsform das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings sind das Systemkonfiguration für autonomes Fahren von 1 und die Bestimmungsbedingung der Integrationsverarbeitungsmodus-Bestimmungseinheit 102, die in 5 veranschaulicht ist, von der der ersten Ausführungsform verschieden. 17 ist ein Konfigurationsdiagramm eines Systems für autonomes Fahren, das eine Sensorerkennungsintegrationsvorrichtung B006 gemäß einer fünften Ausführungsform der vorliegenden Erfindung enthält.
  • In 17 wird eine Signalverbindung zur Systemkonfiguration für autonomes Fahren von 13 hinzugefügt. Im Hinblick auf zusätzliche Abschnitte wird ein geplanter Pfad D007b von einer Planbestimmungsvorrichtung B007 für autonomes Fahren zu einer Informationsspeichereinheit B009 der Sensorerkennungsintegrationsvorrichtung B006 ausgegeben. Ferner gibt die Informationsspeichereinheit B009 einen geplanten Pfad D009d zur Sensorobjektinformations-Integrationseinheit B010 aus.
  • Der geplante Pfad bezieht sich auf einen Sollwert eines Bewegungspfads eines Trägerfahrzeugs, der durch die Planbestimmungsvorrichtung B007 für autonomes Fahren auf der Grundlage eines Integrationsergebnisses D011 während autonomen Fahrens geplant ist. Der geplante Pfad wird durch die Planbestimmungsvorrichtung B007 für autonomes Fahren auf der Grundlage von Navigationsinformationen von einer Karteneinheit B004 in einen geplanten Pfad auf Spurebene umgewandelt.
  • Der geplante Pfad D009d wird durch das Fahrtroutenschätzergebnis D012 von 13 in der zweiten Ausführungsform, d. h. die Fahrtroute F22 von 14, ersetzt und die Integrationsverarbeitungsmodus-Bestimmungseinheit 102 von 5 wechselt einen Integrationsverarbeitungsmodus.
  • Durch Anwenden des geplanten Pfads D009d zum Steuern des Fahrzeugs (des Trägerfahrzeugs) der fünften Ausführungsform kann zusätzlich zu den Wirkungen der ersten Ausführungsform der Anteil einer Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert. Zusätzlich kann der Integrationsverarbeitungsmodus 209 unter Verwendung des Pfads mit höherer Genauigkeit als der der zweiten Ausführungsform gewechselt werden und wird ein fehlerhafter Moduswechsel verringert und wird die Genauigkeit erhöht.
  • <<Sechste Ausführungsform>>
  • In der sechsten Ausführungsform werden wie in der ersten Ausführungsform die Systemkonfiguration für autonomes Fahren von 1, das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings ist die Integrationsbedingung der Integrationszielinformations-Erzeugungseinheit 104 in 6 von der der ersten Ausführungsform verschieden.
  • In der sechsten Ausführungsform ist, wenn der Verfolgungszustand auf der Grundlage des Verfolgungszustands des vorhergesagten Objekts stabil ist, die Ausführungsfrequenz (der Verarbeitungszyklus) des Verarbeitungsmodus mit hoher Last stark verringert und wird der Verarbeitungsmodus mit niedriger Last stattdessen im stark verringerten Verarbeitungszyklus ausgeführt. Das heißt, der Verarbeitungszyklus des Verarbeitungsmodus mit hoher Last wird auf der Grundlage des Verfolgungszustands des vorhergesagten Objekts veränderbar gestaltet, und wird dann, wenn der Verfolgungszustand stabil ist, die Ausführungsfrequenz (der Verarbeitungszyklus) des Verarbeitungsmodus mit hoher Last derart eingestellt, dass er lang ist. Der stabile Verfolgungszustand enthält einen Fall, in dem das Objekt sich mit konstanter Geschwindigkeit bewegt, einen Fall, in dem die Verfolgungszeit bisher lang ist, und einen Fall, in dem eine Situation, in der ein Objekt, das vom Sensor erhalten wird und integriert werden soll, nicht wiederholt detektiert wird und nicht häufig detektiert wird, andauert. Zusätzlich kann der Verarbeitungszyklus des Integrationsverarbeitungsmodus wie z. B. der Modus mit hoher Verarbeitungslast gemäß dem Verfolgungszustand des Sensorobjekts, das durch den Sensor detektiert wird, statt des vorhergesagten Objekts veränderlich sein.
  • Durch Einstellen des Ausführungszyklus des Verarbeitungsmodus mit hoher Last der sechsten Ausführungsform derart, dass er lang ist, kann zusätzlich zu den Wirkungen der ersten Ausführungsform der Anteil der Integrationsverarbeitung mit einer hohen Verarbeitungslast weiter minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert. Zusätzlich kann, da sie auf einen Fall beschränkt ist, in dem der Verfolgungszustand des Objekts wie z. B. des vorhergesagten Objekts stabil ist, eine abrupte Änderung der Position des Objekts durch die Integrationsaktualisierung mit der Vorhersageaktualisierung verhindert werden.
  • <<Siebte Ausführungsform>>
  • In der siebten Ausführungsform werden wie in der ersten bis sechsten Ausführungsform die Systemkonfiguration für autonomes Fahren von 1, das Funktionsblockdiagramm von 3 und die Ablaufpläne von 4 bis 8 angewendet. Allerdings ist die Verarbeitung der Bezugnahme auf den Integrationsverarbeitungsmodus der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 in 5 die Zuordnungseinheit 101 in 4. 18 ist ein Funktionsblockdiagramm einer Sensorobjektinformations-Integrationseinheit B010 einer Sensorerkennungsintegrationsvorrichtung B006 gemäß der siebten Ausführungsform der vorliegenden Erfindung.
  • Wie in 18 veranschaulicht ist, ist eine Zuordnungsverarbeitungsmodus-Bestimmungseinheit 107 in der Vorstufenverarbeitung der Zuordnungseinheit 101 angeordnet. Die Zuordnungsverarbeitungsmodus-Bestimmungseinheit 107 berechnet (wechselt) einen Zuordnungsverarbeitungsmodus 210, auf den durch die Zuordnungseinheit 101 Bezug genommen wird, auf der Grundlage eines Sensordetektionsbereichs 208 und Informationen vorhergesagter Objektinformationen 200 einer Vorhersageaktualisierungseinheit 100 und gibt den Zuordnungsverarbeitungsmodus zur Zuordnungseinheit 101 aus. Es ist festzuhalten, dass eine grundlegende Idee der Zuordnungsverarbeitungsmodus-Bestimmungseinheit 107 ähnlich der der Integrationsverarbeitungsmodus-Bestimmungseinheit 102 ist. Ähnlich zur ersten Ausführungsform wird, wenn die vorhergesagten Objektinformationen 200 in einem Grenzbereich in einem Sensordetektionsbereich 208 angeordnet sind, der Zuordnungsverarbeitungsmodus zu einem Zuordnungsmodus mit hoher Verarbeitungslast eingestellt. Andernfalls wird der Zuordnungsverarbeitungsmodus zu einem Zuordnungsmodus mit niedriger Verarbeitungslast eingestellt. Zusätzlich entspricht sie der Idee der zweiten bis sechsten Ausführungsform.
  • Zusätzlich wird in der Verarbeitung der Zuordnungseinheit 101 in 4 der Bestimmungsinhalt der Zuordnung zwischen der Berechnung einer hohen Verarbeitungslast (einer relativ genauen Verarbeitung) und der Berechnung einer niedrigen Verarbeitungslast (einer relativ einfachen Verarbeitung) auf der Grundlage des Zuordnungsverarbeitungsmodus 210 gewechselt. Beispiele der hohen Verarbeitungslast enthalten ein Verarbeiten des Berechnens der Mahalanobis-Entfernung auf der Grundlage einer Fehlerkovarianz, um die Relevanz zwischen dem vorhergesagten Objekt und dem Objekt vom Sensor zu berechnen. Die Relevanz kann aus dem euklidischen Abstand mit einer niedrigen Verarbeitungslast bestimmt werden. Allerdings ist, um die Genauigkeit der Zuordnung aufrechtzuerhalten, in einem Fall, in dem eine niedrige Verarbeitungslast angewendet wird, bevorzugt, auf eine Szene zu beschränken, in der die Wirkung auf die Fahrzeugbewegungssteuerung klein ist, wie z. B. ein Fall, in dem ein Objekt entfernt vom Trägerfahrzeug abgetrennt ist.
  • Gemäß der siebten Ausführungsform kann ähnlich zur ersten Ausführungsform der Anteil der Integrationsverarbeitung mit hoher Verarbeitungslast minimiert werden und wird die Wirkung des Verringerns der Verarbeitungslast verbessert.
  • Es ist festzuhalten, dass die vorliegende Erfindung nicht auf die oben beschriebenen Ausführungsformen beschränkt ist und verschiedene Abwandlungen enthält. Zum Beispiel wurden die oben beschriebenen Ausführungsformen zum einfachen Verständnis der vorliegenden Erfindung genau beschrieben und sind nicht notwendigerweise auf die beschränkt, die alle beschriebenen Konfigurationen besitzen. Zusätzlich kann ein Teil der Konfiguration einer bestimmten Ausführungsform durch die Konfiguration einer weiteren Ausführungsform ersetzt werden und kann die Konfiguration einer bestimmten Ausführungsform zur Konfiguration einer weiteren Ausführungsform hinzugefügt werden. Zusätzlich ist es möglich, dass ein Teil der Konfiguration jeder Ausführungsform zu einer weiteren Konfiguration hinzugefügt wird, aus ihr entfernt wird und sie ersetzt.
  • Zusätzlich können einige oder alle der oben beschriebenen Konfigurationen, Funktionen, Verarbeitungseinheiten, Verarbeitungsmittel und dergleichen durch Hardware z. B. durch Entwerfen mit einer integrierten Schaltung implementiert werden. Zusätzlich kann jede der oben beschriebenen Konfigurationen, Funktionen und dergleichen durch Software durch einen Prozessor implementiert sein, der ein Programms zum Implementieren jeder Funktion interpretiert und ausführt. Informationen wie z. B. ein Programm, eine Tabelle und eine Datei zum Implementieren jeder Funktion können in einer Speichervorrichtung wie z. B. einem Arbeitsspeicher, einer Festplatte und einem Festkörperlaufwerk (SSD) oder einem Aufzeichnungsmedium wie z. B. einer IC-Karte, einer SD-Karte und einem DVD gespeichert sein.
  • Zusätzlich geben die Steuerungsleitungen und die Datenleitungen an, was als für die Beschreibung nötig erachtet wird, und nicht alle Steuerungsleitungen und die Datenleitungen im Produkt sind angegeben. In der Praxis können nahezu alle Konfigurationen als miteinander verbunden betrachtet werden.
  • Bezugszeichenliste
  • B000
    Informationserfassungsvorrichtung
    B001
    Trägerfahrzeug-Verhaltenserkennungssensor
    B002
    Außenerkennungssensorgruppe
    B003
    Positionierungssystem
    B004
    Karteneinheit
    B005
    Eingabekommunikationsnetz
    B006
    Sensorerkennungsintegrationsvorrichtung
    B007
    Planbestimmungsvorrichtung für autonomes Fahren (Planbestimmungseinheit)
    B008
    Aktorgruppe
    B009
    Informationsspeichereinheit
    B010
    Sensorobjektinformations-Integrationseinheit
    B011
    Trägerfahrzeugumgebungsinformations-Integrationseinheit
    B012
    Fahrtroutenschätzeinheit (zweite Ausführungsform)
    100
    Vorhersageaktualisierungseinheit
    101
    Zuordnungseinheit
    102
    Integrationsverarbeitungsmodus-Bestimmungseinheit
    104
    Integrationszielinformations-Erzeugungseinheit
    105
    Integrationsaktualisierungseinheit
    106
    Speichereinheit für integrierte Objektinformationen
    107
    Zuordnungsverarbeitungsmodus-Bestimmungseinheit (siebte Ausführungsform)
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2006046962 A [0004]

Claims (15)

  1. Sensorerkennungsintegrationsvorrichtung, die mehrere Teile von Objektinformationen, die mit einem Objekt in der Nähe eines Trägerfahrzeugs, das durch mehrere Außenerkennungssensoren detektiert wurde, in Beziehung stehen, integriert, wobei die Sensorerkennungsintegrationsvorrichtung Folgendes umfasst: eine Vorhersageaktualisierungseinheit, die vorhergesagte Objektinformationen erzeugt, die durch Vorhersagen einer Aktion des Objekts auf der Grundlage einer Aktion des Trägerfahrzeugs, die aus einem Verhalten des Trägerfahrzeugs und den Objektinformationen, die durch die Außenerkennungssensoren detektiert wurden, geschätzt wird, erhalten werden; eine Zuordnungseinheit, die eine Beziehung zwischen den vorhergesagten Objektinformationen und den mehreren Teilen von Objektinformationen berechnet; eine Integrationsverarbeitungsmodus-Bestimmungseinheit, die einen Integrationsverarbeitungsmodus zum Bestimmen eines Verfahrens zum Integrieren der mehreren Teile von Objektinformationen auf der Grundlage einer Positionsbeziehung zwischen einem bestimmten Bereich in einem Überlappungsbereich von Detektionsbereichen der mehreren Außenerkennungssensoren und den vorhergesagten Objektinformationen wechselt; und eine Integrationszielinformations-Erzeugungseinheit, die die mehreren Teile von Objektinformationen, die den vorhergesagten Objektinformationen zugeordnet sind, auf der Grundlage des Integrationsverarbeitungsmodus integriert.
  2. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei der bestimmte Bereich ein Grenzabschnitt im Überlappungsbereich der Detektionsbereiche der mehreren Außenerkennungssensoren ist.
  3. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei der bestimmte Bereich der Überlappungsbereich der Detektionsbereiche der mehreren Außenerkennungssensoren, die auf einer Fahrtroute des Trägerfahrzeugs, die aus einem Verhalten des Trägerfahrzeugs geschätzt wurde, angeordnet sind, ist.
  4. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei der bestimmte Bereich ein Bereich ist, in dem die Zuverlässigkeit der Außenerkennungssensoren im Überlappungsbereich der Detektionsbereiche der mehreren Außenerkennungssensoren abnimmt.
  5. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei der Integrationsverarbeitungsmodus einen ersten Modus, in dem dann, wenn die mehreren Teile von Objektinformationen dem bestimmten Bereich angehören, die Verarbeitung des Integrierens der mehreren Teile von Objektinformationen eine relativ genaue Verarbeitung ist, und einen zweiten Modus, in dem dann, wenn mindestens eines der mehreren Teile von Objektinformationen nicht dem bestimmten Bereich angehört, die Verarbeitung des Integrierens der mehreren Teile von Objektinformationen eine relativ einfache Verarbeitung ist, enthält.
  6. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei die Integrationszielinformations-Erzeugungseinheit die mehreren Teile von Objektinformationen auf der Grundlage des Integrationsverarbeitungsmodus auf der Grundlage einer Fehlerverteilung jedes Außenerkennungssensors integriert.
  7. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei die Integrationsverarbeitungsmodus-Bestimmungseinheit den Integrationsverarbeitungsmodus auf der Grundlage eines Verfolgungszustands des Objekts wechselt.
  8. Sensorerkennungsintegrationsvorrichtung nach Anspruch 7, wobei der Verfolgungszustand des Objekts eine Verfolgungszeit des Objekts ist.
  9. Sensorerkennungsintegrationsvorrichtung nach Anspruch 7, wobei der Verfolgungszustand des Objekts eine Existenzwahrscheinlichkeit des Objekts ist.
  10. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei die integrierten Objektinformationen zu einer Zeit des Wechselns des Integrationsverarbeitungsmodus kontinuierlich geändert werden.
  11. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, die ferner Folgendes umfasst: eine Planbestimmungseinheit, die einen geplanten Pfad zum Steuern des Trägerfahrzeugs durch die integrierten Objektinformationen plant, wobei die Integrationsverarbeitungsmodus-Bestimmungseinheit den Integrationsverarbeitungsmodus auf der Grundlage des geplanten Pfads wechselt.
  12. Sensorerkennungsintegrationsvorrichtung nach Anspruch 5, wobei ein Verarbeitungszyklus der genauen Verarbeitung auf der Grundlage eines Verfolgungszustands des Objekts veränderbar gestaltet ist.
  13. Sensorerkennungsintegrationsvorrichtung nach Anspruch 3, wobei der Integrationsverarbeitungsmodus gemäß einer Wirkung des Objekts auf der Fahrtroute des Trägerfahrzeugs, die aus dem Verhalten des Trägerfahrzeugs geschätzt wird, gewechselt wird.
  14. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, die ferner eine Zuordnungsverarbeitungsmodus-Bestimmungseinheit umfasst, die eine Zuordnungsverarbeitung des Objekts in der Zuordnungseinheit zwischen relativ genauem Verarbeiten und relativ einfachem Verarbeiten wechselt.
  15. Sensorerkennungsintegrationsvorrichtung nach Anspruch 1, wobei die Integrationsverarbeitungsmodus-Bestimmungseinheit den Integrationsverarbeitungsmodus auf der Grundlage einer Entfernung vom Trägerfahrzeug zum Objekt wechselt.
DE112021002118.4T 2020-06-15 2021-03-18 Sensorerkennungsintegrationsvorrichtung Pending DE112021002118T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-103101 2020-06-15
JP2020103101A JP7432447B2 (ja) 2020-06-15 2020-06-15 センサ認識統合装置
PCT/JP2021/011102 WO2021256032A1 (ja) 2020-06-15 2021-03-18 センサ認識統合装置

Publications (1)

Publication Number Publication Date
DE112021002118T5 true DE112021002118T5 (de) 2023-03-09

Family

ID=79196915

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021002118.4T Pending DE112021002118T5 (de) 2020-06-15 2021-03-18 Sensorerkennungsintegrationsvorrichtung

Country Status (4)

Country Link
US (1) US20230221432A1 (de)
JP (1) JP7432447B2 (de)
DE (1) DE112021002118T5 (de)
WO (1) WO2021256032A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7186412B1 (ja) * 2022-04-04 2022-12-09 和博 山内 車両群

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006046962A (ja) 2004-07-30 2006-02-16 Toyota Motor Corp 物標検出装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6690952B2 (ja) * 2016-01-25 2020-04-28 日立オートモティブシステムズ株式会社 車両走行制御システム、及び車両走行制御方法
JP6239047B1 (ja) * 2016-06-17 2017-11-29 三菱電機株式会社 物体認識統合装置および物体認識統合方法
JP6747269B2 (ja) * 2016-12-06 2020-08-26 トヨタ自動車株式会社 物体認識装置
JP6932664B2 (ja) * 2018-03-08 2021-09-08 日立Astemo株式会社 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006046962A (ja) 2004-07-30 2006-02-16 Toyota Motor Corp 物標検出装置

Also Published As

Publication number Publication date
US20230221432A1 (en) 2023-07-13
JP7432447B2 (ja) 2024-02-16
WO2021256032A1 (ja) 2021-12-23
JP2021195018A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
EP3365741B1 (de) Verfahren zur vollautomatischen führung eines fahrzeugsystems und kraftfahrzeug
DE102018133576A1 (de) Trajektorienplaner mit dynamischem kostenlernen für autonomes fahren
DE102019102173A1 (de) Verwaltung der automatisierten fahrkomplexität des vorausliegenden fahrweges unter verwendung des wahrnehmungssystems
DE112017000787T5 (de) Verfahren zum Steuern der Bewegung eines Fahrzeugs und Fahrzeugsteuersystem
DE102016113903A1 (de) Fahrzeugfahrstreckenbestimmung
DE102017205518A1 (de) Streckenermittlungsvorrichtung für ein autonomes Fahrzeug und Streckenermittlungsverfahren
DE102014118079A1 (de) Erlernen des autonomen Fahrverhaltens
DE102018008624A1 (de) Steuerungssystem und Steuerungsverfahren zum samplingbasierten Planen möglicher Trajektorien für Kraftfahrzeuge
DE102014220537A1 (de) Vorausfahrzeug-auswahlvorrichtung
DE102012215060A1 (de) Verfahren zum Führen eines Fahrzeugs und Fahrerassistenzsystem
DE102017118651A1 (de) Verfahren und System zur Kollisionsvermeidung eines Fahrzeugs
DE102018125250A1 (de) Verfahren und Steuereinheit zur Führung eines Fahrzeugs
WO2021197729A1 (de) Verfahren zur planung einer soll-trajektorie
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
CN113412458A (zh) 辅助系统的轨迹规划方法
DE112021006846T5 (de) Systeme und Verfahren zur szenarioabhängigen Trajektorienbewertung
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102018124161A1 (de) Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs auf einer Fahrbahn
DE102019101112A1 (de) Verminderung von Fahrspurzentrierungsstörung
DE112021002118T5 (de) Sensorerkennungsintegrationsvorrichtung
DE112022001133T5 (de) Systeme und Verfahren zur Fahrzeugbewegungsplanung
DE102021112119A1 (de) Verfahren und Vorrichtung zur Trajektorienplanung für ein Fahrzeug
DE102021000792A1 (de) Verfahren zum Betrieb eines Fahrzeuges
DE112019001961T5 (de) Sensorerkennungsintegrationsvorrichtung
DE102018008599A1 (de) Steuerungssystem und Steuerungsverfahren zum Bestimmen einer Trajektorie für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed