DE112018005774T5 - Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers - Google Patents

Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers Download PDF

Info

Publication number
DE112018005774T5
DE112018005774T5 DE112018005774.7T DE112018005774T DE112018005774T5 DE 112018005774 T5 DE112018005774 T5 DE 112018005774T5 DE 112018005774 T DE112018005774 T DE 112018005774T DE 112018005774 T5 DE112018005774 T5 DE 112018005774T5
Authority
DE
Germany
Prior art keywords
behavior
prediction
vehicle
moving body
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005774.7T
Other languages
English (en)
Inventor
Masayoshi Ishikawa
Hiroaki Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Publication of DE112018005774T5 publication Critical patent/DE112018005774T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die vorliegende Erfindung verbessert die Genauigkeit der Vorhersage von selten vorkommendem Verhalten von sich bewegenden Körpern, ohne die Genauigkeit der Vorhersage von üblicherweise vorkommendem Verhalten von sich bewegenden Körpern zu verringern. Ein Fahrzeug 101 ist mit einer Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers versehen. Die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers ist mit einer ersten Verhaltensvorhersageeinheit 203 und einer zweiten Verhaltensvorhersageeinheit 207 versehen. Die erste Verhaltensvorhersageeinheit 203 lernt ein erstes vorhergesagtes Verhalten 204, um den Fehler zwischen Verhaltensvorhersageergebnissen für sich bewegende Körper und Verhaltenserkennungsergebnissen für die sich bewegenden Körper, nachdem eine Vorhersagezeit abgelaufen ist, zu minimieren. Die zweite Verhaltensvorhersageeinheit 207 lernt ein zukünftiges zweites vorhergesagtes Verhalten 208 der sich bewegenden Körper um das Fahrzeug 101, so dass das Fahrzeug 101 nicht in einer unsicheren Weise fährt.

Description

  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und ein Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers, die auf das automatische Fahren eines Kraftfahrzeugs oder dergleichen angewendet werden können.
  • Stand der Technik
  • Um automatisches Fahren von Kraftfahrzeugen zu verwirklichen, werden eine Erfassungstechnologie, die Umgebungsbedingungen unter Verwendung von fahrzeuginternen Kameras usw. erfasst, eine Erkennungstechnologie, die den Zustand des Fahrzeugs und der umliegenden Umgebung auf der Basis der erfassten Daten erkennt, und eine Steuertechnologie zum Steuern einer Fahrgeschwindigkeit und eines Lenkwinkels auf der Basis der Erkennungsinformationen des Zustandes des Fahrzeugs und der umliegenden Umgebung entwickelt. Bei der Erkennungstechnologie ist eine Vorhersagetechnologie, die ein Objekt oder einen sich bewegenden Körper, der um das Eigenfahrzeug existiert, erkennt und ihre zukünftige Position genau vorhersagt, erforderlich.
  • Verschiedene Faktoren wie z. B. die Wechselwirkung zwischen den sich bewegenden Körpern und der umliegenden Umgebung wirken sich auf das zukünftige Verhalten der sich bewegenden Körper wie z. B. von Fußgängern und Fahrzeugen aus. Da es schwierig ist, alle dieser Effekte zu formulieren, können die Effekte jedes Faktors durch Maschinenlernen als schwarzer Kasten behandelt werden.
  • PTL 1 erörtert beispielsweise einen Mechanismus zum Vorhersagen einer zukünftigen Position des sich bewegenden Körpers durch Regressionsanalyse. Im Allgemeinen wird überwachtes Lernen für das Vorhersageproblem verwendet.
  • Entgegenhaltungsliste
  • Patentliteratur
  • PTL 1: JP 2013-196601 A
  • Zusammenfassung der Erfindung
  • Technisches Problem
  • Der durch überwachtes Lernen erhaltene Prädiktor ist jedoch für ein häufiges Muster stark, weist jedoch eine schlechte Vorhersagegenauigkeit für ein seltenes Muster auf. Andererseits ist es im Fall von automatischem Fahren erforderlich, selten vorkommende Aktionen wie z. B. Hervorspringen eines Fußgängers, plötzliche Beschleunigung/Verlangsamung eines anderen Fahrzeugs und Spurwechsel für die Sicherheit zu berücksichtigen. Aus diesem Grund ist es schwierig, sicheres Fahren durch automatisches Fahren mit der Vorhersagetechnik auf der Basis von einfachem überwachtem Lernen zu verwirklichen.
  • Außerdem wird beim überwachten Lernen, wenn nur seltene Musterdaten wie z. B. Hervorspringen, plötzliche Beschleunigung/Verlangsamung, Spurwechsel usw. zum Lernen verwendet werden, nur eine Vorhersage eines seltenen Musters durchgeführt, was das normale sichere Fahren behindert.
  • Die Erfindung wurde angesichts der obigen Umstände durchgeführt und eine Aufgabe der Erfindung besteht darin, eine Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und ein Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers zu schaffen, die die Genauigkeit der Vorhersage eines seltenen Verhaltens des sich bewegenden Körpers verbessern können, ohne die Genauigkeit der Vorhersage des Verhaltens des sich bewegenden Körpers, das häufig vorkommt, zu verringern.
  • Lösung für das Problem
  • Um die obige Aufgabe zu lösen, umfasst die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß einem ersten Aspekt eine erste Verhaltensvorhersageeinheit, die ein erstes Vorhersageverhalten eines sich bewegenden Körpers auf der Basis eines Vorhersageergebnisses eines Verhaltens des sich bewegenden Körpers, das von einem Fahrzeug erkennbar ist, und eines Erkennungsergebnisses eines Verhaltens des sich bewegenden Körpers, nachdem eine Vorhersagezeit abgelaufen ist, ausgibt, und eine zweite Verhaltensvorhersageeinheit, die ein zweites Vorhersageverhalten des sich bewegenden Körpers, das von dem Fahrzeug erkennbar ist, auf der Basis des Verhaltens des Fahrzeugs ausgibt.
  • Vorteilhafte Effekte der Erfindung
  • Gemäß der Erfindung ist es möglich, die Genauigkeit der Vorhersage von selten vorkommendem Verhalten von sich bewegenden Körpern zu verbessern, ohne die Genauigkeit der Vorhersage von üblich vorkommendem Verhalten von sich bewegenden Körpern zu verringern.
  • Figurenliste
    • [1] 1 ist ein schematisches Diagramm, das ein Beispiel einer Fahrumgebung eines Kraftfahrzeugs darstellt, auf das eine Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß einer ersten Ausführungsform angewendet wird.
    • [2] 2 ist ein Blockdiagramm, das eine Konfiguration der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der ersten Ausführungsform darstellt.
    • [3] 3 ist ein Blockdiagramm, das eine Konfiguration einer Erkennungseinheit in 2 darstellt.
    • [4] 4 ist ein Diagramm, das ein Konfigurationsbeispiel von Karteninformationen in 3 darstellt.
    • [5] 5 ist ein Blockdiagramm, das eine Konfiguration einer Verhaltensvorhersageeinheit, die in der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der Ausführungsform verwendet wird, darstellt.
    • [6] 6 ist ein Blockdiagramm, das eine Konfiguration einer Steuereinheit in 2 darstellt.
    • [7] 7(a) ist ein schematisches Diagramm, das ein Bewertungsverfahren einer Fahrbewertungseinheit in 2 darstellt, 7(b) ist ein Diagramm, das ein Beispiel einer Datenkarte in 5 darstellt, und 7(c) ist ein Diagramm, das ein Beispiel von Verhaltensdaten einer zukünftigen Zeit von 5 darstellt.
    • [8] 8 ist ein Diagramm, das ein Anzeigebeispiel eines ersten Vorhersageverhaltens und eines zweiten Vorhersageverhaltens darstellt, die durch die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers von 2 vorhergesagt werden.
    • [9] 9 ist ein Blockdiagramm, das eine Konfiguration einer Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß einer zweiten Ausführungsform darstellt.
    • [10] 10 ist ein Blockdiagramm, das eine Hardware-Konfiguration einer Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß einer dritten Ausführungsform darstellt.
  • Beschreibung von Ausführungsformen
  • Ausführungsformen werden mit Bezug auf die Zeichnungen beschrieben. Ferner begrenzen die nachstehend beschriebenen Ausführungsformen nicht den Schutzbereich der Erfindung. Nicht alle Elemente und Kombinationen davon, die in den Ausführungsformen beschrieben sind, sind für die Lösung der Erfindung wesentlich.
  • (Erste Ausführungsform)
  • 1 ist ein schematisches Diagramm, das ein Beispiel einer Fahrumgebung eines Kraftfahrzeugs darstellt, auf das eine Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der ersten Ausführungsform angewendet wird.
  • In 1 wird angenommen, dass ein Eigenfahrzeug 101 auf einer Straße 100 fährt und andere Fahrzeuge 102 und 103 vor dem Eigenfahrzeug 101 fahren. Die anderen Fahrzeuge 102 und 103 sind andere Fahrzeuge als das Eigenfahrzeug 101. Es wird angenommen, dass ein Fußgänger 104 neben der Straße 100 läuft.
  • Das Eigenfahrzeug 101 ist mit einer Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers, einem Sensor 20 und einer Anzeigeeinheit 30 versehen. Die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers sagt eine zukünftige Position eines sich bewegenden Körpers wie z. B. der anderen Fahrzeuge 102 und 103, des Fußgängers 104 und des Motorrades vorher (kann nachstehend als vorhergesagtes Verhalten bezeichnet werden). Der Sensor 20 detektiert einen Zustand der Straße 100 und des sich bewegenden Körpers um das Eigenfahrzeug 101. Als Sensor 20 kann beispielsweise eine Kamera, ein Radar, ein Lidar [engl.: rider], ein Sonar, ein GPS (globales Positionsbestimmungssystem) und eine Autonavigation verwendet werden. Die Anzeigeeinheit 30 zeigt das vorhergesagte Verhalten, das durch die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers vorhergesagt wird, an. Dieses vorhergesagte Verhalten kann so angezeigt werden, dass es auf das Bild vor dem Eigenfahrzeug 101 überlagert wird, das durch den Sensor 20 erfasst wird, oder kann auf der Windschutzscheibe des Eigenfahrzeugs 101 angezeigt werden.
  • Wenn beispielsweise die anderen Fahrzeuge 102 und 103 und der Fußgänger 104 sich jeweils entlang Routen K2 bis K4 bewegen, kann die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers die Position vorhersagen, wo sich die anderen Fahrzeuge 102 und 103 und der Fußgänger 104 wahrscheinlich befinden. Das Eigenfahrzeug 101 kann beim automatischen Fahren einen Lenkwinkel und eine Geschwindigkeit, um eine Kollision mit dem sich bewegenden Körper wie z. B. den anderen Fahrzeugen 102 und 103 und dem Fußgänger 104, plötzliches Lenken, eine plötzliche Verlangsamung, eine plötzliche Beschleunigung und einen plötzlichen Stopp des Eigenfahrzeugs 101 zu verhindern, auf der Basis der Vorhersage des Verhaltens des sich bewegenden Körpers durch die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers steuern.
  • Das Verhalten des sich bewegenden Körpers wie z. B. der anderen Fahrzeuge 102 und 103, des Fußgängers 104 oder eines zweirädrigen Fahrzeugs ändert sich gemäß der umliegenden Umgebung. Das Fahrverhalten des Fahrzeugs ändert sich beispielsweise auf einer Autobahn, einer Nationalstraße und einer Nebenstraße. Außerdem ändert sich das Verhalten des sich bewegenden Körpers auch in Abhängigkeit davon, wie viele andere sich bewegende Körper in der Nähe existieren. Das Verhalten des Fahrzeugs ändert sich beispielsweise stark auf einer Schnellstraße, auf der keine anderen sich bewegenden Körper existieren, einer verkehrsreichen Schnellstraße, einer Einkaufsstraße mit vielen Leuten und dergleichen. Daher ist es für das sichere automatische Fahren erforderlich, das zukünftige Verhalten des sich bewegenden Körpers in Anbetracht von Fahrstraßeninformationen, der Wechselwirkung mit umgebenden Objekten und dergleichen vorherzusagen.
  • Das Verhalten des Fahrzeugs oder des sich bewegenden Körpers umfasst ein häufiges Muster, das häufig vorkommt, und ein seltenes Muster, das selten vorkommt. Das häufige Muster umfasst normales Fahren der anderen Fahrzeuge 102 und 103 entlang der Straße 100 und das Laufen des Fußgängers 104 entlang der Straße 100. Das seltene Muster umfasst das Hervorspringen des Fußgängers 104 auf die Straße 100, das Überqueren der Straße 100, eine plötzliche Beschleunigung/Verlangsamung der anderen Fahrzeuge 102 und 103, das Ändern des Kurses und dergleichen.
  • Um sowohl dem häufigen Muster als auch dem seltenen Muster gerecht werden zu können, gibt hier die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers ein erstes Vorhersageverhalten des sich bewegenden Körpers auf der Basis eines Vorhersageergebnisses des Verhaltens des sich bewegenden Körpers um das Eigenfahrzeug 101 und eines Erkennungsergebnisses des Verhaltens des sich bewegenden Körpers nach dem Ablauf einer Vorhersagezeit aus. Ferner gibt die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers ein zweites Vorhersageverhalten des sich bewegenden Körpers, das vom Eigenfahrzeug 101 erkennbar ist, auf der Basis des Verhaltens des Eigenfahrzeugs 101 aus. Das erste Vorhersageverhalten kann aus dem häufigen Muster vorhergesagt werden. Das zweite Vorhersageverhalten kann aus dem seltenen Muster vorhergesagt werden.
  • Zu dieser Zeit ist es schwierig, alle Faktoren zu formulieren, die sich auf das zukünftige Verhalten des sich bewegenden Körpers auswirken, wie z. B. Fahrstraßeninformationen und Wechselwirkung mit umliegenden Objekten. Aus diesem Grund ist es durch Behandeln des Einflusses von jedem Faktor als schwarzen Kasten durch Maschinenlernen möglich, das zukünftige Verhalten des sich bewegenden Körpers in Anbetracht von Fahrstraßeninformationen, der Wechselwirkung mit umliegenden Objekten und dergleichen vorherzusagen.
  • Das häufige Muster wird durch überwachtes Lernen vorhergesagt. Hier werden die zukünftige Position und die zukünftige Geschwindigkeit des Objekts, das durch den Sensor 20 erkannt wird, der am Eigenfahrzeug 101 angebracht ist, vorhergesagt, und werden als erstes Vorhersageverhalten verwendet. Danach wird das Lernen so durchgeführt, dass die Differenz zwischen der Position und Geschwindigkeit desselben Objekts, die nach dem Ablauf einer vorbestimmten Vorhersagezeit beobachtet werden, und der vorhergesagten zukünftigen Position und zukünftigen Geschwindigkeit klein wird.
  • Das seltene Muster wird durch Verstärkungslernen vorhergesagt und die vorhergesagte zukünftige Position und vorhergesagte zukünftige Geschwindigkeit werden als zweites Vorhersageverhalten verwendet. Auf der Basis des ersten Vorhersageverhaltens durch überwachtes Lernen und des zweiten Vorhersageverhaltens durch Verstärkungslernen wird hier bestimmt, ob das Eigenfahrzeug 101 sicher gefahren werden kann, wenn das Eigenfahrzeug 101 gesteuert wird. Das zweite vorhergesagte Verhalten wird durch Verstärkungslernen modifiziert, um das Fahren sicherer zu machen.
  • Bei der Verhaltensvorhersage auf der Basis von überwachtem Lernen ist es erforderlich, eine genaue Verhaltensvorhersage für mehr Daten durchzuführen, so dass die Vorhersagegenauigkeit für das häufige Muster leicht verbessert wird.
  • Bei der Verhaltensvorhersage auf der Basis des Verstärkungslernens ist es erforderlich, sich auf Faktoren zu konzentrieren, die die Steuerung des Eigenfahrzeugs 101 unsicher machen, so dass die Vorhersagegenauigkeit für das seltene Muster, das ein gefährliches Verhalten ist, leicht verbessert werden kann.
  • Wie vorstehend beschrieben, ist es in der vorstehend beschriebenen Ausführungsform durch Kombinieren von überwachtem Lernen und Verstärkungslernen möglich, das Verhalten des sich bewegenden Körpers vorherzusagen, in dem sowohl das häufige Muster als auch das seltene Muster widergespiegelt sind, und das Eigenfahrzeug sicherer zu steuern.
  • Nachstehend wird die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der Ausführungsform im Einzelnen beschrieben.
  • 2 ist ein Blockdiagramm, das eine Konfiguration der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der ersten Ausführungsform darstellt. In 2 umfasst die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers eine Erkennungseinheit 202, eine erste Verhaltensvorhersageeinheit 203, eine Vorhersagefehlerberechnungseinheit 205, eine erste Parameteraktualisierungsausmaßberechnungseinheit 206, eine zweite Verhaltensvorhersageeinheit 207, eine Steuereinheit 209, eine Fahrbewertungseinheit 210, eine Belohnungserzeugungseinheit 211 und eine zweite Parameteraktualisierungsausmaßberechnungseinheit 212.
  • Hier kann die erste Verhaltensvorhersageeinheit 203 ein erstes Vorhersageverhalten 204 lernen, um einen Fehler zwischen dem Vorhersageergebnis des Verhaltens des sich bewegenden Körpers und dem Erkennungsergebnis des Verhaltens des sich bewegenden Körpers nach dem Ablauf der Vorhersagezeit zu minimieren. Die zweite Verhaltensvorhersageeinheit 207 kann ein zukünftiges zweites Vorhersageverhalten 208 des sich bewegenden Körpers um das Eigenfahrzeug 101 lernen, so dass das Eigenfahrzeug 101 kein unsicheres Fahren durchführt.
  • Zu dieser Zeit geben die erste Verhaltensvorhersageeinheit 203 und die zweite Verhaltensvorhersageeinheit 207 das erste Vorhersageverhalten 204 bzw. das zweite Vorhersageverhalten 208 unter Verwendung des durch die Erkennungseinheit 202 erkannten Ergebnisses aus.
  • Wenn das erste Vorhersageverhalten 204 das häufige Muster ist, lernt außerdem die erste Verhaltensvorhersageeinheit 203 das erste Vorhersageverhalten 204 durch überwachtes Lernen, so dass das Eigenfahrzeug 101 sicher fahren kann. Wenn das zweite Vorhersageverhalten 208 das seltene Muster ist, lernt die zweite Verhaltensvorhersageeinheit 207 das zweite Vorhersageverhalten 208 durch Verstärkungslernen, so dass das Eigenfahrzeug 101 sicher fahren kann. Außerdem kann das zweite Vorhersageverhalten 208 dieselbe Form wie das erste Vorhersageverhalten 204 annehmen. Zu dieser Zeit kann die Konfiguration der zweiten Verhaltensvorhersageeinheit 207 dieselbe wie die Konfiguration der ersten Verhaltensvorhersageeinheit 203 sein. Außerdem kann die zweite Verhaltensvorhersageeinheit 207 sich Parameter mit der ersten Verhaltensvorhersageeinheit 203 teilen.
  • Sensordaten 201 sind Daten, die vom Sensor 20 erhalten werden, der am Eigenfahrzeug 101 angebracht ist. Die Erkennungseinheit 202 erkennt andere nahegelegene Fahrzeuge und Fußgänger, die als Ergebnis der Verarbeitung der Sensordaten 201 erhalten werden, und hält Kartendaten, Straßenattributinformationen, Zielinformationen und dergleichen. Außerdem erkennt sie auch Informationen, die für die Verhaltensvorhersage durch das Vorhersagemodell erforderlich sind.
  • 3 ist ein Blockdiagramm, das eine Konfiguration der Erkennungseinheit in 2 darstellt.
  • In 3 erkennt eine Erkennungseinheit 202 ein umliegendes Objekt und eine umliegende Umgebung des Eigenfahrzeugs 101 auf der Basis der Sensordaten 201. Zu dieser Zeit können die Sensordaten 201 ein Stereokamerabild und Zeitreihendaten enthalten, die von der Geschwindigkeit, der Gierrate, dem GPS und dergleichen des Fahrzeugbetrags erhalten werden. Die Erkennungseinheit 202 umfasst eine Stereovergleichseinheit 303, eine Objekterkennungseinheit 305, eine Positionsberechnungseinheit 307 und eine Objektverfolgungseinheit 311.
  • Die Stereovergleichseinheit 303 erzeugt ein Parallaxenbild 304 auf der Basis des rechten Kamerabildes 301 und des linken Kamerabildes 302. Der Stereovergleich kann durch ein faltendes neuronales Netz (CNN), ein Blockvergleichsverfahren oder dergleichen durchgeführt werden.
  • Die Objekterkennungseinheit 305 führt eine Bildverarbeitung des linken Kamerabildes 302 durch und erzeugt das Objekterkennungsergebnis 306 durch Erkennen eines auf dem Bild erscheinenden Objekts. Obwohl das Beispiel zum Durchführen der Objekterkennungsverarbeitung in der Konfiguration von 3 am linken Kamerabild 302 dargestellt ist, kann ferner die Objekterkennungsverarbeitung am rechten Kamerabild 301 durchgeführt werden. Hier ist die Objekterkennungsverarbeitung durch die Objekterkennungseinheit 305 eine Detektion eines sich bewegenden Körpers und semantische Segmentierung.
  • Die Detektion des sich bewegenden Körpers kann unter Verwendung einer Faster-R-CNN- oder einer CNN-Technik durchgeführt werden, die Single Shot Multibox Detector (SSD) genannt wird. Diese sind Verfahren zum Erkennen der Position und des Typs eines Erkennungsziels auf einem Bild. Hinsichtlich der Position des Erkennungsziels wird ein rechteckiger Bereich mit dem Erkennungsziel auf dem Bild ausgegeben. Hinsichtlich des Typs des Erkennungsziels wird außerdem eine Klasse des Erkennungsziels wie z. B. eine Person oder ein Fahrzeug, das im rechteckigen Bereich enthalten ist, für jeden der erkannten rechteckigen Bereiche ausgegeben. Hinsichtlich des rechteckigen Bereichs können mehrere Bereiche aus einem Bild extrahiert werden. Außerdem sind Faster R-CNN und SSD Beispiele der Detektion eines sich bewegenden Körpers und können durch ein anderes Verfahren ersetzt werden, das in der Lage ist, ein Objekt auf dem Bild zu detektieren. Anstelle des Objektdetektionsverfahrens kann außerdem ein Verfahren, das Instanzsegmentierung genannt wird, zum Erkennen einer Pixelregion, in der jedes Erkennungsziel widergespiegelt ist, für jedes Erkennungsziel auf einem Bild verwendet werden. Für die Instanzsegmentierung wird ein Verfahren wie z. B. Mask R-CNN verwendet, aber ein anderes Instanzsegmentierungsverfahren als Mask R-CNN kann verwendet werden.
  • Die semantische Segmentierung kann unter Verwendung einer CNN-Technik durchgeführt werden, die ResNet oder U-Net genannt wird. Die semantische Segmentierung ist eine Technik zum Erkennen, welche Klasse von Objekt jedes Pixel auf einem Bild darstellt. Die durch die semantische Segmentierung erkannte Klasse kann nicht nur sich bewegende Körper wie z. B. Leute und Fahrzeuge, sondern auch Geländeinformationen wie z. B. Fahrbahnen, Gehsteige, weiße Linien und Gebäude, Hindernisse und dreidimensionale Objekte umfassen. Außerdem sind ResNet und U-Net Beispiele von semantischer Segmentierung.
  • Die Positionsberechnungseinheit 307 erhält die Klasseninformationen des Objekterkennungsergebnisses 306 auf der Basis des Parallaxenbildes 304 und des Objekterkennungsergebnisses 306 und gibt die Informationen als Positionserkennungsergebnis 308 aus. Das Positionserkennungsergebnis 308 umfasst dreidimensionale Positionsinformationen einer Person oder eines Fahrzeugs, die/das durch die Detektion des sich bewegenden Körpers erkannt wird, und dreidimensionale Positionsinformationen des Objekterkennungsergebnisses 306, das durch die semantische Segmentierung erhalten wird.
  • Die Objektverfolgungseinheit 311 führt eine Zeitreihenverarbeitung des Positionserkennungsergebnisses 308 auf der Basis des Positionserkennungsergebnisses 308, des Erkennungsergebnisses 309 der vorherigen Zeit und einer Eigenfahrzeugtrajektorie 310 durch und gibt ein Zeitreihenerkennungsergebnis 312 aus. Das Erkennungsergebnis 309 der vorherigen Zeit ist das Positionserkennungsergebnis 308 bis zur vorherigen Zeit.
  • Die Objektverfolgungseinheit 311 verwendet das Erkennungsergebnis 309 der vorherigen Zeit und die Eigenfahrzeugtrajektorie 310, um die Position des bis zur vorherigen Zeit erkannten Objekts zur aktuellen Zeit vorherzusagen. Danach wird ein Vergleich zwischen dem Positionserkennungsergebnis 308 zur aktuellen Zeit und der vorhergesagten Position, die durch die Positionsvorhersage erhalten wird, durchgeführt. Bei diesem Vergleich wird der Abstand zwischen dem Positionserkennungsergebnis 308 und jeder vorhergesagten Position berechnet und eine Kombination, die den gesamten Abstand minimiert, kann gesucht werden. Hier kann die Berechnung des Abstandes die Nähe der Region auf dem Bild verwenden oder kann den Abstand in einem dreidimensionalen Raum verwenden.
  • Dann wird dieselbe ID wie die vorherige Zeit dem verglichenen Objekt gegeben und eine neue ID wird dem nicht verglichenen Objekt gegeben. Wenn ein Objekt vorhanden ist, das zur vorherigen Zeit verglichen wurde, wird die Geschwindigkeit des Objekts aus den Positionsinformationen zur vorherigen Zeit und zur aktuellen Zeit berechnet. Die vorstehend beschriebene Verarbeitung wird an jedem Objekt durchgeführt, das durch die Detektion des sich bewegenden Objekts durch die Objekterkennungseinheit 305 erkannt wird, und die Klasse, Position, Geschwindigkeit und ID jedes Objekts werden als Zeitreihenerkennungsergebnis 312 festgelegt.
  • Die Karteninformationen 313 sind Informationen, die durch Umwandeln der Klasseninformationen jedes Pixels, die durch die semantische Segmentierung erhalten werden, in das Positionserkennungsergebnis 308 unter Verwendung des Parallaxenbildes 304 und Bilden eines Überkopfbildes um das Eigenfahrzeug erhalten werden. Außerdem umfassen die Karteninformationen 313 auch Informationen, die im Zeitreihenerkennungsergebnis 312 enthalten sind, in der in 4 dargestellten Form.
  • 4 ist ein Diagramm, das ein Konfigurationsbeispiel der Karteninformationen in 3 darstellt.
  • In 4 weisen die Karteninformationen 313 mehrere Teile von Schichtinformationen 401 auf. Die Schichtinformationen 401 werden durch Organisieren von Informationen um das Fahrzeug für alle Positionsinformationen erhalten. Die Schichtinformationen 401 sind Informationen, die durch Ausschneiden eines Bereichs um das Fahrzeug und Unterteilen des Bereichs durch ein Gitter erhalten werden. Die Informationen jeder Zelle 402, die durch das Gitter aufgetrennt wird, entsprechen den tatsächlichen Positionsinformationen. Im Fall von Informationen, die eindimensional binär ausgedrückt werden, wie z. B. Straßeninformationen, wird beispielsweise 1 in einer Zelle gespeichert, die Positionsinformationen der Straße entspricht, und 0 wird in einer Zelle gespeichert, die anderen Positionsinformationen als der Straße entspricht.
  • Im Fall von Informationen, die als zweidimensionaler kontinuierlicher Wert ausgedrückt werden, wie z. B. Geschwindigkeitsinformationen, werden außerdem eine erste Richtungsgeschwindigkeitskomponente und eine zweite Richtungsgeschwindigkeitskomponente in den Schichtinformationen über zwei Schichten gespeichert. Hier können die erste Richtung und die zweite Richtung beispielsweise die Fahrtrichtung des Fahrzeugs, die Querrichtung, die Nordrichtung, die Ostrichtung und dergleichen darstellen. In einem Fall, in dem die Geschwindigkeitsinformationen in die Schichtinformationen umgewandelt werden, werden außerdem die Informationen in der Zelle 402 gespeichert, die den Positionsinformationen entspricht, wo das Eigenfahrzeug 101 oder der sich bewegende Körper existiert.
  • Wie vorstehend beschrieben, sind die Schichtinformationen 401 Informationen, die in der Zelle 402 gespeichert werden, die den Positionsinformationen der erfassten Informationen über eine Schicht entspricht, deren Dimension gleich oder kleiner als die erfassten Informationen der Erkennungseinheit 202 in Bezug auf die Umgebungsinformationen, die Informationen des sich bewegenden Körpers und die Eigenfahrzeuginformationen sind. In einem Fall, in dem sich die erfassten Informationen auf Informationen beziehen, die nur in einer speziellen Position existieren, wie z. B. ein fallendes Objekt oder ein sich bewegender Körper, werden außerdem die Informationen in der Zelle 402 der entsprechenden Positionsinformationen gespeichert. Die Karteninformationen 313 weisen eine Struktur auf, in der verschiedene Schichtinformationen 401, in denen Informationen um das Fahrzeug für alle Positionsinformationen organisiert sind, gestapelt sind. Wenn die Schichtinformationen 401 gestapelt sind, werden die Positionsinformationen der Zelle 402 jeder Schicht verglichen.
  • Ferner wurde in der vorstehend beschriebenen Ausführungsform die Konfiguration, in der die Karteninformationen 313 auf der Basis des Stereokamerabildes erzeugt werden, beschrieben. Wenn jedoch die Karteninformationen 313 der dreidimensionalen Position, Geschwindigkeit und der Umgebungen des Objekts erhalten werden können, können beispielsweise die Objektdetektion im Kamerabild und die dreidimensionale Positionserkennung durch das Lidar [engl.: rider] kombiniert werden oder eine Konfiguration unter Verwendung von anderen Sonars oder eine Konfiguration mit nur einer monokularen Kamera kann verwendet werden. Außerdem können Karteninformationen verwendet werden. Außerdem kann die Verarbeitung, die durch die Stereovergleichseinheit 303, die Objekterkennungseinheit 305 und die Objektverfolgungseinheit 311 durchgeführt wird, durch ein anderes alternatives Verfahren ersetzt werden.
  • 5 ist ein Blockdiagramm, das eine Konfiguration einer Verhaltensvorhersageeinheit darstellt, die in der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der ersten Ausführungsform verwendet wird. Diese Verhaltensvorhersageeinheit kann auf die erste Verhaltensvorhersageeinheit 203 oder die zweite Verhaltensvorhersageeinheit 207 in 2 angewendet werden.
  • In 5 umfasst die Verhaltensvorhersageeinheit rekurrente neuronale Netze 502-1 bis 502-N, insgesamt gekoppelte Schichten 505-1 bis 505-N und Multiplikationsschichten 506-1 bis 506-N sind für jeden von N (N ist eine positive ganze Zahl) sich bewegenden Körpern 1 bis N vorgesehen. Ferner sind in der Verhaltensvorhersageeinheit eine Summierungsschicht 507, Faltungsschichten 509 und 511 und eine gekoppelte Schicht 510 gemeinsam für die N sich bewegenden Körper 1 bis N vorgesehen.
  • Die Verhaltensvorhersageeinheit führt eine Positionsvorhersage unter Verwendung der rekurrenten neuronalen Netze 502-1 bis 502-N für jeden der sich bewegenden Körper 1 bis N um das Eigenfahrzeug 101 durch. Die sich bewegenden Körper 1 bis N sind N Objekte, die durch die Objekterkennungseinheit 305 der Erkennungseinheit 202 erkannt werden. In dem Beispiel von 1 sind die sich bewegenden Körper 1 bis N andere Fahrzeuge 102 und 103 und der Fußgänger 104. Dann sagt das faltende neuronale Netz das Verhalten in Anbetracht dessen vorher, dass die Zwischenzustände der rekurrenten neuronalen Netze 502-1 bis 502-N der sich bewegenden Körper 1 bis N aggregiert werden, die Straßenbedingungen und Verkehrsbedingungen um das Eigenfahrzeug 101 kombiniert werden und eine Wechselwirkung zwischen den sich bewegenden Körpern 1 bis N und den Straßeninformationen gegenseitig beeinflusst werden.
  • Die rekurrenten neuronalen Netze 502-1 bis 502-N können gewöhnliche rekurrente neuronale Netze oder Ableitungssysteme von rekurrenten neuronalen Netzen wie z. B. eine Gated Recurrent Unit (GRU) und ein langes Kurzzeitgedächtnis (LSTM) sein.
  • Jedes der rekurrenten neuronalen Netze 502-1 bis 502-N empfängt Bewegungsdaten 501-1 bis 501-N der aktuellen Zeit der sich bewegenden Körper 1 bis N und gibt die Bewegungsdaten 503-1 bis 503-N der zukünftigen Zeit der sich bewegenden Körper 1 bis N aus. Die Bewegungsdaten 501-1 bis 501-N der aktuellen Zeit der sich bewegenden Körper 1 bis N sind die Bewegungsausmaße der sich bewegenden Körper 1 bis N seit der Zeit t. Dieses Bewegungsausmaß gibt an, wie sehr sich jeder der sich bewegenden Körper 1 bis N von vor der Zeit t bewegt hat. Die Bewegungsdaten 503-1 bis 503-N der zukünftigen Zeit der sich bewegenden Körper 1 bis N sind die Bewegungsausmaße der sich bewegenden Körper 1 bis N zur zukünftigen Zeit. Dieses Bewegungsausmaß gibt an, wie sehr sich jeder der sich bewegenden Körper bis zur zukünftigen Zeit t0, t1, ..., tT bewegt. Die Bewegungsdaten 501-1 bis 501-N der aktuellen Zeit der sich bewegenden Körper 1 bis N und die Bewegungsdaten 503-1 bis 503-N der zukünftigen Zeit der sich bewegenden Körper 1 bis N sind Koordinaten auf der Basis der Position zur aktuellen Zeit von jedem der sich bewegenden Körper 1 bis N.
  • Die Bewegungsdaten 503-1 bis 503-N der zukünftigen Zeit der sich bewegenden Körper 1 bis N werden verwendet, um vorherzusagen, in welche Richtung sich die sich bewegenden Körper 1 bis N wahrscheinlich bewegen, und sind keine genauen Vorhersageinformationen. Daher werden sie nicht als Ergebnis der Verhaltensvorhersage verwendet.
  • Die Bewegungsdaten 503-1 bis 503-N der zukünftigen Zeit der sich bewegenden Körper 1 bis N werden zum leichteren Lehren der rekurrenten neuronalen Netze 502-1 bis 502-N verwendet. Wenn die rekurrenten neuronalen Netze 502-1 bis 502-N gelehrt werden, können die Bewegungsausmaße zu den zukünftigen Zeiten t0, t1, ..., tT der sich bewegenden Körper 1 bis N als Lehrerinformationen von den Bewegungsdaten 503-1 bis 503-1 der zukünftigen Zeit der sich bewegenden Körper 1 bis N gegeben werden.
  • Die insgesamt gekoppelten Schichten 505-1 bis 505-N empfangen die relativen Positionsdaten 504-1 bis 504-N der aktuellen Zeit der sich bewegenden Körper 1 bis N und geben ein Ergebnis aus, das durch Anwenden einer affinen Transformation und einer Aktivierungsfunktion erhalten wird. Die relativen Positionsdaten 504-1 bis 504-N der aktuellen Zeit der sich bewegenden Körper 1 bis N geben die relativen Positionen der sich bewegenden Körper 1 bis N in einem Koordinatensystem, das in der Eigenfahrzeugposition zentriert ist, zur aktuellen Zeit an. Die Ausgaben der insgesamt gekoppelten Schichten 505-1 bis 505-N weisen dieselben Dimensionen wie die internen Zustände der rekurrenten neuronalen Netze 502-1 bis 502-N auf.
  • Die Multiplikationsschichten 506-1 bis 506-N geben die Produkte der internen Zustände der rekurrenten neuronalen Netze 502-1 bis 502-N und der Ausgaben der insgesamt gekoppelten Schichten 505-1 bis 505-N für jedes Element aus. Das Bewegungsausmaß von jedem der sich bewegenden Körper 1 bis N, das zur zukünftigen Zeit durch die rekurrenten neuronalen Netze 502-1 bis 502-N vorhergesagt wird, wird in einem Koordinatensystem durchgeführt, das auf der aktuellen Zeit von jedem der sich bewegenden Körper 1 bis N zentriert. Daher wird die relative Position von jedem der sich bewegenden Körper 1 bis N in Bezug auf das Eigenfahrzeug 101 mit dem Wert, der durch die insgesamt gekoppelte Schicht 505-1 bis 505-N verarbeitet wird, für jedes Element multipliziert, so dass das relative Bewegungsausmaß zum Eigenfahrzeug 101 berechnet werden kann.
  • Die Summierungsschicht 507 berechnet die Summierung der Ausgaben der Multiplikationsschichten 506-1 bis 506-N der sich bewegenden Körper 1 bis N. Die Summierungsschicht 507 nimmt die Summe der Werte der Multiplikationsschichten 506-1 bis 506-N von jedem der sich bewegenden Körper 1 bis N, so dass es möglich ist, zu erfassen, ob die sich bewegenden Körper 1 bis N vom Eigenfahrzeug 101, zu welcher relativen Position und in welcher Richtung bewegen werden.
  • Wenn die Summe der Ausgaben der Multiplikationsschichten 506-1 bis 506-N aller erkannten sich bewegenden Körper 1 bis N durch die Summierungsschicht 507 genommen wird, wird die Vorhersage in Anbetracht der Wechselwirkung zwischen jedem der sich bewegenden Körper 1 bis N und den Straßeninformationen durch das faltende neuronale Netz durchgeführt. Die Kartendaten 508 sind Daten, in denen Straßeninformationen um das Eigenfahrzeug 101 gespeichert sind.
  • Zu dieser Zeit wendet eine Faltungsschicht 509 ein faltendes neuronales Netz auf die Kartendaten 508 an. Die gekoppelte Schicht 510 koppelt die Ausgabe der Faltungsschicht 509 und die Ausgabe der Summierungsschicht 507.
  • Die Ausgabe der Faltungsschicht 509 und die Ausgabe der Summierungsschicht 507 können beispielsweise durch Addieren der Ausgabe der Summierungsschicht 507 mit der Breite und Höhe der Faltungsschicht 509 in der Kanalrichtung des Ausgabeergebnisses der Faltungsschicht 509 kombiniert werden. Ferner kann ein zusätzliches neuronales Netz wie z. B. eine Faltungsschicht zwischen der Summierungsschicht 507 und der gekoppelten Schicht 510 hinzugefügt werden.
  • Eine Faltungsschicht 511 wendet ein faltendes neuronales Netz auf das kombinierte Ergebnis der Ausgabe der Summierungsschicht 507 und der Ausgabe der Faltungsschicht 509 an und gibt Verhaltensdaten 512 der zukünftigen Zeit aus. Die Verhaltensdaten 512 der zukünftigen Zeit stellen die Wahrscheinlichkeit dar, dass die sich bewegenden Körper 1 bis N an den Koordinaten zu zukünftigen Zeiten t0, t1, ..., tT im Koordinatensystem um das Eigenfahrzeug 101 existieren. Die Verhaltensdaten 512 der zukünftigen Zeit weisen dasselbe Format wie die Karteninformationen 313 auf, die in 4 dargestellt sind.
  • Die Faltungsschichten 509 und 511 müssen nicht notwendigerweise eine einzelne Schicht sein und können mehrere Schichten sein und die Kartendaten 508, die Faltungsschichten 509 und 511 und die gekoppelte Schicht 510 können jeweils einen Zwischenzustand und die Breite und die Höhe der Ausgabe über die Verhaltensdaten 512 der zukünftigen Zeit konstant halten oder können verkleinert oder vergrößert werden. In der vorstehend beschriebenen Ausführungsform wurde die Konfiguration in einer Situation, in der N sich bewegende Körper 1 bis N vorhanden sind, beschrieben. Die Anzahl von sich bewegenden Körpern ist jedoch nicht begrenzt und nur einer oder mehrere sich bewegende Körper sind erforderlich.
  • Durch die obige Verarbeitung werden das erste Vorhersageverhalten 204 und ein zweites Vorhersageverhalten 208 aus der ersten Verhaltensvorhersageeinheit 203 und der zweiten Verhaltensvorhersageeinheit 207 in 2 ausgegeben. Das erste Vorhersageverhalten 204 wird in die Vorhersagefehlerberechnungseinheit 205, die Steuereinheit 209 und die Anzeigeeinheit 30 eingegeben. Das zweite Vorhersageverhalten 208 wird in die Steuereinheit 209 und die Anzeigeeinheit 30 eingegeben.
  • Die Vorhersagefehlerberechnungseinheit 205 berechnet einen Vorhersagefehler des ersten Vorhersageverhaltens 204, das aus der ersten Verhaltensvorhersageeinheit 203 ausgegeben wird. Hier werden das erste Vorhersageverhalten 204 zu den zukünftigen Zeiten t0, t1, ..., tT, das in einem Koordinatensystem um das Eigenfahrzeug 101 ausgedrückt ist, und ein Vorhersagefehler von der Objektposition, die durch die Erkennungseinheit 202 nach den zukünftigen Zeiten t0, t1, ..., tT erkannt wird, erhalten. Zu dieser Zeit werden die Objektpositionen, die durch die Erkennungseinheit 202 zu zukünftigen Zeiten t0, t1, ..., tT erkannt werden, in dasselbe Format wie die Karteninformationen 313 umgewandelt, die in 4 dargestellt sind, ähnlich zum ersten Vorhersageverhalten 204. An den Karteninformationen 313 wird eine Umwandlung so durchgeführt, dass, wenn ein Objekt in einem speziellen Gitter zu einer zukünftigen Zeit t0, t1, ..., tT existiert, es 1 wird, und wenn nicht, 0 wird. Der Vorhersagefehler kann durch die gegenseitige Entropie des ersten Vorhersageverhaltens 204 und diejenige, die durch Umwandeln des Erkennungsergebnisses zu den zukünftigen Zeiten t0, t1, ..., tT in einen Kartenausdruck erhalten wird, berechnet werden.
  • Die erste Parameteraktualisierungsausmaßberechnungseinheit 206 kann das Ausmaß der Aktualisierung des Parameters der ersten Verhaltensvorhersageeinheit 203 berechnen, um den Vorhersagefehler zu minimieren, der durch die Vorhersagefehlerberechnungseinheit 205 berechnet wird. Das Aktualisierungsausmaß dieses Parameters kann durch ein stochastisches Gradientenabstiegsverfahren bestimmt werden. Die Parameter der ersten Verhaltensvorhersageeinheit 203 sind Gewichtsmatrizen und Verzerrungsterme, die in den rekurrenten neuronalen Netzen 502-1 bis 502-N, den insgesamt gekoppelten Schichten 505-1 bis 505-N und den Faltungsschichten 509 und 511 enthalten sind.
  • Die Steuereinheit 209 steuert das Eigenfahrzeug 101 auf der Basis des ersten Vorhersageverhaltens 204 und des zweiten Vorhersageverhaltens 208. Die Steuereinheit 209 bestimmt die Trajektorie des Eigenfahrzeugs 101 und steuert den Lenkwinkel und die Geschwindigkeit des Eigenfahrzeugs 101, um der bestimmten Trajektorie zu folgen. Die Trajektorie ist ein Satz von Zielpositionen des Eigenfahrzeugs 101 zu bestimmten zukünftigen Zeiten t0, t1, ..., tT.
  • 6 ist ein Blockdiagramm, das eine Konfiguration der Steuereinheit in 2 darstellt.
  • In 6 umfasst die Steuereinheit 209 eine Trajektorienerzeugungseinheit 601, eine Trajektorienbewertungseinheit 602, eine Trajektorienbestimmungseinheit 603 und eine Trajektorienverfolgungseinheit 604.
  • Die Trajektorienerzeugungseinheit 601 erzeugt mehrere Trajektorienkandidaten für das Eigenfahrzeug 101. Die Trajektorienkandidaten können beispielsweise mehrere zufällige Trajektorien sein.
  • Die Trajektorienbewertungseinheit 602 bewertet mehrere Trajektorien, die durch die Trajektorienerzeugungseinheit 601 erzeugt werden. Eine Trajektorie kann gut bewertet werden, wenn das erste Vorhersageverhalten 204 und das zweite Vorhersageverhalten 208 und die räumliche Überlappung der erzeugten Eigenfahrzeugtrajektorie zu zukünftigen Zeiten t0, t1, ..., tT klein sind. Außerdem kann die Bewertung der Trajektorie gleichzeitig mit der Bewertung auf der Basis der Geschwindigkeit und Beschleunigung des Eigenfahrzeugs 101 ohne Abhängigkeit vom ersten Vorhersageverhalten 204 und vom zweiten Vorhersageverhalten 208 durchgeführt werden, umfasst jedoch Elemente zum Bewerten der vorhergesagten Verhalten von zumindest den sich bewegenden Körpern 1 bis N.
  • Die Trajektorienbestimmungseinheit 603 bestimmt die Trajektorie mit dem geringsten Bewertungswert der Trajektorienbewertungseinheit 602 als Trajektorie, der das Eigenfahrzeug 101 folgen sollte. Ferner kann die Trajektorienbestimmungseinheit 603 die Trajektorie, der durch das Eigenfahrzeug 101 gefolgt werden soll, synchron mit dem Steuerzyklus der Steuereinheit 209 bestimmen.
  • Die Trajektorienverfolgungseinheit 604 steuert den Lenkwinkel und die Geschwindigkeit des Eigenfahrzeugs 101, um der Eigenfahrzeugtrajektorie zu folgen, die durch die automatische Bestimmungseinheit 603 bestimmt wird.
  • Die Fahrbewertungseinheit 210 bewertet das Fahren auf der Basis des Steuerergebnisses des Eigenfahrzeugs 101 durch die Steuereinheit 209. In dieser Fahrbewertung wird bestimmt, ob das Eigenfahrzeug 101 ein unsicheres Fahren wie z. B. plötzliches Bremsen, plötzliches Lenken, plötzliche Beschleunigung und plötzliche Verlangsamung durchgeführt hat. Unsicheres Fahren kann auf der Basis dessen bestimmt werden, ob eine Fahrunterstützungsfunktion wie z. B. eine Kollisionsvermeidungsfunktion des Eigenfahrzeugs 101 betätigt wurde, ob der Lenkwinkel und die Geschwindigkeit sich um einen Schwellenwert oder mehr geändert haben. Außerdem ist es bei dieser Bewertung möglich zu bestimmen, ob das Eigenfahrzeug 101 einen unwirksamen Betrieb durchgeführt hat, bei dem das Eigenfahrzeug 101 sich trotz der Tatsache nicht bewegt, dass die sich bewegenden Körper 1 bis N nicht um das Eigenfahrzeug 101 existieren und das Eigenfahrzeug 101 sicher fahren kann.
  • Die Belohnungserzeugungseinheit 211 erzeugt eine Belohnung auf der Basis des Fahrbewertungsergebnisses durch die Fahrbewertungseinheit 210. Zu dieser Zeit kann in einem Fall, in dem die Fahrbewertungseinheit 210 bestimmt, dass das unsichere Fahren oder das unwirksame Fahren aufgetreten ist, eine negative Belohnung erzeugt werden und in einem Fall, in dem bestimmt wird, dass weder das unsichere Fahren noch das unwirksame Fahren aufgetreten ist, kann die positive Belohnung erzeugt werden.
  • Die zweite Parameteraktualisierungsausmaßberechnungseinheit 212 berechnet ein Aktualisierungsausmaß des Parameters der zweiten Verhaltensvorhersageeinheit 207, so dass die durch die Belohnungserzeugungseinheit 211 erzeugte Belohnung mehr erhalten werden kann. Dieses Aktualisierungsausmaß kann durch ein stochastisches Gradientenabstiegsverfahren oder einen evolutionären Algorithmus berechnet werden. Zu dieser Zeit kann die zweite Verhaltensvorhersageeinheit 207 Parameter aktualisieren, so dass das unsichere Fahren und das unwirksame Fahren des Eigenfahrzeugs 101 als Ergebnis der tatsächlichen Steuerung des Eigenfahrzeugs 101 auf der Basis des ersten Vorhersageverhaltens 204 und des zweiten Vorhersageverhaltens 208 nicht auftreten.
  • Da die erste Verhaltensvorhersageeinheit 203 durch überwachtes Lernen gelehrt wird, speichert das erste Vorhersageverhalten 204 stark das häufige Muster. In einem Fall, in dem die Steuereinheit 209 das Eigenfahrzeug 101 auf der Basis des ersten Vorhersageverhaltens 204 steuert, das sich stark an das häufige Muster erinnert, kann das Eigenfahrzeug 101 sicher fahren, wenn die sich bewegenden Körper 1 bis N um das Eigenfahrzeug 101 sich gemäß dem häufigen Muster verhalten, selbst wenn das zweite Vorhersageverhalten 208 nichts vorhersagt.
  • In einem Fall, in dem die sich bewegenden Körper 1 bis N um das Eigenfahrzeug 101 nicht gemäß dem häufigen Muster handeln, das heißt in einem Fall, in dem das seltene Muster vorkommt, tritt ein unsicheres Ereignis auf und das Eigenfahrzeug 101 fährt unsicher, wenn die zweite Verhaltensvorhersageeinheit 207 nichts vorhersagt. Da die zweite Verhaltensvorhersageeinheit 207 gelehrt wird, ein solches unsicheres Fahren zu vermeiden, sagt sie schließlich das seltene Muster vorher, das zu unsicherem Fahren führt.
  • Durch Lehren der zweiten Verhaltensvorhersageeinheit 207, so dass das unwirksame Fahren nicht auftritt, ist es außerdem möglich, eine Situation zu verhindern, in der die Umgebungen des Eigenfahrzeugs 101 gefährlich sind und das Eigenfahrzeug 101 nicht bewegt werden kann. Zu dieser Zeit kann die erste Verhaltensvorhersageeinheit 203 eine optimistische Verhaltensvorhersage durchführen und die zweite Verhaltensvorhersageeinheit 207 kann eine vorsichtige Verhaltensvorhersage durchführen.
  • Außerdem sagt die zweite Verhaltensvorhersageeinheit 207 ein Verhalten, das zu unsicherem Fahren führt, im gleichen Format wie die Karteninformationen 313 vorher, die in 4 dargestellt sind. Aus diesem Grund besteht eine Möglichkeit, dass das unsichere Fahren selbst in einem Bereich induziert werden kann, in dem die sich bewegenden Körper 1 bis N nicht um das Eigenfahrzeug 101 existieren, selbst ein Bereich, in dem die sich bewegenden Körper 1 bis N aufgrund von Hervorspringen, wie z. B. an einer Kreuzung, plötzlich auftreten können, nicht beeinflusst wird, und es möglich ist, das Verhalten des Erscheinens der sich bewegenden Körper 1 bis N vorherzusagen.
  • Ferner kann die Belohnungserzeugungseinheit 211 die Belohnung synchron mit dem Steuerzyklus der Steuereinheit 209 aktualisieren, kann die Belohnung für jeden Abschnitt der Fahrroute aktualisieren oder kann diese kombinieren. Der Abschnitt der Fahrroute kann beispielsweise eine Linkskurve, eine Rechtskurve, eine gerade Linie zu einer Kreuzung oder ein Abfahrtspunkt zu einem Ziel auf einer für die Navigation verwendeten Karte sein. In einem Fall, in dem der Steuerzyklus der Steuereinheit 209 und der Abschnitt der Fahrroute kombiniert werden, können diese gleich behandelt werden oder irgendeiner von ihnen kann gewichtet werden. Die erste Verhaltensvorhersageeinheit 203 und die zweite Verhaltensvorhersageeinheit 207 können das erste Vorhersageverhalten 204 und das zweite Vorhersageverhalten 208 synchron mit der Belohnungsaktualisierungsperiode der Belohnungserzeugungseinheit 211 aktualisieren.
  • 7(a) ist ein schematisches Diagramm, das ein Bewertungsverfahren der Fahrbewertungseinheit von 2 darstellt, 7(b) ist ein Diagramm, das ein Beispiel der Datenkarte in 5 darstellt, und 7(c) ist ein Diagramm, das ein Beispiel von Verhaltensdaten der zukünftigen Zeit von 5 darstellt.
  • In 7(a) wird angenommen, dass das Eigenfahrzeug 101 auf der Straße 100 fährt und das andere Fahrzeug 105 vor dem Eigenfahrzeug 101 fährt. Es wird angenommen, dass das andere Fahrzeug 105 sich entlang der Route K5 bewegt. Das andere Fahrzeug 105 entspricht dem sich bewegenden Körper 1 in 5.
  • Die Straße 100 wird durch die Erkennungseinheit 202 erkannt, die im Eigenfahrzeug 101 vorgesehen ist, und Kartendaten 508 werden erstellt. Es wird angenommen, dass 1 in jeder Zelle der Kartendaten 508 gespeichert wird, die der Position der Straße 100 in 7(a) entspricht, und 0 in Übereinstimmung mit einer anderen Position als der Straße 100 gespeichert wird.
  • Die Bewegungsdaten 501-1 der aktuellen Zeit des sich bewegenden Körpers 1, die relativen Positionsdaten 504-1 der aktuellen Zeit des sich bewegenden Körpers 1 und die Kartendaten 508 des anderen Fahrzeugs 105 werden in die Verhaltensvorhersageeinheit in 5 eingegeben. Als Ausgabe dieser Verhaltensvorhersageeinheit, wie in 7(c) dargestellt, werden dann Verhaltensdaten 512-0, 512-1, ..., 512-T der zukünftigen Zeit zu zukünftigen Zeiten t0, t1, ..., tT, erhalten. Jede Zelle der Verhaltensdaten 512-0, 512-1, ... 512-T der zukünftigen Zeit speichert die Wahrscheinlichkeit, dass das andere Fahrzeug 105 in jeder Koordinate zu zukünftigen Zeiten t0, t1, ..., tT existiert.
  • Die Steuereinheit 209 von 2 steuert das Eigenfahrzeug 101 auf der Basis der Verhaltensdaten 512-0, 512-1, ..., 512-T der zukünftigen Zeit des anderen Fahrzeugs 105. Hier wird angenommen, dass die Trajektorienerzeugungseinheit 601 Trajektorienkandidaten K1-1, K1-2 und K1-3 des Eigenfahrzeugs 101 erzeugt hat. Dann bewertet die Trajektorienbewertungseinheit 602 die räumliche Überlappung von jedem der Trajektorienkandidaten K1-1, K1-2 und K1-3 mit dem anderen Fahrzeug 105 zu zukünftigen Zeiten t0, t1, ..., tT. Zu dieser Zeit ist beispielsweise beim Trajektorienkandidaten K1-1 die räumliche Überlappung 0 %, beim Trajektorienkandidaten K1-2 ist die räumliche Überlappung 80 % und beim Trajektorienkandidaten K1-3 ist die räumliche Überlappung 30 %. In diesem Fall bestimmt die Trajektorienbestimmungseinheit 603 den Trajektorienkandidaten K1-1 mit der kleinsten räumlichen Überlappung als Trajektorie, dem das Eigenfahrzeug 101 folgen soll. Dann steuert die Trajektorienverfolgungseinheit 604 den Lenkwinkel und die Geschwindigkeit des Eigenfahrzeugs 101, um dem Trajektorienkandidaten K1-1 zu folgen, der als Eigenfahrzeugtrajektorie bestimmt wurde.
  • Es wird angenommen, dass als Ergebnis der Steuerung des Lenkwinkels und der Geschwindigkeit des Eigenfahrzeugs 101, um dem Trajektorienkandidaten K1-1 zu folgen, plötzliches Bremsen und plötzliches Lenken des Eigenfahrzeugs 101 aufgetreten sind. Zu dieser Zeit bestimmt die Fahrbewertungseinheit 210, dass das Fahren unsicher ist, und die Belohnungserzeugungseinheit 211 erzeugt eine negative Belohnung. Hier berechnet die zweite Parameteraktualisierungsausmaßberechnungseinheit 212 das Aktualisierungsausmaß des Parameters der zweiten Verhaltensvorhersageeinheit 207, so dass mehr Belohnungen, die durch die Belohnungserzeugungseinheit 211 erzeugt werden, erhalten werden können. Daher berechnet die zweite Parameteraktualisierungsausmaßberechnungseinheit 212 das Aktualisierungsausmaß des Parameters der zweiten Verhaltensvorhersageeinheit 207, so dass eine negative Belohnung nicht erzeugt wird. Folglich kann die zweite Verhaltensvorhersageeinheit 207 das zweite Vorhersageverhalten 208 so erzeugen, dass die Fahrbewertungseinheit 210 nicht bestimmt, dass das Fahren unsicher ist.
  • 8 ist ein Diagramm, das ein Anzeigebeispiel eines ersten Vorhersageverhaltens und eines zweiten Vorhersageverhaltens zeigt, die durch die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers von 2 vorhergesagt werden. In 8 werden die ersten Vorhersageverhalten 204-1 bis 204-3 und ein zweites Vorhersageverhalten 208-1 auf eine Windschutzscheibe 40 des Eigenfahrzeugs 101 projiziert. Die ersten Vorhersageverhalten 204-1 bis 204-3 und das zweite Vorhersageverhalten 208-1 können in Positionen des sich bewegenden Körpers angezeigt werden, die tatsächlich durch den Fahrer durch die Windschutzscheibe 40 beobachtet werden können.
  • Dies ermöglicht, dass der Fahrer die ersten Vorhersageverhalten 204-1 bis 204-3 und das zweite Vorhersageverhalten 208-1 erkennt, ohne den Fahrer von der Vorderseite während des Fahrens abzulenken.
  • In der vorstehend beschriebenen ersten Ausführungsform wurde die Konfiguration, in der das erste Vorhersageverhalten 204 und das zweite Vorhersageverhalten 208 beide durch die Steuereinheit 209 verwendet werden, beschrieben.
  • Nachstehend wird ein Verfahren zum Auswählen des vorhergesagten Verhaltens, das durch die Steuereinheit 209 verwendet wird, gemäß der umliegenden Umgebung beschrieben.
  • (Zweite Ausführungsform)
  • 9 ist ein Blockdiagramm, das eine Konfiguration der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß der zweiten Ausführungsform darstellt. In der Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers von 9 ist eine Vorhersageverfahrensbestimmungseinheit 801 zur Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers von 2 hinzugefügt. Die Vorhersageverfahrensbestimmungseinheit 801 umfasst eine Gewichtsabschätzeinheit 802.
  • Die Vorhersageverfahrensbestimmungseinheit 801 bestimmt das vorhergesagte Verhalten, das durch die Steuereinheit 209 verwendet wird, gemäß den Informationen der umliegenden Umgebung, die durch die Erkennungseinheit 202 erfasst werden, als irgendeines nur des ersten Vorhersageverhaltens 204, nur des zweiten Vorhersageverhaltens 208 und eines gewichteten Mittelwerts des ersten Vorhersageverhaltens 204 und des zweiten Vorhersageverhaltens 208. In einem Fall, in dem der gewichtete Mittelwert des ersten Vorhersageverhaltens 204 und des zweiten Vorhersageverhaltens 208 ausgewählt wird, schätzt außerdem die Gewichtsabschätzeinheit 802 das für den gewichteten Mittelwert verwendete Gewicht ab.
  • Die Bestimmung des Vorhersageverfahrens wird durch überwachtes Lernen durchgeführt. Die Vorhersageverfahrensbestimmungseinheit 801 speichert die Eigenfahrzeugtrajektorie, die durch die Steuereinheit 209 unter Verwendung nur des ersten Vorhersageverhaltens 204 erzeugt wird, und die Eigenfahrzeugtrajektorie, die durch die Steuereinheit 209 unter Verwendung nur des zweiten Vorhersageverhaltens 208 erzeugt wird, gleichzeitig in Zusammenhang mit den Informationen der Erkennungseinheit 202. Danach bestimmt zur zukünftigen Zeit die Fahrbewertungseinheit 210, ob sowohl die Eigenfahrzeugtrajektorie auf der Basis nur des ersten Vorhersageverhaltens 204 als auch die Eigenfahrzeugtrajektorie auf der Basis nur des zweiten Vorhersageverhaltens 208 kein unsicheres Fahren und unwirksames Fahren verursachen.
  • Die Vorhersageverfahrensbestimmungseinheit 801 weist ein Vorhersagemodell auf der Basis von Maschinenlernen auf, das zwei Ausgaben darüber, ob die Eigenfahrzeugtrajektorie auf der Basis nur des ersten Vorhersageverhaltens 204 mit den Informationen der Erkennungseinheit 202 als Eingabe unsicheres Fahren und unwirksames Fahren verursacht, und darüber, ob die Eigenfahrzeugtrajektorie auf der Basis nur des zweiten Vorhersageverhaltens 208 unsicheres Fahren und unwirksames Fahren verursacht, aufweist. Das Vorhersagemodell wird als Zwei-Klassen-Klassifikationsproblem in einem Fall gelernt, in dem die Eigenfahrzeugtrajektorie auf der Basis nur der jeweiligen vorhergesagten Verhalten unsicheres Fahren und unwirksames Fahren verursacht, ein negatives Beispiel ist, und einem Fall, in dem das Fahren nicht verursacht wird, ein positives Beispiel ist.
  • Zur Zeit des tatsächlichen Fahrens verwendet die Vorhersageverfahrensbestimmungseinheit 801 die Informationen, die von der Erkennungseinheit 202 erfasst werden, um vorherzusagen, ob die Eigenfahrzeugtrajektorie unter Verwendung nur des ersten Vorhersageverhaltens 204 und die Eigenfahrzeugtrajektorie unter Verwendung nur des zweiten Vorhersageverhaltens 208 unsicheres Fahren und unwirksames Fahren verursachen, und gibt einen Gewissheitsfaktor aus, der ein positives Beispiel ist. Der Gewissheitsfaktor, dass die Eigenfahrzeugtrajektorie unter Verwendung nur des ersten Vorhersageverhaltens 204 kein unsicheres Fahren und unwirksames Fahren verursacht, ist P1 und der Gewissheitsfaktor, dass die Eigenfahrzeugtrajektorie unter Verwendung nur des zweiten Vorhersageverhaltens 208 unsicheres Fahren und inaktives Fahren verursacht, ist P2.
  • Wenn der Gewissheitsfaktor P1 größer ist als ein Schwellenwert TH und der Gewissheitsfaktor P2 kleiner ist als ein Schwellenwert TL, bestimmt die Vorhersageverfahrensbestimmungseinheit 801, dass die Steuereinheit 209 nur das erste Vorhersageverhalten 204 verwendet. Wenn der Gewissheitsfaktor P1 kleiner ist als der Schwellenwert TL und der Gewissheitsfaktor P2 größer ist als der Schwellenwert TH, bestimmt die Vorhersageverfahrensbestimmungseinheit 801, dass die Steuereinheit 209 nur das zweite Vorhersageverhalten 208 verwendet.
  • In anderen Fällen werden das erste Vorhersageverhalten 204 und das zweite Vorhersageverhalten 208 mit einem Verhältnis von P1/(P1 + P2):P2/(P1 + P2) gewichtet und der Wert, der durch Nehmen des gewichteten Mittelwerts erhalten wird, wird durch die Steuereinheit 209 verwendet. Die Schwellenwerte TH und TL sind Werte, die im Voraus bestimmt werden. Zu dieser Zeit kann die Erkennungseinheit 202 zusätzlich zu den in 3 dargestellten Informationen GPS-Informationen, Umgebungskarteninformationen und den Straßentyp der Fahrstraße zur Eingabe hinzufügen.
  • Durch Auswählen des vorhergesagten Verhaltens, das durch die Steuereinheit 209 verwendet wird, gemäß der umliegenden Umgebung können hier das erste Vorhersageverhalten 204 und das zweite Vorhersageverhalten 208 auf der Basis des Gewissheitsfaktors vorhergesagt werden, dass die Eigenfahrzeugtrajektorie nicht unsicheres Fahren und unwirksames Fahren verursacht. Die Vorhersagegenauigkeit des ersten Vorhersageverhaltens 204 und des zweiten Vorhersageverhaltens 208 kann verbessert werden.
  • (Dritte Ausführungsform)
  • 10 ist ein Blockdiagramm, das eine Hardware-Konfiguration einer Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers gemäß einer dritten Ausführungsform darstellt.
  • In 10 umfasst die Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers einen Prozessor 11, eine Kommunikationssteuervorrichtung 12, eine Kommunikationsschnittstelle 13, eine Hauptspeichervorrichtung 14 und eine externe Speichervorrichtung 15. Der Prozessor 11, die Kommunikationssteuervorrichtung 12, die Kommunikationsschnittstelle 13, die Hauptspeichervorrichtung 14 und die externe Speichervorrichtung 15 sind über einen internen Bus 16 miteinander verbunden. Die Hauptspeichervorrichtung 14 und die externe Speichervorrichtung 15 sind vom Prozessor 11 zugänglich.
  • Außerdem sind der Sensor 20, die Anzeigeeinheit 30 und eine Betriebseinheit 40 als Eingabe/Ausgabe-Schnittstelle der Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers vorgesehen. Der Sensor 20, die Anzeigeeinheit 30 und die Betriebseinheit 40 sind mit dem internen Bus 16 verbunden. Die Betriebseinheit 40 führt Beschleunigung, Verlangsamung, Bremsen, Lenken und dergleichen des Eigenfahrzeugs 101 durch Betreiben der Kraftmaschine, des Getriebes, der Bremse, der Lenkung und dergleichen des Eigenfahrzeugs 101 auf der Basis eines Befehls von der Steuereinheit 209 in 2 durch.
  • Der Prozessor 11 ist Hardware, die den Betrieb der ganzen Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers steuert. Die Hauptspeichervorrichtung 14 kann beispielsweise durch einen Halbleiterarbeitsspeicher wie z. B. einen SRAM oder einen DRAM konfiguriert sein. Die Hauptspeichervorrichtung 14 kann ein Programm speichern, das durch den Prozessor 11 ausgeführt wird, oder einen Arbeitsbereich für den Prozessor 11 zum Ausführen des Programms bereitstellen.
  • Die externe Speichervorrichtung 15 ist eine Speichervorrichtung mit einer großen Speicherkapazität, beispielsweise eine Festplattenvorrichtung oder ein SSD (Halbleiterlaufwerk). Die externe Speichervorrichtung 15 kann ausführbare Dateien von verschiedenen Programmen halten. Die externe Speichervorrichtung 15 kann ein Programm 15A zur Vorhersage des Verhaltens eines sich bewegenden Körpers speichern. Der Prozessor 11 liest das Programm 15A zur Vorhersage des Verhaltens eines sich bewegenden Körpers in die Hauptspeichervorrichtung 14 und führt das Programm 15A zur Vorhersage des Verhaltens eines sich bewegenden Körpers aus, wodurch die Funktionen der Vorrichtung 10 zur Vorhersage des Verhaltens eines sich bewegenden Körpers in 1 verwirklicht werden können.
  • Die Kommunikationssteuervorrichtung 12 ist Hardware mit einer Funktion zum Steuern der Kommunikation mit der Außenseite. Die Kommunikationssteuervorrichtung 12 ist mit einem Netz 19 über die Kommunikationsschnittstelle 13 verbunden.
  • Wie vorstehend beschrieben, wurden die Ausführungsformen der Erfindung beschrieben. Der Montageort jeder in dieser Ausführungsform beschriebenen Funktion spielt jedoch keine Rolle. Mit anderen Worten, sie kann an einem Fahrzeug oder an einem Datenzentrum montiert sein, das mit dem Fahrzeug kommunizieren kann.
  • Außerdem wurde in der vorstehend beschriebenen Ausführungsform ein Fall beschrieben, in dem die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers zum Betreiben eines Fahrzeugs verwendet wird. Die Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers kann jedoch für anderes als Fahrzeuge, beispielsweise für fliegende Objekte wie z. B. Drohnen und unbemannte Fahrzeuge verwendet werden. Sie kann für die Flugsteuerung oder für die Laufsteuerung und Haltungssteuerung eines mit künstlicher Intelligenz ausgestatteten Roboters verwendet werden.
  • Ferner ist die Erfindung nicht auf die vorstehend beschriebenen Ausführungsformen begrenzt, sondern verschiedene Modifikationen können enthalten sein. Die vorstehend beschriebenen Ausführungsformen wurden für ein klares Verständnis der Erfindung im Einzelnen beschrieben und sind nicht notwendigerweise auf jene mit allen beschriebenen Konfigurationen begrenzt. Außerdem können einige der Konfigurationen einer bestimmten Ausführungsform durch die Konfigurationen der anderen Ausführungsformen ersetzt werden und die Konfigurationen der anderen Ausführungsformen können zu den Konfigurationen einer bestimmten Ausführungsform hinzugefügt werden. Außerdem können einige der Konfigurationen jeder Ausführungsform weggelassen, durch andere Konfigurationen ersetzt werden und zu anderen Konfigurationen hinzugefügt werden.
  • Bezugszeichenliste
  • 10
    Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers
    20
    Sensor
    101
    Eigenfahrzeug
    102, 103
    andere Fahrzeuge
    104
    Fußgänger
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2013196601 A [0005]

Claims (12)

  1. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers, die Folgendes umfasst: eine erste Verhaltensvorhersageeinheit, die ein erstes Vorhersageverhalten eines sich bewegenden Körpers auf der Basis eines Vorhersageergebnisses eines Verhaltens des sich bewegenden Körpers, das von einem Fahrzeug erkennbar ist, und eines Erkennungsergebnisses eines Verhaltens des sich bewegenden Körpers, nachdem eine Vorhersagezeit abgelaufen ist, ausgibt; und eine zweite Verhaltensvorhersageeinheit, die ein zweites Vorhersageverhalten des sich bewegenden Körpers, das von dem Fahrzeug erkennbar ist, auf der Basis des Verhaltens des Fahrzeugs ausgibt.
  2. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 1, wobei die erste Verhaltensvorhersageeinheit ein erstes neuronales Netz umfasst, das das erste Vorhersageverhalten auf der Basis von überwachtem Lernen ausgibt, und wobei die zweite Verhaltensvorhersageeinheit ein zweites neuronales Netz umfasst, das das zweite Vorhersageverhalten auf der Basis von Verstärkungslernen ausgibt.
  3. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 1, wobei das erste Vorhersageverhalten und das zweite Vorhersageverhalten für die Fahrsteuerung des Fahrzeugs verwendet werden, wobei die erste Verhaltensvorhersageeinheit das erste Vorhersageverhalten lernt, um einen Fehler zwischen dem Vorhersageergebnis des Verhaltens des sich bewegenden Körpers und dem Erkennungsergebnis des Verhaltens des sich bewegenden Körpers, nachdem die Vorhersagezeit abgelaufen ist, zu minimieren, und wobei die zweite Verhaltensvorhersageeinheit das zweite Vorhersageverhalten des sich bewegenden Körpers, das vom Fahrzeug erkennbar ist, lernt, so dass das Fahrzeug kein unsicheres Fahren durchführt.
  4. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 3, die ferner Folgendes umfasst: eine Erkennungseinheit, die einen Typ, eine Position und eine Geschwindigkeit des sich bewegenden Körpers erkennt; eine Steuereinheit, die das Fahrzeug auf der Basis des ersten Vorhersageverhaltens und/oder des zweiten Vorhersageverhaltens steuert; eine Fahrbewertungseinheit, die die Fahrsicherheit des Fahrzeugs auf der Basis eines Steuerergebnisses des Fahrzeugs bewertet; und eine Belohnungserzeugungseinheit, die eine negative Belohnung erzeugt, wenn ein Sicherheitsbewertungsergebnis unsicher ist, und eine positive Belohnung erzeugt, wenn das Sicherheitsbewertungsergebnis sicher ist, wobei ein Vorhersageparameter der zweiten Verhaltensvorhersageeinheit aktualisiert wird, um die Belohnung zu maximieren.
  5. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, wobei die Erkennungseinheit Folgendes umfasst: eine Stereovergleichseinheit, die ein Parallaxenbild auf der Basis von mehreren Kamerabildern erzeugt, eine Objekterkennungseinheit, die ein Objekt auf der Basis des Kamerabildes erkennt, eine Positionsberechnungseinheit, die ein Positionserkennungsergebnis zu einer aktuellen Zeit des Objekts auf der Basis des Parallaxenbildes und des Erkennungsergebnisses des Objekts berechnet, und eine Objektverfolgungseinheit, die ein Positionserkennungsergebnis des Objekts zu einer aktuellen Zeit auf der Basis einer Trajektorie des Fahrzeugs und des Positionserkennungsergebnisses bis zu einer vorherigen Zeit vorhersagt, und das Objekt auf der Basis eines Vergleichsergebnisses zwischen einem Vorhersageergebnis des Positionserkennungsergebnisses und einem Positionserkennungsergebnis, das durch die Positionsberechnungseinheit berechnet wird, verfolgt.
  6. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, wobei die erste Verhaltensvorhersageeinheit Folgendes umfasst: N rekurrente neuronale Netze, die auf der Basis von Bewegungsdaten einer aktuellen Zeit von N (N ist eine positive ganze Zahl) sich bewegenden Körpern jeweils Bewegungsdaten zu einer zukünftigen Zeit der N sich bewegenden Körper ausgeben, N insgesamt gekoppelte Schichten, die jeweils eine affine Transformation und eine Aktivierungsfunktion auf relative Positionsdaten der N sich bewegenden Körper auf der Basis der Position des Fahrzeugs anwenden, N Multiplikationsschichten, die jeweils interne Zustände der N rekurrenten neuronalen Netze und die Ausgaben der N insgesamt gekoppelten Schichten jeweils multiplizieren, eine Summierungsschicht, die die Ausgaben der N Multiplikationsschichten summiert, eine erste Faltungsschicht, die ein faltendes neuronales Netz auf Straßeninformationen um das Fahrzeug anwendet, eine gekoppelte Schicht, die eine Ausgabe der Summierungsschicht und eine Ausgabe der ersten Faltungsschicht koppelt, und eine zweite Faltungsschicht, die ein faltendes neuronales Netz auf eine Ausgabe der gekoppelten Schicht anwendet.
  7. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, wobei die Steuereinheit Folgendes umfasst: eine Trajektorienerzeugungseinheit, die mehrere Trajektorienkandidaten für das Fahrzeug erzeugt, eine Trajektorienbewertungseinheit, die den Trajektorienkandidaten auf der Basis des ersten Vorhersageverhaltens und des zweiten Vorhersageverhaltens bewertet, eine Trajektorienbestimmungseinheit, die eine Trajektorie des Fahrzeugs auf der Basis eines Bewertungsergebnisses durch die Trajektorienbewertungseinheit bestimmt, und eine Trajektorienverfolgungseinheit, die das Fahrzeug so steuert, dass das Fahrzeug einer durch die Trajektorienbestimmungseinheit bestimmten Trajektorie folgt.
  8. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, die ferner Folgendes umfasst: eine Vorhersageverfahrensbestimmungseinheit, die auf der Basis eines Gewissheitsfaktors darüber, ob das Fahrzeug unsicheres Fahren oder unwirksames Fahren verursacht, ein vorhergesagtes Verhalten, das in der Steuereinheit verwendet wird, als irgendeines nur des ersten Vorhersageverhaltens, nur des zweiten Vorhersageverhaltens und eines gewichteten Mittelwerts des ersten Vorhersageverhaltens und des zweiten Vorhersageverhaltens bestimmt.
  9. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, die ferner Folgendes umfasst: eine Gewichtsabschätzeinheit, die ein Gewicht des ersten Vorhersageverhaltens und ein Gewicht des zweiten Vorhersageverhaltens abschätzt, wobei die Steuereinheit das Fahrzeug auf der Basis eines gewichteten Mittelwerts des ersten Vorhersageverhaltens und des zweiten Vorhersageverhaltens steuert.
  10. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, die ferner Folgendes umfasst: eine Anzeigeeinheit, die das erste Vorhersageverhalten und das zweite Vorhersageverhalten zusammen mit einem Kamerabild vor dem Fahrzeug in einer überlagerten Weise anzeigt.
  11. Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers nach Anspruch 4, die ferner Folgendes umfasst: eine Anzeigeeinheit, die das erste Vorhersageverhalten und das zweite Vorhersageverhalten auf einer Windschutzscheibe des Fahrzeugs anzeigt.
  12. Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers, das Folgendes umfasst: Vorhersagen eines ersten Verhaltens eines sich bewegenden Körpers auf der Basis von überwachtem Lernen; und Vorhersagen eines zweiten Verhaltens des sich bewegenden Körpers auf der Basis von Verstärkungslernen, wobei eine Häufigkeit des Erscheinens des zweiten Verhaltens zur Zeit der Vorhersage kleiner ist als eine Häufigkeit des Erscheinens des ersten Verhaltens.
DE112018005774.7T 2017-12-18 2018-11-28 Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers Pending DE112018005774T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017242023A JP6917878B2 (ja) 2017-12-18 2017-12-18 移動体挙動予測装置
JP2017-242023 2017-12-18
PCT/JP2018/043689 WO2019124001A1 (ja) 2017-12-18 2018-11-28 移動体挙動予測装置および移動体挙動予測方法

Publications (1)

Publication Number Publication Date
DE112018005774T5 true DE112018005774T5 (de) 2020-08-13

Family

ID=66994609

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018005774.7T Pending DE112018005774T5 (de) 2017-12-18 2018-11-28 Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers

Country Status (5)

Country Link
US (1) US11645916B2 (de)
JP (1) JP6917878B2 (de)
CN (1) CN111670468B (de)
DE (1) DE112018005774T5 (de)
WO (1) WO2019124001A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022229404A1 (en) * 2021-04-30 2022-11-03 Five AI Limited Motion planning

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3095878B1 (fr) * 2019-05-10 2021-10-08 Univ De Brest Procédé d'analyse automatique d'images pour reconnaître automatiquement au moins une caractéristique rare
JP7148462B2 (ja) * 2019-07-19 2022-10-05 京セラ株式会社 画像認識評価プログラム、画像認識評価方法、評価装置及び評価システム
DE102019213222B4 (de) * 2019-09-02 2022-09-29 Volkswagen Aktiengesellschaft Verfahren zum Vorhersagen einer zukünftigen Fahr-Situation eines am Straßenverkehr teilnehmenden Fremd-Objektes, Vorrichtung, Fahrzeug
JP7404125B2 (ja) 2019-09-13 2023-12-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 物体追跡方法及びプログラム
WO2021055088A1 (en) * 2019-09-19 2021-03-25 Hrl Laboratories, Llc Learning actions with few labels in the embedded space
US11645498B2 (en) * 2019-09-25 2023-05-09 International Business Machines Corporation Semi-supervised reinforcement learning
US11354913B1 (en) * 2019-11-27 2022-06-07 Woven Planet North America, Inc. Systems and methods for improving vehicle predictions using point representations of scene
US11860634B2 (en) * 2019-12-12 2024-01-02 Baidu Usa Llc Lane-attention: predicting vehicles' moving trajectories by learning their attention over lanes
US11587329B2 (en) * 2019-12-27 2023-02-21 Valeo Schalter Und Sensoren Gmbh Method and apparatus for predicting intent of vulnerable road users
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
JP7359735B2 (ja) 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
KR102541685B1 (ko) * 2020-04-13 2023-06-09 한국과학기술원 재귀 구조를 이용한 예측을 위한 전자 장치 및 그의 동작 방법
US11654933B2 (en) * 2020-11-10 2023-05-23 GM Global Technology Operations LLC Navigation trajectory using reinforcement learning for an ego vehicle in a navigation network
CN112529158A (zh) * 2020-12-08 2021-03-19 华强方特(深圳)科技有限公司 位置预测方法、装置、计算机设备及存储介质
CN112669335A (zh) * 2021-01-27 2021-04-16 东软睿驰汽车技术(沈阳)有限公司 车辆感知方法、装置、电子设备以及机器可读存储介质
CN113361665B (zh) 2021-08-11 2021-11-16 成都理工大学 一种基于强化学习的高原山地旅游安全风险预警方法
TWI794971B (zh) * 2021-09-14 2023-03-01 和碩聯合科技股份有限公司 物體方位辨識方法與物體方位辨識裝置
WO2023047651A1 (ja) * 2021-09-22 2023-03-30 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム及び情報処理方法
WO2023102126A1 (en) * 2021-12-03 2023-06-08 Zoox, Inc. Vehicle perception system with temporal tracker
JP2023118437A (ja) * 2022-02-15 2023-08-25 日立Astemo株式会社 物標算出方法、演算装置
DE102022202002A1 (de) * 2022-02-28 2023-08-31 Volkswagen Aktiengesellschaft Verfahren, Computerprogramm, und Vorrichtung zur Anpassung von Betriebsparametern eines Fortbewegungsmittels, sowie Fortbewegungsmittel
KR102490011B1 (ko) * 2022-07-19 2023-01-19 주식회사 라이드플럭스 로드 유저 예측 기반 자율주행 차량의 주행 계획 결정방법, 장치 및 컴퓨터프로그램
CN116091894B (zh) * 2023-03-03 2023-07-14 小米汽车科技有限公司 模型训练方法、车辆控制方法、装置、设备、车辆及介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954744B2 (en) * 2001-08-29 2005-10-11 Honeywell International, Inc. Combinatorial approach for supervised neural network learning
WO2004068399A1 (ja) * 2003-01-31 2004-08-12 Matsushita Electric Industrial Co. Ltd. 予測型行動決定装置および行動決定方法
JP5206452B2 (ja) * 2009-02-02 2013-06-12 日産自動車株式会社 車両走行支援装置及び車両走行支援方法
JP2011014037A (ja) * 2009-07-03 2011-01-20 Fuji Heavy Ind Ltd リスク予測システム
JP2013537435A (ja) * 2010-06-07 2013-10-03 アフェクティヴァ,インコーポレイテッド ウェブサービスを用いた心理状態分析
JP5189157B2 (ja) * 2010-11-30 2013-04-24 株式会社豊田中央研究所 可動物の目標状態決定装置及びプログラム
JP5838879B2 (ja) 2012-03-22 2016-01-06 株式会社デンソー 予測システム
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
CN107180220B (zh) * 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
US10055652B2 (en) * 2016-03-21 2018-08-21 Ford Global Technologies, Llc Pedestrian detection and motion prediction with rear-facing camera
JP6550678B2 (ja) * 2016-05-27 2019-07-31 日本電信電話株式会社 行動決定装置、未来予測モデル学習装置、ネットワーク学習装置、方法、及びプログラム
CN105892471B (zh) * 2016-07-01 2019-01-29 北京智行者科技有限公司 汽车自动驾驶方法和装置
WO2018057978A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Decision making for autonomous vehicle motion control
CN106842925B (zh) * 2017-01-20 2019-10-11 清华大学 一种基于深度强化学习的机车智能操纵方法与系统
US20180374341A1 (en) * 2017-06-27 2018-12-27 GM Global Technology Operations LLC Systems and methods for predicting traffic patterns in an autonomous vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022229404A1 (en) * 2021-04-30 2022-11-03 Five AI Limited Motion planning

Also Published As

Publication number Publication date
US11645916B2 (en) 2023-05-09
CN111670468B (zh) 2022-06-14
US20210171025A1 (en) 2021-06-10
WO2019124001A1 (ja) 2019-06-27
WO2019124001A8 (ja) 2020-06-04
JP6917878B2 (ja) 2021-08-11
CN111670468A (zh) 2020-09-15
JP2019109691A (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
DE112018005774T5 (de) Vorrichtung zur Vorhersage des Verhaltens eines sich bewegenden Körpers und Verfahren zur Vorhersage des Verhaltens eines sich bewegenden Körpers
DE102016107705B4 (de) Verfahren zur adaptiven erzeugung eines geplanten pfads für ein manöver eines autonomen fahrens
DE102020121865A1 (de) Potenzielle-kollision-warnsystem basierend auf verkehrsteilnehmerabsichtsvorhersage
DE112018005340T5 (de) Informationsverarbeitungsvorrichtung, fahrzeug, mobiles objekt, informationsverarbeitungsverfahren und programm
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102019111414A1 (de) Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
DE102019122027A1 (de) Fahrzeugwegplanung
DE102019111402A1 (de) Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
DE112019001421T5 (de) Systeme und verfahren zum navigieren eines fahrzeugs
DE102019112038A1 (de) Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
DE102017204404B3 (de) Verfahren und Vorhersagevorrichtung zum Vorhersagen eines Verhaltens eines Objekts in einer Umgebung eines Kraftfahrzeugs und Kraftfahrzeug
DE112019003164T5 (de) Steuersystem eines Fahrzeugs und Steuerverfahren zum Steuern der Bewegung eines Fahrzeugs
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102017100199A1 (de) FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102020214283A1 (de) Vorrichtung zur erkennung von hindernissen, fahrzeugsystem mit dieser und verfahren dafür
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102021102785A1 (de) Verfahren und vorrichtung zur spurerkennung auf einer fahrzeugfahrfläche
DE112021005104T5 (de) Systeme und verfahren zum evaluieren von domänenspezifischen fähigkeiten eines navigationssystems
DE102019209736A1 (de) Verfahren zur Bewertung möglicher Trajektorien
DE102020102823A1 (de) Fahrzeugkapselnetzwerke
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102020107149A1 (de) Fahrzeugkapsel-netzwerke
DE102019122536A1 (de) Exzentrizitätskarten
DE102023104789A1 (de) Verfolgung mehrerer objekte
DE112021006846T5 (de) Systeme und Verfahren zur szenarioabhängigen Trajektorienbewertung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: HITACHI ASTEMO, LTD., HITACHINAKA-SHI, JP

Free format text: FORMER OWNER: HITACHI AUTOMOTIVE SYSTEMS, LTD., HITACHINAKA-SHI, IBARAKI, JP