DE102019113862A1 - Systeme und verfahren zum vorhersagen von objektverhalten - Google Patents

Systeme und verfahren zum vorhersagen von objektverhalten Download PDF

Info

Publication number
DE102019113862A1
DE102019113862A1 DE102019113862.0A DE102019113862A DE102019113862A1 DE 102019113862 A1 DE102019113862 A1 DE 102019113862A1 DE 102019113862 A DE102019113862 A DE 102019113862A DE 102019113862 A1 DE102019113862 A1 DE 102019113862A1
Authority
DE
Germany
Prior art keywords
data
objects
vehicle
model
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102019113862.0A
Other languages
English (en)
Inventor
Kenji Yamada
Rajan Bhattacharyya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019113862A1 publication Critical patent/DE102019113862A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/805Azimuth angle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/806Relative heading
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Development Economics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

Systeme und Verfahren werden zum Steuern eines Fahrzeugs bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: das Empfangen von Sensordaten, die aus einer dem Fahrzeug zugeordneten Umgebung erfasst werden; Verarbeiten der Sensordaten durch einen Prozessor, um eine Vielzahl von Objekten innerhalb der Umgebung des Fahrzeugs zu bestimmen; Verarbeiten der Sensordaten durch den Prozessor, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, wobei die Merkmalsdaten aktuelle Daten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten beinhalten; Verarbeiten, durch den Prozessor, der Merkmalsdaten, die einem ersten Objekt der Vielzahl von Objekten zugeordnet sind, mit einem Modell, um eine zukünftige Position des ersten Objekts zu bestimmen.; und das Steuern des Fahrzeugs durch den Prozessor basierend auf der zukünftigen Position.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf autonome Fahrzeuge, insbesondere auf Systeme und Verfahren zur Vorhersage des Verhaltens verschiedener Objekte in einer Umgebung eines autonomen Fahrzeugs.
  • HINTERGRUND
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit geringfügiger oder gar keiner Benutzereingabe zu navigieren. Dies geschieht durch den Einsatz von Sensoren, wie beispielsweise Radar, Lidar, Bildsensoren und dergleichen. Autonome Fahrzeuge nutzen weiterhin Informationen von globalen Positioniersystemen (GPS), Navigationssystemen, Fahrzeug-Fahrzeug-Kommunikationen, Fahrzeug-Infrastruktur-Technologien und/oder drahtgesteuerten Systemen, um das Fahrzeug zu navigieren und eine Verkehrsprognose durchzuführen.
  • In den letzten Jahren wurden zwar bedeutende Fortschritte bei den Verhaltensvorhersagesystemen erzielt, doch könnten solche Systeme in vielerlei Hinsicht noch verbessert werden. So trifft beispielsweise ein autonomes Fahrzeug im Normalbetrieb typischerweise auf eine große Anzahl von Fahrzeugen und anderen Objekten, von denen jedes sein eigenes, schwer vorhersagbares Verhalten aufzeigen kann. Das heißt, selbst wenn ein autonomes Fahrzeug über ein genaues semantisches Verständnis der Fahrbahn verfügt und Objekte in seiner Umgebung korrekt erkannt und klassifiziert hat, kann das Fahrzeug noch nicht in der Lage sein, die Trajektorie und/oder die Pfade bestimmter Objekte in einer Vielzahl von Zusammenhängen genau vorherzusagen.
  • Dementsprechend ist es wünschenswert, Systeme und Verfahren bereitzustellen, die in der Lage sind, das Verhalten von verschiedenen Objekten, auf die ein autonomes Fahrzeug trifft, vorherzusagen. Ferner werden andere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen, in Verbindung mit den beigefügten Zeichnungen, sowie mit dem vorangehenden technischen Gebiet und Hintergrund ersichtlich offensichtlich.
  • KURZDARSTELLUNG
  • Systeme und Verfahren werden zum Steuern eines Fahrzeugs bereitgestellt. In einer Ausführungsform beinhaltet ein Verfahren: Empfangen von Sensordaten, die aus einer dem Fahrzeug zugeordneten Umgebung erfasst werden; Verarbeiten der Sensordaten durch einen Prozessor, um eine Vielzahl von Objekten innerhalb der Umgebung des Fahrzeugs zu bestimmen; Verarbeiten der Sensordaten durch den Prozessor, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, wobei die Merkmalsdaten aktuelle Daten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten beinhalten; Verarbeiten, durch den Prozessor, der Merkmalsdaten, die einem ersten Objekt der Vielzahl von Objekten zugeordnet sind, mit einem Modell, um eine zukünftige Position des ersten Objekts zu bestimmen.; und Steuern des Fahrzeugs durch den Prozessor basierend auf der zukünftigen Position.
  • In verschiedenen Ausführungsformen beinhalten die aktuellen Daten Geschwindigkeitsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen beinhalten die Verlaufsdaten eine Änderung der Geschwindigkeitsdaten, eine Änderung der Fahrtrichtungsdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen beinhalten die Interaktionsdaten aktuelle Daten jedes Objekts der mindestens zwei anderen Objekte und Verlaufsdaten jedes Objekts der mindestens zwei anderen Objekte. In verschiedenen Ausführungsformen beinhalten die aktuellen Daten der Interaktionsdaten Winkeldaten, Abstandsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten. In verschiedenen Ausführungsformen beinhalten die Verlaufsdaten der Interaktionsdaten Winkeldaten, Abstandsdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen ist das Modell ein Regressionsmodell. In verschiedenen Ausführungsformen ist das Regressionsmodell ein baumbasiertes Regressionsmodell. In verschiedenen Ausführungsformen wird das Modell aus einer Vielzahl von Modellen basierend auf einer Anzahl an Merkmalen ausgewählt, die in den Merkmalsdaten enthalten sind.
  • In einer Ausführungsform beinhaltet ein System: eine Datenspeichervorrichtung, die mindestens ein Modell speichert; und einen Prozessor, der konfiguriert ist, um Sensordaten zu empfangen, die aus einer dem Fahrzeug zugeordneten Umgebung erfasst werden, die Sensordaten verarbeiten, um eine Vielzahl von Objekten innerhalb der Umgebung des Fahrzeugs zu bestimmen, die Sensordaten zu verarbeiten, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, wobei die Merkmalsdaten die aktuellen Daten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten beinhalten, wobei die Merkmalsdaten ein erstes Objekt der Vielzahl von Objekten mit einem Modell verarbeitet, um eine zukünftige Position des ersten Objekts zu bestimmen und das Fahrzeug basierend auf der zukünftigen Position zu steuern.
  • In verschiedenen Ausführungsformen beinhalten die aktuellen Daten Geschwindigkeitsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen beinhalten die Verlaufsdaten eine Änderung der Geschwindigkeitsdaten, eine Änderung der Fahrtrichtungsdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen beinhalten die Interaktionsdaten aktuelle Daten jedes Objekts der mindestens zwei anderen Objekte und Verlaufsdaten jedes Objekts der mindestens zwei anderen Objekte. In verschiedenen Ausführungsformen beinhalten die aktuellen Daten Winkeldaten, Abstandsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten. In verschiedenen Ausführungsformen beinhalten die Verlaufsdaten Winkeldaten, Abstandsdaten und Straßentypdaten.
  • In verschiedenen Ausführungsformen ist das Modell ein Regressionsmodell. In verschiedenen Ausführungsformen ist das Regressionsmodell ein baumbasiertes Regressionsmodell. In verschiedenen Ausführungsformen ist der Prozessor ferner konfiguriert, um das Modell aus einer Vielzahl von Modellen basierend auf einer Anzahl an Merkmalen auszuwählen, die in den Merkmalsdaten enthalten sind.
  • In einer Ausführungsform beinhaltet ein autonomes Fahrzeug: ein Sensorsystem, das konfiguriert ist, um eine dem autonomen Fahrzeug zugeordnete Umgebung zu beobachten; ein Steuermodul, das konfiguriert ist, um durch einen Prozessor Sensordaten zu empfangen, die aus der dem autonomen Fahrzeug zugeordneten Umgebung erfasst werden, die Sensordaten verarbeiten, um eine Vielzahl von Objekten innerhalb der Umgebung des autonomen Fahrzeugs zu bestimmen, die Sensordaten zu verarbeiten, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, Verarbeiten der Merkmalsdaten, die einem ersten Objekt der Vielzahl von Objekten zugeordnet sind, mit einem Modell, um eine zukünftige Position des ersten Objekts zu bestimmen und das autonome Fahrzeug basierend auf der zukünftigen Position zu steuern.
  • Die Merkmalsdaten beinhalten aktuelle Daten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten. Die aktuellen Daten beinhalten Geschwindigkeitsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten. Die Verlaufsdaten beinhalten eine Änderung der Geschwindigkeitsdaten, eine Änderung der Fahrtrichtungsdaten und Straßentypdaten. Die Interaktionsdaten beinhalten aktuelle Daten jedes Objekts der mindestens zwei anderen Objekte und Verlaufsdaten jedes Objekts der mindestens zwei anderen Objekte.
  • In verschiedenen Ausführungsformen beinhalten die aktuellen Daten der Interaktionsdaten Winkeldaten, Abstandsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten. In verschiedenen Ausführungsformen beinhalten die Verlaufsdaten der Interaktionsdaten Winkeldaten, Abstandsdaten und Straßentypdaten.
  • Figurenliste
  • Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, wobei gleiche Bezugszeichen gleiche Elemente bezeichnen, und wobei gilt:
    • 1 ist ein Funktionsblockdiagramm, das ein autonomes Fahrzeug mit einem Objektverhalten-Vorhersagesystem gemäß verschiedenen Ausführungsformen veranschaulicht;
    • 2 ist ein Funktionsblockdiagramm, das ein Transportsystem mit einem oder mehreren autonomen Fahrzeugen aus 1 gemäß verschiedenen Ausführungsformen veranschaulicht;
    • 3 ist ein Funktionsblockdiagramm, das ein autonomes Antriebssystem (ADS) in Verbindung mit einem autonomen Fahrzeug gemäß verschiedenen Ausführungsformen veranschaulicht;
    • 4 ist ein Datenflussdiagramm, das ein Objektverhaltensvorhersagemodul gemäß verschiedenen Ausführungsformen veranschaulicht;
    • 5 ist eine Darstellung eines baumbasierten Regressionsmodells, das von dem Objektverhalten-Vorhersagesystem gemäß verschiedenen Ausführungsformen verwendet werden kann; und
    • 6 ist ein Ablaufdiagramm, das ein Steuerverfahren zum Steuern des autonomen Fahrzeugs gemäß verschiedenen Ausführungsformen veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden detaillierten Beschreibung, an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in allen Kombinationen, unter anderem beinhaltend, eine anwendungsspezifische integrierte Schaltung (ASIC), ein feldprogrammierbares Gate-Array (FPGA), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder Gruppenprozessor) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, welche die beschriebene Funktionalität bieten.
  • Ausführungsformen der vorliegenden Offenbarung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Offenbarung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, beispielsweise Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass die hierin beschriebenen Systeme lediglich exemplarische Ausführungsformen der vorliegenden Offenbarung darstellen.
  • Der Kürze halber können konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung, Maschinenlernmodelle, Radar, Lidar, Bildanalyse und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienkomponenten der Systeme) hierin nicht im Detail beschrieben werden. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
  • Wie unter Bezugnahme auf 1 ersichtlich, ist ein bei 100 allgemein dargestelltes Objektverhalten-Vorhersagesystem mit einem Fahrzeug 10 gemäß verschiedenen Ausführungsformen assoziiert. Im Allgemeinen ist das Objektverhalten-Vorhersagesystem (oder einfach „System“) 100 konfiguriert, um den zukünftigen Weg (oder „Trajektorie“) von Objekten basierend auf Beobachtungen zu vorhersagen, die sich auf diese Objekte beziehen. In verschiedenen Ausführungsformen beobachtet das Objektverhalten-Vorhersagesystem 100 aktuelle Merkmale des Objekts, historische Merkmale des Objekts und Interaktionsmerkmale mit anderen Objekten der Umgebung unter Verwendung eines Regressionsmodells. Wie hierin verwendet, bezieht sich der Begriff „Objekte“ auf andere Fahrzeuge, Fahrräder, Objekte, Fußgänger oder andere sich bewegende Elemente in einer Umgebung des Fahrzeugs 10.
  • Wie in 1 dargestellt, beinhaltet das exemplarische Fahrzeug 10 im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umschließt im Wesentlichen die Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils mit dem Fahrgestell 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar gekoppelt.
  • In verschiedenen Ausführungsformen ist das Fahrzeug 10 ein autonomes Fahrzeug und das Objektverhalten-Vorhersagesystem 100 ist in das autonome Fahrzeug 10 (nachfolgend als das autonomes Fahrzeug 10 bezeichnet) integriert. Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden können.
  • In einer exemplarischen Ausführungsform entspricht das autonome Fahrzeug 10 einem Automatisierungssystem des Levels vier oder Levels fünf gemäß der Standardtaxonomie automatisierter Fahrlevels der Society of Automotive Engineers (SAE) „J3016“. Mit dieser Terminologie bezeichnet ein Level-Vier-System eine „hohe Automatisierung“ unter Bezugnahme auf einen Fahrmodus, bei dem das automatisierte Fahrsystem alle Aspekte der dynamischen Fahraufgabe übernimmt, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Aufforderung zum Eingreifen reagiert. Ein Level-Fünf-System hingegen zeigt eine „Vollautomatisierung“ und bezeichnet einen Fahrmodus, bei dem das automatisierte Fahrsystem alle Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umweltbedingungen erfüllt, die ein menschlicher Fahrer bewältigen kann. Es versteht sich jedoch, dass die Ausführungsformen gemäß der vorliegenden Thematik nicht auf eine bestimmte Taxonomie oder Rubrik der Automatisierungskategorien beschränkt sind.
  • Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellantriebsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 auf die Fahrzeugräder 16 und 18 gemäß den wählbaren Übersetzungsverhältnissen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten.
  • Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16 und 18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Bake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme, beinhalten.
  • Das Lenksystem 24 beeinflusst eine Position der Fahrzeugräder 16 und/oder 18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad 25 dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 erfassen. Die Abtastvorrichtungen 40a-40n können Radargeräte, Lidare, globale Positionierungssysteme, optische Kameras, Wärmebildkameras, Ultraschallsensoren und/oder andere Sensoren beinhalten, sind aber nicht darauf beschränkt. Das Stellgliedsystem 30 beinhaltet ein oder mehrere Stellgliedvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugeigenschaften, wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen kann das autonome Fahrzeug 10 auch Fahrzeug-Innen- und/oder Außenausstattungen beinhalten, die nicht in 1 dargestellt sind, wie beispielsweise verschiedene Türen, Kofferraum- und Kabinenausstattungen, wie Luft, Musik, Beleuchtung, Touchscreen-Display-Komponenten (wie sie in Verbindung mit Navigationssystemen verwendet werden) und dergleichen.
  • Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung beim automatischen Steuern des autonomen Fahrzeugs 10. In verschiedenen Ausführungsformen speichert das Datenspeichergerät 32 definierte Landkarten der navigierbaren Umgebung. In verschiedenen Ausführungsformen werden die definierten Landkarten vordefiniert und von einem entfernten System (in weiteren Einzelheiten in Bezug auf 2 beschrieben) erhalten. So können beispielsweise die definierten Karten durch das entfernte System zusammengesetzt und dem autonomen Fahrzeug 10 (drahtlos und/oder drahtgebunden) mitgeteilt und in der Datenspeichervorrichtung 32 gespeichert werden. Routeninformationen können auch in der Datenvorrichtung 32 gespeichert werden - d. h., in einer Reihe von Straßenabschnitten (die geografisch mit einer oder mehreren der definierten Karten verknüpft sind), die zusammen eine Route definieren, die der Benutzer von einem Startort (z. B. dem aktuellen Standort des Benutzers) zu einem Zielort zurücklegen kann. Wie ersichtlich, kann die Datenspeichervorrichtung 32 ein Teil der Steuerung 34, von der Steuerung 34 getrennt, oder ein Teil der Steuerung 34 und Teil eines separaten Systems sein.
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU) unter mehreren Prozessoren verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes), eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nichtflüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden.
  • Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und erzeugen Steuersignale, die an das Stellgliedsystem 30 übertragen werden, um die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern. In einer Ausführungsform, wie im Folgenden ausführlich erläutert, ist die Steuerung 34 konfiguriert, um das Verhalten von Objekten in der Nähe von AV 10 vorherzusagen und das AV 10 darauf basierend zu steuern.
  • Das Kommunikationssystem 36 ist dazu konfiguriert, Informationen drahtlos an und von anderen Objekten 48, wie beispielsweise, jedoch nicht beschränkt auf andere Fahrzeuge („V2V“-Kommunikation), Infrastruktur („V2I“-Kommunikation), entfernte Transportsysteme und/oder Benutzervorrichtungen (in Bezug auf 2 näher beschrieben), zu übermitteln. In einer exemplarischen Ausführungsform ist das Kommunikationssystem 36 ein drahtloses Kommunikationssystem, das dazu konfiguriert, über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations-(DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
  • Mit weiterem Bezug auf 2 in verschiedenen Ausführungsformen kann das autonome Fahrzeug 10, das mit Bezug auf 1 beschrieben ist, für den Einsatz im Rahmen eines Taxi- oder Shuttle-Unternehmens in einem bestimmten geografischen Gebiet (z. B. einer Stadt, einer Schule oder einem Geschäftscampus, einem Einkaufszentrum, einem Vergnügungspark, einem Veranstaltungszentrum oder dergleichen) geeignet sein. So kann beispielsweise das autonome Fahrzeug 10 einem autonomen fahrzeugbasierten Transportsystem zugeordnet sein. 2 veranschaulicht eine exemplarische Ausführungsform einer Betriebsumgebung, die im Allgemeinen bei 50 dargestellt ist und ein autonomes fahrzeugbasiertes Transportsystem (oder einfach „entferntes Transportsystem“) 52 beinhaltet, das, wie mit Bezug auf 1 beschrieben, einem oder mehreren autonomen Fahrzeugen 10a-10n zugeordnet ist. In verschiedenen Ausführungsformen beinhaltet die Betriebsumgebung 50 (die ganz oder teilweise den in 1 dargestellten Einheiten 48 entsprechen können) ferner eine oder mehrere Benutzervorrichtungen 54, die mit dem autonomen Fahrzeug 10 und/oder dem entfernten Transportsystem 52 über ein Kommunikationsnetzwerk 56 kommunizieren.
  • Das Kommunikationsnetzwerk 56 unterstützt die Kommunikation zwischen Geräten, Systemen und Komponenten, die von der Betriebsumgebung 50 unterstützt werden (z. B. über physische Kommunikationsverbindungen und/oder drahtlose Kommunikationsverbindungen). So kann beispielsweise das Kommunikationsnetzwerk 56 ein drahtloses Trägersystem 60 beinhalten, wie beispielsweise ein Mobiltelefonsystem, das eine Vielzahl von Mobilfunktürmen (nicht dargestellt), eine oder mehrere Mobilvermittlungsstellen (MSCs) (nicht dargestellt) sowie alle anderen Netzwerkkomponenten beinhalten, die zum Verbinden des drahtlosen Trägersystems 60 mit dem Festnetz erforderlich sind. Jeder Mobilfunkturm beinhaltet Sende- und Empfangsantennen und eine Basisstation, wobei die Basisstationen verschiedener Mobilfunktürme mit den MSC verbunden sind, entweder direkt oder über Zwischenvorrichtungen, wie beispielsweise eine Basisstationssteuerung. Das Drahtlosträgersystem 60 kann jede geeignete Kommunikationstechnologie implementieren, beispielsweise digitale Technologien, wie CDMA (z. B. CDMA2000), LTE (z. B. 4G LTE oder 5G LTE), GSM/GPRS oder andere aktuelle oder neu entstehende drahtlose Technologien. Andere Mobilfunkturm/Basisstation/MSC-Anordnungen sind möglich und könnten mit dem Drahtlosträgersystem 60 verwendet werden. So könnten sich beispielsweise die Basisstation und der Mobilfunkturm an derselben Stelle oder entfernt voneinander befinden, jede Basisstation könnte für einen einzelnen Mobilfunkturm zuständig sein oder eine einzelne Basisstation könnte verschiedene Mobilfunktürme bedienen, oder verschiedene Basisstationen könnten mit einer einzigen MSC gekoppelt werden, um nur einige der möglichen Anordnungen zu nennen.
  • Abgesehen vom Verwenden des Drahtlosträgersystems 60 kann ein zweites Drahtlosträgersystem in Form eines Satellitenkommunikationssystems 64 verwendet werden, um unidirektionale oder bidirektionale Kommunikation mit dem autonomen Fahrzeug 10a-10n bereitzustellen. Dies kann unter Verwendung von einem oder mehreren Kommunikationssatelliten (nicht dargestellt) und einer aufwärts gerichteten Sendestation (nicht dargestellt) erfolgen. Die unidirektionale Kommunikation kann beispielsweise Satellitenradiodienste beinhalten, wobei programmierte Inhaltsdaten (Nachrichten, Musik usw.) von der Sendestation empfangen werden, für das Hochladen gepackt und anschließend zum Satelliten gesendet werden, der die Programmierung an die Teilnehmer ausstrahlt. Die bidirektionale Kommunikation kann beispielsweise Satellitentelefondienste beinhalten, die den Satelliten verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 10 und der Station weiterzugeben. Die Satellitentelefonie kann entweder zusätzlich oder anstelle des Drahtlosträgersystems 60 verwendet werden.
  • Ein Festnetz-Kommunikationssystem 62 kann ein konventionelles Festnetz-Telekommunikationsnetzwerk beinhalten, das mit einem oder mehreren Festnetztelefonen verbunden ist und das drahtlose Trägersystem 60 mit dem entfernten Transportsystem 52 verbindet. So kann beispielsweise das Festnetz-Kommunikationssystem 62 ein Fernsprechnetz (PSTN) wie jenes sein, das verwendet wird, um festverdrahtetes Fernsprechen, paketvermittelte Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetz-Kommunikationssystems 62 könnten durch Verwenden eines normalen drahtgebundenen Netzwerks, eines Lichtleiter- oder eines anderen optischen Netzwerks, eines Kabelnetzes, von Stromleitungen, anderen drahtlosen Netzwerken, wie drahtlose lokale Netzwerke (WLANs) oder Netzwerke, die drahtlosen Breitbandzugang (BWA) bereitstellen oder jeder Kombination davon implementiert sein. Weiterhin muss das entfernte Transportsystem 52 nicht über das Festnetz-Kommunikationssystem 62 verbunden sein, sondern könnte Funktelefonausrüstung beinhalten, sodass sie direkt mit einem drahtlosen Netzwerk, wie z. B. dem drahtlosen Trägersystem 60, kommunizieren kann.
  • Obwohl in 2 nur eine Benutzervorrichtung 54 dargestellt ist, können Ausführungsformen der Betriebsumgebung 50 eine beliebige Anzahl an Benutzervorrichtungen 54, einschließlich mehrerer Benutzervorrichtungen 54 unterstützen, die das Eigentum einer Person sind, von dieser bedient oder anderweitig verwendet werden. Jede Benutzervorrichtung 54, die von der Betriebsumgebung 50 unterstützt wird, kann unter Verwendung einer geeigneten Hardwareplattform implementiert werden. In dieser Hinsicht kann die Benutzervorrichtung 54 in einem gemeinsamen Formfaktor realisiert werden, darunter auch in: einen Desktop-Computer; einem mobilen Computer (z. B. einem Tablet-Computer, einem Laptop-Computer oder einem Netbook-Computer); einem Smartphone; einem Videospielgerät; einem digitalen Media-Player; eine Komponente eines Heimunterhaltungsgeräts; einer Digitalkamera oder Videokamera; einem tragbaren Computergerät (z. B. einer Smart-Uhr, Smart-Brille, Smart-Kleidung); oder dergleichen. Jede von der Betriebsumgebung 50 unterstützte Benutzervorrichtung 54 ist als computerimplementiertes oder computergestütztes Gerät mit der Hardware-, Software-, Firmware- und/oder Verarbeitungslogik realisiert, die für die Durchführung der hier beschriebenen verschiedenen Techniken und Verfahren erforderlich ist. So beinhaltet beispielsweise die Benutzervorrichtung 54 einen Mikroprozessor in Form einer programmierbaren Vorrichtung, die eine oder mehrere in einer internen Speicherstruktur gespeicherte Anweisungen beinhaltet und angewendet wird, um binäre Eingaben zu empfangen und binäre Ausgaben zu erzeugen. In einigen Ausführungsformen beinhaltet die Benutzervorrichtung 54 ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In weiteren Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine Mobilfunk-Kommunikationsfunktionalität, sodass die Vorrichtung Sprach- und/oder Datenkommunikationen über das Kommunikationsnetzwerk 56 unter Verwendung eines oder mehrerer Mobilfunk-Kommunikationsprotokolle durchführt, wie hierin erläutert. In verschiedenen Ausführungsformen beinhaltet die Benutzervorrichtung 54 eine visuelle Anzeige, wie zum Beispiel ein grafisches Touchscreen-Display oder eine andere Anzeige.
  • Das entfernte Transportsystem 52 beinhaltet ein oder mehrere Backend-Serversysteme, nicht dargestellt), die an dem speziellen Campus oder dem geografischen Standort, der vom Transportsystem 52 bedient wird, Cloud-basiert, netzwerkbasiert oder resident sein können. Das entfernte Transportsystem 52 kann mit einem Live-Berater, einem automatisierten Berater, einem System der künstlichen Intelligenz oder einer Kombination davon besetzt sein. Das entfernte Transportsystem 52 kann mit den Benutzervorrichtungen 54 und den autonomen Fahrzeugen 10a-10n kommunizieren, um Fahrten zu planen, autonome Fahrzeuge 10a-10n zu versetzen und dergleichen. In verschiedenen Ausführungsformen speichert das entfernte Transportsystem 52 Kontoinformationen, wie zum Beispiel Teilnehmer-Authentisierungsdaten, Fahrzeugkennzeichen, Profilaufzeichnungen, biometrische Daten, Verhaltensmuster und andere entsprechende Teilnehmerinformationen. In einer Ausführungsform, wie nachstehend ausführlicher beschrieben, beinhaltet das entfernte Transportsystem 52 eine Routendatenbank 53, die Informationen in Bezug auf Navigationssystemrouten speichert und auch zur Vorhersage von Verkehrsmustern verwendet werden.
  • Gemäß einem typischen Anwendungsfall-Arbeitsablauf kann ein registrierter Benutzer des Ferntransportsystems 52 über die Benutzervorrichtung 54 eine Fahrtanforderung erstellen. Die Fahrtanfrage gibt typischerweise den gewünschten Abholort des Fahrgastes (oder den aktuellen GPS-Standort), den gewünschten Zielort (der einen vordefinierten Fahrzeugstopp und/oder ein benutzerdefiniertes Passagierziel identifizieren kann) und eine Abholzeit an. Das entfernte Transportsystem 52 empfängt die Fahrtanforderung, verarbeitet die Anforderung und sendet ein ausgewähltes der autonomen Fahrzeuge 10a-10n (wenn und sofern verfügbar), um den Passagier an dem vorgesehenen Abholort und zu gegebener Zeit abzuholen. Das Transportsystem 52 kann zudem eine entsprechend konfigurierte Bestätigungsnachricht oder Benachrichtigung an die Benutzervorrichtung 54 erzeugen und senden, um den Passagier zu benachrichtigen, dass ein Fahrzeug unterwegs ist.
  • Wie ersichtlich, bietet der hierin offenbarte Gegenstand bestimmte verbesserte Eigenschaften und Funktionen für das, was als ein standardmäßiges oder Basislinien autonomes Fahrzeug 10 und/oder ein autonomes fahrzeugbasiertes Transportsystem 52 betrachtet werden kann. Zu diesem Zweck kann ein autonomes fahrzeugbasiertes Transportsystem modifiziert, erweitert oder anderweitig ergänzt werden, um die nachfolgend näher beschriebenen zusätzlichen Funktionen bereitzustellen.
  • Gemäß verschiedenen Ausführungsformen implementiert die Steuerung 34 ein autonomes Antriebssystem (ADS) 70, wie in 3 dargestellt. Das heißt, dass geeignete Soft- und/oder Hardwarekomponenten der Steuerung 34 (z. B. der Prozessor 44 und das computerlesbare Speichermedium 46) verwendet werden, um ein autonomes Antriebssystem 70 bereitzustellen, das in Verbindung mit dem Fahrzeug 10 verwendet wird.
  • In verschiedenen Ausführungsformen können die Anweisungen des autonomen Antriebssystems 70 je nach Funktion oder System gegliedert sein. Wie in 3 gezeigt, kann das autonome Antriebssystem 70 beispielsweise ein Computer-Sichtsystem und Sensorverarbeitungssystem 74, ein Positionierungssystem 76, ein Leitsystem 78 und ein Fahrzeugsteuerungssystem 80 beinhalten. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt usw.) gegliedert werden, da die Offenbarung nicht auf die vorliegenden Beispiele beschränkt ist.
  • In verschiedenen Ausführungsformen synthetisiert und verarbeitet das Computer-Sicht- und Sensorverarbeitungssystem 74 Sensordaten und prognostiziert Anwesenheit, Standort, Klassifizierung und/oder Verlauf von Objekten und Merkmalen der Umgebung des Fahrzeugs 10. In verschiedenen Ausführungsformen kann das Computer-Sicht- und Sensorverarbeitungssystem 74 Informationen von mehreren Sensoren beinhalten, einschließlich, aber nicht beschränkt auf Kameras, Lidare, Radare und/oder eine beliebige Anzahl anderer Arten von Sensoren.
  • Das Positioniersystem 76 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Position (z. B. eine lokale Position in Bezug auf eine Karte, eine exakte Position in Bezug auf die Fahrspur einer Straße, Fahrzeugrichtung, Geschwindigkeit usw.) des Fahrzeugs 10 in Bezug auf die Umgebung zu ermitteln. Das Leitsystem 78 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Strecke zu ermitteln, dem das Fahrzeug 10 folgen soll. Das Fahrzeugsteuerungssystem 80 erzeugt Steuersignale zum Steuern des Fahrzeugs 10 entsprechend der ermittelten Strecke.
  • In verschiedenen Ausführungsformen implementiert die Steuerung 34 maschinelle Lerntechniken, um die Funktionalität der Steuerung 34 zu unterstützen, wie z. B. Merkmalerkennung/Klassifizierung, Hindernisminderung, Routenüberquerung, Kartierung, Sensorintegration, Boden-Wahrheitsbestimmung und dergleichen.
  • Wie bereits kurz erwähnt, ist das Objektverhalten-Vorhersagesystem 100 konfiguriert, um das Verhalten von Fahrzeugen und anderen Objekten in der Umgebung des AV 10 vorherzusagen und diese Vorhersagen basierend auf den Beobachtungen dieser Objekte im Zeitverlauf iterativ zu verbessern. In einigen Ausführungsformen ist diese Funktionalität in das Computer-Sicht- und Sensorverarbeitungssystem 74 aus 2 integriert.
  • In dieser Hinsicht ist 4 ein Datenflussdiagramm, das Aspekte des Objektverhalten-Vorhersagesystems 100 detaillierter veranschaulicht. Es versteht sich, dass die in 4 dargestellten Submodule kombiniert und/oder weiter unterteilt werden können, um die hierin beschriebenen Funktionen auszuführen. Eingaben in Module können vom Sensorsystem 28 empfangen werden, die von anderen Steuermodulen (nicht dargestellt) empfangen werden, die dem autonomen Fahrzeug 10 zugeordnet sind, die vom Kommunikationssystem 36 empfangen werden und/oder von anderen Untermodulen (nicht dargestellt), die innerhalb der Steuerung 34 von 1 ermittelt/modelliert werden.
  • Wie dargestellt, kann das Objektverhalten-Vorhersagesystem 100 ein Merkmalsextraktionsmodul 110, ein Modellverarbeitungsmodul 120 und einen Regressionsmodelldatenspeicher 130 beinhalten. In verschiedenen Ausführungsformen können die Module 110, 120 und die Datenquelle 130 unter Verwendung einer beliebigen gewünschten Kombination von Hardware und Software implementiert werden. In einigen Ausführungsformen implementieren die Module 110, 120 ein globales Netzwerk, das eine Kombination aus einer Anzahl von maschinellen Lernmodellen (ML-Modellen) umfasst. In verschiedenen Ausführungsformen, wie in den exemplarischen Ausführungsformen erläutert, implementieren eines oder mehrere der Module 110, 120 ein oder mehrere baustellenbasierte Regressionsmodelle.
  • Wie in 4 dargestellt, empfängt das Merkmalsextraktionsmodul 110 als Eingabe Sensordaten 140. Die Sensordaten 140 können beispielsweise durch das Sensorsystem 28 des Fahrzeugs 10 erzeugt werden. Das Merkmalsextraktionsmodul 110 verarbeitet die Sensordaten 140, um zunächst Objekte innerhalb einer definierten Umgebung (z. B. eines definierten Radius) des Fahrzeugs 10 zu bestimmen und für jedes Objekt Merkmalsdaten 150 zu extrahieren, die dem Objekt zugeordnet sind.
  • Die Merkmalsdaten 150 beinhalten beispielsweise aktuelle Merkmale 152, Verlaufsmerkmale 154 und/oder Interaktionsmerkmale 156. Die aktuellen Merkmale 152 definieren Eigenschaften des Objekts oder der dem Objekt zugeordneten Umgebung. In verschiedenen Ausführungsformen können die aktuellen Merkmale 152, ohne darauf beschränkt zu sein, Daten beinhalten, die eine Geschwindigkeit des Objekts, eine Richtung des Objekts, eine Art des Objekts und eine dem Objekt zugeordnete Straßentyp darstellen.
  • Die Verlaufsmerkmale 154 definieren historische Eigenschaften des Objekts oder der dem Objekt zugeordneten Umgebung. Die Historie kann über einen Zeitraum erfasst werden (z. B. fünf oder mehr Proben mit einer definierten Abtastrate, wie beispielsweise eine zweite oder andere Abtastrate). In verschiedenen Ausführungsformen beinhalten die Verlaufsmerkmale 154, sind aber nicht beschränkt auf, Daten, die eine Änderung der Geschwindigkeit des Objekts darstellen, eine Änderung der Richtung des Objekts und eine Straßenart, die dem Objekt über den Zeitraum zugeordnet ist.
  • Die Interaktionsmerkmale 156 beinhalten Merkmale für jedes der nächsten Objekte (z. B. 3 oder mehr Objekte, die am nächsten zu dem aktuell auszuwertenden Objekt bestimmt werden). Die Merkmale jedes nächstgelegenen Objekts können beispielsweise Daten beinhalten, die aktuellen Merkmale 158 und die Verlaufsmerkmale 160 darstellen. Die aktuellen Merkmale 158 können die gleichen Merkmale wie das aktuelle Objekt beinhalten oder können unterschiedliche Merkmale beinhalten. In verschiedenen Ausführungsformen können die aktuellen Merkmale 158 beinhalten, sind aber nicht beschränkt auf, Daten, die einen Winkel, eine Entfernung, eine Geschwindigkeit, eine Richtung, einen Objekttyp und eine dem Objekt zugeordnete Straßentyp darstellen. Die Verlaufsmerkmale 160 können die gleichen Merkmale wie das aktuelle Objekt beinhalten oder können unterschiedliche Merkmale beinhalten. In verschiedenen Ausführungsformen können die Verlaufsmerkmale 160 beinhalten, sind aber nicht beschränkt auf Daten, die einen Winkel, eine Entfernung und einen Straßentyp eines definierten Zeitraums darstellen (z. B. fünf oder mehr Proben mit einer definierten Abtastrate, wie beispielsweise eine zweite oder andere Abtastrate).
  • Wie zu erkennen ist, können die Objekte identifiziert und die Merkmale basierend auf einer Vielzahl von Bildverarbeitung, Lidar-Datenverarbeitung und/oder Radar-Datenverarbeitungstechniken, die maschinelle Lerntechniken beinhalten können (hierin nicht beschrieben), wie beispielsweise multivariate Regression, zufällige Waldklassifizierer, Bayes-Klassifizierer (z. B. naive Bayes), Hauptkomponentenanalyse (PCA), Unterstützungsvektormaschinen, lineare Diskriminantanalyse, Clustering-Algorithmen (z. B. KNN, K-Mittel) und/oder dergleichen, beinhalten.
  • Das Modellverarbeitungsmodul 120 empfängt die Merkmalsdaten 150, die jedem Objekt zugeordnet sind. Das Modellverarbeitungsmodul 120 verarbeitet die Merkmalsdaten 150 mit einem definierten Modell 170, um eine zukünftige Position 180 des Objekts vorherzusagen.
  • In verschiedenen Ausführungsformen ist das Modell 170 vordefiniert und im Modelldatenspeicher 130 gespeichert. In verschiedenen Ausführungsformen kann das Modell 170 basierend auf der Anzahl der Merkmale definiert werden. So können beispielsweise die Modelle 170 so definiert werden, dass sie mehr oder weniger Merkmale oder mehr oder weniger Teilmerkmale verarbeiten, die jedem Objekt zugeordnet sind.
  • In verschiedenen Ausführungsformen sind die im Modelldatenspeicher 130 gespeicherten Modelle 170 baustellenbasierte Regressionsmodelle. Das baugruppenbasierte Regressionsmodell 170 beinhaltet beispielsweise, wie in 5 dargestellt, ein Baummodell, das Entscheidungen über die verschiedenen in den Merkmalsdaten 150 (durch die Zweige) definierten Merkmale mit den Sollwerten (durch die Knoten) verbindet. 5 veranschaulicht ein Baummodell mit Knoten 190 und Zweigen 195, die den Merkmalsdaten 150 zugeordnet sind, wie oben erörtert. Wie in 5 dargestellt, ist das Regressionsmodell 170 eine Sammlung von Bäumen. Jeder Baum weist einen Wurzelknoten, Blattknoten und regelmäßige Knoten auf. Jeder nicht-blattknoten (reguläre Knoten oder Wurzelknoten) ist einem einzelnen Merkmal und seinem Schwellenwert zugeordnet. Jeder Blattknoten ist einem Regressionswert zugeordnet (der Ausgang des Baums).
  • Die Eingabe in dieses Modell ist der Satz von Eingangsmerkmalsdaten 150 (z. B. als Merkmalsvektor). Das Modell verarbeitet die Daten durch Starten am Wurzelknoten und Überprüfen des zugehörigen Merkmalswerts mit dem Schwellenwert. Der Vergleich bestimmt, welcher Zweig zum nächsten wechseln soll. Sobald ein Blatt erreicht ist, ist der Ausgabewert gegeben. In verschiedenen Ausführungsformen ist die Größe eines beliebigen Baums viel kleiner als die Anzahl der Merkmale. In derartigen Ausführungsformen werden im Modell 170 mehrere Bäume verwendet. Die Summe oder der Durchschnitt von den mehreren Bäumen ist der Ausgang des Modells 170.
  • Unter jetziger Bezugnahme auf FIG: 6 und fortgesetzter Bezugnahme auf die 1 bis 5, veranschaulicht ein Flussdiagramm ein Steuerverfahren 200, das durch das System 100 gemäß der vorliegenden Offenbarung ausgeführt werden kann. Wie aus der Offenbarung ersichtlich, ist die Abfolge der Vorgänge innerhalb des Verfahrens nicht auf die in 6 dargestellte sequenzielle Abarbeitung beschränkt, sondern kann, soweit zutreffend, in einer oder mehreren unterschiedlichen Reihenfolge(n) gemäß der vorliegenden Offenbarung durchgeführt werden. In verschiedenen Ausführungsformen kann das Verfahren 200 basierend auf einem oder mehreren vordefinierten Ereignissen zur Ausführung geplant werden und/oder kontinuierlich während des Betriebs des autonomen Fahrzeugs 10 ausgeführt werden.
  • In einem Beispiel kann das Verfahren 200 bei 205 beginnen. Die Sensorsignaldaten 140 werden bei 210 empfangen. Die Sensordaten 140 werden mit verschiedenen Datenverarbeitungstechniken verarbeitet, um Objekte in der Nähe des Fahrzeugs 10 bei 220 zu bestimmen. Für jedes Objekt bei 230 werden die Sensordaten 140 weiterverarbeitet, um die Merkmalsdaten 150 bei 240 zu bestimmen. Das Regressionsmodell 170, das den bestimmten Merkmalsdaten 150 zugeordnet ist, wird bei 250 abgerufen; und die Merkmalsdaten 150 werden vom Regressionsmodell 170 verarbeitet, um eine zukünftige Position 180 des Objekts bei 260 vorherzusagen. Sobald die Verarbeitung aller Objekte bei 230 abgeschlossen ist, wird das Fahrzeug 10 basierend auf den Vorhersagen der zukünftigen Positionen 180 der Objekte bei 270 gesteuert. Danach kann das Verfahren bei 280 enden.
  • Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Variationen gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.

Claims (10)

  1. Verfahren zum Steuern eines Fahrzeugs, umfassend: Empfangen von Sensordaten, die von einer mit einem Fahrzeug verknüpften Umgebung erfasst wurden; Verarbeiten der Sensordaten durch einen Prozessor, um eine Vielzahl von Objekten innerhalb der Umgebung des Fahrzeugs zu bestimmen; Verarbeiten der Sensordaten durch den Prozessor, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, wobei die Merkmalsdaten aktuelle Daten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten beinhalten; Verarbeiten, durch den Prozessor, der Merkmalsdaten, die einem ersten Objekt der Vielzahl von Objekten zugeordnet sind, mit einem Modell, um eine zukünftige Position des ersten Objekts zu bestimmen.; und Steuern des Fahrzeugs durch den Prozessor basierend auf der künftigen Position.
  2. Verfahren nach Anspruch 1, wobei die aktuellen Daten Geschwindigkeitsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten beinhalten.
  3. Verfahren nach Anspruch 1, wobei die Verlaufsdaten eine Änderung der Geschwindigkeitsdaten, eine Änderung der Fahrtrichtungsdaten und Straßentypdaten beinhalten.
  4. Verfahren nach Anspruch 1, wobei die Interaktionsdaten aktuelle Daten jedes Objekts der mindestens zwei anderen Objekte und Verlaufsdaten jedes Objekts der mindestens zwei anderen Objekte beinhalten.
  5. Verfahren nach Anspruch 4, wobei die aktuellen Daten der Interaktionsdaten Winkeldaten, Abstandsdaten, Fahrtrichtungsdaten, Objekttypdaten und Straßentypdaten beinhalten.
  6. Verfahren nach Anspruch 4, wobei die Verlaufsdaten der Interaktionsdaten Winkeldaten, Abstandsdaten und Straßentypdaten beinhalten.
  7. Verfahren nach Anspruch 1, wobei das Modell ein Regressionsmodell ist.
  8. Verfahren nach Anspruch 7, wobei das Regressionsmodell ein baumbasiertes Regressionsmodell ist.
  9. Verfahren nach Anspruch 1, wobei das Modell aus einer Vielzahl von Modellen ausgewählt ist, basierend auf einer Anzahl an Merkmalen, die in den Merkmalsdaten enthalten sind.
  10. System zum Steuern eines Fahrzeugs, umfassend: ein Datenspeichergerät, das mindestens ein Modell; und einen Prozessor, der konfiguriert ist, um Sensordaten zu empfangen, die aus einer dem Fahrzeug zugeordneten Umgebung erfasst werden, die Sensordaten verarbeiten, um eine Vielzahl von Objekten innerhalb der Umgebung des Fahrzeugs zu bestimmen, die Sensordaten zu verarbeiten, um Merkmalsdaten zu bestimmen, die jedem der Vielzahl von Objekten zugeordnet sind, wobei die Merkmalsdaten Stromdaten jedes Objekts, Verlaufsdaten jedes Objekts und Interaktionsdaten zwischen jedem Objekt und mindestens zwei anderen Objekten beinhalten, wobei die Merkmalsdaten ein erstes Objekt der Vielzahl von Objekten mit einem Modell verarbeitet, um eine zukünftige Position des ersten Objekts zu bestimmen und das Fahrzeug basierend auf der zukünftigen Position zu steuern.
DE102019113862.0A 2018-09-04 2019-05-23 Systeme und verfahren zum vorhersagen von objektverhalten Withdrawn DE102019113862A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/121,485 US20200070822A1 (en) 2018-09-04 2018-09-04 Systems and methods for predicting object behavior
US16/121,485 2018-09-04

Publications (1)

Publication Number Publication Date
DE102019113862A1 true DE102019113862A1 (de) 2020-03-05

Family

ID=69526842

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019113862.0A Withdrawn DE102019113862A1 (de) 2018-09-04 2019-05-23 Systeme und verfahren zum vorhersagen von objektverhalten

Country Status (3)

Country Link
US (1) US20200070822A1 (de)
CN (1) CN110929912A (de)
DE (1) DE102019113862A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021213304A1 (de) 2021-11-25 2023-05-25 Psa Automobiles Sa Soziale-Kräfte-Modelle zur Trajektorien-Prädiktion anderer Verkehrsteilnehmer

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11814059B1 (en) * 2019-04-05 2023-11-14 Zoox, Inc. Simulating autonomous driving using map data and driving data
US11577722B1 (en) * 2019-09-30 2023-02-14 Zoox, Inc. Hyper planning based on object and/or region
CN111522350B (zh) * 2020-07-06 2020-10-09 深圳裹动智驾科技有限公司 感知方法、智能控制设备及自动驾驶车辆
CN112364847A (zh) * 2021-01-12 2021-02-12 深圳裹动智驾科技有限公司 基于个例大数据的自动驾驶预测方法和计算机设备
US20220402522A1 (en) * 2021-06-21 2022-12-22 Qualcomm Incorporated Tree based behavior predictor

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9707961B1 (en) * 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
US10062288B2 (en) * 2016-07-29 2018-08-28 GM Global Technology Operations LLC Systems and methods for autonomous driving merging management
US10053091B2 (en) * 2016-10-25 2018-08-21 Baidu Usa Llc Spring system-based change lane approach for autonomous vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021213304A1 (de) 2021-11-25 2023-05-25 Psa Automobiles Sa Soziale-Kräfte-Modelle zur Trajektorien-Prädiktion anderer Verkehrsteilnehmer

Also Published As

Publication number Publication date
US20200070822A1 (en) 2020-03-05
CN110929912A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
DE102018129066B4 (de) Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102018129048B4 (de) Verfahren zum durchführen einer autonomen fahrzeugbetriebsanalyse
DE102018122459B4 (de) Fahrzeugsystem, entferntes fahrzeugassistenzsystem und comuterimplementiertes verfahren zum bereitstellen von fernunterstützung
DE102019110184A1 (de) Systeme und verfahren zum autonomen fahren unter verwendung eines auf neuronalen netzwerken basierten fahrerlernens auf tokenizierten sensoreingaben
DE102018121595B4 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102018121124A1 (de) Verfahren und Systeme zum Erzeugen von Echtzeit-Karteninformationen
DE102018129295A1 (de) Systeme und Verfahren zum Abbilden von Fahrbahnstörobjekten in autonomen Fahrzeugen
DE102019100569A1 (de) Systeme und verfahren zum mindern von ungeschützten manövern in autonomen fahrzeugen
DE102018115263A1 (de) Systeme und verfahren zur vorhersage von verkehrsmustern in einem autonomen fahrzeug
DE102019115038A1 (de) Systeme und verfahren zur vorhersage von sensorinformationen
DE102017130936A1 (de) Expertenmodus für Fahrzeuge
DE102018129074A1 (de) Systeme und verfahren zum umfahren von hindernissen in autonomen fahrzeugen
DE102018105693A1 (de) Strassenbau-Erfassungssysteme und -Verfahren
DE102018117777A1 (de) Tief integrierte Fusionsarchitektur für automatisierte Fahrsysteme
DE102018129064A1 (de) Systeme und verfahren zur geschwindigkeitsanpassung für einen bevorstehenden spurwechsel in autonomen fahrzeugen
DE102018112115A1 (de) Verfahren und Systeme zum Ermitteln der Geschwindigkeit von sich bewegenden Objekten
DE102019100572A1 (de) Systeme und verfahren für die wegplanung in autonomen fahrzeugen
DE102019113389B4 (de) System und verfahren für ein vorhersage-entitätenverhalten
DE102019113862A1 (de) Systeme und verfahren zum vorhersagen von objektverhalten
DE102018114600A1 (de) Systeme und verfahren zum reagieren auf einsatzfahrzeuge in einem autonomen fahrzeug
DE102018117429A1 (de) Klassifizierungsverfahren und -systeme
DE102018123467A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen
DE102018122458A1 (de) Weg-planung eines autonomen fahrzeugs für freihaltezonen
DE102018114040A1 (de) Systeme und verfahren zur implementierung von fahrmodi in autonomen fahrzeugen
DE102018123464A1 (de) Verfahren und systeme zur radar-lokalisierung in autonomen fahrzeugen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: LK GLOBAL PATENTANWAELTE PARTGMBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee