DE102023113503A1 - System, Verfahren und Computerprogrammprodukt zur Identifikation einer Absicht und zur Vorhersage eines parallelen Parkens von Fahrzeugen - Google Patents

System, Verfahren und Computerprogrammprodukt zur Identifikation einer Absicht und zur Vorhersage eines parallelen Parkens von Fahrzeugen Download PDF

Info

Publication number
DE102023113503A1
DE102023113503A1 DE102023113503.1A DE102023113503A DE102023113503A1 DE 102023113503 A1 DE102023113503 A1 DE 102023113503A1 DE 102023113503 A DE102023113503 A DE 102023113503A DE 102023113503 A1 DE102023113503 A1 DE 102023113503A1
Authority
DE
Germany
Prior art keywords
vehicle
parallel parking
parking space
parallel
free
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023113503.1A
Other languages
English (en)
Inventor
Randall Schur
Dale Lord
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102023113503A1 publication Critical patent/DE102023113503A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Hierin sind Ausführungsformen eines Systems, eines Verfahrens und eines Computerprogrammprodukts zur Absichtsidentifizierung und Vorhersage für parallel einparkende Fahrzeuge offenbart. Beispielsweise beinhaltet das Verfahren: Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; Erzeugen eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parallelparkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parallelparkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der im Polygon enthalten ist.

Description

  • Fahrzeuge, die beabsichtigen, parallel einzuparken, oder gerade dabei sind, parallel einzuparken, können Verhalten aufweisen, das anderweitig auf öffentlichen Straßen nicht üblich ist. Diese Fahrzeuge können abbremsen und anhalten, häufig ohne anderen vorausfahrenden Verkehr oder vorausliegende Signale, und/oder sie können mit dem Rückwärtsfahren anfangen.
  • KURZDARSTELLUNG
  • Gemäß einigen nicht beschränkenden Ausführungsformen oder Aspekten ist ein Verfahren bereitgestellt, das beinhaltet: Erhalten, mit mindestens einem Prozessor, von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, mit dem mindestens einen Prozessor, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; als Reaktion auf das Identifizieren des Fahrzeugs, das die Paralleleinparkbedingung erfüllt, Erzeugen, mit dem mindestens einen Prozessor, eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern, mit dem mindestens einen Prozessor, der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der im Polygon enthalten ist.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet das Identifizieren des freien Parallelparkplatzes Bestimmen, basierend auf der Vielzahl statischer Objekte, einer oder mehrerer Seiten des freien Parallelparkplatzes.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet die Paralleleinparkbedingung mindestens eine der folgenden Bedingungen: eine mit dem Fahrzeug assoziierte Objektklassifizierung, eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet das Polygon einen vorbestimmten Bereich, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten wird ein Bereich, in dem sich das Polygon über die Seite und das Heck des Fahrzeugs hinaus erstreckt, basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt, und wobei das mit dem Fahrzeug assoziierte Attribut mindestens eines des Folgenden beinhaltet: eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Typ oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet die Vorhersage, dass das Fahrzeug beabsichtigt, parallel einzuparken, eine Wahrscheinlichkeit, dass das Fahrzeug beabsichtigt, parallel einzuparken.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet das Steuern der Bewegung des autonomen Fahrzeugs mindestens eines von: Steuern des autonomen Fahrzeugs, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt wird, beizubehalten, der größer als ein Standardabstand ist, und Steuern des autonomen Fahrzeugs, um eine laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das Fahrzeug zu umfahren, für das das Paralleleinparken vorhergesagt wird.
  • Gemäß einigen nicht beschränkenden Ausführungsformen oder Aspekten ist ein System bereitgestellt, das beinhaltet: einen Speicher; und mindestens einen Prozessor, der mit dem Speicher gekoppelt ist und ausgelegt ist zum: Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; als Reaktion auf das Identifizieren des die Paralleleinparkbedingung erfüllenden Fahrzeugs, Erzeugen eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der im Polygon enthalten ist.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten ist der mindestens eine Prozessor ferner ausgelegt zum Identifizieren des freien Parallelparkplatzes durch Bestimmen, basierend auf der Vielzahl statischer Objekte, einer oder mehrerer Seiten des freien Parallelparkplatzes.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet die Paralleleinparkbedingung mindestens eine der folgenden Bedingungen: eine mit dem Fahrzeug assoziierte Objektklassifizierung, eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet das Polygon einen vorbestimmten Bereich, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten wird ein Bereich, in dem sich das Polygon über die Seite und das Heck des Fahrzeugs hinaus erstreckt, basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt, und wobei das mit dem Fahrzeug assoziierte Attribut mindestens eines des Folgenden beinhaltet: eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Typ oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet die Vorhersage, dass das Fahrzeug beabsichtigt, parallel einzuparken, eine Wahrscheinlichkeit, dass das Fahrzeug beabsichtigt, parallel einzuparken.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten ist der mindestens eine Prozessor ferner ausgelegt zum Steuern der Bewegung des autonomen Fahrzeugs durch mindestens eines von: Steuern des autonomen Fahrzeugs, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt wird, beizubehalten, der größer als ein Standardabstand ist, und Steuern des autonomen Fahrzeugs, um eine laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das Fahrzeug zu umfahren, für das das Paralleleinparken vorhergesagt wird.
  • Gemäß einigen nicht beschränkenden Ausführungsformen oder Aspekten ist ein nichtflüchtiges computerlesbares Medium mit darauf gespeicherten Anweisungen bereitgestellt, die, wenn sie durch mindestens eine Rechenvorrichtung ausgeführt werden, die mindestens eine Rechenvorrichtung veranlassen, Operationen durchzuführen, die beinhalten: Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; als Reaktion auf das Identifizieren des die Paralleleinparkbedingung erfüllenden Fahrzeugs, Erzeugen eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der im Polygon enthalten ist.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten veranlassen die Anweisungen ferner, wenn sie durch die mindestens eine Rechenvorrichtung ausgeführt werden, dass die mindestens eine Rechenvorrichtung den freien Parallelparkplatz durch Bestimmen, basierend auf der Vielzahl statischer Objekte, einer oder mehrerer Seiten des freien Parallelparkplatzes identifiziert.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet die Paralleleinparkbedingung mindestens eine der folgenden Bedingungen: eine mit dem Fahrzeug assoziierte Objektklassifizierung, eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten beinhaltet das Polygon einen vorbestimmten Bereich, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten wird ein Bereich, in dem sich das Polygon über die Seite und das Heck des Fahrzeugs hinaus erstreckt, basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt, und wobei das mit dem Fahrzeug assoziierte Attribut mindestens eines des Folgenden beinhaltet: eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Typ oder eine beliebige Kombination davon.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten veranlassen die Anweisungen ferner, wenn sie durch die mindestens eine Rechenvorrichtung ausgeführt werden, dass die mindestens eine Rechenvorrichtung die Bewegung des autonomen Fahrzeugs durch mindestens eines von Folgendem steuert: Steuern des autonomen Fahrzeugs, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt wird, beizubehalten, der größer als ein Standardabstand ist, und Steuern des autonomen Fahrzeugs, um eine laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das Fahrzeug zu umfahren, für das das Paralleleinparken vorhergesagt wird.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die begleitenden Zeichnungen sind hierin einbezogen und bilden einen Teil der Patentschrift.
    • 1 veranschaulicht ein beispielhaftes autonomes Fahrzeugsystem gemäß Aspekten der Offenbarung.
    • 2 veranschaulicht eine beispielhafte Architektur für ein Fahrzeug gemäß Aspekten der Offenbarung.
    • 3 veranschaulicht eine beispielhafte Architektur für ein „LiDAR“-System (Lichtdetektion und -entfernungsmessung) gemäß Aspekten der Offenbarung.
    • 4 veranschaulicht einen beispielhaften Prozess gemäß Aspekten der Offenbarung.
    • 5 veranschaulicht ein beispielhaftes Diagramm einer Umgebung einschließlich einer Straße gemäß Aspekten der Offenbarung.
    • 6 veranschaulicht ein beispielhaftes Diagramm einer Umgebung einschließlich einer Straße gemäß Aspekten der Offenbarung.
    • 7 ist ein beispielhaftes Computersystem, das zum Implementieren verschiedener Ausführungsformen nützlich ist.
  • In den Zeichnungen geben gleiche Bezugsnummern allgemein identische oder ähnliche Elemente an. Zusätzlich und allgemein identifiziert bzw. identifizieren die Ziffer(n) am weitesten links einer Bezugsnummer die Zeichnung, in der die Bezugsnummer zuerst auftrat.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hierin sind Ausführungsformen eines Systems, einer Einrichtung, einer Vorrichtung, eines Verfahrens und/oder eines Computerprogrammprodukts und/oder Kombinationen und Teilkombinationen davon zur Absichtsidentifizierung und Vorhersage für parallel einparkende Fahrzeuge bereitgestellt. Nicht beschränkende Ausführungsformen oder Aspekte der vorliegenden Offenbarung ermöglichen einem autonomen Fahrzeug, freie Parallelparkplätze zwischen statischen Objekten in einer Umgebung rund um das autonome Fahrzeug zu identifizieren, und falls ein Akteur mit potenziellen Einparkabsichten in der Umgebung identifiziert wird, wird ein Standort des Akteurs relativ zu verfügbaren Parklücken durch Erzeugen eines Polygons rund um den Standort des Akteurs geprüft, das so geformt ist, dass das Polygon Bereiche seitlich und hinter dem Akteur einschließt, wobei, ob das Polygon freie Parallelparkplätze enthält oder überlappt, zum Bestimmen verwendet wird, ob der Akteur mit einiger Wahrscheinlichkeit beabsichtigt, parallel einzuparken. Dementsprechend kann das autonome Fahrzeug, sobald die Akteure mit der Absicht, parallel einzuparken, bestimmt werden, eine Prognose bezüglich der beabsichtigten Parklücke erzeugen, die dem autonomen Fahrzeug ermöglicht, das Einparkmanöver sicher zu planen.
  • Der Begriff „Fahrzeug“ bezieht sich auf ein jegliches Fortbewegungsmittel, das in der Lage ist, entweder einen oder mehrere menschliche Insassen und/oder Fracht zu befördern, und durch eine beliebige Form von Energie angetrieben wird. Der Begriff „Fahrzeug“ beinhaltet unter anderem Personenkraftwagen, Lastkraftwagen, Kleintransporter, Züge, autonome Fahrzeuge, ein Luftfahrzeug, Luftdrohnen und dergleichen. Ein „autonomes Fahrzeug“ (oder „AV“) ist ein Fahrzeug mit einem Prozessor, Programmieranweisungen und Antriebsstrangkomponenten, die durch den Prozessor steuerbar sind, ohne einen menschlichen Betreiber zu erfordern. Ein autonomes Fahrzeug kann in dem Sinne vollautonom sein, dass es keinen menschlichen Betreiber für die meisten oder alle Fahrbedingungen und -funktionen erfordert, oder es kann in dem Sinne teilautonom sein, dass ein menschlicher Betreiber unter bestimmten Bedingungen oder für bestimmte Vorgänge erforderlich sein kann, oder dass ein menschlicher Betreiber das autonome System des Fahrzeugs überschreiben kann und die Kontrolle des Fahrzeugs übernehmen kann.
  • Insbesondere wird die vorliegende Lösung hierin im Kontext eines autonomen Fahrzeugs beschrieben. Die vorliegende Lösung ist jedoch nicht auf Anwendungen mit autonomen Fahrzeugen beschränkt. Die vorliegende Lösung kann in anderen Anwendungen verwendet werden, wie etwa robotischen Anwendungen, Radarsystemanwendungen, metrischen Anwendungen und/oder Systemleistungsanwendungen.
  • 1 veranschaulicht ein beispielhaftes autonomes Fahrzeugsystem 100 gemäß Aspekten der Offenbarung. Das System 100 umfasst ein AV 102a, das entlang einer Straße auf eine teilautonome oder autonome Art und Weise fährt. Das AV 102a wird hierin auch als ein AV 102a bezeichnet. Das AV 102a kann unter anderem ein Landfahrzeug (wie in 1 gezeigt), ein Luftfahrzeug oder ein Wasserfahrzeug beinhalten.
  • Das AV 102a ist allgemein dazu ausgelegt, Objekte 102b, 114 und 116 in seiner Nähe zu detektieren. Die Objekte können unter anderem ein Fahrzeug 102b, einen Radfahrer 114 (wie etwa einen Fahrer eines Fahrrads, eines Elektro-Scooters, eines Motorrads oder dergleichen) und/oder einen Fußgänger 116 beinhalten.
  • Wie in 1 veranschaulicht, kann das AV 102a ein Sensorsystem 111, eine Onboard-Rechenvorrichtung 113, eine Kommunikationsschnittstelle 117 und eine Benutzerschnittstelle 115 beinhalten. Das AV 102a kann ferner bestimmte Komponenten (wie beispielsweise in 2 veranschaulicht) beinhalten, die in Fahrzeugen enthalten sind, die durch die Onboard-Rechenvorrichtung 113 unter Verwendung einer Vielfalt von Kommunikationssignalen und/oder -befehlen gesteuert werden können, wie etwa zum Beispiel Beschleunigungssignale oder -befehle, Abbremsungssignale oder -befehle, Lenksignale oder -befehle, Bremssignale oder -befehle usw.
  • Das Sensorsystem 111 kann einen oder mehrere Sensoren beinhalten, die mit dem AV 102a gekoppelt und/oder in diesem enthalten sind, wie in 2 veranschaulicht. Beispielsweise können solche Sensoren unter anderem ein LiDAR-System, ein RADAR-System (Funkdetektion- und -entfernungsmessung), ein LADAR-System (Laserdetektion und -entfernungsmessung), ein SONAR-System (Schallnavigation und -entfernungsmessung), eine oder mehrere Kameras (z.B. Kameras des sichtbaren Spektrums, Infrarot-Kameras usw.), Temperatursensoren, Positionssensoren (z.B. globales Positionierungssystem (GPS) usw.), Standortsensoren, Kraftstoffsensoren, Bewegungssensoren (z.B. inertiale Messeinheiten (IMU) usw.), Luftfeuchtigkeitssensoren, Belegtheitssensoren und/oder dergleichen beinhalten. Die Sensordaten können Informationen, die den Standort von Objekten innerhalb der umliegenden Umgebung des AV 102a beschreiben, Informationen über die Umgebung selbst, Informationen über die Bewegung des AV 102a, Informationen über eine Route des Fahrzeugs oder dergleichen beinhalten. Während das AV 102a über eine Oberfläche fährt, können zumindest einige der Sensoren Daten bezüglich der Oberfläche sammeln.
  • Wie ausführlicher beschrieben wird, kann das AV 102a mit einem LiDAR-System, z.B. LiDAR-System 264 von 2, konfiguriert sein. Das LiDAR-System kann dazu ausgelegt sein, einen Lichtimpuls 104 zum Detektieren von Objekten zu übertragen, die sich innerhalb eines Abstands oder eines Bereichs von Abständen des AV 102a befinden. Der Lichtimpuls 104 kann auf ein oder mehrere Objekte (z.B. AV 102b) einfallen und zurück zu dem LiDAR-System reflektiert werden. Der reflektierte Lichtimpuls 106, der auf das LiDAR-System einfällt, kann verarbeitet werden, um einen Abstand dieses Objekts zu dem AV 102a zu bestimmen. Der reflektierte Lichtimpuls 106 kann unter Verwendung, in einigen Ausführungsformen, eines Photodetektors oder eines Arrays von Photodetektoren detektiert werden, die positioniert und dazu ausgelegt sind, das in das LiDAR-System zurückreflektierte Licht zu empfangen. LiDAR-Informationen, wie etwa detektierte Objektdaten, werden von dem LiDAR-System zu einer Onboard-Rechenvorrichtung, z.B. Onboard-Rechenvorrichtung 220 2, kommuniziert. Das AV 102a kann auch LiDAR-Daten über ein Kommunikationsnetzwerk 108 zu einer entfernten Rechenvorrichtung 110 (z.B. Cloud-Verarbeitungssystem) kommunizieren. Die entfernte Rechenvorrichtung 110 kann mit einem oder mehreren Servern konfiguriert sein, um einen oder mehrere Prozesse der hierin beschriebenen Technologie zu verarbeiten. Die entfernte Rechenvorrichtung 110 kann auch dazu ausgelegt sein, Daten/Anweisungen zu/von dem AV 102a über das Netzwerk 108, zu/von einem oder mehreren Servern und/oder einer oder mehreren Datenbanken 112 zu kommunizieren.
  • Es sollte angemerkt werden, dass die LiDAR-Systeme zum Sammeln von Daten bezüglich der Oberfläche in anderen Systemen als das AV 102a eingeschlossen sein können, wie etwa, ohne Beschränkung, anderen Fahrzeugen (autonom oder gefahren), Robotern, Satelliten usw.
  • Das Netzwerk 108 kann ein oder mehrere drahtgebundene oder drahtlose Netzwerke einschließen. Beispielsweise kann das Netzwerk 108 ein zellulares Netzwerk (z.B. ein Long-Term-Evolution(LTE)-Netzwerk, ein Codemultiplex-Mehrfachzu-griff(CDMA)-Netzwerk, ein 3G-Netzwerk, ein 4G-Netzwerk, ein 5G-Netzwerk, eine andere Art von Netzwerk der nächsten Generation usw.) einschließen. Das Netzwerk kann auch ein öffentliches Landmobilfunknetz (PLMN), ein Lokalnetzwerk (LAN), ein Weitbereichsnetzwerk (WAN), ein städtisches Netzwerk (MAN), ein Telefonnetz (z.B. das öffentliche Fernsprechnetz (PSTN), ein privates Netzwerk, ein Ad-Hoc-Netzwerk, ein Intranet, das Internet, ein faseroptisches Netzwerk, ein Cloud-Computing-Netzwerk und/oder dergleichen und/oder eine Kombination von diesen oder anderen Arten von Netzwerken einschließen.
  • Das AV 102a kann Informationen, die von einer lokalen Anwendung erzeugt oder über das Netzwerk 108 von einer Datenbank 112 geliefert werden, abrufen, empfangen, anzeigen und bearbeiten. Die Datenbank 112 kann dazu ausgelegt sein, Rohdaten, indizierte Daten, strukturierte Daten, Kartendaten, Programmanweisungen oder andere Konfigurationen, wie bekannt ist, zu speichern und zu liefern.
  • Die Kommunikationsschnittstelle 117 kann dazu ausgelegt sein, die Kommunikation zwischen dem AV 102a und externen Systemen, wie etwa zum Beispiel externen Vorrichtungen, Sensoren, anderen Fahrzeugen, Servern, Datenspeichern, Datenbanken usw., zu ermöglichen. Die Kommunikationsschnittstelle 117 kann jegliche jetzt oder später bekannte Protokolle, Schutzschemen, Codierungen, Formate, Packaging usw. nutzen, wie etwa, ohne Beschränkung, WiFi, einen Infrarot-Link, Bluetooth usw. Das Benutzerschnittstellensystem 115 kann Teil von Peripherievorrichtungen sein, die innerhalb des AV 102a implementiert werden, einschließlich zum Beispiel einer Tastatur, einer Touchscreen-Anzeigevorrichtung, eines Mikrofons und eines Lautsprechers usw.
  • 2 veranschaulicht eine beispielhafte Systemarchitektur 200 für ein Fahrzeug gemäß Aspekten der Offenbarung. Die Fahrzeuge 102a und/oder 102b von 1 können die gleiche oder eine ähnliche Systemarchitektur wie die in 2 gezeigte aufweisen. Somit reicht die folgende Erörterung der Systemarchitektur 200 für das Verständnis des einen oder der mehreren Fahrzeuge 102a, 102b von 1 aus. Andere Arten von Fahrzeugen werden jedoch innerhalb des Schutzumfangs der hierin beschriebenen Technologie in Erwägung gezogen und können mehr oder weniger Elemente enthalten, wie in Verbindung mit 2 beschrieben sind. Als ein nicht beschränkendes Beispiel kann ein Luftfahrzeug Brems- oder Gangsteuerungen ausschließen, aber kann einen Höhensensor einschließen. In einem anderen nicht beschränkenden Beispiel kann ein Wasserfahrzeug einen Tiefensensor einschließen. Ein Fachmann auf dem Gebiet wird erkennen, dass andere Antriebssysteme, Sensoren und Steuerungen basierend auf einer Art von Fahrzeug eingeschlossen sein können, wie bekannt ist.
  • Wie in 2 gezeigt, beinhaltet die Systemarchitektur 200 einen Verbrennungsmotor oder Motor 202 und verschiedene Sensoren 204-218 zum Messen verschiedener Parameter des Fahrzeugs. Bei benzinbetriebenen oder hybriden Fahrzeugen mit einem kraftstoffbetriebenen Verbrennungsmotor können die Sensoren zum Beispiel einen Verbrennungsmotortemperatursensor 204, einen Batteriespannungssensor 206, einen Verbrennungsmotor-Umdrehungen-pro-Minute(„RPM“)-Sensor 208 und einen Drosselpositionssensor 210 beinhalten. Falls das Fahrzeug ein Elektro- oder Hybridfahrzeug ist, dann kann das Fahrzeug einen Elektromotor aufweisen, und beinhaltet dementsprechend Sensoren wie etwa ein Batterieüberwachungssystem 212 (zum Messen des Stroms, der Spannung und/oder der Temperatur der Batterie), Sensoren für Motorstrom 214 und -spannung 216 und Motorpositionssensoren 218 wie etwa Resolver und Encoder.
  • Betriebsparametersensoren, die beiden Arten von Fahrzeugen gemein sind, beinhalten zum Beispiel: einen Positionssensor 236 wie etwa einen Beschleunigungsmesser, ein Gyroskop und/oder eine inertiale Messeinheit; einen Geschwindigkeitssensor 238; und einen Hodometersensor 240. Das Fahrzeug kann auch einen Takt 242 aufweisen, den das System verwendet, um die Fahrzeugzeit während des Betriebs zu bestimmen. Der Takt 242 kann in die Fahrzeug-Onboard-Rechenvorrichtung codiert sein, er kann eine separate Vorrichtung sein, oder mehrere Takte können verfügbar sein.
  • Das Fahrzeug beinhaltet auch verschiedene Sensoren, die betrieben werden, um Informationen über die Umgebung zu sammeln, in der das Fahrzeug fährt. Diese Sensoren können zum Beispiel beinhalten: einen Standortsensor 260 (z.B. eine Vorrichtung des globalen Positionierungssystems („GPS“)); Objektdetektionssensoren wie etwa eine oder mehrere Kameras 262; ein LiDAR-System 264; und/oder ein Radar- und/oder ein Sonar-System 266. Die Sensoren können auch Umgebungssensoren 268 wie etwa einen Niederschlagssensor und/oder einen Umgebungstemperatursensor beinhalten. Die Objektdetektionssensoren können dem Fahrzeug ermöglichen, Objekte zu detektieren, die sich innerhalb eines gegebenen Abstandsbereichs des Fahrzeugs in eine beliebige Richtung befinden, während die Umgebungssensoren Daten über Umgebungsbedingungen innerhalb des Fahrbereichs des Fahrzeugs sammeln.
  • Während des Betriebs werden Informationen von den Sensoren zu einer Fahrzeug-Onboard-Rechenvorrichtung 220 kommuniziert. Die Onboard-Rechenvorrichtung 220 kann unter Verwendung des Computersystems von 7 implementiert werden. Die Fahrzeug-Onboard-Rechenvorrichtung 220 analysiert die durch die Sensoren erfassten Daten und steuert optional Vorgänge des Fahrzeugs basierend auf Ergebnissen der Analyse. Beispielsweise kann die Fahrzeug-Onboard-Rechenvorrichtung 220 steuern: Bremsen über eine Bremssteuerung 222; Richtung über eine Lenksteuerung 224; Geschwindigkeit und Beschleunigung über eine Drosselsteuerung 226 (in einem benzinbetriebenen Fahrzeug) oder eine Motordrehzahlsteuerung 228 (wie etwa eine Strompegelsteuerung in einem Elektrofahrzeug); eine Differenzialgetriebesteuerung 230 (in Fahrzeugen mit Getrieben); und/oder andere Steuerungen. Eine Hilfsvorrichtungssteuerung 254 kann dazu ausgelegt sein, eine oder mehrere Hilfsvorrichtungen zu steuern, wie etwa Prüfsysteme, Hilfssensoren und mobile Vorrichtungen, die vom Fahrzeug transportiert werden, usw.
  • Geographische Standortinformationen können von dem Standortsensor 260 zu der Onboard-Rechenvorrichtung 220 kommuniziert werden, die dann auf eine Karte der Umgebung zugreifen kann, die den Standortinformationen entspricht, um bekannte feste Merkmale der Umgebung wie etwa Straßen, Gebäude, Stoppschilder und/oder Anhalten/Losfahren-Signale bestimmen. Erfasste Bilder von den Kameras 262 und/oder Objektdetektionsinformationen, die von Sensoren wie etwa dem LiDAR-System 264 erfasst werden, werden von diesen Sensoren zu der Onboard-Rechenvorrichtung 220 kommuniziert. Die Objektdetektionsinformationen und/oder erfassten Bilder werden durch die Onboard-Rechenvorrichtung 220 verarbeitet, um Objekte in der Nähe des Fahrzeugs zu detektieren. Eine beliebige bekannte oder in der Zukunft bekannte Technik zum Vornehmen einer Objektdetektion basierend auf Sensordaten und/oder erfassten Bildern kann in den in diesem Dokument offenbarten Ausführungsformen verwendet werden.
  • LiDAR-Informationen werden von dem LiDAR-System 264 zu der Onboard-Rechenvorrichtung 220 kommuniziert. Zusätzlich werden erfasste Bilder von der einen oder den mehreren Kameras 262 zu der Fahrzeug-Onboard-Rechenvorrichtung 220 kommuniziert. Die LiDAR-Informationen und/oder erfassten Bilder werden durch die Fahrzeug-Onboard-Rechenvorrichtung 220 verarbeitet, um Objekte in der Nähe des Fahrzeugs zu detektieren. Die Art und Weise, mit der die Objektdetektionen durch die Fahrzeug-Onboard-Rechenvorrichtung 220 vorgenommen werden, beinhalten solche Fähigkeiten, die in dieser Offenbarung ausführlich dargelegt sind.
  • Die Onboard-Rechenvorrichtung 220 kann eine Routenplanungssteuerung 231 beinhalten und/oder kann mit dieser in Kommunikation stehen, die eine Navigationsroute von einer Startposition zu einer Zielposition für ein autonomes Fahrzeug erzeugt. Die Routenplanungssteuerung 231 kann auf einen Kartendatenspeicher zugreifen, um mögliche Routen und Straßensegmente zu identifizieren, die ein Fahrzeug befahren kann, um von der Startposition zu der Zielposition zu gelangen. Die Routenplanungssteuerung 231 kann die möglichen Routen bewerten und eine bevorzugte Route zum Erreichen des Ziels identifizieren. Beispielsweise kann die Routenplanungssteuerung 231 eine Navigationsroute erzeugen, die die gefahrene euklidische Distanz oder eine andere Kostenfunktion während der Route minimiert, und kann ferner auf die Verkehrsinformationen und/oder -schätzungen zugreifen, die eine Menge an Zeit beeinflussen können, die das Fahren auf einer bestimmten Route in Anspruch nehmen wird. In Abhängigkeit von der Implementierung kann die Routenplanungssteuerung 231 eine oder mehrere Routen unter Verwendung verschiedener Routenplanungsverfahren erzeugen, wie etwa Dijkstra-Algorithmus, Bellman-Ford-Algorithmus oder andere Algorithmen. Die Routenplanungssteuerung 231 kann auch die Verkehrsinformationen verwenden, um eine Navigationsroute zu erzeugen, die erwartete Bedingungen der Route (z.B. aktueller Wochentag oder aktuelle Tageszeit usw.) widerspiegelt, sodass eine Route, die für die Fahrt während des Stoßverkehrs erzeugt wird, sich von einer Route unterscheiden kann, die für eine Fahrt spät in der Nacht erzeugt wird. Die Routenplanungssteuerung 231 kann auch mehr als eine Navigationsroute zu einem Ziel erzeugen und mehr als eine von diesen Navigationsrouten zu einem Benutzer zur Auswahl durch den Benutzer aus verschiedenen möglichen Routen senden.
  • In verschiedene Ausführungsformen kann die Onboard-Rechenvorrichtung 220 Wahrnehmungsinformationen der umliegenden Umgebung des AV 102a bestimmen. Basierend auf den Sensordaten, die durch einen oder mehrere Sensoren bereitgestellt werden, und Standortinformationen, die erhalten werden, kann die Onboard-Rechenvorrichtung 220 Wahrnehmungsinformationen der umliegenden Umgebung des AV 102a bestimmen. Die Wahrnehmungsinformationen können repräsentieren, was ein gewöhnlicher Fahrer in der umliegenden Umgebung eines Fahrzeugs wahrnehmen würde. Die Wahrnehmungsdaten können Informationen bezüglich eines oder mehrerer Objekte in der Umgebung des AV 102a beinhalten. Beispielsweise kann die Onboard-Rechenvorrichtung 220 Sensordaten (z.B. LiDAR-Daten oder RADAR-Daten, Kamerabilder usw.) verarbeiten, um Objekte und/oder Merkmale in der Umgebung des AV 102a zu identifizieren. Die Objekte können Verkehrssignale, Grenzen von Fahrbahnen, andere Fahrzeuge, Fußgänger und/oder Hindernisse usw. beinhalten. Die Onboard-Rechenvorrichtung 220 kann beliebige jetzt oder später bekannte Objekterkennungsalgorithmen, Videoverfolgungsalgorithmen und Computer-Vision-Algorithmen (z.B. frameweises Verfolgen von Objekten iterativ über eine Anzahl von Zeiträumen) verwenden, um die Wahrnehmung zu bestimmen.
  • In einigen Ausführungsformen kann die Onboard-Rechenvorrichtung 220 auch für ein oder mehrere identifizierte Objekte in der Umgebung den aktuellen Zustand des Objekts bestimmen. Die Zustandsinformationen können unter anderem für jedes Objekt Folgendes beinhalten: aktueller Standort; aktuelle Geschwindigkeit und/oder Beschleunigung, aktueller Steuerkurs; aktuelle Stellung; aktuelle Form, Größe und/oder Grundfläche; Typ (z.B. Fahrzeug gegenüber Fußgänger gegenüber Fahrrad gegenüber statischem Objekt oder Hindernis); und/oder andere Zustandsinformationen.
  • Die Onboard-Rechenvorrichtung 220 kann eine oder mehrere Vorhersage- und/oder Prognoseoperationen durchführen. Beispielsweise kann die Onboard-Rechenvorrichtung 220 zukünftige Standorte, Trajektorien und/oder Handlungen eines oder mehrerer Objekte vorhersagen. Beispielsweise kann die Onboard-Rechenvorrichtung 220 die zukünftigen Standorte, Trajektorien und/oder Handlungen der Objekte basierend zumindest teilweise auf Wahrnehmungsinformationen (z.B. die Zustandsdaten für jedes Objekt, umfassend eine geschätzte Form und Stellung, die wie unten erörtert bestimmt werden), Standortinformationen, Sensordaten und/oder beliebigen anderen Daten vorhersagen, die den vorherigen und/oder aktuellen Zustand der Objekte, des AV 102a, der umliegenden Umgebung und/oder ihre Beziehung(en) beschreiben. Falls beispielsweise ein Objekt ein Fahrzeug ist und die aktuelle Fahrumgebung eine Kreuzung einschließt, kann die Onboard-Rechenvorrichtung 220 vorhersagen, ob das Objekt wahrscheinlich geradeaus vorwärts fährt oder abbiegt. Falls die Wahrnehmungsdaten angeben, dass die Kreuzung keine Ampel hat, kann die Onboard-Rechenvorrichtung 220 auch vorhersagen, ob das Fahrzeug möglicherweise vollständig anhalten muss, bevor es in die Kreuzung einfährt.
  • In verschiedenen Ausführungsformen kann die Onboard-Rechenvorrichtung 220 einen Bewegungsplan für das autonome Fahrzeug bestimmen. Beispielsweise kann die Onboard-Rechenvorrichtung 220 einen Bewegungsplan für das autonome Fahrzeug basierend auf den Wahrnehmungsdaten und/oder den Vorhersagedaten bestimmen. Spezifisch, in Anbetracht von Vorhersagen über die zukünftigen Standorte von nahegelegenen Objekten und anderen Wahrnehmungsdaten, kann die Onboard-Rechenvorrichtung 220 einen Bewegungsplan für das AV 102a bestimmen, der das autonome Fahrzeug relativ zu den Objekten an ihren zukünftigen Standorten am besten navigiert.
  • In verschiedenen Ausführungsformen kann die Onboard-Rechenvorrichtung 220 Vorhersagen empfangen und eine Entscheidung bezüglich dessen treffen, wie Objekte und/oder Akteure in der Umgebung des AV 102a zu handhaben sind. Beispielsweise für einen bestimmten Akteur (z.B. ein Fahrzeug mit einer gegebenen Geschwindigkeit, einer gegebenen Richtung, einem gegebenen Abbiegewinkel usw.) entscheidet die Onboard-Rechenvorrichtung 220, ob überholt, die Vorfahrt gewährt, angehalten und/oder passiert werden soll, basierend zum Beispiel auf Verkehrsbedingungen, Kartendaten, dem Zustand des autonomen Fahrzeugs usw. Ferner plant die Onboard-Rechenvorrichtung 220 auch einen Pfad für das AV 102a zum Befahren einer gegebenen Route sowie Fahrparameter (z.B. Distanz, Geschwindigkeit und/oder Abbiegewinkel). Das heißt, für ein gegebenes Objekt entscheidet die Onboard-Rechenvorrichtung 220, was mit dem Objekt zu tun ist, und bestimmt, wie es zu tun ist. Zum Beispiel kann für ein gegebenes Objekt die Onboard-Rechenvorrichtung 220 entscheiden, das Objekt zu passieren, und kann bestimmen, ob auf der linken Seite oder der rechten Seite des Objekts zu passieren ist (einschließlich Bewegungsparameter wie etwa Geschwindigkeit). Die Onboard-Rechenvorrichtung 220 kann auch das Risiko einer Kollision zwischen einem detektierten Objekt und dem AV 102a beurteilen. Falls das Risiko eine akzeptable Schwelle überschreitet, kann sie bestimmen, ob die Kollision vermieden werden kann, falls das autonome Fahrzeug einer definierten Fahrzeugtrajektorie folgt und/oder ein oder mehrere dynamisch erzeugte Notfallmanöver in einem vordefinierten Zeitraum (z.B. N Millisekunden) implementiert bzw. diese durchgeführt werden. Falls die Kollision vermieden werden kann, dann kann die Onboard-Rechenvorrichtung 220 eine oder mehrere Steueranweisungen ausführen, um ein vorsichtiges Manöver (z.B. leicht verlangsamen, beschleunigen, die Spur wechseln oder ausweichen) durchzuführen. Falls im Gegensatz dazu die Kollision nicht vermieden werden kann, dann kann die Onboard-Rechenvorrichtung 220 eine oder mehrere Steueranweisungen zur Ausführung eines Notfallmanövers (z.B. Bremsen und/oder Ändern der Fahrtrichtung) ausführen.
  • Wie oben erörtert, werden Planungs- und Steuerdaten bezüglich der Bewegung des autonomen Fahrzeugs zur Ausführung erzeugt. Die Onboard-Rechenvorrichtung 220 kann beispielsweise das Bremsen über eine Bremssteuerung; die Richtung über eine Lenksteuerung; die Geschwindigkeit und Beschleunigung über eine Drosselsteuerung (in einem benzinbetriebenen Fahrzeug) oder eine Motordrehzahlsteuerung (wie etwa eine Strompegelsteuerung in einem Elektrofahrzeug); eine Differenzialgetriebesteuerung (in Fahrzeugen mit Getrieben); und/oder andere Steuerungen steuern.
  • 3 veranschaulicht eine beispielhafte Architektur für ein LiDAR-System 300 gemäß Aspekten der Offenbarung. Das LiDAR-System 264 von 2 an das gleiche wie oder im Wesentlichen ähnlich zu dem LiDAR-System 300 sein. Demnach reicht die Erörterung des LiDAR-Systems 300 zum Verständnis des LiDAR-Systems 264 von 2 aus. Es sollte angemerkt werden, dass das LiDAR-System 300 von 3 lediglich ein beispielhaftes LiDAR-System ist und dass andere LiDAR-Systeme ferner gemäß Aspekten der vorliegenden Offenbarung eingeschlossen sind, wie durch Fachleute auf dem Gebiet verstanden werden sollte.
  • Wie in 3 gezeigt, beinhaltet das LiDAR-System 300 ein Gehäuse 306, das um 360° um eine zentrale Achse wie etwa eine Nabe oder Achse 315 eines Motors 316 drehbar sein kann. Das Gehäuse kann eine Emitter/Empfänger-Öffnung 312 beinhalten, die aus einem Material hergestellt ist, das gegenüber Licht transparent ist. Obwohl in 3 eine einzelne Öffnung gezeigt ist, ist die vorliegende Lösung nicht in dieser Hinsicht beschränkt. In anderen Szenarien können mehrere Öffnungen zum Emittieren und/oder Empfangen von Licht bereitgestellt sein. In jedem Fall kann das LiDAR-System 300 Licht durch eine oder mehrere der einen oder der mehreren Öffnungen 312 emittieren und reflektiertes Licht zurück zu einer oder mehreren der einen oder der mehreren Öffnungen 312 empfangen, während sich das Gehäuse 306 um die internen Komponenten dreht. In einem alternativen Szenario kann die Außenhülle des Gehäuses 306 eine stationäre Kuppel sein, die zumindest teilweise aus einem Material hergestellt ist, das gegenüber Licht transparent ist, mit drehbaren Komponenten innerhalb des Gehäuses 306.
  • Innerhalb der sich drehenden Hülle oder der stationären Kuppel befindet sich ein Lichtemittersystem 304, das ausgelegt und positioniert ist, um Impulse von Licht durch die Öffnung 312 oder durch die transparente Kuppel des Gehäuses 306 über einen oder mehrere Laseremitterchips oder andere Lichtemissionsvorrichtungen zu erzeugen und zu emittieren. Das Lichtemittersystem 304 kann eine beliebige Anzahl von individuellen Emittern beinhalten (z.B. 8 Emitter, 64 Emitter oder 128 Emitter). Die Emitter können Licht mit im Wesentlichen der gleichen Intensität oder mit variierenden Intensitäten emittieren. Das LiDAR-System beinhaltet auch einen Lichtdetektor 308, der einen Photodetektor oder ein Array von Photodetektoren enthält, die positioniert und ausgelegt sind, Licht zu empfangen, das zurück in das System reflektiert wird. Das Lichtemittersystem 304 und der Lichtdetektor 308 würden sich mit der sich drehenden Hülle drehen, oder sie würden sich innerhalb der stationären Kuppel des Gehäuses 306 drehen. Eine oder mehrere optische Elementstrukturen 310 können vor dem Lichtemittersystem 304 und/oder dem Lichtdetektor 308 positioniert sein, um als eine oder mehrere Linsen oder Wellenplatten zu dienen, die Licht, das durch die optische Elementstruktur 310 geleitet wird, zu fokussieren und zu lenken.
  • Eine oder mehrere optische Elementstrukturen 310 können vor einem Spiegel (nicht gezeigt) positioniert sein, um Licht, das durch die optische Elementstruktur 310 geleitet wird, zu fokussieren und zu lenken. Wie unten gezeigt, beinhaltet das System eine optische Elementstruktur 310, die vor dem Spiegel positioniert und mit den sich drehenden Elementen des Systems verbunden ist, sodass sich die optische Elementstruktur 310 mit dem Spiegel dreht. Alternativ oder zusätzlich kann die optische Elementstruktur 310 mehrere solche Strukturen (zum Beispiel Linsen und/oder Wellenplatten) beinhalten. Optional können mehrere optische Elementstrukturen 310 in einem Array auf oder integral mit dem Hüllenabschnitt des Gehäuses 306 angeordnet sein.
  • Das LiDAR-System 300 beinhaltet eine Leistungseinheit 318, um die Lichtemittierungseinheit 304, einen Motor 316 und elektronische Komponenten mit Leistung versorgen. Das LiDAR-System 300 beinhaltet auch einen Analysator 314 mit Elementen wie etwa einem Prozessor 322 und einem nichtflüchtigen computerlesbaren Speicher 320, der Programmieranweisungen enthält, die dazu ausgelegt sind, dem System zu ermöglichen, Daten zu empfangen, die durch die Lichtdetektoreinheit gesammelt werden, sie zu analysieren, um Charakteristiken des empfangenen Lichts zu messen, und Informationen zu erzeugen, die ein verbundenes System verwenden kann, um Entscheidungen über den Betrieb in einer Umgebung, aus der die Daten gesammelt wurden, zu treffen. Optional kann der Analysator 314 integral mit dem LiDAR-System 300 sein, wie gezeigt, oder ein Teil oder die Gesamtheit von diesem kann sich extern zu dem LiDAR-System befinden und kommunikativ mit dem LiDAR-System über ein drahtgebundenes oder drahtloses Kommunikationsnetzwerk oder einen drahtgebundenen oder drahtlosen Kommunikationslink verbunden sein.
  • Jetzt mit Bezug auf 4 veranschaulicht 4 einen beispielhaften Prozess 400 gemäß Aspekten der Offenbarung.
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 402 Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind. Beispielsweise kann das autonome Fahrzeugsystem 100 Sensordaten erhalten, die mit einer Umgebung rund um das AV 102a assoziiert sind. Als ein Beispiel können Sensordaten Informationen und/oder Daten von einem oder mehreren der in der Systemarchitektur 200 eingeschlossenen Sensoren beinhalten, wie etwa der einen oder den mehreren Kameras 262, dem LiDAR-Sensorsystem 264, dem Radar/Sonar 266 und/oder dergleichen. In einem solchen Beispiel können ein oder mehrere der Sensoren, die in der Systemarchitektur 200 eingeschlossen sind, zum Sammeln von Sensordaten verwendet werden, die Informationen beinhalten, die einen Standort (z.B. im dreidimensionalen Raum relativ zum AV 102a usw.) von Punkten beschreiben, die Objekten in der umliegenden Umgebung des AV 102a entsprechen.
  • In einigen nicht beschränkenden Ausführungsformen und Aspekten können Sensordaten Kartendaten beinhalten, die ein oder mehrere Attribute einer Fahrbahn (z.B. damit assoziierte Metadaten) beinhalten (z.B. Attribute einer Fahrbahn an einem geografischen Standort, Attribute eines Segments einer Fahrbahn, Attribute einer Fahrspur einer Fahrbahn, Attribute eines Randes einer Fahrbahn, Attribute eines Fahrpfades einer Fahrbahn usw.). In einigen nicht beschränkenden Ausführungsformen und Aspekten beinhaltet ein Attribut einer Fahrbahn einen Straßenrand einer Straße (z.B. einen Ort eines Straßenrandes einer Straße, einen Abstand des Ortes von einem Straßenrand einer Straße, eine Angabe darüber, ob sich ein Ort innerhalb eines Straßenrandes einer Straße befindet, usw.), eine Kreuzung, einen Anschluss oder eine Anbindung einer Straße mit einer anderen Straße, eine Fahrbahn einer Straße, einen Abstand einer Fahrbahn von einer anderen Fahrbahn (z.B. einen Abstand eines Endes einer Fahrspur und/oder eines Fahrbahnsegments oder -ausmaßes zu einem Ende einer anderen Fahrspur und/oder einem Ende eines anderen Fahrbahnsegments oder -ausmaßes usw.), eine Fahrspur einer Fahrbahn einer Straße (z.B. ein Fahrstreifen einer Fahrbahn, ein Parkstreifen einer Fahrbahn, eine Abbiegespur einer Fahrbahn, Fahrspurmarkierungen, eine Fahrtrichtung in einer Fahrspur einer Fahrbahn usw.), eine Mittellinie einer Fahrbahn (z.B. eine Angabe eines Mittellinienpfades) in mindestens einer Fahrspur der Fahrbahn zum Steuern des AV 102a während des Betriebs (z.B. Folgen, Fahren, Befahren, Fahren entlang einer Route usw.) auf einem Fahrpfad, ein Fahrpfad einer Fahrbahn (z.B. eine oder mehrere Trajektorien, die das AV 102a auf der Fahrbahn befahren kann, und eine Angabe des Standorts mindestens eines Merkmals auf der Fahrbahn, ein lateraler Abstand vom Fahrpfad usw.), ein oder mehrere Objekte (z.B. ein Fahrzeug, Vegetation, ein Fußgänger, ein Bauwerk, ein Gebäude, ein Schild, einen Laternenmast, Beschilderung, ein Verkehrsschild, ein Fahrrad, ein Eisenbahngleis, ein gefährliches Objekt usw.) in der Nähe und/oder innerhalb einer Straße (z.B. Objekte in der Nähe zu den Straßenrändern einer Straße und/oder innerhalb der Straßenränder einer Straße), ein Fußweg einer Straße und/oder dergleichen.
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 404 Identifizieren statischer Objekte in der Umgebung. Beispielsweise, und auch mit Bezug auf 5 und 6, die beispielhafte Diagramme einer Umgebung einschließlich einer Straße veranschaulichen, kann das autonome Fahrzeugsystem 100 basierend auf den Sensordaten eine Vielzahl statischer Objekte 500 in der Umgebung identifizieren. Als ein Beispiel kann das autonome Fahrzeugsystem 100 (z.B. die Onboard-Rechenvorrichtung 220 usw.) irgendwelche jetzt oder zukünftig bekannte Objekterkennungsalgorithmen, Videoverfolgungsalgorithmen und Computer-Vision-Algorithmen (z.B. frameweises Verfolgen von Objekten iterativ über eine Anzahl von Zeiträumen) verwenden, um Wahrnehmungsinformationen der umliegenden Umgebung des AV 102a und/oder, für ein oder mehrere identifizierte Objekte in der Umgebung, den aktuellen Zustand des Objekts und/oder vorhergesagte zukünftige Standorte, Trajektorien und/oder Handlungen des Objekts zu bestimmen.
  • Die statischen Objekte 500 können Objekte einschließen, die das autonome Fahrzeugsystem 100 (z.B. die Onboard-Rechenvorrichtung 220 usw.) basierend auf den Sensordaten, den Wahrnehmungsinformationen, den Zustandsinformationen und/oder den vorhergesagten Informationen als sich gegenwärtig nicht bewegend und/oder als sich während eines zukünftigen Zeitraums wahrscheinlich nicht bewegend bestimmt. Beispielsweise können statische Objekte geparkte Fahrzeuge, Infrastruktur (z.B. ein Schild, einen Poller usw.), Fahrbahnränder und/oder - markierungen, Straßeninfrastruktur (z.B. Einfahrten usw.), vorübergehende stationäre Objekte (z.B. ein Mülleimer für Privathaushalte, ein Fahrradständer usw.) einschließen. Als ein Beispiel können Fahrzeuge, die beabsichtigen, parallel einzuparken, dies tun, weil die Fahrzeuge zwischen einem oder mehreren statischen Objekten parken. Die statischen Objekte 500 können von nicht-statischen Objekten oder Akteuren (z.B. Fahrzeug 102b usw.) unterschieden werden, die das autonome Fahrzeugsystem 100 (z.B. die Onboard-Rechenvorrichtung 220 usw.) basierend auf den Sensordaten, den Wahrnehmungsinformationen, den Zustandsinformationen und/oder den vorhergesagten Informationen als sich gegenwärtig bewegend und/oder als sich während eines zukünftigen Zeitraums wahrscheinlich bewegend bestimmt.
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 406 Identifizieren freier Parallelparkplätze zwischen statischen Objekten. Beispielsweise, und erneut mit Bezug auf 6, kann das autonome Fahrzeugsystem 100 basierend auf den Sensordaten einen freien Parallelparkplatz 600 (z.B. einen Bereich, einen Satz von Orten usw.) zwischen der Vielzahl statischer Objekte 500 identifizieren. Als ein Beispiel kann ein freier Parallelparkplatz 600 einen freien Ort zwischen statischen Objekten einschließen, den das autonome Fahrzeugsystem 100 (z.B. die Onboard-Rechenvorrichtung 220 usw.) basierend auf den Sensordaten, den Wahrnehmungsinformationen, den Zustandsinformationen und/oder den vorhergesagten Informationen als eine oder mehrere Parkplatzbedingungen erfüllend bestimmt. In einem solchen Beispiel kann eine Parkplatzbedingung mindestens eine der folgenden Bedingungen einschließen: einen Ort relativ zu einer Fahrbahn und/oder einer Fahrspur (z.B. einen Ort an einer Außenseite einer Fahrbahn usw.), ein Größenbereich (z.B. einen Flächenbereich, einen Längenbereich, einen Breitenbereich usw.), ein lateraler Versatz von einer Fahrspurmittellinie und/oder einer Fahrspurmarkierung oder eine beliebige Kombination davon. Beispielsweise kann das autonome Fahrzeugsystem 100 einen freien Parallelparkplatz 600 durch Bestimmen, basierend auf der Vielzahl statischer Objekte, den Sensordaten, den Wahrnehmungsinformationen, den Zustandsinformationen und/oder den vorhergesagten Informationen, einer oder mehrerer Seiten des freien Parallelparkplatzes identifizieren, wie etwa eines ersten Endes 602 des freien Parallelparkplatzes 600, eines zweiten Endes 604 des freien Parallelparkplatzes 600 und/oder Seiten 606a und 606b (und/oder einer oder mehrerer zusätzlicher Seiten, in Abhängigkeit von einer Form des Parallelparkplatzes) des freien Parallelparkplatzes 600, die eine oder mehrere Parkplatzbedingungen erfüllen. Als ein Beispiel kann ein Bereich des freien Parallelparkplatzes 600, der durch das erste Ende 602, das zweite Ende 604 und/oder die Seiten 606a und 606b definiert ist, als eine vorbestimmte Ortsbedingung relativ zu der Fahrbahn und/oder einer Fahrspur und/oder eine vorbestimmte Größenbedingung erfüllend bestimmt werden, um als ein freier Parallelparkplatz identifiziert zu werden.
  • Auf diese Weise muss ein durch das autonome Fahrzeugsystem 100 identifizierter freier Parallelparkplatz 600 keinem designierten Parkplatz oder -bereich entsprechen (z.B. möglicherweise nicht mit Kartendaten oder Informationen, die den Ort oder Bereich als einen designierten Parkbereich identifizieren, usw. assoziiert sein). Beispielsweise kann das autonome Fahrzeugsystem 100 einen freien Parallelparkplatz 600 zwischen statischen Objekten an einem Straßenrandstreifen und/oder zwischen statischen Objekten, die vollständig außerhalb von Fahrspuren einer Fahrbahn liegen, identifizieren. Ferner wird ein freier Ort möglicherweise nicht als ein freier Parallelparkplatz identifiziert, falls der Ort kleiner als ein Größenbereich ist (z.B. für das Einparken zu klein usw.) oder falls der Ort größer als der Größenbereich ist (z.B. können Einparkende typischerweise direkt vorwärts in größere Lücken einfahren, ohne ein Paralleleinparken zu versuchen, usw.).
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 408 Identifizieren eines Fahrzeugs, das eine Paralleleinparkbedingung erfüllt. Beispielsweise, und erneut mit Bezug auf 6, kann das autonome Fahrzeugsystem 100 basierend auf den Sensordaten ein Fahrzeug 650 (z.B. ein nicht-statisches Objekt, einen Akteur, Fahrzeug 102b usw.) in der Umgebung identifizieren, das eine Paralleleinparkbedingung erfüllt. Als ein Beispiel kann ein Fahrzeug 650, das eine Paralleleinparkbedingung erfüllt, ein Fahrzeug einschließen, das das autonome Fahrzeugsystem 100 (z.B. die Onboard-Rechenvorrichtung 220 usw.) basierend auf den Sensordaten, den Wahrnehmungsinformationen, den Zustandsinformationen und/oder den vorhergesagten Informationen als eine oder mehrere Paralleleinparkbedingungen erfüllend bestimmt. In einem solchen Beispiel kann eine Paralleleinparkbedingung mindestens eine der folgenden Bedingungen beinhalten: eine mit dem Fahrzeug assoziierte Objektklassifizierung (z.B. einen Typ des Fahrzeugs usw.), eine mit dem Fahrzeug assoziierte Größe (z.B. eine Fläche, eine Länge, eine Breite, eine Anzahl von Achsen usw.), ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 410 Erzeugen eines Polygons, das sich über eine Seite und ein Heck des autonomen Fahrzeugs hinaus erstreckt. Beispielsweise, und erneut mit Bezug auf 6, kann das autonome Fahrzeugsystem 100 ein Polygon 660 erzeugen, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs 650 hinaus erstreckt. Als ein Beispiel kann das autonome Fahrzeugsystem 100 als Reaktion auf das Identifizieren, dass das Fahrzeug 650 die Paralleleinparkbedingung erfüllt, ein Polygon 660 erzeugen, das sich über eine Seite (z.B. eine Seite, die näher an dem freien Parallelparkplatz 600 liegt, usw.) und ein Heck des Fahrzeugs 650 hinaus erstreckt. In einem solchen Beispiel kann das autonome Fahrzeugsystem 100 eine Bounding Box oder ein Polygon 660 rund um das Fahrzeug 650 erzeugen und das Polygon 660 erzeugen, das sich über eine Seite und eine Rückseite der Bounding Box oder des Polygons 660 rund um das Fahrzeug 650 hinaus erstreckt.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 ein Polygon 660 erzeugen, das einen vorbestimmten Bereich einschließt, der sich über die Seite und das Heck des Fahrzeugs 650 hinaus erstreckt (z.B., der sich eine vorbestimmte Distanz über das Heck des Fahrzeugs 650 und eine andere vorbestimmte Distanz über die Seite des Fahrzeugs 650 hinaus erstreckt, usw.).
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 ein Polygon 660 erzeugen, das einen Bereich einschließt, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt, der basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt wird. Beispielsweise kann ein mit dem Fahrzeug assoziiertes Attribut mindestens eines der folgenden Attribute einschließen: eine mit dem Fahrzeug assoziierte Größe (z.B. eine Länge, eine Breite, eine Anzahl von Achsen usw.), ein mit dem Fahrzeug assoziierter Typ, ein mit dem Fahrzeug assoziierter Wendekreis oder eine beliebige Kombination davon.
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 412 Bestimmen einer Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken. Beispielsweise kann das autonome Fahrzeugsystem 100 eine Vorhersage oder Prognose bestimmen, dass das Fahrzeug 650 beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes 600, der innerhalb des Polygons 660 enthalten ist (und/oder umgekehrt).
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 automatisch bestimmen, dass das Fahrzeug 650 beabsichtigt, parallel einzuparken, als Reaktion darauf, dass ein Anteil des freien Parallelparkplatzes 600 innerhalb des Polygons 660 enthalten ist.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 einen oder mehrere heuristische Algorithmen an einem Anteil des freien Parallelparkplatzes 600, der innerhalb des Polygons 660 enthalten ist, und/oder einem oder mehreren Parameter oder Attribute der Sensordaten, der Wahrnehmungsinformationen, der Zustandsinformationen und/oder der vorhergesagten Informationen anwenden, um die Vorhersage zu bestimmen, dass das Fahrzeug 650 beabsichtigt, parallel einzuparken.
  • In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 ein Modell (z.B. einen Schätzer, einen Klassifizierer, ein Vorhersagemodell, ein Detektormodell usw.) unter Verwendung maschineller Lerntechniken erzeugen, einschließlich zum Beispiel überwachter und/oder unüberwachter Techniken, wie etwa Entscheidungsbäume (z.B. gradientenverstärkte Entscheidungsbäume, Random Forests usw.), logistische Regressionen, künstliche neuronale Netzwerke (z.B. faltende neuronale Netzwerke usw.), Bayes-Statistiken, Lernautomaten, Hidden-Markov-Modellierung, lineare Klassifizierer, quadratische Klassifizierer, Lernen von Assoziationsregeln und/oder dergleichen. Das maschinelle Lernmodell kann trainiert werden, um eine Ausgabe einschließlich einer Vorhersage darüber bereitzustellen, ob das Fahrzeug 650 beabsichtigt, parallel einzuparken, als Reaktion auf eine Eingabe einschließlich eines Anteils eines freien Parallelparkplatzes 600, der innerhalb des Polygons 660 enthalten ist, und/oder eines oder mehrerer Parameter oder Attribute der Sensordaten, der Wahrnehmungsinformationen, der Zustandsinformationen und/oder der vorhergesagten Informationen. Beispielsweise kann das autonome Fahrzeugsystem 100 das Modell basierend auf Trainingsdaten trainieren, die mit einem oder mehreren Anteilen eines oder mehrerer freier Parallelparkplätze 600 assoziiert sind, die innerhalb eines oder mehrerer Polygone 660 enthalten sind, die für ein oder mehrere Fahrzeuge erzeugt werden, die eine Paralleleinparkbedingung und/oder einen oder mehrere Parameter oder Attribute der damit assoziierten Sensordaten, der Wahrnehmungsinformationen, der Zustandsinformationen und/oder der vorhergesagten Informationen erfüllen. In einem solchen Beispiel kann eine Vorhersage, dass das Fahrzeug 650 beabsichtigt, parallel einzuparken, eine mit der Vorhersage assoziierte Wahrscheinlichkeitsbewertung beinhalten. Beispielsweise kann die Vorhersage eine Wahrscheinlichkeit beinhalten, dass das Fahrzeug 650 beabsichtigt, parallel einzuparken.
  • In einigen nicht beschränkenden Ausführungsformen kann das autonome Fahrzeugsystem 100 das Modell speichern (z.B. das Modell zur späteren Verwendung speichern). In einigen nicht beschränkenden Ausführungsformen oder Aspekten kann das autonome Fahrzeugsystem 100 das Modell in einer Datenstruktur (z.B. einer Datenbank, einer verknüpften Liste, einem Baum usw.) speichern. In einigen nicht beschränkenden Ausführungsformen oder Aspekten befindet sich die Datenstruktur im autonomen Fahrzeugsystem 100 oder extern zu (z.B. entfernt von) dem autonomen Fahrzeugsystem 100 (z.B. innerhalb der entfernten Rechenvorrichtung 110 usw.).
  • Wie in 4 gezeigt, beinhaltet der Prozess 400 bei Schritt 414 Steuern der Fahrt des autonomen Fahrzeugsystems 100 basierend auf der Vorhersage, dass das Fahrzeug beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken. Beispielsweise kann das autonome Fahrzeugsystem 100 die Bewegung des AV 102a basierend auf der Vorhersage steuern, dass das Fahrzeug 650 beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken. Als ein Beispiel kann das System 100 das AV 102a steuern, langsamer zu werden, schneller zu werden und/oder die laterale Positionierung in einer Fahrspur oder einer Fahrbahn basierend auf der Vorhersage zu beeinflussen, dass das Fahrzeug 650 beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken. Als ein Beispiel kann das AV 102a, das auf einer Route oder einem Pfad in einer Fahrspur fährt, basierend auf der Vorhersage, dass das Fahrzeug 650 beabsichtigt, im freien Parallelparkplatz 600 parallel einzuparken, bestimmen, ob ein Abstand zwischen dem AV 102a und dem Fahrzeug 650 beizubehalten ist, der größer als ein Standardabstand ist, und/oder, ob die laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen ist, um das Fahrzeug 650 zu umfahren. Beispielsweise kann das autonome Fahrzeugsystem 100 das AV 102a steuern, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt ist, beizubehalten, der größer als ein Standardabstand ist (z.B. Anhalten des AV 102a mit einem Abstand vor der Parklücke, um dem Fahrzeug 650 Platz für das Paralleleinparken zu lassen, usw.), und/oder die laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das als parallel einparkend vorhergesagte Fahrzeug zu umfahren. In einem solchen Beispiel kann ein Standardabstand zwischen dem AV 102a und dem Fahrzeug 650 von verschiedenen Faktoren abhängen, wie etwa, ob das Fahrzeug 650 sich bewegt oder anhält, ob sich das AV 102a einer Ampel oder einem Stoppschild nähert, die/das das autonome Fahrzeug befolgen muss, und/oder dergleichen.
  • Verschiedene Ausführungsformen können zum Beispiel unter Verwendung eines oder mehrerer Computersysteme implementiert werden, wie etwa des in 7 gezeigten Computersystems 700. Das Computersystem 700 kann ein beliebiger Computer sein, der in der Lage ist, die hierin beschriebenen Funktionen durchzuführen.
  • Das Computersystem 700 beinhaltet einen oder mehrere Prozessoren (auch Zentralverarbeitungseinheiten oder CPUs genannt), wie etwa einen Prozessor 704. Der Prozessor 704 ist mit einer Kommunikationsinfrastruktur oder einem Bus 706 verbunden.
  • Der eine oder die mehreren Prozessoren 704 können jeweils eine Grafikverarbeitungseinheit (GPU) sein. In einer Ausführungsform ist eine GPU ein Prozessor, der eine spezialisierte elektronische Schaltung ist, die dazu ausgebildet ist, mathematisch intensive Anwendungen zu verarbeiten. Die GPU kann eine parallele Struktur aufweisen, die für die Parallelverarbeitung von großen Blöcken von Daten effizient ist, wie etwa mathematisch intensive Daten, die Computergrafikanwendungen, Bildern, Videos usw. gemein sind.
  • Das Computersystem 700 beinhaltet auch eine oder mehrere Benutzereingabe-/-ausgabevorrichtungen 703, wie etwa Monitore, Tastaturen, Zeigevorrichtungen usw., die mit der Kommunikationsinfrastruktur 706 über eine oder mehrere Benutzereingabe-/-ausgabeschnittstellen 702 kommunizieren.
  • Das Computersystem 700 beinhaltet auch einen Haupt- oder Primärspeicher 708, wie etwa Direktzugriffsspeicher (RAM). Der Hauptspeicher 708 kann eine oder mehrere Cacheebenen beinhalten. In dem Hauptspeicher 708 sind Steuerlogik (d. h. Computersoftware) und/oder Daten gespeichert.
  • Das Computersystem 700 kann auch ein oder mehrere sekundäre Speicherungsvorrichtungen oder einen Sekundärspeicher 710 beinhalten. Der Sekundärspeicher 710 kann zum Beispiel ein Festplattenlaufwerk 712 und/oder eine entfernbare Speicherungsvorrichtung oder ein entfernbares Speicherlaufwerk 714 beinhalten. Das entfernbare Speicherlaufwerk 714 kann ein Diskettenlaufwerk, ein Magnetbandlaufwerk, ein Compact-Disk-Laufwerk, eine optische Speicherungsvorrichtung, eine Band-Backup-Vorrichtung und/oder eine beliebige andere Speicherungsvorrichtung/ein beliebiges anderes Speicherlaufwerk sein.
  • Das entfernbare Speicherlaufwerk 714 kann mit der entfernbaren Speicherungseinheit 718 interagieren. Die entfernbare Speicherungseinheit 718 beinhaltet eine computernutzbare oder -lesbare Speicherungsvorrichtung mit darauf gespeicherter Computersoftware (Steuerlogik) und/oder Daten. Die entfernbare Speicherungseinheit 718 kann eine Diskette, ein Magnetband, eine Compact Disk, eine DVD, eine optische Speicherplatte und/oder eine beliebige andere Computerdatenspeicherungsvorrichtung sein. Das entfernbare Speicherlaufwerk 714 liest von und/oder schreibt zu der entfernbaren Speicherungseinheit 718 auf eine wohlbekannte Art und Weise.
  • Gemäß einer beispielhaften Ausführungsform kann der Sekundärspeicher 710 andere Mittel, Instrumentalitäten oder andere Ansätze beinhalten, um zu ermöglichen, dass das Computersystem 700 auf Computerprogramme und/oder andere Anweisungen und/oder Daten zugreifen kann. Solche Mittel, Instrumentalitäten oder anderen Ansätze können zum Beispiel eine entfernbare Speicherungseinheit 722 und eine Schnittstelle 720 beinhalten. Beispiele für die entfernbare Speicherungseinheit 722 und die Schnittstelle 720 können eine Programmkassette und Kassettenschnittstelle (wie etwa die, die in Videospielvorrichtungen vorgefunden werden), einen entfernbaren Speicherchip (wie etwa einen EPROM oder PROM) und assoziiertes Socket, einen Speicherstick und USB-Anschluss, eine Speicherkarte und assoziierten Speicherkarten-Slot und/oder eine beliebige andere entfernbare Speicherungseinheit und assoziierte Schnittstelle beinhalten.
  • Das Computersystem 700 kann ferner eine Kommunikations- oder Netzwerkschnittstelle 724 beinhalten. Die Kommunikationsschnittstelle 724 ermöglicht dem Computersystem 700, mit einer beliebigen Kombination aus entfernten Vorrichtungen, entfernten Netzwerken, entfernten Entitäten usw. (individuell und kollektiv durch Bezugsnummer 728 referenziert) zu kommunizieren und zu interagieren. Beispielsweise kann die Kommunikationsschnittstelle 724 dem Computersystem 700 ermöglichen, mit entfernten Vorrichtungen 728 über einen Kommunikationspfad 726 zu kommunizieren, der drahtgebunden und/oder drahtlos sein kann, und der eine beliebige Kombination aus LANs, WANs, das Internet usw. beinhalten kann. Steuerlogik und/oder Daten können zu und von dem Computersystem 700 über den Kommunikationspfad 726 übertragen werden.
  • In einer Ausführungsform wird eine greifbare nichtflüchtige Einrichtung oder ein Herstellungsartikel, das ein greifbares nichtflüchtiges computernutzbares oder -lesbares Medium mit darauf gespeicherter Steuerlogik (Software) umfasst, hierin auch als ein Computerprogrammprodukt oder eine Programmspeichervorrichtung bezeichnet. Dies beinhaltet unter anderem das Computersystem 700, den Hauptspeicher 708, den Sekundärspeicher 710 und die entfernbaren Speicherungseinheiten 718 und 722, sowie greifbare Herstellungsartikel, die eine beliebige Kombination des Vorstehenden verkörpern. Solche Steuerlogik, wenn durch eine oder mehrere Datenverarbeitungsvorrichtungen (wie etwa das Computersystem 700) ausgeführt, bewirkt, dass solche Datenverarbeitungsvorrichtungen wie hierin beschrieben arbeiten.
  • Basierend auf den in dieser Offenbarung enthaltenen Lehren wird es Fachleuten auf dem relevanten Gebiet ersichtlich werden, wie Ausführungsformen dieser Offenbarung unter Verwendung von anderen Datenverarbeitungsvorrichtungen, Computersystemen und/oder Computerarchitekturen als die, die 7 gezeigt sind, herzustellen und zu verwenden sind. Insbesondere können Ausführungsformen mit anderen Software-, Hardware- und/oder Betriebssystemimplementierungen als den hierin beschriebenen arbeiten.
  • Es soll gewürdigt werden, dass der Abschnitt der ausführlichen Beschreibung, und kein anderer Abschnitt, zum Interpretieren der Ansprüche verwendet werden soll. Andere Abschnitte können eine oder mehrere, aber nicht alle beispielhaften Ausführungsformen darlegen, wie durch den einen oder die mehreren Erfinder in Erwägung gezogen, und sollen daher nicht diese Offenbarung oder die angehängten Ansprüche auf irgendeine Weise einschränken.
  • Obwohl diese Offenbarung beispielhafte Ausführungsformen für beispielhafte Gebiete und Anwendungen beschreibt, sollte verstanden werden, dass die Offenbarung nicht darauf beschränkt ist. Andere Ausführungsformen und Modifikationen daran sind möglich und liegen innerhalb des Schutzumfangs und des Gedankens dieser Offenbarung. Beispielsweise, und ohne die Generalität dieses Absatzes einzuschränken, sind die Ausführungsformen nicht auf die Software, Hardware, Firmware und/oder Entitäten beschränkt, die in den Figuren veranschaulicht und/oder hierin beschrieben sind. Ferner haben Ausführungsformen (egal ob hierin explizit beschrieben oder nicht) erheblichen Nutzen für Gebiete und Anwendungen über die hierin beschriebenen Beispiele hinaus.
  • Ausführungsformen werden hierin mithilfe von Funktionsbausteinen beschrieben, die die Implementierung von spezifizierten Funktionen und Beziehungen davon veranschaulichen. Die Grenzen dieser Funktionsbausteine wurden hierin für die Vereinfachung der Beschreibung willkürlich definiert. Alternative Grenzen können definiert werden, solange die spezifizierten Funktionen und Beziehungen (oder Äquivalente davon) zweckmäßig durchgeführt werden. Außerdem können alternative Ausführungsformen funktionelle Blöcke, Schritte, Operationen, Verfahren usw. unter Verwendung von anderen Reihenfolgen als jene durchführen, die hierin beschrieben sind.
  • Bezüge hierin auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ oder ähnliche Phrasen geben an, dass die beschriebene Ausführungsform ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Charakteristik einschließen kann, aber jede Ausführungsformen nicht notwendigerweise das bestimmte Merkmal, die bestimmte Struktur oder die bestimmte Charakteristik einschließen kann. Darüber hinaus sollen sich solche Phrasen nicht notwendigerweise auf dieselbe Ausführungsform beziehen. Ferner würde, wenn ein bestimmtes Merkmal, eine bestimmte Struktur oder eine bestimmte Charakteristik in Verbindung mit einer Ausführungsform beschrieben ist, es innerhalb der Kenntnis von Fachleuten auf dem relevanten Gebiet liegen, ein solches Merkmal, eine solche Struktur und eine solche Charakteristik in andere Ausführungsformen einzubeziehen, egal ob sie hierin explizit erwähnt oder beschrieben sind oder nicht. Zusätzlich können einige Ausführungsformen unter Verwendung des Ausdrucks „gekoppelt“ und „verbunden“ zusammen mit ihren Ableitungen beschrieben werden. Diese Begriffe sind nicht notwendigerweise als Synonyme füreinander beabsichtigt. Beispielsweise können einige Ausführungsformen unter Verwendung der Begriffe „verbunden“ und/oder „gekoppelt“ beschrieben werden, um anzugeben, dass zwei oder mehr Elemente in direktem physischem oder elektrischem Kontakt miteinander stehen. Der Begriff „gekoppelt“ kann jedoch auch bedeuten, dass zwei oder mehr Elemente nicht in direktem Kontakt miteinander stehen, aber jedoch weiterhin miteinander kooperieren oder interagieren.
  • Die Breite und der Schutzumfang dieser Offenbarung sollte nicht durch irgendwelche der oben beschriebenen beispielhaften Ausführungsformen eingeschränkt werden, sondern sollte nur gemäß den folgenden Ansprüchen und ihren Äquivalenten definiert werden.

Claims (15)

  1. Verfahren, umfassend: Erhalten, mit mindestens einem Prozessor, von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, mit dem mindestens einen Prozessor, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; als Reaktion auf das Identifizieren des die Paralleleinparkbedingung erfüllenden Fahrzeugs, Erzeugen, mit dem mindestens einen Prozessor, eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern, mit dem mindestens einen Prozessor, der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der innerhalb des Polygons enthalten ist.
  2. Verfahren nach Anspruch 1, wobei das Identifizieren des freien Parallelparkplatzes Bestimmen, basierend auf der Vielzahl statischer Objekte, einer oder mehrerer Seiten des freien Parallelparkplatzes beinhaltet.
  3. Verfahren nach Anspruch 1 oder 2, wobei die Paralleleinparkbedingung mindestens eine der folgenden Bedingungen einschließt: eine mit dem Fahrzeug assoziierte Objektklassifizierung, eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei das Polygon einen vorbestimmten Bereich einschließt, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei ein Bereich, in dem sich das Polygon über die Seite und das Heck des Fahrzeugs hinaus erstreckt, basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt wird, und wobei das mit dem Fahrzeug assoziierte Attribut mindestens eines des Folgenden beinhaltet: eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Typ oder eine beliebige Kombination davon.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, parallel einzuparken, eine Wahrscheinlichkeit beinhaltet, dass das Fahrzeug beabsichtigt, parallel einzuparken.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei das Steuern der Bewegung des autonomen Fahrzeugs mindestens eines von Folgendem beinhaltet: Steuern des autonomen Fahrzeugs, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt wird, beizubehalten, der größer als ein Standardabstand ist, und Steuern des autonomen Fahrzeugs, eine laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das Fahrzeug zu umfahren, für das das Paralleleinparken vorhergesagt wird.
  8. System, umfassend: einen Speicher; und mindestens einen Prozessor, der mit dem Speicher gekoppelt ist und ausgelegt ist zum: - Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; - Identifizieren, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; - als Reaktion auf das Identifizieren des die Paralleleinparkbedingung erfüllenden Fahrzeugs, Erzeugen eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und - Steuern der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der innerhalb des Polygons enthalten ist.
  9. System nach Anspruch 8, wobei der mindestens eine Prozessor ferner ausgelegt ist zum Identifizieren des freien Parallelparkplatzes durch Bestimmen, basierend auf der Vielzahl statischer Objekte, einer oder mehrerer Seiten des freien Parallelparkplatzes.
  10. System nach Anspruch 8 oder 9, wobei die Paralleleinparkbedingung mindestens eine der folgenden Bedingungen einschließt: eine mit dem Fahrzeug assoziierte Objektklassifizierung, eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Standort, eine mit dem Fahrzeug assoziierte aktuelle und/oder vorhergesagte Bewegung oder eine beliebige Kombination davon.
  11. System nach einem der Ansprüche 8 bis 10, wobei das Polygon einen vorbestimmten Bereich einschließt, der sich über die Seite und das Heck des Fahrzeugs hinaus erstreckt.
  12. System nach einem der Ansprüche 8 bis 11, wobei ein Bereich, in dem sich das Polygon über die Seite und das Heck des Fahrzeugs hinaus erstreckt, basierend auf einem mit dem Fahrzeug assoziierten Attribut bestimmt wird, und wobei das mit dem Fahrzeug assoziierte Attribut mindestens eines des Folgenden beinhaltet: eine mit dem Fahrzeug assoziierte Größe, ein mit dem Fahrzeug assoziierter Typ oder eine beliebige Kombination davon.
  13. System nach einem der Ansprüche 8 bis 12, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, parallel einzuparken, eine Wahrscheinlichkeit beinhaltet, dass das Fahrzeug beabsichtigt, parallel einzuparken.
  14. System nach einem der Ansprüche 8 bis 13, wobei der mindestens eine Prozessor ferner ausgelegt ist zum Steuern der Bewegung des autonomen Fahrzeugs durch mindestens eines von: Steuern des autonomen Fahrzeugs, einen Abstand zwischen dem autonomen Fahrzeug und dem Fahrzeug, für das das Paralleleinparken vorhergesagt wird, beizubehalten, der größer als ein Standardabstand ist, und Steuern des autonomen Fahrzeugs, eine laterale Positionierung in einer Fahrspur oder einer Fahrbahn zu beeinflussen, um das Fahrzeug zu umfahren, für das das Paralleleinparken vorhergesagt wird.
  15. Nichtflüchtiges computerlesbares Medium mit darauf gespeicherten Anweisungen, die, wenn sie durch mindestens eine Rechenvorrichtung ausgeführt werden, die mindestens eine Rechenvorrichtung veranlassen, Operationen durchzuführen, die umfassen: Erhalten von Sensordaten, die mit einer Umgebung rund um ein autonomes Fahrzeug assoziiert sind; Identifizieren, basierend auf den Sensordaten, einer Vielzahl statischer Objekte in der Umgebung, eines freien Parallelparkplatzes zwischen der Vielzahl statischer Objekte und eines Fahrzeugs in der Umgebung, das eine Paralleleinparkbedingung erfüllt; als Reaktion auf das Identifizieren des die Paralleleinparkbedingung erfüllenden Fahrzeugs, Erzeugen eines Polygons, das sich über eine Seite und ein Heck des die Paralleleinparkbedingung erfüllenden Fahrzeugs hinaus erstreckt; und Steuern der Bewegung des autonomen Fahrzeugs basierend auf einer Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, wobei die Vorhersage, dass das Fahrzeug beabsichtigt, in dem freien Parallelparkplatz parallel einzuparken, basierend auf einem Anteil des freien Parallelparkplatzes bestimmt wird, der innerhalb des Polygons enthalten ist.
DE102023113503.1A 2022-05-31 2023-05-23 System, Verfahren und Computerprogrammprodukt zur Identifikation einer Absicht und zur Vorhersage eines parallelen Parkens von Fahrzeugen Pending DE102023113503A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/828,137 2022-05-31
US17/828,137 US20230382368A1 (en) 2022-05-31 2022-05-31 System, Method, and Computer Program Product for Identification of Intention and Prediction for Parallel Parking Vehicles

Publications (1)

Publication Number Publication Date
DE102023113503A1 true DE102023113503A1 (de) 2023-11-30

Family

ID=88696800

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023113503.1A Pending DE102023113503A1 (de) 2022-05-31 2023-05-23 System, Verfahren und Computerprogrammprodukt zur Identifikation einer Absicht und zur Vorhersage eines parallelen Parkens von Fahrzeugen

Country Status (3)

Country Link
US (1) US20230382368A1 (de)
CN (1) CN117141463A (de)
DE (1) DE102023113503A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220348218A1 (en) * 2021-05-03 2022-11-03 Nissan North America, Inc. System and method of curb management for a vehicle

Also Published As

Publication number Publication date
CN117141463A (zh) 2023-12-01
US20230382368A1 (en) 2023-11-30

Similar Documents

Publication Publication Date Title
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE102020121865A1 (de) Potenzielle-kollision-warnsystem basierend auf verkehrsteilnehmerabsichtsvorhersage
DE112020002604T5 (de) Systeme und verfahren für die fahrzeugnavigation
DE102020129456A1 (de) Trajektorienvorhersage aus einer vorberechneten oder dynamisch generierten bank von trajektorien
DE112018005340T5 (de) Informationsverarbeitungsvorrichtung, fahrzeug, mobiles objekt, informationsverarbeitungsverfahren und programm
DE102020210499A1 (de) Datengesteuerte regelwerke
DE112019006282T5 (de) Betrieb eines Fahrzeugs unter Verwendung mehrerer Bewegungsbeschränkungen
DE102020111250A1 (de) Grafische benutzerschnittstelle zur anzeige des verhaltens autonomer fahrzeuge
DE112021005104T5 (de) Systeme und verfahren zum evaluieren von domänenspezifischen fähigkeiten eines navigationssystems
DE102021133742A1 (de) Planung einer trajektorie eines autonomen fahrzeugs mit dynamischem zustand
DE112020002287T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102021109466A1 (de) Trajektorieerzeugung unter verwendung eines strassennetzmodells
DE102021132850A1 (de) Homotopiebasierter planer für autonome fahrzeuge
DE112022002353T5 (de) Verfahren und Systeme zur Trajektorienerzeugung für ein autonomes Fahrzeug beim Überfahren einer Kreuzung
DE102020128155A1 (de) Bedingte bewegungsvorhersagen
DE102021132851A1 (de) Fahrzeugbetrieb unter verwendung von manövererzeugung
DE112021005708T5 (de) Verfahren und Systeme zur Verfolgung einer Fahrspur über die Zeit
DE112021006299T5 (de) Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten
DE112021006807T5 (de) Verfahren und Systeme für ein sicheres spurabweichendes Fahren
DE102021133739A1 (de) Steuern eines autonomen fahrzeugs unter verwendung einer näheregel
DE112022003364T5 (de) Komplementäres steuersystem für ein autonomes fahrzeug
DE102023113503A1 (de) System, Verfahren und Computerprogrammprodukt zur Identifikation einer Absicht und zur Vorhersage eines parallelen Parkens von Fahrzeugen
DE112021005427T5 (de) System zur vorhersage des zukünftigen zustands eines autonomen fahrzeugs
DE112021006099T5 (de) Bordrückkopplungssystem für autonome Fahrzeuge
DE102023118419A1 (de) Statusabschätzung und Reaktion auf aktive Schulfahrzeuge in einem selbstfahrenden System