DE102016100737A1 - Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung - Google Patents

Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung Download PDF

Info

Publication number
DE102016100737A1
DE102016100737A1 DE102016100737.4A DE102016100737A DE102016100737A1 DE 102016100737 A1 DE102016100737 A1 DE 102016100737A1 DE 102016100737 A DE102016100737 A DE 102016100737A DE 102016100737 A1 DE102016100737 A1 DE 102016100737A1
Authority
DE
Germany
Prior art keywords
vehicle
obstacle object
autonomous vehicle
detected obstacle
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016100737.4A
Other languages
English (en)
Inventor
Danil V. Prokhorov
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of DE102016100737A1 publication Critical patent/DE102016100737A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Dargestellt sind Anordnungen im Zusammenhang mit der Risikominderung für autonome Fahrzeuge in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung. Ein informationsrelevanter Bereich in einer externen Umgebung kann im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs identifiziert werden. Falls mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins eines Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs liegt, kann bestimmt werden, ob sich das Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers bewegt. Falls sich das Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers bewegt, kann das autonome Fahrzeug veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden.

Description

  • GEBIET
  • Der hierin beschriebene Gegenstand betrifft im Allgemeinen Fahrzeuge mit einem autonomen Betriebsmodus und im Besonderen den Betrieb derartiger Fahrzeuge in Umgebungen, in denen Insassensicht und Sensorerfassungsbereiche blockiert sind.
  • HINTERGRUND
  • Manche Fahrzeuge beinhalten einen Betriebsmodus, bei dem ein Rechnersystem verwendet wird, um das Fahrzeug mit minimaler oder keiner Eingabe eines menschlichen Fahrers entlang einer Fahrtroute zu navigieren und/oder manövrieren. Derartige Fahrzeuge beinhalten Sensoren, die ausgebildet sind, um Informationen über die umliegende Umgebung, einschließlich des Vorhandenseins von Objekten in der Umgebung, zu erfassen. Die Rechnersysteme sind zum Verarbeiten der erfassten Informationen ausgebildet, um zu bestimmen, wie das Fahrzeug durch die umliegende Umgebung zu navigieren und/oder manövrieren ist. In manchen Fällen kann es Abschnitte der umliegenden Umgebung geben, die nicht von einem menschlichen Insassen oder den Fahrzeugsensoren erfasst werden können. Aufgrund derartiger toter Winkel kann es für das Fahrzeug in manchen Fällen geführlich sein weiterzufahren.
  • KURZFASSUNG
  • In einem Aspekt ist die vorliegende Offenbarung auf ein Verfahren zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung gerichtet. Das Verfahren beinhaltet das Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs. Das Verfahren beinhaltet auch das Abtasten mindestens eines Abschnitts der externen Umgebung des autonomen Fahrzeugs, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen. Das Verfahren beinhaltet ferner – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs befindet – das Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt. Darüber hinaus beinhaltet das Verfahren – als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt – das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, welcher sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  • In einem anderen Aspekt ist die vorliegende Offenbarung auf ein System zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung gerichtet. Das System beinhaltet ein Sensorsystem. Das Sensorsystem ist zum Abtasten mindestens eines Abschnitts der externen Umgebung des autonomen Fahrzeugs ausgebildet, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen.
  • Das System beinhaltet auch einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist. Der Prozessor ist programmiert, um ausführbare Operationen einzuleiten. Die ausführbaren Operationen beinhalten das Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs. Die ausführbaren Operationen beinhalten auch das Bestimmen eines Insassensichtbereichs der externen Umgebung. Die ausführbaren Operationen beinhalten ferner das Bestimmen eines Sensorerfassungsbereichs der externen Umgebung.
  • Die ausführbaren Operationen beinhalten – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet – das Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt. Die ausführbaren Operationen beinhalten – als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt – das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, welcher sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  • In noch einem anderen Aspekt ist die vorliegende Offenbarung auf ein Computerprogrammprodukt zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung gerichtet. Das Computerprogrammprodukt beinhaltet ein computerlesbares Speichermedium mit einem darin enthaltenen Programmcode. Der Programmcode ist durch einen Prozessor ausführbar, um ein Verfahren durchzuführen. Das Verfahren beinhaltet das Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs. Das Verfahren beinhaltet auch das Abtasten mindestens eines Abschnitts der externen Umgebung des autonomen Fahrzeugs, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen.
  • Das Verfahren beinhaltet ferner das Bestimmen eines Insassensichtbereichs der externen Umgebung. Auch beinhaltet das Verfahren das Bestimmen eines Sensorerfassungsbereichs der externen Umgebung. Das Verfahren beinhaltet – als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet – das Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt. Das Verfahren beinhaltet – als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt – das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, welcher sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Beispiel eines autonomen Fahrzeugs.
  • 2 ist ein Beispiel eines Verfahrens zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht.
  • 3A ist ein Beispiel einer Umgebung, in der sich mindestens ein Abschnitt eines für ein geplantes künftiges Fahrmanöver eines Fahrzeugs informationsrelevanten Bereichs aufgrund des Vorhandenseins eines erfassten Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs befindet.
  • 3B ist ein Beispiel der Umgebung von 3A, das das erfasste Hindernisobjekt zeigt, welches sich günstig bezüglich eines geplanten künftigen Fahrmanövers des Fahrzeugs bewegt.
  • 4A ist ein Beispiel einer Umgebung, in der sich mindestens ein Abschnitt eines für ein geplantes künftiges Fahrmanöver eines Fahrzeugs informationsrelevanten Bereichs aufgrund des Vorhandenseins eines erfassten Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs befindet.
  • 4B ist ein Beispiel der Umgebung von 4A, das das erfasste Hindernisobjekt zeigt, welches sich günstig bezüglich eines geplanten künftigen Fahrmanövers des Fahrzeugs bewegt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Diese ausführliche Beschreibung betrifft den Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht. Insbesondere betrifft diese ausführliche Beschreibung den Betrieb eines autonomen Fahrzeugs, wenn sich mindestens ein Abschnitt eines informationsrelevanten Bereichs in der Umgebung aufgrund des Vorhandenseins eines Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs befindet. In einer oder mehreren Implementierungen kann bestimmt werden, ob sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt. Als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt, kann das autonome Fahrzeug veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem informationsrelevanten Bereich befinden. Die vorliegende ausführliche Beschreibung betrifft Systeme, Verfahren und Computerprogrammprodukte, die derartige Merkmale umfassen. Zumindest in einigen Fällen können derartige Systeme, Verfahren und Computerprogrammprodukte die Sicherheit und/oder das Vertrauen von Insassen in den autonomen Betrieb des Fahrzeugs verbessern.
  • Detaillierte Ausführungsformen sind hierin offenbart; jedoch sollte verstanden werden, dass die offenbarten Ausführungsformen lediglich als beispielhaft gedacht sind. Deshalb sind hierin offenbarte konkrete konstruktive und funktionelle Details nicht als einschränkend auszulegen, sondern lediglich als eine Grundlage für die Ansprüche und als eine repräsentative Grundlage, um einem Fachmann zu lehren, die Aspekte hierin in praktisch jeder geeignet detaillierten Konstruktion vielfältig einzusetzen. Ferner sind die hierin verwendeten Begriffe und Formulierungen nicht als einschränkend gedacht, sondern vielmehr dazu, eine verständliche Beschreibung von möglichen Implementierungen bereitzustellen. Verschiedene Ausführungsformen sind in den 14B gezeigt, doch sind die Ausführungsformen nicht auf die veranschaulichte Konstruktion oder Anwendung beschränkt.
  • Es versteht sich, dass der Einfachheit und Klarheit der Darstellung halber Bezugszeichen gegebenenfalls zwischen den verschiedenen Figuren wiederholt werden, um entsprechende oder analoge Elemente anzugeben. Darüber hinaus werden zahlreiche konkrete Details aufgeführt, um ein tiefgreifendes Verständnis der hierin beschriebenen Ausführungsformen zu vermitteln. Jedoch wird der Durchschnittsfachmann verstehen, dass die hierin beschriebenen Ausführungsformen ohne diese konkreten Details praktizierbar sind.
  • Unter Bezugnahme auf 1 ist ein Beispiel eines Fahrzeugs 100 gezeigt. Wie hierin verwendet, bedeutet „Fahrzeug” jegliche Form motorisierten Transports. In einer oder mehreren Implementierungen kann das Fahrzeug 100 ein Automobil sein. Zwar werden hierin Anordnungen in Bezug auf Automobile beschrieben, doch versteht sich, dass die Ausführungsformen nicht auf Automobile beschränkt sind. In einer oder mehreren Implementierungen kann das Fahrzeug 100 ein Wasserfahrzeug, ein Luftfahrzeug oder irgendeine andere Form motorisierten Transports sein. Das Fahrzeug 100 kann ein vorderes Ende 102 und ein hinteres Ende 104 besitzen.
  • Gemäß Anordnungen hierin kann das Fahrzeug 100 ein autonomes Fahrzeug sein. Wie hierin verwendet, bedeutet „autonomes Fahrzeug” ein Fahrzeug, das ausgebildet ist, um in einem autonomen Modus zu arbeiten. „Autonomer Modus” bedeutet, dass ein oder mehrere Rechnersysteme verwendet werden, um das Fahrzeug mit minimaler oder keiner Eingabe eines menschlichen Fahrers entlang einer Fahrtroute zu navigieren und/oder manövrieren. In einer oder mehreren Anordnungen kann das Fahrzeug 100 hochautomatisiert sein. In einigen Fällen kann das Fahrzeug 100 ausgebildet sein, um selektiv zwischen einem autonomen Modus und einem manuellen Modus geschaltet zu werden. Ein solches Schalten kann auf irgendeine derzeit bekannte oder später entwickelte geeignete Weise umgesetzt werden. „Manueller Modus” bedeutet, dass ein Großteil des Navigierens und/oder Manövrierens des Fahrzeugs entlang einer Fahrtroute durch einen menschlichen Fahrer erfolgt.
  • Das Fahrzeug 100 kann verschiedene Elemente beinhalten, von denen einige Teil eines autonomen Fahrsystems sein können. Einige der möglichen Elemente des Fahrzeugs 100 sind in 1 gezeigt und werden nun beschrieben. Es versteht sich, dass das Fahrzeug 100 nicht notwendigerweise alle der in 1 gezeigten oder hierin beschriebenen Elemente aufweisen muss. Das Fahrzeug 100 kann irgendeine Kombination der in 1 gezeigten verschiedenen Elemente aufweisen. Ferner kann das Fahrzeug 100 neben den in 1 gezeigten zusätzliche Elemente aufweisen. In einigen Anordnungen kann es sein, dass das Fahrzeug 100 eines oder mehrere der in 1 gezeigten Elemente nicht beinhaltet. Ferner sind die verschiedenen Elemente in 1 zwar als innerhalb des Fahrzeugs 100 befindlich gezeigt, doch versteht sich, dass sich eines oder mehrere dieser Elemente außerhalb des Fahrzeugs 100 befinden können. Ferner können die gezeigten Elemente durch große Abstände physisch getrennt sein.
  • Das Fahrzeug 100 kann einen oder mehrere Prozessoren 110 beinhalten. „Prozessor” bedeutet irgendeine Komponente oder Gruppe von Komponenten, die ausgebildet ist, um irgendeinen der hierin beschriebenen Prozesse oder irgendeine Form von Anweisungen zum Durchführen solcher Prozesse oder zum Durchführenlassen solcher Prozesse auszuführen. Der Prozessor 110 kann mit einem oder mehreren Universalprozessoren und/oder einem oder mehreren Spezialprozessoren implementiert sein. Beispiele für geeignete Prozessoren umfassen Mikroprozessoren, Mikrocontroller, DSP-Prozessoren und andere Schaltungsanordnungen, die Software ausführen können. Weitere Beispiele für geeignete Prozessoren umfassen, sind jedoch nicht beschränkt auf, eine zentrale Verarbeitungseinheit (CPU), einen Arrayprozessor, einen Vektorprozessor, einen digitalen Signalprozessor (DSP), eine feldprogrammierbare Gatteranordnung (FPGA), eine programmierbare logische Anordnung (PLA), eine anwendungsspezifische integrierte Schaltung (ASIC), programmierbare logische Schaltung und einen Controller. Der Prozessor 110 kann mindestens eine Hardwareschaltung (z. B. eine integrierte Schaltung) beinhalten, die ausgebildet ist, um in dem Programmcode enthaltene Anweisungen auszuführen. In Anordnungen, in denen eine Mehrzahl von Prozessoren 110 vorhanden ist, können solche Prozessoren unabhängig voneinander arbeiten, oder einer oder mehrere Prozessoren können in Kombination miteinander arbeiten. In einer oder mehreren Anordnungen kann der Prozessor 110 ein Hauptprozessor des Fahrzeugs 100 sein. Beispielsweise kann der Prozessor 110 eine Motorsteuerungseinheit (ECU) sein.
  • Das Fahrzeug 100 kann einen oder mehrere Datenspeicher 115 zum Speichern einer oder mehrerer Arten von Daten beinhalten. Der Datenspeicher 115 kann einen flüchtigen und/oder nicht flüchtigen Speicher beinhalten. Beispiele für geeignete Datenspeicher 115 umfassen RAM (Random Access Memory), Flash-Speicher, ROM (Read-Only Memory), PROM (Programmable Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), Register, magnetische Platten, optische Platten, Festplatten oder irgendein anderes geeignetes Speichermedium oder irgendeine Kombination davon. Der Datenspeicher 115 kann eine Komponente des Prozessors 110 sein, oder der Datenspeicher 115 kann mit dem Prozessor 110 zur Verwendung durch diesen betriebsmäßig verbunden sein. Der Begriff „betriebsmäßig verbunden”, wie durch die gesamte Beschreibung hindurch verwendet, kann unmittelbare oder mittelbare Verbindungen beinhalten, einschließlich Verbindungen ohne unmittelbaren physischen Kontakt.
  • Das Fahrzeug 100 kann ein autonomes Fahrmodul 120 beinhalten. Das autonome Fahrmodul 120 kann als computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert, einschließlich beispielsweise des Bestimmens von gegenwärtigen Fahrmanövern für das Fahrzeug 100, künftigen Fahrmanövern und/oder Modifikationen. Das autonome Fahrmodul 120 kann auch direkt oder indirekt veranlassen, dass derartige Fahrmanöver oder Modifikationen dazu implementiert werden. Das autonome Fahrmodul 120 kann eine Komponente des Prozessors 110 sein, oder das autonome Fahrmodul 120 kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das autonome Fahrmodul 120 kann Anweisungen (z. B. Programmlogik) beinhalten, die durch den Prozessor 110 ausführbar sind. Derartige Anweisungen können Anweisungen zum Ausführen verschiedener Fahrzeugfunktionen und/oder zum Übermitteln von Daten an, Empfangen von Daten von, Zusammenwirken mit und/oder Steuern des Fahrzeugs 100 oder eines oder mehrerer Systeme davon (z. B. eines oder mehrerer von Fahrzeugsystemen 145) beinhalten. Alternativ oder zusätzlich kann der Datenspeicher 115 derartige Anweisungen enthalten.
  • Das Fahrzeug 100 kann ein Sichtanalysemodul 121 beinhalten. Das Sichtanalysemodul 121 kann als computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, einen oder mehrere der verschiedenen hierin beschriebenen Prozesse implementiert. Das Sichtanalysemodul 121 kann eine Komponente des Prozessors 110 sein, oder das Sichtanalysemodul 121 kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das Sichtanalysemodul 121 kann zum Erfassen, Analysieren, Feststellen und/oder Interpretieren von Informationen über eine externe Umgebung des Fahrzeugs 100 ausgebildet sein, um einen Insassensichtbereich zu bestimmen. „Insassensichtbereich” bedeutet einen Abschnitt der externen Umgebung, der für einen Fahrzeuginsassen sichtbar ist. Die Bestimmung des Insassensichtbereichs kann auf einem oder mehreren Faktoren basieren, einschließlich beispielsweise der Position eines Insassen innerhalb des Fahrzeugs 100, Hindernissen in der externen Umgebung (z. B. anderen Fahrzeugen, Wetterbedingungen, etc.), Hindernissen in dem Fahrzeug (z. B. Abschnitten des Fahrzeugrahmens oder Formteilen, die das Sichtfeld blockieren, Scheibentönung, etc.), der Sitzposition (z. B. Höhe, Lage in einer Längsrichtung des Fahrzeugs, Liegeposition, etc.), Körpermaßen eines menschlichen Insassen (z. B. Größe), körperlicher Einschränkungen eines menschlichen Insassen und/oder Einschränkungen der Sinneswahrnehmungen eines menschlichen Insassen, um nur einige Möglichkeiten zu nennen. Das Körpermaß eines menschlichen Insassen, körperliche Einschränkungen eines menschlichen Insassen und/oder Einschränkungen der Sinneswahrnehmungen eines menschlichen Insassen können auf Daten eines bestimmten Menschen, eines Durchschnittsmenschen oder einem anderen Datensatz basieren.
  • In einer oder mehreren Anordnungen können die Körpermaße eines menschlichen Insassen auf tatsächlichen Maßen eines oder mehrerer Merkmale eines menschlichen Insassen basieren. Zum Beispiel können ein oder mehrere Bilder mindestens eines Abschnitts des Körpers eines menschlichen Insassen erfasst werden. Beispielsweise können ein oder mehrere Bilder mindestens eines Abschnitts des Körpers eines menschlichen Insassen durch einen Scanner, eine Kamera und/oder einen Sensor erfasst werden. Das Sichtanalysemodul 121 oder ein anderes Element kann irgendeine geeignete Körpererkennungssoftware und/oder Körperanalysesoftware beinhalten. In einer oder mehreren Anordnungen kann mindestens ein Abschnitt des Gesichts eines menschlichen Insassen erfasst werden. Gesichtserkennungs- und/oder -analysesoftware kann verwendet werden, um die Bilderfassung zu erleichtern und/oder erfasste Bilder zu analysieren. Das Analysieren der Bilder kann ein Bestimmen oder Messen eines oder mehrerer körperlicher Merkmale eines menschlichen Insassen beinhalten, wie etwa Augengröße, Pupillenabstand, Abstand zwischen den Augen, Abstand zwischen mindestens einem der Augen und einem oder mehreren anderen Gesichts- oder Körpermerkmalen, Abstand zwischen mindestens einem der Augen und einem Aufbau innerhalb des Fahrzeugs, Kopfwinkel, Augenwinkel, der vertikale Meridian in jedem Auge, der horizontale Meridian in jedem Auge, um nur einige Möglichkeiten zu nennen.
  • In einer oder mehreren Anordnungen können solche Messungen zumindest zum Teil verwendet werden, um den Insassensichtbereich zu bestimmen. In einer oder mehreren Anordnungen kann der Insassensichtbereich auch durch Einkalkulieren von Informationen/Daten über das Sichtfeld eines Menschen bestimmt werden. Beispielsweise kann in einer oder mehreren Anordnungen ein vorbestimmtes menschliches Sichtfeld einen Satz von vorbestimmten Sichtspektren beinhalten, welche auf einem bestimmten Menschen, einem Durchschnittsmenschen oder einem anderen Datensatz basieren können. Als ein Beispiel kann ein Satz vorbestimmter Sichtspektren beinhalten: etwa 60 Grad nasal (z. B. in Richtung der Nase oder nach innen) ab dem vertikalen Meridian in jedem Auge bis etwa 100 Grad temporal (z. B. weg von der Nase oder nach außen) ab dem vertikalen Meridian in jedem Auge und etwa 60 Grad über und etwa 75 Grad unter dem horizontalen Meridian jedes Auges.
  • In einer oder mehreren Anordnungen kann das Sichtanalysemodul 121 ausgebildet sein, um die tatsächlichen Sichtspektren eines menschlichen Insassen des Fahrzeugs 100 zu bestimmen oder berücksichtigen, wenn es den Insassensichtbereich bestimmt. Beispielsweise kann das Sichtanalysemodul 121 ausgebildet sein, um Informationen/Daten bezüglich eines oder mehrerer Aspekte der Sicht eines menschlichen Insassen des Fahrzeugs zu erhalten, darauf zuzugreifen und/oder diese zu empfangen. Beispielsweise kann das Sichtanalysemodul 121 ausgebildet sein, um mindestens einen partiellen Sichtfeldtest eines menschlichen Insassen des Fahrzeugs 100 durchzuführen. Alternativ oder zusätzlich kann das Sichtanalysemodul 121 Informationen/Daten oder Eingaben empfangen, die der Sicht eines menschlichen Insassen entsprechen, einschließlich Informationen/Daten betreffend etwaige medizinische Zustände, Korrekturgläser, Sehschärfe, frühere Sehtests, etc.
  • Das Sichtanalysemodul 121 kann ausgebildet sein, um den Standort eines in der externen Umgebung erfassten Objekts relativ zu dem Insassensichtbereich zu bestimmen. Insbesondere kann das Sichtanalysemodul 121 ausgebildet sein, um zu bestimmen, ob sich ein in der externen Umgebung erfasstes Objekt außerhalb des Insassensichtbereichs befindet. Alternativ oder zusätzlich kann das Sichtanalysemodul 121 ausgebildet sein, um zu bestimmen, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs der externen Umgebung außerhalb des bestimmten Insassensichtbereichs befindet.
  • Das Sichtanalysemodul 121 kann Anweisungen (z. B. Programmlogik) beinhalten, die durch den Prozessor 110 ausführbar sind. Derartige Anweisungen können Anweisungen zum Bestimmen eines Insassensichtbereichs, zum Bestimmen des Standortes eines erfassten Objekts relativ zu dem Insassensichtbereich und/oder zum Bestimmen, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs befindet, beinhalten. Alternativ oder zusätzlich kann der Datenspeicher 115 derartige Anweisungen enthalten.
  • Das Fahrzeug 100 kann ein Bestimmungsmodul 122 eines informationsrelevanten Bereichs beinhalten. Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann als ein computerlesbarer Programmcode implementiert sein, der, wenn er durch einen Prozessor ausgeführt wird, die verschiedenen hierin beschriebenen Prozesse implementiert. Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann eine Komponente des Prozessors 110 sein, oder das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann auf anderen Verarbeitungssystemen, mit denen der Prozessor 110 betriebsmäßig verbunden ist, ausgeführt werden und/oder auf diese verteilt sein.
  • Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann ausgebildet sein, um einen informationsrelevanten Bereich entlang einer Fahrtroute des Fahrzeugs zu identifizieren. „Informationsrelevanter Bereich” bedeutet irgendeinen Abschnitt einer externen Umgebung eines Fahrzeugs, in dem darin enthaltene Informationen relevant in Bezug auf die Durchführung eines künftigen Fahrmanövers sind. In diesem Zusammenhang sind mit „relevant” Informationen gemeint, die beim Bestimmen, ob das Fahrzeug ein künftiges Fahrmanöver sicher und erfolgreich absolvieren kann, wichtig sind. Der informationsrelevante Bereich kann sich ändern, wenn es Veränderungen des Orts, der Position und/oder Richtung des Fahrzeugs 100 gibt. Auch kann es je nach der externen Umgebung einen informationsrelevanten Bereich oder mehr als einen informationsrelevanten Bereich für ein gegebenes künftiges Fahrmanöver geben.
  • Das Bestimmungsmodul 122 eines informationsrelevanten Bereichs kann mit einem Sensorsystem 125, einem Kamerasystem 127, einem Navigationssystem 180 und/oder einem anderen Element des Fahrzeugs 100 betriebsmäßig verbunden sein, um einen informationsrelevanten Bereich zu identifizieren. In einer oder mehreren Anordnungen kann das Bestimmungsmodul 122 eines informationsrelevanten Bereichs mit einem oder mehreren der Datenspeicher 115 betriebsmäßig verbunden sein, welche Abbildungen bzw. Karten oder andere Daten beinhalten können. Während das Fahrzeug 100 entlang einer Fahrtroute fährt, können künftige Fahrmanöver, die das Fahrzeug 100 entlang der Fahrtroute durchführen wird, in Bezug auf andere Abschnitte der externen Umgebung beurteilt werden.
  • Verschiedene Beispiele für informationsrelevante Bereiche werden hierin beschrieben. Falls sich ein Fahrzeug beispielsweise einer Kreuzung nähert und ein Rechtsabbiegen in eine andere Straße geplant ist, dann wäre ein informationsrelevanter Bereich mindestens ein Abschnitt der anderen Straße, der sich zur Linken der Kreuzung befindet. Ein Beispiel für einen solchen Bereich ist mit 450 in 4A gezeigt. Das Vorhandensein oder Nichtvorhandensein von Objekten in einem solchen Bereich wäre relevant für das künftige Fahrmanöver (z. B. Rechtsabbiegen in die Straße). In einer oder mehreren Anordnungen kann sich der informationsrelevante Bereich innerhalb eines vorbestimmten Bereichs oder Abstands befinden. Beispielsweise kann sich für den in 4A gezeigten informationsrelevanten Bereich der informationsrelevante Bereich von der Kreuzung bis zu einem vorbestimmten Abstand weg von der Kreuzung erstrecken. In einer oder mehreren Anordnungen kann der vorbestimmte Abstand etwa 50 Fuß oder weniger, etwa 75 Fuß oder weniger, etwa 100 Fuß oder weniger, etwa 150 Fuß oder weniger, et/wa 200 Fuß oder weniger, etc. betragen.
  • Wie vorstehend erwähnt, kann das Fahrzeug 100 ein Sensorsystem 125 beinhalten. Das Sensorsystem 125 kann einen oder mehrere Sensoren beinhalten. „Sensor” bedeutet irgendeine Vorrichtung, Komponente und/oder System, welche(s) etwas detektieren, bestimmen, feststellen, überwachen, messen, quantifizieren und/oder erfassen bzw. abtasten kann. Der eine oder die mehreren Sensoren können ausgebildet sein, um in Echtzeit zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen bzw. abtasten. Wie hierin verwendet, bedeutet der Begriff „Echtzeit” einen Grad an Verarbeitungsansprechgeschwindigkeit, den ein Nutzer oder System als hinreichend zeitnah für einen bestimmten Prozess oder eine zu tätigende Bestimmung empfindet, oder der es dem Prozessor ermöglicht, mit irgendeinem externen Prozess Schritt zu halten. Das Sensorsystem 125 kann einen zugewiesenen Sensorerfassungsbereich besitzen. „Sensorerfassungsbereich” bedeutet einen Abschnitt einer Umgebung, der sich innerhalb der Reichweite eines oder mehrerer Sensoren eines Sensorsystems befindet. Der Sensorerfassungsbereich des Sensorsystems 125 kann beispielsweise durch das Sensorsystem 125, das Sichtanalysemodul 121 und/oder ein anderes Modul oder Element bestimmt werden.
  • In Anordnungen, in denen das Sensorsystem 125 eine Mehrzahl von Sensoren beinhaltet, können die Sensoren unabhängig voneinander arbeiten. Alternativ können zwei oder mehr der Sensoren in Kombination miteinander arbeiten. Das Sensorsystem 125 und/oder der eine oder die mehreren Sensoren können mit dem Prozessor 110, dem Datenspeicher 115, dem autonomen Fahrmodul 120 und/oder einem anderen Element des Fahrzeugs 100 betriebsmäßig verbunden sein.
  • Das Sensorsystem 125 kann irgendeine geeignete Art von Sensor beinhalten. Beispielsweise kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Informationen über das Fahrzeug 100 zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Alternativ oder zusätzlich kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Informationen über die externe Umgebung, in der sich das Fahrzeug 100 befindet, einschließlich Informationen über Objekte in der externen Umgebung, zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Derartige Objekte können ortsfeste Objekte oder bewegliche Objekte sein. Alternativ oder zusätzlich zu einem oder mehreren der obigen Beispiele kann das Sensorsystem 125 einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um den Ort des Fahrzeugs 100 und/oder den Ort von Objekten in der Umgebung relativ zu dem Fahrzeug 100 zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Verschiedene Beispiele dieser und anderer Arten von Sensoren werden hierin beschrieben. Es versteht sich, dass die Ausführungsformen nicht auf die beschriebenen speziellen Sensoren beschränkt sind.
  • Das Sensorsystem 125 kann einen oder mehrere Sensoren beinhalten, die ausgebildet sind, um Positions- und Richtungsänderungen des Fahrzeugs 100, wie etwa beispielsweise jene, die auf Trägheitsbeschleunigung beruhen, zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. In einer oder mehreren Anordnungen kann das Sensorsystem 125 Beschleunigungsmesser, Gyroskope und/oder andere geeignete Sensoren beinhalten. Das Sensorsystem 125 kann Sensoren beinhalten, die ein oder mehrere interne Systeme des Fahrzeugs 100 (z. B. ein O2-Überwachungsgerät, einen Kraftstoffmesser, eine Motoröltemperatur, Kühlmitteltemperatur, etc.) überwachen können.
  • Das Sensorsystem 125 kann einen oder mehrere Umfeldsensoren 126 beinhalten. Die Umfeldsensoren 126 können ausgebildet sein, um Objekte in mindestens einem Abschnitt der externen Umgebung des Fahrzeugs 100 und/oder Informationen/Daten über derartige Objekte zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Der eine oder die mehreren Umfeldsensoren 126 können an irgendeiner geeigneten Stelle des Fahrzeugs vorgesehen sein. In einer oder mehreren Anordnungen können sich einer oder mehrere der Umfeldsensoren 126 in Richtung des vorderen Endes 102 des Fahrzeugs 100 befinden. In einer oder mehreren Anordnungen können sich ein oder mehrere Umfeldsensoren 126 auf einer linken Seite des vorderen Endes 102 des Fahrzeugs 100 befinden. Alternativ oder zusätzlich können sich ein oder mehrere Umfeldsensoren 126 auf einer rechten Seite des vorderen Endes 102 des Fahrzeugs 100 befinden. Zusätzlich oder alternativ können sich ein oder mehrere Umfeldsensoren 126 an irgendeiner geeigneten Stelle am oder nahe dem hinteren Ende 104 des Fahrzeugs 100 befinden.
  • Verschiedene Beispiele der Umfeldsensoren 126 werden hierin beschrieben. Jedoch versteht sich, dass die Ausführungsformen nicht auf die beschriebenen speziellen Sensoren beschränkt sind.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Funksignale verwenden (z. B. RADAR-basierte Sensoren). Der eine oder die mehreren funkbasierten Sensoren können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Laser verwenden. Beispielsweise können einer oder mehrere der Umfeldsensoren 126 Laser-Entfernungsmesser oder ein LIDAR sein oder als Teil hiervon beinhaltet sein. Derartige Vorrichtungen können eine Laserquelle oder/oder einen Laserscanner beinhalten, welche ausgebildet sind, um Laserlicht auszusenden, und einen Detektor, der zum Erfassen von Reflexionen des Laserlichts ausgebildet ist. Der Laser-Entfernungsmesser oder LIDAR kann ausgebildet sein, um in einem kohärenten oder einem inkohärenten Erfassungsmodus zu arbeiten. Der eine oder die mehreren laserbasierten Sensoren können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • In einer oder mehreren Anordnungen können einer oder mehrere der Umfeldsensoren 126 zumindest zum Teil Ultraschall verwenden. Derartige Sensoren können eine Ultraschallquelle beinhalten, die ausgebildet ist, um Ultraschallsignale auszusenden, und einen Detektor, der ausgebildet ist, um Reflexionen des Ultraschallsignals zu erfassen. Der eine oder die mehreren ultraschallbasierten Umfeldsensoren 126 können ausgebildet sein, um das Vorhandensein eines oder mehrerer Objekte in der externen Umgebung des Fahrzeugs 100, die Position jedes erfassten Objekts relativ zu dem Fahrzeug 100, den Abstand zwischen jedem erfassten Objekt und dem Fahrzeug 100 in einer oder mehreren Richtungen (z. B. in der Längsrichtung, der Querrichtung und/oder (einer) anderen Richtung(en)), die Geschwindigkeit jedes erfassten Objekts und/oder die Bewegung jedes erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Ein derartiges Erfassen kann auf einer Eigenschaft (z. B. der Intensität) eines reflektierten Ultraschallsignals basieren.
  • In einigen Anordnungen können das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 ausgebildet sein, um einen oder mehrere Aspekte, Charakteristika und/oder Eigenschaften eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen. Beispielsweise können das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 ausgebildet sein, um die Größe, relative Größe, Länge, Breite, Höhe, eine Abmessung, das Material, eine Materialeigenschaft, die Geschwindigkeit, die Beschleunigung und/oder die Bewegungsbahn eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, überwachen, messen, quantifizieren und/oder erfassen.
  • Alternativ oder zusätzlich zu irgendeinem der vorstehend beschriebenen Sensoren kann das Sensorsystem 125 weitere Arten von Sensoren beinhalten. Das Sensorsystem 125, der Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 können betreibbar sein, um Bewegungen eines oder mehrerer der Sensoren des Sensorsystems 125 zu steuern. Es sei darauf hingewiesen, dass ein jeder der hierin beschriebenen Sensoren an irgendeiner geeigneten Stelle in Bezug auf das Fahrzeug 100 angeordnet sein kann. Beispielsweise können sich ein oder mehrere Sensoren innerhalb des Fahrzeugs 100 befinden, ein oder mehrere Sensoren können sich auf der Außenseite des Fahrzeugs befinden und/oder ein oder mehrere Sensoren können so angeordnet sein, dass sie gegenüber dem Äußeren des Fahrzeugs 100 freiliegen.
  • Das Fahrzeug 100 kann ein Kamerasystem 127 beinhalten. In einer oder mehreren Anordnungen kann das Kamerasystem 127 ein Teil des Sensorsystems 125 sein. Das Kamerasystem 127 kann eine oder mehrere Kameras 128 und/oder eine oder mehrere Insassensichtkameras 129 beinhalten. „Kamera” ist als irgendeine Vorrichtung, Komponente und/oder System definiert, welche(s) visuelle Daten erfassen kann. „Visuelle Daten” beinhalten Video- und/oder Bildinformationen/-daten. Die visuellen Daten können irgendeine geeignete Form aufweisen.
  • In einer oder mehreren Anordnungen können eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 ein Objektiv (nicht gezeigt) und ein Bilderfassungselement (nicht gezeigt) beinhalten. Das Bilderfassungselement kann irgendeine geeignete Art von Bilderfassungsvorrichtung oder -system sein, einschließlich beispielsweise eines Flächen-Arraysensors, eines Charge-Coupled-Device(CCD)-Sensors, eines Complementary-Metal-Oxide-Semiconductor(CMOS)-Sensors, eines Zeilensensors, einer CCD (monochrom). Das Bilderfassungselement kann Bilder in irgendeiner geeigneten Wellenlänge in dem elektromagnetischen Spektrum erfassen. Das Bilderfassungselement kann Farbbilder und/oder Graustufenbilder erfassen. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können mit Vergrößerungs- (bzw. Zoom-in) und/oder Verkleinerungs-(bzw. Zoom-out)-Fähigkeiten ausgebildet sein.
  • In einer oder mehreren Anordnungen können eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 nach außen gewandt sein. „Nach außen gewandt” bedeutet eine Kamera, die so ausgerichtet, positioniert, ausgebildet, bedienbar und/oder angeordnet ist, dass sie visuelle Daten aus mindestens einem Abschnitt der externen Umgebung des Fahrzeugs 100 erfasst. Die eine oder mehreren Kameras 128 und/oder die eine oder mehreren Insassensichtkameras 129 können sich in irgendeinem geeigneten Bereich des Fahrzeugs 100 befinden. Beispielsweise können sich eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 innerhalb des Fahrzeugs 100 befinden. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können sich an der Außenseite des Fahrzeugs 100 befinden. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können sich an der Außenseite des Fahrzeugs 100 befinden oder gegenüber dieser freiliegen.
  • Die Position einer oder mehrerer der Kameras 128 und/oder einer oder mehrerer der Insassensichtkameras 129 kann derart fixiert sein, dass sich ihre Position relativ zu dem Fahrzeug 100 nicht verändert. Eine oder mehrere der Kameras 128 und/oder eine oder mehrere der Insassensichtkameras 129 können beweglich sein, so dass sich ihre Position verändern kann, um das Erfassen von visuellen Daten aus unterschiedlichen Abschnitten der externen Umgebung des Fahrzeugs 100 zu erlauben. Die Bewegung der Kameras 128 und/oder der Insassensichtkameras 129 kann auf irgendeine geeignete Weise erreicht werden. Beispielsweise können die Kameras 128 und/oder die Insassensichtkameras 129 drehbar um eine oder mehrere Achsen, schwenkbar, gleitbeweglich und/oder ausziehbar sein, um nur einige Möglichkeiten zu nennen. In einer oder mehreren Anordnungen können die Kameras 128 und/oder die Insassensichtkameras 129 irgendeinen geeigneten Bewegungsbereich besitzen, darunter beispielsweise im Wesentlichen kugelförmig, im Wesentlichen halbkugelförmig, im Wesentlichen kreisförmig und/oder im Wesentlichen linear. Wie hierin verwendet, beinhaltet der Begriff „im Wesentlichen” exakt den Begriff, den er modifiziert, und geringfügige Abweichungen davon. So bedeutet beispielsweise der Begriff „im Wesentlichen kugelförmig” exakt kugelförmig und geringfügige Abweichungen davon.
  • Die eine oder mehreren Kameras 128, die Insassensichtkameras 129, die Bewegung der einen oder mehreren Kameras 128 und/oder die Bewegung der einen oder mehreren Insassensichtkameras 129 können durch das Kamerasystem 127, das Sensorsystem 125, den Prozessor 110 und/oder eines oder mehrere der Module 120, 121, 122 gesteuert werden.
  • „Insassensichtkamera” bedeutet irgendeine Kamera, die ausgebildet, positioniert, angeordnet, beweglich und/oder ausgerichtet ist, um visuelle Daten einer externen Umgebung eines Fahrzeugs zu erfassen, erlangen und/oder sammeln, um den Abschnitt oder die Abschnitte der externen Umgebung, die tatsächlich von einem menschlichen Insassen des Fahrzeugs gesehen werden können, zu bestimmen oder festzustellen. Der Insassensichtbereich kann beispielsweise durch das Sichtanalysemodul 121 und/oder den Prozessor 110 bestimmt werden. Die eine oder mehreren Insassensichtkameras 129 können an irgendeiner geeigneten Stelle vorgesehen sein. Beispielsweise können sich die eine oder mehreren Insassensichtkameras 129 im Inneren des Fahrzeugs 100 befinden.
  • In einer oder mehreren Anordnungen können eine oder mehrere Insassensichtkameras 129 vorgesehen sein, um visuelle Daten zu erfassen, erlangen und/oder sammeln, so dass ein Insassensichtbereich für den Fahrer des Fahrzeugs 100 bestimmt werden kann. Alternativ oder zusätzlich können eine oder mehrere Insassensichtkameras 129 vorgesehen sein, um visuelle Daten zu erfassen, erlangen und/oder sammeln, so dass ein Insassensichtbereich für einen anderen Passagier als den Fahrer des Fahrzeugs 100 bestimmt werden kann.
  • Das Sichtanalysemodul 121 und/oder der Prozessor 110 können zum Analysieren von visuellen Daten, die durch die eine oder die mehreren Insassensichtkameras 129 erfasst werden, ausgebildet sein, um einen Insassensichtbereich zu bestimmen. Das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um Informationen/Daten, die von dem Sensorsystem 125 in Bezug auf erfasste Objekte in der externen Umgebung erfasst werden, zu analysieren und die erfassten Objekte relativ zu dem Insassensichtbereich zu orten. Das Sensorsystem 125, das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um den Sensorerfassungsbereich zu bestimmen. Das Sichtanalysemodul 121 und/oder der Prozessor 110 können ausgebildet sein, um den Insassensichtbereich und den Sensorerfassungsbereich festzustellen oder zu vergleichen.
  • In einer oder mehreren Anordnungen kann das Fahrzeug 100 ein Objekterkennungsmodul 123 beinhalten. In einer oder mehreren Anordnungen kann das Objekterkennungsmodul 123 Elemente mit künstlicher Intelligenz oder Computational Intelligence beinhalten, z. B. neuronales Netzwerk, Fuzzy-Logik oder andere maschinelle Lernalgorithmen. In einigen Anordnungen können das Sensorsystem 125, der Prozessor 110 und/oder das Objekterkennungsmodul 123 ausgebildet sein, um eine oder mehrere Abmessungen eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, messen, quantifizieren und/oder erfassen. Beispielsweise kann basierend auf Daten, die von einem oder mehreren Sensoren des Sensorsystems 125 empfangen werden, ein direktes Maß einer oder mehrerer Abmessungen eines erfassten Objekts bestimmt werden. Beispiele für Abmessungen, die direkt oder indirekt detektiert, bestimmt, festgestellt, gemessen, quantifiziert und/oder erfasst werden können, umfassen Länge, Breite und/oder Höhe.
  • In einigen Anordnungen können das Sensorsystem 125, der Prozessor 110 und/oder das Objekterkennungsmodul 123 ausgebildet sein, um eine relative Größe mindestens eines Abschnitts eines erfassten Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, messen, quantifizieren und/oder erfassen. In dieser Hinsicht ist ein „großes Objekt” jegliches Objekt, das eine oder mehrere Abmessungen besitzt, die größer sind als eine vorbestimmte Abmessung, oder das basierend auf einem oder mehreren Faktoren anderweitig als „groß” gilt. Ein „nicht großes Objekt” ist jegliches Objekt, das eine oder mehrere Abmessungen besitzt, die geringer sind als eine vorbestimmte Abmessung, oder das basierend auf einem oder mehreren Faktoren anderweitig als nicht groß gilt.
  • Die relative Größe eines erfassten Objekts kann auf irgendeine geeignete Weise bestimmt werden. Beispielsweise kann eine erfasste Abmessung des Objekts (z. B. Länge, Breite und/oder Höhe) mit einer vorbestimmten Abmessung verglichen werden. Die vorbestimmte Abmessung kann irgendeinen geeigneten Wert besitzen. Wenn in einer oder mehreren Anordnungen die erfasste Abmessung größer als die vorbestimmte Abmessung ist, kann das Objekt als ein großes Objekt bestimmt, klassifiziert und/oder betrachtet werden. Ein solcher Vergleich, eine solche Bestimmung, Klassifizierung und/oder Betrachtung kann beispielsweise durch den Prozessor 110 und/oder das Objekterkennungsmodul 123 getätigt werden. Falls die erfasste Abmessung geringer oder gleich der vorbestimmten Abmessung ist, kann das Objekt als ein nicht großes Objekt bestimmt, klassifiziert oder betrachtet werden.
  • In einer oder mehreren Anordnungen kann die vorbestimmte Abmessung eine vorbestimmte Länge sein. In derartigen Anordnungen kann die relative Größe eines erfassten Objekts mit Bezug auf die vorbestimmte Länge bestimmt werden. Beispielsweise kann die Länge eines Objekts erfasst werden. Die erfasste Länge des Objekts kann mit einer vorbestimmten Länge verglichen werden. Die vorbestimmte Länge kann irgendeine geeignete Länge sein. In einer oder mehreren Anordnungen kann die vorbestimmte Länge im Wesentlichen gleich oder größer als die Länge des Fahrzeugs 100 sein. In einer oder mehreren Anordnungen, wie etwa im Fall von kleineren Fahrzeugen, kann die vorbestimmte Länge ein Wert sein, der größer als die Länge des Fahrzeugs 100 ist. Falls in einigen Anordnungen die erfasste Länge größer als die vorbestimmte Länge ist, kann das Objekt als ein großes Objekt bestimmt, klassifiziert und/oder betrachtet werden. Falls die erfasste Länge geringer oder gleich der vorbestimmten Länge ist, kann das Objekt als ein nicht großes Objekt bestimmt, klassifiziert und/oder betrachtet werden.
  • Alternativ oder zusätzlich kann die relative Größe des Objekts basierend auf einer oder mehreren Eingaben bestimmt werden. Beispielsweise kann das Sensorsystem 125 ausgebildet sein, um die Anzahl von Rädern oder Reifen auf einer Seite eines Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, messen, quantifizieren und/oder erfassen. Basierend auf der Anzahl von erfassten Rädern oder Reifen können der Prozessor 110 und/oder das Objekterkennungsmodul 123 bestimmen, ob das Objekt ein großes Objekt ist. Falls beispielsweise mehr als zwei Räder auf einer Seite eines Objekts in der Umgebung erfasst werden, kann es als ein großes Objekt bestimmt werden (z. B. ein Lastkraftwagen).
  • Alternativ oder zusätzlich können das Sensorsystem 125, der Prozessor 110 und/oder das Objekterkennungsmodul 123 ausgebildet sein, um die Größe der Räder oder Reifen eines Objekts direkt oder indirekt zu detektieren, bestimmen, festzustellen, messen, quantifizieren und/oder erfassen. Beispielsweise können die Räder oder Reifen des Objekts einen zugehörigen Durchmesser und/oder Radius besitzen. Die Größe der Räder oder Reifen kann durch eine direkte Messung eines Durchmessers oder Radius eines Rads oder Reifens bestimmt werden. In einigen Anordnungen kann der erfasste Durchmesser oder Radius der Räder oder Reifen mit einem vorbestimmten Durchmesser oder Radius verglichen werden. Der vorbestimmte Durchmesser oder Radius kann irgendein geeigneter Wert sein. In einer oder mehreren Anordnungen kann der vorbestimmte Durchmesser oder Radius im Wesentlichen gleich dem Durchmesser oder Radius der Räder oder Reifen des Fahrzeugs 100 sein. In einer oder mehreren Anordnungen, wie etwa in dem Fall von Fahrzeugen mit kleineren Rädern oder Reifen, kann der vorbestimmte Durchmesser oder Radius ein größerer Wert als der Durchmesser oder Radius der Räder oder Reifen des Fahrzeugs 100 sein. Falls der erfasste Durchmesser oder Radius größer als der vorbestimmte Durchmesser oder Radius ist, kann das Objekt als ein großes oder langes Objekt bestimmt werden. Falls der erfasste Durchmesser oder Radius geringer oder gleich dem vorbestimmten Durchmesser oder Radius ist, kann das Objekt als ein nicht großes Objekt bestimmt, klassifiziert und/oder betrachtet werden. Ein solcher Vergleich und/oder eine solche Bestimmung kann beispielsweise durch den Prozessor 110 und/oder das Objekterkennungsmodul 123 getätigt werden.
  • Das Objekterkennungsmodul 123 kann eine Objektbilddatenbank (nicht gezeigt) beinhalten und/oder hierauf Zugriff haben. Die Objektbilddatenbank kann eine oder mehrere Bilder einer Mehrzahl von unterschiedlichen Objekten (z. B. Fahrzeugen) beinhalten. Hierin werden Anordnungen in Verbindung mit Fahrzeugen beschrieben, doch versteht sich, dass die Anordnungen nicht auf Fahrzeuge beschränkt sind. In der Tat kann die Objektbilddatenbank ein oder mehrere Bilder von anderen Objekten als Fahrzeugen beinhalten. Die Bilder können Bilder eines oder mehrerer Abschnitte des Äußeren mindestens eines Teils einer Mehrzahl von unterschiedlichen Fahrzeugen sein. Die Bilder können beispielsweise Bilder mindestens eines Abschnitts eines Fahrzeugs sein. Die Bilder können in irgendeinem geeigneten Format vorgesehen sein. Die Fahrzeugbilddatenbank kann sich an Bord des Fahrzeugs 100 befinden, wie etwa in dem Datenspeicher 115, oder kann sich in einer Quelle außerhalb des Fahrzeugs 100 (z. B. in einem Cloud-basierten Datenspeicher) befinden.
  • Beispielsweise kann das Objekterkennungsmodul 123 auch irgendeine geeignete Fahrzeugerkennungssoftware oder eine andere Objekterkennungssoftware beinhalten. Die Fahrzeugerkennungssoftware kann ein von dem Kamerasystem 126 erfasstes Bild analysieren. Die Fahrzeugerkennungssoftware kann die Fahrzeugbilddatenbank nach möglichen Übereinstimmungen abfragen. Zum Beispiel können von dem Kamerasystem 126 erfasste Bilder mit Bildern in der Fahrzeugbildatenbank nach möglichen Übereinstimmungen verglichen werden. Alternativ oder zusätzlich können Maße oder andere Aspekte eines von dem Kamerasystem 126 und/oder dem Sensorsystem 125 erfassten Bildes mit Maßen oder anderen Aspekten irgendeines Bildes in der Fahrzeugbilddatenbank verglichen werden. Das Objekterkennungsmodul 123 kann das erfasste Objekt als einen bestimmten Fahrzeugtyp identifizieren, wenn eine Übereinstimmung zwischen dem erfassten Bild und einem Bild in der Fahrzeugdatenbank vorliegt.
  • „Übereinstimmung” oder „Übereinstimmungen” bedeutet, dass ein Bild oder andere von dem Sensorsystem gesammelte Informationen und ein oder mehrere der Bilder in der Fahrzeugdatenbank im Wesentlichen identisch sind. Beispielsweise können ein Bild oder andere von dem Sensorsystem gesammelte Informationen und ein oder mehrere der Bilder in der Fahrzeugdatenbank innerhalb einer vorbestimmten Wahrscheinlichkeit (z. B. mindestens etwa 85%, mindestens etwa 90%, mindestens etwa 95% oder mehr) oder eines vorbestimmten Vertrauensniveaus übereinstimmen.
  • In einer oder mehreren Anordnungen kann das Fahrzeug 100 ein Objektbewegungsklassifikationsmodul 124 beinhalten. Das Sensorsystem 125, der Prozessor 110 und/oder das Objektbewegungsklassifikationsmodul 124 können ausgebildet sein, um die Bewegung eines Objekts relativ zu einem informationsrelevanten Bereich im Hinblick auf ein geplantes künftiges Fahrmanöver zu bestimmen, festzustellen und/oder klassifizieren. „Geplantes künftiges Fahrmanöver” bedeutet irgendeine Bewegung oder Aktion des Fahrzeugs, deren Ablauf beabsichtigt oder geplant ist, so dass das Fahrzeug entlang einer gegenwärtigen Fahrtroute des Fahrzeugs weiterfährt.
  • In einer oder mehreren Anordnungen kann das Objektbewegungsklassifikationsmodul 124 bestimmen, ob sich ein Objekt günstig oder ungünstig bezüglich eines geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. „Sich günstig bewegen” bedeutet, dass sich das Objekt in eine Richtung und/oder auf eine solche Weise bewegt, dass es sich zwischen einem informationsrelevanten Bereich und einem autonomen Fahrzeug befinden wird, während das autonome Fahrzeug ein geplantes künftiges Fahrmanöver umsetzt. „Sich ungünstig bewegen” bedeutet, dass sich das Objekt in eine Richtung und/oder auf eine solche Weise bewegt, dass es sich nicht zwischen einem informationsrelevanten Bereich und einem autonomen Fahrzeug befinden wird, während das autonome Fahrzeug ein geplantes künftiges Fahrmanöver umsetzt.
  • Das Fahrzeug 100 kann ein Eingabesystem 130 beinhalten. Ein „Eingabesystem” ist als irgendein(e) Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon definiert, welche die Eingabe von Informationen/Daten in eine Maschine ermöglichen. Das Eingabesystem 160 kann eine Eingabe von einem Fahrzeuginsassen (z. B. einem Fahrer oder einem Passagier) empfangen. Irgendein geeignetes Eingabesystem 130 kann verwendet werden, darunter beispielsweise ein Keypad, Display, Touchscreen, Multi-Touchscreen, Taste, Joystick, Maus, Rollkugel, Mikrofon und/oder Kombinationen davon.
  • Das Fahrzeug 100 kann ein Ausgabesystem 135 beinhalten. Ein „Ausgabesystem” ist als irgendein(e) Vorrichtung, Komponente, System, Element oder Anordnung oder Gruppen davon definiert, welche es ermöglichen, einem Fahrzeuginsassen (z. B. einer Person, einem Fahrzeuginsassen, etc.) Informationen/Daten zu präsentieren. Das Ausgabesystem 135 kann einem Fahrzeuginsassen Informationen/Daten präsentieren. Das Ausgabesystem 135 kann ein Display beinhalten, wie vorstehend beschrieben. Alternativ oder zusätzlich kann das Ausgabesystem 135 ein Mikrofon, Ohrhörer und/oder Lautsprecher beinhalten. Einige Komponenten des Fahrzeugs 100 können sowohl als eine Komponente des Eingabesystems 130 als auch als eine Komponente des Ausgabesystems 135 dienen.
  • Das Fahrzeug 100 kann ein oder mehrere Fahrzeugsysteme 145 beinhalten. Verschiedene Beispiele des einen oder der mehreren Fahrzeugsysteme 145 sind in 1 gezeigt. Jedoch kann das Fahrzeug 100 mehr, weniger oder andere Systeme beinhalten. Es sollte verstanden werden, dass bestimmte Fahrzeugsysteme zwar separat definiert werden, doch jedes oder irgendeines der Systeme oder Teile davon über Hardware und/oder Software in dem Fahrzeug 100 anderweitig kombiniert oder abgetrennt werden kann.
  • Das Fahrzeug 100 kann ein Antriebssystem 150 beinhalten. Das Antriebssystem 150 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um angetriebene Bewegung für das Fahrzeug 100 bereitzustellen. Das Antriebssystem 150 kann eine Maschine und eine Energiequelle beinhalten.
  • Die Maschine kann irgendeine derzeit bekannte oder später entwickelte geeignete Art von Maschine oder Motor sein. Beispielsweise kann die Maschine eine Verbrennungskraftmaschine, ein Elektromotor, eine Dampfmaschine und/oder eine Stirling-Maschine sein, um nur einige Möglichkeiten zu nennen. In einigen Ausführungsformen könnte das Antriebssystem eine Mehrzahl von Maschinen- bzw. Motortypen beinhalten. Beispielsweise kann ein Benzin-Elektro-Hybridfahrzeug einen Benzinmotor und einen Elektromotor beinhalten.
  • Die Energiequelle kann irgendeine geeignete Energiequelle sein, die verwendet werden kann, um die Maschine zumindest teilweise mit Leistung zu versorgen. Die Maschine kann ausgebildet sein, um die Energiequelle in mechanische Energie umzuwandeln. Beispiele für Energiequellen beinhalten Benzin, Diesel, Propan, Wasserstoff, andere Kraftstoffe auf Basis von komprimiertem Gas, Ethanol, Solarpanels, Batterien bzw. Akkumulatoren und/oder andere Quellen elektrischer Energie. Alternativ oder zusätzlich kann die Energiequelle Kraftstofftanks, Batterien bzw. Akkumulatoren, Kondensatoren und/oder Schwungräder beinhalten. In einigen Ausführungsformen kann die Energiequelle verwendet werden, um Energie für andere Systeme des Fahrzeugs 100 bereitzustellen.
  • Das Fahrzeug 100 kann Räder, Reifen und/oder Raupenketten beinhalten. Irgendeine geeignete Art von Rädern, Reifen und/oder Raupenketten kann verwendet werden. In einer oder mehreren Anordnungen können die Räder, Reifen und/oder Raupenketten des Fahrzeugs 100 ausgebildet sein, um sich unterschiedlich in Bezug auf andere Räder, Reifen und/oder Raupenketten des Fahrzeugs 100 zu drehen. Die Räder, Reifen und/oder Raupenketten können aus irgendeinem geeigneten Material hergestellt sein.
  • Das Fahrzeug 100 kann ein Bremssystem 155 beinhalten. Das Bremssystem 155 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die zum Abbremsen des Fahrzeugs 100 ausgebildet sind. Beispielsweise kann das Bremssystem 155 Reibung verwenden, um die Räder/Reifen zu verlangsamen. Das Bremssystem 155 kann die kinetische Energie der Räder/Reifen in elektrischen Strom umwandeln.
  • Ferner kann das Fahrzeug 100 ein Lenksystem 160 beinhalten. Das Lenksystem 160 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um den Kurs des Fahrzeugs 100 anzupassen.
  • Das Fahrzeug 100 kann ein Drosselsystem 165 beinhalten. Das Drosselsystem 165 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um die Betriebsgeschwindigkeit einer Maschine/eines Motors des Fahrzeugs 100 und wiederum die Geschwindigkeit des Fahrzeugs 100 zu steuern bzw. kontrollieren.
  • Das Fahrzeug 100 kann ein Übersetzungssystem 170 beinhalten. Das Übersetzungssystem 170 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um mechanische Kraft von der Maschine/dem Motor des Fahrzeugs 100 auf die Räder/Reifen zu übertragen. Beispielsweise kann das Übersetzungssystem 170 ein Getriebe, eine Kupplung, ein Differentialgetriebe, Antriebswellen und/oder andere Elemente beinhalten. In Anordnungen, in denen das Übersetzungssystem 170 Antriebswellen beinhaltet, können die Antriebswellen eine oder mehrere Achsen beinhalten, die ausgebildet sind, um mit den Rädern/Reifen gekoppelt zu werden.
  • Das Fahrzeug 100 kann ein Signalisierungssystem 175 beinhalten. Das Signalisierungssystem 175 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme und/oder Kombinationen davon beinhalten, die ausgebildet sind, um für den Fahrer des Fahrzeugs 100 eine Beleuchtung bereitzustellen und/oder Informationen in Bezug auf einen oder mehrere Aspekte des Fahrzeugs 100 bereitzustellen. Beispielsweise kann das Signalisierungssystem 175 Informationen über die Anwesenheit, Position, Größe, Fahrtrichtung des Fahrzeugs und/oder die Absichten des Fahrers in Bezug auf Fahrtrichtung und -geschwindigkeit bereitstellen. Beispielsweise kann das Signalisierungssystem 175 Scheinwerfer, Rücklichter, Bremslichter, Warnblinker und Abbiegesignallichter beinhalten.
  • Das Fahrzeug 100 kann ein Navigationssystem 180 beinhalten. Das Navigationssystem 180 kann eine(n) oder mehrere derzeit bekannte oder später entwickelte Mechanismen, Vorrichtungen, Elemente, Komponenten, Systeme, Anwendungen und/oder Kombinationen davon beinhalten, die ausgebildet sind, um den geographischen Standort des Fahrzeugs 100 zu bestimmen und/oder eine Fahrtroute für das Fahrzeug 100 zu bestimmen.
  • Das Navigationssystem 180 kann eine oder mehrere Mapping-Anwendungen beinhalten, um eine Fahrtroute für das Fahrzeug 100 zu bestimmen. Beispielsweise kann ein Fahrer oder Passagier einen Ausgangspunkt und einen Zielpunkt eingeben. Die Mapping-Anwendung kann eine oder mehrere geeignete Fahrtrouten zwischen dem Ausgangspunkt und dem Zielpunkt bestimmen. Eine Fahrtroute kann basierend auf einem oder mehreren Parametern (z. B. kürzeste Fahrtstrecke, kürzeste Fahrtzeit, etc.) ausgewählt werden. In einigen Anordnungen kann das Navigationssystem 180 ausgebildet sein, um die Fahrtroute dynamisch zu aktualisieren, während das Fahrzeug 100 in Betrieb ist.
  • Das Navigationssystem 180 kann ein globales Positionierungssystem, ein lokales Positionierungssystem oder ein Geolokationssystem beinhalten. Das Navigationssystem 180 kann mit irgendeinem einer Reihe von Satellitenpositionierungssystemen, wie etwa dem Globalen Positionierungssystem (GPS) der Vereinigten Staaten, dem russischen Glonass-System, dem europäischen Galileo-System, dem chinesischen Beidou-System, oder irgendeinem System, das Satelliten aus einer Kombination von Satellitensystemen verwendet, oder irgendeinem in Zukunft entwickelten Satellitensystem, einschließlich des geplanten chinesischen COMPASS-Systems und des indischen regionalen Satellitennavigationssystems, implementiert werden. Ferner kann das Navigationssystem 180 das Übertragungssteuerungsprotokoll (TCP) und/oder ein Geographisches Informationssystem (GIS) und Ortungsdienste verwenden.
  • Das Navigationssystem 180 kann einen Sendeempfänger beinhalten, der ausgebildet ist, um eine Position des Fahrzeugs 100 in Bezug auf die Erde zu schätzen. Beispielsweise kann das Navigationssystem 180 einen GPS-Sendeempfänger beinhalten, um den Breitengrad, Längengrad und/oder die Höhenlage des Fahrzeugs zu bestimmen. Das Navigationssystem 180 kann andere Systeme (z. B. laserbasierte Lokalisierungssysteme, inertialgestütztes GPS und/oder kamerabasierte Lokalisierung) verwenden, um den Standort des Fahrzeugs 100 zu bestimmen.
  • Alternativ oder zusätzlich kann das Navigationssystem 180 auf Zugangspunkt-Geolokationsdiensten basieren, wie jenen, die die Schnittstelle zur Anwendungsprogrammierung (API) von W3C-Geolocation verwenden. Mit einem solchen System lässt sich der Standort des Fahrzeugs 100 durch Heranziehen von Standortinformationsservern, einschließlich beispielsweise der Internetprotokoll(IP)-Adresse, Wi-Fi- und Bluetooth-Medienzugriffssteuer(MAC)-Adresse, Radiofrequenz-Identifikation (RFID), Wi-Fi-Verbindungsortung oder Geräte-GPS sowie Cell-IDs des Globalsystems für Mobilkommunikationen(GSM)/Codemultiplex-Vielfachzugriffs (CDMA), bestimmen. Somit versteht sich, dass die konkrete Art und Weise, wie die geographische Position des Fahrzeugs 100 bestimmt wird, von der Arbeitsweise des konkret verwendeten Standortverfolgungssystems abhängt.
  • Der Prozessor 110 und/oder das autonome Fahrmodul 120 können betriebsmäßig verbunden sein, um mit den verschiedenen Fahrzeugsystemen 145 und/oder einzelnen Komponenten davon zu kommunizieren. Beispielsweise können – um auf 1 zurückzukommen – der Prozessor 110 und/oder das autonome Fahrmodul 120 in Verbindung stehen, um Informationen von den verschiedenen Fahrzeugsystemen 145 zu senden und/oder empfangen, um die Bewegung, Geschwindigkeit, das Manövrieren, den Kurs, die Richtung, etc. des Fahrzeugs 100 zu steuern. Der Prozessor 110 und/oder das autonome Fahrmodul 120 können einige oder alle dieser Fahrzeugsysteme 145 steuern und können somit ganz oder teilweise autonom sein.
  • Der Prozessor 110 und/oder das autonome Fahrmodul 120 können betreibbar sein, um die Navigation und/oder das Manövrieren des Fahrzeugs 100 durch Steuern eines oder mehrerer der Fahrzeugsysteme 145 und/oder Komponenten davon zu steuern. Beispielsweise können der Prozessor 110 und/oder das autonome Fahrmodul 120, wenn sie in einem autonomen Modus arbeiten, die Richtung und/oder Geschwindigkeit des Fahrzeugs 100 steuern. Der Prozessor 110 und/oder das autonome Fahrmodul 120 können das Fahrzeug 100 zum Beschleunigen (z. B. durch Erhöhen der Versorgung mit Kraftstoff, der der Maschine bereitgestellt wird), Abbremsen (z. B. durch Verringern der Kraftstoffversorgung der Maschine und/oder durch Betätigen von Bremsen) und/oder Richtungswechseln (z. B. durch Drehen der beiden Vorderräder) veranlassen. Wie hierin verwendet, bedeutet „veranlassen” oder „Veranlassen”, das Eintreten eines Ereignisses oder einer Aktion zu bewirken, forcieren, erzwingen, lenken, befehligen, anordnen und/oder ermöglichen oder sich zumindest in einem Zustand zu befinden, in dem sich ein solches Ereignis oder eine solche Aktion entweder auf direkte oder indirekte Weise ereignen kann.
  • Das Fahrzeug 100 kann ein oder mehrere Stellglieder 140 beinhalten. Die Stellglieder 140 können irgendein Element oder eine Kombination von Elementen sein, die zum Modifizieren, Einstellen und/oder Ändern eines oder mehrerer der Fahrzeugsysteme 145 oder Komponenten davon als Reaktion auf den Empfang von Signalen oder anderen Eingaben von dem Prozessor 110 und/oder dem autonomen Fahrmodul 120 betreibbar sind. Irgendein geeignetes Stellglied kann verwendet werden. Beispielsweise können das eine oder die mehreren Stellglieder 140 Motoren, pneumatische Stellglieder, hydraulische Kolben, Relais, Elektromagneten und/oder piezoelektrische Stellglieder beinhalten, um nur einige Möglichkeiten zu nennen.
  • Gemäß hierin beschriebenen Anordnungen kann das Fahrzeug 100 zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht ausgebildet sein. Gemäß Anordnungen hierin kann das Fahrzeug 100 (oder ein oder mehrere Elemente davon) ausgebildet sein, um einen Insassensichtbereich der externen Umgebung, einen Sensorerfassungsbereich des Sensorsystems 125 und/oder des Kamerasystems 127 zu bestimmen und/oder einen informationsrelevanten Bereich entlang einer gegenwärtigen Fahrtroute des Fahrzeugs 100, der mit einem geplanten künftigen Fahrmanöver zusammenhängt, zu identifizieren.
  • In einer oder mehreren Anordnungen kann als Reaktion auf die Bestimmung, dass sich ein oder mehrere erfasste Objekte in der externen Umgebung außerhalb eines bestimmten Insassensichtbereichs befinden, eine Aktion bzw. Maßnahme durchgeführt werden. Beispielsweise kann die Maßnahme das Darstellen einer Warnung innerhalb des Fahrzeugs 100 sein. Alternativ oder zusätzlich kann die Maßnahme das Veranlassen sein, dass ein gegenwärtiges Fahrmanöver des Fahrzeugs 100 modifiziert wird. Diese und weitere Beispiele möglicher Maßnahmen werden die gesamte Beschreibung hindurch ausführlicher beschrieben. In einer oder mehreren Anordnungen können der Prozessor 110, das Fahrmodul 120, das Sichtanalysemodul 121 und/oder (ein) andere(s) Element(e) ausgebildet sein, um zu bestimmen, ob sich eines oder mehrere erfasste Objekte in der externen Umgebung außerhalb eines bestimmten Insassensichtbereichs befinden.
  • In einer oder mehreren Anordnungen kann bestimmt werden, ob sich mindestens ein Abschnitt eines informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs sowie eines bestimmten Sensorerfassungsbereichs befindet. In einer oder mehreren Anordnungen kann als Reaktion auf eine solche Bestimmung bestimmt werden, ob sich ein erfasstes Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. Diese und/oder andere Bestimmungen können zumindest teilweise durch den Prozessor 110, das autonome Fahrmodul 120, das Sichtanalysemodul 121, das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Objekterkennungsmodul 123, das Objektbewegungsklassifikationsmodul 124 und/oder (ein) andere(s) Element(e) getätigt werden. Falls in einer oder mehreren Anordnungen bestimmt wird, dass sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt, kann das Fahrzeug 100 veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem Hindernisobjekt so bewegt, dass es durch das Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, die sich in dem informationsrelevanten Bereich befinden.
  • Nachdem die verschiedenen potentiellen Systeme, Vorrichtungen, Elemente und/oder Komponenten des Fahrzeugs 100 beschrieben wurden, werden nun verschiedene Verfahren zum Betreiben eines autonomen Fahrzeugs in einer Umgebung mit blockierter Sicht beschrieben. Unter Bezugnahme auf 2 wird nun ein Beispiel eines anderen Verfahrens zum Betreiben eines autonomen Fahrzeugs in Abschnitten einer Fahrtroute mit blockierter Sicht aufgezeigt. Verschiedene mögliche Schritte des Verfahrens 200 werden nun beschrieben. Das in 2 veranschaulichte Verfahren 200 ist auf die vorstehend in Bezug auf 1 beschriebenen Ausführungsformen anwendbar, doch versteht sich, dass das Verfahren 200 mit anderen geeigneten Systemen und Anordnungen ausführbar ist. Überdies kann das Verfahren 200 andere Schritte beinhalten, die hier nicht gezeigt sind, und in der Tat ist das Verfahren 200 nicht darauf beschränkt, jeden in 2 gezeigten Schritt zu beinhalten. Die hier als Teil des Verfahrens 200 veranschaulichten Schritte sind nicht auf diese besondere chronologische Reihenfolge beschränkt. In der Tat können einige der Schritte in einer anderen Reihenfolge als der gezeigten durchgeführt werden, und/oder zumindest einige der gezeigten Schritte können gleichzeitig erfolgen.
  • Bei Block 210 kann ein informationsrelevanter Bereich entlang mindestens eines Abschnitts der Fahrtroute identifiziert werden. Der informationsrelevante Bereich kann mit einem künftigen Fahrmanöver des Fahrzeugs 100 in Zusammenhang stehen. Das Identifizieren des informationsrelevanten Bereichs kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann das Identifizieren des informationsrelevanten Bereichs zumindest zum Teil durch das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Navigationssystem 180 und/oder den Prozessor 110 durchgeführt werden. In einigen Anordnungen kann das Identifizieren des informationsrelevanten Bereichs kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 200 kann mit Block 220 fortfahren.
  • Bei Block 220 kann mindestens ein Abschnitt einer externen Umgebung des autonomen Fahrzeugs abgetastet bzw. erfasst werden, um das Vorliegen von darin befindlichen Objekten zu erfassen. Insbesondere kann mindestens ein Abschnitt einer externen Umgebung des autonomen Fahrzeugs abgetastet bzw. erfasst werden, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen. „Hindernisobjekt” ist irgendein Objekt, das einen Abschnitt des Insassensichtbereichs und/oder des Sensorerfassungsbereichs blockiert. Das Abtasten bzw. Erfassen der externen Umgebung zum Erfassen des Vorhandenseins von einem oder mehreren darin befindlichen Hindernisobjekten kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann das Abtasten bzw. Erfassen der externen Umgebung zumindest zum Teil durch das Sensorsystem 125 (oder eine Komponente davon), das Kamerasystem 127 (oder einen Teil davon) und/oder den Prozessor 110 durchgeführt werden. Das Verfahren 200 kann mit Block 230 fortfahren.
  • Bei Block 230 kann ein Insassensichtbereich der externen Umgebung bestimmt werden. Das Bestimmen des Insassensichtbereichs kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann das Bestimmen des Insassensichtbereichs durch das Sensorsystem 125, das Kamerasystem 127 (z. B. eine oder mehrere Insassensichtkameras), das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. Das Bestimmen des Insassensichtbereichs kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 200 kann mit Block 240 fortfahren.
  • Bei Block 240 kann ein Sensorerfassungsbereich des Fahrzeugs relativ zu der externen Umgebung bestimmt werden. Das Bestimmen des Sensorerfassungsbereichs kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. In einer oder mehreren Anordnungen kann das Bestimmen des Sensorerfassungsbereichs durch das Sensorsystem 125, das Kamerasystem 127, das Sichtanalysemodul 121 und/oder den Prozessor 110 durchgeführt werden. Das Bestimmen des Sensorerfassungsbereichs kann kontinuierlich oder in irgendeinem geeigneten Intervall durchgeführt werden. Das Verfahren 200 kann mit Block 250 fortfahren.
  • Bei Block 250 kann bestimmt werden, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des Hindernisobjekts außerhalb sowohl des Insassensichtbereichs als auch des Sensorerfassungsbereichs befindet. Eine solche Bestimmung kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann das Bestimmen in einer oder mehreren Anordnungen durch den Prozessor 110, das Sensorsystem 125, das Kamerasystem 127, das Sichtanalysemodul 121 und/oder das Bestimmungsmodul 122 eines informationsrelevanten Bereichs durchgeführt werden.
  • Als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des Hindernisobjekts außerhalb sowohl des Insassensichtbereichs als auch des Sensorerfassungsbereichs befindet, kann bestimmt werden, ob sich das sichtbehindernde Objekt günstig bezüglich eines geplanten künftige Fahrmanövers des Fahrzeugs 100 bewegt. Eine solche Bestimmung kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann das Bestimmen in einer oder mehreren Anordnungen durch den Prozessor 110, das Sensorsystem 125, das Kamerasystem 127, das autonome Fahrmodul 120 und/oder das Objektbewegungsklassifikationsmodul 124 durchgeführt werden. Das Verfahren kann mit Block 260 fortfahren.
  • Es kann bestimmt werden, ob sich das erfasste Hindernisobjekt günstig oder ungünstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. Eine solche Bestimmung kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann das Bestimmen in einer oder mehreren Anordnungen durch den Prozessor 110, das Sensorsystem 125, das Kamerasystem 127, das autonome Fahrmodul 120 und/oder das Objektbewegungsklassifikationsmodul 124 durchgeführt werden.
  • Bei Block 260 kann als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs bewegt, die Umsetzung des geplanten Fahrmanövers des Fahrzeugs 100 veranlasst werden. Das geplante künftige Fahrmanöver kann während des Bewegens relativ zu dem Hindernisobjekt umgesetzt werden, so dass das Hindernisobjekt gegenüber potentiellen Objekten abschirmt, die sich in dem informationsrelevanten Bereich befinden, insbesondere dem mindestens einen Abschnitt des informationsrelevanten Bereichs, der sich aufgrund des erfassten Hindernisobjekts außerhalb sowohl des Insassensichtbereichs als auch des Sensorerfassungsbereichs befindet.
  • In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 das Fahrzeug 100 veranlassen, das geplante künftige Fahrmanöver umzusetzen. Der Prozessor 110 und/oder das Fahrmodul 120 können mit einem oder mehreren der Fahrzeugsysteme 145 betriebsmäßig verbunden sein, um die Umsetzung des geplanten künftigen Fahrmanövers zu veranlassen. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 betreibbar sein, um das eine oder die mehreren Stellglieder 140 zu steuern, welche eines oder mehrere der Fahrzeugsysteme 145 oder Teile davon zum Umsetzen des geplanten künftigen Fahrmanövers steuern können.
  • Es sei darauf hingewiesen, dass das Veranlassen der Umsetzung des geplanten künftigen Fahrmanövers automatisch durchgeführt werden kann. In einer oder mehreren Anordnungen kann ein Fahrzeuginsasse (z. B. ein Fahrer und/oder anderer Passagier) aufgefordert werden, die Genehmigung zum Umsetzen des geplanten künftigen Fahrmanövers zu erteilen. Der Fahrzeuginsasse kann auf irgendeine geeignete Weise aufgefordert werden. Beispielsweise kann eine Aufforderung auf einem Display innerhalb des Fahrzeugs 100 präsentiert werden. Alternativ oder zusätzlich kann die Aufforderung über einen oder mehrere Audiokanäle akustisch an den Fahrzeuginsassen ausgegeben werden. Andere Formen des Aufforderns können alternativ oder zusätzlich zu den vorstehend beschriebenen Formen des Aufforderns verwendet werden. Als Reaktion auf den Empfang einer Eingabe, die der Zustimmung eines Fahrzeuginsassen zur Umsetzung des künftigen Fahrmanövers entspricht, kann das Fahrzeug 100 veranlasst werden, das geplante künftige Fahrmanöver umzusetzen.
  • Das geplante künftige Fahrmanöver kann irgendeine Art von Fahrmanöver sein. Beispielsweise kann das geplante künftige Fahrmanöver das Durchqueren einer Kreuzung, ein Rechtsabbiegen, ein Linksabbiegen oder sogar das Passieren eines Kreisverkehrs sein. Eine gegenwärtige Fahrtroute kann eine Mehrzahl von geplanten künftigen Fahrmanövern aufweisen.
  • Ferner kann ein Sichbewegen relativ zu dem Hindernisobjekt, so dass durch das Hindernisobjekt eine Abschirmung gegenüber potentiellen Objekten erfolgt, welche sich in dem informationsrelevanten Bereich finden, irgendeine geeignete Bewegung des Fahrzeugs 100 sein. In einer oder mehreren Anordnungen kann ein Sichbewegen relativ zu dem erfassten Hindernisobjekt ein Sichbewegen derart beinhalten, dass das Hindernisobjekt zwischen dem Fahrzeug 100 und dem informationsrelevanten Bereich 350 gehalten wird. In einigen Fällen kann das Sichbewegen relativ zu dem erfassten Hindernisobjekt beinhalten, dass sich das Fahrzeug 100 mit im Wesentlichen der gleichen Geschwindigkeit wie das erfasste Hindernisobjekt voranbewegt. In einigen Fällen kann das Sichbewegen relativ zu dem erfassten Hindernisobjekt beinhalten, dass sich das Fahrzeug 100 Seite an Seite mit dem erfassten Hindernisobjekt bewegt, ohne sich vor das erfasste Hindernisobjekt zu bewegen. In einer oder mehreren Anordnungen kann zwischen dem Fahrzeug 100 und dem erfassten Hindernisobjekt ein vorbestimmter seitlicher Abstand aufrechterhalten werden. In einer oder mehreren Anordnungen kann zwischen dem Fahrzeug und dem erfassten Hindernisobjekt ein vorbestimmter vorderer Abstand aufrechterhalten werden. „Vorderer Abstand” bedeutet den Abstand zwischen einem vorderen Punkt des erfassten Hindernisobjekts und einem vorderen Punkt des Fahrzeugs. Die vorderen Punkte können die vordersten Punkte des Fahrzeugs und/oder des erfassten Hindernisobjekts sein. Die vorderen Punkte werden in Bezug auf die Fahrtrichtung des Fahrzeugs und das erfasste Hindernisobjekt bestimmt.
  • In einer oder mehreren Anordnungen kann das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt bewegt, eine Reaktion auf einen oder mehrere zusätzliche Faktoren sein. Beispielsweise kann bestimmt werden, ob das erfasste Hindernisobjekt ein großes Objekt ist. Eine solche Bestimmung kann beispielsweise durch das Sensorsystem 125, das Kamerasystem 127, den Prozessor 110 und/oder das Objekterkennungsmodul 123 getätigt werden. In einer oder mehreren Anordnungen kann das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umsetzen, während es sich relativ zu dem erfassten Hindernisobjekt bewegt, ferner eine Reaktion auf die Bestimmung sein, dass das erfasste Hindernisobjekt ein großes Objekt ist. Falls somit bestimmt wird, dass ein erfasstes Hindernisobjekt ein großes Objekt ist, kann das autonome Fahrzeug veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt bewegt. Falls jedoch bestimmt wird, dass ein erfasstes Hindernisobjekt ein nicht großes Objekt ist, wird das autonome Fahrzeug nicht veranlasst, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt bewegt, da sich ein nicht großes Objekt schlecht dazu eignen mag, das Fahrzeug 100 gegenüber potentiellen Objekten abzuschirmen, die sich in dem informationsrelevanten Bereich befinden.
  • Wenn das Fahrzeug veranlasst wird, das geplante künftige Fahrmanöver umzusetzen, kann das Verfahren 200 enden. Alternativ kann das Verfahren 200 zu Block 210 zurückkehren. Als eine weitere Alternative kann das Verfahren 200 zusätzliche Blöcke (nicht gezeigt) beinhalten. In einigen Fällen kann sich das Fahrzeug 100 weiterhin relativ zu dem erfassten Hindernisobjekt bewegen, zumindest bis das Fahrzeug 100 den informationsrelevanten Bereich durchläuft und/oder das geplante künftige Fahrmanöver beendet.
  • Es sei erwähnt, dass in einer oder mehreren Implementierungen als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt ungünstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs bewegt, das geplante künftige Fahrmanöver des Fahrzeugs 100 möglicherweise nicht umgesetzt wird oder möglicherweise eine Zeit lang und/oder bis ein vorbestimmtes Ereignis eintritt nicht umgesetzt wird. Beispielsweise kann als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt ungünstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt, die Umsetzung des geplanten künftigen Fahrens verzögert werden, bis sich der informationsrelevante Bereich innerhalb mindestens einem aus dem Insassensichtbereich und/oder dem Sensorerfassungsbereich befindet. Beispielsweise kann das Fahrzeug 100 mit der Umsetzung des geplanten künftigen Fahrens warten, bis sich das Hindernisobjekt eine ausreichende Strecke bewegt hat, so dass sich der informationsrelevante Bereich innerhalb mindestens eines aus dem Insassensichtbereich und/oder dem Sensorerfassungsbereich befindet.
  • Ein nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs 100 in Übereinstimmung mit dem Verfahren 200 wird nun in Bezug auf die 3A und 3B beschrieben. Für die Zwecke dieses Beispiels kann das Fahrzeug 100 in einer Umgebung 300 fahren, die eine erste Straße 305 und eine zweite Straße 310 beinhaltet. Wie hierin verwendet, bedeutet „Straße” eine Durchgangsstraße, Route, einen Pfad oder Weg zwischen zwei Orten, auf der/dem ein Fahrzeug fahren kann. Eine Straße kann gepflastert oder anderweitig aufgebessert sein, um die Fahrt eines Fahrzeugs darauf zu erleichtern. In einigen Fällen kann die Straße ungepflastert oder unbefestigt sein. Eine Straße kann eine öffentliche Straße oder eine private Straße sein. Die Straße kann eine(n) oder mehrere Brücken, Tunnel, Stützkonstruktionen, Einmündungen, Kreuzungen bzw. Übergänge, Anschlussstellen und Mautstraßen beinhalten oder ein Teil davon sein.
  • Die erste Straße 305 und die zweite Straße 310 können sich kreuzen, so dass sie eine Kreuzung 325 bilden. In einer oder mehreren Anordnungen kann Verkehr in Bezug auf die Kreuzung 325 unter Verwendung irgendeiner geeigneten Verkehrssteuerungsvorrichtung (z. B. Stoppschilder, Ampeln, etc.) reguliert werden. In einer oder mehreren Anordnungen kann es sein, dass die Kreuzung 325 keine zugehörige Verkehrssteuerungsvorrichtung aufweist. Die erste Straße 305 und die zweite Straße 310 können in irgendeinem geeigneten Winkel zueinander ausgerichtet sein. Beispielsweise können die erste Straße 305 und die zweite Straße 310 im Wesentlichen um 90 Grad zueinander ausgerichtet sein, wie in den 3A und 3B gezeigt. Jedoch können die erste Straße 305 und die zweite Straße 310 in einer oder mehreren Anordnungen in einem spitzen Winkel relativ zueinander ausgerichtet sein. In einer oder mehreren Anordnungen können die erste Straße 305 und die zweite Straße 310 stumpfwinklig zueinander abgewinkelt sein. Ferner kann die Kreuzung 325 in einigen Anordnungen durch mehr als zwei Straßen gebildet sein.
  • Die erste Straße 305 kann eine Mehrzahl von Fahrspuren 306, 307, 308 beinhalten. Wie hierin verwendet, ist eine „Fahrspur ein Abschnitt einer Straße, der zur Verwendung durch eine einzige Reihe von Fahrzeugen vorgesehen ist, und/oder ein Abschnitt einer Straße, der von einer einzigen Reihe von Fahrzeugen verwendet wird. In einigen Fällen können die eine oder mehreren Fahrspuren 306, 307, 308 durch Markierungen auf der ersten Straße 305 oder auf irgendeine andere geeignete Weise ausgewiesen sein. In einigen Fällen können die eine oder mehreren Fahrspuren 306, 307, 308 nicht markiert sein.
  • Die erste Straße 305 und die zweite Straße 310 können irgendeine geeignete Gestaltung und/oder Anordnung aufweisen. Die erste Straße 305 und/oder die zweite Straße 310 können für zwei Fahrtrichtungen, einschließlich einer Mehrzahl von Fahrspuren, vorgesehen sein. Für die Zwecke dieses Beispiels kann die erste Straße 305 einen ersten Satz einer oder mehrerer Fahrspuren 303 und einen zweiten Satz einer oder mehrerer Fahrspuren 304 beinhalten. Der erste Satz von Fahrspuren 303 kann für Fahrzeugverkehr in einer ersten Richtung 316 vorgesehen oder bestimmt sein. Der zweite Satz von Fahrspuren 304 kann für Fahrzeugverkehr in einer zweiten Richtung 317 vorgesehen oder bestimmt sein. Die erste Richtung 316 kann von der zweiten Richtung 317 verschieden sein. Beispielsweise kann die erste Richtung 316 im Wesentlichen entgegengesetzt zur zweiten Richtung 317 sein.
  • Der erste Satz von Fahrspuren 303 und der zweite Satz von Fahrspuren 304 können irgendeine geeignete Art und/oder Anzahl von Fahrspuren beinhalten. Beispielsweise zeigen die 3A und 3B ein Beispiel, in dem der erste Satz von Fahrspuren 303 – zumindest in Bezug auf den Abschnitt der ersten Straße 305 unterhalb der Kreuzung 325 – zwei Fahrspuren 306, 307 beinhalten kann. Der zweite Satz von Fahrspuren 304 kann eine einzige Fahrspur 308 beinhalten.
  • Die zweite Straße 310 kann einen dritten Satz einer oder mehrerer Fahrspuren 318 und einen vierten Satz einer oder mehrerer Fahrspuren 319 beinhalten. Der dritte Satz von Fahrspuren 318 kann für Fahrzeugverkehr in einer dritten Richtung 313 vorgesehen oder bestimmt sein. Der vierte Satz von Fahrspuren 319 kann für Fahrzeugverkehr in einer vierten Richtung 314 vorgesehen oder bestimmt sein. Die dritte Richtung 313 kann von der vierten Richtung 314 verschieden sein. Beispielsweise kann die dritte Richtung 313 im Wesentlichen entgegengesetzt zur vierten Richtung 314 sein.
  • Der dritte Satz von Fahrspuren 318 und der vierte Satz von Fahrspuren 319 können irgendeine geeignete Art und/oder Anzahl von Fahrspuren beinhalten. Beispielsweise zeigen die 3A und 3B ein Beispiel, in dem der dritte Satz von Fahrspuren 318 eine Fahrspur 311 beinhalten kann und der vierte Satz von Fahrspuren 319 eine Fahrspur 312 beinhalten kann.
  • Es versteht sich, dass Anordnungen, die hierin in Bezug auf die erste Straße 305, die zweite Straße 310 und/oder die Kreuzung 325 gezeigt und beschrieben sind, lediglich als Beispiele vorgesehen sind, und dass die Anordnungen nicht auf die gezeigten und beschriebenen speziellen Anordnungen beschränkt sind. In der Tat können hierin beschriebene Anordnungen im Zusammenhang mit Straßen verwendet werden, die irgendeine Anzahl, Art und/oder Anordnung von Fahrspuren aufweisen.
  • Das Fahrzeug 100 kann auf der ersten Straße 305 fahren. Der gegenwärtige Fahrweg des Fahrzeugs 100 kann ein Vorwärtsfahren auf der ersten Straße 305 und Durchqueren der Kreuzung 325 beinhalten. Das Fahrzeug 100 kann sich der Kreuzung 325 nähern, während es in der ersten Richtung 316 fährt. Während es sich der Kreuzung 325 nähert, kann die gegenwärtige Fahrspur des Fahrzeugs 100 die Fahrspur 306 sein. Mit „gegenwärtige Fahrspur” ist eine Fahrspur gemeint, auf der zum gegenwärtigen Zeitpunkt ein Fahrzeug fährt. Ein anderes Fahrzeug (z. B. Lastkraftwagen 330) kann sich in der Fahrspur 307 befinden. Das Fahrzeug 100 und der Lastkraftwagen 330 können an der Kreuzung 325 angehalten werden. Dem Fahrzeug 100 und dem Lastkraftwagen 330 kann etwa durch eine Verkehrssteuerungsvorrichtung bedeutet werden, vor dem Weiterfahren in die Kreuzung 325 anzuhalten.
  • Ein oder mehrere informationsrelevante Bereiche entlang mindestens eines Abschnitts der Fahrtroute können durch das Fahrzeug 100 (z. B. das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Navigationssystem 180 und/oder den Prozessor 110) identifiziert werden. Der informationsrelevante Bereich kann mit einem geplanten künftigen Fahrmanöver des Fahrzeugs 100 zusammenhängen. In diesem Beispiel kann das geplante künftige Fahrmanöver ein Vorwärtsfahren durch die Kreuzung 325 in der ersten Richtung 316 auf der ersten Straße 305 sein. Infolgedessen kann ein informationsrelevanter Bereich einen Bereich 350 der Fahrspur 312 beinhalten, der sich (in den 3A und 3B) links der Kreuzung 325 befindet, da Fahrzeuge, die sich in diesem Bereich 350 bewegen, für das Fahrzeug 100 von Interesse wären, während es auf der ersten Straße 306 über die Kreuzung 325 fährt.
  • Das Fahrzeug 100 kann einen Insassensichtbereich 360 der externen Umgebung 300 bestimmen. Jedoch kann der Insassensichtbereich 360 aufgrund des Vorhandenseins eines oder mehrerer Hindernisobjekte (z. B. des Lastkraftwagens 330) beeinträchtigt sein. In einem solchen Fall kann es sein, dass der Insassensichtbereich 360 nicht so groß ist, wie er andernfalls in Abwesenheit des Lastkraftwagens 330 wäre.
  • Das Fahrzeug 100 kann einen Sensorerfassungsbereich 370 bestimmen. Der Sensorerfassungsbereich 370 kann aufgrund des Vorhandenseins eines oder mehrerer Hindernisobjekte (z. B. des Lastkraftwagens 330) beeinträchtigt sein. In einem solchen Fall kann es sein, dass der Sensorerfassungsbereich 370 nicht so groß ist, wie er andernfalls in Abwesenheit des Lastkraftwagens 330 wäre.
  • Das Fahrzeug 100 (das Sichtanalysemodul 121, das Bestimmungsmodul 122 eines informationsrelevanten Bereichs und/oder der Prozessor 110) kann bestimmen, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs 350 außerhalb des bestimmten Insassensichtbereichs 360 und des Sensorerfassungsbereichs 370 befindet. Wie in dem Beispiel der 3A gezeigt, befindet sich der informationsrelevante Bereich 350 aufgrund des Vorhandenseins des Lastkraftwagens 330 außerhalb des bestimmten Insassensichtbereichs 360 und des Sensorerfassungsbereichs 370. Somit kann weder das Sensorsystem 125 noch der/die Fahrzeuginsasse(n) (z. B. der Fahrer) den informationsrelevanten Bereich 350 erfassen. Infolgedessen bestünde bei der Durchführung des geplanten künftigen Fahrmanövers (z. B. Weiterfahren auf der ersten Straße 305 in der ersten Richtung 316) ein erhöhtes Risiko, da über den informationsrelevanten Bereich 350 unzureichende Informationen verfügbar sind. In diesem Beispiel kann in dem informationsrelevanten Bereich 350 ein anderes Fahrzeug 380 vorhanden sein.
  • Als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs 360 und des bestimmten Sensorerfassungsbereichs 370 befindet, kann bestimmt werden, ob sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. Das Fahrzeug 100 kann den Lastkraftwagen 330 überwachen, um seine Bewegung festzustellen. In einer oder mehreren Anordnungen kann das Fahrzeug 100 solange anhalten, bis es bestimmt hat, ob sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. Die Bewegung des Lastkraftwagens 330 kann durch das Sensorsystem 125, das Kamerasystem 127 und/oder den Prozessor 110 erfasst werden. Die Bestimmung, ob sich der Lastkraftwagen 330 günstig oder ungünstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt, kann durch irgendein geeignetes Element oder eine Kombination von Elementen des Fahrzeugs 100 durchgeführt werden. Beispielsweise kann die Bestimmung in einer oder mehreren Anordnungen durch den Prozessor 110, das Sensorsystem 125, das Kamerasystem 127 (z. B. eine oder mehrere Insassensichtkameras), das autonome Fahrmodul 120 und/oder das Objektbewegungsklassifikationsmodul 124 durchgeführt werden.
  • In diesem Beispiel kann sich der Lastkraftwagen 330 entlang der ersten Straße 305 in der ersten Richtung 316 vorwärts bewegen, wie in 3B gezeigt. Somit bewegt sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 (Durchfahren der Kreuzung 325 in der ersten Richtung 316 auf der ersten Straße 305), da sich der Lastkraftwagen 330 in einer Richtung und/oder auf eine Weise bewegt, so dass er sich zwischen dem informationsrelevanten Bereich 350 und dem Fahrzeug 100 befinden wird, während das Fahrzeug 100 die Kreuzung 325 in der ersten Richtung 316 auf der ersten Straße 305 durchfährt. Eine solche Anordnung ist in 3B gezeigt.
  • Als Reaktion auf die Bestimmung, dass sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt, kann das Fahrzeug 100 veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem Lastkraftwagen 330 bewegt. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 das Fahrzeug 100 veranlassen, das geplante künftige Fahrmanöver umzusetzen. Der Prozessor 110 und/oder das Fahrmodul 120 können mit einem oder mehreren der Fahrzeugsysteme 145 betriebsmäßig verbunden sein, um das geplante künftige Fahrmanöver umzusetzen. In einer oder mehreren Anordnungen können der Prozessor 110 und/oder das Fahrmodul 120 betreibbar sein, um das eine oder die mehreren Stellglieder 140 zu steuern, welche eines oder mehrere der Fahrzeugsysteme 145 oder Teile davon steuern können, um das geplante künftige Fahrmanöver umzusetzen.
  • Wie vorstehend erwähnt, bewegt sich das Fahrzeug 100 relativ zu dem Lastkraftwagen 330. Irgendeine geeignete Relativbewegung kann umgesetzt werden. Beispielsweise kann sich das Fahrzeug 100 in einer oder mehreren Anordnungen mit im Wesentlichen der gleichen Geschwindigkeit bewegen wie der Lastkraftwagen 330. In einer oder mehreren Anordnungen kann sich das Fahrzeug 100 Seite an Seite mit dem Lastkraftwagen 330 bewegen, während es einen vorbestimmten seitlichen Mindestabstand 385 aufrechterhält. In einer oder mehreren Anordnungen kann sich das Fahrzeug 100 vorwärts bewegen, ohne sich vor den Lastkraftwagen 330 zu bewegen. In einer oder mehreren Anordnungen kann ein vorbestimmter vorderer Abstand 386 zwischen dem Fahrzeug 100 und dem Lastkraftwagen 330 aufrechterhalten werden.
  • Angesichts des Vorstehenden versteht sich, dass der Lastkraftwagen 330 das Fahrzeug 100 gegenüber potentiellen Objekten (z. B. dem Fahrzeug 380) abschirmen kann, welche sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs 350 befinden, der sich aufgrund des Lastkraftwagens 330 außerhalb des bestimmten Insassensichtbereichs 360 und des bestimmten Sensorerfassungsbereichs 370 befindet. Durch ein derartiges Vorgehen lässt sich das Risiko, von einem Objekt (z. B. dem Fahrzeug 380) in dem informationsrelevanten Bereich 350 gerammt zu werden, verringern, da es wahrscheinlicher ist, dass ein solches Objekt zuerst den Lastkraftwagen 330 rammen würde.
  • Das Fahrzeug 100 kann sich bis zu irgendeinem geeigneten Punkt relativ zu dem Fahrzeug weiterbewegen. Beispielsweise kann sich das Fahrzeug 100 zumindest so lange relativ zu dem Lastkraftwagen 330 weiterbewegen, bis das Fahrzeug 100 den informationsrelevanten Bereich 350 passiert. Alternativ oder zusätzlich kann sich das Fahrzeug 100 zumindest so lange relativ zu dem Lastkraftwagen 330 weiterbewegen, bis das Fahrzeug 100 das geplante künftige Fahrmanöver beendet.
  • Ein weiteres nicht einschränkendes Beispiel für den Betrieb des Fahrzeugs 100 in Übereinstimmung mit dem Verfahren 200 wird nun in Bezug auf die 4A und 4B beschrieben. Für die Zwecke dieses Beispiels kann das Fahrzeug 100 in einer Umgebung 400 fahren. Der Einfachheit halber kann die Umgebung 400 zumindest im Hinblick auf die erste und zweite Straße 305, 310 im Wesentlichen identisch mit der Umgebung 300 sein. Dementsprechend gilt die vorstehende Beschreibung der Umgebung 300 gleichermaßen für die Umgebung 400 und ist hierin mit einbezogen.
  • Das Fahrzeug 100 und der Lastkraftwagen 330 können an der Kreuzung 325 angehalten werden. Für die Zwecke des in 4A gezeigten Beispiels kann das geplante künftige Fahrmanöver ein Rechtsabbiegen in die zweite Straße 310 sein. Während die folgende Erörterung der 4A und 4B eine Rechtskurve 499 betrifft, versteht sich, dass die Anordnungen nicht auf Rechtskurven beschränkt sind. In der Tat können hierin beschriebene Anordnungen in Verbindung mit Linkskurven oder sogar Kreisverkehren verwendet werden.
  • Ein oder mehrere informationsrelevante Bereiche entlang mindestens eines Abschnitts der Fahrtroute können durch das Fahrzeug 100 (z. B. das Bestimmungsmodul 122 eines informationsrelevanten Bereichs, das Navigationssystem 180 und/oder den Prozessor 110) identifiziert werden. Da das geplante künftige Fahrmanöver des Fahrzeugs 100 ein Rechtsabbiegen in die zweite Straße 310 ist, kann ein informationsrelevanter Bereich einen Bereich 350 der Fahrspur 312 beinhalten, der sich (in den 4A und 4B) links der Kreuzung 325 befindet, da Fahrzeuge, die sich in diesem Bereich 350 bewegen, für das Fahrzeug 100 von Interesse wären, während es nach rechts in die zweite Straße 310 abbiegt.
  • Das Fahrzeug 100 kann einen Insassensichtbereich 360 und den Sensorerfassungsbereich 370 bestimmen, die beide aufgrund des Vorhandenseins des Lastkraftwagens 330 beeinträchtigt sind. Das Fahrzeug 100 kann bestimmen, ob sich mindestens ein Abschnitt des informationsrelevanten Bereichs 350 außerhalb des bestimmten Insassensichtbereichs 360 und des Sensorerfassungsbereichs 370 befindet, wie in 4A gezeigt. Somit kann weder das Sensorsystem 125 noch der/die Fahrzeuginsasse(n) (z. B. der Fahrer) den informationsrelevanten Bereich 350 erfassen. Infolgedessen bestünde bei der Durchführung des geplanten künftigen Fahrmanövers (z. B. Weiterfahren auf der ersten Straße 305 in der ersten Richtung 316) ein erhöhtes Risiko, da über den informationsrelevanten Bereich 350 unzureichende Informationen verfügbar sind. In diesem Beispiel kann in dem informationsrelevanten Bereich 350 ein anderes Fahrzeug 380 vorhanden sein.
  • Als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs außerhalb des bestimmten Insassensichtbereichs 360 und des bestimmten Sensorerfassungsbereichs 370 befindet, kann bestimmt werden, ob sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt. In diesem Beispiel kann sich der Lastkraftwagen 330 entlang der ersten Straße 305 in der ersten Richtung 316 voranbewegen, wie in 4B gezeigt. Somit bewegt sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 (Rechtsabbiegen in die zweite Straße 310), da sich der Lastkraftwagen 330 in einer Richtung und/oder auf eine Weise bewegt, so dass er sich zwischen dem informationsrelevanten Bereich 350 und dem Fahrzeug 100 befinden wird, während das Fahrzeug 100 die Kreuzung 325 in der ersten Richtung 316 auf der ersten Straße 305 durchfährt. Eine solche Anordnung ist in 4B gezeigt.
  • Als Reaktion auf die Bestimmung, dass sich der Lastkraftwagen 330 günstig bezüglich des geplanten künftigen Fahrmanövers des Fahrzeugs 100 bewegt, kann das Fahrzeug 100 veranlasst werden, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem Lastkraftwagen 330 bewegt. Irgendeine geeignete Relativbewegung kann umgesetzt werden. Beispielsweise kann sich das Fahrzeug 100 in einer oder mehreren Anordnungen mit einer oder mehreren Geschwindigkeiten bewegen, um die Rechtskurve 499 zu absolvieren, während der Lastkraftwagen 330 zwischen dem Fahrzeug 100 und dem informationsrelevanten Bereich 350 gehalten wird.
  • Angesichts des Vorstehenden versteht sich, dass der Lastkraftwagen 330 das Fahrzeug 100 gegenüber potentiellen Objekten (z. B. dem Fahrzeug 380) abschirmen kann, die in dem mindestens einen Abschnitt des informationsrelevanten Bereichs 350 angeordnet sind, welcher sich aufgrund des Lastkraftwagens 330 außerhalb des bestimmten Insassensichtbereichs 360 und des bestimmten Sensorerfassungsbereichs 370 befindet. Durch ein derartiges Vorgehen lässt sich das Risiko, in dem informationsrelevanten Bereich 350 von einem Objekt (z. B. dem Fahrzeug 380) gerammt zu werden, verringern, da es wahrscheinlicher ist, dass ein solches Objekt zuerst den Lastkraftwagen 330 rammen würde.
  • Es versteht sich, dass hierin beschriebene Anordnungen zahlreiche Vorteile bereitstellen können, einschließlich eines oder mehrerer der hierin erwähnten Vorteile. Beispielsweise können hierin beschriebene Anordnungen die Leistungsfähigkeit eines autonomen Fahrzeugs verbessern, wenn es in Umgebungen mit blockierter Sicht betrieben wird. Hierin beschriebene Anordnungen können bei Fahrzeuginsassen einen Grad an Sicherheit und Vertrauen schaffen, indem zum Umsetzen eines geplanten künftigen Fahrmanövers eine physische Barriere oder ein bewegliches Schild in der Umgebung verwendet wird. Ferner können hierin beschriebene Anordnungen den sicheren Betrieb des Fahrzeugs potentiell verbessern.
  • Die Flussdiagramme und Blockdiagramme in den Figuren veranschaulichen die Architektur, Funktionalität und den Betrieb möglicher Implementierungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen. In dieser Hinsicht kann jeder Block in den Flussdiagrammen oder Blockdiagrammen ein Modul, Segment oder einen Abschnitt eines Codes darstellen, welcher eine oder mehrere ausführbare Anweisungen zum Implementieren der angegebenen logischen Funktion(en) umfasst. Es sei auch darauf hingewiesen, dass die in dem Block angegebenen Funktionen in einigen alternativen Implementierungen in einer anderen als in der in den Figuren angegebenen Reihenfolge ablaufen können. Beispielsweise können zwei nacheinander gezeigte Blöcke in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können mitunter, je nach der damit verbundenen Funktionalität, in der umgekehrten Reihenfolge ausgeführt werden.
  • Die vorstehend beschriebenen Systeme, Komponenten und/oder Prozesse können in Hardware oder einer Kombination aus Hardware und Software realisiert sein oder können auf zentralisierte Weise in einem Verarbeitungssystem oder auf eine verteilte Weise realisiert sein, wobei unterschiedliche Elemente über mehrere miteinander verbundene Verarbeitungssysteme verteilt sind. Irgendeine Art von Verarbeitungssystem oder ein anderes Gerät, das zum Durchführen der hierin beschriebenen Verfahren ausgelegt ist, ist geeignet. Eine typische Kombination aus Hardware und Software kann ein Verarbeitungssystem mit einem computerverwendbaren Programmcode sein, der dann, wenn er geladen und ausgeführt wird, das Verarbeitungssystem derart steuert, dass es die hierin beschriebenen Verfahren durchführt. Die Systeme, Komponenten und/oder Prozesse können auch in einen computerlesbaren Speicher eingebettet sein, wie etwa ein Computerprogrammprodukt oder eine andere maschinenlesbare Datenprogrammspeichervorrichtung, die ein Programm von Anweisungen dinglich verkörpert, welche durch die Maschine ausführbar sind, um hierin beschriebene Verfahren und Prozesse durchzuführen. Diese Elemente können auch in ein Anwendungsprodukt eingebettet sein, das alle Merkmale umfasst, die die Umsetzung der hierin beschriebenen Verfahren ermöglichen, und das diese Verfahren durchführen kann, wenn es in ein Verarbeitungssystem geladen wird.
  • Ferner können hierin beschriebene Anordnungen in Form eines Computerprogrammproduktes vorliegen, das in einem oder mehreren computerlesbaren Medien mit einem darauf enthaltenen, z. B. gespeicherten, computerlesbaren Programmcode enthalten ist. Irgendeine Kombination aus einem oder mehreren computerlesbaren Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Die Formulierung „computerlesbares Speichermedium” bedeutet ein nicht transitorisches Speichermedium. Ein computerlesbares Speichermedium kann beispielsweise ein elektronisches, magnetisches, optisches, elektromagnetisches, Infrarot- oder Halbleitersystem, -gerät oder -vorrichtung sein oder irgendeine geeignete Kombination der Vorstehenden, ist jedoch nicht hierauf beschränkt. Konkretere Beispiele (eine nicht erschöpfende Aufstellung) des computerlesbaren Speichermediums würden die Folgenden umfassen: einen elektrischen Anschluss mit einem oder mehreren Drähten, eine tragbare Computerdiskette, ein Festplattenlaufwerk (HDD), ein Halbleiterlaufwerk (SSD), einen Direktzugriffsspeicher (RAM), einen Nur-Lese-Speicher (ROM), einen löschbaren, programmierbaren Nur-Lese-Speicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren Compactdisc-Nur-Lese-Speicher (CD-ROM), eine Digital-Versatile-Disc (DVD), eine optische Speichervorrichtung, eine magnetische Speichervorrichtung oder irgendeine geeignete Kombination der Vorstehenden. Im Zusammenhang mit diesem Dokument kann ein computerlesbares Speichermedium irgendein dingliches Medium sein, das ein Programm zur Verwendung durch oder in Verbindung mit einem Anweisungsausführungssystem, -gerät oder -vorrichtung enthalten oder speichern kann.
  • Ein auf einem computerlesbaren Medium enthaltener Programmcode kann unter Verwendung irgendeines geeigneten Mediums, einschließlich, aber nicht beschränkt auf drahtlos, drahtgebunden, optische Faser, Kabel, RF, etc. oder irgendeine geeignete Kombination der Vorstehenden, übertragen werden. Ein Computerprogrammcode zum Durchführen von Operationen für Aspekte der vorliegenden Anordnungen kann in irgendeiner Kombination aus einer oder mehreren Programmiersprachen, einschließlich einer objektorientierten Programmiersprache, wie etwa JavaTM, Smalltalk, C++ oder dergleichen, und herkömmlichen prozeduralen Programmiersprachen, wie etwa der „C”-Programmiersprache oder ähnlichen Programmiersprachen, verfasst sein. Der Programmcode kann gänzlich auf dem Computer des Nutzers, teilweise auf dem Computer des Nutzers, als ein eigenständiges Softwarepaket, teilweise auf dem Computer des Nutzers und teilweise auf einem entfernten Computer oder gänzlich auf dem entfernten Computer oder Server ablaufen. Im letzteren Szenario kann der entfernte Computer durch irgendeine Art von Netzwerk, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzes (WAN), mit dem Computer des Nutzers verbunden sein, oder die Verbindung kann mit einem externen Computer (zum Beispiel durch das Internet unter Verwendung eines Internetdienstanbieters) hergestellt werden.
  • Die Begriffe „ein” bzw. „eine”, wie hierin verwendet, sind als eins oder mehr als eins definiert. Der Begriff „Mehrzahl”, wie hierin verwendet, ist als zwei oder mehr als zwei definiert. Der Begriff „ein(e) weitere(r)”, wie hierin verwendet, ist als mindestens ein zweites oder mehr definiert. Die Begriffe „einschließlich” und/oder „mit”, wie vorliegend verwendet, sind definiert als umfassend (d. h. offene Sprache). Die Formulierung „mindestens eine(r) aus ... und ...”, wie hierin verwendet, betrifft und umfasst irgendeine und alle möglichen Kombinationen eines oder mehrerer der zugehörigen aufgeführten Gegenstände. Als ein Beispiel beinhaltet die Formulierung „mindestens eines aus A, B und C” nur A, nur B, nur C oder irgendeine Kombination davon (z. B. AB, AC, BC oder ABC).
  • Aspekte hierin können in anderen Formen ausgeführt sein, ohne vom Geist oder wesentlichen Attributen davon abzuweichen. Dementsprechend sollte als Angabe des Schutzumfangs der Erfindung auf die folgenden Ansprüche Bezug genommen werden und nicht auf die vorstehende Spezifikation.

Claims (9)

  1. Verfahren zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung, umfassend: Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs; Abtasten mindestens eines Abschnitts der externen Umgebung des autonomen Fahrzeugs, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen; als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb eines bestimmten Insassensichtbereichs und eines bestimmten Sensorerfassungsbereichs befindet, Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt; und als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich des geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt, Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, welche sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, der sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  2. System zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung, wobei das System umfasst: ein Sensorsystem, wobei das Sensorsystem ausgebildet ist, um: mindestens einen Abschnitt der externen Umgebung des autonomen Fahrzeugs abzutasten, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen; und einen Prozessor, der mit dem Sensorsystem betriebsmäßig verbunden ist, wobei der Prozessor programmiert ist, um ausführbare Operationen einzuleiten, welche umfassen: Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen eines Sensorerfassungsbereichs der externen Umgebung; als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet, Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt; und als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt, Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, welche sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, der sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  3. Computerprogrammprodukt zum Betreiben eines autonomen Fahrzeugs in Umgebungen mit Insassensicht- und Fahrzeugsensorblockierung, wobei das Computerprogrammprodukt ein computerlesbares Speichermedium mit einem darin enthaltenen Programmcode umfasst, wobei der Programmcode durch einen Prozessor ausführbar ist, um ein Verfahren durchzuführen, welches umfasst: Identifizieren eines informationsrelevanten Bereichs in einer externen Umgebung im Hinblick auf ein geplantes künftiges Fahrmanöver des autonomen Fahrzeugs; Abtasten mindestens eines Abschnitts der externen Umgebung des autonomen Fahrzeugs, um das Vorhandensein eines darin befindlichen Hindernisobjekts zu erfassen; Bestimmen eines Insassensichtbereichs der externen Umgebung; Bestimmen eines Sensorerfassungsbereichs der externen Umgebung; als Reaktion auf die Bestimmung, dass sich mindestens ein Abschnitt des informationsrelevanten Bereichs aufgrund des Vorhandenseins des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet, Bestimmen, ob sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt; und als Reaktion auf die Bestimmung, dass sich das erfasste Hindernisobjekt günstig bezüglich eines geplanten künftigen Fahrmanövers des autonomen Fahrzeugs bewegt, Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt so bewegt, dass es durch das erfasste Hindernisobjekt gegenüber potentiellen Objekten abgeschirmt wird, welche sich in dem mindestens einen Abschnitt des informationsrelevanten Bereichs befinden, der sich aufgrund des erfassten Hindernisobjekts außerhalb des bestimmten Insassensichtbereichs und des bestimmten Sensorerfassungsbereichs befindet.
  4. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, wobei das Veranlassen des autonomen Fahrzeugs, sich relativ zu dem erfassten Hindernisobjekt zu bewegen, das Veranlassen des autonomen Fahrzeugs beinhaltet, sich mit der im Wesentlichen gleichen Geschwindigkeit wie das erfasste Hindernisobjekt vorwärts zu bewegen.
  5. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, wobei das Veranlassen des autonomen Fahrzeugs, sich relativ zu dem erfassten Hindernisobjekt zu bewegen, das Veranlassen des autonomen Fahrzeugs beinhaltet, sich Seite an Seite mit dem erfassten Hindernisobjekt zu bewegen, ohne sich vor das erfasste Hindernisobjekt zu bewegen.
  6. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, wobei das Veranlassen des autonomen Fahrzeugs, sich relativ zu dem erfassten Hindernisobjekt zu bewegen, durchgeführt wird, bis: das autonome Fahrzeug den informationsrelevanten Bereich passiert; und/oder das autonome Fahrzeug das geplante künftige Fahrmanöver beendet.
  7. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, ferner beinhaltend: Bestimmen, ob das erfasste Hindernisobjekt ein großes Objekt ist; und wobei das Veranlassen des autonomen Fahrzeugs, das geplante künftige Fahrmanöver umzusetzen, während es sich relativ zu dem erfassten Hindernisobjekt bewegt, ferner eine Reaktion auf die Bestimmung ist, dass das erfasste Hindernisobjekt ein großes Objekt ist.
  8. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, wobei das geplante künftige Fahrmanöver eine Fahrt in die im Wesentlichen gleiche Richtung wie das erfasste Hindernisobjekt beinhaltet.
  9. Verfahren nach Anspruch 1 oder System nach Anspruch 2 oder Computerprogrammprodukt nach Anspruch 3, wobei das geplante künftige Fahrmanöver ein Rechtsabbiegen oder ein Linksabbiegen beinhaltet.
DE102016100737.4A 2015-01-29 2016-01-18 Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung Pending DE102016100737A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/609,286 2015-01-29
US14/609,286 US9493157B2 (en) 2015-01-29 2015-01-29 Autonomous vehicle operation in obstructed occupant view and sensor detection environments

Publications (1)

Publication Number Publication Date
DE102016100737A1 true DE102016100737A1 (de) 2016-08-04

Family

ID=56410122

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016100737.4A Pending DE102016100737A1 (de) 2015-01-29 2016-01-18 Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung

Country Status (4)

Country Link
US (1) US9493157B2 (de)
JP (2) JP6696781B2 (de)
CN (1) CN105835878B (de)
DE (1) DE102016100737A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213514A1 (de) 2020-10-28 2022-04-28 Volkswagen Aktiengesellschaft Situationsabhängige Festlegung von Beobachtungsbereichen für zumindest teilautonom betriebene Kraftfahrzeuge

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9649979B2 (en) * 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
KR101709521B1 (ko) * 2015-07-30 2017-03-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
US10183667B2 (en) * 2015-09-15 2019-01-22 Deere & Company Human presence detection on a mobile machine
DE102016216465A1 (de) * 2016-08-31 2018-03-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und hindernisassistenzvorrichtung zur automatischen aktivierung einer hinderniserkennungsvorrichtung eines kraftfahrzeugs
US10466714B2 (en) * 2016-09-01 2019-11-05 Ford Global Technologies, Llc Depth map estimation with stereo images
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US10266182B2 (en) * 2017-01-10 2019-04-23 Ford Global Technologies, Llc Autonomous-vehicle-control system and method incorporating occupant preferences
US11009875B2 (en) 2017-03-09 2021-05-18 Waymo Llc Preparing autonomous vehicles for turns
WO2018183870A1 (en) * 2017-03-30 2018-10-04 Xevo Inc. Method and system for providing predictions via artificial intelligence (ai) models using a distributed system
US10124804B2 (en) * 2017-04-12 2018-11-13 GM Global Technology Operations LLC Method and apparatus for traffic control device detection optimization
US11214143B2 (en) 2017-05-02 2022-01-04 Motional Ad Llc Visually obstructed object detection for automated vehicle using V2V/V2I communications
CN107301773A (zh) * 2017-06-16 2017-10-27 上海肇观电子科技有限公司 一种向目标对象提示信息的方法及装置
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
US10870437B2 (en) 2017-08-10 2020-12-22 Amazon Technologies, Inc. Determination of strategy modes for autonomous vehicle operations
US10872476B2 (en) 2017-08-10 2020-12-22 Amazon Technologies, Inc. Broadcast strategy modes for autonomous vehicle operations
US11092961B2 (en) 2017-08-10 2021-08-17 Amazon Technologies, Inc. Strategy modes for autonomous vehicle operations
US11079771B2 (en) 2017-08-10 2021-08-03 Amazon Technologies, Inc. Coordinated optimization of autonomous vehicle operations
EP3665056A1 (de) * 2017-08-10 2020-06-17 Amazon Technologies Inc. Strategiemodi für den betrieb autonomer fahrzeuge
US10739774B2 (en) * 2017-10-06 2020-08-11 Honda Motor Co., Ltd. Keyframe based autonomous vehicle operation
US10635109B2 (en) * 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10331135B2 (en) * 2017-11-22 2019-06-25 GM Global Technology Operations LLC Systems and methods for maneuvering around obstacles in autonomous vehicles
JP6965426B2 (ja) * 2017-11-23 2021-11-10 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 到着時間を推定するためのシステムおよび方法
JP6804792B2 (ja) * 2017-11-23 2020-12-23 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 到着時間を推定するためのシステムおよび方法
US10495733B2 (en) * 2018-02-26 2019-12-03 GM Global Technology Operations LLC Extendable sensor mount
US11378956B2 (en) * 2018-04-03 2022-07-05 Baidu Usa Llc Perception and planning collaboration framework for autonomous driving
CN108764115B (zh) * 2018-05-24 2021-12-14 东北大学 一种卡车危险提醒方法
EP3599141B1 (de) * 2018-07-25 2022-12-14 Continental Autonomous Mobility Germany GmbH Multihypothesenvorhersagevorrichtung für ein fahrzeug
US20220041184A1 (en) * 2018-10-18 2022-02-10 Caratica Ai Ltd. Method and system for obstacle detection
US10824148B2 (en) * 2018-12-14 2020-11-03 Waymo Llc Operating an autonomous vehicle according to road user reaction modeling with occlusions
US11167751B2 (en) * 2019-01-18 2021-11-09 Baidu Usa Llc Fail-operational architecture with functional safety monitors for automated driving system
US11760377B2 (en) * 2019-02-26 2023-09-19 Harman International Industries, Incorporated Shape-shifting control surface for an autonomous vehicle
JP2020158047A (ja) * 2019-03-28 2020-10-01 本田技研工業株式会社 車両制御システム
US11433883B2 (en) 2019-03-31 2022-09-06 Gm Cruise Holdings Llc Autonomous vehicle maneuvering based upon risk associated with occluded regions
JP2021012467A (ja) * 2019-07-04 2021-02-04 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN110784685B (zh) * 2019-10-23 2021-06-29 上海能塔智能科技有限公司 车辆清洁状况的监控方法及装置、存储介质、终端
US11544936B2 (en) 2019-12-20 2023-01-03 Zoox, Inc. In-path obstacle detection and avoidance system
US20210229641A1 (en) * 2020-01-29 2021-07-29 GM Global Technology Operations LLC Determination of vehicle collision potential based on intersection scene
US11325594B2 (en) * 2020-02-10 2022-05-10 GM Global Technology Operations LLC Sensor fusion based on intersection scene to determine vehicle collision potential
US11574543B2 (en) 2020-03-23 2023-02-07 Toyota Motor North America, Inc. Transport dangerous location warning
US11718288B2 (en) 2020-03-23 2023-08-08 Toyota Motor North America, Inc. Consensus-based transport event severity
US20210291866A1 (en) 2020-03-23 2021-09-23 Toyota Motor North America, Inc. Transport item management
US11613381B2 (en) * 2020-08-14 2023-03-28 Tusimple, Inc. Launchpad for autonomous vehicles
CN112650243B (zh) * 2020-12-22 2023-10-10 北京百度网讯科技有限公司 车辆控制方法、装置、电子设备和自动驾驶车辆
WO2022266858A1 (zh) * 2021-06-22 2022-12-29 华为技术有限公司 一种盲区检测方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344539A (ja) 2002-05-22 2003-12-03 Toshiba Tec Corp 自律走行車
JP2006298310A (ja) * 2005-04-25 2006-11-02 Nissan Motor Co Ltd 車両用走行制御装置
JP5024255B2 (ja) 2008-09-25 2012-09-12 トヨタ自動車株式会社 運転支援装置
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP2011194979A (ja) * 2010-03-18 2011-10-06 Toyota Motor Corp 運転支援装置
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
JP2012192878A (ja) * 2011-03-17 2012-10-11 Toyota Motor Corp 危険度判定装置
US8589014B2 (en) 2011-06-01 2013-11-19 Google Inc. Sensor field selection
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
US9020660B2 (en) * 2012-05-10 2015-04-28 GM Global Technology Operations LLC Efficient intersection autonomous driving protocol
US8793046B2 (en) * 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US9180882B1 (en) * 2012-06-20 2015-11-10 Google Inc. Avoiding blind spots of other vehicles
DE102012024930A1 (de) * 2012-12-20 2014-06-26 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrzeug mit Entfernungsüberwachungseinrichtung
US9367065B2 (en) 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
KR101811470B1 (ko) * 2013-05-03 2017-12-22 주식회사 만도 차량 간 교차로 충돌 방지방법
US9080866B1 (en) * 2013-06-26 2015-07-14 Google Inc. Methods and systems for detection of reflective markers at long range
MX345733B (es) * 2013-07-19 2017-02-14 Nissan Motor Dispositivo de asistencia a la conduccion para vehiculo y metodo de asistencia a la conduccion para vehiculo.
EP2921363A1 (de) * 2014-03-18 2015-09-23 Volvo Car Corporation Fahrzeug, Fahrzeugsystem dafür und Verfahren zur Erhöhung der Sicherheit und/oder des Komforts während des autonomen Fahrbetriebs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020213514A1 (de) 2020-10-28 2022-04-28 Volkswagen Aktiengesellschaft Situationsabhängige Festlegung von Beobachtungsbereichen für zumindest teilautonom betriebene Kraftfahrzeuge
WO2022089913A1 (de) 2020-10-28 2022-05-05 Volkswagen Aktiengesellschaft Verfahren und steuergerät zur situationsabhängigen festlegung von beobachtungsbereichen für zumindest teilautonom betriebene kraftfahrzeuge

Also Published As

Publication number Publication date
CN105835878A (zh) 2016-08-10
JP6963042B2 (ja) 2021-11-05
CN105835878B (zh) 2020-12-11
JP2020097410A (ja) 2020-06-25
US20160221573A1 (en) 2016-08-04
US9493157B2 (en) 2016-11-15
JP2016164063A (ja) 2016-09-08
JP6696781B2 (ja) 2020-05-20

Similar Documents

Publication Publication Date Title
DE102016100737A1 (de) Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Insassensicht und Sensorerfassung
DE102016100729A1 (de) Betrieb eines autonomen Fahrzeugs in Umgebungen mit blockierter Sicht
DE102015120831B4 (de) Gemischte autonome und manuelle Steuerung autonomer Fahrzeuge
DE102016114535B4 (de) Wegbestimmung für automatisierte Fahrzeuge
DE112020002604T5 (de) Systeme und verfahren für die fahrzeugnavigation
DE112020004931T5 (de) Systeme und verfahren zur bestimmung der verkehrssicherheit
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE112020002666T5 (de) Systeme und verfahren für die fahrzeugnavigation
DE112020002175T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE112020006426T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102016112492A1 (de) Minimierung inkorrekter Sensordatenassoziationen für autonome Fahrzeuge
DE102018130566A1 (de) Autonomer fahrzeugbetrieb mit automatisierter unterstützung
DE102016120507A1 (de) Prädizieren von fahrzeugbewegungen anhand von fahrerkörpersprache
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102016108812A1 (de) Umstellen von Betriebsmodi eines Kraftfahrzeugs
DE112020002764T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112021000094T5 (de) Systeme und verfahren zur fahrzeugnavigation, die ampeln und verkehrszeichen einbezieht
DE102014117751A1 (de) System und Verfahren zum dynamischen Fokussieren von Fahrzeugsensoren
DE112020001106T5 (de) Ausrichten von Straßeninformationen zur Navigation
DE112020002592T5 (de) Systeme und verfahren zur fahrzeugnavigation basierend auf bildanalyse
DE102017217443A1 (de) Verfahren und System zur Bereitstellung von Trainingsdaten zum maschinellen Lernen für ein Steuerungsmodell einer automatischen Fahrzeugsteuerung
DE112020000925T5 (de) Systeme und verfahren zur fahrzeugnavigation
DE112021002680T5 (de) Systeme und verfahren zum erkennen einer offenen tür

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA INC., ERLANGER, KY., US

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R016 Response to examination communication