DE102018102425A1 - Integrierte schnittstelle für situationswahrnehmungsinformationen zum warnen, anweisen und informieren - Google Patents

Integrierte schnittstelle für situationswahrnehmungsinformationen zum warnen, anweisen und informieren Download PDF

Info

Publication number
DE102018102425A1
DE102018102425A1 DE102018102425.8A DE102018102425A DE102018102425A1 DE 102018102425 A1 DE102018102425 A1 DE 102018102425A1 DE 102018102425 A DE102018102425 A DE 102018102425A DE 102018102425 A1 DE102018102425 A1 DE 102018102425A1
Authority
DE
Germany
Prior art keywords
vehicle
data
primitive
point cloud
multiple layers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018102425.8A
Other languages
English (en)
Inventor
Asaf Degani
Ido ZELMAN
Yael Shmueli Friedland
Mario Jodorkovsky
Michal Genussov
Ariel Telpaz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018102425A1 publication Critical patent/DE102018102425A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Es sind Systeme und Verfahren zur Erzeugung einer integrierten Schnittstelle in einem Fahrzeug vorgesehen. In einer Ausführungsform beinhaltet ein Verfahren: das Empfangen von Daten, die im Zusammenhang mit einer Fahrzeugumgebung stehen; das Kodieren der Umgebungsdaten in mehrere Schichten; das Extrahieren von Daten von den mehreren Schichten in eine Punktwolke; das Projizieren der Punktwolke auf eine Metaschablone, die ein Grundelement und beeinflussbare Merkmale des Grundelements definiert; und das Erzeugen von Anzeigedaten anhand des Projizierens.

Description

  • Die vorliegende Offenbarung betrifft im Allgemeinen Fahrzeuge und insbesondere Systeme und Verfahren zur Bereitstellung von Situationswahrnehmungsinformationen an Insassen eines Fahrzeugs.
  • EINLEITUNG
  • Ein autonomes Fahrzeug ist ein Fahrzeug, das in der Lage ist, seine Umgebung zu erfassen und mit geringfügiger oder gar keiner Benutzereingabe zu navigieren. Ein autonomes Fahrzeug erfasst seine Umgebung unter Verwendung von Sensorvorrichtungen, wie beispielsweise Radar-, Lidar-, Bildsensoren und dergleichen, ab. Das autonome Fahrzeugsystem nutzt weiterhin Informationen von globalen Positioniersystemen (GPS), Navigationssystemen, Fahrzeug-Fahrzeug-Kommunikationen, Fahrzeug-Infrastruktur-Technologien und/oder drahtgesteuerten Systemen, um das Fahrzeug zu navigieren.
  • Die Fahrzeugautomatisierung wurde kategorisiert nach nummerischen Ebenen von Null, entsprechend keiner Automatisierung mit voller menschlicher Kontrolle, bis Fünf, entsprechend der vollen Automatisierung ohne menschliche Kontrolle. Verschiedene automatisierte Fahrerassistenzsysteme, wie beispielsweise Geschwindigkeitsregelung, adaptive Geschwindigkeitsregelung und Parkassistenzsysteme, entsprechen niedrigeren Automatisierungsebenen, während echte „fahrerlose“ Fahrzeuge mit höheren Automatisierungsebenen übereinstimmen. Auf jeder Ebene werden Informationen, die vom Fahrzeug erhalten werden und auf die man sich verlässt, um die autonome Steuerung durchzuführen, typischerweise nicht einem Fahrer oder Beifahrer des Fahrzeugs bereitgestellt. Solche Informationen, die als Situationswahrnehmungsinformationen bezeichnet werden, sind als Informationen definiert, die mit der Wahrnehmung von Umweltelementen in Bezug auf Zeit oder Raum, dem Verständnis ihrer Bedeutung und der Projektion ihres Status nach der Veränderung einer Variablen, wie etwa Zeit oder jeder anderen Variable, wie etwa ein vorbestimmtes Ereignis im Zusammenhang stehen.
  • Wenn einem Fahrer oder Beifahrer Situationswahrnehmungsinformationen bereitgestellt wurden, können sie sich beim Fahren im autonomen Fahrzeug wohler fühlen. Dementsprechend ist es wünschenswert, Systeme und Verfahren bereitzustellen, die den Insassen Situationswahrnehmungsinformationen auf eine Weise bereitstellen, die das menschliche viszerale Verarbeitungssystem in einem autonomen Fahrzeug oder einem anderen Fahrzeugtyp anregt. Es ist ferner wünschenswert, Systeme und Verfahren bereitzustellen, die einen Insassen über die Situation um das Fahrzeug und potentielle Gefahren alarmieren und warnen. Es ist ferner wünschenswert, Verfahren und Systeme bereitzustellen, die einen Insassen hinsichtlich der Durchführbarkeit und Wahrscheinlichkeit möglicher Kurven beraten. Es ist weiterhin ferner wünschenswert, Verfahren und Systeme bereitzustellen, die die Insassen über die Kurvenabläufe informieren. Ferner werden weitere wünschenswerte Funktionen und Merkmale der vorliegenden Erfindung aus der nachfolgenden ausführlichen Beschreibung und den beigefügten Ansprüchen in Verbindung mit den beigefügten Zeichnungen, sowie dem vorangehenden technischen Gebiet und Hintergrund ersichtlich.
  • KURZDARSTELLUNG
  • Es sind Systeme und Verfahren zur Erzeugung einer integrierten Schnittstelle in einem Fahrzeug vorgesehen. In einer Ausführungsform beinhaltet ein Verfahren: das Empfangen von Daten, die im Zusammenhang mit einer Fahrzeugumgebung stehen; das Kodieren der Umgebungsdaten in mehrere Schichten; das Extrahieren von Daten von den mehreren Schichten in eine Punktwolke; das Projizieren der Punktwolke auf eine Metaschablone, die ein Grundelement und beeinflussbare Merkmale des Grundelements definiert; und das Erzeugen von Anzeigedaten anhand des Projizierens.
  • Figurenliste
  • Die exemplarischen Ausführungsformen werden nachfolgend in Verbindung mit den folgenden Zeichnungen beschrieben, worin gleiche Bezugszeichen gleiche Elemente bezeichnen, und worin gilt:
    • 1 ist ein Funktionsblockdiagramm, das ein autonomes Fahrzeug mit einem Situationswahrnehmungsinformationssystem gemäß verschiedenen Ausführungsformen darstellt;
    • 2 und 3 zeigen Elemente einer integrierten Schnittstelle des Situationswahrnehmungsinformationssystems gemäß verschiedenen Ausführungsformen;
    • 4A-4F sind Darstellungen einer integrierten Schnittstelle des Situationswahrnehmungsinformationssystems im Zusammenhang mit Umweltszenarien gemäß verschiedenen Ausführungsformen;
    • 5A-5C zeigen Darstellungen einer integrierten Schnittstelle des Situationswahrnehmungsinformationssystems gemäß verschiedenen Ausführungsformen;
    • 6 ist ein Datenflussdiagramm, das eine Steuerung des Situationswahrnehmungssystems gemäß verschiedenen Ausführungsformen dargestellt; und
    • 7 ist ein Flussdiagramm, das ein Steuerungsverfahren zur Bereitstellung von Situationswahrnehmungsinformationen gemäß verschiedenen Ausführungsformen dargestellt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die folgende ausführliche Beschreibung dient lediglich als Beispiel und soll die Anwendung und Verwendung in keiner Weise einschränken. Weiterhin besteht keine Absicht, im vorstehenden technischen Bereich, Hintergrund, der Kurzzusammenfassung oder der folgenden ausführlichen Beschreibung an eine ausdrücklich oder implizit vorgestellte Theorie gebunden zu sein. Der hierin verwendete Begriff „Modul“ bezieht sich auf alle Hardware-, Software-, Firmwareprodukte, elektronische Steuerkomponenten, auf die Verarbeitungslogik und/oder Prozessorgeräte, einzeln oder in Kombinationen, unter anderem beinhaltend, eine anwendungsspezifische integrierte Schaltung (ASIC), eine elektronische Schaltung, einen Prozessor (gemeinsam genutzt, dediziert oder gruppiert) und einen Speicher, der ein oder mehrere Software- oder Firmwareprogramme, eine kombinatorische Logikschaltung und/oder andere geeignete Komponenten ausführt, die die beschriebene Funktionalität bieten.
  • Ausführungen der vorliegenden Offenbarung können hierin als funktionale und/oder logische Blockkomponenten und verschiedene Verarbeitungsschritte beschrieben sein. Es ist zu beachten, dass derartige Blockkomponenten aus einer beliebigen Anzahl an Hardware-, Software- und/oder Firmware-Komponenten aufgebaut sein können, die zur Ausführung der erforderlichen Funktionen konfiguriert sind. Zum Beispiel kann eine Ausführungsform der vorliegenden Offenbarung eines Systems oder einer Komponente verschiedene integrierte Schaltungskomponenten, beispielsweise Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Wertetabellen oder dergleichen, einsetzen, die mehrere Funktionen unter der Steuerung eines oder mehrerer Mikroprozessoren oder anderer Steuervorrichtungen durchführen können. Zudem werden Fachleute auf dem Gebiet erkennen, dass die exemplarischen Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer beliebigen Anzahl an Systemen eingesetzt werden können, und dass das hierin beschriebene System lediglich eine exemplarische Ausführungsform der vorliegenden Offenbarung darstellt.
  • Der Kürze halber sind konventionelle Techniken in Verbindung mit der Signalverarbeitung, Datenübertragung, Signalgebung, Steuerung und weiteren funktionalen Aspekten der Systeme (und den einzelnen Bedienelementen der Systeme) hierin ggf. nicht im Detail beschrieben. Weiterhin sollen die in den verschiedenen Figuren dargestellten Verbindungslinien exemplarische Funktionsbeziehungen und/oder physikalische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass viele alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
  • Unter Bezugnahme auf 1 ist ein bei 100 im Allgemeinen dargestelltes Situationswahrnehmungsinformationssystem mit einem Fahrzeug 10 gemäß verschiedenen Ausführungsformen assoziiert. Im Allgemeinen stellt das Situationswahrnehmungssystem 100 den Insassen eines Fahrzeugs selektiv Situationswahrnehmungsinformationen bereit. Das System stellt die Informationen selektiv derart bereit, dass der Insasse des Fahrzeugs die Informationen ohne Überlastung verarbeiten kann.
  • Wie in 1 dargestellt, ist das Fahrzeug 10 ein Automobil und beinhaltet im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorderräder 16 und Hinterräder 18. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umhüllt im Wesentlichen die anderen Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Fahrgestell 12 können gemeinsam einen Rahmen bilden. Die Räder 16-18 sind jeweils mit dem Chassis 12 in der Nähe einer jeweiligen Ecke der Karosserie 14 drehbar gekoppelt.
  • In verschiedenen Ausführungsformen ist das Fahrzeug 10 ein autonomes Fahrzeug und das Situationswahrnehmungsinformationssystem 100 ist in das autonome Fahrzeug 10 (nachfolgend als das autonomes Fahrzeug 10 bezeichnet) integriert. Das autonome Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Passagiere von einem Ort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, jedoch sollte beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge, Freizeitfahrzeuge, Schiffe, Flugzeuge, öffentliche Verkehrsmittel usw. verwendet werden können. In einer exemplarischen Ausführungsform ist das autonome Fahrzeug 10 ein sogenanntes Level-4- oder Level-5-Automatisierungssystem, obwohl die vorliegende Offenbarung für ein beliebiges Automatisierungslevel implementiert werden kann. Ein Level-Vier-System zeigt eine „hohe Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Anforderung einzugreifen, reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können.
  • Wie dargestellt, beinhaltet das autonome Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Übertragungssystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellantriebsystem 30, mindestens einen Datenspeicher 32, mindestens eine Steuerung 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten. Das Übertragungssystem 22 ist dazu konfiguriert, Leistung vom Antriebssystem 20 zu den Fahrzeugrädern 16-18 gemäß den wählbaren Übersetzungen zu übertragen. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Bremssystem 26 ist dazu konfiguriert, den Fahrzeugrädern 16-18 ein Bremsmoment bereitzustellen. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, Brake-by-Wire, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme beinhalten. Das Lenksystem 24 beeinflusst die Position der Fahrzeugräder 16-18. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Offenbarung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 24 kein Lenkrad beinhalten.
  • Das Sensorsystem 28 beinhaltet eine oder mehrere Sensorvorrichtungen 40a-40n, die beobachtbare Zustände der äußeren Umgebung und/oder der inneren Umgebung des autonomen Fahrzeugs 10 erfassen. Die Sensorvorrichtungen 40a-40n können Radargeräte, Lidare, globale Positionierungssysteme, optische Kameras, Wärmebildkameras, Ultraschallsensoren und/oder andere Sensoren beinhalten, sind aber nicht darauf beschränkt. Das Stellgliedsystem 30 beinhaltet ein oder mehrere Stellgliedvorrichtungen 42a-42n, die ein oder mehrere Fahrzeugeigenschaften, wie zum Beispiel das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26, steuern, sind aber nicht darauf beschränkt. In verschiedenen Ausführungsformen können die Fahrzeugmerkmale ferner Innen- und/oder Außenfahrzeugmerkmale, wie beispielsweise Türen, einen Kofferraum und Innenraummerkmale, wie z. B. Luft, Musik, Beleuchtung usw. (nicht nummeriert) beinhalten, sind jedoch nicht auf diese beschränkt.
  • Das Kommunikationssystem 36 ist dazu konfiguriert, Informationen drahtlos an und von anderen Einheiten 48, wie beispielsweise, jedoch nicht beschränkt auf andere Fahrzeuge („V2V“-Kommunikation,) Infrastruktur („V2I“-Kommunikation), entfernte Systeme und/oder persönliche Vorrichtungen (in Bezug auf FIG. 2 näher beschrieben), zu übermitteln. In einer exemplarischen Ausführungsform ist das drahtlose Kommunikationssystem 36 dazu konfiguriert, über ein drahtloses lokales Netzwerk (WLAN) unter Verwendung des IEEE 802.11-Standards, über Bluetooth oder mittels einer mobilen Datenkommunikation zu kommunizieren. Im Geltungsbereich der vorliegenden Offenbarung werden jedoch auch zusätzliche oder alternative Kommunikationsverfahren, wie beispielsweise ein dedizierter Nahbereichskommunikations (DSRC)-Kanal, berücksichtigt. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden.
  • Die Datenspeichervorrichtung 32 speichert Daten zur Verwendung beim automatischen Steuern des autonomen Fahrzeugs 10. In verschiedenen Ausführungsformen speichert das Datenspeichergerät 32 definierte Landkarten der navigierbaren Umgebung. In verschiedenen Ausführungsformen werden die definierten Landkarten vordefiniert und von einem entfernten System (in weiteren Einzelheiten in Bezug auf 2 beschrieben) erhalten. So können beispielsweise die definierten Landkarten durch das entfernte System zusammengesetzt und dem autonomen Fahrzeug 10 (drahtlos und/oder drahtgebunden) mitgeteilt und in der Datenspeichervorrichtung 32 gespeichert werden. Wie ersichtlich, kann die Datenspeichervorrichtung 32 ein Teil der Steuerung 34, von der Steuerung 34 getrennt, oder ein Teil der Steuerung 34 und Teil eines separaten Systems sein.
  • Die Steuerung 34 beinhaltet mindestens einen Prozessor 44 und eine computerlesbare Speichervorrichtung oder Medien 46. Der Prozessor 44 kann eine Spezialanfertigung oder ein handelsüblicher Prozessor sein, eine Zentraleinheit (CPU), eine Grafikprozessoreinheit (GPU) unter mehreren Prozessoren verbunden mit der Steuerung 34, ein Mikroprozessor auf Halbleiterbasis (in Form eines Mikrochips oder Chip-Satzes), ein Makroprozessor, eine Kombination derselben oder allgemein jede beliebige Vorrichtung zur Ausführung von Anweisungen. Die computerlesbare Speichervorrichtung oder Medien 46 können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Keep-Alive-Memory (KAM) beinhalten. KAM ist ein persistenter oder nicht-flüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder Medien 46 können unter Verwendung einer beliebigen einer Anzahl an bekannten Speichervorrichtungen, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebige andere elektrischen, magnetischen, optischen oder kombinierten Speichervorrichtungen implementiert werden, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuerung 34 beim Steuern des autonomen Fahrzeugs 10 verwendet werden.
  • Die Anweisungen können ein oder mehrere separate Programme beinhalten, von denen jede eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren von logischen Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn diese vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zur automatischen Steuerung der Komponenten des autonomen Fahrzeugs 10 durch und erzeugen Steuersignale an das Stellgliedsystem 30, um die Komponenten des autonomen Fahrzeugs 10 basierend auf der Logik, den Berechnungen, den Verfahren und/oder Algorithmen automatisch zu steuern. Obwohl in 1 nur eine Steuerung 34 dargestellt ist, können Ausführungsformen des autonomen Fahrzeugs 10 eine beliebige Anzahl an Steuerungen 34 beinhalten, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenwirken, um die Sensorsignale zu verarbeiten, Logiken, Berechnungen, Verfahren und/oder Algorithmen durchzuführen, und Steuersignale zu erzeugen, um die Funktionen des autonomen Fahrzeugs 10 automatisch zu steuern.
  • In verschiedenen Ausführungsformen werden eine oder mehrere Anweisungen der Steuerung 34 im Situationswahrnehmungsinformationssystem 100 verwendet und bewirken, wenn sie durch den Prozessor 44 ausgeführt werden, dass Situationswahrnehmungsinformationen einem Insassen des Fahrzeugs 10 auf eine solche Weise selektiv bereitgestellt werden, die den Insassen nicht überlastet. So werden beispielsweise Umgebungsinformationen verarbeitet, um bestimmte Situationswahrnehmungsinformationen in einer integrierten und holistischen Schnittstelle 50 selektiv darzustellen; und die Umgebungsinformationen werden verarbeitet, um die Situationswahrnehmungsinformationen in der integrierten Schnittstelle 50 auf konsistente Weise für jedes Anwendungsfallszenario (z. B. wie in einer unsicheren dynamischen Umgebung dargestellt) selektiv bereitzustellen.
  • In verschiedenen Ausführungsformen beinhaltet die integrierte Schnittstelle 50 eine egozentrische Darstellung des Host-Fahrzeugs und Betriebsbereiche um die Repräsentation herum. So kann beispielsweise die egozentrische Darstellung in Form eines oder mehrerer Grundelemente, wie etwa eines Kreises, eines Quadrats, eines Rechtecks, eines Achtecks, eines Sechsecks usw., vorliegen, die das Fahrzeug 10 darstellen. Das Grundelement beinhaltet Merkmale, die beeinflussbar (geformt oder verzerrt) sind, um Elemente der äußeren Fahrzeugumgebung 10 zu veranschaulichen. Die Merkmale können basierend auf einer Zuordnung zu einer Wolke potentieller Punkte beeinflusst werden, die alles repräsentieren, was die Entscheidungen beeinflussen kann, die das automatisierte System trifft.
  • In verschiedenen Ausführungsformen kann die Beeinflussung entweder positiv oder negativ sein. So wird beispielsweise die Mitte von Fahrspuren in positive Punkte abgetastet, die das Host-Fahrzeug anziehen und Fahrbahnbegrenzungen werden in negative Punkte abgetastet, die das Host-Fahrzeug abstoßen. Andere Hindernisse können gleichermaßen über negative Punkte veranschaulicht werden. Und es kann weitere Betrachtungen geben, wie, jedoch nicht beschränkt auf Zeit, Benzinverbrauch, aggressiv-defensives Fahrverhalten, das alle durch geeignete potentielle Punkte mit einem zugeordneten Gewicht (das jeden positiven oder negativen Wert annehmen kann) dargestellt werden können. Zu jedem Zeitpunkt, unmittelbar nachdem alle relevanten potentiellen Punkte um das Host-Fahrzeug herum zugewiesen sind, berechnet eine physikalische Gleichung den Gesamteinfluss aller potentiellen Punkte um das Host-Fahrzeug, wobei die Formung oder Verzerrung berücksichtigt wird.
  • In verschiedenen Ausführungsformen, wie in 2 dargestellt, kann das Grundelement 52 einen Kreis beinhalten. Der Kreis kann eine dreihundertundsechzig Grad strahlenförmige optische Anzeigendarstellung beinhalten. Der Kreis (oder eine andere Form) kann beispielsweise n-Balken 54 beinhalten, die vom Mittelpunkt der Form ausgehen und sich radial nach außen erstrecken. Wie in 3 dargestellt, kann jeder Balken 54 m-Zellen oder Bruchstücke 56 beinhalten. Jeder Balken 54 und/oder jede Zelle 56 kann einem oder mehreren Parametern zugeordnet sein, einschließlich, jedoch nicht beschränkt auf Länge, Breite, Tiefe, Farbe, Muster und Transparenz. Der Wert der Parameter kann dynamisch mit der Zeit verändert werden, sodass sich die dem Benutzer bereitgestellten visuellen Eigenschaften in Abhängigkeit von der Umgebung in Sekundenbruchteilen einfach oder radikal ändern können. Die Werte der Parameter können mit der Umgebung verknüpft sein, wie etwa Grundelemente von Informationen, Warnungen, Überlegungen und/oder physikalischen Effekten; und wenn sich die mit der Umgebung verbundenen Werte ändern (z. B. der positive oder negative Wert), ändert sich auch der Wert des zugehörigen Parameters; wodurch die Änderung des Erscheinungsbildes des Grundelements 52 bewirkt wird.
  • So kann beispielsweise das Ändern eines Werts der Länge oder der Breite eines Balkens 54 oder einer Zelle 56 die Geometrie des gesamten Grundelements 52 ändern, um einen Wert einer Kraft, wie etwa eines detektierten Objekts, zu veranschaulichen, das auf das Fahrzeug 10 wirkt oder wirken kann. In einem weiteren Beispiel kann das Ändern eines Werts der Länge oder Breite eine Größe des Grundelements 52 ändern, um einen Wert einer Geschwindigkeit oder anderer Kräfte des Fahrzeugs 10 zu veranschaulichen. In einem weiteren Beispiel kann das Ändern eines Werts des Musters eine Konnektivität eines Umrisses ändern, um einen Wert einer Gefahr für das Fahrzeug 10 zu veranschaulichen. In einem weiteren Beispiel kann das Ändern eines Wertes der Farbe eine Farbe des Grundelements 52 ändern, um ein Bedrohungslevel zu veranschaulichen. In einem weiteren Beispiel kann das Ändern eines Werts der Transparenz eine Farbsättigung oder Transparenz ändern, um einen Wert der Wahrscheinlichkeitswert einer Aktion zu veranschaulichen. Es versteht sich, dass die Parameter und Zuordnungen lediglich exemplarisch sind, da in verschiedenen Ausführungsformen eine beliebige Anzahl an Parametern mit einer Vielzahl von Informationen verknüpft werden kann.
  • Unter Bezugnahme auf die 4A - 4F zeigen Darstellungen exemplarische Anwendungsfallszenarien zum Ändern der Parameter anhand bestimmten empfangenen Informationen. 4A veranschaulicht helle, teilweise transparente grüne (oder einen anders farbliche) Balken 54, die verwendet werden, um das Potential für die Bewegung eines geparkten Fahrzeugs auszudrücken. Die Fragmentierung der Balken unterstützt eine dynamische Farbfüllung, um eine flüssige Animation für nicht-dringende Situationen oder einen schnellen dynamischen Effekt für dringende Situationen bereitzustellen. 4A veranschaulicht einen Ausdruck 58 eines Bürgersteigs mit einer gestrichelten Linie auf der rechten Seite und einen Ausdruck 60 von geparkten Autos mit einer durchgezogenen Linie auf der Vorderseite und auf der Rückseite.
  • 4B veranschaulicht dunkle, feste grüne Balken 54, die verwendet werden, um die tatsächliche Bewegung des Fahrzeugs anzuzeigen, wenn es geradeaus fährt. Die Spuren können durch gestrichelte Linien 62 dargestellt werden, die die Seitenbalken 54 abschließen oder den Längenparameter der Balken 54 ändern.
  • 4C veranschaulicht ein Objekt, das vor dem Fahrzeug als eine durchgezogene Linie mit weißen Rändern erfasst wird, wie bei 64 dargestellt. Die durchgezogene Linie 64 schließt die vorderen Balken 54 zur Veranschaulichung der tatsächlichen Bewegung des Fahrzeugs ab. 4D veranschaulicht einen halbtransparenten, roten (oder einen anders farblichen) Kreis 66, der als Sicherheitszone oder Abschirmung um das Fahrzeug herum dient. Die Farbänderung ist auf die durchgezogene Linie 64 zurückzuführen, die eine äußere Grenze der Abschirmung kreuzt. 4E veranschaulicht den Kreis 66 als eine roten (oder einen anders farblichen) und nicht-transparenten Kreis, der als eine Sicherheitszone oder Abschirmung um das Fahrzeug herum dient. Die Änderung der Transparenz ist darauf zurückzuführen, dass die durchgezogene Linie 64 eine innere Grenze der Abschirmung kreuzt.
  • 4F veranschaulicht den roten (oder einen anders farblichen) und nicht-transparenten Kreis 66, der als Sicherheitszone oder Abschirmung um das Fahrzeug herum dient, zusammen mit hellen, teilweise transparenten, grünen (oder einen anders farblichen) Balken 54, die verwendet werden, um das Potential für die Bewegung des fahrenden Fahrzeugs auszudrücken. Die Transparenz- und Farbänderung des Kreises 64 wird dazu verwendet, um die durchgezogene Linie auszudrücken, die eine innere Grenze der Abschirmung kreuzt.
  • Wie zu erkennen ist, sind 2, 3 und 4A-4F nur einige exemplarische Ausführungsformen. In verschiedenen Ausführungsformen kann die integrierte Schnittstelle 50 von 1 eine beliebige Anzahl an Ausführungsformen beinhalten. Zum Beispiel, wie detaillierter in 5A dargestellt, kann eine integrierte Schnittstelle 50a drei oder mehr Kreise beinhalten, von denen zwei einen dicken Kreis (mit einer inneren und einer äußeren Linie) bilden, der als Abschirmung bezeichnet wird. Der dritte externe Kreis besteht aus n-Balken und n aktiven Punkten. In einem weiteren Beispiel, wie in 5B dargestellt, kann eine integrierte Schnittstelle 50b Ereignisse beinhalten, die durch den Ort, die Farbe und die Größe von Punkten (oder einem anderen Bild) relativ zum Grundelement dargestellt sind. In noch einem weiteren Beispiel kann eine integrierte Schnittstelle 50c Ereignisse beinhalten, die durch den Ort, die Farbe und die Größe der Kreiskomponenten veranschaulicht werden.
  • Weiterhin bezugnehmend auf 6 und unter weiterer Bezugnahme auf 1, veranschaulicht ein Datenflussdiagramm verschiedene Ausführungsformen des Informationswahrnehmungssystems 100, das in die Steuerung 34 integriert sein kann. Verschiedene Ausführungsformen des Informationswahrnehmungssystems 100 können gemäß der vorliegenden Offenbarung eine beliebige Anzahl an in die Steuerung 34 integrierten Untermodulen beinhalten. Wie zu erkennen ist, können die in 6 dargestellten Untermodule kombiniert und/oder weiter unterteilt werden, um auf ähnliche Weise Situationswahrnehmungsinformationen einem Benutzer in einer integrierten Form, wie etwa gemäß einer oder mehrerer der Formen, die in den 2, 3, 4A-4F und 5A-5C dargestellt sind, bereitzustellen. Eingaben in das Situationswahrnehmungssystem 100 können vom Sensorsystem 28 empfangen werden, die von anderen Steuermodulen (nicht dargestellt) empfangen werden, die dem autonomen Fahrzeug 10 zugeordnet sind, die vom Kommunikationssystem 36 empfangen werden und/oder von anderen Untermodulen (nicht dargestellt), die innerhalb der Steuerung 34 ermittelt/modelliert werden.
  • In verschiedenen Ausführungsformen beinhaltet das Informationswahrnehmungssystem 100 ein Kodiermodul 70, ein Extraktionsmodul 72 und ein Projektionsmodul 74. Die Funktionen der Module 70 bis 74 werden kontinuierlich bei empfangenen Informationen ausgeführt, um die Anzeige gemäß der sich dynamisch ändernden Umgebung zu gestalten.
  • So empfängt beispielsweise das Kodiermodul 70 erfasste oder wahrgenommene Daten 76, die mit der äußeren Umgebung des Fahrzeugs assoziiert sind und kodiert die erfassten oder wahrgenommenen Informationen, die Fahrziele und Beschränkungen darstellen, in Schichten 78. Die Schichten 78 können beispielsweise eine Geometrieschicht, eine kinematische Schicht, eine Sicherheitsschicht, eine Objektbedeutungsschicht usw. beinhalten. Die Geometrieschicht kodiert beispielsweise Straßengeometrie (d. h. Fahrbahnbegrenzungen, Kreuzungsstrukturen usw.). Die kinematische Schicht kodiert beispielsweise die Kinematik und den dynamischen Zustand und die Fähigkeit des Fahrzeugs (d. h. das Fahrzeugmoment, die kinematische Umgrenzung des Fahrzeugs usw.). Die Sicherheitsschicht kodiert beispielsweise umgebende Hindernisse (d. h. weitere Fahrzeuge, Fußgänger usw.). Die Kodierung kann implizite Darstellungen und/oder explizite Darstellungen der Objekte sein. Die Objektbedeutungsschicht kodiert beispielsweise Bedeutungen und/oder Wichtigkeitsstufen von Objekten.
  • Das Extraktionsmodul 72 empfängt die Schichten 78 und extrahiert Daten von den Schichten 78 zu einer Wolke räumlich-zeitlicher potentieller Punkte (d. h. die eine Auswirkung auf das Fahrzeug haben) 80. Die Daten werden beispielsweise von den Schichten 78 in die räumlich-zeitliche Wolke potentieller Punkte extrahiert, wobei jeder Punkt eine Position und eine Zeit in Bezug auf das Host-Fahrzeug hat. Die Daten können alle Daten der Schicht oder ausgewählte Daten beinhalten. Die Daten können beispielsweise ein potentielles Gewicht beinhalten, das seine positive (Anziehungskraft) oder negative (Abstoßung) Qualität eines Objekts widerspiegelt.
  • Das Projektionsmodul 74 empfängt die Wolke von Punkten 80 und eine Metaschablone oder Vorlagen 82 eines Grundelements mit beeinflussbaren Merkmalen (z. B. wie oben erörtert) und projiziert das durch die Wolke potentieller Punkte auf der Metaschablone(n) definierte potenzielle Feld des Anzeigendesigns. Wenn die Daten beispielsweise eine Gewichtung beinhalten, die eine Anziehung widerspiegelt, wird eine Kraftfeldanalyse durchgeführt, die eine physikalisch-basierte Analyse ist, die die Kräfte verwendet, die aus der Wolke potentieller Punkte abgeleitet werden, um eine quasistatische Instanz der Anzeige, wie sie durch die Metaschablone(n) 82 definiert ist, zu bilden (z. B. das Anpassen der Längen- und/oder Breitenparameter). Es versteht sich, dass andere Daten analysiert werden können, um Änderungen in anderen Parametern der Metaschablone(n) 82 zu bewirken, da dies lediglich ein Beispiel ist.
  • Das Projektionsmodul 74 erzeugt dann Anzeigedaten 84, um die Projektion der Wolke von Punkten 80 auf die Metaschablone auf einer Anzeige im Fahrzeug zur Betrachtung durch einen Insassen anzuzeigen.
  • Weiterhin bezugnehmend auf 7 und mit weiterer Bezugnahme auf 1 und 6 stellt ein Flussdiagramm ein Steuerungsverfahren 400 dar, das durch das Situationswahrnehmungssystem von 1 und 6 gemäß der vorliegenden Offenbarung ausgeführt werden kann. Wie angesichts der Offenbarung leicht zu verstehen, ist die Reihenfolge des Betriebs innerhalb des Verfahrens nicht auf die sequentielle Ausführung, wie in 7 gezeigt, beschränkt, sondern kann in einer oder mehreren variierenden Reihenfolgen, wie anwendbar, und gemäß der vorliegenden Offenbarung ausgeführt werden. In verschiedenen Ausführungsformen kann das Verfahren 400 basierend auf einem oder mehreren vordefinierten Ereignissen und/oder kontinuierlich während des Betriebs des autonomen Fahrzeugs 10 ausgeführt werden.
  • In verschiedenen Ausführungsformen kann das Verfahren 400 bei 405 beginnen. Die erfassten und/oder wahrgenommenen Umgebungsdaten 76 werden bei 410 empfangen. Die Umgebungsdaten 76 werden dann bei 420 in die Schichten 78 verarbeitet und extrahiert. Die Schichten 78 werden dann in eine Punktwolke 80 bei 430 extrahiert. Die Punktwolke 80 wird dann bei 440 auf die Metaschablone(n) 82 projiziert und Anzeigedaten 84 werden erzeugt. Danach kann das Verfahren bei 450 enden.
  • Während mindestens eine exemplarische Ausführungsform in der vorstehenden ausführlichen Beschreibung dargestellt wurde, versteht es sich, dass es eine große Anzahl an Varianten gibt. Es versteht sich weiterhin, dass die exemplarische Ausführungsform oder die exemplarischen Ausführungsformen lediglich Beispiele sind und den Umfang, die Anwendbarkeit oder die Konfiguration dieser Offenbarung in keiner Weise einschränken sollen. Die vorstehende ausführliche Beschreibung stellt Fachleuten auf dem Gebiet vielmehr einen zweckmäßigen Plan zur Implementierung der exemplarischen Ausführungsform bzw. der exemplarischen Ausführungsformen zur Verfügung. Es versteht sich, dass verschiedene Veränderungen an der Funktion und der Anordnung von Elementen vorgenommen werden können, ohne vom Umfang der Offenbarung, wie er in den beigefügten Ansprüchen und deren rechtlichen Entsprechungen aufgeführt ist, abzuweichen.

Claims (10)

  1. Verfahren zur Erzeugung einer integrierten Schnittstelle in einem Fahrzeug, umfassend: das Empfangen von Daten, die im Zusammenhang mit einer Fahrzeugumgebung stehen; das Kodieren der Umgebungsdaten in mehrere Schichten; das Extrahieren von Daten von den mehreren Schichten in eine Punktwolke; das Projizieren der Punktwolke auf eine Metaschablone, die ein Grundelement und beeinflussbare Merkmale des Grundelements definiert; und das Erzeugen von Anzeigedaten anhand des Projizierens.
  2. Verfahren nach Anspruch 1, worin die Schichten mindestens eine von einer Geometrieschicht, einer kinematischen Schicht und einer Sicherheitsschicht beinhalten.
  3. Verfahren nach Anspruch 1, worin die Punktwolke eine räumlich-zeitliche Punktwolke ist.
  4. Verfahren nach Anspruch 1, worin das Grundelement eine Grundform ist.
  5. Verfahren nach Anspruch 1, worin die beeinflussbaren Merkmale eine auf dreihundertundsechzig Grad strahlenförmige optische Anzeigendarstellung beinhalten.
  6. Verfahren nach Anspruch 5, worin das Grundelement ein Kreis ist und worin die beeinflussbaren Merkmale n Balken beinhalten, die von einem Mittelpunkt des Kreises ausgehen und sich radial nach außen erstrecken.
  7. Verfahren nach Anspruch 6, worin jeder Balken mindestens einen beeinflussbaren Parameter beinhaltet.
  8. Verfahren nach Anspruch 6, worin die Balken n jeweils die Zellen m beinhalten.
  9. Verfahren nach Anspruch 8, worin jede Zelle mindestens einen beeinflussbaren Parameter beinhaltet.
  10. Fahrzeug, umfassend: mindestens einen Sensor, der Sensordaten vorsieht, die im Zusammenhang mit einer Fahrzeugumgebung stehen; und eine Steuerung, die von einem Prozessor und basierend auf den Sensordaten, die Umgebungsdaten in mehrere Schichten kodiert, Daten aus den mehreren Schichten in eine Punktwolke extrahiert, die Punktwolke auf eine Metaschablone projiziert, die ein Grundelement und beeinflussbare Merkmale des Grundelements definiert und Anzeigedaten zum Anzeigen auf einer Anzeige des Fahrzeugs anhand des Projizierens erzeugt.
DE102018102425.8A 2017-02-09 2018-02-02 Integrierte schnittstelle für situationswahrnehmungsinformationen zum warnen, anweisen und informieren Pending DE102018102425A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/428,907 2017-02-09
US15/428,907 US10692252B2 (en) 2017-02-09 2017-02-09 Integrated interface for situation awareness information alert, advise, and inform

Publications (1)

Publication Number Publication Date
DE102018102425A1 true DE102018102425A1 (de) 2018-08-09

Family

ID=62909947

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018102425.8A Pending DE102018102425A1 (de) 2017-02-09 2018-02-02 Integrierte schnittstelle für situationswahrnehmungsinformationen zum warnen, anweisen und informieren

Country Status (3)

Country Link
US (1) US10692252B2 (de)
CN (1) CN108437996B (de)
DE (1) DE102018102425A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210398236A1 (en) 2020-06-19 2021-12-23 Abhijit R. Nesarikar Remote Monitoring with Artificial Intelligence and Awareness Machines
CN113839935B (zh) * 2021-09-14 2024-01-23 上海纽盾科技股份有限公司 网络态势感知方法、装置及系统
CN114006802B (zh) * 2021-09-14 2023-11-21 上海纽盾科技股份有限公司 失陷设备的态势感知预测方法、装置及系统
CN115150195B (zh) * 2022-09-01 2022-12-20 珠海市鸿瑞信息技术股份有限公司 基于网络安全态势感知系统的实时动态预警系统及方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100363932C (zh) * 2004-05-26 2008-01-23 鸿富锦精密工业(深圳)有限公司 点云三维处理系统及方法
ATE459061T1 (de) * 2006-11-21 2010-03-15 Harman Becker Automotive Sys Darstellung von videobildern einer fahrzeugumgebung
JP4344869B2 (ja) * 2007-02-16 2009-10-14 三菱電機株式会社 計測装置
JP5407952B2 (ja) * 2009-06-18 2014-02-05 日産自動車株式会社 車両運転支援装置及び車両運転支援方法
KR102153030B1 (ko) * 2013-11-05 2020-09-07 현대모비스 주식회사 주차 지원 장치 및 방법
US9862090B2 (en) * 2014-07-25 2018-01-09 California Institute Of Technology Surrogate: a body-dexterous mobile manipulation robot with a tracked base
US20160379366A1 (en) * 2015-06-25 2016-12-29 Microsoft Technology Licensing, Llc Aligning 3d point clouds using loop closures
US9557741B1 (en) * 2015-08-24 2017-01-31 Ford Global Technologies, Llc System and method for autonomous valet parking using plenoptic cameras
KR102373926B1 (ko) * 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법

Also Published As

Publication number Publication date
US20180225964A1 (en) 2018-08-09
CN108437996B (zh) 2021-07-06
CN108437996A (zh) 2018-08-24
US10692252B2 (en) 2020-06-23

Similar Documents

Publication Publication Date Title
DE102018129066B4 (de) Systeme und verfahren für ungeschütztes linksabbiegen in situationen mit hohem verkehrsaufkommen in autonomen fahrzeugen
DE102019133034A1 (de) Steuerung eines autonomen fahrzeugs basierend auf einem vorher erlernten fahrgast- und umgebungsbewussten fahrstilprofil
DE102019102205A1 (de) System und verfahren zur end-to-end-validierung von autonomen fahrzeugen
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102019104217A1 (de) Bereitstellen von Informationsreicher Kartensemantik an Navigations-Metrik-Karten
DE102017100259A1 (de) System und verfahren zum rückwärtseinparken eines fahrzeugs senkrecht zur fahrbahn
DE102019100569A1 (de) Systeme und verfahren zum mindern von ungeschützten manövern in autonomen fahrzeugen
EP2991874B1 (de) Bereitstellen einer effizienten umfeldkarte für ein fahrzeug
DE102018102425A1 (de) Integrierte schnittstelle für situationswahrnehmungsinformationen zum warnen, anweisen und informieren
DE102018131646A1 (de) Fahrerwarnsysteme und verfahren
DE102018116001A1 (de) Verfahren und systeme zur erkennung des toten winkels in einem autonomen fahrzeug
DE102018129063A1 (de) Systeme und verfahren zur freiraum-inferenz zum brechen von geclusterten objekten in fahrzeugwahrnehmungssystemen
DE102018129057A1 (de) Systeme und verfahren zum bestimmen der geschwindigkeit von lidar-punkten
DE102019102956A1 (de) Verfahren und systeme zum erkennen und lokalisieren von strassengefahren
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102018116684A1 (de) Systeme und verfahren zum bereitstellen einer intelligenten übersteuerung für ein antriebsautomatisierungssystem
DE102015015277A1 (de) Technik zum automatisierten Anhalten eines Fahrzeugs in einem Zielbereich
DE112021004492T5 (de) Fahrzeuganzeigevorrichtung
DE102018203121A1 (de) Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
EP3653460A1 (de) Verfahren und steuereinheit zum betreiben eines autonomen fahrzeugs
DE112021001882T5 (de) Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren und programm
DE102022112478A1 (de) Verfahren und Systeme zur Anzeige der Fahrsituation für externe Benutzer

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

Representative=s name: SCHWEIGER & PARTNERS , DE

Representative=s name: SCHWEIGER PARTNERSCHAFT PATENTANWALT UND RECHT, DE

Representative=s name: SCHWEIGER & PARTNERS, DE

R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

R016 Response to examination communication