DE102019106048A1 - Fahrzeuganzeige mit erweiterter realität - Google Patents

Fahrzeuganzeige mit erweiterter realität Download PDF

Info

Publication number
DE102019106048A1
DE102019106048A1 DE102019106048.6A DE102019106048A DE102019106048A1 DE 102019106048 A1 DE102019106048 A1 DE 102019106048A1 DE 102019106048 A DE102019106048 A DE 102019106048A DE 102019106048 A1 DE102019106048 A1 DE 102019106048A1
Authority
DE
Germany
Prior art keywords
risk
vehicle
image
computer
detected object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019106048.6A
Other languages
English (en)
Inventor
Shankar Mohan
Steven Joseph Szwabowski
John Ottavio Michelini
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019106048A1 publication Critical patent/DE102019106048A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1215Mirror assemblies combined with other articles, e.g. clocks with information displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1223Mirror assemblies combined with other articles, e.g. clocks with sensors or transducers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Diese Offenbarung stellt eine Fahrzeuganzeige mit erweiterter Realität bereit. Es kann ein Objekt außerhalb eines Fahrzeugs detektiert werden und ein erweitertes Bild des detektierten Objekts kann an eine Anzeigevorrichtung des Fahrzeugs ausgegeben werden, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.

Description

  • TECHNISCHES GEBIET
  • Die Offenbarung betrifft das Gebiet von Fahrzeuganzeigen und inbesondere das Detektieren von Objekten außerhalb eines Fahrzeugs und das Anzeigen dieser Objekte auf einer Fahrzeuganzeige.
  • ALLGEMEINER STAND DER TECHNIK
  • Wenn ein Fahrzeug den Fahrstreifen wechselt, besteht oftmals ein Risiko einer Kollision mit einem Objekt, z. B. einem anderen Fahrzeug. Ein Fahrer des Fahrzeugs kann einen Fahrstreifenwechsel einleiten, ohne ein Kollisionsrisiko zu erkennen oder zu versuchen, dieses zu minimieren, z. B. wenn sich ein anderes Fahrzeug in einem toten Winkel des Fahrers befindet. Bedauerlicherweise verfügen Fahrzeuge nicht über Wege, um die Aufmerksamkeit des Fahrers effektiv und/oder effizient auf ein Kollisionsrisiko zu lenken, das durch einen Fahrstreifenwechsel des Fahrzeugs verursacht werden kann.
  • KURZDARSTELLUNG
  • EINLEITUNG
  • In dieser Schrift wird ein Verfahren offenbart, das ein Detektieren eines Objekts außerhalb eines Fahrzeugs und ein Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs beinhaltet. Mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes wird auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  • Die Umgebungsbedingung kann mindestens eines von Verkehrsdichte, einer Straßenart und Sichtverhältnissen beinhalten.
  • Die Anzeigevorrichtung kann einen Fahrzeugspiegel beinhalten und das Verfahren beinhaltet außerdem ein Projizieren des erweiterten Bildes auf den Fahrzeugspiegel, wobei das erweiterte Bild über ein reflektiertes Bild des detektierten Objekts im Spiegel gelegt wird.
  • Das Verfahren kann außerdem ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Abmessungen des detektierten Objekts in dem erweiterten Bild auf Grundlage zumindest des bestimmten Risikos beinhalten.
  • Das Verfahren kann außerdem ein Bestimmen des Risikos auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators beinhalten.
  • Das Verfahren kann außerdem ein Bestimmen eines Multiplikationsfaktors auf Grundlage der Umgebungsbedingung, ein Bestimmen eines kompensierten Risikos auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos und ein Anpassen der Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos beinhalten.
  • Das Verfahren kann außerdem ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Bewegung des Bildes des detektierten Objekts durch Blinken des Bildes mit einer Frequenz beinhalten, wobei die Frequenz auf dem bestimmten Risiko beruht.
  • Außerdem wird in dieser Schrift ein System offenbart, das einen Prozessor und einen Speicher beinhaltet. Im Speicher sind Anweisungen gespeichert, die durch den Prozessor ausgeführt werden können, um ein Objekt außerhalb eines Fahrzeugs zu detektieren und ein erweitertes Bild des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs auszugeben, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  • Die Umgebungsbedingung kann mindestens eines von Verkehrsdichte, einer Straßenart und Sichtverhältnissen beinhalten.
  • Die Anzeigevorrichtung kann einen Fahrzeugspiegel beinhalten und die Anweisungen beinhalten weitere Anweisungen zum Projizieren des erweiterten Bildes auf den Fahrzeugspiegel, wobei das erweiterte Bild über ein reflektiertes Bild des detektierten Objekts im Spiegel gelegt wird.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und zum Anpassen der Abmessungen des detektierten Objekts in dem erweiterten Bild auf Grundlage zumindest des bestimmten Risikos beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen des Risikos auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen eines Multiplikationsfaktors auf Grundlage der Umgebungsbedingung, zum Bestimmen eines kompensierten Risikos auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos und zum Anpassen der Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und zum Anpassen der Bewegung des Bildes des detektierten Objekts durch Blinken des Bildes mit einer Frequenz beinhalten, wobei die Frequenz auf dem bestimmten Risiko beruht.
  • Außerdem wird in dieser Schrift ein System offenbart, das eine Einrichtung zum Detektieren eines Objekts außerhalb eines Fahrzeugs und eine Einrichtung zum Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs beinhaltet, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  • Außerdem wird eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Darüber hinaus wird ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines beispielhaften Host-Fahrzeugs.
    • 2 ist ein Diagramm, das ein Beispiel für mehrere Fahrzeuge, die in mehreren Fahrstreifen fahren, zeigt.
    • 3A zeigt ein Hybridbild, das Objekte hinter dem Host-Fahrzeug und in das Bild eingebettete generierte erweiterte Realität beinhaltet.
    • 3B zeigt ein Hybridbild, das Objekte hinter dem Host-Fahrzeug mit angepassten Abmessungen beinhaltet.
    • 4 zeigt einen beispielhaften Verlauf einer Blinkfrequenz des erweiterten Bildes.
    • 5 zeigt eine Mensch-Maschine-Schnittstelle des Fahrzeugs aus 1, die einen Spiegel und ein projiziertes erweitertes Bild von diesem beinhaltet.
    • 6 zeigt beispielhafte Verläufe für Risiken im Verhältnis zu Geschwindigkeit, Beschleunigung und Abstand.
  • Die 7A-7B entsprechen einem Ablaufdiagramm eines beispielhaften Prozesses zum Generieren von erweiterter Realität.
  • DETAILLIERTE BESCHREIBUNG
  • SYSTEMELEMENTE
  • Ein Fahrzeugcomputer kann dazu programmiert sein, ein Objekt außerhalb eines Fahrzeugs zu detektieren, wie etwa ein zweites Fahrzeug, ein Motorrad usw. Der Computer kann ein erweitertes Bild des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs ausgeben. Die Abmessungen und/oder eine Bewegung des angezeigten Objekts können auf Grundlage einer Umgebungsbedingung und/oder eines physischen Attributs des detektierten Objekts angepasst werden, wie etwa einer Geschwindigkeit, einer Beschleunigung, eines Standorts und einer Richtung des detektierten Objekts. Somit kann das erweiterte Bild vorteilhafterweise die Aufmerksamkeit eines Fahrers des Fahrzeugs auf sich ziehen und kann den Fahrer des Fahrzeugs über ein Kollisionsrisiko informieren, das ein Objekt darstellt. Zusätzlich oder alternativ kann, wenn ein Fahrzeug in einem autonomen Modus betrieben wird, ein Fahrzeuginsasse darüber informiert werden, wie ein Fahrzeugcomputer ein Risiko/Risiken detektiert, das/die (ein) Objekt(e) darstellt/darstellen. Dies kann verhindern oder dabei helfen zu verhindern, dass der Fahrzeuginsasse in autonome Operationen eingreift, da dem Insassen, der das erweiterte Bild betrachtet, versichert wird, dass der Fahrzeugcomputer ein Risiko/Risiken, das/die andere Objekte darstellen, detektiert hat.
  • 1 veranschaulicht ein Fahrzeug 100. Das Fahrzeug 100 kann auf vielfältige Weise angetrieben werden, z. B. mithilfe eines Elektromotors und/oder einer Brennkraftmaschine. Bei dem Fahrzeug 100 kann es sich um ein Landfahrzeug, wie etwa ein Auto, einen Truck usw., handeln. Ein Fahrzeug 100 kann einen Computer 110, (einen) Aktor(en) 120, (einen) Sensor(en) 130, eine Mensch-Maschine-Schnittstelle (human machine interface - HMI) 140 und einen Bezugspunkt 150 beinhalten. In einem Beispiel kann es sich bei einem Bezugspunkt 150 eines Fahrzeugs 100 und/oder jedes beliebigen Objekts 200a, 200b, 200c (siehe 2) um einen geometrischen Mittelpunkt des Fahrzeugs 100 und/oder des Objekts 200 handeln.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert Anweisungen, die durch den Computer 110 ausgeführt werden können, um verschiedene Operationen durchzuführen, einschließlich der hierin offenbarten.
  • Der Computer 110 kann das Fahrzeug 100 in einem autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen Modus betreiben. Zum Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsen und Lenkung des Fahrzeugs 100 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer 110 eines oder zwei von Antrieb, Bremsen und Lenkung der Fahrzeuge 100; in einem nicht autonomen Modus steuert ein Bediener Antrieb, Bremsen und Lenkung des Fahrzeugs 100.
  • Der Computer 110 kann eine Programmierung zum Betreiben eines oder mehrerer von Bremsen, Antrieb (z. B. Steuerung der Beschleunigung im Fahrzeug durch Steuern eines oder mehrerer von einer Brennkraftmaschine, einem Elektromotor, einem Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenbeleuchtung usw. eines Landfahrzeugs sowie zum Bestimmen, ob und wann der Computer 110 im Gegensatz zu einem menschlichen Bediener derartige Operationen steuern soll, beinhalten. Zusätzlich kann der Computer 110 dazu programmiert sein, zu bestimmen, ob und wann ein menschlicher Bediener derartige Operationen steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., beinhaltet sind, beinhalten oder kommunikativ mit diesen gekoppelt sein, z. B. über einen Kommunikationsbus des Fahrzeugs 100, wie nachstehend ausführlicher beschrieben. Der Computer 110 ist im Allgemeinen für Kommunikationen in einem Fahrzeugkommunikationsnetzwerk angeordnet, das einen Bus in dem Fahrzeug beinhalten kann, wie etwa ein Controller Area Network (CAN) oder dergleichen und/oder andere drahtgebundene und/oder drahtlose Mechanismen.
  • Über das Netzwerk des Fahrzeugs 100 kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug senden und/oder Nachrichten von den verschiedenen Vorrichtungen empfangen, z. B. einem Aktor 120, einer HMI 140 usw. Alternativ oder zusätzlich kann in Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Kommunikationsnetzwerkwerk des Fahrzeugs 100 für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 wiedergegeben sind. Wie nachstehend ausführlicher erörtert, können verschiedene elektronische Steuerungen und/oder Sensoren 130 dem Computer 110 über das Fahrzeugkommunikationsnetzwerk Daten bereitstellen.
  • Die Aktoren 120 des Fahrzeugs 100 sind über Schaltungen, Chips oder andere elektronische und/oder mechanische Komponenten umgesetzt, die verschiedene Fahrzeugteilsysteme gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Aktoren 120 können verwendet werden, um Systeme der Fahrzeuge 100 zu steuern, wie etwa Bremsen, Beschleunigung und/oder Lenkung der Fahrzeuge 100.
  • Die Sensoren 130 des Fahrzeugs 100 können vielfältige Vorrichtungen beinhalten, die bekanntlich Daten über den Fahrzeugkommunikationsbus bereitstellen. Beispielsweise können die Sensoren 130 einen oder mehrere Kamera-, Radar-, Infrarot- und/oder LIDAR-Sensoren 130 beinhalten, die im Fahrzeug 100 und/oder am Fahrzeug 100 angeordnet sind und Daten bereitstellen, die zumindest einen Teil des Außenbereichs des Fahrzeugs 100 abdecken. Die Daten können von dem Computer 110 durch eine geeignete Schnittstelle, wie etwa ein Fahrzeugnetzwerk, einen Kommunikationsbus usw., empfangen werden. Ein LIDAR-Sensor 130, der am Äußeren des Fahrzeugs 100, z. B. an einem Dach, einer Säule usw. des Fahrzeugs 100, befestigt ist, kann Objektdaten bereitstellen, anhand derer der Computer 110 Bestimmungen treffen kann, die relative Standorte, Größen und Formen von Objekten 200a, 200b, 200c (siehe 2), wie etwa anderen Fahrzeugen in der Umgebung des Fahrzeugs 100, beinhalten. Der Computer 110 kann dazu programmiert sein, Objekte 200a, 200b, 200c unter Verwendung vielfältiger Techniken, z. B. autoregressiver Modelle, stochastischer Modelle, auf AI (artificial intelligence - künstlicher Intelligenz) beruhender Modelle usw., zu detektieren. Ein Computer 110 eines Fahrzeugs 100 kann die Objektdaten empfangen und das Fahrzeug zumindest teilweise auf Grundlage der empfangenen Objektdaten in einem autonomen und/oder halbautonomen Modus betreiben.
  • Die HMI 140 kann dazu konfiguriert sein, eine Benutzereingabe zu empfangen, z. B. während des Betriebs des Fahrzeugs 100. Beispielsweise kann ein Benutzer einen Betriebsmodus, z. B. einen autonomen Modus, durch Eingeben eines angeforderten Betriebsmodus über die HMI 140 auswählen. Darüber hinaus kann die HMI 140 dazu konfiguriert sein, dem Benutzer Informationen darzubieten. Demnach kann sich die HMI 140 in einer Fahrgastzelle des Fahrzeugs 100 befinden.
  • Die HMI 140 kann einen Anzeigebildschirm beinhalten, der dazu konfiguriert ist, ein „Hybrid“bild auszugeben. Bei einem Bild handelt es sich um ein digitales Bild, das eine Vielzahl von Pixeln (oder Punkten) und Daten bezüglich des jeweiligen Pixels, z. B. Farbe, Intensität usw., beinhaltet. Bei einem Hybridbild handelt es sich im vorliegenden Kontext um ein Bild, das eine Kombination aus „aufgezeichneten“ und „generierten“ Bildern beinhaltet. Ein „aufgezeichnetes“ Bild wird durch eine Kamera oder einen anderen optischen Sensor, wie etwa eine Kamera des Fahrzeugs 100 usw., aufgezeichnet. Ein „generiertes“ Bild beinhaltet Daten, die anhand gespeicherter Informationen generiert werden, z. B. Linien, Schatten, geometrische Formen, wie etwa Dreiecke usw. und/oder Objektformen, wie etwa eine Fahrzeugform, eine Motorradform usw. Ein Bild kann ein „Hybrid“bild sein, d. h. es kann sowohl aufgezeichnete Bilddaten als auch generierte Bilddaten beinhalten. Das Einbeziehen eines generierten Bildes in ein Hybridbild wird hierin als „erweiterte Realität“ bezeichnet. Bei „erweiterter Realität“ handelt es sich um eine Ansicht einer realen Umgebung, die durch computergenerierte Informationen, die z. B. optisch, akustisch, haptisch usw. sein können, um generierte Bilder „erweitert“ wird (oder in der generierte Bilder platziert werden). Das darübergelegte „generierte“ Bild kann zu einer natürlichen Umgebung hinzugefügt werden, z. B. Formen, wie etwa Dreiecke, Kreise, Schatten usw. (siehe 3A) oder es kann eine Anpassung von Realweltbildern beinhalten, z. B. Modifizieren der Abmessungen eines Objekts (siehe 3B), derart, dass es als eintauchender Aspekt der realen Umgebung wahrgenommen wird. Demnach kann erweiterte Realität die Wahrnehmung einer realen Umgebung durch einen Insassen des Fahrzeugs 100 verändern.
  • Darüber hinaus kann der Computer 110 dazu programmiert sein, über ein drahtloses Kommunikationsnetzwerk z. B. mit einem entfernten Computer zu kommunizieren. Das drahtlose Kommunikationsnetzwerk, das ein Fahrzeug-zu-Fahrzeug(F-zu-F)- und/oder ein Fahrzeug-zu-Infrastruktur(F-zu-I)-Kommunikationsnetzwerk beinhalten kann, beinhaltet eine oder mehrere Strukturen, über welche die Fahrzeuge 100, der entfernte Computer usw. miteinander kommunizieren können, einschließlich einer beliebigen gewünschten Kombination aus drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder -topologien, wenn eine Vielzahl von Kommunikationsmechanismen genutzt wird). Zu beispielhaften F-zu-F- oder F-zu-I-Kommunikationsnetzwerken zählen Mobilfunk, Bluetooth, IEEE 802.11, dedizierte Nahbereichskommunikation (dedicated short range communications - DSRC) und/oder Weitverkehrsnetzwerke (wide area network - WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Unter Bezugnahme auf die 2, 3A und 3B kann der Computer 110 dazu programmiert sein, ein Objekt 200a, 200b, 200c außerhalb eines Fahrzeugs 100 zu detektieren, ein erweitertes Bild 320a, 320b des detektierten Objekts 200a, 200b, 200c an eine Anzeigevorrichtung des Fahrzeugs 100, z. B. die HMI 140, auszugeben. Mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes 320a, 320b wird auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts 200a, 200b, 200c angepasst, einschließlich einer Geschwindigkeit, einer Beschleunigung, eines Standorts und/oder einer Richtung des detektierten Objekts. Zusätzlich oder alternativ können die Abmessungen und/oder die Bewegung des erweiterten Bildes 320a, 320b auf Grundlage einer Zeit bis zur Kollision (time to collision - TTC) des Fahrzeugs 100 und des jeweiligen Objekts 200a, 200b, 200c angepasst werden. Die TTC ist eine vorhergesagte Zeitspanne bis zur Kollision des Fahrzeugs 100 und eines Objekts 200a, 200b, 200c. Der Computer 110 kann dazu programmiert sein, die TTC für jedes der Objekte 200a, 200b, 200c auf Grundlage (i) der Geschwindigkeit des Fahrzeugs 100 und der Bewegungsrichtung und (ii) einer Geschwindigkeit und Bewegungsrichtung des jeweiligen der Objekte 200a, 200b, 200c zu bestimmen. In einem Beispiel kann der Computer 110 dazu programmiert sein, ein erweitertes Bild 320a, 320b zu blinken, wenn bestimmt wird, dass eine einem jeweiligen Objekt 200a, 200b, 200c zugeordnete TTC unter einem vorher festgelegten Schwellenwert, z. B. 3 Sekunden, liegt.
  • In dem vorliegenden Kontext bezieht sich eine „Umgebungsbedingung“ auf einen Messwert eines Phänomens außerhalb und in unmittelbarer Nähe des Fahrzeugs, z. B. eine Verkehrsdichte, eine Straßenart und Sichtverhältnisse, wie nachstehend unter Bezugnahme auf die Tabellen 1-3 erörtert. Die „physischen Attribute“ eines Objekts 200a, 200b, 200c und/oder des Fahrzeugs 100 beinhalten eine Geschwindigkeit, einen Standort, eine Beschleunigung und/oder eine Bewegungsrichtung usw.
  • Wie vorstehend erörtert, handelt es sich bei einem erweiterten Bild um ein generiertes Bild, das in der HMI 140 angezeigt werden kann. Demnach beziehen sich die Abmessungen und/oder die Bewegung des erweiterten Bildes im vorliegenden Kontext auf das erweiterte Bild, das auf der HMI 140 des Fahrzeugs 100 angezeigt wird, wie unter Bezugnahme auf die 3A-3B erörtert. Eine Bewegung des erweiterten Bildes ist eine Bewegung des erweiterten Bildes, wie es über die HMI 140 angezeigt wird, relativ zu einem aufgezeichneten Bild, z. B. einer Realweltansicht der Kamera und/oder des Spiegels des Fahrzeugs 100, die durch die HMI 140 gezeigt wird. Abmessungen des erweiterten Bildes können in Einheiten von Pixeln, Zentimetern usw. definiert sein. Die Abmessungen des erweiterten Bildes können eine Höhe, Tiefe, Breite usw. beinhalten. Zusätzlich oder alternativ kann sich eine Änderung der Dimensionen und/oder der Bewegung des erweiterten Bildes auf ein erweitertes Bild beziehen, das auf eine HMI 140, z. B. einen Spiegel, projiziert wird, wie unter Bezugnahme auf 5 erörtert.
  • 2 veranschaulicht das Fahrzeug 100 und mehrere Objekte 200a, 200b, 200c auf einer Straße die mehrere Fahrstreifen, z.B. die Fahrstreifen 210a, 210b, 210c, aufweist. Die Objekte 200a, 200b, 200c können Landfahrzeuge wie etwa Autos, Motorräder, Fahrräder, Trucks usw. beinhalten. In jedem der Fahrstreifen 210a, 210b, 210c kann sich eine beliebige Anzahl an Objekten 200a, 200b, 200c befinden. Das Beispiel aus 2 zeigt die Fahrstreifen 210a, 210b, 210c in einer Richtung. 2 zeigt die Objekte 200a, 200b, 200c hinter dem Fahrzeug 100 in derselben Richtung. Zusätzlich oder alternativ können sich die Objekte 200a, 200b, 200c vor dem Fahrzeug 100 befinden und/oder relativ zu einer Bewegungsrichtung des Fahrzeugs 100 in eine entgegengesetzte Richtung fahren. Die Straße kann bidirektional sein, d. h. eines oder mehrere der Objekte 200a, 200b, 200c können sich in eine entgegengesetzte Richtung relativ zum Fahrzeug 100 bewegen.
  • 2 zeigt Abstände d1 , d2 , d3 des Fahrzeugs 100 zu den Objekten 200a, 200b, 200c in Längsrichtung. Ein Abstand in Längsrichtung ist im vorliegenden Kontext ein Abstand entlang einer Längsrichtung eines Fahrstreifens zwischen einem Bezugspunkt 150 des Fahrzeugs 100 und einem Bezugspunkt 150 des Objekts 200a, 200b, 200c. Der Computer 110 kann dazu programmiert sein, die physischen Attribute der Objekte 200a, 200b, 200c, wie etwa die Abstände d1 , d2 , d3 , auf Grundlage von Daten zu bestimmen, die von den Sensoren 130 des Fahrzeugs 100 empfangen werden. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Abstände zwischen dem Bezugspunkt 150 des Fahrzeugs 100 und den Bezugspunkten 150 der Objekte 200a, 200b, 200c zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, eine Geschwindigkeit v1 , v2 , v3 und/oder eine Beschleunigung a1 , a2 , a3 des jeweiligen Objekts 200a, 200b, 200c auf Grundlage von Daten, die von den Sensoren 130 des Fahrzeugs 100 empfangen werden, und/oder von Daten, die über das F-zu-F-Kommunikationsnetzwerk empfangen werden, zu bestimmen. Darüber hinaus kann der Computer 110 zusätzlich oder alternativ dazu programmiert sein, eine Amplitude und eine Richtung der Geschwindigkeit und/oder Beschleunigung des Fahrzeugs 100 zu bestimmen. Anders ausgedrückt kann der Computer 110 dazu programmiert sein, einen Vektor zu bestimmen, der eine Amplitude und/oder eine Richtung der Geschwindigkeit und/oder Beschleunigung des Fahrzeugs 100 beinhaltet. Beispielsweise sind, wie in 2 gezeigt, die Geschwindigkeit v2 und die Beschleunigung a2 des Objekts 200b in Richtung des Fahrstreifens 210 ausgerichtet, was einen geplanten Fahrstreifenwechsel des Objekts 200b angeben kann.
  • Ein Fahrstreifenwechsel des Fahrzeugs 100 kann ein Kollisionsrisiko mit einem Objekt 200a, 200b, 200c verursachen. Ein Kollisionsrisiko kann beispielsweise (i) dadurch entstehen, dass das Objekt 200b und das Fahrzeug 100 in den Fahrstreifen 210a wechseln, (ii) durch eine Beschleunigung des Objekts 200c, während das Fahrzeug 100 in den Fahrstreifen 210c wechselt, entstehen usw. Das Risiko ist im hier verwendeten Sinne des Ausdrucks ein Wert, z. B. durch eine Zahl definiert, der ein Kollisionsrisiko mit einem anderen Objekt 200a, 200b, 200c angibt. Das Risiko kann als numerischer Prozentwert zwischen 0 % und 100 % definiert sein. In einem anderen Beispiel kann das Risiko einer von einer Vielzahl einzelner Kategorien zugewiesen sein, wie etwa einem „geringen“, „mittleren“ und „hohen“ Risiko.
  • Die 3A-3B zeigen beispielhafte Hybridbilder 300a, 300b, die erweiterte Bilder 320a, 320b beinhalten, die durch die HMI 140 des Fahrzeugs 100 ausgegeben werden. Unter Bezugnahme auf 3A kann der Computer 110 dazu programmiert sein, das Bild 300a auszugeben, das die Objektdarstellungen 310a, 310b, 310c der Objekte 200a, 200b, 200c beinhaltet. Der Computer 110 kann dazu programmiert sein, das Objekt 200a auf Grundlage des Risikos auszuwählen, das die detektierten Objekte 200a, 200b, 200c jeweils darstellen, um ein erweitertes Bild 320a zu generieren, und das generierte Bild 320a über die Objektdarstellung 310a des Objekts 200a zu legen. Somit kann der Computer 110 dazu programmiert sein, ein Hybridbild (d. h. eine erweiterte Realität) zu generieren, das aufgezeichnete Bilder eines Bereichs um das Fahrzeug 100, z. B. eines Bereichs hinter dem Fahrzeug, in dem sich die Objekte 200a, 200b, 200c befinden, und generierte Bilder, z. B. das Bild 320a, beinhaltet. Weiter unten wird unter Bezugnahme auf die Verläufe aus 6 und die Tabellen 1-3 erörtert, wie der Computer 110 dazu programmiert sein kann, das Risiko zu bestimmen und eines oder mehrere Objekte 200a, 200b, 200c für die erweiterte Realität, d.h. für das Darüberlegen eines generierten Bildes, auszuwählen. Eine Objektdarstellung 310a, 310b, 310c ist im vorliegenden Kontext eine Darstellung eines Objekts 200a, 200b, 200c in einem Bild 300a, 300b, d. h. eine Objektdarstellung 310 beinhaltet üblicherweise einen Teilsatz von Pixeln in einem Bild 300, das die Objektdarstellung beinhaltet.
  • Das erweiterte Bild 320a kann ein Dreieck (siehe 3A) und/oder eine Form, einen Schatten, ein Beleuchtungsmuster, ein Hintergrundmuster, ein transparentes Wasserzeichenbild usw. beinhalten. Die erweiterten Bilder weisen eine oder mehrere Farben auf. Zusätzlich oder alternativ kann das erweiterte Bild, wie in 3B gezeigt, ein modifiziertes Bild des ausgewählten Objekts 200a, 200b, 200c sein. Beispielsweise kann der Computer 110 dazu programmiert sein, ein Risiko zu bestimmen, welches das detektierte Objekt 200c darstellt, und die Abmessungen des detektierten Objekts 200a, 200b, 200c in dem erweiterten Bild zumindest teilweise auf Grundlage des bestimmten Risikos anzupassen. Anders ausgedrückt kann das erweiterte Bild ein angepasstes Bild des ausgewählten Objekts 200a, 200b, 200c beinhalten. 3B zeigt ein beispielhaftes erweitertes Bild 320b, bei dem es sich um ein „übergroßes“ Bild des Objekts 200b handelt. Der Computer 110 kann dazu programmiert sein die Abmessungen d4 , d5 (siehe 3A) des Objekts 200b anzupassen (z.B. zu vergrößern), indem sie zu angepassten Abmessungen d6 , d7 geändert werden. In einem Beispiel kann der Computer 110 dazu programmiert sein, die Abmessungen d4 , d5 zu den Abmessungen d6 , d7 zu ändern. Der Computer 110 kann die Abmessungen des ausgewählten Objekts 200b auf Grundlage des bestimmten Risikos anpassen, wie nachstehend unter Bezugnahme auf die Tabellen 1-3 erörtert. In einem Beispiel können die Abmessungen d6, d7 des erweiterten Bildes 320b proportional zu dem bestimmten Risiko angepasst werden, welches das Objekt 200b darstellt. Der Computer 110 kann dazu programmiert sein, mit dem Vergrößern der Abmessungen d6 , d7 zu beginnen, wenn bestimmt wird, dass das dem Objekt 200b zugeordnete Risiko einen Schwellenwert, z. 50 %, überschreitet, und die Abmessungen d6 , d7 proportional zu einer Zunahme des Risikos zu vergrößern. In einem Beispiel können die Abmessungen d6 , d7 um einen Faktor von bis zu zwei von den Abmessungen d4 , d5 vergrößert werden.
  • Der Computer 110 kann dazu programmiert sein, ein Risiko zu bestimmen, welches das detektierte Objekt 200a, 200b, 200c darstellt, und die Bewegung des erweiterten Bildes 320a, 320b des detektierten Objekts 200a, 200b, 200c durch Blinken des Bildes 320a, 320b mit einer Frequenz anzupassen. Die Frequenz kann auf Grundlage des bestimmten Risikos bestimmt werden. Eine „Bewegung“ des erweiterten Bildes 320, 320b beinhaltet im vorliegenden Kontext ein Blinken und/oder einen beliebigen wiederkehrenden optischen Effekt des erweiterten Bildes 320a, 320b. 4 zeigt einen beispielhaften Verlauf der Blinkfrequenz auf Grundlage des bestimmten Risikos. Der Computer 110 kann dazu programmiert sein, die Blinkfrequenz auf Grundlage des Verlaufs und des bestimmten Risikos zu bestimmen und auf Grundlage der bestimmten Frequenz zu blinken. „Blinken“ bedeutet im vorliegenden Kontext ein Wechseln zwischen einem darübergelegten und einem entfernten Zustand für das erweiterte Bild 320a, 320b. In einem Beispiel, das bei Operation (1) gezeigt ist, kann der Computer 110 dazu programmiert sein, das generierte Bild dauerhaft darüberzulegen (d. h. kein Blinken), wenn das bestimmte Risiko unter einem ersten Risikoschwellenwert rth1 , z. B. 50 %, liegt, und das erweiterte Bild 320a, 320b mit einer beispielhaften Maximalfrequenz, z. B. 60 Hz (Hertz), zu blinken, wenn bestimmt wird, dass das Risiko einen zweiten Risikoschwellenwert rth2 überschreitet. f r e q = { 0,   w e n n  Risiko r t h 1 60,   w e n n  Risiko > r t h 2 60 * Risiko r t h 1 r t h 2 r t h 1 ,   w e n n  Risiko > r t h 1   u n d  Risiko r t h 2
    Figure DE102019106048A1_0001
  • Wie vorstehend erörtert, kann das erweiterte Bild 320a, 320b in einem Hybridbild enthalten sein, das durch HMI 140 ausgegeben und/oder auf ein aufgezeichnetes Realweltbild, z. B. einen Spiegel, projiziert wird. Unter Bezugnahme auf 5 kann die Anzeigevorrichtung, z. B. die HMI 140, einen Spiegel 400 mit einer reflektierenden Fläche 440 beinhalten. Die HMI 140 kann außerdem einen Projektor 410 mit einem Projektionsfeld 470, das zumindest einen Teil der reflektierenden Fläche 440 des Spiegels 400 abdeckt, beinhalten. Der Projektor 410 kann vor (wie in 5 gezeigt) oder hinter dem Spiegel 400 montiert sein. Der Computer 110 kann dazu programmiert sein, das erweiterte Bild 460 auf den Spiegel 400 zu projizieren. Das erweiterte Bild 460 wird über ein reflektiertes Bild 450 eines detektierten Objekts 200a, 200b, 200c im Spiegel 400 gelegt. Der Computer 110 kann dazu programmiert sein, einen Projektor 410 zu betätigen, um das erweiterte Bild 460 auf das reflektierte Bild 450 zu projizieren.
  • Der Computer 110 kann dazu programmiert sein, einen Standort des reflektierten Bildes 450 auf der Fläche 440 des Spiegels 400 zu ermitteln, z. B. auf Grundlage von Daten, die vom Kamerasensor 130 des Fahrzeugs 100 empfangen werden, und das erweiterte Bild 460 am ermittelten Standort des reflektierten Bildes 450 zu projizieren.
  • Der Computer 110 kann dazu programmiert sein, das erweiterte Bild 460 zumindest teilweise auf Grundlage eines Standorts und/oder einer Richtung des Projektors 410 relativ zum Spiegel 400 zu projizieren. Unter Verwendung geometrischer Techniken, wie etwa Triangulation, kann der Computer 110 dazu programmiert sein, den Projektor 410 auf Grundlage des Standorts und/oder der Richtung des Projektors 410 relativ zum Spiegel 400 und des Standorts des reflektierten Bildes 450 auf der HMI 140 zu betätigen.
  • Der Computer 110 kann dazu programmiert sein, den Standort, z. B. eines Mittelpunkts, des reflektierten Bildes 450 auf dem Spiegel 400 zu ermitteln, z. B. in Einheiten von Pixeln. Der ermittelte Standort des reflektierten Bildes 450 kann in einem zweidimensionalen kartesischen Koordinatensystem auf Grundlage eines Bezugspunkts, z. B. einer unteren linken Ecke des Spiegels 400, definiert sein. Außerdem kann der Computer 110 dazu programmiert sein, dreidimensionale Standortkoordinaten des Projektors 410 und die Richtung des Projektors 410 in einem Speicher des Computers 110 zu speichern. Zusätzlich oder alternativ kann das Fahrzeug 100 einen Sensor 130 beinhalten, der z. B. den Spiegel 400 an eine Karosserie des Fahrzeugs 100 koppelt und der einen Winkel des Spiegels 400 relativ zum Projektor 410 und/oder zur Karosserie des Fahrzeugs 100 ermittelt. Demnach kann der Computer 110 dazu programmiert sein, den Winkel (oder die Ausrichtung) des Projektors 410 relativ zum Spiegel 400 bei Anpassung des Spiegels 400, z. B. durch einen Insassen des Fahrzeugs 100, zu bestimmen.
  • Wie vorstehend unter Bezugnahme auf die 3A-3B erörtert, wird mindestens eines von den Abmessungen und der Bewegung des erweiterten Bildes 320a, 320b auf Grundlage eines physischen Attributs des detektierten Objekts 200a, 200b, 200c angepasst, einschließlich einer Geschwindigkeit, einer Beschleunigung, eines Standorts und/oder einer Richtung des detektierten Objekts. In einem Beispiel kann der Computer 110 dazu programmiert sein, das Risiko auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators zu bestimmen und das erweiterte Bild 320a, 320b zumindest teilweise auf Grundlage des bestimmten Risikos, das ein Objekt 200a, 200b, 200c darstellt, zu generieren und/oder anzupassen. Unter Bezugnahme auf 6 kann der Computer 110 dazu programmiert sein, das Risiko auf Grundlage beispielhafter Operationen (2), (3), (4) zu bestimmen, die in beispielhaften Verläufen 610, 620, 630 in 6 veranschaulicht sind. Anders ausgedrückt kann es sich bei den Risikoklassifikatoren um die Verläufe 610, 620, 630 handeln. Zusätzlich oder alternativ können die Risikoklassifikatoren mathematische Operationen, Tabellen usw. beinhalten, die in einem Speicher des Computers 110 gespeichert sind. Der Computer 110 kann dazu programmiert sein, ein Beschleunigungsrisiko aRisk, ein Geschwindigkeitsrisiko vRisk und ein Abstandsrisiko dRisk auf Grundlage eines Abstands d, einer relativen Geschwindigkeit v und einer relativen Beschleunigung a (relativ zu einem jeweiligen Objekt 200a, 200b, 200c) und beispielhafter Schwellenwerte zu bestimmen, wie nachstehend erörtert. d R i s k = { 0,   w e n n   d d t h 1 100 % w e n n   d > d t h 2 100 % * d d t h 1 d t h 2 d t h 1 ,   w e n n   d > d t h 1   u n d   d r t h 2
    Figure DE102019106048A1_0002
    v R i s k = { 100 % ,   w e n n   v v t h 1 0 w e n n  v > v t h 2 100 % * ( v v t h 1 v t h 2 v t h 1 ) ,   w e n n   v > v t h 1   u n d  v v t h 2
    Figure DE102019106048A1_0003
    a R i s k = { 0,   w e n n  a a t h 1 100 % w e n n  a > a t h 2 100 % * ( 1 a a t h 1 a t h 2 a t h 1 ) ,   w e n n  a > a t h 1   u n d  a a t h 2
    Figure DE102019106048A1_0004
  • Wie in dem beispielhaften Verlauf 610 in 6 gezeigt, kann der Computer 110 dazu programmiert sein, ein Abstandsrisiko dRisk (oder ein Risiko aufgrund von Annäherung) für jedes der Objekte 200a, 200b, 200c zu bestimmen. Der Computer 110 kann dazu programmiert sein, ein Abstandsrisiko dRisk von 100% zu bestimmen, wenn bestimmt wird, dass ein Abstand d1 , d2 , d3 zu einem Objekt 200a, 200b, 200c unter einem ersten Abstandsschwellenwert dth1 , z.B. 20 Metern, liegt. Der Computer 110 kann dazu programmiert sein, ein Nichtvorliegen eines Abstandsrisikos dRisk zu bestimmen, wenn bestimmt wird, dass der Abstand d1 , d2 , d3 zu einem Objekt 200a, 200b, 200c über einem zweiten Abstandsschwellenwert dth2 , z. B. 75 Metern, liegt.
  • Wie in dem beispielhaften Verlauf 620 in 6 gezeigt, kann der Computer 110 dazu programmiert sein, ein Geschwindigkeitsrisiko vRisk (oder ein Risiko aufgrund einer relativen Geschwindigkeit) für jedes der Objekte 200a, 200b, 200c zu bestimmen. Der Computer 110 kann dazu programmiert sein, ein Geschwindigkeitsrisiko vRisk von 100% zu bestimmen, wenn bestimmt wird, dass eine relative Geschwindigkeit des Fahrzeugs 100 zu einem Objekt 200a, 200b, 200c unter einem ersten Geschwindigkeitsschwellenwert vthi, z.B. 5 Kilometern pro Stunde (km/h), liegt. Die relative Geschwindigkeit kann mit einem positiven numerischen Wert definiert sein, wenn ein Abstand d1 , d2 , d3 des Fahrzeugs 100 zum Objekt 200a, 200b, 200c zunimmt, und mit einem negativen numerischen Wert, wenn der Abstand d1 , d2 , d3 abnimmt, d. h. sich das Fahrzeug 100 und das jeweilige Objekt 200a, 200b, 200c einander annähern. Somit kann der erste Geschwindigkeitsschwellenwert vthi alternativ eine negative Zahl sein, z. B. -5 km/h. Der Computer 110 kann dazu programmiert sein, ein Nichtvorliegen eines Geschwindigkeitsrisikos vRisk, das ein Objekt 200a, 200b, 200c darstellt, zu bestimmen, wenn bestimmt wird, dass die relative Geschwindigkeit des Fahrzeugs 100 zum jeweiligen Objekt 200a, 200b, 200c über einem zweiten Geschwindigkeitsschwellenwert vth2 , z.B. 10 km/h, liegt.
  • Wie in dem beispielhaften Verlauf 630 in 6 gezeigt, kann der Computer 110 dazu programmiert sein, ein Beschleunigungsrisiko aRisk (oder ein Risiko aufgrund einer relativen Beschleunigung) für jedes der Objekte 200a, 200b, 200c zu bestimmen. Der Computer 110 kann dazu programmiert sein, ein Beschleunigungsrisiko aRisk von 100% zu bestimmen, wenn bestimmt wird, dass eine relative Beschleunigung des Fahrzeugs 100 zu einem Objekt 200a, 200b, 200c unter einem ersten Beschleunigungsschwellenwert athi, z.B. 0,1 Metern pro Quadratsekunde (m/s2), liegt. Die relative Beschleunigung kann mit einem positiven numerischen Wert definiert sein, wenn eine relative Geschwindigkeit des Fahrzeugs 100 zum Objekt 200a, 200b, 200c zunimmt, und mit einem negativen numerischen Wert, wenn die relative Geschwindigkeit des Fahrzeugs 100 zum Objekt 200a, 200b, 200c abnimmt. Somit kann der erste Beschleunigungsschwellenwert ath1 alternativ eine negative Zahl sein, z. B. -0,2 m/s2. Der Computer 110 kann dazu programmiert sein, ein Nichtvorliegen eines Beschleunigungsrisikos zu bestimmen, wenn bestimmt wird, dass die relative Beschleunigung des Fahrzeugs 100 zu einem Objekt 200a, 200b, 200c über einem zweiten Beschleunigungsschwellenwert ath2 , z. B. 0,3 m/s2, liegt.
  • Der Computer 110 kann dazu programmiert sein, das Risiko, das ein Objekt 200a, 200b, 200c darstellt, auf Grundlage des bestimmten Abstandsrisikos, Beschleunigungsrisikos und/oder Geschwindigkeitsrisikos zu bestimmen. Beispielsweise kann der Computer 110 dazu programmiert sein, das Risiko auf Grundlage der Operation (5) zu bestimmen. Wie Operation (2) zeigt, kann der Computer 110 dazu programmiert sein einen Minimalwert von 100 % und einer Summe des bestimmten Abstandsrisikos dRisk, Geschwindigkeitsrisikos vRisk und Beschleunigungsrisikos aRisk, die ein Objekt 200a, 200b, 200c darstellt, zu bestimmen. R i s i k o = M i n { d R i s k + v R i s k + a R i s k ,100 % }
    Figure DE102019106048A1_0005
  • Der Computer 110 kann dazu programmiert sein, das erweiterte Bild 320a, 320b auf Grundlage des bestimmten Risikos auszugeben. In einem Beispiel kann der Computer 110 dazu programmiert sein, ein oder mehrere Objekte 200a, 200b, 200c auszuwählen, wenn bestimmt wird, dass ein Risiko, welches das jeweilige Objekt 200a, 200b, 200c darstellt, einen vorher festgelegten Risikoschwellenwert, z. B. 50 %, überschreitet, und ein oder mehrere erweiterte Bilder 320, 320b auf Grundlage der ausgewählten Objekte 200a, 200b, 200c auszugeben. Beispielsweise kann der Computer 110 unter Bezugnahme auf die 2 und 3A dazu programmiert sein, das Objekt 200a auszuwählen, wenn bestimmt wird, dass das Risiko, welches das Objekt 200a darstellt, den Risikoschwellenwert überschreitet, und das erweiterte Bild 320a auszugeben, das über die Objektdarstellung 310a in einem Bild 300 des ausgewählten Objekts 200a gelegt wird. Zusätzlich oder alternativ kann der Computer 110 unter Bezugnahme auf die 2 und 3B dazu programmiert sein, eine oder mehrere Abmessungen des erweiterten Bildes 320b auf Grundlage des bestimmten Risikos, welches das Objekt 200b darstellt, anzupassen, wie vorstehend erörtert.
  • Zusätzlich oder alternativ kann der Computer 110, wie unter Bezugnahme auf die 3A-3B erörtert, dazu programmiert sein, eine Bewegung des erweiterten Bildes 460 auf Grundlage des bestimmten Risikos anzupassen. Beispielsweise kann der Computer 110 dazu programmiert sein, eine Blinkfrequenz des erweiterten Bildes 460 auf Grundlage des bestimmten Risikos anzupassen.
  • Wie vorstehend erörtert, wird zumindest eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung angepasst. Der Computer 110 kann dazu programmiert sein, einen Multiplikationsfaktor auf Grundlage der Umgebungsbedingung zu bestimmen, ein kompensiertes Risiko auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos zu bestimmen und die Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos anzupassen. Tabelle 1
    Straßenart Erster Multiplikationsfaktor (amp1)
    Wohngebiet 1,0
    Orts straße 1,0
    Autobahnkreuz 1,3
    Ländliche
    Autobahn 1,2
    Stadtautobahn 1,3
    Fernstraße 1,2
  • Unter Bezugnahme auf Tabelle 1, die beispielhafte Multiplikationsfaktoren bereitstellt, kann der Computer 110 dazu programmiert sein, einen ersten Multiplikationsfaktor amp1 auf Grundlage der Straßenart zu bestimmen, auf der sich das Fahrzeug 100 befindet. Beispielsweise kann der Computer 110 dazu programmiert sein, den ersten Multiplikationsfaktor amp1 von 1,3 zu bestimmen, wenn bestimmt wird, dass sich das Fahrzeug 100 auf einer Stadtautobahn bewegt. Der Computer 110 kann dazu programmiert sein, die Straßenart auf Grundlage von Daten zu bestimmen, die von einem GPS-Sensor 130 (allgemeinem Positionsbestimmungssystem) des Fahrzeugs 100, einem Kamerasensor 130 des Fahrzeugs 100 usw. empfangen werden. Tabelle 2
    Zweiter Multiplikationsfaktor
    Verkehrsdichte (amp2)
    Gering 1,0
    Mittel 1,2
    Hoch 1,4
  • Unter Bezugnahme auf Tabelle 2, die beispielhafte Multiplikationsfaktoren bereitstellt, kann der Computer 110 dazu programmiert sein, einen zweiten Multiplikationsfaktor amp2 auf Grundlage der Verkehrsdichte am Standort des Fahrzeugs 100 zu bestimmen. Beispielsweise kann der Computer 110 dazu programmiert sein, den zweiten Multiplikationsfaktor amp2 von 1,4 zu bestimmen, wenn bestimmt wird, dass sich das Fahrzeug 100 in einem Bereich mit hoher Verkehrsdichte bewegt. Der Computer 110 kann dazu programmiert sein, die Straßenart auf Grundlage von Daten zu bestimmen, die von den Sensoren 130 des Fahrzeugs 100, dem F-zu-F-Kommunikationsnetzwerk usw. empfangen werden. Bei einer Verkehrsdichte handelt es sich im vorliegenden Kontext um eine Anzahl an Objekten 200a, 200b, 200c in einer vorher festgelegten Nähe (z. B. 250 Metern) zum Fahrzeug 100. Tabelle 3
    Dritter Multiplikationsfaktor
    Sichtverhältnisse (amp3)
    Schlechte Sichtverhältnisse 1,4
    Mittlere Sichtverhältnisse 1,2
    Normale Sichtverhältnisse 1,0
  • Unter Bezugnahme auf Tabelle 3, die beispielhafte Multiplikationsfaktoren bereitstellt, kann der Computer 110 dazu programmiert sein, einen dritten Multiplikationsfaktor amp3 auf Grundlage der Sichtverhältnisse am Standort des Fahrzeugs 100 zu bestimmen. Bei den Sichtverhältnissen handelt es sich im vorliegenden Kontext um einen Bereich um das Fahrzeug 100, innerhalb dessen Objekte 200a, 200b, 200c detektiert werden können, z. B. durch einen Sensor 130 des Fahrzeugs 100. Beispielsweise können die Bereiche von „weniger als 100 Metern“, „zwischen 100 und 400 Metern“ und „mehr als 400 Metern“ „schlechten“, „mittleren“ und „guten“ Sichtverhältnissen zugeordnet sein. Beispielsweise kann der Computer 110 dazu programmiert sein, den dritten Multiplikationsfaktor amp3 von 1,2 zu bestimmen, wenn bestimmt wird, dass sich das Fahrzeug 100 in einem Bereich mit „mittleren“ Sichtverhältnissen bewegt. Der Computer 110 kann dazu programmiert sein, die Sichtverhältnisse auf Grundlage von Daten zu bestimmen, die über das F-zu-F-Kommunikationsnetzwerk, den/die Sensor(en) 130 des Fahrzeugs 100 usw. empfangen werden.
  • Der Computer 110 kann dazu programmiert sein, auf Grundlage des bestimmten ersten, zweiten und dritten Multiplikationsfaktors amp1 , amp2 , amp3 einen Multiplikationsfaktor zu bestimmen. In einem Beispiel kann der Computer 110 dazu programmiert sein, den Multiplikationsfaktor amp auf Grundlage der Operation (6) zu bestimmen. Wie Operation (6) zeigt, kann der Computer 110 dazu programmiert sein, den Multiplikationsfaktor amp durch Ermitteln eines Maximalwerts des ersten, zweiten und dritten Multiplikationsfaktors amp1 , amp2 , amp3 zu bestimmen. a m p = M a x ( a m p 1 , a m p 2 , a m p 3 )
    Figure DE102019106048A1_0006
  • Der Computer 110 kann dazu programmiert sein, das kompensierte Risiko auf Grundlage des bestimmten Risikos und des bestimmten Multiplikationsfaktors amp zu bestimmen. Der Computer 110 kann dazu programmiert sein, die erweiterten Bilder auf Grundlage des bestimmten kompensierten Risikos zu generieren und/oder anzupassen. Beispielsweise kann der Computer 110 dazu programmiert sein, Abmessungen d6 , d7 des erweiterten Bildes 450 und/oder die Blinkfrequenz des erweiterten Bildes 450 auf Grundlage des kompensierten Risikos anzupassen. Der Computer 110 kann dazu programmiert sein, eine Art des erweiterten Bildes auf Grundlage des bestimmten kompensierten Risikos auszuwählen. Beispielsweise kann der Computer 110 dazu programmiert sein, ein dreieckiges erweitertes Bild 320a zu generieren, wenn bestimmt wird, dass das kompensierte Risiko 80 % überschreitet. Unter Bezugnahme auf 5 kann der Computer 110 dazu programmiert sein, Abmessungen eines Bildes 450 eines Objekts 200b anzupassen, wenn bestimmt wird, dass das kompensierte Risiko des Objekts zwischen 50 % und 80 % liegt. Anders ausgedrückt kann der Computer 110 dazu programmiert sein, erweiterte Bilder 320a, 320b mit unterschiedlichen Formen, Schattierungen, Farben, Beleuchtungen usw. zu generieren, die auf Grundlage des kompensierten Risikos ausgewählt und/oder angepasst werden, das ein jeweiliges Objekt 200a, 200b, 200c darstellt.
  • VERARBEITUNG
  • Die 7A-7B veranschaulichen gemeinsam ein Ablaufdiagramm eines beispielhaften Prozesses 700 zum Generieren von erweiterter Realität. Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, die Blöcke des Prozesses 700 auszuführen.
  • Unter Bezugnahme auf 7A beginnt der Prozess 700 bei einem Block 705, bei dem der Computer 110 Daten empfängt, z. B. Daten der Sensoren 130, eine Umgebungsbedingung usw.
  • Als Nächstes bestimmt der Computer 110 bei einem Entscheidungsblock 710, ob ein Objekt 200a, 200b, 200c detektiert wird. Wenn der Computer 110 ein Objekt 200a, 200b, 200c detektiert, geht der Prozess 700 zu einem Block 715 über; andernfalls kehrt der Prozess 700 zu Entscheidungsblock 710 zurück
  • Bei Block 715 bestimmt der Computer 110 physische Attribute des detektierten Objekts 200a, 200b, 200c. Der Computer 110 kann dazu programmiert sein, einen Abstand d, eine Geschwindigkeit v, eine Beschleunigung a des detektierten Objekts 200a, 200b, 200c relativ zum Standort, zur Geschwindigkeit und zur Beschleunigung des Fahrzeugs 100 zu bestimmen. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, Abmessungen des detektierten Objekts 200a, 200b, 200c zu ermitteln.
  • Als Nächstes bestimmt der Computer 110 bei einem Block 720 ein Risiko, welches das/die detektierte(n) Objekt(e) 200a, 200b, 200c jeweils darstellen. Der Computer 110 kann dazu programmiert sein, zunächst ein Abstandsrisiko dRisk, ein Geschwindigkeitsrisiko vRisk und/oder ein Beschleunigungsrisiko aRisk zu bestimmen, welche die detektierten Objekte 200a, 200b, 200c jeweils darstellen, und anschließend auf Grundlage des bestimmten Abstandsrisikos dRisk, Geschwindigkeitsrisikos vRisk und/oder Beschleunigungsrisikos aRisk ein Gesamt- oder aggregiertes Risiko zu bestimmen, welches das/die entsprechende(n) Objekt(e) 200a, 200b, 200c jeweils darstellen.
  • Als Nächstes bestimmt der Computer 110 bei einem Block 725 ein kompensiertes Risiko, welches das/die detektierte(n) Objekt(e) 200a, 200b, 200c jeweils darstellen. Der Computer 110 kann dazu programmiert sein, auf Grundlage der empfangenen Umgebungsbedingung Multiplikationsfaktoren amp1 , amp2 , amp3 zu bestimmen und das kompensierte Risiko, welches das/die Objekt(e) 200a, 200b, 200c jeweils darstellen, auf Grundlage der bestimmten Multiplikationsfaktoren amp1 , amp2 , amp3 und des bestimmten Risikos, welches das/die Objekt(e) 200a, 200b, 200c jeweils darstellen, zu bestimmen.
  • Als Nächstes bestimmt der Computer 110 bei einem Entscheidungsblock 730, ob ein oder mehrere der detektierten Objekte 200a, 200b, 200c zum Generieren von erweiterter Realität ausgewählt werden soll. Der Computer 110 kann dazu programmiert sein, ein Objekt 200a, 200b, 200c für erweiterte Realität auszuwählen, wenn bestimmt wird, dass das bestimmte kompensierte Risiko, welches das jeweilige Objekt 200a, 200b, 200c darstellt, einen Schwellenwert, z. B. 50 %, überschreitet. Wenn der Computer 110 bestimmt, dass mindestens ein Objekt 200a, 200b, 200c ausgewählt wird, dann geht der Prozess 700 zu einem Block 735 über; andernfalls kehrt der Prozess 700 zu Entscheidungsblock 710 zurück.
  • Bei Block 735 generiert der Computer 110 ein erweitertes Bild 320a, 320b, das jeweils einem des/der ausgewählten Objekts/Objekte 200a, 200b, 200c zugeordnet ist. Der Computer 110 kann dazu programmiert sein, eine Art, eine Abmessung usw. des erweiterten Bildes 320a, 320b auf Grundlage des bestimmten kompensierten Risikos usw., welches das Objekt 200a, 200b, 200c darstellt, zu bestimmen.
  • Im Anschluss an Block 735 geht der Prozess 700 zu einem Block 740 über, wie in 7B gezeigt. Bei Block 740 legt der Computer 110 die erweiterten Bilder 320a, 320b über die Objektdarstellungen 310a, 310b, 310c der Objekte 200a, 200b, 200c oder projiziert sie darauf. In einem Beispiel legt der Computer 110 die erweiterten Bilder 320a, 320b über das Bild 300a, 300b, das durch die HMI 140 ausgegeben wird. In einem anderen Beispiel projiziert der Computer 110 die erweiterten Bilder 320a, 320b auf die reflektierende Fläche 440 des Spiegels 400 der HMI 140.
  • Als Nächstes bestimmt der Computer 110 bei einem Entscheidungsblock 745, ob eine Bewegung des erweiterten Bildes 450 angebracht ist. Der Computer 110 kann dazu programmiert sein, zu bestimmen, ob eine optische Bewegung, z. B. Blinken, für eines oder mehrere der erweiterten Bilder 450 generiert werden soll. In einem Beispiel kann der Computer 110 dazu programmiert sein, eine Bewegung eines erweiterten Bildes 450 umzusetzen, wenn bestimmt wird, dass das Risiko (oder kompensierte Risiko), welches das dem erweiterten Bild 450 zugeordnete Objekt 200a, 200b, 200c darstellt, einen vorher festgelegten Schwellenwert rth2 überschreitet. Wenn der Computer 110 eine Bewegung für ein oder mehrere erweiterte Bilder 450 umsetzt, dann geht der Prozess 700 zu einem Block 750 über; andernfalls endet der Prozess 700 oder kehrt alternativ zu Block 705 zurück, wenngleich dies in den 7A-7B nicht gezeigt ist.
  • Bei einem Block 750 setzt der Computer 110 die Bewegung um, wie sie bei Block 745 für das erweiterte Bild 450 bestimmt wurde. Der Computer 110 kann dazu programmiert sein, eine Blinkfrequenz freq auf Grundlage des bestimmten Risikos zu bestimmen, welches das Objekt 200a, 200b, 200c darstellt, und ein Blinken des erweiterten Bildes 450 auf Grundlage der bestimmten Frequenz zu generieren.
  • Im Anschluss an Block 750 endet der Prozess 700 oder kehrt alternativ zu Block 705 zurück, wenngleich dies in den 7A-7B nicht gezeigt ist.
  • Rechenvorrichtungen, wie sie in dieser Schrift erörtert werden, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, und zum Ausführen von Blöcken oder Schritten vorstehend beschriebener Prozesse ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder ausgewertet werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -technologien erstellt wurden, einschließlich unter anderem und entweder für sich oder in Kombination Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse, durchgeführt werden. Derartige Anweisungen und andere Daten können unter Verwendung einer Vielfalt an computerlesbaren Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert ist.
  • Ein computerlesbares Medium beinhaltet ein beliebiges Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische und Magnetplatten und anderen dauerhaften Speicher. Flüchtige Medien beinhalten dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der üblicherweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer gelesen werden kann.
  • In Bezug auf die in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben wurden, derartige Prozesse jedoch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge durchgeführt werden als in der in dieser Schrift beschriebenen Reihenfolge. Es versteht sich außerdem, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt sind die Beschreibungen von Systemen und/oder Prozessen in der vorliegenden Schrift zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachfolgenden Ansprüche, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich. Der Schutzumfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Patentansprüche, die hier beigefügt sind und/oder in einer hierauf beruhenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Schutzumfang von Äquivalenten, zu denen derartige Patentansprüche berechtigt sind. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der in dieser Schrift erörterten Fachgebiete künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in derartige künftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Detektieren eines Objekts außerhalb eines Fahrzeugs; und Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  • Gemäß einer Ausführungsform beinhaltet die Umgebungsbedingung mindestens eines von Verkehrsdichte, einer Straßenart und Sichtverhältnissen.
  • Gemäß einer Ausführungsform beinhaltet die Anzeigevorrichtung einen Fahrzeugspiegel, wobei das Verfahren außerdem ein Projizieren des erweiterten Bildes auf den Fahrzeugspiegel beinhaltet, wobei das erweiterte Bild über ein reflektiertes Bild des detektierten Objekts im Spiegel gelegt wird.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Abmessungen des detektierten Objekts in dem erweiterten Bild auf Grundlage zumindest des bestimmten Risikos.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch ein Bestimmen des Risikos auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem durch Folgendes gekennzeichnet: Bestimmen eines Multiplikationsfaktors auf Grundlage der Umgebungsbedingung; Bestimmen eines kompensierten Risikos auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos; und Anpassen der Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Bewegung des Bildes des detektierten Objekts durch Blinken des Bildes mit einer Frequenz, wobei die Frequenz auf dem bestimmten Risiko beruht.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das einen Prozessor und einen Speicher aufweist, wobei im Speicher Anweisungen gespeichert sind, die durch den Prozessor ausgeführt werden können, um: ein Objekt außerhalb eines Fahrzeugs zu detektieren; und ein erweitertes Bild des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs auszugeben, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  • Gemäß einer Ausführungsform beinhaltet die Umgebungsbedingung mindestens eines von Verkehrsdichte, einer Straßenart und Sichtverhältnissen.
  • Gemäß einer Ausführungsform beinhaltet die Anzeigevorrichtung einen Fahrzeugspiegel und die Anweisungen beinhalten weitere Anweisungen zum Projizieren des erweiterten Bildes auf den Fahrzeugspiegel, wobei das erweiterte Bild über ein reflektiertes Bild des detektierten Objekts im Spiegel gelegt wird.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und zum Anpassen der Abmessungen des detektierten Objekts in dem erweiterten Bild auf Grundlage zumindest des bestimmten Risikos.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Bestimmen des Risikos auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum: Bestimmen eines Multiplikationsfaktors auf Grundlage der Umgebungsbedingung; Bestimmen eines kompensierten Risikos auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos; und Anpassen der Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und zum Anpassen der Bewegung des Bildes des detektierten Objekts durch Blinken des Bildes mit einer Frequenz, wobei die Frequenz auf dem bestimmten Risiko beruht.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das Folgendes aufweist: eine Einrichtung zum Detektieren eines Objekts außerhalb eines Fahrzeugs; und eine Einrichtung zum Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.

Claims (11)

  1. Verfahren, umfassend: Detektieren eines Objekts außerhalb eines Fahrzeugs; und Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
  2. Verfahren nach Anspruch 1, wobei die Umgebungsbedingung mindestens eines von Verkehrsdichte, einer Straßenart und Sichtverhältnissen beinhaltet.
  3. Verfahren nach Anspruch 1, wobei die Anzeigevorrichtung einen Fahrzeugspiegel beinhaltet, wobei das Verfahren außerdem ein Projizieren des erweiterten Bildes auf den Fahrzeugspiegel beinhaltet, wobei das erweiterte Bild über ein reflektiertes Bild des detektierten Objekts im Spiegel gelegt wird.
  4. Verfahren nach Anspruch 1, ferner umfassend ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Abmessungen des detektierten Objekts in dem erweiterten Bild auf Grundlage zumindest des bestimmten Risikos.
  5. Verfahren nach Anspruch 4, ferner umfassend ein Bestimmen des Risikos auf Grundlage des physischen Attributs des detektierten Objekts und eines Risikoklassifikators.
  6. Verfahren nach Anspruch 5, ferner umfassend: Bestimmen eines Multiplikationsfaktors auf Grundlage der Umgebungsbedingung; Bestimmen eines kompensierten Risikos auf Grundlage des bestimmten Multiplikationsfaktors und des bestimmten Risikos; und Anpassen der Abmessungen des Bildes des detektierten Objekts auf Grundlage des kompensierten Risikos.
  7. Verfahren nach Anspruch 1, ferner umfassend ein Bestimmen eines Risikos, welches das detektierte Objekt darstellt, und ein Anpassen der Bewegung des Bildes des detektierten Objekts durch Blinken des Bildes mit einer Frequenz, wobei die Frequenz auf dem bestimmten Risiko beruht.
  8. Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-7 auszuführen.
  9. Computerprogrammprodukt, umfassend ein computerlesbares Medium, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um das Verfahren nach einem der Ansprüche 1-7 auszuführen.
  10. Bodenfahrzeug, umfassend eine Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-7 auszuführen.
  11. System, umfassend: eine Einrichtung zum Detektieren eines Objekts außerhalb eines Fahrzeugs; und eine Einrichtung zum Ausgeben eines erweiterten Bildes des detektierten Objekts an eine Anzeigevorrichtung des Fahrzeugs, wobei mindestens eines von den Abmessungen und einer Bewegung des erweiterten Bildes auf Grundlage einer Umgebungsbedingung und eines physischen Attributs des detektierten Objekts angepasst wird, einschließlich mindestens eines von einer Geschwindigkeit, einer Beschleunigung, einem Standort und einer Richtung des detektierten Objekts.
DE102019106048.6A 2018-03-14 2019-03-08 Fahrzeuganzeige mit erweiterter realität Pending DE102019106048A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/920,845 US10699457B2 (en) 2018-03-14 2018-03-14 Vehicle display with augmented realty
US15/920,845 2018-03-14

Publications (1)

Publication Number Publication Date
DE102019106048A1 true DE102019106048A1 (de) 2019-09-19

Family

ID=67774587

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019106048.6A Pending DE102019106048A1 (de) 2018-03-14 2019-03-08 Fahrzeuganzeige mit erweiterter realität

Country Status (3)

Country Link
US (1) US10699457B2 (de)
CN (1) CN110271487A (de)
DE (1) DE102019106048A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10901416B2 (en) * 2018-07-19 2021-01-26 Honda Motor Co., Ltd. Scene creation system for autonomous vehicles and methods thereof
US10981507B1 (en) * 2019-11-07 2021-04-20 Focused Technology Solutions, Inc. Interactive safety system for vehicles
US11735051B2 (en) * 2020-03-27 2023-08-22 Toyota Research Institute, Inc. Detection of bicyclists near ego vehicles
US20230106692A1 (en) * 2021-10-06 2023-04-06 Gm Cruise Holdings Llc Reflective surface-based communications system for rideshare service vehicle
US11919451B2 (en) 2022-02-28 2024-03-05 Nissan North America, Inc. Vehicle data display system

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5786772A (en) * 1996-03-22 1998-07-28 Donnelly Corporation Vehicle blind spot detection display system
US7432800B2 (en) 2004-07-07 2008-10-07 Delphi Technologies, Inc. Adaptive lighting display for vehicle collision warning
EP2380348A4 (de) * 2008-12-19 2012-06-13 Delphi Tech Inc Elektronisches seitenansichts-anzeigesystem
DE102009015913B4 (de) 2009-03-25 2023-03-23 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Fahrzeug mit Spurwechselassistenzsystem
US8174375B2 (en) 2009-06-30 2012-05-08 The Hong Kong Polytechnic University Detection system for assisting a driver when driving a vehicle using a plurality of image capturing devices
KR102028720B1 (ko) * 2012-07-10 2019-11-08 삼성전자주식회사 위험 요소에 대한 정보를 디스플레이하는 투명 디스플레이 장치 및 그 방법
DE112013006943B4 (de) * 2013-04-12 2022-08-11 Toyota Jidosha Kabushiki Kaisha Fahrumgebungsbewertungssystem, Fahrumgebungsbewertungsverfahren, Fahrerassistenzvorrichtung und Fahrumgebungsanzeigevorrichtung
KR101478135B1 (ko) 2013-12-02 2014-12-31 현대모비스(주) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템
US9656606B1 (en) * 2014-05-30 2017-05-23 State Farm Mutual Automobile Insurance Company Systems and methods for alerting a driver to vehicle collision risks
JP6055865B2 (ja) * 2014-08-04 2016-12-27 富士重工業株式会社 走行環境危険度判定装置および走行環境危険度報知装置
US9409519B2 (en) * 2014-08-27 2016-08-09 Toyota Jidosha Kabushiki Kaisha Generating spatial information for a heads-up display
JP6776513B2 (ja) * 2015-08-19 2020-10-28 ソニー株式会社 車両制御装置と車両制御方法と情報処理装置および交通情報提供システム
US9878665B2 (en) 2015-09-25 2018-01-30 Ford Global Technologies, Llc Active detection and enhanced visualization of upcoming vehicles
US20170213273A1 (en) * 2016-01-26 2017-07-27 GM Global Technology Operations LLC Customer-centered transportation aggregator
US10331141B2 (en) * 2016-06-30 2019-06-25 GM Global Technology Operations LLC Systems for autonomous vehicle route selection and execution
US9884585B1 (en) * 2016-09-19 2018-02-06 Faraday & Future Inc. Exterior vehicle alerting system
US20180208195A1 (en) * 2017-01-20 2018-07-26 Pcms Holdings, Inc. Collaborative risk controller for vehicles using v2v
US11040726B2 (en) * 2017-12-15 2021-06-22 Baidu Usa Llc Alarm system of autonomous driving vehicles (ADVs)

Also Published As

Publication number Publication date
US10699457B2 (en) 2020-06-30
US20190287282A1 (en) 2019-09-19
CN110271487A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
DE102019106048A1 (de) Fahrzeuganzeige mit erweiterter realität
DE102013209415B4 (de) Dynamische Hinweisüberlagerung mit Bildbeschneidung
DE112018004561T5 (de) Fahrzeugfahrunterstützungssystem, fahrzeugfahrunterstützungsverfharen und fahrzeugfahrunterstützungsprogramm
EP3353013B1 (de) Projizieren eines vorgebbaren lichtmusters
EP3140813B1 (de) Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges
DE102012216623B4 (de) Verfahren zur dynamischen Informationsdarstellung auf einer Headup-Anzeige
DE102016123887A1 (de) Virtuelle sensordatenerzeugung zur radanschlagdetektion
DE102016210254A9 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
DE112018000862T5 (de) Vorrichtung und Verfahren zur Anzeige von Informationen
DE102014013155A1 (de) Bildanzeigesystem
DE102018124509A1 (de) Verfahren und Vorrichtung zur Steuerung eines Fahrzeugsitzes
DE102019108610A1 (de) Verbesserung des fahrzeugverhaltens unter verwendung von informationen aus anderen fahrzeugleuchten
DE102019131942A1 (de) Umfeldüberwachungseinrichtung
EP1642770A2 (de) Verfahren zur Lenkung der Aufmerksamkeit eines Fahrers eines Fahrzeugs auf Objekte in einem Bild
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
EP3685123A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur steuerung einer anzeige einer augmented-reality-head-up-display-vorrichtung für ein kraftfahrzeug
DE102020126155A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
WO2019042728A2 (de) Erfassen von verkehrsteilnehmern auf einem verkehrsweg
DE102015206546A1 (de) Fahrbahnmarkierungserkennungsvorrichtung
DE102015202863A1 (de) Verfahren und Vorrichtung zum verzerrungsfreien Anzeigen einer Fahrzeugumgebung eines Fahrzeuges
DE102021124810A1 (de) Neuronales fahrzeugnetzwerk
EP3978294A1 (de) Betreiben einer head-up-displayeinrichtung bei ausserhalb eines sichtfelds positionierten einblendbaren objekten
DE102018210812A1 (de) Verfahren zu einer sensor- und speicherbasierten Darstellung einer Umgebung, Anzeigevorrichtung und Fahrzeug mit der Anzeigevorrichtung
DE102021104763A1 (de) Fahrzeugsteuersystem
DE102019132019A1 (de) Fahrzeug und steuerverfahren dafür

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000