DE102018132369A1 - Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen - Google Patents

Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen Download PDF

Info

Publication number
DE102018132369A1
DE102018132369A1 DE102018132369.7A DE102018132369A DE102018132369A1 DE 102018132369 A1 DE102018132369 A1 DE 102018132369A1 DE 102018132369 A DE102018132369 A DE 102018132369A DE 102018132369 A1 DE102018132369 A1 DE 102018132369A1
Authority
DE
Germany
Prior art keywords
vehicle
composite image
images
host vehicle
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018132369.7A
Other languages
English (en)
Inventor
David Michael Herman
David A. Herman
David Joseph Orris
Nicholas Alexander Scheufler
Nunzio DeCia
Stephen Jay Orris Jr.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018132369A1 publication Critical patent/DE102018132369A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Es werden ein Verfahren und eine Vorrichtung für eine fahrzeugübergreifende Zusammenarbeit zur Selbstabbildung von Fahrzeugen offenbart. Ein beispielhaftes Fahrzeug beinhaltet ein fahrzeugübergreifendes Kommunikationsmodul und eine Infotainment-Haupteinheit. Die Infotainment-Haupteinheit bestimmt eine Pose des Fahrzeugs und sendet, als Reaktion auf das Empfangen einer Eingabe, ein zusammengesetztes Bild zu erzeugen, eine Anfrage nach Bildern des Fahrzeugs aus. Die Anfragenachricht beinhaltet die Pose. Die Infotainment-Haupteinheit erzeugt zudem auf Grundlage der Bilder das zusammengesetzte Bild des Fahrzeugs und zeigt das zusammengesetzte Bild auf einer Anzeige an.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft im Allgemeinen Fahrzeug-zu-Fahrzeug-Kommunikation und insbesondere die fahrzeugübergreifende Zusammenarbeit zur Selbstabbildung von Fahrzeugen.
  • ALLGEMEINER STAND DER TECHNIK
  • Menschen haben ein Interesse daran, ihr Leben über Bilder (mitunter auch als „Selfie“ bezeichnet) festzuhalten. Das Festhalten des Fahrerlebnisses, während sich der Fahrer in dem Fahrzeug befindet, erfordert jedoch traditionell mobile Ausrüstung wie etwa eine Drohne oder einen Helikopter und eine umfassende Planung. Fahrzeuge und stationäre Infrastrukturobjekte beinhalten zunehmend Kameras und andere Sensoren (wie etwa LIDAR usw.) und sind dazu in der Lage, durch fahrzeugübergreifende Kommunikation mit Fahrzeugen zu kommunizieren. Dieses fahrzeugübergreifende Kommunikationsnetzwerk wird mitunter als Fahrzeug-zu-Fahrzeug-(vehicle-to-vehicle - V2V-)Kommunikation und Fahrzeug-zu-Infrastruktur-(V2I-)Kommunikation bezeichnet (mitunter übergreifend als V2X-Kommunikation bezeichnet).
  • KURZDARSTELLUNG
  • Die beigefügten Patentansprüche definieren diese Anmeldung. Die vorliegende Offenbarung fasst Aspekte der Ausführungsformen zusammen und sollte nicht zum Einschränken der Patentansprüche verwendet werden. Andere Umsetzungen werden gemäß den hier beschriebenen Techniken in Betracht gezogen, wie für den Durchschnittsfachmann bei der Durchsicht der folgenden Zeichnungen und detaillierten Beschreibung ersichtlich wird, und diese Umsetzungen sollen innerhalb des Umfangs dieser Anmeldung liegen.
  • Es werden beispielhafte Ausführungsformen für eine fahrzeugübergreifende Zusammenarbeit zur Selbstabbildung eines Fahrzeuges offenbart. Ein beispielhaftes Fahrzeug beinhaltet ein fahrzeugübergreifendes Kommunikationsmodul und eine Infotainment-Haupteinheit. Die Infotainment-Haupteinheit bestimmt eine Pose des Fahrzeugs und sendet, als Reaktion auf das Empfangen einer Eingabe, ein zusammengesetztes Bild zu erzeugen, eine Anfrage nach Bildern des Fahrzeugs aus. Die Anfragenachricht beinhaltet die Pose. Die Infotainment-Haupteinheit erzeugt zudem auf Grundlage der Bilder das zusammengesetzte Bild des Fahrzeugs und zeigt das zusammengesetzte Bild auf einer Anzeige an.
  • Ein Verfahren zum Erzeugen eines Bildes eines Host-Fahrzeugs beinhaltet das Bestimmen einer Pose des Host-Fahrzeugs durch einen Prozessor des Host-Fahrzeugs. Das Verfahren beinhaltet ebenfalls, als Reaktion auf das Empfangen einer Eingabe, ein zusammengesetztes Bild zu erzeugen, das Aussenden einer Anfrage an Zielfahrzeuge nach Bildern des Host-Fahrzeugs über ein fahrzeugübergreifendes Kommunikationsmodul, wobei die Anfragenachricht die Pose beinhaltet. Zusätzlich beinhaltet das Beispielverfahren das Erzeugen des zusammengesetzten Bildes des Fahrzeugs auf Grundlage von Bildern mit dem Prozessor und das Anzeigen des zusammengesetzten Bildes auf einer Anzeige des Host-Fahrzeugs.
  • Figurenliste
  • Zum besseren Verständnis der Erfindung kann auf Ausführungsformen Bezug genommen werden, die in den folgenden Zeichnungen gezeigt sind. Die Komponenten in den Zeichnungen sind nicht zwingend maßstabsgetreu und zugehörige Elemente können weggelassen sein oder in einigen Fällen können Proportionen vergrößert dargestellt sein, um die hier beschriebenen neuartigen Merkmale hervorzuheben und eindeutig zu veranschaulichen. Des Weiteren können Systemkomponenten verschiedenartig angeordnet sein, wie auf dem Fachgebiet bekannt. Ferner sind in den Zeichnungen entsprechende Teile in den verschiedenen Ansichten durch gleiche Bezugszeichen bezeichnet.
    • 1 veranschaulicht ein Fahrzeug, das gemäß dieser Offenbarung betrieben wird.
    • 2 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle, um das zusammengesetzte Bild anzuzeigen und zu bearbeiten.
    • 3 ist ein Blockdiagramm elektronischer Komponenten des Fahrzeugs aus 1.
    • 4 ist ein Ablaufdiagramm eines Verfahrens zum Erstellen eines zusammengesetzten Bildes unter Verwendung von über fahrzeugübergreifende Kommunikation empfangenen Bildern, das durch die elektronischen Komponenten aus 3 umgesetzt werden kann.
  • DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER AUSFÜHRUNGSFORMEN
  • Wenngleich die Erfindung in verschiedenen Formen ausgeführt sein kann, sind in den Zeichnungen einige beispielhafte und nicht einschränkende Ausführungsformen gezeigt und nachfolgend beschrieben, wobei es sich versteht, dass die vorliegende Offenbarung als eine Erläuterung der Erfindung anhand von Beispielen anzusehen ist und damit nicht beabsichtigt wird, die Erfindung auf die konkreten veranschaulichten Ausführungsformen zu beschränken.
  • Fahrzeuge und Infrastrukturobjekte (z. B. Ampeln, Brücken, Polizeiüberwachungseinheiten, Laternenpfähle usw.) beinhalten zunehmend fahrzeugübergreifende Kommunikationsmodule, die eine Kommunikation zwischen Fahrzeugen, Infrastruktur und Fußgängern erleichtert. Diese Fahrzeuge und Infrastrukturobjekte beinhalten und/oder weisen zunehmend Hilfsleistungen durch Drittanbieter für Kameras (z. B. Farbkameras, Monochromkameras, Flugzeit-Kameras, Monokularkameras usw.) und andere Sensoren (z. B. LIDAR usw.) auf, die zum Aufnehmen von Bildern von nahegelegenen Objekten und Fahrzeugen zur Verfügung stehen. Die Kameras stellen jedoch selten Bilder von Objekten in einem Motiv bereit, das durch eine interessierte Partei gewünscht wird.
  • Wie vorstehend erörtert, fordert ein Insasse eines Fahrzeugs ein zusammengesetztes Bild des Fahrzeugs unter Verwendung einer Taste an einer Mensch-Maschine-Schnittstelle (humanmachine interface - HMI) wie etwa dem Infotainmentsystem des Fahrzeugs und/oder einer Anwendung (wie etwa FordPass) an, die auf einer mobilen Vorrichtung (z. B. ein Smartphone, eine Smartwatch usw.) ausgeführt wird. Als Reaktion auf die Anfrage sendet das Fahrzeug (mitunter auch als „Host-Fahrzeug“ bezeichnet) über ein fahrzeugübergreifendes Kommunikationsmodul (mitunter auch als ein „Fahrzeug-zu-Fahrzeug-(vehicle-to-vehicle - V2V-)Modul“ oder ein „dezidiertes Nahbereichskommunikations-(dedicated short range communication - DSRC-)Modul“ bezeichnet) Nachrichten aus, die fordern, dass andere Fahrzeuge (mitunter als „Zielfahrzeuge“ bezeichnet) und/oder zur fahrzeugübergreifenden Kommunikation fähige Infrastrukturmodule (mitunter auch als „straßenseitige Einheiten“ bezeichnet) eines oder mehrere Bilder des Host-Fahrzeugs aufnehmen und die eingefangenen Bilder an das Host-Fahrzeug schicken. Während diese Bilder empfangen werden, erzeugt das Host-Fahrzeug unter Verwendung eines Prozesses dreidimensionalen Motiv-Stitchings wie etwa einer Struktur-aus-Bewegung-Technik und/oder Sensorfusion schrittweise ein zusammengesetztes Bild. Das Host-Fahrzeug beurteilt die Qualität des zusammengesetzten Bildes auf Grundlage der empfangenen Bilder und schätzt auf Grundlage einer Rate, mit der das Fahrzeug die Bilder aus verschiedenen Sätzen von Winkeln, Abständen und/oder Höhen empfängt, die Zeit, in der das zusammengesetzte Bild fertiggestellt wird. In einigen Beispielen wird die geschätzte Zeit durch eine Bewegung des Fahrzeugs und die Verkehrsrate in dem Gebiet des Fahrzeugs beeinflusst. Die geschätzte Zeit wird für den Benutzer bereitgestellt. Wenn das zusammengesetzte Bild fertiggestellt ist (oder wenn der Insasse sich entscheidet, den Prozess zu stoppen), wird das zusammengesetzte Bild für den (bzw. die) Insassen beispielsweise auf einer Mittelkonsolenanzeige eines Infotainmentsystems angezeigt. Durch die HMI kann der Benutzer das zusammengesetzte Bild speichern (z. B. auf einem Speicher des Fahrzeugs, auf einem Cloud-Speicher usw.) und das zusammengesetzte Bild löschen. Die HMI erleichtert das Ändern der Zusammensetzung des zusammengesetzten Bildes (z. B. Ändern der Schwenkung, Neigung und/oder Kameraübersetzung usw.) und/oder des Hintergrunds des zusammengesetzten Bildes durch den Benutzer. Zusätzlich erleichtert das Infotainmentsystem in einigen Beispielen das Ändern (z. B. über vordefinierte visuelle Filter) und das Posten des zusammengesetzten Bildes in sozialen Medien. In einigen Beispielen erzeugt das Fahrzeug unter Verwendung von Verschiebungen (z. B. Ändern der Schwenkung, der Neigung, des Zooms usw.) und/oder mehrerer Wiederholungen des zusammengesetzten Bildes ein Video.
  • 1 veranschaulicht ein Fahrzeug 100, das gemäß dieser Offenbarung betrieben wird. Das Fahrzeug 100 kann ein standardmäßiges benzinbetriebenes Fahrzeug, ein Hybridfahrzeug, ein Elektrofahrzeug, ein Brennstoffzellenfahrzeug und/oder ein Fahrzeugtyp mit beliebiger anderer Antriebsart sein. Das Fahrzeug 100 kann eine beliebige Art von Kraftfahrzeug, wie etwa ein Auto, ein Truck, ein Sattelschlepper oder ein Motorrad usw., sein. Zusätzlich schleppt das Fahrzeug 100 in einigen Beispielen einen Anhänger (der, wie nachstehend erörtert, als ein Teil des Fahrzeugs 100 behandelt wird). Das Fahrzeug 100 beinhaltet Teile, die mit Mobilität in Verbindung stehen, wie etwa einen Antriebsstrang mit einem Motor, einem Getriebe, einer Aufhängung, einer Antriebswelle und/oder Räder usw. Das Fahrzeug 100 kann nichtautonom, teilautonom (z. B. werden einige routinemäßige Bewegungsfunktionen durch das Fahrzeug 100 gesteuert) oder autonom (z. B. werden Bewegungsfunktionen ohne direkte Fahrereingabe durch das Fahrzeug 100 gesteuert) sein. Das Fahrzeug kann während der Bildaufnahme stationär sein oder sich in Bewegung befinden. In dem veranschaulichten Beispiel beinhaltet das Fahrzeug 100 ein fahrzeugübergreifendes Kommunikationsmodul (inter-vehicle communication module - IVCM) 102, ein bordeigenes Kommunikationsmodul (on-board communication module - OBCM) 104 und eine Infotainment-Haupteinheit (infotainment head unit - IHU) 106.
  • Das fahrzeugübergreifende Kommunikationsmodul 102 beinhaltet (eine) Antenne(n), (ein) Radio(s) und Software, um Nachrichten auszusenden und eine Kommunikation zwischen dem Host-Fahrzeug 100 und den Zielfahrzeugen 108, den straßenseitigen Einheiten (nicht gezeigt) und mobilvorrichtungsbasierten Modulen (nicht gezeigt) herzustellen. Weitere Informationen über das fahrzeugübergreifende Kommunikationsnetzwerk und darüber, wie das Netzwerk mit Fahrzeughardware und -software kommunizieren kann, sind verfügbar im „Core System Requirements Specification (SyRS) Report“ des US-Verkehrsministeriums vom Juni 2011 (verfügbar unter http://www.its.dot.gov/meetings/pdf/CoreSystem_SE_SyRS_RevA%20(2011-06-13).pdf), der hiermit durch Bezugnahme in seiner Gesamtheit gemeinsam mit allen Unterlagen aufgenommen ist, die auf den Seiten 11 bis 14 des SyRS-Reports aufgeführt sind. Die fahrzeugübergreifenden Kommunikationssysteme können an Fahrzeugen und am Straßenrand an Infrastruktur installiert sein. Die fahrzeugübergreifenden Kommunikationssysteme, die in Infrastruktur (z. B. Ampeln, Straßenlaternen, Verkehrsüberwachungskameras usw.) integriert sind, sind als „straßenseitige(s)“ System oder Einheit bekannt. Fahrzeugübergreifende Kommunikation kann mit anderen Techniken kombiniert werden, wie etwa dem globalen Positionsbestimmungssystem (Global Position System - GPS), Visual Light Communications (VLC), Mobilfunkkommunikation und Nahbereichsradar, die unterstützen, dass die Fahrzeuge ihre Position, Geschwindigkeit, Richtung, relative Position zu anderen Objekten kommunizieren und Informationen mit anderen Fahrzeugen oder externen Computersystemen austauschen. Fahrzeugübergreifende Kommunikationssysteme können in andere Systeme wie etwa Mobiltelefone integriert sein.
  • In einigen Beispielen setzt das fahrzeugübergreifende Kommunikationsmodul 102 das Protokoll für dezidierte Nahbereichskommunikation (Dedicated Short Range Communication - DSRC) um. Gegenwärtig wird das DSRC-Netzwerk durch die Abkürzung oder Bezeichnung DSRC identifiziert. Mitunter werden jedoch andere Bezeichnungen verwendet, die sich üblicherweise auf ein Fahrzeugkonnektivitätsprogramm oder dergleichen beziehen. Die meisten dieser Systeme sind entweder reine DSRC oder eine Variation des WLAN-Standards IEEE 802.11. Jedoch sollen neben dem reinen DSRC-System auch dedizierte drahtlose Kommunikationssysteme zwischen Autos und einem straßenseitigen Infrastruktursystem abgedeckt sein, die mit GPS integriert sind und auf einem IEEE-802.11-Protokoll für drahtlose lokale Netzwerke (wie etwa 802.11p usw.) basieren.
  • Das bordeigene Kommunikationsmodul 104 beinhaltet drahtgebundene oder drahtlose Netzwerkschnittstellen, um eine Kommunikation mit externen Netzwerken zu ermöglichen. Das bordeigene Kommunikationsmodul 104 beinhaltet zudem Hardware (z. B. Prozessoren, Arbeitsspeicher, Datenspeicher, Antenne usw.) und Software, um die drahtgebundenen oder drahtlosen Netzwerkschnittstellen zu steuern. In dem veranschaulichten Beispiel beinhaltet das bordeigene Kommunikationsmodul 104 eine oder mehrere Kommunikationssteuerungen für standardbasierte Netzwerke (z. B. das Global System for Mobile Communications (GSM), Universal Mobile Telecommunications System (UMTS), Long Term Evolution (LTE), Code Division Multiple Access (CDMA), WiMAX (IEEE 802.16m); ein drahtloses lokales Netzwerk (einschließlich IEEE 802.11 a/b/g/n/ac oder andere) und Wireless Gigabit (IEEE 802.11ad) usw.). In einigen Beispielen beinhaltet das bordeigene Kommunikationsmodul 104 eine drahtgebundene oder drahtlose Schnittstelle (z. B. einen Hilfsanschluss, einen Universal-Serial-Bus(USB)-Anschluss, einen Bluetooth®-Drahtlosknoten usw.), um kommunikativ mit einer mobilen Vorrichtung (z. B. einem Smartphone, einer Smartwatch, einem Tablet usw.) verbunden zu sein. In derartigen Beispielen kann das Fahrzeug 100 über die gekoppelte mobile Vorrichtung mit dem externen Netzwerk kommunizieren. Das bzw. die externe(n) Netzwerk(e) kann bzw. können ein öffentliches Netzwerk wie etwa das Internet; ein privates Netzwerk wie etwa ein Intranet; oder Kombinationen davon sein und kann vielfältige Netzwerkprotokollen verwenden, die derzeit zur Verfügung stehen oder später entwickelt werden, einschließlich unter anderem TCP/IP-basierter Netzwerkprotokolle. In einigen Beispielen kommuniziert das Fahrzeug 100 über das bordeigene Kommunikationsmodul 104 mit einem externen Server, um Informationen (z. B. Wetter, Hintergrundbilder usw.) über einen aktuellen Standort des Fahrzeugs 100 zu empfangen. Beispielsweise kann das Fahrzeug 100 von einem externen Server Hintergrundbilder der Umgebung des Fahrzeugs 100 anfordern, um das durch das Fahrzeug 100 erzeugte zusammengesetzte Bild zu verbessern. In einigen Beispielen empfängt das Fahrzeug 100 von einem externen Server ein dreidimensionales Modell des Fahrzeugs 100, das mindestens teilweise verwendet wird, um in dem zusammengesetzten Bild zusätzliche Ansichtsperspektiven bereitzustellen, die in den empfangenen Bildern nicht aufgenommen sind.
  • Die Infotainment-Haupteinheit 106 stellt eine Schnittstelle zwischen dem Fahrzeug 100 und einem Benutzer bereit. Die Infotainment-Haupteinheit 106 beinhaltet digitale und/oder analoge Schnittstellen (z. B. Eingabevorrichtungen und Ausgabevorrichtungen), um eine Eingabe von dem Benutzer (den Benutzern) zu empfangen und Informationen anzuzeigen. Die Eingabevorrichtungen können zum Beispiel einen Steuerknopf, ein Armaturenbrett, eine Digitalkamera zur Bildaufnahme und/oder visuellen Befehlserkennung, einen Touchscreen, eine Audioeingabevorrichtung (z. B. ein Kabinenmikrofon), Tasten oder ein Touchpad beinhalten. Die Ausgabevorrichtungen können Kombiinstrumentenausgaben (z. B. Skalenscheiben, Beleuchtungsvorrichtungen), Aktoren, eine Blickfeldanzeige, eine Mittelkonsolenanzeige (z. B. eine Flüssigkristallanzeige (liquid crystal display - „LCD“), eine Anzeige mit organischen Leuchtdioden (organic light emitting diode - „OLED“), eine Flachbildschirmanzeige, eine Festkörperanzeige etc.) und/oder Lautsprecher beinhalten. In dem veranschaulichten Beispiel beinhaltet die Infotainment-Haupteinheit 106 Hardware (z. B. einen Prozessor oder eine Steuerung, einen Arbeitsspeicher, einen Datenspeicher usw.) und Software (z. B. ein Betriebssystem usw.) für ein Infotainmentsystem (wie etwa SYNC® und MyFord Touch® von Ford®, Entune® von Toyota®, IntelliLink® von GMC® usw.). Zusätzlich zeigt die Infotainment-Haupteinheit 106 das Infotainmentsystem beispielsweise auf der Mittelkonsolenanzeige an. In dem veranschaulichten Beispiel beinhaltet die Infotainment-Haupteinheit 106 eine Bildzusammensetzungseinheit 110.
  • Die Bildzusammensetzungseinheit 110 erzeugt als Reaktion auf eine Eingabe durch einen Fahrzeuginsassen ein zusammengesetztes Bild oder ein dreidimensionales Modell. Beispielsweise kann der Insasse eine virtuelle Taste auf dem Infotainmentsystem berühren, um das System einzuschalten. Um das Erzeugen des zusammengesetzten Bildes zu starten, bestimmt die Bildzusammensetzungseinheit 110 die Pose des Fahrzeugs 100. Die Pose des Fahrzeugs beinhaltet Informationen wie etwa Standort, Ausrichtung, Eigenschaften (z. B. Farbe, Marke, Modell usw.), die das Bestimmen der Position und Identifizieren des Host-Fahrzeugs 100 durch die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten erleichtern. Die Pose des Fahrzeugs 100 kann beispielsweise Koordinaten des globalen Positionsbestimmungssystems (global position system - GPS), die Fahrtrichtung und die Fahrzeugfarbe beinhalten. Die Bildzusammensetzungseinheit 110 sendet eine Anfragenachricht mit der Poseninformation aus, die die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten in der Umgebung dazu veranlasst, eines oder mehrere Bilder von dem Host-Fahrzeug 100 mit ihrer bzw. ihren Kamera(s) 112 aufzunehmen.
  • Während die Bildzusammensetzungseinheit 110 Bilder empfängt, bestimmt sie eine geschätzte Zeit, um das zusammengesetzte Bild zu erzeugen. Die Zeit basiert auf der Rate, mit der die Bildzusammensetzungseinheit 110 Bilder empfängt, darauf, wie verschieden die Bilder sind (z. B. in Bezug auf Abstand, Winkel und Höhe usw.) und/oder auf den geschätzten Verkehrsbedingungen in dem Gebiet usw. Die Bildzusammensetzungseinheit 110 veranlasst, dass eine Darstellung der geschätzten Zeit auf dem Infotainmentsystem angezeigt wird. Zusätzlich berücksichtigt die geschätzte Zeit in einigen Beispielen die Bildverarbeitung, um Bilder aus verschiedenen Quellen anzugleichen, die unterschiedliche visuelle Merkmale (z. B. unterschiedliche Auflösungen, Farbausgleiche, Helligkeiten, Farbschemata usw.) aufweisen. Zusätzlich wird die geschätzte Zeit in einigen Beispielen durch eine Bildqualitätspräferenz (z. B. Auflösung, Größe usw.) beeinflusst, die durch den Benutzer festgelegt ist. Fall ein Benutzer beispielsweise ein Bild mit hoher Qualität (wie etwa 12 Megapixel) wünscht, kann die Bildzusammensetzungseinheit 110 eine längere Zeit schätzen, da Bilder mit geforderter hoher Qualität voraussichtlich mit einer niedrigeren Rate als Bilder mit niedriger Qualität (wie etwa 1 Megapixel) empfangen werden.
  • Die Bildzusammensetzungseinheit 110 bestimmt unter Verwendung der empfangenen Bilder die Position des Host-Fahrzeugs 100 in dem Motiv auf Grundlage der Fahrzeugpose und der geschätzten Ausrichtung der entsprechenden Kamera 112, die die Bilder aufgenommen hat. Die Bildzusammensetzungseinheit 110 verwendet Merkmalerfassungstechniken (z.B. eine skalveninvariante Merkmaltransformation-(scale-invariant feature transform - SIFT-)Technik, eine Technik mit beschleunigten robusten Merkmalen (speeded up robust features - SURF), Faltungsneuronennetz zur semantischen Segmentierung oder Merkmalerfassung, visuelle simultane Positionsbestimmung und Kartenerstellung (visual simultaneous localization and mapping - vSLAM) usw.) und/oder Bildsegmentierung, um Merkmale in den Bildern zu vergleichen und gegenüberzustellen, um den ungefähren Vektor, die ungefähre Position und Ausrichtung der Kameras 112 zu bestätigen, die die Bilder aufgenommen haben. In einigen Beispielen werden verfügbare hochauflösende Bilder des Gebiets und eine dreidimensionale Kartenerstellung des Motivs (z. B. von einem externen Server usw.) auf Grundlage der Position des Host-Fahrzeugs 100 verwendet, um bei der räumlichen Festlegung der Kameras 112 in Bezug auf das Host-Fahrzeug 100 zu helfen. Unter Verwendung von semantischer Segmentierung aktueller Bilder und früherer Datensammlungen können transitorische Objekte aus dem bzw. den Motiv(en) auf Wunsch entfernt werden, um es der Bildzusammensetzungseinheit 110 zu ermöglichen, frühere und gegenwärtige empfangene Bilder zu verwenden, um das zusammengesetzte Bild zu erzeugen. Unter Verwendung einer Struktur der Bewegungstechnik werden Merkmalpunkte des Host-Fahrzeugs 100 in den empfangenen Bildern identifiziert. Die Bildzusammensetzungseinheit 110 verwendet das Positionieren der Merkmalpunkte und ein dreidimensionales Modell des Host-Fahrzeugs 100, um mindestens Teile der Bilder zusammenzufügen, um ein zusammengesetztes Bild des Host-Fahrzeugs 100 zu erzeugen. Beispielstrukturen aus Bewegungstechniken werden in Crandall, David J., et al. „SfM with MRFs: Discrete-continuous optimization for large-scale structure from motion.“ IEEE transactions on pattern analysis and machine intelligence 35.12 (2013): 2841-2853 beschrieben, das durch Bezugnahme in seiner Gesamtheit aufgenommen ist.
  • Die Bildzusammensetzungseinheit 110 bestimmt, ob genügend Bilder empfangen wurden, um ein zusammengesetztes Bild zu erzeugen. In einigen Beispielen wurden genügend Bilder empfangen, wenn Bilder vorliegen, um einen sichtbaren Winkel des Host-Fahrzeugs 100 fertigzustellen. Die Bildzusammensetzungseinheit 110 wird weiter die Anfragenachricht aussenden, wenn nicht genügend Bilder empfangen wurden. In einigen Beispielen benachrichtigt die Bildzusammensetzungseinheit 110 den Benutzer, dass das Bild nicht fertiggestellt werden kann, wenn innerhalb eines Zeitraumschwellenwerts nicht genügend Bilder empfangen wurden.
  • Wenn das zusammengesetzte Bild fertiggestellt ist, zeigt die Bildzusammensetzungseinheit 110 das zusammengesetzte Bild über das Infotainmentsystem und/oder eine mobile Vorrichtung des Benutzers an, die kommunikativ an das Fahrzeug 100 gekoppelt ist. In einigen Beispielen zeigt die Bildzusammensetzungseinheit 110 das zusammengesetzte Bild an, während es erzeugt wird, sodass ein Benutzer den Fortschritt des zusammengesetzten Bildes sehen kann, während neue Bilder empfangen und verarbeitet werden. In einigen Beispielen, unter Verwendung des in Schichten auf das Modell des Host-Fahrzeugs 100 gelegten zusammengesetzten Bildes, erleichtert die Bildzusammensetzungseinheit 110 das Ändern der Zusammensetzung des zusammengesetzten Bildes (z. B. Winkel einer virtuellen Kamera usw.). In einigen Beispielen, unter Verwendung von Bildern von einem externen Server, erleichtert die Bildzusammensetzungseinheit 110 das Ändern eines Hintergrunds des zusammengesetzten Bildes durch einen Benutzer. Wenn das Host-Fahrzeug 100 beispielsweise an einem malerischen Aussichtspunkt geparkt ist, kann die Bildzusammensetzungseinheit 110 ein Hintergrundbild zur Verwendung in dem zusammengesetzten Bild herunterladen. In derartigen Beispielen kann die Bildzusammensetzungseinheit 110 ein verfügbares Hintergrundbild auswählen, das den malerischen Aussichtspunkt an einem sonnigen Tag darstellt, wenn das tatsächliche Wetter bewölkt ist. Zusätzlich verwendet die Bildzusammensetzungseinheit 110 in einigen Beispielen einen Tiefen-Fotostiltransfer, um das Motiv in dem zusammengesetzten Bild abzuändern. Alternativ kann die Bildzusammensetzungseinheit 110 in einigen Beispielen das zusammengesetzte Bild auf den externen Server hochladen, um das zusammengesetzte Bild verarbeiten zu lassen, um die Umgebung des Motivs zu ändern.
  • 2 veranschaulicht eine beispielhafte Mensch-Maschine-Schnittstelle (human machine interface - HMI) 200 zum Anzeigen und Bearbeiten des zusammengesetzten Bildes 202. In einigen Beispielen wird die HMI 200 auf einer Konsole der Infotainment-Haupteinheit 106 angezeigt. Zusätzlich oder alternativ wird die HMI 200 in einigen Beispielen auf einem Bildschirm einer mobilen Vorrichtung über eine Anwendung angezeigt, die auf der mobilen Vorrichtung ausgeführt wird. In dem veranschaulichten Beispiel interagiert der Benutzer über eine Touchscreen-Schnittstelle mit der HMI 200. Die HMI 200 stellt das zusammengesetzte Bild 202 wie durch eine virtuelle Kamera erzeugt dar, die verwendet wird, um die Rendering-Parameter des zusammengesetzten Bildes 202 zu definieren. In einigen Beispielen, unter Verwendung eines dreidimensionalen Modells des Fahrzeugs 100, erzeugt die Bildzusammensetzungseinheit 110 ein dreidimensionales Motiv, wobei die auf das Modell gesetzten empfangenen Bilder und, in einigen Beispielen, die heruntergeladenen Bilder als ein Hintergrund für das Motiv dienen sollen. Die HMI 200 erleichtert das Ändern des Motivs (z. B. Ändern des Standorts der virtuellen Kamera, der Zusammensetzung des Hintergrunds usw.) durch den Benutzer. In dem veranschaulichten Beispiel beinhaltet die HMI 200 ein Zoomwerkzeug 204, ein Schwenkwerkzeug 206, ein Werkzeug 208 zur Einstellung der Bildzusammensetzung und ein Social-Media-Werkzeug 210.
  • Das Zoomwerkzeug 204 erleichtert ein Ändern der Ansichtsentfernung durch Ändern der Position der virtuellen Kamera. Das Schwenkwerkzeug 206 erleichtert das Ändern einer Ausrichtung eines Darstellungsbereichs der virtuellen Kamera durch den Benutzer, um den Teil des Motivs zu ändern, der durch das zusammengesetzte Bild 202 gerendert wird. Das Werkzeug 208 zum Einstellen der Bildzusammensetzung (a) stellt einen Zeitraum ein, aus dem Bilder in dem zusammengesetzten Bild verwendet werden und/oder (b) stellt einen Zeitraum ein, aus dem Bilder verwendet werden, um ein Video des Motivs zu erzeugen. Wenn sich das Fahrzeug 100 beispielsweise bewegt, kann das Werkzeug 208 zum Einstellen der Bildzusammensetzung verwendet werden, um einen Zeitraum festzulegen, aus dem empfangene Bilder verwendet werden, um einen aufeinanderfolgenden Satz zusammengesetzter Bilder 202 zu erzeugen, die aneinander angefügt werden sollen, um ein Video zu bilden. Das Social-Media-Werkzeug erleichtert das Hochladen des zusammengesetzten Bildes 202 auf soziale Medien und/oder das Anwenden von Filtern nach dem Rendern auf das zusammengesetzte Bild 202.
  • 3 ist ein Blockdiagramm elektronischer Komponenten 300 des Fahrzeugs 100 aus 1. In dem veranschaulichten Beispiel beinhalten die elektronischen Komponenten 300 das fahrzeugübergreifende Kommunikationsmodul 102, das bordeigene Kommunikationsmodul 104, die Infotainment-Haupteinheit 106 und einen Fahrzeugdatenbus 302.
  • In dem veranschaulichten Beispiel beinhaltet die Infotainment-Haupteinheit 106 einen Prozessor oder eine Steuerung 304 und einen Speicher 306. In dem veranschaulichten Beispiel ist die Infotainment-Haupteinheit 106 so strukturiert, dass sie die Bildzusammensetzungseinheit 110 beinhaltet. Alternativ kann in einigen Beispielen die Bildzusammensetzungseinheit 110 in eine andere elektronische Steuereinheit (electronic control unit - ECU) mit eigenem Prozessor und Speicher (wie etwa einer bordeigenen Rechenplattform usw.) integriert sein. Bei dem Prozessor oder der Steuerung 304 kann es sich um eine beliebige geeignete Verarbeitungsvorrichtung oder Reihe von Verarbeitungsvorrichtungen handeln, wie etwa unter anderem: einen Mikroprozessor, eine mikrocontrollerbasierte Plattform, eine geeignete integrierte Schaltung, einen oder mehrere feldprogrammierbare Gate-Arrays (field programmable gate array - FPGAs) und/oder eine oder mehrere anwendungsspezifische integrierte Schaltungen (application-specific integrated circuit - ASICs). Bei dem Speicher 306 kann es sich um flüchtigen Speicher (z. B. RAM, der nichtflüchtigen RAM, magnetischen RAM, ferroelektrischen RAM und beliebige andere geeignete Formen beinhalten kann), nichtflüchtigen Speicher (z. B. Plattenspeicher, FLASH-Speicher, EPROMs, EEPROMs, memristorbasierte nichtflüchtige Festkörperspeicher etc.), unveränderbaren Speicher (z. B. EPROMs), Festwertspeicher und/oder Speichervorrichtungen mit hoher Kapazität (z. B. Festplatten, Festkörperlaufwerke etc.) handeln. In einigen Beispielen beinhaltet der Speicher 306 mehrere Speicherarten, insbesondere flüchtige Speicher und nichtflüchtige Speicher.
  • Bei dem Speicher 306 handelt es sich um computerlesbare Medien, auf denen ein oder mehrere Sätze von Anweisungen, wie etwa die Software zum Ausführen der Verfahren der vorliegenden Offenbarung, eingebettet sein können. Die Anweisungen können eines oder mehrere der Verfahren oder eine Logik, wie hier beschrieben, verkörpern. In einer bestimmten Ausführungsform können sich die Anweisungen während der Ausführung der Anweisungen vollständig oder mindestens teilweise innerhalb eines beliebigen oder mehreren des Speichers 306, des computerlesbaren Mediums und/oder innerhalb des Prozessors 304 befinden.
  • Die Begriffe „nichttransitorisches computerlesbares Medium“ und „physisches computerlesbares Medium“ sind so zu verstehen, dass sie ein einzelnes Medium oder mehrere Medien beinhalten, wie etwa eine zentralisierte oder verteilte Datenbank und/oder damit assoziierte Zwischenspeicher und Server, auf denen ein oder mehrere Sätze von Anweisungen gespeichert sind. Die Begriffe „nichttransitorisches computerlesbares Medium“ und „physisches computerlesbares Medium“ beinhalten zudem jedes beliebige physische Medium, das zum Speichern, Verschlüsseln oder Tragen eines Satzes von Anweisungen in der Lage ist, die durch einen Prozessor ausgeführt werden oder ein System dazu veranlassen, ein oder mehrere der hier offenbarten Verfahren oder Vorgänge durchzuführen. Im hier verwendeten Sinne ist der Begriff „physisches computerlesbares Medium“ ausdrücklich so definiert, dass er jede beliebige Art von computerlesbarer Speichervorrichtung und/oder Speicherplatte beinhaltet und das Verbreiten von Signalen ausschließt.
  • Der Fahrzeugdatenbus 302 koppelt das fahrzeugübergreifende Kommunikationsmodul 102, das bordeigene Kommunikationsmodul 104 und die Infotainment-Haupteinheit 106 kommunikativ. In einigen Beispielen beinhaltet der Fahrzeugdatenbus 302 einen oder mehrere Datenbusse. Der Fahrzeugdatenbus 302 kann gemäß einem Controller-Area-Network-(CAN-)Bus-Protokoll laut der Definition der International Standards Organization (ISO) 11898-1 einem Media-Oriented-Systems-Transport-(MOST-)Bus-Protokoll, in einem CAN-Flexible-Data-(CAN-FD-)Bus-Protokoll (ISO 11898-7) und/oder einem K-Leitungs-Bus-Protokoll (ISO 9141 und ISO 14230-1) und/oder einem Ethernet™-Bus-Protokoll IEEE 802.3 (ab 2002) usw. umgesetzt sein.
  • 4 ist ein Ablaufdiagramm eines Verfahrens zum Erstellen eines zusammengesetzten Bildes 202 unter Verwendung von über fahrzeugübergreifende Kommunikation empfangenen Bildern, das durch die elektronischen Komponenten 300 aus 3 umgesetzt werden kann. Zunächst wartet die Bildzusammensetzungseinheit 110 an dem Block 402, bis eine Anfrage empfangen wurde, ein zusammengesetztes Bild 202 zu erzeugen (z. B. über das Infotainmentsystem). Wenn eine derartige Anfrage empfangen wurde, bestimmt die Bildzusammensetzungseinheit 110 an dem Block 404 die Eigenschaften des Host-Fahrzeugs 100, um eine raumbezogene Ausrichtung des Host-Fahrzeugs 100 zu bestimmen, die verwendet wird, um das Bestimmen des relativen Standorts des Host-Fahrzeugs 100 durch die Zielfahrzeuge 108 und/oder die straßenseitigen Einheiten zu erleichtern. An dem Block 406 sendet die Bildzusammensetzungseinheit 110 über fahrzeugübergreifende Kommunikation eine Nachricht aus, die Bilder anfordert. An dem Block 408 erstellt die Bildzusammensetzungseinheit auf Grundlage einer Struktur aus einem Bewegungsalgorithmus ein zusammengesetztes Bild 202 des Fahrzeugs 100 auf Grundlage der empfangenen Bilder. In einigen Beispielen verwendet die Bildzusammensetzungseinheit 110 eine Struktur von Bewegungstechniken.
  • An dem Block 410 bestimmt die Bildzusammensetzungseinheit 110, ob genügend Bilder empfangen worden sind. In einigen Beispielen bestimmt die Bildzusammensetzungseinheit 110 unter Verwendung eines Modells des Host-Fahrzeugs 100, welcher prozentuale Anteil der Fläche des Host-Fahrzeugs 100 unter Berücksichtigung der Pose des Fahrzeugs 100 in das zusammengesetzte Bild 202 zusammengefügt wird. Wenn der Standort des Host-Fahrzeugs 100 beispielsweise aufzeigt, dass das Host-Fahrzeug 100 derart entlang der Straße geparkt ist, dass eine Seite des Host-Fahrzeugs 100 wahrscheinlich nicht sichtbar ist, kann die Bildzusammensetzungseinheit 110 eine erwartete Abdeckung an diesem Standort verwenden, um zu bestimmen, ob genügend Bilder empfangen wurden. Wenn die Bildzusammensetzungseinheit 110 bestimmt, dass nicht genügend Bilder empfangen wurden, wird das Verfahren an dem Block 412 fortgesetzt. Wenn die Bildzusammensetzungseinheit 110 andernfalls bestimmt, dass genügend Bilder empfangen wurden, wird das Verfahren an dem Block 414 fortgesetzt.
  • An dem Block 412 stellt die Bildzusammensetzungseinheit 110 für die Insassen das teilweise fertiggestellte zusammengesetzte Bild 202 über das Infotainmentsystem dar. An dem Block 414 stellt die Bildzusammensetzungseinheit 110 für die Insassen das zusammengesetzte Bild 202 über das Infotainmentsystem und/oder eine mobile Vorrichtung (z. B. ein Smartphone, eine Smartwatch, ein Tablet usw.) dar, die über das bordeigene Kommunikationsmodul 104 kommunikativ mit dem Host-Fahrzeug 100 gekoppelt ist.
  • Das Ablaufdiagramm aus 4 ist repräsentativ für maschinenlesbare Anweisungen, die in einem Speicher (wie etwa dem Speicher 306 aus 3) gespeichert sind und ein oder mehrere Programme umfassen, die bei Ausführung durch einen Prozessor (wie etwa den Prozessor 304 aus 3) das Fahrzeug 100 dazu veranlassen, die beispielhafte Bildzusammensetzungseinheit 110 aus 1 und 3 umzusetzen. Obwohl das/die beispielhafte/n Programm(e) unter Bezugnahme auf das in 4 veranschaulichte Ablaufdiagramm beschrieben ist/sind, können ferner alternativ viele andere Verfahren zum Umsetzen der beispielhaften Bildzusammensetzungseinheit 110 verwendet werden. Beispielsweise kann die Ausführungsreihenfolge der Blöcke geändert werden und/oder können einige der beschriebenen Blöcke verändert, weggelassen oder kombiniert werden.
  • In dieser Anmeldung soll die Verwendung der Disjunktion die Konjunktion beinhalten. Die Verwendung von bestimmten oder unbestimmten Artikeln soll keine Kardinalität anzeigen. Insbesondere soll ein Verweis auf „das“ Objekt oder „ein“ Objekt auch eines aus einer möglichen Vielzahl derartiger Objekte bezeichnen. Ferner kann die Konjunktion „oder“ dazu verwendet werden, Merkmale wiederzugeben, die gleichzeitig vorhanden sind, anstelle von sich gegenseitig ausschließenden Alternativen. Anders ausgedrückt ist die Konjunktion „oder“ so aufzufassen, dass sie „und/oder“ beinhaltet. Im hier verwendeten Sinne beziehen sich die Begriffe „Modul“ und „Einheit“ auf Hardware mit Schaltkreisen zum Bereitstellen von Kommunikations-, Steuer- und/oder Überwachungsfunktionen, oftmals in Verbindung mit Sensoren. „Module“ und „Einheiten“ können zudem Firmware einschließen, welche auf dem Schaltkreis ausgeführt wird. Die Begriffe „beinhaltet“, „beinhaltend“ und „beinhalten“ sind einschließend und weisen jeweils den gleichen Umfang auf wie „umfasst“, „umfassend“ bzw. „umfassen“.
  • Die vorstehend beschriebenen Ausführungsformen und insbesondere etwaige „bevorzugte“ Ausführungsformen sind mögliche Beispiele für Umsetzungen und lediglich zum eindeutigen Verständnis der Grundsätze der Erfindung dargelegt. Viele Variationen und Modifikationen können an der bzw. den vorstehend beschriebenen Ausführungsform(en) vorgenommen werden, ohne wesentlich vom Geist und den Grundsätzen der hier beschriebenen Techniken abzuweichen. Sämtliche Modifikationen sollen hier im Umfang dieser Offenbarung beinhaltet und durch die folgenden Patentansprüche geschützt sein.
  • Gemäß der vorliegenden Erfindung wird ein Fahrzeug bereitgestellt, das ein fahrzeugübergreifendes Kommunikationsmodul und eine Infotainment-Haupteinheit beinhaltet, um eine Pose des Fahrzeugs zu bestimmen, als Reaktion auf das Empfangen einer Eingabe, ein zusammengesetztes Bild zu erzeugen, eine Anfrage nach Bildern des Fahrzeugs auszusenden, wobei die beinhaltende Anfragenachricht die Pose beinhaltet, das zusammengesetzte Bild des Fahrzeugs auf Grundlage der Bilder zu erzeugen und das zusammengesetzte Bild auf einer Anzeige anzuzeigen.
  • Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit, um das zusammengesetzte Bild des Fahrzeugs zu erzeugen, die Bilder unter Verwendung einer Struktur aus der Bewegungstechnik zusammenfügen.
  • Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit eine Zeit schätzen, um das zusammengesetzte Bild fertigzustellen.
  • Gemäß einer Ausführungsform basiert die Zeit, um das zusammengesetzte Bild fertigzustellen, auf vielfältigen Ansichten des Fahrzeugs in den Bildern und einer Rate, mit der die Bilder empfangen werden.
  • Gemäß einer Ausführungsform ist auf einem Speicher des Host-Fahrzeugs das dreidimensionale Modell des Fahrzeugs gespeichert.
  • Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit das zusammengesetzte Bild über das dreidimensionale Modell legen und über die Anzeige das Ändern eines Ansichtswinkels eines Motivs mit dem dreidimensionalen Modell erleichtern, um ein neues zusammengesetztes Bild zu erzeugen.
  • Gemäß einer Ausführungsform beinhaltet die Pose Koordinaten des Fahrzeugs, eine Ausrichtung des Fahrzeugs und mindestens eines von einer Farbe des Fahrzeugs oder einem Modell des Fahrzeugs.
  • Gemäß einer Ausführungsform soll die Infotainment-Haupteinheit das zusammengesetzte Bild anzeigen, wenn das zusammengesetzte Bild teilweise fertiggestellt ist, während die Bilder mit der Zeit empfangen werden.
  • Gemäß der vorliegende Erfindung beinhaltet ein Verfahren zum Erzeugen eines Bildes eines Host-Fahrzeugs das Bestimmen einer Pose des Host-Fahrzeugs durch einen Prozessor des Host-Fahrzeugs, das Aussenden einer Anfrage an Zielfahrzeuge nach Bildern des Host-Fahrzeugs über ein fahrzeugübergreifendes Kommunikationsmodul des Host-Fahrzeugs als Reaktion auf das Empfangen einer Eingabe, ein zusammengesetztes Bild zu erzeugen, das Erzeugen des zusammengesetzten Bildes des Host-Fahrzeugs auf Grundlage der Bilder mit dem Prozessor und das Anzeigen des zusammengesetzten Bildes auf einer Anzeige des Host-Fahrzeugs.
  • Gemäß einer Ausführungsform beinhaltet das Erzeugen des zusammengesetzten Bildes des Host-Fahrzeugs das Zusammenfügen der Bilder unter Verwendung einer Struktur aus der Bewegungstechnik.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren das Schätzen einer Zeit, um das Erzeugen des zusammengesetzten Bildes fertigzustellen.
  • Gemäß einer Ausführungsform basiert die Zeit, um das Erzeugen des Bildes fertigzustellen, auf vielfältigen Ansichten des Host-Fahrzeugs in den Bildern und einer Rate, mit der die Bilder empfangen werden.
  • Gemäß einer Ausführungsform ist auf einem Speicher des Host-Fahrzeugs ein dreidimensionales Modell des Host-Fahrzeugs gespeichert.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren das Legen des zusammengesetzten Bildes über das dreidimensionale Modell und das Erleichtern des Änderns eines Ansichtswinkels eines Motivs mit dem dreidimensionalen Modell über die Anzeige, um das neue zusammengesetzte Bild zu erzeugen.
  • Gemäß einer Ausführungsform beinhaltet die Pose Koordinaten des Host-Fahrzeugs, eine Ausrichtung des Host-Fahrzeugs und mindestens eines von einer Farbe des Host-Fahrzeugs oder einem Modell des Host-Fahrzeugs.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren das Anzeigen des zusammengesetzten Bildes, wenn das zusammengesetzte Bild teilweise fertiggestellt ist, während die Bilder mit der Zeit empfangen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • ISO 9141 [0026]
    • ISO 14230-1 [0026]

Claims (15)

  1. Fahrzeug, umfassend: ein fahrzeugübergreifendes Kommunikationsmodul; und eine Infotainment-Haupteinheit, um: eine Pose des Fahrzeugs zu bestimmen; als Reaktion auf das Empfangen einer Eingabe, das zusammengesetzte Bild zu erzeugen, eine Anfrage nach Bildern des Fahrzeugs auszusenden, wobei die Anfragenachricht die Pose beinhaltet; das zusammengesetzte Bild des Fahrzeugs auf Grundlage der Bilder zu erzeugen; das zusammengesetzte Bild auf einer Anzeige anzuzeigen.
  2. Fahrzeug nach Anspruch 1, wobei die Infotainment-Haupteinheit, um das zusammengesetzte Bild des Fahrzeugs zu erzeugen, die Bilder unter Verwendung einer Struktur aus der Bewegungstechnik zusammenfügt.
  3. Fahrzeug nach Anspruch 1, wobei die Infotainment-Haupteinheit eine Zeit schätzen soll, um das Erzeugen des zusammengesetzten Bildes fertigzustellen.
  4. Fahrzeug nach Anspruch 3, wobei die Zeit, um das Erzeugen des zusammengesetzten Bildes fertigzustellen, auf vielfältigen Ansichten in den Bildern und einer Rate basiert, mit der die Bilder empfangen werden.
  5. Fahrzeug nach Anspruch 1, wobei auf einem Speicher der Infotainment-Haupteinheit ein dreidimensionales Modell des Fahrzeugs gespeichert ist.
  6. Fahrzeug nach Anspruch 5, wobei die Infotainment-Haupteinheit Folgendes tun soll: das zusammengesetzte Bild über das dreidimensionale Modell legen; und über die Anzeige das Ändern eines Ansichtswinkels eines Motivs mit dem dreidimensionalen Modell erleichtern, um ein neues zusammengesetztes Bild zu erzeugen.
  7. Fahrzeug nach Anspruch 1, wobei die Pose Koordinaten des Fahrzeugs, eine Ausrichtung des Fahrzeugs und mindestens eines von einer Farbe des Fahrzeugs oder einem Modell des Fahrzeugs beinhaltet.
  8. Fahrzeug nach Anspruch 1, wobei die Infotainment-Haupteinheit das zusammengesetzte Bild anzeigen soll, wenn das zusammengesetzte Bild teilweise fertiggestellt ist, während die Bilder mit der Zeit empfangen werden.
  9. Verfahren zum Erzeugen eines Bildes eines Host-Fahrzeugs: Bestimmen einer Pose des Host-Fahrzeugs durch einen Prozessor des Host-Fahrzeugs; als Reaktion auf eine Eingabe, ein zusammengesetztes Bild zu erzeugen, Aussenden einer Anfrage an Zielfahrzeuge nach Bildern des Host-Fahrzeugs über ein fahrzeugübergreifendes Kommunikationsmodul, wobei die Anfragenachricht die Pose beinhaltet; Erzeugen des zusammengesetzten Bildes des Host-Fahrzeug, mit dem Prozessor, auf Grundlage der Bilder; Anzeigen des zusammengesetzten Bildes auf einer Anzeige des Host-Fahrzeugs.
  10. Verfahren nach Anspruch 9, wobei das Erzeugen des zusammengesetzten Bildes des Host-Fahrzeugs das Zusammenfügen der Bilder unter Verwendung einer Struktur aus der Bewegungstechnik beinhaltet.
  11. Verfahren nach Anspruch 9, das das Schätzen einer Zeit beinhaltet, um das Erzeugen des zusammengesetzten Bildes fertigzustellen.
  12. Verfahren nach Anspruch 11, wobei die Zeit, um das Erzeugen des zusammengesetzten Bildes fertigzustellen, auf vielfältigen Ansichten des Host-Fahrzeugs in den Bildern und einer Rate basiert, mit der die Bilder empfangen werden.
  13. Verfahren nach Anspruch 9, wobei auf einem Speicher des Host-Fahrzeugs ein dreidimensionales Modell des Host-Fahrzeugs gespeichert ist.
  14. Verfahren nach Anspruch 13, beinhaltend: Legen des zusammengesetzten Bildes über das dreidimensionale Modell; und Erleichtern des Änderns eines Ansichtswinkels eines Motivs mit dem dreidimensionalen Modell über die Anzeige, um ein neues zusammengesetztes Bild zu erzeugen.
  15. Verfahren nach Anspruch 9, wobei die Pose Koordinaten des Host-Fahrzeugs, eine Ausrichtung des Fahrzeugs und mindestens eines von einer Farbe des Fahrzeugs oder einem Modell des Fahrzeugs beinhaltet.
DE102018132369.7A 2017-12-18 2018-12-14 Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen Pending DE102018132369A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/846,152 US10600234B2 (en) 2017-12-18 2017-12-18 Inter-vehicle cooperation for vehicle self imaging
US15/846,152 2017-12-18

Publications (1)

Publication Number Publication Date
DE102018132369A1 true DE102018132369A1 (de) 2019-06-19

Family

ID=66674466

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018132369.7A Pending DE102018132369A1 (de) 2017-12-18 2018-12-14 Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen

Country Status (3)

Country Link
US (1) US10600234B2 (de)
CN (1) CN109936702A (de)
DE (1) DE102018132369A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021190777A1 (de) * 2020-03-25 2021-09-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und steuereinheit zur steuerung einer kamera

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10599140B2 (en) * 2018-02-22 2020-03-24 General Motors Llc System and method for mitigation of anomalous data in a connected vehicle system
EP3540710A1 (de) * 2018-03-14 2019-09-18 Honda Research Institute Europe GmbH Verfahren zur unterstützung des betriebs eines ego-fahrzeuges, verfahren zur unterstützung anderer verkehrsteilnehmer und entsprechende unterstützungssysteme und fahrzeuge
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
US10982962B2 (en) * 2018-09-17 2021-04-20 Ford Global Technologies, Llc V2X location accuracy enhancement
US10762650B1 (en) * 2019-09-13 2020-09-01 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for estimating depth using a monocular camera
JP2021103481A (ja) * 2019-12-25 2021-07-15 パナソニックIpマネジメント株式会社 運転支援装置、運転支援方法及びプログラム

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617490A (en) 1994-06-27 1997-04-01 Sanyo Electric Co., Ltd. Camera system with neural network compensator for measuring 3-D position
US5717390A (en) 1995-03-20 1998-02-10 Hasselbring; Richard E. Doppler-radar based automatic vehicle-classification system
JP3463612B2 (ja) * 1999-01-21 2003-11-05 日本電気株式会社 画像入力方法、画像入力装置及び記録媒体
US20020130953A1 (en) 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
US20030212567A1 (en) 2002-05-07 2003-11-13 Hitachi Ltd. Witness information service with image capturing and sharing
FR2853121B1 (fr) 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
JP4214841B2 (ja) 2003-06-11 2009-01-28 株式会社デンソー 周囲状況認識システム
JP2005209079A (ja) 2004-01-26 2005-08-04 Fujitsu Ten Ltd 車両走行支援装置
JP4546342B2 (ja) * 2005-07-07 2010-09-15 パナソニック株式会社 送信装置および送信方法
US7586489B2 (en) 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
US7999861B2 (en) * 2008-03-14 2011-08-16 Omron Corporation Image processing apparatus for generating composite image with luminance range optimized for a designated area
US8228380B2 (en) 2008-03-15 2012-07-24 International Business Machines Corporation Informing a driver or an owner of a vehicle of visible problems detected by outside video sources
DE102009031319A1 (de) 2009-06-30 2011-01-05 Siemens Aktiengesellschaft Verfahren und System zur Bestimmung einer Fahrzeugklasse
US10247575B2 (en) 2009-07-10 2019-04-02 Tomtom Telematics B.V. Accelerometer system and method
US10580088B2 (en) 2010-03-03 2020-03-03 The Western Union Company Vehicle travel monitoring and payment systems and methods
PT2450865E (pt) 2010-11-04 2013-04-18 Kapsch Trafficcom Ag Dispositivos e métodos de controlo móveis para veículos
US8473196B2 (en) 2011-02-11 2013-06-25 GM Global Technology Operations LLC Use of self and neighboring vehicle GPS/GNSS data to estimate current and approaching sky visibility changes
US20130103305A1 (en) 2011-10-19 2013-04-25 Robert Bosch Gmbh System for the navigation of oversized vehicles
US9762880B2 (en) 2011-12-09 2017-09-12 Magna Electronics Inc. Vehicle vision system with customized display
US9135754B2 (en) 2012-05-07 2015-09-15 Honda Motor Co., Ltd. Method to generate virtual display surfaces from video imagery of road based scenery
US9117371B2 (en) * 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance
US9558667B2 (en) 2012-07-09 2017-01-31 Elwha Llc Systems and methods for cooperative collision detection
US9311544B2 (en) 2012-08-24 2016-04-12 Jeffrey T Haley Teleproctor reports use of a vehicle and restricts functions of drivers phone
SI2757346T1 (sl) 2013-01-21 2016-08-31 Kapsch Trafficcom Ag Postopek merjenja višinskega profila vozila, ki pelje mimo po cesti
KR102087073B1 (ko) 2013-04-29 2020-03-10 팅크웨어(주) 차량용 영상 처리 장치 및 이를 이용한 데이터 공유 방법
TWI552897B (zh) 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
GB201312038D0 (en) 2013-07-04 2013-08-21 Jaguar Land Rover Ltd Trailer parameter identification system
US9784887B1 (en) 2013-08-12 2017-10-10 Physical Optics Corporation Meteorological sensing systems and methods
JP2015041969A (ja) 2013-08-23 2015-03-02 ソニー株式会社 画像取得装置及び画像取得方法、並びに情報配信システム。
TWI545523B (zh) 2013-08-30 2016-08-11 國立中央大學 影像形狀校正方法以及應用影像形狀校正方法之影像形狀校正裝置
US20150134675A1 (en) 2013-11-14 2015-05-14 Wells Fargo Bank, N.A. Context association
DE102014002540B4 (de) 2014-02-22 2018-08-30 Audi Ag Sicherheitseinrichtung für ein Kraftfahrzeug und zugehöriges Betriebsverfahren
WO2015140855A1 (ja) 2014-03-20 2015-09-24 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
US9440627B2 (en) 2014-05-28 2016-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for calculating trailer brake control parameters
KR101592740B1 (ko) 2014-07-24 2016-02-15 현대자동차주식회사 차량용 광각카메라의 영상 왜곡 보정 장치 및 방법
EP3026880B1 (de) 2014-11-25 2018-09-12 Application Solutions (Electronics and Vision) Ltd. Schadenserkennungs-Unterstützungssystem
WO2016093553A1 (ko) 2014-12-12 2016-06-16 서울대학교 산학협력단 이벤트 데이터를 수집하는 시스템, 이벤트 데이터를 수집하는 방법, 이벤트 데이터를 수집하는 서비스 서버 및 카메라
US9928544B1 (en) * 2015-03-10 2018-03-27 Amazon Technologies, Inc. Vehicle component installation preview image generation
KR101741433B1 (ko) * 2015-06-09 2017-05-30 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
US9595184B2 (en) 2015-06-16 2017-03-14 Muath Khalid ALMANSOUR System, method, and apparatus for incident reporting
US9477894B1 (en) 2015-09-04 2016-10-25 Ford Global Technologies, Llc System and method for measuring object height for overhead clearance detection
JP2017068640A (ja) 2015-09-30 2017-04-06 ヤマハ株式会社 車両間データ通信装置
KR101760312B1 (ko) 2015-11-30 2017-07-31 (주) 알티솔루션 도로교통안전 서비스를 위한 화물 적재상태 검지 시스템
US9424725B1 (en) 2016-01-04 2016-08-23 International Business Machines Corporation School perimeter security system
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US10360458B2 (en) 2016-04-13 2019-07-23 GM Global Technology Operations LLC Method of calculating dimensions of a towed vehicle
US10366290B2 (en) * 2016-05-11 2019-07-30 Baidu Usa Llc System and method for providing augmented virtual reality content in autonomous vehicles
US10412536B2 (en) 2016-06-23 2019-09-10 Minutepros.Com Corp. Providing secure service provider reverse auctions using certification identifiers, symmetric encryption keys and encrypted uniform resource locators
US10227032B2 (en) 2016-07-01 2019-03-12 Ford Global Technologies, Llc Vehicle headlamp alignment system and method
DE102016212181A1 (de) 2016-07-05 2018-01-11 Volkswagen Aktiengesellschaft Verfahren zur Bestimmung von Längen- und/oder Größenverhältnissen eines Anhängers
US10462445B2 (en) 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
JP2018063294A (ja) * 2016-10-11 2018-04-19 アイシン精機株式会社 表示制御装置
CN106683139B (zh) 2017-02-20 2023-09-26 南京航空航天大学 基于遗传算法的鱼眼相机标定系统及其图像畸变矫正方法
US10195994B2 (en) 2017-04-07 2019-02-05 GM Global Technology Operations LLC Vehicle side mirror automation
US10282166B2 (en) 2017-05-03 2019-05-07 The Reverie Group, Llc Enhanced control, customization, and/or security of a sound controlled device such as a voice controlled assistance device
CN107226087B (zh) 2017-05-26 2019-03-26 西安电子科技大学 一种结构化道路自动驾驶运输车及控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ISO 14230-1
ISO 9141

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021190777A1 (de) * 2020-03-25 2021-09-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und steuereinheit zur steuerung einer kamera

Also Published As

Publication number Publication date
CN109936702A (zh) 2019-06-25
US20190188901A1 (en) 2019-06-20
US10600234B2 (en) 2020-03-24

Similar Documents

Publication Publication Date Title
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102018122459B4 (de) Fahrzeugsystem, entferntes fahrzeugassistenzsystem und comuterimplementiertes verfahren zum bereitstellen von fernunterstützung
DE102018113872B4 (de) Autonome Parkverfahren und -systeme für autonome Fahrzeuge
DE102017105585A1 (de) Systeme und Verfahren zum Verbessern des Sichtfelds an Kreuzungen
DE102019114720A1 (de) Erweiterte realität (augmented reality - ar) entfernte fahrzeugassistenz
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102016123876A1 (de) Kolonnen-fahrzeug-vorausschau
DE102019104482A1 (de) Massen-abtastende punktwolkenkarte
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102019102716A1 (de) Fahrzeug-anhänger rückfahrsichtsystem und -verfahren
DE102018106353A1 (de) Vorübergehende datenzuordnungen zum betreiben von autonomen fahrzeugen
DE102017113572A1 (de) Spurerkennungssysteme und -verfahren
DE102019105307A1 (de) Dynamische merkmalsverfügbarkeitsabbildung für ein fahrzeug
DE102016115541A1 (de) System und verfahren zum autonomen valet-parken unter verwendung plenoptischer kameras
DE102018114600A1 (de) Systeme und verfahren zum reagieren auf einsatzfahrzeuge in einem autonomen fahrzeug
DE102018113258A1 (de) Fahrzeugortung und -führung
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren
DE102017211821A1 (de) Systeme und Verfahren zur Minimierung einer Fahrerablenkung von einem Head-Up Display (HUD) in einem Fahrzeug
DE102018120517A1 (de) Erfassen von Spurenbedingungen in adaptiven Geschwindigkeitsregelsystemen
DE112017006295T5 (de) Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs
DE102018120677A1 (de) Systeme und Verfahren für die Gleichmäßigkeitsanpassung der Fahrzeuggeschwindigkeitssteuerung
DE102017116713A1 (de) Systeme, verfahren und vorrichtungen zum wiedergeben in das fahrzeug integrierter medieninhalte auf grundlage von fahrzeugsensordaten
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
DE112017005385T5 (de) Bildverarbeitungseinrichtung und Bildverarbeitungsverfahren

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE