DE102020103673A1 - Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation - Google Patents

Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation Download PDF

Info

Publication number
DE102020103673A1
DE102020103673A1 DE102020103673.6A DE102020103673A DE102020103673A1 DE 102020103673 A1 DE102020103673 A1 DE 102020103673A1 DE 102020103673 A DE102020103673 A DE 102020103673A DE 102020103673 A1 DE102020103673 A1 DE 102020103673A1
Authority
DE
Germany
Prior art keywords
vehicle
synthesized
representation
detection
communication module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020103673.6A
Other languages
English (en)
Inventor
David Michael Herman
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020103673A1 publication Critical patent/DE102020103673A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Offenbart sind ein Verfahren und eine Vorrichtung zum Erzeugen synthetisierter Fahrzeugdarstellungen für Fahrzeuganzeigen mittels Nahbereich-Kommunikation. Ein beispielhaftes Fahrzeug beinhaltet ein Kommunikationsmodul, das zum drahtlosen Kommunizieren mit entfernten Erfassungsvorrichtungen ausgelegt ist, eine Anzeige, die zum Anzeigen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs ausgelegt ist, und eine Steuerung. Die Steuerung ist dazu ausgelegt, als Reaktion auf ein Erkennen eines Aktivierungsereignisses Erfassungsdaten über das Kommunikationsmodul zu erheben. Die Steuerung ist zudem dazu ausgelegt, anhand der Erfassungsdaten zu bestimmen, ob ein Objekt an das Fahrzeug gekoppelt ist, und als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet.

Description

  • GEBIET DER TECHNIK
  • Die vorliegende Offenbarung betrifft im Allgemeinen Fahrzeuganzeigen und insbesondere das Erzeugen synthetisierter Fahrzeugdarstellungen für Fahrzeuganzeigen mittels Nahbereich-Kommunikation.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge weisen oftmals eine Vielzahl von Kameras auf, die Bilder eines umliegenden Bereichs aufnehmen. In manchen Fällen nehmen Fahrzeugkameras Bilder eines umliegenden Bereichs auf, um die Steuerung (z. B. manuelle, autonome und/oder halbautonome Steuerung) von Bewegungsfunktionen eines Fahrzeugs zu unterstützen. So können Fahrzeugkameras zum Beispiel ein Fahrzeug beim Ausführen autonomer und/oder halbautonomer Bewegungsfunktionen wie bspw. der dynamischen Tempo- und Abstandsregelung, der Spurwechselassistenz mit Erkennung von toten Winkeln usw. unterstützen. Manche Fahrzeuge verfügen über eine Anzeige, die einem Fahrzeugbediener Bilder anzeigt, welche von einer Fahrzeugkamera erfasst wurden. Beispielsweise können von einer Heckkamera aufgenommene Bilder angezeigt werden, wenn sich das Fahrzeug im Rückwärtsgang befindet. Darüber hinaus werden in manchen Fällen von einer Vielzahl von Kameras eines Fahrzeugs aufgenommene Bilder zusammengesetzt, um eine synthetisierte Darstellung eines umliegenden Bereichs zu bilden, die einem Bediener über eine Anzeige angezeigt wird. In solchen Fällen wird eine vordefinierte synthetisierte Darstellung des Fahrzeugs über die zusammengesetzte synthetisierte Darstellung des umliegenden Bereichs gelegt.
  • KURZDARSTELLUNG
  • Die vorliegende Anmeldung ist in den beigefügten Ansprüchen definiert. Die vorliegende Offenbarung fasst Aspekte der Ausführungsformen zusammen und sollte nicht zum Einschränken der Ansprüche verwendet werden. Andere Umsetzungen werden gemäß den hier beschriebenen Techniken in Betracht gezogen, wie für den Durchschnittsfachmann bei der Durchsicht der folgenden Zeichnungen und detaillierten Beschreibung ersichtlich wird, und diese Umsetzungen sollen innerhalb des Umfangs dieser Anmeldung liegen.
  • Es sind Ausführungsbeispiele zum Erzeugen synthetisierter Fahrzeugdarstellungen für Fahrzeuganzeigen mittels Nahbereich-Kommunikation dargelegt. Ein beispielhaftes offenbartes Fahrzeug beinhaltet ein Kommunikationsmodul, das zum drahtlosen Kommunizieren mit entfernten Erfassungsvorrichtungen ausgelegt ist, eine Anzeige, die zum Anzeigen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs ausgelegt ist, und eine Steuerung. Die Steuerung ist dazu ausgelegt, als Reaktion auf ein Erkennen eines Aktivierungsereignisses Erfassungsdaten über das Kommunikationsmodul zu erheben. Die Steuerung ist zudem dazu ausgelegt, anhand der Erfassungsdaten zu bestimmen, ob ein Objekt an das Fahrzeug gekoppelt ist, und als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet.
  • In einigen Beispielen handelt es sich bei dem Kommunikationsmodul um ein Modul für die dezidierte Nahbereich-Kommunikation (Dedicated Short-Range Communication - DSRC). In einigen Beispielen ist das Kommunikationsmodul dazu ausgelegt, die Erfassungsdaten mittels Fahrzeug-zu-Fahrzeug(V2V)-Kommunikation zu erheben. In einigen Beispielen ist das Kommunikationsmodul dazu ausgelegt, die Erfassungsdaten mittels Fahrzeug-zu-Infrastruktur(V2I)-Kommunikation zu erheben. In einigen Beispielen beinhalten die über das Kommunikationsmodul erhobenen Erfassungsdaten ein von einer Kamera aufgenommenes Bild. In einigen Beispielen ist die Steuerung dazu ausgelegt, als Reaktion auf das Erkennen des Aktivierungsereignisses das Kommunikationsmodul dazu zu veranlassen, eine Anforderung der Erfassungsdaten zu übertragen.
  • In einigen Beispielen ist die Anzeige dazu ausgelegt, zumindest eine von einer Ansicht aus der Vogelperspektive, einer Seitenansicht und einer isometrischen Ansicht der synthetisierten Fahrzeugdarstellung anzuzeigen.
  • In einigen Beispielen beinhaltet das Aktivierungsereignis eine Aktivierung von zumindest einem von einem Motor und einem Elektromotor des Fahrzeugs. Einige Beispiele beinhalten des Weiteren eine Kamera. In solchen Beispielen beinhaltet das Aktivierungsereignis eine Aktivierung der Kamera. In einigen solcher Beispiele handelt es sich bei der Anzeige um einen Touchscreen, und die Steuerung aktiviert die Kamera als Reaktion auf das Empfangen einer Anforderung über den Touchscreen. In einigen solcher Beispiele ist die Kamera eine Heckkamera, und die Steuerung aktiviert die Heckkamera als Reaktion auf ein Erkennen, dass ein Getriebe des Fahrzeugs in den Rückwärtsgang geschaltet ist. In einigen Beispielen beinhaltet das Aktivierungsereignis ein Ereignis bezüglich Passivzugang-Passivstart (Passive-Entry Passive-Start - PEPS). Einige Beispiele beinhalten des Weiteren eine zur Einparkhilfe ausgelegte Autonomieeinheit. In solchen Beispielen beinhaltet das Aktivierungsereignis ein auf die Einparkhilfe bezogenes Ereignis.
  • In einigen Beispielen ist die Steuerung dazu ausgelegt, die von einer Vielzahl entfernter Erfassungsvorrichtungen erhobenen Erfassungsdaten zusammenzuführen und anhand der zusammengeführten Erfassungsdaten zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist. In einigen Beispielen ist die Steuerung dazu ausgelegt, anhand der Erfassungsdaten ein Beleuchtungsverhältnis zu erkennen und die synthetisierte Fahrzeugdarstellung auf der Grundlage des Beleuchtungsverhältnisses zu modifizieren. In einigen Beispielen beinhaltet die Kommunikation zwischen dem Kommunikationsmodul und einer entfernten Erfassungsvorrichtung Lagedaten. In solchen Beispielen ist die Steuerung dazu ausgelegt, auf der Grundlage der Lagedaten einen Standort des Fahrzeugs in den Erfassungsdaten zu identifizieren.
  • In einigen Beispielen beinhaltet die synthetisierte Objektdarstellung eine dreidimensionale synthetisierte Darstellung, und die Steuerung ist dazu ausgelegt, die synthetisierte Objektdarstellung unter Verwendung der Erfassungsdaten zu erzeugen. Einige Beispiele beinhalten des Weiteren eine fahrzeuginterne Datenbank mit synthetisierten Darstellungen. In solchen Beispielen ist die Steuerung dazu ausgelegt, bei Identifizieren des Objekts anhand der Erfassungsdaten die synthetisierte Objektdarstellung aus der fahrzeuginternen Datenbank abzurufen. Einige solcher Beispiele beinhalten des Weiteren ein zweites Kommunikationsmodul, das zum Kommunizieren mit einem Fernserver ausgelegt ist. In solchen Beispielen ist die Steuerung dazu ausgelegt, als Reaktion auf ein Bestimmen, dass die fahrzeuginterne Datenbank die synthetisierte Objektdarstellung nicht beinhaltet, die synthetisierte Objektdarstellung über das zweite Kommunikationsmodul von dem Fernserver abzurufen.
  • Ein anderes beispielhaftes offenbartes Verfahren für ein Fahrzeug beinhaltet ein Erkennen eines Aktivierungsereignisses durch einen Prozessor. Das beispielhafte offenbarte Verfahren beinhaltet zudem als Reaktion auf das Erkennen des Aktivierungsereignisses ein Erzeugen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs und ein Erheben von Erfassungsdaten von einer oder mehreren entfernten Erfassungsvorrichtungen über ein Kommunikationsmodul. Das beispielhafte offenbarte Verfahren beinhaltet zudem ein Bestimmen durch den Prozessor und anhand der Erfassungsdaten, ob an das Fahrzeug ein Objekt gekoppelt ist, und als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts ein Modifizieren der synthetisierten Fahrzeugdarstellung, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet. Das beispielhafte offenbarte Verfahren beinhaltet zudem ein Anzeigen der synthetisierten Fahrzeugdarstellung über eine Anzeige des Fahrzeugs.
  • Figurenliste
  • Zum besseren Verständnis der Erfindung kann auf Ausführungsformen Bezug genommen werden, die in den nachfolgenden Zeichnungen gezeigt sind. Die Komponenten in den Zeichnungen sind nicht zwingend maßstabsgetreu, und eventuell wurden zugehörige Elemente weggelassen oder in einigen Fällen Proportionen vergrößert dargestellt, um so die hier beschriebenen neuartigen Merkmale hervorzuheben und eindeutig darzustellen. Des Weiteren können Systemkomponenten unterschiedlich angeordnet sein, wie in der Technik bekannt. Außerdem gilt für alle der verschiedenen Ansichten in den Zeichnungen, dass gleiche Bezugszeichen entsprechende Teile kennzeichnen.
    • 1 stellt ein beispielhaftes Fahrzeug gemäß den Lehren in dieser Schrift dar.
    • 2 stellt einen Innenraum des Fahrzeugs aus 1 dar.
    • 3 bildet eine Umgebung ab, in der eine Nahbereich-Kommunikation zum Erzeugen einer synthetisierten Darstellung des Fahrzeugs aus 1 verwendet wird.
    • 4 bildet eine Anzeige ab, die eine synthetisierte Darstellung des Fahrzeugs aus 1 anzeigt.
    • 5 ist ein Blockschema elektronischer Komponenten des Fahrzeugs aus 1.
    • 6A-6B stellen ein Flussdiagramm zum Erzeugen und Anzeigen einer synthetisierten Darstellung eines Fahrzeugs mittels Nahbereich-Kommunikation gemäß den Lehren in dieser Schrift dar.
  • DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER AUSFÜHRUNGSFORMEN
  • Obwohl die Erfindung in verschiedenen Formen ausgeführt werden kann, sind in den Zeichnungen einige nicht einschränkende Ausführungsbeispiele dargestellt und nachfolgend beschrieben, wobei es sich versteht, dass die vorliegende Offenbarung als Erläuterung der Erfindung anhand von Beispielen anzusehen ist und damit nicht beabsichtigt wird, die Erfindung auf die konkreten dargestellten Ausführungsformen zu beschränken.
  • Viele Fahrzeuge weisen eine Vielzahl von Kameras auf, die Bilder eines umliegenden Bereichs aufnehmen. In manchen Fällen nehmen Fahrzeugkameras Bilder eines umliegenden Bereichs auf, um ein Fahrzeug beim Ausführen autonomer und/oder halbautonomer Bewegungsfunktionen wie bspw. der dynamischen Tempo- und Abstandsregelung, der Spurwechselassistenz mit Erkennung von toten Winkeln usw. zu unterstützen. Manche Fahrzeuge verfügen über eine Anzeige, die einem Fahrzeugbediener Bilder anzeigt, welche von einer Fahrzeugkamera erfasst wurden. Beispielsweise können von einer Heckkamera aufgenommene Bilder angezeigt werden, wenn sich das Fahrzeug im Rückwärtsgang befindet.
  • Darüber hinaus werden in manchen Fällen von einer Vielzahl von Kameras eines Fahrzeugs aufgenommene Bilder zusammengesetzt, um eine synthetisierte Darstellung eines umliegenden Bereichs zu bilden, die einem Bediener über eine Anzeige angezeigt wird. In solchen Fällen wird eine vordefinierte synthetisierte Darstellung des Fahrzeugs auf die zusammengesetzte synthetisierte Darstellung des umliegenden Bereichs gelegt. Auf die synthetisierte Darstellung des umliegenden Bereichs kann zum Beispiel eine vordefinierte synthetisierte Darstellung des Fahrzeugs gelegt werden, um einen Fahrzeugbediener beim Beobachten von Objekten nahe des Fahrzeugs zu unterstützen. Es kommt oft vor, dass die vordefinierte synthetisierte Darstellung des Fahrzeugs nicht mit bestimmten Charakteristika des Fahrzeugs übereinstimmt. So kann die vordefinierte synthetisierte Darstellung beispielsweise eine andere Farbe haben als das echte Fahrzeug. Weil die synthetisierte Darstellung des Fahrzeugs vordefiniert ist, gibt die synthetisierte Darstellung außerdem keine Objekte wieder, die der Bediener an oder auf dem Fahrzeug angebracht und/oder anderweitig an das Fahrzeug gekoppelt hat (bspw. ein Fahrrad, ein Kajak, einen Anhänger, einen Weihnachtsbaum, eine Chanukkia, auf einer Ladefläche eines Lkw platzierte Objekte, ein Abziehbild usw.). Der Bediener kann seinerseits möglicherweise durch die synthetisierte Darstellung des Fahrzeugs verwirrt werden, die nicht mit den tatsächlichen Charakteristika des Fahrzeugs übereinstimmt.
  • Beispielhafte Verfahren und Vorrichtungen, die in dieser Schrift offenbart sind, nutzen die Kommunikation mit sich in der Nähe befindlichen Erfassungsvorrichtungen (z. B. Fahrzeugen, straßenseitigen Einheiten, Drohnen, Mobilvorrichtungen, Anhängern usw.), um eine genaue synthetisierte Darstellung eines Fahrzeugs und/oder eines an das Fahrzeug gekoppelten Objekts zu erzeugen, was der Unterstützung eines Fahrzeugbedieners beim sicheren Navigieren und/oder ästhetischen Zwecken dient. In dieser Schrift offenbarte Beispiele beinhalten ein Fahrzeugsystem zum Erzeugen einer akkuraten synthetisierten Darstellung des Fahrzeugs aus der Vogelperspektive, in der Seitenansicht und/oder isometrischen Ansicht. Anhand des Fahrzeugsystems erfolgt eine Überwachung auf ein Aktivierungsereignis. Zu beispielhaften Aktivierungsereignissen zählen (i) ein Ereignis der Schlüsselkopplung, (ii) eine Aktivierung eines Panoramakameramerkmals des Fahrzeugs und/oder (iii) ein Erkennen eines sich dem Fahrzeug nähernden Benutzers. Bei Erkennung eines Aktivierungsereignisses erhebt das Fahrzeugsystem Bilddaten von sich in der Nähe befindlichen Erfassungsvorrichtungen per Verkehrsvernetzungskommunikation (V2X-Kommunikation). Das Fahrzeugsystem nutzt eine Bilderkennung, um zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist. Wenn das Fahrzeugsystem ein an das Fahrzeug gekoppeltes Objekt identifiziert, erzeugt das Fahrzeugsystem eine synthetisierte Darstellung des Fahrzeugs, die das an das Fahrzeug gekoppelte Objekt beinhaltet. Das Fahrzeugsystem zeigt die synthetisierte Darstellung über eine Anzeige des Fahrzeugs an, was dem Unterstützen eines Bedieners und/oder einer Autonomieeinheit beim sicheren Navigieren des Fahrzeugs und/oder ästhetischen Zwecken dient.
  • 1, um auf die Figuren Bezug zu nehmen, stellt ein beispielhaftes Fahrzeug 100 gemäß den Lehren in dieser Schrift dar. Das Fahrzeug 100 kann ein standardmäßiges benzinbetriebenes Fahrzeug, ein Hybridfahrzeug, ein Elektrofahrzeug, ein Brennstoffzellenfahrzeug und/oder ein Fahrzeugtyp mit einer sonstigen Art der Mobilitätsumsetzung sein. Das Fahrzeug 100 beinhaltet Teile, die mit der Mobilität in Verbindung stehen, wie bspw. einen Antriebsstrang mit einem Motor, einem Getriebe, einer Aufhängung, einer Antriebswelle und/oder Rädern usw. Das Fahrzeug 100 kann nichtautonom sein, halbautonom sein (z. B. werden einige routinemäßige Bewegungsfunktionen durch das Fahrzeug 100 gesteuert) oder autonom sein (z. B. werden die Bewegungsfunktionen ohne direkte Fahrereingabe durch das Fahrzeug 100 gesteuert).
  • Im dargestellten Beispiel beinhaltet das Fahrzeug 100 eine Vielzahl von Bereichserkennungssensoren. Im vorliegenden Zusammenhang bezieht sich ein „Bereichserkennungssensor“ auf eine elektronische Vorrichtung, die zum Erheben von Informationen ausgelegt ist, um ein Vorhandensein und einen Abstand von (einem) sich in der Nähe befindlichen Objekt(en) zu erkennen. Im dargestellten Beispiel zählen Näherungssensoren 102 und Kameras 104 zu den Bereichserkennungssensoren des Fahrzeugs 100. Die Näherungssensoren 102 sind dazu ausgelegt, das Vorhandensein, die Nähe und/oder Lage von (einem) Objekt(en) nahe des Fahrzeugs 100 zu erkennen. Zu den Näherungssensoren 102 zählen beispielsweise (ein) Radarsensor(en), Lidarsensor(en), Ultraschallsensor(en) und/oder ein sonstiger Sensor, der dazu ausgelegt ist, das Vorhandensein, die Nähe und/oder Lage von (einem) Objekt(en) in der Nähe zu erkennen. Ein Radarsensor erkennt und verortet ein Objekt über Funkwellen, ein Lidarsensor erkennt und verortet das Objekt mittels Laser und ein Ultraschallsensor erkennt und verortet das Objekt über Ultraschallwellen. Ferner sind die Kameras 104 dazu ausgelegt, (ein) Bild(er) und/oder Videomaterial eines umliegenden Bereichs des Fahrzeugs 100 aufzunehmen, um das Identifizieren und Verorten von (einem) Objekt(en) in der Nähe zu ermöglichen. Im dargestellten Beispiel sind die Bereichserkennungssensoren (z. B. die Näherungssensoren 102, die Kameras 104) auf jeder Seite des Fahrzeugs 100 (z. B. vorn, hinten, links, rechts) angeordnet, damit die Bereichserkennungssensoren jeden Abschnitt des umliegenden Bereichs des Fahrzeugs 100 überwachen können. Zusätzlich oder alternativ können die Bereichserkennungssensoren an (einer) anderen Stelle(en) des Fahrzeugs 100 positioniert sein, die es den Bereichserkennungssensoren ermöglichen, den umliegenden Bereich des Fahrzeugs 100 zu überwachen.
  • Das Fahrzeug 100 des dargestellten Beispiels beinhaltet zudem ein Kommunikationsmodul 106, das zum Kommunizieren mit anderen sich in der Nähe befindlichen Kommunikationsvorrichtungen (z. B. entfernten Erfassungsvorrichtungen) ausgelegt ist. Im dargestellten Beispiel schließt das Kommunikationsmodul 106 ein Modul zur dezidierten Nahbereich-Kommunikation (DSRC) ein. Ein DSRC-Modul beinhaltet (eine) Antenne(n), (ein) Funkgerät(e) und Software für die Kommunikation mit (einem) sich in der Nähe befindlichen Fahrzeug(en) per Fahrzeug-zu-Fahrzeug(V2V)-Kommunikation, (einem) infrastrukturbasierte(n) Modul(e) über Fahrzeug-zu-Infrastruktur(V2I)-Kommunikation und/oder, allgemeiner, (einer) sich in der Nähe befindlichen Kommunikationsvorrichtung(en) (z. B. einem Modul auf der Basis einer mobilen Vorrichtung) über Verkehrsvernetzungs(V2X)-Kommunikation.
  • Weitere Informationen über das DSRC-Netzwerk und darüber, wie das Netzwerk mit Fahrzeughardware und -software kommunizieren kann, sind verfügbar im „Core System Requirements Specification (SyRS) Report“ des US-Verkehrsministeriums vom Juni 2011 (verfügbar unter http://www.its.dot.gov/meetings/pdf/CoreSystem_SE_SyRS_RevA%20(2011-06-13).pdf), welcher hiermit durch Bezugnahme vollumfänglich nebst sämtlichen Unterlagen, die auf den Seiten 11 bis 14 des SyRS-Reports aufgeführt sind, aufgenommen wird. DSRC-Systeme können an Fahrzeugen und am Straßenrand an Infrastruktur installiert sein. DSRC-Systeme, die Infrastrukturinformationen enthalten, sind als „straßenseitiges“ System bekannt. DSRC kann mit anderen Techniken kombiniert werden, wie zum Beispiel dem globalen Positionsbestimmungssystem (GPS), Kommunikation mittels sichtbarem Licht (VLC), Mobilfunkkommunikation und Nahbereichsradar, die es den Fahrzeugen ermöglichen, ihre Position, Geschwindigkeit, Richtung, relative Position zu anderen Objekten zu kommunizieren und Informationen mit anderen Fahrzeugen oder externen Computersystemen auszutauschen. DSRC-Systeme können in anderen Systemen, wie etwa Mobiltelefonen, integriert sein.
  • Gegenwärtig trägt das DSRC-Netzwerk die Abkürzung oder Bezeichnung DSRC. Mitunter werden jedoch andere Bezeichnungen verwendet, die sich üblicherweise auf ein Fahrzeugkonnektivitätsprogramm oder dergleichen beziehen. Die meisten dieser Systeme sind entweder reine DSRC oder eine Variante des WLAN-Standards IEEE 802.11. Dabei ist jedoch beabsichtigt, dass es neben dem reinen DSRC-System auch dezidierte drahtlose Kommunikationssysteme zwischen Autos und einem straßenseitigen Infrastruktursystem abdeckt, die in GPS integriert sind und auf einem IEEE-802.11-Protokoll für drahtlose lokale Netze (wie etwa 802.11p usw.) beruhen.
  • Zusätzlich oder alternativ beinhaltet das Kommunikationsmodul 106 ein Modul für die zellulare Verkehrsvernetzung (Cellular Vehicle-to-Everything - C-V2X). Ein C-V2X-Modul beinhaltet Hardware und Software für die Kommunikation mit (einem) anderen Fahrzeug(en) über V2V-Kommunikation, (einem) infrastrukturbasierten Modul(en) über V2I-Kommunikation und/oder, allgemeiner, sich in der Nähe befindlichen Kommunikationsvorrichtungen (z. B. Modulen auf der Basis einer Mobilvorrichtung) über V2X-Kommunikation. So ist ein C-V2X-Modul beispielsweise dazu ausgelegt, direkt und/oder über Mobilfunknetzwerke mit sich in der Nähe befindlichen Vorrichtungen (z. B. Fahrzeugen, straßenseitigen Einheiten, Drohnen, Mobilvorrichtungen usw.) zu kommunizieren. Derzeit werden im Rahmen des 3rd Generation Partnership Project Standards für die C-V2X-Kommunikation entwickelt.
  • Das Fahrzeug 100 des dargestellten Beispiels beinhaltet zudem eine Bildsynthesesteuerung 108, die dazu ausgelegt ist, (1) eine synthetisierte Darstellung des Fahrzeugs 100 und/oder von (einem) beliebigen Objekt(en) zu erzeugen, die an das Fahrzeug gekoppelt sind (z. B. ein Fahrrad 306, s. 3 und 4), und (2) einem Bediener die synthetisierte Darstellung über eine Fahrzeuganzeige (z. B. eine Anzeige 202 von 2) anzuzeigen. In einigen Beispielen kann die synthetisierte Darstellung des Fahrzeugs 100 eine vordefinierte, bei der Fertigung installierte synthetisierte Darstellung sein, die in einer fahrzeuginternen Datenbank (z. B. einer Datenbank 520 von 5) gespeichert ist. In solchen Beispielen ist die Bildsynthesesteuerung 108 zum Modifizieren der bei der Fertigung installierten synthetisierten Darstellung ausgelegt, damit sie ein Objekt beinhaltet, das an das Fahrzeug 100 gekoppelt ist.
  • Um die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung eines an das Fahrzeug 100 gekoppelten Objekts beinhaltet, ist die Bildsynthesesteuerung 108 zum Überwachen auf ein Aktivierungsereignis ausgelegt. Zu einem Aktivierungsereignis zählt beispielsweise (i) ein Ereignis der Schlüsselkopplung, (ii) ein Aktivieren eines Motors oder Elektromotors des Fahrzeugs 100, (iii) ein Empfang einer Anforderung über einen Touchscreen (z. B. eine Anzeige 202 in 2) und/oder eine andere Eingabevorrichtung des Fahrzeugs 100, (iv) dass ein Getriebe des Fahrzeugs 100 in den Rückwärtsgang geschaltet wurde, (v) eine Aktivierung einer oder mehrerer der Kameras 104 des Fahrzeugs 100 (z. B. Aktivierung einer Heckkamera als Reaktion darauf, dass ein Getriebe des Fahrzeugs 100 in den Rückwärtsgang geschaltet wurde), (vi) ein Passivzugang-Passivstart-Ereignis, (vii) ein auf die Einparkhilfe bezogenes Ereignis, das von einer Autonomieeinheit des Fahrzeugs (z. B. eine Autonomieeinheit 528 in 5) vorgenommen wird, usw.
  • Im hier verwendeten Sinne bezieht sich „Passivzugang“, oder „Passive Entry“, auf ein System eines Fahrzeugs, das eine oder mehrere Türen des Fahrzeugs entriegelt und/oder öffnet, wenn erkannt wird, dass sich ein Schlüsselhandsender und/oder Telefon mit Schlüsselfunktion nahe einer Tür des Fahrzeugs befindet. Einige Passivzugangssysteme lösen ein Öffnen einer Tür als Reaktion darauf aus, dass erkannt wird, dass sich ein Schlüsselhandsender und/oder Telefon mit Schlüsselfunktion nähert und/oder sich innerhalb eines vorgegebenen Bereichs des Fahrzeugs befindet. In solchen Beispielen wird die Tür als Reaktion darauf entriegelt, dass erkannt wird, dass (1) ein Benutzer einen Griff der Tür berührt hat und (2) sich der Schlüsselhandsender und/oder das Telefon mit Schlüsselfunktion in der Nähe der Tür befindet, wenn der Griff berührt wird. Im vorliegenden Zusammenhang bezieht sich „Passivstart“, oder „Passive Start“, auf ein System eines Fahrzeugs, das die Zündung eines Motors des Fahrzeugs aktiviert, wenn erkannt wird, dass sich ein Schlüsselhandsender und/oder ein Telefon mit Schlüsselfunktion in einem Innenraum des Fahrzeugs befindet (sodass bspw. ein Wegfahren möglich ist). Einige Passivstartsysteme lösen ein Zünden eines Motors als Reaktion darauf aus, dass erkannt wird, dass sich ein Schlüsselhandsender und/oder Telefon mit Schlüsselfunktion nähert und/oder sich innerhalb eines vorgegebenen Bereichs des Fahrzeugs befindet. In solchen Beispielen wird der Motor als Reaktion darauf gestartet, dass erkannt wird, dass (1) ein Benutzer einen Zündschalter des Fahrzeugs in Eingriff genommen hat und (2) sich der Schlüsselhandsender und/oder das Telefon mit Schlüsselfunktion im Innenraum befindet, wenn der Zündschalter berührt wird. Im hi verwendeten Sinne bezieht sich „Passivzugang und Passivstart“, oder „Passive-Entry Passive-Start“ bzw. „PEPS“, auf ein Fahrzeugsystem, das zum Vornehmen eines Passivzugangs und Passivstarts für das Fahrzeug ausgelegt ist.
  • Im vorliegenden Zusammenhang beziehen sich „Fahrzeugeinparkhilfe“ und „Einparkhilfe“ auf ein System, bei dem ein Fahrzeug seine Bewegungsfunktionen ohne unmittelbares Lenken oder unmittelbare Geschwindigkeitseingabe von einem Bediener (z. B. einem Fahrer) steuert, um autonom in eine Parklücke einzuparken. Beispielsweise steuert eine Autonomieeinheit eines Einparkhilfesystems die Bewegungsfunktionen des Fahrzeugs, wenn es ein Initiationssignal vom Bediener empfängt. Im hier verwendeten Sinne beziehen sich „ferngesteuertes Einparken“, „ferngesteuerte Fahrzeugeinparkhilfe“, „ferngesteuerte Einparkhilfe“ und „RePA“ (Remote Park-Assist) auf ein System, bei dem ein Fahrzeug seine Bewegungsfunktionen ohne direkte Lenk- oder Geschwindigkeitseingabe von einem Bediener (z. B. einem Fahrer) steuert, um autonom in eine Parklücke einzuparken, während sich der Bediener außerhalb des Fahrzeugs befindet. Zum Beispiel steuert eine Autonomieeinheit eines Systems zum ferngesteuerten Einparken die Bewegungsfunktionen des Fahrzeugs bei Empfangen eines Fernsteuerungsinitiierungssignals von einer mobilen Vorrichtung des Bedieners.
  • Die Bildsynthesesteuerung 108 ist dazu ausgelegt, bei Erkennung eines Aktivierungsereignisses das Kommunikationsmodul 106 dazu zu veranlassen, eine Anforderung von Erfassungsdaten von (einer) entfernten Erfassungsvorrichtung(en) nahe des Fahrzeugs 100 zu übertragen. Zu der bzw. den entfernten Erfassungsvorrichtung(en) zählen zum Beispiel ein anderes Fahrzeug/andere Fahrzeuge (z. B. ein Fahrzeug 304 von 3), (eine) straßenseitige Einheit(en) (z. B. eine straßenseitige Einheit 308 von 3), Mobilvorrichtung(en) (z. B. ein Smartphone, ein Wearable, eine Smart Watch, ein Tablet usw.) und/oder andere Vorrichtung(en) (z. B. Drohnen, (eine) Erfassungseinheit(en) eines an das Fahrzeug 100 gekoppelten Anhängers usw.). Zu einer entfernten Erfassungsvorrichtung zählen (i) ein oder mehrere Bereichserkennungssensoren (z. B. ein Näherungssensor, eine Kamera usw.), die zum Erheben von Daten ausgelegt sind, welche sich in der Nähe befindliche Objekte identifizieren, und (ii) ein Kommunikationsmodul, das zur Nahbereich-Kommunikation ausgelegt ist. Zu den durch eine entfernte Erfassungsvorrichtung erhobenen Erfassungsdaten gehören beispielsweise (ein) Bild(er), erhoben von (einer) Kamera(s), und/oder andere Daten, erhoben von (einem) Radarsensor(en), Lidarsensor(en), Ultraschallsensor(en) usw. Das Kommunikationsmodul der entfernten Erfassungsvorrichtung ist dazu ausgelegt, als Reaktion darauf, dass das Kommunikationsmodul der entfernten Erfassungsvorrichtung die Anforderung von Erfassungsdaten vom Kommunikationsmodul 106 des Fahrzeugs 100 empfängt, die von den Sensoren der entfernten Erfassungsvorrichtung erhobenen Erfassungsdaten zu übertragen.
  • Die Bildsynthesesteuerung 108 des Fahrzeugs 100 ist dazu ausgelegt, die Erfassungsdaten über das Kommunikationsmodul 106 von der bzw. den entfernten Erfassungsvorrichtung(en) zu erheben. Das heißt, die Bildsynthesesteuerung 108 ist dazu ausgelegt, als Reaktion auf das Erkennen eines Aktivierungsereignisses Erfassungsdaten von der bzw. den entfernten Erfassungsvorrichtung(en) zu erheben, wenn über das Kommunikationsmodul 106 eine entsprechende Anforderung übertragen wird. So ist das Kommunikationsmodul 106 beispielsweise dazu ausgelegt, die Fernerfassungsdaten von einem nahen Fahrzeug (z. B. einem oder mehreren der Fahrzeuge 304 von 3) per V2V-Kommunikation und/oder von einer nahen straßenseitigen Einheit (z. B. einer straßenseitigen Einheit 308 von 3) per V2I-Kommunikation zu erheben. In einigen Beispielen werden die erhobenen Erfassungsdaten anhand anderer Daten gefiltert und/oder ergänzt. Beispielsweise werden die Erfassungsdaten anhand der Daten, die von den Bereichserkennungssensoren des Fahrzeugs 100 erhoben wurden, und/oder anhand von hochauflösenden (HD) Karten eines umliegenden Bereichs des Fahrzeugs 100 gefiltert.
  • In einigen Beispielen ist die Bildsynthesesteuerung 108 dazu ausgelegt, die von einer Vielzahl entfernter Erfassungsvorrichtungen erhobenen Erfassungsdaten zusammenzuführen. Beispielsweise ist die Bildsynthesesteuerung 108 dazu ausgelegt, von (einer) Kamera(s) erhobene Bilddaten mit von Lidarsensoren erhobenen Lidardaten und/oder anderen Zielfahrzeugdaten unter Verwendung von bewegungsbezogenen Techniken und visuellen SLAM-Techniken zusammenzuführen. Zusätzlich oder alternativ ist die Bildsynthesesteuerung 108 dazu ausgelegt, dreidimensionale Punktwolken von mehreren Lidar-Abtastungen mittels V2X-Positionsbestimmung und/oder anderer Techniken (z. B. RANSAC, Persistent Feature Histograms usw.) zusammenzufügen. Des Weiteren ist die Bildsynthesesteuerung 108 in einigen Beispielen dazu ausgelegt, dreidimensionale Daten von dreidimensionalen Punktwolken mit der Erkennung von Bildern und dreidimensionalen Objekten zusammenzuführen, um eine gekennzeichnete Karte des umliegenden Bereichs des Fahrzeugs 100 zu erzeugen.
  • Darüber hinaus ist die Bildsynthesesteuerung 108 dazu ausgelegt, eine synthetisierte Darstellung des Fahrzeugs 100 und dessen umliegenden Bereichs anhand der erhobenen Daten zu erzeugen. Die Bildsynthesesteuerung 108 ist beispielsweise dazu ausgelegt, die erhobenen Bilder und/oder andere erhobene Erfassungsdaten zu einer Ansicht aus der Vogelperspektive, einer Seitenansicht, einer isometrischen Ansicht und/oder einer anderen Ansicht des Fahrzeugs 100 in dessen umliegendem Bereich zusammenzusetzen. Die Bildsynthesesteuerung 108 ist beispielsweise dazu ausgelegt, Software zum Zusammensetzen von Bildern zu verwenden, um (ein) Objekt(e) in jedem der erhobenen Bilder zu identifizieren, (ein) Objekt(e), das/die sich in einer Vielzahl der erhobenen Bilder befindet/befinden, abzugleichen, die erhobenen Bilder in Bezug aufeinander zu kalibrieren und die kalibrierten Bilder miteinander zu verbinden, um eine Ansicht des Fahrzeugs 100 in dessen umliegendem Bereich zu erzeugen.
  • Die Bildsynthesesteuerung 108 ist zudem dazu ausgelegt, anhand der Erfassungsdaten zu bestimmen, ob an das Fahrzeug 100 ein Objekt gekoppelt ist. So ist die Bildsynthesesteuerung 108 beispielsweise dazu ausgelegt, eine Bilderkennung zu verwenden, um das Fahrzeug 100 in den Erfassungsdaten und/oder dem anhand der Erfassungsdaten synthetisierten Bild zu identifizieren. Die Bildsynthesesteuerung 108 kann zum Beispiel Bilder segmentieren, um das Fahrzeug 100 und/oder andere Objekte in einem erhobenen und/oder zusammengesetzten Bild zu erkennen. Zusätzlich oder alternativ kann die Bildsynthesesteuerung 108 generierte Punktwolken segmentieren, um das Fahrzeug 100 und/oder andere Objekte in der generierten Punktwolke zu erkennen. Die Kommunikation, die durch das Kommunikationsmodul 106 des Fahrzeugs 100 von der bzw. den entfernten Erfassungsvorrichtung(en) erhoben wurde, beinhaltet in einigen Beispielen des Weiteren Lagedaten. Die Bildsynthesesteuerung 108 ist dazu ausgelegt, die Lagedaten zu verwenden, um einen Standort des Fahrzeugs 100 in den Erfassungsdaten und/oder dem anhand der Erfassungsdaten synthetisierten Bild zu identifizieren. In einigen Beispielen handelt es sich bei dem an das Fahrzeug 100 gekoppelten Objekt um ein zweidimensionales Objekt (z. B. einen Aufkleber, ein Abziehbild usw.). In anderen Beispielen ist das an das Fahrzeug 100 gekoppelte Objekt ein dreidimensionales Objekt (bspw. ein Fahrrad, ein Träger, ein Anhänger, ein Kajak, ein Weihnachtsbaum, eine Chanukkia, auf einer Ladefläche eines Lkw platzierte Objekte usw.).
  • Die Bildsynthesesteuerung 108 ist dazu ausgelegt, als Reaktion auf das Erkennen, dass an das Fahrzeug ein Objekt gekoppelt ist, die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung des erkannten Objekts beinhaltet, was dem Unterstützen eines Fahrzeugbedieners beim sicheren Navigieren des Fahrzeugs und/oder ästhetischen Zwecken dient. In einigen Beispielen ist die Bildsynthesesteuerung 108 in der Lage, eine dreidimensionale synthetisierte Darstellung des an das Fahrzeug 100 gekoppelten Objekts anhand der erhobenen Erfassungsdaten zu erzeugen. Beispielsweise ist die Bildsynthesesteuerung 108 dazu ausgelegt, eine dreidimensionale synthetisierte Darstellung des Objekts auf der Grundlage eines zusammengesetzten Bilds bzw. zusammengesetzter Bilder und/oder einer dreidimensionalen Karte des umliegenden Bereichs zu erzeugen, die anhand der erhobenen Erfassungsdaten generiert wurde. Falls die Bildsynthesesteuerung 108 in der Lage ist, eine synthetisierte Darstellung des Objekts zu erzeugen, so erzeugt die Bildsynthesesteuerung 108 die synthetisierte Objektdarstellung des Objekts (bspw. eine dreidimensionale synthetisierte Darstellung) unter Verwendung der erhobenen Erfassungsdaten. So erzeugt die Bildsynthesesteuerung 108 die synthetisierte Objektdarstellung beispielsweise derart, dass sie mit der Gestalt, den Dimensionen, Farben und/oder anderen Charakteristika des an das Fahrzeug 100 gekoppelten Objekts übereinstimmt. Falls die Bildsynthesesteuerung 108 in der Lage ist, eine synthetisierte Darstellung des Objekts zu erzeugen (bspw. aufgrund einer unvollständigen Vermessung des Objekts), ist die Bildsynthesesteuerung 108 dazu ausgelegt, das Objekt zu identifizieren und eine synthetisierte Darstellung des identifizierten Objekts abzurufen. Wenn die Bildsynthesesteuerung 108 beispielsweise identifiziert, dass ein Kajak an das Fahrzeug 100 gekoppelt ist, ruft die Bildsynthesesteuerung 108 eine synthetisierte Darstellung eines Kajaks aus einer internen Datenbank des Fahrzeugs 100 (bspw. einer Datenbank 520 von 5) und/oder von einem Fernserver über ein Kommunikationsmodul (bspw. ein Kommunikationsmodul 508 von 5) ab. Des Weiteren ist die Bildsynthesesteuerung 108 in einigen Beispielen dazu ausgelegt, (i) (eine) Farbe(n) von einer Seite eines Objekts auf der Grundlage eines aus einer Perspektive des Objekts erhobenen Bilds zu identifizieren und (ii) die identifizierte(n) Farbe(n) auf andere Seiten des Objekts zu übertragen.
  • Zusätzlich oder alternativ ist die Bildsynthesesteuerung 108 dazu ausgelegt, die synthetisierte Fahrzeugdarstellung auf der Grundlage der Beleuchtungsverhältnisse und/oder anderer Bedingungen (z. B. einer Lichteinfallsrichtung, einer Farbtemperatur, eines Intensität/Farbe-Histogramms, Weißabgleichs, Farbtons, Farbenausgleichs usw.) zu modifizieren, die anhand der erhobenen Erfassungsdaten erkannt worden sind. Um ein Beispiel zu nennen, hellt die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung bei Tageslicht auf und dunkelt die synthetisierte Fahrzeugdarstellung bei Nacht ab, was weiterhin dem Unterstützen des Fahrzeugbedieners beim sicheren Navigieren des Fahrzeugs und/oder ästhetischen Zwecken dient.
  • Nach dem Modifizieren der synthetisierten Fahrzeugdarstellung des Fahrzeugs 100, damit sie eine synthetisierte Objektdarstellung eines an das Fahrzeug 100 gekoppelten Objekts beinhaltet, wird die synthetisierte Fahrzeugdarstellung auf eine synthetisierten Darstellung des umliegenden Bereichs des Fahrzeugs 100 gelegt. Des Weiteren ist eine Anzeige des Fahrzeugs 100 (z. B. eine Anzeige 202 von 2) dazu ausgelegt, die synthetisierte Darstellung anzuzeigen, was dem Unterstützen eines Bedieners beim sicheren Navigieren des Fahrzeugs 100 und/oder ästhetischen Zwecken dient. Die über die Anzeige angezeigte synthetisierte Fahrzeugdarstellung beinhaltet zum Beispiel eine Ansicht aus der Vogelperspektive und/oder eine Seitenansicht des Fahrzeugs 100, ein an das Fahrzeug 100 gekoppeltes Objekt und/oder einen umliegenden Bereich des Fahrzeugs 100. Darüber hinaus speichert die Bildsynthesesteuerung 108 in einigen Beispielen die modifizierte synthetisierte Fahrzeugdarstellung zur späteren Verwendung in einem Speicher (z. B. dem Speicher 518 von 5) und/oder einer internen Datenbank (z. B. einer Datenbank 520 von 5) des Fahrzeugs 100 ab. Außerdem ist die Bildsynthesesteuerung 108 in einigen Beispielen dazu ausgelegt, ein Bild eines Abschnitts des Fahrzeugs 100 (z. B. eines Dachs, einer Seite) und/oder eines an das Fahrzeug 100 gekoppelten Objekts (bspw. eines Fahrrads, eines Kajaks, eines Anhängers, eines Weihnachtsbaums, einer Chanukkia, auf einer Ladefläche eines Lkw platzierter Objekte, eines Abziehbilds usw.) anzuzeigen, die von einer entfernten Erfassungsvorrichtung aufgenommen wurden, was beim Vornehmen einer Bildbearbeitung an dem Bild, um das Bild neu auszurichten, erfolgt.
  • 2 stellt einen Innenraum 200 des Fahrzeugs 100 dar. Im dargestellten Beispiel befinden sich eine Anzeige 202 und Konsoleneingabevorrichtungen 204 im Innenraum 200 des Fahrzeugs 100. Beispielsweise befinden sich die Anzeige 202 und die Konsoleneingabevorrichtungen 204 auf einem Armaturenbrett, einer Mittelkonsole und/oder einer anderen Konsole des Fahrzeugs 100 neben einem Fahrersitz im Innenraum 200, um einen Fahrzeugbediener (z. B. einen Fahrer) beim Verwenden der Anzeige 202 und der Konsoleneingabevorrichtungen 204 zu unterstützen.
  • Im dargestellten Beispiel zählt bzw. zählen (eine) Eingabevorrichtung(en), wie zum Beispiel Schalter, Tasten usw., zu den Konsoleneingabevorrichtungen 204, um dem Fahrzeugbediener und/oder einem Fahrgast das Steuern verschiedener Merkmale des Fahrzeugs 100 zu ermöglichen. Zu der Anzeige 202 im dargestellten Beispiel zählen des Weiteren eine Mittelkonsolenanzeige, etwa eine Flüssigkristallanzeige (LCD), eine organische Leuchtdiode (OLED), eine Flachbildschirmanzeige, eine Festkörperanzeige usw. Zusätzlich oder alternativ zählt ein Head-up-Display zur Anzeige 202, das zum Projizieren eines Bilds auf die Windschutzscheibe des Fahrzeugs 100 ausgelegt ist. Zusätzlich oder alternativ ist die Anzeige 202 dazu ausgelegt, dem Fahrzeugbediener und/oder Beifahrer(n) im Innenraum 200 des Fahrzeugs 100 ein Infotainmentsystem (wie zum Beispiel SYNC® und MyFord Touch® von Ford®) anzuzeigen. Des Weiteren ist die Anzeige 202 im dargestellten Beispiel dazu ausgelegt, eine synthetisierte Darstellung des Fahrzeugs 100 und/oder dessen umliegenden Bereichs anzuzeigen, um den Fahrzeugbediener beim Lenken des Fahrzeugs 100 zu unterstützen.
  • 3 bildet eine Umgebung ab, in der eine Nahbereich-Kommunikation zum Modifizieren einer synthetisierten Darstellung des Fahrzeugs 100 verwendet wird. Im dargestellten Beispiel befindet sich das Fahrzeug 100 auf einem Parkplatz 300. Der Parkplatz 300 verfügt über eine Straßenlaterne 302, die sich neben dem Fahrzeug 100 befindet. Außerdem befinden sich andere Fahrzeuge 304 neben dem Fahrzeug 100 auf dem Parkplatz 300. Des Weiteren ist im dargestellten Beispiel ein Fahrrad 306 an das Fahrzeug 100 gekoppelt.
  • Wie in 3 dargestellt, ist an die Straßenlaterne 302 eine straßenseitige Einheit 308 gekoppelt. In anderen Beispielen kann die straßenseitige Einheit 308 an anderen Infrastrukturelementen wie bspw. einer Ampelanlage, einem Verkehrsschild, einem Pfosten, einer Brücke usw. gekoppelt sein. Darüber hinaus ist die straßenseitige Einheit 308 zum Kommunizieren über DSRC, C-V2X und/oder andere Protokolle der Nahbereich-Kommunikation ausgelegt. So ist die straßenseitige Einheit 308 beispielsweise dazu ausgelegt, V2I-Kommunikation mit dem Kommunikationsmodul 106 des Fahrzeugs 100 und/oder Kommunikationsmodulen der Fahrzeuge 304 durchzuführen. Die straßenseitige Einheit 308 beinhaltet Hardware und Software zum Übertragen von Nachrichten und/oder zum Aufbauen von Kommunikationsverbindungen mit dem Fahrzeug 100, einem oder mehreren der Fahrzeuge 304 und/oder anderen sich in der Nähe befindlichen Vorrichtungen (z. B. anderen straßenseitigen Einheiten, Mobilvorrichtungen usw.). Des Weiteren beinhaltet die straßenseitige Einheit 308 des dargestellten Beispiels (eine) Erfassungsvorrichtung(en). Die straßenseitige Einheit 308 beinhaltet beispielsweise (eine) Kamera(s), (einen) Lidarsensor(en), Radarsensor(en), Ultraschallsensor(en) und/oder eine sonstige Art Bereichserkennungssensoren.
  • Wie in 3 dargestellt, beinhalten die Fahrzeuge 304 des Weiteren jeweilige Kommunikationsmodule 310. Jedes der Kommunikationsmodule 310 ist zum Kommunizieren über DSRC, C-V2X und/oder andere Protokolle der Nahbereich-Kommunikation ausgelegt. Beispielsweise ist jedes der Kommunikationsmodule 310 dazu ausgelegt, V2V-Kommunikation mit dem Kommunikationsmodul 106 des Fahrzeugs 100 und/oder V2I-Kommunikation mit der straßenseitigen Einheit 308 durchzuführen. Die Kommunikationsmodule 310 beinhalten Hardware und Software zum Übertragen von Nachrichten und/oder zum Aufbauen von Kommunikationsverbindungen mit dem Fahrzeug 100, der straßenseitigen Einheit 308 und/oder anderen sich in der Nähe befindlichen Vorrichtungen (z. B. anderen straßenseitigen Einheiten, Mobilvorrichtungen usw.). Außerdem beinhaltet jedes der Fahrzeuge 304 (eine) Erfassungsvorrichtung(en). Die Fahrzeuge 304 beinhalten zum Beispiel (eine) Kamera(s), (einen) Lidarsensor(en), Radarsensor(en), Ultraschallsensor(en) und/oder eine sonstige Art Bereichserkennungssensoren.
  • Im dargestellten Beispiel ist die Bildsynthesesteuerung 108 dazu ausgelegt, (1) Erfassungsdaten von der straßenseitigen Einheit 308 und/oder einem oder mehreren Fahrzeugen 304 zu erheben, und (2) eine synthetisierte Darstellung des Fahrzeugs 100 zu modifizieren, damit sie eine synthetisierte Darstellung eines Fahrrads beinhaltet. Bei Erkennung eines Aktivierungsereignisses veranlasst die Bildsynthesesteuerung 108 das Kommunikationsmodul 106 beispielsweise dazu, eine Anforderung zum Erheben von Erfassungsdaten von sich in der Nähe befindlichen entfernten Erfassungsvorrichtungen (bspw. den Fahrzeugen 304, der straßenseitigen Einheit 308) zu übertragen. Nach Übertragung der Anforderung erhebt das Kommunikationsmodul 106 des Fahrzeugs 100 Erfassungsdaten von entfernten Erfassungsvorrichtungen (z. B. einem oder mehreren der Fahrzeuge 304, der straßenseitigen Einheit 308, einer Mobilvorrichtung, einer Drohne, (einer) Erfassungseinheit(en) eines an das Fahrzeug 100 gekoppelten Anhängers usw.), welche die Anforderung empfangen haben und über erhobene Erfassungsdaten verfügen. Des Weiteren analysiert die Bildsynthesesteuerung 108 die erhobenen Erfassungsdaten mittels Bilderkennung, um zu erkennen, dass das Fahrrad 306 an das Fahrzeug 100 gekoppelt ist. Daraufhin erzeugt die Bildsynthesesteuerung 108 eine synthetisierte Darstellung des Fahrrads 306 und modifiziert die synthetisierte Darstellung des Fahrzeugs 100, damit sie die synthetisierte Darstellung des Fahrrads 306 beinhaltet.
  • 4 bildet eine Oberfläche 400 ab, welche durch die Bildsynthesesteuerung 108 über die Anzeige 202 des Fahrzeugs 100 angezeigt wird. Wie in 4 dargestellt, beinhaltet die Oberfläche 400 eine Ansicht aus der Vogelperspektive 402 der modifizierten synthetisierten Darstellung des Fahrzeugs 100. Das heißt, die Ansicht aus der Vogelperspektive 402 beinhaltet eine synthetisierte Darstellung des Fahrzeugs 100, des Fahrrads 306 und eines umliegenden Bereichs des Fahrzeugs 100. Die Oberfläche 400 beinhaltet des Weiteren eine Seitenansicht 404 der modifizierten synthetisierten Darstellung des Fahrzeugs 100. Das heißt, die Seitenansicht 404 beinhaltet eine synthetisierte Darstellung des Fahrzeugs 100, des Fahrrads 306 und eines umliegenden Bereichs des Fahrzeugs 100.
  • 5 ist ein Blockschema elektronischer Komponenten 500 des Fahrzeugs 100. Wie in 5 dargestellt, gehören Folgende zu den elektronischen Komponenten 500: eine fahrzeuginterne Rechenplattform 502, eine Mensch-Maschine-Schnittstellen(MMS)-Einheit 504, das Kommunikationsmodul 106, ein anderes Kommunikationsmodul 506, ein weiteres Kommunikationsmodul 508, Sensoren 510, Steuergeräte (ECUs) 512 und ein Fahrzeugdatenbus 514.
  • Die fahrzeuginterne Rechenplattform 502 beinhaltet einen Prozessor 516 (auch als Mikrocontrollereinheit und Steuerung bezeichnet), einen Speicher 518 und eine Datenbank 520. Im dargestellten Beispiel ist der Prozessor 516 der fahrzeuginternen Rechenplattform 502 so aufgebaut, dass er die Bildsynthesesteuerung 108 beinhaltet. In anderen Beispielen ist die Bildsynthesesteuerung 108 in eine andere ECU mit eigenem Prozessor und Speicher integriert.
  • Bei dem Prozessor 516 kann es sich um jede geeignete Verarbeitungsvorrichtung oder einen Satz Verarbeitungsvorrichtungen handeln, wie unter anderem etwa einen Mikroprozessor, eine mikrocontrollerbasierte Plattform, eine integrierte Schaltung, ein oder mehrere feldprogrammierbare Gate-Arrays (FPGAs), einen oder mehrere Tensor-Prozessoren (TPUs) und/oder eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs). Bei dem Speicher 518 kann es sich um einen flüchtigen Speicher (z. B. RAM, einschließlich nichtflüchtigen RAM, magnetischen RAM, ferroelektrischen RAM usw.), nichtflüchtigen Speicher (z. B. Plattenspeicher, FLASH-Speicher, EPROMs, EEPROMs, memristorbasierten nichtflüchtigen Festkörperspeicher usw.), unveränderbaren Speicher (z. B. EPROMs), Festwertspeicher und/oder Speichervorrichtungen mit hoher Kapazität (z. B. Festplatten, Festkörperlaufwerke usw.) handeln. In einigen Beispielen schließt der Speicher 518 mehrere Speicherarten ein, insbesondere einen flüchtigen Speicher und nichtflüchtigen Speicher. Die interne Datenbank 520 des Fahrzeugs 100 ist dazu ausgelegt, synthetisierte Darstellungen des Fahrzeugs 100 und eines Objekts bzw. von Objekten zu speichern, die an das Fahrzeug gekoppelt sind und/oder sich anderweitig in unmittelbarer Nähe des Fahrzeugs 100 befinden. Die Bildsynthesesteuerung 108 ist beispielsweise dazu ausgelegt, auf die Datenbank zuzugreifen, um (eine) synthetisierte Darstellung(en) des Fahrzeugs 100 und eines Objekts bzw. von Objekten, die an das Fahrzeug 100 gekoppelt sind und/oder sich anderweitig in unmittelbarer Nähe davon befinden, abzurufen.
  • Bei dem Speicher 518 handelt es sich um computerlesbare Medien, in denen ein oder mehrere Sätze Anweisungen, wie etwa die Software zum Ausführen der Verfahren der vorliegenden Offenbarung, eingebettet sein können. Die Anweisungen können eines oder mehrere der Verfahren oder eine Logik, wie in der vorliegenden Schrift beschrieben, verkörpern. Zum Beispiel befinden sich die Anweisungen während der Ausführung der Anweisungen vollständig oder zumindest teilweise in einem beliebigen oder mehreren von dem Speicher 518, dem computerlesbaren Medium und/oder im Prozessor 516.
  • Die Ausdrücke „nicht transitorisches computerlesbares Medium“ und „computerlesbares Medium“ schließen ein einzelnes Medium oder mehrere Medien ein, wie etwa eine zentralisierte oder verteilte Datenbank und/oder zugehörige Zwischenspeicher und Server, auf denen ein oder mehrere Sätze Anweisungen gespeichert sind. Ferner schließen die Ausdrücke „nicht transitorisches computerlesbares Medium“ und „computerlesbares Medium“ ein jedes physische Medium ein, das zum Speichern, Verschlüsseln oder Tragen eines Satzes Anweisungen zur Ausführung durch einen Prozessor in der Lage ist oder das ein System dazu veranlasst, ein beliebiges oder mehrere der in dieser Schrift offenbarten Verfahren oder Vorgänge durchzuführen. Im vorliegenden Zusammenhang ist der Begriff „computerlesbares Medium“ ausdrücklich so definiert, dass er eine jede Art computerlesbarer Speichervorrichtung und/oder Speicherplatte einschließt und das Verbreiten von Signalen ausschließt.
  • Die MMS-Einheit 504 stellt eine Schnittstelle zwischen dem Fahrzeug 100 und einem Benutzer bereit. Die MMS-Einheit 504 beinhaltet digitale und/oder analoge Schnittstellen (z. B. Eingabevorrichtungen und Ausgabevorrichtungen), um Eingaben von dem Benutzer/den Benutzern zu empfangen und diesem/diesen Informationen anzuzeigen. Zu den Eingabevorrichtungen zählen die Konsoleneingabevorrichtungen 204 und andere Vorrichtungen wie bspw. ein Bedienungsknopf/Bedienungsknöpfe, (eine) Armaturentafel(n), Digitalkamera(s) zur Bildaufnahme und/oder Erkennung visueller Befehle, (ein) Touchscreen(s), (eine) Toneingabevorrichtung(en) (z. B. ein Innenraummikrofon), Taste(n), (ein) Touchpad(s) usw. Zu den Ausgabevorrichtungen zählt die Anzeige 202. Darüber hinaus können Kombiinstrumentenausgaben (z. B. Zifferblätter, Beleuchtungsvorrichtungen), Aktoren, Lautsprecher usw. zu den Ausgabevorrichtungen zählen.
  • Das Kommunikationsmodul 506 beinhaltet drahtgebundene oder drahtlose Netzwerkschnittstellen zum Ermöglichen der Kommunikation mit externen Netzwerken. Das Kommunikationsmodul 506 beinhaltet zudem Hardware (z. B. Prozessoren, Arbeitsspeicher, Datenspeicher, Antenne etc.) und Software, um die drahtgebundenen oder drahtlosen Netzwerkschnittstellen zu steuern. Im dargestellten Beispiel beinhaltet das Kommunikationsmodul 506 eine oder mehrere Kommunikationssteuerungen für Mobilfunknetzwerke (z. B. Global System for Mobile Communications (GSM), Universal Mobile Telecommunications System (UMTS), Long Term Evolution (LTE), Code Division Multiple Access (CDMA)), Nahfeldkommunikation (Near Field Communication - NFC) und/oder andere standardbasierte Netzwerke (z. B. WiMAX (IEEE 802.16m), ein drahtloses lokales Netzwerk (einschließlich IEEE 802.11 a/b/g/n/ac oder andere), Wireless Gigabit (IEEE 802.11ad) usw.). In einigen Beispielen beinhaltet das Kommunikationsmodul 506 eine drahtgebundene oder drahtlose Schnittstelle (z. B. einen Hilfsanschluss, einen Universal-Serial-Bus(USB)-Anschluss, einen Bluetooth®-Drahtlosknoten usw.), um kommunikativ mit einer mobilen Vorrichtung (z. B. einem Smartphone, einem Wearable, einer Smartwatch, einem Tablet usw.) gekoppelt zu werden. In derartigen Beispielen kann das Fahrzeug 100 über die gekoppelte Mobilvorrichtung mit dem externen Netzwerk kommunizieren. Bei dem bzw. den externen Netzwerk(en) kann es sich um ein öffentliches Netzwerk, wie etwa das Internet; ein privates Netzwerk, wie etwa ein Intranet; oder Kombinationen daraus handeln, und es kann bzw. sie können eine Vielfalt von Netzwerkprotokollen verwenden, die derzeit zur Verfügung stehen oder später entwickelt werden, einschließlich unter anderem TCP/IP-basierter Netzwerkprotokolle.
  • Das Kommunikationsmodul 508 ist zum Kommunizieren mit einer Mobilvorrichtung (z. B. einem Schlüsselhandsender, einem Telefon mit Schlüsselfunktion) ausgelegt, die für die Kommunikation mit dem Fahrzeug 100 ausgestaltet ist, um Fahrzeugfunktionen wie bspw. Passivzugang, Passivstart, Fernzugang, Fernstart, ferngesteuerte Einparkhilfe usw. zu initiieren. Das Kommunikationsmodul 508 ist beispielsweise dazu ausgelegt, die Mobilvorrichtung zum Initiieren einer oder mehrerer der Fahrzeugfunktion(en) zu verorten. In einigen Beispielen beinhaltet das Kommunikationsmodul 508 ein Verarbeitungsmodul und ein oder mehrere Antennenmodule zum Verorten der Mobilvorrichtung.
  • Die Antennenmodule beinhalten Hardware (z. B. Prozessoren, Arbeitsspeicher, Datenspeicher, Antenne etc.) und Software, um die drahtlose(n) Netzwerkschnittstelle(n) zu steuern. Die Antennenmodule sind beispielsweise für Protokolle drahtloser persönlicher oder lokaler Netzwerke (z. B. Bluetooth®, Bluetooth® Low Energy (BLE), Zigbee®, Z-Wave® usw.) ausgelegt. In einigen Beispielen können die Antennenmodule als „BLE-Antennenmodule (BLEAMs)“ bezeichnet werden, wenn die Antennenmodule zum Implementieren von BLE ausgelegt sind. Die Antennenmodule sind kommunikativ an eine Mobilvorrichtung gekoppelt und messen und/oder empfangen Messungen der Signalstärke der Signale (z. B. empfangene Signalstärkenindikatoren), die von der Mobilvorrichtung gesendet werden, um das Bestimmen einer Entfernung und/oder eines Standorts der Mobilvorrichtung relativ zum Fahrzeug 100 zu unterstützen. Des Weiteren beinhaltet das Fahrzeug 100 in einigen Beispielen ein oder mehrere interne Antennenmodule, die sich im Innenraum 200 befinden, um das Bestimmen zu unterstützen, wann sich die Mobilvorrichtung innerhalb des Innenraums 200 befindet (um bspw. den Passivstart des Fahrzeugs 100 zu ermöglichen).
  • Das Verarbeitungsmodul des Kommunikationsmoduls 508 ist kommunikativ an die Antennenmodule gekoppelt, um eine Entfernung zur und/oder eine Position der Mobilvorrichtung in Bezug auf das Fahrzeug 100 nachzuverfolgen. Das Verarbeitungsmodul kann als „BLE-Modul (BLEM)“ bezeichnet werden, wenn die Antennenmodule zum Implementieren einer BLE-Kommunikation ausgelegt sind. In einigen Beispielen ist das Verarbeitungsmodul dazu ausgelegt, die Signalstärkemessungen (z. B. empfangenen Signalstärkeindikatoren) zwischen den Antennenmodulen und der Mobilvorrichtung zu empfangen und zu analysieren. Auf der Grundlage dieser Messungen bestimmt die Verarbeitungsvorrichtung eine Position der Mobilvorrichtung in Bezug auf das Fahrzeug 100, um die Initiation einer oder mehrerer Fahrzeugfunktionen zu unterstützen. Beispielsweise wird eine Passivzugangsfunktion initiiert, wenn das Verarbeitungsmodul bestimmt, dass sich die Mobilvorrichtung nahe einer Fahrzeugtür befindet, und/oder eine Passivstartfunktion wird initiiert, wenn das Verarbeitungsmodul bestimmt, dass sich die Mobilvorrichtung im Innenraum 200 befindet.
  • Die Sensoren 510 sind in dem und/oder um das Fahrzeug 100 herum angeordnet, um Eigenschaften des Fahrzeugs 100 und/oder einer Umgebung, in der sich das Fahrzeug 100 befindet, zu überwachen. Einer oder mehrere der Sensoren 510 können derart montiert sein, dass sie Eigenschaften um eine Außenseite des Fahrzeugs 100 messen. Zusätzlich oder alternativ dazu können einer oder mehrere der Sensoren 510 in einem Innenraum des Fahrzeugs 100 oder in einer Karosserie des Fahrzeugs 100 (z. B. einem Motorraum, Radkästen usw.) montiert sein, um Eigenschaften in einem Innenbereich des Fahrzeugs 100 zu messen. Zu den Sensoren 510 zählen beispielsweise Beschleunigungsmesser, Wegstreckenzähler, Geschwindigkeitsmesser, Nick- und Gierwinkelsensoren, Raddrehzahlsensoren, Mikrofone, Reifendrucksensoren, biometrische Sensoren und/oder Sensoren jeder beliebigen anderen geeigneten Art.
  • Im dargestellten Beispiel zählen Näherungssensoren 102, die Kameras 104, ein Zündschaltersensor 522 und ein Gangpositionssensor 524 zu den Sensoren 510. Die Näherungssensoren 102 sind dazu ausgelegt, das Vorhandensein, die Nähe und/oder Lage von (einem) Objekt(en) nahe des Fahrzeugs 100 zu erkennen. Die Kameras 104 sind dazu ausgelegt, (ein) Bild(er) und/oder Videomaterial eines umliegenden Bereichs des Fahrzeugs 100 aufzunehmen, um das Identifizieren und Verorten von (einem) Objekt(en) in der Nähe zu ermöglichen. Der Zündschaltersensor 522 ist zum Erkennen eines Zustands eines Motors und/oder Elektromotors des Fahrzeugs 100 ausgelegt. Der Zündschaltersensor 522 erkennt zum Beispiel, ob der Motor und/oder der Elektromotor aktiv und/oder inaktiv ist. Darüber hinaus ist der Gangpositionssensor 524 dazu ausgelegt zu erkennen, in welchen Gang ein Getriebe des Fahrzeugs 100 gestellt ist. So erkennt der Gangpositionssensor 524 zum Beispiel, wann sich das Fahrzeug 100 im Rückwärtsgang befindet.
  • Die ECUs 512 überwachen und steuern die Teilsysteme des Fahrzeugs 100. Bei den ECUs 512 handelt es sich zum Beispiel um einzelne Sätze elektronischer Bauteile, die (eine) eigene(n) Schaltanordnung(en) (z. B. integrierte Schaltanordnungen, Mikroprozessoren, Arbeitsspeicher, Datenspeicher usw.) und Firmware, Sensoren, Aktoren und/oder Montagehardware beinhalten. Die ECUs 512 kommunizieren über einen Fahrzeugdatenbus (z. B. den Fahrzeugdatenbus 514) und tauschen darüber Informationen aus. Zusätzlich dazu können die ECUs 512 einander Eigenschaften (z. B. Status der ECUs 512, Sensormesswerte, Steuerzustand, Fehler- und Diagnosecodes usw.) kommunizieren und/oder Anforderungen voneinander empfangen. Das Fahrzeug 100 kann beispielsweise Dutzende der ECUs 512 aufweisen, die an verschiedenen Stellen am Fahrzeug 100 positioniert und durch den Fahrzeugdatenbus 514 kommunikativ gekoppelt sind.
  • Im dargestellten Beispiel beinhalten die ECUs 512 ein Karosseriesteuermodul 526, eine Autonomieeinheit 528 und ein Kameramodul 530. Das Karosseriesteuermodul 526 steuert ein oder mehrere Teilsysteme im gesamten Fahrzeug 100, etwa elektrische Fensterheber, Zentralverriegelung, eine Wegfahrsperre, elektrisch verstellbare Spiegel etc. Das Karosseriesteuermodul 526 beinhaltet beispielsweise Schaltanordnungen, die eines oder mehrere von Relais (z. B. zum Steuern von Scheibenwischwasser etc.), Bürstengleichstrom(DC)-Motoren (z. B. zum Steuern von elektrisch verstellbaren Sitzen, Zentralverriegelung, elektrischen Fensterhebern, Scheibenwischern etc.), Schrittmotoren, LEDs etc. antreiben. Die Autonomieeinheit 528 steuert die Leistung autonomer und/oder halbautonomer Fahrmanöver des Fahrzeugs 100 (z. B. zur Einparkhilfe, ferngesteuerten Einparkhilfe, Spurwechselassistenz usw.). Beispielsweise führt die Autonomieeinheit 528 Bewegungsfunktionen zumindest teilweise basierend auf (einem) Bild(ern) und/oder Videomaterial, aufgenommen durch die Kameras 104, und/oder auf Daten, die durch die Näherungssensoren 102 erhoben wurden, aus. Darüber hinaus steuert das Kameramodul 530 den Betrieb einer oder mehrerer der Kameras 104, um (ein) Bild(er) und/oder Videomaterial zu erheben. Das bzw. die erhobene(n) Bild(er) und/oder Videomaterial werden beispielsweise verwendet, um synthetisierte Darstellungen (bspw. des Fahrzeugs 100, anderer Objekte usw.) zum Anzeigen an Insassen, die (einem) Insassen des Fahrzeugs 100 angezeigt werden, zu erzeugen, und/oder um die Autonomieeinheit 528 beim Durchführen autonomer und/oder halbautonomer Fahrmanöver zu unterstützen.
  • Der Fahrzeugdatenbus 514 stellt eine Kommunikationsverbindung zwischen dem Kommunikationsmodul 106, der fahrzeuginternen Rechenplattform 502, der MMS-Einheit 504, dem Kommunikationsmodul 506, dem Kommunikationsmodul 508, den Sensoren 510 und den ECUs 512 her. In einigen Beispielen schließt der Fahrzeugdatenbus 514 einen oder mehrere Datenbusse ein. Der Fahrzeugdatenbus 514 kann gemäß einem Controller-Area-Network(CAN)-Bus-Protokoll laut Definition der International Standards Organization (ISO) 11898-1 einem Media-Oriented-Systems-Transport(MOST)-Bus-Protokoll, einem CAN-Flexible-Data(CAN-FD)-Bus-Protokoll (ISO 11898-7) und/oder einem K-Leitungs-Bus-Protokoll (ISO 9141 und ISO 14230-1) und/oder einem Ethernet™-Bus-Protokoll IEEE 802.3 (ab 2002) usw. umgesetzt sein.
  • 6A-6B stellen Flussdiagramme eines Beispielverfahrens 600 zum Erzeugen und Anzeigen einer synthetisierten Darstellung eines Fahrzeugs mittels Nahbereich-Kommunikation dar. Das Flussdiagramm von 6A-6B ist für maschinenlesbare Anweisungen repräsentativ, die in einem Speicher (wie dem Speicher 518 von 5) gespeichert sind und ein oder mehrere Programme beinhalten, welche das Fahrzeug 100 bei Ausführung durch einen Prozessor (wie den Prozessor 516 von 5) dazu veranlassen, die beispielhafte Bildsynthesesteuerung 108 von 1 und 5 umzusetzen. Wenngleich das beispielhafte Programm unter Bezugnahme auf das in 6A-6B dargestellte Ablaufdiagramm beschrieben ist, können alternativ viele andere Verfahren zum Umsetzen der beispielhaften Bildsynthesesteuerung 108 verwendet werden. Beispielsweise kann die Reihenfolge der Ausführung der Blöcke umgeordnet, verändert, weggelassen und/oder kombiniert werden, um das Verfahren 600 durchzuführen. Da das Verfahren 600 in Verbindung mit den Komponenten von 1-5 offenbart ist, werden ferner einige Funktionen dieser Komponenten nachstehend nicht ausführlich beschrieben.
  • Anfänglich, bei Block 602 von 6A, bestimmt die Bildsynthesesteuerung 108, ob ein Aktivierungsereignis erkannt worden ist. Zu beispielhaften Aktivierungsereignissen, die durch die Bildsynthesesteuerung 108 erkannt werden, zählen (i) eine Aktivierung eines Motor und/oder Elektromotors des Fahrzeugs 100, (ii) eine Aktivierung einer oder mehrerer der Kameras 104 des Fahrzeugs 100, (iii) dass ein Getriebe des Fahrzeugs 100 in den Rückwärtsgang geschaltet wurde, (iv) ein Empfang einer Aktivierungsanforderung über einen Touchscreen (z. B. die Anzeige 202) und/oder eine andere Eingabevorrichtung, (v) ein Passivzugang-Passivstart-Ereignis, (vi) ein auf die Einparkhilfe bezogenes Ereignis, (vii) ein Ereignis der Schlüsselkopplung usw. Als Reaktion darauf, dass die Bildsynthesesteuerung 108 kein Aktivierungsereignis erkennt, verharrt das Verfahren 600 bei Block 602. Andernfalls, als Reaktion darauf, dass die Bildsynthesesteuerung 108 ein Aktivierungsereignis erkennt, geht das Verfahren 600 zu Block 604 über.
  • Bei Block 604 erzeugt die Bildsynthesesteuerung 108 eine synthetisierte Fahrzeugdarstellung des Fahrzeugs 100. Beispielsweise ruft die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung aus der internen Datenbank 520 des Fahrzeugs 100 ab. Bei Block 606 überträgt die Bildsynthesesteuerung 108 eine Anforderung von Erfassungsdaten über das Kommunikationsmodul 106. So überträgt das Kommunikationsmodul 106 die Anforderung beispielsweise an (eine) sich in unmittelbarer Nähe befindliche entfernte Erfassungsvorrichtung(en) per DSRC und/oder C-V2X. Bei Block 608 erhebt die Bildsynthesesteuerung 108 Erfassungsdaten von einer oder mehreren entfernten Erfassungsvorrichtungen (z. B. einem oder mehreren von den Fahrzeugen 304, der straßenseitigen Einheit 308, einer Mobilvorrichtung, einer Drohne, (einer) Erfassungseinheit(en) eines an das Fahrzeug 100 gekoppelten Anhängers usw.) über das Kommunikationsmodul 106. Die Erfassungsdaten erhebt das Kommunikationsmodul 106 beispielsweise per DSRC und/oder C-V2X von der bzw. den entfernten Erfassungsvorrichtung(en). Falls die Erfassungsdaten aus einer Vielzahl von Quellen erhoben werden, führt die Bildsynthesesteuerung 108 die erhobenen Erfassungsdaten bei Block 610 zusammen. Bei Block 612 verwendet die Bildsynthesesteuerung 108 Bilderkennungssoftware, um das Fahrzeug 100 in den zusammengeführten Erfassungsdaten zu identifizieren.
  • Bei Block 614, auf 6B verweisend, erkennt die Bildsynthesesteuerung 108, ob an das Fahrzeug 100 ein Objekt (z. B. ein Fahrrad 306, ein Fahrradträger usw.) gekoppelt ist. Die Bildsynthesesteuerung 108 verwendet beispielsweise Bilderkennungssoftware zum Analysieren der zusammengeführten Erfassungsdaten, um zu identifizieren, ob ein Objekt an das Fahrzeug 100 gekoppelt ist. Als Reaktion darauf, dass die Bildsynthesesteuerung 108 erkennt, dass kein Objekt an das Fahrzeug 100 gekoppelt ist, geht das Verfahren 600 zu Block 630 über. Andernfalls, als Reaktion darauf, dass die Bildsynthesesteuerung 108 erkennt, dass ein Objekt an das Fahrzeug 100 gekoppelt ist, geht das Verfahren 600 zu Block 616 über.
  • Bei Block 616 bestimmt die Bildsynthesesteuerung 108, ob sie in der Lage ist, eine synthetisierte Objektdarstellung des Objekts unter Verwendung der zusammengeführten Erfassungsdaten zu erzeugen. Die Bildsynthesesteuerung 108 ist beispielsweise in der Lage, unter Verwendung der zusammengeführten Erfassungsdaten eine synthetisierte Objektdarstellung zu erzeugen, wenn die zusammengeführten Erfassungsdaten Bildinformationen für jede Seite des Objekts beinhalten. Als Reaktion darauf, dass die Bildsynthesesteuerung 108 bestimmt, dass sie in der Lage ist, eine synthetisierte Objektdarstellung unter Verwendung der zusammengeführten Erfassungsdaten zu erzeugen, geht das Verfahren 600 zu Block 618 über, bei welchem die Bildsynthesesteuerung 108 die synthetisierte Objektdarstellung des Objekts unter Verwendung der zusammengeführten Erfassungsdaten erzeugt. So erzeugt die Bildsynthesesteuerung 108 die synthetisierte Objektdarstellung beispielsweise derart, dass sie mit der Gestalt, den Dimensionen, Farben und/oder anderen Charakteristika des an das Fahrzeug 100 gekoppelten Objekts übereinstimmt. Nach Abschluss von Block 618 geht das Verfahren 600 zu Block 628 über. Andernfalls, als Reaktion darauf, dass die Bildsynthesesteuerung 108 bestimmt, dass sie nicht in der Lage ist, eine synthetisierte Objektdarstellung unter Verwendung der zusammengeführten Erfassungsdaten zu erzeugen, geht das Verfahren 600 zu Block 620 über, bei welchem die Bildsynthesesteuerung 108 das an das Fahrzeug 100 gekoppelte Objekt identifiziert. Die Bildsynthesesteuerung 108 verwendet beispielsweise Bilderkennungssoftware zum Analysieren der zusammengeführten Erfassungsdaten, um zu identifizieren, welches Objekt an das Fahrzeug 100 gekoppelt ist.
  • Bei Block 622 bestimmt die Bildsynthesesteuerung 108, ob die interne Datenbank 520 des Fahrzeugs 100 eine synthetisierte Darstellung des identifizierten Objekts beinhaltet. Wenn die Bildsynthesesteuerung 108 beispielsweise identifiziert, dass es sich bei dem an das Fahrzeug 100 gekoppelten Objekt um ein Fahrrad handelt, dann bestimmt die Bildsynthesesteuerung, ob die interne Datenbank 520 des Fahrzeugs 100 eine synthetisierte Darstellung eines Fahrrads beinhaltet. Als Reaktion darauf, dass die Bildsynthesesteuerung 108 bestimmt, dass die interne Datenbank 520 des Fahrzeugs 100 eine synthetisierte Darstellung des identifizierten Objekts beinhaltet, geht das Verfahren 600 zu Block 624 über, bei welchem die Bildsynthesesteuerung 108 die synthetisierte Darstellung des identifizierten Objekts aus der internen Datenbank 520 des Fahrzeugs 100 abruft. Nach Abschluss von Block 618 geht das Verfahren 600 zu Block 628 über. Andernfalls, als Reaktion darauf, dass die Bildsynthesesteuerung 108 bestimmt, dass die interne Datenbank 520 des Fahrzeugs 100 keine synthetisierte Darstellung des identifizierten Objekts beinhaltet, geht das Verfahren 600 zu Block 626 über, bei welchem die Bildsynthesesteuerung 108 die synthetisierte Darstellung des identifizierten Objekts von einem Fernserver abruft. Beispielsweise ruft das Kommunikationsmodul 506 die synthetisierte Objektdarstellung des identifizierten Objekts vom Fernserver für die Bildsynthesesteuerung 108 ab.
  • Bei Block 628 modifiziert die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung des Fahrzeugs 100, damit sie die synthetisierte Objektdarstellung des identifizierten Objekts beinhaltet. Das Modifizieren der synthetisierten Fahrzeugdarstellung durch die Bildsynthesesteuerung 108, damit sie die synthetisierte Objektdarstellung beinhaltet, erfolgt beispielsweise derart, dass die Größe und/oder Ausrichtung der synthetisierten Objektdarstellung in Bezug auf die synthetisierte Darstellung des Fahrzeugs 100 mit der Größe und/oder Ausrichtung des Objekts in Bezug auf das Fahrzeug 100 übereinstimmt. Bei Block 630 erkennt die Bildsynthesesteuerung 108 ein Beleuchtungsverhältnis des umliegenden Bereichs des Fahrzeugs 100 auf der Grundlage der zusammengeführten Erfassungsdaten. Bei Block 632 modifiziert die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung auf der Grundlage des erkannten Beleuchtungsverhältnisses. Beispielsweise hellt die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung im Falle eines Verhältnisses mit viel Licht auf und dunkelt die synthetisierte Fahrzeugdarstellung bei Verhältnissen mit wenig Licht ab. Bei Block 634 zeigt die Bildsynthesesteuerung 108 die synthetisierte Fahrzeugdarstellung über die Anzeige 202 des Fahrzeugs 100 an.
  • In dieser Anmeldung ist mit der Verwendung der Disjunktion auch die Konjunktion gemeint. Die Verwendung von bestimmten oder unbestimmten Artikeln ist nicht zur Verdeutlichung einer Kardinalität gedacht. Insbesondere ist ein Verweis auf „das“ Objekt oder „ein“ Objekt so gemeint, dass er auch eines aus einer möglichen Vielzahl derartiger Objekte meint. Ferner kann die Konjunktion „oder“ dazu verwendet werden, Merkmale wiederzugeben, die gleichzeitig vorhanden sind, anstelle sich gegenseitig ausschließender Alternativen. Anders formuliert ist die Konjunktion „oder“ so zu verstehen, dass sie „und/oder“ einschließt. Die Ausdrücke „beinhaltet“, „beinhaltend“ und „beinhalten“ sind einschließend und weisen jeweils den gleichen Umfang auf wie „umfasst“, „umfassend“ bzw. „umfassen“. Zudem bezeichnen die Ausdrücke „Modul“ und „Einheit“ im vorliegenden Zusammenhang Hardware mit einer Schaltanordnung zum Bereitstellen von Kommunikations-, Steuer- und/oder Überwachungsfunktionen. Ein „Modul“ und eine „Einheit“ können zudem Firmware einschließen, die in der Schaltanordnung ausgeführt wird.
  • Die vorangehend beschriebenen Ausführungsformen und insbesondere etwaige „bevorzugte“ Ausführungsformen sind mögliche Beispiele für Umsetzungen und lediglich zum eindeutigen Verständnis der Grundsätze der Erfindung dargelegt. Viele Variationen und Modifikationen können an der bzw. den vorangehend beschriebenen Ausführungsform(en) vorgenommen werden, ohne im Wesentlichen von Wesen und Grundsätzen der hier beschriebenen Techniken abzuweichen. Es ist vorgesehen, dass in dieser Schrift sämtliche Modifikationen im Umfang dieser Offenbarung eingeschlossen und durch die nachfolgenden Ansprüche geschützt sind.
  • Gemäß der vorliegenden Erfindung ist ein Fahrzeug vorgesehen, aufweisend ein Kommunikationsmodul, das zum drahtlosen Kommunizieren mit entfernten Erfassungsvorrichtungen ausgelegt ist; eine Anzeige, die zum Anzeigen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs ausgelegt ist; und eine Steuerung, die dazu ausgelegt ist, als Reaktion auf ein Erkennen eines Aktivierungsereignisses Erfassungsdaten über das Kommunikationsmodul zu erheben; anhand der Erfassungsdaten zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist; und als Reaktion auf ein Erkennen eines an das Fahrzeug gekoppelten Objekts die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet.
  • Gemäß einer Ausführungsform handelt es sich bei dem Kommunikationsmodul um ein Modul für die dezidierte Nahbereich-Kommunikation (DSRC).
  • Gemäß einer Ausführungsform ist das Kommunikationsmodul dazu ausgelegt, die Erfassungsdaten mittels Fahrzeug-zu-Fahrzeug(V2V)-Kommunikation zu erheben.
  • Gemäß einer Ausführungsform ist das Kommunikationsmodul dazu ausgelegt, die Erfassungsdaten mittels Fahrzeug-zu-Infrastruktur(V2I)-Kommunikation zu erheben.
  • Gemäß einer Ausführungsform beinhalten die über das Kommunikationsmodul erhobenen Erfassungsdaten ein von einer Kamera aufgenommenes Bild.
  • Gemäß einer Ausführungsform ist die Steuerung dazu ausgelegt, als Reaktion auf das Erkennen des Aktivierungsereignisses das Kommunikationsmodul dazu zu veranlassen, eine Anforderung der Erfassungsdaten zu übertragen.
  • Gemäß einer Ausführungsform ist die Anzeige dazu ausgelegt, zumindest eine von einer Ansicht aus der Vogelperspektive und einer Seitenansicht der synthetisierten Fahrzeugdarstellung anzuzeigen.
  • Gemäß einer Ausführungsform beinhaltet das Aktivierungsereignis eine Aktivierung von zumindest einem von einem Motor und einem Elektromotor des Fahrzeugs.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung des Weiteren gekennzeichnet durch eine Kamera und dadurch, dass das Aktivierungsereignis eine Aktivierung der Kamera beinhaltet.
  • Gemäß einer Ausführungsform handelt es sich bei der Anzeige um einen Touchscreen und aktiviert die Steuerung die Kamera als Reaktion auf das Empfangen einer Anforderung über den Touchscreen.
  • Gemäß einer Ausführungsform ist die Kamera eine Heckkamera, und wobei die Steuerung die Heckkamera als Reaktion auf ein Erkennen aktiviert, dass ein Getriebe des Fahrzeugs in den Rückwärtsgang geschaltet ist.
  • Gemäß einer Ausführungsform beinhaltet das Aktivierungsereignis ein Passivzugang-Passivstart(PEPS)-Ereignis.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung des Weiteren durch eine Autonomieeinheit gekennzeichnet, die zur Einparkhilfe ausgelegt ist, und dadurch, dass das Aktivierungsereignis ein auf die Einparkhilfe bezogenes Ereignis beinhaltet.
  • Gemäß einer Ausführungsform ist die Steuerung dazu ausgelegt, die von einer Vielzahl entfernter Erfassungsvorrichtungen erhobenen Erfassungsdaten zusammenzuführen und anhand der zusammengeführten Erfassungsdaten zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist.
  • Gemäß einer Ausführungsform ist die Steuerung dazu ausgelegt, anhand der Erfassungsdaten ein Beleuchtungsverhältnis zu erkennen und die synthetisierte Fahrzeugdarstellung auf der Grundlage des Beleuchtungsverhältnisses zu modifizieren.
  • Gemäß einer Ausführungsform beinhaltet die Kommunikation zwischen dem Kommunikationsmodul und einer entfernten Erfassungsvorrichtung Lagedaten, und wobei die Steuerung dazu ausgelegt ist, auf der Grundlage der Lagedaten einen Standort des Fahrzeugs in den Erfassungsdaten zu identifizieren.
  • Gemäß einer Ausführungsform beinhaltet die synthetisierte Objektdarstellung eine dreidimensionale synthetisierte Darstellung, und wobei die Steuerung dazu ausgelegt ist, die synthetisierte Objektdarstellung unter Verwendung der Erfassungsdaten zu erzeugen.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung des Weiteren gekennzeichnet durch eine fahrzeuginterne Datenbank mit synthetisierten Darstellungen, und wobei die Steuerung dazu ausgelegt ist, bei Identifizieren des Objekts anhand der Erfassungsdaten die synthetisierte Objektdarstellung aus der fahrzeuginternen Datenbank abzurufen.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung des Weiteren gekennzeichnet durch ein zweites Kommunikationsmodul, das zum Kommunizieren mit einem Fernserver ausgelegt ist, und dadurch, dass die Steuerung dazu ausgelegt ist, als Reaktion auf ein Bestimmen, dass die fahrzeuginterne Datenbank die synthetisierte Objektdarstellung nicht beinhaltet, die synthetisierte Objektdarstellung über das zweite Kommunikationsmodul von dem Fernserver abzurufen.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren für ein Fahrzeug ein Erkennen, durch einen Prozessor, eines Aktivierungsereignisses; als Reaktion auf das Erkennen des Aktivierungsereignisses, Erzeugen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs und Erheben von Erfassungsdaten von einem oder mehreren entfernten Erfassungsvorrichtungen über ein Kommunikationsmodul; Bestimmen, durch den Prozessor und anhand der Erfassungsdaten, ob an das Fahrzeug ein Objekt gekoppelt ist; als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts, Modifizieren der synthetisierten Fahrzeugdarstellung, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet; und Anzeigen der synthetisierten Fahrzeugdarstellung über eine Anzeige des Fahrzeugs.

Claims (15)

  1. Fahrzeug, umfassend: ein Kommunikationsmodul, das zum drahtlosen Kommunizieren mit entfernten Erfassungsvorrichtungen ausgelegt ist; eine Anzeige, die zum Anzeigen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs ausgelegt ist; und eine Steuerung, die dazu ausgelegt ist: als Reaktion auf ein Erkennen eines Aktivierungsereignisses Erfassungsdaten über das Kommunikationsmodul zu erheben; anhand der Erfassungsdaten zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist; und als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts die synthetisierte Fahrzeugdarstellung zu modifizieren, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet.
  2. Fahrzeug nach Anspruch 1, wobei die Steuerung dazu ausgelegt ist, als Reaktion auf das Erkennen des Aktivierungsereignisses das Kommunikationsmodul dazu zu veranlassen, eine Anforderung der Erfassungsdaten zu übertragen.
  3. Fahrzeug nach Anspruch 1, wobei die Anzeige dazu ausgelegt ist, zumindest eine von einer Ansicht aus der Vogelperspektive und einer Seitenansicht der synthetisierten Fahrzeugdarstellung anzuzeigen.
  4. Fahrzeug nach Anspruch 1, wobei das Aktivierungsereignis eine Aktivierung von zumindest einem von einem Motor und einem Elektromotor des Fahrzeugs beinhaltet.
  5. Fahrzeug nach Anspruch 1, des Weiteren beinhaltend eine Kamera, und wobei das Aktivierungsereignis eine Aktivierung der Kamera beinhaltet.
  6. Fahrzeug nach Anspruch 5, wobei es sich bei der Anzeige um einen Touchscreen handelt und die Steuerung die Kamera als Reaktion auf das Empfangen einer Anforderung über den Touchscreen aktiviert.
  7. Fahrzeug nach Anspruch 5, wobei die Kamera eine Heckkamera ist und wobei die Steuerung die Heckkamera als Reaktion auf ein Erkennen aktiviert, dass ein Getriebe des Fahrzeugs in den Rückwärtsgang geschaltet ist.
  8. Fahrzeug nach Anspruch 1, wobei das Aktivierungsereignis ein Ereignis bezüglich Passivzugang-Passivstart (PEPS) beinhaltet.
  9. Fahrzeug nach Anspruch 1, des Weiteren beinhaltend eine Autonomieeinheit, die zur Einparkhilfe ausgelegt ist, und wobei das Aktivierungsereignis ein auf die Einparkhilfe bezogenes Ereignis beinhaltet.
  10. Fahrzeug nach Anspruch 1, wobei die Steuerung dazu ausgelegt ist, die von einer Vielzahl entfernter Erfassungsvorrichtungen erhobenen Erfassungsdaten zusammenzuführen und anhand der zusammengeführten Erfassungsdaten zu bestimmen, ob an das Fahrzeug ein Objekt gekoppelt ist.
  11. Fahrzeug nach Anspruch 1, wobei die Kommunikation zwischen dem Kommunikationsmodul und einer entfernten Erfassungsvorrichtung Lagedaten beinhaltet, und wobei die Steuerung dazu ausgelegt ist, auf der Grundlage der Lagedaten einen Standort des Fahrzeugs in den Erfassungsdaten zu identifizieren.
  12. Fahrzeug nach Anspruch 1, wobei die synthetisierte Objektdarstellung eine dreidimensionale synthetisierte Darstellung beinhaltet und wobei die Steuerung dazu ausgelegt ist, die synthetisierte Objektdarstellung unter Verwendung der Erfassungsdaten zu erzeugen.
  13. Fahrzeug nach Anspruch 1, des Weiteren beinhaltend eine fahrzeuginterne Datenbank mit synthetisierten Darstellungen, und wobei die Steuerung dazu ausgelegt ist, bei Identifizieren des Objekts anhand der Erfassungsdaten die synthetisierte Objektdarstellung aus der fahrzeuginternen Datenbank abzurufen.
  14. Fahrzeug nach Anspruch 13, des Weiteren beinhaltend ein zweites Kommunikationsmodul, das zum Kommunizieren mit einem Fernserver ausgelegt ist, und wobei die Steuerung dazu ausgelegt ist, als Reaktion auf ein Bestimmen, dass die fahrzeuginterne Datenbank die synthetisierte Objektdarstellung nicht beinhaltet, die synthetisierte Objektdarstellung über das zweite Kommunikationsmodul von dem Fernserver abzurufen.
  15. Verfahren für ein Fahrzeug, umfassend: Erkennen eines Aktivierungsereignisses durch einen Prozessor; als Reaktion auf das Erkennen des Aktivierungsereignisses, Erzeugen einer synthetisierten Fahrzeugdarstellung des Fahrzeugs und Erheben von Erfassungsdaten von einer oder mehreren entfernten Erfassungsvorrichtungen über ein Kommunikationsmodul; Bestimmen, durch den Prozessor und anhand der Erfassungsdaten, ob an das Fahrzeug ein Objekt gekoppelt ist; als Reaktion auf das Erkennen eines an das Fahrzeug gekoppelten Objekts, Modifizieren der synthetisierten Fahrzeugdarstellung, damit sie eine synthetisierte Objektdarstellung des Objekts beinhaltet; und Anzeigen der synthetisierten Fahrzeugdarstellung über eine Anzeige des Fahrzeugs.
DE102020103673.6A 2019-02-13 2020-02-12 Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation Pending DE102020103673A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/275,230 US11351917B2 (en) 2019-02-13 2019-02-13 Vehicle-rendering generation for vehicle display based on short-range communication
US16/275230 2019-02-13

Publications (1)

Publication Number Publication Date
DE102020103673A1 true DE102020103673A1 (de) 2020-08-13

Family

ID=71738751

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020103673.6A Pending DE102020103673A1 (de) 2019-02-13 2020-02-12 Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation

Country Status (3)

Country Link
US (1) US11351917B2 (de)
CN (1) CN111559386A (de)
DE (1) DE102020103673A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220187462A1 (en) * 2020-12-11 2022-06-16 STMicroelectromics (Research & Development ) Limited Methods and apparatus for locating devices

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102220564B1 (ko) * 2019-05-30 2021-02-25 엘지전자 주식회사 멀티 센서를 이용하여 위치를 추정하는 방법 및 이를구현하는 로봇
WO2020258073A1 (zh) * 2019-06-26 2020-12-30 深圳市大疆创新科技有限公司 可移动平台的交互方法、系统、可移动平台及存储介质
US11654869B2 (en) 2020-10-26 2023-05-23 Ford Global Technologies, Llc Remote user interface commanded vehicle interior sanitization

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617490A (en) 1994-06-27 1997-04-01 Sanyo Electric Co., Ltd. Camera system with neural network compensator for measuring 3-D position
US5717390A (en) 1995-03-20 1998-02-10 Hasselbring; Richard E. Doppler-radar based automatic vehicle-classification system
JP3463612B2 (ja) 1999-01-21 2003-11-05 日本電気株式会社 画像入力方法、画像入力装置及び記録媒体
US20020130953A1 (en) 2001-03-13 2002-09-19 John Riconda Enhanced display of environmental navigation features to vehicle operator
US20030212567A1 (en) 2002-05-07 2003-11-13 Hitachi Ltd. Witness information service with image capturing and sharing
FR2853121B1 (fr) 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
JP4214841B2 (ja) 2003-06-11 2009-01-28 株式会社デンソー 周囲状況認識システム
JP2005209079A (ja) 2004-01-26 2005-08-04 Fujitsu Ten Ltd 車両走行支援装置
JP4546342B2 (ja) 2005-07-07 2010-09-15 パナソニック株式会社 送信装置および送信方法
US7586489B2 (en) 2005-08-01 2009-09-08 Nvidia Corporation Method of generating surface defined by boundary of three-dimensional point cloud
JP4254887B2 (ja) * 2006-07-06 2009-04-15 日産自動車株式会社 車両用画像表示システム
US20090228172A1 (en) 2008-03-05 2009-09-10 Gm Global Technology Operations, Inc. Vehicle-to-vehicle position awareness system and related operating method
US7999861B2 (en) 2008-03-14 2011-08-16 Omron Corporation Image processing apparatus for generating composite image with luminance range optimized for a designated area
US8228380B2 (en) 2008-03-15 2012-07-24 International Business Machines Corporation Informing a driver or an owner of a vehicle of visible problems detected by outside video sources
US8935055B2 (en) * 2009-01-23 2015-01-13 Robert Bosch Gmbh Method and apparatus for vehicle with adaptive lighting system
DE102009031319A1 (de) 2009-06-30 2011-01-05 Siemens Aktiengesellschaft Verfahren und System zur Bestimmung einer Fahrzeugklasse
US10247575B2 (en) 2009-07-10 2019-04-02 Tomtom Telematics B.V. Accelerometer system and method
US10580088B2 (en) 2010-03-03 2020-03-03 The Western Union Company Vehicle travel monitoring and payment systems and methods
PT2450865E (pt) 2010-11-04 2013-04-18 Kapsch Trafficcom Ag Dispositivos e métodos de controlo móveis para veículos
US8473196B2 (en) 2011-02-11 2013-06-25 GM Global Technology Operations LLC Use of self and neighboring vehicle GPS/GNSS data to estimate current and approaching sky visibility changes
US20130103305A1 (en) 2011-10-19 2013-04-25 Robert Bosch Gmbh System for the navigation of oversized vehicles
WO2013086249A2 (en) 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
DE112013002354T5 (de) 2012-05-07 2015-04-16 Honda Motor Co., Ltd. Verfahren zum Erzeugen virtueller Anzeigeflächen aus Videobildern einer straßenbasierten Landschaft
US9117371B2 (en) 2012-06-22 2015-08-25 Harman International Industries, Inc. Mobile autonomous surveillance
US9558667B2 (en) 2012-07-09 2017-01-31 Elwha Llc Systems and methods for cooperative collision detection
US9311544B2 (en) 2012-08-24 2016-04-12 Jeffrey T Haley Teleproctor reports use of a vehicle and restricts functions of drivers phone
PL2757346T3 (pl) 2013-01-21 2016-09-30 Sposób pomiaru profilu wysokościowego pojazdu poruszającego się po drodze
KR102087073B1 (ko) 2013-04-29 2020-03-10 팅크웨어(주) 차량용 영상 처리 장치 및 이를 이용한 데이터 공유 방법
TWI552897B (zh) 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
GB201312038D0 (en) 2013-07-04 2013-08-21 Jaguar Land Rover Ltd Trailer parameter identification system
US9784887B1 (en) 2013-08-12 2017-10-10 Physical Optics Corporation Meteorological sensing systems and methods
JP2015041969A (ja) 2013-08-23 2015-03-02 ソニー株式会社 画像取得装置及び画像取得方法、並びに情報配信システム。
TWI545523B (zh) 2013-08-30 2016-08-11 國立中央大學 影像形狀校正方法以及應用影像形狀校正方法之影像形狀校正裝置
US20150134675A1 (en) 2013-11-14 2015-05-14 Wells Fargo Bank, N.A. Context association
US10275961B2 (en) * 2014-02-14 2019-04-30 GM Global Technology Operations LLC Method for optimizing anti-collision and latency for PEPS passive response
DE102014002540B4 (de) 2014-02-22 2018-08-30 Audi Ag Sicherheitseinrichtung für ein Kraftfahrzeug und zugehöriges Betriebsverfahren
JP6222345B2 (ja) 2014-03-20 2017-11-01 日本電気株式会社 Pos端末装置、posシステム、画像処理方法及びプログラム
DE102014205511A1 (de) * 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
US9440627B2 (en) 2014-05-28 2016-09-13 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for calculating trailer brake control parameters
KR101592740B1 (ko) 2014-07-24 2016-02-15 현대자동차주식회사 차량용 광각카메라의 영상 왜곡 보정 장치 및 방법
EP3026880B1 (de) 2014-11-25 2018-09-12 Application Solutions (Electronics and Vision) Ltd. Schadenserkennungs-Unterstützungssystem
WO2016093553A1 (ko) 2014-12-12 2016-06-16 서울대학교 산학협력단 이벤트 데이터를 수집하는 시스템, 이벤트 데이터를 수집하는 방법, 이벤트 데이터를 수집하는 서비스 서버 및 카메라
US9928544B1 (en) 2015-03-10 2018-03-27 Amazon Technologies, Inc. Vehicle component installation preview image generation
US9595184B2 (en) 2015-06-16 2017-03-14 Muath Khalid ALMANSOUR System, method, and apparatus for incident reporting
US9477894B1 (en) 2015-09-04 2016-10-25 Ford Global Technologies, Llc System and method for measuring object height for overhead clearance detection
JP2017068640A (ja) 2015-09-30 2017-04-06 ヤマハ株式会社 車両間データ通信装置
KR101760312B1 (ko) 2015-11-30 2017-07-31 (주) 알티솔루션 도로교통안전 서비스를 위한 화물 적재상태 검지 시스템
US9424725B1 (en) 2016-01-04 2016-08-23 International Business Machines Corporation School perimeter security system
US10523865B2 (en) 2016-01-06 2019-12-31 Texas Instruments Incorporated Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US10360458B2 (en) 2016-04-13 2019-07-23 GM Global Technology Operations LLC Method of calculating dimensions of a towed vehicle
US10259390B2 (en) * 2016-05-27 2019-04-16 GM Global Technology Operations LLC Systems and methods for towing vehicle and trailer with surround view imaging devices
US10412536B2 (en) 2016-06-23 2019-09-10 Minutepros.Com Corp. Providing secure service provider reverse auctions using certification identifiers, symmetric encryption keys and encrypted uniform resource locators
US10227032B2 (en) 2016-07-01 2019-03-12 Ford Global Technologies, Llc Vehicle headlamp alignment system and method
DE102016212181A1 (de) 2016-07-05 2018-01-11 Volkswagen Aktiengesellschaft Verfahren zur Bestimmung von Längen- und/oder Größenverhältnissen eines Anhängers
US10462445B2 (en) 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
KR102388049B1 (ko) * 2017-02-14 2022-04-19 삼성전자주식회사 무선 통신 시스템에서 통신을 수행하는 장치 및 이를 위한 방법
CN106683139B (zh) 2017-02-20 2023-09-26 南京航空航天大学 基于遗传算法的鱼眼相机标定系统及其图像畸变矫正方法
US10195994B2 (en) 2017-04-07 2019-02-05 GM Global Technology Operations LLC Vehicle side mirror automation
US10282166B2 (en) 2017-05-03 2019-05-07 The Reverie Group, Llc Enhanced control, customization, and/or security of a sound controlled device such as a voice controlled assistance device
CN107226087B (zh) 2017-05-26 2019-03-26 西安电子科技大学 一种结构化道路自动驾驶运输车及控制方法
US10703273B2 (en) * 2017-09-21 2020-07-07 Continental Automotive Systems, Inc. Inferred bird's eye view for trailer reverse assist
US10744941B2 (en) * 2017-10-12 2020-08-18 Magna Electronics Inc. Vehicle vision system with bird's eye view display
CN109996052B (zh) * 2018-01-02 2021-10-22 京东方科技集团股份有限公司 一种车载显示装置、车载显示方法、存储介质及车辆
US20200062117A1 (en) * 2018-08-22 2020-02-27 GM Global Technology Operations LLC Auto-configurable vehicle-user interface
US10942518B2 (en) * 2018-12-12 2021-03-09 GM Global Technology Operations LLC System and method for assisting a vehicle to park in alignment with a wireless battery charging pad

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220187462A1 (en) * 2020-12-11 2022-06-16 STMicroelectromics (Research & Development ) Limited Methods and apparatus for locating devices
US12066539B2 (en) * 2020-12-11 2024-08-20 Stmicroelectronics (Research & Development) Limited Methods and apparatus for locating devices

Also Published As

Publication number Publication date
US20200254931A1 (en) 2020-08-13
CN111559386A (zh) 2020-08-21
US11351917B2 (en) 2022-06-07

Similar Documents

Publication Publication Date Title
DE102020103673A1 (de) Erzeugen synthetisierter fahrzeugdarstellungen für fahrzeuganzeigen mittels nahbereich-kommunikation
DE102018132509A1 (de) Ein Fahrzeug und ein Verfahren zur fahrzeugübergreifenden Zusammenarbeit zur Erfassung von physischer äußerlicher Beschädigung
DE102018113078A1 (de) Fahrzeugfernparksysteme und -verfahren
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102020103455A1 (de) Verfahren und system zur ausführung einer zusammengesetzten verhaltensrichtlinie für ein autonomes fahrzeug
DE102019102195B4 (de) Autonomes Antriebssystem für ein Fahrzeug, Fahrzeug mit solch einem autonomen Antriebssystem sowie Verfahren zum Erkennen einer Kollision zwischen einem autonomen Fahrzeug und einem Objekt
DE102019100495A1 (de) Tethering von mobilen vorrichtungen für ein ferngesteuertes einparkhilfesystem
DE102019124629A1 (de) Einparkhilfe auf grundlage von offenen fahrzeugtürpositionen
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102017116073A1 (de) System und verfahren zur verbesserung der fahrzeugumgebungserfassung
DE102017108775A1 (de) System und Verfahren zum Erkennen und Kommunizieren des Rutschens nicht verbundener Fahrzeuge
DE102018100097A1 (de) Interaktives fahrersystem für halbautonome modi eines fahrzeugs
DE102019101511A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbsthöhenschätzung von fahrzeugen
DE102017112567A1 (de) Totwinkel-erkennungssysteme und verfahren
DE102019118461A1 (de) Blickerfassung von insassen für fahrzeuganzeigen
DE102019116554A1 (de) Detektion von gefluteten fahrzeugen
DE102010053393A1 (de) Verfahren und System zur Kommunikation mit Kraftfahrzeugen
DE102019116747A1 (de) Systeme und verfahren für verriegelungs-/entriegelungsmeldungen eines fahrzeugs
DE102018120517A1 (de) Erfassen von Spurenbedingungen in adaptiven Geschwindigkeitsregelsystemen
DE112016007450B4 (de) Türsteuerverfahren
DE102018132487A1 (de) Fahrzeugüberwachung von infrastrukturbeleuchtung
DE102018131209A1 (de) Synchrone nahbereichsradare zur automatischen anhängerdetektion
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE102018114277A1 (de) Ferngesteuerte einparkhilfeauthentifizierung für fahrzeuge
DE102020105566A1 (de) Überwachung des lenkradeingriffs für autonome fahrzeuge

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE