DE102020122876A1 - Zeitmultiplexierte anzeige für ein fahrzeug - Google Patents

Zeitmultiplexierte anzeige für ein fahrzeug Download PDF

Info

Publication number
DE102020122876A1
DE102020122876A1 DE102020122876.7A DE102020122876A DE102020122876A1 DE 102020122876 A1 DE102020122876 A1 DE 102020122876A1 DE 102020122876 A DE102020122876 A DE 102020122876A DE 102020122876 A1 DE102020122876 A1 DE 102020122876A1
Authority
DE
Germany
Prior art keywords
vehicle
content
computer
location
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020122876.7A
Other languages
English (en)
Inventor
Punarjay Chakravarty
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020122876A1 publication Critical patent/DE102020122876A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0261Targeted advertisements based on user location
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0265Vehicular advertisement
    • G06Q30/0266Vehicular advertisement based on the position of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/589Wireless data transfers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Theoretical Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Diese Offenbarung stellt eine zeitmultiplexierte Anzeige für ein Fahrzeug bereit. Ein System, das einen Computer umfasst, der einen Prozessor und einen Speicher beinhaltet. Der Speicher speichert Anweisungen, die durch den Prozessor zum Betätigen einer digitalen Anzeige an einem Fahrzeug, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und zum Betätigen der digitalen Anzeige, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen, ausführbar sind.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugsensoren.
  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge können dazu ausgestattet sein, sowohl in einem autonomen als auch in einem insassengesteuerten Modus betrieben zu werden. Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um Informationen in Bezug auf die Umgebung des Fahrzeugs zu erfassen und das Fahrzeug auf Grundlage der Informationen zu betreiben. Der sichere und komfortable Betrieb des Fahrzeugs kann vom Erfassen genauer und aktueller Informationen in Bezug auf die Umgebung des Fahrzeugs abhängig sein. Fahrzeugsensoren können Daten in Bezug auf zurückzulegende Routen und zu umfahrenden Objekten in der Umgebung des Fahrzeugs bereitstellen. Der sichere und effiziente Betrieb des Fahrzeugs kann vom Erfassen genauer und aktueller Informationen in Bezug auf Routen und Objekte in einer Umgebung des Fahrzeugs abhängig sein, während das Fahrzeug auf einer Fahrbahn betrieben wird.
  • KURZDARSTELLUNG
  • In dieser Schrift ist ein System offenbart, das einen Prozessor und einen Speicher beinhaltet. Der Speicher speichert Anweisungen, die durch den Prozessor zum Betätigen einer digitalen Anzeige an einem Fahrzeug, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und zum Betätigen der digitalen Anzeige, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen, ausführbar sind.
  • Der erste Satz von Inhalten kann eine Vielzahl von Frames beinhalten und der zweite Satz von Inhalten kann einen einzelnen Frame beinhalten.
  • Die Zeitdauer kann einhundert Millisekunden betragen.
  • Die zweiten Inhalte können eine Markierung beinhalten, die das Fahrzeug identifiziert.
  • Die Anweisungen können ferner Anweisungen zum Empfangen einer Lage des Fahrzeugs von einem entfernten Computer beinhalten, wobei der entfernte Computer dazu programmiert ist, Bilddaten von einem Kamerasensor, die eine Fahrzeugmarkierung in dem zweiten Satz von Inhalten beinhalten, zu empfangen und die Fahrzeuglage an den Computer zu übertragen.
  • Die Anweisungen können ferner Anweisungen zum Navigieren des Fahrzeugs zumindest teilweise auf Grundlage der Fahrzeuglage beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen beinhalten, ob die von dem entfernten Computer empfangenen Daten die Fahrzeuglage auf Grundlage des angezeigten zweiten Satzes von Inhalten beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Erzeugen des zweiten Satzes von Inhalten auf Grundlage einer Fahrzeugkennung beinhalten und der entfernte Computer kann ferner dazu programmiert sein, die Fahrzeugkennung auf Grundlage des empfangenen zweiten Satzes von Inhalten zu decodieren und die Fahrzeugkennung in die übertragene Fahrzeuglage einzuschließen.
  • Die Anweisungen können ferner Anweisungen zum Erzeugen des zweiten Satzes von Inhalten auf Grundlage von Fahrzeugdiagnosedaten beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Betätigen der digitalen Anzeige beinhalten, um den ersten Satz von Inhalten für eine Zeitdauer anzuzeigen, die größer als ein Vielfaches der Zeit ist, die bestimmt wurde, um den ersten Satz von Inhalten für den Menschen erkennbar zu machen.
  • Die Anweisungen können ferner Anweisungen zu Folgendem beinhalten: Erzeugen des zweiten Satzes von Inhalten ferner auf Grundlage einer Position der digitalen Anzeige an dem Fahrzeug, Erzeugen eines dritten Satzes von Inhalten auf Grundlage einer zweiten Position der digitalen Anzeige an dem Fahrzeug, Betätigen der zweiten digitalen Anzeige an dem Fahrzeug, um den ersten Satz von Inhalten für mehr als die Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für den Menschen erkennbar zu machen, und Betätigen der zweiten digitalen Anzeige, um den dritten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen, wobei der entfernte Computer ferner dazu programmiert ist, die Fahrzeuglage ferner auf Grundlage des dritten Satzes von Inhalten, die auf der zweiten digitalen Anzeige angezeigt werden, zu bestimmen.
  • Ferner ist in dieser Schrift ein System offenbart, das Mittel zu Folgendem umfasst: Anzeigen eines ersten Satzes von Inhalten an einem Fahrzeug für mehr als eine Zeitdauer, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und Anzeigen eines zweiten Satzes von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer, Mittel zum Empfangen einer Lage des Fahrzeugs von einem entfernten Computer auf Grundlage des angezeigten zweiten Satzes von Inhalten und Mittel zum Betreiben des Fahrzeugs auf Grundlage der empfangenen Lage des Fahrzeugs.
  • Ferner ist in dieser Schrift ein Vefahren offenbart, das Folgendes umfasst: Betätigen einer digitalen Anzeige an einem Fahrzeug, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen; und Betätigen der digitalen Anzeige, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen.
  • Der erste Satz von Inhalten kann eine Vielzahl von Frames beinhalten und der zweite Satz von Inhalten beinhaltet einen einzelnen Frame.
  • Die Zeitdauer kann einhundert Millisekunden betragen.
  • Der zweite Satz von Inhalten kann eine Markierung beinhalten, die das Fahrzeug identifiziert.
  • Das Verfahren kann ferner Folgendes beinhalten: Empfangen von Bilddaten von einem Kamerasensor, die eine Fahrzeugmarkierung in dem zweiten Satz von Inhalten beinhalten, in einem entfernten Computer, Übertragen einer Fahrzeuglage an einen Fahrzeugcomputer, Empfangen einer Lage des Fahrzeugs von einem entfernten Computer in dem Fahrzeugcomputer und Navigieren des Fahrzeugs zumindest teilweise auf Grundlage der Fahrzeuglage.
  • Das Verfahren kann ferner Bestimmen beinhalten, ob die von dem entfernten Computer empfangenen Daten die Fahrzeuglage auf Grundlage des angezeigten zweiten Satzes von Inhalten beinhalten.
  • Das Verfahren kann ferner Folgendes beinhalten: Erzeugen des zweiten Satzes von Inhalten auf Grundlage einer Fahrzeugkennung, Decodieren der Fahrzeugkennung in einem entfernten Computer auf Grundlage des empfangenen zweiten Satzes von Inhalten und Einschließen der Fahrzeugkennung in die übertragene Fahrzeuglage.
  • Das Verfahren kann ferner Erzeugen des zweiten Satzes von Inhalten auf Grundlage von Fahrzeugdiagnosedaten beinhalten.
  • Ferner ist eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen. Noch ferner ist eine Flugdrohne offenbart, die die Rechenvorrichtung umfasst. Noch ferner ist ein Fahrzeug offenbart, das die Rechenvorrichtung umfasst.
  • Noch ferner ist ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, welches Anweisungen speichert, die durch einen Computerprozessor ausführbar sind, um beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Figurenliste
    • 1 zeigt ein beispielhaftes Fahrzeug und einen stationären Kamerasensor.
    • 2 zeigt eine perspektivische Ansicht des Fahrzeugs aus 1 mit darübergelegten beispielhaften Ausrichtungsvektoren.
    • 3 ist ein Diagramm beispielhafter Bezugsmarkierungen.
    • 4 ist eine beispielhafte Grafik, die zeitmultiplexierte erste und zweite Frames zeigt.
    • 5 veranschaulicht ein Ablaufdiagramm eines beispielhaften Prozesses zum Betreiben des Fahrzeugs.
  • DETAILLIERTE BESCHREIBUNG
  • Fahrzeugsensoren können Daten in Bezug auf zurückzulegende Routen und zu umfahrenden Objekten in der Umgebung des Fahrzeugs bereitstellen. Um das Fahrzeug auf einer Route zu betreiben, bestimmt der Computer einen Fahrzeugweg zumindest auf Grundlage eines tatsächlichen Standorts und einer tatsächlichen Ausrichtung eines Fahrzeugs. Jedoch können Fahrzeugsensoren zum Bereitstellen von Daten zu der Umgebung eines Fahrzeugs ineffizient, nicht verfügbar usw. sein. Wie in dieser Schrift offenbart kann ein entfernter Computer den Standort und/oder die Ausrichtung eines Fahrzeugs auf Grundlage von Daten bestimmen und bereitstellen, die von stationären Sensoren außerhalb des Fahrzeugs mit einem Sichtfeld, das das Fahrzeug beinhaltet, empfangen werden. Der stationäre Sensor kann den Standort und/oder die Ausrichtung des Fahrzeugs auf Grundlage von Bilddaten bestimmen, die z. B. eine Markierung beinhalten, die auf der Fahrzeugaußenseite angezeigt wird.
  • In einem Beispiel kann zum Bereitstellen der Bilddaten an entfernte Sensoren ein Fahrzeugcomputer dazu programmiert sein, eine digitale Anzeige an einer Fahrzeugaußenseite zu betätigen, um eine Vielzahl von ersten Frames, die einen ersten Satz von Inhalten beinhalten, und einen oder mehrere zweite Frames, die einen zweiten Satz von Inhalten beinhalten, anzuzeigen. Die ersten Frames werden für eine Mehrheit von Zyklen angezeigt, sodass mindestens zwei erste Frames nacheinander für mehr als 100 Millisekunden (ms) angezeigt werden und der eine oder die mehreren zweiten Frames jeweils unmittelbar nach und unmittelbar vor einem der ersten Frames für weniger als 100 ms angezeigt werden.
  • 1 veranschaulicht ein beispielhaftes Fahrzeug 100, das einen Computer 110, (einen) Aktor(en) 120, (einen) Sensor(en) 130 und andere Komponenten, die nachstehend in dieser Schrift erörtert werden, beinhaltet. Das Fahrzeug 100 kann auf eine Vielzahl von bekannten Weisen angetrieben werden, z. B. einschließlich mithilfe eines Elektromotors und/oder Verbrennungsmotors. Ein Referenzpunkt 140 kann für ein Fahrzeug 100 definiert sein, z. B. ein geometrischer Mittelpunkt (d. h. ein Schnittpunkt von halbierenden Längs-, Quer- und Vertikalachsen) des Fahrzeugs 100. Das Fahrzeug 100 beinhaltet eine Karosserie 105, die aus Metall, Kunststoff, Verbundmaterial und/oder einem beliebigen anderen geeigneten Material usw. gebildet sein kann. Das Fahrzeug 100 beinhaltet eine oder mehrere digitale Anzeigen 150, die z. B. an einer Außenfläche der Karosserie 105 montiert sind, z. B. an einer Seite, Vorderseite, Rückseite oder Oberseite der Karosserie 105 des Fahrzeugs 100 montiert sind.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen von computerlesbaren Medien und speichert Anweisungen, die durch den Computer 110 ausführbar sind, um verschiedene Vorgänge durchzuführen, einschließlich der in dieser Schrift offenbarten.
  • Der Computer 110 kann das Fahrzeugs 100 in einem autonomen oder halbautonomen Modus betreiben. Zum Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsen und Lenkung des Fahrzeugs 100 durch den Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer 110 eines oder zwei von Antrieb, Bremsen und Lenkung des Fahrzeugs 100; in einem nicht autonomen Modus steuert ein menschlicher Betreiber den Antrieb, das Bremsen und die Lenkung des Fahrzeugs.
  • Der Computer 110 kann eine Programmierung beinhalten, um eines oder mehrere von Bremsen, Antrieb (z. B. Steuerung der Beschleunigung des Fahrzeugs durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenbeleuchtung usw. des Fahrzeugs zu betreiben, sowie um zu bestimmen, ob und wann der Computer 110 derartige Vorgänge anstelle eines menschlichen Betreibers steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., enthalten sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über einen Kommunikationsbus des Fahrzeugs, wie nachstehend ausführlicher beschrieben. Der Computer 110 ist im Allgemeinen zur Kommunikation über ein Fahrzeugkommunikationsnetzwerk ausgelegt, wie etwa einen Bus in dem Fahrzeug, wie etwa ein Controller Area Network (CAN) oder dergleichen.
  • Über das Fahrzeugnetzwerk kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. dem/den Sensor(en) 130, dem/den Aktor(en) 120 usw., empfangen. Alternativ oder zusätzlich kann in den Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugkommunikationsnetzwerk für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 110 dargestellt sind. Ferner können, wie nachstehend erwähnt, verschiedene Steuerungen und/oder Sensoren dem Computer 110 Daten über das Fahrzeugkommunikationsnetzwerk bereitstellen.
  • Die Aktoren 120 des Fahrzeugs 100 können über Schaltungen, Chips oder andere elektronische Komponenten umgesetzt sein, die unterschiedliche Fahrzeugteilsysteme gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Aktoren 120 können dazu verwendet werden, das Bremsen, Beschleunigen und Lenken des Fahrzeugs 100 zu steuern. Als ein Beispiel kann der Computer 110 des Fahrzeugs 100 Steueranweisungen ausgeben, um die Aktoren 120 zu steuern.
  • Zusätzlich kann der Computer 110 dazu konfiguriert sein, durch eine drahtlose Fahrzeug-zu-Fahrzeug-(F-F-)Kommunikationsschnittstelle mit anderen Fahrzeugen, z. B. über Fahrzeug-zu-Fahrzeug-Kommunikation, zu kommunizieren. Die F-F- oder F-X-Kommunikation stellt einen oder mehrere Mechanismen dar, durch welche die Computer 110 der Fahrzeuge 100 mit anderen Fahrzeugen 100 und/oder Infrastrukturelementen, z. B. einem Computer 170 in einer stationären Kamera 160, kommunizieren können, und kann einer oder mehrere von drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination aus drahtlosen und drahtgebundenen Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn eine Vielzahl von Kommunikationsmechanismen verwendet wird). Beispielhafte F-F-Kommunikationsprotokolle beinhalten Mobilfunk, Bluetooth, IEEE 802.11, dedizierte Nahbereichskommunikation (dedicated short range communication - DSRC) und/oder Weitverkehrsnetze (wide area network - WAN) einschließlich des Internets, die Datenkommunikationsdienste bereitstellen. DSRC kann drahtlose Kommunikationskanäle zur Einweg- oder Zweiwegkommunikation im Nahbereich bis mittleren Bereich beinhalten.
  • Die Sensoren 130 des Fahrzeugs 100 können Daten vom Erfassen mindestens eines Teils einer Außenseite des Fahrzeugs 100 bereitstellen, z. B. einen GPS(Global Positioning System)-Sensor, eine Kamera, Radar und/oder Lidar (light imaging detection and ranging). Unter Bezugnahme auf die 1-2 kann der Computer 110 dazu programmiert sein, eine Lage des Fahrzeugs 100 auf Grundlage von Daten zu bestimmen, die von dem/den Sensor(en) 130 des Fahrzeugs 100 empfangen werden, z. B. dem Lidarsensor 130, dem GPS-Sensor 130, dem Gierratensensor 130, dem Beschleunigungsmessersensor 130, usw. Zusätzlich oder alternativ kann der Computer 110 dazu programmiert sein, die Daten zur Lage des Fahrzeugs 100 von einem entfernten Computer, z. B. einem Computer 170 einer stationären Kamera 160, zu empfangen. Im vorliegenden Zusammenhang ist eine Lage(oder Lage mit sechs Freiheitsgraden) des Fahrzeugs 100 ein Satz von Daten, die einen Standort und eine Ausrichtung des Fahrzeugs 100 definieren. Der Standort kann durch Standortkoordinaten (x, y, z) des Fahrzeugs 100 in Bezug auf ein dreidimensionales (3D-)Koordinatensystem 200 angegeben werden. Das Standortkoordinatensystem 200 kann ein kartesisches Koordinatensystem sein, das X-, Y- und Z-Achsen beinhaltet. Das Standortkoordinatensystem 200 weist einen Ursprungspunkt auf, z. B. einen Referenzpunkt des globalen Positionsbestimmungssystems (GPS). Eine Ausrichtung des Fahrzeugs 100 wird durch einen Datensatz angegeben, der Rollen, Neigen und Gieren des Fahrzeugs 100 beinhaltet. Das Rollen, Neigen und Gieren können als Winkel in Bezug auf die Achsen 220, 230 angegeben sein, die sich am Referenzpunkt 140 des Fahrzeugs 100 schneiden, und eine Ebene, die die Achsen 220, 230 beinhaltet, kann parallel zur Bodenfläche sein.
  • Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, das Fahrzeug 100 zumindest teilweise auf Grundlage der Lage des Fahrzeugs 100 zu betreiben. Zum Beispiel kann der Computer 110 dazu programmiert sein, Objekte, wie etwa Straßenkante (n), Gebäude, Kreuzungen usw. auf Grundlage der bestimmten Lage des Fahrzeugs 100 und der empfangenen Kartendaten zu identifizieren. Eine 3D-Karte eines Gebiets ist im Kontext der vorliegenden Offenbarung eine digitale Karte, die 3D-Standortkoordinaten von Punkten auf Oberflächen, z. B. einer Straßenoberfläche, von Verkehrszeichen, Gebäuden, Vegetation usw. innerhalb des kartierten Gebiets beinhaltet. Ein Gebiet ist ein Abschnitt der Bodenfläche, z. B. eine Straße, eine Nachbarschaft usw. Standortkoordinaten eines Punkts in einem Gebiet, z. B. eines Punkts auf einer Straßenoberfläche, können durch X-, Y- und Z-Koordinaten, z. B. in einem kartesischen Koordinatensystem 200, angegeben sein. X- und Y-Koordinaten, d. h. horizontale Koordinaten, können z. B. Koordinaten des globalen Positionierungssystems (GPS) (d. h. Breiten- und Längenkoordinaten) oder dergleichen sein, und eine Z-Koordinate kann eine vertikale Komponente zu einem Standort angeben, d. h. eine Höhe (oder Höhenlage) eines Punkts von einer festgelegten horizontalen Referenzebene, z. B. Meeresspiegel oder Bodenebene. Der Computer 110 kann dazu programmiert sein, einen Fahrzeugweg auf Grundlage der Lage des Fahrzeugs 100, von Kartendaten und Objektdaten, die den Standort, die Abmessungen usw. von Hindernissen auf dem Fahrzeugweg angeben, zu bestimmen.
  • Das Fahrzeug 100 beinhaltet eine oder mehrere digitale Anzeigen 150. Eine Anzeige 150 kann unter Verwendung von Chips, elektronischen Komponenten und/oder einer Leuchtdiode (light emitting diode - LED), einer Flüssigkristallanzeige (liquid crystal display - LCD), einer organischen Leuchtdiode (light emitting diode - OLED) usw. umgesetzt sein. Die Anzeige 150 kann an einer Außenfläche des Fahrzeugs 100 angebracht sein oder kann als Teil der Außenfläche der Karosserie 105 hergestellt sein. Die Anzeige 150 kann Bild-Frames von dem Computer 110, z. B. über ein Fahrzeugkommunikationsnetzwerk usw., empfangen. Eine Anzeige 150 weist typischerweise eine Aktualisierungsrate auf, die in Frames pro Sekunde (fps) oder Hertz (Hz) angegeben werden kann. Zum Beispiel kann die Anzeige 150 eine Aktualisierungsrate von 30 fps oder 30 Hz aufweisen (d. h. einen angezeigten Frame 30 Mal pro Sekunde ersetzen/aktualisieren). In einem Beispiel kann der Computer 110 dazu programmiert sein, eine Sequenz von Bild-Frames auf Grundlage der Aktualisierungsrate der Anzeige 150 an die Anzeige 150 zu übertragen, z. B. einen Satz von 30 Bild-Frames jede Sekunde an die Anzeige 150 zu übertragen, wie unter Bezugnahme auf 3 erörtert. In einem anderen Beispiel kann der Computer 110 dazu programmiert sein, Bild-Framedaten mit zugehörigen Zeitstempeln zu senden, und die Anzeige 150 kann dazu konfiguriert sein (z. B. einen Prozessor aufweisen, der dazu programmiert ist), die empfangenen Bild-Frames auf Grundlage des Zeitstempels jedes Bild-Frames auszugeben.
  • Unter weiterer Bezugnahme auf 1 kann sich das Fahrzeug 100 innerhalb eines Sichtfelds eines Kamerasensors 160 befinden, der stationär ist, z. B. an einer Stange montiert ist, an einem sich nicht bewegenden Truck positioniert ist, an einem Gebäude montiert ist usw. Der Kamerasensor 160 kann einen Computer 170 beinhalten, der dazu programmiert ist, Bilddaten zu empfangen und eine Lage des Fahrzeugs 100 zu bestimmen. Die stationäre Auslegung des Kamerasensors 160 ermöglicht es einem Computer, z. B. dem Computer 170 des Kamerasensors 160, Daten in Bezug auf die Lage des Kamerasensors 160, z. B. in Bezug auf das globale 3D-Koordinatensystem 200, erfassen. Die Lage des Kamerasensors 160 kann mit Daten in Bezug auf den Standort eines Sichtfelds der Videokamera 160 kombiniert werden, wie nachstehend weiter beschrieben. Beispielsweise können Daten in Bezug auf den Vergrößerungsfaktor einer in dem Kamerasensor 160 enthaltenen Linse mit Kartendaten in Bezug auf die Standorte von Abschnitten im Sichtfeld kombiniert werden, um eine Umwandlung auf Grundlage von projektiver Geometrie zu bestimmen, die Lagen in Pixelkoordinaten in globale Koordinaten umwandelt. Eine Umwandlung zum Umwandeln von Pixelkoordinaten in globale Koordinaten kann zudem bestimmt werden, indem beispielsweise Bilddaten in Bezug auf Bezugsmarkierungen 300 im Sichtfeld erfasst und die Bezugsmarkierungen 300 gemessen werden. Das Bestimmen einer Umwandlung zum Umwandeln von Pixelkoordinaten in globale Koordinaten für einen Kamerasensor 160 kann als Kalibrieren des Kamerasensors 160 beschrieben werden.
  • Der Computer 170 kann dazu programmiert sein, eine Lage eines Fahrzeugs 100 in Bezug auf das Koordinatensystem 200 auf Grundlage der empfangenen Bilddaten, der Standortkoordinaten und der Lage des stationären Kamerasensors 160 und der empfangenen Kartendaten zu bestimmen. In einem Beispiel kann der Computer 170 dazu programmiert sein, eine Lage des Fahrzeugs 100 auf Grundlage einer oder mehrerer Bezugsmarkierungen 300 (3) zu bestimmen, die auf der/den Anzeige(n) 150 des Fahrzeugs 100 angezeigt werden.
  • 3 ist ein Diagramm einer beispielhaften Bezugsmarkierung 300. Eine Bezugsmarkierung 300 ist ein im Sichtfeld eines Bildgebungssystems platziertes Objekt, das in dem erzeugten Bild erscheint, zur Verwendung als Referenzpunkt oder Messung. Eine Bezugsmarkierung 300 kann beispielsweise eine Anzahl von ArUco-Bezugsmarkierungen 310 beinhalten. ArUco-Bezugsmarkierungen 310 sind zweidimensionale (2D-)Muster aus einer Sammlung von Bezugsmarkierungen, die auf www.uco.es/grupos/ava/node/26, „Aplicaciones de la Vision Artificial“, Universität von Cordoba, Spanien, 15. Mai 2019, beschrieben ist. ArUco-Bezugsmarkierungen sind dazu ausgelegt, von Software für maschinelles Sehen gelesen zu werden, die eine Lage in Pixelkoordinaten für jede in einer Bezugsmarkierung 300 enthaltene ArUco-Bezugsmarkierung 310 bestimmen kann, indem sie ein 2D-(zweidimensionales) Videobild der Bezugsmarkierung 300 verarbeitet.
  • Eine Bezugsmarkierung 300 kann dazu verwendet werden, eine Lage eines Fahrzeugs 100 unter Verwendung eines stationären Kamerasensors 160 durch Anzeigen der Bezugsmarkierung 300 an dem Fahrzeug 100 zu bestimmen. Zum Beispiel kann eine Anzeige 150 des Fahrzeugs 110, die an einem Dach, einer Tür usw. des Fahrzeugs 100 montiert ist, eine Bezugsmarkierung 300 anzeigen. Wenn das Fahrzeug 100 in das Sichtfeld eines stationären Kamerasensors 160 gelangt, kann ein Bild (oder ein Videobild) des Fahrzeugs 100, das die Bezugsmarkierung 300 beinhaltet, erfasst werden und der Computer 170 kann unter Verwendung von Software für maschinelles Sehen eine 3D-Lage der Bezugsmarkierung 300 bestimmen. Der Computer 170 kann dazu programmiert sein, Daten zur Lage des Fahrzeugs 100, z. B. über ein drahtloses F-X-Kommunikationsnetzwerk, wie vorstehend beschrieben, an das Fahrzeug 100 zu übertragen.
  • Durch Bestimmen einer Lage für jede Bezugsmarkierung 310, die in einem Bild einer Bezugsmarkierung 300 enthalten ist, kann der Computer 170 eine Lage des Fahrzeugs 100 bestimmen, an dem die Bezugsmarkierung 300 durch die Anzeige 150 des Fahrzeugs 100 angezeigt wird. Zum Beispiel kann der Computer 170 dazu programmiert sein, eine Lage des Fahrzeugs 100 unter Verwendung eines neuronalen Faltungsnetzwerks (convolutional neural network - CNN) zu bestimmen. Bei einem CNN handelt es sich um ein Softwareprogramm, das auf einer Rechenvorrichtung umgesetzt sein kann, die dazu trainiert werden kann, ein Bild eines Fahrzeugs 100 einzugeben und als Reaktion darauf eine Lage des Fahrzeugs 100 auszugeben. Ein CNN beinhaltet eine Vielzahl von Faltungsschichten, die versteckte Merkmale aus einem eingegebenen Bild eines Fahrzeugs 100 extrahieren, die an eine Vielzahl von vollständig verbundenen Schichten weitergegeben werden, die die versteckten Merkmale in eine Lage des Fahrzeugs 100 umwandeln. Ein CNN kann dazu trainiert werden, eine Verarbeitung der Lage des Fahrzeugs 100 durchzuführen, indem es eine Vielzahl von Bildern von Fahrzeugen 100 verarbeitet, die die angezeigte(n) Bezugsmarkierung(en) 300 beinhaltet, um eine Lage des Fahrzeugs 100 zu bestimmen. Die z. B. unter Verwendung eines LIDAR-Sensors 130, eines Standortsensors 130 des Fahrzeugs 100 usw. bestimmte Lage des Fahrzeugs wird als „Ground Truth“ definiert, da sie unabhängig von dem CNN bestimmt wurde. Das CNN wird durch Eingeben eines Bilds eines Fahrzeugs 100, das durch die Kamera 160 aufgenommen wurde, und Zurückpropagieren von Ergebnissen, die mit der Ground-Truth-Lage verglichen werden sollen, um eine Verlustfunktion zu bestimmen, trainiert. Das Trainieren des CNN beinhaltet das Bestimmen von Parametern für Faltungs- und vollständig verbundene Schichten, die die Verlustfunktion minimieren. Wenn es trainiert ist, kann ein CNN ein Bild eines Fahrzeugs 100 eingeben, das von dem stationären Sensor 160 empfangen wurde, und eine Lage, z. B. in Bezug auf den Kamerasensor 160 ausgeben. Wie vorstehend erörtert kann die Lage in globale Koordinaten, z. B. das Koordinatensystem 200, umgewandelt, d. h. in Bezug auf diese beschrieben werden, indem die ausgegebene Lage des CNN und eine Lage des stationären Kamerasensors 160 und Daten in Bezug auf das Sichtfeld kombiniert werden.
  • Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, eine Kennung des Fahrzeugs 100, z. B. eine Kennzeichennummer, in die Bezugsmarkierung 300 einzubetten, die auf dem jeweiligen Fahrzeug 100 angezeigt wird. Somit kann die Bezugsmarkierung 300 das Fahrzeug 100 identifizieren, an dem die Markierung 300 angezeigt wird. Anders ausgedrückt kann eine Kennung des Fahrzeugs 100 anhand der Bezugsmarkierung 300 decodiert werden. Der Computer 170 kann dazu programmiert sein, die Kennung des Fahrzeugs 100 anhand der Bezugsmarkierung 300 zu decodieren, die an dem Fahrzeug 100 angezeigt wird, und die Daten zur Lage des Fahrzeugs 100, die die Kennung des Fahrzeugs 100 und die entsprechenden Lagedaten beinhalten, über das drahtlose Netzwerk zu übertragen. Somit kann ein Computer 110 des Fahrzeugs 100, der Daten zur Lage des Fahrzeugs und eine entsprechende Fahrzeugkennung empfängt, dazu programmiert sein, auf Grundlage einer gespeicherten Kennung des Fahrzeugs 100 zu bestimmen, ob die empfangenen Lagedaten die Lagedaten des Ego-Fahrzeugs 100 oder Lagedaten eines zweiten Fahrzeugs 100 sind. Der Computer 110 kann dazu programmiert sein, das Fahrzeug 100 auf Grundlage der empfangenen Lagedaten zu betreiben, wenn bestimmt wird, dass die empfangenen Lagedaten die entsprechenden Lagedaten des Fahrzeugs 100 sind.
  • Unter Bezugnahme auf die 1 und 4 kann der Computer 110 dazu programmiert sein, eine digitale Anzeige 150 an einem Fahrzeug 100 zu betätigen, um eine Vielzahl von ersten Frames F1, die einen ersten Satz von Inhalten beinhalten, und einen oder mehrere zweite Frames F2, die einen zweiten Satz von Inhalten beinhalten, anzuzeigen. Eine Zeitdauer zum Anzeigen des ersten und zweiten Satzes von Inhalten kann auf Grundlage einer Zeitdauer bestimmt werden, für die im Allgemeinen bekannt ist, dass angezeigte Inhalte von einem menschlichen Auge erkannt werden oder nicht. Im Allgemeinen ist bekannt, dass diese Zeitdauer im Wesentlichen 100 ms beträgt. Die ersten Frames F1 werden für eine Mehrheit von Zyklen Tc angezeigt, sodass mindestens zwei erste Frames F1 nacheinander für eine erste Zeitdauer T1, die mehr als 100 ms beträgt, und der eine oder die mehreren zweiten Frames F2 jeweils unmittelbar nach und unmittelbar vor, d. h. ohne dazwischenliegende Frames, einem der ersten Frames F1 für eine zweite Zeitdauer T2, die weniger als 100 ms beträgt, angezeigt werden. In einem Beispiel kann vorgeben sein, dass die erste Zeit T1 kürzer als ein Schwellenwert, z.B. 100 ms, ist, wohingegen die zweite Zeit T2 länger als ein zweiter Schwellenwert sein kann, der ein Vielfaches, z. B. das 5-Fache, der Zeitdauer beträgt, die bestimmt wurde, um den ersten Satz von Inhalten für das menschliche Sehvermögen erkennbar zu machen. Somit kann eine Wahrscheinlichkeit verbessert werden, dass das menschliche Sehvermögen den ersten Satz von Inhalten erkennt. In einem in 4 gezeigten Beispiel können die ersten und die zweiten Inhalte periodisch mit einer Zykluszeit Tc angezeigt werden.
  • Zum Beispiel können bei einer Aktualisierungsrate von 30 Hz und einer Zykluszeit Tc von 1 Sekunde die 18 ersten Frames für eine erste Zeitdauer T1 von 934 ms angezeigt werden und können zwei der zweiten Frames F2 für eine zweite Zeitdauer T2 von 66 ms angezeigt werden, wodurch die ersten Inhalte, die in den ersten Rahmen enthalten sind, im Vergleich zu den zweiten Inhalten, die in den zweiten Frames enthalten sind, die meiste Zeit angezeigt werden. Das menschliches Sehvermögen erkennt typischerweise ein Bild (oder macht es erkennbar), wenn es länger als 100 ms betrachtet wird. Andererseits kann ein Kamerasensor 160 einen Bildgebungssensor beinhalten, der die Erkennung von Bildern ermöglicht, die für weniger als 100 ms angezeigt werden, z. B. kann ein Kamerasensor 100 Bilder pro Sekunde abtasten und somit ein Bild aufnehmen, das für mehr als 10 ms gezeigt wird. Somit kann der Computer 170 dazu programmiert sein, den ersten und zweiten Satz von Inhalten zu erfassen, wohingegen ein menschliches Auge den ersten Satz von Inhalten erkennen kann.
  • Der zweite Satz von Inhalten kann eine Markierung beinhalten, wie etwa die Bezugsmarkierung 300 (3), die das Fahrzeug 100 identifiziert. Der erste Satz von Inhalten kann herkömmliche Standbilder oder bewegte Bilder beinhalten (z. B. kann ein Fahrzeug 100 dazu verwendet werden, eine Werbung, Textinformationen, ein Logo usw. bereitzustellen). Somit kann ein menschlicher Beobachter außerhalb des Fahrzeugs 100, z. B. ein Fußgänger, den ersten Inhalt, z. B. die Werbung, sehen und erkennen, während er den zweiten Inhalt, z. B. die Markierung 300, nicht erkennt. Wie vorstehend erörtert kann der Computer 170 dazu programmiert sein, die Lage des Fahrzeugs 100 auf Grundlage des zweiten Inhalts, z. B. der Bezugsmarkierung 300, zu bestimmen und die Lage des Fahrzeugs 100 und die Kennung des Fahrzeugs 100 über ein drahtloses Kommunikationsnetzwerk zu übertragen. Zum Beispiel kann der Computer 170 unter Verwendung eines CNN, wie vorstehend erörtert, dazu programmiert sein, die Lage des Fahrzeugs 100 auf Grundlage der Bilddaten, die die Bezugsmarkierung 300 beinhalten, zu bestimmen. Der Computer 170 kann dazu programmiert sein, Daten, die die Lage des Fahrzeugs 100 beinhalten, über ein drahtloses Netzwerk zu übertragen. Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, eine Lage des Fahrzeugs 100 von einem entfernten Computer, z. B. dem Computer 170, zu empfangen und das Fahrzeug zumindest teilweise auf Grundlage der Lage des Fahrzeugs 100 zu navigieren.
  • Wie vorstehend erörtert kann der zweite Datensatz eine Bezugsmarkierung 300 beinhalten, die das Fahrzeug 100 identifiziert. Zusätzlich oder alternativ kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, den zweiten Satz von Inhalten auf Grundlage von Diagnosedaten des Fahrzeugs 100 zu erzeugen. Zum Beispiel kann der Computer 110 des Fahrzeugs 100 Informationen in den zweiten Datensatz einschließen, die eine Fehlfunktion eines Sensors 130, eines Aktors 120, einer Steuerung usw. des Fahrzeugs 100 angeben. Somit kann der Computer 170 des Kamerasensors 160 Diagnoseinformationen des Fahrzeugs/der Fahrzeuge 100 decodieren. In einem Beispiel kann der Computer 170 dazu programmiert sein, beim Erfassen einer Fehlfunktion in einem Fahrzeug 100 auf Grundlage der erfassten Diagnosedaten in dem zweiten Satz von Inhalten des Fahrzeugs 100 Nachrichten an das Fahrzeug 100 in der Nähe (z. B. innerhalb von 500 Metern) der entsprechenden stationären Kamera 160 zu übertragen. Diagnosedaten beinhalten Informationen zum Zustand der Komponenten des Fahrzeugs 100, z. B. ob eine Komponente wie erwartet funktioniert oder nicht. Zum Beispiel kann der Computer 110 dazu programmiert sein, Daten in eine Markierung 310 zu codieren, indem eine Form und/oder ein Muster der Markierung auf Grundlage von numerischen Daten, wie etwa der Kennzeichennummer, einem Diagnosefehlercode (diagnostic trouble code - DTC) usw., bereitgestellt wird, und der Computer 170 kann dazu programmiert sein, die numerischen Daten auf Grundlage der Form und/oder des Musters der in der Bezugsmarkierung 300 enthaltenen Markierungen 310 zu bestimmen.
  • 5 ist ein Ablaufdiagramm eines beispielhaften Prozesses 500 zum Betreiben des Fahrzeugs 100. Der Computer 110 des Fahrzeugs 100 kann dazu programmiert sein, Blöcke des Prozesses 500 auszuführen.
  • Der Prozess 500 beginnt in einem Block 510, in dem der Computer 110 einen ersten und einen zweiten Satz von Inhalten in einem Speicher des Computers 110 speichert. Der erste Satz von Inhalten kann visuelle und/oder Textinformationen beinhalten, wie etwa eine Werbung zum Anzeigen für einen Menschen oder eine Maschine, z. B. einen Kamerasensor 160. Der Computer 110 kann dazu programmiert sein, den ersten Satz von Inhalten über herkömmliche Datenübertragungsmechanismen zu empfangen, z. B. von einem entfernten Computer über ein drahtloses Netzwerk, von einer peripheren Vorrichtung, die an den Computer 110 angeschlossen werden kann, usw. Der Computer 110 kann dazu programmiert sein, den zweiten Satz von Inhalten, wie etwa eine Bezugsmarkierung 300, auf Grundlage einer Kennung des Fahrzeugs 100 und/oder von Diagnosedaten des Fahrzeugs 100 zu erzeugen. In einem Beispiel kann das Fahrzeug 100 eine erste und eine zweite Anzeige 150 beinhalten, die in einer ersten und einer zweiten Position an der Karosserie 105 des Fahrzeugs 100 in Bezug auf den Referenzpunkt 140 des Fahrzeugs 100 montiert sind. Der Computer 110 kann dazu programmiert sein, eine erste Bezugsmarkierung 300, die zumindest teilweise auf Grundlage der ersten Position (z. B. eine Tür) erzeugt wurde, und eine zweite Bezugsmarkierung 300, die zumindest teilweise auf Grundlage der zweiten Position (z. B. eine Motorhaube) erzeugt wurde, anzuzeigen.
  • Als Nächstes bestimmt der Computer 110 in einem Block 520 eine erste und eine zweite Zeitdauer T1, T2 zum Anzeigen des ersten und des zweiten Bild-Frames F1, F2, die den ersten und den zweiten Satz von Inhalten beinhalten. Die erste Zeitdauer T1 beträgt mehr als 100 ms. Die zweite Zeitdauer T2 beträgt weniger als 100 ms. In einem Beispiel werden die Zeitdauern T1, T2 in einem Speicher des Computers 110 gespeichert.
  • Als nächstes betätigt der Computer 110 in einem Block 530 eine Anzeige 150, um eine Vielzahl von ersten Frames F1, die den ersten Satz von Inhalten beinhalten, für die erste Zeitdauer T1 anzuzeigen. Alternativ kann der Computer 110 dazu programmiert sein, den ersten Frame F1 für die erste Zeitdauer T1anzuzeigen. Somit kann der erste Satz von Inhalten für die erste Zeitdauer T1ununterbrochen angezeigt werden.
  • Als nächstes betätigt der Computer 110 in einem Block 540 eine Anzeige 150, um einen oder mehrere zweite Frames F2, die den zweiten Satz von Inhalten beinhalten, für die zweite Zeitdauer T2 anzuzeigen. Alternativ kann der Computer 110 dazu programmiert sein, den zweiten Frame F2 für die zweite Zeitdauer T2anzuzeigen. Somit kann der zweite Satz von Inhalten für die zweite Zeitdauer T2ununterbrochen angezeigt werden. In einem Beispiel kann der Computer 110 dazu programmiert sein, eine erste Bezugsmarkierung 300 auf einer ersten Anzeige 150 für die zweite Zeitdauer T2 und eine zweite Bezugsmarkierung 300 auf einer zweiten Anzeige 150 für die zweite Zeitdauer T2 anzuzeigen.
  • Als nächstes bestimmt der Computer 110 in einem Entscheidungsblock 550, ob Daten zur Lage des Fahrzeugs 100 von einem entfernten Computer empfangen werden. Der Computer 110 kann dazu programmiert sein, zu bestimmen, ob Daten zur Lage des Fahrzeugs 100 über das drahtlose Netzwerk, z. B. ein Fahrzeug-zu-Fahrzeug-Kommunikationsnetzwerk, von einem Computer 170 des Kamerasensors 160 und/oder einem Infrastrukturcomputer, der an den Computer 170 des Kamerasensors 160 gekoppelt ist, empfangen werden. Zum Beispiel kann der Computer 110 die Lagedaten über eine drahtlose Kommunikationsschnittstelle des Fahrzeugs 100 empfangen. Der Computer 110 kann dazu programmiert sein, auf Grundlage der gespeicherten Kennung des Fahrzeugs 100 und einer übereinstimmenden Kennung, die in den empfangenen Lagedaten enthalten ist, zu bestimmen, ob die empfangenen Lagedaten eine Lage des Fahrzeugs 100 bereitstellen. Wenn der Prozessor 110 bestimmt, dass Lagedaten des Fahrzeugs 100 empfangen werden, dann geht der Prozess 500 zu einem Block 560 über; andernfalls endet der Prozess 500 oder kehr alternativ dazu zum Block 510 zurück, wenngleich dies in 5 nicht gezeigt ist.
  • In dem Block 560 betreibt der Computer 110 das Fahrzeug 100 zumindest teilweise auf Grundlage der empfangenen Lage des Fahrzeugs 100. Der Computer 110 kann auf Grundlage des Standorts und der Ausrichtung, die in der Lage des Fahrzeugs 100 enthalten sind, einen Fahrzeugweg bestimmen, auf dem das Fahrzeug 100 betrieben werden soll. Der Computer 110 kann das Fahrzeug 100 auf einem Fahrzeugweg betreiben, indem er Aktoren 120 des Antriebsstrangs, der Lenkung und der Bremsen des Fahrzeugs steuert. Nach dem Block 560 endet der Prozess 500 oder kehrt alternativ dazu zum Block 510 zurück.
  • Rechenvorrichtungen, wie sie in dieser Schrift erörtert wurden, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen vorstehend beschriebener Blöcke oder Schritte von Prozessen ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung vielfältiger Programmiersprachen und/oder -technologien erstellt worden sind, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Anweisungen und anderen Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist allgemein eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein computerlesbares Medium beinhaltet jedes beliebige Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nicht flüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten einen dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der typischerweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Computer ausgelesen werden kann.
  • Hinsichtlich der in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. sollte es sich verstehen, dass, obwohl die Schritte derartiger Prozesse usw. als in einer bestimmten geordneten Sequenz erfolgend beschrieben worden sind, die beschriebenen Schritte bei der Ausführung derartiger Prozesse in einer Reihenfolge durchgeführt werden könnten, bei der es sich nicht um die in dieser Schrift beschriebene Reihenfolge handelt. Es sollte sich zudem verstehen, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Mit anderen Worten sind die Beschreibungen von Systemen und/oder Prozessen in dieser Schrift zu Zwecken der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keineswegs dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorangehenden Beschreibung und der beigefügten Figuren und nachfolgenden Patentansprüche, veranschaulichend und nicht einschränkend sein soll. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, sollten dem Fachmann nach der Lektüre der vorstehenden Beschreibung offensichtlich sein. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf die Patentansprüche, die dieser Schrift beigefügt sind und/oder in einer hierauf beruhenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Patentansprüche berechtigen. Es ist zu erwarten und beabsichtigt, dass es zukünftige Entwicklungen im in dieser Schrift erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Zusammenfassend versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt, das Folgendes aufweist: einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei der Speicher Anweisungen speichert, die durch den Prozessor ausführbar sind, um eine digitale Anzeige an einem Fahrzeug zu betätigen, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und um die digitale Anzeige zu betätigen, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen.
  • Gemäß einer Ausführungsform kann der erste Satz von Inhalten eine Vielzahl von Frames beinhalten und beinhaltet der zweite Satz von Inhalten einen einzelnen Frame.
  • Gemäß einer Ausführungsform beträgt die Zeitdauer einhundert Millisekunden.
  • Gemäß einer Ausführungsform beinhalten die zweiten Inhalte eine Markierung, die das Fahrzeug identifiziert.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Empfangen einer Lage des Fahrzeugs von einem entfernten Computer, wobei der entfernte Computer dazu programmiert ist, Bilddaten von einem Kamerasensor, die eine Fahrzeugmarkierung in dem zweiten Satz von Inhalten beinhalten, zu empfangen und die Fahrzeuglage an den Computer zu übertragen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Navigieren des Fahrzeugs zumindest teilweise auf Grundlage der Fahrzeuglage.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen, ob die von dem entfernten Computer empfangenen Daten die Fahrzeuglage auf Grundlage des angezeigten zweiten Satzes von Inhalten beinhalten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Erzeugen des zweiten Satzes von Inhalten auf Grundlage einer Fahrzeugkennung und ist der entfernte Computer ferner dazu programmiert, die Fahrzeugkennung auf Grundlage des empfangenen zweiten Satzes von Inhalten zu decodieren und die Fahrzeugkennung in die übertragene Fahrzeuglage einzuschließen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Erzeugen des zweiten Satzes von Inhalten auf Grundlage von Fahrzeugdiagnosedaten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Betätigen der digitalen Anzeige, um den ersten Satz von Inhalten für eine Zeitdauer anzuzeigen, die größer als ein Vielfaches der Zeit ist, die bestimmt wurde, um den ersten Satz von Inhalten für den Menschen erkennbar zu machen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zu Folgendem: Erzeugen des zweiten Satzes von Inhalten ferner auf Grundlage einer Position der digitalen Anzeige an dem Fahrzeug, Erzeugen eines dritten Satzes von Inhalten auf Grundlage einer zweiten Position der digitalen Anzeige an dem Fahrzeug, Betätigen der zweiten digitalen Anzeige an dem Fahrzeug, um den ersten Satz von Inhalten für mehr als die Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für den Menschen erkennbar zu machen, und Betätigen der zweiten digitalen Anzeige, um den dritten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen; wobei der entfernte Computer ferner dazu programmiert ist, die Fahrzeuglage ferner auf Grundlage des dritten Satzes von Inhalten, die auf der zweiten digitalen Anzeige angezeigt werden, zu bestimmen.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt, das Mittel zu Folgendem aufweist: Anzeigen eines ersten Satzes von Inhalten an einem Fahrzeug für mehr als eine Zeitdauer, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und Anzeigen eines zweiten Satzes von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer, Mittel zum Empfangen einer Lage des Fahrzeugs von einem entfernten Computer auf Grundlage des angezeigten zweiten Satzes von Inhalten und Mittel zum Betreiben des Fahrzeugs auf Grundlage der empfangenen Lage des Fahrzeugs.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Betätigen einer digitalen Anzeige an einem Fahrzeug, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und Betätigen der digitalen Anzeige, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen.
  • In einem Aspekt der Erfindung beinhaltet der erste Satz von Inhalten eine Vielzahl von Frames und beinhaltet der zweite Satz von Inhalten einen einzelnen Frame.
  • In einem Aspekt der Erfindung beträgt die Zeitdauer einhundert Millisekunden.
  • In einem Aspekt der Erfindung beinhaltet der zweite Satz von Inhalten eine Markierung, die das Fahrzeug identifiziert.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Empfangen von Bilddaten von einem Kamerasensor, die eine Fahrzeugmarkierung in dem zweiten Satz von Inhalten beinhalten, in einem entfernten Computer, Übertragen einer Fahrzeuglage an einen Fahrzeugcomputer, Empfangen einer Lage des Fahrzeugs von einem entfernten Computer in dem Fahrzeugcomputer und Navigieren des Fahrzeugs zumindest teilweise auf Grundlage der Fahrzeuglage.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Bestimmen, ob die von dem entfernten Computer empfangenen Daten die Fahrzeuglage auf Grundlage des angezeigten zweiten Satzes von Inhalten beinhalten.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Erzeugen des zweiten Satzes von Inhalten auf Grundlage einer Fahrzeugkennung, Decodieren der Fahrzeugkennung in einem entfernten Computer auf Grundlage des empfangenen zweiten Satzes von Inhalten und Einschließen der Fahrzeugkennung in die übertragene Fahrzeuglage.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Erzeugen des zweiten Satzes von Inhalten auf Grundlage von Fahrzeugdiagnosedaten.

Claims (11)

  1. Verfahren, umfassend: Betätigen einer digitalen Anzeige an einem Fahrzeug, um einen ersten Satz von Inhalten für mehr als eine Zeitdauer anzuzeigen, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen; und Betätigen der digitalen Anzeige, um einen zweiten Satz von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer anzuzeigen.
  2. Verfahren nach Anspruch 1, wobei der erste Satz von Inhalten eine Vielzahl von Frames beinhaltet und der zweite Satz von Inhalten einen einzelnen Frame beinhaltet.
  3. Verfahren nach Anspruch 1, wobei die Zeitdauer einhundert Millisekunden beträgt.
  4. Verfahren nach Anspruch 1, wobei der zweite Satz von Inhalten eine Markierung beinhaltet, die das Fahrzeug identifiziert.
  5. Verfahren nach Anspruch 1, ferner umfassend: Empfangen von Bilddaten von einem Kamerasensor, die eine Fahrzeugmarkierung in dem zweiten Satz von Inhalten beinhalten, in einem entfernten Computer; Übertragen einer Fahrzeuglage an einen Fahrzeugcomputer; Empfangen einer Lage des Fahrzeugs von einem entfernten Computer in dem Fahrzeugcomputer; und Navigieren des Fahrzeugs zumindest teilweise auf Grundlage der Fahrzeuglage.
  6. Verfahren nach Anspruch 5, ferner umfassend Bestimmen, ob die von dem entfernten Computer empfangenen Daten die Fahrzeuglage auf Grundlage des angezeigten zweiten Satzes von Inhalten beinhalten.
  7. Verfahren nach Anspruch 5, ferner umfassend: Erzeugen des zweiten Satzes von Inhalten auf Grundlage einer Fahrzeugkennung; Decodieren der Fahrzeugkennung in einem entfernten Computer auf Grundlage des empfangenen zweiten Satzes von Inhalten; und Einschließen der Fahrzeugkennung in die übertragene Fahrzeuglage.
  8. Verfahren nach Anspruch 1, ferner umfassend Erzeugen des zweiten Satzes von Inhalten auf Grundlage von Fahrzeugdiagnosedaten
  9. Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-8 auszuführen.
  10. Computerprogrammprodukt, das ein computerlesbares Medium umfasst, das Anweisungen speichert, die durch einen Computerprozessor ausgeführt werden können, um das Verfahren nach einem der Ansprüche 1-8 auszuführen
  11. System, umfassend: Mittel zum Anzeigen eines ersten Satzes von Inhalten an einem Fahrzeug für mehr als eine Zeitdauer, die bestimmt wurde, um den ersten Satz von Inhalten für einen Menschen erkennbar zu machen, und Anzeigen eines zweiten Satzes von Inhalten unmittelbar nach und unmittelbar vor dem ersten Satz von Inhalten für weniger als die Zeitdauer, an einem Fahrzeug. Mittel zum Empfangen einer Lage des Fahrzeugs von einem entfernten Computer auf Grundlage des angezeigten zweiten Satzes von Inhalten; und Mittel zum Betreiben des Fahrzeugs auf Grundlage der empfangenen Lage des Fahrzeugs.
DE102020122876.7A 2019-09-03 2020-09-01 Zeitmultiplexierte anzeige für ein fahrzeug Pending DE102020122876A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/559,205 US20210065241A1 (en) 2019-09-03 2019-09-03 Vehicle time-multiplexed display
US16/559,205 2019-09-03

Publications (1)

Publication Number Publication Date
DE102020122876A1 true DE102020122876A1 (de) 2021-03-04

Family

ID=74565016

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020122876.7A Pending DE102020122876A1 (de) 2019-09-03 2020-09-01 Zeitmultiplexierte anzeige für ein fahrzeug

Country Status (3)

Country Link
US (1) US20210065241A1 (de)
CN (1) CN112440741A (de)
DE (1) DE102020122876A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210060779A (ko) * 2019-11-19 2021-05-27 현대자동차주식회사 차량센서의 이상 진단 장치 및 그 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005276112A (ja) * 2004-03-26 2005-10-06 Kyocera Corp ナビゲーション装置
US10895459B2 (en) * 2017-12-13 2021-01-19 Aptiv Technologies Limited Vehicle navigation system and method

Also Published As

Publication number Publication date
CN112440741A (zh) 2021-03-05
US20210065241A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
DE102014002150B3 (de) Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
DE102020110458A1 (de) Fahrzeugpfadvorhersage
DE102017125493A1 (de) Verkehrszeichenerkennung
DE102017206847B4 (de) Verfahren zum automatischen Erstellen und Aktualisieren eines Datensatzes für ein autonomes Fahrzeug
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102017128294A1 (de) Fahrzeugumgebung-abbildungssysteme und -verfahren
DE102019119162A1 (de) Posenschätzung
EP3155603A1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
WO2013029722A2 (de) Verfahren zur umgebungsrepräsentation
DE102020107149A1 (de) Fahrzeugkapsel-netzwerke
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102019122536A1 (de) Exzentrizitätskarten
DE102019126446A1 (de) Fahrzeugsteuerungsvorrichtung
DE102018218436A1 (de) Fahrzeugparkassistenz
DE102020116964A1 (de) Visuelle odometrie für fahrzeug
DE102019127038A1 (de) Erfassung von angriffen auf fahrzeugnetzwerke
DE102022114201A1 (de) Neuronales Netz zur Objekterfassung und -Nachverfolgung
DE112021006099T5 (de) Bordrückkopplungssystem für autonome Fahrzeuge
DE102019107329A1 (de) Aktionskonditionierte fahrzeugsteuerung
DE102020122876A1 (de) Zeitmultiplexierte anzeige für ein fahrzeug

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE