DE102018120902A1 - Fahrzeugkontrolle - Google Patents

Fahrzeugkontrolle Download PDF

Info

Publication number
DE102018120902A1
DE102018120902A1 DE102018120902.9A DE102018120902A DE102018120902A1 DE 102018120902 A1 DE102018120902 A1 DE 102018120902A1 DE 102018120902 A DE102018120902 A DE 102018120902A DE 102018120902 A1 DE102018120902 A1 DE 102018120902A1
Authority
DE
Germany
Prior art keywords
vehicle
drone
vehicles
computer
status
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018120902.9A
Other languages
English (en)
Inventor
Pietro Buttolo
Stuart C. Salter
Annette Lynn Huebner
Brent Young
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018120902A1 publication Critical patent/DE102018120902A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0027Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement involving a plurality of vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/224Character recognition characterised by the type of writing of printed characters having additional code marks or containing code marks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Ein System beinhaltet einen Computer, der dazu programmiert ist, von einer Flugdrohne Bilddaten zu empfangen, die ein Fahrzeug, einen Fahrzeugstandort und einen Fahrzeugstatus identifizieren; und auf Grundlage der empfangenen Bilddaten eine Anweisung an das Fahrzeug zu senden, eine Fahrzeugkomponente zu betätigen.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeugkontrollen können beinhalten, dass verschiedene Fahrzeugkomponenten wie zum Beispiel eine Batterie, Reifen, elektronische Systeme, Leuchten usw. getestet werden. Eine Fahrzeugkarosserie kann hinsichtlich Schäden kontrolliert werden. Technischen Infrastrukturen haben jedoch Defizite in Bezug auf die Kontrolle von Komponenten wie zum Beispiel den Fahrzeugleuchten.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines beispielhaften Fahrzeugs, einer beispielhaften Drohne und einer beispielhaften Handvorrichtung.
    • 2 ist ein Blockdiagramm, das zeigt, wie die Drohne aus 1 über den Fahrzeugen fliegt.
    • 3 zeigt, wie die Handvorrichtung aus 1 ein Bild anzeigt, das die Fahrzeuge beinhaltet.
    • 4 ist ein Ablaufdiagramm eines beispielhaften Prozesses für einen Fahrzeugkontrollbetrieb.
    • 5 ist ein Ablaufdiagramm eines beispielhaften Prozesses für einen Fahrzeugbetrieb.
  • DETAILLIERTE BESCHREIBUNG
  • EINLEITUNG
  • Hier ist ein System offenbart, das einen Computer aufweist, der dazu programmiert ist, von einer Flugdrohne Bilddaten zu empfangen, die ein Fahrzeug, einen Fahrzeugstandort und einen Fahrzeugstatus identifizieren, und auf Grundlage der empfangenen Bilddaten eine Anweisung an das Fahrzeug zu senden, eine Fahrzeugkomponente zu betätigen.
  • Der Computer kann ferner dazu programmiert sein, das Fahrzeug auf Grundlage der empfangenen Bilddaten zu identifizieren.
  • Der Computer kann ferner dazu programmiert sein, über die Flugdrohne ein Fahrzeugdrahtlossignal zu empfangen und den Status des Fahrzeugs auf Grundlage des empfangenen Fahrzeugdrahtlossignals und der empfangenen Bilddaten zu bestimmen.
  • Der Computer kann ferner dazu programmiert sein, über die Flugdrohne eine Vielzahl von Fahrzeugdrahtlossignalen von einer Vielzahl von Fahrzeugen zu empfangen und das jeweilige Fahrzeugdrahtlossignal des Fahrzeugs aus der Vielzahl von Drahtlossignalen auf Grundlage der empfangenen Bilddaten zu identifizieren.
  • Der Computer kann ferner dazu programmiert sein, das Fahrzeug auf Grundlage mindestens eines von einer Fahrzeugkennung, einem Fahrzeugmodell und einer Fahrzeugfarbe zu identifizieren, die in dem empfangenen Bild enthalten sind.
  • Die Fahrzeugkennung kann ein grafisches Muster an einer Karosserie des Fahrzeugs beinhalten.
  • Der Computer kann ferner dazu programmiert sein, die Fahrzeugkomponente durch Bestimmen eines Ziels auf Grundlage des empfangenen Status des Fahrzeugs und Navigieren des Fahrzeugs zu dem bestimmten Ziel durch mindestens eines von Beschleunigen, Lenken und Bremsen zu betätigen.
  • Der Computer kann ferner dazu programmiert sein, die Flugdrohne zu verwenden, um über einer Vielzahl von Fahrzeugen zu fliegen, ein Bild zu erzeugen, das die Vielzahl von Fahrzeugen beinhaltet, und den jeweiligen Fahrzeugstatus jedes der Fahrzeuge auf dem erzeugten Bild zu überlagern.
  • Das Überlagern des jeweiligen Fahrzeugstatus kann ein Anzeigen eines von einem zugelassenen und einem mangelhaften Status für jedes aus der Vielzahl von Fahrzeugen beinhalten.
  • Das Verwenden der Drohne zum Fliegen über der Vielzahl von Fahrzeugen kann ferner ein Bestimmen einer Flugroute auf Grundlage von Standortkoordinaten der Vielzahl von Fahrzeugen und ein Betätigen der Drohne, um basierend auf der bestimmten Flugroute zu fliegen, beinhalten.
  • Der Computer kann ferner dazu programmiert sein, einen Standort der Handvorrichtung zu empfangen und den Standort der Handvorrichtung auf dem erzeugten Bild einzublenden.
  • Der Computer kann ferner dazu programmiert sein, ein Kriterium zu empfangen, wobei das Kriterium mindestens eines von den zugelassenen Fahrzeugen, den mangelhaften Fahrzeugen, den Fahrzeugen mit wenig Kraftstoff und der nächsten Fahrzeugverladecharge beinhaltet; und ein Fahrzeugaußenlicht auf Grundlage des empfangenen Kriteriums zu betätigen.
  • Das System kann ferner einen zweiten Computer beinhalten, der in der Flugdrohne enthalten und dazu programmiert ist, den Standort des Fahrzeugs auf Grundlage von mindestens einem von Fahrzeugsensordaten und Drohnensensordaten zu bestimmen.
  • Ferner ist hier ein Verfahren offenbart, das ein Empfangen von Bilddaten von einer Flugdrohne beinhaltet, die ein Fahrzeug, einen Fahrzeugstandort und einen Fahrzeugstatus identifizieren; und auf Grundlage der empfangenen Bilddaten ein Senden einer Anweisung an das Fahrzeug beinhaltet, eine Fahrzeugkomponente zu betätigen.
  • Das Verfahren kann ferner ein Identifizieren des Fahrzeugs auf Grundlage der empfangenen Bilddaten beinhalten.
  • Das Verfahren kann ferner ein Empfangen eines Fahrzeugdrahtlossignals über die Flugdrohne und ein Bestimmen des Fahrzeugdrahtlossignals auf Grundlage des empfangenen Fahrzeugdrahtlossignals und der empfangenen Bilddaten beinhalten.
  • Das Verfahren kann ferner ein Identifizieren des Fahrzeugs auf Grundlage mindestens eines von einer Fahrzeugkennung, einem Fahrzeugmodell und einer Fahrzeugfarbe beinhalten, die in dem empfangenen Bild enthalten sind.
  • Das Verfahren kann ferner ein Verwenden der Flugdrohne zum Fliegen über einer Vielzahl von Fahrzeugen, ein Erzeugen eines Bildes, das die Vielzahl von Fahrzeugen beinhaltet, und ein Überlagern des jeweiligen Fahrzeugstatus jedes der Fahrzeuge auf dem erzeugten Bild beinhalten.
  • Das Verwenden der Drohne zum Fliegen über der Vielzahl von Fahrzeugen kann ferner ein Bestimmen einer Flugroute auf Grundlage von Standortkoordinaten der Vielzahl von Fahrzeugen und ein Betätigen der Drohne, um basierend auf der bestimmten Flugroute zu fliegen, beinhalten.
  • Das Verfahren kann ferner ein Empfangen eines Kriteriums, wobei das Kriterium mindestens eines von den zugelassenen Fahrzeugen, den mangelhaften Fahrzeugen, den Fahrzeugen mit wenig Kraftstoff und der nächsten Fahrzeugverladecharge beinhaltet, und ein Betätigen eines Fahrzeugaußenlichts auf Grundlage des empfangenen Kriteriums beinhalten.
  • Ferner ist eine Rechenvorrichtung offenbart, die dazu programmiert ist, jeden der vorstehenden Verfahrensschritte auszuführen. Darüber hinaus ist eine Flugdrohne offenbart, die die Rechenvorrichtung umfasst. Darüber hinaus ist ein Fahrzeug offenbart, das die Rechenvorrichtung umfasst.
  • Darüber hinaus ist ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, das Anweisungen speichert, die durch einen Computerprozessor ausführbar sind, um beliebige der oben genannten Verfahrensschritte auszuführen.
  • BEISPIELHAFTE SYSTEMELEMENTE
  • 1 zeigt ein Fahrzeug 100, eine Drohne 160 und eine Handvorrichtung 180. Das Fahrzeug 100 kann auf eine Vielzahl bekannter Weisen angetrieben werden, z. B. mithilfe eines Elektromotors und/oder Verbrennungsmotors. Zu dem Fahrzeug 100 kann ein beliebiges Automobil wie zum Beispiel ein Auto, einen Truck, einen Geländewagen, ein Crossover-Fahrzeug, einen Transporter, einen Kleintransporter usw. beinhalten. Das Fahrzeug 100 kann einen Computer 110, (ein) Betätigungselement(e) 120, (einen) Sensor(en) 130, eine Mensch-Maschine-Schnittstelle (HMI) 140, eine Drahtloskommunikationsschnittstelle 145 und Außenleuchten 150 beinhalten.
  • Der Computer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Arten von computerlesbaren Medien und speichert Anweisungen, die von dem Computer 110 ausgeführt werden können, um unterschiedliche Vorgänge auszuführen, einschließlich solcher, die hier offenbart sind.
  • Der Computer 110 kann das Fahrzeug 100 in einem autonomen Modus, einem halbautonomen Modus oder einem nicht autonomen Modus betreiben. Für diese Zwecke dieser Offenbarung wird ein autonomer Modus als einer definiert, bei dem jedes von Antrieb, Bremsen und Lenkung des Fahrzeugs 100 von dem Computer 110 gesteuert wird; in einem halbautonomen Modus steuert der Computer eines oder zwei von Antrieb, Bremsen und Lenkung des Fahrzeugs 100; in einem nicht autonomen Modus steuert ein Fahrzeugführer Antrieb, Bremsen und Lenkung des Fahrzeugs 100.
  • Der Computer 110 kann Programmierung beinhalten, um eines oder mehrere von Bremsen, Antrieb (z. B. Steuerung der Beschleunigung des Fahrzeugs 100 durch Steuern von einem oder mehreren von einem Verbrennungsmotor, Elektromotor, Hybridmotor usw.), Lenkung, Klimaanlage, Innen- und/oder Außenleuchten usw. des Landfahrzeugs 100 zu betreiben, und um zu bestimmen, ob und wann der Computer 110 derartige Vorgänge anstelle eines menschlichen Fahrzeugführers steuern soll. Des Weiteren kann der Computer 110 dazu programmiert sein, zu bestimmen, ob und wann ein menschlicher Fahrzeugführer derartige Vorgänge steuern soll.
  • Der Computer 110 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug 100 zum Überwachen und/oder Steuern unterschiedlicher Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenkungssteuerung usw., enthalten sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über ein Netzwerk des Fahrzeugs 100, unter anderem z. B. einen Kommunikationsbus, wie er nachfolgend ausführlicher beschrieben ist. Der Computer 110 ist im Allgemeinen zur Kommunikation über ein Kommunikationsnetzwerk des Fahrzeugs 100 ausgelegt, zu dem ein Bus in dem Fahrzeug 100, wie beispielsweise ein Controller Area Network (CAN) oder dergleichen, und/oder drahtgebundene und/oder drahtlose Mechanismen zählen können.
  • Über ein Kommunikationsnetzwerk des Fahrzeugs 100 kann der Computer 110 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 100 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. einem Betätigungselement 120, einer HMI 140 usw., empfangen. Alternativ oder zusätzlich kann in Fällen, in denen der Computer 110 tatsächlich mehrere Vorrichtungen umfasst, das Kommunikationsnetzwerk des Fahrzeugs für Übertragungen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als Computer 110 dargestellt sind.
  • Die Betätigungselemente 120 des Fahrzeugs 100 sind über Schaltungen, Chips oder andere elektronische und/oder mechanische Komponenten umgesetzt, die verschiedene Teilsysteme des Fahrzeugs 100 gemäß geeigneten Steuersignalen, wie bekannt, betätigen können. Die Betätigungselemente 120 können verwendet werden, um Systeme der Fahrzeuge zu steuern, wie etwa Bremsung, Beschleunigung und/oder Lenkung der Fahrzeuge 100.
  • Die Sensoren 130 des Fahrzeugs 100 können eine Vielzahl von Vorrichtungen beinhalten, von denen bekannt ist, dass sie über den Fahrzeugkommunikationsbus Daten bereitstellen. Beispielsweise können die Sensoren 130 eines oder mehrere von Kamera, Radar, Infrarot und/oder LIDAR-Sensoren (Light Detection And Ranging) 130 beinhalten, die im Fahrzeug 100 und/oder am Fahrzeug 100 angeordnet sind und Daten bereitstellen, die zumindest einen Teil des Außenbereichs des Fahrzeugs abdecken. Die Daten können vom Computer 110 über eine geeignete Schnittstelle, wie bekannt, empfangen werden. Ein LIDAR-Sensor 130, der z. B. auf einer Oberseite des Fahrzeugs 100 angeordnet ist, kann Objektdaten bereitstellen, die relative Standorte, Größen und Formen von Objekten bereitstellen, wie zum Beispiel andere Fahrzeuge, die das Fahrzeug 100 umgeben. Der Computer 110 kann die Objektdaten empfangen und das Fahrzeug 100 zumindest teilweise auf Grundlage der empfangenen Objektdaten in einem autonomen und/oder halbautonomen Modus betreiben.
  • Das Fahrzeug 100 kann einen GPS-Sensor (Global Positioning System) 130 beinhalten, der dazu ausgelegt ist, Koordinaten eines aktuellen Standorts des Fahrzeugs 100 zu bestimmen. Der Computer 110 kann unter Verwendung bekannter Navigationstechniken dazu programmiert sein, eine Route von dem aktuellen Standort zu einem ausgewählten Ziel zu identifizieren sowie eine Karte anzuzeigen und Fahranweisungen zu dem ausgewählten Ziel z. B. über die HMI 140 darzustellen.
  • Darüber hinaus kann der Computer 110 für eine Kommunikation über eine Fahrzeug-Infrastruktur-Schnittstelle (V-I-Schnittstelle) mit anderen Fahrzeugen 100, Drohnen 160, einem entfernten Computer 190 und/oder einer Handvorrichtung 180 über die Kommunikationsschnittstelle 145 des Fahrzeugs 100 und ein Netzwerk 195 ausgelegt sein. Das Netzwerk 195 stellt einen oder mehrere Mechanismen dar, anhand derer der Computer 110 und der entfernte Computer 190 miteinander kommunizieren können, und es kann einer oder mehrere von verschiedenen drahtgebundenen oder drahtlosen Kommunikationsmechanismen sein, einschließlich einer beliebigen gewünschten Kombination aus drahtgebundenen (z. B. Kabel und Leitfaser) und/oder drahtlosen (z. B. Mobilfunk-, Drahtlos-, Satelliten-, Mikrowellen und Funkfrequenz-) Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder Topologien, wenn mehrere Kommunikationsmechanismen verwendet werden). Zu beispielhaften Kommunikationsnetzwerken 195 zählen drahtlose Kommunikationsnetzwerke (z. B. unter Verwendung von einem oder mehreren von Mobilfunk, Bluetooth, IEEE 802.11 usw.), dedizierte Nahbereichskommunikation (DSRC), Local Area Networks (LAN) und/oder Wide Area Networks (WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Die HMI 140 zeigt einem Insassen des Fahrzeugs 100 Informationen an und empfängt Informationen von ihm. Die HMI 140 kann sich z. B. an einer Instrumententafel in einer Fahrgastzelle des Fahrzeugs 100 oder an einer oder mehreren beliebigen dem Insassen zugänglichen Stelle befinden. Die HMI 140 kann Zifferblätter, Digitalanzeigen, Bildschirme, wie etwa einen berührungsempfindlichen Anzeigeschirm, Lautsprecher und so weiter zum Bereitstellen von Informationen für den Insassen beinhalten. Die HMI 140 kann Schaltflächen, Knöpfe, Tastenfelder, ein Mikrofon und so weiter zum Empfangen von Informationen von dem Insassen beinhalten.
  • Bei der Drohne 160 handelt es sich um ein unbemanntes Luftfahrzeug (unmanned aerial vehicle - UAV) und sie beinhaltet eine Vielzahl von Schaltungen, Chips oder sonstigen elektronischen und/oder elektromechanischen Komponenten, die verschiedene Betriebe der Drohne 160 steuern können. Zum Beispiel kann die Drohne 160 entsprechend Steuersignalen fliegen, die an ihre Propellerbetätigungselemente ausgegeben werden. Die Drohne 160 kann mit einem Navigationssystem ausgestattet sein, sodass sie zu einem bestimmten Standort fliegen und dort schweben kann. 1 zeigt, wie die Drohne 160 über dem Fahrzeug 100 fliegt. Im Zusammenhang der vorliegenden Offenbarung ist mit Schweben oder Fliegen „über“ ein Fliegen in im Wesentlichen demselben Längen- und Breitengrad wie ein jeweiliges Fahrzeug 100 gemeint, d. h. innerhalb von 5 Metern (m) von einem Mittelpunkt des Fahrzeugs 100. Die Drohne 160 kann einen oder mehrere Sensoren 165 aufweisen, z. B. einen Kamerasensor 165, die Bilder eines Bereichs nahe, z. B. unter, der Drohne 160 festhalten können. Die Kamerasensoren 165 der Drohne 160 können an demselben Gehäuse befestigt sein wie die Leuchten, und die Drohne 160 kann dazu programmiert sein, die Kamerasensoren 165 der Drohne 160 einzuschalten, um Bilder eines Bereichs unter der Drohne 160 festzuhalten. Dementsprechend kann der Kamerasensor 165 der Drohne 160 beim Schweben über dem Fahrzeug 100 Bilder von einem oder mehreren Fahrzeugen 100 festhalten. Zusätzlich oder alternativ dazu kann eine Drohne 160 andere Arten von Objekterfassungssensoren 165 beinhalten, zum Beispiel Radar, LIDAR usw.
  • Die Drohne 160 kann einen GPS-Sensor 165 beinhalten, der GPS-Standortkoordinaten (d. h. ein Paar aus Längengrad/Breitengrad) der Drohne 160 beispielsweise einem Computer 110 eines Fahrzeugs 100, einem Computer einer Drohne 160 usw. bereitstellt. Zum Beispiel kann der Computer der Drohne 160 die Drohne 160 auf Grundlage der empfangenen GPS-Standortkoordinaten, einer vorab festgelegten Route 200 (siehe 2) usw. navigieren. Die Drohne 160 kann eine Drahtloskommunikationsschnittstelle 170 beinhalten. Der Computer 110 des Fahrzeugs 100, der Computer der Drohne 160 usw. können über die Kommunikationsschnittstellen 145, 170 miteinander und mit einem entfernten Computer 190 über ein Netzwerk 195 kommunizieren, das ein oder mehrere Telekommunikationsprotokolle beinhaltet, z. B. 3G, 4G, LTE (Long Term Evolution) usw., Bluetooth®, Bluetooth Low Energy®, WiFi® usw. In einem Beispiel können die Drohne 160 und der Computer 110 des Fahrzeugs 100 über das Drahtlosnetzwerk 195 kommunizieren, wenn sich die Drohne 160 und das Fahrzeug 100 innerhalb einer Entfernung d1 befinden, die innerhalb eines Kommunikationsbereichs, z. B. 100 Meter (m) für Bluetooth, des für die Drahtloskommunikation verwendeten Kommunikationsprotokolls liegt.
  • Der entfernte Computer 190 und/oder ein Computer der Handvorrichtung 180 können dazu programmiert sein, die Drohne 160 beispielsweise aus einem Behälter, von einer Startfläche usw. zu verwenden. Um die Drohne 160 zu verwenden, kann der entfernte Computer 190 ein Betätigungselement für die Drohne 160 betätigen, um abzuheben und über dem Host-Fahrzeug 100 zu schweben. In einem in 2 dargestellten Beispiel kann der Computer 190 dazu programmiert sein, die Drohne 160 zu verwenden, um zu fliegen und einer Route 200 zu folgen. Der entfernte Computer 190 kann dazu programmiert werden, die Route 200 auf Grundlage von Standortkoordinaten mehrerer Fahrzeuge 100 zu bestimmen, die beispielsweise auf einem Parkplatz oder dergleichen geparkt sind. In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Route 200 zu bestimmen, sodass die Drohne 160 ein Bild von jedem der Fahrzeuge 100 festhalten kann. In einem anderen Beispiel kann der entfernte Computer 190 dazu programmiert sein, mehrere Flugrouten 200 zu bestimmen, z. B. durch Aufteilen des Parkbereichs in mehrere kleinere Bereiche, und mehrere Drohnen 160 zu verwenden, von denen jede einer der bestimmten Flugrouten 200 folgt.
  • Der entfernte Computer 190 kann dazu programmiert sein, von einer Flugdrohne 160 Bilddaten zu empfangen, die ein Fahrzeug 100, einen Standort des Fahrzeugs 100 und einen Status des Fahrzeugs 100 identifizieren. Der entfernte Computer 190 kann ferner dazu programmiert sein, eine Anweisung zur Betätigung einer Komponente des Fahrzeugs 100 auf Grundlage der empfangenen Bilddaten an das Fahrzeug 100 zu übertragen. Zusätzlich oder alternativ dazu kann der Computer der Handvorrichtung 180, der Computer 110 in den Fahrzeugen 100, der entfernte Computer 190 oder eine Kombination davon dazu programmiert sein, die hier offenbarten Schritte auszuführen.
  • Mit „Bilddaten, die ein Fahrzeug 100 identifizieren“ ist in dieser Schrift gemeint, dass die empfangenen Bilddaten Informationen beinhalten, die zu dem Fahrzeug 100 gehören, zum Beispiel die Karosserie des Fahrzeugs 100, z. B. ein Draufsichtbild. Die Bilddaten können Daten beinhalten, die von dem Sensor 165 der Drohne 160 empfangen wurden, zum Beispiel Kamera, LIDAR, Radar usw. Die Bilddaten können eine Kennung des Fahrzeugs 100, ein Modell des Fahrzeugs 100 und eine Farbe des Fahrzeugs 100 beinhalten. Die Kennung des Fahrzeugs 100 kann ein grafisches Muster 155 an einer Karosserie des Fahrzeugs 100 beinhalten. Das grafische Muster 155 kann einen Barcode, einen QR-Code (Quick Response) usw. beinhalten.
  • Mit „Status“ eines Fahrzeugs 100 ist in der vorliegenden Offenbarung ein Ergebnis einer Kontrolle des Fahrzeugs 100 gemeint, und „Status“ einer Komponente des Fahrzeugs 100 bezieht sich auf einen Status einer Komponente des Fahrzeugs 100. Ein Status einer Komponente eines Fahrzeugs 100 kann Daten beinhalten, die der Komponente zugeordnet sind, z. B. Kraftstoffstand, Reifendruckstatus, DTC-Verzeichnungsstatus (Diagnostic Trouble Code, Diagnose-Fehlercode), Karosserieschadenstatus usw. Der Status des Fahrzeugs 100 kann auf Grundlage eines oder mehrerer Status von Komponenten des Fahrzeugs 100 bestimmt werden. Beispielsweise kann der Status des Fahrzeugs 100 als „zugelassen“, „akzeptabel“, „bereit“ usw. bestimmt werden, nachdem bestimmt wurde, dass jeder der Status der Komponenten des Fahrzeugs 100 akzeptabel oder bereit ist (z. B. Kraftstoffstand und Reifendruck akzeptabel, kein DTC verzeichnet und keine Schäden an der Karosserie des Fahrzeugs 100 identifiziert). Ferner kann der Status des Fahrzeugs 100 „mangelhaft“, „nicht zugelassen“, „fehlgeschlagen“ usw. sein, nachdem bestimmt wurde, dass mindestens einer der Status der Komponenten des Fahrzeugs 100 nicht akzeptabel ist. In einem anderen Beispiel kann der Status des Fahrzeugs 100 als „zugelassen“, „akzeptabel“, „bereit“ usw. bestimmt werden, nachdem bestimmt wurde, dass zumindest ein bestimmter Prozentsatz, z. B. 90 Prozent, der Status der Komponenten des Fahrzeugs 100 „akzeptabel“ sind. Tabelle 1 zeigt beispielhafte Status verschiedener Komponenten des Fahrzeugs 100. Tabelle 1
    Statusdaten Bestimmt auf Grundlage von
    Kraftstoffstand Drahtloskommunikation mit dem Fahrzeugcomputer
    Reifendruck Drahtloskommunikation mit dem Fahrzeugcomputer
    DTCs Drahtloskommunikation mit dem Computer des Fahrzeugs 100
    Karosserieschäden Bildverarbeitung
  • Der entfernte Computer 190 kann dazu programmiert sein, das Fahrzeug 100 auf Grundlage der empfangenen Bilddaten, z. B. des grafischen Musters 155, zu identifizieren. Zum Beispiel kann der entfernte Computer 190 dazu programmiert sein, das Fahrzeug 100 auf Grundlage eines grafischen QR-Code-Musters 155 und Daten zu identifizieren, die in dem entfernten Computer 190 gespeichert sind, dem der jeweilige QR-Code zugeordnet ist.
  • Der entfernte Computer 190 kann dazu programmiert sein, über die Flugdrohne 160 ein Drahtlossignal für das Fahrzeug 100 zu empfangen und den Status des Fahrzeugs auf Grundlage des empfangenen Drahtlossignals des Fahrzeugs 100 und der empfangenen Bilddaten zu bestimmen. Der Computer der Drohne 160 kann dazu programmiert sein, eine Anfrage nach dem Status an das Fahrzeug 100 zu übertragen, während sie über dem Fahrzeug 100 schwebt und/oder eine Anfrage nach dem Status an Fahrzeuge 100 innerhalb eines Kommunikationsbereichs der Drahtloskommunikationsschnittstelle 170 der Drohne 160 zu senden. Der Computer 110 des Fahrzeugs 100 kann dazu ausgelegt sein, nach dem Empfangen der Anfrage nach einer Statusnachricht über die Drahtloskommunikationsschnittstelle 145 zu reagieren. Zum Beispiel kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, eine Kennung des Fahrzeugs 100, z. B. Fahrgestellnummer (Vehicle Identification number - VIN), Kraftstoffstand des Fahrzeugs 100, Reifendruck, DTC-Status, Standortkoordinaten usw., zu senden. Der entfernte Computer 190 kann dazu programmiert sein, auf Grundlage der empfangenen Bilddaten, z. B. unter Verwendung bekannter Bildverarbeitungstechniken, zu bestimmen, ob das Fahrzeug 100 einen Karosserieschaden, z. B. eine Delle, aufweist.
  • Der Computer der Drohne 160 kann dazu programmiert sein, den Standort des Fahrzeugs 100 auf Grundlage der Datenstandortkoordinaten zu bestimmen, die von dem GPS-Sensor 130 des Fahrzeugs 100 und/oder dem GPS-Sensor 165 der Drohne 160 empfangen wurden. Zum Beispiel kann der entfernte Computer 190 dazu programmiert sein, den Standort des Fahrzeugs 100 auf Grundlage der Standortkoordinaten der Drohne 160 und der empfangenen Bilddaten zu bestimmen. In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, zu bestimmen, dass die Standortkoordinaten des Fahrzeugs 100 identisch mit den Standortkoordinaten der Drohne 160 sind, nachdem auf Grundlage der Bilddaten bestimmt wurde, dass die Drohne 160 direkt über dem Fahrzeug 100, d. h. senkrecht über dem Fahrzeug 100, schwebt.
  • Wie vorstehend erläutert kann die Drohne 160 dazu programmiert sein, ein Drahtlossignal von dem Fahrzeug 100 zu empfangen. Nachdem eine Anfrage nach dem Status empfangen wurde, können jedoch mehrere Fahrzeuge 100 durch Senden ihrer jeweiligen Status über das Drahtlosnetzwerk 195, z. B. Fahrzeuge 100 innerhalb des Bereichs des Bluetooth®-Netzwerks 195, reagieren. Der entfernte Computer 190 kann dazu programmiert sein, über die Flugdrohne 160 mehrere Drahtlossignale für das Fahrzeug 100 zu empfangen und das jeweilige Drahtlossignal des Fahrzeugs 100 aus den empfangenen Drahtlossignalen auf Grundlage der empfangenen Bilddaten zu identifizieren. Zum Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Kennung des Fahrzeugs 100, z. B. VIN, durch Identifizieren des grafischen Musters 155 auf dem Fahrzeug 100 zu bestimmen. In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Kennung durch Decodieren des grafischen Musters 155 zu bestimmen. In einem anderen Beispiel kann der entfernte Computer 190 dazu programmiert sein, das grafische Muster 155 zu decodieren, um eine Referenznummer und Nachschlagen der Kennung des Fahrzeugs 100 in gespeicherten Informationen (z. B. im Speicher des entfernten Computers 190) auf Grundlage der bestimmten Referenznummer zu bestimmen. Wie vorstehend erörtert können die von den Fahrzeugen 100 empfangenen Daten die jeweilige Kennung des Fahrzeugs 100, wie zum Beispiel die VIN beinhalten. Dementsprechend kann der entfernte Computer 190 das Drahtlossignal des Fahrzeugs 100 auf Grundlage der Kennung des Fahrzeugs 100 identifizieren, die auf Grundlage der empfangenen Bilddaten bestimmt werden und in den empfangenen Drahtlossignalen enthalten sind. Zusätzlich oder alternativ dazu kann der entfernte Computer 190 dazu programmiert sein, zu bestimmen, ob das empfangene Drahtlossignal von dem Fahrzeug 100 stammt, indem ein Außenlicht 150 des Fahrzeugs 100 zum Aufleuchten betätigt wird und unter Verwendung der Bildverarbeitungstechniken bestimmt wird, um zu bestimmen, ob das Licht 150 des Fahrzeugs 100 aufleuchtet.
  • Wie vorstehend erörtert können mehrere Fahrzeuge 100, z. B. Hunderte oder Tausende Fahrzeuge 100, auf einer Parkfläche aufbewahrt werden. In einem in 2-3 dargestellten Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Flugdrohne 160 zu verwenden, um über den Fahrzeugen 100 zu fliegen und ein Bild 300 zu erzeugen, das die Fahrzeuge 100 beinhaltet. Das Bild kann auf der Handvorrichtung 180 angezeigt werden. Der entfernte Computer 190 kann ferner dazu ausgelegt sein, einen jeweiligen Status des Fahrzeugs 100 von jedem der Fahrzeuge 100 auf dem erzeugten Bild 300 zu überlagern, z. B. eine Überlagerung 310. Eine Überlagerung 310 beinhaltet ein Bild, das Text- und/oder grafische Informationen beinhaltet, die mit dem Bild 300 durch Platzieren der Überlagerung 310 in einem speziellen Bereich des Bilds 300 kombiniert werden können, z. B. in einem Abschnitt des Bilds 300, in dem ein jeweiliges Fahrzeug 100 angezeigt wird. Das Überlagern des jeweiligen Status des Fahrzeugs 100 kann ein Anzeigen eines zugelassenen (OK) oder eines mangelhaften (NOK) Status für jedes der Fahrzeuge 100 beinhalten, wie in 3 dargestellt. Die Überlagerungen 310 können Text- und/oder grafische Informationen beinhalten, einschließlich des empfangenen Status jedes der Fahrzeuge 100.
  • Der entfernte Computer 190 kann dazu programmiert sein, die Drohne 160 zu verwenden, um über den Fahrzeugen 100 zu fliegen, z. B. auf einem Parkplatz, indem eine Flugroute 200 auf Grundlage von Standortkoordinaten der Fahrzeuge 100 bestimmt wird und die Drohne betätigt wird, um basierend auf der bestimmten Flugroute 200 zu fliegen. Zum Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Flugroute 200 auf Grundlage von Standortkoordinaten der Fahrzeuge 100, Koordinaten des Parkplatzes, Anzahl der Fahrzeuge 100 usw. zu bestimmen.
  • Ein Benutzer 185 kann die Vorrichtung 180 tragen, während er sich auf dem Parkplatz bewegt. In einem Beispiel kann der Computer der Vorrichtung 180 dazu programmiert sein, Standortkoordinaten einer Handvorrichtung 180 zu empfangen und den Standort der Handvorrichtung 180 auf dem erzeugten Bild 300 einzublenden, z. B. durch Anzeigen eines Symbols 320 in dem Bild 300. Dementsprechend kann der Benutzer vorteilhafterweise seinen Standort relativ zu den Fahrzeugen 100 erkennen.
  • In einigen Beispielen kann ein Benutzer 185 einer Vorrichtung 180 Komponenten des Fahrzeugs 100 betätigen, die einem bestimmten Kriterium oder Kriterien entsprechen, z. B. alle Fahrzeuge 100 mit Kraftstoffständen unter ¼-Befüllung, alle Fahrzeuge 100, für die eine Verladung innerhalb der nächsten Stunde geplant ist, usw. In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, ein Kriterium oder Kriterien zu empfangen und ein Außenlicht 150 eines Fahrzeugs oder von Fahrzeugen 100 zu betätigen, die dem empfangenen Kriterium oder den Kriterien entsprechen. Mit dem „klassifizierten Fahrzeug 100“ ist hier das Fahrzeug 100 gemeint, das den empfangenen Kriterien entspricht. Zum Beispiel kann das Fahrzeug 100 mit einem niedrigen Kraftstoffstand im Tank das klassifizierte Fahrzeug 100 sein, wenn das Kriterium alle Fahrzeuge 100 mit niedrigem Kraftstoffstand beinhaltet. Dementsprechend können basierend auf einem Kriterium keine, ein oder mehrere klassifizierte Fahrzeuge 100 klassifiziert sein.
  • Der entfernte Computer 190 kann dazu programmiert sein, eine Komponente des Fahrzeugs 100 auf Grundlage eines Status des Fahrzeugs 100 zu betätigen. Der entfernte Computer 190 kann dazu programmiert sein, ein Ziel auf Grundlage der Statusdaten zu bestimmen, z. B. einen Standort eines Verladeplatzes, wenn der Status des Fahrzeugs 100 zugelassen ist, oder einen Standort eines Reparaturplatzes, wenn der Status des Fahrzeugs 100 mangelhaft ist. Der entfernte Computer 190 kann ferner dazu programmiert sein, das Fahrzeug 100 durch Beschleunigen, Lenken und Bremsen zu dem bestimmten Ziel zu navigieren. Der entfernte Computer 190 kann Standortkoordinaten des Fahrzeugs 100 über das Drahtlosnetzwerk 195 an das Fahrzeug 100 übertragen.
  • VERARBEITUNG
  • 4 ist ein Ablaufdiagramm eines beispielhaften Prozesses 400 für einen Kontrollbetrieb für ein Fahrzeug 100. Ein entfernter Computer 190, ein Computer der Drohne 160 oder eine Kombination davon kann dazu programmiert sein, Blöcke des Prozesses 400 auszuführen.
  • Der Prozess 400 beginnt bei einem Block 405, der entfernte Computer 190 empfängt Daten beispielsweise von Fahrzeugen 100, einem Computer einer Produktionseinrichtung usw. Der entfernte Computer 190 kann dazu programmiert sein, Standortkoordinaten der Parkfläche des Fahrzeugs / der Fahrzeuge 100, eine Anzahl von Fahrzeugen 100, jeweilige(n) Standort(e) der Fahrzeuge 100, Kennungen der Fahrzeuge 100 und/oder Verladedaten wie zum Beispiel geplante Verladezeiten für die jeweiligen Fahrzeuge 100 usw. zu empfangen und zu speichern. Als nächstes bestimmt der entfernte Computer 190 in einem Block 410 eine Flugroute 200 für die Drohne 160. Der entfernte Computer 190 kann dazu programmiert sein, die Flugroute 200 auf Grundlage von Standortkoordinaten der Fahrzeuge 100 zu bestimmen, sodass die Drohne 160 Bilddaten von jedem der Fahrzeuge 100 empfängt, indem die bestimmte Flugroute 200 durchquert wird. In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Flugroute 200 unter Verwendung vorab festgelegter Navigationsmuster zu bestimmen, z. B. lineare Durchläufe durch die Parkfläche, die in der südöstlichen Ecke beginnen und an der nordöstlichen Ecke der Parkfläche enden, kreisförmige Wege, die in der Mitte der Parkfläche beginnen und sich spiralförmig zum Umfang der Parkfläche erstrecken usw. Zusätzlich kann der entfernte Computer 190 dazu programmiert sein, eine Höhe der Flugroute 200 auf Grundlage der Auflösung des Kamerasensors 165 der Drohne 160 zu bestimmen, d. h. Fliegen der Drohne 160 in einer solchen Höhe, dass die empfangenen Bilddaten die Kennung des Fahrzeugs 100 bereitstellen können, zum Beispiel die Daten zum grafischen Muster 155. Zusätzlich oder alternativ dazu kann der entfernte Computer 190 dazu programmiert sein, mehrere Flugrouten 200 für mehrere Drohnen 160 zu bestimmen, z. B. durch Aufteilen der Datensammlung auf mehrere Drohnen 160. Die Flugrouten 200 können Standortkoordinaten und Höhen beinhalten, die von der Drohne 160 durchquert werden sollen, sowie Zeiten, zu denen sie sich an jeweiligen Standorten und/oder Höhen befinden soll. Die Flugroute 200 kann Zeiten beinhalten, zu denen die Bilddaten aufgenommen werden sollten, eine Richtung des Kamerasensors 165 der Drohne 160 zu Zeiten des Bildempfangs usw.
  • Anschließend setzt in einem Block 415 der entfernte Computer 190 die Drohne(n) 160 ein, um zu fliegen und der/den bestimmte(n) Route(n) 200 zu folgen. Zum Beispiel kann der entfernte Computer 190 dazu programmiert sein, die Daten zur Route 200 über das Drahtloskommunikationsnetzwerk 195 an die Drohne(n) 160 zu übertragen.
  • Anschließend identifiziert der entfernte Computer 190 in einem Block 420 ein Fahrzeug 100 auf Grundlage von Bilddaten von der Drohne 160. Die Drohne 160 kann über dem Fahrzeug 100 schweben und Bilddaten einschließlich der Karosserie des Fahrzeugs 100, eines grafischen Musters 155 usw. bereitstellen. Der entfernte Computer 190 kann dazu programmiert sein, das Fahrzeug 100 auf Grundlage der von der Drohne 160 empfangene Daten und der empfangenen Kennungen des Fahrzeugs 100 usw. zu identifizieren.
  • Anschließend bestimmt der entfernte Computer 190 in einem Entscheidungsblock 425, ob ein Drahtlossignal von dem Fahrzeug 100 empfangen wird. Der entfernte Computer 190 kann dazu programmiert sein, mehrere Drahtlossignale von mehreren Fahrzeugen 100 zu empfangen und das von dem Fahrzeug 100 empfangene Drahtlossignal auf Grundlage der Kennung des Fahrzeugs 100 zu bestimmen, z. B. können das in dem empfangenen Bild enthaltene grafische Muster 155 und/oder die Kennung auf Grundlage einer Referenznummer nachgeschlagen werden, die in dem grafischen Muster 155 enthalten ist. Zusätzlich kann der entfernte Computer 190 dazu programmiert sein, eine Anfrage nach dem Status des Fahrzeugs / der Fahrzeuge 100 zu übertragen und die Drahtlossignale als Reaktion der Fahrzeuge 100 auf die übertragene Anfrage zu empfangen (wie in 5 erläutert). Wenn der entfernte Computer 190 bestimmt, dass das Drahtlossignal von dem Fahrzeug 100 empfangen wird, fährt der Prozess 400 mit Block 430 fort; andernfalls kehrt der Prozess 400 zum Entscheidungsblock 425 zurück.
  • Im Block 430 bestimmt der entfernte Computer den Status des Fahrzeugs 100. In einem Beispiel empfängt der entfernte Computer 190 die Bilddaten über den Sensor 165 der Drohne 160 und Drahtlosdaten wie zum Beispiel Kraftstoffstand, Batterieladestatus, Reifendruckstatus, DTC-Status usw. über die Drahtloskommunikationsschnittstelle 170 der Drohne 160. Zum Beispiel kann, wie in Tabelle 1 dargestellt, der entfernte Computer 190 dazu programmiert sein, einen oder mehrere Status von Komponenten des Fahrzeugs 100 zu bestimmen, z. B. einen Kraftstoffstandstatus, Reifendruckstatus und DTC-Verzeichnungsstatus basierend auf den empfangenen Drahtlosdaten und einen Karosserieschaden basierend auf den empfangenen Bilddaten, und den Status des Fahrzeugs 100 (d. h. ob das Fahrzeug 100 zugelassen wurden) nach dem Bestimmen, dass Status der Komponenten des Fahrzeugs 100 zugelassen sind, bestimmen. In einem anderen Beispiel empfängt der entfernte Computer 190 den Status des Fahrzeugs 100 von der Drohne 160 (d. h. ein Computer der Drohne 160 bestimmt den Status des Fahrzeugs 100 auf Grundlage der Status der Komponenten des Fahrzeugs 100). Wie vorstehend erörtert kann der Status 100 des Fahrzeugs als „zugelassen“ bestimmt werden, nachdem bestimmt wurde, dass jeder der Status der Komponenten des Fahrzeugs 100 zugelassen ist; andernfalls ist der Status des Fahrzeugs 100 mangelhaft“, „fehlgeschlagen“ usw. In einem anderen Beispiel kann der Status des Fahrzeugs 100 als „zugelassen“ bestimmt werden, nachdem bestimmt wurde, dass zumindest ein Prozentsatz der Status der Komponenten des Fahrzeugs 100 „zugelassen“ ist, z. B. mindestens 90 Prozent der Status der Komponenten des Fahrzeugs 100 „zugelassen“ sind, „akzeptabel“ usw. ist.
  • Als nächstes bestimmt der entfernte Computer 190 in einem Entscheidungsblock 435, ob die Route abgeschlossen ist. Der entfernte Computer 190 kann dazu programmiert sein, zu bestimmen, dass die Route abgeschlossen ist, nachdem bestimmt wurde, dass die Drohne 160 die bestimmte Route 200 zurückgelegt hat, z. B. auf Grundlage von Standortkoordinaten der Route 200 und den Daten des GPS-Sensors 165 der Drohne 160. Wenn der entfernte Computer 190 bestimmt, dass die Route 200 abgeschlossen ist, fährt der Prozess 400 mit einem Block 440 fort; ansonsten kehrt der Prozess 400 zum Block 420 zurück.
  • In Block 440 erzeugt der entfernte Computer 190 ein Bild 300 mit Überlagerungen 310 (siehe 3). In einem Beispiel kann der entfernte Computer 190 dazu programmiert sein, das Bild 300 durch Kombinieren mehrerer empfangener Bilddaten von der Drohne 160 zu erzeugen, z. B. unter Verwendung bekannter Stitching-Techniken. Der entfernte Computer 190 kann ferner dazu programmiert sein, die Überlagerungen 310 auf Grundlage jeweiliger Status des Fahrzeugs 100 zu erzeugen und Überlagerungen 310 auf dem erzeugten Bild 300 einzublenden. Anschließend bestimmt der entfernte Computer 190 in einem Entscheidungsblock 445, ob ein Kriterium oder Kriterien empfangen wird/werden, z. B. von der Handvorrichtung 180. In einem Beispiel kann ein Benutzer 185 der Handvorrichtung 180 ein oder mehrere Kriterien aus einer Liste von Kriterien auswählen, die auf der Handvorrichtung 180 dargestellt sind. Die Handvorrichtung 180 kann dazu programmiert sein, die Liste ausgewählter Kriterien über das Drahtlosnetzwerk 195 an den entfernten Computer 190 zu übertragen. Wenn der entfernte Computer 190 bestimmt, dass ein oder mehrere Kriterien empfangen wurden, fährt der Prozess 400 mit einem Block 450 fort; andernfalls kehrt der Prozess 400 zum Entscheidungsblock 445 zurück.
  • Im Block 450 bestimmt der entfernte Computer 190 Anweisungen und sendet sie an Fahrzeuge 100, die dem Kriterium oder den Kriterien entsprechen; derartige Fahrzeuge 100 können von der Drohne 160 wie vorstehend beschrieben identifiziert werden. In einem anderen Beispiel kann der entfernte Computer 190 dazu programmiert sein, ein Ziel zu übertragen, das auf Grundlage des Status des Fahrzeugs 100 bestimmt wurde. Ferner kann eine Vielzahl von Fahrzeugen 100, die einem Kriterium oder Kriterien entsprechen, in einer Charge angewiesen werden, sich zu einem Ziel zu bewegen.
  • Nach Block 450 endet der Prozess 400 oder kehrt alternativ zu Block 405 zurück, wenngleich dies in 4 nicht dargestellt ist.
  • 5 ist ein Ablaufdiagramm eines beispielhaften Prozesses 500 für einen Betrieb des Fahrzeugs 100. Beispielsweise kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, die Blöcke des Prozesses 500 auszuführen.
  • Der Prozess 500 beginnt in einem Entscheidungsblock 510, in dem der Computer 110 bestimmt, ob eine Anfrage nach dem Status empfangen wird. Die Anfrage kann über die Drohne 160 übertragen worden sein (siehe 4). Zum Beispiel kann der Computer 110 dazu programmiert sein, die Anfrage nach dem Status über die Drahtloskommunikationsschnittstelle 145 des Fahrzeugs 100 zu empfangen. Wenn der Computer 110 bestimmt, dass die Anfrage nach dem Status empfangen wird, fährt der Prozess 500 mit einem Block 520 fort; andernfalls kehrt der Prozess 500 zum Entscheidungsblock 550 zurück.
  • In Block 520 empfängt der Computer 110 Daten vom Sensor 130. Beispielsweise kann der Computer 110 dazu programmiert sein, Daten von (dem) Reifendrucksensor(en) 130, Batteriesensor 130, Füllstandssensor 130 usw. zu empfangen.
  • Als nächstes empfängt der Computer 110 in einem Block 530 Diagnosedaten. Beispielsweise kann der Computer 110 dazu programmiert sein, einen DTC-Status von Teilsystemen des Fahrzeugs 100, ECUs, Betätigungselementen 120, Sensoren 130 usw. zu empfangen. Der Computer 110 kann dazu programmiert sein, Diagnosedaten über das Kommunikationsnetz des Fahrzeugs 100 zu empfangen, das eine Kommunikation der Komponenten des Fahrzeugs 100 wie zum Beispiel ECUs, Betätigungselemente 10, Sensoren 130 usw. miteinander ermöglicht. Anschließend reagiert in einem Block 540 der Computer 110 auf die Anfrage nach dem Status durch Übertragen des Status des Fahrzeugs 100 und/oder der Status der Komponenten des Fahrzeugs 100 (oben definiert). Beispielsweise kann der Computer 110 des Fahrzeugs 100 dazu programmiert sein, den Status des Fahrzeugs 100 einschließlich Informationen wie den in Tabelle 1 dargestellten an den entfernten Computer 190 zu übertragen. Darüber hinaus kann der Computer 110 dazu programmiert sein, die Kennung des Fahrzeugs 100 in der übertragenen Antwort zu enthalten. Dementsprechend kann der entfernte Computer 110 oder ein beliebiger anderer Empfänger bestimmen, von welchem Fahrzeug 100 der Status empfangen wird. Anschließend bestimmt der Computer 110 in einem Entscheidungsblock 550, ob eine Anweisung empfangen wird, z. B. von dem entfernten Computer 190. Eine Anweisung kann ein autonomes Navigieren zu einem Ziel, z. B. einem Verladebereich, Betätigen eines Lichts 150 des Fahrzeugs 100 usw. beinhalten. Wenn der Computer 110 bestimmt, dass eine Anweisung empfangen wird, fährt der Prozess 500 mit Block 560 fort; Andernfalls endet der Prozess 500 oder kehrt alternativ zu Entscheidungsblock 510 zurück, wenngleich dies in 5 nicht dargestellt ist.
  • Im Block 560 betätigt der Computer 110 auf Grundlage der empfangenen Anweisung eine oder mehrere Komponenten des Fahrzeugs 100. Beispielsweise betätigt der Computer 110 die Beschleunigungs-, Brems- und/oder Lenkbetätigungselemente 120 des Fahrzeugs 100, um das Fahrzeug 100 autonom zu dem in der empfangenen Anweisung enthaltenen Ziel zu navigieren. In einem anderen Beispiel betätigt der Computer 110 die Außenlichter 150 des Fahrzeugs 100, sodass sie aufleuchten. Nach Block 560 endet der Prozess 500 oder kehrt alternativ zu Entscheidungsblock 510 zurück, wenngleich dies in 5 nicht dargestellt ist.
  • Der ein Nomen modifizierende Artikel „ein“ bzw. „eine“ ist so zu verstehen, dass er ein/eine oder mehrere bezeichnet, es sei denn, es ist etwas anderes angegeben oder der Kontext gibt etwas anderes vor. Der Ausdruck „auf Grundlage von“ schließt teilweise oder vollständig „auf Grundlage von“ ein.
  • Rechenvorrichtungen, wie sie in dieser Schrift erläutert wurden, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, und die zum Ausführen von Blöcken oder Schritten oben beschriebener Prozessen ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -techniken erstellt wurden, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch ein oder mehrere Prozesse ausgeführt werden, einschließlich eines oder mehrerer der hier beschriebenen Prozesse. Derartige Anweisungen und sonstige Daten können unter Verwendung einer Vielzahl computerlesbarer Medien gespeichert und gesendet werden. Eine Datei in der Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert ist.
  • Ein computerlesbares Medium schließt jedes Medium ein, das am Bereitstellen von Daten (z. B. Anweisungen), die von einem Computer gelesen werden können, beteiligt ist. Ein solches Medium kann viele Formen aufweisen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Zu nichtflüchtigen Medien zählen zum Beispiel optische oder magnetische Platten und sonstige Dauerspeicher. Zu flüchtigen Medien zählt ein dynamischer Direktzugriffsspeicher (DRAM), der typischerweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physikalisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH, einen EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, welches von einem Computer gelesen werden kann.
  • Hinsichtlich der hier beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass derartige Prozesse, wenngleich die Schritte derartiger Prozesse als gemäß einer bestimmten Abfolge erfolgend beschrieben sind, so ausgeführt werden könnten, dass die beschriebenen Schritte in einer anderen Reihenfolge ausgeführt werden als in der hier beschriebenen Reihenfolge. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hier beschriebene Schritte weggelassen werden könnten. Mit anderen Worten dienen die Beschreibungen von Systemen und/oder Prozesse in der vorliegenden Schrift der Veranschaulichung bestimmter Ausführungsformen und sind keinesfalls so auszulegen, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der beigefügten Figuren und nachfolgenden Ansprüche, veranschaulichenden und nicht einschränkenden Charakters ist. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, liegen für den Fachmann nach der Lektüre der vorstehenden Beschreibung auf der Hand. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorstehende Beschreibung bestimmt werden, sondern stattdessen unter Bezugnahme auf Ansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu denen derartige Ansprüche berechtigen. Es wird angenommen und es ist beabsichtigt, dass es hinsichtlich der in der vorliegenden Schrift erläuterten Techniken zukünftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.

Claims (15)

  1. Verfahren, umfassend: Empfangen von Bilddaten von einer Flugdrohne, die ein Fahrzeug, einen Fahrzeugstandort und einen Fahrzeugstatus identifizieren; und auf Grundlage der empfangenen Bilddaten, Senden einer Anweisung an das Fahrzeug, eine Fahrzeugkomponente zu betätigen.
  2. Verfahren nach Anspruch 1, ferner umfassend ein Identifizieren des Fahrzeugs auf Grundlage der empfangenen Bilddaten.
  3. Verfahren nach Anspruch 1, ferner umfassend: Empfangen eines Fahrzeugdrahtlossignals über die Flugdrohne; und Bestimmen des Status des Fahrzeugs auf Grundlage des empfangenen Fahrzeugdrahtlossignals und der empfangenen Bilddaten.
  4. Verfahren nach Anspruch 3, ferner umfassend: Empfangen einer Vielzahl von Fahrzeugdrahtlossignalen von einer Vielzahl von Fahrzeugen über die Flugdrohne; und Identifizieren des jeweiligen Fahrzeugdrahtlossignals des Fahrzeugs aus der Vielzahl von Drahtlossignalen auf Grundlage der empfangenen Bilddaten.
  5. Verfahren nach Anspruch 1, ferner umfassend ein Identifizieren des Fahrzeugs auf Grundlage von mindestens einem von einer Fahrzeugkennung, einem Fahrzeugmodell und einer Fahrzeugfarbe, die in dem empfangenen Bild enthalten sind.
  6. Verfahren nach Anspruch 5, wobei die Fahrzeugkennung ein grafisches Muster an einer Karosserie des Fahrzeugs beinhaltet.
  7. Verfahren nach Anspruch 1, ferner umfassend: Verwenden der Flugdrohne, um über einer Vielzahl von Fahrzeugen zu fliegen; Erzeugen eines Bildes, das die Vielzahl von Fahrzeugen beinhaltet; und Überlagern des jeweiligen Fahrzeugstatus jedes der Fahrzeuge auf dem erzeugten Bild.
  8. Verfahren nach Anspruch 7, ferner umfassend: Empfangen eines Standorts der Handvorrichtung; und Einblenden des Standorts der Handvorrichtung auf dem erzeugten Bild.
  9. Verfahren nach Anspruch 7, wobei das Verwenden der Flugdrohne, um über einer Vielzahl von Fahrzeugen zu fliegen, Folgendes beinhaltet: Bestimmen einer Flugroute auf Grundlage von Standortkoordinaten der Vielzahl von Fahrzeugen; und Betätigen der Drohne, um basierend auf der bestimmten Flugroute zu fliegen.
  10. Verfahren nach Anspruch 1, ferner umfassend: Empfangen eines Kriteriums, wobei das Kriterium mindestens eines von den zugelassenen Fahrzeugen, den mangelhaften Fahrzeugen, den Fahrzeugen mit wenig Kraftstoff und der nächsten Fahrzeugverladecharge beinhaltet; und Betätigen eines Fahrzeugaußenlichts auf Grundlage des empfangenen Kriteriums.
  11. Verfahren nach Anspruch 1, wobei das Betätigen der Fahrzeugkomponente ferner Folgendes umfasst: Bestimmen eines Ziels auf Grundlage des empfangenen Status des Fahrzeugs; und Navigieren des Fahrzeugs zu dem bestimmten Ziel durch mindestens eines von Beschleunigen, Lenken und Bremsen.
  12. Verfahren nach Anspruch 1, ferner umfassend ein Bestimmen des Standorts des Fahrzeugs auf Grundlage von mindestens einem von Fahrzeugsensordaten und Drohnensensordaten in der Flugdrohne.
  13. Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-11 auszuführen.
  14. Landfahrzeug, umfassend eine Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-11 auszuführen.
  15. Computerprogrammprodukt, das ein computerlesbares Medium umfasst, das Anweisungen speichert, die von einem Computerprozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1-11 auszuführen.
DE102018120902.9A 2017-08-29 2018-08-27 Fahrzeugkontrolle Pending DE102018120902A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/689,604 US10585439B2 (en) 2017-08-29 2017-08-29 Vehicle inspection
US15/689,604 2017-08-29

Publications (1)

Publication Number Publication Date
DE102018120902A1 true DE102018120902A1 (de) 2019-02-28

Family

ID=65321442

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018120902.9A Pending DE102018120902A1 (de) 2017-08-29 2018-08-27 Fahrzeugkontrolle

Country Status (3)

Country Link
US (1) US10585439B2 (de)
CN (1) CN109425496A (de)
DE (1) DE102018120902A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10089396B2 (en) 2014-07-30 2018-10-02 NthGen Software Inc. System and method of a dynamic interface for capturing vehicle data
US10997413B2 (en) * 2018-03-23 2021-05-04 NthGen Software Inc. Method and system for obtaining vehicle target views from a video stream
US11614735B1 (en) * 2018-05-18 2023-03-28 Uatc, Llc Systems and methods for remote status detection of autonomous vehicles
US11721010B2 (en) 2019-09-22 2023-08-08 Openlane, Inc. Vehicle self-inspection apparatus and method
DE102019129713A1 (de) * 2019-11-05 2020-12-10 Audi Ag Lokalisieren von Vorrichtungen
US11461890B2 (en) * 2020-02-05 2022-10-04 Fulpruf Technology Corporation Vehicle supply chain damage tracking system
US11557211B2 (en) 2020-08-06 2023-01-17 Capital One Services, Llc System and method for remote viewing of vehicles using drones
DE102020122304A1 (de) * 2020-08-26 2022-03-03 Deere & Company Verfahren zur Überprüfung eines Zustandes einer mobilen Nutzeinheit oder einer Wartungsstation

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
US5995898A (en) * 1996-12-06 1999-11-30 Micron Communication, Inc. RFID system in communication with vehicle on-board computer
US6072248A (en) * 1998-08-05 2000-06-06 Muise; Christopher Russel Method of and system for externally and remotely disabling stolen or unauthorized operated vehicles by pursuing police and the like
EP1852836A3 (de) 1999-05-26 2011-03-30 Johnson Controls Technology Company Drahtloses Kommunikationssystem und -verfahren
US20040203379A1 (en) * 2002-04-23 2004-10-14 Johnson Controls Technology Company Bluetooth transmission of vehicle diagnostic information
US20050267657A1 (en) * 2004-05-04 2005-12-01 Devdhar Prashant P Method for vehicle classification
US9824507B2 (en) * 2005-06-30 2017-11-21 Innova Electronics Corporation Mobile device based vehicle diagnostic system
US8630765B2 (en) 2006-11-17 2014-01-14 Innova Electronics, Inc. OBD II-compliant diagnostic PC tablet and method of use
US20110202471A1 (en) * 2010-02-12 2011-08-18 Kelley Blue Book Co., Inc. Method and system for selling motor vehicles
US9489839B2 (en) * 2012-08-06 2016-11-08 Cloudparc, Inc. Tracking a vehicle using an unmanned aerial vehicle
US8830322B2 (en) * 2012-08-06 2014-09-09 Cloudparc, Inc. Controlling use of a single multi-vehicle parking space and a restricted location within the single multi-vehicle parking space using multiple cameras
US8818572B1 (en) * 2013-03-15 2014-08-26 State Farm Mutual Automobile Insurance Company System and method for controlling a remote aerial device for up-close inspection
US20150062339A1 (en) * 2013-08-29 2015-03-05 Brian Ostrom Unmanned aircraft system for video and data communications
US20150134143A1 (en) * 2013-10-04 2015-05-14 Jim Willenborg Novel tracking system using unmanned aerial vehicles
CN104091425A (zh) 2014-06-10 2014-10-08 东莞市麦蒂科技有限公司 一种用于工业生产线的手持式数据采集终端
US9809305B2 (en) * 2015-03-02 2017-11-07 Amazon Technologies, Inc. Landing of unmanned aerial vehicles on transportation vehicles for transport
US9505494B1 (en) * 2015-04-30 2016-11-29 Allstate Insurance Company Enhanced unmanned aerial vehicles for damage inspection
US11140514B2 (en) 2015-11-13 2021-10-05 Ford Global Technologies, Llc Method and apparatus for wireless proximity based component information provision
US10370102B2 (en) * 2016-05-09 2019-08-06 Coban Technologies, Inc. Systems, apparatuses and methods for unmanned aerial vehicle
US10303166B2 (en) * 2016-05-23 2019-05-28 nuTonomy Inc. Supervisory control of vehicles
US20190026961A1 (en) * 2017-07-18 2019-01-24 Ford Global Technologies, Llc Drone-based diagnostic system for active grille shutters of a vehicle

Also Published As

Publication number Publication date
US20190064836A1 (en) 2019-02-28
CN109425496A (zh) 2019-03-05
US10585439B2 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
DE102018120902A1 (de) Fahrzeugkontrolle
DE102018113007A1 (de) Trajektorienplaner zum autonomen fahren mittels bézier-kurven
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102019112002A1 (de) Systeme und verfahren zur automatischen detektion von anhängereigenschaften
DE102018117910A1 (de) Überwachungssytem für eine Ladestationsparklücke für Elektrofahrzeuge
DE102017123406A1 (de) Telematikbasierte fahrzeugwertberichte
DE102018106527A1 (de) Elektronische Steuereinheiten, Fahrzeuge und Verfahren zum Umschalten einer Fahrzeugsteuerung aus einem autonomen Fahrmodus
DE102017123687A1 (de) Dynamisches aktualisieren der routenauswahl für halb-autonomes fahren
DE102019201849A1 (de) Fahrzeugsteuerungssystem und Steuerverfahren
DE102016123876A1 (de) Kolonnen-fahrzeug-vorausschau
DE102018109413A1 (de) Flecken- und abfallerkennungssysteme und -verfahren
DE112018000335T5 (de) Systeme und verfahren für einen berechnungsrahmen zur visuellen warnung des fahrers unter verwendung einer "fully convolutional"-architektur
DE102018109123A1 (de) Steuermodulaktivierung von Fahrzeugen in einem Zustand mit ausgeschalteter Zündung
DE102011084124A1 (de) Verfahren zum Navigieren eines Fahrzeuges auf einem Parkplatz
DE112017006295T5 (de) Abholen und absetzen von fluggästen an einem flughafen unter verwendung eines autonomen fahrzeugs
DE102019115437A1 (de) Komfortable fahrt für autonome fahrzeuge
DE102018109110A1 (de) Steuermodulaktivierung von fahrzeugen in einem zustand mit ausgeschalteter zündung zum ermitteln von fahrtrouten
DE102018132369A1 (de) Fahrzeugübergreifende zusammenarbeit zur selbstabbildung von fahrzeugen
DE102018132487A1 (de) Fahrzeugüberwachung von infrastrukturbeleuchtung
DE102018110508A1 (de) Benachrichtigungssystem für ein kraftfahrzeug
DE102018117178A1 (de) Drohnenbasiertes Diagnosesystem für aktive Kühlergrillblenden eines Fahrzeugs
DE102018213562A1 (de) Verfahren zum Betreiben einer Ausgabeeinrichtung eines Kraftfahrzeugs, Steuereinrichtung, Kraftfahrzeug
DE112018006807T5 (de) Parkplatzverriegelung und system und verfahren zum bereitstellen eines parkservice
DE102017107789A1 (de) Fahrzeugsicherheitssystem
DE102021104176A1 (de) Detektion von federungskomponentenschäden mit markierung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE