DE102021104184A1 - Fahrzeugsteuersystem - Google Patents

Fahrzeugsteuersystem Download PDF

Info

Publication number
DE102021104184A1
DE102021104184A1 DE102021104184.8A DE102021104184A DE102021104184A1 DE 102021104184 A1 DE102021104184 A1 DE 102021104184A1 DE 102021104184 A DE102021104184 A DE 102021104184A DE 102021104184 A1 DE102021104184 A1 DE 102021104184A1
Authority
DE
Germany
Prior art keywords
vehicle
area
image data
target
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021104184.8A
Other languages
English (en)
Inventor
Luke Niewiadomski
Hamid M. Golgiri
Lihui Chen
George Edmund Walley
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102021104184A1 publication Critical patent/DE102021104184A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/149Traffic control systems for road vehicles indicating individual free spaces in parking areas coupled to means for restricting the access to the parking space, e.g. authorization, access barriers, indicative lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/144Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces on portable or mobile units, e.g. personal digital assistant [PDA]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Abstract

Diese Offenbarung stellt ein Fahrzeugsteuersystem bereit. Es werden Bilddaten zu einem Bereich erhalten, der eine Vielzahl von Teilbereichen beinhaltet. Einer der Teilbereich wird auf Grundlage davon, dass der Zielteilbereich nicht belegt ist, als ein Zielteilbereich ausgewählt. Nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich werden dann die Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer bereitgestellt. Ein Fahrzeug wird bis zu einem Stillstand in dem Zielteilbereich betrieben. Nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, wird dann das Fahrzeugs in dem Zielteilbereich gehalten oder das Fahrzeug aus dem Zielteilbereich heraus betrieben.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugsensoren.
  • ALLGEMEINER STAND DER TECHNIK
  • Verschiedene Sensoren können Daten bereitstellen, um Objekte in einer Umgebung der physischen, d. h. realen Welt, um ein Fahrzeug zu identifizieren. Beispielsweise können Sensoren, wie etwa Videokameras, Lidar-, Radar-, Ultraschallsensoren usw., Daten zum Identifizieren eines Objekts bereitstellen. Ein Fahrzeugcomputer kann die Daten von den Sensoren empfangen, während er ein Fahrzeug in der Umgebung betreibt. Das Verarbeiten von Daten von solchen Sensoren kann im Hinblick auf die Rechenleistung allerdings kostspielig für den Fahrzeugcomputer sein, d. h., hierdurch können/kann wertvolle Prozessorzyklen und/oder Speicher in relativ hohem Umfang verbraucht werden.
  • KURZDARSTELLUNG
  • Ein System beinhaltet einen Computer, der einen Prozessor und einen Speicher beinhaltet, wobei auf dem Speicher durch den Prozessor ausführbare Anweisungen zum Erhalten von Bilddaten zu einem Bereich, der eine Vielzahl von Teilbereichen beinhaltet, gespeichert sind. Die Anweisungen beinhalten ferner Anweisungen zum Auswählen eines der Teilbereiche als einen Zielteilbereich auf Grundlage davon, dass der Zielteilbereich nicht belegt ist. Die Anweisungen beinhalten ferner Anweisungen, um dann, nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich, die Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer bereitzustellen. Die Anweisungen beinhalten ferner Anweisungen zum Betreiben eines Fahrzeugs bis zu einem Stillstand in dem Zielteilbereich. Die Anweisungen beinhalten ferner Anweisungen, um dann, nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, auf Grundlage der Nachricht entweder (a) das Fahrzeug in dem Zielteilbereich zu halten oder (b) das Fahrzeug aus dem Zielteilbereich heraus zu betreiben.
  • Die Anweisungen können ferner Anweisungen zum Bereitstellen von Standortdaten des Zielteilbereichs an dem Remote-Computer beinhalten.
  • Die Anweisungen können ferner Anweisungen, um nach Betreiben des Fahrzeugs bis zu dem Stillstand, zweite Bilddaten, welche die Kandidatenmarkierung beinhalten, an dem Remote-Computer bereitzustellen, beinhalten, wobei die Nachricht die Verfügbarkeit des Zielteilbereichs ferner auf Grundlage der zweiten Bilddaten angibt.
  • Die Anweisungen können ferner Anweisungen zum Aktualisieren der Verfügbarkeit des Zielteilbereichs auf einer Karte auf Grundlage der Nachricht von dem Remote-Computer, die angibt, dass der Zielteilbereich nicht verfügbar ist, beinhalten.
  • Der Remote-Computer kann einen zweiten Prozessor und einen zweiten Speicher beinhalten, wobei auf dem zweiten Speicher Anweisungen gespeichert sind, die durch den zweiten Prozessor ausführbar sind, um eine Verifizierung der Kandidatenmarkierung zu bestimmen, indem bestimmt wird, dass die Bilddaten (a) eine verifizierte Markierung beinhalten oder (b) keine verifizierte Markierung beinhalten. Die Anweisungen können ferner Anweisungen zu zumindest einem von Identifizieren der Kandidatenmarkierung oder Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, beinhalten. Die Anweisungen können ferner Anweisungen beinhalten, um dann die Verfügbarkeit auf Grundlage von einem von der Kandidatenmarkierung oder einer Validierungsnachricht von einer Benutzervorrichtung zu bestimmen.
  • Die Anweisungen können ferner Anweisungen beinhalten, um nach Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, die Bilddaten, welche die Kandidatenmarkierung beinhalten, an der Benutzervorrichtung bereitzustellen.
  • Die Anweisungen können ferner Anweisungen zum Zuschneiden der Bilddaten auf Grundlage der Markierung und einer Anzeige der Benutzervorrichtung beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen, dass der Teilbereich verfügbar ist, auf Grundlage von Bestimmen, dass die Kandidatenmarkierung nicht verifiziert ist, beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bereitstellen von Standortdaten des Teilbereichs an der Benutzervorrichtung beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen, dass der Zielteilbereich verfügbar ist, auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Eingeben von Bilddaten, welche die Kandidatenmarkierung angeben, in ein maschinelles Lernprogramm und Erhalten der Verifizierung der Kandidatenmarkierung als Ausgabe von dem maschinelles Lernprogramm beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Erhalten einer Identifizierung der Kandidatenmarkierung und einer Konfidenzschätzung als Ausgabe von dem maschinelles Lernprogramm beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, auf Grundlage davon, dass die Konfidenzschätzung unter einem Schwellenwert liegt, beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Trainieren des maschinellen Lernprogramms auf Grundlage von Nachrichten von einer Vielzahl von Benutzervorrichtungen, die angeben, dass der Zielteilbereich innerhalb einer vorbestimmten Zeit nicht verfügbar ist, beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Aktualisieren der Verfügbarkeit des Teilbereichs auf einer Karte auf Grundlage von Crowdsourcing-Daten, die Nachrichten von einer Vielzahl von Benutzervorrichtungen beinhalten, die angeben, dass der Zielteilbereich nicht verfügbar ist, beinhalten.
  • Ein Verfahren beinhaltet Erhalten von Bilddaten zu einem Bereich, der eine Vielzahl von Teilbereichen beinhaltet. Das Verfahren beinhaltet ferner Auswählen von einem der Teilbereiche als einen Zielteilbereich auf Grundlage davon, dass der Zielteilbereich nicht belegt ist. Das Verfahren beinhaltet dann ferner, nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich, Bereitstellen der Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer. Das Verfahren beinhaltet ferner Betreiben eines Fahrzeugs bis zu einem Stillstand in dem Zielteilbereich. Das Verfahren beinhaltet dann ferner, nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, entweder (a) Halten des Fahrzeugs in dem Zielteilbereich oder (b) Betreiben des Fahrzeugs aus dem Zielteilbereich heraus auf Grundlage der Nachricht.
  • Das Verfahren kann ferner Bereitstellen von Standortdaten des Zielteilbereichs an dem Remote-Computer beinhalten.
  • Das Verfahren kann ferner Bestimmen einer Verifizierung der Kandidatenmarkierung durch Bestimmen, dass die Bilddaten (a) eine verifizierte Markierung beinhalten oder (b) keine verifizierte Markierung beinhalten, beinhalten. Das Verfahren kann ferner zumindest eines von Identifizieren der Kandidatenmarkierung oder Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, beinhalten. Das Verfahren kann ferner dann Bestimmen der Verfügbarkeit auf Grundlage von einem von der Kandidatenmarkierung oder einer Validierungsnachricht von einer Benutzervorrichtung beinhalten.
  • Das Verfahren kann ferner Bestimmen, dass der Teilbereich verfügbar ist, auf Grundlage von Bestimmen, dass die Kandidatenmarkierung nicht verifiziert ist, beinhalten.
  • Das Verfahren kann ferner Bestimmen, dass der Zielteilbereich verfügbar ist, auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung beinhalten.
  • Ferner ist in dieser Schrift eine Rechenvorrichtung offenbart, die programmiert ist, um beliebige der vorangehenden Verfahrensschritte auszuführen. Darüber hinaus ist in dieser Schrift ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium beinhaltet, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um beliebige der vorangehenden Verfahrensschritte auszuführen.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein beispielhaftes Fahrzeugsteuersystem für ein Fahrzeug veranschaulicht.
    • 2A ist eine grafische Darstellung, die das Betreiben eines Fahrzeugs in einem Bereich gemäl dem System aus 1 veranschaulicht.
    • 2B ist eine grafische Darstellung, die das Bestimmen eines Standorts eines Zielteilbereichs veranschaulicht.
    • 3A-3B sind grafische Darstellungen, die eine Kandidatenmarkierung in einem Teilbereich des Bereichs veranschaulichen.
    • 4 ist eine beispielhafte grafische Darstellung eines tiefen neuronalen Netzwerkes.
    • 5 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Betreiben des Fahrzeugs.
    • 6 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Bestimmen einer Verfügbarkeit eines Zielteilbereichs.
  • DETAILLIERTE BESCHREIBUNG
  • Unter anfänglicher Bezugnahme auf 1-3B beinhaltet ein beispielhaftes Fahrzeugsteuersystem 100 einen Fahrzeugcomputer 110, der programmiert ist, um Bilddaten zu einem Bereich 200 zu erhalten, der eine Vielzahl von Teilbereichen 210 beinhaltet. Der Fahrzeugcomputer 110 ist ferner programmiert, um einen der Teilbereiche 210 auf Grundlage von Daten eines Sensors 115, z. B. Bilddaten, die angeben, dass der Zielteilbereich 210 nicht belegt ist, als einen Zielteilbereich 210 auszuwählen. Der Fahrzeugcomputer 110 ist ferner programmiert, um dann die Erfassen einer Kandidatenmarkierung 215 für den Zielteilbereich 210 die Bilddaten, welche die Kandidatenmarkierung 215 beinhalten, an einem Remote-Computer 140 bereitzustellen. Der Fahrzeugcomputer 110 ist ferner programmiert, um ein Fahrzeug 105 bis zu einem Stillstand in dem Zielteilbereich 210 zu betreiben. Der Fahrzeugcomputer 110 ist ferner programmiert, um dann, nach Empfangen einer Nachricht von dem Remote-Computer 140, die eine Verfügbarkeit des Zielteilbereichs 210 auf Grundlage von zumindest den Bilddaten angibt, entweder (a) das Fahrzeug 105 in dem Zielteilbereich 210 zu halten oder (b) das Fahrzeug 105 aus dem Zielteilbereich 210 heraus zu betreiben.
  • Der Fahrzeugcomputer 110 betreibt das Fahrzeug 105 entlang eines geplanten Weges P (siehe 2) in einem Bereich 200, der eine Vielzahl von Teilbereichen 210 beinhaltet. Während der Fahrzeugcomputer 110 entlang des geplanten Weges P betrieben wird, kann dieser über Bilddaten nach Zielteilbereichen 210, z. B. nicht belegten Parkplätzen, suchen. Ein Zielteilbereich 210 kann jedoch eine oder mehrere Bedingungen beinhalten, durch die der Zugang zu dem Zielteilbereich 210 eingeschränkt oder verboten wird, z. B. auf einem Schild angezeigt, das dem Zielteilbereich 210 zugeordnet ist, auf eine Bodenfläche des Zielteilbereichs 210 gemalt usw. Vorteilhafterweise kann der Fahrzeugcomputer 110 die Bilddaten, welche die Kandidatenmarkierung 215 beinhalten, und eine Anforderung, welche die Verfügbarkeit des Zielteilbereichs 210 angibt, an den Remote-Computer 140 übertragen, wodurch die Rechenlast auf dem Fahrzeugcomputer 110 reduziert werden kann und die Verarbeitungszeit reduziert werden kann, um die Verfügbarkeit des Zielteilbereichs 210 zu bestimmen. Des Weiteren kann der Fahrzeugcomputer 110 beim Anfordern einer Verfügbarkeit des Zielteilbereichs 210 von einem Remote-Computer 140 auf Grundlage zumindest von Bilddaten, die eine Kandidatenmarkierung 215 beinhalten, die dem Zielteilbereich 210 zugeordnet ist, eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeugs 105 bis zu einem Stillstand in dem Zielteilbereich 210 zu betreiben, wodurch verhindert wird, dass das Fahrzeug 105 den Verkehr behindert, während der Remote-Computer 140 die Verfügbarkeit des Zielteilbereichs 210 bestimmt.
  • Nun unter Bezugnahme auf 1 beinhaltet das Fahrzeug 105 den Fahrzeugcomputer 110, Sensoren 115, Aktoren 120 zum Betätigen verschiedener Fahrzeugkomponenten 125 und ein Fahrzeugkommunikationsmodul 130. Das Kommunikationsmodul 130 ermöglicht es dem Fahrzeugcomputer 110, mit einem Remote-Computer 140 und/oder einer Benutzervorrichtung 145 zu kommunizieren, z. B. über ein Nachrichten- oder Rundfunkprotokoll, wie etwa dedizierte Nahbereichskommunikation (Dedicated Short Range Communications - DSRC), Mobilfunk, und/oder ein anderes Protokoll, das die Kommunikation von Fahrzeug zu Fahrzeug, von Fahrzeug zu Infrastruktur, von Fahrzeug zu Cloud oder dergleichen und/oder über ein Paketnetzwerk 135 unterstützen kann.
  • Der Fahrzeugcomputer 110 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Formen computerlesbarer Medien und speichert durch den Fahrzeugcomputer 110 ausführbare Anweisungen zum Durchführen verschiedener Vorgänge, einschliel lich der in dieser Schrift offenbarten.
  • Der Fahrzeugcomputer 110 kann das Fahrzeug 105 in einem autonomen, einem halbautonomen oder einem nichtautonomen (oder manuellen) Modus betreiben. Für die Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, bei dem jedes von Antrieb, Bremsung und Lenkung des Fahrzeugs 105 durch den Fahrzeugcomputer 110 gesteuert wird; in einem halbautonomen Modus steuert der Fahrzeugcomputer 110 eines oder zwei von Antrieb, Bremsung und Lenkung des Fahrzeugs 105; in einem nichtautonomen Modus steuert ein menschlicher Bediener jedes von Antrieb, Bremsung und Lenkung des Fahrzeugs 105.
  • Der Fahrzeugcomputer 110 kann Programmierung beinhalten, um eines oder mehrere von Bremsen, einem Antrieb (z. B. Steuerung der Beschleunigung des Fahrzeugs 105 durch Steuern von einem oder mehreren von einer Brennkraftmaschine, einem Elektromotor, einem Hybridmotor usw.), einer Lenkung, einem Getriebe, einer Steuerung der Klimaanlage, einer Innen- und/oder Aul enbeleuchtung, einer Hupe, Türen usw. des Fahrzeugs 105 zu betreiben sowie um zu bestimmen, ob und wann der Fahrzeugcomputer 110 derartige Vorgänge anstelle eines menschlichen Fahrzeugführers steuern soll.
  • Der Fahrzeugcomputer 110 kann mehr als einen Prozessor beinhalten, z.B. in elektronischen Steuereinheiten (electronic controller units - ECUs) oder dergleichen eingeschlossen, die in dem Fahrzeug 105 eingeschlossen sind, um verschiedene Fahrzeugkomponenten 125 zu überwachen und/oder zu steuern, z. B. eine Getriebesteuerung, eine Bremssteuerung, eine Lenksteuerung usw., oder kommunikativ an diese gekoppelt sein, z. B. über ein Kommunikationsnetz des Fahrzeugs, wie etwa einen Kommunikationsbus, wie nachfolgend genauer beschrieben. Der Fahrzeugcomputer 110 ist im Allgemeinen zur Kommunikation in einem Fahrzeugkommunikationsnetz, das einen Bus in dem Fahrzeug 105 beinhalten kann, wie etwa ein Controller Area Network (CAN) oder dergleichen, und/oder anderen drahtgebundenen und/oder drahtlosen Mechanismen angeordnet.
  • Der Fahrzeugcomputer 110 kann über das Netzwerk des Fahrzeugs 105 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 105 übertragen und/oder Nachrichten (z. B. CAN-Nachrichten) von den verschiedenen Vorrichtungen, z.B. Sensoren 115, einem Aktor 120, ECUs usw., empfangen. Alternativ oder zusätzlich kann das Fahrzeugkommunikationsnetz in Fällen, in denen der Fahrzeugcomputer 110 tatsächlich eine Vielzahl von Vorrichtungen umfasst, zur Kommunikation zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Fahrzeugcomputer 110 dargestellt sind. Ferner können, wie nachfolgend erwähnt, verschiedene Steuerungen und/oder Sensoren 115 über das Fahrzeugkommunikationsnetz Daten an dem Fahrzeugcomputer 110 bereitstellen.
  • Die Sensoren 115 des Fahrzeugs 105 können eine Vielfalt an Vorrichtungen beinhalten, die bekanntermal en dem Fahrzeugcomputer 110 Daten bereitstellen. Beispielsweise können die Sensoren 115 (einen) Light-Detection-and-Ranging-Sensor(en) (LIDAR-Sensor(en)) 115 usw. einschliel en, der/die auf einem Verdeck des Fahrzeugs 105, hinter einer Windschutzscheibe des Fahrzeugs 105, um das Fahrzeug 105 herum usw. angeordnet ist/sind und relative Standorte, Gröl en und Formen von Objekten bereitstellt/bereitstellen, die das Fahrzeug 105 umgeben. Als ein weiteres Beispiel können ein oder mehrere Radarsensoren 115, die an Stol fängern des Fahrzeugs 105 befestigt sind, Daten bereitstellen, um Standorte der Objekte bezogen auf den Standort des Fahrzeugs 105 bereitzustellen. Die Sensoren 115 können ferner alternativ oder zusätzlich zum Beispiel (einen) Kamerasensor(en) 115 einschliel en, z. B. eine Frontkamera, Seitenkamera usw., der/die Bilder von einem das Fahrzeug 105 umgebenden Bereich bereitstellt/bereitstellen. Im Zusammenhang mit dieser Offenbarung ist ein Objekt ein physischer, d. h. materieller, Gegenstand, der eine Masse aufweist und der durch physikalische Phänomene (z. B. Licht oder andere elektromagnetische Wellen oder Schall usw.), die durch Sensoren 115 erfasst werden können, dargestellt werden kann. Somit fallen das Fahrzeug 105 sowie weitere Gegenstände, einschliel lich der nachfolgend erörterten, unter die Definition von „Objekt“ in dieser Schrift.
  • Der Fahrzeugcomputer 110 ist programmiert, um Daten von einem oder mehreren Sensoren 115 im Wesentlichen kontinuierlich, periodisch und/oder auf Anweisung durch einen Remote-Computer 140 usw. zu empfangen. Die Daten können zum Beispiel einen Standort des Fahrzeugs 105 beinhalten. Standortdaten geben einen Punkt oder Punkte auf einer Bodenfläche an und können in einer bekannten Form vorliegen, z. B. Geokoordinaten, wie etwa Längengrad und Breitengrad, die über ein Navigationssystem erhalten wurden, wie bekannt, welches das globale Positionsbestimmungssystem (GPS) verwendet. Zusätzlich oder alternativ können die Daten eines Standort eines Objekts, z. B. eines Fahrzeugs, einer Stange, eines Schildes, eines Bordsteins, eines Fahrrads usw., in Bezug auf das Fahrzeug 105 beinhalten. Als ein Beispiel kann es sich bei den Daten um Bilddaten der Umgebung um das Fahrzeug 105 handeln. In einem derartigen Beispiel können die Bilddaten ein oder mehrere Objekte in dem Bereich 200 beinhalten. Bilddaten bezeichnet in dieser Schrift digitale Bilddaten, die z. B. Pixel mit Intensitäts- und Farbwerten umfassen und durch Kamerasensoren 115 erhoben werden können. Die Sensoren 115 können an einer beliebigen geeigneten Stelle in oder an dem Fahrzeug 105 montiert sein, z. B. an einer Stoßstange des Fahrzeugs 105, an einem Dach des Fahrzeugs 105 usw., um Bilder der Umgebung um das Fahrzeug 105 zu sammeln.
  • Die Aktoren 120 des Fahrzeugs 105 sind über Schaltungen, Chips oder andere elektronische und/oder mechanische Komponenten umgesetzt, die verschiedene Fahrzeugteilsysteme gemäl zweckmäßigen Steuersignalen betätigen können, wie es bekannt ist. Die Aktoren 120 können verwendet werden, um Komponenten 125, einschließlich Bremsung, Beschleunigung und Lenkung eines Fahrzeugs 105, zu steuern.
  • Im Zusammenhang mit der vorliegenden Offenbarung handelt es sich bei einer Fahrzeugkomponente 125 um eine oder mehrere Hardwarekomponenten, die dazu ausgelegt sind, eine(n) mechanische(n) oder elektromechanische(n) Funktion oder Vorgang durchzuführen - wie etwa das Fahrzeug 105 zu bewegen, das Fahrzeug 105 abzubremsen oder anzuhalten, das Fahrzeug 105 zu lenken usw. Nicht einschränkende Beispiele für Komponenten 125 schliel en Folgendes ein: eine Antriebskomponente (die z. B. eine Brennkraftmaschine und/oder einen Elektromotor usw. einschliel t), eine Getriebekomponente, eine Lenkkomponente (die z. B. eines oder mehrere von einem Lenkrad, einer Zahnstange usw. einschliel en kann), eine Aufhängungskomponente (die z. B. einen oder mehrere von einem Stoßdämpfer, z. B. einen Dämpfer oder eine Strebe, eine Buchse, eine Feder, einen Steuerarm, ein Kugelgelenk, ein Gestänge usw. einschliel en kann), eine Bremskomponente, eine Einparkhilfekomponente, eine Komponente für adaptive Geschwindigkeitsregelung, eine Komponente zum adaptiven Lenken, ein oder mehrere passive Rückhaltesysteme (z. B. Airbags), einen beweglichen Sitz usw.
  • Des Weiteren kann der Fahrzeugcomputer 110 konfiguriert sein, um über ein Fahrzeug-zu-Fahrzeug-Kommunikationsmodul 130 oder eine Schnittstelle mit Vorrichtungen aul erhalb des Fahrzeugs 105, z. B. über eine Fahrzeug-zu-Fahrzeug-(V2V-) oder eine Fahrzeug-zu-Infrastruktur-(V2X-)Drahtloskommunikation (Mobilfunk und/oder DSRC usw.), mit einem anderen Fahrzeug und/oder mit anderen Computern (üblicherweise über direkte Funkfrequenzkommunikation) zu kommunizieren. Das Kommunikationsmodul 130 könnte einen Mechanismus oder mehrere Mechanismen beinhalten, wie etwa einen Sendeempfänger, durch welche die Computer 110 der Fahrzeuge 105 kommunizieren können, einschließlich einer beliebigen gewünschten Kombination aus drahtlosen (z. B. Mobilfunk-, Drahtlos-, Satelliten-, Mikrowellen- und Funkfrequenz-)Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder -topologien, wenn eine Vielzahl von Kommunikationsmechanismen genutzt wird). Beispielhafte über das Kommunikationsmodul 130 bereitgestellte Kommunikation beinhaltet Mobilfunk, Bluetooth, IEEE 802.11, dedizierte Nahbereichskommunikation (dedicated short range communication - DSRC) und/oder Weitverkehrsnetze (wide area networks - WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Das Netzwerk 135 stellt einen Mechanismus oder mehrere Mechanismen dar, durch welche ein Fahrzeugcomputer 110 mit Remote-Rechenvorrichtungen, z. B. dem Remote-Computer 140, der Benutzervorrichtung 145, einem anderen Fahrzeugcomputer usw., kommunizieren kann. Demnach kann es sich bei dem Netzwerk 135 um einen oder mehrere von verschiedenen verdrahteten oder drahtlosen Kommunikationsmechanismen handeln, einschließlich einer beliebigen gewünschten Kombination aus verdrahteten (z. B. Kabel- oder Glasfaser-) und/oder drahtlosen (z. B. Mobilfunk-, Drahtlos-, Satelliten-, Mikrowellen- und Funkfrequenz-)Kommunikationsmechanismen und einer beliebigen gewünschten Netzwerktopologie (oder -topologien, wenn mehrere Kommunikationsmechanismen genutzt werden). Beispielhafte Kommunikationsnetze schliel en Folgendes ein: drahtlose Kommunikationsnetze (z. B. unter Verwendung von Bluetooth®, Bluetooth® Low Energy (BLE), IEEE 802.11, Fahrzeug-zu-Fahrzeug (Car2Car), wie etwa dedizierte Nahbereichskommunikation (Dedicated Short Range Communications - DSRC) usw.), lokale Netzwerke (local area network - LAN) und/oder Weitverkehrsnetze (wide area network - WAN), einschließlich des Internet, die Datenkommunikationsdienste bereitstellen.
  • Ein Remote-Computer 140 ist ein Computer, der sich aul erhalb eines Fahrzeugs 105 befindet und üblicherweise von diesem entfernt ist. Der Remote-Computer 145 beinhaltet einen zweiten Prozessor und einen zweiten Speicher, wie sie bekannt sind. Der Speicher beinhaltet eine oder mehrere Arten computerlesbarer Medien und auf diesem sind Anweisungen gespeichert, die durch den zweiten Prozessor zum Durchführen verschiedener Vorgänge ausgeführt werden können, was die in dieser Schrift beschriebenen beinhaltet. Beispielsweise kann der Remote-Computer 140 ein Cloud-basierter Server sein. Ferner kann auf den Remote-Computer 140 über das Netzwerk 135, z. B. das Internet oder ein anderes Weitverkehrsnetz, zugegriffen werden.
  • Die Benutzervorrichtung 145 kann eine herkömmliche Rechenvorrichtung sein, d. h. einen oder mehrere Prozessoren und einen oder mehrere Speicher beinhalten, die programmiert sind, um Vorgänge bereitzustellen, wie sie etwa in dieser Schrift offenbart sind. Die Benutzervorrichtung 145 kann eine tragbare Vorrichtung sein. Eine tragbare Vorrichtung kann ein beliebiger aus einer Vielfalt von Computern sein, der verwendet werden kann, während er von einer Person getragen wird, z. B. ein Smartphone, ein Tablet, ein persönlicher digitaler Assistent, eine Smartwatch usw. Die Benutzervorrichtung 145 empfängt Daten, die durch einen Benutzer angegeben werden, z. B. über eine Benutzerschnittstelle. Dies bedeutet, dass ein Benutzer Daten in die Benutzervorrichtung 145 eingibt. Die Daten können die Verfügbarkeit des Zielteilbereichs 210 angeben (wie nachfolgend erörtert). Nach dem Empfangen von Dateneingaben von dem Benutzer kann die Benutzervorrichtung 145 die angegebene Daten z. B. über das Netzwerk 135 an den Remote-Computer 140 übertragen.
  • 2 ist eine grafische Darstellung, die ein Fahrzeug 105 veranschaulicht, das in einem beispielhaften Bodenflächenbereich 200 betrieben wird, der markierte Teilbereiche 210 für Fahrzeuge beinhaltet. Ein Bereich 200 kann sich auf einer Stral e, z. B. entlang eines Bordsteins oder eines Stral enrands, auf einem Parkplatz oder einer Struktur oder einem Abschnitt davon usw. befinden. Der Fahrzeugcomputer 110 kann programmiert sein, um z. B. durch GPS-basiertes Geofencing zu bestimmen, dass sich das Fahrzeug 105 innerhalb des Bereichs 200 befindet. In einem derartigen Beispiel gibt der GPS-Geofence einen Umfang des Bereichs 200 an. Der Fahrzeugcomputer 110 kann dann auf Grundlage der Standortdaten des Fahrzeugs 105, die angeben, dass sich das Fahrzeug innerhalb des Geofence befindet, bestimmen, dass sich das Fahrzeug 105 innerhalb des Bereichs 200 befindet.
  • Der Fahrzeugcomputer 110 kann zum Beispiel einen geplanten Weg P zum Betreiben des Fahrzeugs 105 in dem Bereich 200 erzeugen, z.B. auf Grundlage einer Karte des Bereichs 200. Im hier verwendeten Sinne ist ein „geplanter Weg“ ein Satz von Punkten, der z. B. als Koordinaten in Bezug auf ein Fahrzeugkoordinatensystem und/oder Geokoordinaten angegeben werden kann, zu deren Bestimmung der Fahrzeugcomputer 110 mit einem herkömmlichen Navigations- und/oder Wegplanungsalgorithmus programmiert ist. Alternativ kann der Remote-Computer 140 den geplanten Weg P z. B. auf Grundlage einer Karte des Bereichs 200 generieren und den geplanten Weg P z.B. über das Netzwerk 135 an dem Fahrzeugcomputer 110 bereitstellen. Die Karte des Bereichs 200 kann auf einem Speicher des Fahrzeugcomputers 110 und/oder einem zweiten Speicher des Remote-Computers 140 gespeichert sein.
  • Der geplante Weg P kann das Fahrzeug 105 zum Beispiel entlang von Gängen oder Spuren leiten, entlang denen sich Teilbereiche 210 in dem Bereich 200 befinden, um nach Zielteilbereichen 210 zu suchen (siehe 2). In einem derartigen Beispiel ist der Fahrzeugcomputer 110 programmiert, um einen Teilbereich 210 zum Parken des Fahrzeugs 105 auf Grundlage von Bilddaten, die von Kamerasensoren 115 z. B. über das Fahrzeugnetzwerk empfangen werden zu identifizieren. Beispielsweise kann ein Teilbereich 210 ein Parkplatz sein, der durch Markierungen angegeben ist, z. B. gemalte Linien auf einer Bodenfläche, und Bilderkennungstechniken, wie sie bekannt sind, können durch den Fahrzeugcomputer 110 ausgeführt werden, um den Zielteilbereich 210 zu identifizieren.
  • Nach dem Identifizieren eines Teilbereichs 210 kann der Fahrzeugcomputer 110 den Teilbereich 210 auf Grundlage davon, dass der Zielteilbereich 210 nicht belegt ist, als einen Zielteilbereich 210 auswählen. Dies bedeutet, dass der Fahrzeugcomputer 110 unter Umständen bestimmt, dass kein Objekt in dem Zielteilbereich 210 vorhanden ist, z. B. zwischen Markierungen einer Parkplatz. Beispielsweise können Klassifizierungs- oder Identifizierungstechniken, wie sie bekannt sind, verwendet werden, z. B. in dem Fahrzeugcomputer 110 auf Grundlage von Daten von einem Lidar-Sensor 115, einem Kamerasensor 115 usw., um eine Objektart, z. B. ein Fahrzeug, eine Person, ein Fahrrad, ein Motorrad usw., sowie physische Merkmale von Objekten zu identifizieren.
  • Verschiedene Techniken, wie sie bekannt sind, können verwendet werden, um Daten des Sensors 115 zu interpretieren. Beispielsweise können Kamera- und/oder Lidar-Bilddaten an einer Klassifizierungseinrichtung bereitgestellt werden, die eine Programmierung zur Nutzung von einer oder mehreren konventionellen Bildklassifizierungstechniken umfassen. Beispielsweise kann die Klassifizierungseinrichtung eine Technik zum maschinellen Lernen verwenden, bei der Daten, die bekanntermal en verschiedene Objekte darstellen, einem maschinellen Lernprogramm zum Trainieren der Klassifizierungseinrichtung bereitgestellt werden. Sobald die Klassifizierungseinrichtung trainiert wurde, kann diese ein Bild als Eingabe annehmen und dann für jede von einer oder mehreren entsprechenden interessierenden Regionen in dem Bild eine Identifikation von einem oder mehreren Objekten, oder dass in der entsprechenden interessierenden Region kein Objekt vorhanden ist, als Ausgabe bereitstellen. Ferner kann ein Koordinatensystem (z. B. ein polares oder kartesisches), das auf einen Bereich in der Nähe eines Fahrzeugs 105 angewendet wird, angewendet werden, um Standorte und/oder Bereiche (z. B. gemäl dem Koordinatensystem des Fahrzeugs 105, umgewandelt in globale Breiten- und Längengrad-Geokoordinaten usw.) von Objekten, die anhand der Daten des Sensors 115 identifiziert wurden, anzugeben. Darüber hinaus könnte ein Computer 110 verschiedene Techniken zum Verbinden (d. h. Integrieren in ein gemeinsames Koordinatensystem oder einen gemeinsamen Referenzrahmen) von Daten von verschiedenen Sensoren 115 und/oder Sensorarten 115 einsetzen, z. B. Lidar- Radar- und/oder optische Kameradaten.
  • Nach dem Auswählen eines Zielteilbereichs 210 kann der Fahrzeugcomputer 110 programmiert sein, um eine Kandidatenmarkierung 215 für den Zielteilbereich 210 zu erfassen. Der Fahrzeugcomputer 110 kann zum Beispiel Bilddaten für den Zielteilbereich 210 analysieren, z. B. unter Verwendung von Bild- oder Mustererkennungstechniken, um die Kandidatenmarkierung 215 für den Zielteilbereich 210 zu erfassen. Eine Kandidatenmarkierung 215 ist eine Markierung, z. B. Buchstaben, Zahlen, Linien, Formen, Symbole usw., die dem Zielteilbereich 210 zugeordnet ist. Die Kandidatenmarkierung 215 kann sich zum Beispiel auf einer Bodenfläche des Zielteilbereichs 210 befinden, z. B. zwischen Markierungen eines Parkplatzes (siehe 3A). Als ein weiteres Beispiel kann sich die Kandidatenmarkierung 215 auf einem Schild befinden, das dem Zielteilbereich 210 zugewandt ist, z. B. entlang einer Grenze des Zielteilbereichs 210 und/oder über der Bodenfläche des Zielteilbereichs 210 (siehe 3B).
  • Nach Erfassen einer Kandidatenmarkierung 215, die dem Zielteilbereich 210 zugeordnet ist, überträgt der Fahrzeugcomputer 110 die Bilddaten, welche die Kandidatenmarkierung 215 beinhalten, an den Remote-Computer 140. Des Weiteren kann der Fahrzeugcomputer 110 Standortdaten des Zielteilbereichs 210 an den Remote-Computer 140 übertragen, z. B. in einer gleichen oder verschiedenen Übertragung. Der Fahrzeugcomputer 110 kann zum Beispiel den Standort des Zielteilbereichs 210 auf Grundlage der Bilddaten bestimmen. Beispielsweise kann der Fahrzeugcomputer 110 eine Kante, z. B. eine gemalte Linie auf einer Bodenfläche, des Zielteilbereichs 210 identifizieren, z. B. gemäß Bilderkennungstechniken. Der Fahrzeugcomputer 110 kann ferner einen Winkel α zwischen einer Linie L von der Linse des Kamerasensors 115 zu der identifizierten Kante des Zielteilbereichs 210 und eine Achse A bestimmen, die sich von der Linse parallel zu einer Längsachse des Fahrzeugs 105 erstreckt. Dann kann der Fahrzeugcomputer 110 den Zielteilbereich 210 auf der Karte des Bereichs 200 auf Grundlage des Bestimmens der identifizierten Kante des Teilbereichs 210 auf der Karte, die von der Linie L geschnitten wird, die sich von dem Standort des Fahrzeugs 105 erstreckt, und in dem Winkel α bezogen auf die Achse A identifizieren (siehe 2B). Nach dem Identifizieren des Zielteilbereichs 210 auf der Karte kann der Standort des Zielteilbereichs 210 bestimmt werden.
  • Der Fahrzeugcomputer 110 kann dann, d. h. nach dem Identifizieren des Zielteilbereichs 210 und dem Bestimmen seines Standorts, eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 bis zu einem Stillstand in dem Zielteilbereich 210 zu betreiben. Das Fahrzeug 105 ist im Stillstand, wenn sich im Wesentlichen das gesamte Fahrzeug 105 innerhalb einer Grenze des Zielteilbereichs 210 befindet, z. B. zwischen Markierungen eines Parkplatzes, und das Fahrzeug 105 stationär ist. Der Fahrzeugcomputer 110 kann zum Beispiel bestimmen, dass sich im Wesentlichen das gesamte Fahrzeug 105 innerhalb der Grenze des Zielteilbereichs 210 befindet, indem der Standort des Fahrzeugs 105 mit dem Standort des Zielteilbereichs 210 verglichen wird. Als ein weiteres Beispiel kann der Fahrzeugcomputer 110 Sensordaten 115 analysieren, um zu bestimmen, dass das Fahrzeug 105 bezogen die Grenze des Zielteilbereichs 210 ungefähr in Quer- und Längsrichtung zentriert ist. Der Fahrzeugcomputer 110 kann auf Grundlage der Sensordaten 115, die z. B. von einem Raddrehzahlsensor 115 oder dergleichen empfangen werden, bestimmen, dass das Fahrzeug 105 stationär ist.
  • Nach dem Betreiben des Fahrzeugs 105 bis zu dem Stillstand in dem Zielteilbereich 210 kann der Fahrzeugcomputer 110 zweite Bilddaten an dem Remote-Computer 140 bereitstellen. Die zweiten Bilddaten können ein anderes Sichtfeld als die Bilddaten umfassen. Beispielsweise können die Kamerasensoren 115 zweite Bilddaten erheben, welche die Kandidatenmarkierung 215 beinhalten (z.B. zu einem Schild, das dem Zielteilbereich 210 zugewandt ist, oder zu der Bodenfläche zwischen der Grenze des Zielteilbereichs 210 und den Rädern des Fahrzeug 105), wenn das Fahrzeug 105 in dem Zielteilbereich 210 angehalten ist. Der Fahrzeugcomputer 110 kann dann die zweiten Bilddaten z. B. über das Netzwerk 135 an den Remote-Computer 140 übertragen. Zusätzlich oder alternativ kann der Fahrzeugcomputer 110 Standortdaten des Fahrzeugs 105 nach dem Betreiben des Fahrzeugs 105 bis zu dem Stillstand in dem Zielteilbereich 210 bereitstellen. In einem solchen Beispiel kann der Remote-Computer 140 den Standort des Zielteilbereichs 210 auf Grundlage des Standorts des Fahrzeugs 105 bestimmen.
  • Nach dem Empfangen einer Nachricht von dem Remote-Computer 140, welche die Verfügbarkeit des Zielteilbereichs 210 angibt, kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen. Das Angeben der Verfügbarkeit beinhaltet Angeben, ob dem Fahrzeug 105 eine Einfahrt in den Zielteilbereich 210 untersagt ist oder eine Einfahrt in den Zielteilbereich 210 nicht untersagt ist. Beispielsweise kann der Fahrzeugcomputer 110 auf Grundlage der Nachricht, die angibt, dass der Zielteilbereich 210 verfügbar ist (d. h., dem Fahrzeug 105 ist nicht untersagt, in den Zielteilbereich 210 einzufahren), eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 in dem Zielteilbereich 210 zu halten. Alternativ kann der Fahrzeugcomputer 110 auf Grundlage der Nachricht, die angibt, dass der Zielteilbereich 210 nicht verfügbar ist (d. h., dem Fahrzeug 105 ist untersagt, in den Zielteilbereich 210 einzufahren), eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 aus dem Zielteilbereich 210 heraus zu bewegen. In dieser Situation kann der Fahrzeugcomputer 110 nach Verlassen des Zielteilbereichs 210 das Fahrzeug 105 entlang des geplanten Weges P betreiben, um z. B. weiter nach einem Zielteilbereich 210 zu suchen.
  • Der Fahrzeugcomputer 110 kann programmiert sein, um eine Karte des Bereichs 200 zu aktualisieren, die z. B. auf dem Speicher des Fahrzeugcomputers 110 gespeichert ist. Die Karte kann die Verfügbarkeit jedes Teilbereichs 210 innerhalb des Bereichs 200 angeben. Beispielsweise kann der Fahrzeugcomputer 110 die Verfügbarkeit des Zielteilbereichs 210 auf Grundlage der Nachricht aktualisieren, die angibt, dass der Zielteilbereich 210 nicht verfügbar ist. Dies bedeutet, dass der Fahrzeugcomputer 110 die Karte aktualisieren kann, um anzugeben, dass der Zielteilbereich 210 nicht verfügbar ist. Der Fahrzeugcomputer 110 kann programmiert sein, um Teilbereiche 210 auf Grundlage davon, dass der Teilbereich 210 auf der Karte nicht verfügbar ist, als Zielteilbereiche 210 abzulehnen, d. h. nicht auszuwählen.
  • Der Remote-Computer 140 kann programmiert sein, um eine Verifizierung der Kandidatenmarkierung 215 zu bestimmen, die in den Bilddaten und/oder den zweiten Bilddaten eingeschlossen ist. Dies bedeutet, dass der Remote-Computer 140 bestimmen kann, ob die Kandidatenmarkierung 215 verifiziert oder nicht verifiziert ist. Die Kandidatenmarkierung 215 ist verifiziert, wenn der Remote-Computer 140 die Kandidatenmarkierung 215 in den Bilddaten und/oder den zweiten Bilddaten interpretiert. Die Kandidatenmarkierung 215 ist nicht verifiziert, wenn der Remote-Computer 140 nicht in der Lage ist, die Kandidatenmarkierung 215 in den Bilddaten und/oder den zweiten Bilddaten zu interpretieren.
  • Der Remote-Computer 140 kann zum Beispiel die Bilddaten und/oder die zweiten Bilddaten an einer Klassifizierungseinrichtung bereitstellen, die eine Programmierung zur Nutzung von einer oder mehreren Bildklassifizierungstechniken umfasst. Die Klassifizierungseinrichtung kann eine Technik zum maschinellen Lernen verwenden, bei der Daten, die bekanntermal en verschiedene verifizierte Markierungen darstellen, einem maschinellen Lernprogramm zum Training der Klassifizierungseinrichtung bereitgestellt werden. Nach dem Trainieren kann die Klassifizierungseinrichtung ein oder mehrere Bilder als Eingabe annehmen und dann eine Identifizierung eines oder mehrerer verifizierter Kandidatenmarkierungen 215 oder, dass kein verifizierter Kandidatenmarkierung 215 in dem/den Bild(ern) vorhanden ist, als Ausgabe bereitstellen. In dem Fall, dass das maschinelle Lernen ausgibt, dass die verifizierte Kandidatenmarkierung 215 in den Bilddaten und/oder zweiten Bilddaten vorhanden ist, bestimmt der Remote-Computer 140, dass die Kandidatenmarkierung 215 verifiziert ist. In dem Fall, dass das maschinelle Lernen ausgibt, dass keine verifizierte Kandidatenmarkierung 215 in den Bilddaten oder den zweiten Bilddaten vorhanden ist, bestimmt der Remote-Computer 140, dass die Kandidatenmarkierung 215 nicht verifiziert ist.
  • Nach dem Bestimmen, dass die Kandidatenmarkierung 215 verifiziert ist, kann der Remote-Computer 140 programmiert sein, um die verifizierte Kandidatenmarkierung 215 zu identifizieren. Dies bedeutet, dass der Remote-Computer 140 die Bedingung(en) (z. B. „Parken verboten“, „Kein Parken für Veranstaltungen“, „Reserviert“, „Nur Kleinwagen“, „Nur Behindertenparken“ usw.) bestimmen kann, die durch die verifizierte Kandidatenmarkierung 215 angegeben wird/werden und z.B. die Einfahrt in den Zielteilbereich 210 beschränkt/beschränken oder untersagt/untersagen. Beispielsweise kann der Remote-Computer 140 die Bilddaten und/oder die zweiten Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, in ein neuronales Netzwerk eingeben, wie etwa ein tiefes neuronales Netzwerk (deep neural network - DNN), das trainiert werden kann, um Bilddaten und/oder zweite Bilddaten, die eine verifizierte Kandidatenmarkierung 215 beinhalten, als Eingabe anzunehmen und eine Ausgabe einer Identifizierung der verifizierten Kandidatenmarkierung 215, d. h. der durch die verifizierte Kandidatenmarkierung 215 angegebenen Bedingung, zu generieren.
  • Des Weiteren kann das DNN eine Konfidenzschätzung der Identifizierung der verifizierten Kandidatenmarkierung 215 ausgeben. Das DNN kann die Ausgabeschätzung auf Grundlage von Vergleichen der Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, mit Bilddaten, die bekanntermaßen Kandidatenmarkierungen 215 darstellen, z. B. unter Verwendung von Bildverarbeitungstechniken, wie sie bekannt sind, bestimmen. Eine Konfidenzschätzung ist ein numerischer Wert, z. B. ein Prozentsatz, eine Zahl zwischen 0 und 1 usw., der eine Ähnlichkeit, z. B. einen Prozentsatz übereinstimmender Pixel, zwischen den Bilddaten, welche die verifizierten Kandidatenmarkierung 215 beinhalten, und den bekannten Bilddaten darstellt, die bekanntermal en die identifizierte Kandidatenmarkierung 215 darstellen. Beispielsweise kann der Remote-Computer 140 die Konfidenzschätzung mit einem vorbestimmten Schwellenwert, z. B. 0,8, vergleichen. Der vorbestimmte Schwellenwert kann z. B. auf Grundlage von empirischen Tests bestimmt werden, um eine Mindestkonfidenzschätzung zu bestimmen, unter der das DNN verifizierte Kandidatenmarkierungen 215 ungenau identifiziert. In dem Fall, dass die Konfidenzschätzung gleich oder größer dem vorbestimmten Schwellenwert ist, bestimmt der Remote-Computer 140, dass die verifizierte Kandidatenmarkierung 215 identifiziert werden kann. In dem Fall, dass die Konfidenzschätzung gleich oder kleiner dem vorbestimmten Schwellenwert ist, bestimmt der Remote-Computer 140, dass die verifizierte Kandidatenmarkierung 215 nicht identifiziert werden kann.
  • Nach dem Bestimmen, dass die verifizierte Kandidatenmarkierung 215 nicht identifiziert ist, kann der Remote-Computer 140 programmiert sein, um die Bilddaten und/oder die zweiten Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, z. B. über das Netzwerk 135 an die Benutzervorrichtung 145 zu übertragen. Des Weiteren kann der Remote-Computer 140 Standortdaten des Zielteilbereichs 210 an die Benutzervorrichtung 145 übertragen, z. B. in einer gleichen oder verschiedenen Nachricht.
  • Der Remote-Computer 140 kann die Bilddaten und/oder zweiten Bilddaten auf Grundlage der verifizierten Kandidatenmarkierung 215 und/oder der Benutzervorrichtung 145 formatieren. Beispielsweise kann der Remote-Computer 140 die Bilddaten und/oder die zweiten Bilddaten zuschneiden. Der Remote-Computer 140 kann eine minimale Umschliel ung bestimmen, welche die verifizierte Kandidatenmarkierung 215 und eine minimale Menge an Hintergrund beinhaltet. Der Remote-Computer 140 kann dann den Teil der Bilddaten und/oder zweiten Bilddaten, der nicht von der minimalen Umschliel ung eingeschlossen ist, löschen. Die minimale Menge an Hintergrund kann z. B. auf Grundlage einer Benutzereingabe, einer Funktion der Größe, d. h. der Abmessungen, der verifizierten Kandidatenmarkierung 215 usw. bestimmt werden. Als weiteres Beispiel kann die minimale Umschliel ung auf Grundlage einer Größe, d. h. von Abmessungen, eines Anzeigebildschirms der Benutzervorrichtung 145 bestimmt werden. Das heil t, dass der Remote-Computer 140 eine minimale Umschliel ung auswählen kann, welche die gleichen Abmessungen wie der Anzeigebildschirm der Benutzervorrichtung 145 aufweist. Der Remote-Computer 140 kann die Abmessungen des Anzeigebildschirms der Benutzervorrichtung 145 z. B. auf dem zweiten Speicher speichern. Als ein weiteres Beispiel kann der Remote-Computer 40 die Abmessungen des Anzeigebildschirms der Benutzervorrichtung 145 z. B. über das Netzwerk 135 von der Benutzervorrichtung 145 empfangen.
  • Zusätzlich oder alternativ kann der Remote-Computer 140 eine Pixelauflösung, d. h. eine Gesamtanzahl an Pixeln (z. B. 2560 x 1440 Pixel), der Bilddaten und/oder der zweiten Daten auf Grundlage der Pixelauflösung des Anzeigebildschirms der Benutzervorrichtung 145 einstellen. Der Remote-Computer 140 kann die Pixelauflösung der Benutzervorrichtung 145 z. B. in einer gleichen oder einer anderen Übertragung wie die Abmessungen des Anzeigebildschirms der Benutzervorrichtung 145 von der Benutzervorrichtung 145 empfangen.
  • Der Remote-Computer 140 ist programmiert, um die Verfügbarkeit des Zielteilbereichs 210 auf Grundlage der Bilddaten und/oder der zweiten Bilddaten zu bestimmen, welche die Kandidatenmarkierung 215 beinhalten. Beispielsweise kann der Remote-Computer 140 nach dem Identifizieren der verifizierten Kandidatenmarkierung 215 über die Bilddaten und/oder zweiten Bilddaten Daten des Fahrzeugs 105, z. B. auf Grundlage von Fahrzeugdaten, wie etwa Fahrzeugabmessungen, einem Fahrzeugtyp, einer Fahrzeugkennung, Fahrzeugbenutzereigenschaften usw., mit der/den Untersagungsbedingung(en) vergleichen, die durch die verifizierte Kandidatenmarkierung 215 angegeben wird/werden, um zu bestimmen, ob es dem Fahrzeug 105 untersagt ist, in den Zielteilbereich 210 einzufahren, oder nicht untersagt ist, in den Zielteilbereich einzufahren. Der Remote-Computer 140 kann Daten von dem Fahrzeugcomputer 110 z. B. über ein Netzwerk 135 empfangen. In dem Fall, dass es dem Fahrzeug 105 untersagt ist, in den Zielteilbereich 210 einzufahren, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 nicht verfügbar ist. In dem Fall, dass es dem Fahrzeug 105 nicht untersagt ist, in den Zielteilbereich 210 einzufahren, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 verfügbar ist. Des Weiteren kann der Remote-Computer 140 auf Grundlage von Bestimmen, dass die Kandidatenmarkierung 215 nicht verifiziert ist, bestimmen, dass der Zielteilbereich 210 verfügbar ist.
  • Zusätzlich oder alternativ kann der Remote-Computer 140 nach Bestimmen, dass die verifizierte Kandidatenmarkierung 215 nicht identifiziert ist, die Verfügbarkeit des Zielteilbereichs 210 auf Grundlage einer Validierungsnachricht von der Benutzervorrichtung 145 bestimmen. Wie vorangehend dargelegt, kann der Remote-Computer 140 die Bilddaten und/oder zweiten Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, an die Benutzervorrichtung 145 übertragen. Die Benutzervorrichtung 145 kann dann die Bilddaten und/oder zweiten Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, einem Benutzer über den Anzeigebildschirm der Benutzervorrichtung 145 anzeigen. Des Weiteren kann die Benutzervorrichtung 145 eine Benutzereingabe anfordern, um eine Validierung des Zielteilbereichs 210 auf Grundlage der verifizierten Kandidatenmarkierung 215 anzugeben. Dies bedeutet, dass die Benutzervorrichtung 145 den Benutzer auffordert, anzugeben, dass der Zielteilbereich 210 z. B. zu einem gegenwärtigen Zeitpunkt auf Grundlage der verifizierten Kandidatenmarkierung 215 eines von gültig oder ungültig für das Fahrzeug 105 ist. Nach Empfangen der Benutzereingabe überträgt die Benutzervorrichtung eine Validierungsnachricht, welche die Validierung des Zielteilbereichs 210 angibt, an den Remote-Computer 140.
  • Der Remote-Computer 140 kann zum Beispiel bei Bereitstellen der Bilddaten und/oder zweiten Bilddaten an der Benutzervorrichtung 145 einen Zeitgeber auslösen. Der Remote-Computer 140 bestimmt auf Grundlage eines Verstreichens einer vorbestimmten Zeit, z. B. Ablaufen des Zeitgebers, ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung, dass der Zielteilbereich 210 verfügbar ist. Umgekehrt kann der Remote-Computer 140 bei Empfangen der Validierungsnachricht innerhalb der vorbestimmten Zeit, d. h. vor Ablaufen des Zeitgebers, die Verfügbarkeit des Zielteilbereichs 210 auf Grundlage der Validierungsnachricht bestimmen. Die vorbestimmte Zeit kann z. B. auf Grundlage von empirischen Tests bestimmt werden, um eine durchschnittliche Zeitdauer für Benutzer zu bestimmen, um deren Benutzervorrichtungen 145 bei Empfangen einer Nachricht zu überprüfen. In dem Fall, dass die Validierungsnachricht angibt, dass der Zielteilbereich gültig ist, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 verfügbar ist. In dem Fall, dass die Validierungsnachricht angibt, dass der Zielteilbereich ungültig ist, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 nicht verfügbar ist. Der Fahrzeugcomputer 110 kann dann eine Nachricht, welche die Verfügbarkeit des Zielteilbereichs 210 angibt, z.B. über das Netzwerk 135 an den Fahrzeugcomputer 110 übertragen.
  • Der Remote-Computer 140 kann programmiert sein, um eine Karte des Bereichs 200, die z. B. auf dem zweiten Speicher gespeichert ist, auf Grundlage von Crowdsourcing-Daten zu aktualisieren. Crowdsourcing-Daten setzen voraus, dass eine Vielzahl von Benutzervorrichtungen 145 vorhanden sind, die Validierungsnachrichten unabhängig voneinander bereitstellen und dann die Ergebnisse kombinieren (z. B. durch Bilden eines Mittelwertes und/oder Verwenden eines anderen statistischen Messwertes). Dies bedeutet, dass der Remote-Computer 140 programmiert sein kann, um Validierungsnachrichten auf Grundlage von Fahrzeugdaten einer Vielzahl von Fahrzeugen und/oder eines Zeitpunktes, zu dem die entsprechenden Fahrzeugcomputer 210 den Zielteilbereich 210 auswählen, von einer Vielzahl von Benutzervorrichtungen 145 zu empfangen, die angeben, dass der Zielteilbereich 210 nicht verfügbar ist. Auf Grundlage der Crowdsourcing-Daten, die angeben, dass der Zielteilbereich 210 nicht verfügbar ist (z. B. liegt eine durchschnittliche Anzahl an Nachrichten, ein Prozentsatz von Nachrichten usw., die angeben, dass der Zielteilbereich 210 nicht verfügbar ist, über einem Schwellenwert), kann der Remote-Computer 140 die Karte aktualisieren, um auf Grundlage der Fahrzeugdaten und/oder eines Zeitpunktes anzugeben, dass der Zielteilbereich 210 nicht verfügbar ist. Der Remote-Computer 140 kann dann die Karte z.B. über das Netzwerk 135 an eine Vielzahl von Fahrzeugen, einschließlich des Fahrzeugs 105, übertragen.
  • 4 ist eine grafische Darstellung eines beispielhaften tiefen neuronalen Netzwerkes (deep neural network - DNN) 400, das trainiert werden kann, um eine verifizierte Kandidatenmarkierung 215 auf Grundlage von Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, zu identifizieren. Das DNN 400 kann ein Softwareprogramm sein, das in den Speicher geladen und zum Beispiel durch den in einem Computer eingeschlossenen Prozessor ausgeführt werden kann. In einer beispielhaften Umsetzung kann das DNN 400 unter anderem ein neuronales Faltungsnetz (convolutional neural network - CNN), R-CNN (regionenbasiertes CNN), schnelles R-CNN und schnelleres R-CNN einschliel en. Das DNN beinhaltet mehrere Knoten und die Knoten sind so angeordnet, dass das DNN 400 eine Eingangsschicht, eine oder mehrere verborgene Schichten und eine Ausgangsschicht beinhaltet. Jede Schicht des DNN 400 kann eine Vielzahl von Knoten 405 beinhalten. Während 4 drei (3) verborgene Schichten veranschaulicht, versteht es sich, dass das DNN 400 zusätzliche oder weniger verborgene Schichten beinhalten kann. Die Eingangs- und Ausgangsschichten können auch mehr als einen (1) Knoten 405 beinhalten.
  • Die Knoten 405 werden gelegentlich als künstliche Neuronen 405 bezeichnet, da sie dazu ausgebildet sind, biologische, z. B. menschliche, Neuronen zu emulieren. Ein Satz von Eingaben (dargestellt durch die Pfeile) für jedes Neuron 405 wird jeweils mit den entsprechenden Gewichtungen multipliziert. Die gewichteten Eingaben können dann in einer Eingabefunktion summiert werden, um eine Nettoeingabe bereitzustellen, die möglicherweise um eine Verzerrung angepasst ist. Die Nettoeingabe kann dann an einer Aktivierungsfunktion bereitgestellt werden, durch die wiederum eine Ausgabe an einem verbundenen Neuron 405 bereitgestellt wird. Bei der Aktivierungsfunktion kann es sich um eine Vielfalt von geeigneten Funktionen handeln, die üblicherweise auf Grundlage einer empirischen Analyse ausgewählt wird. Wie durch die Pfeile in 4 veranschaulicht, können die Ausgaben des Neurons 405 dann zur Aufnahme in einen Satz von Eingaben in ein oder mehrere Neuronen 405 in einer nächsten Schicht bereitgestellt werden.
  • Als ein Beispiel kann das DNN 400 mit Ground-Truth-Daten trainiert werden, d. h. Daten über eine(n) reale(n) Bedingung oder Zustand. Beispielsweise kann das DNN 400 durch einen Prozessor des Remote-Computers 140 mit Ground-Truth-Daten trainiert und/oder mit zusätzlichen Daten aktualisiert werden. Die Gewichtungen können zum Beispiel unter Verwendung einer Gaul -Verteilung initialisiert werden und eine Verzerrung für jeden Knoten 405 kann auf null gesetzt werden. Das Trainieren des DNN 400 kann Aktualisieren von Gewichtungen und Verzerrungen durch geeignete Techniken beinhalten, wie etwa Rückpropagierung mit Optimierungen. Ground-Truth-Daten können unter anderem Daten, die Objekte, z. B. Fahrzeuge, Schilder, Ful gänger, Fremdkörper usw. in einem Bild angeben oder Daten einschliel en, die einen physikalischen Parameter angeben. Beispielsweise kann es sich bei den Ground-Truth-Daten um Daten handeln, die Objekte und Objektmarkierungen darstellen. In einem weiteren Beispiel können die Ground-Truth-Daten Daten sein, die ein Objekt, z. B. ein Fahrzeug 105, und einen relativen Winkel und/oder eine relative Geschwindigkeit des Objekts, z. B. des Fahrzeugs 105, in Bezug auf ein anderes Objekt, z. B. einen Fußgänger, ein anderes Fahrzeug, ein Schild usw., darstellen.
  • Zusätzlich oder alternativ kann das DNN 400 auf Grundlage von Validierungsnachrichten von einer Vielzahl von Benutzervorrichtungen 145 trainiert werden, die angeben, dass der Zielteilbereich 210 innerhalb der vorbestimmten Zeit nicht verfügbar ist. Beispielsweise kann der Remote-Computer 140 (z. B. durch Bilden eines Mittelwertes und/oder Verwenden eines anderen statistischen Mal es) die Ergebnisse von Validierungsnachrichten von einer Vielzahl von Benutzervorrichtungen 145 kombinieren, die angeben, dass der Zielteilbereich 210 innerhalb der vorbestimmten Zeit nicht verfügbar ist. Auf Grundlage von z. B. einem Durchschnitt, einem Prozentsatz usw. der Validierungsnachrichten, der angibt, dass der Zielteilbereich 210 nicht verfügbar ist, kann der Remote-Computer 140 Daten bereitstellen, um das DNN 400 zu trainieren, wie vorangehend dargelegt. Die Daten geben die verifizierte Kandidatenmarkierung 215 an und der Zielteilbereich 210 ist nicht verfügbar.
  • Während des Betriebs verifiziert der Remote-Computer 140 die Kandidatenmarkierung 215 und stellt Bilddaten und/oder zweite Bilddaten, welche die verifizierte Kandidatenmarkierung 215 für den Zielteilbereich 210 beinhalten, an dem DNN 400 bereit. Das DNN 400 generiert eine Prognose auf Grundlage der empfangenen Eingabe. Bei der Ausgabe handelt es sich um eine Identifizierung der verifizierten Kandidatenmarkierung 215, d.h. die Bedingung(en), die durch die verifizierte Kandidatenmarkierung 215 angegeben ist/sind, und eine Konfidenzschätzung (wie vorangehend erörtert). Das DNN 400 kann zum Beispiel programmiert sein, um die verifizierte Kandidatenmarkierung 215 auf Grundlage von optischer Zeichenerkennung (optical character recognition - OCR) zu identifizieren. OCR ist eine Technik für maschinelles Sehen, die bestimmt, ob Bilddaten, die alphanumerischen Zeichen entsprechen, in einem Bild vorhanden sind und wenn ja, welche alphanumerischen Zeichen vorhanden sind. OCR kann betrieben werden, indem angepasste Filter entsprechend Schriftart, Stil, Größe und Ausrichtung von alphanumerischen Zeichen durchgeführt werden, um ein digitales Zeichen und einen digitalen Standort zu bestimmen. Des Weiteren kann das DNN 400 programmiert sein, um dann die Zeichen in ein System zur Verarbeitung natürlicher Sprache (Natural Language Processing - NLP) einzugeben, das dazu trainiert ist, eine Identifizierung der verifizierten Kandidatenmarkierung 215 in einer natürlichen Sprache gemäl den in dem Bild vorhandenen Zeichen auszugeben. Ferner kann der NLP dazu trainiert werden, die identifizierten Zeichen aus einer Sprache in eine andere Sprache zu übersetzen, die z. B. von einem Benutzer angegeben wird. Als ein weiteres Beispiel kann das DNN 400 programmiert sein, um die verifizierte Kandidatenmarkierung 215 auf Grundlage von Mustererkennungstechniken zu identifizieren.
  • 5 ist eine grafische Darstellung eines beispielhaften Prozesses 500 zum Betreiben eines Fahrzeugs 105 in einem Bereich 200. Der Prozess 500 beginnt bei einem Block 505.
  • Bei dem Block 505 empfängt der Fahrzeugcomputer 110 Daten von Sensoren 115, z. B. Bilddaten, von einem oder mehreren Sensoren 115, z. B. über das Fahrzeugnetzwerk, während das Fahrzeug 105 in dem Bereich 200 betrieben wird (z. B., um nach einem Teilbereich 210 zu suchen, wie etwa einem Parkplatz). Die Bilddaten beinhalten die Umgebung um das Fahrzeug 105, z. B. den Bereich 200, einen oder mehrere Teilbereiche 210, ein oder mehrere Objekte usw. Der Prozess 500 geht zu einem Block 510 über.
  • Bei dem Block 510 wählt der Fahrzeugcomputer 110 einen Teilbereich 210 als einen Zielteilbereich 210 aus. Beispielsweise kann der Fahrzeugcomputer 110 den Teilbereich 210 unter Verwendung von Bilderkennungstechniken identifizieren, wie vorangehend erörtert. Nach dem Identifizieren des Teilbereichs 210 wählt der Fahrzeugcomputer 110 den Teilbereich 210 auf Grundlage von Daten des Sensors 115, z. B. Bilddaten, die angeben, dass der Zielteilbereich 210 nicht belegt ist, als einen Zielteilbereich 210 aus. Der Fahrzeugcomputer 110 kann unter Verwendung von Objektklassifizierungstechniken, wie vorangehend erörtert, bestimmen, dass der Zielteilbereich 210 nicht belegt ist. Wenn der Fahrzeugcomputer 110 den Teilbereich 210 als den Zielteilbereich 210 auswählt, geht der Prozess 500 zu einem Block 515 über. Anderenfalls kehrt der Prozess 500 zu dem Block 525 zurück.
  • Bei dem Block 515 erfasst der Fahrzeugcomputer 110 eine Kandidatenmarkierung 215 für den Zielteilbereich 210 auf Grundlage der Bilddaten für den Zielteilbereich 210. Wie vorangehend dargelegt, ist eine Kandidatenmarkierung 215 eine Markierung, die dem Zielteilbereich 210 zugeordnet ist. Beispielsweise kann der Fahrzeugcomputer 110 die Bilddaten unter Verwendung von Bild- oder Mustererkennungstechniken, wie vorangehend erörtert, analysieren, um eine Kandidatenmarkierung 215 für den Zielteilbereich 210 zu erfassen. Die Kandidatenmarkierung 215 kann zum Beispiel auf einem Schild, das dem Zielteilbereich 210 zugewandt ist, und/oder auf einer Bodenfläche des Zielteilbereichs 210 eingeschlossen sein. Wenn der Fahrzeugcomputer 110 eine Kandidatenmarkierung 215 erfasst, geht der Prozess 500 zu einem Block 520 über. Andernfalls geht der Prozess 500 zu einem Block 545 über.
  • Bei dem Block 520 stellt der Fahrzeugcomputer 110 Bilddaten, welche die Kandidatenmarkierung 215 beinhalten, an einem Remote-Computer 140 bereit. Beispielsweise kann der Fahrzeugcomputer 110 die Bilddaten über das Netzwerk 135 an den Remote-Computer 140 übertragen. Des Weiteren kann der Fahrzeugcomputer 110 Standortdaten des Zielteilbereichs 210 an dem Remote-Computer 140 bereitstellen, z. B. in einer gleichen oder verschiedenen Nachricht. Der Fahrzeugcomputer 110 kann einen Standort des Zielteilbereichs 210 bestimmen, indem er einen Standort des Zielteilbereichs 210 bezogen auf einen Standort des Fahrzeugs 105 über Bilddaten bestimmt. Der Fahrzeugcomputer 110 kann dann einen Teilbereich 210 auf Grundlage des Standorts des Fahrzeugs 105 und des Standorts des Zielteilbereichs 210 bezogen auf das Fahrzeug 105 auf einer Karte des Bereichs 210 als den Zielteilbereich identifizieren, wie vorangehend erörtert. Der Fahrzeugcomputer 110 kann dann den Standort des Zielteilbereichs 210 auf Grundlage des identifizierten Teilbereichs 210 auf der Karte bestimmen. Der Prozess 500 geht zu einem Block 525 über.
  • Bei dem Block 525 betreibt der Fahrzeugcomputer 110 das Fahrzeug 105 bis zu einem Stillstand in dem Zielteilbereich 210. Beispielsweise kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 in den Zielteilbereich 210 zu bewegen. Nach Bestimmen, dass sich im Wesentlichen das gesamte Fahrzeug 105 in dem Zielteilbereich 210 befindet, auf Grundlage von Daten des Sensors 115, wie vorangehend erörtert, kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 anzuhalten.
  • Zusätzlich oder alternativ kann der Fahrzeugcomputer 110 dann z. B. von einem oder mehreren Sensoren 115 zweite Bilddaten erhalten, welche die Kandidatenmarkierung 215 beinhalten. Der Fahrzeugcomputer 110 kann die zweiten Bilddaten an dem Remote-Computer 140 bereitstellen. Nach Betreiben des Fahrzeugs 105 bis zu einem Stillstand in dem Zielteilbereich 210 kann der Fahrzeugcomputer 110 zusätzlich oder alternativ einen Standort des Fahrzeugs 105 an dem Remote-Computer bereitstellen. In einem solchen Beispiel kann der Remote-Computer 140 den Standort des Zielteilbereichs 210 auf Grundlage des Standorts des Fahrzeugs 105 bestimmen. Der Prozess 500 geht zu einem Block 520 über.
  • Bei dem Block 530 empfängt der Fahrzeugcomputer 110 eine Nachricht, welche die Verfügbarkeit des Zielteilbereichs 210 angibt, z. B. über das Netzwerk 155von dem Remote-Computer 140. Wie vorangehend erwähnt, beinhaltet das Angeben der Verfügbarkeit Angeben, ob dem Fahrzeug 105 eine Einfahrt in den Zielteilbereich 210 untersagt ist oder eine Einfahrt in den Zielteilbereich 210 nicht untersagt ist. In dem Fall, dass die Nachricht angibt, dass der Zielteilbereich 210 verfügbar ist, geht der Prozess 500 zu einem Block 535 über. Andernfalls geht der Prozess 500 zu einem Block 540 über.
  • Bei dem Block 535 hält der Fahrzeugcomputer 110 das Fahrzeug 105 in dem Zielteilbereich 210. Beispielsweise kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, z. B. ein Getriebe in einen Parkgang und/oder eine Zündung in einen ausgeschalteten Zustand, um das Fahrzeug 105 in dem Zielteilbereich 210 zu halten. Nach Block 535 endet das Verfahren 500.
  • Bei dem Block 540, der auf den Block 530 folgen kann, betreibt der Fahrzeugcomputer 110 das Fahrzeug 105 aus dem Zielteilbereich 210 heraus. Beispielsweise kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 aus dem Zielteilbereich 210 heraus zu bewegen, z. B. rückwärts entlang eines Weges in den Zielteilbereich 210. Der Fahrzeugcomputer 110 kann dann das Fahrzeug 105 entlang des geplanten Weges P betreiben. Beispielsweise kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 durch den Bereich 200 zu bewegen, um z. B. weiter nach Zielteilbereichen 210 zu suchen. Des Weiteren kann der Fahrzeugcomputer 110 eine Karte aktualisieren, die z. B. auf einem Speicher des Fahrzeugcomputers 110 gespeichert ist, um z. B. auf Grundlage von Fahrzeugdaten des Fahrzeugs 105 und/oder eines gegenwärtigen Zeitpunktes anzugeben, dass der Zielteilbereich 210 für das Fahrzeug 105 nicht verfügbar ist. Der Prozess 500 kehrt zu dem Block 505 zurück.
  • Bei dem Block 545, der auf den Block 515 folgen kann, der vorangehend erörtert wurde, betreibt der Fahrzeugcomputer 110 das Fahrzeug 105 in den Zielteilbereich 210. Beispielsweise kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 in den Zielteilbereich 210 zu bewegen. Nach Bestimmen, dass sich im Wesentlichen das gesamte Fahrzeug 105 in dem Zielteilbereich 210 befindet, auf Grundlage von Daten des Sensors 115, wie vorangehend erörtert, kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, um das Fahrzeug 105 anzuhalten. Des Weiteren kann der Fahrzeugcomputer 110 eine oder mehrere Fahrzeugkomponenten 125 betätigen, z. B. ein Getriebe in einen Parkgang und/oder eine Zündung in einen ausgeschalteten Zustand, um das Fahrzeug 105 in dem Zielteilbereich 210 zu halten. Nach Block 545 endet das Verfahren 500.
  • 6 ist ein Ablaufdiagramm eines beispielhaften Prozesses 600 zum Bestimmen einer Verfügbarkeit eines Zielteilbereichs 210. Der Prozess 600 beginnt bei einem Block 605.
  • Bei dem Block 605 empfängt ein Remote-Computer 140 Daten von einem Fahrzeugcomputer 110, z.B. über ein Netzwerk 135. Bei den Daten handelt es sich um Bilddaten, die eine Kandidatenmarkierung 215 für einen Zielteilbereich 210 beinhalten. Des Weiteren kann der Remote-Computer 140 zweite Bilddaten von dem Fahrzeugcomputer 110 empfangen. Die zweiten Bilddaten stellen ein anderes Sichtfeld bereit als die Bilddaten. Zum Beispiel kann der Fahrzeugcomputer 110 die Bilddaten vor dem Betreiben des Fahrzeugs 105 in den Zielteilbereich 210 bereitstellen und kann dieser die zweiten Bilddaten beim Anhalten des Fahrzeugs 105 in dem Zielteilbereich 210 bereitstellen. Ferner kann der Remote-Computer 140 einen Standort des Zielteilbereichs 210 von dem Fahrzeugcomputer 110 empfangen, wie vorangehend erörtert. Der Prozess 600 geht zu einem Block 610 über.
  • Bei dem Block 610 bestimmt der Remote-Computer 140 eine Verifizierung der Kandidatenmarkierung 215 auf Grundlage der Bilddaten und/oder der zweiten Bilddaten. Der Remote-Computer 140 bestimmt, dass die Kandidatenmarkierung 215 verifiziert ist, wenn der Remote-Computer 140 die Kandidatenmarkierung 215 in den Bilddaten und/oder den zweiten Bilddaten interpretiert. Der Remote-Computer 140 bestimmt, dass die Kandidatenmarkierung 215 nicht verifiziert ist, wenn der Remote-Computer 140 nicht in der Lage ist, die Kandidatenmarkierung 215 in den Bilddaten und/oder den zweiten Bilddaten zu interpretieren.
  • Beispielsweise kann der Remote-Computer 140 eine Klassifizierungseinrichtung beinhaltet, wie vorangehend erörtert, die trainiert sein kann, um ein oder mehrere Bilder als Eingabe anzunehmen und dann eine Angabe von einem oder mehreren verifizierten Kandidatenmarkierungen 215 oder eine Angabe, dass keine verifizierte Kandidatenmarkierung 215 in dem Bild/den Bildern vorhanden ist, als Ausgabe bereitstellen. In dem Fall, dass die Klassifizierungseinrichtung ausgibt, dass die verifizierte Kandidatenmarkierung 215 in den Bilddaten und/oder zweiten Bilddaten vorhanden ist, bestimmt der Remote-Computer 140, dass die Kandidatenmarkierung 215 verifiziert ist. In dem Fall, dass die Klassifizierungseinrichtung ausgibt, dass keine verifizierte Kandidatenmarkierung 215 in den Bilddaten und/oder zweiten Bilddaten vorhanden ist, bestimmt der Remote-Computer 140, dass die Kandidatenmarkierung 215 nicht verifiziert ist. Wenn die Kandidatenmarkierung 215 verifiziert ist, geht der Prozess 600 zu einem Block 615 über. Andernfalls geht der Prozess 600 zu einem Block 635 über.
  • Bei dem Block 615 bestimmt der Remote-Computer 140, ob die Kandidatenmarkierung 215 nicht identifiziert ist. Beispielsweise kann der Remote-Computer 140 ein neuronales Netzwerk beinhalten, wie vorangehend erörtert, das trainiert werden kann, um Bilddaten und/oder zweite Bilddaten, die eine verifizierte Kandidatenmarkierung 215 beinhalten, als Eingabe anzunehmen und eine Ausgabe einer Identifizierung der verifizierten Kandidatenmarkierung 215, d. h. der durch die verifizierte Kandidatenmarkierung 215 angegebenen Bedingung, die eine Einfahrt in den Zielteilbereich 210 untersagt oder einschränkt, zu generieren.
  • Des Weiteren kann das DNN eine Konfidenzschätzung der verifizierten Kandidatenmarkierung 215 ausgeben, wie vorangehend erörtert. Der Remote-Computer 140 kann dann die Konfidenzschätzung mit einem vorbestimmten Schwellenwert vergleichen. In dem Fall, dass die Konfidenzschätzung gleich oder größer dem vorbestimmten Schwellenwert ist, bestimmt der Remote-Computer 140, dass die verifizierte Kandidatenmarkierung 215 identifiziert werden kann. In dem Fall, dass die Konfidenzschätzung gleich oder kleiner dem vorbestimmten Schwellenwert ist, bestimmt der Remote-Computer 140, dass die verifizierte Kandidatenmarkierung 215 nicht identifiziert werden kann. Wenn die Kandidatenmarkierung 215 nicht identifiziert ist, geht der Prozess 600 zu einem Block 615 über. Andernfalls geht der Prozess 600 zu einem Block 630 über.
  • Bei dem Block 620 stellt der Remote-Computer 140 Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, z.B. über das Netzwerk 135 an einer Benutzervorrichtung 145 bereit. Der Remote-Computer 140 kann die Bilddaten auf Grundlage der Benutzervorrichtung 145 und/oder der verifizierten Kandidatenmarkierung 215 formatieren, wie vorangehend erörtert. Die Benutzervorrichtung 145 kann die Bilddaten, welche die verifizierte Kandidatenmarkierung 215 beinhalten, einem Benutzer anzeigen, wie vorangehend erörtert. Des Weiteren kann die Benutzervorrichtung 145 eine Benutzereingabe anfordern, welche die Verfügbarkeit des Zielteilbereichs 210 angibt. Beispielsweise kann die Benutzereingabe angeben, dass der Zielteilbereich 210 z. B. zu einem gegenwärtigen Zeitpunkt auf Grundlage der verifizierten Kandidatenmarkierung 215 eines von gültig oder ungültig für das Fahrzeug 105 ist. Die Benutzervorrichtung 145 kann nach Empfangen der Benutzereingabe eine Validierungsnachricht an den Remote-Computer 140 übertragen. Der Prozess 600 geht zu einem Block 625 über.
  • Bei dem Block 625 bestimmt der Remote-Computer 140, ob eine Validierungsnachricht von der Benutzervorrichtung innerhalb einer vorbestimmten Zeit empfangen wird. Beispielsweise kann der Remote-Computer 140 einen Zeitgeber bei Übertragen der Bilddaten an die Benutzervorrichtung 145 auslösen. In dem Fall, dass die Validierungsnachricht nach Verstreichen der vorbestimmten Zeit empfangen wird, z. B. nach Ablaufen des Zeitgebers, geht der Prozess 600 zu dem Block 635 über. Andernfalls geht der Prozess 600 zu dem Block 630 über.
  • Bei dem Block 630 bestimmt der Remote-Computer 140 die Verfügbarkeit des Zielteilbereichs 210. Beispielsweise kann der Remote-Computer 140 nach Bestimmen, dass die verifizierte Kandidatenmarkierung 215 identifiziert werden kann, Daten des Fahrzeugs 105 z. B. auf Grundlage von Fahrzeugdaten, wie etwa Fahrzeugabmessungen, einem Fahrzeugtyp, einer Fahrzeugkennung, Fahrzeugbenutzereigenschaften usw., mit der/den Untersagungsbedingung(en) vergleichen, die durch die verifizierte Kandidatenmarkierung 215 angegeben wird/werden, um zu bestimmen, ob es dem Fahrzeug 105 untersagt ist, in den Zielteilbereich 210 einzufahren, oder nicht untersagt ist, in den Zielteilbereich einzufahren. Der Remote-Computer 140 kann Daten von einem Fahrzeugcomputer 110 z. B. über das Netzwerk 135 empfangen. In dem Fall, dass es dem Fahrzeug 105 untersagt ist, in den Zielteilbereich 210 einzufahren, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 z. B. zu dem gegenwärtigen Zeitpunkt nicht für das Fahrzeug 105 verfügbar ist. In dem Fall, dass es dem Fahrzeug 105 nicht untersagt ist, in den Zielteilbereich 210 einzufahren, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 z. B. zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 verfügbar ist.
  • Alternativ kann der Remote-Computer 140 nach Bestimmen, dass die verifizierte Kandidatenmarkierung 215 nicht identifiziert werden kann, die Verfügbarkeit des Zielteilbereichs 210 auf Grundlage der Validierungsnachricht bestimmen. In dem Fall, dass die Validierungsnachricht angibt, dass der Zielteilbereich 210 zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 gültig ist, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 verfügbar ist. In dem Fall, dass die Validierungsnachricht angibt, dass der Zielteilbereich 210 zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 ungültig ist, bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 nicht verfügbar ist. Der Prozess 600 geht zu einem Block 640 über.
  • Bei dem Block 635 bestimmt der Remote-Computer 140, dass der Zielteilbereich 210 für das Fahrzeug 105 verfügbar ist. Beispielsweise bestimmt der Remote-Computer 140 auf Grundlage von Bestimmen bei Block 610, dass die Kandidatenmarkierung 215 nicht verifiziert ist, dass der Zielteilbereich 210 für das Fahrzeug 105 verfügbar ist. Als ein weiteres Beispiel bestimmt der Remote-Computer 140 auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung 145, dass der Zielteilbereich 210 z. B. zu dem gegenwärtigen Zeitpunkt für das Fahrzeug 105 verfügbar ist. Der Prozess 600 geht zu einem Block 640 über.
  • Bei dem Block 640 überträgt der Remote-Computer 140 eine Nachricht, welche die Verfügbarkeit des Zielteilbereichs 210 angibt, z. B. über das Netzwerk 135 an den Fahrzeugcomputer 110. Des Weiteren kann der Remote-Computer 140 auf Grundlage von Crowdsourcing-Daten, die angeben, dass der Zielteilbereich 210 nicht verfügbar ist, z. B. auf Grundlage von Fahrzeugdaten einer Vielzahl von Fahrzeugen und/oder eines Zeitpunktes, zu dem entsprechende Fahrzeugcomputer den Zielteilbereich 210 auswählen (wie vorangehend erörtert), eine Karte aktualisieren, die z. B. auf einem zweiten Speicher des Remote-Computers 140 gespeichert ist, um auf Grundlage der Fahrzeugdaten und/oder eines Zeitpunktes anzugeben, dass der Zielteilbereich 210 nicht verfügbar ist. Der Remote-Computer 140 kann dann die Karte z. B. über das Netzwerk 135 an eine Vielzahl von Fahrzeugen übertragen. Im Anschluss an den Block 640 endet der Prozess 600.
  • Im in dieser Schrift verwendeten Sinne bedeutet der Ausdruck „im Wesentlichen“, dass eine Form, eine Struktur, ein Messwert, eine Menge, eine Zeit usw. aufgrund von Mängeln bei Materialien, Bearbeitung, Herstellung, Datenübertragung, Berechnungszeit usw. von einem/einer genauen beschriebenen Geometrie, Entfernung, Messwert, Menge, Zeit usw. abweichen kann.
  • Im Allgemeinen können die beschriebenen Rechensysteme und/oder -vorrichtungen ein beliebiges aus einer Reihe von Computerbetriebssystemen einsetzen, einschließlich unter anderem Versionen und/oder Varianten der Anwendung Ford Sync®, der Middleware AppLink/Smart Device Link, des Betriebssystems Microsoft Automotive®, des Betriebssystems Microsoft Windows®, des Betriebssystems Unix (z. B. des Betriebssystems Solaris®, vertrieben durch die Oracle Corporation in Redwood Shores, Kalifornien), des Betriebssystems AIX UNIX, vertrieben durch International Business Machines in Armonk, New York, des Betriebssystems Linux, der Betriebssysteme Mac OSX und iOS, vertrieben durch die Apple Inc. in Cupertino, Kalifornien, des BlackBerry OS, vertrieben durch die Blackberry, Ltd. in Waterloo, Kanada, und des Betriebssystems Android, entwickelt durch die Google, Inc. und die Open Handset Alliance, oder QNX® CAR Platform for Infotainment, angeboten durch QNX Software Systems. Beispiele für Rechenvorrichtungen schliel en unter anderem Folgendes ein: einen ersten Bordcomputer, einen Computerarbeitsplatz, einen Server, einen Desktop-, Notebook-, Laptop- oder Handheld-Computer oder ein anderes Rechensystem und/oder eine andere Rechenvorrichtung.
  • Computer und Rechenvorrichtungen beinhalten im Allgemeinen computerausführbare Anweisungen, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen ausgeführt werden können, wie etwa durch die vorangehend aufgeführten. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder ausgewertet werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -technologien erstellt werden, einschließlich unter anderem und entweder für sich oder in Kombination Java™, C, C++, Matlab, Simulink, Stateflow, Visual Basic, Java Script, Perl, HTML usw. Einige dieser Anwendungen können auf einer virtuellen Maschine zusammengestellt und ausgeführt werden, wie etwa der Java Virtual Machine, der Dalvik Virtual Machine oder dergleichen. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der in dieser Schrift beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung einer Vielfalt an computerlesbaren Medien gespeichert und übermitteln werden. Eine Datei in einer Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein Speicher kann ein computerlesbares Medium (auch als prozessorlesbares Medium bezeichnet) beinhalten, das ein beliebiges nicht transitorisches (z. B. materielles) Medium einschliel t, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer (z. B. durch einen Prozessor eines Computers) ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, die unter anderem nicht flüchtige Medien und flüchtige Medien einschliel en. Zu nicht flüchtigen Medien können zum Beispiel Bild- und Magnetplatten und sonstige dauerhafte Speicher gehören. Flüchtige Medien können zum Beispiel einen dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM) einschliel en, der üblicherweise einen Hauptspeicher darstellt. Derartige Anweisungen können durch ein Übertragungsmedium oder mehrere Übertragungsmedien übertragen werden, darunter Koaxialkabel, Kupferdraht und Glasfaser, einschließlich der Drähte, die einen an einen Prozessor einer ECU gekoppelten Systembus umfassen. Übliche Formen computerlesbarer Medien schliel en zum Beispiel Folgendes ein: eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das durch einen Computer ausgelesen werden kann.
  • Datenbanken, Datendepots oder andere Datenspeicher, die in dieser Schrift beschrieben sind, können verschiedene Arten von Mechanismen zum Speichern von, Zugreifen auf und Abrufen von verschiedenen Arten von Daten beinhalten, einschließlich einer hierarchischen Datenbank, eines Satzes von Dateien in einem Dateisystem, einer Anwendungsdatenbank in einem anwendereigenen Format, eines relationalen Datenbankverwaltungssystems (relational database management system - RDBMS) usw. Jeder derartige Datenspeicher ist im Allgemeinen in einer Rechenvorrichtung eingeschlossen, die ein Computerbetriebssystem einsetzt, wie etwa eines der vorangehend erwähnten, und es wird auf eine oder mehrere von vielfältigen Weisen über ein Netz darauf zugegriffen. Auf ein Dateisystem kann von einem Computerbetriebssystem zugegriffen werden und es kann in verschiedenen Formaten gespeicherte Dateien beinhalten. Ein RDBMS setzt im Allgemeinen die Structured Query Language (SQL) zusätzlich zu einer Sprache zum Erzeugen, Speichern, Editieren und Ausführen gespeicherter Prozeduren ein, wie etwa die vorangehend erwähnte PL/SQL-Sprache.
  • In einigen Beispielen können Systemelemente als computerlesbare Anweisungen (z. B. Software) auf einer oder mehreren Rechenvorrichtungen (z. B. Servern, PCs usw.) umgesetzt sein, die auf computerlesbaren Medien gespeichert sind (z. B. Platten, Speicher usw.), die den Rechenvorrichtungen zugeordnet sind. Ein Computerprogrammprodukt kann derartige auf computerlesbaren Medien gespeicherte Anweisungen zum Ausführen der in dieser Schrift beschriebenen Funktionen umfassen.
  • Hinsichtlich der in dieser Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren, Heuristiken usw. versteht es sich, dass, auch wenn die Schritte derartiger Prozesse usw. als gemäl einer bestimmten Reihenfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch so umgesetzt werden können, dass die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, die von der in dieser Schrift beschriebenen Reihenfolge verschieden ist. Es versteht sich ferner, dass gewisse Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder gewisse in dieser Schrift beschriebene Schritte weggelassen werden können. Anders ausgedrückt, dienen die Beschreibungen von Prozessen in dieser Schrift dem Zwecke der Veranschaulichung gewisser Ausführungsformen und sollten keinesfalls dahingehend ausgelegt werden, dass sie die Patentansprüche einschränken.
  • Dementsprechend versteht es sich, dass die vorangehende Beschreibung veranschaulichend und nicht einschränkend sein soll. Die Adjektive „erster“ und „zweiter“ werden in der gesamten Schrift als Identifikatoren verwendet und sollen keine Bedeutung oder Reihenfolge andeuten. Viele Ausführungsformen und Anwendungen, nach denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorangehenden Beschreibung ersichtlich. Der Umfang der Erfindung sollte nicht unter Bezugnahme auf die vorangehende Beschreibung festgelegt werden, sondern stattdessen unter Bezugnahme auf die beigefügten Ansprüche in Zusammenhang mit dem vollständigen Umfang von Äquivalenten, zu denen solche Ansprüche berechtigen. Es ist davon auszugehen und beabsichtigt, dass es zukünftige Entwicklungen im in dieser Schrift erörterten Stand der Technik geben wird und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass die Erfindung modifiziert und variiert werden kann und lediglich durch die folgenden Patentansprüche eingeschränkt ist.
  • Alle in den Patentansprüchen verwendeten Ausdrücke sollen ihre klare und gewöhnliche Bedeutung aufweisen, wie sie von einem Fachmann verstanden wird, sofern in dieser Schrift nicht ausdrücklich das Gegenteil angegeben wird. Insbesondere ist die Verwendung der Singularartikel, wie etwa „ein“, „eine“, „der“, „die“, „das“ usw., dahingehend auszulegen, dass ein oder mehrere der aufgeführten Elemente genannt werden, sofern ein Anspruch nicht eine ausdrückliche gegenteilige Einschränkung enthält.
  • Gemäl der vorliegenden Erfindung ist ein System bereitgestellt, das einen Computer aufweist, der einen Prozessor und einen Speicher beinhaltet, wobei auf dem Speicher Anweisungen gespeichert sind, die durch den Prozessor zu Folgendem ausgeführt werden können: Erhalten von Bilddaten zu einem Bereich, der eine Vielzahl von Teilbereichen beinhaltet; Auswählen von einem der Teilbereiche als einen Zielteilbereich auf Grundlage davon, dass der Zielteilbereich nicht belegt ist; dann, nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich, Bereitstellen der Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer; Betreiben eines Fahrzeugs bis zu einem Stillstand in dem Zielteilbereich; und dann, nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, entweder (a) Halten des Fahrzeugs in dem Zielteilbereich oder (b) Betreiben des Fahrzeugs aus dem Zielteilbereich heraus auf Grundlage der Nachricht.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bereitstellen von Standortdaten des Zielteilbereichs an dem Remote-Computer.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um nach Betreiben des Fahrzeugs bis zu dem Stillstand, zweite Bilddaten, welche die Kandidatenmarkierung beinhalten, an dem Remote-Computer bereitzustellen, wobei die Nachricht die Verfügbarkeit des Zielteilbereichs ferner auf Grundlage der zweiten Bilddaten angibt.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Aktualisieren der Verfügbarkeit des Zielteilbereichs auf einer Karte auf Grundlage der Nachricht von dem Remote-Computer, die angibt, dass der Zielteilbereich nicht verfügbar ist.
  • Gemäl einer Ausführungsform beinhaltet der Remote-Computer einen zweiten Prozessor und einen zweiten Speicher, wobei auf dem zweiten Speicher Anweisungen gespeichert sind, die durch den zweiten Prozessor zu Folgendem ausgeführt werden können: Bestimmen einer Verifizierung der Kandidatenmarkierung durch Bestimmen, dass die Bilddaten (a) eine verifizierte Markierung beinhalten oder (b) keine verifizierte Markierung beinhalten; zumindest eines von Identifizieren der Kandidatenmarkierung oder Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist; und dann Bestimmen der Verfügbarkeit auf Grundlage von einem von der Kandidatenmarkierung oder einer Validierungsnachricht von einer Benutzervorrichtung.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen, um nach Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, die Bilddaten, welche die Kandidatenmarkierung beinhalten, an der Benutzervorrichtung bereitzustellen.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Zuschneiden der Bilddaten auf Grundlage der Markierung und einer Anzeige der Benutzervorrichtung.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen, dass der Teilbereich verfügbar ist, auf Grundlage von Bestimmen, dass die Kandidatenmarkierung nicht verifiziert ist.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bereitstellen von Standortdaten des Teilbereichs an der Rechenvorrichtung.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen, dass der Zielteilbereich verfügbar ist, auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Eingeben von Bilddaten, welche die Kandidatenmarkierung angeben, in ein maschinelles Lernprogramm und Erhalten der Verifizierung der Kandidatenmarkierung als Ausgabe von dem maschinelles Lernprogramm.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Erhalten einer Identifizierung der Kandidatenmarkierung und einer Konfidenzschätzung als Ausgabe von dem maschinelles Lernprogramm.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, auf Grundlage davon, dass die Konfidenzschätzung unter einem Schwellenwert liegt.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Trainieren des maschinellen Lernprogramms auf Grundlage von Nachrichten von einer Vielzahl von Benutzervorrichtungen, die angeben, dass der Zielteilbereich innerhalb einer vorbestimmten Zeit nicht verfügbar ist.
  • Gemäl einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Aktualisieren der Verfügbarkeit des Teilbereichs auf einer Karte auf Grundlage von Crowdsourcing-Daten, die Nachrichten von einer Vielzahl von Benutzervorrichtungen beinhalten, die angeben, dass der Zielteilbereich nicht verfügbar ist.
  • Gemäl der vorliegenden Erfindung beinhaltet ein Verfahren Erhalten von Bilddaten zu einem Bereich, der eine Vielzahl von Teilbereichen beinhaltet; Auswählen von einem der Teilbereiche als einen Zielteilbereich auf Grundlage davon, dass der Zielteilbereich nicht belegt ist; dann, nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich, Bereitstellen der Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer; Betreiben eines Fahrzeugs bis zu einem Stillstand in dem Zielteilbereich; und dann, nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, entweder (a) Halten des Fahrzeugs in dem Zielteilbereich oder (b) Betreiben des Fahrzeugs aus dem Zielteilbereich heraus auf Grundlage der Nachricht.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Bereitstellen von Standortdaten des Zielteilbereichs an dem Remote-Computer.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Folgendes: Bestimmen einer Verifizierung der Kandidatenmarkierung durch Bestimmen, dass die Bilddaten (a) eine verifizierte Markierung beinhalten oder (b) keine verifizierte Markierung beinhalten; zumindest eines von Identifizieren der Kandidatenmarkierung oder Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist; und dann Bestimmen der Verfügbarkeit auf Grundlage von einem von der Kandidatenmarkierung oder einer Validierungsnachricht von einer Benutzervorrichtung.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Bestimmen, dass der Teilbereich verfügbar ist, auf Grundlage von Bestimmen, dass die Kandidatenmarkierung nicht verifiziert ist.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren Bestimmen, dass der Zielteilbereich verfügbar ist, auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung.

Claims (15)

  1. Verfahren, umfassend: Erhalten von Bilddaten zu einem Bereich, der eine Vielzahl von Teilbereichen beinhaltet; Auswählen von einem der Teilbereiche als einen Zielteilbereich auf Grundlage davon, dass der Zielteilbereich nicht belegt ist; dann, nach Erfassen einer Kandidatenmarkierung für den Zielteilbereich, Bereitstellen der Bilddaten, welche die Kandidatenmarkierung beinhalten, an einem Remote-Computer; Betreiben eines Fahrzeugs bis zu einem Stillstand in dem Zielteilbereich; und dann, nach Empfangen einer Nachricht von dem Remote-Computer, die eine Verfügbarkeit des Zielteilbereichs auf Grundlage von zumindest den Bilddaten angibt, entweder (a) Halten des Fahrzeugs in dem Zielteilbereich oder (b) Betreiben des Fahrzeugs aus dem Zielteilbereich heraus auf Grundlage der Nachricht.
  2. Verfahren nach Anspruch 1, ferner umfassend Bereitstellen von Standortdaten des Zielteilbereichs an dem Remote-Computer.
  3. Verfahren nach Anspruch 1, ferner umfassend, nach Betreiben des Fahrzeugs bis zu dem Stillstand, Bereitstellen von zweiten Bilddaten, welche die Kandidatenmarkierung beinhalten, an dem Remote-Computer, wobei die Nachricht die Verfügbarkeit des Zielteilbereichs ferner auf Grundlage der zweiten Bilddaten angibt.
  4. Verfahren nach Anspruch 1, ferner umfassend Aktualisieren der Verfügbarkeit des Zielteilbereichs auf einer Karte auf Grundlage der Nachricht von dem Remote-Computer, die angibt, dass der Zielteilbereich nicht verfügbar ist.
  5. Verfahren nach Anspruch 1, ferner umfassend: Bestimmen einer Verifizierung der Kandidatenmarkierung durch Bestimmen, dass die Bilddaten (a) eine verifizierte Markierung beinhalten oder (b) keine verifizierte Markierung beinhalten; zumindest eines von Identifizieren der Kandidatenmarkierung oder Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist; und dann Bestimmen der Verfügbarkeit auf Grundlage von einem von der Kandidatenmarkierung oder einer Validierungsnachricht von einer Benutzervorrichtung.
  6. Verfahren nach Anspruch 5, ferner umfassend, nach Bestimmen, dass die Kandidatenmarkierung nicht identifiziert ist, Bereitstellen der Bilddaten, welche die Kandidatenmarkierung beinhalten, an der Benutzervorrichtung.
  7. Verfahren nach Anspruch 5, ferner umfassend Bestimmen, dass der Teilbereich verfügbar ist, auf Grundlage von Bestimmen, dass die Kandidatenmarkierung nicht verifiziert ist.
  8. Verfahren nach Anspruch 5, ferner umfassend Bereitstellen von Standortdaten des Teilbereichs an der Benutzervorrichtung.
  9. Verfahren nach Anspruch 5, ferner umfassend Bestimmen, dass der Zielteilbereich verfügbar ist, auf Grundlage eines Verstreichens einer vorbestimmten Zeit ohne Empfangen der Validierungsnachricht von der Benutzervorrichtung.
  10. Verfahren nach Anspruch 5, ferner umfassend Eingeben von Bilddaten, welche die Kandidatenmarkierung angeben, in ein maschinelles Lernprogramm und Erhalten der Verifizierung der Kandidatenmarkierung als Ausgabe von dem maschinelles Lernprogramm.
  11. Verfahren nach Anspruch 10, ferner umfassend Trainieren des maschinellen Lernprogramm auf Grundlage von Nachrichten von einer Vielzahl von Benutzervorrichtungen, die angeben, dass der Zielteilbereich innerhalb einer vorbestimmten Zeit nicht verfügbar ist.
  12. Verfahren nach Anspruch 5, ferner umfassend Aktualisieren der Verfügbarkeit des Teilbereichs auf einer Karte auf Grundlage von Crowdsourcing-Daten, die Nachrichten von einer Vielzahl von Benutzervorrichtungen beinhalten, die angeben, dass der Zielteilbereich nicht verfügbar ist.
  13. Fahrzeug, das einen Computer umfasst, der programmiert ist, um das Verfahren nach einem der Ansprüche 1-12 auszuführen.
  14. Computer, der programmiert ist, um das Verfahren nach einem der Ansprüche 1-12 auszuführen.
  15. Computerprogrammprodukt, das Anweisungen zum Ausführen des Verfahrens nach einem der Ansprüche 1-12 umfasst.
DE102021104184.8A 2020-02-25 2021-02-22 Fahrzeugsteuersystem Pending DE102021104184A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/800,259 2020-02-25
US16/800,259 US11164457B2 (en) 2020-02-25 2020-02-25 Vehicle control system

Publications (1)

Publication Number Publication Date
DE102021104184A1 true DE102021104184A1 (de) 2021-08-26

Family

ID=77176291

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021104184.8A Pending DE102021104184A1 (de) 2020-02-25 2021-02-22 Fahrzeugsteuersystem

Country Status (3)

Country Link
US (1) US11164457B2 (de)
CN (1) CN113370969A (de)
DE (1) DE102021104184A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021124838A1 (de) 2021-09-27 2023-03-30 Audi Aktiengesellschaft Ladestationsinformationssystem und Verfahren zum dynamischen Bereitstellen von Informationen über Ladestationen

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230031425A1 (en) * 2021-08-02 2023-02-02 DUS Operating Inc, Methodology to estimate slot line direction for parking slot detection

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7271738B2 (en) * 2005-04-12 2007-09-18 International Business Machines Corporation Restricted parking system
US7893847B2 (en) * 2008-07-09 2011-02-22 Yahoo! Inc. Real time detection of parking space availability
US8816879B2 (en) * 2012-09-21 2014-08-26 Palo Alto Research Center Incorporated Computer-implemented system and method for managing interchangeable parking spaces
US9761139B2 (en) * 2012-12-20 2017-09-12 Wal-Mart Stores, Inc. Location based parking management system
US9666075B2 (en) * 2013-11-18 2017-05-30 ImageMaker Development Inc. Automated parking space management system with dynamically updatable display device
US20160180712A1 (en) * 2015-08-27 2016-06-23 Sparkcity.Com Ltd. Citywide parking reservation system and method
US9418553B2 (en) * 2014-10-02 2016-08-16 Omid B. Nakhjavani Easy parking finder
US10395535B2 (en) * 2014-12-02 2019-08-27 Operr Technologies, Inc. Method and system for legal parking
US9601018B2 (en) * 2015-03-12 2017-03-21 International Business Machines Corporation Distributed parking space detection, characterization, advertisement, and enforcement
US9557741B1 (en) * 2015-08-24 2017-01-31 Ford Global Technologies, Llc System and method for autonomous valet parking using plenoptic cameras
EP3144207A1 (de) 2015-09-15 2017-03-22 Panasonic Automotive Systems Europe GmbH Automatisches parksystem für ein fahrzeug
KR101850795B1 (ko) * 2015-11-09 2018-04-20 엘지전자 주식회사 주차 수행 장치 및 차량
US20170267233A1 (en) * 2016-03-15 2017-09-21 Cruise Automation, Inc. Method for autonomous vehicle parking
KR101832466B1 (ko) * 2016-06-14 2018-04-13 엘지전자 주식회사 자동주차 보조장치 및 이를 포함하는 차량
KR101973624B1 (ko) * 2016-12-13 2019-04-29 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US20180215374A1 (en) * 2017-01-27 2018-08-02 Ford Global Technologies, Llc Self-parking vehicle
US10423162B2 (en) * 2017-05-08 2019-09-24 Nio Usa, Inc. Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking
US20190371175A1 (en) * 2018-06-04 2019-12-05 Valeo Schalter Und Sensoren Gmbh Server, method, and computer-readable storage medium for automated parking
US20200307554A1 (en) * 2019-03-26 2020-10-01 Denso International America, Inc. Systems and methods for parking a vehicle
US11085791B2 (en) * 2019-05-07 2021-08-10 Here Global B.V. Method, apparatus, and computer program product for on-street parking localization
US20210182580A1 (en) * 2019-12-12 2021-06-17 Denso International America, Inc. System and method for validation of a parking spot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021124838A1 (de) 2021-09-27 2023-03-30 Audi Aktiengesellschaft Ladestationsinformationssystem und Verfahren zum dynamischen Bereitstellen von Informationen über Ladestationen

Also Published As

Publication number Publication date
US11164457B2 (en) 2021-11-02
CN113370969A (zh) 2021-09-10
US20210264785A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
DE102018121595B4 (de) Unbeaufsichtigtes anlernen von agenten für autonome fahranwendungen
DE102019115038A1 (de) Systeme und verfahren zur vorhersage von sensorinformationen
DE102020122357A1 (de) Fahrerbewusstseinserfassungssystem
DE102020130674A1 (de) Fahrzeugposenerfassung mit bezugsmarker
DE112016007456T5 (de) Drohnenbasierte fahrzeugbeleuchtung
DE102021108470A1 (de) Realistische bildperspektiventransformation unter verwendung neuronaler netze
DE102021125166A1 (de) Bestimmung von seitenwindrisiken
DE102021104044A1 (de) Neuronales netzwerk zur positionsbestimmung und objektdetektion
DE102020120085A1 (de) Erfassung von fahrzeugbedrohungen und reaktion darauf
DE102021104184A1 (de) Fahrzeugsteuersystem
DE102021111144A1 (de) Spurenbasierte fahrzeugsteuerung
DE102021104176A1 (de) Detektion von federungskomponentenschäden mit markierung
DE102020128978A1 (de) Trainieren von tiefen neuronalen netzwerken mit synthetischen bildern
DE102022100549A1 (de) Mit einem rang versehene fehlerzustände
DE102021112616A1 (de) Selbstüberwachte schätzung einer beobachteten fahrzeugpose
DE102022123187A1 (de) Adaptives Reduzieren von neuronalen Netzsystemen
DE102021122407A1 (de) Segmentierung und klassifizierung von punktwolkendaten
DE102021104323A1 (de) Vorfahrtsgewährungentscheidung eines fahrzeugs
DE102019114626A1 (de) System und Verfahren zur Hardware-Überprüfung in einem Kraftfahrzeug
DE102020122086A1 (de) Messen von vertrauen in tiefen neuronalen netzwerken
DE102018110811A1 (de) System und verfahren zur kollisionsminderung und -vermeidung in autonomen fahrzeugen
DE102020130519A1 (de) Fahrzeugbetriebsparameter
DE102023101951A1 (de) Fahrzeugsteuerung für optimierten betrieb
DE102022111718A1 (de) Verbesserter fahrzeugbetrieb
DE102021104763A1 (de) Fahrzeugsteuersystem

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE