DE102020107108A1 - Verfahren und System zum autonomen Fahren eines Fahrzeugs - Google Patents

Verfahren und System zum autonomen Fahren eines Fahrzeugs Download PDF

Info

Publication number
DE102020107108A1
DE102020107108A1 DE102020107108.6A DE102020107108A DE102020107108A1 DE 102020107108 A1 DE102020107108 A1 DE 102020107108A1 DE 102020107108 A DE102020107108 A DE 102020107108A DE 102020107108 A1 DE102020107108 A1 DE 102020107108A1
Authority
DE
Germany
Prior art keywords
vehicle
processing device
trajectory
until
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020107108.6A
Other languages
English (en)
Inventor
Stefan Jenzowsky
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KOPERNIKUS AUTOMOTIVE GMBH, DE
Original Assignee
Kopernikus Automotive GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=74858191&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102020107108(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority to DE102020107108.6A priority Critical patent/DE102020107108A1/de
Application filed by Kopernikus Automotive GmbH filed Critical Kopernikus Automotive GmbH
Priority to EP21160267.7A priority patent/EP3882733B1/de
Priority to DK21160267.7T priority patent/DK3882733T3/da
Priority to PL21160267.7T priority patent/PL3882733T3/pl
Priority to ES21160267T priority patent/ES2932553T3/es
Priority to CA3112095A priority patent/CA3112095A1/en
Priority to CN202110275742.5A priority patent/CN113401116A/zh
Priority to US17/201,412 priority patent/US20210284193A1/en
Priority to JP2021041624A priority patent/JP2021149968A/ja
Publication of DE102020107108A1 publication Critical patent/DE102020107108A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • G05D1/0291Fleet control
    • G05D1/0297Fleet control by controlling means in a control room
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Transportation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Harvester Elements (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum ferngesteuerten autonomen Fahren eines Fahrzeugs (201) mit den folgenden Verfahrensschritten:Erfassen des Fahrzeugs (201) mit Hilfe von wenigstens einem in einer Umgebung des Fahrzeugs (201) angeordneten Sensor, insbesondere Kamera,Ermitteln einer Bewegungsbahn für das Fahrzeug (201) mittels einer fahrzeugexternen Verarbeitungseinrichtung (501),Übermitteln der Bewegungsbahn und/oder von Steuerbefehlen betreffend die Bewegungsbahn an das Fahrzeug (201), undUmsetzen der Bewegungsbahn und/oder der Steuerbefehle im Fahrzeug (201), um das Fahrzeug (201) gemäß der Bewegungsbahn zu bewegen.

Description

  • Einige Ausführungen beziehen sich auf ein Verfahren und System zur Steuerung eines autonomen Fahrzeugs (z.B. eines serienmäßigen PKW) in Automatic Valet Parking-Anwendungen, deren Fahrtkontrolle und Fahrplanung durch ein externes Kontrollsystem mittels einer Künstlichen Intelligenz vorgenommen wird, die das Fahrzeug über externe Sensoren, insbesondere Kamerasensoren, überwacht und kontrolliert.
  • Stand der Technik
  • Der Vorgang des Parkens eines Fahrzeugs wird heute durch verschiedene Assistenzsysteme unterstützt, z.B. durch Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einem Parkvorgang (siehe u.a. die Offenlegungsschriften DE102008027692A1 , DE102012008858A1 , WO2011154242A1 ). Weiterhin wird die Parkplatzerkennung z.B. durch Laserscanner ermöglicht (siehe u.a. die Offenlegungsschrift DE102016120433A1 ).
  • Weltweit wurden Verfahren entwickelt, die u.a. zur vollständigen selbständigen Steuerung eines Fahrzeugs geeignet sind (siehe u.a. die Offenlegungsschriften DE102005029336A1 und DE102013003683A1 sowie US9701305B2 ). Diese Verfahren benötigen jedoch in der Regel eine große Zahl an Sensoren am oder im Fahrzeug selbst (z.B. Laserscanner oder Radarscanner oder Kameras) - sowie häufig eine große Rechenkapazität am oder im Fahrzeug selbst.
  • Automobile werden heute unter großem Kostendruck konzipiert und gefertigt, so dass im heutigen Serienautomobilen eine derartig große Menge an Rechenleistung und/oder Sensoren nicht zur Verfügung steht, was die Anwendbarkeit der vorgenannten Verfahren häufig nicht möglich macht. Daher kommt dem Automatic Valet Parking auf Basis externer Sensoren und externer Datenverarbeitungsanlagen besondere Bedeutung zu.
  • DE 10 2009 051 463 B4 offenbart ein Kraftfahrzeug, eine externe Steuervorrichtung sowie ein Verfahren zum Durchführen eines Ausparkvorgangs eines Kraftfahrzeugs.
  • Automatic Valet Parking
  • Bei einem vollautomatisierten (autonomen) sogenannten Valet Parking wird ein Fahrzeug (z.B. ein Automobil, ein LKW, ein Bus, ein Gabelstapler) von seinem Fahrer auf einer Abgabestelle (zum Beispiel vor einem Parkhaus) geparkt und von dort fährt das Fahrzeug in eine Parkposition und/oder kehrt auf Anforderung wieder zur Abgabestelle zurück. Mehrere Offenlegungsschriften (u.a. DE 102012222562A1 sowie WO2016128203A1 ) zeigen solche Systeme zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition.
  • Solche Systeme umfassen eine außerhalb des Fahrzeugs angeordnete zentrale Recheneinheit zur Berechnung einer Trajektorie, die im Rahmen dieser Anmeldung auch als Bewegungsbahn bezeichnet wird, entlang derer sich das Fahrzeug mit einer Fahrzeuggeschwindigkeit autonom von der Startposition in die Zielposition bewegt und eine Übertragungseinrichtung zur Übertragung der Trajektorie an das Fahrzeug. Durch die fahrzeugexterne Recheneinheit wird das Fahrzeug ferngesteuert gefahren. Diese Systeme können ausschließlich oder teilweise auf fahrzeugexternen Sensoren basieren und auf einer fahrzeugexternen Recheneinheit eine Trajektorie berechnen, die dann mittels eines Übertragungsmediums (z.B. W-LAN oder Mobilfunk) an das Fahrzeug übertragen wird.
  • Defizite von Automatic Valet Parking Verfahren
  • Solche Automatic Valet Parking-Lösungen weisen aber auch erhebliche Defizite auf, die ihrer Verbreitung entgegenwirken oder eine Verbreitung verhindern:
    • Die Anbringung und Nutzung von Umfeldsensoren für Automatic Valet Parking-Verfahren hat hohe Kosten zur Folge. Denn in den bisher bekannten Ausführungen müssen neuartige und teure Sensoren (z.B. Laserscanner) außerhalb des Fahrzeugs im gesamten Parkbereich verbaut werden.
  • Die Umfeldsensorik für bekannte Automatic Valet Parking Verfahren umfassen in den bisher bekannten Ausführungen mehrere Umfeldsensoren, mit denen ein Parkplatz ausgestattet werden muss. Solche bekannten Umfeldsensoren sind: Lidarsensoren, Ultraschallsensoren, Lasersensoren, und/oder Radarsensoren.
  • Diese Sensoren müssen angeschafft, montiert, kalibriert, gewartet und regelmäßig funktionsgeprüft werden, um ein sicheres automatisiertes Parken zu ermöglichen.
  • Offenbarung der Erfindung
  • Die der Erfindung zugrundeliegende Aufgabe ist ein sicheres und effizientes autonomes Fahren eines Kraftfahrzeugs in einer vorgebbaren Umgebung, wie beispielsweise einem Parkplatz, Parkhaus, einer Industrieanlage, oder ähnlichen Arealen anzugeben. Insbesondere soll ein effizientes Verfahren und System zum Errichten und Betreiben von Automatic Valet Parking Verfahren bereitgestellt werden, welches die bekannten Nachteile überwindet. Diese Aufgabe wird mittels des jeweiligen Gegenstands der unabhängigen Ansprüche gelöst.
  • Gelöst wird diese Aufgabe durch ein Verfahren zum ferngesteuerten autonomen Fahren eines Fahrzeugs mit den folgenden Verfahrensschritten:
    • - Erfassen des Fahrzeugs mit Hilfe von wenigstens einem in einer Umgebung des Fahrzeugs angeordneten Sensor, insbesondere Kamera,
    • - Ermitteln einer Bewegungsbahn für das Fahrzeug mittels einer fahrzeugexternen Verarbeitungseinrichtung,
    • - Übermitteln der Bewegungsbahn und/oder von Steuerbefehlen betreffend die Bewegungsbahn an das Fahrzeug, und
    • - Umsetzen der Bewegungsbahn und/oder der Steuerbefehle im Fahrzeug, um das Fahrzeug gemäß der Bewegungsbahn zu bewegen.
  • Vorzugsweise erfolgt zum Erfassen des Fahrzeugs eine eindeutige Identifikation, wobei das Fahrzeug Lichtsignale abgibt, die durch den wenigstens einen Sensor erfasst werden und in der Verarbeitungseinrichtung verarbeitet werden. Die Lichtsignale können hierbei codiert sein und bspw. durch variierendes oder periodischen Betätigen des Blinklichts und/oder des Bremslichts und/oder des Abblendlichts erzeugt werden. Jedem Fahrzeug kann von der Verarbeitungseinrichtung ein bestimmtes Lichtsignal zugeordnet werden, so dass eine eineindeutige Zuordnung zu jedem Fahrzeug möglich ist.
  • Vorzugsweise wird eine Pose des Fahrzeugs mittels der wenigstens einen Kamera, insbesondere mehrerer Kameras, durch die Verarbeitungseinrichtung ermittelt, wobei insbesondere eine Projektion der Pose auf eine Umgebungskarte erfolgt.
  • Vorzugsweise werden mittels der wenigstens einen Kamera aufgenommenen Bilder oder Filmsequenzen in der Verarbeitungseinrichtung eine Bilderkennung mittels Bildvergleich und/oder, insbesondere trainierter, neuronaler Netze Objekte, insbesondere andere Fahrzeuge oder Lebewesen, in der Umgebung des Fahrzeugs erkannt, wobei insbesondere die Bewegungsbahn und/oder Steuerbefehle, die an das Fahrzeug übermittelt werden, angepasst werden.
  • Vorzugsweise werden mehrere Kameras verwendet, wobei insbesondere durch Positionieren von Testkörpern, die von wenigstens zwei Kameras erfasst werden, die Kameras, insbesondere automatisch, kalibriert und/oder auf einer Umgebungskarte positioniert werden.
  • Vorzugsweise werden zusätzlich Signale wenigstens eines fahrzeuginternen Sensors verwendet wird, um das Fahrzeug zu steuern.
  • Insbesondere werden die Bewegungsbahn und/oder Steuerbefehle betreffend die Bewegungsbahn periodisch, insbesondere an den Takt des fahrzeuginternen Bussystems angepasst übermittelt.
  • Vorzugsweise wird das Verfahren zur Ermittlung der Bewegungsbahn automatisch durchgeführt.
  • Die Aufgabe wird ferner gelöst durch ein System zum ferngesteuerten autonomen Fahren eines Fahrzeugs, insbesondere in einer vorgebbaren oder vorgegeben Umgebung, umfassend eine Mehrzahl von fahrzeugexternen Kameras, die ausgebildet sind, Kamerabilder oder Videos wenigstens eines Teils der Umgebung zu erfassen, und eine fahrzeugexterne Verarbeitungseinrichtung, die ausgebildet ist, die Kamerabilder oder Videos zu verarbeiten, wobei die Verarbeitungsvorrichtung ferner dazu eingerichtet ist, wenigstens ein Fahrzeug anhand der Kamerabilder oder Videos zu erkennen und eine Bewegungsbahn für das Fahrzeug zu bestimmen, wobei ferner das System eine Übertragungsvorrichtung umfasst, die ausgebildet ist, die Bewegungsbahn und/oder Steuerbefehle betreffend die Bewegungsbahn an das Fahrzeug zu übermitteln.
  • Vorzugsweise ist das System eingerichtet ist, das Fahrzeug von einer Startposition automatisch und/oder autonom zu einer Zielposition zu führen.
  • Vorzugsweise findet eine eindeutige Identifikation eines oder mehrerer Fahrzeuge über eine Abgabe von Lichtsignalen des oder der Fahrzeuge statt.
  • Vorzugsweise ist mittels der Kamerabilder und/oder Videos eine Pose des oder der Fahrzeuge ermittelbar, wobei die Pose insbesondere auf einer Umgebungskarte darstellbar ist.
  • Insbesondere umfasst das System ein Edge Computingsystem, das eingerichtet ist, nur diejenigen Kamerabilder oder Videos, auf denen das oder die Fahrzeuge oder andere Objekte, die für die Bewegungsbahn relevant sind, insbesondere vorverarbeitet, an die Verarbeitungseinrichtung weiterzuleiten oder weiterzugeben.
  • Es ist vorzugsweise vorgesehen, dass das System, insbesondere trainierte oder vortrainierte, neuronale Netze und/oder Methoden des Deep Learning und/oder des Reinforcement Learning, insbesondere im Sinne eines Convolutional Neuronal Network, verwendet und/oder anwendet. Hierzu sei verwiesen auf T. Chen, S. Komblith, M. Norouzi, G. Hinton „A Simple Framework for Contrastive Learning of Visual Representations“, 2020, https.://arxiv.org/pdf/2002.05079.pdf
  • Insbesondere ist eine deterministische Überwachungsvorrichtung vorgesehen, die insbesondere ausgebildet ist, Komponenten des Systems, insbesondere Kameras, die Verarbeitungseinrichtung und/oder das Edge Computingsystem, auf Funktionsfähigkeit zu überprüfen.
  • Nach einem Aspekt wird ein neuartiges Verfahren zum Betreiben eines Fahrzeugs bereitgestellt, wobei das Fahrzeug mittels einer fahrzeugexternen Verarbeitungseinrichtung autonom auf einem Parkplatz von einer Startposition zu einer Zielposition fährt, die auf bereits existierender Sensorik basiert. Nach noch einem Aspekt wird ein Fahrzeug bereitgestellt, welches eingerichtet ist, das Verfahren durchzuführen. Gemäß einem weiteren Aspekt wird ein Computerprogramm bereitgestellt, welches Programmcode und/oder trainierte neuronale Netze zur Durchführung des Verfahrens zum Betreiben eines Fahrzeugs umfasst, wenn das Computerprogramm auf einem Computer ausgeführt wird.
  • Es wird insbesondere der technische Vorteil bewirkt, dass das Fahrzeug autonom in einem Parkhaus oder auf einem Parkplatz parken kann, welches/r nicht mehr kostenintensiv und technisch aufwändig nachgerüstet werden muss. Insbesondere kann das Fahrzeug u.a. durch eine auf bereits existierenden Überwachungskameras basierenden Sensorik sicher bewegt werden.
  • Ein weiterer technischer Vorteil ist, dass das Fahrzeug keine weitere Ausrüstung durch Recheneinheiten oder Sensorik benötigt.
  • Ein Parkplatz im Sinne der vorliegenden Erfindung kann auch als eine Parkfläche bezeichnet werden und dient als Abstellfläche für Fahrzeuge. Der Parkplatz kann nach einer Ausführungsform von einem Parkhaus umfasst sein. Autonom im Sinne der vorliegenden Erfindung bedeutet insbesondere, dass das Fahrzeug ohne einen Eingriff eines Fahrers mittels eines ferngesteuerten Eingriffs auf dem Parkplatz navigiert oder fährt.
  • Ein Fahrzeug im Sinne der vorliegenden Erfindung ist z.B. ein Automobil, ein LKW, ein Bus, ein Gabelstapler, ein People Mover, ein Roboter, ö.ä.. Die vorliegende Erfindung bezieht sich auch auf mehrere Fahrzeuge oder eine Kombination verschiedener Fahrzeuge.
  • Ausführungsformen
    1. 1. In einer Ausführungsform ist vorgesehen, dass das geparkte Fahrzeug mittels der fahrzeugexternen Verarbeitungseinrichtung aus der Parkposition ausparkt, mittels der fahrzeugexternen Verarbeitungseinrichtung von der Parkposition zurück zur Startposition mittels der fahrzeugexternen Verarbeitungseinrichtung oder zu einer weiteren Zielposition autonom fährt und sich dort mittels der fahrzeugexternen Verarbeitungseinrichtung autonom abstellt. Die weitere Zielposition kann eine Servicestation sein, an welcher eine Dienstleistung am Fahrzeug durchgeführt wird. Zum Beispiel kann das Fahrzeug an der Servicestation betankt (auch elektrisch), gewaschen, inspiziert, gewartet oder repariert werden.
    2. 2. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass das Fahrzeug mittels der fahrzeugexterner Kamerasensorik und Verarbeitungseinrichtung eindeutig identifiziert wird. Unter einer kamerasensorik wird im Rahmen dieser Anmeldung auch eine Kamera verstanden.
    3. 3. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass das die Pose (Ort und Fahrtrichtung) des Fahrzeugs mittels der fahrzeugexternen Kamerasensorik und einer externen Verarbeitungseinrichtung zweifelsfrei identifiziert wird.
    4. 4. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass Objekte (z.B. auf der Parkfläche oder im Fahrbereich) mittels der fahrzeugexterner Kamerasensorik und einer externen Verarbeitungseinrichtung erkannt und identifiziert werden, so dass sie z.B. umfahren werden können.
    5. 5. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die fahrzeugexterne Kamerasensorik und Verarbeitungseinrichtung automatisch eingerichtet und kalibriert wird. Dies geschieht durch ein automatisches Verfahren und System und die Ausbringung von Testkörpern auf die zu beobachtende Fläche. Die Kameras werden hierbei beispielsweise durch Bildverarbeitung und Triangulation kalibriert.
    6. 6. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass bestehende fahrzeugexterne Kamerasensorik (z.B. bereits bestehende Überwachungskameras und herkömmliche Umfeldsensorik (wie Lidarsensoren, Ultraschallsensoren, Lasersensoren, oder Radarsensoren) automatisch kombiniert werden.
    7. 7. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass die fahrzeugexterne Verarbeitungseinrichtung selbstlernend ausgeführt wird.
    8. 8. Gemäß einer weiteren Ausführungsform ist vorgesehen, dass fahrzeugexterne Kamerasensorik mit fahrzeuginternen Sensoren (z.B. Raddrehzahlsensoren) automatisch kombiniert werden.
  • Ausführungsbeispiele
  • Weitere Merkmale der Erfindung werden aus der Beschreibung erfindungsgemäßer Ausführungsformen zusammen mit den Ansprüchen und den beigefügten Zeichnungen ersichtlich. Erfindungsgemäße Ausführungsformen können einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllen.
  • Im Rahmen der Erfindung sind Merkmale, die mit „insbesondere“ oder „vorzugsweise“ gekennzeichnet sind, als fakultative Merkmale zu verstehen.
  • Ein Aspekt sieht ein Verfahren und/oder System zum ferngesteuerten autonomen Fahren eines Fahrzeugs gemäß 1 vor.
  • Es ist vorgesehen, dass das geparkte Fahrzeug mittels der fahrzeugexternen Verarbeitungseinrichtung aus der Parkposition ausparkt, mittels der fahrzeugexternen Verarbeitungseinrichtung von der Parkposition zurück zur Startposition oder mittels der fahrzeugexternen Verarbeitungseinrichtung oder zu einer weiteren Zielposition autonom fährt und sich dort mittels der fahrzeugexternen Verarbeitungseinrichtung autonom abstellt. Die weitere Zielposition kann eine Servicestation sein, an welcher eine Dienstleistung am Fahrzeug durchgeführt wird. Zum Beispiel kann das Fahrzeug an der Servicestation betankt (auch elektrisch), gewaschen, inspiziert, gewartet oder repariert werden.
  • Ein weiterer Aspekt ist ein Verfahren und/oder System zur eindeutigen Identifikation des Fahrzeugs mittels fahrzeugexterner Kamerasensorik und Verarbeitungseinrichtung durch Blinkmuster und weitere Lichtzeichen oder eine Abfolge derer.
  • Ein Aspekt ist ein Verfahren und/oder System zur Ermittlung der Pose (Ort und Fahrtrichtung) des Fahrzeugs ausschließlich aus Kamerabi-Idern mittels fahrzeugexterner Kamerasensorik in einer externen Verarbeitungseinrichtung und Projektion dieser Pose des Fahrzeugs auf eine Karte.
  • Ein weiterer Aspekt ist ein Verfahren und/oder System zur Erkennung von Objekten (z.B. auf der Parkfläche oder im Fahrbereich) mittels fahrzeugexterner Kamerasensorik in einer externen Verarbeitungseinrichtung durch Bildvergleich und trainierte neuronale Netze.
  • Ein Aspekt ist ein Verfahren und/oder System zum automatischen Kalibrieren und/oder Positionieren auf einer Karte der fahrzeugexternen Kamerasensorik durch Testkörper, die gleichzeitig von verschiedenen Kamerasensoren oder Kameras erfasst werden.
  • Ein Aspekt ist ein Verfahren und/oder System zum automatischen Kombinieren fahrzeugexterner Kamerasensorik weiterer Umfeldsensorik (wie Lidarsensoren, Ultraschallsensoren, Lasersensoren, oder Radarsensoren).
  • Ein Aspekt ist ein Verfahren und/oder System zur automatischen Kombination von fahrzeugexterner Kamerasensorik mit fahrzeuginternen Sensoren (z.B. Raddrehzahlsensoren).
  • Ein Aspekt ist eine automatisch selbstlernende fahrzeugexterne Verarbeitungseinrichtung durch den Einsatz von Neuronalen Netzen und Methoden des Deep Learning und/oder des Reinforcement Learning im Sinne eines Convolutional Neuronal Network.
  • Ein Aspekt ist ein Verfahren und/oder System zur fahrzeugexternen Berechnung und Steuerung in einem nicht ortsfesten Datenverarbeitungssystem in einer Cloud-Anwendung.
  • Ein Aspekt ist ein Verfahren und/oder System mit Kontrollsystem oder einer deterministischen Überwachungsvorrichtung, welches eingerichtet ist, das Verfahren zur Ermittlung einer Trajektorie automatisch durchzuführen.
  • Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen beschrieben, wobei bezüglich aller im Text nicht näher erläuterten erfindungsgemäßen Einzelheiten ausdrücklich auf die Zeichnungen verwiesen wird. Es zeigen:
    • Ein Ablauf des Verfahrens zum Betreiben eines Fahrzeugs mittels einer fahrzeugexternen Verarbeitungseinrichtung, die als künstliche Intelligenz ausgebildet ist, sieht vor, dass das Fahrzeug ferngesteuert fährt.
  • Es ist vorgesehen, dass das Fahrzeug von einer fahrzeugexternen Verarbeitungseinrichtung empfangene Trajektorien und Fahrbefehle umsetzt und autonom auf einem Parkplatz von einer Startposition zu einer Zielposition fährt.
  • Nach einer Ausführungsform ist die Startposition eine Abgabeposition, an welcher das Fahrzeug von seinem Fahrer abgestellt werden kann, damit das Fahrzeug anschließend einen autonomen Parkvorgang durchführen kann.
  • Nach einer Ausführungsform ist die Zielposition eine Parkposition, an welcher das Fahrzeug einparken wird.
  • Nach einer anderen Ausführungsform ist vorgesehen, dass die Startposition eine Parkposition ist und die Zielposition eine Abholposition, an welcher ein Fahrer sein Fahrzeug nach einem Ende eines autonomen Parkvorgangs abholen kann.
  • Nach einer Ausführungsform sind die Abgabeposition und die Abholposition verschieden. Nach einer weiteren Ausführungsform sind die Abholposition und die Abgabeposition identisch.
  • Nach einer Ausführungsform ist vorgesehen, dass das Fahrzeug mittels einer fahrzeugexternen Verarbeitungseinrichtung von der Startposition zu einer Zielposition und von dort zu einer weiteren Zielposition oder zurück zu der Startposition fährt. Die weitere Zielposition ist insbesondere eine Abholposition.
  • Nach einer Ausführungsform ist vorgesehen, dass das Fahrzeug mittels einer fahrzeugexternen Verarbeitungseinrichtung von der Startposition zu einer Parkposition autonom fährt, dort unterstützungsfrei autonom einparkt, zeitlich später mittels einer fahrzeugexternen Verarbeitungseinrichtung autonom ausparkt und unterstützungsfrei zurück zur Startposition autonom fährt.
  • Nach einer Ausführungsform ist vorgesehen, dass das Fahrzeug basierend auf einer digitalen Karte des Parkplatzes mittels einer fahrzeugexternen Verarbeitungseinrichtung autonom auf dem Parkplatz fährt.
  • In einer Ausführungsform ist vorgesehen, dass ein Fahrzeug eingerichtet ist, empfangene Trajektorien und Fahrbefehle umzusetzen.
  • Nach einer Ausführungsform umfasst das Fahrzeug 201 ein Fahrzeug mit serienmäßiger Ausstattung zur elektrischen Aktuatorik an Lenkung, Antrieb und Bremse (z.B. durch E-Fahrpedal oder Drive-by-Wire Funktionalität, E-Bremse, Abstandstempomat, Einparkassistent o.ä.) sowie einem Empfangsmodul (z.B. W-Lan oder Mobilfunk). Mittels einer fahrzeugexternen Verarbeitungseinrichtung basierend auf den Umfelddaten und der Karte des Parkplatzes wird eine Solltrajektorie, die das Fahrzeug mittels der Steuerungseinrichtung abfahren soll, an das Fahrzeug übermittelt.
  • Nach einer Ausführungsform ist das Fahrzeug 201 in der Lage, die von einer fahrzeugexternen Verarbeitungseinrichtung empfangenen Fahrbefehle und Trajektorien mit den internen Sensoren (z.B. Raddrehwinkelsensor, Raddrehzahlsensor) zu vergleichen und/oder zu fusionieren.
  • 1 zeigt:
    • • ein Fahrzeug 201, welches eingerichtet ist, empfangene Trajektorien und Fahrbefehle umzusetzen.
    • • Überwachungskameras 301, die geeignet sind, einen Videostream (z.B. als RTSP) an das Gesamtsystem zu übermitteln.
    • • Edgesystem 401, welches eingerichtet ist, Computerprogramme (z.B. trainierte neuronale Netze) zur Objekterkennung zu verwenden.
    • • Kontrollsystem, das auch als Verarbeitungseinheit bezeichnet wird, 501, welches eingerichtet ist, das Verfahren zur Ermittlung einer Trajektorie durchzuführen sowie jedem gefahrenen Fahrzeug ein eindeutiges visuelles Muster zuzuordnen.
    • • Network Management-Einheit, die auch als deterministische Überwachungsvorrichtung bezeichnet wird, 601, welche eingerichtet ist, das Gesamtsystem zu überwachen, Fehlerkorrekturen durchzuführen und mit weiteren Systemen (z.B. Parkhaussysteme, Notfallsysteme, Fahrzeugproduktionssysteme) zu kommunizieren sowie Notfallmaßnahmen (wie z.B. Notstop oder eine teilweise oder vollständige Systemabschaltung) durchzuführen.
    • • Kommunikationseinheit 701, 702, 703, 704 welches eingerichtet ist, Trajektorien und Fahrbefehle an das Fahrzeug zu übermitteln.
    • • Anforderungseinheit 801, 802, welches eingerichtet ist, das Fahrzeug 201 anzufordern und/oder das Verfahren zu starten und/oder zu beenden und dies an das Fahrzeug 201 zu übermitteln.
  • Das Edge-System 401 bzw. die Edge Nodes erkennen, vorzugsweise mit Unterstützung der Verarbeitungseinrichtung 501, ob ein Fahrzeug 201 im Blickfeld einer Kamera 301 oder mehrerer Kameras 301 ist. Mittels des Edge-Systems 401 werden somit Daten der Kameras 301 ausgewählt und an die Verarbeitungseinheit 501 weitergeleitet, die das Fahrzeug 201 im Blick haben. Zudem kann das Edge-System 401 dazu dienen, andere Gegenstände oder Lebewesen, die neu in das Blickfeld einer Kamera 301 gelangen, zu erkennen und diese Information an die Verarbeitungseinrichtung 501 weiterzugeben. Das Edge-System 401 kann als künstliche Intelligenz trainiert sein auf verschiedene Objektarten, wodurch unterschiedliche Reaktionen erzielt werden können. Wird beispielsweise ein Kind in der Nähe des autonom fahrenden Fahrzeugs (201) gesichtet, kann ein Notstopp des Fahrzeugs 201 eingeleitet werden. Sollte ein nicht lebendes Objekt entdeckt werden, kann vorgesehen sein, die Geschwindigkeit zu drosseln oder das Fahrzeug in eine andere Richtung zu lenken oder eine andere Trajektorie bzw. Bewegungsbahn zu fahren. Die entsprechenden Bewegungsbahnen bzw. Trajektorien werden über die Kommunikationseinheiten, hier ausgebildet als Wifi-Sender und/oder Empfänger (WLAN) 701, 702 oder 703 an das Fahrzeug 201 über die Kommunikationseinheit 704 drahtlos gesendet. Das Fahrzeug 201 kann selbst über WLAN drahtlos Sensorsignale dem erfindungsgemäßen System bzw. Verarbeitungseinrichtung 501 oder der Überwachungsvorrichtung 601 zukommen lassen. Hierdurch kann überprüft werden, ob das Fahrzeug 201 tatsächlich die Steuerbefehle ausführt und die Bewegungsbahn bzw. die Trajektorie auch einhält. Diese Überprüfung kann auch durch Bildverarbeitung der durch die Kameras 301 aufgenommenen Bilder durchgeführt werden.
  • Durch Verwendung des Edge-Systems 401 werden der Verarbeitungseinrichtung 501 nur relevante Bilder und/oder Videos und/oder Informationen übermittelt, um die Auslastung der fahrzeugexternen Verarbeitungseinrichtung 501 zu minimieren. Das Fahrzeug 201 kann mit einem Smartphone oder einem Tablet 801 oder einem Laptop beispielsweise auch über WLAN angefordert werden. Genauso kann über diese Anforderungseinheiten 801, 802 definiert werden, wohin das jeweilige Fahrzeug 201 autonom gefahren werden soll.
  • Die Überwachungsvorrichtung 601 prüft, ob alle relevanten Kameras 301 funktionsfähig sind. Zudem prüft die Überwachungsvorrichtung 601, ob alle systemrelevanten Elemente funktionsfähig sind. Zudem überprüft diese Überwachungsvorrichtung 601 ohne künstliche Intelligenz, also deterministisch, ob Veränderungen in einem Bild auftreten, die von der Verarbeitungseinrichtung 501 nicht erkannt werden. Für den Fall, dass sich eine Diskrepanz zwischen dem Ergebnis der Überwachungsvorrichtung 601 und der Verarbeitungseinrichtung 501 ergibt, wird der Fahrbereich des Fahrzeugs 201 blockiert. Es handelt sich bei der Überwachungsvorrichtung 601 somit um ein deterministisches Sicherheits- und Rückfallsystem.
  • Die Bewegungsbahn bzw. Trajektorie kann ein Vektor sein, der als Werte eine Geschwindigkeit, einen Lenkwinkel und beispielsweise die Dauer des Beibehaltens dieser Steuerparameter aufweist. Die Bewegungsbahn bzw. Trajektorie ist auf dem CAN-Bus des Fahrzeugs 201 angepasst und kann bei einem mit 25 Hz getakteten CAN-Bus beispielsweise jede 25tel Sekunde geändert werden. In dieser Taktfrequenz können Bewegungsbahnen bzw. Trajektorien übermitteln werden.
  • Andere Fahrzeuge und Objekte werden in der externen Verarbeitungseinrichtung erkannt und klassifiziert. In einer Ausführungsform ist vorgesehen, dass das Fahrzeug autonom anhält oder stoppt, wenn notwendig, oder dass es einen Ausweichkurs um die Fahrzeuge und/oder die Objekte berechnet und diesen durch die externe Verarbeitungseinrichtung unterstützt abfährt.
  • Zur eindeutigen Identifikation der Fahrzeuge mittels externer Kamerasensoren und einer externen Verrechnungseinheit wird jedem Fahrzeug ein individueller Blinkcode zugeordnet. Hierbei wird jedem der gleichzeitig auf der Parkfläche bewegten Fahrzeuge ein individuelles Blinkmuster zugeordnet. Die verwendeten visuellen Muster können z.B. Blinkmuster oder Lichtzeichenabfolgen sein. So kann z.B. ein Fahrzeug durch 3 Wechselblinkzeichen links und rechts binnen 3 Sekunden durch die externen Kamerasensoren eindeutig identifiziert werden. Diese Zuordnung ermöglicht es nun der Kontrolleinheit das Fahrzeug zu identifizieren und zu steuern. Unter einer Verrechnungseinheit wird im Rahmen dieser Anmeldung auch die Verarbeitungseinrichtung verstanden.
  • Das System ermittelt die Pose (Ort und Fahrtrichtung) des Fahrzeugs ausschließlich aus zweidimensionalen Kamerabildern mittels fahrzeugexterner Kamerasensorik in einer externen Verarbeitungseinrichtung und projiziert diese Pose des Fahrzeugs als virtuelles Fahrzeug auf eine Karte der Umgebung.
  • Nach einer Ausführungsform ist die Kommunikation zwischen Fahrzeug und externer Verrechnungseinheit verschlüsselt oder die einzelnen Fahrbefehle werden durch Schlüssel validiert.
  • Zur automatisierten effizienten Kalibrierung der fahrzeugexternen Kamerasensoren wurde ein Kallibrierungssystem entwickelt, bei dem Testkörper zufällig auf die zu beobachtende Parkfläche ausgebracht werden. Durch die redundante Anbringung von Kamerasensoren wird daher jeder Textkörper von mehr als einer Kamera erfasst. Werden nun diese z.B. gleichgroßen aber verschiedenfarbigen Testkörper (z.B. gelbe, grüne, rote und blaue Scheiben oder Würfel mit einem Durchmesser von jeweils 20cm) auf der zu beobachtenden Parkfläche verschoben, so kann das Kontrollsystem 501 die Kamerapositionen, deren Winkel zur beobachteten Parkfläche, sowie deren Distanzen untereinander berechnen und damit die Kamerasensoren eindeutig auf einer Karte der zu beobachtenden Parkfläche positionieren.
  • In den Zeichnungen sind jeweils gleiche oder gleichartige Elemente und/oder Teile mit denselben Bezugsziffern versehen, so dass von einer erneuten Vorstellung jeweils abgesehen wird.
  • Alle genannten Merkmale, auch die den Zeichnungen allein zu entnehmenden sowie auch einzelne Merkmale, die in Kombination mit anderen Merkmalen offenbart sind, werden allein und in Kombination als erfindungswesentlich angesehen. Erfindungsgemäße Ausführungsformen können durch einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllt sein.
  • Bezugszeichenliste
  • 101
    Ethernetanschluss
    102
    Switch
    201
    Fahrzeug
    301
    Überwachungskamera
    401
    Edge-System
    501
    Verarbeitungseinrichtung
    601
    Überwachungsvorrichtung
    701
    Kommunikationseinheit
    702
    Kommunikationseinheit
    703
    Kommunikationseinheit
    704
    Kommunikationseinheit
    801
    Anforderungseinheit
    802
    Anforderungseinheit
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102008027692 A1 [0002]
    • DE 102012008858 A1 [0002]
    • WO 2011154242 A1 [0002]
    • DE 102016120433 A1 [0002]
    • DE 102005029336 A1 [0003]
    • DE 102013003683 A1 [0003]
    • US 9701305 B2 [0003]
    • DE 102009051463 B4 [0005]
    • DE 102012222562 A1 [0006]
    • WO 2016128203 A1 [0006]

Claims (15)

  1. Verfahren zum ferngesteuerten autonomen Fahren eines Fahrzeugs (201) mit den folgenden Verfahrensschritten: Erfassen des Fahrzeugs (201) mit Hilfe von wenigstens einem in einer Umgebung des Fahrzeugs (201) angeordneten Sensor, insbesondere Kamera (391), Ermitteln einer Bewegungsbahn für das Fahrzeug (201) mittels einer fahrzeugexternen Verarbeitungseinrichtung (501), Übermitteln der Bewegungsbahn und/oder von Steuerbefehlen betreffend die Bewegungsbahn an das Fahrzeug (201), und Umsetzen der Bewegungsbahn und/oder der Steuerbefehle im Fahrzeug (201), um das Fahrzeug (201) gemäß der Bewegungsbahn zu bewegen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Erfassen des Fahrzeugs (201) eine eindeutige Identifikation erfolgt, wobei das Fahrzeug (201) Lichtsignale abgibt, die durch den wenigstens einen Sensor erfasst werden und in der Verarbeitungseinrichtung (501) verarbeitet werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass eine Pose des Fahrzeugs (201) mittels der wenigstens einen Kamera (301), insbesondere mehrerer Kameras (301), durch die Verarbeitungseinrichtung (501) ermittelt wird, wobei insbesondere eine Projektion der Pose auf eine Umgebungskarte erfolgt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass mittels der wenigstens einen Kamera (301) aufgenommenen Bilder oder Filmsequenzen in der Verarbeitungseinrichtung (501) eine Bilderkennung mittels Bildvergleich und/oder, insbesondere trainierter, neuronaler Netze Objekte, insbesondere andere Fahrzeuge oder Lebewesen, in der Umgebung des Fahrzeugs (201) erkannt werden, wobei insbesondere die Bewegungsbahn und/oder Steuerbefehle, die an das Fahrzeug (201) übermittelt werden, angepasst werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass mehrere Kameras (301) verwendet werden, wobei insbesondere durch Positionieren von Testkörpern, die von wenigstens zwei Kameras (301) erfasst werden, die Kameras (301), insbesondere automatisch, kalibriert und/oder auf einer Umgebungskarte positioniert werden.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zusätzlich Signale wenigstens eines fahrzeuginternen Sensors verwendet werden, um das Fahrzeug (201) zu steuern.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die Bewegungsbahn und/oder Steuerbefehle betreffend die Bewegungsbahn periodisch, insbesondere an den Takt des fahrzeuginternen Bussystems angepasst übermittelt werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Verfahren zur Ermittlung der Bewegungsbahn automatisch durchgeführt wird.
  9. System zum ferngesteuerten autonomen Fahren eines Fahrzeugs (201), insbesondere in einer vorgebbaren oder vorgegeben Umgebung, umfassend eine Mehrzahl von fahrzeugexternen Kameras (301), die ausgebildet sind, Kamerabilder oder Videos wenigstens eines Teils der Umgebung zu erfassen, und eine fahrzeugexterne Verarbeitungseinrichtung (501), die ausgebildet ist, die Kamerabilder oder Videos zu verarbeiten, wobei die Verarbeitungseinrichtung (501) ferner dazu eingerichtet ist, wenigstens ein Fahrzeug (201) anhand der Kamerabilder oder Videos zu erkennen und eine Bewegungsbahn für das Fahrzeug (201) zu bestimmen, wobei ferner das System eine Übertragungsvorrichtung umfasst, die ausgebildet ist, die Bewegungsbahn und/oder Steuerbefehle betreffend die Bewegungsbahn an das Fahrzeug (201) zu übermitteln.
  10. System nach Anspruch 9, dadurch gekennzeichnet, dass das System eingerichtet ist, das Fahrzeug von einer Startposition automatisch und/oder autonom zu einer Zielposition zu führen.
  11. System nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass eine eindeutige Identifikation eines oder mehrerer Fahrzeuge (201) über eine Abgabe von Lichtsignalen des oder der Fahrzeuge (201) stattfindet.
  12. System nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass mittels der Kamerabilder und/oder Videos eine Pose des oder der Fahrzeuge (201) ermittelbar ist, wobei die Pose insbesondere auf einer Umgebungskarte darstellbar ist.
  13. System nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass das System ein Edge Computingsystem (401) umfasst, das eingerichtet ist, nur diejenigen Kamerabilder oder Videos, auf denen das oder die Fahrzeuge (201) oder andere Objekte, die für die Bewegungsbahn relevant sind, insbesondere vorverarbeitet, an die Verarbeitungseinrichtung (501) weiterzuleiten oder weiterzugeben.
  14. System nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass das System, insbesondere trainierte oder vortrainierte, neuronale Netze und/oder Methoden des Deep Learning und/oder des Reinforcement Learning, insbesondere im Sinne eines Convolutional Neuronal Network, verwendet und/oder anwendet.
  15. System nach einem der Ansprüche 9 bis 14, dadurch gekennzeichnet, dass eine deterministische Überwachungsvorrichtung (601) vorgesehen ist, die insbesondere ausgebildet ist, Komponenten des Systems, insbesondere Kameras (301), die Verarbeitungseinrichtung (501) und/oder das Edge Computingsystem (401), auf Funktionsfähigkeit zu überprüfen.
DE102020107108.6A 2020-03-16 2020-03-16 Verfahren und System zum autonomen Fahren eines Fahrzeugs Pending DE102020107108A1 (de)

Priority Applications (9)

Application Number Priority Date Filing Date Title
DE102020107108.6A DE102020107108A1 (de) 2020-03-16 2020-03-16 Verfahren und System zum autonomen Fahren eines Fahrzeugs
EP21160267.7A EP3882733B1 (de) 2020-03-16 2021-03-02 Verfahren und system zum autonomen fahren eines fahrzeugs
DK21160267.7T DK3882733T3 (da) 2020-03-16 2021-03-02 Fremgangsmåde og system til autonom kørsel af et fartøj
PL21160267.7T PL3882733T3 (pl) 2020-03-16 2021-03-02 Sposób i system do autonomicznego kierowania pojazdem
ES21160267T ES2932553T3 (es) 2020-03-16 2021-03-02 Método y sistema para la conducción autónoma de un vehículo
CA3112095A CA3112095A1 (en) 2020-03-16 2021-03-15 Method and system for autonomous driving of a vehicle
JP2021041624A JP2021149968A (ja) 2020-03-16 2021-03-15 車両の自動運転のための方法およびシステム
CN202110275742.5A CN113401116A (zh) 2020-03-16 2021-03-15 用于自主驾驶车辆的方法和系统
US17/201,412 US20210284193A1 (en) 2020-03-16 2021-03-15 Method and system for autonomous driving of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020107108.6A DE102020107108A1 (de) 2020-03-16 2020-03-16 Verfahren und System zum autonomen Fahren eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102020107108A1 true DE102020107108A1 (de) 2021-09-16

Family

ID=74858191

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020107108.6A Pending DE102020107108A1 (de) 2020-03-16 2020-03-16 Verfahren und System zum autonomen Fahren eines Fahrzeugs

Country Status (9)

Country Link
US (1) US20210284193A1 (de)
EP (1) EP3882733B1 (de)
JP (1) JP2021149968A (de)
CN (1) CN113401116A (de)
CA (1) CA3112095A1 (de)
DE (1) DE102020107108A1 (de)
DK (1) DK3882733T3 (de)
ES (1) ES2932553T3 (de)
PL (1) PL3882733T3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022107253A1 (de) 2022-03-28 2023-09-28 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt, parkassistenzsystem und gebäude
DE102022205331A1 (de) 2022-05-30 2023-11-30 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen einer zumindest assistierten Parkfunktion für ein Kraftfahrzeug

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022107187A1 (de) 2022-03-28 2023-09-28 Valeo Schalter Und Sensoren Gmbh Führen eines Fahrzeugs in einem vorgegebenen befahrbaren Bereich

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005029336A1 (de) 2004-09-27 2006-04-13 Daimlerchrysler Ag Verfahren zur selbsttätigen Steuerung eines Fahrzeugs
DE102008027692A1 (de) 2008-06-11 2009-12-17 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einem Parkvorgang
WO2011154242A1 (de) 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim einparken in eine parklücke, fahrerassistenzeinrichtung und kraftfahrzeug
DE102012008858A1 (de) 2012-04-28 2012-11-08 Daimler Ag Verfahren zum autonomen Parken eines Kraftfahrzeugs, Fahrerassistenzvorrichtung zur Durchführung des Verfahrens, sowie Kraftfahrzeug mit der Fahrerassistenzvorrichtung
DE102012222562A1 (de) 2012-12-07 2014-06-12 Robert Bosch Gmbh System für bewirtschaftete Parkflächen zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition
DE102009051463B4 (de) 2009-10-30 2014-08-21 Audi Ag Kraftfahrzeug, externe Steuerungsvorrichtung sowie Verfahren zum Durchführen eines Ausparkvorgangs eines Kraftfahrzeugs
DE102013003683A1 (de) 2013-03-04 2014-09-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem
WO2016128203A1 (de) 2015-02-12 2016-08-18 Robert Bosch Gmbh Verfahren zum betreiben eines fahrzeugs
US9701305B2 (en) 2015-03-10 2017-07-11 GM Global Technology Operations LLC Automatic valet parking
DE102016120433A1 (de) 2016-10-26 2018-04-26 Valeo Schalter Und Sensoren Gmbh Parkplatzerkennung mit Laserscanner

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DD289364A5 (de) * 1989-11-29 1991-04-25 Funkwerk Koepenick Zentr. F. Forschung U. Technologie,De Verfahren und schaltungsanordnung zum betrieb einer lichtsignalanlage zu lehrzwecken
DE10131196A1 (de) * 2001-06-28 2003-01-16 Bosch Gmbh Robert Vorrichtung zur Detektion von Gegenständen, Personen oder dergleichen
JP2008176663A (ja) * 2007-01-19 2008-07-31 Toyota Central R&D Labs Inc 車両検出装置、車両検出用発光装置及び車両検出システム
JP5361619B2 (ja) * 2009-09-04 2013-12-04 株式会社東芝 駐車場管理装置及び駐車場管理方法
DE102010034139A1 (de) * 2010-08-12 2012-02-16 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Parkvorgangs eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
JP2012043302A (ja) * 2010-08-20 2012-03-01 Toshiba Corp 可視光情報処理装置、可視光情報処理方法及びそのプログラム
KR20120086140A (ko) * 2011-01-25 2012-08-02 한국전자통신연구원 맞춤 자동 주차 서비스를 제공하기 위한 단말과 장치 및 그 방법
DE102011087459A1 (de) * 2011-11-30 2013-06-06 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem für ein Kraftfahrzeug
US8457827B1 (en) * 2012-03-15 2013-06-04 Google Inc. Modifying behavior of autonomous vehicle based on predicted behavior of other vehicles
US9914333B2 (en) * 2012-07-05 2018-03-13 Uusi, Llc Vehicle trailer connect system
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
DE102013009860A1 (de) * 2013-06-13 2014-12-18 Audi Ag Verfahren zur Koordination des Betriebs von Kraftfahrzeugen
DE102013213754A1 (de) 2013-07-15 2015-01-15 Ford Global Technologies, Llc Verfahren und Vorrichtung zum autonomen Rangieren eines Kraftfahrzeugs
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
WO2016099443A1 (en) * 2014-12-15 2016-06-23 Intelligent Technologies International, Inc. Mapping techniques using probe vehicles
AU2013273830A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Post-processed bokeh rendering using asymmetric recursive Gaussian filters
DE102014200611A1 (de) * 2014-01-15 2015-07-16 Robert Bosch Gmbh Verfahren zum autonomen Parken eines Fahrzeugs, Fahrerassistenzvorrichtung zur Durchführung des Verfahrens, sowie Fahrzeug mit der Fahrerassistenzvorrichtung
US9928594B2 (en) 2014-07-11 2018-03-27 Agt International Gmbh Automatic spatial calibration of camera network
DE102014221751A1 (de) * 2014-10-27 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Führen eines Fahrzeugs auf einem Parkplatz
DE102014221759A1 (de) * 2014-10-27 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
DE102014224075A1 (de) * 2014-11-26 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum assistierten Führen eines Fahrzeugs
DE102014224077A1 (de) * 2014-11-26 2016-06-02 Robert Bosch Gmbh Verfahren und Vorrichtung zum assistierten Führen eines Fahrzeugs
JP2016146162A (ja) * 2014-12-04 2016-08-12 株式会社リコー 運転判定装置、運転判定プログラム、演算システム、検知装置、検知システム、検知方法及びプログラム
CN105898205B (zh) 2015-01-04 2020-03-20 伊姆西Ip控股有限责任公司 用于由多个摄像头监视目标对象的方法和装置
CN111351495B (zh) * 2015-02-10 2024-05-28 御眼视觉技术有限公司 服务器系统、方法及机器可读介质
DE102015002405A1 (de) 2015-02-24 2016-08-25 Audi Ag Verfahren zur Verkehrskoordinierung von Kraftfahrzeugen in einer Parkumgebung
US10239739B2 (en) * 2015-03-06 2019-03-26 Walmart Apollo, Llc Motorized transport unit worker support systems and methods
DE102015204359A1 (de) * 2015-03-11 2016-09-15 Robert Bosch Gmbh Führen eines Kraftfahrzeugs auf einem Parkplatz
US9836056B2 (en) * 2015-06-05 2017-12-05 Bao Tran Smart vehicle
DE102015007531B3 (de) * 2015-06-11 2016-09-01 Audi Ag Verfahren zur Verkehrssteuerung in einer Parkumgebung
DE102015215127B4 (de) 2015-08-07 2020-10-29 Volkswagen Aktiengesellschaft Automatisches Positionieren eines Kraftfahrzeugs
DE102015217390A1 (de) 2015-09-11 2017-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs sowie Verfahren zum Betreiben eines Parkplatzes
CA3002308A1 (en) * 2015-11-02 2017-05-11 Starship Technologies Ou Device and method for autonomous localisation
US9983591B2 (en) * 2015-11-05 2018-05-29 Ford Global Technologies, Llc Autonomous driving at intersections based on perception data
DE102016200794A1 (de) 2016-01-21 2017-07-27 Robert Bosch Gmbh Verfahren und Vorrichtung zum Lokalisieren eines Kraftfahrzeugs
DE102016201067A1 (de) 2016-01-26 2017-07-27 Robert Bosch Gmbh Anordnung zur Kommunikation zwischen einem Fahrzeug und einem automatisierten Parksystem
US11468285B1 (en) * 2016-05-30 2022-10-11 Apple Inc. Analysis of objects of interest in sensor data using deep neural networks
AU2016203619A1 (en) * 2016-05-31 2017-12-14 Canon Kabushiki Kaisha Layer-based operations scheduling to optimise memory for CNN applications
DE102016213145A1 (de) 2016-07-19 2018-01-25 Robert Bosch Gmbh Verfahren und Vorrichtungen zum Authentifizieren eines Kraftfahrzeugs
US11087236B2 (en) * 2016-07-29 2021-08-10 Splunk Inc. Transmitting machine learning models to edge devices for edge analytics
DE102016115083A1 (de) 2016-08-15 2018-02-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum ferngesteuerten Manövrieren eines Kraftfahrzeugs mit Erfassung des Kraftfahrzeugs, mobiles Endgerät, Kraftfahrzeug sowie System
US10769439B2 (en) * 2016-09-16 2020-09-08 Motorola Solutions, Inc. System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
US10289936B2 (en) * 2016-11-08 2019-05-14 Nec Corporation Surveillance system with landmark localization on objects in images using convolutional neural networks
DE102016223185A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
KR20180064183A (ko) * 2016-12-05 2018-06-14 (주)유양디앤유 가시광통신을 이용한 무인 운송장치 및 시스템
DE102017201663A1 (de) * 2017-02-02 2018-08-02 Robert Bosch Gmbh Verfahren zur Lokalisierung eines höher automatisierten, z.B. hochautomatisierten Fahrzeugs (HAF) in einer digitalen Lokalisierungskarte
CN106846870A (zh) * 2017-02-23 2017-06-13 重庆邮电大学 基于集中式视觉的停车场‑车辆协同的智能停车系统及方法
US10720062B2 (en) * 2017-04-25 2020-07-21 Fuji Xerox Co., Ltd. Systems and methods for automated vehicle following and regrouping
DE102017207285A1 (de) 2017-04-28 2018-10-31 Continental Teves Ag & Co. Ohg Datenübertragungsvorrichtung und Verfahren zur Übertragung von Daten für ein Fahrzeug
WO2018226600A1 (en) * 2017-06-05 2018-12-13 Citifyd, Inc. Parking objects detection system
FR3068314B1 (fr) * 2017-06-30 2019-08-09 Valeo Vision Systeme lumineux pour vehicule automobile
DE102017212533A1 (de) 2017-07-21 2019-01-24 Robert Bosch Gmbh Vorrichtung und Verfahren zum Bereitstellen einer Zustandsinformation eines automatischen Valet Parking Systems
US11079771B2 (en) * 2017-08-10 2021-08-03 Amazon Technologies, Inc. Coordinated optimization of autonomous vehicle operations
JP2019046100A (ja) * 2017-08-31 2019-03-22 アイシン精機株式会社 駐車支援装置
US10796202B2 (en) * 2017-09-21 2020-10-06 VIMOC Technologies, Inc. System and method for building an edge CNN system for the internet of things
US10331135B2 (en) * 2017-11-22 2019-06-25 GM Global Technology Operations LLC Systems and methods for maneuvering around obstacles in autonomous vehicles
US11989861B2 (en) * 2017-11-28 2024-05-21 Intel Corporation Deep learning-based real-time detection and correction of compromised sensors in autonomous machines
JP7043241B2 (ja) * 2017-12-14 2022-03-29 aidea株式会社 自動運転制御システム、自動運転制御方法、及び車両
KR102056377B1 (ko) * 2017-12-15 2019-12-16 엘지전자 주식회사 차량에 구비된 차량 제어 장치 및 차량의 제어방법
US10533860B2 (en) 2017-12-19 2020-01-14 Intel Corporation Light pattern based vehicle location determination method and apparatus
DE102017011762A1 (de) 2017-12-20 2018-07-12 Daimler Ag Verfahren zum Identifizieren eines Fahrzeuges
US10870430B2 (en) * 2018-01-10 2020-12-22 Intel Corporation Communicating the autonomy status of vehicles
DE102018204006A1 (de) * 2018-03-15 2019-09-19 Robert Bosch Gmbh Verfahren und System zur sicheren Kollisionsvermeidung von infrastrukturseitig überwachten Fahrzeugen
US10943485B2 (en) * 2018-04-03 2021-03-09 Baidu Usa Llc Perception assistant for autonomous driving vehicles (ADVs)
DE102018116515A1 (de) 2018-07-09 2020-01-09 Valeo Schalter Und Sensoren Gmbh Bildsensordaten-basierte Distanzbestimmung und Rangieren eines Fahrzeugs
EP3609206B1 (de) * 2018-08-09 2020-05-13 Audi Ag Verfahren und backendstruktur zur bereitstellung von netzwerkbasierter rechenleistung für ein sich bewegendes fahrzeug und fahrzeug zur verwendung der backendstruktur
JP7192308B2 (ja) * 2018-08-28 2022-12-20 株式会社アイシン 車両通信制御装置、車両通信制御システム、車両通信制御方法、および車両通信制御プログラム
CN110874945A (zh) * 2018-08-31 2020-03-10 百度在线网络技术(北京)有限公司 基于车路协同的路侧感知系统及其车辆控制方法
US10387754B1 (en) * 2019-01-23 2019-08-20 StradVision, Inc. Learning method and learning device for object detector based on CNN using 1×H convolution to be used for hardware optimization, and testing method and testing device using the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005029336A1 (de) 2004-09-27 2006-04-13 Daimlerchrysler Ag Verfahren zur selbsttätigen Steuerung eines Fahrzeugs
DE102008027692A1 (de) 2008-06-11 2009-12-17 Valeo Schalter Und Sensoren Gmbh Verfahren zur Unterstützung eines Fahrers eines Fahrzeugs bei einem Parkvorgang
DE102009051463B4 (de) 2009-10-30 2014-08-21 Audi Ag Kraftfahrzeug, externe Steuerungsvorrichtung sowie Verfahren zum Durchführen eines Ausparkvorgangs eines Kraftfahrzeugs
WO2011154242A1 (de) 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum unterstützen eines fahrers eines kraftfahrzeugs beim einparken in eine parklücke, fahrerassistenzeinrichtung und kraftfahrzeug
DE102012008858A1 (de) 2012-04-28 2012-11-08 Daimler Ag Verfahren zum autonomen Parken eines Kraftfahrzeugs, Fahrerassistenzvorrichtung zur Durchführung des Verfahrens, sowie Kraftfahrzeug mit der Fahrerassistenzvorrichtung
DE102012222562A1 (de) 2012-12-07 2014-06-12 Robert Bosch Gmbh System für bewirtschaftete Parkflächen zur Überführung eines Fahrzeugs von einer Startposition in eine Zielposition
DE102013003683A1 (de) 2013-03-04 2014-09-04 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem
WO2016128203A1 (de) 2015-02-12 2016-08-18 Robert Bosch Gmbh Verfahren zum betreiben eines fahrzeugs
US9701305B2 (en) 2015-03-10 2017-07-11 GM Global Technology Operations LLC Automatic valet parking
DE102016120433A1 (de) 2016-10-26 2018-04-26 Valeo Schalter Und Sensoren Gmbh Parkplatzerkennung mit Laserscanner

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022107253A1 (de) 2022-03-28 2023-09-28 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt, parkassistenzsystem und gebäude
DE102022205331A1 (de) 2022-05-30 2023-11-30 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen einer zumindest assistierten Parkfunktion für ein Kraftfahrzeug
DE102022205331B4 (de) 2022-05-30 2024-02-29 Volkswagen Aktiengesellschaft Verfahren und System zum Bereitstellen einer zumindest assistierten Parkfunktion für ein Kraftfahrzeug

Also Published As

Publication number Publication date
EP3882733A1 (de) 2021-09-22
JP2021149968A (ja) 2021-09-27
EP3882733B1 (de) 2022-11-02
PL3882733T3 (pl) 2023-03-20
US20210284193A1 (en) 2021-09-16
CN113401116A (zh) 2021-09-17
CA3112095A1 (en) 2021-09-16
ES2932553T3 (es) 2023-01-20
DK3882733T3 (da) 2023-02-06

Similar Documents

Publication Publication Date Title
EP3882733B1 (de) Verfahren und system zum autonomen fahren eines fahrzeugs
EP3365211B1 (de) Verfahren und vorrichtung zum verringern eines kollisionsrisikos einer kollision eines kraftfahrzeugs mit einem objekt
EP3224100B1 (de) Verfahren und vorrichtung zum betreiben von mehreren fahrzeugen
EP3347787B1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs
EP3347247B1 (de) Verfahren und vorrichtung zum betreiben eines fahrzeugs sowie verfahren zum betreiben eines parkplatzes
DE102016212195A1 (de) Verfahren zum Durchführen eines automatischen Eingriffs in die Fahrzeugführung eines Fahrzeugs
EP3388311B1 (de) Verfahren zum ferngesteuerten manövrieren eines kraftfahrzeugs auf einer parkfläche, infrastrukturvorrichtung für eine parkfläche sowie parkflächenkommunikationssystem
DE102016200734A1 (de) Verfahren und Vorrichtung zum Überwachen einer fahrerlosen Fahrt eines Kraftfahrzeugs innerhalb eines Parkplatzes
EP2695797A2 (de) Verfahren zum fahrerlosen Bewegen eines Fahrzeugs auf einer Parkfläche
EP3552194B1 (de) Verfahren zur bereitstellung von ergebnisdaten, die von einem kraftfahrzeugumfeld abhängen
DE102015217386A1 (de) Verfahren und System zum Betreiben eines Kraftfahrzeugs
WO2020015923A1 (de) Verfahren zum betreiben eines autonomen fahrzeugs und autonomes fahrzeug
DE102015217388A1 (de) Verfahren und Vorrichtung zum Betreiben eines innerhalb eines Parkplatzes fahrerlos fahrenden Kraftfahrzeugs
DE102012023498A1 (de) Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
WO2018099740A1 (de) Verfahren zum autonomen manövrieren eines kraftfahrzeugs auf einer parkfläche mit bestimmung einer positionsabweichung, infrastrukturvorrichtung, fahrerassistenzsystemen, kraftfahrzeugs sowie kommunikationssystem
DE102015217385B4 (de) Verfahren und Vorrichtung zum Bestimmen, ob sich im Umfeld eines innerhalb eines Parkplatzes befindlichen Kraftfahrzeugs ein Objekt befindet
DE102019202025B4 (de) System und Verfahren zum sicheren Betreiben eines automatisierten Fahrzeugs
DE102016002232B4 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE102016215468A1 (de) Verfahren und Parkplatzverwaltungsserver zum Warnen einer sich innerhalb eines Parkplatzes befindenden Person
DE102015220643A1 (de) Verfahren und Vorrichtung zum Verringern eines Kollisionsrisikos einer Kollision eines Kraftfahrzeugs mit einem Objekt
WO2018054826A1 (de) Verfahren zum zumindest teilautomatisierten anfahren eines kraftfahrzeugs aus dem stand
DE102015220644A1 (de) Verfahren und Vorrichtung zum Bestimmen, ob eine Durchführung einer oder mehrerer Sicherheitsaktionen zum Verringern eines Kollisionsrisikos einer Kollision eines Kraftfahrzeugs mit einem Objekt gesteuert werden muss
EP3511920A1 (de) Parkassistenzsystem mit entfernter konfiguration eines lokalen neuronalen netzes
DE102017200165A1 (de) Verfahren und Vorrichtung zum Betreiben eines abgestellten Kraftfahrzeugs
DE102022131470A1 (de) Verfahren zur Kalibration wenigstens einer zur Erfassung wenigstens eine Überwachungsbereichs ausgestalteten Detektionsrichtung eines Fahrzeugs, Detektionsvorrichtungen, Fahrerassistenzsystem und Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: KOPERNIKUS AUTOMOTIVE GMBH, DE

Free format text: FORMER OWNER: KOPERNIKUS AUTOMOTIVE GMBH, 10249 BERLIN, DE