-
Die Erfindung betrifft ein computerimplementiertes Verfahren, ein Hardwaremodul und ein Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Ferner betrifft die Erfindung ein automatisiert betreibbares Fahrsystem.
-
L4 AD-Fahrzeuge benötigen eine 360° Multisensor-Sichtfeld-Abdeckung in oder für den Betrieb. Dies erfordert nicht nur eine hohe Anzahl an Sensoren am Fahrzeug, sondern auch Rechenleistung, um auf allen gegebenen Bildern rechnen zu können. Dies ist nicht nur verbrauchsintensiv, zum Beispiel benötigt eine AD Domain ECU oder ein AD Zone Controller unter Volllast neunmal oder noch höher mehr Leistung als im Leerlauf, sondern benötigt auch einige Zeit, um alle Bilder zu verarbeiten. Die Kamerabildinferenz stellt derzeit die größte rechnerische Belastung bei einem Fahrsystem dar. Da in den meisten Fällen nur einige Regionen interessant sind, bringt die konstante 360° -Abdeckung keinen Vorteil.
-
Die
US 2020/0355820 A1 offenbart einen fahrzeugseitigen Wahrnehmungssensor, der Umgebungswahrnehmungsdaten aus einer Szene mit ersten und zweiten heterogenen (unterschiedlichen Modalitäts-) Sensoren sammelt. Mindestens einer der heterogenen Sensoren ist auf einen vorgegebenen Interessenbereich richtbar. Ein Wahrnehmungsprozessor empfängt die Umgebungswahrnehmungsdaten und führt die Objekterkennung durch, um jeweils Objekte mit einem berechneten Vertrauensgrad zu identifizieren. Der Prozessor bewertet die Konfidenzbewertung gegenüber einem vorgegebenen Schwellenwert und erzeugt auf Basis dieser Bewertung ein Aufmerksamkeitssignal, um den einen der heterogenen Sensoren auf einen vom anderen heterogenen Sensor identifizierten Interessenbereich umzuleiten. Auf diese Weise werden Informationen von einem Sensor auf den anderen Sensor übertragen, um die Genauigkeit zu erhöhen und vertiefte Kenntnisse über die Szene zu vermitteln und damit eine bessere Objekterfassung in Fahrzeuganwendungen zu erreichen.
-
Aufgabe der Erfindung war es, wie die rechnerische Belastung, insbesondere bei einer Kamerabildinferenz, dort reduziert werden kann, wo sie nicht benötigt wird, und den Energieverbrauch und die Berechnungszeit zu reduzieren.
-
Die Gegenstände der Ansprüche 1, 8, 10 und 11 lösen jeweils diese Aufgabe. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, der Zeichnung und der Beschreibung bevorzugter Ausführungsbeispiele.
-
Nach einem Aspekt stellt die Erfindung ein computerimplementiertes Verfahren bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Verfahren umfasst die Schritte:
- • Erhalten von Lidar- und/oder Radardaten;
- • Erhalten von Kartendaten umfassend Betriebsbedingungen des Fahrsystems;
- • Auswerten der Lidar- und/oder Radardaten, wobei Umfeldobjekte erkannt werden und Bewegungen der Umfeldobjekte relativ zu einer Bewegung des Fahrsystems prädiziert werden;
- • Zusammenführen der prädizierten Bewegungen der Umfeldobjekte mit den Kartendaten, wobei wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich, in dem Wechselwirkungen zwischen dem Fahrsystem und den Umfeldobjekten stattfinden können, erhalten wird;
- • Abbilden des Wechselwirkungsbereich auf Sichtfelder von Kamerasensoren des Kamerasystems und Bestimmen von Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich;
- • Auswählen wenigstens des Kamerasensors zur Objekterkennung, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat.
-
Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines Fahrzeuges auf Systemebene als auch das Fahrzeug als solches. Nach einem Aspekt ist das Fahrsystem ein automatisiert betreibbares, insbesondere ein autonomes Fahrsystem. Autonomes Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines autonom betreibbaren Fahrzeuges, beispielsweise hoch- oder vollautomatisiert, auf Systemebene als auch das autonom betriebene Fahrzeug als solches. Die Erfindung kann sowohl im manuellen als auch im automatisierten Zustand eingesetzt werden.
-
Das Kamerasystem ist Teil eines Umfeldwahrnehmungssystem. Basierend auf der Wahrnehmung plant das Fahrsystem die Bewegung eines Ego-Fahrzeuges und prädiziert die Bewegungen weiterer Objekte, beispielsweise Fremd-Fahrzeugen, Fußgängern, Fahrradfahrern. Basierend auf dieser Planung und Prädiktion bestimmt das Fahrsystem Regel- und/oder Steuersignale für Aktuatoren des Ego-Fahrzeuges zur Längs- und/oder Querführung. Das Kamerasystem kann statische und/oder dynamische Objekte erkennen, klassifizieren, lokalisieren und/oder diese über die Zeit verfolgen, auch tracking genannt. Die Objekterkennung umfasst Erkennen, Klassifizieren, Lokalisieren und/oder Tracken.
-
Kameradaten haben typischerweise eine Bandbreite von wenigsten 300 MB/s, Lidar- und/oder Radardaten hingegen eine bis zu einem Größenfaktor von 102 geringere Bandbreite. Da erfindungsgemäß zunächst keine Kameradaten, sondern Lidar- und/oder Radardaten ausgewertet werden, wird die rechnerische Belastung reduziert. Lidar- und/oder Radardaten umfassen Daten, die von Lidar- und/oder Radarsensoren des Fahrsystems oder des Fahrzeuges aufgenommen wurden, sowohl jeweilige Rohdaten und/oder vorprozessierte Daten.
-
Die Kartendaten sind nach einem Aspekt hochdetaillierte Kartendaten, beispielsweise Daten einer High Definition, abgekürzt HD, Karte. Die Kartendaten werden beispielsweise während der Fahrt per Funktechnologie erhalten, beispielsweise über ein V2X Kommunikationsmodul des Fahrsystems oder des Fahrzeuges. Insbesondere werden Kartendaten von zukünftigen Bereichen einer Fahrstrecke erhalten. Nach einem weiteren Aspekt, insbesondere bei einer vordefinierten und/oder fixen Fahrroute, sind die Kartendaten in einer Speichereinheit des Fahrsystems oder des Fahrzeuges hinterlegt. Die Betriebsbedingungen sind in den Kartendaten hinterlegt oder angegeben. Beispielsweise sind Bereiche, in denen das Fahrsystem oder das Fahrzeug einer Spur zu folgen hat, Kreuzungen, Kreisverkehre, Überquerungsanlagen und/oder Haltestellen in den Kartendaten mit entsprechenden Positionsangaben hinterlegt oder angegeben. Durch das Auswerten der Kartendaten, insbesondere der Betriebsbedingungen, weiß das Fahrsystem schon vorab, welche Bereiche auf der zu befahrenden Strecke von Interesse sind.
-
Im bekannten Stand der Technik wird eine Erkennungsperformanz dadurch gesteigert, dass die Erkennungssoftware eine Region von Interesse definiert, um an den entsprechenden Orten nochmal zu scannen, wo ein Objekt vermutet wird, aber die Konfidenz noch zu gering ist. Erfindungsgemäß werden Karteninformationen genutzt und damit eine Datenrate in der Erkennung reduziert. Ein nochmaliger Scan entfällt.
-
Das Fahrsystem, insbesondere ein automatisiertes oder autonomes Fahrsystem, fährt in der Regel eine Fahrstrecke ab, für die ein vorab aufgestelltes Anforderungsprofil für das Fahrsystem validiert wurde. Beispielsweise umfasst die Fahrstrecke einen Kreisverkehr. Eine Anforderung an das automatisierte Fahrsystem ist dann beispielsweise, einen Kreisverkehr zu erkennen, beispielsweise die entsprechenden Verkehrszeichen, in einen Kreisverkehr einzufahren und auszufahren unter Beachtung der geltenden Verkehrsvorschriften. Ein Steuerungssystem umfassend Algorithmen zur Umfelderkennung, Trajektorienplanung und zum Ableiten von Regel- und/oder Steuerungssignalen und Aktuatoren für Längs- und/oder Querführung des automatisierten Fahrsystems wird davon ausgehend programmiert und konzipiert, für den Einsatzzweck des Fahrens auf dieser Strecke die Fahraufgabe des Fahrens durch den Kreisverkehr zu erfüllen. In der Validierung wird geprüft, ob das automatisierte Fahrsystem für diesen Einsatzzweck diese Fahraufgabe erfüllt. Um die Einsatzfähigkeit von automatisierten Fahrsystemen auf verschiedensten Fahrstrecken zu bewerten, werden Betriebsbedingungen, auch Operational Design Domains, abgekürzt ODD, genannt, betrachtet, unter denen ein bestimmtes automatisiertes Fahrsystem oder ein technisches Merkmal davon für eine bestimmte Funktionalität ausgelegt ist. Die ODD stellt einen Lösungsraum dar, für den der Einsatz von automatisierten Fahrsystemen vorgesehen ist.
-
Das Auswerten der Lidar- und/oder Radardaten erfolgt mit Umfeldwahrnehmungsalgorithmen umfassend Erkennungs-, Klassifizierungs-, Lokalisierungs- und/oder Trackingalgorithmen für einzelne Sensoren und/oder für Datenfusion. Die Algorithmen umfassen nach einem Aspekt trainierte Maschinenlernmodelle, beispielsweise künstliche neuronale Netzwerke für Objekterkennung, beispielsweise Faltungsnetzwerke oder Transformernetzwerke, und deterministische Methoden.
-
Das Zusammenführen der prädizierten Bewegungen mit den Kartendaten entspricht einer Datenfusion, durch die zukünftige Wechselwirkungsbereiche erkannt werden, beispielsweise beim Abbiegen in Kreuzungen oder Kreuzungsbereiche von Trajektorien basierend auf der Bewegungsvorhersage. Dadurch ist bereits vorab bekannt, welche Bereiche von besonderem Interesse sind und daher wahrgenommen werden müssen. Beispielsweise kann ein kleiner Gehweg zwischen Parkplätzen, der nicht gut sichtbar ist, als Wechselwirkungsbereich mit einem Fußgänger erhalten werden basierend auf einer Bewegungsvorhersage eines erkannten Fußgängers in diesem Bereich. Nach einem weiteren Aspekt werden mögliche Wechselwirkungsbereiche vorab in den Kartendaten hinterlegt oder angegeben.
-
Das Abbilden des Wechselwirkungsbereiches auf Sichtfelder der Kamerasensoren wird beispielsweise mittels Koordinatentransformationen zwischen den Bezugssystemen der Kamerasensoren und eines Weltsystems um den Zeitpunkt der prädizierten Wechselwirkung durchgeführt.
-
Die Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich werden beispielsweise mittels bekannten Intersection-Of-Regions-Methoden bestimmt.
-
Dadurch, dass zur Objekterkennung der, insbesondere nur der, Kamerasensor ausgewählt wird, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat, wird die rechnerische Belastung weiter reduziert, beispielsweise um einen Faktor 5, da nur ein Kamerasensor anstatt beispielsweise 5 Kamerasensoren benötigt wird. Dadurch wird sowohl die Belastung durch das Kamerasystem als auch der Energieverbrauch des gesamten Fahrsystems reduziert.
-
Nach einem weiteren Aspekt stellt die Erfindung ein Hardwaremodul bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Hardwaremodul umfasst:
- • eine oder mehrere Eingangsschnittstellen, über die das Hardwaremodul Daten von wenigstens Lidar- und/oder Radarsensoren des Fahrsystems zur Umfelderfassung und Kartendaten umfassend Betriebsbedingungen des Fahrsystems erhält;
- • eine oder mehrere Schnittstellen zu einem Kamerasystem des Fahrsystems, über die das Hardwaremodul das Kamerasystem ansteuert;
- • eine Prozessiereinheit, die basierend auf den Daten Umfeldobjekte erkennt und Bewegungen der Umfeldobjekte relativ zu einer Bewegung des Fahrsystems prädiziert, wobei die Prozessiereinheit
- ◯ die prädizierten Bewegungen der Umfeldobjekte mit den Kartendaten zusammenführt und einen Wechselwirkungsbereich, in dem Wechselwirkungen zwischen dem Fahrsystem und den Umfeldobjekten stattfinden können, bestimmt;
- ◯ den Wechselwirkungsbereich auf Sichtfelder von Kamerasensoren des Kamerasystems abbildet und Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich bestimmt;
- ◯ wenigstens den Kamerasensor zur Objekterkennung auswählt, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat;
- ◯ auf Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen ausführt.
-
Das Hardwaremodule kann integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung, umfassen. Die integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung, können eine anwendungsspezifische Hardwareeinheit des Kamerasystems bilden.
-
Nach einem weiteren Aspekt stellt die Erfindung ein Computerprogramm bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Computerprogramm umfasst Befehle, die einen Computer veranlassen, ein erfindungsgemäßes Verfahren auszuführen, wenn das Computerprogramm von dem Computer ausgeführt wird.
-
Die Befehle des erfindungsgemäßen Computerprogramms umfassen Maschinenbefehle, Quelltext oder Objektcode geschrieben in Assemblersprache, einer objektorientierten Programmiersprache, beispielsweise C++, oder in einer prozeduralen Programmiersprache, beispielsweise C. Das Computerprogramm ist nach einem Aspekt der Erfindung ein Hardware unabhängiges Anwendungsprogramm, das beispielsweise über einen Datenträger oder ein Datenträgersignal, nach einem Aspekt mittels Software Over The Air Technologie, für eine beliebige Hardware bereitgestellt wird, beispielsweise über eine Middleware. Nach einem weiteren Aspekt ist das Computerprogramm ein Hardware abhängiges Programm, beispielsweise eine Firmware eines erfindungsgemäßen Hardwaremoduls oder eines Steuermoduls eines autonomen Fahrsystems. Der Datenträger umfasst flüchtige Speicher, beispielsweise RAM, DRAM, SRAM, und nichtflüchtige Speicher, beispielsweise ROM, Flash-EEPROM. Die Datenträger sind beispielsweise Flash-Speicherkarten, USB-Sticks. Nach einem Aspekt der Erfindung wird der Datenträger an ein In/Out System eines Fahrsystems, beispielsweise eines Mikrocontrollers, des Fahrsystems angeschlossen und überträgt das Computerprogramm in den Mikrocontroller.
-
Nach einem weiteren Aspekt stellt die Erfindung ein automatisiert betreibbares Fahrsystem bereit umfassend eine Elektronikeinheit, ausgeführt, ein erfindungsgemäßes Verfahren auszuführen, oder ein integriertes erfindungsgemäßes Hardwaremodul. Das Fahrsystem betrifft beispielsweise ein Straßenfahrzeug, beispielsweise einen PKW, LKW, Bus, People/Cargo Mover, Shuttle, Taxi, und/oder ein Fahrzeug, das auf eingegrenzten Arealen eingesetzt wird, beispielsweise fahrerlose Flurförderfahrzeuge, beispielsweise Containertransporter auf Hafengeländen und/oder Gabelstapler in Industriehallen. Nach einem Aspekt betrifft das Fahrsystem ein SAE J3016 Level 4 Fahrsystem, beispielsweise einen People Mover oder ein Shuttle, beispielsweise einen People Mover oder ein Shuttle, die eine definierte Route/Buslinie abfahren.
-
Nach einem weiteren Aspekt umfassen die Betriebsbedingungen hinsichtlich Objekterkennung Bereiche von Interesse, sogenannte Regions of Interest, abgekürzt ROI, beispielsweise Zebrastreifen. Nach einem weiteren Aspekt sind die ROIs in eine ODD Beschreibung eingefügt. Dadurch ist vorab, das heißt vor dem Erreichen des jeweiligen Bereiches, bekannt, wohin das Kamerasystem ausgerichtet werden kann zur Objekterkennung. Damit kann auch Bandbreite eingespart werden.
-
Nach einem weiteren Aspekt wird das Kamerasystem auf Positionen von aus den Kartendaten erhaltenen Betriebsbedingungen mit einer relativ zu anderen Positionen größeren Abtastfrequenz und/oder größeren Verweildauer ausgerichtet. Dadurch kann das Kamerasystem auf bestimmte Bereiche häufiger und länger ausgerichtet werden, insbesondere auf ROls.
-
Nach einem weiteren Aspekt umfassen die Betriebsbedingungen Verkehrszeichen, semantische Elemente und/oder Elemente einer Infrastruktur umfassend Straßengeometrie und/oder Straßenarten. Verkehrszeichen umfassen beispielsweise Haltestellenzeichen für eine Personenbeförderungs-Linien, Zeichen für Überquerungsanlagen, beispielsweise Zebrastreifen, und/oder Zeichen von Lichtanlagen, beispielsweise Ampeln. Semantische Elemente umfassen beispielsweise Vegetationsbereiche, beispielsweise Bereiche mit Baumbewuchs oder Grünparkanlagen. Straßengeometrien umfassen Kurve, Hügel, geradlinig, Spurbreite. Straßenarten umfassen Autobahn, Bundesstraße, Landstraße, Brücke, Tunnels, jeweils mehr- oder einspurig, Kreuzungen, Kreisverkehre, Spurzusammenführungen, Straßenüberquerungen. Die Verkehrszeichen und Positionen der entsprechenden Verkehrselemente, semantischen Elemente, Straßengeometrien und/oder Straßenarten, beispielsweise Haltestellen, Zebrastreifen und/oder Ampeln, Bereiche mit Baumbewuchs und/oder Grünparkanlagen, Kurve, Kreuzungen, Kreisverkehre, sind in der Karte hinterlegt, das heißt die Kartendaten umfassen die entsprechenden Positionsangaben.
-
Nach einem weiteren Aspekt werden Ultraschall- und/oder Akustikdaten erhalten zur Erkennung von und Prädiktion der Bewegungen der Umfeldobjekte. Durch die Verwendung weiterer Sensortechnologien wird die Erkennung von und Prädiktion der Bewegungen der Umfeldobjekte verbessert.
-
Nach einem weiteren Aspekt führt das Kamerasystem oder das Fahrsystem für Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen aus. Deterministische Methoden umfassen beispielsweise voting-Verfahren. Insbesondere, wenn mehr als ein Kamerasensor ausgewählt wird, können Mehrheits-voting-Verfahren, beispielsweise 2 aus 3, angewendet werden. Bei der auf Objekterkennung mittels trainierten Maschinenlernmodellen basierenden Inferenz werden solche Maschinenlernmodelle eingesetzt, deren Inferenz erprobt wurde und die abgesichert gegen Cyberangriffe, umfassend adversarial attacks, sind. Das erfindungsgemäße Verfahren ist sicherheitskritisch, da eine Falsch-Negativ-Erkennung dazu führen könnte, dass einige relevante Objekte nicht erkannt werden können. Dieser Aspekt ist durch die deterministischen Ansätze und den Einsatz von erprobten und abgesicherten Maschinenlernmodellen berücksichtigt.
-
Nach einem weiteren Aspekt werden die aus der Kamera basierten Inferenz erhaltenen Umfeldobjekte mit den aus Lidar- und/oder Radarinferenz erhaltenen Umfeldobjekten fusioniert. Dadurch wird die Sicherheit und Redundanz des Verfahrens erhöht.
-
Nach einem weiteren Aspekt ist das Hardwaremodul ausgeführt, ein erfindungsgemäßes Verfahren auszuführen.
-
Die Erfindung wird in dem folgenden Ausführungsbeispiel verdeutlicht. Es zeigen:
- 1 ein Ausführungsbeispiel eines Wechselwirkungsbereichs,
- 2 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens und
- 3 ein Ausführungsbeispiel von Kartendaten.
-
In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben.
-
1 zeigt ein Egofahrzeug oder ein Fahrsystem 1 zum automatisierten Betrieb des Egofahrzeuges. Das Egofahrzeug ist beispielsweise ein PKW oder ein People/Cargo Mover. Das Egofahrzeug fährt beispielsweise auf einer zweispurigen Autobahn. Umfeldobjekte 2 umfassen Fahrzeuge auf der Autobahn, beispielsweise in derselben Spur wie das Egofahrzeug vorausfahrende Fahrzeuge, Fahrzeuge auf einer Überholspur und Fahrzeuge im Gegenverkehr. Basierend auf einer Auswertung von Lidar-LIDAR und/oder Radardaten Radar wurde für diese Betriebsbedingung „Fahrt auf einer zweispurigen Autobahn“ ein Wechselwirkungsbereich 3 erfindungsgemäß bestimmt. Der Wechselwirkungsbereich 3 ist keine vollständige 360° Abdeckung des Umfeldes, sondern lediglich ein Bereich, in dem basierend auf prädizierten Bewegungen der Umfeldobjekte 2 relativ zu einer Bewegung des Fahrsystems 1 eine Wechselwirkung zukünftig stattfinden könnte.
-
2 zeigt schematisch die Schritte eines erfindungsgemäßen Verfahrens. In einem Verfahrensschritt V1 werden die Lidar LIDAR- und/oder Radardaten RADAR erhalten. In einem Verfahrensschritt V2 werden Kartendaten MAP umfassend Betriebsbedingungen des Fahrsystems 1 erhalten. In einem Verfahrensschritt V3 werden die Lidar LIDAR- und/oder Radardaten RADAR ausgewertet. Dabei werden die Umfeldobjekte 2 erkannt und deren Bewegungen relativ zu einer Bewegung des Fahrsystems 1 prädiziert. In einem Verfahrensschritt V4 werden die prädizierten Bewegungen der Umfeldobjekte 2 mit den Kartendaten MAP zusammengeführt. Dabei wird wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich 3, in dem Wechselwirkungen zwischen dem Fahrsystem 1 und den Umfeldobjekten 2 stattfinden können, erhalten. In einem Verfahrensschritt V5 wird der Wechselwirkungsbereich 3 auf Sichtfelder von Kamerasensoren des Kamerasystems abgebildet. Dabei werden Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich 3 bestimmt. In einem Verfahrensschritt V6 wird wenigstens der Kamerasensor zur Objekterkennung ausgewählt, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich 3 hat. In einem Verfahrensschritt V7 führt das Kamerasystem oder das Fahrsystem 1 für die Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen aus. In einem Verfahrensschritt V8 werden die aus der Inferenz erhaltenen Umfeldobjekte 2 mit den aus Lidar LIDAR- und/oder Radarinferenz RADAR erhaltenen Umfeldobjekten 2 fusioniert.
-
3 zeigt eine Karte, die eine vordefinierte Route des Fahrsystems 1 oder Fahrzeuges, beispielsweise eines Shuttles zum Personentransport, und die auf dieser Route bestimmten Betriebsbedingungen „Spur folgen“, „Kreuzung“ und „Haltestelle“ des Fahrsystems 1 oder des Fahrzeuges umfasst.
-
Bezugszeichenliste
-
- 1
- Fahrsystem
- 2
- Umfeldobjekt
- 3
- Wechselwirkungsbereich
- LIDAR
- Lidardaten/Lidarsensor
- RADAR
- Radardaten/Radarsensor
- MAP
- Kartendaten
- US
- Ultraschalldaten/Ultraschallsensor
- V1-V8
- Verfahrensschritte
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-