DE102021211255A1 - Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem - Google Patents

Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem Download PDF

Info

Publication number
DE102021211255A1
DE102021211255A1 DE102021211255.2A DE102021211255A DE102021211255A1 DE 102021211255 A1 DE102021211255 A1 DE 102021211255A1 DE 102021211255 A DE102021211255 A DE 102021211255A DE 102021211255 A1 DE102021211255 A1 DE 102021211255A1
Authority
DE
Germany
Prior art keywords
driving system
camera
lidar
data
driving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021211255.2A
Other languages
English (en)
Inventor
Arnold Schlegel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102021211255.2A priority Critical patent/DE102021211255A1/de
Publication of DE102021211255A1 publication Critical patent/DE102021211255A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

Computerimplementiertes Verfahren zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems (1) zur Objekterkennung während einer Fahrt des Fahrsystems umfassend die Schritte: Erhalten von Lidar (LIDAR)- und/oder Radardaten (RADAR) (V1); Erhalten von Kartendaten (MAP) umfassend Betriebsbedingungen des Fahrsystems (1) (V2); Auswerten der Lidar (LIDAR)- und/oder Radardaten (RADAR), wobei Umfeldobjekte (2) erkannt werden und Bewegungen der Umfeldobjekte (2) relativ zu einer Bewegung des Fahrsystems (1) prädiziert werden (V3); Zusammenführen der prädizierten Bewegungen der Umfeldobjekte (2) mit den Kartendaten (MAP), wobei wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich (3), in dem Wechselwirkungen zwischen dem Fahrsystem (1) und den Umfeldobjekten (2) stattfinden können, erhalten wird (V4); Abbilden des Wechselwirkungsbereich (3) auf Sichtfelder von Kamerasensoren des Kamerasystems und Bestimmen von Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich (3) (V5); Auswählen wenigstens des Kamerasensors zur Objekterkennung, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich (3) hat (V6).

Description

  • Die Erfindung betrifft ein computerimplementiertes Verfahren, ein Hardwaremodul und ein Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Ferner betrifft die Erfindung ein automatisiert betreibbares Fahrsystem.
  • L4 AD-Fahrzeuge benötigen eine 360° Multisensor-Sichtfeld-Abdeckung in oder für den Betrieb. Dies erfordert nicht nur eine hohe Anzahl an Sensoren am Fahrzeug, sondern auch Rechenleistung, um auf allen gegebenen Bildern rechnen zu können. Dies ist nicht nur verbrauchsintensiv, zum Beispiel benötigt eine AD Domain ECU oder ein AD Zone Controller unter Volllast neunmal oder noch höher mehr Leistung als im Leerlauf, sondern benötigt auch einige Zeit, um alle Bilder zu verarbeiten. Die Kamerabildinferenz stellt derzeit die größte rechnerische Belastung bei einem Fahrsystem dar. Da in den meisten Fällen nur einige Regionen interessant sind, bringt die konstante 360° -Abdeckung keinen Vorteil.
  • Die US 2020/0355820 A1 offenbart einen fahrzeugseitigen Wahrnehmungssensor, der Umgebungswahrnehmungsdaten aus einer Szene mit ersten und zweiten heterogenen (unterschiedlichen Modalitäts-) Sensoren sammelt. Mindestens einer der heterogenen Sensoren ist auf einen vorgegebenen Interessenbereich richtbar. Ein Wahrnehmungsprozessor empfängt die Umgebungswahrnehmungsdaten und führt die Objekterkennung durch, um jeweils Objekte mit einem berechneten Vertrauensgrad zu identifizieren. Der Prozessor bewertet die Konfidenzbewertung gegenüber einem vorgegebenen Schwellenwert und erzeugt auf Basis dieser Bewertung ein Aufmerksamkeitssignal, um den einen der heterogenen Sensoren auf einen vom anderen heterogenen Sensor identifizierten Interessenbereich umzuleiten. Auf diese Weise werden Informationen von einem Sensor auf den anderen Sensor übertragen, um die Genauigkeit zu erhöhen und vertiefte Kenntnisse über die Szene zu vermitteln und damit eine bessere Objekterfassung in Fahrzeuganwendungen zu erreichen.
  • Aufgabe der Erfindung war es, wie die rechnerische Belastung, insbesondere bei einer Kamerabildinferenz, dort reduziert werden kann, wo sie nicht benötigt wird, und den Energieverbrauch und die Berechnungszeit zu reduzieren.
  • Die Gegenstände der Ansprüche 1, 8, 10 und 11 lösen jeweils diese Aufgabe. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Definitionen, den Unteransprüchen, der Zeichnung und der Beschreibung bevorzugter Ausführungsbeispiele.
  • Nach einem Aspekt stellt die Erfindung ein computerimplementiertes Verfahren bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Verfahren umfasst die Schritte:
    • • Erhalten von Lidar- und/oder Radardaten;
    • • Erhalten von Kartendaten umfassend Betriebsbedingungen des Fahrsystems;
    • • Auswerten der Lidar- und/oder Radardaten, wobei Umfeldobjekte erkannt werden und Bewegungen der Umfeldobjekte relativ zu einer Bewegung des Fahrsystems prädiziert werden;
    • • Zusammenführen der prädizierten Bewegungen der Umfeldobjekte mit den Kartendaten, wobei wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich, in dem Wechselwirkungen zwischen dem Fahrsystem und den Umfeldobjekten stattfinden können, erhalten wird;
    • • Abbilden des Wechselwirkungsbereich auf Sichtfelder von Kamerasensoren des Kamerasystems und Bestimmen von Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich;
    • • Auswählen wenigstens des Kamerasensors zur Objekterkennung, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat.
  • Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines Fahrzeuges auf Systemebene als auch das Fahrzeug als solches. Nach einem Aspekt ist das Fahrsystem ein automatisiert betreibbares, insbesondere ein autonomes Fahrsystem. Autonomes Fahrsystem bezeichnet die Komponenten und Funktionalitäten eines autonom betreibbaren Fahrzeuges, beispielsweise hoch- oder vollautomatisiert, auf Systemebene als auch das autonom betriebene Fahrzeug als solches. Die Erfindung kann sowohl im manuellen als auch im automatisierten Zustand eingesetzt werden.
  • Das Kamerasystem ist Teil eines Umfeldwahrnehmungssystem. Basierend auf der Wahrnehmung plant das Fahrsystem die Bewegung eines Ego-Fahrzeuges und prädiziert die Bewegungen weiterer Objekte, beispielsweise Fremd-Fahrzeugen, Fußgängern, Fahrradfahrern. Basierend auf dieser Planung und Prädiktion bestimmt das Fahrsystem Regel- und/oder Steuersignale für Aktuatoren des Ego-Fahrzeuges zur Längs- und/oder Querführung. Das Kamerasystem kann statische und/oder dynamische Objekte erkennen, klassifizieren, lokalisieren und/oder diese über die Zeit verfolgen, auch tracking genannt. Die Objekterkennung umfasst Erkennen, Klassifizieren, Lokalisieren und/oder Tracken.
  • Kameradaten haben typischerweise eine Bandbreite von wenigsten 300 MB/s, Lidar- und/oder Radardaten hingegen eine bis zu einem Größenfaktor von 102 geringere Bandbreite. Da erfindungsgemäß zunächst keine Kameradaten, sondern Lidar- und/oder Radardaten ausgewertet werden, wird die rechnerische Belastung reduziert. Lidar- und/oder Radardaten umfassen Daten, die von Lidar- und/oder Radarsensoren des Fahrsystems oder des Fahrzeuges aufgenommen wurden, sowohl jeweilige Rohdaten und/oder vorprozessierte Daten.
  • Die Kartendaten sind nach einem Aspekt hochdetaillierte Kartendaten, beispielsweise Daten einer High Definition, abgekürzt HD, Karte. Die Kartendaten werden beispielsweise während der Fahrt per Funktechnologie erhalten, beispielsweise über ein V2X Kommunikationsmodul des Fahrsystems oder des Fahrzeuges. Insbesondere werden Kartendaten von zukünftigen Bereichen einer Fahrstrecke erhalten. Nach einem weiteren Aspekt, insbesondere bei einer vordefinierten und/oder fixen Fahrroute, sind die Kartendaten in einer Speichereinheit des Fahrsystems oder des Fahrzeuges hinterlegt. Die Betriebsbedingungen sind in den Kartendaten hinterlegt oder angegeben. Beispielsweise sind Bereiche, in denen das Fahrsystem oder das Fahrzeug einer Spur zu folgen hat, Kreuzungen, Kreisverkehre, Überquerungsanlagen und/oder Haltestellen in den Kartendaten mit entsprechenden Positionsangaben hinterlegt oder angegeben. Durch das Auswerten der Kartendaten, insbesondere der Betriebsbedingungen, weiß das Fahrsystem schon vorab, welche Bereiche auf der zu befahrenden Strecke von Interesse sind.
  • Im bekannten Stand der Technik wird eine Erkennungsperformanz dadurch gesteigert, dass die Erkennungssoftware eine Region von Interesse definiert, um an den entsprechenden Orten nochmal zu scannen, wo ein Objekt vermutet wird, aber die Konfidenz noch zu gering ist. Erfindungsgemäß werden Karteninformationen genutzt und damit eine Datenrate in der Erkennung reduziert. Ein nochmaliger Scan entfällt.
  • Das Fahrsystem, insbesondere ein automatisiertes oder autonomes Fahrsystem, fährt in der Regel eine Fahrstrecke ab, für die ein vorab aufgestelltes Anforderungsprofil für das Fahrsystem validiert wurde. Beispielsweise umfasst die Fahrstrecke einen Kreisverkehr. Eine Anforderung an das automatisierte Fahrsystem ist dann beispielsweise, einen Kreisverkehr zu erkennen, beispielsweise die entsprechenden Verkehrszeichen, in einen Kreisverkehr einzufahren und auszufahren unter Beachtung der geltenden Verkehrsvorschriften. Ein Steuerungssystem umfassend Algorithmen zur Umfelderkennung, Trajektorienplanung und zum Ableiten von Regel- und/oder Steuerungssignalen und Aktuatoren für Längs- und/oder Querführung des automatisierten Fahrsystems wird davon ausgehend programmiert und konzipiert, für den Einsatzzweck des Fahrens auf dieser Strecke die Fahraufgabe des Fahrens durch den Kreisverkehr zu erfüllen. In der Validierung wird geprüft, ob das automatisierte Fahrsystem für diesen Einsatzzweck diese Fahraufgabe erfüllt. Um die Einsatzfähigkeit von automatisierten Fahrsystemen auf verschiedensten Fahrstrecken zu bewerten, werden Betriebsbedingungen, auch Operational Design Domains, abgekürzt ODD, genannt, betrachtet, unter denen ein bestimmtes automatisiertes Fahrsystem oder ein technisches Merkmal davon für eine bestimmte Funktionalität ausgelegt ist. Die ODD stellt einen Lösungsraum dar, für den der Einsatz von automatisierten Fahrsystemen vorgesehen ist.
  • Das Auswerten der Lidar- und/oder Radardaten erfolgt mit Umfeldwahrnehmungsalgorithmen umfassend Erkennungs-, Klassifizierungs-, Lokalisierungs- und/oder Trackingalgorithmen für einzelne Sensoren und/oder für Datenfusion. Die Algorithmen umfassen nach einem Aspekt trainierte Maschinenlernmodelle, beispielsweise künstliche neuronale Netzwerke für Objekterkennung, beispielsweise Faltungsnetzwerke oder Transformernetzwerke, und deterministische Methoden.
  • Das Zusammenführen der prädizierten Bewegungen mit den Kartendaten entspricht einer Datenfusion, durch die zukünftige Wechselwirkungsbereiche erkannt werden, beispielsweise beim Abbiegen in Kreuzungen oder Kreuzungsbereiche von Trajektorien basierend auf der Bewegungsvorhersage. Dadurch ist bereits vorab bekannt, welche Bereiche von besonderem Interesse sind und daher wahrgenommen werden müssen. Beispielsweise kann ein kleiner Gehweg zwischen Parkplätzen, der nicht gut sichtbar ist, als Wechselwirkungsbereich mit einem Fußgänger erhalten werden basierend auf einer Bewegungsvorhersage eines erkannten Fußgängers in diesem Bereich. Nach einem weiteren Aspekt werden mögliche Wechselwirkungsbereiche vorab in den Kartendaten hinterlegt oder angegeben.
  • Das Abbilden des Wechselwirkungsbereiches auf Sichtfelder der Kamerasensoren wird beispielsweise mittels Koordinatentransformationen zwischen den Bezugssystemen der Kamerasensoren und eines Weltsystems um den Zeitpunkt der prädizierten Wechselwirkung durchgeführt.
  • Die Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich werden beispielsweise mittels bekannten Intersection-Of-Regions-Methoden bestimmt.
  • Dadurch, dass zur Objekterkennung der, insbesondere nur der, Kamerasensor ausgewählt wird, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat, wird die rechnerische Belastung weiter reduziert, beispielsweise um einen Faktor 5, da nur ein Kamerasensor anstatt beispielsweise 5 Kamerasensoren benötigt wird. Dadurch wird sowohl die Belastung durch das Kamerasystem als auch der Energieverbrauch des gesamten Fahrsystems reduziert.
  • Nach einem weiteren Aspekt stellt die Erfindung ein Hardwaremodul bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Hardwaremodul umfasst:
    • • eine oder mehrere Eingangsschnittstellen, über die das Hardwaremodul Daten von wenigstens Lidar- und/oder Radarsensoren des Fahrsystems zur Umfelderfassung und Kartendaten umfassend Betriebsbedingungen des Fahrsystems erhält;
    • • eine oder mehrere Schnittstellen zu einem Kamerasystem des Fahrsystems, über die das Hardwaremodul das Kamerasystem ansteuert;
    • • eine Prozessiereinheit, die basierend auf den Daten Umfeldobjekte erkennt und Bewegungen der Umfeldobjekte relativ zu einer Bewegung des Fahrsystems prädiziert, wobei die Prozessiereinheit
      • ◯ die prädizierten Bewegungen der Umfeldobjekte mit den Kartendaten zusammenführt und einen Wechselwirkungsbereich, in dem Wechselwirkungen zwischen dem Fahrsystem und den Umfeldobjekten stattfinden können, bestimmt;
      • ◯ den Wechselwirkungsbereich auf Sichtfelder von Kamerasensoren des Kamerasystems abbildet und Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich bestimmt;
      • ◯ wenigstens den Kamerasensor zur Objekterkennung auswählt, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich hat;
      • ◯ auf Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen ausführt.
  • Das Hardwaremodule kann integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung, umfassen. Die integrierte Schaltungselemente und Schaltkreise, beispielsweise ICs, ASICs, FPGAs, CPUs, GPUs, systems on chips oder Hochleistungscomputer zur Signalverarbeitung, können eine anwendungsspezifische Hardwareeinheit des Kamerasystems bilden.
  • Nach einem weiteren Aspekt stellt die Erfindung ein Computerprogramm bereit zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems zur Objekterkennung während einer Fahrt des Fahrsystems. Das Computerprogramm umfasst Befehle, die einen Computer veranlassen, ein erfindungsgemäßes Verfahren auszuführen, wenn das Computerprogramm von dem Computer ausgeführt wird.
  • Die Befehle des erfindungsgemäßen Computerprogramms umfassen Maschinenbefehle, Quelltext oder Objektcode geschrieben in Assemblersprache, einer objektorientierten Programmiersprache, beispielsweise C++, oder in einer prozeduralen Programmiersprache, beispielsweise C. Das Computerprogramm ist nach einem Aspekt der Erfindung ein Hardware unabhängiges Anwendungsprogramm, das beispielsweise über einen Datenträger oder ein Datenträgersignal, nach einem Aspekt mittels Software Over The Air Technologie, für eine beliebige Hardware bereitgestellt wird, beispielsweise über eine Middleware. Nach einem weiteren Aspekt ist das Computerprogramm ein Hardware abhängiges Programm, beispielsweise eine Firmware eines erfindungsgemäßen Hardwaremoduls oder eines Steuermoduls eines autonomen Fahrsystems. Der Datenträger umfasst flüchtige Speicher, beispielsweise RAM, DRAM, SRAM, und nichtflüchtige Speicher, beispielsweise ROM, Flash-EEPROM. Die Datenträger sind beispielsweise Flash-Speicherkarten, USB-Sticks. Nach einem Aspekt der Erfindung wird der Datenträger an ein In/Out System eines Fahrsystems, beispielsweise eines Mikrocontrollers, des Fahrsystems angeschlossen und überträgt das Computerprogramm in den Mikrocontroller.
  • Nach einem weiteren Aspekt stellt die Erfindung ein automatisiert betreibbares Fahrsystem bereit umfassend eine Elektronikeinheit, ausgeführt, ein erfindungsgemäßes Verfahren auszuführen, oder ein integriertes erfindungsgemäßes Hardwaremodul. Das Fahrsystem betrifft beispielsweise ein Straßenfahrzeug, beispielsweise einen PKW, LKW, Bus, People/Cargo Mover, Shuttle, Taxi, und/oder ein Fahrzeug, das auf eingegrenzten Arealen eingesetzt wird, beispielsweise fahrerlose Flurförderfahrzeuge, beispielsweise Containertransporter auf Hafengeländen und/oder Gabelstapler in Industriehallen. Nach einem Aspekt betrifft das Fahrsystem ein SAE J3016 Level 4 Fahrsystem, beispielsweise einen People Mover oder ein Shuttle, beispielsweise einen People Mover oder ein Shuttle, die eine definierte Route/Buslinie abfahren.
  • Nach einem weiteren Aspekt umfassen die Betriebsbedingungen hinsichtlich Objekterkennung Bereiche von Interesse, sogenannte Regions of Interest, abgekürzt ROI, beispielsweise Zebrastreifen. Nach einem weiteren Aspekt sind die ROIs in eine ODD Beschreibung eingefügt. Dadurch ist vorab, das heißt vor dem Erreichen des jeweiligen Bereiches, bekannt, wohin das Kamerasystem ausgerichtet werden kann zur Objekterkennung. Damit kann auch Bandbreite eingespart werden.
  • Nach einem weiteren Aspekt wird das Kamerasystem auf Positionen von aus den Kartendaten erhaltenen Betriebsbedingungen mit einer relativ zu anderen Positionen größeren Abtastfrequenz und/oder größeren Verweildauer ausgerichtet. Dadurch kann das Kamerasystem auf bestimmte Bereiche häufiger und länger ausgerichtet werden, insbesondere auf ROls.
  • Nach einem weiteren Aspekt umfassen die Betriebsbedingungen Verkehrszeichen, semantische Elemente und/oder Elemente einer Infrastruktur umfassend Straßengeometrie und/oder Straßenarten. Verkehrszeichen umfassen beispielsweise Haltestellenzeichen für eine Personenbeförderungs-Linien, Zeichen für Überquerungsanlagen, beispielsweise Zebrastreifen, und/oder Zeichen von Lichtanlagen, beispielsweise Ampeln. Semantische Elemente umfassen beispielsweise Vegetationsbereiche, beispielsweise Bereiche mit Baumbewuchs oder Grünparkanlagen. Straßengeometrien umfassen Kurve, Hügel, geradlinig, Spurbreite. Straßenarten umfassen Autobahn, Bundesstraße, Landstraße, Brücke, Tunnels, jeweils mehr- oder einspurig, Kreuzungen, Kreisverkehre, Spurzusammenführungen, Straßenüberquerungen. Die Verkehrszeichen und Positionen der entsprechenden Verkehrselemente, semantischen Elemente, Straßengeometrien und/oder Straßenarten, beispielsweise Haltestellen, Zebrastreifen und/oder Ampeln, Bereiche mit Baumbewuchs und/oder Grünparkanlagen, Kurve, Kreuzungen, Kreisverkehre, sind in der Karte hinterlegt, das heißt die Kartendaten umfassen die entsprechenden Positionsangaben.
  • Nach einem weiteren Aspekt werden Ultraschall- und/oder Akustikdaten erhalten zur Erkennung von und Prädiktion der Bewegungen der Umfeldobjekte. Durch die Verwendung weiterer Sensortechnologien wird die Erkennung von und Prädiktion der Bewegungen der Umfeldobjekte verbessert.
  • Nach einem weiteren Aspekt führt das Kamerasystem oder das Fahrsystem für Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen aus. Deterministische Methoden umfassen beispielsweise voting-Verfahren. Insbesondere, wenn mehr als ein Kamerasensor ausgewählt wird, können Mehrheits-voting-Verfahren, beispielsweise 2 aus 3, angewendet werden. Bei der auf Objekterkennung mittels trainierten Maschinenlernmodellen basierenden Inferenz werden solche Maschinenlernmodelle eingesetzt, deren Inferenz erprobt wurde und die abgesichert gegen Cyberangriffe, umfassend adversarial attacks, sind. Das erfindungsgemäße Verfahren ist sicherheitskritisch, da eine Falsch-Negativ-Erkennung dazu führen könnte, dass einige relevante Objekte nicht erkannt werden können. Dieser Aspekt ist durch die deterministischen Ansätze und den Einsatz von erprobten und abgesicherten Maschinenlernmodellen berücksichtigt.
  • Nach einem weiteren Aspekt werden die aus der Kamera basierten Inferenz erhaltenen Umfeldobjekte mit den aus Lidar- und/oder Radarinferenz erhaltenen Umfeldobjekten fusioniert. Dadurch wird die Sicherheit und Redundanz des Verfahrens erhöht.
  • Nach einem weiteren Aspekt ist das Hardwaremodul ausgeführt, ein erfindungsgemäßes Verfahren auszuführen.
  • Die Erfindung wird in dem folgenden Ausführungsbeispiel verdeutlicht. Es zeigen:
    • 1 ein Ausführungsbeispiel eines Wechselwirkungsbereichs,
    • 2 ein Ausführungsbeispiel eines erfindungsgemäßen Verfahrens und
    • 3 ein Ausführungsbeispiel von Kartendaten.
  • In den Figuren bezeichnen gleiche Bezugszeichen gleiche oder funktionsähnliche Bezugsteile. Übersichtshalber werden in den einzelnen Figuren nur die jeweils relevanten Bezugsteile hervorgehoben.
  • 1 zeigt ein Egofahrzeug oder ein Fahrsystem 1 zum automatisierten Betrieb des Egofahrzeuges. Das Egofahrzeug ist beispielsweise ein PKW oder ein People/Cargo Mover. Das Egofahrzeug fährt beispielsweise auf einer zweispurigen Autobahn. Umfeldobjekte 2 umfassen Fahrzeuge auf der Autobahn, beispielsweise in derselben Spur wie das Egofahrzeug vorausfahrende Fahrzeuge, Fahrzeuge auf einer Überholspur und Fahrzeuge im Gegenverkehr. Basierend auf einer Auswertung von Lidar-LIDAR und/oder Radardaten Radar wurde für diese Betriebsbedingung „Fahrt auf einer zweispurigen Autobahn“ ein Wechselwirkungsbereich 3 erfindungsgemäß bestimmt. Der Wechselwirkungsbereich 3 ist keine vollständige 360° Abdeckung des Umfeldes, sondern lediglich ein Bereich, in dem basierend auf prädizierten Bewegungen der Umfeldobjekte 2 relativ zu einer Bewegung des Fahrsystems 1 eine Wechselwirkung zukünftig stattfinden könnte.
  • 2 zeigt schematisch die Schritte eines erfindungsgemäßen Verfahrens. In einem Verfahrensschritt V1 werden die Lidar LIDAR- und/oder Radardaten RADAR erhalten. In einem Verfahrensschritt V2 werden Kartendaten MAP umfassend Betriebsbedingungen des Fahrsystems 1 erhalten. In einem Verfahrensschritt V3 werden die Lidar LIDAR- und/oder Radardaten RADAR ausgewertet. Dabei werden die Umfeldobjekte 2 erkannt und deren Bewegungen relativ zu einer Bewegung des Fahrsystems 1 prädiziert. In einem Verfahrensschritt V4 werden die prädizierten Bewegungen der Umfeldobjekte 2 mit den Kartendaten MAP zusammengeführt. Dabei wird wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich 3, in dem Wechselwirkungen zwischen dem Fahrsystem 1 und den Umfeldobjekten 2 stattfinden können, erhalten. In einem Verfahrensschritt V5 wird der Wechselwirkungsbereich 3 auf Sichtfelder von Kamerasensoren des Kamerasystems abgebildet. Dabei werden Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich 3 bestimmt. In einem Verfahrensschritt V6 wird wenigstens der Kamerasensor zur Objekterkennung ausgewählt, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich 3 hat. In einem Verfahrensschritt V7 führt das Kamerasystem oder das Fahrsystem 1 für die Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen aus. In einem Verfahrensschritt V8 werden die aus der Inferenz erhaltenen Umfeldobjekte 2 mit den aus Lidar LIDAR- und/oder Radarinferenz RADAR erhaltenen Umfeldobjekten 2 fusioniert.
  • 3 zeigt eine Karte, die eine vordefinierte Route des Fahrsystems 1 oder Fahrzeuges, beispielsweise eines Shuttles zum Personentransport, und die auf dieser Route bestimmten Betriebsbedingungen „Spur folgen“, „Kreuzung“ und „Haltestelle“ des Fahrsystems 1 oder des Fahrzeuges umfasst.
  • Bezugszeichenliste
  • 1
    Fahrsystem
    2
    Umfeldobjekt
    3
    Wechselwirkungsbereich
    LIDAR
    Lidardaten/Lidarsensor
    RADAR
    Radardaten/Radarsensor
    MAP
    Kartendaten
    US
    Ultraschalldaten/Ultraschallsensor
    V1-V8
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 20200355820 A1 [0003]

Claims (11)

  1. Computerimplementiertes Verfahren zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems (1) zur Objekterkennung während einer Fahrt des Fahrsystems umfassend die Schritte • Erhalten von Lidar (LIDAR)- und/oder Radardaten (RADAR) (V1); • Erhalten von Kartendaten (MAP) umfassend Betriebsbedingungen des Fahrsystems (1) (V2); • Auswerten der Lidar (LIDAR)- und/oder Radardaten (RADAR), wobei Umfeldobjekte (2) erkannt werden und Bewegungen der Umfeldobjekte (2) relativ zu einer Bewegung des Fahrsystems (1) prädiziert werden (V3); • Zusammenführen der prädizierten Bewegungen der Umfeldobjekte (2) mit den Kartendaten (MAP), wobei wenigstens eine der Betriebsbedingungen, die sich mit den prädizierten Bewegungen überschneidet, als Wechselwirkungsbereich (3), in dem Wechselwirkungen zwischen dem Fahrsystem (1) und den Umfeldobjekten (2) stattfinden können, erhalten wird (V4); • Abbilden des Wechselwirkungsbereich (3) auf Sichtfelder von Kamerasensoren des Kamerasystems und Bestimmen von Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich (3) (V5); • Auswählen wenigstens des Kamerasensors zur Objekterkennung, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich (3) hat (V6).
  2. Verfahren nach Anspruch 1, wobei die Betriebsbedingungen hinsichtlich Objekterkennung Bereiche von Interesse umfassen.
  3. Verfahren nach einem der vorangehenden Ansprüche, wobei das Kamerasystem auf Positionen von aus den Kartendaten erhaltenen Betriebsbedingungen mit einer relativ zu anderen Positionen größeren Abtastfrequenz und/oder größeren Verweildauer ausgerichtet wird.
  4. Verfahren nach einem der vorangehenden Ansprüche, wobei die Betriebsbedingungen Verkehrszeichen, semantische Elemente und/oder Elemente einer Infrastruktur umfassend Straßengeometrie und/oder Straßenarten umfassen.
  5. Verfahren nach einem der vorangehenden Ansprüche, wobei Ultraschall (US)- und/oder Akustikdaten erhalten werden zur Erkennung von und Prädiktion der Bewegungen der Umfeldobjekte (2).
  6. Verfahren nach einem der vorangehenden Ansprüche, wobei das Kamerasystem oder das Fahrsystem für Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen ausführt (V7).
  7. Verfahren nach Anspruch 6, wobei die aus der Inferenz erhaltenen Umfeldobjekte (2) mit den aus Lidar (LIDAR)- und/oder Radarinferenz (RADAR) erhaltenen Umfeldobjekten (2) fusioniert werden (V8).
  8. Hardwaremodul zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems (1) zur Objekterkennung während einer Fahrt des Fahrsystems (1) umfassend • eine oder mehrere Eingangsschnittstellen, über die das Hardwaremodul Daten von wenigstens Lidar (LIDAR)- und/oder Radarsensoren (RADAR) des Fahrsystems (1) zur Umfelderfassung und Kartendaten (MAP) umfassend Betriebsbedingungen des Fahrsystems (1) erhält; • eine oder mehrere Schnittstellen zu einem Kamerasystem des Fahrsystems (1), über die das Hardwaremodul das Kamerasystem ansteuert; • eine Prozessiereinheit, die basierend auf den Daten Umfeldobjekte (2) erkennt und Bewegungen der Umfeldobjekte (2) relativ zu einer Bewegung des Fahrsystems (1) prädiziert, wobei die Prozessiereinheit o die prädizierten Bewegungen der Umfeldobjekte (2) mit den Kartendaten (MAP) zusammenführt und einen Wechselwirkungsbereich (3), in dem Wechselwirkungen zwischen dem Fahrsystem (1) und den Umfeldobjekten (2) stattfinden können, bestimmt; o den Wechselwirkungsbereich (3) auf Sichtfelder von Kamerasensoren des Kamerasystems abbildet und Schnittmengen aus den jeweiligen Sichtfeldern und dem Wechselwirkungsbereich (3) bestimmt; ◯ wenigstens den Kamerasensor zur Objekterkennung auswählt, dessen Sichtfeld eine relativ große Schnittmenge mit dem Wechselwirkungsbereich (3) hat; ◯ auf Daten des wenigstens einen ausgewählten Kamerasensors eine Inferenz mittels deterministischen Methoden oder mittels auf Objekterkennung trainierten Maschinenlernmodellen ausführt.
  9. Hardwaremodul nach Anspruch 8, ausgeführt, ein Verfahren nach einem der Ansprüche 2 bis 5 oder nach Anspruch 7 auszuführen.
  10. Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsystems (1) zur Objekterkennung während einer Fahrt des Fahrsystems (1) umfassend Befehle, die einen Computer veranlassen, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen, wenn das Computerprogramm von dem Computer ausgeführt wird.
  11. Automatisiert betreibbares Fahrsystem (1) umfassend eine Elektronikeinheit, ausgeführt, ein Verfahren nach einem der Ansprüche 1 bis 7 auszuführen, oder ein integriertes Hardwaremodul nach Anspruch 8 oder 9.
DE102021211255.2A 2021-10-06 2021-10-06 Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem Pending DE102021211255A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021211255.2A DE102021211255A1 (de) 2021-10-06 2021-10-06 Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021211255.2A DE102021211255A1 (de) 2021-10-06 2021-10-06 Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Publications (1)

Publication Number Publication Date
DE102021211255A1 true DE102021211255A1 (de) 2023-04-06

Family

ID=85570945

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021211255.2A Pending DE102021211255A1 (de) 2021-10-06 2021-10-06 Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Country Status (1)

Country Link
DE (1) DE102021211255A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006850A1 (de) 2006-02-15 2007-08-30 Bayerische Motoren Werke Ag Verfahren zur Ausrichtung eines verschwenkbaren Fahrzeugsensors
DE102007049516A1 (de) 2006-10-13 2008-04-24 A.D.C. Automotive Distance Control Systems Gmbh System zur Bestimmung von Objekten
DE102008061301A1 (de) 2007-12-11 2009-06-18 Continental Teves Ag & Co. Ohg Fahrerassistenz mit fusionierten Sensordaten
DE102013201545A1 (de) 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
US20200209869A1 (en) 2017-09-22 2020-07-02 Sony Corporation Information processing device, autonomous mobile device, method, and program
US20200355820A1 (en) 2019-05-08 2020-11-12 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
DE102020200876A1 (de) 2020-01-24 2021-07-29 Zf Friedrichshafen Ag Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006850A1 (de) 2006-02-15 2007-08-30 Bayerische Motoren Werke Ag Verfahren zur Ausrichtung eines verschwenkbaren Fahrzeugsensors
DE102007049516A1 (de) 2006-10-13 2008-04-24 A.D.C. Automotive Distance Control Systems Gmbh System zur Bestimmung von Objekten
DE102008061301A1 (de) 2007-12-11 2009-06-18 Continental Teves Ag & Co. Ohg Fahrerassistenz mit fusionierten Sensordaten
DE102013201545A1 (de) 2013-01-30 2014-07-31 Bayerische Motoren Werke Aktiengesellschaft Erstellen eines Umfeldmodells für ein Fahrzeug
US20200209869A1 (en) 2017-09-22 2020-07-02 Sony Corporation Information processing device, autonomous mobile device, method, and program
US20200355820A1 (en) 2019-05-08 2020-11-12 GM Global Technology Operations LLC Selective attention mechanism for improved perception sensor performance in vehicular applications
DE102020200876A1 (de) 2020-01-24 2021-07-29 Zf Friedrichshafen Ag Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102018133576A1 (de) Trajektorienplaner mit dynamischem kostenlernen für autonomes fahren
DE102018115263A1 (de) Systeme und verfahren zur vorhersage von verkehrsmustern in einem autonomen fahrzeug
DE102019125303A1 (de) Reinigung des fahrzeugsensors
DE102019112038A1 (de) Steuerungssysteme, steuerungsverfahren und steuerungen für ein autonomes fahrzeug
DE102018122459A1 (de) Fernunterstützungsmodus eines fahrzeugs
DE102018105693A1 (de) Strassenbau-Erfassungssysteme und -Verfahren
DE102019100569A1 (de) Systeme und verfahren zum mindern von ungeschützten manövern in autonomen fahrzeugen
DE102018129077A1 (de) Systeme und verfahren zum einfahren in den verkehrsfluss von autonomen fahrzeugen
EP3616181A1 (de) Verfahren zum automatischen erstellen und aktualisieren eines datensatzes für ein autonomes fahrzeug
DE102019115059A1 (de) System zum ableiten eines autonomen fahrzeugs, das eine fahrbare karte ermöglicht
DE102018121791A1 (de) Systeme und Verfahren zur Bestimmung des Vorhandenseins von Verkehrssteuerungspersonal und Verkehrsleitschildern
DE102017201663A1 (de) Verfahren zur Lokalisierung eines höher automatisierten, z.B. hochautomatisierten Fahrzeugs (HAF) in einer digitalen Lokalisierungskarte
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102016219503A1 (de) Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur
EP3091368B1 (de) Verfahren zum betrieb eines radarsensors in einem kraftfahrzeug, radarsensor und kraftfahrzeug
DE112021005708T5 (de) Verfahren und Systeme zur Verfolgung einer Fahrspur über die Zeit
DE102018212033A1 (de) Verfahren und Steuergerät zum Bestimmen einer Fahrttrajektorie für ein querdynamisches Fahrmanöver für ein Fahrzeug
DE102018209804A1 (de) Verfahren und Vorrichtung zur Vorhersage einer wahrscheinlichen Fahrroute für ein Fahrzeug
DE112021006807T5 (de) Verfahren und Systeme für ein sicheres spurabweichendes Fahren
DE112021006148T5 (de) Verfahren und System zur Bestimmung eines Bewegungsmodells zur Bewegungsvorhersage bei der Steuerung autonomer Fahrzeuge
DE102020202476A1 (de) Verfahren und Vorrichtung zum Schätzen mindestens eines Objektzustandes eines beweglichen Objektes im Umfeld eines Fahrzeugs
DE102020101832A1 (de) Verfahren und systeme zum interpretieren von verkehrssignalen und passieren von signalisierten kreuzungen
DE102019129737A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102021211255A1 (de) Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed