DE102021000359A1 - Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors - Google Patents

Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors Download PDF

Info

Publication number
DE102021000359A1
DE102021000359A1 DE102021000359.4A DE102021000359A DE102021000359A1 DE 102021000359 A1 DE102021000359 A1 DE 102021000359A1 DE 102021000359 A DE102021000359 A DE 102021000359A DE 102021000359 A1 DE102021000359 A1 DE 102021000359A1
Authority
DE
Germany
Prior art keywords
lidar
lidar sensor
vehicle
vehicles
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021000359.4A
Other languages
English (en)
Inventor
David Peter
Peter Pinggera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102021000359.4A priority Critical patent/DE102021000359A1/de
Publication of DE102021000359A1 publication Critical patent/DE102021000359A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • G01S7/4876Extracting wanted echo signals, e.g. pulse detection by removing unwanted signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung von falsch-positiven Erkennungen (E) eines Lidarsensors (1) bei einem Scanvorgang einer Fahrzeugumgebung. Erfindungsgemäß werden in einem Objekterkennungsverfahren und/oder anhand semantischer Segmentierung Fahrzeuge (6, 9, 13) in mittels des Lidarsensors (1) erfassten Daten erkannt. Anschließend werden aus Sicht des Lidarsensors (1) alle durch erkannte Fahrzeuge (6, 9, 13) verdeckten Lidarmessungen (M) als potenzielle falsch-positive Erkennungen (E) markiert und/oder Lidarmessungen (M), welche vollständig von Messpunkten umgeben sind, die zu erkannten Fahrzeugen (6, 9, 13) gehören, einer Fahrzeug-Objektklasse zugeordnet.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors bei einem Scanvorgang einer Fahrzeugumgebung.
  • Aus der DE 199 47 593 A1 ist ein Radargerät für ein Fahrzeug, welches an einem Fahrzeug zu befestigen ist, bekannt. Das Radargerät weist eine Radarstrahlabtasteinrichtung zur Abtastung eines Abtastbereichs mit einem Radarstrahl parallel zu einer Fahrbahnoberfläche, auf der das Fahrzeug fährt, auf. Weiterhin weist das Radargerät eine Objekterfassungseinrichtung zum Empfangen reflektierter Wellen des Radarstrahls zum Erstellen eines erfassten Objektbildes, beruhend auf den reflektierten Wellen, auf, wobei die Objekterfassungseinrichtung eine Geisterechobestimmungseinrichtung zur Bestimmung, ob ein erstelltes erfasstes Objektbild ein Geisterecho ist, umfasst.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegeben Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In dem Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors bei einem Scanvorgang einer Fahrzeugumgebung werden erfindungsgemäß in einem Objekterkennungsverfahren und/oder anhand semantischer Segmentierung Fahrzeuge in mittels des Lidarsensors erfassten Daten erkannt. Anschließend werden aus Sicht des Lidarsensors alle durch erkannte Fahrzeuge verdeckten Lidarmessungen als potenzielle falsch-positive Erkennungen markiert und/oder Lidarmessungen, welche vollständig von Messpunkten umgeben sind, die zu erkannten Fahrzeugen gehören, einer Fahrzeug-Objektklasse zugeordnet.
  • Mittels des Verfahrens ist in zuverlässiger Weise eine Bestimmung von falsch-positiven Erkennungen, auch als Geisterziele oder Geisterecho bezeichnet, eines Lidars bei einem Scanvorgang einer Fahrzeugumgebung realisierbar. Somit ist es möglich, schwerwiegende Einschränkungen eines Lidars in realen Verkehrsszenen zu vermeiden und eine sichere und robuste Umgebungserfassung zu realisieren. Somit kann eine Zuverlässigkeit eines Betriebs von Fahrerassistenzsystemen, insbesondere auch von automatisiert, insbesondere hochautomatisiert oder autonom fahrenden Fahrzeugen erhöht werden.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch einen Lidarsensor, ein Objekt und einen Verlauf von Laserstrahlung bei einer diffusen Reflexion an dem Objekt,
    • 2 schematisch einen Lidarsensor, zwei Objekte und einen Verlauf von Laserstrahlung bei einer spiegelähnlichen Reflexion an einem der Objekte und einer diffusen Reflexion an dem anderen Objekt,
    • 3 schematisch einen Lidarsensor, zwei Objekte und ein Geisterobjekt sowie einen Verlauf von Laserstrahlung,
    • 4 schematisch eine Seitenansicht eines Verkehrsszenarios,
    • 5 schematisch eine Draufsicht eines Verkehrsszenarios,
    • 6 schematisch eine Seitenansicht eines Verkehrsszenarios nach einer Durchführung einer semantischen Segmentierung,
    • 7 schematisch eine Seitenansicht des Verkehrsszenarios gemäß 6 nach einer Durchführung eines Flutfüllalgorithmus,
    • 8 schematisch eine Seitenansicht des Verkehrsszenarios gemäß 6 nach einer Durchführung eines Clustering und
    • 9 schematisch eine Seitenansicht des Verkehrsszenarios gemäß 6 nach einer Durchführung eines Labelings.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 sind ein Lidarsensor 1, ein Objekt 2 und ein Verlauf von Laserstrahlung L1 , L2 bei einer diffusen Reflexion an dem Objekt 2 dargestellt.
  • Lidarsensoren 1 sind für in 4 näher dargestellte Fahrzeuge 5 und deren Fahrerassistenzsysteme, beispielsweise für automatisiert, insbesondere hochautomatisiert oder autonom fahrende Fahrzeuge 5, sehr wichtig zu einer Erfassung einer Fahrzeugumgebung, da mittels Lidarsensoren 1 ein präzises dreidimensionales Verständnis einer das Fahrzeug 5 umgebenden Verkehrsszene möglich ist. Um in einem solchen sicherheitskritischen Szenario eingesetzt zu werden, ist es jedoch entscheidend, in 5 näher dargestellte falsch-positive Erkennungen E, so genannte Geisterziele oder Geisterechos, bzw. falsch-positive Abstandsmessungen der Lidarsensoren 1 zu bestimmen. Eine Nicht-Erfassung solcher falsch-positiver Erkennungen E kann zu gefährlichen automatischen Eingriffen in eine Längs- und/oder Querführung des Fahrzeugs 5 führen, woraus gefährliche Situationen, beispielsweise ungerechtfertigte Notbremsungen, resultieren können.
  • Lidarsensoren 1 zeichnen sich im Allgemeinen durch sehr kleine falsch-positive Raten, das heißt niedrige Rauschpegel, aus. Bei den meisten Zielmaterialien wird die einfallende Laserstrahlung L1 , L2 diffus reflektiert, d. h. in alle möglichen Richtungen. Dies bedeutet, dass ein Teil des Lichts direkt in den Lidarsensor 1 zurückreflektiert wird, was eine präzise Entfernungsmessung ermöglicht.
  • Auf stark reflektierenden Oberflächen kann jedoch eine Spiegelreflexion dominieren. Dies ist in 2 näher dargestellt, wobei 2 einen Lidarsensor 1, zwei Objekte 2, 3 und einen Verlauf von Laserstrahlung L1 , L2 bei einer spiegelähnlichen Reflexion an einem der Objekte 3 und einer diffusen Reflexion an dem anderen Objekt 2 zeigt.
  • Dabei wird die Laserstrahlung L1 vom Lidarsensor 1 weggelenkt, wo diese als Laserstrahlung L2 möglicherweise auf andere nicht spiegelnd reflektierende Oberflächen, wie beispielsweise das Objekt 2 treffen kann. Dabei misst der Lidarsensor 1 nicht einen Abstand der Laserstrahlung L1 zur Oberfläche des Objekts 3, sondern eine Gesamtlänge eines Zick-Zack-Pfades beider Laserstrahlungen L1 , L2 .
  • Dem Lidarsensor 1 liegt dabei keine Information vor, die darauf hinweist, dass die Laserstrahlung L2 umgeleitet wurde, so dass von einer Entfernungsmessung entlang einer geraden Linie ausgegangen wird. Somit ergibt sich eine falsch-positive Erkennung E entlang einer anfänglichen Aussenderichtung entlang der Laserstrahlung L1 , woraus eine Erkennung eines in 3 gezeigten Geisterobjekts 4 resultiert.
  • Dies stellt ein grundlegendes Problem dar, welches unbeachtet zu kritischen Fehlern führen kann. In realen Verkehrsszenen erscheinen stark spiegelnde reflektierende Oberflächen häufig in Form von Fensterscheiben 7 anderer Fahrzeuge 6 (dargestellt in 4). Selbst wenn diese nicht perfekt spiegelnd reflektieren, lenken sie jedoch zumindest einen Teil der einfallenden Laserstrahlung L1 ab. Wenn die abgelenkte Laserstrahlung L2 dann auf ein stark reflektierendes sekundäres Objekt 2 trifft, beispielsweise ein Verkehrszeichen 8, kann ein daraus resultierender indirekter Pfad einen direkten Pfad, beispielsweise gebildet durch eine diffuse Reflexion an der Fensterscheibe eines Fahrzeugs, dominieren.
  • Eine solche Situation ist beispielhaft in 4 dargestellt. 4 zeigt dabei ein Verkehrsszenario mit einem Fahrzeug 5, welches den Lidarsensor 1 aufweist, einem vor diesem befindlichen, als weiteres Fahrzeug 6 ausgebildeten Objekt 3, einem als Verkehrszeichen 8 ausgebildeten weiteren Objekt 2 und einem Geisterobjekt 4.
  • Ein solches Geisterobjekt 4 erscheint dabei auf einer Fahrbahn FB vor dem Fahrzeug 5. Solche falsch-positiven Erkennungen E können über längere Zeiträume konsistent sein, können jedoch auch eine ungewöhnliche Dynamik aufweisen, da eine genaue Position von einer relativen Entfernung zwischen den beiden Fahrzeugen 5, 6 und einer Entfernung zwischen einem primären und einem sekundären Ziel, beispielsweise der Fensterscheibe 7 und dem Verkehrszeichen 8, abhängt. Werden derartige Reflexionseffekte nicht erkannt, besteht die Gefahr, dass ein Fahrerassistenzsystem oder ein System zum automatisierten Fahrbetrieb des Fahrzeugs 5 auf das Geisterobjekt 4 reagiert, und einen falschen Eingriff in eine Längs- und/oder Quersteuerung des Fahrzeugs 5, beispielsweise eine Notbremsung oder ein Ausweichmanöver, einleitet.
  • Um eine Erkennung von falsch-positiven Erkennungen E und daraus folgend eine zuverlässige Erkennung von Geisterobjekten 4 zu ermöglichen, ist eine Bestimmung von falsch-positiven Erkennungen E eines Lidarsensors 1 bei einem Scanvorgang einer Fahrzeugumgebung vorgesehen, welche anhand der folgenden 5 bis 9 beschrieben wird.
  • In 5 ist eine Draufsicht eines Verkehrsszenarios dargestellt. In dem Verkehrsszenario befindet sich ein Fahrzeug 5 mit einem Lidarsensor 1 auf einer Fahrbahn FB. Rechts vor dem Fahrzeug 5 befindet sich ein als weiteres Fahrzeug 9 ausgebildetes Objekt 10. Links vor dem Fahrzeug 5 befindet sich ein als weiteres Fahrzeug 6 ausgebildetes Objekt 3. Vor dem Fahrzeug 5 über der Fahrbahn befindet sich ein als Verkehrszeichen 8 ausgebildetes stark reflektierendes sekundäres Objekt 2. Links neben dem Fahrzeug 5 befindet sich ein als Fußgänger 11 ausgebildetes Objekt 12.
  • In realen Verkehrsszenarien werden fahrrelevante Spiegelreflexionsartefakte am häufigsten von anderen Fahrzeugen 6, 9 verursacht. Trifft beispielsweise von einer Fensterscheibe 7 des Fahrzeugs 6 abgelenkte Laserstrahlung L2 auf ein stark reflektierendes sekundäres Objekt 2, hier das Verkehrszeichen 8, kann ein daraus resultierender indirekter Pfad einen direkten Pfad, beispielsweise gebildet durch eine diffuse Reflexion an der Fensterscheibe 7 des Fahrzeugs 6, dominieren.
  • Es gibt auch einige Reflexionen, die von anderen reflektierenden Oberflächen wie Glasscheiben oder Schaufenstern erzeugt werden. Daraus resultierende Reflexionsartefakte sind jedoch für ein Fahrzeugverhalten, insbesondere eine Trajektorieplanung, im Allgemeinen irrelevant, da sie häufig innerhalb oder hinter Gebäuden auftreten, in denen ein Betrieb des Fahrzeugs 5 nicht möglich ist. In ähnlicher Weise erscheinen Spiegelreflexionen von nassen Fahrbahnoberflächen unterhalb der realen Fahrbahnoberfläche und sind daher in einfacher Weise filterbar.
  • Um verbleibende Reflexionsartefakte von anderen Verkehrsteilnehmern zu erkennen, werden vorliegend allgemein verfügbare Objekterkennungsverfahren und/oder semantische Segmentierungsnetzwerke verwendet, um Fahrzeuge 6, 9 in mittels des Lidarsensors 1 erfassten Daten zu erkennen. Anschließend werden aus Sicht des Lidarsensors 1 alle durch erkannte Fahrzeuge 6, 9 verdeckten Lidarmessungen M als potenzielle falsch-positive Erkennungen E markiert und/oder Lidarmessungen M, welche vollständig von Messpunkten umgeben sind, die zu erkannten Fahrzeugen 6, 9 gehören, werden einer Fahrzeug-Objektklasse zugeordnet.
  • Hierbei werden in einem möglichen Ausführungsbeispiel des erfindungsgemäßen Verfahrens beispielsweise allgemein bekannte Objekterkennungsverfahren bzw. Objekterkennungsnetzwerke verwendet, mittels welcher Fahrzeuge 6, 9, beispielsweise Personenkraftwagen, Busse, Lastkraftwagen usw., in den vom Lidarsensor 1 erfassten Daten erkannt werden. Eine Ausgabe der erkannten Fahrzeuge 6, 9 erfolgt beispielsweise als Liste von so genannten 3D-Boundingboxen, welche die Fahrzeuge 6, 9 umgeben.
  • Treten an diesen erkannten Fahrzeugen 6, 9 Spiegelreflexionsartefakte auf, welche durch reflektierende Oberflächen erzeugt werden, erscheinen diese immer hinter der entsprechenden reflektierenden Oberfläche und folglich hinter der das jeweilige Fahrzeug 6, 9 umschließenden 3D-Boundingbox B1, B2. Deshalb werden alle Lidarmessungen M, die sich im dreidimensionalen Schatten S1, S2 jeder 3D-Boundingbox befinden, als potenzielles Reflexionsartefakt bzw. potenzielle falsch-positive Erkennung E markiert.
  • In einer möglichen Weiterbildung werden die markierten potenziellen falsch-positiven Erkennungen E in einer weiterführenden Verarbeitung verwendet, um die Rohmessungen mit zusätzlichen Informationen anzureichern. Diese können in einer Sensorfusionskomponente verwendet werden, um Objekte - beispielsweise unter Verwendung anderer Sensormodalitäten - mittels einer Klassifizierung in tatsächliche Objekte und Geisterobjekte 4 zu unterteilen.
  • In 6 ist eine Seitenansicht eines mittels eines Lidarsensors 1 erfassten Verkehrsszenarios nach einer Durchführung einer semantischen Segmentierung darstellt, welche gemäß eines weiteren möglichen Ausführungsbeispiels des erfindungsgemäßen Verfahrens alternativ oder zusätzlich zur zuvor beschriebenen Verwendung von Objekterkennungsverfahren mit 3D-Boundingboxen B1, B2 durchgeführt wird.
  • In dem Verkehrsszenario befinden sich auf einer Fahrbahn FB ein als Fahrzeug 6 ausgebildetes Objekt 3 mit reflektierenden Fensterscheiben 7, ein als weiteres Fahrzeug 9 ausgebildetes Objekt 10 und ein als weiteres Fahrzeug 13 ausgebildetes Objekt 14 mit einer geöffneten Fensterscheibe. Weiterhin befinden sich in dem Verkehrsszenario ein als Verkehrszeichen 8 ausgebildetes Objekt 2 und ein beispielsweise als Baum 15 ausgebildetes weiteres Objekt 16.
  • In der semantischen Segmentierung wird jeder Lidar-Entfernungsmessung eine semantische Bezeichnung, wie beispielsweise Personenkraftwagen, Vegetation oder Straße, hinzugefügt, so dass sich als resultierender Lidar-Scan beispielsweise die in 6 gezeigte Darstellung als zylindrische Projektion eines dreidimensionalen Lidar-Scans ergibt.
  • Ziel ist es hierbei, mögliche Reflexionsartefakte zu erkennen, welche im dargestellten Ausführungsbeispiel beispielsweise an den Fensterscheiben 7 des Fahrzeugs 6 entstehen. Da die Reflexionsartefakte ungewöhnliche Formen haben, werden sie vom Objekterkennungsnetzwerk normalerweise nicht korrekt klassifiziert und können daher eine beliebige Beschriftung aufweisen, hier dargestellt durch ein Schachbrettmuster.
  • Um solche potenziellen Reflexionsartefakte zu erkennen, werden alle Lidarmessungen M gekennzeichnet, welche vollständig von Messpunkten umgeben sind, die zu erkannten Fahrzeugen 6, 9, 13 gehören.
  • Zu diesem Zweck wird ein so genannter Flutfüllalgorithmus, auch als Flood-Fill-Algorithmus, verwendet, welcher an einer Bildgrenze beginnt und iterativ jede benachbarte Lidarmessung M markiert, die nicht als zu einem Fahrzeug 6, 9, 13 gehörig gekennzeichnet ist.
  • Ein mögliches Ergebnis eines solchen Flutfüllalgorithmus zeigt 7, in welcher eine Seitenansicht des Verkehrsszenarios gemäß 6 nach der Durchführung des Flutfüllalgorithmus dargestellt ist.
  • Anschließend werden alle Lidarmessungen, welche nicht im Flutfüllalgorithmus markiert wurden, erneut betrachtet und es wird eine einfache Clusterbildung basierend auf einer Entfernung zum Lidarsensor 1 durchgeführt. Dies zeigt 8 in einer Seitenansicht des Verkehrsszenarios gemäß 6 nach einer Durchführung eines Clustering. Für jede verbundene Region ist der Cluster, welcher dem Lidarsensor 1 am nächsten liegt, speziell markiert (hier mit einer nach rechts gerichteten Linienschraffur). Die anderen Cluster sind zur Veranschaulichung mit anderen Schraffuren dargestellt.
  • Darauf folgend wird jeder Cluster geprüft, ob er vollständig von zu Fahrzeugen 6, 9, 13 gehörigen Messpunkten umschlossen ist. Hierzu wird eine weitere Flutfüllung an einem beliebigen Punkt im Cluster gestartet und geprüft, ob sie eine Außenseite des jeweiligen Fahrzeugs 6, 9, 13 erreicht.
  • Cluster, welche vollständig von zu Fahrzeugen 6, 9, 13 gehörigen Messpunkten umschlossen sind, hier die Fensterscheiben 7 des Fahrzeugs 6 und die geöffnete Fensterscheibe des Fahrzeugs 13, werden anschließend als potenzielles Reflexionsartefakt bzw. potenzielle falsch-positive Erkennung E markiert. Dies zeigt 8 in einer Seitenansicht des Verkehrsszenarios gemäß 6 nach einer Durchführung eines Labelings. Es werden hierbei auch Cluster markiert, die durch geöffnete Fensterscheiben anderer Fahrzeugen 6, 9, 13, hier des Fahrzeugs 13, sichtbar sind. Vorliegend handelt es sich hierbei um Lidarmesspunkte M des Baums 15.
  • Das Fahrzeug 9 wird dabei nicht markiert, da die Cluster desselben mit dessen Außenseite verbunden sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 19947593 A1 [0002]

Claims (2)

  1. Verfahren zur Bestimmung von falsch-positiven Erkennungen (E) eines Lidarsensors (1) bei einem Scanvorgang einer Fahrzeugumgebung, dadurch gekennzeichnet, dass - in einem Objekterkennungsverfahren und/oder anhand semantischer Segmentierung Fahrzeuge (6, 9, 13) in mittels des Lidarsensors (1) erfassten Daten erkannt werden und anschließend - aus Sicht des Lidarsensors (1) alle durch erkannte Fahrzeuge (6, 9, 13) verdeckten Lidarmessungen (M) als potenzielle falsch-positive Erkennungen (E) markiert werden und/oder - Lidarmessungen (M), welche vollständig von Messpunkten umgeben sind, die zu erkannten Fahrzeugen (6, 9, 13) gehören, einer Fahrzeug-Objektklasse zugeordnet werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in den Objekterkennungsverfahren 3D-Boundingboxen (B1, B2) um zu erkennende Objekte (2, 3, 10, 12, 14) gebildet werden.
DE102021000359.4A 2021-01-26 2021-01-26 Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors Pending DE102021000359A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021000359.4A DE102021000359A1 (de) 2021-01-26 2021-01-26 Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021000359.4A DE102021000359A1 (de) 2021-01-26 2021-01-26 Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors

Publications (1)

Publication Number Publication Date
DE102021000359A1 true DE102021000359A1 (de) 2021-03-18

Family

ID=74686675

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021000359.4A Pending DE102021000359A1 (de) 2021-01-26 2021-01-26 Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors

Country Status (1)

Country Link
DE (1) DE102021000359A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022000734A1 (de) 2022-03-01 2022-06-02 Mercedes-Benz Group AG Verfahren zur Erkennung von Geisterobjekten in Lidar-Punktewolken

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022000734A1 (de) 2022-03-01 2022-06-02 Mercedes-Benz Group AG Verfahren zur Erkennung von Geisterobjekten in Lidar-Punktewolken

Similar Documents

Publication Publication Date Title
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
EP3332400B1 (de) Verfahren und vorrichtung in einem kraftfahrzeug zur verbesserten datenfusionierung bei einer umfelderfassung
EP1664838B1 (de) Verfahren und computerprogramm zum erfassen der kontur eines hindernisses in der umgebung eines fahrzeugs
DE102018122374B4 (de) Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug
EP3665502B1 (de) Verfahren zum überwachen eines umgebungsbereiches eines kraftfahrzeugs, sensorsteuergerät, fahrerassistenzsystem sowie kraftfahrzeug
DE102018220024B3 (de) Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102013017347A1 (de) Verfahren zum Klassifizieren von Hindernissen
DE102018217746A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102018006503A1 (de) Digitale Karte
DE102013214632A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
EP2887093A1 (de) Verfahren zum Klassifizieren eines Objekts, Sensoreinrichtung und Kraftfahrzeug
DE102014221710A1 (de) Verfahren zur Zielbremsung eines Schienenfahrzeugs
DE102021000359A1 (de) Verfahren zur Bestimmung von falsch-positiven Erkennungen eines Lidarsensors
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102020110809B3 (de) Verfahren und Vorrichtung zum Erkennen von Blooming in einer Lidarmessung
DE102020007057A1 (de) Fahrzeug und Verfahren zur Bestimmung einer Durchfahrtshöhe
DE102020119954A1 (de) Verfahren zum Erzeugen einer Belegungsgitterkarte für zumindest ein statisches Objekt, Computerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
WO2007057069A1 (de) System zur erfassung von objekten in der umgebung eines kraftfahrzeugs
DE102016119592A1 (de) Verfahren zum Erkennen von Objekten in einem Umgebungsbereich eines Kraftfahrzeugs unter Berücksichtigung von Sensordaten im infraroten Wellenlängenbereich, Objekterkennungsvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102007013501B4 (de) Fahrerassistenzsystem mit unterschiedlich ausgerichteten Kameras
WO2022033980A1 (de) Verfahren zum erkennen von verkehrsteilnehmern in einer umgebung eines fahrzeugs anhand von messungen eines radarsensors durch identifizieren von stördetektionen sowie recheneinrichtung
DE102020208637A1 (de) Vorhersage von dynamischen Objekten an verdeckten Bereichen
DE102019008079A1 (de) Verfahren zum Erkennen mindestens eines Objekts in einem Fahrbereich eines Fahrzeugs, Vorrichtung eingerichtet zum Druchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
DE102017007770A1 (de) Verfahren zur Auswertung von reflektierten Laserstrahlen

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R012 Request for examination validly filed