DE102011100927B4 - Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser - Google Patents

Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser Download PDF

Info

Publication number
DE102011100927B4
DE102011100927B4 DE102011100927.6A DE102011100927A DE102011100927B4 DE 102011100927 B4 DE102011100927 B4 DE 102011100927B4 DE 102011100927 A DE102011100927 A DE 102011100927A DE 102011100927 B4 DE102011100927 B4 DE 102011100927B4
Authority
DE
Germany
Prior art keywords
points
objects
vehicle
dynamic
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102011100927.6A
Other languages
English (en)
Other versions
DE102011100927A1 (de
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102011100927A1 publication Critical patent/DE102011100927A1/de
Application granted granted Critical
Publication of DE102011100927B4 publication Critical patent/DE102011100927B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es werden ein Verfahren und ein System zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs unter Verwendung eines dreidimensionalen Laserentfernungsmessers bereitgestellt. Das Verfahren empfängt Punkte von dem Laserentfernungsmesser, wobei die Punkte Orte in einem Raum darstellen, in dem der Entfernungsmesser erfasst, dass einige Objekte existieren. Ein Algorithmus schätzt zuerst den Ort einer Bodenebene auf der Grundlage eines vorherigen Bodenebenenorts, von Daten von fahrzeugeigenen Sensoren und einer auf die Punktdaten angewandten Eigenvektorberechnung. Als Nächstes werden eine Draufsichtbelegungskarte und eine Höhenkarte für stationäre Objekte auf der Grundlage von Punktdaten in Relation zu der Bodenebene berechnet. Schließlich werden dynamische Objekte detektiert und verfolgt, wobei Objekte erfasst werden, die sich bewegen, wie beispielsweise andere Fahrzeuge, Fußgänger und Tiere. Der Ausgang des Verfahrens ist ein Satz von stationären und dynamischen Objekten einschließlich ihrer Form, Entfernung und Geschwindigkeit. Dieser Ausgang kann durch stromabwärtige Anwendungen, wie beispielsweise Kollisionsvermeidungssysteme oder Systeme eines semiautonomen Fahrens, verwendet werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Diese Erfindung bezieht sich allgemein auf ein Objektdetektionsverfahren und -system und insbesondere auf ein Objektdetektionsverfahren und -system für ein Fahrzeug, das einen dreidimensionalen Laserentfernungsmesser zum Detektieren und Verfolgen von sowohl stationären als auch sich bewegenden Objekten in der Nähe des Fahrzeugs verwendet, wobei eine Eingangsquelle für stromabwärtige Fahrzeugsteueranwendungen bereitgestellt wird.
  • 2. Erläuterung der verwandten Technik
  • Viele moderne Fahrzeuge umfassen eine Vielzahl von hoch entwickelten elektronischen Systemen für eine Sicherheits- und Navigationsunterstützung. Bei einigen Fahrzeugen umfassen diese Systeme Objektdetektionssysteme und Systeme eines adaptiven Tempomaten, die einen Fahrer hinsichtlich eines Hindernisses in der Nähe des Fahrzeugs alarmieren können oder sogar die Fahrzeugbremsen oder -lenkung steuern können, um eine sichere Distanz zu einem anderen Fahrzeug oder Objekt aufrechtzuerhalten. Objektdetektionssysteme, die in der Technik bekannt sind und auf dem Markt verfügbar sind, weisen jedoch Einschränkungen bezüglich dessen auf, wie gut sie Objekte detektieren und verfolgen können, und wie zuverlässig die Objektdaten für Fahrzeugsteuerzwecke verwendet werden können.
  • Aus der Druckschrift DE 41 15 747 A1 ist ein Verfahren zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs bekannt. Dazu werden mehrere Abtastpunkte von einem Laserentfernungsmesser bereitgestellt, die Orte in einem das Fahrzeug umgebenden Raum darstellen. Die Abtastpunkte werden einem Rechner zugeführt, der zusätzlich Fahrzeugdynamikdaten, wie Informationen zu dem Lenkwinkel, der Geschwindigkeit und dem Schrägstellungswinkel des Fahrzeugs, erhält. Aus dem ihm zugeführten Werten berechnet der Rechner die relativen Koordinaten von Hindernissen und den möglichen Zeitpunkt einer Kollision des Fahrzeugs mit den Hindernissen.
  • Die meisten Objektdetektionssysteme, die heutzutage in Fahrzeugen verfügbar sind, verwenden eine radar- oder kamerabasierte Sichttechnologie. Diese Systeme weisen oftmals Probleme beim Unterscheiden zwischen Objekten in vollen Umgebungen auf, die typischerweise in realistischen Fahrsituationen zu finden sind. Sie können möglicherweise die zweidimensionale Form eines Objekts detektieren, jedoch nicht die Objekthöhe bestimmen, wodurch sie nicht dazu in der Lage sind, zu bestimmen, ob das Objekt tatsächlich ein Merkmal der Bodenfläche oder der Fahrbahn ist. Oder sie können möglicherweise das Vorhandensein von Objekten detektieren, jedoch nicht dazu in der Lage sein, zwischen Objekten mit engem Abstand auf der Grundlage der relativen Geschwindigkeit oder von dreidimensionalen Eigenschaften zu unterscheiden. Schließlich können existierende radar- oder kamerabasierte Objektdetektionssysteme aufgrund des Fehlens des Reflexionsvermögens oder des Fehlens einer Farbunterscheidung der Objekte beim Detektieren einiger Objekte vollständig versagen.
  • Es besteht Bedarf an einem zuverlässigen und stabilen Objektdetektionssystem – einem, das Objekte voneinander und von der Bodenebene unterscheiden kann, das sowohl die Position als auch die Geschwindigkeit von detektierten Objekten relativ zum Boden und relativ zum Host-Fahrzeug zuverlässig verfolgen kann und das diese Aufgaben in der vollen Umgebung eines realen Fahrens ausführen kann. Solch ein System könnte einen signifikanten Durchbruch bei der Entwicklung von modernen Fahrzeugsystemen, wie beispielsweise Systemen eines semiautonomen Fahrens, ermöglichen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß den Lehren der vorliegenden Erfindung werden ein Verfahren und ein System zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs unter Verwendung eines dreidimensionalen Laserentfernungsmessers offenbart. Das Verfahren empfängt Wolken von Punkten von dem Laserentfernungsmesser, wobei die Punkte Orte in einem Raum darstellen, in dem der Entfernungsmesser erfasst, dass einige Objekte existieren. Ein Algorithmus schätzt zuerst den Ort einer Bodenebene auf der Grundlage eines vorherigen Bodenebenenorts, von Daten von Chassis-Dynamiksensoren und einer auf die Punktwolkendaten angewandten Eigenvektorberechnung. Es kann auch eine nicht flache segmentierte Bodenfläche konstruiert werden. Als Nächstes werden eine Draufsichtbelegungskarte und eine Höhenkarte für stationäre Objekte auf der Grundlage von Punktwolkendaten in Relation zu der Bodenfläche berechnet. Schließlich werden dynamische Objekte detektiert und verfolgt, wobei Objekte erfasst werden, die sich relativ zu dem Boden bewegen, wie beispielsweise andere Fahrzeuge, Fußgänger und Tiere. Der Ausgang des Verfahrens ist ein Satz von stationären und dynamischen Objekten einschließlich ihrer Größe und Form, Entfernung und Geschwindigkeit relativ zu dem Boden und zu dem Host-Fahrzeug. Diese Ausgangsdaten können durch stromabwärtige Anwendungen, wie beispielsweise Kollisionsvermeidungssysteme oder Systeme eines semiautonomen Fahrens, verwendet werden.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung und den beigefügten Ansprüchen in Verbindung mit den begleitenden Zeichnungen ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm eines Hardwaresystems, das für eine Objektdetektion und -verfolgung verwendet werden kann, gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 ist ein Blockdiagramm eines Softwaresystems zum Detektieren und Verfolgen von Objekten unter Verwendung der Elemente des Hardwaresystems von 1;
  • 3 ist ein Flussdiagramm eines Prozesses, der durch das Bodenebenenverfolgungsmodul des Softwaresystems von 2 verwendet wird;
  • 4 ist ein Voronoi-Diagramm eines Satzes von an einer Bodenebene projizierten Punkten, wie es zum Berechnen einer segmentierten Bodenfläche verwendet wird, die nicht flach sein muss;
  • 5 ist ein Diagramm, das zeigt, wie Abtastpunkte in einem Gitter angeordnet werden, um die Effizienz der Berechnung der segmentierten Bodenfläche zu verbessern;
  • 6 ist ein Flussdiagramm eines Prozesses, der durch das Modul einer stationären Belegungskarte des Softwaresystems von 2 verwendet wird;
  • 7 ist ein Beispiel einer binären Belegungskarte, wie sie durch das Modul einer stationären Belegungskarte des Softwaresystems von 2 erzeugt wird;
  • 8 ist ein Flussdiagramm eines Prozesses, der durch das Modul einer Verfolgung dynamischer Objekte des Softwaresystems von 2 verwendet wird; und
  • 9 ist ein Diagramm, das zeigt, wie Abtastpunkte in dem Modul Verfolgung dynamischer Objekte des Softwaresystems von 2 zu Objekten gruppiert werden.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Erläuterung der Ausführungsformen der Erfindung, die auf ein Verfahren und ein System für eine Objektdetektion und -verfolgung unter Verwendung eines dreidimensionalen Laserentfernungsmessers gerichtet ist, ist lediglich beispielhafter Natur und beabsichtigt keineswegs, die Erfindung oder ihre Anwendungen oder Verwendungen zu beschränken.
  • Fahrzeugkollisionsvermeidungssysteme und Systeme eines semiautonomen Fahrens benötigen eine sehr genaue Information über Objekte in ihrer Umgebung, um effektiv zu sein. Herkömmliche Objektdetektionssysteme unter Verwendung einer radar- oder kamerabasierten Sichttechnologie können Probleme beim Unterscheiden von Objekten in der vollen Umgebung, die für reale Fahrsituationen typisch ist, aufweisen. Beispielsweise können radarbasierte Systeme nichtmetallische Objekte, wie beispielsweise Betonbordsteine, Steine und Vegetation, möglicherweise nicht zuverlässig detektieren. Und kamerabasierte Sichtsysteme können Schwierigkeiten beim Unterscheiden zwischen Objekten mit ähnlicher Farbe oder Helligkeit aufweisen und können die Entfernung oder Distanz zu einem Objekt nicht direkt messen. Bei der vorliegenden Erfindung wird ein dreidimensionaler (3-D-)Laserentfernungsmesser verwendet, um eine Wolke von Punkten zu erhalten, die Objekte in der Nähe eines Host-Fahrzeugs darstellen, und werden spezialisierte Algorithmen verwendet, um eine Bodenebene und eine Karte mit stationären und dynamischen Objekten in dem das Fahrzeug umgebenden Raum zu berechnen.
  • 1 ist ein Blockdiagramm eines Hardwaresystems 10, das für eine Objektdetektion und -verfolgung gemäß der vorliegenden Erfindung verwendet werden kann. Ein Fahrzeug 12 enthält einen 3-D-Laserentfernungsmesser 14, der die Umgebung um das Fahrzeug 12 herum in drei Dimensionen schnell abtasten kann. Bei Bedarf können mehr als ein Laserentfernungsmesser 14 verwendet werden, um den vollständigen 360-Grad-Horizont vollständiger und schneller abzutasten. Der Laserentfernungsmesser 14 liefert unter Verwendung einer Technologie, die manchmal als Light Detection and Ranging (LIDAR) bekannt ist, eine Wolke von Punktdaten, die Objekte darstellen, die durch den Laser getroffen wurden. Die Punkte können durch den Laserentfernungsmesser 14 hinsichtlich Azimut- und Höhenwinkel plus Entfernung dargestellt werden, was relativ zu einem an dem Fahrzeug 12 angebrachten lokalen Koordinatenrahmen leicht in (x, y, z)-Punktdaten umgewandelt werden kann. Der Laserentfernungsmesser 14 liefert Punktwolkendaten an ein Field-Programmable Gate Array (FPGA) 16 – das ein integrierter Schaltkreis ist, der für eine Konfiguration durch den Kunden, in diesem Fall den Fahrzeughersteller, nach dessen Fertigung entworfen ist.
  • Das FPGA 16 empfängt die Punktwolkendaten von dem Entfernungsmesser 14 und führt eine Reihe von Berechnungen durch, die auf eine Bodenebenen- und Objektdetektion gerichtet sind. Die Funktionen des FPGA 16 könnten durch einen beliebigen geeigneten Prozessor, der eine universelle elektronische Steuereinheit umfasst, oder einen anwendungsspezifischen integrierten Schaltkreis (ASIC von application-specific integrated circuit) gehandhabt werden. Ein anwendungsspezifischer integrierter Schaltkreis ist ein integrierter Schaltkreis, der für eine bestimmte Verwendung angepasst ist, und nicht für eine universelle Verwendung vorgesehen ist. Wegen der hohen Entwicklungskosten von ASICs und der hohen Kosten für elektronische Steuereinheiten mit voller Funktionalität wird in einer bevorzugten Ausführungsform des Hardwaresystems 10 der FPGA 16 in Betracht gezogen.
  • Der FPGA 16 sendet seinen Ausgang an einen anderen Prozessor, in diesem Fall einen digitalen Signalprozessor (DSP) 18. Der DSP 18 führt zusätzliche Berechnungen, nachstehend erläutert, an den Punktwolkendaten und den zuvor berechneten Objektdaten durch, was zu einer vollständigen Darstellung der Bodenebene, von statischen Objekten und dynamischen Objekten in der Nähe des Fahrzeugs 12 führt. Der FPGA 16 und der DSP 18 haben beide Zugriff auf ein gemeinsam genutztes Speichermodul 20.
  • 2 ist ein Blockdiagramm eines Softwaresystems 30 zum Detektieren und Verfolgen von Objekten unter Verwendung der Elemente des Hardware systems 10. Ein Gesamtbildverarbeitungsmodul 32 verwaltet die Funktionen des gesamten Softwaresystems 30. Ein Bodenebenenverfolgungsmodul 34 verwendet die Punktwolkendaten und andere Informationen zum Schätzen der aktuellen Position der Bodenfläche, wie es nachstehend ausführlich erläutert wird. Als Nächstes berechnet ein Modul 36 einer stationären Belegungskarte den Ort und die Höhe von allen detektierten Objekten unter Verwendung der Punktwolkendaten und der zuvor berechneten Bodenfläche als Eingang. Nachstehend werden auch Details der Berechnungen in dem Modul 36 einer stationären Belegungskarte bereitgestellt. Schließlich berechnet ein Modul 38 einer Verfolgung dynamischer Objekte die Form, Position und Geschwindigkeit von sich bewegenden Objekten unter Verwendung der nachstehend ausgeführten Methodologie.
  • 3 ist ein Flussdiagramm 40 eines Prozesses, der durch das Bodenebenenverfolgungsmodul 34 des Softwaresystems 30 verwendet wird. Der Prozess beginnt in Kasten 42 wie durch das Gesamtbildverarbeitungsmodul 32 angewiesen, beispielsweise, wenn der Fahrzeugmotor gestartet wird. Der Prozess wartet in Entscheidungsraute 44 auf die Verfügbarkeit neuer Daten von einer vorherigen Bodenebenenschätzung. In Kasten 46 wird eine geschätzte Bodenebene von einem vorherigen Berechnungsschritt als Basis oder Startpunkt für eine neue Bodenebenenberechnung verwendet. In dem ersten Durchgang des Prozesses nach dem Starten des Fahrzeugs 12 könnte, wenn keine unmittelbar vorherigen Bodenebenendaten zur Verfügung stehen, entweder die letzte Bodenebene von dem vorherigen Betrieb des Fahrzeugs 12 in Kasten 46 verwendet werden oder könnte ein Standardwert auf der Grundlage der nominalen Fahrhöhe des Fahrzeugs in Kasten 46 verwendet werden. In Kasten 48 wird eine Vorhersage bezüglich der erwarteten Bewegung der Bodenebene relativ zu der vorherigen Bodenebene von Kasten 46 gemacht. Die Vorhersage in Kasten 48 basiert auf einer fahrzeugeigenen Schwerkraftmesseinheit (IMU von inertial measurement unit) des Typs, der in vielen modernen Fahrzeugen verfügbar ist. Die Daten von der IMU, die bei der Vorhersage in Kasten 48 verwendet werden, umfassen Fahrzeugnick- und -wankwinkel, was einen signifikanten Einfluss auf den Ort und die Ausrichtung der Bodenebene hätte, wenn jene Winkel sich seit der vorherigen Bodenebenenberechnung geändert hätten.
  • In Kasten 50 werden die jüngsten Punktwolkendaten von dem Laserentfernungsmesser 14 bereitgestellt. Dies umfasst alle Punktdaten einschließlich Punkten, die große Objekte darstellen, die weit über dem Bodenniveau liegen. In Kasten 52 wird eine Ausblendung oder Filterung an den Punktwolkendaten ausgeführt, um nur die Punkte auszuwählen, von denen geschätzt wird, dass sie die Bodenebene darstellen. Die Ausblendungsoperation in Kasten 52 wird durch Berechnen der Distanz jedes Punkts zu der vorhergesagten Bodenebene durchgeführt. Es wird eine Schwellenwerthöhe, wie beispielsweise 0,25 Meter, wird definiert, und jeder beliebige Punkt, dessen Distanz zur Bodenebene kleiner als der Schwellenwert ist, wird als Bodenpunkt betrachtet. Alle anderen Punkte, d. h., jene, deren Distanz zur Bodenebene größer als die Schwellenwertdistanz ist, werden als Objektpunkte betrachtet und werden nicht bei der Bodenebenenberechnung verwendet.
  • In Kasten 54 wird der Satz von Punkten, die die Bodenebene darstellen, für eine weitere Analyse verwendet. Es sei angemerkt, dass die in Kasten 54 bereitgestellten Punkte nicht alle in einer Ebene liegen. Stattdessen sind die von der Ausblendungsoperation in Kasten 52 ausgegebenen Punkte, die in Kasten 54 verwendet werden, die Punkte, von denen angenommen wird, dass sie von der Bodenfläche oder der Fahrbahn zurückgegeben werden, und diese Punkte sind bei einer Berechnung zum Bestimmen einer Ebene, die am besten zu ihnen passt, zu verwenden. In Kasten 56 werden die Bodenpunkte von Kasten 54 in einer 4×N-Matrix angeordnet und wird eine Eigenvektorzerlegung an der Matrix durchgeführt, mit dem Ziel des Findens der durch die Gleichung dargestellten Bodenebene; Ax + By + Cz + D = 0 (1)
  • Die Aktivitäten von Kasten 56 werden wie folgt durchgeführt. Die (x, y, z)-Koordinaten für jeden der N Bodenpunkte von Kasten 54 werden verwendet, um die ersten drei Spalten der 4×N-Matrix zu füllen, wobei sich in der vierten Spalte die Zahl 1 befindet. Das heißt, die erste Zeile der Matrix würde aus den Koordinaten des ersten Bodenpunkts plus der Zahl 1 bestehen wie folgt; [x1, y1, z1, 1]. Die zweite Zeile der Matrix würde aus den Koordinaten des zweiten Bodenpunkts plus der Zahl 1 bestehen wie folgt; [x2, y2, z2, 1]. Auf diese Weise wird die 4×N-Matrix mit allen Bodenpunkten von Kasten 54 gefüllt. Dann kann eine Eigenwertzerlegung an der Matrix durchgeführt werden, die einen Satz von Eigenwerten und Eigenvektoren liefert, wie es nachstehend beschrieben wird. Der kleinste Eigenwert kann als einen Eigenvektor aufweisend betrachtet werden, der aus den Koeffizienten [A, B, C, D] von der Gleichung der Ebene besteht, die am besten zu den in der Matrix enthaltenen Punktdaten passt. In Kasten 58 wird eine aktualisierte Bodenebene unter Verwendung von Gleichung (1) und der gerade in Kasten 56 bestimmten Koeffizienten [A, B, C, D] definiert, und der Prozess springt in einer Schleife zurück zur Entscheidungsraute 44.
  • Es folgt eine ausführliche Erläuterung der Berechnungen, die in dem Prozess verwendet werden, der an dem Flussdiagramm 40 gezeigt ist. In Kasten 48 sei die IMU-Messung von Nickrate und Wankrate des Host-Fahrzeugs ϕ · bzw. ς ·, was die Änderungsrate des Nickwinkels (ϕ) und des Wankwinkels (ς) der Normalen n zur Bodenebene umfasst. Es ist ein Koordinatensystem Oxyz an dem Fahrzeugrahmen fixiert. Die zu schätzende Bodenebene wird wie folgt bezeichnet; nTp + d = 0 (2) wobei n den Einheitsnormalenvektor der Ebene (d. h. ||n|| = 1) bezeichnet, |d| die Distanz von dem 3D-Sensor zur Bodenebene bezeichnet und p den Punkt an der Ebene bezeichnet.
  • Die Normale zur Bodenebene n kann als Nickwinkel (ϕ) und Wankwinkel (ς) in Bezug auf das Koordinatensystem des Host-Fahrzeugs dargestellt werden. Der Zustandsvektor für die Bodenebene ist mit x = (ϕ, ς, d)T definiert.
  • Der Algorithmus beginnt, wenn neue Daten ankommen. Die Bodenebene zu einem vorherigen Zeitpunkt werde mit x bezeichnet, und der Zustandsvektor zum aktuellen Zeitpunkt werde mit x' bezeichnet. Dann kann die Systemdynamikgleichung geschrieben werden wie folgt; ϕ' = ϕ + ΔTϕ · + vϕ ς' = ς + ΔTς · + vς d' = d + vd (3) oder kurz als; x' = x + uG + vG (4) wobei ΔT das Abtastzeitintervall ist, uG = (ΔTϕ ·, ΔTς ·, 0)T der Steuereingangsvektor ist und vG = (vϕ, vς, vd)T der Rauschterm ist, modelliert als mittelwertfreie weiße Gaußsche Verteilung.
  • Die vorhergesagte Bodenebene x' kann in eine kartesische Gleichungsform transformiert werden: n'Tp + d' = 0, wobei n' = a / ||a|| mit a = (tanϕ', tanς', 1)T und ||·|| der euklidische Normoperator ist.
  • Es sei D = |n'T p + d'| die Distanz von Punkt p zur Bodenebene. Die Ausblendungsoperation in Kasten 52 in dem Flussdiagramm 40 wählt Bodenpunkte aus den gesammelten 3D-Punktwolken von dem 3D-Sensor durch die folgenden Kriterien; wenn D ≤ TH, dann ist Punkt p ein Bodenpunkt und wird er ausgewählt; ansonsten ist p ein Objekt- oder Hindernispunkt. Hier ist TH ein Höhenschwellenwert, wie beispielsweise 0,25 Meter.
  • Der Satz von Bodenpunkten werde bezeichnet mit; {pi|i = 1, ..., M}, ∀i|n'Tpi + d'| <= TH. Die Bodenpunkte werden unter Verwendung der Ebenengleichung Amx + Bmy + Cmz + dm = 0 durch Minimieren der folgenden kleinsten Quadrate angepasst;
    Figure DE102011100927B4_0002
    wobei y = (Am, Bm, Cm, dm)T und;
    Figure DE102011100927B4_0003
  • Die Lösung von Gleichung (4) ist der Eigenvektor des kleinsten Eigenwerts der Matrix D, d. h.; Dy = λmy (7) wobei λm der kleinste Eigenwert ist.
  • Es sei y = (yA, yB, yC, yd)T und
    Figure DE102011100927B4_0004
    Dann gilt Am = yA/R' Bm = yB/R', Cm = yC/R und dm = yd/R.
  • Somit kann eine Kalman-Filter-Messgleichung als Funktion der Zustandsvariablen Nickwinkel (ϕ), Wankwinkel (ς) und Distanz-Offset (d) geschrieben werden; Am/Cm = tanϕ + wϕ Bm/Cm = tanς + wς dm = d + wd (8) oder kurz als; oG = h(x) + wG (9) wobei oG = (Am/Cm, Bm/Cm, dm)T und wG = (wϕ, wς, wd)T der Messrauschterm ist, für gewöhnlich modelliert als weißer mittelwertfreier Gaußscher Zufallsvektor.
  • Es wird eine erweiterte Kalman-Filter-Prozedur auf der Grundlage der Gleichungen (4) und (9) in der Bodenebenenaktualisierungsoperation in Kasten 58 in dem Flussdiagramm 40 angewandt.
  • Es sei angemerkt, dass der Ausgang des Bodenebenenverfolgungsmoduls 34 und des Prozesses des Flussdiagramms 40 im mathematischen Sinne eine wahre Ebene ist. Das heißt, die Bodenebene wird nicht durch ein potentiell mehrdeutiges Cluster von Punkten im 3-D-Raum dargestellt, sondern wird stattdessen durch die definitive mathematische Formulierung von Gleichung (2) dargestellt.
  • Die oben beschriebene Bodenebene ist nur eine Annäherung der Fahrbahn. Es gibt viele Fälle, in denen die Fahrbahn nicht flach ist; beispielsweise bei einem Wasserablaufgradienten, einer Annäherung an eine Straße mit Gradienten, kleinen Unregelmäßigkeiten, wie beispielsweise Senken und Bordsteinen, und Straßen mit Überhöhung. Um dies zu berücksichtigen, ist es auch möglich, die Straße als facettierte oder segmentierte Oberfläche, und nicht als planare Oberfläche, darzustellen.
  • Mit der Annäherung eines planaren Bodens mit der Gleichung nTp + d = 0 (d. h. das Ergebnis des oben beschriebenen Bodenebenenverfolgungsmoduls) kann der 3D-Punkt p als Abbildung von einem Bodenebenenprojektionspunkt p' auf eine Höhe e oder eine Funktion dargestellt werden, die durch den Abtastsatz {(p'k, ek)|k = 1, ..., N} dargestellt ist.
  • 4 zeigt ein Voronoi-Diagramm 200 eines projizierten Punktsatzes {p'} an der Bodenebene. In dem Diagramm 200 können die Nachbarn eines Punkts p' als Punkte definiert werden, deren Voronoi-Zellen einen gemeinsamen Rand mit der Zelle p' teilen; beispielsweise sind die Punkte a, b, c, d, e, f, g in den Zellen 204216 in einem Voronoi-Diagramm-Sinn Nachbarn von Punkt p' in Zelle 202. Daher ist es möglich, einen Graphen G1 = (V, E) zu konstruieren, wobei der Vertexsatz der projizierte Punktsatz {p'} ist; und der Randsatz E nur Ränder umfasst, die jeden Punkt mit seinen direkten Nachbarn in dem Voronoi-Diagramm 200 verbinden.
  • Jeder Rand (vi, vj) ∊ E weist ein entsprechendes Gewicht w(vi, vj) auf, das ein nicht negatives Maß der Dissimilarität zwischen benachbarten Elementen vi und vj ist. Im Falle der Segmentierung einer nicht flachen Bodenfläche sind die Elemente in V projizierte Punkte an der angenäherten Bodenebene und ist das Gewicht eines Rands eine Art von Dissimilaritätsmessung zwischen den zwei Punkten, die durch den Rand verbunden sind – d. h., Punkte, die eine Seite in dem Voronoi-Diagramm teilen. Ein Beispiel eines Werts, der zum Berechnen des Randgewichts oder eines Werts einer Dissimilarität verwendet werden kann, ist die Höhendifferenz wie folgt; w(vi, vj) = |ei – ej| (10) wobei ei und ej die Höhe der Vertices vi bzw. vj sind.
  • Als Nächstes wird ein effizientes graphbasiertes Verfahren verwendet, um 3D-Punktwolken in einen Satz von glatten Oberflächen zu segmentieren. Eine Segmentierung ist eine Aufteilung von V in sich nicht überschneidende Teilmengen, so dass jede Teilmenge V' einen Subgraphen G'1 = (V', E'), E' ⊆ E, entsprechend einer verbundenen Komponente (Gebiet) von G1 bildet. Bei jeder segmentierten Komponente sind die Elemente in der gleichen Komponente ähnlich, während Elemente von verschiedenen Komponenten unähnlich sind. Dies gibt an, dass Ränder zwischen zwei Vertices in der Beispielkomponente relativ geringere Gewichte haben sollten als die Gewichte von Punktpaaren von verschiedenen Komponenten.
  • Es wird ein Prädikat (Binärfunktion) P definiert, um zu bewerten, ob eine Grenze zwischen zwei Komponenten Γ1 und Γ2 existiert, wie folgt;
    Figure DE102011100927B4_0005
    wobei die Funktion Diff(Γ1, Γ2) die gegenseitige Differenz (Dissimilarität) zwischen zwei Komponenten Γ1, Γ2 ⊆ V bezeichnet, definiert wie folgt:
    Figure DE102011100927B4_0006
    und MInt(Γ1, Γ2) die kombinierte interne Differenz (Abweichung) innerhalb von Γ1, Γ2 bezeichnet, der nachstehend in Gleichung (13) definiert ist. Ein von Null verschiedener Wert für das Prädikat P bedeutet, dass eine Grenzbedingung vorliegt und somit die beiden Komponenten disjunkt sind. Gleichung (11) besitzt eine intuitive Interpretation; die Komponenten Γ1, Γ2 sind disjunkt, wenn das Maß ihrer gegenseitigen Differenz größer als die kombinierte interne Abweichung beider Komponenten ist.
  • Das Maß der internen Differenz einer Komponente T ist als größtes Gewicht unter den Rändern in dem minimal aufspannenden Baum der Komponente definiert.
    Figure DE102011100927B4_0007
    wobei MST(Γ, E) der minimal aufspannende Baum ist. Somit wird die kombinierte interne Abweichung MInt(Γ1, Γ2) bestimmt mit; MInt(Γ1, Γ2) = min(Int(Γ1) + τ(Γ1), Int(Γ2) + τ(Γ2)) (13)
  • Die heuristische Funktion τ stimmt den Grad ab, zu dem die gegenseitige Differenz größer als die interne Abweichung sein muss, um zu bestimmen, ob eine Grenzbedingung existiert. Nachstehend sind zwei Beispiele der heuristischen Funktion τ aufgelistet.
  • Erstens, eine Schwellenwertfunktion auf der Grundlage der Größe der Komponente;
    Figure DE102011100927B4_0008
    wobei |Γ| die Größe des Satzes Γ bezeichnet. Gleichung (14) impliziert, dass für eine kleine Komponentengröße ein stärkerer Nachweis für eine Grenze erforderlich ist. Ein großer Wert des Parameters ks bewirkt eine Bevorzugung von Komponenten mit großer Größe.
  • Zweitens, eine Schwellenwertfunktion auf der Grundlage der Distanz von dem Ursprung, an dem sich der Host befindet;
    Figure DE102011100927B4_0009
    wobei r(Γ) den mittleren Ort der Komponente Γ bezeichnet und kr ein vorab ausgewählter Parameter ist.
  • Gleichung (15) impliziert, dass benachbarte Komponenten einen stärkeren Grenzennachweis erfordern als ferne Komponenten. Der Grund hierfür ist, dass Abtastpunkte in einem benachbarten Gebiet viel dichter (mehr Information) sind als jene in einem entfernten Gebiet (weniger Information). Ein kleiner Wert des Parameters kr bewirkt eine Bevorzugung von Komponenten mit großer Größe in benachbarten Gebieten.
  • Nun kann der graphbasierte Segmentierungsalgorithmus definiert werden. Der Eingang ist ein Graph G1 = (V, E) mit N Vertices und M Rändern. Der Ausgang ist eine Segmentierung von V in Komponenten C = (Γ1, ...., Γ2). Die Schritte sind nachstehend ausgeführt:
    • 1) Sortiere E in (e1, e2, ..., eM) nach steigendem Randgewicht
    • 2) Beginne mit einer Segmentierung C0, wobei sich jeder Vertex in seiner eigenen Komponente befindet
    • 3) Konstruiere die Aufteilung Cn auf der Grundlage von Cn-1 wie folgt: a) Kopiere direkt Cn-1 nach Cn b) Es sei (vi, vj) der Rand en, der n-te Rand in der geordneten Randliste; wenn sich vi und vj in separaten Komponenten Γi und Γj befinden und das Prädikat P(Γi, Γj) falsch ist, führe die beiden Komponenten Γi und Γj zu Γi von Cn zusammen und entferne Γj von Cn c) Wiederhole Schritt 3) für n = 1, ..., M
    • 4) Gib den Satz CM als C aus
  • Sobald das Segmentierungsergebnis von dem obigen Algorithmus erhalten wird, ist es möglich, den Bodenflächenpunktsatz Γground zu identifizieren, der die größte Komponente in C ist, die den Host-Fahrzeugort einschließt – d. h., den Ursprung des Fahrzeugkoordinatenrahmens.
  • Die obige Erläuterung stellt ein generisches Verfahren dar, falls nur die 3D-Punktwolke bekannt ist. Ein direktes Anwenden dieses Verfahrens kann rechenintensiv sein. In der folgenden Erläuterung wird angenommen, dass, neben einer 3D-Position, für jeden Abtastpunkt der Ort des Abtastrastergitters bekannt ist – d. h., die Zeile und Spalte des entsprechenden Pixels. Hier kann der Algorithmus neu entworfen werden, um diese Rastergitterinformation für eine verbesserte Recheneffizienz zu nutzen.
  • 5 ist ein Diagramm 240, das zeigt, wie Entfernungsmesserabtastpunkte in einem zweidimensionalen Gitter angeordnet sind. Aufgrund des physikalischen Entwurfs der meisten 3D-Entfernungsmessersensoren, wie beispielsweise des Laserentfernungsmessers 14, können die Abtastpunkte wie in dem Diagramm 240 gezeigt organisiert werden. Jedes Pixel stellt einen spezifischen sphärischen Winkel dar und enthält die Entfernungsmessung zu der naheliegendsten Hindernisfläche. Der Sensor tastet entlang einer horizontalen Abtastlinie 242 und einer vertikalen Abtastlinie 244 ab und erzeugt natürlich einen Gittergraphen G2 = (V, E), wobei V der Satz von projizierten Punkten ist und Rand E nur Ränder enthält, die von einem Pixel zu seiner Nachbarschaft reichen. Das Diagramm 240 zeigt ein Beispiel, bei dem Ränder von einem Pixel 246 zu seinen 8 Nachbarn reichen; N, NE, E, SE, S, SW, W, NW, in dem inneren 3 × 3-Gitter.
  • Jeder Rand (vi, vj) ∊ E weist ein entsprechendes Gewicht w(vi, vj) auf, das definiert ist wie folgt;
    Figure DE102011100927B4_0010
    wobei (p'i, ei) und (p'j, ej) die Projektion und Höhe für die Vertices vi bzw. vj bezeichnen und Tsep ein Distanzschwellenwert ist (z. B. 1,2 m). Es sei angemerkt, dass ein Rand mit unbegrenztem Gewicht von E entfernt werden kann.
  • Es sei angemerkt, dass der modifizierte Segmentierungsalgorithmus die horizontale und vertikale Randverarbeitung entkoppelt. Der oben beschriebene vierstufige Segmentierungsalgorithmus wird zuerst auf jede horizontale Abtastlinie einzeln angewandt, wobei nur horizontale Ränder in Betracht gezogen werden – d. h., in dem Diagramm 240 die Ränder E und W. Dann werden die segmentierten Teile in den horizontalen Abtastlinien auf der Grundlage des definierten Prädikatwerts unter Verwendung der vertikalen Ränder zusammengeführt – d. h., in dem Diagramm 240 NW, N, NE, SW, S und SE.
  • Der Eingang in den modifizierten Segmentierungsalgorithmus ist ein Gittergraph G2 = (V, E) mit N Vertices. Der Randsatz E = EH ∪ EV besteht aus horizontalen bzw. vertikalen Rändern. Der vertikale Randsatz EV habe MV Ränder. Der Ausgang ist eine Segmentierung von V in Komponenten C = (Γ1, ..., Γc). Der detaillierte Algorithmus ist nachstehend beschrieben:
    • 1) Für jede horizontale Abtastlinie r: a) Konstruiere den Subgraphen Gr = (Vr, Er), wobei die Vertices Vr die r-te Abtastlinie sind; und Er ⊂ E nur interne horizontale Ränder in Vr umfasst b) Wende den oben beschriebenen vierstufigen Segmentierungsalgorithmus auf Zeilengraph Gr an
    • 2) Sortiere alle vertikalen Ränder EV in (e1, e2, ...,
      Figure DE102011100927B4_0011
      ) nach steigendem Randgewicht
    • 3) Beginne mit einer Segmentierung C0, die alle in Schritt 1) und 2) abgeleiteten Komponenten enthält
    • 4) Konstruiere die Aufteilung Cn auf der Grundlage von Cn-1 wie folgt: a) Kopiere direkt Cn-1 nach Cn b) Es sei (vi, vj) der Rand en, der n-te Rand in der geordneten Liste vertikaler Ränder; wenn sich vi und vj in separaten Komponenten Γi und Γj befinden und das Prädikat P(Γi, Γj) falsch ist, führe die beiden Komponenten Γi und Γj zu Γi von Cn zusammen und entferne Γi von Cn c) Wiederhole Schritt 4) für jeden vertikalen Rand in G2, d. h. n = 1, ..., MV
    • 5) Gib den Satz CM als C aus.
  • Die obige Erläuterung stellt mehrere Verfahren zum Berechnen einer genauen Darstellung der Bodenfläche – entweder eine flache Ebene oder eine segmentierte Flächendarstellung – auf der Grundlage von Abtastpunktdaten bereit. Mit der definierten Bodenfläche und Bodenpunkten, die von dem Satz von allen Abtastpunkten unterschieden werden, können nun statische und dynamische Objekte identifiziert werden.
  • 6 ist ein Flussdiagramm 60 eines Prozesses, der durch das Modul 36 einer stationären Belegungskarte des Softwaresystems 30 verwendet wird. Der Zweck des Moduls 36 einer stationären Belegungskarte ist, den Ort, die Form und die Höhe aller stationären Objekte innerhalb eines interessierenden Bereichs des Fahrzeugs 12 zu definieren. Das Modul 36 einer stationären Belegungskarte kann durch das Gesamtbildverarbeitungsmodul 32 jedes Mal, wenn das Bodenebenenverfolgungsmodul 34 eine aktualisierte Bodenebene bereitstellt, oder in einem beliebigen anderen geeigneten Zeitintervall aktiviert werden. In Kasten 62 werden die 3-D-Abtastpunkte von dem Laserentfernungsmesser 14 bereitgestellt. Die Bodenpunkte können in Kasten 62 von den Abtastpunkten entfernt werden, so dass die verbleibenden Abtastpunkte alle Objekte oberhalb des Bodens darstellen. In Kasten 64 wird die aktualisierte Bodenebene oder -fläche von dem Bodenebenenverfolgungsmodul 34 bereitgestellt. In Kasten 66 werden alle Abtastpunkte von Kasten 62 auf die Bodenebene oder -fläche projiziert, wie es nachstehend in der detaillierten Erläuterung beschrieben ist. Die Projektion aller Abtastpunkte auf die Bodenfläche in Kasten 66 stellt einen Satz von Vektoren bereit, wobei jeder Vektor von einem Abtastpunkt senkrecht zur Bodenebene oder -fläche verläuft.
  • Die in Kasten 66 erzeugten Vektoren können dann verwendet werden, um in Kasten 68 eine 2-D-Höhenkarte zu konstruieren. Die 2-D-Höhenkarte zeigt die Höhe und den Ort relativ zur Bodenebene oder -fläche aller Objekte wie durch die Abtastpunkte dargestellt. In Kasten 70 kann eine binäre Belegungskarte konstruiert werden, die den Ort in der Bodenebene von allen Objekten innerhalb des interessierenden Bereichs des Fahrzeugs 12 zeigt. Die Konstruktion der binären Belegungskarte von Kasten 70 beginnt, indem alle Punkte in der Bodenebene oder -fläche hergenommen werden, an denen sich die Normalenvektoren von Kasten 66 schneiden. Jedem dieser Bodenebenenprojektionspunkte wird eine Schwellenwertobjektgröße zugeordnet, wie beispielsweise 10 cm im Quadrat, was zu einem ersten Satz von 2-D-Formen in der Bodenebene führt. Die 2-D-Formen können miteinander gruppiert werden, wenn sie sich berühren oder überschneiden, wobei ein zweiter Satz von größeren 2-D-Formen in der Bodenebene bereitgestellt wird, die jeweils den durch ein stationäres Objekt eingenommenen Bereich darstellen.
  • Es folgt eine detaillierte Erläuterung der Berechnungen, die in dem Flussdiagramm 60 verwendet werden.
  • Es bezeichne Gnd den Satz von Abtastpunkten, der als Boden bezeichnet wird. Die verbleibenden Abtastpunkte, jene, die Objekte darstellen, können als O = Sen – Gnd geschrieben werden, wobei Sen der Satz von Sensorabtastpunktwolken ist.
  • Es sei O = {qk|k = 1, ..., K}. Mit einem gegebenen Punkt qk wird Neighbor(qk) als der Satz von Bodenpunkten bezeichnet, der qk am nächsten liegt. Es bezeichne Ω(qk) die angepasste Ebene auf der Grundlage der Bodenpunkte Neighbor(qk). Dann kann die Höhe von qk als Distanz von qk zur Ebene Ω(qk) bezeichnet werden;
    Figure DE102011100927B4_0012
    wobei AΩx + BΩy + CΩz + dΩ = 0 die Ebenengleichung für Ω(qk) und qk = (xk, yk, zk)T bezeichnet. Ein positiver Wert von elev(qk) bedeutet, dass der Punkt über dem Boden liegt, während ein negativer Wert bedeutet, dass der Punkt unter dem Boden liegt. Es werden nur Punkte über dem Boden für eine Objektdetektion in Betracht gezogen. Die Höhe jedes Punkts qk kann verwendet werden, um die 2D-Höhenkarte zu konstruieren.
  • Dann kann die binäre statische Belegungskarte wie folgt konstruiert werden;
    Figure DE102011100927B4_0013
    wobei occup(qk) eine Indikatorfunktion zum Bestimmen, ob jeder Punkt qk ein Hindernispunkt ist, ist und Telev ein kleiner Höhenschwellenwert ist.
  • 7 ist ein Beispiel einer binären statischen Belegungskarte 80, wie sie durch das Modul 36 einer stationären Belegungskarte erzeugt wird. Die binäre statische Belegungskarte 80 zeigt das Fahrzeug 12 im Zentrum, umgeben von konzentrischen Bögen 84, die das Abtastmuster des Laserentfernungsmessers 14 darstellen. Zahlreiche Objekte 86 füllen die Belegungskarte 80, wobei jedes Objekt 86 ein Cluster von Punkten darstellt, bei denen ein Treffer durch den Laserentfernungsmesser 14 zurückgegeben wurde, wobei die Punkte auf die Bodenebene projiziert werden. Dies sind die Punkte qk, die als belegt bestimmt wurden, wie es oben beschrieben wurde. In diesem Beispiel ist zu sehen, dass sich die Objekte 86 entlang den Seiten der Straße befinden, auf der das Fahrzeug 12 fährt. Die oben beschriebene 2-D-Höhenkarte fügt zu der in der Belegungskarte 80 enthaltenen Belegungsinformation eine Höheninformation hinzu.
  • Nach dem Betrieb des Moduls 36 einer stationären Belegungskarte, wie oben beschrieben, kann das Modul 38 einer Verfolgung dynamischer Objekte aktiviert werden. 8 ist ein Flussdiagramm 100 eines Prozesses, der durch das Modul 38 einer Verfolgung dynamischer Objekte des Softwaresystems 30 verwendet wird. Der Zweck des Moduls 38 einer Verfolgung dynamischer Objekte ist, den Ort, die Form und die Geschwindigkeit von allen sich bewegenden Objekten oder Objekten mit einer Bodengeschwindigkeit von nicht Null innerhalb des interessierenden Bereichs des Fahrzeugs 12 zu definieren. Das Modul 38 einer Verfolgung dynamischer Objekte kann durch das Gesamtbildverarbeitungsmodul 32 jedes Mal aktiviert werden, wenn das Modul 36 einer stationären Belegungskarte eine aktualisierte Belegungskarte 80 bereitstellt, oder in einem beliebigen anderen geeigneten Zeitintervall. In Kasten 102 werden die 3-D-Abtastpunkte von dem Laserentfernungsmesser 14 bereitgestellt. In Kasten 104 werden die Bodenpunkte von den Abtastpunktdaten entfernt, wobei die Bodenpunkte in Kasten 54 des Prozesses, der an dem Flussdiagramm 40 gezeigt ist, identifiziert wurden. Nach dem Entfernen der Bodenpunkte in Kasten 104 können die Abtastpunkte, die Objekte darstellen, weiter verarbeitet werden, um dynamische oder sich bewegende Objekte zu identifizieren.
  • In Kasten 106 wird die jüngste statische Belegungskarte, für die die statische Belegungskarte 80 ein Beispiel ist, durch das Modul 36 einer stationären Belegungskarte bereitgestellt. In Kasten 108 wird ein Ähnlichkeitsgraph konstruiert, um zu ermitteln, welche Objektpunkte mit welchen anderen in Beziehung stehen – d. h., welche Punkte als aus dem gleichen Objekt resultierend betrachtet werden. In Kasten 110 wird die Objektgruppierung abgeschlossen und werden Form und Größe der dynamischen Objekte bestimmt. In Kasten 112 wird die Klassifizierung jedes dynamischen Objekts abgeschlossen, so dass jedes dynamische Objekt als Fahrzeug, Fußgänger, Fahrrad, Tier oder ein anderer Typ von sich bewegendem Objekt, basierend auf dessen Form und Größe, identifiziert werden kann. In Kasten 114 wird der Schwerpunkt jedes dynamischen Objekts aus der Objektform berechnet, und in Kasten 116 werden die Position und Geschwindigkeit der Objekte verfolgt. Die Daten dynamischer Objekte – einschließlich Größe, Form, potentieller Identifikation, Position und Geschwindigkeit von allen dynamischen Objekten – werden in Kasten 118 ausgegeben.
  • Es folgt eine detaillierte Erläuterung der Berechnungen, die in dem Flussdiagramm 100 verwendet werden.
  • Nach dem Bereitstellen des Satzes von Objektpunkten und der Belegungskarte wird ein Ähnlichkeitsgraph konstruiert, definiert als G3 = (V, E), wobei der Vertexsatz als Punkte über dem Boden definiert ist – d. h. V = {ql|l = 1, ..., No), ∀lelev(ql) > Telev, und der Randsatz E als Satz von Punktpaaren definiert ist, wenn die Distanz jedes Punktpaars geringer als ein Schwellenwert (Tsep) ist, d. h. E = {(ql, qn)|||ql – qn|| < Tsep}.
  • Hier wird ein effizienter O(No)-Gruppierungsalgorithmus auf der Grundlage eines Verfahrens einer Aufteilung von verbundenen Komponenten vorgeschlagen. Es wird eine Strategie einer Tiefensuche (DFS von depth-first search) auf den Graphen G3 angewandt.
  • Die DFS-Gruppierungsfunktion wird nachstehend beschrieben und erfordert Eingänge von V und Tsep und gibt eine Satzliste L = {S1, ..., Sc} aus.
    • 1) Für jeden Punkt q1 in V a) Wenn q1 nicht belegt ist, erzeuge einen leeren Satz S und füge ihn der Satzliste L hinzu b) Rufe DFS-Funktion mit Argumenten q1, S, V und Tsep auf
  • Die DFS-Funktion wird nachstehend beschrieben und erfordert Eingänge von q, S, V und Tsep und gibt einen Satz S aus.
    • 1) Setze Punkt q in Satz S ein
    • 2) Markiere q als belegten Punkt
    • 3) Wenn es einen anderen Punkt p ∊ V gibt, so dass ||p – q|| < Tsep a) Rufe rekursiv DFS-Funktion mit Argumenten p, s, V und Tsep auf
  • Es sei angemerkt, dass in dem obigen Algorithmus die DFS-Strategie in G3 realisiert ist, obwohl eine explizite Konstruktion des Graphen G3 nicht erforderlich ist. Schritt 3 in der DFS-Funktion weist eine Realisierung einer Komplexität einer konstanten Zeit (d. h. O(1)) auf. 9 ist ein Diagramm 250, das zeigt, wie Punkte zu Objekten unter Verwendung der DFS-Strategie gruppiert werden. Eine Gitterdatenstruktur 260 ist entworfen, um die Punkte in V zu halten. Jeder Punkt wird auf der Grundlage seines Orts in der X-Y-Ebene einer Zelle zugeordnet, z. B. Punkt q = (x, y, z) befindet sich in der Zelle
    Figure DE102011100927B4_0014
    bezeichnet als q-Zelle. Wenn mehr als zwei Punkte in eine Zelle fallen, wird eine verlinkte Liste 280 verwendet.
  • Es sei angemerkt, dass für jeden Punkt q alle seine direkten Nachbarn, die einen mit q verlinkten Rand aufweisen, in einem 3 × 3-Gitter liegen, das an der Zelle zentriert ist, die den Punkt q umfasst. Dies ist in dem Diagramm 250 zu sehen, und zwar durch beobachten, dass alle Kreise mit Radius Δ, die innerhalb der Zelle (0, 0) zentriert sind, in dem 3 × 3-Gitter 262 liegen. Daher kann Schritt 3 in der DFS-Funktion geändert werden zu:
    • 3) Wenn ein anderer Punkt p existiert, der zu dem 3 × 3-Gitter gehört, das an der q-Zelle zentriert ist, so dass ||p – q|| < Tsep
  • Es wird angenommen, dass es eine konstante Anzahl von Punkten in dem 3 × 3-Gitter 262 gibt, wobei die Komplexität von Schritt 3 die konstante Zeit ist, d. h. O(1). Wie in der DFS-Gruppierungsfunktion entworfen, ist jeder Punkt in dem Satz V nur einmal belegt, so dass die Komplexität des gesamten Gruppierungsalgorithmus O(No) ist.
  • Wie in Diagramm 250 gezeigt, ist die Verteilung von 3D-Punkten in dem Gitter spärlich, d. h., nicht alle Zellen sind mit Punkten belegt. Somit kann eine Hash-Tabelle 282 verwendet werden, um das Gitter zu realisieren. Jede belegte Zelle wird auf der Grundlage ihres Zellenindex auf einen Tabelleneintrag abgebildet; beispielsweise wird Zelle (0, 0) auf einen dritten Tabelleneintrag 284 abgebildet und wird Zelle (–1, 1) auf einen achten Tabelleneintrag 286 abgebildet.
  • Der Schwerpunkt eines Objekt-Clusters wird als Abtastwertmittelwert des Clusters definiert. Es bestehe der c-te Satz (Objekt-Cluster) Sc = {pj|j = 1, ..., J), ∀pi∀pj ∊ Sc, i ≠ j → ||pi – pj|| < Tsep aus J Punkten, wobei die Distanz zwischen jedem Punktpaar kleiner als Tsep ist. Der Schwerpunkt kann wie folgt geschrieben werden;
    Figure DE102011100927B4_0015
  • Die geometrische Größe des Clusters kann durch eine Eigenzerlegung der folgenden Matrix berechnet werden;
    Figure DE102011100927B4_0016
  • Nämlich D = UΛUT, wobei Λ eine diagonale Matrix ist, wobei die diagonalen Elemente Eigenwerte sind und die Spalten der orthogonalen Matrix U = (u1, u2, u3) die entsprechenden Eigenvektoren sind.
  • Dann wird der minimale bzw. maximale Wert des Skalarprodukts der Punkte pj mit drei Hauptachsen (den drei Eigenvektoren) berechnet. Beispielsweise kann die Größe entlang der Hauptachse un als Lenn = maxj(p T / j un) – minj(p T / j un), n = 1, 2, 3. geschrieben werden. Die Größe des Clusters kann für eine Klassifizierung des Clusters als Fahrzeug, Fußgänger, Fahrrad, Tier etc. verwendet werden.
  • Es wird ein Kalman-Filter verwendet, um den Schwerpunkt eines Objekt-Clusters zu verfolgen. Der Zustandsvektor für eine Verfolgung ist mit s = (x, y, vx, vy) definiert, was die Längsverschiebung, Querverschiebung, Längsgeschwindigkeit bzw. Quergeschwindigkeit der Verfolgung darstellt.
  • Es wird ein Modell einer konstanten Geschwindigkeit (CV von constant-velocity) als Zieldynamikmodell verwendet. Somit kann der neue Zustandsvektor der Verfolgung s' aus s vorhergesagt werden, mit; s' = As + vCV (21) wobei
    Figure DE102011100927B4_0017
    vCV der mittelwertfreie Gaußsche Vektor eines weißen Rauschens ist und ΔT das Abtastzeitintervall ist.
  • Es sei der Objekt-Cluster-Schwerpunkt p c = ( x c, y c)T, wobei die z-Komponente weggelassen wird. Die Messgleichung kann geschrieben werden wie folgt; p c = Hs + wc (22) wobei
    Figure DE102011100927B4_0018
    und wc ein mittelwertfreier Gaußscher Vektor eines weißen Rauschens zum Modellieren des Messprozesses ist.
  • Dann wird ein Kalman-Filter auf die Gleichungen (21) und (22) angewandt, um den Zustandsvektor zu schätzen. Die Geometrieinformation der Verfolgung verwendet die Werte der geometrischen Form des Clusters (z. B. die Größe entlang der Hauptachsen).
  • Die Abbildung stationärer Objekte und die Verfolgungsdaten dynamischer Objekte, die durch die Module 36 und 38 des Softwaresystems 30 erzeugt werden, stellen eine vollständige und genaue Darstellung von Objekten in der Nähe des Fahrzeugs 12 bereit. Durch Verwenden der Laserabtasttechnologie und von spezialisierten Datenverarbeitungsalgorithmen, die oben beschrieben wurden, können die offenbarten Verfahren und das offenbarte System viele Probleme beseitigen, die bei anderen Objektdetektionssystemen auftreten, wodurch eine Information mit besserer Qualität an stromabwärtige Anwendungen im Fahrzeug, wie beispielsweise an Kollisionsvermeidungssysteme oder Systeme eines semiautonomen Fahrens, bereitgestellt wird.
  • Die vorstehende Erläuterung offenbart und beschreibt lediglich beispielhafte Ausführungsformen der vorliegenden Erfindung. Ein Fachmann wird aus solch einer Erläuterung und aus den begleitenden Zeichnungen und den Ansprüchen leicht erkennen, dass verschiedene Änderungen, Abwandlungen und Variationen daran vorgenommen werden können, ohne von dem Gedanken und Schutzumfang der Erfindung wie in den folgenden Ansprüchen definiert abzuweichen.

Claims (10)

  1. Verfahren zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs, wobei das Verfahren umfasst, dass: mehrere Abtastpunkte von einem Laserentfernungsmesser bereitgestellt werden, wobei die Abtastpunkte Orte in einem das Fahrzeug umgebenden Raum darstellen, in dem ein Objekt durch den Laserentfernungsmesser detektiert wurde; die Abtastpunkte und Fahrzeugdynamikdaten verwendet werden, um einen Ort einer Bodenebene festzulegen; die Abtastpunkte und der Ort der Bodenebene verwendet werden, um eine Belegungskarte und eine Höhenkarte für stationäre Objekte zu konstruieren; und die Abtastpunkte und die Belegungskarte für stationäre Objekte verwendet werden, um Daten dynamischer Objekte zu erzeugen, wobei die Daten dynamischer Objekte Objekte identifizieren und verfolgen, die sich bewegen.
  2. Verfahren nach Anspruch 1, wobei das Verwenden der Abtastpunkte und der Fahrzeugdynamikdaten zum Festlegen eines Orts einer Bodenebene umfasst, dass: Fahrzeugnick- und -wankwinkeldaten verwendet werden, um einen vorhergesagten Bodenebenenort aus einem vorherigen Bodenebenenort zu berechnen; eine Ausblendungsoperation an den Abtastpunkten durchgeführt wird, wobei die Ausblendungsoperation den vorhergesagten Bodenebenenort verwendet, um einen Satz von Punkten zu identifizieren, die in eine Bodenebenenberechnung einbezogen werden sollen; eine Matrix erzeugt wird, die den Satz von Punkten enthält, die in die Bodenebenenberechnung einbezogen werden sollen; eine Eigenwertzerlegung an der Matrix durchgeführt wird, um einen kleinsten Eigenwert und einen Eigenvektor, der dem kleinsten Eigenwert zugehörig ist, zu identifizieren; und der Eigenvektor, der dem kleinsten Eigenwert zugehörig ist, verwendet wird, um eine Gleichung für die Bodenebene zu bestimmen.
  3. Verfahren nach Anspruch 2, das ferner umfasst, dass ein aktualisierter Bodenebenenort unter Verwendung eines Kalman-Filters bereitgestellt wird.
  4. Verfahren nach Anspruch 1, wobei das Verwenden der Abtastpunkte und des Orts der Bodenebene zum Konstruieren einer Belegungskarte und einer Höhenkarte für stationäre Objekte umfasst, dass: jeder der Abtastpunkte auf die Bodenebene projiziert wird, um sowohl einen Bodenebenenschnittpunkt als auch einen Normalenvektor für jeden der Abtastpunkte zu bestimmen; die Normalenvektoren für alle Abtastpunkte verwendet werden, um eine Höhenkarte für stationäre Objekteaufzubauen, wobei die Höhenkarte für stationäre Objekte eine Höheninformation für alle Objekte zeigt, die in dem das Fahrzeug umgebenden Raum detektiert werden; und die Bodenebenenschnittpunkte für alle Abtastpunkte verwendet werden, um die Belegungskarte für stationäre Objekte aufzubauen, wobei die Belegungskarte für stationäre Objekte eine Ortsinformation für alle in dem das Fahrzeug umgebenden Raum detektierten Objekte zeigt.
  5. Verfahren nach Anspruch 1, wobei das Verwenden der Abtastpunkte und der Belegungskarte für stationäre Objekte zum Erzeugen von Daten dynamischer Objekte umfasst, dass: Bodenpunkte von den Abtastpunkten entfernt werden, um einen Satz von Objektpunkten zu erzeugen; die jüngst berechnete Belegungskarte für stationäre Objekte verwendet wird; ein Ähnlichkeitsgraph konstruiert wird, um zu bestimmen, welche der Objektpunkte sich miteinander bewegen; Gruppen der Objektpunkte, die sich miteinander bewegen, zu dynamischen Objekten gruppiert werden; die dynamischen Objekte in Objekttypen klassifiziert werden, wobei die Objekttypen Fahrzeug, Fußgänger, Fahrrad und Tier umfassen; Schwerpunkte der dynamischen Objekte berechnet werden; und die dynamischen Objekte verfolgt werden, um die Daten dynamischer Objekte zu erzeugen.
  6. Verfahren nach Anspruch 5, wobei das Gruppieren von Gruppen der Objektpunkte, die sich miteinander bewegen, zu dynamischen Objekten eine Strategie einer Tiefensuche verwendet.
  7. Verfahren nach Anspruch 5, wobei das Verfolgen der dynamischen Objekte ein Kalman-Filter verwendet.
  8. Verfahren nach Anspruch 5, wobei die Daten dynamischer Objekte eine Längs- und eine Querposition und eine Längs- und eine Quergeschwindigkeit relativ zum Boden jedes der dynamischen Objekte umfassen.
  9. Verfahren nach Anspruch 1, das ferner umfasst, dass die Belegungskarte für stationäre Objekte und die Daten dynamischer Objekte in einer Anwendung in dem Fahrzeug verwendet werden.
  10. System zum Detektieren und Verfolgen von Objekten in der Nähe eines Fahrzeugs, wobei das System umfasst: einen Laserentfernungsmesser in dem Fahrzeug zum Bereitstellen mehrerer Abtastpunkte, wobei die Abtastpunkte Orte in einem das Fahrzeug umgebenden Raum, in dem ein Objekt durch den Laserentfernungsmesser detektiert wurde, darstellen; einen ersten Prozessor, der ausgestaltet ist, um eine Bodenfläche zu berechnen und eine Objektbelegungskarte zu erzeugen, wobei die Abtastpunkte verwendet werden; einen zweiten Prozessor, der ausgestaltet ist, um dynamische Objekte unter Verwendung der Objektbelegungskarte und der Abtastpunkte zu identifizieren und zu verfolgen; und ein Modul eines geteilten Speichers zum Teilen von Daten zwischen dem ersten Prozessor und dem zweiten Prozessor.
DE102011100927.6A 2010-05-12 2011-05-09 Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser Active DE102011100927B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
USUS12/778,766 2010-05-12
US12/778,766 US8260539B2 (en) 2010-05-12 2010-05-12 Object and vehicle detection and tracking using 3-D laser rangefinder

Publications (2)

Publication Number Publication Date
DE102011100927A1 DE102011100927A1 (de) 2011-12-29
DE102011100927B4 true DE102011100927B4 (de) 2014-08-28

Family

ID=44912497

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011100927.6A Active DE102011100927B4 (de) 2010-05-12 2011-05-09 Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser

Country Status (3)

Country Link
US (1) US8260539B2 (de)
CN (1) CN102248947B (de)
DE (1) DE102011100927B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021204985A1 (de) 2021-05-18 2022-11-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2442720T3 (en) 2009-06-17 2016-12-19 3Shape As Focus scan devices
US9090263B2 (en) * 2010-07-20 2015-07-28 GM Global Technology Operations LLC Lane fusion system using forward-view and rear-view cameras
JP5772446B2 (ja) * 2010-09-29 2015-09-02 株式会社ニコン 画像処理装置及び画像処理プログラム
US20120253583A1 (en) * 2011-04-01 2012-10-04 David Kevin Herdle Imaging-based proximity detection systems for mining machines
US9650893B2 (en) 2011-04-01 2017-05-16 Joy Mm Delaware, Inc. Imaging-based interface sensor and control device for mining machines
US8565958B1 (en) * 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
WO2013010910A1 (en) 2011-07-15 2013-01-24 3Shape A/S Detection of a movable object when 3d scanning a rigid object
JP5786941B2 (ja) * 2011-08-25 2015-09-30 日産自動車株式会社 車両用自律走行制御システム
WO2013055309A1 (en) * 2011-10-10 2013-04-18 Volvo Group North America, Llc Refuse vehicle control system and method of controlling a refuse vehicle
CN104011780A (zh) * 2011-12-28 2014-08-27 丰田自动车株式会社 障碍物判定装置
US9129211B2 (en) * 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US9227563B2 (en) 2012-09-14 2016-01-05 Bendix Commercial Vehicle Systems Llc Backward movement indicator apparatus for a vehicle
US9720412B1 (en) 2012-09-27 2017-08-01 Waymo Llc Modifying the behavior of an autonomous vehicle using context based parameter switching
CN103064086B (zh) * 2012-11-04 2014-09-17 北京工业大学 一种基于深度信息的车辆跟踪方法
CN103065151B (zh) * 2012-11-04 2017-02-22 北京工业大学 一种基于深度信息的车辆识别方法
WO2014103433A1 (ja) * 2012-12-25 2014-07-03 本田技研工業株式会社 車両周辺監視装置
US9267792B2 (en) * 2013-01-21 2016-02-23 Systèmes Pavemetrics Inc. Method and apparatus for compensating lateral displacements and low speed variations in the measure of a longitudinal profile of a surface
US10347127B2 (en) 2013-02-21 2019-07-09 Waymo Llc Driving mode adjustment
US9070202B2 (en) * 2013-03-14 2015-06-30 Nec Laboratories America, Inc. Moving object localization in 3D using a single camera
US9297892B2 (en) * 2013-04-02 2016-03-29 Delphi Technologies, Inc. Method of operating a radar system to reduce nuisance alerts caused by false stationary targets
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
KR102129588B1 (ko) * 2013-06-26 2020-07-02 현대모비스(주) 물체 인식 시스템
US8825260B1 (en) 2013-07-23 2014-09-02 Google Inc. Object and ground segmentation from a sparse one-dimensional range data
KR101534927B1 (ko) * 2013-10-08 2015-07-07 현대자동차주식회사 차량 인지 장치 및 방법
JP6149676B2 (ja) * 2013-10-09 2017-06-21 富士通株式会社 画像処理装置、画像処理方法、及び、プログラム
KR101519261B1 (ko) * 2013-12-17 2015-05-11 현대자동차주식회사 차량의 모니터링 방법 및 자동 제동 장치
CN103809186B (zh) * 2013-12-20 2016-10-05 长沙中联重科环卫机械有限公司 路缘检测系统、方法、装置及工程机械
KR20150078881A (ko) * 2013-12-31 2015-07-08 현대자동차주식회사 클라우드 컴퓨팅을 통한 차량 위치 측정방법
US8886387B1 (en) 2014-01-07 2014-11-11 Google Inc. Estimating multi-vehicle motion characteristics by finding stable reference points
WO2015118120A1 (en) 2014-02-07 2015-08-13 3Shape A/S Detecting tooth shade
FR3019361B1 (fr) 2014-03-28 2017-05-19 Airbus Helicopters Procede de detection et de visualisation des obstacles artificiels d'un aeronef a voilure tournante
DE102014005181A1 (de) 2014-04-03 2015-10-08 Astrium Gmbh Positions- und Lagebestimmung von Objekten
US20150285639A1 (en) * 2014-04-04 2015-10-08 Umm-Al-Qura University Method and system for crowd sensing to be used for automatic semantic identification
CN103942964B (zh) * 2014-04-08 2016-05-04 华南理工大学 一种基于激光扫描的自行车群定位检测装置及方法
US9614346B2 (en) * 2014-04-13 2017-04-04 Hong Kong Baptist University Organic laser for measurement
DE102014208967A1 (de) 2014-05-13 2015-11-19 Bayerische Motoren Werke Aktiengesellschaft Umfeldkarte für Fahrflächen mit beliebigem Höhenverlauf
US9798007B2 (en) 2014-07-01 2017-10-24 Sikorsky Aircraft Corporation Obstacle data model construction system with range sensor shadows and use in motion planning
US9541404B2 (en) * 2014-08-29 2017-01-10 Samsung Electronics Co., Ltd. System for determining the location of entrances and areas of interest
US10185030B2 (en) 2014-09-05 2019-01-22 GM Global Technology Operations LLC Object boundary detection for automotive radar imaging
US9990550B2 (en) 2014-09-19 2018-06-05 Bendix Commercial Vehicle Systems Llc Wide baseline object detection stereo system
JP6270746B2 (ja) * 2015-01-06 2018-01-31 オムロンオートモーティブエレクトロニクス株式会社 物体検出装置、及び、車両用衝突防止制御装置
US9592828B2 (en) * 2015-04-13 2017-03-14 Nec Corporation Long term driving danger prediction system
JP6337834B2 (ja) * 2015-05-19 2018-06-06 株式会社デンソー 保護制御装置
CN104933708A (zh) * 2015-06-07 2015-09-23 浙江大学 一种基于多谱三维特征融合的植被环境中障碍物检测方法
US9650026B2 (en) * 2015-08-31 2017-05-16 GM Global Technology Operations LLC Method and apparatus for rear cross traffic avoidance
KR102490602B1 (ko) * 2015-09-04 2023-01-19 현대모비스 주식회사 차량 주변의 물체 인식 장치 및 그 방법
US10415978B2 (en) 2015-11-20 2019-09-17 Samsung Electronics Co., Ltd. Landmark location determination
CN105606023A (zh) * 2015-12-18 2016-05-25 武汉万集信息技术有限公司 一种车辆外廓尺寸测量方法和系统
JP6657934B2 (ja) * 2015-12-25 2020-03-04 トヨタ自動車株式会社 物体検出装置
US9707961B1 (en) * 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
CN107193011A (zh) * 2016-03-15 2017-09-22 山东理工大学 一种用于快速计算无人驾驶车感兴趣区域内车辆速度的方法
DE102016105536A1 (de) * 2016-03-24 2017-09-28 Valeo Schalter Und Sensoren Gmbh Verfahren zur Erfassung von wenigstens einem Objekt, Vorrichtung einer Sensoreinrichtung, Sensoreinrichtung und Fahrerassistenzsystem mit wenigstens einer Sensoreinrichtung
JP6638531B2 (ja) * 2016-04-07 2020-01-29 トヨタ自動車株式会社 周辺物体検出装置
WO2018125938A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Enrichment of point cloud data for high-definition maps for autonomous vehicles
CN117310741A (zh) * 2017-01-03 2023-12-29 应诺维思科技有限公司 用于检测和分类物体的激光雷达系统和方法
US10838067B2 (en) * 2017-01-17 2020-11-17 Aptiv Technologies Limited Object detection system
EP3392834B1 (de) 2017-04-17 2019-12-25 HTC Corporation 3d-modell-rekonstruktionsverfahren, elektronische vorrichtung und nichttransitorisches computerlesbares speichermedium
US10262234B2 (en) * 2017-04-24 2019-04-16 Baidu Usa Llc Automatically collecting training data for object recognition with 3D lidar and localization
US10552691B2 (en) * 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
WO2018214084A1 (en) * 2017-05-25 2018-11-29 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for representing environmental elements, system, and vehicle/robot
JP2018199433A (ja) * 2017-05-29 2018-12-20 三菱電機株式会社 自動操舵制御装置および操舵制御方法
CN107390679B (zh) * 2017-06-13 2020-05-05 合肥中导机器人科技有限公司 存储设备、激光导航叉车
US20190005667A1 (en) * 2017-07-24 2019-01-03 Muhammad Zain Khawaja Ground Surface Estimation
SG11201810922VA (en) * 2017-08-25 2019-03-28 Beijing Didi Infinity Technology & Development Co Ltd Methods and systems for detecting environmental information of a vehicle
CN109509260B (zh) * 2017-09-14 2023-05-26 阿波罗智能技术(北京)有限公司 动态障碍物点云的标注方法、设备及可读介质
JP6753383B2 (ja) * 2017-10-23 2020-09-09 株式会社Soken 物体検知装置
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
TWI651686B (zh) * 2017-11-30 2019-02-21 國家中山科學研究院 一種光學雷達行人偵測方法
TWI652449B (zh) * 2017-12-11 2019-03-01 財團法人車輛研究測試中心 三維感測器之動態地面偵測方法
US10303178B1 (en) 2017-12-15 2019-05-28 Waymo Llc Collision mitigation static occupancy grid
CN108460791A (zh) * 2017-12-29 2018-08-28 百度在线网络技术(北京)有限公司 用于处理点云数据的方法和装置
EP3546983B1 (de) * 2018-03-28 2021-12-08 Aptiv Technologies Limited Verfahren zur objektidentifizierung in einem verkehrsraum
US10921455B2 (en) * 2018-04-05 2021-02-16 Apex.AI, Inc. Efficient and scalable three-dimensional point cloud segmentation for navigation in autonomous vehicles
US10884422B2 (en) * 2018-04-16 2021-01-05 Baidu Usa Llc Method for generating trajectories for autonomous driving vehicles (ADVS)
US10816659B2 (en) * 2018-05-15 2020-10-27 GM Global Technology Operations LLC Method for efficient volumetric integration for 3D sensors
US11035943B2 (en) * 2018-07-19 2021-06-15 Aptiv Technologies Limited Radar based tracking of slow moving objects
US10627516B2 (en) * 2018-07-19 2020-04-21 Luminar Technologies, Inc. Adjustable pulse characteristics for ground detection in lidar systems
JP7123430B2 (ja) * 2018-07-30 2022-08-23 学校法人千葉工業大学 地図生成システムおよび移動体
CN110826357B (zh) * 2018-08-07 2022-07-26 北京市商汤科技开发有限公司 对象三维检测及智能驾驶控制的方法、装置、介质及设备
CN109255302A (zh) * 2018-08-15 2019-01-22 广州极飞科技有限公司 目标物识别方法及终端、移动装置控制方法及终端
US10914813B2 (en) * 2018-08-21 2021-02-09 Aptiv Technologies Limited Classifying potentially stationary objects tracked by radar
CN109215136B (zh) * 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109143242B (zh) 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、系统、计算机设备和存储介质
CN109146898B (zh) 2018-09-07 2020-07-24 百度在线网络技术(北京)有限公司 一种仿真数据量增强方法、装置以及终端
CN109190573B (zh) 2018-09-12 2021-11-12 阿波罗智能技术(北京)有限公司 应用于无人驾驶车辆的地面检测方法、电子设备、车辆
US10983530B2 (en) * 2018-10-31 2021-04-20 Wipro Limited Method and system for determining an accurate position of an autonomous vehicle
US11200430B2 (en) * 2018-11-05 2021-12-14 Tusimple, Inc. Systems and methods for detecting trailer angle
CN109613547B (zh) * 2018-12-28 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 一种基于反光板的占据栅格地图构建方法
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
US11776143B2 (en) * 2019-03-28 2023-10-03 Nec Corporation Foreign matter detection device, foreign matter detection method, and program
CN110211388A (zh) * 2019-05-27 2019-09-06 武汉万集信息技术有限公司 基于3d激光雷达的多车道自由流车辆匹配方法及系统
CN115122323A (zh) * 2019-08-09 2022-09-30 科沃斯机器人股份有限公司 自主移动设备
EP3800886A1 (de) * 2019-10-01 2021-04-07 BlackBerry Limited Winkelmodus zur tree-basierten punktwolkencodierung
US11548433B2 (en) * 2019-12-06 2023-01-10 Karma Automotive Llc Automotive directional dark area pathway illumination
CN112995758B (zh) * 2019-12-13 2024-02-06 鹏城实验室 点云数据的编码方法、解码方法、存储介质及设备
CN110796128B (zh) * 2020-01-06 2020-04-03 中智行科技有限公司 一种地面点识别方法、装置及存储介质和终端设备
JP7378302B2 (ja) * 2020-01-23 2023-11-13 日産自動車株式会社 物体検出方法及び物体検出装置
RU199219U1 (ru) * 2020-03-23 2020-08-24 Акционерное общество "Научно-исследовательский институт "Полюс" им. М.Ф. Стельмаха" (АО "НИИ "Полюс" им. М.Ф. Стельмаха") Лазерный дальномер
US12118798B2 (en) * 2020-08-25 2024-10-15 Ford Global Technologies, Llc Autonomous vehicle system for performing object detections using a logistic cylinder pedestrian model
CN112668653A (zh) * 2020-12-30 2021-04-16 北京百度网讯科技有限公司 基于激光雷达地图的回环检测方法、装置、设备及介质
US11328601B1 (en) 2021-02-22 2022-05-10 Volvo Car Corporation Prevention of low-speed sideswipe collisions with non-moving objects
US11635507B2 (en) * 2021-03-03 2023-04-25 Adobe Inc. Systems for estimating three-dimensional trajectories of physical objects
US11768289B2 (en) * 2021-05-24 2023-09-26 Caterpillar Paving Products Inc. Work machine with LiDAR having reduced false object detection
CN113920134B (zh) * 2021-09-27 2022-06-07 山东大学 一种基于多线激光雷达的斜坡地面点云分割方法及系统
US12086996B2 (en) * 2022-01-03 2024-09-10 GM Global Technology Operations LLC On-vehicle spatial monitoring system
CN114674226B (zh) * 2022-03-25 2022-12-13 北京城建设计发展集团股份有限公司 预制装配式构件扫描快速捕获边界的方法
FR3141534A1 (fr) * 2022-10-26 2024-05-03 Continental Autonomous Mobility Germany GmbH Procédé de traitement de données acquises à partir d’un capteur radar

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115747A1 (de) * 1991-05-14 1992-11-19 Hipp Johann F Verfahren und vorrichtung zur situations-, hindernis- und objekterkennung
DE10258794A1 (de) * 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
DE10319700A1 (de) * 2003-05-02 2004-11-18 Ibeo Automobile Sensor Gmbh Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE10353347A1 (de) * 2003-11-14 2005-06-02 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Fußgängern

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418346B2 (en) 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
US6687577B2 (en) 2001-12-19 2004-02-03 Ford Global Technologies, Llc Simple classification scheme for vehicle/pole/pedestrian detection
JP3938532B2 (ja) 2002-09-05 2007-06-27 本田技研工業株式会社 車両制御装置、プログラム及び方法
US20050007450A1 (en) * 2002-12-13 2005-01-13 Duane Hill Vehicle mounted system and method for capturing and processing physical data
US7068815B2 (en) * 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
EP1709568A4 (de) 2003-12-15 2009-07-29 Sarnoff Corp Verfahren und vorrichtung zur objektverfolgung vor einer anstehende-kollision-detektion
EP1641268A4 (de) 2004-06-15 2006-07-05 Matsushita Electric Ind Co Ltd Monitor und vorrichtung zur überwachung der fahrzeugumgebung
JP4341564B2 (ja) 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
DE602006021188D1 (de) * 2005-07-26 2011-05-19 Macdonald Dettwiler & Associates Inc Ahrzeug
US7711147B2 (en) 2006-07-28 2010-05-04 Honda Motor Co., Ltd. Time-to-contact estimation device and method for estimating time to contact
CA2698260C (en) 2007-09-14 2017-05-16 Magna International Inc. Object detection and ranging method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4115747A1 (de) * 1991-05-14 1992-11-19 Hipp Johann F Verfahren und vorrichtung zur situations-, hindernis- und objekterkennung
DE10258794A1 (de) * 2002-12-16 2004-06-24 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung und Verfolgung von Objekten
DE10319700A1 (de) * 2003-05-02 2004-11-18 Ibeo Automobile Sensor Gmbh Verfahren und Vorrichtung zur Ermittlung einer Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE10353347A1 (de) * 2003-11-14 2005-06-02 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Fußgängern

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021204985A1 (de) 2021-05-18 2022-11-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke

Also Published As

Publication number Publication date
CN102248947A (zh) 2011-11-23
DE102011100927A1 (de) 2011-12-29
US8260539B2 (en) 2012-09-04
US20110282581A1 (en) 2011-11-17
CN102248947B (zh) 2013-09-18

Similar Documents

Publication Publication Date Title
DE102011100927B4 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102020112314A1 (de) Verifizierung von fahrzeugbildern
DE112019000049T5 (de) Für autonomes fahren geeignete objekterfassung und erfassungssicherheit
DE102011078615B4 (de) Objekterfassungsvorrichtung und objekterfassungsprogramm
DE102020113848A1 (de) Ekzentrizitätsbildfusion
DE102019118999A1 (de) Lidar-basierte objektdetektion und -klassifikation
DE102011117585A1 (de) Systeme und Verfahren zum Verfolgen von Objekten
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
DE112016005947B4 (de) Fahrzeugbestimmungsvorrichtung, Fahrzeugbestimmungsverfahren und Fahrzeugbestimmungsprogramm
DE112015007054B4 (de) Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102017206433A1 (de) Automatikfahrtsteuerungssystem eines mobilen Objektes
DE102019123483B4 (de) Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
DE102021101270A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
DE112021006299T5 (de) Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten
DE102013113960A1 (de) Fahrbahnoberflächenform-Ermittlungsvorrichtung
DE102018121008A1 (de) Kreuzverkehrserfassung unter verwendung von kameras
DE102020110392A1 (de) Vorrichtung zum ermitteln eines spurwechselpfads eines autonomen fahrzeugs und verfahren dafür
DE102021114078A1 (de) Detektieren dreidimensionaler Strukturmodelle zur Laufzeit in Fahrzeugen
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
DE102020127315B4 (de) System und Verfahren zum Annotieren von Automobilradardaten
DE112017002839T5 (de) Parkplatzsuchvorrichtung, Programm und Aufzeichnungsmedium
DE102011118171A1 (de) Verfahren und Vorrichtung zur Schätzung einer Fahrbahnebene und zur Klassifikation von 3D-Punkten
DE102020201000B3 (de) Computerimplementiertes Verfahren und System zum Erhalten eines Umfeldmodells und Steuergerät für ein automatisiert betreibbares Fahrzeug
DE112022002046T5 (de) Fahrvorrichtung, fahrzeug und verfahren zum automatisierten fahren und/oder assistierten fahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0021013000

Ipc: B60R0021013400

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: B60R0021013000

Ipc: B60R0021013400

Effective date: 20120313

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final