DE102022103147A1 - Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen - Google Patents

Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen Download PDF

Info

Publication number
DE102022103147A1
DE102022103147A1 DE102022103147.0A DE102022103147A DE102022103147A1 DE 102022103147 A1 DE102022103147 A1 DE 102022103147A1 DE 102022103147 A DE102022103147 A DE 102022103147A DE 102022103147 A1 DE102022103147 A1 DE 102022103147A1
Authority
DE
Germany
Prior art keywords
points
slope
lidar
point
elevation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022103147.0A
Other languages
English (en)
Inventor
Soo Kyung RYU
Yoon Ho Jang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Publication of DE102022103147A1 publication Critical patent/DE102022103147A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/24Acquisition or tracking or demodulation of signals transmitted by the system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position

Abstract

Verfahren (120A) und Vorrichtung (300) zum Verfolgen eines Objekts unter Verwendung eines LiDAR-Sensors und Aufzeichnungsmedium, welches ein Programm speichert, um das Verfahren auszuführen, wobei das Objektverfolgungsverfahren (120A), welches einen LiDAR-Sensor verwendet, aufweisen kann: Bilden (124) einer ersten Neigung (S1) unter Verwendung von GPS-Höhenpunkten eines Fahrzeugfahrbereichs, Detektieren (230) einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und Ermitteln (126) einer zweiten Neigung (S2) unter Verwendung der detektierten Fahrspur, Drehen (128) der GPS-Höhenpunkte unter Verwendung der ersten Neigung (S1) und der zweiten Neigung (S2), Erhalten (130) einer dritten Neigung (S3) unter Verwendung eines Zielpunktes (Pcur) und eines benachbarten Punktes (Pprev) von den LiDAR-Punkten, wobei der benachbarte Punkt (Pprev) zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt (Pcur) gehört, Erhalten (132) einer vierten Neigung (S4) unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und Ermitteln (136), dass der Zielpunkt ein Bodenpunkt ist, wenn ein Absolutwert einer Differenz (ΔS) zwischen der dritten Neigung (S3) und der vierten Neigung (S4) kleiner als eine Schwellenwert-Neigung (Sth) ist (134).

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR)-Sensors und ein Aufzeichnungsmedium, welches ein Programm speichert, um das Verfahren auszuführen.
  • Beschreibung von bezogener Technik
  • Vor dem Erstellen einer Spur unter Verwendung von einer Mehrzahl von LiDAR-Punkten, die unter Verwendung eines LiDAR-Sensors erfasst werden/wurden, ist es erforderlich, in einem Vorverarbeitungsprozess zu ermitteln, ob die LiDAR-Punkte Punkte sind, die zu einer Straßenfläche korrespondieren, oder Punkte, die zu einem Objekt korrespondieren. Insbesondere weil LiDAR-Punkte stark von der äußeren Umgebung beeinflusst werden, wurden in letzter Zeit verschiedene Studien durchgeführt, um eine Ermittlung zu ermöglichen, ob LiDAR-Punkte zu einer Straßenfläche korrespondieren oder zu einem Objekt korrespondieren, ohne von der äußeren Umgebung beeinflusst zu werden.
  • Die in diesem Abschnitt „Hintergrund der Erfindung“ enthaltenen Informationen dienen lediglich der Verbesserung des Verständnisses des allgemeinen Hintergrunds der Erfindung und sollen nicht als Anerkennung oder als irgendeine Form von Hinweis darauf verstanden werden, dass diese Informationen den Stand der Technik bilden, welcher einem Fachmann bereits bekannt ist.
  • Erläuterung der Erfindung
  • Verschiedene Aspekte der vorliegenden Erfindung sind darauf gerichtet, ein Verfahren und eine Vorrichtung zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR)-Sensors und ein Aufzeichnungsmedium, welches ein Programm speichert, um das Verfahren auszuführen, bereitzustellen, die im Wesentlichen ein oder mehrere Probleme aufgrund von Einschränkungen und Nachteilen der bezogenen Technik zu vermeiden.
  • Ausführungsformen stellen ein Verfahren und eine Vorrichtung zum Verfolgen eines Objekts unter Verwendung eines LiDAR-Sensors und ein Aufzeichnungsmedium, welches ein Programm speichert, um das Verfahren auszuführen, bereit, welche ein akkurates und schnelles Verfolgen eines Objekts ermöglichen/erlauben.
  • Jedoch sind die Ziele, die von den beispielhaften Ausführungsformen zu erreichen sind, nicht auf die oben erwähnten Ziele beschränkt und andere Ziele, welche hierein nicht erwähnt sind, werden von einem Fachmann aus der folgenden Beschreibung klar verstanden.
  • Ein Objektverfolgungsverfahren unter Verwendung eines LiDAR(Lichterfassung- und Entfernungsmessung, von engl. „light detection and ranging“)-Sensors gemäß verschiedenen beispielhaften Ausführungsformen der vorliegenden Erfindung kann aufweisen: Bilden einer ersten Neigung unter Verwendung von Globales-Positionsbestimmungssystem(GPS)-Höhenpunkten eines Fahrzeugfahrbereichs, Detektieren einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und Ermitteln einer zweiten Neigung unter Verwendung der detektierten Fahrspur, Drehen der GPS-Höhenpunkte unter Verwendung der ersten Neigung und der zweiten Neigung, Erhalten einer dritten Neigung unter Verwendung eines Zielpunktes und eines benachbarten Punktes von den LiDAR-Punkten, wobei der benachbarte Punkt zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt gehört, Erhalten einer vierten Neigung unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und Ermitteln, dass der Zielpunkt ein Bodenpunkt ist, wenn ein Absolutwert einer Differenz zwischen der dritten Neigung und der vierten Neigung kleiner als eine Schwellenwert-Neigung ist.
  • Zum Beispiel kann das Objektverfolgungsverfahren ferner aufweisen: Erfassen der GPS-Höhenpunkte des Fahrzeugfahrbereichs und Erzeugen von interpolierten Höhenpunkten, welche Höhen von Bereichen angeben, die sich zwischen den GPS-Höhenpunkten befinden, innerhalb des Fahrzeugfahrbereichs, und die erste Neigung kann unter Verwendung von zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte gebildet werden.
  • Zum Beispiel kann das Bilden der ersten Neigung ferner aufweisen: Auswählen eines ersten Überprüfungszielbereichs, der sich innerhalb eines ersten Abstands, der an dem Fahrzeug zentriert ist, befindet, innerhalb des Fahrzeugfahrbereichs, und die erste Neigung kann unter Verwendung zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte, die innerhalb des ersten Überprüfungszielbereichs vorhanden sind, gebildet werden.
  • Zum Beispiel kann das Detektieren der Fahrspur aufweisen: Auswählen von LiDAR-Punkten, die sich innerhalb eines vorbestimmten Abstands, der am Fahrzeug zentriert ist, befinden, aus den LiDAR-Punkten, Auswählen von LiDAR-Punkten, die eine relativ hohe Intensität haben, aus den ausgewählten LiDAR-Punkten, die sich innerhalb des vorbestimmten Abstands befinden, und Auswählen von LiDAR-Punkten, die eine lineare Eigenschaft haben, als LiDAR-Punkte, die zur Fahrspur korrespondieren, aus den LiDAR-Punkten, die eine relativ hohe Intensität haben.
  • Zum Beispiel kann das Ermitteln der zweiten Neigung ferner aufweisen: Auswählen eines zweiten Überprüfungszielbereichs, der sich innerhalb eines zweiten Abstands, der am Fahrzeug zentriert ist, befindet, innerhalb des Fahrzeugfahrbereichs, und die zweite Neigung kann unter Verwendung von LiDAR-Punkten, die innerhalb des zweiten Überprüfungszielbereich vorhanden sind, von den ausgewählten LiDAR-Punkten, die zur Fahrspur korrespondieren, ermittelt werden.
  • Zum Beispiel können der erste Abstand und der zweite Abstand identisch zueinander sein.
  • Zum Beispiel können die gedrehten GPS-Höhenpunkte eine Neigung bilden, die äquivalent ist zu einer Summe der ersten Neigung und der zweiten Neigung.
  • Zum Beispiel kann die Schwellenwert-Neigung 0,5° betragen.
  • Zum Beispiel kann das Objektverfolgungsverfahren ferner aufweisen: Vorverarbeiten der LiDAR-Punkte, Clustern der vorverarbeiteten LiDAR-Punkte in sinnvolle Einheiten (z.B. aussagekräftige Einheiten) gemäß vorbestimmten Kriterien und Analysieren einer Form eines Objekts unter Verwendung der geclusterten LiDAR-Punkte, und das Erhalten der ersten bis vierten Neigung, das Drehen der GPS-Höhenpunkte und das Ermitteln, ob der Zielpunkt der Bodenpunkt ist, können im Vorverarbeiten der LiDAR-Punkte durchgeführt werden.
  • Eine Objektverfolgungsvorrichtung unter Verwendung eines LiDAR(Lichterfassung- und Entfernungsmessung, von engl. „light detection and ranging“)-Sensors gemäß einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung kann aufweisen: eine erste Neigungserfassungseinheit, welche eingerichtet ist, um eine erste Neigung unter Verwendung von GPS-Höhenpunkten eines Fahrzeugfahrbereichs zu bilden, eine zweite Neigungserfassungseinheit, welche eingerichtet ist, um eine Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs zu detektieren, und um eine zweite Neigung unter Verwendung der Fahrspur zu ermitteln, eine Höhenpunktdreheinheit, welche eingerichtet ist, um die GPS-Höhenpunkte unter Verwendung der ersten Neigung und der zweiten Neigung zu drehen, eine dritte Neigungserfassungseinheit, welche eingerichtet ist, um eine dritte Neigung unter Verwendung eines Zielpunkts und eines benachbarten Punkts von den LiDAR-Punkten zu ermitteln, wobei der benachbarte Punkt zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt gehört, eine vierte Neigungserfassungseinheit, welche eingerichtet ist, um eine vierte Neigung unter Verwendung von Punkten zu ermitteln, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, eine Vergleichseinheit, welche eingerichtet ist, um einen Absolutwert einer Differenz zwischen der dritten Neigung und der vierten Neigung mit einer Schwellenwert-Neigung zu vergleichen, und eine Punktattributermittlungseinheit, welche eingerichtet ist, um in Antwort auf ein Ergebnis des Vergleichs mittels der Vergleichseinheit zu ermitteln, ob der Zielpunkt ein Bodenpunkt oder ein Objektpunkt ist.
  • Zum Beispiel kann die Objektverfolgungsvorrichtung ferner aufweisen: eine GPS-Höhenerfassungseinheit, welche eingerichtet ist, um die GPS-Höhenpunkte des Fahrzeugfahrbereichs zu erfassen.
  • Zum Beispiel kann die Objektverfolgungsvorrichtung ferner aufweisen: eine Höhenpunktinterpolationseinheit, welche eingerichtet ist, um interpolierte Höhenpunkte innerhalb des Fahrzeugfahrbereichs zu erzeugen, welche die Höhen von Bereichen angeben, die sich zwischen den GPS-Höhenpunkten befinden, und die erste Neigungserfassungseinheit kann die erste Neigung unter Verwendung von zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte bilden.
  • Zum Beispiel kann die zweite Neigungserfassungseinheit aufweisen: eine Punktauswahleinheit, welche eingerichtet ist, um LiDAR-Punkte, welche zur Fahrspur korrespondieren, aus den LiDAR-Punkten auszuwählen, und eine Neigungsberechnungseinheit (z.B. eine Neigungsermittlungseinheit), welche eingerichtet ist, um die zweite Neigung unter Verwendung der von der Punktauswahleinheit ausgewählten LiDAR-Punkte zu ermitteln.
  • Zum Beispiel kann die Punktauswahleinheit aufweisen: eine Abstandsüberprüfungseinheit, welche eingerichtet ist, um aus den LiDAR-Punkten LiDAR-Punkte auszuwählen, die sich innerhalb eines vorbestimmten Abstands, der am Host-Fahrzeug zentriert ist, befinden, eine Intensitätsüberprüfungseinheit, welche eingerichtet ist, um LiDAR-Punkte, die eine relativ hohe Intensität haben, aus den ausgewählten LiDAR-Punkten auszuwählen, die innerhalb des vorbestimmten Abstands vorhanden sind, und eine Linearitätsüberprüfungseinheit, welche eingerichtet ist, um aus den LiDAR-Punkten, die eine relativ hohe Intensität haben, LiDAR-Punkte, die eine lineare Eigenschaft haben, als LiDAR-Punkte auszuwählen, die zur Fahrspur korrespondieren.
  • Zum Beispiel kann die Höhenpunktdreheinheit eine Neigungssyntheseeinheit aufweisen, welche eingerichtet ist, um die erste Neigung und die zweite Neigung zu summieren, und um die gedrehten GPS-Höhenpunkte, die von einer summierten Neigung gebildet werden, auszugeben.
  • Zum Beispiel kann die Schwellenwert-Neigung 0,5° betragen.
  • Zum Beispiel kann die Objektverfolgungsvorrichtung ferner aufweisen: den LiDAR-Sensor, welcher eingerichtet ist, um die LiDAR-Punkte zu erfassen, welche sich auf den Fahrzeugfahrbereich beziehen (z.B. diesen betreffen), eine Vorverarbeitungseinheit, welche eingerichtet ist, um die LiDAR-Punkte vorzuverarbeiten, wobei die Vorverarbeitungseinheit aufweist: die erste Neigungserfassungseinheit, die zweite Neigungserfassungseinheit, die dritte Neigungserfassungseinheit, die vierte Neigungserfassungseinheit, die Höhenpunktdreheinheit, die Vergleichseinheit und die Punktattributermittlungseinheit, eine Clustering-Einheit, welche eingerichtet ist, um die vorverarbeiteten LiDAR-Punkte gemäß vorbestimmten Kriterien in sinnvolle Einheiten (z.B. aussagekräftige Einheiten) zu clustern, und eine Formanalyseeinheit, welche eingerichtet ist, um eine Form eines Objekts unter Verwendung der geclusterten LiDAR-Punkte zu analysieren.
  • Gemäß verschiedenen exemplarischen Ausführungsformen der vorliegenden Erfindung kann ein computerlesbares Aufzeichnungsmedium, auf dem ein Programm zum Ausführen eines Verfahrens zum Verfolgen eines Objekts unter Verwendung eines LiDAR(Lichterfassung- und Entfernungsmessung, von engl. „light detection and ranging“)-Sensors gespeichert ist, ein Programm speichern, um zu implementieren: eine Funktion zum Bilden einer ersten Neigung unter Verwendung von GPS-Höhenpunkten eines Fahrzeugfahrbereichs, eine Funktion zum Detektieren einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und zum Ermitteln einer zweiten Neigung unter Verwendung der detektierten Fahrspur, eine Funktion zum Drehen der GPS-Höhenpunkte unter Verwendung der ersten Neigung und der zweiten Neigung, eine Funktion zum Erhalten einer dritten Neigung unter Verwendung eines Zielpunktes und eines benachbarten Punktes von den LiDAR-Punkten, wobei der benachbarte Punkt zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt gehört, eine Funktion zum Erhalten einer vierten Neigung unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und eine Funktion zum Ermitteln, dass der Zielpunkt ein Bodenpunkt ist, wenn ein Absolutwert einer Differenz zwischen der dritten Neigung und der vierten Neigung kleiner als eine Schwellenwert-Neigung ist.
  • Die Verfahren und Vorrichtungen der vorliegenden Erfindung haben weitere Merkmale/Eigenschaften und Vorteile, welche aus den beigefügten Zeichnungen, welche hierin aufgenommen sind, und der folgenden ausführlichen Beschreibung, welche zusammen dazu dienen, bestimmte Grundsätze der vorliegenden Erfindung zu erklären, ersichtlich sind oder genauer dargestellt werden.
  • Figurenliste
    • 1 ist ein Flussdiagramm, das ein Objektverfolgungsverfahren unter Verwendung eines LiDAR-Sensors gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Blockdiagramm einer Objektverfolgungsvorrichtung unter Verwendung eines LiDAR-Sensors gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
    • 3 ist ein Flussdiagramm, das das Objektverfolgungsverfahren gemäß der Ausführungsform zeigt.
    • 4 ist ein Flussdiagramm, das eine beispielhafte Ausführungsform des in 3 gezeigten Schritts 122 zeigt.
    • 5 ist ein Diagramm zum Helfen beim Verständnis des in 4 gezeigten Schritts 122A.
    • 6 ist ein Flussdiagramm zum Helfen beim Verständnis einer beispielhaften Ausführungsform des in 3 gezeigten Schritts 124.
    • 7 ist ein Diagramm zum Helfen beim Verständnis der in 3 gezeigten Schritte 124 bis 128.
    • 8 ist ein Flussdiagramm zum Helfen beim Verständnis einer beispielhaften Ausführungsform des in 3 gezeigten Schritts 126.
    • 9 ist ein Flussdiagramm, das eine beispielhafte Ausführungsform des in 8 gezeigten Schritts 230 zeigt.
    • 10 ist ein Diagramm zum Helfen beim Verständnis des in 8 gezeigten Schritts 250.
    • 11 ist ein Diagramm, das einen Zielpunkt und einen benachbarten Punkt beispielhaft zeigt.
    • 12A und 12B sind Diagramm zum Helfen beim Verständnis der in 3 gezeigten Schritte 130 bis 138.
    • 13 ist ein Diagramm zum Helfen beim Verständnis des in 3 gezeigten Schritts 132.
    • 14 ist ein Blockdiagramm der Objektverfolgungsvorrichtung unter Verwendung eines LiDAR-Sensors gemäß der Ausführungsform.
    • 15 ist ein Blockdiagramm einer beispielhaften Ausführungsform der in 14 gezeigten Höheninformationserfassungseinheit.
    • 16 ist ein Blockdiagramm einer beispielhaften Ausführungsform der in 14 gezeigten zweiten Neigungserfassungseinheit.
    • 17 ist ein Blockdiagramm einer beispielhaften Ausführungsform der in 16 gezeigten Punktauswahleinheit.
    • 18 ist ein Blockdiagramm, das eine beispielhafte Ausführungsform der in 14 gezeigten Höhenpunktdreheinheit zeigt.
    • 19A, 19B und 19C zeigen Ergebnisse, die unter Verwendung von Objektverfolgungsverfahren und -vorrichtungen gemäß einem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn eine Bergauf-Straße (z.B. eine bergauf führende Straße) in einem Fahrzeugfahrbereich enthalten ist.
    • 20A, 20B und 20C zeigen Ergebnisse, die unter Verwendung der Objektverfolgungsverfahren und -vorrichtungen gemäß dem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn eine Bergab-Straße (z.B. eine bergab führende Straße) in einem Fahrzeugfahrbereich enthalten ist.
    • 21A, 21 B und 21C zeigen Ergebnisse, die unter Verwendung der Objektverfolgungsverfahren und -vorrichtungen gemäß dem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn keine Bergab-Straße und keine Bergauf-Straße in einem Fahrzeugfahrbereich enthalten ist.
  • Es ist zu verstehen, dass die beigefügten Zeichnungen nicht notwendigerweise maßstabsgetreu sind und eine etwas vereinfachte Darstellung verschiedener Merkmale/Eigenschaften darstellen, welche veranschaulichend für die Grundprinzipien der Erfindung sind. Die spezifischen Gestaltungs-/Konstruktionsmerkmale der vorliegenden Erfindung, wie sie hierin offenbart sind, einschließlich zum Beispiel spezifischer Abmessungen, Ausrichtungen, Positionen und Formen, werden zum Teil durch die jeweilige beabsichtigte Anwendung und Nutzungsumgebung bestimmt.
  • In den Figuren beziehen sich Bezugszeichen auf die gleichen oder gleichwertige Teile der vorliegenden Erfindung über die verschiedenen Figuren der Zeichnung hinweg.
  • Ausführliche Beschreibung
  • Es wird nun im Detail Bezug auf verschiedene Ausführungsformen der vorliegenden Erfindung genommen, von der Beispiele in den beigefügten Zeichnungen dargestellt sind und im Folgenden beschrieben werden. Obwohl die Erfindung in Verbindung mit beispielhaften Ausführungsformen der vorliegenden Erfindung beschrieben wird, ist es zu verstehen, dass die vorliegende Beschreibung nicht dazu gedacht ist, die vorliegende Erfindung auf diese beispielhaften Ausführungsformen zu beschränken. Die Erfindung ist im Gegenteil dazu gedacht, nicht nur die beispielhaften Ausführungsformen der vorliegenden Erfindung abzudecken, sondern auch verschiedene Alternativen, Änderungen, Abwandlungen und andere Ausführungsformen, welche im Umfang der Erfindung, wie er durch die angehängten Ansprüche definiert ist, enthalten sein können.
  • Die vorliegende Erfindung wird jetzt ausführlicher mit Bezug auf die begleitenden Zeichnungen beschrieben, in welchen verschiedene Ausführungsformen gezeigt sind. Die Beispiele können jedoch in vielen verschiedenen Formen verkörpert sein und sollen nicht als einschränkend für die hierin dargestellten Ausführungsformen ausgelegt werden. Diese Ausführungsformen sind vielmehr bereitgestellt, sodass die vorliegende Offenbarung/Erfindung vollständig und komplett ist, und werden einem Fachmann den Umfang der vorliegenden Erfindung vollständiger vermitteln.
  • Es ist zu verstehen, dass, wenn ein Element „an/auf“ oder „unter“ einem anderen Element genannt wird, es direkt an/auf/unter dem Element sein kann oder ein oder mehrere dazwischenliegende Elemente auch vorhanden sein können.
  • Wenn ein Element als „an/auf“ oder „unter“ bezeichnet wird, kann „unter dem Element“ sowie „an/auf dem Element“ basierend auf dem Element enthalten sein.
  • Darüber hinaus werden Bezugsbegriffe, wie zum Beispiel „erste/erster/erstes“, „zweite/zweiter/zweites“ und „unter / unterer Teil / unterhalb“ verwendet, um zwischen einem Subjekt oder Element und einem anderen Subjekt oder Element zu unterscheiden, ohne notwendigerweise irgendeine physische oder logische Beziehung oder Reihenfolge zwischen den Subjekten oder Elementen zu erfordern oder zu involvieren.
  • Nachfolgend werden ein Verfahren und eine Vorrichtung zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR, von engl. „light detection and ranging“)-Sensors und ein Aufzeichnungsmedium, das ein Programm speichert, um das Verfahren gemäß beispielhaften Ausführungsformen auszuführen, unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Das Verfahren und die Vorrichtung zum Verfolgen eines Objekts unter Verwendung des LiDAR-Sensors und das Aufzeichnungsmedium, das ein Programm speichert, um das Verfahren auszuführen, werden der Einfachheit halber unter Verwendung des kartesischen Koordinatensystems (x-Achse, y-Achse, z-Achse) beschrieben, können aber auch unter Verwendung anderer Koordinatensysteme beschrieben werden. Im kartesischen Koordinatensystem sind die x-Achse, die y-Achse und die z-Achse (jeweils) senkrecht zueinander, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt. Das heißt, die x-Achse, die y-Achse und die z-Achse können einander auch schräg schneiden.
  • 1 ist ein Flussdiagramm, das ein Objektverfolgungsverfahren 100 unter Verwendung eines LiDAR-Sensors gemäß verschiedenen beispielhaften Ausführungsformen der vorliegenden Erfindung zeigt, und 2 ist ein Blockdiagramm einer Objektverfolgungsvorrichtung 300 unter Verwendung des LiDAR-Sensors gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • Die in 2 gezeigte Objektverfolgungsvorrichtung 300 kann einen LiDAR-Sensor 310, eine Vorverarbeitungseinheit 320, eine Clustering-Einheit 340 und eine Formanalyseeinheit (oder eine Segmenteinheit) 350 aufweisen.
  • Der LiDAR-Sensor 310 kann eine Punktwolke erfassen, die eine Mehrzahl von Punkten aufweist, die sich auf einen Bereich beziehen (z.B. einen solchen Bereich betreffen), in dem ein mit dem LiDAR-Sensor 310 bereitgestelltes Fahrzeug (nachfolgend als ein „Host-Fahrzeug“ bezeichnet) fährt, (oder einen Bereich, der einen Fahrbereich und einen Umgebungsbereich einschließt) (nachfolgend als ein „Fahrzeugfahrbereich“ bezeichnet), und kann die erfasste Punktwolke an die Vorverarbeitungseinheit 320 als LiDAR-Punkte (oder LiDAR-Daten) ausgeben (Schritt 110).
  • Der LiDAR-Sensor 310 kann einen einzelnen kreisförmigen Laserimpuls, der eine Wellenlänge von zum Beispiel 905 nm bis 1550 nm hat, in einen Fahrzeugfahrbereich ausstrahlen und kann die Zeit messen, die es dauert, dass (z.B. bis) der Laserimpuls von einem Objekt oder dem Boden (oder der Straßenfläche), welches/welcher innerhalb eines Messbereichs vorhanden ist (z.B. sich dort befindet), reflektiert wird, zum Detektieren von Informationen über das Objekt und den Boden, zum Beispiel den Abstand vom LiDAR-Sensor 310 zu dem Objekt oder dem Boden, die Ausrichtung des Objekts oder des Bodens, die Geschwindigkeit des Objekts, die Temperatur des Objekts, die Materialverteilung des Objekts und die Konzentrationseigenschaften des Objekts. Hier kann das Objekt ein Ziel sein, das von der Objektverfolgungsvorrichtung gemäß der beispielhaften Ausführungsform der vorliegenden Erfindung zu verfolgen ist, zum Beispiel ein anderes Fahrzeug, eine Person oder ein Hindernis, welches/welche außerhalb des Host-Fahrzeugs vorhanden ist (z.B. sich dort befindet).
  • Der LiDAR-Sensor 310 kann einen Sender, der einen Laserimpuls sendet, und einen Empfänger, der den von der Fläche eines Objekts und dem Boden, welches/welcher innerhalb eines Detektionsbereichs vorhanden ist (z.B. sich dort befindet), reflektierten Laser (z.B. Laserstrahl) empfängt. Der Empfänger hat ein vorbestimmtes Sichtfeld (FOV, von engl. „field of view“), das ein Bereich ist, den der LiDAR-Sensor 310 ohne Bewegung oder Drehung gleichzeitig zu beobachten eingerichtet ist (z.B. den der LiDAR-Sensor 310 ohne Bewegung oder Drehung gleichzeitig beobachten kann).
  • Da der LiDAR-Sensor 310 eine höhere Detektionsgenauigkeit in einer vertikalen/horizontalen Richtung hat als ein Funkgestützte-Ortung-und-Abstandsmessung(RaDAR, von engl. „Radio Detection and Ranging“)-Sensor, ist der LiDAR-Sensor 310 eingerichtet zum Bereitstellen von akkuraten Vertikale/Horizontale-Richtung-Positionsinformationen und wird daher vorteilhaft für die Hindernisdetektion und die Fahrzeugpositionserkennung eingesetzt. Als Beispiele des LiDAR-Sensors 310 gibt es einen zweidimensionalen (2D) LiDAR-Sensor und einen dreidimensionalen (3D) LiDAR-Sensor. Der 2D-LiDAR-Sensor ist so konfiguriert, dass er kippbar oder drehbar ist, und wird verwendet, um LiDAR-Daten, welche 3D-Informationen aufweisen, durch Kippen oder Drehen zu erhalten. Der 3D-LiDAR-Sensor ist eingerichtet zum Erhalten von einer Mehrzahl von 3D-Punkten und daher zum Vorhersagen der Höheninformationen eines Hindernisses und hilft dadurch bei der akkuraten und genauen Detektion und Verfolgung eines Objekts. Der 3D-LiDAR-Sensor kann mehrere 2D-LiDAR-Sensor-Schichten aufweisen und kann LiDAR-Daten erzeugen, welche 3D-Informationen aufweisen. Der LiDAR-Sensor 310 gemäß der beispielhaften Ausführungsform kann zu einem 3D-LiDAR-Sensor korrespondieren.
  • Das Verfahren und die Vorrichtung zum Verfolgen eines Objekts gemäß den beispielhaften Ausführungsformen sind nicht auf irgendeine bestimmte Form, (irgendeine bestimmte) Position oder (irgendeinen bestimmten) Typ des LiDAR-Sensors 310 beschränkt.
  • Nach Schritt 110 kann die Vorverarbeitungseinheit 320 die vom LiDAR-Sensor 310 ausgegebenen LiDAR-Punkte vorverarbeiten (Schritt 210). Zu dem vorliegenden Zweck kann die Vorverarbeitungseinheit 320 eine Kalibrierung durchführen, um die Koordinaten zwischen dem LiDAR-Sensor 310 und dem Host-Fahrzeug abzugleichen (z.B. aufeinander abzubilden, z.B. zur Übereinstimmung zu bringen). Das heißt, die Vorverarbeitungseinheit 320 kann die LiDAR-Punkte in Punkte konvertieren, die für das Referenzkoordinatensystem geeignet sind, gemäß dem Positionswinkel mit dem der LiDAR-Sensor am Host-Fahrzeug 310 montiert ist.
  • Darüber hinaus kann die Vorverarbeitungseinheit 320 eine Filterung durchführen, um Punkte, die eine geringe Intensität oder (eine geringe) Reflexion (z.B. (einen geringen) Reflexionsgrad) haben, zu entfernen, unter Verwendung von Intensitäts- oder Konfidenzinformationen der LiDAR-Punkte.
  • Darüber hinaus kann die Vorverarbeitungseinheit 320 Daten entfernen, die Reflexionen des Host-Fahrzeugs betreffen (z.B. zum Host-Fahrzeug gehören, z.B. vom Host-Fahrzeug stammen, z.B. vom Host-Fahrzeug verursacht werden). Das heißt, da es einen Bereich gibt, der von dem Körper (z.B. der Karosserie) des Host-Fahrzeugs gemäß der Montageposition und dem Sichtfeld des LiDAR-Sensors 310 abgeschirmt ist/wird, kann die Vorverarbeitungseinheit 320 Daten entfernen, die Reflexionen von dem Körper (z.B. der Karosserie) des Wirtsfahrzeugs betreffen (z.B. zu diesem gehören), unter Verwendung des Referenzkoordinatensystems.
  • Nach Schritt 120 kann die Clustering-Einheit 340 die von der Vorverarbeitungseinheit 320 vorverarbeiteten LiDAR-Punkte gemäß vorbestimmten Kriterien in sinnvolle Einheiten (z.B. aussagekräftige Einheiten) clustern und kann die geclusterten LiDAR-Punkte an die Formanalyseeinheit 350 ausgeben (Schritt 140). Als Beispiele für die Clustering-Einheit 340 gibt es eine 2D-Clustering-Einheit und eine 3D-Clustering-Einheit. Die 2D-Clustering-Einheit ist eine Einheit, die das Clustern in Einheiten von Punkten oder einer spezifischen Struktur durchführt, indem sie Daten auf die x-y-Ebene projiziert, ohne Höheninformationen zu berücksichtigen. Die 3D-Clustering-Einheit ist eine Einheit, die das Clustern in der x-y-z-Ebene unter Berücksichtigung der Höheninformationen z durchführt.
  • Nach Schritt 140 kann die Formanalyseeinheit 350 die Form eines Objekts unter Verwendung der LiDAR-Punkte analysieren, die durch Clustern der Punktwolke erhalten werden/wurden, und kann das Ergebnis der Analyse an eine Objektverfolgungseinheit (eine Verfolgungseinheit, eine Verfolgungs- und Klassifizierungseinheit oder eine Objektdetektierungseinheit) durch einen Ausgangsanschluss OUT1 ausgeben (Schritt 150). Zum Beispiel erzeugt die Formanalyseeinheit 350 Informationen über eine Mehrzahl von Segmentboxen für jeden Kanal unter Verwendung des Ergebnisses des Clusterns mittels der Clustering-Einheit 340. Hier kann die Segmentbox das Ergebnis des Konvertierens des Ergebnisses des Clusterns in eine geometrische Boxform sein. Darüber hinaus können die Informationen über die Segmentbox mindestens eine der Breite, (der) Länge, (der) Position oder (der) Orientierung (oder (der) Richtung/Ausrichtung) der Segmentbox sein.
  • Die Objektverfolgungseinheit wählt aus einer Mehrzahl von Segmentboxen für jeden Kanal eine Segmentbox in Assoziation/Assoziierung mit einem Objekt aus, das zur gegenwärtigen Zeit (z.B. zur dann gegenwärtigen Zeit) verfolgt wird (nachfolgend als ein „Zielobjekt“ bezeichnet). Hier ist der Begriff „Assoziation/Assoziierung“ ein Vorgang des Auswählens der Box, welche zu verwenden ist, um das Verfolgen eines Objekts, welches gegenwärtig verfolgt wird, fortzusetzen, aus einer Mehrzahl von Informationen über die Segmentboxen, die für dasselbe Objekt gemäß der Sichtbarkeit des LiDAR-Sensors 310 und der Form des Objekts erfasst werden/wurden. Diese Assoziation/Assoziierung kann in einem vorbestimmten Zeitraum durchgeführt werden.
  • Um eine assoziierte Segmentbox aus der Mehrzahl von Segmentboxen auszuwählen, die mittels jedes Kanals von der Formanalyseeinheit 350 bereitgestellt werden, kann die Objektverfolgungseinheit Informationen über jede der Mehrzahl von Segmentboxen in ein vorbestimmtes Format konvertieren und kann eine assoziierte Segmentbox aus der Mehrzahl von Segmentboxen, die das umgewandelte Format haben, (oder Segmentboxen eines Metaobjekts) auswählen.
  • Das Objektverfolgungsverfahren gemäß der beispielhaften Ausführungsform der vorliegenden Erfindung, das untenstehend beschrieben wird, ist nicht auf das spezifische Ausführungsverfahren jedes des Clustern-Vorgangs in Schritt 140 und des Formanalysevorgangs in Schritt 150 beschränkt.
  • Ein Objekt und der Boden (oder die Straßenfläche) können innerhalb des Fahrzeugfahrbereichs vorhanden sein (z.B. sich dort befinden), und es kann erforderlich sein, zu ermitteln, ob die LiDAR-Punkte Punkte sind, die sich auf das Objekt beziehen (z.B. das Objekt betreffen) (nachfolgend als „Objektpunkte“ bezeichnet), oder Punkte, die sich auf den Boden beziehen (z.B. den Boden betreffen) (nachfolgend als „Bodenpunkte“ bezeichnet). Dies kann von der in 2 gezeigten Vorverarbeitungseinheit 320 durchgeführt werden, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt. Dies wird untenstehend unter Bezugnahme auf die begleitenden Zeichnungen ausführlich beschrieben.
  • 3 ist ein Flussdiagramm, das ein Objektverfolgungsverfahren 120A gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung zeigt.
  • Das in 3 gezeigte Objektverfolgungsverfahren 120A kann in dem in 1 gezeigten Schritt 120 durchgeführt werden, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt.
  • Zunächst werden Informationen, die die tatsächliche Höhenlage (oder Höhe) des Fahrzeugfahrbereichs (nachfolgend als „Höheninformationen“ bezeichnet) erfasst (Schritt 122). Obwohl Schritt 122 so dargestellt ist, dass er nach dem in 1 gezeigten Schritt 110 durchgeführt wird, sind die beispielhaften Ausführungsformen nicht darauf beschränkt. Das heißt, gemäß einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung kann Schritt 122 durchgeführt werden, bevor Schritt 110 durchgeführt wird, oder kann gleichzeitig mit Schritt 110 durchgeführt werden.
  • 4 ist ein Flussdiagramm, das eine beispielhafte Ausführungsform 122A des in 3 gezeigten Schritts 122 zeigt.
  • 5 ist ein Diagramm zum Helfen beim Verständnis des in 4 gezeigten Schritts 122A.
  • Gemäß der beispielhaften Ausführungsform 122A des Schritts 122 zum Erfassen der Höheninformationen können Globales-Positionsbestimmungssystem(GPS)-Höhenpunkte des Fahrzeugfahrbereichs erfasst werden (Schritt 210). Hier können die GPS-Höhenpunkte zu einer Mehrzahl von tatsächlichen Höhenpunkten korrespondieren, die die tatsächliche Höhe (z.B. Höhenlage) des Fahrzeugfahrbereichs angeben. Zum Beispiel können die GPS-Höhenpunkte unter Verwendung von GPS-Signalen erfasst werden, die von einem Kartenersteller an das Host-Fahrzeug übertragen werden.
  • Die GPS-Höhenpunkte sind Punkte, die die tatsächliche Höhe eines Objekts oder des Bodens innerhalb des Fahrzeugfahrbereichs basierend auf dem Boden angeben, auf dem sich das Host-Fahrzeug befindet.
  • Zum Beispiel können bezugnehmend auf 5 GPS-Höhenpunkte RP1 bis RP8, die in einen vorbestimmten Bereich (z.B. einen Bereich von 100 m) in der +x-Achse-Richtung basierend auf der Position x0 des Host-Fahrzeugs innerhalb des Fahrzeugfahrbereichs fallen, erfasst werden, und GPS-Höhenpunkte RP9 bis RP15, die in einen vorbestimmten Bereich (z.B. einen Bereich von 100 m) in der -x-Achse-Richtung basierend auf der Position x0 des Host-Fahrzeugs innerhalb des Fahrzeugfahrbereichs fallen, können erfasst werden.
  • Nach Schritt 210 werden Punkte erzeugt, die die Höhe der Bereiche angeben, die sich zwischen den GPS-Höhenpunkten innerhalb des Fahrzeugfahrbereichs befinden (Schritt 212). Das heißt, da es keine GPS-Höhenpunkte für die Bereiche gibt, die zwischen den GPS-Höhenpunkten vorhanden sind (z.B. sich dort befinden), können Punkte, die die Höhen der Bereiche, die sich zwischen den GPS-Höhenpunkten befinden (nachfolgend als „interpolierte Höhenpunkte“ bezeichnet), angeben, unter Verwendung von Interpolation erzeugt werden. Zum Beispiel können die interpolierten Höhenpunkte für die Bereiche, die zwischen den GPS-Höhenpunkten RP1 bis RP15 vorhanden sind (z.B. sich dort befinden), durch Durchführung von Interpolation in Einheiten von 1 m erhalten werden. Aus 5 ist ersichtlich, dass eine Mehrzahl von interpolierten Höhenpunkten (z.B. IP) unter Verwendung von Interpolation zwischen benachbarten GPS-Höhenpunkten (z.B. RP14 und RP15) erzeugt werden.
  • Wie oben beschrieben, können die in Schritt 122 erfassten Höheninformationen zumindest manche der GPS-Höhenpunkte (z. B. RP1 bis RP15) oder die interpolierten Höhenpunkte (z.B. Punkte IP, die kleiner sind als die in 5 gezeigten tatsächlichen Höhenpunkte) aufweisen. Das heißt, die in Schritt 122 erfassten Höheninformationen können sowohl die GPS-Höhenpunkte als auch die interpolierten Höhenpunkte aufweisen, (die in Schritt 122 erfassten Höheninformationen) können nur die GPS-Höhenpunkte aufweisen oder (die in Schritt 122 erfassten Höheninformationen) können nur die interpolierten Höhenpunkte aufweisen.
  • Nachfolgend wird davon ausgegangen, dass die in Schritt 122 erfassten Höheninformationen notwendigerweise die GPS-Höhenpunkte aufweisen, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt.
  • Wieder bezugnehmend auf 3 wird nach Schritt 122 eine erste Neigung basierend auf den Höheninformationen des Fahrzeugfahrbereichs gebildet (Schritt 124). Hier kann die erste Neigung eine Neigung in Bezug auf den Boden sein, der in dem Fahrzeugfahrbereich enthalten ist.
  • 6 ist ein Flussdiagramm zum Helfen beim Verständnis einer beispielhaften Ausführungsform 124A des in 3 gezeigten Schritts 124.
  • 7 ist ein Diagramm zum Helfen beim Verständnis der in 3 gezeigten Schritte 124 bis 128, das die Position AP des Host-Fahrzeugs, LiDAR-Punkte LDP, die als weiße Punkte ausgedrückt sind, GPS-Höhenpunkte RP, die als große Punkte ausgedrückt sind und die sich in einem ersten Liniensegment L1 befinden, und interpolierte Höhenpunkte IP, die als Punkte ausgedrückt sind, die kleiner als die GPS-Höhenpunkte RP in dem ersten Liniensegment L1 sind, zeigt.
  • Bezugnehmend auf 6, wird nach Schritt 122 ein Bereich, der sich innerhalb eines ersten Abstands, der am Host-Fahrzeugs zentriert ist, befindet (nachfolgend als ein „erster Überprüfungszielbereich“ bezeichnet), innerhalb des Fahrzeugfahrbereichs ausgewählt (Schritt 222). Zum Beispiel kann bezugnehmend auf 7 ein Bereich, der sich innerhalb eines ersten Abstands (z.B. 10 m), der an der Position AP des Host-Fahrzeugs zentriert ist (ein Bereich zwischen -10 m und +10 m), befindet, als der erste Überprüfungszielbereich innerhalb des Fahrzeugfahrbereichs ausgewählt sein/werden.
  • Nach Schritt 222 kann eine erste Neigung basierend auf den Höheninformationen (d.h. zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte) gebildet werden, die im ersten Überprüfungszielbereich vorhanden sind (z.B. sich dort befinden) (Schritt 224). Zum Beispiel kann bezugnehmend auf 7 die erste Neigung S1 (oder das erste Liniensegment L1, das die erste Neigung S1 hat) unter Verwendung des/der GPS-Höhenpunkts/GPS-Höhenpunkte RP und des/der interpolierten Höhenpunkts/Höhenpunkte IP, die in dem ersten Überprüfungszielbereich vorhanden sind (z.B. sich dort befinden), gebildet werden.
  • Wieder bezugnehmend auf 3, kann nach Schritt 124 eine zweite Neigung des Fahrzeugfahrbereichs unter Verwendung von LiDAR-Punkten, die sich auf eine Fahrspur beziehen (z.B. eine solche betreffen), aus den in Schritt 110 erfassten LiDAR-Punkten ermittelt werden (Schritt 126). Hier kann die zweite Neigung eine Neigung in Bezug auf den Boden sein, der im Fahrzeugfahrbereich enthalten ist.
  • Obwohl Schritt 126 in 3 als nach Schritt 124 durchgeführt dargestellt ist, sind die beispielhaften Ausführungsformen nicht darauf beschränkt. Gemäß einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung kann Schritt 126 durchgeführt werden, nachdem Schritt 122 durchgeführt wird/wurde und bevor Schritt 124 durchgeführt wird/wurde, oder kann (Schritt 126) gleichzeitig mit Schritt 124 durchgeführt werden.
  • 8 ist ein Flussdiagramm zum Helfen beim Verständnis einer beispielhaften Ausführungsform 126A des in 3 gezeigten Schritts 126.
  • Bezugnehmend auf 8, werden nach Schritt 124 LiDAR-Punkte, die zu einer Fahrspur korrespondieren, aus den in Schritt 110 erfassten LiDAR-Punkten detektiert (Schritt 230).
  • 9 ist ein Flussdiagramm, das eine beispielhafte Ausführungsform des in 8 gezeigten Schritts 230 zeigt.
  • Bezugnehmend auf 9 werden nach Schritt 124 aus den in Schritt 110 erfassten LiDAR-Punkten LiDAR-Punkte ausgewählt, die sich innerhalb eines vorbestimmten Abstands (z.B. 1,5 m), der am Host-Fahrzeug zentriert ist, befinden (Schritt 232).
  • Nach Schritt 232 werden aus den ausgewählten LiDAR-Punkten, die sich innerhalb des vorbestimmten Abstands befinden, LiDAR-Punkte ausgewählt, die eine relativ hohe Intensität haben (Schritt 234). Hier kann die relativ hohe Intensität zum Beispiel eine Intensität sein, die größer ist als ein Durchschnittswert oder ein Zwischenwert der Intensität der im Fahrzeugfahrbereich vorhandenen (z.B. befindlichen) LiDAR-Punkte, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt.
  • Nach Schritt 234 werden aus den ausgewählten LiDAR-Punkten, die eine relativ hohe Intensität haben, LiDAR-Punkte, die eine lineare Eigenschaft haben, als LiDAR-Punkte, die zur Fahrspur korrespondieren, ausgewählt (Schritt 236).
  • Ein Verfahren zum Detektieren von LiDAR-Punkten, die zu einer Fahrspur korrespondieren, aus LiDAR-Punkten kann auf jede von verschiedenen Arten durchgeführt werden, ohne auf das beschränkt zu sein, was in 9 dargestellt ist. Ein weiteres Beispiel eines Verfahrens zum Extrahieren von Punkten, die sich auf eine Fahrspur beziehen (z.B. eine solche betreffen), ist in der koreanischen offengelegten Patentveröffentlichung Nr. 10-2019-0049009 (mit dem Titel „VEHICLE AND CONTROL METHOD THEREOF“) enthalten.
  • Wieder bezugnehmend auf 8 wird nach Schritt 230 innerhalb des Fahrzeugfahrbereichs ein Bereich ausgewählt, der sich innerhalb eines zweiten Abstands, der am Host-Fahrzeug zentriert ist, befindet (nachfolgend als ein „zweiter Überprüfungszielbereich“ bezeichnet) (Schritt 240). Zum Beispiel kann ein Bereich, der sich innerhalb eines zweiten Abstands (z.B. 10 m), der an der Position AP des Host-Fahrzeugs zentriert ist (ein Bereich zwischen -10 m und +10 m), als der zweite Überprüfungszielbereich innerhalb des Fahrzeugfahrbereichs ausgewählt werden.
  • Gemäß der beispielhaften Ausführungsform der vorliegenden Erfindung können der erste Abstand und der zweite Abstand gleich oder verschieden voneinander sein. Die Differenz zwischen dem ersten Abstand und dem zweiten Abstand kann ein vorbestimmter Wert sein, und der vorbestimmte Wert kann im Voraus experimentell eingestellt sein/werden. Die beispielhaften Ausführungsformen sind jedoch nicht auf den spezifischen vorbestimmten Wert oder das spezifische Verfahren zum Erhalten des vorbestimmten Wertes beschränkt.
  • 10 ist eine Darstellung zum Helfen beim Verständnis des in 8 gezeigten Schritts 250.
  • Nach Schritt 240 wird die zweite Neigung unter Verwendung von LiDAR-Punkten, die in dem in Schritt 240 ausgewählten zweiten Überprüfungszielbereich vorhanden sind (z.B. sich dort befinden), von den LiDAR-Punkten, die zur Fahrspur korrespondieren und die in Schritt 230 detektiert wurden, ermittelt (Schritt 250). Zum Beispiel kann bezugnehmend auf 10 die zweite Neigung unter Verwendung ausgewählter LiDAR-Punkte LDP1 und LDP2, die im zweiten Überprüfungszielbereich vorhanden sind (z.B. sich dort befinden) und zur Fahrspur korrespondieren, ermittelt werden.
  • Wieder bezugnehmend auf 3 werden nach Schritt 126 die GPS-Höhenpunkte unter Verwendung der ersten Neigung S1 und der zweiten Neigung gedreht (Schritt 128). Zum Beispiel können die erste Neigung S1 und die zweite Neigung summiert werden, um Schritt 128 durchzuführen. Das heißt, die in Schritt 128 gedrehten GPS-Höhenpunkte können eine Neigung bilden, die zur Summe der ersten Neigung und der zweiten Neigung äquivalent ist.
  • Zum besseren Verständnis kann bezugnehmend auf 7 ein drittes Liniensegment L3, das eine Neigung hat, die zur Summe der ersten Neigung S1 des ersten Liniensegments L1 und der zweiten Neigung S2 äquivalent ist, zu den gedrehten GPS-Höhenpunkten korrespondieren. Das heißt, das dritte Liniensegment L3, das das Ergebnis des Drehens des ersten Liniensegments L1 in die/der Richtung des Pfeils AR ist, kann durch Durchführen von Schritt 128 erhalten werden.
  • Nach Schritt 128 wird eine dritte Neigung S3 unter Verwendung eines Zielpunkts und eines benachbarten Punkts aus den LiDAR-Punkten, die im Fahrzeugfahrbereich vorhanden sind (z.B. sich dort befinden), erhalten (Schritt 130). Hier ist der Zielpunkt ein Punkt von den vom LiDAR-Sensor 310 erfassten LiDAR-Punkten, der zu untersuchen ist, um zu ermitteln, ob der Punkt zu einem Bodenpunkt korrespondiert oder zu einem Objektpunkt korrespondiert. Darüber hinaus ist der benachbarte Punkt ein Punkt, der zu einer Schicht (nachfolgend als eine „vorherige Schicht“ bezeichnet) gehört, die an eine bestimmte Schicht angrenzt, zu der der Zielpunkt gehört (nachfolgend als eine „gegenwärtige Schicht“ bezeichnet).
  • 11 ist ein Diagramm, das den Zielpunkt und den benachbarten Punkt als Beispiel zeigt.
  • Bezugnehmend auf 11 wird der Zielpunkt mit „Pcur“ bezeichnet und xcur, ycur und zcur stellen in zugeordneter Weise die x-Achse-, y-Achse- und z-Achse-Koordinate des Zielpunkts Pcur dar. Darüber hinaus wird der benachbarte Punkt mit „Pprev“ bezeichnet und xprev, yprev und zprev stellen in zugeordneter Weise die x-Achse-, y-Achse- und z-Achse-Koordinate des benachbarten Punkts Pprev dar.
  • 12A und 12B sind Diagramme zum Helfen beim Verständnis der in 3 gezeigten Schritte 130 bis 138. Hier bezeichnet das Bezugszeichen „G“ den Boden, auf dem sich das Host-Fahrzeug befindet.
  • Wie in 12A dargestellt, kann die dritte Neigung S3 unter Verwendung des Zielpunkts Pcur und des benachbarten Punkts Pprev erhalten werden (Schritt 130).
  • 13 ist eine Darstellung zum Helfen beim Verständnis des in 3 gezeigten Schritts 132. Da L1, L3 und LDP in 13 die gleiche Bedeutung wie in 7 haben, werden die gleichen Bezugszeichen verwendet. Hier stellt floor(xprev) einen Wert dar, der durch Integerisierung der Höhe erhalten wird, die ein z-Achse-Wert im dritten Liniensegment L3 ist, der zur x-Achse-Koordinate des benachbarten Punkts Pprev korrespondiert (nachfolgend als ein „erster Höhenwert“ bezeichnet), und floor(xcur) stellt einen Wert dar, der durch Integerisierung der Höhe erhalten wird, die ein z-Achse-Wert im dritten Liniensegment L3 ist, der zur x-Achse-Koordinate des Zielpunkts Pcur korrespondiert (nachfolgend als ein „zweiter Höhenwert“ bezeichnet).
  • Nach Schritt 130 wird eine vierte Neigung S4 unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen (z.B. zusammenpassen), von den gedrehten GPS-Höhenpunkten ermittelt (Schritt 132). Der erste und der zweite Höhenwert in dem dritten Liniensegment L3, das die gedrehten GPS-Höhenpunkte aufweist, sind Punkte, die mit den LiDAR-Punkten übereinstimmen (z.B. zusammenpassen). Das heißt, bezugnehmend auf 13 korrespondiert der erste Höhenwert zum z-Achse-Wert des Punktes im dritten Liniensegment L3, der mit der x-Achse-Koordinate des Zielpunktes Pcur übereinstimmt (z.B. zusammenpasst), der ein LiDAR-Punkt ist, und der zweite Höhenwert korrespondiert zum z-Achse-Wert des Punktes im dritten Liniensegment L3, der mit der x-Achse-Koordinate des benachbarten Punktes Pprev übereinstimmt (z.B. zusammenpasst), der ein LiDAR-Punkt ist. Dementsprechend ist es möglich, die vierte Neigung S5 unter Verwendung des ersten Höhenwertes und des zweiten Höhenwertes zu erhalten. Diese vierte Neigung S4 ist in 12B gezeigt.
  • Nach Schritt 132 wird, wie unter Verwendung von Gleichung 1 untenstehend ausgedrückt, überprüft, ob der Absolutwert der Differenz zwischen der dritten Neigung S3 und der vierten Neigung S4 kleiner ist als eine Schwellenwert-Neigung Sth (Schritt 134). | Δ S | Sth
    Figure DE102022103147A1_0001
  • Hier stellt ΔS das Ergebnis des Subtrahierens der dritten Neigung S3 von der vierten Neigung S4 dar.
  • Zum Beispiel kann die Schwellenneigung Sth 0,5° betragen, aber die beispielhaften Ausführungsformen sind nicht auf den spezifischen Wert der Schwellenwert-Neigung beschränkt.
  • Falls der Absolutwert kleiner als die Schwellenwert-Neigung Sth ist, wird ermittelt, dass der Zielpunkt ein Bodenpunkt ist (Schritt 136). Ist der Absolutwert jedoch nicht kleiner als die Schwellenwert-Neigung Sth, wird ermittelt, dass der Zielpunkt ein Objektpunkt ist (Schritt 138).
  • Wie in 3 gezeigt, kann Schritt 140 durchgeführt werden, nachdem Schritt 136 oder Schritt 138 wird/wurde, oder kann (Schritt 140) durchgeführt werden, nachdem andere Vorverarbeitungsfunktionen durchgeführt werden/wurden.
  • Nachfolgend wird eine Objektverfolgungsvorrichtung unter Verwendung eines LiDAR-Sensors gemäß einer beispielhaften Ausführungsform unter Bezugnahme auf die begleitenden Zeichnungen beschrieben.
  • 14 ist ein Blockdiagramm einer Objektverfolgungsvorrichtung 320A unter Verwendung eines LiDAR-Sensors gemäß einer beispielhaften Ausführungsform der vorliegenden Erfindung.
  • Die in 14 gezeigte Objektverfolgungsvorrichtung 320A kann in der in 2 gezeigten Vorverarbeitungseinheit 320 enthalten sein, aber die beispielhaften Ausführungsformen sind nicht darauf beschränkt.
  • Obwohl das in 3 gezeigte Objektverfolgungsverfahren 120A als von der in 14 dargestellten Objektverfolgungsvorrichtung 320A durchgeführt bezeichnet wird, sind die beispielhaften Ausführungsformen nicht darauf beschränkt. Das heißt, gemäß einer anderen beispielhaften Ausführungsform der vorliegenden Erfindung kann das in 3 gezeigte Objektverfolgungsverfahren 120A von einer Objektverfolgungsvorrichtung durchgeführt werden, die anders konfiguriert ist als die in 14 gezeigte Objektverfolgungsvorrichtung 320A. Darüber hinaus, obwohl die in 14 gezeigte Objektverfolgungsvorrichtung 320A als das in 3 gezeigte Objektverfolgungsverfahren 120A ausführend bezeichnet wird, sind die beispielhaften Ausführungsformen nicht darauf beschränkt.
  • Eine Höheninformationserfassungseinheit 322 erfasst Höheninformationen des Fahrzeugfahrbereichs (z.B. Höheninformationen über den Fahrzeugfahrbereich) und gibt die erfassten Höheninformationen an eine erste Neigungserfassungseinheit 324 aus. Das heißt, die Höheninformationserfassungseinheit 322 kann den in 3 gezeigten Schritt 122 ausführen.
  • 15 ist ein Blockdiagramm einer beispielhaften Ausführungsform 322A der in 14 gezeigten Höheninformationserfassungseinheit 322. Die Höheninformationserfassungseinheit 322A kann eine GPS-Höhenerfassungseinheit 410 und eine Höhenpunktinterpolationseinheit 412 aufweisen.
  • Die GPS-Höhenerfassungseinheit 410 kann GPS-Höhenpunkte des Fahrzeugfahrbereichs erfassen und kann die erfassten GPS-Höhenpunkte durch einen Ausgangsanschluss OUT3 an die Höhenpunktinterpolationseinheit 412 und an die erste Neigungserfassungseinheit 324 ausgeben. Das heißt, die GPS-Höhenerfassungseinheit 322 kann den in 4 gezeigten Schritt 210 durchführen. Zum Beispiel kann die GPS-Höhenerfassungseinheit 410 GPS-Höhenpunkte unter Verwendung eines GPS-Signals erfassen, das durch einen Eingangsanschluss IN1 empfangen wird.
  • Die Höhenpunktinterpolationseinheit 412 kann unter Verwendung von Interpolation interpolierte Höhenpunkte innerhalb des Fahrzeugfahrbereichs erzeugen, die die Höhen der Bereiche angeben, die sich zwischen den GPS-Höhenpunkten befinden, und kann die erzeugten interpolierten Höhenpunkte durch einen Ausgangsanschluss OUT4 an die erste Neigungserfassungseinheit 324 ausgeben. Das heißt, die Höhenpunktinterpolationseinheit 412 kann den in 4 gezeigten Schritt 212 ausführen.
  • Auf die vorliegende Weise können die Höheninformationserfassungseinheiten 322 (322A) Höheninformationen erfassen, die zumindest manche der GPS-Höhenpunkte oder der interpolierten Höhenpunkte aufweisen, und können die erfassten Höheninformationen an die erste Neigungserfassungseinheit 324 ausgeben.
  • Ferner, wieder bezugnehmend auf 14 kann die erste Neigungserfassungseinheit 324 eine erste Neigung S1 unter Verwendung der GPS-Höhenpunkte des Fahrzeugfahrbereichs bilden und kann (die erste Neigungserfassungseinheit 324) die erste Neigung S1 an eine Höhenpunktdreheinheit 328 ausgeben. Alternativ kann die erste Neigungserfassungseinheit 324 die erste Neigung S1 unter Verwendung der interpolierten Höhenpunkte sowie der GPS-Höhenpunkte bilden. Alternativ kann die erste Neigungserfassungseinheit 324 die erste Neigung S1 unter Verwendung der interpolierten Höhenpunkte anstelle der GPS-Höhenpunkte bilden.
  • Das heißt, die erste Neigungserfassungseinheit 324 kann den in 3 gezeigten Schritt 124 durchführen.
  • Eine zweite Neigungserfassungseinheit 326 kann aus den vom LiDAR-Sensor 310 erfassten und durch einen Eingangsanschluss IN2 empfangenen LiDAR-Punkten LiDAR-Punkte detektieren, die sich auf eine Fahrspur beziehen (z.B. eine solche betreffen), (zweite Neigungserfassungseinheit 326) kann eine zweite Neigung S2 unter Verwendung der detektierten LiDAR-Punkte, die sich auf die Fahrspur beziehen, ermitteln und (die zweite Neigungserfassungseinheit 326) kann die ermittelte zweite Neigung S2 an die Höhenpunktdreheinheit 328 ausgeben. Das heißt, die zweite Neigungserfassungseinheit 326 kann den in 3 gezeigten Schritt 126 durchführen.
  • 16 ist ein Blockdiagramm einer beispielhaften Ausführungsform 326A der in 14 gezeigten zweiten Neigungserfassungseinheit 326. Die zweite Neigungserfassungseinheit 326A kann eine Punktauswahleinheit 420 und eine Neigungsberechnungseinheit (z.B. eine Neigungsermittlungseinheit) 422 aufweisen.
  • Die Punktauswahleinheit 420 kann LiDAR-Punkte, die zur Fahrspur korrespondieren, aus den durch den Eingangsanschluss IN2 empfangenen LiDAR-Punkten auswählen und kann die ausgewählten LiDAR-Punkte an die Neigungsberechnungseinheit 422 ausgeben. Das heißt, die Punktauswahleinheit 420 kann den in 8 gezeigten Schritt 230 durchführen.
  • 17 ist ein Blockdiagramm einer beispielhaften Ausführungsform 420A der in 16 gezeigten Punktauswahleinheit 420. Die Punktauswahleinheit 420A kann eine Abstandsüberprüfungseinheit 430, eine Intensitätsüberprüfungseinheit 432 und eine Linearitätsüberprüfungseinheit 434 aufweisen.
  • Die Abstandsüberprüfungseinheit 430 kann aus den durch den Eingangsanschluss IN2 empfangenen LiDAR-Punkten LiDAR-Punkte auswählen, die sich innerhalb eines vorbestimmten Abstands, der am Host-Fahrzeug zentriert ist, befinden, und kann die ausgewählten LiDAR-Punkte an die Intensitätsüberprüfungseinheit 432 ausgeben. Das heißt, die Abstandsüberprüfungseinheit 430 kann den in 9 gezeigten Schritt 232 durchführen.
  • Die Intensitätsüberprüfungseinheit 432 kann LiDAR-Punkte, die eine relativ hohe Intensität haben, aus den ausgewählten LiDAR-Punkten auswählen, die sich innerhalb des vorbestimmten Abstands befinden, und kann die ausgewählten LiDAR-Punkte an die Linearitätsüberprüfungseinheit 434 ausgeben. Das heißt, die Intensitätsüberprüfungseinheit 432 kann den in 9 gezeigten Schritt 234 durchführen.
  • Die Linearitätsüberprüfungseinheit 434 kann aus den ausgewählten LiDAR-Punkten, die eine relativ hohe Intensität haben, LiDAR-Punkte, die eine lineare Eigenschaft haben, als LiDAR-Punkte auswählen, die zur Fahrspur korrespondieren, und kann die ausgewählten LiDAR-Punkte durch einen Ausgangsanschluss OUT6 an die Neigungsberechnungseinheit 422 ausgeben. Das heißt, die Linearitätsüberprüfungseinheit 434 kann den in 9 gezeigten Schritt 236 durchführen.
  • Die Neigungsberechnungseinheit 422 kann eine zweite Neigung S2 unter Verwendung der von der Punktauswahleinheit 420 ausgewählten LiDAR-Punkte ermitteln und kann die ermittelte zweite Neigung S2 durch einen Ausgangsanschluss OUT5 an die Höhenpunktdreheinheit 328 ausgeben. Zu der (dann) vorliegenden Zeit kann die Neigungsberechnungseinheit 422 die zweite Neigung S2 unter Verwendung von nur (z.B. ausschließlich) Punkten, die zum zweiten Überprüfungszielbereich gehören, von den von der Punktauswahleinheit 420 ausgewählten Punkten erzeugen. Das heißt, die Neigungsberechnungseinheit 422 kann die in 8 gezeigten Schritte 240 und 250 durchführen.
  • Wieder bezugnehmend auf 14 kann die Höhenpunktdreheinheit 328 die GPS-Höhenpunkte unter Verwendung der ersten Neigung S1, die von der ersten Neigungserfassungseinheit 324 bereitgestellt wird, und der zweiten Neigung S2, die von der zweiten Neigungserfassungseinheit 326 bereitgestellt wird, drehen und kann die gedrehten GPS-Höhenpunkte an eine vierte Neigungserfassungseinheit 332 ausgeben. Das heißt, die Höhenpunktdreheinheit 328 kann den in 3 gezeigten Schritt 128 durchführen.
  • 18 ist ein Blockdiagramm, das eine beispielhafte Ausführungsform der in 14 gezeigten Höhenpunktdreheinheit 328 zeigt. Die Höhenpunktdreheinheit 328 kann eine Neigungssyntheseeinheit 328A aufweisen.
  • Die Neigungssyntheseeinheit 328A kann die erste Neigung S1 und die zweite Neigung S2, die durch den Eingangsanschluss IN3 empfangen werden, summieren und kann die gedrehten GPS-Höhenpunkte, die von der summierten Neigung gebildet werden, durch einen Ausgangsanschluss OUT7 an die vierte Neigungserfassungseinheit 332 ausgeben.
  • Wieder bezugnehmend auf 14 kann die dritte Neigungserfassungseinheit 330 eine dritte Neigung S3 unter Verwendung des Zielpunkts und des benachbarten Punkts von den LiDAR-Punkten, die durch den Eingangsanschluss IN2 empfangen werden/wurden, ermitteln und kann die ermittelte dritte Neigung S3 an eine Vergleichseinheit 334 ausgeben. Das heißt, die dritte Neigungserfassungseinheit 330 ist konfiguriert, um den in 3 gezeigten Schritt 130 auszuführen.
  • Die vierte Neigungserfassungseinheit 332 kann eine vierte Neigung S4 unter Verwendung von Punkten ermitteln, die mit den LiDAR-Punkten (d.h. dem Zielpunkt und dem benachbarten Punkt) übereinstimmen, von den gedrehten GPS-Höhenpunkten, die von der Höhenpunktdreheinheit 328 bereitgestellt werden, und kann die ermittelte vierte Neigung S4 an die Vergleichseinheit 334 ausgeben. Wie oben unter Bezugnahme auf den in 3 dargestellten Schritt 132 beschrieben, kann die vierte Neigungserfassungseinheit 332 eine vierte Neigung S4 unter Verwendung eines ersten Höhenwertes und eines zweiten Höhenwertes ermitteln. Das heißt, die vierte Neigungserfassungseinheit 332 ist konfiguriert, um den in 3 gezeigten Schritt 132 durchzuführen.
  • Die Vergleichseinheit 334 kann den Absolutwert der Differenz zwischen der dritten Neigung S3 und der vierten Neigung S4 mit einer Schwellenwert-Neigung Sth vergleichen und kann das Ergebnis des Vergleichs an eine Punktattributermittlungseinheit 336 ausgeben. Das heißt, die Vergleichseinheit 334 ist eingerichtet, um den in 3 gezeigten Schritt 134 durchzuführen. Hier kann die Schwellenwert-Neigung Sth 0,5° betragen.
  • Die Punktattributermittlungseinheit 336 kann in Antwort auf das Ergebnis des Vergleichs mittels der Vergleichseinheit 334 ermitteln, ob der Zielpunkt ein Bodenpunkt oder ein Objektpunkt ist, und kann das Ergebnis der Ermittlung durch einen Ausgangsanschluss OUT2 ausgeben. Das heißt, die Punktattributermittlungseinheit 336 ist eingerichtet, um die in 3 gezeigten Schritte 136 und 138 durchzuführen.
  • Wie oben beschrieben, kann die in 2 gezeigte Vorverarbeitungseinheit 320 die erfassten LiDAR-Punkte vorverarbeiten und kann die Höheninformationserfassungseinheit 322, die erste Neigungserfassungseinheit 324, die zweite Neigungserfassungseinheit 326, die dritte Neigungserfassungseinheit 330, die vierte Neigungserfassungseinheit 332, die Höhenpunktdreheinheit 328, die Vergleichseinheit 334 und die Punktattributermittlungseinheit 336 aufweisen.
  • Ferner kann ein computerlesbares Aufzeichnungsmedium, auf dem ein Programm zum Ausführen des Verfahrens zum Verfolgen eines Objekts unter Verwendung des LiDAR-Sensors 310 gespeichert ist, ein Programm speichern zum Implementieren einer Funktion zum Bilden einer ersten Neigung unter Verwendung von GPS-Höhenpunkten eines Fahrzeugfahrbereichs, einer Funktion zum Detektieren einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und zum Ermitteln einer zweiten Neigung unter Verwendung der detektierten Fahrspur, einer Funktion zum Drehen der GPS-Höhenpunkte unter Verwendung der ersten Neigung und der zweiten Neigung, einer Funktion zum Erhalten einer dritten Neigung unter Verwendung eines Zielpunktes und eines benachbarten Punktes, der zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt gehört, von den LiDAR-Punkten, einer Funktion zum Erhalten einer vierten Neigung unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und einer Funktion zum Ermitteln, dass der Zielpunkt ein Bodenpunkt ist, wenn der Absolutwert der Differenz zwischen der dritten Neigung und der vierten Neigung kleiner als eine Schwellenwert-Neigung ist.
  • Das computerlesbare Aufzeichnungsmedium weist alle Arten von Aufzeichnungsvorrichtungen auf, auf denen Daten, die eingerichtet sind, um mittels eines Computersystems gelesen zu werden, gespeichert sind. Beispiele des computerlesbaren Aufzeichnungsmediums weisen auf: einen Nur-Lese-Speicher (ROM, von engl. „Read-Only Memory“), einen Speicher mit wahlfreiem/direktem Zugriff (RAM, von engl. „Random Access Memory“), eine CD-ROM, ein Magnetband, eine Diskette und einen optischen Datenspeicher. Das computerlesbare Aufzeichnungsmedium kann auch über netzwerkverbundene Computersysteme verteilt sein, sodass der computerlesbare Code auf eine verteile Weise gespeichert und ausgeführt wird. Auch können Funktionalprogramme, Code und Codesegmente zum Durchführen des Objektverfolgungsverfahrens einfach von Programmier-Fachmännern auf dem Gebiet, zu dem verschiedene exemplarische Ausführungsformen der vorliegenden Erfindung gehören, ausgearbeitet werden.
  • Nachfolgend werden ein Objektverfolgungsverfahren gemäß einem Vergleichsbeispiel und das Objektverfolgungsverfahren gemäß der beispielhaften Ausführungsform unter Bezugnahme auf die begleitenden Zeichnungen beschrieben.
  • Im Falle des Vergleichsbeispiels wird eine Tabelle unter Verwendung von mittels eines LiDAR-Sensors theoretisch berechneten Punktinformationen und willkürlich ermittelten Neigungsinformationen konstruiert, und, ob ein LiDAR-Punkt ein Bodenpunkt oder ein Objektpunkt ist, wird unter Verwendung der Tabelle ermittelt. Ein Beispiel des Vergleichsbeispiels ist in der koreanischen offengelegten Patentveröffentlichung Nr. 10-2019-0064798 (mit dem Titel „ROAD SURFACE DETECTION SYSTEM USING LIDAR AND ROAD SURFACE DETECTION METHOD USING THE SAME“) enthalten.
  • Im Gegensatz dazu werden gemäß der beispielhaften Ausführungsform der vorliegenden Erfindung die GPS-Höhenpunkte unter Verwendung der ersten Neigung S1 und der zweiten Neigung S2 gedreht, um das dritte Liniensegment L3 zu erzeugen, welches die gedrehten GPS-Höhenpunkte aufweist, wird die dritte Neigung S3 unter Verwendung des Zielpunktes und des benachbarten Punktes der LiDAR-Punkte erzeugt, wird die vierte Neigung S4 unter Verwendung der Punkte des dritten Liniensegments L3, die mit den LiDAR-Punkten übereinstimmen, erzeugt, wird der Differenzwert zwischen der dritten Neigung S3 und der vierten Neigung S4 mit der Schwellenwert-Neigung Sth verglichen, und, ob der LiDAR-Punkt zu einem Objektpunkt korrespondiert oder zu einem Bodenpunkt korrespondiert, wird unter Verwendung des Ergebnisses des Vergleichs überprüft.
  • 19A, 19B und 19C zeigen Ergebnisse, die unter Verwendung der Objektverfolgungsverfahren und -vorrichtungen gemäß dem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn eine Bergauf-Straße (z.B. eine bergauf führende Straße) im Fahrzeugfahrbereich enthalten ist. Hier stellen von den in 19B und 19C gezeigten Punkten Punkte, die eine relativ kleine Grauskala haben, Objektpunkte dar, und Punkte, die eine relativ große Grauskala haben, stellen Bodenpunkte dar. Hier, wenn die Grauskala kleiner ist, nähert sich die Farbe der schwarzen Farbe an.
  • Im Fall des Vergleichsbeispiels werden bezugnehmend auf die kreisförmigen gepunkteten Linien 502 und 504 in 19B die LiDAR-Punkte, die zum Objekt korrespondieren, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren, und daher ist die Anzahl an LiDAR-Punkten, die das Objekt ausdrücken, klein, so dass die Form des Objekts nicht klar erscheint. Zum Beispiel werden manche der LiDAR-Punkte, die die Seitenfläche des linken Objekts ausdrücken, von den beiden Objekten, die sich in der kreisförmigen gepunkteten Linie 504 befinden, die in 19B gezeigt ist, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren.
  • Im Gegensatz dazu ist die Anzahl an LiDAR-Punkten, die ein Objekt ausdrücken, das sich in der kreisförmigen gepunkteten Linie 506 in 19C befindet, was das Ergebnis ist, das mittels der beispielhaften Ausführungsform unter Verwendung des dritten Liniensegments L3, welches in 19A gezeigt ist, erhalten wird, größer als die Anzahl an LiDAR-Punkten, die ein Objekt ausdrücken, das sich in der kreisförmigen gepunkteten Linie 502 in 19B befindet, was das Ergebnis ist, das mittels des Vergleichsbeispiels erhalten wird. Die Anzahl an LiDAR-Punkten, die sich auf der Seitenfläche des linken Objekts befinden, von den beiden Objekten, die sich in der kreisförmigen gepunkteten Linie 508 in 19C befinden, was das mittels der beispielhaften Ausführungsform der vorliegenden Erfindung erhaltene Ergebnis ist, ist größer als die Anzahl an LiDAR-Punkte, die sich auf der Seitenfläche des linken Objekts befinden, welches sich in der kreisförmigen gepunkteten Linie 504 in 19B befindet, was das mittels des Vergleichsbeispiels erhaltene Ergebnis ist, so dass die Form des Objekts klarer zu sein scheint als in dem Vergleichsbeispiel.
  • 20A, 20B und 20C zeigen Ergebnisse, die unter Verwendung der Objektverfolgungsverfahren und -vorrichtungen gemäß dem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn eine Bergab-Straße (z.B. eine bergab führende Straße) im Fahrzeugfahrbereich ist. Hier stellen von den in 20B und 20C gezeigten Punkten Punkte, die eine relativ kleine Grauskala haben, Objektpunkte dar, und Punkte, die eine relativ große Grauskala haben, stellen Bodenpunkte dar.
  • Im Fall des Vergleichsbeispiels, bezugnehmend auf die kreisförmigen gepunkteten Linien 512, 514 und 516 in 20B, werden die LiDAR-Punkte, die zum Objekt korrespondieren, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren, und daher ist die Anzahl an LiDAR-Punkten, die das Objekt ausdrücken, klein, so dass die Form des Objekts nicht klar erscheint. Zum Beispiel werden manche der LiDAR-Punkte, die vier Objekte ausdrücken, die sich in der kreisförmigen gepunkteten Linie 516, die in 20B gezeigt ist, befinden, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren.
  • Im Gegensatz dazu ist die Anzahl an LiDAR-Punkten, die zu Objekten korrespondieren, die sich in den kreisförmig gepunkteten Linien 522, 524 und 526 in 20C befinden, was das Ergebnis ist, das mittels der beispielhaften Ausführungsform unter Verwendung des in 20A gezeigten dritten Liniensegments L3 erhalten wird, größer als die Anzahl an LiDAR-Punkten, die zu Objekten korrespondieren, die sich in den kreisförmig gepunkteten Linien 512, 514 und 516 in 20B befinden, was das Ergebnis ist, das mittels des Vergleichsbeispiels erhalten wird.
  • 21A, 21B und 21C zeigen Ergebnisse, die unter Verwendung der Objektverfolgungsverfahren und -vorrichtungen gemäß dem Vergleichsbeispiel und der beispielhaften Ausführungsform erfasst werden/wurden, wenn keine Bergab-Straße oder keine Bergauf-Straße im Fahrzeugfahrbereich enthalten ist. Hier stellen von den in 21B und 21C gezeigten Punkten Punkte, die eine relativ kleine Grauskala haben, Objektpunkte dar, und Punkte, die eine relativ große Grauskala haben, stellen Bodenpunkte dar.
  • Im Fall des Vergleichsbeispiels werden bezugnehmend auf die kreisförmige gepunktete Linie 532 in 21B die LiDAR-Punkte, die zum Objekt korrespondieren, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren, und daher ist die Anzahl an LiDAR-Punkten, die das Objekt ausdrücken, klein, so dass die Form des Objekts nicht klar erscheint. Zum Beispiel werden die LiDAR-Punkte, die zwei Objekte ausdrücken, die sich in der kreisförmigen gepunkteten Linie 532, die in 21B gezeigt ist, befinden, fälschlicherweise als LiDAR-Punkte ermittelt, die zum Boden korrespondieren.
  • Im Gegensatz dazu ist die Anzahl an LiDAR-Punkten, die zu zwei Objekten korrespondieren, die sich in der kreisförmig gepunkteten Linie 542 in 21C befinden, was das Ergebnis ist, das mittels der beispielhaften Ausführungsform unter Verwendung des dritten Liniensegments L3, das in 21A gezeigt ist, erhalten wird, größer als die Anzahl an LiDAR-Punkten, die zu den Objekten korrespondieren, die sich in der kreisförmig gepunkteten Linie 532 in 21B befinden, was das Ergebnis ist, das mittels des Vergleichsbeispiels erhalten wird.
  • Wie oben beschrieben, ist es gemäß der beispielhaften Ausführungsform der vorliegenden Erfindung möglich, genau zu ermitteln, ob die LiDAR-Punkte Bodenpunkte oder Objektpunkte sind, und daher ist die Anzahl an LiDAR-Punkten, die ein Objekt ausdrücken, größer als im Vergleichsbeispiel, was eine genauere Verfolgung eines Objekts erleichtert/ermöglicht.
  • Darüber hinaus wird im Fall des Vergleichsbeispiels beim Ermitteln, ob LiDAR-Punkte Bodenpunkte oder Objektpunkte sind, das Ermitteln von dem aktuellen Fahrzustand und der Straßenumgebung beeinflusst und die Ausführungszeit ist lang. Im Fall des Vergleichsbeispiels, in dem unter Verwendung einer Tabelle ermittelt wird, ob LiDAR-Punkte Bodenpunkte oder Objektpunkte sind, kann die Objektverfolgungsleistung durch den Zustand des Fahrzeugs oder den Grad der Unebenheit oder Neigung der Straße beeinflusst (z.B. beeinträchtigt) werden.
  • Im Gegensatz dazu verwendet die beispielhafte Ausführungsform GPS-Höhenpunkte, die Höheninformationen der tatsächlichen Straße sind, in Echtzeit, wodurch genauer ermittelt werden kann, ob LiDAR-Punkte Bodenpunkte oder Objektpunkte sind, wobei das Ermitteln weniger durch den tatsächlichen Fahrzustand und die äußere Umgebung, wie zum Beispiel Straßenbedingungen, beeinflusst wird als beim Vergleichsbeispiel, und das Ermitteln lediglich durch das Vergleichen von Neigungen erreicht wird, wodurch die Ausführungszeit verglichen mit dem Vergleichsbeispiel verkürzt wird.
  • Wie aus der obigen Beschreibung ersichtlich ist, ist es gemäß dem Verfahren und der Vorrichtung, die zum Verfolgen eines Objekts unter Verwendung eines LiDAR-Sensors konfiguriert sind, und dem Aufzeichnungsmedium, das ein Programm speichert, um das Verfahren gemäß den Ausführungsformen auszuführen, möglich, genau zu ermitteln, ob LiDAR-Punkte Punkte sind, die zum Boden korrespondieren, oder Punkte, die zu einem Objekt korrespondieren, was die Anzahl an LiDAR-Punkten, die das Objekt ausdrücken, erhöht, wodurch eine genauere Verfolgung des Objekts erleichtert/ermöglicht wird. Darüber hinaus verwenden die beispielhaften Ausführungsformen Höheninformationen der tatsächlichen Straße in Echtzeit, wodurch genauer ermittelt werden kann, ob LiDAR-Punkte Punkte sind, die zum Boden korrespondieren, oder Punkte, die zu einem Objekt korrespondieren, während sie weniger von dem tatsächlichen Fahrzustand und der äußeren Umgebung, wie zum Beispiel Straßenbedingungen, beeinflusst werden und die Ausführungszeit verkürzt wird.
  • Die durch die vorliegende Erfindung erzielbaren Effekte/Wirkungen sind jedoch nicht auf die oben genannten Effekte/Wirkungen beschränkt, und andere, hierin nicht genannte Effekte/Wirkungen werden von einem Fachmann aus der obigen Beschreibung klar verstanden.
  • Die oben beschriebenen verschiedenen Ausführungsformen können miteinander kombiniert werden, ohne vom Umfang der vorliegenden Erfindung abzuweichen, sofern sie nicht miteinander inkompatibel sind.
  • Darüber hinaus kann für jedes Element oder jeden Vorgang, das/der in irgendeiner der verschiedenen Ausführungsformen nicht ausführlich beschrieben ist, auf die Beschreibung eines Elements oder eines Vorgangs, das/der das gleiche Bezugszeichen hat, in einer anderen beispielhaften Ausführungsform Bezug genommen werden, sofern nichts Anderes angegeben ist.
  • Zur Erleichterung der Erklärung und zur genauen Definition der beigefügten Ansprüche werden die Begriffe „ober...‟, „unter.. ‟, „inner...‟, „äußer...‟, „oben“, „unten“, „aufwärts“, „abwärts“, „vorder...“, „hinter...‟, „hinten“, „innen“, „außen“, „einwärts / nach innen“, „auswärts / nach außen“, „innerhalb“, „außerhalb“, „innere/innerer/inneres“, „äußere/äußerer/äußeres“, „extern“, „vorwärts / nach vorne“ und „rückwärts / nach hinten“ verwendet, um Eigenschaften/Merkmale der beispielhaften Ausführungsformen mit Bezug auf Positionen solcher Eigenschaften/Merkmale, wie sie in den Zeichnungen gezeigt sind, zu beschreiben. Es ist ferner zu verstehen, dass der Begriff „verbinden“ oder seine Abwandlungen sich sowohl auf eine direkte als auch auf eine indirekte Verbindung bezieht.
  • Die vorhergehenden Beschreibungen von spezifischen beispielhaften Ausführungsformen der vorliegenden Erfindung wurden für Zwecke der Erläuterung und Beschreibung gezeigt. Sie sind nicht dazu gedacht, erschöpfend zu sein oder die vorliegende Erfindung auf die genauen offenbaren Formen zu beschränken, und offensichtlich sind viele Änderungen und Variationen im Licht der obigen Lehren möglich. Die beispielhaften Ausführungsformen wurden ausgewählt und beschrieben, um bestimmte Prinzipien der vorliegenden Erfindung und ihre praktische Anwendung zu erklären, um es einem Fachmann zu ermöglichen, verschiedene exemplarische Ausführungsformen der vorliegenden Erfindung sowie verschiedene Alternativen und Modifikationen davon herzustellen und zu verwenden. Es ist beabsichtigt, dass der Umfang der vorliegenden Erfindung durch die hieran angehängten Ansprüche und deren Äquivalente definiert wird.

Claims (18)

  1. Verfahren (120A) zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR)-Sensors, wobei das Verfahren (120A) aufweist: Bilden (124) einer ersten Neigung (S1) unter Verwendung von Globales-Positionsbestimmungssystem(GPS)-Höhenpunkten eines Fahrzeugfahrbereichs, Detektieren (230) einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und Ermitteln (126) einer zweiten Neigung (S2) unter Verwendung der detektierten Fahrspur, Drehen (128) der GPS-Höhenpunkte unter Verwendung der ersten Neigung (S1) und der zweiten Neigung (S2), Erhalten (130) einer dritten Neigung (S3) unter Verwendung eines Zielpunktes (Pcur) und eines benachbarten Punktes (Pprev) von den LiDAR-Punkten, wobei der benachbarte Punkt (Pprev) zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt (Pcur) gehört, Erhalten (132) einer vierten Neigung (S4) unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und Ermitteln (136), dass der Zielpunkt ein Bodenpunkt ist, wenn ein Absolutwert einer Differenz (ΔS) zwischen der dritten Neigung (S3) und der vierten Neigung (S4) kleiner als eine Schwellenwert-Neigung (Sth) ist (134).
  2. Verfahren (120A) gemäß Anspruch 1, welches ferner aufweist: Erfassen (210) der GPS-Höhenpunkte des Fahrzeugfahrbereichs und Erzeugen (212) von interpolierten Höhenpunkten, welche Höhen von Bereichen angeben, die sich zwischen den GPS-Höhenpunkte befinden, innerhalb des Fahrzeugfahrbereichs, wobei die erste Neigung (S1) unter Verwendung von zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte gebildet wird.
  3. Verfahren (120A) gemäß Anspruch 2, wobei das Bilden (124) der ersten Neigung (S1) ferner aufweist: Auswählen (122) eines ersten Überprüfungszielbereichs, der sich innerhalb eines ersten Abstands, der an dem Fahrzeug zentriert ist, befindet, innerhalb des Fahrzeugfahrbereichs, und wobei die erste Neigung (S1) unter Verwendung zumindest mancher der GPS-Höhenpunkte oder der interpolierten Höhenpunkte, die innerhalb des ersten Überprüfungszielbereichs vorhanden sind, gebildet wird (224).
  4. Verfahren (120A) gemäß irgendeinem der Ansprüche 1 bis 3, wobei das Detektieren (230) der Fahrspur aufweist: Auswählen (232) von LiDAR-Punkten, die sich innerhalb eines vorbestimmten Abstands, der am Fahrzeug zentriert ist, befinden, aus den LiDAR-Punkten, Auswählen (234) von LiDAR-Punkten, die eine relativ hohe Intensität haben, aus den ausgewählten LiDAR-Punkten, die sich innerhalb des vorbestimmten Abstands befinden, und Auswählen (236) von LiDAR-Punkten, die eine lineare Eigenschaft haben, als LiDAR-Punkte, die zur Fahrspur korrespondieren, aus den LiDAR-Punkten, die eine relativ hohe Intensität haben.
  5. Verfahren (120A) gemäß irgendeinem der Ansprüche 1 bis 4, wobei das Ermitteln der zweiten Neigung (S2) ferner aufweist: Auswählen (240) eines zweiten Überprüfungszielbereichs, der sich innerhalb eines zweiten Abstands, der am Fahrzeug zentriert ist, befindet, innerhalb des Fahrzeugfahrbereichs, und wobei die zweite Neigung (S2) unter Verwendung von LiDAR-Punkten, die innerhalb des zweiten Überprüfungszielbereich vorhanden sind, von den ausgewählten LiDAR-Punkten, die zur Fahrspur korrespondieren, ermittelt wird (250).
  6. Verfahren (120A) gemäß Anspruch 5, wobei der erste Abstand und der zweite Abstand identisch zueinander sind.
  7. Verfahren (120A) gemäß irgendeinem der Ansprüche 1 bis 6, wobei die gedrehten GPS-Höhenpunkte eine Neigung bilden, die äquivalent ist zu einer Summe der ersten Neigung (S1) und der zweiten Neigung (S2).
  8. Verfahren (120A) gemäß irgendeinem der Ansprüche 1 bis 7, wobei die Schwellenwert-Neigung 0,5° beträgt.
  9. Verfahren (120A) gemäß irgendeinem der Ansprüche 1 bis 8, welches ferner aufweist: Vorverarbeiten (210) der LiDAR-Punkte, Clustern (140) der vorverarbeiteten LiDAR-Punkte in sinnvolle Einheiten gemäß vorbestimmten Kriterien und Analysieren (150) einer Form eines Objekts unter Verwendung der geclusterten LiDAR-Punkte, wobei das Erhalten (124, 230, 130, 132) der ersten bis vierten Neigung (S1, S2, S3, S3), das Drehen (128) der GPS-Höhenpunkte und das Ermitteln (136), ob der Zielpunkt der Bodenpunkt ist, im Vorverarbeiten (210) der LiDAR-Punkte durchgeführt werden.
  10. Vorrichtung (300) zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR)-Sensors (310), wobei die Vorrichtung (300) aufweist: eine erste Neigungserfassungseinheit (324), welche eingerichtet ist, um eine erste Neigung (S1) unter Verwendung von Globales-Positionsbestimmungssystem(GPS)-Höhenpunkten eines Fahrzeugfahrbereichs zu bilden, eine zweite Neigungserfassungseinheit (326), welche eingerichtet ist, um eine Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs zu detektieren, und um eine zweite Neigung (S2) unter Verwendung der Fahrspur zu ermitteln, eine Höhenpunktdreheinheit (328), welche eingerichtet ist, um die GPS-Höhenpunkte unter Verwendung der ersten Neigung (S1) und der zweiten Neigung (S2) zu drehen, eine dritte Neigungserfassungseinheit (330), welche eingerichtet ist, um eine dritte Neigung (S3) unter Verwendung eines Zielpunkts (Pcur) und eines benachbarten Punkts (Pprev) von den LiDAR-Punkten zu ermitteln, wobei der benachbarte Punkt (Pprev) zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt (Pcur) gehört, eine vierte Neigungserfassungseinheit (332), welche eingerichtet ist, um eine vierte Neigung (S4) unter Verwendung von Punkten zu ermitteln, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, eine Vergleichseinheit (334), welche eingerichtet ist, um einen Absolutwert einer Differenz (ΔS) zwischen der dritten Neigung (S3) und der vierten Neigung (S4) mit einer Schwellenwert-Neigung (Sth) zu vergleichen, und eine Punktattributermittlungseinheit (336), welche eingerichtet ist, um in Antwort auf ein Ergebnis des Vergleichs mittels der Vergleichseinheit (334) zu ermitteln, ob der Zielpunkt (Pcur) ein Bodenpunkt oder ein Objektpunkt ist.
  11. Vorrichtung (300) gemäß Anspruch 10, welche ferner aufweist: eine GPS-Höhenerfassungseinheit (410), welche eingerichtet ist, um die GPS-Höhenpunkte des Fahrzeugfahrbereichs zu erfassen.
  12. Vorrichtung (300) gemäß Anspruch 10 oder 11, welche ferner aufweist: eine Höhenpunktinterpolationseinheit (412), welche eingerichtet ist, um interpolierte Höhenpunkte innerhalb des Fahrzeugfahrbereichs zu erzeugen, welche die Höhen von Bereichen angeben, die sich zwischen den GPS-Höhenpunkten befinden, wobei die erste Neigungserfassungseinheit (324) die erste Neigung (S1) unter Verwendung von zumindest manchen der GPS-Höhenpunkte oder der interpolierten Höhenpunkte bildet.
  13. Vorrichtung (300) gemäß irgendeinem der Ansprüche 10 bis 12, wobei die zweite Neigungserfassungseinheit (326) aufweist: eine Punktauswahleinheit (420), welche eingerichtet ist, um LiDAR-Punkte, welche zur Fahrspur korrespondieren, aus den LiDAR-Punkten auszuwählen, und eine Neigungsermittlungseinheit (422), welche eingerichtet ist, um die zweite Neigung (S2) unter Verwendung der von der Punktauswahleinheit (420) ausgewählten LiDAR-Punkte zu ermitteln.
  14. Vorrichtung (300) gemäß Anspruch 13, wobei die Punktauswahleinheit (420) aufweist: eine Abstandsüberprüfungseinheit (430), welche eingerichtet ist, um aus den LiDAR-Punkten LiDAR-Punkte auszuwählen, die sich innerhalb eines vorbestimmten Abstands, der am Host-Fahrzeug zentriert ist, befinden, eine Intensitätsüberprüfungseinheit (432), welche eingerichtet ist, um LiDAR-Punkte, die eine relativ hohe Intensität haben, aus den ausgewählten LiDAR-Punkten auszuwählen, die innerhalb des vorbestimmten Abstands vorhanden sind, und eine Linearitätsüberprüfungseinheit (434), welche eingerichtet ist, um aus den LiDAR-Punkten, die eine relativ hohe Intensität haben, LiDAR-Punkte, die eine lineare Eigenschaft haben, als LiDAR-Punkte auszuwählen, die zur Fahrspur korrespondieren.
  15. Vorrichtung (300) gemäß irgendeinem der Ansprüche 10 bis 14, wobei die Höhenpunktdreheinheit (328) eine Neigungssyntheseeinheit (328A) aufweist, welche eingerichtet ist, um die erste Neigung (S1) und die zweite Neigung (S2) zu summieren, und um die gedrehten GPS-Höhenpunkte, die von einer summierten Neigung gebildet werden, auszugeben.
  16. Vorrichtung (300) gemäß irgendeinem der Ansprüche 10 bis 15, wobei die Schwellenwert-Neigung 0,5° beträgt.
  17. Vorrichtung (300) gemäß irgendeinem der Ansprüche 10 bis 16, welche ferner aufweist: den LiDAR-Sensor (310), welcher eingerichtet ist, um die LiDAR-Punkte zu erfassen, welche sich auf den Fahrzeugfahrbereich beziehen, eine Vorverarbeitungseinheit (320), welche eingerichtet ist, um die LiDAR-Punkte vorzuverarbeiten, wobei die Vorverarbeitungseinheit (320) aufweist: die erste Neigungserfassungseinheit (324), die zweite Neigungserfassungseinheit (326), die dritte Neigungserfassungseinheit (330), die vierte Neigungserfassungseinheit (332), die Höhenpunktdreheinheit (328), die Vergleichseinheit (334) und die Punktattributermittlungseinheit (336), eine Clustering-Einheit (340), welche eingerichtet ist, um die vorverarbeiteten LiDAR-Punkte gemäß vorbestimmten Kriterien in sinnvolle Einheiten zu clustern, und eine Formanalyseeinheit (350), welche eingerichtet ist, um eine Form eines Objekts unter Verwendung der geclusterten LiDAR-Punkte zu analysieren.
  18. Computerlesbares Aufzeichnungsmedium, auf dem ein Programm zum Ausführen eines Verfahrens zum Verfolgen eines Objekts unter Verwendung eines Lichterfassung- und Entfernungsmessung(LiDAR)-Sensors gespeichert ist, wobei das Aufzeichnungsmedium ein Programm speichert, um zu implementieren: eine Funktion zum Bilden einer ersten Neigung unter Verwendung von Globales-Positionsbestimmungssystem(GPS)-Höhenpunkten eines Fahrzeugfahrbereichs, eine Funktion zum Detektieren einer Fahrspur unter Verwendung von LiDAR-Punkten eines Fahrzeugs und zum Ermitteln einer zweiten Neigung unter Verwendung der detektierten Fahrspur, eine Funktion zum Drehen der GPS-Höhenpunkte unter Verwendung der ersten Neigung und der zweiten Neigung, eine Funktion zum Erhalten einer dritten Neigung unter Verwendung eines Zielpunktes und eines benachbarten Punktes von den LiDAR-Punkten, wobei der benachbarte Punkt zu einer vorherigen Schicht gehört, die an eine gegenwärtige Schicht angrenzt, zu der der Zielpunkt gehört, eine Funktion zum Erhalten einer vierten Neigung unter Verwendung von Punkten, die mit den LiDAR-Punkten übereinstimmen, von den gedrehten GPS-Höhenpunkten, und eine Funktion zum Ermitteln, dass der Zielpunkt ein Bodenpunkt ist, wenn ein Absolutwert einer Differenz zwischen der dritten Neigung und der vierten Neigung kleiner als eine Schwellenwert-Neigung ist.
DE102022103147.0A 2021-03-15 2022-02-10 Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen Pending DE102022103147A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0033359 2021-03-15
KR1020210033359A KR20220128787A (ko) 2021-03-15 2021-03-15 라이다 센서를 이용한 객체 추적 방법 및 장치와, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체

Publications (1)

Publication Number Publication Date
DE102022103147A1 true DE102022103147A1 (de) 2022-09-15

Family

ID=83005581

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022103147.0A Pending DE102022103147A1 (de) 2021-03-15 2022-02-10 Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen

Country Status (4)

Country Link
US (1) US20220291390A1 (de)
KR (1) KR20220128787A (de)
CN (1) CN115079198A (de)
DE (1) DE102022103147A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117471433B (zh) * 2023-12-28 2024-04-02 广东威恒输变电工程有限公司 基于高反射强度标靶的施工机械激光点云实时提取方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3454159B1 (de) * 2017-09-06 2020-01-01 Alerion Technologies, S.L. Verfahren und vorrichtung zur autonomen navigation
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
KR102446365B1 (ko) 2017-11-01 2022-09-22 현대자동차주식회사 차량 및 그 제어방법
KR102401382B1 (ko) 2017-12-01 2022-05-24 현대자동차주식회사 라이다를 이용한 노면 검출 시스템 및 그를 이용한 노면의 검출 방법
US11340355B2 (en) * 2018-09-07 2022-05-24 Nvidia Corporation Validation of global navigation satellite system location data with other sensor data
US10620317B1 (en) * 2018-12-23 2020-04-14 Chongqing Jinkang New Energy Automobile Co., Ltd. Lidar-based high definition map generation
US11699309B2 (en) * 2019-03-04 2023-07-11 Speedgauge, Inc. Dynamic driver and vehicle analytics based on vehicle tracking and driving statistics
US11692845B2 (en) * 2019-05-30 2023-07-04 Speedgauge, Inc. Predictive annotation of relevant road information based on vehicle location and identity
US20230121226A1 (en) * 2019-06-24 2023-04-20 Nvidia Corporation Determining weights of points of a point cloud based on geometric features
JP2022546591A (ja) * 2019-09-06 2022-11-04 アウスター インコーポレイテッド Lidar画像の処理
US20220415059A1 (en) * 2019-11-15 2022-12-29 Nvidia Corporation Multi-view deep neural network for lidar perception
US11623661B2 (en) * 2020-10-12 2023-04-11 Zoox, Inc. Estimating ground height based on lidar data
AU2021204561B2 (en) * 2021-06-30 2023-11-30 Psionic Llc Navigation system for gps denied environments
US20230128756A1 (en) * 2021-10-22 2023-04-27 Argo AI, LLC Validating an sfm map using lidar point clouds
US20230136860A1 (en) * 2021-10-28 2023-05-04 Nvidia Corporation 3d surface structure estimation using neural networks for autonomous systems and applications
US20230406325A1 (en) * 2022-06-16 2023-12-21 Here Global B.V. Apparatus and methods for predicting events in which drivers render aggressive behaviors while maneuvering vehicles

Also Published As

Publication number Publication date
US20220291390A1 (en) 2022-09-15
KR20220128787A (ko) 2022-09-22
CN115079198A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
DE102011007133B4 (de) Vorrichtung und verfahren zum erkennen des vorhandenseins von objekten
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
DE112010002047T5 (de) Objekterfassungsvorrichtung
DE202012013403U1 (de) Erfassen und Verarbeiten adaptiver Bilder mit Bildanalyse-Rückmeldung
WO2005038395A1 (de) Verfahren und vorrichtung zur bestimmung der aktualposition eines geodätischen instrumentes
DE102004032118A1 (de) Objekterkennungsverfahren für Fahrzeuge
DE102018124538A1 (de) Systeme und Verfahren zur Messung einer Brückendurchfahrtshöhe
EP2288937B1 (de) Verfahren und vorrichtung zur rechnergestützten segmentierung einer umgebung in einzelne objekte
DE102020118629B4 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
DE102016119626A1 (de) Automatische dreidimensionale Geolokation von SAR-Targets und gleichzeitige Schätzung troposphärischer Ausbreitungsverzögerungen mittels zweier SAR-Bilder mit langer Apertur
DE102021100351A1 (de) Adaptive untersuchung für lidar-basiertes gruppieren
DE102022103147A1 (de) Verfahren und vorrichtung zum verfolgen eines objekts unter verwendung eines lidar-sensors und aufzeichnungsmedium, welches ein programm speichert, um das verfahren auszuführen
DE10148070A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE10148062A1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
DE102021203796A1 (de) Strassenoberflächenerfassungsvorrichtung, strassenoberflächenerfassungssystem, fahrzeug, und strassenoberflächenerfassungsverfahren
DE102020105192B4 (de) Verfahren zum Detektieren bewegter Objekte in einer Fahrzeugumgebung und Kraftfahrzeug
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102018103969A1 (de) Computer-implementiertes Verfahren zur Erzeugung von Sensordaten
DE102018119632A1 (de) Verfahren zur Bestimmung der Detektionsreichweite eines Umgebungssensors
DE102016109850B4 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3663800B1 (de) Verfahren zur objekterfassung mit einer 3d-kamera
EP2921879B1 (de) Klassifikationsverfahren für Messpunkte eines topobathymetrischen Datensatzes
DE102021121661A1 (de) Vorrichtung und verfahren zur anpassung des vertrauensniveaus einer ausgabe eines sensors
AT525604B1 (de) Verfahren und Vorrichtung zur Bestimmung der Zusammensetzung eines geschichteten Schneeprofils
DE102021129070A1 (de) Inhaltliche Erfassung einer Umgebung eines Fahrzeugs mit a priori Konfidenzen

Legal Events

Date Code Title Description
R012 Request for examination validly filed