DE102019220616A1 - Verfahren zur simultanen lokalisierung und abbildung - Google Patents

Verfahren zur simultanen lokalisierung und abbildung Download PDF

Info

Publication number
DE102019220616A1
DE102019220616A1 DE102019220616.6A DE102019220616A DE102019220616A1 DE 102019220616 A1 DE102019220616 A1 DE 102019220616A1 DE 102019220616 A DE102019220616 A DE 102019220616A DE 102019220616 A1 DE102019220616 A1 DE 102019220616A1
Authority
DE
Germany
Prior art keywords
point cloud
cloud data
previous
last
tracked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019220616.6A
Other languages
English (en)
Other versions
DE102019220616B4 (de
Inventor
Yu-Fang Wang
Yi-Shueh TSAI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automotive Research and Testing Center
Original Assignee
Automotive Research and Testing Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automotive Research and Testing Center filed Critical Automotive Research and Testing Center
Priority to DE102019220616.6A priority Critical patent/DE102019220616B4/de
Publication of DE102019220616A1 publication Critical patent/DE102019220616A1/de
Application granted granted Critical
Publication of DE102019220616B4 publication Critical patent/DE102019220616B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein Verfahren zur simultanen Lokalisierung und Abbildung, SLAM, ist bereitgestellt, um ein Zielobjekt zu positionieren. Jedes von erfassten verfolgten Objekten in einer Umgebung des Zielobjekts wird auf Basis von Daten, die zu verschiedenen Zeitpunkten erfasst werden, als bewegtes Objekt oder ein statisches Objekt klassifiziert (24, 34). Das Zielobjekt wird dann positioniert (27, 39), ohne eines der verfolgten Objekte zu berücksichtigen, die als bewegtes Objekt klassifiziert sind.

Description

  • Die Offenbarung bezieht sich auf ein Verfahren zur simultanen Lokalisierung und Abbildung (simultaneous localization and mapping, SLAM) und insbesondere auf ein SLAM-Verfahren, das auf der Verfolgung von Objekten basiert.
  • Heutzutage wird das globale Positionierungssystem (GPS) üblicherweise für die Fahrzeugnavigation verwendet, jedoch kann seine Präzision sich beispielsweise an einem Ort mit vielen Objekten, die die Übertragung von Signalen von Satelliten behindern können, oder an einem bewölkten Tag usw. verschlechtern. Dementsprechend ist die simultane Lokalisierung und Abbildung (SLAM), bei der es sich um eine Positionierungstechnik handelt, die Umgebungsmerkmale (z. B. umgebende Objekte) zur Durchführung der Positionierung verwendet und die in großem Umfang bei Staubsaugerrobotern angewendet wurde, ein alternativer Ansatz zur Fahrzeugnavigation.
  • Konventionelle SLAM-Techniken verwenden einen Sensor wie beispielsweise eine optische Linse, ein Lidar, eine Farbkamera, eine dreidimensionale (3D-)Kamera usw., um eine Umgebung zu erfassen, eine Abbildung zu erstellen oder zu aktualisieren, die darin die so erfassten Umgebungsmerkmale (z. B. Objekte in der Umgebung) aufzeichnet, und ein zu positionierendes Objekt in der Abbildung auf der Basis von Umgebungsmerkmalen zu positionieren. Bewegbare oder sich bewegende Objekte in der Umgebung führen jedoch zu Unsicherheiten in Bezug auf ihre Lage, was zu Fehleinschätzungen oder Rauschen bei der Erstellung der Abbildung führen kann, wodurch die Genauigkeit der Positionierung negativ beeinflusst wird.
  • Deshalb ist es eine Aufgabe der Offenbarung, ein SLAM-Verfahren zu schaffen, das eine höhere Präzision bei der Positionierung bereitstellen kann.
  • Gemäß der Offenbarung ist das Verfahren dahin gehend angepasst, ein Zielobjekt zu positionieren, und ist durch ein Positionierungssystem zu implementieren. Das Verfahren umfasst: A) kontinuierliches Erfassen einer Umgebung des Zielobjekts, Gewinnen einer ersten Erfassungsinformationseinheit, die Informationen der Umgebung umfasst, die sich auf einen letzten Erfassungszeitpunkt und einen vorherigen Erfassungszeitpunkt beziehen, und Gewinnen einer zweiten Erfassungsinformationseinheit, die sich auf Informationen der Umgebung bezieht, wobei der vorherige Erfassungszeitpunkt um ein vorbestimmtes Intervall vor dem letzten Erfassungszeitpunkt liegt und das Positionierungssystem an dem Zielobjekt befestigt ist; B) Aussortieren einer Mehrzahl von Umgebungsobjekten, die dem letzten Erfassungszeitpunkt in der Umgebung entsprechen, auf Basis der ersten Erfassungsinformationseinheit; C) Aussieben einer Mehrzahl von verfolgten Objekten, die dem letzten Erfassungszeitpunkt entsprechen, aus der Mehrzahl von Umgebungsobjekten; D) für jedes der Mehrzahl von verfolgten Objekten, Klassifizieren des verfolgten Objekts als eines eines bewegten Objekts und eines statischen Objekts auf Basis der ersten Erfassungsinformationseinheit, die Informationen des verfolgten Objekts zu dem letzten Erfassungszeitpunkt und Informationen des verfolgten Objekts zu dem vorherigen Erfassungszeitpunkt angibt; E) Herausfiltern von Informationen, die sich auf diejenigen der Mehrzahl von verfolgten Objekten beziehen, die als bewegtes Objekt klassifiziert werden, aus der zweiten Erfassungsinformationseinheit und Erhalten einer gefilterten zweiten Erfassungsinformationseinheit; und F) Positionieren des Zielobjekts auf Basis eines SLAM-Algorithmus und der gefilterten zweiten Erfassungsinformationseinheit.
  • Andere Merkmale und Vorteile der Offenbarung werden in der folgenden ausführlichen Beschreibung des Ausführungsbeispiels bzw. der Ausführungsbeispiele unter Bezugnahme auf die beiliegenden Zeichnungen deutlich, wobei:
    • 1 ein Blockdiagramm ist, das ein Positionierungssystem zur Implementierung eines ersten Ausführungsbeispiels eines SLAM-Verfahrens gemäß der Offenbarung veranschaulicht;
    • 2 ein Flussdiagramm ist, das Schritte des ersten Ausführungsbeispiels veranschaulicht;
    • 3 ein Flussdiagramm ist, das Schritt 21 des ersten Ausführungsbeispiels ausführlich veranschaulicht;
    • 4 ein Flussdiagramm ist, das Schritt 24 des ersten Ausführungsbeispiels ausführlich veranschaulicht;
    • 5 ein Blockdiagramm ist, das ein Positionierungssystem zur Implementierung eines zweiten Ausführungsbeispiels eines SLAM-Verfahrens gemäß der Offenbarung veranschaulicht; und
    • 6 ein Flussdiagramm ist, das Schritte des zweiten Ausführungsbeispiels veranschaulicht.
  • Bevor die Offenbarung näher beschrieben wird, ist darauf hinzuweisen, dass, wo es als angemessen erachtet wird, Bezugszeichen oder Endabschnitte von Bezugszeichen unter den Figuren wiederholt werden, um auf entsprechende oder analoge Elemente hinzuweisen, die optional ähnliche Charakteristika aufweisen können.
  • 1 zeigt beispielhaft ein Positionierungssystem 1 zur Implementierung eines ersten Ausführungsbeispiels eines SLAM-Verfahrens, das dahin gehend angepasst ist, ein Zielobjekt (nicht gezeigt) zu positionieren, gemäß dieser Offenbarung. Das Positionierungssystem 1 ist an dem Zielobjekt befestigt und umfasst eine Sensoreinheit 11, eine SLAM-Einheit 12 und eine Klassifizierungseinheit 13. Bei dem ersten Ausführungsbeispiel ist das Zielobjekt ein selbstfahrendes Fahrzeug, jedoch ist diese Offenbarung in dieser Hinsicht nicht begrenzt.
  • Die Sensoreinheit 11 ist dazu konfiguriert, eine Umgebung des Zielobjekts kontinuierlich zu erfassen und eine erste Erfassungsinformationseinheit, die Informationen der Umgebung umfasst, die sich auf einen letzten Erfassungszeitpunkt und einen vorherigen Erfassungszeitpunkt beziehen, und eine zweite Erfassungsinformationseinheit zu gewinnen, die sich auf Informationen der Umgebung bezieht. Der vorherige Erfassungszeitpunkt liegt um ein vorbestimmtes Intervall vor dem letzten Erfassungszeitpunkt. Bei dem ersten Ausführungsbeispiel ist die erste Erfassungsinformationseinheit mit der zweiten Erfassungsinformationseinheit identisch, während die erste Erfassungsinformationseinheit der Klassifizierungseinheit 13 bereitgestellt wird und die zweite Erfassungsinformationseinheit der SLAM-Einheit 12 bereitgestellt wird. In der Praxis kann die Sensoreinheit 11 ein Lidarmodul oder ein 3D-Kameramodul sein. Bei dem ersten Ausführungsbeispiel ist die Sensoreinheit 11 beispielhaft das Lidarmodul dargestellt, und die erste Erfassungsinformationseinheit, die dadurch erzeugt wird, umfasst letzte Punktwolkendaten der Umgebung, die sich auf den letzten Erfassungszeitpunkt beziehen, und vorherige Punktwolkendaten der Umgebung, die sich auf den vorherigen Erfassungszeitpunkt beziehen. Sowohl die vorherigen Punktwolkendaten als auch die letzten Punktwolkendaten umfassen eine Mehrzahl von Punktwolkendateneinheiten, die zu unterschiedlichen Zeitpunkten innerhalb des vorbestimmten Intervalls gewonnen werden, gerechnet ab dem entsprechenden des vorherigen Erfassungszeitpunkts und des letzten Erfassungszeitpunkts. Es sei hier festgestellt, dass die Mehrzahl von Punktwolkendateneinheiten der vorherigen Punktwolkendaten sich angeblich alle auf den vorherigen Erfassungszeitpunkt beziehen, während sie tatsächlich zu unterschiedlichen Zeitpunkten innerhalb des vorbestimmten Intervalls gewonnen werden, gerechnet ab dem vorherigen Erfassungszeitpunkt; auch die Mehrzahl von Punktwolkendateneinheiten der letzten Punktwolkendaten beziehen sich angeblich alle auf den letzten Erfassungszeitpunkt bzw. entsprechen diesem, während sie tatsächlich zu unterschiedlichen Zeitpunkten innerhalb des vorbestimmten Intervalls gewonnen werden, gerechnet ab dem letzten Erfassungszeitpunkt. Jede der Mehrzahl von Punktwolkendateneinheiten umfasst eine Mehrzahl von Datenpunkten, die einem oder mehreren Objekten in der Umgebung entsprechen. Bei dem ersten Ausführungsbeispiel wird eine der Mehrzahl von Punktwolkendateneinheiten, die als erste für die vorherigen Punktwolkendaten gewonnen wird (im Folgenden als erste Punktwolkendateneinheit der vorherigen Punktwolkendaten bezeichnet), zu dem vorherigen Erfassungszeitpunkt gewonnen, und eine der Mehrzahl von Punktwolkendateneinheiten, die als erste für die letzten Punktwolkendaten gewonnen wird (im Folgenden als erste Punktwolkendateneinheit der letzten Punktwolkendaten bezeichnet), wird zu dem letzten Erfassungszeitpunkt gewonnen.
  • Die SLAM-Einheit 12 ist so konfiguriert, dass sie die zweite Erfassungsinformationseinheit und einen konventionellen SLAM-Algorithmus (z. B. Normalverteilungstransformation (normal distribution transform, NDT), Lidar-Odometrie und Abbildung (lidar odometry and mapping, LOAM) usw.) verwendet, um eine auf die Umgebung bezogene Abbildung zu erstellen und das Zielobjekt zu positionieren. Bei einem Ausführungsbeispiel kann die SLAM-Einheit 12 als Prozessor implementiert sein, der mit der Sensoreinheit 11 zum Empfangen der zweiten Erfassungsinformationseinheit elektrisch gekoppelt ist und der ein SLAM-Programm zur Realisierung der oben genannten Funktionen ausführt.
  • Die Klassifizierungseinheit 13 ist so konfiguriert, dass sie eine Mehrzahl von verfolgten Objekten in der Umgebung auf Basis von der ersten Erfassungsinformationseinheit identifiziert und jedes der Mehrzahl von verfolgten Objekten als bewegtes Objekt oder ein statisches Objekt klassifiziert. Bei einem Ausführungsbeispiel kann die Klassifizierungseinheit 13 als Prozessor implementiert sein, der mit der Sensoreinheit 11 elektrisch gekoppelt ist, um die erste Erfassungsinformationseinheit zu empfangen, der mit der SLAM-Einheit 12 elektrisch gekoppelt ist, um derselben Klassifizierungsergebnisse bereitzustellen, und der ein Programm zur Objektverfolgung und Objektklassifizierung ausführt, um die oben genannten Funktionen zu realisieren. Bei einem Ausführungsbeispiel können die SLAM-Einheit 12 und die Klassifizierungseinheit 13 unter Verwendung eines einzigen Prozessors integriert sein, der mit der Sensoreinheit 11 elektrisch gekoppelt ist, um von derselben die erste und die zweite Erfassungsinformationseinheit zu empfangen, und der das SLAM-Programm und das Programm zur Objektverfolgung und Objektklassifizierung ausführt.
  • Bezugnehmend auf 1 und 2 erfasst die Sensoreinheit 11 bei Schritt 20 kontinuierlich die Umgebung des Zielobjekts bzw. tastet diese ab und gewinnt die erste Erfassungsinformationseinheit, die Informationen der Umgebung umfasst, die sich auf den letzten Erfassungszeitpunkt und den vorherigen Erfassungszeitpunkt beziehen, und die zweite Erfassungsinformationseinheit, die sich auf Informationen der Umgebung bezieht. Bei dem ersten Ausführungsbeispiel ist die Sensoreinheit 11 beispielhaft als das Lidarmodul dargestellt, und die zweite Erfassungsinformationseinheit ist mit der ersten Erfassungsinformationseinheit identisch, die letzte Punktwolkendaten der Umgebung, die sich auf den letzten Erfassungszeitpunkt beziehen, und vorherige Punktwolkendaten der Umgebung umfasst, die sich auf den vorherigen Erfassungszeitpunkt beziehen. Jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten umfasst die Mehrzahl von Punktwolkendateneinheiten, die zu unterschiedlichen Zeitpunkten gewonnen werden.
  • Bei Schritt 21 korrigiert, für jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten, die Klassifizierungseinheit 13 jede der Mehrzahl von Punktwolkendateneinheiten derselben, außer der ersten Punktwolkendateneinheit derselben, auf Basis eines Orts und einer Kursrichtung (d. h. einer Richtung, in die das Zielobjekt sich bewegt) des Zielobjekts zu dem entsprechenden einen der unterschiedlichen Zeitpunkte, um als Ergebnis eine entsprechende von korrigierten vorherigen Punktwolkendaten und korrigierten letzten Punktwolkendaten zu gewinnen. Die korrigierten vorherigen Punktwolkendaten umfassen eine erste der Mehrzahl von Punktwolkendateneinheiten der vorherigen Punktwolkendaten und diejenigen der Mehrzahl von Punktwolkendateneinheiten der vorherigen Punktwolkendaten, die korrigiert worden sind. Die korrigierten letzten Punktwolkendaten umfassen die erste der Mehrzahl von Punktwolkendateneinheiten der letzten Punktwolkendaten und diejenigen der Mehrzahl der Punktwolkendateneinheiten der letzten Punktwolkendaten, die korrigiert worden sind. Danach wird angenommen, dass jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten erste bis N-te Punktwolkendateneinheiten umfasst, die jeweils in der gegebenen Reihenfolge an einem ersten bis N-ten Zeitpunkt innerhalb des entsprechenden vorbestimmten Intervalls gewonnen werden. Deshalb korrigiert bei Schritt 21 die Klassifizierungseinheit 13 die zweite bis N-te Punktwolkendateneinheit für die vorherigen Punktwolkendaten, um die korrigierten vorherigen Punktwolkendaten zu erhalten, die die ursprüngliche erste Punktwolkendateneinheit der vorherigen Punktwolkendaten und die korrigierte zweite bis N-te Punktwolkendateneinheit umfassen, die den vorherigen Punktwolkendaten entsprechen, und die Klassifizierungseinheit 13 korrigiert außerdem die zweite bis N-te Punktwolkendateneinheit für die letzten Punktwolkendaten, um die korrigierten letzten Punktwolkendaten zu erhalten, die die ursprüngliche erste Punktwolkendateneinheit der letzten Punktwolkendaten und die korrigierte zweite bis N-te Punktwolkendateneinheit umfassen, die den letzten Punktwolkendaten entsprechen. Bei dem ersten Ausführungsbeispiel ist eine Korrektur der ersten Punktwolkendateneinheit nicht erforderlich, da die erste Punktwolkendateneinheit genau zu dem letzten Erfassungszeitpunkt gewonnen wird, jedoch ist diese Offenbarung in dieser Hinsicht nicht eingeschränkt. Falls das Zielobjekt ein selbstfahrendes Fahrzeug ist, können der Ort und die Kursrichtung des Zielobjekts zu jedem Zeitpunkt unter Verwendung eines konventionellen Zweiradmodells gewonnen werden, in Kooperation mit einem Geschwindigkeitssignal und einem Gierungswinkel, die von dem selbstfahrenden Fahrzeug erhalten werden.
  • Unter Bezugnahme auf 1, 2 und 3 veranschaulicht 3 die Teilschritte 211 und 212 von Schritt 21. Bei Teilschritt 211 gewinnt, für jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten, die Klassifizierungseinheit 13 eine Anzahl (N-1) von ersten Translationskorrekturmatrizes und eine Anzahl (N-1) von ersten Rotationskorrekturmatrizes für den zweiten bis N-ten Zeitpunkt auf Basis der Orte und der Kursrichtungen des Zielobjekts an dem ersten bis N-ten Zeitpunkt, wobei für jeden des zweiten bis N-ten Zeitpunkts eine entsprechende der ersten Translationskorrekturmatrix und eine entsprechende der ersten Rotationskorrekturmatrix vorhanden ist. Die Klassifizierungseinheit 13 berechnet eine Verschiebung des Zielobjekts (d. h., die Verschiebung der Sensoreinheit 11, die auf dem Zielobjekt befestigt ist) von einem (i-1)-ten Zeitpunkt bis zu einem i-ten Zeitpunkt auf Basis der Orte des Zielobjekts zu dem (i-1)-ten und i-ten Zeitpunkt, um die erste Translationskorrekturmatrix zu erhalten, die dem i-ten Zeitpunkt entspricht, wobei i eine positive Ganzzahl größer eins ist. Dementsprechend werden die ersten Translationskorrekturmatrizes erhalten, die dem zweiten bis N-ten Zeitpunkt entsprechen. Die Klassifizierungseinheit 13 berechnet einen Gierungswinkel des Zielobjekts (d. h. den Gierungswinkel der Sensoreinheit 11, die auf dem Zielobjekt befestigt ist) von dem (i-1)-ten Zeitpunkt bis zu dem i-ten Zeitpunkt auf Basis der Kursrichtungen des Zielobjekts zu dem (i-1)-ten und i-ten Zeitpunkt, um die erste Rotationskorrekturmatrix zu erhalten, die dem i-ten Zeitpunkt entspricht. Dementsprechend werden die ersten Rotationskorrekturmatrizes erhalten, die dem zweiten bis N-ten Zeitpunkt entsprechen.
  • Bei Teilschritt 212 korrigiert, für jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten, die Klassifizierungseinheit 13 die zweiten bis N-ten Punktwolkendateneinheiten auf Basis der entsprechenden ersten Translationskorrekturmatrizes und der entsprechenden ersten Rotationskorrekturmatrizes, die für dieselben bei Teilschritt 211 erhalten wurden, um als Folge die korrigierten vorherigen Punktwolkendaten und die korrigierten letzten Punktwolkendaten zu gewinnen. Bei dem ersten Ausführungsbeispiel für jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten korrigiert, für jede der zweiten bis N-ten Punktwolkendateneinheit, die Klassifizierungseinheit 13 die Punktwolkendateneinheit auf Basis der ersten Translationskorrekturmatrix und der ersten Rotationskorrekturmatrix, die dem entsprechenden des zweiten bis N-ten Zeitpunkts entsprechen, um die korrigierten zweiten bis N-ten Punktwolkendateneinheiten zu gewinnen, die mit der ersten Punktwolkendateneinheit der vorherigen/letzten Punktwolkendaten zusammenwirken, um die entsprechende der korrigierten vorherigen Punktwolkendaten und der korrigierten letzten Punktwolkendaten zu bilden.
  • Wenn das Zielobjekt sich bewegt, kann die Verschiebung des Zielobjekts zwischen zwei benachbarten Zeitpunkten zu einer Nichtübereinstimmung der entsprechenden Punktwolkendateneinheiten führen, die sich auf denselben Erfassungszeitpunkt beziehen können, jedoch zu den benachbarten Zeitpunkten gewonnen werden, deshalb kann Schritt 21 erforderlich sein, um die Nichtübereinstimmung abzumildern. Jedoch kann, falls das Zielobjekt sich langsam genug bewegt, die Nichtübereinstimmung ignoriert werden. Dementsprechend kann bei einem Ausführungsbeispiel eine vorbestimmte Geschwindigkeit derart definiert sein, dass Schritt 21 lediglich dann erforderlich ist, wenn eine Bewegungsgeschwindigkeit des Zielobjekts größer als die vorbestimmte Geschwindigkeit ist, und entfällt, wenn die Bewegungsgeschwindigkeit des Zielobjekts nicht größer als die vorbestimmte Geschwindigkeit ist.
  • Unter Bezugnahme auf 1 und 2 sortiert die Klassifizierungseinheit 13 bei Schritt 22 eine Mehrzahl von Umgebungsobjekten, die dem letzten Erfassungszeitpunkt in der Umgebung entsprechen, auf Basis der ersten Erfassungsinformationseinheit aus. Im Detail gruppiert die Klassifizierungseinheit 13 die Mehrzahl von Datenpunkten in den korrigierten vorherigen Punktwolkendaten zu einer Mehrzahl von ersten Punktwolkengruppen bzw. markiert die Mehrzahl von ersten Punktwolkengruppen als eine Mehrzahl von ersten Umgebungsobjekten; und die Klassifizierungseinheit 13 gruppiert außerdem die Mehrzahl von Datenpunkten in den korrigierten letzten Punktwolkendaten zu einer Mehrzahl von zweiten Punktwolkengruppen bzw. markiert die Mehrzahl von zweiten Punktwolkengruppen als eine Mehrzahl von zweiten Umgebungsobjekten. Die Gruppierungstechniken sollten einem Fachmann mit gewöhnlichen Kenntnissen auf dem Gebiet gut bekannt sein, und zugehörige Details werden der Kürze halber hier weggelassen. Die Gruppierung kann beispielsweise auf der Basis von vertikalen und horizontalen Abständen zwischen der Mehrzahl von Datenpunkten der Punktwolkendaten erfolgen, und diese Offenbarung ist in dieser Hinsicht nicht eingeschränkt.
  • Bei Schritt 23 siebt die Klassifizierungseinheit 13 die Mehrzahl von verfolgten Objekten, die dem letzten Erfassungszeitpunkt entsprechen, aus der Mehrzahl von Umgebungsobjekten aus. Bei einem Ausführungsbeispiel siebt die Klassifizierungseinheit 13 diejenigen der Mehrzahl von Umgebungsobjekten aus, deren Größe in einen vorbestimmten Größenbereich fällt, um als die Mehrzahl von verfolgten Objekten zu dienen.
  • Bei Schritt 24 klassifiziert für jedes der Mehrzahl von verfolgten Objekten, die Klassifizierungseinheit 13 die Mehrzahl von verfolgten Objekten in eines eines bewegten Objekts und eines statischen Objekts, basierend auf der ersten Erfassungsinformationseinheit, die Informationen des verfolgten Objekts zu dem letzten Erfassungszeitpunkt und Informationen des verfolgten Objekts zu dem vorherigen Erfassungszeitpunkt angibt.
  • Unter Bezugnahme auf 1, 2, 3 und 4 veranschaulicht 4 die Teilschritte 241, 242, 243 und 244 von Schritt 24. Bei Teilschritt 241 gewinnt, für jedes der Mehrzahl von verfolgten Objekten, die Klassifizierungseinheit 13 einen vorherigen Ort, der sich auf den vorherigen Erfassungszeitpunkt bezieht, basierend auf einer der ersten Punktwolkengruppen, die dem verfolgten Objekt entspricht.
  • Bei Teilschritt 242 gewinnt, für jedes der Mehrzahl von verfolgten Objekten, die Klassifizierungseinheit 13 einen letzten Ort, der sich auf den letzten Erfassungszeitpunkt bezieht, basierend auf einer der zweiten Punktwolkengruppen, die dem verfolgten Objekt entspricht.
  • Bei Teilschritt 243 erhält, für jedes der Mehrzahl von verfolgten Objekten, die Klassifizierungseinheit 13 einen geschätzten vorherigen Ort, der sich auf den vorherigen Erfassungszeitpunkt bezieht, durch eine Schätzung auf Basis eines Orts und einer Kursrichtung des Zielobjekts, die dem letzten Erfassungszeitpunkt entsprechen, eines Orts und einer Kursrichtung des Zielobjekts, die dem vorherigen Erfassungszeitpunkt entsprechen, und des letzten Orts des verfolgten Objekts, der bei Teilschritt 242 gewonnen wird. Wie zuvor erwähnt wurde, können der Ort und die Kursrichtung des Zielobjekts zu dem vorherigen Erfassungszeitpunkt und diejenigen zu dem letzten Erfassungszeitpunkt unter Verwendung des konventionellen Zweiradmodells gewonnen werden, in Kooperation mit einem Geschwindigkeitssignal und einem Gierungswinkel, die von dem Zielobjekt (z. B. dem selbstfahrenden Fahrzeug) erhalten werden. Im Detail berechnet die Klassifizierungseinheit 13 die Verschiebung des Zielobjekts von dem vorherigen Erfassungszeitpunkt bis zu dem letzten Erfassungszeitpunkt auf Basis der Orte des Zielobjekts zu dem vorherigen Erfassungszeitpunkt und dem letzten Erfassungszeitpunkt, um eine zweite Translationskorrekturmatrix zu erhalten, die dem letzten Erfassungszeitpunkt entspricht. Die Klassifizierungseinheit 13 berechnet außerdem den Gierungswinkel des Zielobjekts von dem vorherigen Erfassungszeitpunkt bis zu dem letzten Erfassungszeitpunkt auf Basis der Kursrichtungen des Zielobjekts zu dem vorherigen Erfassungszeitpunkt und dem letzten Erfassungszeitpunkt, um eine zweite Rotationskorrekturmatrix zu erhalten, die dem letzten Erfassungszeitpunkt entspricht. Danach berechnet die Klassifizierungseinheit 13 den geschätzten vorherigen Ort auf Basis des letzten Orts, der zweiten Translationskorrekturmatrix und der zweiten Rotationskorrekturmatrix.
  • Bei Teilschritt 244 führt die Klassifizierungseinheit 13 eine Klassifizierung für jedes der Mehrzahl von verfolgten Objekten auf Basis des vorherigen Orts, der bei Teilschritt 241 für das verfolgte Objekt erhalten wird, und des geschätzten vorherigen Orts aus, der bei Teilschritt 243 für das verfolgte Objekt erhalten wird. Im Detail klassifiziert, für jedes der Mehrzahl von verfolgten Objekten, die Klassifizierungseinheit 13 das verfolgte Objekt als bewegtes Objekt, wenn eine Differenz zwischen dem vorherigen Ort und dem geschätzten vorherigen Ort des verfolgten Objekts größer als ein vorbestimmter Abstandsschwellenwert ist, und klassifiziert das verfolgte Objekt anderenfalls als statisches Objekt.
  • Unter erneuter Bezugnahme auf 1 und 2 stellt die Klassifizierungseinheit 13 bei Schritt 25 ein bei Schritt 24 erhaltenes Klassifizierungsergebnis der SLAM-Einheit 12 bereit. Das Klassifizierungsergebnis gibt diejenigen der Mehrzahl von verfolgten Objekten an, die als bewegtes Objekt klassifiziert sind. Bei einem Ausführungsbeispiel kann jedes der Mehrzahl von verfolgten Objekten, die in dem Klassifizierungsergebnis angegeben sind, durch die entsprechende zweite Punktwolkengruppe repräsentiert sein. Bei einem Ausführungsbeispiel kann jedes der Mehrzahl von verfolgten Objekten, die in dem Klassifizierungsergebnis angegeben sind, durch einen Koordinatensatz repräsentiert sein, der aus der entsprechenden zweiten Punktwolkengruppe gewonnen wird (z. B. zentrale Koordinaten der entsprechenden zweiten Punktwolkengruppe).
  • Bei Schritt 26 filtert die SLAM-Einheit 12 Informationen, die sich auf die Mehrzahl von verfolgten Objekten beziehen, die als bewegtes Objekt klassifiziert sind, aus der zweiten Erfassungsinformationseinheit aus, und die SLAM-Einheit 12 erhält eine gefilterte zweite Erfassungsinformationseinheit.
  • Bei Schritt 27 verwendet die SLAM-Einheit 12 einen konventionellen SLAM-Algorithmus, um das Zielobjekt auf Basis der gefilterten zweiten Erfassungsinformationseinheit zu positionieren. Da die gefilterte zweite Erfassungsinformationseinheit keine Informationen umfasst, die sich auf diejenigen der Mehrzahl von verfolgten Objekten beziehen, die als bewegtes Objekt klassifiziert sind, kann eine Fehleinschätzung, die beim Zuordnen von Merkmalen der Mehrzahl von verfolgten Objekten aufgrund der Unsicherheit des Orts der bewegten Objekte auftreten kann, vermieden werden und damit die Positionierungsgenauigkeit erhöht werden.
  • 5 zeigt beispielhaft ein Positionierungssystem 1' zur Implementierung eines zweiten Ausführungsbeispiels des SLAM-Verfahrens, das zum Positionieren des Zielobjekts (nicht gezeigt) angepasst ist, gemäß dieser Offenbarung. Das Positionierungssystem 1' unterscheidet sich von dem Positionierungssystem 1 (in 1 gezeigt) in den folgenden Aspekten. Das Positionierungssystem 1' umfasst ferner eine erste Sensoreinheit 11 (die Sensoreinheit 11 in 1 wird in 5 als erste Sensoreinheit 11 bezeichnet) und eine zweite Sensoreinheit 14, die mit der SLAM-Einheit 12 elektrisch gekoppelt ist und dazu konfiguriert ist, die Umgebung des Zielobjekts kontinuierlich zu erfassen. Die zweite Erfassungsinformationseinheit wird durch die zweite Sensoreinheit 14 gewonnen und bezieht sich auf Informationen der Umgebung und wird der SLAM-Einheit 12 zur Verfügung gestellt. Bei dem zweiten Ausführungsbeispiel wird die zweite Sensoreinheit 14 beispielhaft als 3D-Kameramodul dargestellt und dazu verwendet, Bilder der Umgebung des Zielobjekts aufzunehmen, und die aufgenommenen Bilder dienen als die zweite Erfassungsinformationseinheit. Die zweite Sensoreinheit 14 ist mit der ersten Sensoreinheit 11 synchronisiert, und deshalb gilt: wenn die erste Sensoreinheit 11 die erste Erfassungsinformationseinheit gewinnt, gewinnt die zweite Sensoreinheit 14 gleichzeitig die zweite Erfassu ngsinformationsei nheit.
  • Unter weiterer Bezugnahme auf 5 und 6 umfasst das zweite Ausführungsbeispiel die Schritte 30 bis 39. Die Schritte 30 bis 34 sind jeweils dieselben wie die Schritte 20 bis 24, die in 2 gezeigt sind, und die Schritte 37 bis 39 sind jeweils dieselben wie die Schritte 25 bis 27, die in 2 gezeigt sind. Das zweite Ausführungsbeispiel umfasst ferner die Schritte 35 und 36 für eine Datenumwandlung des Klassifizierungsergebnisses, da die zweite Erfassungsinformationseinheit sich von der ersten Erfassungsinformationseinheit unterscheidet.
  • Bei Schritt 35 gewinnt, für jedes der Mehrzahl von verfolgten Objekten, das als bewegtes Objekt klassifiziert ist, die Klassifizierungseinheit 13 einen ersten repräsentativen Koordinatensatz (z. B. zentrale Koordinaten der entsprechenden zweiten Punktwolkengruppe) auf Basis einer der zweiten Punktwolkengruppen, die dem verfolgten Objekt entspricht.
  • Bei Schritt 36 wandelt, für jedes derjenigen der Mehrzahl von verfolgten Objekten, die als bewegtes Objekt klassifiziert sind, die Klassifizierungseinheit 13 den ersten repräsentativen Koordinatensatz in einen zweiten repräsentativen Koordinatensatz um, der einem Pixelkoordinatensystem entspricht, auf Basis eines Parametersatzes für Koordinatenumwandlung. Der Parametersatz bezieht sich auf die Umwandlung von Koordinaten von einem Punktwolkenkoordinatensystem, das von der ersten Erfassungsinformationseinheit verwendet wird, in das Pixelkoordinatensystem. Das Pixelkoordinatensystem wird von der zweiten Erfassungsinformationseinheit verwendet. Bei einem Ausführungsbeispiel umfasst der Parametersatz für Koordinatenumwanhdlung eine extrinsische Parametermatrix und eine intrinsische Parametermatrix. Die extrinsische Parametermatrix kann wie folgt erhalten werden: [ X ' Y ' Z ' ] = R r o l l e n × R n i c k e n × R g i e r e n [ X Y Z ] + [ Δ X Δ Y Δ Z ]
    Figure DE102019220616A1_0001
    wobei [ X Y Z ]
    Figure DE102019220616A1_0002
    einen Ort der ersten Sensoreinheit 11 darstellt, [ X ' Y ' Z ' ]
    Figure DE102019220616A1_0003
    einen Ort der zweiten Sensoreinheit 14 darstellt, Rrollen × Rnicken × Rgieren eine dreidimensionale Rotationsmatrix darstellt und [ Δ X Δ Y Δ Z ]
    Figure DE102019220616A1_0004
    eine Translationsmatrix darstellt. Die dreidimensionale Rotationsmatrix und die Translationsmatrix bilden gemeinsam die extrinsische Parametermatrix. Die intrinsische Parametermatrix kann auf Basis einer Brennweite der zweiten Sensoreinheit 14 und zentralen Koordinaten der aufgenommenen Bilder erhalten werden, die durch die zweite Sensoreinheit 14 gewonnen werden. Das Gewinnen und Verwenden der extrinsischen Parametermatrix und der intrinsischen Parametermatrix sind Fachleuten mit gewöhnlichen Kenntnissen auf dem Gebiet gut bekannt, so dass Einzelheiten dazu der Kürze halber hier weggelassen werden.
  • Darüber hinaus umfasst das Klassifizierungsergebnis, das bei Schritt 37 an die SLAM-Einheit 12 gesendet wird, den zweiten repräsentativen Koordinatensatz bzw. die zweiten repräsentativen Koordinatensätze für das „bewegte“ verfolgte Objekt bzw. die „bewegten“ verfolgten Objekte. Bei Schritt 38 werden die Informationen, die sich auf das „bewegte“ verfolgte Objekt bzw. die „bewegten“ verfolgten Objekte beziehen, aus der zweiten Erfassungsinformationseinheit basierend auf dem zweiten repräsentativen Koordinatensatz bzw. den zweiten repräsentativen Koordinatensätzen herausgefiltert.
  • Zusammenfassend klassifizieren die Ausführungsbeispiele des SLAM-Verfahrens jedes der Mehrzahl von verfolgten Objekten als bewegtes Objekt oder ein statisches Objekt und führen eine Positionierung für das Zielobjekt durch, indem diejenigen der Mehrzahl von verfolgten Objekten aussortiert werden, die als bewegtes Objekt klassifiziert sind. Das heißt, das SLAM-Verfahren kann eine durch bewegte Objekte bedingte Unsicherheit beseitigen, die zu einer Nichtübereinstimmung der Mehrzahl von verfolgten Objekten zu unterschiedlichen Erfassungszeitpunkten führen kann, und die Positionierungsgenauigkeit wird dadurch gefördert
  • In der obigen Beschreibung wurden zur Erläuterung zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis des Ausführungsbeispiels bzw. der Ausführungsbeispiele zu ermöglichen. Für einen Fachmann auf dem Gebiet wird es jedoch offensichtlich sein, dass ein oder mehrere andere Ausführungsbeispiele ohne einige dieser spezifischen Details praktiziert werden können. Es sei außerdem darauf hingewiesen, dass die Bezugnahme in dieser Spezifikation auf „ein Ausführungsbeispiel“, ein Ausführungsbeispiel mit Angabe einer Ordnungszahl usw. bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Charakteristik in die Praxis der Offenbarung einbezogen sein kann. Es ist ferner zu beachten, dass in der Beschreibung verschiedene Merkmale manchmal zu einem einzigen Ausführungsbeispiel, einer Figur oder Beschreibung derselben zusammengefasst werden, um die Offenbarung zu verschlanken und das Verständnis verschiedener erfindungsgemäßer Aspekte zu erleichtern, und dass ein oder mehrere Merkmale oder spezifische Details eines Ausführungsbeispiels zusammen mit einem oder mehreren Merkmalen oder spezifischen Details aus einem anderen Ausführungsbeispiel, wo es angemessen erscheint, in der Praxis der Offenbarung praktiziert werden können.

Claims (7)

  1. Ein Verfahren zur simultanen Lokalisierung und Abbildung, SLAM, wobei das Verfahren zum Positionieren eines Zielobjekts angepasst ist, durch ein Positionierungssystem (1) implementiert werden soll und gekennzeichnet ist durch: A) kontinuierliches Erfassen (20, 30) einer Umgebung des Zielobjekts, Gewinnen einer ersten Erfassungsinformationseinheit, die Informationen der Umgebung umfasst, die sich auf einen letzten Erfassungszeitpunkt und einen vorherigen Erfassungszeitpunkt beziehen, und Gewinnen einer zweiten Erfassungsinformationseinheit, die sich auf Informationen der Umgebung bezieht, wobei der vorherige Erfassungszeitpunkt um ein vorbestimmtes Intervall vor dem letzten Erfassungszeitpunkt liegt und das Positionierungssystem (1) an dem Zielobjekt befestigt ist; B) Aussortieren (22, 32) einer Mehrzahl von Umgebungsobjekten, die dem letzten Erfassungszeitpunkt in der Umgebung entsprechen, auf Basis der ersten Erfassungsinformationseinheit; C) Aussieben (23, 33) einer Mehrzahl von verfolgten Objekten, die dem letzten Erfassungszeitpunkt entsprechen, aus der Mehrzahl von Umgebungsobjekten; D) für jedes der Mehrzahl von verfolgten Objekten, Klassifizieren (24, 34) des verfolgten Objekts als eines eines bewegten Objekts und eines statischen Objekts auf Basis der ersten Erfassungsinformationseinheit, die Informationen des verfolgten Objekts zu dem letzten Erfassungszeitpunkt und Informationen des verfolgten Objekts zu dem vorherigen Erfassungszeitpunkt angibt; E) Herausfiltern (26, 38) von Informationen, die sich auf diejenigen der Mehrzahl von verfolgten Objekten beziehen, die als bewegtes Objekt klassifiziert sind, aus der zweiten Erfassungsinformationseinheit und Erhalten einer gefilterten zweiten Erfassungsinformationseinheit; und F) Positionieren (27, 39) des Zielobjekts auf Basis eines SLAM-Algorithmus und der gefilterten zweiten Erfassungsinformationseinheit.
  2. Das SLAM-Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das Positionierungssystem (1) ein Lidar-Modul umfasst, das zum kontinuierlichen Erfassen der Umgebung des Zielobjekts und zum Gewinnen der ersten Erfassungsinformationseinheit verwendet wird, wobei die erste Erfassungsinformationseinheit letzte Punktwolkendaten der Umgebung, die sich auf den letzte Erfassungszeitpunkt beziehen, und vorherige Punktwolkendaten der Umgebung umfasst, die sich auf den vorherigen Erfassungszeitpunkt beziehen, wobei sowohl die letzten als auch die vorherigen Punktwolkendaten aus einer Mehrzahl von Datenpunkten bestehen; und wobei Schritt B) Folgendes umfasst: Gruppieren der Mehrzahl von Datenpunkten in den vorherigen Punktwolkendaten zu einer Mehrzahl von ersten Punktwolkengruppen beziehungsweise Markieren der Mehrzahl von ersten Punktwolkengruppen als eine Mehrzahl von ersten Umgebungsobjekten; und Gruppieren der Mehrzahl von Datenpunkten in den letzten Punktwolkendaten zu einer Mehrzahl von zweiten Punktwolkengruppen beziehungsweise Markieren der zweiten Punktwolkengruppen als eine Mehrzahl von zweiten Umgebungsobjekten.
  3. Das SLAM-Verfahren gemäß Anspruch 2, dadurch gekennzeichnet, dass bei Schritt E) die zweite Erfassungsinformationseinheit mit den letzten Punktwolkendaten identisch ist und Schritt E) ein Herausfiltern derjenigen der zweiten Punktwolkengruppen, die als bewegtes Objekt klassifiziert sind, aus der zweiten Erfassungsinformationseinheit umfasst.
  4. Das SLAM-Verfahren gemäß Anspruch 2 oder 3, dadurch gekennzeichnet, dass Schritt D) Folgendes umfasst: D-1) für jedes der Mehrzahl von verfolgten Objekten, Gewinnen (241) eines vorherigen Orts, der sich auf den vorherigen Erfassungszeitpunkt bezieht, auf Basis von einer der ersten Punktwolkengruppen, die dem verfolgten Objekt entspricht; D-2) für jedes der Mehrzahl von verfolgten Objekten, Gewinnen (242) eines letzten Orts, der sich auf den letzten Erfassungszeitpunkt bezieht, auf Basis von einer der zweiten Punktwolkengruppen, die dem verfolgten Objekt entspricht; D-3) für jedes der Mehrzahl von verfolgten Objekten, Erhalten (243) eines geschätzten vorherigen Orts, der sich auf den vorherigen Erfassungszeitpunkt bezieht, durch eine Schätzung auf Basis eines Orts und einer Kursrichtung des Zielobjekts, die dem letzten Erfassungszeitpunkt entsprechen, eines Orts und einer Kursrichtung des Zielobjekts, die dem vorherigen Erfassungszeitpunkt entsprechen, und des letzten Orts des verfolgten Objekts, der bei Teilschritt D-2) erhalten wird; und D-4) für jedes der Mehrzahl von verfolgten Objekten, Klassifizieren (244) des verfolgten Objekts als bewegtes Objekt, wenn eine Differenz zwischen dem vorherigen Ort und dem geschätzten vorherigen Ort des verfolgten Objekts größer als eine vorbestimmte Abstandsschwelle ist, und Klassifizieren des verfolgten Objekts als statisches Objekt, wenn anderes gilt.
  5. Das SLAM-Verfahren gemäß einem der Ansprüche 2, 3 und 4, dadurch gekennzeichnet, dass sowohl die vorherigen Punktwolkendaten als auch die letzten Punktwolkendaten eine Mehrzahl von Punktwolkendateneinheiten umfassen, die zu unterschiedlichen Zeitpunkten gewonnen werden, wobei das SLAM-Verfahren vor Schritt B) ferner Folgendes aufweist: G) für jede der vorherigen Punktwolkendaten und der letzten Punktwolkendaten, außer einer ersten der Mehrzahl von Punktwolkendateneinheiten, die zu dem entsprechenden des letzten Erfassungszeitpunkts und des vorherigen Erfassungszeitpunkts gewonnen wird, Korrigieren (21, 31) jeder der Mehrzahl von Punktwolkendateneinheiten auf Basis eines Orts und einer Kursrichtung des Zielobjekts zu dem entsprechenden einen der unterschiedlichen Zeitpunkte, um als Ergebnis eine entsprechende der korrigierten vorherigen Punktwolkendaten und der korrigierten letzten Punktwolkendaten zu gewinnen; wobei die korrigierten vorherigen Punktwolkendaten als die vorherigen Punktwolkendaten bei Schritt B) dienen und die erste der Mehrzahl von Punktwolkendateneinheiten der vorherigen Punktwolkendaten und diejenigen der Mehrzahl von Punktwolkendateneinheiten der vorherigen Punktwolkendaten umfassen, die bei Schritt G) korrigiert wurden; wobei die korrigierten letzten Punktwolkendaten als die letzten Punktwolkendaten bei Schritt B) dienen und die erste der Mehrzahl von Punktwolkendateneinheiten der letzten Punktwolkendaten und diejenigen der Mehrzahl von Punktwolkendateneinheiten der letzten Punktwolkendaten umfassen, die bei Schritt G) korrigiert wurden.
  6. Das SLAM-Verfahren gemäß einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass das Positionierungssystem (1) ferner ein Kameramodul umfasst, das verwendet wird, um Bilder der Umgebung des Zielobjekts aufzunehmen und die zweite Erfassungsinformationseinheit zu gewinnen, wobei das SLAM-Verfahren vor Schritt E) ferner Folgendes aufweist: H) für jedes von denjenigen der Mehrzahl von verfolgten Objekten, die als bewegtes Objekt klassifiziert sind, Gewinnen (35) eines ersten repräsentativen Koordinatensatzes auf Basis von einer der zweiten Punktwolkengruppen, die dem verfolgten Objekt entspricht; und I) für jedes von denjenigen der Mehrzahl von verfolgten Objekten, die als bewegtes Objekt klassifiziert sind, Umwandeln (36) des ersten repräsentativen Koordinatensatzes in einen zweiten repräsentativen Koordinatensatz, der einem Pixelkoordinatensystem entspricht, auf Basis eines Parametersatzes für Koordinatenumwandlung, wobei der Parametersatz sich auf die Umwandlung von Koordinaten von einem Punktwolkenkoordinatensystem, das seitens der ersten Erfassungsinformationseinheit verwendet wird, in das Pixelkoordinatensystem bezieht, das seitens der zweiten Erfassungsinformationseinheit verwendet wird; und wobei bei Schritt (E) die Informationen, die sich auf diejenigen der Mehrzahl von verfolgten Objekten beziehen, die als bewegtes Objekt klassifiziert sind, aus der zweiten Erfassungsinformationseinheit auf Basis des zweiten repräsentativen Koordinatensatzes herausgefiltert werden, der für jedes von denjenigen der Mehrzahl von verfolgten Objekten gewonnen wird, die als bewegtes Objekt klassifiziert sind.
  7. Das SLAM-Verfahren gemäß einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass bei Schritt C) die Mehrzahl von verfolgten Objekten diejenigen der Mehrzahl von Umgebungsobjekten sind, die eine Größe aufweisen, die in einen vorgegebenen Größenbereich fällt.
DE102019220616.6A 2019-12-30 2019-12-30 Verfahren zur simultanen lokalisierung und abbildung Active DE102019220616B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019220616.6A DE102019220616B4 (de) 2019-12-30 2019-12-30 Verfahren zur simultanen lokalisierung und abbildung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019220616.6A DE102019220616B4 (de) 2019-12-30 2019-12-30 Verfahren zur simultanen lokalisierung und abbildung

Publications (2)

Publication Number Publication Date
DE102019220616A1 true DE102019220616A1 (de) 2021-07-01
DE102019220616B4 DE102019220616B4 (de) 2022-03-24

Family

ID=76310387

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019220616.6A Active DE102019220616B4 (de) 2019-12-30 2019-12-30 Verfahren zur simultanen lokalisierung und abbildung

Country Status (1)

Country Link
DE (1) DE102019220616B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022206041A1 (de) 2022-06-15 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen von Objekten in einer Umgebung für SLAM

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
US20170254651A1 (en) * 2014-09-17 2017-09-07 Valeo Schalter Und Sensoren Gmbh Localization and mapping method and system
DE102018208182A1 (de) * 2018-05-24 2019-11-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausführen wenigstens einer sicherheitssteigernden Maßnahme für ein Fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170254651A1 (en) * 2014-09-17 2017-09-07 Valeo Schalter Und Sensoren Gmbh Localization and mapping method and system
DE102014223363A1 (de) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102018208182A1 (de) * 2018-05-24 2019-11-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ausführen wenigstens einer sicherheitssteigernden Maßnahme für ein Fahrzeug

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022206041A1 (de) 2022-06-15 2023-12-21 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bestimmen von Objekten in einer Umgebung für SLAM

Also Published As

Publication number Publication date
DE102019220616B4 (de) 2022-03-24

Similar Documents

Publication Publication Date Title
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE69635980T2 (de) Verfahren und vorrichtung zur detektierung von objektbewegung in einer bilderfolge
DE112018000605T5 (de) Informationsverarbeitungsvorrichtung, Datenverwaltungsvorrichtung, Datenverwaltungssystem, Verfahren und Programm
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE102016013274A1 (de) Bildverarbeitungsvorrichtung und verfahren zur erkennung eines bilds eines zu erkennenden objekts aus eingabedaten
DE102018108027A1 (de) Objekterfassungsvorrichtung
DE102016003294A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE102009005861A1 (de) Fahrzeugumgebungs-Erkennungssystem
DE112016000356T5 (de) Selbstrektifizierung von Stereokameras
DE102009057885A1 (de) Abbildungsvorrichtung
DE112019001542T5 (de) Positionsschätzvorrichtung
DE102007054950A1 (de) Verfahren zur Stützung der selbsttätigen Navigation eines niedrig fliegenden Flugkörpers
DE102012223047B4 (de) Mehrteil-Korrespondierer (corresponder) für mehrere Kameras
DE112014006493T5 (de) Bestimmen eines Massstabs dreidimensonaler Informationen
AT515595A2 (de) Verfahren zur optischen Erkennung von Zeichen
DE102017010683B4 (de) Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
DE102019220616A1 (de) Verfahren zur simultanen lokalisierung und abbildung
EP3614299A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
DE102013209109A1 (de) Vorrichtung und Verfahren zum Parametrisieren einer Pflanze
DE102011056948A1 (de) Verfahren zur Kalibrierung einer Kamera zu einem Lagesensor
DE102017217063A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren zum Erzeugen eines 3D-Modells mit Referenzdaten
DE112021002598T5 (de) Bildverarbeitungsvorrichtung
DE102020201379A1 (de) Konturerkennungsvorrichtung, konturerkennungssystem und konturerkennungsverfahren
DE102009000810A1 (de) Vorrichtung zur Segmentierung eines Objektes in einem Bild, Videoüberwachungssystem, Verfahren und Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final