DE102015010514A1 - Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung - Google Patents

Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung Download PDF

Info

Publication number
DE102015010514A1
DE102015010514A1 DE102015010514.0A DE102015010514A DE102015010514A1 DE 102015010514 A1 DE102015010514 A1 DE 102015010514A1 DE 102015010514 A DE102015010514 A DE 102015010514A DE 102015010514 A1 DE102015010514 A1 DE 102015010514A1
Authority
DE
Germany
Prior art keywords
measuring
determined
data record
map
navigation environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102015010514.0A
Other languages
English (en)
Other versions
DE102015010514B4 (de
Inventor
Florian Schuller
Robert Kersten
Harald Altinger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102015010514.0A priority Critical patent/DE102015010514B4/de
Publication of DE102015010514A1 publication Critical patent/DE102015010514A1/de
Application granted granted Critical
Publication of DE102015010514B4 publication Critical patent/DE102015010514B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz (11) einer Navigationsumgebung, wobei wenigstens ein Teil der Navigationsumgebung durch Aufnahme eines 3D-Messdatensatzes (1) mit wenigstens einer dreidimensionalen Messeinrichtung vermessen wird, wobei wenigstens eine ein detektiertes Objekt über die Messdaten hinaus beschreibende Karteninformation durch automatische Auswertung eines, insbesondere durch einen Projektionsvorgang, aus dem 3D-Messdatensatz (1) ermittelten 2D-Datensatzes ermittelt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung, insbesondere einer Parkumgebung für Kraftfahrzeuge, wobei wenigstens ein Teil der Navigationsumgebung durch Aufnahme eines 3D-Messdatensatzes mit wenigstens einer dreidimensionalen Messeinrichtung vermessen wird. Daneben betrifft die Erfindung eine Recheneinrichtung.
  • Im Hinblick auf die Navigation von Kraftfahrzeugen in Parkumgebungen, beispielsweise Parkhäusern oder Parkplätzen mit einer Vielzahl von Abstellplätzen, wurden bereits eine Vielzahl von Navigationsansätzen vorgeschlagen, die die Orientierung, das Verkehrsaufkommen und die Sicherheit in derartigen Navigationsumgebungen verbessern sollen. Eine beispielhafte Möglichkeit schlägt vor, einem Kraftfahrzeug dann, wenn es in die Navigationsumgebung einfährt, einen Kartendatensatz der Navigationsumgebung, insbesondere Parkumgebung, zu übermitteln, der von kraftfahrzeuginternen Navigationssystemen für eine Vielzahl von Funktionen genutzt werden kann. Beispielsweise kann dem Kraftfahrzeug auch ein Zielparkplatz zugewiesen werden, so dass das Navigationssystem den Fahrer zu diesem Zielparkplatz führen kann. Über die reine Designierung von befahrbaren Bereichen hinaus enthalten derartige Kartendatensätze von Navigationsumgebungen auch Zusatzinformationen, die für eine Erweiterung von Navigationsfunktionen und sonstigen Funktionen, die beispielsweise in einer Recheneinrichtung der Navigationsumgebung ausgeführt werden können, eingesetzt werden. Beispielsweise kann einem in den Kartendaten des Kartendatensatzes beschriebenen Merkmal bzw. Objekt als Karteninformation eine Zusatzinformation zugeordnet werden, die dessen Zweck und/oder Bedeutung beschreibt; ferner können Objekte auch klassifiziert werden, beispielsweise im Fall von Merkmalen, insbesondere Markern, die zur Positionsbestimmung innerhalb der Navigationsumgebung genutzt werden sollen. Weitere, derartige, nützliche Informationen betreffen beispielsweise den Ort von Notausgängen, zu denen ein Fahrer im Notfall geführt werden kann, oder aber auch allgemein von Ausgängen/Kartenautomaten, zu denen beispielsweise die Navigation außerhalb des Kraftfahrzeugs, beispielsweise über ein Mobiltelefon, fortgesetzt werden kann. Schließlich seien noch beispielsweise auf Parkplätze oder zugeordnete Wände aufgebrachte Abstellplatzinformationen genannt, die ebenso für Navigations- und Überprüfungsfunktionen nutzbringend eingesetzt werden können.
  • Es sei angemerkt, dass selbstverständlich Kartendatensätze auch außerhalb von Kraftfahrzeugen oder sonstigen innerhalb der Navigationsumgebung zu navigierenden mobilen Einheiten eingesetzt werden können, beispielsweise zur Überwachung der Navigationsumgebung mittels navigationsumgebungsseitiger Sensoren und zur korrekten Zuordnung neu auftauchender Objekte, seien es mobile Einheiten, die innerhalb der Navigationsumgebung bewegt werden, oder nur temporär vorhandene Hindernisse.
  • Um eine sichere und robuste Navigation zu gewährleisten, sollen diese Kartendatensätze möglichst genau sein, während es auf der anderen Seite gewünscht ist, auch eine möglichst einfache und robuste Erstellung von Kartendatensätzen zu erlauben.
  • Eine bekannte Möglichkeit zur Erstellung von Kartendatensätzen von Navigationsumgebungen für mobile Einheiten, insbesondere Kraftfahrzeuge, ist es, Gebäude- bzw. Geländekarten aus Bauplänen abzuleiten und die genannten Semantikinformationen, die insbesondere den Zweck und/oder die Bedeutung von Objekten (Merkmalen) betreffen, manuell einzuzeichnen, beispielsweise die Markierung von Objekten als Wände, Türen, Ausgänge, Schilder oder Parkmarkierungen. Bekannt ist es zudem, die Navigationsumgebung unter Verwendung einer dreidimensionalen Messeinrichtung zu vermessen, beispielsweise unter Verwendung eines Laserscanners, so dass eine dreidimensionale Punktewolke entsteht, die beschreibt, wo in der Navigationsumgebung sich Objekte befinden, ohne diese zu identifizieren. Mithin ist es für eine solche Punktewolke, allgemein gesagt einen 3D-Messdatensatz, bekannt, zusätzliche, Objekte beschreibende Karteninformationen manuell in den 3D-Messdaten zu erkennen und im Kartendatensatz einzutragen.
  • Ersichtlich entsteht bei den bekannten Varianten ein hoher manueller Aufwand, der auch potentielle Ungenauigkeiten mit sich bringt, insbesondere bei der Ableitung von Kartendaten aus Bauplänen. Dieser hohe manuelle Aufwand zur Kartenerstellung, -pflege und -aktualisierung würde zudem die Einführung der beschriebenen Navigationsmöglichkeiten in Navigationsumgebungen aufgrund hoher Kosten erschweren.
  • Der Erfindung liegt daher die Aufgabe zugrunde, eine Möglichkeit zur robusten, automatisierten und aufwandsreduzierten Ermittlung von Karteninformationen für einen Kartendatensatz anzugeben.
  • Zur Lösung dieser Aufgabe ist bei einem Verfahren der eingangs genannten Art erfindungsgemäß vorgesehen, dass wenigstens eine ein detektiertes Objekt über die Messdaten hinaus beschreibende Karteninformation durch automatische Auswertung eines, insbesondere durch einen Projektionsvorgang, aus dem 3D-Messdatensatz ermittelten 2D-Datensatzes ermittelt wird.
  • Die vorliegende Erfindung schlägt mithin eine Möglichkeit vor, die eine automatisierte Interpretation eines 3D-Messdatensatzes, insbesondere einer 3D-Punktewolke, zur Kartierung von Merkmalen (Objekten) erlaubt, indem ein 2D-Datensatz aus dem 3D-Messdatensatz abgeleitet wird, auf dem die Auswertung erfolgen kann. 2D-Datensätze sind aufgrund ihrer reduzierten Dimensionalität mit geringerem Rechenaufwand auswertbar, wobei insbesondere die Komplexität reduziert wird und eingesetzte Auswertealgorithmen verbesserte Ergebnisse liefern. Dabei ist es im Rahmen der vorliegenden Erfindung allgemein bereits besonders bevorzugt, wenn zur Auswertung des 2D-Datensatzes Bildverarbeitungsalgorithmen eingesetzt werden, wie sie im Stand der Technik grundsätzlich bekannt sind. Dabei sei darauf hingewiesen, dass eine Ausgestaltung der vorliegenden Erfindung auch vorsieht, auf der Basis eines 2D-Datensatzes den Verlauf von Wänden und als Hindernisse zu betrachtenden vertikalen Strukturen innerhalb der Navigationsumgebung zu ermitteln, mithin die Grundlage für einen Teil der Kartendaten zu schaffen, die Hindernisse und befahrbare Bereiche klassifizieren. Insgesamt erlaubt die vorliegende Erfindung also eine automatische Erstellung von Kartendatensätzen für Navigationsumgebungen, ohne dass ein großer, manueller Aufwand erforderlich ist, wobei jedoch aufgrund der Verwendung dreidimensionaler Messdaten eine hohe Genauigkeit vorliegt, die ein exaktes Navigieren innerhalb der Navigationsumgebung genauso erlaubt wie eine hochgenaue dynamische Aktualisierung des Kartendatensatzes zu späteren Zeitpunkten. Automatisiert können Karteninformationen hinzugefügt werden, insbesondere unter Verwendung gängiger Bildverarbeitungsalgorithmen, wobei bevorzugt semantische Karteninformationen (Semantikinformationen), die sich auf den Zweck und/oder die Bedeutung des entsprechenden Objekts beziehen, ermittelt werden.
  • Insbesondere bei größeren Navigationsumgebungen, beispielsweise Parkumgebungen wie Parkhäusern, ist es zweckmäßig, wenn der 3D-Messdatensatz aus in verschiedenen Aufnahmevorgängen aus verschiedenen Messpositionen aufgenommenen, registrierten Teilmessdatensätzen ermittelt wird. Mithin können einzelne Aufnahmevorgänge, beispielsweise einzelne Scans, durch Registrierung zu einem konsistenten Gesamt-3D-Messdatensatz zusammengeführt werden. Diesbezügliche Vorgehensweisen sind im Stand der Technik grundsätzlich bekannt. Insbesondere werden eine Positionsnachverfolgung der die Umgebung dreidimensional abtastenden Messeinrichtung und/oder ein Matchingverfahren eingesetzt bzw. kombiniert.
  • Zweckmäßigerweise kann die Aufnahme der Messdaten während eines Transports der Messeinrichtung durch die Navigationsumgebung mittels eines Messfahrzeugs erfolgen. Insbesondere im Fall von Parkumgebungen ist es dabei selbstverständlich zweckmäßig, dass die Navigationsumgebung von Kraftfahrzeugen und/oder sonstigen Hindernissen, die bewegbar sind, befreit ist, um einen geeigneten Grundlagen-Kartendatensatz ermitteln zu können. Ferner ist es in diesem Zusammenhang zweckmäßig, wenn die Teilmessdatensätze die gesamte Navigationsumgebung abdecken, da es dann möglich ist, insbesondere vollständig automatisiert einen Kartendatensatz der gesamten Navigationsumgebung zu ermitteln.
  • Als Messeinrichtung wird bevorzugt ein Laserscanner, insbesondere ein Intensitäts-Laserscanner, verwendet. Dabei ist es besonders bevorzugt, einen Laserscanner zu verwenden, der auch Werte für die Intensität des reflektierten Lichts aufnimmt, mithin eine Punktewolke mit zugeordneten Intensitäten als 3D-Messdatensatz liefert. Die Punktewolke gibt letztlich an, wo im dreidimensionalen Raum eine Reflektion festgestellt wurde und mit welcher Intensität das Laserlicht dort reflektiert wurde. Es sei darauf hingewiesen, dass es selbstverständlich grundsätzlich denkbar ist, auch weitere, zweidimensionale Sensoren, beispielsweise Kameras, zusätzlich zu verwenden, die mit der dreidimensionalen Messeinrichtung, insbesondere dem Laserscanner, registriert sind, wobei das vorliegende Verfahren jedoch die Möglichkeit bietet, allein auf Basis eines mit einem die Umgebung dreidimensional abtastenden Sensor aufgenommenen 3D-Messdatensatzes bereits eine Vielzahl nützlicher Karteninformationen zu extrahieren, insbesondere die bereits erwähnten Semantikinformationen.
  • Mit besonderem Vorteil ist jedem Datenelement des 2D-Datensatzes eine die dreidimensionale Position der zu ihm beitragenden Messdaten beschreibende Zusatzinformation zugeordnet. Die Tatsache, dass der 2D-Datensatz aus dem 3D-Messdatensatz abgeleitet worden ist, bietet den großen Vorteil, dass zu den 2D-Daten immer auch bekannt ist, aus welchen dreidimensionalen Messdaten sie herrühren, so dass mithin eine dreidimensionale Positionszuordnung ermöglicht werden kann. Mit anderen Worten kann aus im 2D-Datensatz ermittelten zweidimensionalen Positionen eine dreidimensionale Position errechnet werden, da jedem Pixel des 2D-Datensatzes eine dreidimensionale Position aus dem originalen 3D-Messdatensatz zugeordnet ist. Dies ermöglicht es, worauf im Folgenden noch näher eingegangen wird, beispielsweise, die räumliche Position eines Markers, beispielsweise eines zweidimensionalen Strichcodes, automatisiert zu extrahieren und als Semantikinformation in einem Kartendatensatz einzutragen.
  • Eine besonders vorteilhafte Ausgestaltung der vorliegenden Erfindung sieht vor, dass als 2D-Datensatz wenigstens ein ein detektiertes Objekt zeigendes Bild verwendet wird. Aus dem 3D-Messdatensatz kann also ein zweidimensionales Bild als 2D-Datensatz abgeleitet werden, welches Merkmale der Umgebung als Objekte in einer Art zeigt, dass hieraus unter Einsatz geeigneter Auswertungsalgorithmen die Karteninformationen, insbesondere Semantikinformationen, extrahiert werden können. Dabei sind verschiedene Arten von zweidimensionalen Bildern als 2D-Datensatz denkbar, wobei zweckmäßigerweise ein Panoramabild, insbesondere um eine Messposition der Messeinrichtung, ermittelt werden kann. Somit ist ausgehend von Messpositionen, die idealerweise ohnehin die gesamte Navigationsumgebung in ihrer Gesamtheit abdecken, eine 360°-Übersicht gegeben, die alle relevanten Merkmale bzw. Objekte enthalten sollte. Eine andere zweckmäßige Variante eines Bildes ist eine Aufsicht auf einen Anteil der Navigationsumgebung, beispielsweise eines Stockwerks eines Parkhauses, aus der Vogelperspektive.
  • Auf derartige Bilder als 2D-Datensätze können mit besonderem Vorteil Bildverarbeitungsalgorithmen zur Erkennung von Objekten und/oder zur Ermittlung der Karteninformationen angewendet werden, das bedeutet, es wird ausgenutzt, dass für derartige zweidimensionale Bilder eine Vielzahl von Bildverarbeitungsalgorithmen bereits entwickelt wurde und somit zur Verfügung steht, die sich in diesem Kontext sehr viel robuster und aufwandsärmer einsetzen lässt, als dies beispielsweise bei einer Übertragung auf den 3D-Messdatensatz selbst möglich wäre. Als Bildverarbeitungsalgorithmen können beispielsweise ein Schrifterkennungsalgorithmus und/oder ein Strichcode-Erkennungsalgorithmus und/oder ein Objektklassifizierungsalgorithmus verwendet werden, wobei selbstverständlich auch andere Bildverarbeitungsalgorithmen eingesetzt werden können. Jedes dreidimensionale Bild, das als 2D-Datensatz aus dem 3D-Messdatensatz abgeleitet wird, kann mithin als Eingangsdaten für 2D-Bildverarbeitungsalgorithmen dienen, beispielsweise OCR-Algorithmen zur Schrifterkennung, wobei auch spezielle Bildverarbeitungsalgorithmen zur Erkennung von Strichcodes, beispielsweise 2D-Strichcodes, bekannt sind. Denkbar ist ferner eine Erkennung von genormten Symbolen, beispielsweise von Notausgangsschildern, und dergleichen. Objekte können klassifiziert werden, beispielsweise als Türen, Parkmarkierungen und dergleichen, wobei in diesem Kontext auch sogenannte Shape-Matching-Algorithmen zweckmäßig eingesetzt werden können.
  • Dabei wird besonders zweckmäßig als Karteninformation eine den Zweck und/oder die Bedeutung des Objekts beschreibende Semantikinformation aus den Ergebnissen des Bildverarbeitungsalgorithmus bestimmt. Beispielsweise können Notausgänge, Notausgangsschilder, Orientierungsschilder, Fahrbahnmarkierungen, Parkplatzmarkierungen, Marker und dergleichen in den 2D-Bilddatensätzen identifiziert werden und entsprechend in den Kartendatensatz eingetragen werden. Zu Markern ist dabei selbstverständlich auch die Position, wie bereits dargelegt, bestimmbar, so dass auch der entsprechende Bedeutungsinhalt des Markers, insbesondere eines Strichcodes, der später von einer mobilen Einheit, beispielsweise einem Kraftfahrzeug, detektiert werden kann, in dem Kartendatensatz als Semantikinformation eingespeichert werden kann. Auch die Inhalte von Hinweisschildern und dergleichen können selbstverständlich im Kartendatensatz hinterlegt werden.
  • Ein weiteres besonders vorteilhaftes Ausführungsbeispiel der vorliegenden Erfindung sieht vor, dass als 2D-Datensatz ein Histogrammdatensatz verwendet wird, in dem auf eine gerasterte, einen befahrenen Boden innerhalb der Navigationsumgebung beschreibende Bodenfläche alle insbesondere durch Reflektion definierten Messpunkte zumindest eines der Bodenflächen zugeordneten Teils des 3D-Messdatensatzes projiziert und für jedes Rasterelement gezählt werden. In einer derartigen Ausgestaltung wird bei räumlich getrennte bzw. unterteilbare, befahrbare Böden enthaltenden Navigationsumgebungen, beispielsweise Parkhäusern mit mehreren Stockwerken, zweckmäßigerweise jeder dieser befahrbaren Böden einzeln betrachtet, wobei auch bei größere, zusammenhängende, befahrbare Böden aufweisenden Navigationsumgebungen, beispielsweise größeren Parkplätzen, selbstverständlich eine Unterteilung zur besseren Berechenbarkeit vorgenommen werden kann. Für ein Parkhaus kann also beispielsweise jedes Stockwerk isoliert betrachtet werden. Wird als dreidimensionale Messeinrichtung beispielsweise ein Laserscanner verwendet, kann der 3D-Messdatensatz, wie bereits beschrieben wurde, als eine Punktewolke verstanden werden, so dass nun vorgesehen ist, alle Punkte auf ein zweidimensionales Raster in der Bodenebene zu projizieren. Es wird ausgewertet, wie viele Punkte in jede Zelle des Rasters, also jedes Rasterelement, fallen, so dass der Histogrammdatensatz entsteht. Ein solcher Histogrammdatensatz erlaubt es nun auf besonders einfache Weise, relevante vertikale Strukturen, mithin bauliche Hindernisse, die nicht überfahren werden können, zu erkennen und sogar eine Klassifizierung vorzunehmen.
  • So kann konkret vorgesehen sein, dass zur Ermittlung einer Objekte als bauliche Hindernisse, insbesondere Wände, beschreibenden Karteninformation Histogrammdaten von einem zu beurteilenden Objekt zugeordneten Rasterelementen mit einem Schwellwert verglichen werden und/oder bauliche Hindernisse beschreibende Objekte anhand einer den Schwellwert für benachbarte Rasterelemente überschreitenden Randbegrenzung ermittelt werden. Wird also für ein Rasterelement festgestellt, dass eine Vielzahl von Messpunkten darin liegt, ist eine relevante vertikale Struktur an dieser Stelle anzunehmen. Zusammenhängende Begrenzungen zeigen zusammenhängende Objekte an; insbesondere existieren bei Wänden, die die gesamte Höhe überdecken, keinerlei Messpunkte hinter einer solchen Begrenzung, so dass auch eine Analyse diesbezüglich vorgenommen werden kann. Es sei angemerkt, dass insbesondere dann, wenn die Messdaten von bestimmten, getrennt liegenden Messpositionen aufgenommen werden, aufgrund von Betrachtungswinkeln auch Kanten besonders leicht an charakteristischen Verläufen der Messpunktanzahlen erkannt werden können. Auf die beschriebene Art und Weise ist es beispielsweise möglich, eine gerasterte Belegungskarte aus dem Histogrammdatensatz zu erhalten.
  • Daher sieht eine zweckmäßige Weiterbildung der Erfindung vor, dass aus den Karteninformationen zu baulichen Hindernissen eine auf die Bodenfläche bezogene zweidimensionale Karte befahrbarer Bereiche ermittelt wird, woraus durch Vektorisierung und Extrusion eine dreidimensionale Repräsentation des der Bodenfläche zugeordneten Teils der Navigationsumgebung ermittelt wird. Durch Auswertung des Histogrammdatensatzes kann mithin eine Art 2D-Grundriss ermittelt werden, der vektorisiert und anschließend extrudiert werden kann. Dies hat den besonderen Vorteil, dass danach die Lage von Wandflächen bekannt ist, welche insbesondere genutzt werden kann, um als weitere 2D-Datensätze Bilder zu erzeugen, aus denen erkannt werden kann, was auf bzw. an einer derartigen Wand zu sehen ist, so dass mithin Ansichten abgeleitet werden können, die sich besonders für die Nutzung von Bildverarbeitungsalgorithmen eignen.
  • Nichtsdestotrotz sei an dieser Stelle nochmals angemerkt, dass eine solche dreidimensionale Repräsentation nicht zwangsläufig ermittelt werden muss, unabhängig davon jedoch eine vorgenommene Klassifizierung in bauliche Hindernisse und befahrbare Bereiche als Grundlage des Kartendatensatzes für die entsprechende Bodenfläche hergenommen werden kann.
  • Auf besonders vorteilhafte Art und Weise kann jedoch auch beim Histogrammdatensatz vorgesehen sein, auf diesen als Bildverarbeitungsalgorithmus einen Shape-Matching-Algorithmus anzuwenden, um Objekte zu klassifizieren. Ein besonders illustratives Beispiel in diesem Fall ist die Detektion von Türen, da diese meist durch eine deutlich erkennbare Einbuchtung in einer Wand charakterisiert sind, die sich mit einem Shape-Matching-Algorithmus in zwei Dimensionen bei einer Projektion auf die Bodenfläche gut erkennen lässt. Jedoch können auch andere bauliche Hindernisse erkannt werden, insbesondere dann, wenn deren Form, projiziert auf den Boden, grundsätzlich vorbekannt ist, beispielsweise Kassenautomaten, Schranken oder dergleichen.
  • In diesem Kontext ist es auch bezüglich des Histogrammdatensatzes besonders zweckmäßig, wenn als Karteninformation eine den Zweck und/oder die Bedeutung des Objekts beschreibende Semantikinformation aus den Ergebnissen des Bildverarbeitungsalgorithmus bestimmt wird. Die Klassifizierung von Objekten kann beispielsweise zu einem entsprechenden Eintrag in den Kartendatensatz führen.
  • Neben dem Verfahren betrifft die Erfindung auch eine Recheneinrichtung, ausgebildet zur Auswertung von 3D-Messdatensätzen gemäß dem erfindungsgemäßen Verfahren. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf die erfindungsgemäße Recheneinrichtung übertragen, mit welcher mithin ebenso die genannten Vorteile erhalten werden können. Das erfindungsgemäße Verfahren kann zudem als ein Computerprogramm realisiert werden, welches die Schritte des erfindungsgemäßen Verfahrens durchführt, wenn es auf einer Recheneinrichtung ausgeführt wird. Auch bezüglich eines derartigen Computerprogramms gelten die bisherigen Ausführungen fort.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnung. Dabei zeigen:
  • 1 einen Ablaufplan eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
  • 2 ein aus einem 3D-Messdatensatz abgeleitetes zweidimensionales Panoramabild,
  • 3 eine Skizze zur Erläuterung der Ermittlung eines Histogrammdatensatzes, und
  • 4 typische Formen in einem Histogrammdatensatz.
  • 1 zeigt einen Ablaufplan des erfindungsgemäßen Verfahrens, das vorliegend genutzt werden soll, um vollständig automatisch einen Kartendatensatz für eine Navigationsumgebung, vorliegend ein Parkhaus, zu ermitteln. Dazu wird in einem Schritt S1 ein 3D-Messdatensatz 1 aufgenommen, indem ein Messfahrzeug innerhalb des Parkhauses an verschiedene Messpositionen fährt, wo mittels eines Intensitäts-Laserscanners als dreidimensionale Messeinrichtung Teilmessdatensätze aufgenommen werden, wobei vorliegend so vorgegangen wird, dass die gesamte Navigationsumgebung, also das gesamte Parkhaus, abgedeckt wird. Die Teilmessdatensätze können anhand der Erkenntnis der Messpositionen sowie unter Verwendung von Matching-Verfahren aufeinander registriert werden, so dass ein Gesamt-3D-Messdatensatz entsteht, vorliegend in Form einer Punktwolke, wobei jedem Punkt, der einen Reflektionsort darstellt, eine Intensität des reflektierten Lichts als zusätzliche Information zugeordnet ist.
  • Die weitere Auswertung des 3D-Messdatensatzes 1 findet statt, indem zwei unterschiedliche Arten von 2D-Datensätzen aus dem 3D-Messdatensatz abgeleitet werden und ausgewertet werden.
  • Gemäß dem Schritt S2 werden als 2D-Datensätze verschiedene Bilder erzeugt, vorliegend Panoramen an verschiedenen Messpositionen der 3D-Messeinrichtung. Auch Aufsichten aus der Vogelperspektive auf die einzelnen Stockwerke des Parkhauses sind denkbar. Anhand der den einzelnen Messpunkten zugeordneten Intensitäten lassen sich diese Panoramabilder leicht ermitteln, wobei auch im Panoramabild jeweils vermerkt wird, welche dreidimensionale Position dem entsprechenden Pixel zugeordnet ist, was aus dem 3D-Messdatensatz bekannt ist. Somit ist eine dreidimensionale Zuordnung von Auswertungsergebnissen möglich.
  • Der Vorteil der genannten zweidimensionalen Bilder als 2D-Datensätze ist es, dass sie mit üblichen Bildverarbeitungsalgorithmen ausgewählt werden können. Vorliegend werden als Bildverarbeitungsalgorithmen neben Texterkennungsalgorithmen und Strichcode-Erkennungsalgorithmen hauptsächlich Objektklassifizierungsalgorithmen eingesetzt, die beispielsweise auf einer Erkennung typischer Formen und/oder Muster basieren können. Derartige Bildverarbeitungsalgorithmen sind im Stand der Technik grundsätzlich bekannt und müssen hier nicht näher dargelegt werden.
  • Zur beispielhaften Erläuterung dieser Auswertung im Schritt S3 sei auf 2 verwiesen, die einen Ausschnitt aus einem Panoramabild 2 eines Stockwerks des Parkhauses zeigt. Ersichtlich sind verschiedene Objekte (Merkmale) in dem Panoramabild sichtbar, neben Wänden 3 und einer Säule 4 auch eine Tür 5 mit einem darauf angeordneten Schild 6, Strichcodes 7, Fahrbahnmarkierungen 8, Parkplatzmarkierungen 9 sowie Parkplatznummern 10. Mittels der Schrifterkennungsalgorithmen können Parkplatznummern 10 erkannt werden. Die Strichcode-Erkennungsalgorithmen können die 2D-Strichcodes 7 identifizieren, welche zur Navigation durch Kraftfahrzeuge im Parkhaus erkannt werden sollen. Nachdem auch die 3D-Position der Strichcodes 7 bekannt ist, lässt sich ihnen somit als Karteninformation eine sehr exakte Position zuordnen.
  • Die Tür 5 kann durch Objektklassifizierungsalgorithmen erkannt werden, welche auch eingesetzt werden können, um typische Symbole zu erkennen, so dass das Schild 6 als Notausgangsschild erkannt werden kann. Die entsprechenden Objekteigenschaften können in einer Karte, in der die Objekte enthalten sind, diesen entsprechend zugeordnet werden können. Es handelt sich mithin insbesondere um Semantikinformationen, die die Bedeutung und/oder Zweck dieser Objekte beschreiben, insoweit sie im Kartendatensatz 11, der später erstellt werden soll, nützlich sind.
  • Dabei wird darauf hingewiesen, dass vorliegend die grundlegende Karte, die befahrbare Bereiche und Objekte enthält, auch aus dem 3D-Messdatensatz abgeleitet wird, was bezüglich der Schritte S4 und S5 bei der zweiten Art von 2D-Datensätzen nun genauer erläutert werden soll.
  • Im Schritt S4 wird als 2D-Datensatz ein Histogrammdatensatz erzeugt. Dabei werden für jedes Stockwerk die gemessenen Punkte auf die jeweilige zu befahrende Bodenfläche projiziert und gezählt, wobei die Bodenfläche gerastert ist, so dass ein Histogrammdatensatz entsteht, in dem jedem Rasterelement der Bodenfläche die Anzahl der darüber gemessenen Messpunkte dieses Stockwerks zugeordnet wird. Dies sei anhand der 3 näher erläutert. Dort ist ein zweidimensionaler Schnitt durch einen Oberflächenverlauf 12 im Parkhaus gezeigt, wobei ersichtlich ausgehend von der Bodenfläche bzw. Bodenebene 13 zunächst eine kleine, gegebenenfalls noch überfahrbare Stufe gegeben ist, bevor sich eine Wand anschließt. Die einzelnen Messpunkte, an denen Reflektionen gemessen wurden, sind als Punkte entlang des Oberflächenverlaufs 12 gezeigt. Projiziert man diese Punkte auf die Bodenfläche und zählt sie, entsteht eine Histogrammdarstellung 14 für die Rasterelemente in dieser Richtung, in der zunächst die Säule 15 der kleineren Stufe, die nur leicht erhöht ist, zu erkennen ist, sodann aber die deutlich höhere Säule 16, die der Wand im Oberflächenverlauf 12 entspricht. Hinter dieser Wand wird selbstverständlich nichts mehr gemessen, so dass dort die Anzahl im Histogramm Null beträgt.
  • Der entstehende zweidimensionale Histogrammdatensatz kann nun auf verschiedene Art und Weise ausgewertet werden. Zum einen kann das Histogramm zur Identifikation von baulichen Hindernissen, die nicht überfahren werden können, ausgewertet werden. Die Anzahl von Punkten in einem Rasterelement hängt unmittelbar mit der Höhe des sich vertikal darüber erstreckenden Objekts zusammen. Daher kann vorgesehen sein, einen Schwellwert zu verwenden, der letztlich Objekte bestimmter Höhe auswählt. Vorteilhaft ist es, Gesamtobjekte zu identifizieren, indem eine Randbegrenzung ermittelt wird, bei der mithin der Schwellwert auch für benachbarte Rasterelemente überschritten ist. Derartiges kann eine Karte liefern, die eine Grundlage für den Kartendatensatz darstellt, da letztlich Rasterelemente als befahrbar oder bauliches Hindernis markiert werden können und zudem auch zusammenhängende Objekte erkannt werden können.
  • Wie durch den Pfeil 17 in 1 angedeutet, kann beispielsweise dann, wenn eine Wand (als äußerst hohes vertikales bauliches Hindernis) detektiert wurde, hieraus auch ein gewolltes weiteres Bild als zweidimensionaler Datensatz (für Schritt S2) abgeleitet werden, beispielsweise, wenn festgestellt werden soll, was auf einer Wand ist. Dann kann als Bild eine Aufsicht auf die Wand erzeugt werden.
  • Wie bereits erwähnt wurde, können eine Befahrbarkeitsangabe bzw. bereits klassifizierte Objekte auch als Grundlage für den Kartendatensatz an sich dienen, so dass, wie durch den Pfeil 18 in 1 angedeutet, entsprechende dort detektierte Objekte bzw. Semantikeigenschaften korrekt zugeordnet und eingetragen werden können.
  • Zur Auswertung des Histogrammdatensatzes im Schritt S5 wird parallel noch eine weitere Variante angewendet, denn es können auch als Bildverarbeitungsalgorithmen Shape-Matching-Algorithmen angewandt werden, um Objekte zu klassifizieren. Dies soll durch 4 näher erläutert werden. Dort ist ein beispielhafter Verlauf 19 von Randbegrenzungen gezeigt. In einem Bereich 20 findet sich eine Einbuchtung, die typisch für das Vorhandensein einer Tür ist, welche mithin identifiziert werden kann. Im Bereich 21 steht ein Objekt bestimmter Form, welches nicht ganz bis an die Decke reicht, an der Wand. Die charakteristische Form dieses Objekts erlaubt es, es als einen Kassenautomaten des Parkhauses zu identifizieren. So ist mithin einer weitere Klassifizierung von Objekten und eine Zuordnung von Semantikinformationen zu diesen Objekten möglich.
  • Alle auf diese Art erhaltenen Kartendaten und Karteninformationen werden schließlich zu dem Kartendatensatz 11 zusammengefasst, vgl. wiederum 1.
  • Das hier dargestellte Verfahren kann vollautomatisch auf einer Recheneinrichtung durchgeführt werden.

Claims (16)

  1. Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz (11) einer Navigationsumgebung, wobei wenigstens ein Teil der Navigationsumgebung durch Aufnahme eines 3D-Messdatensatzes (1) mit wenigstens einer dreidimensionalen Messeinrichtung vermessen wird, dadurch gekennzeichnet, dass wenigstens eine ein detektiertes Objekt über die Messdaten hinaus beschreibende Karteninformation durch automatische Auswertung eines, insbesondere durch einen Projektionsvorgang, aus dem 3D-Messdatensatz (1) ermittelten 2D-Datensatzes ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der 3D-Messdatensatz (1) aus in verschiedenen Aufnahmevorgängen aus verschiedenen Messpositionen aufgenommenen, registrierten Teilmessdatensätzen ermittelt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Aufnahme der Messdaten während eines Transports der Messeinrichtung durch die Navigationsumgebung mittels eines Messfahrzeugs erfolgt.
  4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass die Teilmessdatensätze die gesamte Navigationsumgebung abdecken.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als Messeinrichtung ein Laserscanner, insbesondere ein Intensitäts-Laserscanner, verwendet wird.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass jedem Datenelement des 2D-Datensatzes eine die dreidimensionale Position der zu ihm beitragenden Messdaten beschreibende Zusatzinformation zugeordnet ist.
  7. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als 2D-Datensatz wenigstens ein ein detektiertes Objekt zeigendes Bild verwendet wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass als Bild ein Panoramabild (2), insbesondere um eine Messposition der Messeinrichtung, ermittelt wird.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass ein Bildverarbeitungsalgorithmus zur Erkennung von Objekten und/oder zur Ermittlung der Karteninformation verwendet wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass als Bildverarbeitungsalgorithmus ein Schrifterkennungsalgorithmus und/oder ein Strichcode-Erkennungsalgorithmus und/oder ein Objektklassifizierungsalgorithmus verwendet wird.
  11. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass als 2D-Datensatz ein Histogrammdatensatz (14) verwendet wird, indem auf eine gerasterte, einen befahrenen Boden innerhalb der Navigationsumgebung beschreibende Bodenfläche (13) alle insbesondere durch Reflektion definierten Messpunkte zumindest eines der Bodenfläche zugeordneten Teils des 3D-Messdatensatzes (1) projiziert und für jedes Rasterelement gezählt werden.
  12. Verfahren nach Anspruch 11. dadurch gekennzeichnet, dass zur Ermittlung einer Objekte als bauliche Hindernisse, insbesondere Wände, beschreibenden Karteninformation Histogrammdaten von einem zu beurteilenden Objekt zugeordneten Rasterelementen mit einem Schwellwert verglichen werden und/oder bauliche Hindernisse beschreibende Objekte anhand einer den Schwellwert für benachbarte Rasterelemente überschreitenden Randbegrenzung ermittelt werden.
  13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass aus den Karteninformationen zu baulichen Hindernissen eine auf die Bodenfläche (13) bezogene zweidimensionale Karte befahrbarer Bereiche ermittelt wird, woraus durch Vektorisierung und Extrusion eine dreidimensionale Repräsentation des der Bodenfläche (13) zugeordneten Teils der Navigationsumgebung ermittelt wird.
  14. Verfahren nach einem der Ansprüche 11 bis 13, dadurch gekennzeichnet, dass auf den Histogrammdatensatz als Bildverarbeitungsalgorithmus ein Shape-Matching-Algorithmus angewandt wird, um Objekte zu klassifizieren.
  15. Verfahren nach einem der Ansprüche 9, 10 oder 14, dadurch gekennzeichnet, dass als Karteninformation eine den Zweck und/oder die Bedeutung des Objekts beschreibende Semantikinformation aus den Ergebnissen des Bildverarbeitungsalgorithmus bestimmt wird.
  16. Recheneinrichtung, ausgebildet zur Auswertung von 3D-Messdatensätzen (1) gemäß einem Verfahren nach einem der vorangehenden Ansprüche.
DE102015010514.0A 2015-08-13 2015-08-13 Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung Active DE102015010514B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102015010514.0A DE102015010514B4 (de) 2015-08-13 2015-08-13 Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015010514.0A DE102015010514B4 (de) 2015-08-13 2015-08-13 Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung

Publications (2)

Publication Number Publication Date
DE102015010514A1 true DE102015010514A1 (de) 2017-02-16
DE102015010514B4 DE102015010514B4 (de) 2019-06-13

Family

ID=57907805

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015010514.0A Active DE102015010514B4 (de) 2015-08-13 2015-08-13 Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung

Country Status (1)

Country Link
DE (1) DE102015010514B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018209336A1 (de) * 2018-06-12 2019-12-12 Robert Bosch Gmbh Verfahren und Einrichtung zum Betrieb von autonom betriebenen Arbeitsmaschinen

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020201917A1 (de) 2020-02-17 2021-08-19 Volkswagen Aktiengesellschaft Symbolelement für eine Verkehrsumgebung eines Kraftfahrzeugs und Verfahren zum Bereitstellen von Informationen in einer Verkehrsumgebung eines Kraftfahrzeugs
DE102020201918A1 (de) 2020-02-17 2021-08-19 Volkswagen Aktiengesellschaft Positionseinrichtung für ein Navigationssystem eines Kraftfahrzeugs, Infrastruktureinrichtung mit einer Positionseinrichtung sowie Verfahren zum Navigieren eines Kraftfahrzeugs
DE102021204985A1 (de) 2021-05-18 2022-11-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Verarbeitung einer ein Umfeld repräsentierenden 3D-Punktwolke

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69705465T2 (de) * 1996-05-31 2002-04-25 Sagem Verfahren und Vorrichtung zur Identifikation und Ortsbestimmung von festen Objekten entlang eine Strecke
DE102004028736A1 (de) * 2004-06-14 2006-03-23 Tele-Info Ag Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
EP1892149B1 (de) * 2006-08-24 2009-02-04 Harman Becker Automotive Systems GmbH Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
DE102013217915A1 (de) * 2013-09-09 2015-03-12 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Objekterkennung aus tiefenaufgelösten Bilddaten

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69705465T2 (de) * 1996-05-31 2002-04-25 Sagem Verfahren und Vorrichtung zur Identifikation und Ortsbestimmung von festen Objekten entlang eine Strecke
DE102004028736A1 (de) * 2004-06-14 2006-03-23 Tele-Info Ag Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
EP1892149B1 (de) * 2006-08-24 2009-02-04 Harman Becker Automotive Systems GmbH Verfahren zum Abbilden der Umgebung eines Fahrzeugs und System dafür
DE102013217915A1 (de) * 2013-09-09 2015-03-12 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Objekterkennung aus tiefenaufgelösten Bilddaten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018209336A1 (de) * 2018-06-12 2019-12-12 Robert Bosch Gmbh Verfahren und Einrichtung zum Betrieb von autonom betriebenen Arbeitsmaschinen

Also Published As

Publication number Publication date
DE102015010514B4 (de) 2019-06-13

Similar Documents

Publication Publication Date Title
DE102014223363B4 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102014015073B4 (de) Verfahren zur Aktualisierung und/oder Erweiterung eines Kartendatensatzes einer begrenzten Umgebung
DE102013003117A1 (de) Verfahren zur Selbstlokalisation eines Fahrzeugs und zur Detektion von Objekten in einer Umgebung des Fahrzeugs
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
WO2015120981A1 (de) Verfahren zur ermittlung der absoluten position einer mobilen einheit und mobile einheit
DE102009009047A1 (de) Verfahren zur Objektdetektion
DE102015010514B4 (de) Verfahren zur Ermittlung von Karteninformationen für einen Kartendatensatz einer Navigationsumgebung und Recheneinrichtung
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE102015208590A1 (de) Vorrichtung zur bestimmung eines für ein fahrzeug befahrbaren raums, entsprechendes verfahren und fahrzeug
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102020101623A1 (de) Einparkhilfesystem mit parklückenbelegungsausgabe
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
DE102018123393A1 (de) Erkennung von Parkflächen
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102014201409B4 (de) Parkplatz - trackinggerät und verfahren desselben
DE102015006569A1 (de) Verfahren zur bildbasierten Erkennung des Straßentyps
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
EP3688659A1 (de) Verfahren zum automatisierten identifizieren von parkflächen und/oder nicht-parkflächen
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
EP3671125B1 (de) Positionsbestimmungssystem und verfahren zum betreiben eines positionsbestimmungssystems für eine mobile einheit
DE102021124404B3 (de) Verfahren und Vorrichtung zum Ermitteln eines Gütewerts eines Parkraums
DE102019102561A1 (de) Verfahren zum Erkennen einer Pflastermarkierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000