DE102012103373A1 - Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen - Google Patents

Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen Download PDF

Info

Publication number
DE102012103373A1
DE102012103373A1 DE201210103373 DE102012103373A DE102012103373A1 DE 102012103373 A1 DE102012103373 A1 DE 102012103373A1 DE 201210103373 DE201210103373 DE 201210103373 DE 102012103373 A DE102012103373 A DE 102012103373A DE 102012103373 A1 DE102012103373 A1 DE 102012103373A1
Authority
DE
Germany
Prior art keywords
model
building
building objects
objects
horizontal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210103373
Other languages
English (en)
Inventor
Rolf Hartmann
Reinhard Berger
Oliver Ballereau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jena Optronik GmbH
Original Assignee
Jena Optronik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jena Optronik GmbH filed Critical Jena Optronik GmbH
Priority to DE201210103373 priority Critical patent/DE102012103373A1/de
Publication of DE102012103373A1 publication Critical patent/DE102012103373A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Structural Engineering (AREA)
  • Pure & Applied Mathematics (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Komplettierung eines 3D-Modells (2) einer urbanen Szene mit unvollständig abgebildeten artefaktischen Bauobjekten mittels zumindest einer aus einem dreidimensionalen Raum zugeordneten Messwerten bestehenden Punktwolke (3) und einem dreidimensionalen Bodenmodell (4). Um die Komplettierung zu einem hohen Anteil automatisiert und einfach ausführen zu können, wird zumindest ein Teil der artefaktischen Bauobjekte vervollständigt, indem anhand von Horizontalen der Bauobjekte und sich an diese unter Anwendung einer Bedingung eines konvexen Bauraums angeschlossener Kanten und Schnittpunkte ein Drahtmodell des Bauobjekts ermittelt wird, welches in das Bodenmodell (4) eingefügt und dessen Flächen anhand von in diese entfallenden Messwerten ergänzt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Komplettierung eines 3D-Modells einer urbanen Szene mit unvollständig abgebildeten artefaktischen Bauobjekten mittels zumindest einer aus einem dreidimensionalen Raum zugeordneten Messwerten bestehenden Punktwolke und einem dreidimensionalen Bodenmodell.
  • Dreidimensionale Modelle, sogenannte 3D-Modelle der Erdoberfläche, oder auch Digitale Höhenmodelle (Digital Elevation Model, DEM), insbesondere in urbaner Umgebung werden in vielfachen Anwendungen benötigt und sollen eine lückenlose, vollständig texturierte und geometrisch exakte Abbildung der realen Oberfläche liefern. Hierzu kommen Aufnahmemethoden wie Laserscanning, Photogrammetrie, beispielsweise mit Mehrzeilenkameras, klein-, mittel- und großformatigen Matrixkameras, Radarinterferometrie und weitere 3D-Informationen liefernde Messverfahren zum Einsatz. Hierbei werden neben visuellen Farben auch nicht visuelle Frequenzen erfasst, beispielsweise Frequenzen im Nahen infrarot (NIR) insbesondere zur verbesserten Erfassung von pflanzlichem Bewuchs. Um die Zuordnung dieser Messgeräte zur äußeren Orientierung zu gewährleisten, werden satellitengestützte Positioniersysteme wie GPS, Trägheitsnavigationssystem und dergleichen eingesetzt.
  • Die Messverfahren zur Ermittlung des Rohmaterials eines 3D-Modells liefern zunächst eine Menge von mit drei Raumkoordinaten vermessenen Punkten, sogenannten Voxel, als sogenannte Punktwolke. Die Genauigkeit und die Dichte dieser Voxel in der Punktwolke bestimmen dabei die Qualität der möglichen Weiterverarbeitung. Dabei weisen derartige Punktwolken große Lücken ohne verwertbare Messwerte auf, wenn beispielsweise artefaktische Objekte wie Gebäude, Straßen, Plätze und dergleichen große homogene Flächen ausbilden. Weiterhin treten Ausreißer und Fehlbestimmungen auf, beispielsweise wenn bei zwei in unterschiedlichen Überflügen über einen Flächenausschnitt eines zu erstellenden 3D-Modells aufgrund unterschiedlicher Blinkwinkel sich Verdeckungen und Hintergründe von Objekten ändern, Verwechslungen bei der Messwertzuordnung zu den Raumkoordinaten, beispielsweise bei periodisch wiederkehrenden Mustern wie Pflastern, Dachziegeln und dergleichen auftreten. Die Aufbereitung der Punktwolke mittels vollautomatischer Bearbeitungsverfahren gestaltet sich schwierig und ist auf die Genauigkeit der lückenbehafteten Punktwolke begrenzt.
  • Die Erstellung eines 3D-Modells durch Extraktion und Modellierung der Punktwolke auf die dreidimensionale Erdoberfläche, beispielsweise in Form eines digitalen Höhenmodells (Digital Elevation Model, DEM) ist dabei mit hohem personellem Aufwand behaftet. Hierbei werden in einer visuellen Darstellung des Rohmodells des 3D-Modells artefaktische Objekte wie Bauobjekte, Standardobjekte in Form von Fahrzeugen, Straßenlampen und dergleichen weitgehend durch visuelle Erkennung identifiziert und mit einem Editierwerkzeug von Hand nachgebildet. Digitale Bodenmodelle (Digital Terrain Model DTM) lassen sich dagegen einfacher herstellen, da der gewachsene Boden mit wenigen Punkten interpoliert werden kann.
  • Zur Verminderung des personellen Aufwands zur Erstellung eines 3D-Modells urbaner Umgebungen mit einer Vielzahl von Bauobjekten wird beispielsweise vorgeschlagen, in einem modellgestützten Ansatz Bauobjekte auf einem vorhandenen Gebäudegrundriss zu errichten, indem aus verschiedenen, in einer Bibliothek vorgehaltenen dreidimensionalen Grundformen von Bauobjekten die der realen Form des Bauobjekts nächstliegende Grundform auszuwählen. Hierbei müssen von den Grundformen abweichende reale Bauobjekte aufwendig angepasst oder es muss eine Vielzahl von Grundformen in der Bibliothek bereitgehalten werden. Außerdem ist die visuelle oder automatisierte Erkennung der Formen der realen Bauobjekte stark von der Qualität der Punktwolke abhängig, so dass die Verwendung dieser Methode nur mit qualitativ hochwertigen, mit aufwendigen Messwerterfassungssystemen wie Laserscannern erstellten Punktwolken geeignet ist.
  • Aus der WO2011/093752 A1 ist im Weiteren ein Verfahren zur Darstelllung eines 3D-Modells einer Szene mit Bauobjekten bekannt, bei dem anhand einer photogrammetrisch erstellten, qualitativ hochwertigen, aus einer großen Anzahl von Überflügen aus unterschiedlichen Richtungen einer mit mehreren Kameras ausgestatteten Flugeinrichtung gewonnenen Punktwolke ein automatisiertes Drahtgittermodell erstellt wird. Hierbei werden aus einer Vielzahl von beispielsweise 10 Bildern jeder Raumkoordinate mehrere Messwerte zugeordnet und gemittelt. Hierbei ist trotz der aufwendigen und kostenintensiven Erfassung der Punktwolke eine intensive manuelle Nacharbeit notwendig, wenn Ausreißer von Messwerten unterschiedlichen Umgebungen zugeordnet werden. Beispielsweise können Bauobjektformen verfälscht werden, wenn den Raumkoordinaten des Bauobjekts Raumkoordinaten der Umgebung mit ähnlichen Messwerten zugeordnet werden, so dass deren Kontur verfälscht wird. Die Fehler müssen visuell erkannt und korrigiert werden.
  • Weiterhin ist in dem Aufsatz „Accurate and Effcient Stereo Processing by Semi-Global Matching and Mutual Information, H. Hirschmann, Information IEEE Conference an Computer Vision and Pattern Recognition (CVPR), San Diego, CA, USA, June 20–26, 2005 ein vollständig automatisiertes Verfahren zur Erstellung eines 3D-Modells einer urbanen Szene beschrieben. Hierbei werden die gesamten Stereobilder und nicht nur einzelne Ausschnitte eines Bildes übereinandergelegt, indem diese anhand einer Auflösungspyramide von grober zur feinsten Auflösung in Iterationsschritten entlang einer Vielzahl von Linien der Stereobilder aufeinander bezüglich ihrer Raumkoordinaten positioniert werden. Hierdurch wird jedem Einzelpixel eine Raumkoordinate unabhängig von dessen Nachbarschaft zugeordnet, so dass eine lückenlose Punktwolke entsteht, deren Einzelpixel keine Wechselwirkung durch Verdeckung oder unterschiedliche Hintergründe zwischen zwei oder mehreren Stereobildern aufweisen. Hierzu enthält das Auswerteverfahren eine Kostenminimierungs- und eine Glättungsfunktion, in der vorgegebene Glättebedingungen erzwungen werden. Als Kostenminimierungsfunktion wird die statistisch als gegenseitige Information bekannte Transinformation zwischen einem ersten Stereobild und dem mit einem Parallaxenbild in das erste Stereobild rektifizierten anderen Stereobild eingesetzt. Bei dieser Methode handelt es sich um eine in Echtzeit betreibbare Erstellung von dynamischen 3D-Modellen insbesondere in Kraftfahrzeugen und kann infolge der geforderten Genauigkeit bei stationären 3D-Modellen nicht eingesetzt werden.
  • Aufgabe der Erfindung ist daher, ein kostengünstiges und weitgehend automatisierbares Verfahren zur Erstellung eines lückenlosen, vollständig texturierten und geometrisch exakten 3D-Modells mit artefaktischen Bauobjekten vorzuschlagen.
  • Die Aufgabe wird durch ein Verfahren zur Komplettierung eines 3D-Modells einer urbanen Szene mit unvollständig abgebildeten artefaktischen Bauobjekten mittels zumindest einer aus einem dreidimensionalen Raum zugeordneten Messwerten bestehenden Punktwolke und einem dreidimensionalen Bodenmodell gelöst, wobei zumindest ein Teil der artefaktischen Bauobjekte vervollständigt wird, indem anhand von Horizontalen der Bauobjekte und sich an diese unter Anwendung einer Bedingung eines konvexen Bauraums angeschlossener Kanten und Schnittpunkte ein Drahtmodell des Bauobjekts ermittelt wird, welches in das Bodenmodell eingefügt und dessen Flächen anhand von in diese entfallenden Messwerten ergänzt werden. Da nahezu alle Bauobjekte zum einen typbedingt ein Volumen einschließen und aus konstruktiven und ästhetischen Gründen Horizontalen in Form von Kanten gleicher Höhe aufweisen, können gemäß dem erfinderischen Gedanken durch Erfassen von Horizontalen in Verbindung mit sich an diese anschließenden konvexen Bauräumen die meisten Bauobjekte so vervollständigt werden, dass anhand des gewonnenen Drahtmodells die Bauobjekte geometrisch exakt darstellbar, skalierbar und an dem Bodenmodell positionsgerecht aufnehmbar sind. Die Horizontalen und die sich anschließenden Kanten können dabei aus unterschiedlichen Datenquellen, beispielsweise aus bekannten Konstruktionsdaten eines Bauobjekts in Form von Bauplänen, aus Daten von Liegenschafts- und Katasterämtern, Grundrissen und dergleichen ermittelt werden. Alternativ oder zusätzlich können die Horizontalen und deren sich anschließende Kanten und Ecken aus Stereobildern einer Stereokamera ermittelt werden. Hierzu können auch alternativ oder zusätzlich Messwerte der Punktmatrix herangezogen werden. Die Drahtmodelle komplex ausgebildeter Bauobjekte können dabei aus mehreren Unterstrukturen, welche jeweils die Kriterien eines konvexen Bauraums erfüllen, zusammengesetzt werden, so dass unabhängig von den Bauformen mit dem vorgeschlagenen Verfahren eine universelle Methode zur Nachbildung der Bauobjekte vorgeschlagen werden kann, ohne auf eine große Datenbank von Bauobjekttypen zurückgreifen zu müssen. Die Erstellung der Drahtmodelle kann automatisiert oder teilautomatisiert erfolgen, indem die Horizontalen, Kanten und Ecken eines Bauobjekts oder einer Unterstruktur anhand einer Mustererkennung erkannt werden und unter der Bedingung eines konvexen Bauraums miteinander verknüpft werden. Reicht die Datenlage für eine automatisierte Erkennung der Elemente der Drahtmodelle nicht aus, kann zumindest ein Teil dieser Elemente in einer entsprechenden, beispielsweise mehrere übereinander gelegte Lagen unterschiedlicher verfügbarer Informationen enthaltenden Bilddarstellung, beispielsweise mittels eines Bildeditors ausgewählt und für ein Drahtmodell markiert werden. Die Berechnung des Drahtmodells und damit die geometrischen Daten eines Bauobjekts können im Anschluss automatisiert erfolgen.
  • Wurden die geometrischen Daten eines Bauobjekts gemäß dem erfinderischen Verfahren ermittelt, erfolgt dessen Einordnung in ein Bodenmodell anhand bekannter Informationen wie beispielsweise Gebäudegrundrissen, Informationen wie strukturierten Informationen der Punktwolke oder zur Verfügung stehender Bildinformationen. Dabei kann das ursprünglich dreidimensional ausgebildete Bodenmodell zweidimensional projiziert werden. Die Bauobjekte können bei ausreichender Information wie beispielsweise bei bekannten Grundrissen automatisiert in das Bodenmodell eingefügt werden. Sind derartige Informationen nicht zugänglich, kann ein Bodenmodell beispielsweise zweidimensional auf einem Bildschirm dargestellt und die ermittelten Bauobjekte können von Hand an die entsprechenden Positionen positioniert werden.
  • Soweit eine manuelle Überarbeitung zur Erfassung, Erstellung und Positionierung notwendig ist oder zur Überprüfung einer automatisierten Prozedur werden aus verschiedenen Quellen zur Verfügung stehende Daten der urbanen Szene bevorzugt gemeinsam in einem Mehrbildeditor bearbeitet. Hierzu können unterschiedliche, aus verschiedenen Datenquellen stammende Daten positionsgetreu übereinander gelagert werden, so dass die Verifizierung vorgesehener Abbildungsdetails, beispielsweise die Horizontalen, Kanten, Schnittpunkte und Ecken von Bauobjekten verbessert wird. Hierzu können diese in einer zweidimensionalen Projektion dargestellt werden. Auf diese Weise kann eine qualitativ hochwertige Erfassung der für die Drahtmodelle der Bauobjekte relevanten Linien, deren Länge, Schnittpunkte und Winkel sowohl automatisiert, teilautomatisiert als auch manuell erfolgen.
  • Es hat sich weiterhin als vorteilhaft erwiesen, dass eine in der urbanen Szene enthaltene Vegetation mittels eines NIR-Bildes eingefügt wird. Es hat sich dabei als vorteilhaft erwiesen, wenn eine aus einem NIR-Bild erstellte Vegetationsmaske eines zu bearbeitenden Bildausschnitts vor einem Einfügen von Bauobjekten erstellt und eingefügt wird und eine von der Vegetationsmaske belegte Fläche von einer Untersuchung auf Bauobjekte ausgeschlossen wird.
  • Im Weiteren können nicht zu den Bauobjekten zählende, artefaktische Standardobjekte, beispielsweise Fahrzeuge, Straßenlaternen und dergleichen als 3D-Modelle beispielsweise in einer Objektbibliothek bereitgehalten und auf deren tatsächliche Größe in der Szene kalibriert und eingefügt werden.
  • Das bezüglich seiner geometrischen Abmessungen detailgenaue 3D-Modell kann anschließend mittels von einer Stereokamera aufgenommenen Stereobildern texturiert werden, so dass ein den Echtfarben ähnliches 3D-Modell erstellt werden kann. Aufgrund der geometrischen Genauigkeit kann das 3D-Modell in die erwünschten Sichtwinkel gedreht und geneigt werden. Zur Darstellung wird das 3D-Modell als Punktwolke mit äquidistantem 3D-Raster erstellt. Hierbei erhält jedes Voxel die entsprechenden aus den Stereobildern bekannten Farbwerte durch Zusammenführen der Drahtmodelle, den aus diesen gebildeten Flächen und den in den Stereobildern gespeicherten Farbwerten.
  • Die Erfindung wird anhand der 1 bis 11 näher erläutert. Hierbei zeigen:
  • 1 ein Blockdiagramm des Verfahrens,
  • 2 ein Bauobjekt von oben,
  • 3 das Bauobjekt der 2 in Schrägansicht,
  • 4 ein weiteres Bauobjekt von oben,
  • 5 das Bauobjekt der 4 in Schrägansicht,
  • 6 eine Punktwolke einer urbanen Szene,
  • 7 eine aus einer NIR-Aufnahme einer urbanen Szene mit einem gegenüber der 6 erweiterten Ausschnitt abgeleitete Vegetationsmaske,
  • 8 einen Grundriss einer urbanen Szene mit ermittelten Höhenlinien,
  • 9 ein erstelltes 3D-Modell einer urbanen Szene in Schrägansicht,
  • 10 das 3D-Modell der 9 mit teilweise aus Farbwerten einer Schrägsichtaufnahme texturierten Flächen und
  • 11 das vollständige, geometrisch genaue und vollständig texturierte 3D-Modell.
  • Das Blockdiagramm 1 der 1 zeigt ein komplettes Verfahren zur Erstellung des vollständig texturierten und geometrisch exakt aufgelösten 3D-Modells 2 einer urbanen Szene mittels zur Verfügung stehender Daten und Informationen. Diese enthalten – wie hier gezeigt – die 3D-Punktwolke 3, wie sie beispielsweise als Ausschnitt in der 6 dargestellt ist, das dreidimensional vorliegende Bodenmodell 4 (DTM, digital terrain model), den für jedes Bauobjekt spezifischen Datensatz 5, beispielsweise einen Grundriss, einen Bauplan und/oder verschiedene auswertbare, beispielsweise mittels einer Stereokamera aufgenommene, unterschiedliche Blickwinkel der urbanen Szene oder eines Bauobjekts darstellende Einzelbilder 6, 7, 8, das beispielsweise eine urbane Szene wie in 7 im nahen Infrarot-Bereich abbildende NIR-Bild 9 der urbanen Umgebung, einer Datenbank 10 mit Standardmodellen von nicht zu den Bauobjekten zählenden artefaktischen Objekten sowie weitere oder mit den Einzelbildern 6, 7, 8 identische Einzelbilder 11, 12, 13, die die urbane Szene aus unterschiedlichen Blickwinkeln zeigen und Texturinformationen enthalten. Die einzelnen Daten und Bilder werden anhand von Positionsdaten beispielsweise GPS-Daten, einem Kartenraster und dergleichen der urbanen Szene zugeordnet und aufeinander positioniert. Die Abarbeitung des Blockdiagramms 1 erfolgt größtenteils automatisiert. Eine gegebenenfalls eingerichtete Überwachung des Ablaufs und ein gegebenenfalls notwendiger Eingriff in das Verfahren erfolgt anhand eines Editors, bei dem die einzelnen Bearbeitungsschritte bevorzugt anhand von zweidimensional projizierten Bildschirminhalten erfolgen.
  • Zuerst erfolgt die Einfügung der Vegetationsanteile in die urbane Szene, so dass ausschließlich von Vegetation belegte Anteile der urbanen Szene von einer weiteren Belegung durch artefaktische Objekte ausgeschlossen werden können. Die Vegetationsanteile werden anhand des NIR-Bilds 9 in der Vegetationsmaske 14 festgelegt und als texturiertes Vegetationsmodell 15 in das Rohmodell 16 des 3D-Modells 2 eingefügt.
  • Anschließend erfolgt die Erfassung und Einbettung der in der urbanen Szene vorhandenen Bauobjekte anhand des Ablaufs 17, der nachfolgend für alle Bauobjekte – hier angedeutet durch die Abläufe 17a, 17b, 17c – in entsprechender Weise durchgeführt wird. Der Ablauf 17 startet mit dem spezifischen Datensatz 5, der in dem Block 18 auf vorhandene Höhenlinien untersucht wird. Beispielsweise können aus dem Grundriss Höhenlinien extrahiert werden, die den Gebäudegrundriss festlegen. Anschließend werden in dem Block 19 benachbarte Kanten, Schnittlinien und Ecken erfasst und aus den zweidimensional vorliegenden Daten mittels der einschränkenden Bedingung eines konvexen Bauraums eines Bauobjekts anhand geometrischer Rechenoperationen die Bauräume aufgerichtet. Aus der Punktwolke 3 und dem Bodenmodell 4 werden in Block 20 die Höhen des Bauraums eingerichtet. In dem anschließenden Block 21 wird das komplette Modell des betreffenden Bauobjekts geometrisch exakt als Drahtmodell fertiggestellt und in das Rohmodell 16 eingefügt.
  • Das Rohmodell 16 wird durch weitere, in der urbanen Szene vorhandene Standardobjekte wie Fahrzeuge, Straßenlaternen, Zäune und dergleichen komplettiert. Hierzu wird in Block 22 ein in der Punktwolke 3 erkanntes Standardobjekt durch Vergleich aus der Datenbank 10 ausgewählt und in Block 23 kalibriert und in das Rohmodell 16 in der vorgegebenen Position eingefügt.
  • Können Objekte – Bauobjekte und/oder Standardobjekte – nicht identifiziert, zugeordnet, auf die beschriebene Weise automatisiert bearbeitet und in das Rohmodell eingefügt werden, kann ein entsprechendes Warnsignal ausgegeben werden, so dass das entsprechende Objekt von Hand in das Rohmodell eingefügt werden kann. Es hat sich in Versuchen gezeigt, dass abhängig von der urbanen Szene lediglich ein sehr geringer Anteil von ca. 2% der Objekte nicht zugeordnet werden kann.
  • Das Rohmodell 16 wird anhand der mit Echtfarbwerten ausgestatteten Einzelbilder 11, 12, 13 texturiert. Das aus diesen gebildete 3D-Modell ist daher insbesondere bezüglich seiner Bauobjekte geometrisch exakt, mit Echtfarbwerten texturiert und kann beliebig skaliert und geneigt werden.
  • Die 2 zeigt ein Ausführungsbeispiel eines Bauobjekts 24 von oben gesehen. 3 zeigt das Bauobjekt 24 in Schrägansicht. Gemäß dem in 1 beschriebenen Ablauf 17 werden beispielsweise anhand eines bekannten Grundrisses oder Bauplans die Horizontalen a, b, c, d, i ermittelt. Durch vollautomatisches Verbinden aller möglichen Punktpaare auf diesen Horizontalen werden unter der Bedingung des konvexen Bauraums die Kanten e, f, g, h sowie das gesamte Volumen des Dachkörpers 25 mittels geometrischer Rechenoperationen bestimmt. Die Kanten e, f, g, h, i müssen nicht in der Punktwolke oder den Bildern erfassbar sein. Sie entstehen rein rechnerisch aus den einzig zu erfassenden horizontalen Kanten beispielsweise einschließlich einer zu einer oberen Spitze degenerierten Sonderform einer horizontalen Kante. Die Höhen h1, h2, h3, h4 werden durch Differenz aus dem Bodenmodell und den an dieser Stelle ermittelten Messwerten der Punktwolke ermittelt, so dass das Volumen des Grundkörpers 27 ermittelt werden kann. Die Dachgaube 26 wird aufgrund ihrer Lage auf der geneigten Dachfläche und anhand der horizontalen Linien j, k erkannt und unter der Bedingung eines konvexen Bauraums aufgerichtet. Durch die analytische Zerlegung des Bauobjekts 24 in mehrere konvexe Bauräume kann ein geometrisch exaktes, kalibrier- und skalierbares Drahtmodell mit entsprechenden Außenflächen erzeugt werden, das anschließend in die dafür vorgesehene Position in das Bodenmodell beziehungsweise ein Rohmodell eingefügt wird.
  • Die 4 und 5 zeigen ein weiteres, gegenüber dem Bauobjekt 24 der 2 und 3 komplexeres Bauobjekt 24a von oben und der Schrägansicht. Die Bildung des Drahtmodells ergibt sich in ähnlicher Herangehensweise wie bei dem Bauobjekt 24, indem das komplexe Bauobjekt 24a in Teilbauobjekte 28, 29, 30 unterteilt und diese dem Bauobjekt 24 entsprechend deren Horizontalen, Ecken und Kanten unter der Bedingung konvexer Bauräume bearbeitet werden, um anschließend ein komplettes Drahtmodell zu erzielen. Das als Turm ausgebildete Teilbauobjekt 30 wird anhand des Kreises k und des Punktes p identifiziert. Die Höhe h5 des zylindrischen Bauraums ergibt sich aus der Punktwolke ermittelten Höheninformationen des Kreises k und dem sich durch die Dachneigung der Dachfläche 33 ermittelten Höhenverlauf. Der Kegel s des Unterbauobjekts 30 ergibt sich allein schon aus dem geometrischen Verhältnis zwischen dem Punkt p und dem Kreis k.
  • Die 6 zeigt ausschnittweise die Punktwolke 3 mit einer in der vorgegebenen Auflösung vorliegenden Anzahl in die Papierebene projizierten Voxeln. Hierbei weist jedes Voxel neben den Koordinaten in der Ebene eine Raumkoordinate auf, so dass in einem dreidimensionalen Feld jeweils ein Messwert zugeordnet ist, der einen Textur- beziehungsweise Farbwert wiedergibt. In dem gezeigten Ausführungsbeispiel sind den schraffierten Bereichen keine eindeutigen Texturinformationen zugewiesen. Die weißen Bereiche zeigen Höhendaten beispielsweise von Bauobjekten, so dass einem spezifischen Datensatz zur Ermittlung von Flächeninformationen, beispielsweise einem Grundriss entsprechende Höhenwerte zugeordnet werden können, die eine dreidimensionale Aufrichtung von Bauräumen erlaubt, deren konvexer Bauraum aus Flächendaten, Höhenlinien und deren geometrischem Zusammenhang aufgespannt wurde. Hierbei wird die Topographie der aus der Punktwolke gewonnenen Höhendaten anhand des dreidimensionalen Bodenmodells korrigiert, so dass die Einsenktiefe des entsprechenden Bauobjekts im Bodenmodell berücksichtigt werden kann.
  • Die 7 zeigt das in dem Bereich der zu verarbeitenden urbanen Szene aufgenommene NIR-Bild 9 mit den verschiedenen dunkel erscheinenden, nur unvollständig gekennzeichneten Vegetationsbereichen 31, 31a, 31b. Anhand des NIR-Bilds 9 wird das Vegetationsmodell für die urbane Szene hergestellt.
  • 8 zeigt den anhand des spezifischen Datensatzes betreffend Höhenlinieninformationen wie beispielsweise anhand eines Grundrisses und anhand der Höheninformationen der Punktwolke erstellten Ausschnitt 32. Ausgehend von den bereits mit einer Höheninformation aus der Punktwolke versehenen Höhenlinien wird, wie aus der 9 ersichtlich anhand der beschriebenen Vorgänge der Auswertung der Höhenlinien unter Berücksichtigung konvexer Bauräume das Rohmodell 16 mit einer großen Anzahl von Bauobjekten erstellt. In 10 wurde das Rohmodell 16 mittels eines der Einzelbilder 11, 12, 13 der 1 in der vorgegebenen Schrägansicht texturiert. Die 11 zeigt das mittels einer ausreichenden Anzahl von Einzelbildern 11, 12, 13 vollständig texturierte, lückenlose und geometrisch im Wesentlichen pixelgenaue 3D-Modell 2. Die Standardobjekte in Form von Kraftfahrzeugen sind an den automatisch erkannten Positionen eingesetzt und weisen eine kalibrierte Standardform entsprechend der Datenbank für Standardobjekte auf, sind jedoch mit den Echtfarbwerten der entsprechenden Einzelbilder eingefärbt.
  • Bezugszeichenliste
  • 1
    Blockdiagramm
    2
    3D-Modell
    3
    Punktwolke
    4
    Bodenmodell
    5
    Datensatz
    6
    Einzelbild
    7
    Einzelbild
    8
    Einzelbild
    9
    NIR-Bild
    10
    Datenbank
    11
    Einzelbild
    12
    Einzelbild
    13
    Einzelbild
    14
    Vegetationsmaske
    15
    Vegetationsmodell
    16
    Rohmodell
    17
    Ablauf
    17a
    Ablauf
    17b
    Ablauf
    17c
    Ablauf
    18
    Block
    19
    Block
    20
    Block
    21
    Block
    22
    Block
    23
    Block
    24
    Bauobjekt
    24a
    Bauobjekt
    25
    Dachkörper
    26
    Dachgaube
    27
    Grundkörper
    28
    Teilbauobjekt
    29
    Teilbauobjekt
    30
    Teilbauobjekt
    31
    Vegetationsbereich
    31a
    Vegetationsbereich
    31b
    Vegetationsbereich
    32
    Ausschnitt
    33
    Dachfläche
    A
    Ecke
    B
    Ecke
    C
    Ecke
    D
    Ecke
    a
    Horizontale
    b
    Horizontale
    c
    Horizontale
    d
    Horizontale
    e
    Kante
    f
    Kante
    g
    Kante
    h
    Kante
    i
    Horizontale
    j
    Horizontale
    k
    Horizontale
    h1
    Höhe
    h2
    Höhe
    h3
    Höhe
    h4
    Höhe
    h5
    Höhe Kante
    i
    Kante
    k
    Kreis
    p
    Punkt
    s
    Kegel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2011/093752 A1 [0006]
  • Zitierte Nicht-Patentliteratur
    • „Accurate and Effcient Stereo Processing by Semi-Global Matching and Mutual Information, H. Hirschmann, Information IEEE Conference an Computer Vision and Pattern Recognition (CVPR), San Diego, CA, USA, June 20–26, 2005 [0007]

Claims (10)

  1. Verfahren zur Komplettierung eines 3D-Modells (2) einer urbanen Szene mit unvollständig abgebildeten artefaktischen Bauobjekten (24, 24a) mittels zumindest einer aus einem dreidimensionalen Raum zugeordneten Messwerten bestehenden Punktwolke (3) und einem dreidimensionalen Bodenmodell (4), dadurch gekennzeichnet, dass zumindest ein Teil der artefaktischen Bauobjekte (24, 24a) vervollständigt wird, indem anhand von Horizontalen (a, b, c, d) der Bauobjekte (24, 24a) und sich an diese unter Anwendung einer Bedingung eines konvexen Bauraums angeschlossener Kanten (e, f, g, h, i) und Schnittpunkte ein Drahtmodell des Bauobjekts (24, 24a) ermittelt wird, welches in das Bodenmodell (4) eingefügt und dessen Flächen anhand von in diese entfallenden Messwerten ergänzt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Horizontalen (a, b, c, d) aus bekannten Konstruktionsdaten eines Bauobjekts ermittelt werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Horizontalen (a, b, c, d) aus Stereobildern einer Stereokamera ermittelt werden.
  4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die Horizontalen (a, b, c, d) aus den Messwerten ermittelt werden.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass ein Bauobjekt (24, 24a) anhand dessen Position in das Bodenmodell (4) eingefügt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass vor einem Einfügen von Bauobjekten (24, 24a) eine Vegetationsmaske (14) mithilfe eines NIR-Bilds (9) eingefügt wird und eine von der Vegetationsmaske (14) belegte Fläche von einer Untersuchung auf Bauobjekte ausgeschlossen wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass nicht zu den Bauobjekten (24, 24a) zählende, artefaktische Standardmodelle als 3D-Modelle bereitgehalten und auf deren tatsächliche Größe in der Szene kalibriert und eingefügt werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass aus verschiedenen Quellen zur Verfügung stehende Daten der urbanen Szene gemeinsam in einem Mehrbildeditor bearbeitet werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die Erfassung der Horizontalen (a, b, c, d), Kanten (e, f, g, h, i) und Schnittpunkte in einer zweidimensionalen Projektion erfolgt.
  10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das 3D-Modell (2) mittels von einer Stereokamera aufgenommenen Stereobildern texturiert wird.
DE201210103373 2012-04-18 2012-04-18 Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen Withdrawn DE102012103373A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210103373 DE102012103373A1 (de) 2012-04-18 2012-04-18 Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210103373 DE102012103373A1 (de) 2012-04-18 2012-04-18 Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen

Publications (1)

Publication Number Publication Date
DE102012103373A1 true DE102012103373A1 (de) 2013-10-24

Family

ID=49290043

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210103373 Withdrawn DE102012103373A1 (de) 2012-04-18 2012-04-18 Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen

Country Status (1)

Country Link
DE (1) DE102012103373A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016111239A1 (de) * 2016-06-20 2017-12-21 Ocean Maps GmbH Verfahren zum Erzeugen von 3D-Daten eines Objekts
WO2017220601A1 (de) 2016-06-20 2017-12-28 Ocean Maps GmbH Abtastvorrichtung zum abtasten vom grund von gewässern und verfahren zum erzeugen von unterwasserkarten
EP3534110A1 (de) * 2018-03-02 2019-09-04 Sick Ag Verfahren und vorrichtung zum ergänzen einer elektronisch nutzbaren repräsentation einer umgebung
CN111192366A (zh) * 2019-12-30 2020-05-22 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011093751A1 (en) * 2010-01-26 2011-08-04 Saab Ab A three dimensional model method based on combination of ground based images and images taken from above
WO2011093752A1 (en) 2010-01-26 2011-08-04 Saab Ab An automated three dimensional mapping method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011093751A1 (en) * 2010-01-26 2011-08-04 Saab Ab A three dimensional model method based on combination of ground based images and images taken from above
WO2011093752A1 (en) 2010-01-26 2011-08-04 Saab Ab An automated three dimensional mapping method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Accurate and Effcient Stereo Processing by Semi-Global Matching and Mutual Information, H. Hirschmann, Information IEEE Conference an Computer Vision and Pattern Recognition (CVPR), San Diego, CA, USA, June 20-26, 2005
Brenner, C.; Haala, N.: Fast Production of Virtual Reality City Models. In: D. Fritsch, M. Englich & M. Sester, eds, 'IAPRS', Vol. 32/4, ISPRS Commission IV Symposium on GIS - Between Visions and Applications, Stuttgart, 1998, Seite 77-84. *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016111239A1 (de) * 2016-06-20 2017-12-21 Ocean Maps GmbH Verfahren zum Erzeugen von 3D-Daten eines Objekts
WO2017220599A2 (de) 2016-06-20 2017-12-28 Ocean Maps GmbH Verfahren zum erzeugen von 3d-daten eines objekts
WO2017220601A1 (de) 2016-06-20 2017-12-28 Ocean Maps GmbH Abtastvorrichtung zum abtasten vom grund von gewässern und verfahren zum erzeugen von unterwasserkarten
US10950041B2 (en) 2016-06-20 2021-03-16 Ocean Maps GmbH Method for generating 3D data relating to an object
EP3534110A1 (de) * 2018-03-02 2019-09-04 Sick Ag Verfahren und vorrichtung zum ergänzen einer elektronisch nutzbaren repräsentation einer umgebung
CN111192366A (zh) * 2019-12-30 2020-05-22 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器
CN111192366B (zh) * 2019-12-30 2023-04-07 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器

Similar Documents

Publication Publication Date Title
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE69726025T2 (de) Verfahren und vorrichtung zum erhalten einer dreidimensionalen form
EP2821750A1 (de) Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
EP2918972A2 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
DE112011105371T5 (de) Vorrichtung zum Synthetisieren von dreidimensionalen Bildern zum Visualisieren der Fahrzeugumgebung und zugehöriges Verfahren
EP3548842B1 (de) Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten
DE102008002241A1 (de) Verfahren und Messsystem zur bildbasierten Vermessung eines Raumes
DE102016124978A1 (de) Virtuelle Repräsentation einer Umgebung eines Kraftfahrzeugs in einem Fahrerassistenzsystem mit mehreren Projektionsflächen
DE102012103373A1 (de) Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen
DE112019004963T5 (de) Optikbasiertes mehrdimensionales Ziel- und Mehrfachobjekterkennungs- und verfolgungsverfahren
DE102015120999A1 (de) Verfahren zur Erzeugung und Darstellung einer computergenerierten, eine Realumgebung abbildenden Simulationsumgebung
DE102011103510A1 (de) Verfahren zum Erstellen einer dreidimensionalen Repräsentation einer Objektanordnung
DE10112732C2 (de) Verfahren zur Bestimmung der Lage von Meßbildern eines Objektes relativ zum Objekt
DE19746639A1 (de) Verfahren zur digitalen Erfassung räumlicher Objekte und Szenen für eine 3D-Bildkarte sowie 3D-Bildkarte
DE102004028736A1 (de) Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
EP3384480A1 (de) Verfahren zur vorbereitenden simulation eines militärischen einsatzes in einem einsatzgebiet
DE202022106630U1 (de) System zur Ermittlung von Baumdurchmessern auf Brusthöhe
WO2013057192A1 (de) Verfahren zur vermessung und visualisierung der räumlichen verhältnisse einer fertigungsstätte
DE112020000751T5 (de) Simulierte perspektivische überkopfbilder mit entfernung von hindernissen
EP3844947A1 (de) Verfahren und anordnung zum erzeugen einer umgebungsrepräsentation eines fahrzeugs und fahrzeug mit einer solchen anordnung
DE102019220364A1 (de) Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung
DE102019220616A1 (de) Verfahren zur simultanen lokalisierung und abbildung
EP2894442A1 (de) Verfahren zur thermischen Erfassung von dreidimensionalen Objekten
Yastikli et al. Automatic digital elevation model generation, problems and restrictions in urban areas

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: EGE & LEE PATENTANWAELTE PARTGMBB, DE

Representative=s name: EGE & LEE PATENTANWAELTE, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141101