WO2012052244A2 - Erfassung und darstellung texturierter drei-dimensionaler geometrien - Google Patents

Erfassung und darstellung texturierter drei-dimensionaler geometrien Download PDF

Info

Publication number
WO2012052244A2
WO2012052244A2 PCT/EP2011/066367 EP2011066367W WO2012052244A2 WO 2012052244 A2 WO2012052244 A2 WO 2012052244A2 EP 2011066367 W EP2011066367 W EP 2011066367W WO 2012052244 A2 WO2012052244 A2 WO 2012052244A2
Authority
WO
WIPO (PCT)
Prior art keywords
camera
model
measuring system
distance
image
Prior art date
Application number
PCT/EP2011/066367
Other languages
English (en)
French (fr)
Other versions
WO2012052244A3 (de
Inventor
Benjamin Visel
Sebastian Jackisch
Alexander Fietz
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2012052244A2 publication Critical patent/WO2012052244A2/de
Publication of WO2012052244A3 publication Critical patent/WO2012052244A3/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design

Definitions

  • the idea of the present invention is based on providing a distance-based three-dimensional space model with image information. This facilitates visualization for the user. Furthermore, a documentation of the object to be measured or a virtual tour of the room is possible.
  • the distance measuring device can be, for example, a non-contact measuring device for distance measurement.
  • the distance measuring device may be a laser, radar, microwave or ultra-wideband rangefinder.
  • the distance measuring device takes on the pivoting about the vertical axis the distance to several points in space in a plane.
  • the points are, for example, on the walls of the room. Neighboring space points lying in a plane are virtually linked to a line.
  • the connected points form a model element of the spatial model. If all points of a plane are connected, a profile section of the space is created. Simultaneously with the distances to the individual points, an angular position of the distance measuring device can be detected.
  • the measuring system has a drive device.
  • the control device can for example be wirelessly connected via infrared, Bluetooth and / or wireless LAN or be arranged directly on the camera.
  • the driving device triggers the camera in predefined angular positions.
  • the predefined angular positions may be user-defined angular positions, such as every 15 °, 10 °, 5 °, or 3 °, for example.
  • the predefined angular positions may be calculated automatically based on the three-dimensional space model from the distance data set.
  • a method for acquiring and displaying texturized three-dimensional space geometries with a measurement system as described above comprises the steps of: taking a distance data set by means of the distance measuring device; Taking pictures using the camera; Reconstruct the three-dimensional space model; Texturing the three-dimensional space model with the images.
  • the method may further comprise the step of positioning the measurement system in a space to be measured.
  • FIG. 1 shows a perspective view of the measuring system in the space to be measured according to an exemplary embodiment of the invention
  • a three-dimensional space model 1 1 also referred to as a wire-frame model can be generated.
  • the measuring system can be arranged to generate profile sections 13 at different heights, for example, on a stand 43 and thus be adjustable in height.
  • the camera Before using the measuring system 1 for the first time, the camera can be calibrated in a one-time calibration procedure with regard to recording properties.
  • the projective properties of the camera 9 can be determined in the form of a set of parameters.
  • further image recordings 35 can be equalized so that captured objects in the recordings are exactly reproduced in accordance with the rules of the central projection, for example subpixels.
  • individual image pixels can be projected with corresponding accuracy onto the associated object surfaces.
  • a calibration can be carried out with respect to the orientation of the camera 9 permanently installed on the distance measuring device 3.
  • 35 image areas can be determined in the selected image recordings, in which the corresponding model element 29 is depicted. Since the orientation between the pickup position 27 and the model element 29 is known, puncture points of the beams from the projection center of the camera 9 to the element boundaries can be determined by the image plane (central projection). After the image areas which represent the model elements 29 are known, the Texture information from the images on the three-dimensional space model 1 1 are transmitted. For example, in contrast to the selection of the image regions, the puncture points of the projection rays of all pixels contained in the image region can be determined on the associated model element 29. Thus, for example, at the level of the model element 29, a high-resolution point cloud can result, which is deposited with texture information and can be visualized accordingly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Es wird ein Messsystem (1) und ein entsprechendes Verfahren zur Erfassung von texturierten drei-dimensionalen Raumgeometrien vorgestellt. Das Messsystem (1) weist ein Abstandsmessgerät (3) auf, welches um eine vertikale Achse (5) und um eine horizontale Achse (7) schwenkbar gelagert ist. Das Abstandsmessgerät (3) ist ausgestaltet, einen Abstandsdatensatz für die Rekonstruktion eines drei-dimensionalen Raummodells (11) zu generieren. Das Messsystem (1) weist ferner eine Kamera (9) auf, die auf einem schwenkbaren Teil des Abstandsmessgeräts (3) installiert ist. Dabei ist die Kamera (9) ausgestaltet, Bildaufnahmen (35) zu generieren, mit denen das dreidimensionale Raummodell (11) texturierbar ist.

Description

Beschreibung
Erfassung und Darstellung texturierter drei-dimensionaler Geometrien
Stand der Technik
Drei-dimensionale Vermessungen von Räumen sind von großem Interesse z.B. für Handwerker und Architekten, um möglichst schnell einen„Ist-Zustand" von Räumen zu erfassen und beispielsweise anstehende Arbeiten planen zu können.
Zur Vermessung eines Raumes können Einzelansichten, z.B. Fotos, des Raumes aufgenommen werden, aus denen eine drei-dimensionale Rekonstruktion des Raumes erzeugt werden kann. Diese Vorgehensweise könnte jedoch enormen Rechenaufwand erfordern und daher Zeit- und Kosten-intensiv sein.
Ferner kann ein Raum mit Hilfe von Abstandsmessungen vermessen werden. Die aus derartigen Messungen rekonstruierten Raummodelle beinhalten jedoch lediglich wenig visuelle Information. Offenbarung der Erfindung
Es kann daher ein Bedarf an einem verbesserten Messystem und einem Verfahren bestehen, welche eine anschauliche drei-dimensionale Rekonstruktion eines Raumes ermöglichen.
Diese Aufgabe kann durch den Gegenstand der vorliegenden Erfindung gemäß den unabhängigen Ansprüchen gelöst werden. Vorteilhafte Ausführungsformen der vorliegenden Erfindung sind in den abhängigen Ansprüchen beschrieben.
Im Folgenden werden Merkmale, Einzelheiten und mögliche Vorteile einer Vorrichtung gemäß Ausführungsformen der Erfindung im Detail diskutiert. Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Messsystem zur Erfassung von texturierten drei-dimensionalen Raumgeometrien beschrieben. Das Messsystem weist ein Abstandsmessgerät auf, welches um eine vertikale und/oder um eine horizontale Achse schwenkbar gelagert ist. Das Abstandsmessgerät ist ausgestaltet, einen Abstandsdatensatz aufzunehmen bzw. zu erzeugen, aus dem ein dreidimensionales Raummodell erstellt wird. Ferner weist das Messsystem eine Kamera auf, die auf dem schwenkbaren Teil des Abstandsmessgeräts fest installiert ist. Die Kamera ist dabei ausgestaltet, Bildaufnahmen zu generieren bzw. bereitzustellen, mit denen das drei-dimensionale Raummodell texturierbar ist.
Anders ausgedrückt basiert die Idee der vorliegenden Erfindung darauf, ein auf Abstandsmessungen basierendes drei-dimensionales Raummodell mit Bildinformationen zu versehen. Dadurch wird eine Visualisierung für den Benutzer erleichtert. Ferner ist eine Dokumentation des zu vermessenden Objektes bzw. ein virtueller Rundgang durch den Raum ermöglicht.
Das Abstandsmessgerät kann beispielsweise ein berührungsfreies Messgerät zur Abstandsmessung sein. Beispielsweise kann das Abstandsmessgerät ein Laser-, Radar-, Mikrowellen- oder Ultra-Breitband-Entfernungsmesser sein.
Das Abstandsmessgerät ist um eine vertikale Achse schwenkbar gelagert. Die vertikale Achse kann eine Hochachse beispielsweise eine zum Boden des Raumes oder zur unteren Fläche des Gehäuses des Abstandsmessgerätes senkrechte Achse sein. Die ho- rizontale Achse kann eine zum Boden des Raumes bzw. zur Unterseite des Gerätgehäuses parallele Achse sein. Die horizontale Achse kann senkrecht auf der vertikalen Achse stehen. Zusätzlich kann das Abstandsmessgerät höhenverstellbar ausgestaltet sein. Die schwenkbare Lagerung um eine horizontale Achse dient einer Abstandsmessung zwischen dem Gerät und einer Boden- und/oder einer Deckenebene. Mittels tri- gonometrischer Funktionen kann eine Höhe des Abstandsmessgeräts und/oder die
Winkellage des Messgeräts in Bezug auf die Boden- bzw. Deckenebene ermittelt werden.
Die schwenkbare Lagerung des Abstandsmessgeräts um eine horizontale Achse kam ein Schwenken des gesamten Abstandsmessgeräts umfassen. Alternativ kann sie le- diglich ein Schwenken des Messstrahls des Abstandsmessgeräts umfassen. Beispielsweise kann ein Ablenkspiegel an dem Abstandsmessgerät vorgesehen sein, der in den Messstrahl des Abstandsmessgeräts beispielsweise elektrisch gefahren werden kann, so dass eine Boden- bzw. Deckenebene des Raumes erfasst werden kann.
Das Abstandsmessgerät nimmt bei der Schwenkung um die vertikale Achse den Abstand zu mehreren Punkten im Raum in einer Ebene auf. Die Punkte liegen dabei beispielsweise auf den Wänden des Raumes. Benachbarte Raumpunkte, die in einer Ebene liegen, werden virtuell mit einer Linie verbunden. Die verbundenen Punkte bil- den ein Modellelement des Raummodells. Sind alle Punkte einer Ebene miteinander verbunden, so entsteht ein Profilschnitt des Raumes. Gleichzeitig mit den Abständen zu den einzelnen Punkten kann eine Winkelposition des Abstandsmessgeräts erfasst werden.
Durch zusätzliche Messung des Abstands zu der Boden- und/oder Deckenebene kann der Raum rekonstruiert werden. Beispielsweise können die Wände als senkrecht zur Bodenebene angenommen werden und der errechnete Profilschnitt bis zur Boden- und Deckenebene extrapoliert werden. Ein solches Raummodell kann als 2,5- dimensionales bzw. pseudodrei-dimensionales Raummodell bezeichnet werden. Alternativ kann ein solches Raummodell, durch Nutzung von Bildinformationen aus den Bildaufnahmen der Kamera zur Bestimmung der Raumhöhe bzw. Raumhöhen erzeugt werden. In Innenraumumgebungen können senkrechte Wände dominieren, die im 90° Winkel durch die Decken- und Bodenebene abgegrenzt werden. Mit Bildverarbeitungsverfahren zur Extraktion von Bildkanten, lassen sich horizontale und vertikale Wandabgrenzungen ermitteln. Durch eine Verknüpfung der Bilddaten mit den Distanzmessungen lassen sich somit die räumliche Lage der Kanten bzw. der Wände ermitteln. Bei dieser Vorgehensweise kann auf Distanzmessungen zur Decken- und Bodenebene verzichtet werden. Alternativ können Profilschnitte des Raumes in unterschiedlichen Höhen mittels Höhenverstellung des Abstandsmessgeräts aufgenommen werden. Das Raummodell wird umso genauer, je mehr Messpunkte erfasst werden. Bei mehreren berechneten Profilschnitten kann ein drei-dimensionales Raummodell erstellt werden. Das Abstandsmessgerät kann beispielsweise als ein Ebenenscanner, insbesondere ein Laserscan- ner ausgestaltet sein. Auf dem schwenkbaren bzw. rotierenden Teil des Abstandsmessgeräts, beispielsweise auf dem Gehäuse, ist eine Kamera installiert. Die Kamera kann fest mit dem Gehäuse bzw. mit dem Abstandsmessgerät verbunden sein, so dass die Orientierung der Kame- ra bzw. der Aufnahmen der Kamera in Bezug auf das Abstandsmessgerät definiert ist.
Beispielsweise kann die Orientierung der Kamera in Bezug auf das Abstandsmessgerät durch eine einmalige Kalibrierung vor der ersten Benutzung festgestellt und bei der Auswertung berücksichtigt werden. Die Kamera kann beispielsweise digitale Bilder erzeugen, die zur automatischen Textu- rierung des drei-dimensionalen Raummodells verwendet werden.
Die Texturierung kann das Erscheinungsbild des drei-dimensionalen Modells, was zunächst als Wire-Frame-Modell erstellt wird, verändern und detailreicher machen, wobei jedoch die Geometrie des Modells nicht verändert wird. Das Raummodel wird durch die Texturierung mit Bildinformationen versehen. Z.B. kann Texturieren das Ummanteln der Raummodeloberflächen mit Bildaufnahmen oder das Projizieren der Bildaufnahmen auf die Modeloberflächen. Die Projektion kann hierbei als Zentralprojektion (im Gegensatz zur perspektivischen Projektion) vorgenommen werden.
Es gibt unterschiedliche Möglichkeiten, die Bilddaten für die Texturierung zu erzeugen: Beispielsweise können vor, während oder nach einem Raumscan mittels des Abstandsmessgeräts zufällige Bildaufnahmen oder Bildaufnahmen in einem vorbestimmten Winkelabstand mit Hilfe der Kamera aufgenommen werden. Anschließend werden bei oder nach der Erstellung des drei-dimensionalen Raummodells geeignete Bilder, die beispielsweise senkrecht zu den einzelnen Modellelementen aufgenommen sind, ausgewählt. Alternativ kann zunächst ein Abstandsscan durchgeführt werden und anschließend eine Rekonstruktion des drei-dimensionalen Raummodells durchgeführt werden. Daraus können geeignete Aufnahmepositionen für die Bildaufnahmen der Kamera bestimmt werden. Anhand der bestimmten Positionen werden anschließend Kamerabilder aufgenommen und mit dem drei-dimensionalen Raummodell verknüpft.
Gemäß einem Ausführungsbeispiel der Erfindung weist das Messsystem eine Orientie- rungsbestimmungsvorrichtung auf. Die Orientierungsbestimmungsvorrichtung kann beispielweise eine Winkelerfassungseinheit sein. Die Orientierungsbestimmungsvor- richtung ist ausgestaltet, eine Orientierung der Bilder in Bezug auf den Abstandsdatensatz zu bestimmen. Dank der Befestigung der Kamera auf dem Abstandsmessgerät ist die Orientierung zwischen der Kamera und dem Abstandsmessgerät bekannt. Daher kann es ausreichen, für jede Bildaufnahme eine X- und Y-Koordinate des Geräte- Standorts im drei-dimensionalen Raummodell, die jeweilige Gerätehöhe Z sowie den entsprechenden Richtungswinkeln (φ) zu erfassen und gegebenenfalls zu speichern, um die Orientierung (X, Y, Z, ω, φ, κ) im Koordinatensystem des drei-dimensionalen Raummodells zu bestimmen. Hierzu können die Orientierungsdaten durch die Orientie- rungsbestimmungsvorrichtung erfasst und gegebenenfalls gespeichert werden. Diese Daten (X, Y, Z, φ) können zu jeder einzelnen Bildaufnahme erfasst werden.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Messsystem eine Ansteuerungsvorrichtung auf. Die Ansteuerungsvorrichtung kann beispielsweise drahtlos über Infrarot, Bluetooth und/oder Wireless LAN verbunden sein oder direkt an der Kamera angeordnet sein. Die Ansteuerungsvorrichtung löst die Kamera in vordefinierten Winkelpositionen aus. Die vordefinierten Winkelpositionen können beispielsweise vom Benutzer vordefinierte Winkelpositionen wie zum Beispiel jeweils alle 15°, 10°, 5° oder 3° sein. Alternativ können die vordefinierten Winkelpositionen automatisch basierend auf dem drei-dimensionalen Raummodell aus dem Abstandsdatensatz berechnet werden.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Messsystem eine Bildauswahlvorrichtung auf, die ausgestaltet ist, automatisch zu einem Modellelement des drei-dimensionalen Raummodells eine korrespondierende Aufnahme aus dem Bilddatensatz auszuwählen. Automatisch kann dabei bedeuten, dass die Auswahl ohne die Notwendigkeit eines Zutuns eines Benutzers geschieht.
Die Bildauswahlvorrichtung kann beispielsweise drahtlos mit dem System verbunden sein. Der Abstandsdatensatz und die Bildnahmen können beispielsweise mit Hilfe einer Schnittstelle an die Bildauswahlvorrichtung übertragen werden. Aus den Abstandsmessungen kann bekannt sein, welche Modellelemente von welchen Messsystempositionen aus sichtbar sind. Die Aufnahme wird also aus der Menge der Aufnahmen, die von diesen Messpositionen aus gemacht wurden, ausgewählt. Vorzugsweise werden Aufnahmen aus dem Bilddatensatz ausgewählt, die das entsprechende Modellelement vollständig abbilden. Dabei kann für jede Messposition des Abstandsmessgeräts aufgrund der bekannten Orientierung der Kamera überprüft werden, in welchen Aufnahmen das Modellelement vollständig abgebildet ist. Eine korrespondierende Aufnahme bildet also vorzugsweise ein komplettes Modellelement ab, und ist beispielsweise fer- ner senkrecht zum Modellelement aufgenommen. Anders ausgedrückt können also die
Bildaufnahmen der Kamera mit den Abstandsmessungen synchronisiert sein.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Messsystem eine Schnittstelle auf, die den Abstandsdatensatz und die Bildaufnahme an eine Datenver- arbeitungsvorrichtung übertragen kann. Die Schnittstelle kann beispielsweise die Datensätze an eine Computereinheit bzw. an ein Anzeigegerät beispielsweise drahtlos weiterleiten.
Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren zur Erfassung und Darstellung von textu erten drei-dimensionalen Raumgeometrien mit einem oben dargestellten Messsystem beschrieben. Das Verfahren weist die folgenden Schritte auf: Aufnehmen eines Abstandsdatensatzes mittels des Abstandsmessgeräts; Aufnehmen von Bildaufnahmen mittels der Kamera; Rekonstruieren des dreidimensionalen Raummodells; Texturieren des drei-dimensionalen Raummodells mit den Bildaufnahmen. Das Verfahren kann ferner den Schritt des Positionierens des Messsystems in einem zu vermessenden Raum umfassen.
Gemäß einem Ausführungsbeispiel der Erfindung weist das Verfahren den folgenden Schritt auf: Auswählen von geeigneten Bildaufnahmen für die Texturierung des dreidimensionalen Raummodells. Dabei weist das drei-dimensionale Raummodell Modellelemente auf. Die Modellelemente können beispielsweise Punktwolken, Linien oder Segmente des drei-dimensionalen Raummodells sein. Vorzugsweise sind die Modellelemente Linien eines Profilschnittes. Die geeigneten Bildaufnahmen bilden ein Modellelement vollständig ab und/oder sind in einem senkrechten Winkel zum Modellelement aufgenommen.
Gemäß einem dritten Aspekt der Erfindung wird ein Computerprogrammelement beschrieben, das ausgestaltet ist, das oben beschriebene Verfahren auszuführen, wenn es auf einem Prozessor ausgeführt wird. Gemäß einem vierten Aspekt der vorliegenden Erfindung wird ein computerlesbares Medium beschrieben, in dem das oben dargestellte Programmelement gespeichert ist.
Weitere Merkmale und Vorteile der vorliegenden Erfindung werden dem Fach- mann aus der nachfolgenden Beschreibung beispielhafter Ausführungsformen, die jedoch nicht als die Erfindung beschränkend auszulegen sind, unter Bezugnahme auf die beigelegten Zeichnungen ersichtlich.
Fig. 1 zeigt eine perspektivische Ansicht des Messsystems im zu vermessen- den Raum gemäß einem Ausführungsbeispiel der Erfindung
Fig. 2 zeigt einen Ausschnitt eines Profilschnittes des Raumes mit unterschiedlichen Positionen des Messsystems gemäß einem Ausführungsbeispiel der Erfindung
Fig. 3 zeigt Bildaufnahmeorientierungen aus einer Position des Messsystems
gemäß einem Ausführungsbeispiel der Erfindung
Fig. 4 zeigt eine Bestimmung von Bildbereichen, in denen ein Modellelement
abgebildet ist gemäß einem Ausführungsbeispiel der Erfindung
Fig. 5 zeigt einen Profilschnitt durch einen Raum gemäß einem Ausführungsbeispiel der Erfindung Fig. 6 zeigt ein drei-dimensionales Raummodell gemäß einem Ausführungsbeispiel der Erfindung
Fig. 7 zeigt eine perspektivische Ansicht eines texturierten drei-dimensionalen
Raummodells gemäß einem Ausführungsbeispiel der Erfindung
Fig. 8 zeigt eine weitere perspektivische Ansicht des texturierten dreidimensionalen Raummodells gemäß einem Ausführungsbeispiel der Erfindung Alle Figuren sind lediglich schematische Darstellungen erfindungsgemäßer Vorrichtungen bzw. ihrer Bestandteile und der entsprechenden Verfahrensschritte. Insbesondere Abstände und Größenrelationen sind in den Figuren nicht maßstabsgetreu wiedergegeben. In den verschiedenen Figuren sind sich entsprechende Elemente mit den gleichen Referenznummern versehen. In Fig. 1 ist eine perspektivische Ansicht des Messsystems sowie des zu vermessenden Raums dargestellt. Der Raum weist eine Deckenebene 15, eine Bodenebene 17 und Wände 19 auf. Das Messsystem 1 wird im Raum möglichst so positioniert, dass auf der Messebene vom Gerät aus alle Raumbegrenzungen sichtbar sind. Durch Schwenken bzw. Rotieren um eine vertikale Achse 5 vermisst das Abstandsmessgerät 3 den Abstand zu den Raumbegrenzungen und generiert einen Abstandsdatensatz, der beispielsweise aus Punkten besteht. Aus den Punkten werden einzelne Modellelemente 29, wie beispielsweise in Fig. 2 gezeigt, berechnet. Aus den Modellelementen 29 kann ein Profilschnitt bzw. Raumschnitt 13 berechnet werden. Ferner werden mittels des Abstandsmessgeräts 3 Messpunkte auf einem Kreisausschnitt z.B. in der Decken- bzw. Bodenebene gemessen. Daraus kann der Abstand 21 zur Deckenebene 15 und der Abstand 23 zur Bodenebene 17 ermittelt werden. Ferner kann daraus die Orientierung der Decken- bzw. Bodenebene und die Orientierung des Messgeräts zur Decken- bzw. Bodenebene ermittelt werden. Dies geschieht durch Schwenken des Abstandsmessgeräts um die horizontale Achse 7. Durch Generieren weiterer Profilschnitte 13 oder durch Extrapolation eines Profilschnitts in Richtung Decken- und Bodenebene 15, 17 kann ein drei-dimensionales Raummodell 1 1 auch als Wire-Frame-Modell bezeichnet erzeugt werden. Das Messsystem kann zum Generieren von Profilschnitten 13 in unterschiedlichen Höhen beispielsweise auf einem Stativ 43 angeordnet und damit höhenverstellbar sein.
Die am schwenkbaren Teil des Gehäuses des Messsystems 1 und insbesondere des Abstandsmessgeräts 3 angeordnete Kamera 9 nimmt beispielsweise bei einer weiteren Rotation bzw. Umdrehung des Abstandsmessgeräts 3, beispielsweise in einem vordefinierten Winkelintervall, Bildaufnahmen (auch als Kameraaufnahmen bezeichnet) auf. Die Kamera 9 ist dabei fest auf dem schwenkbaren Teil des Geräts montiert und bezüglich ihrer Orientierung zum Abstandsmessgerät 3 kalibriert. Nach der Messung des Abstandsdatensatzes und der Bildaufnahmen bzw. Bildaufnahmen 35 werden die für die Texturierung 45 günstigsten Bilder ermittelt und die Wandflächen im Wire Frame- Modell mit ihnen texturiert. Anschließend kann ein solcher Datensatz in unterschiedlichen Formaten exportiert werden. Im Drawing Interchange-Format (DXF) für den Fall, dass reine Geometrie-Informationen benötigt werden und/oder in einem Virtual Reality Modelling Language-Format (VRML), falls texturierte Geometrie-Informationen benötigt werden.
Das Messsystem 1 weist ferner eine Orientierungsbestimmungsvorrichtung 25 auf. Die Orientierungsbestimmungsvorrichtung 25 kann beispielsweise die Position und Orientierung des Abstandsmessgeräts 3 bzw. der damit fest verbundenen Kamera 9 und somit auch der Bildaufnahmen 35 ermitteln.
Als Verfahren zur Orientierungsbestimmung kann hier z.B. Scanmatching eingesetzt werden, welches auf den Daten des Abstandmessgeräts basiert. Das Scanmatching kann bei kleinen Positionsänderungen besser funktionieren als bei großen. Somit können bei einer Orientierungsbestimmung basierend auf Daten des Abstandmessgeräts die Bilddaten der Kamera zusätzlich genutzt werden, um einen Positionsbestimmung der Vorrichtung im Raum durchzuführen. Beispielsweise kann hierzu ein Algorithmus zur Bilderkennung wie SIFT (Scale-invariant feature transform) verwendet werden.
Vor der erstmaligen Benutzung des Messsystems 1 kann die Kamera in einem einma- ligen Kalibriervorgang in Bezug auf Aufnahmeeigenschaften kalibriert werden. Hierzu können beispielsweise die projektiven Eigenschaften der Kamera 9 in Form eines Satzes an Parametern ermittelt werden. Anhand des Parametersatzes lassen sich weitere Bildaufnahmen 35 entzerren, so dass erfasste Objekte in den Aufnahmen entsprechend den Regeln der Zentralprojektion beispielsweise Subpixel genau abgebildet werden. Ferner lassen sich bei bekannter Orientierung der Kamera 9 einzelne Bildpixel mit entsprechender Genauigkeit auf die zugehörigen Objektoberflächen projizieren. Ferner kann in einem separaten Kalibriervorgang vor der erstmaligen Benutzung des Messsystems 1 eine Kalibrierung in Bezug auf die Orientierung der an dem Abstands- messgerät 3 fest installierten Kamera 9 vorgenommen werden.
Die Kamera 9 ist fest mit dem Abstandsmessgerät 3 verbunden, die relative Orientierung zum Abstandsmessgerät ist bekannt und das Messsystem 1 kann horizontiert sein. Somit kann es ausreichend sein, für jede Aufnahme die X- und Y-Koordinate des Gerätestandorts im drei-dimensionalen Raummodell 1 1 , die jeweilige Gerätehöhe Z, sowie den entsprechenden Richtungswinkel φ zu speichern, um die drei-dimensionale Orientierung (X, Y, Z, ω, φ, κ) im Koordinatensystem des drei-dimensionalen Raummodells 1 1 zu bestimmen.
In Fig. 2B ist ein Ausschnitt eines Profilschnittes 13 des Raumes mit unterschiedlichen Positionen des Messsystems 1 dargestellt. In Fig. 2A sind die einzelnen Elemente des
Profilschnitts 13 dargestellt. Für die Berechnung eines drei-dimensionalen Raummodells 1 1 eines verwinkelten Raumes wie beispielsweise in Fig. 6 dargestellt, sind unterschiedliche Positionen 27, 27' und 27" des Messsystems 1 im Raum notwendig. Dabei werden aus jeder einzelnen Position 27, 27' und 27" Abstandsmessungen in jede Raumrichtung durchgeführt. Während einer Scannermessung kann verfolgt werden, welche Raumbereiche die Messstrahlen des Abstandsmessgeräts 3 durchstreichen. Daraus kann ermittelt werden, welche Modellelemente 29 von welchen Gerätepositionen 27, 27', 27" aus sichtbar sind. Die Sichtverbindungen sind mit dem Bezugszeichen 31 kenntlich gemacht. Somit kann eine geeignete Bildaufnahme 35 aus der Menge der Aufnahmen, die von diesen Messpositionen aus gemacht wurden, gewählt werden. Es kann vorteilhaft sein, eine Aufnahme 35 auszuwählen, die senkrecht zu dem Modellelement 29 aufgenommen wurde. Dies ist durch den normalen Vektor 33 auf das Modellelement 29 verdeutlicht. Für jede Messposition kann aufgrund der bekannten Orientierung der Aufnahmen 35 überprüft werden, ob und in welchen Aufnahmen ein Modellelement 29 vollständig abgebildet ist. Wie in Fig. 3 dargestellt, kann die Texturierung 45 auch unter Verwendung mehrerer Aufnahmen erfolgen, falls das Modellelement 29 in keiner Aufnahme vollständig erfasst ist. Dazu werden Aufnahmen ausgewählt, die jeweils Teile des Modell- elements 29 abbilden. Fig. 3 zeigt Bildaufnahmen 35 aus der Position 27 des Messsystems 1 . Dabei ist in Fig. 3 das Modellelement 29 in der Bildaufnahme 35' komplett enthalten. Die Bildaufnahmen 35 können sich teilweise überlappen.
Nach der in Fig. 3 gezeigten Auswahl von geeigneten Bildaufnahmen 35 können, wie in Fig. 4 dargestellt, in den ausgewählten Bildaufnahmen 35 Bildbereiche bestimmt werden, in denen das entsprechende Modellelement 29 abgebildet ist. Da die Orientierung zwischen der Aufnahmeposition 27 und dem Modellelement 29 bekannt ist, können Durchstoßpunkte der Strahlen vom Projektionszentrum der Kamera 9 zu den Elementbegrenzungen durch die Bildebene bestimmt werden (Zentralprojektion). Nach- dem die Bildbereiche, die die Modellelemente 29 darstellen, bekannt sind, können die- se Texturinformationen aus den Bildern auf das drei-dimensionale Raummodell 1 1 übertragen werden. Beispielsweise lassen sich gegenläufig zur Auswahl der Bildbereiche die Durchstoßpunkte der Projektionsstrahlen aller im Bildbereich enthaltenen Pixel auf das zugehörige Modellelement 29 bestimmen. Damit kann sich zum Beispiel auf der Ebene des Modellelements 29 eine hochaufgelöste Punktwolke ergeben, die mit Texturinformationen hinterlegt ist und entsprechend visualisiert werden kann.
In Fig. 4 ist die Projektion 41 des Modellelements 29 auf die Bildebene 39 der inneren Kamerageometrie 37 dargestellt.
Die Kamera 9 kann so positioniert sein, dass die längere Bildseite vertikal angeordnet ist. Damit kann die Anzahl der horizontal angeordneten Aufnahmen flexibel variiert werden. Dies könnte vorteilhaft sein, da eine Vergrößerung des vertikalen Sichtbereichs sich nur durch Verkippung bzw. Entfernen vom Objekt erreichen lässt.
Ferner kann es vorteilhaft sein, im Anschluss an die Generierung eines dreidimensionalen Raummodells 1 1 anhand der Position der ermittelten Modellelemente 29 diejenigen Bildaufnahmen 35 auszuwählen, die unter einem Winkel von 90° zum Modellelement 29 aufgenommen wurden.
In Fig. 5 ist ein Profilschnitt 13 durch einen Raum dargestellt. In Fig. 6 ist ein dreidimensionales Raummodell 1 1 eines anderen Raums gezeigt. Das Modell wurde anhand des Profilschnitts 13 sowie der Abstandsmessungen 21 , 23 zur Decken- und Bodenebene 15, 17 erstellt. Das Modell ist als Wire Frame-Modell ohne Texturierung dargestellt.
In Fig. 7 und Fig. 8 sind perspektivische Ansichten des in Fig. 6 gezeigten dreidimensionalen Raummodells 1 1 mit Texturierung 45 dargestellt. Die einzelnen textu- rierten Modellelemente 29 können mittels geeigneter Maßnahmen, wie zum Beispiel Blending-Algorithmen, bezüglich der Helligkeit so angepasst werden, dass an den Übergangsstellen der Texturierung 45 aus einer Bildaufnahme 35 zur anderen die Übergänge gleichmäßig sind. Die mit Hilfe des Messsystems 1 erzeugten drei-dimensionalen Raummodelle 1 1 ohne Texturierung 45 können weiter ausgewertet werden, so dass durch Verarbeitung der Bilder mit Methoden der Bildverarbeitung Objekte wie beispielsweise Türen, Fenster und Öffnungen klassifiziert und dem Modell zugewiesen werden können.
Abschließend wird angemerkt, dass Ausdrücke wie„aufweisend" oder ähnliche nicht ausschließen sollen, dass weitere Elemente oder Schritte vorgesehen sein können. Des Weiteren sei darauf hingewiesen, dass„eine" oder„ein" keine Vielzahl ausschließen. Außerdem können in Verbindung mit den verschiedenen Ausführungsformen beschriebene Merkmale beliebig miteinander kombiniert werden. Es wird ferner angemerkt, dass die Bezugszeichen in den Ansprüchen nicht als den Umfang der Ansprüche beschränkend ausgelegt werden sollen.

Claims

Messsystem (1 ) zur Erfassung von textu erten drei-dimensionalen Raumgeometrien, das Messsystem (1 ) aufweisend
ein Abstandsmessgerät (3);
wobei das Abstandsmessgerät (3) um eine vertikale Achse (5) und/oder um eine horizontale Achse (7) schwenkbar gelagert ist;
wobei das Abstandsmessgerät (3) ausgestaltet ist, einen Abstandsdatensatz für die Rekonstruktion eines drei-dimensionalen Raummodells (1 1 ) zu generieren;
dadurch gekennzeichnet, dass
das Messsystem (1 ) ferner eine Kamera (9) aufweist;
wobei die Kamera (9) auf einem schwenkbaren Teil des Abstandsmessge- räts (3) installiert ist;
wobei die Kamera (9) ausgestaltet ist, Bildaufnahmen (35) zu generieren, mit denen das drei-dimensionale Raummodell (1 1 ) texturierbar ist.
Messsystem (1 ) gemäß Anspruch 1 , ferner aufweisend
eine Orientierung-Bestimmungsvorrichtung (25);
wobei die Orientierung-Bestimmungsvorrichtung (25) ausgestaltet ist, eine Orientierung der Bildaufnahmen (35) in Bezug auf den Abstandsdatensatz zu bestimmen.
Messsystem (1 ) gemäß Anspruch 2,
wobei die Orientierung-Bestimmungsvorrichtung (25) ausgestaltet ist, einen Standort (x, y) der Kamera (9), die Höhe (z) der Kamera (9) über einem Boden (17) und einen Richtungswinkel (cp) der Kamera (9) zu den Bildaufnahmen (35) zu erfassen.
Messsystem (1 ) gemäß einem der Ansprüche 1 bis 3, ferner aufweisend eine Ansteuerungsvorrichtung, die mit der Kamera (9) verbunden ist; wobei die Ansteuerungsvorrichtung ausgestaltet ist, die Kamera (9) in vordefinierten Winkelpositionen auszulösen.
Messsystem (1 ) gemäß einem der Ansprüche 1 bis 4, ferner aufweisend eine Bildauswahl-Vorrichtung, die ausgestaltet ist zu einem Modellelement (29) des drei-dimensionalen Raummodels (1 1 ) eine korrespondierende Bildaufnahme (35') aus den Bildaufnahmen (35) auszuwählen.
Messsystem (1 ) gemäß einem der Ansprüche 1 bis 5, ferner aufweisend eine Schnittstelle;
wobei die Schnittstelle ausgestaltet ist, den Abstandsdatensatz und die Bildaufnahmen (35) an eine Datenverarbeitungsvorrichtung zu übermitteln.
Verfahren zur Erfassung und Darstellung von texturierten drei-dimensionalen Raumgeometrien mit einem Messsystem (1 ) gemäß einem der Ansprüche 1 bis 6, das Verfahren aufweisend die folgenden Schritte:
Aufnehmen eines Abstandsdatensatzes mittels des Abstandsmessgeräts (3); dadurch gekennzeichnet, dass die folgenden Schritte ausgeführt werden Aufnehmen von Bildaufnahmen (35) mittels der Kamera (9);
Rekonstruieren des drei-dimensionalen Raummodells (1 1 );
Texturieren des drei-dimensionalen Raummodells (1 1 ) mit den Bildaufnahmen (35).
Verfahren gemäß Anspruch 7, ferner aufweisend die folgenden Schritte Auswählen von geeigneten Bildaufnahmen (35') für die Texturierung (45) des drei-dimensionalen Raummodells (1 1 );
wobei das drei-dimensionale Raummodell (1 1 ) Modellelemente (29) aufweist;
wobei die geeigneten Bildaufnahmen (35') ein Modellelement (29) vollständig abbilden und/oder in einem senkrechten Winkel zum Modellelement (29) aufgenommen sind.
Computerprogrammelement,
wobei das Computerprogrammelement ausgestaltet ist, das Verfahren gemäß einem der Ansprüche 7 bis 8 auszuführen, wenn es auf einem Prozessor ausgeführt wird.
10. Computerlesbares Medium,
wobei auf dem Medium das Programmelement gemäß Anspruch 9 gespeichert ist.
PCT/EP2011/066367 2010-10-21 2011-09-21 Erfassung und darstellung texturierter drei-dimensionaler geometrien WO2012052244A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE201010042733 DE102010042733A1 (de) 2010-10-21 2010-10-21 Erfassung und Darstellung texturierter drei-dimensionaler Geometrien
DE102010042733.0 2010-10-21

Publications (2)

Publication Number Publication Date
WO2012052244A2 true WO2012052244A2 (de) 2012-04-26
WO2012052244A3 WO2012052244A3 (de) 2013-04-11

Family

ID=44789433

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/066367 WO2012052244A2 (de) 2010-10-21 2011-09-21 Erfassung und darstellung texturierter drei-dimensionaler geometrien

Country Status (2)

Country Link
DE (1) DE102010042733A1 (de)
WO (1) WO2012052244A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945845A (zh) * 2019-02-02 2019-06-28 南京林业大学 一种私家园林空间数字化测绘和三维可视化方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2918972B1 (de) * 2014-03-14 2019-10-09 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
DE102014011649A1 (de) * 2014-08-11 2016-02-11 Marco Deckelmann Vorrichtung zum Auslegen eines vorbestimmten Bereichs und Verfahren zum Auslegen eines vorbestimmten Bereichs
DE102019122421B4 (de) 2019-08-21 2023-05-04 Goconut GmbH & Co. KG Verfahren zur Messdatenauswertung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19648626A1 (de) * 1996-11-12 1998-05-14 Flexicon Gmbh Verfahren und Vorrichtung zur Flächen- und Raumvermessung
DE202007010475U1 (de) * 2007-07-27 2007-12-13 Rösch, Christian Gerät zur Verwendung als 3D-Aufmasssystem für das Handwerk
DE102009015921A1 (de) * 2009-03-25 2010-09-30 Faro Technologies, Inc., Lake Mary Verfahren zum optischen Abtasten und Vermessen einer Umgebung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109945845A (zh) * 2019-02-02 2019-06-28 南京林业大学 一种私家园林空间数字化测绘和三维可视化方法

Also Published As

Publication number Publication date
WO2012052244A3 (de) 2013-04-11
DE102010042733A1 (de) 2012-04-26

Similar Documents

Publication Publication Date Title
DE69826753T2 (de) Optischer Profilsensor
DE60310226T2 (de) Verfahren zur linearen raumabtastung und vorrichtung zur erzeugung eines numerischen 3d modells
EP1173749B1 (de) Bildbearbeitung zur vorbereitung einer texturanalyse
DE69628956T2 (de) Abtastvorrichtung und -verfahren
DE112013004489T5 (de) Laserscanner mit Dynamischer Einstellung der Winkel-Abtastgeschwindigkeit
DE602006000627T2 (de) Dreidimensionales Messverfahren und dreidimensionale Messvorrichtung
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112016006262B4 (de) Dreidimensionaler Scanner und Verarbeitungsverfahren zur Messunterstützung für diesen
EP2609395B1 (de) Neigungssensor für ein gerät und verfahren zur bestimmung der neigung eines gerätes
DE102019211710A1 (de) Behälterwinkelerfassung unter verwendung eines bildsensors zur feedbackschleifensteuerung
DE60206320T2 (de) Vorrichtung und Verfahren zur perspektivischen Projektionbilderzeugung
DE112011105371T5 (de) Vorrichtung zum Synthetisieren von dreidimensionalen Bildern zum Visualisieren der Fahrzeugumgebung und zugehöriges Verfahren
EP2886043A1 (de) Verfahren zum Fortsetzen von Aufnahmen zum Erfassen von dreidimensionalen Geometrien von Objekten
EP2821750A1 (de) Positionsbestimmungsverfahren für ein Vermessungsgerät und ebensolches Vermessungsgerät
DE102006052813A1 (de) Mobiles Messsystem zur Erfassung von Raumprofilschnitten
EP2598839A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
WO2012052244A2 (de) Erfassung und darstellung texturierter drei-dimensionaler geometrien
DE10328523B4 (de) Verfahren und Meßvorrichtung zur berührungslosen Vermessung einer Kontur einer Oberfläche
DE102009054214B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
EP3539085B1 (de) 3d-referenzierung
WO2021180932A2 (de) Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes
WO2013182232A1 (de) Verfahren zur bildbasierten veränderungserkennung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11767956

Country of ref document: EP

Kind code of ref document: A2

122 Ep: pct application non-entry in european phase

Ref document number: 11767956

Country of ref document: EP

Kind code of ref document: A2