EP2376868A1 - Messsystem zur vermessung von räumen und/oder von objekten - Google Patents

Messsystem zur vermessung von räumen und/oder von objekten

Info

Publication number
EP2376868A1
EP2376868A1 EP09768525A EP09768525A EP2376868A1 EP 2376868 A1 EP2376868 A1 EP 2376868A1 EP 09768525 A EP09768525 A EP 09768525A EP 09768525 A EP09768525 A EP 09768525A EP 2376868 A1 EP2376868 A1 EP 2376868A1
Authority
EP
European Patent Office
Prior art keywords
distance
measuring device
camera
distance measuring
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP09768525A
Other languages
English (en)
French (fr)
Inventor
Matthias Roland
Sebastian Jackisch
Alexander Fietz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP2376868A1 publication Critical patent/EP2376868A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means

Definitions

  • Measuring system for measuring rooms and / or objects
  • the present invention relates to a measuring system for measuring rooms and / or objects, comprising at least one hand-held, non-contact measuring distance measuring device, in particular a laser rangefinder, and at least one evaluation unit.
  • the three-dimensional measurement of rooms is, especially for craftsmen and architects, of great interest to capture as quickly as possible the actual state of spaces and planning based on the detected actual state of upcoming work, such as the construction of kitchens, the Installation of windows, the interior of the room etc.
  • laser rangefinders For carrying out such three-dimensional surveying of rooms, handheld, contactless distance measuring devices are nowadays mostly used, in particular laser rangefinders. These are distinguished from conventional mechanical measuring devices, such as tape measures and yardsticks, in particular by the fact that distance measurements can be carried out conveniently and quickly.
  • laser rangefinders normally include an integral evaluation unit, which allows further processing of the acquired measurement data.
  • evaluation units can be designed such that they allow a computational linkage of individual distance measurements. In other words, single-distance measurements may be added to obtain a total distance from a plurality of detected pitches, multiplied together to calculate areas or volumes, stored, etc.
  • many of the evaluation units allow indirect length measurements to be taken over assumed right-hand numbers Angle or integrated inertial sensor.
  • the indirect length measurement is based on the assumption that the distance measuring device does not undergo translational movement between the measurements from which the length is indirectly calculated. The user is thus forced to hold the distance measuring device fixed at a position and to perform only a rotational movement between the measuring points by the distance measuring device is rotated, for example, from the wrist. This makes such indirect length measurements very error prone.
  • the floor plan of a room is to be recorded with the aid of a laser range finder
  • the plan of the room is usually sketched manually or with the aid of a corresponding computer program.
  • the individual dimensions of the room are then recorded in succession with the help of the laser rangefinder, whereby the acquired measurement data are entered in the previously created sketch. Once the exact measurement data is available, then the sketch can be specified manually or automatically using a computer.
  • the measurement system should enable indirect length measurements, in which the user can move the distance measuring device either rotationally or translatorily between the individual distance measurements that are required for indirect length measurement, without this affecting the measurement result.
  • the measuring system comprises an omnidirectional camera arranged on the distance measuring device, that is to say a camera which is capable of taking pictures from all directions in a range from approximately 270 ° to 360 ° both horizontally and vertically. Alternatively, several cameras can be used that cover this image area.
  • the evaluation unit is set up in such a way that it determines the position and orientation of the distance measuring device at the time of a distance measurement based on the image information recorded by the camera, generates corresponding position and orientation data and associates these with the distance measurement.
  • the position and orientation of the distance measuring device in space are determined for each distance measurement, so that data sets are generated can each consist of measurement data, position data and alignment data. If these data records are transferred to a virtual three-dimensional coordinate system, unique, mutually related vectors are obtained whose origin is defined by the position data, whose direction is defined by the orientation data and whose length by the measurement data. Accordingly, the distance between two measurement points can be easily calculated using appropriate algorithms, wherein the movement of the measuring device between two individual measurements is completely irrelevant. Also, a plurality of individual measurements can be linked together in such a way that the creation of a CAD model of the space and / or the object is readily possible using appropriate algorithms.
  • the distance measuring device is advantageously such that it can perform single distance measurements and / or continuous distance measurements.
  • the camera is advantageously designed to be capable of video. If the distance measuring device and the camera are operated in continuous mode, a very high measuring density can be achieved, whereby the accuracy of the measurement result is correspondingly increased.
  • the evaluation unit is preferably set up such that the position and orientation of the distance measuring device at the time of a distance measurement can be determined on the basis of landmarks present in the image information.
  • Landmarks are local distinctive feature points that are insensitive to perspective distortions. Markant are points in the room whose characteristics deviate from their background. These landmarks can be natural landmarks, such as a door frame, a window frame or the like, so to striking spatial points that are already present in the room. Alternatively, however, artificial landmarks can also be used.
  • the measuring system for generating such artificial landmarks comprises a projection unit separate from the distance measuring device and adapted to emit electromagnetic landmark-generating electromagnetic radiation, the camera being adapted to detect these artificial landmarks can.
  • the evaluation unit is advantageously set up in such a way that it can create a CAD model of the space and / or object based on the distance measurements carried out by the distance measuring device and position and orientation data assigned to these distance measurements, wherein the creation preferably takes place automatically.
  • the distance, position and orientation data can be transmitted successively to the evaluation unit and linked there to produce a CAD model.
  • the individual data can also be collected first and transmitted to the evaluation unit for further processing after completion of the measurements.
  • the evaluation unit is a unit integrated in the distance measuring device and / or a specially designed separate unit and / or a conventional laptop, PDA; Landline computer, a mobile phone or the like can act.
  • wired or wireless interfaces are provided, such as Bluetooth, UWB, WLAN, etc.
  • the evaluation unit is advantageously set up in such a way that it can texture surfaces of the CAD model based on the image information recorded by the camera. For example, initially only a small texture area can be selected around the respective measurement points. The texturing of the entire object and / or space is then done subsequently by the meshing of the measured spatial points to form a polygon mesh, for example triangles, and the mapping of the resulting spatial polygons with the collected texture sections, which are taken from the image information. In this way, for example, a closet can subsequently be inserted in detail into an already roughly modeled wall of the CAD model.
  • the evaluation unit is also advantageously set up such that it can automatically classify objects recorded with the camera and / or measured with the distance measuring device on the basis of the image information and / or distance measurements.
  • a classification of objects within a room can be greatly simplified, in particular in the continuous measuring mode of the measuring system.
  • An additional speech recognition which can be realized by a preferably provided speech recognition unit, could provide additional information in the classification of objects.
  • the circumference of a door or a window could be marked with the continuous laser of a laser rangefinder and at the same time the type of the object could be registered by voice recognition.
  • the distance measuring device preferably comprises at least one inertial measuring unit, which simplifies the tracking, ie the tracking of the position and orientation of the distance measuring device.
  • the distance measuring device can have a lighting unit that uniformly illuminates the receiving area of the camera at the time of performing a measurement. Accordingly, the texturing of the area taken by the camera can be improved.
  • the distance measuring device preferably has a display as communication interface with the user.
  • a display for example, one can graphically represent that spatial and / or object region which has already been measured successfully using the system according to the invention. Accordingly, the user can directly read which measurements are still required to complete a CAD model.
  • the present invention provides a method for measuring a space and / or an object using a measuring system of the type described above.
  • the method preferably comprises the steps of: performing a series of single distance measurements required to measure the space and / or object using the distance meter; Taking a camera image using the camera at those times at which a single distance measurement is performed; Determining the position and orientation of the distance measuring device at the time of each distance measurement based on the image information recorded by the camera; Generating appropriate location and orientation data; Associating the position and orientation data with the respective distance measurements; and generating a CAD model of the space and / or object based on the individual distance measurements with the associated position and orientation data using predetermined algorithms, wherein the CAD model may be a two- or three-dimensional model, such as one Floor plan of a room or a three-dimensional line representation of a room.
  • the method preferably comprises the steps of: performing at least one continuous distance measurement, which is required for measuring the space and / or object, using the distance measuring device; Recording a video the image using the camera over the period of time during which the continuous distance measurement is performed; Determining the position and orientation of the distance measuring device at the times of the continuous distance measurement based on the image information recorded by the camera; Generating corresponding position and orientation data; Associating the position and orientation data with the respective distance measurements made at the respective times, and generating a CAD model of the space and / or object based on the distance measurements with the associated position and orientation data using predetermined algorithms.
  • the position and orientation of the distance measuring device at the time of a distance measurement are preferably determined on the basis of existing in the image information natural and / or generated by means of the projection unit artificial landmarks.
  • the use of artificial landmarks is advantageous in that the generated artificial landmarks produce patterns known to the measurement system (eg, encoded circular measurement marks or the like). Accordingly, in contrast to the use of natural landmarks, it is not necessary to carry out a brief initialization phase before each measurement, in which landmarks are naturally detected, tracked and converted into 3D coordinates, which are then retrieved as natural landmarks in the measurement phase and linked as linkages Control points are used.
  • the position and orientation of the distance measuring device are preferably determined at the time of a distance measurement supported by measurement results of the initial measuring unit.
  • the surfaces of the CAD model are preferably textured based on the image information captured by the camera, as desired.
  • objects recorded with the camera are advantageously automatically classified on the basis of the image information, as has already been described above.
  • a classification may be supported by user-entered voice commands, which are automatically processed by the voice recognition unit.
  • the image capture area of the camera is preferably illuminated with the aid of the illumination unit during the acquisition of image information in order to enable texturing independent of the ambient light.
  • Figure 1 is a schematic view of an integrated omnidirectional camera aufwindenden distance measuring device of a measuring system according to an embodiment of the present invention
  • FIG. 2 is a schematic view showing a camera image taken with the omnidirectional camera shown in FIG. 1;
  • Figure 3 is a schematic view of a room, based on which the localization principle of the measuring system is explained;
  • Figure 4 is a schematic view of a room, on the basis of which the implementation of an indirect length measurement using the measuring system is explained;
  • Figure 5 is a schematic plan view of a room, on the basis of which the measurement of a space is explained using the measuring system;
  • Figure 6 is a schematic view of a room, on the basis of which the spatial representation of a level and Pro spascanns the space is explained using the measuring system;
  • Figure 7 is a schematic view of a room, on the basis of which an object classification using the measuring system will be explained.
  • the measuring system 10 for surveying rooms and / or objects comprises a hand-held, non-contact measuring distance measuring device 12, a video-capable camera 14 arranged on the distance measuring device 12 and provided separately from the distance measuring device 12 Projection unit 16 and an evaluation unit 18 in the form of a laptop, which can exchange data with the distance measuring device 12 via a wired or wireless interface, not shown.
  • the distance measuring device 12 is provided in the form of a laser rangefinder, which can optionally perform individual measurements or continuous distance measurements. Furthermore, the laser range finder can be used as a laser pointer.
  • the camera 14 is an omnidirectional camera capable of taking images from all directions in a range of about 270 ° to 360 ° both horizontally and vertically. Alternatively, of course, several cameras can be used that cover this image area.
  • Figure 2 shows an example of the inclusion of an elongated hallway on which the walls 20 and the ceiling 22 of the hallway and continue to see the doors 24, door plates 26, pictures 28, lamps 30, etc.
  • the camera 14 can record both single shots and video sequences.
  • a calibration is carried out in advance. This can be realized as factory calibration. The result of such a calibration is the parameter set which describes the exact position and orientation of the laser rangefinder with respect to the camera projection center.
  • the projection unit 16 comprises four light sources, not shown in more detail, for example in the form of LEDs or the like, which emit bundled light beams in each case.
  • the projection unit 16 can be fixed by means not shown in detail on a wall of a room.
  • the projection unit 16 may have a plug for plugging into an outlet present on the wall, thereby simultaneously ensuring the energy supply of the projection unit 16.
  • the projection unit 16 may also be attached to a wall by other means.
  • the projection unit 16 may alternatively or additionally have a self-sufficient energy source, for example in the form of batteries, a rechargeable battery or the like. It should be understood that the projection unit 16 may include a different number of light sources, for example three or five, instead of four light sources.
  • FIG. 3 shows a schematic view of a room 32 with walls 34, 36, 38, a floor 40 and a ceiling 42.
  • the projection unit 16 is arranged on the wall 34 of the room 32.
  • the projection unit 16 is oriented in such a way that its light sources emit light beams, which are shown by dashed lines in FIG. 3 and identified by the reference numbers 44, 46, 48 and 50, in the direction of the ceiling 42 of the room 32, so that light points 52 on the ceiling 42 , 54, 56 and 58, which form a predetermined spot pattern.
  • the image information recorded by the camera 14 contains inter alia the light points 52, 54, 56 and 58 which are projected by the projection unit 16 to the ceiling 42 of the room 32.
  • the position and orientation of the distance measuring device with respect to a virtual coordinate system 60 can now be calculated by means of suitable algorithms which are stored in the evaluation unit 18 because the light spot pattern generated by the light spots 52, 54, 56 and 58 is known.
  • a vector 62 can be calculated, the origin of the vector 62 being determined by the position data, the direction of the vector 62 is defined by the alignment data and the length of the vector 62 by the distance measurement.
  • a plurality of measurements based on the virtual coordinate system 62 can be assigned to each other, so that it is possible to automatically use a CAD model of the space 32 using the evaluation unit 18 based on a plurality of individual measurements or based on suitable algorithms to create one or more continuous measurements.
  • This CAD model can be a two-dimensional or three-dimensional model. For example, a floor plan of the room 32, a three-dimensional line model of the room 32, etc. can be generated.
  • natural landmarks may also be used to determine the position and orientation data based on the image information of the camera 14.
  • a short initialization phase must be carried out prior to each measurement of a room in order to detect and track natural landmarks and to convert them into SD coordinates of a virtual coordinate system.
  • these natural landmarks would be retrieved based on the image information of the camera 14 and used as link or control points. Excluded lent such natural landmarks for detecting the positions and orientations of the distance measuring device 12 used within a space 32, so can be dispensed with the projection unit 16 accordingly.
  • the following describes how indirect length measurements can be carried out using the measuring system 10 described above.
  • the distances to three measurement points 64, 66 and 68 on the wall 38 are determined by determining the associated position and orientation data of the distance measuring device 12 at the time of each measurement three vectors 70, 72 and 74 with respect to the virtual coordinate system 62. Since the end points of the vectors 70, 72 and 74 and thus the positions of the measuring points 64, 66 and 68 are known, it arithmetically no problem to set the lengths li, I 2 and I 3 between the respective measuring points 64, 66 and 68 to determine.
  • An advantage of this indirect length measuring method is in particular that it is completely irrelevant in which form the distance measuring device 12 is moved between the individual distance measurements. Translational movements can not affect the measurement result in contrast to the known indirect length measuring method accordingly.
  • the user To measure an entire room, the user, as shown schematically in Figure 5, moves with the distance measuring device 12 and the camera 14 held therethrough through the space 76, wherein he either a plurality of single distance measurements or one or more continuous distance measurements with the Distance measuring device 12 performs, as shown in Figure 6 by way of example with reference to the horizontal continuous measurement line 78 and the vertical continuous measurement line 80. Based on the measurement, position and orientation data thus recorded, a CAD model of room 76 can then be automatically created, as previously described.
  • the classification of objects within a room can also be greatly simplified, as shown schematically in FIG.
  • the contours of certain objects in this case the door 82
  • An additional speech recognition could additionally be used in the classification.
  • the perimeter of the door 82 could be marked with the continuous laser of the distance meter 12, and at the same time the type of object of speech recognition could be registered, for example, the door 82 being outlined as shown by the measurement line 84 and the user's announcement: "Door.”
  • One Fine localization of the outlined object can then be carried out, for example, at a later time on the basis of the image information recorded with the camera 14.
  • the evaluation unit 18 is designed such that, in addition to a classification of objects, it allows their texturing.
  • Coarse texturing of a wall may, for example, be done by first virtually spanning the wall based on distance measurements to three wall points. The corresponding texture can then be recorded synchronously with the camera 14 and inserted at a later time via a projection in the CAD model. With the use of the distance measuring device 12 in the continuous distance measuring mode, more complex structures can be scanned in any degree of detail. The corresponding texture can be removed again from the synchronized camera images. Initially, only a small texture area is selected around the respective measuring point.
  • the texturing of the entire object is done later by the meshing of the measured spatial points to a polygon mesh, for example, triangles, and the assignment of the resulting polygons with the collected texture sections.
  • a polygon mesh for example, triangles
  • a closet can subsequently be inserted in detail into an already roughly modeled wall.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Messsystem (10) zur Vermessung von Räumen (32) und/oder Objekten, umfassend wenigstens ein handgehaltenes, berührungslos messendes Abstandsmessgerät (12) und wenigstens eine Auswerteeinheit (18), wobei das Messsystem (10) eine am Abstandsmessgerät (12) angeordnete omnidirektionale Kamera (14) aufweist, und dass die Auswerteeinheit (18) derart eingerichtet ist, dass sie die Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt einer Abstandsmessung basierend auf den von der Kamera (14) aufgezeichneten Bildinformationen ermittelt, entsprechende Positions- und Ausrichtungsdaten generiert und diese der Abstandsmessung zuordnet.

Description

Beschreibung
Messsystem zur Vermessung von Räumen und/oder von Objekten
Die vorliegende Erfindung betrifft ein Messsystem zur Vermessung von Räumen und/oder Objekten, umfassend wenigstens ein handgehaltenes, berührungslos messendes Abstandsmess- gerät, insbesondere einen Laserentfernungsmesser, und wenigstens eine Auswerteeinheit.
Die dreidimensionale Vermessung von Räumen ist, insbesondere für Handwerker und Architekten, von sehr großem Interesse, um möglichst schnell den Ist-Zustand von Räumen erfassen und auf dem erfassten Ist-Zustand basierend anstehende Arbeiten planen zu können, wie beispielsweise den Aufbau von Küchen, den Einbau von Fenstern, die Inneneinrichtung des Raumes etc.
Zur Durchführung derartiger dreidimensionaler Vermessungen von Räumen werden heutzutage meist handgehaltene, berührungslos messende Abstandsmessgeräte eingesetzt, insbesondere Laserentfernungsmesser. Diese zeichnen sich gegenüber herkömmlichen mechanischen Messvorrichtungen, wie beispielsweise Maßbänder und Zollstöcke, insbesondere dadurch aus, dass mit ihnen Abstandsmessungen bequem und schnell durchgeführt werden können. Zudem umfassen Laserentfernungsmesser normalerweise eine integrale Auswerteeinheit, die eine Weiterverarbeitung der erfassten Messdaten ermöglicht. So können Auswerteeinheiten derart beschaffen sein, dass sie eine rechnerische Verknüpfung von Einzelabstandsmessungen ermöglichen. Mit anderen Worten können Einzelabstandmessungen addiert werden, um aus einer Vielzahl von erfassten Teilabständen einen Gesamtabstand zu ermitteln, sie können miteinander multipliziert werden, um Flächen oder Volumina zu berechnen, sie können gespeichert werden etc. Zudem ermöglichen viele Auswerteeinheiten die Durchführung indirekter Längenmessungen über angenommene rechte Winkel oder integrierte Inertialsensorik. Ein Nachteil derartiger Systeme, die solche indirekte Längenmessungen ermöglichen, besteht allerdings darin, dass die indirekte Längenmessung auf der Annahme basiert, dass das Abstandsmessge- rät zwischen den Messungen, aus denen die Länge indirekt berechnet wird, keine translatorische Bewegung erfährt. Der Benutzer ist somit gezwungen, das Abstandsmessgerät fix an einer Position zu halten und ausschließlich eine rotatorische Bewegung zwischen den Messpunkten durchzuführen, indem das Abstandsmessgerät beispielsweise aus dem Handgelenk gedreht wird. Dies macht solche indirekte Längenmessungen sehr fehleranfällig. Soll mit Hilfe eines Laserentfernungsmessers beispielsweise der Grundriss eines Raumes er- fasst werden, so wird normalerweise der Grundriss des Raumes zunächst manuell oder mit Hilfe eines entsprechenden Computerprogramms skizziert. Daraufhin werden die Einzelabmessungen des Raumes mit Hilfe des Laserentfernungsmessers nacheinander erfasst, wobei die erfassten Messdaten in die vorab erstellte Skizze eingetragen werden. Sobald die genauen Messdaten vorliegen, kann dann die Skizze manuell bzw. automatisiert unter Verwendung eines Rechners präzisiert werden. Auch wenn das auf diese Weise erzielte Ergebnis durchaus zufriedenstellend ist, ist die zuvor beschriebene Vorgehensweise mit einem großen Zeitaufwand verbunden.
Ausgehend von diesem Stand der Technik ist es eine Aufgabe der vorliegenden Erfindung, ein alternatives Messsystem der eingangs genannten Art zu schaffen, mit dem beispielsweise der Grundriss oder ein CAD-Modell eines Raumes und/oder Objektes schnell und präzise erstellt werden kann. Zudem soll das Messsystem indirekte Längenmessungen ermöglichen, bei denen der Benutzer das Abstandsmessgerät zwischen den Einzelabstandsmessungen, die zur indirekten Längenmessung erforderlich sind, sowohl rotatorisch als auch translatorisch bewegen kann, ohne dass das Messergebnis hierdurch beeinträchtigt wird.
Diese Aufgabe wird gemäß der vorliegenden Erfindung durch ein Messsystem nach Anspruch 1 und durch ein Messverfahren nach Anspruch 14 gelöst. Die abhängigen Ansprüche beziehen sich auf individuelle Ausgestaltungen der vorliegenden Erfindung.
Das erfindungsgemäße Messsystem zur Vermessung von Räumen und/oder Objekten umfasst wenigstens ein handgehaltenes, berührungslos messendes Abstandsmessgerät, bevorzugt in Form eines Laserentfernungsmesser, und wenigstens eine Auswerteeinheit zur Weiterverarbeitung der von dem Abstandsmessgerät erfassten Messdaten. Erfindungsgemäß umfasst das Messsystem eine am Abstandsmessgerät angeordnete omnidirektionale Kamera, also eine Kamera, die in der Lage ist, Bilder aus allen Richtungen in einem Bereich von etwa 270° bis 360° sowohl horizontal als auch vertikal aufzunehmen. Alternativ können auch mehrere Kameras verwendet werden, die diesen Bildbereich abdecken. Die Auswerteeinheit ist derart eingerichtet, dass sie die Position und Ausrichtung des Abstandsmessgerätes zum Zeitpunkt einer Abstandsmessung basierend auf den von der Kamera aufgezeichneten Bildinformationen ermittelt, entsprechende Positions- und Ausrichtungsdaten generiert und diese der Abstandsmessung zuordnet. Mit anderen Worten werden für jede Abstandsmessung die Position und Ausrichtung des Abstandsmessgerätes im Raum ermittelt, so dass Datensätze generiert werden können, die jeweils aus Messdaten, Positionsdaten und Ausrichtungsdaten bestehen. Werden diese Datensätze in ein virtuelles dreidimensionales Koordinatensystem transferriert, so ergeben sich eindeutige, aufeinander bezogene Vektoren, deren Ursprung durch die Positionsdaten, deren Richtung durch die Ausrichtungsdaten und deren Länge durch die Messdaten definiert sind. Entsprechend lässt sich der Abstand zwischen zwei Messpunkten unter Verwendung entsprechender Algorithmen problemlos berechnen, wobei die Bewegung des Messgerätes zwischen zwei Einzelmessungen völlig unerheblich ist. Auch lassen sich eine Vielzahl von Einzelmessungen derart miteinander verknüpfen, dass die Erstellung eines CAD-Modells des Raumes und/oder des Objektes ohne weiteres unter Verwendung entsprechender Algorithmen möglich ist.
Das Abstandsmessgerät ist vorteilhaft derart beschaffen, dass es Einzelabstandsmessungen und/oder kontinuierliche Abstandsmessungen ausführen kann. Auch die Kamera ist vorteilhaft videofähig ausgebildet. Werden das Abstandsmessgerät und die Kamera im kontinuierlichen Modus betrieben, so kann eine sehr hohe Messdichte erzielt werden, wodurch die Genauigkeit des Messergebnisses entsprechend erhöht wird.
Die Auswerteeinheit ist bevorzugt derart eingerichtet, dass die Position und Ausrichtung des Abstandsmessgerätes zum Zeitpunkt einer Abstandsmessung anhand von in den Bildinformationen vorhandenen Landmarken ermittelbar sind. Landmarken sind lokale markante Merkmalspunkte, die unempfindlich gegenüber perspektivischen Verzerrungen sind. Markant sind Raumpunkte, deren Eigenschaften von ihrem Hintergrund abweichen. Bei diesen Landmarken kann es sich um natürliche Landmarken handeln, wie beispielsweise ein Türrahmen, ein Fensterrahmen oder dergleichen, also um markante Raumpunkte, die bereits im Raum vorhanden sind. Alternativ können aber auch künstliche Landmarken verwendet werden. Gemäß einer Ausgestaltung der vorliegenden Erfindung umfasst das Messsystem zur Erzeugung solcher künstlicher Landmarken eine getrennt von dem Abstandsmessgerät vorgesehene Projektionseinheit, die derart beschaffen ist, dass sie künstliche Landmarken erzeugende elektromagnetische Strahlung aussenden kann, wobei die Kamera derart beschaffen ist, dass sie diese künstlichen Landmarken erfassen kann. So kann mit Hilfe der Projektionseinheit beispielsweise ein aus Lichtpunkten bestehendes Muster an die Decke des Raumes geworfen werden, das dann von der Kamera erfasst wird. Alternativ wäre es aber ebenso gut möglich, Objekte an den Wänden oder an der Decke eines Raumes zu befestigen, wie beispielsweise aus farbiger Pappe ausgeschnittene geometrische Figuren oder dergleichen, anhand derer der Standort des Abstandsmessgerätes eindeutig identifizierbar ist. Ferner ist die Auswerteeinheit vorteilhaft derart eingerichtet, dass sie ein CAD-Modell des Raumes und/oder Objektes basierend auf den vom Abstandsmessgerät durchgeführten Abstandsmessungen und basierend auf diesen Abstandsmessungen zugeordneten Positions- und Ausrichtungsdaten erstellen kann, wobei das Erstellen bevorzugt automatisch erfolgt. So können die Abstands-, Positions- und Ausrichtungsdaten sukzessiv an die Auswerteeinheit übertragen und dort zur Erzeugung eines CAD-Modells miteinander verknüpft werden. Natürlich können die einzelnen Daten auch zunächst gesammelt und nach Abschluss der Messungen zur Weiterverarbeitung an die Auswerteeinheit übermittelt werden. An dieser Stelle sei darauf hingewiesen, dass es sich bei der Auswerteeinheit um eine in das Abstandsmessgerät integrierte Einheit und/oder um eine speziell ausgebildete separate Einheit und/oder um einen herkömmlichen Laptop, PDA; Festnetzrechner, ein Mobiltelefon oder dergleichen handeln kann. Zur Datenübertragung sind entsprechende drahtgebundene oder drahtlose Schnittstellen vorgesehen, wie beispielsweise Bluetooth, UWB, WLAN, etc.
Die Auswerteeinheit ist vorteilhaft derart eingerichtet, dass sie Oberflächen des CAD-Modells basierend auf den von der Kamera aufgenommenen Bildinformationen texturieren kann. So kann beispielsweise zunächst nur ein kleiner Texturbereich um die jeweiligen Messpunkte ausgewählt werden. Die Texturierung des gesamten Objekts und/oder Raumes erfolgt dann nachträglich durch die Vermaschung der gemessenen Raumpunkte zu einem Polygonnetz, beispielsweise Dreiecke, und der Belegung der entstandenen Raumpolygone mit den gesammelten Texturausschnitten, die den Bildinformationen entnommen werden. Auf diese Weise lässt sich beispielsweise nachträglich ein Wandschrank detailliert in eine bereits grob modellierte Wand des CAD-Modells einfügen.
Die Auswerteeinheit ist zudem vorteilhaft derart eingerichtet, dass sie mit der Kamera aufgenommene und/oder mit dem Abstandsmessgerät vermessene Objekte anhand der Bildinformationen und/oder Abstandsmessungen automatisch klassifizieren kann. Eine solche Klassifizierung von Objekten innerhalb eines Raumes kann insbesondere im kontinuierlichen Messmodus des Messsystems stark vereinfacht werden. So ist beispielsweise das Umreißen von bestimmen Objekten mit dem Abstandsmessgerät denkbar. Eine zusätzliche Spracherkennung, die durch eine bevorzugt vorgesehene Spracherkennungseinheit realisierbar ist, könnte bei der Klassifikation von Objekten zusätzliche Informationen liefern. So könnte beispielsweise der Umfang einer Tür oder eines Fensters mit dem kontinuierlichen Laser eines Laserentfernungsmessers markiert werden und gleichzeitig die Art des Objektes per Spracherkennung registriert werden. Eine Feinlokalisierung des umrissenen Objektes kann dann zeitgleich oder zu einem späteren Zeitpunkt anhand der aufgezeichneten Bildinformationen durchgeführt werden. Zudem umfasst das Abstandsmessgerät bevorzugt wenigstens eine inertiale Messeinheit, die das Tracking, also das Nachverfolgen der Position und Ausrichtung des Abstandsmessgerätes, vereinfacht.
Ferner kann das Abstandsmessgerät eine Beleuchtungseinheit aufweisen, die den Aufnahmebereich der Kamera zum Zeitpunkt der Durchführung einer Messung gleichmäßig ausleuchtet. Entsprechend kann die Texturierung des mit der Kamera aufgenommenen Bereiches verbessert werden.
Das Abstandsmessgerät weist bevorzugt ein Display als Kommunikationsschnittstelle mit dem Benutzer auf. Auf einem solchen Display lässt sich beispielsweise graphisch derjenige Raum- und/oder Objektbereich darstellen, der bereits erfolgreich unter Verwendung des erfindungsgemäßen Systems vermessen wurde. Entsprechend kann der Benutzer direkt ablesen, welche Messungen noch zur Vervollständigung eines CAD-Modells erforderlich sind.
Ferner schafft die vorliegende Erfindung ein Verfahren zum Vermessen eines Raumes und/oder eines Objektes unter Verwendung eines Messsystems der zuvor beschriebenen Art.
Im Einzelmessmodus weist das Verfahren bevorzugt die Schritte auf: Durchführung einer Reihe von Einzelabstandsmessungen, die zum Vermessen des Raumes und/oder Objektes erforderlich sind, unter Verwendung des Abstandsmessgerätes; Aufnahme eines Kamerabildes unter Verwendung der Kamera jeweils zu denjenigen Zeitpunkten, zu denen eine Einzelabstandmessung durchgeführt wird; Ermitteln der Position und Ausrichtung des Abstandsmessgerätes zum Zeitpunkt jeder Abstandsmessung basierend auf den von der Kamera aufgezeichneten Bildinformationen; Generieren entsprechender Positions- und Ausrichtungsdaten; Zuordnen der Positions- und Ausrichtungsdaten zu den jeweiligen Abstandsmessungen; und Generieren eines CAD-Modells des Raumes und/oder Objektes basierend auf den Einzelabstandsmessungen mit den zugeordneten Positions- und Ausrichtungsdaten unter Verwendung vorbestimmter Algorithmen, wobei es sich bei dem CAD-Modell um ein zwei- oder dreidimensionales Modell handeln kann, also beispielsweise um einen Grundriss eines Raumes oder um eine dreidimensionale Liniendarstellung eines Raumes.
Im kontinuierlichen Modus weist das Verfahren bevorzugt die Schritte auf: Durchführung zumindest einer kontinuierlichen Abstandsmessung, die zum Vermessen des Raumes und/oder Objektes erforderlich ist, unter Verwendung des Abstandsmessgerätes; Aufnahme eines Vi- deobildes unter Verwendung der Kamera über diejenige Zeitspanne, während der die kontinuierliche Abstandsmessung durchgeführt wird; Ermitteln der Position und Ausrichtung des Abstandsmessgerätes zu den Zeitpunkten der kontinuierlichen Abstandsmessung basierend auf den von der Kamera aufgezeichneten Bildinformationen; Generieren entsprechender Positionsund Ausrichtungsdaten; Zuordnen der Positions- und Ausrichtungsdaten zu den jeweiligen Abstandsmessungen, die zu den entsprechenden Zeitpunkten durchgeführt werden, und Generieren eines CAD-Modells des Raumes und/oder Objektes basierend auf den Abstandsmessungen mit den zugehörigen Positions- und Ausrichtungsdaten unter Verwendung vorbestimmter Algorithmen.
Es sollte klar sein, dass die im Einzelmessmodus und im kontinuierlichen Modus erstellten CAD- Modelle auch nachträglich durch Hinzufügen weiterer Abstandsmessungen mit zugeordneten Positions- und Ausrichtungsdaten beliebig verfeinert und ergänzt werden können.
Die Position und Ausrichtung des Abstandsmessgerätes zum Zeitpunkt einer Abstandsmessung werden bevorzugt anhand von in den Bildinformationen vorhandenen natürlichen und/oder von mit Hilfe der Projektionseinheit erzeugten künstlichen Landmarken ermittelt. Die Verwendung künstlicher Landmarken ist dahingehend vorteilhaft, dass die erzeugten künstlichen Landmarken dem Messsystem bekannte Muster erzeugen (beispielsweise kodierte kreisförmige Messmarken oder dergleichen). Entsprechend ist es im Gegensatz zur Verwendung von natürlichen Landmarken nicht erforderlich, vor jeder Messung eine kurze Initialisierungsphase durchzuführen, in der natürlich Landmarken detektiert, verfolgt und in 3D-Koordinaten umgerechnet werden, die dann in der Messphase als natürliche Landmarken wiedergefunden und als Verknüpfung- oder Passpunkte benutzt werden.
Bevorzugt werden die Position und Ausrichtung des Abstandsmessgerätes zum Zeitpunkt einer Abstandsmessung unterstützt von Messergebnissen der initialen Messeinheit ermittelt.
Ferner werden die Oberflächen des CAD-Modells bevorzugt basierend auf den von der Kamera aufgenommenen Bildinformationen texturiert, wie dies gewünscht ist.
Zudem werden mit der Kamera aufgenommene Objekte anhand der Bildinformation vorteilhaft automatisch klassifiziert, wie es bereits zuvor beschrieben wurde. Eine solche Klassifizierung kann durch vom Benutzer eingegebene Sprachkommandos unterstützt werden, die automatisch von der Spracherkennungseinheit weiterverarbeitet werden. Zudem wird der Bilderfassungsbereich der Kamera während der Aufnahme von Bildinformationen bevorzugt mit Hilfe der Beleuchtungseinheit ausgeleuchtet, um eine vom Umgebungslicht unabhängige Texturierung zu ermöglichen.
Nachfolgend wird die vorliegende Erfindung anhand einer beispielhaften Ausführungsform unter Bezugnahme auf die beiliegende Zeichnung genauer erläutert. Darin ist
Figur 1 eine schematische Ansicht eines eine integrierte omnidirektionale Kamera aufwindenden Abstandsmessgerätes eines Messsystems gemäß einer Ausführungsform der vorliegenden Erfindung;
Figur 2 eine schematische Ansicht, die ein mit der in Figur 1 dargestellten omnidirek- tionalen Kamera aufgenommenes Kamerabild zeigt;
Figur 3 eine schematische Ansicht eines Raumes, anhand deren das Lokalisierungsprinzip des Messsystems erläutert wird;
Figur 4 eine schematische Ansicht eines Raumes, anhand derer die Durchführung einer indirekten Längenmessung unter Verwendung des Messsystems erläutert wird;
Figur 5 eine schematische Draufsicht eines Raumes, anhand derer das Vermessen eines Raumes unter Verwendung des Messsystems erläutert wird;
Figur 6 eine schematische Ansicht eines Raumes, anhand derer die räumliche Darstellung eines Ebenen- und Profüscanns des Raumes unter Verwendung des Messsystems erläutert wird; und
Figur 7 eine schematische Ansicht eines Raumes, anhand derer eine Objektklassifizierung unter Verwendung des Messsystems erläutert wird.
Gleiche Bezugsziffern beziehen sich nachfolgend auf gleiche Elemente.
Das Messsystem 10 zur Vermessung von Räumen und/oder Objekten umfasst ein handgehaltenes, berührungslos messendes Abstandsmessgerät 12, eine an dem Abstandsmessgerät 12 angeordnete videofähige Kamera 14, eine separat von dem Abstandsmessgerät 12 vorgesehene Projektionseinheit 16 und eine Auswerteeinheit 18 in Form eines Laptops, der über eine nicht näher dargestellte drahtgebundene oder drahtlose Schnittstelle Daten mit dem Abstandsmess- gerät 12 austauschen kann.
Das Abstandsmessgerät 12 ist in Form eines Laserentfernungsmessers vorgesehen, der wahlweise Einzelmessungen oder kontinuierliche Abstandsmessungen durchführen kann. Ferner kann der Laserentfernungsmesser als Laserpointer verwendet werden.
Bei der Kamera 14 handelt es sich um eine omnidirektionale Kamera, die dazu in der Lage ist, Bilder aus allen Richtungen in einem Bereich von etwa 270° bis 360° sowohl horizontal als auch vertikal aufzunehmen. Alternativ können natürlich auch mehrere Kameras verwendet werden, die diesen Bildbereich abdecken. Figur 2 zeigt beispielhaft die Aufnahme eines länglichen Hausflurs, auf der die Wände 20 sowie die Decke 22 des Hausflurs und weiterhin die Türen 24, Türschilder 26, Bilder 28, Lampen 30 etc. zu sehen sind. Die Kamera 14 kann sowohl Einzelaufnahmen als auch Videosequenzen aufnehmen. Zwischen der Kamera 14 und dem Abstandsmessgerät 12 wird im Vorfeld eine Kalibrierung durchgeführt. Diese kann als Werkskalibrierung realisiert werden. Ergebnis einer solchen Kalibrierung ist der Parametersatz, der die genaue Lage und Orientierung des Laserentfernungsmessers bzgl. des Kameraprojektionszentrums beschreibt.
Die Projektionseinheit 16 umfasst vier nicht näher dargestellte Lichtquellen, beispielsweise in Form von LEDs oder dergleichen, die jeweils gebündelte Lichtstrahlen aussenden. Die Projektionseinheit 16 kann mit nicht näher dargestellten Mitteln an einer Wand eines Raumes befestigt werden. So kann die Projektionseinheit 16 beispielsweise einen Stecker zum Einstecken in eine an der Wand vorhandene Steckdose aufweisen, wodurch gleichzeitig die Energieversorgung der Projektionseinheit 16 sichergestellt wird. Natürlich kann die Projektionseinheit 16 auch mit anderen Mitteln an einer Wand befestigt werden. Zudem kann die Projektionseinheit 16 alternativ oder zusätzlich eine autarke Energiequelle aufweisen, beispielsweise in Form von Batterien, eines Akkumulators oder dergleichen. Es sollte klar sein, dass die Projektionseinheit 16 anstelle von vier Lichtquellen auch eine andere Anzahl von Lichtquellen aufweisen kann, beispielsweise drei oder fünf.
Die Kamera 14 dient in erster Linie dazu, die Position und die Ausrichtung des Abstands- messgerätes 12 zum Zeitpunkt einer Abstandsmessung zu ermitteln, was nachfolgend unter Bezugnahme auf Figur 3 näher erläutert wird. Figur 3 zeigt eine schematische Ansicht eines Raumes 32 mit Wänden 34, 36, 38, einem Boden 40 und einer Decke 42. Zur Durchführung von Messungen unter Verwendung des Messsystems 10 ist die Projektionseinheit 16 an der Wand 34 des Raumes 32 angeordnet. Die Projektionseinheit 16 ist derart ausgerichtet, dass ihre Lichtquellen Lichtstrahlen, die in Figur 3 gestrichelt dargestellt und mit den Bezugsziffern 44, 46, 48 und 50 gekennzeichnet sind, in Richtung der Decke 42 des Raumes 32 aussendet, so dass an der Decke 42 Lichtpunkte 52, 54, 56 und 58 erzeugt werden, die ein vorbestimmtes Lichtpunktmuster bilden. Wird nun das Abstandsmessgerät 12 mit der an diesem angeordneten Kamera 14 von einem im Raum 32 stehenden Benutzer gehalten, wie es in Figur 3 schematisch dargestellt ist, so enthalten die von der Kamera 14 aufgezeichneten Bildinformationen unter anderem die Lichtpunkte 52, 54, 56 und 58, die von der Projektionseinheit 16 an die Decke 42 des Raumes 32 projiziert werden. Unter Verwendung der in den Bildinformationen enthaltenen Lichtpunkte 52, 54, 56 und 58 als künstliche Landmarken können nunmehr die Position und die Ausrichtung des Abstandsmessgerätes in Bezug auf ein virtuelles Koordinatensystem 60 mit Hilfe geeigneter Algorithmen, die in der Auswerteeinheit 18 hinterlegt sind, rechnerisch ermittelt werden, da das von den Lichtpunkten 52, 54, 56 und 58 erzeugte Lichtpunktmuster bekannt ist. Werden nun für jede mit dem Abstandsmessgerät 12 durchgeführt Abstandsmessung die zugehörigen Positions- und Ausrichtungsdaten des Abstandsmessgerätes 12 bestimmt und der entsprechenden Abstandsmessung zugeordnet, so kann rechnerisch ein Vektor 62 ermittelt werden, wobei der Ursprung des Vektors 62 durch die Positionsdaten, die Richtung des Vektors 62 durch die Ausrichtungsdaten und die Länge des Vektors 62 durch die Abstandsmessung definiert wird. Auf diese Weise können eine Vielzahl von Messungen unter Zugrundelegung des virtuellen Koordinatensystems 62 einander zugeordnet werden, so dass es möglich ist, unter Verwendung geeigneter Algorithmen automatisch ein CAD-Modell des Raumes 32 unter Einsatz der Auswerteeinheit 18 basierend auf einer Vielzahl von Einzelmessungen oder basierend auf einer oder mehreren kontinuierlichen Messungen zu erstellen. Bei diesem CAD-Modell kann es sich um ein zweidimensionales oder um ein dreidimensionales Modell handeln. So kann beispielsweise ein Grundriss des Raumes 32, ein dreidimensionales Linienmodell des Raumes 32, etc. generiert werden.
Es sollte klar sein, dass anstelle der virtuellen Landmarken, die durch die Lichtpunkte 52, 54, 56 und 58 erzeugt werden, auch natürliche Landmarken zur Bestimmung der Positions- und Ausrichtungsdaten basierend auf den Bildinformationen der Kamera 14 verwendet werden können. Hierzu muss vor jeder Vermessung eines Raumes eine kurze Initialisierungsphase durchgeführt werden, um natürliche Landmarken zu detektieren, zu verfolgen und in SD- Koordinaten eines virtuellen Koordinatensystems umzurechnen. In der Messphase würden diese natürlichen Landmarken basierend auf den Bildinformationen der Kamera 14 wiedergefunden werden und als Verknüpfungs- oder Passpunkte genutzt werden. Werden ausschließ- lieh derartige natürliche Landmarken zum Erfassen der Positionen und Ausrichtungen des Abstandsmessgerätes 12 innerhalb eines Raumes 32 verwendet, so kann entsprechend auf die Projektionseinheit 16 verzichtet werden.
Unter Bezugnahme auf Figur 4 wird nachfolgend beschrieben, wie unter Einsatz des zuvor beschriebenen Messsystems 10 indirekte Längenmessungen durchgeführt werden können. Werden beispielsweise, wie es in Figur 4 gezeigt ist, unter Verwendung des Abstandsmessgerätes 12 die Abstände zu drei Messpunkten 64, 66 und 68 an der Wand 38 unter Bestimmung der zugehörigen Positions- und Ausrichtungsdaten des Abstandsmessgerätes 12 zum Zeitpunkt jeder Messung durchgeführt, so erhält man drei Vektoren 70, 72 und 74 bezüglich des virtuellen Koordinatensystems 62. Da die Endpunkte der Vektoren 70, 72 und 74 und somit die Positionen der Messpunkte 64, 66 und 68 bekannt sind, stellt es rechnerisch kein Problem dar, die Längen li, I2 und I3 zwischen den jeweiligen Messpunkten 64, 66 und 68 zu ermitteln. Vorteilhaft bei diesem indirekten Längenmessverfahren ist insbesondere, dass es völlig unerheblich ist, in welcher Form das Abstandsmessgerät 12 zwischen den Einzelabstandsmessungen bewegt wird. Translatorische Bewegungen können das Messergebnis im Gegensatz zu den bekannten indirekten Längenmessverfahren entsprechend nicht beeinträchtigen.
Zur Vermessung eines gesamten Raumes bewegt sich der Benutzer, wie es in Figur 5 schematisch dargestellt ist, mit dem Abstandsmessgerät 12 und der an diesem gehaltenen Kamera 14 durch den Raum 76, wobei er entweder eine Vielzahl von Einzelabstandsmessungen oder eine oder mehrere kontinuierliche Abstandsmessungen mit dem Abstandsmessgerät 12 durchführt, wie es in Figur 6 beispielhaft anhand der horizontalen kontinuierlichen Messlinie 78 und der vertikalen kontinuierlichen Messlinie 80 gezeigt ist. Basierend auf den so aufgezeichneten Mess-, Positions- und Ausrichtungsdaten kann dann automatisch ein CAD-Modell des Raumes 76 erstellt werden, wie es zuvor bereits beschrieben wurde.
Im kontinuierlichen Abstandsmessmodus kann neben der 3D-Vermessung eines Raumes auch die Klassifikation von Objekten innerhalb eines Raumes stark vereinfacht werden, wie es schematisch in Figur 7 dargestellt ist. So ist beispielsweise das Umreißen von bestimmten Objekten, vorliegend die Tür 82, denkbar. Eine zusätzliche Spracherkennung könnte bei der Klassifikation zusätzlich genutzt werden. So könnte zum Beispiel der Umfang der Tür 82 mit dem kontinuierlichen Laser des Abstandsmessgerätes 12 markiert werden und gleichzeitig die Art des Objektes der Spracherkennung registriert werden, beispielsweise Umreißen der Tür 82, wie es anhand der Messlinie 84 dargestellt ist, und eine Ansage des Benutzers: „Tür". Eine Feinlokalisierung des umrissenen Objektes kann dann beispielsweise zu einem späteren Zeitpunkt anhand der mit der Kamera 14 aufgezeichneten Bildinformationen durchgeführt werden.
Ferner ist die Auswerteeinheit 18 derart beschaffen, dass sie neben einer Klassifizierung von Objekten deren Texturierung gestattet. Eine grobe Texturierung einer Wand kann beispielsweise erfolgen, indem die Wand zunächst basierend auf Abstandsmessungen zu drei Wandpunkten virtuell aufgespannt wird. Die entsprechende Textur kann dann synchron mit der Kamera 14 aufgenommen und zu einem späteren Zeitpunkt über eine Projektion in das CAD- Modell eingefügt werden. Mit der Nutzung des Abstandsmessgerätes 12 im kontinuierlichen Abstandsmessmodus können komplexere Strukturen in einem beliebigen Detaillierungsgrad abgetastet werden. Die entsprechende Textur kann wieder den synchronisierten Kamerabildern entnommen werden. Dabei wird zunächst nur ein kleiner Texturbereich um den jeweiligen Messpunkt ausgewählt. Die Texturierung des gesamten Objektes erfolgt nachträglich durch die Vermaschung der gemessenen Raumpunkte zu einem Polygonnetz, beispielsweise Dreiecke, und der Belegung der entstandenen Polygone mit den gesammelten Texturausschnitten. Auf diese Weise lässt sich im CAD-Modell beispielsweise nachträglich ein Wandschrank detailliert in eine bereits grob modellierte Wand einfügen.
Es sollte klar sein, dass die zuvor beschriebene Ausführungsform des erfindungsgemäßen Messsystems 10 in keiner Weise einschränkend ist. Vielmehr sind Modifikationen und Änderungen möglich, ohne den Schutzbereich der vorliegenden Erfindung zu verlassen, der durch die beiliegenden Ansprüche definiert ist.

Claims

Ansprüche
1. Messsystem (10) zur Vermessung von Räumen (32) und/oder Objekten, umfassend wenigstens ein handgehaltenes, berührungslos messendes Abstandsmessgerät (12) und wenigstens eine Auswerteeinheit (18), dadurch gekennzeichnet, dass das Messsystem (10) eine am Abstandsmessgerät (12) angeordnete omnidirektionale Kamera (14) aufweist, und dass die Auswerteeinheit (18) derart eingerichtet ist, dass sie die Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt einer Abstandsmessung basierend auf den von der Kamera (14) aufgezeichneten Bildinformationen ermittelt, entsprechende Positions- und Ausrichtungsdaten generiert und diese der Abstandsmessung zuordnet.
2. Messsystem (10) nach Anspruch 1, dadurch gekennzeichnet, dass das Abstandsmessgerät (12) ein Laserentfernungsmesser ist.
3. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Abstandsmessgerät (12) derart beschaffen ist, dass es Einzelabstandsmes- sungen und/oder kontinuierliche Abstandsmessungen ausführen kann.
4. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kamera (14) videofähig ist.
5. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (18) derart eingerichtet ist, dass die Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt einer Abstandsmessung anhand von in den Bildinformationen vorhandenen Landmarken ermittelbar sind.
6. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass es eine getrennt von dem Abstandsmessgerät (12) vorgesehene Projektionseinheit (16) aufweist, die derart beschaffen ist, dass sie künstliche Landmarken erzeugende elektromagnetische Strahlung aussenden kann, wobei die Kamera (14) derart beschaffen ist, dass sie diese künstlichen Landmarken erfassen kann.
7. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (12) derart eingerichtet ist, dass sie ein CAD-Modell des Raumes (32) und/oder Objektes basierend auf den vom Abstandsmessgerät (12) durchgeführten Abstandsmessungen und basierend auf den diesen Abstandsmessungen zugeordneten Positions- und Ausrichtungsdaten erstellen kann.
8. Messsystem (10) nach Anspruch 7, dadurch gekennzeichnet, dass die Auswerteeinheit (18) derart eingerichtet ist, dass sie Oberflächen des CAD-Modells basierend auf den von der Kamera (14) aufgenommenen Bildinformationen texturieren kann.
9. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswerteeinheit (18) derart eingerichtet ist, dass sie mit der Kamera (14) aufgenommene und/oder mit dem Abstandsmessgerät (12) vermessene Objekte anhand der Bildinformationen und/oder Abstandsmessungen automatisch klassifieren kann.
10. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dieses eine Spracherkennungseinheit aufweist.
11. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Abstandsmessgerät (12) wenigstens eine inertiale Messeinheit aufweist.
12. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass an dem Abstandsmessgerät (12) eine Beleuchtungseinheit angeordnet ist.
13. Messsystem (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass an dem Abstandsmessgerät (12) ein Display angeordnet ist.
14. Verfahren zum Vermessen eines Raumes (32) und/oder eines Objektes unter Verwendung eines Messsystems (10) nach einem der vorhergehenden Ansprüche.
15. Verfahren nach Anspruch 14, das die Schritte aufweist:
- Durchführung einer Reihe von Einzelabstandsmessungen, die zum Vermessen des Raumes (32) und/oder Objektes erforderlich sind, unter Verwendung des Abstandsmessgerätes
(12);
- Aufnahme eines Kamerabildes unter Verwendung der Kamera (14) jeweils zu denjenigen Zeitpunkten, zu denen eine Einzelabstandsmessung durchgeführt wird; - Ermitteln der Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt jeder Abstandsmessung basierend auf den von der Kamera (14) aufgezeichneten Bildinformationen;
- Generieren entsprechender Positions- und Ausrichtungsdaten;
- Zuordnen der Positions- und Ausrichtungsdaten zu den jeweiligen Abstandsmessungen; und
- Generieren eines CAD-Modells des Raumes (32) und/oder Objektes basierend auf den Einzelabstandsmessungen mit den zugeordneten Positions- und Ausrichtungsdaten unter Verwendung vorbestimmter Algorithmen.
16. Verfahren nach Anspruch 15, das die Schritte aufweist:
- Durchführung zumindest einer kontinuierlichen Abstandsmessung, die zum Vermessen des Raumes (32) und/oder Objektes erforderlich ist, unter Verwendung des Abstandsmessgerätes (12);
- Aufnahme eines Videobildes unter Verwendung der Kamera (14) über diejenige Zeitspanne, während der die kontinuierliche Abstandsmessung durchgeführt wird;
- Ermitteln der Positionen und Ausrichtungen des Abstandsmessgerätes (12) zu den Zeitpunkten der kontinuierlichen Abstandsmessung basierend auf den von der Kamera (14) aufgezeichneten Bildinformationen;
- Generieren entsprechender Positions- und Ausrichtungsdaten;
- Zuordnen der Positions- und Ausrichtungsdaten zu den jeweiligen Abstandsmessungen, die zu den entsprechenden Zeitpunkten durchgeführt werden; und
- Generieren eines CAD-Modells des Raumes (32) und/oder Objektes basierend auf den Abstandsmessungen mit den zugeordneten Positions- und Ausrichtungsdaten unter Verwendung vorbestimmter Algorithmen.
17. Verfahren nach einem der Ansprüche 15 oder 16, bei dem die Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt einer Abstandsmessung anhand von in den Bildinformationen vorhandenen natürlichen und/oder von mit Hilfe der Projektionseinheit (16) erzeugten künstlichen Landmarken ermittelt werden.
18. Verfahren nach einem der Ansprüche 15 bis 17, bei dem die Position und Ausrichtung des Abstandsmessgerätes (12) zum Zeitpunkt einer Abstandsmessung unterstützt von Messergebnissen der inertialen Messeinheit ermittelt werden.
19. Verfahren nach einem der Ansprüche 15 bis 18, bei dem Oberflächen des CAD- Modells basierend auf den von der Kamera (14) aufgenommenen Bildinformationen texturiert werden.
20. Verfahren nach einem der Ansprüche 15 bis 19, bei dem mit der Kamera (14) aufgenommene Objekte anhand der Bildinformationen automatisch klassifiziert werden.
21. Verfahren nach einem der Ansprüche 15 bis 20, bei dem vom Benutzer Sprachkommandos eingegeben und automatisch von der Spracherkennungseinheit weiterverarbeitet werden.
22. Verfahren nach einem der Ansprüche 15 bis 21, bei dem der Bilderfassungsbereich der Kamera (14) während der Aufnahme von Bildinformationen mit Hilfe der Beleuchtungseinheit ausgeleuchtet wird.
EP09768525A 2008-12-10 2009-12-08 Messsystem zur vermessung von räumen und/oder von objekten Withdrawn EP2376868A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE200810054453 DE102008054453A1 (de) 2008-12-10 2008-12-10 Messsystem zur Vermessung von Räumen und/oder von Objekten
PCT/EP2009/066561 WO2010066698A1 (de) 2008-12-10 2009-12-08 Messsystem zur vermessung von räumen und/oder von objekten

Publications (1)

Publication Number Publication Date
EP2376868A1 true EP2376868A1 (de) 2011-10-19

Family

ID=41631781

Family Applications (1)

Application Number Title Priority Date Filing Date
EP09768525A Withdrawn EP2376868A1 (de) 2008-12-10 2009-12-08 Messsystem zur vermessung von räumen und/oder von objekten

Country Status (4)

Country Link
EP (1) EP2376868A1 (de)
CN (1) CN102246002A (de)
DE (1) DE102008054453A1 (de)
WO (1) WO2010066698A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010038507A1 (de) 2010-07-28 2012-02-02 Robert Bosch Gmbh Parallele Online-Offline Rekonstruktion für drei-dimensionale Raumvermessung
DE102010043136B4 (de) * 2010-10-29 2018-10-31 Hilti Aktiengesellschaft Messgerät und Verfahren für eine berührungslose Messung von Abständen bei einem Zielobjekt
DE102011077678A1 (de) * 2011-06-17 2012-12-20 Bauhaus-Universität Weimar Tachymeter und Verfahren zur Messwertaufnahme mittels des Tachymeters
DE102013009288B4 (de) * 2013-06-04 2016-02-04 Testo Ag 3D-Aufnahmevorrichtung, Verfahren zur Erstellung eines 3D-Bildes und Verfahren zur Einrichtung einer 3D-Aufnahmevorrichtung
EP3063553B1 (de) * 2013-11-01 2019-12-11 Robert Bosch GmbH System und verfahren zur messung mittels lasersweeps
EP2918972B1 (de) 2014-03-14 2019-10-09 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
EP2980528A1 (de) * 2014-08-01 2016-02-03 HILTI Aktiengesellschaft Trackingverfahren und Trackingsystem
EP3093685A1 (de) * 2015-05-12 2016-11-16 Siemens AG Österreich Verfahren zum einmessen eines punktes in einem dreidimensionalen objekt
EP3182065A1 (de) * 2015-12-14 2017-06-21 Leica Geosystems AG Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
CN107836013B (zh) * 2016-03-09 2019-09-03 广州艾若博机器人科技有限公司 地图构建方法、纠正方法及装置
EP3486607B1 (de) * 2017-11-20 2021-09-01 Leica Geosystems AG Bildbasierte kantenvermessung
DE102017222534B3 (de) 2017-12-12 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, computerlesbares Speichermedium mit Instruktionen, Vorrichtung und System zum Einmessen einer Augmented-Reality-Brille in einem Fahrzeug, für das Verfahren geeignetes Fahrzeug und für das Verfahren geeignete Augmented-Reality-Brille
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337149A (en) * 1992-11-12 1994-08-09 Kozah Ghassan F Computerized three dimensional data acquisition apparatus and method
JPH11513483A (ja) * 1995-09-21 1999-11-16 オムニプラナー,インコーポレーテッド 位置及び方位を決定する方法及び装置
US7398481B2 (en) * 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
CN1567384A (zh) * 2003-06-27 2005-01-19 史中超 三维空间物体图像获取、数字化测量及重建方法和设备
US7720554B2 (en) * 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
DE102005028134A1 (de) * 2005-06-17 2006-12-28 Robert Bosch Gmbh Handwerksmessgerät
DE102006054324A1 (de) * 2006-11-17 2008-05-21 Robert Bosch Gmbh Verfahren zur bildbasierten Vermessung
CN100501327C (zh) * 2007-02-07 2009-06-17 北京航空航天大学 可变焦摄像机空间三维位姿的单视测量方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2010066698A1 *

Also Published As

Publication number Publication date
WO2010066698A1 (de) 2010-06-17
DE102008054453A1 (de) 2010-06-17
CN102246002A (zh) 2011-11-16

Similar Documents

Publication Publication Date Title
WO2010066698A1 (de) Messsystem zur vermessung von räumen und/oder von objekten
DE112010004767B4 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE4119180C2 (de)
DE102008002241A1 (de) Verfahren und Messsystem zur bildbasierten Vermessung eines Raumes
WO2008058788A1 (de) Verfahren zur bildbasierten vermessung
EP3182065A1 (de) Handhaltbares entfernungsmessgerät und verfahren zum erfassen relativer positionen
EP2918972A2 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
DE112012001254T5 (de) Automatische Messung von Dimensionsdaten mit einem Lasertracker
EP2477000A1 (de) Vermessungsgerät mit einer automatischen Darstellungswechsel-Funktionalität
DE60118711T2 (de) Entfernungsmessgerät zur kartierung eines zwei- oder dreidimensionalen volumens
EP0970392B1 (de) Messverfahren unter einbeziehung der lasertechnik für dreidimensionale objekte
WO2015086036A1 (de) Verfahren zur ortsrichtigen projektion einer markierung auf ein objekt und projektionsvorrichtung
WO2012013388A1 (de) Parallele online-offline rekonstruktion für drei-dimensionale raumvermessung
WO2008055733A1 (de) Mobiles messsystem und verfahren zur erfassung von raumprofilschnitten
WO2009135550A1 (de) Mobiles messsystem und messverfahren
DE102011077854A1 (de) Mobiles Messsystem zur zweidimensionalen Grundrisserzeugung
EP3775993A1 (de) Mobile vorrichtung und verfahren zum erfassen eines objektraums
EP4137981A1 (de) Generierung eines gebäudeinformationsmodells
EP3486606A1 (de) Stereokamera und stereophotogrammetrisches verfahren
EP2831839B1 (de) Verfahren zum automatischen betreiben einer überwachungsanlage
DE112020004829T5 (de) Verfahren, system und vorrichtung zur mobilen vermessung
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102010042733A1 (de) Erfassung und Darstellung texturierter drei-dimensionaler Geometrien
EP3764057A1 (de) Verfahren zum ermitteln der eignung einer position als vermessungsstationierung
DE102006014546B4 (de) Verfahren und Vorrichtung zum sensorbasierten Überwachen einer Umgebung

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20110711

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20150730

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170411