EP3623752A1 - Verfahren zum generieren einer orthogonalansicht eines objekts - Google Patents

Verfahren zum generieren einer orthogonalansicht eines objekts Download PDF

Info

Publication number
EP3623752A1
EP3623752A1 EP18194763.1A EP18194763A EP3623752A1 EP 3623752 A1 EP3623752 A1 EP 3623752A1 EP 18194763 A EP18194763 A EP 18194763A EP 3623752 A1 EP3623752 A1 EP 3623752A1
Authority
EP
European Patent Office
Prior art keywords
point cloud
view
terminal
server
derived
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP18194763.1A
Other languages
English (en)
French (fr)
Inventor
STUDNICKA Nikolaus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Riegl Laser Measurement Systems GmbH
Original Assignee
Riegl Laser Measurement Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Riegl Laser Measurement Systems GmbH filed Critical Riegl Laser Measurement Systems GmbH
Priority to EP18194763.1A priority Critical patent/EP3623752A1/de
Priority to CA3112311A priority patent/CA3112311A1/en
Priority to CN201980067538.5A priority patent/CN112840178A/zh
Priority to US17/275,278 priority patent/US11341713B2/en
Priority to PCT/EP2019/074693 priority patent/WO2020058184A1/de
Publication of EP3623752A1 publication Critical patent/EP3623752A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • G01C15/002Active optical surveying means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present invention relates to a method for generating an orthogonal view of an object in an environment.
  • plan or orthogonal views are a two-dimensional view of a building, street or landscape image, are used, for example, to renovate existing buildings or to redesign buildings in the city or in the country.
  • orthogonal views are engaged by surveyors or photogrammeters, who either carry out a manual measurement with total stations, leveling devices, goniometers, laser range finders, etc. or an automatic measurement with cameras or laser scanners and then manually create CAD plans (vector graphics) or orthogonal views . If so-called “orthophotos" are created from photos, they usually have to be reworked manually.
  • the aim of the invention is to create a method for creating orthogonal views that is more flexible and less complex than known measurement methods.
  • the method according to the invention makes it possible to process laser scan point clouds in such a way that orthogonal views can be derived from them.
  • the invention thus makes it possible to extract several different orthogonal views of objects depicted in the point cloud from a single point cloud. This is particularly valuable because when creating the point cloud it is usually not yet clear which orthogonal view a user will actually need at a later point in time. In this way, several orthogonal views can be generated from a single object depicted in the point cloud, for example both a front view and a side view of a building.
  • the view limitation can serve two purposes, namely on the one hand the determination of the image area (left, right, above, below) of the orthogonal view and on the other hand the image depth in order to hide parts of the point cloud that are "in front" or "behind” the desired view, e.g. a tree in front of a building.
  • the viewing direction in turn determines the direction from which the object to be imaged is to be viewed.
  • At least two point clouds - recorded at different locations - are used and merged into a common orthogonal view during the projection. This is particularly advantageous because parts of the object can be represented in the orthogonal view by the second point cloud that were not shown in the first point cloud, for example because parts of a building facade were covered there by a ledge, a car or a tree.
  • this solution is not limited to two point clouds, but can be expanded to any number of point clouds. This opens up further advantages So that, for example, an entire street, city or even an entire country can be "mapped" with point clouds and stored as a database. Architects, engineers or general users who are interested in an orthogonal view of any building that is covered by all the point clouds can create this themselves by simply specifying the view boundary and view direction. Compared to the traditional creation of orthogonal views of all possible buildings from all possible directions, enormous time and labor savings are achieved.
  • the mutual alignment of the point clouds can be improved in various ways.
  • the alignment can take place on the basis of angular orientations measured when the first and second 3D point clouds are generated. This allows fast and resource-saving alignment, since only the angular alignments of the laser scanners need to be known at the time the point cloud is created.
  • the angular alignments can be measured absolutely, e.g. with respect to the magnetic field, or relative to one another, for example by means of a gyroscope, which measures the change in movement from the first to the second location.
  • the alignment can be carried out by computer-aided finding of the same features in the first and second 3D point cloud, for example by matching building walls, vehicles or the like.
  • the features can be identified in advance, especially if reference targets are used for referencing, or by using the Point clouds are rotated against each other until they match in characteristics.
  • the method according to the invention allows a large number of possible applications or implementations, three of which are particularly preferred.
  • each 3D point cloud is sent directly to a terminal after it has been generated, and the steps representing, selecting, projecting and outputting are carried out on the terminal.
  • the point clouds can be sent directly to the terminal, e.g. a free-standing computer, laptop, mobile phone, etc. can be sent, for example via the Internet, via a WLAN connection between the laser scanner and the terminal, via a wired LAN interface or also by means of a data carrier, e.g. USB sticks.
  • each 3D point cloud is sent to a server after generation, the representation of the object takes place on a terminal connected to the server via a network, the selection of the view direction and the view limit is sent from the terminal to the server, the Projecting is carried out in the server and the output of the orthogonal view takes place by sending the orthogonal view from the server to the terminal.
  • the Terminal for example a laptop, floor-standing computer or smartphone, only serves to select the view limitation and view direction, so that all computing-intensive process steps - in particular the projecting - take place in the server. It is also particularly advantageous here that the data transfer via the network is extremely low, since the point clouds with information need not be transferred to the terminal.
  • each 3D point cloud is sent to a server, an indication of a desired geographical area is sent from the terminal to the server, and only that 3D point cloud is sent to the terminal that is at least partially in the specified geographical area and the steps of displaying, selecting, projecting and outputting are carried out on the terminal.
  • a large number of point clouds can be stored in the server, for example a district, a city or a country. The user can download point clouds relevant to him and carry out the computing-intensive steps himself, so that the server only has to provide storage capacity.
  • the point clouds can be recorded in advance, for example by means of a large-area measurement.
  • the users can then be given access to the point clouds using a browser-based platform in order to create any orthogonal views in freely selectable locations in the area.
  • the point clouds can be distributed individually, which also minimizes the amount of data transferred.
  • point clouds, representations or derived point clouds can be bundled either according to predefined areas or according to the selection of the view direction and the view boundary in order to facilitate the distribution between server and terminal.
  • the aforementioned computer-generated representation in which the user selects the view direction and limitation, can be provided as a map by a third party, for example.
  • the card can e.g. can be read from a local memory or downloaded from the Internet.
  • the computer-generated representation of the object, in which the view direction and limitation are selected is preferably obtained from the 3D point cloud (s) itself, for example by reducing the data thereof.
  • the representation generated in this way can, for example, be a simplified, also combined, distance, color and / or intensity image of the surroundings that can be made available to the user with a low bandwidth requirement via the Internet for the selection of the view direction and limitation.
  • Such type e.g. Representations distributed to the user via the Internet can also be used in a particularly advantageous manner as simplified (“derived") 3D point clouds of the original 3D point cloud if they contain distance information ("depth information”), which is also referred to as "2.5 D "is referred to.
  • a derived, simplified or user-adapted 3D point cloud can be "reconstructed” from such 2.5D representations, from which the desired orthogonal view is then generated by projecting in the selected view direction and limitation.
  • the derived first 3D point cloud is therefore preferably generated from the computer-generated representation itself, and the projection is carried out on the basis of the derived first 3D point cloud.
  • This means that the data to be transmitted can be further reduced, in particular in the case of server-based solutions, since the (usually data-reduced) 2.5D or 3D object representations simultaneously represent the derived point clouds to be distributed to the user.
  • the derived point cloud can be generated by data reduction of the first point cloud, for example directly in the laser scanner or by data processing in the server.
  • points of the Point cloud that is too close to other points is deleted, effectively reducing the point density.
  • a color image is preferably also recorded and the point cloud is combined with the color image, so that the orthogonal view is output with corresponding color values.
  • Fig. 1 shows an environment 1 in which an object 2 is located.
  • Object 2 is, for example, a house that is located in the vicinity 1 next to other houses 3 along a street 4, generally in a street landscape.
  • Other examples of objects 2 are castles, bridges, industrial buildings, landscapes, day or underground mines etc.
  • the aim of the procedure set out below is to measure object 2 and to draw up a plan, i.e. an orthogonal view of which to generate.
  • a plan i.e. an orthogonal view of which to generate.
  • one or more laser scanners 5 are used, which are carried, for example, by a tripod 6 at a working height.
  • each laser scanner 5 emits, for example, a plurality of laser beams L over a predetermined angular range ⁇ (solid angle), the environment 2 being measured in the form of distance measuring points P on the basis of the reflections of the laser beams L registered in the laser scanner 5 is, for example by means of transit time or interference measurement.
  • the entirety of the distance measuring points P forms the 3D point cloud 7.
  • the respective outside direction of the laser beams L is, for example, in the horizontal plane as azimuth ⁇ and in a direction parallel to the azimuth ⁇ Vertical plane given as elevation ⁇ .
  • the laser beams L emitted via the respective emission directions ⁇ , ⁇ are preferably evenly distributed over the predetermined angular range ⁇ .
  • the right laser scanner 5 shows an angular range ⁇ which, in azimuth ⁇ , has an angular range from 0 ° to 30 ° (starting from an arbitrarily selected origin) and in elevation ⁇ has an angular range from -15 ° to + 15 ° (starting from the horizontal plane ) spanned.
  • an angular range ⁇ ' is also shown which spans an angular range of 0 ° to 360 ° in azimuth ⁇ .
  • the illustrated angular range ⁇ ' spans a limited angular range from -15 ° to + 15 ° in elevation ⁇ in the example shown, but could also span an angular range from up to -90 ° to + 90 °, so that the angular range ⁇ ' also as Ball could be shaped.
  • the point cloud 7 can either link the distance measurement values of the laser measurement beams L with the respective outside direction ⁇ , ⁇ or convert the distance measurement values into a Cartesian coordinate system, for example, e.g. into a global coordinate system if the location 8 of the laser scanner is georeferenced at the time the point cloud 7 was generated, e.g. using GPS positions.
  • one or more color images 10 one of which is shown in FIG Fig. 2 is shown as an example.
  • the Point cloud 7 can be combined with the color image (s) 10, ie a color value can be assigned to each point P of the point cloud 7.
  • the orthogonal views subsequently generated can also be output in color.
  • the color value is converted into a black and white value (if it has not already been recorded in this way) and stored in a color channel of an RGB image, while the associated measured distance value of point P could be stored in the other two color channels (or only in one of the color channels) .
  • each point cloud 7 is therefore sent to a terminal 11 after generation by the respective laser scanner 5, for example a laptop, standing computer, mobile phone or the like.
  • the transmission can take place as desired, for example "online” directly after or during the generation of the point cloud (s) 7 via a wireless or wired interface, or only after the creation of one or more point cloud (s) 7 "offline", for example with the help of a data medium such as a USB stick.
  • the terminal 11 shows the user the object 2 on a screen 12 in a computer-generated representation 13.
  • This representation 13 is in the simplest case a geographical map depicting the object 2, as in the example of FIG Fig. 3 shown.
  • the representation 13 does not even have to contain information about the recorded point cloud 7 itself, ie it can be decoupled from it.
  • the representation 13 can be purchased from a third party, for example from Google Maps. In the example shown, however, at least the locations 8 of the point clouds 7 are shown in the illustration 13 in order to provide the user with information about the availability of point clouds 7.
  • a representation 13 which represents the point cloud 7 (or several point clouds 7, as explained below) directly, for example in a plan view. This enables the user to know which data the point cloud (s) 7 offer (s) before the orthogonal view is created.
  • representations 13 can be distance, color and / or intensity images.
  • the representations 13 are 2D, 2.5D or 3D representations. 2.5D representations are understood to mean 2D images which additionally encode distance or depth information, for example as "hidden" depth information in an unused color channel of the image.
  • the size of a derived point cloud 7 'reconstructed from the representation 13 is smaller than that of the original point cloud 7.
  • the user selects a view direction 14 and a view boundary 15 in the computer-generated representation 13.
  • the representation 13 is a plan view, be it as a map with the object 2 drawn in or also derived directly from the point cloud (s) 7
  • the view boundary 15 can be entered into the map particularly simply as a rectangle, for example by a first click on a starting point 16 and a second click on a diagonal end point 17.
  • the first click can be done by depressing a mouse or enter key and the second click by releasing the same key ("opening a frame with the mouse").
  • one of the shorter sides of the rectangle can be selected as the view direction if the direction from start point to end point 16, 17 is also taken into account.
  • the view boundary 15 can be specified, for example, as a cuboid in the 3D view.
  • the view direction 14 can be determined automatically in the direction of the plane closest to the cuboid in the point cloud (e.g. wall).
  • the view limit 15 shown is limited in two dimensions, which are given by the rectangle shown.
  • a height or depth limit can be selected, for example by means of a preset or adjustable numerical value.
  • the view boundary 15 is therefore preferably a cuboid, even if the representation 13 is two-dimensional.
  • the terminal 11 projects the 3D point cloud 7 or the derived point cloud 7 '- be it the latter was generated directly from the point cloud 7 by data reduction or was reconstructed from a 2.5D or 3D representation 13 generated by the point cloud 7 - Now against the view direction 14 on a level given by the view boundary 15.
  • One side of the view boundary 15 preferably lies in the plane (for example one side of the cuboid view boundary lies in the plane). This plane is also preferably normal to the viewing direction 14. Overall, therefore, that side of the cuboid view delimitation lies in the plane that is at the front when viewed in the viewing direction 14.
  • the plane extends vertically and is parallel to the view direction seen front side 19 of the rectangle serving as a view boundary.
  • the level would extend horizontally.
  • the orthogonal view 18 generated in this way is output, for example by a display on the screen 12 of the terminal 11 or by printing on a printer connected to the terminal 11.
  • the laser scanner 5 - or another laser scanner 5 - is set up at a second location 8 and at least a second location-related point cloud 7 (or derived point cloud 7 ') is generated from it, as in FIG Fig. 1 shown schematically.
  • the point clouds 7 are aligned with one another. This is initially done on the basis of the different locations 8, ie the point clouds 7 are positioned at a distance from one another which corresponds to a difference between the two locations 8. In certain cases, no angular alignment of the two point clouds 7 is required, for example if the point clouds 7 had the same recording direction.
  • the derived point clouds 7 ' can also be brought together if the projection is carried out on the basis of the derived point clouds 7'.
  • the alignment can also take place on the basis of the angular orientations of the laser scanners 5 measured when the first and second 3D point clouds 7 are generated.
  • the angular orientations of the laser scanners 5 can, for example, be measured absolutely (e.g. oriented to the magnetic field of the earth) or have a relative reference, for example by measurement using a gyroscope, when the same laser scanner 5 has been transferred from the first location 8 to the second location 8.
  • the alignment can also be carried out by computer-aided finding of the same features in the first and second 3D point clouds 7 and 7 '.
  • the features can be identified in advance, especially if easily identifiable, known "targets", e.g. highly reflective or in the form known marking objects are used for referencing, or by trial and error, in that the point clouds are rotated against each other until they match the features found.
  • the points P of the individual point clouds 7, 7 ' can also be stored as a combined point cloud 7, 7'.
  • the projection of the first 3D point cloud 7 or 7 ′ also includes the projection of the second 3D point cloud 7 or 7 ′ against the viewing direction 14 to said level 19. If the multiple point clouds 7 and 7 'have been merged into a single one, only one projection is made, otherwise more than one.
  • Fig. 5 shows that the point clouds 7 or derived point clouds 7 'do not have to be sent directly to a terminal 11, but can also be sent to a server 20 which has a correspondingly large memory in order to store a multiplicity of point clouds 7, 7' .
  • the point clouds 7, 7 'of entire cities or countries are stored in the server 20.
  • the terminals 11, which do not themselves have the point clouds 7, 7 ', serve as an interface to the users who want to generate the orthogonal view 18.
  • the terminals 11 are connected to the server 20, for example via a network 21 such as the Internet.
  • the server 20 carries out all computation-intensive steps itself. After each 3D point cloud 7 has been sent to the server 20 after generation, the object 2 is shown in the representation 13 on the terminal 11. Then the user selects the view direction 14 and the view boundary 15 in the representation 13, and the selection of the view direction 14 and the view boundary 15 is sent from the terminal 11 to the server 20. The server 20 then carries out the projection and outputs the orthogonal view 18 by sending the orthogonal view 18 from the server 20 to the terminal 11.
  • the server 20 merely serves as a storage unit for a large number of Point clouds 7 that can be selectively sent to the users.
  • an indication of a desired geographical area is sent from the terminal 11 to the server 20.
  • the specification can either be a general specification such as the desired street or city or directly the view direction 14 and view boundary 15. Consequently, only those 3D point cloud (s) 7, 2.5D or 3D representations 13 or derived point clouds 7 ' sent to the terminal 11, which lies or lie at least in part in the named geographical area, and the steps displaying, selecting, projecting and outputting are carried out on the terminal 11.
  • the stated information can also be the view direction 14 and view boundary 15 (in this case, the object 2 is represented using a representation 13 that is independent of the point clouds 7), the steps of displaying and selecting can either be before or after the transmission of the Point cloud (s) 7 from server 20 to terminal 11.
  • Fig. 6 shows the method described above in a first embodiment, which can be carried out, for example, serverless.
  • a first step S 1 the point cloud 7 is generated, in a second step S 2, the representation 13 is obtained from the point cloud 7, for example as a 2D, 2.5D or 3D representation of the point cloud 7.
  • a third step S 3 the representation 13 is shown, for example on the screen 12 of the terminal 11, after which the viewing direction 14 and the view boundary 15 in the representation 13 can be selected in a step S 4 .
  • the orthogonal view is output in a step S 6 .
  • Fig. 7 showed a further embodiment, in which the steps shown on the left take place in the terminal 11 and the steps shown on the right are carried out in the server 20 (with the exception of step S 1 , which is carried out in the laser scanner 5).
  • the representation 13 is not generated from the point cloud 7 itself, but is received or loaded in a step S 7 , for example from a third-party provider via the Internet.
  • Step S 1 of generating point cloud 7 is thus independent of step S 3 of displaying representation 13, because representation 13 is not obtained directly from point cloud 7.
  • the server 20 After selecting the view direction 14 and the view boundary 15 in the terminal 11 in step S 4 , these are sent to the server 20, which carries out the projection in step S 5 .
  • the orthogonal view 18 generated in this way is then sent to the terminal 11, where it is output in step S 6 .
  • Fig. 8 shows an embodiment in which the steps S 5 of projecting and S 6 of output take place on the basis of a derived point cloud 7 '.
  • step S 2 of obtaining the representation 13 takes place by reducing the data of the point cloud (s) 7, the representation 13 being present as a 2.5D or 3D representation 13 and in step S 3, for example as a 2D view is issued.
  • step S 4 of the selection the derived point cloud 7 'is generated in a step S 8 from the 2.5D or 3D representation 13, ie the (derived) point cloud 7' is reconstructed from the representation 13 ""in order to then be able to apply the projection step S 5 to the derived point cloud 7 '.
  • Data-reduced 2.5D or 3D representations 13 can also be distributed in a bandwidth-saving manner at terminals 11 with a low-bandwidth Internet connection, for example via mobile radio, which can reconstruct point clouds 7 'derived therefrom for the projection.
  • step S 1 are carried out in laser scanner 5 and steps S 2 - S 6 , S 8 in terminal 11.
  • step S 2 in server 20 and steps S 3 - S 6 , S 8 in terminal 11 are carried out after the representation 13 was transmitted from the server 20 to the terminal 11.
  • Another alternative would be a mixed form as in the embodiment of FIG Fig. 7 possible, steps S 2 and S 8 taking place in server 20 and steps S 3 , S 4 , S 5 and S 6 in terminal 11.

Abstract

Die Erfindung betrifft ein Verfahren zum Generieren einer Orthogonalansicht (18) eines Objekts (2) in einer Umgebung (1) mit den Schritten:Erzeugen (S<sub>1</sub>) einer standortbezogenen ersten 3D-Punktewolke (7) über einen vorgegebenen Winkelbereich (Ω) um einen ersten Standort (8) mittels eines Laserscanners (5);Darstellen (S<sub>3</sub>) des Objekts (2) in einer computergenerierten Darstellung (13);Auswählen (S<sub>4</sub>) einer Ansichtsrichtung (14) und einer Ansichtsbegrenzung (15) in der computergenerierten Darstellung (13) ;Projizieren (S<sub>5</sub>) der ersten 3D-Punktewolke (7) oder einer davon abgeleiteten ersten 3D-Punktewolke (7') entgegen der Ansichtsrichtung (14) auf eine von der Ansichtsbegrenzung (15) gegebene Ebene (19); undAusgeben (S<sub>6</sub>) der innerhalb der Ansichtsbegrenzung (15) auf die Ebene (19) projizierten ersten 3D-Punktewolke (7) oder abgeleiteten ersten 3D-Punktewolke (7') als Orthogonalansicht (18) .

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Generieren einer Orthogonalansicht eines Objekts in einer Umgebung.
  • Bei vielen professionellen Tätigkeiten, insbesondere solchen, die sich mit Architektur, Straßenbau oder Stadtplanung befassen, besteht ein großer Bedarf an Grund- und Aufrissen, sogenannten "Orthogonalansichten", von bereits bestehenden Gebäuden oder allgemein vom Straßen- bzw. Landschaftsbild. Solche Pläne bzw. Orthogonalansichten, die eine zweidimensionale Ansicht eines Gebäudes, Straßen- oder Landschaftsbilds sind, werden beispielsweise dazu eingesetzt, um bestehende Gebäude zu renovieren oder Neuplanungen von Bauten in der Stadt oder auf dem Land vorzunehmen.
  • Derzeit werden für derartige Orthogonalansichten Vermesser oder Photogrammeter engagiert, die zunächst entweder eine manuelle Vermessung mit Totalstationen, Nivelliergeräten, Goniometern, Laserentfernungsmessern usw. oder eine automatische Vermessung mit Kameras oder Laserscannern durchführen und anschließend manuell CAD-Pläne (Vektor-Grafiken) bzw. Orthogonalansichten erstellen. Werden sogenannte "Orthophotos" aus Fotos erstellt, müssen diese in der Regel zudem manuell nachbearbeitet werden.
  • Das manuelle Vermessen ("Abschreiten") ist zeitaufwändig und beschwerlich. Auch ein automatisches Vermessen mittels Kameras liefert noch keine Orthogonalansichten, denn Kameras befinden sich bei der Aufnahme eines Bilds an einem einzigen Standort, wodurch ihre Aufnahmen perspektivisch verzerrt sind. Dieselben Probleme treten bei Laserscannern auf, die von einem Standort aus eine Vielzahl von Lasermessstrahlen aussenden und beispielsweise aus Laufzeitmessungen der von der Umgebung reflektierten Lasermessstrahlen eine Vielzahl von Abtastpunkten (eine "Punktewolke") der Umgebung erstellen. Die so erzeugten Punktewolken geben die Umgebung jedoch wiederum nur ausgehend von dem Standort des Laserscanners wieder und sind deshalb wie Kamerabilder von ihrem Aufnahmeort aus perspektivisch verzerrt.
  • Es ist Ziel der Erfindung, ein Verfahren zum Erstellen von Orthogonalansichten zu schaffen, das flexibler und weniger aufwändig ist als bekannte Vermessungsverfahren.
  • Dieses Ziel wird gemäß der Erfindung durch ein Verfahren zum Generieren einer Orthogonalansicht eines Objekts in einer Umgebung erreicht, das folgende Schritte umfasst:
    • Erzeugen einer standortbezogenen ersten 3D-Punktewolke über einen vorgegebenen Winkelbereich um einen ersten Standort, wobei die erste 3D-Punktewolke mittels eines am ersten Standort befindlichen Laserscanners erzeugt wird, sodass die erste 3D-Punktewolke zumindest einen Teil des Objekts abbildet,
    • Darstellen des Objekts in einer computergenerierten Darstellung,
    • Auswählen einer Ansichtsrichtung und einer Ansichtsbegrenzung in der computergenerierten Darstellung,
    • Projizieren der ersten 3D-Punktewolke oder einer davon abgeleiteten Punktewolke entgegen der Ansichtsrichtung auf eine von der Ansichtsbegrenzung gegebene Ebene, und
    • Ausgeben der innerhalb der Ansichtsbegrenzung auf die Ebene projizierten ersten 3D-Punktewolke oder abgeleiteten Punktewolke als Orthogonalansicht.
  • Das erfindungsgemäße Verfahren schafft die Möglichkeit, Laserscan-Punktewolken derart zu verarbeiten, dass daraus Orthogonalansichten abgeleitet werden können. Die Erfindung ermöglicht es damit, aus einer einzigen Punktewolke mehrere verschiedene Orthogonalansichten von in der Punktewolke abgebildeten Objekten zu extrahieren. Dies ist besonders deshalb wertvoll, da beim Erstellen der Punktewolke in der Regel noch nicht feststeht, welche Orthogonalansicht ein Benutzer zu einem späteren Zeitpunkt tatsächlich benötigen wird. So können von einem einzigen in der Punktewolke abgebildeten Objekt mehrere Orthogonalansichten generiert werden, beispielsweise sowohl eine Vorderansicht als auch eine Seitenansicht eines Gebäudes.
  • Die Ansichtsbegrenzung kann zweierlei Aspekten dienen, nämlich einerseits der Bestimmung der Bildfläche (links, rechts, oben, unten) der Orthogonalansicht und andererseits der Bildtiefe, um Teile der Punktewolke auszublenden, die sich "vor" oder "hinter" der gewünschten Ansicht befinden, z.B. ein vor einem Gebäude befindlicher Baum. Die Ansichtsrichtung bestimmt wiederum, aus welcher Richtung das abzubildende Objekt betrachtet werden soll. Auch diese Schritte ermöglichen es, dass die Punktewolke vorab aufgenommen werden kann, und die Orthogonalansichten erst zu einem späteren Zeitpunkt individuell erstellt werden können.
  • Gemäß einer besonders bevorzugten Ausführungsform der Erfindung werden zumindest gleich zwei standortbezogene Punktewolken zur Erstellung der Orthogonalansicht herangezogen. Dazu kann das Verfahren folgende Schritte umfassen:
    • Erzeugen zumindest einer zweiten standortbezogenen 3D-Punktewolke, die um einem zweiten Standort erzeugt wurde, und
    • Ausrichten der ersten 3D-Punktewolke mit der zweiten 3D-Punktewolke anhand der unterschiedlichen Standorte,
    • wobei das Projizieren der ersten 3D-Punktewolke oder abgeleiteten ersten 3D-Punktewolke auch das Projizieren der zweiten 3D-Punktewolke oder einer davon abgeleiteten zweiten 3D-Punktewolke entgegen der Ansichtsrichtung auf die genannte Ebene umfasst, und das Ausgeben auch das Ausgeben der auf die Ebene projizierten zweiten 3D-Punktewolke oder abgeleiteten zweiten 3D-Punktewolke umfasst.
  • In dieser bevorzugten Ausführungsform werden somit zumindest zwei - an verschiedenen Standorten aufgezeichnete - Punktewolken eingesetzt und bei der Projektion in eine gemeinsame Orthogonalansicht zusammengeführt. Dies ist besonders vorteilhaft, weil durch die zweite Punktewolke Teile des Objekts in der Orthogonalansicht dargestellt werden können, die in der ersten Punktewolke nicht abgebildet waren, beispielsweise weil dort Teile einer Gebäudefassade durch einen Gebäudevorsprung, ein Auto oder einen Baum verdeckt waren.
  • Es versteht sich, dass diese Lösung nicht auf zwei Punktewolken beschränkt ist, sondern sich auf eine beliebige Anzahl von Punktewolken erweitern lässt. Dies eröffnet weitere Vorteile, sodass z.B. eine gesamte Straße, Stadt oder sogar ein gesamtes Land mit Punktewolken "kartographiert" und als Datenbank hinterlegt werden kann. Architekten, Ingenieure oder allgemein Benutzer, die an einer Orthogonalansicht eines beliebigen von der Gesamtheit der Punktewolken erfassten Gebäudes interessiert sind, können diese durch eine einfache Angabe der Ansichtsbegrenzung und Ansichtsrichtung selbst erstellen. Gegenüber der traditionellen Erstellung von Orthogonalansichten von allen möglichen Gebäuden aus allen möglichen Richtungen wird somit eine enorme Zeit- und Arbeitsersparnis erzielt.
  • Die gegenseitige Ausrichtung der Punktewolken kann auf verschiedene Arten verbessert werden. Erstens kann das Ausrichten anhand von beim Erzeugen der ersten und zweiten 3D-Punktewolken gemessenen Winkelausrichtungen erfolgen. Dies erlaubt ein schnelles und insbesondere ressourcenschonendes Ausrichten, da lediglich die Winkelausrichtungen der Laserscanner zum Zeitpunkt des Erstellens der Punktewolke bekannt sein müssen. Die Winkelausrichtungen können hierzu absolut gemessen werden, z.B. gegenüber dem Magnetfeld, oder relativ zueinander, beispielsweise mittels eines Gyroskops, das die Änderung der Bewegung vom ersten zum zweiten Standort misst.
  • Zweitens kann das Ausrichten durch ein computergestütztes Auffinden von gleichen Merkmalen in der ersten und zweiten 3D-Punktewolke erfolgen, beispielsweise durch Übereinstimmen von Gebäudewänden, Fahrzeugen oder dergleichen. Die Merkmale können dabei vorab identifiziert werden, insbesondere wenn Referenzziele zur Referenzierung eingesetzt werden, oder indem die Punktewolken solange gegeneinander verdreht werden, bis sie in Merkmalen übereinstimmen.
  • Das erfindungsgemäße Verfahren erlaubt eine Vielzahl von Anwendungs- bzw. Implementierungsmöglichkeiten, von denen drei Ausführungsformen besonders bevorzugt sind.
  • In einer ersten bevorzugten Ausführungsform wird jede 3D-Punktewolke nach dem Erzeugen direkt an ein Terminal gesandt und die Schritte Darstellen, Auswählen, Projizieren und Ausgeben werden auf dem Terminal durchgeführt. Dies ist besonders vorteilhaft, wenn die Erzeugung der Punktewolke und die Erzeugung der Orthogonalansichten in einer Hand liegen, z.B. wenn die mittels des Laserscanners erzeugten Punktewolken nur firmenintern verwendet werden. Die Punktewolken können in diesem Fall direkt an das Terminal, z.B. einen Standcomputer, Laptop, Mobiltelefon etc., gesandt werden, beispielsweise über das Internet, über eine WLAN-Verbindung zwischen Laserscanner und Terminal, über eine kabelgebundene LAN-Schnittstelle oder auch mittels eines Datenträgers, z.B. USB-Sticks.
  • In einer zweiten bevorzugten Ausführungsform wird jede 3D-Punktewolke nach dem Erzeugen an einen Server gesandt, das Darstellen des Objekts erfolgt auf einem mit dem Server über ein Netzwerk verbundenen Terminal, die Auswahl der Ansichtsrichtung und der Ansichtsbegrenzung wird vom Terminal an den Server gesandt, das Projizieren wird im Server durchgeführt und das Ausgeben der Orthogonalansicht erfolgt durch Senden der Orthogonalansicht vom Server an das Terminal. Diese Ausführungsform erlaubt ein serverbasiertes Generieren der Orthogonalansicht. Das Terminal, beispielsweise ein Laptop, Standcomputer oder Smartfon, dient lediglich der Auswahl der Ansichtsbegrenzung und Ansichtsrichtung, sodass alle rechenintensiven Verfahrensschritte - insbesondere das Projizieren - im Server stattfinden. Besonders vorteilhaft ist hier ferner, dass der Datentransfer über das Netzwerk äußerst gering ist, da die informationsreichen Punktewolken nicht zum Terminal transferiert werden müssen.
  • In einer dritten bevorzugten Ausführungsform wird jede 3D-Punktewolke an einen Server gesandt, eine Angabe über einen gewünschten geographischen Bereich wird von dem Terminal an den Server gesandt, und nur jene 3D-Punktewolke wird an das Terminal gesandt, die zumindest teilweise im genannten geographischen Bereich liegt, und die Schritte Darstellen, Auswählen, Projizieren und Ausgeben werden auf dem Terminal durchgeführt. Dies ist eine Mischvariante, die die Vorteile der beiden vorgenannten Ausführungsformen im Wesentlichen vereint. Es kann hierbei eine Vielzahl von Punktewolken im Server gespeichert werden, beispielsweise eines Bezirks, einer Stadt oder eines Lands. Der Benutzer kann für ihn relevante Punktewolken herunterladen und die rechenintensiven Schritte selbst ausführen, sodass der Server nur Speicherkapazitäten bereitstellen muss. Auch eine großräumige Ausrollung eines solchen Systems wird durch die technische Funktionalität der Individualisierung erleichtert, da hier Architekten oder Standplaner einzelne Punktewolken-Pakete von Straßen, Bezirken oder Städten vom Anbieter der Punktewolken individuell erwerben können, um daraufhin nach ihren eigenen Wünschen lokal Orthogonalansichten erstellen zu können.
  • Bei den serverbasierten Lösungen der zweiten und dritten Ausführungsform können die Punktewolken bereits vorab aufgenommen werden, beispielsweise mittels einer großflächigen Vermessung. Den Benutzern kann daraufhin Zugang zu den Punktewolken mittels einer browserbasierten Plattform geboten werden, um an frei wählbaren Orten in der Umgebung beliebige Orthogonalansichten zu erstellen. Die Punktewolken lassen sich individuell distribuieren, was auch die übertragene Datenmenge minimiert. Insbesondere können Punktewolken, Darstellungen oder abgeleitete Punktewolken entweder nach vordefinierten Gebieten oder gemäß der Auswahl der Ansichtsrichtung und der Ansichtsbegrenzung gebündelt werden, um die Verteilung zwischen Server und Terminal zu erleichtern.
  • Die genannte computergenerierte Darstellung, in welcher der Benutzer die Ansichtsrichtung und -begrenzung auswählt, kann beispielsweise als Karte von einem Drittanbieter bereitgestellt werden. Hierfür kann die Karte z.B. aus einem lokalen Speicher ausgelesen werden oder aus dem Internet heruntergeladen werden.
  • Bevorzugt wird jedoch die computergenerierte Darstellung des Objekts, in welcher die Ansichtsrichtung und -begrenzung ausgewählt werden, aus der bzw. den 3D-Punktwolke(n) selbst gewonnen, z.B. durch Datenreduzieren derselben. Die so erzeugte Darstellung kann beispielsweise ein vereinfachtes, auch kombiniertes, Entfernungs-, Farb- und/oder Intensitätsbild der Umgebung sein, das dem Benutzer mit geringem Bandbreitenbedarf über das Internet zur Auswahl der Ansichtsrichtung und -begrenzung zur Verfügung gestellt werden kann.
  • Solcherart z.B. über das Internet an den Benutzer distribuierte Darstellungen können überdies in besonders vorteilhafter Weise dann auch gleich als vereinfachte ("abgeleitete") 3D-Punktewolken der ursprünglichen 3D-Punktewolke verwendet werden, wenn sie Entfernungsinformation ("Tiefeninformation") mitenthalten, was auch als "2.5D" bezeichnet wird. Aus solchen 2.5D-Darstellungen kann eine abgeleitete, vereinfachte bzw. benutzerangepasste 3D-Punktewolke "rekonstruiert" werden, aus welcher dann die gewünschte Orthogonalansicht durch Projizieren in der ausgewählten Ansichtsrichtung und -begrenzung erzeugt wird. Mit anderen Worten wird also bevorzugt die abgeleitete erste 3D-Punktewolke aus der computergenerierten Darstellung selbst erzeugt, und das Projizieren wird anhand der abgeleiteten ersten 3D-Punktewolke durchgeführt. Damit können insbesondere bei serverbasierten Lösungen die zu übertragenden Daten weiter reduziert werden, da die (in der Regel datenreduzierten) 2.5D- bzw. 3D-Objektdarstellungen gleichzeitig die an den Benutzer zu distribuierenden abgeleiteten Punktewolken repräsentieren.
  • Alternativ kann die abgeleitete Punktewolke durch eine Datenreduktion der ersten Punktewolke erzeugt werden, beispielsweise unmittelbar im Laserscanner oder durch Datenverarbeitung im Server. Zu diesem Zweck können beispielsweise Punkte der Punktewolke gelöscht werden, die zu nahe an anderen Punkten liegen, wodurch effektiv die Punktedichte reduziert wird.
  • Bevorzugt wird beim Erzeugen jeder 3D-Punktewolke über den vorgegebenen Winkelbereich auch ein Farbbild aufgenommen und die Punktewolke mit dem Farbbild vereint, sodass die Orthogonalansicht mit entsprechenden Farbwerten ausgegeben wird. Dies ermöglicht farbige Orthogonalansichten, die mit herkömmlichen Abbildungsmethoden nicht erreichbar sind, da Panorama-Farbbilder naturgemäß keine echte Orthogonalansicht bieten können.
  • Die Erfindung wird nachfolgend anhand von in den beigeschlossenen Zeichnungen dargestellten Ausführungsbeispielen näher erläutert. In den Zeichnungen zeigen:
    • Fig. 1 ein Objekt in einer Umgebung mit mehreren bei dem Verfahren der Erfindung zum Einsatz kommenden Komponenten in einer schematischen Perspektivansicht;
    • Fig. 2 ein beispielhaftes standortbezogenes Panoramabild des Objekts von Fig. 1;
    • Fig. 3 eine Darstellung des Objekts von Fig. 1 in einer computergenerierten Darstellung während der Durchführung des Verfahrens der Erfindung;
    • Fig. 4 eine mit dem Verfahren der Erfindung generierte Orthogonalansicht des Objekts von Fig. 1;
    • Fig. 5 einen Laserscanner, einen Server und drei Terminals zur Durchführung einer weiteren Ausführungsform des Verfahrens der Erfindung in einer schematischen Ansicht;
    • Fig. 6 ein Flussdiagramm einer ersten Ausführungsform des erfindungsgemäßen Verfahrens;
    • Fig. 7 ein Flussdiagramm einer zweiten Ausführungsform des erfindungsgemäßen Verfahrens; und
    • Fig. 8 ein Flussdiagramm einer dritten Ausführungsform des erfindungsgemäßen Verfahrens.
  • Fig. 1 zeigt eine Umgebung 1, in der sich ein Objekt 2 befindet. Das Objekt 2 ist beispielsweise ein Haus, das sich in der Umgebung 1 neben anderen Häusern 3 entlang einer Straße 4, im Allgemeinen in einer Straßenlandschaft, befindet. Andere Beispiele von Objekten 2 sind Schlösser, Brücken, Industriegebäude, Landschaften, Tag- oder Untertagbergwerke etc.
  • Ziel des im Folgenden dargelegten Verfahren ist es, das Objekt 2 zu vermessen und einen Plan, d.h. eine Orthogonalansicht, dessen zu generieren. Dazu werden ein oder mehrere Laserscanner 5 eingesetzt, die beispielsweise von einem Dreibein 6 in einer Arbeitshöhe getragen werden.
  • Zum Erzeugen einer 3D-Punktewolke 7 der Umgebung 1 sendet jeder Laserscanner 5 über einen vorbestimmten Winkelbereich Ω (Raumwinkel) beispielsweise eine Vielzahl von Laserstrahlen L aus, wobei anhand der im Laserscanner 5 registrierten Reflexionen der Laserstrahlen L die Umgebung 2 in Form von Entfernungsmesspunkten P vermessen wird, beispielsweise mittels Laufzeit- oder Interferenzmessung. Die Gesamtheit der Entfernungsmesspunkte P bildet die 3D-Punktewolke 7. Zur Referenz wird die jeweilige Aussenderichtung der Laserstrahlen L z.B. in der Horizontalebene als Azimut α und in einer zum Azimut α parallelen Senkrechtebene als Elevation β angegeben. Die der über die jeweiligen Aussenderichtungen {α, β} ausgesandten Laserstrahlen L sind dabei bevorzugt gleichmäßig über den vorbestimmten Winkelbereich Ω verteilt.
  • Im Beispiel von Fig. 1 ist beim rechten Laserscanner 5 ein Winkelbereich Ω dargestellt, der im Azimut α einen Winkelbereich von 0° bis 30° (ausgehend von einem willkürlich gewähltem Ursprung) und in der Elevation β einen Winkelbereich von -15° bis +15° (ausgehend von der Horizontalebene) überspannt. Als Alternative ist ferner ein Winkelbereich Ω' dargestellt, der im Azimut α einen Winkelbereich von 0° bis 360° überspannt. Der dargestellte Winkelbereich Ω' überspannt in der Elevation β im gezeigten Beispiel zwar einen begrenzten Winkelbereich von -15° bis +15°, könnte jedoch auch einen Winkelbereich von bis zu -90° bis +90° überspannen, sodass der Winkelbereich Ω' auch als Kugel geformt sein könnte.
  • Die Punktewolke 7 kann als Punkte P entweder die Entfernungsmesswerte der Lasermessstrahlen L mit der jeweiligen Aussenderichtung {α, β} verknüpfen oder die Entfernungsmesswerte bereits in ein beispielsweise kartesisches Koordinatensystem umrechnen, z.B. in ein globales Koordinatensystem, wenn der Standort 8 des Laserscanners zum Zeitpunkt der Erzeugung der Punktewolke 7 georeferenziert ist, z.B. mittels GPS-Positionen.
  • Zusätzlich zum Erzeugen der 3D-Punktewolke 7 können über den vorgegebenen Winkelbereich Ω mittels einer Kamera 9 auch ein oder mehrere Farbbilder 10 aufgenommen werden, von denen eines in Fig. 2 beispielhaft dargestellt ist. Danach kann die Punktewolke 7 mit dem bzw. den Farbbild(ern) 10 vereint werden, d.h. jedem Punkt P der Punktewolke 7 kann ein Farbwert zugeordnet werden. Dadurch können die in der Folge erzeugten Orthogonalansichten auch farblich ausgegeben werden.
  • Um die Farbwerte gemeinsam mit den Punkten P zu speichern, könnte z.B. der Farbwert in einen Schwarzweißwert umgerechnet werden (sofern er nicht bereits derart aufgenommen wurde) und in einem Farbkanal eines RGB-Bildes gespeichert werden, während der zugehörige Entfernungsmesswert des Punktes P in den anderen beiden Farbkanälen (oder nur in einem der Farbkanäle) gespeichert werden könnte.
  • Wie aus Fig. 2 ersichtlich ist, bilden standortbezogen erzeugte Punktewolken 7 bzw. Farbbilder 10 die aufgenommene Umgebung 1 samt Objekt 2 immer gekrümmt ab, wodurch aufgezeichnete Ebenen verzerrt dargestellt werden, wie bei dem Haus 2 in Fig. 2 deutlich ersichtlich ist. Deshalb sind Pläne bzw. Orthogonalansichten aus derartigen standortbezogenen Ansichten nicht entnehmbar.
  • Zur weiteren Verarbeitung wird jede Punktewolke 7 daher nach dem Erzeugen vom jeweiligen Laserscanner 5 an ein Terminal 11 gesandt, beispielsweise einen Laptop, Standcomputer, Mobiltelefon oder dergleichen. Die Übertragung kann beliebig erfolgen, beispielsweise "online" direkt nach dem bzw. während des Erzeugens der Punktewolke(n) 7 über eine kabellose oder kabelgebundene Schnittstelle, oder auch erst nach dem Erzeugen einer oder mehrerer Punktewolke(n) 7 "offline", z.B. mit Hilfe eines Datenträgers wie eines USB-Sticks.
  • Wie in Fig. 3 gezeigt, stellt das Terminal 11 dem Benutzer das Objekt 2 auf einem Bildschirm 12 in einer computergenerierten Darstellung 13 dar. Diese Darstellung 13 ist im einfachsten Fall eine das Objekt 2 abbildende geographische Karte, wie im Beispiel von Fig. 3 dargestellt. Die Darstellung 13 muss nicht einmal Informationen über die aufgezeichnete Punktewolke 7 selbst enthalten, d.h. kann von dieser entkoppelt sein. Die Darstellung 13 kann von einem Drittanbieter erworben werden, beispielsweise von Google Maps. Im dargestellten Beispiel werden jedoch zumindest die Standorte 8 der Punktewolken 7 in der Darstellung 13 eingezeichnet, um dem Benutzer Informationen über die Verfügbarkeit von Punktewolken 7 zu geben.
  • In einer anderen Ausführungsform wird anstelle einer von der Punktewolke 7 unabhängigen Karte eine Darstellung 13 gewählt, die die Punktewolke 7 (oder mehrere Punktewolken 7, wie im Anschluss erläutert) unmittelbar darstellt, beispielsweise in einer Draufsicht. Dies ermöglicht dem Benutzer, bereits vor Erstellung der Orthogonalansicht zu wissen, welche Daten die Punktewolke(n) 7 bietet bzw. bieten. Derartige Darstellungen 13 können je nach Ausgestaltung Entfernungs-, Farb- und/oder Intensitätsbilder sein. Die Darstellungen 13 sind je nach Ausführungsform 2D-, 2.5D- oder 3D-Darstellungen. Unter 2.5D-Darstellungen werden 2D-Bilder verstanden, die zusätzlich eine Entfernungs- bzw. Tiefeninformation kodieren, beispielsweise als Tiefeninformation "versteckt" in einem nicht verwendeten Farbkanal des Bildes.
  • Wenn die Darstellung 13 als 2.5D- oder 3D-Darstellung 13 direkt aus der bzw. den Punktewolke(n) 7 gewonnen worden ist, kann aus einer solchen 2.5D- bzw. 3D-Darstellung 13 wieder eine Punktewolke 7' rekonstruiert werden, hier als "abgeleitete" Punktewolke 7' der Punktewolke 7 bezeichnet. Beispielsweise waren in der Darstellung 13 jene Entfernungsmesspunkte P der Punktewolke 7 unberücksichtigt geblieben, die für die computergenerierte Darstellung 13 nicht relevant waren. In diesem Fall ist die Größe einer von der Darstellung 13 rekonstruierten abgeleiteten Punktewolke 7' geringer als jene der ursprünglichen Punktewolke 7.
  • Um nun eine Orthogonalansicht des Objekts 2 zu generieren, wählt der Benutzer in der computergenerierten Darstellung 13 eine Ansichtsrichtung 14 und eine Ansichtsbegrenzung 15 aus. Wenn die Darstellung 13 eine Draufsicht ist, sei es als Karte mit dem eingezeichneten Objekt 2 oder auch direkt von der/den Punktewolke(n) 7 abgeleitet, kann die Ansichtsbegrenzung 15 besonders einfach als Rechteck in die Karte eingetragen werden, beispielsweise durch ein erstes Klicken auf einen Startpunkt 16 und ein zweites Klicken auf einen diagonalen Endpunkt 17. Alternativ kann das erste Klicken durch das Niederdrücken einer Maus- oder Eingabetaste und das zweite Klicken durch das Loslassen derselben Taste erfolgen ("Aufziehen eines Rahmens mit der Maus"). Dabei kann gleichzeitig eine der kürzeren Seiten des Rechtecks als Ansichtsrichtung gewählt werden, wenn die Richtung von Start- zu Endpunkt 16, 17 mitberücksichtigt wird.
  • Wenn die computergenerierte Darstellung 13 keine 2D- sondern eine perspektivische 3D-Ansicht ist, kann die Ansichtsbegrenzung 15 beispielsweise als Quader in der 3D-Ansicht angegeben werden. Die Ansichtsrichtung 14 kann in Richtung der dem Quader nächstliegenden in der Punktewolke vorhandenen Ebene (z.B. Wand) automatisch ermittelt werden.
  • Die in Fig. 3 dargestellte Ansichtsbegrenzung 15 begrenzt in zwei Dimensionen, die durch das dargestellte Rechteck gegeben sind. Zusätzlich kann noch eine Höhen- bzw. Tiefenbegrenzung ausgewählt werden, beispielsweise durch einen voreingestellten oder einstellbaren numerischen Wert. Bevorzugt ist die Ansichtsbegrenzung 15 deshalb ein Quader, auch wenn die Darstellung 13 zweidimensional ist.
  • Zum Generieren der Orthogonalansicht 18, die in Fig. 4 als Ergebnis dargestellt ist, projiziert das Terminal 11 die 3D-Punktewolke 7 oder die abgeleitete Punktewolke 7' - sei letztere direkt von der Punktewolke 7 durch Datenreduktion erzeugt worden oder aus einer von der Punktewolke 7 erzeugten 2.5D- oder 3D-Darstellung 13 rekonstruiert worden - nun entgegen der Ansichtsrichtung 14 auf eine von der Ansichtsbegrenzung 15 gegebene Ebene. Bevorzugt liegt eine Seite der Ansichtsbegrenzung 15 in der Ebene (z.B. liegt eine Seite der Quader-Ansichtsbegrenzung in der Ebene). Diese Ebene ist zudem bevorzugt normal zur Ansichtsrichtung 14. Insgesamt liegt deshalb jene Seite der Quader-Ansichtsbegrenzung in der Ebene, die in Ansichtsrichtung 14 gesehen vorne liegt. Im Beispiel von Fig. 3 erstreckt sich die Ebene vertikal und ist parallel zur in Ansichtsrichtung gesehen vorderen Seite 19 des als Ansichtsbegrenzung dienenden Rechtecks. Zur Erstellung eines Grundrisses würde sich die Ebene entsprechend horizontal erstrecken.
  • In einem letzten Verfahrensschritt wird die derart generierte Orthogonalansicht 18 ausgegeben, beispielsweise durch eine Anzeige auf dem Bildschirm 12 des Terminals 11 oder durch Drucken auf einem an das Terminal 11 angeschlossenem Drucker.
  • Anstelle des Erzeugens einer einzigen Punktewolke 7 oder abgeleiteten Punktewolke 7' und anschließenden Generierens der Orthogonalansicht 18 mittels dieser einzigen Punktewolke 7 bzw. 7' können auch mehrere Punktewolken 7 bzw. 7' vorab erzeugt werden. Dazu wird der Laserscanner 5 - oder ein anderer Laserscanner 5 - an einem zweiten Standort 8 aufgestellt und von diesem aus zumindest eine zweite standortbezogene Punktewolke 7 (bzw. abgeleitete Punktewolke 7') erzeugt, wie in Fig. 1 schematisch dargestellt.
  • Um die erste und die (zumindest eine) zweite Punktewolke 7 zusammenzuführen, werden diese zueinander ausgerichtet. Dies erfolgt zunächst anhand der unterschiedlichen Standorte 8, d.h. die Punktewolken 7 werden in einem Abstand, der einer Differenz der beiden Standorte 8 entspricht, voneinander positioniert. In bestimmten Fällen ist dabei keine Winkelausrichtung der beiden Punktewolken 7 erforderlich, beispielsweise wenn die Punktewolken 7 eine gleiche Aufnahmerichtung hatten. Alternativ können auch die abgeleiteten Punktewolken 7' zusammengeführt werden, wenn die Projektion anhand der abgeleiteten Punktewolken 7' durchgeführt wird.
  • Zusätzlich kann das Ausrichten ferner anhand von beim Erzeugen der ersten und zweiten 3D-Punktewolke 7 gemessenen Winkelausrichtungen der Laserscanner 5 erfolgen. Die Winkelausrichtungen der Laserscanner 5 können beispielsweise absolut gemessen werden (z.B. am Magnetfeld der Erde orientiert) oder einen relativen Bezug aufweisen, beispielsweise durch eine Messung mittels eines Gyroskops, wenn derselbe Laserscanner 5 vom ersten Standort 8 zum zweiten Standort 8 überführt worden ist.
  • Alternativ oder zusätzlich kann das Ausrichten ferner durch ein computergestütztes Auffinden von gleichen Merkmalen in den ersten und zweiten 3D-Punktewolken 7 bzw. 7' erfolgen. Die Merkmale können dabei vorab identifiziert werden, insbesondere wenn leicht identifizierbare, bekannte "Targets", z.B. hochreflektierende oder in der Form bekannte Markierungsobjekte, zur Referenzierung eingesetzt werden, oder durch Trial-and-Error, indem die Punktewolken solange gegeneinander verdreht werden, bis sie in aufgefundenen Merkmalen übereinstimmen.
  • Nachdem die (zumindest zwei) Punktewolken 7 oder abgeleiteten Punktewolken 7' ausgerichtet wurden, können diese wie eine einzige Punktewolke 7 bzw. eine einzige abgeleitete Punktewolke 7' behandelt werden. Insbesondere können die Punkte P der einzelnen Punktewolken 7, 7' auch als eine kombinierte Punktewolke 7, 7' gespeichert werden.
  • Um die Orthogonalansicht 18 anhand zwei oder mehr Punktewolken 7 bzw. 7' zu generieren, umfasst das Projizieren der ersten 3D-Punktewolke 7 bzw. 7' auch das Projizieren der zweiten 3D-Punktewolke 7 bzw. 7' entgegen der Ansichtsrichtung 14 auf die genannte Ebene 19. Wenn die mehreren Punktewolken 7 bzw. 7' in eine einzige zusammengeführt wurden, erfolgt dementsprechend nur eine Projektion, ansonsten mehr als eine.
  • Fig. 5 zeigt, dass die Punktewolken 7 bzw. abgeleiteten Punktewolken 7' nicht unmittelbar an ein Terminal 11 gesandt werden müssen, sondern auch an einen Server 20 gesandt werden können, der einen entsprechend großen Speicher aufweist, um eine Vielzahl von Punktewolken 7, 7' zu speichern. Beispielsweise sind im Server 20 die Punktewolken 7, 7' ganzer Städte oder Länder gespeichert. Die Terminals 11, die nicht selbst über die Punktewolken 7, 7' verfügen, dienen als Schnittstelle zu den Benutzern, die die Orthogonalansicht 18 generieren wollen. Die Terminals 11 sind mit dem Server 20 beispielsweise über ein Netzwerk 21 wie das Internet verbunden.
  • In einer ersten serverbasierten Ausführungsform führt der Server 20 alle rechenintensiven Schritte selbst durch. Dabei erfolgt - nachdem jede 3D-Punktewolke 7 nach dem Erzeugen an den Server 20 gesandt wurde - das Darstellen des Objekts 2 in der Darstellung 13 auf dem Terminal 11. Danach wählt der Benutzer in der Darstellung 13 die Ansichtsrichtung 14 und die Ansichtsbegrenzung 15 aus, und die Auswahl der Ansichtsrichtung 14 und der Ansichtsbegrenzung 15 wird vom Terminal 11 an den Server 20 gesandt. Der Server 20 führt danach das Projizieren durch und gibt die Orthogonalansicht 18 durch Senden der Orthogonalansicht 18 vom Server 20 an das Terminal 11 aus.
  • In einer zweiten serverbasierten Ausführungsform dient der Server 20 lediglich als Speichereinheit für eine Vielzahl von Punktewolken 7, die selektiv an die Benutzer gesandt werden können. Dazu wird - nachdem jede 3D-Punktewolke 7 nach dem Erzeugen an den Server 20 gesandt wurde - eine Angabe über einen gewünschten geographischen Bereich von dem Terminal 11 an den Server 20 gesandt. Die Angabe kann entweder eine allgemeine Angabe wie die gewünschte Straße oder Stadt sein oder direkt die Ansichtsrichtung 14 und Ansichtsbegrenzung 15. Folglich wird/werden nur jene 3D-Punktewolke(n) 7, 2.5D bzw. 3D-Darstellungen 13 oder abgeleitete Punktewolken 7' an das Terminal 11 gesandt, die zumindest teilweise im genannten geographischen Bereich liegt bzw. liegen, und die Schritte Darstellen, Auswählen, Projizieren und Ausgeben werden auf dem Terminal 11 durchgeführt. Da die genannte Angabe auch direkt die Ansichtsrichtung 14 und Ansichtsbegrenzung 15 sein kann (in diesem Fall erfolgt die Darstellung des Objekts 2 anhand einer von den Punktewolken 7 unabhängigen Darstellung 13), können die Schritte des Darstellens und des Auswählens entweder vor oder nach dem Senden der Punktewolke (n) 7 vom Server 20 an das Terminal 11 erfolgen.
  • Fig. 6 zeigt das oben beschriebene Verfahren in einer ersten Ausführungsform, die beispielsweise serverlos durchgeführt werden kann. Dabei wird in einem ersten Schritt S1 die Punktewolke 7 erzeugt, in einem zweiten Schritt S2 aus der Punktewolke 7 die Darstellung 13 gewonnen, beispielsweise als 2D-, 2.5D- oder 3D-Darstellung der Punktewolke 7. In einem dritten Schritt S3 wird die Darstellung 13 dargestellt, beispielsweise am Bildschirm 12 des Terminals 11, wonach die Ansichtsrichtung 14 und die Ansichtsbegrenzung 15 in der Darstellung 13 in einem Schritt S4 ausgewählt werden. Nach dem Projizieren in einem Schritt S5 wird die Orthogonalansicht in einem Schritt S6 ausgegeben.
  • Fig. 7 zeigte eine weitere Ausführungsform, bei der die links dargestellten Schritte im Terminal 11 stattfinden und die rechts dargestellten Schritte im Server 20 durchgeführt werden (mit Ausnahme des Schritts S1, der im Laserscanner 5 durchgeführt wird). Insbesondere wird in dieser Ausführungsform die Darstellung 13 nicht aus der Punktewolke 7 selbst generiert, sondern in einem Schritt S7 empfangen oder geladen, beispielsweise von einem Drittanbieter über das Internet.
  • Somit ist der Schritt S1 des Erzeugens der Punktewolke 7 vom Schritt S3 des Darstellens der Darstellung 13 unabhängig, denn die Darstellung 13 wird nicht unmittelbar aus der Punktewolke 7 gewonnen. Nach dem Auswählen der Ansichtsrichtung 14 und der Ansichtsbegrenzung 15 im Terminal 11 in Schritt S4 werden diese an den Server 20 gesandt, der das Projizieren in Schritt S5 durchführt. Die derart erzeugte Orthogonalansicht 18 wird daraufhin an das Terminal 11 übersandt, wo diese in Schritt S6 ausgegeben wird.
  • Fig. 8 zeigt eine Ausführungsform, bei der die Schritte S5 des Projizierens und S6 des Ausgebens auf Basis einer abgeleiteten Punktewolke 7' erfolgen. Hierbei erfolgt der Schritt S2 des Gewinnens der Darstellung 13 durch Datenreduzieren der Punktewolke(n) 7, wobei die Darstellung 13 als 2.5D- oder 3D-Darstellung 13 vorliegt und in Schritt S3 z.B. als 2D-Ansicht ausgegeben wird. Nach (oder alternativ vor) dem Schritt S4 des Auswählens wird in einem Schritt S8 die abgeleitete Punktewolke 7' aus der 2.5D- oder 3D-Darstellung 13 erzeugt, d.h. die (abgeleitete) Punktewolke 7' wird aus der Darstellung 13 "rekonstruiert", um den Projektionsschritt S5 anschließend auf die abgeleitete Punktewolke 7' anwenden zu können.
  • Je nach Ausgestaltung des Datenreduzierens in den Schritten S2 und/oder S8 kann somit eine größere oder geringere Datenreduktion für die abgeleitete Punktewolke 7' erzielt werden. Datenreduzierte 2.5D- bzw. 3D-Darstellungen 13 können bandbreitenschonend auch an Terminals 11 mit Internetanbindung geringer Bandbreite, z.B. über Mobilfunk, distribuiert werden, welche daraus abgeleitete Punktewolken 7' für die Projektion rekonstruieren können.
  • In der Ausführungsform von Fig. 8 werden der Schritt S1 im Laserscanner 5 durchgeführt und die Schritte S2 - S6, S8 im Terminal 11. Alternativ werden der Schritt S2 im Server 20 und die Schritte S3 - S6, S8 im Terminal 11 durchgeführt, nachdem die Darstellung 13 vom Server 20 an das Terminal 11 übertragen wurde. Weiters alternativ wäre eine Mischform wie in der Ausführungsform von Fig. 7 möglich, wobei die Schritte S2 und S8 im Server 20 stattfinden und die Schritte S3, S4, S5 und S6 im Terminal 11.
  • Die Erfindung ist demgemäß nicht auf die dargestellten Ausführungsformen beschränkt, sondern umfasst alle Varianten, Modifikationen und Kombinationen, die in den Rahmen der angeschlossenen Ansprüche fallen.

Claims (10)

  1. Verfahren zum Generieren einer Orthogonalansicht (18) eines Objekts (2) in einer Umgebung (1), gekennzeichnet durch
    Erzeugen (S1) einer standortbezogenen ersten 3D-Punktewolke (7) über einen vorgegebenen Winkelbereich (Ω) um einen ersten Standort (8), wobei die erste 3D-Punktewolke (7) mittels eines am ersten Standort (8) befindlichen Laserscanners (5) erzeugt wird, sodass die erste 3D-Punktewolke (7) zumindest einen Teil des Objekts (2) abbildet;
    Darstellen (S3) des Objekts (2) in einer computergenerierten Darstellung (13);
    Auswählen (S4) einer Ansichtsrichtung (14) und einer Ansichtsbegrenzung (15) in der computergenerierten Darstellung (13) ;
    Projizieren (S5) der ersten 3D-Punktewolke (7) oder einer davon abgeleiteten ersten 3D-Punktewolke (7') entgegen der Ansichtsrichtung (14) auf eine von der Ansichtsbegrenzung (15) gegebene Ebene (19); und
    Ausgeben (S6) der innerhalb der Ansichtsbegrenzung (15) auf die Ebene (19) projizierten ersten 3D-Punktewolke (7) oder abgeleiteten ersten 3D-Punktewolke (7') als Orthogonalansicht (18) .
  2. Verfahren nach Anspruch 1, gekennzeichnet durch Erzeugen (S1) zumindest einer zweiten standortbezogenen 3D-Punktewolke (7), die um einem zweiten Standort (8) erzeugt wurde; und
    Ausrichten der ersten 3D-Punktewolke (7) mit der zweiten 3D-Punktewolke (7) anhand der unterschiedlichen Standorte (8);
    wobei das Projizieren (S5) der ersten 3D-Punktewolke (7) oder abgeleiteten ersten 3D-Punktewolke (7') auch das Projizieren der zweiten 3D-Punktewolke (7) oder einer davon abgeleiteten zweiten 3D-Punktewolke (7') entgegen der Ansichtsrichtung (14) auf die genannte Ebene (19) umfasst, und das Ausgeben (S6) auch das Ausgeben der auf die Ebene (19) projizierten zweiten 3D-Punktewolke (7) oder abgeleiteten zweiten 3D-Punktewolke (7') umfasst.
  3. Verfahren nach Anspruch 2, wobei das Ausrichten ferner anhand von beim Erzeugen (S1) der ersten und zweiten 3D-Punktewolke (7) gemessenen Winkelausrichtungen erfolgt.
  4. Verfahren nach Anspruch 2 oder 3, wobei das Ausrichten ferner durch ein computergestütztes Auffinden von gleichen Merkmalen in der ersten und zweiten 3D-Punktewolke (7) erfolgt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei jede 3D-Punktewolke (7) nach dem Erzeugen (S1) direkt an ein Terminal (11) gesandt wird und die Schritte Darstellen (S3), Auswählen (S4), Projizieren (S5) und Ausgeben (S6) auf dem Terminal (11) durchgeführt werden.
  6. Verfahren nach einem der Ansprüche 1 bis 4, wobei jede 3D-Punktewolke (7) nach dem Erzeugen (S1) an einen Server (20) gesandt wird, das Darstellen (S3) des Objekts (2) auf einem mit dem Server (20) verbundenen Terminal (11) erfolgt, die Auswahl der Ansichtsrichtung (14) und der Ansichtsbegrenzung (15) vom Terminal (11) an den Server (20) gesandt wird, das Projizieren (S5) im Server (20) durchgeführt wird und das Ausgeben (S6) der Orthogonalansicht (18) durch Senden der Orthogonalansicht (18) vom Server (20) an das Terminal (11) erfolgt.
  7. Verfahren nach einem der Ansprüche 1 bis 4, wobei jede 3D-Punktewolke (7) an einen Server (20) gesandt wird, eine Angabe über einen gewünschten geographischen Bereich von dem Terminal (11) an den Server (20) gesandt wird, und nur jene 3D-Punktewolke (7) an das Terminal (11) gesandt wird, die zumindest teilweise im genannten geographischen Bereich liegt, und die Schritte Darstellen (S3), Auswählen (S4), Projizieren (S5) und Ausgeben (S6) auf dem Terminal (11) durchgeführt werden.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei die computergenerierte Darstellung (13) aus der ersten 3D-Punktwolke (7) durch Datenreduzieren gewonnen wird.
  9. Verfahren nach Anspruch 8, wobei die abgeleitete erste 3D-Punktewolke (7') aus der computergenerierten Darstellung (13) erzeugt wird, und
    das Projizieren (S5) anhand der abgeleiteten ersten 3D-Punktewolke (7') durchgeführt wird.
  10. Verfahren nach einem der Ansprüche 1 bis 7, wobei beim Erzeugen (S1) jeder 3D-Punktewolke (7) über den vorgegebenen Winkelbereich (Ω) auch ein Farbbild (10) aufgenommen wird und die Punktewolke (7) mit dem Farbbild (10) vereint wird, sodass die Orthogonalansicht (18) mit entsprechenden Farbwerten ausgegeben wird.
EP18194763.1A 2018-09-17 2018-09-17 Verfahren zum generieren einer orthogonalansicht eines objekts Withdrawn EP3623752A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP18194763.1A EP3623752A1 (de) 2018-09-17 2018-09-17 Verfahren zum generieren einer orthogonalansicht eines objekts
CA3112311A CA3112311A1 (en) 2018-09-17 2019-09-16 Method for generating an orthogonal view of an object
CN201980067538.5A CN112840178A (zh) 2018-09-17 2019-09-16 用于生成对象的正交视图的方法
US17/275,278 US11341713B2 (en) 2018-09-17 2019-09-16 Method for generating an orthogonal view of an object
PCT/EP2019/074693 WO2020058184A1 (de) 2018-09-17 2019-09-16 Verfahren zum generieren einer orthogonalansicht eines objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP18194763.1A EP3623752A1 (de) 2018-09-17 2018-09-17 Verfahren zum generieren einer orthogonalansicht eines objekts

Publications (1)

Publication Number Publication Date
EP3623752A1 true EP3623752A1 (de) 2020-03-18

Family

ID=63787694

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18194763.1A Withdrawn EP3623752A1 (de) 2018-09-17 2018-09-17 Verfahren zum generieren einer orthogonalansicht eines objekts

Country Status (5)

Country Link
US (1) US11341713B2 (de)
EP (1) EP3623752A1 (de)
CN (1) CN112840178A (de)
CA (1) CA3112311A1 (de)
WO (1) WO2020058184A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060182314A1 (en) * 2005-02-11 2006-08-17 England James N Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
EP2866198A2 (de) * 2013-10-22 2015-04-29 Hexagon Technology Center GmbH Registrierung mehrfacher Laser-Scans

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US20100208981A1 (en) * 2009-02-13 2010-08-19 Harris Corporation Method for visualization of point cloud data based on scene content
US20110187704A1 (en) * 2010-02-04 2011-08-04 Microsoft Corporation Generating and displaying top-down maps of reconstructed 3-d scenes
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
US10032311B1 (en) * 2014-09-29 2018-07-24 Rockwell Collins, Inc. Synthetic image enhancing system, device, and method
US10818084B2 (en) * 2015-04-07 2020-10-27 Geopogo, Inc. Dynamically customized three dimensional geospatial visualization
CN107918753B (zh) * 2016-10-10 2019-02-22 腾讯科技(深圳)有限公司 点云数据处理方法及装置
EP3315907A1 (de) * 2016-10-27 2018-05-02 Leica Geosystems AG Verfahren zur visuellen darstellung von scandaten

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060182314A1 (en) * 2005-02-11 2006-08-17 England James N Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
EP2866198A2 (de) * 2013-10-22 2015-04-29 Hexagon Technology Center GmbH Registrierung mehrfacher Laser-Scans

Also Published As

Publication number Publication date
CA3112311A1 (en) 2020-03-26
US11341713B2 (en) 2022-05-24
US20220044473A1 (en) 2022-02-10
CN112840178A (zh) 2021-05-25
WO2020058184A1 (de) 2020-03-26

Similar Documents

Publication Publication Date Title
DE60213526T2 (de) Verfahren und System zur Verbesserung des Situationsbewusstseins von Kommando-Kontrolleinheiten
DE202011110887U1 (de) Wiedergeben und navigieren fotografischer Panoramen mit Tiefeninformationen in einem geographischen Informationssystem
EP0763185B1 (de) Verfahren zur erfassung, auswertung, ausmessung und speicherung von geo-informationen
DE202015009198U1 (de) Auswahl der zeitlich verteilten Panoramabilder für die Anzeige
DE19549306A1 (de) Verfahren und Vorrichtung zur bildlichen Darstellung raumbezogener Daten
DE202009019126U1 (de) Dreidimensionale Beschriftungen für Strassenansichtsdaten
DE202010018459U1 (de) System zur Darstellung von Übergängen zwischen Strassenansichten
DE112008001380T5 (de) Handhabung von Rasterbild-3D-Objekten
DE202012013450U1 (de) Beschriftungspositionierbildwiedergabesystem zur Reduzierung des Kriechens bei Zoom-Aktivitäten
DE102005046735B4 (de) Verfahren zur rechnergestützten Ermittlung einer Position in einer Landkarte, Navigationsvorrichtung und Mobilfunktelefon
DE112016003134T5 (de) Anzeigen von Objekten basierend auf einer Vielzahl von Modellen
DE102015120999A1 (de) Verfahren zur Erzeugung und Darstellung einer computergenerierten, eine Realumgebung abbildenden Simulationsumgebung
EP2747032A1 (de) Verfahren zur fotorealistischen Visualisierung von einem dreidimensionalen Gelände-Datensatz in Echtzeit
DE202013012446U1 (de) Strukturüberblendung für weichen Übergang zwischen unterschiedlichen Detaillierungsgraden in Grafikanwendungen
DE202016007909U1 (de) Systeme für den Übergang zwischen Perspektiven in einer dreidimensionalen Umgebung
EP4051982A1 (de) Verfahren und mobile erfassungsvorrichtung zur erfassung von infrastrukturelementen eines unterirdischen leitungsnetzwerks
DE202012013439U1 (de) Das Verwenden von Banding zur Optimierung der Kartenwiedergabe in einer dreidimensionalen Neigungsansicht
CN114564779A (zh) 一种基于bim和无人机的复杂山区施工便道的规划方法
DE102004028736A1 (de) Verfahren zur automatischen Erfassung und Bestimmung von ortsfesten Objekten im Freien von einem fahrenden Fahrzeug aus
EP3623752A1 (de) Verfahren zum generieren einer orthogonalansicht eines objekts
WO2017092733A1 (de) Verfahren zur vorbereitenden simulation eines militärischen einsatzes in einem einsatzgebiet
DE4423369C2 (de) Verfahren zum Positionieren, Orientieren und Navigieren und Navigationsgerät
DE19948544A1 (de) Vorrichtung und Verfahren zur terrestrischen digitalen Photogrammetrie mittels einer Orientierungsplattform
WO2020104264A1 (de) Ortsbezogene radar-, lidar-, und gcp-daten
DE102013207065A1 (de) Verfahren und System zum Erzeugen von synthetischen Orthobildern

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN PUBLISHED

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20200803

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20210301

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: RIEGL LASER MEASUREMENT SYSTEMS GMBH

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN WITHDRAWN

18W Application withdrawn

Effective date: 20220602