WO2017220599A2 - Verfahren zum erzeugen von 3d-daten eines objekts - Google Patents

Verfahren zum erzeugen von 3d-daten eines objekts Download PDF

Info

Publication number
WO2017220599A2
WO2017220599A2 PCT/EP2017/065119 EP2017065119W WO2017220599A2 WO 2017220599 A2 WO2017220599 A2 WO 2017220599A2 EP 2017065119 W EP2017065119 W EP 2017065119W WO 2017220599 A2 WO2017220599 A2 WO 2017220599A2
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
image data
texture
dimensional image
height map
Prior art date
Application number
PCT/EP2017/065119
Other languages
English (en)
French (fr)
Other versions
WO2017220599A3 (de
Inventor
Thomas Nemetz
Kreshnik Halili
Original Assignee
Ocean Maps GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean Maps GmbH filed Critical Ocean Maps GmbH
Priority to DE112017003055.2T priority Critical patent/DE112017003055A5/de
Priority to US16/311,553 priority patent/US10950041B2/en
Publication of WO2017220599A2 publication Critical patent/WO2017220599A2/de
Publication of WO2017220599A3 publication Critical patent/WO2017220599A3/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C13/00Surveying specially adapted to open water, e.g. sea, lake, river or canal
    • G01C13/008Surveying specially adapted to open water, e.g. sea, lake, river or canal measuring depth of open water
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Definitions

  • the present invention relates to a scanning device for scanning the bottom of waters for the automatic generation of underwater maps and a method for generating underwater maps.
  • Most of the water bodies do not have underwater maps that allow planning of dive operations.
  • Such cards should have a resolution of at least one meter, and preferably a higher resolution. These maps would also be useful for the water industry.
  • DeepVision From DeepVision AB, Sweden, a depth logger is known, with which by means of a sonar arranged at a boat depth coordinates can be recorded from the bottom of a water body together with corresponding satellite position data (GPS data).
  • GPS data satellite position data
  • DeepVision also offers AB Side Scan Sonars, where a sonar sensor is placed in a submersible body that is connected by a trailing cable to a computer above it to scan objects laterally from the submersible with sonar waves.
  • US Pat. No. 5,432,712 discloses a stereo imaging method in which images which have been recorded with different camera modules of a stereo camera are compared with respect to predetermined features (here: edges) and assigned to one another.
  • methods for geometric modeling CAGD: Computer-Aided Geometric Design
  • geometric objects can be displayed using free-form curves and surfaces, such as Hermite curves, Bezier curves, spline curves or NURBS.
  • free-form curves and surfaces such as Hermite curves, Bezier curves, spline curves or NURBS.
  • the surface of an object is represented by polygons, which are often triangles.
  • techniques for polygonization include marching cubes: A high resolution 3D surface construction algorithm WE Lorensen et al., Computer Graphics, Issue 21, No. 4, July 1987, pages 163-169, or Two Algorithms for constructing a delauny triangulation, DT Lee et al., International Journal of Computer and Information Science, Issue 9, No. 3, 1980, pages 219-242, or from "Surface Reconstruction from unorganized points" by H. Hoppe, a dissertation, University of Washington, 1994.
  • a dive computer (ROV: remotely operated underwater vehicle) emerges, which has a device with which it can determine its location coordinates in real time and transmit them to a base station.
  • the base station can be provided with a GPS receiver, wherein the position of the dive computer with respect to the base station is determined and exchanged, so that based on this combined information, the position of the dive computer can be determined.
  • the dive computer is equipped with a data acquisition device, such as e.g. an optical camera, designed to scan the background of a body of water.
  • US 2006/0182314 A1 discloses a method for displaying three-dimensional objects, which are described by three-dimensional data, on a two-dimensional screen.
  • 3D area data are generated, which are two-dimensional images, the individual pixels having a false color corresponding to the distance of the respective pixel from the camera, with which this image has been taken.
  • Such a 3-D area image can be superimposed with a two-dimensional color image, wherein both images have preferably been taken with the same viewing direction.
  • the invention has for its object a scanning device for scanning the bottom of waters for the automatic generation of underwater maps and a method for Creation of underwater maps, with which automatically visualizable underwater maps can be generated in high resolution.
  • the invention according to the scanning device for scanning from the bottom of waters for automatically generating underwater maps
  • a camera arranged in the immersion body for generating image data describing the reason
  • a reference device which generates referencing information which is assigned to the image data such that the position of the detail of the reason represented in the respective image data is defined
  • a 3D scanning device which is arranged either on a floating body on a water surface of a body float or on a submersible, which is connected via a towline with the float.
  • the arrangement of the camera in a submersible body makes it possible to position the camera close to the bottom of the water, so that the camera can capture image data of the ground at close range. As a result, high quality image data is obtained, which allows to produce a Unterwasser badge with high resolution.
  • the image data can be inserted as a texture in a three-dimensional height map, so that thereby a visualizable Unterwasser badge is generated.
  • Texture is used in the sense of computer graphics as a coating for three-dimensional models to increase their level of detail, but without increasing the Datailgrad of the geometry.
  • a texture thus refers to an image that is displayed on the surface of the three-dimensional model A pixel of the texture is called "TexeP.
  • reference information is assigned to the image data defining the position of the portion of the reason represented in the respective image data.
  • this reference information is the position of the dipping body or of the camera at the time the respective image was acquired, and the viewing direction of the camera. Based on this reference information, in combination with a three-dimensional height map, the section of the ground which is described by the image data can be determined.
  • the referencing information preferably also includes nor the size of the field of view of the camera, which is indicated for example in angular ranges. In the case of a camera with a zoom lens, the field of vision can be changed so that here the reference device also detects the respective field of view and associates it with the image data. For cameras with lenses that can not be zoomed in, the field of view is constant and does not have to be individually recorded by the reference device.
  • a 3 D scanning device which is arranged either on a float floating on a water surface of a body of water on a submersible body which is connected via a towline with the float, is thus located on a water surface or a surface near area, since the depth of the submersible due to the towline is limited. It is much easier to arrange an SD scanner in a float or in a body connected to the float via a towline submersible body as in a submarine, which can dive freely in a body of water regardless of a float. The determination of the position of a submarine under water is very expensive, since its coordinates can only be determined by means of radio navigation when it has surfaced.
  • the position during a dipping process by means of one or more inertial sensors must be followed and must be determined by updating the original position and the deviations determined by the inertial sensors.
  • the position of a float can be easily determined by radio navigation. If the immersion body coupled with a towline to the float, then only the relative location of the submersible body must be determined to the float. This is relatively easy, since the distance between the immersion body and the float is limited due to the towline.
  • a data and / or power supply line can run on the towline, so that data from the immersion body can be continuously transmitted to the float or the body must be powered by the float with energy.
  • Such a submersible body can be equipped with less computer power compared to a self-contained submarine, since the data recorded with the submersible data only cached and possibly pre-processed in the immersion body and then transmitted via the data line to the float and / or diving The body does not need to have its own energy supply.
  • the ground of a body of water can thus be reliably scanned in the desired precision.
  • reference information for both the 3D scanner and the camera for generating two-dimensional images of the ground can be detected simultaneously, which makes it easy to subsequently combine the two-dimensional image data of the camera and the three-dimensional height map generated by the 3D scanner allow.
  • a scanning device in which a submersible body is coupled by means of a towline to a float is preferably provided both on the float and on the immersion body each with a 3 D-scanning device.
  • the 3D scanning device on the float is arranged with the viewing direction substantially vertically downwards.
  • the 3D scanning device on the immersion body can be aligned with the line of sight in the horizontal direction. However, it may also be pivotally mounted on the body so that it can be arranged between different horizontal directions with their viewing direction and / or in the vertical direction. In this way, the bottom of a body of water can be scanned simultaneously with two 3D scanning devices, which look at the same locations of the ground with different viewing directions.
  • the resolution can be significantly increased and also undercuts (e.g., cavities) can be reliably and correctly displayed. This applies to a deep area that depends on the depth of the dive body and thus on the length of the towline.
  • the reference device is preferably designed to detect the position of the camera and / or the scanning device in three-dimensional space. This position can For example, done with Cartesian coordinates (X, Y, Z) or with coordinates from another coordinate system.
  • the reference device can have a position log device, with which the position and the viewing direction of the camera are detected and stored in the respective image data.
  • the position and the viewing direction of the camera can be stored in the immersion body together with the corresponding image data on a storage device arranged in the immersion body.
  • the referencing information comprising the position and viewing direction of the camera to be stored in a control device located outside the immersion body.
  • the reference device or a part of the referencing device is located outside the immersion body and / or there is a data connection between the immersion body and the control device located outside the immersion body, in order, for example, to transfer a large amount of data over a longer period of time to capture image data and store it in a memory device with a large storage capacity outside the immersion body.
  • the position log device preferably has a pressure sensor arranged on the immersion body in order to determine the current depth of the immersion body below the water surface on the basis of the pressure measured with the pressure sensor and to consider this as a component of the reference information.
  • a pressure sensor With such a pressure sensor, the depth of the immersion body in the water can be determined very accurately.
  • a coordinate in the vertical direction (Z-direction) of the submersible body is clearly defined.
  • the position log device may include at least one float, such as a buoy or a boat, which may float on the water surface of the water.
  • the float is provided with a radio navigation device, such as a satellite navigation device or a mobile radio navigation device, to detect the position of the float, and has relative position means for detecting the relative position between the float and the body.
  • the relative position device may comprise one or more of the following devices:
  • a towline with which the submersible body is attached to the float wherein the length of the towline determines the distance of the submersible from the float;
  • a rod with which the immersion body is fastened to the floating body the length of the rod determining the distance of the immersion body from the floating body, a sonar on the float for detecting the immersion body, a position-determining device for exchanging sound signals between the position-determining device and the immersion body, wherein the transit time of the sound signals is measured.
  • a towline has the advantage that it is very simple and inexpensive and at the same time serves for pulling or positioning of the submersible body in the water. If the dive body by means of the towline pulled by a boat, then turns at a certain water speed of the boat depending on the hydrodynamic training of the towline and the submersible body a certain relative position of the submersible body with respect to the boat. These relative positions are once empirically recorded and stored for different water speeds of the boat and thus allow easy and cost-effective determination of the relative position of the immersion body with respect to the float in later operation. However, if there are subsea currents or if the boat changes direction and / or speed, then the actual relative position may differ significantly from the calculated one.
  • the determination of the relative position based on the towline is difficult if the body is formed steerable steerable, so that it can be steered to different depths.
  • the relative position of the submersible body is set very precisely to the float. This is particularly interesting for the sampling of waters in the range up to a depth of about 10 m. This area is especially important for shipping.
  • the rod length is preferably so long that the immersion body is approximately 5-7 m below the water surface.
  • the floating body is typically a boat.
  • sensors which are arranged on the float or boat, the measured values are corrected with the aid of the orientation of the float.
  • the orientation of the float can be detected with appropriate sensors (sensors for detecting inclination, stamping and rolling).
  • measuring devices in particular a 2D camera and a 3D scanning device, can themselves also be arranged or suspended in such a way that they are stable in inclination.
  • the location of the submersible body can be detected.
  • the direction in which the immersion body is located relative to the floating body can be detected very precisely.
  • the detection of the float by means of the sonar works well if the immersion body has a certain minimum size. owns and not so far away from the floating body is arranged.
  • Preferably, only the relative direction of the immersion body with respect to the floating body is detected by means of the sonar and the distance determined by a towline.
  • a working with the exchange of sound signals position determining device is described in the German patent application DE 10 2016 106 214.6. Between the float and the immersion body, a sound signal is exchanged, in which at least the time of scarf lerzeugung is coded.
  • the sound signal is decoded by the receiver, wherein the receiver also has a clock for detecting the timing of the reception of the sound signal. From the time of generation and the time of receipt of the sound signal, the duration of the sound signal is determined. The duration of the sound signal corresponds to the distance of the submersible body from the float. This distance can be combined with a position determination of the float by means of a navigation system. Preferably, a plurality of distance measurements of the immersion body are carried out to different floats, in particular to two or three floats, essentially simultaneously and combined with one another.
  • the position log device can also be formed independently of a float floating on the water surface.
  • the position s-log device can have one or more inertial sensors for detecting the position of the dipping body under water. With such inertial sensors, the acceleration of the float is detected. The position is determined from the integral of the acceleration. Prior to immersion of the immersion body in the water this is preferably calibrated by means of a navigation device, that is, the current location of the immersion body determined so that by means of the inertial or the position of the body can be recorded with respect to the calibrated position.
  • the inertial sensor or sensors are provided in combination with a pressure sensor, wherein the pressure sensor is used to determine the depth, so that the depth detected by means of the inertial sensors can be corrected during the dipping process.
  • a clock is provided in the immersion body.
  • time stamps can be generated, for example, to provide the acquired image data with a time stamp indicating the time at which the image data has been generated.
  • the diving body can be designed as a manned or unmanned submarine with its own drive to travel under water. If the immersion body is an unmanned submarine, then it is preferably designed to be remotely controllable.
  • the remote control can be carried out by means of a connecting line, in which at least one data line for transmitting the Control data is provided.
  • the lanyard may also include a conduit for transmitting electrical power to the submarine.
  • the remote control of an unmanned submarine can also be done by means of sound signals to which the corresponding control signals are encoded.
  • the scanning device may include both a 2D camera as the camera for generating basic two-dimensional image data, and a 3D scanner for generating three-dimensional reason descriptive information.
  • the two-dimensional image data generated by the 2D camera is preferably used as a texture for a height map, and the three-dimensional reason descriptive information for generating the height map may be used.
  • the 2D camera and the 3 D scanning device can each be arranged in a submersible body. They can also be arranged in the same body diving. Additionally or alternatively, a 2D camera and / or a 3D scanning device may also be arranged in a floating body, in particular a boat.
  • At least two 3D scanning devices are provided such that the ground can be scanned from different directions.
  • a method of generating underwater maps comprising the steps of:
  • two-dimensional image data of a ground of a water body are provided together with reference information, whereby these can be easily and reliably imaged as a texture on the three-dimensional height map.
  • the use of polygonized height maps allows the acquisition of a three-dimensional contour with a very small amount of data, whereas in strongly contoured areas these can be precisely represented by small polygons, whereas in areas with little contour by using correspondingly large polygons the amount of data is very high can be kept low.
  • the polygons form surfaces on which the texture can be easily imaged.
  • such a polygonized height map can be supplemented in areas by detail geometry data.
  • a method for generating underwater maps is provided, wherein the following steps are carried out:
  • the three-dimensional height map is provided by the bottom of the water body is scanned with a 3 D-scanner, which is arranged on a floating body or immersion body, which with a Radio navigation device is coupled such that with the radio navigation direction determined position coordinates are assigned as reference information of the three-dimensional elevation map.
  • the evaluation of the 3D data generated with the 3D scanning device is considerably simpler than with 3 D data which is recorded with a reference to a U Boot provided 3D scanning device can be generated.
  • the position of the submarine and thus of the SD scanning device under water must be recorded by means of one or more inertial sensors and updated from an initial position, which is determined in the submerged state of the submarine. This is much more complicated and deviations continue and increase increasingly. Therefore, data acquired in this way must be aligned in a different way. This can be done for example by extracting characteristic points in individual images, so that the individual images are subsequently assembled into a mosaic. As a result, inaccuracies in the localization of the submarine and thus the 3D scanning device can be compensated. However, this is not necessary in a precise determination of the location of the floating body or of the diving body by means of radio navigation.
  • the elevation maps or the 3D information are generated by means of a sonar which is arranged on a floating body (boat or ship) or immersion body.
  • the two-dimensional image data of the bottom of the watercourse, together with the reference information, can be prepared with a scanning device as explained above.
  • the two-dimensional image data are transformed into a texture space by means of the reference information
  • Color values of points of the texture space are mapped to the assigned points in the height map. It is also possible to associate a plurality of color values of different two-dimensional image data with a point of the height map, wherein the plurality of color values are interpolated or averaged.
  • a bottom of a stream can be sampled from two different directions. The information thus obtained is assembled to produce the three-dimensional altitude map.
  • the two different directions preferably enclose an angle of at least 30 ° or of at least 60 ° and in particular are approximately orthogonal to one another.
  • the different angles can also be aligned in the horizontal and in the vertical direction to each other.
  • the inventors have recognized that when scanning from one direction only, the problem is that with different slopes of the ground, the corresponding areas in a height map are displayed at different resolutions.
  • a steep wall scanned only from above is only detected by a few sampling points. If the steep wall is scanned from the side, then it is detected with many points.
  • sampling the ground from one direction only has the problem that if the resolution of the height map is too coarse, the surfaces appear to be smoothed out, with a texture displayed thereon showing fine structures appearing very unrealistic. This problem is eliminated by scanning from different directions, because this allows the resolution to be kept approximately independent of the slope of the ground.
  • Sampling from two different directions may be accomplished by a method of generating three-dimensional information, such as. a sonar scan, a scan using a stereo camera or runtime camera, executed.
  • the height map should have points with a maximum distance of 20 cm. Preferably, the distances are smaller, in particular 10 cm or 5 cm.
  • the precision of the individual points should be at least 20 cm.
  • a height map can be represented by a three-dimensional data cloud.
  • the three-dimensional data cloud is a list of points in three-dimensional space, which are indicated by three coordinates (X, Y and Z coordinates), for example. These points each represent a point on the surface of the bottom of the area described by the elevation map. With such a data cloud, undercuts such as caves or the like can be displayed.
  • the data points may also contain values, in particular vectors, which point to the surface of the ground. These values are preferably provided only at data points located adjacent to the surface of the ground.
  • the two-dimensional image data can be inversely proportional to the deviation of the viewing direction from the normal of the area of the three-dimensional height map on which the two-dimensional height map Image data are mapped.
  • the reason is detected multiple times from different directions for generating image data describing the reason.
  • FIG. 1 shows a first embodiment of a scanning device for scanning from
  • FIG. 2 shows a basic diagram of bodies with a submersible located on a towline
  • FIG. 2 shows the submersible body of FIG. 1 schematically in a block diagram
  • FIG. 3 shows a second embodiment with a scanning device, wherein the
  • Submersible body is attached to a boat by means of a pole,
  • FIG. 4 shows a third exemplary embodiment of a scanning device with a floating body and a submersible, wherein the position of the submersible is determined by means of sonar signals
  • 5 shows schematically the arrangement of two floats and a submersible body in the water according to the third embodiment
  • FIG. 6 shows a method for generating underwater maps in a flowchart
  • FIG. 7 shows a method for producing a texture
  • FIG. 8 shows the method according to FIG. 7 on the basis of some example images.
  • the invention relates to a method for producing underwater maps.
  • a first aspect of the invention comprises the generation of information of a ground of a water body with a corresponding scanning device 1.
  • a second aspect of the invention relates to the production of underwater maps, for which purpose the information obtained with the scanning device 1 according to the invention can be used.
  • the underwater maps can also be generated from corresponding information from other sources of information.
  • a first embodiment of a scanning device 1 comprises a float 2 and a submersible body 3 ( Figure 1).
  • the floating body 2 is in this embodiment, a boat or a ship that floats on a water surface 4 of a body of water.
  • the immersion body 3 is connected to a towline 5 with the float or boat 2.
  • the towline includes a two-wire cable 6 for supplying the submersible body 3 with electrical power in the form of direct current (Figure 2). In FIG. 2, only sections of the two wires of the cable 6 are shown schematically. This cable 6 is connected to all electrical devices of the immersion body 3 in order to supply them with electricity.
  • This cable 6 is also used as a data line by feeding a frequency signal to the cable.
  • the immersion body 3 has a bandpass filter 7, which is connected to the cable 6 and functions as a crossover, so that the frequency signal is decoupled from the cable 6 via the bandpass filter 7.
  • a demodulator 8 is connected, which demodulates the frequency signal and generates an analog data signal.
  • the analog data signal is converted with an A / D converter 9 into a digital data signal, which is fed to a central control device 10.
  • the central controller 10 is connected to a D / A converter 11 which receives digital signals from the central controller 10 and converts them into analog signals.
  • a modulator 12 is connected, which modulates the analog signals of the D / A converter to a predetermined frequency or a predetermined frequency range.
  • the Modulator 12 is connected to cable 6 so that the modulated signal is fed to cable 6.
  • the central control device 10 can thus send data via the D / A converter 11 and the modulator 12 via the cable 6.
  • the immersion body 3 is provided with a 2D camera 13, which is a camera in the visible wavelength range in the present embodiment. Within the scope of the invention, the 2D camera can also be for receiving other wavelength ranges, in particular an infrared camera.
  • the 2D camera can also be designed as a sonar. With the 2D camera, a two-dimensional image of the bottom 14 of the water is generated.
  • the 2D camera 13 is arranged on the immersion body 3 with its viewing direction 15 directed downward.
  • the 2D camera 13 can also be arranged pivotably on the immersion body 3, so that their viewing direction can be directed vertically downwards or horizontally to the side or in any position between them.
  • the immersion body 3 can also have a plurality of 2D cameras 13, which are arranged with their viewing directions in different directions.
  • the submersible body 3 at least two 2D cameras 13, the viewing directions 15 are aligned mutually orthogonal.
  • the immersion body 3 may also have an illumination device 16, which emits light in a wavelength range adapted to the sensitivity of the 2D camera. Such a lighting device 16 is useful when the immersion body 3 is to be used in depths to which passes little daylight.
  • the 2-D cameras 13 are connected to the central control device 10, so that they can receive the images captured by the 2-D camera or the 2-D cameras 13 and store them on a storage device 17 and / or optionally process them further.
  • the floating body 2 has a first 3D scanning device 18 and a second SD scanning device 19.
  • the first 3D scanning device 18 is directed downward with its viewing direction 20 and the second 3D scanning device 19 is directed horizontally to the side with its viewing direction (perpendicular to the plane of the drawing in FIG. 2).
  • the 3D scanning devices 18, 19 are each designed as a sonar. They thus each have a transmitter and receiver for transmitting and receiving sonar signals. len on.
  • the 3D scanners 18, 19 are used to generate information about a three-dimensional surface structure.
  • a sonar other means for three-dimensional scanning of surfaces may be used, such as a stereo camera or a time-of-flight camera.
  • the immersion body 3 With sonars, 3 D information can be generated very reliably under water regardless of the turbidity of the water, which is why sonars are the preferred 3 D scanners.
  • the immersion body 3 also have only a single 3D scanning device, with different viewing directions then body by pivoting the 3 D-scanning on the immersion body by means of a corresponding pivoting device or by controlling the rotational position about a horizontal longitudinal axis of the submersible third can be adjusted.
  • the immersion body 3 has rudder 21, which are designed to control the depth and / or the rotational position about a horizontal longitudinal axis of the immersion body 3.
  • a Steuerruderstell Road 22 provided, which controls the individual rudder 21 with corresponding actuators 23.
  • the rudder adjustment device 22 is connected to the central control device 10 and contains signals corresponding thereto for changing the position of the submerged body 3.
  • a 3D scanning device 24 is provided to scan the bottom of the water and to generate three-dimensional information about the bottom of the water.
  • the 3 D scanning device is aligned with the boat 2 with its viewing direction 25 down.
  • the 3-D scanner 24 is a sonar. However, it can also be another suitable device for generating three-dimensional information of a surface.
  • the boat 2 further comprises a Tauchgroiper scanning device 26, which is a sonar in the present embodiment.
  • the plunger-scanning device 26 is viewed with its line of sight from the boat 2 rearwardly inclined downwards, so that the immersion body 3 when dragging by the boat 2 by means of the towline 5 in the field of view of the submersible body scanning device 26 is located.
  • the submersible body scanning device 26 is a sonar in the present embodiment. With the sonar, the exact location of the submersible body 3 relative to the boat 2 can be determined.
  • the float or boat 2 has a satellite navigation device 28, such as a GPS system, which can receive location signals from the satellite 29 so as to determine the position of the boat 2.
  • a satellite navigation device 28 such as a GPS system
  • the location of the boat 2 can thus be determined.
  • the relative location of the immersion body 3 with respect to the boat 2 can be determined. Since the absolute location of the boat 2 is known, the absolute location of the submersible body 3 can be determined from the relative location.
  • This location information is assigned to the respectively captured two-dimensional images or the respectively acquired 3D information as reference information. This assignment can be carried out, for example, by simultaneous acquisition of the two-dimensional images or 3D information and simultaneous determination of the location, the corresponding data then being linked to one another.
  • the location of the immersion body 3 in the three-dimensional space can also be determined at predetermined time or spatial distances, it being possible to interpolate location coordinates in the area between two location determinations, if necessary.
  • the sampling frequencies of the 2D camera, the 3D scanner and the radio navigation device may thus differ, with the respective location coordinates being individually interpolated for assignment to the two-dimensional images or for assignment to the three-dimensional data.
  • the means for determining the location information of the immersion body 3 thus serve as a referencing device and the location of the immersion body 3 as referencing information.
  • the use tion of location information as referencing information allows a very simple, fast and precise assignment of the two-dimensional images to the three-dimensional height maps.
  • the immersion body 3 can also have a tilt sensor and / or inertial sensor with which the inclination relative to the vertical can be determined. Based on this angle of inclination, in conjunction with the direction of travel of the boat 2 and thus the pulling direction, with which the immersion body 3 is pulled in the water, the orientation of the immersion body 3 in three-dimensional space and thus the viewing directions of the 2D camera or the 3 D Scanning devices are determined. These viewing directions can equally be used as referencing information.
  • the 2D camera can be provided with a zoom lens. This allows you to change the field of view of the camera.
  • the setting of the zoom lens can be done by means of a magnification scale or the field of view can be described by means of an angular range. Values describing the field of view can equally be used as referencing information for the respective camera 13.
  • the above-described scanning apparatus 1 it is thus possible to scan the bottom of a stream and to generate image data describing the bottom of the stream while simultaneously generating referencing information associated with the image data such that the position in the respective image data section shown, is defined. This is especially true for two-dimensional image data.
  • the 3-D information can equally be referenced by the reference information.
  • the thus generated two-dimensional image data can then be easily integrated into an existing height map.
  • the 3D information can be used to create or refine an existing elevation map.
  • the above-described referencing information is sufficient to image the two-dimensional images on the height map. It is not necessary to extract characteristic points of the two-dimensional images and to align the two-dimensional images with each other and / or to extract characteristic points of the individual three-dimensional images generated by the 3-D scanning interpolation in order to align them and / or around them align two-dimensional images with respect to the elevation map. Although such information may in principle be used in addition, it is not necessary.
  • a Abtastvomchtung invention 1 of the immersion body 3 by means of a rod 30 on the floating body 2 is attached (Hg. 3).
  • the float or the boat 2 corresponds in its embodiment substantially the float or the boat 2 according to the first embodiment.
  • the immersion body 3 of the second embodiment substantially corresponds to the immersion body of the first embodiment.
  • the cable 6 is guided along the rod 30 here.
  • no immersion body scanning device is necessary, because the relative location of the immersion body 3 with respect to the float 2 is clearly determined by the rigid rod 30.
  • the exact position of the immersion body 3 and its orientation can be determined on the basis of the inclination values obtained by means of the sensors for detecting the inclination, the pitching and the rolling. Accordingly, referencing information can be generated that is linked to the generated image data and 3D information.
  • the second embodiment is particularly useful for scanning shallow waters with a maximum depth of 20 m, in particular not more than 10 m, or for sampling waters near the shore. Such water depths are of particular interest to shipping.
  • the immersion body 3 is designed as a remotely controlled submarine or drone, which receives 2 sound signals from two floats, based on which the immersion body 3 can determine its exact position in three-dimensional space.
  • the immersion body 3 is provided with a pressure sensor 40 and a temperature sensor 41, which are connected to a first sensor controller 42.
  • a first sensor controller 42 To the first sensor controller 42 and a clock 43 is connected.
  • the first sensor controller 42 can pick up corresponding sensor signals at the pressure sensor 40 and at the temperature sensor 41 and convert them into a corresponding digital pressure value or temperature value.
  • the first sensor controller 42 can provide the individual pressure values and temperature values with a time stamp.
  • the immersion body 3 has a hydrophone 44 with which sound signals are received and converted into electrical signals.
  • the hydrophone is connected to a second sensor controller 45, which can detect the electrical signals generated by the hydrophone.
  • the second sensor controller 45 is configured to extract time and location information from the received sound signals.
  • a transmitting device 46 which is explained in more detail below, generates a sound signal on which a digital signal is modulated, the digital signal containing the location and time information. This digital signal is extracted by the second sensor controller 45 and the corresponding location and time information is provided.
  • the second sensor controller 45 is also connected to the clock 43 and can provide the received location and time information with a time stamp indicating the time when the corresponding sound signal has been received by means of the hydrophone 44,
  • the first sensor controller 42 and the second sensor controller 45 are each connected to a microcontroller 47.
  • the ikrokontroller 47 has a connection to an external interface 48, to which a computer can be connected.
  • the immersion body 3 is arranged in a watertight housing 49.
  • the sensors 40, 41 and 44 each extend through an opening of the housing 49, being watertight sealed from the respective opening.
  • the immersion body 3 has an inertial sensor 50 with which the direction of movement of the immersion body 3 can be detected.
  • the inertial sensor 50 is connected to the microcontroller 47.
  • the transmitting device 46 has a GPS receiver 51, which is connected to an antenna 52 for receiving satellite signals.
  • the transmitting device 50 has a clock 53.
  • the GPS receiver 51 and the clock 53 are each connected to a transmission circuit 54, which generates a transmission signal which can be output by means of a hydrophone source 55.
  • the transmission circuit 54 is designed such that it modulates both the time of signal generation and the location determined by the GPS receiver 51 on the transmission signal.
  • the emitted sound signal thus contains the location and time information when and where the signal has been generated.
  • the clock 43 of the immersion body 3 and the clock 53 of the transmitting device 46 are synchronized with each other. These clocks 43, 53 are preferably radio clocks, so that they are regularly synchronized with a central radio clock.
  • the body with a hydro-sound source and the transmitting device 46 with a hydrophone, so that the immersion body 3 and the transmitting device 46 can exchange bidirectional sound signals to synchronize the respective clocks 43, 53 with each other.
  • a system with two transmitters 46/1 and 46/2 is used.
  • the transmitting devices 46/1 and 46/2 receive with their respective GPS receivers 51 satellite signals from GPS satellites 56. Based on these satellite signals, the GPS receivers 51 respectively determine the location of the respective transmitting devices 46/1 and 46/2.
  • the two transmission devices 46/1 and 46/2 each emit a sound signal in which the location of the respective transmission device 46/1 and 46/2 and the time of the sound generation are coded. As a result, each of these sound signals contains the information about the location and the time of its generation. With the respective Hyd rose hallettin 55 the sound signals are radiated into the water.
  • the two transmitting devices 46/1 and 46/2 are each arranged on buoys, boats or ships, which float freely on a water surface.
  • the transmitting devices 46/1 and 46/2 are preferably arranged at a distance of at least a few meters, preferably a few tens of meters from each other.
  • the immersion body 3 receives by means of the hydrophone 44, the sound signals of the two transmitting devices 46/1 and 46/2.
  • the sound signals are decoded by the second sensor controller 45 and provided with the time stamp, which indicates the time when the respective sound signal has been received by the immersion body 3.
  • This information is forwarded by the second sensor controller 45 to the microcontroller 47.
  • the microcontroller 47 determines the transit time of the sound signal from the sending time of the sound signal and the time of reception of the sound signal. Based on the speed of sound in the water, the running time is converted into a distance. This is the distance d1 or d2 from the location encoded in the sound signal.
  • the distances dl and d2 to the respective transmitting devices 46/1 and 46/2 are known.
  • the microcontroller 47 calculates the depth of the immersion body 3 with respect to the water surface. This depth defines a certain level 58 which intersects the circle 57 in two points. Since the immersion body 3 must be in this plane 58, the position of the submersible body is set to one of these two intersections. These two points of intersection are arranged mirror-symmetrically to a vertical plane of symmetry which runs through the two transmitting devices 46/1 and 46/2. If the immersion body 3 moves with respect to this plane of symmetry a bit towards the plane of symmetry or away from the plane of symmetry, then this can be detected with the inertial sensor 50. The inertial sensor 50 transmits the direction of movement to the microcontroller 47. The ikrokontroller 47 determines the component of motion perpendicular to the plane of symmetry.
  • At least two positions of the immersion body 3 are determined with the aid of the sound signals and the pressure sensor. These positions are still ambiguous because they may be located on either side of the plane of symmetry. It also determines the timing of these two positions, so that the direction of movement of the submersible body 3 is determined by these two positions.
  • the component of motion perpendicular to the plane of symmetry is in each case directed in opposite directions from the plane of symmetry on both sides in the present two possibilities.
  • These directions of movement are compared with the direction of movement detected by the inertial sensor 50, the positions on the side of the plane of symmetry being judged to be correct, which have given the same direction of movement as the inertial sensor 50. As a result, the position of the immersion body 3 can be determined uniquely.
  • This position is then determined by three coordinates (X, Y, Z) with respect to the two transmitting devices 46/1 and 46/2 or with respect to a coordinate system predetermined by the G PS satellite system.
  • the coordinates and the corresponding time stamp of the respective position of the immersion body 3 are stored in a memory device 59 in a predetermined log data record 60.
  • This immersion body 3, just like the immersion body 3 of the first exemplary embodiment according to FIG. 2, has a 2 D camera 13 and two 3D scanning devices 18, 19.
  • the scanning devices 13, 18, 19 can be designed in exactly the same way as in the first embodiment, for which reason reference is made to this is taken.
  • rudders are again provided on the immersion body 3, which rudders are designed to control the diving depth and / or the rotational position about a horizontal and / or vertical longitudinal axis of the immersion body 3.
  • a Steuerruderstell issued 22 is provided in the immersion body 3, which controls the individual rudder with corresponding controls 23.
  • the rudder control device 22 is connected to the central control device 47 and contains signals corresponding to it in order to change the position of the submerged body 3. If the immersion body 3 is an autonomously operated immersion body, then it still has a drive mechanism (not shown) with which the immersion body 3 can be moved in the water.
  • the images generated by the scanning devices 13, 18 and 19 are preferably provided with a time stamp by the microcontroller 47 and stored in the memory device 59 in an image data record 61.
  • the location stored in the log record 60 serves as referencing information for the image data contained in the image data set 61.
  • the referencing information of the log data set 60 is linked to the image data of the image data set 61 via the time stamp.
  • the orientation of the immersion body 3 is stored in the log data record 60 so that the viewing direction of the camera 13 or the scanning device 18 can be assigned to the image data contained in the image data set 61.
  • the immersion body 3 is coupled in this embodiment to the radio navigation device (GPS receiver) of the transmitting devices 46/1 and 46/2.
  • GPS receiver GPS receiver
  • the three-dimensional coordinates of the immersion body 3 can be determined at any time.
  • Such a coupling of the submersible body 3 to the radio navigation device is not possible to any depths, since on the one hand the sound signals can not be arbitrarily far transmitted and on the other hand limits the distance of the transmitting devices 46/1 and 46/2, the spatial resolution in deeper depths.
  • Such a coupling of the submersible body 3 to the radio navigation is mainly in the upper part of the water near the pool to a depth of z. B. 100 m very efficient and reliable.
  • 3 D altitude map is about 1 m.
  • step S3 with the 3 D-scanners 18, 19, which are arranged on the immersion body 3, detected 3 D information composed.
  • the 3-D scanners 18, 19 scan the ground from different, especially mutually orthogonal, directions, thereby providing approximately uniform resolution of the 3D information regardless of the slope of the surface of the ground.
  • This 3D Information is associated with reference information describing the section of the reason shown. Based on this reference information, this SD information is added to the 3D height map from step S2 and the shore lines from step S1 (step S4), so that a 3D height map with a resolution less than 1 m is generated.
  • step S5 the 3 D height map is polygonized. This can be done, for example, with the method explained in the introduction to D.T. Lee et al. (Two algorithm for constructing a delaunay triangulation).
  • the data sources may include absolute point cloud data, relative point cloud data, or a polygonized object. Such data sources are in part for corals, wrecks or other objects of great interest. This data can also be recorded for such objects.
  • One suitable method for obtaining high-resolution SD information is photogrammetry. Photogrametry involves different methods for generating 3D information.
  • the objects are scanned from different directions by means of a camera. The images of the objects produced in this way are subjected to a feature analysis. Based on the features, an assignment of the individual features takes place in the different images, from which the three-dimensional body or the three-dimensional object can be modeled.
  • the 3D information can also be generated by means of a stereo camera and a corresponding method for evaluating stereo images.
  • This detail geometry data may be added to the polygonized height map in step S7.
  • step S8 two-dimensional image data of the reason is read.
  • the two-dimensional image data includes reference information describing the portion of the reason represented by the respective image data.
  • the two-dimensional image data can be added as a texture of the three-dimensional height map obtained in step S5 or S7 in consideration of the height map-associated referencing information (step S8).
  • the reference information of the two-dimensional image data preferably contains in each case the location and the viewing direction of the camera with which the image data was recorded.
  • the two-dimensional image data is inversely proportional to the deviation of the viewing direction from the normal of the area of the three-dimensional height map weighted on which the two-dimensional image data are mapped. In other words, the more the viewing direction deviates from the normal of the surface of the height map, the less the corresponding two-dimensional image data is adopted as texture. Image data whose viewing direction corresponds to the normal are adopted all the more.
  • step S9 the final underwater map is thus generated, which is output in step S10.
  • the individual steps are fully automatic executable.
  • step S3 used 3D information with high resolution and / or the two-dimensional image data used in step S8 allow the automatic integration of this information to the existing existing 3D elevation map.
  • step S3 and 54 a rough and easy-to-produce 3D height map is refined so far that their resolution is so high that the integration of two-dimensional image data as a texture does not lead to unnatural impressions.
  • a natural impression the appearance of the ground is judged, which sees a diver with the human eye from a distance of about 2 - 5 m.
  • the combination of 3D information acquired from two different directions, which are preferably orthogonal to each other, allows the generation of a height map of substantially uniform resolution, regardless of the slope of the ground being displayed. 3.
  • two-dimensional image data as a texture for a three-dimensional underwater map results in a 3D map that on the one hand reflects the contour of the ground with a sufficiently accurate for diving or for shipping resolution and on the other hand faithfully reproduces the appearance of the reason. 4. If the two-dimensional image data is taken from different directions and weighted according to the deviation from the normal of the reason, as explained above, then a very lifelike representation is achieved because distortions due to the line of sight are significantly reduced. A method is explained below with reference to FIGS. 7 and 8, as the two-dimensional image data read in in step S8 are converted into a texture which can be imaged onto the three-dimensional height map.
  • step S12 a two-dimensional image of the ground is read.
  • the two-dimensional image is a color image 31 (FIG. 8).
  • This two-dimensional image contains reference information from which, in step S13, the camera position with which the two-dimensional image was taken and the size of the field of view of the real camera 32 are read out.
  • the virtual object which may be a grounded object, is known from the detail geometry data from step S6, or the virtual object is a portion of the ground described by the polygonized 3D elevation map according to step S5.
  • the geometry of the three-dimensional object is thus present with high precision. Only the surface of this three-dimensional object does not emerge either from the height map or from the detail geometry data. Due to the precise representation of the three-dimensional object, it is now possible to generate a virtual two-dimensional image 33 of the object (step S14).
  • a virtual camera 34 is positioned with respect to the virtual three-dimensional object in the same place as the real camera 32 in capturing the real two-dimensional image 31, and the same field of view as when taking the real two-dimensional image 31 with the real camera 32 is set ,
  • the virtual two-dimensional image 33 thus generated is essentially identical to the real two-dimensional image 31 with regard to the perspective representation of the three-dimensional object in the two-dimensional image.
  • texture space 36 also referred to as UV space.
  • This texture space contains surface elements that correspond to surface sections of the object. At the hut, these are e.g. the roof surfaces and side surfaces of the hut.
  • the virtual image generated in step S14 is assigned to the texture space 36 in step S15. Since the texture space has been generated on the basis of the geometric description of the virtual object, there is an unambiguous assignment of the points of the surface of the virtual object. rush objects to the points in texture space called texels. Since the virtual two-dimensional image 31 has also been generated on the basis of the geometric description of the virtual three-dimensional object, there is also a clear relationship between the pixels of the virtual two-dimensional image and the points of the surface of the virtual three-dimensional object, and thus also a clear relationship between the two Thus, a pixel 37 of the real two-dimensional image 31 is assigned to the texture space 36 on the texel 38 corresponding to the pixel 39 in the two-dimensional virtual image 33.
  • the corresponding pixel 39 in the virtual two-dimensional image 33 is determined.
  • the corresponding pixel 39 is located in the virtual two-dimensional image 33 in the same place as the pixel 37 in the real two-dimensional image 31.
  • the assignment to the corresponding texel 38 is fixed in the texture space 36, so that the Pixel 37 of the real image 31 can be uniquely assigned to the texture space.
  • the color values of the pixel 37 are assigned to the texel 38 or entered there. This assignment takes place very quickly because, as with a look-up table, the image points of the real image can be assigned to the corresponding texels.
  • step S16 it is checked whether there are more real two-dimensional images. If this is the case, then the procedure goes to step S12 and the further real two-dimensional image is read. Then, steps S12 to S15 are executed in the same manner as explained above. It may be that several real two-dimensional images contain pixels 37 which are to be assigned to the same texel in the texture space 36. In this case, the color values of the different image points are preferably averaged. It may also be expedient, in the averaging, to apply the above-explained weighting as a function of the deviation of the viewing direction of the camera from a normal to the surface of the object at which the respective pixel 37 or 39 is located.
  • step S17 the texture produced with steps S12 to S15 is mapped onto the object or the 3 D height map. The process is ended with step S18.
  • the referencing information position of the camera, viewing direction and field of view are thus used to transform the image points of the real two-dimensional images into the texture space.
  • a submarine map can be generated which very precisely reproduces the contour of the ground and, moreover, looks true to life through the use of the texture.
  • the invention is not limited to the generation of underwater maps.
  • the invention can be used advantageously wherever there is 3 D data of an object with high precision.
  • the above-explained methods can, for. B. be used in different medical applications.
  • these z. B. be measured with a laser.
  • Two-dimensional color images of the teeth can be taken with a special camera, the z. B. has an optical angle element with which the back of the teeth can be detected.
  • From the two-dimensional image data a texture is generated and mapped onto the three-dimensional model.
  • 3 D data are obtained, which correctly reproduce both the contour of the teeth and their color appearance.
  • Submersible body scanner 60 56 GPS satellite

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Hydrology & Water Resources (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erzeugen von 3D-Daten eines Objektes, insbesondere zum Erzeugen von Unterwasserkarten. Dieses Verfahren umfasst folgende Schritte: Bereitstellen von zweidimensionalen Bilddaten der Oberfläche des Objektes, wie z.B. des Grundes eines Gewässers, zusammen mit Referenzinformationen, Bereitstellen einer dreidimensionalen Höhenkarte eines vorbestimmten Bereichs des Objektes bzw. des Grundes eines Gewässers, und Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte mittels der Referenzinformationen.

Description

Verfahren zum Erzeugen von 3D-Daten eines Objekts
Die vorliegende Erfindung betrifft eine Abtastvorrichtung zum Abtasten vom Grund von Gewässern zur automatischen Erzeugung von Unterwasserkarten und ein Verfahren zum Erzeugen von Unterwasserkarten. Von den meisten Gewässern existieren keine Unterwasser- karten, die eine Planung von Tauchvorgängen erlauben. Solche Karten sollten eine Auflösung von zumindest einem Meter und vorzugsweise eine höhere Auflösung besitzen. Diese Karten wären auch für die Wasserwirtschaft von Nutzen.
Für kleine Gebiete um Kalifornien sind solche Unterwasserkarten verfügbar, welche vom Sea Floor Mapping Lab (SFML) hergestellt worden sind.
Für andere Gebiete gibt es zwar eine Vielzahl von Unterwasserkarten, die aber aufgrund ihrer geringen Auflösung weder für für die Planung von Tauchvorgängen noch für die Wasserwirtschart von Nutzen sind.
Der Grund, weshalb Unterwasserkarten mit der gewünschten Auflösung in nur sehr geringem Umfang verfügbar sind, liegt darin, dass die Erzeugung derartiger Unterwasserkarten sehr aufwändig ist. Daten aus unterschiedlichen Datenquellen müssen zusammengefügt werden. Die Daten müssen ein Höhenprofil umfassen, das den Grund des Gewässers mit der notwen- digen Auflösung korrekt beschreibt. Weiterhin sollten Texturinformationen vorhanden sein, die mit dem Höhenprofil verknüpft werden können.
Von über Wasser liegenden Landschaften liegen solche Daten in unterschiedlicher Form vor, die vor allem kostengünstig und in großer Menge aus Satellitenbildern extrahiert werden können. Zudem ist es heutzutage einfach möglich, von über Wasser liegenden Punkten den jeweiligen Ort exakt mit einem Satellitennavigationssystem, insbesondere dem G PS-System zu bestimmen, so dass die einzelnen Daten durch ihren Ort referenziert werden können und somit einfach und zuverlässig verknüpft werden können. Ein unter Wasser liegender Grund ist nicht optisch mittels eines Satelliten abtastbar. Weiterhin funktionieren Satellitennavigationssysteme nicht unter Wasser, da hier kein Empfang der Satellitensignale möglich ist.
Von der Firma DeepVision AB, Schweden, ist ein Depth-Logger bekannt, mit welchem mittels eines an einem Boot angeordneten Sonar Tiefen koordinaten vom Grund eines Gewässers zusammen mit entsprechenden Satelliten positionsdaten (GPS-Daten) aufgezeichnet werden können. Weiterhin bietet DeepVision AB Side Scan Sonars an, bei welchen ein Sonar-Sensor in einem Tauchkörper angeordnet ist, der mit einer Schleppleitung mit einem über Wasser befindlichen Computer verbunden ist, um seitlich vom Tauch körper angeordnete Gegenstände mittels Sonarwellen abzutasten.
Aus„Introduction to Photogrammetry" , T. Schenk, Department of Civil and Environmental Engineering and Geodetic Science, The Ohio State University, Autumn Quarter 2005 (GS 400.2) geht ein allgemeiner Überblick über die Photogrammetrie, ihre Theorie und ihre grundlegenden Funktionsprinzipien hervor. Mit der Photogrammetrie werden Informationen von Oberflächen erfasst, ohne dass die entsprechenden Objekte physikalisch kontaktiert werden.
Aus der US 5,432,712 geht ein Stereobildgebungsverfahren hervor, bei welchem Bilder, die mit unterschiedlichen Kameramodulen einer Stereokamera aufgenommen worden sind, bezüglich vorbestimmter Merkmale (hier: Kanten) verglichen und einander zugeordnet werden. Weiterhin sind Verfahren zur geometrischen Modellierung (CAGD: Computer-Aided- Geometric-Design) bekannt, mit welchen die Form geometrischer Objekte beschrieben werden kann. Geometrische Objekte können beispielsweise mit Freiform kurven und - Flächen, wie zum Beispiel Hermite-Kurven, Bezierkurven, Splinekurven oder NURBS dargestellt werden. Es gibt eine Vielzahl von Verfahren in der Computergrafik, welche vor allem oder aus- schließlich mit Polygonnetzen arbeiten. Die Oberfläche eines Objektes wird hierbei durch Polygone dargestellt, welche oftmals Dreiecke sind. Verfahren zur Pdygonisierung gehen beispielsweise aus Marching Cubes: A high resolution 3D surface construction algorithm W.E. Lorensen et al, Computer Graphics, Ausgabe 21, Nr. 4, July 1987, Seite 163-169 oder aus Two Algorithms for constructing a delauny triangulation, D.T. Lee et al, International Journal of Computer and Information Science, Ausgabe 9, Nr. 3, 1980, Seite 219-242 oder aus„Surface reconstruction from unorganized points" from H. Hoppe, a dissertation, University of Washington, 1994, hervor. Aus Kunz; Map Building Fusing Acoustic and Visual Information using Autonomous Underwater Vehicles, in Journal of Field Robotics, 2013, 30(5), Seiten 763-783 geht ein Tauchroboter hervor, dessen Ort mittels eines Tiefen sensors und eines Gyrosensors kontinuierlich erfasst wird. Der Tauch roboter weist ein Multibeam-Sonar auf, um den Untergrund eines Gewässers dreidimensional abzutasten. Der Tauch roboter weist auch eine einzelne Kamera auf, um den Untergrund optisch abzutasten. Die einzelnen mit der Kamera erfassten Bilder werden mosaikartig zusammengesetzt. Das zusammengesetzte Mosaikbild kann als Textur auf einer mit dem Multibeam-Sonar erfassten 3 D-Struktur verwendet werden.
Aus der WO 2012/129612 AI geht ein Tauch Computer (ROV: remotely operated underwater vehicle) hervor, welcher eine Einrichtung aufweist, mit welcher er in Echtzeit seine Ortskoordinaten bestimmen und an eine Basisstation übermitteln kann. Die Basisstation kann mit einem GPS-Empfänger versehen sein, wobei die Position des Tauchcomputers bezüglich der Basisstation ermittelt und ausgetauscht wird, so dass anhand dieser kombinierten Informationen die Position des Tauchcomputers bestimmbar ist. Der Tauchcomputer ist mit einer Datenerfassungseinrichtung, wie z.B. einer optischen Kamera, ausgebildet, um den Untergrund eines Gewässers abzutasten. Aus der US 2006/0182314 AI geht ein Verfahren zum Anzeigen von dreidimensionalen Gegenständen, welche durch dreidimensionale Daten beschrieben werden, auf einem zweidimensionalen Bildschirm hervor. Bei diesem Verfahren werden 3D-Bereichsdaten erzeugt, welche zweidimensionale Bilder sind, wobei die einzelnen Bildpunkte eine Falschfarbe besitzen, die dem Abstand des jeweiligen Bildpunktes von der Kamera entspricht, mit welcher dieses Bild aufgenommen worden ist. Ein solches 3 D- Bereichsbild kann mit einem zweidimensionalen Farbbild überlagert dargestellt werden, wobei beide Bilder vorzugsweise mit der gleichen Blickrichtung aufgenommen worden sind.
Weitere Verfahren, bei welchen zweidimensionale Daten auf ein dreidimensionales Höhen- profil abgebildet werden, gehen aus der US 2015/0301180 AI, DE 10 2012 103 373 AI, US 6,590,640 Bl bzw. Pelagotti, Automated Multispectral Texture Mapping of 3D Models; 17th European Signal Processing Conference, 2009, Glasgow, Seiten 1215-1219 bzw. Massot- Campos, Optical Sensors and Methods for Underwater 3D Reconstruction; Sensors 2015, 15, Seiten 31525-31557 bzw. 3D Reconstruction Based on Underwater Video from ROV Kiel 6000 Considering Underwater Imaging Conditions; OCEANS 200 -Europe, 2009, Seiten 1-10.
Der Erfindung liegt die Aufgabe zugrunde, eine Abtastvorrichtung zum Abtasten vom Grund von Gewässern zur automatischen Erzeugung von Unterwasserkarten und ein Verfahren zum Erzeugen von Unterwasserkarten zu schaffen, mit welchen automatisch visualisierbare Unterwasserkarten in hoher Auflösung erzeugbar sind.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteil - hafte Ausgestaltungen sind in den jeweiligen abhängigen Patentansprüchen angegeben.
Die Erfindung gemäß der Abtastvorrichtung zum Abtasten vom Grund von Gewässern zur automatischen Erzeugung von Unterwasserkarten umfasst
- einen Tauch körper,
- eine im Tauch körper angeordnete Kamera zum Erzeugen von den Grund beschreibenden Bilddaten,
- eine Referenziereinrichtung, die Referenzierinformationen erzeugt, welche den Bilddaten zugeordnet werden, so dass die Position des in den jeweiligen Bilddaten dargestellten Ausschnittes des Grundes definiert ist,
- eine 3D-Abtasteinrichtung, die entweder an einem an einer Wasseroberfläche eines Gewässers schwimmenden Schwimmkörper oder an einem Tauch körper angeordnet ist, welcher über eine Schleppleine mit dem Schwimmkörper verbunden ist.
Die Anordnung der Kamera in einem Tauch körper erlaubt es, die Kamera nahe am Grund des Gewässers zu positionieren, so dass die Kamera mit geringem Abstand Bilddaten des Grundes erfassen kann. Hierdurch werden Bilddaten mit hoher Qualität erhalten, welche es erlauben, eine Unterwasserkarte mit hoher Auflösung zu erzeugen. Die Bilddaten können als Textur in eine dreidimensionale Höhenkarte eingefügt werden, so dass hierdurch eine visualisierbare Unterwasserkarte erzeugt wird.
Der Begriff der„Textur" wird im Sinne der Computergrafik als Überzug für dreidimensionale Modelle verwendet, um deren Detailgrad zu erhöhen, ohne dabei jedoch den Datailgrad der Geometrie zu erhöhen. Eine Textur bezeichnet somit ein Bild, das auf der Oberfläche des dreidimensionalen Modells dargestellt wird. Ein Bildpunkt bzw. Pixel der Textur wird als „TexeP bezeichnet.
Durch das Vorsehen der Referenziereinrichtung werden den Bilddaten Referenzinformationen zugeordnet, die die Position des in den jeweiligen Bilddaten dargestellten Ausschnittes des Grundes definieren. In der Regel sind diese Referenzinformationen die Position des Tauch- körpers bzw. der Kamera zum Zeitpunkt, an dem das jeweilige Bild erfasst worden ist, und die Blickrichtung der Kamera. Anhand dieser Referenzinformationen kann in Kombination mit einer dreidimensionalen Höhenkarte der Ausschnitt des Grundes bestimmt werden, der durch die Bilddaten beschrieben wird. Die Referenzierinformationen umfassen vorzugsweise auch noch die Größe des Sichtfeldes der Kamera, welches z.B. in Winkelbereichen angegeben ist. Bei einer Kamera mit Zoom-Objektiv kann das Sichtfeld verändert werden, so dass hier die Referenziereinrichtung auch das jeweilige Sichtfeld erfasst und den Bilddaten zuordnet. Bei Kameras mit nicht zoom baren Objektiven ist das Sichtfeld konstant und muss nicht jeweils von der Referenziereinrichtung individuell erfasst werden.
Eine 3 D- Abtasteinrichtung, die entweder an einem an einer Wasseroberfläche eines Gewässers schwimmenden Schwimmkörper an einem Tauchkörper angeordnet ist, welcher über eine Schleppleine mit dem Schwimmkörper verbunden ist, befindet sich somit an einer Was- seroberfläche oder einem Oberflächen nahen Bereich, da die Tauchtiefe des Tauchkörpers aufgrund der Schleppleine begrenzt ist. Es ist wesentlich einfacher, eine SD- Abtasteinrichtung in einem Schwimmkörper oder in einem mit dem Schwimmkörper über eine Schleppleine verbundenen Tauch körper als in einem U-Boot anzuordnen, das unabhängig von einem Schwimmkörper frei in einem Gewässer tauchen kann. Die Positionsbestim- mung eines U-Bootes unter Wasser ist sehr aufwendig, da seine Koordinaten mittels Funknavigation nur bestimmt werden können, wenn es aufgetaucht ist. Daher ist die Position während eines Tauch Vorganges mittels eines oder mehrerer Inertialsensoren weiterzuverfolgen und muss durch Fortschreiben der ursprünglichen Position und der mittels der Inertialsensoren ermittelten Abweichungen bestimmt werden. Die Position eines Schwimmkörpers kann einfach mittels Funknavigation bestimmt werden. Ist der Tauchkörper mit einer Schleppleine an den Schwimmkörper gekoppelt, dann muss lediglich der relative Ort des Tauch körpers zum Schwimmkörper bestimmt werden. Dies ist relativ einfach, da der Abstand zwischen dem Tauch körper und dem Schwimmkörper aufgrund der Schleppleine begrenzt ist. Zudem kann über die Schleppleine eine Daten- und/oder Energieversorgungsleitung verlaufen, so dass Daten aus dem Tauch körper kontinuierlich an dem Schwimmkörper übermittelt werden können bzw. der Tauchkörper vom Schwimmkörper mit Energie versorgt werden muss. Ein solcher Tauch körper kann im Vergleich zu einem selbstständigen U-Boot mit weniger Computerleistung ausgestattet sein, da die mit dem Tauchkörper erfassten Daten lediglich zwischengespeichert und ggf. im Tauchkörper vorverarbeitet werden und über die Datenleitung dann an den Schwimmkörper übermittelt werden und/oder der Tauch körper muss keine eigene Energieversorgung aufweisen.
Grundsätzlich ist bei einer Anordnung der 3 D-A btastei n ri chtu ng am Schwimmkörper oder an einem mit dem Schwimmkörper mittels einer Schleppleine verbundenen Tauch körper nach- teilig, dass die 3 D- Abtasteinrichtung sich an der Wasseroberfläche bzw. an einem oberflächennahen Bereich befindet, so dass ein Grund in großer Tiefe nicht mit hoher Präzision abgetastet werden kann. Die Erfinder haben jedoch festgestellt, dass vor allem ein Bedarf an Unterwasserkarten besteht, die das Tiefenprofil im Bereich unmittelbar unterhalb der Was- seroberfläche bzw. in dem darunter benachbarten Bereich präzise darstellen. Bei tiefergelegenen Bereichen sind die Anforderungen an die Präzision des Tiefen rofils wesentlich geringer. Die typischen Anwendungen für Unterwasserkarten, wie z.B. Schifffahrt oder Tauchgänge, erfordern genaueste Informationen unmittelbar unterhalb der Wasseroberfläche, um beispielsweise eine Kollision eines Schiffes mit dem Untergrund zu vermeiden. Der Bedarf an detailgetreuen Profilen in großen Tiefen von z.B. von mehr als 100 Meter ist äußerst gering. Dies haben die Erfinder erkannt und eine einfache Abtastvorrichtung zum Abtasten vom Grund von Gewässern zur automatischen Erzeugung von Unterwasserkarten geschaffen, mit welcher Unterwasserkarten erzeugt werden können, die dem Bedarf vollkommen gerecht werden.
Durch Abfahren der Wasseroberfläche mit einem erfindungsgemäßen Schwimmkörper bzw. mit einem Schwimmkörper, an dem mittels einer Schleppleine ein Tauchkörper angehängt ist, kann somit der Grund eines Gewässers zuverlässig in der gewünschten Präzision abge- tastet werden. Hierbei können Referenzinformationen sowohl für die 3D-Abtasteinrichtung als auch für die Kamera zum Erzeugen von zweidimensionalen Bildern des Grundes gleichzeitig erfasst werden, die ein nachträgliches Zusammenführen der zweidimensionalen Bilddaten der Kamera und der dreidimensionalen Höhenkarte, welche mittels der 3 D-Abtasteinrichtung erzeugt wird, einfach erlauben.
Eine Abtasteinrichtung, bei welcher ein Tauch körper mittels einer Schleppleine an einen Schwimmkörper gekoppelt ist, ist vorzugsweise sowohl am Schwimmkörper als auch am Tauchkörper jeweils mit einer 3 D-Abtasteinrichtung versehen. Die 3D-Abtasteinrichtung am Schwimmkörper ist mit der Blickrichtung im Wesentlichen vertikal nach unten angeordnet. Die 3D-Abtasteinrichtung am Tauch körper kann mit der Blickrichtung in Horizontalrichtung ausgerichtet sein. Sie kann jedoch auch schwenkbar am Tauch körper angeordnet sein, so dass sie zwischen unterschiedlichen horizontalen Richtungen mit ihrer Blickrichtung und/oder in Vertikal richtung anordbar ist. Hierdurch kann der Grund eines Gewässers gleichzeitig mit zwei 3D-Abtasteinrichtungen abgetastet werden, die auf die gleichen Stellen des Grundes mit unterschiedlichen Blickrichtungen blicken. Durch Zusammenführen der 3D-Daten der beiden 3 D-Abtasteinrichtungen kann die Auflösung wesentlich gesteigert werden und es können auch Hinterschnitte (z.B. Höhlen) zuverlässig und korrekt dargestellt werden. Dies gilt für einen tiefen Bereich, der von der Tauchtiefe des Tauch körpers und damit von der Länge der Schleppleine abhängt.
Die Referenziereinrichtung ist vorzugsweise ausgebildet, um die Position der Kamera und/oder der Abtastvorrichtung im dreidimensionalen Raum zu erfassen. Diese Position kann bspw. mit kartesischen Koordinaten (X, Y, Z) oder auch mit Koordinaten aus einem anderen Koordinatensystem erfolgen.
Die Referenziereinrichtung kann eine Positions-Log-Einrichtung aufweisen, mit welcher die Position und die Blickrichtung der Kamera erfasst und den jeweiligen Bilddaten zuordbar abgespeichert wird. Die Position und die Blickrichtung der Kamera können im Tauchkörper zusammen mit den entsprechenden Bilddaten auf eine im Tauchkörper angeordnete Speichereinrichtung gespeichert werden. Es ist jedoch auch möglich, dass die die Position und Blickrichtung der Kamera umfassenden Referenzierinformationen in einer außerhalb des Tauch- körpers befindlichen Steuereinrichtung abgespeichert werden. Dies ist vor allem dann zweckmäßig, wenn die Referenziereinrichtung oder ein Teil der Referenziereinrichtung sich außerhalb des Tauch körpers befindet und/oder eine Datenverbindung zwischen dem Tauch - körper und der außerhalb des Tauchkörpers befindlichen Steuereinrichtung vorliegt, um bspw. über eine längere Zeitdauer eine große Datenmenge an Bilddaten zu erfassen und in einer Speichereinrichtung mit großer Speicherkapazität außerhalb des Tauchkörpers abzuspeichern.
Vorzugsweise weist die Positions-Log-Einrichtung einen am Tauch körper angeordneten Drucksensor auf, um anhand des mit dem Drucksensor gemessenen Druckes die aktuelle Tiefe des Tauchkörpers unter der Wasseroberfläche zu bestimmen und diese als eine Komponente der Referenzinformation zu berücksichtigen. Mit einem solchen Drucksensor kann die Tiefe des Tauchkörpers im Wasser sehr genau bestimmt werden. Hierdurch wird eine Koordinate in vertikaler Richtung (Z-Richtung) des Tauch körpers eindeutig festgelegt. Die Positions-Log-Einrichtung kann zumindest einen Schwimmkörper, wie zum Beispiel eine Boje oder ein Boot, aufweisen, welcher an der Wasseroberfläche des Gewässers schwimmen kann. Der Schwimmkörper ist mit einer Funknavigation sei nrichtung, wie zum Beispiel einer Satellitennavigationseinrichtung oder einer Mobilfunknavigationseinrichtung, versehen, um die Position des Schwimmkörpers zu erfassen, und weist eine Relativpositionseinrichtung zum Erfassen der Relativposition zwischen dem Schwimmkörper und dem Tauchkörper auf.
Die Relativpositionseinrichtung kann eine oder mehrere der folgenden Einrichtungen umfassen:
eine Schleppleine mit welcher der Tauch körper am Schwimmkörper befestigt ist, wo- bei die Länge der Schleppleine den Abstand des Tauchkörpers vom Schwimmkörper bestimmt;
- eine Stange mit welcher der Tauchkörper am Schwimmkörper befestigt ist, wobei die Länge der Stange den Abstand des Tauchkörpers vom Schwimmkörper bestimmt, ein Sonar am Schwimmkörper zum Detektieren des Tauchkörpers, eine Positionsbestimmungseinrichtung zum Austauschen von Schallsignalen zwischen der Positionsbestimmungseinrichtung und dem Tauchkörper, wobei die Laufzeit der Schallsignale gemessen wird.
Eine Schleppleine besitzt den Vorteil, dass sie sehr einfach und kostengünstig ist und zugleich zum Ziehen bzw. Positionieren des Tauch körpers im Wasser dient. Wird der Tauch kör- per mittels der Schleppleine von einem Boot gezogen, dann stellt sich bei einer bestimmten Wassergeschwindigkeit des Bootes je nach hydrodynamischer Ausbildung der Schleppleine und des Tauch körpers eine bestimmte Relativposition des Tauch körpers bezüglich des Bootes ein. Diese Relativpositionen werden einmal für unterschiedliche Wassergeschwindigkeiten des Bootes empirisch erfasst und gespeichert und erlauben so einfach und kostengünstig die Bestimmung der relativen Position des Tauchkörpers bezüglich des Schwimmkörpers im späteren Betrieb. Bestehen jedoch Unterwasserströmungen oder ändert das Boot seine Richtung und/oder seine Geschwindigkeit, dann kann die tatsächliche Relativposition erheblich von der berechneten abweichen. Weiterhin ist die Bestimmung der Relativposition anhand der Schleppleine schwierig, wenn der Tauch körper lenkbar ausgebildet ist, so dass er in unterschiedliche Tiefen gelenkt werden kann. Grundsätzlich ist es auch möglich, empirische Daten für die Relativposition des Tauch körpers zum Schwimmkörper in Abhängigkeit von der jewei- ligen Tiefe des Tauch körpers zu erstellen. Weiterhin ist zu berücksichtigen, dass je länger die Schleppleine ist, desto ungenauer ist die erfasste relative Position.
Mit einer Stange ist die Relativposition des Tauch körpers sehr exakt zum Schwimmkörper festgelegt. Dies ist insbesondere für die Abtastung von Gewässern im Bereich bis zu einer Tiefe von ca. 10 m interessant. Dieser Bereich ist vor allem für die Schifffahrt von Bedeutung. Die Stangenlänge ist vorzugsweise so lang, dass der Tauchkörper sich ca. 5-7 m unter der Wasseroberfläche befindet. Der Schwimmköper ist typischerweise ein Boot. Bei allen Sensoren, die am Schwimmkörper bzw. Boot angeordnet sind, werden die Messwerte mit Hilfe der Orientierung des Schwimmkörpers korrigiert. Die Orientierung des Schwimmkörpers kann mit entsprechenden Sensoren (Sensoren zur Detektion der Neigung, des Stampfens und des Rollens) erfasst werden. Am Schwimmkörper können Messgeräte, insbesondere eine 2D-Kamera und eine 3 D- Abtasteinrichtung, selbst auch so angeordnet bzw. aufgehängt werden, dass sie neigungsstabil sind. Mit einem Sonar, das im Schwimmkörper vorgesehen ist, kann der Ort des Tauch körpers erfasst werden. Insbesondere kann die Richtung, in welcher sich der Tauchkörper bezüglich des Schwimmkörpers befindet, sehr präzise detektiert werden. Die Detektion des Schwimmkörpers mittels des Sonars funktioniert gut, wenn der Tauch körper eine gewisse Mindestgrö- ße besitzt und nicht so weit entfernt vom Schwimmkörper angeordnet ist. Vorzugsweise wird mittels des Sonars lediglich die relative Richtung des Tauchkörpers bezüglich des Schwimmkörpers detektiert und der Abstand durch eine Schleppleine bestimmt. Eine mit dem Austausch von Schallsignalen arbeitende Positionsbestimmungseinrichtung ist in der deutschen Patentanmeldung DE 10 2016 106 214.6 beschrieben. Zwischen dem Schwimmkörper und dem Tauchkörper wird ein Schallsignal ausgetauscht, in dem zumindest der Zeitpunkt der Schal lerzeugung codiert ist. Das Schallsignal wird vom Empfänger decodiert, wobei der Empfänger auch eine Uhr zum Erfassen des Zeitpunktes des Empfangs des Schallsignals aufweist. Aus dem Zeitpunkt der Erzeugung und dem Zeitpunkt des Empfangs des Schallsignals wird die Laufzeit des Schallsignals bestimmt. Die Laufzeit des Schallsignals entspricht dem Abstand des Tauch körpers vom Schwimmkörper. Dieser Abstand kann mit einer Positionsbestimmung des Schwimmkörpers mittels eines Navigationssystems kombiniert werden. Vorzugsweise werden mehrere Abstandsmessungen des Tauch körpers zu un- terschiedlichen Schwimmkörpern, insbesondere zu zwei oder drei Schwimmkörpern, im Wesentlichen zeitgleich ausgeführt und miteinander kombiniert.
Die Positions-Log-Einrichtung kann auch unabhängig von einem an der Wasseroberfläche schwimmenden Schwimmkörper ausgebildet sein. Beispielsweise kann die Position s-Log- Einrichtung einen oder mehrere Inertialsensoren zum Detektieren der Position des Tauch - körpers unter Wasser aufweisen. Mit solchen Inertialsensoren wird die Beschleunigung des Schwimmkörpers erfasst. Aus dem Integral der Beschleunigung wird die Position bestimmt. Vor dem Eintauchen des Tauch körpers in das Wasser wird dieser vorzugsweise mittels einer Navigationseinrichtung kalibriert, d.h., der aktuelle Ort des Tauchkörpers bestimmt, so dass mittels dem oder der Inertialsensoren die Position des Tauch körpers bezüglich der kalibrierten Position aufgezeichnet werden kann. Vorzugsweise werden der oder die Inertialsensoren kombiniert mit einem Drucksensor vorgesehen, wobei der Drucksensor zur Bestimmung der Tiefe verwendet wird, so dass die mittels der Inertialsensoren erfasste Tiefe während des Tauchvorganges korrigiert werden kann.
Vorzugsweise ist im Tauchkörper eine Uhr vorgesehen. Mit einer solchen Uhr können Zeitstempel erzeugt werden, um beispielsweise die erfassten Bilddaten mit einem Zeitstempel zu versehen, der den Zeitpunkt angibt, an dem die Bilddaten erzeugt worden sind. Der Tauch körper kann als bemanntes oder unbemanntes U-Boot ausgebildet sein mit einem eigenen Antrieb zur Fortbewegung unter Wasser. Ist der Tauchkörper ein unbemanntes U- Boot, dann ist er vorzugsweise fernsteuerbar ausgebildet. Die Fernsteuerung kann mittels einer Verbindungsleine erfolgen, in welcher zumindest eine Datenleitung zum Übertragen der Steuerdaten vorgesehen ist. Die Verbindungsleine kann auch eine Leitung zur Übertragung von elektrischer Energie zum U-Boot aufweisen. Die Fernsteuerung eines unbemannten U- Bootes kann auch mittels Schallsignalen erfolgen, auf welche die entsprechenden Steuersignale codiert sind.
Die Abtastvorrichtung kann sowohl eine 2D-Kamera als die Kamera zum Erzeugen von den Grund beschreibenden zweidimensionalen Bilddaten, als auch eine 3D-Abtasteinrichtung zum Erzeugen von dreidimensionalen den Grund beschreibenden Informationen aufweisen. Die mit der 2D-Kamera erzeugten zweidimensionalen Bilddaten werden vorzugsweise als Textur für eine Höhenkarte verwendet, wobei die dreidimensionalen den Grund beschreibenden Informationen zum Erzeugen der Höhenkarte verwendet werden können.
In einem Tauchkörper können jeweils die 2D-Kamera und die 3 D- Abtasteinrichtung angeordnet sein. Sie können auch im selben Tauch körper angeordnet sein. Zusätzlich oder alternativ können auch in einem Schwimmkörper, insbesondere einem Boot, eine 2D-Kamera und/oder eine 3 D-Abtasteinrichtung angeordnet sein.
Vorzugsweise sind zumindest zwei 3D-Abtasteinrichtungen derart vorgesehen sind, dass der Grund aus unterschiedlichen Richtungen abgetastet werden kann.
Nach einem weiteren Aspekt der vorliegenden Erfindung wird ein Verfahren zum Erzeugen von Unterwasserkarten vorgesehen, bei dem folgende Schritte ausgeführt werden:
- Bereitstellen von zweidimensionalen Bilddaten des Grundes eines Gewässers zusammen mit Referenzinformationen,
- Bereitstellen einer dreidimensionalen polygonisierten Höhenkarte eines vorbestimmten Bereichs eines Grundes eines Gewässers, und
- Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale polygonisier- te Höhenkarte mittels der Referenzinformationen. Erfindungsgemäß werden zweidimensionale Bilddaten eines Grundes eines Gewässers zusammen mit Referenzinformationen bereitgestellt, wodurch diese einfach und zuverlässig als Textur auf die dreidimensionale Höhenkarte abgebildet werden können. Hierdurch wird eine visualisierbare Unterwasserkarte erzeugt. Die Verwendung von polygonisierten Höhenkarten erlaubt die Erfassung einer dreidimensionalen Kontur mit einer sehr geringen Datenmenge, wobei bei stark konturierten Bereichen diese präzise durch kleine Polygone dargestellt werden können, wohingegen bei wenig konturierten Bereichen durch Verwendung entsprechend großer Polygone die Datenmenge sehr gering gehalten werden kann. Zudem bilden die Polygone Flächen, auf welche die Textur sehr einfach abgebildet werden kann.
Vorzugsweise kann eine solche polygonisierte Höhenkarte bereichsweise durch Detail - Geometrie-Daten ergänzt werden.
Die Kombination der Verwendung einer polygonisierten Höhenkarte in Verbindung mit zweidimensionalen Bilddaten, welche als Textur auf die dreidimensionale polygonisierte Höhenkarte abgebildet werden, bewirkt somit mit einer geringen Datenmenge eine sehr realitäts- treue dreidimensionale Darstellung.
Nach einem weiteren Aspekt der Erfindung wird ein Verfahren zum Erzeugen von Unterwas- serkarten vorgesehen, wobei folgende Schritte ausgeführt werden:
- Bereitstellen von zweidimensionalen Bilddaten der Oberfläche des Objektes, wie z.B. des Grundes eines Gewässers, zusammen mit Referenzinformationen,
- Bereitstellen einer dreidimensionalen Höhenkarte eines vorbestimmten Bereichs des Objektes bzw. des Grundes eines Gewässers, und
- Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte mittels der Referenzinformationen, wobei die dreidimensionale Höhenkarte bereit gestellt wird, indem der Grund des Gewässers mit einer 3 D- Abtasteinrichtung abgetastet wird, welche an einem Schwimmkörper oder Tauch körper angeordnet ist, der mit einer Funknavigationseinrichtung derart gekoppelt ist, dass mit der Funknavigation sei nrichtung ermittelte Positionskoordinaten als Referenzinformationen der dreidimensionalen Höhenkarte zugeordnet werden.
Durch das Abtasten des Grundes mit einer 3D-Abtasteinrichtung, welche an einem Schwimmkörper oder Tauch körper angeordnet ist, der mit einer Funknavigationseinrichtung gekoppelt ist, so dass mit der Funknavigationseinrichtung ermittelte Positionskoordinaten als Referenzinformationen der dreidimensionalen Höhenkarte zugeordnet werden, werden sehr präzise Referenzinformationen der 3 D-Höhen karte zugeordnet. Eine solche Kopplung ist in der Praxis nur an der Oberfläche eines Gewässers oder bis zu geringen Tiefen möglich. Dies ist jedoch nicht nachteilig für die vorliegende Erfindung, da bei Unterwasserkarten vor allem das Tiefenprofil im Bereich unmittelbar unterhalb der Wasseroberfläche von größter Bedeutung und in dem darunter benachbarten Bereich von großer Bedeutung ist. Bei tiefer gelege- nen Bereichen sind die Anforderungen an die Präzision des Tiefen profils wesentlich geringer. Die typischen Anwendungen für Unterwasserkarten, wie z.B. Schifffahrt oder Tauchgänge erfordern genaueste Informationen unmittelbar unterhalb der Wasseroberfläche, um bspw. eine Kollision eines Schiffes mit dem Untergrund zu vermeiden. Der Bedarf an detailgetreuen Profilen in großen Tiefen von z.B. von mehr als 100 Metern ist äußerst gering. Dies haben die Erfinder der vorliegenden Erfindung erkannt und dementsprechend eine Lösung gefunden, mit welcher auf sehr einfach Art und Weise Unterwasserkarten erstellt werden, die in den für den Anwender wichtigen Bereichen die notwendige Präzision besitzen.
Dadurch, dass die Referenzinformationen für die 3D-Abtasteinrichtung mittels einer kontinuierlichen Bestimmung der Koordinaten mit einer Funknavigationseinrichtung erzeugt werden, ist die Auswertung der mit den 3D-Abtasteinrichtung generierten 3D-Daten wesentlich einfacher als bei 3 D- Daten, welche mit einer an einem U-Boot vorgesehen 3D-Abtasteinrichtung erzeugt werden. Bei einem U-Boot muss die Position des U-Bootes und damit der SD- Abtasteinrichtung unter Wasser mittels einem oder mehrerer Inertialsensoren erfasst und von einer Anfangsposition, welche im aufgetauchten Zustand des U-Bootes bestimmt wird, fortgeschrieben werden. Dies ist wesentlich aufwendiger und Abweichungen setzen sich fort und vergrößern sich zunehmend. Daher müssen derart erfasste Daten auf andere Weise zu- einander ausgerichtet werden. Dies kann beispielsweise durch Extrahieren von charakteristischen Punkten in einzelnen Bildern geschehen, so dass die einzelnen Bilder nachträglich zu einem Mosaik zusammengesetzt werden. Hierdurch können Ungenauigkeiten in der Ortsbestimmung des U-Bootes und damit der 3D-Abtasteinrichtung kompensiert werden. Dies ist jedoch bei einer präzisen Bestimmung des Ortes des Schwimmkörpers bzw. des Tauch kör- pers mittels Funknavigation nicht notwendig.
Vorzugsweise werden die Höhenkarten bzw. die 3 D-Informationen mittels eines Sonars erzeugt, das an einem Schwimmkörper (Boot bzw. Schiff) oder Tauchkörper angeordnet ist. Die zweidimensionalen Bilddaten des Grundes des Gewässers können zusammen mit den Referenzinformationen mit einer Abtastvorrichtung, wie sie oben eriäutert ist, hergestellt werden.
Zum Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhen- karte werden mittels der Referenzinformationen die zweidimensionalen Bilddaten in einen Textur-Raum transformiert,
wird die Zuordnung der Punkte im Textur-Raum zu den jeweiligen Punkten in der Höhenkarte mittels der Referenzinformationen bestimmt, und
werden Farbwerte von Punkten des Textur-Raumes auf die zugeordneten Punkte in der Hö- henkarte abgebildet. Es können auch mehrere Farbwerte unterschiedlicher zweidimensionaler Bilddaten einem Punkt der Höhenkarte zugeordnet werden, wobei die mehreren Farbwerte interpoliert oder gemittelt werden. Zum Bereitstellen einer dreidimensionalen Höhenkarte kann ein Grund eines Gewässers aus zwei unterschiedlichen Richtungen abgetastet werden. Die hierdurch gewonnen Informationen werden zum Erzeugen der dreidimensionalen Höhen karte zusammengesetzt.
Die zwei unterschiedlichen Richtungen schließen vorzugsweise einen Winkel von zumindest 30° bzw. von zumindest 60° ein und sind insbesondere etwa orthogonal zueinander. Die unterschiedlichen Winkel können auch in horizontaler und in vertikaler Richtung zueinander ausgerichtet sein.
Die Erfinder haben erkannt, dass beim Abtasten aus nur einer Richtung das Problem besteht, dass bei unterschiedlichen Neigungen des Grundes, die entsprechenden Flächen in einer Höhenkarte mit unterschiedlichen Auflösungen dargestellt werden. Eine steile Wand, die nur von oben abgetastet wird, wird lediglich von wenigen Abtastpunkten erfasst. Wird die steile Wand von der Seite abgetastet, dann wird sie mit vielen Punkten erfasst. Durch die Kombination von Abtastungen aus zwei unterschiedlichen Richtungen kann man eine dreidimensio- nale Höhenkarte erzeugen, bei der die Auflösung in allen Richtungen etwa gleich und unabhängig von der Neigung der abgetasteten Oberflächen ist.
Weiterhin besteht bei einer Abtastung des Grundes nur aus einer Richtung das Problem, dass, wenn die Auflösung der Höhenkarte zu grob ist, die Oberflächen hierdurch scheinbar geglättet werden, wobei eine hierauf dargestellte Textur, die feine Strukturen zeigt, sehr unrealistisch wirkt. Dieses Problem wird durch das Abtasten aus unterschiedlichen Richtungen beseitigt, denn hierdurch kann die Auflösung unabhängig von der Neigung des Grundes etwa gleich gehalten werden. Das Abtasten aus zwei unterschiedlichen Richtungen kann mittels eines Verfahrens zum Erzeugen dreidimensionaler Informationen, wie z.B. einer Sonar-Abtastung, einer Abtastung mittels einer Stereokamera oder Laufzeitkamera, ausgeführt werden.
Bei der Beschreibung der Genauigkeit der Höhen karte wird zwischen der Auflösung, d. h. dem Abstand der einzelnen Daten punkte, und der Präzision der einzelnen Daten punkte unterschieden. Die Höhenkarte sollte möglichst Punkte mit einem maximalen Abstand von 20 cm aufweisen. Vorzugsweise sind die Abstände kleiner, insbesondere 10 cm oder 5 cm. Die Präzision der einzelnen Punkte sollte zumindest 20 cm betragen. Eine Höhenkarte kann durch eine dreidimensionale Datenwolke dargestellt werden. Die dreidimensionale Datenwolke ist eine Liste von Punkten im dreidimensionalen Raum, welche bspw. jeweils durch drei Koordinaten (X-, Y- und Z-Koordinate) angegeben werden. Diese Punkte stellen jeweils einen Punkt an der Oberfläche des Grundes des durch die Höhenkarte beschriebenen Gebietes dar. Mit einer solchen Datenwolke können Hinterschnitte, wie z.B. bei Höhlen, oder dgl. dargestellt werden. Alternativ können die Daten punkte auch Werte, insbesondere Vektoren enthalten, welche auf die Oberfläche des Grundes zeigen. Diese Werte werden vorzugsweise nur bei benachbart zu der Oberfläche des Grundes angeordneten Datenpunkten vorgesehen.
Enthalten die Referenzinformationen die Blickrichtung mit welcher die zweidimensionalen Bilddaten erfasst worden sind, können beim Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte die zweidimensionalen Bilddaten umgekehrt proportional zur Abweichung der Blickrichtung von der Normalen des Bereichs der dreidimensionalen Höhenkarte gewichtet werden, auf welchen die zweidimensionalen Bilddaten abgebildet werden. Das heißt mit anderen Worten, je stärker die Blickrichtung von der Normalen der Oberfläche der Höhenkarte abweicht, desto weniger gewichtet werden die entsprechende zweidimensionalen Bilddaten als Textur übernommen. Vorzugsweise erfasst man den Grund mehrfach aus unterschiedlichen Richtungen zum Erzeugen von den Grund beschreibenden Bilddaten.
Die Erfindung wird nachfolgend beispielhaft anhand der Zeichnungen erläutert. Die Zeichnungen zeigen schematisch in:
Figur 1 ein erstes Ausführungsbeispiel einer Abtastvorrichtung zum Abtasten vom
Grund von Gewässern mit einem an einer Schleppleine befindlichen Tauchkör- per, Figur 2 den Tauchkörper aus Figur 1 schematisch in einem Blockschaltbild,
Figur 3 ein zweites Ausführungsbeispiel mit einer Abtastvorrichtung, bei welcher der
Tauch körper mittels einer Stange an einem Boot befestigt ist,
Figur 4 ein drittes Ausführungsbeispiel einer Abtastvorrichtung mit einem Schwimmkörper und einem Tauchkörper, wobei die Positionsbestimmung des Tauchkörpers mittels Sonarsignale erfolgt, Figur 5 schematisch die Anordnung zweier Schwimmkörper und eines Tauch körpers im Wasser gemäß dem dritten Ausführungsbeispiel,
Figur 6 ein Verfahren zum Erzeugen von Unterwasserkarten in einem Flussdiagramm,
Figur 7 ein Verfahren zum Erzeugen einer Textur, und
Figur 8 das Verfahren nach Figur 7 anhand einiger Beispielbilder.. Die Erfindung betrifft ein Verfahren zum Erzeugen von Unterwasserkarten. Ein erster Aspekt der Erfindung umfasst das Erzeugen von Informationen eines Grundes eines Gewässers mit einer entsprechenden Abtastvorrichtung 1. Ein zweiter Aspekt der Erfindung betrifft das Erzeugen der Unterwasserkarten, wobei hierzu die mit der erfindungsgemäßen Abtastvorrichtung 1 gewonnenen Informationen verwendet werden können. Die Unterwasserkarten kön- nen jedoch auch aus entsprechenden Informationen von anderen Informationsquellen erzeugt werden.
Ein erstes Ausführungsbeispiel einer Abtastvorrichtung 1 umfasst einen Schwimmkörper 2 und einen Tauch körper 3 (Figur 1). Der Schwimmkörper 2 ist bei diesem Ausführungsbeispiel ein Boot bzw. ein Schiff, das auf einer Wasseroberfläche 4 eines Gewässers schwimmt. Der Tauch körper 3 ist mit einer Schleppleine 5 mit dem Schwimmkörper bzw. Boot 2 verbunden.
Die Schleppleine enthält ein zweidrahtiges Kabel 6 zur Versorgung des Tauchkörpers 3 mit elektrischer Leistung in Form von Gleichstrom (Figur 2). In Figur 2 sind lediglich schematisch Abschnitte der zwei Drähte des Kabels 6 dargestellt. Dieses Kabel 6 ist mit allen elektrischen Einrichtungen des Tauchkörpers 3 verbunden, um diese mit Strom zu versorgen.
Dieses Kabel 6 wird auch als Datenleitung verwendet, indem ein Frequenzsignal auf das Kabel eingespeist bzw. abgezweigt wird. Der Tauchkörper 3 weist hierzu einen Bandpassfilter 7 auf, der an das Kabel 6 angeschlossen ist und als Frequenzweiche fungiert, so dass das Frequenzsignal über den Bandpassfilter 7 vom Kabel 6 abgekoppelt wird. An den Bandpassfilter 7 ist ein Demodulator 8 angeschlossen, der das Frequenzsignal demoduliert und ein analoges Datensignal erzeugt. Das analoge Datensignal wird mit einem A/D-Wandler 9 in ein digitales Datensignal gewandelt, das einer zentralen Steuereinrichtung 10 zugeleitet wird. Die zentrale Steuereinrichtung 10 ist mit einem D/A-Wandler 11 verbunden, welcher von der zentralen Steuereinrichtung 10 digitale Signal empfängt und diese in Analogsignale wandelt. An den D/A-Wandler ist ein Modulator 12 angeschlossen, der die analogen Signale des D/A- Wandlers auf eine vorbestimmte Frequenz bzw. einen vorbestimmten Frequenzbereich moduliert. Der Modulator 12 ist mit dem Kabel 6 verbunden, so dass das modulierte Signal auf das Kabel 6 eingespeist wird. Die zentrale Steuereinrichtung 10 kann somit über den D/A-Wandler 11 und den Modulator 12 Daten über das Kabel 6 versenden. Der Tauch körper 3 ist mit einer 2D-Kamera 13 versehen, welche im vorliegenden Ausführungsbeispiel eine Kamera im sichtbaren Wellenlängenbereich ist. Im Rahmen der Erfindung kann die 2D-Kamera auch zum Empfangen anderer Wellenlängenbereiche, insbesondere eine Infrarotkamera, sein. Die 2D-Kamera kann auch als Sonar ausgebildet sein. Mit der 2D- Kamera wird eine zweidimensionale Abbildung des Grundes 14 des Gewässers erzeugt.
Die 2D-Kamera 13 ist am Tauchkörper 3 mit ihrer Blickrichtung 15 nach unten gerichtet angeordnet. Die 2D-Kamera 13 kann jedoch auch schwenkbar am Tauch körper 3 angeordnet sein, so dass ihre Blickrichtung vertikal nach unten oder horizontal zur Seite oder in eine beliebige Position dazwischen gerichtet werden kann. Der Tauchkörper 3 kann auch mehrere 2D-Kameras 13 aufweisen, die mit ihren Blickrichtungen in unterschiedlichen Richtungen angeordnete sind. Vorzugsweise weist der Tauch körper 3 zumindest zwei 2D-Kameras 13 auf, deren Blickrichtungen 15 zueinander orthogonal ausgerichtet sind. Im Rahmen der Er- findung ist es auch möglich, eine Drehposition um eine horizontale Längsachse des Tauchkörpers 3 derart zu steuern, dass eine oder mehrere 2D-Kameras 13 mit unterschiedlichen Blickrichtungen 15 im Wasser angeordnet werden können.
Der Tauch körper 3 kann auch eine Beleuchtungseinrichtung 16 aufweisen, welche Licht in einem an die Empfindlichkeit der 2D-Kamera angepassten Wellenlängenbereich aussendet. Eine solche Beleuchtungseinrichtung 16 ist dann zweckmäßig, wenn der Tauch körper 3 in Tiefen verwendet werden soll, zu welchen wenig Tageslicht gelangt.
Die 2 D-Kameras 13 sind mit der zentralen Steuereinrichtung 10 verbunden, so dass diese die mit der 2 D-Kamera bzw. die mit den 2 D-Kameras 13 erfassten Bilder empfangen und auf einer Speichereinrichtung 17 speichern und/oder gegebenenfalls weiterverarbeiten kann.
Der Schwimmkörper 2 weist eine erste 3D-Abtasteinrichtung 18 und eine zweite SD- Abtasteinrichtung 19 auf. Die erste 3 D-Abtasteinrichtung 18 ist mit ihrer Blickrichtung 20 nach unten gerichtet und die zweite 3 D-Abtasteinrichtung 19 ist mit ihrer Blickrichtung horizontal zur Seite gerichtet (senkrecht zur Zeichenebene in Figur 2). Im vorliegenden Ausführungsbeispiel sind die 3D-Abtasteinrichtungen 18, 19 jeweils als Sonar ausgebildet. Sie weisen somit jeweils einen Sender und Empfänger zum Senden und Empfangen von Sonarsigna- len auf. Die 3D-Abtasteinrichtungen 18, 19 dienen zum Erzeugen von Informationen über eine dreidimensionale Oberflächenstruktur. Anstelle eines Sonars können auch andere Einrichtungen zum dreidimensionalen Abtasten von Oberflächen verwendet werden, wie zum Beispiel eine Stereokamera oder eine Laufzeitkamera. Mit Sonaren können unter Wasser sehr zuverlässig 3 D-Informationen unabhängig von der Trübung des Wassers erzeugt werden, weshalb Sonare die bevorzugten 3 D-Abtasteinrichtungen sind. Im Rahmen der Erfindung kann der Tauch körper 3 jedoch auch lediglich eine einzige 3D-Abtasteinrichtung aufweisen, wobei unterschiedliche Blickrichtungen dann durch Schwenken der 3 D-Abtasteinrichtung am Tauch körper mittels einer entsprechenden Schwenkeinrichtung oder durch Steuern der Drehposition um eine horizontale Längsachse des Tauch körpers 3 eingestellt werden können.
Der Tauch körper 3 weist Steuerruder 21 auf, welche zum Steuern der Tauchtiefe und/oder der Drehposition um eine horizontale Längsachse des Tauchkörpers 3 ausgebildet sind. Zum Ansteuern der Steuerruder ist im Tauch körper 3 eine Steuerruderstelleinrichtung 22 vorge- sehen, welche mit entsprechenden Stellelementen 23 die einzelnen Steuerruder 21 ansteuert. Die Steuerruderstelleinrichtung 22 ist mit der zentralen Steuereinrichtung 10 verbunden und enthält von dieser entsprechende Signale, um die Position des Tauchkörpers 3 zu verändern. Am Schwimmkörper bzw. Boot 2 ist eine 3D-Abtasteinrichtung 24 vorgesehen, um den Grund des Gewässers abzutasten und dreidimensionale Informationen über den Grund des Gewässers zu erzeugen. Die 3 D-Abtastvorrichtung ist am Boot 2 mit ihrer Blickrichtung 25 nach unten ausgerichtet. Im vorliegenden Ausführungsbeispiel ist die 3 D-Abtastvorrichtung 24 ein Sonar. Sie kann jedoch auch eine andere zur Erzeugung von dreidimensionalen Informatio- nen einer Oberfläche geeignete Einrichtung sein.
Das Boot 2 weist weiterhin eine Tauchköiper-Abtastvorrichtung 26 auf, welche im vorliegenden Ausführungsbeispiel ein Sonar ist. Die Tauchkörper-Abtastvorrichtung 26 ist mit ihrer Blickrichtung vom Boot 2 aus gesehen nach hinten schräg unten angeordnet, so dass der Tauch körper 3 beim Ziehen durch das Boot 2 mittels der Schleppleine 5 im Blickfeld der Tauch körper- Abtastvorrichtung 26 liegt. Hierdurch wird die relative Position des Tauch körpers 3 bezüglich des Schwimmkörpers bzw. Bootes 2 bestimmt. Die Tauch körper- Abtastvorrichtung 26 ist im vorliegenden Ausführungsbeispiel ein Sonar. Mit dem Sonar kann der exakte Ort des Tauch körpers 3 bezüglich des Bootes 2 festgestellt werden. Es ist grund- sätzlich auch möglich, eine andere Art von Abtastvorrichtung zu verwenden, wie zum Beispiel eine Kamera, mit welcher lediglich ein zweidimensionales Bild erzeugt werden kann. Aus dem zweidimensionalen Bild kann lediglich die Richtung bezüglich des Bootes 2, in welcher sich der Tauch körper 3 befindet, festgestellt werden. In Verbindung mit der Länge der Schlepp- leine 5 kann dann der Ort des Tauch körpers 3 relativ zum Boot 2 im dreidimensionalen Raum bestimmt werden.
Der Schwimmkörper bzw. das Boot 2 weist eine Satellitennavigationseinrichtung 28, wie zum Beispiel ein G PS-System, auf, das Ortungssignale vom Satelliten 29 empfangen kann, um so die Position des Schwimmkörpers bzw. des Bootes 2 zu bestimmen.
Mit Hilfe der Satellitennavigationseinrichtung 28 kann somit der Ort des Bootes 2 bestimmt werden. Mit Hilfe der Tauch körper-Abtastvorrichtung 26 kann der relative Ort des Tauch kör- pers 3 bezüglich des Bootes 2 bestimmt werden. Da der absolute Ort des Bootes 2 bekannt ist, kann aus der relativen Ortsbestimmung auch der absolute Ort des Tauchkörpers 3 bestimmt werden.
Beim Erfassen von zweidimensionalen Bilddaten des Grundes des Gewässers mittels der 2D- Kamera 13 des Tauchkörpers 3 bzw. des Erfassens von 3D-Informationen des Grundes des Gewässers mittels der 3D-Abtasteinrichtungen 18, 19 wird gleichzeitig jeweils der Ort des Tauch körpers 3 im dreidimensionalen Raum bestimmt. Diese Ortsinformation wird den jeweils erfassten zweidimensionalen Bildern bzw. den jeweils erfassten 3D-Informationen als Referenzinformationen zugeordnet. Diese Zuordnung kann beispielsweise durch gleichzeiti- ges Erfassen der zweidimensionalen Bilder bzw. 3D-Informationen und gleichzeitiges Bestimmen des Ortes erfolgen, wobei die entsprechenden Daten dann miteinander verknüpft werden. Es ist jedoch auch möglich, sowohl die zweidimensionalen Bilder als auch die SD- Informationen sowie die Ortsinformation mit einem Zeitstempel zu versehen, wobei hierzu jeweils entsprechende Uhren vorgesehen sind. Anhand der Zeitstempel ist es dann möglich, im Nachhinein die Ortsinformationen mit den zweidimensionalen Bildern bzw. mit den SD- Informationen zu verknüpfen.
Der Ort des Tauchkörpers 3 im dreidimensionalen Raum kann auch in vorbestimmten zeitlichen oder örtlichen Abständen bestimmt werden, wobei bei Bedarf Ortskoordinaten im Be- reich zwischen zwei Ortsbestimmungen interpoliert werden können. Die Abtastfrequenzen der 2D-Kamera, der 3D-Abtasteinrichtung und der Funknavigationseinrichtung können sich somit unterscheiden, wobei die entsprechenden Ortskoordinaten für die Zuordnung zu den zweidimensionalen Bildern oder für die Zuordnung zu den dreidimensionalen Daten jeweils einzeln interpoliert werden.
Die Mittel zur Bestimmung der Ortsinformation des Tauch körpers 3 dienen somit als Refe- renziereinrichtung und der Ort des Tauchkörpers 3 als Referenzierinformation. Die Verwen- dung von Ortsinformationen als Referenzierinformation erlaubt eine sehr einfache, schnelle und präzise Zuordnung der zweidimensionalen Bilder zu den dreidimensionalen Höhenkarten.
Der Tauchkörper 3 kann auch einen Neigungssensor und/oder Inertialsensor aufweisen, mit welchem die Neigung gegenüber der Vertikalen bestimmt werden kann. Anhand dieses Neigungswinkels kann in Verbindung mit der Fahrtrichtung des Bootes 2 und damit der Zugrichtung, mit welcher der Tauch körper 3 im Wasser gezogen wird, die Ausrichtung des Tauchkörpers 3 im dreidimensionalen Raum und damit die Blickrichtungen der 2D-Kamera bzw. der 3 D-Abtasteinrichtungen bestimmt werden. Diese Blickrichtungen können gleichermaßen als Referenzierinformationen verwendet werden.
Weiterhin kann die 2D-Kamera mit einem Zoom-Objektiv versehen sein. Hierdurch lässt sich das Sichtfeld der Kamera verändern. Die Einstellung des Zoom-Objektivs kann mittels eines Vergrößerungsmaßstabes oder das Sichtfeld kann mittels eines Winkelbereiches beschrieben werden. Werte, die das Sichtfeld beschreiben, können gleichermaßen als Referenzierinformation für die jeweilige Kamera 13 verwendet werden.
Mit der oben erläuterten Abtastvorrichtung 1 ist es somit möglich, den Grund eines Gewässers abzutasten und Bilddaten zu erzeugen, die den Grund des Gewässers beschreiben, wo- bei gleichzeitig Referenzierinformationen erzeugt werden, welche den Bilddaten zugeordnet werden, so dass die Position in den jeweiligen Bilddaten dargestellten Ausschnittes, definiert ist. Dies gilt vor allem für zweidimensionale Bilddaten. Jedoch können die 3 D-Informationen gleichermaßen mittels der Referenzinformationen referenziert werden. Die derart generierten zweidimensionalen Bilddaten können dann einfach in eine bestehende Höhenkarte integriert werden. Die 3D-Informationen können zum Erzeugen bzw. zum Optimieren (Refinement) einer bestehenden Höhenkarte verwendet werden.
Die oben erläuterten Referenzierinformationen genügen, um die zweidimensionalen Bilder auf die Höhenkarte abzubilden. Es ist nicht notwendig, charakteristische Punkte der zweidimensionalen Bilder zu extrahieren und die zweidimensionalen Bilder gegenseitig auszurichten und/oder charakteristische Punkte der einzelnen, mit der 3D-Abtastei n ri chtu ng erzeugten dreidimensionalen Darstellungen zu extrahieren, um diese untereinander auszurichten und/oder um die zweidimensionalen Bilder bezüglich der Höhen karte auszurichten. Solche Informationen können zwar grundsätzlich zusätzlich verwendet werden, sind jedoch nicht notwendig. Beim zweiten Ausführungsbeispiel einer erfindungsgemäßen Abtastvomchtung 1 ist der Tauch körper 3 mittels einer Stange 30 am Schwimmkörper 2 befestigt (Hg. 3). Der Schwimmkörper bzw. das Boot 2 entspricht in seiner Ausgestaltung im Wesentlichen dem Schwimmkörper bzw. dem Boot 2 gemäß dem ersten Ausführungsbeispiel. Auch der Tauch- körper 3 des zweiten Ausführungsbeispiels entspricht im Wesentlichen dem Tauchkörper des ersten Ausführungsbeispiels. Das Kabel 6 wird hierbei jedoch entlang der Stange 30 geführt. Bei diesem Ausführungsbeispiel ist keine Tauchkörper-Abtastvorrichtung notwendig, denn der relative Ort des Tauch körpers 3 bezüglich des Schwimmkörpers 2 ist durch die steife Stange 30 eindeutig festgelegt. Es ist jedoch zweckmäßig, im Boot 2 Sensoren zur Detektion der Neigung, des Stampfens und des Rollens des Bootes zu integrieren, um so die Ausrichtung des Bootes im dreidimensionalen Raum bestimmen zu können. In Verbindung mit der Positionsbestimmung mittels der Satellitennavigationseinrichtung 28 kann anhand der Neigungswerte, die mittels der Sensoren zur Detektion der Neigung, des Stampfens und des Rollens erhalten werden, die exakte Position des Tauchkörpers 3 und dessen Ausrichtung bestimmt werden. Dementsprechend können Referenzierinformationen erzeugt werden, die mit den erzeugten Bilddaten und 3D-Informationen verknüpft werden.
Das zweite Ausführungsbeispiel ist vor allem zum Abtasten von flachen Gewässern mit einer Tiefe von maximal 20 m, insbesondere maximal 10 m oder zum Abtasten von Gewässern in Ufernähe zweckmäßig. Solche Gewässertiefen sind vor allem für die Schifffahrt von Interesse.
Ein drittes Ausführungsbeispiel ist in den Figuren 4 und 5 dargestellt. Bei diesem Ausführungsbeispiel ist der Tauchkörper 3 als ferngesteuertes U-Boot bzw. Drohne ausgebildet, welches von zwei Schwimmkörpern 2 Schallsignale erhält, anhand welcher der Tauchkörper 3 seine exakte Position im dreidimensionalen Raum bestimmen kann. Der Tauchkörper 3 ist mit einem Drucksensor 40 und einem Temperatursensor 41 versehen, welche mit einem ersten Sensorkontroller 42 verbunden sind. An den ersten Sensorkontroller 42 ist auch eine Uhr 43 angeschlossen. Der erste Sensorkontroller 42 kann am Drucksensor 40 und am Tempera- tursensor 41 entsprechende Sensorsignale abgreifen und sie in einer entsprechenden digitalen Druckwert bzw. Temperaturwert wandeln. Zudem kann der erste Sensorkontroller 42 die einzelnen Druckwerte und Temperaturwerte mit einem Zeitstempel versehen.
Weiterhin weist der Tauch körper 3 ein Hydrophon 44 auf, mit welchem Schallsignale emp- fangen und in elektrische Signale gewandelt werden. Das Hydrophon ist an einen zweiten Sensorkontroller 45 angeschlossen, der die vom Hydrophon erzeugten elektrischen Signale erfassen kann. Der zweite Sensorkontroller 45 ist zum Extrahieren einer Zeit- und Ortsinformation aus den empfangenen Schallsignalen ausgebildet. Im vorliegenden Ausführungsbeispiel erzeugt eine Sendeeinrichtung 46, welche unten näher erläutert wird, ein Schallsignal, auf welchem ein digitales Signal moduliert ist, wobei das digitale Signal die Orts- und Zeitinformation enthält. Dieses digitale Signal wird vom zweiten Sensorkontroller 45 extrahiert und die entsprechende Orts- und Zeitinformation wird bereitgestellt. Der zweite Sensorkontroller 45 ist auch mit der Uhr 43 verbunden und kann die empfangene Orts- und Zeitinformation mit einem Zeitstempel versehen, der den Zeitpunkt angibt, wann das entsprechende Schallsignal mittels des Hydrophons 44 empfangen worden ist,
Der erste Sensorkontroller 42 und der zweite Sensorkontroller 45 sind jeweils mit einem Mikrokontroller 47 verbunden. Der ikrokontroller 47 weist eine Verbindung zu einer externen Schnittstelle 48 auf, an welche ein Computer angeschlossen werden kann. Der Tauch - körper 3 ist in einem wasserdichten Gehäuse 49 angeordnet. Die Sensoren 40, 41 und 44 erstrecken sich jeweils durch eine Öffnung des Gehäuses 49, wobei sie gegenüber der jeweiligen Öffnung wasserdicht abgedichtet sind.
Der Tauchkörper 3 weist einen Inertialsensor 50 auf, mit welchem die Bewegungsrichtung des Tauchkörpers 3 detektiert werden kann. Der Inertialsensor 50 ist mit dem Mikrokontrol- ler 47 verbunden.
Die Sendeeinrichtung 46 weist einen GPS- Empfänger 51 auf, der mit einer Antenne 52 zum Empfangen von Satellitensignalen verbunden ist. Die Sendeeinrichtung 50 weist eine Uhr 53 auf. Der GPS-Empfänger 51 und die Uhr 53 sind jeweils an eine Sendeschaltung 54 ange- schlössen, welche ein Sendesignal erzeugt, das mittels einer Hydroschallquelle 55 ausgegeben werden kann. Die Sendeschaltung 54 ist derart ausgebildet, dass sie auf das Sendesignal sowohl die Uhrzeit der Signalerzeugung als auch den mit dem GPS-Empfänger 51 festgestellten Ort moduliert. Das ausgesendete Schallsignal enthält somit die Orts- und Zeitinformation, wann und wo das Signal erzeugt worden ist. Die Uhr 43 des Tauchkörpers 3 und die Uhr 53 der Sendeeinrichtung 46 sind miteinander synchronisiert. Diese Uhren 43, 53 sind vorzugsweise Funkuhren, so dass sie mit einer zentralen Funkuhr regelmäßig synchronisiert werden. Es ist jedoch auch grundsätzlich möglich, den Tauch körper mit einer Hydroschallquelle und die Sendeeinrichtung 46 mit einem Hydrophon auszubilden, so dass der Tauchkörper 3 und die Sendeeinrichtung 46 bidirektional Schallsignale austauschen können, um die jeweiligen Uhren 43, 53 miteinander zu synchronisieren.
Nachfolgend wir die Funktionsweise des erfindungsgemäßen Tauch körpers 3 zum Bestimmen der Position unter Wasser anhand der schematischen Zeichnung in Fig. 5 erläutert. Hierbei wird ein System mit zwei Sendeeinrichtungen 46/1 und 46/2 verwendet. Die Sendeeinrichtungen 46/1 und 46/2 empfangen mit ihren jeweiligen GPS-Empfängem 51 Satellitensignale von GPS-Satel liten 56. Anhand dieser Satellitensignale bestimmen die GPS-Empfänger 51 jeweils den Ort der jeweiligen Sendeeinrichtungen 46/1 und 46/2. Die beiden Sendeeinrich- tungen 46/1 und 46/2 senden jeweils ein Schallsignal aus, in dem der Ort der jeweiligen Sendeeinrichtung 46/1 und 46/2 und der Zeitpunkt der Schal lerzeugung codiert sind. Hierdurch enthält ein jedes dieser Schallsignale die Information über den Ort und den Zeitpunkt seiner Erzeugung. Mit den jeweiligen Hyd rose hallquellen 55 werden die Schallsignale in das Wasser abgestrahlt.
Die beiden Sendeeinrichtungen 46/1 und 46/2 sind jeweils an Bojen, Booten oder Schiffen angeordnet, welche frei auf einer Wasseroberfläche schwimmen. Die Sendeeinrichtungen 46/1 und 46/2 sind vorzugsweise mit einem Abstand von zumindest einigen Metern, vorzugsweise einigen zehn Metern, voneinander angeordnet.
Der Tauch körper 3 empfängt mittels des Hydrophons 44 die Schallsignale der beiden Sendeeinrichtungen 46/1 und 46/2. Die Schallsignale werden vom zweiten Sensorkontroller 45 decodiert und mit dem Zeitstempel versehen, der den Zeitpunkt angibt, wann das jeweilige Schallsignal von dem Tauchkörper 3 empfangen worden ist. Diese Informationen werden vom zweiten Sensorkontroller 45 an den Mikrokontroller 47 weitergeleitet. Der Mikrokontrol- ler 47 bestimmt aus dem Absendezeitpunkt des Schallsignals und dem Empfangszeitpunkt des Schallsignals die Laufzeit des Schall Signals. Anhand der Schallgeschwindigkeit im Wasser wird die Laufzeit in eine Entfernung umgerechnet. Dies ist die Entfernung dl bzw. d2 von dem im Schallsignal codierten Ort. Somit sind in dem Tauchkörper 3 die Entfernungen dl und d2 zu den jeweiligen Sendeeinrichtungen 46/1 und 46/2 bekannt.
Wie man in Fig. 5 erkennen kann, liegen alle Punkte mit der Entfernung dl bzw. der Entfernung d2 auf einer Kugel um die jeweilige Sendeeinrichtung 46/1 und 46/2. Die beiden Kugeln schneiden sich in einem Kreis 57. Somit muss der Ort des Tauch körpers 3 auf diesem Kreis 57 liegen.
Mit dem Drucksensor 40 wird der Wasserdruck gemessen. Aus dem Wasserdruck berechnet der Mikrokontroller 47 die Tiefe des Tauchkörpers 3 bezüglich der Wasseroberfläche. Diese Tiefe definiert ein bestimmtes Niveau bzw. eine bestimmte Ebene 58, die sich in zwei Punk- ten mit dem Kreis 57 schneidet. Da sich der Tauch körper 3 in dieser Ebene 58 befinden muss, ist die Position des Tauchkörpers auf einem dieser beiden Schnittpunkte festgelegt. Diese beiden Schnittpunkte sind spiegelsymmetrisch zu einer vertikalen Symmetrieebene angeordnet, welche durch die beiden Sendeeinrichtungen 46/1 und 46/2 verläuft. Wird der Tauchkörper 3 bezüglich dieser Symmetrieebene ein Stück auf die Symmetrieebene zu bzw. ein Stück von der Symmetrieebene weg bewegt, dann kann dies mit dem Iner- tialsensor 50 detektiert werden. Der Inertialsensor 50 gibt die Bewegungsrichtung an den Mikrokontroller 47 weiter. Der ikrokontroller 47 bestimmt die Bewegungskomponente senkrecht zur Symmetrieebene.
Vor und nach dieser Bewegung werden zumindest zwei Positionen des Tauchkörpers 3 mit Hilfe der Schallsignale und des Drucksensors bestimmt. Diese Positionen sind noch zweideu- tig, da sie auf beiden Seiten der Symmetrieebene angeordnet sein können. Es werden auch die Zeitpunkte dieser beiden Positionen festgestellt, so dass die Bewegungsrichtung des Tauch körpers 3 anhand dieser beiden Positionen ermittelt wird. Die Bewegungskomponente senkrecht zur Symmetrieebene ist bei den vorliegenden zwei Möglichkeiten auf beiden Seiten von der Symmetrieebene jeweils entgegengesetzt gerichtet. Diese Bewegungsrichtungen werden mit der mit dem Inertialsensor 50 erfassten Bewegungsrichtung verglichen, wobei die Positionen auf der Seite der Symmetrieebene als korrekt bewertet werden, die die gleiche Bewegungsrichtung wie der Inertialsensor 50 ergeben haben. Hierdurch kann die Position des Tauchkörpers 3 eindeutig bestimmt werden. Diese Position wird dann durch drei Koordinaten (X, Y, Z) bezüglich der beiden Sendeeinrichtungen 46/1 und 46/2 oder bezüglich eines durch das G PS-Satellitensystem vorgegebenen Koordinatensystems bestimmt. Die Koordinaten und der entsprechende Zeitstempel der jeweiligen Position des Tauchkörpers 3 werden in einer Speichereinrichtung 59 in einem vorbestimmten Log-Datensatz 60 abgespeichert. Dieser Tauchkörper 3 hat genauso wie der Tauchkörper 3 des ersten Ausführungsbeispiels gemäß Fig. 2 eine 2 D-Kamera 13 und zwei 3D-Abtasteinrichtungen 18, 19. Die Abtasteinrichtungen 13, 18, 19 können genauso wie beim ersten Ausführungsbeispiel ausgebildet sein, weshalb hierauf Bezug genommen wird. Weiterhin sind am Tauchkörper 3 wiederum Steuerruder vorgesehen, welche zum Steuern der Tauchtiefe und/oder der Drehposition um eine horizontale und/oder vertikale Längsachse des Tauchkörpers 3 ausgebildet sind. Zum Ansteuern des Steuerruders ist im Tauchkörper 3 eine Steuerruderstelleinrichtung 22 vorgesehen, welche mit entsprechenden Steuerelementen 23 die einzelnen Steuerruder ansteuert. Die Steuerruderstelleinrichtung 22 ist mit der zentralen Steuereinrichtung 47 verbunden und enthält von dieser entsprechende Signale, um die Position des Tauchkörpers 3 zu verändern. Ist der Tauchkörper 3 ein autonom betriebener Tauchkörper, dann weist er noch eine Antriebsei nrichtung auf (nicht dargestellt), mit welcher der Tauchkörper 3 im Wasser fortbewegt werden kann. Die mit den Abtasteinrichtungen 13, 18 und 19 erzeugten Bilder werden vorzugsweise vom Mikrokontroller 47 mit einem Zeitstempel versehen und in der Speichereinrichtung 59 in einem Bild-Datensatz 61 gespeichert.
Der im Log-Datensatz 60 gespeicherte Ort dient als Referenzierinformation für die im Bild- Datensatz 61 enthaltenen Bilddaten. Die Referenzierinformation des Log-Datensatzes 60 sind mit den Bilddaten des Bild-Datensatzes 61 jeweils über den Zeitstempel verknüpft. Vorzugsweise ist neben dem Ort auch die Ausrichtung des Tauch körpers 3 im Log-Datensatz 60 ab- gespeichert, so dass den im Bild-Datensatz 61 enthaltenen Bilddaten jeweils die Blickrichtung der Kamera 13 bzw. der Abtasteinrichtung 18 zugeordnet werden kann.
Der Tauch körper 3 ist bei diesem Ausführungsbeispiel an die Funknavigationseinrichtung (GPS-Empfänger) der Sendeeinrichtungen 46/1 und 46/2 gekoppelt. Hierdurch können die dreidimensionalen Koordinaten des Tauchkörpers 3 jederzeit bestimmt werden. Eine solche Kopplung des Tauchkörpers 3 an die Funknavigationseinrichtung ist nicht bis in beliebige Tiefen möglich, da einerseits die Schallsignale nicht beliebig weit übertragen werden können und andererseits der Abstand der Sendeeinrichtungen 46/1 und 46/2 die Ortsauflösungen in tieferen Tiefen begrenzt. Eine solche Kopplung des Tauch körpers 3 an die Funknavigation ist vor allem im ober lächennahen Bereich des Gewässers bis zu einer Tiefe von z. B. 100 m sehr effizient und zuverlässig.
Nachfolgend wird anhand von Figur 6 beispielhaft ein Verfahren zum Erzeugen von Unter- wasserkarten erläutert.
In einem Schritt Sl werden zunächst Satellitendaten oder nautische Karten eingelesen und Uferlinien extrahiert. Sind die eingelesenen Daten Höhenkarten, dann werden alle Punkte mit der Höhe Null (Z=0) extrahiert. Mit den mit der am Boot 2 angeordneten 3D-Abtastvorrichtung 24 gewonnenen SD- Informationen wird eine grobe 3 D-Höhenkarte erzeugt (Schritt S2). Die Genauigkeit dieser
3 D-Höhenkarte beträgt etwa 1 m.
Im Schritt S3 werden die mit den 3 D-Abtasteinrichtungen 18, 19, welche am Tauch körper 3 angeordnet sind, erfassten 3 D-Informationen zusammengesetzt. Vorzugsweise tasten die 3 D-Abtasteinrichtungen 18, 19 den Grund aus unterschiedlichen, insbesondere zueinander orthogonalen Richtungen ab, wodurch unabhängig von der Neigung der Oberfläche des Grundes eine etwa gleichmäßige Auflösung der 3D-Informationen erzielt wird. Diesen 3D- Informationen sind Referenzinformationen zugeordnet, welche den Ausschnitt des dargestellten Grundes beschreiben. Anhand dieser Referenzinformationen werden diese SD- Informationen in die 3D-Höhenkarte aus dem Schritt S2 und die Uferlinien aus dem Schritt Sl hinzugefügt (Schritt S4), so dass eine 3D-Höhenkarte mit einer Auflösung kleiner als 1 m erzeugt wird.
Im Schritt S5 wird die 3 D-Höhenkarte polygonisiert. Dies kann beispielsweise mit dem Eingangs erläuterten Verfahren nach D.T. Lee et al. (Two algorithm for constructing a delaunay triangulation) ausgeführt werden.
Optional können Detailgeometriedaten aus unterschiedlichen Datenquellen ausgelesen werden (Schritt S6). Die Datenquellen können absolute Punktwolke-Daten, relative Punktwolke- Daten oder ein polygonisiertes Objekt enthalten. Solche Datenquellen sind zum Teil für Korallen, Wracks oder andere Objekte von großem Interesse vorhanden. Diese Daten können auch für derartige Objekte zusätzlich erfasst werden. Ein geeignetes Verfahren, um hochauflösende SD-Informationen zu erhalten, ist die Photogrammetrie. Die Photogrametrie umfasst unterschiedliche Verfahren zur Erzeugung von 3D-Informationen. Im vorliegenden Ausführungsbeispiel werden die Objekte aus unterschiedlichen Richtungen mittels einer Kamera abgetastet. Die so erzeugten Bilder der Objekte werden einer Merkmalsanalyse unterzogen. Anhand der Merkmale erfolgt eine Zuordnung der einzelnen Merkmale in den unterschiedlichen Bildern, woraus der dreidimensionale Körper bzw. das dreidimensionale Objekt modelliert werden kann. Hiermit wird auf einfache Art und Weise eine sehr präzise Darstellung der dreidimensionalen Objekte geschaffen und das Abtasten eines Objektes aus unterschiedlichen Richtungen mittels einer Kamera ist auch unter Wasser ohne Weiteres möglich. Alterna- tiv können die 3D-Informationen auch mittels einer Stereokamera und einem entsprechenden Verfahren zum Auswerten von Stereobildern erzeugt werden.
Diese Detail-Geometrie-Daten können im Schritt S7 der polygonisierten Höhenkarte hinzugefügt werden.
Im Schritt S8 werden zweidimensionale Bilddaten des Grundes eingelesen. Die zweidimensionalen Bilddaten enthalten Referenzinformationen, welche den durch die jeweiligen Bilddaten dargestellten Ausschnitt des Grundes beschreiben. Hierdurch können die zweidimensionalen Bilddaten als Textur der im Schritt S5 oder S7 erhaltenen dreidimensionalen Höhenkar- te unter Berücksichtigung der Höhenkarte zugeordneten Referenzierinformationen hinzugefügt werden (Schritt S8). Vorzugsweise enthalten die Referenzinformationen der zweidimensionalen Bilddaten jeweils den Ort und die Blickrichtung der Kamera, mit welcher die Bilddaten aufgenommen worden sind. Beim Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte werden die zweidimensionalen Bilddaten umgekehrt proportional zur Abweichung der Blickrichtung von der Normalen des Bereiches der dreidimensionalen Höhenkarte gewichtet, auf welchen die zweidimensionalen Bilddaten abgebildet werden. Dies heißt mit anderen Worten, dass je stärker die Blickrichtung von der Normalen der Oberfläche der Höhenkarte abweicht, desto weniger werden die entsprechenden zweidimensionalen Bilddaten als Textur übernommen. Bilddaten, deren Blickrichtung der Normalen entspricht, werden umso stärker übernommen.
Im Schritt S9 wird somit die endgültige Unterwasserkarte erzeugt, welche im Schritt S10 ausgegeben wird.
Dieses Verfahren weist gegenüber herkömmlichen Verfahren folgende Vorteile auf:
1. Die einzelnen Schritt sind vollautomatisch ausführbar. Die Verwendung der Referen- Zierinformationen (vor allem der Ortsinformationen), insbesondere für die im Schritt
S3 verwendeten 3D-Informationen mit hoher Auflösung und/oder die im Schritt S8 verwendeten zweidimensionalen Bilddaten erlauben das automatische Integrieren dieser Informationen zu der jeweils vorhandenen 3D-Höhen karte. Mit dem Schritt S3 und 54 wird eine grobe und einfach herzustellende 3D-Höhen karte so weit verfeinert, dass deren Auflösung so hoch ist, dass die Integration von zweidimensionalen Bilddaten als Textur zu keinen unnatürlichen Eindrücken führt. Als natürlicher Eindruck wird die Erscheinung des Grundes beurteilt, die ein Taucher mit dem menschlichen Auge aus einer Entfernung von etwa 2 - 5 m sieht. 2. Die Kombination von 3D-Informationen, welche aus zwei unterschiedlichen Richtungen erfasst worden sind, die vorzugsweise orthogonal zueinander sind, erlaubt die Erzeugung einer Höhenkarte mit im Wesentlichen gleichmäßiger Auflösung, unabhängig von der Neigung des Grundes, der dargestellt wird. 3. Die Verwendung von zweidimensionalen Bilddaten als Textur für eine dreidimensionale Unterwasserkarte ergibt eine 3D-Karte, welche einerseits die Kontur des Grundes mit einer zum Tauchen oder für die Schifffahrt ausreichend präzisen Auflösung wiedergibt und andererseits das Erscheinungsbild des Grundes naturgetreu wiedergibt. 4. Werden die zweidimensionalen Bilddaten aus unterschiedlichen Richtungen aufgenommen und entsprechend der Abweichung zur Normalen des Grundes gewichtet, wie es oben erläutert ist, dann wird eine sehr naturgetreue Darstellung erzielt, da Verfälschungen aufgrund der Blickrichtung erheblich verringert werden. Nachfolgend wird anhand von Fig. 7 und 8 ein Verfahren erläutert, wie die im Schritt S8 eingelesenen zweidimensionalen Bilddaten in eine Textur umgesetzt werden, welche auf die dreidimensionale Höhenkarte abgebildet werden kann.
Dieses Verfahren beginnt mit dem Schritt Sil. Im Schritt S12 wird ein zweidimensionales Bild des Grundes eingelesen. Das zweidimensionale Bild ist ein Farbbild 31 (Fig. 8).
Dieses zweidimensionale Bild enthält Referenzinformationen, aus welchen im Schritt S13 die Kamera position, mit welcher das zweidimensionale Bild aufgenommen worden ist, und die Größe des Sichtfeldes der realen Kamera 32 ausgelesen werden.
Das virtuelle Objekt, das ein am Grund befindlicher Gegenstand sein kann, ist anhand der Detail geometriedaten aus dem Schritt S6 bekannt oder das virtuelle Objekt ist ein Abschnitt des Grundes der durch die polygonisierte 3D-Höhenkarte gemäß dem Schritt S5 beschrieben wird. Die Geometrie des dreidimensionalen Objektes liegt somit mit hoher Präzision vor. Lediglich die Oberfläch enbesch äffen heit dieses dreidimensionalen Objektes geht weder aus der Höhenkarte noch aus den Detail geometriedaten hervor. Aufgrund der präzisen Darstellung des dreidimensionalen Objektes ist es nun möglich, ein virtuelles zweidimensionales Bild 33 des Objektes zu erzeugen (Schritt S14). Eine virtuelle Kamera 34 wird bezüglich des virtuellen dreidimensionalen Objektes an die gleiche Stelle, wie die reale Kamera 32 beim Aufnehmen des realen zweidimensionalen Bildes 31 positioniert und es wird das gleiche Sichtfeld, wie bei der Aufnahme des realen zweidimensionalen Bildes 31 mit der realen Kamera 32 eingestellt. Das so erzeugte virtuelle zweidimensionale Bild 33 ist bezüglich der perspektivischen Darstellung des dreidimensionalen Objektes im zweidimensionalen Bild im Wesentlichen identisch zu dem realen zweidimensionalen Bild 31.
Zur Erläuterung dieses Verfahrens sind in Fig. 8 Bilder einer Hütte 35 gezeigt, die das reale Objekt bildet, dargestellt.
Es ist ein Texturraum 36 vorgesehen, der auch als UV-Raum bezeichnet wird. Dieser Texturraum enthält Flächenelemente, welche Oberflächenabschnitten des Objektes entsprechen. Bei der Hütte sind dies z.B. die Dachflächen und die Seitenflächen der Hütte.
Das im Schritt S14 erzeugte virtuelle Bild wird im Schritt S15 dem Textur-Raum 36 zugeordnet. Da der Textur-Raum anhand der geometrischen Beschreibung des virtuellen Objektes erzeugt worden ist, besteht eine eindeutige Zuordnung der Punkte der Oberfläche des virtu- eilen Objektes zu den Punkten im Textur-Raum, welche als Texel bezeichnet werden. Da auch das virtuelle zweidimensionale Bild 31 anhand der geometrischen Beschreibung des virtuellen dreidimensionalen Objektes erzeugt worden ist, besteht auch zwischen den Bildpunkten des virtuellen zweidimensionalen Bildes und den Punkten der Oberfläche des virtuel- len dreidimensionalen Objektes eine eindeutige Beziehung und somit auch eine eindeutige Beziehung zwischen den Bildpunkten des virtuellen zweidimensionalen Bildes und den Texels des Textur-Raums 36. Somit wird ein Bildpunkt 37 des realen zweidimensionalen Bildes 31 dem Textur-Raum 36 an dem Texel 38 zugeordnet, der dem Bildpunkt 39 im zweidimensionalen virtuellen Bild 33 entspricht. Das heißt mit anderen Worten, dass beim Zuordnen eines der Bildpunkte 37 des realen zweidimensionalen Bildes 31 zum Textur- Raum 36 zunächst der korrespondierende Bildpunkt 39 im virtuellen zweidimensionalen Bild 33 ermittelt wird. Der korrespondierende Bildpunkt 39 befindet sich im virtuellen zweidimensionalen Bild 33 an derselben Stelle wie der Bildpunkt 37 im realen zweidimensionalen Bild 31. Anhand des Bildpunktes 39 des virtuellen Bildes 33 steht die Zuordnung zu dem entsprechenden Texel 38 im Textur-Raum 36 fest, so dass der Bildpunkt 37 des realen Bildes 31 eindeutig dem Textur- Raum zugeordnet werden kann.
Beim Zuordnen des Bildpunktes 37 des realen Bildes 31 zu dem Textur-Raum 36 werden die Farbwerte des Bildpunktes 37 dem Texel 38 zugeordnet bzw. dort eingetragen. Diese Zuord- nung erfolgt ehr schnell, da, ähnlich wie bei einer look-up-Tabelle, die Bild punkte des realen Bildes den entsprechenden Texels zugeordnet werden können.
Im Schritt S16 wird geprüft, ob weitere reale zweidimensionale Bilder vorhanden sind. Ist dies der Fall, dann geht der Verfahrensablauf auf den Schritt S12 über und das weitere reale zweidimensionale Bild wird eingelesen. Es werden dann die Schritte S12 bis S15 in gleicher Weise, wie es oben erläutert ist, ausgeführt. Es kann sein, dass mehrere reale zweidimensionale Bilder Bildpunkte 37 enthalten, welche dem gleichen Texel im Textur-Raum 36 zuzuordnen sind. Hierbei werden vorzugsweise die Farbwerte der unterschiedlichen Bild punkte ge- mittelt. Es kann auch zweckmäßig sein, bei der Mittelung die oben erläuterte Gewichtung in Abhängigkeit zur Abweichung der Blickrichtung der Kamera von einer Normalen zu der Oberfläche des Objektes, an dem sich der jeweilige Bildpunkt 37 bzw. 39 befindet, anzuwenden. Je stärker die Blickrichtung der Kamera von dieser Normalen abweicht, desto geringer ist das Gewicht, mit welcher der jeweilige Bildpunkt im Textur-Raum 36 berücksichtigt wird. Es ist zweckmäßig, die Textur für ein Objekt aus mehreren realen zweidimensionalen Bildern zu erzeugen, da normalerweise mit einem einzelnen realen zweidimensionalen Bild nur ein Teilbereich des Textur-Raums abgedeckt werden kann. In der Regel sind Teile eines Objektes bei einem zweidimensionalen Bild verdeckt. Dies gilt vor allem für Rückseiten, Hinter- schnitte und Ausnehmungen. Durch die Berücksichtigung mehrerer zweidimensionaler Bilder aus möglichst unterschiedlichen Richtungen kann eine lückenlose Textur erzeugt werden.
Ergibt die Abfrage im Schritt S16, dass kein weiteres reales zweidimensionales Bild für das Objekt vorhanden ist, dann wird im Schritt S17 die mit den Schritten S12 bis S15 erzeugte Textur auf das Objekt bzw. die 3 D-Höhen karte abgebildet. Mit dem Schritt S18 ist das Verfahren beendet.
Bei dem oben erläuterten Verfahren werden somit die Referenzierinformationen Position der Kamera, Blickrichtung und Sichtfeld zum Transformieren der Bild punkte der realen zweidimensionalen Bilder in den Textur-Raum verwendet.
Mit den oben erläuterten Ausführungsbeispielen kann eine Unterwasserkarte erzeugt werden, welche sehr präzise die Kontur des Grundes wiedergibt und zudem durch die Verwen- dung der Textur naturgetreu aussieht. Die Erfindung ist jedoch nicht auf die Erzeugung von Unterwasserkarten beschränkt. Die Erfindung kann überall dort vorteilhaft eingesetzt werden, wo 3 D-Daten eines Objekts mit hoher Präzision vorliegen. Die oben erläuterten Verfahren können z. B. in unterschiedlichen medizinischen Anwendungen eingesetzt werden. Zum Modellieren von Zähnen und Zahnimplantaten können diese z. B. mit einem Laser vermessen werden. Zweidimensionale Farbbilder von den Zähnen können mit einer speziellen Kamera aufgenommen werden, die z. B. ein optisches Winkelelement aufweist, mit welcher auch die Rückseite der Zähne erfasst werden kann. Aus den zweidimensionalen Bilddaten wird eine Textur erzeugt und auf das dreidimensionale Modell abgebildet. Hierdurch werden 3 D-Daten erhalten, welche sowohl die Kontur der Zähne als auch ihr farbliches Erscheinungsbild kor- rekt wiedergeben.
Bezugszeichenliste
1 Abtastvorrichtung 35 33 virtuelles zweidimensionales Bild
2 Schwimmkörper 34 virtuelle Kamera
5 3 Tauch körper 35 Hütte
4 Wasseroberfläche 36 Textur-Raum
5 Schleppleine 37 Bildpunkt des realen zweidimensio¬
6 Kabel 40 nalen Bildes
7 Bandpassfilter 38 Texel
10 8 Demodulator 39 Bildpunkt des virtuellen zweidimen¬
9 A/D-Wandler sionalen Bildes
10 zentrale Steuereinrichtung 40 Drucksensor
11 D/A- Wandler 45 41 Temperatursensor
12 Modulator 42 erster Sensorkontroller
15 13 2D-Kamera 43 Uhr
14 Grund 44 Hydrophon
15 Blickrichtung 45 zweiter Sensorkontroller
16 Beleuchtungseinrichtung 50 46 Sendeeinrichtung
17 Speichereinrichtung 47 Mikrokontroller
20 18 3D-Abtasteinrichtung 48 Schnittstelle
19 3D-Abtastei n richtung 49 Gehäuse
20 Blickrichtung 50 Inertialsensor
21 Steuerruder 55 51 GPS-Empfänger
22 Steuerruderstelleinrichtung 52 Antenne
25 23 Stellelement 53 Uhr
24 3D-Abtastvorrichtung 54 Sendeschaltung
25 Blickrichtung 55 Hydroschallquelle
26 Tauch körper-Abtastvorrichtung 60 56 GPS-Satellit
27 Blickrichtung 57 Kreis
30 28 Satellitennavigationseinrichtung 58 Ebene
29 Satellit 59 Speichereinrichtung
30 Stange 60 Log-Datensatz
31 reales zweidimensionales Bild 65 61 Bild-Datensatz
32 reale Kamera

Claims

Patentansprüche
1. Verfahren zum Erzeugen von 3D-Daten eines Objektes, insbesondere zum Erzeugen von Unterwasserkarten, wobei folgende Schritte ausgeführt werden,
- Bereitstellen von zweidimensionalen Bilddaten der Oberfläche des Objektes, wie z.B. des Grundes eines Gewässers, zusammen mit Referenzinformationen,
- Bereitstellen einer dreidimensionalen polygonisierten Höhenkarte eines vorbestimmten Bereichs des Objektes bzw. des Grundes eines Gewässers, und
- Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale polygonisier- te Höhenkarte mittels der Referenzinformationen.
2. Verfahren zum Erzeugen von Unterwasserkarten, insbesondere nach Anspruch 1, wobei folgende Schritte ausgeführt werden,
- Bereitstellen von zweidimensionalen Bilddaten der Oberfläche des Objektes, wie z.B. des Grundes eines Gewässers, zusammen mit Referenzinformationen,
- Bereitstellen einer dreidimensionalen Höhenkarte eines vorbestimmten Bereichs des Objektes bzw. des Grundes eines Gewässers, und
- Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte mittels der Referenzinformationen, wobei
die dreidimensionale Höhenkarte bereit gestellt wird, indem der Grund des Gewässers mit einer 3D-Abtasteinrichtung abgetastet wird, welche an einem Schwimmkörper oder Tauchkörper angeordnet ist, der mit einer Funknavigationseinrichtung derart gekoppelt ist, dass mit der Funknavigationseinrichtung ermittelte Positionskoordinaten als Referenzinformationen der dreidimensionalen Höhenkarte zugeordnet werden.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass zum Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte mittels der Referenzinformationen die zweidimensionalen Bilddaten in einen Textur- Raum transformiert werden,
die Zuordnung der Punkte im Textur-Raum zu den jeweiligen Punkten in der Höhenkarte mittels der Referenzinformationen bestimmt wird, und
Farbwerte von Punkten des Textur-Raumes auf die zugeordneten Punkte in der Höhenkarte abgebildet werden.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet,
dass mehrere Farbwerte unterschiedlicher zweidimensionaler Bilddaten einem Punkt in der Höhenkarte zugeordnet werden, wobei die mehreren Farbwerte interpoliert oder gemittelt werden.
5. Verfahren nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet,
dass zum Bereitstellen einer dreidimensionalen Höhenkarte ein Objekt, wie z.B. der Grund eines Gewässers, aus zwei unterschiedlichen Richtungen abgetastet wird, und die hierdurch gewonnen Informationen zum Erzeugen der dreidimensionalen Höhenkarte zusammengesetzt werden.
6. Verfahren nach Anspruch 5,
dadurch gekennzeichnet,
dass die zwei unterschiedlichen Richtungen einen Winkel von zumindest 30° und vorzugsweise von zumindest 60° einschließen und insbesondere etwa orthogonal zueinander sind und/oder in horizontaler und in vertikaler Richtung zueinander ausgerichtet sind.
7. Verfahren nach einem der Ansprüche 1 bis 6,
dadurch gekennzeichnet,
dass das Abtasten zum Erzeugen dreidimensionaler Informationenmit einer Sonar-Abtastung, einer Abtastung mittels einer Stereokamera und/oder Laufzeitkamera ausgeführt wird.
8. Verfahren nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet,
dass eine Höhenkarte erzeugt wird, bei der die einzelnen Punkte einen maximalen Abstand von 20 cm aufweisen.
9. Verfahren nach einem der Ansprüche 1 bis 8,
dadurch gekennzeichnet, dass eine Höhenkarte erzeugt wird, bei der die einzelnen Punkte eine Präzision von zumindest 20 cm aufweisen.
10. Verfahren nach einem der Ansprüche 1 bis 9,
dadurch gekennzeichnet,
dass die Referenzinformationen die Blickrichtung mit welcher die zweidimensionalen Bilddaten erfasst worden sind, enthalten, und beim Abbilden der zweidimensionalen Bilddaten als Textur auf die dreidimensionale Höhenkarte werden die zweidimensionalen Bilddaten umgekehrt proportional zur Abweichung der Blickrichtung von der Normalen des Bereichs der dreidimensionalen Höhenkarte gewichtet, auf welchen die zweidimensionalen Bilddaten abgebildet werden.
11. Verfahren zum Erzeugen einer Textur, welche auf eine dreidimensionale Höhenkarte abgebildet werden kann, wobei die Textur aus zweidimensionalen Bilddaten erzeugt wird, wel- che von einem realen Objekt erstellt worden sind, das dem in der Höhenkarte dargestellten Objekt entspricht,
dadurch gekennzeichnet,
dass ein virtuelles Bild, das von dem in der Höhenkarte dargestellten Objekt erstellt wird, wobei das virtuelle Bild mit der gleichen Kamera position, der gleichen Blickrichtung und dem gleichen Sichtfeld wie ein entsprechendes reales Bild der zweidimensionalen Bilddaten erstellt wird,
ein Textur-Raum des in der Höhenkarte dargestellten Objektes erstellt wird, so dass eine Zuordnung jeweils zwischen Punkten der Oberfläche des in der Höhenkarte dargestellten Objektes und Texel des Textur-Raumes besteht, und
die Bildpunkte diese realen Bildes dem Textur-Raum mittels des virtuellen Bildes und der hierdurch festgelegten Zuordnung zwischen den Bildpunkten des virtuellen Bildes, die jeweils einen Punkt der Oberfläche des Objektes darstellen, und deren Zuordnung zu den Texel des Textur-Raumes.
12. Verfahren nach einem der Ansprüche 1 bis 10,
dadurch gekennzeichnet,
dass die mit dem Verfahren nach Anspruch 10 erzeugte Textur verwendet wird.
13. Verfahren nach Anspruch 11,
dadurch gekennzeichnet,
dass zum Bereitstellen der zweidimensionalen Bilddaten eine Abtastvorrichtung zum Abtasten vom Objekt, wie z.B. vom Grund von Gewässern verwendet wird, mit welcher die zweidimensionalen Bilddaten erzeugt werden, wobei die Abtastvorrichtung - einen Tauch körper,
- eine im Tauch körper angeordnete Kamera zum Erzeugen von den Grund beschreibenden Bilddaten, und
- eine Referenziereinrichtung, die Referenzierinformationen erzeugt, welche den Bilddaten zugeordnet werden, so dass die Position des in den jeweiligen Bilddaten dargestellten Ausschnittes des Grundes definiert ist,
umfasst.
PCT/EP2017/065119 2016-06-20 2017-06-20 Verfahren zum erzeugen von 3d-daten eines objekts WO2017220599A2 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112017003055.2T DE112017003055A5 (de) 2016-06-20 2017-06-20 Verfahren zum Erzeugen von 3D-Daten eines Objekts
US16/311,553 US10950041B2 (en) 2016-06-20 2017-06-20 Method for generating 3D data relating to an object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016111239.9A DE102016111239A1 (de) 2016-06-20 2016-06-20 Verfahren zum Erzeugen von 3D-Daten eines Objekts
DE102016111239.9 2016-06-20

Publications (2)

Publication Number Publication Date
WO2017220599A2 true WO2017220599A2 (de) 2017-12-28
WO2017220599A3 WO2017220599A3 (de) 2018-02-15

Family

ID=59253488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/065119 WO2017220599A2 (de) 2016-06-20 2017-06-20 Verfahren zum erzeugen von 3d-daten eines objekts

Country Status (3)

Country Link
US (1) US10950041B2 (de)
DE (2) DE102016111239A1 (de)
WO (1) WO2017220599A2 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10924721B2 (en) * 2018-12-20 2021-02-16 Intel Corporation Volumetric video color assignment
US11861957B2 (en) * 2019-05-09 2024-01-02 Argo AI, LLC Time master and sensor data collection for robotic system
US10771892B1 (en) 2019-07-02 2020-09-08 Teledyne Instruments, Inc. Underwater subwoofer system
CN111275816B (zh) * 2020-02-25 2022-05-10 华为技术有限公司 获取点云数据的方法及相关设备
US11004324B1 (en) * 2020-07-24 2021-05-11 Jet Rocafort of America, Inc. Pool alarm
CN111915711A (zh) * 2020-08-04 2020-11-10 北京吉威空间信息股份有限公司 支持虚拟vr的三调地类图斑立体图像获取方法及装置
CN112200843B (zh) * 2020-10-09 2023-05-23 福州大学 一种基于超体素的cbct与激光扫描点云数据牙齿配准方法
CN112767549B (zh) * 2020-12-29 2023-09-01 湖北中南鹏力海洋探测系统工程有限公司 一种高频地波雷达海态数据的等高面生成方法
AT525294A1 (de) 2021-08-04 2023-02-15 Ocean Maps GmbH Verfahren zum Erzeugen einer hierarchischen Datenstruktur, hierarchische Datenstruktur sowie Verfahren zum Streamen von dreidimensionalen Objekten
US20230252197A1 (en) * 2022-02-09 2023-08-10 Faro Technologies, Inc. System and method of combining three dimensional data
CN114739369B (zh) * 2022-03-09 2023-05-23 中铁大桥勘测设计院集团有限公司 基于无人机航测与测深仪水下测量的滩涂测图方法及设备
WO2024124488A1 (en) * 2022-12-15 2024-06-20 Clear Robotics Limited Object detection system and object detection method in aquatic environments
CN116542105B (zh) * 2023-05-15 2023-10-27 广东省水利水电第三工程局有限公司 一种在超深动水区的河床底摊铺作业方法及系统
CN118031904B (zh) * 2024-04-12 2024-06-25 四川省公路规划勘察设计研究院有限公司 基于车载激光点云的高速公路隧道净空测量方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432712A (en) 1990-05-29 1995-07-11 Axiom Innovation Limited Machine vision stereo matching
US6590640B1 (en) 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US20060182314A1 (en) 2005-02-11 2006-08-17 England James N Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
WO2012129612A1 (en) 2011-03-31 2012-10-04 Ogburn Damian Method and system for surveying or monitoring underwater features
DE102012103373A1 (de) 2012-04-18 2013-10-24 Jena-Optronik Gmbh Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen
US20150301180A1 (en) 2011-09-08 2015-10-22 Advanced Scientific Concepts Inc. Terrain mapping ladar system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005033629A2 (en) * 2003-09-19 2005-04-14 University Of Miami Multi-camera inspection of underwater structures
JP4102324B2 (ja) * 2004-03-29 2008-06-18 株式会社トプコン 測量データ処理システム、測量データ処理プログラム及び電子地図表示装置
DE102004062122B3 (de) * 2004-12-23 2005-12-22 Atlas Elektronik Gmbh Verfahren zum Detektieren und Neutralisieren von Unterwasserobjekten
JP4012233B1 (ja) * 2006-05-19 2007-11-21 泰一郎 楠瀬 水底三次元画像作成システムおよび水底三次元画像作成方法
US8654189B1 (en) * 2011-04-18 2014-02-18 Jonathan Spangler Anchor surveillance for maritime vessels
FR2975073B1 (fr) * 2011-05-10 2015-08-21 Alain Dinis Procede et dispositif pour la visualisation d'un contenu informatique associe a une propulsion.
AU2013215493A1 (en) * 2012-01-30 2014-08-21 Google Inc. Apparatus and method for acquiring underwater images
US9702966B2 (en) * 2013-09-16 2017-07-11 Appareo Systems, Llc Synthetic underwater visualization system
DE102016106214A1 (de) 2016-04-05 2017-10-05 Ocean Maps GmbH Tauchvorrichtung, Sendeeinrichtung und System und Verfahren zur Bestimmung der Position unter Wasser

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5432712A (en) 1990-05-29 1995-07-11 Axiom Innovation Limited Machine vision stereo matching
US6590640B1 (en) 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US20060182314A1 (en) 2005-02-11 2006-08-17 England James N Method and apparatus for displaying a calculated geometric entity within one or more 3D rangefinder data sets
WO2012129612A1 (en) 2011-03-31 2012-10-04 Ogburn Damian Method and system for surveying or monitoring underwater features
US20150301180A1 (en) 2011-09-08 2015-10-22 Advanced Scientific Concepts Inc. Terrain mapping ladar system
DE102012103373A1 (de) 2012-04-18 2013-10-24 Jena-Optronik Gmbh Verfahren zur Erstellung eines 3D-Modells urbaner Umgebungen

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"D Reconstruction Based on Underwater Video from ROV Kiel 6000 Considering Underwater Imaging Conditions", OCEANS 2009-EUROPE, 2009, pages 1 - 10
D.T. LEE ET AL, INTERNATIONAL JOURNAL OF COMPUTER AND INFORMATION SCIENCE, vol. 9, no. 3, - 1980, pages 219 - 242
H. HOPPE: "Surface reconstruction from unorganized points", A DISSERTATION, 1994
KUNZ: "Map Building Fusing Acoustic and Visual Information using Autonomous Underwater Vehicles", JOURNAL OF FIELD ROBOTICS, vol. 30, no. 5, 2013, pages 763 - 783
MASSOT-CAMPOS: "Optical Sensors and Methods for Underwater 3D Reconstruction", SENSORS, vol. 15, 2015, pages 31525 - 31557
PELAGOTTI: "Automated Multispectral Texture Mapping of 3D Models", 17TH EUROPEAN SIGNAL PROCESSING CONFERENCE, 2009, pages 1215 - 1219, XP032758904
T. SCHENK: "Introduction to Photogrammetry", DEPARTMENT OF CIVIL AND ENVIRONMENTAL ENGINEERING AND GEODETIC SCIENCE, 2005
W.E.LORENSEN ET AL, COMPUTER GRAPHICS, vol. 21, no. 4, - July 1987 (1987-07-01), pages 163 - 169

Also Published As

Publication number Publication date
DE112017003055A5 (de) 2019-02-28
US10950041B2 (en) 2021-03-16
DE102016111239A1 (de) 2017-12-21
US20190318536A1 (en) 2019-10-17
WO2017220599A3 (de) 2018-02-15

Similar Documents

Publication Publication Date Title
WO2017220599A2 (de) Verfahren zum erzeugen von 3d-daten eines objekts
WO2017220601A1 (de) Abtastvorrichtung zum abtasten vom grund von gewässern und verfahren zum erzeugen von unterwasserkarten
Johnson‐Roberson et al. High‐resolution underwater robotic vision‐based mapping and three‐dimensional reconstruction for archaeology
CN113340295B (zh) 一种多个测距传感器的无人艇近岸实时定位与建图方法
DE112010002843T5 (de) Oberflächenverfolgung auf Bildbasis
CN106384382A (zh) 一种基于双目立体视觉的三维重建系统及其方法
CN114488164B (zh) 水下航行器同步定位与建图方法及水下航行器
Mahon et al. Reconstructing pavlopetri: Mapping the world's oldest submerged town using stereo-vision
CN110053743A (zh) 一种用于水下精准测量的遥控机器人
CN101251379A (zh) 一种面向水下运载器的实时双目视觉导引方法
CN107241533B (zh) 一种水下面阵扫描激光成像装置及方法
CN105488852B (zh) 一种基于地理编码和多维校准的三维图像拼接方法
Williams et al. Simultaneous localisation and mapping and dense stereoscopic seafloor reconstruction using an AUV
DE102009040468A1 (de) Tragbare mobile Erfassungseinrichtung und Verfahren zur dreidimensionalen geometrischen Erfassung einer Umgebung
CN111640177B (zh) 一种基于水下声呐探测的三维建模方法及无人潜水器
Yoerger et al. Fine-scale three-dimensional mapping of a deep-sea hydrothermal vent site using the Jason ROV system
CN117214904A (zh) 一种基于多传感器数据的鱼类智能识别监测方法和系统
DE102009054214B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Darstellung einer Umgebung
Calantropio et al. Photogrammetric underwater and UAS surveys of archaeological sites: The case study of the roman shipwreck of Torre Santa Sabina
Hernández et al. Autonomous seabed inspection for environmental monitoring
WO2017092733A1 (de) Verfahren zur vorbereitenden simulation eines militärischen einsatzes in einem einsatzgebiet
Prado et al. 3D modeling of Rio Miera wreck ship merging optical and multibeam high resolution points cloud
Iscar et al. Autonomous surface vehicle 3D seafloor reconstruction from monocular images and sonar data
Allotta et al. Thesaurus project: Design of new autonomous underwater vehicles for documentation and protection of underwater archaeological sites
Diamanti et al. A multi-camera system for the integrated documentation of Underwater Cultural Heritage of high structural complexity; The case study of M/S Helma wreck

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17734020

Country of ref document: EP

Kind code of ref document: A2

REG Reference to national code

Ref country code: DE

Ref legal event code: R225

Ref document number: 112017003055

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17734020

Country of ref document: EP

Kind code of ref document: A2