WO2014173393A1 - Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug - Google Patents

Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug Download PDF

Info

Publication number
WO2014173393A1
WO2014173393A1 PCT/DE2014/100112 DE2014100112W WO2014173393A1 WO 2014173393 A1 WO2014173393 A1 WO 2014173393A1 DE 2014100112 W DE2014100112 W DE 2014100112W WO 2014173393 A1 WO2014173393 A1 WO 2014173393A1
Authority
WO
WIPO (PCT)
Prior art keywords
underwater structure
underwater
additional information
reference image
computer
Prior art date
Application number
PCT/DE2014/100112
Other languages
English (en)
French (fr)
Inventor
Benjamin Lehmann
Anton LORENSON
Original Assignee
Atlas Elektronik Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atlas Elektronik Gmbh filed Critical Atlas Elektronik Gmbh
Priority to EP14725352.0A priority Critical patent/EP2989610A1/de
Publication of WO2014173393A1 publication Critical patent/WO2014173393A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/74Systems using reradiation of acoustic waves, e.g. IFF, i.e. identification of friend or foe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the invention relates to a method for identifying or detecting an underwater structure, to a computer which is set up such that the method can be carried out, and to a watercraft which has the computer and an imaging system, in particular a sonar.
  • Object detection and object identification (ie ect classification) in sonar-generated images are still a challenge for automated image processing.
  • the measurement-specific properties such as turbulent inhomogeneous environment, no apriori knowledge about the position of the object to be recorded and low signal -to-noise ratios make it difficult to detect and identify the objects and increase the false alarm rate.
  • the object of the invention is to improve the state of the art.
  • the object is achieved by a method for identifying or detecting an underwater structure, the method comprising the following steps
  • a total solution space can be dramatically reduced, so that there is only one reference picture space.
  • a real-time detection and identification method can be provided.
  • the above method can be used in AUVs (Autonomous Operated Vehicles) or ROVs (Remotely Operated Vehicles), since in particular the calculation duration of the reference solution space with corresponding reference images of the time interval lies between the determination of two sonar recordings in the AUVs or ROVs.
  • Identify or "detect” includes recognizing and characterizing the underwater structure in an original image. Information about the distance to the underwater structure and / or the geographic position of the underwater structure can then be obtained. In addition, special objects such as underwater mines, whose geometry is known, can be found.
  • the "underwater structure” may include all natural or technical structures underwater, in particular pipelines, foundations of off-shore wind turbines or underwater mines are of particular interest.
  • the "determination of an original image” is carried out in particular by means of sonar, whereby it is possible to use bow, stern, down-side, side-scan, synthetic aperture and other suitable sonars Basically, passive and active sonars are included.
  • the vessel's position may include the coordinates determined by means of satellite navigation, while in the case of an underwater vehicle this may be the height above ground, which is obtained, for example, by echosounding all other data relating to any coordinate system can be used in the determination
  • the number and quality of the data obtained are of great importance, since they have a considerable influence in reducing the total reference image space, so that a reference image space can be determined which compared to the overall reference image space (FIG. clearly) is reduced.
  • a "determination of an underwater structure layer” can take place,
  • the underwater structure water sound can have strongly reflecting regions, so that in the case of a linear structure, such as a pipeline, the reference image space is reduced such that essentially the "thickness" of the Pipeline in the original image is relevant for a distance determination.
  • Also can be attached to the underwater structure transmitter, which emit signals so that information regarding a position of the underwater structure can be determined and evaluated.
  • Extra information This means the more extensive the additional information regarding the position of the vessel and / or the underwater structure, the more the overall reference image space can be reduced to the reference image space.
  • Additional information includes all information that makes the overall reference image space reducible, in particular metrological data such as the position / coordinates of the vessel, altitude above seabed and / or submarine location, etc. Parts of the additional information can also be estimated can be metrologically determined over ground and a distance to the underwater structure can be estimated.
  • the modeled synthetic structure may be a computer-aided image of a pipeline or a mine.
  • Underwater structure additionally modeled, as a highlight-shade pair of underwater structure can also be found in the original image.
  • modeling can be done with modeling software such as Matlab / Simulink® or POV-RAY or OCTAVE or other suitable software.
  • a "reduced reference image space” can be provided, for example, a reference image space has fewer reference images than a total reference image space, so that fewer reference images are to be compared with the original image.
  • Degree of agreement of the reference image with the original image the location of the largest matches is determined.
  • further data such as, for example, distance to the underwater structure, location of the structure, geographical coordinates of the structure can be obtained, or a navigation to or a repair / maintenance / removal of the searched object can take place.
  • the reference image space is determined during use of the watercraft by means of calculation by a computer, wherein in particular the computer is a component of the watercraft.
  • an AUV can be provided that can autonomously adapt adaptively to underwater conditions.
  • the default to a Underwater structure can be changed without the extensive data must be stored in a memory.
  • the calculation can also take place on a ship or a platform, so that a corresponding adaptation by an operator on board the ship / platform can take place.
  • a "mission” in AUVs or ROVs includes, in particular, underwater activities in which one
  • the reference image space is determined by means of a suitable computer on the basis of the model parameters of the underwater structure and the additional information.
  • a total reference image space can be structured, in particular stored in a database, on a storage medium and, when the reference image space is determined, the reference image space extracted from the total reference image space and loaded into a main memory of the computer.
  • total reference image space corresponds to the complete solution space for all
  • Mission parameters to provide all reference images For example, all elevations above ground and all associated distances of an AUV to the underwater structure are determined.
  • other data such as image resolutions and / or model parameters, etc. may be included in addition to the reference images.
  • Structured data storage can be understood to be either hierarchical and / or relational storage of the data.
  • the data can be normalized or even redundantly redundant.In the present case, it is important that a selection of reference images and data is used based on the structure Comparison of the reference images with the original image are required.
  • a “database” includes all databases with all database models, especially relational databases.
  • external storage media such as CD-ROMs, hard disks, flash memories, DVDs, floppy disks, USB sticks or the like are encompassed as "storage medium.”
  • storage medium As a rule, all storage facilities are included which are not included the working memory of the comparison of reference image and original image performing computer are. It should be noted, however, that certain data may also be stored in the main memory. This offers little changing data.
  • the data stored accordingly on the storage medium can be "extracted” in accordance with additional information determined and loaded into the main memory so that the respectively relevant data is stored in the main memory so that a time-effective identification or detection can take place.
  • the determination of the original image is carried out by means of a sonar. This procedure is particularly effective for underwater structure, underwater original images are also visually detectable.
  • “Sonar” is a method for locating objects under water by means of emitted sound pulses ".
  • the word is an English acronym of sound navigation and ranging, which translates to sound navigation and distance determination and describes the function well.
  • the additional information includes a water altitude above seabed, a measurement distance to the underwater structure and / or an expected underwater structure of the underwater structure, which are to be determined in particular by measurement.
  • the "water elevation above the seabed” includes altitude determinable by sonar.
  • the "measurement distance to the underwater structure” corresponds essentially to the length of a line of sight or its projection onto the seabed.
  • An underwater structure of the underwater structure corresponds to the spatial arrangement of the structure, for example, the underwater structure includes the course of a pipeline on the seabed.
  • the additional information is discretized.
  • the amount of data can also be significantly reduced.
  • the original image can be subdivided into partial areas, in particular overlapping partial areas.
  • the subareas are also called Ranges. Dividing into ranges thus generally results in further reducing the overall reference image space.
  • the overlap are chosen in particular so that in the Overlap area a highlight-shadow image of the respective underwater structure fits inside.
  • the additional information is discretized or the original image is subdivided on the basis of the image resolution of the measurement method and / or an underwater structure with associated length of the highlight-shadow pair of the underwater structure.
  • the method can be adapted very effectively to the additional information.
  • the additional information (s) can be determined metrologically.
  • the object is achieved by a computer which is set up in such a way that a previously described method can be carried out.
  • the computer can be located both in the AUV and on a ship, separated from the ROV.
  • the object is achieved by a watercraft, in particular an unmanned underwater vehicle (AUV, ROV), which has a previously described computer or which is set up such that a previously described method can be carried out.
  • a watercraft in particular an unmanned underwater vehicle (AUV, ROV), which has a previously described computer or which is set up such that a previously described method can be carried out.
  • UUV unmanned underwater vehicle
  • ROV unmanned underwater vehicle
  • Figure 1 is a schematic representation of an under
  • Figure 2 is a schematic representation analogous to
  • FIG. 3 a schematic representation of a modeled cylinder with additionally modeled shadow
  • Figure 4 is a schematic representation of a split Sonarranges with Pictured overlap
  • FIG. 5 shows a structured representation of a
  • An AUV 100 dives below the water surface 111 at a deployment height 121 above the seabed 113.
  • the AUV has an echosounder system which emits echosound signals 131 in order to determine the deployment height 121 by measurement.
  • the AUV 100 has a sonar system that detects sonar images.
  • a high-performance computer 101 is arranged in the AUV, which uses the measured data of the AUV and the known geometry of an object to be searched 104 to model a comparison of determined sonar images Performs reference images, as well as the required reference images modeled in real-time operation.
  • AUV 100 or an ROV 100 which in contrast to AUV is connected via a supply cable 108 to a ship 102.
  • the ship 102 has a high-performance computer 103, which performs a comparison of determined sonar images with modeled reference images based both on the measurement data of the ROV and the known geometry of the pipeline 104 to be searched.
  • An object (e.g., a pipeline) 104 is attached to the seabed 113.
  • the object 104 may include additional signal amplification sound reflectors 135 which may be included
  • Underwater sound signal emitted by the Sonar of AUVs / ROVs 100 strongly reflect.
  • the AUV 100 or ROV 100 can additionally determine an underwater course / a position of the object.
  • underwater sounder 135 arranged on the object (eg pipeline), which emit a coded underwater sound signal 133.
  • the object eg pipeline
  • This Underwater sound signal 133 may also be a coded underwater sound signal 133.
  • a direct "line of sight" 123 between AUV / ROV and Pipeline is referred to herein as Line of Sight (LOS).
  • LOS Line of Sight
  • the object is modeled for different distances 123 and different object attitude angles. If additional information about the position of the object can be determined from the measurement, only the determined object position can be used for the modeling, which additionally significantly reduces the solution space. After modeling, there is a large number of modeled reference images. These are stored in the main memory of the computer 101.
  • an original image takes place by means of an imaging system, for example the sonar.
  • This original image is compared to all reference images by correlation or other suitable method for determining the degree of matching.
  • the reference image with the highest degree of agreement is selected.
  • the information underlying this image is stored, for example, for further navigation to the object or otherwise used.
  • all simulation data were determined before the mission on a high-performance computer and stored in a flash memory as a database, the database having the structure according to FIG. 5.
  • the height 121 is determined metrologically by means of echosounder and depending on the height 121, the data relevant for this height (reference images) are loaded into the main memory of the computer 101.
  • a discrete image (pixel image) of the region to be searched is also created and a comparison is made as described.
  • the underwater vehicle is designed as an ROV
  • the computer-intensive work steps take place by means of the computer 103 on board the ship 102.
  • the data exchange takes place e.g. via supply line 108 or other suitable supply channel.
  • Fig. 1 can be described as follows to a good approximation (see Fig. 2), wherein the height h
  • Reference numeral 121 in Fig. 1 is discriminated so as to have a height discretization Ah which is designed such that within Ah a shadow change of the acoustic or optical shadow cast by the object is below an image resolution of the sonar, e.g. can be determined by the following example calculation:
  • r is the image resolution of the scene (in a sidescan sonar in the AUVs / ROVs orthogonal direction) and "a” is the height of the smallest searched object.
  • a range discretization (FIG. 4) is performed.
  • the measuring range (sonar range) is subdivided into overlapping partial ranges.
  • templates b) are generated as if the object (e.g., pipeline) 104 in question was in the middle of the area. The following steps take place:
  • A An offset of the 1st rank 451 from the AUV is set to the blanked range 465. (In the case of a sonar measurement, the blanked range 465 is a metrologically hidden area).
  • [65] B An extension of the 1st rank 451 in the AUV / ROV direction of travel results from the - for a given AUV (flight) altitude - offset of the searched object, which would be necessary to extend the shadow 344 significantly (eg 10%).
  • [66] C The offset of the beginning of the following rank 453 to the end of the preceding rank 451 is chosen such that it is greater than the longest highlight shadow structure 344 that generates an object at the beginning of this rank 453, at least by the image resolution would. In particular, a maximum object height from the searched object set is taken into account.
  • [67] D The steps A to C are repeated until the maximum possible extent of the scene to be searched is covered.
  • a template file (see structogram Fig. 5) is structured as follows:
  • the procedure of the detection method is performed as follows. If there is a generated discrete image of the environment to be searched (e.g., video camera or sonar image), the model images (templates) are loaded into the main memory of the computer. In an alternative, it is assumed that all of the altitude levels 121 given at the time of the image generation AUV / ROV fit into the range memory of the computer 101. So will this range template data
  • Template Data Model image, resolution, assumed object position etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Zum Identifizieren oder Detektieren beispielsweise einer Unterwasserpipeline werden nach dem Stand der Technik Template-basierte Verfahren eingesetzt, bei denen vorab der Gesamtlösungsraum mit den einzelnen synthetisch gewonnenen Bilder berechnet und anschließend ein mittels Sonar gewonnenes Bild mit jedem einzelnen synthetischen Bild des Gesamtlösungsraums verglichen wird. Dies ist extrem rechen- und/oder arbeitsspeicheraufwändig, sodass diese Lösungen in AUVs (Autonomous Underwater Vehicles) nicht einsetzbar sind. Die Erfindung betrifft somit ein Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, wobei das Verfahren folgende Schritte umfasst: ein Ermitteln eines Originalbilds mittels eines (Synthetic Aperture) Side Scan Sonars, montiert auf einem Wasserfahrzeug, insbesondere einem Unterwasserfahrzeug, ein Ermitteln einer Wasserfahrzeuglage und/oder einer Unterwasserstrukturlage, sodass eine Zusatzinformation vorliegt, ein Ermitteln eines Referenzbildraums mit zugehörigen Referenzbildern unter Verwenden der Zusatzinformation und bekannter Geometrie der Unterwasserstruktur, sodass ein reduzierter Referenzbildraum vorliegt und ein Vergleichen des Originalbildes mit den ermittelten Referenzbildern des reduzierten Referenzbildraums, sodass die Unterwasserstruktur detektiert und/oder identifiziert wird.

Description

Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, Rechner sowie Wasserfahrzeug
[01] Die Erfindung betrifft ein Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, einen Rechner der derart eingerichtet ist, dass das Verfahren durchführbar ist, und ein Wasserfahrzeug, welches den Rechner und ein Bildgebendes System, insbesondere ein Sonar aufweist.
[02] Die Ob ektdetektion sowie die Ob ektidentifizierung (Ob ektklassifizierung) in sonargenerierten Aufnahmen stellen nach wie vor eine Herausforderung an die automatisierte Bildverarbeitung dar. Die messspezifischen Eigenschaften wie turbulente inhomogene Umgebung, kein Apriori-Wissen über die Lage des aufzunehmenden Objekts und niedrige Signal-zu-Rausch-Verhältnisse erschweren Detektion und Identifizieren der Objekte und steigern die Falschalarmrate .
[03] Zum Identifizieren oder Detektieren beispielsweise einer Unterwasserpipeline werden nach dem Stand der Technik Template-basierte Verfahren eingesetzt, bei denen vorab der Gesamtlösungsraum mit den einzelnen synthetisch gewonnenen Bildern berechnet und anschließend ein mittels Sonar gewonnenes Bild mit jedem einzelnen synthetischen Bild des Gesamtlösungsraums verglichen. Dies ist extrem rechen- und/ oder speicheraufwändig, sodass diese Lösungen in AUVs
(Autonomous Underwater Vehicles) nicht einsetzbar sind. Eine Echtzeitverarbeitung ist absolut unmöglich, da ein Zeitabstand zwischen zwei Sonaraufnahmen um Größenordnungen niedriger ist als eine Berechnungsdurchlaufdauer .
[04] Aufgabe der Erfindung ist es den Stand der Technik zu verbessern .
[05] Gelöst wird die Aufgabe durch ein Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, wobei das Verfahren folgende Schritte umfasst
- Ermitteln eines Originalbilds mittels eines Wasserfahrzeugs, insbesondere eines Unterwasserfahrzeugs, insbesondere eines mit Sonar oder anderem geeigneten bildgebenden System ausgestattetem Unterwasserfahrzeug
- Ermitteln einer Wasserfahrzeuglage und/oder einer Unterwasserstrukturlage, sodass eine Zusatzinformation vorliegt,
- Ermitteln eines Referenzbildraums mit zugehörigen Referenzbildern unter Verwenden der Zusatzinformation und bekannter Geometrie der Unterwasserstruktur, sodass ein reduzierter Referenzbildraum vorliegt und
- Vergleichen des Originalbilds mit den ermittelten Referenzbildern des Referenzbildraums, sodass die Unterwasserstruktur identifiziert oder detektiert wird .
[06] Durch das Einbeziehen von Zusatzinformationen kann ein Gesamtlösungsraum dramatisch reduziert werden, sodass lediglich ein Referenzbildraum vorliegt. So kann ein echtzeitfähiges Detektions- und Identifizierungsverfahren bereitgestellt werden. Insbesondere kann das vorstehende Verfahren in AUVs (Autonomous Operated Vehicles) oder ROVs (Remotely Operated Vehicles) eingesetzt werden, da insbesondere die Berechnungsdauer des Referenzlösungsraums mit entsprechenden Referenzbildern des Zeitabstandes zwischen dem Ermitteln zweier Sonaraufnahmen in den AUVs oder ROVs liegt.
[07] Folgendes Begriffliche sei erläutert:
[08] „Identifizieren" oder „Detektieren" umfasst das Erkennen und das Charakterisieren der Unterwasserstruktur in einem Originalbild. Dabei können dann Informationen über Entfernung zur Unterwasserstruktur und/oder Geografische Lage der Unterwasserstruktur gewonnen werden. Zudem können spezielle Objekte wie zum Beispiel Unterwasserminen, deren Geometrie bekannt ist, aufgefunden werden.
[09] Die „Unterwasserstruktur" kann sämtliche natürlichen oder technischen Gebilde unter Wasser umfassen. Insbesondere Pipelines, Fundamente von Off-Shore- Windenergieanlagen oder Unterwasserminen sind von besonderem Interesse.
[10] Das „Ermitteln eines Originalbilds" erfolgt insbesondere messtechnisch mittels Sonar. Dabei können Bug, Heck- , Downlooking- , Side-Scan-, Synthetic-Aperture- und andere geeignete Sonare eingesetzt werden. Grundsätzlich sind passive und aktive Sonare umfasst. [11] Beim „Ermitteln einer Wasserfahrzeuglage" werden insbesondere messtechnisch Daten ermittelt. Beispielsweise können bei einem Schiff die Wasserfahrzeuglage die mittels Satellitennavigation ermittelten Koordinaten umfassen. Bei einem Unterwasserfahrzeug kann dies beispielsweise die Höhe über Grund sein, welche beispielsweise mittels Echolot gewonnen wird. Aber auch sämtliche anderen Daten in Bezug auf irgendein Koordinatensystem können beim Ermitteln verwendet werden. Die Anzahl und die Qualität der ermittelten Daten sind von großer Bedeutung, da diese beim Verringern des Gesamtreferenzbildraum einen erheblichen Einfluss haben, sodass ein Referenzbildraum bestimmbar ist, welcher im Vergleich zum Gesamtreferenzbildraum (deutlich) reduziert ist.
[12] Alternativ oder zusätzlich kann ein „Ermitteln einer Unterwasserstrukturlage" erfolgen. Beispielsweise kann die Unterwasserstruktur Wasserschall stark reflektierende Bereiche aufweisen, sodass bei einer linearen Struktur, wie beispielsweise einer Pipeline, der Referenzbildraum derart reduziert ist, dass im Wesentlichen die „Dicke" der Pipeline im Originalbild für eine Entfernungsbestimmung relevant ist. Auch können an der Unterwasserstruktur Sender angebracht sein, welche Signale aussenden, sodass eine Information bzgl. einer Lage der Unterwasserstruktur ermittelbar und auswertbar ist.
[13] Das „Ermitteln eines Referenzbildraums mit zugehörigen Referenzbildern" erfolgt unter Verwenden der
Zusatzinformation. Das bedeutet je umfangreicher die Zusatzinformationen bzgl. der Lage des Wasserfahrzeugs und/oder der Unterwasserstruktur sind, desto stärker kann der Gesamtreferenzbildraum zum Referenzbildraum reduziert werden. Je weniger Referenzbilder im Referenzbildraum vorhanden sind desto weniger Vergleiche mit dem Originalbild müssen erfolgen, sodass die Rechenzeit erheblich reduziert wird.
[14] „Zusatzinformationen" umfassen sämtliche Informationen aufgrund derer der Gesamtreferenzbildraum reduzierbar ist. Insbesondere sind messtechnische Daten beispielsweise Lage/Koordinaten des Wasserfahrzeugs, Höhe über Meeresgrund und/oder Lage der Unterwasserstruktur. Teile der Zusatzinformationen können auch geschätzt werden. So kann beispielsweise die Höhe über Grund messtechnisch bestimmt werden und ein Abstand zur Unterwasserstruktur geschätzt werden .
[15] Vorliegend muss die „Geometrie der
Unterwasserstruktur" im Wesentlichen bekannt sein, sodass ein rechnergestütztes Modellieren einer Abbildung (mit gegebenen bildgebenden System) dieser Unterwasserstruktur umsetzbar ist. Die modellierte synthetische Struktur kann beispielsweise ein rechnergestütztes Abbild einer Pipeline oder einer Mine sein. Insbesondere wird neben ausgeleuchtetem/insonifiziertem Ob ektbereich (s.g.
Highlight) ein Schattenwurf der eigentlichen
Unterwasserstruktur zusätzlich mitmodelliert, da sich ein Highlight-Schatten Paar der Unterwasserstruktur auch dem Originalbild entnehmen lässt. Ein Modellieren kann beispielsweise mit einer Modellierungssoftware wie Matlab/Simulink® oder POV-RAY oder OCTAVE oder anderer geeigneten Software erfolgen.
[16] Durch ein Ausnutzen der Zusatzinformation kann ein „reduzierter Referenzbildraum" bereitgestellt werden. So weist ein Referenzbildraum weniger Referenzbilder als ein Gesamtreferenzbildraum auf, sodass weniger Referenzbilder mit dem Originalbild zu vergleichen sind.
[17] Beim „Vergleichen" der Referenzbilder mit dem Originalbild werden geeignete Bildverarbeitungsverfahren eingesetzt. Insbesondere erfolgt hier ein Korrelieren, oder anderes geeignete Verfahren zur Berechnung der Übereinstimmung, durch welches beim höchsten
Übereinstimmungsgrad des Referenzbildes mit dem Originalbild der Ort der größten Übereinstimmungen bestimmt wird. Anhand des Referenzbildes können dann weitere Daten wie beispielsweise Entfernung zur Unterwasserstruktur, Lage der Struktur, geografische Koordinaten der Struktur gewonnen werden, oder ein Navigieren zu oder ein Reparieren/Warten/Beseitigen des gesuchten Objektes erfolgen .
[18] In einer weiteren Aus führungs form erfolgt das Ermitteln des Referenzbildraums während eines Einsatzes des Wasserfahrzeugs mittels eines Berechnens durch einen Rechner, wobei insbesondere der Rechner ein Bestandteil des Wasserfahrzeugs ist.
[19] Somit kann insbesondere ein AUV bereitgestellt werden das autonom sich adaptiv an Unterwassergegebenheiten anpassen kann. Auch kann die Vorgabe zu einer Unterwasserstruktur geändert werden, ohne das umfangreiche Daten in einem Speicher abgelegt sein müssen. Insbesondere bei ROVs kann das Berechnen auch auf einem Schiff oder einer Plattform erfolgen, sodass ein entsprechendes Anpassen durch einen Bediener an Bord des Schiffes/der Plattform erfolgen kann.
[20] Ein „Einsatz" umfasst bei AUVs oder ROVs insbesondere Aktivitäten unter Wasser, bei denen eine
Unterwasserstruktur aufgefunden werden soll.
[21] Beim „Berechnen durch einen Rechner" wird der Referenzbildraum mittels eines geeigneten Computers aufgrund der Modellparameter der Unterwasserstruktur und der Zusatzinformation bestimmt.
[22] Um das Identifizieren oder Detektieren noch weiter zu beschleunigen, kann ein Gesamtreferenzbildraum strukturiert, insbesondere in einer Datenbank, auf einem Speichermedium abgelegt sein und beim Ermitteln des Referenzbildraums der Referenzbildraum aus dem Gesamtreferenzbildraum extrahiert und in einen Arbeitsspeicher des Rechners geladen wird.
[23] Somit liegt ein gegenüber in dem Stand der Technik verwendeten Template-Verfahren effektiverer Mechanismus zur Verfügung. Vorliegend werden aufgrund der Struktur der abgelegten Daten lediglich die Daten in einen Arbeitsspeicher geladen, welche aufgrund der ermittelten Zusatzparameter notwendig für den Vergleich der Referenzbilder mit dem Originalbild sind. Durch das Strukturierte ablegen in einem Speichermedium können zwar grundsätzlich mehr Datenmengen (Einheit [Byte] ) vorliegen, jedoch erfolgt der Geschwindigkeitsvorteil bei der Auswahl. Der „Nachteil" der größeren Datenmengen ist eher nachrangig, da Speichermedien wesentlich günstiger sind und um die Größenordnungen mehr Kapazität bieten als entsprechende Arbeitsspeicher.
[24] Der „Gesamtreferenzbildraum" entspricht dem vollständigen Lösungsraum, um für sämtliche
Missionsparameter sämtliche Referenzbilder bereitstellen zu können. Beispielsweise sind sämtliche Höhen über Grund und sämtliche zugehörigen Abstände eines AUVs zur Unterwasserstruktur ermittelt. Zudem können neben den Referenzbildern weitere Daten wie beispielsweise Bildauflösungen und/oder Modellparameter etc. umfasst sein.
[25] Unter „strukturierte" Datenablage können sowohl hierarchische und/oder relationale Speicherung der Daten verstanden sein. Die Daten können normalisiert oder auch mehrfach redundant sein. Vorliegend ist wichtig, dass anhand der Struktur eine Auswahl der Referenzbilder und Daten erfolgt, die für einen Vergleich der Referenzbilder mit dem Originalbild erforderlich sind.
[26] Eine „Datenbank" umfasst sämtliche Datenbanken mit sämtlichen Datenbankmodellen. Besonders vorteilhaft sind relationale Datenbanken.
[27] Als „Speichermedium" sind insbesondere externe Speichermedien wie CD-ROMs, Festplatten, Flash-Speicher, DVDs, Disketten, USB-Sticks oder dgl . umfasst. Im Regelfall sind sämtliche Speicher umfasst, welche nicht Bestandteil des Arbeitsspeichers des den Vergleich von Referenzbild und Originalbild durchführenden Rechners sind. Es sei jedoch angemerkt, dass bestimmte Daten auch im Arbeitsspeicher abgelegt sein können. Hierbei bieten sich sich wenig verändernde Daten an.
[28] Die entsprechend auf dem Speichermedium abgelegten Daten können entsprechend ermittelter Zusatzinformationen „extrahiert" und in den Arbeitsspeicher geladen werden. Somit liegen die jeweils relevanten Daten im Arbeitsspeicher, sodass ein zeiteffektives Identifizieren oder Detektieren erfolgen kann.
[29] In einer weiteren Aus führungs form erfolgt das Ermitteln des Originalbilds mittels eines Sonars. Dieses Vorgehen ist für Unterwasserstruktur besonders effektiv, wobei Unterwasser-Originalbilder auch optisch ermittelbar sind .
[30] „Sonar" ist ein Verfahren zur Ortung von Gegenständen unter Wasser mittels ausgesandter Schallimpulse". Das Wort ist ein englisches Akronym von sound navigation and ranging, was sich mit Schall-Navigation und Entfernungsbestimmung übersetzen lässt und die Funktion gut beschreibt .
[31] Um den Gesamtreferenzbildraum effektiv zu reduzieren umfasst die Zusatzinformation eine Wasserfahrzeughöhe über Meeresgrund, eine Messentfernung zur Unterwasserstruktur und/oder eine erwartete Unterwasserstrukturlage der Unterwasserstruktur, welche insbesondere messtechnisch zu bestimmen sind. [32] Die „Wasserfahrzeughöhe über Meeresgrund" umfasst die mittels eines Echolots bestimmbare Höhe.
[33] Die „Messentfernung zur Unterwasserstruktur" entspricht im Wesentlichen der Länge einer Line of Sight oder deren Projektion auf den Meeresboden.
[34] „Eine Unterwasserstrukturlage der Unterwasserstruktur" entspricht der räumlichen Anordnung der Struktur. Beispielsweise umfasst die Unterwasserstrukturlage den Verlauf einer Pipeline auf dem Meeresgrund.
[35] In einer weiteren Aus führungs form wird die Zusatzinformation diskretisiert. Somit kann die Datenmenge ebenfalls erheblich reduziert werden.
[36] Durch das „Diskretisieren" werden kontinuierliche Bereiche linear oder nichtlinear in Untereinheiten aufgeteilt. So kann die Höhe über Meeresgrund diskretisiert sein, wobei winkelabhängig die Struktur mit zugehörigem Schatten und die Auflösung des Originalbilds einen Einfluss auf jeweilige Breite der Höhenabschnitte über Grund haben.
[37] Um die Rechengeschwindigkeit oder den Vergleich zu beschleunigen kann ein Unterteilen des Originalbilds in Teilbereiche, insbesondere überlappende Teilbereiche, erfolgen .
[38] Die Teilbereiche werden auch Ranges genannt. Unterteilen in Ranges führt somit im Allgemeinen zu einem weiteren Reduzieren des Gesamtreferenzbildraums. Die Überlappe werden insbesondere so gewählt, dass in den Überlappbereich ein Highlight-Schatten Abbild der jeweiligen Unterwasserstruktur hineinpasst.
[39] In einer weiteren Aus führungs form erfolgt das Diskretisieren der Zusatzinformation oder das Unterteilen des Originalbildes auf Basis der Bildauflösung des Messverfahrens und/oder einer Unterwasserstruktur mit zugehörigen Länge des Highlight-Schattenpaares der Unterwasserstruktur. Somit kann das Verfahren sehr effektiv an die Zusatzinformationen angepasst werden.
[40] Um besonders effizient die Zusatzinformationen zu ermitteln, können die Zusatzinformation ( en) messtechnisch ermittelt werden.
[41] Nach einem weiteren Aspekt der Erfindung wird die Aufgabe gelöst durch einen Rechner, welcher derart eingerichtet ist, dass ein zuvor beschriebenes Verfahren durchführbar ist. Dabei kann insbesondere der Rechner sowohl in dem AUV als auch auf einem Schiff, separiert vom ROV verortet sein.
[42] In einem weiteren Aspekt der Erfindung wird die Aufgabe gelöst durch ein Wasserfahrzeug, insbesondere unbemanntes Unterwasserfahrzeug (AUV, ROV) , welches einen zuvor beschriebenen Rechner aufweist oder welches derart eingerichtet ist, dass ein zuvor beschriebenes Verfahren durchführbar ist.
[43] Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher erläutert. Es zeigen Figur 1 eine schematische Darstellung eines unter
Wasser arbeitenden ROVs, welches einen zylindrischen Unterwasserob ekt detektiert ,
Figur 2 eine schematische Darstellung analog zu
Fig. 1, wobei die für das Detektieren ermittelbaren oder berechenbaren Größen angegeben sind,
Figur 3 eine schematische Darstellung eines modellierten Zylinders mit zusätzlich modelliertem Schatten,
Figur 4 eine schematische Darstellung eines aufgeteilten Sonarranges mit dargestelltem Überlapp und
Figur 5 strukturierte Darstellung eines
Dateiaufbaus für ein Template-basiertes Verfahren .
[44] Ein AUV 100 taucht unterhalb der Wasseroberfläche 111 in einer Einsatzhöhe 121 über dem Meeresgrund 113. Das AUV weist ein Echolotsystem auf, welches Echolotsignale 131 aussendet, um die Einsatzhöhe 121 messtechnisch zu bestimmen. Zudem weist das AUV 100 ein Sonarsystem auf, welches Sonar-Bilder ermittelt. Zudem ist in einer ersten Alternativen ein Hochleistungsrechner 101 in dem AUV angeordnet, welcher sowohl anhand der Messdaten des AUVs und der bekannten Geometrie eines zu suchenden Objektes 104 einen Vergleich ermittelter Sonarbilder mit modellierten Referenzbilder durchführt, als auch die benötigten Referenzbilder im Echtzeitbetrieb modelliert.
[45] In der zweiten Alternativen sind lediglich ein Rechner 101 und ein Datenspeicher (z.B. Flashspeicher) in dem ROV 100 angeordnet. In dieser zweiten Alternativen ist auf dem Flashspeicher eine Datenbank mit Referenzbildern abgelegt, wobei die Datenbank den Speicheraufbau aufweist wie er in Fig. 5 abgebildet ist.
[46] Umgebaut ist das AUV 100 oder ein ROV 100, welches im Gegensatz zu AUV über ein Versorgungskabel 108 mit einem Schiff 102 verbunden ist. Das Schiff 102 weist einen Hochleistungsrechner 103 auf, welcher sowohl anhand der Messdaten des ROV und der bekannten Geometrie der zu suchenden Pipeline 104 einen Vergleich ermittelter Sonarbilder mit modellierten Referenzbilder durchführt.
[47] Am Meeresgrund 113 ist ein Objekt (z.B. eine Pipeline) 104 angebracht. In einer alternativen Version kann das Objekt 104 zusätzliche Schallreflektoren 135 zur Signalverstärkung aufweisen, welche ein
Unterwasserschallsignal, welches vom Sonar des AUVs/ROVs 100 ausgesandt wird, stark reflektieren. Durch mehrere dieser Schallreflektoren 135 kann das AUV 100 oder ROV 100 zusätzlich einen Unterwasserverlauf/eine Lage des Objektes bestimmen .
[48] In einer weiteren Version sind statt der Unterwasserschallreflektoren Unterwasserschallsender 135 an dem Objekt (z.B. Pipeline) angeordnet, welche ein kodiertes Unterwasserschallsignal 133 aussenden. Über dieses Unterwasserschallsignal 133 kann ebenfalls ein
Unterwasserverlauf bzw. eine Lage des Objektes ermittelt werden. Eine direkte „Sichtlinie" 123 zwischen AUV/ROV und Pipeline wird vorliegend Line of Sight (LOS) genannt.
[49] Im AUV-Betrieb erfolgt das Identifizieren in zwei Varianten. In Variante a) wird die Höhe 121 über Grund mittels Echolot bestimmt. Die Geometrie des Objektes ist bekannt .
[50] Aufgrund der gemessenen Flughöhe 121 und der bekannten Geometrie des Objektes 104 wird das Objekt für verschiedene Entfernungen 123 und verschiedene Objekt-Lagewinkel modelliert. Sollte eine Zusatzinformation über Lage des Objektes aus der Messung ermittelbar sein, kann nur die ermittelte Objektlage zur Modellierung herangezogen werden, was den Lösungsraum zusätzlich signifikant reduziert. Nach dem Modellieren liegt eine Vielzahl modellierter Referenzbilder vor. Diese werden in dem Arbeitsspeicher des Rechners 101 abgelegt.
[51] Vorab, parallel oder anschließend erfolgt das Ermitteln eines Originalbilds mittels eines bildgebenden Systems, z.B. des Sonars . Dieses Originalbild wird mit sämtlichen Referenzbildern mittels Korrelation oder eines anderen geeigneten Verfahrens zur Bestimmung des Übereinstimmungsgrades verglichen. Dabei wird das Referenzbild mit dem höchsten Übereinstimmungsgrad ausgewählt. Die diesem Bild zugrundeliegenden Informationen werden z.B. gespeichert, für die weitere Navigation zum Objekt oder anderweitig genutzt. [52] In der Varianten b) wurden vor der Mission auf einem Hochleistungsrechner sämtliche Simulationsdaten bestimmt und in einem Flashspeicher als Datenbank abgelegt, wobei die Datenbank den Aufbau gemäß Fig. 5 aufweist. Es wird wiederum die Höhe 121 messtechnisch mittels Echolot bestimmt und in Abhängigkeit der Höhe 121 werden die für diese Höhe relevanten Daten (Referenzbilder) in den Arbeitsspeicher des Rechners 101 geladen. Es wird ebenfalls ein diskretes Bild (Pixelbild) des durchzusuchenden Gebietes erstellt und wie beschrieben ein Vergleich durchgeführt .
[53] Ist das Unterwasserfahrzeug als ROV ausgestaltet erfolgen die rechenintensiven Arbeitsschritte mittels des Rechners 103 an Bord des Schiffs 102. Der Datenaustausch erfolgt z.B. über die Versorgungsleitung 108 oder anderen geeigneten Versorgungskanal.
[54] Mathematisch kann Fig. 1 wie folgt in guter Näherung beschrieben werden (siehe Fig. 2), wobei die Höhe h
(Bezugszeichen 121 in Fig. 1) so diskrtisiert wird, dass eine Höhendiskretisierung Ah vorliegt, welche derart ausgelegt ist, dass innerhalb Ah eine Schattenänderung des vom Objekt geworfenen akustischen oder optischen Schattens unterhalb einer Bildauflösung des Sonars liegt, was z.B. anhand folgender Beispielsrechnung bestimmt werden kann:
[55] d/(h-a)=l/a
[56] daraus folgt
[57] h= ( a * d ) /l + a [58] es gilt
[59] Ah = hi - h2 = a*d[Al/ (lil2) ]
[60] es folgt
[61] Δ1 <= r woraus folgt, dass Ah<=a*d (r/ld 2) ist,
[62] wobei „ld" die Schattenlänge der Pipeline 104 bei der kleinsten Pipelineentfernung (gegeben durch das Messverfahren), „d" die kleinstmögliche Ob ektentfernung
(gegeben durch das Messverfahren) , „r" die Bildauflösung der Szene (bei einem Sidescan-Sonar in die zur Eigenfahrt des AUVs/ROVs orthogonale Richtung) und „a" die Höhe des kleinsten gesuchten Objekts ist.
[63] Zur Reduktion der Anzahl der zu vergleichenden Referenzbilder wird eine Range-Diskretisierung (Fig. 4) durchgeführt. Der Messbereich ( Sonarbereich) wird in sich überlappende Teilbereiche unterteilt. Für jeden dieser Teilbereiche werden in Variante b) Templates generiert, so als ob sich das gesuchte Objekt (z.B. die Pipeline) 104 in der Mitte des Bereichs befände. Folgende Schritte erfolgen:
[64] A: Ein Versatz der 1. Ranges 451 vom AUV wird auf das Blanked Range 465 gesetzt. (Im Falle einer Sonar Messung ist der Blanked Range 465 ein messtechnisch bedingter ausgeblendeter Bereich) .
[65] B: Eine Ausdehnung des 1. Ranges 451 in die zur AUV/ROV Fahrtrichtung ergibt sich aus dem - bei einer gegebenen AUV- ( Flug- ) Höhe - Versatz des gesuchten Objekts, welcher nötig wäre, um den Schatten 344 signifikant (um z.B. 10%) zu verlängern.
[66] C: Der Versatz des Beginns des folgenden Ranges 453 zum ende des vorangehenden Ranges 451 wird so gewählt, dass dieser mindestens um die Bildauflösung größer ist, als die Längste Highlight-Schattenstruktur 344, die sich am Beginn dieses Ranges 453 befindender Objekt erzeugen würde. Dabei wird insbesondere eine maximale Objekthöhe aus der gesuchten Objektmenge berücksichtigt.
[67] D: Es werden die Schritte A bis C solange wiederholt, bis die maximal mögliche Ausdehnung der durchzusuchenden Szene abgedeckt ist.
[68] Dies kann analog für Variante a) als auch für ROVs durchgeführt werden.
[69] Eine Template Datei (siehe Struktogramm Fig. 5) ist wie folgt aufgebaut:
[70] 571 Anzahl diskreter Flughöhen
[71] 573 Für jede Flughöhe
[72] 575 Höhen-Nummer
[73] 577 Höhen-Wert
[74] 579 Anzahl diskreter Ranges
[75] 581 Für jeden Range
[76] 583 Range-Nummer [77] 585 Range-Wert (Start, Stopp)
[78] 587 Anzahl Templates im Range
[79] 589 Für jedes Template (Ob ektmodellbild)
[80] 591 Template-Nummer
[81] 593 Template-Typ (Art des Objektes)
[82] 595 Lage des Objektmittelpunkts im Modellbild
[83] 597 Template Daten: Modellbild, Auflösung, angenommene Objektlage etc.
[84] Der Ablauf des Detektierungsverfahrens wird wie folgt durchgeführt. Liegt ein generiertes diskretes Bild der durchzusuchenden Umgebung vor (z.B. Videokamera oder Sonar Bild), werden die Modellbilder (Templates) in den Arbeitsspeicher des Rechners geladen. In einer Alternativen geht man davon aus, dass alle bei der zur Zeit der Bildgenerierung AUV/ROV gegebenen Flughöhe 121 sich ergebenden Range- Templates in den Arbeitsspeicher des Rechners 101 passen. So werden diese Range-Template-Daten
(die 579 mal 587) Anzahl der Templates gleich in den Arbeitsspeicher geladen und ein Vergleich wie im Absatz
[51] beschrieben durchgeführt. Dabei wird das Originalbild in die Ranges unterteilt und jedes dieser Ranges mit dazu gehörenden Modellbilder/Templates 597 verglichen. In anderer Alternativen geht man davon aus, dass bei der zur Zeit der Bildgenerierung AUV/ROV gegebenen Flughöhe 121 sich ergebenden Range-Templates nicht in den Arbeitsspeicher des Rechners 101 passen. So wird das Bild der durchsuchten Scene erst in die Ranges unterteilt. Anschließend für jeden dieser Bereiche werden dazu gehörenden Modellbilder/Templates 597 in den
Arbeitsspeicher des Rechners 101 geladen, dem Vergleich unterzogen und wieder ausgeladen.
Bezugs zeichenliste
100 AUV, ROV
101 Rechner
102 Schiff
103 Hochleistungsrechner
104 Pipeline
108 Versorgungskabel
111 Wasseroberfläche
113 Meeresgrund
121 Einsatzhöhe
123 Sichtlinie
133 Unterwasserschallsignal
135 Schallreflektor
304 modellierte Pipeline
344 modellierte Schattenstruktur
346 Schattenmischzone
451 Versatz des 1. Ranges vom AUV
453 nachfolgender Range
465 Blanked Range 571 Anzahl diskreter Flughöhen
573 Für jede Flughöhe
575 Höhen-Nummer
577 Höhen-Wert
579 Anzahl diskreter Ranges
581 Für jeden Range
583 Range-Nummer
585 Range-Wert (Start, Stopp)
587 Anzahl Templates im Range
589 Für jedes Template (Objektmodellbild)
591 Template-Nummer
593 Template-Typ (Art des Objektes)
595 Lage des Objektmittelpunkts im Modellbild
597 Template Daten: Modellbild, Auflösung, angenommene Objektlage etc.

Claims

Patentansprüche :
Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, wobei das Verfahren folgende Schritte umfasst
- Ermitteln eines Originalbilds mittels eines Wasserfahrzeugs, insbesondere eines Unterwasserfahrzeugs ,
- Ermitteln einer Wasserfahrzeuglage
- Ermitteln eines Referenzbildraums mit zugehörigen
Referenzbildern unter Verwenden der Zusatzinformation und bekannter Geometrie der gesuchten
Unterwasserstruktur, sodass ein reduzierter
Referenzbildraum vorliegt und
- Vergleichen des Originalbilds mit den ermittelten Referenzbildern des Referenzbildraums, sodass die Unterwasserstruktur detektiert und/oder identifiziert wird .
Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Ermitteln des Referenzbildraums während eines Einsatzes des Wasserfahrzeugs mittels eines Berechnens durch einen Rechner erfolgt, wobei insbesondere der Rechner ein Bestandteil des Wasserfahrzeugs ist.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass ein Gesamtreferenzbildraum strukturiert, insbesondere in einer Datenbank, auf einem Speichermedium abgelegt ist und beim Ermitteln des Referenzbildraums der Referenzbildraum aus dem Gesamtreferenzbildraum extrahiert und in einen Arbeitsspeicher des Rechners geladen wird. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Ermitteln des Originalbilds mittels eines Sonars erfolgt.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Zusatzinformation eine Wasserfahrzeughöhe über Meeresgrund, eine Messentfernung zur Unterwasserstruktur und/oder eine
Unterwasserstrukturlage der Unterwasserstruktur umfasst.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Zusatzinformation diskretisiert wird .
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass ein Unterteilen des Originalbilds in Teilbereiche, insbesondere überlappende Teilbereiche, erfolgt .
Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass das Diskretisieren der Zusatzinformation oder das Unterteilen des Originalbildes auf Basis einer Bildauflösung und/oder einer Schattenlänge der Unterwasserstruktur erfolgt.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Zusatzinformation messtechnisch ermittelt wird.
Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die messtechnische Gewinnung der Zusatzinformation durch das Anbringen zusätzlicher Reflektoren/Signalgeber an dem zu suchenden Objekt erleichtert wird.
Rechner, welcher derart eingerichtet ist, dass ein Verfahren nach einem der vorherigen Ansprüche durchführbar ist. Wasserfahrzeug, insbesondere unbemanntes
Unterwasserfahrzeug, welches einen Rechner nach Anspruch 10 aufweist oder welches derart eingerichtet ist, dass ein Verfahren nach einem der Ansprüche 1 bis 9 durchführbar ist.
PCT/DE2014/100112 2013-04-26 2014-04-01 Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug WO2014173393A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP14725352.0A EP2989610A1 (de) 2013-04-26 2014-04-01 Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013104306.2A DE102013104306A1 (de) 2013-04-26 2013-04-26 Verfahren zum Identifizieren oder Detektieren einer Unterwasserstruktur, Rechner sowie Wasserfahrzeug
DE102013104306.2 2013-04-26

Publications (1)

Publication Number Publication Date
WO2014173393A1 true WO2014173393A1 (de) 2014-10-30

Family

ID=50771022

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2014/100112 WO2014173393A1 (de) 2013-04-26 2014-04-01 Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug

Country Status (3)

Country Link
EP (1) EP2989610A1 (de)
DE (1) DE102013104306A1 (de)
WO (1) WO2014173393A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108896997A (zh) * 2018-07-04 2018-11-27 国家海洋局第海洋研究所 复杂地形条件下侧扫声呐探测结果改正方法
CN109800700A (zh) * 2019-01-15 2019-05-24 哈尔滨工程大学 一种基于深度学习的水下声信号目标分类识别方法
US10502828B2 (en) 2015-11-04 2019-12-10 Torbjoern Kronander System for detecting subsurface objects and unmanned surface vessel
CN113781421A (zh) * 2021-08-31 2021-12-10 深圳市爱深盈通信息技术有限公司 基于水下的目标识别方法、装置及系统
CN114663745A (zh) * 2022-03-04 2022-06-24 深圳鳍源科技有限公司 水下设备的位置锁定方法、终端设备、系统和介质
CN114895313A (zh) * 2022-06-07 2022-08-12 上海市信息管线有限公司 一种河道内管线的检测方法、装置、电子设备及存储介质
US11846733B2 (en) * 2015-10-30 2023-12-19 Coda Octopus Group Inc. Method of stabilizing sonar images

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2608049A (en) * 2020-02-03 2022-12-21 Cappelletti Sergio Monitoring method and system to monitor the underwater traffic of an area of interest
US11899105B2 (en) 2020-02-03 2024-02-13 Sergio Cappelletti Monitoring method and system to monitor the underwater traffic of an area of interest

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040041999A1 (en) * 2002-08-28 2004-03-04 Hogan John M. Method and apparatus for determining the geographic location of a target
US20110135191A1 (en) * 2009-12-09 2011-06-09 Electronics And Telecommunications Research Institute Apparatus and method for recognizing image based on position information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040041999A1 (en) * 2002-08-28 2004-03-04 Hogan John M. Method and apparatus for determining the geographic location of a target
US20110135191A1 (en) * 2009-12-09 2011-06-09 Electronics And Telecommunications Research Institute Apparatus and method for recognizing image based on position information

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AKIO KITA ET AL: "Improvement of template matching for distance measurement system based on image sensors", CONTROL, AUTOMATION AND SYSTEMS (ICCAS), 2012 12TH INTERNATIONAL CONFERENCE ON, IEEE, 17 October 2012 (2012-10-17), pages 1908 - 1911, XP032291519, ISBN: 978-1-4673-2247-8 *
MIDELFART H; MIDTGAARD O: "Estimation of target orientation in SAS images", PROCEEDINGS OF THE INSTITUTE OF ACOUSTICS - INTERNATIONAL CONFERENCE ON SYNTHETIC APERTURE SONAR AND SYNTHETIC APERTURE RADAR 2010, vol. 32, no. 4, 13 September 2010 (2010-09-13) - 14 September 2010 (2010-09-14), pages 13 - 18, XP009179011 *
PAGLIERONI D W ET AL: "THE POSITION-ORIENTATION MASKING APPROACH TO PARAMETRIC SEARCH FOR TEMPLATE MATCHING", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 16, no. 7, 1 July 1994 (1994-07-01), pages 740 - 747, XP000454192, ISSN: 0162-8828, DOI: 10.1109/34.297956 *
SANJAY KUMAR SAHANI ET AL: "A fast template matching algorithm for aerial object tracking", IMAGE INFORMATION PROCESSING (ICIIP), 2011 INTERNATIONAL CONFERENCE ON, IEEE, 3 November 2011 (2011-11-03), pages 1 - 6, XP032078214, ISBN: 978-1-61284-859-4, DOI: 10.1109/ICIIP.2011.6108841 *
SON-CHEOL YU ET AL: "On-Line High-Resolution Sonar Image Recognition Technique for Autonomous Underwater Vehicles", PROCEEDINGS OF THE EIGHTEENTH INTERNATIONAL OFFSHORE AND POLAR ENGINEERING CONFERENCE, 1 January 2008 (2008-01-01), pages 334 - 340, XP055128735 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11846733B2 (en) * 2015-10-30 2023-12-19 Coda Octopus Group Inc. Method of stabilizing sonar images
US10502828B2 (en) 2015-11-04 2019-12-10 Torbjoern Kronander System for detecting subsurface objects and unmanned surface vessel
CN108896997A (zh) * 2018-07-04 2018-11-27 国家海洋局第海洋研究所 复杂地形条件下侧扫声呐探测结果改正方法
CN108896997B (zh) * 2018-07-04 2022-06-17 国家海洋局第一海洋研究所 复杂地形条件下侧扫声呐探测结果改正方法
CN109800700A (zh) * 2019-01-15 2019-05-24 哈尔滨工程大学 一种基于深度学习的水下声信号目标分类识别方法
CN109800700B (zh) * 2019-01-15 2022-08-02 哈尔滨工程大学 一种基于深度学习的水下声信号目标分类识别方法
CN113781421A (zh) * 2021-08-31 2021-12-10 深圳市爱深盈通信息技术有限公司 基于水下的目标识别方法、装置及系统
CN114663745A (zh) * 2022-03-04 2022-06-24 深圳鳍源科技有限公司 水下设备的位置锁定方法、终端设备、系统和介质
CN114895313A (zh) * 2022-06-07 2022-08-12 上海市信息管线有限公司 一种河道内管线的检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
DE102013104306A1 (de) 2014-10-30
EP2989610A1 (de) 2016-03-02

Similar Documents

Publication Publication Date Title
EP2989610A1 (de) Verfahren zum identifizieren oder detektieren einer unterwasserstruktur, rechner sowie wasserfahrzeug
DE102018124640A1 (de) Verfahren und Vorrichtungen zur Aufnahme von Tomogrammen und Strukturen unter Verwendung unbemannter Luftfahrzeuge
DE102017128194A1 (de) Genaue Selbstortung unter Verwendung eines Automobilradars mit synthetischer Apertur
EP2381207A1 (de) 3D-Zielvermessung und Zieleinweisung aus IR-Daten
DE102010022726B4 (de) Vorrichtung zur Darstellung von Gelände auf einer Anzeigevorrichtung eines Flugkörpers
EP3387375B1 (de) Verfahren zur erstellung einer tiefenkarte
DE102018222862A1 (de) Verfahren und System zur Lokalisierung einer Akustikquelle relativ zu einem Fahrzeug
EP3127042A1 (de) Informationsanzeige zu durch fenster sichtbaren, bewegten objekten
DE102017118993A1 (de) Verfahren zur Identifizierung eines Schiffes
EP3420311B1 (de) Vorrichtung zur integrierten darstellung von informationen auf einem wasserfahrzeug
DE102020133092A1 (de) Positionsschätzungseinrichtung und positionsschätzungsverfahren
DE102011013776A1 (de) Verfahren zur Erfassung und/oder Verfolgung von Objekten
EP3105608B1 (de) Überwachungssystem zum überwachen sowie verfahren zum verifizieren eines wasserfahrzeugs oder mehrerer wasserfahrzeuge
WO2015185033A1 (de) Verfahren zum ermitteln einer unterwasserkarte, unterwasserkarte sowie fahrzeug
DE102017118992A1 (de) Verfahren zur Erzeugung eines ISAR-Bildes
WO2011036013A1 (de) Verfahren und vorrichtung zum bestimmen der position eines wasserfahrzeugs
DE102017200303A1 (de) Digitale kartierung von strassenmarkierungen
DE102019220607A1 (de) Verwendung von ultraschallbasierten Subsystemen zur 360° Umfelderfassung
DE102019207301A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
EP2956797B1 (de) Verfahren zum identifizieren oder zum orten eines unterwasserobjekts, zugehöriger rechner oder messsystem, sowie wasserfahrzeug
DE102017220506A1 (de) Verfahren und Vorrichtung zum Schätzen eines maritimen Verkehrszustandes
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit
DE102017121950A1 (de) Verfahren zum Schätzen eines Zustands einer mobilen Plattform
DE102022209654A1 (de) Signaturmanagement unter Berücksichtigung von Satelliten
DE102009020636B4 (de) Verfahren zur verbesserten Erkennung von leitungsartigen Objekten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14725352

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014725352

Country of ref document: EP