DE102012020093A1 - Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke - Google Patents

Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke Download PDF

Info

Publication number
DE102012020093A1
DE102012020093A1 DE201210020093 DE102012020093A DE102012020093A1 DE 102012020093 A1 DE102012020093 A1 DE 102012020093A1 DE 201210020093 DE201210020093 DE 201210020093 DE 102012020093 A DE102012020093 A DE 102012020093A DE 102012020093 A1 DE102012020093 A1 DE 102012020093A1
Authority
DE
Germany
Prior art keywords
image
iceberg
data
camera
icebergs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE201210020093
Other languages
English (en)
Inventor
Manfred Hiebl
Hans Wolfgang Pongratz
Philip Reichel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Priority to DE201210020093 priority Critical patent/DE102012020093A1/de
Publication of DE102012020093A1 publication Critical patent/DE102012020093A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging

Abstract

Eine Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen mit zumindest einem unbemannten Luftfahrzeug (1), das mit zumindest einer Bilderfassungseinrichtung (10) ausgestattet ist, zumindest einer Steuerungszentrale (40) zur Steuerung des zumindest einen unbemannten Luftfahrzeugs (1), wobei die Steuerungszentrale (40) über zumindest eine Signalübertragungsstrecke (42) zur Übertragung von Steuerungssignalen (S) und zur Rückübertragung von Fluginformationsdaten (F) mit dem zumindest einen Luftfahrzeug (1) verbunden ist, zumindest einer Datenverarbeitungszentrale (44) mit einer Datenverarbeitungseinrichtung (45) zur Verarbeitung der von der zumindest einen Bilderfassungseinrichtung (10) erfassten Bilddaten, wobei die Datenverarbeitungszentrale (44) über zumindest eine Datenübertragungsstrecke (43) zur Übertragung der von der Bilderfassungseinrichtung (10) gewonnenen Bilddaten (B) mit dem zumindest einen Luftfahrzeug (1) verbunden ist, einer der Datenverarbeitungszentrale (44) zugeordneten Eisberg-Datenbank (46), in der Bilder und Daten erfasster Eisberge gespeichert sind zumindest einer Eisberg-Bilderkennungseinrichtung (47), die ausgebildet ist, um die von der Bilderfassungseinrichtung (10) gewonnenen Bilddaten mit in der Eisberg-Datenbank (46) gespeicherten Bilddaten zu vergleichen, um erfasste Eisberge (20, 21, 22, 23) zu identifizieren.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen. Sie betrifft weiterhin ein Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke.
  • HINTERGRUND DER ERFINDUNG
  • Ein nicht unerheblicher Teil der Öl- und Gasreserven der Erde liegen in der Arktis an den Küsten Alaskas, Nord-Kanadas, Grönlands und in der Barentssee sowie vor der Küste von Sachalin. Dort wird die Ölgewinnung und Ölexploration in Gewässern ausgeführt, die einen Teil des Jahres von Treibeis vollständig bedeckt sind und im Sommer offen sind, aber eine nicht unerhebliche Anzahl an Eisbergen aller Größen führen. Die Bohrarbeiten können im Allgemeinen von schwimmenden Bohrinseln aus nur in der eisfreien Jahreszeit ausgeführt werden. Werden jedoch in dieser Zeit die Bohrinseln oder auch Ölplattformen von treibenden Eisbergen bedroht, so besteht die latente Gefahr, dass die Bohrinsel oder Ölplattform durch Kollision mit einem Eisberg beschädigt wird und es zu umweltschädlichem Austritt von Öl oder Gas kommt. Zwar können bei rechtzeitiger Vorwarnung Eisberge von bis zu einer Million Tonnen von Hochseeschleppern aus der Kollisionsbahn abgedrängt werden, bei noch größeren Eisbergen muss jedoch die Ölplattform rechtzeitig von ihrem Bohrkopf auf dem Meeresgrund abgekoppelt und in Sicherheit gebracht werden, was einen Zeitaufwand bis zu einer Woche und einen erheblichen Kostenaufwand und Produktionsausfall bedeutet.
  • Eine Vorwarnung der Betreiber von Meeresbauwerken, beispielsweise von Bohrinseln, vor treibenden Eisbergen setzt voraus, dass zunächst ein Eisberg geortet und dessen Bewegungsrichtung ermittelt wird. Zwar ist es grundsätzlich möglich, eine Eisbergüberwachung mittels Satelliten durchzuführen, doch ist die Auflösung von Satellitenfotos relativ ungenau, so dass schon bei geringem Seegang kleinere Eisberge nicht mehr zuverlässig erfasst werden. Bislang werden sowohl kleinere Eisberge, als auch größere Eisberge bezüglich ihrer Größe und ihres Tiefgangs nur durch visuelle Beobachtung erfasst. Diese visuelle Beobachtung erfolgt mehr oder weniger zufällig durch Schiffe, die im entsprechenden Seegebiet unterwegs sind und ihre Beobachtungen an die ”International Ice Patrol” weitermelden. Nur in Sonderfällen können Seefernaufklärungsflugzeuge zur genauen Beobachtung eingesetzt werden. Ein derartiger Einsatz von Aufklärungsflugzeugen ist jedoch sehr teuer und aufwendig und wird daher nur im gezielten Aufklärungsfall durchgeführt. Diese Seefernaufklärungsflugzeuge können Messsonden abwerfen, um Meeresströmungen bis in 80 Meter Tiefe zu erfassen, was es erlaubt, eine verhältnismäßig genaue Abschätzung der Eisbergdriftrichtung und der Driftgeschwindigkeit vorzunehmen. Eine systematische Überwachung ganzer Seegebiete ist auf diese Weise nicht mit vertretbarem Aufwand durchzuführen. Insbesondere im Hinblick auf die zunehmend in arktischen Gewässern aufgefundenen Öl- und Gasreserven wird es erforderlich sein, eine systematische Eisbergüberwachung in den für die Förderung von Öl und Gas relevanten Seegebieten durchführen zu können.
  • DARSTELLUNG DER ERFINDUNG
  • Aufgabe der vorliegenden Erfindung ist es, eine Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen anzugeben, mit der es ohne großen personellen Aufwand in automatisierter Weise möglich ist, Eisberge zu orten, in ihrer Form und Größe zu erfassen und hinsichtlich ihres Driftverhaltens zu überwachen.
  • Eine weitere Aufgabe besteht darin, ein Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke anzugeben, dessen Ziel es ist, eine Prognose für die Gefahr der Kollision eines im Meer driftenden Eisbergs mit einem Meeresbauwerk zu gewinnen.
  • Der auf die Anordnung gerichtete Teil der Aufgabe wird gelöst durch eine Anordnung mit den Merkmalen des Patentanspruchs 1. Diese Anordnung ist ausgestattet mit
    • – zumindest einem unbemannten Luftfahrzeug, das mit zumindest einer Bilderfassungseinrichtung ausgestattet ist;
    • – zumindest einer Steuerungszentrale zur Steuerung des zumindest einen unbemannten Luftfahrzeugs, wobei die Steuerungszentrale über zumindest eine Signalübertragungsstrecke zur Übertragung von Steuerungssignalen und zur Rückübertragung von Fluginformationsdaten mit dem zumindest einen Luftfahrzeug verbunden ist;
    • – zumindest einer Datenverarbeitungszentrale mit einer Datenverarbeitungseinrichtung zur Verarbeitung der von der zumindest einen Bilderfassungseinrichtung erfassten Bilddaten, wobei die Datenverarbeitungszentrale über zumindest eine Datenübertragungsstrecke zur Übertragung der von der Bilderfassungseinrichtung gewonnenen Bilddaten mit dem zumindest einen Luftfahrzeug verbunden ist;
    • – einer der Datenverarbeitungszentrale zugeordneten Eisberg-Datenbank, in der Bilder und Daten erfasster Eisberge gespeichert sind;
    • – zumindest einer Eisberg-Bilderkennungseinrichtung, die ausgebildet ist, um die von der Bilderfassungseinrichtung gewonnenen Bilddaten mit in der Eisbergdatenbank gespeicherten Bilddaten zu vergleichen, um erfasste Eisberge zu identifizieren.
  • VORTEILE
  • Diese erfindungsgemäße Anordnung gestattet durch die Verwendung von unbemannten Luftfahrzeugen und durch die automatisierte Bilderfassung und Bildverarbeitung eine mit minimalem personellen Aufwand über lange Einsatzzeiten durchführbare Ortung, Erfassung und Überwachung von Eisbergen. Es ist dazu lediglich für jedes unbemannte Luftfahrzeug ein Fernsteuer-Pilot erforderlich, der in der vom Einsatzort weit entfernten Steuerungszentrale sitzen kann und des Weiteren ist lediglich das entsprechende Überwachungspersonal in der Datenverarbeitungszentrale erforderlich. Die von der oder den Bilderfassungseinrichtung(en) in dem oder den Luftfahrzeug(en) erfassten Bilddaten werden automatisch an die Datenverarbeitungszentrale übertragen und dort automatisiert verarbeitet, so dass im Idealfall automatisch eine aktuelle Karte der in der überwachten Region driftenden Eisberge mit deren Bewegungsparametern erstellt werden kann.
  • Vorzugsweise weist die Bilderfassungseinrichtung eine mit einer Kameraoptik ausgerüstete Kamera auf, deren Kameraoptik bevorzugt als Teleskopoptik ausgebildet ist. Mit dieser Kamera ist es möglich, Eisberge im Bereich des sichtbaren Lichts zu identifizieren, wobei weiter vorzugsweise die Kamera im Blau-Grün-Spektrum des sichtbaren Lichts und im Nahinfrarot-Spektrum lichtempfindlich ist. Die erhöhte Lichtempfindlichkeit im Blau-Grün-Spektrum verbessert die Erkennbarkeit von Eisbergen im Wasser. Auch die erhöhte Empfindlichkeit der Kamera im Nahinfrarot-Spektrum verbessert die Identifikation von Eisbergen gegenüber den einen Eisberg umgebenden wärmeren Wassermassen.
  • In einer vorteilhaften Weiterbildung ist der Kamera eine Objektbeleuchtungseinrichtung zugeordnet. Dadurch ist es auch bei Dunkelheit, also beispielsweise im arktischen Winter, möglich, Eisberge zu orten und zu erfassen. Vorzugsweise wird dazu eine Laser-Blitzbeleuchtungseinrichtung verwendet. Eine derartige Laser-Blitzbeleuchtungseinrichtung liefert bei Aufnahmen aus der Luft eine besonders hohe Beleuchtungsstärke auf der Meeresoberfläche.
  • Vorteilhafterweise beleuchtet die Objektbeleuchtungseinrichtung das von der Kamera erfasste Bildfeld während einer Belichtungspause der Kamera durch die Kameraoptik. Auf diese Weise wird die Kameraoptik, insbesondere wenn sie als Teleskopoptik ausgebildet ist, einer Zweitverwendung als Beleuchtungsoptik zugeführt. Diese Ausbildung hat zudem den Vorteil, dass der auf der Meeresoberfläche gebildete Leuchtfleck im Wesentlichen exakt dem von der Kamera aufgenommenen Bildfeld entspricht. Bei entsprechend schnellem Wechsel zwischen Beleuchtung der Meeresoberfläche durch die Laser-Blitz-Beleuchtungseinrichtung und anschließend erfolgender Bilderfassung durch die Kamera erfolgt die Bilderfassung genau zu dem Zeitpunkt, zu dem das vorher ausgesandte Licht auf die Meeresoberfläche beziehungsweise auf einen Eisberg auftrifft und von diesem in Richtung Kamera reflektiert wird.
  • Alternativ oder zusätzlich zur Kamera kann die Bilderfassungseinrichtung auch eine LIDAR-Einrichtung aufweisen. Diese LIDAR-Einrichtung arbeitet mit der Reflexion von Laserlicht und kann daher auch bei schlechten Sichtbedingungen wie beispielsweise Dunst eingesetzt werden. Diese LIDAR-Einrichtung arbeitet vorzugsweise im blau-grünen Spektralbereich, wodurch auch hier eine bessere Erkennbarkeit von Eisbergen gewährleistet ist. Mittels dieser LIDAR-Einrichtung ist es möglich, nicht nur das sichtbare Überwasserprofil eines Eisbergs zu erfassen und gegebenenfalls zu vermessen, sondern darüber hinaus auch das Unterwasserprofil eines Eisbergs und dessen Unterwasser-Abmessungen zu bestimmen.
  • Des Weiteren kann die Bilderfassungseinrichtung auch eine Radar-Einrichtung aufweisen, die auch bei Wolken oder dichterem Nebel eine Ortung und Erfassung von Eisbergen ermöglicht.
  • Besonders vorteilhaft ist es, wenn durch das Vorsehen einer Kamera, einer LIDAR-Einrichtung und/oder einer RADAR-Einrichtung sowie durch deren gemeinsamen Einsatz eine weitere Verbesserung der Ortung und Erfassung von Eisbergen erreicht wird.
  • Bei der Durchführung dieser Beobachtungs- und Bilderfassungsflüge ist es vorteilhaft, wenn der Eisberg nicht nur unmittelbar von oben, sondern auch schräg von oben aus einer oder mehreren Seiten erfasst wird, da dadurch auch Höhenabmessungen des Eisbergs ermittelt werden können.
  • Vorzugsweise ist zumindest eine Bildauswerteeinrichtung vorgesehen, die ausgebildet ist, um aus den von der zumindest einen Bilderfassungseinrichtung aufgenommenen Bildern eines jeweiligen Eisbergs dessen absolute oder relative Abmessungen zu bestimmen. Diese Bildauswerteeinrichtung kann entweder unmittelbar der im Luftfahrzeug vorgesehenen Bilderfassungseinrichtung zugeordnet sein oder sie kann alternativ auch der Datenverarbeitungszentrale zugeordnet sein. Mittels dieser Bildauswerteeinrichtung ist es möglich, einen Eisberg nicht nur zu vermessen, sondern auch sein Volumen und damit seine Masse zu bestimmen.
  • Besonders vorteilhaft ist es weiterhin, wenn zumindest eine Trackingeinrichtung vorgesehen ist, die ausgebildet ist, um aus den in der Eisberg-Datenbank gespeicherten Daten eines Eisbergs dessen Bewegungsrichtung und Bewegungsgeschwindigkeit zu bestimmen. Diese Trackingeinrichtung ist vorzugsweise der Datenverarbeitungszentrale zugeordnet und ermöglicht es, das Driftverhalten eines Eisbergs sowohl von dessen Bewegungsrichtung als auch von dessen Bewegungsgeschwindigkeit her, über den Beobachtungszeitraum zu erfassen. Ein dadurch erhaltenes Bewegungsprofil des Eisbergs ermöglicht eine einfache Prognose von dessen künftigem Driftverhalten, wobei dazu bevorzugt auch Winddaten und Daten über die herrschenden Meeresströmungen berücksichtigt werden.
  • Der auf das Verfahren gerichtete Teil der Aufgabe wird gelöst durch das Verfahren mit den Merkmalen des Patentanspruchs 9. Dieses erfindungsgemäße Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke wird mit einer der vorgenannten erfindungsgemäßen Anordnungen durchgeführt und weist die folgenden Schritte auf:
    • a) Erfassen von aus der Luft aufgenommenen Bilddaten von Eisbergen in einem vorgegebenen Seegebiet;
    • b) Erfassen und Zuordnen von Positionsdaten des jeweiligen Eisbergs und Zeitpunktdaten der jeweiligen Erfassung im Schritt a) zu den Bilddaten;
    • c) Ermitteln der absoluten und/oder relativen Abmessungen eines jeweiligen Eisbergs;
    • d) Klassifikation der erfassten Eisberge nach deren im Schritt c) ermittelten Größe;
    • e) Speichern der in den Schritten a) bis d) gewonnenen Bilddaten, Dimensionsdaten, Zeitpunktsdaten und Positionsdaten in einer Eisberg-Datenbank;
    • f) Einmaliges oder mehrmaliges Wiederholen der Schritte a) bis e) im vorgegebenen Seegebiet und
    • g) Bestimmen der Bewegungsrichtung und der Bewegungsgeschwindigkeit eines jeweiligen Eisbergs durch Vergleich der zu unterschiedlichen Zeitpunkten erfassten und in der Eisberg-Datenbank gespeicherten Daten des jeweiligen Eisbergs.
  • Mittels dieses Verfahrens ist es auf zuverlässige Weise ohne größeren Personaleinsatz möglich, Eisberge zu orten, bezüglich ihrer Größe und damit auch ihrer Masse zu erfassen und deren Driftverhalten zu überwachen.
  • Bei einer besonders vorteilhaften Weiterbildung dieses erfindungsgemäßen Verfahrens werden zusätzlich die folgenden Schritte durchgeführt:
    • h) Bestimmen einer Bewegungsprognose für einen jeweiligen Eisberg auf der Grundlage der in Schritt g) bestimmten Bewegungsdaten sowie von Wind- und Meeresströmungsdaten und
    • i) Ermitteln einer Kollisionswahrscheinlichkeit des Eisbergs mit zu schützenden Meeresbauwerken auf der Grundlage der in Schritt h) bestimmten Bewegungsprognose.
  • Diese zusätzlichen Verfahrensmerkmale ermöglichen es, aufgrund der Bewegungsprognose eine Kollisionswahrscheinlichkeit des Eisbergs mit zu schützenden Meeresbauwerken zu ermitteln, so dass auf der Grundlage dieser Prognose rechtzeitig vor einer akuten Gefährdung eines Meeresbauwerks entschieden werden kann, ob der Eisberg abgedrängt oder zerstört werden kann oder ob es erforderlich ist, das Meeresbauwerk auf andere Weise zu sichern, bevor der Eisberg mit ihm kollidiert.
  • Bevorzugte Ausführungsbeispiele der Erfindung mit zusätzlichen Ausgestaltungsdetails und weiteren Vorteilen sind nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen näher beschrieben und erläutert.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Es zeigt:
  • 1 eine perspektivische Darstellung einer erfindungsgemäßen Anordnung zur Ordnung, Erfassung und Überwachung von Eisbergen;
  • 2 ein erstes Beispiel einer Multispektralkamera zur Eisbergbeobachtung;
  • 3 ein zweites Beispiel einer Multispektralkamera zur Eisbergbeobachtung mit integrierter LIDAR-Einrichtung;
  • 4 ein Beispieleiner Prismen-Scaneinrichtung nd
  • 5 eine schematische Darstellung eine Bildauswerteverfahrens.
  • DARSTELLUNG VON BEVORZUGTEN AUSFÜHRUNGSBEISPIELEN
  • In 1 ist als vereinfachte perspektivische Darstellung eine erfindungsgemäße Anordnung zur Ordnung, Erfassung und Überwachung von Eisbergen gezeigt. Ein unbemannten Luftfahrzeug 1 überfliegt ein zu überwachendes Seegebiet 2 eines Meeres, auf welchem Eisberge 20, 21, 22, 23 treiben. In diesem Seegebiet 2 steht ein Meeresbauwerk 3, das in 1 symbolisch als Ölbohrplattform 30 dargestellt ist, die auf Stützen 31 auf dem Meeresgrund steht und dort verankert ist.
  • Meeresströmungen und Windströmungen bewirken, dass die Eisberge 20, 21, 22, 23 auf dem Meer driften, so dass es potentiell möglich ist, dass einer der Eisberge 20, 21, 22, 23 mit einer der Stützen 31 der Ölbohrplattform 30 kollidiert und diese beschädigt. Um rechtzeitig Maßnahmen zur Vermeidung von derartigen Kollisionen ergreifen zu können, müssen zunächst die Eisberge geortet und ihre Driftrichtung und Driftgeschwindigkeit bestimmt werden. Darüber hinaus wird die Größe der Eisberge 20, 21, 22, 23 bestimmt, um aufgrund ihrer Größe auf deren Masse zu schließen. Damit ist es möglich, in Kenntnis der Driftgeschwindigkeit die Energie zu ermitteln, die bei einer Kollision auf die Ölbohrplattform 30 einwirkt. Zu diesem Zweck wird das Seegebiet 2 systematisch vom unbemannten Luftfahrzeug 1 überflogen. Selbstverständlich können dazu auch mehrere unbemannte Luftfahrzeuge eingesetzt werden, um die Größe des überwachten Seegebietes auszudehnen. Werden mehrere unbemannte Luftfahrzeuge zur Überwachung des Seegebietes eingesetzt, so treffen die nachstehenden Ausführungen in Bezug auf das Luftfahrzeug und auf das Überwachungsverfahren für jedes dieser Luftfahrzeuge zu.
  • Das unbemannte Luftfahrzeug 1 ist mit einer Bilderfassungseinrichtung 10 ausgestattet, die eine senkrecht oder schräg nach unten gerichtete Blickrichtung aufweist und somit ausgebildet ist, um ein Bildfeld 12 auf der Meeresoberfläche zu erfassen.
  • Das unbemannte Luftfahrzeug 1 wird von einer in einer Bodenstation 4 vorgesehenen Steuerungszentrale 40 über Funk gesteuert, wobei die Steuerungssignale S über eine zwischen der Steuerungszentrale 40 und dem unbemannten Luftfahrzeug 1 gebildete Signalübertragungsstrecke 42 per Funk übertragen werden. Auf dieser Signalübertragungsstrecke 42 werden in Gegenrichtung, also vom Luftfahrzeug 1 zur Steuerungszentrale 40, Fluginformationsdaten F zurückübertragen. Eine derartige Fernsteuerung von unbemannten Luftfahrzeugen ist allgemein bekannt.
  • Das Luftfahrzeug 1 ist weiterhin mit einer Datensendeeinrichtung 13 versehen, die mit der Bilderfassungseinrichtung 10 zur Datenübertragung verbunden ist. Die Datensendeeinrichtung 13 sendet von der Bilderfassungseinrichtung 10 erfasste Bilddaten B per Funk über eine Datenübertragungsstrecke 43 zu einer Datenverarbeitungszentrale 44, die im gezeigten Beispiel ebenfalls in der Bodenstation 4 vorgesehen ist.
  • Die Datenverarbeitungszentrale 44 weist eine Datenverarbeitungseinrichtung 45 zur Verarbeitung der empfangenen Bilddaten auf, wobei die Datenverarbeitungseinrichtung 45 in 1 nur schematisch dargestellt ist. Des Weiteren ist der Datenverarbeitungszentrale 44 eine Eisberg-Datenbank 46 zugeordnet, die in 1 ebenfalls nur schematisch dargestellt ist. Schließlich ist – in 1 ebenfalls nur schematisch dargestellt – eine Eisberg-Bilderkennungseinrichtung 47 vorgesehen, die im gezeigten Beispiel der Datenverarbeitungszentrale 44 zugeordnet ist, die aber genauso gut an Bord des Luftfahrzeugs 1 vorgesehen sein kann und dort unmittelbar der Bilderfassungseinrichtung zugeordnet ist.
  • Obwohl in 1 die Steuerungszentrale 40 und die Datenverarbeitungszentrale 44 in derselben Bodenstation vorgesehen sind, können die Steuerungszentrale und die Datenverarbeitungszentrale auch an unterschiedlichen Orten vorgesehen sein. Auch müssen diese Zentralen nicht an Land vorgesehen sein, sondern können ebenso gut auch an Bord von Schiffen vorgesehen sein.
  • Die Bilderfassungseinrichtung 10 ist im gezeigten Beispiel mit einer Kamera 11 ausgestattet, deren Kameraoptik als Teleskopoptik ausgebildet ist. Weiterhin ist das Luftfahrzeug 1 mit einer Objektbeleuchtungseinrichtung 14 versehen, die der Kamera 11 zugeordnet ist und die ausgestaltet ist, um das von der Kamera 11 erfasste Bildfeld 12 zu beleuchten. Die Ausgestaltung dieser Objektbeleuchtungseinrichtung 14 wird weiter unten noch beschrieben.
  • Anstelle der Kamera 11 oder zusätzlich zur Kamera 11 kann auch eine LIDAR-Einrichtung oder eine RADAR-Einrichtung vorgesehen sein, mit denen ebenfalls eine Bilderfassung der Meeresoberfläche im jeweiligen Wellenlängenbereich möglich ist.
  • In der vorstehend beschriebenen Anordnung fliegt das Luftfahrzeug 1 systematisch, zum Beispiel in zueinander parallelen Streifen, das zu überwachende Seegebiet 2 ab und scannt mittels der Bilderfassungseinrichtung 10 die Meeresoberfläche. Die dabei von der Bilderfassungseinrichtung 10 kontinuierlich aufgenommenen Bilddaten werden über die Datenübertragungsstrecke 42 an die Datenverarbeitungszentrale 44 gesandt und dort in der weiter unten noch beschriebenen Weise ausgewertet. Zusammen mit den jeweiligen Bilddaten werden auch Positionsdaten des erfassten Bildfelds 12 sowie Zeitdaten über den Zeitpunkt der Bilderfassung ermittelt, den jeweiligen übertragenen Bilddaten zugeordnet und an die Datenverarbeitungszentrale übermittelt.
  • Wird anhand der Bilddaten ein Eisberg erkannt, so werden seine Größenabmessungen aus den Bilddaten und der bekannten Flughöhe des unbemannten Luftfahrzeugs berechnet. Aufgrund dieser berechneten Abmessungen wird der erfasste Eisberg einer Größenklasse zugeordnet und die über diesen Eisberg gewonnenen Bilddaten und Dimensionsdaten sowie die Positions- und Zeitpunktsdaten der Erfassung des Eisbergs werden in einer Eisberg-Datenbank 46 abgelegt. Wird dieser Eisberg bei einem späteren Überfliegen des Seegebiets 2 erneut geortet und von der Bilderfassungseinrichtung 10 erfasst, so werden aufgrund der dann gewonnenen Bild- und Dimensionsdaten sowie der Positions- und Zeitpunktsdaten dieser späteren Erfassung durch Vergleich mit den bei einem früheren Überflug und in der Eisberg-Datenbank 46 gespeicherten erfassten Daten die Driftrichtung D und die Driftgeschwindigkeit v bestimmt. Auf der Grundlage dieser Daten kann eine Prognose erstellt werden, ob und wie schnell sich der Eisberg 20 auf das Meeresbauwerk 3 zu bewegt. Anhand der gewonnenen Dimensionsdaten des Eisbergs 20 kann darüber hinaus seine Masse bestimmt werden und es kann so in Verbindung mit der Driftgeschwindigkeit v ermittelt werden, ob dieser Eisberg 20 im Falle einer Kollision mit dem Meeresbauwerk 3 eine Gefahr für dieses darstellt.
  • Der Aufbau und die Funktionsweise einer besonders vorteilhaften Bilderfassungseinrichtung 10, die auch bei Dunkelheit einsetzbar ist, werden nachstehend beispielhaft anhand der schematischen Darstellung in 2 erläutert. Diese Bilderfassungseinrichtung 10 ist als Multispektral-Kamerasystem 100 ausgebildet.
  • Das Kamerasystem 100 weist eine mit einer Kameraoptik 102 versehene Kamera 101 auf, die auf einer Kameraplattform 103 angeordnet ist. Die Kameraplattform 103 ist mit einer Lagestabilisierungsvorrichtung 130 für die Kamera 101 und die Kameraoptik 102 versehen, die in 2 ebenfalls nur schematisch dargestellt ist. Eine Lagestabilisierungseinrichtung kann selbstverständlich auch für die Kamera 11 der in 1 gezeigten Variante vorgesehen sein.
  • Die Kamera 101 weist einen ersten Bildsensor 110 mit einem Hochgeschwindigkeitsverschluss 111 auf. Des Weiteren ist dem ersten Bildsensor 110 eine hochfrequente Sichtlinienstabilisierungs- und Bildderotationseinheit 114 zugeordnet. Der erste Bildsensor 110 weist eine optische Achse A' auf, die der optischen Achse A der Kameraoptik 102 entspricht.
  • Ein zweiter Bildsensor 112 mit einem diesem zugeordneten zweiten Hochgeschwindigkeitsverschluss 113 und einer hochfrequenten Sichtlinienstabilisierungs- und Bildderotationseinheit 115 ist zwischen der Kameraoptik 102 und dem ersten Bildsensor 110 in einem Winkel zur optischen Achse A der Kameraoptik 102 angeordnet, wobei der in 2 gezeigte Winkel der optischen Achse A der Kameraoptik 102 und der auf den zweiten Bildsensor 112 gerichteten optischen Achse A'' 90° beträgt.
  • Die hochfrequenten Sichtlinienstabilisierungs- und Bildderotationseinheiten 114, 115 erfassen mit Drehbeschleunigungsmessern am Scanspiegel 1242 hochfrequente Drehungen des Spiegels im Intertialsystem und berechnen daraus eine Korrekturbewegung für den Spiegel, die die Sichtlinie des Spiegelteleskops 122 im Raum stabilisiert. Die jeweilige Bildderotationseinheit kompensiert dabei ungewollte Bilddrehungen, die durch Bewegungen des Scanspiegels 1242 hervorgerufen werden, durch Gegendrehungen mit einem Hilfsspiegelsystem oder durch Gegendrehen der ganzen Kamera 101 um die optische Achse A'.
  • Die beiden Bildsensoren 110, 112 sind vorzugsweise im blau-grünen Spektralbereich und/oder im nahen Infrarotbereich hochempfindlich. Die Kameraoptik 102 weist eine Einrichtung 120 aus optischen Elementen zur Bündelung einfallender Strahlung auf die strahlungsempfindliche Oberfläche des Bildsensors 110 und/oder des zweiten Bildsensors 112 auf. Diese optische Einrichtung 120 ist versehen mit einer Spiegelteleskopanordnung 122, einer Scanspiegelanordnung 124, einer dem ersten Bildsensor 110 zugeordneten Unteranordnung 126 aus optischen Elementen mit einer ersten Brennweite f1 und einer dem zweiten Bildsensor 112 zugeordneten zweiten Unteranordnung 128 aus optischen Elementen mit einer zweiten Brennweite f2. Die zweite Brennweite f2 ist kürzer als die erste Brennweite f1. Im Strahlengang der ersten Unteranordnung 126 ist ein Fluorite Flatfield Corrector (FFC) 127 vorgesehen.
  • Das Spiegelteleskop 122 ist in diesem Ausführungsbeispiel vorzugsweise gebildet von einem Ritchey-Cretien-Teleskop mit Flatfield-Corrector und Barlowlinsen zur Brennweitenverlängerung.
  • Der optische Strahlengang der Kameraoptik 102 mit deren optischer Achse A ist mittels eines umschaltbaren, vorzugsweise schwenkbaren, Spiegels 129 zwischen dem optischen Strahlengang der ersten Unteranordnung 126 mit der auf den ersten Bildsensor 110 gerichteten optischen Achse A' und der zweiten optischen Unteranordnung 128 mit der auf den zweiten Bildsensor 112 gerichteten optischen Achse A'' umschaltbar. Auf diese Weise kann das von der Kameraoptik 102 eingefangene Bild entweder auf dem ersten Bildsensor 110 oder auf dem zweiten Bildsensor 112 abgebildet werden.
  • Die Scanspiegelanordnung 124, die auf der von den Bildsensoren 110, 112 abgewandten Seite der Spiegelteleskopanordnung 122 vorgesehen ist, weist einen vor der Spiegelteleskopanordnung 122 gelegenen ersten Umlenkspiegel 1240 sowie einen bewegbaren zweiten Umlenkspiegel 1242 auf. Dieser zweite Umlenkspiegel 1242 ist mittels in der Figur nur schematisch dargestellter Halterungen 1242', 1242'' an einem bewegbaren Element 1244' einer Antriebseinrichtung 1244 derart angebracht, dass der zweite Umlenkspiegel 1242 um eine erste Achse x und eine rechtwinklig zu dieser gelegene zweite Achse y mittels der an der Kameraplattform 103 angebrachten Antriebseinrichtung 1244 schwenkbar ist. Zur Steuerung der Antriebseinrichtung 1244 ist eine in 2 nur schematisch dargestellte Steuerungseinrichtung 1246 vorgesehen.
  • In der Spiegelteleskopanordnung 122 ist eine Filteranordnung 121 vorgesehen, die mehrere Spektralfilter 121A, 121B, 121C aufweist. Diese Filter sind jeweils bei Bedarf einzeln in den Strahlengang einkoppelbar, wozu die Filteranordnung als Filterrad ausgebildet sein kann. Die Filter der Filteranordnung 121 sind für unterschiedliche Wellenlängenbereiche durchlässig, sodass mit jeweils einem Filter, der als Sperrfilter wirkt, ein Teil des einfallenden Lichts aus diesem Wellenlängenbereich ausgefiltert werden kann.
  • Im Bereich der ersten Unteranordnung 126 ist eine Objektbeleuchtungseinrichtung 104 mit einer Strahlungsquelle 140 vorgesehen. Die Strahlungsquelle 140 ist als Laser-Strahlungsquelle, vorzugsweise als Hochdruck-Xenon-Kurzlichtbogenlampe mit asphärischer Kollimationsoptik und Pinholekollimator als Blitzbeleuchtungsvorrichtung mit Einkopplung über einen Hochgeschwindigkeitssektorspiegel 123, ausgestaltet.
  • Die Strahlungsquelle 140 sendet Licht entlang einer optischen Achse A'' aus, die quer, vorzugsweise rechtwinklig zur optischen Achse A der Kameraoptik 102 verläuft.
  • Im Bereich des Schnittpunktes der optischen Achsen A und A''' ist eine bewegbare Spiegelanordnung 123 vorgesehen, die im gezeigten Beispiel aus einer rotierenden Sektorblende besteht, deren geschlossene Sektorelemente verspiegelt sind, um das entlang der optischen Achse A''' ausgesandte Licht in Richtung der optischen Achse A der Kameraoptik 102 umzulenken, und deren offene Sektorelemente einen Lichtdurchlass von der Kameraoptik 102 auf den ersten Bildsensor 110 zulassen. Auf diese Weise kann abwechselnd Licht von der Objektbeleuchtungseinrichtung 104 durch die Kameraoptik 102 auf das Bildfeld 12 und von Objekten im Bildfeld 12 reflektiertes Licht zurück durch die Kameraoptik 102 auf den ersten Bildsensor 110 gelenkt werden, wie weiter unten noch beschrieben werden wird.
  • Selbstverständlich kann diese Objektbeleuchtung auch bei einer Kamera realisiert sein, die nicht mit der oben beschriebenen und in ihrer Brennweite umschaltbaren Kameraoptik ausgestattet ist.
  • Nachstehend wird die Funktionsweise des vorstehend beschriebenen Kamerasystems bei der Eisbergüberwachung erläutert.
  • Die Kamera 101 wird mit aktiviertem zweiten Bildsensor 112 und in den Strahlengang A der Spiegelteleskopanordnung 122 eingeschwenktem Umlenkspiegel 129 auf das zu überwachende Seegebiet gerichtet. Mittels eines (nicht gezeigten) Steuerungscomputers einer Überwachungseinrichtung, deren Bestandteil das Kamerasystem 100 ist, wird die Steuerungseinrichtung 1246 für die Antriebseinrichtung 1244 des zweiten Umlenkspiegels 1242 derart gesteuert, dass der als Scanspiegel agierende zweite Umlenkspiegel 1242 eine das Seegebiet zeilenweise abscannende Suchbewegung durchführt. Während dieser das Seegebiet abscannenden Suchbewegung nimmt der zweite Bildsensor 112 mit einer hohen Bildfolgefrequenz von beispielsweise 100 Hz flächendeckend Bilder vom Seegebiet auf und leitet diese an eine Bildauswerteeinrichtung 105 einer übergeordneten Überwachungseinrichtung weiter, die beispielsweise in der Bodenstation 4 vorgesehen ist.
  • Während dieser Aufnahmen wird abwechselnd jeweils einer der Spektralfilter 121A, 121B, 121C in den Strahlengang der Spiegelteleskopanordnung 122 in schneller Folge eingeschwenkt, so dass jede vom zweiten Bildsensor 112 aufgenommene Aufnahme des Seegebiets mit einem der Spektralfilter 121A, 121B, 121C belichtet wird. Mehrere aufeinander folgende Bilder ergeben damit übereinandergelegt ein Falschfarbenbild und gleichzeitig eine Multispektralanalyse des Seegebiets im ausgewählten Spektralbereich, beispielsweise im blau-grünen Spektrum oder im nahen Infrarotbereich.
  • Wird ein Eisberg erkannt, so wird der erste Bildsensor 110 aktiviert, wozu der Umlenkspiegel 129 aus dem Strahlengang A der Spiegelteleskopanordnung 122 herausgeschwenkt wird, so dass das von der Spiegelteleskopanordnung 122 eingefangene Licht auf den ersten Bildsensor 110 gelangen kann.
  • Im Dunkeln oder bei schlechten Sichtverhältnissen werden die Objektbeleuchtungseinrichtung 104 des erfindungsgemäßen Kamerasystems und die Spiegelanordnung 123 aktiviert, so dass deren Sektorblendenrad in Rotation versetzt wird. In Folge dessen wird die von der Strahlungsquelle 140 der Objektbeleuchtungseinrichtung 104 ausgesendete Lichtstrahlung an einem verspiegelten Sektorelement der Spiegelanordnung 123 umgelenkt, in den Strahlengang der Spiegelteleskopanordnung 122 eingeleitet und über die Scanspiegelanordnung 124 auf das Bildfeld 12 geleitet. Dieser hochenergetische Lichtblitz wird von Objekten (beispielsweise Eisbergen oder Schiffen) im Bildfeld 12 reflektiert und trifft über die Scanspiegelanordnung 124 und die Spiegelteleskopanordnung 122 zurück auf die rotierende Sektorblende 123, bei der sich zu diesem Zeitpunkt ein offenes Sektorelement im Strahlengang befindet, so dass das von einem Objekt im Bildfeld 12 reflektierte Licht durch die offene Sektorblende der Spiegelanordnung 123 hindurchtreten kann und auf den ersten Bildsensor 110 gelangt. Der Bildsensor 110 kann so mit Hilfe der von der Objektbeleuchtungseinrichtung 104 mittels der rotierenden Sektor-Spiegelanordnung 123 stroboskopartig ausgesandten Strahlung auch bei Dunkelheit Aufnahmen von Objekten im Bildfeld 12, beispielsweise von einem Eisberg, machen.
  • 3 zeigt als weiteres Beispiel eine Teleskopmultispektralkamera mit künstlicher Nachtbeleuchtung, die mit einem Lichtverstärker und einem EMCCD-Kamerachip ausgestattet und daher hochempfindlich ist, so dass sie auch bei Eis, Schnee und Regen in der Luft einsetzbar ist. Diese Telemultispektralkamera ist auch bei schlechter Beleuchtung unter einer dichten Wolkendecke und in der Polarnacht noch zur Eisbergbeobachtung geeignet. Selbst durch eine dünne Wolkendecke hindurch, die für visuelle Beobachtung undurchsichtig ist, funktioniert sie noch, wenn andere Kameras bereits versagen. In diese Telemultispektralkamera sind LIDAR-Geräte integriert, welche dasselbe Teleskop verwenden wie der EMCCD-Kamerachip. Auch die künstliche Beleuchtungseinheit mit kaskadierten Hochleistungslaserdioden nutzt dasselbe Teleskop.
  • Eine andere Multispektralkamera zur Beobachtung von entfernten Objekten bei Tag und Nacht wird bereits in der DE-Patentanmeldung 10 2011 010 334.1 beschrieben.
  • In 3 ist eine darauf aufbauende Multispektralkamera 200 gezeigt, die zusätzlich ausgestattet ist mit einer Einrichtung zum schnellen Scannen großer Bildflächen und mit einem Blau-Grünen Spektralkanal, der mit horizontal polarisiertem Licht arbeitet, und mit einer Lichtverstärkerröhre 202 vor dem Sensor einer EMCCD-Kamera 204.
  • Die in 3 dargestellte Multispektralkamera ist wie die in 2 gezeigte Kamera mit einem Ritchey-Chretien Teleskop 206 und mit einer Objektbeleuchtungseinrichtung 208 ausgestattet und bildet so eine Gated-View-Teleskopmultispektralkamera.
  • Diese Teleskopmultispektralkamera 200 ist mit einem lichtstarken 14'' Ritchey-Chretien Teleskop 206 mit langer Brennweite und mit je einem Flatfield-Corrector 210, 212 mit Barlowlinse 214 zur weiteren Brennweitenverlängerung und zur Vergrößerung des scharf fokussierten ebenen Bildfeldes auf zum Beispiel 50 mm Durchmesser auf jedem der beiden anwählbaren optischen Pfade ausgerüstet. Sie arbeitet für den Aufnahmebetrieb mit der kürzeren Brennweite für die Kamera, und simultan im Wechsel gekoppelt, über einen halbdurchlässigen Spiegel 216, mit der längeren Brennweite mit der Objektbeleuchtungseinrichtung 208, die aus einem blaugrünen 218 und einem oder zwei nah-infraroten 220 kaskadierten Dioden-Hochleistungslasern mit Lichtleitfaser-Auskopplung und einem LIDAR 222 besteht. Die drei oder vier Kanäle der Objektbeleuchtungseinrichtung werden nach Bedarf über eine Umschalteinheit 224 bestehend aus einem verschiebbaren Prismensatz abwechselnd mit der Teleskopoptik optisch gekoppelt. Durch eine Fokussieroptik vor den Prismen wird die beim Umschalten veränderte optische Pfadlänge durch Nachfokussieren automatisch ausgeglichen.
  • Das vom Objekt T zurückreflektierte Licht wird von einem im ganzen Blickfeld frei ausrichtbaren Zielverfolgungsspiegel 226 auf die Aperturoptik des Ritchey-Chretien Teleskopes 206 geführt.
  • Die eigentliche Multispektralkamera nach dem Flatfield-Corrector 210 besteht aus einem dem Lichtverstärker 202 vorgeschalteten, anwählbaren Filterrad 228 mit Transmissions-Bandpass-Filtern für blau-grünes Licht und für nah-infrarotes (NIR) Licht. Danach kommt die Abbildungsoptik der Kamera, die das einfallende Licht auf die folgende Lichtverstärkerröhre 202 scharf abbildet. Diese Lichtverstärkerröhre kommt eine in beiden Spektralbereichen hochempfindliche und hochauflösende, die kann eine Verstärkung von 10.000 bis 18.000 aufweisen und fungiert gleichzeitig als elektronischer Verschluss für sehr kurze Belichtungszeiten im Mikrosekunden- bis Nanosekunden-Bereich. Dies ermöglicht den Gated-View-Betrieb der Kamera.
  • Aus der Lichtverstärkerröhre 220 tritt das verstärkte Licht des angewählten Spektralbandes als Licht einer Leuchtphosphorschicht aus und bildet ein reelles Bild des gewählten Spektralbereiches in verstärkter Form. Dieses Bild wird mit der Elektron-Multiglied-CCD Kamera 204 mit einer weiteren Lichtverstärkung um einen Faktor 100 bis 1.000 aufgenommen und mit einer Bildrate von zum Beispiel 60 Bildern/sec in ein hochauflösendes digitales Bild umgesetzt.
  • Die Multispektralkamera 200 ist durch eine in 4 dargestellte Schnellbildfeldscaneinrichtung 300 aus einem feststehenden Prisma 302 und einem verschiebbaren Prisma 304, die vor dem Bildsensor 305 angeordnet sind, in der Lage, das Bildfeld mit bis zu 100 Hz jeweils in einer Millisekunde (msec) um eine Bildbreite weiterzuschwenken, ohne die Bildstabilisierung während der Aufnahme zu beeinträchtigen. Die dabei entstehende Veränderung der optischen Pfadlänge wird durch eine automatische Fokussieroptik 306 ausgeglichen.
  • Dadurch kann das Teleskop über den Zielverfolgungsspiegel 226 das Bildfeld mit konstanter Geschwindigkeit abfahren, und durch eine Parallelverschiebung als Kompensationsbewegung der Prismen die Teleskopsichtline jeweils für die Dauer eines Bildes stabil auf dem Objekt T fixiert gehalten werden. Dadurch wird erreicht, dass die Einzelbilder in der EMCCD-Kamera 204 ungefähr 16 msec ohne Bewegungsunschärfe belichtet werden können. Durch das doppelte Verschlusssystem von Lichtverstärkerröhre 202 und EMCCD-Kamera 204 können in den 16 msec bis zu 160 Gated-View-Belichtungszyklen von zum Beispiel je 1,6 μsec Dauer auf ein CCD-Bild akkumuliert werden und es kann damit eine grolle Empfindlichkeit erreicht werden. Auf diese Weise können voll belichtete Bilder mit einer schnellen Bildfolge von 60 Bildern/sec nacheinander und genau aneinander passend ohne Überlappung aufgenommen werden.
  • Vorzugsweise weist der Bildsensor ein Empfindlichkeitsmaximum im Spektralbereich zwischen 0,5 μm und 1,5 μm Wellenlänge auf. In diesem Wellenlängenbereich wird bei Tageslichtbetrieb eine mittlere Einstrahlungsleistung von 47 Watt pro m2 von der Sonne empfangen. Bei dieser Beleuchtungsstärke kann der Sensor bis zu einer Entfernung von 20 km hochauflösende und kontrastreiche Bilder mit einem Signal zu Rauschverhältnis von über 300 liefern.
  • Des Weiteren besitzt die Erdatmosphäre in diesem Wellenlängenbereich ein Fenster mit hoher Lichtdurchlässigkeit, so dass im NIR-Spektralbereich eine grolle Sichtweite ermöglicht ist.
  • In einer bevorzugten Ausführungsform weist der Bildsensor einen, elektrisch gekühlten, Indium-Gallium-Arsenid-CCD-Sensorchip auf mit einer Pixelgröße von 30 Mikrometern auf. Ein derartiger Sensorchip ist im Spektralbereich von 0,5 μm bis 1,5 μm besonders empfindlich und besitzt eine maximale Empfindlichkeit, die nahe am theoretisch möglichen Empfindlichkeitsgrenzwert liegt. Besonders vorteilhaft ist es, wenn dieser Sensorchip hochauflösend ist.
  • Durch die doppelte Lichtverstärkung wird die Multispektralkamera 200 extrem lichtempfindlich und kann auch mit künstlicher Beleuchtung, die viel schwächer als Tageslicht ist, noch aus großer Höhe betrieben werden. Sie kann mit Belichtungszeiten im Mikrosekundenbereich einen Gated-View-Betrieb ermöglichen, der die abbildende Beobachtung durch dünnere Wolkenschichten, die eine direkte visuelle Beobachtung bereits verhindern würden, erlaubt, indem Blendlicht aus nahegelegenen Wolkenschichten ausgeblendet wird. Dadurch kann als entscheidender Vorteil die optische Beobachtung der Eisberge den größten Teil des Jahres bei Tag und Nacht ausgeführt werden. Nur durch dichten Nebel, sehr dicke Wolken und starken Regen oder Schneefall wird die Beobachtung erschwert oder verhindert.
  • Für den Gated-View-Betrieb ist die in den gewählten Spektralbereichen blau-grün und nahinfrarot arbeitende Objektbeleuchtungseinrichtung 208 vorgesehen, die die für den Gated-View-Betrieb erforderlichen kurzen Beleuchtungsimpulse im Mikrosekundenbereich taktgenau liefern kann, die die Beleuchtung in großer Entfernung von 15 bis 20 km genau auf das sichtbare Bildfeld von zum Beispiel 160 m mal 128 m fokussieren kann und die genügend Leistung besitzt, um das Bildfeld voll auszuleuchten.
  • Da für einen Gated-View-Echo-Zyklus bei 15 km Entfernung nur 0,1 msec benötigt werden, können bei einer Bildrate von 60 Bildern/sec, also 16,6 msec Bildfolge, bis zu 160 Gated-View-Belichtungsvorgänge auf ein Bild der EMCCD-Kamera 204 akkumuliert werden, was die Empfindlichkeit entsprechend erhöht. Dies wird durch den doppelten elektronischen Verschlussmechanismus von Lichtverstärkerröhre 202 und EMCCD-Kamera 204 ermöglicht.
  • Die Objektbeleuchtungseinrichtung 208 arbeitet mit kaskadierten Dioden-Hochleistungslasern 218, 220 als Leuchtquelle. Dabei wird die Ausgangsleistung von vielen, zum Beispiel zwanzig bis dreißig einzelnen Diodenlasern mit je 20 bis 30 W mit einer speziellen Kombinationsoptik in eine einzelne Lichtleitfaser mit zum Beispiel 200 μm Dicke eingekoppelt.
  • Die erforderliche Anzahl an Lichtleitfasern wird in der Fokusebene der Teleskopoptik so angeordnet, dass das Bild der zu beleuchtenden Zielfläche in der Teleskop-Focusebene möglichst vollständig ausgefüllt ist. Die Fasern geben Licht mit einem Öffnungswinkel von ungefähr 16° ab. Die ausgehenden Strahlenbündel werden aufgeweitet auf zum Beispiel 1,2 mm Durchmesser, von kleinen Feldlinsen vor jeder Faser erfasst und jeweils auf die Austrittsapertur des Teleskopspiegels abgebildet. Dadurch entsteht eine sogenannte kritische Beleuchtungseinheit, die alles ausgesandte Licht auf die Zielobjektbildfläche abbildet.
  • Die in 3 dargestellte Objektbeleuchtungseinrichtung 208 verwendet erfindungsgemäß den Zielverfolgungsspiegel 226 und Teleskopspiegel der Multispektralkamera 200, aber zeitlich versetzt und in umgekehrter Richtung. Die beiden Hochleistungsdiodenlaser 218, 220 für das blau-grüne Spektrum und für das Nahinfrarot-Spektrum werden jeweils über eine Schnellscaneinrichtung, die identisch ist mit der der EMCCD-Kamera 204, ausgewählt und in den Strahlengang b mit der langen Brennweite eingekoppelt.
  • Für den Einsatz mit Beleuchtung arbeitet die Multispektralkamera 200 mit der kurzen Brennweite (Strahlengang a) zum Beispiel mit einem Fünftel der langen Brennweite. Dadurch wird, bei einem Verlust an Auflösung, pro Pixel zum Beispiel die 25-fache Echoenergie auf das Empfängerpixel auf dem Kamera-Chip konzentriert. Dies führt zu einer entsprechenden Erhöhung der nutzbaren Reichweite der Multispektralkamera mit künstlicher Gated-View-Beleuchtung.
  • Die Teleskopoptik wird ebenfalls für den Betrieb des LIDAR benutzt. Das LIDAR ist auch in 3 dargestellt. Die Optik kann für den Betrieb als LIDAR (Laserradar) durch die Umschalteinheit 224 und über den halbdurchlässigen Spiegel 216 auf den Strahlengang des Laserradars (LIDAR) 222 umgeschaltet werden. Der Strahlengang des Laserradars wird dann durch einen Spiegel in einen Pfad zu der blau-grünen Laserblitzlichtquelle als Sendeeinheit und in einen Pfad zu dem Laserradarempfänger bestehend aus einer Lichtverstärkereinheit und einer nachgeschalteten, bei der Laserwellenlänge und Laserpulslänge hochempfindlichen Photozelle geschaltet. Die Photozelle ist erfindungsgemäß so geschaltet, dass sie nacheinander eintreffende Mehrfachechos des Zielobjektes getrennt aufzeichnen kann. Dadurch können bei einem Eisberg vorteilhaft die Entfernung zur Wasseroberfläche und zu dem unter Wasser liegenden Teil des Eisbergs aus einem einzigen Sendepuls gemessen werden. Dadurch können die wahre Größe des Eisberges und sein Tiefgang besser abgeschätzt werden.
  • Durch jeweils eine Image-Derotation-Einheit in dem LIDAR Strahlengang, in den Laserstrahlengängen und in dem Kamerastrahlengang wird die Bilddrehung, die durch die Scanbewegung entsteht, jeweils so kompensiert, dass die blau-grüne linear polarisierte Strahlung des LIDARs und der Teleskopkamerabeleuchtung mit horizontaler Polarisierung auf das Wasser beim Zielobjekt auftreffen. Damit wird vorteilhaft erreicht, dass ein größerer Anteil des Beleuchtungslichtes in das Wasser eindringt und so der Unterwasserteil des Eisberges besser sichtbar wird.
  • Die Multispektralkamera 200 ist auf Grund ihrer hohen Empfindlichkeit in der Lage, bei Nacht eine ähnlich hohe Bildfolgegeschwindigkeit wie am Tage aufrecht zu erhalten (vorzugsweise 100 Bilder pro Sekunde am Tag und 60 Bilder pro Sekunde bei Nacht).
  • Die Multispektralkamera 200 ist auch in der Lage, bei Tageslicht in sechs Stunden Flugzeit zum Beispiel 22.500 km2 und bei Nacht, schlechter Sicht und durch leichte Wolken in zehn Stunden Flugzeit ebenfalls 22 500 km2 Wasserfläche aufzunehmen.
  • Die Multispektralkamera 200 ist zudem in der Lage, das ganze Überwachungsgebiet mit einem einzigen Fluggerät in 24 Stunden zweimal aufzunehmen. Zwei Fluggeräte, die sich zum Auftanken ablösen und eine Standzeit im Einsatzgebiet von 24 Stunden haben, können daher ein Schutzgebiet pausenlos 365 Tage im Jahr überwachen.
  • Die bei dem erfindungsgemäßen Verfahren mit der vorbeschriebenen Vorrichtung vorzugsweise durchgeführte Multispektralbilderkennung, wie sie weiter unten in Verbindung mit 5 beschrieben wird, eignet sich besonders gut zum Auffinden, Erkennen, Lokalisieren und Identifizieren von Eisbergen und Eisflößen aller Größen auf dem Polarmeer und zur Unterscheidung von Schiffen aller Größen.
  • Das gesuchte Objekt, zum Beispiel ein Eisberg, wird beschrieben durch eine Referenzsuchbildpyramide von Bildern mit zunehmender Auflösung. Das Referenzsuchobjektbild mit der gröbsten Auflösung deckt das ganze Objekt mit 25 mal 25 Pixeln ab, die in ihrer Größe an die Objektgröße angepasst werden. Wenn das Objekt sehr langgestreckt ist, kann es auch auf zwei oder drei zusammenhängenden Referenz-Suchaufnahmen abgebildet werden. Wenn das Objekt nicht flächig ist, werden mehrere Referenzbilder aus mindestens sechs Richtungen aus den originalen Aufnahmebildern und den originalen LIDAR-Messungen automatisch durch eine Computergraphik erstellt.
  • Das gesuchte Objekt wird zusätzlich beschrieben durch mehrere kleinere charakteristische Referenzdetails in höherer Auflösung, die ebenfalls mindestens sechs Betrachtungsrichtungen abdecken, falls dies möglich ist oder falls diese aus der originalen Aufnahmerichtung sichtbar sind.
  • Von allen gesuchten Zielobjekten (Eisbergen, Eisflößen oder Schiffen) wird fotografisch und per Computergraphik eine Referenzdatenbank mit allen erforderlichen Multispektralreferenzbildern angelegt. Die Bildauflösung wird jeweils so angepasst, dass die Referenzsuchbilder eine standardisierte Größe von 25 mal 25 Pixeln einnehmen. Die Bildfläche der Suchbilder wird in Teilflächen aufgeteilt, deren Merkmalsvektoren jeweils für sich alleine rotationsinvariant sind. Dadurch wird der Rechenaufwand für die Berechnung der Merkmalsvektoren stark reduziert. Durch eine besondere Ausbildung und Anordnung der Teilflächen wird eine Beschränkung der zu testenden Drehlagen auf zwölf Lagen erreicht und damit der Rechenaufwand stark reduziert, ohne die Bilderkennungsfähigkeit einzuschränken. Das auszuwertende Multispektralbild wird zur Auswertung in leicht überlappende Teilgebiete aufgespalten, die mit hoher Wahrscheinlichkeit jeweils nur ein Zielobjekt enthalten können. Dadurch können alle vorkommenden Instanzen eines gesuchten Zielobjektes in dem Gesamtsuchbild automatisch entdeckt werden ohne Eingriff eines menschlichen Bildauswerters durch Aufsuchen des Referenzbildes mit der kleinsten Abweichung des Merkmalsvektors bezüglich des gerade untersuchten Bildbereiches.
  • Mit dem beschriebenen abbildenden Teleskopkamerasystem des Eisüberwachungssystems ist es vorteilhaft möglich, den inneren Schutzbereich des zu überwachenden Gebietes mit einer Multispektralsensorausrüstung mit bordeigener künstlicher Beleuchtung mit großer Reichweite (zum Beispiel mehr als 20 km bei Tag und 20 km bei Nacht und schlechter Sicht) zu überwachen.
  • Besonders vorteilhaft ist es, wenn jedes der Kamerasysteme des Eisbergüberwachungssystemes zur Erfassung und Beobachtung von in großer Entfernung befindlichen bewegten Objekten am Boden eine mit einer lichtstarken (F = 3,3) Ritchey-Chretien-Spiegelteleskopoptik von mindestens 14'' Öffnung und Flatfied-Corrector-Linse versehene Kamera und eine Lagestabilisierungsvorrichtung für die Kamera und die Kameraoptik aufweist. Dabei ist die Kamera versehen mit einem Strahlengang mit kürzerer Brennweite mit einer Lichtverstärkerröhre, die auch als Hochgeschwindigkeitsverschluss fungiert und, gekoppelt durch einen halbdurchlässigen Spiegel, mit einem zweiten, gefalteten Strahlengang mit längerer Brennweite, der über eine Barlowlinse zur Brennweitenverlängerung und zwei weitere feste Umlenkspiegel in die Beleuchtungseinheit eingeführt wird.
  • Dabei weist die Kameraoptik eine Einrichtung aus optischen Elementen zur Bündelung einfallender Strahlung auf einer strahlungsempfindlichen Oberfläche des Bildsensors mit zumindest einer Spiegelteleskopanordnung und zumindest einer Zielverfolgungsspiegelanordnung auf und ist versehen mit einer Antriebseinrichtung für zumindest ein bewegbares Element der Zielverfolgungsspiegelanordnung und einer Steuerungseinrichtung für die Antriebseinrichtung. Die Einrichtung aus optischen Elementen weist eine dem Bildsensor zugeordnete Unteranordnung aus optischen Elementen mit einer kürzeren Brennweite an der Kamera mit vorgeschaltetem Lichtverstärker und Filtersatz und eine dem zweiten Strahlengang mit der Barlowlinse zugeordnete zweite Unteranordnung aus optischen Elementen der Beleuchtungsanlage auf.
  • Der Beleuchtungsanlage, die aus zwei Arrays von jeweils sechs Hochleistungsdiodenlasern mit Lichtleitfaserauskopplung in die fokussierte Bildebene der langen Brennweite besteht, ist eine Schnellscaneinrichtung nach 4 vorgeschaltet, die wahlweise das blau-grüne oder das nahinfrarote Faserbündel in die Fokuslage abbildet und damit anwählt.
  • Besonders vorteilhaft ist es, wenn diese lagestabilisierte Kamera in der Lage ist, mittels des über die Steuerungseinrichtung gesteuerten und von der Antriebseinrichtung bewegten Elements, zum Beispiel eines Zielverfolgungsspiegels, der mit einer Schnellscanvorrichtung direkt vor dem Kamerachip gekoppelt ist, abzuscannen. Dabei führt der Zielverfolgungsspiegel eine gleichförmige Schwenkbewegung längs des Horizonts aus, die von einer gegenläufigen Bewegung des Scanprismas jeweils für die Belichtungszeit der Kamera gerade aufgehoben wird. Dadurch führt die Sichtlinie eine Stepstare-Bewegung aus, mit der der Strahlengang, der der kürzeren Brennweite zugeordnet ist, ein Beobachtungsgebiet abtastet, um beispielsweise das von einem Eisberg ausgesandte Licht zu detektieren. Ist eine Detektion eines Objekts erfolgt, so kann mittels des der längeren Brennweite zugeordneten zweiten Strahlenganges eine vergrößerte Darstellung des detektierten Objekts erhalten werden, wodurch die Identifikation des Objekts erleichtert wird.
  • Dazu ist der optische Strahlengang zwischen der ersten Unteranordnung und der zweiten Unteranordnung umschaltbar ausgebildet, wobei zur Umschaltung vorzugsweise zwei simultan bewegbare, insbesondere schwenkbare, Spiegel vorgesehen sind. Vorzugsweise weist der Bildsensor ein Empfindlichkeitsmaximum im Spektralbereich zwischen 0,5 μm und 1,5 μm Wellenlänge auf. In diesem Wellenlängenbereich wird bei Tageslichtbetrieb eine mittlere Einstrahlungsleistung von 47 Watt pro m2 von der Sonne empfangen. Bei dieser Beleuchtungsstärke kann der Sensor bis zu einer Entfernung von 20 km hochauflösende und kontrastreiche Bilder mit einem Signal zu Rauschverhältnis von über 300 liefern. Des Weiteren besitzt die Erdatmosphäre in diesem Wellenlängenbereich ein Fenster mit hoher Lichtdurchlässigkeit, so dass im NIR-Spektralbereich eine große Sichtweite ermöglicht ist.
  • Im sichtbaren und im nahinfraroten Bereich haben die eingebauten Lichtverstärkerröhren vor der EMCCD- Kamera eine Lichtverstärkung von 10.000 bis 18.000. Außerdem kann die Lichtverstärkerröhre als elektronischer Hochgeschwindigkeitsverschluss eingesetzt werden für Belichtungszeiten im Mikrosekundenbereich bis in den Nanosekundenbereich. Damit kann die Kamera auch auf kurze Entfernungen von 20 km vorteilhaft im Gated-View-Betrieb mit Belichtungszeiten von 1 bis 10 μ-sec eingesetzt werden.
  • In einer bevorzugten Ausführungsform weist der Bildsensor einen, elektrisch gekühlten, Indium-Gallium-Arsenid-EMCCD-Sensorchip mit einer Pixelgröße von 30 Mikrometern auf. Ein derartiger Sensorchip ist im Spektralbereich von 0,5 μm bis 1,5 μm besonders empfindlich und besitzt eine maximale Empfindlichkeit, die nahe am theoretisch möglichen Empfindlichkeitsgrenzwert liegt. Besonders vorteilhaft ist es, wenn dieser Sensorchip hochauflösend ist. Die Empfindlichkeit des Sensors kann durch die einstellbare Elektronenvervielfachung um einen Faktor 100 bis 1.000 erhöht werden.
  • Vorzugsweise ist der Hochgeschwindigkeitsverschluss der Kamera so ausgebildet, dass der Bildsensor eine Vielzahl von Einzelbildern in schneller Folge, vorzugsweise mit einer Frequenz von 60 Bildern pro Sekunde, weiter vorzugsweise von 100 Bildern pro Sekunde, aufnehmen kann. Diese schnelle Einzelbildfolge ermöglicht es, mit der erfindungsgemäßen Kamera ein großes Suchvolumen, also einen großen horizontalen und vertikalen Bildwinkel, in schneller Folge abzutasten, so dass die auf diese Weise durchgeführten Kamerascans eine große Zuverlässigkeit für die Detektion von Licht aussendenden bewegten Objekten gewährleistet.
  • Die schnelle Stepstare-Abtastbewegung mit schnell aufeinander folgenden, aneinandergereihten Bildern erfordert eine Einrichtung, die die Sichtlinie immer, zum Beispiel für 9 Millisekunden, auf einem Punkt ruhen lässt, und dann zur nächsten Bildposition eine Bildbreite weiterspringt, zum Beispiel in einer Millisekunde, und dort wieder absolut ruhig verharrt. Diese Abtastbewegung wird erreicht, indem das Teleskop mit konstanter hochstabilisierter Geschwindigkeit z. B. am Horizont entlang gleitet. Dieser gleichförmigen Bewegung wird über eine Prismenanordnung nach 4 eine gegenläufige Sägezahnbewegung der Sichtlinie überlagert, die die gleichförmige Bewegung für jeweils neun Millisekunden aufhebt, und dann schnell zur nächsten Bildposition weiterspringt. Diese Sägezahnbewegung wird durch zwei übereinander im Strahlengang mit den Spitzen gegeneinander liegende Prismen erzeugt, wobei das untere Prisma erst langsam entlang des Strahlenganges in Richtung auf den Kamerachip zu bewegt wird und nach Erreichen des Bildrandes schnell wieder zurückbewegt wird. Dadurch wird der Strahlengang in Richtung der Schiebebewegung parallel verschoben, was zu der zusammengesetzten Stepstare-Scanbewegung führt. Die dabei entstehende Fokusverschiebung wird durch eine Fokussieroptik mit automatischer Betätigungseinrichtung ausgeglichen, so dass der Fokus immer auf dem Kamerachip liegt.
  • Die Kamerasichtlinie wird zusätzlich durch eine Tiltplatte, die von einer Bewegungseinrichtung, die mit hochgenauen Beschleunigungsmessern, die hochfrequente Sichtlinienverlagerungen messen können, angesteuert wird, um kleine Beträge (zum Beispiel um 100 μm) in der Kamerachipebene gekippt, so dass dadurch die kleinen hochfrequenten Zitterbewegungen der Sichtlinie kompensiert werden, die sonst Bildunschärfen hervorrufen würden.
  • Besonders vorteilhaft ist es, wenn die gefaltete Unteranordnung von optischen Elementen mit der erwünschten längeren Brennweite einen Barlow-Linsensatz aufweist. Ein derartiger Linsensatz ermöglicht es, bei großer Brennweite eine große Lichtdurchlässigkeit und damit eine hohe Empfindlichkeit bei gleichzeitiger kurzer Baulänge des Teleskops zu erzielen.
  • In einer weiteren bevorzugten Ausführungsform weist die Kamera eine aus mehreren Spektralfiltern bestehende Filteranordnung auf, die jeweils bei Bedarf in den Strahlengang einkoppelbar sind, wobei die Filteranordnung vorzugsweise als Filterrad ausgebildet ist. Eine derartige Filteranordnung, insbesondere ein derartiges schnell drehendes Filterrad mit zum Beispiel zwei Bandfiltern, die den blau-grünen und den NIR Spektralbereich abdecken, kann nach Einkoppelung in den Strahlengang sequenziell Falschfarbenbilder des Licht- und Wärmeenergie abstrahlenden bewegten Objekts, beispielsweise eines Schiffes oder eines Eisbergs, erstellen.
  • Bei gleichzeitig hoher Auflösung der Kamera, bei der es möglich ist, die Lichtquelle, also beispielsweise den Eisberg, auf vielen Pixeln des Sensors abzubilden, enthalten die Bilder ausreichend Form-, Farb- und Spektralinformation, um eine Identifikation des Objekts durch einen Vergleich mit Musterbildern bekannter Objekte durch ein Multispektralbildauswerteverfahren vornehmen zu können.
  • In dem gemessenen multispektralen Gesamtbild kann die Position eines gesuchten Objektes pixelgenau durch Korrelation mit einem Musterbild des gesuchten Objektes in der korrekten Drehlage bestimmt werden, und das gesuchte Objekt kann so in einem Suchbild entdeckt und identifiziert werden.
  • Besonders vorteilhaft ist es, wenn das Kamerasystem weiterhin für den Betrieb bei Nacht mit der Objektbeleuchtungseinrichtung versehen ist, die eine Strahlungsquelle, vorzugsweise eine Laserdioden-Strahlungsquelle, aufweist. Mittels dieser Objektbeleuchtungseinrichtung kann das einmal erfasste Objekt auch dann erkannt werden, wenn das Objekt selbst kein Licht beziehungsweise keine Wärmestrahlung aussendet oder nur eine sehr geringe Strahlung aussendet, wie dies beispielsweise bei einem Eisberg in der Polarnacht der Fall ist.
  • Diese Objektbeleuchtungseinrichtung, die vorzugsweise von einem Blau-Grün- und Nahinfrarot-Laserdioden-Objektbeleuchtungsgerät gebildet ist, beleuchtet das einmal erfasste sich bewegende Objekt und die Kamera empfängt die vom beleuchteten sich bewegenden Objekt reflektierte Strahlung der Objektbeleuchtungseinrichtung.
  • Besonders vorteilhaft ist eine Objektbeleuchtung mit einem schmalbandigen Laserdioden-Objektbeleuchtungsgerät, wenn eine vorhandene breitbandige Störbeleuchtung von Dunst, Nebel, Schnee, Eis oder Regenpartikeln mit der schmalbandigen Objektbeleuchtung konkurriert. In diesem Fall können vorteilhaft Störlichtunterdrückungsfaktoren von bis zu 25 erzielt werden und damit viel kontrastreichere Bilder als mit anderen Verfahren gewonnen werden. Dadurch kann die ausnutzbare Sichtweite bedeutend vergrößert werden, zum Beispiel um das Zwei- bis Fünffache bei entsprechenden Sichtverhältnissen.
  • Vorzugsweise ist die Objektbeleuchtungseinrichtung mit der Kameraoptik derart koppelbar, dass die von der Objektbeleuchtungseinrichtung abgegebene Objektbeleuchtungsstrahlung in den Strahlengang der Kameraoptik zur Bündelung der abgegebenen Strahlung einkoppelbar ist. Eine solche Objektbeleuchtungseinrichtung mit langer Brennweite ermöglicht es, in der Objektentfernung, also im Bereich des sich bewegenden Objekts, einen Lichtfleck mit der Fläche des Zielobjekts zu erzeugen, der so groß ist, dass er nur das Zielobjekt ausleuchtet, aber noch ausreichend Licht zurück auf den Bildsensor des Kamerasystems reflektiert.
  • Dabei ist es besonders vorteilhaft, wenn die Kameraoptik zur Einkoppelung der Objektbeleuchtungsstrahlung einen halbdurchlässigen Spiegel aufweist, die so ausgestaltet ist, dass der Strahlengang der Kameraoptik zu dem Bildsensor und der Objektbeleuchtungseinrichtung simultan verbunden ist und das jeweils aktive Element zeitsynchron mit dem Aussenden des Beleuchtungsimpulses und mit dem Eintreffen von dessen Echoimpuls umschaltbar ist. Bei diesem sogenannten „gated view”-Betrieb wird ein von der Zielbeleuchtungsvorrichtung erzeugter Strahlungspuls durch die Kameraoptik auf das Ziel gesandt, während der Strahlengang zum zugeordneten Bildsensor durch den Verschluss der Lichtverstärkerröhre unterbrochen ist. Der Takt dieser stroboskopartigen Zielbeleuchtung ist dabei so gewählt, dass die Dauer eines jeden auf das Ziel gesandten Beleuchtungspulses kleiner ist, als die zum Zurücklegen der Strecke vom Kamerasystem zum Zielobjekt und zurück benötigte Zeit.
  • Vorzugsweise ist die Dauer eines jeden auf das Ziel gesandten Beleuchtungspulses gerade so lang, dass der Lichtimpuls so lange dauert wie die optisch freie Wegstrecke unter einer dünnen Wolkendecke bis zum Wasser mit den Eisbergen. Dann wird das Echo ohne blendende Streustrahlung aus der näher an der Kamera gelegenen Wolkendecke aufgenommen, wodurch eine fast blendfreie Abbildung durch die Wolkenschicht hindurch möglich wird.
  • Vorzugsweise ist die Strahlungsquelle der Objektbeleuchtungseinrichtung ausgebildet, um gepulste Lichtblitze, vorzugsweise im Blau-Grün-Bereich und im Nahinfrarotbereich, auszusenden, wobei die Intensität der Nahinfrarotlichtblitze vorzugsweise mindestens 4 kW, weiter vorzugsweise 6 kW, beträgt. Die Energiebündelung zusammen mit der hohen Pulsleistung von 4 kW sendet ausreichend Nahinfrarotlicht aus, um ein 20 Kilometer entferntes Objekt bei Nacht so hell zu beleuchten, dass das dabei vom Objekt reflektierte Licht ausreichend stark ist, um vom Sensor der Kamera noch mit einem hohen Signal zu Rauschverhältnis erfasst zu werden.
  • Die aufgenommenen Bilder werden vorteilhaft mit der Multispektralbildverarbeitung und der Multispektralbilderkennung, die in 5 dargestellt ist, ausgewertet und die erkannten Objekte werden in einen Zielobjektspeicher eines Trackfileprozessors übertragen.
  • Das gesuchte Objekt, beispielsweise ein Eisberg, wird beschrieben durch eine Referenzsuchbildpyramide von Bildern mit zunehmender Auflösung. Das Referenzsuchobjektbild mit der gröbsten Auflösung deckt das ganze Objekt mit 25 mal 25 Pixeln ab, die in ihrer Größe an die Objektgröße angepasst werden. Wenn das Objekt sehr langgestreckt ist, kann das Objekt auch auf zwei oder drei zusammenhängenden Referenzsuchaufnahmen abgebildet werden. Wenn das Objekt nicht flächig ist, werden mehrere Referenzbilder aus mindestens sechs Richtungen aus den originalen Aufnahmebildern und den originalen LIDAR-Messungen automatisch durch ein automatisiertes Computergraphikprogramm erstellt.
  • Das Bildobjekt wird zusätzlich nicht als Gesamtansicht gesucht oder korreliert, sondern in Form von mehreren charakteristischen Suchbilddetails, die sich durch einen vergleichsweise kleinen Merkmalsvektor bereits mit hoher Trennschärfe beschreiben lassen, repräsentiert. Diese Details werden so gewählt, dass aus jeder möglichen Betrachtungsrichtung, wobei eine Stufung in 60°-Intervallen ausreichend genau ist, mindestens zwei Details, normalerweise aber drei bis vier Details sicher erkannt werden können.
  • Von allen Objekten, die gesucht werden sollen, werden in einer Objektbildreferenzdatenbank, die zum Beispiel Teil der Eisbergdatenbank ist, Abbildungen der Gesamtansichten und der charakteristischen Details der Objekte (Eisberge) aus unterschiedlichen Betrachtungswinkeln angelegt und mit den Positionsdaten des Objekts auf dem Objektreferenzbild und in dem Detailreferenzbild abgespeichert. Dazu werden Daten abgespeichert, wo das Objekt aufgetreten ist oder sein könnte. Sind keine direkten Bilder des Objekts verfügbar, so können diese mit ausreichender Information über das Objekt per Computergraphiksystem erzeugt werden.
  • Die Auflösung des Referenzsuchbildes muss dabei jeweils für jeden Suchvorgang so umgerechnet werden, dass die Gesamtansicht und ausreichend viele gut erkennbare charakteristische und möglichst unverwechselbare Details des Suchobjektes auf einer Bildfläche von jeweils 25 × 25 Pixel abgebildet werden können.
  • Der Merkmalsvektor eines Details wird erfindungsgemäß aus den Kenndaten von kleinen Bildflächen mit jeweils 5 × 5 Pixeln Größe gebildet. Als Kenndaten dienen hierbei die mit der Filtermatrix 406 gewichteten Mittelwerte der Gesamthelligkeit und die gewichteten Mittelwerte der normierten Helligkeiten der einzelnen Farbkomponenten der Bildflächen. Die einzelnen Bildflächen sind so gewählt, dass ihr Merkmalsvektor rotationsinvariant ist, also in jeder Drehlage gleich ist. Das ergibt den Rechenvorteil, dass der Merkmalsvektor für alle zwölf für die Tests verwendeten Drehlagen nur einmal berechnet werden muss.
  • Das Gesamtdetail wird nun aus einer speziellen Anordnung von neun jeweils kreisförmigen (im Rahmen der Pixelauflösung) Bildflächen 410 gebildet. Diese wird ergänzt durch vier ringförmige Bildflächen (im Rahmen der Pixelauflösung) 415, die eine 25 × 25 Pixel große Bildfläche 416 überdecken, zusammengesetzt. Die Positionierung der Bildteilflächen muss für jede getestete Drehlage 417 des Suchbildes separat berechnet werden. Dabei reichen bei der erfindungsgemäßen Wahl der Teilbildflächen in dem 25 × 25 Pixel große Bildfeld nur zwölf getestete Drehlagen aus, die durch einfache Koordinatentransformation der Teilbildflächen zu berechnen sind, um ein Suchbild in beliebiger Drehlage durch Korrelation des Referenzbildes mit dem Suchbild über die Merkmalsvektoren eindeutig zu erkennen und die Position und die Drehlage des gesuchten Objektes zu bestimmen und den Bildinhalt des Objektes durch Übereinstimmung der Merkmalsvektoren der charakteristischen Details eindeutig als Objekt vom Typ des getesteten Referenzbildes zu identifizieren.
  • Die Drehlage, die Position und der Merkmalsvektorinhalt des Referenzbildes relativ zum Suchbild mit dem verborgenen gesuchten Objekt, die den kleinsten Absolutbetrag der Summe der einzelnen Differenzsummen zu der getesteten Stelle in dem gerade getesteten Abschnitt des Suchbildes aufweist, und damit ein deutliches lokales Minimum des Absolutsummenbetrages in dem getesteten Abschnitt bildet, wird als erkannte Drehlage und Position und als erkannter Merkmalsvektor des gesuchten Objektes im Suchbild gewertet.
  • Die zu einem Zeitpunkt getesteten Abschnitte des Suchbildes müssen auf der Grundlage geometrischer Größen und Abstandsbedingungen und bekannter Eigenschaften des Referenzobjektes in der Größe so gewählt werden, dass in einem Abschnitt nicht zwei Instanzen des gerade gesuchten Details enthalten sein können.
  • Bei der Erstellung der Referenzbilddatenbank muss vorab zusätzlich an künstlich erstellten Testbildern geprüft werden, welche Tiefe das Minimum mindestens haben muss oder welchen Betrag der Absolutsummenbetrag maximal haben darf, damit ein Korrelationsversuch sinnvoll ist.
  • Besondere Vorteile dieser Multispektral bildverarbeitung und der vorstehend beschriebenen Multispektralbilderkennung liegen darin, dass bei den von der Teleskopkamera mit künstlicher Beleuchtung erzeugten Nachtbildern mit schlechtem Signal-zu-Rausch-Verhältnis die Bildaufnahme in zwei Stufen erfolgt und nachdem im Folgenden beschriebenen Verfahren ausgeführt wird.
  • Die Aufnahme der Bilder erfolgt sequentiell in Teilbildern nach dem Gated-View-Verfahren, zum Beispiel bei 7 km Entfernung mit 4,65 μsec Beleuchtungszeit und darauf folgend 4,65 μsec Belichtungszeit jeweils als Einzelbilder einer einzigen Spektralfarbe. Durch den alternierenden Betrieb wird eine Eigenblendung durch Streuobjekte wie Staub oder Regentropfen im Strahlengang in Kameranähe vermieden und eine blendungsfreie Beleuchtung über große Entfernungen von zum Beispiel 7 km ermöglicht.
  • Die Teilbilder werden über 9 msec zu einem rauschärmeren Gesamtbild einer Spektralfarbe aufsummiert und das so erhaltene Gesamtbild einer Spektralfarbe wird, wie nachstehend erläutert wird, aufbereitet.
  • Die Teleskopeingangslinse 401 erzeugt über den Umlenkspiegel 402 ein reelles Bild eines entfernten Zieles in der Bildebene der CCD-NIR-Kamera 403. Diese setzt das optische Bild in ein digitales Bild um, das in Form einer Bilddatei im Kontrollrechner 404 gespeichert wird und das dann dort digital weiterverarbeitet wird. Dazu wird ein zweidimensionales Filter mit einer Koeffizientenmatrix 407 auf alle Pixel des Bildes angewendet. Dieses Filter erzielt eine Glättung, eine Kantenschärfung und eine Kontrastverbesserung und außerdem eine Helligkeitsverbesserung um den Faktor 3 aufgrund der verwendeten Gewichte.
  • Vorteilhaft glättet dieses Filter den Helligkeitsverlauf, es entfernt und glättet Rauschpixel, die aus dem Hintergrund hervortreten, macht den Helligkeitsverlauf stetig und differenzierbar, verbessert den Bildkontrast und erhöht die Klarheit der Farben in einem Multispektralbild, wenn man das Filter auf alle Spektralkomponenten anwendet.
  • In dem geglätteten Gesamtbild einer Spektralfarbe kann die Position eines gesuchten Objektes pixelgenau durch Korrelation mit einem Musterbild des gesuchten Objektes in der korrekten Drehlage bestimmt werden, und das gesuchte Objekt kann so in einem Suchbild entdeckt und identifiziert werden. Die gemessene relative Position im Bild kann in die Nachführeinrichtung einer schnellen Autobildstabilisierungseinheit eingegeben werden, die dann über ein mechanisch schwenkbares optisches Fenster die Teleskopsichtlinienachse so nachfährt, dass das gefundene Objekt seine relative Position im Bild beibehält und vorteilhaft keine Bildunschärfe durch Verwackeln oder Luftunruhe entsteht.
  • Vorteilhaft werden die Gesamtbilder aller weiteren Spektralfarben aufgenommen, übereinander geschoben und zu einem Gesamtmultispektralbild des Objektes zusammengefasst, das aus einem Gesamtintensitätsbild und den Bildern der normierten Spektralfarbkomponenten besteht.
  • Weiter ist im Kamerasystem vorteilhaft eine automatisch arbeitende Multispektralbildauswerteeinrichtung im Kontrollrechner 404 vorgesehen, an die die Bilddaten der von der Kamera 403 aufgenommenen Bilder übertragen werden.
  • In dem geglätteten Gesamtmultispektralbild das die Multispektralbildauswerteeinrichtung liefert, können mit der Bilderkennungseinrichtung 405 die Existenz und die genaue Position eines gesuchten Objektes pixelgenau durch Korrelation einer Referenz- oder Muster-Repräsentation, bzw. eines Merkmalvektors des gesuchten Objekttyps, die vorteilhaft in der Einrichtung für die Speicherung der Musterdatenbank 409 bereit gehalten wird, mit einer Repräsentation bzw. einem Merkmalsvektor des gerade betrachteten Suchgebietes in der korrekten Drehlage, durch Austesten auf die beste Übereinstimmung die Existenz und die genaue Position eines in dem Suchbild enthaltenen Objektes bestimmt werden.
  • Dazu werden jeweils für eine für die Präsentation besonders geeignete Anordnung aus einem Feld von 25 mal 25 Pixeln, die sich aus einer Anordnung von 25 Blöcken aus je 5 mal 5 Pixeln ergibt, wie in 406 dargestellt ist, die Werte, die die Filterfunktion aus 407 für die Mittelpixel der 5 mal 5 Pixelblöcke ermittelt, als Merkmalsvektor für den Bildinhalt des 25 mal 25 Pixelblockes verwendet.
  • Es werden weiterhin die nach dem oben vorgestellten zweidimensionalen Matrixfilter 407 berechneten Pixelwerte berechnet und es wird jeweils das Suchmultispektralbild mit einem Mustermultispektralbild des gesuchten Objektes in der korrekten Drehlage verglichen. Die Position mit der besten Übereinstimmung wird bestimmt und so wird das gesuchte Objekt in einem Suchbild sehr zuverlässig entdeckt und identifiziert.
  • Die Musterrepräsentation eines größeren Objektes, zum Beispiel eines Eisberges wird dazu vorteilhaft mindestens eine Gesamtansicht und mehrere typische Zieldetails umfassen, die vorzugsweise aus unterschiedlichen Beobachtungsrichtungen von oben einsehbar sein müssen oder für möglichst sechs Beobachtungsrichtungen separat erstellt werden müssen. Das Objekt gilt dann als sicher identifiziert, wenn die Gesamtansicht und eine ausreichende Zahl von unverwechselbaren Details erkannt werden. Vor Beginn der Bildauswertung wird das Suchbild für jeden Suchvorgang jeweils in eine Pixelauflösung umgerechnet, bei der sich alle gewählten Suchreferenzbilder in einem Rasterfeld von 25 mal 25 Pixeln darstellen lassen.
  • Durch die volle Auswertung der Multispektralinformation und die sehr genaue Mustererkennung der erfindungsgemäßen Repräsentation der Zielobjekte wird eine viel zuverlässigere Zielerkennung als mit herkömmlichen Verfahren, zum Beispiel mit neuronalen Netzen und Bildpyramiden, erreicht.
  • Die Repräsentation bzw. der Merkmalsvektor des Objektbildes wird dabei vorteilhaft wie nachstehend beschrieben gebildet. Für die multispektrale Bilderkennung werden in dem Suchbild (25 × 25 Pixel groß) für jede Suchpixelposition 414 folgende Kennwerte berechnet:
    • 1) Der nach Matrix 407 gewichtete Mittelwert der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit für jeden einzelnen der neun markierten 5 × 5 Blöcke 410 und für alle vier Pixel 413 jeweils den Durchschnittswert der Mittelwerte für die jeweils acht in einem Ring angeordneten 5 × 5 Blöcke 411;
    • 2) Die Standardabweichung der einzelnen normierten Spektralkomponenten und der Gesamthelligkeit für jeden der neun markierten 5 × 5 Blöcke 410 und für alle vier Pixel 413 jeweils der Durchschnittswert der Standardabweichungen für die jeweils acht in einem Ring angeordneten 5 × 5 Blöcke 411;
    • 3) Die Werte nach 1) und 2) werden in zwölf über 360° verteilte Drehlagen (412) berechnet.
    • 4) Jeder Merkmalswertesatz in jeder Drehlage zu diesem Suchpixel wird durch Differenzbildung mit den Merkmalswerten für das gesuchte Referenzbild verglichen und der Wertesatz mit dem kleinsten Absolutbetrag der Differenzsumme, also der kleinsten Abweichung, wird als Repräsentant für dieses Suchpixel registriert;
    • 5) Das Suchbild wird nun in kleinere Teilbereiche zerlegt und das Suchpixel mit der kleinsten Differenzsumme wird in jedem Teilbereich gesucht. Der Wertesatz des Suchpixels mit der kleinsten Differenzsumme wird als erkanntes Zielbild interpretiert und an der betrachteten Suchpixelposition mit einem Pixel Auflösung und der Drehlage als entdecktes Ziel des Referenzzieltyps registriert.
  • Mittels dieser Bildauswerteeinrichtung lassen sich vorteilhaft bei ausreichender Auflösung der empfangenen Bilder wie beschrieben automatisch erfasste Objekte erkennen und bei Vorhandensein eines bekannten Musters durch einen Vergleich oder eine Korrelation mit Musterbildern bekannter Objekte mit bekannter Identität identifizieren.
  • Bezugszeichen in den Ansprüchen, der Beschreibung und den Zeichnungen dienen lediglich dem besseren Verständnis der Erfindung und sollen den Schutzumfang nicht einschränken.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102011010334 [0059]

Claims (10)

  1. Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen mit – zumindest einem unbemannten Luftfahrzeug (1), das mit zumindest einer Bilderfassungseinrichtung (10) ausgestattet ist; – zumindest einer Steuerungszentrale (40) zur Steuerung des zumindest einen unbemannten Luftfahrzeugs (1), wobei die Steuerungszentrale (40) über zumindest eine Signalübertragungsstrecke (42) zur Übertragung von Steuerungssignalen (S) und zur Rückübertragung von Fluginformationsdaten (F) mit dem zumindest einen Luftfahrzeug (1) verbunden ist; – zumindest einer Datenverarbeitungszentrale (44) mit einer Datenverarbeitungseinrichtung (45) zur Verarbeitung der von der zumindest einen Bilderfassungseinrichtung (10) erfassten Bilddaten, wobei die Datenverarbeitungszentrale (44) über zumindest eine Datenübertragungsstrecke (43) zur Übertragung der von der Bilderfassungseinrichtung (10) gewonnenen Bilddaten (B) mit dem zumindest einen Luftfahrzeug (1) verbunden ist; – einer der Datenverarbeitungszentrale (44) zugeordneten Eisberg-Datenbank (46), in der Bilder und Daten erfasster Eisberge gespeichert sind; – zumindest einer Eisberg-Bilderkennungseinrichtung (47), die ausgebildet ist, um die von der Bilderfassungseinrichtung (10) gewonnenen Bilddaten mit in der Eisberg-Datenbank (46) gespeicherten Bilddaten zu vergleichen, um erfasste Eisberge (20, 21, 22, 23) zu identifizieren.
  2. Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (10) eine mit einer Kameraoptik ausgerüstete Kamera (11) aufweist, wobei die Kameraoptik vorzugsweise als Teleskopoptik ausgebildet ist.
  3. Anordnung nach Anspruch 2, dadurch gekennzeichnet, dass die Kamera (11) vorwiegend im Blau-Grün-Spektrum und im Nahinfrarot-Spektrum lichtempfindlich ist.
  4. Anordnung nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass der Kamera (11) eine Objektbeleuchtungseinrichtung (14), vorzugsweise eine Laser-Blitzbeleuchtungseinrichtung, zugeordnet ist.
  5. Anordnung nach Anspruch 4, dadurch gekennzeichnet, dass die Objektbeleuchtungseinrichtung (14) das von der Kamera (11) erfasste Bildfeld (12) während einer Belichtungspause der Kamera (11) durch die Kameraoptik beleuchtet.
  6. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung (10) eine LIDAR-Einrichtung aufweist, die vorzugsweise im blau-grünen Spektralbereich arbeitet.
  7. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest eine Bildauswerteeinrichtung () vorgesehen ist, die ausgebildet ist, um aus den von der Bilderfassungseinrichtung (10) aufgenommenen Bildern eines Eisbergs dessen absolute oder relative Abmessungen zu bestimmen.
  8. Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest eine Trackingeinrichtung () vorgesehen ist, die ausgebildet ist, um aus den in der Eisberg-Datenbank (46) gespeicherten Daten eines Eisbergs dessen Bewegungsrichtung (D) und Bewegungsgeschwindigkeit (v) zu bestimmen.
  9. Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke unter Verwendung einer Anordnung gemäß einem der vorhergehenden Ansprüche, mit den Schritten: a) Erfassen von aus der Luft aufgenommenen Bilddaten von Eisbergen (20, 21, 22, 23) in einem vorgegebenen Seegebiet (2); b) Erfassen und Zuordnen von Positionsdaten des jeweiligen Eisbergs und Zeitpunktdaten der jeweiligen Erfassung im Schritt a) zu den Bilddaten; c) Ermitteln der absoluten und/oder relativen Abmessungen eines jeweiligen Eisbergs (20, 21, 22, 23); d) Klassifikation der erfassten Eisberge nach deren im Schritt c) ermittelten Größe; e) Speichern der in den Schritten a) bis d) gewonnenen Bilddaten, Dimensionsdaten, Zeitpunktsdaten und Positionsdaten in einer Eisberg-Datenbank (46); f) Einmaliges oder mehrmaliges Wiederholen der Schritte a) bis e) im vorgegebenen Seegebiet (2) und g) Bestimmen der Bewegungsrichtung (D) und der Bewegungsgeschwindigkeit (v) eines jeweiligen Eisbergs (20, 21, 22, 23) durch Vergleich der zu unterschiedlichen Zeitpunkten erfassten und in der Eisberg-Datenbank (46) gespeicherten Daten des jeweiligen Eisbergs (20, 21, 22, 23).
  10. Verfahren nach Anspruch 9, gekennzeichnet durch die weiteren Schritte: h) Bestimmen einer Bewegungsprognose für einen jeweiligen Eisberg (20, 21, 22, 23) auf der Grundlage der in Schritt g) bestimmten Bewegungsdaten sowie von Wind- und Meeresströmungsdaten und i) Ermitteln einer Kollisionswahrscheinlichkeit des Eisbergs (20, 21, 22, 23) mit zu schützenden Meeresbauwerken (3) auf der Grundlage der in Schritt h) bestimmten Bewegungsprognose.
DE201210020093 2012-10-12 2012-10-12 Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke Withdrawn DE102012020093A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201210020093 DE102012020093A1 (de) 2012-10-12 2012-10-12 Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201210020093 DE102012020093A1 (de) 2012-10-12 2012-10-12 Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke

Publications (1)

Publication Number Publication Date
DE102012020093A1 true DE102012020093A1 (de) 2014-04-17

Family

ID=50382930

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201210020093 Withdrawn DE102012020093A1 (de) 2012-10-12 2012-10-12 Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke

Country Status (1)

Country Link
DE (1) DE102012020093A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2577917C1 (ru) * 2014-10-07 2016-03-20 Федеральное государственное бюджетное "Арктический и Антарктический научно-исследовательский институт" (ФГБУ "ААНИИ") Способ определения места образования айсбергов выводных ледников
RU2621276C1 (ru) * 2016-04-08 2017-06-02 Федеральное государственное бюджетное учреждение "Арктический и Антарктический научно-исследовательский институт" (ФГБУ "ААНИИ") Способ мониторинга состояния дрейфующего ледяного поля или припая и прогноза его разлома при сжатии льдов и воздействии волн зыби
WO2018154181A1 (en) * 2017-02-21 2018-08-30 Rolls-Royce Oy Ab Detection of ice channel by lidar
CN108709541A (zh) * 2018-08-01 2018-10-26 大连理工大学盘锦产业技术研究院 一种海洋平台海冰监测装置及其方法
CN111553262A (zh) * 2020-04-26 2020-08-18 上海微阱电子科技有限公司 一种快速检测目标图形的检测装置及方法
CN112268548A (zh) * 2020-12-14 2021-01-26 成都飞机工业(集团)有限责任公司 一种基于双目视觉的飞机局部外形测量方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1084617A (en) * 1976-11-24 1980-08-26 C. Peter Benedict Iceberg detector
US4885591A (en) * 1983-09-28 1989-12-05 Mobil Oil Corp. Method and apparatus for monitoring ice masses
WO1996013733A1 (de) * 1994-10-27 1996-05-09 Dornier Gmbh Verfahren zur überwachung des schiffsverkehrs auf see mit erkennung von ölverschmutzungen und potentiellen schiffskollisionen
US20090271054A1 (en) * 2006-09-13 2009-10-29 Marine & Remote Sensing Solutions (Marss) Manoeuvre and safety system for a vehicle or an installation
US20100138644A1 (en) * 2007-04-13 2010-06-03 Yannacone Jr Victor John System and method for dynamic data mining and distribution of maritime data
US20120316769A1 (en) * 2011-05-23 2012-12-13 Ion Geophysical Corporation Marine Threat Monitoring and Defense System
DE102011010334A1 (de) 2011-02-04 2013-01-03 Eads Deutschland Gmbh Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
DE102011113153A1 (de) * 2011-09-14 2013-03-14 Deutsches Zentrum für Luft- und Raumfahrt e.V. Unterstützungssystem
US20130099960A1 (en) * 2011-10-21 2013-04-25 Conocophillips Company Ice data collection, processing and visualization system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1084617A (en) * 1976-11-24 1980-08-26 C. Peter Benedict Iceberg detector
US4885591A (en) * 1983-09-28 1989-12-05 Mobil Oil Corp. Method and apparatus for monitoring ice masses
WO1996013733A1 (de) * 1994-10-27 1996-05-09 Dornier Gmbh Verfahren zur überwachung des schiffsverkehrs auf see mit erkennung von ölverschmutzungen und potentiellen schiffskollisionen
US20090271054A1 (en) * 2006-09-13 2009-10-29 Marine & Remote Sensing Solutions (Marss) Manoeuvre and safety system for a vehicle or an installation
US20100138644A1 (en) * 2007-04-13 2010-06-03 Yannacone Jr Victor John System and method for dynamic data mining and distribution of maritime data
DE102011010334A1 (de) 2011-02-04 2013-01-03 Eads Deutschland Gmbh Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
US20120316769A1 (en) * 2011-05-23 2012-12-13 Ion Geophysical Corporation Marine Threat Monitoring and Defense System
DE102011113153A1 (de) * 2011-09-14 2013-03-14 Deutsches Zentrum für Luft- und Raumfahrt e.V. Unterstützungssystem
US20130099960A1 (en) * 2011-10-21 2013-04-25 Conocophillips Company Ice data collection, processing and visualization system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2577917C1 (ru) * 2014-10-07 2016-03-20 Федеральное государственное бюджетное "Арктический и Антарктический научно-исследовательский институт" (ФГБУ "ААНИИ") Способ определения места образования айсбергов выводных ледников
RU2621276C1 (ru) * 2016-04-08 2017-06-02 Федеральное государственное бюджетное учреждение "Арктический и Антарктический научно-исследовательский институт" (ФГБУ "ААНИИ") Способ мониторинга состояния дрейфующего ледяного поля или припая и прогноза его разлома при сжатии льдов и воздействии волн зыби
WO2018154181A1 (en) * 2017-02-21 2018-08-30 Rolls-Royce Oy Ab Detection of ice channel by lidar
CN108709541A (zh) * 2018-08-01 2018-10-26 大连理工大学盘锦产业技术研究院 一种海洋平台海冰监测装置及其方法
CN111553262A (zh) * 2020-04-26 2020-08-18 上海微阱电子科技有限公司 一种快速检测目标图形的检测装置及方法
CN111553262B (zh) * 2020-04-26 2023-09-01 上海微阱电子科技有限公司 一种快速检测目标图形的检测装置及方法
CN112268548A (zh) * 2020-12-14 2021-01-26 成都飞机工业(集团)有限责任公司 一种基于双目视觉的飞机局部外形测量方法

Similar Documents

Publication Publication Date Title
DE102011010334B4 (de) Kamerasystem und Verfahren zur Beobachtung von Objekten in großer Entfernung, insbesondere zur Überwachung von Zielobjekten bei Nacht, Dunst, Staub oder Regen
EP0842395B1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
DE102012020093A1 (de) Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke
EP2711734A2 (de) Luftraumüberwachungssystem zur Erfassung von innerhalb eines zu überwachenden Gebiets startenden Raketen sowie Verfahren zur Luftraumüberwachung
EP1405097B1 (de) Verfahren und vorrichtung zur unterdrückung elektromagnetischer hintergrundstrahlung in einem bild
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
EP3693698A1 (de) Vermessungsgerät mit ereignisbasierter kamera
EP0355310A2 (de) System zum Erkennen des Starts und des Anflugs von Objekten
DE19515176A1 (de) Autonomes Rendezvous- und Dockingsystem und Verfahren für dieses
WO2007009759A1 (de) Verfahren und lidar-system zur messung von luftturbulenzen an bord von luftfahrzeugen sowie für flughäfen und windfarmen
DE102006060091A1 (de) Verfahren, Satellit und ein System bzw. eine Anordnung mit wenigstens einem Satellit zur Erkennung von Flugkörpern sowie deren Verwendung zur Durchführung des Verfahrens
DE69532037T2 (de) Beobachtungen von unterhalb einer unruhigen wasseroberfläche
WO2018099949A1 (de) Verfahren und vorrichtung zur georeferenzierung von luftbilddaten mit hilfe von sar-bilddaten
DE202006014939U1 (de) Optiksystem zur Erfassung einer dreidimensionalen Superweitwinkelszene
EP2907105A2 (de) Verfahren zur bildaufbereitung und verfahren zur bahnverfolgung von raketen
DE19851010A1 (de) Einrichtung zur Erkennung und Lokalisierung von Laserstrahlungsquellen
EP2671092A1 (de) Kamerasystem zur erfassung und bahnverfolgung von in grosser entfernung befindlichen bewegten objekten
DE102019201490A1 (de) Kalibriereinrichtung für eine Überwachungsvorrichtung, Überwachungsvorrichtung zur Man-Overboard-Überwachung sowie Verfahren zur Kalibrierung
EP3139347B1 (de) Verfahren zum bestimmen einer ausrichtung eines objekts
AT16975U1 (de) System zur Bestimmung und/oder Vorhersage einer Position und/oder einer Flugbahn von orbitalen Objekten im Weltraum
DE102009020709A1 (de) Verfahren und Vorrichtung zur Überwachung und Detektion von Zuständen der Luft und Bewuchs in Waldgebieten mit selbstlernenden Analyseverfahren zur Generierung von Alarmwahrscheinlichkeiten
DE102017208485A1 (de) Anordnung und Verfahren zur berührungslosen Entfernungsbestimmung nach Art des Lichtschnittverfahrens
DE10359868B3 (de) Verfahren zur Erkennung von sich hinter einem Flugzeug bildendem/n Kondensstreifen sowie Einrichtung zur Durchführung des Verfahrens
EP3591427B1 (de) Flugkörperwarner und ein verfahren zum warnen vor einem flugkörper
DE102018122319A1 (de) Verfahren zum Erkennen einer Störung in einem System

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: AIRBUS DEFENCE AND SPACE GMBH, DE

Free format text: FORMER OWNER: EADS DEUTSCHLAND GMBH, 85521 OTTOBRUNN, DE

Effective date: 20140814

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee