-
TECHNISCHES GEBIET
-
Die
Erfindung betrifft ein Kollisionswarnsystem für Seefahrzeug sowie ein Verfahren
zur Kollisionswarnanalyse durch Bearbeitung von Bildern, die von
einem optischen Allrichtungssensor kommen, der an Bord eines Seefahrzeugs
installiert ist.
-
Die
Erfindung wird insbesondere aber nicht ausschließlich auf Schiffe und Schiffsdrohnen
angewandt.
-
FRÜHERER STAND DER TECHNIK
-
In
der folgenden Beschreibung ist das Seefahrzeug, das beispielhaft
betrachtet wird, ein Schiff.
-
Die
Kollisionsgefahr, die auf See schlecht beherrscht wird, rührt zum
großen
Teil von einer Unzulänglichkeit
der optischen Überwachungsmittel
her. In dem Gebiet des Seefrachtverkehrs treten im Durchschnitt
600 Kollisionen pro Jahr auf. Die Konsequenzen dieser Kollisionen
sind für
die Umwelt oft schwerwiegend, wenn sie Erdöltanker oder chemische Tanker
betreffen.
-
In
dem Gebiet des Seepassagierverkehrs haben die Schiffe (Ferry, Ro-Ro-Frachter
usw.) eine hohe Anfälligkeit.
-
In
dem Gebiet der Fischerei treten jährlich etwa 3000 Kollisionen
auf. Die Anzahl der Opfer ist aufgrund der kleinen Maße der Schiffe
groß.
-
In
dem Gebiet der Vergnügungsschifffahrt sind
die Kollisionen ebenfalls ziemlich häufig.
-
Die
Kollisionen auf See resultieren im Wesentlichen aus einem Überwachungsmangel.
Ein menschliches Versagen ist der Ursprung von 70 bis 90% der Unfälle, entweder
durch unzu reichende Aufmerksamkeit oder Nachlässigkeit des Schiffswachepersonals
oder durch Routine und falsche Einschätzung der Gefahr. Der Mangel
an Wachsamkeit wird oft festgestellt, wenn sich das Schiff in einer „Vorrangssituation" befindet, und zwar
bei guter Sicht. Die Unfälle
können
auch aus einem Mangel an Qualifikation, Unkenntnis der Regeln ja
sogar totaler Inkompetenz des Schiffswachepersonals resultieren. Es
ist ferner häufig,
dass die Personalzahl der Schiffswache aufgrund einer Verringerung
der Besatzungszahlen unzureichend ist (Manöver, Instandhaltung, Handelstätigkeiten
usw.), mit der Folge einer Überarbeitung
und daher angesammelter Müdigkeit des
Schiffswachepersonals. Diese Unfälle
können auch
von einem unsachgemäßen Gebrauch
des Radarsystems herrühren.
-
Derzeit
verfügen
die meisten gewerblich genutzten Schiffe als Kollisionswarnausstattung
ein Radarsystem. Dieses System liefert eine präzise und zuverlässige Information,
erfordert jedoch das strenge Anwenden einer Einstellvorgehensweise,
um effizient als Kollisionswarnsystem verwendet werden zu können. Diese
Vorgehensweise wird nun aber oft unsachgemäß angewandt.
-
Es
gibt auch Systeme des Typs ARPA („Automatic Radar Plotting
Aid"), die die Signale,
die von einem Radar geliefert werden, analysieren. Diese Systeme
weisen eine hohe Rate an Fehlalarmen auf. Deshalb wird die zu dem
System gehörende
Alarmvorrichtung häufig
ausgeschaltet.
-
Ferner
wurde ein automatisches Identifikationssystem AIS („Automatic
Identification System") entwickelt,
das alle Schiffe mit hoher Gefahr ab 2010 ausstatten muss (Passagiertransport,
Gefahrenguttransporte). Dieses System erweist sich als sehr effizient,
wenn es mit einem präzisen
Positionierungssystem kombiniert wird, wie zum Beispiel einem GPS-System
(„Global
Positioning System").
Das AIS- System berücksichtigt
jedoch die Zirkulation der viel zahlreicheren Schiffe, die mit diesem
System nicht ausgestattet sind, nicht.
-
Heute
wird allein der Radar wirklich zur Bearbeitung der Kollisionsgefahr
berücksichtigt.
Diese Ausstattung weist einen Redundanznachteil auf.
-
Die
Erfindung hat zur Aufgabe, diesen Nachteilen abzuhelfen, indem sie
ein vollautomatisches Kollisionswarnsystem und ein Kollisionswarnanalyseverfahren
vorschlägt.
-
DARLEGUNG DER ERFINDUNG
-
Die
Erfindung betrifft ein Kollisionswarnsystem, das an Bord eines Seefahrzeugs
installiert wird, umfassend:
- – mindestens
einen optischen Sensor, der mindestens teilweise den Horizont des
Seefahrzeugs abdeckt und Bilder liefert,
- – Bildbearbeitungsmittel,
um in Echtzeit in jedem von dem optischen Sensor gelieferten Bild
aneinander grenzende Pixelgruppen in Abhängigkeit von der Leuchtintensität des Bilds
zu suchen, um in Echtzeit die Beständigkeit der Pixelgruppe in aufeinander
folgenden Bildern zu bewerten, um in Echtzeit Gruppen, die sichtbare
Objekte auf der Oberfläche
des Meeres bilden, in Abhängigkeit von
ihrer Beständigkeit
zu bestimmen, und um in Echtzeit Informationen über die Position und die Dimension
mindestens eines der sichtbaren Objekte zu bestimmen,
- – Kollisionsanalysemittel,
um periodisch die Entwicklung der Informationen über die Position und Dimension
des sichtbaren Objekts zu berechnen und eine Kollisionsgefahr des
Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit von der Entwicklung
der Informationen über
die Position und Dimension des sichtbaren Objekts zu bewerten. Gemäß einer
Ausführungsform
der Erfindung weist der optische Sensor mindestens eine in Bezug
auf das Seefahrzeug feste Kamera auf und deckt mindestens einen
wesentlichen Teil des Horizonts permanent ab.
-
Gemäß einer
Ausführungsform
der Erfindung weist der optische Sensor mindestens eine Kamera auf,
deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation
abzudecken.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst der optische Sensor:
- – eine Kamera,
umfassend ein Objektiv mit einer optischen Achse, die im Wesentlichen
vertikal ausgerichtet ist,
- – eine
Dreheinheit, die von einem Motor bewegt wird und einen Spiegel trägt, der
in dem optischen Feld des Objektivs angeordnet und im Wesentlichen
um 45° zur
optischen Achse des Objektivs ausgerichtet ist, und
- – eine
Vorrichtung zum Messen der Winkelposition der Dreheinheit.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst das System:
- – ein Gehäuse, das
von einem Sockel gebildet wird, der als Stütze dient, und
- – eine
stabilisierte Wanne, die auf einer Stabilisierungsvorrichtung montiert
ist und als Stütze
für den
optischen Sensor dient.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst die Stabilisierungsvorrichtung eine Kardanaufhängung und
ein Kreiselrad.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst der Sensor eine Einlinienkamera, die in Rotation
um eine Vertikalachse angetrieben wird.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst das System:
- – ein Gehäuse,
- – eine
Dreheinheit, die in dem Gehäuse
gehalten und von einem Motor mit Vertikalachse bewegt wird,
- – eine
Schutzkappe der Dreheinheit, die mit einer Öffnung versehen ist,
- – eine
Digitalkamera, die an der Dreheinheit befestigt ist und einen Einlinien-Sensor
umfasst,
- – ein
Objektiv, dessen optische Achse den Horizont durch Rotation der
Dreheinheit abtasten kann.
-
Gemäß einer
Ausführungsform
der Erfindung weist der Sensor eine Schutzscheibe auf, die mit Hilfe
eines Sauggebläses
belüftet
wird, um das Objektiv zu schützen.
-
Gemäß einer
Ausführungsform
der Erfindung sind Elektronikkarten zur Bildbearbeitung mit der
Dreheinheit fest verbunden.
-
Gemäß einer
Ausführungsform
der Erfindung weist das System eine Vorrichtung zum Messen der Winkelposition
der Dreheinheit auf.
-
Gemäß einer
Ausführungsform
der Erfindung werden die digitalen Ausgangsdaten des optischen Sensors über Drehkontakte übertragen,
die auch den Kontakt der Versorgung der Elemente der Dreheinheit
sicherstellen. Gemäß einer
Ausführungsform
der Erfindung umfasst das System Schnittstellenmittel mit einem
Kompass.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst das System Schnittstellenmittel mit weiteren
Sensoren und Analysemittel, die eine Kohärenzanalyse mit von den anderen
Sensoren gelieferten Informationen durchführen.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst das System Anzeigemittel, um anzuzeigen, dass
ein gefährliches
Objekt erfasst wird.
-
Gemäß einer
Ausführungsform
der Erfindung umfassen die Informationen über die Position jedes sichtbaren
Objekts einen Azimut des Objekts.
-
Die
Erfindung betrifft auch ein Kollisionswarnverfahren in einem Kollisionswarnsystem
für Seefahrzeug,
das mindestens einen optischen Sensor umfasst, der mindestens teilweise
den Horizont des Seefahrzeugs abdeckt. Erfindungsgemäß umfasst
das Verfahren die Schritte, die in Folgendem bestehen:
- – vom
optischen Sensor Bilder erhalten, die einen Teil des Horizonts des
Seefahrzeugs einschließen,
- – in
Echtzeit in jedem erhaltenen Bild aneinander grenzende Pixelgruppen
in Abhängigkeit
von der Leuchtintensität
jedes Pixels des Bilds suchen,
- – in
Echtzeit die Beständigkeit
jeder Pixelgruppe in aufeinander folgenden Bildern bewerten,
- – in
Echtzeit Gruppen, die sichtbare Objekte auf der Oberfläche des
Meeres bilden, in Abhängigkeit
von ihrer Beständigkeit
bestimmen,
- – in
Echtzeit Informationen über
die Position und die Dimension mindestens eines der sichtbaren Objekte
bestimmen,
- – periodisch
die Entwicklung der Informationen über die Position und die Dimension
mindestens des sichtbaren Objekts berechnen,
- – eine
Kollisionsgefahr des Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit
von der Entwicklung der Informationen über die Position und Dimension
des sichtbaren Objekts bewerten, wobei ein sichtbares Objekt als
gefährlich
betrachtet wird, wenn eine Gefahr einer Kollision des Seefahrzeugs
mit dem sichtbaren Objekt besteht.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst das Verfahren Schritte des Anzeigens von Informationen
zu jedem gefährlichen
Objekt und des Entsendens eines Warnsignals, sobald ein neues gefährliches
Objekt erfasst wird.
-
Gemäß einer
Ausführungsform
der Erfindung umfasst die Suche benachbarter Pixelgruppen in jedem
Bild die Schritte, darin bestehend:
- a) den
verwendbaren Teil des vom optischen Sensor gelieferten Bilds einzurahmen,
- b) die durchschnittliche Leuchtintensität der Pixel auf mindestens
dem verwendbaren Teil des Bilds zu messen,
- c) jedes Pixel des verwendbaren Teils des Bilds mit der durchschnittlichen
Leuchtintensität
zu vergleichen und dem Pixel einen Binärwert in Abhängigkeit
vom Ergebnis des Vergleichs zuzuteilen,
- d) Pixel mit einem gegebenen Binärwert zu suchen, die aneinander
grenzende Pixelgruppen bilden. Gemäß einer Ausführungsform
der Erfindung umfasst das Einrahmen des verwendbaren Teils eine
automatische Erfassung der Horizontlinie.
-
Gemäß einer
Ausführungsform
der Erfindung werden die Schritte des Bestimmens der Informationen über die
Position und die Dimension, des periodischen Berechnens der Entwicklung
der Informationen über
die Position und die Dimension und die Bewertung einer Kollisionsgefahr
für jedes
Bild ausgeführt.
-
KURZBESCHREIBUNG DER FIGUREN
-
Diese
Objekte, Merkmale und Vorteile sowie weitere der vorliegenden Erfindung
werden ausführlicher
in der folgenden Beschreibung von Ausführungsformen dargelegt, die
beispielhaft und nicht einschränkend
in Verbindung mit den anliegenden Figuren erfolgt, unter welchen:
-
1 ein
erfindungsgemäßes System
auf einem Schiff installiert veranschaulicht,
-
2 in
Blockform die Funktionen des erfindungsgemäßen Systems veranschaulicht,
-
die 3A und 3B eine
erste Ausführungsform
des erfindungsgemäßen Systems
veranschaulichen,
-
die 4A und 4B eine
zweite Ausführungsform
des erfindungsgemäßen Systems
veranschaulichen,
-
die 5A und 5B eine
dritte Ausführungsform
des erfindungsgemäßen Verfahrens
veranschaulichen,
-
die 6A und 6B ein
Kollisionsgefahranalysekonzept an das erfindungsgemäße Verfahren angewandt
veranschaulichen.
-
AUSFÜHRLICHE
DARLEGUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
-
Wie
auf 1 veranschaulicht, umfasst das erfindungsgemäße System:
- – eine
Einheit optischer Sensoren 10, die hier in den Aufbauten
eines Schiffs 12 angeordnet ist, und
- – einen
Rechner 13, der in der Kommandobrücke des Schiffs angeordnet
ist.
-
Wie
auf 2 veranschaulicht, weist das erfindungsgemäße System
auf funktionalem Niveau zwei Segmente auf, nämlich ein optisches Segment SO
und ein taktisches Segment ST.
-
Das
optische Segment umfasst:
- – einen oder mehrere optische
Sensoren 10, die mindestens zum Teil den Horizont des Seefahrzeugs
abdecken,
- – Schnittstellenmittel
IFC der Sensoren mit dem Rechner, die das Erfassen der von dem Sensor gelieferten
Bilder und das Steuern der Sensoren sicherstellen, und
- – Bildbearbeitungsmittel
IMP, die das Extrahieren der Positionsinformationen von Objekten
sicherstellen.
-
Das
taktische Segment ST umfasst:
- – Kollisionswarnanalysemittel
ACOL, die eine periodische Berechnung der Entwicklung der Informationen über die
Position jedes sichtbaren Objekts ausführen und eine Kollisionsgefahr
des Seefahrzeugs mit jedem sichtbaren Objekt bewerten, und
- – eine
Bediener-Maschinenschnittstelle IHM, die in den Steuerposten des
Seefahrzeugs integriert oder dezentral entfernt installiert werden
kann und Anzeigemittel aufweist, um anzuzeigen, dass ein gefährliches
Objekt erfasst wurde.
-
Die
Einheit optischer Sensoren 10 deckt vorteilhafterweise
den gesamten Horizont über
360° oder
einen signifikanten Abschnitt dieses ab. Je nach der Konfiguration
des Schiffs und insbesondere je nach den Maßen seiner Aufbauten, kann
es vorzuziehen sein, über
einen einzigen oder mehrere Sensoren zu verfügen. Idealerweise erlauben
auf einem großen
Frachtschiff drei Sensoren, einer davon am Bug des Schiffs und einer
auf jeder Seite der Aufbauten, das Abdecken des gesamten Horizonts,
inklusive der Nahabschnitte, die von den Aufbauten für einen
Beobachter, der sich auf der Kommandobrücke des Schiffs befindet, verdeckt
werden.
-
Bei
einer ersten Ausführungsform
der Erfindung weist jeder Sensor eine Kamera auf, deren optisches
Feld ausrichtbar ist, um den Horizont durch Rotation zu decken.
Bei einer zweiten Ausführungsform
der Erfindung weist jeder Sensor eine ausrichtbare Einlinienkamera
auf, die auf einen festen Träger montiert
ist. Bei einer dritten Ausführungsform
der Erfindung weist jeder Sensor eine oder mehrere in Bezug zu dem
Seefahrzeug feste Kameras auf, die mindestens einen wesentlichen
Teil des Horizonts ständig
abdecken.
-
Aufgrund
der Bewegungen des Trägerschiffs,
geht es darum, den besten Kompromiss zwischen der Auflösung der
Kamera und der Stabilitätsanforderung
zu finden. Zwei Lösungen
können
in Betracht gezogen werden:
- – entweder
montiert man die Kamera auf eine stabilisierte Plattform, um das
Bild auf der Nutzzone um den Horizont zu zentrieren,
- – oder
man verwendet eine Information über
die Lage des Schiffs (Rollwinkel und Nickwinkel), um nur den verwendbaren
Teil des Bilds zu bearbeiten (Punkte, die sich in einer bestimmten
Entfernung in Pixeln über
oder unter der Horizontlinie befinden). Diese Information kann entweder
von einem externen Sensor (Lagezentrale), oder von einer Bildverarbeitung
(Erfassen der Horizontlinie), wenn der Horizont sichtbar ist, stammen.
-
Bei
der ersten Ausführungsform,
die auf den 3A und 3B veranschaulicht
ist, umfasst der optische Sensor 10 eine Kamera, deren
optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken.
Die Kamera ist auf eine durch ein Gyroskop stabilisierte Plattform
montiert. Der Sensor 10 umfasst:
- – ein Gehäuse 21,
das aus einem Sockel 22 besteht, der als Stütze dient,
und einer durchsichtigen Schutzkuppel 23,
- – einer
stabilisierten Wanne 24, die auf eine Stabilisierungsvorrichtung
montiert ist, die aus einer Kardanaufhängung 25 und einem
Kreiselrad 26 besteht, angetrieben von einem Elektromotor 27,
- – einer
Kamera 28, die auf der stabilisierten Wanne befestigt ist
und ein auf den Zenit ausgerichtetes Objektiv 29 trägt,
- – eine
Dreheinheit 30, die in der stabilisierten Wanne montiert
ist, bewegt von einem Drehmotor 31 mit Vertikalachse, angeordnet
in dem unteren Teil der stabilisierten Wanne, und die in ihrem oberen
Teil einen Spiegel 32 und eine Sonnenblende 33 aufweist,
wobei es der auf 45° ausgerichtete
Spiegel der optischen Achse des Spiegels 32 erlaubt, eine
horizontale Ebene durch die Drehung der Dreheinheit 30 abzutasten,
wobei die Strahlen von dem Spiegel 32 derart reflektiert werden,
dass sie das Objektiv der Kamera erreichen, wobei der Motor 31 die
Dreheinheit über
ein Untersetzungsgetriebe antreibt, und
- – eine
Messvorrichtung der Winkelposition der Dreheinheit oder Resolver 34,
eventuell in den Motor 30 integriert, wenn dessen Technologie
es erlaubt (Schrittmotor).
-
Je
nach den verwendeten Werkstoffen (Legierungen und/oder Verbundwerkstoffe),
kann die Einheit des Gehäuses 21 eine
Gesamtmasse geringer als 2 kg und ein Volumen kleiner als 2 Liter
aufweisen.
-
Versuche
am Prototyp mit einer Drehzahl des Kreiselrads 26 von 9900
U/Min. haben es erlaubt, eine Stabilität sicherzustellen, die durch
eine Winkelgeschwindigkeit der Wanne kleiner als 60 mrad/s (Milliradian
pro Sekunde) in 99% der Fälle
gekennzeichnet ist. Die Stabilisierungsvorrichtung gibt mit einer
Integrationsdauer von 1/1000 Sekunde ein „Bewegen" kleiner als 1/8 Pixel für eine Roll-/Nicktoleranz
des Schiffs von +/–25°. Eine derartige
Leistung kann noch mit einem Produkt industrieller Herstellung (Bearbeitungen,
Justierungen und Toleranz der Kugellager) und einer Drehzahl des
Kreiselrads von 15000 U/Min. verbessert werden.
-
Die
Kamera 28 weist zum Beispiel die folgenden Merkmale auf:
- – eine
CCD-Zelle 1/3'', die eine Nutzung
in Echtzeit mit einem Standardformat (JPEG) erlaubt,
- – ein
hochauflösendes
Videoformat XGA (1024×768
Pixel), das den besten Kompromiss zwischen der Winkelöffnung des
Objektivs 29 (36° in
Diagonale) und der angestrebten Winkelauflösung bietet, und
- – ein
Objektiv 29 mit Brennweite 9 mm.
-
Bei
einer zweiten Ausführungsform,
die auf den 4A und 4B veranschaulicht
ist, umfasst der optische Sensor 10 eine ausrichtbare Einlinienkamera,
die auf einen festen Träger
montiert ist.
-
Genauer
genommen umfasst der optische Sensor:
- – ein zylindrisches
Gehäuse 41,
das an der Bemastung des Schiffs befestigt ist,
- – eine
Dreheinheit 42, die in dem Gehäuse 41 von Kugellagern 43 gehalten
und von einem Drehmotor 44 mit Vertikalachse bewegt wird,
der in dem unteren Teil des Gehäuses
platziert ist, wobei der obere Teil der Dreheinheit eine zylindrische Schutzkappe 45 aufweist,
die mit einem rechteckigen Fenster 49 versehen ist, das
es dem optischen Strahl erlaubt, die Kappe zu durchqueren und das
Objektiv zu erreichen,
- – eine
digitale Kamera 46, die an der Dreheinheit 42 befestigt
ist und deren Einlinien-Sensor 47 über dem Körper der Kamera versetzt angeordnet ist;
der Sensor umfasst typisch 512 bis 8192 elementare Fotozellen, die
in einer senkrechten Linie angeordnet sind,
- – ein
Objektiv 48 mit einer Winkelöffnung typisch von 30 bis 55°, das derart
angeordnet ist, dass seine optische Achse den Horizont mit der Drehung
der Dreheinheit 42 abtastet, und
- – eine
Klappe 50, die so angeordnet ist, dass sie die rechteckige Öffnung 49 verschließt, wenn
sich das System im Stillstand befindet, um das Innere des Sensors
vor Gischt und Regen zu schützen; das
Bewegen der Klappe erfolgt mit Hilfe einer Magnetsteuerung 51.
-
Wenn
das System in Betrieb ist, wird der Schutz des Objektivs 48 vor
Regenspritzern, die die rechteckige Öffnung 49 überschreiten,
von einer Schutzscheibe 52 sichergestellt, die mit Hilfe
eines Sauggebläses 53 belüftet wird,
das in eine Trockendüse 54 Luft
einbläst,
die durch die verschiedenen Wärmequellen
der Dreheinheit und des Gehäuses erhitzt
wird (Drehmotor, Elektronik und Kamera).
-
Die
Elektronikkarten 56, die den Rechner und die Schaltkreise
enthalten, die zu dem Kollisionswarnsystem gehören, sind mit der Dreheinheit 42 fest verbunden.
-
Die
Dreheinheit 42 trägt
auch einen Peilungscodierer 57, der die Winkelposition
der Dreheinheit misst.
-
Die
digitalen Ausgangsdaten des Kollisionswarnsystems werden über einen
Drehkontakt 58 übertragen,
der auch den Transfer von Daten, die von dem Kompass des Schiffs
stammen, zu dem Rechner, sowie den Kontakt der Versorgung der Organe der
Dreheinheit 42 sicherstellt.
-
Bei
der zweiten Ausführungsform
wird das Panoramabild des Meers über
360° um
den Sensor 10 durch das Abtasten des optischen Pinsels,
der durch Drehen des Einlinien-Sensors bestimmt wird, ausgeführt. Die
vertikale Winkelöffnung
dieses Pinsels wird derart ausgewählt, dass sie den Ausrichtungsnutzbereich
im Geländewinkel
sogar bei Roll-/Nickbewegungen
abdeckt.
-
Die
Winkelauflösung
des Bilds hängt
von der horizontalen und vertikalen Auflösung ab.
-
Die
horizontale Winkelauflösung
des Bilds hängt
von der Drehzahl und der Linienlesefrequenz ab. Die existierenden
linearen Kameras haben Linienlesefrequenzen, die typisch von 6 bis
87 kHz gehen. In der Praxis hängt
das Limit der Lesefrequenz von den Beleuchtungsbedingungen und der
Lichtempfindlichkeit ab. Für
eine Drehzahl typisch von 0,12 bis 2 Umdrehungen pro Sekunde, liegt
die horizontale Auflösung
zwischen 0,01 und 2 mrad/Pixel (Milliradian pro Pixel).
-
Die
vertikale Winkelauflösung
wird durch die Anzahl Pixel des Sensors und die Winkelöffnung des Objektivs
bestimmt. Für
eine Anzahl Pixel von 512 bis 8192 und eine vertikale Winkelöffnung zwischen 4
und 45° liegt
die vertikale Auflösung
zwischen 0,01 und 1,5 mrad/Pixel.
-
Bei
einer dritten Ausführungsform,
die auf den 5A und 5B veranschaulicht
ist, umfasst der optische Sensor 10 eine Einheit stationärer Kameras.
Genauer genommen umfasst der optische Sensor:
- – ein Gehäuse 61,
das an dem Aufbau des Schiffs befestigt ist und eine mit einer Scheibe
verschlossene Öffnung 62 aufweist,
- – eine
oder mehrere digitale Kameras 63 (typisch vier), die an
dem Gehäuse 61 befestigt
sind,
- – ein
Objektiv 64 für
jede Kamera 63, wobei die Einheit der Objektive derart
angeordnet ist, dass die Sektoren, die sie abtasten, einen wesentlichen Abschnitt
des Horizonts (typisch 187°)
abdecken, und
- – eine
Anschluss- und Multiplexvorrichtung 65, die es erlaubt,
die von allen Kameras stammenden Bilder gleichzeitig zu verarbeiten.
Diese Vorrichtung kann eine Elektronikkarte enthalten, die einen
Teil der Bildbearbeitung ausführt.
-
Bei
dieser dritten Ausführungsform
hängt die Auflösung der
Bilder von den Bewegungen der Plattform des Trägerschiffs ab. Typisch erlaubt
es auf einem großen
Schiff mit einem auf +/–10° eingeschränkten Rollen
der Einsatz der Kameras mit einer Definition von 1280×1024 Pixeln
und Objektiven zu 8 bis 12 mm, die erforderliche Auflösung unter
allen Beleuchtungsbedingungen für
eine Erfassungsreichweite bis zu 10.000 Meter zu erzielen.
-
Die
Schnittstelle mit den optischen Sensoren (Karte und Elektronikschaltkreis
und/oder Software, und/oder verdrahtete Anschlüsse, und/oder drahtlose Anschlüsse) zwischen
den optischen Sensoren und dem dazugehörenden Rechner ist an die ausgewählte Architektur
angepasst. Diese Schnittstelle kann daher Folgendes umfassen:
- – eine
in den Rechner eingebaute Schnittstelle,
- – eine
in die Sensoren eingebaute Schnittstelle,
- – eine
Schnittstelle in einem Zwischengehäuse.
-
Die
Schnittstelle mit den optischen Sensoren gewährleistet zwei Funktionen:
- – das
Erfassen der Bilder und in dem Fall, in dem die Sensoren eine Dreheinheit
aufweisen, das Erfassen der Ausrichtungsmessung, und
- – das
Steuern der Sensoren, das heißt
das Steuern der Kameras, und, in dem Fall, in dem die Sensoren eine
Dreh einheit aufweisen, das Steuern der Ausrichtungsmotoren.
-
Bei
der ersten oben beschriebenen und auf den 3A und 3B veranschaulichten
Ausführungsform,
bei der der optische Sensor 10 eine Kamera aufweist, deren
optisches Feld ausrichtbar ist, um den Horizont durch Rotation zu
decken, ist die IFC-Schnittstelle ein Elektronikschaltkreis, der
in den Rechner eingebaut ist.
-
Bei
der zweiten oben beschriebenen und auf den 4A und 4B veranschaulichten
Ausführungsform,
bei der der optische Sensor 10 eine drehende Einlinienkamera
verwendet, ist die IFC-Schnittstelle ein Schaltkreis, der in die
Elektronikkarten 56 integriert ist, die auf der Dreheinheit 42 montiert
sind.
-
Bei
der dritten Ausführungsform,
die oben beschrieben und auf den 5A und 5B veranschaulicht
ist, bei der der optische Sensor 10 eine Einheit stationärer Kameras
aufweist, ist die IFC-Schnittstelle eine in die Elektronikkarten
der Anschluss- und Multiplexvorrichtung 65 integrierte Schaltung.
-
Das
von den Bildbearbeitungsmitteln IMP angewandte Bildbearbeitungsverfahren
erlaubt es, in Echtzeit aus jedem von dem optischen Sensor 10 gelieferten
Bild Informationen über
die Position von Objekten zu extrahieren, die auf der Oberfläche des Meers
sichtbar sind, indem die Wellen und Schaum eliminiert werden.
-
Diese
Bildbearbeitung umfasst die Schritte bestehend aus:
- – Umrahmen
des verwendbaren Teils des von dem optischen Sensor 10 gelieferten
Bilds,
- – Messen
der Leuchtintensität
auf mindestens einem Teil des Bilds,
- – Vergleichen
jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu
jedem Pixel je nachdem, ob der Unterschied über oder unter einem Leuchtintensitätsschwellenwert
liegt,
- – Suchen
der Pixel mit einem gegebenen Wert, die aneinander grenzende Pixelgruppen
bilden, wobei jede Gruppe aneinander liegender Pixel ein sichtbares
Objekt bildet, und
- – Messen
einer Position und der Dimensionen der sichtbaren Objekte.
-
Das
Umrahmen des verwendbaren Teils kann ein automatisches Erfassen
der Horizontlinie umfassen. Es kann auch ein Aufrichten des Bilds
umfassen, damit die Horizontlinie parallel zum unteren Bildrand
bleibt.
-
Der
verwendbare Teil des Bilds kann selbst in mehrere Teile geteilt
werden, zum Beispiel in Abhängigkeit
von der Entfernung zwischen jedem Pixel und der Horizontlinie, die
grob die Entfernung des entsprechenden Punkts von dem Trägerschiff
bestimmt.
-
Das
Messen der Leuchtintensität
kann je nach verwendetem Kameratyp auf der Leuchtdichte allein und/oder
auf einem oder mehreren der drei Farbanteile (Rot, Blau, Gelb) erfolgen.
-
Das
Vergleichen jedes Pixels mit der mittleren Leuchtstärke kann
gleichzeitig mit mehreren Parametern erfolgen (Schwellenwert, Farbe).
-
Das
Erfassen der sichtbaren Objekte kann einen Bewertungsschritt der
Beständigkeit
jeder Pixelgruppe in den aufeinander folgenden Bildern umfassen.
Dazu werden die Informa tionen über
die Position aller Pixelgruppen jedes Bilds in einer Datenbank gespeichert.
Das Vergleichen der aufeinander folgenden Datenbanken, die der Abfolge
von Bildern in einem gleichen Sektor entsprechen, erlaubt es, Gruppen,
die sichtbare Objekte bilden, in Abhängigkeit von ihrer Beständigkeit
zu bestimmen, das heißt in
Abhängigkeit
von dem Erscheinungsprozentsatz dieser Gruppen in einer bestimmten
Anzahl von Bildern. Dieses Verfahren erlaubt es, „nicht
beständige" Objekte zu eliminieren:
Wellen, Reflexionen, Schaum, und nur die Objekte zu behalten, die
Schiffen oder auf der Oberfläche
schwimmenden Objekten entsprechen.
-
Bei
der ersten Ausführungsform,
bei der der optische Sensor 10 eine Kamera aufweist, deren
optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken,
erfolgt die Bildbearbeitung auf jedem Bild, das heißt typisch
alle 1/15 Sekunde. Diese Bearbeitung umfasst die folgenden Schritte:
- – automatisches
Erfassen der Horizontlinie,
- – Aufrichten
des Bilds, damit die Horizontlinie zum unteren Bildrand parallel
bleibt,
- – Messen
der mittleren Leuchtintensität
auf mindestens einem Teil des auf dem Horizont zentrierten Bilds,
- – Vergleichen
jedes Pixels mit einem Leuchtstärkeschwellenwert,
der von der mittleren Leuchtstärke
abhängt
und Zuweisen eines Binärwerts
zu jedem Pixel je nachdem, ob der Unterschied über oder unter dem Leuchtintensitätsschwellenwert liegt,
- – Suchen
der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender
Pixel bilden,
- – Speichern
der Information über
die Position aller Gruppen von Pixeln in einer Datenbank erfasster Gruppen
BDG,
- – Vergleichen
der Datenbanken erfasster Gruppen, die nacheinander gebildet werden,
mit jedem von dem optischen Sensor gelieferten Bild, und
- – Bestimmen
der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit
von ihrer Beständigkeit
in mehreren Datenbanken erfasster Gruppen.
-
Bei
der zweiten Ausführungsform
erfolgt die Bildbearbeitung durch die Bildbearbeitungsmittel IMP zuerst
auf jedem Elementarbild, das einer senkrechten Linie entspricht,
das heißt
typisch alle 1/3000 Sekunde. Diese Bearbeitung umfasst die folgenden Schritte:
- – automatisches
Erfassen der Horizontlinie,
- – Neueinstellen
des Bilds, damit die Horizontlinie in einer konstanten Entfernung
in Pixelzahl vom unteren Bildrand bleibt,
- – Messen
des mittleren Leuchtintensität
auf mindestens einem Teil des auf den Horizont zentrierten Bilds,
- – Vergleichen
jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu
jedem Pixel je nachdem, ob der Unterschied über oder unter einem Leuchtintensitätsschwellenwert
liegt, und
- – Wiederherstellen
eines von der Abfolge der senkrechten Linien gebildeten Bilds.
-
Auf
jedem so wiederhergestellten Bild, das heißt typisch alle Sekunden, umfasst
die Bildbearbeitung die folgenden Schritte:
- – Suche
der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender
Pixel bilden,
- – Speichern
der Informationen über
die Position aller Pixelgruppen in einer Datenbank erfasster Gruppen
BDG,
- – Vergleichen
der Datenbanken erfasster Gruppen, die bei jedem aufeinander folgenden
wiederhergestellten Bild gebildet werden (Vergleich typisch alle
3 bis 10 Bilder), und
- – Bestimmen
der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit
von ihrer Beständigkeit
in mehreren Datenbanken erfasster Gruppen.
-
Bei
der dritten Ausführungsform
wird die Bildbearbeitung von den Bildbearbeitungsmitteln IMP auf
jedem Bild ausgeführt,
das heißt
typisch alle Sekunden. Diese Bearbeitung umfasst die folgenden Schritte:
- – automatisches
Erfassen der Horizontlinie,
- – Aufrichten
des Bilds, damit die Horizontlinie zum unteren Bildrand parallel
bleibt,
- – Messen
der mittleren Leuchtintensität
auf mindestens einem Teil des auf den Horizont zentrierten Bilds,
- – Vergleichen
jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu
jedem Pixel je nachdem, ob der Unterschied über oder unter dem Leuchtintensitätsschwellenwert
liegt,
- – Suche
der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender
Pixel bilden,
- – Speichern
der Informationen über
die Position aller Gruppen von Pixeln in einer Datenbank BDG erfasster
Gruppen,
- – Vergleich
der Datenbanken erfasster Gruppen, die in jedem aufeinander folgenden
Bild gebildet sind (typisch auf 3 bis 10 Bildern), und
- – Bestimmen
der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit
von ihrer Beständigkeit
in mehreren Datenbanken erfasster Gruppen.
-
Die
Merkmale der sichtbaren Objekte werden in einer Datenbank sichtbarer
Objekte BDOV gespeichert.
-
Im
Allgemeinen weist der zu der Bildbearbeitung gehörende optische Sensor die folgenden
Merkmale auf:
- – er liefert Erfassungsinformationen,
das heißt
die Gegenwart eines Objekts, seinen Azimut, und in dem Fall eines
Systems mit mehreren Sensoren, die Entfernung des Objekts,
- – er
erlaubt ein Erfassen im sichtbaren Bereich unter den gleichen Sichtbedingungen
wie das menschliche Auge, bei Tag sowie bei Nacht; mit entsprechenden
Sensoren (zum Beispiel Infrarotsensoren) kann man auch bei schwierigeren
Bedingungen arbeiten,
- – nachts
kann das System eine Infrarotbeleuchtungsvorrichtung aufweisen,
wobei die Erfassungsentfernung nicht beleuchteter Objekte bis zu
2000 Meter gehen kann,
- – er
weist eine Erfassungsentfernung auf, die je nach Konfiguration des
Systems und der Kinematik des Trägerseefahrzeugs
bis zu 10.000 Meter betragen kann und gleichzeitig auch die am nächsten liegenden
Objekte erfasst,
- – er
erlaubt das Erkennen der vom Radar nicht erfassten Objekte, wie
zum Beispiel kleine Boote und schwimmende Wracks,
- – die
Bildbearbeitung kann sowohl in Farbe als auch in Schwarz und Weiß erfolgen,
- – er
kann mit den folgenden Plattformbewegungen funktionieren: Rollen
(+/–35°), Periode
von 5 bis 15 Sekunden, Nicken (+/–15°), Winkelgeschwindigkeit unter
10°/s.
- – er
ist an die maritime Umgebung hinsichtlich der Abdichtung, des mechanischen
und elektrischen Schutzes, der Beständigkeit gegenüber der
Sonne, Gischt und Schwingungen aufgemacht.
-
Das
Kollisionswarnanalyseverfahren, das von den Kollisionswarnanalysemitteln
ACOL umgesetzt wird, weist die folgenden Schritte auf:
- – Bestimmen
von Informationen über
die Position jedes sichtbaren Objekts in der Datenbank BDOV in Abhängigkeit
von ihrer Position in den von dem optischen Sensor gelieferten Bildern,
- – periodisches
Berechnen der Entwicklung der Informationen über die Position jedes sichtbaren Objekts,
- – Bewerten
der Kollisionsgefahr des Seefahrzeugs mit jedem sichtbaren Objekt
in Abhängigkeit
von der Entwicklung der Informationen über die Position des sichtbaren
Objekts.
-
Die
Informationen über
die Position eines sichtbaren Objekts umfassen seinen Azimut, seinen Geländewinkel
(Winkelunterschied in Bezug auf die Horizontlinie) und eventuell
seine Entfernung, wenn diese vielleicht berechnet wird (in dem Fall
eines Systems mit mehreren Sensoren). Diese Infor mationen werden
von einer Angabe der augenscheinlichen Maße des Objekts in dem Bild
vervollständigt:
Höhe und/oder
Breite in Anzahl Pixel.
-
Das
Analysekonzept der Kollisionsgefahr, das von der Erfindung angewandt
wird, beruht auf der Entwicklung des Azimuts eines sichtbaren Objekts
und auf der Entwicklung seiner Dimensionen und eventuell seiner
Entfernung, wenn diese berechnet wird.
-
Genauer
genommen umfasst das Kollisionswarnanalyseverfahren die folgenden
Schritte:
- – periodisches
Berechnen der Entwicklung der Informationen über die Position und Dimension
jedes sichtbaren Objekts durch Analyse der Datenbank der sichtbaren
Objekte in Abständen
von 30 Sekunden über
eine Historie, die bis zu 20 Minuten geht,
- – Extrahieren
der Objekte, deren Azimutvariation kleiner ist als 1,5°/Min. (Grad
pro Minute),
- – Extrahieren
der Objekte, deren Dimension zunimmt und/oder deren Entfernung (wenn
sie berechnet wird) abnimmt, und
- – Bilden
einer Datenbank gefährlicher
Objekte BDOD, die die Merkmale der sichtbaren Objekte vereinen,
die bei den zwei vorhergehenden Schritten extrahiert wurden.
-
Die
Analyse der Entwicklung des Azimuts eines sichtbaren Objekts kann
als Grundlage für
eine Schätzung
einer Kollisionsgefahr dienen, wie das auf den 6A und 6B veranschaulicht
ist. Diese Figuren stellen die Bahn 1 des Schiffs und die
geschätzte
Bahn 2 eines sichtbaren Objekts dar. Die auf den Bahnen 1, 2 gebildeten
Punkte zeigen die jeweiligen Positionen des Schiffs und des Objekts
in Augen blicken t1 bis t9.
-
6A veranschaulicht
den Fall eines als gefährlich
beurteilten sichtbaren Objekts. Man stellt auf dieser Figur fest,
dass der Azimut des sichtbaren Objekts in Bezug auf den Azimut des
Schiffs konstant ist.
-
6B veranschaulicht
den Fall eines als nicht gefährlich
beurteilten sichtbaren Objekts. In diesem Fall ist der Azimut des
sichtbaren Objekts in Bezug auf das Schiff nicht konstant.
-
Die
Variation der Größe jedes
sichtbaren Objekts bildet auch eine Information, die zum Beurteilen einer
Kollisionsgefahr zu berücksichtigen
ist. Wenn das Schiff und das sichtbare Objekt nämlich parallelen Bahnen mit
der gleichen Geschwindigkeit folgen, ist der Azimut des Objekts
in Bezug auf den des Schiffs konstant, obwohl das Objekt keine Bedrohung für das Schiff
darstellt. Wenn die scheinbare Größe eines sichtbaren Objekts
ferner zunimmt, bedeutet das, dass es sich dem Schiff nähert.
-
Wenn
das Schiff mit einem ARPA-Automaten gekoppelt mit einem Radarsystem
ausgestattet ist, kann ferner vorgesehen werden, dass die Azimute und
Entfernungen von Radarechos, die vom „ARPA"-Automaten berücksichtigt werden, und „AIS"-Pisten erfasst werden. Die Positionen
der Radarechos und der AIS-Pisten können dann mit der Datenbank
der gefährlichen
Objekte BDOD verglichen werden, um jede externe Piste mit einem
gefährlichen
Objekt und umgekehrt in Beziehung zu bringen. Die Datenbank der
gefährlichen
Objekte kann daher alle gefährlichen
Objekte vereinen, die von dem erfindungsgemäßen System und von den anderen
Ausstattungen des Schiffs erfasst werden, wobei jedes gefährliche
Objekt in der Datenbank mit einer Information verbunden ist, die
anzeigt, welche(s) Mittel das jeweilige Objekt erfasst hat.
-
Die
Datenbanken sichtbarer Objekte BDOV und gefährlicher Objekte BDOD sind
in ANSI in einem Rahmenformat codiert, das mit den geläufig in den
Datenverarbeitungssystemen an Bord der Schiffe verwendeten Softwareprogrammen
kompatibel ist, typisch das Format NMEA (National Maritime Electronics
Association) oder das Format XML (eXtended Markup Language). Die
zu jedem Objekt gehörenden Attribute
in diesen Datenbanken umfassen vorteilhafterweise:
- – die
Uhrzeit des ersten Erfassens,
- – den
Azimut,
- – die
Winkelbreite,
- – die
Entfernung vom Schiff, falls diese berechnet wird,
- – die
Präzision
hinsichtlich der Entfernung vom Schiff,
- – die
Beständigkeit
und
- – den
Kontrast.
-
Die
Bediener-/Maschinen-Schnittstelle IHM stellt die Informationsfunktionen
der Besatzung und Steuerung des Systems sicher. Die Informationsfunktion
der Besatzung umfasst:
- – das Abgeben eines Warnsignals,
das ein akustisches und/oder visuelles und/oder an einen spezifischen
Bedarf angepasstes Signal sein kann (zum Beispiel Sprachsynthese
oder Vibration auf einem getragenen Gehäuse), sobald die Datenbank
der gefährlichen
Objekte ein neues Element enthält,
- – das
Anzeigen der Positionsinformationen eines gefährli chen Objekts und insbesondere
seines Azimuts, und eine Anzeige der Dringlichkeit der Situation
(zum Beispiel eine Entfernung oder eine Frist vor der Kollision)
und
- – das
Aufzeichnen einer Historie der Datenbanken der sichtbaren und der
gefährlichen
Objekte.
-
Man
kann auch vorsehen, dass die Bediener-/Maschinen-Schnittstelle IHM die Möglichkeit vorsieht,
in Echtzeit das Bild eines Objekts in Sicht auf Anfrage des Bedieners
anzuzeigen.
-
Wenn
das Schiff mehrere Detektionsmittel aufweist, kann die Bediener-/Maschinen-Schnittstelle IHM
auch eine Angabe des oder der Mittel zum Erfassen jedes Objekts
anzeigen. Wenn das Schiff mit einer ARPA-Vorrichtung zur Kollisionswarnunterstützung verbunden
mit einem Radar ausgestattet ist, erlaubt es die Bediener-/Maschinen-Schnittstelle
vorteilhafterweise, in Grafikform die Informationen aus den Datenbanken
sichtbarer und gefährlicher
Objekte mit der ARPA-Anzeige
zu überlagern.
Ist das Schiff mit einer digitalen Kartografievorrichtung ausgestattet,
zum Beispiel gemäß der Norm
ECDIS (Electronic Chart Display and Information System), kann die
Bediener-/Maschinen-Schnittstelle in grafischer Form die aus den
Datenbanken sichtbarer und gefährlicher Objekte
stammenden Informationen mit der ECDIS-Anzeige überlagern.
-
Die
Steuerfunktion des Systems umfasst Steuerungen zur geläufigen Verwaltung
des Funktionierens des Systems sowie Steuerungen, die es erlauben,
die Wartung des Kollisionswarnsystems sicherzustellen.
-
Die
Steuerungen der geläufigen
Wartung umfassen einen Befehl zum Ein- und Ausschalten des Systems
sowie gegebenenfalls Befehle, die es erlauben, andere zu berücksichti gende
Erfassungsmittel auszuwählen.
-
Die
Befehle zur Wartung des Systems umfassen Befehle zum Einschalten,
Ausschalten und Einstellen jeder Kamera, Befehle, die es erlauben,
interne Einstellungen des Rechners auszuführen (Schwellenwerte, Parameter),
und Befehle zum Starten automatischer Vorgehensweisen zum Kalibrieren sowie
interner Tests des Systems.
-
Die
Bediener-/Maschinen-Schnittstelle IHM ist am Eingang mit der Datenbank
sichtbarer Objekte BDOV sowie mit der Datenbank gefährlicher
Objekte DBOD verbunden. Sie kann in den Steuerposten des Seefahrzeugs
integriert oder dezentral installiert werden.
-
Bei
einer Ausführungsform
des erfindungsgemäßen Systems
ist die Bediener-/Maschinen-Schnittstelle IHM in ein externes Navigationssystem
integriert. Die Funktionen des Warnens, der Anzeige und Steuerung
bereichern die existierenden Schnittstellen des externen Navigationssystems
zur Nutzung von ARPA- oder ECDIS-Anzeigemitteln.
-
Die
ARPA-Anzeigemittel zeigen auf einem Anzeigebildschirm eine kreisförmige Zone
um das Schiff an. Die ARPA-Ansicht ist ständig auf das Schiff zentriert.
Das Erkennen wird durch einen radialen, auf den Norden abgestimmten
Strich oder relativ zur Achse des Schiffs abgestimmten Strich erleichtert, sowie
durch eine Anzahl Entfernungsringe.
-
Die
ECDIS-Anzeigemittel zeigen auf einem Anzeigebildschirm eine rechteckige
geografische Karte an, die eine internationale Norm einhält. Diese Karte
ist durch die geografische Position ihrer Mitte, durch ihren Maßstab, den
Projektionstyp (im Allgemeinen Mercator) und ihre Ausrichtung (meistens zum
Norden oder entlang der Achse des Schiffs) gekennzeichnet. Die Orientierung
wird auf dieser Karte durch einen Raster erleichtert, der die konstanten Breiten
und Längen
darstellt.
-
Diese
zwei Typen von Anzeigemitteln zeigen in Form spezifischer Symbole
sichtbare Objekte und gefährliche
Objekte an. Derart kann die Kollisionsgefahr visuell beurteilt werden.
-
Auf
Betreiben des Bedieners kann ein Bild eines sichtbaren Objekts in
einem auf dem Anzeigebildschirm angezeigten Fenster dargestellt
werden. Dieses Bild wird typisch alle Sekunden aufgefrischt, um
in Echtzeit eine visuelle Beurteilung der Entwicklung eines erfassten
Schiffs zu erlauben.
-
Wenn
das erfindungsgemäße System
Informationen von mehreren Sensoren empfängt, kann es auch für jedes
Objekt eine Messung des Winkelabstands der Azimute des Objekts,
die von den verschiedenen Sensoren geliefert werden, sowie eine
Berechnung der Entfernung des Objekts ausführen.
-
Dank
diesen Vorrichtungen kann das erfindungsgemäße Kollisionswarnsystem eine
bestimmte Redundanz mit den existierenden Mitteln bieten. Es bietet
daher eine zuverlässige
Meldung mit einer relativ niedrigen Fehlalarmrate.
-
Dank
diesen Merkmalen findet das erfindungsgemäße System Anwendungen in zahlreichen Gebieten,
insbesondere:
- – im Gebiet der von Spezialisten
in Dienst gestellten Schiffe (Handel, Fischerei, Vergnügungsschifffahrt,
Schiffe des öffentlichen
Bereichs),
- – in
dem Gebiet der Vergnügungsschifffahrt
durch seinen Beitrag zur Sicherheit und zum Komfort der Besatzung,
insbesondere bei Fehlen eines Radars,
- – in
dem Gebiet der Küstenschifffahrtskanäle (Bojen, Leuchttürme, Baken,
Kais usw.) durch eine Überwachung
und Kontrolle des Verkehrs und eine Redundanz der Kollisionswarnsicherheit
in den gefährlichsten
Zonen,
- – in
dem Gebiet der Seedrohnen durch die Möglichkeit, eine ständige Kontrolle
der Kollisionswarnsicherheit zu garantieren, auch wenn die Aktivitätszone einer
Drohne nicht unter der visuellen Kontrolle des Steuerpostens ist.
-
Ferner
erlaubt es das erfindungsgemäße System
auf jedem Seefahrzeug, automatisch eine Aufzeichnung aller Erfassungen
sichtbarer Objekte, die die automatisch in einer „Fahrtschreiberbox" oder VDR (Voyage
Data Recorder) aufgezeichneten Daten bereichern können, auszuführen.
-
Es
ist für
den Fachmann klar, dass das erfindungsgemäße System verschiedene andere
Ausführungs-
und Anwendungsvarianten erlaubt. Die Erfindung ist daher nicht auf
ein System beschränkt,
bei dem der optische Sensor den gesamten Horizont des Seefahrzeugs
abdeckt. Die von dem optischen Sensor überwachte Zone kann nämlich auf
einen Bugsektor des Seefahrzeugs beschränkt werden. Es ist auch nicht
zwingend, dass das System Zugang zu Positionsinformationen, wie
zum Beispiel zum Azimut, des Seefahrzeugs oder zu Informationen
hat, die von anderen Systemen, die das Seefahrzeug ausstatten, geliefert
werden. Die Position der erfassten Objekte kann nämlich in
Bezug auf das Seefahrzeug und seinen Kurs bestimmt werden. Ferner
kann das erfindungsgemäße System
keine Bediener-/Maschinen-Schnittstelle aufweisen und einfach Informationen über das
Erfassen gefährlicher
Objekte zu einem anderen System des Seefahrzeugs, das eine Bediener-/Maschinen-Schnittstelle
aufweist, senden.