DE602005006145T2 - Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren - Google Patents

Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren Download PDF

Info

Publication number
DE602005006145T2
DE602005006145T2 DE602005006145T DE602005006145T DE602005006145T2 DE 602005006145 T2 DE602005006145 T2 DE 602005006145T2 DE 602005006145 T DE602005006145 T DE 602005006145T DE 602005006145 T DE602005006145 T DE 602005006145T DE 602005006145 T2 DE602005006145 T2 DE 602005006145T2
Authority
DE
Germany
Prior art keywords
der
information
die
pixel
visible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005006145T
Other languages
English (en)
Other versions
DE602005006145D1 (de
Inventor
Philippe Waquet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sea On Line
Original Assignee
Sea On Line
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34949775&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE602005006145(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Sea On Line filed Critical Sea On Line
Publication of DE602005006145D1 publication Critical patent/DE602005006145D1/de
Application granted granted Critical
Publication of DE602005006145T2 publication Critical patent/DE602005006145T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • G08G3/02Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ocean & Marine Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Air Bags (AREA)
  • Emergency Alarm Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)

Description

  • TECHNISCHES GEBIET
  • Die Erfindung betrifft ein Kollisionswarnsystem für Seefahrzeug sowie ein Verfahren zur Kollisionswarnanalyse durch Bearbeitung von Bildern, die von einem optischen Allrichtungssensor kommen, der an Bord eines Seefahrzeugs installiert ist.
  • Die Erfindung wird insbesondere aber nicht ausschließlich auf Schiffe und Schiffsdrohnen angewandt.
  • FRÜHERER STAND DER TECHNIK
  • In der folgenden Beschreibung ist das Seefahrzeug, das beispielhaft betrachtet wird, ein Schiff.
  • Die Kollisionsgefahr, die auf See schlecht beherrscht wird, rührt zum großen Teil von einer Unzulänglichkeit der optischen Überwachungsmittel her. In dem Gebiet des Seefrachtverkehrs treten im Durchschnitt 600 Kollisionen pro Jahr auf. Die Konsequenzen dieser Kollisionen sind für die Umwelt oft schwerwiegend, wenn sie Erdöltanker oder chemische Tanker betreffen.
  • In dem Gebiet des Seepassagierverkehrs haben die Schiffe (Ferry, Ro-Ro-Frachter usw.) eine hohe Anfälligkeit.
  • In dem Gebiet der Fischerei treten jährlich etwa 3000 Kollisionen auf. Die Anzahl der Opfer ist aufgrund der kleinen Maße der Schiffe groß.
  • In dem Gebiet der Vergnügungsschifffahrt sind die Kollisionen ebenfalls ziemlich häufig.
  • Die Kollisionen auf See resultieren im Wesentlichen aus einem Überwachungsmangel. Ein menschliches Versagen ist der Ursprung von 70 bis 90% der Unfälle, entweder durch unzu reichende Aufmerksamkeit oder Nachlässigkeit des Schiffswachepersonals oder durch Routine und falsche Einschätzung der Gefahr. Der Mangel an Wachsamkeit wird oft festgestellt, wenn sich das Schiff in einer „Vorrangssituation" befindet, und zwar bei guter Sicht. Die Unfälle können auch aus einem Mangel an Qualifikation, Unkenntnis der Regeln ja sogar totaler Inkompetenz des Schiffswachepersonals resultieren. Es ist ferner häufig, dass die Personalzahl der Schiffswache aufgrund einer Verringerung der Besatzungszahlen unzureichend ist (Manöver, Instandhaltung, Handelstätigkeiten usw.), mit der Folge einer Überarbeitung und daher angesammelter Müdigkeit des Schiffswachepersonals. Diese Unfälle können auch von einem unsachgemäßen Gebrauch des Radarsystems herrühren.
  • Derzeit verfügen die meisten gewerblich genutzten Schiffe als Kollisionswarnausstattung ein Radarsystem. Dieses System liefert eine präzise und zuverlässige Information, erfordert jedoch das strenge Anwenden einer Einstellvorgehensweise, um effizient als Kollisionswarnsystem verwendet werden zu können. Diese Vorgehensweise wird nun aber oft unsachgemäß angewandt.
  • Es gibt auch Systeme des Typs ARPA („Automatic Radar Plotting Aid"), die die Signale, die von einem Radar geliefert werden, analysieren. Diese Systeme weisen eine hohe Rate an Fehlalarmen auf. Deshalb wird die zu dem System gehörende Alarmvorrichtung häufig ausgeschaltet.
  • Ferner wurde ein automatisches Identifikationssystem AIS („Automatic Identification System") entwickelt, das alle Schiffe mit hoher Gefahr ab 2010 ausstatten muss (Passagiertransport, Gefahrenguttransporte). Dieses System erweist sich als sehr effizient, wenn es mit einem präzisen Positionierungssystem kombiniert wird, wie zum Beispiel einem GPS-System („Global Positioning System"). Das AIS- System berücksichtigt jedoch die Zirkulation der viel zahlreicheren Schiffe, die mit diesem System nicht ausgestattet sind, nicht.
  • Heute wird allein der Radar wirklich zur Bearbeitung der Kollisionsgefahr berücksichtigt. Diese Ausstattung weist einen Redundanznachteil auf.
  • Die Erfindung hat zur Aufgabe, diesen Nachteilen abzuhelfen, indem sie ein vollautomatisches Kollisionswarnsystem und ein Kollisionswarnanalyseverfahren vorschlägt.
  • DARLEGUNG DER ERFINDUNG
  • Die Erfindung betrifft ein Kollisionswarnsystem, das an Bord eines Seefahrzeugs installiert wird, umfassend:
    • – mindestens einen optischen Sensor, der mindestens teilweise den Horizont des Seefahrzeugs abdeckt und Bilder liefert,
    • – Bildbearbeitungsmittel, um in Echtzeit in jedem von dem optischen Sensor gelieferten Bild aneinander grenzende Pixelgruppen in Abhängigkeit von der Leuchtintensität des Bilds zu suchen, um in Echtzeit die Beständigkeit der Pixelgruppe in aufeinander folgenden Bildern zu bewerten, um in Echtzeit Gruppen, die sichtbare Objekte auf der Oberfläche des Meeres bilden, in Abhängigkeit von ihrer Beständigkeit zu bestimmen, und um in Echtzeit Informationen über die Position und die Dimension mindestens eines der sichtbaren Objekte zu bestimmen,
    • – Kollisionsanalysemittel, um periodisch die Entwicklung der Informationen über die Position und Dimension des sichtbaren Objekts zu berechnen und eine Kollisionsgefahr des Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit von der Entwicklung der Informationen über die Position und Dimension des sichtbaren Objekts zu bewerten. Gemäß einer Ausführungsform der Erfindung weist der optische Sensor mindestens eine in Bezug auf das Seefahrzeug feste Kamera auf und deckt mindestens einen wesentlichen Teil des Horizonts permanent ab.
  • Gemäß einer Ausführungsform der Erfindung weist der optische Sensor mindestens eine Kamera auf, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken.
  • Gemäß einer Ausführungsform der Erfindung umfasst der optische Sensor:
    • – eine Kamera, umfassend ein Objektiv mit einer optischen Achse, die im Wesentlichen vertikal ausgerichtet ist,
    • – eine Dreheinheit, die von einem Motor bewegt wird und einen Spiegel trägt, der in dem optischen Feld des Objektivs angeordnet und im Wesentlichen um 45° zur optischen Achse des Objektivs ausgerichtet ist, und
    • – eine Vorrichtung zum Messen der Winkelposition der Dreheinheit.
  • Gemäß einer Ausführungsform der Erfindung umfasst das System:
    • – ein Gehäuse, das von einem Sockel gebildet wird, der als Stütze dient, und
    • – eine stabilisierte Wanne, die auf einer Stabilisierungsvorrichtung montiert ist und als Stütze für den optischen Sensor dient.
  • Gemäß einer Ausführungsform der Erfindung umfasst die Stabilisierungsvorrichtung eine Kardanaufhängung und ein Kreiselrad.
  • Gemäß einer Ausführungsform der Erfindung umfasst der Sensor eine Einlinienkamera, die in Rotation um eine Vertikalachse angetrieben wird.
  • Gemäß einer Ausführungsform der Erfindung umfasst das System:
    • – ein Gehäuse,
    • – eine Dreheinheit, die in dem Gehäuse gehalten und von einem Motor mit Vertikalachse bewegt wird,
    • – eine Schutzkappe der Dreheinheit, die mit einer Öffnung versehen ist,
    • – eine Digitalkamera, die an der Dreheinheit befestigt ist und einen Einlinien-Sensor umfasst,
    • – ein Objektiv, dessen optische Achse den Horizont durch Rotation der Dreheinheit abtasten kann.
  • Gemäß einer Ausführungsform der Erfindung weist der Sensor eine Schutzscheibe auf, die mit Hilfe eines Sauggebläses belüftet wird, um das Objektiv zu schützen.
  • Gemäß einer Ausführungsform der Erfindung sind Elektronikkarten zur Bildbearbeitung mit der Dreheinheit fest verbunden.
  • Gemäß einer Ausführungsform der Erfindung weist das System eine Vorrichtung zum Messen der Winkelposition der Dreheinheit auf.
  • Gemäß einer Ausführungsform der Erfindung werden die digitalen Ausgangsdaten des optischen Sensors über Drehkontakte übertragen, die auch den Kontakt der Versorgung der Elemente der Dreheinheit sicherstellen. Gemäß einer Ausführungsform der Erfindung umfasst das System Schnittstellenmittel mit einem Kompass.
  • Gemäß einer Ausführungsform der Erfindung umfasst das System Schnittstellenmittel mit weiteren Sensoren und Analysemittel, die eine Kohärenzanalyse mit von den anderen Sensoren gelieferten Informationen durchführen.
  • Gemäß einer Ausführungsform der Erfindung umfasst das System Anzeigemittel, um anzuzeigen, dass ein gefährliches Objekt erfasst wird.
  • Gemäß einer Ausführungsform der Erfindung umfassen die Informationen über die Position jedes sichtbaren Objekts einen Azimut des Objekts.
  • Die Erfindung betrifft auch ein Kollisionswarnverfahren in einem Kollisionswarnsystem für Seefahrzeug, das mindestens einen optischen Sensor umfasst, der mindestens teilweise den Horizont des Seefahrzeugs abdeckt. Erfindungsgemäß umfasst das Verfahren die Schritte, die in Folgendem bestehen:
    • – vom optischen Sensor Bilder erhalten, die einen Teil des Horizonts des Seefahrzeugs einschließen,
    • – in Echtzeit in jedem erhaltenen Bild aneinander grenzende Pixelgruppen in Abhängigkeit von der Leuchtintensität jedes Pixels des Bilds suchen,
    • – in Echtzeit die Beständigkeit jeder Pixelgruppe in aufeinander folgenden Bildern bewerten,
    • – in Echtzeit Gruppen, die sichtbare Objekte auf der Oberfläche des Meeres bilden, in Abhängigkeit von ihrer Beständigkeit bestimmen,
    • – in Echtzeit Informationen über die Position und die Dimension mindestens eines der sichtbaren Objekte bestimmen,
    • – periodisch die Entwicklung der Informationen über die Position und die Dimension mindestens des sichtbaren Objekts berechnen,
    • – eine Kollisionsgefahr des Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit von der Entwicklung der Informationen über die Position und Dimension des sichtbaren Objekts bewerten, wobei ein sichtbares Objekt als gefährlich betrachtet wird, wenn eine Gefahr einer Kollision des Seefahrzeugs mit dem sichtbaren Objekt besteht.
  • Gemäß einer Ausführungsform der Erfindung umfasst das Verfahren Schritte des Anzeigens von Informationen zu jedem gefährlichen Objekt und des Entsendens eines Warnsignals, sobald ein neues gefährliches Objekt erfasst wird.
  • Gemäß einer Ausführungsform der Erfindung umfasst die Suche benachbarter Pixelgruppen in jedem Bild die Schritte, darin bestehend:
    • a) den verwendbaren Teil des vom optischen Sensor gelieferten Bilds einzurahmen,
    • b) die durchschnittliche Leuchtintensität der Pixel auf mindestens dem verwendbaren Teil des Bilds zu messen,
    • c) jedes Pixel des verwendbaren Teils des Bilds mit der durchschnittlichen Leuchtintensität zu vergleichen und dem Pixel einen Binärwert in Abhängigkeit vom Ergebnis des Vergleichs zuzuteilen,
    • d) Pixel mit einem gegebenen Binärwert zu suchen, die aneinander grenzende Pixelgruppen bilden. Gemäß einer Ausführungsform der Erfindung umfasst das Einrahmen des verwendbaren Teils eine automatische Erfassung der Horizontlinie.
  • Gemäß einer Ausführungsform der Erfindung werden die Schritte des Bestimmens der Informationen über die Position und die Dimension, des periodischen Berechnens der Entwicklung der Informationen über die Position und die Dimension und die Bewertung einer Kollisionsgefahr für jedes Bild ausgeführt.
  • KURZBESCHREIBUNG DER FIGUREN
  • Diese Objekte, Merkmale und Vorteile sowie weitere der vorliegenden Erfindung werden ausführlicher in der folgenden Beschreibung von Ausführungsformen dargelegt, die beispielhaft und nicht einschränkend in Verbindung mit den anliegenden Figuren erfolgt, unter welchen:
  • 1 ein erfindungsgemäßes System auf einem Schiff installiert veranschaulicht,
  • 2 in Blockform die Funktionen des erfindungsgemäßen Systems veranschaulicht,
  • die 3A und 3B eine erste Ausführungsform des erfindungsgemäßen Systems veranschaulichen,
  • die 4A und 4B eine zweite Ausführungsform des erfindungsgemäßen Systems veranschaulichen,
  • die 5A und 5B eine dritte Ausführungsform des erfindungsgemäßen Verfahrens veranschaulichen,
  • die 6A und 6B ein Kollisionsgefahranalysekonzept an das erfindungsgemäße Verfahren angewandt veranschaulichen.
  • AUSFÜHRLICHE DARLEGUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Wie auf 1 veranschaulicht, umfasst das erfindungsgemäße System:
    • – eine Einheit optischer Sensoren 10, die hier in den Aufbauten eines Schiffs 12 angeordnet ist, und
    • – einen Rechner 13, der in der Kommandobrücke des Schiffs angeordnet ist.
  • Wie auf 2 veranschaulicht, weist das erfindungsgemäße System auf funktionalem Niveau zwei Segmente auf, nämlich ein optisches Segment SO und ein taktisches Segment ST.
  • Das optische Segment umfasst:
    • – einen oder mehrere optische Sensoren 10, die mindestens zum Teil den Horizont des Seefahrzeugs abdecken,
    • – Schnittstellenmittel IFC der Sensoren mit dem Rechner, die das Erfassen der von dem Sensor gelieferten Bilder und das Steuern der Sensoren sicherstellen, und
    • – Bildbearbeitungsmittel IMP, die das Extrahieren der Positionsinformationen von Objekten sicherstellen.
  • Das taktische Segment ST umfasst:
    • – Kollisionswarnanalysemittel ACOL, die eine periodische Berechnung der Entwicklung der Informationen über die Position jedes sichtbaren Objekts ausführen und eine Kollisionsgefahr des Seefahrzeugs mit jedem sichtbaren Objekt bewerten, und
    • – eine Bediener-Maschinenschnittstelle IHM, die in den Steuerposten des Seefahrzeugs integriert oder dezentral entfernt installiert werden kann und Anzeigemittel aufweist, um anzuzeigen, dass ein gefährliches Objekt erfasst wurde.
  • Die Einheit optischer Sensoren 10 deckt vorteilhafterweise den gesamten Horizont über 360° oder einen signifikanten Abschnitt dieses ab. Je nach der Konfiguration des Schiffs und insbesondere je nach den Maßen seiner Aufbauten, kann es vorzuziehen sein, über einen einzigen oder mehrere Sensoren zu verfügen. Idealerweise erlauben auf einem großen Frachtschiff drei Sensoren, einer davon am Bug des Schiffs und einer auf jeder Seite der Aufbauten, das Abdecken des gesamten Horizonts, inklusive der Nahabschnitte, die von den Aufbauten für einen Beobachter, der sich auf der Kommandobrücke des Schiffs befindet, verdeckt werden.
  • Bei einer ersten Ausführungsform der Erfindung weist jeder Sensor eine Kamera auf, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation zu decken. Bei einer zweiten Ausführungsform der Erfindung weist jeder Sensor eine ausrichtbare Einlinienkamera auf, die auf einen festen Träger montiert ist. Bei einer dritten Ausführungsform der Erfindung weist jeder Sensor eine oder mehrere in Bezug zu dem Seefahrzeug feste Kameras auf, die mindestens einen wesentlichen Teil des Horizonts ständig abdecken.
  • Aufgrund der Bewegungen des Trägerschiffs, geht es darum, den besten Kompromiss zwischen der Auflösung der Kamera und der Stabilitätsanforderung zu finden. Zwei Lösungen können in Betracht gezogen werden:
    • – entweder montiert man die Kamera auf eine stabilisierte Plattform, um das Bild auf der Nutzzone um den Horizont zu zentrieren,
    • – oder man verwendet eine Information über die Lage des Schiffs (Rollwinkel und Nickwinkel), um nur den verwendbaren Teil des Bilds zu bearbeiten (Punkte, die sich in einer bestimmten Entfernung in Pixeln über oder unter der Horizontlinie befinden). Diese Information kann entweder von einem externen Sensor (Lagezentrale), oder von einer Bildverarbeitung (Erfassen der Horizontlinie), wenn der Horizont sichtbar ist, stammen.
  • Bei der ersten Ausführungsform, die auf den 3A und 3B veranschaulicht ist, umfasst der optische Sensor 10 eine Kamera, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken. Die Kamera ist auf eine durch ein Gyroskop stabilisierte Plattform montiert. Der Sensor 10 umfasst:
    • – ein Gehäuse 21, das aus einem Sockel 22 besteht, der als Stütze dient, und einer durchsichtigen Schutzkuppel 23,
    • – einer stabilisierten Wanne 24, die auf eine Stabilisierungsvorrichtung montiert ist, die aus einer Kardanaufhängung 25 und einem Kreiselrad 26 besteht, angetrieben von einem Elektromotor 27,
    • – einer Kamera 28, die auf der stabilisierten Wanne befestigt ist und ein auf den Zenit ausgerichtetes Objektiv 29 trägt,
    • – eine Dreheinheit 30, die in der stabilisierten Wanne montiert ist, bewegt von einem Drehmotor 31 mit Vertikalachse, angeordnet in dem unteren Teil der stabilisierten Wanne, und die in ihrem oberen Teil einen Spiegel 32 und eine Sonnenblende 33 aufweist, wobei es der auf 45° ausgerichtete Spiegel der optischen Achse des Spiegels 32 erlaubt, eine horizontale Ebene durch die Drehung der Dreheinheit 30 abzutasten, wobei die Strahlen von dem Spiegel 32 derart reflektiert werden, dass sie das Objektiv der Kamera erreichen, wobei der Motor 31 die Dreheinheit über ein Untersetzungsgetriebe antreibt, und
    • – eine Messvorrichtung der Winkelposition der Dreheinheit oder Resolver 34, eventuell in den Motor 30 integriert, wenn dessen Technologie es erlaubt (Schrittmotor).
  • Je nach den verwendeten Werkstoffen (Legierungen und/oder Verbundwerkstoffe), kann die Einheit des Gehäuses 21 eine Gesamtmasse geringer als 2 kg und ein Volumen kleiner als 2 Liter aufweisen.
  • Versuche am Prototyp mit einer Drehzahl des Kreiselrads 26 von 9900 U/Min. haben es erlaubt, eine Stabilität sicherzustellen, die durch eine Winkelgeschwindigkeit der Wanne kleiner als 60 mrad/s (Milliradian pro Sekunde) in 99% der Fälle gekennzeichnet ist. Die Stabilisierungsvorrichtung gibt mit einer Integrationsdauer von 1/1000 Sekunde ein „Bewegen" kleiner als 1/8 Pixel für eine Roll-/Nicktoleranz des Schiffs von +/–25°. Eine derartige Leistung kann noch mit einem Produkt industrieller Herstellung (Bearbeitungen, Justierungen und Toleranz der Kugellager) und einer Drehzahl des Kreiselrads von 15000 U/Min. verbessert werden.
  • Die Kamera 28 weist zum Beispiel die folgenden Merkmale auf:
    • – eine CCD-Zelle 1/3'', die eine Nutzung in Echtzeit mit einem Standardformat (JPEG) erlaubt,
    • – ein hochauflösendes Videoformat XGA (1024×768 Pixel), das den besten Kompromiss zwischen der Winkelöffnung des Objektivs 29 (36° in Diagonale) und der angestrebten Winkelauflösung bietet, und
    • – ein Objektiv 29 mit Brennweite 9 mm.
  • Bei einer zweiten Ausführungsform, die auf den 4A und 4B veranschaulicht ist, umfasst der optische Sensor 10 eine ausrichtbare Einlinienkamera, die auf einen festen Träger montiert ist.
  • Genauer genommen umfasst der optische Sensor:
    • – ein zylindrisches Gehäuse 41, das an der Bemastung des Schiffs befestigt ist,
    • – eine Dreheinheit 42, die in dem Gehäuse 41 von Kugellagern 43 gehalten und von einem Drehmotor 44 mit Vertikalachse bewegt wird, der in dem unteren Teil des Gehäuses platziert ist, wobei der obere Teil der Dreheinheit eine zylindrische Schutzkappe 45 aufweist, die mit einem rechteckigen Fenster 49 versehen ist, das es dem optischen Strahl erlaubt, die Kappe zu durchqueren und das Objektiv zu erreichen,
    • – eine digitale Kamera 46, die an der Dreheinheit 42 befestigt ist und deren Einlinien-Sensor 47 über dem Körper der Kamera versetzt angeordnet ist; der Sensor umfasst typisch 512 bis 8192 elementare Fotozellen, die in einer senkrechten Linie angeordnet sind,
    • – ein Objektiv 48 mit einer Winkelöffnung typisch von 30 bis 55°, das derart angeordnet ist, dass seine optische Achse den Horizont mit der Drehung der Dreheinheit 42 abtastet, und
    • – eine Klappe 50, die so angeordnet ist, dass sie die rechteckige Öffnung 49 verschließt, wenn sich das System im Stillstand befindet, um das Innere des Sensors vor Gischt und Regen zu schützen; das Bewegen der Klappe erfolgt mit Hilfe einer Magnetsteuerung 51.
  • Wenn das System in Betrieb ist, wird der Schutz des Objektivs 48 vor Regenspritzern, die die rechteckige Öffnung 49 überschreiten, von einer Schutzscheibe 52 sichergestellt, die mit Hilfe eines Sauggebläses 53 belüftet wird, das in eine Trockendüse 54 Luft einbläst, die durch die verschiedenen Wärmequellen der Dreheinheit und des Gehäuses erhitzt wird (Drehmotor, Elektronik und Kamera).
  • Die Elektronikkarten 56, die den Rechner und die Schaltkreise enthalten, die zu dem Kollisionswarnsystem gehören, sind mit der Dreheinheit 42 fest verbunden.
  • Die Dreheinheit 42 trägt auch einen Peilungscodierer 57, der die Winkelposition der Dreheinheit misst.
  • Die digitalen Ausgangsdaten des Kollisionswarnsystems werden über einen Drehkontakt 58 übertragen, der auch den Transfer von Daten, die von dem Kompass des Schiffs stammen, zu dem Rechner, sowie den Kontakt der Versorgung der Organe der Dreheinheit 42 sicherstellt.
  • Bei der zweiten Ausführungsform wird das Panoramabild des Meers über 360° um den Sensor 10 durch das Abtasten des optischen Pinsels, der durch Drehen des Einlinien-Sensors bestimmt wird, ausgeführt. Die vertikale Winkelöffnung dieses Pinsels wird derart ausgewählt, dass sie den Ausrichtungsnutzbereich im Geländewinkel sogar bei Roll-/Nickbewegungen abdeckt.
  • Die Winkelauflösung des Bilds hängt von der horizontalen und vertikalen Auflösung ab.
  • Die horizontale Winkelauflösung des Bilds hängt von der Drehzahl und der Linienlesefrequenz ab. Die existierenden linearen Kameras haben Linienlesefrequenzen, die typisch von 6 bis 87 kHz gehen. In der Praxis hängt das Limit der Lesefrequenz von den Beleuchtungsbedingungen und der Lichtempfindlichkeit ab. Für eine Drehzahl typisch von 0,12 bis 2 Umdrehungen pro Sekunde, liegt die horizontale Auflösung zwischen 0,01 und 2 mrad/Pixel (Milliradian pro Pixel).
  • Die vertikale Winkelauflösung wird durch die Anzahl Pixel des Sensors und die Winkelöffnung des Objektivs bestimmt. Für eine Anzahl Pixel von 512 bis 8192 und eine vertikale Winkelöffnung zwischen 4 und 45° liegt die vertikale Auflösung zwischen 0,01 und 1,5 mrad/Pixel.
  • Bei einer dritten Ausführungsform, die auf den 5A und 5B veranschaulicht ist, umfasst der optische Sensor 10 eine Einheit stationärer Kameras. Genauer genommen umfasst der optische Sensor:
    • – ein Gehäuse 61, das an dem Aufbau des Schiffs befestigt ist und eine mit einer Scheibe verschlossene Öffnung 62 aufweist,
    • – eine oder mehrere digitale Kameras 63 (typisch vier), die an dem Gehäuse 61 befestigt sind,
    • – ein Objektiv 64 für jede Kamera 63, wobei die Einheit der Objektive derart angeordnet ist, dass die Sektoren, die sie abtasten, einen wesentlichen Abschnitt des Horizonts (typisch 187°) abdecken, und
    • – eine Anschluss- und Multiplexvorrichtung 65, die es erlaubt, die von allen Kameras stammenden Bilder gleichzeitig zu verarbeiten. Diese Vorrichtung kann eine Elektronikkarte enthalten, die einen Teil der Bildbearbeitung ausführt.
  • Bei dieser dritten Ausführungsform hängt die Auflösung der Bilder von den Bewegungen der Plattform des Trägerschiffs ab. Typisch erlaubt es auf einem großen Schiff mit einem auf +/–10° eingeschränkten Rollen der Einsatz der Kameras mit einer Definition von 1280×1024 Pixeln und Objektiven zu 8 bis 12 mm, die erforderliche Auflösung unter allen Beleuchtungsbedingungen für eine Erfassungsreichweite bis zu 10.000 Meter zu erzielen.
  • Die Schnittstelle mit den optischen Sensoren (Karte und Elektronikschaltkreis und/oder Software, und/oder verdrahtete Anschlüsse, und/oder drahtlose Anschlüsse) zwischen den optischen Sensoren und dem dazugehörenden Rechner ist an die ausgewählte Architektur angepasst. Diese Schnittstelle kann daher Folgendes umfassen:
    • – eine in den Rechner eingebaute Schnittstelle,
    • – eine in die Sensoren eingebaute Schnittstelle,
    • – eine Schnittstelle in einem Zwischengehäuse.
  • Die Schnittstelle mit den optischen Sensoren gewährleistet zwei Funktionen:
    • – das Erfassen der Bilder und in dem Fall, in dem die Sensoren eine Dreheinheit aufweisen, das Erfassen der Ausrichtungsmessung, und
    • – das Steuern der Sensoren, das heißt das Steuern der Kameras, und, in dem Fall, in dem die Sensoren eine Dreh einheit aufweisen, das Steuern der Ausrichtungsmotoren.
  • Bei der ersten oben beschriebenen und auf den 3A und 3B veranschaulichten Ausführungsform, bei der der optische Sensor 10 eine Kamera aufweist, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation zu decken, ist die IFC-Schnittstelle ein Elektronikschaltkreis, der in den Rechner eingebaut ist.
  • Bei der zweiten oben beschriebenen und auf den 4A und 4B veranschaulichten Ausführungsform, bei der der optische Sensor 10 eine drehende Einlinienkamera verwendet, ist die IFC-Schnittstelle ein Schaltkreis, der in die Elektronikkarten 56 integriert ist, die auf der Dreheinheit 42 montiert sind.
  • Bei der dritten Ausführungsform, die oben beschrieben und auf den 5A und 5B veranschaulicht ist, bei der der optische Sensor 10 eine Einheit stationärer Kameras aufweist, ist die IFC-Schnittstelle eine in die Elektronikkarten der Anschluss- und Multiplexvorrichtung 65 integrierte Schaltung.
  • Das von den Bildbearbeitungsmitteln IMP angewandte Bildbearbeitungsverfahren erlaubt es, in Echtzeit aus jedem von dem optischen Sensor 10 gelieferten Bild Informationen über die Position von Objekten zu extrahieren, die auf der Oberfläche des Meers sichtbar sind, indem die Wellen und Schaum eliminiert werden.
  • Diese Bildbearbeitung umfasst die Schritte bestehend aus:
    • – Umrahmen des verwendbaren Teils des von dem optischen Sensor 10 gelieferten Bilds,
    • – Messen der Leuchtintensität auf mindestens einem Teil des Bilds,
    • – Vergleichen jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu jedem Pixel je nachdem, ob der Unterschied über oder unter einem Leuchtintensitätsschwellenwert liegt,
    • – Suchen der Pixel mit einem gegebenen Wert, die aneinander grenzende Pixelgruppen bilden, wobei jede Gruppe aneinander liegender Pixel ein sichtbares Objekt bildet, und
    • – Messen einer Position und der Dimensionen der sichtbaren Objekte.
  • Das Umrahmen des verwendbaren Teils kann ein automatisches Erfassen der Horizontlinie umfassen. Es kann auch ein Aufrichten des Bilds umfassen, damit die Horizontlinie parallel zum unteren Bildrand bleibt.
  • Der verwendbare Teil des Bilds kann selbst in mehrere Teile geteilt werden, zum Beispiel in Abhängigkeit von der Entfernung zwischen jedem Pixel und der Horizontlinie, die grob die Entfernung des entsprechenden Punkts von dem Trägerschiff bestimmt.
  • Das Messen der Leuchtintensität kann je nach verwendetem Kameratyp auf der Leuchtdichte allein und/oder auf einem oder mehreren der drei Farbanteile (Rot, Blau, Gelb) erfolgen.
  • Das Vergleichen jedes Pixels mit der mittleren Leuchtstärke kann gleichzeitig mit mehreren Parametern erfolgen (Schwellenwert, Farbe).
  • Das Erfassen der sichtbaren Objekte kann einen Bewertungsschritt der Beständigkeit jeder Pixelgruppe in den aufeinander folgenden Bildern umfassen. Dazu werden die Informa tionen über die Position aller Pixelgruppen jedes Bilds in einer Datenbank gespeichert. Das Vergleichen der aufeinander folgenden Datenbanken, die der Abfolge von Bildern in einem gleichen Sektor entsprechen, erlaubt es, Gruppen, die sichtbare Objekte bilden, in Abhängigkeit von ihrer Beständigkeit zu bestimmen, das heißt in Abhängigkeit von dem Erscheinungsprozentsatz dieser Gruppen in einer bestimmten Anzahl von Bildern. Dieses Verfahren erlaubt es, „nicht beständige" Objekte zu eliminieren: Wellen, Reflexionen, Schaum, und nur die Objekte zu behalten, die Schiffen oder auf der Oberfläche schwimmenden Objekten entsprechen.
  • Bei der ersten Ausführungsform, bei der der optische Sensor 10 eine Kamera aufweist, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken, erfolgt die Bildbearbeitung auf jedem Bild, das heißt typisch alle 1/15 Sekunde. Diese Bearbeitung umfasst die folgenden Schritte:
    • – automatisches Erfassen der Horizontlinie,
    • – Aufrichten des Bilds, damit die Horizontlinie zum unteren Bildrand parallel bleibt,
    • – Messen der mittleren Leuchtintensität auf mindestens einem Teil des auf dem Horizont zentrierten Bilds,
    • – Vergleichen jedes Pixels mit einem Leuchtstärkeschwellenwert, der von der mittleren Leuchtstärke abhängt und Zuweisen eines Binärwerts zu jedem Pixel je nachdem, ob der Unterschied über oder unter dem Leuchtintensitätsschwellenwert liegt,
    • – Suchen der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender Pixel bilden,
    • – Speichern der Information über die Position aller Gruppen von Pixeln in einer Datenbank erfasster Gruppen BDG,
    • – Vergleichen der Datenbanken erfasster Gruppen, die nacheinander gebildet werden, mit jedem von dem optischen Sensor gelieferten Bild, und
    • – Bestimmen der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit von ihrer Beständigkeit in mehreren Datenbanken erfasster Gruppen.
  • Bei der zweiten Ausführungsform erfolgt die Bildbearbeitung durch die Bildbearbeitungsmittel IMP zuerst auf jedem Elementarbild, das einer senkrechten Linie entspricht, das heißt typisch alle 1/3000 Sekunde. Diese Bearbeitung umfasst die folgenden Schritte:
    • – automatisches Erfassen der Horizontlinie,
    • – Neueinstellen des Bilds, damit die Horizontlinie in einer konstanten Entfernung in Pixelzahl vom unteren Bildrand bleibt,
    • – Messen des mittleren Leuchtintensität auf mindestens einem Teil des auf den Horizont zentrierten Bilds,
    • – Vergleichen jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu jedem Pixel je nachdem, ob der Unterschied über oder unter einem Leuchtintensitätsschwellenwert liegt, und
    • – Wiederherstellen eines von der Abfolge der senkrechten Linien gebildeten Bilds.
  • Auf jedem so wiederhergestellten Bild, das heißt typisch alle Sekunden, umfasst die Bildbearbeitung die folgenden Schritte:
    • – Suche der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender Pixel bilden,
    • – Speichern der Informationen über die Position aller Pixelgruppen in einer Datenbank erfasster Gruppen BDG,
    • – Vergleichen der Datenbanken erfasster Gruppen, die bei jedem aufeinander folgenden wiederhergestellten Bild gebildet werden (Vergleich typisch alle 3 bis 10 Bilder), und
    • – Bestimmen der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit von ihrer Beständigkeit in mehreren Datenbanken erfasster Gruppen.
  • Bei der dritten Ausführungsform wird die Bildbearbeitung von den Bildbearbeitungsmitteln IMP auf jedem Bild ausgeführt, das heißt typisch alle Sekunden. Diese Bearbeitung umfasst die folgenden Schritte:
    • – automatisches Erfassen der Horizontlinie,
    • – Aufrichten des Bilds, damit die Horizontlinie zum unteren Bildrand parallel bleibt,
    • – Messen der mittleren Leuchtintensität auf mindestens einem Teil des auf den Horizont zentrierten Bilds,
    • – Vergleichen jedes Pixels mit der mittleren Leuchtintensität und Zuweisen eines Binärwerts zu jedem Pixel je nachdem, ob der Unterschied über oder unter dem Leuchtintensitätsschwellenwert liegt,
    • – Suche der Pixel mit einem gegebenen Wert, die Gruppen aneinander grenzender Pixel bilden,
    • – Speichern der Informationen über die Position aller Gruppen von Pixeln in einer Datenbank BDG erfasster Gruppen,
    • – Vergleich der Datenbanken erfasster Gruppen, die in jedem aufeinander folgenden Bild gebildet sind (typisch auf 3 bis 10 Bildern), und
    • – Bestimmen der Gruppen, die sichtbare Objekte bilden, in Abhängigkeit von ihrer Beständigkeit in mehreren Datenbanken erfasster Gruppen.
  • Die Merkmale der sichtbaren Objekte werden in einer Datenbank sichtbarer Objekte BDOV gespeichert.
  • Im Allgemeinen weist der zu der Bildbearbeitung gehörende optische Sensor die folgenden Merkmale auf:
    • – er liefert Erfassungsinformationen, das heißt die Gegenwart eines Objekts, seinen Azimut, und in dem Fall eines Systems mit mehreren Sensoren, die Entfernung des Objekts,
    • – er erlaubt ein Erfassen im sichtbaren Bereich unter den gleichen Sichtbedingungen wie das menschliche Auge, bei Tag sowie bei Nacht; mit entsprechenden Sensoren (zum Beispiel Infrarotsensoren) kann man auch bei schwierigeren Bedingungen arbeiten,
    • – nachts kann das System eine Infrarotbeleuchtungsvorrichtung aufweisen, wobei die Erfassungsentfernung nicht beleuchteter Objekte bis zu 2000 Meter gehen kann,
    • – er weist eine Erfassungsentfernung auf, die je nach Konfiguration des Systems und der Kinematik des Trägerseefahrzeugs bis zu 10.000 Meter betragen kann und gleichzeitig auch die am nächsten liegenden Objekte erfasst,
    • – er erlaubt das Erkennen der vom Radar nicht erfassten Objekte, wie zum Beispiel kleine Boote und schwimmende Wracks,
    • – die Bildbearbeitung kann sowohl in Farbe als auch in Schwarz und Weiß erfolgen,
    • – er kann mit den folgenden Plattformbewegungen funktionieren: Rollen (+/–35°), Periode von 5 bis 15 Sekunden, Nicken (+/–15°), Winkelgeschwindigkeit unter 10°/s.
    • – er ist an die maritime Umgebung hinsichtlich der Abdichtung, des mechanischen und elektrischen Schutzes, der Beständigkeit gegenüber der Sonne, Gischt und Schwingungen aufgemacht.
  • Das Kollisionswarnanalyseverfahren, das von den Kollisionswarnanalysemitteln ACOL umgesetzt wird, weist die folgenden Schritte auf:
    • – Bestimmen von Informationen über die Position jedes sichtbaren Objekts in der Datenbank BDOV in Abhängigkeit von ihrer Position in den von dem optischen Sensor gelieferten Bildern,
    • – periodisches Berechnen der Entwicklung der Informationen über die Position jedes sichtbaren Objekts,
    • – Bewerten der Kollisionsgefahr des Seefahrzeugs mit jedem sichtbaren Objekt in Abhängigkeit von der Entwicklung der Informationen über die Position des sichtbaren Objekts.
  • Die Informationen über die Position eines sichtbaren Objekts umfassen seinen Azimut, seinen Geländewinkel (Winkelunterschied in Bezug auf die Horizontlinie) und eventuell seine Entfernung, wenn diese vielleicht berechnet wird (in dem Fall eines Systems mit mehreren Sensoren). Diese Infor mationen werden von einer Angabe der augenscheinlichen Maße des Objekts in dem Bild vervollständigt: Höhe und/oder Breite in Anzahl Pixel.
  • Das Analysekonzept der Kollisionsgefahr, das von der Erfindung angewandt wird, beruht auf der Entwicklung des Azimuts eines sichtbaren Objekts und auf der Entwicklung seiner Dimensionen und eventuell seiner Entfernung, wenn diese berechnet wird.
  • Genauer genommen umfasst das Kollisionswarnanalyseverfahren die folgenden Schritte:
    • – periodisches Berechnen der Entwicklung der Informationen über die Position und Dimension jedes sichtbaren Objekts durch Analyse der Datenbank der sichtbaren Objekte in Abständen von 30 Sekunden über eine Historie, die bis zu 20 Minuten geht,
    • – Extrahieren der Objekte, deren Azimutvariation kleiner ist als 1,5°/Min. (Grad pro Minute),
    • – Extrahieren der Objekte, deren Dimension zunimmt und/oder deren Entfernung (wenn sie berechnet wird) abnimmt, und
    • – Bilden einer Datenbank gefährlicher Objekte BDOD, die die Merkmale der sichtbaren Objekte vereinen, die bei den zwei vorhergehenden Schritten extrahiert wurden.
  • Die Analyse der Entwicklung des Azimuts eines sichtbaren Objekts kann als Grundlage für eine Schätzung einer Kollisionsgefahr dienen, wie das auf den 6A und 6B veranschaulicht ist. Diese Figuren stellen die Bahn 1 des Schiffs und die geschätzte Bahn 2 eines sichtbaren Objekts dar. Die auf den Bahnen 1, 2 gebildeten Punkte zeigen die jeweiligen Positionen des Schiffs und des Objekts in Augen blicken t1 bis t9.
  • 6A veranschaulicht den Fall eines als gefährlich beurteilten sichtbaren Objekts. Man stellt auf dieser Figur fest, dass der Azimut des sichtbaren Objekts in Bezug auf den Azimut des Schiffs konstant ist.
  • 6B veranschaulicht den Fall eines als nicht gefährlich beurteilten sichtbaren Objekts. In diesem Fall ist der Azimut des sichtbaren Objekts in Bezug auf das Schiff nicht konstant.
  • Die Variation der Größe jedes sichtbaren Objekts bildet auch eine Information, die zum Beurteilen einer Kollisionsgefahr zu berücksichtigen ist. Wenn das Schiff und das sichtbare Objekt nämlich parallelen Bahnen mit der gleichen Geschwindigkeit folgen, ist der Azimut des Objekts in Bezug auf den des Schiffs konstant, obwohl das Objekt keine Bedrohung für das Schiff darstellt. Wenn die scheinbare Größe eines sichtbaren Objekts ferner zunimmt, bedeutet das, dass es sich dem Schiff nähert.
  • Wenn das Schiff mit einem ARPA-Automaten gekoppelt mit einem Radarsystem ausgestattet ist, kann ferner vorgesehen werden, dass die Azimute und Entfernungen von Radarechos, die vom „ARPA"-Automaten berücksichtigt werden, und „AIS"-Pisten erfasst werden. Die Positionen der Radarechos und der AIS-Pisten können dann mit der Datenbank der gefährlichen Objekte BDOD verglichen werden, um jede externe Piste mit einem gefährlichen Objekt und umgekehrt in Beziehung zu bringen. Die Datenbank der gefährlichen Objekte kann daher alle gefährlichen Objekte vereinen, die von dem erfindungsgemäßen System und von den anderen Ausstattungen des Schiffs erfasst werden, wobei jedes gefährliche Objekt in der Datenbank mit einer Information verbunden ist, die anzeigt, welche(s) Mittel das jeweilige Objekt erfasst hat.
  • Die Datenbanken sichtbarer Objekte BDOV und gefährlicher Objekte BDOD sind in ANSI in einem Rahmenformat codiert, das mit den geläufig in den Datenverarbeitungssystemen an Bord der Schiffe verwendeten Softwareprogrammen kompatibel ist, typisch das Format NMEA (National Maritime Electronics Association) oder das Format XML (eXtended Markup Language). Die zu jedem Objekt gehörenden Attribute in diesen Datenbanken umfassen vorteilhafterweise:
    • – die Uhrzeit des ersten Erfassens,
    • – den Azimut,
    • – die Winkelbreite,
    • – die Entfernung vom Schiff, falls diese berechnet wird,
    • – die Präzision hinsichtlich der Entfernung vom Schiff,
    • – die Beständigkeit und
    • – den Kontrast.
  • Die Bediener-/Maschinen-Schnittstelle IHM stellt die Informationsfunktionen der Besatzung und Steuerung des Systems sicher. Die Informationsfunktion der Besatzung umfasst:
    • – das Abgeben eines Warnsignals, das ein akustisches und/oder visuelles und/oder an einen spezifischen Bedarf angepasstes Signal sein kann (zum Beispiel Sprachsynthese oder Vibration auf einem getragenen Gehäuse), sobald die Datenbank der gefährlichen Objekte ein neues Element enthält,
    • – das Anzeigen der Positionsinformationen eines gefährli chen Objekts und insbesondere seines Azimuts, und eine Anzeige der Dringlichkeit der Situation (zum Beispiel eine Entfernung oder eine Frist vor der Kollision) und
    • – das Aufzeichnen einer Historie der Datenbanken der sichtbaren und der gefährlichen Objekte.
  • Man kann auch vorsehen, dass die Bediener-/Maschinen-Schnittstelle IHM die Möglichkeit vorsieht, in Echtzeit das Bild eines Objekts in Sicht auf Anfrage des Bedieners anzuzeigen.
  • Wenn das Schiff mehrere Detektionsmittel aufweist, kann die Bediener-/Maschinen-Schnittstelle IHM auch eine Angabe des oder der Mittel zum Erfassen jedes Objekts anzeigen. Wenn das Schiff mit einer ARPA-Vorrichtung zur Kollisionswarnunterstützung verbunden mit einem Radar ausgestattet ist, erlaubt es die Bediener-/Maschinen-Schnittstelle vorteilhafterweise, in Grafikform die Informationen aus den Datenbanken sichtbarer und gefährlicher Objekte mit der ARPA-Anzeige zu überlagern. Ist das Schiff mit einer digitalen Kartografievorrichtung ausgestattet, zum Beispiel gemäß der Norm ECDIS (Electronic Chart Display and Information System), kann die Bediener-/Maschinen-Schnittstelle in grafischer Form die aus den Datenbanken sichtbarer und gefährlicher Objekte stammenden Informationen mit der ECDIS-Anzeige überlagern.
  • Die Steuerfunktion des Systems umfasst Steuerungen zur geläufigen Verwaltung des Funktionierens des Systems sowie Steuerungen, die es erlauben, die Wartung des Kollisionswarnsystems sicherzustellen.
  • Die Steuerungen der geläufigen Wartung umfassen einen Befehl zum Ein- und Ausschalten des Systems sowie gegebenenfalls Befehle, die es erlauben, andere zu berücksichti gende Erfassungsmittel auszuwählen.
  • Die Befehle zur Wartung des Systems umfassen Befehle zum Einschalten, Ausschalten und Einstellen jeder Kamera, Befehle, die es erlauben, interne Einstellungen des Rechners auszuführen (Schwellenwerte, Parameter), und Befehle zum Starten automatischer Vorgehensweisen zum Kalibrieren sowie interner Tests des Systems.
  • Die Bediener-/Maschinen-Schnittstelle IHM ist am Eingang mit der Datenbank sichtbarer Objekte BDOV sowie mit der Datenbank gefährlicher Objekte DBOD verbunden. Sie kann in den Steuerposten des Seefahrzeugs integriert oder dezentral installiert werden.
  • Bei einer Ausführungsform des erfindungsgemäßen Systems ist die Bediener-/Maschinen-Schnittstelle IHM in ein externes Navigationssystem integriert. Die Funktionen des Warnens, der Anzeige und Steuerung bereichern die existierenden Schnittstellen des externen Navigationssystems zur Nutzung von ARPA- oder ECDIS-Anzeigemitteln.
  • Die ARPA-Anzeigemittel zeigen auf einem Anzeigebildschirm eine kreisförmige Zone um das Schiff an. Die ARPA-Ansicht ist ständig auf das Schiff zentriert. Das Erkennen wird durch einen radialen, auf den Norden abgestimmten Strich oder relativ zur Achse des Schiffs abgestimmten Strich erleichtert, sowie durch eine Anzahl Entfernungsringe.
  • Die ECDIS-Anzeigemittel zeigen auf einem Anzeigebildschirm eine rechteckige geografische Karte an, die eine internationale Norm einhält. Diese Karte ist durch die geografische Position ihrer Mitte, durch ihren Maßstab, den Projektionstyp (im Allgemeinen Mercator) und ihre Ausrichtung (meistens zum Norden oder entlang der Achse des Schiffs) gekennzeichnet. Die Orientierung wird auf dieser Karte durch einen Raster erleichtert, der die konstanten Breiten und Längen darstellt.
  • Diese zwei Typen von Anzeigemitteln zeigen in Form spezifischer Symbole sichtbare Objekte und gefährliche Objekte an. Derart kann die Kollisionsgefahr visuell beurteilt werden.
  • Auf Betreiben des Bedieners kann ein Bild eines sichtbaren Objekts in einem auf dem Anzeigebildschirm angezeigten Fenster dargestellt werden. Dieses Bild wird typisch alle Sekunden aufgefrischt, um in Echtzeit eine visuelle Beurteilung der Entwicklung eines erfassten Schiffs zu erlauben.
  • Wenn das erfindungsgemäße System Informationen von mehreren Sensoren empfängt, kann es auch für jedes Objekt eine Messung des Winkelabstands der Azimute des Objekts, die von den verschiedenen Sensoren geliefert werden, sowie eine Berechnung der Entfernung des Objekts ausführen.
  • Dank diesen Vorrichtungen kann das erfindungsgemäße Kollisionswarnsystem eine bestimmte Redundanz mit den existierenden Mitteln bieten. Es bietet daher eine zuverlässige Meldung mit einer relativ niedrigen Fehlalarmrate.
  • Dank diesen Merkmalen findet das erfindungsgemäße System Anwendungen in zahlreichen Gebieten, insbesondere:
    • – im Gebiet der von Spezialisten in Dienst gestellten Schiffe (Handel, Fischerei, Vergnügungsschifffahrt, Schiffe des öffentlichen Bereichs),
    • – in dem Gebiet der Vergnügungsschifffahrt durch seinen Beitrag zur Sicherheit und zum Komfort der Besatzung, insbesondere bei Fehlen eines Radars,
    • – in dem Gebiet der Küstenschifffahrtskanäle (Bojen, Leuchttürme, Baken, Kais usw.) durch eine Überwachung und Kontrolle des Verkehrs und eine Redundanz der Kollisionswarnsicherheit in den gefährlichsten Zonen,
    • – in dem Gebiet der Seedrohnen durch die Möglichkeit, eine ständige Kontrolle der Kollisionswarnsicherheit zu garantieren, auch wenn die Aktivitätszone einer Drohne nicht unter der visuellen Kontrolle des Steuerpostens ist.
  • Ferner erlaubt es das erfindungsgemäße System auf jedem Seefahrzeug, automatisch eine Aufzeichnung aller Erfassungen sichtbarer Objekte, die die automatisch in einer „Fahrtschreiberbox" oder VDR (Voyage Data Recorder) aufgezeichneten Daten bereichern können, auszuführen.
  • Es ist für den Fachmann klar, dass das erfindungsgemäße System verschiedene andere Ausführungs- und Anwendungsvarianten erlaubt. Die Erfindung ist daher nicht auf ein System beschränkt, bei dem der optische Sensor den gesamten Horizont des Seefahrzeugs abdeckt. Die von dem optischen Sensor überwachte Zone kann nämlich auf einen Bugsektor des Seefahrzeugs beschränkt werden. Es ist auch nicht zwingend, dass das System Zugang zu Positionsinformationen, wie zum Beispiel zum Azimut, des Seefahrzeugs oder zu Informationen hat, die von anderen Systemen, die das Seefahrzeug ausstatten, geliefert werden. Die Position der erfassten Objekte kann nämlich in Bezug auf das Seefahrzeug und seinen Kurs bestimmt werden. Ferner kann das erfindungsgemäße System keine Bediener-/Maschinen-Schnittstelle aufweisen und einfach Informationen über das Erfassen gefährlicher Objekte zu einem anderen System des Seefahrzeugs, das eine Bediener-/Maschinen-Schnittstelle aufweist, senden.

Claims (21)

  1. Kollisionswarnsystem für ein Seefahrzeug (12), umfassend: – mindestens einen optischen Sensor (10), der mindestens teilweise den Horizont des Seefahrzeugs abdeckt und Bilder liefert, – Bildbearbeitungsmittel (IMP), um in Echtzeit in jedem vom optischen Sensor gelieferten Bild aneinander grenzende Pixelgruppen in Abhängigkeit von der Leuchtintensität jedes Pixels des Bildes zu suchen, um in Echtzeit die Beständigkeit jeder Pixelgruppe in aufeinander folgenden Bildern zu bewerten, um in Echtzeit Gruppen, die sichtbare Objekte auf der Oberfläche des Meeres bilden, in Abhängigkeit von ihrer Beständigkeit zu bestimmen und um in Echtzeit Informationen über die Position und die Dimension mindestens eines der sichtbaren Objekte zu bestimmen, – Kollisionsanalysemittel (ACOL), um periodisch die Entwicklung der Informationen über die Position und die Dimension mindestens eines sichtbaren Objekts zu berechnen und eine Gefahr einer Kollision des Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit von der Entwicklung der Informationen über die Position und Dimension des sichtbaren Objekts zu bewerten.
  2. System nach Anspruch 1, bei dem der optische Sensor (10) mindestens eine in Bezug zum Seefahrzeug feste Kamera umfasst und mindestens einen wesentlichen Teil des Horizonts permanent abdeckt.
  3. System nach Anspruch 1, bei dem der optische Sensor (10) mindestens eine Kamera umfasst, deren optisches Feld ausrichtbar ist, um den Horizont durch Rotation abzudecken.
  4. System nach Anspruch 3, bei dem der optische Sensor (10) umfasst: – eine Kamera (28), umfassend ein Objektiv (29) mit einer optischen Achse, die im Wesentlichen vertikal ausgerichtet ist, – eine Dreheinheit (30), die von einem Motor (31) bewegt wird und einen Spiegel (32) trägt, der im optischen Feld des Objektivs angeordnet und im Wesentlichen 45° zur optischen Achse des Objektivs ausgerichtet ist, und – eine Vorrichtung (14) zum Messen der Winkelposition der Dreheinheit (30).
  5. System nach einem der Ansprüche 1 bis 4, umfassend: – ein Gehäuse (21), das von einem Sockel (22) gebildet ist, der als Stütze dient, und – eine stabilisierte Wanne (24), die auf einer Stabilisierungsvorrichtung (25, 26) montiert ist und als Stütze für den optischen Sensor (10) dient.
  6. System nach Anspruch 5, bei dem die Stabilisierungsvorrichtung eine Kardanaufhängung (25) und ein Kreiselrad (26) umfasst.
  7. System nach Anspruch 3, bei dem der Sensor (10) eine Einlinienkamera umfasst, die in Rotation um eine Vertikalachse angetrieben wird.
  8. System nach Anspruch 7, umfassend: – ein Gehäuse (41), – eine Dreheinheit (42), die in dem Gehäuse (41) gehalten und von einem Motor (44) mit Vertikalachse bewegt wird, – eine Schutzkappe (45) für die Dreheinheit, die mit einer Öffnung (49) versehen ist, – eine Digitalkamera (46), die an der Dreheinheit befestigt ist und einen Einliniensensor (47) umfasst, – ein Objektiv (48), dessen optische Achse den Horizont durch Rotation der Dreheinheit (42) abtasten kann.
  9. System nach Anspruch 8, bei dem der Sensor (10) eine Schutzscheibe (52) umfasst, die mit Hilfe eines Sauggebläses (53) belüftet wird, um das Objektiv (48) zu schützen.
  10. System nach Anspruch 8 oder 9, bei dem Elektronikkarten (56) zur Bildbearbeitung mit der Dreheinheit (42) verbunden sind.
  11. System nach einem der Ansprüche 8 bis 10, umfassend eine Vorrichtung (57) zum Messen der Winkelposition der Dreheinheit (42).
  12. System nach einem der Ansprüche 8 bis 11, bei dem die digitalen Ausgangsdaten des optischen Sensors (10) über Drehkontakte (58) übertragen werden, die auch den Kontakt der Versorgung der Elemente der Dreheinheit (42) sicherstellen.
  13. System nach einem der Ansprüche 1 bis 12, umfassend Schnittstellenmittel mit einem Kompass.
  14. System nach einem der Ansprüche 1 bis 13, umfassend Schnittstellenmittel mit weiteren Sensoren und Analysemittel, die eine Kohärenzanalyse mit von den anderen Sensoren gelieferten Informationen durchführen.
  15. System nach einem der Ansprüche 1 bis 14, umfassend Anzeigemittel (IHM), um anzuzeigen, dass ein gefährliches Objekt erfasst wurde.
  16. System nach einem der Ansprüche 1 bis 15, bei dem die Informationen über die Position jedes sichtbaren Objekts einen Azimut des Objekts umfassen.
  17. Kollisionswarnverfahren in einem Kollisionswarnsystem für ein Seefahrzeug (12), umfassend mindestens einen optischen Sensor (10), der mindestens teilweise den Horizont des Seefahrzeugs abdeckt, dadurch gekennzeichnet, dass es die folgenden Schritte umfasst, darin bestehend: – vom optischen Sensor Bilder zu erhalten, die einen Teil des Horizonts des Seefahrzeugs einschließen, – in Echtzeit in jedem erhaltenen Bild aneinander grenzende Pixelgruppen in Abhängigkeit von der Leuchtintensität jedes Pixels des Bildes zu suchen, – in Echtzeit die Beständigkeit jeder Pixelgruppe in aufeinander folgenden Bildern zu bewerten, – in Echtzeit Gruppen, die sichtbare Objekte auf der Oberfläche des Meeres bilden, in Abhängigkeit von ihrer Beständigkeit zu bestimmen, – in Echtzeit Informationen über die Position und die Dimension mindestens eines der sichtbaren Objekte zu bestimmen, – periodisch die Entwicklung der Informationen über die Position und die Dimension mindestens des sichtbaren Objekts zu berechnen, – eine Gefahr einer Kollision des Seefahrzeugs mit dem sichtbaren Objekt in Abhängigkeit von der Entwicklung der Informationen über die Position und Dimension des sichtbaren Objekts zu bewerten, wobei ein sichtbares Objekt als gefährlich betrachtet wird, wenn eine Gefahr einer Kollision des Seefahrzeugs mit dem sichtbaren Objekt besteht.
  18. Verfahren nach Anspruch 17, umfassend Schritte des Anzeigens der Informationen zu jedem gefährlichen Objekt und des Entsendens eines Warnsignals, sobald ein neues gefährliches Objekt erfasst wird.
  19. Verfahren nach Anspruch 17 oder 18, bei dem die Suche von aneinander grenzenden Pixelgruppen in jedem Bild die folgenden Schritte umfasst, darin bestehend: a) den verwendbaren Teil des vom optischen Sensor (10) gelieferten Bildes einzurahmen, b) die durchschnittliche Leuchtintensität der Pixel auf mindestens einem verwendbaren Teil des Bildes zu messen, c) jedes Pixel des verwendbaren Teils des Bildes mit der durchschnittlichen Leuchtintensität zu vergleichen und dem Pixel einen Binärwert in Abhängigkeit vom Ergebnis des Vergleichs zuzuteilen, d) Pixel mit einem gegebenen Binärwert zu suchen, die aneinander grenzende Pixelgruppen bilden.
  20. Verfahren nach Anspruch 19, bei dem das Einrahmen des verwendbaren Teils eine automatische Erfassung der Horizontlinie umfasst.
  21. Verfahren nach einem der Ansprüche 17 bis 20, bei dem die Schritte der Bestimmung der Informationen über die Position und Dimension, der periodischen Berechnung der Entwicklung der Informationen über die Position und Dimension, und der Bewertung der Kollisionsgefahr für jedes Bild durchgeführt werden.
DE602005006145T 2004-09-29 2005-09-29 Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren Active DE602005006145T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0452186 2004-09-29
FR0452186A FR2875913A1 (fr) 2004-09-29 2004-09-29 Systeme d'alerte anti-collision installe a bord d'un vehicule marin et procede d'analyse anti-collision
PCT/IB2005/002903 WO2006035305A2 (fr) 2004-09-29 2005-09-29 Systeme d'alerte anticollision pour vehicule marin et procede d'analyse anticollision

Publications (2)

Publication Number Publication Date
DE602005006145D1 DE602005006145D1 (de) 2008-05-29
DE602005006145T2 true DE602005006145T2 (de) 2009-05-07

Family

ID=34949775

Family Applications (1)

Application Number Title Priority Date Filing Date
DE602005006145T Active DE602005006145T2 (de) 2004-09-29 2005-09-29 Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren

Country Status (16)

Country Link
US (1) US7679530B2 (de)
EP (1) EP1794621B1 (de)
JP (1) JP2008514483A (de)
KR (1) KR20070068349A (de)
CN (1) CN100565245C (de)
AT (1) ATE392633T1 (de)
AU (1) AU2005288666B2 (de)
CA (1) CA2581759A1 (de)
CY (1) CY1108167T1 (de)
DE (1) DE602005006145T2 (de)
DK (1) DK1794621T3 (de)
ES (1) ES2306271T3 (de)
FR (1) FR2875913A1 (de)
HK (1) HK1109931A1 (de)
NZ (1) NZ553296A (de)
WO (1) WO2006035305A2 (de)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100238066A1 (en) * 2005-12-30 2010-09-23 Valeo Raytheon Systems, Inc. Method and system for generating a target alert
TW200821552A (en) * 2006-11-01 2008-05-16 Altek Corp Method for calculating distance and actual size of shot object
US8275170B2 (en) * 2006-12-08 2012-09-25 Electronics And Telecommunications Research Institute Apparatus and method for detecting horizon in sea image
NO330248B1 (no) 2007-10-11 2011-03-14 Aptomar As Et marint sokesystem
WO2009080903A1 (fr) * 2007-12-21 2009-07-02 V.Navy Systeme de detection et de positionnement d'un objet maritime
DE102008005314A1 (de) * 2008-01-21 2009-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines vorbeifahrenden Fahrzeuges bei Dunkelheit
US8477560B2 (en) * 2008-09-19 2013-07-02 Westerngeco L.L.C. Determining a position of an object of a positioning network associated with a marine survey arrangement
WO2010117278A1 (en) * 2009-04-08 2010-10-14 Aptomar As Improved integrated marine search system
KR100940516B1 (ko) * 2009-09-04 2010-02-10 소치재 전기 구동 수단을 구비한 차륜
DE102010022159A1 (de) * 2010-05-20 2011-11-24 Leuze Electronic Gmbh + Co. Kg Optischer Sensor
DE102010021526A1 (de) * 2010-05-26 2011-12-01 Axel Ulrich Schiffsvorrichtung mit einer Kollisionserkennungseinheit
US8810436B2 (en) * 2011-03-10 2014-08-19 Security Identification Systems Corporation Maritime overboard detection and tracking system
KR101071362B1 (ko) * 2011-03-25 2011-10-07 위재영 차량의 물체 거리 인식 시스템 및 작동 방법
CN102708705A (zh) * 2011-12-07 2012-10-03 上海市城市建设设计研究院 防止物体撞击桥梁的预警系统
CN102494633A (zh) * 2011-12-15 2012-06-13 上海市城市建设设计研究院 用于防止船舶撞击桥梁的智能探测装置
KR101289349B1 (ko) * 2013-03-11 2013-07-29 (주)동하테크 해양 네비게이션시스템
KR101288953B1 (ko) * 2013-03-14 2013-07-23 주식회사 엠시스템즈 레저 선박용 블랙박스 시스템
KR101457171B1 (ko) * 2013-03-29 2014-10-31 초당대학교 산학협력단 선박 상황 인식 시스템
CN103234463B (zh) * 2013-04-27 2015-11-25 大连海事大学 一种航行船舶净空高度测量系统及其测量方法
KR20150106066A (ko) * 2014-03-11 2015-09-21 한국전자통신연구원 물체의 충돌 위험 예측 장치 및 그 방법
KR101639005B1 (ko) * 2014-03-27 2016-07-14 주식회사 아리의존 요트용 스마트 감시 조절장치
GB2539027B (en) 2015-06-04 2019-04-17 Thales Holdings Uk Plc Video compression with increased fidelity near horizon
AU2016342375B2 (en) 2015-10-23 2022-03-17 Erx Pharmaceuticals Inc Analogs of celastrol
CN105387858B (zh) * 2015-12-11 2019-03-26 青岛科技大学 一种游艇智能导航系统及工作方法
JP6759673B2 (ja) 2016-03-31 2020-09-23 富士通株式会社 衝突リスク算出プログラム、衝突リスク算出方法および衝突リスク算出装置
DK179246B1 (en) * 2016-03-31 2018-03-05 Ap Moeller Maersk As Container ship
JP6690382B2 (ja) 2016-04-22 2020-04-28 富士通株式会社 航跡データ表示プログラム、航跡データ表示方法および航跡データ表示装置
US10024970B2 (en) * 2016-08-19 2018-07-17 Dura Operating, Llc Sensor housing assembly for attachment to a motor vehicle
CN107103788A (zh) * 2017-05-26 2017-08-29 武汉理工大学 一种基于雷达识别的ais目标补发方法及装置
US10255526B2 (en) 2017-06-09 2019-04-09 Uptake Technologies, Inc. Computer system and method for classifying temporal patterns of change in images of an area
US10189580B2 (en) 2017-06-16 2019-01-29 Aerobo Image stabilization and pointing control mechanization for aircraft imaging systems
US10515559B2 (en) * 2017-08-11 2019-12-24 The Boeing Company Automated detection and avoidance system
JP2019064402A (ja) * 2017-09-29 2019-04-25 東亜建設工業株式会社 船舶航行用監視システム
KR102490560B1 (ko) 2018-01-16 2023-01-19 엘지이노텍 주식회사 비행체에 장착되는 3축 회전 장치
CN108303078B (zh) * 2018-01-29 2021-07-16 哈尔滨工程大学 一种基于立体视觉的全方向船舶防撞预警与导航系统
US10845465B2 (en) 2018-03-12 2020-11-24 Ford Global Technologies, Llc Vehicle object-detection sensor assembly
JP6618562B2 (ja) * 2018-03-22 2019-12-11 東京計器株式会社 船舶用航行支援装置
US10924685B2 (en) * 2018-05-07 2021-02-16 Rubicon Products, LLC Night vision apparatus
US10854090B2 (en) 2018-09-27 2020-12-01 United States Of America As Represented By The Secretary Of The Navy Collision avoidance system and method for a watercraft
EP3647829A1 (de) * 2018-10-31 2020-05-06 Xocean Limited Bildverarbeitung für ein unbemanntes meereswasserfahrzeug
US11738746B2 (en) 2019-06-19 2023-08-29 Ted JEWELL Lifeform transmission system for collision avoidance
FR3097651B1 (fr) 2019-06-20 2021-06-18 Safran Electronics & Defense Procédé de surveillance de l’environnement d’un véhicule
KR102269385B1 (ko) * 2019-10-15 2021-06-25 한국조선해양 주식회사 선박 운항 지원 시스템 및 이를 포함하는 선박
CN110933267A (zh) * 2019-11-12 2020-03-27 浙江大华技术股份有限公司 一种监控摄像机
CN111965682B (zh) * 2020-07-20 2024-02-27 国家海洋局北海预报中心((国家海洋局青岛海洋预报台)(国家海洋局青岛海洋环境监测中心站)) 一种海上浒苔追踪装置及方法
CN112634657B (zh) * 2020-12-29 2022-11-25 中船重工(浙江自贸区)海洋科学研究院有限公司 一种全天时全天候码头船舶靠泊监测系统
CN113050121A (zh) * 2021-03-22 2021-06-29 上海海事大学 一种船舶导航系统和船舶导航方法
CN113112871B (zh) * 2021-04-14 2022-06-24 上海海事大学 一种考虑船舶尺度的船撞桥危险度计算方法
KR102561793B1 (ko) * 2021-07-15 2023-07-31 한화오션 주식회사 비정형 장애물 인식 시스템 및 방법, 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
CN114394206B (zh) * 2022-01-07 2024-01-23 苏州天炯信息科技有限公司 一种智能船舶用防撞警报装置
CN114973771B (zh) * 2022-04-15 2024-02-09 重庆交通大学 一种桥梁主动防船撞方法
CN114934481B (zh) * 2022-04-21 2024-06-07 重庆交通大学 一种涉水桥墩三位一体防船撞设防方法
CN114898594B (zh) * 2022-04-22 2023-05-12 大连海事大学 一种可搭载无人机的通感算控一体化智能灯船控制系统
US11887275B1 (en) 2022-10-14 2024-01-30 Excelsior S. P. LLC Elevated lookout apparatus and a method for its use
CN115880950B (zh) * 2023-02-27 2023-05-05 中国船舶集团有限公司第七一九研究所 一种船舶自动识别系统数据处理方法
CN116985970B (zh) * 2023-09-26 2024-01-12 集美大学 一种船舶避碰风险识别监测装置及其监测方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU32967A1 (de) * 1954-06-29
US3150364A (en) * 1959-05-06 1964-09-22 V James Sproat Green Anti-collision detection and warning system
US3820068A (en) * 1972-06-29 1974-06-25 Westinghouse Learning Corp Background reference level system and method for document scanners
US3889052A (en) 1973-10-19 1975-06-10 Frank G Back Navigation and surveillance system
US4290043A (en) * 1979-10-16 1981-09-15 Kaplan Irwin M Method of and system for detecting marine obstacles
WO1983001681A1 (en) 1981-11-09 1983-05-11 Navidyne Corp Improved gyro-stabilized apparatus
GB8304686D0 (en) * 1983-02-19 1983-03-23 Sperry Ltd Collision avoidance apparatus
FR2551920B1 (fr) 1983-09-14 1985-12-06 Gall Jean Claude Le Dispositif de stabilisation et de pointage d'antenne, notamment sur navire
JPS63108288A (ja) 1986-10-24 1988-05-13 Furuno Electric Co Ltd 衝突予報装置
FR2665316B1 (fr) 1990-07-27 1992-10-09 Thomson Trt Defense Procede de traitement d'images pour la detection de l'horizon et dispositif de mise en óoeuvre.
IL97290A (en) 1991-02-19 1995-12-31 Israel Aircraft Ind Ltd Method and system for moving object detection and classification
GB9316538D0 (en) 1993-08-10 1993-09-29 Oxley Dev Co Ltd Collision detection and avoidance system
US6553130B1 (en) * 1993-08-11 2003-04-22 Jerome H. Lemelson Motor vehicle warning and control system and method
US5790183A (en) * 1996-04-05 1998-08-04 Kerbyson; Gerald M. High-resolution panoramic television surveillance system with synoptic wide-angle field of view
FR2751772B1 (fr) 1996-07-26 1998-10-16 Bev Bureau Etude Vision Soc Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement
NL1006407C2 (nl) 1997-06-26 1998-12-29 Hollandse Signaalapparaten Bv Systeem voor het visualiseren van een omgeving.
JPH11142956A (ja) * 1997-11-10 1999-05-28 Tamagawa Seiki Co Ltd カメラ安定台
US6400830B1 (en) * 1998-02-06 2002-06-04 Compaq Computer Corporation Technique for tracking objects through a series of images
JP2000162318A (ja) * 1998-11-24 2000-06-16 Hamamatsu Photonics Kk 全方位距離検出装置
US6380871B1 (en) * 1999-11-30 2002-04-30 Optical Systems, Inc. System for and method of searching for targets in a marine environment
US7129971B2 (en) * 2000-02-16 2006-10-31 Immersive Media Company Rotating scan self-cleaning camera
KR100373002B1 (ko) * 2000-04-03 2003-02-25 현대자동차주식회사 차량의 차선 이탈 판단 방법
DE10244641A1 (de) * 2002-09-25 2004-04-08 Ibeo Automobile Sensor Gmbh Optoelektronische Erfassungseinrichtung
US7171028B2 (en) * 2002-11-22 2007-01-30 The Boeing Company Method and apparatus for covertly determining the rate of relative motion between two objects
US6838981B2 (en) * 2003-03-28 2005-01-04 Visteon Global Technologies, Inc. Stopped object filtering for side object detection system

Also Published As

Publication number Publication date
DK1794621T3 (da) 2008-08-18
NZ553296A (en) 2010-06-25
ATE392633T1 (de) 2008-05-15
AU2005288666A1 (en) 2006-04-06
CY1108167T1 (el) 2014-02-12
WO2006035305A2 (fr) 2006-04-06
AU2005288666A2 (en) 2006-04-06
ES2306271T3 (es) 2008-11-01
DE602005006145D1 (de) 2008-05-29
CN100565245C (zh) 2009-12-02
US7679530B2 (en) 2010-03-16
JP2008514483A (ja) 2008-05-08
HK1109931A1 (en) 2008-06-27
CN101057159A (zh) 2007-10-17
US20070188734A1 (en) 2007-08-16
WO2006035305A3 (fr) 2006-10-19
KR20070068349A (ko) 2007-06-29
AU2005288666B2 (en) 2010-07-01
EP1794621A2 (de) 2007-06-13
FR2875913A1 (fr) 2006-03-31
CA2581759A1 (fr) 2006-04-06
EP1794621B1 (de) 2008-04-16

Similar Documents

Publication Publication Date Title
DE602005006145T2 (de) Kollisionsschutzwarnsystem für wasserfahrzeuge und kollisionsschutzanalyseverfahren
CN109409283B (zh) 一种海面舰船跟踪和监控的方法、系统和存储介质
DE102007011616B4 (de) Fahrzeugumgebung-Überwachungsgerät
DE112015005971T5 (de) Hilfsanlegeverfahren und System des Schiffs
DE112015005600T5 (de) Hilfsanlegeverfahren und System des Schiffs
EP3921819A1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
CA3083171C (en) Aircraft landing aid visual indicator device and method for guiding aircraft landing
DE102009054214A1 (de) Verfahren zum Erzeugen einer Darstellung einer Umgebung
WO1999042855A1 (de) Verfahren zum darstellen von radarbildern eines zu überwachenden aktionsbereichs
DE102007019808A1 (de) Landehilfesystem für senkrecht startende und landende Luftfahrzeuge, insbesondere Helikopter
FR2883655A1 (fr) Systeme d'alerte anticollision pour vehicule marin et procede d'analyse anticollision
CN114971595B (zh) 一种应用视频数据分析处理技术的船舶智慧监管系统
WO2017144377A2 (de) Vorrichtung zur integrierten darstellung von informationen auf einem wasserfahrzeug
WO2011157723A1 (de) System und verfahren zur kollisionsvermeidung
DE102014115488B4 (de) Verfahren und System zur Identifizierung eines Wasserfahrzeugs und Verfahren zur Zuordnung von Geoinformationen zu einem Bild einer Wasserfläche
EP1544639B1 (de) Verfahren zum Erkennen von sich hinter einem Flugzeug bildenden Kondensstreifen
EP0822423B1 (de) Verfahren zur Detektion eines Zieles und Anordnung zur Durchführung des Verfahrens
Parsons et al. A new approach to the presentation of marine radar information
DE102016119150A1 (de) Registrierungsberechnung zwischen dreidimensionalen (3D) Abtastungen auf Basis zweidimensionaler (2D) Abtastungsdaten von einem 3D-Scanner
AT519574B1 (de) Vorrichtung zur Ortung einer Blendungsquelle für ein Flugzeug und Verwendung eines Laserscanners hiefür
EP4179460A1 (de) System und verfahren zur lokalisierung eines objekts in einem vorbestimmten areal
DE102020207079A1 (de) Assistenzsystem für Wasserfahrzeuge
DE102021210426A1 (de) Verfahren und System zur Kollisionsverhinderung eines Wasserfahrzeugs
Phelp et al. Video systems for improving port and shipping safety
DE3805252A1 (de) Abbildungssystem

Legal Events

Date Code Title Description
8363 Opposition against the patent