DE19754582A1 - Schiffsnavigation mit Hilfe von Hyper Reality - Google Patents

Schiffsnavigation mit Hilfe von Hyper Reality

Info

Publication number
DE19754582A1
DE19754582A1 DE19754582A DE19754582A DE19754582A1 DE 19754582 A1 DE19754582 A1 DE 19754582A1 DE 19754582 A DE19754582 A DE 19754582A DE 19754582 A DE19754582 A DE 19754582A DE 19754582 A1 DE19754582 A1 DE 19754582A1
Authority
DE
Germany
Prior art keywords
image
merged
representation
real
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19754582A
Other languages
English (en)
Inventor
Benedikt Zeyen
Maike Luebbe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19754582A priority Critical patent/DE19754582A1/de
Publication of DE19754582A1 publication Critical patent/DE19754582A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B49/00Arrangements of nautical instruments or navigational aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G3/00Traffic control systems for marine craft
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/91Radar or analogous systems specially adapted for specific applications for traffic control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Ocean & Marine Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Navigation (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Description

Beschreibung des Standes der Technik
Auf dem Navigationssektor existieren bereits verschiedene elektronische Systeme:
  • 1. Radargeräte dienen der Erfassung umliegender Objekte (Schiffe, Seezeichen, Land). Die Radargeräte haben die Möglichkeit, die Positionen dieser Objekte über eine standardisierte elektronische Schnittstelle an andere Geräte weiterzuleiten.
  • 2. GPS-Empfänger (Global Positioning System) dienen der eigenen Positionsbestimmung über Satelliten nach dem Doppler-Effekt. Die Genauigkeit liegt bei zivilen Systemen inzwischen bei 5m2. Außer GPS existieren noch weitere elektronische Möglichkeiten, die eigene Position zu erfassen, z. B. Loran C, Decca und ENSS (European Navigation Satellite System).
  • 3. elektronische Seekarten bilden die Weiterentwicklung der normalen Seekarten aus Papier. Die neuesten Seekarten arbeiten bereits mit der dritten Dimension und lassen so einen subjekiven Eindruck der Umwelt zu.
Alle Navigationsmittel werden heutzutage schon zusammengefaßt, indem die eigene Position und Auszüge aus dem Radarbild in die Seekarte eingeblendet werden.
In unserer Erfindung verbinden wir die aufbereitete Seekarte mit dem realen Bild der Außenwelt, indem wir die Seekarte in das reale Bild "hineinmischen" und so aus den zwei einzelnen Bildern eine sinnvolle Einheit herstellen. Das Prinzip der Überlagerung virtueller Daten (wie der aufbereiteten Seekarte) und realer Bilddaten zu einer sinnvollen Einheit wird als "Hyper Reality" bezeichnet.
Dieses Prinzip findet seine Anwendung bisher nur in der Flugzeugnavigation. Dort werden virtuelle Navigationsdaten mittels eines "Head Up Displays", eines "Head Down Displays" oder eines "Head Mounted Displays" in das reale Bild hineinprojiziert.
Da in der Schiffsnavigation der Betrachter, im Allgemeinen der Schiffsführer, sich aber im Gegensatz zum Piloten frei im Raum bewegen kann, ist es für die Erzeugung des virtuellen Bildes wichtig, die genaue Position des Betrachters zu kennen. Auch hier existieren bereits verschiedene Systeme, die auf Ultraschall, optischen Verfahren oder Funk aufbauen.
Nachteile des bekannten Standes der Technik
Das Überlagern der beiden Bilder ist in der Flugzeugnavigation sehr einfach, da der Pilot nur einen sehr kleinen Aktionsradius hat, und so das virtuelle Bild nicht immer an seine Position angeglichen werden muß. Dies ist in der Schiffsnavigation anders: Der Betrachter muß zur sicheren Navigation des Schiffes immer die volle Bewegungsfreiheit behalten. Deshalb kann man nicht auf ein System, das auf dem bekannten Stand der Technik aufbaut, zurückgreifen.
Aufgabe der Erfindung
Unsere Erfindung dient dazu, alle vorhandenen Navigationsmittel (Sicht nach draußen, Radar, Seekarte usw.) unter Berücksichtigung der frei wählbaren Betrachterposition zu einem Hyper Reality-Bild zu vereinigen. Außerdem können durch mehrere, in den Unteransprüchen angeführte Zusätze die Möglichkeiten zur Erleichterung der Navigation und Vermeidung von Gefahren stark erweitert werden.
Lösung der Aufgabe
Die Erfindung dient zur Verbesserung und Erleichterung der Navigation auf Schiffen. An die Stelle des manuellen Zusammentragens der einzelnen Informationen aus den bekannten Navigationsmitteln wie Radargeräten, GPS-Empfängern oder Seekarten tritt ein einziges, allumfassendes Bild, das durch die Überlagerung eines virtuellen und eines realen Bildes entsteht.
Das virtuelle Bild setzt sich aus Daten der oben genannten Navigationsmittel und/oder anderer (Ortungs-) Verfahren zusammen. Unter Berücksichtigung der Ausrichtung und der Position des Schiffes wird aus diesen Objektdaten ein virtuelles Abbild der Wirklichkeit erzeugt.
Um das reale Bild zu erhalten, ist die Aufnahme der Wirklichkeit durch eine Videokamera die einfachste Methode. Die Informationen werden durch die virtuellen Daten ergänzt und angezeigt. Es ist jedoch auch möglich, auf jede andere indirekte oder direkte Weise ein reales Bild der Umwelt zu gewinnen (z. B. durch Infrarotaufnahmen (Nachtsichtgeräte); Radaraufnahmen; Geräte, die eine "Nebelsicht" ermöglichen; Unterwasseraufnahmegeräte wie Sonar und Ultraschallgeräte, aber auch Sicht durch eine halbdurchlässige Scheibe).
Das virtuelle Bild wird mit dem realen Bild in Deckung gebracht.
Am einfachsten ist zur Darstellung des Hyper Reality-Bildes die Projektion auf eine Leinwand. Hiermit läßt sich allerdings nur ein zweidimensionales Bild erreichen. Neben den bereits genannten Methoden sind auch alle weiteren Darstellungsformen denkbar, wie die Darstellung auf einem Monitor oder durch Holographie als eine Art der dreidimensionalen Projektion (siehe z. B. "Apple Technical Report #125").
Da der Betrachter sich auf der Brücke bewegen können soll, kann ein einfaches Hyper Reality- System wie in der Flugzeugnavigation nicht angewendet werden. Daher ist es wichtig, die genaue Position des Betrachters relativ zu der Projektionsfläche zu kennen, um so zu garantieren, daß der Betrachter von jedem Standpunkt aus ein sinnvolles Bild erhält. Dies ist die technische Neuerung bei unserer Erfindung.
Wenn sich der Betrachter relativ zu der Projektionsfläche bewegt, ändern sich natürlich auch der Blickwinkel und der Sichtwinkel, unter denen er die Projektionsfläche sieht. Diese Parameter müssen also in die Berechnung des virtuellen Bildes einfließen, um so die vollständige Deckungsgleichheit des realen und virtuellen Bildes zu garantieren.
Vorteile der Erfindung
Das System ist fähig, die Hyper Reality Navigation auf Schiffen zu realisieren, ohne den Betrachter an einen Ort zu "fesseln" oder das Hyper Reality Bild als nicht mehr sinnvolle Einheit (s. o.) erscheinen zu lassen. Das ist auf Schiffen sehr wichtig, da der Schiffsführer im Gegensatz zu Piloten ständig die Bewegungsfreiheit benötigt.
Es ist ein eindeutiger Vorteil der Erfindung, daß das manuelle Zusammentragen der Einzelinformationen für den Schiffsführer entfällt. Stattdessen werden ihm die erfindungsgemäß gesammelten Informationen ohne große Zeitverzögerung in einem Bild angeboten. Selbst bei unsichtigem Wetter ist er immer über die aktuelle Lage informiert; bewegliche Objekte in der Umgebung sowie gegebenenfalls Unterwasser-Bedingungen oder -Hindernisse werden mit dargestellt, so daß er insgesamt einen wesentlich umfassenderen Eindruck von der jeweiligen Situation bekommt, als es die Navigationsmittel einzeln vermitteln könnten. Zusammen mit der Tatsache, daß der Schiffsführer sich jederzeit voll auf das Geschehen konzentrieren kann, wirkt sich dies positiv auf die Sicherheit der Seefahrt aus.
Auch von einem eventuellen Ausfall der Erfindung geht keine Gefahr aus, da erstens durch eine Projektionsfläche nur ein Teil der gesamten Brückenfensterfront verdeckt wird, und eben jene im Falle eines Falles einfach entfernt werden kann. Die räumliche Begrenzung der Projektionsfläche bietet den weiteren Vorteil, daß bei Unklarheiten oder dem Gefühl von Unvollständigkeit der Daten immer die ungehinderte Sicht nach draußen gewährleistet ist. Ferner bleiben auch die bereits vorhandenen Navigationsmittel einzeln voll erhalten.
Das entwickelte System besitzt auch Datenhelmen gegenüber einen entscheidenden Vorteil, da es die vollständige Bewegungsfreiheit zu jedem Zeitpunkt gewährleistet, ohne daß die betreffende Person hinderliche Geräte oder Kabel mit sich herumtragen muß. Die starke Belastung der Augen, die bei längerem Gebrauch von Helmen zum Problem wird, entfällt für die hier beschriebene Entwicklung ganz.
Beschreibung eines Ausführungsbeispiels der Erfindung
Ein erstes Ausführungsbeispiel dieser Erfindung arbeitet noch mit einfachen Hilfsmitteln (Abb. 1). Über die oben erwähnte NMEA 0183-Schnittstelle wird ein Computer mit allen wichtigen Daten des Schiffes und seiner Umgebung versorgt. Dazu gehören: Position, Ausrichtung, Geschwindigkeit, Kurs, andere Objekte in der Nähe des Schiffes, Waypoints, Routen, Tiefgang usw. Die Schnittstelle wird in unserem Prototyp über die serielle Schnittstelle des Computers bereitgestellt. Dadurch, daß die Daten nur in eine Richtung übermittelt werden können (von den Informationslieferanten, wie Radargerät, in den Computer), wird eine Interaktion zwischen den beiden Geräten vermieden, der Prototyp kann also keinesfalls in Funktionen des Schiffes eingreifen; diese Eigenschaft dient auch der Sicherheit des Gerätes. Desweiteren vervollständigt eine digitalisierte Seekarte den Datenvorrat, auf den im Ganzen oder in beliebigen Teilen zu gegriffen werden kann.
Zur Feststellung der Betrachterposition dient in diesem Beispiel ein optisches Verfahren:
Über einen kleinen Infrarotgeber, den der Schiffsführer an geeigneter Stelle mit sich trägt, und zwei zu beiden Seiten der Projektionsfläche angebrachte IR-Empfänger werden Winkel ermittelt, die die Berechnung der genauen Position des Senders und somit des Betrachters erlauben. Die Empfangsschaltungen sind jeweils in einem Zylinder mit einer schmalen senkrechten Öffnung (Schlitz) untergebracht. Einerseits soll dadurch das Foto-Empfangselement gegen die Lichteinflüsse der Umgebung abgeschirmt werden, andererseits wird durch die relativ kleine Öffnung der Empfangsbereich eingeschränkt, was die erforderliche Genauigkeit bei der Winkelbestimmung und allen damit zusammenhängenden Berechnungen ermöglicht. Das gesamte Bauelement wird ohne Unterbrechung und mit konstanter Geschwindigkeit um seine Symmetrieachse gedreht. Gleichzeitig werden zwei verschiedene Lochscheiben über einfache "Getriebe" mitgedreht, deren Hell- und Dunkelphasen von Gabellichtschranken registriert werden und einer Zählschaltung als Zählimpuls dienen. Die beiden Schaltungen sind so koordiniert, daß die erste Schaltung die Phasen registriert, in denen die Empfangsöffnung den Bereich durchläuft, in dem ein mögliches Signal überhaupt nur aufgenommen werden kann. Ist dies der Fall, so wird der zweite Zähler freigegeben, der dann den aktuellen Winkel des Schlitzes bestimmt. Aus den Werten der beiden Zähler, die an den Computer übermittelt werden, bestimmt dieser einen Schnittpunkt, der die Betrachterposition darstellt. Die Signale des mobilen IR-Senders gelangen indirekt über einen 45°-Spiegel und eine halbkugelförmige Sammellinse zum eigentlichen Empfangselement, so daß die Platine der Empfangsschaltung vorteilhafterweise stationär und stabil im oberen Ende des Zylinders untergebracht wird. Die auf den notwendigen Pegel verstärkten Signale werden an den Computer weitergegeben und dort ausgewertet. Der Winkel, unter dem das stärkste Signal registriert wird, ist Grundlage für alle nachfolgenden Berechnungen. Die so per Computer ermittelten Positionsdaten des Betrachters werden aus den unter der Überschrift "Lösung der Aufgabe" genannten Gründen und in der dort beschriebenen Weise bei der Darstellung der Bilddaten berücksichtigt.
Das reale Abbild der Wirklichkeit liefert im Falle des hier beschiebenen Prototyps ein CCD-Kameramodul mit vorgebautem Zoom. Die Anpassung des Zoomfaktors des virtuellen Bildes erfolgt computergesteuert unter Zuhilfenahme der oben beschriebenen Betrachterposition. Zur Steuerung des Kameramoduls (Drehung um seine Achsen) und des Zooms ist in diesem Beispiel ähnlich wie bei den Sensoren zur Betrachterpositionsbestimmung eine mechanische Einrichtung (Abb. 2) notwendig, die mit Hilfe von Motoren sowohl eine Kippbewegung (Nicken der Kamera) als auch eine veränderbare Ausrichtung nach links bzw. rechts (Gieren) ermöglicht. Bei der Mechanik ist vor allem zu bedenken, daß das "Kopfschütteln" (also das Gieren) eine höhere Priorität als die Kippbewegung haben sollte.
Die Steuerung der Motoren erfolgt bei dem Beispiel über ein Steuerungsmodul. Die Schaltung enthält eine Zählkette, so daß Zahlen von 0 bis 255 eingesetzt werden können. Über die Zählvorrichtung gibt der Computer die Anzahl der zu laufenden Schritte und damit den einzustellenden Winkel vor (Sollwert). Durch das Setzen eines Flip-Flops wird die Laufrichtung der Motoren gewählt. Über eine Lochscheibe in Verbindung mit einer Gabellichtschranke werden die Zählimpulse für die Zählkette geliefert, die dann vom gesetzten Wert bis Null zurückzählt und die Stromversorgung des Motors bei Erreichen dieses Wertes selbsttätig unterbindet. Allerdings muß die Zählfunktion uneingeschränkt erhalten bleiben, ohne daß der Motor wieder anfängt zu laufen, damit der Computer durch Auslaufen des Motors entstandene Abweichungen von der. Zielposition feststellen und nötigenfalls korrigieren kann. Dieses Problem wird wie die Laufrichtung über ein Flip-Flop gelöst, das zeitgleich mit dem Load-Signal des Zählers zurückgesetzt wird und so die normale Lauffunktion wieder freigibt. Um eventuellen Fehlern durch Schrittverschiebungen während des Betriebes vorzubeugen und die Kamera beim Start der Anwendung auf einen Nullpunkt auszurichten, ist eine weitere Funktion eingebaut worden. Der Computer hat die Möglichkeit durch ein Init-Signal ein drittes Flip-Flop zu setzen, was unabhängig vom Zählerstand den Motor so lange rückwärts laufen läßt, bis dieser gegen einen im gesetzten Referenzpunkt angebrachten Schalter läuft, der dann die Stromversorgung unterbindet und das Flip-Flop zurücksetzt. Ferner ist zwischen Steuerplatine und Motor ein Leistungstreiber aus vier Leistungstransistoren geschaltet. Über den Computer werden also die Richtung und der zu erreichende Winkel bzw. die Zoomstärke sowie die "Eichfunktion" eingestellt und durch die Rücksendung der aktuellen Zählerwerte kontrolliert, wobei das oben beschriebene Prinzip für alle Motoren gleich ist.
Die Überlagerung der virtuellen (digitalen) und realen (analogen) Bilddaten findet bei diesem Beispiel in einem externen Genlock Overlayer statt. Das schließlich projizierte Bild entsteht aus dem Zur-Deckung-Bringen der zeitgleich gelieferten, verschiedenen Bilddaten. Da zur Erstellung des virtuellen Bildes immer die aktuellen Daten aller Informationslieferanten (Radargerät, Seekarte etc. aber auch die Sensoren zur Bestimmung der Betrachterposition und die momentanen Kameraeinstellungen) benutzt werden, stellen beide Einzelbilder denselben Zeitmoment sowie die gleichen Objekte aus derselben Perspektive dar. Erst diese Tatsache macht das Überlagern der Bilder sinnvoll.
Für die hier beschriebene mögliche Ausführung der Entwicklung ist zur sichtbaren Darstellung ein Videoprojektor mit Leinwand gewählt worden.
Wie in den vorangehenden Abschnitten immer wieder erwähnt, ist die Software (Abb. 3) zentrale Zusammenlaufstelle der einzelnen Datenkomponenten. Hier werden die Seekarten- und Radardaten unter Berücksichtigung der Betrachterposition in ein virtuelles Bild umgesetzt. Die Kamera wird ebenso wie der Zoom von hier aus gesteuert, und die Auswertung sämtlicher Daten erfolgt über die Software. Einzige noch nicht erwähnte Funktion der Software ist das "Logbuch". Hier werden während des Betriebes die Daten der Navigationsmittel und die Kameraeinstellungen mit Zeitpunkt aufgezeichnet und gespeichert ("Blackbox").
Zur Erzeugung des virtuellen Bildes muß zunächst eine Database aller Objekte, die dargestellt werden sollen, zusammengestellt werden. In unserem Beispiel sind dies die Daten der Seekarte, Daten über bewegte Objekte in der Umgebung, die Route, die eigene Fahrtrichtung, Geschwindigkeit und die Drehgeschwindigkeit des Schiffes.
Diese Objekte werden dann zu einem virtuellen Bild verarbeitet. Dazu nötige Parameter sind die Position des Schiffes innerhalb der Seekarte, die Ausrichtung des Schiffes "rechtvoraus", sowie die Kameraeinstellungen. Von dem Betrachter aus werden virtuelle Linien zu den Objektpunkten der Objekte in der Database gezogen. Deren Schnittpunkte mit der (virtuellen) Leinwand ergeben die Koordinaten des Objektes auf der Leinwand. Verzerrungen durch Drehung der Kamera oder durch das eingestellte Zoom müssen vorher kompensiert werden, indem die virtuelle Leinwand entsprechend der Kameradrehung auch gedreht und entsprechend des Kamera-Zooms vergrößert oder verkleinert wird.
Die zweite wichtige Funktion des Computers ist in unserem Beispiel die Verwaltung der Hardware-Elemente. Mittels eines eingestellten Timers lädt der Computer ständig den Status der einzelnen Motoren, die die Kamera einstellen, sowie die aktuellen gemessenen Intensitäten und Winkel der Sensoren, die die Betrachterposition feststellen. Aus diesen Daten werden auch permanent die benötigten Einstellungswinkel der Kamera berechnet, da durch diese Einstellungen die Existenz einer Leinwand o. ä. verschleiert werden soll. Die Einstellungswinkel werden laufend der Schaltung zugeführt, ebenso wird ständig der "Überlauf" der Motoren beim Abschalten gemessen und in die Berechnung eingeführt.
Als Computer haben wir ein System auf der Basis von Microsoft Windows gewählt, da das System hardwareunabhängig arbeiten kann; es ist aber auch jedes andere Betriebssystem denkbar.

Claims (10)

1. Verfahren zur Erleichterung der Navigation auf Schiffen, dadurch gekennzeichnet, daß Daten bekannter Navigationssysteme (zum Beispiel Seekarten, Radargeräte, GPS-Empfänger, Loran A/C, Autopiloten) zu einem dreidimensionalen virtuellen Bild verarbeitet und mit einem realen Bild zusammengeführt werden und dadurch das virtuelle Bild mit dem realen Bild in Deckung gebracht wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte reale Bild entweder durch direktes Sehen oder durch eine Aufnahme (z. B. Videokamera) entsteht.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte zusammengeführte Bild auf eine Leinwand projiziert oder nach einem anderen Sichtverfahren (z. B. nach "Apple Technical Report #125", http://www.research.apple.com/areas/report/TR125/TR125.html) angezeigt wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte virtuelle Bild auf eine halbdurchlässigen Fläche projiziert wird, wobei das reale Bild in diesem Falle direkt durch die Fläche beobachtet wird.
5. Verfahren nach Anspruch 1, 2 und 3, dadurch gekennzeichnet, daß die Blickrichtung und der Sichtwinkel (Zoomfaktor) des zusammengeführten Bildes frei wählbar sind.
6. Verfahren nach Anspruch 1, 2, 3 und 4, dadurch gekennzeichnet, daß eine optisch-elektronische oder sonstige Positionsfeststellung des Beobachtenden dazu benutzt wird, um die im zusammengeführten Bild dargestellte Blickrichtung und den dazugehörigen Sichtwinkel (Zoomfaktor) entsprechend der festgestellten Position anzupassen.
7. Verfahren nach Anspruch 1, 2, 4 und 5, dadurch gekennzeichnet, daß zur Aufnahme des realen Bildes z. B. nachts oder bei Nebel ein entsprechendes Verfahren herangezogen wird (z. B. Infrarot, Radar, Röntgenstrahlen).
8. Verfahren nach Anspruch 1, 2, 4, 5 und 6, dadurch gekennzeichnet, daß zur Aufnahme des realen Bildes außer den bisher genannten Verfahren auch noch solche der Unterwasserortung (z. B. Sonar, Mikrowellen, Ultraschall, sonstige Akustik, Radar) herangezogen werden.
9. Verfahren nach Anspruch 1 bis 8, dadurch gekennzeichnet, daß die Darstellung des zusammengeführten Bildes nicht durch einfache Projektion auf eine Fläche erfolgt, sondern durch Erzeugung eines holographischen räumlichen Bildes.
10. Verfahren nach Anspruch 1 bis 9, dadurch gekennzeichnet, daß einzelne Komponenten des zusammengeführten Bildes durch besondere Darstellungsformen, wie z. B.
  • - Darstellung in verschiedenen Helligkeiten und/oder
  • - Darstellung in verschiedenen Farben und/oder
  • - Darstellung in verschiedenen Schraffuren, Karos usw. und/oder
  • - Darstellung in zeitlich, auch wechselzeitig blinkender Form und/oder
  • - andere derartige, durch den Computer oder mit optischen Mitteln erzeugbare Darstellungsformen sichtbar gemacht und dadurch deutlicher und/oder leichter erkennbar und voneinander unterscheidbar gemacht und dadurch die Effektivität des gesamten Verfahrens verbessert wird.
DE19754582A 1997-12-09 1997-12-09 Schiffsnavigation mit Hilfe von Hyper Reality Withdrawn DE19754582A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19754582A DE19754582A1 (de) 1997-12-09 1997-12-09 Schiffsnavigation mit Hilfe von Hyper Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19754582A DE19754582A1 (de) 1997-12-09 1997-12-09 Schiffsnavigation mit Hilfe von Hyper Reality

Publications (1)

Publication Number Publication Date
DE19754582A1 true DE19754582A1 (de) 1999-06-10

Family

ID=7851240

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19754582A Withdrawn DE19754582A1 (de) 1997-12-09 1997-12-09 Schiffsnavigation mit Hilfe von Hyper Reality

Country Status (1)

Country Link
DE (1) DE19754582A1 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002046790A1 (en) * 2000-12-04 2002-06-13 University Of Adelaide Slope monitoring system
EP1873052A2 (de) * 2006-06-22 2008-01-02 Food & Food di Morelli Stefano Impresa Individuale Automatisches Vertäuungssystem
EP2031137A1 (de) * 2007-08-29 2009-03-04 Caterpillar Inc. Gerät und Betriebsverfahren dafür
WO2009080903A1 (fr) * 2007-12-21 2009-07-02 V.Navy Systeme de detection et de positionnement d'un objet maritime
WO2012087715A1 (en) * 2010-12-20 2012-06-28 Flir Systems, Inc. Maritime controls systems and methods
EP2950530A1 (de) * 2014-05-30 2015-12-02 Furuno Electric Co., Ltd. Anzeigevorrichtung für meeresumgebung
EP2958080A1 (de) * 2014-06-17 2015-12-23 Furuno Electric Co., Ltd. Maritime kamera und steuerungssystem

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE9007290U1 (de) * 1990-01-26 1990-11-08 Foerst, Reiner, Dr.-Ing., 5270 Gummersbach Ausbildungsgerät für das Führen eines motorgetriebenen Fahrzeugs
DE4317671A1 (de) * 1993-05-27 1993-12-16 Adalbert Beck Verfahren mit Vorrichtungen als Orientierungshilfsmittel in Kraftfahrzeugen durch die kombinierte Anwendung der Möglichkeiten der Kartographie, der Mikro-Farbfotografie, der Filmkopiertechnik, der Projektion von Mikro-Farbfilmausschnitten auf einen Bildschirm, der Mikroelektronik sowie der Computertechnik
EP0588617A2 (de) * 1992-09-18 1994-03-23 Fujitsu Limited Vorrichtung und Verfahren zur Anfertigung eines Hologramms und Verfahren zum Aufbau einer Darstellungsvorrichtung
US5381338A (en) * 1991-06-21 1995-01-10 Wysocki; David A. Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system
DE4332381A1 (de) * 1993-09-23 1995-03-30 Zeiss Carl Fa Bildwiedergabesystem, Bildaufnahmegerät dafür, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung
DE4416589A1 (de) * 1994-05-11 1995-11-16 Zeiss Carl Fa Bildaufnahme- und Wiedergabesystem
DE4418996A1 (de) * 1994-05-31 1995-12-07 Kegenbein Helge Dr Ing Anzeigevorrichtung für die Betriebsdaten eines Fahrzeugs
WO1995033221A1 (fr) * 1994-05-31 1995-12-07 Centre National De La Recherche Scientifique (Cnrs) Dispositif optique pour la visualisation d'une image virtuelle tridimensionnelle en superposition avec un objet reel, notamment pour des applications chirurgicales
DE4423233A1 (de) * 1994-07-02 1996-01-04 Diethard Kersandt System zur Erkennung, Quantifizierung, Steuerung und Überwachung sicherheitsrelevanter Zustandsgrößen in der bordautonomen und landgestützten Führung von Schiffen
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE9007290U1 (de) * 1990-01-26 1990-11-08 Foerst, Reiner, Dr.-Ing., 5270 Gummersbach Ausbildungsgerät für das Führen eines motorgetriebenen Fahrzeugs
US5381338A (en) * 1991-06-21 1995-01-10 Wysocki; David A. Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system
EP0588617A2 (de) * 1992-09-18 1994-03-23 Fujitsu Limited Vorrichtung und Verfahren zur Anfertigung eines Hologramms und Verfahren zum Aufbau einer Darstellungsvorrichtung
DE4317671A1 (de) * 1993-05-27 1993-12-16 Adalbert Beck Verfahren mit Vorrichtungen als Orientierungshilfsmittel in Kraftfahrzeugen durch die kombinierte Anwendung der Möglichkeiten der Kartographie, der Mikro-Farbfotografie, der Filmkopiertechnik, der Projektion von Mikro-Farbfilmausschnitten auf einen Bildschirm, der Mikroelektronik sowie der Computertechnik
DE4332381A1 (de) * 1993-09-23 1995-03-30 Zeiss Carl Fa Bildwiedergabesystem, Bildaufnahmegerät dafür, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung
DE4416589A1 (de) * 1994-05-11 1995-11-16 Zeiss Carl Fa Bildaufnahme- und Wiedergabesystem
DE4418996A1 (de) * 1994-05-31 1995-12-07 Kegenbein Helge Dr Ing Anzeigevorrichtung für die Betriebsdaten eines Fahrzeugs
WO1995033221A1 (fr) * 1994-05-31 1995-12-07 Centre National De La Recherche Scientifique (Cnrs) Dispositif optique pour la visualisation d'une image virtuelle tridimensionnelle en superposition avec un objet reel, notamment pour des applications chirurgicales
DE4423233A1 (de) * 1994-07-02 1996-01-04 Diethard Kersandt System zur Erkennung, Quantifizierung, Steuerung und Überwachung sicherheitsrelevanter Zustandsgrößen in der bordautonomen und landgestützten Führung von Schiffen
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
07219427 A *
08083397 A *
09035177 A *
JP Patents Abstracts of Japan: 63-125494 A.,M-749,Oct. 6,1988,Vol.12,No.374 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002046790A1 (en) * 2000-12-04 2002-06-13 University Of Adelaide Slope monitoring system
US6850183B2 (en) 2000-12-04 2005-02-01 Groundprobe Pty Limited Slope monitoring system
EP1873052A2 (de) * 2006-06-22 2008-01-02 Food & Food di Morelli Stefano Impresa Individuale Automatisches Vertäuungssystem
EP1873052A3 (de) * 2006-06-22 2008-05-21 Food & Food di Morelli Stefano Impresa Individuale Automatisches Vertäuungssystem
EP2031137A1 (de) * 2007-08-29 2009-03-04 Caterpillar Inc. Gerät und Betriebsverfahren dafür
WO2009032227A1 (en) * 2007-08-29 2009-03-12 Caterpillar Inc. Machine and method of operating thereof
WO2009080903A1 (fr) * 2007-12-21 2009-07-02 V.Navy Systeme de detection et de positionnement d'un objet maritime
WO2012087715A1 (en) * 2010-12-20 2012-06-28 Flir Systems, Inc. Maritime controls systems and methods
EP2950530A1 (de) * 2014-05-30 2015-12-02 Furuno Electric Co., Ltd. Anzeigevorrichtung für meeresumgebung
US20150350552A1 (en) * 2014-05-30 2015-12-03 Furuno Electric Co., Ltd. Marine environment display device
US9826164B2 (en) * 2014-05-30 2017-11-21 Furuno Electric Co., Ltd. Marine environment display device
EP2958080A1 (de) * 2014-06-17 2015-12-23 Furuno Electric Co., Ltd. Maritime kamera und steuerungssystem
US9544491B2 (en) 2014-06-17 2017-01-10 Furuno Electric Co., Ltd. Maritime camera and control system

Similar Documents

Publication Publication Date Title
DE60130517T2 (de) Integriertes Sichtsystem
EP1650534B1 (de) Verfahren zur Pilotenunterstützung bei Landungen von Helikoptern im Sichtflug unter Brown-Out oder White-Out Bedingungen
DE69928387T2 (de) Dreidimensionale strassenkreutzungsanzeige für ein fahrzeugnavigationssystem
DE3737972C2 (de)
DE102015006612B4 (de) Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille
DE60020420T2 (de) Situationsdarstellungs-Anzeigesystem
EP0805362B1 (de) Verfahren zur Hinderniswarnung für tieffliegende Fluggeräte
EP2805183B1 (de) Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs
DE112017003916T5 (de) Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm
EP2899506B1 (de) Verfahren und Vorrichtung zum Betreiben eines Sichtfeldanzeigegeräts
DE10138719A1 (de) Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen
DE102016008770A1 (de) Bildanzeigesystem
DE102010037169A1 (de) Uneingeschränktes räumlich ausgerichtetes Blickfeld-Darstellungsgerät
DE102010042063A1 (de) Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs
DE3426505A1 (de) Vorrichtung zur bestimmung der richtung einer sichtlinie
DE102004057188A1 (de) Fahrzeug-Fahrunterstützungsvorrichtung
WO2012152475A1 (de) Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs
DE112018003346B4 (de) Anzeigesystem, Informationsdarstellungssystem, Verfahren zum Steuern eines Anzeigesystems, Aufzeichnungsmedium und mobiler Körper
EP2381208A1 (de) Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem
DE102021108424A1 (de) Verbessertes sichtsystem für arbeitsmaschinen
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
DE19754582A1 (de) Schiffsnavigation mit Hilfe von Hyper Reality
EP1283406A2 (de) Bildverarbeitungsvorrichtung für ein Fahrzeug und Betriebsverfahren
WO2013056954A1 (de) Verfahren zum assistieren eines fahrers in einer fremden umgebung
DE102019134695A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee