DE19754582A1 - Schiffsnavigation mit Hilfe von Hyper Reality - Google Patents
Schiffsnavigation mit Hilfe von Hyper RealityInfo
- Publication number
- DE19754582A1 DE19754582A1 DE19754582A DE19754582A DE19754582A1 DE 19754582 A1 DE19754582 A1 DE 19754582A1 DE 19754582 A DE19754582 A DE 19754582A DE 19754582 A DE19754582 A DE 19754582A DE 19754582 A1 DE19754582 A1 DE 19754582A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- merged
- representation
- real
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0968—Systems involving transmission of navigation instructions to the vehicle
- G08G1/0969—Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63B—SHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING
- B63B49/00—Arrangements of nautical instruments or navigational aids
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3878—Hierarchical structures, e.g. layering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G3/00—Traffic control systems for marine craft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/91—Radar or analogous systems specially adapted for specific applications for traffic control
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0118—Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Ocean & Marine Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Optics & Photonics (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Description
Auf dem Navigationssektor existieren bereits verschiedene elektronische Systeme:
- 1. Radargeräte dienen der Erfassung umliegender Objekte (Schiffe, Seezeichen, Land). Die Radargeräte haben die Möglichkeit, die Positionen dieser Objekte über eine standardisierte elektronische Schnittstelle an andere Geräte weiterzuleiten.
- 2. GPS-Empfänger (Global Positioning System) dienen der eigenen Positionsbestimmung über Satelliten nach dem Doppler-Effekt. Die Genauigkeit liegt bei zivilen Systemen inzwischen bei 5m2. Außer GPS existieren noch weitere elektronische Möglichkeiten, die eigene Position zu erfassen, z. B. Loran C, Decca und ENSS (European Navigation Satellite System).
- 3. elektronische Seekarten bilden die Weiterentwicklung der normalen Seekarten aus Papier. Die neuesten Seekarten arbeiten bereits mit der dritten Dimension und lassen so einen subjekiven Eindruck der Umwelt zu.
Alle Navigationsmittel werden heutzutage schon zusammengefaßt, indem die eigene Position
und Auszüge aus dem Radarbild in die Seekarte eingeblendet werden.
In unserer Erfindung verbinden wir die aufbereitete Seekarte mit dem realen Bild der Außenwelt,
indem wir die Seekarte in das reale Bild "hineinmischen" und so aus den zwei einzelnen Bildern
eine sinnvolle Einheit herstellen. Das Prinzip der Überlagerung virtueller Daten (wie der
aufbereiteten Seekarte) und realer Bilddaten zu einer sinnvollen Einheit wird als "Hyper Reality"
bezeichnet.
Dieses Prinzip findet seine Anwendung bisher nur in der Flugzeugnavigation. Dort werden
virtuelle Navigationsdaten mittels eines "Head Up Displays", eines "Head Down Displays" oder
eines "Head Mounted Displays" in das reale Bild hineinprojiziert.
Da in der Schiffsnavigation der Betrachter, im Allgemeinen der Schiffsführer, sich aber im
Gegensatz zum Piloten frei im Raum bewegen kann, ist es für die Erzeugung des virtuellen
Bildes wichtig, die genaue Position des Betrachters zu kennen. Auch hier existieren bereits
verschiedene Systeme, die auf Ultraschall, optischen Verfahren oder Funk aufbauen.
Das Überlagern der beiden Bilder ist in der Flugzeugnavigation sehr einfach, da der Pilot nur
einen sehr kleinen Aktionsradius hat, und so das virtuelle Bild nicht immer an seine Position
angeglichen werden muß. Dies ist in der Schiffsnavigation anders: Der Betrachter muß zur
sicheren Navigation des Schiffes immer die volle Bewegungsfreiheit behalten. Deshalb kann man
nicht auf ein System, das auf dem bekannten Stand der Technik aufbaut, zurückgreifen.
Unsere Erfindung dient dazu, alle vorhandenen Navigationsmittel (Sicht nach draußen, Radar,
Seekarte usw.) unter Berücksichtigung der frei wählbaren Betrachterposition zu einem Hyper
Reality-Bild zu vereinigen. Außerdem können durch mehrere, in den Unteransprüchen
angeführte Zusätze die Möglichkeiten zur Erleichterung der Navigation und Vermeidung von
Gefahren stark erweitert werden.
Die Erfindung dient zur Verbesserung und Erleichterung der Navigation auf Schiffen. An die
Stelle des manuellen Zusammentragens der einzelnen Informationen aus den bekannten
Navigationsmitteln wie Radargeräten, GPS-Empfängern oder Seekarten tritt ein einziges,
allumfassendes Bild, das durch die Überlagerung eines virtuellen und eines realen Bildes
entsteht.
Das virtuelle Bild setzt sich aus Daten der oben genannten Navigationsmittel und/oder anderer
(Ortungs-) Verfahren zusammen. Unter Berücksichtigung der Ausrichtung und der Position des
Schiffes wird aus diesen Objektdaten ein virtuelles Abbild der Wirklichkeit erzeugt.
Um das reale Bild zu erhalten, ist die Aufnahme der Wirklichkeit durch eine Videokamera die
einfachste Methode. Die Informationen werden durch die virtuellen Daten ergänzt und
angezeigt. Es ist jedoch auch möglich, auf jede andere indirekte oder direkte Weise ein reales
Bild der Umwelt zu gewinnen (z. B. durch Infrarotaufnahmen (Nachtsichtgeräte);
Radaraufnahmen; Geräte, die eine "Nebelsicht" ermöglichen; Unterwasseraufnahmegeräte wie
Sonar und Ultraschallgeräte, aber auch Sicht durch eine halbdurchlässige Scheibe).
Das virtuelle Bild wird mit dem realen Bild in Deckung gebracht.
Am einfachsten ist zur Darstellung des Hyper Reality-Bildes die Projektion auf eine Leinwand.
Hiermit läßt sich allerdings nur ein zweidimensionales Bild erreichen. Neben den bereits
genannten Methoden sind auch alle weiteren Darstellungsformen denkbar, wie die Darstellung
auf einem Monitor oder durch Holographie als eine Art der dreidimensionalen Projektion (siehe
z. B. "Apple Technical Report #125").
Da der Betrachter sich auf der Brücke bewegen können soll, kann ein einfaches Hyper Reality-
System wie in der Flugzeugnavigation nicht angewendet werden. Daher ist es wichtig, die genaue
Position des Betrachters relativ zu der Projektionsfläche zu kennen, um so zu garantieren, daß
der Betrachter von jedem Standpunkt aus ein sinnvolles Bild erhält. Dies ist die technische
Neuerung bei unserer Erfindung.
Wenn sich der Betrachter relativ zu der Projektionsfläche bewegt, ändern sich natürlich auch der
Blickwinkel und der Sichtwinkel, unter denen er die Projektionsfläche sieht. Diese Parameter
müssen also in die Berechnung des virtuellen Bildes einfließen, um so die vollständige
Deckungsgleichheit des realen und virtuellen Bildes zu garantieren.
Das System ist fähig, die Hyper Reality Navigation auf Schiffen zu realisieren, ohne den
Betrachter an einen Ort zu "fesseln" oder das Hyper Reality Bild als nicht mehr sinnvolle Einheit
(s. o.) erscheinen zu lassen. Das ist auf Schiffen sehr wichtig, da der Schiffsführer im Gegensatz
zu Piloten ständig die Bewegungsfreiheit benötigt.
Es ist ein eindeutiger Vorteil der Erfindung, daß das manuelle Zusammentragen der
Einzelinformationen für den Schiffsführer entfällt. Stattdessen werden ihm die erfindungsgemäß
gesammelten Informationen ohne große Zeitverzögerung in einem Bild angeboten. Selbst bei
unsichtigem Wetter ist er immer über die aktuelle Lage informiert; bewegliche Objekte in der
Umgebung sowie gegebenenfalls Unterwasser-Bedingungen oder -Hindernisse werden mit
dargestellt, so daß er insgesamt einen wesentlich umfassenderen Eindruck von der jeweiligen
Situation bekommt, als es die Navigationsmittel einzeln vermitteln könnten. Zusammen mit der
Tatsache, daß der Schiffsführer sich jederzeit voll auf das Geschehen konzentrieren kann, wirkt
sich dies positiv auf die Sicherheit der Seefahrt aus.
Auch von einem eventuellen Ausfall der Erfindung geht keine Gefahr aus, da erstens durch eine
Projektionsfläche nur ein Teil der gesamten Brückenfensterfront verdeckt wird, und eben jene im
Falle eines Falles einfach entfernt werden kann. Die räumliche Begrenzung der Projektionsfläche
bietet den weiteren Vorteil, daß bei Unklarheiten oder dem Gefühl von Unvollständigkeit der
Daten immer die ungehinderte Sicht nach draußen gewährleistet ist. Ferner bleiben auch die
bereits vorhandenen Navigationsmittel einzeln voll erhalten.
Das entwickelte System besitzt auch Datenhelmen gegenüber einen entscheidenden Vorteil, da es
die vollständige Bewegungsfreiheit zu jedem Zeitpunkt gewährleistet, ohne daß die betreffende
Person hinderliche Geräte oder Kabel mit sich herumtragen muß. Die starke Belastung der
Augen, die bei längerem Gebrauch von Helmen zum Problem wird, entfällt für die hier
beschriebene Entwicklung ganz.
Ein erstes Ausführungsbeispiel dieser Erfindung arbeitet noch mit einfachen Hilfsmitteln
(Abb. 1). Über die oben erwähnte NMEA 0183-Schnittstelle wird ein Computer mit allen
wichtigen Daten des Schiffes und seiner Umgebung versorgt. Dazu gehören: Position,
Ausrichtung, Geschwindigkeit, Kurs, andere Objekte in der Nähe des Schiffes, Waypoints,
Routen, Tiefgang usw. Die Schnittstelle wird in unserem Prototyp über die serielle Schnittstelle
des Computers bereitgestellt. Dadurch, daß die Daten nur in eine Richtung übermittelt werden
können (von den Informationslieferanten, wie Radargerät, in den Computer), wird eine
Interaktion zwischen den beiden Geräten vermieden, der Prototyp kann also keinesfalls in
Funktionen des Schiffes eingreifen; diese Eigenschaft dient auch der Sicherheit des Gerätes.
Desweiteren vervollständigt eine digitalisierte Seekarte den Datenvorrat, auf den im Ganzen oder
in beliebigen Teilen zu gegriffen werden kann.
Zur Feststellung der Betrachterposition dient in diesem Beispiel ein optisches Verfahren:
Über einen kleinen Infrarotgeber, den der Schiffsführer an geeigneter Stelle mit sich trägt, und zwei zu beiden Seiten der Projektionsfläche angebrachte IR-Empfänger werden Winkel ermittelt, die die Berechnung der genauen Position des Senders und somit des Betrachters erlauben. Die Empfangsschaltungen sind jeweils in einem Zylinder mit einer schmalen senkrechten Öffnung (Schlitz) untergebracht. Einerseits soll dadurch das Foto-Empfangselement gegen die Lichteinflüsse der Umgebung abgeschirmt werden, andererseits wird durch die relativ kleine Öffnung der Empfangsbereich eingeschränkt, was die erforderliche Genauigkeit bei der Winkelbestimmung und allen damit zusammenhängenden Berechnungen ermöglicht. Das gesamte Bauelement wird ohne Unterbrechung und mit konstanter Geschwindigkeit um seine Symmetrieachse gedreht. Gleichzeitig werden zwei verschiedene Lochscheiben über einfache "Getriebe" mitgedreht, deren Hell- und Dunkelphasen von Gabellichtschranken registriert werden und einer Zählschaltung als Zählimpuls dienen. Die beiden Schaltungen sind so koordiniert, daß die erste Schaltung die Phasen registriert, in denen die Empfangsöffnung den Bereich durchläuft, in dem ein mögliches Signal überhaupt nur aufgenommen werden kann. Ist dies der Fall, so wird der zweite Zähler freigegeben, der dann den aktuellen Winkel des Schlitzes bestimmt. Aus den Werten der beiden Zähler, die an den Computer übermittelt werden, bestimmt dieser einen Schnittpunkt, der die Betrachterposition darstellt. Die Signale des mobilen IR-Senders gelangen indirekt über einen 45°-Spiegel und eine halbkugelförmige Sammellinse zum eigentlichen Empfangselement, so daß die Platine der Empfangsschaltung vorteilhafterweise stationär und stabil im oberen Ende des Zylinders untergebracht wird. Die auf den notwendigen Pegel verstärkten Signale werden an den Computer weitergegeben und dort ausgewertet. Der Winkel, unter dem das stärkste Signal registriert wird, ist Grundlage für alle nachfolgenden Berechnungen. Die so per Computer ermittelten Positionsdaten des Betrachters werden aus den unter der Überschrift "Lösung der Aufgabe" genannten Gründen und in der dort beschriebenen Weise bei der Darstellung der Bilddaten berücksichtigt.
Über einen kleinen Infrarotgeber, den der Schiffsführer an geeigneter Stelle mit sich trägt, und zwei zu beiden Seiten der Projektionsfläche angebrachte IR-Empfänger werden Winkel ermittelt, die die Berechnung der genauen Position des Senders und somit des Betrachters erlauben. Die Empfangsschaltungen sind jeweils in einem Zylinder mit einer schmalen senkrechten Öffnung (Schlitz) untergebracht. Einerseits soll dadurch das Foto-Empfangselement gegen die Lichteinflüsse der Umgebung abgeschirmt werden, andererseits wird durch die relativ kleine Öffnung der Empfangsbereich eingeschränkt, was die erforderliche Genauigkeit bei der Winkelbestimmung und allen damit zusammenhängenden Berechnungen ermöglicht. Das gesamte Bauelement wird ohne Unterbrechung und mit konstanter Geschwindigkeit um seine Symmetrieachse gedreht. Gleichzeitig werden zwei verschiedene Lochscheiben über einfache "Getriebe" mitgedreht, deren Hell- und Dunkelphasen von Gabellichtschranken registriert werden und einer Zählschaltung als Zählimpuls dienen. Die beiden Schaltungen sind so koordiniert, daß die erste Schaltung die Phasen registriert, in denen die Empfangsöffnung den Bereich durchläuft, in dem ein mögliches Signal überhaupt nur aufgenommen werden kann. Ist dies der Fall, so wird der zweite Zähler freigegeben, der dann den aktuellen Winkel des Schlitzes bestimmt. Aus den Werten der beiden Zähler, die an den Computer übermittelt werden, bestimmt dieser einen Schnittpunkt, der die Betrachterposition darstellt. Die Signale des mobilen IR-Senders gelangen indirekt über einen 45°-Spiegel und eine halbkugelförmige Sammellinse zum eigentlichen Empfangselement, so daß die Platine der Empfangsschaltung vorteilhafterweise stationär und stabil im oberen Ende des Zylinders untergebracht wird. Die auf den notwendigen Pegel verstärkten Signale werden an den Computer weitergegeben und dort ausgewertet. Der Winkel, unter dem das stärkste Signal registriert wird, ist Grundlage für alle nachfolgenden Berechnungen. Die so per Computer ermittelten Positionsdaten des Betrachters werden aus den unter der Überschrift "Lösung der Aufgabe" genannten Gründen und in der dort beschriebenen Weise bei der Darstellung der Bilddaten berücksichtigt.
Das reale Abbild der Wirklichkeit liefert im Falle des hier beschiebenen Prototyps ein
CCD-Kameramodul mit vorgebautem Zoom. Die Anpassung des Zoomfaktors des virtuellen Bildes
erfolgt computergesteuert unter Zuhilfenahme der oben beschriebenen Betrachterposition. Zur
Steuerung des Kameramoduls (Drehung um seine Achsen) und des Zooms ist in diesem Beispiel
ähnlich wie bei den Sensoren zur Betrachterpositionsbestimmung eine mechanische Einrichtung
(Abb. 2) notwendig, die mit Hilfe von Motoren sowohl eine Kippbewegung (Nicken der Kamera)
als auch eine veränderbare Ausrichtung nach links bzw. rechts (Gieren) ermöglicht. Bei der
Mechanik ist vor allem zu bedenken, daß das "Kopfschütteln" (also das Gieren) eine höhere
Priorität als die Kippbewegung haben sollte.
Die Steuerung der Motoren erfolgt bei dem Beispiel über ein Steuerungsmodul. Die Schaltung
enthält eine Zählkette, so daß Zahlen von 0 bis 255 eingesetzt werden können. Über die
Zählvorrichtung gibt der Computer die Anzahl der zu laufenden Schritte und damit den
einzustellenden Winkel vor (Sollwert). Durch das Setzen eines Flip-Flops wird die Laufrichtung
der Motoren gewählt. Über eine Lochscheibe in Verbindung mit einer Gabellichtschranke
werden die Zählimpulse für die Zählkette geliefert, die dann vom gesetzten Wert bis Null
zurückzählt und die Stromversorgung des Motors bei Erreichen dieses Wertes selbsttätig
unterbindet. Allerdings muß die Zählfunktion uneingeschränkt erhalten bleiben, ohne daß der
Motor wieder anfängt zu laufen, damit der Computer durch Auslaufen des Motors entstandene
Abweichungen von der. Zielposition feststellen und nötigenfalls korrigieren kann. Dieses Problem
wird wie die Laufrichtung über ein Flip-Flop gelöst, das zeitgleich mit dem Load-Signal des
Zählers zurückgesetzt wird und so die normale Lauffunktion wieder freigibt. Um eventuellen
Fehlern durch Schrittverschiebungen während des Betriebes vorzubeugen und die Kamera beim
Start der Anwendung auf einen Nullpunkt auszurichten, ist eine weitere Funktion eingebaut
worden. Der Computer hat die Möglichkeit durch ein Init-Signal ein drittes Flip-Flop zu setzen,
was unabhängig vom Zählerstand den Motor so lange rückwärts laufen läßt, bis dieser gegen
einen im gesetzten Referenzpunkt angebrachten Schalter läuft, der dann die Stromversorgung
unterbindet und das Flip-Flop zurücksetzt. Ferner ist zwischen Steuerplatine und Motor ein
Leistungstreiber aus vier Leistungstransistoren geschaltet. Über den Computer werden also die
Richtung und der zu erreichende Winkel bzw. die Zoomstärke sowie die "Eichfunktion"
eingestellt und durch die Rücksendung der aktuellen Zählerwerte kontrolliert, wobei das oben
beschriebene Prinzip für alle Motoren gleich ist.
Die Überlagerung der virtuellen (digitalen) und realen (analogen) Bilddaten findet bei diesem
Beispiel in einem externen Genlock Overlayer statt. Das schließlich projizierte Bild entsteht aus
dem Zur-Deckung-Bringen der zeitgleich gelieferten, verschiedenen Bilddaten. Da zur
Erstellung des virtuellen Bildes immer die aktuellen Daten aller Informationslieferanten
(Radargerät, Seekarte etc. aber auch die Sensoren zur Bestimmung der Betrachterposition und
die momentanen Kameraeinstellungen) benutzt werden, stellen beide Einzelbilder denselben
Zeitmoment sowie die gleichen Objekte aus derselben Perspektive dar. Erst diese Tatsache macht
das Überlagern der Bilder sinnvoll.
Für die hier beschriebene mögliche Ausführung der Entwicklung ist zur sichtbaren Darstellung
ein Videoprojektor mit Leinwand gewählt worden.
Wie in den vorangehenden Abschnitten immer wieder erwähnt, ist die Software (Abb. 3)
zentrale Zusammenlaufstelle der einzelnen Datenkomponenten. Hier werden die Seekarten- und
Radardaten unter Berücksichtigung der Betrachterposition in ein virtuelles Bild umgesetzt. Die
Kamera wird ebenso wie der Zoom von hier aus gesteuert, und die Auswertung sämtlicher Daten
erfolgt über die Software. Einzige noch nicht erwähnte Funktion der Software ist das "Logbuch".
Hier werden während des Betriebes die Daten der Navigationsmittel und die
Kameraeinstellungen mit Zeitpunkt aufgezeichnet und gespeichert ("Blackbox").
Zur Erzeugung des virtuellen Bildes muß zunächst eine Database aller Objekte, die dargestellt
werden sollen, zusammengestellt werden. In unserem Beispiel sind dies die Daten der Seekarte,
Daten über bewegte Objekte in der Umgebung, die Route, die eigene Fahrtrichtung,
Geschwindigkeit und die Drehgeschwindigkeit des Schiffes.
Diese Objekte werden dann zu einem virtuellen Bild verarbeitet. Dazu nötige Parameter sind die
Position des Schiffes innerhalb der Seekarte, die Ausrichtung des Schiffes "rechtvoraus", sowie
die Kameraeinstellungen. Von dem Betrachter aus werden virtuelle Linien zu den Objektpunkten
der Objekte in der Database gezogen. Deren Schnittpunkte mit der (virtuellen) Leinwand ergeben
die Koordinaten des Objektes auf der Leinwand. Verzerrungen durch Drehung der Kamera oder
durch das eingestellte Zoom müssen vorher kompensiert werden, indem die virtuelle Leinwand
entsprechend der Kameradrehung auch gedreht und entsprechend des Kamera-Zooms vergrößert
oder verkleinert wird.
Die zweite wichtige Funktion des Computers ist in unserem Beispiel die Verwaltung der
Hardware-Elemente. Mittels eines eingestellten Timers lädt der Computer ständig den Status der
einzelnen Motoren, die die Kamera einstellen, sowie die aktuellen gemessenen Intensitäten und
Winkel der Sensoren, die die Betrachterposition feststellen. Aus diesen Daten werden auch
permanent die benötigten Einstellungswinkel der Kamera berechnet, da durch diese
Einstellungen die Existenz einer Leinwand o. ä. verschleiert werden soll. Die Einstellungswinkel
werden laufend der Schaltung zugeführt, ebenso wird ständig der "Überlauf" der Motoren beim
Abschalten gemessen und in die Berechnung eingeführt.
Als Computer haben wir ein System auf der Basis von Microsoft Windows gewählt, da das
System hardwareunabhängig arbeiten kann; es ist aber auch jedes andere Betriebssystem
denkbar.
Claims (10)
1. Verfahren zur Erleichterung der Navigation auf Schiffen, dadurch gekennzeichnet, daß Daten
bekannter Navigationssysteme (zum Beispiel Seekarten, Radargeräte, GPS-Empfänger, Loran A/C,
Autopiloten) zu einem dreidimensionalen virtuellen Bild verarbeitet und mit einem realen Bild
zusammengeführt werden und dadurch das virtuelle Bild mit dem realen Bild in Deckung gebracht
wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte reale Bild entweder
durch direktes Sehen oder durch eine Aufnahme (z. B. Videokamera) entsteht.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte zusammengeführte
Bild auf eine Leinwand projiziert oder nach einem anderen Sichtverfahren (z. B. nach "Apple
Technical Report #125", http://www.research.apple.com/areas/report/TR125/TR125.html) angezeigt
wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß das unter 1. genannte virtuelle Bild auf
eine halbdurchlässigen Fläche projiziert wird, wobei das reale Bild in diesem Falle direkt durch die
Fläche beobachtet wird.
5. Verfahren nach Anspruch 1, 2 und 3, dadurch gekennzeichnet, daß die Blickrichtung und der
Sichtwinkel (Zoomfaktor) des zusammengeführten Bildes frei wählbar sind.
6. Verfahren nach Anspruch 1, 2, 3 und 4, dadurch gekennzeichnet, daß eine optisch-elektronische oder
sonstige Positionsfeststellung des Beobachtenden dazu benutzt wird, um die im zusammengeführten
Bild dargestellte Blickrichtung und den dazugehörigen Sichtwinkel (Zoomfaktor) entsprechend der
festgestellten Position anzupassen.
7. Verfahren nach Anspruch 1, 2, 4 und 5, dadurch gekennzeichnet, daß zur Aufnahme des realen
Bildes z. B. nachts oder bei Nebel ein entsprechendes Verfahren herangezogen wird (z. B. Infrarot,
Radar, Röntgenstrahlen).
8. Verfahren nach Anspruch 1, 2, 4, 5 und 6, dadurch gekennzeichnet, daß zur Aufnahme des realen
Bildes außer den bisher genannten Verfahren auch noch solche der Unterwasserortung (z. B. Sonar,
Mikrowellen, Ultraschall, sonstige Akustik, Radar) herangezogen werden.
9. Verfahren nach Anspruch 1 bis 8, dadurch gekennzeichnet, daß die Darstellung des
zusammengeführten Bildes nicht durch einfache Projektion auf eine Fläche erfolgt, sondern durch
Erzeugung eines holographischen räumlichen Bildes.
10. Verfahren nach Anspruch 1 bis 9, dadurch gekennzeichnet, daß einzelne Komponenten des
zusammengeführten Bildes durch besondere Darstellungsformen, wie z. B.
- - Darstellung in verschiedenen Helligkeiten und/oder
- - Darstellung in verschiedenen Farben und/oder
- - Darstellung in verschiedenen Schraffuren, Karos usw. und/oder
- - Darstellung in zeitlich, auch wechselzeitig blinkender Form und/oder
- - andere derartige, durch den Computer oder mit optischen Mitteln erzeugbare Darstellungsformen sichtbar gemacht und dadurch deutlicher und/oder leichter erkennbar und voneinander unterscheidbar gemacht und dadurch die Effektivität des gesamten Verfahrens verbessert wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19754582A DE19754582A1 (de) | 1997-12-09 | 1997-12-09 | Schiffsnavigation mit Hilfe von Hyper Reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19754582A DE19754582A1 (de) | 1997-12-09 | 1997-12-09 | Schiffsnavigation mit Hilfe von Hyper Reality |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19754582A1 true DE19754582A1 (de) | 1999-06-10 |
Family
ID=7851240
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19754582A Withdrawn DE19754582A1 (de) | 1997-12-09 | 1997-12-09 | Schiffsnavigation mit Hilfe von Hyper Reality |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19754582A1 (de) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002046790A1 (en) * | 2000-12-04 | 2002-06-13 | University Of Adelaide | Slope monitoring system |
EP1873052A2 (de) * | 2006-06-22 | 2008-01-02 | Food & Food di Morelli Stefano Impresa Individuale | Automatisches Vertäuungssystem |
EP2031137A1 (de) * | 2007-08-29 | 2009-03-04 | Caterpillar Inc. | Gerät und Betriebsverfahren dafür |
WO2009080903A1 (fr) * | 2007-12-21 | 2009-07-02 | V.Navy | Systeme de detection et de positionnement d'un objet maritime |
WO2012087715A1 (en) * | 2010-12-20 | 2012-06-28 | Flir Systems, Inc. | Maritime controls systems and methods |
EP2950530A1 (de) * | 2014-05-30 | 2015-12-02 | Furuno Electric Co., Ltd. | Anzeigevorrichtung für meeresumgebung |
EP2958080A1 (de) * | 2014-06-17 | 2015-12-23 | Furuno Electric Co., Ltd. | Maritime kamera und steuerungssystem |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE9007290U1 (de) * | 1990-01-26 | 1990-11-08 | Foerst, Reiner, Dr.-Ing., 5270 Gummersbach | Ausbildungsgerät für das Führen eines motorgetriebenen Fahrzeugs |
DE4317671A1 (de) * | 1993-05-27 | 1993-12-16 | Adalbert Beck | Verfahren mit Vorrichtungen als Orientierungshilfsmittel in Kraftfahrzeugen durch die kombinierte Anwendung der Möglichkeiten der Kartographie, der Mikro-Farbfotografie, der Filmkopiertechnik, der Projektion von Mikro-Farbfilmausschnitten auf einen Bildschirm, der Mikroelektronik sowie der Computertechnik |
EP0588617A2 (de) * | 1992-09-18 | 1994-03-23 | Fujitsu Limited | Vorrichtung und Verfahren zur Anfertigung eines Hologramms und Verfahren zum Aufbau einer Darstellungsvorrichtung |
US5381338A (en) * | 1991-06-21 | 1995-01-10 | Wysocki; David A. | Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system |
DE4332381A1 (de) * | 1993-09-23 | 1995-03-30 | Zeiss Carl Fa | Bildwiedergabesystem, Bildaufnahmegerät dafür, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung |
DE4416589A1 (de) * | 1994-05-11 | 1995-11-16 | Zeiss Carl Fa | Bildaufnahme- und Wiedergabesystem |
DE4418996A1 (de) * | 1994-05-31 | 1995-12-07 | Kegenbein Helge Dr Ing | Anzeigevorrichtung für die Betriebsdaten eines Fahrzeugs |
WO1995033221A1 (fr) * | 1994-05-31 | 1995-12-07 | Centre National De La Recherche Scientifique (Cnrs) | Dispositif optique pour la visualisation d'une image virtuelle tridimensionnelle en superposition avec un objet reel, notamment pour des applications chirurgicales |
DE4423233A1 (de) * | 1994-07-02 | 1996-01-04 | Diethard Kersandt | System zur Erkennung, Quantifizierung, Steuerung und Überwachung sicherheitsrelevanter Zustandsgrößen in der bordautonomen und landgestützten Führung von Schiffen |
US5566073A (en) * | 1994-07-11 | 1996-10-15 | Margolin; Jed | Pilot aid using a synthetic environment |
-
1997
- 1997-12-09 DE DE19754582A patent/DE19754582A1/de not_active Withdrawn
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE9007290U1 (de) * | 1990-01-26 | 1990-11-08 | Foerst, Reiner, Dr.-Ing., 5270 Gummersbach | Ausbildungsgerät für das Führen eines motorgetriebenen Fahrzeugs |
US5381338A (en) * | 1991-06-21 | 1995-01-10 | Wysocki; David A. | Real time three dimensional geo-referenced digital orthophotograph-based positioning, navigation, collision avoidance and decision support system |
EP0588617A2 (de) * | 1992-09-18 | 1994-03-23 | Fujitsu Limited | Vorrichtung und Verfahren zur Anfertigung eines Hologramms und Verfahren zum Aufbau einer Darstellungsvorrichtung |
DE4317671A1 (de) * | 1993-05-27 | 1993-12-16 | Adalbert Beck | Verfahren mit Vorrichtungen als Orientierungshilfsmittel in Kraftfahrzeugen durch die kombinierte Anwendung der Möglichkeiten der Kartographie, der Mikro-Farbfotografie, der Filmkopiertechnik, der Projektion von Mikro-Farbfilmausschnitten auf einen Bildschirm, der Mikroelektronik sowie der Computertechnik |
DE4332381A1 (de) * | 1993-09-23 | 1995-03-30 | Zeiss Carl Fa | Bildwiedergabesystem, Bildaufnahmegerät dafür, Verfahren zur Erzeugung einer Bilddarstellung und deren Verwendung |
DE4416589A1 (de) * | 1994-05-11 | 1995-11-16 | Zeiss Carl Fa | Bildaufnahme- und Wiedergabesystem |
DE4418996A1 (de) * | 1994-05-31 | 1995-12-07 | Kegenbein Helge Dr Ing | Anzeigevorrichtung für die Betriebsdaten eines Fahrzeugs |
WO1995033221A1 (fr) * | 1994-05-31 | 1995-12-07 | Centre National De La Recherche Scientifique (Cnrs) | Dispositif optique pour la visualisation d'une image virtuelle tridimensionnelle en superposition avec un objet reel, notamment pour des applications chirurgicales |
DE4423233A1 (de) * | 1994-07-02 | 1996-01-04 | Diethard Kersandt | System zur Erkennung, Quantifizierung, Steuerung und Überwachung sicherheitsrelevanter Zustandsgrößen in der bordautonomen und landgestützten Führung von Schiffen |
US5566073A (en) * | 1994-07-11 | 1996-10-15 | Margolin; Jed | Pilot aid using a synthetic environment |
Non-Patent Citations (4)
Title |
---|
07219427 A * |
08083397 A * |
09035177 A * |
JP Patents Abstracts of Japan: 63-125494 A.,M-749,Oct. 6,1988,Vol.12,No.374 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002046790A1 (en) * | 2000-12-04 | 2002-06-13 | University Of Adelaide | Slope monitoring system |
US6850183B2 (en) | 2000-12-04 | 2005-02-01 | Groundprobe Pty Limited | Slope monitoring system |
EP1873052A2 (de) * | 2006-06-22 | 2008-01-02 | Food & Food di Morelli Stefano Impresa Individuale | Automatisches Vertäuungssystem |
EP1873052A3 (de) * | 2006-06-22 | 2008-05-21 | Food & Food di Morelli Stefano Impresa Individuale | Automatisches Vertäuungssystem |
EP2031137A1 (de) * | 2007-08-29 | 2009-03-04 | Caterpillar Inc. | Gerät und Betriebsverfahren dafür |
WO2009032227A1 (en) * | 2007-08-29 | 2009-03-12 | Caterpillar Inc. | Machine and method of operating thereof |
WO2009080903A1 (fr) * | 2007-12-21 | 2009-07-02 | V.Navy | Systeme de detection et de positionnement d'un objet maritime |
WO2012087715A1 (en) * | 2010-12-20 | 2012-06-28 | Flir Systems, Inc. | Maritime controls systems and methods |
EP2950530A1 (de) * | 2014-05-30 | 2015-12-02 | Furuno Electric Co., Ltd. | Anzeigevorrichtung für meeresumgebung |
US20150350552A1 (en) * | 2014-05-30 | 2015-12-03 | Furuno Electric Co., Ltd. | Marine environment display device |
US9826164B2 (en) * | 2014-05-30 | 2017-11-21 | Furuno Electric Co., Ltd. | Marine environment display device |
EP2958080A1 (de) * | 2014-06-17 | 2015-12-23 | Furuno Electric Co., Ltd. | Maritime kamera und steuerungssystem |
US9544491B2 (en) | 2014-06-17 | 2017-01-10 | Furuno Electric Co., Ltd. | Maritime camera and control system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60130517T2 (de) | Integriertes Sichtsystem | |
EP1650534B1 (de) | Verfahren zur Pilotenunterstützung bei Landungen von Helikoptern im Sichtflug unter Brown-Out oder White-Out Bedingungen | |
DE69928387T2 (de) | Dreidimensionale strassenkreutzungsanzeige für ein fahrzeugnavigationssystem | |
DE3737972C2 (de) | ||
DE102015006612B4 (de) | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille | |
DE60020420T2 (de) | Situationsdarstellungs-Anzeigesystem | |
EP0805362B1 (de) | Verfahren zur Hinderniswarnung für tieffliegende Fluggeräte | |
EP2805183B1 (de) | Verfahren und vorrichtung zum visualisieren der umgebung eines fahrzeugs | |
DE112017003916T5 (de) | Head-Up-Display-Vorrichtung, Anzeigesteuerverfahren und Steuerprogramm | |
EP2899506B1 (de) | Verfahren und Vorrichtung zum Betreiben eines Sichtfeldanzeigegeräts | |
DE10138719A1 (de) | Verfahren und Vorrichtung zur Darstellung von Fahrhinweisen, insbesondere in Auto-Navigationssystemen | |
DE102016008770A1 (de) | Bildanzeigesystem | |
DE102010037169A1 (de) | Uneingeschränktes räumlich ausgerichtetes Blickfeld-Darstellungsgerät | |
DE102010042063A1 (de) | Verfahren und Vorrichtung zum Bestimmen von aufbereiteten Bilddaten über ein Umfeld eines Fahrzeugs | |
DE3426505A1 (de) | Vorrichtung zur bestimmung der richtung einer sichtlinie | |
DE102004057188A1 (de) | Fahrzeug-Fahrunterstützungsvorrichtung | |
WO2012152475A1 (de) | Verfahren und vorrichtung zur kalibrierung einer projektionseinrichtung eines fahrzeugs | |
DE112018003346B4 (de) | Anzeigesystem, Informationsdarstellungssystem, Verfahren zum Steuern eines Anzeigesystems, Aufzeichnungsmedium und mobiler Körper | |
EP2381208A1 (de) | Verfahren zur Bestimmung von Positionsdaten eines Zielobjekts in einem Referenzsystem | |
DE102021108424A1 (de) | Verbessertes sichtsystem für arbeitsmaschinen | |
EP2350977B1 (de) | Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild | |
DE19754582A1 (de) | Schiffsnavigation mit Hilfe von Hyper Reality | |
EP1283406A2 (de) | Bildverarbeitungsvorrichtung für ein Fahrzeug und Betriebsverfahren | |
WO2013056954A1 (de) | Verfahren zum assistieren eines fahrers in einer fremden umgebung | |
DE102019134695A1 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und sich bewegendes Subjekt |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8139 | Disposal/non-payment of the annual fee |