CH689904A5 - Elektro-optischer Apparat zur Herstellung eines Bildes. - Google Patents

Elektro-optischer Apparat zur Herstellung eines Bildes. Download PDF

Info

Publication number
CH689904A5
CH689904A5 CH01371/95A CH137195A CH689904A5 CH 689904 A5 CH689904 A5 CH 689904A5 CH 01371/95 A CH01371/95 A CH 01371/95A CH 137195 A CH137195 A CH 137195A CH 689904 A5 CH689904 A5 CH 689904A5
Authority
CH
Switzerland
Prior art keywords
image
data
computer
scene
display
Prior art date
Application number
CH01371/95A
Other languages
English (en)
Inventor
John Ellenby
Original Assignee
Criticom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22383980&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CH689904(A5) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Criticom Corp filed Critical Criticom Corp
Publication of CH689904A5 publication Critical patent/CH689904A5/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • G01C17/34Sun- or astro-compasses
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Electrochromic Elements, Electrophoresis, Or Variable Reflection Or Absorption Elements (AREA)
  • Liquid Crystal (AREA)
  • Image Processing (AREA)
  • Control Of Position Or Direction (AREA)

Description


  
 


 Technisches Gebiet 
 



  Bei der vorliegenden Erfindung handelt es sich allgemein um einen elektro-optischen Apparat gemäss Anspruch 1 und um ein Verfahren zum Betrieb des Apparates gemäss Anspruch 6. 


 Stand der Technik 
 



  Man muss sehr weit in der Geschichte zurückgehen, um den ersten Gebrauch von Landkarten zu finden. Allgemein sind dem Benutzer über Landkarten Informationen zugänglich, die ihn vor Dingen warnen, welche dem Benutzer aus seinem gegenwärtigen Standpunkt mit einem eingeschränkten Bildfeld nicht direkt zugänglich sind. Zum Beispiel wird ein Benutzer eines Stadtplanes den Tunnel in der Elm Street nicht sehen können, wenn er sich sieben Meilen entfernt in der Ersten Strasse befindet, selbst wenn er in Richtung Elm-Street-Tunnel blickt. Aber mit Hilfe einer Strassenkarte kann der Benutzer auch aus der Ersten Strasse die Existenz des Elm-Street-Tunnels feststellen. Er kann erkennen, dass der Tunnel drei Meilen lang ist, in der Achten Strasse beginnt und in der Elften Strasse endet.

   Es kann sogar die Grösse des Tunnels eingezeichnet sein, z.B., dass er auf vier Spuren und einen Radweg ausgebaut ist. 



  Unglücklicherweise ist es nicht immer möglich, die Informationen aus einer Karte in eine realistische Szene so zu übersetzen, wie sich die Szene in der Wirklichkeit darstellt. Gemeinhin wird von den Benutzern immer versucht, Landkarten so an der Wirklichkeit auszurichten, dass ein besserer "Eindruck" darüber entsteht, wo sich alles bezüglich der gegenwärtigen Position befindet. Mit Landkarten vertraute Benutzer können bestätigen, dass die Tatsache, dass Landkarten in der Regel nach Norden ausgerichtet sind, für die Orientierung am gegenwärtigen Standpunkt von eingeschränktem Nutzen ist. Wo immer auch Norden sein mag, neigt man dazu, die Karte so zu drehen, dass die Richtung in Sicht- oder Fahrtrichtung des Benutzers mit der Ausrichtung der Karte übereinstimmt.

   Dies mag enden mit "verkehrt herum" zu lesenden Landkarten, was ziemlich schwierig ist (z.B. wenn der Benutzer gen Süden fährt). Obwohl schon die Übertragung der Richtungen einer Karte auf die Wirklichkeit eine beeindruckende Leistung darstellt, ist es ein nicht  geringeres Problem, die Zeichen und Symbole der Landkarte als das zu erkennen, was sie in Wirklichkeit darstellen. So sagt das Symbol für einen Tunnel nichts darüber aus, wie der Tunnel wirklich aussieht. Die Tatsache, dass die Darstellung der Ansicht des Tunnels aus unendlich vielen Richtungen auf einer Landkarte nahezu unmöglich ist, erfordert den Gebrauch eines einfachen Symbols. Darüber hinaus enthält eine Karte weder Anhaltspunkte darüber, von welcher Position aus ein Benutzer den Tunnel zum ersten Mal sehen kann, noch Informationen über den Weg, auf welchem sich der Benutzer dem Tunnel nähert. 



  Es ist jetzt möglich, Informationen über Stadtpläne in Rechnern zu speichern und die Karten entsprechend dem vom Benutzer gewählten Weg darzustellen. Die Darstellung wird in "Echtzeit" aktualisiert, entsprechend der Bewegung des Benutzers durch die Stadt. Dadurch ist es möglich, dass Problem der nach Norden ausgerichteten Karten zu mindern, da der Rechner die Karten mit dem Kartentext in der richtigen Orientierung relativ zum Benutzer darstellen kann, auch wenn dieser in südliche Richtung fährt. Die computergenerierte Karte wird auf einem Bildschirm wiedergegeben. Diese Darstellung kann leicht mit aktueller Information entsprechend der Bewegung des Benutzers auf seiner Fahrt erneuert werden. Autokarten dieser Art sind allgemein bekannt.

   Sogar sehr spezielle Karten mit computergenerierten Indizes, die dem Benutzer bei Entscheidungen helfen, stehen zur Verfügung, wie, z.B. beschrieben in Patenten wie DeJong US #5 115 398. Dieses Gerät kann eine lokale Szene so darstellen, wie sie erscheinen mag. Diese Szene kann mit symbolischen Informationen überlagert werden, die dem Benutzer eine Handlung vorschlagen, wie z.B. das Abbiegen nach links, wie es die Fig. 3 der disclosure zeigt. Aber auch in diesem fortgeschrittenen System wird vom Benutzer ein hoher Grad an Übersetzung gefordert. Die computergenerierte Karte versucht nicht genau justierte Abbilder der repräsentierten Objekte darzustellen. Geräte, die Bilder ergänzen, benötigen "Head Up"-Displays (HUDs) und "Helmet Mounted"-Displays (HMDs).

   Das HUD ist ein nützliches Sichtgerät, welches dem Benutzer erlaubt, eine natürliche Szene zu betrachten, üblicherweise durch ein optisches Bildvereinigungselement, wie z.B. holographische Spiegel oder dichroitische Strahlteiler. Damit wird Information für die Navigation überlagert, z.B. Symbole von wirklichen oder vorgestellten Objekten, die Geschwindigkeit von Fahrzeugen, Höhenangaben usw. Als Hauptziel der HUDs gilt, die Zeit zu maximieren, die der Benutzer auf die interessierende Szene blickt. Für einen Kampfpiloten, der zuerst seine Augen auf eine Anzeige der nahen  Instrumententafel fokussieren muss, und dann danach erst mit seinen Blick wieder auf die umgebende Szene zurückkehrt, dauert dies zu lange und kann tödliche Fehler zur Folge haben. Das HUD erlaubt dem Piloten, seine Aufmerksamkeit immer auf die Umgebung zu richten, die optisch im Unendlichen liegt.

   Da die Instrumente für das Auge ebenso im Unendlichen dargestellt werden, entfällt die Notwendigkeit für das ständige Fokussieren der Augen. Ein HUD erlaubt dem Piloten, seine aufrechte Kopfhaltung ständig beizubehalten. Bei Fluglinien werden HUDs zur Landung bei schlechten Sichtverhältnissen eingesetzt. HUDs sind besonders nützlich in Landesituationen, bei denen die Grenzen der Landebahn wegen Nebels ausserhalb des Sichtfeldes des Piloten liegen. Dann können künstliche Grenzen auf das optische Vereinigungselement des HUD projiziert werden, um dem Benutzer die Grenzen der Landebahn sichtbar zu machen. Die Projektion der virtuellen Landebahn wird im Sichtfeld entsprechend von Daten positioniert, gespeist durch einen Informationsaustausch zwischen dem eingebauten Computer und dem elektronischen Landesystem ("instrument landing system" ILS), unter Zuhilfenahme eines VHF-Leitstrahls.

   Das System versorgt den Computer mit zwei Daten: erstens dem Gleitwinkel und zweitens einer Grösse, welche die laterale Position angibt. Diese Daten reichen dem Computer zur Berechnung eines optischen Bildes (Photonen), welches mittels des Strahlvereinigers über das reelle Bild (Photonen) projiziert wird. Dabei werden spezielle Details der wirklichen Szene hervorgehoben, wie z.B. die Grenzen der Landebahn. Die Positionierung der Überlagerung hängt von der Genauigkeit der Zieleinrichtung des Flugzeuges, welches zu dem ILS-Strahl und anderen physikalischen Grenzen justiert ist, ab. Der Computer ist nicht in der Lage, Bilder in der wirklichen Szene zu erkennen und versucht nicht, die wirkliche Szene zu verändern, ausgenommen von hervorragenden Merkmalen. HUDs werden teilweise dadurch charakterisiert, dass sie eine Kombination von zwei optischen Szenen darstellen.

   Die Kombination besteht aus der ersten Szene, die normalerweise vom Betrachter durch den optischen Strahlvereiniger gesehen wird, und aus der zweiten, dem computergenerierten Bild, welches im Strahlvereiniger mit dem wirklichen Bild kombiniert wird. In einem HUD-System ist es für den Computer nicht möglich, sich auf Objekte der wirklichen Szene zu beziehen wie z.B. sie zu ändern oder zu löschen. Das System betont lediglich ein Detail der wirklichen Szene, indem es wichtige Eigenschaften darüber zeichnet. HUDs sind zumeist sehr unförmig und werden typischerweise in einem Flugzeug oder einem Automobil eingesetzt. Sie benötigen viel Platz und eine komplexe Optik, beispielsweise Hologramme und speziell entwickelte Linsen. 



  "Helmet Mounted Displays" HMDs sind den HUDs ähnlich, indem sie ebenso bearbeitete Bilder mit der reellen Szene überlagern, sind aber üblicherweise auf leichte Tragbarkeit ausgelegt. Mikro-CRTs und kleine Strahlteiler ermöglichen es, das ganze System auf einem Helm zu montieren. Es ist schwierig, in einem sich schnell bewegenden Helm ein computergeneriertes Bild zu der wirklichen Szene zu justieren. HUDs können die mit gespeicherten Daten erzeugten Bilder justieren, da diese über die sich langsam bezüglich der Landebahn bewegende Flugzeugachse indiziert sind. Deshalb stellen HMDs im Allgemeinen Daten dar, die sich nicht mit den Kopfbewegungen des Piloten ändern, z.B. die Höhe und die Geschwindigkeit. HMDs werden durch dieselben Einschränkungen wie HUDs begrenzt, da sie es nicht ermöglichen, Elemente von wirklichen Bildern zu löschen oder zu verstärken. 



  Ein anderes, verwandtes System, das sich in dem rapide fortschreitenden Bereich der Computer unterstützten Sichtsysteme herausgebildet hat, ist die "Virtual Reality" (VR). Diese kommt wahrscheinlich am besten in dem Science-Fiction-Film "Star Trek: Die nächste Generation" zum Ausdruck. Das "Holodeck" ist ein Raum, wo der Benutzer all seine Umgebung von einem Computer erzeugen lassen kann, so dass es ihm als ein anderer Ort oder eine andere Zeit erscheint. 



  "Virtual Reality"-Systeme sind besonders nützlich für Ausbildungszwecke, z.B. in Flugsimulatoren. Ein Flugschüler kann von einem virtuellen "Cockpit" umgeben sein, bei dem es sich im Wesentlichen um ein Interface zu einem Computer handelt, während der Benutzer die Umgebung eines wirklichen Flugzeuges auf eine sehr realistische Weise "spürt", vielleicht noch durch künstliche Geräusche, Bilder oder sogar mechanische Bewegungen unterstützt. Handlungen des Benutzers können vom Computer interpretiert werden und der Computer kann auf diese Handlungen durch die Kontrolle der den Benutzer umgebenden Animation reagieren. VR-Systeme können eine vollständige sichtbare Szene erzeugen und es wird nicht versucht, ein computergeneriertes Bild einer wirklichen Szene zu überlagern.

   Ein VR-System hat zumeist keinerlei Kommunikation zwischen dem aktuellen Ort in der Wirklichkeit und der Animation, die dem Benutzer präsentiert wird. Zwischen dem Ort des VR-Systems und dem von ihm erzeugten Ort besteht generell kein physikalischer Zusammenhang. 



  VR-Systeme können Dinge darstellen, die noch nicht existieren. Zum Beispiel kann ein Haus vollständig von einem Computer modelliert werden, so dass der potenzielle Käufer in ihm herumlaufen kann, ehe es gebaut ist. 



  Der Käufer kann in die VR-Atmosphäre eintreten und durch computergenerierte Bilder und Anregungen fortschreiten, die genau wiedergeben, wie das Haus sein wird, wenn es fertig ist. Auf diese Weise kann man sich davon überzeugen, wie ein bestimmter Stil des Hauses wirken wird, bevor die hohen Kosten des Hausbaues zu Buche schlagen. Die VR-Maschine, die komplett mit den Informationen eines Designers programmiert wurde, nimmt keine Dinge vorweg, wie sie gegenwärtig existieren, und es besteht keine Verbindung zwischen den Elementen im VR-System und wirklich existenten Elementen. 



  Die Systeme und Erfindungen der oben genannten Art sind so entwickelt, Ansprüche, Vorteile und Ziele nur teilweise zu verwirklichen, wenn auch einige von ihnen nicht wenig bemerkenswert sind. Deshalb haben diese Systeme und Erfindungen Grenzen und Fehler, die ihren Einsatz in Bereichen ausschliessen, der nur durch die vorliegende Erfindung ermöglicht wird. Die früheren künstlichen Systeme und Erfindungen können nicht benutzt werden, um die Vorteile und Ziele der vorliegenden Erfindung zu verwirklichen. 


 Darstellung der Erfindung 
 



  Nun folgt die Erfindung eines Sichtsystems mit Geräten und Methoden zur Bildverstärkung, indem ein Bild einer wirklichen Szene von einem Rechenprozessor dahingehend verändert wird, dass Informationen einer Datenbank eingeschlossen werden. Die gespeicherten Informationen über diese Szene befinden sich dabei an einem Speicherplatz, der durch den aktuellen Ort und die Lage des Sichtsystems identifiziert wird. Die Hauptfunktion des Sichtsystems der Erfindung ist, im Gegensatz zu den früheren, die Präsentation von verstärkten wirklichen Bildern und Daten, welche kontinuierlich zur wirklichen Szene so justiert werden, wie diese Szene normalerweise von dem Benutzer des Sichtsystems betrachtet wird. Ein verstärktes Bild ist ein Bild, welches die wirkliche Szene darstellt, darüber hinaus aber Weglassungen, Hinzufügungen und Zusätze enthält.

   Die Kamera des Gerätes hat eine optische Achse, die die Blickrichtung festlegt, ähnlich einer einfachen Video-Kamera vom Typ "Camcorder", in dem das dargestellte Bild die wirkliche Szene genau so wiedergibt, wie sie vom Standpunkt mit Blick entlang der optischen Achse erscheint. Auf diese Weise kann man die dargestellte Information leicht bzgl. der Wirklichkeit orientieren. Ein fundamentaler Unterschied zwischen dem Sichtsystem der Erfindung und dem eines Camcorders besteht in der Bildverstärkung. Während ein  Camcorder eine Überlagerung eines Bildes mit Daten wie z.B. der Ladeanzeige der Batterie etc. darstellt, hat er keine "Kenntnis" über die betrachtete Szene. Die dargestellten Daten beziehen sich normalerweise auf das Sichtsystem oder von der Szene unabhängige Daten wie Zeit und Datum.

   Die Bildverstärkung der Erfindung kann speziell Informationen einer Szene hinzufügen, die gerade mit dem System betrachtet wird. 



  Das Sichtsystem der Erfindung kann eine Datenbank mit vorher aufgenommenen Bildern verschiedenster Szenen enthalten. Die präzise Position und Lage des Sichtgerätes indiziert dem Speicher die gerade betrachtete Szene. Ein Rechenprozessor kann Informationen über die spezielle Szene aus dem Speicher erhalten und kann das Bild der Szene verstärken, welches von der Kamera des Sichtgerätes erzeugt wird. Das resultierende Bild wird auf einem Display, bestehend aus einer Kombination von Informationen der optischen Eingabe und der in der Datenbasis gespeicherten Informationen dargestellt. Besonders wichtig ist die Möglichkeit einer Kommunikation zwischen den Daten aus dem Speicher und dem wirklichen Bild. Analysierende und verarbeitende Routinen können das Erkennen von Details der wirklichen Szene einschliessen und Vergleiche mit Artefakten der gespeicherten Daten durchführen.

   Dies kann für die Justierung der wirklichen Bilder bezüglich der abgerufenen Daten nützlich sein. In Situationen, in denen die optische Eingabe der Szene über die Kamera des Systems blockiert ist, wie z.B. bei dichtem Nebel, kann ein Bild erzeugt werden, das nur gespeicherte Informationen aus der Datenbank enthält. In anderen Fällen kann es vorkommen, dass die in der Grösse beschränkte Datenbank keine Informationen über eine spezielle Szene enthält. In diesem Fall entspräche das dargestellte Bild vollständig der wirklichen Szene aus dem optischen Eingang. In diesem speziellen Fall reduziert sich das System zu einem Äquivalent zu einem einfachen Camcorder oder Binokular. Ein weiterer Spezialfall ist der, bei dem die Eigenschaften einer wirklichen Szene selektiv gelöscht werden.

   Falls die hellen Lichter einer urbanen Skyline die eher detaillierte Navigationsbeleuchtung eines Seehafens dominieren, dann ist es mit den Bildverarbeitungsroutinen möglich, zwischen der Stadtbeleuchtung und den Navigationssignalen zu unterscheiden. Die ungewünschten Lichter der Stadt können im Prozessor gelöscht werden, bevor das resultierende Bild auf dem Display dargestellt wird. Im resultierenden Bild sind die Navigationssignale deutlich sichtbar, während das Licht der Stadt überhaupt nicht mehr beiträgt. Deshalb kann das resultierende Bild bei dieser Erfindung in verschiedenen Kombinationen Informationen aus zwei Quellen umfassen, zusammen überlagert, um ein einzelnes Bild mit hoher Informationsdichte zu  bilden.

   Die Informationen aus den beiden Quellen werden miteinander verglichen und kombiniert, um ein einzelnes, verstärktes Bild zu formen, welches auf einem Display dargestellt wird und zu der wirklichen Szene, wie sie der Benutzer sieht, justiert wird. 



  In der einfachsten Form kann man sich vorstellen, dass die Erfindung aus sechs Hauptkomponenten besteht: 1) Einer Kamera, die die optische Information der wirklichen Szene einliest und diese Information als elektrisches Signal an 2) den Rechenprozessor weitergibt; 3) ein Gerät zur Messung der Position der Kamera; 4) ein Lagebestimmungsmessgerät zur Bestimmung der Lage der Kamera (Richtung der optischen Achse); damit wird eindeutig die betrachtete Szene identifiziert, und damit wird der Speicherplatz in 5) der Datenbasis adressiert, an dem die Informationen bezüglich der verschiedenen Szenen gespeichert sind; der Rechenprozessor kombiniert die Daten von der Kamera und der Datenbasis und erzeugt ein einzelnes Bild, welches auf 6) einem Display dargestellt wird, dessen Bild kontinuierlich zu der wirklichen Szene, wie sie der Benutzer betrachtet, justiert wird. 



  Die Relation der Kamera zu dem Positionsmessgerät und dem Lagebestimmungsmessgerät ist so gewählt, dass die Messung der Position und der Lage der Kamera bezüglich beliebiger Referenzpunkte durchgeführt wird. Die Mittelwerte der Positions- und Lagemessungen sind so auf die Datenbank bezogen, dass die Werte der Messungen den Speicherplatz festlegen, an denen die zugehörenden Bilder gespeichert sind. Wir können uns die Positions- und Lagemessung so vorstellen, dass sie uns die Speicheradresse in Form von zwei orthogonalen Variablen liefern. Die Kamera steht mit dem Rechenprozessor so in Verbindung, dass es sich bei dem Bild, welches in der Kamera erzeugt wird, um ein elektronisches Bild handelt, das der Rechenprozessor verarbeitet. Die Datenbank steht mit dem Prozessor insofern in Verbindung, als sie ihn mit Informationen und Bildern für die Verarbeitungsroutinen versorgt.

   Das Display gehört zum Computer, da es das resultierende, verarbeitete Bild empfängt und das elektrische Bildsignal des Rechners in ein optisches Bild verwandelt, welches vom Benutzer betrachtet werden kann. Das Display ist zielgenau auf der optischen Achse justiert, so dass die Information der Wirklichkeit entspricht und dem Benutzer auf eine Art erscheint, die ihm erlaubt, das resultierende, verarbeitete Bild zu sehen, ohne es je nach der Orientierung zur wirklichen Szene interpretieren zu müssen. 



  In der einfachsten Form können die Methoden der Erfindung als aus sieben Hauptstufen bestehend betrachtet werden: 1) der Aufnahme, bei der  das Licht von einer Szene mit einer Linse abgebildet wird; 2) einem Verarbeitungsschritt, bei dem die optische Information der Aufnahme in ein elektrisches Signal umgewandelt wird; 3) der Positionsbestimmung, in der die Position der Kamera bestimmt wird; 4) der Lagebestimmungsmessung, bei der die Lage der Kamera gemessen wird; 5) dem Abruf der Daten, bei dem der Speicherplatz in Abhängigkeit der Messergebnisse nach Stufe 3 und 4 und Benutzer-Eingangsdaten gewählt werden, entsprechend dem Aufruf des Rechenprozessors; 6) einem Verarbeitungsschritt, in dem die Daten aus dem Speicher und dem elektronischen Bild vereinigt und bearbeitet werden; und der 7) Wiedergabe auf dem Display, bei der das verarbeitete Endbild dargestellt wird. 



  Das Produkt der Aufnahme, ein optisches Bild, wird im Konversionsschritt in ein elektrisches Signal umgewandelt. Das elektronische Bild des Konversionsschrittes wird im Verarbeitungsschritt dem Prozessor übertragen. Die Ergebnisse der Positions- und Lagebestimmung sind Werte, die im Datenabruf gebraucht werden. Das Ergebnis des Datenabrufes wird dem Prozessor übergeben, um im Verarbeitungsschritt mit dem elektronischen Bild des Konversionsschrittes kombiniert zu werden. Das Ergebnis des Verarbeitungsschrittes, eine resultierende elektronische Darstellung des bearbeiteten Bildes wird im Wiedergabeschritt übertragen und im optischen Format wiedergegeben. 



  Die Erfindung wird weiter dadurch zusammengefasst, indem sechs Beispiele der Erfindung gegeben werden, in denen die Beschreibung der Geräte, Methoden und ihrer Nutzen folgt. 



  In einem ersten zusammenfassenden Beispiel der Erfindung möge sich der Leser ein Szenario vorstellen, in dem ein Schiff sich einer Hafeneinfahrt nähert und der Benutzer der Erfindung der Offizier des Schiffes ist. Es ist übIlich für den Navigationsoffizier, viele Hilfen zu benutzen, um seinen Kurs durch die Wasserstrasse zu führen. Karten, einen Kompass, Leuchtbojen, Sonargeräte, Entfernungsmesser, Radar und Ferngläser sind einige der Instrumente, die man zur Navigation eines Bootes verwenden kann. Neuere Fortschritte in der Positionsbestimmung, insbesondere das Global Positioning System, GPS, haben die Aufgabe der Navigation hier vereinfacht. Mit dem GPS verfügt der Navigationsoffizier über die Kenntnis der Position des Schiffes mit einer Genauigkeit von +/- 300 Fuss, Nord und Ost, in einigen besonderen Fällen sogar genauer.

   Sogar mit einer derart guten Positionsbestimmung muss der Navigationsoffizier feststellen, welcher Position auf der Karte seine Position entspricht, die Symbole der Karte identifizieren und sich ein Bild von seiner Umgebung vorstellen. Dann muss der Navigationsoffizier die reale  Szene vor ihm nach identifizierbaren Objekten durchsuchen, um festzustellen, ob das, was er sieht, mit den Symbolen der Karte übereinstimmt. Häufig ist die Sicht durch Dunkelheit oder die Wetterbedingungen beeinträchtigt, und spezielle Lichter müssen als Markierungen auf der Karte identifiziert werden. Diese können farbige Blinklichter sein; diese können leicht mit den hellen Lichtern einer Stadt verwechselt werden. In anderen Fällen können die Markierungen unbeleuchtet sein und in der Dunkelheit unmöglich gefunden werden.

   Gefährliche Objekte, wie z.B. versunkene Schiffe, Seetang und Riffe, werden im Allgemeinen auf Karten gekennzeichnet, sind aber für der Navigationsoffizier nicht sichtbar, weil sie teilweise oder ganz unter Wasser liegen können. Der Navigationsoffizier muss sich seine Position im Bezug zu den Objekten der wirklichen Szene und denen der Karte in Gedanken vorstellen und muss sich auch die Gefahren der wirklichen Szene, vor denen die Karte warnt, vorstellen. Dieser Vorgang erfordert viele komplizierte Übersetzungen und Interpretationen zwischen der wirklichen Szene, den Markierungen auf der Karte, der Szene, wie sie der Navigationsoffizier sieht und der Karte, wie sie vom Navigationsoffizier verstanden wird. Sicherlich stellt dies zusammen ein grosses Fehlerpotenzial dar.

   Viele sehr gut ausgebildete und geübte Seenavigatoren haben bei der schwierigen Aufgabe der sicheren Navigation in einen Hafen versagt, was oftmals zu tragischen Konsequenzen führte. Mit dem System der Erfindung kann ein Navigationsoffizier zuverlässig auf eine Szene blicken und exakt den Ort bekannter Markierungen feststellen. Das System der Erfindung macht die Umsetzung der Symbole einer Karte in die Realität überflüssig. Der Benutzer der Erfindung kann das Display vor seinen Augen positionieren, um ein Bild der wirklichen Szene mit einer Überlagerung der Symbole der Karte zu sehen. Der Vorstellung des Navigators wird es dann klar, wo sich unsichtbare Riffe befinden und bei welchen Lichtern es sich um die wirklichen Navigationssignale handelt, und bei welchen um Strassenlaternen. Dem Computer ist es möglich, Informationen, wie z.B.

   Streulicht, aus den Bildern zu entfernen, um nur die Lichter, die für die Navigation benötigt werden, im Display wiederzugeben. Dies ist möglich, weil die Datenbank der Erfindung alle Navigationslichter "kennt" und der Prozessor alle anderen eliminieren kann. Das Display, auf welches der Benutzer schaut, enthält eine Darstellung der Szene, in der die unerwünschten Objekte eliminiert sind und nützliche Daten und Objekte hinzugefügt sind. Immer wenn der Navigator das Gerät der Erfindung in eine bestimmte Richtung lenkt, nimmt das Gerät ein optisches Bild der wirklichen Szene auf, bestimmt gleichzeitig Position und Lage des Gerätes und ruft aus der Datenbasis die Informationen bezüglich der beobachteten Szene ab. Der  Prozessor analysiert das Bild, alle aufgerufenen Daten, und vereinigt diese zu dem endgültig dargestellten Bild. 



  In einem weiterführenden Beispiel der Erfindung möchte eine Stadtplanungskommission wissen, wie ein vorgeschlagenes Gebäude in der Skyline der Stadt aussieht. Sicherlich ist es möglich, eine Fotografie der Skyline anzufertigen und das vorgeschlagene Gebäude in das Foto zu malen. Diese üblicherweise eingesetzte Methode hat einige Nachteile. Es zeigt nur eine einzelne Perspektive des geplanten Gebäudes und kann von einen voreingenommenen Entwickler von seiner "besten Seite" gezeigt werden (oder in einem "schlechtem Licht" von einem voreingenommenen Konkurrenten/Mitstreiter). Das Bauwerk mag so präsentiert werden, dass es in der Ausführung durch den Entwickler neben dem Rathaus sehr nobel aussieht. Da in einer Fotografie üblicherweise nur eine Perspektive gezeigt wird, kann es unmöglich sein, die ganze Wirkung festzustellen, die das Gebäude bezüglich anderer Standpunkte haben kann.

   Es mag aus dem vorbereiteten Foto nicht ersichtlich sein, dass der schöne Blick auf die Bucht, den die Besucher des Rathauses geniesen, nach der Vollendung des Gebäudes blockiert ist. Mit der vorliegenden Erfindung können die Details jeder Perspektive einfach sichtbar gemacht werden. Daten, die genau das vorgeschlagene Gebäude wiedergeben, können in die Datenbank des erfundenen Gerätes eingegeben werden. Sobald die Kamera der Erfindung in die Richtung des neuen Gebäudes gerichtet wird, nimmt das Kamerateil die wirkliche Szene wie sie erscheint auf und übergibt das Signal dem Prozessor. Das Gerät bestimmt genau die Position und die Lage der Kamera bezüglich der Szene und ruft die Daten aus dem Speicher, die wahrheitsgetreu die Perspektive des Gebäudes von diesem Standpunkt aus wiedergeben.

   Der Prozessor vereinigt dann die wirkliche Szene mit den Daten des vorgeschlagenen Gebäudes, um ein endgültiges Bild des Gebäudes aus dieser speziellen Perspektive zu zeigen. Es wäre sogar einem Hubschrauber möglich, in einem Bogen um den Ort des Gebäudes zu fliegen. Dem Benutzer wird es damit möglich, das Gebäude aus allen möglichen Richtungen zu betrachten. Ein Mitglied des Stadtrates kann sehen, wie die zukünftige Struktur aus allen Perspektiven in Wirklichkeit sein würde, ehe er der Ausführung des Planes zustimmt. 



  In einem zusätzlichen zusammenfassenden Beispiel wählen wir das Szenario, in dem ein Ingenieur Produkte der Erfindung zur Analyse und zum "troubleshooting" eines Entwicklungsproblems verwendet. Genauer der Fall, wenn ein Problem bei der Auslotung an Bord eines U-Bootes festgestellt wurde. Der komplizierte Aufbau, eingeschlossen von Rohren, Pumpen, Kabeln, Drähten usw. eines U-Bootes können sehr schwer zu verstehen  sein, wenn man auf die technische Zeichnung blickt und die Information des Planes in die Wirklichkeit übersetzen muss. Die unverzügliche und zuverlässige Identifikation eines speziellen Elementes kann in einem Notfall für das Überleben des Schiffes kritisch sein. Der folgende erläuternde technische Gebrauch der Erfindung stellt stark vereinfacht die Art der zuverlässigen Identifikation von technischen Eigenschaften dar. 



  Ein Ingenieur an Bord eines Unterseebootes muss an der Salzwasserpumpe im Torpedoraum arbeiten, die die Torpedorohre nach Gebrauch leerpumpen soll. Vorbereitend auf den Einsatz wird der Speicherinhalt des portablen elektro-optischen Sichtgerätes von dem Zentralcomputer des Schiffes mit Informationen über Details der fraglichen Pumpe und mit Details über den Torpedoraum, wo sich die Pumpe befindet, versehen. Im Falle eines durch einen Kampf beschädigten Schiffes oder im Falle begrenzter Sicht wegen Feuer oder Stromausfällen kann das Sichtsystem die Führung zu dem Ort der Pumpe durch audiovisuelle Anhaltspunkte gewähren.

   Da die verschiedenen Rohre durch Schotten oder hinter Wänden verlaufen können, kann das Sichtsystem dazu benutzt werden, durch Wände zu sehen und die Orte der Rohre einzufügen, so dass die andernfalls unsichtbaren Rohre fortwährend und ohne Mehrdeutigkeiten verfolgt werden können. Wenn die fragwürdige Pumpe erreicht ist, richtet der Ingenieur die Kamera-Achse des Sichtsystems in Richtung der Pumpe. Auf dem Display des Gerätes wird ein wirkliches Bild der Pumpe mit Daten überlagert, wie z.B. der Teilenummer der Pumpe und Anhaltspunkte über die Eigenschaften der Pumpe, wie z.B. welches Material gepumpt wird und die Flussrichtung. Das Sichtgerät kann Eingaben des Benutzers empfangen, um weitere Darstellungsmodi zu wählen.

   Diese Eingaben können durch mechanische Vorrichtungen, wie einer "Maus" durchgeführt werden, einfach durch einen Knopf, oder vielleicht durch verbale Kommandos unter Zuhilfenahme eines Spracherkennungssystems. Falls die Pumpe auseinander genommen werden muss, kann der Benutzer das Gerät durch verbale Kommandos anweisen, die einzelnen Montageschritte folgen zu lassen. Das Auseinandernehmen kann dann durch Hinweise des Sichtgerätes vereinfacht werden. Ein spezieller Teil kann hervorgehoben werden und die erforderliche Bewegung für seine sichere Entfernung kann simuliert werden, so dass der Benutzer das richtige Auseinandernehmen vor Ort lernen kann. 

   In ähnlicher Weise kann das Zusammensetzen begleitet werden, weil das vorhergehende Wissen über das Auseinandernehmen im Speicher verbleibt und leicht dem Benutzer dargeboten werden kann, so dass keine Übertragungen aus Anleitungen in die Wirklichkeit erforderlich sind. Ein hervorgehobenes Teil und eine  Bewegung zum Zusammenbau des Teiles kann auf dem wirklichen Bild des Werkstückes überlagert werden. 



  Ferner kann man sich in einem weiteren zusammenfassenden Beispiel die Komplexität der Situation vorstellen, in der Feuer bekämpft werden soll. Es mag für einen Feuerwehrhauptmann üblich sein, die Detailpläne des Inneren eines Gebäudes von einer Kopie zu lesen und diese Information über Funk den Feuerwehrmännern im Gebäude zu übermitteln. Das Problem dieser Methode besteht darin, dass es von vielen Übersetzungen zwischen verschiedensten Medien abhängt. Bei jeder Übersetzung wird die Information gemäss einer Übertragungsfunktion verändert und somit in der Genauigkeit begrenzt. Die vorliegende Erfindung bietet eine Alternative, welche die direkte Übertragung von detaillierten Informationen über eine Struktur an den Feuerwehrmann im Gebäude erlaubt. 



  Eine Videokamera und eine Brille kann in einem normalen Helm eines Feuerwehrmannes eingebaut werden, wobei die Brille das erforderliche Display enthält. Die Display-Einheit könnte entweder über Funk oder über eine feste Verdrahtung mit dem Computer in Verbindung stehen, dessen Speicher die vorher aufgezeichnete Informationen über Elemente der Struktur enthält. Das Positionsbestimmungssystem kann zu jeder Zeit feststellen, wo sich der Feuerwehrmann befindet und wohin er blickt. Ein wirkliches Bild von der Kamera kann dann mit den aufgezeichneten Daten kombiniert werden, um ein verstärktes Bild zu erzeugen. Falls das vom Feuer erzeugt helle Licht im wirklichen Bild ein wichtiges Detail, wie z.B. einen Türgriff, unsichtbar macht, kann der Prozessor das Feuer in der wirklichen Szene löschen und den Türgriff einzeichnen.

   Der Feuerwehrmann kann leicht seinen Weg durch das komplizierte Innere finden, welcher mit Rauch und Feuer gefüllt ist, was andernfalls ein Vordringen in das Gebäude verhindern würde. Informationen aus erster Hand, die über das erfundene Sichtsystem direkt einem Feuerwehrmann zur Verfügung gestellt werden, können die Geschwindigkeit und die Effektivität einer Brandbekämpfung enorm steigern. Ein in einem Helm montiertes Gerät wäre notwendigerweise klein und kompakt. Es kann so eingerichtet werden, dass die Kamera, das Display und das Positionsbestimmungsgerät (Position und Lage) sich im ständigen Funkkontakt mit dem Computer befinden, die möglicherweise sehr unförmig und weit entfernt sein kann. Diese Möglichkeit ist als Teilaspekt in dieser Erfindung vorgesehen und eingeschlossen. 



  Es sollte darauf hingewiesen werden, dass im Falle sehr starken Rauches, wenn keine wirklichen Bilder von der Kamera aufgenommen werden können, und die dargestellten Bilder nur aus gespeicherten  Informationen bestehen, das System einem "Virtual Reality Device" sehr ähnlich wird. Der wichtige Unterschied bleibt darin bestehen, dass die wieder gegebenen Bilder exakt zur Wirklichkeit und entsprechend der Blickrichtung des Benutzers justiert werden. Falls der Feuerwehrmann eine Tür öffnet, öffnet sich eine wirkliche Tür. Bei VR-Anwendungen erscheint es so, als ob eine wirkliche Tür geöffnet ist, aber die Tür in einem VR-System ist vollständig simuliert und es existiert keine wirkliche geöffnete Türe. 



  In einem weiteren zusammenfassenden Beispiel wird einem Touristen mit einem Sichtsystem ein Blick in die Vergangenheit gewährt. Man kann sich einen Bus voller Touristen vorstellen, die in Pompeij ankommen. Jede mit einem tragbaren Sichtsystem ausgestattete Person kann sich frei im Felde nach eigenem Willen bewegen. Es wird möglich sein, vorherbestimmte Orte zu haben, zu denen die Benutzer geleitet werden, und bei den Szenen, wie sie dem Benutzer geboten werden, einen entsprechenden "Soundtrack" anzubieten. Blickt ein Benutzer in das Sichtsystem, kann er die Gebäude sehen, wie sie jetzt aussehen und eine Simulation sehen, wie sie vor dem Ausbruch des Ätnas aussahen. Er sieht in einer Simulation, wie Menschen des alten Pompeij in ihrem täglichen Leben umhergehen. Ohne Warnung sieht der Betrachter, wie die Asche auf die Häuser fällt und wie die Menschen nach Schutz rennen.

   Die simulierten Ereignisse früherer Zeiten können leicht in modernen Zeiten mit Hilfe der vorgelegten Erfindung betrachtet werden. In dieser Version kann jedes tragbare Gerät für jede Person individuell und unabhängig in Funkkontakt mit einem gemeinsamen Daten- und Rechenzentrum kommunizieren. 



  Im abschliessenden zusammenfassenden Beispiel der Erfindung betrachten wir den Bedarf für Landvermesser, um in der Erde nach vergrabenen Rohrleitungen und Kabeln zu suchen. Falls in Bauprojekten die Veränderung oder Entfernung solcher Leitungen erforderlich ist oder neue Projekte installiert werden sollen, so dass sie die existierenden Anlagen nicht kreuzen, muss der Landvermesser die Lage dieser Anlagen ergründen. Ein Landvermesser hängt von der Dokumentation der vorhergehenden Konstruktionsprojekte ab und versucht, die Orte der verschiedenen Anlagen wie auf den Karten vermerkt in der Wirklichkeit abzustecken. Erneut erfordern die Übertragungen des Landvermessers aus den Karten und anderen Dokumenten auf die Wirklichkeit und an die Arbeiter der Ausgrabungsfirma Erfahrung und Ausbildung. Sogar mit neuen Karten kann das Unternehmen ein Alptraum und ein Fehler sehr teuer werden.

   Wenn man auf ein Display schauen könnte, welches zur wirklichen Szene justiert ist und ein Bild der wirklichen Szene mit überlagerten Positionen der Ausgrabungsarbeiten  darstellt, wäre es ein trivialer Vorgang, die Sicherheitsmarkierungen anzubringen. Mit dem erfundenen System können die vergrabenen Rohre und Kabel etc. in der Datenbasis gespeichert werden. Die Orte des Konstruktionsprojekts können dann in einer sehr kurzen Zeit vermessen werden. 



  Es sollte erwähnt werden, dass die meisten Kartensysteme dieser Art, sogar sehr ausgefeilte rechnergestützte Karten mit Daten und Symbolen in Verbindung mit Bildern, eine Übertragung des dargestellten Bildes auf das Bild der Wirklichkeit, wie es vom Benutzer gesehen wird, erfordert. Obwohl HUDs ein wirkliches Bild und ein gespeichertes Bild, das zur Wirklichkeit justiert ist, kombinieren, kann die Erfindung durch die Möglichkeit der Kommunikation zwischen dem wirklichen Bild und den Daten oder dem gespeicherten Bild unterschieden werden. Das HUD gewährt keine Erkennung, Justage, Unterdrückung ungewünschter Elemente und anderer Eigenschaften der Erfindung. Nur die vorliegende Erfindung gewährt ein System, welches bearbeitete Bilder, die zur einer Szene so justiert sind wie sie normalerweise betrachtet wird, produziert. 



  Der hauptsächliche Gegenstand der Erfindung ist die Gewährleistung eines vielseitigen Sichtsystems mit bei bisherigen Systemen vollständig unbekannten Eigenschaften. 



  Ein weiterer Hauptpunkt der Erfindung ist die Einführung eines Gerätes und eines Verfahrens zur Bearbeitung der Wirklichkeit, wobei wirkliche Szenen bearbeitet abgebildet werden, in Disziplinen wie Vermessung, Reparatur, Tourismus, Navigation und anderer, wobei dem Benutzer zusätzliche Informationen über die Szene geboten werden. 



  Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtsystems zur Betrachtung einer Landschaft, die Objekte enthält, welche im Zeitpunkt des Gebrauches noch nicht existieren, aber als zukünftige Teile der Landschaft geplant sind. 



  Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtgerätes zur Betrachtung einer Landschaft, welche Objekte enthält, die nicht mit konventionellen Sichtsystemen wie Kameras, Ferngläsern, Teleskopen, Videorecordern, HUD, HMD etc. gesehen werden können. 



  Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtgerätes, welches es erlaubt, ungewünschte Gegenstände der wirklichen Szene zu entfernen und durch computergenerierte, für den Benutzer wichtige Objekte zu ersetzen. 


 Kurze Beschreibung der Zeichnungen 
 



  Diese und andere Eigenschaften, Aspekte und Vorteile der vorliegenden Erfindung können bei der Betrachtung der folgenden Beschreibung, den angehängten Ansprüchen und den Zeichnungen besser verstanden werden: 
 
   Fig. 1 ist eine Zeichnung eines Benutzers der Erfindung, eine Szene, wie sie in Wirklichkeit vorkommt, und eine Szene, wie sie bearbeitet im Display der Erfindung sichtbar ist. 
   Fig. 2 ist die Zeichnung eines Strassenbildes einer Stadt (2a), wobei die Erfindung es dem Landvermesser erlaubt, andernfalls unsichtbare Details wie vergrabene Rohrleitungen und Abwasserkanäle zu sehen (2b). 
   Fig. 3 ist das Blockdiagramm der Komponenten und ihrer Verbindung untereinander, wie es aus der neuen Kombination in der Erfindung hervorgeht. 
   Fig. 4 ist ein weiteres detailliertes Blockdiagramm. 
   Fig. 5 ist eine elektro-optische Schemazeichnung einiger Systemkomponenten.

   
 


 Wege zur Ausführung der Erfindung 
 



  Die Erfindung stellt ein System zur Verfügung, mit dessen Einsatz ein bearbeitetes Bild hergestellt wird. In der Zeichnung in Fig. 1) wird ein Benutzer gezeigt, der durch ein portables System (1) der Erfindung in ein Tal blickt. Ein bearbeitetes Bild (3) wird dem Benutzer präsentiert und wird in die wirklichen Szene eingefügt. Das bearbeitete Bild kann Folgendes enthalten: Elemente, die noch nicht existieren, z.B. eine Brücke (4), repräsentativ für, zu der wirklichen Szene hinzugefügte Informationen; Elemente, die in Wirklichkeit existieren, aber im Endbild fehlen, z.B. Bäume zur rechten Seite der Brücke, repräsentativ für Informationen, die entfernt wurden; und schliesslich Elemente, deren ursprüngliche Erscheinungsform sich verändert hat. In Fig. 2 ist das Beispiel eines Bauvermessungsplanes gezeigt. Wie die Szene normalerweise aussieht, ist in Fig. 2(a) gezeigt.

   In Fig. 2(b) können die Trinkwasserleitungen (5), die zu den Häusern (7) führen, neben den Feuerhydranten (8) und den vergrabenen Abwasserkanälen leicht mit dem Display der Erfindung "gesehen" werden. 



  In der ersten vorgezogenen Darstellung der Erfindung enthält das elektro-optische Gerät eine Kamera (9), ein Positionsbestimmungsgerät (16), eine Lagebestimmungsmessgerät (15), einen Datenspeicher (12), einen  Computer (14) und ein Display (13). Bei der Kamera handelt es sich um ein elektro-optisches Gerät zum Einsatz zur Übertragung eines Lichtflusses aus dem Sichtfeld in ein optisches Bild in einem Bildfeld, der Konversion eines Lichtbildes in ein elektronisches Bild und der Übertragung des elektronischen Bildes zu dem Computer. Das Positionsbestimmungsgerät ist in der Lage, die Position der Kamera zu bestimmen; das Lagebestimmungsmessgerät ist in der Lage, die Verkippung der Achse zu bestimmen, die durch die optische Achse des Sichtfeldes der Kamera gegeben ist.

   Der Datenspeicher steht in Verbindung mit den Positions- und Lagebestimmungsmessgeräten, wobei die Werte der Lage und der Position den Ort oder die Orte im Datenspeicher angeben. Ferner steht er in Verbindung (39) mit dem Computer, wobei Bilddaten zu diesem übertragen werden können. Im Computer werden die elektronischen Bilder aus der Kamera mit den elektronischen Bildern (4) aus dem Datenspeicher verglichen, analysiert, bearbeitet und zur Darstellung eines einzelnen Bildes kombiniert. Der Computer steht in Verbindung mit dem Display, wobei die Information über die Position und Lage der Kamera relativ zur Szene dazu verwendet wird, um ein reales Bild der Szene relativ zur Position und der Lage der Kamera hervorzuheben. Eine detaillierte Beschreibung von jeder dieser Komponenten des Hauptgerätes folgt. 



  Für die beanspruchten Realisierungen der Erfindung ist vorhergesehen, dass der Kamerateil des Gerätes aus vier Hauptbestandteilen bestehen wird, die zu einer tragbaren, für den Benutzer (2) leicht handhabbaren Baugruppe (1) integriert werden. Diese beinhaltet: ein Linsengruppe für die optische Eingabe (38), eine Verwacklungssicherung, mindestens eine CCD-Kamera (20) und eine optische Zielvorrichtung (34). 



  Ein den Lichtstrom abbildendes Linsensystem kann in der tragbaren Kameraeinheit (1) montiert werden. Einachsige oder einäugige Systeme sind kommerziell erhältlich und werden üblicherweise in Geräten wie Camcordern und digitalen Fotokameras eingesetzt. Es ist vorzuziehen, dass das Objektiv über eine Zoom- und eine Autofokuseinrichtung verfügt; diese Systeme sind ausgereift. Ein Autofokussystem kann mit freiem Eingriff für den Benutzer durch einen Computer geregelt werden. Die Zoomvorrichtung kann ebenso elektronisch geregelt und manuell durch den Benutzer über einen elektrischen Schalter kontrolliert werden, oder sie kann auch durch den Computer, je nach bekannten Eigenschaften, speziell für eine gewählte  Szene geregelt werden. Die physikalischen Ausdehnungen des Aufnahmeobjektives legen das Bildfeld des Gerätes fest.

   Das Bildfeld ist variabel über die Zoomvorrichtung des Objektives. Informationen über das Bildfeld können dem Prozessor zur Verfügung gestellt werden, um in den Bildverarbeitungsroutinen Verwendung zu finden. 



  Bildstabilisierungseinrichtungen sind ebenso weitverbreitet in dem Bereich der elektronischen Fotografie. Die bekannten Systeme sind für die beanspruchten Realisierungen dieser Erfindung nützlich. Eine Verwacklungssicherung kann über ein piezoelektrisches Halbleiterelement geregelt werden, welches eine verzerrbares Prisma steuert. Bewegungsinformation von Messgyroskopen (35) kann Bewegungen meiden und das Steuersignal für die Prismen regeln. Das erfundene System kann dahingehend modifiziert werden, dass das Signal von jedem Gyroskop zur Kontrolle dem Rechner übergeben wird, der damit die Höhe und die Haltung des tragbaren Gerätes bestimmt.

   Dies kann für Systeme, die keinen Zugriff auf Signale des GPS haben, von besonderer Bedeutung sein, so z.B. für Unterseeboote oder für Systeme, die speziell für mikroskopische Anwendungen entwickelt wurden, wie für Operationen oder Mikromanipulatoren. Als Alternative zu den mechanischen Stabilisatoren kann eine elektronische Verwacklungssicherung eingesetzt werden, aber dadurch kann es zu Verlusten bei der Bildqualität kommen und in Situationen mit schnellen Bewegungen zu einem Verlust in der Kontinuität der Bilder. Eine elektronische Verwacklungssicherung kann auch nicht sofort dahingehend modifiziert werden, dass sie Bewegungsinformationen an den Prozessor liefern kann. 



  Nachdem das Lichtbild von einer Szene durch die Verwacklungssicherung stabilisiert ist, wird es auf mindestens ein CCD-Element fokussiert, welches sich in der Bildebene des Aufnahmeobjektives befindet. Eine mögliche Alternative stellen Siliziumzellen oder andere Aufnahmegeräte dar, aber CCDs sind vorzuziehen, weil deren Ausgang kompatibel mit dem elektronischen Computer sein kann, der die digitalen Daten verarbeitet. Der Lichtfluss aus der Szene wird in ein digitales, elektronisches Bildsignal, welches die Szene repräsentiert, umgewandelt. CCD-Elemente stehen auch leicht zur Verfügung und werden in modernen Bilderfassungsgeräten eingesetzt; standardisierte CCD-Elemente sind ohne Modifikationen oder nur mit kleineren Veränderungen für die vorliegende Form der Erfindung ausreichend. Die Kamera kann auf zwei verschiedene Wege ein Farbbild liefern.

   Es ist auch vorausgeplant, dass es nützlich sein kann, wenn CCD-Elemente für andere als dem menschlichen Auge sichtbare Anteile des Spektrums empfindlich sind. Zum Beispiel können manche Systeme dadurch  Vorteile haben, dass ihre CCD-Elemente für Infrarot-Aufnahmen ausgelegt sind. Der Gebrauch von IR-Geräten kann bei Anwendungen, wie z.B. der Brandbekämpfung und der Ackerbaukunde wichtig sein, bei welchen die wichtige Bildinformationen in Spektralbereichen ausserhalb des Sichtbaren liegen. 



  Ein Entfernungsmesser ist für eine Vielzahl von Systemfunktionen wichtig. Als erstes Aufgabe steht die Versorgung des Autofokus des Aufnahmeobjektives. Damit die Bilder scharf auf das CCD abgebildet werden, ist eine genaue Einstellung des Aufnahmeobjektives entsprechend der Entfernung des abzubildenden Objektes notwendig. Als zweite Funktion ist die Entfernungsangabe für den Prozessor wichtig, als sie Hinweise für die richtige Skalierung des wirklichen Bildes relativ zu den gespeicherten Daten liefert. Das Kamerabild und die Eingabe aus dem Datenspeicher werden kombiniert, weshalb eine Skalierung eine wichtige Vorraussetzung für die Qualität des endgültigen Bildes ist. Ein weiterer Einsatz, der dritte der optischen Entfernungsmessung, kann die Elimination ungewünschter Bildelemente sein.

   Zum Beispiel kann die Takelage eines Schiffes die Sicht auf das Spreizholz versperren, dann ist es möglich, dem Bildverarbeitungsprozessor die momentan wichtige Entfernung mitzuteilen. Der Prozessor kann dann Objekte entfernen, die sich nicht im ausgewählten Bereich befinden. 



  Ein Entfernungsmessgerät, z.B. ein Sonar- oder eine Ultraschallgerät, kann die Entfernung zwischen Kamera und den Objekten der Szene bestimmen. Es ist auch möglich, Laser oder Radarsysteme zu verwenden, aber diese sind aufwendiger und teurer. Der Computer kann die Entfernungsangaben direkt vom Entfernungsmesser empfangen oder er kann die Entfernungsangabe aus der Fokussierung und der Zoomeinstellung (18) der Aufnahmelinse bestimmen, welche von einer Computerroutine abgefragt werden können. Dies ist möglich, falls die Linse mit Wandlern ausgerüstet ist, welche die Fokussierung und die Zoomeinstellung des Objektives in ein für den Rechner lesbares elektrisches Signal verwandeln.

   Alternativ zu der aktiven Entfernungsmessung oder zusätzlich zu diesen ist es möglich, die Entfernung zu Objekten der Szene durch einen Vergleich von Bilddetails mit bekannten Elementen aus dem Datenspeicher zu vergleichen, die diesen Bilddetails entsprechen. Eine Veröffentlichung dieser Methode liegt in dem US-Patent #5 034 812, Rawlings, vor. Sobald Position und Höhe der tragbaren Kamera bekannt sind, kann ein wirkliches Bild dem Computer übergeben und von diesem analysiert werden. Bezüglich einer rechnergestützten topographischen Datenbasis kann die Position und damit die Entfernung und die Lage zu den vom Benutzer gewählten Elementen bestimmt werden.

   Ein  Beispiel: ein Objekt wie ein Leuchtturm, dessen Höhe vorher im Datenspeicher gespeichert wurde, kann im wirklichen Bild vermessen werden, so dass bei bekanntem Abbildungsmassstab des Objektives eine Entfernungsmessung möglich ist. Zur Erhöhung der Genauigkeit kann jede Bestimmung der Entfernung unabhängig voneinander oder in Kombination mit der Vielzahl der anderen durchgeführt werden. 



  Für die beanspruchten Realisierungen der Erfindung ist vorgesehen, dass die Positionsbestimmungseinheit des Gerätes ein globales Positionssystem, ein GPS-Empfänger (16) sein wird. Es gibt eine Vielzahl alternativer Positionsbestimmungseinheiten, die in anderen Realisationen der Erfindung eingesetzt werden können. Das schliesst Loran, Glonass und Omega ein, beschränkt sich aber nicht darauf. Da das GPS sehr genau ist und die Höhe mit liefert, ist es selbstverständlich für die Erfindung, das GPS zu wählen und von der zusätzlichen Präzision zu profitieren. Bei abgeschlossenen Systemen wie Untergrundarbeiten oder Unterseebooten kann das Positionsbestimmungssystem durch einfachere Versionen wie Triangulationsmessungen über bekannte Orte oder anderer Positionsmessverfahren ersetzt werden.

   Für Anwendungen im mikroskopischen Bereich wie z.B. der Untersuchung von Halbleiterkomponenten oder der Mikrosystemherstellung kann es von Vorteil sein, über ein Laserinterferometer die Position mit Subnanometergenauigkeit zu bestimmen. Die Erfindung ist unabhängig von den Details irgendeiner Positionsbestimmungseinheit, solange die Position bestimmt und an einen Computer übergeben werden kann. 



  Eine kleine, leichte und tragbare Kamera ist ein Ziel der Erfindung. Um dies zu erreichen, kann es erforderlich sein, den Hauptteil der Rechenkraft in eine separate Einheit zu packen, welche in Kommunikation mit der tragbaren Kamera steht. In dieser Anordnung ist es vorzuziehen, die Antenne (36) des GPS-Empfängers in die tragbare Kamera oder in direkte Nähe dazu zu bringen. Die sperrige Recheneinheit des GPS-Empfängers kann mit den anderen Computergeräten in einem Rucksack oder in einer stabilen Station untergebracht werden. Bei Einheiten, die in umbauten Plätzen benutzt werden, an denen das GPS-Signal vielleicht nicht empfangen werden kann, so z.B. auf der Brücke eines Schiffes, kann die Antenne an irgendwelchen anderen bekannten Plätzen relative zu der Kamera aufgestellt werden und  der bekannte und konstante Versatz dazwischen von der Rechenelektronik eliminiert werden. 



  In den beanspruchten Realisierungen der Erfindung ist vorhergesehen, die Einheit zur Bestimmung der Lage des Gerätes in einer von drei Alternativen zu realisieren. Jedes bestimmt die Richtung, die Neigung und die Verdrehung der tragbaren Kamera-Einheit. Ein in die tragbare Kamera eingebauter Flüssigkeitskompass (37) kann Richtungsangaben mit einer Genauigkeit von +/- 1 Grad liefern. Der Ausgang dieses Kompasses kann dem Computer zur Verfügung gestellt werden. Die Ausgänge der piezo-elektrischen Gyroskope der Verwacklungssicherung können auch dazu verwendet werden, mit dem Computer die Bewegung durch den Benutzer von einem Messpunkt aus zu berechnen. Der Messpunkt kann sich in Ruhe an einer bekannten Normalposition befinden oder durch die Beobachtung des Horizontes durch die tragbare Kamera festgelegt werden.

   Eine Alternative bietet ein dreiachsiges Magnetometersystem, welches ein zweiachsiges elektrolytisches Neigungsmessgerät enthält. Dieser Wandler befindet sich mit in der Kamera und versorgt den Computer mit vollständigen Lageangaben. Als weitere Alternative zur Berechnung der Lage (eingeschlossen der Richtung) aus einem bekannten Messpunkt kann ein piezo-elektrisches Gyroskop verwendet werden. Die Auswahl dieser Alternative kann durch den niedrigeren Preis getroffen werden, wie auch durch die Möglichkeit der Anwendung in Magnetfeldern, die genaue Richtungsmessungen ausschliessen (z.B. in der Nähe elektrischer Schweissgeräte; grosser Transformatoren etc.). Dabei ist zu beachten, dass die Verwacklungssicherung schon die erforderlichen piezo-elektrischen Gyroskope enthält.

   Es wäre möglich und wünschenswert, diese Alternative in allen drei oben genannten Fällen als eine zusätzliche Methode zur Erfassung der Lage zu gewähren. 



  In den beanspruchten Realisierungen der Erfindung ist es vorgesehen, dass der Rechenprozessor des Gerätes ein Mikrocomputer mit sehr schnellen Graphik- und Videokarten ist. 



  Wegen dem fortgeschrittenen Status der Entwicklung von Computern sind viele der notwendigen Komponenten eines Computers, z.B. ein Bildspeicher (22) und umfangreiche Cache-Speicher (23) bereits entwickelt. Die in Videospielen und Computeranimationen benutzten Rechner und Software bieten sich von selbst den vorliegenden Aufgaben an und können sofort diesen Aufgaben angepasst werden. Da die Aufgaben der vorgestellten Erfindung sehr einzigartig sind, wird auch die notwendige Software zur Bewältigung dieser Aufgaben notwendigerweise einzigartig sein. Es ist vorgesehen, dass das komplizierte Betriebssystem ("Instruction set"), welches entweder in Hardware, wie z.B. ROM, oder mit Software implementiert wird, gesetzlich geschützt sein wird.

   Es ist wahrscheinlich, über anwendungsspezifische Betriebssysteme und über viele Geräte mit jeweils eigenen, speziellen Instruktionsregeln zu verfügen. 



  In den beanspruchten Realisierungen der Erfindung ist vorhergesehen, dass es sich bei dem Datenspeicher des Gerätes um einen Massenspeicher wie z.B. eine CD-ROM, handeln wird. Der Datenspeicher kann vorprogrammierte Informationen bezüglich spezieller Szenen enthalten, die für den Benutzer von Interesse sind. Die Positionsbestimmungseinheit und die Lagebestimmungseinheit regeln den Zeiger auf den Datenspeicher. In der einfachsten Realisierung ist der Datenspeicher über eine orthogonale Matrix aus den beiden Variablen adressierbar. Die Werte einer Position Pn und die Lage An bestimmen eindeutig eine entsprechende Szene SCENE Pn,AnÜ. In fortgeschrittenen Versionen kann auch die Entfernung wichtig sein und die Entfernungsvariable eine dritte, orthogonale Variable in einer dreidimensionalen Matrix definieren: SCENE Pn,An,RnÜ.

   Die durch Rn definierte Variable teilt dem Computer mit, in welcher Ebene senkrecht zur Achse der Kamera sich die wichtige Information befindet. In einem noch weiter entwickelten System kann die Vergrösserung Mn in ähnlicher Weise eine vierdimensionale Matrix festlegen: SCENE Pn,An,Rn,MnÜ. Viele andere Faktoren können zur Kontrolle des Weges der Datenspeicherung und des Datenabrufes benutzt werden. Jede der für die vorliegenden Aufgaben speziellen Methoden sind Spezialfälle des allgemeinen Falles, in dem Daten bezüglich einer Szene dazu aus einem Datenspeicher abgerufen werden, um die betrachtete Szene zu identifizieren. 



  In den beanspruchten Realisierungen der Erfindung ist vorhergesehn, dass es sich bei dem Display (13) des Gerätes um ein übliches LCD-Element (32) handelt. Diese sind gegenwärtig die hellsten und schnellsten erhältlichen Displays. Sie werden häufig in Verbindung mit Video-Anwendungen eingesetzt. Alternativ ist es möglich, Plasma-Displays, Elektroluminiszenz oder irgendwelche anderen der vielen möglichen Displays zu verwenden. Die spezielle Form des Displays ist unwichtig und kann von der Anwendung abhängen, ohne von der Hauptsache der Erfindung abzuweichen. Eine wichtige Eigenschaft des Displays ist die Konversion eines elektrischen Signals, welches von der Videokarte (28) des Rechners stammt, in ein optisch sichtbares Bild, welches ein bearbeitetes wirkliches Bild der Szene darstellt, auf welche die Kamera gerichtet ist.

   Es ist ferner eine wichtige Eigenschaft des Displays der Erfindung, dass es mit der Wirklichkeit orientiert ist und, wie in Fig. 1 gezeigt wird, deshalb bezüglich der optischen Achse der Kamera justiert ist. 



  In den beanspruchten Realisierungen der Erfindung ist ferner vorhergesehen, dass das Gerät Apparate wie z.B. Kontrolltasten zur Benutzereingabe (29) zur Wechselwirkung mit laufenden Computerprogrammen und zur Spezifikation der Information, die für den weiteren Programmablauf benötigt werden, enthalten. Hinzu kommen, ebenso zur Kontrolle des Programmablaufes und zur Weitergabe von Informationen an den Benutzer, Geräuschwandler (31) beiderlei Art, wie z.B. Mikrophone und Ausgabegeräte wie Lautsprecher. Gewöhnliche Ausrüstungen, die bekannt sind zur Verbindung von Sichtgeräten an menschliche Augen und die physikalischen Bedingungen, wie z.B. Stative, Abtönungen der Linsen, Okkulararretierungen (30) und vieles mehr, sind alle als mit dem System der Erfindung als kompatibel berücksichtigt. 



  Die Erfindung gewährleistet auch Methoden zur Erzeugung eines bearbeiteten Bildes. 



  In den beanspruchten Realisierungen der Erfindung enthält die Methode des Sichtsystemes:
 einen Aufnahmeschritt, einen Konversionsschritt, einen Positionsbestimmungsschritt, einen Schritt zur Bestimmung der Lage, einen Datenabruf,  einen Verarbeitungsschritt und einen Wiedergabeschritt. Im Aufnahmeschritt werden die Objekte der Szene über das Licht, welches von den Objekten ausgeht und mindestens durch eine Linse eingefangen wird, auf die zweidimensionale Bildebene abgebildet, wo sie ein Bild in einer Ebene formen. Im Digitalisierungsschritt wird die zweidimensionale optische Eingabe in ein elektrisches Signal gewandelt. Im Positionsbestimmungsschritt wird die Position der Kamera relativ zu einem beliebigen Referenzpunkt bestimmt. Bei der Bestimmung der Lage wird die Lage der Kamera relativ zu einer beliebigen Richtung bestimmt.

   Im Datenabrufschritt werden Daten aus dem Datenspeicher in Übereinstimmung mit den Messergebnissen der beiden vorhergehenden Schritte abgerufen. Im Verarbeitungsschritt werden das Bild des Digitalisierungsschrittes und die Daten des Datenabrufschrittes zum endgültigen Bild kombiniert. Im Wiedergabeschritt wird das endgültige elektronische Bild in ein optische Bild konvertiert und so wiedergegeben, dass es zur wirklichen Szene justiert ist und der wirklichen Szene entspricht. Eine detaillierte Beschreibung jeder der Hauptschritte wird im Folgenden gegeben. 



  Im Aufnahmeschritt wird eine Kamera des Gerätes in die Richtung der Szene gerichtet und ein (Photonen-)Bild durch die Linse geformt. Das (Photonen-)Bild wird auf einem elektronischen Gerät erzeugt, welches in die Bildebene des Kameraobjektives gebracht wurde. Das gewünschte Sichtfeld kann mit der Zoom-Funktion des Objektives verändert werden, um selektive Teile der Szene auszuwählen. Der Aufnahmeschritt wird in den beanspruchten Realisierungen der Erfindung als kontinuierlich angenommen, und das Richten auf verschiedene Objekte wird in einem kontinuierlich erneuerten Bild resultieren. Echt-Zeit-Funktionen wie z.B. "Kameraschwenkungen", bei denen viele Aufnahmeschritte in rascher Folge vorkommen, sind vollständig eingeschlossen. Der Aufnahmeschritt kann durch den Benutzer beeinflussbar sein. 

   Falls eine vorbestimmte Entfernung durch eine Benutzereingabe gewählt wurde, kann sich der Computer anpassen und die Linse in Übereinstimmung mit der Eingabe feststellen. Dies wird in dem Beispiel deutlicher, in dem ein Benutzer Elemente eines entfernten Objektes sehen möchte, die automatische Entfernungsmessung sich jedoch nach einigen Objekten im Vordergrund richtet. Ein gewählter Bereich kann die Aufnahme von ungewünschten Vordergrundobjekten verhindern. 



  Das Verfahren der Erfindung unterscheidet sich von den Methoden wie HUDs und HMDs dadurch, dass die optische Wiedergabe der Szene in ein elektrisches Signal gewandelt wird, welches von einem Computer bearbeitet werden kann. Das Bild der wirklichen Szene kann in eine Bildfolge in gewöhnlichen Video-Raten konvertiert werden. Auf diese Weise sind keine Änderungen an existierenden Videoausrüstungen erforderlich und diese Ausrüstungen können leicht in das erfundene System eingebaut werden. Das digitale Signal der CCD ist insbesondere deshalb wünschenswert, weil bereits eine grosse Menge an mit CCDs kompatibler verarbeitender Hardware existiert. Die pixellierte Repräsentation von Bildern des CCD-Elementes ist auch kompatibel zu der pixellierten Repräsentation der Bilder auf den LCD-Displays. Das digitale Bild der CCD kann direkt an die Computerprogramme übergeben werden. 



  Die Position der Kamera kann in globalen (makroskopischen) Anwendungen mit GPS-Verfahren und in mikroskopischen Anwendungen mit Laser-Interferometrie festgestellt werden. Der Positionsbestimmungsschritt dient der Bestimmung des Ortes der Kamera relativ zu einem beliebigen Punkt und der Übergabe des Resultates dieser Messung an den Computer, so dass der Computer feststellen kann, wo im Datenspeicher die Daten gespeichert sind, die zu der Szene korrespondieren, auf welche die Kamera gerichtet ist. 



  Die Lage der optischen Achse der Kamera relativ zu allen drei Rotationsachsen wird gemessen, um die Richtung zu bestimmen, auf welche die Kamera zeigt. Dabei wird ferner identifiziert, auf welche Szene die Kamera blickt und was im Bildfeld der Kamera erscheint. Die Kenngrösse der Lage liefert typischerweise einen der Zeiger auf den Datenspeicher und damit, in Verbindung mit der Kenngrösse der Position, eindeutig die darin gespeicherten Daten. Die Lage kann in verschiedenen Anwendungen unterschiedlich erkannt werden. Bei Anwendungen in der Seefahrt können  "Richtung" und ein einbegriffener Horizont eindeutig die Szene bestimmen. Dies ist als Spezialfall der Lage in allen drei Rotationsachsen berücksichtigt. In vielen Fällen wird die Höhe berücksichtigt werden müssen, damit eine Szene zuverlässig identifiziert werden kann.

   Die hauptsächliche Funktion der Bestimmung von Position und Lage ist es, dem Computer genügend Information zu geben, um unzweideutig eine Szene zu identifizieren. 



  Nach durchgeführter Bestimmung von Position und Lage steht ein Minimum an Informationen zur Verfügung, um einen Ort im Datenspeicher zu spezifizieren. Für einige einfache Anwendungen stellt dies genügend Informationen dar, um gespeicherte Daten abrufen zu können. Diese können mit dem wirklichen Bild kombiniert werden, welches von der Kamera produziert wird, die auf die Szene, welche der gemessenen Position und Lage entspricht, gerichtet ist. In fortgeschrittenen Anwendungen können auch andere Faktoren, wie z.B. die Entfernung zum Objekt und die Vergrösserung, spezifiziert werden müssen, um die abzurufenden Daten zu spezifizieren. Nachdem die Daten abgerufen wurden, werden sie dem Prozessor übermittelt, um mit dem wirklichen Bild kombiniert zu werden. 



  Wirkliche Bilddaten werden vom Prozessor aus dem Konvertierungsschritt empfangen und bearbeitete Daten werden vom Prozessor aus dem Datenabrufschritt empfangen. Techniken, die Eigenschaften erkennen, und Bildverarbeitungsroutinen werden auf zwei Arten von Informationen angewendet, um schliesslich ein Bild zu erhalten, welches die gewünschte Kombination aus den beiden darstellt. Bestimmte ungewünschte Information kann aus dem Bild der wirklichen Szene entfernt werden. Wichtige Information, die nicht im Bild der wirklichen Szene erscheint, kann in den Daten gefunden werden und im endgültigen Bild zur Geltung gebracht werden. 



  Ein bearbeitetes wirkliches Bild, bestehend aus wirklicher Bildinformation und Daten aus dem Datenspeicher, wird im Prozessor zusammengesetzt und im Standard-Videoformat dem Display-Element übergeben. Das endgültige Bild wird dann in genau zur realen Szene justierter und in perfekter Übereinstimmung mit der wirklichen Szene auf eine Art und Weise dargestellt, die es dem Benutzer erlaubt, die Objekte und Eigenschaften zu "sehen", wie sie sonst in anderen Sichtgeräten nicht sichtbar sind. Bearbeitete wirkliche Bilder können mit Videoraten erzeugt werden, so dass eine Wiedergabe entsteht, welche eine mit der vom Rechner erzeugten Bearbeitung versehene Betrachtung in Echtzeit gewährleistet. 



  Trotzdem die vorliegende Erfindung in beachtlicher Genauigkeit mit Referenzen auf bestimmte beanspruchte Versionen der Erfindung beschrieben wurde, sind andere Versionen möglich. Deshalb sollten die Aussage und der Umfang des angehängten Anspruches nicht auf die hier enthaltenen Versionen beschränkt werden. 



  In Übereinstimmung mit jeder der beanspruchten Realisierungen der Erfindung wird ein Apparat und eine Methode der Realisation eines Sichtgerätes gewährleistet. Es ist klar ersichtlich, dass jede der oben beschriebenen Realisierungen beides, sowohl einen Apparat wie auch die Verfahren einschliessen, und dass der Apparat und die Verfahren einer beanspruchten Realisierung sich von dem Apparat und der Verfahren in einer anderen Realisierung unterscheiden können. 

Claims (8)

1. Elektro-optischer Apparat zur Herstellung eines Bildes einer realen Szene, dadurch gekennzeichnet, dass das Bild bezüglich der Szene so angeordnet ist, dass die Richtungen oben, unten, links und rechts im Bild direkt mit den Richtungen oben, unten, links und rechts der Szene korrespondieren und die Normalenrichtung der Bildebene auf die Mitte der Szene gerichtet ist und dass besagtes Bild von einem Datenspeicher abgerufene Informationen beinhaltet, deren Informationen der Position und Lage des Apparates zugeordnet sind.
2. Apparat nach Anspruch 1, dadurch gekennzeichnet, dass besagtes Bild durch ein Aufnahmesystem generierte Informationen beinhaltet und dass die Informationen aus einem Datenspeicher abrufbar sind und die Informationen aus dem Datenspeicher der Position und Lage des Apparates zugeordnet sind.
3.
Apparat nach Anspruch 2, dadurch gekennzeichnet, dass er ein Aufnahmesystem; ein Positionsbestimmungssystem; ein Lagebestimmungssystem; einen Datenspeicher; einen Computer; und ein Display umfasst, wobei besagtes Aufnahmesystem eine als Symmetrieachse auftretende optische Achse hat und damit die Blickrichtung definiert; ein Linsensystem symmetrisch zu der das Bildfeld definierenden Achse, und einen CCD-Chip ("Charge coupled device") im Bildfeld besitzt; besagtes Positionsbestimmungssystem einen Referenzpunkt bezüglich des besagten Aufnahmesystems aufweist; besagtes Lagebestimmungssystem eine die Blickrichtung definierende Referenzrichtung bezüglich des besagten Aufnahmesystems aufweist;
besagter Datenspeicher eine Speicheradressierung mit vorab aufgezeichneten Daten aufweist, sowie eine Vielzahl von den Standort indenti fizierenden, orthogonalen Variablen, eine Zeiger-Antwort mit den Werten von Position und Lage bestimmenden Geräten, die wiederum spezielle Speicherplätze mit aufgezeichneten Daten übereinstimmend mit der realen Szene ansprechen; besagter Computer ist ein auf einen Mikroprozessor basierender Rechner vom Typ Personalcomputer, ist kompakt und vom Anwender tragbar, ist elektronisch mit dem Aufnahmesystem, dem Positionssystem, dem Lagebestimmungssystem, der Datenbank und dem Display verbunden, hat graphische und bildverarbeitende Fähigkeiten;
und besagtes Display hat eine Normale senkrecht zur Displayebene, die Richtung der Normalen ist kollinear mit der Symmetrieachse des Aufnahmesystems, besagtes Display kommuniziert mit besagtem Computer.
4. Apparat nach Anspruch 2, der beinhaltet: ein Aufnahmesystem; ein Positionsbestimmungssystem; ein Lagebestimmungssystem; einen Datenspeicher einen Computer; und ein Display, wobei das Aufnahmesystem auf den Einfall von Licht reagiert und die Fähigkeit besitzt, das Licht in elektronische Signale, die besagter Computer verarbeiten kann, umzuwandeln, das Lagebestimmungssystem besitzt die Fähigkeit, die Lage des Aufnahmesystems, wie sie durch die Achse des Aufnahmesystems definiert wird, zu bestimmen, und gibt einen die Lage repräsentierenden Wert an den Computer;
der Datenspeicher besitzt die Fähigkeit, vorher aufgezeichnete Daten zu speichern, welche mit Objekten korrespondieren und welche Objekte repräsentieren, von denen bekannt ist, dass sie sich im augenblicklichen Blickfeld des durch seine aktuelle Position und Lage definierten Aufnahmesystems befinden, diese Daten aufzurufen und an den Computer weiterzuleiten;
der Computer besitzt die Fähigkeit, Signale des Aufnahmesystems und des Datenspeichers zu empfangen, diese Signale so zu vereinigen, dass ein gemischtes Bildsignal erzeugt wird und dieses gemischte Bild an das besagte Display weiterzuleiten; das Display besitzt die Fähigkeit, ein vom besagten Computer empfangenes gemischtes Bild in ein für den Benutzer sichtbares physikalisches Signal, das bezüglich der Achse der Blickrichtung ausgerichtet ist, umzuwandeln, das besagte Aufnahmesystem des elektrooptischen Apparates erlaubt es dem Benutzer, seine Umgebung mit computergeneriert verbesserten oder erweiterten und bezüglich des normalen Blickfeldes des Benutzers ausgerichteten Bildern zu sehen.
5. Apparat nach Anspruch 3, bei dem das Display in ein Sichtgerät vom Typ Binokular integriert ist, hat einen optischen Weg, korrespondierend zu den beiden Augen
6.
Verfahren zum Betrieb eines Apparates nach Anspruch 1, dadurch gekennzeichnet, dass ein Bild im Display gezeigt wird, das Daten aus dem Datenspeicher enthält, die speziell der Position und Lage der Bildebene zugeordnet werden
7. Verfahren nach Anspruch 6, wobei das Bild zusätzlich Daten eines Aufnahmesystems beinhaltet und eine Mischung von Daten des Aufnahmesystems und des Datenspeichers ist, wobei die Daten des Datenspeichers speziell der Position und Lage der Bildebene zugeordnet werden.
8.
Verfahren nach Anspruch 7, beinhaltend einen Akquisitionsschritt; einen Umwandlungsschritt; einen Positionsbestimmungsschritt; einen Lagebestimmungsschritt; einen Datenaufrufschritt; einen Prozessschritt; und einen Display- oder Projektionsschritt; wobei im Akquisitionsschritt die Objekte einer realen Szene durch Abbildung mit einer ein Linsensystem und eine Bildebene beinhaltenden Kamera aufgezeichnet werden, und das akquirierte Bild in einem Umwandlungsschritt in ein elektronisches Signal umgewandelt wird; im Umwandlungsschritt das in die Kamera einfallende optische Signal von einem Licht-Bild in der Bildebene der Kamera in ein elektronisches, vom Computer im Prozesschritt verarbeitbares Signal umgewandelt wird; im Positionsbestimmungsschritt die Position der Kamera bestimmt wird; im Lagebestimmungsschritt die Lage der Kamera bestimmt wird;
im Datenaufrufschritt spezielle Daten des Datenspeichers vom Computer während des Prozessschritts aufgerufen werden, wobei die Daten der Position und Lage der Kamera, wie im Positions- und im Lagebestimmungsschritt bestimmt, zugeordnet sind; im Prozessschritt das elektronische Signal aus dem Umwandlungsschritt und die Daten des Datenaufrufschritts vom Computer verarbeitet und zu einem gemischten Bild zusammengesetzt werden;
im Display oder Projektionsschritt das zusammengesetzte gemischte Bild in ein zweidimensionales optisches Bild umgesetzt wird, das vom Benutzer (Mensch) gesehen werden kann und so gezeigt wird, dass die Richtungen oben, unten, links und rechts des gezeigten Bildes mit oben, unten, links und rechts der realen Szene direkt korrespondieren, die Normale des gezeigten Bildes in Richtung der Mitte der Szene zeigt und bezüglich der realen Szene übereinstimmt.
CH01371/95A 1993-09-10 1994-06-16 Elektro-optischer Apparat zur Herstellung eines Bildes. CH689904A5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/119,360 US5815411A (en) 1993-09-10 1993-09-10 Electro-optic vision system which exploits position and attitude

Publications (1)

Publication Number Publication Date
CH689904A5 true CH689904A5 (de) 2000-01-14

Family

ID=22383980

Family Applications (1)

Application Number Title Priority Date Filing Date
CH01371/95A CH689904A5 (de) 1993-09-10 1994-06-16 Elektro-optischer Apparat zur Herstellung eines Bildes.

Country Status (11)

Country Link
US (5) US5815411A (de)
EP (1) EP0722601B1 (de)
JP (1) JP3700021B2 (de)
KR (1) KR960705297A (de)
AT (1) ATE256327T1 (de)
AU (1) AU691508B2 (de)
CA (1) CA2171314C (de)
CH (1) CH689904A5 (de)
DE (1) DE69433405D1 (de)
NZ (1) NZ269318A (de)
WO (1) WO1995007526A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202019103022U1 (de) 2019-05-28 2019-06-07 Martina Lammel Vorrichtung zur virtuellen Darstellung einer Bildinformation

Families Citing this family (463)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020091850A1 (en) 1992-10-23 2002-07-11 Cybex Corporation System and method for remote monitoring and operation of personal computers
GB2278196A (en) * 1993-05-18 1994-11-23 William Michael Frederi Taylor Information system using GPS
US7301536B2 (en) * 1993-09-10 2007-11-27 Geovector Corporation Electro-optic vision systems
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
US6064398A (en) * 1993-09-10 2000-05-16 Geovector Corporation Electro-optic vision systems
EP0807352A1 (de) 1995-01-31 1997-11-19 Transcenic, Inc Räumlich bezogene fotografie
US6535210B1 (en) 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US5721842A (en) 1995-08-25 1998-02-24 Apex Pc Solutions, Inc. Interconnection system for viewing and controlling remotely connected computers with on-screen video overlay for controlling of the interconnection switch
JP3599208B2 (ja) * 1995-10-20 2004-12-08 フジノン株式会社 特殊眼鏡
US20070001875A1 (en) * 1995-11-14 2007-01-04 Taylor William M F GPS explorer
JP3658659B2 (ja) * 1995-11-15 2005-06-08 カシオ計算機株式会社 画像処理装置
TW395121B (en) * 1996-02-26 2000-06-21 Seiko Epson Corp Personal wearing information display device and the display method using such device
US6181302B1 (en) * 1996-04-24 2001-01-30 C. Macgill Lynde Marine navigation binoculars with virtual display superimposing real world image
US6167562A (en) * 1996-05-08 2000-12-26 Kaneko Co., Ltd. Apparatus for creating an animation program and method for creating the same
US6804726B1 (en) 1996-05-22 2004-10-12 Geovector Corporation Method and apparatus for controlling electrical devices in response to sensed conditions
WO1997044737A1 (en) 1996-05-22 1997-11-27 Geovector Corporation Mehtod and apparatus for controlling electrical devices in response to sensed conditions
JP3338618B2 (ja) * 1996-10-07 2002-10-28 ミノルタ株式会社 実空間画像と仮想空間画像の表示方法及び表示装置
US6758755B2 (en) 1996-11-14 2004-07-06 Arcade Planet, Inc. Prize redemption system for games executed over a wide area network
JP3745475B2 (ja) * 1996-12-06 2006-02-15 株式会社セガ ゲーム装置及び画像処理装置
US6080063A (en) * 1997-01-06 2000-06-27 Khosla; Vinod Simulated real time game play with live event
US6654060B1 (en) * 1997-01-07 2003-11-25 Canon Kabushiki Kaisha Video-image control apparatus and method and storage medium
JP3569409B2 (ja) * 1997-01-17 2004-09-22 ペンタックス株式会社 Gpsを利用した望遠鏡
JPH10327433A (ja) * 1997-05-23 1998-12-08 Minolta Co Ltd 合成画像の表示装置
US5940172A (en) * 1998-06-03 1999-08-17 Measurement Devices Limited Surveying apparatus
US6034739A (en) * 1997-06-09 2000-03-07 Evans & Sutherland Computer Corporation System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements
JP4251673B2 (ja) * 1997-06-24 2009-04-08 富士通株式会社 画像呈示装置
DE19728890A1 (de) * 1997-07-07 1999-02-04 Daimler Benz Ag Verfahren zur Verbesserung des optischen Wahrnehmungsvermögens durch Modifikation des Netzhautbildes
JP3426919B2 (ja) * 1997-07-28 2003-07-14 シャープ株式会社 図形作成装置
US6256043B1 (en) * 1997-09-26 2001-07-03 Lucent Technologies Inc. Three dimensional virtual reality enhancement techniques
DE19734409C2 (de) * 1997-08-08 1999-11-25 Jeffrey Shaw Orientierungsvorrichtung
JP3052286B2 (ja) * 1997-08-28 2000-06-12 防衛庁技術研究本部長 飛行システムおよび航空機用擬似視界形成装置
US8432414B2 (en) 1997-09-05 2013-04-30 Ecole Polytechnique Federale De Lausanne Automated annotation of a view
JPH11144040A (ja) * 1997-11-05 1999-05-28 Nintendo Co Ltd 携帯形ゲーム機および携帯形ゲーム機用カートリッジ
US6681398B1 (en) * 1998-01-12 2004-01-20 Scanz Communications, Inc. Systems, devices and methods for reviewing selected signal segments
US6631522B1 (en) * 1998-01-20 2003-10-07 David Erdelyi Method and system for indexing, sorting, and displaying a video database
WO1999040564A1 (fr) * 1998-02-03 1999-08-12 Seiko Epson Corporation Dispositif d'affichage de projection, procede d'affichage de projection et dispositif d'affichage d'image
FR2775814B1 (fr) * 1998-03-06 2001-01-19 Rasterland Sa Systeme de visualisation d'images tridimensionnelles realistes virtuelles en temps reel
US6625299B1 (en) * 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
FR2778248A1 (fr) * 1998-04-30 1999-11-05 Pierre Emmanuel Bathie Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese
US6285317B1 (en) 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
US6141440A (en) * 1998-06-04 2000-10-31 Canon Kabushiki Kaisha Disparity measurement with variably sized interrogation regions
JP4296451B2 (ja) * 1998-06-22 2009-07-15 株式会社日立製作所 画像記録装置
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
WO2000017766A2 (en) 1998-09-22 2000-03-30 Cybex Computer Products Corporation System for accessing personal computers remotely
US6173239B1 (en) * 1998-09-30 2001-01-09 Geo Vector Corporation Apparatus and methods for presentation of information relating to objects being addressed
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
US20050060739A1 (en) * 1999-01-12 2005-03-17 Tony Verna Systems, devices and methods for reviewing selected signal segments
US6422942B1 (en) * 1999-01-29 2002-07-23 Robert W. Jeffway, Jr. Virtual game board and tracking device therefor
US7324081B2 (en) * 1999-03-02 2008-01-29 Siemens Aktiengesellschaft Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus
WO2000052536A1 (de) * 1999-03-02 2000-09-08 Siemens Aktiengesellschaft Bedien- und beobachtungssystem mit augmented reality-techniken
US6844822B2 (en) 1999-03-03 2005-01-18 Yamcon, Inc. Celestial object location device
US7068180B2 (en) * 1999-03-03 2006-06-27 Yamcon, Inc. Celestial object location device
US6366212B1 (en) * 1999-03-03 2002-04-02 Michael Lemp Celestial object location device
US7471211B2 (en) * 1999-03-03 2008-12-30 Yamcon, Inc. Celestial object location device
US7124425B1 (en) * 1999-03-08 2006-10-17 Immersion Entertainment, L.L.C. Audio/video system and method utilizing a head mounted apparatus with noise attenuation
US6578203B1 (en) 1999-03-08 2003-06-10 Tazwell L. Anderson, Jr. Audio/video signal distribution system for head mounted displays
JP4878409B2 (ja) * 1999-03-23 2012-02-15 キヤノン株式会社 情報制御装置及び情報制御方法及び記憶媒体
JP3902904B2 (ja) 1999-03-23 2007-04-11 キヤノン株式会社 情報提示装置、方法、カメラ制御装置、方法及びコンピュータ読み取り可能な記憶媒体
US6815687B1 (en) * 1999-04-16 2004-11-09 The Regents Of The University Of Michigan Method and system for high-speed, 3D imaging of optically-invisible radiation
JP2002543500A (ja) * 1999-04-27 2002-12-17 アイスリーイー・ホールディングス・エルエルシー 遠隔注文システム
JP2000333139A (ja) * 1999-05-18 2000-11-30 Sony Corp 情報提供装置および方法、情報受信装置および方法、抽選システムおよび方法、並びに媒体
US20020057364A1 (en) * 1999-05-28 2002-05-16 Anderson Tazwell L. Electronic handheld audio/video receiver and listening/viewing device
US20060174297A1 (en) * 1999-05-28 2006-08-03 Anderson Tazwell L Jr Electronic handheld audio/video receiver and listening/viewing device
US7210160B2 (en) * 1999-05-28 2007-04-24 Immersion Entertainment, L.L.C. Audio/video programming and charging system and method
JP2000346634A (ja) * 1999-06-09 2000-12-15 Minolta Co Ltd 3次元入力装置
EP1059510A1 (de) * 1999-06-10 2000-12-13 Texas Instruments Incorporated Drahtlose Positionsbestimmung
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP2000350865A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体
DE50013238D1 (de) * 1999-06-26 2006-09-07 Otto K Dufek Optisches gerät
US8160994B2 (en) * 1999-07-21 2012-04-17 Iopener Media Gmbh System for simulating events in a real environment
WO2001009812A1 (en) * 1999-07-30 2001-02-08 David Rollo Personal tour guide system
EP1074943A3 (de) * 1999-08-06 2004-03-24 Canon Kabushiki Kaisha Bildberarbeitungsverfahren und -vorrichtung
US6396475B1 (en) * 1999-08-27 2002-05-28 Geo Vector Corp. Apparatus and methods of the remote address of objects
CA2385173A1 (en) * 1999-09-17 2001-03-29 Nature Technology Co., Ltd. Image capturing system, image processing system, and camera
US6671390B1 (en) 1999-10-18 2003-12-30 Sport-X Inc. Automated collection, processing and use of sports movement information via information extraction from electromagnetic energy based upon multi-characteristic spatial phase processing
US6965397B1 (en) 1999-11-22 2005-11-15 Sportvision, Inc. Measuring camera attitude
US6909381B2 (en) * 2000-02-12 2005-06-21 Leonard Richard Kahn Aircraft collision avoidance system
US6522292B1 (en) * 2000-02-23 2003-02-18 Geovector Corp. Information systems having position measuring capacity
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
AU2001238649A1 (en) * 2000-03-16 2001-10-03 Geovector Corporation Information systems having directional interference facility
US7213048B1 (en) * 2000-04-05 2007-05-01 Microsoft Corporation Context aware computing devices and methods
US7743074B1 (en) 2000-04-05 2010-06-22 Microsoft Corporation Context aware systems and methods utilizing hierarchical tree structures
US6674448B1 (en) * 2000-04-05 2004-01-06 Ods Properties, Inc. Interactive wagering system with controllable graphic displays
US7076255B2 (en) 2000-04-05 2006-07-11 Microsoft Corporation Context-aware and location-aware cellular phones and methods
US7421486B1 (en) 2000-04-05 2008-09-02 Microsoft Corporation Context translation methods and systems
US7096029B1 (en) * 2000-04-05 2006-08-22 Microsoft Corporation Context aware computing devices having a common interface and related methods
JP3833486B2 (ja) * 2000-04-19 2006-10-11 富士写真フイルム株式会社 撮像装置
DE10027136C2 (de) * 2000-05-31 2002-11-21 Luigi Grasso Mobiles System zur Erzeugung eines virtuellen Displays
US6970189B1 (en) 2000-05-31 2005-11-29 Ipac Acquisition Subsidiary I, Llc Method and system for automatically configuring a hand-held camera using wireless communication to improve image quality
DE10028713B4 (de) * 2000-06-08 2010-11-25 Art+Com Ag Visualisierungsvorrichtung und -verfahren
US7812856B2 (en) 2000-10-26 2010-10-12 Front Row Technologies, Llc Providing multiple perspectives of a venue activity to electronic wireless hand held devices
US7630721B2 (en) 2000-06-27 2009-12-08 Ortiz & Associates Consulting, Llc Systems, methods and apparatuses for brokering data between wireless devices and data rendering devices
JP2002014683A (ja) * 2000-06-28 2002-01-18 Pioneer Electronic Corp 記録媒体並びにその記録データ作成装置及びデータ復元装置
US6903707B2 (en) * 2000-08-09 2005-06-07 Information Decision Technologies, Llc Method for using a motorized camera mount for tracking in augmented reality
WO2002017225A2 (de) * 2000-08-22 2002-02-28 Siemens Aktiengesellschaft System und verfahren zur automatischen datenaufbereitung insbesondere im umfeld produktion, montage, service oder wartung
ES2241862T3 (es) * 2000-08-22 2005-11-01 Siemens Aktiengesellschaft Sistema y procedimiento para la creacion de protocolos relacionados con el contexto en el entorno de la produccion, montaje, servicio o mantenimiento.
US20020080279A1 (en) * 2000-08-29 2002-06-27 Sidney Wang Enhancing live sports broadcasting with synthetic camera views
US6470251B1 (en) 2000-08-31 2002-10-22 Trimble Navigation Limited Light detector for multi-axis position control
JP2002092012A (ja) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd 特定地域内情報表示システム
US6895126B2 (en) 2000-10-06 2005-05-17 Enrico Di Bernardo System and method for creating, storing, and utilizing composite images of a geographic location
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
JP2002132806A (ja) * 2000-10-18 2002-05-10 Fujitsu Ltd サーバシステム及び情報提供サービスシステム並びに情報提供サービス方法
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US8218873B2 (en) * 2000-11-06 2012-07-10 Nant Holdings Ip, Llc Object information derived from object images
US20120154438A1 (en) * 2000-11-06 2012-06-21 Nant Holdings Ip, Llc Interactivity Via Mobile Image Recognition
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
US6358164B1 (en) * 2000-11-08 2002-03-19 Joseph S. Bracewell Strike zone indicator measurement device
US7072956B2 (en) * 2000-12-22 2006-07-04 Microsoft Corporation Methods and systems for context-aware policy determination and enforcement
US6944679B2 (en) 2000-12-22 2005-09-13 Microsoft Corp. Context-aware systems and methods, location-aware systems and methods, context-aware vehicles and methods of operating the same, and location-aware vehicles and methods of operating the same
US7493565B2 (en) 2000-12-22 2009-02-17 Microsoft Corporation Environment-interactive context-aware devices and methods
US7148815B2 (en) * 2000-12-22 2006-12-12 Byron Scott Derringer Apparatus and method for detecting objects located on an airport runway
US7174305B2 (en) 2001-01-23 2007-02-06 Opentv, Inc. Method and system for scheduling online targeted content delivery
US7031875B2 (en) 2001-01-24 2006-04-18 Geo Vector Corporation Pointing systems for addressing objects
EP1227301A1 (de) * 2001-01-29 2002-07-31 Siemens Aktiengesellschaft Positionsbestimmung mit Handyunterstützung
JP2002229991A (ja) 2001-01-31 2002-08-16 Fujitsu Ltd サーバ,ユーザ端末,情報提供サービスシステムおよび情報提供サービス方法
JP2002229992A (ja) * 2001-01-31 2002-08-16 Fujitsu Ltd 空間情報サービス用のサーバ装置および空間情報サービスの提供方法並びに空間情報サービス用の課金処理装置および課金方法
US6765569B2 (en) 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
US8117313B2 (en) * 2001-03-19 2012-02-14 International Business Machines Corporation System and method for adaptive formatting of image information for efficient delivery and presentation
US20020143790A1 (en) * 2001-03-29 2002-10-03 Qian Richard J. Method and apparatus for automatic generation and management of sporting statistics
US6834249B2 (en) 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
JP2004534963A (ja) * 2001-03-30 2004-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 強化現実のための方法、システム及び装置
US20020152127A1 (en) * 2001-04-12 2002-10-17 International Business Machines Corporation Tightly-coupled online representations for geographically-centered shopping complexes
JP4672190B2 (ja) * 2001-04-26 2011-04-20 三菱電機株式会社 映像ナビゲーション装置
US6810141B2 (en) * 2001-05-04 2004-10-26 Photon-X, Inc. Method for processing spatial-phase characteristics of electromagnetic energy and information conveyed therein
US20020180866A1 (en) * 2001-05-29 2002-12-05 Monroe David A. Modular sensor array
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US7508946B2 (en) 2001-06-27 2009-03-24 Sony Corporation Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus
US6903752B2 (en) * 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
US7213046B2 (en) * 2001-07-31 2007-05-01 International Business Machines Corporation System and method for providing efficient and secure data exchange using strip information elements
US7143129B2 (en) * 2001-07-31 2006-11-28 International Business Machines Corporation System and method for distributing proximity information using a two-tiered bootstrap process
US8267767B2 (en) 2001-08-09 2012-09-18 Igt 3-D reels and 3-D wheels in a gaming machine
US6990681B2 (en) * 2001-08-09 2006-01-24 Sony Corporation Enhancing broadcast of an event with synthetic scene using a depth map
US7909696B2 (en) * 2001-08-09 2011-03-22 Igt Game interaction in 3-D gaming environments
US7901289B2 (en) * 2001-08-09 2011-03-08 Igt Transparent objects on a gaming machine
US7367885B2 (en) * 2001-08-09 2008-05-06 Igt 3-D text in a gaming machine
US6887157B2 (en) * 2001-08-09 2005-05-03 Igt Virtual cameras and 3-D gaming environments in a gaming machine
US8002623B2 (en) * 2001-08-09 2011-08-23 Igt Methods and devices for displaying multiple game elements
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US20030040943A1 (en) * 2001-08-22 2003-02-27 International Business Machines Corporation System and method for selecting arena seat locations for display
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
US7194148B2 (en) * 2001-09-07 2007-03-20 Yavitz Edward Q Technique for providing simulated vision
JP3805231B2 (ja) * 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
US6987877B2 (en) * 2001-10-30 2006-01-17 Itt Manufacturing Enterprises, Inc. Superimposing graphic representations of ground locations onto ground location images after detection of failures
DE10156832B4 (de) * 2001-11-20 2004-01-29 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Informationen
US20030095681A1 (en) * 2001-11-21 2003-05-22 Bernard Burg Context-aware imaging device
GB0129793D0 (en) * 2001-12-13 2002-01-30 Koninkl Philips Electronics Nv Real time authoring
US7341530B2 (en) * 2002-01-09 2008-03-11 Sportvision, Inc. Virtual strike zone
JP2003215494A (ja) * 2002-01-22 2003-07-30 Canon Inc 複合現実感提示装置および画像処理方法
US6759979B2 (en) * 2002-01-22 2004-07-06 E-Businesscontrols Corp. GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site
JP2003241112A (ja) * 2002-02-14 2003-08-27 Pentax Corp 撮影機能付双眼鏡
FR2836215B1 (fr) * 2002-02-21 2004-11-05 Yodea Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US7256818B2 (en) * 2002-05-20 2007-08-14 Simmonds Precision Products, Inc. Detecting fire using cameras
US7245315B2 (en) * 2002-05-20 2007-07-17 Simmonds Precision Products, Inc. Distinguishing between fire and non-fire conditions using cameras
US7280696B2 (en) * 2002-05-20 2007-10-09 Simmonds Precision Products, Inc. Video detection/verification system
US8046787B2 (en) * 2002-05-31 2011-10-25 Opentv, Inc. Method and system for the storage, viewing management, and delivery of targeted advertising
US20040073557A1 (en) * 2002-06-14 2004-04-15 Piccionelli Gregory A. Method for obtaining information associated with item at specific location
US7918730B2 (en) 2002-06-27 2011-04-05 Igt Trajectory-based 3-D games of chance for video gaming machines
US7138963B2 (en) * 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US7042421B2 (en) * 2002-07-18 2006-05-09 Information Decision Technologies, Llc. Method for advanced imaging in augmented reality
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US6782238B2 (en) * 2002-08-06 2004-08-24 Hewlett-Packard Development Company, L.P. Method for presenting media on an electronic device
US20040027365A1 (en) * 2002-08-07 2004-02-12 Sayers Craig P. Controlling playback of a temporal stream with a user interface device
DE10237952B4 (de) * 2002-08-20 2005-12-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Gerät zur Betrachtung der Umgebung
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
US20040066391A1 (en) * 2002-10-02 2004-04-08 Mike Daily Method and apparatus for static image enhancement
AU2003275466A1 (en) * 2002-10-07 2004-05-04 Immersion Entertainment, Llc System and method for providing event spectators with audio/video signals pertaining to remote events
US8458028B2 (en) * 2002-10-16 2013-06-04 Barbaro Technologies System and method for integrating business-related content into an electronic game
US7643054B2 (en) * 2002-12-09 2010-01-05 Hewlett-Packard Development Company, L.P. Directed guidance of viewing devices
DE10259123B3 (de) * 2002-12-18 2004-09-09 Dräger Safety AG & Co. KGaA Vorrichtung und Verfahren zur Überwachung des Einsatzes von Atemschutz-Geräteträgern
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7515156B2 (en) * 2003-01-08 2009-04-07 Hrl Laboratories, Llc Method and apparatus for parallel speculative rendering of synthetic images
FR2851678B1 (fr) * 2003-02-26 2005-08-19 Ludovic Oger Procede de realisation d'images de synthese pour faciliter l'examen de plusieurs projets d'architectes en concours.
US20040219961A1 (en) * 2003-04-08 2004-11-04 Ellenby Thomas William Computer games having variable execution dependence with respect to spatial properties of a mobile unit.
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
US20050046706A1 (en) * 2003-08-28 2005-03-03 Robert Sesek Image data capture method and apparatus
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8294712B2 (en) * 2003-09-19 2012-10-23 The Boeing Company Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
DE10345743A1 (de) * 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
US7593687B2 (en) * 2003-10-07 2009-09-22 Immersion Entertainment, Llc System and method for providing event spectators with audio/video signals pertaining to remote events
WO2005045729A1 (de) * 2003-11-10 2005-05-19 Siemens Aktiengesellschaft System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
JP4364002B2 (ja) * 2004-02-06 2009-11-11 オリンパス株式会社 頭部装着型カメラ及び頭部装着型カメラによる撮影方法
US8159337B2 (en) * 2004-02-23 2012-04-17 At&T Intellectual Property I, L.P. Systems and methods for identification of locations
US7567256B2 (en) * 2004-03-31 2009-07-28 Harris Corporation Method and apparatus for analyzing digital video using multi-format display
US7197829B2 (en) * 2004-05-04 2007-04-03 Acres John F Laser guided celestial identification device
US20050250085A1 (en) * 2004-05-07 2005-11-10 Yamcon, Inc. Viewing and display apparatus
US20050280705A1 (en) * 2004-05-20 2005-12-22 Immersion Entertainment Portable receiver device
EP1763756A4 (de) * 2004-05-21 2009-05-06 Pressco Tech Inc Grafische benutzerschnittstelle mit nachprüfungskonfiguration
CA2569209C (en) * 2004-06-02 2014-07-29 Athena Technologies, Inc. Image-augmented inertial navigation system (iains) and method
US7010862B2 (en) * 2004-06-04 2006-03-14 Yamcon, Inc. Viewing and display apparatus position determination algorithms
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US8751156B2 (en) 2004-06-30 2014-06-10 HERE North America LLC Method of operating a navigation system using images
US7456847B2 (en) * 2004-08-12 2008-11-25 Russell Steven Krajec Video with map overlay
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US8312132B2 (en) * 2004-08-20 2012-11-13 Core Wireless Licensing S.A.R.L. Context data in UPNP service information
WO2006030613A1 (ja) * 2004-09-15 2006-03-23 Pioneer Corporation 映像表示システムおよび映像表示方法
US7557775B2 (en) * 2004-09-30 2009-07-07 The Boeing Company Method and apparatus for evoking perceptions of affordances in virtual environments
US20060079973A1 (en) * 2004-10-07 2006-04-13 Bacharach Mel L Handheld roster device and method
IL164650A0 (en) * 2004-10-18 2005-12-18 Odf Optronics Ltd An application for the extraction and modeling of skyline for and stabilization the purpese of orientation
US20060082872A1 (en) * 2004-10-20 2006-04-20 Acres John F Apparatus for making celestial observations
US8585476B2 (en) 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
WO2006056622A1 (es) * 2004-11-19 2006-06-01 Daem Interactive, Sl Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método
FR2879300A1 (fr) * 2004-12-10 2006-06-16 Vincent Piraud Appareil binoculaire permettant de fournir automatiquement des informations relatives a un panorama
US20060170760A1 (en) * 2005-01-31 2006-08-03 Collegiate Systems, Llc Method and apparatus for managing and distributing audio/video content
US20060176242A1 (en) * 2005-02-08 2006-08-10 Blue Belt Technologies, Inc. Augmented reality device and method
US20060190812A1 (en) * 2005-02-22 2006-08-24 Geovector Corporation Imaging systems including hyperlink associations
US7451041B2 (en) 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
HUP0500483A2 (en) * 2005-05-12 2006-12-28 Mta Sztaki Szamitastechnikai E Method and equipment for matching virtual images to the real environment
US20060262140A1 (en) * 2005-05-18 2006-11-23 Kujawa Gregory A Method and apparatus to facilitate visual augmentation of perceived reality
US20060293837A1 (en) * 2005-06-02 2006-12-28 Bennett James R Photograph with map
AU2005332711B2 (en) * 2005-06-06 2010-12-02 Tomtom Navigation B.V. Navigation device with camera-info
US8423292B2 (en) 2008-08-19 2013-04-16 Tomtom International B.V. Navigation device with camera-info
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
DE102005029230A1 (de) * 2005-06-23 2007-01-04 Carl Zeiss Ag Anzeigevorrichtung und -verfahren
GB2428102A (en) * 2005-07-06 2007-01-17 David Smith Viewing device
IL169934A (en) * 2005-07-27 2013-02-28 Rafael Advanced Defense Sys Real-time geographic information system and method
CA2621191C (en) 2005-08-29 2012-12-18 Evryx Technologies, Inc. Interactivity via mobile image recognition
JP4785662B2 (ja) * 2005-10-03 2011-10-05 キヤノン株式会社 情報処理装置、情報処理方法
US7840032B2 (en) * 2005-10-04 2010-11-23 Microsoft Corporation Street-side maps and paths
WO2007053116A1 (en) * 2005-10-31 2007-05-10 National University Of Singapore Virtual interface system
US20070117078A1 (en) * 2005-11-23 2007-05-24 Trex Enterprises Corp Celestial compass
US20070136026A1 (en) * 2005-11-28 2007-06-14 Farheap Solutions Inc. GPS-Guided Visual Display
US7873490B2 (en) * 2005-12-28 2011-01-18 Solmetric Corporation Solar access measurement device
US9697644B2 (en) 2005-12-28 2017-07-04 Solmetric Corporation Methods for solar access measurement
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
DE102006007283B4 (de) * 2006-02-16 2018-05-03 Airbus Operations Gmbh Landmarken-Informationssystem in einem Flugzeug
JP4847184B2 (ja) * 2006-04-06 2011-12-28 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US20070265075A1 (en) * 2006-05-10 2007-11-15 Sony Computer Entertainment America Inc. Attachable structure for use with hand-held controller having tracking ability
FI20060470A0 (fi) * 2006-05-12 2006-05-12 Nokia Corp Orientaatioperusteinen viestinhaku
IL175835A0 (en) * 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
JP5521226B2 (ja) * 2006-05-25 2014-06-11 富士フイルム株式会社 表示システム、表示方法、および表示プログラム
US7477367B2 (en) * 2006-06-07 2009-01-13 Yamcon, Inc. Celestial object identification device
DE102006033147A1 (de) * 2006-07-18 2008-01-24 Robert Bosch Gmbh Überwachungskamera, Verfahren zur Kalibrierung der Überwachungskamera sowie Verwendung der Überwachungskamera
US8085990B2 (en) * 2006-07-28 2011-12-27 Microsoft Corporation Hybrid maps with embedded street-side images
US20080043020A1 (en) * 2006-08-18 2008-02-21 Microsoft Corporation User interface for viewing street side imagery
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8471906B2 (en) * 2006-11-24 2013-06-25 Trex Enterprises Corp Miniature celestial direction detection system
US20120116711A1 (en) * 2007-09-13 2012-05-10 Trex Enterprises Corp. Portable celestial compass
KR101039186B1 (ko) 2006-12-05 2011-06-03 가부시키가이샤 나비타이무쟈판 내비게이션 시스템, 휴대 단말 장치 및 주변 화상 표시 방법
US20080147325A1 (en) * 2006-12-18 2008-06-19 Maassel Paul W Method and system for providing augmented reality
US20080168492A1 (en) * 2007-01-05 2008-07-10 Meade Instruments Corp. Celestial Viewing System With Video Display
FR2911463B1 (fr) * 2007-01-12 2009-10-30 Total Immersion Sa Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif
DE102007001949A1 (de) * 2007-01-13 2008-07-17 Schuster, Werner, Dr. Dipl.-Ing. NAV-OR-Kamera(NA Vigations-und-Orientierungs-Kamera
US8335345B2 (en) 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
JP5162928B2 (ja) * 2007-03-12 2013-03-13 ソニー株式会社 画像処理装置、画像処理方法、画像処理システム
US8060304B2 (en) 2007-04-04 2011-11-15 Certusview Technologies, Llc Marking system and method
US7640105B2 (en) 2007-03-13 2009-12-29 Certus View Technologies, LLC Marking system and method with location and/or time tracking
US20080231763A1 (en) * 2007-03-21 2008-09-25 Texas Instruments Incorporated System and method for displaying and capturing images
US8102420B2 (en) * 2007-03-24 2012-01-24 Yan Yuejun Portable digital photographing system combining position navigation information and image information
US8384710B2 (en) * 2007-06-07 2013-02-26 Igt Displaying and using 3D graphics on multiple displays provided for gaming environments
US8994851B2 (en) * 2007-08-07 2015-03-31 Qualcomm Incorporated Displaying image data and geographic element data
US9329052B2 (en) * 2007-08-07 2016-05-03 Qualcomm Incorporated Displaying image data and geographic element data
US20090094188A1 (en) * 2007-10-03 2009-04-09 Edward Covannon Facilitating identification of an object recorded in digital content records
US8073198B2 (en) * 2007-10-26 2011-12-06 Samsung Electronics Co., Ltd. System and method for selection of an object of interest during physical browsing by finger framing
JP4989417B2 (ja) 2007-10-26 2012-08-01 キヤノン株式会社 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
US7885145B2 (en) * 2007-10-26 2011-02-08 Samsung Electronics Co. Ltd. System and method for selection of an object of interest during physical browsing by finger pointing and snapping
JP5044817B2 (ja) 2007-11-22 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間を構築するための画像処理方法、装置
US9013505B1 (en) 2007-11-27 2015-04-21 Sprint Communications Company L.P. Mobile system representing virtual objects on live camera image
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
US8239132B2 (en) * 2008-01-22 2012-08-07 Maran Ma Systems, apparatus and methods for delivery of location-oriented information
DE102008008502B4 (de) * 2008-02-11 2014-08-14 Siemens Aktiengesellschaft Anordnung zur Ansteuerung einer Antennenanordnung bei einem Magnetresonanzgerät
US8270666B2 (en) 2008-02-12 2012-09-18 Certusview Technologies, Llc Searchable electronic records of underground facility locate marking operations
US8280117B2 (en) * 2008-03-18 2012-10-02 Certusview Technologies, Llc Virtual white lines for indicating planned excavation sites on electronic images
CA2707246C (en) 2009-07-07 2015-12-29 Certusview Technologies, Llc Automatic assessment of a productivity and/or a competence of a locate technician with respect to a locate and marking operation
US8672225B2 (en) 2012-01-31 2014-03-18 Ncr Corporation Convertible barcode reader
US8532342B2 (en) 2008-02-12 2013-09-10 Certusview Technologies, Llc Electronic manifest of underground facility locate marks
US8249306B2 (en) * 2008-03-18 2012-08-21 Certusview Technologies, Llc Virtual white lines for delimiting planned excavation sites
KR101335346B1 (ko) * 2008-02-27 2013-12-05 소니 컴퓨터 엔터테인먼트 유럽 리미티드 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들
GB0804274D0 (en) 2008-03-07 2008-04-16 Virtually Live Ltd A media sysyem and method
US9576330B2 (en) 2008-03-07 2017-02-21 Virtually Live (Switzerland) Gmbh Media system and method
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
DE102008023439B4 (de) 2008-05-14 2011-02-17 Christian-Albrechts-Universität Zu Kiel Augmented Reality Fernglas zur Navigationsunterstützung
US20090289955A1 (en) * 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
US8711176B2 (en) 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US8531462B1 (en) * 2008-06-09 2013-09-10 EyezOnBaseball, LLC Interactive scorekeeping and animation generation
US8620587B2 (en) 2008-10-02 2013-12-31 Certusview Technologies, Llc Methods, apparatus, and systems for generating electronic records of locate and marking operations, and combined locate and marking apparatus for same
US8280631B2 (en) 2008-10-02 2012-10-02 Certusview Technologies, Llc Methods and apparatus for generating an electronic record of a marking operation based on marking device actuations
US8265817B2 (en) 2008-07-10 2012-09-11 Lockheed Martin Corporation Inertial measurement with an imaging sensor and a digitized map
US20100045701A1 (en) * 2008-08-22 2010-02-25 Cybernet Systems Corporation Automatic mapping of augmented reality fiducials
US8476906B2 (en) 2008-10-02 2013-07-02 Certusview Technologies, Llc Methods and apparatus for generating electronic records of locate operations
US8442766B2 (en) 2008-10-02 2013-05-14 Certusview Technologies, Llc Marking apparatus having enhanced features for underground facility marking operations, and associated methods and systems
US8065082B2 (en) * 2008-11-14 2011-11-22 Honeywell International Inc. Display systems with enhanced symbology
US20100287500A1 (en) * 2008-11-18 2010-11-11 Honeywell International Inc. Method and system for displaying conformal symbology on a see-through display
US8817092B2 (en) * 2008-11-25 2014-08-26 Stuart Leslie Wilkinson Method and apparatus for generating and viewing combined images
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US9204050B2 (en) 2008-12-25 2015-12-01 Panasonic Intellectual Property Management Co., Ltd. Information displaying apparatus and information displaying method
WO2010088290A1 (en) * 2009-01-27 2010-08-05 Arthur Thomas D Tight optical intergation (toi) of images with gps range measurements
US8902251B2 (en) 2009-02-10 2014-12-02 Certusview Technologies, Llc Methods, apparatus and systems for generating limited access files for searchable electronic records of underground facility locate and/or marking operations
US8572193B2 (en) 2009-02-10 2013-10-29 Certusview Technologies, Llc Methods, apparatus, and systems for providing an enhanced positive response in underground facility locate and marking operations
US8566737B2 (en) 2009-02-11 2013-10-22 Certusview Technologies, Llc Virtual white lines (VWL) application for indicating an area of planned excavation
CA2691780C (en) 2009-02-11 2015-09-22 Certusview Technologies, Llc Management system, and associated methods and apparatus, for providing automatic assesment of a locate operation
US8296308B2 (en) 2009-02-11 2012-10-23 Certusview Technologies, Llc Methods and apparatus for associating a virtual white line (VWL) image with corresponding ticket information for an excavation project
US20100208033A1 (en) * 2009-02-13 2010-08-19 Microsoft Corporation Personal Media Landscapes in Mixed Reality
US8379056B2 (en) * 2009-02-27 2013-02-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for providing a video signal of a virtual image
US8264377B2 (en) 2009-03-02 2012-09-11 Griffith Gregory M Aircraft collision avoidance system
US8264379B2 (en) * 2009-03-10 2012-09-11 Honeywell International Inc. Methods and systems for correlating data sources for vehicle displays
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8839121B2 (en) * 2009-05-06 2014-09-16 Joseph Bertolami Systems and methods for unifying coordinate systems in augmented reality applications
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US20100309290A1 (en) * 2009-06-08 2010-12-09 Stephen Brooks Myers System for capture and display of stereoscopic content
US8427508B2 (en) * 2009-06-25 2013-04-23 Nokia Corporation Method and apparatus for an augmented reality user interface
CA2771286C (en) 2009-08-11 2016-08-30 Certusview Technologies, Llc Locating equipment communicatively coupled to or equipped with a mobile/portable device
US9097522B2 (en) 2009-08-20 2015-08-04 Certusview Technologies, Llc Methods and marking devices with mechanisms for indicating and/or detecting marking material color
CA2713282C (en) 2009-08-20 2013-03-19 Certusview Technologies, Llc Marking device with transmitter for triangulating location during marking operations
CA2710189C (en) 2009-08-20 2012-05-08 Certusview Technologies, Llc Methods and apparatus for assessing marking operations based on acceleration information
US8395547B2 (en) 2009-08-27 2013-03-12 Hewlett-Packard Development Company, L.P. Location tracking for mobile computing device
US8755815B2 (en) 2010-08-31 2014-06-17 Qualcomm Incorporated Use of wireless access point ID for position determination
US9001252B2 (en) * 2009-11-02 2015-04-07 Empire Technology Development Llc Image matching to augment reality
US20110102460A1 (en) * 2009-11-04 2011-05-05 Parker Jordan Platform for widespread augmented reality and 3d mapping
US20110115671A1 (en) * 2009-11-17 2011-05-19 Qualcomm Incorporated Determination of elevation of mobile station
US8494544B2 (en) * 2009-12-03 2013-07-23 Osocad Remote Limited Liability Company Method, apparatus and computer program to perform location specific information retrieval using a gesture-controlled handheld mobile device
US8583372B2 (en) 2009-12-07 2013-11-12 Certusview Technologies, Llc Methods, apparatus, and systems for facilitating compliance with marking specifications for dispensing marking material
TW201122711A (en) * 2009-12-23 2011-07-01 Altek Corp System and method for generating an image appended with landscape information
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
CN102470721B (zh) * 2010-01-29 2014-06-18 东海橡塑工业株式会社 车辆用稳定器衬套
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법
CN102906810B (zh) 2010-02-24 2015-03-18 爱普莱克斯控股公司 支持视觉受损的个体的扩增的现实全景
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US20120212484A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. System and method for display content placement using distance and location information
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
DE102010010951A1 (de) * 2010-03-10 2011-09-15 Astrium Gmbh Informationswiedergabegerät
JP4922436B2 (ja) * 2010-06-07 2012-04-25 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置及びオブジェクト表示方法
US9781170B2 (en) 2010-06-15 2017-10-03 Live Nation Entertainment, Inc. Establishing communication links using routing protocols
WO2011159811A2 (en) 2010-06-15 2011-12-22 Ticketmaster, Llc Methods and systems for computer aided event and venue setup and modeling and interactive maps
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US8762041B2 (en) 2010-06-21 2014-06-24 Blackberry Limited Method, device and system for presenting navigational information
KR20120004669A (ko) * 2010-07-07 2012-01-13 삼성전자주식회사 휴대용 단말기에서 세계 시간 표시 장치 및 방법
CN103222319B (zh) 2010-09-29 2016-08-10 高通股份有限公司 一种用于移动计算设备的方法及移动计算设备
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
CN103189817B (zh) 2010-11-02 2016-08-24 日本电气株式会社 信息处理系统和信息处理方法
CN103262530B (zh) 2010-12-15 2016-03-02 株式会社日立制作所 视频监视装置
US9007463B2 (en) * 2010-12-22 2015-04-14 Sportsvision, Inc. Video tracking of baseball players which identifies merged participants based on participant roles
US8659663B2 (en) * 2010-12-22 2014-02-25 Sportvision, Inc. Video tracking of baseball players to determine the start and end of a half-inning
JP5838560B2 (ja) * 2011-02-14 2016-01-06 ソニー株式会社 画像処理装置、情報処理装置、及び撮像領域の共有判定方法
US9507416B2 (en) * 2011-02-22 2016-11-29 Robert Howard Kimball Providing a corrected view based on the position of a user with respect to a mobile platform
US8188880B1 (en) * 2011-03-14 2012-05-29 Google Inc. Methods and devices for augmenting a field of view
WO2012126522A1 (en) * 2011-03-23 2012-09-27 Metaio Gmbh Method for registering at least one part of a first and second image using a collineation warping function
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
DE102011075372A1 (de) * 2011-05-05 2012-11-08 BSH Bosch und Siemens Hausgeräte GmbH System für die erweiterte Informationsbereitstellung für Kunden in einem Verkaufsraum für Hausgeräte sowie zugehöriges Verfahren und Computerprogrammprodukt
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
WO2013058978A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US9817017B2 (en) * 2011-10-17 2017-11-14 Atlas5D, Inc. Method and apparatus for monitoring individuals while protecting their privacy
US9974466B2 (en) 2011-10-17 2018-05-22 Atlas5D, Inc. Method and apparatus for detecting change in health status
US9965140B2 (en) 2011-12-26 2018-05-08 TrackThings LLC Method and apparatus of a marking objects in images displayed on a portable unit
US9026896B2 (en) 2011-12-26 2015-05-05 TrackThings LLC Method and apparatus of physically moving a portable unit to view composite webpages of different websites
US8532919B2 (en) * 2011-12-26 2013-09-10 TrackThings LLC Method and apparatus of physically moving a portable unit to view an image of a stationary map
US9597574B2 (en) 2011-12-30 2017-03-21 Nike, Inc. Golf aid including heads up display
US9573039B2 (en) * 2011-12-30 2017-02-21 Nike, Inc. Golf aid including heads up display
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
US20130328930A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co., Ltd. Apparatus and method for providing augmented reality service
US20180048750A1 (en) * 2012-06-15 2018-02-15 Muzik, Llc Audio/video wearable computer system with integrated projector
WO2014068706A1 (ja) 2012-10-31 2014-05-08 擴張世界有限公司 画像表示システム、電子機器、プログラムおよび画像表示方法
JP6007377B2 (ja) * 2012-11-14 2016-10-12 ピーアンドダブリューソリューションズ株式会社 座席レイアウト表示装置、方法及びプログラム
KR101981964B1 (ko) 2012-12-03 2019-05-24 삼성전자주식회사 증강현실을 구현하기 위한 단말 및 그 방법
US8918246B2 (en) 2012-12-27 2014-12-23 Caterpillar Inc. Augmented reality implement control
US20140184643A1 (en) * 2012-12-27 2014-07-03 Caterpillar Inc. Augmented Reality Worksite
US20140225917A1 (en) * 2013-02-14 2014-08-14 Geovector Corporation Dynamic Augmented Reality Vision Systems
US20140247281A1 (en) * 2013-03-03 2014-09-04 Geovector Corp. Dynamic Augmented Reality Vision Systems
US20150287224A1 (en) * 2013-10-01 2015-10-08 Technology Service Corporation Virtual tracer methods and systems
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US20160179842A1 (en) * 2014-12-22 2016-06-23 Geovector Corp. Computerized Search Dependant on Spatial States
US9600993B2 (en) 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
DE102014003221A1 (de) * 2014-03-05 2015-09-10 Audi Ag Verfahren zur maßstabskorrekten Skalierung einer Aufnahme eines Kamerasensors
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US20150312264A1 (en) * 2014-04-23 2015-10-29 Front Row Technologies, Llc Method, system and server for authorizing computing devices for receipt of venue-based data based on the geographic location of a user
US9610489B2 (en) 2014-05-30 2017-04-04 Nike, Inc. Golf aid including virtual caddy
US9694269B2 (en) 2014-05-30 2017-07-04 Nike, Inc. Golf aid including heads up display for green reading
US9798299B2 (en) 2014-06-20 2017-10-24 International Business Machines Corporation Preventing substrate penetrating devices from damaging obscured objects
US9900748B2 (en) * 2014-07-16 2018-02-20 Sony Corporation Consumer electronics (CE) device and related method for providing stadium services
US9906897B2 (en) 2014-07-16 2018-02-27 Sony Corporation Applying mesh network to pet carriers
US10127601B2 (en) 2014-07-16 2018-11-13 Sony Corporation Mesh network applied to fixed establishment with movable items therein
US9361802B2 (en) 2014-07-16 2016-06-07 Sony Corporation Vehicle ad hoc network (VANET)
CN112862775A (zh) * 2014-07-25 2021-05-28 柯惠Lp公司 增强手术现实环境
US9435635B1 (en) * 2015-02-27 2016-09-06 Ge Aviation Systems Llc System and methods of detecting an intruding object in a relative navigation system
US10013756B2 (en) 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
EP3113470B1 (de) * 2015-07-02 2020-12-16 Nokia Technologies Oy Überlagerung visueller informationen eines geografischen orts
IL241446B (en) * 2015-09-10 2018-05-31 Elbit Systems Ltd Display adjustments on user screens and guiding users' attention
USD797790S1 (en) * 2016-03-22 2017-09-19 Teletracking Technologies, Inc. Display screen with set of graphical user interface icons
WO2018026838A1 (en) 2016-08-02 2018-02-08 Atlas5D, Inc. Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
WO2018080552A1 (en) 2016-10-24 2018-05-03 Carrington Charles C System for generating virtual building plan data based upon stored and scanned building data and related methods
JP6874448B2 (ja) * 2017-03-17 2021-05-19 株式会社デンソーウェーブ 情報表示システム
US20190004544A1 (en) * 2017-06-29 2019-01-03 Ge Aviation Systems, Llc Method for flying at least two aircraft
US20210128961A1 (en) 2017-07-28 2021-05-06 Idex Europe Gmbh Control device for operating a fire extinguisher system and extinguisher nozzle
CA3070114A1 (en) 2017-07-28 2019-01-31 Idex Europe Gmbh Control device for operating a fire extinguisher system
KR102496683B1 (ko) 2017-10-11 2023-02-07 삼성디스플레이 주식회사 표시패널 및 이를 포함하는 표시장치
US10803610B2 (en) 2018-03-06 2020-10-13 At&T Intellectual Property I, L.P. Collaborative visual enhancement devices
US11526211B2 (en) * 2018-05-08 2022-12-13 Nevermind Capital Llc Methods and apparatus for controlling, implementing and supporting trick play in an augmented reality device
US20190377538A1 (en) 2018-06-08 2019-12-12 Curious Company, LLC Information Presentation Through Ambient Sounds
US10818088B2 (en) * 2018-07-10 2020-10-27 Curious Company, LLC Virtual barrier objects
US10650600B2 (en) 2018-07-10 2020-05-12 Curious Company, LLC Virtual path display
US10902678B2 (en) 2018-09-06 2021-01-26 Curious Company, LLC Display of hidden information
US11055913B2 (en) 2018-12-04 2021-07-06 Curious Company, LLC Directional instructions in an hybrid reality system
US10970935B2 (en) 2018-12-21 2021-04-06 Curious Company, LLC Body pose message system
US10872584B2 (en) 2019-03-14 2020-12-22 Curious Company, LLC Providing positional information using beacon devices
CN111060918B (zh) * 2019-12-27 2021-10-26 中国有色金属长沙勘察设计研究院有限公司 一种基于摄影测量与激光测距的干滩监测方法
US20210241580A1 (en) * 2020-02-05 2021-08-05 Adrenalineip Play by play wagering through wearable device
US11763624B2 (en) * 2020-09-22 2023-09-19 Adrenalineip AR VR in-play wagering system
US12003806B2 (en) * 2021-03-11 2024-06-04 Quintar, Inc. Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model
US11527047B2 (en) 2021-03-11 2022-12-13 Quintar, Inc. Augmented reality system for viewing an event with distributed computing
US11657578B2 (en) 2021-03-11 2023-05-23 Quintar, Inc. Registration for augmented reality system for viewing an event
US20220295040A1 (en) * 2021-03-11 2022-09-15 Quintar, Inc. Augmented reality system with remote presentation including 3d graphics extending beyond frame
US11645819B2 (en) 2021-03-11 2023-05-09 Quintar, Inc. Augmented reality system for viewing an event with mode based on crowd sourced images
US11682313B2 (en) 2021-03-17 2023-06-20 Gregory M. Griffith Sensor assembly for use in association with aircraft collision avoidance system and method of using the same
CN114252075B (zh) * 2021-12-09 2024-05-28 国网安徽省电力有限公司电力科学研究院 一种电缆沟巡检机器人的路径跟踪方法及系统
US11586286B1 (en) 2022-05-18 2023-02-21 Bank Of America Corporation System and method for navigating on an augmented reality display
US11720380B1 (en) 2022-05-18 2023-08-08 Bank Of America Corporation System and method for updating augmented reality navigation instructions based on a detected error

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE429690B (sv) * 1979-11-19 1983-09-19 Hans Erik Ove Olofsson Flygplansrefererad omverldsregistrering med hjelp av kamera, som medger elektronisk registrering samt dertill horande ensningsforfarande
US4322726A (en) * 1979-12-19 1982-03-30 The Singer Company Apparatus for providing a simulated view to hand held binoculars
US4489389A (en) * 1981-10-02 1984-12-18 Harris Corporation Real time video perspective digital map display
US4545576A (en) * 1982-01-15 1985-10-08 Harris Thomas M Baseball-strike indicator and trajectory analyzer and method of using same
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4667190A (en) * 1982-07-30 1987-05-19 Honeywell Inc. Two axis fast access memory
US4661849A (en) * 1985-06-03 1987-04-28 Pictel Corporation Method and apparatus for providing motion estimation signals for communicating image sequences
US4682225A (en) * 1985-09-13 1987-07-21 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for telemetry adaptive bandwidth compression
US4688092A (en) * 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4807158A (en) * 1986-09-30 1989-02-21 Daleco/Ivex Partners, Ltd. Method and apparatus for sampling images to simulate movement within a multidimensional space
FR2610752B1 (fr) * 1987-02-10 1989-07-21 Sagem Procede de representation de l'image en perspective d'un terrain et systeme pour sa mise en oeuvre
US4937570A (en) * 1987-02-26 1990-06-26 Mitsubishi Denki Kabushiki Kaisha Route guidance display device
US4872051A (en) * 1987-10-01 1989-10-03 Environmental Research Institute Of Michigan Collision avoidance alarm system
DE3737972A1 (de) * 1987-11-07 1989-05-24 Messerschmitt Boelkow Blohm Helm-lagedarstellungsgeraet
JPH0695008B2 (ja) * 1987-12-11 1994-11-24 株式会社東芝 監視装置
US4855822A (en) * 1988-01-26 1989-08-08 Honeywell, Inc. Human engineered remote driving system
US5072218A (en) * 1988-02-24 1991-12-10 Spero Robert E Contact-analog headup display method and apparatus
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
CA2001070A1 (en) * 1988-10-24 1990-04-24 Douglas B. George Telescope operating system
GB8826550D0 (en) * 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
NL8901695A (nl) * 1989-07-04 1991-02-01 Koninkl Philips Electronics Nv Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem.
US5045937A (en) * 1989-08-25 1991-09-03 Space Island Products & Services, Inc. Geographical surveying using multiple cameras to obtain split-screen images with overlaid geographical coordinates
US5124915A (en) * 1990-05-29 1992-06-23 Arthur Krenzel Computer-aided data collection system for assisting in analyzing critical situations
EP0479605B1 (de) * 1990-10-05 1995-09-20 Texas Instruments Incorporated Verfahren und Gerät zur Erzeugung einer tragbaren optischen Anzeige
CA2060406C (en) * 1991-04-22 1998-12-01 Bruce Edward Hamilton Helicopter virtual image display system incorporating structural outlines
FR2675977B1 (fr) * 1991-04-26 1997-09-12 Inst Nat Audiovisuel Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese.
US5182641A (en) * 1991-06-17 1993-01-26 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Composite video and graphics display for camera viewing systems in robotics and teleoperation
US5333257A (en) * 1991-08-09 1994-07-26 C/A Architects, Inc. System for displaying selected assembly-facility seating views
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
JPH05113751A (ja) * 1991-10-22 1993-05-07 Pioneer Electron Corp ナビゲーシヨン装置
FR2683330B1 (fr) * 1991-10-31 1994-11-25 Thomson Csf Jumelle informatique.
FR2683918B1 (fr) * 1991-11-19 1994-09-09 Thomson Csf Materiau constitutif d'une lunette de visee et arme utilisant cette lunette.
JPH05167894A (ja) * 1991-12-10 1993-07-02 Sony Corp Vtr一体型ビデオカメラ
US5252950A (en) * 1991-12-20 1993-10-12 Apple Computer, Inc. Display with rangefinder
US5363297A (en) * 1992-06-05 1994-11-08 Larson Noble G Automated camera-based tracking system for sports contests
US5311203A (en) * 1993-01-29 1994-05-10 Norton M Kent Viewing and display apparatus
JP3045625B2 (ja) * 1993-04-16 2000-05-29 川崎重工業株式会社 船舶の航行支援装置
GB9424273D0 (en) * 1994-12-01 1995-01-18 Wrigley Adrian M T Improvements in and relating to image constrcution
US5798761A (en) * 1996-01-26 1998-08-25 Silicon Graphics, Inc. Robust mapping of 2D cursor motion onto 3D lines and planes

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202019103022U1 (de) 2019-05-28 2019-06-07 Martina Lammel Vorrichtung zur virtuellen Darstellung einer Bildinformation
DE202019104128U1 (de) 2019-05-28 2019-08-01 Martina Lammel Vorrichtung zur virtuellen Darstellung einer Bildinformation

Also Published As

Publication number Publication date
AU7314694A (en) 1995-03-27
CA2171314A1 (en) 1995-03-16
WO1995007526A1 (en) 1995-03-16
JPH09505138A (ja) 1997-05-20
US5682332A (en) 1997-10-28
EP0722601A4 (de) 1998-06-10
US5815411A (en) 1998-09-29
US5742521A (en) 1998-04-21
DE69433405D1 (de) 2004-01-22
AU691508B2 (en) 1998-05-21
CA2171314C (en) 2001-06-12
NZ269318A (en) 1997-12-19
EP0722601B1 (de) 2003-12-10
JP3700021B2 (ja) 2005-09-28
US6307556B1 (en) 2001-10-23
KR960705297A (ko) 1996-10-09
EP0722601A1 (de) 1996-07-24
ATE256327T1 (de) 2003-12-15
US6031545A (en) 2000-02-29

Similar Documents

Publication Publication Date Title
CH689904A5 (de) Elektro-optischer Apparat zur Herstellung eines Bildes.
US6917370B2 (en) Interacting augmented reality and virtual reality
US20030210228A1 (en) Augmented reality situational awareness system and method
EP2302531A1 (de) Verfahren zur Bereitstellung einer vergrößerten Realitätsanzeige auf einer mobilen Vorrichtung
DE102009049849A1 (de) Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung
Dyce Canada between the photograph and the map: Aerial photography, geographical vision and the state
WO2003060830A1 (en) Method and system to display both visible and invisible hazards and hazard information
DE112019001690T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm
EP3584536A1 (de) Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität
Walter et al. Virtual UAV ground control station
Mifsud et al. The effectiveness of gaze guidance lines in supporting JTAC’s attention allocation
DE102014107317B4 (de) Elektronisches Periskop für ein Kraftfahrzeug
Bosselmann Dynamic simulations of urban environments
Gruner Many individuals contributed to the development of photogrammetry during the past several hundred years
DE60204692T2 (de) Verfahren zur anzeige von karteninformationen auf einer flugzeuganzeige
DE19754582A1 (de) Schiffsnavigation mit Hilfe von Hyper Reality
Lee An examination of close-range photogrammetry and traditional cave survey methods for terrestrial and underwater caves for 3-dimensional mapping
DE102004017755A1 (de) Verfahren zur satellitengestützten Navigation in einem realen Gelände und Anordnung hierfür
Aldred The aerial imagination
Goerger Spatial knowledge acquisition and transfer from virtual to natural environments for dismounted land navigation
Krewani Google Earth
WO2019157543A1 (de) System zur darstellung und identifikation von markern einer veränderbaren geometrischen abbildung
DE4423369A1 (de) Verfahren zum Positionieren, Orientieren und Navigieren und Navigationsgerät
Bulatov et al. Automatic representation of urban terrain models for simulations on the example of VBS2
Ellis et al. Head-mounted spatial instruments II: Synthetic reality or impossible dream

Legal Events

Date Code Title Description
PL Patent ceased