CH689904A5 - Elektro-optischer Apparat zur Herstellung eines Bildes. - Google Patents
Elektro-optischer Apparat zur Herstellung eines Bildes. Download PDFInfo
- Publication number
- CH689904A5 CH689904A5 CH01371/95A CH137195A CH689904A5 CH 689904 A5 CH689904 A5 CH 689904A5 CH 01371/95 A CH01371/95 A CH 01371/95A CH 137195 A CH137195 A CH 137195A CH 689904 A5 CH689904 A5 CH 689904A5
- Authority
- CH
- Switzerland
- Prior art keywords
- image
- data
- computer
- scene
- display
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C17/00—Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
- G01C17/34—Sun- or astro-compasses
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Astronomy & Astrophysics (AREA)
- Geometry (AREA)
- Automation & Control Theory (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Electrochromic Elements, Electrophoresis, Or Variable Reflection Or Absorption Elements (AREA)
- Liquid Crystal (AREA)
- Image Processing (AREA)
- Control Of Position Or Direction (AREA)
Description
Technisches Gebiet Bei der vorliegenden Erfindung handelt es sich allgemein um einen elektro-optischen Apparat gemäss Anspruch 1 und um ein Verfahren zum Betrieb des Apparates gemäss Anspruch 6. Stand der Technik Man muss sehr weit in der Geschichte zurückgehen, um den ersten Gebrauch von Landkarten zu finden. Allgemein sind dem Benutzer über Landkarten Informationen zugänglich, die ihn vor Dingen warnen, welche dem Benutzer aus seinem gegenwärtigen Standpunkt mit einem eingeschränkten Bildfeld nicht direkt zugänglich sind. Zum Beispiel wird ein Benutzer eines Stadtplanes den Tunnel in der Elm Street nicht sehen können, wenn er sich sieben Meilen entfernt in der Ersten Strasse befindet, selbst wenn er in Richtung Elm-Street-Tunnel blickt. Aber mit Hilfe einer Strassenkarte kann der Benutzer auch aus der Ersten Strasse die Existenz des Elm-Street-Tunnels feststellen. Er kann erkennen, dass der Tunnel drei Meilen lang ist, in der Achten Strasse beginnt und in der Elften Strasse endet. Es kann sogar die Grösse des Tunnels eingezeichnet sein, z.B., dass er auf vier Spuren und einen Radweg ausgebaut ist. Unglücklicherweise ist es nicht immer möglich, die Informationen aus einer Karte in eine realistische Szene so zu übersetzen, wie sich die Szene in der Wirklichkeit darstellt. Gemeinhin wird von den Benutzern immer versucht, Landkarten so an der Wirklichkeit auszurichten, dass ein besserer "Eindruck" darüber entsteht, wo sich alles bezüglich der gegenwärtigen Position befindet. Mit Landkarten vertraute Benutzer können bestätigen, dass die Tatsache, dass Landkarten in der Regel nach Norden ausgerichtet sind, für die Orientierung am gegenwärtigen Standpunkt von eingeschränktem Nutzen ist. Wo immer auch Norden sein mag, neigt man dazu, die Karte so zu drehen, dass die Richtung in Sicht- oder Fahrtrichtung des Benutzers mit der Ausrichtung der Karte übereinstimmt. Dies mag enden mit "verkehrt herum" zu lesenden Landkarten, was ziemlich schwierig ist (z.B. wenn der Benutzer gen Süden fährt). Obwohl schon die Übertragung der Richtungen einer Karte auf die Wirklichkeit eine beeindruckende Leistung darstellt, ist es ein nicht geringeres Problem, die Zeichen und Symbole der Landkarte als das zu erkennen, was sie in Wirklichkeit darstellen. So sagt das Symbol für einen Tunnel nichts darüber aus, wie der Tunnel wirklich aussieht. Die Tatsache, dass die Darstellung der Ansicht des Tunnels aus unendlich vielen Richtungen auf einer Landkarte nahezu unmöglich ist, erfordert den Gebrauch eines einfachen Symbols. Darüber hinaus enthält eine Karte weder Anhaltspunkte darüber, von welcher Position aus ein Benutzer den Tunnel zum ersten Mal sehen kann, noch Informationen über den Weg, auf welchem sich der Benutzer dem Tunnel nähert. Es ist jetzt möglich, Informationen über Stadtpläne in Rechnern zu speichern und die Karten entsprechend dem vom Benutzer gewählten Weg darzustellen. Die Darstellung wird in "Echtzeit" aktualisiert, entsprechend der Bewegung des Benutzers durch die Stadt. Dadurch ist es möglich, dass Problem der nach Norden ausgerichteten Karten zu mindern, da der Rechner die Karten mit dem Kartentext in der richtigen Orientierung relativ zum Benutzer darstellen kann, auch wenn dieser in südliche Richtung fährt. Die computergenerierte Karte wird auf einem Bildschirm wiedergegeben. Diese Darstellung kann leicht mit aktueller Information entsprechend der Bewegung des Benutzers auf seiner Fahrt erneuert werden. Autokarten dieser Art sind allgemein bekannt. Sogar sehr spezielle Karten mit computergenerierten Indizes, die dem Benutzer bei Entscheidungen helfen, stehen zur Verfügung, wie, z.B. beschrieben in Patenten wie DeJong US #5 115 398. Dieses Gerät kann eine lokale Szene so darstellen, wie sie erscheinen mag. Diese Szene kann mit symbolischen Informationen überlagert werden, die dem Benutzer eine Handlung vorschlagen, wie z.B. das Abbiegen nach links, wie es die Fig. 3 der disclosure zeigt. Aber auch in diesem fortgeschrittenen System wird vom Benutzer ein hoher Grad an Übersetzung gefordert. Die computergenerierte Karte versucht nicht genau justierte Abbilder der repräsentierten Objekte darzustellen. Geräte, die Bilder ergänzen, benötigen "Head Up"-Displays (HUDs) und "Helmet Mounted"-Displays (HMDs). Das HUD ist ein nützliches Sichtgerät, welches dem Benutzer erlaubt, eine natürliche Szene zu betrachten, üblicherweise durch ein optisches Bildvereinigungselement, wie z.B. holographische Spiegel oder dichroitische Strahlteiler. Damit wird Information für die Navigation überlagert, z.B. Symbole von wirklichen oder vorgestellten Objekten, die Geschwindigkeit von Fahrzeugen, Höhenangaben usw. Als Hauptziel der HUDs gilt, die Zeit zu maximieren, die der Benutzer auf die interessierende Szene blickt. Für einen Kampfpiloten, der zuerst seine Augen auf eine Anzeige der nahen Instrumententafel fokussieren muss, und dann danach erst mit seinen Blick wieder auf die umgebende Szene zurückkehrt, dauert dies zu lange und kann tödliche Fehler zur Folge haben. Das HUD erlaubt dem Piloten, seine Aufmerksamkeit immer auf die Umgebung zu richten, die optisch im Unendlichen liegt. Da die Instrumente für das Auge ebenso im Unendlichen dargestellt werden, entfällt die Notwendigkeit für das ständige Fokussieren der Augen. Ein HUD erlaubt dem Piloten, seine aufrechte Kopfhaltung ständig beizubehalten. Bei Fluglinien werden HUDs zur Landung bei schlechten Sichtverhältnissen eingesetzt. HUDs sind besonders nützlich in Landesituationen, bei denen die Grenzen der Landebahn wegen Nebels ausserhalb des Sichtfeldes des Piloten liegen. Dann können künstliche Grenzen auf das optische Vereinigungselement des HUD projiziert werden, um dem Benutzer die Grenzen der Landebahn sichtbar zu machen. Die Projektion der virtuellen Landebahn wird im Sichtfeld entsprechend von Daten positioniert, gespeist durch einen Informationsaustausch zwischen dem eingebauten Computer und dem elektronischen Landesystem ("instrument landing system" ILS), unter Zuhilfenahme eines VHF-Leitstrahls. Das System versorgt den Computer mit zwei Daten: erstens dem Gleitwinkel und zweitens einer Grösse, welche die laterale Position angibt. Diese Daten reichen dem Computer zur Berechnung eines optischen Bildes (Photonen), welches mittels des Strahlvereinigers über das reelle Bild (Photonen) projiziert wird. Dabei werden spezielle Details der wirklichen Szene hervorgehoben, wie z.B. die Grenzen der Landebahn. Die Positionierung der Überlagerung hängt von der Genauigkeit der Zieleinrichtung des Flugzeuges, welches zu dem ILS-Strahl und anderen physikalischen Grenzen justiert ist, ab. Der Computer ist nicht in der Lage, Bilder in der wirklichen Szene zu erkennen und versucht nicht, die wirkliche Szene zu verändern, ausgenommen von hervorragenden Merkmalen. HUDs werden teilweise dadurch charakterisiert, dass sie eine Kombination von zwei optischen Szenen darstellen. Die Kombination besteht aus der ersten Szene, die normalerweise vom Betrachter durch den optischen Strahlvereiniger gesehen wird, und aus der zweiten, dem computergenerierten Bild, welches im Strahlvereiniger mit dem wirklichen Bild kombiniert wird. In einem HUD-System ist es für den Computer nicht möglich, sich auf Objekte der wirklichen Szene zu beziehen wie z.B. sie zu ändern oder zu löschen. Das System betont lediglich ein Detail der wirklichen Szene, indem es wichtige Eigenschaften darüber zeichnet. HUDs sind zumeist sehr unförmig und werden typischerweise in einem Flugzeug oder einem Automobil eingesetzt. Sie benötigen viel Platz und eine komplexe Optik, beispielsweise Hologramme und speziell entwickelte Linsen. "Helmet Mounted Displays" HMDs sind den HUDs ähnlich, indem sie ebenso bearbeitete Bilder mit der reellen Szene überlagern, sind aber üblicherweise auf leichte Tragbarkeit ausgelegt. Mikro-CRTs und kleine Strahlteiler ermöglichen es, das ganze System auf einem Helm zu montieren. Es ist schwierig, in einem sich schnell bewegenden Helm ein computergeneriertes Bild zu der wirklichen Szene zu justieren. HUDs können die mit gespeicherten Daten erzeugten Bilder justieren, da diese über die sich langsam bezüglich der Landebahn bewegende Flugzeugachse indiziert sind. Deshalb stellen HMDs im Allgemeinen Daten dar, die sich nicht mit den Kopfbewegungen des Piloten ändern, z.B. die Höhe und die Geschwindigkeit. HMDs werden durch dieselben Einschränkungen wie HUDs begrenzt, da sie es nicht ermöglichen, Elemente von wirklichen Bildern zu löschen oder zu verstärken. Ein anderes, verwandtes System, das sich in dem rapide fortschreitenden Bereich der Computer unterstützten Sichtsysteme herausgebildet hat, ist die "Virtual Reality" (VR). Diese kommt wahrscheinlich am besten in dem Science-Fiction-Film "Star Trek: Die nächste Generation" zum Ausdruck. Das "Holodeck" ist ein Raum, wo der Benutzer all seine Umgebung von einem Computer erzeugen lassen kann, so dass es ihm als ein anderer Ort oder eine andere Zeit erscheint. "Virtual Reality"-Systeme sind besonders nützlich für Ausbildungszwecke, z.B. in Flugsimulatoren. Ein Flugschüler kann von einem virtuellen "Cockpit" umgeben sein, bei dem es sich im Wesentlichen um ein Interface zu einem Computer handelt, während der Benutzer die Umgebung eines wirklichen Flugzeuges auf eine sehr realistische Weise "spürt", vielleicht noch durch künstliche Geräusche, Bilder oder sogar mechanische Bewegungen unterstützt. Handlungen des Benutzers können vom Computer interpretiert werden und der Computer kann auf diese Handlungen durch die Kontrolle der den Benutzer umgebenden Animation reagieren. VR-Systeme können eine vollständige sichtbare Szene erzeugen und es wird nicht versucht, ein computergeneriertes Bild einer wirklichen Szene zu überlagern. Ein VR-System hat zumeist keinerlei Kommunikation zwischen dem aktuellen Ort in der Wirklichkeit und der Animation, die dem Benutzer präsentiert wird. Zwischen dem Ort des VR-Systems und dem von ihm erzeugten Ort besteht generell kein physikalischer Zusammenhang. VR-Systeme können Dinge darstellen, die noch nicht existieren. Zum Beispiel kann ein Haus vollständig von einem Computer modelliert werden, so dass der potenzielle Käufer in ihm herumlaufen kann, ehe es gebaut ist. Der Käufer kann in die VR-Atmosphäre eintreten und durch computergenerierte Bilder und Anregungen fortschreiten, die genau wiedergeben, wie das Haus sein wird, wenn es fertig ist. Auf diese Weise kann man sich davon überzeugen, wie ein bestimmter Stil des Hauses wirken wird, bevor die hohen Kosten des Hausbaues zu Buche schlagen. Die VR-Maschine, die komplett mit den Informationen eines Designers programmiert wurde, nimmt keine Dinge vorweg, wie sie gegenwärtig existieren, und es besteht keine Verbindung zwischen den Elementen im VR-System und wirklich existenten Elementen. Die Systeme und Erfindungen der oben genannten Art sind so entwickelt, Ansprüche, Vorteile und Ziele nur teilweise zu verwirklichen, wenn auch einige von ihnen nicht wenig bemerkenswert sind. Deshalb haben diese Systeme und Erfindungen Grenzen und Fehler, die ihren Einsatz in Bereichen ausschliessen, der nur durch die vorliegende Erfindung ermöglicht wird. Die früheren künstlichen Systeme und Erfindungen können nicht benutzt werden, um die Vorteile und Ziele der vorliegenden Erfindung zu verwirklichen. Darstellung der Erfindung Nun folgt die Erfindung eines Sichtsystems mit Geräten und Methoden zur Bildverstärkung, indem ein Bild einer wirklichen Szene von einem Rechenprozessor dahingehend verändert wird, dass Informationen einer Datenbank eingeschlossen werden. Die gespeicherten Informationen über diese Szene befinden sich dabei an einem Speicherplatz, der durch den aktuellen Ort und die Lage des Sichtsystems identifiziert wird. Die Hauptfunktion des Sichtsystems der Erfindung ist, im Gegensatz zu den früheren, die Präsentation von verstärkten wirklichen Bildern und Daten, welche kontinuierlich zur wirklichen Szene so justiert werden, wie diese Szene normalerweise von dem Benutzer des Sichtsystems betrachtet wird. Ein verstärktes Bild ist ein Bild, welches die wirkliche Szene darstellt, darüber hinaus aber Weglassungen, Hinzufügungen und Zusätze enthält. Die Kamera des Gerätes hat eine optische Achse, die die Blickrichtung festlegt, ähnlich einer einfachen Video-Kamera vom Typ "Camcorder", in dem das dargestellte Bild die wirkliche Szene genau so wiedergibt, wie sie vom Standpunkt mit Blick entlang der optischen Achse erscheint. Auf diese Weise kann man die dargestellte Information leicht bzgl. der Wirklichkeit orientieren. Ein fundamentaler Unterschied zwischen dem Sichtsystem der Erfindung und dem eines Camcorders besteht in der Bildverstärkung. Während ein Camcorder eine Überlagerung eines Bildes mit Daten wie z.B. der Ladeanzeige der Batterie etc. darstellt, hat er keine "Kenntnis" über die betrachtete Szene. Die dargestellten Daten beziehen sich normalerweise auf das Sichtsystem oder von der Szene unabhängige Daten wie Zeit und Datum. Die Bildverstärkung der Erfindung kann speziell Informationen einer Szene hinzufügen, die gerade mit dem System betrachtet wird. Das Sichtsystem der Erfindung kann eine Datenbank mit vorher aufgenommenen Bildern verschiedenster Szenen enthalten. Die präzise Position und Lage des Sichtgerätes indiziert dem Speicher die gerade betrachtete Szene. Ein Rechenprozessor kann Informationen über die spezielle Szene aus dem Speicher erhalten und kann das Bild der Szene verstärken, welches von der Kamera des Sichtgerätes erzeugt wird. Das resultierende Bild wird auf einem Display, bestehend aus einer Kombination von Informationen der optischen Eingabe und der in der Datenbasis gespeicherten Informationen dargestellt. Besonders wichtig ist die Möglichkeit einer Kommunikation zwischen den Daten aus dem Speicher und dem wirklichen Bild. Analysierende und verarbeitende Routinen können das Erkennen von Details der wirklichen Szene einschliessen und Vergleiche mit Artefakten der gespeicherten Daten durchführen. Dies kann für die Justierung der wirklichen Bilder bezüglich der abgerufenen Daten nützlich sein. In Situationen, in denen die optische Eingabe der Szene über die Kamera des Systems blockiert ist, wie z.B. bei dichtem Nebel, kann ein Bild erzeugt werden, das nur gespeicherte Informationen aus der Datenbank enthält. In anderen Fällen kann es vorkommen, dass die in der Grösse beschränkte Datenbank keine Informationen über eine spezielle Szene enthält. In diesem Fall entspräche das dargestellte Bild vollständig der wirklichen Szene aus dem optischen Eingang. In diesem speziellen Fall reduziert sich das System zu einem Äquivalent zu einem einfachen Camcorder oder Binokular. Ein weiterer Spezialfall ist der, bei dem die Eigenschaften einer wirklichen Szene selektiv gelöscht werden. Falls die hellen Lichter einer urbanen Skyline die eher detaillierte Navigationsbeleuchtung eines Seehafens dominieren, dann ist es mit den Bildverarbeitungsroutinen möglich, zwischen der Stadtbeleuchtung und den Navigationssignalen zu unterscheiden. Die ungewünschten Lichter der Stadt können im Prozessor gelöscht werden, bevor das resultierende Bild auf dem Display dargestellt wird. Im resultierenden Bild sind die Navigationssignale deutlich sichtbar, während das Licht der Stadt überhaupt nicht mehr beiträgt. Deshalb kann das resultierende Bild bei dieser Erfindung in verschiedenen Kombinationen Informationen aus zwei Quellen umfassen, zusammen überlagert, um ein einzelnes Bild mit hoher Informationsdichte zu bilden. Die Informationen aus den beiden Quellen werden miteinander verglichen und kombiniert, um ein einzelnes, verstärktes Bild zu formen, welches auf einem Display dargestellt wird und zu der wirklichen Szene, wie sie der Benutzer sieht, justiert wird. In der einfachsten Form kann man sich vorstellen, dass die Erfindung aus sechs Hauptkomponenten besteht: 1) Einer Kamera, die die optische Information der wirklichen Szene einliest und diese Information als elektrisches Signal an 2) den Rechenprozessor weitergibt; 3) ein Gerät zur Messung der Position der Kamera; 4) ein Lagebestimmungsmessgerät zur Bestimmung der Lage der Kamera (Richtung der optischen Achse); damit wird eindeutig die betrachtete Szene identifiziert, und damit wird der Speicherplatz in 5) der Datenbasis adressiert, an dem die Informationen bezüglich der verschiedenen Szenen gespeichert sind; der Rechenprozessor kombiniert die Daten von der Kamera und der Datenbasis und erzeugt ein einzelnes Bild, welches auf 6) einem Display dargestellt wird, dessen Bild kontinuierlich zu der wirklichen Szene, wie sie der Benutzer betrachtet, justiert wird. Die Relation der Kamera zu dem Positionsmessgerät und dem Lagebestimmungsmessgerät ist so gewählt, dass die Messung der Position und der Lage der Kamera bezüglich beliebiger Referenzpunkte durchgeführt wird. Die Mittelwerte der Positions- und Lagemessungen sind so auf die Datenbank bezogen, dass die Werte der Messungen den Speicherplatz festlegen, an denen die zugehörenden Bilder gespeichert sind. Wir können uns die Positions- und Lagemessung so vorstellen, dass sie uns die Speicheradresse in Form von zwei orthogonalen Variablen liefern. Die Kamera steht mit dem Rechenprozessor so in Verbindung, dass es sich bei dem Bild, welches in der Kamera erzeugt wird, um ein elektronisches Bild handelt, das der Rechenprozessor verarbeitet. Die Datenbank steht mit dem Prozessor insofern in Verbindung, als sie ihn mit Informationen und Bildern für die Verarbeitungsroutinen versorgt. Das Display gehört zum Computer, da es das resultierende, verarbeitete Bild empfängt und das elektrische Bildsignal des Rechners in ein optisches Bild verwandelt, welches vom Benutzer betrachtet werden kann. Das Display ist zielgenau auf der optischen Achse justiert, so dass die Information der Wirklichkeit entspricht und dem Benutzer auf eine Art erscheint, die ihm erlaubt, das resultierende, verarbeitete Bild zu sehen, ohne es je nach der Orientierung zur wirklichen Szene interpretieren zu müssen. In der einfachsten Form können die Methoden der Erfindung als aus sieben Hauptstufen bestehend betrachtet werden: 1) der Aufnahme, bei der das Licht von einer Szene mit einer Linse abgebildet wird; 2) einem Verarbeitungsschritt, bei dem die optische Information der Aufnahme in ein elektrisches Signal umgewandelt wird; 3) der Positionsbestimmung, in der die Position der Kamera bestimmt wird; 4) der Lagebestimmungsmessung, bei der die Lage der Kamera gemessen wird; 5) dem Abruf der Daten, bei dem der Speicherplatz in Abhängigkeit der Messergebnisse nach Stufe 3 und 4 und Benutzer-Eingangsdaten gewählt werden, entsprechend dem Aufruf des Rechenprozessors; 6) einem Verarbeitungsschritt, in dem die Daten aus dem Speicher und dem elektronischen Bild vereinigt und bearbeitet werden; und der 7) Wiedergabe auf dem Display, bei der das verarbeitete Endbild dargestellt wird. Das Produkt der Aufnahme, ein optisches Bild, wird im Konversionsschritt in ein elektrisches Signal umgewandelt. Das elektronische Bild des Konversionsschrittes wird im Verarbeitungsschritt dem Prozessor übertragen. Die Ergebnisse der Positions- und Lagebestimmung sind Werte, die im Datenabruf gebraucht werden. Das Ergebnis des Datenabrufes wird dem Prozessor übergeben, um im Verarbeitungsschritt mit dem elektronischen Bild des Konversionsschrittes kombiniert zu werden. Das Ergebnis des Verarbeitungsschrittes, eine resultierende elektronische Darstellung des bearbeiteten Bildes wird im Wiedergabeschritt übertragen und im optischen Format wiedergegeben. Die Erfindung wird weiter dadurch zusammengefasst, indem sechs Beispiele der Erfindung gegeben werden, in denen die Beschreibung der Geräte, Methoden und ihrer Nutzen folgt. In einem ersten zusammenfassenden Beispiel der Erfindung möge sich der Leser ein Szenario vorstellen, in dem ein Schiff sich einer Hafeneinfahrt nähert und der Benutzer der Erfindung der Offizier des Schiffes ist. Es ist übIlich für den Navigationsoffizier, viele Hilfen zu benutzen, um seinen Kurs durch die Wasserstrasse zu führen. Karten, einen Kompass, Leuchtbojen, Sonargeräte, Entfernungsmesser, Radar und Ferngläser sind einige der Instrumente, die man zur Navigation eines Bootes verwenden kann. Neuere Fortschritte in der Positionsbestimmung, insbesondere das Global Positioning System, GPS, haben die Aufgabe der Navigation hier vereinfacht. Mit dem GPS verfügt der Navigationsoffizier über die Kenntnis der Position des Schiffes mit einer Genauigkeit von +/- 300 Fuss, Nord und Ost, in einigen besonderen Fällen sogar genauer. Sogar mit einer derart guten Positionsbestimmung muss der Navigationsoffizier feststellen, welcher Position auf der Karte seine Position entspricht, die Symbole der Karte identifizieren und sich ein Bild von seiner Umgebung vorstellen. Dann muss der Navigationsoffizier die reale Szene vor ihm nach identifizierbaren Objekten durchsuchen, um festzustellen, ob das, was er sieht, mit den Symbolen der Karte übereinstimmt. Häufig ist die Sicht durch Dunkelheit oder die Wetterbedingungen beeinträchtigt, und spezielle Lichter müssen als Markierungen auf der Karte identifiziert werden. Diese können farbige Blinklichter sein; diese können leicht mit den hellen Lichtern einer Stadt verwechselt werden. In anderen Fällen können die Markierungen unbeleuchtet sein und in der Dunkelheit unmöglich gefunden werden. Gefährliche Objekte, wie z.B. versunkene Schiffe, Seetang und Riffe, werden im Allgemeinen auf Karten gekennzeichnet, sind aber für der Navigationsoffizier nicht sichtbar, weil sie teilweise oder ganz unter Wasser liegen können. Der Navigationsoffizier muss sich seine Position im Bezug zu den Objekten der wirklichen Szene und denen der Karte in Gedanken vorstellen und muss sich auch die Gefahren der wirklichen Szene, vor denen die Karte warnt, vorstellen. Dieser Vorgang erfordert viele komplizierte Übersetzungen und Interpretationen zwischen der wirklichen Szene, den Markierungen auf der Karte, der Szene, wie sie der Navigationsoffizier sieht und der Karte, wie sie vom Navigationsoffizier verstanden wird. Sicherlich stellt dies zusammen ein grosses Fehlerpotenzial dar. Viele sehr gut ausgebildete und geübte Seenavigatoren haben bei der schwierigen Aufgabe der sicheren Navigation in einen Hafen versagt, was oftmals zu tragischen Konsequenzen führte. Mit dem System der Erfindung kann ein Navigationsoffizier zuverlässig auf eine Szene blicken und exakt den Ort bekannter Markierungen feststellen. Das System der Erfindung macht die Umsetzung der Symbole einer Karte in die Realität überflüssig. Der Benutzer der Erfindung kann das Display vor seinen Augen positionieren, um ein Bild der wirklichen Szene mit einer Überlagerung der Symbole der Karte zu sehen. Der Vorstellung des Navigators wird es dann klar, wo sich unsichtbare Riffe befinden und bei welchen Lichtern es sich um die wirklichen Navigationssignale handelt, und bei welchen um Strassenlaternen. Dem Computer ist es möglich, Informationen, wie z.B. Streulicht, aus den Bildern zu entfernen, um nur die Lichter, die für die Navigation benötigt werden, im Display wiederzugeben. Dies ist möglich, weil die Datenbank der Erfindung alle Navigationslichter "kennt" und der Prozessor alle anderen eliminieren kann. Das Display, auf welches der Benutzer schaut, enthält eine Darstellung der Szene, in der die unerwünschten Objekte eliminiert sind und nützliche Daten und Objekte hinzugefügt sind. Immer wenn der Navigator das Gerät der Erfindung in eine bestimmte Richtung lenkt, nimmt das Gerät ein optisches Bild der wirklichen Szene auf, bestimmt gleichzeitig Position und Lage des Gerätes und ruft aus der Datenbasis die Informationen bezüglich der beobachteten Szene ab. Der Prozessor analysiert das Bild, alle aufgerufenen Daten, und vereinigt diese zu dem endgültig dargestellten Bild. In einem weiterführenden Beispiel der Erfindung möchte eine Stadtplanungskommission wissen, wie ein vorgeschlagenes Gebäude in der Skyline der Stadt aussieht. Sicherlich ist es möglich, eine Fotografie der Skyline anzufertigen und das vorgeschlagene Gebäude in das Foto zu malen. Diese üblicherweise eingesetzte Methode hat einige Nachteile. Es zeigt nur eine einzelne Perspektive des geplanten Gebäudes und kann von einen voreingenommenen Entwickler von seiner "besten Seite" gezeigt werden (oder in einem "schlechtem Licht" von einem voreingenommenen Konkurrenten/Mitstreiter). Das Bauwerk mag so präsentiert werden, dass es in der Ausführung durch den Entwickler neben dem Rathaus sehr nobel aussieht. Da in einer Fotografie üblicherweise nur eine Perspektive gezeigt wird, kann es unmöglich sein, die ganze Wirkung festzustellen, die das Gebäude bezüglich anderer Standpunkte haben kann. Es mag aus dem vorbereiteten Foto nicht ersichtlich sein, dass der schöne Blick auf die Bucht, den die Besucher des Rathauses geniesen, nach der Vollendung des Gebäudes blockiert ist. Mit der vorliegenden Erfindung können die Details jeder Perspektive einfach sichtbar gemacht werden. Daten, die genau das vorgeschlagene Gebäude wiedergeben, können in die Datenbank des erfundenen Gerätes eingegeben werden. Sobald die Kamera der Erfindung in die Richtung des neuen Gebäudes gerichtet wird, nimmt das Kamerateil die wirkliche Szene wie sie erscheint auf und übergibt das Signal dem Prozessor. Das Gerät bestimmt genau die Position und die Lage der Kamera bezüglich der Szene und ruft die Daten aus dem Speicher, die wahrheitsgetreu die Perspektive des Gebäudes von diesem Standpunkt aus wiedergeben. Der Prozessor vereinigt dann die wirkliche Szene mit den Daten des vorgeschlagenen Gebäudes, um ein endgültiges Bild des Gebäudes aus dieser speziellen Perspektive zu zeigen. Es wäre sogar einem Hubschrauber möglich, in einem Bogen um den Ort des Gebäudes zu fliegen. Dem Benutzer wird es damit möglich, das Gebäude aus allen möglichen Richtungen zu betrachten. Ein Mitglied des Stadtrates kann sehen, wie die zukünftige Struktur aus allen Perspektiven in Wirklichkeit sein würde, ehe er der Ausführung des Planes zustimmt. In einem zusätzlichen zusammenfassenden Beispiel wählen wir das Szenario, in dem ein Ingenieur Produkte der Erfindung zur Analyse und zum "troubleshooting" eines Entwicklungsproblems verwendet. Genauer der Fall, wenn ein Problem bei der Auslotung an Bord eines U-Bootes festgestellt wurde. Der komplizierte Aufbau, eingeschlossen von Rohren, Pumpen, Kabeln, Drähten usw. eines U-Bootes können sehr schwer zu verstehen sein, wenn man auf die technische Zeichnung blickt und die Information des Planes in die Wirklichkeit übersetzen muss. Die unverzügliche und zuverlässige Identifikation eines speziellen Elementes kann in einem Notfall für das Überleben des Schiffes kritisch sein. Der folgende erläuternde technische Gebrauch der Erfindung stellt stark vereinfacht die Art der zuverlässigen Identifikation von technischen Eigenschaften dar. Ein Ingenieur an Bord eines Unterseebootes muss an der Salzwasserpumpe im Torpedoraum arbeiten, die die Torpedorohre nach Gebrauch leerpumpen soll. Vorbereitend auf den Einsatz wird der Speicherinhalt des portablen elektro-optischen Sichtgerätes von dem Zentralcomputer des Schiffes mit Informationen über Details der fraglichen Pumpe und mit Details über den Torpedoraum, wo sich die Pumpe befindet, versehen. Im Falle eines durch einen Kampf beschädigten Schiffes oder im Falle begrenzter Sicht wegen Feuer oder Stromausfällen kann das Sichtsystem die Führung zu dem Ort der Pumpe durch audiovisuelle Anhaltspunkte gewähren. Da die verschiedenen Rohre durch Schotten oder hinter Wänden verlaufen können, kann das Sichtsystem dazu benutzt werden, durch Wände zu sehen und die Orte der Rohre einzufügen, so dass die andernfalls unsichtbaren Rohre fortwährend und ohne Mehrdeutigkeiten verfolgt werden können. Wenn die fragwürdige Pumpe erreicht ist, richtet der Ingenieur die Kamera-Achse des Sichtsystems in Richtung der Pumpe. Auf dem Display des Gerätes wird ein wirkliches Bild der Pumpe mit Daten überlagert, wie z.B. der Teilenummer der Pumpe und Anhaltspunkte über die Eigenschaften der Pumpe, wie z.B. welches Material gepumpt wird und die Flussrichtung. Das Sichtgerät kann Eingaben des Benutzers empfangen, um weitere Darstellungsmodi zu wählen. Diese Eingaben können durch mechanische Vorrichtungen, wie einer "Maus" durchgeführt werden, einfach durch einen Knopf, oder vielleicht durch verbale Kommandos unter Zuhilfenahme eines Spracherkennungssystems. Falls die Pumpe auseinander genommen werden muss, kann der Benutzer das Gerät durch verbale Kommandos anweisen, die einzelnen Montageschritte folgen zu lassen. Das Auseinandernehmen kann dann durch Hinweise des Sichtgerätes vereinfacht werden. Ein spezieller Teil kann hervorgehoben werden und die erforderliche Bewegung für seine sichere Entfernung kann simuliert werden, so dass der Benutzer das richtige Auseinandernehmen vor Ort lernen kann. In ähnlicher Weise kann das Zusammensetzen begleitet werden, weil das vorhergehende Wissen über das Auseinandernehmen im Speicher verbleibt und leicht dem Benutzer dargeboten werden kann, so dass keine Übertragungen aus Anleitungen in die Wirklichkeit erforderlich sind. Ein hervorgehobenes Teil und eine Bewegung zum Zusammenbau des Teiles kann auf dem wirklichen Bild des Werkstückes überlagert werden. Ferner kann man sich in einem weiteren zusammenfassenden Beispiel die Komplexität der Situation vorstellen, in der Feuer bekämpft werden soll. Es mag für einen Feuerwehrhauptmann üblich sein, die Detailpläne des Inneren eines Gebäudes von einer Kopie zu lesen und diese Information über Funk den Feuerwehrmännern im Gebäude zu übermitteln. Das Problem dieser Methode besteht darin, dass es von vielen Übersetzungen zwischen verschiedensten Medien abhängt. Bei jeder Übersetzung wird die Information gemäss einer Übertragungsfunktion verändert und somit in der Genauigkeit begrenzt. Die vorliegende Erfindung bietet eine Alternative, welche die direkte Übertragung von detaillierten Informationen über eine Struktur an den Feuerwehrmann im Gebäude erlaubt. Eine Videokamera und eine Brille kann in einem normalen Helm eines Feuerwehrmannes eingebaut werden, wobei die Brille das erforderliche Display enthält. Die Display-Einheit könnte entweder über Funk oder über eine feste Verdrahtung mit dem Computer in Verbindung stehen, dessen Speicher die vorher aufgezeichnete Informationen über Elemente der Struktur enthält. Das Positionsbestimmungssystem kann zu jeder Zeit feststellen, wo sich der Feuerwehrmann befindet und wohin er blickt. Ein wirkliches Bild von der Kamera kann dann mit den aufgezeichneten Daten kombiniert werden, um ein verstärktes Bild zu erzeugen. Falls das vom Feuer erzeugt helle Licht im wirklichen Bild ein wichtiges Detail, wie z.B. einen Türgriff, unsichtbar macht, kann der Prozessor das Feuer in der wirklichen Szene löschen und den Türgriff einzeichnen. Der Feuerwehrmann kann leicht seinen Weg durch das komplizierte Innere finden, welcher mit Rauch und Feuer gefüllt ist, was andernfalls ein Vordringen in das Gebäude verhindern würde. Informationen aus erster Hand, die über das erfundene Sichtsystem direkt einem Feuerwehrmann zur Verfügung gestellt werden, können die Geschwindigkeit und die Effektivität einer Brandbekämpfung enorm steigern. Ein in einem Helm montiertes Gerät wäre notwendigerweise klein und kompakt. Es kann so eingerichtet werden, dass die Kamera, das Display und das Positionsbestimmungsgerät (Position und Lage) sich im ständigen Funkkontakt mit dem Computer befinden, die möglicherweise sehr unförmig und weit entfernt sein kann. Diese Möglichkeit ist als Teilaspekt in dieser Erfindung vorgesehen und eingeschlossen. Es sollte darauf hingewiesen werden, dass im Falle sehr starken Rauches, wenn keine wirklichen Bilder von der Kamera aufgenommen werden können, und die dargestellten Bilder nur aus gespeicherten Informationen bestehen, das System einem "Virtual Reality Device" sehr ähnlich wird. Der wichtige Unterschied bleibt darin bestehen, dass die wieder gegebenen Bilder exakt zur Wirklichkeit und entsprechend der Blickrichtung des Benutzers justiert werden. Falls der Feuerwehrmann eine Tür öffnet, öffnet sich eine wirkliche Tür. Bei VR-Anwendungen erscheint es so, als ob eine wirkliche Tür geöffnet ist, aber die Tür in einem VR-System ist vollständig simuliert und es existiert keine wirkliche geöffnete Türe. In einem weiteren zusammenfassenden Beispiel wird einem Touristen mit einem Sichtsystem ein Blick in die Vergangenheit gewährt. Man kann sich einen Bus voller Touristen vorstellen, die in Pompeij ankommen. Jede mit einem tragbaren Sichtsystem ausgestattete Person kann sich frei im Felde nach eigenem Willen bewegen. Es wird möglich sein, vorherbestimmte Orte zu haben, zu denen die Benutzer geleitet werden, und bei den Szenen, wie sie dem Benutzer geboten werden, einen entsprechenden "Soundtrack" anzubieten. Blickt ein Benutzer in das Sichtsystem, kann er die Gebäude sehen, wie sie jetzt aussehen und eine Simulation sehen, wie sie vor dem Ausbruch des Ätnas aussahen. Er sieht in einer Simulation, wie Menschen des alten Pompeij in ihrem täglichen Leben umhergehen. Ohne Warnung sieht der Betrachter, wie die Asche auf die Häuser fällt und wie die Menschen nach Schutz rennen. Die simulierten Ereignisse früherer Zeiten können leicht in modernen Zeiten mit Hilfe der vorgelegten Erfindung betrachtet werden. In dieser Version kann jedes tragbare Gerät für jede Person individuell und unabhängig in Funkkontakt mit einem gemeinsamen Daten- und Rechenzentrum kommunizieren. Im abschliessenden zusammenfassenden Beispiel der Erfindung betrachten wir den Bedarf für Landvermesser, um in der Erde nach vergrabenen Rohrleitungen und Kabeln zu suchen. Falls in Bauprojekten die Veränderung oder Entfernung solcher Leitungen erforderlich ist oder neue Projekte installiert werden sollen, so dass sie die existierenden Anlagen nicht kreuzen, muss der Landvermesser die Lage dieser Anlagen ergründen. Ein Landvermesser hängt von der Dokumentation der vorhergehenden Konstruktionsprojekte ab und versucht, die Orte der verschiedenen Anlagen wie auf den Karten vermerkt in der Wirklichkeit abzustecken. Erneut erfordern die Übertragungen des Landvermessers aus den Karten und anderen Dokumenten auf die Wirklichkeit und an die Arbeiter der Ausgrabungsfirma Erfahrung und Ausbildung. Sogar mit neuen Karten kann das Unternehmen ein Alptraum und ein Fehler sehr teuer werden. Wenn man auf ein Display schauen könnte, welches zur wirklichen Szene justiert ist und ein Bild der wirklichen Szene mit überlagerten Positionen der Ausgrabungsarbeiten darstellt, wäre es ein trivialer Vorgang, die Sicherheitsmarkierungen anzubringen. Mit dem erfundenen System können die vergrabenen Rohre und Kabel etc. in der Datenbasis gespeichert werden. Die Orte des Konstruktionsprojekts können dann in einer sehr kurzen Zeit vermessen werden. Es sollte erwähnt werden, dass die meisten Kartensysteme dieser Art, sogar sehr ausgefeilte rechnergestützte Karten mit Daten und Symbolen in Verbindung mit Bildern, eine Übertragung des dargestellten Bildes auf das Bild der Wirklichkeit, wie es vom Benutzer gesehen wird, erfordert. Obwohl HUDs ein wirkliches Bild und ein gespeichertes Bild, das zur Wirklichkeit justiert ist, kombinieren, kann die Erfindung durch die Möglichkeit der Kommunikation zwischen dem wirklichen Bild und den Daten oder dem gespeicherten Bild unterschieden werden. Das HUD gewährt keine Erkennung, Justage, Unterdrückung ungewünschter Elemente und anderer Eigenschaften der Erfindung. Nur die vorliegende Erfindung gewährt ein System, welches bearbeitete Bilder, die zur einer Szene so justiert sind wie sie normalerweise betrachtet wird, produziert. Der hauptsächliche Gegenstand der Erfindung ist die Gewährleistung eines vielseitigen Sichtsystems mit bei bisherigen Systemen vollständig unbekannten Eigenschaften. Ein weiterer Hauptpunkt der Erfindung ist die Einführung eines Gerätes und eines Verfahrens zur Bearbeitung der Wirklichkeit, wobei wirkliche Szenen bearbeitet abgebildet werden, in Disziplinen wie Vermessung, Reparatur, Tourismus, Navigation und anderer, wobei dem Benutzer zusätzliche Informationen über die Szene geboten werden. Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtsystems zur Betrachtung einer Landschaft, die Objekte enthält, welche im Zeitpunkt des Gebrauches noch nicht existieren, aber als zukünftige Teile der Landschaft geplant sind. Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtgerätes zur Betrachtung einer Landschaft, welche Objekte enthält, die nicht mit konventionellen Sichtsystemen wie Kameras, Ferngläsern, Teleskopen, Videorecordern, HUD, HMD etc. gesehen werden können. Ein weiterer Punkt der Erfindung ist die Gewährung eines Sichtgerätes, welches es erlaubt, ungewünschte Gegenstände der wirklichen Szene zu entfernen und durch computergenerierte, für den Benutzer wichtige Objekte zu ersetzen. Kurze Beschreibung der Zeichnungen Diese und andere Eigenschaften, Aspekte und Vorteile der vorliegenden Erfindung können bei der Betrachtung der folgenden Beschreibung, den angehängten Ansprüchen und den Zeichnungen besser verstanden werden: Fig. 1 ist eine Zeichnung eines Benutzers der Erfindung, eine Szene, wie sie in Wirklichkeit vorkommt, und eine Szene, wie sie bearbeitet im Display der Erfindung sichtbar ist. Fig. 2 ist die Zeichnung eines Strassenbildes einer Stadt (2a), wobei die Erfindung es dem Landvermesser erlaubt, andernfalls unsichtbare Details wie vergrabene Rohrleitungen und Abwasserkanäle zu sehen (2b). Fig. 3 ist das Blockdiagramm der Komponenten und ihrer Verbindung untereinander, wie es aus der neuen Kombination in der Erfindung hervorgeht. Fig. 4 ist ein weiteres detailliertes Blockdiagramm. Fig. 5 ist eine elektro-optische Schemazeichnung einiger Systemkomponenten. Wege zur Ausführung der Erfindung Die Erfindung stellt ein System zur Verfügung, mit dessen Einsatz ein bearbeitetes Bild hergestellt wird. In der Zeichnung in Fig. 1) wird ein Benutzer gezeigt, der durch ein portables System (1) der Erfindung in ein Tal blickt. Ein bearbeitetes Bild (3) wird dem Benutzer präsentiert und wird in die wirklichen Szene eingefügt. Das bearbeitete Bild kann Folgendes enthalten: Elemente, die noch nicht existieren, z.B. eine Brücke (4), repräsentativ für, zu der wirklichen Szene hinzugefügte Informationen; Elemente, die in Wirklichkeit existieren, aber im Endbild fehlen, z.B. Bäume zur rechten Seite der Brücke, repräsentativ für Informationen, die entfernt wurden; und schliesslich Elemente, deren ursprüngliche Erscheinungsform sich verändert hat. In Fig. 2 ist das Beispiel eines Bauvermessungsplanes gezeigt. Wie die Szene normalerweise aussieht, ist in Fig. 2(a) gezeigt. In Fig. 2(b) können die Trinkwasserleitungen (5), die zu den Häusern (7) führen, neben den Feuerhydranten (8) und den vergrabenen Abwasserkanälen leicht mit dem Display der Erfindung "gesehen" werden. In der ersten vorgezogenen Darstellung der Erfindung enthält das elektro-optische Gerät eine Kamera (9), ein Positionsbestimmungsgerät (16), eine Lagebestimmungsmessgerät (15), einen Datenspeicher (12), einen Computer (14) und ein Display (13). Bei der Kamera handelt es sich um ein elektro-optisches Gerät zum Einsatz zur Übertragung eines Lichtflusses aus dem Sichtfeld in ein optisches Bild in einem Bildfeld, der Konversion eines Lichtbildes in ein elektronisches Bild und der Übertragung des elektronischen Bildes zu dem Computer. Das Positionsbestimmungsgerät ist in der Lage, die Position der Kamera zu bestimmen; das Lagebestimmungsmessgerät ist in der Lage, die Verkippung der Achse zu bestimmen, die durch die optische Achse des Sichtfeldes der Kamera gegeben ist. Der Datenspeicher steht in Verbindung mit den Positions- und Lagebestimmungsmessgeräten, wobei die Werte der Lage und der Position den Ort oder die Orte im Datenspeicher angeben. Ferner steht er in Verbindung (39) mit dem Computer, wobei Bilddaten zu diesem übertragen werden können. Im Computer werden die elektronischen Bilder aus der Kamera mit den elektronischen Bildern (4) aus dem Datenspeicher verglichen, analysiert, bearbeitet und zur Darstellung eines einzelnen Bildes kombiniert. Der Computer steht in Verbindung mit dem Display, wobei die Information über die Position und Lage der Kamera relativ zur Szene dazu verwendet wird, um ein reales Bild der Szene relativ zur Position und der Lage der Kamera hervorzuheben. Eine detaillierte Beschreibung von jeder dieser Komponenten des Hauptgerätes folgt. Für die beanspruchten Realisierungen der Erfindung ist vorhergesehen, dass der Kamerateil des Gerätes aus vier Hauptbestandteilen bestehen wird, die zu einer tragbaren, für den Benutzer (2) leicht handhabbaren Baugruppe (1) integriert werden. Diese beinhaltet: ein Linsengruppe für die optische Eingabe (38), eine Verwacklungssicherung, mindestens eine CCD-Kamera (20) und eine optische Zielvorrichtung (34). Ein den Lichtstrom abbildendes Linsensystem kann in der tragbaren Kameraeinheit (1) montiert werden. Einachsige oder einäugige Systeme sind kommerziell erhältlich und werden üblicherweise in Geräten wie Camcordern und digitalen Fotokameras eingesetzt. Es ist vorzuziehen, dass das Objektiv über eine Zoom- und eine Autofokuseinrichtung verfügt; diese Systeme sind ausgereift. Ein Autofokussystem kann mit freiem Eingriff für den Benutzer durch einen Computer geregelt werden. Die Zoomvorrichtung kann ebenso elektronisch geregelt und manuell durch den Benutzer über einen elektrischen Schalter kontrolliert werden, oder sie kann auch durch den Computer, je nach bekannten Eigenschaften, speziell für eine gewählte Szene geregelt werden. Die physikalischen Ausdehnungen des Aufnahmeobjektives legen das Bildfeld des Gerätes fest. Das Bildfeld ist variabel über die Zoomvorrichtung des Objektives. Informationen über das Bildfeld können dem Prozessor zur Verfügung gestellt werden, um in den Bildverarbeitungsroutinen Verwendung zu finden. Bildstabilisierungseinrichtungen sind ebenso weitverbreitet in dem Bereich der elektronischen Fotografie. Die bekannten Systeme sind für die beanspruchten Realisierungen dieser Erfindung nützlich. Eine Verwacklungssicherung kann über ein piezoelektrisches Halbleiterelement geregelt werden, welches eine verzerrbares Prisma steuert. Bewegungsinformation von Messgyroskopen (35) kann Bewegungen meiden und das Steuersignal für die Prismen regeln. Das erfundene System kann dahingehend modifiziert werden, dass das Signal von jedem Gyroskop zur Kontrolle dem Rechner übergeben wird, der damit die Höhe und die Haltung des tragbaren Gerätes bestimmt. Dies kann für Systeme, die keinen Zugriff auf Signale des GPS haben, von besonderer Bedeutung sein, so z.B. für Unterseeboote oder für Systeme, die speziell für mikroskopische Anwendungen entwickelt wurden, wie für Operationen oder Mikromanipulatoren. Als Alternative zu den mechanischen Stabilisatoren kann eine elektronische Verwacklungssicherung eingesetzt werden, aber dadurch kann es zu Verlusten bei der Bildqualität kommen und in Situationen mit schnellen Bewegungen zu einem Verlust in der Kontinuität der Bilder. Eine elektronische Verwacklungssicherung kann auch nicht sofort dahingehend modifiziert werden, dass sie Bewegungsinformationen an den Prozessor liefern kann. Nachdem das Lichtbild von einer Szene durch die Verwacklungssicherung stabilisiert ist, wird es auf mindestens ein CCD-Element fokussiert, welches sich in der Bildebene des Aufnahmeobjektives befindet. Eine mögliche Alternative stellen Siliziumzellen oder andere Aufnahmegeräte dar, aber CCDs sind vorzuziehen, weil deren Ausgang kompatibel mit dem elektronischen Computer sein kann, der die digitalen Daten verarbeitet. Der Lichtfluss aus der Szene wird in ein digitales, elektronisches Bildsignal, welches die Szene repräsentiert, umgewandelt. CCD-Elemente stehen auch leicht zur Verfügung und werden in modernen Bilderfassungsgeräten eingesetzt; standardisierte CCD-Elemente sind ohne Modifikationen oder nur mit kleineren Veränderungen für die vorliegende Form der Erfindung ausreichend. Die Kamera kann auf zwei verschiedene Wege ein Farbbild liefern. Es ist auch vorausgeplant, dass es nützlich sein kann, wenn CCD-Elemente für andere als dem menschlichen Auge sichtbare Anteile des Spektrums empfindlich sind. Zum Beispiel können manche Systeme dadurch Vorteile haben, dass ihre CCD-Elemente für Infrarot-Aufnahmen ausgelegt sind. Der Gebrauch von IR-Geräten kann bei Anwendungen, wie z.B. der Brandbekämpfung und der Ackerbaukunde wichtig sein, bei welchen die wichtige Bildinformationen in Spektralbereichen ausserhalb des Sichtbaren liegen. Ein Entfernungsmesser ist für eine Vielzahl von Systemfunktionen wichtig. Als erstes Aufgabe steht die Versorgung des Autofokus des Aufnahmeobjektives. Damit die Bilder scharf auf das CCD abgebildet werden, ist eine genaue Einstellung des Aufnahmeobjektives entsprechend der Entfernung des abzubildenden Objektes notwendig. Als zweite Funktion ist die Entfernungsangabe für den Prozessor wichtig, als sie Hinweise für die richtige Skalierung des wirklichen Bildes relativ zu den gespeicherten Daten liefert. Das Kamerabild und die Eingabe aus dem Datenspeicher werden kombiniert, weshalb eine Skalierung eine wichtige Vorraussetzung für die Qualität des endgültigen Bildes ist. Ein weiterer Einsatz, der dritte der optischen Entfernungsmessung, kann die Elimination ungewünschter Bildelemente sein. Zum Beispiel kann die Takelage eines Schiffes die Sicht auf das Spreizholz versperren, dann ist es möglich, dem Bildverarbeitungsprozessor die momentan wichtige Entfernung mitzuteilen. Der Prozessor kann dann Objekte entfernen, die sich nicht im ausgewählten Bereich befinden. Ein Entfernungsmessgerät, z.B. ein Sonar- oder eine Ultraschallgerät, kann die Entfernung zwischen Kamera und den Objekten der Szene bestimmen. Es ist auch möglich, Laser oder Radarsysteme zu verwenden, aber diese sind aufwendiger und teurer. Der Computer kann die Entfernungsangaben direkt vom Entfernungsmesser empfangen oder er kann die Entfernungsangabe aus der Fokussierung und der Zoomeinstellung (18) der Aufnahmelinse bestimmen, welche von einer Computerroutine abgefragt werden können. Dies ist möglich, falls die Linse mit Wandlern ausgerüstet ist, welche die Fokussierung und die Zoomeinstellung des Objektives in ein für den Rechner lesbares elektrisches Signal verwandeln. Alternativ zu der aktiven Entfernungsmessung oder zusätzlich zu diesen ist es möglich, die Entfernung zu Objekten der Szene durch einen Vergleich von Bilddetails mit bekannten Elementen aus dem Datenspeicher zu vergleichen, die diesen Bilddetails entsprechen. Eine Veröffentlichung dieser Methode liegt in dem US-Patent #5 034 812, Rawlings, vor. Sobald Position und Höhe der tragbaren Kamera bekannt sind, kann ein wirkliches Bild dem Computer übergeben und von diesem analysiert werden. Bezüglich einer rechnergestützten topographischen Datenbasis kann die Position und damit die Entfernung und die Lage zu den vom Benutzer gewählten Elementen bestimmt werden. Ein Beispiel: ein Objekt wie ein Leuchtturm, dessen Höhe vorher im Datenspeicher gespeichert wurde, kann im wirklichen Bild vermessen werden, so dass bei bekanntem Abbildungsmassstab des Objektives eine Entfernungsmessung möglich ist. Zur Erhöhung der Genauigkeit kann jede Bestimmung der Entfernung unabhängig voneinander oder in Kombination mit der Vielzahl der anderen durchgeführt werden. Für die beanspruchten Realisierungen der Erfindung ist vorgesehen, dass die Positionsbestimmungseinheit des Gerätes ein globales Positionssystem, ein GPS-Empfänger (16) sein wird. Es gibt eine Vielzahl alternativer Positionsbestimmungseinheiten, die in anderen Realisationen der Erfindung eingesetzt werden können. Das schliesst Loran, Glonass und Omega ein, beschränkt sich aber nicht darauf. Da das GPS sehr genau ist und die Höhe mit liefert, ist es selbstverständlich für die Erfindung, das GPS zu wählen und von der zusätzlichen Präzision zu profitieren. Bei abgeschlossenen Systemen wie Untergrundarbeiten oder Unterseebooten kann das Positionsbestimmungssystem durch einfachere Versionen wie Triangulationsmessungen über bekannte Orte oder anderer Positionsmessverfahren ersetzt werden. Für Anwendungen im mikroskopischen Bereich wie z.B. der Untersuchung von Halbleiterkomponenten oder der Mikrosystemherstellung kann es von Vorteil sein, über ein Laserinterferometer die Position mit Subnanometergenauigkeit zu bestimmen. Die Erfindung ist unabhängig von den Details irgendeiner Positionsbestimmungseinheit, solange die Position bestimmt und an einen Computer übergeben werden kann. Eine kleine, leichte und tragbare Kamera ist ein Ziel der Erfindung. Um dies zu erreichen, kann es erforderlich sein, den Hauptteil der Rechenkraft in eine separate Einheit zu packen, welche in Kommunikation mit der tragbaren Kamera steht. In dieser Anordnung ist es vorzuziehen, die Antenne (36) des GPS-Empfängers in die tragbare Kamera oder in direkte Nähe dazu zu bringen. Die sperrige Recheneinheit des GPS-Empfängers kann mit den anderen Computergeräten in einem Rucksack oder in einer stabilen Station untergebracht werden. Bei Einheiten, die in umbauten Plätzen benutzt werden, an denen das GPS-Signal vielleicht nicht empfangen werden kann, so z.B. auf der Brücke eines Schiffes, kann die Antenne an irgendwelchen anderen bekannten Plätzen relative zu der Kamera aufgestellt werden und der bekannte und konstante Versatz dazwischen von der Rechenelektronik eliminiert werden. In den beanspruchten Realisierungen der Erfindung ist vorhergesehen, die Einheit zur Bestimmung der Lage des Gerätes in einer von drei Alternativen zu realisieren. Jedes bestimmt die Richtung, die Neigung und die Verdrehung der tragbaren Kamera-Einheit. Ein in die tragbare Kamera eingebauter Flüssigkeitskompass (37) kann Richtungsangaben mit einer Genauigkeit von +/- 1 Grad liefern. Der Ausgang dieses Kompasses kann dem Computer zur Verfügung gestellt werden. Die Ausgänge der piezo-elektrischen Gyroskope der Verwacklungssicherung können auch dazu verwendet werden, mit dem Computer die Bewegung durch den Benutzer von einem Messpunkt aus zu berechnen. Der Messpunkt kann sich in Ruhe an einer bekannten Normalposition befinden oder durch die Beobachtung des Horizontes durch die tragbare Kamera festgelegt werden. Eine Alternative bietet ein dreiachsiges Magnetometersystem, welches ein zweiachsiges elektrolytisches Neigungsmessgerät enthält. Dieser Wandler befindet sich mit in der Kamera und versorgt den Computer mit vollständigen Lageangaben. Als weitere Alternative zur Berechnung der Lage (eingeschlossen der Richtung) aus einem bekannten Messpunkt kann ein piezo-elektrisches Gyroskop verwendet werden. Die Auswahl dieser Alternative kann durch den niedrigeren Preis getroffen werden, wie auch durch die Möglichkeit der Anwendung in Magnetfeldern, die genaue Richtungsmessungen ausschliessen (z.B. in der Nähe elektrischer Schweissgeräte; grosser Transformatoren etc.). Dabei ist zu beachten, dass die Verwacklungssicherung schon die erforderlichen piezo-elektrischen Gyroskope enthält. Es wäre möglich und wünschenswert, diese Alternative in allen drei oben genannten Fällen als eine zusätzliche Methode zur Erfassung der Lage zu gewähren. In den beanspruchten Realisierungen der Erfindung ist es vorgesehen, dass der Rechenprozessor des Gerätes ein Mikrocomputer mit sehr schnellen Graphik- und Videokarten ist. Wegen dem fortgeschrittenen Status der Entwicklung von Computern sind viele der notwendigen Komponenten eines Computers, z.B. ein Bildspeicher (22) und umfangreiche Cache-Speicher (23) bereits entwickelt. Die in Videospielen und Computeranimationen benutzten Rechner und Software bieten sich von selbst den vorliegenden Aufgaben an und können sofort diesen Aufgaben angepasst werden. Da die Aufgaben der vorgestellten Erfindung sehr einzigartig sind, wird auch die notwendige Software zur Bewältigung dieser Aufgaben notwendigerweise einzigartig sein. Es ist vorgesehen, dass das komplizierte Betriebssystem ("Instruction set"), welches entweder in Hardware, wie z.B. ROM, oder mit Software implementiert wird, gesetzlich geschützt sein wird. Es ist wahrscheinlich, über anwendungsspezifische Betriebssysteme und über viele Geräte mit jeweils eigenen, speziellen Instruktionsregeln zu verfügen. In den beanspruchten Realisierungen der Erfindung ist vorhergesehen, dass es sich bei dem Datenspeicher des Gerätes um einen Massenspeicher wie z.B. eine CD-ROM, handeln wird. Der Datenspeicher kann vorprogrammierte Informationen bezüglich spezieller Szenen enthalten, die für den Benutzer von Interesse sind. Die Positionsbestimmungseinheit und die Lagebestimmungseinheit regeln den Zeiger auf den Datenspeicher. In der einfachsten Realisierung ist der Datenspeicher über eine orthogonale Matrix aus den beiden Variablen adressierbar. Die Werte einer Position Pn und die Lage An bestimmen eindeutig eine entsprechende Szene SCENE Pn,AnÜ. In fortgeschrittenen Versionen kann auch die Entfernung wichtig sein und die Entfernungsvariable eine dritte, orthogonale Variable in einer dreidimensionalen Matrix definieren: SCENE Pn,An,RnÜ. Die durch Rn definierte Variable teilt dem Computer mit, in welcher Ebene senkrecht zur Achse der Kamera sich die wichtige Information befindet. In einem noch weiter entwickelten System kann die Vergrösserung Mn in ähnlicher Weise eine vierdimensionale Matrix festlegen: SCENE Pn,An,Rn,MnÜ. Viele andere Faktoren können zur Kontrolle des Weges der Datenspeicherung und des Datenabrufes benutzt werden. Jede der für die vorliegenden Aufgaben speziellen Methoden sind Spezialfälle des allgemeinen Falles, in dem Daten bezüglich einer Szene dazu aus einem Datenspeicher abgerufen werden, um die betrachtete Szene zu identifizieren. In den beanspruchten Realisierungen der Erfindung ist vorhergesehn, dass es sich bei dem Display (13) des Gerätes um ein übliches LCD-Element (32) handelt. Diese sind gegenwärtig die hellsten und schnellsten erhältlichen Displays. Sie werden häufig in Verbindung mit Video-Anwendungen eingesetzt. Alternativ ist es möglich, Plasma-Displays, Elektroluminiszenz oder irgendwelche anderen der vielen möglichen Displays zu verwenden. Die spezielle Form des Displays ist unwichtig und kann von der Anwendung abhängen, ohne von der Hauptsache der Erfindung abzuweichen. Eine wichtige Eigenschaft des Displays ist die Konversion eines elektrischen Signals, welches von der Videokarte (28) des Rechners stammt, in ein optisch sichtbares Bild, welches ein bearbeitetes wirkliches Bild der Szene darstellt, auf welche die Kamera gerichtet ist. Es ist ferner eine wichtige Eigenschaft des Displays der Erfindung, dass es mit der Wirklichkeit orientiert ist und, wie in Fig. 1 gezeigt wird, deshalb bezüglich der optischen Achse der Kamera justiert ist. In den beanspruchten Realisierungen der Erfindung ist ferner vorhergesehen, dass das Gerät Apparate wie z.B. Kontrolltasten zur Benutzereingabe (29) zur Wechselwirkung mit laufenden Computerprogrammen und zur Spezifikation der Information, die für den weiteren Programmablauf benötigt werden, enthalten. Hinzu kommen, ebenso zur Kontrolle des Programmablaufes und zur Weitergabe von Informationen an den Benutzer, Geräuschwandler (31) beiderlei Art, wie z.B. Mikrophone und Ausgabegeräte wie Lautsprecher. Gewöhnliche Ausrüstungen, die bekannt sind zur Verbindung von Sichtgeräten an menschliche Augen und die physikalischen Bedingungen, wie z.B. Stative, Abtönungen der Linsen, Okkulararretierungen (30) und vieles mehr, sind alle als mit dem System der Erfindung als kompatibel berücksichtigt. Die Erfindung gewährleistet auch Methoden zur Erzeugung eines bearbeiteten Bildes. In den beanspruchten Realisierungen der Erfindung enthält die Methode des Sichtsystemes: einen Aufnahmeschritt, einen Konversionsschritt, einen Positionsbestimmungsschritt, einen Schritt zur Bestimmung der Lage, einen Datenabruf, einen Verarbeitungsschritt und einen Wiedergabeschritt. Im Aufnahmeschritt werden die Objekte der Szene über das Licht, welches von den Objekten ausgeht und mindestens durch eine Linse eingefangen wird, auf die zweidimensionale Bildebene abgebildet, wo sie ein Bild in einer Ebene formen. Im Digitalisierungsschritt wird die zweidimensionale optische Eingabe in ein elektrisches Signal gewandelt. Im Positionsbestimmungsschritt wird die Position der Kamera relativ zu einem beliebigen Referenzpunkt bestimmt. Bei der Bestimmung der Lage wird die Lage der Kamera relativ zu einer beliebigen Richtung bestimmt. Im Datenabrufschritt werden Daten aus dem Datenspeicher in Übereinstimmung mit den Messergebnissen der beiden vorhergehenden Schritte abgerufen. Im Verarbeitungsschritt werden das Bild des Digitalisierungsschrittes und die Daten des Datenabrufschrittes zum endgültigen Bild kombiniert. Im Wiedergabeschritt wird das endgültige elektronische Bild in ein optische Bild konvertiert und so wiedergegeben, dass es zur wirklichen Szene justiert ist und der wirklichen Szene entspricht. Eine detaillierte Beschreibung jeder der Hauptschritte wird im Folgenden gegeben. Im Aufnahmeschritt wird eine Kamera des Gerätes in die Richtung der Szene gerichtet und ein (Photonen-)Bild durch die Linse geformt. Das (Photonen-)Bild wird auf einem elektronischen Gerät erzeugt, welches in die Bildebene des Kameraobjektives gebracht wurde. Das gewünschte Sichtfeld kann mit der Zoom-Funktion des Objektives verändert werden, um selektive Teile der Szene auszuwählen. Der Aufnahmeschritt wird in den beanspruchten Realisierungen der Erfindung als kontinuierlich angenommen, und das Richten auf verschiedene Objekte wird in einem kontinuierlich erneuerten Bild resultieren. Echt-Zeit-Funktionen wie z.B. "Kameraschwenkungen", bei denen viele Aufnahmeschritte in rascher Folge vorkommen, sind vollständig eingeschlossen. Der Aufnahmeschritt kann durch den Benutzer beeinflussbar sein. Falls eine vorbestimmte Entfernung durch eine Benutzereingabe gewählt wurde, kann sich der Computer anpassen und die Linse in Übereinstimmung mit der Eingabe feststellen. Dies wird in dem Beispiel deutlicher, in dem ein Benutzer Elemente eines entfernten Objektes sehen möchte, die automatische Entfernungsmessung sich jedoch nach einigen Objekten im Vordergrund richtet. Ein gewählter Bereich kann die Aufnahme von ungewünschten Vordergrundobjekten verhindern. Das Verfahren der Erfindung unterscheidet sich von den Methoden wie HUDs und HMDs dadurch, dass die optische Wiedergabe der Szene in ein elektrisches Signal gewandelt wird, welches von einem Computer bearbeitet werden kann. Das Bild der wirklichen Szene kann in eine Bildfolge in gewöhnlichen Video-Raten konvertiert werden. Auf diese Weise sind keine Änderungen an existierenden Videoausrüstungen erforderlich und diese Ausrüstungen können leicht in das erfundene System eingebaut werden. Das digitale Signal der CCD ist insbesondere deshalb wünschenswert, weil bereits eine grosse Menge an mit CCDs kompatibler verarbeitender Hardware existiert. Die pixellierte Repräsentation von Bildern des CCD-Elementes ist auch kompatibel zu der pixellierten Repräsentation der Bilder auf den LCD-Displays. Das digitale Bild der CCD kann direkt an die Computerprogramme übergeben werden. Die Position der Kamera kann in globalen (makroskopischen) Anwendungen mit GPS-Verfahren und in mikroskopischen Anwendungen mit Laser-Interferometrie festgestellt werden. Der Positionsbestimmungsschritt dient der Bestimmung des Ortes der Kamera relativ zu einem beliebigen Punkt und der Übergabe des Resultates dieser Messung an den Computer, so dass der Computer feststellen kann, wo im Datenspeicher die Daten gespeichert sind, die zu der Szene korrespondieren, auf welche die Kamera gerichtet ist. Die Lage der optischen Achse der Kamera relativ zu allen drei Rotationsachsen wird gemessen, um die Richtung zu bestimmen, auf welche die Kamera zeigt. Dabei wird ferner identifiziert, auf welche Szene die Kamera blickt und was im Bildfeld der Kamera erscheint. Die Kenngrösse der Lage liefert typischerweise einen der Zeiger auf den Datenspeicher und damit, in Verbindung mit der Kenngrösse der Position, eindeutig die darin gespeicherten Daten. Die Lage kann in verschiedenen Anwendungen unterschiedlich erkannt werden. Bei Anwendungen in der Seefahrt können "Richtung" und ein einbegriffener Horizont eindeutig die Szene bestimmen. Dies ist als Spezialfall der Lage in allen drei Rotationsachsen berücksichtigt. In vielen Fällen wird die Höhe berücksichtigt werden müssen, damit eine Szene zuverlässig identifiziert werden kann. Die hauptsächliche Funktion der Bestimmung von Position und Lage ist es, dem Computer genügend Information zu geben, um unzweideutig eine Szene zu identifizieren. Nach durchgeführter Bestimmung von Position und Lage steht ein Minimum an Informationen zur Verfügung, um einen Ort im Datenspeicher zu spezifizieren. Für einige einfache Anwendungen stellt dies genügend Informationen dar, um gespeicherte Daten abrufen zu können. Diese können mit dem wirklichen Bild kombiniert werden, welches von der Kamera produziert wird, die auf die Szene, welche der gemessenen Position und Lage entspricht, gerichtet ist. In fortgeschrittenen Anwendungen können auch andere Faktoren, wie z.B. die Entfernung zum Objekt und die Vergrösserung, spezifiziert werden müssen, um die abzurufenden Daten zu spezifizieren. Nachdem die Daten abgerufen wurden, werden sie dem Prozessor übermittelt, um mit dem wirklichen Bild kombiniert zu werden. Wirkliche Bilddaten werden vom Prozessor aus dem Konvertierungsschritt empfangen und bearbeitete Daten werden vom Prozessor aus dem Datenabrufschritt empfangen. Techniken, die Eigenschaften erkennen, und Bildverarbeitungsroutinen werden auf zwei Arten von Informationen angewendet, um schliesslich ein Bild zu erhalten, welches die gewünschte Kombination aus den beiden darstellt. Bestimmte ungewünschte Information kann aus dem Bild der wirklichen Szene entfernt werden. Wichtige Information, die nicht im Bild der wirklichen Szene erscheint, kann in den Daten gefunden werden und im endgültigen Bild zur Geltung gebracht werden. Ein bearbeitetes wirkliches Bild, bestehend aus wirklicher Bildinformation und Daten aus dem Datenspeicher, wird im Prozessor zusammengesetzt und im Standard-Videoformat dem Display-Element übergeben. Das endgültige Bild wird dann in genau zur realen Szene justierter und in perfekter Übereinstimmung mit der wirklichen Szene auf eine Art und Weise dargestellt, die es dem Benutzer erlaubt, die Objekte und Eigenschaften zu "sehen", wie sie sonst in anderen Sichtgeräten nicht sichtbar sind. Bearbeitete wirkliche Bilder können mit Videoraten erzeugt werden, so dass eine Wiedergabe entsteht, welche eine mit der vom Rechner erzeugten Bearbeitung versehene Betrachtung in Echtzeit gewährleistet. Trotzdem die vorliegende Erfindung in beachtlicher Genauigkeit mit Referenzen auf bestimmte beanspruchte Versionen der Erfindung beschrieben wurde, sind andere Versionen möglich. Deshalb sollten die Aussage und der Umfang des angehängten Anspruches nicht auf die hier enthaltenen Versionen beschränkt werden. In Übereinstimmung mit jeder der beanspruchten Realisierungen der Erfindung wird ein Apparat und eine Methode der Realisation eines Sichtgerätes gewährleistet. Es ist klar ersichtlich, dass jede der oben beschriebenen Realisierungen beides, sowohl einen Apparat wie auch die Verfahren einschliessen, und dass der Apparat und die Verfahren einer beanspruchten Realisierung sich von dem Apparat und der Verfahren in einer anderen Realisierung unterscheiden können.
Claims (8)
1. Elektro-optischer Apparat zur Herstellung eines Bildes einer realen Szene, dadurch gekennzeichnet, dass das Bild bezüglich der Szene so angeordnet ist, dass die Richtungen oben, unten, links und rechts im Bild direkt mit den Richtungen oben, unten, links und rechts der Szene korrespondieren und die Normalenrichtung der Bildebene auf die Mitte der Szene gerichtet ist und dass besagtes Bild von einem Datenspeicher abgerufene Informationen beinhaltet, deren Informationen der Position und Lage des Apparates zugeordnet sind.
2. Apparat nach Anspruch 1, dadurch gekennzeichnet, dass besagtes Bild durch ein Aufnahmesystem generierte Informationen beinhaltet und dass die Informationen aus einem Datenspeicher abrufbar sind und die Informationen aus dem Datenspeicher der Position und Lage des Apparates zugeordnet sind.
3.
Apparat nach Anspruch 2, dadurch gekennzeichnet, dass er
ein Aufnahmesystem;
ein Positionsbestimmungssystem;
ein Lagebestimmungssystem;
einen Datenspeicher;
einen Computer; und
ein Display umfasst, wobei
besagtes Aufnahmesystem eine als Symmetrieachse auftretende optische Achse hat und damit die Blickrichtung definiert; ein Linsensystem symmetrisch zu der das Bildfeld definierenden Achse, und einen CCD-Chip ("Charge coupled device") im Bildfeld besitzt;
besagtes Positionsbestimmungssystem einen Referenzpunkt bezüglich des besagten Aufnahmesystems aufweist;
besagtes Lagebestimmungssystem eine die Blickrichtung definierende Referenzrichtung bezüglich des besagten Aufnahmesystems aufweist;
besagter Datenspeicher eine Speicheradressierung mit vorab aufgezeichneten Daten aufweist, sowie eine Vielzahl von den Standort indenti fizierenden, orthogonalen Variablen, eine Zeiger-Antwort mit den Werten von Position und Lage bestimmenden Geräten, die wiederum spezielle Speicherplätze mit aufgezeichneten Daten übereinstimmend mit der realen Szene ansprechen;
besagter Computer ist ein auf einen Mikroprozessor basierender Rechner vom Typ Personalcomputer, ist kompakt und vom Anwender tragbar, ist elektronisch mit dem Aufnahmesystem, dem Positionssystem, dem Lagebestimmungssystem, der Datenbank und dem Display verbunden, hat graphische und bildverarbeitende Fähigkeiten;
und
besagtes Display hat eine Normale senkrecht zur Displayebene, die Richtung der Normalen ist kollinear mit der Symmetrieachse des Aufnahmesystems, besagtes Display kommuniziert mit besagtem Computer.
4. Apparat nach Anspruch 2, der beinhaltet:
ein Aufnahmesystem;
ein Positionsbestimmungssystem;
ein Lagebestimmungssystem;
einen Datenspeicher
einen Computer; und
ein Display, wobei
das Aufnahmesystem auf den Einfall von Licht reagiert und die Fähigkeit besitzt, das Licht in elektronische Signale, die besagter Computer verarbeiten kann, umzuwandeln,
das Lagebestimmungssystem besitzt die Fähigkeit, die Lage des Aufnahmesystems, wie sie durch die Achse des Aufnahmesystems definiert wird, zu bestimmen, und gibt einen die Lage repräsentierenden Wert an den Computer;
der Datenspeicher besitzt die Fähigkeit, vorher aufgezeichnete Daten zu speichern, welche mit Objekten korrespondieren und welche Objekte repräsentieren, von denen bekannt ist, dass sie sich im augenblicklichen Blickfeld des durch seine aktuelle Position und Lage definierten Aufnahmesystems befinden, diese Daten aufzurufen und an den Computer weiterzuleiten;
der Computer besitzt die Fähigkeit, Signale des Aufnahmesystems und des Datenspeichers zu empfangen, diese Signale so zu vereinigen, dass ein gemischtes Bildsignal erzeugt wird und dieses gemischte Bild an das besagte Display weiterzuleiten;
das Display besitzt die Fähigkeit, ein vom besagten Computer empfangenes gemischtes Bild in ein für den Benutzer sichtbares physikalisches Signal, das bezüglich der Achse der Blickrichtung ausgerichtet ist, umzuwandeln, das besagte Aufnahmesystem des elektrooptischen Apparates erlaubt es dem Benutzer, seine Umgebung mit computergeneriert verbesserten oder erweiterten und bezüglich des normalen Blickfeldes des Benutzers ausgerichteten Bildern zu sehen.
5. Apparat nach Anspruch 3, bei dem das Display in ein Sichtgerät vom Typ Binokular integriert ist, hat einen optischen Weg, korrespondierend zu den beiden Augen
6.
Verfahren zum Betrieb eines Apparates nach Anspruch 1, dadurch gekennzeichnet, dass ein Bild im Display gezeigt wird, das Daten aus dem Datenspeicher enthält, die speziell der Position und Lage der Bildebene zugeordnet werden
7. Verfahren nach Anspruch 6, wobei das Bild zusätzlich Daten eines Aufnahmesystems beinhaltet und eine Mischung von Daten des Aufnahmesystems und des Datenspeichers ist, wobei die Daten des Datenspeichers speziell der Position und Lage der Bildebene zugeordnet werden.
8.
Verfahren nach Anspruch 7, beinhaltend einen Akquisitionsschritt;
einen Umwandlungsschritt;
einen Positionsbestimmungsschritt;
einen Lagebestimmungsschritt;
einen Datenaufrufschritt;
einen Prozessschritt; und
einen Display- oder Projektionsschritt; wobei
im Akquisitionsschritt die Objekte einer realen Szene durch Abbildung mit einer ein Linsensystem und eine Bildebene beinhaltenden Kamera aufgezeichnet werden, und das akquirierte Bild in einem Umwandlungsschritt in ein elektronisches Signal umgewandelt wird;
im Umwandlungsschritt das in die Kamera einfallende optische Signal von einem Licht-Bild in der Bildebene der Kamera in ein elektronisches, vom Computer im Prozesschritt verarbeitbares Signal umgewandelt wird;
im Positionsbestimmungsschritt die Position der Kamera bestimmt wird;
im Lagebestimmungsschritt die Lage der Kamera bestimmt wird;
im Datenaufrufschritt spezielle Daten des Datenspeichers vom Computer
während des Prozessschritts aufgerufen werden, wobei die Daten der Position und Lage der Kamera, wie im Positions- und im Lagebestimmungsschritt bestimmt, zugeordnet sind;
im Prozessschritt das elektronische Signal aus dem Umwandlungsschritt und die Daten des Datenaufrufschritts vom Computer verarbeitet und zu einem gemischten Bild zusammengesetzt werden;
im Display oder Projektionsschritt das zusammengesetzte gemischte Bild in ein zweidimensionales optisches Bild umgesetzt wird, das vom Benutzer (Mensch) gesehen werden kann und so gezeigt wird, dass die Richtungen oben, unten, links und rechts des gezeigten Bildes mit oben, unten, links und rechts der realen Szene direkt korrespondieren, die Normale des gezeigten Bildes in Richtung der Mitte der Szene zeigt und bezüglich der realen Szene übereinstimmt.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/119,360 US5815411A (en) | 1993-09-10 | 1993-09-10 | Electro-optic vision system which exploits position and attitude |
Publications (1)
Publication Number | Publication Date |
---|---|
CH689904A5 true CH689904A5 (de) | 2000-01-14 |
Family
ID=22383980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH01371/95A CH689904A5 (de) | 1993-09-10 | 1994-06-16 | Elektro-optischer Apparat zur Herstellung eines Bildes. |
Country Status (11)
Country | Link |
---|---|
US (5) | US5815411A (de) |
EP (1) | EP0722601B1 (de) |
JP (1) | JP3700021B2 (de) |
KR (1) | KR960705297A (de) |
AT (1) | ATE256327T1 (de) |
AU (1) | AU691508B2 (de) |
CA (1) | CA2171314C (de) |
CH (1) | CH689904A5 (de) |
DE (1) | DE69433405D1 (de) |
NZ (1) | NZ269318A (de) |
WO (1) | WO1995007526A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE202019103022U1 (de) | 2019-05-28 | 2019-06-07 | Martina Lammel | Vorrichtung zur virtuellen Darstellung einer Bildinformation |
Families Citing this family (463)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020091850A1 (en) | 1992-10-23 | 2002-07-11 | Cybex Corporation | System and method for remote monitoring and operation of personal computers |
GB2278196A (en) * | 1993-05-18 | 1994-11-23 | William Michael Frederi Taylor | Information system using GPS |
US7301536B2 (en) * | 1993-09-10 | 2007-11-27 | Geovector Corporation | Electro-optic vision systems |
US6037936A (en) * | 1993-09-10 | 2000-03-14 | Criticom Corp. | Computer vision system with a graphic user interface and remote camera control |
US6064398A (en) * | 1993-09-10 | 2000-05-16 | Geovector Corporation | Electro-optic vision systems |
EP0807352A1 (de) | 1995-01-31 | 1997-11-19 | Transcenic, Inc | Räumlich bezogene fotografie |
US6535210B1 (en) | 1995-06-07 | 2003-03-18 | Geovector Corp. | Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time |
US5721842A (en) | 1995-08-25 | 1998-02-24 | Apex Pc Solutions, Inc. | Interconnection system for viewing and controlling remotely connected computers with on-screen video overlay for controlling of the interconnection switch |
JP3599208B2 (ja) * | 1995-10-20 | 2004-12-08 | フジノン株式会社 | 特殊眼鏡 |
US20070001875A1 (en) * | 1995-11-14 | 2007-01-04 | Taylor William M F | GPS explorer |
JP3658659B2 (ja) * | 1995-11-15 | 2005-06-08 | カシオ計算機株式会社 | 画像処理装置 |
TW395121B (en) * | 1996-02-26 | 2000-06-21 | Seiko Epson Corp | Personal wearing information display device and the display method using such device |
US6181302B1 (en) * | 1996-04-24 | 2001-01-30 | C. Macgill Lynde | Marine navigation binoculars with virtual display superimposing real world image |
US6167562A (en) * | 1996-05-08 | 2000-12-26 | Kaneko Co., Ltd. | Apparatus for creating an animation program and method for creating the same |
US6804726B1 (en) | 1996-05-22 | 2004-10-12 | Geovector Corporation | Method and apparatus for controlling electrical devices in response to sensed conditions |
WO1997044737A1 (en) | 1996-05-22 | 1997-11-27 | Geovector Corporation | Mehtod and apparatus for controlling electrical devices in response to sensed conditions |
JP3338618B2 (ja) * | 1996-10-07 | 2002-10-28 | ミノルタ株式会社 | 実空間画像と仮想空間画像の表示方法及び表示装置 |
US6758755B2 (en) | 1996-11-14 | 2004-07-06 | Arcade Planet, Inc. | Prize redemption system for games executed over a wide area network |
JP3745475B2 (ja) * | 1996-12-06 | 2006-02-15 | 株式会社セガ | ゲーム装置及び画像処理装置 |
US6080063A (en) * | 1997-01-06 | 2000-06-27 | Khosla; Vinod | Simulated real time game play with live event |
US6654060B1 (en) * | 1997-01-07 | 2003-11-25 | Canon Kabushiki Kaisha | Video-image control apparatus and method and storage medium |
JP3569409B2 (ja) * | 1997-01-17 | 2004-09-22 | ペンタックス株式会社 | Gpsを利用した望遠鏡 |
JPH10327433A (ja) * | 1997-05-23 | 1998-12-08 | Minolta Co Ltd | 合成画像の表示装置 |
US5940172A (en) * | 1998-06-03 | 1999-08-17 | Measurement Devices Limited | Surveying apparatus |
US6034739A (en) * | 1997-06-09 | 2000-03-07 | Evans & Sutherland Computer Corporation | System for establishing a three-dimensional garbage matte which enables simplified adjusting of spatial relationships between physical and virtual scene elements |
JP4251673B2 (ja) * | 1997-06-24 | 2009-04-08 | 富士通株式会社 | 画像呈示装置 |
DE19728890A1 (de) * | 1997-07-07 | 1999-02-04 | Daimler Benz Ag | Verfahren zur Verbesserung des optischen Wahrnehmungsvermögens durch Modifikation des Netzhautbildes |
JP3426919B2 (ja) * | 1997-07-28 | 2003-07-14 | シャープ株式会社 | 図形作成装置 |
US6256043B1 (en) * | 1997-09-26 | 2001-07-03 | Lucent Technologies Inc. | Three dimensional virtual reality enhancement techniques |
DE19734409C2 (de) * | 1997-08-08 | 1999-11-25 | Jeffrey Shaw | Orientierungsvorrichtung |
JP3052286B2 (ja) * | 1997-08-28 | 2000-06-12 | 防衛庁技術研究本部長 | 飛行システムおよび航空機用擬似視界形成装置 |
US8432414B2 (en) | 1997-09-05 | 2013-04-30 | Ecole Polytechnique Federale De Lausanne | Automated annotation of a view |
JPH11144040A (ja) * | 1997-11-05 | 1999-05-28 | Nintendo Co Ltd | 携帯形ゲーム機および携帯形ゲーム機用カートリッジ |
US6681398B1 (en) * | 1998-01-12 | 2004-01-20 | Scanz Communications, Inc. | Systems, devices and methods for reviewing selected signal segments |
US6631522B1 (en) * | 1998-01-20 | 2003-10-07 | David Erdelyi | Method and system for indexing, sorting, and displaying a video database |
WO1999040564A1 (fr) * | 1998-02-03 | 1999-08-12 | Seiko Epson Corporation | Dispositif d'affichage de projection, procede d'affichage de projection et dispositif d'affichage d'image |
FR2775814B1 (fr) * | 1998-03-06 | 2001-01-19 | Rasterland Sa | Systeme de visualisation d'images tridimensionnelles realistes virtuelles en temps reel |
US6625299B1 (en) * | 1998-04-08 | 2003-09-23 | Jeffrey Meisner | Augmented reality technology |
FR2778248A1 (fr) * | 1998-04-30 | 1999-11-05 | Pierre Emmanuel Bathie | Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese |
US6285317B1 (en) | 1998-05-01 | 2001-09-04 | Lucent Technologies Inc. | Navigation system with three-dimensional display |
US6141440A (en) * | 1998-06-04 | 2000-10-31 | Canon Kabushiki Kaisha | Disparity measurement with variably sized interrogation regions |
JP4296451B2 (ja) * | 1998-06-22 | 2009-07-15 | 株式会社日立製作所 | 画像記録装置 |
US6266100B1 (en) | 1998-09-04 | 2001-07-24 | Sportvision, Inc. | System for enhancing a video presentation of a live event |
WO2000017766A2 (en) | 1998-09-22 | 2000-03-30 | Cybex Computer Products Corporation | System for accessing personal computers remotely |
US6173239B1 (en) * | 1998-09-30 | 2001-01-09 | Geo Vector Corporation | Apparatus and methods for presentation of information relating to objects being addressed |
JP2000194726A (ja) * | 1998-10-19 | 2000-07-14 | Sony Corp | 情報処理装置及び方法、情報処理システム並びに提供媒体 |
US20050060739A1 (en) * | 1999-01-12 | 2005-03-17 | Tony Verna | Systems, devices and methods for reviewing selected signal segments |
US6422942B1 (en) * | 1999-01-29 | 2002-07-23 | Robert W. Jeffway, Jr. | Virtual game board and tracking device therefor |
US7324081B2 (en) * | 1999-03-02 | 2008-01-29 | Siemens Aktiengesellschaft | Augmented-reality system for situation-related support of the interaction between a user and an engineering apparatus |
WO2000052536A1 (de) * | 1999-03-02 | 2000-09-08 | Siemens Aktiengesellschaft | Bedien- und beobachtungssystem mit augmented reality-techniken |
US6844822B2 (en) | 1999-03-03 | 2005-01-18 | Yamcon, Inc. | Celestial object location device |
US7068180B2 (en) * | 1999-03-03 | 2006-06-27 | Yamcon, Inc. | Celestial object location device |
US6366212B1 (en) * | 1999-03-03 | 2002-04-02 | Michael Lemp | Celestial object location device |
US7471211B2 (en) * | 1999-03-03 | 2008-12-30 | Yamcon, Inc. | Celestial object location device |
US7124425B1 (en) * | 1999-03-08 | 2006-10-17 | Immersion Entertainment, L.L.C. | Audio/video system and method utilizing a head mounted apparatus with noise attenuation |
US6578203B1 (en) | 1999-03-08 | 2003-06-10 | Tazwell L. Anderson, Jr. | Audio/video signal distribution system for head mounted displays |
JP4878409B2 (ja) * | 1999-03-23 | 2012-02-15 | キヤノン株式会社 | 情報制御装置及び情報制御方法及び記憶媒体 |
JP3902904B2 (ja) | 1999-03-23 | 2007-04-11 | キヤノン株式会社 | 情報提示装置、方法、カメラ制御装置、方法及びコンピュータ読み取り可能な記憶媒体 |
US6815687B1 (en) * | 1999-04-16 | 2004-11-09 | The Regents Of The University Of Michigan | Method and system for high-speed, 3D imaging of optically-invisible radiation |
JP2002543500A (ja) * | 1999-04-27 | 2002-12-17 | アイスリーイー・ホールディングス・エルエルシー | 遠隔注文システム |
JP2000333139A (ja) * | 1999-05-18 | 2000-11-30 | Sony Corp | 情報提供装置および方法、情報受信装置および方法、抽選システムおよび方法、並びに媒体 |
US20020057364A1 (en) * | 1999-05-28 | 2002-05-16 | Anderson Tazwell L. | Electronic handheld audio/video receiver and listening/viewing device |
US20060174297A1 (en) * | 1999-05-28 | 2006-08-03 | Anderson Tazwell L Jr | Electronic handheld audio/video receiver and listening/viewing device |
US7210160B2 (en) * | 1999-05-28 | 2007-04-24 | Immersion Entertainment, L.L.C. | Audio/video programming and charging system and method |
JP2000346634A (ja) * | 1999-06-09 | 2000-12-15 | Minolta Co Ltd | 3次元入力装置 |
EP1059510A1 (de) * | 1999-06-10 | 2000-12-13 | Texas Instruments Incorporated | Drahtlose Positionsbestimmung |
US7084887B1 (en) * | 1999-06-11 | 2006-08-01 | Canon Kabushiki Kaisha | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
JP2000350865A (ja) | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | 複合現実空間のゲーム装置、その画像処理方法およびプログラム記憶媒体 |
DE50013238D1 (de) * | 1999-06-26 | 2006-09-07 | Otto K Dufek | Optisches gerät |
US8160994B2 (en) * | 1999-07-21 | 2012-04-17 | Iopener Media Gmbh | System for simulating events in a real environment |
WO2001009812A1 (en) * | 1999-07-30 | 2001-02-08 | David Rollo | Personal tour guide system |
EP1074943A3 (de) * | 1999-08-06 | 2004-03-24 | Canon Kabushiki Kaisha | Bildberarbeitungsverfahren und -vorrichtung |
US6396475B1 (en) * | 1999-08-27 | 2002-05-28 | Geo Vector Corp. | Apparatus and methods of the remote address of objects |
CA2385173A1 (en) * | 1999-09-17 | 2001-03-29 | Nature Technology Co., Ltd. | Image capturing system, image processing system, and camera |
US6671390B1 (en) | 1999-10-18 | 2003-12-30 | Sport-X Inc. | Automated collection, processing and use of sports movement information via information extraction from electromagnetic energy based upon multi-characteristic spatial phase processing |
US6965397B1 (en) | 1999-11-22 | 2005-11-15 | Sportvision, Inc. | Measuring camera attitude |
US6909381B2 (en) * | 2000-02-12 | 2005-06-21 | Leonard Richard Kahn | Aircraft collision avoidance system |
US6522292B1 (en) * | 2000-02-23 | 2003-02-18 | Geovector Corp. | Information systems having position measuring capacity |
US20030210228A1 (en) * | 2000-02-25 | 2003-11-13 | Ebersole John Franklin | Augmented reality situational awareness system and method |
AU2001238649A1 (en) * | 2000-03-16 | 2001-10-03 | Geovector Corporation | Information systems having directional interference facility |
US7213048B1 (en) * | 2000-04-05 | 2007-05-01 | Microsoft Corporation | Context aware computing devices and methods |
US7743074B1 (en) | 2000-04-05 | 2010-06-22 | Microsoft Corporation | Context aware systems and methods utilizing hierarchical tree structures |
US6674448B1 (en) * | 2000-04-05 | 2004-01-06 | Ods Properties, Inc. | Interactive wagering system with controllable graphic displays |
US7076255B2 (en) | 2000-04-05 | 2006-07-11 | Microsoft Corporation | Context-aware and location-aware cellular phones and methods |
US7421486B1 (en) | 2000-04-05 | 2008-09-02 | Microsoft Corporation | Context translation methods and systems |
US7096029B1 (en) * | 2000-04-05 | 2006-08-22 | Microsoft Corporation | Context aware computing devices having a common interface and related methods |
JP3833486B2 (ja) * | 2000-04-19 | 2006-10-11 | 富士写真フイルム株式会社 | 撮像装置 |
DE10027136C2 (de) * | 2000-05-31 | 2002-11-21 | Luigi Grasso | Mobiles System zur Erzeugung eines virtuellen Displays |
US6970189B1 (en) | 2000-05-31 | 2005-11-29 | Ipac Acquisition Subsidiary I, Llc | Method and system for automatically configuring a hand-held camera using wireless communication to improve image quality |
DE10028713B4 (de) * | 2000-06-08 | 2010-11-25 | Art+Com Ag | Visualisierungsvorrichtung und -verfahren |
US7812856B2 (en) | 2000-10-26 | 2010-10-12 | Front Row Technologies, Llc | Providing multiple perspectives of a venue activity to electronic wireless hand held devices |
US7630721B2 (en) | 2000-06-27 | 2009-12-08 | Ortiz & Associates Consulting, Llc | Systems, methods and apparatuses for brokering data between wireless devices and data rendering devices |
JP2002014683A (ja) * | 2000-06-28 | 2002-01-18 | Pioneer Electronic Corp | 記録媒体並びにその記録データ作成装置及びデータ復元装置 |
US6903707B2 (en) * | 2000-08-09 | 2005-06-07 | Information Decision Technologies, Llc | Method for using a motorized camera mount for tracking in augmented reality |
WO2002017225A2 (de) * | 2000-08-22 | 2002-02-28 | Siemens Aktiengesellschaft | System und verfahren zur automatischen datenaufbereitung insbesondere im umfeld produktion, montage, service oder wartung |
ES2241862T3 (es) * | 2000-08-22 | 2005-11-01 | Siemens Aktiengesellschaft | Sistema y procedimiento para la creacion de protocolos relacionados con el contexto en el entorno de la produccion, montaje, servicio o mantenimiento. |
US20020080279A1 (en) * | 2000-08-29 | 2002-06-27 | Sidney Wang | Enhancing live sports broadcasting with synthetic camera views |
US6470251B1 (en) | 2000-08-31 | 2002-10-22 | Trimble Navigation Limited | Light detector for multi-axis position control |
JP2002092012A (ja) * | 2000-09-19 | 2002-03-29 | Olympus Optical Co Ltd | 特定地域内情報表示システム |
US6895126B2 (en) | 2000-10-06 | 2005-05-17 | Enrico Di Bernardo | System and method for creating, storing, and utilizing composite images of a geographic location |
US7101988B2 (en) * | 2000-10-12 | 2006-09-05 | Marical, Inc. | Polyvalent cation-sensing receptor in Atlantic salmon |
JP2002132806A (ja) * | 2000-10-18 | 2002-05-10 | Fujitsu Ltd | サーバシステム及び情報提供サービスシステム並びに情報提供サービス方法 |
US7680324B2 (en) | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US9310892B2 (en) | 2000-11-06 | 2016-04-12 | Nant Holdings Ip, Llc | Object information derived from object images |
US8218873B2 (en) * | 2000-11-06 | 2012-07-10 | Nant Holdings Ip, Llc | Object information derived from object images |
US20120154438A1 (en) * | 2000-11-06 | 2012-06-21 | Nant Holdings Ip, Llc | Interactivity Via Mobile Image Recognition |
US8224078B2 (en) | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
US7899243B2 (en) | 2000-11-06 | 2011-03-01 | Evryx Technologies, Inc. | Image capture and identification system and process |
US7565008B2 (en) | 2000-11-06 | 2009-07-21 | Evryx Technologies, Inc. | Data capture and identification system and process |
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US6358164B1 (en) * | 2000-11-08 | 2002-03-19 | Joseph S. Bracewell | Strike zone indicator measurement device |
US7072956B2 (en) * | 2000-12-22 | 2006-07-04 | Microsoft Corporation | Methods and systems for context-aware policy determination and enforcement |
US6944679B2 (en) | 2000-12-22 | 2005-09-13 | Microsoft Corp. | Context-aware systems and methods, location-aware systems and methods, context-aware vehicles and methods of operating the same, and location-aware vehicles and methods of operating the same |
US7493565B2 (en) | 2000-12-22 | 2009-02-17 | Microsoft Corporation | Environment-interactive context-aware devices and methods |
US7148815B2 (en) * | 2000-12-22 | 2006-12-12 | Byron Scott Derringer | Apparatus and method for detecting objects located on an airport runway |
US7174305B2 (en) | 2001-01-23 | 2007-02-06 | Opentv, Inc. | Method and system for scheduling online targeted content delivery |
US7031875B2 (en) | 2001-01-24 | 2006-04-18 | Geo Vector Corporation | Pointing systems for addressing objects |
EP1227301A1 (de) * | 2001-01-29 | 2002-07-31 | Siemens Aktiengesellschaft | Positionsbestimmung mit Handyunterstützung |
JP2002229991A (ja) | 2001-01-31 | 2002-08-16 | Fujitsu Ltd | サーバ,ユーザ端末,情報提供サービスシステムおよび情報提供サービス方法 |
JP2002229992A (ja) * | 2001-01-31 | 2002-08-16 | Fujitsu Ltd | 空間情報サービス用のサーバ装置および空間情報サービスの提供方法並びに空間情報サービス用の課金処理装置および課金方法 |
US6765569B2 (en) | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
JP4649050B2 (ja) * | 2001-03-13 | 2011-03-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び制御プログラム |
JP4878083B2 (ja) * | 2001-03-13 | 2012-02-15 | キヤノン株式会社 | 画像合成装置及び方法、プログラム |
US8117313B2 (en) * | 2001-03-19 | 2012-02-14 | International Business Machines Corporation | System and method for adaptive formatting of image information for efficient delivery and presentation |
US20020143790A1 (en) * | 2001-03-29 | 2002-10-03 | Qian Richard J. | Method and apparatus for automatic generation and management of sporting statistics |
US6834249B2 (en) | 2001-03-29 | 2004-12-21 | Arraycomm, Inc. | Method and apparatus for controlling a computing system |
JP2004534963A (ja) * | 2001-03-30 | 2004-11-18 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 強化現実のための方法、システム及び装置 |
US20020152127A1 (en) * | 2001-04-12 | 2002-10-17 | International Business Machines Corporation | Tightly-coupled online representations for geographically-centered shopping complexes |
JP4672190B2 (ja) * | 2001-04-26 | 2011-04-20 | 三菱電機株式会社 | 映像ナビゲーション装置 |
US6810141B2 (en) * | 2001-05-04 | 2004-10-26 | Photon-X, Inc. | Method for processing spatial-phase characteristics of electromagnetic energy and information conveyed therein |
US20020180866A1 (en) * | 2001-05-29 | 2002-12-05 | Monroe David A. | Modular sensor array |
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
US7508946B2 (en) | 2001-06-27 | 2009-03-24 | Sony Corporation | Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus |
US6903752B2 (en) * | 2001-07-16 | 2005-06-07 | Information Decision Technologies, Llc | Method to view unseen atmospheric phenomenon using augmented reality |
US7213046B2 (en) * | 2001-07-31 | 2007-05-01 | International Business Machines Corporation | System and method for providing efficient and secure data exchange using strip information elements |
US7143129B2 (en) * | 2001-07-31 | 2006-11-28 | International Business Machines Corporation | System and method for distributing proximity information using a two-tiered bootstrap process |
US8267767B2 (en) | 2001-08-09 | 2012-09-18 | Igt | 3-D reels and 3-D wheels in a gaming machine |
US6990681B2 (en) * | 2001-08-09 | 2006-01-24 | Sony Corporation | Enhancing broadcast of an event with synthetic scene using a depth map |
US7909696B2 (en) * | 2001-08-09 | 2011-03-22 | Igt | Game interaction in 3-D gaming environments |
US7901289B2 (en) * | 2001-08-09 | 2011-03-08 | Igt | Transparent objects on a gaming machine |
US7367885B2 (en) * | 2001-08-09 | 2008-05-06 | Igt | 3-D text in a gaming machine |
US6887157B2 (en) * | 2001-08-09 | 2005-05-03 | Igt | Virtual cameras and 3-D gaming environments in a gaming machine |
US8002623B2 (en) * | 2001-08-09 | 2011-08-23 | Igt | Methods and devices for displaying multiple game elements |
US7339609B2 (en) * | 2001-08-10 | 2008-03-04 | Sony Corporation | System and method for enhancing real-time data feeds |
US20030030658A1 (en) * | 2001-08-10 | 2003-02-13 | Simon Gibbs | System and method for mixed reality broadcast |
US7091989B2 (en) * | 2001-08-10 | 2006-08-15 | Sony Corporation | System and method for data assisted chroma-keying |
US7173672B2 (en) * | 2001-08-10 | 2007-02-06 | Sony Corporation | System and method for transitioning between real images and virtual images |
US20030040943A1 (en) * | 2001-08-22 | 2003-02-27 | International Business Machines Corporation | System and method for selecting arena seat locations for display |
US6940538B2 (en) * | 2001-08-29 | 2005-09-06 | Sony Corporation | Extracting a depth map from known camera and model tracking data |
US7194148B2 (en) * | 2001-09-07 | 2007-03-20 | Yavitz Edward Q | Technique for providing simulated vision |
JP3805231B2 (ja) * | 2001-10-26 | 2006-08-02 | キヤノン株式会社 | 画像表示装置及びその方法並びに記憶媒体 |
US6987877B2 (en) * | 2001-10-30 | 2006-01-17 | Itt Manufacturing Enterprises, Inc. | Superimposing graphic representations of ground locations onto ground location images after detection of failures |
DE10156832B4 (de) * | 2001-11-20 | 2004-01-29 | Siemens Ag | Verfahren und Vorrichtung zur Anzeige von Informationen |
US20030095681A1 (en) * | 2001-11-21 | 2003-05-22 | Bernard Burg | Context-aware imaging device |
GB0129793D0 (en) * | 2001-12-13 | 2002-01-30 | Koninkl Philips Electronics Nv | Real time authoring |
US7341530B2 (en) * | 2002-01-09 | 2008-03-11 | Sportvision, Inc. | Virtual strike zone |
JP2003215494A (ja) * | 2002-01-22 | 2003-07-30 | Canon Inc | 複合現実感提示装置および画像処理方法 |
US6759979B2 (en) * | 2002-01-22 | 2004-07-06 | E-Businesscontrols Corp. | GPS-enhanced system and method for automatically capturing and co-registering virtual models of a site |
JP2003241112A (ja) * | 2002-02-14 | 2003-08-27 | Pentax Corp | 撮影機能付双眼鏡 |
FR2836215B1 (fr) * | 2002-02-21 | 2004-11-05 | Yodea | Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet |
US20030187820A1 (en) | 2002-03-29 | 2003-10-02 | Michael Kohut | Media management system and process |
US6917370B2 (en) * | 2002-05-13 | 2005-07-12 | Charles Benton | Interacting augmented reality and virtual reality |
US7256818B2 (en) * | 2002-05-20 | 2007-08-14 | Simmonds Precision Products, Inc. | Detecting fire using cameras |
US7245315B2 (en) * | 2002-05-20 | 2007-07-17 | Simmonds Precision Products, Inc. | Distinguishing between fire and non-fire conditions using cameras |
US7280696B2 (en) * | 2002-05-20 | 2007-10-09 | Simmonds Precision Products, Inc. | Video detection/verification system |
US8046787B2 (en) * | 2002-05-31 | 2011-10-25 | Opentv, Inc. | Method and system for the storage, viewing management, and delivery of targeted advertising |
US20040073557A1 (en) * | 2002-06-14 | 2004-04-15 | Piccionelli Gregory A. | Method for obtaining information associated with item at specific location |
US7918730B2 (en) | 2002-06-27 | 2011-04-05 | Igt | Trajectory-based 3-D games of chance for video gaming machines |
US7138963B2 (en) * | 2002-07-18 | 2006-11-21 | Metamersion, Llc | Method for automatically tracking objects in augmented reality |
US7042421B2 (en) * | 2002-07-18 | 2006-05-09 | Information Decision Technologies, Llc. | Method for advanced imaging in augmented reality |
US7883415B2 (en) | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US7102615B2 (en) * | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US9474968B2 (en) | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US7391409B2 (en) * | 2002-07-27 | 2008-06-24 | Sony Computer Entertainment America Inc. | Method and system for applying gearing effects to multi-channel mixed input |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US8686939B2 (en) * | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US9682319B2 (en) * | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US6782238B2 (en) * | 2002-08-06 | 2004-08-24 | Hewlett-Packard Development Company, L.P. | Method for presenting media on an electronic device |
US20040027365A1 (en) * | 2002-08-07 | 2004-02-12 | Sayers Craig P. | Controlling playback of a temporal stream with a user interface device |
DE10237952B4 (de) * | 2002-08-20 | 2005-12-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Gerät zur Betrachtung der Umgebung |
US7002551B2 (en) * | 2002-09-25 | 2006-02-21 | Hrl Laboratories, Llc | Optical see-through augmented reality modified-scale display |
US20070035562A1 (en) * | 2002-09-25 | 2007-02-15 | Azuma Ronald T | Method and apparatus for image enhancement |
US20040068758A1 (en) * | 2002-10-02 | 2004-04-08 | Mike Daily | Dynamic video annotation |
US20040066391A1 (en) * | 2002-10-02 | 2004-04-08 | Mike Daily | Method and apparatus for static image enhancement |
AU2003275466A1 (en) * | 2002-10-07 | 2004-05-04 | Immersion Entertainment, Llc | System and method for providing event spectators with audio/video signals pertaining to remote events |
US8458028B2 (en) * | 2002-10-16 | 2013-06-04 | Barbaro Technologies | System and method for integrating business-related content into an electronic game |
US7643054B2 (en) * | 2002-12-09 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Directed guidance of viewing devices |
DE10259123B3 (de) * | 2002-12-18 | 2004-09-09 | Dräger Safety AG & Co. KGaA | Vorrichtung und Verfahren zur Überwachung des Einsatzes von Atemschutz-Geräteträgern |
SE0203908D0 (sv) * | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
US7515156B2 (en) * | 2003-01-08 | 2009-04-07 | Hrl Laboratories, Llc | Method and apparatus for parallel speculative rendering of synthetic images |
FR2851678B1 (fr) * | 2003-02-26 | 2005-08-19 | Ludovic Oger | Procede de realisation d'images de synthese pour faciliter l'examen de plusieurs projets d'architectes en concours. |
US20040219961A1 (en) * | 2003-04-08 | 2004-11-04 | Ellenby Thomas William | Computer games having variable execution dependence with respect to spatial properties of a mobile unit. |
US8072470B2 (en) | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
US7391424B2 (en) * | 2003-08-15 | 2008-06-24 | Werner Gerhard Lonsing | Method and apparatus for producing composite images which contain virtual objects |
US20050046706A1 (en) * | 2003-08-28 | 2005-03-03 | Robert Sesek | Image data capture method and apparatus |
US9573056B2 (en) * | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US8323106B2 (en) * | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US10279254B2 (en) * | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US8294712B2 (en) * | 2003-09-19 | 2012-10-23 | The Boeing Company | Scalable method for rapidly detecting potential ground vehicle under cover using visualization of total occlusion footprint in point cloud population |
JP4401728B2 (ja) * | 2003-09-30 | 2010-01-20 | キヤノン株式会社 | 複合現実空間画像生成方法及び複合現実感システム |
DE10345743A1 (de) * | 2003-10-01 | 2005-05-04 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung |
US7593687B2 (en) * | 2003-10-07 | 2009-09-22 | Immersion Entertainment, Llc | System and method for providing event spectators with audio/video signals pertaining to remote events |
WO2005045729A1 (de) * | 2003-11-10 | 2005-05-19 | Siemens Aktiengesellschaft | System und verfahren zur durchführung und visualisierung von simulationen in einer erweiterten realität |
US7755608B2 (en) * | 2004-01-23 | 2010-07-13 | Hewlett-Packard Development Company, L.P. | Systems and methods of interfacing with a machine |
JP4364002B2 (ja) * | 2004-02-06 | 2009-11-11 | オリンパス株式会社 | 頭部装着型カメラ及び頭部装着型カメラによる撮影方法 |
US8159337B2 (en) * | 2004-02-23 | 2012-04-17 | At&T Intellectual Property I, L.P. | Systems and methods for identification of locations |
US7567256B2 (en) * | 2004-03-31 | 2009-07-28 | Harris Corporation | Method and apparatus for analyzing digital video using multi-format display |
US7197829B2 (en) * | 2004-05-04 | 2007-04-03 | Acres John F | Laser guided celestial identification device |
US20050250085A1 (en) * | 2004-05-07 | 2005-11-10 | Yamcon, Inc. | Viewing and display apparatus |
US20050280705A1 (en) * | 2004-05-20 | 2005-12-22 | Immersion Entertainment | Portable receiver device |
EP1763756A4 (de) * | 2004-05-21 | 2009-05-06 | Pressco Tech Inc | Grafische benutzerschnittstelle mit nachprüfungskonfiguration |
CA2569209C (en) * | 2004-06-02 | 2014-07-29 | Athena Technologies, Inc. | Image-augmented inertial navigation system (iains) and method |
US7010862B2 (en) * | 2004-06-04 | 2006-03-14 | Yamcon, Inc. | Viewing and display apparatus position determination algorithms |
US7460953B2 (en) * | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
US8751156B2 (en) | 2004-06-30 | 2014-06-10 | HERE North America LLC | Method of operating a navigation system using images |
US7456847B2 (en) * | 2004-08-12 | 2008-11-25 | Russell Steven Krajec | Video with map overlay |
US8547401B2 (en) | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
US8312132B2 (en) * | 2004-08-20 | 2012-11-13 | Core Wireless Licensing S.A.R.L. | Context data in UPNP service information |
WO2006030613A1 (ja) * | 2004-09-15 | 2006-03-23 | Pioneer Corporation | 映像表示システムおよび映像表示方法 |
US7557775B2 (en) * | 2004-09-30 | 2009-07-07 | The Boeing Company | Method and apparatus for evoking perceptions of affordances in virtual environments |
US20060079973A1 (en) * | 2004-10-07 | 2006-04-13 | Bacharach Mel L | Handheld roster device and method |
IL164650A0 (en) * | 2004-10-18 | 2005-12-18 | Odf Optronics Ltd | An application for the extraction and modeling of skyline for and stabilization the purpese of orientation |
US20060082872A1 (en) * | 2004-10-20 | 2006-04-20 | Acres John F | Apparatus for making celestial observations |
US8585476B2 (en) | 2004-11-16 | 2013-11-19 | Jeffrey D Mullen | Location-based games and augmented reality systems |
WO2006056622A1 (es) * | 2004-11-19 | 2006-06-01 | Daem Interactive, Sl | Dispositivo personal con funciones de adquirir imágenes, para aplicación de recursos de realidad aumentada y método |
FR2879300A1 (fr) * | 2004-12-10 | 2006-06-16 | Vincent Piraud | Appareil binoculaire permettant de fournir automatiquement des informations relatives a un panorama |
US20060170760A1 (en) * | 2005-01-31 | 2006-08-03 | Collegiate Systems, Llc | Method and apparatus for managing and distributing audio/video content |
US20060176242A1 (en) * | 2005-02-08 | 2006-08-10 | Blue Belt Technologies, Inc. | Augmented reality device and method |
US20060190812A1 (en) * | 2005-02-22 | 2006-08-24 | Geovector Corporation | Imaging systems including hyperlink associations |
US7451041B2 (en) | 2005-05-06 | 2008-11-11 | Facet Technology Corporation | Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route |
HUP0500483A2 (en) * | 2005-05-12 | 2006-12-28 | Mta Sztaki Szamitastechnikai E | Method and equipment for matching virtual images to the real environment |
US20060262140A1 (en) * | 2005-05-18 | 2006-11-23 | Kujawa Gregory A | Method and apparatus to facilitate visual augmentation of perceived reality |
US20060293837A1 (en) * | 2005-06-02 | 2006-12-28 | Bennett James R | Photograph with map |
AU2005332711B2 (en) * | 2005-06-06 | 2010-12-02 | Tomtom Navigation B.V. | Navigation device with camera-info |
US8423292B2 (en) | 2008-08-19 | 2013-04-16 | Tomtom International B.V. | Navigation device with camera-info |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
DE102005029230A1 (de) * | 2005-06-23 | 2007-01-04 | Carl Zeiss Ag | Anzeigevorrichtung und -verfahren |
GB2428102A (en) * | 2005-07-06 | 2007-01-17 | David Smith | Viewing device |
IL169934A (en) * | 2005-07-27 | 2013-02-28 | Rafael Advanced Defense Sys | Real-time geographic information system and method |
CA2621191C (en) | 2005-08-29 | 2012-12-18 | Evryx Technologies, Inc. | Interactivity via mobile image recognition |
JP4785662B2 (ja) * | 2005-10-03 | 2011-10-05 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US7840032B2 (en) * | 2005-10-04 | 2010-11-23 | Microsoft Corporation | Street-side maps and paths |
WO2007053116A1 (en) * | 2005-10-31 | 2007-05-10 | National University Of Singapore | Virtual interface system |
US20070117078A1 (en) * | 2005-11-23 | 2007-05-24 | Trex Enterprises Corp | Celestial compass |
US20070136026A1 (en) * | 2005-11-28 | 2007-06-14 | Farheap Solutions Inc. | GPS-Guided Visual Display |
US7873490B2 (en) * | 2005-12-28 | 2011-01-18 | Solmetric Corporation | Solar access measurement device |
US9697644B2 (en) | 2005-12-28 | 2017-07-04 | Solmetric Corporation | Methods for solar access measurement |
KR101309176B1 (ko) * | 2006-01-18 | 2013-09-23 | 삼성전자주식회사 | 증강 현실 장치 및 방법 |
DE102006007283B4 (de) * | 2006-02-16 | 2018-05-03 | Airbus Operations Gmbh | Landmarken-Informationssystem in einem Flugzeug |
JP4847184B2 (ja) * | 2006-04-06 | 2011-12-28 | キヤノン株式会社 | 画像処理装置及びその制御方法、プログラム |
US20070265075A1 (en) * | 2006-05-10 | 2007-11-15 | Sony Computer Entertainment America Inc. | Attachable structure for use with hand-held controller having tracking ability |
FI20060470A0 (fi) * | 2006-05-12 | 2006-05-12 | Nokia Corp | Orientaatioperusteinen viestinhaku |
IL175835A0 (en) * | 2006-05-22 | 2007-07-04 | Rafael Armament Dev Authority | Methods and systems for communicating and displaying points-of-interest |
JP5521226B2 (ja) * | 2006-05-25 | 2014-06-11 | 富士フイルム株式会社 | 表示システム、表示方法、および表示プログラム |
US7477367B2 (en) * | 2006-06-07 | 2009-01-13 | Yamcon, Inc. | Celestial object identification device |
DE102006033147A1 (de) * | 2006-07-18 | 2008-01-24 | Robert Bosch Gmbh | Überwachungskamera, Verfahren zur Kalibrierung der Überwachungskamera sowie Verwendung der Überwachungskamera |
US8085990B2 (en) * | 2006-07-28 | 2011-12-27 | Microsoft Corporation | Hybrid maps with embedded street-side images |
US20080043020A1 (en) * | 2006-08-18 | 2008-02-21 | Microsoft Corporation | User interface for viewing street side imagery |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
US8471906B2 (en) * | 2006-11-24 | 2013-06-25 | Trex Enterprises Corp | Miniature celestial direction detection system |
US20120116711A1 (en) * | 2007-09-13 | 2012-05-10 | Trex Enterprises Corp. | Portable celestial compass |
KR101039186B1 (ko) | 2006-12-05 | 2011-06-03 | 가부시키가이샤 나비타이무쟈판 | 내비게이션 시스템, 휴대 단말 장치 및 주변 화상 표시 방법 |
US20080147325A1 (en) * | 2006-12-18 | 2008-06-19 | Maassel Paul W | Method and system for providing augmented reality |
US20080168492A1 (en) * | 2007-01-05 | 2008-07-10 | Meade Instruments Corp. | Celestial Viewing System With Video Display |
FR2911463B1 (fr) * | 2007-01-12 | 2009-10-30 | Total Immersion Sa | Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif |
DE102007001949A1 (de) * | 2007-01-13 | 2008-07-17 | Schuster, Werner, Dr. Dipl.-Ing. | NAV-OR-Kamera(NA Vigations-und-Orientierungs-Kamera |
US8335345B2 (en) | 2007-03-05 | 2012-12-18 | Sportvision, Inc. | Tracking an object with multiple asynchronous cameras |
JP5162928B2 (ja) * | 2007-03-12 | 2013-03-13 | ソニー株式会社 | 画像処理装置、画像処理方法、画像処理システム |
US8060304B2 (en) | 2007-04-04 | 2011-11-15 | Certusview Technologies, Llc | Marking system and method |
US7640105B2 (en) | 2007-03-13 | 2009-12-29 | Certus View Technologies, LLC | Marking system and method with location and/or time tracking |
US20080231763A1 (en) * | 2007-03-21 | 2008-09-25 | Texas Instruments Incorporated | System and method for displaying and capturing images |
US8102420B2 (en) * | 2007-03-24 | 2012-01-24 | Yan Yuejun | Portable digital photographing system combining position navigation information and image information |
US8384710B2 (en) * | 2007-06-07 | 2013-02-26 | Igt | Displaying and using 3D graphics on multiple displays provided for gaming environments |
US8994851B2 (en) * | 2007-08-07 | 2015-03-31 | Qualcomm Incorporated | Displaying image data and geographic element data |
US9329052B2 (en) * | 2007-08-07 | 2016-05-03 | Qualcomm Incorporated | Displaying image data and geographic element data |
US20090094188A1 (en) * | 2007-10-03 | 2009-04-09 | Edward Covannon | Facilitating identification of an object recorded in digital content records |
US8073198B2 (en) * | 2007-10-26 | 2011-12-06 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger framing |
JP4989417B2 (ja) | 2007-10-26 | 2012-08-01 | キヤノン株式会社 | 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム |
US7885145B2 (en) * | 2007-10-26 | 2011-02-08 | Samsung Electronics Co. Ltd. | System and method for selection of an object of interest during physical browsing by finger pointing and snapping |
JP5044817B2 (ja) | 2007-11-22 | 2012-10-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 仮想空間を構築するための画像処理方法、装置 |
US9013505B1 (en) | 2007-11-27 | 2015-04-21 | Sprint Communications Company L.P. | Mobile system representing virtual objects on live camera image |
US8542907B2 (en) * | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
US9582937B2 (en) * | 2008-01-02 | 2017-02-28 | Nokia Technologies Oy | Method, apparatus and computer program product for displaying an indication of an object within a current field of view |
US8239132B2 (en) * | 2008-01-22 | 2012-08-07 | Maran Ma | Systems, apparatus and methods for delivery of location-oriented information |
DE102008008502B4 (de) * | 2008-02-11 | 2014-08-14 | Siemens Aktiengesellschaft | Anordnung zur Ansteuerung einer Antennenanordnung bei einem Magnetresonanzgerät |
US8270666B2 (en) | 2008-02-12 | 2012-09-18 | Certusview Technologies, Llc | Searchable electronic records of underground facility locate marking operations |
US8280117B2 (en) * | 2008-03-18 | 2012-10-02 | Certusview Technologies, Llc | Virtual white lines for indicating planned excavation sites on electronic images |
CA2707246C (en) | 2009-07-07 | 2015-12-29 | Certusview Technologies, Llc | Automatic assessment of a productivity and/or a competence of a locate technician with respect to a locate and marking operation |
US8672225B2 (en) | 2012-01-31 | 2014-03-18 | Ncr Corporation | Convertible barcode reader |
US8532342B2 (en) | 2008-02-12 | 2013-09-10 | Certusview Technologies, Llc | Electronic manifest of underground facility locate marks |
US8249306B2 (en) * | 2008-03-18 | 2012-08-21 | Certusview Technologies, Llc | Virtual white lines for delimiting planned excavation sites |
KR101335346B1 (ko) * | 2008-02-27 | 2013-12-05 | 소니 컴퓨터 엔터테인먼트 유럽 리미티드 | 장면의 심도 데이터를 포착하고, 컴퓨터 액션을 적용하기 위한 방법들 |
GB0804274D0 (en) | 2008-03-07 | 2008-04-16 | Virtually Live Ltd | A media sysyem and method |
US9576330B2 (en) | 2008-03-07 | 2017-02-21 | Virtually Live (Switzerland) Gmbh | Media system and method |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
DE102008023439B4 (de) | 2008-05-14 | 2011-02-17 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
US20090289955A1 (en) * | 2008-05-22 | 2009-11-26 | Yahoo! Inc. | Reality overlay device |
US8711176B2 (en) | 2008-05-22 | 2014-04-29 | Yahoo! Inc. | Virtual billboards |
US8531462B1 (en) * | 2008-06-09 | 2013-09-10 | EyezOnBaseball, LLC | Interactive scorekeeping and animation generation |
US8620587B2 (en) | 2008-10-02 | 2013-12-31 | Certusview Technologies, Llc | Methods, apparatus, and systems for generating electronic records of locate and marking operations, and combined locate and marking apparatus for same |
US8280631B2 (en) | 2008-10-02 | 2012-10-02 | Certusview Technologies, Llc | Methods and apparatus for generating an electronic record of a marking operation based on marking device actuations |
US8265817B2 (en) | 2008-07-10 | 2012-09-11 | Lockheed Martin Corporation | Inertial measurement with an imaging sensor and a digitized map |
US20100045701A1 (en) * | 2008-08-22 | 2010-02-25 | Cybernet Systems Corporation | Automatic mapping of augmented reality fiducials |
US8476906B2 (en) | 2008-10-02 | 2013-07-02 | Certusview Technologies, Llc | Methods and apparatus for generating electronic records of locate operations |
US8442766B2 (en) | 2008-10-02 | 2013-05-14 | Certusview Technologies, Llc | Marking apparatus having enhanced features for underground facility marking operations, and associated methods and systems |
US8065082B2 (en) * | 2008-11-14 | 2011-11-22 | Honeywell International Inc. | Display systems with enhanced symbology |
US20100287500A1 (en) * | 2008-11-18 | 2010-11-11 | Honeywell International Inc. | Method and system for displaying conformal symbology on a see-through display |
US8817092B2 (en) * | 2008-11-25 | 2014-08-26 | Stuart Leslie Wilkinson | Method and apparatus for generating and viewing combined images |
US8961313B2 (en) * | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
US9204050B2 (en) | 2008-12-25 | 2015-12-01 | Panasonic Intellectual Property Management Co., Ltd. | Information displaying apparatus and information displaying method |
WO2010088290A1 (en) * | 2009-01-27 | 2010-08-05 | Arthur Thomas D | Tight optical intergation (toi) of images with gps range measurements |
US8902251B2 (en) | 2009-02-10 | 2014-12-02 | Certusview Technologies, Llc | Methods, apparatus and systems for generating limited access files for searchable electronic records of underground facility locate and/or marking operations |
US8572193B2 (en) | 2009-02-10 | 2013-10-29 | Certusview Technologies, Llc | Methods, apparatus, and systems for providing an enhanced positive response in underground facility locate and marking operations |
US8566737B2 (en) | 2009-02-11 | 2013-10-22 | Certusview Technologies, Llc | Virtual white lines (VWL) application for indicating an area of planned excavation |
CA2691780C (en) | 2009-02-11 | 2015-09-22 | Certusview Technologies, Llc | Management system, and associated methods and apparatus, for providing automatic assesment of a locate operation |
US8296308B2 (en) | 2009-02-11 | 2012-10-23 | Certusview Technologies, Llc | Methods and apparatus for associating a virtual white line (VWL) image with corresponding ticket information for an excavation project |
US20100208033A1 (en) * | 2009-02-13 | 2010-08-19 | Microsoft Corporation | Personal Media Landscapes in Mixed Reality |
US8379056B2 (en) * | 2009-02-27 | 2013-02-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device and method for providing a video signal of a virtual image |
US8264377B2 (en) | 2009-03-02 | 2012-09-11 | Griffith Gregory M | Aircraft collision avoidance system |
US8264379B2 (en) * | 2009-03-10 | 2012-09-11 | Honeywell International Inc. | Methods and systems for correlating data sources for vehicle displays |
US20140240313A1 (en) * | 2009-03-19 | 2014-08-28 | Real Time Companies | Computer-aided system for 360° heads up display of safety/mission critical data |
US8527657B2 (en) * | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) * | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8839121B2 (en) * | 2009-05-06 | 2014-09-16 | Joseph Bertolami | Systems and methods for unifying coordinate systems in augmented reality applications |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
US20100309290A1 (en) * | 2009-06-08 | 2010-12-09 | Stephen Brooks Myers | System for capture and display of stereoscopic content |
US8427508B2 (en) * | 2009-06-25 | 2013-04-23 | Nokia Corporation | Method and apparatus for an augmented reality user interface |
CA2771286C (en) | 2009-08-11 | 2016-08-30 | Certusview Technologies, Llc | Locating equipment communicatively coupled to or equipped with a mobile/portable device |
US9097522B2 (en) | 2009-08-20 | 2015-08-04 | Certusview Technologies, Llc | Methods and marking devices with mechanisms for indicating and/or detecting marking material color |
CA2713282C (en) | 2009-08-20 | 2013-03-19 | Certusview Technologies, Llc | Marking device with transmitter for triangulating location during marking operations |
CA2710189C (en) | 2009-08-20 | 2012-05-08 | Certusview Technologies, Llc | Methods and apparatus for assessing marking operations based on acceleration information |
US8395547B2 (en) | 2009-08-27 | 2013-03-12 | Hewlett-Packard Development Company, L.P. | Location tracking for mobile computing device |
US8755815B2 (en) | 2010-08-31 | 2014-06-17 | Qualcomm Incorporated | Use of wireless access point ID for position determination |
US9001252B2 (en) * | 2009-11-02 | 2015-04-07 | Empire Technology Development Llc | Image matching to augment reality |
US20110102460A1 (en) * | 2009-11-04 | 2011-05-05 | Parker Jordan | Platform for widespread augmented reality and 3d mapping |
US20110115671A1 (en) * | 2009-11-17 | 2011-05-19 | Qualcomm Incorporated | Determination of elevation of mobile station |
US8494544B2 (en) * | 2009-12-03 | 2013-07-23 | Osocad Remote Limited Liability Company | Method, apparatus and computer program to perform location specific information retrieval using a gesture-controlled handheld mobile device |
US8583372B2 (en) | 2009-12-07 | 2013-11-12 | Certusview Technologies, Llc | Methods, apparatus, and systems for facilitating compliance with marking specifications for dispensing marking material |
TW201122711A (en) * | 2009-12-23 | 2011-07-01 | Altek Corp | System and method for generating an image appended with landscape information |
US8400548B2 (en) | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
CN102470721B (zh) * | 2010-01-29 | 2014-06-18 | 东海橡塑工业株式会社 | 车辆用稳定器衬套 |
KR101082285B1 (ko) * | 2010-01-29 | 2011-11-09 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
CN102906810B (zh) | 2010-02-24 | 2015-03-18 | 爱普莱克斯控股公司 | 支持视觉受损的个体的扩增的现实全景 |
US8472120B2 (en) | 2010-02-28 | 2013-06-25 | Osterhout Group, Inc. | See-through near-eye display glasses with a small scale image source |
US8488246B2 (en) | 2010-02-28 | 2013-07-16 | Osterhout Group, Inc. | See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film |
US20150309316A1 (en) | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
US8467133B2 (en) | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US9182596B2 (en) | 2010-02-28 | 2015-11-10 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light |
US9129295B2 (en) | 2010-02-28 | 2015-09-08 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear |
US9285589B2 (en) | 2010-02-28 | 2016-03-15 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered control of AR eyepiece applications |
US20120212484A1 (en) * | 2010-02-28 | 2012-08-23 | Osterhout Group, Inc. | System and method for display content placement using distance and location information |
US9223134B2 (en) | 2010-02-28 | 2015-12-29 | Microsoft Technology Licensing, Llc | Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9097891B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment |
US10180572B2 (en) | 2010-02-28 | 2019-01-15 | Microsoft Technology Licensing, Llc | AR glasses with event and user action control of external applications |
US9229227B2 (en) | 2010-02-28 | 2016-01-05 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
US9097890B2 (en) | 2010-02-28 | 2015-08-04 | Microsoft Technology Licensing, Llc | Grating in a light transmissive illumination system for see-through near-eye display glasses |
US9759917B2 (en) | 2010-02-28 | 2017-09-12 | Microsoft Technology Licensing, Llc | AR glasses with event and sensor triggered AR eyepiece interface to external devices |
US9341843B2 (en) | 2010-02-28 | 2016-05-17 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a small scale image source |
US9091851B2 (en) | 2010-02-28 | 2015-07-28 | Microsoft Technology Licensing, Llc | Light control in head mounted displays |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
US9134534B2 (en) | 2010-02-28 | 2015-09-15 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses including a modular image source |
JP2013521576A (ja) | 2010-02-28 | 2013-06-10 | オスターハウト グループ インコーポレイテッド | 対話式ヘッド取付け型アイピース上での地域広告コンテンツ |
US9128281B2 (en) | 2010-09-14 | 2015-09-08 | Microsoft Technology Licensing, Llc | Eyepiece with uniformly illuminated reflective display |
US8482859B2 (en) | 2010-02-28 | 2013-07-09 | Osterhout Group, Inc. | See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
DE102010010951A1 (de) * | 2010-03-10 | 2011-09-15 | Astrium Gmbh | Informationswiedergabegerät |
JP4922436B2 (ja) * | 2010-06-07 | 2012-04-25 | 株式会社エヌ・ティ・ティ・ドコモ | オブジェクト表示装置及びオブジェクト表示方法 |
US9781170B2 (en) | 2010-06-15 | 2017-10-03 | Live Nation Entertainment, Inc. | Establishing communication links using routing protocols |
WO2011159811A2 (en) | 2010-06-15 | 2011-12-22 | Ticketmaster, Llc | Methods and systems for computer aided event and venue setup and modeling and interactive maps |
US10096161B2 (en) | 2010-06-15 | 2018-10-09 | Live Nation Entertainment, Inc. | Generating augmented reality images using sensor and location data |
US8762041B2 (en) | 2010-06-21 | 2014-06-24 | Blackberry Limited | Method, device and system for presenting navigational information |
KR20120004669A (ko) * | 2010-07-07 | 2012-01-13 | 삼성전자주식회사 | 휴대용 단말기에서 세계 시간 표시 장치 및 방법 |
CN103222319B (zh) | 2010-09-29 | 2016-08-10 | 高通股份有限公司 | 一种用于移动计算设备的方法及移动计算设备 |
IL208600A (en) | 2010-10-10 | 2016-07-31 | Rafael Advanced Defense Systems Ltd | Real-time network-based laminated reality for mobile devices |
CN103189817B (zh) | 2010-11-02 | 2016-08-24 | 日本电气株式会社 | 信息处理系统和信息处理方法 |
CN103262530B (zh) | 2010-12-15 | 2016-03-02 | 株式会社日立制作所 | 视频监视装置 |
US9007463B2 (en) * | 2010-12-22 | 2015-04-14 | Sportsvision, Inc. | Video tracking of baseball players which identifies merged participants based on participant roles |
US8659663B2 (en) * | 2010-12-22 | 2014-02-25 | Sportvision, Inc. | Video tracking of baseball players to determine the start and end of a half-inning |
JP5838560B2 (ja) * | 2011-02-14 | 2016-01-06 | ソニー株式会社 | 画像処理装置、情報処理装置、及び撮像領域の共有判定方法 |
US9507416B2 (en) * | 2011-02-22 | 2016-11-29 | Robert Howard Kimball | Providing a corrected view based on the position of a user with respect to a mobile platform |
US8188880B1 (en) * | 2011-03-14 | 2012-05-29 | Google Inc. | Methods and devices for augmenting a field of view |
WO2012126522A1 (en) * | 2011-03-23 | 2012-09-27 | Metaio Gmbh | Method for registering at least one part of a first and second image using a collineation warping function |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
DE102011075372A1 (de) * | 2011-05-05 | 2012-11-08 | BSH Bosch und Siemens Hausgeräte GmbH | System für die erweiterte Informationsbereitstellung für Kunden in einem Verkaufsraum für Hausgeräte sowie zugehöriges Verfahren und Computerprogrammprodukt |
US9215383B2 (en) | 2011-08-05 | 2015-12-15 | Sportsvision, Inc. | System for enhancing video from a mobile camera |
WO2013058978A1 (en) | 2011-10-17 | 2013-04-25 | Kimmel Zebadiah M | Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics |
US9817017B2 (en) * | 2011-10-17 | 2017-11-14 | Atlas5D, Inc. | Method and apparatus for monitoring individuals while protecting their privacy |
US9974466B2 (en) | 2011-10-17 | 2018-05-22 | Atlas5D, Inc. | Method and apparatus for detecting change in health status |
US9965140B2 (en) | 2011-12-26 | 2018-05-08 | TrackThings LLC | Method and apparatus of a marking objects in images displayed on a portable unit |
US9026896B2 (en) | 2011-12-26 | 2015-05-05 | TrackThings LLC | Method and apparatus of physically moving a portable unit to view composite webpages of different websites |
US8532919B2 (en) * | 2011-12-26 | 2013-09-10 | TrackThings LLC | Method and apparatus of physically moving a portable unit to view an image of a stationary map |
US9597574B2 (en) | 2011-12-30 | 2017-03-21 | Nike, Inc. | Golf aid including heads up display |
US9573039B2 (en) * | 2011-12-30 | 2017-02-21 | Nike, Inc. | Golf aid including heads up display |
US8957916B1 (en) * | 2012-03-23 | 2015-02-17 | Google Inc. | Display method |
US20130328930A1 (en) * | 2012-06-06 | 2013-12-12 | Samsung Electronics Co., Ltd. | Apparatus and method for providing augmented reality service |
US20180048750A1 (en) * | 2012-06-15 | 2018-02-15 | Muzik, Llc | Audio/video wearable computer system with integrated projector |
WO2014068706A1 (ja) | 2012-10-31 | 2014-05-08 | 擴張世界有限公司 | 画像表示システム、電子機器、プログラムおよび画像表示方法 |
JP6007377B2 (ja) * | 2012-11-14 | 2016-10-12 | ピーアンドダブリューソリューションズ株式会社 | 座席レイアウト表示装置、方法及びプログラム |
KR101981964B1 (ko) | 2012-12-03 | 2019-05-24 | 삼성전자주식회사 | 증강현실을 구현하기 위한 단말 및 그 방법 |
US8918246B2 (en) | 2012-12-27 | 2014-12-23 | Caterpillar Inc. | Augmented reality implement control |
US20140184643A1 (en) * | 2012-12-27 | 2014-07-03 | Caterpillar Inc. | Augmented Reality Worksite |
US20140225917A1 (en) * | 2013-02-14 | 2014-08-14 | Geovector Corporation | Dynamic Augmented Reality Vision Systems |
US20140247281A1 (en) * | 2013-03-03 | 2014-09-04 | Geovector Corp. | Dynamic Augmented Reality Vision Systems |
US20150287224A1 (en) * | 2013-10-01 | 2015-10-08 | Technology Service Corporation | Virtual tracer methods and systems |
US9256072B2 (en) * | 2013-10-02 | 2016-02-09 | Philip Scott Lyren | Wearable electronic glasses that detect movement of a real object copies movement of a virtual object |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US20160179842A1 (en) * | 2014-12-22 | 2016-06-23 | Geovector Corp. | Computerized Search Dependant on Spatial States |
US9600993B2 (en) | 2014-01-27 | 2017-03-21 | Atlas5D, Inc. | Method and system for behavior detection |
DE102014003221A1 (de) * | 2014-03-05 | 2015-09-10 | Audi Ag | Verfahren zur maßstabskorrekten Skalierung einer Aufnahme eines Kamerasensors |
US9677840B2 (en) | 2014-03-14 | 2017-06-13 | Lineweight Llc | Augmented reality simulator |
US20150312264A1 (en) * | 2014-04-23 | 2015-10-29 | Front Row Technologies, Llc | Method, system and server for authorizing computing devices for receipt of venue-based data based on the geographic location of a user |
US9610489B2 (en) | 2014-05-30 | 2017-04-04 | Nike, Inc. | Golf aid including virtual caddy |
US9694269B2 (en) | 2014-05-30 | 2017-07-04 | Nike, Inc. | Golf aid including heads up display for green reading |
US9798299B2 (en) | 2014-06-20 | 2017-10-24 | International Business Machines Corporation | Preventing substrate penetrating devices from damaging obscured objects |
US9900748B2 (en) * | 2014-07-16 | 2018-02-20 | Sony Corporation | Consumer electronics (CE) device and related method for providing stadium services |
US9906897B2 (en) | 2014-07-16 | 2018-02-27 | Sony Corporation | Applying mesh network to pet carriers |
US10127601B2 (en) | 2014-07-16 | 2018-11-13 | Sony Corporation | Mesh network applied to fixed establishment with movable items therein |
US9361802B2 (en) | 2014-07-16 | 2016-06-07 | Sony Corporation | Vehicle ad hoc network (VANET) |
CN112862775A (zh) * | 2014-07-25 | 2021-05-28 | 柯惠Lp公司 | 增强手术现实环境 |
US9435635B1 (en) * | 2015-02-27 | 2016-09-06 | Ge Aviation Systems Llc | System and methods of detecting an intruding object in a relative navigation system |
US10013756B2 (en) | 2015-03-13 | 2018-07-03 | Atlas5D, Inc. | Methods and systems for measuring use of an assistive device for ambulation |
EP3113470B1 (de) * | 2015-07-02 | 2020-12-16 | Nokia Technologies Oy | Überlagerung visueller informationen eines geografischen orts |
IL241446B (en) * | 2015-09-10 | 2018-05-31 | Elbit Systems Ltd | Display adjustments on user screens and guiding users' attention |
USD797790S1 (en) * | 2016-03-22 | 2017-09-19 | Teletracking Technologies, Inc. | Display screen with set of graphical user interface icons |
WO2018026838A1 (en) | 2016-08-02 | 2018-02-08 | Atlas5D, Inc. | Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy |
WO2018080552A1 (en) | 2016-10-24 | 2018-05-03 | Carrington Charles C | System for generating virtual building plan data based upon stored and scanned building data and related methods |
JP6874448B2 (ja) * | 2017-03-17 | 2021-05-19 | 株式会社デンソーウェーブ | 情報表示システム |
US20190004544A1 (en) * | 2017-06-29 | 2019-01-03 | Ge Aviation Systems, Llc | Method for flying at least two aircraft |
US20210128961A1 (en) | 2017-07-28 | 2021-05-06 | Idex Europe Gmbh | Control device for operating a fire extinguisher system and extinguisher nozzle |
CA3070114A1 (en) | 2017-07-28 | 2019-01-31 | Idex Europe Gmbh | Control device for operating a fire extinguisher system |
KR102496683B1 (ko) | 2017-10-11 | 2023-02-07 | 삼성디스플레이 주식회사 | 표시패널 및 이를 포함하는 표시장치 |
US10803610B2 (en) | 2018-03-06 | 2020-10-13 | At&T Intellectual Property I, L.P. | Collaborative visual enhancement devices |
US11526211B2 (en) * | 2018-05-08 | 2022-12-13 | Nevermind Capital Llc | Methods and apparatus for controlling, implementing and supporting trick play in an augmented reality device |
US20190377538A1 (en) | 2018-06-08 | 2019-12-12 | Curious Company, LLC | Information Presentation Through Ambient Sounds |
US10818088B2 (en) * | 2018-07-10 | 2020-10-27 | Curious Company, LLC | Virtual barrier objects |
US10650600B2 (en) | 2018-07-10 | 2020-05-12 | Curious Company, LLC | Virtual path display |
US10902678B2 (en) | 2018-09-06 | 2021-01-26 | Curious Company, LLC | Display of hidden information |
US11055913B2 (en) | 2018-12-04 | 2021-07-06 | Curious Company, LLC | Directional instructions in an hybrid reality system |
US10970935B2 (en) | 2018-12-21 | 2021-04-06 | Curious Company, LLC | Body pose message system |
US10872584B2 (en) | 2019-03-14 | 2020-12-22 | Curious Company, LLC | Providing positional information using beacon devices |
CN111060918B (zh) * | 2019-12-27 | 2021-10-26 | 中国有色金属长沙勘察设计研究院有限公司 | 一种基于摄影测量与激光测距的干滩监测方法 |
US20210241580A1 (en) * | 2020-02-05 | 2021-08-05 | Adrenalineip | Play by play wagering through wearable device |
US11763624B2 (en) * | 2020-09-22 | 2023-09-19 | Adrenalineip | AR VR in-play wagering system |
US12003806B2 (en) * | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
US11657578B2 (en) | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
US20220295040A1 (en) * | 2021-03-11 | 2022-09-15 | Quintar, Inc. | Augmented reality system with remote presentation including 3d graphics extending beyond frame |
US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
US11682313B2 (en) | 2021-03-17 | 2023-06-20 | Gregory M. Griffith | Sensor assembly for use in association with aircraft collision avoidance system and method of using the same |
CN114252075B (zh) * | 2021-12-09 | 2024-05-28 | 国网安徽省电力有限公司电力科学研究院 | 一种电缆沟巡检机器人的路径跟踪方法及系统 |
US11586286B1 (en) | 2022-05-18 | 2023-02-21 | Bank Of America Corporation | System and method for navigating on an augmented reality display |
US11720380B1 (en) | 2022-05-18 | 2023-08-08 | Bank Of America Corporation | System and method for updating augmented reality navigation instructions based on a detected error |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE429690B (sv) * | 1979-11-19 | 1983-09-19 | Hans Erik Ove Olofsson | Flygplansrefererad omverldsregistrering med hjelp av kamera, som medger elektronisk registrering samt dertill horande ensningsforfarande |
US4322726A (en) * | 1979-12-19 | 1982-03-30 | The Singer Company | Apparatus for providing a simulated view to hand held binoculars |
US4489389A (en) * | 1981-10-02 | 1984-12-18 | Harris Corporation | Real time video perspective digital map display |
US4545576A (en) * | 1982-01-15 | 1985-10-08 | Harris Thomas M | Baseball-strike indicator and trajectory analyzer and method of using same |
US4645459A (en) * | 1982-07-30 | 1987-02-24 | Honeywell Inc. | Computer generated synthesized imagery |
US4667190A (en) * | 1982-07-30 | 1987-05-19 | Honeywell Inc. | Two axis fast access memory |
US4661849A (en) * | 1985-06-03 | 1987-04-28 | Pictel Corporation | Method and apparatus for providing motion estimation signals for communicating image sequences |
US4682225A (en) * | 1985-09-13 | 1987-07-21 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Method and apparatus for telemetry adaptive bandwidth compression |
US4688092A (en) * | 1986-05-06 | 1987-08-18 | Ford Aerospace & Communications Corporation | Satellite camera image navigation |
US4807158A (en) * | 1986-09-30 | 1989-02-21 | Daleco/Ivex Partners, Ltd. | Method and apparatus for sampling images to simulate movement within a multidimensional space |
FR2610752B1 (fr) * | 1987-02-10 | 1989-07-21 | Sagem | Procede de representation de l'image en perspective d'un terrain et systeme pour sa mise en oeuvre |
US4937570A (en) * | 1987-02-26 | 1990-06-26 | Mitsubishi Denki Kabushiki Kaisha | Route guidance display device |
US4872051A (en) * | 1987-10-01 | 1989-10-03 | Environmental Research Institute Of Michigan | Collision avoidance alarm system |
DE3737972A1 (de) * | 1987-11-07 | 1989-05-24 | Messerschmitt Boelkow Blohm | Helm-lagedarstellungsgeraet |
JPH0695008B2 (ja) * | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
US4855822A (en) * | 1988-01-26 | 1989-08-08 | Honeywell, Inc. | Human engineered remote driving system |
US5072218A (en) * | 1988-02-24 | 1991-12-10 | Spero Robert E | Contact-analog headup display method and apparatus |
US4970666A (en) * | 1988-03-30 | 1990-11-13 | Land Development Laboratory, Inc. | Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment |
CA2001070A1 (en) * | 1988-10-24 | 1990-04-24 | Douglas B. George | Telescope operating system |
GB8826550D0 (en) * | 1988-11-14 | 1989-05-17 | Smiths Industries Plc | Image processing apparatus and methods |
NL8901695A (nl) * | 1989-07-04 | 1991-02-01 | Koninkl Philips Electronics Nv | Werkwijze voor het weergeven van navigatiegegevens voor een voertuig in een omgevingsbeeld van het voertuig, navigatiesysteem voor het uitvoeren van de werkwijze, alsmede voertuig voorzien van een navigatiesysteem. |
US5045937A (en) * | 1989-08-25 | 1991-09-03 | Space Island Products & Services, Inc. | Geographical surveying using multiple cameras to obtain split-screen images with overlaid geographical coordinates |
US5124915A (en) * | 1990-05-29 | 1992-06-23 | Arthur Krenzel | Computer-aided data collection system for assisting in analyzing critical situations |
EP0479605B1 (de) * | 1990-10-05 | 1995-09-20 | Texas Instruments Incorporated | Verfahren und Gerät zur Erzeugung einer tragbaren optischen Anzeige |
CA2060406C (en) * | 1991-04-22 | 1998-12-01 | Bruce Edward Hamilton | Helicopter virtual image display system incorporating structural outlines |
FR2675977B1 (fr) * | 1991-04-26 | 1997-09-12 | Inst Nat Audiovisuel | Procede de modelisation d'un systeme de prise de vues et procede et systeme de realisation de combinaisons d'images reelles et d'images de synthese. |
US5182641A (en) * | 1991-06-17 | 1993-01-26 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Composite video and graphics display for camera viewing systems in robotics and teleoperation |
US5333257A (en) * | 1991-08-09 | 1994-07-26 | C/A Architects, Inc. | System for displaying selected assembly-facility seating views |
GB9121707D0 (en) * | 1991-10-12 | 1991-11-27 | British Aerospace | Improvements in computer-generated imagery |
JPH05113751A (ja) * | 1991-10-22 | 1993-05-07 | Pioneer Electron Corp | ナビゲーシヨン装置 |
FR2683330B1 (fr) * | 1991-10-31 | 1994-11-25 | Thomson Csf | Jumelle informatique. |
FR2683918B1 (fr) * | 1991-11-19 | 1994-09-09 | Thomson Csf | Materiau constitutif d'une lunette de visee et arme utilisant cette lunette. |
JPH05167894A (ja) * | 1991-12-10 | 1993-07-02 | Sony Corp | Vtr一体型ビデオカメラ |
US5252950A (en) * | 1991-12-20 | 1993-10-12 | Apple Computer, Inc. | Display with rangefinder |
US5363297A (en) * | 1992-06-05 | 1994-11-08 | Larson Noble G | Automated camera-based tracking system for sports contests |
US5311203A (en) * | 1993-01-29 | 1994-05-10 | Norton M Kent | Viewing and display apparatus |
JP3045625B2 (ja) * | 1993-04-16 | 2000-05-29 | 川崎重工業株式会社 | 船舶の航行支援装置 |
GB9424273D0 (en) * | 1994-12-01 | 1995-01-18 | Wrigley Adrian M T | Improvements in and relating to image constrcution |
US5798761A (en) * | 1996-01-26 | 1998-08-25 | Silicon Graphics, Inc. | Robust mapping of 2D cursor motion onto 3D lines and planes |
-
1993
- 1993-09-10 US US08/119,360 patent/US5815411A/en not_active Expired - Fee Related
-
1994
- 1994-06-16 CA CA002171314A patent/CA2171314C/en not_active Expired - Lifetime
- 1994-06-16 KR KR1019960701210A patent/KR960705297A/ko not_active Application Discontinuation
- 1994-06-16 AT AT94923206T patent/ATE256327T1/de not_active IP Right Cessation
- 1994-06-16 EP EP94923206A patent/EP0722601B1/de not_active Expired - Lifetime
- 1994-06-16 DE DE69433405T patent/DE69433405D1/de not_active Expired - Lifetime
- 1994-06-16 CH CH01371/95A patent/CH689904A5/de not_active IP Right Cessation
- 1994-06-16 NZ NZ269318A patent/NZ269318A/en unknown
- 1994-06-16 JP JP50865695A patent/JP3700021B2/ja not_active Expired - Lifetime
- 1994-06-16 AU AU73146/94A patent/AU691508B2/en not_active Ceased
- 1994-06-16 WO PCT/US1994/006844 patent/WO1995007526A1/en active IP Right Grant
- 1994-09-14 US US08/307,360 patent/US5742521A/en not_active Expired - Fee Related
- 1994-11-08 US US08/335,912 patent/US5682332A/en not_active Expired - Lifetime
-
1995
- 1995-03-27 US US08/411,299 patent/US6307556B1/en not_active Expired - Lifetime
-
1998
- 1998-01-15 US US09/007,558 patent/US6031545A/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE202019103022U1 (de) | 2019-05-28 | 2019-06-07 | Martina Lammel | Vorrichtung zur virtuellen Darstellung einer Bildinformation |
DE202019104128U1 (de) | 2019-05-28 | 2019-08-01 | Martina Lammel | Vorrichtung zur virtuellen Darstellung einer Bildinformation |
Also Published As
Publication number | Publication date |
---|---|
AU7314694A (en) | 1995-03-27 |
CA2171314A1 (en) | 1995-03-16 |
WO1995007526A1 (en) | 1995-03-16 |
JPH09505138A (ja) | 1997-05-20 |
US5682332A (en) | 1997-10-28 |
EP0722601A4 (de) | 1998-06-10 |
US5815411A (en) | 1998-09-29 |
US5742521A (en) | 1998-04-21 |
DE69433405D1 (de) | 2004-01-22 |
AU691508B2 (en) | 1998-05-21 |
CA2171314C (en) | 2001-06-12 |
NZ269318A (en) | 1997-12-19 |
EP0722601B1 (de) | 2003-12-10 |
JP3700021B2 (ja) | 2005-09-28 |
US6307556B1 (en) | 2001-10-23 |
KR960705297A (ko) | 1996-10-09 |
EP0722601A1 (de) | 1996-07-24 |
ATE256327T1 (de) | 2003-12-15 |
US6031545A (en) | 2000-02-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CH689904A5 (de) | Elektro-optischer Apparat zur Herstellung eines Bildes. | |
US6917370B2 (en) | Interacting augmented reality and virtual reality | |
US20030210228A1 (en) | Augmented reality situational awareness system and method | |
EP2302531A1 (de) | Verfahren zur Bereitstellung einer vergrößerten Realitätsanzeige auf einer mobilen Vorrichtung | |
DE102009049849A1 (de) | Verfahren zur Bestimmung der Pose einer Kamera und zur Erkennung eines Objekts einer realen Umgebung | |
Dyce | Canada between the photograph and the map: Aerial photography, geographical vision and the state | |
WO2003060830A1 (en) | Method and system to display both visible and invisible hazards and hazard information | |
DE112019001690T5 (de) | Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Programm | |
EP3584536A1 (de) | Terrestrisches beobachtungsgerät mit lagebestimmungsfunktionalität | |
Walter et al. | Virtual UAV ground control station | |
Mifsud et al. | The effectiveness of gaze guidance lines in supporting JTAC’s attention allocation | |
DE102014107317B4 (de) | Elektronisches Periskop für ein Kraftfahrzeug | |
Bosselmann | Dynamic simulations of urban environments | |
Gruner | Many individuals contributed to the development of photogrammetry during the past several hundred years | |
DE60204692T2 (de) | Verfahren zur anzeige von karteninformationen auf einer flugzeuganzeige | |
DE19754582A1 (de) | Schiffsnavigation mit Hilfe von Hyper Reality | |
Lee | An examination of close-range photogrammetry and traditional cave survey methods for terrestrial and underwater caves for 3-dimensional mapping | |
DE102004017755A1 (de) | Verfahren zur satellitengestützten Navigation in einem realen Gelände und Anordnung hierfür | |
Aldred | The aerial imagination | |
Goerger | Spatial knowledge acquisition and transfer from virtual to natural environments for dismounted land navigation | |
Krewani | Google Earth | |
WO2019157543A1 (de) | System zur darstellung und identifikation von markern einer veränderbaren geometrischen abbildung | |
DE4423369A1 (de) | Verfahren zum Positionieren, Orientieren und Navigieren und Navigationsgerät | |
Bulatov et al. | Automatic representation of urban terrain models for simulations on the example of VBS2 | |
Ellis et al. | Head-mounted spatial instruments II: Synthetic reality or impossible dream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PL | Patent ceased |