DE60225933T2 - Tragbare virtuelle realität - Google Patents

Tragbare virtuelle realität Download PDF

Info

Publication number
DE60225933T2
DE60225933T2 DE60225933T DE60225933T DE60225933T2 DE 60225933 T2 DE60225933 T2 DE 60225933T2 DE 60225933 T DE60225933 T DE 60225933T DE 60225933 T DE60225933 T DE 60225933T DE 60225933 T2 DE60225933 T2 DE 60225933T2
Authority
DE
Germany
Prior art keywords
input video
video signal
signal stream
digital camera
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60225933T
Other languages
English (en)
Other versions
DE60225933D1 (de
Inventor
Stephen Bend JUNKINS
Fernando Hillsboro MARTINS
Jason Portland PLUMB
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE60225933D1 publication Critical patent/DE60225933D1/de
Application granted granted Critical
Publication of DE60225933T2 publication Critical patent/DE60225933T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Steroid Compounds (AREA)
  • Calculators And Similar Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft Virtual-Reality-Systeme im allgemeinen und tragbare Virtual-Reality-Systeme im besonderen.
  • HINTERGRUND
  • In Computergraphik-Entwicklungslabors sind Virtual-Reality-Systeme (VR-Systeme) bereits üblich. Diese Technik ist beim normalen Verbraucher jedoch noch nicht sehr verbreitet. Bei den meisten Virtual-Reality-Systemen werden besondere Displaysysteme wie "VR-Brillen", "VR-Helme" und "Headup-Displays" verwendet, damit das Gefühl des Eintauchens in die virtuelle Umgebung stärker wird. Ein solches Displaysystem kann ein Helm sein, der fortlaufend ein hochaufgelöstes Bild direkt vor den Augen des Benutzers anzeigt. Ein solches System weist auch in der Regel ein Hostprozessorsystem auf, das in der Lage ist, eine Hochleistungs-3D-Graphik mit interaktiven Bildraten auszugeben.
  • Der Helm kann mit einer Orts- und Orientierungsverfolgungsvorrichtung versehen sein. Solche Vorrichtungen erzeugen eine sechsdimensionale Beschreibung der angenäherten Orts- und Orientierungskoordinaten des Helmträgers im dreidimensionalen Raum. Die sechs Dimensionen werden als Position (x, y, z) und Orientierung (Azimut, Höhe, Neigung) aufgenommen. Diese Informationen werden einige zehn oder hundert Mal pro Sekunde zum Hostprozessor übertragen und dazu verwendet, die 3D-Abbildungen, die im Helm dargestellt werden, dynamisch zu aktualisieren. Das Ergebnis ist, daß, wenn der Benutzer seinen Kopf in der realen Welt bewegt, das System ein Bild anzeigt, das die Bewegung des Kopfes in der virtuellen Welt simuliert. Das System kann damit dem Benutzer das Gefühl geben, in der virtuellen Welt herumzugehen und sie dabei zu betrachten. Die Interaktion in der virtuellen Welt ist "natürlich", da sie von natürlichen Bewegungen in der physikalischen Welt ausgelöst wird.
  • Bei einer Ausführung dieser Technik wird ein Emitter für ein dreidimensionales elektromagnetisches Feld in der Decke angeordnet. Der Helm enthält einen Empfänger, der das magnetische Feld erfassen und den Ort und die Orientierung des Empfängers feststellen kann. Der Empfänger sendet diese Daten dann über eine serielle Leitung zum Hostcomputer.
  • Die gegenwärtige Virtual-Reality-Technik hat jedoch nicht nur Vorteile, sondern auch Nachteile. Zum einen sind die Einschränkungen bezüglich des Orts sehr stark, wodurch die Technik nur an sehr wenigen Orten eingesetzt werden kann. Bei einem Virtual-Reality-System ist in der Regel ein eigens dafür vorgesehener Raum für die Aufnahme des Systems und die Generatoren des elektromagnetischen Felds erforderlich. Außerdem ist für das Anzeige- und Verfolgungssystem ein Kabel mit einer bestimmten Länge erforderlich, das es mit dem Hostsystem verbindet, das die Berechnungen für die Anzeige und die Verarbeitung der Position vornimmt. Solche Systeme sind daher unvermeidlich nicht tragbar.
  • Ein anderes Problem ist, daß VR-Helme physikalisch unbequem sein können. Viele Helme sind zu schwer, um für eine längere Zeitspanne getragen zu werden. Außerdem ist die VR-Simulatorkrankheit ein häufig festgestelltes Problem. Die vorgeschlagenen Lösungen zur Vermeidung der Simulatorkrankheit geben dem Benutzer einen visuellen Hinweis auf die reale Welt (entweder durch ein überlagertes schmales Videofenster der realen Welt oder durch synthetische Objekte, die bezüglich der realen Welt verankert sind). Auch werden von den gegenwärtigen Displays die Augen des Benutzers stark beansprucht, da es erforderlich ist, die Augen lange Zeit auf eine geringe Distanz zu fokussieren. Schließlich sind viele Benutzer nicht gewillt, viel Zeit in einem starken elektromagnetischen Feld zu verbringen.
  • Nicht zuletzt werden die Träger von VR-Helmen oft auch sozial nicht angenommen. Die Träger von Helmen fühlen sich unbequem oder eigenartig, wenn sie vor anderen Leuten Headup-Displays tragen. Beim Tragen dieser Vorrichtungen können andere Leute so gut wie nicht wahrgenommen werden, wodurch die sozialen Kontakte abnehmen. Auch die Umkehrung gilt: Leute können sich unbequem fühlen, wenn sie mit Personen agieren sollen, die VR-Helme tragen.
  • Die US 6 009 210 beschreibt ein freihändig zu verwendendes Navigationssystem zum Verfolgen des Kopfes und zum entsprechenden Einstellen des Displays einer Virtual-Reality-Umgebung. Eine Kamera nimmt das Gesicht des Benutzers unter einem geneigten Winkel auf. Durch Verarbeiten des Bildes des Gesichts werden Verschiebungen des Gesichts erfaßt und die Darstellung der Virtual-Reality-Umgebung dann entsprechend modifiziert.
  • Die Druckschrift "Meteorology meets Computer gaphics – a look at a wide range of weather visualisations for diverse audiences", Computer & Graphics 24 (2000), 391–397 beschreibt die Verwendung von Computergraphiken bei der Visualisierung von meteorologischen Daten. Die Druckschrift sieht ein auf dem Kopf befestigtes Durchsicht-Display vor, das mit einem tragbaren Computer verbunden ist, der individuelle Text- und Graphikinformationen zu der nach wie vor sichtbaren Umgebung hinzufügt.
  • Mit der vorliegenden Erfindung wird unter einem ersten Gesichtspunkt ein Verfahren für ein Virtual-Reality-System geschaffen, wie es im Patentanspruch 1 beschrieben ist.
  • Mit der vorliegenden Erfindung wird unter einem zweiten Gesichtspunkt ein System geschaffen, wie es im Patentanspruch 12 beschrieben ist.
  • Mit der vorliegenden Erfindung wird unter einem dritten Gesichtspunkt ein maschinenlesbares Medium geschaffen, wie es im Patentanspruch 19 beschrieben ist.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein Übersichtsdiagramm für eine Ausführungsform der vorliegenden Erfindung auf der Systemebene.
  • 2A zeigt eine Blockdarstellung einer Ausführungsform einer erfindungsgemäßen Vorrichtung zum Berechnen einer virtuellen Szene.
  • 2B zeigt eine Blockdarstellung einer anderen Ausführungsform einer Vorrichtung zum Berechnen einer virtuellen Szene.
  • 2C zeigt eine Blockdarstellung einer weiteren Ausführungsform einer Vorrichtung zum Berechnen einer virtuellen Szene.
  • 3 ist ein Flußdiagramm für ein Verfahren, das bei einer Ausführungsform der vorliegenden Erfindung von einem Computer ausgeführt wird.
  • 4 ist ein Flußdiagramm für ein Verfahren, das bei einer alternativen Ausführungsform der vorliegenden Erfindung von einem Computer ausgeführt wird.
  • 5A bis 5D sind Flußdiagramme für Ausführungsformen von Verfahren zur Bewegungsanalyse, die bei alternativen Ausführungsformen der vorliegenden Erfindung ausgeführt werden.
  • 6 ist eine Darstellung der Operationsumgebung bei einer Ausführung der vorliegenden Erfindung.
  • 7 ist eine Darstellung eines computerlesbaren Mediums, das in einer Operationsumgebung wie der Operationsumgebung der 6 bei einer Ausführungsform der vorliegenden Erfindung verwendet werden kann.
  • GENAUE BESCHREIBUNG
  • Es wird eine tragbare virtuelle Realität beschrieben. In der folgenden Beschreibung werden zur Erläuterung viele bestimmte Details angeführt, damit die Erfindung vollständig verstanden werden kann. Dem Fachmann ist jedoch klar, daß diese bestimmten Details bei der Ausführung der vorliegenden Erfindung nicht angewendet werden müssen. In anderen Fällen sind bekannte Strukturen und Geräte in der Form einer Blockdarstellung gezeigt, damit die Beschreibung der vorliegenden Erfindung nicht unnötig kompliziert wird.
  • Eine Digitalkamera erzeugt einen Eingangs-Videosignalstrom, der Videobilder enthält, die Informationen über die vorhandene Umgebung enthalten, die vom Sichtfeld der Kamera begrenzt wird. Der Eingangs-Videosignalstrom wird von einem Handcomputer verarbeitet, der mit der Kamera verbunden ist. Die Parameter, die eine berechnete Szene einer virtuellen Umgebung definieren, werden auf der Basis von Bewegungsparametern festgelegt, die durch die Verarbeitung im Handcomputer aus dem Eingangs-Videosignalstrom extrahiert wurden. Die Ausführung der vorliegenden Erfindung ergibt ein wirklich tragbares Virtual-Reality-System (VR-System). Es ist dabei keine unförmige und unbequeme Ausrüstung erforderlich, die vom Benutzer zu tragen wäre. Auch werden damit die sozialen Barrieren beseitigt, die die gegenwärtige VR-Technik aufbaut. Schließlich sind auch die Kosten für das System gegenüber dem gegenwärtigen System erheblich geringer.
  • Die 1 zeigt ein Übersichtsdiagramm für eine Ausführungsform der vorliegenden Erfindung auf der Systemebene. Die Vorrichtung 110 zum Berechnen einer virtuellen Szene kann eine Digitalkamera zum Erzeugen eines Eingangs-Videosignalstroms, der Bil der wie Bilder mit Informationen über das Sichtfeld der digitalen Kamera enthält, und einen Handcomputer umfassen, der mit der digitalen Kamera verbunden ist. In einer Ausführungsform nimmt der Handcomputer den Eingangs-Videosignalstrom von der digitalen Kamera auf und führt an diesem eine Bewegungsanalyse durch. Der Handcomputer legt dann die Parameter für die Berechnung der virtuellen Umgebung auf der Basis der Bewegungsanalyse des Eingangs-Videosignalstroms fest.
  • Die Vorrichtung 110 zum Berechnen einer virtuellen Szene kann selbständig arbeiten oder sich in einer Netzwerkumgebung befinden; die Erfindung ist da nicht eingeschränkt. In einer Ausführungsform mit einem Netzwerk ist die Anwendung auf mehrere Prozessoren verteilt. In einer anderen Ausführungsform erfaßt die Vorrichtung 110 den Eingabe-Videosignalstrom. Die Verarbeitung des Video-Signalstroms kann dann in der Vorrichtung 110 erfolgen oder in einem anderen Prozessor, etwa dem Prozessor in einem Server 120, der mit der Vorrichtung 110 verbunden ist, oder in einem Client-Computer 130, der mit dem Server 120 verbunden ist. Die virtuelle Szene kann auf ein räumlich entferntes Display ausgegeben und dort berechnet werden, etwa auf einem Display 140, das mit dem Client-Computer 130 verbunden ist. Eine solche Anwendung kann dazu verwendet werden, eine virtuelle Szene räumlich entfernten Betrachtern darzustellen, die Erfindung ist darauf jedoch nicht beschränkt.
  • In alternativen Ausführungsformen kann die Vorrichtung 110 zum Berechnen einer virtuellen Szene eine Vorrichtung wie die Vorrichtung 200 der 2A oder die Vorrichtung 250 der 2B oder die Vorrichtung 290 der 2C sein.
  • Die 2A zeigt eine Blockdarstellung einer Ausführungsform einer erfindungsgemäßen Vorrichtung zum Berechnen einer virtuellen Szene. Eine Digitalkamera 210 erzeugt einen Eingangs-Videosignalstrom mit Bildern der vorhandenen Umgebung, die das Sichtfeld der digitalen Kamera anzeigen. Mit der Digitalkamera 210 ist der Handcomputer 220 verbunden, der den Eingangs-Videosignalstrom von der Digitalkamera 210 aufnimmt und an diesem Eingangs-Videosignalstrom eine Bewegungsanalyse ausführt. Der Handcomputer 220 legt dann die berechnete Szene einer virtuellen Umgebung auf der Basis der Bewegungsanalyse am Eingangs-Videosignalstrom fest.
  • Die 2B zeigt eine Blockdarstellung einer anderen Ausführungsform einer Vorrichtung zum Berechnen einer virtuellen Szene. Mit dem Handcomputer 220 ist das Display 230 verbunden. In einer Ausführungsform ist das Display 230 eine Komponente des Handcomputers 220. In einer anderen Ausführungsform ist das Display ein beliebiges Display für einen Handcomputer, etwa zum Beispiel ein Flüssigkristalldisplay (LCD). Mit dem Handcomputer 220 kann auch ein Rauschfilter 240 verbunden sein. Der Rauschfilter 240 kann das Rauschen aus dem Eingangs-Videosignalstrom herausfiltern, bevor eine virtuelle Szene berechnet wird. Die Rauschfilterung kann erforderlich sein, um die Auswirkungen des Verwackelns der Vorrichtung in der Hand des Benutzers zu verringern.
  • Die Bildblöcke im Eingangs-Videosignalstrom enthalten Informationen über den Teil der vorhandenen Umgebung, der im Sichtfeld der Kamera sichtbar ist. Der Handcom puter 220 verarbeitet den Eingangs-Videosignalstrom, um Daten über die visuelle Bewegung zu erhalten. Auf dem Display 230 kann kontinuierlich eine Szene einer virtuellen Umgebung ausgegeben werden. Der zum Einstellen der virtuellen Szene verwendete Standpunkt wird anhand der Bewegungsparameter festgelegt, die aus dem Eingangs-Videosignalstrom extrahiert wurden. Die Bewegung der Vorrichtung 250 zum Berechnen der Szene bestimmt die Einstellung und Erzeugung der virtuellen Szene.
  • 2C zeigt eine Blockdarstellung einer weiteren Ausführungsform einer Vorrichtung zum Berechnen einer virtuellen Szene. Als Interface zwischen der Digitalkamera 210 und dem Handcomputer 220 ist ein Algorithmussystem 260 vorgesehen. Im Algorithmussystem 260 befindet sich ein Computerbild-Subsystem 270. Das Computerbild-Subsystem 270 führt am Eingangs-Videosignalstrom eine Bewegungsanalyse aus. Das Computerbild-Subsystem 270 kann für die Bewegungsanalyse eine Gesichts- und Hintergrundsegmentierung, eine Bestimmung des optischen Flusses und/oder eine Gesichtsverfolgung durchführen. Ein Berechnungs-Subsystem 280 im Algorithmussystem 260 nimmt das Ausgangssignal vom Computerbild-Subsystem 270 auf, etwa Befehle zum Einstellen des Azimut, der Höhe, der Neigung oder der Vergrößerung, und stellt die berechnete Szene auf der Basis dieses Ausgangssignals am Display 230 dar. In einer Ausführungsform werden Bilder eines Benutzers von der Digitalkamera 210 aufgenommen und vom Computerbild-Subsystem 270 aufgenommen. Das 3D-Berechnungs-Subsystem 280 nimmt die Informationen aus der Bewegungsanalyse vom Computerbild-Subsystem 270 auf und erzeugt die virtuelle Szene für die Ausgabe am Display 230.
  • Die 3 ist ein Flußdiagramm für ein Verfahren, das bei einer Ausführungsform der vorliegenden Erfindung ausgeführt wird. Im Block 305 erzeugt eine Digitalkamera einen Eingangs-Videosignalstrom mit Videobildern auf, die Informationen über die vorhandene Umgebung enthalten, die vom Sichtfeld der Kamera begrenzt wird. In einer Ausführungsform enthalten die Videobilder Bilder der vorhandenen Umgebung. Im Block 310 verarbeitet der mit der Digitalkamera verbundene Handcomputer den Eingangs-Videosignalstrom. Im Block 315 werden die Parameter, die eine berechnete Szene einer virtuellen Umgebung definieren, auf der Basis von Bewegungsanalyseinformationen (Bewegungsparametern) festgelegt, die bei der Verarbeitung vom Handcomputer aus dem Eingangs-Videosignalstrom extrahiert wurden.
  • Die 4 ist ein Flußdiagramm für ein Verfahren, das bei einer alternativen Ausführungsform der vorliegenden Erfindung ausgeführt wird. Im Block 405 erzeugt eine Digitalkamera einen Eingangs-Videosignalstrom mit Videobildern, die Informationen über die Umgebung enthalten, die vom Sichtfeld der Kamera eingeschränkt wird. Im Block 410 wird der Eingangs-Videosignalstrom von dem Handcomputer aufgenommen und verarbeitet, der mit der Kamera verbunden ist. Im Block 415 werden die Parameter, die eine berechnete Szene einer virtuellen Umgebung definieren, auf der Basis der Bewegungsanalyseinformationen festgelegt, die vom Handcomputer aus dem Eingangs-Videosignalstrom extrahiert wurden. In einer Ausführungsform umfaßt die Festlegung die Bilderzeugung. Im Block 420 wird die auf der Basis der festgelegten Szenendefinitionsparameter berechnete Szene der virtuellen Umgebung dem Benutzer auf einem Display präsentiert. Im Block 425 wird das Rauschen aus dem Eingangsvideosignalstrom herausgefiltert, bevor die Analyse und Bildberechnung erfolgt.
  • Die 5A bis 5D sind Flußdiagramme für Ausführungsformen von bestimmten Bewegungsanalyseverfahren, die bei alternativen Ausführungsformen der vorliegenden Erfindung ausgeführt werden. In der Ausführungsform der 5A erfolgt die Bewegungsanalyse durch Verfolgen des Orts eines herausragenden Merkmals oder von herausragenden Merkmalen im Eingangs-Videosignalstrom. Im Block 505 wird der Ort eines herausragenden Merkmals in einem ersten Bildblock bestimmt. Im Block 510 wird der Ort des herausragenden Merkmals in einem nachfolgenden Bildblock bestimmt. Im Block 515 wird die Bewegung des herausragenden Merkmals als Funktion einer Bewertung des Orts des Merkmals in Abhängigkeit von der Zeit ermittelt.
  • Die 5B zeigt eine andere Ausführungsform, bei der die Bewegungsanalyse durch Berechnen der Hauptbewegung des optischen Flusses des Eingangs-Videosignalstroms erfolgt. Im Block 520 wird der optische Fluß von Pixeln im Eingangs-Videosignalstrom berechnet. Im Block 525 wird aus dem optischen Fluß eine statistisch dominante Bewegung extrahiert. Die Extraktion der statistisch dominanten Bewegung kann das Speichern der Ergebnisse der Berechnung des optischen Flusses für eine Anzahl von Bildblöcken des Eingangs-Videosignalstroms in einem Cache-Speicher und das Ausführen einer Hauptkomponentenanalyse an den im Cache-Speicher gespeicherten Ergebnissen zur Bestimmung der statisch dominanten Bewegung umfassen. In einer anderen Ausführungsform wird die Bewegungsanalyse bei einer Bewegung des Handcomputers durch den Benutzer auf die Hauptbewegung des Hintergrunds im Bild beschränkt. Um die Bestimmung der Gesamtbewegung robuster zu machen, wird dabei das Gesicht des Benutzers vom Hintergrund getrennt.
  • Die 5C zeigt eine alternative Ausführungsform, bei der die berechnete Szene auf der Basis der Gesichtsbewegung festgelegt wird. Im Block 530 werden die Parameter gemessen, die das Bild des Gesichts des Benutzers beschreiben. Im Block 535 wird um das Bild des Gesichts ein Begrenzungsrahmen erzeugt. Ein Begrenzungsrahmen ist ein unsichtbares Rechteck um ein Objekt oder Bild auf einem Schirm. Der Begrenzungsrahmen kann durch Begrenzungsrahmenparameter definiert werden. Im Block 540 erfolgt durch einen Vergleich der Größe des Begrenzungsrahmens um das Bild des Gesichts zum gegenwärtigen Zeitpunkt mit der Größe des Begrenzungsrahmens um das Bild des Gesichts zu Beginn eine Vergrößerungsoperation. Im Block 545 erfolgt durch einen Vergleich der Neigung des Begrenzungsrahmens um das Bild des Gesichts zum gegenwärtigen Zeitpunkt mit der Neigung des Begrenzungsrahmens um das Bild des Gesichts zu Beginn eine Festlegung der Neigung. Im Block 547 erfolgt durch einen Vergleich der vertikalen Position des Begrenzungsrahmens zum gegenwärtigen Zeitpunkt mit der vertikalen Position des Begrenzungsrahmens zu einem früheren Zeitpunkt eine Festlegung der Änderung in der Höhe. Im Block 548 erfolgt durch einen Vergleich der horizontalen Position des Begrenzungsrahmens zum gegenwärtigen Zeitpunkt mit der horizontalen Position des Begrenzungsrahmens zu einem früheren Zeitpunkt eine Festlegung der Änderung des Azimuts.
  • Die 5D zeigt eine alternative Ausführungsform, bei der die berechnete Szene auf der Basis der Blickrichtung der Augen des Benutzers festgelegt wird. Im Block 550 werden in vorgegebenen Zeitabständen die Parameter für die Blickrichtung der Augen gemessen. Die Parameter für die Blickrichtung der Augen können vertikale und horizontale Blickrichtungswinkel umfassen, die Erfindung ist da nicht eingeschränkt. Im Block 555 erfolgt durch einen Vergleich des horizontalen Blickrichtungswinkels zum gegenwärtigen Zeitpunkt mit dem horizontalen Blickrichtungswinkel zu einem früheren Zeitpunkt eine Festlegung der Änderung des Azimuts. Im Block 560 erfolgt durch einen Vergleich des vertikalen Blickrichtungswinkels zum gegenwärtigen Zeitpunkt mit dem vertikalen Blickrichtungswinkel zu einem früheren Zeitpunkt eine Festlegung der Änderung in der Höhe.
  • Die 6 zeigt ein Beispiel für ein Computersystem, das bei der Ausführung der vorliegenden Erfindung verwendet werden kann. In der 6 sind zwar verschiedene Komponenten eines Computersystems dargestellt, es ist jedoch nicht vorgesehen, eine besondere Architektur oder Art der Verbindung der Komponenten darzustellen, da solche Details nicht Gegenstand der vorliegenden Erfindung sind. Es ist auch klar, daß Netzwerkcomputer und andere Datenverarbeitungssysteme mit weniger Komponenten oder vielleicht auch mehr Komponenten ebenfalls bei der vorliegenden Erfindung verwendet werden können.
  • Wie in der 6 gezeigt, umfaßt das Computersystem 601, das eine Art eines Datenverarbeitungssystems ist, einen Bus 602, der mit einem Mikroprozessor 603, einem ROM 607 und einem flüchtigen RAM 605 sowie einem nichtflüchtigen Speicher 606 verbunden ist. Wie im Beispiel der 6 gezeigt, ist der Mikroprozessor 603 mit einem Cache-Speicher 604 verbunden. Der Bus 602 verbindet diese Komponenten miteinander, er verbindet diese Komponenten 603, 604, 605 und 606 auch mit einer Displaysteuerung und Displayvorrichtung 608 und mit peripheren Vorrichtungen wie Eingabe/Ausgabevorrichtungen (I/O-Vorrichtungen), die Digitalkameras, Mäuse, Tastaturen, Modems, Netzwerkinterfaces, Drucker und andere bekannte Vorrichtungen sein können. In der Regel sind die Ein/Ausgabevorrichtungen 610 mit dem System über Ein/Ausgabesteuerungen 609 verbunden. Der flüchtige RAM 605 ist meist ein dynamischer RAM (DRAM), der kontinuierlich Energie benötigt, um die Daten im Speicher aufzufrischen und zu erhalten. Der nichtflüchtige Speicher 606 ist in der Regel eine magnetische Festplatte oder ein magnetischoptisches Laufwerk oder ein optisches Laufwerk oder ein DVD-RAM oder eine andere Art von Speichersystem, bei der die Daten erhalten bleiben, auch wenn die Stromversorgung für das System abgeschaltet wird. Meist ist der nichtflüchtige Speicher auch ein Direktzugriffsspeicher, auch wenn dies nicht erforderlich ist. Die 6 zeigt den nichtflüchtigen Speicher 606 als lokale Vorrichtung, die direkt mit den anderen Komponenten des Datenverarbeitungssystems verbunden ist, bei der vorliegenden Erfindung kann jedoch auch ein vom System räumlich entfernter nichtflüchtiger Speicher verwendet werden, etwa ein Netzwerkspeicher, der über ein Netzwerkinterface wie ein Modem oder ein Ethernetinterface mit dem Datenverarbeitungssystem verbunden ist. Der Bus 602 kann einen oder mehrere Busse umfassen, die miteinander über verschiedene Brücken, Steuerungen und/oder Adapter verbunden sind, wie es allgemein bekannt ist. In einer Ausführungsform umfaßt die I/O-Steuerung 609 einen USB-Adapter (Universal Serial Bus) zum Steuern von USB-Peripheriegeräten.
  • Aus der vorliegenden Beschreibung geht hervor, daß Aspekte der Erfindung zumindest teilweise in von Maschinen ausführbaren Anweisungen, d. h. Software, liegen können. Das heißt, daß die beschriebenen Techniken mit einem Computersystem oder einem anderen Datenverarbeitungssystem ausgeführt werden können, wenn dessen Prozessor, etwa ein Mikroprozessor, die in einem Speicher wie dem ROM 607, dem flüchtigen RAM 605, dem nichtflüchtigen Speicher 606, dem Cache-Speicher 604 oder einer entfernten Speichervorrichtung enthaltenen Folgen von Anweisungen ausführt. In verschiedenen Ausführungsformen können in Verbindung mit Softwareanweisungen zum Ausführen der vorliegenden Erfindung fest verdrahtete Schaltungen verwendet werden. Die beschriebenen Techniken sind nicht auf eine bestimmte Kombination von fest verdrahteten Schaltungen und Software und auch nicht auf eine bestimmte Quelle für die vom Datenverarbeitungssystem ausgeführten Anweisungen beschränkt. In der vorliegenden Beschreibung wurden verschiedene Funktionen und Operationen als von Softwarecode ausgeführt oder veranlaßt dargestellt, um die Beschreibung zu vereinfachen. Der Fachmann erkennt jedoch, daß damit gemeint ist, daß sich die Funktionen bei der Ausführung von Code durch einen Prozessor wie dem Mikroprozessor 603 ergeben.
  • Die 7 zeigt ein Beispiel ein ein computerlesbares Medium, das bei einer Ausführungsform des erfindungsgemäßen Datenverarbeitungssystems verwendet werden kann. Das computerlesbare Medium enthält Daten und ausführbare Software, die, wenn sie vom Datenverarbeitungssystem ausgeführt wird, das System veranlassen, die verschiedenen erfindungsgemäßen Verfahren durchzuführen. Wie angegeben können die ausführbare Software und die Daten an verschiedenen Plätzen gespeichert sein, einschließlich zum Beispiel dem ROM 607, dem flüchtigen RAM 605, dem nichtflüchtigen Speicher 606 und/oder dem Cache-Speicher 604. Teile der Software und/oder Daten können in einer dieser Speichervorrichtungen gespeichert sein. Das Medium 701 kann in einer Ausführungsform zum Beispiel hauptsächlich den flüchtigen RAM 605 und den nichtflüchtigen Speicher 606 umfassen. Die Benutzeranwendung 703 steht für Softwareanwendungen, die auf dem Computersystem ausgeführt werden, etwa eine Textverarbeitung oder ein Tabellenkalkulationsprogramm, ein Internet-Webbrowser oder ein Berechnungsprogramm für virtuelle Szenen. Das Betriebssystem 707 enthält die Software 715 mit offener Firmware, die im ROM 607 gespeichert sein kann und beim Booten in den RAM 605 geladen wird. Die Hardwarestatussoftware 711 für den Hardwarestatuswert ist eine Software, die den Hardwarestatuswert erzeugt. Der Kerncode 709 bezeichnet den Kern des Betriebssystems und führt zahlreiche Aufgaben aus. Die Software 721 zur Verwaltung des virtuellen Speichers steuert die virtuellen Speicherprozesse. Dies umfaßt in der Regel das Unterhalten einer Abbildung von Seitendaten, die den Status der Daten in allen virtuellen Speichern angeben, die den physikalischen RAM wie den flüchtigen RAM 605 und einen Teil des nichtflüchtigen Speichers 606 umfassen, die als Teil des virtuellen Speichers des Systems vorgesehen sind. Die virtuelle Speicherverwaltung führt die bekannten, herkömmlichen virtuellen Speicherprozesse aus. Die Software 719 zur Energieverwaltung führt die verschiedenen Energieverwaltungsvorgänge wie die Benachrichtigung von Anweisungen und dem System und von Treibern über Änderungen im Stromverbrauch des Systems aus. Die Software kann auch den Zustand einer Computerbatterie überwachen, um festzustellen, ob für die Fortsetzung des Betriebs genügend Energie zur Verfügung steht, und um Warnungen an den Benutzer auszugeben, die den Zustand der Batterie und der Stromversorgung des Systems anzeigen. Die Software 717 für den Laufwerkbetrieb führt die herkömmlichen Funktionen eines Laufwerk-Betriebssystems aus. Dies schließt in der Regel das Steuern des Betriebs eines Festplattenlaufwerks ein, das in vielen Fällen den nichtflüchtigen Speicher 606 umfaßt, der als virtueller Speicher für den flüchtigen RAM 605 dient.
  • Die in den Blöcken in den 3 bis 5D enthaltenen Anweisungen brauchen nicht in der dargestellten Reihenfolge ausgeführt werden. Es ist zur Ausführung der Erfindung auch nicht notwendig, daß alle der von den Blöcken bezeichneten Prozesse durchgeführt werden.
  • In der vorliegenden Beschreibung wird die Erfindung anhand von bestimmten, beispielhaften Ausführungsformen erläutert. Es ist offensichtlich, daß verschiedene Modifikationen möglich sind, ohne den Umfang der Erfindung zu verlassen, der in den folgenden Patentansprüchen angegeben ist. Die Beschreibung und die Zeichnungen sind nur beispielhaft und nicht in einem einschränkenden Sinn zu verstehen.

Claims (21)

  1. Verfahren für ein Virtual-Reality-System, wobei ein Eingangs-Videosignalstrom unter Verwendung einer Digitalkamera (210) aufgenommen wird, wobei der Eingangs-Videosignalstrom Videobilder enthält, die Informationen über die vorhandene Umgebung enthalten, die vom Sichtfeld der Digitalkamera (210) begrenzt ist; wobei durch Verarbeiten des Eingangs-Videosignalstroms Daten über die sichtbare Bewegung der Digitalkamera (210) extrahiert werden; und wobei Parameter festgelegt werden, die eine berechnete Szene einer virtuellen Umgebung auf der Basis der aus dem Eingangs-Videosignalstrom extrahierten Daten definieren, wobei die Einstellung der berechneten Szene der virtuellen Umgebung der sichtbaren Bewegung der Digitalkamera (210) entspricht.
  2. Verfahren nach Anspruch 1, wobei die festgelegte berechnete Szene der virtuellen Umgebung nach der Einstellung auf der Basis der festgelegten Szenen-Definitionsparameter auf einem Display (140; 230) dargestellt wird.
  3. Verfahren nach Anspruch 1, wobei vor der Festlegung Rauschen aus dem Eingangs-Videosignalstrom herausgefiltert wird.
  4. Verfahren nach Anspruch 1, wobei zum Extrahieren der Bewegungsparameter der Ort eines hervorstechenden Merkmals im Eingangs-Videosignalstrom verfolgt wird.
  5. Verfahren nach Anspruch 4, wobei zum Verfolgen des Ortes des hervorstechenden Merkmals der Ort dieses Merkmals in einem ersten Bild gemessen wird; der Ort des Merkmals in einem darauffolgenden Bild gemessen wird; und der Ort des Merkmals in dem ersten Bild mit dem Ort des Merkmals im nachfolgenden Bild verglichen wird.
  6. Verfahren nach Anspruch 1, wobei zum Extrahieren der Bewegungsparameter eine Hauptbewegungsanalyse am Eingangs-Videosignalstrom durchgeführt wird, bei der der optische Fluß von Pixeln des Eingangs-Videosignalstroms berechnet und aus dem optischen Fluß eine statistisch dominante Bewegung extrahiert wird.
  7. Verfahren nach Anspruch 6, wobei zum Extrahieren der statistisch dominanten Bewegung Ergebnisse der Berechnung des optischen Pixelflusses für mehrere Bilder des Eingangs-Videosignalstroms in einen Cache-Speicher aufgenommen werden und eine Hauptkomponentenanalyse der in dem Cache-Speicher enthaltenen Ergebnisse durchgeführt wird, um die statistisch dominante Bewegung zu bestimmen.
  8. Verfahren nach Anspruch 6, wobei zum Berechnen des optischen Pixelflusses die Relativbewegung eines Hintergrundbildes bezüglich der Digitalkamera (210) bestimmt wird, wenn der Benutzer die Digitalkamera (210) bewegt.
  9. Verfahren nach Anspruch 1, wobei zum Extrahieren der Bewegungsparameter Blickrichtungsparameter eines Benutzers in vorgegebenen Zeitabständen gemessen werden.
  10. Verfahren nach Anspruch 9, wobei zur Festlegung eine Festlegung in Azimutrichtung gehört, die durch Vergleich des zum laufenden Zeitpunkt gemessenen horizontalen Blickwinkels mit dem zu einem vorhergehenden Zeitpunkt gemessenen horizontalen Blickwinkel bestimmt wird.
  11. Verfahren nach Anspruch 9, wobei zur Festlegung eine Festlegung in Höhenrichtung gehört, die durch Vergleich eines zum laufenden Zeitpunk gemessenen vertikalen Blickwinkels mit dem zu einem vorhergehenden Zeitpunk gemessenen Blickwinkel bestimmt wird.
  12. System mit einer Digitalkamera (210) zur Erzeugung eines Eingangs-Videosignalstroms mit Bildern, die Informationen bezüglich einer durch das Sichtfeld der Digitalkamera (210) begrenzten vorhandenen Umgebung enthalten; und mit einem mit der Digitalkamera (210) gekoppelten Handcomputer (210), wobei das System mittels einer Bewegungsanalyse durch Verarbeiten des Eingangs-Videosignalstroms Daten bezüglich des Sichtfeldes der Digitalkamera (210) extrahiert und Parameter festlegt, die eine berechnete Szene einer virtuellen Umgebung auf der Basis der aus dem Eingangs-Videosignalstrom extrahierten Daten definieren, wobei die Festlegung der berechneten Szene der virtuellen Umgebung der sichtbaren Bewegung der Digitalkamera (210) entspricht.
  13. Vorrichtung nach Anspruch 12 mit einem Display (140; 230), das die berechnete Szene der virtuellen Umgebung wiedergibt.
  14. Vorrichtung nach Anspruch 13, wobei das Display (230) Bestandteil des Handcomputers (220) ist.
  15. Vorrichtung nach Anspruch 12, wobei zur Bewegungsanalyse ein hervorstechendes Merkmal im Eingangs-Videosignalstrom verfolgt wird.
  16. Vorrichtung nach Anspruch 12, wobei zur Bewegungsanalyse eine Hauptbewegungsanalyse des Eingangs-Videosignalstroms gehört, bei der der optische Fluß von Pixeln des Eingangs-Videosignalstroms berechnet und aus dem optischen Fluß eine statistisch dominante Bewegung extrahiert wird.
  17. Vorrichtung nach einem der Ansprüche 12 bis 16, wobei der Handcomputer (220) durch Verarbeiten des Eingangs-Videosignalstroms Daten bezüglich der sichtbaren Bewegung der Digitalkamera extrahiert und Parameter festlegt, die eine berechnete Szene einer virtuellen Umgebung auf der Basis der aus dem Eingangs-Videosignalstrom extrahierten Daten definieren.
  18. Vorrichtung nach einem der Ansprüche 12 bis 16, mit ferner einem mit dem Handcomputer (220) in Datenverbindung stehenden Server (120) und einem mit dem Server (120) in Datenverbindung stehenden Client-Computer (130), wobei die Operationen zur Verarbeitung des Eingangs-Videosignalstroms zum Extrahieren von Daten bezüglich der sichtbaren Bewegung der Digitalkamera sowie zur Festlegung von Parameter, die eine berechnete Szene der virtuellen Umgebung auf der Basis der aus dem Eingangs-Videosignalstrom extrahierten Daten definieren, auf den Handcomputer (210), den Server (120) und den Client-Computer (130) verteilt sind.
  19. Maschinenlesbares Medium, auf dem Befehlsfolgen gespeichert sind, die bei Ausführung auf einer Maschine bewirken, daß diese einen Eingangs-Videosignalstrom unter Verwendung einer Digitalkamera (210) bearbeitet, wobei der Eingangs-Videosignalstrom Videobilder umfaßt, die Informationen über eine durch das Sichtfeld der Digitalkamera (210) begrenzte Umgebung enthalten, um mittels Bewegungsanalyse Daten bezüglich einer sichtbaren Bewegung der Digitalkamera (210) zu extrahieren, und Parameter festlegt, die eine berechnete Szene der virtuellen Umgebung auf der Basis der aus dem Eingangs-Videosignalstrom extrahierten Daten definieren, wobei die festgelegte sichtbare Bewegung der berechneten Szene der virtuellen Umgebung der sichtbaren Bewegung der Digitalkamera (210) entspricht.
  20. Maschinenlesbares Medium nach Anspruch 19, wobei zum Extrahieren der Bewegungsparameter der Ort eines hervorstechenden Merkmals im Eingangs-Videosignalstrom verfolgt wird.
  21. Maschinenlesbares Medium nach Anspruch 19, wobei zum Extrahieren der Bewegungsparameter eine Pixelflußanalyse erfolgt, bei der der optische Fluß von Pixeln des Eingangs-Videosignalstroms berechnet und aus der Tendenz im optischen Fluß eine statistisch dominante Bewegung extrahiert wird.
DE60225933T 2001-09-18 2002-08-22 Tragbare virtuelle realität Expired - Lifetime DE60225933T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US956312 1978-10-31
US09/956,312 US7113618B2 (en) 2001-09-18 2001-09-18 Portable virtual reality
PCT/US2002/026894 WO2003025730A1 (en) 2001-09-18 2002-08-22 Portable virtual reality

Publications (2)

Publication Number Publication Date
DE60225933D1 DE60225933D1 (de) 2008-05-15
DE60225933T2 true DE60225933T2 (de) 2009-04-09

Family

ID=25498066

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60225933T Expired - Lifetime DE60225933T2 (de) 2001-09-18 2002-08-22 Tragbare virtuelle realität

Country Status (6)

Country Link
US (1) US7113618B2 (de)
EP (1) EP1436689B1 (de)
JP (1) JP4181039B2 (de)
AT (1) ATE391312T1 (de)
DE (1) DE60225933T2 (de)
WO (1) WO2003025730A1 (de)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031497B2 (en) * 2001-11-05 2006-04-18 Koninklijke Philips Electronics N.V. Method for computing optical flow under the epipolar constraint
US20040113887A1 (en) * 2002-08-27 2004-06-17 University Of Southern California partially real and partially simulated modular interactive environment
KR100469727B1 (ko) * 2003-03-07 2005-02-02 삼성전자주식회사 통화자의 얼굴을 화면 가운데에 위치시킬 수 있는화상통신용 통신단말기 및 방법
KR100556856B1 (ko) 2003-06-14 2006-03-10 엘지전자 주식회사 이동통신 단말기에서 화면 제어 방법 및 장치
FI117217B (fi) * 2003-10-01 2006-07-31 Nokia Corp Menetelmä ja järjestelmä käyttöliittymän (User Interface) hallitsemiseksi, vastaava laite ja ohjelmalliset (Software) välineet menetelmän toteuttamiseksi
US20060001647A1 (en) * 2004-04-21 2006-01-05 David Carroll Hand-held display device and method of controlling displayed content
US9704502B2 (en) * 2004-07-30 2017-07-11 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US9779750B2 (en) 2004-07-30 2017-10-03 Invention Science Fund I, Llc Cue-aware privacy filter for participants in persistent communications
US7719579B2 (en) * 2005-05-24 2010-05-18 Zoran Corporation Digital camera architecture with improved performance
WO2007045021A1 (en) * 2005-10-17 2007-04-26 Diversionary Therapy Technologies Pty Ltd Diversionary therapy apparatus and methods and interactive devices
US20090054084A1 (en) * 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
US7844229B2 (en) * 2007-09-21 2010-11-30 Motorola Mobility, Inc Mobile virtual and augmented reality system
US7853296B2 (en) * 2007-10-31 2010-12-14 Motorola Mobility, Inc. Mobile virtual and augmented reality system
US8102334B2 (en) 2007-11-15 2012-01-24 International Businesss Machines Corporation Augmenting reality for a user
US9684968B2 (en) * 2007-12-07 2017-06-20 Tom Chau Method, system and computer program for detecting and characterizing motion
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
US20100214111A1 (en) * 2007-12-21 2010-08-26 Motorola, Inc. Mobile virtual and augmented reality system
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
MY168264A (en) 2008-07-15 2018-10-16 Dtt holdings pty ltd Method for preparing a patent for a medical treatment
US8350871B2 (en) * 2009-02-04 2013-01-08 Motorola Mobility Llc Method and apparatus for creating virtual graffiti in a mobile virtual and augmented reality system
US8762846B2 (en) 2009-11-16 2014-06-24 Broadcom Corporation Method and system for adaptive viewport for a mobile device based on viewing angle
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
US8866898B2 (en) 2011-01-31 2014-10-21 Microsoft Corporation Living room movie creation
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
US9424255B2 (en) 2011-11-04 2016-08-23 Microsoft Technology Licensing, Llc Server-assisted object recognition and tracking for mobile devices
US9001216B2 (en) 2012-10-12 2015-04-07 Sony Corporation Method and apparatus for video streaming
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US10838207B2 (en) * 2015-03-05 2020-11-17 Magic Leap, Inc. Systems and methods for augmented reality
WO2016141373A1 (en) 2015-03-05 2016-09-09 Magic Leap, Inc. Systems and methods for augmented reality
KR20180090355A (ko) 2015-12-04 2018-08-10 매직 립, 인코포레이티드 리로컬리제이션 시스템들 및 방법들
US10254546B2 (en) 2016-06-06 2019-04-09 Microsoft Technology Licensing, Llc Optically augmenting electromagnetic tracking in mixed reality
JP6972105B2 (ja) 2016-08-02 2021-11-24 マジック リープ, インコーポレイテッドMagic Leap, Inc. 固定距離の仮想現実システムおよび拡張現実システムならびに方法
US10732797B1 (en) 2017-01-10 2020-08-04 Lucasfilm Entertainment Company Ltd. Virtual interfaces for manipulating objects in an immersive environment
US10812936B2 (en) 2017-01-23 2020-10-20 Magic Leap, Inc. Localization determination for mixed reality systems
US11287292B2 (en) 2017-02-13 2022-03-29 Lockheed Martin Corporation Sensor system
KR102366781B1 (ko) 2017-03-17 2022-02-22 매직 립, 인코포레이티드 컬러 가상 콘텐츠 와핑을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
CN110431599B (zh) 2017-03-17 2022-04-12 奇跃公司 具有虚拟内容扭曲的混合现实系统及使用该系统生成虚拟内容的方法
CA3054617A1 (en) 2017-03-17 2018-09-20 Magic Leap, Inc. Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
CN107392783B (zh) * 2017-07-05 2020-07-07 龚少卓 基于虚拟现实的社交方法及装置
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN112513712B (zh) 2018-07-23 2023-05-09 奇跃公司 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
DE102019108999B4 (de) * 2019-04-05 2020-12-31 Psholix Ag Verfahren zur immersiven Anzeige von stereoskopischen Bildern und Bildfolgen
CN115278364B (zh) * 2022-07-29 2024-05-17 苏州创意云网络科技有限公司 一种视频流合成方法及装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2974383B2 (ja) * 1990-08-21 1999-11-10 キヤノン株式会社 視線検出装置及び視線検出装置を有する機器
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US6597818B2 (en) * 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6333749B1 (en) * 1998-04-17 2001-12-25 Adobe Systems, Inc. Method and apparatus for image assisted modeling of three-dimensional scenes
US6434265B1 (en) * 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
US6303920B1 (en) * 1998-11-19 2001-10-16 Sarnoff Corporation Method and apparatus for detecting salient motion using optical flow
US6288704B1 (en) 1999-06-08 2001-09-11 Vega, Vista, Inc. Motion detection and tracking system to control navigation and display of object viewers
US6798897B1 (en) * 1999-09-05 2004-09-28 Protrack Ltd. Real time image registration, motion detection and background replacement using discrete local motion estimation
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
US7149691B2 (en) 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
KR100965947B1 (ko) 2002-04-25 2010-06-24 소니 주식회사 화상 처리 장치와 화상 처리 방법 및 화상 처리 프로그램 기록 매체

Also Published As

Publication number Publication date
US7113618B2 (en) 2006-09-26
US20030052965A1 (en) 2003-03-20
WO2003025730A1 (en) 2003-03-27
EP1436689B1 (de) 2008-04-02
DE60225933D1 (de) 2008-05-15
ATE391312T1 (de) 2008-04-15
JP4181039B2 (ja) 2008-11-12
JP2005503611A (ja) 2005-02-03
EP1436689A1 (de) 2004-07-14

Similar Documents

Publication Publication Date Title
DE60225933T2 (de) Tragbare virtuelle realität
DE69133115T2 (de) Verbessertes verfahren und apparat zur erzeugung von virtuellen welten
DE69425913T2 (de) Verfahren und Vorrichtung zur Erzeugung von 3-D-Bildern hoher Auflösung in einem kopfgeführten Stereodisplaysystem
DE10110358B4 (de) Anordnung und Verfahren zur räumlichen Visualisierung
DE69800839T2 (de) Verfahren und vorrichtung zur darstellung mindestens eines teils des menschlichen körpers mit einem modifizierten aussehen
DE112018007721T5 (de) Aufnehmen und modifizieren von 3D-Gesichtern unter Verwendung neuronaler Bild-und Zeitverfolgungsnetze
DE60115034T2 (de) Verfeinerung von dreidimensionalen polygonalen gitterdaten
DE112016005343T5 (de) Elektronische Anzeigestabilisierung unter Verwendung von Pixelgeschwindigkeiten
DE69729916T2 (de) Dynamische bildgrössenänderung
DE102018006050A1 (de) Parallaxenkorrektur in der Virtuellen Realität
DE112004002391B4 (de) Räumlich-zeitliche Erzeugung von Bewegungsunschärfe
DE112019001444T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE112010005737B4 (de) Bildsynthesevorrichtung
DE60118222T2 (de) Skalieren von bildern
DE112014003669T5 (de) Dynamische GPU-Merkmaleinstellung basierend auf Benutzer-beobachteten Bildschirmbereich
DE69715816T2 (de) Videoanzeigesystem zum Darstellen einer virtuellen dreidimensionalen Bildanzeige
WO2007056986A1 (de) Verfahren und anordnung zum monoskopischen darstellen wenigstens eines bereiches eines bildes auf einer autostereoskopischen anzeigevorrichtung sowie informationswiedergabegerät mit einer solchen anordnung
DE69837165T2 (de) Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung
DE102018209377A1 (de) Verfahren zur Darstellung von AR-/VR-Inhalten auf einem mobilen Endgerät und mobiles Endgerät, auf dem AR-/VR-Inhalte dargestellt werden
DE102020104415A1 (de) Bewegung in einer umgebung
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
WO2019174862A1 (de) Verfahren und vorrichtung zum bereitstellen von informationen durch ein augmented-reality-gerät, verfahren und vorrichtung zum bereitstellen von informationen zur steuerung einer anzeige eines augmented-reality-gerätes, verfahren und vorrichtung zur steuerung einer anzeige eines augmented-reality-gerätes, computerlesbares speichermedium mit instruktionen zur durchführung der verfahren
DE102023002197A1 (de) Verfahren und Einrichtung zur Bildanzeige für ein Fahrzeug
WO2019228780A1 (de) Konzept für die steuerung einer anzeige eines mobilen augmented-reality-gerätes
DE102008056917A1 (de) Kooperationsfenster/wand

Legal Events

Date Code Title Description
8364 No opposition during term of opposition