DE69835770T2 - Verfahren und gerät zum vereinfachen der navigation in dreidimensionalen grafischen szenen - Google Patents

Verfahren und gerät zum vereinfachen der navigation in dreidimensionalen grafischen szenen Download PDF

Info

Publication number
DE69835770T2
DE69835770T2 DE69835770T DE69835770T DE69835770T2 DE 69835770 T2 DE69835770 T2 DE 69835770T2 DE 69835770 T DE69835770 T DE 69835770T DE 69835770 T DE69835770 T DE 69835770T DE 69835770 T2 DE69835770 T2 DE 69835770T2
Authority
DE
Germany
Prior art keywords
user
viewing
displaying
scene
image selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69835770T
Other languages
English (en)
Other versions
DE69835770D1 (de
Inventor
J. John Hillsboro LIGHT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HEATHWAY HOLDINGS, LLC, WILMINGTON, DEL., US
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of DE69835770D1 publication Critical patent/DE69835770D1/de
Application granted granted Critical
Publication of DE69835770T2 publication Critical patent/DE69835770T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

  • Die vorliegende Erfindung betrifft allgemein Computersystemanwendungen und im Besonderen ein Verfahren und eine Vorrichtung zur Erleichterung der Navigation in dreidimensionalen Szenen in einer Computergrafikanwendung über einem Benutzer zur Verfügung stehende Steuerungsoptionen.
  • Die dreidimensionale Grafiktechnologie ist in den letzten Jahren aus einer Reihe von Gründen immer beliebter geworden. Zurzeit kommen 3D-Grafiken zunehmend bei Anwendungen im Bereich des Designs zum Einsatz, wie etwa der Architektur und dem Ingenieurwesen bzw. der Entwicklung. Ferner können sie häufig bei wissenschaftlichen Untersuchungen zum Einsatz, wie etwa bei der Nachstellung von Flugzeugabstürzen sowie bei Freizeitaktivitäten wie zum Beispiel Computerspielen.
  • Dreidimensionale Grafiken bieten einer Person eine realistische Perspektive darüber, wie verschiedene Objekte in einer virtuellen Umgebung erscheinen (und unter Umständen dynamisch zueinander im Verhältnis stehen), wobei dies einen signifikanten Vorteil gegenüber traditionellen zweidimensionalen Grafiken darstellt. Folglich hat der Einsatz dreidimensionaler Grafiken ebenso enorm zugenommen wie die Entwicklung dieser Grafiken, die für den Benutzer ein unersetzliches Hilfsmittel darstellen.
  • Eine erhebliche Einschränkung dreidimensionaler Grafiken ist jedoch die Bewegung und Positionierung eines Benutzers bzw. Anwenders in einer 3D-Szene, was allgemein als Navigation bezeichnet wird. Zahlreiche Faktoren tragen dazu bei, dass es einem Benutzer nicht möglich ist, effektiv in einer 3D-Szene zu navigieren. Zum Beispiel haben der Einsatz ungeeigneter Eingabevorrichtungen für die Navigation, ungeeignetes visuelles Feedback an den Benutzer und eine beschränkte Benutzerkoordination die 3D-Navigation ungewohnt und frustrierend gestaltet.
  • Zur Behebung bzw. Abschwächung der mit der Navigation verbundenen Unzulänglichkeiten wurde eine Technik entwickelt, die als funktionale (oder Aufgaben orientierte) Navigation bekannt ist. Die funktionale Navigation unterstützt den Anwender in Bezug auf die Position des Benutzers bzw. Anwenders oder den Zweck in der 3D-Szene. Die Auswahl eines Objekts in einer 3D-Szene (über eine Benutzereingabevorrichtung) kann zum Beispiel bewirken, dass die Betrachtungsposition des Benutzers in der Szene automatisch auf einen neuen Betrachtungsabstand von dem ausgewählten Objekt neu ausgerichtet wird. Die funktionale Navigation automatisiert im Wesentlichen das Verfahren der traditionellen „manuellen" Navigation und nimmt in der Computerspielbranche eine Vorreiterrolle ein.
  • Die funktionale Navigation hat die Navigationsmöglichkeiten für Anwender zwar stark verbessert, jedoch leidet auch sie unter verschiedenen Nachteilen. Zurzeit erfordert nahezu jede Handlung des Benutzers bzw. Anwenders in einer 3D-Szene, dass der Benutzer den Cursor (oder Zeiger) auf dem Anzeigebildschirm neu positioniert. Ob über eine Maus, einen Trackball, ein Grafiktablett oder eine andere Einrichtung, die Positionierung des Cursors ist einer der zeitaufwändigsten und meisten ermüdenden Operationen in Verbindung mit 3D-Grafikprogrammen. Der Benutzer bzw. Anwender muss zuerst den Cursor auf dem Anzeigebildschirm lokalisieren. Danach muss der Anwender den Cursor an einer Position auf dem Bildschirm platzieren, um ein gewünschtes Objekt oder eine Steuerung auszuwählen. Dies beinhaltet für gewöhnlich das „Hinausschießen" über das gewünschte Objekt oder der Steuerung, wobei der Benutzer in diesem Fall korrigierende Maßnahmen vornehmen muss, um das Objekt oder die Steuerung auszuwählen. Durch die Ausführung derartiger Vorgänge bzw. Operationen leidet der Benutzer unter kognitiver Diskontinuität, wobei er sich mehr auf die Positionierung des Cursors in der Szene konzentrieren muss als auf die 3D-Szene selbst. Ferner verändert sich die 3D-Szene durch die Auswahl des Objekts oder der Steuerung. Somit kann es vorkommen, dass Objekte, die in der ursprünglichen 3D-Szene angezeigt worden sind (d.h. vor der Auswahl), in der neu erzeugten 3D-Szene (d.h. nach der Auswahl) nicht mehr sichtbar sind. In der Folge ist es schwierig, diese Objekte, die in der neu erzeugten 3D-Szene nicht mehr sichtbar sind, später wiederherzustellen.
  • Das U.S. Patent US-A-5.528.735 offenbart ein Verfahren und eine Vorrichtung zum Anzeigen von Daten in einer dreidimensionalen Umgebung. Eine veränderte Perspektive der Objekte in einem dreidimensional navigierbaren Anzeigeraum wird durch Komprimieren der horizontalen Dimension der angezeigten Objekte bereitgestellt, so dass ein Benutzer eine repräsentative Übersicht über die gesamte Ansammlung von Anzeigeobjekten sehen kann, die für die gemeinsame Anzeige auf dem Anzeigebildschirm ausgewählt worden sind. Die komprimierte Komponente wird erweitert, so dass die Objekte breiter erscheinen, wenn sich der Navigator den angezeigten Objekten nähert. Ein Scheinwerfer bzw. Spotlight scheint nach unten auf die Objekte und dient als Navigationsunterstützung, wobei die hervorgehobenen Objekte aus der Entfernung sichtbar sind und leicht lokalisiert werden können. Die Ansicht des Benutzers des Anzeigeraums wird so verändert, dass der Navigator, wenn er sich einem in dem Anzeigeraum angezeigten Objekt nähert, meint sich in einer geraden Linie zu bewegen, wobei die horizontale Dimension der angezeigten Objekte gemäß der anscheinenden Entfernung zwischen einem angezeigten Objekt und dem Navigator komprimiert wird.
  • Vorgesehen werden sollen gemäß der vorliegenden Erfindung ein verbessertes Verfahren und eine verbesserte Vorrichtung zum Navigieren in dreidimensionalen Grafikszenen, wobei es leicht möglich ist, eine in Bezug auf die aktuelle Betrachtungsposition unmittelbar vorangegangene Betrachtungsposition anzunehmen.
  • Vorgesehen ist gemäß einem ersten Aspekt der vorliegenden Erfindung ein Verfahren gemäß dem gegenständlichen Anspruch 1.
  • Vorgesehen ist gemäß einem zweiten Aspekt der vorliegenden Erfindung eine Vorrichtung gemäß dem gegenständlichen Anspruch 6.
  • Bevorzugte Merkmale der Erfindung sind in den Unteransprüchen definiert.
  • In den Zeichnungen zeigen:
  • 1 ein Blockdiagramm einer Vorrichtung zur Vereinfachung der Navigation in einer speziellen dreidimensionalen Szene eines 3D-Raums gemäß der vorliegenden Erfindung;
  • die 2A–C verschiedene dreidimensionale Szenen (d.h. visuelle Perspektiven des 3D-Raums) auf einer Anzeige der Vorrichtung aus 1;
  • die 3A–C verschiedene Komponenten, die eine Betrachtungsposition eines Benutzers innerhalb des 3D-Raums definieren; und
  • die 4A und B ein Verfahren, das die Vorrichtung aus 1 ausführt, um die Navigation in den dreidimensionalen Szenen zu erleichtern.
  • In Bezug auf die vorliegende Erfindung sind verschiedene Modifikationen und alternative Ausführungen möglich, wobei besondere Ausführungsbeispiele in den Zeichnungen beispielhaft dargestellt sind und hierin näher beschrieben werden. Hiermit wird festgestellt, dass die vorliegende Beschreibung bestimmter Ausführungsbeispiele die Erfindung jedoch nicht auf speziellen offenbarten Ausführungen beschränkt, vielmehr umfasst die Erfindung alle Modifikationen, Äquivalente und Alternativen, die dem Umfang der Erfindung angehören.
  • Veranschaulichende Ausführungsbeispiele der vorliegenden Erfindung sind nachstehend beschrieben. Zur besseren Veranschaulichung werden in der vorliegenden Patentschrift nicht alle Merkmale einer tatsächlichen Implementierung beschrieben. Dabei wird festgestellt, dass es bei der Entwicklung jedes derartigen tatsächlichen Ausführungsbeispiels erforderlich ist, zahlreiche die Implementierung betreffende Entscheidungen zu treffen, um die speziellen Ziele der Entwickler umzusetzen, wie etwa eine Kompatibilität mit sytembezogenen und geschäftsbezogenen Einschränkungen, die von einer Implementierung zu der anderen variieren. Hiermit wird ferner festgestellt, dass ein derartiger Entwicklungsaufwand komplex und zeitaufwändig sein kann, wobei er aber gleichzeitig für einen Fachmann auf dem Gebiet, der von der vorliegenden Offenbarung profitiert, ein routinemäßiges Unterfangen darstellt.
  • In folgendem Bezug auf die Zeichnungen und im Besondern auf die Abbildung aus 1 ist eine Vorrichtung 100 zum Erzeugen dreidimensionaler Grafikszenen und zum Erleichtern der Navigation in derartigen 3D-Szenen dargestellt. Die Vorrichtung 100 umfasst einen Prozessor 110, der dreidimensionale Grafikszenen auf der Basis einer Reihe von Befehlen von einem Computergrafikanwendungsprogramm, die in einer Speichervorrichtung 120, wie etwa auf einer Disk, CD-ROM, Festplatte, etc. gespeichert ist, wiedergibt bzw. darstellt. Die spezielle Prozedur, durch welche der Prozessor 110 diese dreidimensionalen Grafikszenen wiedergibt, ist dem Durchschnittsfachmann auf dem Gebiet allgemein bekannt. Folglich werden die Einzelheiten dieser Vorgehensweise hierin nicht näher beschrieben, um die Erfindung nicht unnötig zu verschleiern.
  • Nachdem eine bestimmte dreidimensionale Grafikszene wiedergegeben bzw. gerendert worden ist, zeigt der Prozessor 110 die 3D-Szene zur visuellen Darstellung an einen Benutzer auf einer Anzeige 130. Die Vorrichtung 100 weist ferner eine Benutzereingabevorrichtung 140 auf, die es dem Benutzer ermöglicht, durch die dreidimensionale Grafikszene zu navigieren. In dem veranschaulichten Ausführungsbeispiel handelt es sich bei der Benutzereingabevorrichtung 140 um eine Computermaus. Hiermit wird festgestellt, dass die Benutzereingabevorrichtung 140 auch als verschiedene andersartige Eingabevorrichtungen ausgeführt werden kann, wie zum Beispiel als Trackball, Touchpad, Grafiktablett, Tastatur, Touchscreen, Joystick, etc., ohne dabei vom Umfang der vorliegenden Erfindung abzuweichen. Hiermit wird festgestellt, dass die Benutzereingabevorrichtung 140 auch als eine Kombination aus einigen der vorstehend genannten Eingabevorrichtungen ausgeführt werden kann.
  • In folgendem Bezug auf die Abbildung aus 2A wird eine generische dreidimensionale Szene 200, die durch den Prozessor 110 gerendert wird, auf der Anzeige 130 dargestellt. Die 3D-Szene 200 weist eine Mehrzahl von 3D-Objekten 210240 auf, die unzählige Objekte darstellen können. Zum Beispiel kann die 3D-Szene 200 ein Zimmer in einem Haus darstellen, und die 3D-Objekte 210 bis 240 können verschiedene Möbelstücke in dem Zimmer darstellen. Dieses spezielle Beispiel dient natürlich ausschließlich Veranschaulichungszwecken, wobei die hierin präsentierte 3D-Szene 200 sowie die 3D-Objekte 210 bis 240 praktisch für alle möglichen Elemente stehen können. Hiermit wird ferner festgestellt, dass die 3D-Szene 200 jede beliebige Anzahl von Objekten umfassen kann und nicht zwingend auf die abgebildeten vier Objekte 210 bis 240 beschränkt ist.
  • Die 3D-Szene 200 erzeugt eine realistische Perspektive eines 3D-Raums (zum Beispiel dem Zimmer eines Hauses) und vermittelt dem Benutzer der Eindruck, dass er bzw. sie sich tatsächlich in dem 3D-Raum befindet, obwohl dies in der Realität nicht der Fall ist. Im Wesentlichen würde der Benutzer durch seine Augen den 3D-Raum 200 sehen, wenn eine bestimmte Betrachtungsposition in dem 3D-Raum angenommen wird. Nachstehend wird erläutert und verständlich, was genau mit der „Betrachtungsposition" des Benutzers gemeint ist und wie diese im Verhältnis zu der 3D-Szene 200 steht.
  • In Bezug auf die Abbildung aus 3A ist die „physikalische" Position des Benutzers in dem 3D-Raum durch einen Punkt 310 mit den Koordinaten (x1, y1, z1) dargestellt.
  • Diese Koordinaten zeigen speziell an, wo sich der Benutzer innerhalb des 3D-Raums befindet. Selbst wenn der Benutzer ruhig an dem Punkt 310 steht, kann er bzw. sie weiterhin eine Mehrzahl unterschiedlicher Betrachtungspositionen des 3D-Raums annehmen, indem er seinen bzw. sie ihren Körper um 360 Grad dreht, wie dies in der Abbildung aus 3B dargestellt ist, oder indem er seinen bzw. sie ihren Kopf horizontal dreht (obgleich die Kopfbewegung auf ungefähr 180 Grad beschränkt ist). Der Benutzer kann ferner verschiedene Betrachtungspositionen annehmen, indem er seinen bzw. sie ihren Kopf vertikal von ungefähr –90 Grad bis +90 Grad im Verhältnis zur Waagerechten (d.h. null Grad) dreht, wie dies in der Abbildung aus 3C dargestellt ist. Folglich bilden all diese Komponenten aus den Abbildungen der 3A3C (d.h. die Punkte x1, y1, z1, der horizontale Betrachtungswinkel und der vertikale Betrachtungswinkel) gemeinsam einen Positionsvektor, der die Betrachtungsposition des Benutzers in dem 3D-Raum darstellt. Somit bestimmt dieser Betrachtungspositionsvektor, was tatsächlich in der 3D-Szene 200 beobachtet wird.
  • In erneutem Bezug auf die Abbildung aus 2A kann der Benutzer seine Betrachtungsposition verändern, um verschiedene unterschiedliche visuelle Perspektiven des 3D-Raums zu erhalten, indem er über die Benutzereingabevorrichtung 140 navigiert. Erreicht werden kann dies durch traditionelle Navigationstechniken, die im Fach allgemein bekannt sind. Von diesen traditionellen Navigationstechniken sieht die funktionale (oder Aufgaben orientierte) Navigation für den Benutzer Navigationshilfen vor, welche den Navigationsvorgang erleichtern. Wenn der Benutzer zum Beispiel das 3D-Objekt 230 näher ansehen möchte, so positioniert der Benutzer einen Cursor 250 (z.B. einen Mauszeiger) auf bzw. über dem Objekt 230 (über die Benutzereingabevorrichtung 140) und wählt es beispielsweise durch Drücken der linken Maustaste aus. Diese Auswahl bewirkt dann, dass der Prozessor 110 die Betrachtungsposition des Benutzers des 3D-Raums verändert, so dass das Objekt 230 in der Mitte der Anzeige 130 erscheint, wie dies in der 3D-Szene 260 aus 2B dargestellt ist. Im Wesentlichen bewirkt eine derartige funktionale Navigation, dass der Prozessor 110 automatisch den Benutzer an einen geeigneten Betrachtungsabstand von dem Objekt 230 navigiert.
  • Nach der Betrachtung des Objekts 230 kann der Benutzer wünschen, auch die anderen Objekte (d.h. die Objekte 210, 220, 240) des 3D-Raums näher zu betrachten. Der Zugriff auf diese anderen Objekte 210, 220, 240 über traditionelle Navigationstechniken kann jedoch für den Benutzer ein schwieriges Unterfangen darstellen, während dieser die 3D-Szene 260 aus 2B betrachtet. Die Objekte 210, 220 sind in der 3D-Szene 260 nicht mehr sichtbar und somit stehen sie für die Auswahl durch den Benutzer nicht direkt zur Verfügung. Das heißt, obgleich die Objekte 210, 220 weiterhin in dem 3D-Raum vorhanden sind, erscheinen sie hinter der aktuellen Betrachtungsperson des Benutzers. Wenn der Benutzer folglich diese Objekte 210, 220 durch herkömmliche Navigationsmethoden betrachten möchte, so muss der Benutzer auf unpraktische Weise durch den 3D-Raum navigieren, um die Objekte 210, 220 wieder in das Sichtfeld zu bringen. Und wenn die Objekte 210, 220 wieder in das Sichtfeld gelangen, verschwinden höchstwahrscheinlich die Objekte 230, 240, was die folgende Betrachtung der Objekte 230, 240 ebenfalls schwierig gestaltet.
  • Um dieses Problem zu lösen setzt die vorliegende Erfindung eine „opportunistische" Steuerung 270 ein, die es dem Benutzer ermöglicht, zu einer 3D-Szene zurückzukehren, die der Benutzer vorher betrachtet hat (z.B. die 3D-Szene 200 aus 2A). In einem Ausführungsbeispiel erscheint die Steuerung 270 auf der Anzeige 130 direkt unterhalb des Cursors 250 zum Zeitpunkt, wenn die aktuelle 3D-Szene erscheint, unabhängig davon, wo sich der Cursor 250 auf der Anzeige 130 befindet. Die Steuerung 270 weist eine verhältnismäßig geringe Größe auf, ist aber ausreichend groß, um unter dem Cursor 250 sichtbar zu sein. Die Steuerung 270 behindert somit das Sichtfeld in der 3D-Szene 260 kaum. Im Gegensatz zu der Positionierung der Steuerung 270 direkt unterhalb des Cursors 250 kann sie alternativ sehr nah an dem Cursor 250 erscheinen.
  • Wenn die Steuerung 270 durch den Benutzer über die Benutzereingabevorrichtung 140 ausgewählt wird, bewirkt sie, dass der Prozessor 110 automatisch die vorher angezeigte 3D-Szene (d.h. die 3D-Szene 200 aus 2A) neu erzeugt. Eine derartige Auswahl durch den Benutzer kann zum Beispiel durch einfaches Drücken der linken Maustaste der Benutzereingabevorrichtung 140 erreicht werden. Durch die Auswahl der Steuerung 270 kehrt der Benutzer somit mit einem einfachen Schritt (z.B. Drücken einer Maustaste) zurück an die Betrachtungsposition, die der 3D-Szene 200 aus 2A entspricht. Diese einfache Handlung durch den Benutzer verringert die Wahrscheinlichkeit, dass der Benutzer die Konzentration hinsichtlich der 3D-Szene verliert, was höchstwahrscheinlich passieren würde, wenn der Benutzer unter Verwendung herkömmlicher Navigationsverfahren manuell an diese Betrachtungsposition navigieren müsste. Ferner ist die benötigte Zeit, um diese vorher betrachtete Position abzurufen, in Verbindung mit der Steuerung 270 deutlich kürzer als bei den herkömmlichen Navigationsmethoden.
  • In einem Ausführungsbeispiel ist die Lebensdauer bzw. die Verweildauer der Steuerung 270 (d.h. deren Erscheinen auf der Anzeige 130) verhältnismäßig kurz und dauert nur an, bis eine andere vorbestimmte Handlung von dem Benutzer ausgeführt wird. Die Steuerung 270 kann zum Beispiel verschwinden, wenn ein anderer Navigationsschritt ausgeführt wird oder wenn der Cursor 250 durch die Benutzereingabevorrichtung 140 um ein vorbestimmtes Stück von der Steuerung 270 entfernt wird. In dem veranschaulichten Ausführungsbeispiel weist die Steuerung 270 ausschließlich die Bedeutung im Zusammenhang mit einer durch den Benutzer ausgeführten zeitlichen Folge auf. Das heißt, wenn die Steuerung 270 in der Szene 260 aus 2B erscheint, wäre es ihr Zweck, zu der vorherigen Betrachtungsposition zurückzukehren, die der 3D-Szene 200 aus 2A entspricht. Nach der Rückkehr an die 3D-Szene 200 aus 2A kann eine andere Steuerung unter dem Cursor 250 in der Szene 200 erscheinen, welche den Zweck aufweisen würde, zu der 3D-Szene 260 aus 2B zurückzukehren.
  • Wenn der Benutzer das Objekt 240 an Stelle der Steuerung 270 ausgewählt hat (nach der Auswahl des Objekts 230), erzeugt der Prozessor 110 eine neue 3D-Szene 280, wobei das Objekt 240 in der Anzeige 130 zentriert ist (wie dies in 2C dargestellt ist). Der Prozessor 110 würde ferner eine weitere Steuerung 290 erzeugen, die, wenn sie von dem Benutzer ausgewählt wird, bewirkt, dass der Prozessor 110 die 3D-Szene 260 aus 2B erneut erzeugt. Der Benutzer kann, wenn dies gewünscht wird, auch zu der Betrachtungsposition zurückkehren, die der 3D-Szene 200 aus 2A entspricht, indem die Steuerung 270 ausgewählt wird (sobald diese in der neu erzeugten 3D-Szene 260 aus 2B erscheint).
  • Nachdem in einem alternativen Ausführungsbeispiel der Prozessor 110 die 3D-Szene 260 aus 2B neu erzeugt hat, könnte dem Benutzer auch die Option zur Verfügung stehen, an die Betrachtungsposition zurückzukehren, die der 3D-Szene 280 aus 2C entspricht. Diese Option wäre zusätzlich zu der Option der Rückkehr an die Betrachtungsposition der 3D-Szene 200 aus 2A gegeben (wie dies bereits vorstehend im Text beschrieben worden ist). Das heißt, die Steuerung 270 aus 2B würde einen doppelten Zweck erfüllen. Der Benutzer könnte seinen Wunsch anzeigen, die 3D-Szene 200 aus 2A neu zu erzeugen, indem eine erste Benutzereingabe an der Benutzereingabevorrichtung 140 vorgenommen wird (wie etwa das Drücken der linken Maustaste), oder den Wunsch zum neuen Erzeugen der 3D-Szene 280 aus 2C durch Ausführen einer zweiten Benutzereingabe (wie etwa das Drücken einer rechten Maustaste) an der Benutzereingabevorrichtung 140, zum Beispiel.
  • Durch den Einsatz der Steuerung 270, 290 ist der Benutzer in der Lage schnell frühere Betrachtungspositionen zur folgenden Betrachtung und/oder Manipulation der 3D-Objekte 210 bis 240 in dem 3D-Raum anzunehmen. Die Steuerung 270, 290 wird bequem unter dem Cursor 250 platziert, so dass keine Bewegung des Cursors 250 erforderlich ist. Der Benutzer muss lediglich eine Taste drücken, um eine der vorherigen Positionen anzunehmen und spart dadurch beträchtlich an Zeit bei der Navigation in dem 3D-Raum im Vergleich zu traditionellen Navigationsmethoden.
  • In einem alternativen Ausführungsbeispiel kann der Prozessor 110 an Stelle des Anzeigens einer einzelnen Steuerung 270, 290 so konfiguriert werden, dass eine Mehrzahl von Steuerungen gleichzeitig angezeigt wird. Zum Beispiel können in der 3D-Szene 200, 260, 280 eine vorbestimmte Anzahl von kleinen Schaltflächen in einer Zeile oder ein Rechteck mit neun Steuerungen erscheinen. Folglich könnte der Benutzer die vorher angenommene Betrachtungsposition auswählen, indem er direkt auf die Steuerschaltfläche drückt, die der gewünschten Betrachtungsposition entspricht. Dies würde es dem Benutzer ermöglichen, durch die 3D-Szenen zu „springen" oder das Anzeigen von 3D-Szenen zu verhindern, die zwischen der aktuell angezeigten 3D-Szene und der gewünschten 3D-Szene erscheinen. Wenn die 3D-Szene 280 aus 23C zum Beispiel aktuell durch den Benutzer betrachtet wird, und wenn der Benutzer zu der 3D-Szene 200 aus 2A zurückkehren möchte, so würde der Benutzer die Steuerung 270 auswählen (der beiden Steuerungen 270, 290, die gleichzeitig angezeigt werden), um zu der 3D-Szene 200 aus 2A zurückzukehren. In vorteilhafter Weise würde der Benutzer nicht dazwischen zu der 3D-Szene 260 aus 2B zurückkehren müssen, um zu der gewünschten Szene 200 aus 2A zu gelangen.
  • Da in dem vorliegenden Ausführungsbeispiel eine Mehrzahl von Steuerungen gleichzeitig angezeigt wird, können die Steuerungen jeweils bezeichnet sein, wodurch die entsprechende Betrachtungsposition angezeigt wird, welche die Steuerung darstellt. Wenn es sich bei dem Objekt 230 zum Beispiel um einen Tisch und bei dem Objekt 240 um einen Stuhl handelt, so könnten die Steuerungen (die diesen Objekten 230, 240 entsprechen) jeweils entsprechend mit „Tisch" und „Stuhl" bezeichnet werden, um den Benutzer daran zu erinnern. Um ferner die Größe der Steuerungen klein zu halten (d.h. um eine zu große Sichtbehinderung in der 3D-Szene 200, 260, 280 zu verhindern), könnten die Bezeichnungen nur vorübergehend erscheinen, indem der Cursor 250 über einer der Steuerungen platziert wird (d.h. unter Verwendung einer „Wischtechnik").
  • Bei diesem Ausführungsbeispiel mit „mehreren" Steuerungen sind die Steuerungen dicht aneinander platziert, so dass die Bewegung des Cursors 250 zwischen den Steuerungen minimal ist. Somit ist die nahezu zu vernachlässigende Größe de Bewegung des Cursors 250 in dem vorliegenden Ausführungsbeispiel den Aufwand durchaus lohnt, indem es nicht erforderlich ist, dass der Benutzer durch intermediäre 3D-Szenen springt, wie dies in dem Ausführungsbeispiel mit nur „einer" Steuerung der Fall ist.
  • In folgendem Bezug auf die Abbildungen der 4A und B zeigen diese ein Flussdiagramm eines Verfahrens 400, das durch die Vorrichtung 100 aus 1 ausgeführt wird, um die Navigation in einer 3D-Szene zu erleichtern. Das Verfahren 400 beginnt mit dem Schritt 405, in dem der Prozessor 110, auf dem eine Computergrafikanwendung ausgeführt wird, zuerst die 3D-Grafikszene 200 aus 2A zur visuellen Darstellung für den Benutzer über die Anzeige 130 erzeugt. Die 3D-Szene 200 entspricht einer bestimmten Betrachtungsposition in dem 3D-Raum, von dem der Benutzer einen virtuellen Bestandteil darstellt. Der Benutzer kann seine Betrachtungsposition in dem 3D-Raum verändern (d.h. navigieren), um verschiedene visuelle Perspektiven der Objekte 210 bis 240 zu erhalten, die in dem 3D-Raum vorhanden sind. Die Art und Weise, wie der Benutzer seine visuelle Position in dem 3D-Raum verändert, kann durch traditionelle Navigationsverfahren erfolgen, wie dies bereits vorstehend im Text beschrieben worden ist.
  • Der Prozessor 110 initialisiert eine Positionsvariable „x" in dem Schritt 410, um die erste visuelle Position anzuzeigen, welche der Benutzer in dem 3D-Raum annimmt. In dem bereitgestellten Beispiel würde die 3D-Szene 200 aus 2A die erste visuelle Position des Benutzers in dem 3D-Raum darstellen. Wenn sich de r. Benutzer von einer visuellen Position an eine andere bewegt, erhöht sich die Positionsvariable x, um die neue visuelle Position des Benutzers wiederzugeben. In diesem Beispiel wäre somit die 3D-Szene 260 aus 2B die zweite von dem Benutzer angenommene visuelle Position, wobei die 3D-Szene 280 aus 2C die dritte Position wäre, und so weiter. Nach der Initialisierung dieser Positionsvariable x speichert der Prozessor 110 im den Schritt 415 einen Positionsvektor (wie dies bereits vorstehend im Text beschrieben worden ist), wobei dieser die Ausrichtung des Benutzers beschreibt (d.h. die Betrachtungsposition des Benutzers) in dem 3D-Raum, die jeder Position x entspricht, die der Benutzer annimmt. Durch Speichern dieses Positionsvektors ist der Prozessor 110 somit in der Lage, eine bestimmte 3D-Szene 200, 260, 280 wieder zu erzeugen, wenn dies in der Folge durch den Benutzer wieder gewünscht wird.
  • Nach dem Speichern des der jeweiligen Betrachtungsposition (d.h. der Position x) entsprechenden Positionsvektors wartet der Prozessor 110 auf Eingabe von dem Benutzer über die Benutzereingabevorrichtung 140 in dem Schritt 420. Wenn eine Eingabe empfangen wird, bestimmt der Prozessor 110, ob der Benutzer wünscht, sich in dem 3D-Raum neu zu positionieren, Schritt 425. Dieser Wunsch zur neuen Positionierung kann dadurch bestimmt werden, dass der Benutzer ein bestimmtes Objekt in dem 3D-Raum auswählt oder durch eine andere vorbestimmte Handlung, die der Benutzer ausführt. Wenn der Prozessor 110 bestimmt, dass der Benutzer keine neue Position in dem 3D-Raum wünscht, so wird in dem Schritt 430 bestimmt, ob der Benutzer die 3D-Anwendung verlassen möchte. Wenn der Benutzer den Wunsch angezeigt hat, die 3D-Anwendung zu verlassen, so endet das Verfahren 400 in dem Schritt 435. Wenn die Benutzereingabe jedoch nicht angezeigt hat, dass der Wunsch zum beenden der 3D-Anwendung existiert, so fährt das Verfahren 400 mit dem Schritt 440 fort, in dem der Prozessor 110 die gewünschte Aufgabe ausführt, die durch den Benutzer eingegeben worden ist, und das Verfahren springt zurück zu dem Schritt 420, wo auf weitere Eingaben durch den Benutzer gewartet wird.
  • Wenn in dem Schritt 425 bestimmt worden ist, dass der Benutzer eine neue Position in dem 3D-Raum wünscht, fährt das Verfahren 400 mit dem Schritt 450 fort, in dem der Prozessor 110 die Positionsvariable x um eins erhöht, um die nächste visuelle Position anzuzeigen, die der Benutzer in dem 3D-Raum einnimmt. Nach der Erhöhung der Positionsvariable x verändert der Benutzer 110 die visuelle Ausrichtung des Benutzers in dem 3D-Raum durch das Erzeugen einer neuen 3D-Szene, die der visuellen Position x entspricht, welche durch den Benutzer in dem Schritt 455 eingenommen worden ist. Der Prozessor 110 speichert danach in dem Schritt 460 den Positionsvektor, der der neuen Position x des Benutzers in dem 3D-Raum entspricht.
  • Nachdem der Benutzer an der neuen Position x platziert worden ist und der entsprechende Positionsvektor gespeichert worden ist, zeigt der Prozessor 110 in dem Schritt 465 die Steuerung 270, 290 an, welche die visuelle Position anzeigt, die unmittelbar auf die aktuelle Position x (d.h. die Position x – 1) des Benutzers folgt. In einem alternativen Ausführungsbeispiel kann die Steuerung 270, 290 die Position x – 1 und x + 1 (d.h. die früheren visuellen Positionen, die unmittelbar vor der aktuellen Position x und folgend auf die aktuelle Position x gegeben sind) darstellen. Die Position x + 1 wäre nur anwendbar, wenn der Benutzer vorher die Steuerung 270, 290 ausgewählt hat.
  • In dem Schritt 470 wird bestimmt, ob der Benutzer die Steuerung 270, 290 über die Benutzereingabevorrichtung 140 ausgewählt hat. Wie dies bereits vorstehend im Text beschrieben worden ist, wird die Steuerung 270, 290 unter dem Cursor 250 platziert, und der Benutzer kann die Steuerung 270, 290 auswählen, indem einfach zum Beispiel die linke Maustaste der Benutzereingabevorrichtung 140 gedrückt wird. Wenn die Steuerung 270, 290 eine doppelte Funktion erfüllt, indem die Positionen x – 1 und x + 1 dargestellt werden, kann die rechte Maustaste verwendet werden, um die Position x + 1 auszuwählen, und die linke Maustaste würde für die Realisierung der Position x – 1 reserviert sein.
  • Wenn der Benutzer in dem Schritt 470 die Steuerung 270, 290 nicht ausgewählt hat, springt das Verfahren zu dem Schritt 420 zurück, in dem der Prozessor 110 auf weitere Eingabe durch den Benutzer wartet. Wenn der Benutzer in dem Schritt 470 hingegen die Steuerung 270, 290 ausgewählt hat, setzt der Prozessor 110 die Positionsvariable x entweder herunter oder inkrementiert diese, abhängig davon, ob die entsprechende linke oder rechte Maustaste durch den Benutzer betätigt worden ist. Nach dem Herabsetzen oder Inkrementieren der aktuellen Positionsvariable x springt das Verfahren 400 zu dem Schritt 455 zurück, in dem der Prozessor 110 den Benutzer wieder zurück an die gewünschte visuelle Position platziert und die entsprechende 3D-Szene 200, 260, 280 erzeugt.
  • Die opportunistische Steuerung muss nicht unbedingt eingesetzt werden, um den Benutzer an eine vorherige Betrachtungsposition in der 3D-Szene zurückzuführen, wie dies vorstehend im Text bereits beschrieben worden ist, wobei auch eine alternative Konfiguration zur Ausführung anderer Funktionen möglich ist. Wenn ein Benutzer zum Beispiel von einem ersten Objekt zu einem zweiten Objekt in einer bestimmten Szene navigiert, kann eine Steuerung erscheinen, die die gleiche Bedeutung hat, um das Erscheinungsbild es zweiten Objekts zu verändern. Eine derartige Veränderung des Erscheinungsbilds kann zum Beispiel eine „Schattierung" des zweiten Objekts darstellen, um anzuzeigen, dass das Objekt durch den Benutzer in der Szene betrachtet wird. Als weiteres Beispiel kann es sich bei der Auswahl der Steuerung auch darum handeln, dass es dem Benutzer ermöglicht wird, durch das zweite Objekt zu sehen (d.h. „Röntgenblick"), so dass der Benutzer andere Objekte in der Szene betrachten kann, die durch das zweite Objekt verdeckt werden. Die Auswahl dieser Steuerung kann somit bewirken, dass das zweite Objekt aus einem „opaken" (Sichtbehinderung) Zustand in einen „transparenten" (ohne Sichtbehinderung) Zustand wechselt.
  • Die vorliegende Erfindung wurde vorstehend in Bezug auf dreidimensionale Computeranwendungen beschrieben, wobei hiermit festgestellt wird, dass auch alternative Arten von Computeranwendungen, wie zum Beispiel zweidimensionale Grafikanwendungen oder textbasierte Anwendungen, in ähnlicher Weise von der opportunistischen Steuerungstechnik profitieren können, ohne dabei vom Gedanken oder Umfang der vorliegenden Erfindung abzuweichen.
  • Die vorstehend offenbarten speziellen Ausführungsbeispiele dienen lediglich Veranschaulichungszwecken, wobei die Erfindung auch modifiziert und anders, jedoch auf ähnliche Weise ausgeführt werden kann, wie dies für den Fachmann auf dem Gebiet ersichtlich ist, der von den Lehren hierin profitiert. Ferner sind abweichend von der Beschreibung in den folgenden Ansprüchen keinerlei Einschränkungen hinsichtlich der Einzelheiten des hierin dargestellten Aufbaus oder Designs beabsichtigt. Somit ist es offensichtlich, dass die vorstehend offenbarten besonderen Ausführungsbeispiele abgeändert oder modifiziert werden können, und wobei all diese Abänderungen dem Umfang der Erfindung entsprechen. Somit entspricht der hierin ersuchte Schutzumfang den Ausführungen in den folgenden Ansprüchen.

Claims (10)

  1. Verfahren, das folgendes umfasst: das Anzeigen (130) einer Mehrzahl dreidimensionaler Bilder (210240) an einer ersten Betrachtungsposition einer Reihe von Betrachtungspositionen; das Anzeigen eines Cursors (250) an jeder Betrachtungsposition der Reihe von Betrachtungspositionen; das Anzeigen mindestens einer Bildauswahlschaltfläche (270) an einer letzten Betrachtungsposition der Reihe von Betrachtungspositionen, wobei jede Bildauswahlschaltfläche einer der Betrachtungspositionen der Reihe von Betrachtungspositionen zugeordnet ist; das Anzeigen mindestens eines Bilds der Mehrzahl dreidimensionaler Bilder an der letzten Betrachtungsposition der Reihe von Betrachtungspositionen; das Bewegen (140) des Cursors in einem der angezeigten dreidimensionalen Bilder; das gleichzeitige Bewegen der Bildauswahlschaltfläche (270) im Verhältnis zu der Bewegung des Cursors; und das Auswählen einer der Bildauswahlschaltflächen an der letzten Betrachtungsposition der Reihe von Betrachtungspositionen, wobei das Auswählen der Bildauswahlschaltfläche eine der Betrachtungspositionen der Reihe von Betrachtungspositionen anzeigt; und das Anzeigen des der ausgewählten Bildauswahlschaltfläche zugeordneten dreidimensionalen Bilds.
  2. Verfahren nach Anspruch 1, wobei das Anzeigen der mindestens einen Bildauswahlschaltfläche (290) ferner das Anzeigen der Bildauswahlschaltflächen unterhalb des Cursors (250) umfasst.
  3. Verfahren nach Anspruch 1, wobei das Verfahren ferner das Nichtanzeigen der Bildauswahlschaltfläche umfasst, nachdem ein Zeitraum abgelaufen ist.
  4. Verfahren nach Anspruch 1, wobei das Verfahren ferner das Nichtanzeigen der Bildauswahlschaltfläche als Reaktion auf eine durch einen Benutzer vorgenommene Handlung umfasst.
  5. Verfahren nach Anspruch 1, wobei das Verfahren ferner das Empfangen von Signalen von einer Benutzereingabevorrichtung umfasst sowie das Bewegen des Cursors als Reaktion auf die empfangenen Signale.
  6. Vorrichtung, die folgendes umfasst: eine Einrichtung (130) zum Anzeigen einer Mehrzahl dreidimensionaler Bilder (210240) an einer ersten Betrachtungsposition einer Reihe von Betrachtungspositionen; eine Einrichtung (250) zum Anzeigen eines Cursors an jeder Betrachtungsposition der Reihe von Betrachtungspositionen; eine Einrichtung (270) zum Anzeigen mindestens einer Bildauswahlschaltfläche an einer letzten Betrachtungsposition der Reihe von Betrachtungspositionen, wobei jede Bildauswahlschaltfläche einer der Betrachtungspositionen der Reihe von Betrachtungspositionen zugeordnet ist; eine Einrichtung (110) zum Anzeigen mindestens eines Bilds der Mehrzahl dreidimensionaler Bilder an der letzten Betrachtungsposition der Reihe von Betrachtungspositionen; eine Einrichtung zum Bewegen (140) des Cursors in einem der angezeigten dreidimensionalen Bilder; eine Einrichtung (110) zum gleichzeitigen Bewegen der Bildauswahlschaltfläche im Verhältnis zu der Bewegung des Cursors; und eine Einrichtung zum Auswählen einer der Bildauswahlschaltflächen an der letzten Betrachtungsposition der Reihe von Betrachtungspositionen, wobei das Auswählen der Bildauswahlschaltfläche eine der Betrachtungspositionen der Reihe von Betrachtungspositionen anzeigt; und zum Anzeigen des der ausgewählten Bildauswahlschaltfläche zugeordneten dreidimensionalen Bilds.
  7. Vorrichtung nach Anspruch 6, wobei diese ferner eine Einrichtung (290) zum Anzeigen der Bildauswahlschaltfläche unterhalb des (250) Cursors.
  8. Vorrichtung nach Anspruch 6, wobei diese ferner eine Einrichtung zum Nichtanzeigen der Bildauswahlschaltfläche nach Ablauf eines Zeitraums umfasst.
  9. Vorrichtung nach Anspruch 6, wobei diese ferner eine Einrichtung zum Nichtanzeigen der Bildauswahlschaltfläche als Reaktion auf eine durch einen Benutzer ausgeführte Handlung umfasst.
  10. Vorrichtung nach Anspruch 6, wobei diese ferner eine Einrichtung zum Empfangen von Signalen von einer Benutzereingabevorrichtung umfasst; und eine Einrichtung zum Bewegen des Cursors als Reaktion auf die empfangenen Signale.
DE69835770T 1997-12-15 1998-12-14 Verfahren und gerät zum vereinfachen der navigation in dreidimensionalen grafischen szenen Expired - Lifetime DE69835770T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US990228 1997-12-15
US08/990,228 US6271854B1 (en) 1997-12-15 1997-12-15 Method and apparatus for facilitating navigation in three-dimensional graphic scenes
PCT/US1998/027194 WO1999031628A1 (en) 1997-12-15 1998-12-14 Method and apparatus for facilitating navigation in three-dimensional graphic scenes

Publications (2)

Publication Number Publication Date
DE69835770D1 DE69835770D1 (de) 2006-10-12
DE69835770T2 true DE69835770T2 (de) 2007-09-20

Family

ID=25535924

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69835770T Expired - Lifetime DE69835770T2 (de) 1997-12-15 1998-12-14 Verfahren und gerät zum vereinfachen der navigation in dreidimensionalen grafischen szenen

Country Status (5)

Country Link
US (1) US6271854B1 (de)
EP (1) EP1046137B1 (de)
AU (1) AU1936799A (de)
DE (1) DE69835770T2 (de)
WO (1) WO1999031628A1 (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6525747B1 (en) * 1999-08-02 2003-02-25 Amazon.Com, Inc. Method and system for conducting a discussion relating to an item
US6828962B1 (en) * 1999-12-30 2004-12-07 Intel Corporation Method and system for altering object views in three dimensions
CA2328795A1 (en) 2000-12-19 2002-06-19 Advanced Numerical Methods Ltd. Applications and performance enhancements for detail-in-context viewing technology
CA2345803A1 (en) 2001-05-03 2002-11-03 Idelix Software Inc. User interface elements for pliable display technology implementations
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US7269632B2 (en) 2001-06-05 2007-09-11 Xdyne, Inc. Networked computer system for communicating and operating in a virtual reality environment
US9760235B2 (en) 2001-06-12 2017-09-12 Callahan Cellular L.L.C. Lens-defined adjustment of displays
US7084886B2 (en) 2002-07-16 2006-08-01 Idelix Software Inc. Using detail-in-context lenses for accurate digital image cropping and measurement
WO2002101534A1 (en) 2001-06-12 2002-12-19 Idelix Software Inc. Graphical user interface with zoom for detail-in-context presentations
CA2361341A1 (en) 2001-11-07 2003-05-07 Idelix Software Inc. Use of detail-in-context presentation on stereoscopically paired images
CA2370752A1 (en) 2002-02-05 2003-08-05 Idelix Software Inc. Fast rendering of pyramid lens distorted raster images
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406047A1 (en) 2002-09-30 2004-03-30 Ali Solehdin A graphical user interface for digital media and network portals using detail-in-context lenses
CA2449888A1 (en) 2003-11-17 2005-05-17 Idelix Software Inc. Navigating large images using detail-in-context fisheye rendering techniques
CA2411898A1 (en) 2002-11-15 2004-05-15 Idelix Software Inc. A method and system for controlling access to detail-in-context presentations
US7570261B1 (en) * 2003-03-06 2009-08-04 Xdyne, Inc. Apparatus and method for creating a virtual three-dimensional environment, and method of generating revenue therefrom
US20050128212A1 (en) * 2003-03-06 2005-06-16 Edecker Ada M. System and method for minimizing the amount of data necessary to create a virtual three-dimensional environment
JP4252575B2 (ja) * 2003-06-11 2009-04-08 株式会社ソニー・コンピュータエンタテインメント 映像表示装置、映像表示方法および映像表示システム
US7486302B2 (en) 2004-04-14 2009-02-03 Noregin Assets N.V., L.L.C. Fisheye lens graphical user interfaces
US8106927B2 (en) 2004-05-28 2012-01-31 Noregin Assets N.V., L.L.C. Graphical user interfaces and occlusion prevention for fisheye lenses with line segment foci
US9317945B2 (en) 2004-06-23 2016-04-19 Callahan Cellular L.L.C. Detail-in-context lenses for navigation
US7714859B2 (en) 2004-09-03 2010-05-11 Shoemaker Garth B D Occlusion reduction and magnification for multidimensional data presentations
US7995078B2 (en) 2004-09-29 2011-08-09 Noregin Assets, N.V., L.L.C. Compound lenses for multi-source data presentation
JP4388878B2 (ja) 2004-10-19 2009-12-24 任天堂株式会社 入力処理プログラムおよび入力処理装置
US7580036B2 (en) 2005-04-13 2009-08-25 Catherine Montagnese Detail-in-context terrain displacement algorithm with optimizations
JP4262217B2 (ja) * 2005-04-26 2009-05-13 任天堂株式会社 ゲームプログラム及びゲーム装置
JP4260770B2 (ja) * 2005-05-09 2009-04-30 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8031206B2 (en) 2005-10-12 2011-10-04 Noregin Assets N.V., L.L.C. Method and system for generating pyramid fisheye lens detail-in-context presentations
US7983473B2 (en) 2006-04-11 2011-07-19 Noregin Assets, N.V., L.L.C. Transparency adjustment of a presentation
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9026938B2 (en) 2007-07-26 2015-05-05 Noregin Assets N.V., L.L.C. Dynamic detail-in-context user interface for application access and content access on electronic displays
US10025454B2 (en) * 2007-09-26 2018-07-17 Autodesk, Inc. Navigation system for a 3D virtual scene
US8335673B2 (en) * 2009-12-02 2012-12-18 International Business Machines Corporation Modeling complex hiearchical systems across space and time
US10108693B2 (en) 2013-03-14 2018-10-23 Xdyne, Inc. System and method for interacting with virtual maps
CN109144393B (zh) * 2018-08-28 2020-08-07 维沃移动通信有限公司 一种图像显示方法及移动终端
US11842729B1 (en) * 2019-05-08 2023-12-12 Apple Inc. Method and device for presenting a CGR environment based on audio data and lyric data

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528735A (en) * 1993-03-23 1996-06-18 Silicon Graphics Inc. Method and apparatus for displaying data within a three-dimensional information landscape
US5555354A (en) * 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
US5689628A (en) * 1994-04-14 1997-11-18 Xerox Corporation Coupling a display object to a viewpoint in a navigable workspace
US5734805A (en) * 1994-06-17 1998-03-31 International Business Machines Corporation Apparatus and method for controlling navigation in 3-D space
US5621430A (en) * 1994-08-29 1997-04-15 Software Garden, Inc. Method and apparatus for navigating multiple independent windowed images
US5808613A (en) * 1996-05-28 1998-09-15 Silicon Graphics, Inc. Network navigator with enhanced navigational abilities
US5841440A (en) * 1996-12-17 1998-11-24 Apple Computer, Inc. System and method for using a pointing device to indicate movement through three-dimensional space

Also Published As

Publication number Publication date
DE69835770D1 (de) 2006-10-12
EP1046137B1 (de) 2006-08-30
WO1999031628A8 (en) 1999-07-29
WO1999031628A1 (en) 1999-06-24
US6271854B1 (en) 2001-08-07
AU1936799A (en) 1999-07-05
EP1046137A1 (de) 2000-10-25
EP1046137A4 (de) 2002-08-28

Similar Documents

Publication Publication Date Title
DE69835770T2 (de) Verfahren und gerät zum vereinfachen der navigation in dreidimensionalen grafischen szenen
DE60003578T2 (de) Simuliertes dreidimensionales menunavigationssystem
DE69910710T2 (de) Berührungsempfindlicher bildschirm mit autozoom-anordnung
DE60025926T2 (de) Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm
DE102005046664B4 (de) Verfahren zur Erzeugung eines flexiblen Anzeigebereichs für ein Videoüberwachungssystem
DE69816789T2 (de) Verfahren und system zur gestengesteuerten optionsauswahl
DE60201692T2 (de) Auf 3D Objekten angewendetes 2D Bildverarbeitungsverfahren
DE60308541T2 (de) Mensch-maschine-schnittstelle unter verwendung einer deformierbaren einrichtung
DE60225933T2 (de) Tragbare virtuelle realität
DE69732663T2 (de) Verfahren zur erzeugung und änderung von 3d modellen und korrelation von solchen modellen mit 2d bildern
DE69816688T2 (de) Perspektivsteuerung für Videospielbilder
DE69725875T2 (de) Videobetrachtungserfahrungen mit hilfe von standbildern
DE60133386T2 (de) Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
DE69630072T2 (de) Vorrichtung und Verfahren zur dreidimensionalen graphischen Darstellung von Informationen
EP1374027B1 (de) Positionieren von auf einer benutzeroberfläche angezeigten bereichen
DE10016753A1 (de) Verfahren zum Navigieren zwischen Ausschnitten in einem Darstellungsraum
WO2011020683A1 (de) Kontinuierliche bestimmung einer perspektive
DE69837165T2 (de) Verfahren und gerät für automatische animation von dreidimensionalen grafischen szenen für verbesserte 3-d visualisierung
DE4033465A1 (de) Interaktives computer-gesteuertes displaysystem
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
EP2332322B1 (de) Mobiltelefon mit menüführung auf dem bildschirm
EP3903172A1 (de) Verfahren und anordnung zur ausgabe eines head up display auf einem head mounted display
DE19744941C2 (de) Verfahren zur Fernbedienung einer Präsentationseinrichtung
DE112019002798T5 (de) Informationsverarbeitungsvorrichtung, informationsverabeitungsverfahren und programm
DE60015967T2 (de) System und verfahren zur änderung der drehlage von anzeigedaten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: WOLFORD ASSOCIATES LLC., WILMINGTON, DEL., US

8327 Change in the person/name/address of the patent owner

Owner name: HEATHWAY HOLDINGS, LLC, WILMINGTON, DEL., US

8328 Change in the person/name/address of the agent

Representative=s name: HEYER, V., DIPL.-PHYS. DR.RER.NAT., PAT.-ANW., 806