DE102020104415A1 - Bewegung in einer umgebung - Google Patents

Bewegung in einer umgebung Download PDF

Info

Publication number
DE102020104415A1
DE102020104415A1 DE102020104415.1A DE102020104415A DE102020104415A1 DE 102020104415 A1 DE102020104415 A1 DE 102020104415A1 DE 102020104415 A DE102020104415 A DE 102020104415A DE 102020104415 A1 DE102020104415 A1 DE 102020104415A1
Authority
DE
Germany
Prior art keywords
cgr
environment
enlarged portion
cgr environment
neighborhood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020104415.1A
Other languages
English (en)
Inventor
Ryan S. Burgoyne
Bradley Peebler
Philipp Rockel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE102020104415A1 publication Critical patent/DE102020104415A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Ein Verfahren schließt das Anzeigen eines vergrößerten Abschnitts und eines unvergrößerten Abschnitts einer Umgebung der computergenerierten Realität (CGR) von einer ersten Position ein. Als Reaktion auf das Empfangen einer Eingabe wird ein vergrößerter Abschnitt der CGR-Umgebung von einer zweiten Position mit einer Vergrößerung angezeigt, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position und einem Sichtfeld, das größer ist als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Ein erster unvergrößerter Abschnitt der CGR-Umgebung von einer dritten Position wird mit einem Sichtfeld angezeigt, das größer ist als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der zweiten Position. Dann wird ein zweiter unvergrößerter Abschnitt der CGR-Umgebung von der dritten Position mit einem Sichtfeld angezeigt, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.

Description

  • STAND DER TECHNIK
  • Technisches Gebiet
  • Die vorliegende Offenbarung bezieht sich allgemein auf computergenerierte Realität (CGR) und insbesondere auf Techniken zur Fortbewegung in einer CGR-Umgebung.
  • Verwandtes technisches Gebiet
  • Einige CGR-Anwendungen zeigen die CGR-Umgebung von einer bestimmten Position in der CGR-Umgebung. In einigen Fällen stellt die Position den Ort eines Benutzers oder einer virtuellen Kamera innerhalb der CGR-Umgebung dar. In einigen Anwendungen kann ein Benutzer wünschen, sich innerhalb der CGR-Umgebung zu bewegen und/oder auf die CGR-Umgebung aus einer anderen Position zu sehen. Die Bewegung in einer CGR-Umgebung muss nicht direkt der tatsächlichen physischen Bewegung des Benutzers in der realen Welt entsprechen. Tatsächlich kann sich ein Benutzer schnell über große Entfernungen in einer CGR-Umgebung bewegen, was in der realen Welt nicht machbar wäre. Aufmerksame Benutzer können Nichtlinearität zwischen Bewegung in CGR relativ zur Bewegung in der realen Welt erkennen.
  • KURZE ZUSAMMENFASSUNG
  • Die vorliegende Offenbarung beschreibt Techniken zum Ändern der Position, aus der eine CGR-Umgebung angezeigt wird. In Ausführungsformen, in denen die Position die Position eines Benutzers innerhalb der CGR-Umgebung darstellt, ermöglicht einem Benutzer ein Ändern der Position, um sich innerhalb der CGR-Umgebung zu bewegen. Die unten beschriebenen Techniken erlauben einem Benutzer einen sanften Übergang von einem Ort zu einem anderen in einer CGR-Umgebung unter Beibehaltung des Kontexts (z. B., wohin sich der Benutzer relativ zu dem Ort bewegt hat, wo er zuvor war).
  • In einigen Ausführungsformen schließt ein Verfahren zum Bewegen um eine CGR-Umgebung die Anzeige eines vergrößerten Abschnitts der CGR-Umgebung von einer ersten Position und eines unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position ein. Eine Eingabe wird empfangen und als Reaktion auf das Empfangen der Eingabe: wird ein vergrößerter Abschnitt der CGR-Umgebung von einer zweiten Position angezeigt, wird ein erster unvergrößerter Abschnitt der CGR-Umgebung von einer dritten Position angezeigt, und, nach dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position wird ein zweiter unvergrößerter Abschnitt der CGR-Umgebung von der dritten Position angezeigt. Der vergrößerte Abschnitt der CGR-Umgebung von der zweiten Position weist eine Vergrößerung auf, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position weist ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der erste unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung aus der zweiten Position. Der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • In einigen Ausführungsformen speichert ein flüchtiges oder nicht flüchtiges computerlesbares Speichermedium eines oder mehrere Programme, die konfiguriert sind, um durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung ausgeführt zu werden. Das eine oder die mehreren Programme umfassen Befehle zum Anzeigen eines vergrößerten Abschnitts einer CGR-Umgebung von einer ersten Position und eines unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Das eine oder die mehreren Programme umfassen ferner Befehle zum Empfangen einer Eingabe und, als Reaktion auf das Empfangen der Eingabe: Anzeigen eines vergrößerten Abschnitts der CGR-Umgebung von einer zweiten Position, Anzeigen eines ersten unvergrößerten Abschnitts der CGR-Umgebung von einer dritten Position, und, nach dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position, Anzeigen eines zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position. Der vergrößerte Abschnitt der CGR-Umgebung von der zweiten Position weist eine Vergrößerung auf, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position weist ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der erste unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung aus der zweiten Position. Der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • In einigen Ausführungsformen schließt eine elektronische Vorrichtung einen oder mehrere Prozessoren und einen Speicher zum Speichern von einem oder mehreren Programmen ein, die konfiguriert sind, um durch einen oder mehrere Prozessoren ausgeführt zu werden. Das eine oder die mehreren Programme umfassen Befehle zum Anzeigen eines vergrößerten Abschnitts einer CGR-Umgebung von einer ersten Position und eines unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Das eine oder die mehreren Programme umfassen ferner Befehle zum Empfangen einer Eingabe und, als Reaktion auf das Empfangen der Eingabe: Anzeigen eines vergrößerten Abschnitts der CGR-Umgebung von einer zweiten Position, Anzeigen eines ersten unvergrößerten Abschnitts der CGR-Umgebung von einer dritten Position, und, nach dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position, Anzeigen eines zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position. Der vergrößerte Abschnitt der CGR-Umgebung von der zweiten Position weist eine Vergrößerung auf, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position weist ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der erste unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung aus der zweiten Position. Der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • In einigen Ausführungsformen schließt eine elektronische Vorrichtung Mittel zum Anzeigen eines vergrößerten Abschnitts einer CGR-Umgebung von einer ersten Position und eines unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position, ein Mittel zum Empfangen einer Eingabe, und Mittel als Reaktion auf das Empfangen der Eingabe ein zum: Anzeigen eines vergrößerten Abschnitts der CGR-Umgebung von einer zweiten Position, Anzeigen eines ersten unvergrößerten Abschnitts der CGR-Umgebung von einer dritten Position, und, nach dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position, Anzeigen eines zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position. Der vergrößerte Abschnitt der CGR-Umgebung von der zweiten Position weist eine Vergrößerung auf, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position weist ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position. Der erste unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung aus der zweiten Position. Der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position weist ein Sichtfeld auf, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • Figurenliste
    • 1A-1B stellen beispielhafte Systeme zur Verwendung in verschiedenen Technologien computergenerierter Realität dar..
    • 2A-2H veranschaulichen Techniken zur Fortbewegung in einer CGR-Umgebung, gemäß verschiedenen Ausführungsformen.
    • 3 stellt ein Ablaufdiagramm eines beispielhaften Prozesses zur Fortbewegung in einer CGR-Umgebung gemäß verschiedenen Ausführungsformen dar.
  • DETAILLIERTE BESCHREIBUNG
  • Es werden verschiedene Ausführungsformen von elektronischen Systemen und Techniken zur Verwendung solcher Systeme in Bezug auf verschiedene CGR-Technologien beschrieben.
  • Eine physische Umgebung (oder reale Umgebung) bezieht sich auf eine physische Welt, die Menschen ohne die Hilfe von elektronischen Systemen wahrnehmen können und/oder mit der sie interagieren können. Physische Umgebungen, wie beispielsweise ein physischer Park, schließen physische Gegenstände (oder physische Objekte oder reale Objekte) ein, wie physische Bäume, physische Gebäude und physische Menschen. Menschen können die physische Umgebung direkt wahrnehmen und/oder mit ihr interagieren, z. B. durch Sehen, Berühren, Hören, Schmecken und Riechen.
  • Im Gegensatz dazu bezieht sich eine CGR-Umgebung auf eine ganz oder teilweise simulierte Umgebung, die Menschen über ein elektronisches System wahrnehmen und/oder mit der sie interagieren. In CGR wird eine Teilmenge der physischen Bewegungen einer Person oder deren Darstellungen verfolgt, und als Reaktion darauf werden eine oder mehrere Eigenschaften eines oder mehrerer virtueller Objekte, die in der CGR-Umgebung simuliert werden, so angepasst, dass sie mit mindestens einem physikalischen Gesetz übereinstimmen. Zum Beispiel kann ein CGR-System die Kopfdrehung einer Person erfassen und als Reaktion darauf den der Person präsentierten graphischen Inhalt und ein akustisches Feld auf ähnliche Weise einstellen, wie solche Ansichten und Töne sich in einer physischen Umgebung ändern würden. In einigen Situationen (z. B. aus Gründen der Zugänglichkeit) können Anpassungen an den Merkmalen virtueller Objekte in einer CGR-Umgebung als Reaktion auf Darstellungen physischer Bewegungen (z. B. Stimmbefehle) vorgenommen werden.
  • Eine Person kann ein CGR-Objekt mit einem ihrer Sinne wahrnehmen und/oder mit ihm interagieren, einschließlich Sehen, Hören, Berühren, Schmecken und Riechen. So kann beispielsweise eine Person Audioobjekte wahrnehmen und/oder mit ihnen interagieren, die eine 3D- oder räumliche Audioumgebung erzeugen, welche die Wahrnehmung von Punkt-Audioquellen im 3D-Raum ermöglicht. In einem anderen Beispiel können Audioobjekte Audiotransparenz ermöglichen, die selektiv Umgebungsgeräusche aus der physischen Umgebung mit oder ohne computergeneriertes Audio einbezieht. In einigen CGR-Umgebungen kann eine Person nur Audioobjekte wahrnehmen und/oder mit ihnen interagieren.
  • Beispiele für CGR schließen virtuelle Realität und gemischte Realität ein.
  • Eine Virtual-Reality-Umgebung (VR-Umgebung oder virtuelle Umgebung) bezieht sich auf eine simulierte Umgebung, die so ausgestaltet ist, dass sie vollständig auf computergenerierten sensorischen Eingaben für einen oder mehrere Sinne basiert. Eine VR-Umgebung umfasst eine Vielzahl von virtuellen Objekten, mit denen eine Person interagieren und/oder die sie wahrnehmen kann. Beispielsweise sind computergenerierte Bilder von Bäumen, Gebäuden und Avatars, die Menschen darstellen, Beispiele virtueller Objekte. Eine Person kann virtuelle Objekte in der VR-Umgebung durch eine Simulation der Anwesenheit der Person in der computergenerierten Umgebung und/oder durch eine Simulation einer Teilmenge der physischen Bewegungen der Person in der computergenerierten Umgebung wahrnehmen und/oder mit ihnen interagieren.
  • Im Gegensatz zu einer VR-Umgebung, die vollständig auf computergenerierten sensorischen Eingaben basiert, bezieht sich eine Mixed-Reality-Umgebung (MR-Umgebung) auf eine simulierte Umgebung, die dazu ausgelegt ist, sensorische Eingaben von der physischen Umgebung oder eine Darstellung davon zusätzlich zu computergenerierten sensorischen Eingaben (z. B. virtuellen Objekten) aufzunehmen. Auf einem Virtualitätskontinuum befindet sich eine MR-Umgebung irgendwo zwischen einer vollständig physischen Umgebung an einem Ende und einer VR-Umgebung am anderen Ende, ist aber nicht darauf beschränkt.
  • In manchen MR-Umgebungen können computergenerierte sensorische Eingaben auf Änderungen der sensorischen Eingaben von der physischen Umgebung reagieren. Außerdem können einige elektronische Systeme zur Darstellung einer MR-Umgebung den Standort und/oder die Ausrichtung in Bezug auf die physische Umgebung verfolgen, um es virtuellen Objekten zu ermöglichen, mit realen Objekten zu interagieren (d. h. physische Artikel aus der physischen Umgebung oder deren Darstellungen). Zum Beispiel kann ein System Bewegungen berücksichtigen, sodass ein virtueller Baum in Bezug auf die physische Erde stationär erscheint.
  • Beispiele für MR schließen erweiterte Realität (Augmented Reality) und erweiterte Virtualität (Augmented Virtuality) ein.
  • Eine Augmented-Reality-Umgebung (AR-Umgebung) bezieht sich auf eine simulierte Umgebung, in der ein oder mehrere virtuelle Objekte über eine physische Umgebung oder eine Darstellung davon gelegt werden. Zum Beispiel kann ein elektronisches System zum Präsentieren einer AR-Umgebung ein transparentes oder transluzentes Display aufweisen, durch das eine Person die physische Umgebung direkt betrachten kann. Das System kann konfiguriert sein, virtuelle Objekte auf dem transparenten oder transluzenten Display darzustellen, sodass eine Person unter Verwendung des Systems die virtuellen Objekte wahrnimmt, die über die physische Umgebung gelegt wurden. Alternativ kann ein System ein opakes Display und einen oder mehrere bildgebende Sensoren aufweisen, die Bilder oder Video der physischen Umgebung erfassen, die Darstellungen der physischen Umgebung sind. Das System setzt die Bilder oder Videos mit virtuellen Objekten zusammen, und stellt die Zusammensetzung auf dem opaken Display dar. Eine Person, die das System verwendet, betrachtet indirekt die physische Umgebung über die Bilder oder das Video der physischen Umgebung und nimmt die virtuellen Objekte wahr, die über die physische Umgebung gelegt wurden. Wie hierin verwendet, wird ein Video der physischen Umgebung, das auf einem opaken Display angezeigt wird, „Pass-Through-Video“ genannt, was bedeutet, dass ein System einen oder mehrere Bildsensoren verwendet, um Bilder der physischen Umgebung aufzunehmen, und diese Bilder verwendet, um die AR-Umgebung auf dem opaken Display darzustellen. Alternativ kann ein System auch ein Projektionssystem aufweisen, das virtuelle Objekte in die physische Umgebung projiziert, z. B. als Hologramm oder auf einer physischen Oberfläche, sodass eine Person, die das System verwendet, die über die physische Umgebung gelegten virtuellen Objekte wahrnimmt.
  • Eine AR-Umgebung bezieht sich auch auf eine simulierte Umgebung, in der eine Darstellung einer physischen Umgebung durch computergenerierte sensorische Informationen transformiert wird. So kann beispielsweise bei der Bereitstellung von Pass-Through-Videos ein System ein oder mehrere Sensorbilder transformieren, um eine ausgewählte Perspektive (z. B. einen Ansichtspunkt) festzulegen, die sich von der von den Bildsensoren erfassten Perspektive unterscheidet. Als weiteres Beispiel kann eine Darstellung einer physischen Umgebung durch graphisches Modifizieren (z. B. Vergrößern) von Teilen davon transformiert werden, sodass der modifizierte Abschnitt repräsentative aber nicht fotorealistische Versionen der ursprünglich aufgenommenen Bilder sein kann. Als weiteres Beispiel kann eine Darstellung einer physischen Umgebung transformiert werden, indem Teile davon grafisch eliminiert oder verschleiert werden.
  • Eine Augmented-Virtuality-Umgebung (AV-Umgebung) bezieht sich auf eine simulierte Umgebung, in der eine virtuelle oder computergenerierte Umgebung eine oder mehrere sensorische Eingaben aus der physischen Umgebung beinhaltet. Die sensorischen Eingaben können Darstellungen einer oder mehrerer Charakteristiken der physischen Umgebung sein. Ein AV-Park kann beispielsweise virtuelle Bäume und virtuelle Gebäude aufweisen, aber Menschen mit Gesichtern werden fotorealistisch aus Bildern von physischen Menschen reproduziert. Als weiteres Beispiel kann ein virtuelles Objekt eine Form oder Farbe eines physischen Gegenstands annehmen, der durch einen oder mehrere bildgebende Sensoren abgebildet wird. Als weiteres Beispiel kann ein virtuelles Objekt Schatten annehmen, die mit der Position der Sonne in der physischen Umgebung übereinstimmen.
  • Es gibt viele verschiedene Typen von elektronischen Systemen, die es einer Person ermöglichen, verschiedene CGR-Umgebungen wahrzunehmen und/oder mit diesen zu interagieren. Beispiele sind Datenhelmsysteme, projektionsbasierte Systeme, Heads-Up-Displays (HUDs), Fahrzeugwindschutzscheiben mit integrierter Displayfunktion, Fenster mit integrierter Displayfunktion, Displays, die als Linsen ausgebildet sind, die dazu bestimmt sind, auf den Augen einer Person platziert zu werden (z. B. ähnlich Kontaktlinsen), Kopfhörer/Ohrhörer, Lautsprecher-Arrays, Eingabesysteme (z. B. am Körper tragbare oder als Handgeräte ausgeführte Controller mit oder ohne haptische Rückmeldung), Smartphones, Tablets und Desktop-/Laptop-Computer. Ein Datenhelmsystem kann einen oder mehrere Lautsprecher und ein integriertes opakes Display aufweisen. Alternativ kann ein kopfmontiertes System konfiguriert sein, um ein externes opakes Display (z. B. ein Smartphone) aufzunehmen. Das kopfmontierte System kann einen oder mehrere bildgebende Sensoren enthalten, um Bilder oder Video der physischen Umgebung aufzunehmen, und/oder ein oder mehrere Mikrofone, um Audio der physischen Umgebung zu erfassen. Im Gegensatz zu einem opaken Display kann ein Datenhelmsystem ein transparentes oder transluzentes Displays aufweisen. Das transparente oder transluzente Display kann ein Medium aufweisen, durch das Licht, das für Bilder repräsentativ ist, auf die Augen einer Person gerichtet wird. Das Display kann digitale Lichtprojektion, OLEDs, LEDs, uLEDs, Flüssigkristalle auf Silicium, Laserscanning-Lichtquellen oder eine beliebige Kombination dieser Technologien verwenden. Das Medium kann ein Lichtwellenleiter, ein Hologrammmedium, ein optischer Kombinierer, ein optischer Reflektor oder irgendeine Kombination davon sein. In einer Ausführungsform kann das transparente oder transluzente Display konfiguriert sein, um selektiv opak zu werden. Projektionsbasierte Systeme können retinale Projektionstechnologie verwenden, die graphische Bilder auf die Netzhaut einer Person projiziert. Projektionssysteme können auch so konfiguriert sein, dass sie virtuelle Objekte in die physische Umgebung projizieren, beispielsweise als Hologramm oder auf eine physische Oberfläche.
  • 1A und 1B stellen beispielhaftes System 100 zur Verwendung in verschiedenen Technologien computergenerierter Realität dar.
  • In einigen Ausführungsformen, wie in 1A veranschaulicht, schließt das System 100 die Vorrichtung 100a ein. Die Vorrichtung 100a schließt verschiedene Komponenten, wie zum Beispiel Prozessor(en) 102, HF-Schaltung(en) 104, Speicher 106, Bildsensor(en) 108, Orientierungssensor(en) 110, Mikrofon(e) 112, Positionssensor(en) 116, Lautsprecher 118, Display(s) 120 und berührungsempfindliche Oberfläche(en) 122 ein. Diese Komponenten kommunizieren gegebenenfalls über Kommunikationsbus(se) 150 der Vorrichtung 100a.
  • In einigen Ausführungsformen werden Elemente des Systems 100 in einer Basisstation-Vorrichtung (z. B., einer Computervorrichtung, wie einem entfernten Server, einer mobilen Vorrichtung oder einem Laptop) implementiert und andere Elemente des Systems 100 sind in einer am Kopf tragbaren Anzeigevorrichtung (HMD-Vorrichtung) zum Tragen durch den Benutzer implementiert, wobei die HMD-Vorrichtung in Kommunikation mit der Basisstation-Vorrichtung steht. In einigen Ausführungsformen ist die Vorrichtung 100a in einer Basisstation-Vorrichtung oder einer HMD-Vorrichtung implementiert.
  • Wie in 1B veranschaulicht, schließt in einigen Ausführungsformen das System 100 zwei (oder mehr) in Kommunikation stehende Vorrichtungen, wie über eine verdrahtete Verbindung oder eine drahtlose Verbindung, ein. Die erste Vorrichtung 100b (z. B. eine Basisstation-Vorrichtung) schließt Prozessor(en) 102, HF-Schaltlogik 104 und Speicher 106 ein. Diese Komponenten kommunizieren gegebenenfalls über Kommunikationsbus(se) 150 der Vorrichtung 100b. Die zweite Vorrichtung 100c (z. B. eine am Kopf tragbare Vorrichtung) schließt verschiedene Komponenten, wie zum Beispiel Prozessor(en) 102, HF-Schaltung(en) 104, Speicher 106, Bildsensor(en) 108, Orientierungssensor(en) 110, Mikrofon(e) 112, Positionssensor(en) 116, Lautsprecher 118, Display(s) 120 und berührungsempfindliche Oberfläche(en) 122 ein. Diese Komponenten kommunizieren gegebenenfalls über Kommunikationsbus(se) 150 der Vorrichtung 100c.
  • In einigen Ausführungsformen ist das System 100 eine mobile Vorrichtung. In einigen Ausführungsformen ist das System 100 eine am Kopf tragbare Vorrichtung (HMD-Vorrichtung). In einigen Ausführungsformen ist das System 100 eine tragbare HUD-Vorrichtung.
  • System 100 schließt Prozessor(en), 102 und Speicher 106 ein. Prozessor(en) 102 schließen einen oder mehrere allgemeine Prozessoren, einen oder mehrere Grafikprozessoren, und/oder einen oder mehrere digitale Signalprozessoren ein. In einigen Ausführungsformen sind Speicher 106 ein oder mehrere nicht-flüchtige computerlesbare Speichermedien (z. B., Flash-Speicher, Direktzugriffsspeicher), die computerlesbare Befehle speichern, die konfiguriert sind, um durch Prozessor(en) 102 ausgeführt zu werden, um die unten beschriebenen Techniken durchzuführen.
  • System 100 schließt HF-Schaltlogik(en) 104 ein. Die HF-Schaltlogik(en) 104 schließen gegebenenfalls Schaltlogik zur Kommunikation mit elektronischen Vorrichtungen, Netzwerken, wie etwa Internet, Intranets und/oder ein drahtloses Netzwerk, wie Mobilfunknetze und drahtlose lokale Netzwerke (LANs) ein. HF-Schaltlogik(en) 104 schließen gegebenenfalls Schaltlogik zum Kommunizieren unter Verwendung der Nahfeld-Kommunikation und/oder Nahbereichs-Kommunikation, wie beispielsweise BluetoothⓇ ein.
  • System 100 schließt Display(s) 120 ein. In einigen Ausführungsformen schließen die Display(s) 120 ein erstes Display (z. B. eine Anzeigetafel des linken Auges) und ein zweites Display (z. B. eine Anzeigetafel des rechten Auges), wobei jedes Display dem jeweiligen Auge des Benutzers Bilder anzeigt. Entsprechende Bilder werden gleichzeitig in dem ersten Display und dem zweiten Display angezeigt. Gegebenenfalls schließen die entsprechenden Bilder die gleichen virtuellen Objekte und/oder Darstellungen der gleichen physischen Objekte aus unterschiedlichen Perspektiven ein, was zu einem Parallax-Effekt führt, der einem Benutzer die Illusion von Tiefe der Objekte auf den Displays bereitstellt. In einigen Ausführungsformen schließen Display(s) 120 ein einziges Display ein. Entsprechende Bilder werden gleichzeitig in einem ersten Bereich und einem zweiten Bereich des einzelnen Displays für jedes Auge des Benutzers angezeigt. Gegebenenfalls schließen die entsprechenden Bilder die gleichen virtuellen Objekte und/oder Darstellungen der gleichen physischen Objekte aus unterschiedlichen Perspektiven ein, was zu einem Parallax-Effekt führt, der einem Benutzer die Illusion von Tiefe der Objekte auf dem einzelnen Display bereitstellt.
  • In einigen Ausführungsformen schließt das System 100 berührungsempfindliche Oberfläche(en) 122 zum Empfangen von Benutzereingaben wie Tipp-Eingaben und Wisch-Eingaben ein. In einigen Ausführungsformen bilden die Display(s) 120 und berührungsempfindliche Oberfläche(en) 122 berührungsempfindliche Display(s).
  • System 100 schließt Bildsensor(en) 108 ein. Bildsensoren(en) 108 schließen gegebenenfalls einen oder mehrere Bildsensoren für sichtbares Licht wie CCD (Charge Coupled Device) -Sensoren und/oder CMOS (Complementary Metal Oxide Semiconductor) -Sensoren ein, die dazu dienen, Bilder physischer Objekte aus der realen Umgebung zu erhalten. Bildsensor(en) schließen gegebenenfalls auch einen oder mehrere Infrarot (IR) -Sensor(en) ein, wie beispielsweise einen passiven IR-Sensor oder einen aktiven IR-Sensor zum Erfassen von Infrarotlicht aus der realen Umgebung. Zum Beispiel schließt ein aktiver IR-Sensor einen IR-Strahler, wie beispielsweise einen IR-Punktemitter, zum Emittieren von Infrarotlicht in die reale Umgebung ein. Bildsensor(en) 108 schließen gegebenenfalls auch eine oder mehrere Ereigniskamera(s) ein, die konfiguriert sind, um eine Bewegung von physischen Objekten in der realen Umgebung zu erfassen. Bildsensor(en) 108 schließen gegebenenfalls auch einen oder mehrere Tiefensensor(en) ein, die konfiguriert sind, um den Abstand von physischen Objekten von dem System 100 zu erfassen. In einigen Ausführungsformen verwendet das System 100 CCD-Sensoren, Ereigniskameras und Tiefensensoren in Kombination, um die physische Umgebung um das System 100 herum zu erfassen. In einigen Ausführungsformen schließen der/die Bildsensor(en) 108 einen ersten Bildsensor und einen zweiten Bildsensor ein. Der erste Bildsensor und der zweite Bildsensor sind gegebenenfalls konfiguriert, um Bilder von physischen Objekten in der realen Umgebung aus zwei unterschiedlichen Perspektiven zu erfassen. In einigen Ausführungsformen verwendet das System 100 Bildsensor(en) 108, um Benutzereingaben zu empfangen, wie etwa Handgesten. In einigen Ausführungsformen verwendet System 100 Bildsensor(en) 108, um die Position und die Orientierung des Systems 100 und/oder Display(s) 120 in der realen Umgebung zu erfassen. Zum Beispiel verwendet das System 100 Bildsensor(en) 108, um die Position und Orientierung von Display(s) 120 relativ zu einem oder mehreren festen Objekten in der realen Umgebung zu verfolgen.
  • In einigen Ausführungsformen schließt das System 100 Mikrofon(e) 112 ein. System 100 verwendet Mikrofon(e) 112, um Töne von dem Benutzer und/oder der realen Umgebung des Benutzers zu erfassen. In einigen Ausführungsformen schließen Mikrofon(e) 112 ein Array von Mikrofonen (einschließlich einer Vielzahl von Mikrofonen), die gegebenenfalls in Tandem arbeiten, um Umgebungsrauschen zu identifizieren oder um die Tonquelle im Raum der realen Umgebung zu lokalisieren, ein.
  • System 100 schließt Orientierungssensor(en) 110 zum Erfassen der Orientierung und/oder Bewegung des Systems 100 und/oder der Display(s) 120 ein. Zum Beispiel verwendet System 100 Orientierungssensor(en) 110, um Änderungen der Position und/oder Orientierung des Systems 100 und/oder die Display(s) 120, wie in Bezug auf physische Objekte in der realen Umgebung zu verfolgen. Orientierungssensor(en) 110 schließen gegebenenfalls ein oder mehrere Gyroskope und/oder einen oder mehrere Beschleunigungsmesser ein.
  • 2A-2H veranschaulichen Techniken zum Bewegen um eine CGR-Umgebung. 2A veranschaulicht System 200, das Display 202 einschließt. In einigen Ausführungsformen schließt das System 200 das System 100, Vorrichtung 100a, Vorrichtung 100b, und/oder Vorrichtung 100c ein. In einigen Ausführungsformen ist oder schließt das Display 202 Displays 120, wie oben beschrieben, ein. In 2A zeigt das System 200 CGR-Umgebung 204 auf dem Display 202.
  • Wie in 2A veranschaulicht, ist die CGR-Umgebung 204 eine VR-Umgebung. Die in Bezug auf die CGR-Umgebung 204 beschriebenen Techniken können jedoch auch auf MR-Umgebungen angewendet werden, einschließlich AR-Umgebungen und AV-Umgebungen. In einigen Ausführungsformen wird die CGR-Umgebung 204 durch die Vorrichtung 100a gezeigt, wobei Vorrichtung 100a eine mobile Vorrichtung ust, wie zum Beispiel ein Mobiltelefon, oder eine HMD-Vorrichtung. In einigen Ausführungsformen, in denen die CGR-Umgebung 204 eine MR-Umgebung ist, wird die CGR-Umgebung 204 durch die Vorrichtung 100a gezeigt, wobei die Vorrichtung 100a ein Weiterleiten von Videosignalen bereitstellt oder eine Anzeige aufweist, die mindestens teilweise transparent ist.
  • In 2A zeigt System 200 die CGR-Umgebung 204 von einer ersten Position und (Winkel)-Orientierung, und mit einem ersten Sichtfeld. In einigen Ausführungsformen entspricht eine Position einem Ort innerhalb einer CGR-Umgebung (z. B., einen virtuellen Ort eines Benutzers). In der in 2A dargestellten Ausführungsform entspricht die erste Position einem Ort in der CGR-Umgebung 204, der sich neben Teich 212 befindet und die Orientierung ist in Richtung der Hütte 210. Das in 2A dargestellte Sichtfeld schließt einen unvergrößerten Abschnitt 204a der CGR-Umgebung 204 ein.
  • Während des Anzeigens des unvergrößerten Abschnitts 204a, der in 2A veranschaulicht ist, empfängt das System 200 eine erste Eingabe entsprechend einer Anfrage zum Ändern einer Vergrößerung des Displays der CGR-Umgebung 204. Eine Änderung der Vergrößerung kann das Erhöhen oder Verringern der Vergrößerung (oder der Vergrößerungsstufe) der Anzeige der CGR-Umgebung oder eines Abschnittes davon einschließen (z. B., jeweils durch Heranzoomen oder Herauszoomen der Anzeige der CGR-Umgebung 204 oder eines Abschnitts davon). In einigen Ausführungsformen ändert System 200 die Vergrößerung durch Einstellen des Sichtfelds (z. B., Verringern des Sichtfelds vergrößert die Vergrößerung; Vergrößern des Sichtfeldes verringert die Vergrößerung). Zum Beispiel kann die Änderung im Sichtfeld berechnet werden, als würde das Sichtfeld das gesamte Display 202 abdecken (z. B. berücksichtigt die Berechnung des Sichtfeldes die Einschränkung der Darstellung eines vergrößerten Abschnittes nur in einem Bereich des Displays 202 nicht, wie zum Beispiel Bereich 206 wie unten erörtert). In einigen Ausführungsformen reduziert das Anzeigen eines vergrößerten Abschnitts nur in einem Bereich des Displays 202 das effektive Sichtfeld, aber nicht den Teil der Berechnung, der das Display eines vergrößerten Abschnittes bestimmt.
  • In einigen Ausführungsformen ist die erste Eingabe eine Eingabe, die an einer Eingabevorrichtung empfangen wird, die mit dem System 200 gekoppelt ist (z. B. eine berührungsempfindliche Oberfläche (z. B. 122), eine Tastatur, eine Maus, ein Joystick, ein Scrollrad, eine Handsteuerung (z. B. mit Richtungspfeilen und/oder Tasten), Mikrofon(e) (z. B. 112), Bildsensor(en) (z. B. 108), Orientierungssensoren (z. B. 110) oder dergleichen). In einigen Ausführungsformen ist die erste Eingabe eine manuelle Eingabe (z. B., ein Drücken einer Taste, eine Berührungsgeste auf einer berührungsempfindlichen Oberfläche, eine Drehung eines drehbaren Eingabemechanismus (z. B., Scrollrad)), eine Körpergeste (z. B., eine Kopf-, Arm-, Hand-, und/oder Fingergeste), und/oder eine Spracheingabe (z. B., „heranzoomen“).
  • Als Reaktion auf das Empfangen der ersten Eingabe, zeigt System 200 einen vergrößerten Abschnitt der CGR-Umgebung 204 von der ersten Position. Wie in 2B veranschaulicht, wird der vergrößerte Abschnitt 204b in einem kreisrunden Bereich 206 auf dem Display 202 in der Mitte des Sichtfelds gezeigt und ersetzt einen Teil der unvergrößerten Abschnitts 204a. In einigen Ausführungsformen ist Bereich 206 nicht kreisrund und/oder ist nicht in der Mitte des Sichtfelds. In einigen Ausführungsformen basiert die Position des Bereichs 206 auf Display 202 auf einer Blickposition (z. B. ist Bereich 206 auf der Position des Blicks eines Benutzers zentriert). In einigen Ausführungsformen wird eine Blickposition basierend auf Daten bestimmt, die durch Sensoren gesammelt werden, die in dem System 200 eingeschlossen sind. In Ausführungsformen mit mehr als einem Display (z. B., zwei Displays, eins für jedes Auge) schließt Bereich 206 mehrere Unterbereiche, die auf dem Display 202 positioniert sind, die als ein einziger Bereich wahrgenommen werden, ein, wenn sie von einem Benutzer betrachtet werden. In einigen Ausführungsformen zeigt das System 200 eine Grenze des Bereichs 206 (z. B. eine durchgezogene Linie um den Bereich 206). In 2B stellt die gestrichelte Linie die Grenze des Bereichs 206 für den Zweck der Veranschaulichung, ist aber nicht tatsächlich auf dem Display 202 gezeigt.
  • Der vergrößerte Abschnitt 204b ist von derselben Position und Orientierung als unvergrößerter Abschnitt 204a gezeigt, wird aber herangezoomt (dargestellt bei einer höheren Vergrößerung oder Vergrößerungsstufe). In einigen Ausführungsformen zeigt System 200 einen vergrößerten Abschnitt 204b durch kontinuierliches oder schrittweises Heranzoomen bis zur Vergrößerungsstufe, die in 2B gezeigt wird.
  • In 2B bleibt ein Teil des vergrößerten Abschnitts 204a angezeigt und wird gleichzeitig mit dem vergrößerten Abschnitt 204b angezeigt. In der veranschaulichten Ausführungsform umgibt der Teil des unvergrößerten Abschnitts 204a, der nicht durch den vergrößerten Abschnitt 204b ersetzt wird, den vergrößerten Abschnitt 204b und bleibt unverändert von 2A (z. B. ist das Reh 208 in derselben Position und hat im Vergleich zu 2A dieselbe Größe).
  • Während der Anzeige des unvergrößerten Abschnitts 204a und des vergrößerten Abschnitts 204b empfängt das System 200 eine zweite Eingabe (z. B. eine Eingabe, die der ersten Eingabe oder einer Fortsetzung der ersten Eingabe ähnlich aber nicht von dieser getrennt ist). Als Reaktion auf die zweite Eingabe, zeigt das System 200 einen anderen vergrößerten Abschnitt der CGR-Umgebung 204 von der ersten Position. Wie in 2C gezeigt, vergrößert System 200 ferner den Teil der CGR-Umgebung 204 in der Mitte des Sichtfeldes, um den vergrößerten Abschnitt 204c anzuzeigen. In der veranschaulichten Ausführungsform wird der vergrößerte Abschnitt 204c im Bereich 204 gezeigt, dessen Größe und Position wie in 2B bleibt (z. B. vergrößerter Abschnitt 204c ersetzt vergrößerten Abschnitt 204b). Verglichen mit dem vergrößerten Abschnitt 204b in 2B hat der vergrößerte Abschnitt 204c jeweils eine höhere Vergrößerungsstufe und ein kleineres Sichtfeld. In einigen Ausführungsformen wird der Abschnitt der CGR-Umgebung 204, der in dem Bereich 206 des Displays 202 gezeigt wird, kontinuierlich oder stufenweise auf die Vergrößerungsstufe des vergrößerten Abschnitts 204c herangezoomt. Verglichen mit 2B bleibt der unvergrößerte Abschnitt 204a unverändert.
  • Nach den oben beschriebenen Merkmalen kann ein Benutzer einen oder mehrere Eingaben bereitstellen, um eine vergrößerte Ansicht der CGR-Umgebung 204 über ein schmaleres Sichtfeld zu erhalten, während er in der ersten Position bleibt (z. B. der gleiche Ort innerhalb der CGR-Umgebung 204). Damit wird dem Benutzer eine detailliertere Anzeige eines Bereichs oder Objekts von Interesse bereitgestellt (z. B. eines Bereichs oder Objekts, dem sich der Benutzer nähern möchte), ohne dass er sich jedoch tatsächlich in der CGR-Umgebung bewegen muss. Damit wird eine unnötige Bewegung des Benutzers in der CGR-Umgebung vermieden.
  • Ferner wird dem Benutzer durch das Beibehalten der Anzeige des unvergrößerten Abschnitts 204a Konsistenz und Kontext bereitgestellt, während der vergrößerte Bereich gezeigt wird. Zum Beispiel zeigt das Beibehalten der Anzeige des unvergrößerten Abschnitts 204a zusammen mit dem vergrößerten Abschnitt 204c dem Benutzer an, dass sich der Benutzer nicht in der CGR-Umgebung 204 bewegt hat, sondern, dass ihm einfach eine herangezoomte Anzeige eines Abschnitts der CGR-Umgebung 204 aus derselben Position bereitgestellt wird.
  • Die Reaktion des Systems 200 auf die oben beschriebenen Eingaben ermöglicht es einem Benutzer auch, die Vergrößerungsstufe im Bereich 206 zu steuern. In einigen Ausführungsformen ist die Vergrößerungsstärke oder -stufe proportional zu der Vergrößerung der Eingabe(n) (z. B., das Ausmaß des Scrollens oder die Länge einer Berührungseingabe oder einer Handgeste). In einigen Ausführungsformen verringert System 200 die Vergrößerung im Bereich 206 oder zoomt als Reaktion auf eine Eingabe in einer Weise analog zu den oben beschriebenen Techniken zur Erhöhung der Vergrößerung heraus. Zum Beispiel kann System 200 die Vergrößerung verringern (z. B. Übergang von vergrößertem Abschnitt 204c zu vergrößertem Abschnitt 204b) als Reaktion auf eine Eingabe, die der Eingabe zur Erhöhung der Vergrößerung entgegengesetzt ist (z. B., Scrollen oder eine Hand- oder Berührungsgeste in der entgegengesetzten Richtung).
  • Während des Anzeigens des unvergrößerten Abschnitts 204a und des vergrößerten Abschnitts 204c empfängt das System 200 eine dritte Eingabe. In einigen Ausführungsformen entspricht die dritte Eingabe einer Anforderung, das angezeigte Sichtfeld der CGR-Umgebung 204 oder die Orientierung zu ändern (z. B. zu übersetzen) (z. B. ohne die Position zu ändern). In einigen Ausführungsformen ist die dritte Eingabe eine Bewegung (z. B. Drehung oder Neuorientierung) des Systems 200 oder eines Abschnitts davon (z. B. als Ergebnis dessen, dass ein Benutzer seinen Kopf dreht, während er eine HMD trägt). Als Reaktion auf das Empfangen der dritten Eingabe zeigt das System 200 den unvergrößerten Abschnitt 204d und den vergrößerten Abschnitt 204e, wie in 2D dargestellt. Insbesondere, wie in 2C-2D zu sehen ist, dreht das System 200 die Orientierung nach links. Der unvergrößerte Abschnitt 204d und der vergrößerte Abschnitt 204e behalten dieselben Positionen auf dem Display 202 wie jeweils der unvergrößerte Abschnitt 204a und der vergrößerte Abschnitt 204c. Der vergrößerte Abschnitt 204e wird im Bereich 206 angezeigt und behält die gleiche Vergrößerung bei wie der vergrößerte Abschnitt 204c.
  • 2C-2D zeigen die Möglichkeit für einen Benutzer, die CGR-Umgebung 204 mit einer vergrößerten Anzeige von mindestens einem Abschnitt der CGR-Umgebung um sich herum zu betrachten (z. B., als wenn er durch ein Teleskop sehen würde). Der Benutzer kann dies tun, während er in der ersten Position bleibt und auch den Kontext beibehält, der durch einen unvergrößerten Abschnitt der CGR-Umgebung 204 (z. B. durch den unvergrößerten Abschnitt 204d) bereitgestellt wird.
  • Während der Anzeige des unvergrößerten Abschnitts 204d und des vergrößerten Abschnitts 204e empfängt das System 200 eine vierte Eingabe entsprechend einer Anfrage zum Anzeigen der CGR-Umgebung 204 von einer anderen Position (z. B. Änderung der Position, aus der die CGR-Umgebung 204 gezeigt wird). In Ausführungsformen, in denen die Position einem Ort in der CGR-Umgebung 204 entspricht, entspricht die vierte Eingabe einer Anforderung zur Bewegung zu einem neuen Ort in der CGR-Umgebung 204 (z. B. zu der anderen Seite des Teichs 212 näher des Rehs 208). In einigen Ausführungsformen ist die vierte Eingabe ein Tastendrücken (z. B. ein Drücken auf eine „OK“- oder „Enter“-Taste), eine Berührung eines berührungsempfindlichen Displays oder eine hörbare Eingabe (z. B. „Bewegen“). In einigen Ausführungsformen unterscheidet sich die vierte Eingabe von der ersten Eingabe, der zweiten Eingabe und der dritten Eingabe.
  • Als Reaktion auf den Empfang der vierten Eingabe ändert System 200 die Position, aus der die CGR-Umgebung gezeigt wird. In einigen Ausführungsformen zeigt das System 200 als Reaktion auf das Empfangen der vierten Eingabe die CGR-Umgebung 204 von einer anderen Position als die erste Position. 2E-2F veranschaulichen ein Ausführungsbeispiel des Übergangs der Anzeige im Bereich 206 von einer vergrößerten Ansicht von der ersten Position (z. B., 204e in 2D) zu einer unvergrößerten Ansicht von einer neuen Position (z. B., 204g in 2F).
  • In 2E zeigt das System 200 den vergrößerten Abschnitt 204f im Bereich 206 (z. B. ersetzt das System 200 den vergrößerten Abschnitt 204e mit dem vergrößerten Abschnitt 204f). Der vergrößerte Abschnitt 204f ist von einer zweiten Position in der CGR-Umgebung 204, die näher des Rehs 208 als die erste Position ist. In der in 2E dargestellten Ausführungsform ist der unvergrößerte Abschnitt 204d unverändert von 2D. Bei der Fortsetzung des Übergangs, wie in 2F gezeigt, zeigt das System 200 einen anderen Abschnitt 204g der CGR-Umgebung 204 im Bereich 206 von einer dritten Position, die noch näher des Rehs 208 als die zweite Position in 2E ist (z. B. ersetzt das System 200 den vergrößerten Abschnitt 204f mit dem Abschnitt 204g). In einigen Ausführungsformen ändert sich die Position glatt von der ersten Position zur dritten Position durch Vorwärtsbewegung von der ersten Position und Orientierung. Zum Beispiel veranschaulichen 2E und 2F, dass die Position der CGR-Umgebung 204, die im Bereich 206 gezeigt wird, als Reaktion auf die vierte Eingabe über den Teich 212 zu einem Ort näher des Rehs 208 bewegt wird. Der unvergrößerte Abschnitt 204d bleibt jedoch immer noch unverändert in 2F im Vergleich zu 2D und 2E.
  • In einigen Ausführungsformen ist Abschnitt 204g ein unvergrößerter Abschnitt der CGR-Umgebung 204 von der dritten Position. In solchen Ausführungsformen überträgt das System 200 Bereich 206 von einer vergrößerten Ansicht von der ersten Position (z. B., 204e) zu einer unvergrößerten Ansicht von der neuen dritten Position (z. B., 204g). Ferner ändert das System 200 in der veranschaulichten Ausführungsform die Position, von welcher die CGR-Umgebung 204 innerhalb des Bereichs 206 gezeigt wird, während der unvergrößerte Abschnitt 204d von der ersten Position beibehalten und gleichzeitig gezeigt wird.
  • In einigen Ausführungsformen bestimmt das System 200 als Reaktion darauf, dass die vierte Eingabe einer Anforderung entspricht, die CGR-Umgebung 204 von einer anderen Position zu zeigen, ein Fokussierobjekt in Bereich 206 (z. B. wird der Abschnitt der CGR-Umgebung 204 in der Zeit gezeigt, wenn die vierte Eingabe empfangen wird) und bewegt die Position zum Fokussierobjekt (z. B. entlang einer geraden Linie zwischen der ersten Position und dem bestimmten Fokussierobjekt). In der dargestellten Ausführungsform bestimmt das System 200, dass das Reh 208 Fokussierobjekt ist und bewegt die Position zum Reh 208. In einigen Ausführungsformen bestimmt das System 200 einen Punkt in der CGR-Umgebung 204 (z. B. einen Punkt in der Mitte des Sichtfelds) und bewegt die Position zu dem bestimmten Punkt (z. B., wenn in der Zeit der vierten Eingabe kein bestimmtes Objekt nahe der Mitte des Sichtfeldes vorhanden ist).
  • Die in 2E-2F dargestellte Ausführungsform veranschaulicht auch ein Beispiel einer Dolly-Zoom-Technik. Nach der Dolly-Zoom-Technik reduziert das System 200 die Vergrößerung und vergrößert das Sichtfeld innerhalb des Bereichs 206, wenn sich die Position entlang der Mitte des Sichtfeldes vorwärts bewegt (z. B. übersetzt wird). In einigen Ausführungsformen ändert das System 200 die Vergrößerung, das Sichtfeld und die Position gleichzeitig.
  • Wie oben erörtert, kann das System 200 ein Fokussierobjekt innerhalb des vergrößerten Abschnitts der CGR-Umgebung bestimmen, das im Bereich 206 in der Zeit, wenn die vierte Eingabe empfangen wird, angezeigt wird. In einigen Ausführungsformen führt System 200 das Dolly-Zoom derart durch, dass das bestimmte Fokussierobjekt während des gesamten Dolly-Zooms in der gleichen Größe angezeigt bleibt. In der veranschaulichten Ausführungsform bestimmt System 200, dass der Hirsch 208 das Fokussierobjekt ist und führt den Dolly-Zoom derart durch, dass die angezeigte Größe des Rehs 208 gleich bleibt (z. B. zoomt das System 200 den Abschnitt der CGR-Umgebung 204 heraus, der im Bereich 206 gezeigt wird, wenn sich die Position von der ersten Position entsprechend der Orientierung nach vorne bewegt). Die Reduktion der Vergrößerung wird durch Bewegung näher zum Fokussierobjekt versetzt. Zum Beispiel wird das Reh 208 in 2D, 2E und 2F in derselben Größe (vergrößerte Abschnitte 204e und 204f und unvergrößerter Abschnitt 204g) durch Reduzieren der Vergrößerung innerhalb des Bereichs 206 gezeigt, wenn sich die Position dem Reh 208 nähert.
  • Wie erwähnt vergrößert in einigen Ausführungsformen die Dolly-Zoom-Technik auch das Sichtfeld, wenn sich die Position bewegt. Zum Beispiel wird das im Bereich 206 gezeigte Sichtfeld vergrößert, wenn die Position bewegt wird (z. B. um Bereich 206 vollständig belegt zu halten). Beim Übergang von der ersten Position in die zweite Position, die durch 2D-2E veranschaulicht wird, wird das Sichtfeld vergrößert. Das verglichen mit 2D vergrößerte Sichtfeld wird durch die Anzeige des Busches 214 und des Himmels über dem Berg 216 im Bereich 206 in 2E veranschaulicht. Da sich die Position von der zweiten Position zur dritten Position weiter bewegt (der Übergang von 2E zu 2F), wird das Sichtfeld weiter vergrößert, was durch, im Vergleich mit 2E, mehr Busch 214 und mehr Himmel über dem Berg 216 angegeben wird, die im Bereich 206 in 2F gezeigt sind.
  • In einigen Ausführungsformen bestimmt das System 200 die dritte Position basierend auf der Vergrößerungsstufe des vergrößerten Abschnitts der CGR-Umgebung in der Zeit, wenn das System 200 die vierte Eingabe empfängt. Zum Beispiel wird die dritte Position (entsprechend dem unvergrößerten Abschnitt 204g) basierend auf der Vergrößerungsstufe des vergrößerten Abschnitts 204e im Bereich 206 in der Zeit, wenn die vierte Eingabe empfangen wird, bestimmt. In einigen Ausführungsformen ist die Positionsänderung (z. B. der Abstand zwischen der ersten Position und der dritten Position in der CGR-Umgebung 204) direkt proportional zu der Vergrößerungsstufe (z. B. je mehr Bereich 206 herangezoomt wird, desto weiter nach vorne bewegt sich die Position).
  • In einigen Ausführungsformen bestimmt das System 200 den Abstand von einer Ausgangsposition (z. B. der ersten Position) zu einer neuen Position (z. B. der zweiten oder der dritten Position) auf der Grundlage des Sichtfeldes FOVO des Systems 200 (z. B. das Sichtfeld des unvergrößerten Abschnitts 204a), einen Abstand d1 von der Ausgangsposition zu einem Fokussierobjekt, einen Startzoomfaktor m1 und einen neuen Zoomfaktor m2, wobei die Zoomfaktoren Werte größer null und kleiner als oder gleich eins sind. Das Sichtfeld FOVO des unvergrößerten Abschnitts der CGR-Umgebung 204 (z. B. das horizontale Sichtfeld von 204a oder 204d) wird von dem Startzoomfaktor m1 multipliziert, um FOV1 zu berechnen, der das Sichtfeld ist, das der vergrößerte Abschnitt (z. B. 204e) hätte, wenn er die gesamte Anzeige 202 einnehmen würde (z. B. wird mit der Begrenzung des vergrößerten Abschnitts auf den Bereich 206 das effektive Sichtfeld des vergrößerten Abschnitts reduziert). Ein neues Sichtfeld FOV2, das in der neuen Position gezeigt werden soll, wird durch Multiplizieren des Sichtfeldes FOVO des unvergrößerten Abschnitts der CGR-Umgebung 204 (z. B. des Sichtfeldes 204a oder 204d) mit neuem Zoomfaktor m2 berechnet. Der Abstand d2 von dem Fokussierobjekt zu der neuen Position wird durch Dividieren der Tangente der Hälfte von FOV1 (d. h., Tan(0,5*FOV1)) durch die Tangente der Hälfte von FOV2 (d. h., Tan(0,5*FOV2)) und dann Multiplizieren des Ergebnisses (d. h. des Quotienten) mit dem Abstand d1 von der Ausgangsposition zu dem Fokussierobjekt berechnet. Der Abstand von der Ausgangsposition zu der neuen Position (z. B. der Abstand, den sich ein Benutzer in der CGR-Umgebung bewegt) ist die Differenz zwischen dem Abstand d1 von der Ausgangsposition zu dem Fokussierobjekt und dem Abstand d2 von der neuen Position zu dem Fokussierobjekt. Diese Ausführungsform behält die angezeigte Größe des Fokussierobjekts (z. B. die angezeigte Größe des Fokussierobjekts ist dieselbe wie in dem vergrößerten Abschnitt 204e, 204f, 204g, 204h und 204i). In einigen Ausführungsformen ist m1 kleiner als eins (z. B. 204e) und m2 ist gleich 1 (z. B. 204g).
  • Mit Bezug auf 2G erweitert das System 200 den Bereich 206, um Abschnitt 204h der CGR-Umgebung 204 anzuzeigen. Abschnitt 204h ist ein unvergrößerter Abschnitt der CGR-Umgebung 204 von der dritten Position mit einem größeren Sichtfeld als der unvergrößerte Abschnitt 204g. In 2G erweitert sich Bereich 206 radial nach außen von der Mitte des Sichtfeldes und ersetzt einen Teil des unvergrößerten Abschnitts 204d. In einigen Ausführungsformen erweitert das System 200 den Bereich 206, nachdem Dolly-Zoom abgeschlossen wurde (z. B. das System 200 erweitert den Bereich 206, nachdem die Position die dritte Position erreicht hat und sich nicht mehr verändert; die Position des Abschnitts der CGR-Umgebung, die im Bereich 206 gezeigt wird, ändert sich nicht, wenn sich der Bereich 206 erweitert). In einigen Ausführungsformen beginnt das System 200 den Bereich 206 automatisch zu erweitern, sobald die dritte Position erreicht wurde (z. B., nachdem der Dolly-Zoom-Effekt in 2F abgeschlossen wurde). In einigen Ausführungsformen erweitert das System 200 den Bereich 206, sobald die dritte Position erreicht wurde, als Reaktion auf eine andere Eingabe (z. B. wird Bereich 206 nicht erweitert, bis eine andere Eingabe empfangen wurde). In einigen Ausführungsformen kann ein Benutzer, sobald die dritte Position erreicht ist, die CGR-Umgebung 204 um sich herum betrachten (z. B. ähnlich 2C-2D), bevor der Bereich 206 erweitert wird (z. B. durch Bereitstellen einer Eingabe).
  • Mit Bezug auf 2H erweitert das System 200 den Bereich 206 weiter und zeigt ein größeres Sichtfeld der CGR-Umgebung 204 von der dritten Position. In der veranschaulichten Ausführungsform erweitert das System 200 den Bereich 206, bis ein unvergrößerter Abschnitt 204i von der dritten Position den unvergrößerten Abschnitt 204d von der ersten Position vollständig ersetzt (z. B. das System 200 ersetzt den unvergrößerten Abschnitt 204d mit dem unvergrößerten Abschnitt 204i von der dritten Position). In 2H ist die Anzeige der CGR-Umgebung 200 auf dem Display 202 vollständig von der dritten Position.
  • In einigen Ausführungsformen beendet die Anzeige des unvergrößerten Abschnitts 204i in 2H die Bewegung der CGR-Umgebung 204 von der ersten Position zur dritten Position. Wenn die Anzeige 202 durch den unvergrößerten Abschnitts 204i vollständig belegt ist, kann das System 200 vergrößerte Abschnitte der CGR-Umgebung 204 von der dritten Position anzeigen, die Orientierung während des Verbleibens in der dritten Position ändern und/oder von der dritten Position zu einer anderen Position entsprechend den oben in Bezug auf 2A-2H beschriebenen Techniken bewegen (z. B. unvergrößerter Abschnitt 204i und der Zustand des Systems 200 in 2H ist analog dem unvergrößerten Abschnitt 204a und dem Zustand des Systems 200, das in 2A veranschaulicht ist).
  • Die oben beschriebenen Techniken erlauben es einem Benutzer, sich in der CGR-Umgebung 204 zu bewegen, und ferner, zu kontrollieren, wohin er sich innerhalb der CGR-Umgebung 204 bewegt. Zum Beispiel kann ein Benutzer heranzoomen, um einen Abschnitt der CGR-Umgebung 204 mit mehr Details vorher anzusehen. Wenn der Benutzer beispielsweise nicht an dem vergrößerten Abschnitt interessiert ist, kann der Benutzer die Orientierung ändern, um die vergrößerten Abschnitte der CGR-Umgebung 204 in anderen Richtungen vorher anzusehen. Zusätzlich zur Auswahl einer bestimmten Orientierung kann der Benutzer die Vergrößerung im Bereich 206 durch Heranzoomen oder Herauszoomen anpassen, um einzustellen, wie weit er sich in die aktuelle Richtung bewegt. Zum Beispiel kann ein Benutzer heranzoomen, um sich weiter zu bewegen (z. B. näher zu einem Objekt von Interesse) oder herauszoomen, um sich eine kleinere Strecke zu bewegen (z. B. näher an dem aktuellen Ort zu bleiben). Ein Benutzer kann schätzen, wie weit sich die Position bewegen wird, wenn er weiß, dass sich die Position zu einem Ort bewegen wird, in dem Objekte in dem vergrößerten Abschnitt im Bereich 206 in ungefähr derselben Größe ohne Vergrößerung in der neuen Position erscheinen werden.
  • Mit Bezug auf 3 wird ein Ablaufdiagramm eines beispielhaften Prozesses 300 zum Bewegen in einer CGR-Umgebung dargestellt. Prozess 300 kann unter Verwendung einer Vorrichtung (z. B. 100a oder 200) durchgeführt werden. Die Vorrichtung ist beispielsweise eine tragbare mobile Vorrichtung, eine am Kopf tragbare Vorrichtung oder eine Head-Up-Vorrichtung. In einigen Ausführungsformen wird der Prozess 300 unter Verwendung von zwei oder mehr elektronischen Vorrichtungen wie eine Vorrichtung, die mit einer anderen Vorrichtung kommunikativ gekoppelt ist, wie eine Basisvorrichtung, durchgeführt. In diesen Ausführungsformen werden die Vorgänge des Prozesses 300 zwischen zwei oder mehr Vorrichtungen beliebig verteilt. In einigen Ausführungsformen bewirkt die Vorrichtung, dass einer oder mehrere der Schritte im Prozess 300 durchgeführt werden, anstatt den Schritt selbst auszuführen, oder zusätzlich dazu (z. B. bewirkt die Vorrichtung, dass eine entfernte Vorrichtung verschiedene Merkmale des Prozesses 300 zeigt, wie beispielsweise durch Senden von Befehlen an die entfernte Vorrichtung). Ferner kann die Anzeige der Vorrichtung transparent oder undurchsichtig sein. Prozess 300 kann auf CGR-Anwendungen, einschließlich Virtual Reality- und Mixed Reality-Anwendungen angewendet werden. Obwohl die Blöcke des Prozesses 300 in einer bestimmten Reihenfolge in 3 dargestellt sind, können diese Blöcke in anderen Reihenfolgen durchgeführt werden. Ferner können einer oder mehrere Blöcke des Prozesses 300 teilweise durchgeführt, gegebenenfalls durchgeführt, weggelassen und/oder mit einem bzw. mehreren Blöcken kombiniert werden. Zusätzliche Blöcke können ebenfalls durchgeführt werden.
  • Bei Block 302 zeigt die Vorrichtung einen vergrößerten Abschnitt (z. B. 204b, 204c oder 204e) der CGR-Umgebung (z. B. 204) von einer ersten Position und einen unvergrößerten Abschnitt (z. B. 204a oder 204d) der CGR-Umgebung von der ersten Position (z. B. der Position der Abschnitte 204a-204e). In einigen Ausführungsformen, zeigt die Vorrichtung den vergrößerten Abschnitt der CGR-Umgebung als Reaktion auf das Empfangen einer Eingabe (z. B. eine Scroll-Eingabe; siehe, z. B. den Übergang von 2A zu 2B oder 2C). In einigen Ausführungsformen, wird der vergrößerte Abschnitt der CGR-Umgebung von der ersten Position gleichzeitig mit dem unvergrößerten Abschnitt der CGR-Umgebung von der ersten Position gezeigt (siehe, z. B. 2B-2D). Zum Beispiel wird der vergrößerte Abschnitt in der Mitte des Sichtfelds angezeigt und ist von dem unvergrößerten Abschnitt umgeben (siehe, z. B. 2B-2D).
  • In einigen Ausführungsformen ist der vergrößerte Abschnitt der CGR-Umgebung von der ersten Position ein erster vergrößerter Abschnitt der CGR-Umgebung von der ersten Position, und der unvergrößerte Abschnitt der CGR-Umgebung von der ersten Position ist ein erster unvergrößerter Abschnitt der CGR-Umgebung von der ersten Position (siehe z. B. 2D). In Übereinstimmung mit einigen solchen Ausführungsformen, bevor der erste vergrößerte Abschnitt (z. B. 204e) der CGR-Umgebung von der ersten Position gezeigt wird und bevor der erste unvergrößerte Abschnitt (z. B. 204d) der CGR-Umgebung von der ersten Position gezeigt wird, zeigt die Vorrichtung einen zweiten vergrößerten Abschnitt (z. B. 204c) der CGR-Umgebung von der ersten Position, der anders als der erste vergrößerte Abschnitt (z. B. 204e) der CGR-Umgebung von der ersten Position ist, und zeigt gleichzeitig mit dem zweiten vergrößerten Abschnitt (z. B. 204c) der CGR-Umgebung von der ersten Position einen zweiten unvergrößerten Abschnitt (z. B. 204a) der CGR-Umgebung von der ersten Position, der anders ist als der erste unvergrößerte Abschnitt (z. B. 204d) der CGR-Umgebung von der ersten Position. Zum Beispiel kann die Vorrichtung einen vergrößerten Abschnitt der CGR-Umgebung zusammen mit einer ersten Orientierung von der ersten Position (z. B. 2C) zeigen und dann (z. B. als Reaktion auf das Empfangen einer Eingabe) sich zu einer Orientierung bewegen, die dem ersten vergrößerten Abschnitt der CGR-Umgebung entspricht (siehe z. B. 2D).
  • Bei Block 304 empfängt die Vorrichtung eine Eingabe. Bei Block 306 zeigt die Vorrichtung (z. B. als Reaktion auf das Empfangen der Eingabe) einen vergrößerten Abschnitt (z. B. 204f) der CGR-Umgebung von einer zweiten Position (z. B. der Position des Abschnitts 204f). In einigen Ausführungsformen ersetzt der vergrößerte Abschnitt (z. B. 204f) von der zweiten Position den vergrößerten Abschnitt (z. B. 204e) von der ersten Position durch Übersetzen von der ersten Position in die zweite Position (siehe z. B. den Übergang von 2D zu 2E). In einigen Ausführungsformen weist der vergrößerte Abschnitt (z. B. 204f) der CGR-Umgebung von der zweiten Position eine Vergrößerung auf, die kleiner ist als eine Vergrößerung des vergrößerten Abschnitts (z. B. 204e) der CGR-Umgebung von der ersten Position. Beispielsweise zoomt die Vorrichtung heraus, wenn sich die Position vorwärts bewegt. In einigen Ausführungsformen weist der vergrößerte Abschnitt (z. B. 204f) der CGR-Umgebung von der zweiten Position ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts (z. B. 204e) der CGR-Umgebung von der ersten Position. Zum Beispiel erweitert die Vorrichtung das Sichtfeld, wenn sich die Position vorwärts bewegt.
  • Bei Block 308 zeigt die Vorrichtung einen ersten unvergrößerten Abschnitt (z. B. 204g) der CGR-Umgebung von einer dritten Position (z. B. der Position der Abschnitte 204g-204i). In einigen Ausführungsformen weist der unvergrößerte Abschnitt (z. B. 204g) der CGR-Umgebung von der dritten Position ein Sichtfeld auf, das größer ist als ein Sichtfeld des vergrößerten Abschnitts (z. B. 204f) der CGR-Umgebung von der zweiten Position. In einigen Ausführungsformen basiert die dritte Position auf der Vergrößerung des vergrößerten Abschnitts (z. B. 204c oder 204e) der CGR-Umgebung von der ersten Position. Zum Beispiel ist der Abstand in der CGR-Umgebung von der ersten Position zu der dritten Position direkt proportional zu der Vergrößerung, wenn die Eingabe empfangen wird (z. B. je größer die Vergrößerung ist, desto weiter wird die Position bewegt). In einigen Ausführungsformen wird die aktuell angezeigte Position von der ersten Position in die dritte Position durch die zweite Position übersetzt. Zum Beispiel bewegt sich die Position vorwärts in der CGR-Umgebung, während das Sichtfeld erweitert wird und die Vergrößerung reduziert wird (z. B. die Vorrichtung übersetzt die Position, erweitert das Sichtfeld und reduziert die Vergrößerung gleichzeitig). In einigen Ausführungsformen wird der unvergrößerte Abschnitt (z. B. 204d) der CGR-Umgebung von der ersten Position gleichzeitig mit dem ersten unvergrößerten Abschnitt (z. B. 204g) der CGR-Umgebung von der dritten Position gezeigt (siehe, z. B. 2F).
  • In einigen Ausführungsformen bestimmt die Vorrichtung die dritte Position basierend auf einer Orientierung, die dem vergrößerten Abschnitt der CGR-Umgebung von der ersten Position entspricht. In einigen Ausführungsformen befindet sich die dritte Position in der Mitte des vergrößerten Abschnitts (z. B. der Mitte des Bereichs 206).
  • In einigen Ausführungsformen bestimmt die Vorrichtung (z. B. als Reaktion auf das Empfangen der Eingabe in Block 304) ein Fokussierobjekt (z. B. Objekt 208) innerhalb des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position und bestimmt die dritte Position basierend auf dem bestimmten Fokussierobjekt. Zum Beispiel bestimmt die Vorrichtung ein Fokussierobjekt, wie beispielsweise das Objekt, das der Mitte des Sichtfeldes am nächsten liegt, oder ein Objekt in einer Blickposition (die sich von der Mitte des Sichtfeldes unterscheiden könnte, z. B. wenn ein Benutzer nicht die Mitte des Displays 202 betrachtet)) und bewegt dann die Position direkt in Richtung des Fokussierobjekts. In einigen Ausführungsformen behält die Vorrichtung die angezeigte Größe des Fokussierobjekts (z. B. das Objekt 208 bleibt in 2D-2H gleich groß). Zum Beispiel zeigt die Vorrichtung das Fokussierobjekt mit der gleichen Größe in dem vergrößerten Abschnitt der CGR-Umgebung von der ersten Position, dem unvergrößerten Abschnitts der CGR-Umgebung von der zweiten Position und dem unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • Bei Block 310 (z. B. nach der Anzeige des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position) zeigt die Vorrichtung einen zweiten unvergrößerten Abschnitt (z. B. 204h oder 204i) der CGR-Umgebung von der dritten Position. In einigen Ausführungsformen weist der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position ein Sichtfeld auf, das größer ist als das Sichtfeld des ersten unvergrößerten Abschnitts (z. B. 204g) der CGR-Umgebung von der dritten Position. Beispielsweise erweitert die Vorrichtung das Sichtfeld des unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position (z. B. durch Vergrößern des Bereichs 206), um den unvergrößerten Abschnitts (z. B. 204a oder 204d) von der ersten Position zu ersetzen. In einigen Ausführungsformen ersetzt die Vorrichtung den unvergrößerten Abschnitt der CGR-Umgebung von der ersten Position (z. B. einen Abschnitt der CGR-Umgebung, der entlang des äußeren Abschnitts des Displays 202 angezeigt wird) mit dem zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position.
  • Ausführbare Befehle zum Durchführen dieser Merkmale des Verfahrens 300, die oben beschrieben werden, sind wahlweise, in einem flüchtigen oder nicht-flüchtigen, computerlesbaren Speichermedium (z. B. Speicher 106) oder anderem Computerprogrammprodukt eingeschlossen, das für die Ausführung durch einen oder mehrere Prozessoren (z. B. Prozessor(en) 102) konfiguriert ist.

Claims (13)

  1. Verfahren zum Bewegen in einer Umgebung einer computergenerierten Realität (CGR), umfassend: Anzeigen eines vergrößerten Abschnitts einer CGR-Umgebung von einer ersten Position und eines unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position; Empfangen einer Eingabe; und als Reaktion auf das Empfangen der Eingabe: Anzeigen eines vergrößerten Abschnitts der CGR-Umgebung von einer zweiten Position, wobei der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position eine Vergrößerung aufweist, die kleiner als eine Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position ist, und wobei der vergrößerte Abschnitt der CGR-Umgebung aus der zweiten Position ein Sichtfeld aufweist, das größer als ein Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position ist; Anzeigen eines ersten unvergrößerten Abschnitts der CGR-Umgebung von einer dritten Position, wobei der erste unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position ein Sichtfeld aufweist, das größer als das Sichtfeld des vergrößerten Abschnitts der CGR-Umgebung von der zweiten Position ist; und nach dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position, Anzeigen eines zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position, wobei der zweite unvergrößerte Abschnitt der CGR-Umgebung von der dritten Position ein Sichtfeld aufweist, das größer als das Sichtfeld des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position ist.
  2. Verfahren nach Anspruch 1, ferner umfassend: vor dem Anzeigen des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position, Empfangen einer zweiten Eingabe; und als Reaktion auf das Empfangen der zweiten Eingabe, Anzeigen des vergrößerten Abschnitts der CGR-Umgebung.
  3. Verfahren nach einem der Ansprüche 1 bis 2, wobei das Anzeigen des zweiten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position das Ersetzen des unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position mit dem zweiten unvergrößerten Abschnitt der CGR-Umgebung von der dritten Position einschließt.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei die dritte Position auf der Vergrößerung des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position basiert.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei der vergrößerte Abschnitt der CGR-Umgebung von der ersten Position gleichzeitig mit dem unvergrößerten Abschnitt der CGR-Umgebung von der ersten Position angezeigt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei das Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der dritten Position das Übersetzen einer aktuell angezeigten Position von der ersten Position in die dritte Position durch die zweite Position einschließt.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei der unvergrößerte Abschnitt der CGR-Umgebung von der ersten Position gleichzeitig mit dem ersten unvergrößerten Abschnitt der CGR-Umgebung von der dritten Position angezeigt wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei: der vergrößerte Abschnitt der CGR-Umgebung von der ersten Position ein erster vergrößerter Abschnitt der CGR-Umgebung von der ersten Position ist, und der unvergrößerte Abschnitt der CGR-Umgebung von der ersten Position ein erster unvergrößerter Abschnitt der CGR-Umgebung von der ersten Position ist, wobei das Verfahren ferner umfasst: vor dem Anzeigen des ersten vergrößerten Abschnitts der CGR-Umgebung von der ersten Position und vor dem Anzeigen des ersten unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position: Anzeigen eines zweiten vergrößerten Abschnitts der CGR-Umgebung von der ersten Position, der anders als der erste vergrößerte Abschnitt der CGR-Umgebung von der ersten Position ist; und Anzeigen, gleichzeitig mit dem zweiten vergrößerten Abschnitts der CGR-Umgebung von der ersten Position, eines zweiten unvergrößerten Abschnitts der CGR-Umgebung von der ersten Position, der anders als der erste unvergrößerte Abschnitt der CGR-Umgebung von der ersten Position ist.
  9. Verfahren nach einem der Ansprüche 1 bis 8, ferner umfassend: Bestimmen der dritten Position basierend auf einer Orientierung, die dem vergrößerten Abschnitt der CGR-Umgebung von der ersten Position entspricht.
  10. Verfahren nach einem der Ansprüche 1 bis 9, ferner umfassend: Bestimmen eines Fokussierobjekts innerhalb des vergrößerten Abschnitts der CGR-Umgebung von der ersten Position; und Bestimmen der dritten Position basierend auf dem Fokussierobjekt.
  11. Verfahren nach Anspruch 10, wobei: das Fokussierobjekt mit einer ersten Größe in dem vergrößerten Abschnitt der CGR-Umgebung von der ersten Position angezeigt wird; das Fokussierobjekt mit der ersten Größe in dem unvergrößerten Abschnitt der CGR-Umgebung von der zweiten Position angezeigt wird; und das Fokussierobjekt mit der ersten Größe in dem unvergrößerten Abschnitt der CGR-Umgebung von der dritten Position angezeigt wird.
  12. Nicht-flüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, die zur Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung konfiguriert sind, wobei das eine oder die mehreren Programme Befehle zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 11 einschließen.
  13. Elektronische Vorrichtung, umfassend: einen oder mehrere Prozessoren; und einen Speicher, der eines oder mehrere Programme speichert, die zur Ausführung durch den einen oder die mehreren Prozessoren konfiguriert sind, wobei das eine oder die mehreren Programme Befehle zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 11 einschließen.
DE102020104415.1A 2019-02-22 2020-02-19 Bewegung in einer umgebung Pending DE102020104415A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962809362P 2019-02-22 2019-02-22
US62/809,362 2019-02-22

Publications (1)

Publication Number Publication Date
DE102020104415A1 true DE102020104415A1 (de) 2020-08-27

Family

ID=72139096

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020104415.1A Pending DE102020104415A1 (de) 2019-02-22 2020-02-19 Bewegung in einer umgebung

Country Status (3)

Country Link
US (1) US11315215B2 (de)
CN (1) CN111612916B (de)
DE (1) DE102020104415A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3788464B1 (de) 2018-05-02 2023-08-16 Apple Inc. Bewegung in einem umfeld mit computersimulierter realität
WO2024044556A1 (en) * 2022-08-23 2024-02-29 Apple Inc. Head-mounted electronic device with magnification tool

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7889212B2 (en) * 2006-09-07 2011-02-15 Apple Inc. Magnifying visual information using a center-based loupe
US9304319B2 (en) * 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
JP6124517B2 (ja) 2012-06-01 2017-05-10 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、およびパノラマ動画表示方法
US9182243B2 (en) * 2012-06-05 2015-11-10 Apple Inc. Navigation application
US10430985B2 (en) * 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
CN107912061B (zh) * 2015-03-06 2021-06-01 伊利诺斯工具制品有限公司 用于焊接的传感器辅助头戴式显示器
US20160353012A1 (en) * 2015-05-25 2016-12-01 Htc Corporation Zooming control method for camera and electronic apparatus with camera
US9959677B2 (en) * 2015-05-26 2018-05-01 Google Llc Multidimensional graphical method for entering and exiting applications and activities in immersive media
EP3101629B1 (de) * 2015-06-04 2021-03-17 Nokia Technologies Oy Vermittelte realität
US10338687B2 (en) * 2015-12-03 2019-07-02 Google Llc Teleportation in an augmented and/or virtual reality environment
US10567739B2 (en) * 2016-04-22 2020-02-18 Intel Corporation Synthesis of transformed image views
AU2017101911A4 (en) * 2016-06-15 2021-07-22 Dotty Digital Pty Ltd A system, device, or method for collaborative augmented reality
CN109906424B (zh) * 2016-11-15 2022-07-05 谷歌有限责任公司 用于虚拟现实系统的输入控制器稳定技术
JP6350695B2 (ja) 2017-02-10 2018-07-04 株式会社リコー 装置、方法、およびプログラム
KR20180099182A (ko) * 2017-02-28 2018-09-05 엘지전자 주식회사 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
EP3788464B1 (de) * 2018-05-02 2023-08-16 Apple Inc. Bewegung in einem umfeld mit computersimulierter realität

Also Published As

Publication number Publication date
US20200273146A1 (en) 2020-08-27
US11315215B2 (en) 2022-04-26
CN111612916A (zh) 2020-09-01
CN111612916B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
DE112020001415T5 (de) Umgebung für Fernkommunikation
DE112016004135T5 (de) Teleportation in einer Augmented- und/oder Virtual-Reality Umgebung
DE202017002875U1 (de) Benutzerschnittstelle für Kameraeffekte
DE112012001022T5 (de) Ausrichtungssteuerung in einem am Kopf zu tragenden Gerät mit erweiterter Realität
EP3675067A1 (de) Verfahren zur darstellung von virtueller information in einer realen umgebung
CN112041788B (zh) 使用眼睛注视来选择文本输入字段
DE102020116144A1 (de) Virtuelle inhalte, positioniert basierend auf detektiertem objekt
DE112019004485T5 (de) Wechseln zwischen bildern und tönen einer virtuellen umgebung und einer realen umgebung
DE112006002954T5 (de) Virtuelles Schnittstellensystem
DE202017006742U1 (de) Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme
DE212017000252U1 (de) Standortglobus in virtueller Realität
KR102546535B1 (ko) 설정을 중심으로 한 이동
WO2009062492A2 (de) Verfahren zum darstellen von bildobjekten in einem virtuellen dreidimensionalen bildraum
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
DE112019002353T5 (de) Techniken zum umschalten zwischen immersionsebenen
DE102020104415A1 (de) Bewegung in einer umgebung
DE112016004269T5 (de) Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt
DE112017001660T5 (de) Datenverarbeitungseinrichtung, Datenverarbeitungsverfahren und computerlesbares Medium
DE112020000573T5 (de) Anzeigen von darstellungen von umgebungen
CN111127621B (zh) 画面渲染方法、装置和可读存储介质
DE102022110363A1 (de) Verfahren und vorrichtung zur debugging-programmausführung und inhaltswiedergabe
DE102022118707A1 (de) Vorrichtungen, verfahren und grafische benutzeroberflächen zur dreidimensionalen vorschau von objekten
DE102022117756A1 (de) Anweisen eines virtuellen agenten basierend auf dem blinkverhalten eines benutzers
DE112021003465T5 (de) Informationsprozessor, informationsverarbeitungsverfahren und speichermedium
EP2898666A1 (de) Client-einrichtung zur darstellung von kamerabildern einer steuerbaren kamera, verfahren, computerprogramm sowie überwachungssystem mit der client-einrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed