CN108292146B - 虚拟现实中的激光指示器交互和缩放 - Google Patents
虚拟现实中的激光指示器交互和缩放 Download PDFInfo
- Publication number
- CN108292146B CN108292146B CN201680066642.9A CN201680066642A CN108292146B CN 108292146 B CN108292146 B CN 108292146B CN 201680066642 A CN201680066642 A CN 201680066642A CN 108292146 B CN108292146 B CN 108292146B
- Authority
- CN
- China
- Prior art keywords
- virtual
- user
- input
- feature
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title description 13
- 238000000034 method Methods 0.000 claims description 49
- 230000015654 memory Effects 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 43
- 230000008859 change Effects 0.000 claims description 19
- 230000003190 augmentative effect Effects 0.000 claims description 18
- 238000012986 modification Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 6
- 230000003467 diminishing effect Effects 0.000 claims 2
- 238000004891 communication Methods 0.000 description 28
- 238000004590 computer program Methods 0.000 description 16
- 230000007423 decrease Effects 0.000 description 8
- 238000013341 scale-up Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5255—Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
在用于在虚拟现实环境中移动和缩放的系统中,用户可以从虚拟环境中的第一虚拟位置朝向虚拟环境中的第二虚拟位置处的所选择的特征移动。在从第一位置向第二位置移动时,可以通过操纵设置在手持电子设备上的用户界面来调整用户相对于虚拟环境中用户周边的比例或视角。
Description
相关申请的交叉引用
本申请是2016年11月15日提交的美国申请No.15/352,481的继续部分并且要求其优先权,该美国申请要求于2016年2月8日提交的美国临时申请No.62/292,600的优先权,这些申请的公开内容通过引用并入在本文中。
本申请要求于2016年2月8日提交的美国临时专利申请No.62/292600的优先权权益,其全部内容通过引用并入在本文中。
技术领域
这一般地涉及增强和/或虚拟现实环境中的移动和缩放。
背景技术
增强现实(AR)和/或虚拟现实(VR)系统可以生成三维(3D)沉浸式虚拟环境。用户可以通过与各种电子设备的交互来体验这种3D沉浸式虚拟环境,所述各种电子设备诸如例如包括显示器的头盔或其它头戴式设备、用户在观看显示设备时通过其观看的眼镜或护目镜、装配有传感器的手套、包括传感器的外部手持设备和其它此类电子设备。一旦沉浸在3D虚拟环境中,用户就可以通过物理移动和/或对电子设备的操纵移动通过虚拟环境并且移动到虚拟环境的其它区域,来与虚拟环境交互并且使与虚拟环境的交互个性化。
发明内容
在一个方面中,一种方法可以包括:生成虚拟环境;在用户界面处检测第一输入,该第一输入指示对虚拟环境中的特征的选择;在用户界面处检测第二输入,该第二输入指示相对于所选择的特征的位置变化或相对于虚拟环境的尺度变化中的至少一个;以及响应于第二输入,调整相对于所选择的特征的虚拟位置或相对于虚拟环境的虚拟尺度中的至少一个。
在另一方面中,一种系统可以包括被配置成生成沉浸式虚拟环境的计算设备。该计算设备可以包括存储可执行指令的存储器,以及被配置成执行指令的处理器。指令的执行可以使计算设备生成虚拟环境,在用户界面处检测第一输入,该第一输入指示对虚拟环境中的特征的选择,在用户界面处检测第二输入,该第二输入指示相对于所选择的特征的位置变化或相对于虚拟环境的尺度变化中的至少一个,以及响应于第二输入,调整相对于所选择的特征的虚拟位置或相对于虚拟环境的虚拟尺度中的至少一个。
在下面的附图和描述中阐述了一个或多个实施方式的细节。其它特征将根据说明书和附图并且根据权利要求书显而易见。
附图说明
图1是依照本文中所描述的实施方式的包括头戴式显示器和手持电子设备的虚拟现实系统的示例实施方式。
图2A和图2B是依照本文中所描述的实施方式的示例头戴式显示设备的立体图,并且图2C图示依照本文中所描述的实施方式的示例手持电子设备。
图3是依照如本文中所描述的实施例的头戴式电子设备和手持电子设备的框图。
图4A-4C和图5A-5C是图示依照本文中所描述的实施方式的增强和/或虚拟现实环境中的用户和/或虚拟特征的移动和缩放的第三人视图。
图6A-6E图示依照本文中所描述的实施方式的手持电子设备的用于在增强和/或虚拟现实环境中移动和缩放的用户界面。
图7A-7B是图示依照本文中所描述的实施方式的增强和/或虚拟现实环境中的用户和/或虚拟特征的移动和缩放的第三人视图。
图8A-8B是图示依照本文中所描述的实施方式的用户在增强和/或虚拟现实环境中的虚拟照片球体中的移动的第三人视图。
图9是依照本文中所描述的实施方式的在增强和/或虚拟现实环境中移动和缩放的方法的流程图。
图10示出可用于实现本文中所描述的技术的计算机设备和移动计算机设备的示例。
具体实施方式
穿戴例如头戴式显示器(HMD)设备的沉浸在3D增强和/或虚拟现实环境中的用户可以探索3D虚拟环境并且通过各种不同类型的输入来与3D虚拟环境交互。这些输入可以包括例如物理交互,包括例如对与HMD分开的电子设备的操纵,诸如例如经由由电子设备发出的光线或光束和/或基于对电子设备的操纵、电子设备的移动、施加在电子设备的触敏表面等上的触摸、和/或对HMD本身的操纵和/或手/手臂姿势、头部移动和/或头部和/或眼睛定向凝视等在虚拟环境中渲染的虚拟光束。用户可以实现这些不同类型的交互中的一个或多个来在虚拟环境中执行特定动作,诸如例如通过虚拟环境移动,以及从虚拟环境的第一区域向虚拟环境的第二区域或者从第一虚拟环境向第二虚拟环境移动或者转变或者远距传送。
依照本文中所描述的实施方式的系统和方法可以方便在虚拟环境中移动,例如,从虚拟环境的第一区域到虚拟环境的第二区域和/或从第一虚拟环境到第二虚拟环境的远距传送或输送。连同虚拟环境中的这种移动一起,依照本文中所描述的实施方式的系统和方法也可以允许用户与这种移动一起或者除了这种移动之外或者代替这种移动而在大小上缩放。用户的大小的这种缩放可以对应于例如相对于虚拟环境中的虚拟特征的用户的视角中的变化,从而允许用户从不同的视角来观看和体验虚拟环境。例如,通过相对于诸如虚拟环境中的虚拟地平面的固定参考增加用户的尺度,用户可以观看和体验虚拟环境好像用户已相对于虚拟环境中的特征在大小上增加了,同时虚拟特征现在似乎更小。这可以替代地被认为是虚拟环境中的虚拟特征的虚拟按比例缩小,从而在相对于虚拟特征的用户视角方面产生类似的变化。类似地,通过相对于诸如虚拟环境中的虚拟地平面的固定参考减小用户的尺度,用户可以观看和体验虚拟环境好像用户已相对于虚拟环境中的虚拟特征在大小上减小了,同时虚拟特征现在似乎更大。这可以替代地被认为是虚拟环境中的虚拟特征的虚拟按比例放大,从而在相对于虚拟特征的用户视角中方面产生类似的变化。
在图1中所示的示例实施方式中,穿戴HMD 100的用户正握着便携式手持电子设备102。手持电子设备102可以是例如智能电话、控制器、陀螺鼠标、操纵杆,或可以与HMD 100配对并且与HMD 100进行通信以便在由HMD 100生成的沉浸式虚拟环境中交互的另一便携式手持电子设备。手持电子设备102可以经由例如有线连接或诸如例如WiFi或蓝牙连接的无线连接与HMD 100可操作地耦合或者与HMD100配对。手持电子设备102和HMD 100的这种配对或可操作耦合可以提供用于在手持电子设备102与HMD 100之间传送和交换数据,并且可以允许手持电子设备102充当用于在由HMD 100生成的沉浸式虚拟环境中交互的控制器。也就是说,对手持电子设备102的操纵(诸如例如,为了生成由手持电子设备102发出的被导向用于选择的虚拟对象或特征的虚拟光束或光线)和/或在手持电子设备102的触摸表面上接收的输入和/或对手持电子设备102的移动可以被转换成由HMD100生成的沉浸式虚拟环境中的对应选择或移动或其它类型的交互。例如,HMD 100与手持电子设备102一起可以生成如上所述的虚拟环境,并且可以操纵手持电子设备102以实现相对于如上所述的虚拟环境中的虚拟特征的用户的尺度或视角的变化。
图2A和图2B是示例HMD、诸如例如图1中的由用户穿戴的HMD100的立体图,并且图2C图示示例手持电子设备,诸如例如图1中所示的手持电子设备102。
手持电子设备102可以包括容纳设备102的内部组件的外壳103以及在外壳103外部上的可被用户访问的用户界面104。用户界面104可以包括被配置成接收用户触摸输入的触敏表面106。用户界面104也可以包括用于由用户操纵的其它组件,诸如例如作动按钮、旋钮、操纵杆等。在一些实施方式中,用户界面104的至少一部分可以被配置为触摸屏,其中用户界面104的该部分被配置成向用户显示用户界面项,并且也用于接收触敏表面106上的来自用户的触摸输入。手持电子设备102也可以包括被配置成通过外壳103中的端口选择性地发出光的光源108以及可由用户操纵的其它操纵设备105。
HMD 100可以包括耦合到框架120的外壳110,其中包括例如安装在头戴式耳机中的扬声器的音频输出设备130也耦合到框架120。在图2B中,外壳110的前面部分110a远离外壳110的基部部分110b旋转,使得容纳在外壳110中的一些组件是可见的。显示器140可以被安装在外壳110的前面部分110a的面向内部侧。透镜150可以被安装在外壳110中,当前面部分110a相对于外壳110的基部部分110b处于关闭位置中时在用户的眼睛与显示器140之间。在一些实施方式中,HMD 100可以包括包括有各种传感器的感测系统160,以及包括有处理器190和各种控制系统设备以方便HMD 100的操作的控制系统170。
在一些实施方式中,HMD 100可以包括相机180以捕获静止和运动图像。由相机180捕获的图像可以用于帮助跟踪用户和/或手持电子设备102在真实世界中的物理位置,并且/或者可以在通过模式下在显示器140上被显示给用户,从而允许用户暂时离开虚拟环境并且返回到物理环境,而无需移除HMD 100或者以其它方式改变HMD 100的配置以将外壳110移出用户的视线。
在一些实施方式中,HMD 100可以包括凝视跟踪设备165以检测并跟踪用户的眼睛凝视。凝视跟踪设备165可以包括例如一个图像传感器165A或多个图像传感器165A,以捕获用户的眼睛例如用户眼睛的特定部分诸如例如瞳孔的图像,以检测并跟踪用户的凝视的方向和移动。在一些实施方式中,HMD 100可以被配置为使得所检测到的凝视被处理为要转换成沉浸式虚拟体验中的对应交互的用户输入。
在图3中示出了提供用于在增强和/或虚拟现实环境中远距传送和缩放的系统的框图。该系统可以包括与第二电子设备302通信的第一电子设备300。第一电子设备300可以是例如生成沉浸式虚拟环境的如上面关于图1、图2A和图2B所描述的HMD,并且第二电子设备302可以是例如如上面关于图1和图2C所描述的手持电子设备,其与第一电子设备300通信以方便用户与由第一电子设备300生成的沉浸式虚拟环境交互。
第一电子设备300可以包括感测系统360和控制系统370,所述感测系统360和控制系统370分别可以与图2A和2B中所示的感测系统160和控制系统170类似。感测系统360可以包括一个或多个不同类型的传感器,包括例如光传感器、音频传感器、图像传感器、距离/接近传感器和/或其它传感器和/或这些传感器的不同组合,包括例如被定位成检测并跟踪用户的眼睛凝视的图像传感器,诸如图2B中所示的凝视跟踪设备165。控制系统370可以包括例如电源/暂停控制设备、音频和视频控制设备、光学控制设备、转变控制设备和/或其它此类设备和/或这些设备的不同组合。取决于特定实施方式,感测系统360和/或控制系统370可以包括更多的或更少的设备。包括在感测系统360和/或控制系统370中的元件可以在例如除图2A和2B中所示的HMD100以外的HMD内具有不同的物理布置(例如,不同的物理定位)。第一电子设备300也可以包括与感测系统360和控制系统370通信的处理器390、存储器380以及提供用于第一电子设备300与另一外部设备(诸如例如第二电子设备302)之间的通信的通信模块350。
第二电子设备302可以包括提供用于第二电子设备302与另一外部设备诸如例如第一电子设备300之间的通信的通信模块306。除了提供用于在第一电子设备300与第二电子设备302之间交换数据之外,通信模块306也可以被配置成发出如上所述的光线或光束以传送电子信号。第二电子设备302可以包括感测系统304,所述感测系统304包括诸如被包括在例如相机和麦克风中的图像传感器和音频传感器、包括例如加速度计和/或陀螺仪和/或磁力计的惯性测量单元、诸如被包括在手持电子设备或智能电话的触敏表面中的触摸传感器、以及其它此类传感器和/或这些传感器的不同组合。处理器309可以与第二电子设备302的感测系统304和控制器305通信,所述控制器305能够访问存储器308并且控制第二电子设备302的整体操作。
如上面所指出的,诸如例如上述的手持电子设备102的控制器可以由用户操纵以便在虚拟环境中交互和导航。当在虚拟环境中导航时,用户可以将手持电子设备102导向或者指向要选择的虚拟特征,并且可以由系统基于例如由手持电子设备102的传感器生成的定向信息来生成虚拟光束,以识别要由用户选择的虚拟特征和/或定位。在一些实施方式中,光源108可以将光线或光束导向要选择的虚拟特征或项目,以及由光源108生成的光线或光束可以被系统检测到(例如,通过HMD100上的相机),并且可以为了虚拟特征的选择在虚拟环境中向用户显示所检测到的光线或光束的渲染。
如图4A中所示,在虚拟环境中的位置A(其可被称为虚拟位置)处的虚拟环境中的用户可以通过例如将如上所述的由手持电子设备102生成的虚拟光束导向虚拟位置B处的虚拟特征550来选择移动到虚拟环境中的位置B(其也可被称为虚拟位置),如图4B中所示。在对手持电子设备102的进一步操纵、例如将光束导向虚拟位置B处的虚拟特征550的按钮的释放时,用户可以被移动或者远距传送或者输送到虚拟位置B,如图4C中所示。在图4A-4C中所示的示例中,用户尚未选择相对于如上所述的虚拟环境中的虚拟特征调整他的尺度或视角。因此,在此示例中,用户被以与在虚拟位置A处基本上相同的尺度(相对于虚拟环境中的特征)移动或者远距传送或者输送到虚拟位置B。
在一些实施方式中,响应于由用户例如经由手持电子设备102的输入,用户从虚拟位置A到虚拟位置B的移动可以是基本上立即的,其中用户在一个时刻处于虚拟位置A处,而在下一个时刻处于虚拟位置B处,从而使得从虚拟位置A到虚拟位置B的移动对用户而言感觉为基本上瞬时的。在一些实施方式中,用户可以体验用户从虚拟位置A移动到虚拟位置B的动态虚拟动画,好像用户实际上在通过空中和/或通过地形从虚拟位置A向虚拟位置B行进,从而在从虚拟位置A移动到虚拟位置B时给用户提供更连接的虚拟体验。
在一些实施方式中,无论用户从虚拟位置A到虚拟位置B的移动是基本上立即的,还是用户在从虚拟位置A移动到虚拟位置B时体验到动态虚拟动画,用户都可以到达虚拟位置B并逐渐停止,而不是突然停止。可以在从虚拟位置A移动到虚拟位置B时维持用户的动量的某种感觉的这种逐渐停止(而不是突然到达或停止)可以给用户提供在虚拟位置B处到虚拟环境中的更自然转变。
在一些情形下,用户可能希望增加或者减小他相对于虚拟环境中的虚拟特征的尺度,或者希望缩放(即,增加或减小)虚拟环境中的虚拟特征相对于用户的大小。也可以在虚拟环境中从第一虚拟位置或定位移动到第二虚拟位置或定位时进行用户相对于虚拟环境的大小的这种虚拟缩放或虚拟环境中的虚拟特征相对于用户的虚拟缩放,从而允许依照用户的选择来缩放或者调整用户的视角或视图。在图5A-5C和图6A-6E中示出了虚拟现实系统的示例实施方式,所述虚拟现实系统允许用户从第一虚拟定位移动(例如,远距传送、输送)到第二虚拟定位和/或缩放用户相对于虚拟环境的虚拟特征的大小(或者缩放虚拟环境中的虚拟特征相对于用户的大小),使得用户的视角或视图被缩放到重新选择的缩放大小。
如图5A中所示,相对于第二虚拟位置B处的特征550定位在第一虚拟位置A处的用户可以例如操纵手持电子设备102以指示用户希望移动到第二位置B处的特征550。对手持电子设备102的这种操纵可以例如使该设备生成聚焦在第二虚拟位置B处的特征550上的光束500,从而指示用户想要移动(例如,远距传送、输送)到与所选择的特征550相对应的第二虚拟位置B。
在图6A中示出了可供用户使用的用户界面606的示例实施方式。在一些实施方式中,可以在手持电子设备102的触敏部分或触摸板上提供用户界面606以供由用户操纵,其中用户界面606的元件占据触摸板的与特定功能相对应的指定部分。在一些实施方式中,可以在手持电子设备102的触摸屏显示器上提供用户界面606,其中各种操纵设备被作为图标渲染在触摸屏显示器上。在一些实施方式中,可以将用户界面606渲染为虚拟环境中的虚拟对象,以供由用户操纵。在下文中,简单地为了易于讨论和图示,用户界面606将被认为是以触摸板或触摸屏显示设备的形式实现在手持电子设备102上的,从而允许手持电子设备102在具有或没有向用户显示的不同画面的多个不同的用户界面上提供多个不同的用户操纵设备,其中用户界面606能够基于特定虚拟环境和/或可用于特定虚拟对象的动作/交互等而改变。这可以提供附加功能性和灵活性,并且进一步增强用户在虚拟环境中的体验。在下文中,用户界面606将被认为是以触摸板的形式实现的。为了易于讨论和图示,将在以下图中图示各种图标,所述以下图表示与触摸板的可经由触摸板的触敏表面接收用户输入的用户可操纵部分相对应的触摸板的各个部分。
如图6A中所示,用户界面606可以包括可以由用户操纵以用于选择特征和/或新虚拟位置或定位的第一操纵设备607。对第一操纵设备607的操纵可以例如使虚拟光束500被导向要选择的虚拟特征550和/或要选择的虚拟位置/定位,或者可以使光源608生成被从手持电子设备102导向虚拟特征550和/或要选择的虚拟位置/定位的虚拟光束500。在用户界面606被实现在手持电子设备102的触摸屏显示器上的示例中,第一操纵设备607可以是显示在触摸屏显示器上的图标,其中用户输入是响应于在触摸屏显示器的触敏表面上检测到的触摸输入而接收的。然而,在一些实施方式中,第一操纵设备607可以是例如可以由用户按压的按钮,或在手持电子设备102上可用的其它类型的操纵设备,诸如例如旋钮、切换键、滑块等。
用户界面606可以包括第二操纵设备609,所述第二操纵设备609可以被操纵来允许用户调整用户相对于环境中的虚拟特征的尺度或视角(或者,调整虚拟环境中的虚拟特征的相对于用户的尺度)。在图6A中所示的示例中,通过操纵(例如,触摸、轻敲等)第二操纵设备609的加号按钮609A一次或多次,用户可以选择增加他相对于虚拟环境中的虚拟特征的尺度,使得用户对虚拟环境的视图或视角反映在用户是更大大小的情况下将会体验到什么,从而使得在虚拟位置B处选择的虚拟特征550随着用户移动到虚拟位置B而似乎更小。这种类型的动作可以替代地被认为是虚拟环境中的虚拟特征相对于用户的按比例缩小,从而在针对用户的视图或视角方面导致类似的变化。
以类似的方式,通过轻敲第二操纵设备609的减号按钮609B一次或多次,用户可以选择按比例缩小他自己,使得用户对虚拟环境的视图或视角反映在用户相对于虚拟环境中的虚拟特征为更小大小的情况下将会体验到什么,从而使得在虚拟位置B处选择的特征550随着用户朝向虚拟位置B移动而似乎相对于用户更大。这种类型的动作可以替代地被认为是虚拟环境相对于用户的按比例放大,从而在针对用户的视图或视角方面导致类似的变化。
在一些实施例中,一个或多个预设动作可以与对第二操纵设备609的操纵相关联。例如,加号按钮609A上的单个输入(例如,触摸、轻敲等)可以使用户向所选择的虚拟位置B处的虚拟特征550靠近移动固定(虚拟)量(例如,距离的百分比),并且/或者可以使用户相对于虚拟环境中的虚拟特征按比例放大(或者使虚拟环境中的虚拟特征相对于用户按比例缩小)固定(虚拟)量(例如,百分比缩放)。例如,一旦虚拟位置B处的虚拟特征550已被选择(例如,通过操纵第一操纵设备607将虚拟光束500导向虚拟位置B处的特征550,如图5A中所示),加号按钮609A上的单个轻敲可以使用户移动一定量或虚拟距离,例如在用户的当前虚拟位置A与所选择的虚拟位置B之间的虚拟距离X的50%,并且可以使用户以按比例放大(或者使虚拟环境按比例缩小)例如一定量,例如50%,如图5B中所示。类似地,减号按钮609B上的单个输入(例如,触摸、轻敲等)可以使用户向所选择的虚拟位置B处的虚拟特征550靠近移动固定量,并且/或者可以使用户按比例缩小(或者使虚拟环境按比例放大)固定量。例如,一旦虚拟位置B处的虚拟特征550已被选择(例如,通过操纵第一操纵设备607将虚拟光束500导向虚拟位置B处的虚拟特征550,如图5A中所示),减号按钮609B上的单个轻敲就可以使用户移动例如在用户的当前虚拟位置A与所选择的虚拟位置B之间的虚拟距离X的50%,并且可以使用户按比例缩小(或者使虚拟环境按比例放大)例如50%,如图5C中所示。
当用户从图5A中所示的虚拟位置A移动到虚拟位置B,并且用户像图5B中所示的那样虚拟地按比例放大(或者虚拟特征虚拟地按比例缩小),或者用户像图5C中所示的那样虚拟地按比例缩小(或者虚拟特征虚拟地按比例放大)时,虚拟地面可以保持随着用户和/或虚拟环境像所描述的那样缩放而保持不变的参考点。也就是说,当用户改变虚拟位置和/或相对尺度时,用户的脚保持在虚拟地面上。
如上所述,无论用户的移动(从图5A中所示的虚拟位置到图5B中所示的虚拟位置或图5C中所示的虚拟位置)是基本上立即的,还是用户在移动期间体验到动态虚拟动画,在移动完成时,用户可以逐渐停止,而不是突然停止。可以维持用户的动量的某种感觉的这种逐渐停止可以给用户提供在新虚拟位置处进入虚拟环境的更自然转变。
在图5B中所示的示例中,对加号按钮609A的触摸输入使用户移动在用户的当前虚拟位置A与所选择的虚拟位置B处的虚拟特征550之间的虚拟距离的一半,并且虚拟地按比例放大了50%。类似地,在图5C中所示的示例中,对减号按钮609B的触摸输入使用户移动在用户的当前虚拟位置A与所选择的虚拟位置B处的特征550之间的虚拟距离的一半,并且虚拟地按比例缩小了50%。分别在图5B和图5C中示出的移动在虚拟位置A与虚拟位置B之间的虚拟距离的50%以及50%按比例放大或缩小只是可以与对第二操纵设备609的按钮之一的操纵相关联的虚拟移动和/或虚拟缩放的预设量的一个示例。虚拟移动量可以大于50%或者小于50%,并且虚拟按比例放大或缩小量可以大于50%或者小于50%。与对第二操纵设备609的按钮之一的操纵相关联的虚拟移动量和/或虚拟缩放量可以例如由手持电子设备102的制造商和/或由通过系统生成的虚拟环境的开发者来设定,或者可以由用户依照用户的个人偏好来设定。
在一些实施方式中,用户可以继续操纵第二操纵设备609的加号按钮609A和减号按钮609B,直到实现所期望的虚拟尺度和/或离虚拟位置B处的虚拟特征550的所期望的虚拟距离为止。
在一些实施方式中,用户可以操纵第二操纵设备609的加号按钮609A和减号按钮609B以在到达虚拟位置B之后实现所期望的虚拟尺度。例如,用户可以操纵第一操纵设备607以将虚拟光束500导向虚拟位置B处的虚拟特征550(如例如图4B中所示),并且然后可以在对第一操纵设备607的操纵完成时被移动到虚拟位置B(如例如图4C中所示)。一旦在虚拟位置B处,用户就然后可以操纵第二操纵设备609的加号按钮609A和减号按钮609B来缩放,即,增加和/或减小用户相对于虚拟特征550的大小(或者如期望的那样)。
如上面所指出的,当以手持电子设备102上的触摸板的形式实现用户界面时,第一操纵设备607以及第二操纵设备609的加号按钮609A和减号按钮609B可以各自对应于触摸板的特定部分。当以触摸屏显示器的形式实现用户界面时,可以将第一操纵设备607以及第二操纵设备609的加号按钮609A和减号按钮609B各自表示为由触摸屏显示器显示的图标,所述图标可以检测触摸屏显示器的触敏表面的对应部分处的触摸输入。然而,如上面所指出的,用户界面606可以被实现为使得操纵设备包括按钮、旋钮、切换键、滑块等,并且/或者可以被渲染为用于在虚拟环境中由用户操纵的虚拟对象。
在一些实施方式中,在手持电子设备102上提供的用户界面606可以包括如上所述的第一操纵设备607,以及可以接收触摸和拖曳输入或滑动输入的第二操纵设备610,如图6B-6E中所示。返回到图5A,相对于第二虚拟位置B处的虚拟特征550定位在第一虚拟位置A处的用户可以例如操纵手持电子设备102以指示用户希望移动到第二虚拟位置B处的虚拟特征550。对手持电子设备102的这种操纵可以使手持电子设备102将虚拟光束500导向第二虚拟位置B处的虚拟特征550。用户然后可以操纵第二操纵设备610,以根据对第二操纵设备610的操纵的方式,例如沿着第二操纵设备610的扫掠方向,而相对于虚拟环境中的虚拟特征按比例放大或者按比例缩小(或者相对于用户按比例放大或缩小虚拟特征)。
例如,用户可以选择相对于虚拟环境中的虚拟特征按比例放大他自己。这可以更改用户对虚拟环境相对于固定虚拟参考点诸如如上所述的虚拟地面的视图或视角,从而反映在用户是更大大小、同时用户的脚仍然被定位在虚拟地面上的情况下将会体验到什么,使得在虚拟位置B处选择的虚拟特征550在用户的脚保持在虚拟地面上的同时随着用户朝向虚拟位置B移动而似乎更小。这种类型的动作可以替代地被认为是虚拟环境的虚拟特征的按比例缩小,从而在针对用户的视图或视角方面导致类似的变化。
一旦已经如上所述并且如图5A中所示的那样选择了虚拟位置B处的虚拟特征550,则用户可以通过例如第二操纵设备610处的触摸和拖曳输入来移动并按比例放大。例如,用户可以在第二操纵设备610的第一端610A处施加触摸输入,如图6B中所示,然后沿着第二操纵设备610朝向第二操纵设备610的第二端610B拖曳触摸输入。如图6C中所示,在第二操纵设备610的第一端610A和第二端610B之间的中间位置处释放触摸和拖曳输入可以指示所期望的虚拟移动和/或虚拟缩放的水平,并且在触摸输入的释放时用户可以被定位在过渡虚拟位置处和/或在虚拟环境中的虚拟地缩放的大小/视角下,如图5B中所示。也就是说,虚拟移动量和/或虚拟缩放量可以基于或者成比例于所检测到的拖曳输入的方向或轨迹和长度,所检测到的拖曳的方向或轨迹和长度是基于在触摸和拖曳输入开始时检测到的初始触摸以及在触摸和拖曳输入结束时检测到的触摸的释放来确定的。
类似地,一旦已经如上所述并且如图5A中所示的那样选择了虚拟位置B处的虚拟特征550,用户就可以通过例如第二操纵设备610处的触摸和拖曳输入来实现虚拟移动和虚拟按比例缩小(或虚拟环境中的虚拟特征的虚拟移动和虚拟按比例放大)。例如,用户可以在第二操纵设备610的第二端610B处施加触摸输入,如图6D中所示,然后沿着第二操纵设备610朝向第二操纵设备610的第一端610A拖曳触摸输入。如图6D中所示,在第二操纵设备610的第二端610B和第二端610A之间的过渡位置处释放触摸和拖曳输入可以指示所期望的虚拟移动和/或虚拟缩放的水平,并且在触摸输入的释放时用户可以被定位在过渡虚拟位置处和/或在虚拟环境中的虚拟缩放的大小/视角下,如图5C中所示。也就是说,虚拟移动量和/或虚拟缩放量可以基于或者成比例于所检测到的拖曳输入的方向或轨迹和长度,所检测到的拖曳的方向或轨迹和长度是基于在触摸和拖曳输入开始时检测到的初始触摸以及在触摸和拖曳输入结束时检测到的触摸的释放来确定的。
换句话说,在一些实施方式中,与对第二操纵设备610的操纵相关联的虚拟移动量和/或缩放量可以对应于检测到触摸和拖曳输入的释放的第二操纵设备610的第一端610A和第二端610B之间的中间点。例如,如图6C或图6E中所示,在第二操纵设备610的第一端610A和第二端610B之间的约一半处检测到触摸和拖曳输入的释放可以使用户移动在用户的当前虚拟位置A与所选择的虚拟位置B处的虚拟特征550之间的虚拟距离的约一半,并且按比例放大或缩小约50%。在沿着第二操纵设备610的不同中间点处释放触摸和拖曳输入可以导致不同的对应的虚拟移动量和/或缩放量。
在一些实施方式中,用户的虚拟移动和/或缩放可以在第二操纵设备610上的触摸和拖曳输入的释放之后发生。在一些实施方式中,用户的虚拟移动和/或缩放可以与用户沿着第二操纵设备610的拖曳输入同时发生,使得用户在随着用户的手指沿着第二操纵设备610拖曳而移动和/或缩放,并且随着用户实现所期望的虚拟移动量和/或缩放量而停止。在任何一种情况下(无论用户位置的移位是基本上立即的还是动态动画的),一旦虚拟移动已完成,在虚拟移动完成时,用户就可以逐渐停止,而不是突然停止。可以维持用户的动量的某种感觉的这种逐渐停止可以给用户提供在新位置处进入虚拟环境的更自然转变。
在一些实施方式中,用户可以操纵第二操纵设备610以在到达虚拟位置B之后实现所期望的虚拟尺度。例如,用户可以操纵第一操纵设备607以将虚拟光束500导向虚拟位置B处的虚拟特征550(如例如图4B中所示),并且然后可以在对第一操纵设备607的操纵完成时被移动到虚拟位置B(如例如图4C中所示)。一旦位于相对于所选择的虚拟特征550的虚拟位置B处,用户就然后可以如上所述操纵第二操纵设备610以按需增加和/或减小虚拟尺度。
如上所述,当在手持电子设备102上以触摸板或触摸屏显示器的形式实现用户界面时,第一操纵设备607和第二操纵设备610可以各自对应于触摸板的特定部分,并且/或者可以各自被表示为由触摸屏显示器显示的图标,所述图标可以在触摸板和/或触摸屏显示器的触敏表面的相应部分处检测触摸输入、触摸和拖曳输入和触摸释放。然而,如上面所指出的,用户界面606可以被实现为使得操纵设备包括按钮、旋钮、切换键、滑块等,和/或在虚拟环境中渲染以供用户操纵的虚拟对象。
在一些实施方式中,可以基于由用户限定的虚拟轨迹调整用户在虚拟环境中的虚拟尺度。如图7A中所示,用户可以将虚拟光束500导向虚拟空间中的点C。在这种情况下,点C未被识别有虚拟空间中的任何特定虚拟特征,而是限定用户希望跟随的虚拟缩放轨迹700。虚拟缩放轨迹700可以由在第一用户参考点(例如,用户的头部,例如,由用户穿戴的HMD100上的设定点)与点C之间延伸的虚拟线来限定。通过操纵手持电子设备102的用户界面上的操纵设备中的一个,用户然后可以虚拟地沿着此虚拟轨迹700移动和缩放,同时用户的脚保持在虚拟地面上,直到接收到指示已经实现了所期望的虚拟移动量和/或缩放量的用户输入(例如,通过手持电子设备102的用户界面,诸如例如,从手持电子设备102的触敏表面释放触摸)为止,如图7B中所示。
在图7A-7B中所示的示例中,随着用户虚拟地沿着虚拟缩放轨迹700移动和/或缩放时,用户的脚保持在恒定参考点或虚拟地面上,同时用户的头部跟随虚拟轨迹700以虚拟地在虚拟环境中移动和/或缩放。源自于虚拟空间中的的第一用户参考点(例如,用户的头戴式耳机上的点,如上所述)指向点C的虚拟光束500指示用户打算相对于虚拟环境在大小或视角上虚拟地按比例放大。当系统(基于通过手持电子设备102的用户界面接收的输入)执行虚拟移动和/或缩放时,用户的视角可以被更改为使得第二用户参考点(诸如例如用户的脚)保持在地面上,同时虚拟空间中的第一用户参考点(例如,用户的头部)的虚拟高度改变,或者像在此示例中一样增加。在虚拟移动距离相对较大的情形下,虚拟移动的速度可以随着用户头部的虚拟高度增加而增加,使得整体效果是恒定速率移动的效果。也就是说,通过随着用户相对于第二用户参考点或虚拟地面的虚拟大小和虚拟头部高度(以及因此视角)增加而增加速度,用户可以体验到那似乎为基本上恒定的速度。在没有这种类型的增加速度或加速度的情况下,随着用户头部的虚拟高度增加并且用户的大小被以这种方式按比例放大,由于用户相对于虚拟环境中的用户的周围事物的大小的大小/尺度/视角的增加,用户可以感觉好像虚拟移动正在变慢或者减速。
类似地,如果虚拟轨迹替代地向下(而不是如图7A-7B所示的那样向上),则用户的速度可以随着用户相对于第二用户参考点或虚拟地面的虚拟大小和虚拟头部高度以及因此视角减小而减小,使得用户体验到那似乎为基本上恒定的速度。
如上面所指出的,一旦移动已完成,在移动完成时,用户可以逐渐停止,而不是突然停止。可以维持用户的动量的某种感觉的这种逐渐停止可以给用户提供在新位置和尺度下进入虚拟环境的更自然转变。
如图8A中所示,在一些实施方式中,一个或多个虚拟照片球体570(例如,第一虚拟照片球体570A、第二虚拟照片球体570B和第三虚拟照片球体570C)可以被用户用于在虚拟环境中选择。每个照片球体可以提供例如虚拟环境中的特定特征、定位等的360度全景体验。为了移动到虚拟照片球体570中的一个,用户可以例如将由手持电子设备102如上所述生成的虚拟光束500导向虚拟照片球体570中的选定一个,诸如例如第三虚拟照片球体570C,以进入虚拟特征550的内部的360度全景体验,如图8A中所示。在对手持电子设备102的进一步操纵(例如,将虚拟光束550导向所选择的虚拟照片球体570C的按钮的释放)时,用户可以被移动或者远距传送或者输送到所选择的虚拟照片球体570C,如图8B中所示。
当移动或者输送或者远距传送到所选择的虚拟照片球体570时,用户也可以选择像上面详细地讨论的那样相对于虚拟环境中的特征按比例调整。特别地,当移动到所选择的虚拟照片球体570时,用户可以选择以上面详细地描述的方式相对于包括在由所选择的虚拟照片球体570提供的360度全景体验中的虚拟元素在大小/尺度上增加或者在大小/尺度上减小。
一旦在虚拟照片球体570内,用户就可以在虚拟照片球体570内移动。例如,用户可以转动以观看由虚拟照片球体570提供的360度全景体验的不同部分,并且/或用户可以在虚拟照片球体570内从虚拟位置C走到虚拟位置D,如图8B中所示,以接近或者得以更靠近包括在由虚拟照片球体570提供的360度全景体验中的虚拟元素。在一些实施方式中,用户可以例如在虚拟照片球体570内走到可以被认为是虚拟照片球体570内的360全景虚拟显示的边缘的地方,其中在显示在用户前面的虚拟照片球体570的360度全景体验中显示的虚拟元素随着用户在虚拟元素的方向上走或者接近虚拟元素而似乎更大。类似地,如果用户将转身,例如,在到达虚拟位置D之后转动180度,则曾经在用户后面的虚拟元素可以似乎更小,因为用户已经离开在虚拟照片球体570的该部分中显示的虚拟元素。
在图9中示出了依照本文中所描述的实施方式的在虚拟现实环境中移动和/或缩放的方法800。图8中所示的方法800可以例如由与如上面详细地描述的手持电子设备102配对的HMD 100执行。在检测到指示要从当前位置朝向所选择的新虚拟位置处的虚拟特征移动的对虚拟环境内的新虚拟位置处的虚拟特征的选择(块810)时,可以确定是否已经接收到相对于虚拟环境增加和/或减小用户尺度的命令(块820)。如果已经接收到要调整尺度的命令,则可以发起朝向所选择的新虚拟位置处的虚拟特征的虚拟移动,并且可以与虚拟移动一起执行用户相对于虚拟环境的虚拟尺度的调整(块830),如上面关于图5A-5C、图6A-6E和图7A-7B详细地描述的。如果尚未接收到要调整尺度的命令,则可以发起并执行朝向所选择的新虚拟位置处的特征的虚拟移动(块840),如上面关于图4A-4C详细地描述的。在虚拟移动和/或缩放完成(块850)时,可以重复该过程直到虚拟体验被终止为止(块860)。
图10示出可以与本文所述技术配用的通用计算机设备900和通用移动计算机设备950的示例。计算设备900意图表示各种形式的数字计算机,诸如膝上型计算机、桌面型计算机、平板型计算机、工作站、个人数字助理、电视机、服务器、刀片服务器、主机以及其他适当的计算设备。计算设备950意图表示各种形式的移动设备,诸如个人数字助理、蜂窝电话、智能电话以及其他类似的计算设备。在此所示的组件、它们的连接和关系以及它们的功能意在仅为示例性,而非意在限制本文所述和/或所要求保护的本发明的实施方式。
计算设备900包括处理器902、存储器904、存储设备906、连接至存储器904和高速扩展端口910的高速接口908以及连接至低速总线914和存储设备906的低速接口912。处理器902能够是基于半导体的处理器。存储器904能够是基于半导体的存储器。组件902、904、906、908、910和912中的每个使用各种总线互联,并且可以被安装在公共母板上或者酌情以其他方式安装。处理器902能够处理用于在计算设备900内执行的指令,包括存储在存储器904中或者存储设备906上的指令,以对诸如耦合至高速接口908的显示器916的外部输入/输出设备上的GUI显示图形信息。在其他实施方式中,可以酌情使用多个处理器和/或多个总线与多个存储器和存储器类型。此外,可以连接多个计算设备900,每个设备提供所需操作的多个部分(例如,服务器组(server bank)、刀片服务器组或者多处理器系统)。
存储器904存储计算设备900内的信息。在一种实施方式中,存储器904是一个或多个易失性存储器单元。在另一种实施方式中,存储器904是一个或多个非易失性存储器单元。存储器904也可以是另一种形式的计算机可读介质,诸如磁盘或光盘。
存储设备906能够为计算设备900提供大容量存储。在一种实施方式中,存储设备906可以是或包含计算机可读介质,诸如软盘设备、硬盘设备、光盘设备或者磁带设备、快闪存储器或者其他类似的固态存储器设备、或者设备的阵列,包括存储区域网络或者其他配置中的设备。计算机程序产品能够有形地体现于信息载体中。计算机程序产品也可以包含指令,所述指令当被执行时执行一个或多个方法,诸如上述那些方法。信息载体是计算机或机器可读介质,诸如存储器904、存储设备906或者处理器902上的存储器。
高速控制器908管理用于计算设备900的带宽密集(bandwidth-intensive)操作,而低速控制器912管理较低的带宽密集操作。这样的功能分配仅为示例性。在一种实施方式中,高速控制器908耦合至存储器904、显示器916(例如,通过图形处理器或者加速器)以及可以接受各种扩展卡(未示出)的高速扩展端口910。在本实施方式中,低速控制器912耦合至存储设备906以及低速扩展端口914。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的低速扩展端口可以耦合至一个或多个输入/输出设备,诸如键盘、指针设备、扫描仪或者诸如通过例如网络适配器的交换机或者路由器的网络设备。
如图所示,计算设备900可以通过数种不同的形式来实现。例如,它可以被实现为标准服务器920或者多倍这样的服务器组。它还可以被实现为架式(rack)服务器系统924的一部分。此外,它可以被实现在诸如膝上型计算机922的个人计算机中。替选地,来自计算设备900中的组件可以与诸如设备950的移动设备(未示出)中的其他组件组合。这样的设备中的每一个可以包含计算设备900、950中的一个或多个,并且整个系统可以由彼此通信的多个计算设备900、950组成。
计算设备950除其他组件外还包括处理器952、存储器964、诸如显示器954的输入/输出设备、通信接口966以及收发器968。设备950还可以具有用于提供附加存储的存储设备,诸如微驱动器或者其他设备。组件950、952、964、954、966和968中的每个使用各种总线互联,并且组件中的几个可以被安装在公共母板上或者酌情以其他方式安装。
处理器952能够执行计算设备950内的指令,包括存储在存储器964中的指令。处理器可以被实现为包括分立的多个模拟和数字处理器的芯片的芯片集。例如,处理器可以提供与设备950的其他组件的协同,诸如用户界面的控制、设备950运行的应用以及设备950的无线通信。
处理器952可以通过控制接口958以及耦合至显示器954的显示器接口956与用户通信。例如,显示器954可以是TFT LCD(薄膜晶体管液晶显示器)或OLED(有机电致发光二极管)显示器或者其他适当的显示技术。显示器接口956可以包括用于驱动显示器954以将图形信息和其他信息呈现给用户的适当电路。控制接口958可以从用户接收命令并且将它们进行变换以便提交给处理器952。此外,可以提供外部接口962与处理器952通信,以便启用设备950与其他设备的近区通信。例如,外部接口962可以在一些实施方式中提供有线通信,或者在其他实施方式中提供无线通信,并且也可以使用多个接口。
存储器964存储计算设备950内的信息。存储器964能够被实现为计算机可读介质或介质、一个或多个易失性存储器单元或者一个或多个非易失性存储器单元中的一个或多个。还可以提供扩展存储器974并且通过扩展接口972将其连接至设备950,例如,该扩展接口可以包括SIMM(单列直插内存模块)卡接口。这样的扩展存储器974可以提供用于设备950的额外存储空间,或者也可以存储用于设备950的应用或其他信息。具体地,扩展存储器974可以包括用于实行或者补充上述过程的指令,并且也可以包括安全信息。因此,例如,扩展存储器974可以被提供为用于设备950的安全模块,并且可以用允许安全使用设备950的指令来进行编程。此外,可以经由SIMM卡提供安全应用连同附加信息,诸如,以不可破解(non-hackable)的方式将识别信息置于SIMM卡上。
存储器例如可以包括快闪存储器和/或NVRAM存储器,如下文所讨论。在一种实施方式中,计算机程序产品有形地体现于信息载体中。计算机程序产品包含指令,所述指令当被执行时执行一个或多个方法,诸如上述那些方法。信息载体是可以例如通过收发器968或者外部接口962接收的计算机或机器可读介质,诸如存储器964、扩展存储器974或者处理器952上的存储器。
设备950可以通过通信接口966进行无线通信,该通信接口必要时可以包括数字信号处理电路。通信接口966可以提供各种模式或协议下的通信,诸如GSM语音呼叫、SMS、EMS或MMS消息传送、CDMA、TDMA、PDC、WCDMA、CDMA2000或GPRS等等。例如,这样的通信可以通过射频收发器968来进行。此外,可以发生近程通信,诸如使用蓝牙、WiFi或者其他这样的收发器(未示出)。此外,GPS(全球定位系统)接收器模块970可以将额外的导航和位置相关的无线数据提供给设备950,其可以酌情供设备950上运行的应用使用。
设备950还可以使用音频编解码器960来进行可听通信,该音频编解码器可以从用户接收口语信息并且将其变换为可用的数字信息。音频编解码器960同样可以为用户生成可听声音,诸如通过扬声器,例如,在设备950的手持设备中。这样的声音可以包括来自语音电话呼叫的声音,可以包括录制的声音(例如,语音消息、音乐文件等),并且也可以包括通过在设备950上操作的应用所生成的声音。
如图所示,计算设备950可以通过数种不同的形式来实现。例如,它可以被实现为蜂窝电话980。它也可以被实现为智能电话982、个人数字助理或者其他类似移动设备的一部分。
本文所述的系统和技术的各种实施方式可以在数字电子线路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或其组合中来实现。这些各种实施方式可以包括可编程系统上的可执行和/或可解释的一个或多个计算机程序中的实施方式,所述可编程系统包括耦合以从存储系统接收数据和指令并且向存储系统发送数据和指令的、可以是专用或通用的至少一个可编程处理器、存储系统、至少一个输入设备以及至少一个输出设备。
这些计算机程序(也被称作程序、软件、软件应用或者代码)包括用于可编程处理器的机器指令,并且能够以高级程序语言和/或面向对象的编程语言和/或汇编/机器语言来实现。如本文所用,术语“机器可读介质”、“计算机可读介质”是指用于将机器指令和/或数据提供给可编程处理器的任意计算机程序产品、装置和/或设备(例如,磁盘、光盘、存储器、可编程逻辑设备(PLD)),包括接收机器指令作为机器可读信号的机器可读介质。术语“机器可读信号”是指用于将机器指令和/或数据提供给可编程处理器的任意信号。
为提供与用户的交互,本文所述的系统和技术能够在计算机上来实现,该计算机具有用于将信息显示给用户的显示设备(例如CRT(阴极射线管)或者LCD(液晶显示器)监视器)以及用户能够借以向计算机提供输入的键盘和指针设备(例如鼠标或轨迹球)。其他种类的设备也能够被使用于提供与用户的交互;例如,提供给用户的反馈能够是任何类型的感觉反馈(例如,视觉反馈、听觉反馈或者触觉反馈);并且来自用户的输入能够以任何形式来接收,包括声音、语音或者触觉输入。
本文所述的系统和技术能够在包括后端组件(例如作为数据服务器)、包括中间件组件(例如应用服务器)、包括前端组件(例如具有用户能够借以与本文所述的系统和技术的实施方式交互的图形用户界面或者web浏览器的客户端计算机)或者这样的后端、中间件或前端组件的任意组合的计算系统中来实现。系统的组件能够通过数字数据通信的任何形式或者介质来互联(例如,通信网络)。通信网络的示例包括局域网(“LAN”)、广域网(“WAN”)以及互联网。
计算系统能够包括客户端和服务器。客户端与服务器一般彼此远离,并且通常通过通信网络相交互。客户端与服务器的关系借助在相应计算上运行并且彼此具有客户端-服务器关系的计算机程序来实现。
本文已对数个实施例予以描述。然而,应当理解到,在不脱离本发明的精神和范围的情况下,可以做出各种修改。
此外,在附图中所描绘的逻辑流程不要求所示的特定次序或顺序来获得期望的结果。此外,可以从所述流程中提供其他步骤或者取消一些步骤,并且可以向所述系统添加其他组件或者从所述系统移除一些组件。因此,其他实施例落入所附权利要求的范围内。
本文所述的各种技术的实施方式可以在数字电子电路或者计算机硬件、固件、软件或其组合中实现。这些实施方式可以被实现为计算机程序产品,即,有形地体现在信息载体中的计算机程序,例如,体现在机器可读存储设备(计算机可读介质)中,以供数据处理装置进行处理或者控制数据处理装置的操作,例如,可编程处理器、一台计算机或多台计算机。因此,计算机可读存储介质能够被配置成存储指令,这些指令当被执行时促使处理器(例如,主机设备处的处理器、客户端设备处的处理器)执行过程。
计算机程序(诸如上述计算机程序)能够以任何形式的编程语言来编写,包括编译语言或解释语言,并且能够以任何形式来部署,包括作为独立程序或者作为模块、组件、子例程或者适用于计算环境的其他单元。计算机程序能够被部署成在一台计算机或者位于一个站点或跨多个站点分布并通过通信网络互联的多台计算机上进行处理。
这些方法步骤可以由执行计算机程序的一个或多个可编程处理器来执行,以通过对输入数据进行运算并且生成输出来履行功能。这些方法步骤也可以由例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)的专用逻辑电路来执行,并且一种装置可以被实现为该专用逻辑电路。
举例而言,适用于处理计算机程序的处理器包括通用微处理器和专用微处理器以及任何类型的数字计算机的任何一个或多个处理器。一般而言,处理器将从只读存储器、随机存取存储器或这两者接收指令和数据。计算机的元素可以包括用于执行指令的至少一个处理器以及用于存储指令和数据的一个或多个存储器设备。一般而言,计算机也可以包括用于存储数据的一个或多个大容量存储设备,例如,磁盘、磁光盘或光盘,或者可操作地与其耦合以从其接收数据、向其传送数据或者两者兼备。适用于体现计算机程序指令和数据的信息载体包括所有形式的非易失性存储器,例如包括:半导体存储设备,例如,EPROM、EEPROM和闪存设备;磁盘,例如,内置硬盘或可移动盘;磁光盘;以及CD ROM盘和DVD-ROM盘。处理器和存储器可以辅以专用逻辑电路或并入其中。
为提供与用户的交互,多种实施方式可以在计算机上来实现,该计算机具有用于将信息显示给用户的显示设备,例如,阴极射线管(CRT)、发光二极管(LED)或液晶显示器(LCD),以及用户能够借以向计算机提供输入的键盘和指针设备,例如,鼠标或轨迹球。其他种类的设备也能够被使用于提供与用户的交互;例如,提供给用户的反馈能够是任何类型的感觉反馈,例如,视觉反馈、听觉反馈或者触觉反馈;并且来自用户的输入能够以任何形式来接收,包括声音、语音或者触觉输入。
多种实施方式可以在包括后端组件(例如,作为数据服务器)、包括中间件组件(例如,应用服务器)、包括前端组件(例如,具有用户能够借以与实施方式交互的图形用户界面或者web浏览器的客户端计算机)或者这样的后端、中间件或前端组件的任意组合的计算系统中来实现。多个组件可以通过数字数据通信的任何形式或者介质来互联,例如,通信网络。通信网络的示例包括局域网(LAN)和广域网(WAN),例如,互联网。
根据一种实施方式,在用于在虚拟现实环境中移动和缩放的系统中,用户可以从虚拟环境中的第一虚拟位置朝向虚拟环境中的第二虚拟位置处的所选择的特征移动。在从第一位置向第二位置移动时,可以通过操纵设置在手持电子设备上的用户界面来调整用户相对于虚拟环境中用户周边的比例或视角。
在以下示例中概述另外一些实施方式。
示例1:一种方法,包括:生成虚拟环境;在用户界面处检测第一输入,所述第一输入指示对所述虚拟环境中的虚拟特征的选择;在所述用户界面处检测第二输入,所述第二输入指示相对于所选择的虚拟特征的用户的虚拟位置的变化或者相对于所述虚拟特征的所述用户的虚拟比例的变化中的至少一个;以及响应于所述第二输入,调整相对于所选择的虚拟特征的所述用户的虚拟位置或者相对于所述虚拟特征的所述用户的虚拟比例中的至少一个。
示例2:根据示例1所述的方法,其中,在所述用户界面处检测第二输入包括在所述用户界面处检测指示相对于所选择的虚拟特征的虚拟位置的变化以及相对于所述虚拟特征的虚拟比例的变化的输入。
示例3:根据示例1或2所述的方法,其中,所述第二输入包括在所述用户界面处接收到的触摸输入,以及其中,调整所述虚拟位置或者所述虚拟比例中的至少一个包括:在所述用户界面的第一部分处检测触摸输入;响应于在所述用户界面的所述第一部分处检测到的触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征;以及响应于在所述用户界面的所述第一部分处检测到的触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例放大设定量。
示例4:根据示例3所述的方法,其中,在所述用户界面的第一部分处检测触摸输入包括在所述用户界面的第一部分处检测多个触摸输入,以及响应于在所述用户界面的所述第一部分处检测到的每个触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征,并且使相对于所述虚拟特征的所述用户的虚拟比例放大设定量。
示例5:根据示例2至4中的任一项所述的方法,其中,所述第二输入包括在所述用户界面处接收到的触摸输入,以及其中,调整所述虚拟位置或者所述虚拟比例中的至少一个包括:在所述用户界面的第二部分处检测触摸输入;响应于在所述用户界面的所述第二部分处检测到的触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征;以及响应于在所述用户界面的所述第二部分处检测到的触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例缩小设定量。
示例6:根据示例5所述的方法,其中,在所述用户界面的第二部分处检测触摸输入包括在所述用户界面的第二部分处检测多个触摸输入,以及响应于在所述用户界面的所述第二部分处检测到的每个触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征,并且使相对于所述虚拟特征的所述用户的虚拟比例缩小设定量。
示例7:根据示例2至6中的任一项所述的方法,其中,所述第二输入包括在所述用户界面处接收到的触摸和拖拽输入,以及其中,调整所述虚拟位置或者所述虚拟比例中的至少一个包括:在所述用户界面处检测触摸和拖拽输入,包括检测初始触摸点、检测释放点以及检测沿所述用户界面在检测到的初始触摸点与检测到的释放点之间的拖拽轨迹;响应于检测到的触摸和拖拽输入,虚拟地使用户移动虚拟距离以更接近所选择的虚拟特征;以及响应于检测到的触摸和拖拽输入,虚拟地放大或缩小相对于所述虚拟特征的所述用户的虚拟比例。
示例8:根据示例7所述的方法,其中,虚拟地使所述用户移动虚拟距离以更接近所选择的虚拟特征包括基于检测到的沿所述用户界面的拖拽轨迹的长度来确定所述虚拟距离。
示例9:根据示例7或8所述的方法,其中,虚拟地放大或缩小相对于所述虚拟特征的所述用户的虚拟比例包括:检测所述拖拽轨迹的方向;当检测到的拖拽轨迹的方向是第一方向时,基于检测到的拖拽轨迹的长度来虚拟地放大相对于所述虚拟特征的所述用户的比例;以及当检测到的拖拽轨迹的方向是第二方向时,基于检测到的拖拽轨迹的长度来虚拟地缩小相对于所述虚拟特征的所述用户的比例。
示例10:根据示例1至9中的任一项所述的方法,其中,所述用户界面包括触摸屏显示器,以及其中,检测第一输入包括在所述触摸屏显示器的触敏表面的第一预设部分处检测触摸输入,在所述触摸屏显示器的所述触敏表面的所述第一预设部分处显示选择图标,以及检测第二输入包括以下中的至少一个:在所述触摸屏显示器的所述触敏表面的第二预设部分处检测触摸输入,操纵设备包括在所述触摸屏显示器的所述触敏表面的所述第二预设部分处显示的放大图标和缩小图标,在所述放大图标或所述缩小图标中的一个处检测所述触摸输入,或者在所述触摸屏显示器的所述触敏表面的所述第二预设部分处检测触摸和拖拽输入,操纵设备包括在所述触摸屏显示器的所述触敏表面的所述第二预设部分处显示的拖拽图标。
示例11:根据示例1至10中的任一项所述的方法,进一步包括:在所述用户界面处检测第三输入,所述第三输入识别所述虚拟环境中的设定虚拟基准点;以及响应于所述第三输入,调整所述用户相对于所述虚拟环境的虚拟比例,包括沿所述虚拟环境中至少一个用户设定点与所述基准点之间延伸的假想线调整所述用户的虚拟比例。
示例12:根据示例11所述的方法,其中,响应于所述第三输入调整相对于所述虚拟环境的所述用户的虚拟比例包括沿所述假想线调整所述用户的虚拟比例,使得当所述用户相对于所述虚拟环境虚拟地按大小缩放时,第一用户设定点遵循所述假想线,而第二用户设定点相对于所述虚拟环境保持虚拟地接地。
示例13:一种系统,包括:计算设备,所述计算设备被配置成生成沉浸式虚拟环境,所述计算设备包括:存储器,所述存储器存储可执行指令;以及处理器,所述处理器被配置成执行所述指令以促使所述计算设备:生成虚拟环境;在用户界面处检测第一输入,所述第一输入指示对所述虚拟环境中的虚拟特征的选择;在所述用户界面处检测第二输入,所述第二输入指示相对于所选择的虚拟特征的用户的虚拟位置的变化或者相对于所述虚拟特征的所述用户的虚拟比例的变化中的至少一个;以及响应于所述第二输入,调整相对于所选择的虚拟特征的所述用户的虚拟位置或者相对于所述虚拟特征的所述用户的虚拟比例中的至少一个。
示例14:根据示例13所述的系统,其中,所述第二输入包括在所述用户界面处接收到的触摸输入,以及其中,在调整所述虚拟位置或者所述虚拟比例中的至少一个的过程中,所述处理器被配置成:在所述用户界面的操纵设备处检测触摸输入;响应于在所述用户界面的所述操纵设备处检测到的触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征;以及响应于在所述用户界面的所述操纵设备处检测到的触摸输入,使相对于所述虚拟环境的所述用户的虚拟比例放大或缩小设定量。
示例15:根据示例14所述的系统,其中,所述操纵设备包括放大设备和缩小设备,以及其中,所述处理器被配置成响应于所述放大设备的操纵而使相对于所述虚拟环境的所述用户的虚拟比例放大设定量,并且响应于所述缩小设备的操纵而使相对于所述虚拟环境的所述用户的虚拟比例缩小设定量。
示例16:根据示例14或15所述的系统,其中,所述处理器被配置成在所述用户界面的所述操纵设备处检测多个触摸输入,并且响应于在所述用户界面的所述第一部分处检测到的每个触摸输入,相继地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征,并且相继地使相对于所述虚拟特征的所述用户的虚拟比例放大或缩小设定量。
示例17:根据示例13至16中的任一项所述的系统,其中,所述第二输入包括在所述用户界面处接收到的触摸和拖拽输入,以及其中,在调整所述虚拟位置或者所述虚拟比例中的至少一个的过程中,所述处理器被配置成:在所述用户界面处检测触摸和拖拽输入,包括检测初始触摸点、释放点以及沿所述用户界面在检测到的初始触摸点与检测到的释放点之间的拖拽轨迹;响应于检测到的触摸和拖拽输入,虚拟地使用户移动虚拟距离以更接近所选择的虚拟特征;以及响应于检测到的触摸和拖拽输入,放大或缩小相对于所述虚拟特征的所述用户的虚拟比例。
示例18:根据示例17所述的系统,其中,在放大或缩小相对于所述虚拟环境的虚拟比例的过程中,所述处理器被配置成:检测所述拖拽轨迹的方向和长度;当检测到的拖拽轨迹的方向是第一方向时,基于检测到的拖拽轨迹的长度来放大相对于所述虚拟特征的虚拟比例;以及当检测到的拖拽轨迹的方向是第二方向时,基于检测到的拖拽轨迹的长度来缩小相对于所述虚拟特征的虚拟比例。
示例19:根据示例13至18中的任一项所述的系统,其中,所述用户界面包括触摸屏显示器,以及其中,所述处理器被配置成:检测第一输入,包括在所述触摸屏显示器的触敏表面的第一预设部分处施加的触摸输入,在所述触摸屏显示器的所述触敏表面的所述第一预设部分处显示选择图标,以及检测在所述触摸屏显示器的所述触敏表面的第二预设部分处施加的第二输入。
示例20:根据示例19所述的系统,在检测所述第二触摸输入的过程中,所述处理器被配置成:在所述触摸屏显示器的所述触敏表面的所述第二预设部分处显示的操纵设备处检测触摸输入,所述操纵设备包括放大图标和缩小图标,并且响应于在放大按钮处检测到触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例放大设定量,并且响应于在所述缩小图标处检测到触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例缩小设定量,或者在所述触摸屏显示器的所述触敏表面的第二预设部分处显示的操纵设备处检测触摸和拖拽输入,以检测触摸和拖拽输入的方向和长度,以响应于检测到在第一方向上的触摸和拖拽输入,使相对于所述虚拟特征的所述用户的虚拟比例放大与检测到的长度相对应的量,并且使相对于所述虚拟环境的所述用户的虚拟比例缩小与检测到的在第二方向上的触摸和拖拽输入的长度相对应的量。
虽然所描述的实施方式的某些特征已如本文所述予以说明,但本领域技术人员如今会想到许多修改、替代、更改和等价方案。因此,应当理解到,所附权利要求旨在覆盖落入这些实施方式范围内的所有这些修改和更改。应当理解到,它们仅作示例呈现而非予以限制,并且可以在形式和细节上做出各种更改。本文所述的装置和/或方法的任何部分可以除互斥组合之外的任何组合形式来组合。本文所述的实施方式能够包括所述的不同实施方式的功能、组件和/或特征的各种组合和/或子组合。
Claims (20)
1.一种方法,包括:
生成虚拟环境;
在电子设备处检测第一输入,所述第一输入指示对所述虚拟环境中的虚拟特征的选择;
在所述电子设备处检测第二输入,所述第二输入指示相对于所选择的虚拟特征的用户的虚拟位置的变化和相对于所述虚拟特征的所述用户的虚拟比例的变化;以及
响应于所述第二输入,沿着由在与所述用户相关联的第一基准点和所选择的虚拟特征之间延伸的虚拟线限定的第一虚拟轨迹将所述用户相对于所选择的虚拟特征从第一虚拟位置远距传送到第二虚拟位置,以及调整相对于所述虚拟特征的所述用户的所述虚拟比例,所述调整包括由在与所述用户相关联的第二基准点和所选择的虚拟特征之间延伸的第二虚拟线限定的第二虚拟轨迹的修改,所述第二输入包括所检测的由所述电子设备发射的光束。
2.根据权利要求1所述的方法,其中,所述虚拟特征被包括在照片球体中,所述照片球体被配置为显示所述虚拟环境的360度全景图像。
3.根据权利要求2所述的方法,其中,所述第二输入进一步包括在所述电子设备的用户界面处接收到的触摸输入,以及其中,调整所述虚拟比例包括:
在所述用户界面的第一部分处检测所述触摸输入;以及
响应于在所述用户界面的所述第一部分处检测到的触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例放大设定量。
4.根据权利要求3所述的方法,其中,在所述用户界面的第一部分处检测触摸输入包括在所述用户界面的所述第一部分处检测多个触摸输入,以及响应于在所述用户界面的所述第一部分处检测到的每个触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例放大所述设定量。
5.根据权利要求3所述的方法,其中,调整所述虚拟比例包括:响应于所检测到的触摸输入,使相对于所述虚拟特征的所述用户的虚拟比例缩小设定量。
6.根据权利要求3所述的方法,其中,所述第二输入包括在所述用户界面处接收到的触摸和拖拽输入,以及其中,调整所述虚拟位置或者所述虚拟比例中的至少一个包括:
在所述用户界面处检测所述触摸和拖拽输入,包括检测初始触摸点,检测释放点,以及检测在所检测的初始触摸点和所检测的释放点之间的沿着所述用户界面的拖拽轨迹;
响应于所检测到的触摸和拖拽输入,虚拟地使所述用户远距传送一虚拟距离以更接近所选择的虚拟特征;以及
响应于所检测到的触摸和拖拽输入,虚拟地放大或缩小相对于所述虚拟特征的所述用户的虚拟比例。
7.根据权利要求6所述的方法,其中,在虚拟地使所述用户移动一虚拟距离以更接近所选择的虚拟特征包括基于所检测的沿着所述用户界面的所述拖拽轨迹的长度来确定所述虚拟距离,并且其中,虚拟地放大或缩小相对于所述虚拟特征的所述用户的虚拟比例包括:检测所述拖拽轨迹的方向;当所检测到的所述拖拽轨迹的方向是第一方向时,基于所检测到的所述拖拽轨迹的长度来虚拟地放大相对于所述虚拟特征的所述用户的比例;以及当所检测到的所述拖拽轨迹的方向是第二方向时,基于所检测到的所述拖拽轨迹的长度来虚拟地缩小相对于所述虚拟特征的所述用户的比例。
8.根据权利要求1所述的方法,进一步包括:
检测第三输入,所述第三输入识别所述虚拟环境中的设定虚拟基准点;以及
响应于所述第三输入,调整相对于所述虚拟环境的所述用户的虚拟比例,包括沿所述虚拟环境中至少一个用户设定点与所述基准点之间延伸的假想线调整所述用户的所述虚拟比例。
9.根据权利要求8所述的方法,其中,响应于所述第三输入调整相对于所述虚拟环境的所述用户的虚拟比例包括沿所述假想线调整所述用户的所述虚拟比例,使得当所述用户相对于所述虚拟环境虚拟地按大小缩放时,第一用户设定点遵循所述假想线,而第二用户设定点相对于所述虚拟环境保持虚拟地接地。
10.根据权利要求1所述的方法,进一步包括:
生成所述用户从所述第一虚拟位置到所述第二虚拟位置的远距传送的虚拟动画以在所述虚拟环境中显示,所述虚拟动画描述虚拟用户在所述虚拟环境内行进并且到达所述第二虚拟位置,所述第二虚拟位置具有指示缩小动量的逐渐停止。
11.一种系统,包括:
计算设备,所述计算设备被配置成生成沉浸式虚拟环境,所述计算设备包括:
存储器,所述存储器存储可执行指令;以及
处理器,所述处理器被配置成执行所述指令以促使所述计算设备:
生成增强现实环境;
在电子设备处检测第一输入,所述第一输入指示对所述增强现实环境中的虚拟特征的选择;
在所述电子设备处检测第二输入,所述第二输入指示相对于所选择的虚拟特征的用户的虚拟位置的变化和相对于所述虚拟特征的所述用户的虚拟比例的变化;以及
响应于所述第二输入,沿着由在与所述用户相关联的第一基准点和所选择的虚拟特征之间延伸的虚拟线限定的第一虚拟轨迹将所述用户相对于所选择的虚拟特征从第一虚拟位置远距传送到第二虚拟位置,以及调整相对于所述虚拟特征的所述用户的所述虚拟比例,所述调整包括由在与所述用户相关联的第二基准点和所选择的虚拟特征之间延伸的第二虚拟线限定的第二虚拟轨迹的修改,所述第二输入包括所检测的由所述电子设备发射并且从所述电子设备指向所述虚拟特征的光束。
12.根据权利要求11所述的系统,其中,所述第二输入进一步包括在所述电子设备的用户界面处接收到的触摸输入,以及其中,调整所述虚拟比例包括:
在所述用户界面的操纵设备处检测触摸输入;
响应于在所述用户界面的所述操纵设备处检测到的触摸输入,虚拟地使所述用户移动设定虚拟距离以更接近所选择的虚拟特征;以及
响应于在所述用户界面的所述操纵设备处检测到的触摸输入,使相对于所述增强现实环境的所述用户的虚拟比例放大或缩小设定量。
13.根据权利要求12所述的系统,其中,所述操纵设备包括放大设备和缩小设备,以及其中,所述处理器被配置成响应于所述放大设备的操纵而使相对于所述增强现实环境的所述用户的所述虚拟比例放大所述设定量,并且响应于所述缩小设备的操纵而使相对于所述增强现实环境的所述用户的所述虚拟比例缩小所述设定量。
14.根据权利要求12所述的系统,其中,所述第二输入包括在所述用户界面处接收到的触摸和拖拽输入,以及其中,在调整所述虚拟位置或者所述虚拟比例中的至少一个的过程中,所述处理器被配置成:
在所述用户界面处检测所述触摸和拖拽输入,包括检测初始触摸点、释放点以及沿所述用户界面在检测到的初始触摸点与检测到的释放点之间的拖拽轨迹;
响应于检测到的触摸和拖拽输入,虚拟地使所述用户远距传送虚拟距离以更接近所选择的虚拟特征;以及
响应于检测到的触摸和拖拽输入,放大或缩小相对于所述虚拟特征的所述用户的虚拟比例。
15.根据权利要求14所述的系统,其中,在放大或缩小相对于所述增强现实环境的所述虚拟比例的过程中,所述处理器被配置成:
检测所述拖拽轨迹的方向和长度;
当检测到的所述拖拽轨迹的方向是第一方向时,基于检测到的所述拖拽轨迹的长度来放大相对于所述虚拟特征的所述虚拟比例;以及
当检测到的所述拖拽轨迹的方向是第二方向时,基于检测到的所述拖拽轨迹的长度来缩小相对于所述虚拟特征的所述虚拟比例。
16.根据权利要求11所述的系统,其中,所述处理器进一步被配置成执行所述指令以促使所述计算设备:
生成所述用户从所述第一虚拟位置到所述第二虚拟位置的远距传送的虚拟动画以在所述增强现实环境中显示,所述虚拟动画描述虚拟用户在所述增强现实环境内行进并且到达所述第二虚拟位置,所述第二虚拟位置具有指示缩小动量的逐渐停止。
17.一种方法,包括:
利用处理器检测第一输入,所述第一输入指示对增强现实环境中的虚拟特征的选择;
利用所述处理器检测第二输入,所述第二输入指示相对于所选择的虚拟特征的用户的虚拟位置的变化和相对于所述虚拟特征的所述用户的虚拟比例的变化;以及
响应于所述第二输入,沿着由在与所述用户相关联的第一基准点和所选择的虚拟特征之间延伸的虚拟线限定的第一虚拟轨迹将所述用户相对于所选择的虚拟特征从第一虚拟位置远距传送到第二虚拟位置,以及调整相对于所述虚拟特征的所述用户的所述虚拟比例,所述调整包括由在与所述用户相关联的第二基准点和所选择的虚拟特征之间延伸的第二虚拟线限定的第二虚拟轨迹的修改,所述第二输入包括所检测的由电子设备发射并且从所述电子设备指向所述虚拟特征的光束。
18.根据权利要求17所述的方法,其中,当将所述用户的一虚拟部分保持在虚拟地表面上并且根据所调整的虚拟比例来调整所述用户的其它虚拟部分的同时,发生远距传送所述用户和调整相对于所述虚拟特征的虚拟比例的改变。
19.根据权利要求17所述的方法,其中,所述电子设备包括至少一个用户界面,所述至少一个用户界面包括触摸屏显示,并且其中,所述处理器被配置为:检测所述第一输入,所述第一输入包括施加在所述触摸屏显示的触摸敏感表面的第一预置部分处的触摸输入,在所述触摸屏显示的所述触摸敏感表面的所述第一预置部分处显示选择图标。
20.根据权利要求19所述的方法,其中,所述用户界面包括触摸屏显示,并且其中,所述处理器被配置为:检测在与所述用户界面相关联的操纵设备处的多个触摸输入,并且随后使所述用户移动设定虚拟距离以更接近所选择的虚拟特征以及随后响应于在所述用户界面的一部分处检测的每个触摸输入而使相对于所述虚拟特征的所述用户的虚拟比例放大或缩小设定量。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662292600P | 2016-02-08 | 2016-02-08 | |
US62/292,600 | 2016-02-08 | ||
US15/352,481 | 2016-11-15 | ||
US15/352,481 US10559117B2 (en) | 2016-02-08 | 2016-11-15 | Interactions and scaling in virtual reality |
PCT/US2016/066970 WO2017139022A1 (en) | 2016-02-08 | 2016-12-15 | Laser pointer interactions and scaling in virtual reality |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108292146A CN108292146A (zh) | 2018-07-17 |
CN108292146B true CN108292146B (zh) | 2021-03-30 |
Family
ID=59497843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680066642.9A Active CN108292146B (zh) | 2016-02-08 | 2016-12-15 | 虚拟现实中的激光指示器交互和缩放 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10559117B2 (zh) |
EP (1) | EP3414643B1 (zh) |
CN (1) | CN108292146B (zh) |
WO (1) | WO2017139022A1 (zh) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017047173A1 (ja) * | 2015-09-14 | 2017-03-23 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US11262894B2 (en) * | 2016-08-24 | 2022-03-01 | Sony Corporation | Information processing device and information processing method |
DE202017006742U1 (de) * | 2016-11-15 | 2019-02-19 | Google Llc | Eingabegerät-Stabilisierungstechniken für virtuelle Realitätssysteme |
US10867445B1 (en) * | 2016-11-16 | 2020-12-15 | Amazon Technologies, Inc. | Content segmentation and navigation |
US10553036B1 (en) | 2017-01-10 | 2020-02-04 | Lucasfilm Entertainment Company Ltd. | Manipulating objects within an immersive environment |
KR102391965B1 (ko) * | 2017-02-23 | 2022-04-28 | 삼성전자주식회사 | 가상현실 서비스를 위한 화면 제어 방법 및 장치 |
US10878616B2 (en) * | 2017-04-06 | 2020-12-29 | Htc Corporation | System and method for assigning coordinates in virtual reality environment |
US10180735B1 (en) * | 2017-06-29 | 2019-01-15 | Trimble Inc. | Navigation methods for three dimensional (3D) models in mixed reality (MR) environments |
US10191566B1 (en) * | 2017-07-05 | 2019-01-29 | Sony Interactive Entertainment Inc. | Interactive input controls in a simulated three-dimensional (3D) environment |
US10341537B2 (en) * | 2017-09-29 | 2019-07-02 | Sony Interactive Entertainment America Llc | Spectator view into an interactive gaming world showcased in a live event held in a real-world venue |
US10777006B2 (en) * | 2017-10-23 | 2020-09-15 | Sony Interactive Entertainment Inc. | VR body tracking without external sensors |
US10500496B2 (en) | 2018-01-12 | 2019-12-10 | International Business Machines Corporation | Physical obstacle avoidance in a virtual reality environment |
US20190221035A1 (en) * | 2018-01-12 | 2019-07-18 | International Business Machines Corporation | Physical obstacle avoidance in a virtual reality environment |
US11189054B2 (en) * | 2018-09-28 | 2021-11-30 | Apple Inc. | Localization and mapping using images from multiple devices |
CN111083463A (zh) * | 2018-10-18 | 2020-04-28 | 广东虚拟现实科技有限公司 | 虚拟内容的显示方法、装置、终端设备及显示系统 |
CN109445103B (zh) * | 2018-12-10 | 2022-03-01 | 北京虚拟动点科技有限公司 | 显示画面的更新方法及装置、储存介质、电子装置 |
US10976804B1 (en) * | 2019-07-09 | 2021-04-13 | Facebook Technologies, Llc | Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments |
US11023035B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual pinboard interaction using a peripheral device in artificial reality environments |
US11023036B1 (en) | 2019-07-09 | 2021-06-01 | Facebook Technologies, Llc | Virtual drawing surface interaction using a peripheral device in artificial reality environments |
JP2023500053A (ja) * | 2019-11-05 | 2023-01-04 | ビケリアス サージカル インク. | 外科手術仮想現実ユーザインターフェース |
US11335068B2 (en) * | 2020-07-27 | 2022-05-17 | Facebook Technologies, Llc. | Systems and methods for user interaction with artificial reality environments |
EP4278366A1 (en) | 2021-01-12 | 2023-11-22 | Emed Labs, LLC | Health testing and diagnostics platform |
US11615888B2 (en) | 2021-03-23 | 2023-03-28 | Emed Labs, Llc | Remote diagnostic testing and treatment |
US11929168B2 (en) | 2021-05-24 | 2024-03-12 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
US11369454B1 (en) | 2021-05-24 | 2022-06-28 | Emed Labs, Llc | Systems, devices, and methods for diagnostic aid kit apparatus |
US11610682B2 (en) | 2021-06-22 | 2023-03-21 | Emed Labs, Llc | Systems, methods, and devices for non-human readable diagnostic tests |
CN113721911B (zh) * | 2021-08-25 | 2023-09-26 | 网易(杭州)网络有限公司 | 虚拟场景的显示比例的控制方法、介质和设备 |
US12014829B2 (en) | 2021-09-01 | 2024-06-18 | Emed Labs, Llc | Image processing and presentation techniques for enhanced proctoring sessions |
US12093462B2 (en) | 2022-04-11 | 2024-09-17 | Meta Platforms Technologies, Llc | Virtual keyboard selections using multiple input modalities |
US20240087224A1 (en) * | 2022-09-12 | 2024-03-14 | Htc Corporation | Remote-control system, remote-controller, and remote-control method |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7480937B2 (en) * | 2002-02-26 | 2009-01-20 | Ricoh Company, Ltd. | Agent device, image-forming-device management system, image-forming-device management method, image-forming-device management program, and storage medium |
US20100097322A1 (en) * | 2008-10-16 | 2010-04-22 | Motorola, Inc. | Apparatus and method for switching touch screen operation |
KR101290145B1 (ko) * | 2011-05-31 | 2013-07-26 | 삼성전자주식회사 | 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치 |
US8912979B1 (en) | 2011-07-14 | 2014-12-16 | Google Inc. | Virtual window in head-mounted display |
US20140063061A1 (en) | 2011-08-26 | 2014-03-06 | Reincloud Corporation | Determining a position of an item in a virtual augmented space |
US20130321461A1 (en) | 2012-05-29 | 2013-12-05 | Google Inc. | Method and System for Navigation to Interior View Imagery from Street Level Imagery |
KR101925361B1 (ko) * | 2012-06-04 | 2018-12-05 | 삼성전자주식회사 | 사용자 단말 장치, 메시지 교환 시스템, 메시지 표시 방법 및 메시지 교환 방법 |
JP2014127987A (ja) * | 2012-12-27 | 2014-07-07 | Sony Corp | 情報処理装置および記録媒体 |
US20140325429A1 (en) * | 2013-04-25 | 2014-10-30 | Hung-Sen Chang | Method for controlling the display of a document shown on a touch device |
CN105210144B (zh) * | 2013-05-21 | 2017-12-08 | 索尼公司 | 显示控制装置、显示控制方法和记录介质 |
US10373392B2 (en) * | 2015-08-26 | 2019-08-06 | Microsoft Technology Licensing, Llc | Transitioning views of a virtual model |
-
2016
- 2016-11-15 US US15/352,481 patent/US10559117B2/en active Active
- 2016-12-15 WO PCT/US2016/066970 patent/WO2017139022A1/en unknown
- 2016-12-15 EP EP16822864.1A patent/EP3414643B1/en active Active
- 2016-12-15 CN CN201680066642.9A patent/CN108292146B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3414643A1 (en) | 2018-12-19 |
US10559117B2 (en) | 2020-02-11 |
US20170228922A1 (en) | 2017-08-10 |
EP3414643B1 (en) | 2023-11-15 |
WO2017139022A1 (en) | 2017-08-17 |
CN108292146A (zh) | 2018-07-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108292146B (zh) | 虚拟现实中的激光指示器交互和缩放 | |
US10558274B2 (en) | Teleportation in an augmented and/or virtual reality environment | |
CN109906424B (zh) | 用于虚拟现实系统的输入控制器稳定技术 | |
CN108139805B (zh) | 用于在虚拟现实环境中的导航的控制系统 | |
US10545584B2 (en) | Virtual/augmented reality input device | |
CN109891367B (zh) | 在增强和/或虚拟现实环境中使用手势生成虚拟符号表面 | |
KR102003493B1 (ko) | 가상 현실에서 헤드, 제스쳐 및 터치 입력의 동적 전환 및 병합 | |
US10509487B2 (en) | Combining gyromouse input and touch input for navigation in an augmented and/or virtual reality environment | |
CN108073276B (zh) | 增强和/或虚拟现实环境的拖拽虚拟元件 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |