CN107977083B - 基于vr系统的操作执行方法及装置 - Google Patents
基于vr系统的操作执行方法及装置 Download PDFInfo
- Publication number
- CN107977083B CN107977083B CN201711384062.7A CN201711384062A CN107977083B CN 107977083 B CN107977083 B CN 107977083B CN 201711384062 A CN201711384062 A CN 201711384062A CN 107977083 B CN107977083 B CN 107977083B
- Authority
- CN
- China
- Prior art keywords
- target
- interactive
- interaction
- interface
- cursor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 230000002452 interceptive effect Effects 0.000 claims abstract description 229
- 230000003993 interaction Effects 0.000 claims abstract description 180
- 230000008859 change Effects 0.000 claims description 24
- 230000000694 effects Effects 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开是关于一种基于VR系统的操作执行方法及装置,该方法包括:显示VR交互界面;根据从控制器获取的运动传感器数据,在VR交互界面中标记控制器对应的光标;当接收到控制器发送的选中指令时,将光标当前所在的目标交互对象确定为选中状态;根据光标的移动轨迹调整目标交互对象在VR交互界面中的显示位置;当接收到控制器发送的结束选中指令时,执行与目标交互对象相关的操作。在本公开实施例中,由于光标的移动轨迹是由用户对控制器的操纵得到的,用户与交互对象进行交互时充分利用了控制器自由灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
Description
技术领域
本公开涉及虚拟现实(Virtual Reality,VR)技术领域,特别涉及一种基于VR系统的操作执行方法及装置。
背景技术
VR技术能够给用户带来沉浸式的交互体验。用户佩戴VR眼镜,能够查看到VR交互界面,并通过VR手柄对VR交互界面中包含的交互对象执行各类操作。
VR交互界面中显示有VR手柄对应的光标,用户移动VR手柄能够相应地改变光标在VR交互界面中的位置。当用户需要打开VR交互界面中的某一目标交互对象(如某一VR海报)时,移动操作手柄的光标至目标交互对象的位置处,之后点击操作手柄上的指定按键,便触发打开上述目标交互对象,例如触发从当前的VR交互界面切换显示为目标交互对象的相关显示界面。
发明内容
本公开实施例提供了一种基于VR系统的操作执行方法及装置。所述技术方案如下:
根据本公开实施例的第一方面,提供了一种基于VR系统的操作执行方法,所述方法包括:
显示VR交互界面,所述VR交互界面中包括至少一个交互对象;
根据从控制器获取的运动传感器数据,在所述VR交互界面中标记所述控制器对应的光标;
当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态;
根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;
当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作。
可选地,所述根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置,包括:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
可选地,所述方法还包括:
当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
可选地,所述改变所述目标交互对象的显示状态,包括:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
可选地,所述改变所述目标交互对象的显示状态,包括:
控制所述目标交互对象展现预设动画效果。
可选地,所述方法还包括:
将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
可选地,所述执行与所述目标交互对象相关的操作,包括:
显示与所述目标交互对象对应的下一级VR交互界面;
或者,
在所述VR交互界面中取消显示所述目标交互对象;
或者,
将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
根据本公开实施例的第二方面,提供了一种基于VR系统的操作执行装置,所述装置包括:
界面显示模块,被配置为显示VR交互界面,所述VR交互界面中包括至少一个交互对象;
光标标记模块,被配置为根据从控制器获取的运动传感器数据,在所述VR交互界面中标记所述控制器对应的光标;
对象选中模块,被配置为当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态;
位置调整模块,被配置为根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;
操作执行模块,被配置为当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作。
可选地,所述位置调整模块,被配置为:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
可选地,所述装置还包括:
状态改变模块,被配置为当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
可选地,所述状态改变模块,被配置为:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
可选地,所述状态改变模块,被配置为控制所述目标交互对象展现预设动画效果。
可选地,所述界面显示模块,还被配置为将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
可选地,所述操作执行模块,被配置为:
显示与所述目标交互对象对应的下一级VR交互界面;
或者,
在所述VR交互界面中取消显示所述目标交互对象;
或者,
将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
根据本公开实施例的第三方面,提供了一种基于VR系统的操作执行装置,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为:
显示VR交互界面,所述VR交互界面中包括至少一个交互对象;
根据从控制器获取的运动传感器数据,在所述VR交互界面中标记所述控制器对应的光标;
当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态;
根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;
当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作。
根据本公开实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有程序,所述程序用于执行如第一方面所述的方法。
本公开实施例提供的技术方案可以包括以下有益效果:
通过在选中VR交互界面中的某一目标交互对象之后,根据光标在VR交互界面中的移动轨迹调整目标交互对象的显示位置,并在结束选中时对目标交互对象执行相关的操作,由于光标在VR交互界面的移动轨迹是由用户对控制器的操纵得到的,用户与VR交互界面中的交互对象进行交互时充分利用了控制器在空间内可自由、灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的VR系统的示意图;
图2是根据一示例性实施例示出的一种基于VR系统的操作执行方法的流程图;
图3A是根据另一示例性实施例示出的一种基于VR系统的操作执行方法的流程图;
图3B是图3A所示实施例涉及的界面示意图;
图4是根据一示例性实施例示出的一种基于VR系统的操作执行装置的框图;
图5是根据一示例性实施例示出的VR设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的VR系统10的框图。该VR系统10可以包括:HMD(Head Mount Display,头戴式显示器)11、主机系统12、追踪系统13和控制器14。
HMD 11即头显设备,俗称VR眼镜,其是一种硬件设备,将用户对外界的视觉、听觉封闭,引导用户产生一种身在虚拟环境中的感觉。HMD 11的显示原理是左右眼屏幕分别显示左右眼的图像,人眼获取这种带有差异的信息后在脑海中产生立体感。
HMD 11通常由以下组成部分:显示屏、镜片、摄像头、处理器、传感器、通信组件、存储器和电池。HMD 11拥有一块或两块显示屏,其主要使用4KUHD或更高分辨率屏幕,对于分离式的HMD,其显示屏采用OLED技术,而一体式则多采用微投影技术。镜片可以采用非球面镜片,其拥有较短的焦距,拥有更高的放大率和更广的视野。摄像头用于拍照、位置追踪和环境映射等功能。处理器包括一个或多个处理单元,如CPU和GPU。传感器可以内置到HMD 11中,也可以作为外设,传感器主要用于对用户眼部和头部等动作进行追踪,以提供更好的VR体验,传感器包括FOV深度传感器、摄像头、陀螺仪、加速度计、磁力计、接近感应器等。HMD11通过通信组件与控制器14建立通信连接,随着VR技术的发展趋势,HMD 11和控制器14之间采用无线连接,如蓝牙连接或者Wi-Fi(Wireless Fidelity,无线保真)连接。存储器主要用于存储和缓存VR图像和视频,鉴于VR使用较高分辨率的内容,设备对内存的要求也较高。电池用于为HMD 11提供工作电源。
主机系统12是指为HMD 11提供各种功能保证的设备,比如智能手机、PC(PersonalComputer,个人计算机)等。主机系统12决定了HMD 11的智能化和自动化程度。
追踪系统13一般作为HMD 11的外设,当然也可以被整合到HMD 11中。追踪系统13包括各类传感器,如FOV深度传感器、摄像头、陀螺仪、加速度计、磁力计、接近感应器等。追踪系统13通过捕捉用户运动来构建一种沉浸式的体验,比如用户带着HMD 11抬头,那么屏幕画面便会转换为天空。
控制器14一般作为手持设备出现,通过它可以让用户追踪自己的动作和手势。控制器14通常也称为VR手柄。
本公开实施例提供的方法,各步骤的执行主体可以是上文介绍的HMD 11,也可以是控制系统12,或者由HMD 11和控制系统12交互配合执行,例如由控制系统12对追踪系统13提供的传感器数据进行处理,并生成相应的VR画面,并由HMD 11将上述VR画面进行展示。在下述方法实施例中,为了便于说明,仅以各步骤的执行主体为VR设备进行介绍说明,但并不用于限定本公开。
在相关技术中,用户通过VR手柄与VR交互界面中的交互对象进行交互的方式,与通过鼠标与电脑显示界面中的交互对象(例如图标、链接等)进行交互的方式基本相同,均是通过简单点击进行交互,这种交互方式并没有充分发挥VR技术的优势和特点,也不够新颖。
基于此,本公开实施例提供了一种基于VR系统的操作执行方法,以及基于该方法的装置。本公开实施例中,在选中VR交互界面中的某一目标交互对象之后,根据光标在VR交互界面中的移动轨迹调整目标交互对象的显示位置,并在结束选中时对目标交互对象执行相关的操作,由于光标在VR交互界面的移动轨迹是由用户对控制器的操纵得到的,用户与VR交互界面中的交互对象进行交互时充分利用了控制器在空间内可自由、灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
图2是根据一示例性实施例示出的基于VR系统的操作执行方法的流程图。该方法可以包括如下步骤:
在步骤201中,显示VR交互界面。
VR交互界面中包括至少一个交互对象。
在步骤202中,根据从控制器获取的运动传感器数据,在VR交互界面中标记控制器对应的光标。
在步骤203中,当接收到控制器发送的选中指令时,将光标当前所在的目标交互对象确定为选中状态。
在步骤204中,根据光标的移动轨迹调整目标交互对象在VR交互界面中的显示位置。
在步骤205中,当接收到控制器发送的结束选中指令时,执行与目标交互对象相关的操作。
可选地,根据光标的移动轨迹调整目标交互对象在VR交互界面中的显示位置,包括:
获取光标在VR交互界面中的显示坐标;
控制目标交互对象在VR交互界面中的显示位置,随着显示坐标的平移量进行同步平移。
可选地,上述方法还包括:
当接收到控制器发送的结束选中指令时,改变目标交互对象的显示状态。
可选地,改变目标交互对象的显示状态,包括:
调整目标交互对象的显示参数,显示参数包括模糊度和/或亮度;
根据调整后的显示参数显示目标交互对象。
可选地,改变目标交互对象的显示状态,包括:
控制目标交互对象展现预设动画效果。
可选地,上述方法还包括:
将目标交互对象显示在VR交互界面的最上层,且VR交互界面中除目标交互对象以外的其它交互对象显示在目标交互对象的下层。
可选地,执行与目标交互对象相关的操作,包括:
显示与目标交互对象对应的下一级VR交互界面;
或者,
在VR交互界面中取消显示目标交互对象;
或者,
将目标交互对象放大,并在VR交互界面中显示放大后的目标交互对象。
综上所述,本公开实施例提供的方法,在选中VR交互界面中的某一目标交互对象之后,根据光标在VR交互界面中的移动轨迹调整目标交互对象的显示位置,并在结束选中时对目标交互对象执行相关的操作,由于光标在VR交互界面的移动轨迹是由用户对控制器的操纵得到的,用户与VR交互界面中的交互对象进行交互时充分利用了控制器在空间内可自由、灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
图3A是根据另一示例性实施例示出的基于VR系统的操作执行方法的流程图。该方法可以包括如下步骤:
在步骤301中,显示VR交互界面。
VR交互界面是VR系统与用户之间进行交互和信息交换的媒介,是HMD向用户展示的VR画面。VR交互界面中包括至少一个交互对象。交互对象是指VR交互界面中显示的可操作对象,用户能够对上述交互对象进行拖动、选中、删除等操作。示例性地,交互对象可以是VR海报、图标等,本公开实施例对此不作限定。
在步骤302中,根据从控制器获取的运动传感器数据,在VR交互界面中标记控制器对应的光标。
控制器用于实现用户与VR交互界面中的交互对象之间的交互。可选地,控制器是VR手柄。运动传感器数据由控制器中的运动传感器采集得到,其可以用于指示控制器的移动轨迹、移动方向等。控制器中的运动传感器包括但不限于陀螺仪、加速度计、磁力计、接近感应器等,本公开实施例对此不作限定。
光标通常显示于VR交互界面的上层,其可用于标记控制器的位置。示例性地,光标可以是圆点、箭头、手指等形状。当控制器发生移动时,光标在VR交互界面中的位置也相应改变。
可选地,控制器每隔预设时间向VR设备发送运动传感器数据。上述预设时间可以根据VR设备对显示时延的要求实际设定。例如,VR设备的显示时延要求较小时,预设时间可以设置得较短;VR设备的显示时延要求较大时,预设时间可以设置得较长。
可选地,VR设备根据控制器在用户所处的空间内的相对位置,确定光标在VR交互界面中的显示位置,并在上述显示位置处标记出光标。后续控制器在用户所处的空间内的相对位置发生改变时,光标在VR交互界面中的显示位置相应发生改变。
在步骤303中,当接收到控制器发送的选中指令时,将光标当前所在的目标交互对象确定为选中状态。
选中指令是由用户触发,用于在VR交互界面中选中目标交互对象。可选地,控制器包括预设按键,当用户按压上述预设按键时,控制器向VR设备发送选中指令。
目标交互对象是指显示位置与光标在VR交互界面中的显示位置重叠的交互对象,光标通常显示于目标交互对象的上层。若用户期望将某个交互对象确定为目标交互对象,可以移动控制器,以使控制器对应的光标被移动至上述期望的交互对象的上层。
可选地,VR设备将处于选中状态的目标交互对象与处于非选中状态的其它交互对象进行区别显示。例如,将目标交互对象等比例放大、在目标交互对象的上层显示半透明框等等,本公开实施例对此不作限定。另外,在目标交互对象处于选中状态的过程中,用户可以始终按压上述预设按键,也可以在触发控制器发送选中指令之后立刻释放上述预设按键。
在步骤304中,根据光标的移动轨迹调整目标交互对象在VR交互界面中的显示位置。
光标的移动轨迹用于表征光标在VR交互界面中的显示位置发生改变的完整过程。光标的移动轨迹也可以根据控制器发送的运动传感器数据实际确定。
可选地,在移动过程中,VR设备将目标交互对象显示在VR交互界面的最上层,且VR交互界面中除目标交互对象以外的其它交互对象显示在目标交互对象的下层。通过上述方式,可以避免根据光标的移动轨迹来调整目标交互对象的位置时被目标交互界面中的其它交互对象遮挡或重叠的情况发生。
可选地,步骤304可以包括如下两个子步骤:
步骤304a,获取光标在VR交互界面中的显示坐标;
步骤304b,控制目标交互对象在VR交互界面中的显示位置,随着显示坐标的平移量进行同步平移。
光标在VR交互界面中的显示坐标用于指示光标在VR交互界面中的显示位置。光标在VR交互界面中的显示位置的变化量,可以采用光标在VR交互界面中的显示坐标的变化值来衡量。
另外,在目标交互对象处于选中状态时,目标交互对象在VR交互界面中的显示位置,会随着光标在VR交互界面中的显示位置的变化而发生变化。并且,目标交互对象的显示位置的变化量与光标的显示位置的变化量相同。示例性地,光标在VR交互界面中向上平移了50个单位,则目标交互对象在VR交互界面中也向上平移50个单位。
在步骤305中,当接收到控制器发送的结束选中指令时,改变目标交互对象的显示状态。
结束选中指令由用户触发,用于在VR交互界面中结束选中目标交互对象。可选地,若目标交互对象处于选中状态的过程中,用户始终按压上述预设按键,此时若用户释放上述预设按键,控制器向VR设备发送结束选中指令。可选地,若用户在触发控制器发送选中指令之后立刻释放上述预设按键,则用户可以再次按压上述预设按键并释放,触发控制器发送结束选中指令。
在一个示例中,步骤305可以包括如下子步骤:
步骤305a,调整目标交互对象的显示参数;
步骤305b,根据调整后的显示参数显示目标交互对象。
显示参数包括模糊度和/或亮度。例如,VR设备将目标交互对象的模糊度逐渐增大和/或亮度逐渐减小。目标交互对象的显示参数的调整程度可以由VR设备默认设定,也可以由用户自定义设定,本公开实施例对此不作限定。
在另一个示例中,步骤305可以包括如下子步骤:
步骤305c,控制目标交互对象展现预设动画效果。
预设动画效果可以是渐隐、淡出、旋转退出等动画效果,本公开实施例对此不作限定。
在步骤306中,执行与目标交互对象相关的操作。
在目标交互对象的显示状态发生改变之后,VR设备执行与目标交互对象相关的操作。例如,当目标交互对象逐渐从VR交互界面中消失不见时,VR设备执行与目标交互对象相关的操作。
在一个示例中,VR设备显示与目标交互对象对应的下一级VR交互界面,以实现打开该目标交互对象。
在另一个示例中,VR设备在VR交互界面中取消显示目标交互对象,以实现删除该目标交互对象。
在又一个示例中,VR设备将目标交互对象放大,并在VR交互界面中显示放大后的目标交互对象。示例性地,当用户取消选中目标交互对象时,VR设备对目标交互对象进行等比例放大,并在VR交互界面中仅显示上述放大后的目标交互对象。
结合参考图3B,VR交互界面30中显示有多个交互对象31,用户选中目标交互对象32之后,目标交互对象32随着光标33的移动轨迹在VR交互界面30中移动,用户结束选中目标交互对象32之后,将目标交互对象32放大,并在VR交互界面30中显示放大后的目标交互对象34。
综上所述,本公开实施例提供的方法,在选中VR交互界面中的某一目标交互对象之后,根据光标在VR交互界面中的移动轨迹调整目标交互对象的显示位置,并在结束选中时对目标交互对象执行相关的操作,由于光标在VR交互界面的移动轨迹是由用户对控制器的操纵得到的,用户与VR交互界面中的交互对象进行交互时充分利用了控制器在空间内可自由、灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
另外,通过在接收到控制器发送的结束选中指令时,改变目标交互对象的显示状态,而后再执行与目标交互对象相关的操作,使得用户能够直观地感知到其选中的目标交互对象,且画面之间的切换存在一定过渡,提升展示效果。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图4是根据一示例性实施例示出的一种基于VR系统的操作执行装置的框图。该装置具有实现上述方法示例的功能,所述功能可以由硬件实现,也可以由硬件执行相应的软件实现。该装置可以包括:界面显示模块401、光标标记模块402、对象选中模块403、位置调整模块404和操作执行模块405。
界面显示模块401,被配置为显示VR交互界面,所述VR交互界面中包括至少一个交互对象。
光标标记模块402,被配置为根据从控制器获取的运动传感器数据,在所述VR交互界面中标记所述控制器对应的光标。
对象选中模块403,被配置为当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态。
位置调整模块404,被配置为根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置。
操作执行模块405,被配置为当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作。
综上所述,本公开实施例提供的装置,在选中VR交互界面中的某一目标交互对象之后,根据光标在VR交互界面中的移动轨迹调整目标交互对象的显示位置,并在结束选中时对目标交互对象执行相关的操作,由于光标在VR交互界面的移动轨迹是由用户对控制器的操纵得到的,用户与VR交互界面中的交互对象进行交互时充分利用了控制器在空间内可自由、灵活移动的特性,使得用户对虚拟环境中的交互对象的可操作程度得到提升,实现了一种更具交互感和自由性,且更加新颖的交互方式。
在基于图4所示实施例提供的一个可选实施例中,所述位置调整模块404,被配置为:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
在基于图4所示实施例提供的另一个可选实施例中,所述装置还包括:状态改变模块(图中未示出)。
状态改变模块,被配置为当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
可选地,所述状态改变模块,被配置为:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
可选地,所述状态改变模块,被配置为控制所述目标交互对象展现预设动画效果。
在基于图4所示实施例提供的另一个可选实施例中,所述界面显示模块401,还被配置为将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
在基于图4所示实施例提供的另一个可选实施例中,所述操作执行模块405,被配置为:
显示与所述目标交互对象对应的下一级VR交互界面;
或者,
在所述VR交互界面中取消显示所述目标交互对象;
或者,
将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
需要说明的一点是,上述实施例提供的装置在实现其功能时,仅以上述各个功能模块的划分进行举例说明,实际应用中,可以根据实际需要而将上述功能分配由不同的功能模块完成,即将设备的内容结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开一示例性实施例还提供了一种显示基于VR系统的操作执行装置,能够实现本公开实施例提供的方法。该装置包括:处理器,以及用于存储处理器的可执行指令的存储器。其中,所述处理器被配置为:
显示VR交互界面,所述VR交互界面中包括至少一个交互对象;
根据从控制器获取的运动传感器数据,在所述VR交互界面中标记所述控制器对应的光标;
当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态;
根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;
当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作。
可选地,所述处理器被配置为:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
可选地,所述处理器还被配置为:
当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
可选地,所述改变所述目标交互对象的显示状态,包括:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
可选地,所述处理器被配置为控制所述目标交互对象展现预设动画效果。
可选地,所述处理器还被配置为将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
可选地,所述处理器被配置为:
显示与所述目标交互对象对应的下一级VR交互界面;
或者,
在所述VR交互界面中取消显示所述目标交互对象;
或者,
将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
图5是根据一示例性实施例示出的一种VR设备500的框图。例如,VR设备500可以是图1实施例介绍的HMD,也可以是控制系统。其中,控制系统可以是移动电话、计算机、游戏控制台、平板设备等。
参照图5,VR设备500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件508,音频组件510,输入/输出(I/O)接口512,传感器组件514,以及通信组件516。
处理组件502通常控制VR设备500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理组件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在VR设备500的操作。这些数据的示例包括用于在VR设备500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为VR设备500的各种组件提供电力。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为VR设备500生成、管理和分配电力相关联的组件。
多媒体组件508包括在所述VR设备500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当VR设备500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当VR设备500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为VR设备500提供各个方面的状态评估。例如,传感器组件514可以检测到VR设备500的打开/关闭状态,组件的相对定位,例如所述组件为VR设备500的显示器和小键盘,传感器组件514还可以检测VR设备500或VR设备500一个组件的位置改变,用户与VR设备500接触的存在或不存在,VR设备500方位或加速/减速和VR设备500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于VR设备500和其他设备之间有线或无线方式的通信。VR设备500可以接入基于通信标准的无线网络,如Wi-Fi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,VR设备500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述基于VR系统的操作执行方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由VR设备500的处理器520执行以完成上述基于VR系统的操作执行方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由VR设备500的处理器执行时,使得VR设备500能够执行一种上述基于VR系统的操作执行方法。
当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (14)
1.一种基于虚拟现实VR系统的操作执行方法,其特征在于,所述方法包括:
显示VR交互界面,所述VR交互界面中包括至少一个交互对象,所述交互对象是指所述VR交互界面中显示的可操作对象;根据从控制器获取的运动传感器数据,以及所述控制器在用户所处的空间内的相对位置,确定所述控制器对应的光标在所述VR交互界面中的显示位置,并在确定出的显示位置处标记所述光标,所述光标在所述VR交互界面中的显示位置随所述控制器在用户所处的空间内的相对位置的改变而改变,所述控制器用于实现用户与所述VR交互界面中的交互对象之间的交互;
当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态,将处于选中状态的所述目标交互对象与处于非选中状态的其它交互对象区别显示,所述目标交互对象是指显示位置与所述光标在所述VR交互界面中的显示位置重叠的交互对象;且在目标交互对象处于选中状态时,所述目标交互对象在所述VR交互界面中的显示位置随光标在所述VR交互界面中的显示位置的变化而发生变化,所述目标交互对象的显示位置的变化量与所述光标的显示位置的变化量相同;
根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作;
所述执行与所述目标交互对象相关的操作,包括:
显示与所述目标交互对象对应的下一级VR交互界面;或者,在所述VR交互界面中取消显示所述目标交互对象;或者,将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
2.根据权利要求1所述的方法,其特征在于,所述根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置,包括:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
4.根据权利要求3所述的方法,其特征在于,所述改变所述目标交互对象的显示状态,包括:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
5.根据权利要求3所述的方法,其特征在于,所述改变所述目标交互对象的显示状态,包括:
控制所述目标交互对象展现预设动画效果。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述方法还包括:
将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
7.一种基于虚拟现实VR系统的操作执行装置,其特征在于,所述装置包括:
界面显示模块,被配置为显示VR交互界面,所述VR交互界面中包括至少一个交互对象,所述交互对象是指所述VR交互界面中显示的可操作对象;
光标标记模块,被配置为根据从控制器获取的运动传感器数据,以及所述控制器在用户所处的空间内的相对位置,确定所述控制器对应的光标在所述VR交互界面中的显示位置,并在确定出的显示位置处标记所述光标,所述光标在所述VR交互界面中的显示位置随所述控制器在用户所处的空间内的相对位置的改变而改变,所述控制器用于实现用户与所述VR交互界面中的交互对象之间的交互;
对象选中模块,被配置为当接收到所述控制器发送的选中指令时,将所述光标当前所在的目标交互对象确定为选中状态,所述目标交互对象是指显示位置与所述光标在所述VR交互界面中的显示位置重叠的交互对象;且在目标交互对象处于选中状态时,所述目标交互对象在所述VR交互界面中的显示位置随光标在所述VR交互界面中的显示位置的变化而发生变化,所述目标交互对象的显示位置的变化量与所述光标的显示位置的变化量相同;
所述装置还包括用于将处于选中状态的所述目标交互对象与处于非选中状态的其它交互对象区别显示的模块;
位置调整模块,被配置为根据所述光标的移动轨迹调整所述目标交互对象在所述VR交互界面中的显示位置;
操作执行模块,被配置为当接收到所述控制器发送的结束选中指令时,执行与所述目标交互对象相关的操作;
所述操作执行模块,被配置为:
显示与所述目标交互对象对应的下一级VR交互界面;或者,在所述VR交互界面中取消显示所述目标交互对象;或者,将所述目标交互对象放大,并在所述VR交互界面中显示放大后的所述目标交互对象。
8.根据权利要求7所述的装置,其特征在于,所述位置调整模块,被配置为:
获取所述光标在所述VR交互界面中的显示坐标;
控制所述目标交互对象在所述VR交互界面中的显示位置,随着所述显示坐标的平移量进行同步平移。
9.根据权利要求7所述的装置,其特征在于,所述装置还包括:
状态改变模块,被配置为当接收到所述控制器发送的结束选中指令时,改变所述目标交互对象的显示状态。
10.根据权利要求9所述的装置,其特征在于,所述状态改变模块,被配置为:
调整所述目标交互对象的显示参数,所述显示参数包括模糊度和/或亮度;
根据调整后的所述显示参数显示所述目标交互对象。
11.根据权利要求9所述的装置,其特征在于,所述状态改变模块,被配置为:
控制所述目标交互对象展现预设动画效果。
12.根据权利要求7至11任一项所述的装置,其特征在于,所述界面显示模块,还被配置为将所述目标交互对象显示在所述VR交互界面的最上层,且所述VR交互界面中除所述目标交互对象以外的其它交互对象显示在所述目标交互对象的下层。
13.一种基于虚拟现实VR系统的操作执行装置,其特征在于,所述装置包括:
处理器;
用于存储所述处理器的可执行指令的存储器;
其中,所述处理器被配置为执行如权利要求1至6任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序,所述程序用于执行如权利要求1至6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711384062.7A CN107977083B (zh) | 2017-12-20 | 2017-12-20 | 基于vr系统的操作执行方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711384062.7A CN107977083B (zh) | 2017-12-20 | 2017-12-20 | 基于vr系统的操作执行方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107977083A CN107977083A (zh) | 2018-05-01 |
CN107977083B true CN107977083B (zh) | 2021-07-23 |
Family
ID=62006912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711384062.7A Active CN107977083B (zh) | 2017-12-20 | 2017-12-20 | 基于vr系统的操作执行方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977083B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108762864A (zh) * | 2018-05-03 | 2018-11-06 | 东方视界科技(北京)有限公司 | 一种虚拟现实应用操控方法、装置及电子设备 |
CN109035915A (zh) * | 2018-08-21 | 2018-12-18 | 合肥创旗信息科技有限公司 | 一种vr全息教学管理系统 |
CN109557674B (zh) | 2019-01-29 | 2023-11-03 | 北京京东方光电科技有限公司 | 亮度调节方法及装置 |
US11126341B2 (en) | 2019-02-21 | 2021-09-21 | Htc Corporation | Object manipulating method, host device and computer readable storage medium |
CN110075519B (zh) * | 2019-05-06 | 2022-09-30 | 网易(杭州)网络有限公司 | 虚拟现实中的信息处理方法及装置、存储介质及电子设备 |
WO2021052488A1 (zh) * | 2019-09-19 | 2021-03-25 | 华为技术有限公司 | 一种信息处理方法及电子设备 |
CN112987924A (zh) * | 2021-03-03 | 2021-06-18 | 闪耀现实(无锡)科技有限公司 | 用于设备交互的方法、装置、设备和存储介质 |
CN114397961A (zh) * | 2021-12-28 | 2022-04-26 | 杭州灵伴科技有限公司 | 头戴式显示设备控制方法、头戴式显示设备组件和介质 |
CN117784915A (zh) * | 2022-09-20 | 2024-03-29 | 北京字跳网络技术有限公司 | 虚拟环境中的观影画面调整方法、装置、存储介质及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104094196A (zh) * | 2012-01-09 | 2014-10-08 | 索夫特克尼特科软件公司 | 用于增强的基于姿势的交互的系统和方法 |
CN104765459A (zh) * | 2015-04-23 | 2015-07-08 | 无锡天脉聚源传媒科技有限公司 | 虚拟操作的实现方法及装置 |
CN104995583A (zh) * | 2012-12-13 | 2015-10-21 | 微软技术许可有限责任公司 | 用于混合现实环境的直接交互系统 |
CN105955461A (zh) * | 2016-04-25 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种交互界面管理方法和系统 |
CN106200927A (zh) * | 2016-06-30 | 2016-12-07 | 乐视控股(北京)有限公司 | 一种信息处理方法及头戴式设备 |
CN106843498A (zh) * | 2017-02-24 | 2017-06-13 | 网易(杭州)网络有限公司 | 基于虚拟现实的动态界面交互方法及装置 |
CN107024981A (zh) * | 2016-10-26 | 2017-08-08 | 阿里巴巴集团控股有限公司 | 基于虚拟现实的交互方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426057B (zh) * | 2015-10-29 | 2019-10-15 | 网易(杭州)网络有限公司 | 一种列表对象选择的方法及系统 |
-
2017
- 2017-12-20 CN CN201711384062.7A patent/CN107977083B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104094196A (zh) * | 2012-01-09 | 2014-10-08 | 索夫特克尼特科软件公司 | 用于增强的基于姿势的交互的系统和方法 |
CN104995583A (zh) * | 2012-12-13 | 2015-10-21 | 微软技术许可有限责任公司 | 用于混合现实环境的直接交互系统 |
CN104765459A (zh) * | 2015-04-23 | 2015-07-08 | 无锡天脉聚源传媒科技有限公司 | 虚拟操作的实现方法及装置 |
CN105955461A (zh) * | 2016-04-25 | 2016-09-21 | 乐视控股(北京)有限公司 | 一种交互界面管理方法和系统 |
CN106200927A (zh) * | 2016-06-30 | 2016-12-07 | 乐视控股(北京)有限公司 | 一种信息处理方法及头戴式设备 |
CN107024981A (zh) * | 2016-10-26 | 2017-08-08 | 阿里巴巴集团控股有限公司 | 基于虚拟现实的交互方法及装置 |
CN106843498A (zh) * | 2017-02-24 | 2017-06-13 | 网易(杭州)网络有限公司 | 基于虚拟现实的动态界面交互方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107977083A (zh) | 2018-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107977083B (zh) | 基于vr系统的操作执行方法及装置 | |
US11315336B2 (en) | Method and device for editing virtual scene, and non-transitory computer-readable storage medium | |
EP4246287A1 (en) | Method and system for displaying virtual prop in real environment image, and storage medium | |
US10025393B2 (en) | Button operation processing method in single-hand mode | |
CN108038726B (zh) | 物品展示方法及装置 | |
CN109496293B (zh) | 扩展内容显示方法、装置、系统及存储介质 | |
EP3299946B1 (en) | Method and device for switching environment picture | |
JP2018530016A (ja) | Vr制御方法、装置及び電子機器、プログラム、及び記録媒体 | |
CN108122195B (zh) | 图片处理方法及装置 | |
CN110782532B (zh) | 图像生成方法、生成装置、电子设备及存储介质 | |
EP3828682A1 (en) | Method, apparatus for adding shortcut plug-in, and intelligent device | |
EP3239827A1 (en) | Method and apparatus for adjusting playing progress of media file | |
EP3828832A1 (en) | Display control method, display control device and computer-readable storage medium | |
CN107515669A (zh) | 显示方法及装置 | |
WO2022073389A1 (zh) | 视频画面的展示方法及电子设备 | |
CN111552425A (zh) | 一种控制小窗显示的方法、装置及存储介质 | |
EP4160540A1 (en) | Method and apparatus for producing special effect, electronic device and storage medium | |
CN107797662B (zh) | 视场角控制方法、装置及电子设备 | |
CN113206948A (zh) | 图像效果的预览方法、装置、电子设备及存储介质 | |
CN111538451A (zh) | 天气元素显示方法、装置及存储介质 | |
CN104902318A (zh) | 播放控制方法及终端设备 | |
CN111610899A (zh) | 界面展示方法、界面展示装置及存储介质 | |
CN117119260A (zh) | 视频的控制处理方法及装置 | |
CN115963929A (zh) | Vr显示方法、装置及存储介质 | |
CN111782053B (zh) | 模型编辑方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |