CN109508093A - 一种虚拟现实交互方法及装置 - Google Patents
一种虚拟现实交互方法及装置 Download PDFInfo
- Publication number
- CN109508093A CN109508093A CN201811347713.XA CN201811347713A CN109508093A CN 109508093 A CN109508093 A CN 109508093A CN 201811347713 A CN201811347713 A CN 201811347713A CN 109508093 A CN109508093 A CN 109508093A
- Authority
- CN
- China
- Prior art keywords
- control
- virtual reality
- instruction
- interactive device
- virtual object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了一种虚拟现实交互方法及装置,涉及裸眼3D领域。其中,虚拟现实交互方法包括:采集用户在所述触摸式滑动区域产生的动作信息,其中,所述动作信息表征所述用户对目标虚拟物体的控制信息,所述目标虚拟物体由所述虚拟现实交互设备展示;依据采集的所述动作信息,生成第一控制指令;向所述虚拟现实交互设备发送所述第一控制指令,以使所述虚拟现实交互设备依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。通过采用控制设备触摸式滑动区域代替了传统控制设备上繁多的按键,在触摸式滑动区域的操作代替了复杂的按键操作,使得与虚拟现实交互设备建立通讯的控制设备操作更加简便。
Description
技术领域
本发明设计裸眼3D领域,具体而言,设计一种虚拟现实交互方法及装置。
背景技术
随着科技的进步,裸眼3D技术越来越被人熟识,应用领域也越来越广泛,目前已被应用于辅助教学、广告机、移动设备等,能够给用户提供更加真实的视觉体验,但是目前裸眼3D的交互极其复杂,所需要的操作按键繁多,操作组合也十分复杂,降低了用户在使用产品的体验。
发明内容
本发明实施例的目的在于提供一种虚拟现实交互方法及装置,减少了控制设备的按键数量,简化虚拟现实交互操作。
第一方面,本发明实施例提供了一种虚拟现实交互方法,应用于与虚拟现实交互设备建立通信的控制设备,所述控制设备设置有触摸式滑动区域,所述方法包括:采集用户在所述触摸式滑动区域产生的动作信息,其中,所述动作信息表征所述用户对目标虚拟物体的控制信息,所述目标虚拟物体由所述虚拟现实交互设备展示;依据采集的所述动作信息,生成第一控制指令;向所述虚拟现实交互设备发送所述第一控制指令,以使所述虚拟现实交互设备依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。
第二方面,本发明实施例提供了一种虚拟现实交互方法,应用于与控制设备建立通信的虚拟现实交互设备,所述虚拟现实交互设备中预先建立有定位坐标系统,所述虚拟现实交互设备用于显示虚拟物体,所述方法包括:获得所述控制设备在所述预设建立的定位坐标系下的当前定位坐标;当所述控制设备位于预设坐标范围内且获取到控制设备发送的选择指令时,从展示的虚拟物体中确定与所述选择指令匹配的所述目标虚拟物体;接收所述控制设备发送的控制指令;依据所述控制设备发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
第三方面,本发明实施例提供了一种虚拟现实交互装置,应用于与虚拟现实交互设备建立通信的控制设备,所述控制设备设置有触摸式滑动区域,所述装置包括:滑动模块、第一生成模块及第一控制模块。其中,滑动模块,采集用户在所述触摸式滑动区域产生的动作信息,其中,所述动作信息表征所述用户对目标虚拟物体的控制信息,所述目标虚拟物体由所述虚拟现实交互设备展示;第一生成模块,依据采集的所述动作信息,生成第一控制指令;第一控制模块,向所述虚拟现实交互设备发送所述第一控制指令,以使所述虚拟现实交互设备依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。
第四方面,本发明实施例提供了一种虚拟现实交互装置,应用于与控制设备建立通信的虚拟现实交互设备,所述虚拟现实交互设备中预先建立有定位坐标系统,所述虚拟现实交互设备用于显示虚拟物体,所述装置包括:坐标获取模块、通讯模块及显示模块。其中,坐标获取模块,获得所述控制设备在所述预设建立的定位坐标系下的当前位置坐标;通讯模块,当所述控制设备位于预设坐标范围内时,接收所述控制设备发送的控制指令;显示模块,依据所述控制设备发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
与现有技术相比,本发明实施例提供的一种虚拟现实交互方法通过控制设备采集用户在触摸式滑动区域产生的动作信息,并生成第一控制指令。再将第一控制指令发送至虚拟现实交互设备,以使虚拟现实交互设备依据第一控制指令调整目标虚拟物体的第一状态,实现用户对目标虚拟物体的操控。简化控制命令的触发方式,便于用户更好的与虚拟现实之间的互动,提高用户的使用体验。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明实施例提供的一种应用场景图。
图2示出了本发明实施例提供的控制设备的框型示意图。
图3示出了本发明实施例提供的虚拟现实交互设备的框型示意图。
图4示出了本发明实施例提供的应用于控制设备的虚拟现实交互方法的步骤流程图。
图5示出了图4中S102的子步骤流程图。
图6示出了本发明实施例提供的应用于控制设备的虚拟现实交互方法的步骤流程图另一部分。
图7示出了图6中S202的子步骤流程图。
图8示出了本发明实施例提供的应用于虚拟现实设备的虚拟现实交互方法的步骤流程图。
图9示出了本发明实施例提供的应用于控制设备的虚拟现实交互装置的功能模块示意图。
图10示出了本发明实施例提供的应用于控制设备的虚拟现实交互装置的功能模块示意图另一部分。
图11示出了本发明实施例提供的应用于虚拟现实交互设备的虚拟现实交互装置的功能模块示意图。
图标:100-控制设备;200-虚拟现实交互设备;300-控制装置;400-虚拟现实交互装置;101-第一存储器;102-第一存储控制器;103-第一处理器;104-第一外设接口;105-按压控件;106-第一通信单元;107-定位单元;108-角度感应单元;109-触摸式滑动区域;201-第二存储器;202-第二存储控制器;203-第二处理器;204-第二外设接口;205-显示单元;206-第二通信单元;207-采集单元;301-滑动模块;302-第一生成模块;303-第一控制模块;304-按压模块;305-第二生成模块;306-第二控制模块;401-坐标获取模块;402-通讯模块;403-显示模块。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1示出了本发明实施例提供的虚拟现实交互方法的应用场景。图1中所示的控制设备100和虚拟现实交互设备200通讯连接。
图2示出上述控制设备100的方框示意图。控制设备100优选为移动终端设备,例如可以包括遥控器、具有遥控功能的交互笔等等。如图2所示,所述控制设备100包括触摸式滑动区域109、第一存储器101、第一存储控制器102、第一处理器103、第一外设接口104、按压控件105、定位单元107、角度感应单元108、触摸式滑动区域109、第一通信单元106。
所述第一存储器101、第一存储控制器102、第一处理器103、第一外设接口104、第一通信单元106各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。控制装置300包括至少一个可以软件或固件(firmware)的形式存储于第一存储器101中或固化在控制设备100的操作系统(operating system,OS)中的软件功能模块。第一处理器103用于执行第一存储器101中存储的可执行模块,例如控制装置300包括的软件功能模块或计算机程序。
其中,第一存储器101可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,第一存储器101用于存储程序,第一处理器103在接收到执行指令后,执行程序,本发明任一实施例揭示的流程定义的交通卡口所执行的方法可以应用于第一处理器103中,或者由第一处理器103实现。
第一处理器103可以是一种集成电路芯片,具有信号处理能力。上述的第一处理器103可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP);还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该第一处理器103也可以是任何常规的处理器等。
第一外设接口104用于将各种输入/输出装置耦合至第一处理器103以及第一存储器101。在一些实施例中,第一外设接口104、第一处理器103以及第一存储控制器102可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
第一通信单元106用于将控制设备100生成的第一控制指令和第二控制指令发送至虚拟现实交互设备200,在本发明实施例中,第一通信单元106还可以发送控制设备100的坐标定位信息和控制设备100的角度变化信息。
按压控件105,用于采集用户的按压操作,例如,可以是触控按键,也可以是物理按键。
定位单元107,用于获取控制设备100的位置信息,例如,可以是红外定位仪。
角度感应单元108,用于获取控制设备100的角度变化信息,例如,可以是内置陀螺仪。
触摸式滑动区域109,用于采集用户在所述触摸式滑动区域109产生的动作信息,例如,可以是电容滑动板。
图3示出本发明较佳实施例提供的虚拟现实交互设备200的方框示意图。虚拟现实交互设备200优选为裸眼3D广告机,或是带裸眼3D的液晶显示屏或投影仪等等。所述虚拟现实交互设备200包括显示单元205、第二存储器201、第二存储控制器202、第二处理器203、第二外设接口204、采集单元207、第二通信单元206。
所述第二存储器201、第二存储控制器202、第二处理器203、第二外设接口204、第二通信单元206各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。虚拟现实交互装置400包括至少一个可以软件或固件(firmware)的形式存储于第二存储器201中或固化在虚拟现实交互设备200的操作系统(operating system,OS)中的软件功能模块。第二处理器203用于执行第二存储器201中存储的可执行模块,例如虚拟现实交互装置400包括的软件功能模块或计算机程序。
其中,第二存储器201可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,第二存储器201用于存储程序,第二处理器203在接收到执行指令后,执行程序,本发明任一实施例揭示的流程定义的交通卡口所执行的方法可以应用于第二处理器203中,或者由第二处理器203实现。
第二处理器203可以是一种集成电路芯片,具有信号处理能力。上述的第二处理器203可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP);还可以是数字信号处理器、专用集成电路、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该第二处理器203也可以是任何常规的处理器等。
第二外设接口204用于将各种输入/输出装置耦合至第二处理器203以及第二存储器201。在一些实施例中,第二外设接口204、第二处理器203以及第二存储控制器202可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
显示单元205,用于显示虚拟物体,以及展示的虚拟物体在第一状态或第二状态被调整的过程。
采集单元207,用于采集现实空间内的场景信息,并基于采集到的数据构建定位坐标系,从而便于识别进入该采集单元207视野的控制设备100的位置信息,并生成坐标定位信息。
第二通信单元206用于接收控制设备100发送的第一控制指令和第二控制指令,在本发明实施例中,第二通信单元206还可以接收控制设备100的发送的位置信息和控制设备100的角度变化信息。
第一实施例
请参阅图4,本发明较佳实施例提供的一种虚拟现实交互方法应用于与虚拟现实交互设备200建立通讯的控制设备100,虚拟现实交互方法包括以下步骤:
步骤S101,采集用户在所述触摸式滑动区域109产生的动作信息。
在本发明的实施例中,上述动作信息表征用户对目标虚拟物体的控制信息,目标虚拟物体由虚拟现实交互设备200展示。可选地,上述控制设备100上的触摸式滑动区域109可以采集用户在所述触摸式滑动区域109产生的动作信息。需要解释的是,在本发明实施例中,触摸式滑动区域109设置有第一端和第二端,动作信息可以包括但不限于包括从触摸式滑动区域109的第一端滑动至触摸式滑动区域109的第二端,或是从触摸式滑动区域109的第二端滑动至触摸式滑动区域109的第一端,例如,控制设备100为交互笔时,第一端是临近交互笔笔头的一端,第二端是临近交互笔笔尾的一端。
进一步地,动作信息表征用户对目标虚拟物体的控制信息,需要解释的是,在本发明实施例中,动作信息包括从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动,或是从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动两种动作信息,其对应的也是不同的两种控制指令。
上述目标虚拟物体可以是控制设备100在虚拟现实交互设备200展示的至少一个虚拟物体中确定的。选中目标虚拟物体的方式可以是,控制设备100进入虚拟现实交互设备200的采集单元207的视野内,并由虚拟现实交互设备200激活,虚拟现实交互设备200识别到被激活的控制设备100在其建立的定位坐标系中的位置与一正展示的虚拟物体映射到该定位坐标系中的区域重叠,且接收到控制设备100发送的选择指令时,将该虚拟物体被选中为目标虚拟物体,并进行标记。
步骤S102,依据采集的动作信息,生成控制指令。
在本发明实施例中,控制指令包括旋转指令和放缩指令,旋转指令用于指示目标虚拟物体的角度状态变化,放缩指令用于指示目标虚拟物体的尺寸状态变化。控制设备100采集到动作信息后,再根据是否获取第一命令,确定生成的控制指令是旋转指令还是放缩指令。需要解释的是,上述第一命令为控制设备100检测到按压控件105被用户按压产生的一按压命令,此处,可以是通过单击按压控件105产生。进一步地,请参阅图5,S102还包括如下子步骤:
子步骤S1021,当获取到按压控件105触发的第一命令时,依据所述动作信息及第一命令生成旋转指令,用于指示所述目标虚拟物体的角度状态变化。需要说明的是,子步骤S1021与子步骤S1022没有必然的先后顺序。
在本发明实施例中,当获取到控制设备100上按压控件105上触发第一命令时,控制设备100依据动作信息和第一命令配合生成第一旋转指令,其中,第一旋转指令的类别包括第一轴向转动指令、第二轴向转动指令及第三轴向转动指令,第一轴向转动指令用于指示目标虚拟物体沿第一轴转动;第二轴向转动指令用于指示目标虚拟物体沿第二轴转动;第三轴向转动指令用于指示目标虚拟物体沿第三轴转动。需要解释的是,第一轴、第二轴和第三轴可以两两相互垂直,第一轴和第二轴构成的平面与地面平行;第一轴、第二轴和第三轴也可以成任意角度。
进一步地,第一轴向转动指令、第二轴向转动指令和第三轴向转动指令可依据获取第一命令的次数相互切换。需要解释的是,当获取一次第一命令时,第一旋转指令为第一轴向旋转指令;当获取两次第一命令时,第一旋转指令为第二轴向旋转指令;当获取三次第一命令时,第一旋转指令为第三轴向指令;当获取四次第一命令时,第一旋转指令为第一轴向指令,如此依次切换。
进一步地,第一旋转指令用于指示目标虚拟物体的角度状态变化,当第一旋转指令为第一轴向转动指令时,需要解释的是,动作信息为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动,目标虚拟物体绕第一轴做顺时针旋转;动作信息为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动,目标虚拟物体绕第一轴做逆时针旋转;当控制指令为第二轴向转动指令时,需要解释的是,动作信息为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动,目标虚拟物体绕第二轴做顺时针旋转;动作信息为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动,目标虚拟物体绕第二轴做逆时针旋转;当控制指令为第三轴向转动指令时,需要解释的是,动作信息为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动,目标虚拟物体绕第三轴做顺时针旋转;动作信息为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动,目标虚拟物体绕第三轴做逆时针旋转。
子步骤S1022,当未获取到按压控件105触发的第一命令时,依据所述动作信息,生成放缩指令,用于指示所述目标虚拟物体的尺寸状态变化。
在本发明实施例中,未获取到控制设备100上按压控件105触发的第一命令时,控制设备100生成放缩指令。其中,放缩指令包括放大指令和缩小指令,用于指示目标虚拟物体的尺寸状态变化。需要解释的是,当动作指令为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动时,控制设备100生成放大指令,指示目标虚拟物体尺寸变大;当动作指令为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动时,控制设备100生成放大指令,指示目标虚拟物体尺寸变小。同时目标虚拟物体会依据动作指令的滑动程度实时指示目标虚拟物体的尺寸状态变化。例如,从触摸式滑动区域109的第一端滑动至触摸式滑动区域109的第一端与第二端的中间位置所指示目标虚拟物体的尺寸放大变化为从触摸式滑动区域109的第一端滑动中触摸式滑动区域109的第二端所指示目标虚拟物体的尺寸放大变化的一半。
需要解释的是,目标虚拟物体还可以是虚拟摄像机,在本发明实施例中,虚拟摄像机可用于截取虚拟现实交互设备200所显示的场景画面,当目标虚拟物体为虚拟摄像机时,若采集到的动作指令为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动时,则虚拟摄像机所能截取到的虚拟现实交互设备200所显示的场景画面更大;若采集到的动作指令为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动时,则虚拟摄像机所能截取到的虚拟现实交互设备200显示的场景画面更小。
步骤S103,向所述虚拟现实交互设备200发送所述第一控制指令,以使所述虚拟现实交互设备200依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。
在本发明实施例中,目标虚拟物体的第一状态包括目标虚拟物体的角度状态和尺寸状态。可以理解地,当控制设备100向虚拟现实交互设备200发送的第一控制指令为放缩指令时,则使虚拟现实交互设备200调整所现实目标虚拟物体的尺寸状态;当控制设备100向虚拟现实交互设备200发送的第一控制指令为旋转指令时,则使虚拟现实交互设备200调整所显示的目标虚拟物体的角度状态。
进一步地,本发明实施例提供的虚拟现实交互方法还包括如图6的步骤:
步骤S201,采集用户触发按压控件105的按压命令。
在本发明实施例中,上述按压命令表征用户对目标虚拟物体的控制信息,目标虚拟物体由虚拟现实交互设备200展示,需要解释的是,按压命令包括第一命令、第二命令和第三命令。
进一步地,第一命令用于切换第一轴向转动指令、第二轴向转动指令和第三轴向转动指令。第二命令用于将目标虚拟物体拆分成若干个虚拟组合物体,或是将若干个虚拟组合物体还原成目标虚拟物体,可以理解的,若干个虚拟组合物体可以组合成目标虚拟物体。第三命令用于配合控制设备100的位置状态变化指示目标虚拟物体的位置、角度变化。需要解释的是,在本发明实施例中,第一命令可以是单击按压控件105,第二命令可以是双击按压控件105,第三命令可以是常压按压控件105不放。
步骤S202,依据采集的按压命令,生成第二控制指令。
在本发明实施例中,第二控制指令包括移动指令、第二旋转指令拆分指令和还原指令;移动指令用于指示目标虚拟物体的位置变化;第二旋转指令用于指示目标虚拟物体的角度变化;拆分指令用于指示目标虚拟物体拆分为多个虚拟子部件;还原指令用于将多个虚拟子部件重新组合为目标虚拟物体。控制设备100采集到按压命令后,再根据按压命令及获取的控制设备100的位置移动或角度变化,确定生成移动指令、第二旋转指令、拆分指令和还原指令。如图7,S202还有如下子步骤。
子步骤S2021,当控制设备100采集到用户触发按压控件105的按压命令为第二命令,目标虚拟物体处于初始状态时,生成拆分指令,用于指示目标虚拟物体拆分为多个虚拟子部件。需要解释的是,目标虚拟物体可以是多个虚拟子部件组成,目标虚拟物体的初始状态为虚拟子部件组合在一起的状态。需要说明的是,子步骤S2021与子步骤S0222、S2023和S2024没有必然的先后顺序。
子步骤S2022,当控制设备100采集到用户触发按压控件105的按压命令为第二命令时,目标虚拟物体处于被拆分为若干个虚拟组合物体时,生成还原指令,用于指示目标还原为初始状态。需要说明的是,子步骤S2022与子步骤S0221、S2023和S2024没有必然的先后顺序。
子步骤S2023,当控制设备100采集到用户触发按压控件105的触发指令为第三命令,同时虚拟现实交互设备200采集到控制设备100的位置变化,则生成移动指令,用于指示目标虚拟物体的位置变化。需要解释的是,虚拟现实交互设备200能够获取控制设备100的位置坐标信息,从而采集控制设备100的位置变化,依据控制设备100的位置变化生成移动指令,指示目标虚拟物体相同的位置变化,虚拟现实交互设备200基于获得的位置坐标信息,将其映射于预先建立的定位坐标系中,并依次改变展示该目标虚拟物体的位置。需要说明的是,子步骤S2023与子步骤S0221、S2022和S2024没有必然的先后顺序。
子步骤S2024,当控制设备100采集到用户触发按压控件105的触发指令为第三命令,同时角度感应单元108采集到控制设备100的角度变化,则生成第二旋转指令,用于指示目标虚拟物体的角度变化。可以理解的是,控制设备100的角度变化可以是绕控制设备100的中轴线旋转,例如,控制设备100为交互笔时,交互笔的角度变化可以是绕笔头到笔尾方向为轴旋转,则指示目标虚拟物体也是做相同轴向旋转。需要说明的是,子步骤S2024与子步骤S0221、S2022和S2023没有必然的先后顺序。
虚拟现实交互方法还包括,在控制设备100处于未确定目标虚拟物体的模式时,响应于第三命令,唤醒隐藏菜单。需要解释的是,控制设备100的模式包括具有目标虚拟物体的模式和未确定目标虚拟物体的模式,当控制设备100未发送选择指令确定与选择指令匹配目标虚拟物体时,控制设备100处于未确定目标虚拟物体的模式。
进一步地,隐藏菜单包括隐藏菜单项,每个隐藏菜单项都有所对应的坐标范围,当采集到控制设备100的位置信息在隐藏菜单项对应的坐标范围内时,该隐藏菜单项被激活。在隐藏菜单项被激活的状态下,控制设备100采集到到用户触发按键控件的第一命令时,则指示该隐藏菜单项被触发从而产生对应的菜单事件。需要解释的是,菜单事件可以包括但不限于包括调整虚拟现实交互设备200显示的虚拟物体的颜色、形状,又或是调整虚拟现实交互设备200为其他状态。
进一步地,在控制设备100处于未确定目标虚拟物体的模式时,响应于第三命令,配合控制设备100的位置移动,以使虚拟现实交互设备200显示控制设备100位置移动的移动路径,需要解释的是,控制设备100可以周期性向虚拟现实设备发送位置信息,该移动路径为发送的位置信息对应的坐标定位点的连线。当控制设备100移动至显示的移动路径的一端所对应的位置坐标时,虚拟现实交互设备200则在移动路径的一端显示标识,可以理解的,该标识可以是立体的小方块。如果虚拟现实交互设备200接收到控制设备100继续移动,将会连接该移动路径;如果控制设备100采集到按压控件105触发的第三命令中断时,将中断显示控制设备100之后的移动路径。
进一步地,该移动路径可以依据控制设备100上触摸式滑动区域109采集到的动作信息指示其改变粗细和颜色状态,需要解释的是,当触摸式滑动区域109采集到的动作信息为从触摸式滑动区域109的第一端向触摸式滑动区域109的第二端滑动,以指示虚拟现实交互设备200改变移动路径的粗细状态,当触摸式滑动区域109采集到的动作信息为从触摸式滑动区域109的第二端向触摸式滑动区域109的第一端滑动,以指示虚拟现实交互现实设备改变移动路径的颜色状态。
步骤S203,向所述虚拟现实交互设备200发送所述第二控制指令,以使虚拟现实交互设备200依据第二控制指令调整所显示的目标虚拟物体的第二状态。
在本发明实施例中,第二状态包括:位置状态、角度状态和组合状态,当控制设备100向虚拟现实交互设备200发送移动指令时,使得虚拟现实交互设备200依据移动指令调整目标虚拟物体的位置状态;当控制设备100向虚拟现实交互设备200发送第二旋转指令时,使得虚拟现实交互设备200依据第二旋转指令调整目标虚拟物体的角度状态;当控制设备100向虚拟现实交互设备200发送拆分指令时,使得虚拟现实交互设备200依据拆分指令拆分目标虚拟物体的组合状态;当控制设备100向虚拟现实交互设备200发送组还原指令时,使得虚拟现实交互设备200依据还原指令还原目标虚拟物体的组合状态。
第二实施例
请参阅图8,本实施例提供一种虚拟现实交互方法,应用于控制设备100建立通讯的虚拟现实交互设备200,方法包括:
步骤S301,获得控制设备100在预设建立的定位坐标系下的位置信息。
在本发明实施例中,通过采集控制设备100在真实场景中的位置信息,将其映射至预设建立的定位坐标系下,以得到其位置信息。可选地,采集控制设备100在真实场景中的位置信息方式可以是,接收控制设备100以一定频率采集到的控制设备100在真实场景中的位置信息,当然也可以是,可以是虚拟现实交互设备200的采集单元207以一定频率采集控制设备100在真实场景中的图像,并将该图像中控制设备100的位置映射到预先建立的定位坐标系统,以获得其位置信息。
步骤S302,当所述控制设备100位于预设坐标范围内且获取到控制设备100发送的选择指令时,从展示的虚拟物体中确定与所述选择指令匹配的所述目标虚拟物体。
在本发明实施例中,需要解释的是,虚拟现实交互设备200用于显示虚拟物体和显示目标虚拟物体第一状态和第二状态的变化,虚拟物体可以有一个或者多个,当虚拟现实交互设备200检测到控制设备100进入到采集单元207的视野内,虚拟现实交互设备200将控制设备100激活,虚拟现实交互设备200识别到被激活的控制设备100在其建立的定位坐标系中的位置与一正展示的虚拟物体映射到该定位坐标系中的区域重叠,且接收到控制设备100发送的选择指令时,控制设备100控制设备100,则确定该虚拟物体为目标虚拟物体。
步骤S303,接收所述控制设备100发送的控制指令。
在本发明实施例中,控制指令包括第一控制指令和第二控制指令,第一控制指令包括第一旋转指令和放缩指令,用于指示目标虚拟物体调整第一状态;第二控制指令包括拆分指令、还原指令、移动指令和第二旋转指令,用于指示目标虚拟物体调整第二状态。
步骤S304,依据所述控制设备100发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
在本发明实施例中,当虚拟现实交互设备200接收到控制设备100发送的第一旋转指令时,调整目标虚拟物体的角度状态;当虚拟现实交互设备200接收到控制设备100发送的放缩指令时,调整目标虚拟物体的尺寸状态;当虚拟现实交互设备200接收到控制设备100发送的移动指令时,调整目标虚拟物体的位置状态;当虚拟现实交互设备200接收到控制设备100发送的拆分指令时,将目标虚拟物体拆分为多个虚拟子部件组合;当虚拟现实交互设备200接收到凹控制设备100发送的还原指令时,将多个虚拟子部件组合还原为目标虚拟物体。
第三实施例
请参阅图9,图9为本发明实施例提供的一种控制装置300的功能模块示意图,控制装置300应用于控制设备100。
本发明实施例提供的控制装置300包括:滑动模块301、第一生成模块302、第一控制模块303。
滑动模块301,用于采集用户在所述触摸式滑动区域109产生的动作信息。
在本发明实施例中,上述S101由滑动模块301执行。
第一生成模块302,用于向所述虚拟现实交互设备200发送所述第一控制指令,以使所述虚拟现实交互设备200依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。
在本发明实施例中,上述S102由第一生成模块302执行。
第一控制模块303,用于向所述虚拟现实交互设备200发送所述第二控制指令,以使所述虚拟现实交互设备200依据所述第二控制指令调整所显示的目标虚拟物体的第二状态。
在本发明实施例中,上述S103由第一控制模块303执行。
本发明实施例还有如图10所示的控制装置300的功能模块示意图另一部分。
本发明实施例提供的控制装置300还包括:按压模块304、第二生成模块305和第二控制模块306。
按压模块304,用于采集用户触发按压控件105的按压命令。
在本发明实施例中,上述S201由按压模块304执行。
第二生成模块305,用于依据采集的所述按压命令,生成第二控制指令。
在本发明实施例中,上述S202由第二生成模块305执行。
第二控制模块306,用于向所述虚拟现实交互设备200发送所述第二控制指令,以使所述虚拟现实交互设备200依据所述第二控制指令调整所显示的目标虚拟物体的第二状态。
在本发明实施例中,上述S203由第二控制模块306执行。
第四实施例
请参阅图11,图11为本发明实施例提供的一种虚拟现实交互装置400的功能模块示意图,虚拟现实交互装置400应用于虚拟现实交互设备200。
坐标获取模块401,用于获得所述控制设备100在所述预设建立的定位坐标系下的当前位置坐标。
在本发明实施例中,上述S301由坐标获取模块401执行。
通讯模块402,用于当所述控制设备100位于预设坐标范围内时,接收所述控制设备100发送的控制指令。
在本发明实施例中,上述S302由通讯模块402执行。
显示模块403,用于依据所述控制设备100发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
在本发明实施例中,上述S303由显示模块403执行。
综上所述,本发明提供了一种虚拟现实交互方法及装置。其中,所述虚拟现实交互方法包括采集用户在所述触摸式滑动区域产生的动作信息,其中,所述动作信息表征所述用户对目标虚拟物体的控制信息,所述目标虚拟物体由所述虚拟现实交互设备展示;依据采集的所述动作信息,生成第一控制指令;向所述虚拟现实交互设备发送所述第一控制指令,以使所述虚拟现实交互设备依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。从而使控制设备触摸式滑动区域代替了传统控制设备上繁多的按键,在触摸式滑动区域的操作代替了复杂的按键操作,使得与虚拟现实交互设备建立通讯的控制设备操作更加简便。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序端或代码的一部分,所述模块、程序端或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种虚拟现实交互方法,其特征在于,应用于与虚拟现实交互设备建立通信的控制设备,所述控制设备设置有触摸式滑动区域,所述方法包括:采集用户在所述触摸式滑动区域产生的动作信息,其中,所述动作信息表征所述用户对目标虚拟物体的控制信息,所述目标虚拟物体由所述虚拟现实交互设备展示;
依据采集的所述动作信息,生成第一控制指令;
向所述虚拟现实交互设备发送所述第一控制指令,以使所述虚拟现实交互设备依据所述第一控制指令调整所显示的目标虚拟物体的第一状态。
2.如权利要求1所述的虚拟现实交互方法,其特征在于,所述依据采集的所述动作信息,生成第一控制指令包括:
当获取到按压控件触发的第一命令时,依据所述动作信息及第一命令生成旋转指令,用于指示所述目标虚拟物体的角度状态变化;
当未获取到按压控件触发的第一命令时,依据所述动作信息,生成放缩指令,用于指示所述目标虚拟物体的尺寸状态变化。
3.如权利要求2所述的虚拟现实交互方法,其特征在于,所述旋转指令的类别包括第一轴向转动指令、第二轴向转动指令及第三轴向转动指令,所述第一轴向转动指令用于指示所述目标虚拟物体沿第一轴转动;所述第二轴向转动指令用于指示所述目标虚拟物体沿第二轴转动;所述第三轴向转动指令用于指示所述目标虚拟物体沿第三轴转动;所述依据所述动作信息及第一命令生成旋转指令的方式包括:
统计获得所述第一命令的次数;
依据所述次数,确定生成的旋转指令所属类别。
4.如权利要求1所述的虚拟现实交互方法,其特征在于,所述控制设备还设置有按压控件,所述方法包括:
采集用户对按压控件的按压操作,其中,所述按压操作表征所述用户对所述目标虚拟物体的控制信息;
依据采集的所述按压操作,生成第二控制指令;
向所述虚拟现实交互设备发送所述第二控制指令,以使所述虚拟现实交互设备依据所述控制指令调整所显示的目标虚拟物体的第二状态。
5.如权利要求4所述的虚拟现实交互方法,其特征在于,所述按压操作包括:触发第二命令的操作和触发第三命令的操作,所述第二命令用于指示所述目标虚拟物体拆分或重新组合;所述第三命令用于结合所述控制设备的状态变化以指示目标虚拟物体的位置、角度变化。
6.如权利要求5所述的虚拟现实交互方法,其特征在于,所述第二命令指示所述目标虚拟物体拆分或重新组合方式包括:
响应于获取的所述第二命令,检测所述目标虚拟物体是否处于组合状态;
若所述目标虚拟物体处于所述组合状态时,则生成拆分指令,以指示将所述目标虚拟物体拆分为多个虚拟子部件;
若所述目标虚拟物体未处于所述组合状态时,则生成还原指令,以指示将所述多个虚拟子部件组合。
7.如权利要求5所述的虚拟现实交互方法,其特征在于,所述第三命令结合所述控制设备的状态变化指示目标虚拟物体的位置、角度变化方式包括:
响应于获取的所述第三命令,获取所述控制设备位置变化信息以及控制设备的角度变化信息;
依据所述位置变化信息,生成移动指令,以便指示所述目标虚拟物体的位置状态变化;
依据所述角度变化信息,生成第二旋转指令,以便指示所述目标虚拟物体的角度状态变化。
8.如权利要求5所述的虚拟现实交互方法,其特征在于,在所述控制设备处于未确定所述目标虚拟物体的模式时,所述方法还包括:
响应于所述第三命令,唤醒隐藏菜单。
9.一种虚拟现实交互方法,其特征在于,应用于与控制设备建立通信的虚拟现实交互设备,所述虚拟现实交互设备中预先建立有定位坐标系统,所述虚拟现实交互设备用于显示虚拟物体,所述方法包括:
获得所述控制设备在所述预设建立的定位坐标系下的当前定位坐标;
当所述控制设备位于预设坐标范围内且获取到控制设备发送的选择指令时,从展示的虚拟物体中确定与所述选择指令匹配的所述目标虚拟物体;
接收所述控制设备发送的控制指令;
依据所述控制设备发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
10.一种虚拟现实交互装置,其特征在于,应用于与控制设备建立通信的虚拟现实交互设备,所述虚拟现实交互设备中预先建立有定位坐标系统,所述虚拟显示交互设备用于显示虚拟物体,所述装置包括:
坐标获取模块,获得所述控制设备在所述预设建立的定位坐标系下的当前定位坐标;
通讯模块,当所述控制设备位于预设坐标范围内时,接收所述控制设备发送的控制指令;
显示模块,依据所述控制设备发送的所述控制指令,调整所述虚拟物体的第一状态或第二状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811347713.XA CN109508093B (zh) | 2018-11-13 | 2018-11-13 | 一种虚拟现实交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811347713.XA CN109508093B (zh) | 2018-11-13 | 2018-11-13 | 一种虚拟现实交互方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109508093A true CN109508093A (zh) | 2019-03-22 |
CN109508093B CN109508093B (zh) | 2022-08-09 |
Family
ID=65748287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811347713.XA Active CN109508093B (zh) | 2018-11-13 | 2018-11-13 | 一种虚拟现实交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109508093B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297541A (zh) * | 2019-06-27 | 2019-10-01 | 上海六感科技有限公司 | 虚拟现实设备内容运营展示系统 |
CN110308841A (zh) * | 2019-06-14 | 2019-10-08 | 广州世峰数字科技有限公司 | 一种vr菜单展示方法及系统 |
CN110456907A (zh) * | 2019-07-24 | 2019-11-15 | 广东虚拟现实科技有限公司 | 虚拟画面的控制方法、装置、终端设备及存储介质 |
CN110825224A (zh) * | 2019-10-25 | 2020-02-21 | 北京威尔文教科技有限责任公司 | 一种交互方法、交互系统和显示装置 |
CN111131872A (zh) * | 2019-12-18 | 2020-05-08 | 深圳康佳电子科技有限公司 | 一种集成深度相机的智能电视及其控制方法与控制系统 |
CN111640183A (zh) * | 2020-06-04 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种ar数据展示控制方法及装置 |
CN111813214A (zh) * | 2019-04-11 | 2020-10-23 | 广东虚拟现实科技有限公司 | 虚拟内容的处理方法、装置、终端设备及存储介质 |
CN112015271A (zh) * | 2020-03-10 | 2020-12-01 | 简吉波 | 基于云平台的虚拟现实控制方法、装置及虚拟现实设备 |
CN114764327A (zh) * | 2022-05-09 | 2022-07-19 | 北京未来时空科技有限公司 | 一种三维可交互媒体的制作方法、装置及存储介质 |
WO2022236937A1 (zh) * | 2021-05-14 | 2022-11-17 | 歌尔股份有限公司 | 一种设备的操作方法、系统及设备 |
CN117473138A (zh) * | 2023-12-26 | 2024-01-30 | 江西工业贸易职业技术学院(江西省粮食干部学校、江西省粮食职工中等专业学校) | 一种基于虚拟现实的产品展示方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103460164A (zh) * | 2012-02-03 | 2013-12-18 | 松下电器产业株式会社 | 触觉提示装置以及触觉提示装置的驱动方法、驱动程序 |
CN103677620A (zh) * | 2012-08-31 | 2014-03-26 | 株式会社得那 | 用于促进经由触敏表面与虚拟空间的交互的系统和方法 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
US20150123895A1 (en) * | 2013-11-05 | 2015-05-07 | Seiko Epson Corporation | Image display system, method of controlling image display system, and head-mount type display device |
US20150293644A1 (en) * | 2014-04-10 | 2015-10-15 | Canon Kabushiki Kaisha | Information processing terminal, information processing method, and computer program |
CN105528079A (zh) * | 2015-12-18 | 2016-04-27 | 北京诺亦腾科技有限公司 | 对虚拟现实系统的物理道具的定位方法以及虚拟现实系统 |
CN105556429A (zh) * | 2013-09-26 | 2016-05-04 | Lg电子株式会社 | 生成触觉反馈的显示设备及其控制方法 |
CN105739879A (zh) * | 2016-01-29 | 2016-07-06 | 广东欧珀移动通信有限公司 | 一种虚拟现实的应用方法及终端 |
CN107765985A (zh) * | 2015-10-23 | 2018-03-06 | 广东欧珀移动通信有限公司 | 一种应用程序的控制方法及用户终端和介质产品 |
CN107783674A (zh) * | 2016-08-27 | 2018-03-09 | 杨博 | 一种增强现实交互方法和动作感应触摸笔 |
CN108027707A (zh) * | 2015-09-21 | 2018-05-11 | 三星电子株式会社 | 用户终端设备、电子设备以及控制用户终端设备和电子设备的方法 |
-
2018
- 2018-11-13 CN CN201811347713.XA patent/CN109508093B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103460164A (zh) * | 2012-02-03 | 2013-12-18 | 松下电器产业株式会社 | 触觉提示装置以及触觉提示装置的驱动方法、驱动程序 |
CN103677620A (zh) * | 2012-08-31 | 2014-03-26 | 株式会社得那 | 用于促进经由触敏表面与虚拟空间的交互的系统和方法 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
CN105556429A (zh) * | 2013-09-26 | 2016-05-04 | Lg电子株式会社 | 生成触觉反馈的显示设备及其控制方法 |
US20150123895A1 (en) * | 2013-11-05 | 2015-05-07 | Seiko Epson Corporation | Image display system, method of controlling image display system, and head-mount type display device |
US20150293644A1 (en) * | 2014-04-10 | 2015-10-15 | Canon Kabushiki Kaisha | Information processing terminal, information processing method, and computer program |
CN108027707A (zh) * | 2015-09-21 | 2018-05-11 | 三星电子株式会社 | 用户终端设备、电子设备以及控制用户终端设备和电子设备的方法 |
CN107765985A (zh) * | 2015-10-23 | 2018-03-06 | 广东欧珀移动通信有限公司 | 一种应用程序的控制方法及用户终端和介质产品 |
CN105528079A (zh) * | 2015-12-18 | 2016-04-27 | 北京诺亦腾科技有限公司 | 对虚拟现实系统的物理道具的定位方法以及虚拟现实系统 |
CN105739879A (zh) * | 2016-01-29 | 2016-07-06 | 广东欧珀移动通信有限公司 | 一种虚拟现实的应用方法及终端 |
CN107783674A (zh) * | 2016-08-27 | 2018-03-09 | 杨博 | 一种增强现实交互方法和动作感应触摸笔 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111813214A (zh) * | 2019-04-11 | 2020-10-23 | 广东虚拟现实科技有限公司 | 虚拟内容的处理方法、装置、终端设备及存储介质 |
CN111813214B (zh) * | 2019-04-11 | 2023-05-16 | 广东虚拟现实科技有限公司 | 虚拟内容的处理方法、装置、终端设备及存储介质 |
CN110308841A (zh) * | 2019-06-14 | 2019-10-08 | 广州世峰数字科技有限公司 | 一种vr菜单展示方法及系统 |
CN110297541A (zh) * | 2019-06-27 | 2019-10-01 | 上海六感科技有限公司 | 虚拟现实设备内容运营展示系统 |
CN110456907A (zh) * | 2019-07-24 | 2019-11-15 | 广东虚拟现实科技有限公司 | 虚拟画面的控制方法、装置、终端设备及存储介质 |
CN110825224A (zh) * | 2019-10-25 | 2020-02-21 | 北京威尔文教科技有限责任公司 | 一种交互方法、交互系统和显示装置 |
CN111131872A (zh) * | 2019-12-18 | 2020-05-08 | 深圳康佳电子科技有限公司 | 一种集成深度相机的智能电视及其控制方法与控制系统 |
CN112015271A (zh) * | 2020-03-10 | 2020-12-01 | 简吉波 | 基于云平台的虚拟现实控制方法、装置及虚拟现实设备 |
CN112015271B (zh) * | 2020-03-10 | 2022-03-25 | 中电科安全科技河北有限公司 | 基于云平台的虚拟现实控制方法、装置及虚拟现实设备 |
CN111640183A (zh) * | 2020-06-04 | 2020-09-08 | 上海商汤智能科技有限公司 | 一种ar数据展示控制方法及装置 |
WO2022236937A1 (zh) * | 2021-05-14 | 2022-11-17 | 歌尔股份有限公司 | 一种设备的操作方法、系统及设备 |
CN114764327A (zh) * | 2022-05-09 | 2022-07-19 | 北京未来时空科技有限公司 | 一种三维可交互媒体的制作方法、装置及存储介质 |
CN117473138A (zh) * | 2023-12-26 | 2024-01-30 | 江西工业贸易职业技术学院(江西省粮食干部学校、江西省粮食职工中等专业学校) | 一种基于虚拟现实的产品展示方法及系统 |
CN117473138B (zh) * | 2023-12-26 | 2024-03-29 | 江西工业贸易职业技术学院(江西省粮食干部学校、江西省粮食职工中等专业学校) | 一种基于虚拟现实的产品展示方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109508093B (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508093A (zh) | 一种虚拟现实交互方法及装置 | |
CN103902158B (zh) | 一种管理应用程序图标的方法及终端 | |
CN101256466B (zh) | 一种可体现电子文档翻页效果的电子装置及方法 | |
US20140172831A1 (en) | Information search method and device and computer readable recording medium thereof | |
CN105723323B (zh) | 用于在不同屏幕上显示应用数据的远程控制 | |
KR20170112797A (ko) | 디스플레이 장치, 시스템 및 그 제어 방법 | |
CN104866222A (zh) | 用于终端的控件显示方法及装置 | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
CN103488410B (zh) | 一种对显示内容进行控制的方法、装置和系统 | |
CN105824531A (zh) | 数值调整方法及装置 | |
WO2019102825A1 (ja) | レンダリング装置及びレンダリング方法 | |
CN103605461A (zh) | 一种应用界面显示方法及终端 | |
CN103809751A (zh) | 信息共享方法及信息共享装置 | |
CN108762604A (zh) | 一种显示方法、装置及电子设备 | |
CN103902056A (zh) | 虚拟键盘输入方法、设备及系统 | |
CN109671133A (zh) | 轨迹的生成方法、装置、电子设备及存储介质 | |
CN104598121A (zh) | 一种图片缩放方法和装置 | |
US10795510B2 (en) | Detecting input based on a capacitive pattern | |
CN106528080B (zh) | 一种移动终端的应用图标的放置方法和移动终端 | |
CN103914255B (zh) | 金融看盘的多模式自选股报价视图装置及方法 | |
CN105243469A (zh) | 一种多维空间映射到低维空间的方法及其展示方法和系统 | |
CN104915102B (zh) | 图形界面的交互方法及装置 | |
CN109683798A (zh) | 一种文本确定方法、终端及计算机可读存储介质 | |
CN105373427B (zh) | 一种显示应用和功能开关的方法及装置 | |
JP2019023870A (ja) | 情報処理装置、情報処理プログラム、情報処理方法および情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220718 Address after: 212300 plant 7, German Funded Industrial Park, south of Liyao Road, Danyang Development Zone, Zhenjiang City, Jiangsu Province Applicant after: Jiangsu shiruidi photoelectric Co.,Ltd. Applicant after: NINGBO THREDIM OPTOELECTRONICS Co.,Ltd. Address before: 315000 No.58, Jingu Middle Road (West), Yinzhou District, Ningbo City, Zhejiang Province Applicant before: NINGBO THREDIM OPTOELECTRONICS Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |