CN116244024A - 交互控制方法、装置、头戴显示设备及介质 - Google Patents
交互控制方法、装置、头戴显示设备及介质 Download PDFInfo
- Publication number
- CN116244024A CN116244024A CN202310120670.6A CN202310120670A CN116244024A CN 116244024 A CN116244024 A CN 116244024A CN 202310120670 A CN202310120670 A CN 202310120670A CN 116244024 A CN116244024 A CN 116244024A
- Authority
- CN
- China
- Prior art keywords
- target
- position information
- virtual
- virtual screen
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开实施例公开了一种交互控制方法、装置、头戴显示设备及介质,该方法包括:在第一设备的桌面环境创建多个虚拟屏及与多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将任意虚拟屏的纹理信息渲染显示到对应的画布;在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;根据虚拟标识与目标画布的交点的位置信息,确定交点在目标虚拟屏内的位置信息,作为目标位置信息;根据目标位置信息、触控事件的第一标识信息和目标虚拟屏的第二标识信息,将触控事件分发至目标虚拟屏进行响应。
Description
技术领域
本公开实施例涉及穿戴设备技术领域,更具体地,涉及一种交互控制方法、一种交互控制装置、一种头戴显示设备、及一种计算机可读存储介质。
背景技术
随着增强现实技术的发展,AR产品例如AR眼镜出现了越来越多的应用场景,如在AR眼镜中实现应用多开,具体的,其是将多个应用分别开启在AR眼镜的多个虚拟屏中,并将多个虚拟屏的纹理信息分别渲染显示在AR Launcher的对应画布中。
然而,AR眼镜目前缺少交互方式,基于手机的姿态信息控制AR眼镜是其中一个解决方案。然而,在实际使用时,通过手机控制AR眼镜的方案中,存在如何将手机发送的触控事件分发给对应虚拟屏进行响应的问题。
发明内容
本公开实施例的目的在于提供一种交互控制方法、装置、头戴显示设备及介质。
根据本公开实施例的第一方面,提供了一种交互控制方法,该方法包括:
在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布;
在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息;
根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息;
根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
可选地,所述根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,包括:
对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置;
根据所述交点在所述目标虚拟屏内的相对位置和所述目标虚拟屏的显示分辨率,得到所述交点在所述目标虚拟屏内的位置信息。
可选地,所述对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置,包括:
根据所述目标画布的位置信息,对所述虚拟标识与目标画布的交点的位置信息进行平移变换,得到进行平移变换后的位置信息;
根据所述目标画布的旋转矩阵的逆矩阵,对进行平移变换后的位置信息进行旋转变换,得到进行旋转变换后的位置信息;
根据所述目标画布的画布缩放信息,对进行旋转变换后的位置信息进行缩放变换,得到进行缩放变换后的位置信息;
将进行缩放变换后的位置信息转换到平面坐标系,得到所述交点在所述目标虚拟屏内的相对位置。
可选地,在所述第一标识信息表征所述触控事件为滑动事件的情况下,所述方法还包括:
获取所述第二设备发送的第一差值信息;其中,所述第一差值信息为所述滑动事件在所述第二设备的坐标点相对于按下事件在所述第二设备的坐标点之间的差值信息;
根据所述第一差值信息和所述虚拟标识与目标画布的交点的位置信息,得到所述触控事件的触控点的位置信息;
根据所述触控事件的触控点的位置信息,确定所述触控点在所述目标虚拟屏内的位置信息,作为所述目标位置信息。
可选地,所述方法还包括:
接收所述第二设备发送的旋转矩阵;其中,所述旋转矩阵用于表征所述第二设备的姿态变化信息;
对所述旋转矩阵进行转换,得到所述虚拟标识的方向;
根据所述虚拟标识的方向,确定所述虚拟标识与所述目标画布的交点。
可选地,所述方法还包括:
获取所述第二设备发送的当前旋转矩阵及所述当前旋转矩阵的前一旋转矩阵;
在所述当前旋转矩阵与所述前一旋转矩阵相同的情况下,获取所述第二设备在发送所述前一旋转矩阵之前发送的设定数量个历史旋转矩阵;
根据所述设定数量个历史旋转矩阵,预测出目标旋转矩阵;
在所述当前旋转矩阵和所述前一旋转矩阵之间插入所述目标旋转矩阵。
可选地,所述方法还包括:
接收所述第二设备发送的对所述虚拟标识进行校准的校准指令;其中,所述校准指令中携带所述第二设备的当前旋转矩阵;
响应于所述校准指令,获取所述当前旋转矩阵的逆矩阵;
根据所述当前旋转矩阵的逆矩阵和所述第二设备接续发送的下一旋转矩阵,对所述虚拟标识执行校准操作。
可选地,所述方法还包括:
接收所述第二设备发送的关闭所述虚拟标识的关闭指令;
响应于所述关闭指令,停止接收所述第二设备发送的旋转矩阵,并关闭所述虚拟标识。
根据本公开实施例的第二方面,提供了一种交互控制装置,该装置包括:
运行模块,用于在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布;
获取模块,用于在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息;
确定模块,用于根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息;
分发模块,用于根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
根据本公开实施例的第三方面,提供了一种头戴显示设备,所述头戴显示设备包括:
存储器,用于存储可执行的计算机指令;
处理器,用于根据所述可执行的计算机指令的控制,执行根据以上第一方面所述的交互控制方法。
根据本公开实施例的第四方面,提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器运行时执行以上第一方面所述的交互控制方法。
本公开实施例的一个有益效果在于,第一设备在实现应用多开的情况下,若接收到第二设备发送的触控事件的第一标识信息,会获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息,并根据虚拟标识与目标画布的交点的位置信息,确定出该交点在目标虚拟屏内的位置信息,进而根据该交点在目标虚拟屏内的位置信息、触控事件的第一标识信息和目标虚拟屏的第二标识信息,将该触控事件分发至目标虚拟屏进行响应。即,在第一设备利用虚拟屏实现应用多开的情况下,能够将第二设备发送的触控事件分发至对应虚拟屏进行响应。
通过以下参照附图对本说明书的示例性实施例的详细描述,本说明书的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本说明书的实施例,并且连同其说明一起用于解释本说明书的原理。
图1是根据本公开实施例的交互控制系统的硬件配置示意图;
图2是根据本公开实施例的交互控制方法的流程示意图;
图3是根据本公开实施例的第一设备的界面显示示意图;
图4是根据本公开实施例的第二设备的界面显示示意图;
图5是根据本公开实施例的交互控制装置的原理框图;
图6是根据本公开实施例的头戴显示设备的原理框图。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开实施例的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是可用于实现一个实施例的交互控制方法的交互控制系统的硬件配置示意图。图1示出了第一设备100、第二设备200和网络300。第一设备100可以连接到网络300,并且还可以通过诸如蓝牙等的通信方式与第二设备200连接。在一个实施例中,第一设备100仅通过诸如蓝牙等的通信方式分别与第二设备200连接。其中,在网络300中可以设置多个服务器301、302。网络300可以是无线通信网络,也可以是有线通信网络。网络300可以是局域网,也可以是广域网。网络300可以是近距离通信,也可以是远距离通信。
在一个实施例中,如图1所示,第一设备100可以包括处理器101和存储器102。第一设备100还包括通信装置103、显示装置104、用户接口105、摄像装置106、音频/视频接口107和传感器108等。此外,第一设备100还可以包括电源管理芯片109和电池110等。
其中,处理器101可以是各种处理器。存储器102可以存储第一设备100运行所需的底层软件、系统软件、应用软件、数据等。存储器102可以包括多种形式的存储器,例如,ROM、RAM、Flash等。通信装置103例如可以包括WiFi通信装置、蓝牙通信装置、3G、4G和5G通信装置等。通过通信装置103,第一设备100可以被布置中网络中。显示装置104可以是液晶显示屏、OLED显示屏等。在一个例子中,显示装置104可以是触摸屏。用户可以通过显示装置104进行输入操作。此外,用户还可以通过触摸屏进行指纹识别等。用户接口105可以包括USB接口、闪电接口、键盘等。摄像装置106可以是单摄像头,也可以是多摄像头。音频/视频接口107例如可以包括扬声器接口、麦克风接口、诸如HDMI的视频传输接口等。传感器108例如可以包括陀螺仪、加速度计、温度传感器、湿度传感器、压力传感器等等。例如,通过传感器可以确定第一设备的姿态信息等。电源管理芯片109可以用于管理输入第一设备100电源功率,还可以对电池110进行管理,以保证较大的利用效率。电池110例如是锂离子电池等。
该第一设备100可以是头戴显示设备。例如,AR(增强现实,Augmented Reality)眼镜及MR(混合现实,Mixed Reality)眼镜等,本公开实施例对此不作限定。图1所示的各个部件仅仅是示意性的。第一设备100可以包括图1所示的部件中的一个或多个,而不必包括图1中的全部部件。图1所示的第一设备100仅是解释性的,并且决不是为了要限制这里的实施例、其应用或用途。
本实施例中,第一设备100的存储器102用于存储程序指令,该程序指令用于控制处理器101进行操作以执行交互控制方法,技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
在一个实施例中,如图1所示,第二设备200可以包括处理器201和存储器202。第二设备200还包括通信装置203、显示装置204、用户接口205、摄像装置206、音频/视频接口207和传感器208等。此外,第二设备200还可以包括电源管理芯片209和电池210等。
该第二设备200可以是手机、便携式电脑、平板电脑、掌上电脑、可穿戴设备等,本公开实施例对此不作限定。图1所示的各个部件仅仅是示意性的。第二设备200可以包括图1所示的部件中的一个或多个,而不必包括图1中的全部部件。图1所示的第二设备200仅是解释性的,并且决不是为了要限制这里的实施例、其应用或用途。
应当理解的是,尽管图1仅示出一个第一设备100、第二设备200,但不意味着限制各自的数量,交互控制系统中可以包含多个第一设备100、多个第二设备200。
在上述描述中,技术人员可以根据本公开所提供的方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
<方法实施例>
图2示出了本公开的一个实施例的交互控制方法,该交互控制方法可以由图1所示的第一设备实施,如图2所示,该实施例的交互控制方法可以包括如下步骤S2100~步骤S2400:
步骤S2100,在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布。
在本实施例中,第一设备的桌面启动器称之为AR Launcher,在第一设备开机时ARLauncher自动启动,第一设备的桌面环境开始运行,用户佩戴第一设备后,第一设备在用户的视线范围内展示该桌面环境。可以理解的是,该桌面环境通常为3D桌面环境。
在本实施例中,在3D桌面环境的运行过程中,3D桌面环境会创建多个虚拟屏和多个画布,并建立虚拟屏和画布之间的对应关系。通常,创建好多个虚拟屏后,第一设备会指定每个虚拟屏上运行的应用。参照图3,例如虚拟屏1运行游戏应用,并将虚拟屏1的纹理信息渲染显示在画布1中,虚拟屏2运行云办公应用,并将虚拟屏1的纹理信息渲染显示在画布2中,虚拟屏3运行视频应用,并将虚拟屏3的纹理信息渲染显示在画布3中。
在执行以上步骤S2100在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布之后,进入:
步骤S2200,在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息。
其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息。示例性地,目标虚拟屏可以为虚拟屏3,即虚拟屏3运行视频应用,且目标画布为图3所示的画布3,画布3渲染显示有虚拟屏3的纹理信息。
其中,虚拟标识可以表征第二设备的当前姿态,用户基于虚拟标识可以对第一设备进行控制。示例性地,虚拟标识可以虚拟射线。该虚拟射线可以是直线,例如如图3所示的虚拟射线31,该虚拟射线也可以是曲线,本实施例对此不做限定。
在介绍本步骤S2200之前,先介绍下第二设备如何基于虚拟标识对第一设备进行控制。
在一个可选地实施例中,本公开实施例的交互控制方法还包括如下步骤S3100~步骤S3300:
步骤S3100,接收所述第二设备发送的旋转矩阵。
其中,所述旋转矩阵用于表征所述第二设备的姿态变化信息。
在本实施例中,用户可以打开图4所示的第二设备的控制界面中的无线连接开关44,便可便可建立第一设备和第二设备之间的无线通信连接。在此,第二设备可以获取内部的惯性测量单元(Inertial Measurement Unit)采集的IMU数据,并基于IMU数据得到第二设备的姿态变化信息,进而基于姿态变化信息得到旋转矩阵并发送至第一设备。
步骤S3200,对所述旋转矩阵进行转换,得到所述虚拟标识的方向。
在本实施例中,由于第二设备在操控第一设备时,第二设备的显示屏幕通常是水平方向,但是第一设备的显示屏幕通常为竖直方向,在此,第一设备在接收到第二设备的旋转矩阵之后,需要对旋转矩阵进行转换,以得到虚拟标识的方向。
可以理解的,由于第二设备的坐标系为右手坐标系,但是部分第一设备的渲染引擎(例如Unity)可能为左手坐标系,在此,第一设备在将接收到的旋转矩阵进行转换以得到虚拟标识的方向时,需要将所接收到的旋转矩阵乘以转换矩阵A以及矩阵
步骤S3300,根据所述虚拟标识的方向,确定所述虚拟标识与所述目标画布的交点。
示例性地,参照图3,基于虚拟标识31的方向,便可确定出该虚拟标识31与画布3之间的交点O。
根据本公开实施例,根据第二设备的旋转矩阵可以确定出虚拟标识的方向,这样,便可利用第二设备实现对第一设备的控制。
其中,触控事件的第一标识信息用于唯一标识该触控事件,通过触控事件的第一标识信息便可将不同的触控事件进行区分。
在一个具体地实施例中,第二设备的物理屏幕显示控制界面,该控制界面可以是图4所示的控制界面。通过控制界面可以供用户实施触控事件,其中,该触控事件可以包括以下任意一项:按下(Down)事件、抬起(UP)事件、滑动(Move)事件。通常,按下(Down)事件的第一标识信息为0,抬起(UP)事件的第一标识信息为1,滑动(Move)事件的第一标识信息为2。
参照图4,用户通过控制界面的触摸板42实施按下(Down)事件,第二设备便可将按下(Down)事件的第一标识信息0发送至第一设备。
其中,虚拟标识与目标画布的交点的位置信息为,虚拟标识与目标画布的交点在世界坐标系中的坐标信息。在此,虚拟标识与目标画布的交点的位置信息Vworld(x,y,z)满足如下公式:
其中,(Ox,Oy,Oz)表示虚拟标识起点的坐标信息,(Dx,Dy,Dz)表示虚拟标识方向的坐标信息,m为方向向量,在渲染引擎为Unity中的场景中,虚拟标识与目标画布的交点的位置信息可以通过RaycastHit类中的hitInfo.point方法获得。
参照图3,第一设备接收到第一标识信息0之后,会获取虚拟标识31与画布3的交点O在世界坐标系的坐标信息,作为虚拟标识31与画布3的交点O的位置信息。
其中,目标虚拟屏的第二标识信息用于唯一标识该目标虚拟屏,通过第二标识信息可以将目标虚拟屏与其他虚拟屏进行区分。目标虚拟屏的第二标识信息具体可以是目标虚拟屏的屏幕编号信息,例如虚拟屏3的第二标识信息为屏幕编号信息3。
在执行以上步骤S2200在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息之后,进入:
步骤S2300,根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息。
在本实施例中,需要将该交点在世界坐标系的坐标信息转换为对应虚拟屏幕坐标系的坐标信息。在此,本步骤S2300中根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息可以进一步包括如下步骤S2310~步骤S2320:
步骤S2310,对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置。
可选地,本步骤S2310中对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置可以进一步包括如下步骤S2311~步骤S2314:
步骤S2311,根据所述目标画布的位置信息,对所述虚拟标识与目标画布的交点的位置信息进行平移变换,得到进行平移变换后的位置信息。
本步骤S2311中,虚拟标识与目标画布的交点的位置信息Vworld(x,y,z)进行平移变换后的位置信息Vposition(x,y,z)满足如下公式:
可以理解的是,进行平移变换的目的在于消除画布位移对点坐标造成的影响。
步骤S2312,根据所述目标画布的旋转矩阵的逆矩阵,对进行平移变换后的位置信息进行旋转变换,得到进行旋转变换后的位置信息。
本步骤S2312中,Vposition(x,y,z)进行旋转变换后的位置信息Vrotation(x,y,z)满足如下公式:
可以理解的是,进行旋转变换的目的在于消除画布旋转对点坐标造成的影响。
步骤S2313,根据所述目标画布的画布缩放信息,对进行旋转变换后的位置信息进行缩放变换,得到进行缩放变换后的位置信息。
本步骤S2313中,Vrotation(x,y,z)进行缩放变换后的位置信息Vscale(x,y,z)满足如下公式:
其中,为Vposition(x,y,z)进行旋转变换后的位置信息,(Sx,Sy,Sz)为目标画布的画布缩放信息,该目标画布的画布缩放信息用于表示将目标画布转换为标准画布时的缩放程度,其中,标准画布为左上角的坐标信息为(0,0),右下角的坐标信息为(1,1)的画布。
步骤S2314,将进行缩放变换后的位置信息转换到平面坐标系,得到所述交点在所述目标虚拟屏内的相对位置。
本步骤S2314中,该交点在目标虚拟屏内的相对位置满足如下公式:
可以理解的是,计算机图形学中,通常情况下变换的顺序为缩放、旋转、平移,以上步骤S2311~步骤S2314可以看作该变换的逆变换,故操作顺序相反。并且,顺序变化会影响结果。
根据以上步骤S2311~步骤S2314,便可得到该交点在该目标虚拟屏内的相对位置。
步骤S2320,根据所述交点在所述目标虚拟屏内的相对位置和所述目标虚拟屏的显示分辨率,得到所述交点在所述目标虚拟屏内的位置信息。
本步骤S2320中,在得到该交点在该目标虚拟屏内的相对位置之后,在分发给目标虚拟屏时,需要确定触控事件所操作的目标虚拟屏内的目标像素点。这样,便需要根据该交点在目标虚拟屏内的相对位置和目标虚拟屏的显示分辨率,得到该交点在目标虚拟屏内的位置信息,即得到目标像素点。
在执行以上步骤S2300根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息之后,进入:
步骤S2400,根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
在本实施例中,根据目标位置信息、触控事件的第一标识信息和目标虚拟屏的第二标识信息,便可将触控事件分发至对应的目标虚拟屏进行响应。
根据本公开实施例,第一设备在实现应用多开的情况下,若接收到第二设备发送的触控事件的第一标识信息,会获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息,并根据虚拟标识与目标画布的交点的位置信息,确定出该交点在目标虚拟屏内的位置信息,进而根据该交点在目标虚拟屏内的位置信息、触控事件的第一标识信息和目标虚拟屏的第二标识信息,将该触控事件分发至目标虚拟屏进行响应。即,在第一设备利用虚拟屏实现应用多开的情况下,能够将第二设备发送的触控事件分发至对应虚拟屏进行响应。
在一个实施例中,对于滑动(Move)事件,通常设置有两种触发逻辑,其中一种触发逻辑为:用户按住图4所示的第二设备的控制界面的触摸板42,移动虚拟标识以滑动目标虚拟屏。此时Move事件的坐标点即为以上步骤S2300中所计算出的虚拟标识与目标画布的交点的位置信息,即Move事件由unity自身获取。并通过虚拟标识滑动过程中碰撞点的位置变化改变Move事件的坐标点的变化。
另外一种触发逻辑为:用户滑动图4所示的第二设备的控制界面的触摸板42,以滑动目标虚拟屏,此时由于虚拟标识与目标画布的交点是没有发生变化的,在此,本公开实施例的交互控制方法还进一步包括如下步骤S4100~步骤S4300:
步骤S4100,获取所述第二设备发送的第一差值信息。
其中,所述第一差值信息为所述滑动事件在所述第二设备的坐标点相对于按下事件在所述第二设备的坐标点之间的差值信息。
步骤S4200,根据所述第一差值信息和所述虚拟标识与目标画布的交点的位置信息,得到所述触控事件的触控点的位置信息。
本步骤S4200中,第一设备将第一差值信息和虚拟标识与目标画布的交点的位置信息相加,便可得到触控事件的触控点的位置信息。
步骤S4300,根据所述触控事件的触控点的位置信息,确定所述触控点在所述目标虚拟屏内的位置信息,作为所述目标位置信息。
其中,触控点的位置信息为触控点在世界坐标系的坐标信息。
可以理解的是,可以基于与确定交点在目标虚拟屏内的位置信息相同的计算方式,计算触控点在目标虚拟屏内的位置信息。示例性地,第一设备对触控事件的触控点的位置信息进行变换(平移变换、旋转变换、缩放变换、坐标系变换),以得到触控点在目标虚拟屏内的相对位置,进而根据触控点在目标虚拟屏内的相对位置和目标虚拟屏的显示分辨率,得到触控点在目标虚拟屏内的位置信息。
可以理解的是,在滑动(Move)事件的第二种触发逻辑下,可以基于以上步骤S4100~步骤S4200计算抬起(up)事件的触控点的位置信息,并基于该触控点的位置信息,确定该触控点在目标虚拟屏内的位置信息,作为目标位置信息。
根据本申请实施例,对于滑动事件,其提供两种不同的触发逻辑,满足用户的不同需求。
在一个实施例中,本公开实施例的交互控制方法还进一步包括如下步骤S5100~步骤S5400:
步骤S5100,获取所述第二设备发送的当前旋转矩阵及所述当前旋转矩阵的前一旋转矩阵。
在本实施例中,第一设备可以每隔设定时间(例如每隔20毫秒)获取一次旋转矩阵。
步骤S5200,在所述当前旋转矩阵与所述前一旋转矩阵相同的情况下,获取所述第二设备在发送所述前一旋转矩阵之前发送的设定数量个历史旋转矩阵。
其中,设定数量可以是根据场景自行设计,该设定数量可以是5。
在本实施例中,若第二设备的旋转矩阵更新较慢,或第二设备向第一设备传输旋转矩阵的过程中存在丢包现象,表现为第一设备获取的当前旋转矩阵和前一旋转矩阵相同。为了避免延迟或者卡顿现象,当第一设备检测到当前旋转矩阵与前一旋转矩阵相同的情况下,即检测到重复的旋转矩阵时,可以获取前一旋转矩阵之前发送的例如5个旋转矩阵。
步骤S5300,根据所述设定数量个历史旋转矩阵,预测出目标旋转矩阵。
在本实施例中,第一设备可以对前一旋转矩阵之前发送的例如5个旋转矩阵进行多项式拟合,预测出中间缺失的旋转矩阵,并将预测出的旋转矩阵插入当前旋转矩阵和前一旋转矩阵之间,以完成插帧处理。
步骤S5400,在所述当前旋转矩阵和所述前一旋转矩阵之间插入所述目标旋转矩阵。
根据本实施例,为避免延迟或卡顿现象,当第一设备检测到旋转矩阵重复时,可以对历史旋转矩阵进行多项式拟合,预测出缺失的旋转矩阵,完成插帧处理。
在一个实施例中,本公开实施例的交互控制方法还可以进一步包括如下步骤S6100~步骤S6300:
步骤S6100,接收所述第二设备发送的对所述虚拟标识进行校准的校准指令。
其中,所述校准指令中携带所述第二设备的当前旋转矩阵。
示例性地,用户可以点击图4所示的第二设备的控制界面中的复位/校正开关41作为校准指令,并将携带有第二设备的当前旋转矩阵的校准指令发送至第一设备。
步骤S6200,响应于所述校准指令,获取所述当前旋转矩阵的逆矩阵。
继续上述示例,第一设备接收到校准指令后,会自动获取当前旋转矩阵的逆矩阵。
步骤S6300,根据所述当前旋转矩阵的逆矩阵和所述第二设备接续发送的下一旋转矩阵,对所述虚拟标识执行校准操作。
继续上述示例,第一设备将所计算出的当前旋转矩阵的逆矩阵与第二设备接续发送的旋转矩阵相乘,此时虚拟标识会回到初始点,完成复位/校正。
根据本实施例,其可以由用户手动对虚拟标识进行复位/校正,进一步提升了用户体验。
在一个实施例中,本公开实施例的交互控制方法还可以进一步包括如下步骤S7100~步骤S7500:
步骤S7100,接收所述第二设备发送的关闭所述虚拟标识的关闭指令。
示例性地,用户可以点击图4所示的第二设备的控制界面中的虚拟标识开关43作为关闭指令,并将关闭指令发送至第一设备。
步骤S7200,响应于所述关闭指令,停止接收所述第二设备发送的旋转矩阵,并关闭所述虚拟标识。
继续上述示例,第一设备接收到关闭指令之后,便可停止接收第二设备发送的旋转矩阵,并关闭虚拟标识。
步骤S7300,接收所述第二设备发送的开启所述虚拟标识的开启指令;其中,所述开启指令中携带所述第二设备的当前旋转矩阵。
步骤S7400,响应于所述开启指令,获取所述当前旋转矩阵的逆矩阵。
步骤S7500,根据所述当前旋转矩阵的逆矩阵和所述第二设备接续发送的下一旋转矩阵,对所述虚拟标识执行校准操作。
根据本实施例,第二设备发送关闭虚拟标识的关闭指令,第一设备接收该关闭指令,会停止接收旋转矩阵并关闭虚拟标识的显示。第一设备发送开启虚拟标识的开启指令,第一设备接收开启指令以及重新获取旋转矩阵,并完成复位/校正操作,保证虚拟标识开关打开时虚拟标识位于初始点。
可以理解的是,由于第二设备只能通过IMU获取3dof信息,缺少6dof位移信息。在此,第一设备会计算头部和虚拟标识起点的相对位置,并保持其相对位置。即,虚拟标识的起点会跟随第一设备的位移而位移,从而实现6dof效果。
<装置实施例>
图5是根据一个实施例的交互控制装置的原理示意图,参照图5所示,所述交互控制装置500包括运行模块510、获取模块520、确定模块530、分发模块540。
运行模块510,用于在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布;
获取模块520,用于在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息;
确定模块530,用于根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息;
分发模块540,用于根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
在一个实施例中,确定模块530,具体用于对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置;根据所述交点在所述目标虚拟屏内的相对位置和所述目标虚拟屏的显示分辨率,得到所述交点在所述目标虚拟屏内的位置信息。
在一个实施例中,确定模块530,具体用于根据所述目标画布的位置信息,对所述虚拟标识与目标画布的交点的位置信息进行平移变换,得到进行平移变换后的位置信息;根据所述目标画布的旋转矩阵的逆矩阵,对进行平移变换后的位置信息进行旋转变换,得到进行旋转变换后的位置信息;根据所述目标画布的画布缩放信息,对进行旋转变换后的位置信息进行缩放变换,得到进行缩放变换后的位置信息;将进行缩放变换后的位置信息转换到平面坐标系,得到所述交点在所述目标虚拟屏内的相对位置。
在一个实施例中,在所述第一标识信息表征所述触控事件为滑动事件的情况下,
获取模块520,还用于获取所述第二设备发送的第一差值信息;其中,所述第一差值信息为所述滑动事件在所述第二设备的坐标点相对于按下事件在所述第二设备的坐标点之间的差值信息;
确定模块530,还用于根据所述第一差值信息和所述虚拟标识与目标画布的交点的位置信息,得到所述触控事件的触控点的位置信息;以及,
根据所述触控事件的触控点的位置信息,确定所述触控点在所述目标虚拟屏内的位置信息,作为所述目标位置信息。
在一个实施例中,装置500还包括接收模块和转换模块(图中均未示出)。
接收模块,用于接收所述第二设备发送的旋转矩阵;其中,所述旋转矩阵用于表征所述第二设备的姿态变化信息;
转换模块,用于对所述旋转矩阵进行转换,得到所述虚拟标识的方向;
确定模块530,还用于根据所述虚拟标识的方向,确定所述虚拟标识与所述目标画布的交点。
在一个实施例中,装置500还包括预测模块(图中未示出)。
获取模块520,还用于获取所述第二设备发送的当前旋转矩阵及所述当前旋转矩阵的前一旋转矩阵;
获取模块520,还用于在所述当前旋转矩阵与所述前一旋转矩阵相同的情况下,获取所述第二设备在发送所述前一旋转矩阵之前发送的设定数量个历史旋转矩阵;
预测模块,用于根据所述设定数量个历史旋转矩阵,预测出目标旋转矩阵;以及,在所述当前旋转矩阵和所述前一旋转矩阵之间插入所述目标旋转矩阵。
在一个实施例中,装置500还包括校准模块(图中未示出)。
接收模块,用于接收所述第二设备发送的对所述虚拟标识进行校准的校准指令;其中,所述校准指令中携带所述第二设备的当前旋转矩阵;
获取模块520,还用于响应于所述校准指令,获取所述当前旋转矩阵的逆矩阵;
校准模块,还用于根据所述当前旋转矩阵的逆矩阵和所述第二设备接续发送的下一旋转矩阵,对所述虚拟标识执行校准操作。
在一个实施例中,接收模块,用于接收所述第二设备发送的关闭所述虚拟标识的关闭指令;以及,响应于所述关闭指令,停止接收所述第二设备发送的旋转矩阵,并关闭所述虚拟标识;
根据本公开实施例,第一设备在实现应用多开的情况下,若接收到第二设备发送的触控事件的第一标识信息,会获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息,并根据虚拟标识与目标画布的交点的位置信息,确定出该交点在目标虚拟屏内的位置信息,进而根据该交点在目标虚拟屏内的位置信息、触控事件的第一标识信息和目标虚拟屏的第二标识信息,将该触控事件分发至目标虚拟屏进行响应。即,在第一设备利用虚拟屏实现应用多开的情况下,能够将第二设备发送的触控事件分发至对应虚拟屏进行响应。
<设备实施例>
图6是根据一个实施例的头戴显示设备的硬件结构示意图。如图6所示,该头戴显示设备600包括处理器610和存储器620。
该存储器620可以用于存储可执行的计算机指令。
该处理器610可以用于根据所述可执行的计算机指令的控制,执行根据本公开方法实施例所述的交互控制方法。
该头戴显示设备600可以是如图1所示的第一设备100,也可以是具备其他硬件结构的设备,在此不做限定。
在另外的实施例中,该头戴显示设备600可以包括以上交互控制装置500。
在一个实施例中,以上交互控制装置500的各模块可以通过处理器610运行存储器620中存储的计算机指令实现。
<计算机可读存储介质>
本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器运行时执行本公开实施例提供的交互控制方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本公开的范围由所附权利要求来限定。
Claims (11)
1.一种交互控制方法,其特征在于,所述方法包括:
在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布;
在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息;
根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息;
根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
2.根据权利要求1所述的方法,其特征在于,所述根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,包括:
对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置;
根据所述交点在所述目标虚拟屏内的相对位置和所述目标虚拟屏的显示分辨率,得到所述交点在所述目标虚拟屏内的位置信息。
3.根据权利要求2所述的方法,其特征在于,所述对所述虚拟标识与目标画布的交点的位置信息进行变换,得到所述交点在所述目标虚拟屏内的相对位置,包括:
根据所述目标画布的位置信息,对所述虚拟标识与目标画布的交点的位置信息进行平移变换,得到进行平移变换后的位置信息;
根据所述目标画布的旋转矩阵的逆矩阵,对进行平移变换后的位置信息进行旋转变换,得到进行旋转变换后的位置信息;
根据所述目标画布的画布缩放信息,对进行旋转变换后的位置信息进行缩放变换,得到进行缩放变换后的位置信息;
将进行缩放变换后的位置信息转换到平面坐标系,得到所述交点在所述目标虚拟屏内的相对位置。
4.根据权利要求1所述的方法,其特征在于,在所述第一标识信息表征所述触控事件为滑动事件的情况下,所述方法还包括:
获取所述第二设备发送的第一差值信息;其中,所述第一差值信息为所述滑动事件在所述第二设备的坐标点相对于按下事件在所述第二设备的坐标点之间的差值信息;
根据所述第一差值信息和所述虚拟标识与目标画布的交点的位置信息,得到所述触控事件的触控点的位置信息;
根据所述触控事件的触控点的位置信息,确定所述触控点在所述目标虚拟屏内的位置信息,作为所述目标位置信息。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
接收所述第二设备发送的旋转矩阵;其中,所述旋转矩阵用于表征所述第二设备的姿态变化信息;
对所述旋转矩阵进行转换,得到所述虚拟标识的方向;
根据所述虚拟标识的方向,确定所述虚拟标识与所述目标画布的交点。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
获取所述第二设备发送的当前旋转矩阵及所述当前旋转矩阵的前一旋转矩阵;
在所述当前旋转矩阵与所述前一旋转矩阵相同的情况下,获取所述第二设备在发送所述前一旋转矩阵之前发送的设定数量个历史旋转矩阵;
根据所述设定数量个历史旋转矩阵,预测出目标旋转矩阵;
在所述当前旋转矩阵和所述前一旋转矩阵之间插入所述目标旋转矩阵。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
接收所述第二设备发送的对所述虚拟标识进行校准的校准指令;其中,所述校准指令中携带所述第二设备的当前旋转矩阵;
响应于所述校准指令,获取所述当前旋转矩阵的逆矩阵;
根据所述当前旋转矩阵的逆矩阵和所述第二设备接续发送的下一旋转矩阵,对所述虚拟标识执行校准操作。
8.根据权利要求5所述的方法,其特征在于,所述方法还包括:
接收所述第二设备发送的关闭所述虚拟标识的关闭指令;
响应于所述关闭指令,停止接收所述第二设备发送的旋转矩阵,并关闭所述虚拟标识。
9.一种交互控制装置,其特征在于,所述装置包括:
运行模块,用于在第一设备的桌面环境创建多个虚拟屏及与所述多个虚拟屏分别对应的画布,在任意虚拟屏运行对应的应用,及将所述任意虚拟屏的纹理信息渲染显示到对应的所述画布;
获取模块,用于在接收到第二设备发送的触控事件的第一标识信息的情况下,获取虚拟标识与目标画布的交点的位置信息、及目标虚拟屏的第二标识信息;其中,所述多个虚拟屏包括所述目标虚拟屏,所述目标虚拟屏运行目标应用,所述目标画布渲染显示有所述目标虚拟屏的纹理信息;
确定模块,用于根据所述虚拟标识与目标画布的交点的位置信息,确定所述交点在所述目标虚拟屏内的位置信息,作为目标位置信息;
分发模块,用于根据所述目标位置信息、所述触控事件的第一标识信息和所述目标虚拟屏的第二标识信息,将所述触控事件分发至所述目标虚拟屏进行响应。
10.一种头戴显示设备,其特征在于,所述头戴显示设备包括:
存储器,用于存储可执行的计算机指令;
处理器,用于根据所述可执行的计算机指令的控制,执行根据权利要求1-8中任意一项所述的交互控制方法。
11.一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器运行时执行权利要求1-8中任意一项所述的交互控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310120670.6A CN116244024A (zh) | 2023-02-13 | 2023-02-13 | 交互控制方法、装置、头戴显示设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310120670.6A CN116244024A (zh) | 2023-02-13 | 2023-02-13 | 交互控制方法、装置、头戴显示设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116244024A true CN116244024A (zh) | 2023-06-09 |
Family
ID=86634525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310120670.6A Pending CN116244024A (zh) | 2023-02-13 | 2023-02-13 | 交互控制方法、装置、头戴显示设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116244024A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116755563A (zh) * | 2023-07-14 | 2023-09-15 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
-
2023
- 2023-02-13 CN CN202310120670.6A patent/CN116244024A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116755563A (zh) * | 2023-07-14 | 2023-09-15 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
CN116755563B (zh) * | 2023-07-14 | 2024-05-17 | 优奈柯恩(北京)科技有限公司 | 用于头戴显示设备的交互控制方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10019849B2 (en) | Personal electronic device with a display system | |
EP3166079A1 (en) | Augmented reality method and system based on wearable device | |
CN110636354A (zh) | 一种显示设备 | |
CN111414225B (zh) | 三维模型远程展示方法、第一终端、电子设备及存储介质 | |
CN108260020B (zh) | 在全景视频中显示互动信息的方法和装置 | |
CN109496293B (zh) | 扩展内容显示方法、装置、系统及存储介质 | |
CN109725956B (zh) | 一种场景渲染的方法以及相关装置 | |
US11880999B2 (en) | Personalized scene image processing method, apparatus and storage medium | |
CN107852435A (zh) | 移动终端及其控制方法 | |
CN112907760A (zh) | 三维对象的标注方法及装置、工具、电子设备和存储介质 | |
CN116244024A (zh) | 交互控制方法、装置、头戴显示设备及介质 | |
CN115617166A (zh) | 交互控制方法、装置及电子设备 | |
CN110889384A (zh) | 场景切换方法及装置、电子设备和存储介质 | |
US10591986B2 (en) | Remote work supporting system, remote work supporting method, and program | |
CN112099681B (zh) | 基于三维场景应用的交互方法、装置和计算机设备 | |
EP3386204A1 (en) | Device and method for managing remotely displayed contents by augmented reality | |
Kot et al. | Application of augmented reality in mobile robot teleoperation | |
EP3599763A2 (en) | Method and apparatus for controlling image display | |
CN115599206A (zh) | 显示控制方法、装置、头戴显示设备及介质 | |
EP3961362A1 (en) | Mobile device and mobile device control method | |
CN114385062A (zh) | 展示方案的切换方法、装置、可读存储介质和电子设备 | |
CN114116106A (zh) | 图表显示方法及装置、电子设备和存储介质 | |
CN109727315B (zh) | 一对多集群渲染方法、装置、设备及存储介质 | |
KR101276558B1 (ko) | 디아이디 입체영상콘트롤장치 | |
US20230405475A1 (en) | Shooting method, apparatus, device and medium based on virtual reality space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |