CN115617164A - 交互方法、装置和近眼显示设备 - Google Patents
交互方法、装置和近眼显示设备 Download PDFInfo
- Publication number
- CN115617164A CN115617164A CN202211203828.8A CN202211203828A CN115617164A CN 115617164 A CN115617164 A CN 115617164A CN 202211203828 A CN202211203828 A CN 202211203828A CN 115617164 A CN115617164 A CN 115617164A
- Authority
- CN
- China
- Prior art keywords
- target application
- display interface
- equipment
- module
- attitude information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000003993 interaction Effects 0.000 title claims abstract description 39
- 238000006243 chemical reaction Methods 0.000 claims description 26
- 238000004891 communication Methods 0.000 claims description 25
- 206010034719 Personality change Diseases 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 10
- 230000001960 triggered effect Effects 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 20
- 239000011521 glass Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开实施例公开了一种交互方法、装置和近眼显示设备,该交互方法包括:在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,所述当前姿态信息用于表征所述第二设备的第一方向,所述第一方向为所述第二设备的朝向;将所述第一方向进行转换,得到第二方向;根据所述第二方向调整所述第一设备中所述目标应用的显示界面。
Description
技术领域
本公开实施例涉及增强现实技术领域,更具体地,本公开实施例涉及一种交互方法、装置和近眼显示设备。
背景技术
随着AR(Augmented Reality,增强现实)技术的发展,越来越多的AR设备已得到广泛使用。AR技术是一种将虚拟信息与真实世界巧妙融合的技术,广泛运用了多媒体、三维建模、实时跟踪及注册、智能交互、传感等多种技术手段,将计算机生成的文字、图像、三维模型、音乐、视频等虚拟信息模拟仿真后,应用到真实世界中,两种信息互为补充,从而实现对真实世界的“增强”。
目前,AR产品越来越轻量化,眼镜形态的AR产品越来越成为市场的主流。但是,由于硬件限制,现有的AR眼镜往往无法使用手柄进行控制,交互操作困难,影响用户的使用体验。
发明内容
本公开实施例的目的在于提供一种交互方法、装置和近眼显示设备。
根据本公开的第一方面,提供了一种交互方法,包括:
在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,所述当前姿态信息用于表征所述第二设备的第一方向,所述第一方向为所述第二设备的朝向;
将所述第一方向进行转换,得到第二方向;
根据所述第二方向调整所述第一设备中所述目标应用的显示界面。
可选地,获取第二设备的当前姿态信息,包括:
获取第二设备的姿态变化信息和初始姿态信息,其中,所述初始姿态信息用于表征所述第二设备处于预设的初始方向的姿态信息,所述姿态变化信息用于表征所述第二设备相对于所述初始方向的变化的姿态信息;
根据所述姿态变化信息和所述初始姿态信息,确定所述当前姿态信息。
可选地,所述将所述第一方向进行转换,得到第二方向,包括:
根据预设的转换关系,对所述第一方向进行转换,得到所述第二方向;
其中,所述预设的转换关系为处于使用状态的所述第一设备的坐标系与处于使用状态所述的第二设备的坐标系之间的对应关系。
可选地,所述根据所述第二方向调整所述第一设备中所述目标应用的显示界面之后,所述方法还包括:
根据所述第二方向,生成并显示虚拟标识,其中,所述虚拟标识沿所述第二方向延伸并指向所述目标应用的显示界面。
可选地,所述根据所述第二方向,生成并显示虚拟标识之后,所述方法还包括:
根据所述虚拟标识与所述目标应用的显示界面的交点,确定目标对象;
接收所述第二设备发送的控制指令;
执行所述控制指令针对所述目标对象所触发的交互事件。
根据本公开的第二方面,提供了一种交互装置,包括:
获取模块,用于在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,所述当前姿态信息用于表征所述第二设备的第一方向,所述第一方向为所述第二设备的朝向;
转换模块,用于将所述第一方向进行转换,得到第二方向;
调整模块,用于根据所述第二方向调整所述第一设备中所述目标应用的显示界面。
可选地,所述转换模块,具体用于:
根据预设的转换关系,对所述第一方向进行转换,得到所述第二方向;
其中,所述预设的转换关系为处于使用状态的所述第一设备的坐标系与处于使用状态所述的第二设备的坐标系之间的对应关系。
可选地,所述装置还包括:
生成模块,用于根据所述第二方向,生成并显示虚拟标识,其中,所述虚拟标识沿所述第二方向延伸并指向所述目标应用的显示界面。
可选地,所述装置还包括:
确定模块,用于根据所述虚拟标识与所述目标应用的显示界面的交点,确定目标对象;
接收模块,用于接收所述第二设备发送的控制指令;
执行模块,用于执行所述控制指令针对所述目标对象所触发的交互事件。
根据本公开的第三方面,提供了一种近眼显示设备,包括通信模块,所述近眼显示设备还包括:
存储器,用于存储可执行的计算机指令;
处理器,用于根据所述可执行的计算机指令的控制,执行根据本公开的第一方面所述的交互方法;
其中,所述通信模块,用于与其他电子设备建立通信连接。
根据本公开的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有可被计算机读取执行的计算机指令,所述计算机指令被处理器运行时,执行本公开的第一方面所述的交互方法。
根据本申请实施例,在第一设备运行目标应用的情况下,确定第二设备的当前朝向,并将第二设备的当前朝向进行转换,以根据转换后的方向调整第一设备中目标应用的显示界面。这样,本公开实施例可以将第二设备的旋转方向转换为第一设备中的显示界面的实际旋转方向,以实现利用第二设备对第一设备的显示界面的控制,提高第一设备的显示界面的控制的便捷性,进而提升第一设备的使用体验。再者,不容易受到现有设备的硬件限制,不需要借助外部配件,可以实现对第一设备的显示界面的控制,适用范围更广。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定。对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是可用于实现一个实施例的交互方法的显示系统的硬件配置示意图;
图2是根据一个实施例的交互方法的流程示意图;
图3是根据一个实施例的第一设备的坐标系的示意图;
图4是根据一个实施例的第二设备的坐标系的示意图;
图5是根据一个实施例的第二设备的第一方向的转换过程的示意图;
图6是根据一个实施例的交互装置的原理框图;
图7是根据一个实施例的近眼显示设备的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
下面,参照附图描述根据本公开的各个实施例和例子。
<硬件配置>
图1是可用于实现一个实施例的交互方法的显示系统的硬件配置示意图。图1示出了第一设备100、第二设备200和网络300。第一设备100可以连接到网络300,并且还可以通过诸如蓝牙等的通信方式与第二设备200连接。在一个实施例中,第一设备100仅通过诸如蓝牙等的通信方式分别与第二设备200连接。其中,在网络300中可以设置多个服务器301、302。网络300可以是无线通信网络,也可以是有线通信网络。网络300可以是局域网,也可以是广域网。网络300可以是近距离通信,也可以是远距离通信。
在一个实施例中,如图1所示,第一设备100可以包括处理器101和存储器102。第一设备100还包括通信装置103、显示装置104、用户接口105、摄像装置106、音频/视频接口107和传感器108等。此外,第一设备100还可以包括电源管理芯片109和电池110等。
其中,处理器101可以是各种处理器。存储器102可以存储第一设备100运行所需的底层软件、系统软件、应用软件、数据等。存储器102可以包括多种形式的存储器,例如,ROM、RAM、Flash等。通信装置103例如可以包括WiFi通信装置、蓝牙通信装置、3G、4G和5G通信装置等。通过通信装置103,第一设备100可以被布置中网络中。显示装置104可以是液晶显示屏、OLED显示屏等。在一个例子中,显示装置104可以是触摸屏。用户可以通过显示装置104进行输入操作。此外,用户还可以通过触摸屏进行指纹识别等。用户接口105可以包括USB接口、闪电接口、键盘等。摄像装置106可以是单摄像头,也可以是多摄像头。音频/视频接口107例如可以包括扬声器接口、麦克风接口、诸如HDMI的视频传输接口等。传感器108例如可以包括陀螺仪、加速度计、温度传感器、湿度传感器、压力传感器等等。例如,通过传感器可以确定第一设备的姿态信息等。电源管理芯片109可以用于管理输入第一设备100电源功率,还可以对电池110进行管理,以保证较大的利用效率。电池110例如是锂离子电池等。
该第一设备100可以是近眼显示设备。例如,VR(虚拟现实,Virtual Reality)眼镜、AR(增强现实,Augmented Reality)眼镜及MR(混合现实,Mixed Reality)眼镜等,本公开实施例对此不作限定。图1所示的各个部件仅仅是示意性的。第一设备100可以包括图1所示的部件中的一个或多个,而不必包括图1中的全部部件。图1所示的第一设备100仅是解释性的,并且决不是为了要限制这里的实施例、其应用或用途。
本实施例中,第一设备100的存储器102用于存储程序指令,该程序指令用于控制处理器101进行操作以执行交互方法,技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
在一个实施例中,如图1所示,第二设备200可以包括处理器201和存储器202。第二设备200还包括通信装置203、显示装置204、用户接口205、摄像装置206、音频/视频接口207和传感器208等。此外,第二设备200还可以包括电源管理芯片209和电池210等。
该第二设备200可以是手机、便携式电脑、平板电脑、掌上电脑、可穿戴设备等,本公开实施例对此不作限定。图1所示的各个部件仅仅是示意性的。第二设备200可以包括图1所示的部件中的一个或多个,而不必包括图1中的全部部件。图1所示的第二设备200仅是解释性的,并且决不是为了要限制这里的实施例、其应用或用途。
本实施例中,第二设备200的存储器202用于存储程序指令,该程序指令用于控制处理器201进行操作以执行交互方法,技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
应当理解的是,尽管图1仅示出一个第一设备100、第二设备200,但不意味着限制各自的数量,显示系统中可以包含多个第一设备100、多个第二设备200。
在上述描述中,技术人员可以根据本公开所提供的方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
<方法实施例>
本公开实施例提供了一种交互方法,该交互方法可由图1示出的显示系统实施,如图2所示,该交互方法包括以下步骤:步骤S2100~步骤S2300。
步骤S2100,在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,当前姿态信息用于表征第二设备的第一方向,第一方向为第二设备的朝向。
在本实施例中,目标应用可以是双目应用(3D应用)。在第一设备运行目标应用时,可以利用第二设备对第一设备中目标应用的显示界面进行控制。也就是说,第二设备可以作为手柄,用户可以通过第二设备控制第一设备中目标应用的显示界面。其中,第一设备可以是近眼显示设备。例如,虚拟现实眼镜、增强现实眼镜、混合现实眼镜等。第二设备可以是用于控制第一设备中目标应用的显示界面。例如,手机、便携式电脑、平板电脑、掌上电脑、可穿戴设备。
以第一设备为近眼显示设备为例,在使用近眼显示设备的过程中,用户可以通过佩戴的近眼显示设备运行目标应用,同时,用户可以将第二设备(例如,移动终端)作为手柄,通过调整第二设备的当前姿态,进而根据第二设备的当前姿态信息调整第一设备中目标应用的显示界面。也就是说,用户在通过第一设备观看目标应用的显示界面时,可以通过转动第二设备,以根据第二设备的朝向的变化对第一设备中目标应用的显示界面进行控制。例如,转动目标应用的显示界面。
其中,第二设备的当前姿态信息可以表征第二设备的第一方向,即,第二设备的朝向。以第二设备为终端设备为例,通常为单手握持方式使用终端设备,即,第二设备的顶部朝向用户外侧。基于此,第二设备的第一方向具体可以是终端设备的顶部的朝向。
在一个实施例中,获取第二设备的当前姿态信息的步骤,可以进一步包括:获取第二设备的姿态变化信息和初始姿态信息;根据姿态变化信息和初始姿态信息,确定当前姿态信息。
在本实施例中,初始姿态信息用于表征第二设备处于预设的初始方向的姿态信息。示例性地,预设的初始方向可以是垂直于第一设备的目标应用的显示界面的方向。姿态变化信息用于表征第二设备相对于初始方向的变化的姿态信息。姿态变化信息可以根据第二设备的加速度传感器和陀螺仪传感器采集的数据计算得到。姿态变化信息例如可以是第二设备的旋转矩阵。
在具体实施时,在第一设备运行目标应用的情况下,第一设备与第二设备建立通信连接。基于第一设备与第二设备之间的通信连接,第一设备可以获取第二设备的初始姿态信息和姿态变化信息,进而根据初始姿态信息和姿态变化信息,确定第二设备的当前姿态信息。
示例性地,初始姿态信息指示的第二设备的初始姿态可以是图5示出的初始向量a=(0,1,0),即,第二设备的初始姿态与第二设备的坐标系的y轴平行且在y轴上。根据第二设备的旋转矩阵A。之后,基于旋转矩阵原理,根据第二设备的初始姿态(初始向量)和旋转矩阵A,可以确定第二设备的当前姿态信息(即,第二设备的旋转后的方向),第二设备的旋转后的方向可以是图5示出的向量b=A*a。
在步骤S2100之后,执行步骤S2200,将第一方向进行转换,得到第二方向。
在本实施例中,第一设备和第二设备的坐标系可以相同,也可以不同。一方面,在第一设备与第二设备的坐标系不同的情况下,在根据第二设备的当前姿态信息确定第二设备的第一方向之后,需要对第一方向进行转换,以根据转换后的方向调整第一设备中目标应用的显示界面。另一方面,在第一设备和第二设备的坐标系相同的情况下,第一设备和第二设备的使用方向可能存在差异,此时,在根据第二设备的当前姿态信息确定第二设备的第一方向之后,也需要对第一方向进行转换,以根据转换后的方向调整第一设备中目标应用的显示界面。
继续以第一设备为近眼显示设备、第二设备为终端设备为例。第一设备和第二设备均为安卓(Android)坐标系,安卓坐标系为是三维坐标系。请参见图3,其示出了一种第一设备的坐标系的示意图,更具体地,对于第一设备(近眼显示设备)的坐标系,坐标原点位于第一设备的屏幕中心,X轴和Y轴位于第一设备的屏幕所在的平面,其中,X轴沿左右方向延伸的坐标轴,Y轴沿上下方向延伸,Z轴垂直于第一设备的屏幕。请参见图4,其示出了一种第二设备的坐标系的示意图,更具体地,对于第二设备(终端设备)的坐标系,坐标原点位于第二设备的屏幕中心,x轴和y轴位于第二设备的屏幕所在的平面,其中,x轴沿左右方向延伸的坐标轴,y轴沿上下方向延伸,z轴垂直于第二设备的屏幕。再者,如图3所示,在第一设备(近眼显示设备)处于使用状态下,即第一设备处于佩戴状态下,第一设备的屏幕往往垂直于水平面(地球表面)。如图4所示,在第二设备(终端设备)处于使用状态下,即第二设备(终端设备)的屏幕平行于水平面(地球表面),且屏幕正面朝上。处于使用状态的第一设备(近眼显示设备)与处于使用状态的第二设备(终端设备)的坐标系的指示方向不同。
进一步地,由于目标应用为双目应用程序(3D应用程序),目标应用的显示界面为3dof画面。对此,在用户观看第一设备上目标应用的显示界面时,可以控制目标应用的显示界面左右移动或者上下移动,以查看相应的内容。也就是说,控制目标应用的显示界面左右移动,即控制目标应用的显示界面绕Y轴旋转(Z轴绕Y轴旋转);控制目标应用的显示界面上下移动,即控制目标应用的显示界面绕X轴旋转(Z轴绕X轴旋转)。
然而,在将第二设备(终端设备)作为手柄时,通过旋转第二设备(终端设备)实现对第一设备中目标应用的显示界面。例如,左右旋转或者上下旋转。具体地,通常理解的第二设备(终端设备)左右旋转是指以第二设备的屏幕平行于水平面(地球表面)的角度,即第二设备绕z轴旋转的角度(y轴绕z轴旋转)。如果直接根据第二设备的当前姿态信息(即,第二设备绕z轴旋转的角度),控制第一设备中目标应用的显示界面移动,此时,目标应用的显示界面即绕Z轴旋转,无法实现目标应用的显示界面的左右移动。同样地,通常理解的第二设备(终端设备)上下旋转是指以第二设备的屏幕垂直于水平面(地球表面)的角度,即第二设备绕x轴旋转的角度(y轴绕x轴旋转)。如果直接根据第二设备的当前姿态信息(即,第二设备绕x轴旋转的角度),控制第一设备中目标应用的显示界面移动,此时,目标应用的显示界面跟随Y轴绕X轴旋转的角度移动,无法实现目标应用的显示界面的左右移动。基于此,在获取第二设备的当前姿态信息,即获取第二设备的第一方向(朝向)之后,需要对第一方向进行转换,以实现通过第二设备控制第一设备中目标应用的显示界面的功能。
下面以一个实施例对第一方向的转换过程进行说明。在一个实施例中,将第一方向进行转换,得到第二方向的步骤,可以进一步包括:根据预设的转换关系,对第一方向进行转换,得到第二方向;其中,预设的转换关系为处于使用状态的第一设备的坐标系与处于使用状态的第二设备的坐标系之间的对应关系。
在本实施例中,可以基于预设的转换关系,对第一方向进行转换,以得到第二方向。在第一设备与第二设备的坐标系不同的情况下,预设的转换关系可以是第一设备的坐标系与第二设备的坐标系的对应关系。例如,第一设备的坐标系为右手坐标系(安卓坐标系),第二设备的坐标系为左手坐标系。在第一设备和第二设备的坐标系相同、第一设备和第二设备的使用方向不同的情况下,预设的转换关系可以是处于使用状态的第一设备的坐标系与处于使用状态的第二设备的坐标系之间的对应关系。
可选地,根据预设的转换关系对第一方向进行转换,可以是根据预设的转换关系对第一方向进行旋转,得到第二方向。
继续以第一设备为近眼显示设备、第二设备为终端设备为例。从视觉角度看,第一设备(近眼显示设备)的屏幕所在的平面相当于将第二设备(终端设备)的屏幕旋转90度,即,使第二设备(终端设备)的屏幕垂直于地球表面。也就是说,在获得第二设备的当前姿态信息(第一方向)之后,可将第一方向绕x轴旋转90度,以使转换得到的第二方向(旋转后的方向)垂直于第一设备的屏幕所在的屏幕,进而根据第二方向可以实现对第一设备中目标应用的显示界面的移动。
示例性地,请参见图5,其示出了第一方向转换为第二方向的过程。具体来讲,对于通过左右旋转第二设备以控制第一设备中目标应用的显示界面左右移动的情况,控制第二设备以平行于地球表面的角度转动,获取第二设备的当前姿态信息(第一方向),即,第一方向为向量b;之后,将向量b绕x轴向第二设备的屏幕外侧旋转90度,得到向量c;再之后,将向量c在z轴的分量取反,得到向量d,即得到第二方向。第二方向为指向第一设备的屏幕的方向,进而根据第二方向可以控制第一设备中目标应用的显示界面左右移动。这里可以理解的是,在得到向量b之后,可以将向量b绕x轴向第二设备的屏幕内侧旋转90度,得到向量d,即得到第二方向。本实施例对第一方向转换为第二方向的具体方式不作具体限定。
具体来讲,对于通过上下旋转第二设备以控制第一设备中目标应用的显示界面上下移动的情况,控制第二设备以垂直于地球表面的角度转动,获取第二设备的当前姿态信息(第一方向);之后,将第一方向对应的向量绕x轴向第二设备的屏幕内侧旋转90度,得到第二方向。第二方向为指向第一设备的屏幕的方向,进而根据第二方向可以控制第一设备中目标应用的显示界面上下移动。
在本实施例中,可以根据第一设备的坐标系和第二设备的坐标系,设定预设的转换关系,并根据预设的转换关系,对第一方向进行转换得到第二方向,进而可以实现通过旋转第二设备控制第一设备中显示界面的移动。并且,本实施例不需要进行复杂的坐标系转换,即可将第二设备的旋转方向转换为第一设备中的显示界面的实际旋转方向,数据复杂度低,响应速度快。
在步骤S2200之后,执行步骤S2300,根据第二方向调整第一设备中目标应用的显示界面。
根据本公开实施例,在第一设备运行目标应用的情况下,确定第二设备的当前朝向,并将第二设备的当前朝向进行转换,以根据转换后的方向调整第一设备中目标应用的显示界面。这样,本公开实施例可以将第二设备的旋转方向转换为第一设备中的显示界面的实际旋转方向,以实现利用第二设备对第一设备的显示界面的控制,提高第一设备的显示界面的控制的便捷性,进而提升第一设备的使用体验。再者,不容易受到现有设备的硬件限制,不需要借助外部配件,可以实现对第一设备的显示界面的控制,适用范围更广。
在一个实施例中,在根据第二方向调整第一设备中目标应用的显示界面之后,该方法还可以包括:根据第二方向,生成并显示虚拟标识,其中,虚拟标识沿第二方向延伸并指向目标应用的显示界面。
虚拟标识可以是虚拟射线。在具体实施时,在第一设备中显示画面中以预设起点沿第二方向生成虚拟射线,该虚拟射线指向目标应用的显示界面。其中,预设起点可以是在第一设备的显示画面中对应用户头部的位置。
在本实施例中,在根据第二设备的第一方向转换得到第二方向之后,根据第二方向生成并显示虚拟标识,这样,用户可以直观得观察到第二设备的朝向,方便用户通过第二设备对第一设备的显示界面进行控制,用户体验更好。
在一个实施例中,在根据第二方向,生成并显示虚拟标识之后,该方法还可以包括:根据虚拟标识与目标应用的显示界面的交点,确定目标对象;接收第二设备发送的控制指令;执行控制指令针对目标对象所触发的交互事件。
在本实施例中,目标对象可以是目标应用的显示界面中用户选择的、所要触发的对象。目标对象可以根据虚拟标识(虚拟射线)与目标应用的显示界面的交点的位置进行确定。
控制指令可以是用户通过第二设备触发的。示例性地,第二设备上安装有用于控制第一设备的应用程序,用户可以触发应用程序的显示界面的目标触控区域,以生成控制指令,并将控制指令发送至第一设备,以使第一设备执行该控制指令针对目标对象所触发的交互事件。该交互事件例如可以是选择输入、视频播放输入、视频暂停输入等。
在本实施例中,根据虚拟标识与目标应用的显示界面的交点,确定目标对象,并在接收到第二设备发送的控制指令时,执行控制指令针对目标对象所触发的交互事件,这样,利用第二设备可以实现对第一设备的目标应用的操作,丰富了第二设备的功能,进一步提升第一设备使用的便捷性。
<装置实施例>
本公开实施例提供了一种交互装置,如图6所示,该交互装置600可以包括获取模块601、转换模块602和调整模块603。
获取模块601,用于在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,当前姿态信息用于表征第二设备的第一方向,第一方向为第二设备的朝向。
转换模块602,用于将第一方向进行转换,得到第二方向。
调整模块603,用于根据第二方向调整第一设备中目标应用的显示界面。
在一个实施例中,该获取模块601,包括:获取单元,用于获取第二设备的姿态变化信息和初始姿态信息,其中,所述初始姿态信息用于表征所述第二设备处于预设的初始方向的姿态信息,所述姿态变化信息用于表征所述第二设备相对于所述初始方向的变化的姿态信息;确定单元,用于根据所述姿态变化信息和所述初始姿态信息,确定所述当前姿态信息。
在一个实施例中,该转换模块602,具体用于根据预设的转换关系,对所述第一方向进行转换,得到所述第二方向;其中,所述预设的转换关系为处于使用状态的所述第一设备的坐标系与处于使用状态所述的第二设备的坐标系之间的对应关系。
在一个实施例中,所述装置还包括:生成模块,用于根据所述第二方向,生成并显示虚拟标识,其中,所述虚拟标识沿所述第二方向延伸并指向所述目标应用的显示界面。
在一个实施例中,所述装置还包括:确定模块,用于根据所述虚拟标识与所述目标应用的显示界面的交点,确定目标对象;接收模块,用于接收所述第二设备发送的控制指令;执行模块,用于执行所述控制指令针对所述目标对象所触发的交互事件。
根据本公开实施例提供的交互装置,在第一设备运行目标应用的情况下,确定第二设备的当前朝向,并将第二设备的当前朝向进行转换,以根据转换后的方向调整第一设备中目标应用的显示界面。这样,本公开实施例可以将第二设备的旋转方向转换为第一设备中的显示界面的实际旋转方向,以实现利用第二设备对第一设备的显示界面的控制,提高第一设备的显示界面的控制的便捷性,进而提升第一设备的使用体验。再者,不容易受到现有设备的硬件限制,不需要借助外部配件,可以实现对第一设备的显示界面的控制,适用范围更广。
<设备实施例>
图7是根据一个实施例的近眼显示设备的硬件结构示意图。如图7所示,该近眼显示设备700包括存储器701、处理器702和通信模块703。
该存储器701可以用于存储可执行的计算机指令。
该处理器702可以用于根据所述可执行的计算机指令的控制,执行根据本公开方法实施例所述的交互方法。
通信模块,用于与其他电子设备建立通信连接。
在一个实施例中,该近眼显示设备例如可以是VR眼镜、AR眼镜及MR眼镜等。其他电子设备例如可以是手机、便携式电脑、平板电脑、掌上电脑、可穿戴设备等。
在另外的实施例中,该近眼显示设备700可以包括以上交互装置600。
在一个实施例中,以上交互装置600的各模块可以通过处理器702运行存储器701中存储的计算机指令实现。
根据本公开实施例,在近眼显示设备运行目标应用的情况下,该近眼显示设备可以与其他电子设备建立通信连接,以获取表征其他电子设备的当前朝向的当前姿态信息,并其他电子设备的当前朝向进行转换,以根据转换后的方向调整近眼显示设备中目标应用的显示界面。这样,本公开实施例提供的近眼显示设备,可以将其他电子设备的旋转方向转换为近眼显示设备中的显示界面的实际旋转方向,以实现利用其他电子设备对近眼显示设备的显示界面的控制,提高近眼显示设备的显示界面的控制的便捷性,进而提升近眼显示设备备的使用体验。再者,不容易受到现有近眼显示设备的硬件限制,不需要借助外部配件,可以实现对近眼显示设备的显示界面的控制,适用范围更广。
<计算机可读存储介质>
本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令被处理器运行时执行本公开实施例提供的交互方法。
本公开实施例可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开实施例的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开实施例操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开实施例的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开实施例的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人物来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人物来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人物能理解本文披露的各实施例。本公开实施例的范围由所附权利要求来限定。
Claims (10)
1.一种交互方法,其特征在于,包括:
在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,所述当前姿态信息用于表征所述第二设备的第一方向,所述第一方向为所述第二设备的朝向;
将所述第一方向进行转换,得到第二方向;
根据所述第二方向调整所述第一设备中所述目标应用的显示界面。
2.根据权利要求1所述的方法,其特征在于,所述获取第二设备的当前姿态信息,包括:
获取第二设备的姿态变化信息和初始姿态信息,其中,所述初始姿态信息用于表征所述第二设备处于预设的初始方向的姿态信息,所述姿态变化信息用于表征所述第二设备相对于所述初始方向的变化的姿态信息;
根据所述姿态变化信息和所述初始姿态信息,确定所述当前姿态信息。
3.根据权利要求1所述的方法,其特征在于,所述将所述第一方向进行转换,得到第二方向,包括:
根据预设的转换关系,对所述第一方向进行转换,得到所述第二方向;
其中,所述预设的转换关系为处于使用状态的所述第一设备的坐标系与处于使用状态所述的第二设备的坐标系之间的对应关系。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第二方向调整所述第一设备中所述目标应用的显示界面之后,所述方法还包括:
根据所述第二方向,生成并显示虚拟标识,其中,所述虚拟标识沿所述第二方向延伸并指向所述目标应用的显示界面。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第二方向,生成并显示虚拟标识之后,所述方法还包括:
根据所述虚拟标识与所述目标应用的显示界面的交点,确定目标对象;
接收所述第二设备发送的控制指令;
执行所述控制指令针对所述目标对象所触发的交互事件。
6.一种交互装置,其特征在于,包括:
获取模块,用于在第一设备运行目标应用的情况下,获取第二设备的当前姿态信息,其中,所述当前姿态信息用于表征所述第二设备的第一方向,所述第一方向为所述第二设备的朝向;
转换模块,用于将所述第一方向进行转换,得到第二方向;
调整模块,用于根据所述第二方向调整所述第一设备中所述目标应用的显示界面。
7.根据权利要求6所述的装置,其特征在于,所述转换模块,具体用于:
根据预设的转换关系,对所述第一方向进行转换,得到所述第二方向;
其中,所述预设的转换关系为处于使用状态的所述第一设备的坐标系与处于使用状态所述的第二设备的坐标系之间的对应关系。
8.根据权利要求6所述的装置,其特征在于,所述装置还包括:
生成模块,用于根据所述第二方向,生成并显示虚拟标识,其中,所述虚拟标识沿所述第二方向延伸并指向所述目标应用的显示界面。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
确定模块,用于根据所述虚拟标识与所述目标应用的显示界面的交点,确定目标对象;
接收模块,用于接收所述第二设备发送的控制指令;
执行模块,用于执行所述控制指令针对所述目标对象所触发的交互事件。
10.一种近眼显示设备,其特征在于,包括通信模块,所述近眼显示设备还包括:
存储器,用于存储可执行的计算机指令;
处理器,用于根据所述可执行的计算机指令的控制,执行根据权利要求1-5中任意一项所述的交互方法;
其中,所述通信模块,用于与其他电子设备建立通信连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203828.8A CN115617164A (zh) | 2022-09-29 | 2022-09-29 | 交互方法、装置和近眼显示设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211203828.8A CN115617164A (zh) | 2022-09-29 | 2022-09-29 | 交互方法、装置和近眼显示设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115617164A true CN115617164A (zh) | 2023-01-17 |
Family
ID=84860185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211203828.8A Pending CN115617164A (zh) | 2022-09-29 | 2022-09-29 | 交互方法、装置和近眼显示设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115617164A (zh) |
-
2022
- 2022-09-29 CN CN202211203828.8A patent/CN115617164A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3314371B1 (en) | System for tracking a handheld device in an augmented and/or virtual reality environment | |
JP7030854B2 (ja) | 仮想現実システム内の仮想コントローラの位置および向きの追跡 | |
US10635259B2 (en) | Location globe in virtual reality | |
US11430192B2 (en) | Placement and manipulation of objects in augmented reality environment | |
KR20180032005A (ko) | 컨텐츠와 연관된 네비게이터 표시 방법 및 이를 구현한 전자 장치 | |
CN109992111B (zh) | 增强现实扩展方法和电子设备 | |
JP2017004356A (ja) | 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置 | |
CN110794962A (zh) | 一种信息融合方法、装置、终端及存储介质 | |
CN110192169B (zh) | 虚拟场景中菜单处理方法、装置及存储介质 | |
CN114564106B (zh) | 交互指示线的确定方法、装置、电子设备及存储介质 | |
WO2024066756A1 (zh) | 交互方法、装置和显示设备 | |
CN115191006B (zh) | 用于所显示的2d元素的3d模型 | |
CN117130518A (zh) | 控件显示方法、头显设备、电子设备及可读存储介质 | |
CN115617164A (zh) | 交互方法、装置和近眼显示设备 | |
CN115480639A (zh) | 人机交互系统、人机交互方法、可穿戴设备及头显设备 | |
CN115576419A (zh) | 交互方法、装置、终端设备和计算机可读存储介质 | |
CN114116081A (zh) | 交互式动态流体效果处理方法、装置及电子设备 | |
WO2024131405A1 (zh) | 对象移动控制方法、装置、设备及介质 | |
CN117555419A (zh) | 控制方法、装置、头戴显示设备及介质 | |
US20230405475A1 (en) | Shooting method, apparatus, device and medium based on virtual reality space | |
US20240153211A1 (en) | Methods, apparatuses, terminals and storage media for display control based on extended reality | |
US20230419630A1 (en) | Information processing method and apparatus, and electronic device | |
CN115981544A (zh) | 基于扩展现实的交互方法、装置、电子设备和存储介质 | |
CN117636528A (zh) | 基于虚拟现实空间的投票处理方法、装置、设备及介质 | |
CN115494947A (zh) | 交互方法、装置、近眼显示设备和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |