CN112162631B - 一种交互设备、数据处理方法及介质 - Google Patents

一种交互设备、数据处理方法及介质 Download PDF

Info

Publication number
CN112162631B
CN112162631B CN202010985847.5A CN202010985847A CN112162631B CN 112162631 B CN112162631 B CN 112162631B CN 202010985847 A CN202010985847 A CN 202010985847A CN 112162631 B CN112162631 B CN 112162631B
Authority
CN
China
Prior art keywords
target
focus
displayed
display
angle value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010985847.5A
Other languages
English (en)
Other versions
CN112162631A (zh
Inventor
杨彬
高斯太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juhaokan Technology Co Ltd
Original Assignee
Juhaokan Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juhaokan Technology Co Ltd filed Critical Juhaokan Technology Co Ltd
Priority to CN202010985847.5A priority Critical patent/CN112162631B/zh
Publication of CN112162631A publication Critical patent/CN112162631A/zh
Application granted granted Critical
Publication of CN112162631B publication Critical patent/CN112162631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本申请公开了一种交互设备、数据处理方法及介质,用以解决现有通过对焦点的操作实现对显示内容中某一可操作目标的控制不够灵活以及不够准确的问题。在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。

Description

一种交互设备、数据处理方法及介质
技术领域
本申请涉及控制技术领域,尤其涉及一种交互设备、数据处理方法、装置及介质。
背景技术
随着科技的发展,人们对于事物的要求都在逐渐提高,越来越多的人不满足于平面事物展示的形式,因此,增强现实(Augmented Reality,AR)技术以及虚拟现实(VirtualReality,VR)技术也就应运而生。在实际应用过程中,人们可以通过AR设备或者VR设备,使事物展示的形式更加多样化,但由于AR设备以及VR设备无法像如手机、平板等终端一样使用触控屏,且在交互操作设置方面并没有非常通用的标准,导致AR设备以及VR设备与用户之间的交互操作比较复杂,可交互性较差,在用户通过对焦点的操作来选择显示内容中某一可操作目标的场景中显得尤为突出。
目前,当AR设备或VR设备被佩戴上后,通过AR设备或VR设备调整显示窗口,以调整显示窗口中的显示内容。当希望对显示内容中某一可操作目标进行操作时,通过手柄等类似空中鼠标的控制设备,控制该显示窗口中显示光标,并调整光标在显示内容中的位置,当将光标移动到显示内容中某一可操作目标所在的区域上,利用控制设备上的相应按键,来执行该可操作目标对应的操作。
对于上述的方法,由于控制设备一般是手持设备,在悬空拿着该控制设备时,手会不可避免的发生晃动,导致光标也会发生晃动,使得通过对焦点的操作实现对显示内容中某一可操作目标的控制不够准确。此外,当通过控制设备去选择位于显示内容中靠下的区域的可操作目标时,一般需要降低手的位置并将手腕向下弯曲,对用户的操作要求比较高,导致通过对焦点的操作实现对显示内容中某一可操作目标的控制不够灵活。
发明内容
本申请提供了一种交互设备、数据处理方法、装置及介质,用以解决现有通过对焦点的操作实现对显示内容中某一可操作目标的控制不够灵活以及不够准确的问题。
第一方面,本申请提供了一种交互设备,所述交互设备包括:
显示器,所述显示器用于显示;
控制器,所述控制器用于执行:
根据获取到的所述交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面中的显示内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;
接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
第二方面,本申请提供了一种数据处理方法,所述方法包括:
根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;
根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;
接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
第三方面,本申请提供了一种数据处理装置,所述装置包括:
处理单元,用于根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;
第一处理单元,用于根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;
第二处理单元,用于接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
第四方面,本申请提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现如上述所述数据处理方法的步骤。
在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一些实施例提供的一种交互设备的结构示意图;
图2为本申请一些实施例提供的一种AR头盔的显示窗口示意图;
图3为本申请一些实施例提供的再一种AR头盔的显示窗口示意图;
图4为本申请一些实施例提供的再一种AR头盔的显示窗口示意图;
图5为本申请一些实施例提供的具体的交互设备的工作流程示意图;
图6为本申请一些实施例提供的一种数据处理过程示意图;
图7为本申请一些实施例提供的一种数据处理装置的结构示意图。
具体实施方式
为了提高通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性以及灵活性,并提高用户体验,本申请提供了一种交互设备、数据处理方法、装置及介质。
为了使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请作进一步的详细描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在实际使用过程中,用户在头部佩戴上交互设备后,可以通过向交互设备输入开启请求,以控制交互设备开机,即控制交互设备开始运作。其中,用户可以通过点击交互设备上的电源键的按钮,输入开启请求,也可以通过配套的如遥控器、移动终端等控制设备,输入开启请求。当交互设备的控制器接收到开启请求之后,在预设的虚拟界面中确定在显示界面中显示的内容,并控制显示器显示该显示界面。当用户需要对显示界面中某一可操作目标进行控制时,通过旋转交互设备,控制显示窗口中的显示内容进行更新,进而控制在用于显示显示界面的显示窗口中的固定位置显示的焦点,可以指向用户希望控制的可操作目标。当用户确定当前显示窗口中显示的焦点位于用户想要控制的可操作目标对应的操作区域时,可以向交互设备输入确认操作,交互设备的控制器在接收到确认操作之后,当确定焦点位于预设的任一可操作目标对应的操作区域内时,则执行该操作区域对应的可操作目标对应的操作。
图1为本申请一些实施例提供的一种交互设备的结构示意图,所述交互设备包括:
显示器11,所述显示器11用于显示;
控制器12,所述控制器12用于执行:
根据获取到的所述交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;
接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
在本申请中,为了提高通过对焦点的操作实现对显示界面中某一可操作目标的控制的准确性以及灵活性,该交互设备至少包括显示器11和控制器12,控制器12与显示器11相连。通过交互设备上安装的控制器12,可以控制交互设备的显示器11将显示界面进行显示,并可以基于获取到的交互设备的目标运动信息,进行相应的处理,从而对当前显示界面显示的内容进行更新,进而在更新的过程中,调整当前在用于显示显示界面的显示窗口中的固定位置上显示的焦点所指向的内容。当控制器12接收到确认操作后,根据当前显示窗口中在固定位置显示的焦点所指向的内容,进行后续的处理。
其中,显示的内容所组成的界面为显示界面,显示窗口用于显示显示界面。
需要说明的是,该交互设备可以是AR设备,也可以是VR设备,在此不做具体限定。若该交互设备为AR设备,则虚拟界面是根据现实视野信息以及虚拟视野信息确定,若该交互设备为VR设备,则虚拟界面是由虚拟视野信息确定。具体虚拟界面的确定方法属于现有技术,在此不做赘述。
具体实施过程中,控制器12可以获取交互设备的目标运动信息,根据获取到的交互设备的目标运动信息,进行相应的处理,确定显示界面对应的目标偏移方向以及目标偏移角度值。根据确定的目标偏移方向、目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对显示界面中显示的内容进行更新。
在本申请中,为了方便通过交互设备对焦点进行操作,还预先配置了显示窗口中的某一固定位置为焦点的显示位置,后续该显示窗口中显示界面显示的内容在虚拟界面中的任何位置,若该显示窗口中显示有焦点,则该焦点相对该显示窗口中的显示位置固定,从而可以通过更新显示界面中显示的内容,控制该焦点可以指向不同的内容。其中,该固定位置可以是显示窗口的中心位置、左上角位置等任一位置处,具体实施过程中,可以根据需求进行灵活设置。
在上述的实施例中,用户可以通过交互设备控制显示界面中显示的内容的更新,以控制焦点指向不同的内容,从而实现控制焦点指向用户希望控制的可操作目标所在的区域中。当用户确定当前焦点位于某一可操作目标所在的区域后,可以向交互设备输入确认操作。交互设备的控制器12接收到用户输入的确认操作,则判断当前显示窗口中的焦点是否位于可操作目标对应的操作区域内,从而确定用户是否希望对当前焦点所指向的内容进行控制。
具体的,控制器12接收到确认操作之后,获取当前显示窗口中焦点所指向的内容在预设的虚拟界面中的目标位置信息,判断该目标位置信息是否位于预设的任一可操作目标对应的操作区域内。若确定当前显示窗口中焦点在显示内容中的目标位置信息位于预设的任一可操作目标对应的操作区域内,说明用户希望通过对焦点的操作对焦点当前位于的可操作目标进行控制,则执行该操作区域对应的可操作目标对应的操作。
当然,在实际应用过程中,也有可能出现用户误操作的情况,比如,用户以为当前焦点所指向的内容是可操作的,便输入确认操作。基于此,控制器12接收到确认操作之后,若确定焦点不位于任一可操作目标对应的操作区域内时,则不响应该确认操作。
其中,用户可以通过输入语音指令的方式向交互设备输入确认操作,也可以通过对交互设备上的按钮进行如点击、双击、长按等操作,向交互设备输入确认操作。当然,用户还可以通过对与该交互设备配套的如移动终端、遥控器等控制设备输入确认操作,比如,用户点击遥控器上的按键2,来输入确认操作,由控制设备将接收到确认操作的信息转发至交互设备。具体实施过程中,可以根据实际需求进行灵活设置,在此不作具体限定。
在一种可能的实施方式中,若用户通过与该交互设备配套的如移动终端、遥控器等控制设备输入确认操作,则为了实现交互设备接收到控制设备转发的接收到确认操作的信息,该交互设备上还安装有通信器,该通信器用于与控制设备建立通信连接,以便控制设备可以通过蓝牙、WiFi等通信方式,将接收到用户的操作的信息,比如,接收到开启请求的信息、接收到确认操作的信息等,发送至交互设备的通信器,即发送至交互设备。
在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。
为了实现用户可以对焦点进行操作,在上述实施例的基础上,在本申请中,所述控制器12,还用于执行:
接收所述确认操作之前,若接收到第一触发操作,且所述焦点为未激活状态,则控制所述焦点在所述显示窗口中显示。
由于用户在使用交互设备的过程中,并不是一直都需要对焦点进行操作的,而如果一直将焦点显示在显示窗口上,则可能会影响显示窗口中显示界面的显示效果,从而降低用户的体验。因此,在本申请中,预设有第一触发操作,用户可以在希望对焦点进行操作时,通过该第一触发操作,控制焦点在显示窗口上的固定位置进行显示。其中,该第一触发操作可以是用户输入显示焦点的语音指令的操作,也可以对交互设备上的按钮进行如点击、双击、长按等操作。当然,用户还可以通过对与该交互设备配套的如移动终端、遥控器等控制设备来输入第一触发操作,由控制设备将接收到第一触发操作的信息转发至交互设备。
具体实施过程中,在输入确认操作之前,用户需要输入第一触发操作,控制焦点在显示窗口的固定位置处进行显示。交互设备的控制器12确定接收到第一触发操作之后,获取当前焦点的状态是否为未激活状态,即确定焦点是否在显示窗口中显示。若接收到第一触发操作,且焦点为未激活状态,说明用户当前希望对焦点进行操作,则控制焦点在显示窗口中显示。
进一步地,为了方便对焦点进行准确地控制,在本申请中,当控制焦点在显示窗口中显示之后,对该焦点的状态进行更新,即将焦点的状态从未激活状态更新为激活状态。后续控制器12在接收到第一触发操作时,确定焦点为激活状态,说明焦点已经显示在显示窗口中,则不再执行控制焦点在显示窗口中显示的步骤。
为了避免显示窗口中显示的焦点影响显示界面的显示效果,并降低用户体验,在本申请中,在用户不需要对焦点进行操作时,可以控制该焦点在显示窗口中不显示,并确定不显示在显示窗口中时的焦点的状态为未激活状态,以便后续用户再次希望对焦点进行操作时,可以控制焦点在显示窗口中显示。具体的,所述控制器12,还用于执行:
控制所述焦点在所述显示窗口中显示之后,若接收到第二触发操作,则控制所述焦点在所述显示窗口中不显示,并将所述焦点的状态更新为未激活状态。
在本申请中,预设有第二触发操作,以便用户在不希望对显示窗口中显示的焦点进行操作时,可以通过第二触发操作控制焦点在显示窗口中不显示。该第二触发操作可以是用户输入显示焦点的语音指令的操作,也可以对交互设备上的按钮进行如点击、双击、长按等操作。当然,用户还可以通过对与该交互设备配套的如移动终端、遥控器等控制设备来输入第二触发操作,由控制设备将接收到第二触发操作的信息转发至交互设备。
具体实施过程中,当控制器12控制所述焦点在所述显示窗口中显示之后,若接收到第二触发操作,说明用户当前不希望对焦点进行操作了,则控制焦点在显示窗口中不显示,并为了方便用户可以再次控制焦点在显示窗口中显示,将该焦点的状态更新为未激活状态。
需要说明的时,在本申请中,第一触发操作可以与第二触发操作相同,比如,均为对遥控器上的按键1的点击操作。若第一触发操作与第二触发操作相同,则可以根据焦点的状态,对接收到的触发操作(包括第一触发操作或第二触发操作)进行区分。具体的,在接收到触发操作时,若焦点为激活状态,即焦点显示在显示窗口中,说明用户不希望对焦点进行操作了,则控制焦点在显示窗口中不显示,并将该焦点的状态更新为未激活状态;若焦点为未激活状态,即焦点未显示在显示窗口中,说明用户希望对焦点进行操作,则控制焦点在显示窗口中显示,并将该焦点的状态更新为激活状态。
例如,第一触发操作和第二触发操作均为用户对遥控器上的按键1进行的点击操作,当交互设备的控制器12通过通信器接收到遥控器发送的接收到触发操作的信息时,确定当前焦点的状态,若该焦点为未激活状态,说明用户希望对焦点进行操作,则控制焦点在显示窗口中显示,并将该焦点的状态更新为激活状态;若该焦点为激活状态,说明用户不希望对焦点进行操作了,则控制焦点在显示窗口中不显示,并将该焦点的状态更新为未激活状态。
为了提高用户对交互设备控制的准确性,在上述各实施例的基础上,在本申请中,所述交互设备还包括:
测量器,所述测量器用于测量所述交互设备在所述第二位置时与预设初始位置的旋转角度;
所述控制器12,还用于执行:
获取所述测量器测量的所述旋转角度,并获取缓存的所述交互设备在所述第一位置时与所述预设初始位置的历史旋转角度;获取所述旋转角度与所述历史旋转角度的角度差;根据所述角度差的正负,确定所述目标旋转方向,并根据所述角度差的值,确定所述目标旋转角度值。
为了可以根据交互设备的目标运动信息,对当前显示界面中显示的内容进行准确地更新,目标运动信息包括交互设备从第一位置旋转到第二位置的目标旋转方向以及目标旋转角度值。其中,第一位置为交互设备在上一预设的周期时交互设备所在的位置,第二位置为当前周期交互设备所在的位置。当基于上述实施例获取到交互设备的目标运动信息之后,根据该目标运动信息包括的目标旋转方向以及目标旋转角度值,确定显示窗口对应的目标偏移方向以及目标偏移角度值,从而根据确定的目标偏移方向以及目标偏移角度值,控制显示窗口进行移动。
为了获取到交互设备的目标运动信息,该交互设备上安装有用于测量交互设备转动到第二位置时与预设初始位置的旋转角度的测量器。该测量器可以为传感器,也可以为陀螺仪等。具体实施中,可以根据需求进行灵活设置,在此不作具体限定。基于该测量器测量的旋转角度,控制器12进行相应的处理,获取交互设备的目标运动信息,即获取交互设备的目标旋转方向以及目标旋转角度值。
在实际应用场景中,交互设备主要是在三自由度上进行运动的,即用户在控制该交互设备运动时,该交互设备的俯仰角、偏航角、以及横滚角均会发生变化。因此,为了可以进一步地准确地确定交互设备的目标运动信息,在本申请中,测量器测量的旋转角度信息也是三自由度的,比如3Dof数据,即该旋转角度包括俯仰角度、横滚角度、以及偏航角度。后续控制器12获取测量器测量的交互设备在第二位置时与预设初始位置的旋转角度中包括横滚角度、俯仰角度、以及偏航角度,缓存的交互设备在第一位置时与预设初始位置的历史旋转角度也包括历史横滚角度、历史俯仰角度、以及历史偏航角度。在获取旋转角度与历史旋转角度的角度差时,分别获取横滚角度与历史横滚角度的目标横滚差、俯仰角度与历史俯仰角度的目标俯仰差、以及偏航角度与历史偏航角度的目标偏航差。
根据预先保存的横滚差的正负与横滚旋转方向的关系,确定目标横滚差对应的目标横滚旋转方向,并将目标横滚差的值确定为目标横滚旋转角度值,根据预先保存的俯仰差的正负与俯仰旋转方向的关系,确定目标俯仰差对应的目标俯仰旋转方向,并将目标俯仰差的值确定为目标俯仰旋转角度值,根据预先保存的偏航差的正负与偏航旋转方向的关系,确定目标偏航差对应的目标偏航旋转方向,并将目标偏航差的值确定为目标偏航旋转角度值。根据目标横滚旋转方向、目标俯仰旋转方向、以及目标偏航旋转方向,确定目标旋转方向,并根据目标横滚旋转角度值、目标俯仰旋转角度值、以及目标偏航旋转角度值,确定目标旋转角度值。
比如,获取的目标横滚差为-45度,目标偏航差以及目标俯仰差均为+30度,根据预先保存的横滚差的正负与横滚旋转方向的关系,确定目标横滚差-45度对应的目标横滚旋转方向为第一方向,并直接将45度确定为目标横滚旋转角度值;根据预先保存的俯仰差的正负与俯仰旋转方向的关系,确定目标俯仰差+30度对应的目标俯仰旋转方向为第四方向,并将30度确定为目标俯仰旋转角度值;根据预先保存的偏航差的正负与偏航旋转方向的关系,确定目标偏航差+30度对应的目标偏航旋转方向为第六方向,并将30度确定为目标偏航旋转角度值。根据第一方向45度、第四方向30度、以及第六方向30度,确定目标旋转方向以及目标旋转角度值。
需要说明的是,预设初始位置可以是出厂设置的,也可以是在交互设备每次开机时确定的。比如,在交互设备每次开机时,将交互设备上两个显示器11之间的中心点所在的平面确定为交互设备的坐标系中X轴与Y轴所在的平面,并将该中心点确定为X轴与Y轴的原点,Z轴则从该中心点垂直于X轴与Y轴所在的平面,并指向远离用户一侧的方向,根据当前确定的交互设备的坐标系,从而确定预设初始位置。此外,在交互设备开机时,可以在该Z轴的设定距离处绘制焦点。比如,设定距离为5,则沿着该Z轴的方向,在(0,0,5)的位置处将焦点绘制出来。
当基于上述实施例获取到交互设备的目标运动信息之后,基于获取到的目标运动信息中包括的目标旋转方向以及目标旋转角度值,确定显示窗口对应的目标偏移角度值以及目标偏移角度值。具体的,所述控制器12,用于执行:
根据预先保存的旋转方向与偏移方向的对应关系,确定所述目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度值与偏移角度值的对应关系,确定所述目标旋转角度值对应的目标偏移角度值。
在本申请中,为了准确地对显示界面中显示的内容进行更新,进而调整显示窗口中的焦点所指向的内容,预先保存了旋转方向与偏移方向的对应关系,以及旋转角度值与偏移角度值的对应关系。当基于上述实施例获取到交互设备的目标运动信息之后,即获取到交互设备的目标旋转方向以及目标旋转角度值之后,根据预先保存的旋转方向与偏移方向的对应关系,确定目标旋转方向对应的目标偏移方向,根据预先保存的旋转角度值与偏移角度值的对应关系,确定目标旋转角度值对应的目标偏移角度值。
具体的,为了确定目标偏移方向以及目标偏移角度值,预先保存了横滚旋转方向与第一偏移方向的对应关系、俯仰旋转方向与第二偏移方向的对应关系、以及偏航旋转方向与第三偏移方向的对应关系,并预先保存了横滚旋转角度值与第一偏移角度值的对应关系、俯仰旋转角度值与第二偏移角度值的对应关系、以及偏航旋转角度值与第三偏移角度值的对应关系。
当基于上述实施例获取到目标横滚旋转方向及其对应的目标横滚旋转角度值、目标俯仰旋转方向及其对应的目标俯仰旋转角度值、以及目标偏航旋转方向及其对应的目标偏航旋转角度值之后,根据横滚旋转方向与第一偏移方向的对应关系,确定目标横滚旋转方向对应的目标第一偏移方向,并根据横滚旋转角度值与第一偏移角度值的对应关系,确定目标横滚旋转角度值对应的目标第一偏移角度值;根据俯仰旋转方向与第二偏移方向的对应关系,确定目标俯仰旋转方向对应的目标第二偏移方向,并根据俯仰旋转角度值与第二偏移角度值的对应关系,确定目标俯仰旋转角度值对应的目标第二偏移角度值;根据偏航旋转方向与第三偏移方向的对应关系,确定目标偏航旋转方向对应的目标第三偏移方向,并根据偏航旋转角度值与第三偏移角度值的对应关系,确定目标偏航旋转角度值对应的目标第三偏移角度值。根据目标第一偏移方向、目标第二偏移方向、以及目标第三偏移方向,确定目标偏移方向,并根据目标第一偏移角度值、目标第二偏移角度值、以及目标第三偏移角度值,确定目标偏移角度值。
后续控制器12根据上述确定的目标偏移角度值、目标偏移方向以及当前显示界面中显示的内容在预设的虚拟界面中的位置信息,对当前显示界面中显示的内容进行更新,从而实现调整显示窗口中在固定位置显示的焦点所指向的内容。
图2为本申请一些实施例提供的一种AR头盔的显示窗口示意图。如图2所示,当用户直视前方时,AR头盔的显示器上显示的显示界面所显示的内容为预设的虚拟界面中正中心位置处的子虚拟界面中的内容。其中,由于AR头盔使用的是增强现实技术,该子虚拟界面中的内容包括虚拟视野信息以及现实视野信息中的至少一种。其中,图2所示的虚拟界面中虚线所在区域中的内容为现实视野信息,虚拟界面中除虚线所在区域之外的区域中的内容为虚拟视野信息。在图2中显示窗口的中心位置a为预先配置的用于显示焦点的固定位置。
当用户佩戴AR头盔从直视前方向朝图2中虚拟界面的左上方运动时,该AR头盔的位置会发生变化,AR头盔根据获取到的AR头盔的目标运动信息,确定当前显示界面对应的目标偏移方向,以及目标偏移角度值,根据目标偏移方向、目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,将虚拟界面中左上方的子虚拟界面中的内容对当前显示界面中的显示内容进行更新。图3为本申请一些实施例提供的再一种AR头盔的显示窗口示意图。如图3所示,根据AR头盔的目标运动信息,确定了当前显示界面对应的目标偏移方向以及目标偏移角度值。根据目标偏移方向、目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,将虚拟界面中左上方的子虚拟界面中的内容对当前显示界面中的显示内容进行更新。由于本申请中焦点在显示窗口中的固定位置显示,因此,当对当前显示界面中显示的内容进行更新后,该焦点仍显示在显示窗口的中心位置a’处。
为了方便用户及时了解到当前焦点所指向的内容,并提高用户的交互感,在上述实施例的基础上,在本申请中,所述控制器12,还用于执行:
控制所述显示器11在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,并根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器11中显示的虚拟交互设备进行旋转,并控制所述显示器11中显示所述虚拟交互设备的设定位置到所述焦点的射线。
为了增加显示内容的多样性,并提高用户的交互感,在本申请中,控制器12在显示窗口中绘制了用户的交互设备对应的虚拟交互设备,并控制显示器11显示该虚拟交互设备。同时,控制器12还可以根据交互设备的目标旋转方向以及目标旋转角度值,控制显示器11中显示的虚拟交互设备进行旋转,从而保证用户在显示器11中看到的虚拟交互设备的旋转方向以及旋转的角度值,分别与交互设备的目标旋转方向以及目标旋转角度值一致。
需要说明的是,无论显示界面中显示的内容在虚拟界面中的何种位置,虚拟交互设备在显示窗口中的显示位置也是固定的,为了避免显示的虚拟头盔对显示的焦点遮挡,该虚拟交互设备在显示窗口上的位置与焦点在显示窗口上的位置不同。比如,焦点显示在显示窗口中的中心区域,虚拟交互设备显示在显示窗口中的下方的中央区域中。
进一步地,为了增加显示内容的多样性,方便用户确定焦点所指向的内容,并提高用户的交互感,在本申请中,控制器12还可以在显示内容中绘制一条从虚拟交互设备的设定位置到焦点的射线。用户可以根据该射线,确定当前焦点所指向的内容,从而可以准确地对该焦点进行操作。
其中,控制器12可以通过物理引擎的方式,在显示内容中绘制一条从虚拟交互设备的设定位置处到绘制的焦点的射线,并根据显示内容中该射线中焦点是否与任一可操作目标对应的碰撞盒发生碰撞,即确定显示内容中该射线中焦点的目标位置信息是否位于预设的任一可操作目标对应的操作区域内,从而确定是否用户当前通过焦点选择的可操作目标。
图4为本申请一些实施例提供的再一种AR头盔的显示窗口示意图。如图4所示,在显示窗口所显示的显示内容中显示有AR头盔对应的虚拟头盔,当用户佩戴AR头盔看向图4的左上方时,该AR头盔的位置会发生变化,AR头盔根据获取到的目标运动信息中的目标旋转方向以及目标旋转角度值,控制当前显示窗口中显示的虚拟头盔进行旋转,从而实现虚拟头盔可以跟随AR头盔的移动而旋转。同时为了方便用户及时了解到当前焦点所指向的内容,并提高用户的交互感,在该显示内容中显示有虚拟头盔的设定位置到焦点的射线,用户根据显示窗口中显示的射线的指向,即可确定焦点所指向的内容,而AR头盔的控制器12可以通过该射线与哪一个可操作目标对应的碰撞盒发生碰撞,确定焦点所指向的内容。其中,该射线还可以表示预设的AR头盔的坐标系中Z轴的指向。
下面通过具体的实施例对本申请提供的一种交互设备的具体工作过程进行详细说明:
图5为本申请一些实施例提供的具体的交互设备的工作流程示意图,该流程包括:
S501:交互设备的控制器12当接收到开启请求,在预设的虚拟界面中确定在显示界面中显示的内容,并控制显示器11显示该显示界面。
S502:交互设备的控制器12当接收到遥控器发送的用户点击按键1的信息后,判断当前焦点是否为未激活状态,若是,则执行S503,否则,执行S510。
S503:交互设备的控制器12控制该焦点在该显示窗口中显示,并确定显示器11显示的显示窗口中显示有焦点。
S504:交互设备的控制器12获取交互设备的测量器测量的该交互设备在第二位置与该预设初始位置的旋转角度,并获取缓存的该交互设备在第一位置与预设初始位置的历史旋转角度。
S505:交互设备的控制器12获取该旋转角度与该历史旋转角度的角度差。
S506:交互设备的控制器12根据该角度差的正负,确定该目标旋转方向,并根据该角度差的值,确定该目标旋转角度值。
S507:交互设备的控制器12根据预先保存的旋转方向与偏移方向的对应关系,确定该目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度值与偏移角度值的对应关系,确定该目标旋转角度值对应的目标偏移角度值。
S508:交互设备的控制器12根据该目标偏移方向、该目标偏移角度值以及当前显示窗口中显示的内容在虚拟界面中的位置信息,对当前显示界面中显示的内容进行更新。
S509:交互设备的控制器12接收到遥控器发送的用户点击按键2的信息,若焦点位于预设的可操作目标对应的操作区域内,则执行该焦点位于的可操作目标对应的操作;若焦点不位于预设的可操作目标对应的操作区域内,则不响应该点击按键2的操作。
S510:交互设备的控制器12控制该焦点在该显示窗口中不显示,并将该焦点的状态更新为未激活状态。
本申请还提供可一种数据处理方法,图6为本申请一些实施例提供的一种数据处理过程示意图,该过程包括:
S601:根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值。
S602:根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点。
S603:接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
本申请提供的数据处理方法应用于交互设备,该交互设备可以为AR设备、也可以是VR设备。
在某些可能的实施方式中,所述接收所述确认操作之前,所述方法还包括:
若接收到第一触发操作,且所述焦点为未激活状态,则控制所述焦点在所述显示窗口中显示。
在某些可能的实施方式中,所述控制所述焦点在所述显示窗口中显示之后,所述方法还包括:
若接收到第二触发操作,则控制所述焦点在所述显示窗口中不显示,并将所述焦点的状态更新为未激活状态。
在某些可能的实施方式中,所述目标运动信息包括所述交互设备从第一位置旋转到第二位置的目标旋转方向以及目标旋转角度值。
在某些可能的实施方式中,获取所述目标运动信息包括:
获取测量的所述交互设备在所述第二位置时与预设初始位置的旋转角度,并获取缓存的所述交互设备在所述第一位置时与所述预设初始位置的历史旋转角度;
获取所述旋转角度与所述历史旋转角度的角度差;
根据所述角度差的正负,确定所述目标旋转方向,并根据所述角度差的值,确定所述目标旋转角度值。
在某些可能的实施方式中,所述旋转角度包括俯仰角度、横滚角度以及偏航角度。
在某些可能的实施方式中,所述根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值,包括:
根据预先保存的旋转方向与偏移方向的对应关系,确定所述目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度与偏移角度值的对应关系,确定所述目标旋转角度值对应的目标偏移角度值。
在某些可能的实施方式中,所述方法还包括:
控制所述交互设备的显示器在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,并根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器中显示的虚拟交互设备进行旋转,并控制所述显示器中显示所述虚拟交互设备的设定位置到所述焦点的射线。
在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。
本申请还提供可一种数据处理装置,图7为本申请一些实施例提供的一种数据处理装置的结构示意图,该装置包括:
处理单元71,用于根据获取到的所述交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值。
第一处理单元72,用于根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点。
第二处理单元73,用于接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
在某些可能的实施方式中,所述处理单元71,还用于接收所述确认操作之前,若接收到第一触发操作,且所述焦点为未激活状态,则控制所述焦点在所述显示窗口中显示。
在某些可能的实施方式中,所述处理单元71,还用于控制所述焦点在所述显示窗口中显示之后,若接收到第二触发操作,则控制所述焦点在所述显示窗口中不显示,并将所述焦点的状态更新为未激活状态。
在某些可能的实施方式中,所述处理单元71,具体用于获取测量的所述交互设备在所述第二位置时与预设初始位置的旋转角度,并获取缓存的所述交互设备在所述第一位置时与所述预设初始位置的历史旋转角度;获取所述旋转角度与所述历史旋转角度的角度差;根据所述角度差的正负,确定所述目标旋转方向,并根据所述角度差的值,确定所述目标旋转角度值。
在某些可能的实施方式中,所述处理单元71,具体用于根据预先保存的旋转方向与偏移方向的对应关系,确定所述目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度与偏移角度值的对应关系,确定所述目标旋转角度值对应的目标偏移角度值。
在某些可能的实施方式中,所述处理单元71,还用于控制所述交互设备的显示器在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,并根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器中显示的虚拟交互设备进行旋转,并控制所述显示器中显示所述虚拟交互设备的设定位置到所述焦点的射线。
在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。
在上述各实施例的基础上,本申请还提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有可由处理器执行的计算机程序,当所述程序在所述处理器上运行时,使得所述处理器执行时实现如下步骤:
根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;
根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;
接收确认操作,当所述焦点位于可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于可操作目标对应的操作区域内时,不响应所述确认操作。
在某些可能的实施方式中,所述接收所述确认操作之前,所述方法还包括:
若接收到第一触发操作,且所述焦点为未激活状态,则控制所述焦点在所述显示窗口中显示。
在某些可能的实施方式中,所述控制所述焦点在所述显示窗口中显示之后,所述方法还包括:
若接收到第二触发操作,则控制所述焦点在所述显示窗口中不显示,并将所述焦点的状态更新为未激活状态。
在某些可能的实施方式中,所述目标运动信息包括所述交互设备从第一位置旋转到第二位置的目标旋转方向以及目标旋转角度值。
在某些可能的实施方式中,获取所述目标运动信息包括:
获取测量的所述交互设备在所述第二位置时与预设初始位置的旋转角度,并获取缓存的所述交互设备在所述第一位置时与所述预设初始位置的历史旋转角度;
获取所述旋转角度与所述历史旋转角度的角度差;
根据所述角度差的正负,确定所述目标旋转方向,并根据所述角度差的值,确定所述目标旋转角度值。
在某些可能的实施方式中,所述旋转角度包括俯仰角度、横滚角度以及偏航角度。
在某些可能的实施方式中,所述根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值,包括:
根据预先保存的旋转方向与偏移方向的对应关系,确定所述目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度与偏移角度值的对应关系,确定所述目标旋转角度值对应的目标偏移角度值。
在某些可能的实施方式中,所述方法还包括:
控制所述交互设备的显示器在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,并根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器中显示的虚拟交互设备进行旋转,并控制所述显示器中显示所述虚拟交互设备的设定位置到所述焦点的射线。
在本申请中,由于用户通过头部控制交互设备运动时比较稳定,且用于显示该显示界面的显示窗口中的固定位置显示有焦点,用户可以稳定地控制交互设备对当前显示界面显示的内容进行更新,并在显示的内容进行更新的过程中,还可以准确地控制在显示窗口中固定位置显示的焦点所指向的内容,从而有利于用户准确地控制焦点移动到用户希望操作的可操作目标对应的操作区域内,提高了用户通过对焦点的操作实现对显示内容中某一可操作目标的控制的准确性、灵活性,并降低用户的操作难度。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (8)

1.一种交互设备,其特征在于,所述交互设备包括:
显示器,所述显示器用于显示;
控制器,所述控制器用于执行:
根据获取到的所述交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;所述目标运动信息包括所述交互设备从第一位置旋转到第二位置的目标旋转方向以及目标旋转角度值;
控制所述显示器在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器中显示的虚拟交互设备进行旋转,并控制所述显示器中显示所述虚拟交互设备的设定位置到所述焦点的射线;
接收确认操作,根据显示内容中所述射线中焦点是否与任一可操作目标对应的碰撞盒发生碰撞,判断所述射线中焦点是否位于预设的任一可操作目标对应的操作区域内;当所述焦点位于预设的任一可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于预设的任一可操作目标对应的操作区域内时,不响应所述确认操作。
2.根据权利要求1所述的交互设备,其特征在于,所述控制器,还用于执行:
接收所述确认操作之前,若接收到第一触发操作,且所述焦点为未激活状态,则控制所述焦点在所述显示窗口中显示。
3.根据权利要求2所述的交互设备,其特征在于,所述控制器,还用于执行:
控制所述焦点在所述显示窗口中显示之后,若接收到第二触发操作,则控制所述焦点在所述显示窗口中不显示,并将所述焦点的状态更新为未激活状态。
4.根据权利要求1所述的交互设备,其特征在于,所述交互设备还包括:
测量器,所述测量器用于测量所述交互设备在所述第二位置时与预设初始位置的旋转角度;
所述控制器,还用于执行:
获取所述测量器测量的所述旋转角度,并获取缓存的所述交互设备在所述第一位置时与所述预设初始位置的历史旋转角度;获取所述旋转角度与所述历史旋转角度的角度差;根据所述角度差的正负,确定所述目标旋转方向,并根据所述角度差的值,确定所述目标旋转角度值。
5.根据权利要求4所述的交互设备,其特征在于,所述旋转角度包括俯仰角度、横滚角度以及偏航角度。
6.根据权利要求1-5任一所述的交互设备,其特征在于,所述控制器,用于执行:
根据预先保存的旋转方向与偏移方向的对应关系,确定所述目标旋转方向对应的目标偏移方向,并根据预先保存的旋转角度值与偏移角度值的对应关系,确定所述目标旋转角度值对应的目标偏移角度值。
7.一种数据处理方法,其特征在于,所述方法包括:
根据获取到的交互设备的目标运动信息,确定当前显示界面对应的目标偏移方向以及目标偏移角度值;
根据所述目标偏移方向、所述目标偏移角度值以及当前显示界面显示的内容在预设的虚拟界面中的位置信息,对当前显示界面显示的内容进行更新,其中,用于显示所述显示界面的显示窗口中的固定位置显示有焦点;所述目标运动信息包括所述交互设备从第一位置旋转到第二位置的目标旋转方向以及目标旋转角度值;
控制显示器在显示的显示窗口中显示所述交互设备对应的虚拟交互设备,根据所述交互设备的目标旋转方向以及目标旋转角度值,控制所述显示器中显示的虚拟交互设备进行旋转,并控制所述显示器中显示所述虚拟交互设备的设定位置到所述焦点的射线;
接收确认操作,根据显示内容中所述射线中焦点是否与任一可操作目标对应的碰撞盒发生碰撞,判断所述射线中焦点是否位于预设的任一可操作目标对应的操作区域内;当所述焦点位于预设的任一可操作目标对应的操作区域内时,执行所述操作区域对应的可操作目标对应的操作;当所述焦点不位于预设的任一可操作目标对应的操作区域内时,不响应所述确认操作。
8.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求7中所述数据处理方法的步骤。
CN202010985847.5A 2020-09-18 2020-09-18 一种交互设备、数据处理方法及介质 Active CN112162631B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010985847.5A CN112162631B (zh) 2020-09-18 2020-09-18 一种交互设备、数据处理方法及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010985847.5A CN112162631B (zh) 2020-09-18 2020-09-18 一种交互设备、数据处理方法及介质

Publications (2)

Publication Number Publication Date
CN112162631A CN112162631A (zh) 2021-01-01
CN112162631B true CN112162631B (zh) 2023-05-16

Family

ID=73858249

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010985847.5A Active CN112162631B (zh) 2020-09-18 2020-09-18 一种交互设备、数据处理方法及介质

Country Status (1)

Country Link
CN (1) CN112162631B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105892636A (zh) * 2015-11-20 2016-08-24 乐视致新电子科技(天津)有限公司 一种应用于头戴设备的控制方法及头戴设备
CN106201207A (zh) * 2016-07-13 2016-12-07 上海乐相科技有限公司 一种虚拟现实交互方法及装置
CN106412563A (zh) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 一种图像显示方法以及装置
CN107077297A (zh) * 2014-11-11 2017-08-18 高通股份有限公司 用于基于手指压力和方向来控制光标的系统和方法
CN107340870A (zh) * 2017-07-13 2017-11-10 深圳市未来感知科技有限公司 一种融合vr和ar的虚拟现实展示系统及其实现方法
WO2018006280A1 (zh) * 2016-07-05 2018-01-11 深圳动三帝虚拟现实互动科技有限公司 页面切换方法、装置、终端以及存储介质
CN108205197A (zh) * 2016-12-19 2018-06-26 精工爱普生株式会社 显示装置和显示装置的控制方法
CN108388347A (zh) * 2018-03-15 2018-08-10 网易(杭州)网络有限公司 虚拟现实中的交互控制方法和装置及存储介质、终端
CN109937394A (zh) * 2016-10-04 2019-06-25 脸谱公司 用于虚拟空间中的用户交互的控件和界面
CN110209276A (zh) * 2019-05-28 2019-09-06 网易(杭州)网络有限公司 虚拟现实中的对象选择方法及装置、电子设备、存储介质
CN110780788A (zh) * 2019-10-24 2020-02-11 田敏 一种执行触控操作的方法与设备

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077297A (zh) * 2014-11-11 2017-08-18 高通股份有限公司 用于基于手指压力和方向来控制光标的系统和方法
CN105892636A (zh) * 2015-11-20 2016-08-24 乐视致新电子科技(天津)有限公司 一种应用于头戴设备的控制方法及头戴设备
WO2018006280A1 (zh) * 2016-07-05 2018-01-11 深圳动三帝虚拟现实互动科技有限公司 页面切换方法、装置、终端以及存储介质
CN106201207A (zh) * 2016-07-13 2016-12-07 上海乐相科技有限公司 一种虚拟现实交互方法及装置
CN106412563A (zh) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 一种图像显示方法以及装置
CN109937394A (zh) * 2016-10-04 2019-06-25 脸谱公司 用于虚拟空间中的用户交互的控件和界面
CN108205197A (zh) * 2016-12-19 2018-06-26 精工爱普生株式会社 显示装置和显示装置的控制方法
CN107340870A (zh) * 2017-07-13 2017-11-10 深圳市未来感知科技有限公司 一种融合vr和ar的虚拟现实展示系统及其实现方法
CN108388347A (zh) * 2018-03-15 2018-08-10 网易(杭州)网络有限公司 虚拟现实中的交互控制方法和装置及存储介质、终端
CN110209276A (zh) * 2019-05-28 2019-09-06 网易(杭州)网络有限公司 虚拟现实中的对象选择方法及装置、电子设备、存储介质
CN110780788A (zh) * 2019-10-24 2020-02-11 田敏 一种执行触控操作的方法与设备

Also Published As

Publication number Publication date
CN112162631A (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
CN107913520B (zh) 信息处理方法、装置、电子设备及存储介质
EP3250983B1 (en) Method and system for receiving gesture input via virtual control objects
CN110603509B (zh) 计算机介导的现实环境中直接和间接交互的联合
US10429925B2 (en) Head-mounted display, information processing device, display control method, and program
CN108536374B (zh) 虚拟对象方向控制方法及装置、电子设备、存储介质
US9950258B2 (en) System, program, and method for operating screen by linking display and plurality of controllers connected via network
EP1779226B1 (en) Method and system for controlling a display
US20160334884A1 (en) Remote Sensitivity Adjustment in an Interactive Display System
US11960635B2 (en) Virtual object display device and virtual object display method
CN112817453A (zh) 虚拟现实设备和虚拟现实场景中物体的视线跟随方法
CN103200304A (zh) 一种移动终端智能光标控制系统及方法
WO2020149270A1 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
JP6360509B2 (ja) 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置
JP2013246708A (ja) 表示制御システム、表示制御方法、表示制御装置及び表示制御プログラム
CN110780738A (zh) 虚拟现实拟真行走方法、装置、设备及可读存储介质
CN112162631B (zh) 一种交互设备、数据处理方法及介质
CN113413585B (zh) 头戴显示设备的交互方法、装置和电子设备
CN107957781B (zh) 信息显示方法及装置
JP7287172B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP6435940B2 (ja) ロボット操作装置、及びロボット操作プログラム
WO2020166140A1 (ja) ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム
CN113760085A (zh) 虚拟环境构建和应用方法、vr设备及虚拟现实交互系统
JP2017021466A (ja) ユーザ入力支援のためのコンピュータ・プログラム
CN112445328A (zh) 映射控制方法及装置
JP2023184238A (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant