CN106502501A - 指标定位方法及装置 - Google Patents
指标定位方法及装置 Download PDFInfo
- Publication number
- CN106502501A CN106502501A CN201610930488.7A CN201610930488A CN106502501A CN 106502501 A CN106502501 A CN 106502501A CN 201610930488 A CN201610930488 A CN 201610930488A CN 106502501 A CN106502501 A CN 106502501A
- Authority
- CN
- China
- Prior art keywords
- display
- position data
- display format
- data
- target position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例提供指标定位方法及装置。在一个实施例中,所述方法包括:获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式;获取当前指标原始定位的原始位置数据;以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据;以及以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。能够使显示的指标与所述画面一直,提高用户体验。
Description
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种指标定位方法及装置。
背景技术
由于人的左眼与右眼之间的间距(如一般相距65mm),由此导致左眼和右眼看到的景象会有差异,这种差异就是所谓的“双目视差”。人类利用双目视差感知立体视觉效果,这也是沉浸式视觉的理论基础,包括虚拟现实(vr),裸眼3D,红蓝3D显示等都是基于人眼的双目视差来形成立体效果,给人以沉浸感。3D显示可以使显示的场景和物体具有深度的感觉,给人以身临其境的感觉。但是,目前用于3D显示指标的定位仍然是2D显示条件下的交互定位方式,导致指标的定位和3D画面有一定的偏差,使交互定位和立体画面没有对应一致而产生偏差,影响用户的交互体验。
发明内容
有鉴于此,本发明实施例的目的在于提供一种指标定位方法及装置。
本发明实施例提供的一种指标定位方法,应用于显示终端,所述显示终端的显示模式包括沉浸式视觉显示模式,该方法包括:
获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式;
获取当前指标原始定位的原始位置数据;
以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据;以及
以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。
优选地,所述显示格式包括预设的第一类显示格式及第二类显示格式,所述第一类显示格式包括左右显示模式及上下显示模式,所述第二类显示格式包括右左显示模式及下上显示模式,所述根据所述显示格式对应的指定计算规则计算得到目标位置数据的步骤包括:
若所述显示格式为第一类显示格式,以所述原始位置数据及绝对视差数据为参数根据第一计算规则计算得到目标位置数据;
若所述显示格式为第二类显示格式,以所述原始位置数据及绝对视差数据为参数根据第二计算规则计算得到目标位置数据。
优选地,所述第一计算规则为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表所述绝对视差数据,(x’,y’)代表所述目标位置数据。
优选地,所述第二计算规则为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表绝对视差数据,(x’,y’)代表所述目标位置数据。
优选地,所述当前指标的定位包括鼠标定位、触摸屏触点定位、VRGazePointer按键定位。
本发明实施例还提供一种指标定位装置,应用于显示终端,所述显示终端的显示模式包括沉浸式视觉显示模式,该装置包括:
数据获取模块,用于获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式;
原始定位获取模块,用于获取当前指标原始定位的原始位置数据;
计算模块,用于以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据;以及
赋值模块,用于以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。
优选地,所述显示格式包括预设的第一类显示格式及第二类显示格式,所述第一类显示格式包括左右显示模式及上下显示模式,所述第二类显示格式包括右左显示模式及下上显示模式,所述计算模块包括:
第一计算单元,用于若所述显示格式为第一类显示格式,以所述原始位置数据及绝对视差数据为参数根据第一计算规则计算得到目标位置数据;
第二计算单元,用于若所述显示格式为第二类显示格式,以所述原始位置数据及绝对视差数据为参数根据第二计算规则计算得到目标位置数据。
优选地,所述第一计算规则为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表所述绝对视差数据,(x’,y’)代表所述目标位置数据。
优选地,所述第二计算规则为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表绝对视差数据,(x’,y’)代表所述目标位置数据。
优选地,所述当前指标的定位包括鼠标定位、触摸屏触点定位、VRGazePointer按键定位。
与现有技术相比,本发明的实施例的指标定位方法及装置。通过对指标的定位数据进行重新计算,用新的定位数据进行赋值,用新的定位数据进行显示,使交互定位和立体画面一致,提高用户的交互体验。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明较佳实施例提供的显示终端的方框示意图。
图2为本发明较佳实施例提供的指标定位装置的功能模块示意图。
图3为本发明较佳实施例提供的指标定位方法的流程图。
图4为本发明实施例提供的一个实例中的2D模式下的显示及交互示意图。
图5为一个现有技术中的沉浸式视觉显示及交互示意图。
图6为本发明实施例提供的一个实例中的沉浸式视觉显示及交互示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
如图1所示,是所述显示终端100的方框示意图。所述显示终端100包括指标定位装置110、存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116。
所述存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述指标定位装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器中或固化在所述显示终端100设备的操作系统(operating system,OS)中的软件功能模块。所述处理器用于执行存储器中存储的可执行模块,例如指标定位装置110包括的软件功能模块或计算机程序。
其中,存储器111可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,前述本发明实施例任一实施例揭示的流过程定义的显示终端100所执行的方法可以应用于处理器中,或者由处理器113实现。
处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述外设接口114将各种输入/输入装置耦合至处理器以及存储器。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
输入输出单元115用于提供给用户输入数据实现用户与所述显示终端100的交互。所述输入输出单元可以是,但不限于,鼠标和键盘等。
显示单元116在所述显示终端100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
如图2所示,图2为本发明较佳实施例提供的指标定位装置110的功能模块示意图。所述指标定位装置110用于实现沉浸式视觉显示模式中对交互指标的重新定位。所述沉浸式显示模式包括VR显示、裸眼3D显示等。为了实现上述功能,本实施例中,所述指标定位装置110包括数据获取模块1101、原始定位获取模块1102、计算模块1103及赋值模块1104等多个软件功能模块。进一步地,所述计算模块1103包括第一计算单元11031及第二计算单元11032。
以下将结合图3的流程图的描述对上述所述指标定位装置110包括的各功能模块进行详细描述。
请参阅图3,是本发明较佳实施例提供的应用于图1所示的显示终端100的指标定位方法的流程图。所述显示终端的显示模式包括沉浸式视觉显示模式,下面将对图3所示的具体流程进行详细阐述。
步骤S101,获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式。
所述沉浸式视觉显示为利用双目视差感知立体视觉效果的显示,包括虚拟现实(VR,Virtual Reality)显示,裸眼3D显示,红蓝3D显示等。所述VR显示,裸眼3D显示,红蓝3D显示都是基于人眼的双目视差来形成立体效果,给人以沉浸感。
本实施例中,所述绝对视差数据及显示格式可以存储在所述显示终端100的存储器111中。所述绝对视差为2D显示画面进行重排后使画面形成的多层画面不重叠的视差。
在一个实例中,本实施例中的方法应用于3D游戏中的交互中的指标的定位。所述当前指标的定位可以是鼠标定位、触摸屏触点定位、VRGazePointer按键定位中任意一种。
步骤S102,获取当前指标原始定位的原始位置数据。
如图4所示,图4为本发明提供的一个实例中的2D模式下的显示及交互示意图。图中示出了在一个实例中的2D模式下的第一显示画面300。第一显示界面300中包括:第一视点310、第二视点320及当前指标330。本实施例中的所述当前指标330的原始定位为使用2D显示下的定位方式下的定位。在一个实例中,若所述当前指标在图4所示的位置,则所述原始定位数据为图中位置对应的横纵坐标。
步骤S103,以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据。
本实施中,所述显示格式包括预设的第一类显示格式及第二类显示格式,所述第一类显示格式包括左右显示模式及上下显示模式,所述第二类显示格式包括右左显示模式及下上显示模式。
由于当前指标原始定位的原始位置数据是使用2D显示下的定位方式下的定位得到的数据,然而3D显示的画面为对2D显示画面进行了重排的显示画面。在一个实例中,如图5所示,图5为一个现有技术中的沉浸式视觉显示及交互示意图。详细地,所述步骤S103具体包括:若所述显示格式为第一类显示格式,以所述原始位置数据及绝对视差数据为参数根据第一计算规则计算得到目标位置数据。如图5所示,为一个现有技术中的沉浸式视觉显示及交互示意图。图中示出了在一个实例中的沉浸式视觉显示模式下的第二显示画面400。第二显示界面400包括:第一视点410、第二视点420及当前指标430。图中显示的当前指标430的位置为现有技术中使用2D显示下的定位方式下的定位得到当前指标的位置。第一视点410与第二视点420形成了绝对视差,导致当前指标430不在实际显示画面的中间。
若所述显示格式为第二类显示格式,以所述原始位置数据及绝对视差数据为参数根据第二计算规则计算得到目标位置数据。
由于在第一类显示格式与第二显示格式中,重排画面的偏移方向不一样,因此本实施例中分别提供了第一计算规则及第二计算规则。
本实施例中,所述第一计算规则可为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表所述绝对视差数据,(x’,y’)代表所述目标位置数据。其中floor(△x/2)是以像素为单位对△x/2进行取整。
所述第二计算规则可为x’=x+floor(△x/2),y’=y,其中(x,y)代表所述原始位置数据,(△x,△y)代表绝对视差数据,(x’,y’)代表所述目标位置数据。其中floor(Δx/2)是以像素为单位对Δx/2进行取整。
步骤S104,以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。
在一实例中,如图6所示,图6为本发明实施例提供的一个实例中的沉浸式视觉显示及交互示意图。图6中示出了本实施例的执行方法后的当前指标在画面中显示的位置。图中的第二显示界面400包括:第一视点410、第二视点420及当前指标440。与图5相比较,所示当前指标440向第一视点410与第二视点420的中心偏移。
根据上述实施例提供的技术方案,通过对指标的定位数据进行重新计算,用新的定位数据进行赋值,用新的定位数据进行显示,使交互定位和立体画面一致,提高用户的交互体验。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种指标定位方法,应用于显示终端,所述显示终端的显示模式包括沉浸式视觉显示模式,其特征在于,该方法包括:
获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式;
获取当前指标原始定位的原始位置数据;
以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据;以及
以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。
2.如权利要求1所述的指标定位方法,其特征在于,所述显示格式包括预设的第一类显示格式及第二类显示格式,所述第一类显示格式包括左右显示模式及上下显示模式,所述第二类显示格式包括右左显示模式及下上显示模式,所述根据所述显示格式对应的指定计算规则计算得到目标位置数据的步骤包括:
若所述显示格式为第一类显示格式,以所述原始位置数据及绝对视差数据为参数根据第一计算规则计算得到目标位置数据;
若所述显示格式为第二类显示格式,以所述原始位置数据及绝对视差数据为参数根据第二计算规则计算得到目标位置数据。
3.如权利要求2所述的指标定位方法,其特征在于,所述第一计算规则为x’=x+floor(△x/2),y’=y,其中(x,y)代表所述原始位置数据,(△x,△y)代表所述绝对视差数据,(x’,y’)代表所述目标位置数据。
4.如权利要求2所述的指标定位方法,其特征在于,所述第二计算规则为x’=x+floor(△x/2),y’=y,其中(x,y)代表所述原始位置数据,(△x,△y)代表绝对视差数据,(x’,y’)代表所述目标位置数据。
5.如权利要求1-4任意一项所述的指标定位方法,其特征在于,所述当前指标的定位包括鼠标定位、触摸屏触点定位、VR GazePointer按键定位。
6.一种指标定位装置,应用于显示终端,所述显示终端的显示模式包括沉浸式视觉显示模式,其特征在于,该装置包括:
数据获取模块,用于获取沉浸式视觉显示模式的显示画面的绝对视差数据及显示格式;
原始定位获取模块,用于获取当前指标原始定位的原始位置数据;
计算模块,用于以所述原始位置数据及绝对视差数据为参数,根据所述显示格式对应的指定计算规则计算得到目标位置数据;以及
赋值模块,用于以所述目标位置数据对当前指标进行赋值,并在所述沉浸式视觉显示模式的显示画面中显示所述当前指标。
7.如权利要求6所述的指标定位装置,其特征在于,所述显示格式包括预设的第一类显示格式及第二类显示格式,所述第一类显示格式包括左右显示模式及上下显示模式,所述第二类显示格式包括右左显示模式及下上显示模式,所述计算模块包括:
第一计算单元,用于若所述显示格式为第一类显示格式,以所述原始位置数据及绝对视差数据为参数根据第一计算规则计算得到目标位置数据;
第二计算单元,用于若所述显示格式为第二类显示格式,以所述原始位置数据及绝对视差数据为参数根据第二计算规则计算得到目标位置数据。
8.如权利要求7所述的指标定位装置,其特征在于,所述第一计算规则为y′=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表所述绝对视差数据,(x’,y’)代表所述目标位置数据。
9.如权利要求7所述的指标定位装置,其特征在于,所述第二计算规则为x’=x+floor(Δx/2),y’=y,其中(x,y)代表所述原始位置数据,(Δx,Δy)代表绝对视差数据,(x’,y’)代表所述目标位置数据。
10.如权利要求6-9任意一项所述的指标定位装置,其特征在于,所述当前指标的定位包括鼠标定位、触摸屏触点定位、VR GazePointer按键定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610930488.7A CN106502501A (zh) | 2016-10-31 | 2016-10-31 | 指标定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610930488.7A CN106502501A (zh) | 2016-10-31 | 2016-10-31 | 指标定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106502501A true CN106502501A (zh) | 2017-03-15 |
Family
ID=58318784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610930488.7A Pending CN106502501A (zh) | 2016-10-31 | 2016-10-31 | 指标定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106502501A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110944222A (zh) * | 2018-09-21 | 2020-03-31 | 上海交通大学 | 沉浸媒体内容随用户移动变化的方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5428723A (en) * | 1992-09-09 | 1995-06-27 | International Business Machines Corporation | Method and apparatus for capturing the motion of an object in motion video |
CN101262619A (zh) * | 2008-03-30 | 2008-09-10 | 深圳华为通信技术有限公司 | 视差获取方法和装置 |
US20080226159A1 (en) * | 2007-03-14 | 2008-09-18 | Korea Electronics Technology Institute | Method and System For Calculating Depth Information of Object in Image |
CN102685369A (zh) * | 2012-04-23 | 2012-09-19 | Tcl集团股份有限公司 | 消除左右眼图像重影的方法、重影消除器及3d播放器 |
CN103096106A (zh) * | 2011-11-01 | 2013-05-08 | 三星电子株式会社 | 图像处理设备和方法 |
-
2016
- 2016-10-31 CN CN201610930488.7A patent/CN106502501A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5428723A (en) * | 1992-09-09 | 1995-06-27 | International Business Machines Corporation | Method and apparatus for capturing the motion of an object in motion video |
US20080226159A1 (en) * | 2007-03-14 | 2008-09-18 | Korea Electronics Technology Institute | Method and System For Calculating Depth Information of Object in Image |
CN101262619A (zh) * | 2008-03-30 | 2008-09-10 | 深圳华为通信技术有限公司 | 视差获取方法和装置 |
CN103096106A (zh) * | 2011-11-01 | 2013-05-08 | 三星电子株式会社 | 图像处理设备和方法 |
CN102685369A (zh) * | 2012-04-23 | 2012-09-19 | Tcl集团股份有限公司 | 消除左右眼图像重影的方法、重影消除器及3d播放器 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110944222A (zh) * | 2018-09-21 | 2020-03-31 | 上海交通大学 | 沉浸媒体内容随用户移动变化的方法及系统 |
CN110944222B (zh) * | 2018-09-21 | 2021-02-12 | 上海交通大学 | 沉浸媒体内容随用户移动变化的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230173026A1 (en) | Method and apparatus for interface control with prompt and feedback | |
EP3035170B1 (en) | Method for displaying interface content and user equipment | |
CN107204044B (zh) | 一种基于虚拟现实的画面显示方法及相关设备 | |
CN103838365A (zh) | 穿透型头部穿戴式显示系统与互动操作方法 | |
US20160119615A1 (en) | Three dimensional data visualization | |
CN104820497A (zh) | 一种基于增强现实的3d交互显示系统 | |
CN105103112A (zh) | 用于操纵显示装置上的对象的取向的设备和方法 | |
US20170003877A1 (en) | Method and device for motion-sensing key positioning | |
US20150235409A1 (en) | Techniques for cut-away stereo content in a stereoscopic display | |
CN105159522A (zh) | 一种虚拟现实显示设备响应外设设备操作的方法 | |
CN108196669A (zh) | 游戏角色模型的修正方法、装置、处理器及头戴式显示设备 | |
CN105183236A (zh) | 一种触屏输入装置与方法 | |
CN104714646A (zh) | 一种基于立体视觉的3d虚拟触控人机交互方法 | |
KR20170115093A (ko) | 정보 처리 시스템 및 프로그램, 서버, 단말, 그리고 매체 | |
JP2020506448A (ja) | 仮想現実シーンにおいてパスワードを入力するための方法およびデバイス | |
CN104598035B (zh) | 基于3d立体图像显示的光标显示方法、智能设备及系统 | |
CN107728868B (zh) | 同步移动页面中的组件的方法、装置和移动终端 | |
CN106502501A (zh) | 指标定位方法及装置 | |
CN106131533A (zh) | 一种图像显示方法和终端 | |
CN107292937A (zh) | 设置地形贴图的方法以及装置 | |
CN104808856A (zh) | 一种模拟触摸屏滑动的方法、装置和一种移动终端 | |
CN106569654A (zh) | 一种虚拟现实界面显示方法及虚拟现实设备 | |
CN104063191B (zh) | 一种信息处理的方法及电子设备 | |
JP2016018363A (ja) | 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム | |
CN104331152B (zh) | 三维影像互动系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170315 |
|
RJ01 | Rejection of invention patent application after publication |