CN108227968B - 光标控制方法和装置 - Google Patents

光标控制方法和装置 Download PDF

Info

Publication number
CN108227968B
CN108227968B CN201810131989.8A CN201810131989A CN108227968B CN 108227968 B CN108227968 B CN 108227968B CN 201810131989 A CN201810131989 A CN 201810131989A CN 108227968 B CN108227968 B CN 108227968B
Authority
CN
China
Prior art keywords
cursor
control
coordinates
coordinate
sensing area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810131989.8A
Other languages
English (en)
Other versions
CN108227968A (zh
Inventor
林行
蒋露
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ke Technology
Original Assignee
Ke Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ke Technology filed Critical Ke Technology
Priority to CN201810131989.8A priority Critical patent/CN108227968B/zh
Publication of CN108227968A publication Critical patent/CN108227968A/zh
Application granted granted Critical
Publication of CN108227968B publication Critical patent/CN108227968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本申请涉及一种光标控制方法和装置。其中方法包括:检测在感应区域上控制物的悬停操作或者触摸操作;根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;将控制指令发送给头戴式显示设备,以使头戴式显示设备从控制指令中获取坐标信息,将光标显示在虚拟控制面的光标坐标所指示的位置处。

Description

光标控制方法和装置
技术领域
本申请涉及光标控制技术领域,尤其涉及一种光标控制方法和装置。
背景技术
基于虚拟现实(Virtual Reality,VR)技术的头戴式显示器,可以使佩戴者看到一个三维虚拟世界。基于增强现实(Augmented Reality,AR)技术的头戴式显示器,可以使佩戴者看到一个虚拟世界与现实世界的组合世界。
在对以上所列举的头戴式显示器所显示的虚拟世界进行光标控制时,一般可以采用如下两种方式:其一是,通过按键遥控器实现光标的控制,这种传统的遥控器控制方式,只能通过上、下、左、右按键控制光标的移动,大多需要经过多次按键操作,才能控制光标移动到目标位置,操作不便。其二是,在头戴式显示设备中设置加速度传感器,佩戴者的头部移动时,加速度传感器感应佩戴者的视点的位置变化,根据视点瞄准的位置,控制光标的移动,这种相对定位的控制方式,通常是依赖加速度传感器对空间位置进行累积计算,确定视点的相对位移,来控制光标移动,在快速运动或者长时间使用后,会因采样精度等原因出现位置漂移,光标定位的准确度降低。
发明内容
为至少在一定程度上克服相关技术中存在的问题,本申请提供一种光标控制方法和装置。
根据本申请实施例的第一方面,提供一种光标控制方法,包括:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,当所述坐标信息为所述光标坐标时,所述方法还包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述方法还包括:
检测所述控制物在所述感应区域上产生的触摸按压操作,并在检测到所述触摸按压操作后,向所述头戴式显示设备发送光标选中指令;以及,
检测所述控制物在所述感应区域上产生的抬起操作,并在检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令。
较佳地,所述抬起操作包括:
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应区域的上方;或者,
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应区域上。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
较佳地,所述控制物包括:
手指,或者,触摸笔。
根据本申请实施例的第二方面,提供一种光标控制方法,包括:
接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,所述根据所述坐标信息确定光标坐标,包括:
当所述控制指令中包含的坐标信息为控制点的坐标时,根据所述控制点的坐标确定所述光标坐标;或者,
当所述控制指令中包含的坐标信息为光标坐标时,直接将所述坐标信息确定为光标坐标。
较佳地,根据所述控制点的坐标确定所述光标坐标,包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述方法还包括:
接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的,根据所述光标选中指令,控制选中光标;以及,
接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的,根据所述光标释放指令,控制释放光标。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
根据本申请实施例的第三方面,提供一种光标控制装置,包括:
检测模块,用于检测在感应区域上的控制物的悬停操作或者触摸操作;
生成模块,用于根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
发送模块,用于将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,当所述坐标信息为所述光标坐标时,所述生成模块,还用于:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述检测模块,还用于检测所述控制物在所述感应区域上产生的触摸按压操作;所述发送模块,还用于在所述检测模块检测到所述触摸按压操作后,向所述头戴式显示设备发送光标选中指令;以及,
所述检测模块,还用于检测所述控制物在所述感应区域上产生的抬起操作;所述发送模块,还用于在所述检测模块检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令。
较佳地,所述抬起操作包括:
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应区域的上方;或者,
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应区域上。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
较佳地,所述控制物包括:
手指,或者,触摸笔。
根据本申请实施例的第四方面,提供一种光标控制装置,包括:
接收模块,用于接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
确定模块,用于从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
控制模块,用于将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,根据坐标信息确定光标坐标时,所述确定模块,具体用于:
当所述控制指令中包含的坐标信息为控制点的坐标时,根据所述控制点的坐标确定所述光标坐标;或者,
当所述控制指令中包含的坐标信息为光标坐标时,直接将所述坐标信息确定为光标坐标。
较佳地,根据所述控制点的坐标确定所述光标坐标时,所述确定模块,具体用于:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述接收模块,还用于接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的;所述控制模块,还用于根据所述光标选中指令,控制选中光标;以及,
所述接收模块,还用于接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的;所述控制模块,还用于根据所述光标释放指令,控制释放光标。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
根据本申请实施例的第五方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由控制器的处理器执行时,使得控制器侧能够执行一种光标控制方法,所述方法包括:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,当所述坐标信息为所述光标坐标时,所述方法还包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述方法还包括:
检测所述控制物在所述感应区域上产生的触摸按压操作,并在检测到所述触摸按压操作后,向所述头戴式显示设备发送光标选中指令;以及,
检测所述控制物在所述感应区域上产生的抬起操作,并在检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令。
较佳地,所述抬起操作包括:
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应区域的上方;或者,
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应区域上。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
较佳地,所述控制物包括:
手指,或者,触摸笔。
根据本申请实施例的第六方面,提供一种光标控制装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,当所述坐标信息为所述光标坐标时,所述处理器还被配置为:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述处理器还被配置为:
检测所述控制物在所述感应区域上产生的触摸按压操作,并在检测到所述触摸按压操作后,向所述头戴式显示设备发送光标选中指令;以及,
检测所述控制物在所述感应区域上产生的抬起操作,并在检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令。
较佳地,所述抬起操作包括:
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应区域的上方;或者,
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应区域上。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
较佳地,所述控制物包括:
手指,或者,触摸笔。
根据本申请实施例的第七方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由头戴式显示设备的处理器执行时,使得头戴式显示设备侧能够执行一种光标控制方法,所述方法包括:
接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,所述根据所述坐标信息确定光标坐标,包括:
当所述控制指令中包含的坐标信息为控制点的坐标时,根据所述控制点的坐标确定所述光标坐标;或者,
当所述控制指令中包含的坐标信息为光标坐标时,直接将所述坐标信息确定为光标坐标。
较佳地,根据所述控制点的坐标确定所述光标坐标,包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述方法还包括:
接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的,根据所述光标选中指令,控制选中光标;以及,
接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的,根据所述光标释放指令,控制释放光标。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
根据本申请实施例的第八方面,提供一种光标控制装置,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:
接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处。
较佳地,根据所述坐标信息确定光标坐标时,所述处理器,具体被配置为:
当所述控制指令中包含的坐标信息为控制点的坐标时,根据所述控制点的坐标确定所述光标坐标;或者,
当所述控制指令中包含的坐标信息为光标坐标时,直接将所述坐标信息确定为光标坐标。
较佳地,根据所述控制点的坐标确定所述光标坐标时,所述处理器,具体被配置为:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
较佳地,所述处理器还被配置为:
接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的,根据所述光标选中指令,控制选中光标;以及,
接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的,根据所述光标释放指令,控制释放光标。
较佳地,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
本申请的实施例提供的技术方案可以包括以下有益效果:
由于控制物的悬停操作或者触摸操作所针对的控制点的坐标是感应区域所在的第一坐标系内的坐标,因此控制点的坐标是绝对坐标,又因为光标坐标是根据预设映射模式和控制点的坐标得到的,由于映射模式和控制点的坐标都是绝对参数,所以光标坐标也是绝对坐标,与相关技术中的相对定位相比,光标定位的准确度更高。基于此,每个绝对的控制点的坐标都对应得到一个绝对的光标坐标,所以当控制点的坐标发生改变时,相应的,光标坐标也随之发生改变,又由于控制物可以随意从感应区域上的一个位置移动到另一个位置,所以控制物的控制点的坐标也随着控制物的随意移动而发生改变,相应的,光标坐标也随着控制点的坐标改变而改变,因此,当控制物在感应区域上方移动时,相应的,在头戴式显示设备所显示的虚拟控制面上,光标也随着控制物的移动从虚拟控制面的一个位置移动到另一个位置,与相关技术中遥控器的按键操作定位相比,光标定位更加快速便捷。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是本申请一个实施例提供的一种光标控制方法的流程示意图。
图2是本申请一个实施例提供的三维虚拟世界中的视锥体的示意图。
图3是本申请另一个实施例提供的一种光标控制方法的流程示意图。
图4是本申请另一个实施例提供的一种光标控制方法的流程示意图。
图5是本申请一个实施例提供的一种光标控制装置的结构示意图。
图6是本申请另一个实施例提供的一种光标控制装置的结构示意图。
图7是本申请另一个实施例提供的一种光标控制装置的结构示意图。
图8是本申请另一个实施例提供的一种光标控制装置的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
图1是本申请一个实施例提供的光标控制方法的流程图。本实施例以控制器侧的执行为例。参见图1,本实施例的方法可以包括:
步骤110、检测在感应区域上的控制物的悬停操作或者触摸操作。
步骤120、根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式。
本步骤中,上述控制点是指控制物的悬停操作或者触摸操作所针对的感应区域上的目标点。其中,控制点的检测方式,可以参考相关技术实施。
步骤130、将控制指令发送给头戴式显示设备,以使头戴式显示设备从控制指令中获取坐标信息,并根据坐标信息确定光标坐标,以及,将光标显示在虚拟控制面的光标坐标所指示的位置处。
本实施例的光标控制方法的执行主体可以是控制器,也可以是控制器内的功能模块。
本实施例中,由于控制物的悬停操作或者触摸操作所针对的控制点的坐标是感应区域所在的第一坐标系内的坐标,因此控制点的坐标是绝对坐标,又因为光标坐标是根据预设映射模式和控制点的坐标得到的,由于映射模式和控制点的坐标都是绝对参数,所以光标坐标也是绝对坐标,与相关技术中的相对定位相比,光标定位的准确度更高。基于此,每个绝对的控制点的坐标都对应得到一个绝对的光标坐标,所以当控制点的坐标发生改变时,相应的,光标坐标也随之发生改变,又由于控制物可以随意从感应区域上的一个位置移动到另一个位置,所以控制物的控制点的坐标也随着控制物的随意移动而发生改变,相应的,光标坐标也随着控制点的坐标改变而改变,因此,当控制物在感应区域上方移动时,相应的,在头戴式显示设备所显示的虚拟控制面上,光标也随着控制物的移动从虚拟控制面的一个位置移动到另一个位置,与相关技术中遥控器的按键操作定位相比,光标定位更加快速便捷。
另外,本实施例中,可以通过悬停方式,也可以通过触摸方式控制光标移动。
其中,控制物可以但不限于包括:手指,或者,触摸笔。实施中,可以控制一个光标,相应的,控制物为一个;也可以控制多个光标,相应的,控制物为多个,如此,可以同时控制实现多个操作。
其中,头戴式显示设备可以但不限于包括:VR眼镜、VR一体机和头戴式影院等等。
实际应用场景中,不仅需要控制光标移动,还需要控制光标的选中和释放。基于此,较佳地,本实施例提供的光标控制方法,还可以包括:检测控制物在感应区域上产生的触摸按压操作,并在检测到触摸按压操作后,向显示设备发送光标选中指令;以及,检测控制物在感应区域上产生的抬起操作,并在检测到抬起操作后,向显示设备发送光标释放指令。
其中,抬起操作,可以包括:控制物在感应区域上产生触摸按压操作转换为控制物悬停在感应区域的上方;或者,控制物在感应区域上产生触摸按压操作转换为控制物触摸在感应区域上。
本实施例中,通过触摸按压方式控制光标选中,通过触摸按压相应的抬起操作控制光标释放。
需要说明的是,上述触摸按压操作的压力度大于上述触摸操作的压力度。
上述感应区域可以设置触摸屏,例如,可以设置压力式触摸屏,以检测控制物的触摸、触摸按压。上述感应区域可以设置红外测距或者热感应测距等传感器,以检测控制物的悬停。当然,上述感应区域也可以设置既具有检测触摸功能又具有检测悬停功能的传感器。
当通过触摸按压方式控制光标选中、且通过触摸方式控制光标移动时,由于控制物均需要与感应区域接触,只是触摸按压的力度不同于触摸的力度,使用时,操作更加便捷。
当通过触摸按压方式控制光标选中、且通过悬停方式控制光标移动时,前者需要控制物与感应区域接触,后者不需要与感应区域接触,由于这是两种完全相反的操作,与各种操作均与感应区域接触相比,更加容易区别,光标控制的准确度更高。
上述头戴式显示设备可以显示一个二维虚拟屏幕;或者,也可以基于VR或者AR技术显示一个三维虚拟世界。基于此,虚拟控制面包括:头戴式显示设备所显示的二维虚拟屏幕;或者,头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面。光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
图2是三维虚拟世界中的一个视锥体的示意图。参见图2,以眼睛位置201为基准形成一个视锥体202,虚拟面是视锥体202的部分视锥体203中的一个轴截面204。轴截面204为垂直于视锥体的轴向205的一个截面。从眼睛位置201到光标坐标206形成射线207,沿着射线207的方向、部分视锥体203中第一个与射线207相交的目标208就是上述控制目标。其中,虚拟面的大小可以根据实际需要进行设置。
在头戴式显示设备显示的三维虚拟世界中,以眼睛位置为基准形成的视锥体中包含了眼睛当前位置所有可以看到的目标,眼睛位置移动,视锥体内的目标发生变化,由于虚拟控制面是部分视锥体中的一个轴截面,相应的,在虚拟控制面对应范围内的目标也发生变化,基于此,通过虚拟控制面可以实现对三维虚拟世界的目标的粗略定位,然后通过控制器上检测的控制点的坐标,实现光标的精确定位,光标的定位更加准确,与相关技术相比,移动一次头部,就可以使得多个目标进入虚拟控制面对应的范围,然后通过控制器精确定位,从而减少了头部的移动,控制体验效果更好。
上述映射模式有多种,例如,可以是缩放映射模式,或者,平移映射模式,等等。
以缩放映射模式为例,当坐标信息为光标坐标时,控制器侧的光标控制方法还可以包括:获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;根据缩放映射模式和控制点的坐标,计算得到光标坐标。
其中,缩放系数包括各个数轴的缩放系数。数轴的缩放系数是虚拟控制面的坐标与感应区域的坐标在相同数轴上的最大值的比值。
假设上述感应区域和虚拟控制面均为矩形区域,以感应区域的一个顶点为原点o,以与该原点o相交的两条边为x轴和y轴,建立第一坐标系xoy,第一坐标系中的点的坐标为(x,y),同样以虚拟控制面的一个顶点为原点o’,以与该原点o’相交的两条边为x轴和y轴,建立第二坐标系x’o’y’,第二坐标系中的点的坐标为(x’,y’)。
相应的,上述缩放系数包括x轴的缩放系数Dx和y轴的缩放系数Dy。
其中,Dx是根据感应区域的坐标在第一坐标系的x轴上的最大值Xmax和虚拟控制面的坐标在第二坐标系的x轴上的最大值X’max得到的。其中,Xmax为感应区域在x轴的最大尺寸。X’max为虚拟控制面在x轴的最大尺寸。
其中,Dy是根据感应区域的坐标在第一坐标系的y轴上的最大值Ymax与虚拟控制面的坐标在第二坐标系的y轴上的最大值Y’max得到的。其中,Ymax为感应区域在y轴的最大尺寸。Y’max为虚拟控制面在y轴的最大尺寸。
基于此,根据控制点的坐标(xs,ys)以及如下公式,确定光标坐标:
x’=x*Dx;(1)
y’=y*Dy;(2)
Dx=X’max/Xmax;(3)
Dy=Y’max/Ymax;(4)
将控制点的坐标(xs,ys),代入以上公式(1)~(4)中,得到光标坐标为(x’s,y’s)=(xs*X’max/Xmax,ys*Y’max/Ymax)。
对于矩形的虚拟控制面来说,在x轴的最大尺寸和在y轴的最大尺寸,就是虚拟控制面的长度和宽度。对于矩形的感应区域来说,在x轴的最大尺寸和在y轴的最大尺寸,就是感应区域的长度和宽度。
以上感应区域的长度和宽度,可以在控制器本地存储中,直接在本地获取即可。以上虚拟控制面的长度和宽度,可以通过手动输入获取,也可以在控制器和头戴式显示设备建立通信连接时,从头戴式显示设备获取,以使得控制器可以适应不同尺寸的头戴式显示设备。
考虑到实际应用中,控制器通常为手持遥控设备,结构设计简单、内存较小,运算能力较差,在控制器侧计算上述光标坐标,可能会降低控制器的控制效率,且控制器会发热,因此,最好是在上述控制指令的坐标信息中包含控制点的坐标,发送至头戴式显示设备侧,由头戴式显示设备侧计算光标坐标。相应的,可以在控制器和头戴式显示设备建立通信连接时,将上述感应区域的长度和宽度发送至头戴式显示设备,或者在每次发送控制指令时,在控制指令的坐标信息中包含感应区域的长度和宽度。
图3是本申请另一个实施例提供的光标控制方法的流程示意图。本实施例以头戴式显示设备侧的执行为例。参见图3,本实施例的方法可以包括:
步骤310、接收控制器发送的控制指令,控制指令中包含坐标信息,坐标信息包括:在控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和控制点的光标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式。
本步骤中,上述控制点是指控制物的悬停操作或者触摸操作所针对的感应区域上的目标点。其中,控制点的检测方式,可以参考相关技术实施。
步骤320、从控制指令中获取坐标信息,并根据坐标信息确定光标坐标。
步骤330、将光标显示在虚拟控制面的光标坐标所指示的位置处。
本实施例的光标控制方法的执行主体可以是头戴式显示设备,也可以是头戴式显示设备内的功能模块。
本实施例中,由于控制物的悬停操作或者触摸操作所针对的控制点的坐标是感应区域所在的第一坐标系内的坐标,因此控制点的坐标是绝对坐标,又因为光标坐标是根据预设映射模式和控制点的坐标得到的,由于映射模式和控制点的坐标都是绝对参数,所以光标坐标也是绝对坐标,与相关技术中的相对定位相比,光标定位的准确度更高。基于此,每个绝对的控制点的坐标都对应得到一个绝对的光标坐标,所以当控制点的坐标发生改变时,相应的,光标坐标也随之发生改变,又由于控制物可以随意从感应区域上的一个位置移动到另一个位置,所以控制物的控制点的坐标也随着控制物的随意移动而发生改变,相应的,光标坐标也随着控制点的坐标改变而改变,因此,当控制物在感应区域上方移动时,相应的,在头戴式显示设备所显示的虚拟控制面上,光标也随着控制物的移动从虚拟控制面的一个位置移动到另一个位置,与相关技术中遥控器的按键操作定位相比,光标定位更加快速便捷。
上述步骤320的具体实现方式有多种。较佳地,上述步骤320的具体实现方式可以是:当控制指令中包含的坐标信息为控制点的坐标时,根据控制点的坐标确定光标坐标;或者,当控制指令中包含的坐标信息为光标坐标时,直接将坐标信息确定为光标坐标。
其中,根据控制点的坐标确定光标坐标,具体实现方式可以是:获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;根据缩放映射模式和控制点的坐标,计算得到光标坐标。
其中,根据缩放映射模式和控制点的坐标,计算得到光标坐标的具体实现可以参照以上控制器侧的相关实施例,此处不再赘述。实现时,所涉及的虚拟控制面的长度和宽度,可以在头戴式显示设备本地存储,直接在本地获取即可,所涉及的上述感应区域的长度和宽度,可以通过手动输入获取,也可以在头戴式显示设备与控制器侧建立通信连接时,从控制器侧获取,还可以由控制器侧将感应区域的长度和宽度携带在控制指令中,每次从接收到的控制指令中获取。
一般,头戴式显示设备的运算能力比控制器的运算能力强,本实施例中,在显示设备侧,计算光标坐标的速度更快,控制效率高。
一些实施例中,头戴式显示设备侧的光标控制方法还可以包括:
接收控制器发送的光标选中指令,光标选中指令是控制器在感应到控制物在感应区域上产生的触摸按压操作后产生的,根据光标选中指令,控制选中光标;以及,
接收控制器发送的光标释放指令,光标释放指令是控制器在感应到控制物在感应区域上产生的抬起操作后产生的,根据光标释放指令,控制释放光标。
上述头戴式显示设备可以显示一个二维虚拟屏幕;或者,也可以基于VR或者AR技术显示一个三维虚拟世界。基于此,虚拟控制面包括:头戴式显示设备所显示的二维虚拟屏幕;或者,头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面。光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。其中,视锥体的具体说明可以参见图2的相关实施例,此处不再赘述。
图4是本申请另一个实施例提供的光标控制方法的流程示意图。本实施例以控制器和头戴式显示设备的交互执行为例。
进一步的,对本实施例的具体应用场景说明如下:
本实施例的场景中,包括头戴式显示设备和用于对头戴式显示设备的光标进行控制的控制器。头戴式显示设备为虚拟显示设备,可以显示二维虚拟屏幕,也可以基于VR或者AR技术显示三维虚拟世界,相关技术中对这些虚拟显示的光标控制方案存在各种缺陷,基于此,本实施例提供了相应的一种新的光标控制方案。在本实施例中,控制器包括感应区域,感应区域上可以设置触摸屏,例如压力式触摸屏,检测控制物的触摸,可以设置红外测距或者热感应测距等传感器,检测控制物的悬停。控制物可以具体为手指或者触控笔等。以手指为例,手指可以悬停在感应区域,控制器可以实时检测手指的悬停操作,并得到悬停操作所针对的控制点的坐标;或者,手指还可以触摸在感应区域上,控制器可以实时检测手指的触摸操作,并得到触摸操作的控制点的坐标。本实施例中,头戴式显示设备的虚拟控制面上可以显示一个光标,也可以显示两个以上光标。以在虚拟控制面显示两个光标为例,使用时,可以双手手持控制器,双手的大拇指放在感应区域上方,控制两个光标。
参见图4,本实施例的方法包括:
步骤410、控制器检测在感应区域上的控制物的悬停操作或者触摸操作。
步骤420、控制器根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式。
假设感应区域为矩形区域,第一坐标系xoy以感应区域的左上角为原点o,以与该原点o相交的两条边为x轴和y轴。第一坐标系中的点的坐标为(x,y)。基于此,控制点的坐标为(xs,ys)。
本步骤中,虚拟控制面包括:头戴式显示设备所显示的二维虚拟屏幕;或者,头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面。其中,视锥体的具体说明可以参见图2的相关实施例,此处不再赘述。
本步骤中,当坐标信息为光标坐标时,控制器根据控制点的坐标生成控制指令的过程中,还需要根据预设映射模式和控制点的坐标按照如下步骤得到光标坐标:获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;根据缩放映射模式和控制点的坐标,计算得到光标坐标。具体可以是:
假设虚拟控制面为矩形区域,第二坐标系x’o’y’以虚拟控制面的左上角为原点o’,以与该原点o’相交的两条边为x’轴和y’轴。第二坐标系中的点的坐标为(x’,y’)。
上述缩放系数包括x轴的缩放系数Dx和y轴的缩放系数Dy。
其中,Dx是根据感应区域的坐标在第一坐标系的x轴上的最大值Xmax和虚拟控制面的坐标在第二坐标系的x轴上的最大值X’max得到的。其中,Xmax为感应区域在x轴的最大尺寸。X’max为虚拟控制面在x轴的最大尺寸。
其中,Dy是根据感应区域的坐标在第一坐标系的y轴上的最大值Ymax与虚拟控制面的坐标在第二坐标系的y轴上的最大值Y’max得到的。其中,Ymax为感应区域在y轴的最大尺寸。Y’max为虚拟控制面在y轴的最大尺寸。
对于虚拟控制面来说,在x轴的最大尺寸和在y轴的最大尺寸,就是虚拟控制面的长度和宽度,可以通过手动输入获取,也可以在控制器和头戴式显示设备建立通信连接时,从头戴式显示设备获取。对于感应区域来说,在x轴的最大尺寸和在y轴的最大尺寸,就是感应区域的长度和宽度,可以在控制器本地获取。
基于此,根据控制点的坐标(xs,ys)以及公式(1)~(4),确定光标坐标:将控制点的坐标(xs,ys),代入公式(1)~(4)中,得到光标坐标为(x’s,y’s)=(xs*X’max/Xmax,ys*Y’max/Ymax)。
步骤430、控制器将控制指令发送给头戴式显示设备。
步骤440、头戴式显示设备接收控制器发送的控制指令。
步骤450、头戴式显示设备从控制指令中获取坐标信息,并根据坐标信息确定光标坐标。
本步骤中,根据坐标信息确定光标坐标,可以是:当控制指令中包含的坐标信息为控制点的坐标时,根据控制点的坐标确定光标坐标;或者,当控制指令中包含的坐标信息为光标坐标时,直接将坐标信息确定为光标坐标。
其中,根据控制点的坐标确定光标坐标的实现方式可以是:获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;根据缩放映射模式和控制点的坐标,计算得到光标坐标。
其中,根据缩放映射模式和控制点的坐标,计算得到光标坐标的具体实现可以参照以上步骤420中的相关实施例,此处不再赘述。实现时,所涉及的虚拟控制面的长度和宽度,可以在头戴式显示设备本地存储,直接在本地获取即可,所涉及的上述感应区域的长度和宽度,可以通过手动输入获取,也可以在头戴式显示设备与控制器侧建立通信连接时,从控制器侧获取,还可以由控制器侧将感应区域的长度和宽度携带在控制指令中,每次从接收到的控制指令中获取。
步骤460、头戴式显示设备将光标显示在虚拟控制面的光标坐标所指示的位置处。
步骤470、控制器检测控制物在感应区域上产生的触摸按压操作,并在检测到触摸按压操作后,向头戴式显示设备发送光标选中指令。
步骤480、头戴式显示设备接收控制器发送的光标选中指令。
步骤490、头戴式显示设备根据光标选中指令控制选中光标。
步骤4100、控制器检测控制物在感应区域上产生的抬起操作,并在检测到抬起操作后,向头戴式显示设备发送光标释放指令。
本步骤中,抬起操作,可以包括:控制物在感应区域上产生触摸按压操作转换为控制物悬停在感应区域的上方;或者,控制物在感应区域上产生触摸按压操作转换为控制物触摸在感应区域上。
步骤4110、头戴式显示设备接收控制器发送的光标释放指令。
步骤4120、头戴式显示设备根据光标释放指令控制释放光标。
其中,光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
本实施例中,由于控制物的悬停操作或者触摸操作所针对的控制点的坐标是感应区域所在的第一坐标系内的坐标,因此控制点的坐标是绝对坐标,又因为光标坐标是根据预设映射模式和控制点的坐标得到的,由于映射模式和控制点的坐标都是绝对参数,所以光标坐标也是绝对坐标,与相关技术中的相对定位相比,光标定位的准确度更高。基于此,每个绝对的控制点的坐标都对应得到一个绝对的光标坐标,所以当控制点的坐标发生改变时,相应的,光标坐标也随之发生改变,又由于控制物可以随意从感应区域上的一个位置移动到另一个位置,所以控制物的控制点的坐标也随着控制物的随意移动而发生改变,相应的,光标坐标也随着控制点的坐标改变而改变,因此,当控制物在感应区域上方移动时,相应的,在头戴式显示设备所显示的虚拟控制面上,光标也随着控制物的移动从虚拟控制面的一个位置移动到另一个位置,与相关技术中遥控器的按键操作定位相比,光标定位更加快速便捷。
图5是本申请另一个实施例提供的光标控制装置的结构示意图。参见图4,本实施例的装置包括检测模块501、生成模块502和发送模块503。其中:
检测模块501,用于检测在感应区域上的控制物的悬停操作或者触摸操作;
生成模块502,用于根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
发送模块503,用于将控制指令发送给头戴式显示设备,以使头戴式显示设备从控制指令中获取坐标信息,并根据坐标信息确定光标坐标,以及,将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,当坐标信息为光标坐标时,生成模块502,还用于:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,检测模块501,还用于检测控制物在感应区域上产生的触摸按压操作;发送模块503,还用于在检测模块501检测到触摸按压操作后,向头戴式显示设备发送光标选中指令;以及,
检测模块501,还用于检测控制物在感应区域上产生的抬起操作;发送模块503,还用于在检测模块501检测到抬起操作后,向头戴式显示设备发送光标释放指令。
较佳地,抬起操作包括:
控制物在感应区域上产生触摸按压操作转换为控制物悬停在感应区域的上方;或者,
控制物在感应区域上产生触摸按压操作转换为控制物触摸在感应区域上。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
较佳地,控制物包括:
手指,或者,触摸笔。
图6是本申请另一个实施例提供的光标控制装置的结构示意图。参见图6,本实施例的装置包括接收模块601、确定模块602和控制模块603。其中:
接收模块601,用于接收控制器发送的控制指令,控制指令中包含坐标信息,坐标信息包括:在控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和控制点的光标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
确定模块602,用于从控制指令中获取坐标信息,并根据坐标信息确定光标坐标;
控制模块603,用于将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,根据坐标信息确定光标坐标时,确定模块602,具体用于:
当控制指令中包含的坐标信息为控制点的坐标时,根据控制点的坐标确定光标坐标;或者,
当控制指令中包含的坐标信息为光标坐标时,直接将坐标信息确定为光标坐标。
较佳地,根据控制点的坐标确定光标坐标时,确定模块602,具体用于:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,接收模块601,还用于接收控制器发送的光标选中指令,光标选中指令是控制器在感应到控制物在感应区域上产生的触摸按压操作后产生的;控制模块603,还用于根据光标选中指令,控制选中光标;以及,
接收模块601,还用于接收控制器发送的光标释放指令,光标释放指令是控制器在感应到控制物在感应区域上产生的抬起操作后产生的;控制模块603,还用于根据光标释放指令,控制释放光标。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
本申请一个实施例提供一种非临时性计算机可读存储介质,当存储介质中的指令由控制器的处理器执行时,使得控制器侧能够执行一种光标控制方法,本实施例的方法包括:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
将控制指令发送给头戴式显示设备,以使头戴式显示设备从控制指令中获取坐标信息,并根据坐标信息确定光标坐标,以及,将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,当坐标信息为光标坐标时,本实施例的方法还包括:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,本实施例的方法还包括:
检测控制物在感应区域上产生的触摸按压操作,并在检测到触摸按压操作后,向头戴式显示设备发送光标选中指令;以及,
检测控制物在感应区域上产生的抬起操作,并在检测到抬起操作后,向头戴式显示设备发送光标释放指令。
较佳地,抬起操作包括:
控制物在感应区域上产生触摸按压操作转换为控制物悬停在感应区域的上方;或者,
控制物在感应区域上产生触摸按压操作转换为控制物触摸在感应区域上。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
较佳地,控制物包括:
手指,或者,触摸笔。
本实施例的具体实现方案可以参见上述控制器侧的方法实施例中的相关说明,此处不再赘述。
本申请另一个实施例提供一种非临时性计算机可读存储介质,当存储介质中的指令由头戴式显示设备的处理器执行时,使得头戴式显示设备侧能够执行一种光标控制方法,本实施例的方法包括:
接收控制器发送的控制指令,控制指令中包含坐标信息,坐标信息包括:在控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和控制点的光标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
从控制指令中获取坐标信息,并根据坐标信息确定光标坐标;
将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,根据坐标信息确定光标坐标,包括:
当控制指令中包含的坐标信息为控制点的坐标时,根据控制点的坐标确定光标坐标;或者,
当控制指令中包含的坐标信息为光标坐标时,直接将坐标信息确定为光标坐标。
较佳地,根据控制点的坐标确定光标坐标,包括:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,本实施例的方法还包括:
接收控制器发送的光标选中指令,光标选中指令是控制器在感应到控制物在感应区域上产生的触摸按压操作后产生的,根据光标选中指令,控制选中光标;以及,
接收控制器发送的光标释放指令,光标释放指令是控制器在感应到控制物在感应区域上产生的抬起操作后产生的,根据光标释放指令,控制释放光标。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
本实施例的具体实现方案可以参见上述头戴式显示设备侧的方法实施例中的相关说明,此处不再赘述。
图7是本申请另一个实施例提供的一种光标控制装置的结构示意图。参见图7,本实施例的装置包括:处理器701;用于存储处理器可执行指令的存储器702;其中,处理器701被配置为:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据悬停操作或者触摸操作生成控制指令,控制指令中包含坐标信息,坐标信息包括:悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和控制点的坐标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
将控制指令发送给头戴式显示设备,以使头戴式显示设备从控制指令中获取坐标信息,并根据坐标信息确定光标坐标,以及,将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,当坐标信息为光标坐标时,处理器701,还被配置为:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,处理器701,还被配置为:
检测控制物在感应区域上产生的触摸按压操作,并在检测到触摸按压操作后,向头戴式显示设备发送光标选中指令;以及,
检测控制物在感应区域上产生的抬起操作,并在检测到抬起操作后,向头戴式显示设备发送光标释放指令。
较佳地,抬起操作包括:
控制物在感应区域上产生触摸按压操作转换为控制物悬停在感应区域的上方;或者,
控制物在感应区域上产生触摸按压操作转换为控制物触摸在感应区域上。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
较佳地,控制物包括:
手指,或者,触摸笔。
图8是本申请另一实施例提供的一种光标控制装置的结构示意图。参见图8,本实施例的装置包括:处理器801;用于存储处理器可执行指令的存储器802;其中,处理器801被配置为:接收控制器发送的控制指令,控制指令中包含坐标信息,坐标信息包括:在控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和控制点的光标得到的光标坐标,控制点的坐标是控制点在第一坐标系中的坐标,第一坐标系是感应区域所在的坐标系,光标坐标是光标在第二坐标系中的坐标,第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,映射模式是第一坐标系到第二坐标系的映射模式;
从控制指令中获取坐标信息,并根据坐标信息确定光标坐标;
将光标显示在虚拟控制面的光标坐标所指示的位置处。
较佳地,根据坐标信息确定光标坐标时,处理器801,具体被配置为:
当控制指令中包含的坐标信息为控制点的坐标时,根据控制点的坐标确定光标坐标;或者,
当控制指令中包含的坐标信息为光标坐标时,直接将坐标信息确定为光标坐标。
较佳地,根据控制点的坐标确定光标坐标时,处理器801,具体被配置为:
获取映射模式,映射模式为缩放映射模式,缩放映射模式包括缩放系数,缩放系数是根据虚拟控制面的坐标在每个数轴上的最大值和感应区域的坐标在每个数轴上的最大值计算得到的;
根据缩放映射模式和控制点的坐标,计算得到光标坐标。
较佳地,处理器801,还被配置为:
接收控制器发送的光标选中指令,光标选中指令是控制器在感应到控制物在感应区域上产生的触摸按压操作后产生的,根据光标选中指令,控制选中光标;以及,
接收控制器发送的光标释放指令,光标释放指令是控制器在感应到控制物在感应区域上产生的抬起操作后产生的,根据光标释放指令,控制释放光标。
较佳地,虚拟控制面包括:
头戴式显示设备所显示的二维虚拟屏幕;或者,
头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
光标选中指令或者光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当虚拟控制面是二维虚拟屏幕时,控制目标是光标坐标所指示的位置处的目标;或者,
当虚拟控制面是虚拟面时,控制目标是沿着眼睛位置与光标坐标形成的射线的方向、部分视锥体中第一个与射线相交的目标。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
可以理解的是,上述各实施例中相同或相似部分可以相互参考,在一些实施例中未详细说明的内容可以参见其他实施例中相同或相似的内容。
需要说明的是,在本申请的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本申请的描述中,除非另有说明,“多个”的含义是指至少两个。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种光标控制方法,其特征在于,包括:
检测在感应区域上的控制物的悬停操作或者触摸操作;
根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处;
还包括:
检测所述控制物在所述感应区域上产生的触摸按压操作,并在检测到所述触摸按压操作后,向所述头戴式显示设备发送光标选中指令,以使所述头戴式显示设备根据所述光标选中指令,控制选中光标;以及,
检测所述控制物在所述感应区域上产生的抬起操作,并在检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令,以使所述头戴式显示设备根据所述光标释放指令,控制释放光标;
所述触摸按压操作的压力度大于所述触摸操作的压力度;
所述抬起操作包括:所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应 区域的上方;或者,所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应 区域上;
当通过触摸按压方式控制光标选中、且通过触摸方式控制光标移动时,控制物均需要与感应区域接触,触摸按压的力度不同于触摸的力度;当通过触摸按压方式控制光标选中、且通过悬停方式控制光标移动时,前者需要控制物与感应区域接触,后者不需要与感应区域接触。
2.根据权利要求1所述的方法,其特征在于,当所述坐标信息为所述光标坐标时,所述方法还包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数,所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
3.根据权利要求1所述的方法,其特征在于,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述控制物包括:
手指,或者,触摸笔。
5.一种光标控制方法,其特征在于,包括:
接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处;
还包括:
接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的,根据所述光标选中指令,控制选中光标;以及,
接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的,根据所述光标释放指令,控制释放光标;
所述触摸按压操作的压力度大于所述触摸操作的压力度;
所述抬起操作包括:
所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应区域的上方;或者,所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应 区域上;
当通过触摸按压方式控制光标选中、且通过触摸方式控制光标移动时,控制物均需要与感应区域接触,触摸按压的力度不同于触摸的力度;当通过触摸按压方式控制光标选中、且通过悬停方式控制光标移动时,前者需要控制物与感应区域接触,后者不需要与感应区域接触。
6.根据权利要求5所述的方法,其特征在于,所述根据所述坐标信息确定光标坐标,包括:
当所述控制指令中包含的坐标信息为控制点的坐标时,根据所述控制点的坐标确定所述光标坐标;或者,
当所述控制指令中包含的坐标信息为光标坐标时,直接将所述坐标信息确定为光标坐标。
7.根据权利要求6所述的方法,其特征在于,根据所述控制点的坐标确定所述光标坐标,包括:
获取映射模式,所述映射模式为缩放映射模式,所述缩放映射模式包括缩放系数, 所述缩放系数是根据所述虚拟控制面的坐标在每个数轴上的最大值和所述感应区域的坐 标在每个数轴上的最大值计算得到的;
根据所述缩放映射模式和所述控制点的坐标,计算得到所述光标坐标。
8.根据权利要求5所述的方法,其特征在于,所述虚拟控制面包括:
所述头戴式显示设备所显示的二维虚拟屏幕;或者,
所述头戴式显示设备所显示的三维虚拟世界中的一个虚拟面,所述虚拟面是以眼睛位置为基准形成的视锥体的部分视锥体中的一个轴截面;
所述光标选中指令或者所述光标释放指令,用于对控制目标进行相应的选中或者释放;其中,
当所述虚拟控制面是所述二维虚拟屏幕时,所述控制目标是所述光标坐标所指示的位置处的目标;或者,
当所述虚拟控制面是所述虚拟面时,所述控制目标是沿着所述眼睛位置与所述光标坐标形成的射线的方向、所述部分视锥体中第一个与所述射线相交的目标。
9.一种光标控制装置,其特征在于,包括:
检测模块,用于检测在感应区域上的控制物的悬停操作或者触摸操作;
生成模块,用于根据所述悬停操作或者触摸操作生成控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:所述悬停操作或者触摸操作所针对的控制点的坐标,或者,根据预设映射模式和所述控制点的坐标得到的光标坐标,所述控制点的坐标是控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
发送模块,用于将所述控制指令发送给所述头戴式显示设备,以使所述头戴式显示设备从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标,以及,将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处;
所述检测模块,还用于检测所述控制物在所述感应区域上产生的触摸按压操作,并在检测到所述触摸按压操 作后,向所述头戴式显示设备发送光标选中指令,以使所述头戴式显示设备根据所述光标选中指令,控制选中光标;以及,检测所述控制物在所述感应区域上产生的抬起操作,并在检测到所述抬起操作后,向所述头戴式显示设备发送光标释放指令,以使所述头戴式显示设备根据所述光标释放指令,控制释放光标;所述触摸按压操作的压力度大于所述触摸操作的压力度;所述抬起操作包括:所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应 区域的上方;或者,所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应 区域上;当通过触摸按压方式控制光标选中、且通过触摸方式控制光标移动时,控制物均需要与感应区域接触,触摸按压的力度不同于触摸的力度;当通过触摸按压方式控制光标选中、且通过悬停方式控制光标移动时,前者需要控制物与感应区域接触,后者不需要与感应区域接触。
10.一种光标控制装置,其特征在于,包括:
接收模块,用于接收控制器发送的控制指令,所述控制指令中包含坐标信息,所述坐标信息包括:在所述控制器的感应区域上的控制物的悬停操作或者触摸操作所针对的控制点的坐标,或者根据预设映射模式和所述控制点的光标得到的光标坐标,所述控制点的坐标是所述控制点在第一坐标系中的坐标,所述第一坐标系是所述感应区域所在的坐标系,所述光标坐标是光标在第二坐标系中的坐标,所述第二坐标系是头戴式显示设备所显示的虚拟控制面所在的坐标系,所述映射模式是所述第一坐标系到所述第二坐标系的映射模式;
确定模块,用于从所述控制指令中获取所述坐标信息,并根据所述坐标信息确定光标坐标;
控制模块,用于将光标显示在所述虚拟控制面的所述光标坐标所指示的位置处;
所述接收模块,还用于接收所述控制器发送的光标选中指令,所述光标选中指令是所述控制器在感应到所述控制物在所述感应区域上产生的触摸按压操作后产生的,根据所述光标选中指令,控制选中光标;以及,接收所述控制器发送的光标释放指令,所述光标释放指令是所述控制器在感应到所述控制物在所述感应区域上产生的抬起操作后产生的,根据所述光标释放指令,控制释放光标;所述触摸按压操作的压力度大于所述触摸操作的压力度;所述抬起操作包括:所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物悬停在所述感应 区域的上方;或者,所述控制物在所述感应区域上产生触摸按压操作转换为所述控制物触摸在所述感应 区域上;当通过触摸按压方式控制光标选中、且通过触摸方式控制光标移动时,控制物均需要与感应区域接触,触摸按压的力度不同于触摸的力度;当通过触摸按压方式控制光标选中、且通过悬停方式控制光标移动时,前者需要控制物与感应区域接触,后者不需要与感应区域接触。
CN201810131989.8A 2018-02-08 2018-02-08 光标控制方法和装置 Active CN108227968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810131989.8A CN108227968B (zh) 2018-02-08 2018-02-08 光标控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810131989.8A CN108227968B (zh) 2018-02-08 2018-02-08 光标控制方法和装置

Publications (2)

Publication Number Publication Date
CN108227968A CN108227968A (zh) 2018-06-29
CN108227968B true CN108227968B (zh) 2021-09-17

Family

ID=62671082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810131989.8A Active CN108227968B (zh) 2018-02-08 2018-02-08 光标控制方法和装置

Country Status (1)

Country Link
CN (1) CN108227968B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109102571B (zh) * 2018-07-16 2023-05-12 深圳超多维科技有限公司 一种虚拟影像的控制方法、装置、设备及其存储介质
CN113253882A (zh) * 2021-05-21 2021-08-13 东风汽车有限公司东风日产乘用车公司 模拟鼠标方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103634639A (zh) * 2013-11-29 2014-03-12 乐视致新电子科技(天津)有限公司 一种电视控制方法及电视遥控器
CN103793060A (zh) * 2014-02-14 2014-05-14 杨智 一种用户交互系统和方法
CN103995592A (zh) * 2014-05-21 2014-08-20 上海华勤通讯技术有限公司 穿戴式设备与终端进行信息交互的方法及终端
CN104598035A (zh) * 2015-02-27 2015-05-06 北京极维客科技有限公司 基于3d立体图像显示的光标显示方法、智能设备及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004194033A (ja) * 2002-12-12 2004-07-08 Canon Inc 立体画像表示システム及び立体ポインタの表示方法
KR100678945B1 (ko) * 2004-12-03 2007-02-07 삼성전자주식회사 터치패드 입력 정보 처리 장치 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103634639A (zh) * 2013-11-29 2014-03-12 乐视致新电子科技(天津)有限公司 一种电视控制方法及电视遥控器
CN103793060A (zh) * 2014-02-14 2014-05-14 杨智 一种用户交互系统和方法
CN103995592A (zh) * 2014-05-21 2014-08-20 上海华勤通讯技术有限公司 穿戴式设备与终端进行信息交互的方法及终端
CN104598035A (zh) * 2015-02-27 2015-05-06 北京极维客科技有限公司 基于3d立体图像显示的光标显示方法、智能设备及系统

Also Published As

Publication number Publication date
CN108227968A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
CN108431729B (zh) 用以增大显示区域的三维对象跟踪
KR100851977B1 (ko) 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
TWI464640B (zh) 手勢感測裝置及具有手勢輸入功能的電子系統
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
US8957856B2 (en) Systems, methods, and apparatuses for spatial input associated with a display
JP5839220B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3283938B1 (en) Gesture interface
US9544556B2 (en) Projection control apparatus and projection control method
TWI559174B (zh) 以手勢爲基礎之三維影像操控技術
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
US10422996B2 (en) Electronic device and method for controlling same
KR101518727B1 (ko) 입체 인터랙션 시스템 및 입체 인터랙션 방법
KR101441882B1 (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 디스플레이 표시면 둘레의 가상 평면을 사용하여 전자기기를 제어하는 방법
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
KR20120126508A (ko) 포인터를 사용하지 않는 가상 터치 장치에서의 터치 인식 방법
US20140223374A1 (en) Method of displaying menu based on depth information and space gesture of user
KR20090087270A (ko) 3차원 위치 입력 방법 및 장치
CN108227968B (zh) 光标控制方法和装置
US10175780B2 (en) Behind-display user interface
TW201439813A (zh) 顯示設備及其控制系統和方法
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
US20070200847A1 (en) Method And Device For Controlling A Virtual Reality Graphic System Using Interactive Techniques
CN108255317B (zh) 光标控制方法和装置
EP3088991B1 (en) Wearable device and method for enabling user interaction
JP2017162126A (ja) 入力システム、入力方法、制御用プログラム、及び記憶媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant