CN105260008B - 一种定位位置的方法及装置 - Google Patents

一种定位位置的方法及装置 Download PDF

Info

Publication number
CN105260008B
CN105260008B CN201410337070.6A CN201410337070A CN105260008B CN 105260008 B CN105260008 B CN 105260008B CN 201410337070 A CN201410337070 A CN 201410337070A CN 105260008 B CN105260008 B CN 105260008B
Authority
CN
China
Prior art keywords
screen
sight
adjusting
signal
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410337070.6A
Other languages
English (en)
Other versions
CN105260008A (zh
Inventor
廉士国
姚峻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201410337070.6A priority Critical patent/CN105260008B/zh
Priority to PCT/CN2014/094728 priority patent/WO2016008265A1/zh
Publication of CN105260008A publication Critical patent/CN105260008A/zh
Priority to US15/399,348 priority patent/US10168773B2/en
Application granted granted Critical
Publication of CN105260008B publication Critical patent/CN105260008B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明的实施例公开一种定位位置的方法及装置,应用于电子信息领域,能够避免通过无线指示设备对指示光标进行大范围的转移,从而简化用户的操作。具体方法为:检测用户的视线朝向,获取所述用户的视线朝向参数;检测所述用户的视线源,获取所述用户的视线源位置;获取屏幕的位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;在屏幕上显示所述视线的屏幕位置;接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。本发明用于用户在屏幕上指向自己所需要的位置。

Description

一种定位位置的方法及装置
技术领域
本发明涉及电子信息领域,尤其涉及一种定位位置的方法及装置。
背景技术
在进行演讲或解说的过程中,较大的屏幕能够放大画面,使更多的观众看清屏幕上的内容,同时较大的屏幕能够放大细节,从而方便演讲者进行解说,这样,越来越多的场合下,演讲者都使用大屏幕进行演讲。其中,大屏幕可以是由聚碳酸酯(Polycarbonate,简称PC)构成的屏幕,也可以是一面墙。
在用户使用大屏幕进行解说的过程中,往往需要对屏幕上的画面进行指向操作,来解说所指向画面的内容。现有的技术方案中,用户通过无线虚拟指示设备(例如:空中无线鼠标、触屏指示设备)进行操作,通过无线虚拟指示设备将信号传递至大屏幕,控制大屏幕中的指示光标的位置,例如用户给无线虚拟指示设备一个向上的指示(对于空中无线鼠标可以是按“向上移动”的按键,对于触屏指示设备可以是用手向上滑动一段距离),大屏幕中指示光标的位置就像上移动相应的距离。这样,通过用户对无线虚拟指示设备在各种方向上的指示操作,从而能够使指示光标指向用户需要的位置。
在实现上述定位位置过程中,现有技术中是通过使用无线虚拟指示设备定位位置中演讲者所需要的位置,但是由于大屏幕的普及,在演讲过程中时常会出现相邻的两个指示位置间跨度较大的情况,再通过无线虚拟指示设备对指示光标进行大范围的转移,这样用户就需要耗费较多的精力和较长时间的来进行操作,不利于用户进行解说。
发明内容
本发明的实施例提供一种定位位置的方法及装置,能够避免通过无线指示设备对指示光标进行大范围的转移,从而简化用户的操作。
为达到上述目的,本发明的实施例采用如下技术方案:
第一方面,提供一种定位位置的方法,包括:
检测用户的视线朝向,获取所述用户的视线朝向参数;
检测所述用户的视线源,获取所述用户的视线源位置;
获取屏幕的位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;
在屏幕上显示所述视线的屏幕位置;
接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
结合第一方面,在第一种可能的实现方式中,所述方法还包括:
当接受所述调整信号时,获取指示信号,根据所述指示信号判断是否更新所述视线的屏幕位置;
如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置;
如果不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断所述时间是否超过预定的时间,若超过则更新所述视线的屏幕位置。
结合第一方面的第一种可能的实现方式,在第三种可能的实现方式中,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
接收音频信号;
判断所述音频信号与待触发的声音是否一致,若一致则更新所述视线的屏幕位置。
结合第一方面的第一种可能的实现方式,在第四种可能的实现方式中,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
接收动作信号;
判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
结合第一方面或第一方面任一种可能的实现方式,在第五种可能的实现方式中,所述接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整包括:
接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离;或
接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
第二方面,提供一种定位位置的装置,包括:
检测单元,用于检测用户的视线朝向,获取所述用户的视线朝向参数;
所述检测单元,还用于检测所述用户的视线源,获取所述用户的视线源位置;
定位单元,用于获取屏幕的位置,并根据所述检测单元获取的视线朝向参数、所述屏幕的位置和所述检测单元获取的视线源位置得到视线的屏幕位置;
显示单元,用于在屏幕上显示所述视线的屏幕位置;
调整单元,用于接收调整信号,根据所述调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
结合第二方面,在第一种可能的实现方式中,所述装置还包括:
判定单元,用于当调整单元接受到所述调整信号时,获取指示信号,根据所述指示信号判断是否更新所述视线的屏幕位置;
所述显示单元,还用于如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置;
所述调整单元,还用于若不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述判定单元包括:
获取子单元,用于获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断子单元,判断所述时间是否超过预定的时间,若超过则更新所述视线的屏幕位置。
结合第二方面的第一种可能的实现方式,在第三种可能的实现方式中,所述判断单元包括:
获取子单元,用于接收音频信号;
判断子单元,用于判断所述音频信号与待触发的声音是否一致,若一致则更新所述视线的屏幕位置。
结合第二方面的第一种可能的实现方式,在第四种可能的实现方式中,所述判断单元包括:
获取子单元,用于接收动作信号;
判断子单元,用于判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
结合第二方面或第二方面的任一种可能的实现方式,在第五种可能的实现方式中,所述调整单元具体用于:
接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离;或
接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
上述方案中,通过获取用户的视线朝向参数,获取所述用户的视线源位置,获取屏幕位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;在屏幕上显示所述视线的屏幕位置;接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。这样用户只需对屏幕上显示的位置进行调整即可完成定位,简化了用户的操作,提高了定位位置效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的实施例提供的一种定位位置的方法的流程示意图;
图2为本发明的实施例提供的一种用户的视线方向的示意图;
图3为本发明的实施例提供的另一种检测用户的视线朝向的方法示意图;
图4为本发明的实施例提供的一种计算视线的屏幕位置的方法示意图;
图5为本发明的实施例提供的一种定位位置的方法的流程示意图;
图6为本发明的实施例提供的一种定位位置装置的结构示意图;
图7为本发明的另一实施例提供的一种定位位置装置的结构示意图;
图8为本发明的又一实施例提供的一种定位位置装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的实施例应用于用户在屏幕上指向自己所需要的位置的场景,其中,该场景包括屏幕和用户。用户可以通过虚拟指示设备或其他方式定位位置上自己所需要的位置,一般的用户在屏幕上指示的位置会以光标的形式显示,将该屏幕上显示的光标称作指示光标,该指示光标能够便于用户对屏幕上的画面进行解释说明或演讲。
本发明的实施例提供一种定位位置的方法,参照图1所示,包括以下步骤:
101、检测用户的视线朝向,获取所述用户的视线朝向参数。
其中,可以通过在屏幕上方安装的视角传感器S1来检测用户的视角朝向参数,可选的,用户的视角朝向参数包括:视线方向与水平面的夹角、视线方向与侧平面的夹角、视线方向与竖平面的夹角。具体的,参照图2所示,通过在空间以竖直方向为x轴,以水平方向为y轴,以前后方向为z轴建立第一坐标系,将视线朝向看作一条射线J,若要得到射线J的方向,则要得到射线J与水平面(y轴与z轴组成的平面)的夹角α,射线J与侧平面(x轴和z轴组成的平面)的夹角β和射线J与竖平面(x轴和y轴组成的平面)的夹角γ。
具体的,参照图3所示,可以通过深度摄像头方法、多摄像头人脸方法或者基于头戴标识的朝向定位方法进行建立第二坐标系(该坐标系包括x轴和y轴),并在第二坐标系中获取人的双眼、鼻子和嘴巴在第二坐标系中的坐标;这里我们假设人的头部在方向不做出变动的情况下,左眼a的坐标为(ax,ay),右眼b的坐标为(bx,by),鼻子c的坐标为(cx,cy),嘴巴d坐标为(dx,dy);
第一坐标系中,射线J与水平面的夹角α为人的俯仰角,即人抬头或低头形成的角度,假设人头部的位置改变之后,在第二坐标系中左眼a’的坐标为(ax’,ay’),右眼b’的坐标为(bx’,by’),鼻子c’的坐标为(cx’,cy’),嘴巴d’坐标为(dx’,dy’),则通过第二坐标系中的坐标计算第一坐标系中的夹角α,计算公式为:
α=2arcsin((cy'-cy)/2)/(H/2));或
α=2arcsin((dy'-dy)/2)/(H/2))
其中,H为人的头部长度,当然,虽然在计算角度中人的双眼坐标没有用上,但是将人的双眼可以当作参考坐标来确定鼻子和嘴巴的坐标,由于双眼的特征更好提取首先得到双眼的坐标,再通过眼睛和鼻子和嘴巴的相对位置关系进一步得到鼻子和嘴巴的坐标更为准确。
进一步的,第一坐标系中,射线J与侧平面的夹角β为人的偏航角,即人左右转动脖子形成的角度,假设人头部的位置改变之后,在第二坐标系中左眼a”的坐标为(ax”,ay”),右眼b”的坐标为(bx”,by”),鼻子c”的坐标为(cx”,cy”),嘴巴d”坐标为(dx”,dy”),则通过第二坐标系中的坐标计算第一坐标系中的夹角β,计算公式为:
β=2arcsin((cx″-cx)/2)/(R/2));或
β=2arcsin((dx″-dx)/2)/(R/2))
其中,R为人的头部宽度,当然,虽然在计算角度中人的双眼坐标没有用上,但是将人的双眼可以当作参考坐标来确定鼻子和嘴巴的坐标,由于双眼的特征更好提取首先得到双眼的坐标,再通过眼睛、鼻子和嘴巴的相对位置关系进一步得到鼻子和嘴巴的坐标更为准确。
进一步的,γ=90°-β,从而得到射线J的方向,即用户的视线朝向参数。
102、检测用户的视线源,获取用户的视线源位置。
在获取视线朝向参数后还需要定位视线源位置,与步骤101中定位人的双眼、鼻子和嘴巴的方法相似;可以通过深度摄像头方法、多摄像头人脸方法或者基于头戴标识的朝向定位方法进行定位,获取人的双眼在第三坐标系(包括x轴,y轴,z轴)中的坐标;假设获取的左眼a的坐标为(ax,ay,az),右眼b的坐标为(bx,by,bz),则视线源的坐标为(ax+bx/2,ay+by/2,az+bz/2),假设x0=ax+bx/2,y0=ay+by/2,z0=az+bz/2,则所述视线源的坐标为(x0,y0,z0)。
103、获取屏幕的位置,并根据视线朝向参数、屏幕的位置和视线源位置得到视线的屏幕位置。
具体的,建立坐标系,获取屏幕的位置坐标面,视线源的位置坐标点和视线朝向的角度;
参照图4所示,建立步骤102中所述的第三坐标系,屏幕为x轴和y轴形成的平面,设视线源的位置为H(x0,y0,z0),视线朝向参数为射线J,能够计算出用户的视线落在屏幕上的位置。
以所述视线源的位置坐标点为起点,沿所述视线朝向参数(即射线J的方向)的方向计算视线源映射至所述屏幕的位置坐标面上的位置坐标。
假设,视线的屏幕位置的坐标为(x1,y1,z1)其中z1=0(屏幕为x轴和y轴形成的平面),则x1和y1计算公式为:
x1=x0+z0·tanα
y1=y0+z0·tanβ
104、在屏幕上显示所述视线的屏幕位置。
所述屏幕可以是用户指示用的大屏幕,也可以是方便用户观察的其他屏幕。
105、接收调整信号,根据调整信号对屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
用户看到屏幕上显示视线的屏幕位置后,由于视线的屏幕位置为视线指向的位置,可能与用户需要指向的位置之间存在偏差,需要用户进行调整。
可选的,接收所述用户发出的调整信号包括以下至少一项:
一种方式:接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离。
具体的,用户通过无线指示设备发出的调整信号的方式如下:
接收用户通过空中无线鼠标发出的位置调整信号;
其中,空中无线鼠标发出的位置调整信号是用户操作方向按键发出的,定位位置设备可以通过无线信号接收器接收空中无线鼠标发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过触屏指示设备发出的位置调整信号;
其中,触屏指示设备发出的位置调整信息是用户通过触屏滑动相应的方向和距离发出的,定位位置设备可以通过无线信号接收器接收触屏指示设备发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过三维(Three Dimensions,简称3D)手柄/鼠标发出的位置调整信号;
其中,3D手柄/鼠标发出的位置调整信号是用户移动或旋转手柄/鼠标设备时设备自带的传感器或外部检测设备检测到的,如移动距离、旋转角度等,定位位置设备可以通过无线信号接收器接收3D手柄/鼠标的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
另一种方式:接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
具体的,通过检测所述用户手部偏移的角度得到视线的屏幕位置在屏幕上的偏移量。例如,建立第四坐标系,屏幕为x轴和y轴形成的平面,通过摄像头(这里不限于摄像头,可以采用基于超声的目标检测、基于电场的目标检测、基于穿戴式臂环的肌电信号检测等方法)的方法定位用户的手指坐标、手腕坐标(xs,ys,zs),根据手指和手腕的坐标连线计算第一指向方向(包括,指向方向与水平面的夹角α1;指向方向与侧平面的夹角β1;指向方向与竖平面的夹角γ1);当人的手指发生偏转,重新定位手指坐标,根据新的手指和手腕的坐标连线计算第二指向方向(包括,指向方向与水平面的夹角α2;指向方向与侧平面的夹角β2;指向方向与竖平面的夹角γ2);获取,两次方向的角度差(α21,β21,γ21),计算视线的屏幕位置在水平方向和竖直方向的位移量,公式为:
dx=xs+zs·tan(α21)
dy=ys+zs·tan(β21)
dx为视线的屏幕位置在屏幕上水平方向的位移,dy为视线的屏幕位置在屏幕上竖直方向的位移,对视线的屏幕位置进行位移得到用户指示的位置,并在屏幕上显示用户指示的位置;可选的,若两次方向的角度差(α21,β21,γ21)超过预定的偏转角度,可以无效本次用户操作,重新获取第二指向方向。
当然检测和接收用户发出的位置调整信号,并不限于以上方法,只要通过无线设备或摄像头(例如:普通RGB(具有红Red、绿Green、蓝Blue三种原色的像素,简称RGB)摄像头、深度摄像头、3D摄像头等)检测到的用户的位置调整信号,并对视线的屏幕位置进行相应的调整的方案,均属于本发明实施例的保护范围。
上述方案中,通过获取用户的视线朝向参数,获取所述用户的视线源位置,获取屏幕位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;在屏幕上显示所述视线的屏幕位置;接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。这样用户只需对屏幕上显示的位置进行调整即可完成定位,简化了用户的操作,提高了定位位置效率。
本发明的实施例提供一种定位位置的方法,参照图5所示,若用户已经指向了一次屏幕,用户需要再次定位位置时,包括以下步骤:
201、当接受所述调整信号时,获取指示信号,根据指示信号判断是否更新所述视线的屏幕位置。
其中,接收调整信号在步骤105中有具体描述,这里就不再赘述,具体的,获取指示信号,判定是否需要获取新的视线的屏幕位置包括:
获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断所述时间是否超过预定的时间,若超过则更新所述视线的屏幕位置。
其中,一般情况下,现在的时刻与得到上一个指示位置的时刻之间的时间超过预设时间,用户会进入下一个话题的讲解,这样,用户在对原有的指示位置进行调整会造成大量的操作,所以依照当前用户的视线源和视线方向重新获取视线的屏幕位置。
或者,接收音频信号;
判断所述音频信号与待触发的声音是否一致,若一致则更新所述视线的屏幕位置。
例如,待触发的声音为“下一个地方”,若声音控制设备接收到的用户发出的包括“下一个地方”的话语时,则依照当前用户的视线源和视线方向重新获取视线的屏幕位置。
或者,接收动作信号。
判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置
例如,待触发的动作为“用户的手指方向转动超过预设的角度”,通过深度摄像头可以检测到用户的手指方向转动的角度,若转过的角度超过预设的角度,则依照当前用户的视线源和视线方向重新获取视线的屏幕位置。
202、如果更新视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置。
其中,更新视线的屏幕位置的方法在步骤101-步骤103有具体描述,这里就不再赘述。
203、如果不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整。
在执行了步骤203之后返回201继续执行。
上述实施例中,接收到调整信号时,通过获取指示信号,判断是否更新视线的屏幕位置。这样,当屏幕上的位置转移范围较大时,重新通过用户的视线获取新的视线的屏幕位置,减少了用户的操作,提高了定位位置效率。
本发明的实施例提供一种定位位置装置600,用于通过接收用户发出的指示,在屏幕上显示相应的位置,参照图6所示,包括:
检测单元601,用于检测用户的视角,获取用户的视线朝向参数。
所述检测单元可以通过视角传感器检测用户的视角,对视角的朝向进行分析,以获取相应的视角朝向参数,步骤101中有详细描述,这里就不再赘述。
检测单元601,还用于检测所述用户的视线源,获取用户的视线源位置。
在获取视线朝向参数后还需要定位视线源位置,可以通过深度摄像头方法、多摄像头人脸方法或者基于头戴标识的朝向定位方法进行定位,例如,通过深度摄像头拍摄到的脸部图形对人的双眼进行定位,确定视线源的位置。
定位单元602,用于获取屏幕的位置,并根据检测单元获取的视线朝向参数、屏幕的位置和检测单元获取的视线源位置得到视线的屏幕位置。
具体的,得到视线的屏幕位置的方法在步骤103有具体描述,这里就不再赘述。
显示单元603,用于在屏幕上显示视线的屏幕位置。
调整单元604,用于接收调整信号,根据所述调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
用户看到屏幕上显示视线的屏幕位置后,由于视线的屏幕位置为视线指向的位置,可能与用户需要指向的位置之间存在偏差,需要用户进行调整。
一种方式:接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离。
具体的,用户通过无线指示设备发出的调整信号的方式如下:
接收用户通过空中无线鼠标发出的位置调整信号;
其中,空中无线鼠标发出的位置调整信号是用户操作方向按键发出的,定位位置设备可以通过无线信号接收器接收空中无线鼠标发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过触屏指示设备发出的位置调整信号;
其中,触屏指示设备发出的位置调整信息是用户通过触屏滑动相应的方向和距离发出的,定位位置设备可以通过无线信号接收器接收触屏指示设备发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过三维(Three Dimensions,简称3D)手柄/鼠标发出的位置调整信号;
其中,3D手柄/鼠标发出的位置调整信号是用户移动或旋转手柄/鼠标设备时设备自带的传感器或外部检测设备检测到的,如移动距离、旋转角度等,定位位置设备可以通过无线信号接收器接收3D手柄/鼠标的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
另一种方式:接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
具体的,通过检测所述用户手部偏移的角度得到视线的屏幕位置在屏幕上的偏移量。例如,建立第四坐标系,屏幕为x轴和y轴形成的平面,通过摄像头(这里不限于摄像头,可以采用基于超声的目标检测、基于电场的目标检测、基于穿戴式臂环的肌电信号检测等方法)的方法定位用户的手指坐标、手腕坐标(xs,ys,zs),根据手指和手腕的坐标连线计算第一指向方向(包括,指向方向与水平面的夹角α1;指向方向与侧平面的夹角β1;指向方向与竖平面的夹角γ1);当人的手指发生偏转,重新定位手指坐标,根据新的手指和手腕的坐标连线计算第二指向方向(包括,指向方向与水平面的夹角α2;指向方向与侧平面的夹角β2;指向方向与竖平面的夹角γ2);获取,两次方向的角度差(α21,β21,γ21),计算视线的屏幕位置在水平方向和竖直方向的位移量,公式为:
dx=xs+zs·tan(α21)
dy=ys+zs·tan(β21)
dx为视线的屏幕位置在屏幕上水平方向的位移,dy为视线的屏幕位置在屏幕上竖直方向的位移,对视线的屏幕位置进行位移得到用户指示的位置,并在屏幕上显示用户指示的位置;可选的,若两次方向的角度差(α21,β21,γ21)超过预定的偏转角度,可以无效本次用户操作,重新获取第二指向方向。
当然检测和接收用户发出的位置调整信号,并不限于以上方法,只要通过无线设备或摄像头(例如:普通RGB(具有红Red、绿Green、蓝Blue三种原色的像素,简称RGB)摄像头、深度摄像头、3D摄像头等)检测到的用户的位置调整信号,并对视线的屏幕位置进行相应的调整的方案,均属于本发明实施例的保护范围。
进一步的,定位位置装置600还包括:
判定单元605,用于当调整单元接受到所述调整信号时,获取指示信号,根据指示信号判断是否更新所述视线的屏幕位置。
可选的,所述判定单元包括:获取子单元605-1和判断子单元605-2。
获取子单元605-1,用于获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断子单元605-2,判断所述时间是否超过预定的时间,若超过则更新视线的屏幕位置。
或者,
获取子单元605-1,用于接收音频信号;
判断子单元605-2,用于判断所述音频信号与待触发的声音是否一致,若一致则更新视线的屏幕位置。
或者,
获取子单元605-1,用于接收动作信号;
判断子单元605-2,用于判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
进一步的,调整单元604,还用于若判定单元605判定如果不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整
进一步的,所述显示单元603,还用于如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置。
这样,获取新的视线的屏幕位置后,再次接收调整信号时,判定单元605判定是否需要更新视线的屏幕位置,依次循环进行。
上述方案中,通过定位位置装置获取用户的视线朝向参数,获取所述用户的视线源位置,获取屏幕位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;在屏幕上显示所述视线的屏幕位置;接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。这样用户只需对屏幕上显示的位置进行调整即可完成定位,简化了用户的操作,提高了定位位置效率。
本发明的实施例提供一种定位位置装置700,用于通过接收用户发出的指示,在屏幕上显示相应的位置,参照图8所示,包括:处理器701、接收器702、存储器703和总线704,其中处理器701、接收器702通过总线704连接,存储器703用于存储处理器701处理的数据;
总线704可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(Peripheral Component,外部设备互连)总线或EISA(Extended IndustryStandard Architecture,扩展工业标准体系结构)总线等。该总线704可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。其中:
存储器703用于存储可执行程序代码,该程序代码包括计算机操作指令。存储器703可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
处理器701可能是一个中央处理器(Central Processing Unit,简称为CPU),或者是特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者是被配置成实施本发明实施例的一个或多个集成电路。
处理器701,用于检测用户的视线朝向,获取用户的视线朝向参数。
所述处理器701可以通过接收器702接收视角传感器检测用户的视角,对视角的朝向进行分析,以获取相应的视线朝向参数,步骤101中有详细描述,这里就不再赘述。
处理器701,还用于定位用户的视线源,获取用户的视线源位置。
其中,处理器701可以通过深度摄像头方法、多摄像头人脸方法或者基于头戴标识的朝向定位方法进行定位,例如,通过深度摄像头拍摄到的脸部图形对人的双眼进行定位,确定视线源的位置。
处理器701,用于获取屏幕的位置,并根据获取的视线朝向参数、屏幕的位置和获取的视线源位置得到视线的屏幕位置。
具体的,得到视线的屏幕位置的方法在步骤103有具体描述,这里就不再赘述。
处理器701,还用于在屏幕上显示视线的屏幕位置。
处理器701,还用于通过接收器702接收调整信号,根据所述调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
用户看到屏幕上显示视线的屏幕位置后,由于视线的屏幕位置为视线指向的位置,可能与用户需要指向的位置之间存在偏差,需要用户进行调整。
一种方式:接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离。
具体的,用户通过无线指示设备发出的调整信号的方式如下:
接收用户通过空中无线鼠标发出的位置调整信号;
其中,空中无线鼠标发出的位置调整信号是用户操作方向按键发出的,定位位置设备可以通过无线信号接收器接收空中无线鼠标发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过触屏指示设备发出的位置调整信号;
其中,触屏指示设备发出的位置调整信息是用户通过触屏滑动相应的方向和距离发出的,定位位置设备可以通过无线信号接收器接收触屏指示设备发出的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
或者,接收用户通过三维(Three Dimensions,简称3D)手柄/鼠标发出的位置调整信号;
其中,3D手柄/鼠标发出的位置调整信号是用户移动或旋转手柄/鼠标设备时设备自带的传感器或外部检测设备检测到的,如移动距离、旋转角度等,定位位置设备可以通过无线信号接收器接收3D手柄/鼠标的位置调整信号,对视线的屏幕位置进行相应的调整,从而在屏幕上显示用户指示的位置。
另一种方式:接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
具体的,通过检测所述用户手部偏移的角度得到视线的屏幕位置在屏幕上的偏移量。例如,建立第四坐标系,屏幕为x轴和y轴形成的平面,通过摄像头(这里不限于摄像头,可以采用基于超声的目标检测、基于电场的目标检测、基于穿戴式臂环的肌电信号检测等方法)的方法定位用户的手指坐标、手腕坐标(xs,ys,zs),根据手指和手腕的坐标连线计算第一指向方向(包括,指向方向与水平面的夹角α1;指向方向与侧平面的夹角β1;指向方向与竖平面的夹角γ1);当人的手指发生偏转,重新定位手指坐标,根据新的手指和手腕的坐标连线计算第二指向方向(包括,指向方向与水平面的夹角α2;指向方向与侧平面的夹角β2;指向方向与竖平面的夹角γ2);获取,两次方向的角度差(α21,β21,γ21),计算视线的屏幕位置在水平方向和竖直方向的位移量,公式为:
dx=xs+zs·tan(α21)
dy=ys+zs·tan(β21)
dx为视线的屏幕位置在屏幕上水平方向的位移,dy为视线的屏幕位置在屏幕上竖直方向的位移,对视线的屏幕位置进行位移得到用户指示的位置,并在屏幕上显示用户指示的位置;可选的,若两次方向的角度差(α21,β21,γ21)超过预定的偏转角度,可以无效本次用户操作,重新获取第二指向方向。
当然检测和接收用户发出的位置调整信号,并不限于以上方法,只要通过无线设备或摄像头(例如:普通RGB(具有红Red、绿Green、蓝Blue三种原色的像素,简称RGB)摄像头、深度摄像头、3D摄像头等)检测到的用户的位置调整信号,并对视线的屏幕位置进行相应的调整的方案,均属于本发明实施例的保护范围。
可选的,处理器701还用于,当接收器702接受到调整信号时,获取指示信号,根据指示信号判断是否更新所述视线的屏幕位置。
具体的,处理器701用于:
获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断所述时间是否超过预定的时间,若超过则更新视线的屏幕位置。
或者,
接收音频信号;
判断所述音频信号与待触发的声音是否一致,若一致则更新视线的屏幕位置。
或者,
接收动作信号;
判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
进一步的,处理器701,还用于若判定不需要获取视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整
进一步的,处理器701,还用于如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置。
这样,获取新的视线的屏幕位置后,再次接收调整信号时,处理器701判定是否需要更新视线的屏幕位置,依次循环进行。
上述方案中,通过定位位置装置获取用户的视线朝向参数,获取所述用户的视线源位置,获取屏幕位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;在屏幕上显示所述视线的屏幕位置;接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。这样用户只需对屏幕上显示的位置进行调整即可完成定位,简化了用户的操作,提高了定位位置效率。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (12)

1.一种定位位置的方法,其特征在于,包括:
检测用户的视线朝向,获取所述用户的视线朝向参数;
检测所述用户的视线源,获取所述用户的视线源位置;
获取屏幕的位置,并根据所述视线朝向参数、所述屏幕的位置和所述视线源位置得到视线的屏幕位置;
在屏幕上显示所述视线的屏幕位置;
接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当接受所述调整信号时,获取指示信号,根据所述指示信号判断是否更新所述视线的屏幕位置;
如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置;
如果不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整。
3.根据权利要求2所述的方法,其特征在于,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断所述时间是否超过预定的时间,若超过则更新所述视线的屏幕位置。
4.根据权利要求2所述的方法,其特征在于,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
接收音频信号;
判断所述音频信号与待触发的声音是否一致,若一致则更新所述视线的屏幕位置。
5.根据权利要求2所述的方法,其特征在于,所述获取指示信号,判断是否更新所述视线的屏幕位置包括:
接收动作信号;
判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述接收调整信号,根据调整信号对所述屏幕上显示的位置进行调整包括:
接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离;或
接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的偏移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
7.一种定位位置的装置,其特征在于,包括:
检测单元,用于检测用户的视线朝向,获取所述用户的视线朝向参数;
所述检测单元,还用于检测所述用户的视线源,获取所述用户的视线源位置;
定位单元,用于获取屏幕的位置,并根据所述检测单元获取的视线朝向参数、所述屏幕的位置和所述检测单元获取的视线源位置得到视线的屏幕位置;
显示单元,用于在屏幕上显示所述视线的屏幕位置;
调整单元,用于接收调整信号,根据所述调整信号对所述屏幕上显示的位置进行调整,并在屏幕上显示调整后的位置。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
判定单元,用于当调整单元接受到所述调整信号时,获取指示信号,根据所述指示信号判断是否更新所述视线的屏幕位置;
所述显示单元,还用于如果更新所述视线的屏幕位置,则在屏幕上显示更新后的所述视线的屏幕位置;
所述调整单元,还用于若不更新所述视线的屏幕位置,则根据调整信号对屏幕上的位置进行调整。
9.根据权利要求8所述的装置,其特征在于,所述判定单元包括:
获取子单元,用于获取接收所述调整信号的时刻与接收上一个调整信号的时刻之间的时间;
判断子单元,判断所述时间是否超过预定的时间,若超过则更新所述视线的屏幕位置。
10.根据权利要求8所述的装置,其特征在于,所述判定单元包括:
获取子单元,用于接收音频信号;
判断子单元,用于判断所述音频信号与待触发的声音是否一致,若一致则更新所述视线的屏幕位置。
11.根据权利要求8所述的装置,其特征在于,所述判定单元包括:
获取子单元,用于接收动作信号;
判断子单元,用于判断所述动作信号与待触发的动作是否一致,若一致则更新所述视线的屏幕位置。
12.根据权利要求7-11任一项所述的装置,其特征在于,所述调整单元具体用于:
接收无线指示设备发出的调整信号,根据所述无线指示设备发出的调整信号对所述屏幕上显示的位置进行调整,其中所述无线指示设备发出的调整信号用于指示移动的方向和移动的距离;或
接收所述调整信号,检测用户手腕的位置和手指偏移的角度得到的偏移量,根据所述偏移量对所述屏幕上显示的位置进行调整。
CN201410337070.6A 2014-07-15 2014-07-15 一种定位位置的方法及装置 Active CN105260008B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201410337070.6A CN105260008B (zh) 2014-07-15 2014-07-15 一种定位位置的方法及装置
PCT/CN2014/094728 WO2016008265A1 (zh) 2014-07-15 2014-12-23 一种定位位置的方法及装置
US15/399,348 US10168773B2 (en) 2014-07-15 2017-01-05 Position locating method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410337070.6A CN105260008B (zh) 2014-07-15 2014-07-15 一种定位位置的方法及装置

Publications (2)

Publication Number Publication Date
CN105260008A CN105260008A (zh) 2016-01-20
CN105260008B true CN105260008B (zh) 2018-10-12

Family

ID=55077874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410337070.6A Active CN105260008B (zh) 2014-07-15 2014-07-15 一种定位位置的方法及装置

Country Status (3)

Country Link
US (1) US10168773B2 (zh)
CN (1) CN105260008B (zh)
WO (1) WO2016008265A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104932692B (zh) * 2015-06-24 2017-12-08 京东方科技集团股份有限公司 三维触摸感测方法、三维显示设备、可穿戴设备
CN105892647B (zh) * 2016-03-23 2018-09-25 京东方科技集团股份有限公司 一种显示屏调整方法、其装置及显示装置
CN105929954B (zh) * 2016-04-19 2019-10-18 京东方科技集团股份有限公司 一种控制光标的方法及装置、显示设备
CN107219921B (zh) * 2017-05-19 2019-09-27 京东方科技集团股份有限公司 一种操作动作执行方法及其系统
CN107219889A (zh) * 2017-05-25 2017-09-29 京东方科技集团股份有限公司 护眼显示装置和显示屏调整方法
CN108008907B (zh) * 2017-12-27 2021-08-13 上海传英信息技术有限公司 一种基于虚拟键盘的输入设备及输入方法
CN108829239A (zh) * 2018-05-07 2018-11-16 北京七鑫易维信息技术有限公司 终端的控制方法、装置及终端
CN116820246B (zh) * 2023-07-06 2024-05-28 上海仙视电子科技有限公司 一种视角自适应的屏幕调节控制方法及装置
CN116737051B (zh) * 2023-08-16 2023-11-24 北京航空航天大学 基于触控屏的视触结合交互方法、装置、设备和可读介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
CN102693022A (zh) * 2011-12-12 2012-09-26 苏州科雷芯电子科技有限公司 视觉跟踪与语音识别的鼠标系统
CN102812416A (zh) * 2010-06-17 2012-12-05 松下电器产业株式会社 指示输入装置、指示输入方法、程序、记录介质以及集成电路
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
CN103366381A (zh) * 2013-08-06 2013-10-23 山东大学 基于空间位置的视线跟踪校正方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
TW200806027A (en) * 2005-11-11 2008-01-16 Sony Corp Imaging/reproducing device
JP4894386B2 (ja) * 2006-07-21 2012-03-14 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
CN101344816B (zh) 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
WO2011001671A1 (ja) * 2009-07-01 2011-01-06 パナソニック株式会社 情報処理装置、及び情報処理装置の制御方法
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
KR101392936B1 (ko) * 2012-06-29 2014-05-09 한국과학기술연구원 사용자 맞춤형 인터페이스 시스템 및 그 구현 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
CN102812416A (zh) * 2010-06-17 2012-12-05 松下电器产业株式会社 指示输入装置、指示输入方法、程序、记录介质以及集成电路
CN102693022A (zh) * 2011-12-12 2012-09-26 苏州科雷芯电子科技有限公司 视觉跟踪与语音识别的鼠标系统
CN102830797A (zh) * 2012-07-26 2012-12-19 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
CN103366381A (zh) * 2013-08-06 2013-10-23 山东大学 基于空间位置的视线跟踪校正方法

Also Published As

Publication number Publication date
CN105260008A (zh) 2016-01-20
US20170115732A1 (en) 2017-04-27
WO2016008265A1 (zh) 2016-01-21
US10168773B2 (en) 2019-01-01

Similar Documents

Publication Publication Date Title
CN105260008B (zh) 一种定位位置的方法及装置
US10001844B2 (en) Information processing apparatus information processing method and storage medium
US11282224B2 (en) Information processing apparatus and information processing method
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP6586824B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2011108827A2 (ko) 증강현실의 포인팅 장치
US20150277555A1 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US10438411B2 (en) Display control method for displaying a virtual reality menu and system for executing the display control method
US9261953B2 (en) Information processing apparatus for displaying virtual object and method thereof
WO2019005644A1 (en) EYE TRACKING SYSTEM WITH DETECTION AND CORRECTION OF SLIDING
WO2017147748A1 (zh) 一种可穿戴式系统的手势控制方法以及可穿戴式系统
WO2017057106A1 (ja) 入力装置、入力方法、及びプログラム
WO2020054760A1 (ja) 画像表示制御装置および画像表示制御用プログラム
WO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10402939B2 (en) Information processing device, information processing method, and program
US10587862B2 (en) Head-mounted device
US10447996B2 (en) Information processing device and position information acquisition method
US10824237B2 (en) Screen display control method and screen display control system
US20190318503A1 (en) Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker
US20140043327A1 (en) Method and system for superimposing content to have a fixed pose
JP2015184986A (ja) 複合現実感共有装置
JP2013257830A (ja) 情報処理装置
WO2017163647A1 (ja) 頭部装着装置
TWI460683B (zh) The way to track the immediate movement of the head
JP2014010684A (ja) 情報処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant