CN103257707A - 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法 - Google Patents

利用视线跟踪技术和常规鼠标控制设备的三维漫游方法 Download PDF

Info

Publication number
CN103257707A
CN103257707A CN2013101264375A CN201310126437A CN103257707A CN 103257707 A CN103257707 A CN 103257707A CN 2013101264375 A CN2013101264375 A CN 2013101264375A CN 201310126437 A CN201310126437 A CN 201310126437A CN 103257707 A CN103257707 A CN 103257707A
Authority
CN
China
Prior art keywords
roaming
dimension
blinkpunkt
display
rotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101264375A
Other languages
English (en)
Other versions
CN103257707B (zh
Inventor
谢耀华
付琨
胡文龙
吴方才
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jigang Defense Technology Co.,Ltd.
Original Assignee
Institute of Electronics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Electronics of CAS filed Critical Institute of Electronics of CAS
Priority to CN201310126437.5A priority Critical patent/CN103257707B/zh
Publication of CN103257707A publication Critical patent/CN103257707A/zh
Application granted granted Critical
Publication of CN103257707B publication Critical patent/CN103257707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,包括一台计算机及其显示器、一个视频采集设备以及一个常规鼠标控制设备。该方法包括视频采集、注视点估计、视线漫游参数计算、鼠标漫游参数计算、显示反馈等步骤。通过安装在计算机显示器附近的视频采集设备获得用户脸部的实时画面,从中计算出人眼的注视方向并转换成显示器上的注视点位置,进而计算视线二维漫游参数用来控制场景在平面方向上的运动;同时将计算机显示器划分成多个区域,根据鼠标光标所处的区域来判断相应的鼠标一维漫游类型,并计算鼠标相应的漫游参数。该方法通过视线及鼠标光标的结合,能够实现灵活而且直观的三维漫游体验。

Description

利用视线跟踪技术和常规鼠标控制设备的三维漫游方法
技术领域
本发明涉及三维虚拟场景中的人机交互技术领域,尤其涉及一种利用视线跟踪技术和常规鼠标控制设备的三维漫游方法。
背景技术
随着地理信息在社会生产、生活中的广泛应用,基于三维场景的空间信息系统在各种领域中越来越普及,发展也越来越完善。但是,在常用的各类计算机上进行三维场景漫游还不是很自如,因而效率也受到局限。究其原因,常规的鼠标控制设备通常只具备两个自由度,并不适合于三维漫游操作;常用的做法是将漫游操作分解为若干种二维或一维漫游操作,并通过先后多个步骤的接力来完成三维漫游,从而降低了操作效率。因此,有必要寻找更加灵活、自然、直观的三维漫游控制方法。
现有的一些方法采用额外甚至特制的设备来改善三维漫游的操控效果。比如:采用游戏控制手柄、驾驶模拟器手柄或类似的设备来进行三维漫游,通过多个肢体的配合来增加漫游的维度和效率;这类方案在漫游性能上有所改善,但增加了整个系统的硬件复杂度。还有的系统中使用专门设计的增强型鼠标、轨迹球等装置进行三维漫游;这类方案可能达到较好的操控效果,但系统的硬件复杂度及成本都大大增加,给推广和普及造成障碍。而且,这些方法都只利用人的肢体来进行三维交互,人眼在其中只起到感知的作用,而没有充分挖掘其潜力。
已有的研究表明,人眼不仅能够用于感知可见信息,而且能够在人机交互方面发挥更重要的作用。常规的肢体操作通常需要视线的指导才能够完成,而直接利用视线进行交互则将两个步骤简化为一个,直观而且高效,尤其适合于进行选择、指向等操作。目前,在一些广告、宣传系统中采用了视线来选择用户感兴趣的物品,并相应显示出该物品的相关信息。一些系统通过用户的凝视来选择自动取款机上的数字键,从而达到安全输入密码的目的。还有一些系统利用视线跟踪技术来控制光标,作为常规鼠标的替代品。
发明内容
本发明提出一种利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,将视线跟踪技术与常规鼠标控制设备相结合,在不增加硬件复杂度的情况下,提高漫游控制的自由度,使三维漫游更加高效、灵活和自然。
本发明的目的是通过下述技术方案实现的:
包括计算机及其显示器、视频采集设备和常规鼠标控制设备;
步骤一,用户选择一种二维漫游动作:二维平移漫游状态或二维旋转漫游状态,并向视频采集设备发出开启信号;
步骤二,当视频采集设接收到步骤一的开启信号时,开始实时、连续采集用户的脸部图像得到视频数据,并传送给计算机;
步骤三,计算机从步骤二传来的视频数据中提取用户视线的注视方向,并根据视频采集设备与计算机显示器的相对位置关系,推算用户注视点在计算机显示器上的坐标位置,如果该坐标位置落在计算机显示器范围内则进行步骤四,否则重新采集视频,重复步骤三;
步骤四,通过步骤三得到的用户注视点在显示器上的坐标位置,根据步骤一选择的二维平移漫游或二维旋转漫游进行漫游;
步骤五,当步骤四的二维漫游动作进行漫游时,根据鼠标光标的位置选择一种一维漫游动作:且同一时刻将一种二维漫游和一种一维漫游同时进行,结合成为三维漫游控制;
步骤六,当接收到三维漫游停止的信号时,结束漫游。
步骤四中所述二维平移漫游:以显示器中心为起点、注视点为终点确定了一个注视点矢量,相应的平移参数也构成一个矢量,其方向与注视点矢量的方向一致,其大小与注视点矢量的大小成比例;当用户注视显示器上某点,则用户注视点就会朝该点平移,而且当用户注视点随该点移近显示器中心,平移的速度也随之放慢,最终趋于静止。
步骤四中所述二维旋转漫游:以显示器中心为起点、注视点为终点确定了一个注视点矢量,该矢量在水平方向和垂直方向上的分量分别决定水平旋转和垂直旋转的程度,其旋转速度与对应分量的大小近似成比例;而且,当水平分量向左时,视角向左旋转;当水平分量向右时,视角向右旋转;当垂直分量向上时,视角向上旋转;当垂直分量向下时,视角向下旋转;当水平旋转与垂直旋转同时进行时,最终的旋转效果由两者共同决定;同样,当用户注视点移近显示器中心,旋转的速度也随之放慢,最终趋于静止。
步骤五中所述一维缩放漫游或一维旋转漫游:显示器被划分为互不重叠的四个区域,位于显示器的上部、下部、左部和右部,当鼠标光标位于计算机上部或下部,则进行一维缩放漫游;当鼠标光标位于左部或右部,则进行一维旋转漫游;鼠标光标到显示器中心的距离则决定了缩放或旋转的速度;
本发明的有益效果:
首先,本发明将视线跟踪与常规鼠标控制设备相结合,不但能够同时进行三个维度的漫游操作,增强了控制效果;而且减轻了常规鼠标控制设备的负担(或者说视线分担了手臂的工作量),使其操作任务从二维降至一维;这样,原本操作性能较弱的一些常规鼠标控制设备(如触摸板)也能很好的胜任。
其次,本发明将漫游动作划分为两大类,每类各有两种,共能得到四种组合复合漫游模式,能够满足常用的漫游需要。
第三,本发明利用视线跟踪技术来进行二维漫游,提供了直观的控制方式,符合人类的自然反应,便于学习与操作。
最后,本发明充分挖掘常用计算机外设的潜力,不增加额外的设备及成本投入。
附图说明
图1硬件配置环境示意图
图2总体处理流程图
图3视线漫游参数计算示意图
图4鼠标漫游参数计算示意图
图5显示反馈示意图一
图6显示反馈示意图二
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图及具体实施例对本发明做进一步详细描述。
本发明公开了一种利用视线跟踪技术与常规鼠标控制设备相结合的三维漫游方法,该方法通过视线及鼠标光标的结合,能够实现灵活而且直观的三维漫游体验。
如图1,其硬件环境包括一台计算机110及其所包含的显示器115、一个视频采集设备120以及一个常规鼠标控制设备130(如鼠标、触摸板等)。显示器115既显示三维场景,也显示漫游过程中产生的各种显示反馈图形。视频采集设备120可能属于计算机110中附带的一部分,也可能为独立设备但被安装在与显示器115相对固定位置上,镜头朝向用户140;其作用是实时采集用户140的脸部图像,并传送到计算机110中由相应的软件模块中,用于计算用户140的视线方向和注视点等。常规鼠标控制设备130可能属于计算机110中附带的一部分(如:触摸板等),也可能为独立设备(如:各种鼠标、轨迹球等),其作用是在用户140肢体的控制下产生二维输入信号,经相应软件模块处理后转换为不同类型的一维漫游参数。
该方法包括视频采集、注视点估计、视线漫游参数计算、鼠标漫游参数计算、显示反馈等步骤。如图2,下面对各步骤进行具体说明:
步骤一,用户选择一种二维漫游动作:二维平移漫游状态或二维旋转漫游状态,并向视频采集设备发出开启信号;
为了开启漫游状态,需要由用户发出“开启”及“停止”命令,来标记二维漫游动作的有效时间段,并且区分二维平移和二维旋转;因此,用户可以分别用一个“开启”及“停止”命令来标记两种漫游操作,比如:按下左键表示开始二维平移,松开表示结束;按下右键表示开始二维旋转,松开表示结束。在符合本发明思路的前提下,还可以采用各种不同的方案来实现“开启”,比如:以其它方式按下鼠标键、以某种方式按下键盘按键、发出语音命令、移动鼠标做特定的动作、做肢体动作、视线凝视某处、控制视线沿特定的轨迹移动等等。
步骤二,当接收到步骤一的开启信号时,视频采集设备就开始实时、连续采集用户的脸部图像得到视频数据,并将其传送至计算机中运行的信息处理模块进行注视点估计。视频采集设备可以是原本就集成在计算机中的(比如便携式计算机上的摄像头),也可以是安装在一个与计算机显示器保持相对固定的位置,其拍摄方向为用户的脸部及附近的空间。通常只要使用可见光视频采集设备即可,但所述的处理方法同样适用于其它类型的视频采集设备。
步骤三,从步骤二传来的视频数据中提取用户视线的注视方向,并根据视频采集设备与计算机显示器的相对位置关系,推算用户注视点在显示器上的坐标位置,如果该坐标位置落在显示器范围内则进行步骤四,否则重新采集视频。该步骤为注视点估计,这个过程涉及图像处理和计算机视觉中的若干技术,通常需要进行图像预处理、人脸检测、人眼检测、眼部特征提取、视线方向估计和注视点计算等步骤,根据实际情况可能需要在使用前进行标定,确定并储存视频采集设备以及人眼的一些参数。目前已经有许多视线估计方法可以采用,其中有一些是基于可见光的,可以从中选取合适的来使用等。
步骤四,通过步骤三得到的用户注视点在显示器上的位置,根据步骤一选择的二维平移漫游或二维旋转漫游进行漫游;
二维平移漫游状态:以显示器中心为起点、注视点为终点确定了一个注视点矢量,相应的平移参数也构成一个矢量,其方向与注视点矢量的方向一致,其大小与注视点矢量的大小近似成比例;当用户注视显示器上某点,则视点就会朝该点平移,而且当用户注视点随该点移近显示器中心,平移的速度也随之放慢,最终趋于静止;如图3所示,当进入二维平移漫游状态后,以显示器115的中心点310为起点、用户的当前注视点320为终点形成了一个注视点矢量330。根据注视点矢量330,可以计算出一个平移参数矢量,其方向与注视点矢量330的方向一致,其大小与注视点矢量330的大小成一定的函数关系;通常可以使平移参数矢量的大小与注视点矢量330的大小近似成正比。这样,当用户注视显示器115上的某点时,三维场景的视点就会朝该点平移,或者说该点就会朝显示器中心310移动;并且用户注视点320离显示器中心310越远,视点平移的速度也就越快;随着用户注视点320移近显示器中心310,平移的速度也随之放慢,最终趋于静止。根据实施中的实际需要,也可以采用其它函数对应关系。
二维旋转漫游状态:以显示器中心为起点、注视点为终点确定了一个注视点矢量,该矢量在水平方向和垂直方向上的分量分别决定水平旋转和垂直旋转的程度,其旋转速度与对应分量的大小近似成比例;而且,当水平分量向左时,视角向左旋转;当水平分量向右时,视角向右旋转;当垂直分量向上时,视角向上旋转;当垂直分量向下时,视角向下旋转;水平旋转与垂直旋转可以同时进行,最终的旋转效果由两者共同决定;同样,当用户注视点移近显示器中心,旋转的速度也随之放慢,最终趋于静止。如图4,当进入二维旋转漫游状态后,也可以根据注视点矢量330计算出一个旋转参数矢量,其方向与注视点矢量330的方向一致,其大小与注视点矢量330的大小成一定的函数关系;通常也可以使旋转参数矢量的大小与注视点矢量330的大小近似成正比。注视点矢量330可以分解为水平分量341和垂直分量342;相应的旋转参数矢量也可以分解水平旋转分量和垂直旋转分量,二者分别决定了三维场景中视角的水平和垂直旋转参数。一方面,水平和垂直旋转分量的方向分别决定了视角沿水平和垂直方向的旋转方向;当水平分量向左时,视角向左旋转;当水平分量向右时,视角向右旋转;当垂直分量向上时,视角向上旋转;当垂直分量向下时,视角向下旋转。另一方面,水平和垂直旋转分量的大小分别决定了视角沿水平和垂直方向的旋转速度;即:若用户注视点320离显示器中心310越远,视角旋转的速度也就越快;随着用户注视点320移近显示器中心310,旋转的速度也随之放慢,最终趋于静止。水平旋转与垂直旋转可以同时进行,二者合成最终的旋转方向;为了符合用户的直观感觉,通常应使其与注视点矢量330的方向一致。
在二维平移状态下,用户注视点的位置决定了画面平移的方向和速度;在二维旋转状态下,用户注视点的位置决定了视角旋转的方向和速度。
步骤五,当步骤四二维漫游动作进行漫游时,根据鼠标光标的位置选择一种一维漫游动作:一维缩放漫游或一维旋转漫游;当鼠标光标位于上部或下部,则进行一维缩放漫游;当鼠标光标位于左部或右部,则进行一维旋转漫游;鼠标光标到显示器中心的距离则决定了缩放或旋转的速度;同一时刻可以将一种二维漫游和一种一维漫游同时进行,结合成为三维漫游控制。
一维缩放漫游和一维旋转漫游的有效时间段根据所述的二维平移漫游和二维旋转漫游自动确定;一维漫游动作不需要由用户发出“开启”及“停止”命令,而是伴随二维漫游的有效时间段自动开始及结束;当任意一种二维漫游动作可用时,一维漫游动作也就随之可用;当所有漫游动作均不可用时,一维漫游动作也就不可用。两种二维漫游动作可以与两种一维漫游动作灵活组合使用,无论是二维平移还是二维旋转,均可与一维缩放和一维旋转相结合,形成更高效的组合漫游动作。在一维漫游状态下,计算机显示器被划分为互不重叠的四个区域,大致位于显示器的上部、下部、左部和右部;鼠标光标的位置既决定了正在进行的是一维缩放还是一维旋转,又决定了一维缩放和一维旋转的方向(正方向或负方向)和速度。
如图4,计算机显示器115被划分为互不重叠的区域,分别位于显示器的上部、下部、左部和右部。图中采用两条对角线来划分区域,但也可以根据实际需要采用其它方式来划分,只要能够在满足用户的直观感受的前提下区分出一维缩放漫游和一维旋转漫游,并且每种漫游具备足够的显示器空间,使其能够很好的映射为漫游参数即可。在图中所示的方案中,区域421和区域422用于一维缩放漫游操作;当鼠标光标点410位于区域421时,三维场景的画面将持续放大,且放大的速度与鼠标光标点410到显示器中心310的垂直距离成一定的函数关系(通常可以成正比关系,也可以采用其它的函数对应关系);当鼠标光标点410位于区域422时,三维场景的画面将持续缩小,且缩小的速度与鼠标光标点410到显示器中心310的垂直距离成一定的函数关系。区域431和区域432用于一维旋转漫游操作(视角沿顺时针或逆时针旋转);当鼠标光标点410位于区域431时,三维场景的画面将持续逆时针旋转,且旋转的速度与鼠标光标点410到显示器中心310的水平距离成一定的函数关系(通常可以成正比关系,也可以采用其它的函数对应关系);当鼠标光标点410位于区域432时,三维场景的画面将持续顺时针旋转,且旋转的速度与鼠标光标点410到显示器中心310的水平距离成一定的函数关系。
步骤六,当接收到三维漫游停止的信号时,结束漫游。
所述显示反馈步骤不是本发明所必需的步骤,而是起到辅助、完善的作用,通过在计算机显示器上显示一些可视化的图形,来反映当前时刻所处于的漫游类型以及相关的信息。在二维漫游状态下,所显示的图形一方面能够区分当前漫游的类型:是二维平移还是二维旋转;另一方面能够反映出用户当前注视点与显示器中心点的相对位置关系,从而反映出二维漫游的方向和速度。所显示的图形既能够清晰的体现上述信息,又不会太多的遮挡三维场景,尽可能减小对用户观察和操作的影响。
图5显示了二维平移漫游和一维缩放漫游的一种可行的显示反馈方案;其中,箭头510的位置反映了用户注视点的位置,其方向指向显示器115的中心点,表明该点处的画面正在向显示器中心平移,箭头510的粗细反映了平移的速度;图形520由两个同心圆构成,其位置反映了鼠标光标的位置,两个同心圆半径的比率反映了缩放的速度(大于1时表示放大,小于1时表示缩小)。错误!未找到引用源。显示了二维旋转漫游和一维旋转漫游的一种典型显示反馈方案;其中,图形610形如一个有一定俯仰或左右摆动的四棱台,其位置反映了用户注视点的位置,其俯仰或左右摆动的幅度则反映了二维旋转漫游的速度;图形620为一个带有箭头的圆环,其位置反映了鼠标光标的位置,若箭头为顺时针则表示一维旋转为顺时针方向,若箭头为逆时针则表示一维旋转为逆时针方向,圆环的大小则反映了一维旋转的速度。图中显示器115的对角线仅用于辅助说明,实际并不可见。除了上述方案,根据实际情况,也可以采用其它形式来表示漫游的相关信息。
本发明把漫游动作分解为两类。第一类为二维漫游动作,包括二维平移和二维旋转,前者指的是视点沿上下左右四个方向的平移动作,后者指的是视角朝上下左右四个方向的旋转动作(即俯仰和左右偏转)。第二类为一维漫游动作,包括一维缩放和一维旋转,前者指的是视点沿前后两个方向的平移动作,后者指的是视角绕Z轴的旋转动作(即局限在显示器平面内的滚转)。本方法中,二维漫游动作由视线来控制,而一维漫游动作由常规鼠标控制设备来控制。
由于两类漫游分别包含两种动作,因此通过组合共能得到“二维平移+一维缩放”、“二维旋转+一维旋转”、“二维平移+一维旋转”和“二维旋转+一维缩放”等四种复合漫游模式,覆盖了常用的漫游操作需要。使用中,用户可以通过眼、手配合,形成多种复合漫游动作,进行灵活而直观的三维漫游控制。首先需要通过预定的“开启”命令,进入某种类型的漫游动作(可以选择两种二维漫游动作之一)。然后,在此状态下,同时进行视线控制的二维漫游以及肢体控制的一维漫游,即四种复合漫游模式中的某一种。通过不同的“开启”命令,就可在两种二维漫游动作之间切换;通过控制鼠标光标的位置,就可在两种一维漫游动作之间切换。通过视线与肢体的控制,可以在每种复合漫游模式下实现三个自由度的三维漫游。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,其特征在于,包括计算机及其显示器、视频采集设备和常规鼠标控制设备;
步骤一,用户选择一种二维漫游动作:二维平移漫游状态或二维旋转漫游状态,并向视频采集设备发出开启信号;
步骤二,当视频采集设接收到步骤一的开启信号时,开始实时、连续采集用户的脸部图像得到视频数据,并传送给计算机;
步骤三,计算机从步骤二传来的视频数据中提取用户视线的注视方向,并根据视频采集设备与计算机显示器的相对位置关系,推算用户注视点在计算机显示器上的坐标位置,如果该坐标位置落在计算机显示器范围内则进行步骤四,否则重新采集视频,重复步骤三;
步骤四,通过步骤三得到的用户注视点在显示器上的坐标位置,根据步骤一选择的二维平移漫游或二维旋转漫游进行漫游;
步骤五,当步骤四的二维漫游动作进行漫游时,根据鼠标光标的位置选择一种一维漫游动作:且同一时刻将一种二维漫游和一种一维漫游同时进行,结合成为三维漫游控制;
步骤六,当接收到三维漫游停止的信号时,结束漫游。
2.如权利要求1所述的利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,其特征在于,步骤四中所述二维平移漫游:以显示器中心为起点、注视点为终点确定了一个注视点矢量,相应的平移参数也构成一个矢量,其方向与注视点矢量的方向一致,其大小与注视点矢量的大小成比例;当用户注视显示器上某点,则用户注视点就会朝该点平移,而且当用户注视点随该点移近显示器中心,平移的速度也随之放慢,最终趋于静止。
3.如权利要求1所述的利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,其特征在于,步骤四中所述二维旋转漫游:以显示器中心为起点、注视点为终点确定了一个注视点矢量,该矢量在水平方向和垂直方向上的分量分别决定水平旋转和垂直旋转的程度,其旋转速度与对应分量的大小近似成比例;而且,当水平分量向左时,视角向左旋转;当水平分量向右时,视角向右旋转;当垂直分量向上时,视角向上旋转;当垂直分量向下时,视角向下旋转;当水平旋转与垂直旋转同时进行时,最终的旋转效果由两者共同决定;同样,当用户注视点移近显示器中心,旋转的速度也随之放慢,最终趋于静止。
4.如权利要求1所述的利用视线跟踪技术和常规鼠标控制设备的三维漫游方法,其特征在于,步骤五中所述一维缩放漫游或一维旋转漫游:显示器被划分为互不重叠的四个区域,位于显示器的上部、下部、左部和右部,当鼠标光标位于计算机上部或下部,则进行一维缩放漫游;当鼠标光标位于左部或右部,则进行一维旋转漫游;鼠标光标到显示器中心的距离则决定了缩放或旋转的速度。
CN201310126437.5A 2013-04-12 2013-04-12 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法 Active CN103257707B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310126437.5A CN103257707B (zh) 2013-04-12 2013-04-12 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310126437.5A CN103257707B (zh) 2013-04-12 2013-04-12 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法

Publications (2)

Publication Number Publication Date
CN103257707A true CN103257707A (zh) 2013-08-21
CN103257707B CN103257707B (zh) 2016-01-20

Family

ID=48961663

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310126437.5A Active CN103257707B (zh) 2013-04-12 2013-04-12 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法

Country Status (1)

Country Link
CN (1) CN103257707B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105592306A (zh) * 2015-12-18 2016-05-18 深圳前海达闼云端智能科技有限公司 一种三维立体显示处理方法和装置
CN105657406A (zh) * 2015-12-31 2016-06-08 北京小鸟看看科技有限公司 三维观察视角选定方法和装置
CN106462242A (zh) * 2014-04-23 2017-02-22 谷歌公司 使用视线跟踪的用户界面控制
CN109799908A (zh) * 2019-01-02 2019-05-24 东南大学 一种基于眼动信号的图像缩放及拖拽方法
CN110704673A (zh) * 2018-07-09 2020-01-17 上海交通大学 基于视频内容消费的反馈信息标识方法、系统及存储介质
CN112912825A (zh) * 2018-10-24 2021-06-04 Pcms控股公司 用于虚拟现实的感兴趣区域估计的系统和方法
US11138741B2 (en) 2016-05-27 2021-10-05 Rochester Institute Of Technology System and method for eye tracking
CN114356482A (zh) * 2021-12-30 2022-04-15 业成科技(成都)有限公司 利用视线落点与人机界面互动的方法
CN115981514A (zh) * 2022-12-26 2023-04-18 安徽省科大奥锐科技有限公司 用于虚拟仿真实验的智慧视角切换方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1969249A (zh) * 2004-06-18 2007-05-23 托比技术有限公司 基于眼跟踪控制计算机装置的装置、方法及计算机程序
CN102292690A (zh) * 2009-01-22 2011-12-21 阿尔卡特朗讯美国公司 电子数据输入系统
US20120272179A1 (en) * 2011-04-21 2012-10-25 Sony Computer Entertainment Inc. Gaze-Assisted Computer Interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1969249A (zh) * 2004-06-18 2007-05-23 托比技术有限公司 基于眼跟踪控制计算机装置的装置、方法及计算机程序
CN102292690A (zh) * 2009-01-22 2011-12-21 阿尔卡特朗讯美国公司 电子数据输入系统
US20120272179A1 (en) * 2011-04-21 2012-10-25 Sony Computer Entertainment Inc. Gaze-Assisted Computer Interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴佩育等: "视线鼠标在电子地图浏览中的应用", 《测绘工程》, vol. 21, no. 2, 30 April 2012 (2012-04-30) *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462242A (zh) * 2014-04-23 2017-02-22 谷歌公司 使用视线跟踪的用户界面控制
CN106462242B (zh) * 2014-04-23 2019-06-04 谷歌有限责任公司 使用视线跟踪的用户界面控制
CN105592306A (zh) * 2015-12-18 2016-05-18 深圳前海达闼云端智能科技有限公司 一种三维立体显示处理方法和装置
CN105657406A (zh) * 2015-12-31 2016-06-08 北京小鸟看看科技有限公司 三维观察视角选定方法和装置
US11138741B2 (en) 2016-05-27 2021-10-05 Rochester Institute Of Technology System and method for eye tracking
CN110704673B (zh) * 2018-07-09 2022-09-23 上海交通大学 基于视频内容消费的反馈信息标识方法、系统及存储介质
CN110704673A (zh) * 2018-07-09 2020-01-17 上海交通大学 基于视频内容消费的反馈信息标识方法、系统及存储介质
CN112912825A (zh) * 2018-10-24 2021-06-04 Pcms控股公司 用于虚拟现实的感兴趣区域估计的系统和方法
CN109799908A (zh) * 2019-01-02 2019-05-24 东南大学 一种基于眼动信号的图像缩放及拖拽方法
CN109799908B (zh) * 2019-01-02 2022-04-01 东南大学 一种基于眼动信号的图像缩放及拖拽方法
CN114356482A (zh) * 2021-12-30 2022-04-15 业成科技(成都)有限公司 利用视线落点与人机界面互动的方法
CN114356482B (zh) * 2021-12-30 2023-12-12 业成科技(成都)有限公司 利用视线落点与人机界面互动的方法
CN115981514A (zh) * 2022-12-26 2023-04-18 安徽省科大奥锐科技有限公司 用于虚拟仿真实验的智慧视角切换方法
CN115981514B (zh) * 2022-12-26 2023-10-03 安徽省科大奥锐科技有限公司 用于虚拟仿真实验的智慧视角切换方法

Also Published As

Publication number Publication date
CN103257707B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
CN103257707B (zh) 利用视线跟踪技术和常规鼠标控制设备的三维漫游方法
CN110168618B (zh) 增强现实控制系统和方法
US9910509B2 (en) Method to control perspective for a camera-controlled computer
Sugimoto et al. Time Follower's Vision: a teleoperation interface with past images
Rabbi et al. A survey on augmented reality challenges and tracking
US8405656B2 (en) Method and system for three dimensional interaction of a subject
CN102253713B (zh) 面向三维立体影像显示系统
CN103793060A (zh) 一种用户交互系统和方法
CN104050859A (zh) 可交互数字化立体沙盘系统
CN103246351A (zh) 一种用户交互系统和方法
CN107122045A (zh) 一种基于混合现实技术的虚拟人机示教系统及方法
CN103389699A (zh) 基于分布式智能监测控制节点的机器人监控及自主移动系统的运行方法
CN111716365B (zh) 基于自然行走的沉浸式远程交互系统及方法
CN107479697A (zh) 虚拟现实下视觉引导重新定位移动的方法及装置
WO2016193537A1 (en) Mediated reality
EP3591503B1 (en) Rendering of mediated reality content
US20200273243A1 (en) Remote monitoring and assistance techniques with volumetric three-dimensional imaging
Chen et al. User cohabitation in multi-stereoscopic immersive virtual environment for individual navigation tasks
CN105979330A (zh) 体感按键的定位方法及装置
Schreiter et al. The magni human motion dataset: Accurate, complex, multi-modal, natural, semantically-rich and contextualized
CN206877277U (zh) 一种基于混合现实技术的虚拟人机示教系统
KR20200091255A (ko) 가상 현실 제어 시스템
Gai et al. A New Navigation Method for VR-based Telerobotic System via Supervisor's Real Walking in a Limited Physical Space
CN111273773B (zh) 一种头戴式vr环境的人机交互方法及系统
KR20200091256A (ko) 가상 현실 제어 시스템

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210104

Address after: 100190 No. 19 West North Fourth Ring Road, Haidian District, Beijing

Patentee after: Research Institute of aerospace information innovation, Chinese Academy of Sciences

Address before: 100080, No. 19 West Fourth Ring Road, Beijing, Haidian District

Patentee before: Institute of Electronics, Chinese Academy of Sciences

Effective date of registration: 20210104

Address after: 250101 No.9, Kuangyuan Road, Gongye North Road, Wangsheren street, Licheng District, Jinan City, Shandong Province

Patentee after: Jigang Defense Technology Co.,Ltd.

Address before: 100190 No. 19 West North Fourth Ring Road, Haidian District, Beijing

Patentee before: Research Institute of aerospace information innovation, Chinese Academy of Sciences