CN110502100B - 基于眼动跟踪的虚拟现实交互方法及装置 - Google Patents

基于眼动跟踪的虚拟现实交互方法及装置 Download PDF

Info

Publication number
CN110502100B
CN110502100B CN201910457393.1A CN201910457393A CN110502100B CN 110502100 B CN110502100 B CN 110502100B CN 201910457393 A CN201910457393 A CN 201910457393A CN 110502100 B CN110502100 B CN 110502100B
Authority
CN
China
Prior art keywords
pupil
eye
tracking
screen
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910457393.1A
Other languages
English (en)
Other versions
CN110502100A (zh
Inventor
岳敬伟
贺浩宸
李春永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Pharmacology and Toxicology of AMMS
Original Assignee
Institute of Pharmacology and Toxicology of AMMS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Pharmacology and Toxicology of AMMS filed Critical Institute of Pharmacology and Toxicology of AMMS
Priority to CN201910457393.1A priority Critical patent/CN110502100B/zh
Publication of CN110502100A publication Critical patent/CN110502100A/zh
Application granted granted Critical
Publication of CN110502100B publication Critical patent/CN110502100B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明涉及一种基于眼动跟踪的虚拟现实交互方法及装置,通过测量眼睛的视觉注意力焦点的位置实现对眼球运动的实时追踪,其采用红外光源和红外摄像头进行眼动信息采集,通过追踪和计算眼部图像中瞳孔的中心位置来测量瞳孔的位置,建立瞳孔的运动轨迹;此外,本发明的基于眼动跟踪的虚拟现实交互装置,其能够通过监测瞳孔的变化,实时监测使用者的生理或认知状态以及情绪变化,例如,惊吓、刺激等反应,并且,本发明能够监控眼动轨迹和瞳孔的变化,例如,扩张或缩小的相应程度,反馈至主控模块。

Description

基于眼动跟踪的虚拟现实交互方法及装置
技术领域
本发明涉及虚拟现实技术领域,更为具体地,涉及一种基于眼动跟踪的虚拟现实交互方法及装置。
背景技术
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,其利用计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真,能够在虚拟三维空间中为用户提供浸入式的交互环境。
在虚拟现实领域中,由于价格及便利性的优势,市场上面向普通消费者的主要是头戴式虚拟现实设备,用户可以通过头戴式虚拟现实设备的显示器透过光学镜片在距离很近的屏幕上观看虚拟场景。目前现有技术中的虚拟现实设备,例如,头戴式虚拟现实设备,其对视力缺陷的人员,例如,对于眼睛存在近视、远视、散光等问题需要佩戴眼镜的操作人员不够友好,佩戴舒适性差,影响使用效果。
现有技术当中的虚拟现实装置,例如,头戴式虚拟现实设备,仅能够对虚拟场景进行简单呈现或观察,而与相机拍摄视频相比,头戴式虚拟现实设备的显示器中呈现的视频通常含有大量静止和/或活动的由计算机生成的图形、文字,还可能包含较大的、与自然界不同的运动,渐进、渐出等特性,考虑到在现实空间中用户的视觉注意力会在不同距离物体上移动、注视和扫描等,在虚拟现实空间中的用户视觉注意力焦点的变化也有着类似的行为,人类视力的敏锐度随着偏离视网膜中心的距离增大而急剧下降,在通过虚拟现实头戴式设备观看虚拟场景时,用户的视力在同一时刻不可能对屏幕上所有区域保持高敏锐度,现有技术中的虚拟现实装置并未充分考虑到用户的视觉特性。
眼动捕捉是通过测量眼睛的视觉注意力焦点的位置实施追踪。此外,现有技术中的头戴式虚拟现实设备虽然能够对虚拟现实设备的使用者的较大的头部动作进行监控,但是其不能对使用者的生理或认知状态以及情绪变化,例如,惊吓、刺激等反应,进行监控。因此,期望提出一种能够对用户瞳孔的状态及运动轨迹进行监测的虚拟现实交互方法及装置。
发明内容
针对现有技术中存在的问题,本发明的目的在于提出一种基于眼动跟踪的虚拟现实交互方法及装置,其能够对眼球,例如,瞳孔的运动进行跟踪,通过测量眼睛的视觉注意力焦点的位置实现对眼球运动的实施追踪,具体地,其采用红外光源和红外摄像头进行眼动信息采集,通过追踪和计算眼部图像中瞳孔的中心位置来测量眼球的位置,建立眼球的运动轨迹,此外,本发明的基于眼动跟踪的虚拟现实交互装置,其能够通过监测瞳孔的变化,实时监测使用者的生理或认知状态以及情绪变化,例如,惊吓、刺激等反应,并且,本发明能够根据眼动轨迹和瞳孔的变化,例如,扩张或缩小的相应程度,反馈至主控模块。
优选地,本发明的基于眼动跟踪的虚拟现实交互方法及装置还设置有相应的屈光度调节方法及瞳距调节方法,以及所对应的屈光度调节装置和瞳距调节装置,其能够针对不同的操作者进行适应性调节,提高佩戴的舒适性。
本发明的技术方案如下:
一种眼动跟踪的虚拟现实交互方法,其具体步骤如下:
S1:对屏幕中的图像进行网格划分,该图像的坐标点为(xsi,ysi),预先设定眼动跟踪装置中红外光源发生器的发射频率f1,所述红外光源发生器在工作过程中连续对操作人员眼部进行照射;摄像头采集到的左眼的瞳孔坐标为(xli,yli),摄像头采集到的右眼的瞳孔坐标为(xri,yri);
S2:选取屏幕的中心点(xs0,ys0),注视显示器的屏幕中心点持续第四预设时间t4,确定瞳距值d0以及各瞳孔的基准坐标原点,其中左眼瞳孔的基准坐标(xl0,yl0),右眼瞳孔的基准坐标为(xr0,yr0);
S3:根据S2中获得各瞳孔的基准坐标以及瞳距值d0,通过瞳距调节装置带动屈光度调节装置进行调节;通过屏幕中的选取的固定注视点,所述固定注视点的数量为N个,通过多项式拟合,建立屏幕中的坐标系与红外摄像头采集到的瞳孔坐标的映射关系;
S4:确定瞳孔在基准坐标下的瞳孔边界,得到各瞳孔面积s0,得到正常情绪下瞳孔的参数;
S5:通过眼动跟踪装置连续获取各ti时刻眼睛运动的红外图像并将所采集到的红外图像发送至主机;
所述主机根据所述红外图像,获取当前时刻下对应的瞳孔的实际位置(xl,yl)和(xr,yr);确定瞳孔运动轨迹以及瞳孔停留时间,得到眼睛运动模式;
根据左瞳孔位置信息得到左眼的注视点坐标(xsl,ysl),
Figure GDA0002602982080000031
根据右瞳孔位置信息得到右眼的注视点坐标(xsr,ysr),
Figure GDA0002602982080000032
其中,(xl,yl)为当前时刻的左眼的瞳孔的实际位置;(xr,yr)为当前时刻下右眼的瞳孔的实际位置;各瞳孔的实际位置为通过红外摄像头采集到的瞳孔的位置;其中(xli,yli)为第i个固定注视点时左眼瞳孔的实际坐标;(xri,yri)为第i个固定注视点时右眼瞳孔的实际坐标;其中1≤i≤N;
当前ti时刻下注视点的坐标(xs,ys)如下:
(xs,ys)=[ρl·(xsl,ysl)+ρr·(xsr,ysr)]/2
其中,ρl,ρr∈(0,1),ρlr=1,ρl为第一加权系数,ρr为第二加权系数;
S6:瞳孔停留时间超过第二预设时间t2,则确定眼睛的焦点移动至该注视点;主机根据所述焦点控制显示器,将显示器屏幕中的图像重新进行显示;
S7:根据第三预设时间t3内所述红外摄像头中连续拍到的瞳孔的个数n,确定眨眼频率f2=n/t3
S8:根据眨眼频率f2,进行注意力等级判断:
当眨眼频率f2高于10次/分钟时,判定为操作人员疲劳;或当每次持续闭眼时间超过1s,判定为操作人员疲劳;
否则,判定为操作人员无疲劳出现;
S9:根据S8中的注意力等级判断结果给出相应提示或预警,当无疲劳出现时,视为正常;当判定为疲劳时,进行疲劳预警。
优选地,S3中通过在显示器的屏幕上选定多个固定注视点作为校正点,得到各校正点在屏幕上的坐标,所述校正点的数量为i个,所述校正点中至少包括屏幕的中心点,其余i-1个校正点在屏幕上对称分布;选定屏幕中心点作为基准点,逐一点亮所选定的多个校正点,分别对各个校正点进行注视,注视时间为第一预设时间t1,在注视时通过眼动跟踪装置获取当前状态下相应的瞳孔的实际位置,以得到其在屏幕上的注视点。
在S4中,获取各时刻下对应的瞳孔面积sj,其中j=1,2,…,
所述方法还包括如下步骤:
S10:根据当前时刻的瞳孔面积,确定瞳孔的扩张或缩小程度A,A=(sj-s0)/s0
S11:进行情绪判断:
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%,判定操作人员处于紧张情绪状态;
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%-50%,判定操作人员处于惊恐情绪状态;
S12:根据情绪判断结果进行相应提示或预警。
优选地,所述红外摄像头采集所述红外光源发生器所发射的红外光,根据红外摄像头接受到的面光源的反射情况,来确定瞳孔的边界得到瞳孔的面积,根据瞳孔面积的变化,进行情绪判断。
优选地,预设所述眼动跟踪装置中红外摄像头的采集频率为30Hz~2000Hz。
优选地,S3中,要求各个所选定的校正点的第一注视时间超过2s;所述眼动跟踪装置设置壳体的第六侧面的外部。
优选地,S6中确定焦点后,以所述焦点为中心进行放大显示,显示的范围的以焦点为圆心,作第一圆,第一圆的直径为5cm-7cm;同时,以该焦点为圆心作第二圆,第二圆的直径为4cm,当焦点处于第二圆内持续进行显示当前画面,当焦点改变后位于第一圆和第二圆形成的圆环内,将当前画面进行平移,当焦点位于第一圆以外时,缩小至初始显示比例。
优选地,S7中
连续无瞳孔图像持续时间为200ms-400ms,则判定为眨眼;
连续无瞳孔图像持续时间超过400ms,则判定为闭眼。
优选地,S9中,在显示器的屏幕上滚动显示信息条,和/或报警器进行报警操作。
一种基于眼动跟踪的虚拟现实交互装置,其包括壳体、显示器、透镜、主控模块、眼动跟踪装置和电源模块,所述主控模块与所述显示器相连,所述显示器、眼动跟踪装置和所述主控模块分别连接至电源模块;所述眼动跟踪装置通过有线或无线方式连接至主机,眼动跟踪装置连续采集不同时刻的眼睛运动的红外图像,并将所采集到的红外图像发送至所述主机;所述主机获取当前状态下相应的瞳孔的实际位置及瞳孔面积;并根据连续多帧红外图像中的瞳孔位置确定眼睛运动轨迹以及眼睛停留时长,得到眼睛运动模式;所述主机发送控制指令至所述主控模块,所述主控模块控制所述显示器根据当前眼睛的焦点重新进行显示。
与现有技术相比,本发明的基于眼动跟踪的虚拟现实交互方法及装置,设置有屈光度调节装置和瞳距调节装置,其能够针对不同的操作者进行适应性调节,提高佩戴的舒适性。
本发明的基于眼动跟踪的虚拟现实交互方法及装置其对眼球的运动进行跟踪,通过测量眼睛的视觉注意力焦点的位置实现对眼球运动的实施追踪,具体地,其通过对屏幕中的图像进行网格划分,确定屏幕中图像的坐标点,并预设眼动追踪装置中的红外光源发生器的发射频率,通过摄像头,例如,红外摄像头进行眼动信息采集,采集到操作人员的瞳距值以及各瞳孔的坐标。优选地,选取屏幕上的多个固定注视点对瞳孔的坐标进行矫正,得到各瞳孔的基准坐标。之后,通过瞳距调节装置带动屈光度调节装置进行调节;建立屏幕中的坐标系与红外摄像头采集到的瞳孔坐标的映射关系;通过追踪和计算眼部图像中瞳孔的中心位置来测量眼球的位置,建立眼球的运动轨迹。
此外,本发明的基于眼动跟踪的虚拟现实交互方法及装置,其能够通过监测瞳孔的变化,例如,确定瞳孔在基准坐标下的瞳孔边界,得到各瞳孔面积s0,得到正常情绪下瞳孔的参数;并且将其与各时刻下对应的瞳孔面积sj进行对比,进而进行情绪判断:实时监测使用者的生理或认知状态以及情绪变化,例如,惊吓、刺激等反应。并且,本发明能够根据眼动轨迹和瞳孔的变化,例如,扩张或缩小的相应程度,反馈至主控模块并进行相应的提示或预警。
附图说明
本发明上述和/或附加方面的优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明的基于眼动跟踪的虚拟现实交互方法的流程图;
图2是根据本发明的基于眼动跟踪的虚拟现实交互方法的情绪判断的流程图;
图3是根据本发明的基于眼动跟踪的虚拟现实交互装置的结构示意框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
根据本发明的实施例的基于眼动跟踪的虚拟现实交互方法,如图1至图3所示,其具体步骤如下:
S1:对屏幕中的图像进行网格划分,该图像的坐标点为(xsi,ysi),预先设定眼动跟踪装置中红外光源发生器的发射频率f1,所述红外光源发生器在工作过程中连续对操作人员眼部进行照射;摄像头采集到的左眼的瞳孔坐标为(xli,yli),摄像头采集到的右眼的瞳孔坐标为(xri,yri);
优选地,预设所述红外光源发生器的发射频率为100Hz~2000Hz。
优选地,所述红外光源发生器的发射频率为500Hz。
优选地,预设所述眼动跟踪装置中红外摄像头的采集频率为30Hz~2000Hz,以便稳定采样。
优选地,所述红外摄像头的采集频率为300Hz~500Hz。
S2:打开显示器,通过显示器的屏幕中示出的内容,选取屏幕的中心点(xs0,ys0),注视显示器的屏幕中心点持续第四预设时间t4,确定瞳距值d0以及各瞳孔的基准坐标原点,其中左眼瞳孔的基准坐标(xl0,yl0),右眼瞳孔的基准坐标为(xr0,yr0);
S3:根据S2中获得各瞳孔的基准坐标以及瞳距值d0,通过瞳距调节装置带动屈光度调节装置进行调节;通过屏幕中的选取的固定注视点,所述固定注视点的数量为N个,通过多项式拟合,建立屏幕中的坐标系与红外摄像头采集到的瞳孔坐标的映射关系;
具体地,对左眼瞳孔和右眼瞳孔的位置分别进行矫正,在显示器的屏幕上选定多个矫正点,依次点亮所选定的多个矫正点,并按照第一预设时间t1分别对各个矫正点进行注视,在注视时通过眼动跟踪装置中的红外摄像头采集在第一预设时间内相应的瞳孔所反射的红外光源发生器所发射的红外光,获取当前状态下所述瞳孔的实际位置。计算得到该瞳孔的基准坐标;
优选地,要求各个所选定的矫正点的第一注视时间t1超过2s,以便采集到更稳定的眼动数据;
优选地,眼动跟踪装置设置壳体的第六侧面的外部所述透镜的上方。
进一步地,通过五点法或者九点法对初始状态下瞳孔的位置进行矫正,获取瞳孔的基准坐标。
具体地,五点法中分别在左眼对应的屏幕上设置五个点,所述五个点的分布规律如下,设定五个点的一个点为第一中心点,其余四个点分布在所述第一中心点的周围,所述四个点的连线呈矩形或正方形,在右眼对应的屏幕上设置五个点,所述五个点的分布规律如下,设定五个点的一个点为第二中心点,其余四个点分布在所述第二中心点的周围,所述四个点的连线呈矩形或正方形.
具体地,九点法中分别在左眼对应的屏幕上设置九个点,所述九个点的分布规律如下,所述九个点呈三行三列均匀排布;在右眼对应的屏幕上设置九个点,所述九个点的分布规律如下,所述九个点呈三行三列均匀排布。
并列地,S3中通过在显示器的屏幕上选定多个固定注视点作为校正点,得到各校正点在屏幕上的坐标,所述校正点的数量为i个,所述矫正点中至少包括屏幕的中心点,其余i-1个校正点在屏幕上对称分布;选定屏幕中心点作为基准点,逐一点亮所选定的多个校正点,分别对各个校正点进行注视,注视时间为第一预设时间t1,在注视时通过眼动跟踪装置获取当前状态下相应的瞳孔的实际位置,以得到其在屏幕上的注视点。
S4:确定瞳孔在基准坐标下的瞳孔边界,得到各瞳孔面积s0,得到正常情绪下瞳孔的参数;
优选地,确定瞳孔在基准坐标下的瞳孔边界,以确定瞳孔边界初始参考值,得到正常情绪状态下瞳孔边界的参考值。
S5:当眼睛运动时,通过眼动跟踪装置连续获取眼睛运动的红外图像,即眼动跟踪装置连续采集不同时刻的眼睛运动的红外图像,并将该些红外图像发送至主机;主机根据红外图像确定各红外图像中的瞳孔位置,并根据连续多个红外图像中的瞳孔位置确定眼睛运动轨迹以及眼睛停留时间,得到瞳孔运动模式;
进一步地,通过眼动跟踪装置连续获取各ti时刻眼睛运动的红外图像并将所采集到的红外图像发送至主机;
所述主机根据所述红外图像,获取当前时刻下对应的瞳孔的实际位置(xl,yl)和(xr,yr);确定瞳孔运动轨迹以及瞳孔停留时间,得到眼睛运动模式;
根据左瞳孔位置信息得到左眼的注视点坐标(xsl,ysl),
Figure GDA0002602982080000101
根据右瞳孔位置信息得到右眼的注视点坐标(xsr,ysr),
Figure GDA0002602982080000102
其中,(xl,yl)为当前时刻的左眼的瞳孔的实际位置;(xr,yr)为当前时刻下右眼的瞳孔的实际位置;各瞳孔的实际位置为通过红外摄像头采集到的瞳孔的位置;其中(xli,yli)为第i个固定注视点时左眼瞳孔的实际坐标;(xri,yri)为第i个固定注视点时右眼瞳孔的实际坐标;其中1≤i≤N;
当前ti时刻下注视点的坐标(xs,ys)如下:
(xs,ys)=[ρl·(xsl,ysl)+ρr·(xsr,ysr)]/2
其中,ρl,ρr∈(0,1),ρlr=1,ρl为第一加权系数,ρr为第二加权系数;
S6:瞳孔某一坐标点处停留时间超过第二预设时间t2,则确定眼睛的焦点移动至该坐标点处;主机根据所述焦点控制显示器,将显示器屏幕中的图像重新进行显示;优选地,第二预设时间t2小于2秒。
优选地,S6中确定焦点后,以所述焦点为中心进行放大显示,显示的范围的以焦点为圆心,做半径为5cm的第一圆,同时,以焦点为圆心做半径为4cm的第二圆,当焦点处于第二圆内持续进行显示当前画面,当焦点处于第一圆和第二圆形成的圆环内,将当前画面进行平移,当焦点位于第一圆以外时,缩小至初始显示比例。
S7:根据第三预设时间t3内所述红外摄像头中连续拍到的瞳孔的个数n,确定眨眼频率f2=n/t3
优选地,S7中
连续无瞳孔图像持续时间为200ms-400ms,则判定为眨眼;
连续无瞳孔图像持续时间超过400ms,则判定为闭眼。
优选地,S9中,在显示器的屏幕上滚动显示信息条,和/或报警器进行报警操作。
S8:根据眨眼频率f2,进行注意力等级判断:
当眨眼频率f2高于10次/分钟时,判定为操作人员疲劳;或当每次持续闭眼时间超过1s,判定为操作人员疲劳;
否则,判定为操作人员无疲劳出现;
根据S8中的注意力等级判断结果给出相应提示或预警,当无疲劳出现时,视为正常;当判定为疲劳时,进行疲劳预警。
S9:根据注意力等级判断结果,给出相应提示或预警。当无疲劳出现时,视为正常;当判定为疲劳时,进行疲劳预警;
优选地,主机控制显示器,在显示器的屏幕上滚动显示信息条;
优选地,主机控制报警器进行报警。
优选地,在S4中,获取各时刻下对应的瞳孔面积sj,其中j=1,2,…,
所述方法还包括如下步骤:
S10:根据当前时刻的瞳孔面积,确定瞳孔的扩张或缩小程度A,A=(sj-s0)/s0
S11:进行情绪判断:
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%,判定操作人员处于紧张情绪状态;
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%-50%,判定操作人员处于惊恐情绪状态;
S12:根据情绪判断结果进行相应提示或预警。
优选地,S6中确定焦点后,以所述焦点为中心进行放大显示,显示的范围的以焦点为圆心,作第一圆,第一圆的直径为5cm-7cm;同时,以该焦点为圆心作第二圆,第二圆的直径为4cm,当焦点处于第二圆内持续进行显示当前画面,当焦点改变后位于第一圆和第二圆形成的圆环内,将当前画面进行平移,当焦点位于第一圆以外时,缩小至初始显示比例。
优选地,所述红外摄像头采集所述红外光源发生器所发射的红外光源,根据红外摄像头接受到的面光源的多少,来确定瞳孔的边界,进行情绪判断。
优选地,所述红外图像中瞳孔为红外光反射特征最明显的部分,形成一个最亮的光点,该亮点即为瞳孔位置,该亮点所在的位置为瞳孔在红外图像中的平面坐标,记为(x,y),优选地,设定所述眼动坐标系为红外图像内的坐标系,获得并标记瞳孔的位置,根据红外图像中瞳孔位置、眼动坐标系与虚拟现实图像坐标系的关系确定虚拟物体,得到虚拟距离d。
在本实施例中,采用置于透镜的第二端端正上方的壳体上的两个眼动追踪设备,分别获得左、右眼睛运动的红外图像。
优选地,所述红外光源发生器采用贴片式红外光LED,且均匀地贴于所述壳体的外围一周且面向操作人员人眼方向,红外摄像头固定于眼动跟踪装置的边缘处。
优选地,根据红外图像中瞳孔位置和瞳孔的偏移角度确定显示屏上眼睛注视的焦点,这个焦点是根据单眼的瞳孔位置确定的焦点,双眼的焦点在看一个物体的时候视线交叉,交叉点就落在焦点物体上,
最后,根据该焦点沿着与虚拟现实显示屏垂直的方向向虚拟环境中延伸,遇到的第一个物体为需要确定的虚拟物体,主机根据该虚拟物体确定用户界面的内容显示。
进一步地,保持用户界面的中心位置不变,动态持续放大用户界面的尺寸至设定的倍数同时交互内容增多;当眼睛恢复移动,则主机控制用户界面自动缩小至原来尺寸,交互内容也恢复至初始状态。
根据本发明的基于眼动跟踪的虚拟现实交互装置,其包括壳体、显示器、透镜、主控模块、眼动跟踪装置和电源模块,所述主控模块与所述显示器相连,所述显示器、眼动跟踪装置和所述主控模块分别连接至电源模块。
所述壳体具有第一部分、第二部分、第三部分、第四部分、第五部分和第六部分,其中所述第一部分为壳体的顶部,所述第二部分为所述壳体的底部,所述第三部分为所述壳体的第一侧部,所述第四部分为所述壳体的第二侧部,所述壳体的各个部分连接处采用圆角过渡,所述第五部分为所述壳体的前部,所述第六部分为所述壳体的后部,所述壳体的后部靠近操作人员的眼部。
所述壳体的两个侧部均设置有连接固定装置,所述连接固定装置将本发明的基于眼动跟踪的虚拟现实交互装置连接至所述操作人员的头部。优选地,所述连接固定装置为固定带。
所述壳体的第六部分上设置透镜孔,所述透镜的镜筒的第一端位于所述壳体内部,通过第一夹持装置,将所述透镜支撑在所述壳体的内部,所述透镜的镜筒的第二端穿过所述壳体的第六部分上的透镜孔伸出所述壳体外,所述透镜的镜筒依靠所述透镜孔的边缘进行支撑以及固定。优选地,所述透镜设置有透镜调节机构,所述透镜调节机构根据操作人员的瞳距至调节透镜的两个镜筒之间的距离。优选地,所述透镜孔的水平方向的尺寸大于透镜孔的直径,以便进行瞳距调节。
优选地,所述透镜的镜筒上设置有第一贴片和第二贴片,所述各贴片与透镜的镜筒固接,随镜筒移动,以便在进行瞳距调节时,挡住所述透镜孔上的空隙,保护壳体内部结构。
优选地,所述透镜调节装置分别与透镜的各镜筒连接。
所述显示器通过第二夹持定位装置固定至所述壳体的内侧壁。
所述透镜的镜筒的第一端位于所述显示器的屏幕和所述壳体的第六部分之间。
所述主控模块位于所述壳体内部,所述主控模块依靠第三夹持定位装置进行固定;所述主控模块设置有多个接口,所述接口至少包括显示器接口、电机接口、红外光源发生器接口和锁紧机构接口;优选地,所述主控模块通过有线方式连接至主机。
并列地,所述主控模块通过无线方式与主机进行通讯,所述主控模块与所述第一无线收发模块相连,所述第一无线收发模块与主机上的第二无线收发模块相互通讯,以便主控模块与主机进行相互通讯。
从所述壳体的第六部分的外侧壁设置有沿着远离所述壳体的本体部进行延伸的支撑部,所述支撑部与操作人员的面部接触,在所述操作人员的面部,例如,操作人员的眼部与透镜的镜筒的第二端之间形成容纳空间。优选地,在所述支撑部的外层设置有与人体皮肤接触有弹性垫,所述弹性垫能够增加使用过程中操作人员的舒适性,避免在低温时设备温度随之下降,影响眼部周围血液流通;同时,可避免使用过程中所述支撑部直接接触皮肤造成的勒痕,影响眼部周围血液流通。
优选地,所述弹性垫可拆卸地连接至所述支撑部。
优选地,所述支撑部为环形结构件,所述环境结构件的内部为中空,支撑部远离所述壳体的第六部分的端部设置有凹槽,所述弹性垫的基部压入所述凹槽内,当所述弹性垫损坏或被污染后,或气温过高被汗液浸湿后,可根据需要进行更换。
优选地,所述支撑部的侧部和下部均设置透气结构和透光结构,以维持本发明的基于眼动跟踪的虚拟现实交互装置的容纳空间内的环境与外部环境一致,避免在全封闭黑暗环境下瞳孔收缩,影响眼部肌肉动作,长期以往对视力造成影响。
与所述支撑部相连的所述壳体的第六部分的区域内设置有多个第一孔,所述第一孔配置用于导线和控制线的进出。
本发明的基于眼动跟踪的虚拟现实交互模块,还包括屈光度调节装置和瞳距调节装置,以便精准地解决屈光不正的问题。
所述屈光度调节装置包括镜片、托架、托架连接件;所述瞳距调节装置包括导轨、滑块、电机、传动装置、限位装置和锁紧装置,所述电机和所述锁紧装置与所述电源模块相连所述电机、锁紧装置分别与所述主控模块相连,主控模块控制所述电机带动所述传动装置进行运动,所述传动装置与电机的输出轴相连,所述传动装置的输出端与滑块相连,从而带动所述滑块进行动作进行瞳距调整,所述限位机构分别位于导轨的中部和两侧,其限制所述滑块的移动范围,当瞳距等于通过眼动跟踪装置测得的初始参考瞳距值时,主控模块控制所述锁紧机构进行动作将所述滑块固定在该位置。
所述托架与所述滑块的底部通过所述托架连接件进行连接,所述托架为框架结构,所述托架具有支撑边缘,以避免镜片从框架结构中滑出,所述托架的底部设置托板,所述托板托住所述镜片以避免所述镜片从所述托架的底部滑出,所述托架的四周设置有卡爪,所述卡爪为弹性结构件,镜片安装至托架后,拨动所述卡爪将镜片卡紧固定至所述托架,通过放置相应的使用者的所需要的镜片,实现屈光度的调节。
当镜片安装固定后,通过主控模块发出控制信号,控制电机动作从而带动滑块进行运动,实现瞳距的调节。
优选地,所述卡爪的数量为四个。
所述电机包括第一电机和第二电机,所述导轨包括第一导轨和第二导轨。所述限位装置包括第一限位装置、第二限位装置和第三限位装置,所述滑块包括第一滑块和第二滑块,所述锁紧装置包括第一缩紧装置和第二锁紧装置,所述托架连接件包括第一托架连接件和第二托架连接件,所述传动装置包括第一传动位置和第二传动装置。
所述第一电机、第一锁紧装置分别与所述主控模块相连,主控模块控制所述第一电机带动第一传动装置进行运动,所述第一传动装置与第一电机的输出轴相连,所述第一传动装置的输出端与第一滑块相连,从而带动所述第一滑块进行动作实现瞳距调整,所述第三限位装置位于第一限位装置和第二限位装置之间;具体地,所述第三限位装置位于第一导轨和第二导轨之间,所述第一限位中装置位于第一导轨远离所述第三限位装置的一侧,第一限位装置和第三限位装置共同限制所述第一滑块的移动范围,当瞳距等于通过眼动跟踪装置测得的初始参考瞳距值,主控模块控制所述第一锁紧机构进行动作将所述第一滑块固定在该侧瞳孔所对应的位置。
所述第一电机与所述电源模块相连,所述第一托架与所述第一滑块的底部通过所述第一托架连接件进行连接,所述第一托架为框架结构,所述第一托架具有支撑边缘,以避免镜片从框架结构中滑出的边缘,所述第一托架的底部设置托板,所述托板托住所述镜片以避免所述镜片从所述第一托架的底部滑出,所述第一托架的四周设置有卡爪,所述卡爪为弹性结构件,镜片安装至托架后,拨动所述卡爪将镜片卡紧固定至所述第一托架,通过放置相应的使用者的所需要的镜片,实现屈光度的调节。
所述第二电机、第二锁紧装置分别与所述主控模块相连,主控模块控制所述第二电机带动所述第二传动装置进行运动,所述第二传动装置与第二电机的输出轴相连,所述第二传动装置的输出端与第二滑块相连,从而带动所述第二滑块进行动作进行瞳距调整,所述第二限位装置位于第二导轨远离第三限位装置的一侧,第二限位装置和第三限位装置共同限制所述第二滑块的移动范围,当瞳距等于通过眼动跟踪装置测得的初始参考瞳距时,主控模块通过控制所述第二锁紧机构进行动作将所述第二滑块固定在该侧瞳孔所对应的位置。
所述第二托架与所述第二滑块的底部通过所述第二托架连接件进行连接,所述第二托架为框架结构,所述第二托架具有支撑边缘,以避免镜片从框架结构中滑出的边缘,所述第二托架的底部设置托板,所述托板托住所述镜片以避免所述镜片从所述托架的底部滑出,所述托架的四周设置有卡爪,所述卡爪为弹性结构件,镜片安装至托架后,拨动所述卡爪将镜片卡紧固定至所述托架,通过放置相应的使用者的所需要的镜片,实现屈光度的调节。
优选地,各电机、各传动装置、各滑块位于支撑部的内部,所述第三限位装置位于导轨的中部,所述第一限位装置和所述第二限位装置分别各导轨远离所述第三限位装置的一侧的端部。
优选地,所述支撑部的第一部分的内部还设置有伸缩单元,所述伸缩单元调节所述屈光度调节单元的竖直方向的高度,所述伸缩单元与导轨固接,所述伸缩单元包括伸缩电机、齿轮、齿条,所述伸缩电机的输出轴连接所述齿轮,所述齿轮与齿条啮合,所述齿条与所述导轨固接,如此设置以调整所述镜片相对于操作人员的瞳孔的竖直距离。
优选地,所述伸缩单元的数量为两个,其在所述导轨上对称分布,以便保证伸缩单元动作的平稳性。
替换地,所述伸缩单元为蜗轮蜗杆机构。
替换地,所述伸缩单元为丝杆螺母结构。
所述眼动跟踪装置包括红外光源发生器和摄像头,所述红外光源发生器位于所述壳体的第六部分的外侧壁,即朝向操作人员眼部的方向,所述红外光源发生器位于所述支撑部和所述透镜的镜筒的第二端所围成的区域内。优选地,所述红外光源发生器位于泪腺的上方,通过所述眼动跟踪装置得到初始参考瞳距值。
优选地,所述红外光源为面光源。
具体地,所述红外光源发生器位于摄像头的外侧,且所述红外光源发生器与所述摄像头处于同一水平线上,所述摄像头为红外摄像头,所述红外摄像头捕捉眼球和瞳孔的运动轨迹,该红外摄像头能够有效地避免根据本发明中的基于眼动跟踪的虚拟现实交互装置中显示屏发出的可见光的干扰,捕捉到清晰的眼球和瞳孔的运动轨迹;以及所述红外光源发生器与主控模块相连,所述主控模块上设置有红外光源发生器接口,主控模块控制所述红外光源发生器发射预先设定的频率的红外光至眼睛上,所述红外摄像头通过有线或无线方式将捕捉到的眼动信息传输至主机。
优选地,所述红外光源发生器为贴片式红外光LED,该红外光LED灯成本较低,并且能够均匀发射红外光,便于安装。
优选地,所述红外光源发生器的数量为两个,其分别为第一红外光源发生器和第二红外光源发生器,所述红外摄像头的数量为两个,其分别为第一组红外摄像头和第二组红外摄像头。
具体地,第一组红外摄像头位于第一红外光源发生器的内侧,所述第一组红外摄像头与第一红外光源发生器的位于第一水平线上,第二组红外摄像头位于第二红外光源发生器的内侧,第二组红外摄像头与第二红外光源发生器位于第二水平线上,第一水平线和第二水平线平行且二者位于同一水平上,所述第一红外光源发生器发射的红外光分别进入操作人员的左眼和操作人员的右眼,所述第一组红外摄像头包括第一摄像头和第二摄像头,所述第二组红外摄像头包括第三摄像头和第四摄像头,所述第一摄像头接受左眼反射的第一红外光源发生器发射的红外光的反射光,所述第二摄像头接受右眼反射的第一红外光源发生器发射的红外光的反射光,所述第二红外光源发生器发射的红外光分别进入操作操作人员的右眼和操作人员的左眼,所述第三摄像头接受右眼反射的第二红外光源发生器发射的红外光的反射光,所述第四摄像头接受左眼反射的第二红外光源发生器发射的红外光的反射光,根据第一摄像头和第四摄像头采集到的数据,对左眼的轨迹进行矫正,根据第三摄像头和第二摄像头采集到的数据,对右眼的轨迹进行矫正。
所述第一红外发射器和第二红外发射器之间的距离为d1。
优选地,各红外光源发生器的发射频率为100Hz至2kHz。
优选地,各红外光源发生器的发射频率预设为500Hz。
所述眼动跟踪装置拍摄和记录操作人员眼球的运动轨迹,并将该运动轨迹输送至主机。
所述主机输出虚拟显示的三维场景图像至所述基于眼动跟踪的虚拟现实交互装置的显示器的显示屏中;同时,接收所述眼动跟踪装置输送来的眼球运动轨迹,通过分析处理用户的眼动轨迹,计算得到瞳孔的位置坐标和偏转角度;所述显示器与所述主机,例如,通过连接线,相连,用于虚拟现实三维场景图像和交互内通的通信。
所述显示器具有显示屏,所述显示屏根据左右眼在视角上的差异分别显示虚拟现实三维场景,这样能使用户的左右眼感知到不一样的图像,形成对虚拟现实三维环境的空间认知。
所述透镜的镜筒的第二端设置有目镜,其配置用于调整用户视线在显示屏上的对焦位置,以便用户视线能够准确地对焦于显示屏上。
优选地,根据本发明的基于眼动跟踪的虚拟现实交互装置还包括扬声器,扬声器根据用户界面显示的交互内容播放相应的三维立体声。
并列地,所述眼动跟踪装置固定在根据本发明的基于眼动跟踪的虚拟现实交互装置的托架上,用于拍摄和记录操作人员眼球的运动轨迹,并将该运动轨迹输送至主机,优选地,所述托架与所述头戴式虚拟现实眼镜的目镜形状大小一致,用于固定红外发射器、红外摄像头;优选地,在所述托架朝向操作人员眼部的一侧均匀设置有多个等间距布置的红外光源发生器,且所述红外摄像头均设置在所述红外光源发生器的内侧的边缘,如此设置以便能够更加准确地记录眼睛运动的轨迹。
所述主机接收红外摄像头的捕捉结果,通过检测瞳孔反光位置,计算瞳孔的中心点以及瞳孔的边缘,并记录和分析连续多帧图像上的眼动位置判断用户视觉焦点的运动轨迹。
优选地,根据本发明的基于眼动跟踪的虚拟现实交互装置,还包括报警器;所述报警器与主控模块相连。
优选地,所述报警器为声、光、电、磁、振动报警器,
并列地,当参数超过设定值后,屏幕出现提示条。本发明的基于眼动跟踪的虚拟现实交互方法能够通过基于本发明的基于眼动跟踪的虚拟现实交互装置进行实现。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
在本发明的描述中,需要说明的是,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“连通”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接连通,也可以通过中间媒介间接连通,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“至少三个”的含义是两个或两个以上。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于眼动跟踪的虚拟现实交互方法,其特征在于,其具体步骤如下:
S1:对屏幕中的图像进行网格划分,预设该图像的坐标点为(xsi,ysi),预先设定眼动跟踪装置中红外光源发生器的发射频率f1,所述红外光源发生器在工作过程中连续对操作人员眼部进行照射;摄像头采集到的左眼的瞳孔坐标为(xli,yli),摄像头采集到的右眼的瞳孔坐标为(yri,yri);
S2:选取屏幕的中心点(xs0,ys0),注视显示器的屏幕中心点持续第四预设时间t4,确定瞳距值d0以及各瞳孔的基准坐标原点,其中左眼瞳孔的基准坐标(xl0,yl0),右眼瞳孔的基准坐标为(xr0,yr0);
S3:根据S2中获得各瞳孔的基准坐标以及瞳距值d0,通过瞳距调节装置带动屈光度调节装置进行调节;通过屏幕中的选取的固定注视点,所述固定注视点的数量为N个,通过多项式拟合,建立屏幕中的坐标系与红外摄像头采集到的瞳孔坐标的映射关系;
S4:确定瞳孔在基准坐标下的瞳孔边界,得到各瞳孔面积s0,得到正常情绪下瞳孔的参数;
S5:通过眼动跟踪装置连续获取各ti时刻眼睛运动的红外图像并将所采集到的红外图像发送至主机;
所述主机根据所述红外图像,获取当前时刻下对应的瞳孔的实际位置(xl,yl)和(xr,yr);确定瞳孔运动轨迹以及瞳孔停留时间,得到眼睛运动模式;
根据左瞳孔位置信息得到左眼的注视点坐标(xsl,ysl),
Figure FDA0002602982070000011
根据右瞳孔位置信息得到右眼的注视点坐标(xsr,ysr),
Figure FDA0002602982070000021
其中,(xl,yl)为当前时刻的左眼的瞳孔的实际位置;(xr,yr)为当前时刻下右眼的瞳孔的实际位置;各瞳孔的实际位置为通过红外摄像头采集到的瞳孔的位置;其中(xli,yli)为第i个固定注视点时左眼瞳孔的实际坐标;(xri,yri)为第i个固定注视点时右眼瞳孔的实际坐标;其中1≤i≤N;
当前ti时刻下注视点的坐标(xs,ys)如下:
(xs,ys)=[ρl·(xsl,ysl)+ρr·(xsr,ysr)]/2
其中,ρl,ρr∈(0,1),ρlr=1,ρl为第一加权系数,ρr为第二加权系数;
S6:瞳孔停留时间超过第二预设时间t2,则确定眼睛的焦点移动至该注视点;主机根据所述焦点控制显示器,将显示器屏幕中的图像重新进行显示;
S7:根据第三预设时间t3内所述红外摄像头中连续拍到的瞳孔的个数n,确定眨眼频率f2=n/t3
S8:根据眨眼频率f2,进行注意力等级判断:
当眨眼频率f2高于10次/分钟时,判定为操作人员疲劳;或当每次持续闭眼时间超过1s,判定为操作人员疲劳;
否则,判定为操作人员无疲劳出现;
S9:根据S8中的注意力等级判断结果给出相应提示或预警,当无疲劳出现时,视为正常;当判定为疲劳时,进行疲劳预警。
2.如权利要求1所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,S3中通过在显示器的屏幕上选定多个固定注视点作为校正点,得到各校正点在屏幕上的坐标,校正点的数量为i个,所述校正点中至少包括屏幕的中心点,其余i-1个校正点在屏幕上对称分布;选定屏幕中心点作为基准点,逐一点亮所选定的多个校正点,分别对各个校正点进行注视,注视时间为第一预设时间t1,在注视时通过眼动跟踪装置获取当前状态下相应的瞳孔的实际位置,以得到其在屏幕上的注视点。
3.如权利要求2所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,在S4中,获取各时刻下对应的瞳孔面积sj,其中j=1,2,…,
所述方法还包括如下步骤:
S10:根据当前时刻的瞳孔面积,确定瞳孔的扩张或缩小程度A,其中
A=(sj-s0)/s0
S11:进行情绪判断:
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%,判定操作人员处于紧张情绪状态;
当瞳孔面积超过瞳孔基准坐标下的瞳孔面积s0的30%-50%,判定操作人员处于惊恐情绪状态;
S12:根据情绪判断结果进行相应提示或预警。
4.如权利要求3所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,所述红外摄像头采集所述红外光源发生器所发射的红外光,根据红外摄像头接受到的面光源的反射情况,来确定瞳孔的边界得到瞳孔的面积,根据瞳孔面积的变化,进行情绪判断。
5.如权利要求4所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,预设所述眼动跟踪装置中红外摄像头的采集频率为30Hz~2000Hz。
6.如权利要求5所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,S3中,要求各个所选定的校正点的第一注视时间超过2s。
7.如权利要求6所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,S6中确定焦点后,以所述焦点为中心进行放大显示,显示的范围的以焦点为圆心,作第一圆,第一圆的直径为5cm-7cm;同时,以该焦点为圆心作第二圆,第二圆的直径为4cm,当焦点处于第二圆内持续进行显示当前画面,当焦点改变后位于第一圆和第二圆形成的圆环内,将当前画面进行平移,当焦点位于第一圆以外时,缩小至初始显示比例。
8.如权利要求7所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,S7中
连续无瞳孔图像持续时间为200ms-400ms,则判定为眨眼;
连续无瞳孔图像持续时间超过400ms,则判定为闭眼。
9.如权利要求8所述的基于眼动跟踪的虚拟现实交互方法,其特征在于,S9中,在显示器的屏幕上滚动显示信息条,和/或报警器进行报警操作。
CN201910457393.1A 2019-05-29 2019-05-29 基于眼动跟踪的虚拟现实交互方法及装置 Active CN110502100B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910457393.1A CN110502100B (zh) 2019-05-29 2019-05-29 基于眼动跟踪的虚拟现实交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910457393.1A CN110502100B (zh) 2019-05-29 2019-05-29 基于眼动跟踪的虚拟现实交互方法及装置

Publications (2)

Publication Number Publication Date
CN110502100A CN110502100A (zh) 2019-11-26
CN110502100B true CN110502100B (zh) 2020-09-29

Family

ID=68585704

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910457393.1A Active CN110502100B (zh) 2019-05-29 2019-05-29 基于眼动跟踪的虚拟现实交互方法及装置

Country Status (1)

Country Link
CN (1) CN110502100B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110927973A (zh) * 2019-12-16 2020-03-27 Oppo广东移动通信有限公司 显示装置
CN111429316A (zh) * 2020-03-23 2020-07-17 宁波视科物电科技有限公司 一种基于增强现实眼镜的在线学习专注力检测系统及方法
CN111383313B (zh) * 2020-03-31 2023-05-12 歌尔股份有限公司 一种虚拟模型渲染方法、装置、设备及可读存储介质
CN111722708B (zh) * 2020-04-29 2021-06-08 中国人民解放军战略支援部队信息工程大学 一种基于眼动的多维地理信息自适应智能交互方法及装置
CN111624777A (zh) * 2020-07-28 2020-09-04 南京新研协同定位导航研究院有限公司 基于同一场景下景点介绍的触发控制方法
CN112578905B (zh) * 2020-11-17 2021-12-14 北京津发科技股份有限公司 一种针对移动终端的人机交互测试方法及系统
CN112926523B (zh) 2021-03-30 2022-07-26 青岛小鸟看看科技有限公司 基于虚拟现实的眼球追踪方法、系统
CN113838086B (zh) * 2021-08-23 2024-03-22 广东电网有限责任公司 注意力评估测试方法、装置、电子设备及存储介质
CN113842145B (zh) * 2021-10-11 2023-10-03 北京工业大学 基于瞳孔波计算情绪指标的方法、装置及系统
CN114159671A (zh) * 2021-12-14 2022-03-11 湘潭大学 基于vr全景视频的大学生心理健康训练系统及训练方法
CN114973391B (zh) * 2022-06-30 2023-03-21 北京万里红科技有限公司 应用于元宇宙的眼球跟踪方法、装置、设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886307B (zh) * 2014-04-15 2017-07-07 王东强 一种视线跟踪及疲劳预警方法
CN104899565B (zh) * 2015-06-01 2018-05-18 中国人民解放军军事医学科学院放射与辐射医学研究所 基于纹理特征的眼动轨迹识别方法及装置
CN107247511B (zh) * 2017-05-05 2019-07-16 浙江大学 一种基于虚拟现实中眼动捕捉的跨物体交互方法与装置
CN108491072B (zh) * 2018-03-05 2020-01-21 京东方科技集团股份有限公司 一种虚拟现实交互方法及装置

Also Published As

Publication number Publication date
CN110502100A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN110502100B (zh) 基于眼动跟踪的虚拟现实交互方法及装置
US10231614B2 (en) Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
JP6159264B2 (ja) 調整可能な視野を有する眼鏡デバイス及び方法
US20090295683A1 (en) Head mounted display with variable focal length lens
JP5887026B2 (ja) ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US9370302B2 (en) System and method for the measurement of vestibulo-ocular reflex to improve human performance in an occupational environment
CN103323948B (zh) 头戴式显示器
KR102148345B1 (ko) 대물렌즈 안굴절도와 개인의 적어도 하나의 기하학적-형태 파라미터를 측정하기 위한 장치와 방법
JP4889053B2 (ja) 種々の観察距離における瞳孔中心ドリフトおよび瞳孔サイズの測定のための瞳孔計
CN114222520A (zh) 眼科测试系统和方法
US9770168B2 (en) Device for imaging an eye
JPH01312902A (ja) 眼球運動検査装置
JP2017513584A (ja) 視力矯正眼鏡及び前記眼鏡の装用者による自覚屈折の測定方法
CN109758107A (zh) 一种vr视觉功能检查装置
US20220071484A1 (en) Virtual reality-based portable nystagmography device and diagnostic test method using same
CN109758108A (zh) 一种ar眼镜式视觉功能检查装置
US5933210A (en) Ophthalmological method and instrument for producing dichoptic stimuli
CN113729609B (zh) 同视机
CN210330543U (zh) 一种vr视觉功能检查装置
CN209879455U (zh) 基于脑电采集的虚拟现实交互装置
CN110502102B (zh) 基于疲劳监测预警的虚拟现实交互方法
JP2011050479A (ja) 視機能計測装置および視機能訓練装置
CN110502101A (zh) 基于脑电信号采集的虚拟现实交互方法及装置
JP6909325B2 (ja) 眼科検査装置
CN111759271B (zh) 一种同视机

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant