CN114867406A - 眼睛跟踪装置和方法 - Google Patents

眼睛跟踪装置和方法 Download PDF

Info

Publication number
CN114867406A
CN114867406A CN202080087433.9A CN202080087433A CN114867406A CN 114867406 A CN114867406 A CN 114867406A CN 202080087433 A CN202080087433 A CN 202080087433A CN 114867406 A CN114867406 A CN 114867406A
Authority
CN
China
Prior art keywords
user
viewed
eye
content
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080087433.9A
Other languages
English (en)
Inventor
M·赫尔默
M·维特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanofi SA
Original Assignee
Sanofi SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanofi SA filed Critical Sanofi SA
Publication of CN114867406A publication Critical patent/CN114867406A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

一种装置,其包括至少一个相机(101)、显示器(103)、存储器(105)和处理器(104),所述存储器存储指令,所述指令当由所述处理器执行时使得所述装置:使用所述装置的所述显示器显示要由所述用户查看的内容;使用所述装置的所述相机检测用户的眼睛;使用所述装置的所述相机检测用户的眼睛移动;基于所述检测到的用户的眼睛移动,确定所述用户是否已经查看了所述内容。

Description

眼睛跟踪装置和方法
技术领域
本发明涉及一种眼睛跟踪装置和方法。这些装置和方法可以用于例如监督训练中。
背景技术
各种药物递送装置(诸如胰岛素笔等)的用户需要接受使用所述装置的训练。此类训练可能是必要的和/或有益的,尤其是当用户第一次被发给特定的装置时(例如,新诊断的患者,或已经使用药物递送装置一段时间但是已经被建议切换到不同的、不熟悉的装置、不同的药物和/或不同的剂量方案的用户)。
出于各种原因,监督训练和/或确保用户完成训练的所有必需部段可能是有益的或必需的。例如,管理机构可能要求向用户、制造商或两者颁发用户已经完成标准化训练的证书。
目前,药物递送装置训练通常由健康护理专业人员(诸如护士)提供。对于健康护理专业人员来说,此类训练可能是耗时且低效的。此外,健康护理专业人员可能难以核实用户是否已经理解了所需的所有训练内容。
因此,需要提供自动化的、标准化的训练。
发明内容
在第一方面,提供了一种装置,所述装置包括至少一个相机、显示器、存储器和处理器,所述存储器存储指令,所述指令当由处理器执行时使得所述装置:使用所述装置的显示器显示要由用户查看的内容;使用装置的相机检测用户的眼睛;使用装置的相机检测用户的眼睛移动;基于检测到的用户的眼睛移动,确定用户是否已经查看了内容。
在第二方面,提供了一种装置,所述装置包括至少一个相机、运动传感器、显示器、存储器和处理器,所述存储器存储指令,所述指令当由处理器执行时使得所述装置:使用所述装置的显示器显示要由用户查看的内容;使用装置的相机、装置的运动传感器或相机和运动传感器两者来检测用户的眼睛;使用装置的相机、装置的运动传感器或相机和运动传感器两者来检测用户的眼睛移动;基于检测到的用户的眼睛移动,确定用户是否已经查看了内容。
在一些实施方案中,第一方面和第二方面可以与以下特征中的一者或多者相结合:
-所述至少一个相机包括至少一个前置相机;
-检测用户的眼睛移动包括检测以下中的一者或多者:用户凝视的方向、用户的眼睛移动的速度、用户的眼睛移动的方向、用户集中在内容上花费的时间、用户眨眼的定时、用户眨眼的速率、瞳孔注视的持续时间、瞳孔注视的次数、视野路径、瞳孔直径和压力负荷、和/或停留时间;
-确定用户是否已经查看了内容包括监测用户的眼睛的眨眼的持续时间;
-确定用户是否已经查看了内容进一步包括将所述值与预先存储的眨眼持续时间的平均值进行比较;
-如果用户的眼睛眨眼的持续时间超过0.5秒,则确定用户没有查看过所述内容;
-确定用户是否已经查看了内容进一步包括将所述值与预先存储的眨眼持续时间的平均值进行比较,并且如果用户的眼睛眨眼的持续时间超过0.5秒,则确定用户没有查看内容;
-确定用户是否已经查看了内容包括监测用户的眼睛的眨眼速率;
-确定用户是否已经查看了内容进一步包括将所述值与预先存储的眨眼速率的平均值进行比较;
-确定用户是否已经查看了内容包括监测用户的眼睛的眨眼速率,并且确定用户是否已经查看了内容进一步包括将所述值与预先存储的眨眼速率的平均值进行比较;
-确定用户是否已经查看了内容包括监测用户的眼睛的瞳孔直径;
-确定用户是否已经查看了内容进一步包括将所述值与预先存储的瞳孔直径值进行比较;
-确定用户是否已经查看了内容包括监测用户的眼睛的瞳孔直径,并且确定用户是否已经查看了内容进一步包括将所述值与预先存储的瞳孔直径值进行比较;
-确定用户是否已经查看了内容包括监测眼睛注视的次数;
-内容包括文本并且确定用户是否已经查看了内容进一步包括将眼睛注视的次数与文本中的单词数量进行比较;
-如果眼睛注视的次数对应于文本中单词数量的80%到100%,则确定用户已经查看了内容;
-确定用户是否已经查看了内容包括监测眼睛注视的次数,并且当内容包括文本时,确定用户是否已经查看了内容进一步包括将眼睛注视的次数与文本中的单词数量进行比较;
-确定用户是否已经查看了内容包括监测眼睛注视的次数,当内容包括文本时,确定用户是否已经查看了内容进一步包括将眼睛注视的次数与文本中的单词数量进行比较,并且如果眼睛注视的次数对应于文本中的单词数量的80%到100%,则确定用户已经查看了内容;
-确定用户是否已经查看了内容包括监测眼睛注视的持续时间;
-如果对于注视的至少80%,用户的眼睛注视的持续时间在200毫秒和250毫秒之间,则确定用户已经查看了内容;
-所述装置进一步包括运动传感器,并且其中所述装置适于使用所述装置的相机和运动传感器来检测用户的眼睛移动。
在第三方面,提供了一种确定用户是否已经查看了内容的方法,所述方法包括:显示要由用户查看的内容;检测用户的眼睛;检测用户的眼睛移动;基于检测到的用户的眼睛移动,确定用户是否已经查看了内容。
第三方面的方法可以使用以下具体特征中的一者或多者:
-确定用户是否已经查看了内容包括监测用户的眼睛的眨眼速率;
-确定用户是否已经查看了内容包括监测用户的眼睛的瞳孔直径;
-确定用户是否已经查看了内容包括监测眼睛注视的次数;
-确定用户是否已经查看了内容包括监测眼睛注视的持续时间。
附图说明
以下描述参考了以下附图:
图1示出了移动装置、增强现实、虚拟现实或混合现实眼镜和训练药物递送装置的示例性系统;
图2示出了监督阅读的示意性例子;
图3是用户装置的电子部件的示意图;
图4是示出监督用户训练的方法的流程图。
具体实施方式
图1示出了包括增强现实(AR)、虚拟现实(VR)或混合现实(MR)眼镜12、用户装置10和训练药物递送装置14的训练系统。AR、VR或MR眼镜12在下文中将被称为眼镜12。如果系统包括眼镜12,则用户装置10可以是可选的。如果系统包括用户装置10,则眼镜12可以是可选的。训练药物递送装置14是可选的。
眼镜12可以是用于诸如用户装置10的移动装置的头戴式装置。所述系统可以包括眼镜12和用户装置10两者。眼镜12可以是独立于移动装置的装置。如果眼镜12独立于移动装置,则用户装置10可以是可选的。
用户装置10可以是例如移动装置,诸如移动电话或平板电脑。用户装置10可以是台式PC。
为了简明起见,下面仅参考用户装置10进行描述。应理解,在下文中,用户装置10可以用眼镜12或用包括用户装置10和眼镜12的系统来代替。
用户装置10具有相机101,所述相机与用户装置10相关联。相机101可以是移动装置的前置相机,即相机可以作为用户装置10的与其显示器103同一侧的一部分来提供。当用户装置10在使用中时,相机101能够瞄准用户。相机101可以是网络相机或与移动装置或台式PC相关联的任何其他合适的外部相机。
在实施方案中,用户装置10具有光源102,所述光源与用户装置10相关联。光源102可以作为用户装置10的一部分来提供。光源102可以作为单独的装置提供;在这种情况下,光源102优选地适于附接到用户装置10和/或眼镜12。光源102可以作为眼镜12的一部分提供。光源102可以是红外线(IR)光源。光源102可以是激光光源。
用户装置10具有显示器103。在实施方案中,IR光可以另外地或单独地由用户装置10的显示器103提供。例如,如果显示器103是LED或OLED显示器,则可能能够使用显示器103作为IR光源。IR光可以部分或全部来自显示器103。
用户装置10可以具有运动传感器107。运动传感器可以是例如雷达传感器107。
用户装置10进一步包括处理器104、存储器105和电源106。这些部件在图3中示出并且在下面进一步描述。
用户装置10具有存储器105,所述存储器存储一个或多个合适的软件应用,以执行下面描述的方法。
使用相机101、运动传感器107或相机101和运动传感器107两者,用户装置10可以监测用户的眼睛。用户装置10可以监测用户的眼睛的位置。用户装置10可以监测用户的眼睛移动。用户装置10可以使用相机101来监测用户的眼睛的位置和用户的眼睛移动。用户装置10可以使用相机10来监测用户的眼睛的位置,并且使用运动传感器107来监测用户的眼睛移动(例如,用户的眼睛和/或用户的眼睑的移动,如下面描述的)。
在实施方案中,用户装置10包括至少两个前置相机101。用户装置10可以使用至少两个相机101来监测用户的眼睛的位置和/或移动。替代地或另外地,用户装置可以使用运动传感器107来监测用户的眼睛移动(例如,用户的眼睛和/或用户的眼睑的移动)。使用两个相机可以提供立体图像,这可以提高测量用户的眼睛移动的精度和效率。使用运动传感器107还可以提高检测用户的眼睛移动(例如,用户的眼睛和/或用户的眼睑的移动)的精度。
在下文中,用户的眼睛移动意味着以下的一个或多个:用户凝视的方向、用户的眼睛移动的速度、用户的眼睛移动的方向、用户聚焦(阅读或观看)内容所花费的时间、用户眨眼的定时、用户眨眼的速率、瞳孔注视的持续时间、瞳孔注视的次数、视野路径、瞳孔直径和压力负荷;以及停留时间(每一内容)。
在下文中,监测用户的眼睛移动意味着监测上面列出的用户的眼睛移动中的一者或多者。
所获得的关于用户的眼睛移动的数据可以用于确定用户是否在特定训练内容上花费了足够的时间。所获得的关于用户的眼睛移动的数据可以用于确定用户对训练内容的注意力是否足够。使用所获得的用户的眼睛移动测量值,用户装置10可以能够确定用户是否已经阅读或观看了训练的所有训练内容。使用所获得的用户的眼睛移动测量值,用户装置10可以能够确定用户是否已经理解了所有训练内容。使用检测到的用户的眼睛移动测量值,用户装置10可以能够确定用户已经理解训练内容的可能性。
图2a至图2d中示出了使用相机101和/或运动传感器107以及用户装置10来监测用户的眼睛移动的例子。图2a示出了可在用户装置10的显示器103上中显示的训练内容20。训练内容20由文本块201-206组成。为了成功完成训练,要求用户阅读并理解所有文本块201-206。例如,训练内容20可以涉及胰岛素笔的使用,并且可以包括药物相关信息、装置相关信息、禁忌症信息等。
当用户开始阅读块201时,相机101和/或运动传感器107跟踪用户的眼睛移动。如图2b中的箭头201a-201z所指示的,用户的眼睛通常沿着块201中的文本行移动。用户装置10沿着这些线201a-201z跟踪用户的眼睛移动。
为了确定用户是否已经阅读并理解了块201,用户装置10可以存储关于阅读并理解块201中的文本所需的平均时间的信息。例如,如果用户花费了阅读并理解块201中的文本所需的平均时间或比阅读并理解块201中的文本所需的平均时间更多,则用户装置10可以指示用户已经成功完成了块201。
用户装置10可以使用替代的或另外的信息,诸如用户的眼睛移动(如上面描述的)来确定用户是否已经阅读并理解了块201中的文本。如果用户花费少于阅读并理解块201中的文本所需的平均时间,用户装置10可以使用其他信息(诸如用户的眼睛移动)来确定用户是否已经阅读并理解了块201中的所有的训练内容。
用户装置10可以使用替代的或另外的信息,诸如用户的眼睛移动(如上面描述的)来确定用户是否已经阅读并理解了块201中的文本,而不管用户阅读块201花费了多长时间。
例如,如果用户需要阅读并理解块201中的文本所需的平均时间,并且瞳孔直径指示用户已经注意所述文本,则用户装置10可以指示块201已经成功完成。
作为另一个例子,如果用户需要比阅读并理解块201中的文本所需的平均时间更多的时间,但是瞳孔直径指示用户没有注意文本,则用户装置10可以指示块201没有成功完成。
作为另一个例子,如果用户需要少于阅读并理解块201中的文本所需的平均时间,但是瞳孔直径指示用户没有注意文本,则用户装置10可以指示块201没有成功完成。
在图2的例子中,在阅读块201之后,用户的眼睛继续到块203,如图2c所示。用户阅读块203。如上面描述的,以类似于块201的方式评估和指示块203的成功或不成功完成。
如图2c进一步所示,在阅读块203之后,用户继续到块202,并且阅读块202中文本。在阅读块202之后,用户继续到块206,并且阅读块206。如上面描述的,以类似于块201的方式评估和指示块202和206的成功或不成功完成。
在图2c的例子中,用户不阅读块204和205,如上面描述的,以类似于块201的方式评估和指示所述块204和205。
图2d示出了对用户阅读并理解信息的评估结果的一种可能的指示。基于对用户的眼睛移动的测量值(如上面描述的),用户装置10确定用户已经阅读并理解了块201、202和206;用户已经阅读但不理解块203;并且用户尚未阅读块204和205。用户装置10然后可以指示各个块201-206的状态,并且在用户装置10的显示器103上显示所述信息。
每个块201-206的状态可以用不同的颜色指示(例如,绿色用于用户已经阅读并理解的块201、203、206;红色用于用户尚未阅读的块204、205;以及红色或橙色用于用户已经阅读但不理解的块203)。替代地或另外地,每个块201-206的状态可由显示在块201-206上的不同纹理、不同背景图片、刻度/十字标记或任何其他合适的方式来指示。
优选地,当用户已经阅读并理解了所有块201-206时,训练被指示为完成。在用户没有阅读并理解所有块201-206的情况下,可以允许和/或提示用户稍后返回训练。
替代地或另外地,用户装置10可以使用用户的眼睛移动监测书写内容之外的其他内容。例如,可能要求用户查看训练视频,所述训练视频演示了药物递送装置的正确使用和/或其中化身(例如,模拟健康护理专业人员)向用户解释药物相关或药物递送装置相关的信息。用户的注意力应适当地集中在药物递送装置和/或视频中示出的化身上。可以以类似于上面描述的方式监测用户的眼睛移动,以评估用户的注意力是否集中在正确的一个或多个对象上(例如,显示的药物递送装置、显示的化身等)。例如,如果确定用户在训练视频的大部分持续时间内看向别处而不是药物递送装置或化身,则用户装置10可以确定用户没有注意并且需要重复观看视频。
图4中示出了确定用户对训练内容的理解的方法。
用户装置10具有处理器104和存储器105。存储器105存储指令,所述指令当由处理器104执行时执行以下方法。
在步骤401中,用户装置10使用显示器103显示训练内容。在步骤402中,用户装置10使用相机101和/或运动传感器107来检测用户的眼睛。在步骤403中,装置使用相机101和/或运动传感器107来监测用户的眼睛移动,例如如上面结合图2a至图2d所描述的。在步骤404中,确定用户对在步骤401中显示器103上显示的训练内容的理解,例如如上面结合图2a至图2d所描述的。
监测用户的眼睛移动和/或确定用户是否已经阅读并理解了内容可以包括以下中的一者或多者的任意组合。下面提供的描述集中在文本内容上,但是应理解,相同或类似的考虑适用于图片/视频内容。
可以测量用户的眼睛的眨眼的持续时间。例如,注意力集中的读者通常的眨眼的持续时间(即从眼睑完全关闭到再次打开之间的时间)可能是0秒至0.2秒。注意力不集中的用户眨眼的持续时间通常为0.3秒至0.5秒。疲倦的人眨眼的持续时间可能大于0.5秒。通过检测眨眼的持续时间并且将所述值与诸如上面描述的通常值(例如,预先存储的平均值,或预先存储的特定用户的基准点)进行比较,用户装置10能够确定用户是否已经注意文本。在一个实施方案中,如果眨眼的持续时间超过0.5秒,则用户装置10中断训练。
可以测量眨眼速率(即每单位时间眨眼的次数)。例如,更高和/或增加的眨眼速率可以是警觉性的指示(用户正在注意文本)。较低和/或降低的眨眼速率可以指示用户没有注意和/或用户缺乏对文本的理解。在一实施方案中,用户装置10可以检测用户的眨眼速率并且将测量值与典型值(诸如预先存储的平均值、预先存储的特定用户的基准点等)进行比较。在实施方案中,如果眨眼速率低于或降低于阈值,则用户装置10可以中断训练。
可以测量用户的眼睛的瞳孔直径。通常,增大的瞳孔直径可以作为用户注意文本的指示。例如,如果在查看文本期间瞳孔直径增加,则用户装置10可以确定用户正在注意文本。
可以测量眼睛注视的次数和持续时间。例如,正在注意文本的用户显示出对至少80%的单词的注视。因此,如果注视的次数对应于单词数量的80%到100%,则可以确定用户已经注意和/或理解了文本。在实施方案中,如果注视的次数是单词数量的至少80%,则确定用户已经注意和/或理解了文本。例如,注视的持续时间可能是200毫秒至250毫秒。如果每次注视的持续时间持续短于例如200毫秒,则可以确定用户没有注意和/或没有理解文本。
在一个实施方案中,眨眼速率、眨眼持续时间和瞳孔直径都可以被测量并且一起用于确定用户的注意力水平。用户的注意力水平连同用户凝视的方向、用户的眼睛移动的速度、用户的眼睛移动的方向以及用户集中在阅读内容上所花费的时间可以用来确定用户是否已经注意文本和/或理解了文本。
在实施方案中,在中断训练之后,用户装置10可以向用户提供与文本相关的问题。
在实施方案中,用户装置10可以与训练药物递送装置14配合。训练药物递送装置14是类似于用户将使用的真实药物递送装置(例如,已经在处方中为用户规定的装置)的装置。

Claims (15)

1.一种装置,其包括至少一个相机(101)、显示器(103)、存储器(105)和处理器(104),所述存储器存储指令,所述指令当由处理器执行时使得所述装置:
使用所述装置的所述显示器显示要由所述用户查看的内容;
使用所述装置的所述相机检测用户的眼睛;
使用所述装置的所述相机检测用户的眼睛移动;
基于所述检测到的用户的眼睛移动,确定所述用户是否已经查看了所述内容。
2.根据权利要求1所述的装置,其中所述至少一个相机包括至少一个前置相机。
3.根据权利要求1或2所述的装置,其中检测所述用户的眼睛移动包括检测以下中的一者或多者:所述用户凝视的方向、所述用户的眼睛移动的速度、所述用户的眼睛移动的方向、所述用户集中在内容上花费的时间、所述用户眨眼的定时、所述用户眨眼的速率、瞳孔注视的持续时间、瞳孔注视的次数、视野路径、瞳孔直径和压力负荷、和/或停留时间。
4.根据前述权利要求中任一项所述的装置,其中确定所述用户是否已经查看了所述内容包括监测所述用户的眼睛的眨眼的持续时间。
5.根据前述权利要求中任一项所述的装置,其中确定所述用户是否已经查看了所述内容包括监测所述用户的眼睛的眨眼速率。
6.根据前述权利要求中任一项所述的装置,其中确定所述用户是否已经查看了所述内容包括监测所述用户的眼睛的所述瞳孔直径。
7.根据前述权利要求中任一项所述的装置,其中确定所述用户是否已经查看了所述内容包括监测所述眼睛注视的次数。
8.根据前述权利要求中任一项所述的装置,其中确定所述用户是否已经查看了所述内容包括监测所述眼睛注视的持续时间。
9.根据前述权利要求中任一项所述的装置,其中所述装置进一步包括运动传感器(107)并且其中所述装置适于使用所述装置的所述相机和所述运动传感器来检测所述用户的眼睛移动。
10.一种装置,其包括至少一个相机(101)、运动传感器(107)、显示器(103)、存储器(105)和处理器(104),所述存储器存储指令,所述指令当由处理器执行时使得所述装置:
使用所述装置的所述显示器显示要由所述用户查看的内容;
使用所述装置的所述相机、所述装置的所述运动传感器或所述相机和所述运动传感器两者来检测用户的眼睛;
使用所述装置的所述相机、所述装置的所述运动传感器或所述相机和所述运动传感器两者来检测用户的眼睛移动;
基于所述检测到的用户的眼睛移动,确定所述用户是否已经查看了所述内容。
11.一种确定用户是否已经查看了内容的方法,其包括:
显示要由所述用户查看的内容;
检测用户的眼睛;
检测用户的眼睛移动;
基于所述检测到的用户的眼睛移动确定用户是否已经查看了所述内容。
12.根据权利要求11所述的方法,其中确定所述用户是否已经查看了所述内容包括监测所述用户的眼睛的眨眼速率。
13.根据权利要求11或12所述的方法,其中确定所述用户是否已经查看了所述内容包括监测所述用户的眼睛的所述瞳孔直径。
14.根据权利要求11-13中任一项所述的方法,其中确定所述用户是否已经查看了所述内容包括监测所述眼睛注视的次数。
15.根据权利要求11-14中任一项所述的方法,其中确定所述用户是否已经查看了所述内容包括监测所述眼睛注视的持续时间。
CN202080087433.9A 2019-12-19 2020-12-17 眼睛跟踪装置和方法 Pending CN114867406A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19306688.3 2019-12-19
EP19306688 2019-12-19
PCT/EP2020/086825 WO2021123022A1 (en) 2019-12-19 2020-12-17 An eye-tracking device and method

Publications (1)

Publication Number Publication Date
CN114867406A true CN114867406A (zh) 2022-08-05

Family

ID=69185197

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080087433.9A Pending CN114867406A (zh) 2019-12-19 2020-12-17 眼睛跟踪装置和方法

Country Status (5)

Country Link
US (1) US20230017183A1 (zh)
EP (1) EP4076142A1 (zh)
JP (1) JP2023507758A (zh)
CN (1) CN114867406A (zh)
WO (1) WO2021123022A1 (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10039445B1 (en) * 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
CN103902192A (zh) * 2012-12-28 2014-07-02 腾讯科技(北京)有限公司 人机交互操作的触发控制方法和装置
JP6152758B2 (ja) * 2013-09-13 2017-06-28 富士通株式会社 情報処理装置、方法及びプログラム
US20150331240A1 (en) * 2014-05-15 2015-11-19 Adam G. Poulos Assisted Viewing Of Web-Based Resources
WO2016138178A1 (en) * 2015-02-25 2016-09-01 Brian Mullins Visual gestures for a head mounted device
GB201615382D0 (en) * 2016-09-09 2016-10-26 Univ Court Of The Univ Of Edinburgh The And Lothian Health Board A text display method and apparatus
US11054272B2 (en) * 2017-05-11 2021-07-06 Disney Enterprises, Inc. Physical navigation guided via story-based augmented and/or mixed reality experiences
CN109445583A (zh) * 2018-10-19 2019-03-08 Oppo广东移动通信有限公司 页面控制方法、装置及移动终端

Also Published As

Publication number Publication date
WO2021123022A1 (en) 2021-06-24
JP2023507758A (ja) 2023-02-27
US20230017183A1 (en) 2023-01-19
EP4076142A1 (en) 2022-10-26

Similar Documents

Publication Publication Date Title
US11200965B2 (en) Apparatus and method for recognition of medication administration indicator
US9844317B2 (en) Method and system for automatic eyesight diagnosis
US20150213634A1 (en) Method and system of modifying text content presentation settings as determined by user states based on user eye metric data
WO2018127782A1 (en) Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command
US10335025B2 (en) System and method for the training of head movements
CN109171638A (zh) 视力检测的方法、终端、头戴显示设备以及视力检测系统
US10881289B2 (en) Device for testing the visual behavior of a person, and method for determining at least one optical design parameter of an ophthalmic lens using such a device
CN107092314A (zh) 一种提供驾驶适宜性检测的头戴式显示设备及检测方法
CN111248851A (zh) 一种视功能自测方法
JP2018530790A (ja) 累進レンズの光学系を判定する方法
US10108259B2 (en) Interaction method, interaction apparatus and user equipment
El Haddioui et al. Learner behavior analysis through eye tracking
Fletcher et al. Attention to internal face features in unfamiliar face matching
KR20200092659A (ko) 의료 커뮤니케이션 가상 훈련 시뮬레이션 시스템 및 방법
US20150160474A1 (en) Corrective lens prescription adaptation system for personalized optometry
CN114867406A (zh) 眼睛跟踪装置和方法
JP2018531706A (ja) 人の視覚挙動パラメータを判断する方法及びこれに関連する検査機器
CN109303547A (zh) 一种视功能检查方法、装置、计算机设备和介质
US20230263388A1 (en) Eye examination device, system and method
WO2020257771A1 (en) Systems and methods for binocular vision evaluation and treatment
US20240180416A1 (en) System and method for providing visual field tests
JP7418711B1 (ja) 注意抽出システム、及び注意抽出方法
KR20240066844A (ko) 탄젠트 스크린을 표시하는 헤드 마운티드 디스플레이 장치 및 헤드 마운티드 디스플레이 장치의 동작 방법
CN113721365A (zh) 可穿戴设备的屈光调整方法、可穿戴设备及介质
Francisco Development of an Eye-Tracker for a HMD

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination