CN104254281B - 测量注意力的方法 - Google Patents

测量注意力的方法 Download PDF

Info

Publication number
CN104254281B
CN104254281B CN201280072624.3A CN201280072624A CN104254281B CN 104254281 B CN104254281 B CN 104254281B CN 201280072624 A CN201280072624 A CN 201280072624A CN 104254281 B CN104254281 B CN 104254281B
Authority
CN
China
Prior art keywords
stimulation
eyes
time
people
notice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280072624.3A
Other languages
English (en)
Other versions
CN104254281A (zh
Inventor
汉森·斯珀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitat Autonoma de Barcelona UAB
Institucio Catalana de Recerca i Estudis Avancats ICREA
Original Assignee
Universitat Autonoma de Barcelona UAB
Institucio Catalana de Recerca i Estudis Avancats ICREA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitat Autonoma de Barcelona UAB, Institucio Catalana de Recerca i Estudis Avancats ICREA filed Critical Universitat Autonoma de Barcelona UAB
Publication of CN104254281A publication Critical patent/CN104254281A/zh
Application granted granted Critical
Publication of CN104254281B publication Critical patent/CN104254281B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

在第一方面,本发明提供一种测量人的注意力的方法,包括:呈现旨在吸引人的注意力的一个或多个刺激;以及获得人的眼睛位置。本发明还包括从所获得的眼睛位置检测一个或多个眼睛注视;以及在检测到的眼睛注视中的一个或多个的过程中从所获得的眼睛位置随时间测量眼睛的会聚角度。

Description

测量注意力的方法
技术领域
本发明涉及测量人的注意力的方法并涉及适于执行上述方法的计算机程序产品和系统。
背景技术
大部分感觉信息通过眼睛到达人的大脑。当人看时,他/她通过扫视的眼睛移动浏览视觉环境。他/她每秒转移凝视2至3次。在两次连续的扫视之间眼睛在短暂的时期内(通常在100和1000ms之间)静止不动。在该稳定的凝视(或眼睛注视)期间,中央凹处的视觉信息被更详细地处理。中央凹是人的视网膜的小的中心区域并具有非常高的视敏度。其覆盖视角的一些角度。因此为了得到世界的清晰视图,大脑必须转动眼睛以使得关注对象的图像落在中央凹上。因此眼睛移动对于视觉感知非常重要。鉴于此,眼睛注视(持续时间、位置、频率、重复等)被认为告知了所注意的区域对于主体的重要程度。
在眼睛注视期间,在人的周围的物体从人的感知消失(特罗勒(Troxler)效应)。为了防止该现象,在注视期间产生小的眼睛移动。若干研究证明在注视期间的微扫视可以是在注视期间防止感知的微扫视(Martinez-Conde,S.,Macknick,S.L,Troncoso,X.G.,& Hubel,D.H.(2009).Microsaccades:a neurophysiological analysis(微扫视:神经生理分析),Trends in Neurosciences(神经科学的趋势),32,463-75)。但是,其他研究提供了呈现出注视的微扫视可能是试验室加工品并在视觉功能中没有作用的论证(Collewijn,H.,& Kowler,E.(2008).The significance ofmicrosaccades for vision and oculomotor control.Journal of Vision(微扫视对于视觉和动眼神经控制的重要性),视觉杂志,8(14),20,1-21)。因此微扫视在视觉感知中的作用仍然在争论。除了感知以外,还争论微扫视是否在视觉注意力中起作用。一方面,微扫视方向可能是注意力的可靠的在线测量(Engbert,R.,& Kliegl,R.(2003).Microsaccades uncoverthe orientation of covert attention(微扫视揭露隐蔽的注意力的定向),Vision Research(视觉研究),43,1035-45)。另一方面,注视的眼睛移动可能不是隐蔽的注意力的指标(Horowitz,T.S.,Fine,E.M.,Fencsik,D.E.,Yurgenson,S.and Wolfe,J.M.(2007).Fixational eye movements are not anindex of covert attention(注视的眼睛移动不是隐蔽的注意力的指标),Psychological Science(心理科学),18,356)。
由于两只眼睛在头上的不同位置,因此眼睛接收图像的稍微不同的影像。因此,当看物体时,眼睛必须围绕纵轴旋转以使得图像的影像在两只眼睛中都处于视网膜的中心。聚散(Vergence)是指两只眼睛在相对方向上的同时移动以获得单一的双眼视觉。会聚是两只眼睛朝向彼此同时向内的移动,而发散是两只眼睛同时向外的移动。因此为了看较近的物体眼睛会聚,而为了看较远的物体眼睛发散。但是由于左眼和右眼观察的不同视点,空间中的许多其他的点不落在相应的视网膜位置上。视觉的双眼差别限定在双眼中影像点之间的差异。大脑使用该双眼差别从二维视网膜图像提取深度信息。由于这个原因,眼睛转向被认为是针对深度感知的重要视觉提示。
用于测量注意力以及/或者其他或多或少相关的认知行为的方法在所属领域中是公知的。大部分方法试图识别并测量许多不同的眼睛行为(例如扫视、眨眼、眼睑、凝视注视、瞳孔扩大、发散等)以获得关于注意力的结论。这种类型方法的缺点可能是它们通常包括收集大量数据并基于上述收集的数据执行繁重的计算,这可能导致某种低效,并因此可能需要强大的和昂贵的计算资源。
另一个不便可能是由于这些方法考虑许多不同的眼睛行为,因此它们不产生注意力的干净的指标,这可能产生将注意力与其他不同于注意力的认知处理(例如感知、记忆、经验等)混合的测量结果。
再一个缺点可能是由于这些方法经常测量考虑长时标(可以是几分钟)的状态(例如与注意力有关的状态),因此它们可能花费太长时间以获得或多或少可靠的结论。由于这些方法考虑不同的眼睛行为(其中的一些可能在收集的数据中引入一些差别),因此上述长时标可能对于这些方法是必要的。似乎理解收集非常大量的数据并基于该数据执行复杂的计算可以旨在以一些方式减轻/补偿上述差别是有意义的。
例如,US2007291232A1公开了前文说明过的类型的方法。该方法旨在通过实时地监测凝视点、瞳孔的移动、瞳孔的反应以及执行任务的主体中的其他参数,在数据库中收集数据,分析数据库中的数据,以及为主体分配表示主体的具体精神水平等级的分数来确定精神水平等级。精神水平等级可以包括当执行确定的任务时集中视觉注意力的能力。因此,可以理解,本方法的目的是测量注意力作为精神水平的参数。本方法具有之前提到的缺点。
发明内容
因此仍然需要解决至少一些上述问题的测量人的注意力的新方法、计算机程序和系统。本发明的目的是满足这种需要。
在第一方面,本发明提供一种测量人的注意力的方法,包括:呈现旨在吸引人的注意力的一个或多个刺激;以及获得人的眼睛位置。本发明还包括从所获得的眼睛位置检测一个或多个眼睛注视;以及在检测到的中的一个或多个眼睛注视的过程中从所获得的眼睛位置随时间测量眼睛的会聚角度。
在会聚移动(由于人集中注意力)之后将通常跟随有发散移动(一旦集中注意力后将眼睛返回它们的“正常”位置)。这样的发散移动可以被视为会聚损失或负的会聚,而该会聚移动可以被视为会聚增加或正的会聚。下文,出于简化的目的,只有术语“会聚”(既不是转向也不是发散)将用于表明上述两种类型的移动。在这种意义上说,正的会聚移动可以定义为在该移动期间会聚角度增加的移动,而负的会聚移动可以定义为在该移动期间会聚角度减少的移动。
注意力可以与无意识或有意识的视觉关联。例如,比起非注意的物品,注意的刺激被更好/更早有意识地看见。会聚可以与和有意识的或无意识的视觉关联的注意力相关。如果在会聚中发生调整,则可以认为刺激被有意识地注意。相反,当在会聚中不发生调整时,可以认为刺激是非注意的或被无意识地注意。
所建议的基于在注视期间测量会聚的方法允许测量与无意识的视觉类型和有意识的视觉类型关联的注意力。
在建议的方法中,在凝视注视位置测量的会聚并不必须揭示对相应的刺激的实际被注视/凝视区域的注意力,但是测量的会聚可以揭示对另一个区域的注意力。
会聚调整发生在注意力转移的同时或之前,以及在相应的刺激被有意识地或无意识地看见之前。这个暂时的差异使得会聚调整具有预测能力。其能够预言刺激是否将被注意或看见。
与本发明相关的不同实验允许找到眼睛会聚和注意力之间清楚的关系。结论为在眼睛注视期间,会聚角度根据捕捉注意力的能力被调整。会聚角度在视觉刺激之后似乎更大,这种增大似乎与自底向上和自顶向下注意力相关。眼睛会聚中调整的起点似乎被锁定在刺激的起始,而眼睛会聚的角度大小似乎取决于刺激接收或引起的注意力负载。
这些结果通过测试提示/无提示范例中的主体获得。在该任务期间,眼睛会聚的角度被测量。出人意外地,眼睛会聚的角度大小不恒定,但是受到视觉刺激的影响。一旦视觉刺激已经呈现(也就是刺激的呈现以及/或者提示/无提示刺激的呈现),眼睛会聚的角度就短暂地增加。这种眼睛会聚的角度的增加是刺激对比的函数。其当刺激对比最强烈并且针对更低的对比等级逐渐降低时最明显。对于在检测阈值以下的刺激,眼睛会聚的角度大小不变。针对检测到的目标的眼睛会聚的角度大小比针对未检测到的目标的大。发现眼睛会聚的角度的调整在提示起始后显著地更大。
观察到的效果不反映眼睛会聚(也就是水平眼睛移动)的性质,并取决于任务中主体的约束。对照实验排除了瞳孔尺寸的改变或微扫视的发生作为眼睛会聚的角度中所观察到的改变的可能说明。当听觉提示在一致的和不一致的试验中转移视觉空间的注意力时,在眼睛会聚的角度中观察到相似的效果。根据获得的观察结果,在眼睛注视期间小的会聚移动和在没有深度提示的2D(二维的)图像上的视觉注意力的转移之间存在联系。
所建议的将创新的作用归因于眼睛会聚的方法具有以下优点,即,只使用一种类型的眼睛行为(会聚)来推断人可能注意的程度。具体地,本方法只考虑眼睛注视中的眼睛的位置以测量作为注意力指标的眼睛会聚。因此,相比现有技术的方法,必要的数据和计算大幅降低。而且,根据实施的实验,眼睛会聚可以认为是与其他“干扰的”认知过程孤立的注意力的可信赖指标。总之,本发明允许在非常短的时间内以更有效并且更干净的方式测量注意力。几秒中收集的数据可以足够评价注意力。
本方法的优点是在一个或多个刺激呈现期间,一旦已经获得人的眼睛的位置,则不再需要人的存在。之后,随时间获得的眼睛位置用于进行用于检测眼睛注视和测量会聚角度的计算。因此,在上下文中,术语“检测”是指对收集数据(随时间的眼睛的位置)进行相应的计算以检测(在这种情况下)眼睛注视。同样地,术语“测量”是指进行相应的计算以获得随时间的会聚角度和相关的注意力测量结果。
本发明的方法可以应用于不同领域,诸如网络可用性、广告、赞助、包装设计、汽车工程等。目标刺激的示例可以包括网站、电视节目、体育赛事、电影、商业广告、杂志、报纸、包装、货架陈列、顾客系统、软件等。生成的数据可以被统计地分析并被绘图以提供特别视觉模式的证据。通过检测眼睛会聚,能够确定给定媒介或产品的效果。
当人看图像时,他/她通过对在该情景中的特别区域的快速扫视的眼睛移动浏览图像,并在感知视觉信息的期间短暂注视。但是,并非所有注视都被有意识地感知或影响行为,一些注视比其他的被更好地观察。本发明允许将在眼睛注视和感知之间的这种差异区分。
当看图像(广告、网页)时,主体所看的区域可以恢复,在这些注视期间的眼睛会聚可以被计算和测量。在眼睛会聚中显示大的起伏的关注的区域可以表明强烈注意的区域以及更好地感知的区域,而在眼睛会聚中呈现较小起伏的关注的区域可以表明较少注意或感知的区域,尽管这些区域已经被注视。会聚中的起伏可以根据调整的特征(也就是幅度、速率、起始时延、持续期间等)计算。
因此,本发明的方法可以对于例如设计广告非常有用。例如,本方法可以考虑观看待做广告的产品的人的不同类型而实施。本方法可以提供关于例如已经被人更多注意的产品的部分的数据,以这种方式能够获得关于为了吸引最大注意力,哪些部分可以被展示以及它们可以被展示的显著程度的结论。
另一个应用可以是揭示知觉类型中的差异,其描述个人如何感知和理解信息。本发明允许在善于分析的人和较无理性的人之间进行区分。可以观察到相比环境-依靠的观察者(更无理性的人),环境-独立的观察者(更善于分析的人)在眼睛会聚中具有更强的调整。善于分析的技能对于在各种领域中的许多高要求的工作很重要,善于分析的人喜欢使用数据和事实得出结论。一些类型的工作(例如预算分析师、计算机系统分析员、市场研究员交易以及研究分析师)需要善于分析的人。为了在工作的候选人中选择,他们可以在执行例如提示/无提示的任务,同时记录眼睛移动。在测试之后,可以分析眼睛数据并可以计算会聚。可以认为具有高的会聚调整的候选人可能是更善于分析的人,因此更适合确定的工作。
当执行重复的任务时,容易变得厌烦并忽视重要的细节。许多作业是重复的,特别是在组装工作中或当视觉上监视产品或图像时。本发明的方法对于知道任务在何时变得厌烦并因此可能导致错误可以非常有用。在许多重复的任务期间,能够记录眼睛的位置并且能够测量眼睛会聚。之后在作业的初始开始期间可以计算会聚的频率。该值可以用作基线等级。之后,在任务期间,眼睛会聚可以被监视并与会聚调整的初始频率比较。眼睛会聚的调整反映注意力的转移。更高的频率表示注意力的频繁转移。如果人变得厌烦,则尽管眼睛仍然可能移动,但是注意力转移较少的次数。如果会聚调整的频率下降至某个阈值之下,则这可以表示人缺乏注意力的状态,该人可能需要休息或被替换。
人浏览因特网或数字媒体可能遭受许多广告和其他类型的刺激。但是它们中的很多从未被使用者注意。本发明可以用于提高广告或相似类型的其他刺激的可见性。当浏览或阅读文本时,眼睛移动能够例如通过合适的网络摄像头(用作眼动跟踪器)记录,并且眼睛会聚可以被计算。当眼睛会聚开始增加时,注意力状态增加。该测量能够用在广告的呈现或改变的时刻。当眼睛会聚更强时,用户更有可能注意出现的刺激。因此宣传的效果可以通过监视眼睛会聚提高。
在本发明的第二方面中,提供包括下述程序指令的计算机程序产品,该程序指令用于使计算机进行基本上如上文描述(本发明的第一方面)的方法。本发明也与这样的计算机程序产品有关,即该计算机程序产品以存储媒介(例如CD-ROM、DVD、USB驱动器、在计算机存储器上或在只读存储器上)或由载体信号(例如在电学载体信号或光学载体信号上)携带。
在本发明的第三方面,提供用于测量人的注意力的系统。该系统包括眼睛位置跟踪器;用于呈现刺激的设备;以及计算系统。该计算系统包括处理器和存储器,该存储器存储计算机可执行指令,当该计算机可执行指令被执行时使计算系统执行基本上如上文描述(本发明的第一方面)的方法。
通过阅读本说明书,本发明实施方式附加的目的、优点以及特征对于本领域的技术人员将变得显而易见,或通过本发明的实现学习。
附图说明
下文将参考附图,通过非限定的示例描述本发明的具体实施方式,其中:
图1a和图1b示出根据本发明实施方式的用于测量注意力的第一系统和第二系统的示意图;
图2示出根据本发明实施方式的待依次呈现的第一组刺激;
图3示出根据本发明另一个实施方式的待依次呈现的第二组刺激;
图4示出根据本发明实施方式的与眼睛会聚有关的收集数据;
图5以图形方式示出根据本发明实施方式的关于与普通人和患有ADHD的人有关的会聚调整的收集数据;
图6以图形方式示出根据本发明实施方式的关于与普通人和患有ADHD的人有关的会聚调整的数据;以及
图7以图形方式示出与有意识的视觉关联的注意力通常可以具有比与无意识的视觉关联的注意力更高的会聚调整。
具体实施方式
在以下的描述中,陈述多个具体细节以提供本发明的彻底理解。但是,本领域的技术人员应当理解,在没有一些或所有这些具体细节的情况下,本发明也可以实施。在其他例子中,为了防止不必要地混淆本发明的描述,未详细描述公知的元件。
图7以图形方式示出与有意识的视觉72关联的注意力通常可以具有比与无意识的视觉73关联的注意力更高的会聚调整70。所示图形的纵轴70表示会聚的角度,而横轴71表示时间。本图示出(有意识地)看到的刺激导致更高的会聚调整72,未看到的刺激导致更低的会聚调整73。因此,测量注意力(基于测量会聚)的建议方法也可以帮助区分与看到的刺激关联的注意力和与未看到的刺激关联的注意力。
图1a示出用于测量人10的注意力的系统。该系统可以包括用于呈现刺激(例如屏幕12)的设备,眼睛位置跟踪器(例如合适的照相机11),以及被配置为执行计算机程序的计算系统15,该计算机程序被配置为执行用于测量注意力的方法的实施方式。计算机15可以包括储存器(例如传统的硬盘16)以储存和检索上述计算机程序需要的数据。
照相机11可以以这样的方式放置,即可以正确地获得人10的眼睛的位置以检测眼睛的注视点并计算与眼睛会聚的角度有关的数据。照相机11和屏幕12可以适当地通过13、14与计算机15连接,以使得计算机15可以大体上与屏幕12交换合适的信号以呈现对应的视觉刺激,并且可以大体上与照相机11交换合适的信号以获得眼睛的位置。上述连接器13、14可以是有线的以及/或者无线连接装置。
图1a的系统可以包括适合的装置以将人10的头保持在大体固定的位置。这些固定装置未在附图中示出。可选地,系统可以不包括这种固定装置,在这种情况下,照相机11可以包括适当的软件(或计算机程序)以评价人10的头的移动。由于头的移动可以以一些方式使所捕捉的眼睛的移动失真,因而该软件可以顾及头的移动以减弱上述潜在的失真。因此,该照相机11将能够向计算机15发送眼睛的“干净”位置。可选地,照相机11可以不包括这样的软件,在这种情况下,等同的计算机程序可以包括在计算机15中。在这种情况下,照相机11将只向计算机15发送代表所捕捉的头(当然包括眼睛)的图像的信号,计算机15将减弱由于头的移动产生的潜在失真。
图1b示出与图1a的系统非常相似的、用于测量人10的注意力的另一个系统。两个系统之间唯一的差异是图1b的系统包括与图1a的眼动跟踪器11不同的眼动跟踪器17。在这种情况下,由于该眼动跟踪器17与头共同地移动,因此将不需要用于补偿头的移动的软件。
对于照相机11和头戴式的跟踪器17,可选地,系统的实施方式可以包括适于执行眼电描记术(EOG)的设备。并且,可选地,系统的实施方式可以包括巩膜线圈。
通常,眼动跟踪器必要地测量眼睛关于测量系统的的转动。如果测量系统是头戴式的(如图1b的设备17),则测量眼睛在头中的角度。如果测量系统是桌固定的(如图1a的设备11),则测量凝视角度。
目前最广泛使用的设计是基于视频的眼动跟踪器。当观看者看某中刺激时,照相机聚焦于一只或两只眼睛并记录它们的移动。大部分现代的眼动跟踪器使用对比以定位瞳孔的中心并使用红外光和近红外非准直光以引起角膜反射。这两个特征之间的向量能够被用于在针对个体的简单校正之后计算与平面的凝视交叉点。
光(通常为红外的)从眼睛反射并由视频照相机或其他特别设计的光学传感器感应。之后分析信息以从反射的变化中获取眼睛转动。基于视频的眼动跟踪器通常使用角膜反射和瞳孔的中心作为特征以随时间跟踪。
图1a和图1b的系统可以适于执行这样的方法,该方法包括在屏幕12上呈现一个或多个旨在吸引人的注意力的刺激(图像),以及从眼动跟踪器11或17获得人的眼睛的位置。一旦呈现图像并获得眼睛的位置,该方法可以包括检测从所获得的眼睛位置发生眼睛的注视的时间间隔。之后,在每个上述眼睛注视中,可以计算眼睛会聚的角度和其随时间的变化。最后,注意力的一些指标或测量值可以由上述计算的会聚角度导出。
会聚的角度可以通过应用针对会聚角度的任何合适的公知算法由获得的眼睛位置计算。主要基于三角计算的上述算法众所周知,因此本文不提供关于这些算法的具体细节。
在一些实施方式中,该方法可以包括依次呈现多个刺激(图像)直到达到预定的条件。更具体地,该方法可以包括呈现一对或多对相关的刺激(图像),上述相关的刺激对中的每一对包括第一刺激和第二刺激,第二刺激包括第一刺激的改变。并且更具体地,该方法可以包括在第一刺激的呈现和第二刺激的呈现之间呈现至少一个提示,上述提示提供第二刺激相对于第一刺激的改变是什么的暗示。
当到达预定的时间时,可以认为达到预定的条件。可选地,当呈现的刺激到达预定的数量时可以认为达到预定的条件。
提示的目的是改变注意力或引起注意力。当调整会聚时,可以假设提示起作用。因此,能够测试提示的效果或成功。提示可以包括一个或多个视觉信号,以及/或者一个或多个听觉信号,以及/或者一个或多个触觉信号等。任何这些不同类型的信号可以以如下的方式组合在相同的提示中,即提示可以被用于评价不同的感官经验可以如何在具体的图像、一对相关的图像、图像序列、相关的图像对序列等之前导致更多或更少的注意力。
视觉信号可以表明对应的刺激的具体区域或对象。将参考图2和图3说明只包括视觉信号的提示示例。
包括听觉信号的提示示例可以是,例如,说“看那辆车的车轮”或“看,车轮真漂亮”的声音。对上述第一听觉提示的反应可以是,例如,眼睛已经注视车轮但是会聚没有调整,在这种情况下,可以假设该提示不起作用。但是,对第二听觉提示的反应可以是,例如眼睛已经注视车轮,而且会聚已经调整,在这种情况下,可以假设该提示起作用。
触觉提示的示例可以是例如以这样的方式按压手的特定点的特别设备,即,使得上述特定点提供第二刺激相对于第一刺激的改变的位置的暗示。
在多媒体环境中,特别在电视游戏中,可能非常适合使用将视觉以及/或者听觉以及/或者触觉信号组合的提示。例如,如果目标是高度地吸引游戏者的注意,则可以使用将有影响的图像,有影响的声音以及控制杆的有影响的振动相组合的提示。因此,本发明方法和系统的实施方式可以非常适合设计例如电视游戏;具体地,上述实施方式可以非常适合评价对游戏者注意力的影响,从而准确地设计电视游戏中确定的视觉情形或事件(本发明上下文中的具有提示的刺激)。
图2示出视觉刺激(或图像)对,其中首先呈现第一刺激20,其次呈现第二刺激22。上述呈现之间的时间可以依赖于每次测试的环境和目的而变化。第一刺激20可以包括位于图像中心的十字24,以及围绕十字24的多个竖线23。第二刺激22可以包括相对于第一刺激20的改变。该改变可以是围绕十字24的竖线中的一个的倾斜26。倾斜的角度可以例如因实验而异。
图2的刺激对旨在测试自底向上的注意力,其中刺激22的显著度或对比(倾斜线26)能够与之前呈现的刺激20非常或稍微不同。该测试允许评价观察者自动地以及/或者不自觉地注意变化26的能力。当会聚角度增加时,则刺激对于吸引注意力有效,并更可能被观察者看见。该测试可以用于判定人能够忽视(也就是注意力不被其转移)变化26的程度。
图3示出与图2相同的视觉刺激对20、22,但是具有其他的刺激/提示的呈现。本图还示出时标36,根据该时标36在其不同点进行刺激/提示的呈现。在这种情况下,在初始时间31呈现第一刺激20(来自图2)之前的刺激30。而后,在时间32呈现刺激20(来自图2),该时间32可以例如在初始时间31的300ms之后。然后,在时间33呈现提示37,该时间33可以例如在初始时间31的1300ms之后。接着,在时间34再次呈现刺激20(来自图2),该时间34可以例如在初始时间31的1400ms之后。最后,在时间35呈现刺激22(来自图2),该时间35可以例如在初始时间31的2400ms之后。提示37可以包括例如指向竖线的箭头38,该竖线将在最后的刺激22中呈现为斜线26。
图3的刺激/提示的序列旨在测试自顶向下的注意力,其中观察者被指示在呈现最后的刺激22之前将其注意力移动至将在上述最后的刺激22中呈现为倾斜的的线26。提示37提高变化26的察觉性能。因而,能够测试提示37的效果。如果提示37不在会聚中引起改变,则可以认为提示37不起作用。由于自底向上的注意力和自顶向下的注意力由不同的大脑区域执行处理,因此图2和图3的序列可以适合探查与注意力相关的不同的认识机制。
对于呈现相关的刺激对,可选地,该方法可以包括呈现不相关的刺激并且没有对于在人待评价的部分上自由观看的提示。这种呈现刺激的方式可以应用于例如广告的设计,在这种情况下,本发明的方法可以帮助推断哪些部分应该被呈现及其应呈现的显著程度,以实现人的注意力的特别的效果。
在本发明的实施方式中,该方法还可以包括针对呈现的刺激中的一个或多个,从人获得响应于该呈现的刺激至少一个自发动作。并且具体地,在呈现一对或多对相关的刺激的实施方式中,该方法可以包括针对(刺激对的)第二刺激中的一个或多个,从人获得响应于该第二刺激的自发动作。
上述来自人的自发动作可以是例如表示关于呈现的刺激之一的某事的鼠标点击。如果上述刺激是一对相关的刺激的第二刺激,则该鼠标点击可以指由人感知的第二刺激相对于第一刺激的改变。该自发动作可以有助于知道人的视觉系统已经无意识地或有意识地选择了什么。会聚将表明刺激是否已经被注意或感知。因此注视用于知道看见了什么,会聚用于知道注意了什么。
图4示出根据本发明的实施方式的与眼睛会聚有关的收集数据的图。具体地,本图示出会聚的角度418可以如何根据第一组收集数据407和第二组收集数据406而随时间419表现。上述眼睛的收集位置406、407可以对应于根据图3示出的刺激/提示的序列的不同实验。图4还反映出几秒的收集数据406、407可以足够获得关于注意力的结论。在这种情况下,在图4中仅示出2.5秒(2500毫秒)的收集的眼睛位置。
图4表示刺激/提示的具体序列,但是上述序列可以只是刺激和提示的或多或少更大序列的子序列。从这个意义上说,所示的图形可以只是或多或少更大的图形的子图形(或一部分),该或多或少更大的图形代表在刺激和提示的上述更大序列期间收集的全部数据。出于简化的目的,在图4中只示出该“小”图形,但是认为足够可理解地提供之后的描述。
在本发明的实施方式中,测量眼睛的会聚角度包括测量会聚角度基本上改变的速度。较高的速度411可以例如认为是较高注意力的指标或具有迅速注意的能力的指标。较低的速度410可以认为是例如为较低注意力的指标或具有缓慢注意的缺点的指标。在最高速度和最低速度之间的不同等级可以用于例如将不同的人关于快速或缓慢注意的能力分类。
在一些实施方式中,测量眼睛的会聚角度可以包括测量会聚角度保持基本不变的时间。可以假设例如当会聚角度随时间在较高的阈值和较低的阈值之间时,会聚角度保持基本不变。图4示出时间间隔412的示例,在该时间间隔412中会聚角度保持基本不变。例如,基本恒定的眼睛会聚角度的非常长的时间间隔可以认为是差的集中注意力的能力,其中,基本恒定的眼睛会聚角度的非常短的时间间隔可以认为是好的集中注意力的能力。这些等级和中间等级可以用于将不同的人关于差的或好的集中注意能力分类。
在本方法的实施方式中,测量眼睛会聚的角度包括针对眼睛注视414至416中的一个或多个,测量时间412,该时间412基本上是从眼睛注视基本上开始的时间420至在上述眼睛注视414至416中会聚角度基本上开始增加的时间414之间的时间。在注视的开始和会聚的开始之间的长时间可以表示人可能不能够对已经看见的某事物快速的集中注意力。在注视的开始和会聚的开始之间的不同等级的时间可以用于将不同的人关于快速或缓慢注意已经看见的某事物的能力分类。
本方法的实施方式还可以包括:针对眼睛注视414至416中的一个或多个,确定刺激37,该刺激37的呈现已理论上导致眼睛注视414至416;以及针对确定的刺激37中的一个或多个,测量时间413,该时间413基本上是从刺激基本上呈现的时间415至会聚角度在由确定的刺激37导致的眼睛注视414至416中基本上开始增加的时间414之间的时间。如果该刺激具有探查的效果,则在刺激37的呈现415和会聚的开始414之间的长时间可以表示人的注意力问题。如果该人被分类为在注意力方面正常,则在刺激的呈现和会聚的开始之间的长时间可能表示刺激的无效。在刺激的呈现和会聚的开始之间的不同等级可以被定义为对人的注意力类型以及/或者刺激的效果分类。
在一些实施方式中,测量眼睛的会聚角度可以包括针对一个或多个眼睛注视414至416中的一个或多个,测量时间417,该时间417基本上是从会聚的角度基本上开始增加的时间414至会聚的角度在眼睛注视414至416中基本上结束减小的时间416之间的时间。在会聚增加的开始和会聚减少的结束之间的长时间可以表示例如良好的人保持注意力的能力。在会聚增加的开始和会聚减少的结束之间的不同等级可以定义为将人关于保持注意力的能力分类。
在本方法的实施方式中,测量眼睛的会聚角度可以包括针对眼睛注视414至416中的一个或多个,获得从眼睛注视基本上开始的时间420至眼睛注视基本上结束的时间最大的会聚角度405。并且更具体地,测量眼睛的会聚角度可以包括获得会聚的最大角度405相对于之前获得的基线407的最大值408之差409。
该之前获得的基线可以与从第二组收集的数据406获得的基线对应,其可以通过该方法之前的执行或在同一执行中之前的子序列的刺激/提示预先获得。上述该方法之前的执行以及/或者在同一执行中之前的子序列可以应用于相同的人。可选地,该方法之前的执行可以是之前的根据例如确定的人物类型应用于其他人的执行。
第一组收集数据407(或之前获得的基线)和第二组收集数据406的比较可以在例如医学应用中非常有用。例如,认为是提高注意力的药物的效果可以通过应用上述原理测试。在这种情况下,第二组收集数据406可以从已经服用该药物的人获得,而第一组收集数据407可以从没有服用该药物的人获得。第二组收集数据406的会聚角度的最大值405相对于第一组收集数据407(之前获得的基线407)的最大值408的显著差异409可以表明注意力的显著提高,在这种情况下可以认为药物有好的效果。
当比较第一组收集数据(或之前获得的基线)和第二组收集数据406时,可以考虑其他参数,例如:会聚角度基本上改变的速度,会聚角度保持基本上不变的时间,基本上从眼睛注视基本上开始的时间至会聚角度在上述眼睛注视中基本上开始增加的时间之间的时间,基本上从会聚角度基本上开始增加的时间至会聚角度基本上结束的时间之间的时间。
在一些实施方式中,本方法还包括例如根据测量会聚角度的结果获得并提供关于图4描述的类型的图形。可选地,本发明还可以包括根据与注意力和会聚角度(也就是会聚角度的测量结果)关联的阵列获得并提供表明注意力等级的预定值。
可选地,本发明还可以包括应用提供取决于测量的注意力角度(也就是会聚角度的测量结果)的注意力等级的公式。并且可选地,本方法还可以包括获得并提供下述信息元素的任意组合:关于图4描述的类型的图形,根据将注意力和会聚角度关联的阵列的注意力等级,以及通过应用合适的公式的注意力等级。
上述阵列可以以这样的方式定制,即,使得例如注意力值以及/或者会聚角度值的不同标度可以适应于使用本方法的具体环境。同样地,公式也可以以这样的方式定制,即,使得例如不同因子以及/或者被加数以及/或者其它运算对象可以针对它们的应用被定义至所获得的会聚角度,或者以这样的方式定制,即,使得该公式可以适应于使用本方法的特定环境。
在考虑与会聚角度相关的不同参数的实施方式中,上述阵列可以是多维阵列,在该阵列中,每个维度可以代表上述参数之一。与会聚角度相关的参数的示例可以是例如会聚角度本身,会聚角度基本上改变的速度,会聚角度保持基本上不变的时间等。可以定义包括针对上述参数中的每一个的不同等级的标度,以使得针对参数中的每一个计算的值可以与相关标度的上述不同等级关联。例如,在一些应用中,与会聚角度的改变速度相关的标度可以包括10个等级,其中等级SL-0对应最小速度,等级SL-10对应最大速度,等级SL-1至SL-9是对应等级SL-0和SL-10之间的中间速度的中间等级。
例如,在这种类型的多维度阵列中,第一维度可以代表与会聚角度相关的等级的标度,第二维度可以代表与会聚角度基本上改变的速度相关的等级的标度,第三维度可以代表与会聚角度保持基本上不变的时间相关的等级的标度等。因此,可以针对不同维度的等级中的每个组合定义注意力的具体等级。例如,注意力AL-5(它的意义可以是例如“中间注意力”)的等级可以归因于下述维度等级的组合:CA-4(会聚角度的等级4),SL-6(会聚角度基本上改变的速度的等级6)以及UL-5(会聚角度保持基本上不变的时间的等级5)。可以使用等同的原理将剩余的注意力等级和对应的参数(会聚角度、速度等)相关联。
注意力缺陷及多动障碍(ADHD,包括ADD)和三个相关的子类型(ADHD-PI或ADHD-I,ADHD-HI或ADHD-H以及ADHD-C)是在儿童和青少年中更常见的(3-6%)精神病理学障碍之一。基于问卷调查和研究的、身体的以及精神的检查的ADHD(包括ADD和相关的子类型)的常规评估具有许多缺陷并且不准确。当在3岁时出现明显症状时,无法在6岁之前进行当前的诊断(DSM-IV/DSM-V),这阻止了早期治疗,而早期治疗对于防止个人和社会问题以及节省与ADHD(包括ADD和相关的子类型)关联的费用是重要的。
双眼视觉中的问题在例如ADHD(包括ADD和相关的子类型)的一些神经障碍中是常见的。在人类中双眼视觉发育的关键时期是三个月大至八个月大之间,并且对损伤的敏感延长到至少3岁。
因此在早期发育阶段(3个月至2岁)对儿童评价双眼异常以确定它们是否会形成例如ADHD(包括ADD和相关的子类型)的神经障碍很重要。目前的评定方法不允许在6岁之前诊断ADHD(包括ADD和相关的子类型)。
所建议方法的实施方式可以用于在与ADHD(包括ADD和相关的子类型)相关的人类(包括成人、儿童、婴儿以及新生儿)中测试、检测、了解以及诊断神经障碍。
具体地,提供了用于对人测量ADHD(包括ADD和相关的子类型)的方法,其包括测量人的注意力的方法的任何之前描述的实施方式。这种用于测量ADHD(包括ADD和相关的子类型)的方法的优点可以是,可以在婴儿、儿童以及成人中的早期发展阶段检测ADHD(包括ADD和相关的子类型)的病症。由于能够在皮质发育期间(例如在双眼视觉的重要时期)的早期开始,因此早期检测可以使视觉治疗更有效。双眼视觉中的问题能够由验光师通过视觉疗法医治。
为了测量精神障碍,根据病人或易感者的会聚调整可以与根据健康个体的会聚调整比较,并且/或者在会聚调整中的比较可以在不同条件之间实施。本文描述的用于测量注意力的方法的任何实施方式可以用于获得上述会聚调整以进行比较。
通常,如果会聚调整不存在或与正常主体中的会聚调整不同,则这可能是精神障碍的象征。不同的统计技术可以用于测量会聚调整之间的差异。不同的算法(例如概率神经网络)可以被使用以用于分类(例如控制对临床病例)。儿童可以在针对他们的年龄设计的视觉任务下测试。
图5以图形方式示出根据本发明实施方式的关于与普通人和患有ADHD的人有关的眼睛会聚的收集数据。具体地,本图示出第一图形50和第二图形51,其中第一图形50反映在正常儿童(7岁)的会聚的调整,第二图形51反映患有ADHD的未经药物治疗的儿童(8岁)的会聚的调整,两种情况均在提示/无提示任务中测试。横轴53表示单位为毫秒的时间,纵轴52表示会聚角度。
第一图形50示出由正常人针对注意的刺激的会聚角度52随时间53的演变54(实线),以及由正常人针对不注意的刺激55的会聚角度52随时间53的演变(虚线)。第二图形51示出由患有ADHD的人针对注意的刺激56的会聚角度52随时间53的演变(实线),以及由患有ADHD的人针对不注意的刺激57的会聚角度52随时间53的演变(虚线)。
关于于第一图形50,理解了在正常人中的会聚角度52的显著改变和注意的54和不注意的55状态之间的显著差异。关于第二图形51,理解了在患有ADHD的人中既不存在会聚角度52的显著改变,也不存在注意的56和不注意的57状态之间的显著差异。
图6以图形方式示出根据本发明实施方式的关于与普通人和患有ADHD的人有关的会聚调整的数据。在本图形中,其纵轴60表示会聚调整,显示了6名正常人62和7名患有ADHD的人63。这7个人63已经通过DSM-IV方法确诊患有ADHD。本文提出的方法允许推断出相对于患有ADHD的儿童63,正常儿童62的会聚调整显著地更高。阈值(虚线)61可以被定义来区分健康人和患有ADHD的人。
尽管本文只公开本发明的一些具体实施方式和示例,但是本领域技术人员应该理解其他可选实施方式以及/或者本发明的使用、明显的修改和等同也是可能的。另外,本发明覆盖所描述的具体实施方式的所有可能的组合。因此,本发明的范围不应该由具体实施方式所限定,但是应该仅通过所附的权利要求的正确解读确定。
另外,尽管参考附图描述的本发明的实施方式包括计算机设备和在计算机设备中实施的方法,但是本发明也延伸至计算机程序,具体是在载体上或载体中的计算机程序,其适于将本发明付诸实践。该程序可以是源代码、目标代码的形式,诸如呈部分编译形式的目标代码和中间代码源或适用于根据本发明的方法的实施的任何其他形式。该载体可以是能够携带上述程序的任何实体或设备。
例如,上述载体可以包括存储媒介,诸如ROM(例如CD ROM或半导体ROM),或磁记录媒介(例如磁盘或硬盘)。另外,该载体可以是可传递的载体(诸如电学或光学信号),其可以通过电缆或光缆或通过无线电或其他装置传送。
当上述程序以可以通过电缆或其他设备或装置直接地传送的信号实现时,载体可以由上述电缆或其他设备或装置构成。
可选地,载体可以是程序嵌入其中的集成电路,该集成电路适于执行相关的方法或用于在相关方法的执行中。

Claims (16)

1.测量人(10)的注意力的方法,其特征在于,包括:
呈现旨在吸引所述人(10)的注意力的一个或多个刺激(20、22;20、22、30);
获得所述人(10)的眼睛的位置;
从所获得的所述眼睛的位置检测一个或多个眼睛注视;以及
在检测到的所述眼睛注视中的一个或多个的过程中,从所获得的所述眼睛的位置测量所述眼睛的会聚角度(418;52)并计算所述会聚角度(418;52)随时间(419;53)的变化。
2.如权利要求1所述的方法,其特征在于,呈现一个或多个刺激包括依次呈现多个刺激(20、22;20、22、30)直到达到预定的条件。
3.如权利要求2所述的方法,其特征在于,所述多个刺激包括一对或多对相关的刺激,每一对相关的刺激包括第一刺激(20)和第二刺激(22),所述第二刺激(22)包括所述第一刺激(20)的改变。
4.如权利要求3所述的方法,其特征在于,呈现所述一对或多对相关的刺激包括在所述第一刺激(20)的呈现和所述第二刺激(22)的呈现之间呈现至少一个提示(37),所述提示(37)提供所述第二刺激(22)相对于所述第一刺激(20)的改变是什么的暗示。
5.如权利要求1所述的方法,其特征在于,还包括针对所呈现的刺激(20、22;20、22、30)中的一个或多个,从所述人获得响应于所呈现的刺激(20、22;20、22、30)的至少一个自发动作。
6.如权利要求3所述的方法,其特征在于,还包括针对所述第二刺激(22)中的一个或多个,从所述人获得响应于所述第二刺激(22)的至少一个自发动作。
7.如权利要求1所述的方法,其特征在于,测量所述眼睛的会聚角度(418)包括测量所述会聚角度(418)基本上改变的速度(410、411)。
8.如权利要求1所述的方法,其中,测量所述眼睛的会聚角度包括测量所述会聚角度(418)保持基本上不变的时间(412)。
9.如权利要求1所述的方法,其特征在于,测量所述眼睛的所述会聚角度(418)包括针对所述眼睛注视中的一个或多个,测量基本上从所述眼睛注视基本上开始的时间(420)至所述会聚角度在所述眼睛注视中基本上开始增加的时间(414)之间的时间(412)。
10.如权利要求1所述的方法,其特征在于,测量所述眼睛的所述会聚角度(418)包括针对所述眼睛注视中的一个或多个,测量基本上从所述会聚角度基本上开始增加的时间(414)至所述会聚角度在所述眼睛注视中基本上结束减小的时间(416)之间的时间。
11.如权利要求1所述的方法,其特征在于,测量所述眼睛的所述会聚角度(418)包括针对所述眼睛注视中的一个或多个,获得从所述眼睛注视基本上开始的时间(420)至所述眼睛注视基本上结束的时间的最大会聚角度(405)。
12.如权利要求11所述的方法,其特征在于,测量所述眼睛的所述会聚角度(418)包括获得所述最大会聚角度(405)相对于之前获得的基线(407)的差(409)。
13.如权利要求1所述的方法,其特征在于,还包括:
针对所述眼睛注视中的一个或多个,确定理论上导致所述眼睛注视的刺激(20、22;20、22、30);以及
针对确定的刺激(20、22;20、22、30)中的一个或多个,测量基本上从所述刺激基本上呈现的时间至所述会聚角度(418)在由所述确定的刺激(20、22;20、22、30)导致的所述眼睛注视中基本上开始增加的时间(414)之间的时间。
14.如权利要求2所述的方法,其特征在于,还包括针对所呈现的刺激(20、22;20、22、30)中的一个或多个,从所述人(10)获得响应于所呈现的刺激(20、22;20、22、30)的至少一个自发动作。
15.如权利要求4所述的方法,其特征在于,还包括针对所呈现的刺激(20、22;20、22、30)中的一个或多个,从所述人(10)获得响应于所呈现的刺激(20、22;20、22、30)的至少一个自发动作。
16.用于测量人(10)的注意力的系统,其特征在于,包括:
眼睛位置跟踪器(11;17);
用于呈现刺激的设备(12);以及
计算系统(15、16),包括处理器和存储器,其中所述存储器存储计算机可执行指令,当被执行时,所述计算机可执行指令使所述计算系统(15、16)执行如权利要求1至15中的任一项所述的方法。
CN201280072624.3A 2012-04-24 2012-12-21 测量注意力的方法 Active CN104254281B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP12380018 2012-04-24
EP12380018.7 2012-04-24
PCT/EP2012/076654 WO2013159841A1 (en) 2012-04-24 2012-12-21 Method of measuring attention

Publications (2)

Publication Number Publication Date
CN104254281A CN104254281A (zh) 2014-12-31
CN104254281B true CN104254281B (zh) 2016-08-31

Family

ID=47559428

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280072624.3A Active CN104254281B (zh) 2012-04-24 2012-12-21 测量注意力的方法

Country Status (11)

Country Link
US (1) US10602972B2 (zh)
EP (1) EP2844146B1 (zh)
JP (1) JP6272829B2 (zh)
KR (1) KR20150013567A (zh)
CN (1) CN104254281B (zh)
BR (1) BR112014026072A2 (zh)
DK (1) DK2844146T3 (zh)
ES (1) ES2589000T3 (zh)
IN (1) IN2014DN08724A (zh)
PL (1) PL2844146T3 (zh)
WO (1) WO2013159841A1 (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298994B2 (en) * 2014-01-09 2016-03-29 Harman International Industries, Inc. Detecting visual inattention based on eye convergence
US9363093B2 (en) * 2014-03-21 2016-06-07 International Business Machines Corporation Utilizing eye tracking to determine attendee engagement
KR101594839B1 (ko) * 2014-09-12 2016-02-17 고려대학교 산학협력단 전두엽 활성 게임 제공 방법 및 장치
US10413176B2 (en) 2014-09-30 2019-09-17 National University Corporation Hamamatsu University School Of Medicine Inattention measurement device, system, and method
US9978145B2 (en) 2014-12-16 2018-05-22 Koninklijke Philips N.V. Assessment of an attentional deficit
US11061233B2 (en) 2015-06-30 2021-07-13 3M Innovative Properties Company Polarizing beam splitter and illuminator including same
CN105147297A (zh) * 2015-07-29 2015-12-16 昌晓军 一种新型的儿童多动行为矫治系统
CN106551676A (zh) * 2015-09-30 2017-04-05 中国航天员科研训练中心 基于认知阶段理论的认知能力检测方法及检测装置
US11064881B2 (en) * 2015-11-13 2021-07-20 Hennepin Healthcare System, Inc Method for predicting convergence disorders caused by concussion or other neuropathology
JP6747172B2 (ja) * 2016-08-24 2020-08-26 株式会社Jvcケンウッド 診断支援装置、診断支援方法、及びコンピュータプログラム
EP3510505A1 (en) * 2016-09-07 2019-07-17 Koninklijke Philips N.V. Systems, methods, and apparatus for diagnostic inferencing with a multimodal deep memory network
CN108338798B (zh) * 2017-01-25 2020-11-06 北京数字新思科技有限公司 一种注意力测量方法和系统
CN107411761B (zh) * 2017-07-28 2020-08-18 北京航空航天大学 一种基于手指振动触觉刺激的定向注意力测量系统及方法
JP7123539B2 (ja) * 2017-09-21 2022-08-23 日清オイリオグループ株式会社 診断支援情報提供装置
JP7442454B2 (ja) * 2017-11-30 2024-03-04 ビューマインド・インコーポレイテッド 神経障害の検出および一般的認知能力の測定のためのシステムおよび方法
CN109938691A (zh) * 2017-12-21 2019-06-28 清弘生医股份有限公司 眼球的连续性测量方法及眼球的连续性测量装置
CN108309327B (zh) * 2018-01-30 2021-03-26 中国人民解放军海军总医院 一种视觉注意分配能力测评与训练方法
JP7409184B2 (ja) * 2020-03-19 2024-01-09 マツダ株式会社 状態推定装置
JP7380365B2 (ja) * 2020-03-19 2023-11-15 マツダ株式会社 状態推定装置
CN111772573B (zh) * 2020-07-06 2023-06-06 重庆能能科技有限公司 双眼聚散灵敏度检测装置及其数据处理方法
EP3964130A1 (en) 2020-09-03 2022-03-09 Tata Consultancy Services Limited System and method for eye-blink based assessment of sustained visual attention of a target
KR102557799B1 (ko) * 2021-07-14 2023-07-21 고려대학교 산학협력단 주의력 결핍 과잉 행동 장애 진단 장치 및 방법
EP4197425A1 (en) * 2021-12-17 2023-06-21 Carl Zeiss Vision International GmbH Determining a visual performance of an eye of a person
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0590231A2 (en) * 1992-09-29 1994-04-06 Atr Auditory And Visual Perception Research Laboratories An apparatus for analyzing depth perception
EP1532922A1 (en) * 2003-11-20 2005-05-25 20/10 Perfect Vision Optische Geräte GmbH Eye position control monitor for laser vision correction
CN1627915A (zh) * 2002-02-19 2005-06-15 沃尔沃技术公司 用于监视和管理司机注意力负荷的系统和方法
CN1934596A (zh) * 2004-03-22 2007-03-21 沃尔沃技术公司 驾驶员知觉适应性测试的方法和系统
CN101108120A (zh) * 2007-08-29 2008-01-23 中国人民解放军第三军医大学第一附属医院 眼动测试分析方法
RU2337607C1 (ru) * 2007-03-28 2008-11-10 ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" Способ оценки психофизического состояния человека
CN101951829A (zh) * 2007-11-05 2011-01-19 Opko仪器公司 一种进行视敏度测试的方法
CN102047304A (zh) * 2008-08-05 2011-05-04 松下电器产业株式会社 驾驶注意力程度判定装置、方法以及程序
CN102264277A (zh) * 2008-07-09 2011-11-30 劳伦斯·M·麦金利 视觉功能监控处理和装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999052419A1 (en) * 1998-04-10 1999-10-21 Visual Resources, Inc. Method and apparatus for training visual attention capabilities of a subject
US6091334A (en) * 1998-09-04 2000-07-18 Massachusetts Institute Of Technology Drowsiness/alertness monitor
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
US6520921B1 (en) * 2000-06-20 2003-02-18 Eastman Kodak Company Method for determining attention deficit hyperactivity disorder (ADHD) medication dosage and for monitoring the effects of (ADHD) medication
US6652458B2 (en) * 2000-06-20 2003-11-25 The Mclean Hospital Corporation ADHD detection by eye saccades
AUPQ842800A0 (en) * 2000-06-28 2000-07-20 Aivision Pty Ltd Flat screen vision testing
US6565518B2 (en) * 2001-05-25 2003-05-20 Eastman Kodak Company Technique for diagnosing attention deficit hyperactivity disorder
JP5179686B2 (ja) * 2001-09-25 2013-04-10 株式会社豊田中央研究所 運転行動危険度演算装置
US20080212032A1 (en) * 2002-05-09 2008-09-04 Seiller Barry L Visual skill diagnostic and therapeutic system and process
JP4397228B2 (ja) * 2003-12-22 2010-01-13 株式会社ニデック 眼科装置
US7819818B2 (en) * 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
US7988287B1 (en) * 2004-11-04 2011-08-02 Kestrel Corporation Objective traumatic brain injury assessment system and method
US7438418B2 (en) 2005-02-23 2008-10-21 Eyetracking, Inc. Mental alertness and mental proficiency level determination
US8403480B2 (en) * 2006-01-24 2013-03-26 University Of Tennessee Research Foundation Adaptive photoscreening system
US20070265507A1 (en) 2006-03-13 2007-11-15 Imotions Emotion Technology Aps Visual attention and emotional response detection and display system
US8454166B2 (en) * 2006-12-04 2013-06-04 Atheer, Inc. Methods and systems for amblyopia therapy using modified digital content
GB0700770D0 (en) * 2007-01-15 2007-02-21 Univ Aberdeen Apparatus for detecting retinal neuropathy
US20080280276A1 (en) * 2007-05-09 2008-11-13 Oregon Health & Science University And Oregon Research Institute Virtual reality tools and techniques for measuring cognitive ability and cognitive impairment
JP5302193B2 (ja) * 2007-06-27 2013-10-02 パナソニック株式会社 ヒト状態推定装置およびその方法
CN102245085B (zh) * 2008-10-14 2015-10-07 俄亥俄大学 利用眼跟踪的认知和语言评估
US20100280372A1 (en) * 2009-05-03 2010-11-04 Pieter Poolman Observation device and method
DE102011054833A1 (de) * 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0590231A2 (en) * 1992-09-29 1994-04-06 Atr Auditory And Visual Perception Research Laboratories An apparatus for analyzing depth perception
CN1627915A (zh) * 2002-02-19 2005-06-15 沃尔沃技术公司 用于监视和管理司机注意力负荷的系统和方法
EP1532922A1 (en) * 2003-11-20 2005-05-25 20/10 Perfect Vision Optische Geräte GmbH Eye position control monitor for laser vision correction
CN1934596A (zh) * 2004-03-22 2007-03-21 沃尔沃技术公司 驾驶员知觉适应性测试的方法和系统
RU2337607C1 (ru) * 2007-03-28 2008-11-10 ГОУ ВПО "Саратовский государственный университет им. Н.Г. Чернышевского" Способ оценки психофизического состояния человека
CN101108120A (zh) * 2007-08-29 2008-01-23 中国人民解放军第三军医大学第一附属医院 眼动测试分析方法
CN101951829A (zh) * 2007-11-05 2011-01-19 Opko仪器公司 一种进行视敏度测试的方法
CN102264277A (zh) * 2008-07-09 2011-11-30 劳伦斯·M·麦金利 视觉功能监控处理和装置
CN102047304A (zh) * 2008-08-05 2011-05-04 松下电器产业株式会社 驾驶注意力程度判定装置、方法以及程序

Also Published As

Publication number Publication date
PL2844146T3 (pl) 2016-12-30
ES2589000T3 (es) 2016-11-08
DK2844146T3 (en) 2016-09-19
BR112014026072A2 (pt) 2017-06-27
WO2013159841A1 (en) 2013-10-31
CN104254281A (zh) 2014-12-31
JP6272829B2 (ja) 2018-01-31
US20150112224A1 (en) 2015-04-23
US10602972B2 (en) 2020-03-31
IN2014DN08724A (zh) 2015-05-22
EP2844146A1 (en) 2015-03-11
JP2015518402A (ja) 2015-07-02
KR20150013567A (ko) 2015-02-05
EP2844146B1 (en) 2016-07-13

Similar Documents

Publication Publication Date Title
CN104254281B (zh) 测量注意力的方法
Russo Eye fixations as a process trace
US20190150727A1 (en) Systems and methods for vision assessment
Orlosky et al. Emulation of physician tasks in eye-tracked virtual reality for remote diagnosis of neurodegenerative disease
Smeets et al. Nature of variability in saccades
CN101742957B (zh) 测试视觉
Beltrán et al. Computational techniques for eye movements analysis towards supporting early diagnosis of Alzheimer’s disease: a review
Carmi et al. The role of memory in guiding attention during natural vision
US20150282705A1 (en) Method and System of Using Eye Tracking to Evaluate Subjects
Onat et al. The contributions of image content and behavioral relevancy to overt attention
Mooney et al. Curveball: A tool for rapid measurement of contrast sensitivity based on smooth eye movements
Schlegelmilch et al. The effects of calibration target, screen location, and movement type on infant eye‐tracking data quality
Almourad et al. Analyzing the behavior of autistic and normal developing children using eye tracking data
CN111067474B (zh) 使用动态速度阈值滤波器的客观视敏度测量的装置和方法
Chen Cognitive load measurement from eye activity: acquisition, efficacy, and real-time system design
CN108495584B (zh) 用于通过触觉界面确定眼球运动的装置和方法
US20210074389A1 (en) System and method for collecting, analyzing, and utilizing cognitive, behavioral, neuropsychological, and biometric data from a user's interaction with a smart device with either physically invasive or physically non-invasive means
Florea et al. Computer vision for cognition: An eye focused perspective
Tang et al. Effects of visual blur on microsaccades during visual exploration
US20240016430A1 (en) Measuring and improving attention
Florea et al. Computer Vision for Cognition
Razeghi Usability of eye tracking as a user research technique in geo-information processing and dissemination
Lazar et al. DEVELOPMENT OF EYE TRACKING PROCEDURES USED FOR THE ANALYSIS OF VISUAL BEHAVIOR-STATE OF ART
Gestefeld Eye movement behaviour of patients with visual field defects
YAMANAKA et al. Visual Recognizability Evaluation for Brand Logos Using Covert Eye Tracking (CovET) Combined with a Go/No-go Task

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant