CN104968270B - 检测作为接合和感知刺激显著性的标记的眨眼抑制的系统和方法 - Google Patents
检测作为接合和感知刺激显著性的标记的眨眼抑制的系统和方法 Download PDFInfo
- Publication number
- CN104968270B CN104968270B CN201380072486.3A CN201380072486A CN104968270B CN 104968270 B CN104968270 B CN 104968270B CN 201380072486 A CN201380072486 A CN 201380072486A CN 104968270 B CN104968270 B CN 104968270B
- Authority
- CN
- China
- Prior art keywords
- blink
- stimulation
- individual
- data
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1103—Detecting eye twinkling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Social Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Physiology (AREA)
- Neurology (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Neurosurgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本系统和方法提供评估观众行为、刺激特征以及观众行为与刺激之间互动的机制。本文所述用于量化眨眼响应和眨眼抑制的系统和方法通过测量什么足以保证接合或不接合观众的眨眼抑制来提供观众接合的每时每刻测量。本公开描述视觉扫描、眼动、眨眼数据和眨眼计时数据的量度以推导一个人如何与他或她正在观看的东西接合的量度。作为观众接合量度的眨眼相关数据提供用于确定刺激的最佳接合空间和时间方面的机制。
Description
相关申请的交叉引用
本申请根据美国法典第35条119款要求2012年12月11日提交的题为“BlinkInhibition as a Marker of Engagement and Perceived Stimulus Salience”的美国临时专利申请No.61/735865的权益,该申请的全部内容通过引用并入本文,如同其在本文整体阐述一样。
技术领域
本系统和方法主要涉及测量眨眼行为和作为观众接合视觉或听觉刺激的指标的眨眼抑制,并且更具体地,涉及利用在自然观察期间的眨眼抑制的计时:评估观众与刺激的接合,评估观众感知刺激的相对显著性,评估刺激接合特定观众或观看群体的能力,识别刺激的最吸引人空间和时间特征,并且根据观众与给定刺激的接合度来对其进行分类或评定,以用于人口统计或诊断目的。
背景技术
当我们眨眼时,世界和个体的视网膜之间的视觉信息流暂时中断。在眨眼瞬间,在150-400毫秒(ms)内失去来自外部世界的视觉刺激。结果,成人在单个醒着的一天期间将平均耗时约44分钟用于他或她失去视觉信息的眼睑闭合。在那些瞬间,完成动眼肌肉的运动、在补角和额眼区的活动以及视觉、体壁和前额皮质区的广泛活动的各种神经系统一起工作以抑制闭合眼睑的实际视觉信号。这些系统形成知觉连续性的幻觉,但是如果在眨眼瞬间存在新的视觉信息,那么将错失该视觉信息。
在眼睛运动数据收集期间,眨眼被传统视为噪声或伪数据并通常认为是无用的。不过,眨眼也涉及超越单纯生理机能的认知状态。也普遍认为,个体多半没有意识到他们的眨眼,虽然眨眼一般可能涉及任务内容的显性和隐性注意力暂停。
识别和量化人与视觉刺激的接合可以提供许多不同领域的洞察力。在关于自闭症、注意力缺陷多动障碍(ADHD)、发育性残疾和其他认知状况的认知和行为试验中,测量观众如何接合特定类型的视觉(或听觉)内容可以提供疾病/机能失调状态、疾病/机能失调进展和/或治疗反应的生物标记。例如,具有影响总人口内1到10岁的发育性残疾的儿童显示出延迟的语音和语言技能。儿童与语音和语言提示接合的量度(例如,与说话的脸或沟通姿态的接合程度,这是语言采集的前兆)可以帮助在更早年龄诊断识别具有发育性残疾的儿童,而不是按常规在出现此类残疾时诊断。
在另一示例中,在商业领域,许多营销公司的主要关注之一是测量各种营销活动的有效性。确定视觉营销活动的有效性的传统方法包括进行消费者调查和问卷调查、分析销售数量、社交媒体的“散布”,等等。然而,营销公司将受益于具有这样一种机制,即,通过在发布活动之前的试验期间或实际活动期间测量观众或观看群体接合营销活动的程度,从观众行为直接确定视觉营销活动的有效性,而不是通过二手报告或调查。在另一示例中,视觉教具的开发商也可以受益于具有在教具的开发阶段学生接合程度的量度。其他行业可以受益于接合视觉刺激的测量指标,诸如视频游戏开发商、飞行和驾驶模拟器开发商等。
因此,存在很长时间未解决的可以评估和测量观众接合的系统和方法的需求。而且,存在测量与特定视觉和/或听觉刺激诸如电影、电视节目、营销活动、平面广告、网页、紧急视频、教具、甚至物理环境和物体等的接合以便允许对其优化的需求。此外,存在在诸如自闭症、ADHD、精神分裂症、双相情感障碍、抑郁症和影响与圈定内容接合的其他疾病的情况下,使用作为评估疾病/机能失调状态、疾病/机能失调进展和/或治疗反应的生物标记的观众接合的量度的系统和方法的额外需求。
发明内容
简而言之,并且根据一个实施例,本公开的各方面主要涉及用于评估作为与视觉刺激接合的指标的眨眼抑制和眨眼响应的系统和方法。具体地,本公开的各方面涉及利用在自然观察期间、响应于视觉刺激的眨眼抑制的计时以实现下列:评估观众与刺激的接合,评估观众感知刺激的相对显著性,评估刺激接合特定观众或观看群体的能力,识别刺激的最吸引人空间和时间特征,并且根据其对给定刺激的接合来对观众进行分类或评定,以用于人口统计或诊断目的。根据一个实施例,本系统和方法基于自然观察期间的眨眼率和眨眼计时以及眨眼抑制提供用于评估观众接合的工具。在一个实施例中,本系统和方法提供用于量化观众每时每刻与视觉内容的接合和观众接合动态改变的程度的工具。在另一实施例中,本系统和方法提供用于量化收听者每时每刻与听觉内容的接合和由于收听者接合涉及眨眼抑制和眨眼数据所以动态改变的程度的工具。
此外,并且根据一个实施例,本系统和方法提供基于随时间变化的观众接合通过“数据挖掘”方法确定刺激的最吸引人空间和时间特征的机制。本公开的其他方面涉及这些接合量度可以与眼动跟踪凝视点数据组合的以测量观众在更多或更少接合的瞬间注视的刺激的特定部位(例如,注视位置)方式。
本公开的其他方面涉及在例如但不限于自闭症谱系障碍(ASD)、ADHD、精神分裂症、双相情感障碍、抑郁症、创伤后应激障碍(PTSD)和影响与圈定内容或接合所接合的其他疾病的情况下,用于评估疾病/机能失调状态(例如,条件的存在/不存在)、疾病/机能失调状态进展和/或治疗反应的系统和方法。在一个实施例中,在产生本公开的研究中,具有ASD的幼儿表现出关于特定视觉事件的显著延迟眨眼抑制,不像通常发育的对比儿童。本系统和方法指示关于相同的视觉事件,典型幼儿比具有ASD的幼儿更早抑制他们的眨眼。这种差异提供典型幼儿的完整认知过程的证据和具有ASD的幼儿受扰乱的认知过程的证据:典型幼儿在呈现突出社会事件的有效预知中抑制他们的眨眼,而具有ASD的幼儿不会。这些测量提供可以用于评估诊断状态以及用于测量症状的严重程度的信息。可以部署相关的实施例来测量例如通过环境触发恢复吸毒者的接合的程度(例如,酒精、毒品或通常购买或消费此类物质的位置的图像),以便评估复发的风险。
在一个实施例中,本公开描述用于显示多个个体相对于动态视觉刺激随着时间的视觉接合的方法。这个实施例包括步骤:接收表示多个个体中的每个个体响应于动态视觉刺激的眨眼的眨眼数据;从数据库检索对照眨眼数据;比较收到的眨眼数据和对照眨眼数据以识别所收到的眨眼数据与对照眨眼数据之间的差异;并生成收到的眨眼数据与对照眨眼数据之间的一个或多个差异的显示。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:用于多个个体中的每个个体的眨眼数据对应于每个个体的瞳孔大小的变化率和/或眼睑闭合。
在一个方面,该方法包括:将眨眼数据转换为用于比较目的的二进制格式的步骤和聚集用于多个个体的眨眼数据的步骤。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括对照眨眼数据,该眨眼数据包括:当不存在动态视觉刺激时的多个个体的平均眨眼率,和/或当不存在动态视觉刺激时的不同于多个个体的一组个体的平均眨眼率,和/或通过排列多个个体的眨眼数据获得的多个个体的平均眨眼率的概率分布。
在一个方面,该方法包括:排列多个个体的数据的步骤包括相对于眨眼数据收集的原始计时的循环移位,和/或排列多个个体的数据的步骤包括随机化每个个体的眨眼的次序和眨眼间的间隔。
在一个方面,该方法包括:收到的眨眼数据与对照眨眼数据之间的一个或多个差异包括下列中的一个或多个:与对照眨眼数据相比增加的眨眼率,与对照眨眼数据相比减少的眨眼率,在预定的时间段内没有眨眼,在预定时间段内超出预定眨眼数,和/或收到的眨眼数据与对照眨眼数据之间的一个或多个差异是发育、认知或精神障碍的标记。
在一个方面,该方法包括:结合个体的诊断,使用收到的眨眼数据与对照眨眼数据之间的一个或多个差异的显示的步骤,其中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法还包括步骤:使收到的眨眼数据与动态视觉刺激同步;和/或结合动态视觉刺激生成所收到的眨眼数据与对照眨眼数据之间的一个或多个差异的显示。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个实施例中,本公开包括随着时间显示多个个体的相对于刺激的视觉接合的方法。这个实施例包括步骤:接收表示多个个体中的每个个体对刺激的眨眼响应的眨眼数据;从数据库检索对照眨眼数据;比较收到的眨眼数据和对照眨眼数据以识别所收到的眨眼数据与对照眨眼数据之间的差异;并生成收到的眨眼数据与对照眨眼数据之间的一个或多个差异的显示。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括步骤:接收表示多个个体中的每个个体相对于刺激的眼睛运动的眼动数据;从眼动数据确定多个个体相对于刺激的多个注视位置;使多个注视位置和收到的眨眼数据与刺激同步;并生成在对应于收到的眨眼数据与对照眨眼数据之间的一个或多个差异的一个或多个时间点的多个注视位置的显示。
在一个方面,该方法包括:多个注视位置的显示包括三维显示,其中所述维度中的两个对应于用于多个个体中的每个个体的多个注视位置以及所述维度中的一个对应于时间。此外,在一个方面,该方法包括:多个注视位置对应于多个个体中的每个个体的眼睛相对于所述刺激的一个或多个画面的注视位置。在另一方面,该方法包括:多个注视位置对应于多个个体中的每个个体的凝视点相对于刺激的坐标数据。在一个方面,该方法还包括:多个注视位置的显示包括三维扫描路径。根据一个方面,该方法包括:其中同步的步骤包括使多个注视位置与所收到的眨眼数据时间锁定或时间相关。
在一个方面,该方法包括:用于所述多个个体中的每个个体的眨眼数据对应于每个个体的瞳孔大小的变化率。根据一个方面,该方法包括:用于所述多个个体中的每个个体的眨眼数据对应于眼睑闭合。
在一个方面,该方法还包括步骤:将眨眼数据转换为用于比较目的的二进制格式;和/或将眼动数据转换为用于比较目的的坐标数据;和/或聚集用于多个个体的眨眼数据和眼动数据。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:对照眨眼数据包括当不存在刺激时用于多个个体的平均眨眼率。根据一个方面,该方法包括:对照眨眼数据包括当不存在刺激时用于不同于多个个体的一组个体的平均眨眼率。在一个方面,对照眨眼数据包括通过排列多个个体的眨眼数据获得的用于多个个体的平均眨眼率的概率分布。
在另一方面,该方法包括:排列多个个体的数据的步骤包括相对于眨眼数据收集的原始计时的循环移位,和/或排列多个个体的数据包括随机化每个个体的眨眼的次序和眨眼间的间隔,其中,该步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:收到的眨眼数据与对照眨眼数据之间的一个或多个差异包括下列中的一个或多个:与对照眨眼数据相比增加的眨眼率,与对照眨眼数据相比减少的眨眼率,在预定的时间段内没有眨眼,在预定时间段内超出预定眨眼数。
在一个方面,该方法包括:收到的眨眼数据与对照眨眼数据之间的一个或多个差异作为发育、认知或精神障碍的标记。
在一个方面,该方法包括以下步骤:结合个体的诊断,使用在对应于收到的眨眼数据与对照眨眼数据之间的一个或多个差异的一个或多个时间点的多个注视位置的显示;和/或在处理器上使收到的眨眼数据与刺激同步;和/或结合刺激生成收到的眨眼数据与对照眨眼数据之间的一个或多个差异的显示。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:该刺激作为听觉刺激、动态视觉刺激和/或静态视觉刺激。在另一方面,该方法包括:刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
在一个实施例中,本公开描述用于确定个体相对于动态视觉刺激的接合的量度的方法。这个实施例包括步骤:接收表示个体响应于动态视觉刺激的眨眼的眨眼数据;使眨眼数据与动态视觉刺激同步;识别同步的眨眼数据中的眨眼抑制的模式;并将同步的眨眼数据中的眨眼抑制的模式与动态视觉刺激比较以识别与眨眼抑制模式同期的动态视觉刺激的一部分,由此,眨眼抑制的模式指示个体与动态视觉刺激同期部分的接合的标记。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:动态视觉刺激包括下列中的一种或多种:预录视觉刺激,预录视听刺激,现场视觉刺激,现场视听刺激,二维刺激或三维刺激。
在一个方面,该方法包括:眨眼抑制的模式包括在动态视觉刺激期间个体的平均眨眼率。在一个方面,该方法还包括:眨眼抑制的模式包括个体的眨眼数据和与个体相关联的眨眼的几率之间的比较。在另一方面,该方法包括:眨眼抑制的模式包括个体的每时每刻眨眼率。根据一个方面,该方法包括:眨眼抑制的模式包括与个体的平均眨眼率相比的个体在特定时间点的瞬间眨眼率的量度。在一个方面,该方法包括:眨眼抑制的模式包括与用于对照组的平均眨眼率相比的个体在特定时间点的瞬间眨眼率的量度。
在一个方面,该方法包括:眨眼抑制的模式包括与个体的平均眨眼率的方差的量度相比的个体的瞬间眨眼率的量度。在另一方面,该方法包括:眨眼抑制的模式包括与对照眨眼数据相比的同步的眨眼数据的量度。在一个方面,该方法包括:眨眼抑制的模式包括眨眼抑制相对于动态视觉刺激中的事件的量度。
在一个方面,动态视觉刺激的同期部分包括动态视觉刺激的全部。根据一个方面,该方法包括:动态视觉刺激中的事件包括物理事件或情感事件。
在一个方面,该方法包括步骤:基于接合的标记将个体分类为一个或多个预定义类别。在另一方面,接合的标记涉及动态视觉刺激的突出部分。
根据一个方面,该方法包括同步的步骤,该步骤包括使眨眼数据与动态视觉刺激时间锁定或时间相关。
在一个方面,该方法包括:眨眼数据对应于个体瞳孔大小的变化率。在另一方面,该方法包括:眨眼数据对应于个体的眼睑闭合。
在另一方面,该方法还包括步骤:经由在处理器上执行的软件将眨眼数据转换为用于比较目的的二进制格式和/或经由在处理器上执行的软件根据预定的人口统计参数对眨眼数据分类。
在一个实施例中,本公开包括用于确定个体相对于刺激的接合的量度的方法。这个实施例包括步骤:接收表示个体响应于动态视觉刺激的眨眼的眨眼数据;使收到的眨眼数据与刺激同步;经由在处理器上执行的软件识别同步的眨眼数据中的眨眼抑制的模式;并将同步的眨眼数据中的眨眼抑制的模式与刺激比较以识别与眨眼抑制模式同期的刺激的一部分,由此,眨眼抑制的模式指示个体与刺激同期部分的接合的标记。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括步骤:接收表示个体眼睛相对于刺激的运动的眼动数据;从眼动数据确定相对于刺激的多个注视位置;并且在与刺激同期的部分比较多个注视位置和刺激。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
根据一个方面,该方法包括:眨眼抑制的模式包括个体的眨眼数据和与个体相关联的眨眼的几率之间的比较。在一个方面,该方法包括:刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维视觉或视听刺激或三维视觉或视听刺激。
在一个方面,该方法包括:眨眼抑制的模式包括在刺激期间个体的平均眨眼率。根据一个方面,该方法包括:眨眼抑制的模式包括个体的每时每刻眨眼率。在一个方面,该方法包括:眨眼抑制的模式包括与个体的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。在另一方面,本方法包括:眨眼抑制的模式包括与用于对照组的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。根据一个方面,该方法包括:眨眼抑制的模式包括与预定对照眨眼数据相比的同步的眨眼数据的量度。在又一方面,本方法包括:眨眼抑制的模式包括眨眼抑制相对于刺激中的事件的量度。
在一个方面,该方法包括:刺激的同期部分包括刺激的全部。在另一方面,该方法包括:刺激中的事件包括物理事件或情感事件。
根据一个方面,该方法包括步骤:基于接合的标记将个体分类为一个或多个预定义的类别,和/或同步包括使眨眼数据与刺激时间锁定或时间相关。
在一个方面,该方法包括:接合的标记涉及刺激的突出部分。
在一个方面,该方法还包括:眨眼数据对应于个体瞳孔大小的变化率。根据一个方面,该方法包括:眨眼数据对应于个体的眼睑闭合。
在一个方面,该方法还包括步骤:将眨眼数据转换为用于比较目的的二进制格式和/或根据预定的入口统计参数对眨眼数据分类。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括:该刺激包括听觉刺激、动态视觉刺激和/或静态刺激。
在一个实施例中,本公开包括用于确定个体相对于刺激的所感知的刺激突出的方法。这个实施例包括步骤:接收表示个体对刺激的眨眼响应的眨眼数据;接收表示个体相对于刺激的眼睛运动的眼动数据;使所收到的眨眼数据和收到的眼动数据与刺激同步;识别同步的眨眼数据中的眨眼抑制期;并且,对于在同步的眨眼数据中识别的眨眼抑制期,从用于个体相对于刺激的同步眼动数据确定至少一个空间注视位置,由此,眨眼抑制期和至少一个空间注视位置指示相对于刺激所感知的时间和空间突出的标记。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,该方法包括同步的步骤,该步骤包括使收到的眨眼数据和收到的眼动数据与刺激时间锁定或时间相关。
在一个方面,该方法还包括步骤:将眨眼数据转换为用于确定目的的二进制格式;和/或将眼动数据转换为用于确定目的的坐标数据。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
根据一个方面,该方法还包括:识别同步的眨眼数据中的眨眼抑制期的步骤还包括步骤:从数据库检索对照眨眼数据;并且比较同步的眨眼数据和对照眨眼数据以识别同步的眨眼数据与对照眨眼数据之间的差异,由此,该差异对应于眨眼抑制期。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括:对照眨眼数据包括当不存在刺激时用于多个个体的平均眨眼率。在一个方面,本方法包括:同步的眨眼数据与对照眨眼数据之间的差异包括下列中的一个或多个:与对照眨眼数据相比个体增加的眨眼率,与对照眨眼数据相比个体减少的眨眼率,在预定的时间段内没有眨眼,在预定时间段内超出预定眨眼数。根据一个方面,本方法包括:同步的眨眼数据与对照眨眼数据之间的差异提供个体发育、认知或精神障碍的标记。在一个实施例中,本方法包括:眨眼数据对应于个体在规定时间内的眨眼率。
根据一个方面,本方法包括:该刺激包括听觉刺激、动态视觉刺激和/或静态视觉刺激。在一个方面,本方法包括:刺激包括下列中的一种或多种:预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
在一个实施例中,本公开包括用于评估刺激接合个体的能力的方法,该方法包括步骤:向个体呈现刺激;接收表示个体对刺激的眨眼响应的眨眼数据;从收到的眨眼数据识别个体的眨眼抑制的量度;并经由在处理器上执行的软件确定在所收到的眨眼数据中的眨眼抑制的量度是否满足眨眼抑制阈值,由此,该眨眼抑制阈值指示刺激接合个体的能力。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括步骤:经由在处理器上执行的软件,根据预定的人口统计参数对眨眼数据分类。
在一个方面,本方法包括:刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
根据一个方面,本方法包括:眨眼抑制的量度包括在刺激期间个体的平均眨眼率。在一个方面,本方法包括:眨眼抑制的量度包括个体的每时每刻眨眼率。在一个方面,本方法包括:眨眼抑制的量度包括:与个体的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度,与对照组的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度,与预定的对照眨眼数据相比的收到的眨眼数据的量度,和/或眨眼抑制相对于刺激事件的量度。
在一个方面,本方法包括:刺激中的事件包括物理事件或情感事件。
在一个方面,本方法包括:眨眼数据对应于个体瞳孔大小的变化率和/或个体眼睑闭合。
根据本方法的一个方面,该方法还包括步骤:经由在处理器上执行的软件,将眨眼数据转换为用于确定目的的二进制格式,根据预定的人口统计参数对眨眼数据分类。
在一个方面,本方法包括:眨眼抑制阈值指示精神状况的标记。在另一方面,本方法包括:眨眼抑制阈值从跨正常状态到精神病理状态的范围选择。在一个方面,本方法包括:眨眼抑制阈值对应于用于诊断个体精神状况的诊断量度。在一个方面,本方法包括:眨眼抑制阈值对应于与刺激的接合的预定量度。在另一方面,本方法还包括:眨眼抑制阈值对应于用于分类个体的预定类别。
在一个方面,本方法包括:用于个体眨眼抑制的量度对应于刺激的一部分。在另一方面,本方法包括:用于个体眨眼抑制的量度对应于刺激的全部。
根据一个方面,本方法包括:该刺激作为听觉刺激、动态视觉刺激和/或静态视觉刺激。
在一个实施例中,本公开包括使用眼动监测装置评估个体精神状况风险的方法。这个实施例包括步骤:接收表示个体响应于向个体显示的动态视觉刺激的眨眼的眨眼数据,其中,眨眼数据经由眼动监测装置来收集;使收到的眨眼数据与动态视觉刺激同步;识别同步的眨眼数据中眨眼抑制的模式;从数据库检索与动态视觉刺激相关的事件数据;并且比较同步的眨眼数据中眨眼抑制的模式参数和与动态视觉刺激相关的事件数据的参数以确定至少一个增量参数,其中,该至少一个增量参数指示个体具有精神障碍的可能性。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括:事件数据的参数包括预定时间戳事件。在另一方面,本方法包括:事件数据包括时间值。
在另一方面,本方法包括:眨眼抑制模式的参数包括时间值。在一个方面,本方法还包括:眨眼抑制的模式包括个体的眨眼数据和与个体相关联的眨眼的几率之间的比较。在另一方面,本方法包括:眨眼抑制的模式包括在动态视觉刺激期间个体的平均眨眼率。此外,在一个方面,本方法包括:眨眼抑制的模式包括个体的每时每刻眨眼率。在一个方面,本方法包括:眨眼抑制的模式包括与个体的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。在又一方面,本方法包括:眨眼抑制的模式包括与用于对照组的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。在一个方面,本方法包括:眨眼抑制的模式包括与个体的平均眨眼率的方差的量度相比,个体的瞬间眨眼率的量度。
在一个方面,本方法包括至少一个增量参数,该增量参数包括超出预定阈值的时间值。在一个方面,本方法包括至少一个增量参数,该增量参数包括小于预定阈值的时间值。
在一个方面,本方法包括步骤:基于至少一个增量参数提供个体诊断,和/或同步,同步包括收到的眨眼数据与动态视觉刺激时间锁定或时间相关。
在一个方面,本方法包括精神状况,该精神状况包括发育或认知障碍。
在一个方面,本方法包括对应于下列中的一个或多个的事件数据:在动态视觉刺激内的物理事件,在动态视觉刺激内的情感事件,假定基于动态视觉刺激引起或抑制眨眼的事件。
在一个实施例中,本公开包括使用眼动监测装置评估、监测或诊断个体精神障碍的方法。这个实施例包括步骤:接收表示个体对刺激的眨眼响应的眨眼数据,其中,眨眼数据经由眼动监测装置来收集;使收到的眨眼数据与刺激同步;经由在处理器上执行的软件识别同步的眨眼数据中眨眼抑制的模式;从数据库检索与视觉刺激相关的事件数据;并且比较同步的眨眼数据中眨眼抑制的模式参数和与视觉刺激相关的事件数据的参数以确定增量参数,其中,该增量参数指示个体具有精神障碍的可能性。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法还包括步骤:接收表示个体相对于刺激的眼睛运动的眼动数据;接收表示对照组的每个成员相对于刺激的眼睛运动的眼动数据;基于用于对照组的每个成员和个体的数据生成三维扫描路径,其中,所述扫描路径的维度中的两个对应于每个成员和个体的关注点的位置以及所述维度中的一个对应于时间;识别对照组的成员的扫描路径的收敛;并经由在处理器上执行的软件在收敛区域中比较个体的扫描路径和对照组的成员的扫描路径。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括:事件数据的参数包括预定的时间戳事件。在一个方面,本方法包括:事件数据的参数包括时间值。在另一方面,本方法包括:眨眼抑制模式的参数包括时间值。
在一个方面,本方法包括:增量参数包括超出预定阈值的时间值。在一个方面,本方法包括:增量参数包括小于预定阈值的时间值。
在一个方面,本方法包括:该刺激作为听觉刺激、动态视觉刺激和/或静态视觉刺激。
在一个方面,本方法包括对应于下列中的一个或多个的事件数据:在动态视觉刺激内的物理事件,在动态视觉刺激内的情感事件,假定基于动态视觉刺激引起或抑制眨眼的事件。
在一个方面,本方法包括同步的步骤,该步骤包括使收到的眨眼数据与刺激时间锁定或时间相关。
在一个方面,本方法还包括:眨眼抑制的模式包括个体的眨眼数据和与个体相关联的眨眼的几率之间的比较。在一个方面,本方法包括:眨眼抑制的模式包括在刺激期间个体的平均眨眼率。在另一方面,本方法包括:眨眼抑制的模式包括个体的每时每刻眨眼率。在一个方面,本方法包括:眨眼抑制的模式包括与个体的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。在又一方面,本方法包括:眨眼抑制的模式包括与用于对照组的平均眨眼率相比,个体在特定时间点的瞬间眨眼率的量度。此外,在另一方面,本方法包括:眨眼抑制的模式包括与个体的平均眨眼率的方差的量度相比,个体的瞬间眨眼率的量度。
在一个实施例中,本公开包括使用眼动监测装置评估、监测或诊断个体精神状况的方法。这个实施例包括步骤:接收表示个体响应于向个体显示的动态视觉刺激的眨眼的眨眼数据,其中,眨眼数据使用眼动监测装置来收集;使收到的眨眼数据与动态视觉刺激同步;识别同步的眨眼数据中眨眼抑制的模式;从数据库检索用于向个体显示的动态视觉刺激的眨眼抑制的对照模式;并且比较同步的眨眼数据中眨眼抑制的模式和眨眼抑制的对照模式以确定眨眼抑制的模式是否落入眨眼抑制的对照模式的范围之外并从而指示个体具有精神状况的可能性。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括精神状况,该精神状况包括发育或认知障碍。
在一个方面,本方法还包括步骤:同步,该同步包括使收到的眨眼数据与动态视觉刺激时间锁定或时间相关,和/或经由在处理器上执行的软件将眨眼数据转换为用于识别目的的二进制格式。
在一个方面,本方法包括:用于个体的眨眼数据对应于个体瞳孔大小的变化率。在一个方面,本方法包括:眨眼数据对应于个体的眼睑闭合。
在一个方面,本方法包括:眨眼抑制的对照模式包括多个个体响应于动态视觉刺激的平均眨眼率。根据一个方面,本方法包括:眨眼抑制的对照模式包括通过排列多个个体的眨眼数据获得的多个个体的平均眨眼率的概率分布。根据一个方面,本方法包括:眨眼抑制的对照模式指示精神状况的严重程度。
在一个方面,本方法包括:排列多个个体的数据的步骤包括相对于眨眼数据收集的原始计时的循环移位,和/或排列多个个体的数据的步骤包括随机化每个个体的眨眼的次序和眨眼间的间隔。
在一个方面,本方法包括:眨眼抑制的模式包括在动态视觉刺激期间个体的平均眨眼率。在另一方面,本方法包括:眨眼抑制的模式包括个体的每时每刻眨眼率。在一个方面,本方法包括:眨眼抑制的模式包括个体在特定时间点的瞬间眨眼率的量度,以及眨眼抑制的对照模式包括用于对照组的瞬间眨眼率。在一个方面,本方法包括:眨眼抑制的对照模式包括当不存在动态视觉刺激时,个体的平均眨眼率。在又一方面,本方法包括:眨眼抑制的模式包括眨眼抑制相对于动态视觉刺激中的事件的量度。
在一个方面,本方法包括:动态视觉刺激中的事件包括物理事件或情感事件。
在一个实施例中,本公开包括基于眨眼抑制评估用户对刺激的响应的方法。这个实施例包括步骤:接收表示用户对刺激的眨眼响应的眨眼数据;识别眨眼数据中眨眼抑制的模式;从数据库检索用于刺激的眨眼抑制的对照模式,其中,该对照模式对应于预定义用户类别;并且比较眨眼数据中眨眼抑制的模式和眨眼抑制的对照模式以确定用户是否在预定义的用户类别内。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
在一个方面,本方法包括:眨眼数据经由眼动监测装置的使用来接收。
在一个方面,本方法包括:该刺激包括听觉刺激、动态视觉刺激和/或静态视觉刺激。在一个方面,本方法包括:刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
在一个方面,本方法包括:用于用户的眨眼数据对应于该用户的瞳孔大小的变化率。在另一方面,本方法包括:眨眼数据对应于用户的眼睑闭合。
在一个方面,本方法包括:眨眼抑制的对照模式包括多个用户响应于刺激的平均眨眼率。在一个方面,本方法包括:眨眼抑制的对照模式包括通过排列多个用户的眨眼数据获得的多个用户的平均眨眼率的概率分布。
在一个方面,本方法包括步骤:经由在处理器上执行的软件将眨眼数据转换为用于比较目的的二进制格式,排列多个用户的数据包括相对于眨眼数据收集的原始计时的循环移位,和/或排列多个用户的数据包括随机化眨眼的次序和每个用户的眨眼间的间隔。
在一个方面,本方法包括:眨眼抑制的模式包括在刺激期间用户的平均眨眼率。在另一方面,本方法包括:眨眼抑制的模式包括用户的每时每刻眨眼率。在一个方面,本方法包括:眨眼抑制的模式包括在特定时间点用户的瞬间眨眼率的量度,以及眨眼抑制的对照模式包括用于对照组的瞬间眨眼率。在另一方面,本方法包括:眨眼抑制的模式包括眨眼抑制相对于刺激中的事件的量度。
在一个方面,本方法包括:眨眼抑制的对照模式包括当不存在刺激时,用户的平均眨眼率。
在一个方面,本方法包括:动态刺激中的事件包括物理事件或情感事件。
在一个方面,本方法包括步骤:接收用户随时间推移的附加眨眼数据;识别附加眨眼数据中眨眼抑制的附加模式;比较眨眼抑制的附加模式和眨眼抑制的模式以确定用户是否保留在预定的用户类别内。在特定实施例中,上述步骤可以经由处理器上的软件来执行。
要求保护的本发明的这些和其他方面、特征和益处从结合下列附图的优选实施例和方面的详细书面描述将变得显而易见,虽然在没有偏离本公开的新颖原理的实质和范围的情况下,可以对所述实施例进行变更和更改。
附图说明
附图说明本公开的一个或多个实施例和/或方面,并且结合书面描述解释本公开的原理。在可能的情况下,相同参考数字标号被用于指向整个附图的相同或类似元件,且其中:
图1A说明根据本公开的一个实施例的眼睛监测系统的示例性框图。
图1B说明根据本公开的一个方面响应于视觉刺激的眼睛运动的数据。
图1C说明根据本公开的一个实施例,随着时间推移的动态视觉刺激的一部分的显示和表示响应于动态视觉刺激的眼睛运动的数据。
图1D示出根据本公开的一个实施例的视觉资源的组分布的显示的示例性生成。
图2是根据本公开的一个实施例示出眼睛监测系统的数据收集和评估过程的概述。
图3说明根据本公开的一个实施例,在观看视觉刺激时的眨眼和统计显著眨眼抑制。
图4是根据本公开的一个实施例说明典型幼儿与具有自闭症谱系障碍的幼儿之间比较的示例性眨眼率的曲线图。
图5A是根据本公开的一个方面说明典型幼儿的眨眼率与年龄的示例性相关性的曲线图。
图5B是根据本公开的一个方面说明经诊断具有自闭症谱系障碍的幼儿的眨眼率与年龄的示例性相关性的曲线图。
图6说明根据本公开的一个实施例对典型幼儿与具有ASD的幼儿的眨眼率的任务依赖式调制。
图6C说明根据本公开的一个实施例对两个不同观众组之间的眨眼率的任务依赖式调制。
图7A是根据本公开的一个实施例说明特定眨眼数据对时间的曲线图。
图7B是根据本公开的一个实施例说明瞬间眨眼率对时间的曲线图。
图7C是根据本公开的一个实施例说明排列第95个和第5个百分位的眨眼数据对时间的曲线图。
图7D是根据本公开的一个实施例说明相对于时间绘制的眨眼抑制期的曲线图。
图8A是根据本公开的一个实施例说明相对于典型幼儿的情感事件的眨眼抑制的曲线图。
图8B是根据本公开的一个实施例说明相对于典型幼儿的物理事件的眨眼抑制的曲线图。
图8C是根据本公开的一个实施例说明相对于典型幼儿的非情感和非物理事件的眨眼抑制的曲线图。
图8D根据本公开的一个实施例说明关于典型幼儿的情感事件的示例性视觉注视。
图8E根据本公开的一个实施例说明关于典型幼儿的物理事件的示例性视觉注视。
图8F根据本公开的一个实施例说明关于典型幼儿的非情感和非物理事件的示例性视觉注视。
图8G是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿的情感事件的眨眼抑制的曲线图。
图8H是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿的物理事件的眨眼抑制的曲线图。
图8I是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿的非情感和非物理事件的眨眼响应的曲线图。
图8J根据本公开的一个实施例说明关于具有自闭症谱系障碍的幼儿的情感事件的示例性视觉注视。
图8K根据本公开的一个实施例说明关于具有自闭症谱系障碍的幼儿的物理事件的示例性视觉注视。
图8L根据本公开的一个实施例说明关于具有自闭症谱系障碍的幼儿的非情感和非物理事件的示例性视觉注视。
图8M是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿和典型幼儿的情感和物理事件的眨眼抑制的计时的曲线图。
图8N是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿和典型幼儿的情感和物理事件的每分钟眨眼变化百分比的曲线图。
图8O是根据本公开的一个实施例说明相对于经诊断具有自闭症谱系障碍的幼儿和典型幼儿的情感和物理事件的对物体注视的百分比的曲线图。
图9A是根据本公开的一个实施例说明经验累积分布函数的曲线图,该函数比较实际典型幼儿的数据和排列的典型幼儿的数据。
图9B是根据本公开的一个方面说明经验累积分布函数的曲线图,该函数比较实际的经诊断具有ASD的幼儿的数据和排列的经诊断具有ASD的幼儿的数据。
图10是根据本公开的一个实施例说明用于确定接合活动的示例性过程的流程图。
图11是根据本公开的一个实施例说明用于评估疾病/机能失调状态的示例性过程的流程图。
图12是根据本公开的一个实施例说明用于评估感知刺激显著性的示例性过程的流程图。
图13是根据本公开的一个实施例说明用于识别视觉刺激的最吸引人空间和时间特征的示例性过程的流程图。
图14是根据本公开的一个实施例说明示例性疾病/状态评估过程的流程图。
具体实施方式
在本公开的详细描述之前,下面提供的定义帮助理解本系统和方法的各方面的主题和术语,所述各方面是示例性的,而不一定限制在权利要求中表述的本系统和方法的各方面。无论术语是否大写都不应该将其视为是该术语的权威性或限制性的含义。如在本文档中所使用的,大写术语应当具有与非大写术语相同的含义,除非使用的上下文具体指示期望该术语具有更加限制性的含义。不过,在本文档的剩余部分内的大写与否并不旨在一定是限制性的,除非上下文明确指示此类限制是所期望的。
在本申请中引用的所有出版物、专利和公布的专利申请通过引用并入本文。在冲突的情况下,本说明书,包括其具体的定义,将进行控制。
在整个本说明书中,术语“包括”或其变体诸如“含有”或“包含”应当理解为含有包含表示整数(或组件)或一组整数(或组件)但不排除任何整数(或组件)或整数组的意思。
单数形式“一”、“一个”、“该”包括复数形式,除非上下文另有明确规定。
定义/词汇
M:数据集内一组数值的均值或平均值。
SD:标准偏差,其指示与有关数据集的平均值或均值的偏差。
r:皮尔森积矩相关系数,其是通常在相关数据集内的两个变量之间的线性关系的强度和方向的量度。
t:1个或2个采样t检验的检验统计值。
P:是某些数据点集的百分比/百分位的符号。
ANOVA:方差分析,其是用于分析组平均值(均值)与各组之中和之间的相关数据变化之间差异的统计模型的集合。
SE:标准误差,其是统计量的抽样分布的标准偏差。
F:f检验,其是检验统计在零假设下具有F分布的统计检验,大多用在当比较拟合数据集的统计模型时。
z:作为统计检验的z检验的结果,其中,在零假设下的检验统计的分布可以通过给定数据集内的正态分布来近似。
概述
为了增进本公开的原理的理解,现将引用在附图中说明的实施例并且专用语言将用于描述该实施例。不过,应当理解,本公开的范围并不局限于此;预计所述或说明的实施例的任何变更和进一步更改以及本公开的原理的任何进一步应用会发生在本公开涉及领域的技术人员身上。范围的所有限制应当根据权利要求确定并如权利要求所述。
本公开的各方面主要涉及用于评估作为与视觉刺激接合的指标的眨眼抑制和眨眼响应的系统和方法。具体地,本公开的各方面涉及利用在自然观察期间的响应于视觉刺激的眨眼抑制的计时:评估观众与刺激的接合,评估观众感知刺激的相对显著性,评估刺激接合特定观众或观看群体的能力,识别刺激的最吸引人空间和时间特征,并且根据观众对给定刺激的接合来对观众分类或评定以用于人口统计或诊断目的。根据一个实施例,本系统和方法基于自然观察期间的眨眼率和眨眼计时以及眨眼抑制提供用于评估观众接合的工具。在一个实施例中,本系统和方法提供用于量化观众每时每刻与视觉内容的接合和观众接合动态改变的程度的工具。
此外,并且根据一个实施例,本系统和方法提供基于随时间变化的观众接合通过“数据挖掘”方法确定刺激的最吸引人空间和时间特征的机制。本公开的其他方面涉及这些接合量度可以与眼动跟踪凝视点数据组合的方式,以测量观众在更多或更少接合的瞬间注视的刺激的特定部位(例如,注视位置)。
本公开的其他方面涉及在例如但不限于自闭症谱系障碍(ASD)、ADHD、精神分裂症、双相情感障碍、抑郁症、创伤后应激障碍(PTSD)和影响与圈定内容或接合所接合的其他疾病的情况下,用于评估疾病/机能失调状态(例如,条件的存在/不存在)、疾病/机能失调状态进展和/或治疗反应的系统和方法。在一个实施例中,在产生本公开的研究中,具有ASD的幼儿表现出关于特定视觉事件的显著延迟眨眼抑制,不像通常发育的对比儿童。本系统和方法指示关于相同的视觉事件,典型幼儿比具有ASD的幼儿更早抑制他们的眨眼。这种差异提供典型幼儿的完整认知过程的证据和具有ASD的幼儿受扰乱的认知过程的证据:典型幼儿在呈现突出社会事件的有效预知中抑制他们的眨眼,而具有ASD的幼儿不会。这些测量提供可以用于评估诊断状态以及用于测量症状的严重程度的信息。可以部署相关的实施例来测量例如通过环境触发恢复吸毒的接合的程度(例如,酒精、毒品或通常购买或消费此类物质的位置的图像),以便评估复发的风险。
实验数据和分析
下列示例性讨论涉及进行的实验以测量作为观众与视觉刺激接合的指标的眨眼抑制。该实验利用幼儿在自然观看刺激期间的眨眼抑制的计时以评估关于接合程度的各方面。所进行的实验细节以及关联的数据/参数、示例性设定、实验的关联结果、一般含义及其替代实施例将在下面详细提供的描述和附图中得到更好理解。
在接着的描述中,术语“眨眼数据”主要涉及自然观看视觉刺激期间眨眼的计时和/或存在/数量、眨眼如何在各任务之间以及任务内调制和作为观众接合度的函数的眨眼计时如何变化以及各种刺激事件的测量。眨眼数据的附加示例可以包括在任务之前、期间和之后的眨眼率,其中,对在观看视觉刺激期间的多个间隔(具体地,在观看视觉刺激之前、期间和之后)的眨眼率变化进行测量和分析。眨眼数据还可以包括瞬间眨眼率的测量,因为其涉及任务内眨眼抑制。此外,应当理解,眨眼数据主要用于评估眨眼抑制的各种程度、眨眼抑制的计时、观众与刺激的接合、观众对刺激的相对显著性的感知、刺激接合观众的能力等。在另一方面,眨眼数据可以涉及在聆听听觉刺激期间眨眼的计时和/或存在/数量的测量。类似于涉及视觉刺激的各种机制,在聆听听觉刺激时,可以应用相同的量度。
而且如本文所引用的,在本示例但并不限于其他可能实施例的刺激事件主要包括三组:非情感/非物理事件、物理事件和情感事件。情感事件主要包括对情绪性行为诸如面部表情和/或加强引起发声的情绪影响具有效果的视觉刺激内的事件。物理事件通常涉及视觉刺激内的离散物体正在运动、移动位置、改变状态等的事件。未被分类为情感或物理事件的视觉刺激的任何其他部分被分类为非情感/非物理事件。正如本领域中的普通技术人员所理解的,术语情感、物理、非情感和非物理事件的使用仅仅用于下面的示例性讨论并不旨在限制本公开的实质或范围。
对于这里描述的实验,进行下列的方法、检验设备、参数和标准:(1)确定情感和物理事件的程度,(2)确定瞬间眨眼率,(3)关于评估瞬间眨眼率的各种排列检验,以及(4)确定对照眨眼抑制数据。此外,在本公开中采用的各种其他实验方法类似于现有专利和本申请的相同发明人中的某些人的发表论文中所使用的实验方法,并且该实验方法至少在通过引用并入本文的下列专利中描述,具体为:2011年4月12日发布的题为“System and Methodfor Quantifying and Mapping Visual Salience”的美国专利No.7922670,2013年1月1日发布的题为“titled System and Method for Quantifying and Mapping VisualSalience”的美国专利No.8343067,以及2013年10月8日发布的题为“System and Methodfor Evaluating and Diagnosing Patients Based on Ocular Response”的美国专利No.8551015。
前述引用主要涉及在观众或观众组与视觉刺激视觉接合时,用于映射和分析视觉显著性(给定观众的视觉注意力的量度,因为它涉及另一个视觉注意力或以另一视觉注意力为背景突出)的系统和方法。具体地,所述引用主要描述用于记录、分析和显示个体或分布个体组的视觉显著性或提供比较个体或选定个体组视觉响应已知的一组视觉响应的机制的各种方法。在特定实施例中,监测装置(或眼动跟踪仪)主要结合视觉刺激来使用,以测量一个人在观看的物理位置。此外,较早的公开描述用于将视觉显著性数据协调到视觉刺激时间的指定实例的方法。这根据所提议的对照或典型个体数据与试验个体、试验个体组或已知数据的比较来提供诊断信息。
仍然参考通过引用并入本文的较早专利,在一个实施例中,每个观众的数据集可以被绘制在x、y和z轴坐标系统上,其中,x和y维度一般表示视觉刺激上的区域或观众接合的关注点(例如,引导观众凝视的空间注视位置)。此外,z轴主要对应于时间并且可以与视觉刺激时间锁定(或时间相关或同步的)。因此,多组数据或线可以被映射到相同曲线上以生成一组数据或扫描路径,无论是对照组(数据是已知并用作标准的组)还是被测试的组/个体。一般来说,当分析视觉显著性数据时,出现至少两种趋势:(1)如果各点以圆的方式连接,试验数据(点)松散分布并形成大的半径(圆),以及(2)如果各点以圆的方式连接,试验数据或点紧密地聚集在一起从而形成紧密分组和小半径(圆)。在形成大圆的第一种情况下,通常被称为发散集,意指数据点是随机的并且倾向于彼此远离扩散。在形成小圆的第二种情况下,通常被称为收敛集,意指数据点具有紧密绘制并相互吸引的趋势。
此外,上面引用的较早专利还描述发散数据集以作为特殊时间实例或大多数个体接合屏幕上的不同区域的特殊画面。相反并根据另一实施例,收敛集描述大多数个体在特殊画面或特殊时间实例期间接合屏幕上的一个区域(x、y轴)中的视觉刺激的情况。此外,个体数据集或线条径向和线性连接以形成变化的三维形状,其类似于锥体或水平连接在一起的蜂窝的聚集(在本文也被称为注意力漏斗)。锥体的较宽部分表示发散数据集,以及锥体的近段表示收敛数据集。这些数据点的三维聚集用于分析和比较各个试验个体或试验组。在试验个体在收敛集中不具有视觉显著性数据点的情况中,该数据点被标记和记录。如果数据点的模式在收敛集的外面,则根据对照数据,存在试验个体不与刺激接合的增加的可能性。前述引用的进一步细节将结合图1B-1D来更详细描述。
现参考本文描述的指定实验和试验数据,试验方法包括利用参与本文公开的实验的93个小孩,其按年龄排序平均年龄(M)为2.3岁(SD=0.55)。视觉刺激包括小孩观看的视频,其包括在一起玩玩具车的男孩与女孩之间的即兴互动(代表性的如图3所示)。参与者先前均没有看过该视频。此外,在自然互动的即兴场景中,视频包括各种物理和情感事件。例如,视频中示出的物理事件包括玩具车的车门打开和关闭。同样,视频中示出的情感事件包括男孩与女孩之间的争论。虽然物理和情感事件并不互相排斥,但是,最大情感的位置是与最大程度运动空间分离,情感充斥面部表情的与门的物理位置分离。
情感事件与物理事件之间的区别与实验设计相关,因为观看视频的小孩被划分为期望对情感和物理提示改变他们响应的两组。该视频向41个具有自闭症谱系障碍(ASD)的2岁小孩和52个典型2随小孩显示。在这里,具有ASD的小孩提供优选比较组,因为所述小孩先前已显示出对社会互动表现出视觉注意力的非典型模式、对社会情感的衰减反应以及对社会注意力提示缺乏不同的响应,而且表现出对物理注意力提示的原封不动响应以及预测和注意物理事件的原封不动的能力。在本实验范例中,眨眼抑制作为感知刺激显著性的标记来进行试验,该感知刺激显著性随着组成员不同而变化。
图1A说明在一种试验方法中使用的示例性眨眼和/或眼睛监测系统100,其用于量化和映射视觉显著性和用于量化随着时间推移的视觉接合。图1中示出的系统100是如本文所述用于试验实验中的个体的系统的表示。该系统包括至少一个处理器102。处理器102可以是经设计接收和执行软件程序或经设计通过软件程序进行功能更改的任何类型装置。例如,处理器102可以从由数字信号处理器、微控制器和微处理器组成的组或由现场可编程门阵列和可编程逻辑器件组成的组中选择。与处理器102相关联的功能可以是集中式或分布式的,无论是本地还是远程的。
在一个实施例中,处理器102包括在其上执行的软件,该软件用于接收表示个体组对视觉刺激120的眨眼响应的数据。例如,处理器102可以从任何数量的眼动跟踪仪110或眼动跟踪装置接收眼睛数据112。每个眼动跟踪仪110可以是用于跟踪个体(例如,人类个体或任何其他物种/动物)的至少一个眼睛的眨眼响应的任何装置。在一个实施例中,眼动跟踪仪110可以是红外视频眼震眼动跟踪装置。在另一实施例中,眼动跟踪仪110是两眼眼动跟踪仪。在另一实施例,眼动跟踪仪可以包括用于识别通过受验者执行的眨眼的眨眼监测系统。在此类实施例中,处理器可以接收表示受验者响应于视觉刺激120的眨眼的眨眼数据112。在又一实施例中,眼动跟踪仪110可以包括眼动跟踪装置和眨眼监测装置的组合,其中,眼动跟踪仪110能够检测眼睛数据和眨眼数据。根据另一方面,每个眼动跟踪仪110可以生成表示眼动响应诸如眼睛运动、方向、扩大、旋转、凝视、眨眼等的眼睛数据112。正如本领域中的普通技术人员应当理解的,眼睛数据可以包括用于示例性目的的眨眼数据并且并不旨在限制本公开的实质或范围。
在基于眼睛/眨眼数据112的一个方面,处理器可以确定和/或识别眨眼的计时和/或存在/数量的度量、眨眼如何在各任务之间以及任务内调制以及眨眼计时如何根据观众接合和各种刺激事件而变化。附加地,处理器可以确定任务之前、期间和之后的眨眼率,其中,针对在观看视觉刺激的整个过程中多个间隔的眨眼率变化进行测量和分析;具体地,在观看视觉刺激之前、期间和之后。眨眼数据可以包括瞬间眨眼率的测量,因为它涉及任务内眨眼抑制。
在另一方面,基于眼睛/眨眼数据112,处理器102可以确定和/或识别关注点或注视点。关注点(或凝视点或注视位置)是个体的一只眼睛和/或两只眼睛聚焦的点。关注点可以被表示为空间(例如,x,y,z)中的坐标或表面上的二维坐标数据(例如,x,y)或在表面上描绘的视觉刺激。关注点还可以附加通过时间(t)来参考。每个关注点可以指示注视点或眼睛在聚焦的任何点,而不管时间长度或在该点上的固定如何。
在某些实施例中,系统包括视觉刺激120。视觉刺激120可以是任何视觉刺激,诸如静态图像(例如,平面广告、网页、绘画等)、视频图像、2-D图像或视频、3-D图像或视频、现场视频、预录视频、交互媒体等。在示例性实施例中,视觉刺激120是动态视觉刺激诸如视频。视频可以包括任何图像、广播、录像和/或静止或运动物体的视频图像的表示,其包括但不限于电影、视频游戏和/或现场事件的录像。视频可以被实施为任何形式的介质,诸如胶片、录像带、DVD、CD-ROM和/或数字存储(例如,存储130)。视觉刺激120也可以是现场事件(例如,文艺表演、社会互动、运动训练等)或其任何表示(二维或三维中的任一种)。
此外,在其他实施例中,刺激可以包括听觉刺激(未示出),其中,听觉刺激可以包括现场录音、mp3、压缩盘、DVD音轨、没有图片的DVD音频或类似的任何其他机构。因此,眼动跟踪仪110可以监测和记录测试者与听觉刺激接合时的眼睛数据112。在一个方面,眼睛数据112包括用于确定各个注视区、测试者与刺激接合的程度的各种眼动响应以及与眨眼和眨眼抑制相关的各种数据。在其他方面,眼睛数据112表示各种眼动响应,其用于评估刺激接合指定观众或观众组的能力、识别刺激的最吸引人空间和时间特征,并根据其与给定刺激的接合,将观众分类或对其建立索引,用于人口统计或诊断目的。
本系统的某些实施例还包括处理器102所应用的软件,其用于从视觉刺激120或听觉刺激(未示出)接收刺激数据122。刺激数据122可以是例如表示视觉刺激120(例如,现场事件的表示或视频录像)、完整视频视觉刺激120或视觉刺激120的任何部分(例如,画面和/或屏幕截图)的数据。同样,刺激数据122可以包括表示听觉刺激(例如,音频录音、数字录音)、听觉刺激的一部分等的数据。在某些方面,数据还可以包括时间相关的信息,以使刺激映射或时间锁定到多个眼睛和/或眨眼数据。
系统还可以包括数据库130。数据库130可以与处理器102布置在一起或可以被定位在远处并可经由通信网络访问。数据库130可以为处理器102提供临时存储(例如,随机存取存储器)和/或为例如眼睛数据112或刺激数据122提供永久或半永久数据存储。系统还可以包括任何数量的显示器140。显示器140也可以被定位在处理器102本地或远端。例如,显示器140可以被定位在远端并经由互联网从处理器102接收数据或信息。如下面所述,表示眨眼响应、眨眼评估、关注点、视觉资源分布和/或视觉资源的组分布和/或接合视觉刺激120的数据可以在显示器140上显示。
图1B示出表示眼睛对视觉刺激的响应的数据或眼睛数据112的示例性表格150。应当理解,眼睛数据112可以以任何方式或格式来组织和/或保留,并且该表格仅是示例性的。因此,表格150可以以任何方式诸如所示的列154、156、159来组织。在本例证中,数据被称为描述关注点(或注视位置)的坐标。例如,在152被示为300的x值具有在158的对应y值111。本示例中的坐标还包括在列159的时间值,例如,参考眼睛数据112的特定坐标被采样的时间。时间值还可以对应于视觉刺激160的时间164。眼睛数据112的任何数量附加类别(例如,列)可以被表示,诸如参考关注点的距离的z值。
如图1B所示,表格150中的关注点可以被映射到视觉刺激160。例如,在152和158参考的关注点可以例如使用坐标系统162被映射到视觉刺激的一部分上的点168。在某些实施例中,坐标系统162可以与任何视频像素坐标系统(例如,640x480或720x480)相关。视觉刺激160的部分可以是对应于关注点被采样的时间的一部分(例如,画面或面板)。
眼睛数据112可以包括在任何速率或频率采样的数据。例如,眼睛数据112可以以60Hz、512Hz、1000Hz或任何其他采样频率的采样频率从个体采样。眼睛数据的可视化或呈现率可以根据需要增加或减少,和/或基于动态视觉刺激例如160的变化率进行调节。眼睛数据的分析速率和呈现速率也可以基于经隔离用于仔细检查的视频中有意义的片段的分析。例如,如果刺激中有意义事件在每秒钟30次的速率出现,那么,采样、分析和呈现速率可以等于或超出30Hz。
图1C示出动态视觉刺激的几个部分和/或画面的显示170。如图所示,显示170包括时间轴182和任何数量的画面,例如对应于动态视觉刺激的不同时间的172、174。在显示170中进一步呈现的是关注点,例如画面172的176、178、180。每个关注点可以从在不同个体采样的眼睛数据112确定。另选地,每个关注点可以从一个个体的相同动态视觉刺激的不同视图确定。
参考图1D,根据本公开的系统100还包括用于对视觉刺激生成视觉资源的试验组分布的显示的软件。图1Da-1Dh示出根据本公开生成视觉资源的组分布的显示的机制的示例。图1Da示出响应于视觉刺激在特定时间的视觉资源的个体组分布的二维表示(例如,184)。在图1Db中,显示在相同时间内按地形的分布(例如,186)。正如对于阅读本说明书的本领域的技术人员来说是显而易见的,视觉资源的组分布在示例性时间段内(即,从左到右)从发散到收敛变化(例如,识别提高注意力的区域)。图1Dc示出视觉资源在相对显著性的平均(例如,均值或中值)值或高度值在每个时间和平面(例如,190)的组分布。
图lDd示出每个平面(例如,190)和在每个时间的平面提供的最大显著性的区域(例如,192)。图1De和lDf还示出在任何时间数的最大显著性的区域(例如,192)。为生成根据本公开的视觉资源的组分布的优选显示,该区域可以被连接和/或挤压以产生在一段时间内的注意力漏斗195,如图lDg所示。漏斗195可以被映射到视觉刺激,并且视觉刺激的部分(例如,画面197)被包括在显示中以示出对应于最大显著性的区域的视觉刺激的区域。如图所示,在画面197示出的收敛指示男演员的眼睛的注意力提高的区域。图lHd示出画面197以及导致收敛的前两个画面。
现转向关于本公开所述实验的眨眼数据的收集和评估的描述,图2说明如在本文的实验中公开的示例性数据收集和评估过程200。示例性数据收集和评估过程的各个方面被在多个时间用于本文所述的不同试验参与者。在一个实施例中,利用图2所示的过程和着手本实验进行检验的第一参数是总体眨眼率和眨眼持续时间,以测试具有ASD的幼儿与典型幼儿之间眨眼行为生理差异。眼动数据以60Hz的速率进行记录,并且眨眼被记录为具有可测量持续时间的事件,通过自动化算法进行识别,通过所有参与者中的同时视频记录来补充和验证(如在图2的步骤204中所述),并且通过一个成年观众的同时肌电图记录来单独验证。
在每次试验开始,参与者观看在计算机监视器上玩耍的孩子视频(例如,BabyMozart,Elmo)(图2的步骤202)。计算机监视器被安装在墙面板内,并且音频配乐通过一套隐藏式扬声器播放。幼儿坐在和扣在安装在气动升降机上的汽车座位中,使得观看高度(视线)对于所有孩子是标准化的。观众的眼睛距离计算机监视器是30英寸(76.2cm),这对向每个孩子视场的约23°x30°部分。房间中的光线被调暗,使得只有计算机监视器上显示的图像可以容易看见。采用一种五点式校准方案,呈现光线的旋转和/或闪烁以及卡通动画,其视角大小从0.5°到1.5°不等并均具有伴声。紧接着是通过更多动画在屏幕上的五个位置呈现校准验证的校准例程。在该试验的剩余部分,动画目标(如在校准过程中所使用的)在实验视频之间示出以测量数据偏差。通过这种方式,眼动跟踪和眨眼数据112的精度在开始试验之前被验证,并在随后,随着测试继续,在视频片段之间重复检验。在偏差超过3°的情况下,在进一步呈现视频之前停止数据收集和再次校准孩子。实验协议的所有方面通过看不到孩子诊断状态的工作人员来执行。数据采集的多数方面以及编码、处理和数据汇总的所有方面是自动化的,以确保诊断鉴定协议与实验协议之间的分离。
为分析作为感知刺激显著性的指标的眨眼抑制,向孩子显示男孩和女孩一起玩玩具车的视频场景(某些画面在图3中示出)。视频场景摘自凯伦布鲁索和玛丽理查德森的市售儿童视频,学步带!实录1:幼儿在玩。根据图2的步骤202,视频以全屏模式呈现,并带有在20英寸(50.8cm)计算机监视器140(刷新率为60Hz行扫描)上的附带音频配乐。视频画面为八位彩色图像,640x480像素的分辨率。演示的视频画面速率是每秒30个画面。音频配乐是在44.1kHz采样的单(单一)声道。原始音频配乐包含成人旁白解说的实例;这被数字删除使视频场景尽可能自然。视频的持续时间是1分13.6秒。与试验间的间隔期间测量相反,个体的眨眼率和眨眼持续时间的量度(参见图3和4)在视频观看期间进行测量。
在视频之前和之后,居中提示呈现在空白屏幕上以吸引观众对常见注视位置的注意力。居中提示的视角是1.5°,并以蓝白片段交替并配以轮流报时的声音。在显示居中提示时,91.4%的孩子顺从观看提示;顺从孩子的比例在组之间没有差异(z=1.12,P=0.24)。
视觉注视模式用使用ISCAN公司生产的硬件和软件的眼动跟踪设备110来测量(参见图2的步骤204)。眼动跟踪技术是基于视频的,该技术使用在60Hz的速率收集的眼动数据的黑暗瞳孔、角膜反射技术。眼动的分析和注视数据的编码用以MATLAB(MathWorks)编写的专用软件执行。分析的第一阶段是非注视数据的自动化识别,非注视数据包括眨眼、飞快扫视和从刺激呈现屏幕偏向的注视(参见图2的步骤204)。这种眼动跟踪技术仅是示例性的,并不旨在限制本公开的实质或范围。
眨眼通过自动化的算法来识别,该算法通过瞳孔直径的变化率和被测量瞳孔中心的竖向位移来测量瞳孔的闭合。正如应当理解和明白的,其他方法可以被用于检测眨眼,诸如眼睑闭合、特定眼睑运动等。眼睑检测算法通过所有参与者的同时视频记录来补充并通过10%的参与者数据中的视频数据的手动编码来验证。该算法也通过一个成人观众的同时视频和肌电图(EMG)记录来验证。与视频记录相比,该算法精确检测通过视频图像的手动编码识别的所有眨眼的95.0%。与EMG记录相比,该算法精确检测通过EMG记录的眨眼的96.4%。根据眨眼持续时间的先前研究并按照视频图像的视觉检测,经该算法识别但短于166.7ms或长于566.7ms的事件从分析中排除(图7中出现时间比566.7ms更长的眨眼实际是由短暂注视分隔的多次眨眼,只不过被曲线的分辨率模糊了)。持续时间测量比较通过该算法检测的眨眼与通过EMG检测的眨眼之间的差异小于10ms(即,小于眼动跟踪仪的采样检测阈值)。飞快扫视使用每秒30°的速度阈值通过眼动速度来识别。当参与者偏离视频屏幕观看时,偏屏注视通过超过屏幕边界的位置的注视坐标来识别。在所有观看数据中,非注视数据(飞快扫视+眨眼+偏屏注视)的比例在ASD(M=24.25%,SE=1.2)与典型(M=24.7%,SE=1.5)组[t(91)=0.22,P=0.82]之间没有明显不同的差异(参见图2的步骤204)。
没有发现具有ASD的幼儿(M=5.58bpm,SD=3.88)与典型幼儿(M=5.18bpm,SD=3.66)之间的每分钟眨眼数(bpm)[t(91)=0.519,P=0.60]存在差异(图4)。另外,没有发现具有ASD的幼儿(M=300.0bpm,SD=98.7)与典型幼儿(M=301.3bpm,SD=98.0)之间的眨眼持续时间[t(91)=-0.23,P=0.82]存在差异。与个体发生眨眼的先前研究一致,个体眨眼率(bpm)与两组的按年龄顺序排列的年龄正相关(对于具有ASD的幼儿,r=0.33,p<0.05,以及对于典型幼儿,r=0.27,P<0.05)。这种相关性(z=0.28,P>0.05)的强度或方向在组之间没有差异。
在每次试验(视频场景)之前和之后,在试验间的间隔期间眨眼率变化的轶事观察也被测试(参见图6A)。在这些间隔期间,居中提示呈现在空白屏幕上以吸引观众对常见注视位置的注意力。基于较早的观察,通过指示器,可以预测在试验期间的眨眼率将相对于试验间的间隔减少。
还如图6B所示,在试验期间的具有ASD的幼儿和典型幼儿的平均眨眼率相对于试验前和试验后的时间减少。给定相关变量(bpm)的正偏态,其具有比均值更大的方差,方差分析(ANOVA)[诊断组(2种程度)x试验类型(3种程度:试验前、试验期间和试验后)]的重复量度利用下面设想的负二项式分布来执行。ANOVA产生试验类型的显著主效应(Wald X2=18.70,df=2,P<0.001)。事后比较指示试验前和试验后的平均bpm彼此没有显著不同(WaldX2=0.64,df=1,P=0.42),但是在这些条件中的每个条件期间的眨眼率明显大于试验期间的眨眼率(分别地,Wald X2=20.58,df=1,P<0.001以及Wald X2=14.57,df=1,P<0.001)。没有主诊断效应(Wald X2=0.002,df=1,P=0.97)以及在条件(Wald X2=0.003,df=2,P=0.99)时,没有显著诊断交互作用。
确定瞬间眨眼率,因为它涉及也被测试的眨眼数据。瞬间眨眼率作为密度函数来计算。用于每个个体的数据被记录为60-Hz的时间序列。指示给定个体是否眨眼的二进制值在每个时间序列点记录(0表示无眨眼,1表示眨眼,1的连续序列指示持续时间等于其该连续序列的长度的完整眨眼),如图2的206中所述。在时间序列中的每个时间t,瞬间眨眼率根据下列方程式来计算:
其中,bpm(t)是在时间t的瞬间眨眼率(每分钟眨眼数),Δt是采样间隔(1/60秒,对于60-Hz采样,转换分钟为1/3600分),nb(t)是在时间t发生的眨眼总数(即,计算各个体的总和),以及Nv(t)是在时间t眨眼或观看屏幕的观众的总数。最后,瞬间眨眼率密度函数利用经选择匹配平均个体眨眼持续时间的高斯窗(在全宽度半最大值是300ms)进行平滑。
需要指出,在自由观看实验中,Nv(t)应当排除在时间t偏离屏幕观看的任何参与者。而且,需要指出,nb是总眨眼的分数计数:以60-Hz采样测量的持续300ms的单次眨眼在时间序列中生成18个采样,并被计数为在每个时间t的眨眼的1/18。
此外,为测试在视频观看期间瞬间眨眼率是否明显调制,使用排列试验。在1000个迭代的每个迭代中,用于每个孩子的二进制时间序列眨眼数据(0=无眨眼,1=眨眼)通过在下列方程式后的循环移位来排列:
bj,c(t)=bj(t-Sj,模T)
写为
bj,c(t)=bj((t-s)T),
其中,对于Sj≥0,等价为
其中,bj是用于每个参与者j的测量眨眼时间序列数据;bj,c是用于相同参与者j的循环移位眨眼时间序列数据;t是在间隔0≤t≤T内定义的时间序列中的时间点;T是刺激的总持续时间(在目前情况下,显示给参与者的整个电影的持续时间);以及Sj是对于每个参与者j在t的相同单元中循环移位的大小。用于每个参与者的循环移位的大小从均匀分布的随机数发生器独立提取,其可能的值范围从-T到T。在循环移位后,对于每次迭代,瞬间眨眼率如先前所述来计算:
通过这种方式,在每次迭代时,眨眼的持续时间和眨眼间的间隔被保存用于每个个体,但是每次眨眼的计时相对于视频内容的实际时间线和相对于其他参与者眨眼的计时是随机选取的。通过这种方法,在排列数据中,参与者在整个任务期间的平均眨眼率保持不变(并且是任务特定的),但是增加或减少瞬间眨眼率的计时是随机的。
排列过程重复1000次迭代,随后对在时间序列的每个点的所有迭代测量眨眼率的统计分布。在所有迭代的每个时间点,排列数据的第五百分位被用作识别显著眨眼抑制的时间点的非参量阈值。这允许比较眨眼的实际模式和眨眼的随机化概率模式,从而实现眨眼的计时与待测试场景内容无关的零假设。
基于上面的实验,发现在8.8%的视频观看时间期间,典型幼儿的眨眼率被显著抑制(展现值小于混合数据的0.05阈值),以及在7.0%的观看时间期间,ASD组的眨眼率被显著抑制。观察到的眨眼率与每组的排列数据之间的差异通过两样本Kolmogorov-Smimov检验来测试,发现每个样本的显著差异(对于典型幼儿,D=0.22,P<0.001,以及对于具有ASD的幼儿,D=0.28,P<0.001)。
图9示出实际眨眼数据与排列数据比较的经验累积分布函数的曲线图。这些曲线示出低眨眼率的增加(在横坐标左端的实际数据与排列数据之间的差距)以及眨眼率的增加(与在横坐标右端的实际数据与排列数据之间的差距)。
对视频播放期间的瞬间眨眼率是否显著调制进行测试(参见图7A)。个体数据被记录为60-Hz时间序列(在序列中每个点的二进制值指示给定个体是否眨眼)。对每组的所有个体计算瞬间眨眼率。为测试眨眼抑制的计时与场景内容不相关的零假设,使用排列检验。在1000个迭代的每个迭代中,用于每组的每个孩子的二进制时间序列眨眼数据通过循环移位来排列,每个孩子的移位大小从均匀分布的随机数发生器独立提取。随后对移位个体数据计算瞬间眨眼率。因为每个个体数据已独立移位,每个移位眨眼时间序列的计时相对于视频内容的实际时间线是随机的并相对于其他参与者的眨眼计时是随机的。通过这种方法,在排列数据中,参与者在整个任务期间的平均眨眼率保持不变(并且是任务特定的),但是增加或减少瞬间眨眼率的计时是随机的。
这允许基本排列检验具有确切的概率:在每个时间点,所有排列数据的第五百分位用作用于识别统计显著的眨眼抑制期的统计阈值(P=0.05)(参见图7C和7D)。如果实际测量眨眼的计时相对于目前的视频内容是随机的,可以预计每组的测量瞬间眨眼率与排列数据的眨眼率相差不超过5%的时间。相反,在实际数据中,可以发现在8.8%的视频观看时间期间,典型幼儿的眨眼率被显著抑制(展现值小于排列数据的0.05阈值),以及在7.0%的观看时间期间,ASD组的眨眼率被显著抑制。观察到的眨眼率与每组的排列数据之间的这种差异通过两样本Kolmogorov-Smimov检验来测试,可以发现每个样本的显著差异(对于典型幼儿,D=0.22,P<0.001,以及对于具有ASD的幼儿,D=0.28,P<0.001)。
作为眨眼抑制对视觉刺激120的相关性的一部分,视觉刺激的多个片段被识别为情感内容和物理内容(在本文也称为情感事件和物理事件)。十个成年人在两阶段过程中评定视频场景的情感内容。首先,整个视频被划分为15个片段,并且观众被要求对各片段从最多情感到最少情感进行分类。评定人之间的这些排名的一致性系数是非常重要的(Kendall的W=0.879,X2=123.02,df=14,P<0.0001)。分类最高的八个片段随后用于识别情感事件的精确计时。为做到这点,成年评定人逐帧检查八个最具情感片段中的每一个片段并选择情感事件开始的时间点和情感事件结束的时间点。所有评定人的开始和结束时间的SE是152ms。每个情感片段的开始和结束时间在10个评定人之间平均,从而产生八个情感事件。物理事件被定义为玩具车门在移动的所有时间点(开始和结束点通过门移动的开始和停止来设定)。如本领域中的普通技术人员所通常理解的,事件不一定必须分类为情感或物理事件,并且此类分类仅用作本实验和公开的示例性目的。而且,可以采用多种机制来确定和测量关于任何种类事件的眨眼率的变化。
已确认在自然场景的未受约束观看期间,眨眼偶然在大于预期的水平被抑制和在特定时间被抑制后,测试眨眼抑制是否相对于视频内容、视觉注视和观众组选择性改变。如上所述,实验范例向已知对这些分类具有差别注意力的两群孩子(具有ASD的孩子和典型幼儿)呈现两类内容(情感和物理事件)。在向参与者显示的视频中,视频中的男孩想要玩具车门保持打开,然而女孩想把门关闭;这个情节便于形成情感内容的变化程度(男孩与女孩意见不合)和重复的物理动作(车门的关闭和打开)。
为实施脱稿自然交互视频中的情感和物理事件的命名,10个成年观众评定整个视频的情感程度,识别视频内面部表情和/或发声显示高涨情绪的八个片段(例如,当视频中的男孩或女孩变得很生气的时间)。评定人之间情感排名的一致性系数是非常重要的(Kendall的W=0.879,X2=1223.02,df=14,P<0.00001)。物理事件被实施为当车门在移动时的时间。两种事件类型并不相互排斥,而是根据时间重叠小于25.18%的独立评定人来分类。
视频的剩余片段被分类为非情感/非物理事件。可以预测观察者将在感知对过程特别重要的时刻抑制他们的眨眼,并在感知不太重要的时刻增加他们的眨眼。为检验眨眼抑制的计时如何相对于情感和物理事件改变,使用了外周刺激(或“刺激事件”)时间直方图(PSTH)。PSTH通过对准个体时间序列眨眼数据的片段和事件的开始并随后计算周围2000ms窗口中33.3ms仓中发生的个体眨眼的计数来构造(如图2中的步骤208所示)。仓计数针对每个参与者在所有事件中计算,并随后在所有参与者中平均以获得组均值。
为检验观察到的眨眼率变化是否偶然不同于预期,计算来自排列眨眼数据的第二组PSTH。如前所述,个体的眨眼序列通过个体数据1000次的循环移位来排列。PSTH随后对这些排列数据集中的每个进行计算。在每个仓期间,如果眨眼率相对于屏幕上事件是随机的,那么,来自排列数据的所有1000个PSTH的平均瞬间眨眼率量化观察到的一个人的眨眼率。另一方面,如果眨眼率被时间锁定到屏幕上事件而不是随机的,则将预期会看见与排列数据分布的显著偏差。贯穿排列数据所有PSTH的瞬间眨眼率的第5和第95百分位用作与实际数据中的眨眼率比较的P=0.05置信度(单尾比较)。为检验组之间的差异,用于每组的自举数据的置信区间(CI)被计算,如图2的步骤216所述。
如图8A所示和图2的步骤218所述,用于典型幼儿的PSTH显示对应情感事件眨眼率的32.4%减少,达到了在零滞后之前的最小66ms。这指示典型幼儿时间锁定到具有高情感效价事件的发生的统计显著眨眼抑制(P<0.05)。具有ASD的幼儿也显示出眨眼率的减少(35.8%),但是该减少是在情感事件的零滞后之后的最大599ms(参见图8G)。
组间的计时差异是高度显著的,因为用于每组的自举滞后数据的CI是非重叠的(参见图8M,典型幼儿最小眨眼率滞后时间:CI5=-230ms,CI95=0ms;具有ASD的幼儿最小眨眼率滞后时间:CI5=33ms,CI95=700ms)。观察到的计时差异并没有更多归因于眼动速度或频率的总延迟,因为可以发现在转移视线时,组间没有延迟差异[作为反应时间测量的典型幼儿:M=1.09秒(SE=0.20),具有ASD的幼儿:M=0.96秒(SE=0.28);t(91)=0.40,P=0.69,以初始化紧跟在电影开始后的第一飞快扫视]或注视持续时间或频率[典型幼儿的持续时间:M=442秒(SE=16.4),具有ASD的幼儿的持续时间:M=492(SE=29.4);t(91)=-1.57,P=0.12,以及用于典型幼儿的频率:M=2.04个注视/秒(SE=0.09),具有ASD的幼儿的频率:M=1.93(SE=0.11);t(91)=0.85,P=040]。
每组显示出眨眼率按事件类型的数值减少,虽然统计不是显著的(参见图8N):典型幼儿表现出在情感事件期间比物理事件期间更大的眨眼率减少(32.4%对25.4%,图8A和8B),反之,具有ASD的幼儿表现出相反的模式,其具有物理事件的41.7%减少和情感事件的35.8%减少(参见图8G和8H)。两组幼儿表现出关于非情感非物理事件的眨眼率的显著增加(参见图8C和8I)。有助于消除差别接合的问题是在两种事件类型期间每组视觉注视的模式(参见图8O)。在两种事件类型期间,典型幼儿花在观看物体上的时间比具有ASD的幼儿明显更少[F1,91=12.01,P=0.001,通过诊断(2种程度)x事件(情感对物理)重复测量ANOVA],并且诊断与事件类型之间的互动是显著的(参见图8O)(F1,91=5.99,P=0.016)。配对采样t检验确认典型幼儿在情感对物理事件期间表现出对物体注视的百分位没有差异(t1,51=0.85,P=0.4;M情感=25.5%,SD=14.21对M物理=26.5%,SD=16.7),但是具有ASD的幼儿在物理事件期间增加对物体诸如运动车门的注视(参见图8O)[用于情感的M(SD)=33.9(16.7)对用于物理的40.0(17.2);t1,40=3.57,P=0.001]。
总而言之,典型幼儿的眨眼抑制是(i)刚好在事件的零滞后之前减少最多,(ii)情感事件的数值大于物理事件,以及(iii)与对物体的注视程度无关(在两种事件类型期间,标记改为大于73%对人注视)。相反,对于具有ASD的幼儿,眨眼抑制在(i)事件零滞后之后减少最多,(ii)物理事件数值大于情感事件,以及(iii)在物理事件期间,标记对物体注视显著增加(参见图2的步骤220)。
现参考几个附图,在一个实施例中,图6C说明取决于两个不同观众组(观众组A和观众组B)之间的眨眼调制的任务的示例性实施例,具体地,观看三种不同事件刺激(参见图6D)的两个不同观众组(参见图6E)之间的示例性眨眼率比较。在一个实施例中,观众组A和观众组B未表现出观看事件A时的眨眼抑制。根据一个方面并如图6C所示,在两个观众组与事件A接合时,在两个组的bpm保持在约每分钟9个与13个眨眼之间时,没有哪个组抑制他们的眨眼率。
根据在图6C中结合事件B说明的一个方面,观众组B的眨眼抑制在该观众组接合视觉刺激的事件B时被调制。另选地,观众组A的眨眼抑制未被调制,并通常徘徊在大约每分钟9-13个眨眼。在一个方面,这证明在与事件B接合期间,观众组B的接合程度显著增加;反之,观众组A的接合程度一般不改变。
此外,在另一方面,在观看视觉刺激内的事件A时,两个观众组的接合程度保持一致。对于每分钟大约9-13个眨眼的两个观察组来说,眨眼抑制保持相对接近。图6C的讨论示例证明人群响应于特定事件(例如,在给定刺激内的事件,或完全不同刺激之间的事件等)的各种接合程度。例如,营销公司可以使用此类评估确定营销活动接合目标人群的力度。因此,如果营销活动打算针对30-40岁的妇女人群,那么,具体地,在预定的视觉刺激片段,观众组A可以包括30-40岁的男人以及观众组B可以包括30-40岁的妇女。如果事件B包括经设计迷住属于观众组B的个体的预定片段,那么,在这个示例性描述中,营销活动可能在事件B期间在增加观众组B的接合程度时是成功的(通过测量眨眼率和眨眼抑制来评估)。如一般所理解的,前面的描述仅用于示例性目的,并不打算限制本公开的实质或范围。
图7根据本公开的一个实施例说明在自然观看视频场景期间统计显著眨眼抑制的示例性表示,其中数据随着时间推移绘制,使得发生视觉刺激的时间锁定以用于眨眼数据的进一步分析。在一个实施例中,图7A说明描绘在典型幼儿在观看示例性视频场景时眨眼的示例性光栅曲线。同样,在另一实施例中,图7B说明与视觉刺激时间锁定的瞬间眨眼率。根据一个方面,图7B的曲线的更高点表示观众表现出显著眨眼量(例如,通常各点接近每分钟17-20个眨眼),反之,曲线中较低的各点表示观众未如往常眨眼的时间点(例如,通常各点接近每分钟0-2个眨眼)。
在另一实施例中,图7C说明典型幼儿的排列数据的第5和第95百分位的示例性曲线(用于确定排列数据的机制如先前在本文更详细讨论)。在一个方面,第95百分位表示增加的眨眼,以及第5百分位表示减少的眨眼。在7C中示出的对应于瞬间眨眼率的第5百分位的绘制数据用于生成图7D,其中,图7D根据本公开的另一实施例说明与视频场景中的特定时间映射(同步)的眨眼抑制的实例的示例性曲线。如图7所示,可以在图7A-D的每个曲线中看见眨眼抑制705、710、715和720的对应时间。同样,各种机制与将视觉刺激时间锁定到眨眼数据相关联,听觉刺激可以时间锁定到眨眼数据,以进一步确定眨眼抑制期,因为它涉及听觉刺激。
图8根据本公开的一个实施例说明在自然观看期间,关于时间锁定(同步)眨眼和眨眼抑制的示例性数据以及示例性视觉注视数据。在某些方面,本实验测量相对于情感事件(参见图8A和8G)、物理事件(参见图8B和8H)以及非情感/非物理事件(参见图8C和8I)的眨眼和眨眼抑制期锁定,据此构建PSTH。PSTH显示出关于排列眨眼数据的均值的bpm百分比变化。虚水平线标记0.05和0.95CI;超出这些程度的bpm百分比变化表示偶然大于预期的bpm变化(单尾,P<0.05)。CI标度与事件数(约是非情感非物理分类中事件数量的两倍)倒置。
根据另外方面,每个曲线中bpm的绝对最小和最大变化通过黑色方块来强调。用于典型幼儿和具有ASD的幼儿在眨眼率变化期间的示例性视觉注视数据分别关于图8D和8J中的情感事件、关于图8E和8K中的物理事件以及关于图8F和8L中的非情感/非物理事件进行说明。三个柱图示出来自视频的静止画面(第一列,在bpm的绝对最小减少采样);在相同时刻的注视数据的核密度图(第二列,热色越浓表示密度越大);以及在原始画面上覆盖的从黑色到透明标度的相同核密度图(第三列)。注视密度图的颜色相对于每个组的采样大小来标度,使得对于每组来说,最大和最小可能密度具有相同颜色值,而不管采样大小的差异。图8M说明用于情感对物理事件的眨眼抑制的计时。图8N说明用于情感对物理事件的bpm百分比减少。图8O说明用于情感对物理事件的对物体的百分比注视。
图10说明用于确定观众关于给定刺激的接合动作程度的示例性过程的概述1000。观众接合动作过程的示例性确定采用如关于图2所述的类似机制。例如,该过程通常以向对观众显示视觉刺激来开始(参见步骤1002)。如先前所述,视觉刺激可以包括多种形式的媒体,该媒体包括:DVD,存储数字媒体,视频游戏等。随后,处理器102接收和记录对应于观众的眨眼数据(参见步骤1004),同时接收对应于视觉刺激的刺激数据122。眨眼数据在传播到处理器之前通常经由眼动跟踪仪或眼动监测装置110来采集。处理器通常包括允许眨眼数据转换为可在过程中执行的有用可评估格式1006的软件。
此外,处理器102通常包括时间锁定刺激数据122到眨眼数据的可用和可评估格式的软件(参见步骤1008)。如先前所讨论的,与刺激数据122时间锁定的眨眼数据允许评估关于视觉刺激内各种指标的眨眼行为和眨眼抑制。在某些情况下,确定观众接合动作的过程可以包括采集一个或多个观众的数据,其中在一般情况下,用于评估多个观众的前述步骤1002-1010被重复,直到达到预期的观众组。此外,各观众可以根据目标实验的意图和精神被分类为各种人群(步骤1012)。例如,可以形成非法物质筛选刺激,其中,观众被测试他们观看各种非法物质时的接合程度,以潜在将他或她分类为非法物质的用户或前用户。
另外,在步骤1014,处理器102通常包括通过组合和排列许多观众的数据来聚集时间锁定或同步的眨眼数据的软件。在一个实施例中,聚集的时间锁定眨眼数据通常被针对多个指标来评估,其包括:确定个体瞬间眨眼率,个体已眨眼或将眨眼的几率,等。一般来说,这些指标与关于视觉刺激120的一个或多个时间点同步。利用所聚集和解析的眨眼数据,结果被评估以识别眨眼抑制的各种模式(参见步骤1016)并与刺激数据内的预定指标和其他预定因素比较(参见步骤1018)。随后,可进行关于观众接合程度的总评估,因为它涉及视觉刺激内的各种事件(参见步骤1020)。例如,当关于非法物质筛选接合观众时,与不使用非法物质的某些人相比,吸毒者在面对非法物质时会改变他或她接合的程度或眨眼计时。
在一个实施例中,图10也可以描述用于确定接合动作的类似过程,因为它涉及聆听听觉刺激,其中,在步骤1002,听者听/聆听听觉刺激。因此,一般而言,在图10中描述的过程的剩余步骤与用于视觉刺激的步骤类似。同样,听者眨眼抑制的量度确定听者接合听觉刺激的程度。例如,在外语教学时,教师可能想要学生聆听听觉刺激。教师可以利用这个示例性过程评估学生如何与教学用具接合。
根据本公开的一个实施例,图11说明示例性过程1100的概述,该过程用于根据其对给定刺激的接合来对观众进行分类或评定,以评估疾病/障碍状态,其中,疾病/障碍状态的评估通常包括状况的存在/不存在,疾病/障碍状态进展,和/或关于先前诊断的治疗反应。类似于本公开中的某些其他过程,用于评估疾病/障碍状态1100的过程通常通过在监视器装置140上向观众显示视觉刺激(参见步骤1102)、在处理器102接收和记录观众的眨眼数据(参见步骤1104)并在处理器将眨眼数据转换为可评估的格式(参见步骤1106)来着手。
处理器102从数据库130检索对应于视觉刺激120的预定时间戳事件数据(步骤1108)。预定时间戳事件数据可以与若干参数有关。例如,该数据可以包括对照数据,该对照数据描述典型或非典型观众根据各种事件指标增强或减弱他们接合程度的时刻的模式。例如,时间戳时间可以与视觉刺激中的物理或情感事件有关。所记录的观众眨眼数据随后时间锁定到视觉刺激并与预定时间戳数据比较(参见步骤1110)以识别眨眼抑制的各种模式并进一步确定整个视觉刺激的接合程度。此外,在特定实施例中(在下面详细描述),除了比较在特定时间点的接合程度以外,还根据视觉刺激内的不同时间对视觉注视的位置进行比较。所述比较可以用于识别数据集内的收敛区和发散区,使得可以生成确定观众的眨眼数据存在于可接受数据的预定范围的限值内还是限值外的评估(参见步骤1112)。随后,可以利用对照数据和观众的眨眼抑制数据的比较,进行关于观众的疾病/障碍状态的进一步评估(参见步骤1114)。例如,如果眨眼在预定事件之前被抑制,那么幼儿可以分类为典型的,但是如果眨眼在预定事件之后被抑制,那么幼儿可能潜在表现出ASD的早期迹象。
如本领域中的普通技术人员所一般理解的,典型幼儿和经诊断具有ASD的幼儿在本公开的各方面所描述的实验期间被评估,但是,任何观众组可以作为目标,使用所公开的采集和分析眼睛数据的机制分析观众的各种接合程度。例如,观众组可以包含用于市场研究的一组青少年,用于心理学实验的一组大学生,用于医学测试的一组成年人,等等。
关于图11所述的过程还可以用于根据观众的接合程度对观众评级和/或分类。在一个实施例中,基于所评估的观众的接合程度,可以进行关于对观众分类的进一步评估。在一个方面,利用眨眼数据确定观众与刺激的接合程度是可能的,其中,各种接合程度可以提供观众评级或还可能结合预定指标用于对观众分类或归类。例如,飞行模拟器可以经开发与潜在的飞行学校考生接合并生成根据飞行学校潜在成功率来评估和分类潜在考生的报告。
根据类似于关于图11所述的根据与给定刺激的接合来对观众或观众组分类的过程的一个方面,步骤1102-1112可以被重复用于采集和比较眨眼数据。因此,类似于步骤1114,关于观众的指标水平、评级或分类可以设为观众接合的函数。例如,学校中的学生可以基于他们与演讲的接合程度来分类,使得老师基于他们的接合程度知道并理解哪个学生需要更多关注。
在一个实施例中,图11也可以描述用于评估/分类的类似过程,因为它涉及聆听听觉刺激,其中,在步骤1102,听者听/聆听听觉刺激。因此,一般而言,在图11中描述的过程的剩余步骤与用于视觉刺激的步骤类似。同样,听者眨眼抑制的量度确定听者接合听觉刺激的程度。例如,听觉刺激可以包括用于评估不同个体的疾病/障碍状态的机制。由于预定眨眼模式可能是已知的,如果听者不遵循或相关预定眨眼数据,个体可以被分类为特定组,因为它涉及精神疾病/障碍/情况的状态。此外,精神疾病/障碍/情况可以包括认知或发育疾病/障碍/情况。
在关于图11所述关注分析刺激接合观众的能力的量度的过程的一个方面,眨眼数据可以与使观众和刺激接合能力相关的预定指标比较,以接合观众或观众组。在另一方面,处理器102可以检索预定时间事件数据并使用算法确定刺激接合观众的能力。例如,营销公司可以具有支配营销公司成功预测的预定观众接合指标。在各种营销活动的试验表演中,如果营销活动未达到成功接合观众的最小预定观众接合指标,该活动不会发布用于营销。
根据另一实施例,眨眼抑制数据可以通过所感知的视觉显著性的量度提供视觉刺激可能有的有效程度的量化度量。在一个方面,视觉刺激的有效性可以包括:使用观众接合指标确定视觉刺激是否拥有迷住观众的预期或不良效果。如先前所述并根据一个方面,观众接合的程度可以用眨眼数据来分析并与视觉刺激中的特定点时间锁定(例如,逐帧,预定片段等)。因此,根据一个方面,确定观众在特定点的接合程度可以帮助确定视觉刺激在该特定点或片段如何与听众或观众接合。同样,观众的接合程度可以帮助识别整个或完整视觉刺激迷住听众或个体的有效性。例如,营销公司可以通过在营销活动试验期间采集的眨眼数据的量度,利用作为活动接合能力的指标的接合程度趋势。营销公司还可以利用眨眼数据确定刺激A是否比刺激B更有效以验证未经证实/未经检验的理论。
在一个实施例中,眨眼抑制数据可以在类似的过程中用于确定听觉刺激接合的能力,因为它涉及听者聆听听觉刺激,其中,在初始步骤中,听者听/聆听听觉刺激。因此,前述过程的剩余步骤一般类似于用于视觉刺激的那些步骤。同样,听者眨眼抑制的量度确定听者接合听觉刺激的程度。例如,在外语教学时,教师可能想要学生聆听听觉刺激。教师可以利用这个示例性过程评估学生如何与教学用具接合。
在一个实施例中并如先前所述,用于分类观众的与观众接合程度相关的眨眼数据还可以结合确定视觉刺激的有效性来使用。例如,特定视觉刺激可以以10-14岁的女孩作为目标。通过测试目标观众的样本,眨眼数据还可以帮助识别针对目标观众的视觉刺激的有效性。此外,例如可以对6-10的女孩和10-14岁的女孩进行比较以确保观众接合的准确度。
图12说明本公开的一个实施例,其包括用于收集和评估各种类型数据的示例性过程1200,所述评估包括评估视觉刺激的感知刺激显著性。在一个方面,眼动跟踪仪110可以包括眼动跟踪仪和眨眼监测器的组合,其中,眼动跟踪仪记录眼动数据(例如,飞快扫视、注视、瞳孔放大等),以及眨眼监测器记录眨眼数据。在另一方面,眼动监测系统可以包括独立的眼动跟踪仪和眨眼监测器,这二者协同工作,以向处理器102发送眼睛和眨眼数据112以用于评估。根据本实施例的一个方面,通过处理器102接收的眼睛数据112(参见步骤1205)可被用来形成用于量化和映射视觉显著性的注意力漏斗(如本文先前所述),以进一步评估观众的接合程度。
如先前所述,眼动跟踪仪同样可以在本公开中描述的其他过程中接收以及记录眨眼数据和眼睛数据(参见步骤1204和1205)。眼动和眨眼数据可以转换为可评估格式(参见步骤1206),诸如二进制眨眼数据和关注点(凝视点)坐标数据,并且处理器102可以检索视觉刺激120的预定时间戳事件(参见步骤1208)。类似于关于图2所述的过程,可以对一组中的许多观众收集眼睛和眨眼,并且观众可选基于预期接合人口统计或其他分类标准进行分类(参见步骤1210和1212)。
因此,处理器102可以形成感知视觉显著性的映射,比较时间锁定眼睛数据和预定数据,并提供感知刺激显著性的评估。在一个实施例中,感知视觉显著性的量化映射描述观众的注视或关注点,其中,所述点一般确定一个人在刺激上聚焦他或她注意力的位置。在一个方面,对应于对照组或对照数据的眼睛数据112可以用于形成描绘收敛区和发散区的注意力漏斗(先前关于图1D所述)。如先前所述,收敛区一般表示大多数观众的关注点分布在刺激的小二维区内的特定时刻。对于相同的刺激来说,这个数据和/或显示可以被覆盖或时间锁定到眨眼数据,这允许确认诊断方法等。这种机制用于评估未遵循收敛分布的观众,并可以进一步提供疾病/障碍状态的评估。
在如图13所示的一个实施例中,过程1300被示出用于识别刺激内的最吸引人的时间和空间特征。类似于图12中描述的过程,刺激可以向一个或多个观众显示(步骤1302),眼动和眨眼数据可以被记录(步骤1304和1305)并被转换为可评估格式(步骤1306),并且眼动和眨眼数据可以时间同步到视觉刺激(步骤1308)。此外,时间锁定眼睛和眨眼数据可以被排列以量化参与观众观看视觉刺激期间眨眼响应的几率(参见步骤1312)。如先前所述,排列眨眼数据允许眨眼响应的准确分析;因此,允许识别给定观众或观众组的眨眼抑制期(参见步骤1314)。
通过前述量化视频显著性的过程,眼动数据被评估以确定注视区并与眨眼抑制期相关以识别视觉刺激的最吸引人时间和空间特征(参见步骤1316和1318)。具体地,如果假设观众与视频接合时表现出眨眼抑制,那么,识别注视数据的位置可以指示最佳接合的视频的空间和时间位置。通过执行很多试验的“数据挖掘”过程以收集多个数据,评估观众接合视觉刺激(特别是刺激内的各种特征)的程度,可以基于时间改变观众的接合帮助评估刺激的最吸引人时间和空间特征。
图14说明根据本公开的一个实施例评估患者状态的示例性过程1400。类似于关于图11所述的过程,眨眼数据被记录(步骤1404),转换为可评估格式(步骤1406),并与时间戳事件比较以识别各种眨眼模式(步骤1410)。进行眨眼模式等级相对于预定范围的进一步评估以识别状态的严重程度、温和性或变化(参见步骤1412)。例如,观众可以用认知条件被初步诊断并按惯例评估以监测认知条件的状态。此外,新近获得的眨眼数据被比较的预定数据可以包括在观众诊断状态的较早阶段来自他或她的先前数据。根据状态严重程度的量度,纵向数据可以被收集以确定目前状态变化的量度(参见步骤1416)。
进一步分析
根据本公开的某些实施例(具体地,上述的实验),眨眼抑制的模式和视觉注视的分布很好地映射到在建立在组之间的差异,而且揭示刺激显著性的主观评估的更细微差异。例如,根据一个方面,当数据被时间对准到强调的情感内容的场景(图6A)时,典型幼儿表现出零事件滞后之前达到峰值的持续眨眼抑制。相反,具有ASD的幼儿表现出在零事件滞后之后出现超过0.5秒的眨眼抑制的峰值。
典型幼儿比具有ASD的幼儿更早抑制他们的眨眼,这显示出典型幼儿有效预期显著性事件的展开的意外可能性,并以时间锁定的方式来这样做。视觉注视数据讲述类似的故事:具有ASD的幼儿更多观看视频场景中的物体并在物体移动时选择性增加他们在物体上的注视(就是说,在指定的物理事件期间)。因此,利用时间锁定的眨眼抑制和/或视觉注视数据可以用于帮助诊断各种认知障碍或退化。
相反,典型幼儿对社会相关线索诸如眼神、面部表情、身体姿势的注意力可以允许他们预期还未发生但可能即将发生的动作(当愤怒的面部表情在大叫或车门的猛关之前)。这些线索帮助典型幼儿生成关于动作在这个世界上随后将如何呈现的期望。不过,对于具有ASD的幼儿,作为事后反应的眨眼抑制可以被看作反映缺乏对环境(并且,具体地,社会)线索的敏感性。这暗示与情感和物理刺激的接合与他们通常感知的社会背景分离:虽然典型幼儿可能被车门的猛关接合,因为其与进行中的特性之间的社会互动相关,具有ASD的幼儿的接合可能对此类事件的显著物理特性做出反应。
关于电影事件如何被感知的组之间差异的这些假设强调即使电影事件可以被分类为情感或物理事件的点,它们不大可能被感知为相互排斥的二元性。各实验的一个主要目标是使用半结构化的自然刺激测试眨眼抑制。在此类情形下,情感和物理事件的分类边界变得模糊;例如,典型幼儿可能在车门猛关之后感知社会意义和情感意义。情感和物理分类的这种模糊可以说明为什么眨眼率倾向于在预期方向减少,但是为达到这个特定分析的统计学意义,典型幼儿表现出响应于情感事件的更多减少,而具有ASD的幼儿表现出对物理事件的更多减少。此外,事件不一定必须分类为情感或物理事件以确定接合程度,如本领域中的普通技术人员应当理解的。
所述结果证明眨眼抑制的模式可以提供自闭症研究和许多视觉感知的神经行为学研究领域通常缺乏的社会情感体验方面的通路:不仅什么人正在观看而且他或她如何与他或她正在观看的东西接合的量度。虽然先前的工作已显示出具有ASD的孩子比他们通常正在发育的同类向社会相关刺激分配更少的注意力资源,这些研究已难以采集孩子如何与他们正在注视的东西接合。
此外,眨眼抑制的量度很适合提供在视觉内容的自然快节奏呈现期间所感知刺激显著性的时间准确指标。与传统用在心理生理学研究中的其他自发响应诸如皮肤电和心血管活动比较,眨眼抑制用于测量对情感刺激的反应毫不逊色:皮肤电和心血管反应是高度多元确定的,阻止强力推导他们心理活动的关系;另外,他们的延迟和不应期破坏他们关于情感或认知状态的测量的准确时间标记。相反,眨眼抑制对于视觉系统来说是内在的而不是外围功能;它的开和关设定参数对内容的生态效度、快节奏呈现是准确和时间敏感的;并且,最终,眨眼抑制可以避免将改变其他量度的生态效度的突兀设备的需求,完全通过非入侵甚至掩蔽的眼动跟踪摄像机或其他装置来测量。
在一个实施例中,本系统和方法提供评估观众行为、刺激特征以及观众行为与刺激之间互动的机制。具体地,并且根据一个方面,因为眨眼中断视觉信息对观众的流动,并且因为眨眼的抑制确保视觉信息的流动不会中断,个体抑制或不抑制他们眨眼的准确计时的测量可以提供观众接合的可靠量化指标以及感知刺激显著性的主观评估,即使个体在每天的环境中完全未意识到他们在眨眼。因此,本文所述用于量化眨眼响应和眨眼抑制的系统和方法通过测量什么足以保证观众接合或不接合、眨眼抑制来提供观众接合的每时每刻测量。
本公开的一个实施例描述视觉扫描、眼动、眨眼数据和眨眼计时数据的量度以推导一个人如何与他或她正在观看的东西接合的量度。在一个方面,作为观众接合量度的眨眼相关数据提供用于确定刺激的最佳接合空间和时间方面的机制。根据另一方面,眨眼抑制的量度提供自发反应和差别接合、时间锁定到快节奏、快速变化的视觉显示内的显著性时刻的前景指标。通过准确测量关于展开内容的眨眼抑制的计时,可以每时每刻确定观众他或她正在观看的东西的重要性的主观评估。
因此,应当理解本文所述系统的各个实施例一般被实施为专用或通用计算机,其包括如在下面详细讨论的各种计算机硬件。在本公开的范围内的实施例也包括计算机可读介质,其用于携带或具有计算机可执行指令或储存在其中的数据结构。此类计算机可读介质可以是通过通用或专用计算机可访问或通过通信网络可下载的任何可用介质。借助示例,此类计算机可读介质可以包括但并不限制,物理存储介质,诸如RAM、ROM、闪存、EEPROM、CD-ROM、DVD或其他光盘存储、磁盘存储或其他磁存储装置,任何类型的可移动非易失性存储器,诸如安全数字盘(SD)、闪存、存储棒等,或可用于携带或存储计算机程序代码的任何其他介质,所述计算机程序代码具有计算机可执行指令或数据结构的形式,并且可以通过通用或专用计算机或移动装置来访问。
当信息在网络或至计算机的另一通信连接(硬连线,无线,或硬连线或无线的组合中的任意一个)上传播或提供时,该计算机将该连接适当示为计算机可读介质。因此,任何此类连接被适当称为并被视为计算机可读介质。上述的组合也被包括在计算机可读介质的范围内。计算机可执行指令包括例如,促使通用计算机、专用计算机或专用处理装置诸如移动装置处理器执行一个指定功能或功能组的指令。
本领域中的技术人员应当理解,本公开各方面的合适计算环境的特征和方面将被实施。虽然未作要求,但是发明在计算机可执行指令的通用背景下描述,诸如早前所述的程序模块或引擎通过联网环境中的计算机来执行。此类程序模块往往通过流程图、顺序图、示例性屏幕显示来反映和说明,并且,由本领域中的技术人员所使用的其他技术传达如何制作和使用此类计算机程序模块。一般来说,程序模块包括例程、程序、对象、组件、数据结构等,其执行计算机内的特定任务或实施特定抽象数据类型。计算机可执行指令、关联数据结构和程序模块表示用于执行本文公开的方法的步骤的程序代码的示例。此类可执行指令或关联数据结构的特定顺序表示用于实施在此类步骤中描述的功能的对应动作的示例。
本领域中的技术人员应当明白,本发明可以在具有许多类型计算机系统配置的网络计算环境中实践,所述计算机系统配置包括个人计算机、手持式装置、多处理器系统、基于半导体或可编程的消费电子、联网PC、小型计算机、大型计算机等。本发明在分布式计算环境中实践,其中,各任务通过本地和远程处理装置来执行,本地和远程装置通过通信网络联接在一起(通过硬连接链路、无线链路或通过硬连线或无线链路的组合)。在分布式计算环境中,程序模块可以被定位在本地和远程存储器存储装置中。
未在本文说明的用于实施本发明的示例性系统包括以通用计算机形式的通用计算装置,其包括处理单元,系统存储器,以及将包括系统存储器的系统组件耦接至处理单元的系统总线。计算机通常包括用于读写的一个或多个磁硬盘驱动器(也称为“数据储存器”或“数据存储器”或其他名字)。驱动器及其关联的计算机可读介质提供计算机可执行指令、数据结构、程序模块和用于计算机的其他数据的非易失性存储。虽然本文描述的示例性环境采用磁硬盘、可拆除磁盘、可拆除光盘,但是用于存储数据的计算机可读介质可以被使用,所述计算机可读介质包括磁带盒、闪存卡、数字视频盘(DVD)、伯努利盒、RAM、ROM等。
实施本文所述的大部分功能的计算机程序代码通常包括可以被存储在硬盘或其他存储介质上的一个或多个程序模块。如本领域中的技术人员所知道的,这种程序代码通常包括操作系统、一个或多个应用程序、其他程序模块和程序数据。用户可以通过键盘、指点装置、包含脚本语言写的计算机程序代码的脚本或其他输入装置(未示出)如麦克风将命令和信息输入到计算机中。这些和其他输入装置往往通过已知的电气、光学和无线连接装置连接到处理单元。
影响本发明的许多方面的主计算机通常使用至一个或多个远程计算机或数据源的逻辑连接在联网环境中操作,所述逻辑连接在下面进一步描述。远程计算机可以是另一个人计算机、服务器、路由器、网络PC、对等装置或其他通用网络节点,并且通常包括关于主计算机系统所述的许多或全部元件,其中,本发明在所述主计算机系统中实施。借助示例,各计算机之间的逻辑连接包括但不限于局域网(LAN)、广域网(WAN)和无线LAN(WLAN)。此类联网环境是司空见惯的办公范围或企业范围的计算机网络、企业内部网和互联网。
当用在LAN或WLAN联网环境中时,实施本发明的各方面的主计算机系统通过网络接口或适配器连接到本地网络。当用在WAN或WLAN联网环境中时,计算机可以包括调制解调器、无线链路或在广域网诸如互联网上建立通信的其他机制。在联网环境中,关于计算机描述的程序模块或其部分可以被存储在远程存储器存储装置中。应当理解,所述或示出的网络连接是示例性的,并且可以使用在广域网或互联网上建立通信的其他机制。
鉴于本发明的优选实施例的前述详细描述,本领域的技术人员应当理解本发明易于广泛应用。虽然各方面已在优选实施例的背景下描述,但是本领域的普通技术人员很容易通过本文的描述识别出本发明的附加方面、特征和方法。在不偏离本发明的主旨或范围的情况下,不同于本文所述的许多实施例和改进以及许多变化、更改以及等效布置和方法将是显而易见的或是本发明及其前述的合理建议。而且,本文所述和要求保护的不同过程的步骤的任何顺序和/或时间次序应当视为用于实现本发明的最佳模式。还应当理解,虽然不同过程的各步骤可以被示出和描述为优选顺序或时间次序,但是在没有实现特定预期结果的具体指示的情况下,任何此类过程的步骤并不限于以任何特定顺序或次序来实现。在大多数情况下,此类过程的步骤可以以各种不同的顺序和次序来实现,并且仍然落入本发明的范围。另外,某些步骤可以同时实现。
所述实施例之所以被选择,是为了解释本发明的原理及其实践应用,并使得本领域的技术人员能够利用本发明和各个实施例及其适用于特定用途的不同更改。没有偏离本发明的实质和范围的替代实施例对于本领域的技术人员来说是显而易见的。因此,本发明的范围由附属权利要求限定,而不是由前面的描述和本文所述的示例性实施例来限定。
Claims (165)
1.一种用于确定个体相对于刺激的接合的量度的方法,所述方法包括以下步骤:
接收表示所述个体对所述刺激的眨眼响应的眨眼数据;
经由在处理器上执行的软件使所接收的眨眼数据与所述刺激同步;
经由在所述处理器上执行的软件识别同步的眨眼数据中的眨眼抑制的模式;
经由在所述处理器上执行的软件比较所述同步的眨眼数据中的眨眼抑制的模式和所述刺激,以识别所述刺激的与所述眨眼抑制的模式同期的一部分,
由此,所述眨眼抑制的模式指示所述个体与所述刺激的同期部分接合的标记,其中所述眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较;以及
基于所述接合的标记将所述个体分类为一个或多个预定义类别。
2.根据权利要求1所述的方法,还包括以下步骤:
接收表示所述个体相对于所述刺激的眼动的眼动数据;
经由在所述处理器上执行的软件,从所述眼动数据确定相对于所述刺激的多个注视位置;并且
经由在所述处理器上执行的软件,比较所述多个注视位置和在所述刺激的同期部分的刺激。
3.根据权利要求1所述的方法,其中,所述刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维视觉或视听刺激或三维视觉或视听刺激。
4.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括所述个体在所述刺激期间的平均眨眼率。
5.根据权利要求1-3中的任一项所述的方法,其中,所述刺激的同期部分包括全部的所述刺激。
6.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括所述个体的每时每刻眨眼率。
7.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
8.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
9.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括与预定对照眨眼数据相比的所述同步的眨眼数据的量度。
10.根据权利要求1-3中的任一项所述的方法,其中,所述眨眼抑制的模式包括关于所述刺激中的事件的眨眼抑制的量度。
11.根据权利要求10所述的方法,其中,所述刺激中的事件包括物理事件或情感事件。
12.根据权利要求1-3以及11中的任一项所述的方法,其中,所述接合的标记与所述刺激的显著部分相关。
13.根据权利要求1-3以及11中的任一项所述的方法,其中,所述同步的步骤包括使所接收的眨眼数据与所述刺激时间锁定或时间相关。
14.根据权利要求1-3以及11中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
15.根据权利要求1-3以及11中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
16.根据权利要求1-3以及11中的任一项所述的方法,还包括经由在所述处理器上执行的软件将所接收的眨眼数据转换为用于比较目的的二进制格式的步骤。
17.根据权利要求1-3以及11中的任一项所述的方法,还包括根据预定人口统计参数,经由在所述处理器上执行的软件将所接收的眨眼数据分类的步骤。
18.根据权利要求1-3以及11中的任一项所述的方法,其中,所述刺激是听觉刺激。
19.根据权利要求2-3以及11中的任一项所述的方法,其中,所述刺激是动态视觉刺激。
20.根据权利要求2-3以及11中的任一项所述的方法,其中,所述刺激是静态视觉刺激。
21.一种用于确定个体相对于刺激的接合的量度的系统,所述系统包括:
处理器;
在所述处理器上执行以接收表示所述个体对所述刺激的眨眼响应的眨眼数据的软件;
在所述处理器上执行以同步所接收的眨眼数据和所述刺激的软件;
在所述处理器上执行以识别同步的眨眼数据中的眨眼抑制的模式的软件;
在所述处理器上执行以比较所述同步的眨眼数据中的眨眼抑制的模式和所述刺激从而识别所述刺激的与所述眨眼抑制的模式同期的一部分的软件,
由此,所述眨眼抑制的模式指示所述个体与所述刺激的同期部分接合的标记,其中所述眨眼抑制的所述模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较;以及
在所述处理器上执行以基于所述接合的标记将所述个体分类为一个或多个预定义类别的软件。
22.根据权利要求21所述的系统,还包括:
在所述处理器上执行以接收表示所述个体相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以从所述眼动数据确定相对于所述刺激的多个注视位置的软件;以及
在所述处理器上执行以比较所述多个注视位置和在所述刺激的同期部分的刺激的软件。
23.根据权利要求21所述的系统,其中,所述刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维视觉或视听刺激或三维视觉或视听刺激。
24.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体在所述刺激期间的平均眨眼率。
25.根据权利要求21-23中的任一项所述的系统,其中,所述刺激的同期部分包括全部的所述刺激。
26.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体的每时每刻眨眼率。
27.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
28.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
29.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括与预定对照眨眼数据相比的所述同步的眨眼数据的量度。
30.根据权利要求21-23中的任一项所述的系统,其中,所述眨眼抑制的模式包括关于所述刺激中的事件的眨眼抑制的量度。
31.根据权利要求30所述的系统,其中,所述刺激中的事件包括物理事件或情感事件。
32.根据权利要求21-23以及31中的任一项所述的系统,其中,所述接合的标记与所述刺激的显著部分相关。
33.根据权利要求21-23以及31中的任一项所述的系统,其中,用于同步的软件还包括在所述处理器上执行以使所接收的眨眼数据与所述刺激时间锁定或时间相关的软件。
34.根据权利要求21-23以及31中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
35.根据权利要求21-23以及31中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
36.根据权利要求21-23以及31中的任一项所述的系统,还包括在所述处理器上执行以将所接收的眨眼数据转换为用于比较目的的二进制格式的软件。
37.根据权利要求21-23以及31中的任一项所述的系统,还包括在所述处理器上执行以根据预定人口统计参数将所接收的眨眼数据分类的软件。
38.根据权利要求21-23以及31中的任一项所述的系统,其中,所述刺激是听觉刺激。
39.根据权利要求21-23以及31中的任一项所述的系统,其中,所述刺激是动态视觉刺激。
40.根据权利要求21-23以及31中的任一项所述的系统,其中,所述刺激是静态视觉刺激。
41.一种用于确定个体相对于刺激的感知刺激显著性的方法,所述方法包括以下步骤:
接收表示所述个体对所述刺激的眨眼响应的眨眼数据;
接收表示所述个体相对于所述刺激的眼动的眼动数据;
经由在处理器上执行的软件使所接收的眨眼数据和所接收的眼动数据与所述刺激同步;
经由在所述处理器上执行的软件识别同步的眨眼数据中的眨眼抑制期,其中眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,所述眨眼抑制的模式被包括在同步的眨眼数据中并被识别;
经由在所述处理器上执行的软件,针对在所述同步的眨眼数据中识别的眨眼抑制期,从所述个体相对于所述刺激的同步眼动数据确定至少一个空间注视位置,
由此,所述眨眼抑制期和所述至少一个空间注视位置指示相对于所述刺激的感知的时间和空间显著性的标记;以及
基于相对于所述刺激的感知的时间和空间显著性的标记将所述个体分类为一个或多个预定义类别。
42.根据权利要求41所述的方法,其中,所述同步的步骤包括使所接收的眨眼数据和所接收的眼动数据与所述刺激时间锁定或时间相关。
43.根据权利要求41所述的方法,还包括以下步骤:
经由在所述处理器上执行的软件将所接收的眨眼数据转换为用于确定目的的二进制格式;并且
经由在所述处理器上执行的软件将所述眼动数据转换为用于确定目的的坐标数据。
44.根据权利要求41-43中的任一项所述的方法,其中,所述识别同步的眨眼数据中的眨眼抑制期的步骤还包括以下步骤:
经由在所述处理器上执行的软件从数据库检索对照眨眼数据;以及
经由在所述处理器上执行的软件比较所述同步的眨眼数据和所述对照眨眼数据以识别所述同步的眨眼数据与所述对照眨眼数据之间的差异,
由此所述差异对应于所述眨眼抑制期。
45.根据权利要求44所述的方法,其中,所述对照眨眼数据包括当不存在刺激时多个个体的平均眨眼率。
46.根据权利要求44所述的方法,其中,所述同步的眨眼数据与所述对照眨眼数据之间的差异包括下列中的一个:与所述对照眨眼数据相比所述个体增加的眨眼率,与所述对照眨眼数据相比所述个体减少的眨眼率,在预定时间段内没有眨眼,在预定时间段内超出预定眨眼数。
47.根据权利要求44所述的方法,其中所述同步的眨眼数据与所述对照眨眼数据之间的差异提供所述个体的发育、认知或精神障碍的标记。
48.根据权利要求41-43以及45-47中的任一项所述的方法,其中,所述眨眼抑制期从所述个体在所述刺激期间的平均眨眼率确定。
49.根据权利要求41-43以及45-47中的任一项所述的方法,其中,所述眨眼抑制期从所述个体在所述刺激期间的每时每刻眨眼率确定。
50.根据权利要求41-43以及45-47中的任一项所述的方法,其中,所述眨眼抑制期从与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率确定。
51.根据权利要求41-43以及45-47中的任一项所述的方法,其中,所述眨眼抑制期从与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率确定。
52.根据权利要求41-43以及45-47中的任一项所述的方法,其中,所述眨眼抑制期包括关于所述刺激中的事件的眨眼抑制的量度。
53.根据权利要求52所述的方法,其中,所述刺激中的事件包括物理事件或情感事件。
54.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
55.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
56.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体在预定义时段内的眨眼率。
57.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所述刺激是听觉刺激。
58.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所述刺激是动态视觉刺激。
59.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中,所述刺激是静态视觉刺激。
60.根据权利要求41-43、45-47以及53中的任一项所述的方法,其中所述刺激包括下列中的一种或多种:预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
61.一种用于确定个体相对于刺激的感知刺激显著性的系统,所述系统包括:
处理器;
在所述处理器上执行以接收表示所述个体对所述刺激的眨眼响应的眨眼数据的软件;
在所述处理器上执行以接收表示所述个体相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以同步所接收的眨眼数据和所接收的眼动数据与所述刺激的软件;
在所述处理器上执行以识别同步的眨眼数据中的眨眼抑制期的软件;以及
在所述处理器上执行以针对在所述同步的眨眼数据中识别的眨眼抑制期从所述个体相对于所述刺激的同步眼动数据确定至少一个空间注视位置的软件,
由此,所述眨眼抑制期和所述至少一个空间注视位置指示相对于所述刺激的感知的时间和空间显著性的标记,其中眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,所述眨眼抑制的模式被包括在同步的眨眼数据中并被识别;以及
在所述处理器上执行以基于相对于所述刺激的感知的时间和空间显著性的标记将所述个体分类为一个或多个预定义类别的软件。
62.根据权利要求61所述的系统,其中,用于同步的软件还包括在所述处理器上执行以使所接收的眨眼数据和所接收的眼动数据与所述刺激时间锁定或时间相关的软件。
63.根据权利要求61或62所述的系统,还包括:
在所述处理器上执行以将所接收的眨眼数据转换为用于确定目的的二进制格式的软件;以及
在所述处理器上执行以将所述眼动数据转换为用于确定目的的坐标数据的软件。
64.根据权利要求61-62中的任一项所述的系统,其中,用于识别所述同步的眨眼数据中的眨眼抑制期的软件还包括:
在所述处理器上执行以从数据库检索对照眨眼数据的软件;以及
在所述处理器上执行以比较所述同步的眨眼数据和所述对照眨眼数据从而识别所述同步的眨眼数据与所述对照眨眼数据之间的差异的软件,
由此所述差异对应于所述眨眼抑制期。
65.根据权利要求64所述的系统,其中,所述对照眨眼数据包括当不存在刺激时多个个体的平均眨眼率。
66.根据权利要求64所述的系统,其中,所述同步的眨眼数据与所述对照眨眼数据之间的差异包括下列中的一个:与所述对照眨眼数据相比所述个体增加的眨眼率,与所述对照眨眼数据相比所述个体减少的眨眼率,在预定时间段内没有眨眼,在预定时间段内超出预定眨眼数。
67.根据权利要求64所述的系统,其中所述同步的眨眼数据与所述对照眨眼数据之间的差异提供所述个体的发育、认知或精神障碍的标记。
68.根据权利要求61-62以及65-67中的任一项所述的系统,其中,所述眨眼抑制期从所述个体在所述刺激期间的平均眨眼率确定。
69.根据权利要求61-62以及65-67中的任一项所述的系统,其中,所述眨眼抑制期从所述个体在所述刺激期间的每时每刻眨眼率确定。
70.根据权利要求61-62以及65-67中的任一项所述的系统,其中,所述眨眼抑制期从与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率确定。
71.根据权利要求61-62以及65-67中的任一项所述的系统,其中,所述眨眼抑制期从与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率确定。
72.根据权利要求61-62以及65-67中的任一项所述的系统,其中,所述眨眼抑制期包括关于所述刺激中的事件的眨眼抑制的量度。
73.根据权利要求72所述的系统,其中,所述刺激中的事件包括物理事件或情感事件。
74.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
75.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
76.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体在预定义时段内的眨眼率。
77.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所述刺激是听觉刺激。
78.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所述刺激是动态视觉刺激。
79.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中,所述刺激是静态视觉刺激。
80.根据权利要求61-62、65-67以及73中的任一项所述的系统,其中所述刺激包括下列中的一种或多种:预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
81.一种用于评估刺激接合个体的能力的方法,所述方法包括以下步骤:
向个体给予所述刺激;
接收表示所述个体对所述刺激的眨眼响应的眨眼数据;
经由在处理器上执行的软件从所接收的眨眼数据识别所述个体的眨眼抑制的量度,其中眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,所述眨眼抑制的模式被包括在与所述刺激同步的眨眼数据中并被识别;
经由在所述处理器上执行的软件确定在所接收的眨眼数据中的眨眼抑制的量度是否满足眨眼抑制阈值,
由此所述眨眼抑制阈值指示所述刺激接合所述个体的能力;以及
基于在所接收的眨眼数据中的眨眼抑制的量度是否满足所述眨眼抑制阈值将所述个体分类为一个或多个预定义类别。
82.根据权利要求81所述的方法,所述方法还包括根据预定人口统计参数,经由在所述处理器上执行的软件将所接收的眨眼数据分类的步骤。
83.根据权利要求81所述的方法,其中,所述刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
84.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括所述个体在所述刺激期间的平均眨眼率。
85.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括所述个体的每时每刻眨眼率。
86.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
87.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
88.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括与预定对照眨眼数据相比的所接收的眨眼数据的量度。
89.根据权利要求81-83中的任一项所述的方法,其中,所述眨眼抑制的量度包括关于所述刺激中的事件的眨眼抑制的量度。
90.根据权利要求89所述的方法,其中,所述刺激中的事件包括物理事件或情感事件。
91.根据权利要求81-83以及90中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
92.根据权利要求81-83以及90中的任一项所述的方法,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
93.根据权利要求81-83以及90中的任一项所述的方法,还包括经由在所述处理器上执行的软件将所接收的眨眼数据转换为用于确定目的的二进制格式的步骤。
94.根据权利要求81-83以及90中的任一项所述的方法,还包括根据预定人口统计参数,经由在所述处理器上执行的软件将所接收的眨眼数据分类的步骤。
95.根据权利要求81-83以及90中的任一项所述的方法,其中,所述眨眼抑制阈值指示精神状况的标记。
96.根据权利要求95所述的方法,其中,所述眨眼抑制阈值从跨正常状态到精神病理状态的范围选择。
97.根据权利要求81-83、90以及96中的任一项所述的方法,其中,用于所述个体的所述眨眼抑制的量度对应于全部的所述刺激。
98.根据权利要求81-83、90以及96中的任一项所述的方法,其中,用于所述个体的所述眨眼抑制的量度对应于所述刺激的一部分。
99.根据权利要求81-83、90以及96中的任一项所述的方法,其中,所述眨眼抑制阈值对应于与所述刺激的接合的预定量度。
100.根据权利要求81-83、90以及96中的任一项所述的方法,其中,所述刺激是听觉刺激。
101.根据权利要求81-83、90以及96中的任一项所述的方法,其中,所述刺激是动态视觉刺激。
102.根据权利要求81-83、90以及96中的任一项所述的方法,其中,所述刺激是静态视觉刺激。
103.一种用于评估刺激接合个体的能力的系统,所述系统包括:
处理器;
在所述处理器上执行以向个体给予所述刺激的软件;
在所述处理器上执行以接收表示所述个体对所述刺激的眨眼响应的眨眼数据的软件;
在所述处理器上执行以从所接收的眨眼数据识别所述个体的眨眼抑制的量度的软件,其中眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,所述眨眼抑制的模式被包括在与所述刺激同步的眨眼数据中并被识别;
在所述处理器上执行以确定在所接收的眨眼数据中的眨眼抑制的量度是否满足眨眼抑制阈值的软件,
由此所述眨眼抑制阈值指示所述刺激接合所述个体的能力;以及
在所述处理器上执行以基于在所接收的眨眼数据中的眨眼抑制的量度是否满足所述眨眼抑制阈值将所述个体分类为一个或多个预定义类别的软件。
104.根据权利要求103所述的系统,还包括在所述处理器上执行以根据预定人口统计参数将所接收的眨眼数据分类的软件。
105.根据权利要求103所述的系统,其中,所述刺激包括下列中的一种或多种:动态刺激,动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维刺激或三维刺激。
106.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括所述个体在所述刺激期间的平均眨眼率。
107.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括所述个体的每时每刻眨眼率。
108.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
109.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
110.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括与预定对照眨眼数据相比的所接收的眨眼数据的量度。
111.根据权利要求103-105中的任一项所述的系统,其中,所述眨眼抑制的量度包括关于所述刺激中的事件的眨眼抑制的量度。
112.根据权利要求111所述的系统,其中,所述刺激中的事件包括物理事件或情感事件。
113.根据权利要求103-105以及112中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
114.根据权利要求103-105以及112中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
115.根据权利要求103-105以及112中的任一项所述的系统,还包括在所述处理器上执行以将所接收的眨眼数据转换为用于确定目的的二进制格式的软件。
116.根据权利要求103-105以及112中的任一项所述的系统,还包括在所述处理器上执行以根据预定人口统计参数将所接收的眨眼数据分类的软件。
117.根据权利要求103-105以及112中的任一项所述的系统,其中,所述眨眼抑制阈值指示精神状况的标记。
118.根据权利要求117所述的系统,其中,所述眨眼抑制阈值从跨正常状态到精神病理状态的范围选择。
119.根据权利要求103-105、112以及118中的任一项所述的系统,其中,用于所述个体的所述眨眼抑制的量度对应于全部的所述刺激。
120.根据权利要求103-105、112以及118中的任一项所述的系统,其中,用于所述个体的所述眨眼抑制的量度对应于所述刺激的一部分。
121.根据权利要求103-105、112以及118中的任一项所述的系统,其中,所述眨眼抑制阈值对应于用于诊断所述个体的精神状况的诊断量度。
122.根据权利要求103-105、112以及118中的任一项所述的系统,其中,所述眨眼抑制阈值对应于与所述刺激的接合的预定量度。
123.根据权利要求103-105、112以及118中的任一项所述的系统,其中,所述刺激是听觉刺激。
124.根据权利要求103-105、112以及118中的任一项所述的系统,其中,所述刺激是动态视觉刺激。
125.根据权利要求103-105、112以及118中的任一项所述的系统,其中,所述刺激是静态视觉刺激。
126.一种使用眼动监测装置评估、监测或诊断个体的精神障碍的系统,所述系统包括:
处理器;
在所述处理器上执行以接收指示所述个体对刺激的眨眼响应的眨眼数据的软件,其中,所接收的眨眼数据经由所述眼动监测装置收集;
在所述处理器上执行以同步所接收的眨眼数据和所述刺激的软件;
在所述处理器上执行以识别同步的眨眼数据中的眨眼抑制的模式的软件;
在所述处理器上执行以从数据库检索与视觉刺激相关的事件数据的软件;
在所述处理器上执行以比较所述同步的眨眼数据中的眨眼抑制的模式的参数和与所述视觉刺激相关的事件数据的参数以确定增量参数的软件,其中,所述增量参数指示所述个体具有精神障碍的可能性,其中所述眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,并且所述眨眼抑制的模式指示所述个体与所述刺激的同期部分接合的标记,所述刺激的同期部分是所述刺激与所述眨眼抑制的模式同期的部分,
其中基于所述接合的标记将所述个体分类为一个或多个预定义类别。
127.根据权利要求126所述的系统,还包括:
在所述处理器上执行以接收表示所述个体相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以接收表示对照组的每个成员相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以基于所述对照组的每个成员和所述个体的数据生成三维扫描路径的软件,其中,所述扫描路径的维度中的两个对应于所述每个成员和所述个体的关注点的位置,并且所述维度中的一个对应于时间;
在所述处理器上执行以识别所述对照组的成员的扫描路径的收敛的软件;以及
在所述处理器上执行以在收敛区中比较所述个体的扫描路径和所述对照组的成员的扫描路径的软件。
128.根据权利要求126或127所述的系统,其中,所述事件数据的参数包括预定的时间戳事件。
129.根据权利要求126或127所述的系统,其中,所述事件数据的参数包括时间值。
130.根据权利要求126或127所述的系统,其中,所述眨眼抑制的模式的参数包括时间值。
131.根据权利要求126或127所述的系统,其中所述增量参数包括超出预定阈值的时间值。
132.根据权利要求126或127所述的系统,其中所述增量参数包括小于预定阈值的时间值。
133.根据权利要求126或127所述的系统,还包括在所述处理器上执行以基于至少一个增量参数提供对所述个体的诊断的软件。
134.根据权利要求126或127所述的系统,其中,所述刺激是听觉刺激。
135.根据权利要求127所述的系统,其中,所述刺激是动态视觉刺激。
136.根据权利要求135所述的系统,其中,所述事件数据对应于下列中的一个或多个:在动态视觉刺激内的物理事件,在动态视觉刺激内的情感事件,假定基于动态视觉刺激引起或抑制眨眼的事件。
137.根据权利要求126或127所述的系统,其中,所述刺激是静态视觉刺激。
138.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述同步的步骤包括使所接收的眨眼数据与所述刺激时间锁定或时间相关。
139.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体在所述刺激期间的平均眨眼率。
140.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体的每时每刻眨眼率。
141.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述眨眼抑制的模式包括与所述个体的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
142.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述眨眼抑制的模式包括与对照组的平均眨眼率相比的所述个体在特定时间点的瞬间眨眼率的量度。
143.根据权利要求126-127以及135-136中的任一项所述的系统,其中,所述眨眼抑制的模式包括与所述个体的平均眨眼率方差的量度相比的所述个体的瞬间眨眼率的量度。
144.一种使用眼动监测装置评估、监测或诊断个体的精神障碍的系统,所述系统包括:
处理器;
在所述处理器上执行以接收指示所述个体对刺激的眨眼响应的眨眼数据的软件,其中,所接收的眨眼数据使用所述眼动监测装置收集;
在所述处理器上执行以同步所接收的眨眼数据和所述刺激的软件;
在所述处理器上执行以识别同步的眨眼数据中的眨眼抑制的模式的软件;
在所述处理器上执行以从数据库检索用于向所述个体显示的刺激的眨眼抑制的对照模式的软件;
在所述处理器上执行以比较所述同步的眨眼数据中的眨眼抑制的模式和所述眨眼抑制的对照模式,以确定所述眨眼抑制的模式是否落在所述眨眼抑制的对照模式的范围之外,并由此指示所述个体具有精神障碍的可能性的软件,其中所述眨眼抑制的模式包括所述个体的眨眼数据和与所述个体相关联的眨眼的几率之间的比较,并且所述眨眼抑制的模式指示所述个体与所述刺激的同期部分接合的标记,所述刺激的同期部分是所述刺激与所述眨眼抑制的模式同期的部分,
其中基于所述接合的标记将所述个体分类为一个或多个预定义类别。
145.根据权利要求144所述的系统,还包括:
在所述处理器上执行以接收表示所述个体相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以接收表示对照组的每个成员相对于所述刺激的眼动的眼动数据的软件;
在所述处理器上执行以基于所述对照组的每个成员和所述个体的数据生成三维扫描路径的软件,其中,所述扫描路径的维度中的两个对应于所述每个成员和所述个体的关注点的位置,并且所述维度中的一个对应于时间;
在所述处理器上执行以识别所述对照组的成员的扫描路径的收敛的软件;以及
在所述处理器上执行以在收敛区中比较所述个体的扫描路径和所述对照组的成员的扫描路径的软件。
146.根据权利要求144或145所述的系统,其中,所述刺激是听觉刺激。
147.根据权利要求145所述的系统,其中,所述刺激是动态视觉刺激。
148.根据权利要求145所述的系统,其中,所述刺激是静态视觉刺激。
149.根据权利要求145所述的系统,其中,所述刺激包括下列中的一种或多种:动态视觉刺激,预录视觉刺激,预录听觉刺激,预录视听刺激,现场视觉刺激,现场听觉刺激,现场视听刺激,二维视觉或视听刺激或三维视觉或视听刺激。
150.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所述精神障碍包括发育或认知障碍。
151.根据权利要求144-145以及147-149中的任一项所述的系统,其中,用于同步的软件还包括在所述处理器上执行使所接收的眨眼数据与所述刺激时间锁定或时间相关的软件。
152.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所述个体的所接收的眨眼数据对应于所述个体的瞳孔大小的变化率。
153.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所接收的眨眼数据对应于所述个体的眼睑闭合。
154.根据权利要求144-145以及147-149中的任一项所述的系统,还包括在所述处理器上执行以将所接收的眨眼数据转换为用于识别目的的二进制格式的软件。
155.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所述眨眼抑制的对照模式包括多个个体响应于动态视觉刺激的平均眨眼率。
156.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所述眨眼抑制的对照模式包括通过排列多个个体的所接收的眨眼数据获得的所述多个个体的平均眨眼率的概率分布。
157.根据权利要求156所述的系统,其中,排列所述多个个体的数据的步骤包括相对于眨眼数据收集的原始计时的循环移位。
158.根据权利要求156所述的系统,其中,排列所述多个个体的数据的步骤包括随机化每个个体的眨眼次序和眨眼间的间隔。
159.根据权利要求144-145、147-149以及157-158中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体在所述刺激期间的平均眨眼率。
160.根据权利要求144-145、147-149以及157-158中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体的每时每刻眨眼率。
161.根据权利要求144-145、147-149以及157-158中的任一项所述的系统,其中,所述眨眼抑制的模式包括所述个体在特定时间点的瞬间眨眼率的量度,以及所述眨眼抑制的对照模式包括用于对照组的瞬间眨眼率。
162.根据权利要求144-145以及147-149中的任一项所述的系统,其中,所述眨眼抑制的对照模式包括当不存在刺激时所述个体的平均眨眼率。
163.根据权利要求144-145、147-149以及157-158中的任一项所述的系统,其中,所述眨眼抑制的模式包括相对于所述刺激中的事件的眨眼抑制的量度。
164.根据权利要求163所述的系统,其中,所述刺激中的事件包括物理事件或情感事件。
165.根据权利要求144-145、147-149、157-158以及164中的任一项所述的系统,其中,所述眨眼抑制的对照模式指示精神障碍的严重程度。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261735865P | 2012-12-11 | 2012-12-11 | |
US61/735,865 | 2012-12-11 | ||
PCT/US2013/074487 WO2014093546A2 (en) | 2012-12-11 | 2013-12-11 | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104968270A CN104968270A (zh) | 2015-10-07 |
CN104968270B true CN104968270B (zh) | 2019-11-01 |
Family
ID=49958659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380072486.3A Active CN104968270B (zh) | 2012-12-11 | 2013-12-11 | 检测作为接合和感知刺激显著性的标记的眨眼抑制的系统和方法 |
Country Status (15)
Country | Link |
---|---|
US (7) | US10052057B2 (zh) |
EP (1) | EP2931126B1 (zh) |
JP (1) | JP6426105B2 (zh) |
KR (1) | KR102181927B1 (zh) |
CN (1) | CN104968270B (zh) |
AU (2) | AU2013359304B2 (zh) |
BR (1) | BR112015013489A2 (zh) |
CA (1) | CA2894414C (zh) |
ES (1) | ES2751380T3 (zh) |
HK (1) | HK1212182A1 (zh) |
IL (1) | IL239363B (zh) |
MX (1) | MX359676B (zh) |
NZ (1) | NZ709258A (zh) |
SG (1) | SG11201504601XA (zh) |
WO (1) | WO2014093546A2 (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10607305B2 (en) * | 2005-03-05 | 2020-03-31 | Jeb C. Griebat | Method for questioning jurors |
US10074024B2 (en) * | 2010-06-07 | 2018-09-11 | Affectiva, Inc. | Mental state analysis using blink rate for vehicles |
US9723992B2 (en) * | 2010-06-07 | 2017-08-08 | Affectiva, Inc. | Mental state analysis using blink rate |
US10482333B1 (en) * | 2017-01-04 | 2019-11-19 | Affectiva, Inc. | Mental state analysis using blink rate within vehicles |
GB2511237A (en) * | 2011-12-05 | 2014-08-27 | Gautam Singh | Computer implemented system and method for statistically assessing co-scholastic skills of user |
ES2751380T3 (es) * | 2012-12-11 | 2020-03-31 | Ami Klin | Sistemas y métodos para detectar inhibición de parpadeo como marcador de cautivación y prominencia de estímulo percibido |
WO2015057321A1 (en) * | 2013-10-17 | 2015-04-23 | Children's Healthcare Of Atlanta, Inc. | Methods for assessing infant and child development via eye tracking |
GB201319619D0 (en) * | 2013-11-06 | 2013-12-18 | Diamentech Ltd | System for assessing a mental health disorder |
US9357917B2 (en) * | 2014-07-28 | 2016-06-07 | Google Technology Holdings LLC | Method and apparatus for managing blinking |
JP6553418B2 (ja) * | 2015-06-12 | 2019-07-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 表示制御方法、表示制御装置及び制御プログラム |
CN105100791B (zh) * | 2015-09-02 | 2017-04-05 | 中国科学院软件研究所 | 一种用于测量立体视觉舒适度的系统及方法 |
US11972336B2 (en) * | 2015-12-18 | 2024-04-30 | Cognoa, Inc. | Machine learning platform and system for data analysis |
WO2017120469A1 (en) * | 2016-01-06 | 2017-07-13 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
US11540009B2 (en) | 2016-01-06 | 2022-12-27 | Tvision Insights, Inc. | Systems and methods for assessing viewer engagement |
FR3048542A1 (fr) * | 2016-03-01 | 2017-09-08 | Valeo Comfort & Driving Assistance | Dispositif et methode de surveillance personnalises d'un conducteur d'un vehicule automobile |
US10181078B1 (en) * | 2016-11-07 | 2019-01-15 | National Technology & Engineering Solutions Of Sandia, Llc | Analysis and categorization of eye tracking data describing scanpaths |
CA3044545A1 (en) | 2016-11-22 | 2018-05-31 | Janssen Pharmaceutica Nv | Methods of identifying schizophrenia patients at risk for relapse |
JP2018093350A (ja) * | 2016-12-01 | 2018-06-14 | 有限会社曽根地所 | 注目度評価システム |
CN106681495B (zh) * | 2016-12-08 | 2018-09-14 | 华南理工大学 | 一种基于eog的异步字符输入方法及装置 |
US12096308B2 (en) | 2016-12-15 | 2024-09-17 | Conquer Your Addiction Llc | Systems and methods for conducting/defending digital warfare or conflict |
US11412353B2 (en) | 2016-12-15 | 2022-08-09 | Conquer Your Addiction Llc | Systems and methods for monitoring for and preempting the risk of a future occurrence of a quarantine violation |
WO2018112047A2 (en) | 2016-12-15 | 2018-06-21 | Williams David H | Systems and methods of using wireless location, context, and/or one or more communication networks for monitoring for, preempting and/or mitigating pre-identified behavior |
US11636941B2 (en) | 2016-12-15 | 2023-04-25 | Conquer Your Addiction Llc | Dynamic and adaptive systems and methods for rewarding and/or disincentivizing behaviors |
US10497242B2 (en) | 2016-12-15 | 2019-12-03 | David H. Williams | Systems and methods for monitoring for and preempting pre-identified restriction violation-related behavior(s) of persons under restriction |
US10853897B2 (en) | 2016-12-15 | 2020-12-01 | David H. Williams | Systems and methods for developing, monitoring, and enforcing agreements, understandings, and/or contracts |
US11770574B2 (en) | 2017-04-20 | 2023-09-26 | Tvision Insights, Inc. | Methods and apparatus for multi-television measurements |
EP3461394A1 (en) * | 2017-10-02 | 2019-04-03 | Essilor International | Method and system for adapting the visual and/or visual-motor behaviour of a person |
US10841651B1 (en) * | 2017-10-10 | 2020-11-17 | Facebook, Inc. | Systems and methods for determining television consumption behavior |
JP6598141B2 (ja) * | 2017-11-16 | 2019-10-30 | マツダ株式会社 | 認知時機推定装置及び認知時機推定方法 |
KR102516751B1 (ko) * | 2018-03-22 | 2023-03-31 | 재팬 사이언스 앤드 테크놀로지 에이전시 | 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램 |
CN108932532A (zh) * | 2018-07-11 | 2018-12-04 | 杭州电子科技大学 | 一种针对视频显著性图预测所需的眼动数据数目建议方法 |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
CN109259775A (zh) * | 2018-08-30 | 2019-01-25 | 清华大学 | 一种人脸刺激范式生成方法及自闭症分析系统 |
CN110944232B (zh) * | 2018-09-21 | 2021-11-19 | 中国移动通信有限公司研究院 | 一种监测认知行为的方法、装置及机顶盒 |
AU2019376682A1 (en) * | 2018-11-09 | 2021-05-27 | Akili Interactive Labs, Inc, | Facial expression detection for screening and treatment of affective disorders |
JP7396681B2 (ja) * | 2018-12-17 | 2023-12-12 | 株式会社夏目綜合研究所 | 脳疾患の診断装置 |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
EP3964130A1 (en) * | 2020-09-03 | 2022-03-09 | Tata Consultancy Services Limited | System and method for eye-blink based assessment of sustained visual attention of a target |
CN112891164A (zh) * | 2021-01-13 | 2021-06-04 | 浙江工业大学 | 一种虚拟现实环境下的弱视康复训练专注度评估方法 |
BE1029415B1 (fr) * | 2021-05-19 | 2022-12-19 | P³Lab | Un système et un procédé de mesure de réactions d’un sujet, un programme d’ordinateur et un support lisible par ordinateur |
US20230095350A1 (en) * | 2021-09-17 | 2023-03-30 | Smart Science Technology, LLC | Focus group apparatus and system |
EP4197425A1 (en) * | 2021-12-17 | 2023-06-21 | Carl Zeiss Vision International GmbH | Determining a visual performance of an eye of a person |
US11903711B2 (en) | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
CN115990016B (zh) * | 2022-12-02 | 2024-04-19 | 天津大学 | 一种基于眼动特征的孤独特质程度检测装置 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4889422A (en) * | 1986-01-28 | 1989-12-26 | George Pavlidis | Method and means for detecting dyslexia |
US5035500A (en) | 1988-08-12 | 1991-07-30 | Rorabaugh Dale A | Automated ocular perimetry, particularly kinetic perimetry |
US5150716A (en) | 1991-01-28 | 1992-09-29 | Emile Franssen | System for diagnosis and staging of dementia by neurologic examination |
US5384593A (en) | 1993-08-05 | 1995-01-24 | Gell, Jr.; Harold A. | Method and apparatus for reflex blink reaction conditioning |
US5880812A (en) | 1997-03-13 | 1999-03-09 | Ramot-University Authority For Applied Research And Industrial Development, Ltd. | Method and apparatus for evaluating and mapping visual field |
WO1999018842A1 (en) | 1997-10-16 | 1999-04-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
AU741194B2 (en) | 1998-04-10 | 2001-11-22 | Visual Awareness Research Group, Inc. | Method and apparatus for training visual attention capabilities of a subject |
US6231187B1 (en) | 1999-02-11 | 2001-05-15 | Queen's University At Kingston | Method and apparatus for detecting eye movement |
US6116736A (en) | 1999-04-23 | 2000-09-12 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection capability |
US6120461A (en) | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
ATE511784T1 (de) | 2000-04-17 | 2011-06-15 | Univ Sydney | Verfahren zur objektiven elektrophysiologischen bewertung der visuellen funktion |
US6601021B2 (en) | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
US6670963B2 (en) | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US6755527B1 (en) | 2001-12-14 | 2004-06-29 | Oracle International Corporation | Techniques for analyzing eye movements |
JP3625064B2 (ja) | 2002-06-28 | 2005-03-02 | 独立行政法人理化学研究所 | 眼底の立体表示および座標計測装置 |
US20040015098A1 (en) | 2002-07-19 | 2004-01-22 | Souvestre Philippe A. | Dynamic ocular visual monitoring system |
WO2005013455A1 (en) | 2003-08-05 | 2005-02-10 | Matsushita Electric Industrial Co., Ltd. | Direct-current power supply and battery-powered electronic apparatus equipped with the power supply |
WO2005018455A1 (en) | 2003-08-21 | 2005-03-03 | Peter Geoffrey Burton | Cognitive processing |
US7819818B2 (en) | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
US20050273017A1 (en) | 2004-03-26 | 2005-12-08 | Evian Gordon | Collective brain measurement system and method |
JP4586443B2 (ja) | 2004-07-16 | 2010-11-24 | トヨタ自動車株式会社 | 情報提供装置 |
US7396129B2 (en) | 2004-11-22 | 2008-07-08 | Carestream Health, Inc. | Diagnostic system having gaze tracking |
US20060167670A1 (en) | 2005-01-26 | 2006-07-27 | Deering Michael F | Photon-based modeling of the human eye and visual perception |
US7922670B2 (en) * | 2005-02-24 | 2011-04-12 | Warren Jones | System and method for quantifying and mapping visual salience |
JP2007002630A (ja) | 2005-06-27 | 2007-01-11 | Fuji Electric Retail Systems Co Ltd | 扉ロック装置および自動販売機 |
WO2007102053A2 (en) * | 2005-09-16 | 2007-09-13 | Imotions-Emotion Technology Aps | System and method for determining human emotion by analyzing eye properties |
US7384145B2 (en) | 2006-02-16 | 2008-06-10 | The Board Of Trustees Of The University Of Illinois | Mapping retinal function using corneal electrode array |
WO2008129356A2 (en) * | 2006-03-13 | 2008-10-30 | Imotions-Emotion Technology A/S | Visual attention and emotional response detection and display system |
WO2008088070A1 (ja) * | 2007-01-19 | 2008-07-24 | Asahi Kasei Kabushiki Kaisha | 覚醒状態判定モデル生成装置、覚醒状態判定装置及び警告装置 |
US7824034B2 (en) | 2007-09-19 | 2010-11-02 | Utc Fire & Security Americas Corporation, Inc. | Iris imaging system and method for the same |
WO2009097430A1 (en) | 2008-02-01 | 2009-08-06 | Lonky Martin L | Methods and techniques to measure, map and correlate ocular micro-tremor (omt) signals |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
AU2009326857B2 (en) | 2008-12-09 | 2016-05-26 | Stephanie Fryar-Williams | Novel biomarkers |
US8808195B2 (en) | 2009-01-15 | 2014-08-19 | Po-He Tseng | Eye-tracking method and system for screening human diseases |
WO2011024134A1 (en) | 2009-08-26 | 2011-03-03 | Ecole Polytechnique Federale De Lausanne (Epfl) | Wearable systems for audio, visual and gaze monitoring |
CN101813976A (zh) * | 2010-03-09 | 2010-08-25 | 华南理工大学 | 基于soc的视线跟踪人机交互方法及装置 |
US8371693B2 (en) | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
US9545224B2 (en) | 2010-11-08 | 2017-01-17 | Optalert Australia Pty Ltd | Fitness for work test |
JP5912351B2 (ja) | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
GB201200122D0 (en) | 2012-01-05 | 2012-02-15 | Univ Aberdeen | An apparatus and a method for psychiatric evaluation |
WO2013142771A1 (en) | 2012-03-22 | 2013-09-26 | The Curators Of The University Of Missouri | Device to measure pupillary light reflex in infants and toddlers |
US8668337B2 (en) | 2012-04-18 | 2014-03-11 | TBI Diagnostics LLC | System for the physiological evaluation of brain function |
ES2751380T3 (es) * | 2012-12-11 | 2020-03-31 | Ami Klin | Sistemas y métodos para detectar inhibición de parpadeo como marcador de cautivación y prominencia de estímulo percibido |
-
2013
- 2013-12-11 ES ES13821539T patent/ES2751380T3/es active Active
- 2013-12-11 MX MX2015007409A patent/MX359676B/es active IP Right Grant
- 2013-12-11 CN CN201380072486.3A patent/CN104968270B/zh active Active
- 2013-12-11 KR KR1020157018671A patent/KR102181927B1/ko active IP Right Grant
- 2013-12-11 CA CA2894414A patent/CA2894414C/en active Active
- 2013-12-11 JP JP2015547517A patent/JP6426105B2/ja not_active Expired - Fee Related
- 2013-12-11 SG SG11201504601XA patent/SG11201504601XA/en unknown
- 2013-12-11 AU AU2013359304A patent/AU2013359304B2/en active Active
- 2013-12-11 US US14/651,424 patent/US10052057B2/en active Active
- 2013-12-11 US US14/103,640 patent/US9510752B2/en active Active
- 2013-12-11 NZ NZ709258A patent/NZ709258A/en not_active IP Right Cessation
- 2013-12-11 EP EP13821539.7A patent/EP2931126B1/en active Active
- 2013-12-11 WO PCT/US2013/074487 patent/WO2014093546A2/en active Application Filing
- 2013-12-11 BR BR112015013489A patent/BR112015013489A2/pt active Search and Examination
-
2015
- 2015-06-11 IL IL239363A patent/IL239363B/en active IP Right Grant
- 2015-12-31 HK HK15112918.7A patent/HK1212182A1/zh not_active IP Right Cessation
-
2016
- 2016-09-28 US US15/278,598 patent/US10016156B2/en active Active
- 2016-09-28 US US15/278,557 patent/US9861307B2/en active Active
-
2018
- 2018-07-16 US US16/036,322 patent/US10987043B2/en active Active
- 2018-08-28 AU AU2018222906A patent/AU2018222906B2/en active Active
-
2021
- 2021-03-22 US US17/208,177 patent/US11759135B2/en active Active
-
2023
- 2023-08-01 US US18/363,323 patent/US20240023859A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104968270B (zh) | 检测作为接合和感知刺激显著性的标记的眨眼抑制的系统和方法 | |
US11200964B2 (en) | Short imagery task (SIT) research method | |
Haller et al. | Measuring online interpretations and attributions of social situations: Links with adolescent social anxiety | |
US8296172B2 (en) | Method and system for determining audience response to a sensory stimulus | |
CA2758272A1 (en) | Method and system for measuring user experience for interactive activities | |
Minissi et al. | Biosignal comparison for autism assessment using machine learning models and virtual reality | |
Lee et al. | Real-time psychophysiological approaches to explore emotional and cognitive processing of VR-mediated sports | |
Pradeep | A study on enhancing virtual reality visualization with hologram technology and bio-signal interactive architectures | |
Kirkorian | Age differences in eye movements during video viewing | |
Macabulos | Keeping the lecture alive: strategies for supporting sustained attention during online lectures and their impact on memory | |
Taylor | Multisensory Integration in Early Toddlerhood: Interrelationships with Context, SES and Expressive Vocabulary | |
AU2013273825B2 (en) | Method and System for Determining Audience Response to a Sensory Stimulus | |
KALANSOORIYA | A study on enhancing virtual reality visualization with hologram technology and bio-signal interactive architectures | |
Gackowski et al. | “My Little Pony” in adults' eyes. How do men and women watch cartoons? An eye-tracking experiment | |
Gudmundson | The effects upon specific nonverbal behaviors of focusing student clinician's attention on these behaviors through videotape feedback and instruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |