CN101686815A - 人的状态推定装置以及方法 - Google Patents
人的状态推定装置以及方法 Download PDFInfo
- Publication number
- CN101686815A CN101686815A CN200880021403A CN200880021403A CN101686815A CN 101686815 A CN101686815 A CN 101686815A CN 200880021403 A CN200880021403 A CN 200880021403A CN 200880021403 A CN200880021403 A CN 200880021403A CN 101686815 A CN101686815 A CN 101686815A
- Authority
- CN
- China
- Prior art keywords
- people
- personal attribute
- state
- archives
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000033001 locomotion Effects 0.000 claims abstract description 117
- 230000004424 eye movement Effects 0.000 claims abstract description 80
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 59
- 238000005259 measurement Methods 0.000 claims abstract description 31
- 238000004458 analytical method Methods 0.000 claims description 77
- 210000001747 pupil Anatomy 0.000 claims description 68
- 230000009191 jumping Effects 0.000 claims description 61
- 230000003340 mental effect Effects 0.000 claims description 37
- 206010044565 Tremor Diseases 0.000 claims description 20
- 201000010099 disease Diseases 0.000 claims description 19
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 claims description 19
- 230000008451 emotion Effects 0.000 claims description 19
- 230000004438 eyesight Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 208000030533 eye disease Diseases 0.000 claims description 15
- 210000001835 viscera Anatomy 0.000 claims description 15
- 230000003565 oculomotor Effects 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 4
- 230000004459 microsaccades Effects 0.000 abstract 2
- 230000008859 change Effects 0.000 description 20
- 210000003786 sclera Anatomy 0.000 description 15
- 210000004087 cornea Anatomy 0.000 description 14
- 210000001508 eye Anatomy 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000010191 image analysis Methods 0.000 description 7
- 230000008676 import Effects 0.000 description 6
- 210000000744 eyelid Anatomy 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000000638 stimulation Effects 0.000 description 5
- 206010022998 Irritability Diseases 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 208000019901 Anxiety disease Diseases 0.000 description 3
- 206010049976 Impatience Diseases 0.000 description 3
- 238000004378 air conditioning Methods 0.000 description 3
- 230000036506 anxiety Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000035479 physiological effects, processes and functions Effects 0.000 description 3
- 230000004439 pupillary reactions Effects 0.000 description 3
- 230000036962 time dependent Effects 0.000 description 3
- 230000002792 vascular Effects 0.000 description 3
- 206010012374 Depressed mood Diseases 0.000 description 2
- 208000006550 Mydriasis Diseases 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 2
- 208000030451 Vascular dementia disease Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000003925 brain function Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000004446 light reflex Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000004904 shortening Methods 0.000 description 2
- 244000205754 Colocasia esculenta Species 0.000 description 1
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 206010028347 Muscle twitching Diseases 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 210000000467 autonomic pathway Anatomy 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002969 morbid Effects 0.000 description 1
- 230000004899 motility Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000004379 myopia Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/161—Flicker fusion testing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Developmental Disabilities (AREA)
- Child & Adolescent Psychology (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Pathology (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Abstract
提供一种能够以高精度来推定人的状态的人的状态推定装置。该人的状态推定装置包括:存储部(16),存储有基准数据(17),该基准数据(17)是人的状态和基准档案针对多个个人属性信息的每一个而对应起来的数据,所述基准档案包括该人的状态的标准的微跳视的运动的水平成分;影像获得部(11),以眼球的旋转角度的精度在0.05度以上,且以每秒120样本以上的计测速度,获得利用者的眼球的影像;分析部(12),从影像所示出的注视眼动中,生成包括微跳视的运动的水平分量的实测档案;个人属性信息获得部(13),获得利用者的个人属性信息;以及推定部(15),通过在基准数据(17)中搜索与获得的个人属性信息相对应,且与实测档案最接近的基准档案,从而来推定人的状态。
Description
技术领域
本发明涉及推定心理状态、感情状态、思考状态等人的状态的装置,尤其涉及根据人的眼球的注视眼动(fixational eye movement)来推定人的状态的装置。
背景技术
近些年,随着以数码电视为代表的电子设备的多功能化、多功能一体化、系统化的不断地发展,使用方法以及操作顺序也逐渐变得复杂。并且,随着用户的使用状况、使用形态的多样化,则期望有符合个人的状态的迎合客户需求的人机交互系统(human-machineinterface:HMI),这样,用于高精确地推定并计测使用者的心理状态、感情状态、思考状态等的人的状态的装置以及方法就成为了受到关注的重要要素。
以往,对于这种对人的状态进行的推定,尝试了各种方法(例如,参照专利文献1)。在专利文献1中提出了一种注视眼动检查装置,检测指标被提示到指标板时的被实验者的眼球的运动,根据被检测出的眼球的运动,从视线移动的时间变化中鉴别注视眼动成分的异常,并判断与脑功能有关的疾患。根据这种装置,通过测定并分析被实验者的眼球的注视眼动,从而能够容易地检查被实验者的脑内的眼球运动控制组织的异常,这样,能够容易地鉴别脑血管性痴呆症等。
并且,“注视眼动(fixational eye movement)”是眼球运动的一种,即使在有意识地注视静止物体的情况下,也会时常出现不自主的细微的眼睛的震颤。
专利文献1日本 特开平6-154167号公报
然而,在上述的专利文献1中公开的注视眼动检查装置中,虽然能够判断与脑血管性痴呆症等脑功能有关的疾患,但是存在不能确定心理状态、感情状态、思考状态等人的状态的问题。也就是说,虽然能够判断具有明确的异常状态的疾患,但是存在不能判断包括健康者的微妙的精神状态、心理状态、感情状态、思考状态的人的状态的问题,心理状态例如是在操作电子设备时的困惑、不安、急躁、焦急等,感情状态例如是愉快/不愉快、兴奋/沉静等,思考状态例如是没有考虑任何事物的状态、思考计算课题的状态、想起昨天的晚饭等状态。
发明内容
于是,本发明鉴于上述问题,目的在于提供一种人的状态推定装置,能够高精确度地推定心理状态、感情状态、思考状态等人的状态。
为了达到上述的目的,本发明所涉及的人的状态推定装置根据利用者的眼球的注视眼动,对心理状态、感情状态以及思考状态之中的至少一种人的状态进行推定,其中包括:存储部,存储有基准数据,该基准数据是所述人的状态和基准档案针对多个个人属性信息的每一个而对应起来的数据,所述基准档案包括微眼跳的运动中作为眼球的左右方向的分量的水平分量,所述微眼跳包括在所述人的状态中的标准的眼球的注视眼动中,所述个人属性信息至少示出人的年龄段、视力以及患病状态之中的一个;影像获得部,以眼球的旋转角度的精度在0.05度以上,且以每秒120样本以上的计测速度,获得示出眼球的运动的影像,该眼球的运动包括利用者的眼球的注视眼动;分析部,从所述影像所示出的注视眼动中,抽出微眼跳的运动的水平分量,并生成包括抽出的水平分量的实测档案;个人属性信息获得部,获得所述利用者的个人属性信息;以及推定部,在所述存储部所存储的基准数据中,搜索与在所述个人属性信息获得部获得的个人属性信息相对应,且与所述实测档案最接近的基准档案,并将与搜索到的基准档案相对应的人的状态决定为针对所述利用者而推定的人的状态。据此,不仅利用个人属性的类似性而且还利用对人的状态的依存性较高的微跳视的水平分量来推定人的状态,因此与以往的仅根据注视眼动来推定人的状态的装置相比,能够以更高的精度来进行人的状态的推定。
在此,“微跳视”是注视眼动之一,是一种小的跳跃式运动,是将跳跃运动(跳视)变小的运动。并且,注视眼动中除了微跳视之外,还有被称为“漂移”和“震颤(tremor)”的运动。“漂移”是一种平滑的运动,“震颤”是一种非常小的高频震动。
并且,最好是,所述基准档案中包含有作为微跳视的运动的水平分量的频率分量,该频率分量是,相当于注视眼动的水平分量中作为微跳视而被平均观察的周期的频率中的频率分量;所述分析部对所述注视眼动的水平分量的时间变化进行频率分析,并算出通过频率分析而得到的频谱中的所述频率分量,以作为所述微跳视的运动的水平分量。据此,由于微跳视是在平均2~3Hz的周期中被观察到的,因此该频带上的运动符合微跳视的运动,这样,通过利用这种现象,从而能够确实地仅抽出微跳视的运动,提高人的状态的推定精度。
并且,也可以是,所述基准档案中还包括与漂移以及震颤、瞳孔直径相关的信息,所述漂移以及震颤均为注视眼动中的一种;所述分析部还从所述注视眼动中抽出与所述漂移以及所述震颤、瞳孔直径相关的信息,并生成包括被抽出的信息的实测档案;所述推定部除所述微跳视的运动的水平分量以外,还对照与所述漂移以及所述震颤、瞳孔直径相关的信息,以搜索与所述实测档案最接近的基准档案。据此,不仅利用微跳视,而且还利用与依存于人的状态的眼球运动有关的各种参数来推定人的状态,从而进一步提高人的状态的推定精度。
并且,也可以是以下的构成:所述分析部还根据在所述影像获得部获得的影像对眼球运动进行分析,所述眼球运动至少包括所述利用者的视线方向、视线移动轨迹、视线停留时间、会聚与分散、注视眼动的动态特性、眼跳的动态特性、瞳孔直径以及瞳孔的动态特性中的一个;所述个人属性信息获得部具有个人属性表,该个人属性表示出眼球运动和个人属性信息的对应关系,通过参照所述个人属性表,来确定与在所述分析部得到的眼球运动的分析结果相对应的个人属性信息,并获得被确定的个人属性信息以作为所述利用者的个人属性信息。据此,能够从被用于推定人的状态的影像自动地生成个人属性信息,从而可以省去利用者输入个人属性信息的操作。
并且,也可以是以下的构成:所述人的状态推定装置还包括登记部,该登记部获得用于确定所述利用者的人的状态的信息,并将获得的信息和针对该利用者而在所述个人属性信息获得部获得的个人属性信息以及在所述分析部生成的实测档案对应起来,以作为新的基准数据登记到所述存储部。据此,通过事先提示利用者的人的状态,从而用于人的状态的推定的基准数据被重新登记并被更新,因此通过学习功能,能够提高人的状态的推定精度。
并且,本发明不仅可以作为对这种眼球运动进行计测并对人的状态进行推定的人的状态推定装置来实现,而且可以作为人的状态推定方法来实现,也可以作为使计算机执行包含上述方法的程序来实现,还可以作为记录这些程序的CD-ROM等计算机可读取的记录介质来实现。例如,将这些程序作为HMI评价函数或作为包括疾病的身体评价函数,设置到被组装在家电设备、车载设备、住宅等接口中,这样,能够对符合个人的状态的满足用户需求的HMI进行控制,并且能够对符合个人的健康状态的管理和疾病的早期发现以及疾病状态的监视、空调以及环境进行控制。
根据本发明,由于能够利用人的年龄段、视力以及患病状态等个人属性的相似性,并利用对心理状态、感情状态以及思考状态等人的状态依赖性较大的微跳视的水平分量来推定人的状态,因此能够以比仅根据注视眼动来推定人的状态的以往的装置更高的精度来推定人的状态。
附图说明
图1是示出本发明所涉及的人的状态推定装置的应用例子的图。
图2是本发明的实施例中的人的状态推定装置的功能构成方框图。
图3是示出个人属性信息的数据结构的图。
图4是示出人的状态信息的数据结构的图。
图5是示出基准数据的数据结构的图。
图6是图2中的眼球运动分析部的详细构成的功能方框图。
图7是用于说明计测水平方向的视线的方法的图。
图8是用于说明计测垂直方向的视线的方法的图。
图9是人的状态推定装置进行人的状态推定的工作流程图。
图10是人的状态推定装置自动生成个人属性信息的工作流程图。
图11是人的状态推定装置进行基准数据登记的工作流程图。
图12是用于计测注视眼动的计测装置的构成图,(a)是计测装置的侧视图,(b)是计测装置的概观图。
图13是示出计测装置中的高速摄像机的光轴和眼球的视轴的关系的图。
图14示出了注视眼动的运动轨迹的一个例子。
图15是用于说明注视眼动的水平分量以及垂直分量随时间变化的图,(a)示出了关于视标以及注视点的计测条件,(b)示出了注视眼动中的运动的水平分量以及垂直分量随时间变化的图。
图16是用于说明精神状态和微跳视的相关关系的图,(a)示出了关于视标的计测条件,(b)示出了没有对被实验者做出任何要求时的一般状态下的注视眼动,(c)示出了被实验者在数质数时的注视眼动的轨迹。
图17示出了瞳孔计测实验的内容。
图18示出了关于瞳孔直径的变动的例子,(a)示出了基线的数据,(b)~(d)分别示出了刺激出示间隔为1秒、2秒、3秒时的数据。
图19示出了瞳孔直径的变动的个人差异的例子。
图20出了在各种心理状态下的瞳孔直径的变化的个人差异的例子,(a)示出了被实验者1的心理状态的数据,(b)示出了被实验者2的心理状态的数据。
符号说明
1 数码电视
2 摄像机
3 遥控器
10 人的状态推定装置
11 影像获得部
12 分析部
12a 图像提取部
12b 眼球运动分析部
13 个人属性信息获得部
13a 个人属性表
14 输入部
15 推定部
16 存储部
17 基准数据
17a 个人属性信息
17b 人的状态信息
17c 基准档案
18 登记部
19 显示部
20 眼球图像分配控制部
21 巩膜图像分析部
22 角膜图像分析部
32 广角摄像机
33 高倍率透镜
38 高速摄像机
具体实施方式
以下,参照附图对本发明的实施例进行详细说明。
图1示出了本发明所涉及的人的状态推定装置的应用例子。本发明所涉及的人的状态推定装置是一种装置,通过被设置在数码电视1的上部的摄像机2,获得包括利用者(在此为数码电视1的操作者)的眼球的影像,并根据该影像分析利用者的眼球的注视眼动,并根据该分析结果来推定利用者的心理状态、感情状态以及思考状态之中的至少一种人的状态,该人的状态推定装置被组装在摄像机2或数码电视1之中。数码电视1向利用遥控器3进行操作的利用者提供,符合由人的状态推定装置推定的人的状态的操作菜单。例如,对被推定为处于困惑状态的利用者提供更详细的操作菜单。
图2是本发明所涉及的人的状态推定装置10的功能构成方框图。如本图所示,人的状态推定装置10是一种装置,根据利用者的眼球的注视眼动,来推定心理状态、感情状态以及思考状态之中的至少一种人的状态,该人的状态推定装置10包括:影像获得部11、分析部12、个人属性信息获得部13、输入部14、推定部15、存储部16、登记部18以及显示部19。
影像获得部11是动态图像用摄像机,以精确度在0.05度以上的眼球旋转角度,并且计测速度在每秒120样本以上的速度,来获得示出包括利用者的眼球的注视眼动的眼球运动的影像,与图1中的摄像机2相对应。该影像获得部11不仅可以是可见光摄像机而且也可以是红外线(近红外光)摄像机等。
并且,0.05是在确实地检测注视眼动时被要求的最低限度的眼球旋转角度的精度(最大容许误差),并且是将眼球表面上的10μm换算成眼球旋转角度的值(10μm/12mm(人的眼球的平均半径)×180/π)。在此,将眼球表面上的10μm作为最低限度的精度是因为,在注视眼动中漂移的最小振幅被定义为20μm(芋阪良二、中沟幸夫、古贺一男编《眼球运动的实验心理学》名古屋大学出版会:非专利文献1),因此以其一半的精度来检测眼球表面上的任意点的移动距离,这样就能够检测注视眼动中的漂移以及比漂移的振幅更大的微跳视。
而且,本发明的发明人在实际计测眼球的注视眼动之时发现,小型的微跳视的振幅在0.1度左右。因此,要想确实地计测这种微跳视,就需要将振幅减小一半,也就是说需要0.05度的分辨率。
并且,计测速度在每秒120样本以上是因为微跳视的运动速度为50~100Hz(上述的非专利文献1),因此以超过该速度的帧率对图像进行取样,从而能够确实地检测微跳视。
并且,本发明的发明人在实际计测眼球的注视眼动之时还发现,小型微跳视的往复时间在25ms前后。为了确实地检测这种微跳视,就需要将采样周期降到这种微跳视的往复时间的1/3以下,也就是说需要在25/3=8.3ms以下。因此,要想确实地检测小型的微跳视,每秒的样本数就需要在120以上。
分析部12是通过对在影像获得部11获得的影像进行图像处理,从而由生成示出利用者的眼球运动的实测档案的CPU、存储器、程序等来实现的处理部,该分析部12具有图像提取部12a和眼球运动分析部12b。
图像提取部12a通过对构成从影像获得部11发送来的影像的各个图片进行轮廓处理等,从而提取出利用者的脸部图像。
眼球运动分析部12b对在图像提取部12a提取的脸部图像中的眼球的运动进行分析,该眼球的运动是指:利用者的视线方向、视线移动轨迹、视线停留时间、会聚和分散、瞬眼的频率、瞬眼的动态特性(闭上眼睑时所需要的时间和睁开眼睑时所需要的时间)、瞳孔直径、瞳孔的动态特性(在光量的变化被检测出时瞳孔直径的变化率以及变化率的频率分析图形特性)、跳视的动态特性(移动速度以及校正跳视、或朝向水平方向和垂直方向的不均匀、振幅等)以及注视眼动的动态特性(注视眼动轨迹、眼动速度、眼动频率分析图形、振幅特性等)。
例如,该图像提取部12a不仅通过从脸部图像中求出视线方向的移动轨迹,从而对注视眼动(微跳视、漂移以及震颤)的动态特性进行分析,而且通过针对脸部图像来识别瞳孔的图像,从而将确定瞳孔直径以及表示这些分析结果的信息(眼球运动参数的值)作为实测档案发送到推定部15以及登记部18。并且,该眼球运动分析部12b根据事先的设定,对在图像提取部12a提取出的脸部图像确定瞳孔的位置以及大小,并算出时间变化,据此来对包括利用者的视线方向、视线移动轨迹、视线停留时间、会聚和分散、注视眼动的动态特性、跳视的动态特性、瞳孔直径以及瞳孔的动态特性的眼球运动进行分析,并将表示该分析结果的眼球运动信息发送到个人属性信息获得部13。
个人属性信息获得部13是由CPU、存储器、程序等来实现的处理部,该个人属性信息获得部13获得表示利用者的年龄段、视力以及患病状态中的至少一个的个人属性信息,以作为用于提高该人的状态推定装置10在进行人的状态推定时的精度的信息,并将获得的个人属性信息发送到推定部15以及登记部18。具体而言,该个人属性信息获得部13具有示出眼球运动和个人属性信息之间的对应关系的个人属性表13a,在眼球运动信息由分析部12发送来的情况下,通过参照该个人属性表13a,来确定与从分析部12发送来的眼球运动信息相对应的个人属性信息,并将确定的个人属性信息作为利用者的个人属性信息来获得,另外,在眼球运动信息由分析部12没有被发送来的情况下,则利用输入部14,通过从利用者获得有关利用者的年龄段、视力以及患病状态的信息,从而获得个人属性信息。
图3示出了个人属性信息的数据结构。个人属性信息包括:存储有用于确定年龄段范围的“年龄段属性值”的字段,存储有例如1.0等视力的字段,以及存储有用于确定图中所示的患病状态的某一个的数值的字段。并且,各个字段中也可以存储表示不明确、标准值(默认值)等的值。
输入部14是利用者用于输入个人属性信息以及人的状态的操作键、键盘、鼠标等,与图1中的遥控器3相对应。该输入部14将个人属性信息输出到个人属性信息获得部13,将用于确定人的状态的信息(“人的状态信息”)输出到登记部18。
图4示出了人的状态信息的数据结构。人的状态信息包括:存储有用于确定平静、不安、困惑等至少一个心理状态的数值的字段,存储有用于确定愉快或不愉快的程度、兴奋或沉静的程度、紧张或弛缓的程度等中的至少一种感情状态的数值的字段,以及存储有用于确定给予了计算课题的状态、给予了记忆课题的状态、给予了思考课题的状态等中的至少一种思考状态的数值的字段。
存储部16是用于存储基准数据17的存储器以及硬盘等存储装置,该基准数据17是针对多个个人属性信息的每一个而将人的状态和基准档案对应起来的数据,该基准档案是有关该人的状态中的标准的眼球运动的信息。在此,基准档案中包括:示出微跳视的运动的水平分量(眼球的左右方向的分量)的信息(更具体而言,注视眼动的水平分量中的,作为微跳视被平均观察的相当于周期的频率的频率分量),与漂移和震颤有关的信息,以及与瞳孔直径有关的信息等。
图5示出了基准数据17的数据结构。基准数据17是针对多个不同的个人属性信息17a的每一个,而被登记的人的状态信息17b和基准档案17c的对应关系的数据。在此,基准档案17c是与人的状态信息17b相对应的事先被登记的眼球运动参数的集合。在图5中示出了针对其中的一个个人属性信息17a登记的人的状态信息17b和基准档案17c的对应关系。在此,被存储的典型数值是:针对年龄段为50~60岁、视力为所有的范围、患病状态为健康人的个人属性的人(个人属性信息17a),在人的状态为“心理状态为不安、感情状态为不愉快、思考状态为无”的情况下(人的状态信息17b),眼球运动参数的值平均为多少,例如,微跳视的运动的水平分量的值是多少(基准档案17c的“注视(左右)”),有关漂移以及震颤的信息的值是多少(基准档案17c的“注视(左/右)”),有关瞳孔直径的信息的值是多少(基准档案17c的“瞳孔直径(左/右)”)等。
推定部15是由CPU、存储器、程序等来实现的处理部,在存储部16中所存储的基准数据17中,搜索与从个人属性信息获得部13发送来的个人属性信息相对应,且与从分析部12发送来的实测档案最接近的基准档案,并将与搜索到的基准档案相对应的人的状态作为针对利用者推定的人的状态来决定,并将表示决定了的人的状态的信息通知到显示部19。
显示部19是显示由推定部15发送来的人的状态信息,或者是向利用者显示操作菜单的LCD(Liquid Crystal Display:液晶显示器)、PDP(Plasma Display Panel:等离子显示板)、有机EL(Electro Luminescent:电致发光)显示器、CRT(Cathode Ray Tube:阴极射线管)等,与图1中的数码电视1的画面相对应。
登记部18是由CPU、存储器、程序等来实现的处理部,利用输入部14获得确定利用者的人的状态的信息,将获得的信息和从个人属性信息获得部13发送来的针对该利用者的个人属性信息以及从分析部12发送来的实测档案对应起来,作为新的基准数据17登记到存储部16。这样,该人的状态推定装置10不仅对人的状态进行推定,而且还对成为该推定的基准的数据(基准数据17)进行添加、更新并学习。
在此,对由眼球运动分析部12b所进行的详细的眼球运动的分析以及分析眼球运动的意义进行说明。
图6是图2所示的眼球运动分析部12b的详细构成的功能方框图。眼球运动分析部12b包括:眼球图像分离控制部20、巩膜图像分析部21以及角膜图像分析部22。
眼球图像分离控制部20从由图像提取部12a提取的脸部图像中检测图像的对比度以及色调的变化,并分离出巩膜(白眼珠)图像和角膜(黑眼珠)图像,并将有关巩膜图像的信息发送到巩膜图像分析部21,将有关角膜图像的信息发送到角膜图像分析部22。巩膜图像分析部21通过巩膜上的血管图形的DP(动态规划:Dynamic Programming)匹配,来分析注视眼动的动态特性。角膜图像分析部22通过利用轮廓抽出等对虹彩以及瞳孔进行抽出、分析,从而算出有关角膜的静态特性(位置、大小等)以及动态特性(位置、大小等的时间变化)。这些在巩膜图像分析部21以及角膜图像分析部22的分析结果作为示出利用者的眼球运动的实测档案被发送到推定部15以及登记部18,或者作为用于自动生成个人属性信息的眼球运动信息被发送到个人属性信息获得部13。并且在仅利用巩膜图像对眼球运动进行分析的情况下,在构成上也可以不具有角膜图像分析部22。
并且,在眼球运动分析部12b,通过巩膜图像分析部21以及角膜图像分析部22,从由图像提取部12a提取的脸部图像中,对视线方向进行分析。作为分析方法可以如图7和图8所示,通过水平方向和垂直方向的巩膜和角膜的位置关系以及比例,从而利用者所注视的显示部19(画面)上的点被识别。图7是用于说明计测水平方向的视线的方法的图。在此示出了通过水平方向的巩膜和角膜的位置关系以及比例来确定视线的水平方向的样子。并且,图8是用于说明计测垂直方向的视线的方法的图。在此示出了通过垂直方向的巩膜和角膜的位置关系以及比率来确定视线的垂直方向的样子。
一般而言,可以仅通过水平方向和垂直方向的眼球与动信息来检测视线方向,由于不能检测深度,因此从眼球运动信息中进一步检测左右眼的会聚(也就是在看近处时对眼的状态)以及分散(在看远处时离散的状态),并抽出三维的注视点。为了进一步提高对会聚与分离进行检测的精度,可以通过利用预先的校准来计测在看显示部19时的对眼以及离散的状态的程度,来进行检测。
在实施例中,当人的状态推定装置10被起动时,影像获得部11就开始对利用者的脸部进行摄像。在人的状态推定装置10进行工作过程中,例如可以以一分钟为单位来分析前一分钟的利用者的影像,并利用眼球运动信息来推测心理状态、感情状态或者思考状态,并将推测的人的状态输出到显示部19。并且,能够按照该人的状态来使画面的显示状态发生变化,或者变更设备的控制方法。也就是说,人的状态推定装置10例如可以以一分钟为单位,按照利用者的人的状态来改变画面的显示状态。并且,影像获得部11开始对利用者的脸部进行摄像。被摄像的图像数据被蓄积到图中没有示出的缓冲存储器中。在此,例如在上述的近红外光的图像中,由于在虹彩的反射率较高,因此只有瞳孔是暗的,虹彩的明暗度略比眼球的白眼珠部分暗一些。也就是说,在近红外线的图像中的亮度顺序是,瞳孔是最暗的,其次是虹彩、白眼珠、眼睑等皮肤。因此,能够利用该亮度的差来识别瞳孔和眼睑等。
并且,也可以根据瞳孔的直径的变动来推定利用者的生理以及心理状态。在光入射到眼睛时瞳孔变小(称为对光反应),在暗处瞳孔放大。瞳孔直径在人年少时,可以从最小的2mm变化到最大的8mm左右。另外,在人到老年时,即使在暗的地方瞳孔的直径也不会像年青人那样变大,最大也不过6mm左右。并且,对于对光反应而言,年青人和老年人的应答速度特性是不同的,老年人的反应较慢。
瞳孔直径的变化如以下所述。即使入射到眼睛的光的量是一定的,瞳孔的大小也会低频率地摇动。并且,在紧张时瞳孔放大(散瞳),摇动也不明显。但是,在感到疲劳或困倦之时,瞳孔变小(缩瞳),并开始摇动。并且,越是疲劳或困倦之时,摇动就越会变大。并且,在看感兴趣的事物之时瞳孔变大。相反,对于乏味的照片或者不明其意的抽象画等不感兴趣的事物,瞳孔的大小几乎不发生变化。这样,瞳孔的变化能够反应人的心理状态。因此,若计测瞳孔直径以及瞳孔反应等,就能够推定利用者的年龄段以及对对象物的关心度以及心理状态等。
并且,由于眼球运动计测容易受到年龄、视力以及患病状态的影响,因此要想提高对人的状态的推定精度,在本实施例中,图3所示的个人属性信息可以由个人属性信息获得部13来生成,并发送到推定部15。推定部15通过限定属于与被输入的个人属性信息相同或类似的个人属性信息的信息,来筛选针对被存储在存储部16中的基准数据17的搜索对象。也就是说,推定部15从基准数据17中搜索与包括由眼球运动分析部12b发送来的眼球运动信息的实测档案最接近的基准档案17c,此时,对属于与由个人属性信息获得部13发送来的个人属性信息相同或类似的个人属性信息17a的基准档案17c进行限定、搜索,并将与搜索的基准档案17c对应的人的状态信息17b作为利用者的人的状态发送到显示部19。
并且,由于在本实施例中眼球运动是以一分钟为单位进行分析的,因此可以仅在上次推定的人的状态和这次推定的人的状态不同时才将人的状态信息等发送到显示部19,以减少发送量。并且,也可以将图3所示的个人属性信息的内容作为初始状态,事先以以下的默认值来定义,这些默认值是指:“年龄段:未定、视力:未定、患病状态:未定”,在从输入部14以及个人属性信息获得部13有输入的情况下,采用用于提高精度的构成。并且,若计测瞳孔直径以及瞳孔反应等,就能够判别利用者的年龄段,因此不需要输入年龄段。
并且,在本实施例中,由于在巩膜图像分析部21是通过巩膜上的血管图形的DP匹配来分析注视眼动的动态特性的,因此与通过静脉图形匹配的个人认证相同,通过眼球上的血管图形的个人认证也是可行的,事先将个人认证的结果和事先准备的个人属性信息对应起来,通过利用与认证结果相对应的个人属性信息来推定人的状态,从而可以不必每次都生成个人属性信息,并可以提高推定精度。
并且,瞳孔直径的变动也会因年龄等因素出现个人差异,因而在个人认证等中对于能够进行精度较高的认证的虹彩信息,也能够以来自同样的摄像机(影像获得部11)的影像信号来获得,因此只要将虹彩认证的结构方式应用于眼球运动分析部12b,就能够进行考虑了个人的变动率的,高精度的生理和心理状态的推定。
以下,对具有以上构成的本实施例中的人的状态推定装置10的工作进行说明。
图9是示出本实施例中的人的状态推定装置10进行人的状态的推定的工作流程图。
首先,影像获得部11以精度在0.05度以上的眼球旋转角度,且以计测速度在每秒120样本以上的速度,来获得示出包括利用者的眼球的注视眼动的眼球的运动的影像(S10)。
接着,通过分析部12的图像提取部12a对构成由影像获得部11的广角摄像机32发送来的影像的各个图片进行轮廓处理等,从而提取利用者的脸部图像(S20)。
于是,通过分析部12的眼球运动分析部12b针对由图像提取部12a提取的脸部图像,求出视线方向的移动轨迹,来分析注视眼动(微跳视、漂移以及震颤)的动态特性,并且针对脸部图像进行瞳孔的图像的识别,以确定瞳孔直径(S12)。更具体而言,眼球运动分析部12b将示出注视眼动的数据分离为水平分量(眼球的左右方向的成分)和垂直分量(眼球的上下方向的分量),以作为与微跳视有关的信息,并通过对分离后的水平分量进行傅里叶级数展开来进行频率分析,将得到频谱中的,作为微跳视而与平均观察到的周期相对应的频率(2~3Hz)中的频率成分,作为包括微跳视的运动的水平成分的实测档案来生成。并且,眼球运动分析部12b对于漂移和震颤也是同样,算出示出注视眼动的数据中的,与漂移和震颤的运动速度相对应的频率成分,并作为实测档案来生成。
另外,个人属性信息获得部13获得表示利用者的年龄段、视力以及患病状态中的至少一个的个人属性信息,以作为用于提高该人的状态推定装置10所进行的人的状态的推定精度的信息(S13)。
于是,推定部15通过参照存储部16中所存储的基准数据17(S14),来搜索与从个人属性信息获得部13发送来的个人属性信息相对应的,且与由分析部12发送来的实测档案最接近的基准档案(S15),将与搜索到的基准档案相对应的人的状态作为针对利用者推定的人的状态来决定(S16)。具体而言,该推定部15从基准数据17中确定与由个人属性信息获得部13发送来的个人属性信息一致或最接近的个人属性信息17a,并从基准数据17中读出针对确定了的个人属性信息17a而登记的人的状态信息17b和基准档案17c的对应关系(图5)。于是,通过参照被读出的对应关系的数据,来针对有关微跳视的运动的水平分量、漂移和震颤的信息,以及有关瞳孔直径的信息等的眼球运动参数,算出实测档案和基准档案17c之间的一致程度(例如实测档案的值相对于每个眼球运动参数的基准档案的值的比),并确定这些一致程度的合计值最高的基准档案17c,并将与确定的基准档案17c相对应的人的状态信息17b,作为表示利用者的人的状态的信息通知给显示部19。
另外,由个人属性信息获得部13发送来的个人属性信息并非限定于年龄段、视力以及患病状态都是明确的值。例如,在仅定义了年龄段为50多岁的个人属性信息的情况下,推定部15可以将利用者的年龄段为50多岁、视力为默认值(无关系)、患病状态为默认值(健康人)作为个人属性信息来解释,从属于与这些条件相同的个人属性信息17a的基准档案17c中,搜索与实测档案最接近的基准档案17c,并将与搜索到的基准档案17c相对应的人的状态信息17b推定为利用者的人的状态。
最后,显示部19显示从推定部15发送来的人的状态信息(S16)。
这样,本实施例中的人的状态推定装置10推定了利用者的人的状态。根据该人的状态推定装置10,(1)能够从由高功能的影像获得部11获得的影像中,根据注视眼动,尤其是根据与人的状态的关联性高的微跳视的运动的水平分量来推定人的状态,以及(2)由于不仅利用眼球运动而且还利用个人属性的类似性来推定人的状态,因此与仅通过利用眼球运动来推定人的状态的以往的装置相比,能够以较高的精度来推定人的状态。
图10是有关本实施例中人的状态推定装置10所进行的个人属性信息自动生成的工作流程图。
首先,个人属性信息获得部13判断眼球运动信息是否从分析部12发送来(S20)。并且,在分析部12,通过利用者事先进行的设定,来决定是否由眼球运动分析部12b生成眼球运动信息,在眼球运动信息由眼球运动分析部12b生成了的情况下,分析部12则向个人属性信息获得部13发送该眼球运动信息。
这样,在眼球运动信息从分析部12发送来的情况下(S20的是),个人属性信息获得部13通过参照内部所具有的个人属性表13a(S21),来确定与从分析部12发送来的眼球运动信息相对应的个人属性信息,并将确定了的个人属性信息作为利用者的个人属性信息来生成(S22),另外,在眼球运动信息没有从分析部12发送来的情况下(S20的否),个人属性信息获得部13通过输入部14,从利用者获得有关利用者本人的年龄段、视力以及患病状态的信息(S23),以获得个人属性信息。
这样,通过本实施例中的人的状态推定装置10,能够利用在影像获得部11获得的影像,也就是说能够利用为推定人的状态而获得的影像来自动地生成个人属性信息。并且,被自动生成的个人属性信息与在分析部12生成的实测档案一起被利用于人的状态的推定。因此,通过该人的状态推定装置10,可以不必为获得个人属性信息而被迫进行特别的操作,并能够高精度地进行人的状态的推定。
图11是有关本实施例中的人的状态推定装置10所进行的基准数据17的登记的工作流程图。
首先,登记部18判断用于确定利用者的人的状态的信息是否由输入部14输入,也就是说判断是否有人的状态的指示(S30)。并且,该人的状态推定装置10根据利用者所进行的事先设定,来决定工作模式是“人的状态推定模式”还是“基准数据登记模式”。并且,在人的状态推定装置10为“基准数据登记模式”的情况下,登记部18判断为有人的状态的指示。
这样,只有在有人的状态的指示的情况下(S30的是),登记部18从个人属性信息获得部13接受该利用者的个人属性信息,并从分析部12接受该利用者的实测档案(S31),并将目前从输入部14输入的人的状态一起对应起来(通过将实测档案作为基准档案),作为新的基准数据17登记到存储部16(S32)。
这样,本实施例中的人的状态推定装置10不仅推定人的状态,而且还能够添加、更新、模仿成为该推定的基准的数据(基准数据17)。
如以上所述,在本实施例中的人的状态推定装置10,个人属性信息获得部13根据从分析部12发送来的眼球运动信息或来自输入部14的输入,来生成个人属性信息。并且,不管以哪种情况被生成的个人属性信息都能够作为用于推定人的状态的辅助信息而被利用于推定部15。因此,通过该人的状态推定装置10,分析部12即使是不具有能够生成向个人属性信息获得部13发送眼球运动信息的功能的廉价之物,也能够仅通过利用者简单地输入年龄段等操作,来生成与个人属性相对应(在必要之时,包括默认值)的个人属性信息,由于被生成的个人属性信息被利用于人的状态的推定,因此能够实现高精度的人的状态的推定。
并且,作为个人属性信息的内容,最初可以事先定义为全部是默认值或自己申报的值,仅从被计测的眼球运动中来进行人的状态的推定,并将该推定结果输出到显示部19,这样,在自己申报以及诊断结果和在显示部19显示的内容背离的情况下,可以考虑有可能具有隐藏的疾病,并可以考虑自己申报有可能不真实。
而且,在将默认的年龄段作为50来进行处理的情况下,例如在计测中瞳孔直径的变化频繁地超过8mm,瞳孔直径的变动速度与20岁的人同样快的情况下,可以动态地变更个人属性信息中的“年龄段”。
并且,在本实施例中,由于眼球运动是按每一分钟而被分析的,因此只有上次推定的人的状态和这次推定的人的状态不同时,推定部15才将人的状态信息发送到显示部19,这样,能够实现发送数据量的消减。并且,也可以将图3所示的个人属性信息的初始状态,事先以以下的默认值来定义,这些默认值是指:“年龄段:未定、视力:未定、患病状态:未定”,在由输入部14的输入和在个人属性信息获得部13进行了自动分析的情况下,可以采用仅更新该字段以提高精度的构成。并且,若计测瞳孔直径以及瞳孔反应等,就能够判别利用者的年龄段,因此不需要输入年龄段。
以下,对本发明所涉及的人的状态推定装置10为了推定人的状态,而利用注视眼动,尤其是利用微跳视的信息的意义进行说明。
图12示出了为了在眼球运动的过程中也以高精度来计测注视眼动,而发明人等使用的计测装置的构成。图12(a)是计测装置的侧视图,图12(b)是计测装置的概观图。该计测装置相当于本发明所涉及的人的状态推定装置10的影像获得部11以及分析部12的其他的实施例。
具有高倍率透镜33的高速摄像机38的光轴被设置在眼球的赤道平面上。高速摄像机38的光轴和眼球朝向正面时的视轴所成的角,如图13所示为45度。并且,设置有用于测定眼球的全体位置的具有广角透镜的摄像机32。由于广角摄像机32和高速摄像机38被相互固定,因此眼睛的全体图像被广角摄像机32读入,通过将想要计测的部位对准广角摄像机图像的特定位置,从而能够使高速摄像机38的摄像区域对准该部位。
在本实施例中,将高速摄像机38的摄像速度设定为250帧/秒,其中透镜使用4.5倍透镜。图14示出了被读入到摄像机的巩膜的图像(注视眼动的运动轨迹)的一个例子。在图14中,四角框是块匹配的图形的区域。四角框中的实线和虚线是由块匹配判明的眼球运动的轨迹,分别表示漂移以及微跳视的轨迹。
图15是用于说明计测的注视眼动的水平分量以及垂直分量的时间变化的图。图15(a)示出了关于视标(距离为750mm)以及注视点的计测条件,图15(b)示出了注视眼动中的运动(displacement[μm])的水平分量(实线)以及垂直分量(虚线)随时间变化的图。通过本图可知,水平眼球运动和垂直眼球运动具有不同的运动图形,运动速度高的微跳视主要集中在水平眼球运动。在图15(b)所示的水平分量的图表中,瞬间产生大的运动的位置是微跳视(更正确而言,是微跳视的运动的水平分量)。其产生频度平均为2.33Hz,运动量平均为120.6μm。
图16是用于说明精神状态和微跳视的相关关系的图,图16(a)示出了关于视标(距离为1.0m,视野角度为2度的两种不同颜色相间的方格花纹)的计测条件,图16(b)示出了没有对被实验者做出任何要求时的一般状态下的注视眼动,图16(c)示出了被实验者在数质数时的注视眼动的轨迹。通过对图16(b)和(c)进行比较可知,被实验者在数质数时,微跳视的运动范围明显增大了。
如以上所述,可知注视眼动的水平分量中的,作为微跳视被平均观察的相当于周期的频率(例如,以2.33Hz为中心的一定的频率幅度,作为具体的例子可以是2~3Hz)的频率分量(图15以及图16的纵轴)依存于在数质数时等思考状态,并发生大的变化。并且,还判明微跳视的运动量不仅依存于这种思考状态,而且还依存于平静、不安、困惑等心理状态,以及愉快/不愉快、兴奋/沉静、紧张/弛缓等感情状态而发生变化。而且,还判明不仅是微跳视,其他的注视眼动(漂移、震颤)以及其他的眼球运动(瞳孔直径等)也依存于心理状态、感情状态以及思考状态等人的状态来变动。因此,能够根据这些注视眼动以及眼球运动信息来推定人的状态。
以下,对本发明所涉及的人的状态推定装置10推定人的状态以及生成个人属性信息时,利用与眼球运动有关的信息,尤其是利用与瞳孔有关的信息的意义进行说明。
即使施加相同的实验任务,由于年龄段以及个人的差异,因此以眼球运动为代表的生理计测数据以及心理数据会得到不同的结果。因此,发明人对利用了听觉刺激的课题完成过程中的心理状态和瞳孔直径进行测定,并讨论他们的对应关系。
图17示出了本实施例中的瞳孔计测实验的内容。听觉刺激是以耳机来对被实验者进行实验的。主要的实验条件如以下所示。
(条件1)被实验者利用按键来回答被提示的刺激是否属于指定的范畴。
(条件2)一次试验为60秒。
(条件3)被实验者注视中央的十字。
(条件4)刺激提示间隔(Δt)为参数。
(条件5)在进行一次试验之后进行心理状态的自己申报。
图18示出了有关某被实验者的瞳孔直径的变动的数据的例子。图18(a)示出了基线的数据,并且示出不进行上述(条件1)中的被实验者利用按键来回答被提示的刺激是否属于指定的范畴这一任务,而仅接受了听觉刺激时的瞳孔直径的变动。图18(b)~(d)分别示出了刺激出示间隔为1秒、2秒、3秒时的数据,并且示出在上述的(条件4)中,在以1秒、2秒、3秒的刺激提示间隔来变更时的瞳孔直径变动的测定结果。从图18(a)所示的基线可知,与上述的(条件1)中进行了任务的情况相比,瞳孔直径变动的频率摇动比较平稳,稳定在4mm至6mm之间。但是,若施加了上述(条件1)中的任务,则可以通过图18(b)~(d)可知,在上述的(条件4)中的推移是,在刺激间隔为一秒时是6mm~7mm,2秒时是5.5mm~6.5mm,3秒时是5mm~6mm,刺激提示间隔越短瞳孔直径就越变大,比起3秒而言1秒间隔更具有散瞳倾向,交感神经也比基线更活跃。
图19示出了瞳孔直径变动中的个人差异的例子。在此示出了两名被实验者1(SO)和被实验者2(HM)在执行课题过程中瞳孔直径的平均(60秒之间的平均)随时间的变化。并且,被实验者两个人的年龄段均为20岁。被实验者1以及被实验者2均为随着刺激提示间隔的增长而瞳孔直径的平均变短,并逐渐接近基线。一般而言,瞳孔直径的变动幅度在20岁的年龄段和50岁的年龄段是不同的,不过,即使是相同的年龄段,也会因个人的差异而变动曲线不同。
图20示出了各种心理状态中的瞳孔直径的变化的个人差异的例子。图20(a)示出了将被实验者1(SO)的心理状态按照上述的(条件5)来归纳的数据,图20(b)示出了将被实验者2(HM)的心理状态按照上述的(条件5)来归纳的数据。从这些图中可以知道,对于活动度、焦躁感、不安感,被实验者1以及被实验者2均为随着上述(条件4)的刺激提示间隔的变短而增大。但是,振幅却因被实验者的不同而不同。例如,对于不安感而言,在间隔时间较短的1秒的情况下,被实验者1感到较大的不安,而被实验者2所感到的不安则是中等程度。并且,对于急躁感而言,被实验者1在间隔时间为1秒时感到了,而在2秒和3秒时没有感到。相反,被实验者2在1秒和2秒时几乎没有感到,而在3秒时感到了。
如以上所述,通过利用有关瞳孔直径的各种信息,从而能够推定人的状态,并能够利用个人之间的差异来识别个人属性。
并且,作为图5所示的基准档案17c中的与瞳孔直径相关的值或在眼球运动分析部12b生成的眼球运动信息,例如也可以是对表示图18所示的瞳孔直径的变动的原始数据的功率谱进行分析,而得到的低频成分和高频成分的功率值。并且,也可以由图19所示的图表的平均值和倾斜等值来代表。并且,如图20所示,由于一个瞳孔变动数据所表示的心理状态会有表示多个心理状态(急躁、焦躁、不安等)的情况,因此可以从心理数据评价值和功率谱分析结果的多重回归分析的结果中,确定实测档案、基准档案、眼球运动信息,并且可以推定人的状态以及决定个人属性信息。并且,眼球运动不仅限于瞳孔直径,也可以从注视眼动和跳视的组合中来求。
如以上所述,通过本实施例中的人的状态推定装置,可以从根据眼球的注视眼动,尤其是根据与人的状态的关联性高的微跳视的运动的水平分量来推定人的状态,并且除眼球运动之外还可以利用个人属性的类似性来推定人的状态,通过进行这样的推定,从而与仅从眼球运动(或注视眼动)来推定人的状态的以往的装置相比,能够以高的精度来推定人的状态。也就是说,即使是在包括容易受到年龄段以及患病状态的影响,个人差异、个人内在差异相当大的眼球运动的生物信息中,也能够利用计测的生物信息数据,来高精确度地推定就连被实验者的无意识都包括在内的精神状态、思考状态、身体状态。因此,能够构筑精度良好的测定以及客观的HMI评价系统,并且能够提高系统设备的安全性、舒适性以及方便性。
并且,本发明所涉及的人的状态推定装置由于利用了与自律神经关系密切的眼球运动(注视眼动、跳视、追踪眼球运动以及瞳孔直径的动态特性)的信息,因此,造成在操作AV设备时产生紧张的原因的不安、急躁、焦躁、犹豫、困惑等特定的心理状态,或者包括喜怒哀乐的阴性及阳性感情,或者精神疾患和眼球运动因子的动态特性的关系式,可以被高精度地推导出来。
并且,眼球运动的计测比包括脑波计测在内的多种生物信息计测更不具干涉性,因此能够减轻利用者的精神和身体上的负担。
并且,在本发明,由于能够从被映射在巩膜图像上的毛细血管中抽出用于确定个人的信息,并且能够从角膜图像中提取虹彩信息进行个人认证,因此,利用者可以不必每次都从输入部直接输入用于确定个人属性的信息,从而提高了方便性。并且,可以不必添加新的认证装置,从而减轻了个人的身体、精神以及经济上的负担。
并且,由于本发明的人的状态推定装置在获得了新的个人属性或者新的人的状态的信息的情况下,能够将他们作为基准数据来登记,并利用到以后的推定之中,因此具有良好的灵活性和扩展性。
如以上所述,通过本发明,人的状态能够被高精度地推定,尤其是在电子设备的高功能化以及用户的使用状况和使用形式多样化的今天,本发明具有极高的实用价值。
以上,根据实施例以及变形例对本发明所涉及的人的状态推定装置进行了说明,不过,本发明并非受这些实施例以及变形例所限。对于这些实施例以及变形例,可以任意地选择其中的构成要素进行组合,以实现的其他的变形例,以及对于本领域技术人员来说,针对上述的实施例以及变形例能够想到的的各种变形,均不脱离本发明的主旨,并且包含在本发明之内。
例如,在本实施例中,本发明所涉及的人的状态推定装置被组装并应用于电视机,不过,也可以被组装并应用于电脑、导航系统、便携电话等家电设备、车载设备,或者被用于住宅等的监视设备、健康管理设备、空调管理设备等。
并且,在本实施例中,推定部15是根据构成实测档案的所有的眼球运动参数来算出与基准档案的一致度并算出合计的,不过,本发明并非限定于这种搜索。例如,可以按照每个构成基准档案的眼球运动参数来设定优先级,并按照优先级将加权系数与一致度相乘后,再对每个眼球运动参数的一致度进行合计。这样,由于提高了依存于人的状态而发生变化的眼球运动参数的优先级,因此能够进行结合实际情况的,高精度的人的状态的推定。
并且,在本实施例中,个人属性信息的“视力”中存储了视力的值,不过,可以存储有用于确定近视、远视、散光等眼睛的折射系统以及调节系统的状态(异常)的信息。即使是这样的信息,也会对个人属性和人的状态的关系产生影响,因此可以作为使人的状态的推定精度提高的辅助参数来发挥作用。
本发明能够作为对利用者的眼球运动进行计测并且对该利用者的状态进行高精度地推定的人的状态推定装置,例如应用于具有电视机等画面的电子设备(电脑、导航装置、便携电话等家电设备、车载设备),或者应用于被用于住宅等的监视设备、健康管理设备、空调管理设备等,或者应用于实现人的状态推定装置的程序,尤其能够作为就连没有用惯电子设备的人都可以对应的针对客户需求的HMI、设备或诊断装置来应用。
Claims (8)
1.一种人的状态推定装置,根据利用者的眼球的注视眼动,对心理状态、感情状态以及思考状态之中的至少一种人的状态进行推定,其特征在于,包括:
存储部,存储有基准数据,该基准数据是所述人的状态和基准档案针对多个个人属性信息的每一个而对应起来的数据,所述基准档案包括微跳视的运动中作为眼球的左右方向的分量的水平分量,所述微跳视包括在所述人的状态中的标准的眼球的注视眼动中,所述个人属性信息至少示出人的年龄段、视力以及患病状态之中的一个;
影像获得部,以眼球的旋转角度的精度在0.05度以上,且以每秒120样本以上的计测速度,获得示出眼球的运动的影像,该眼球的运动包括利用者的眼球的注视眼动;
分析部,从所述影像所示出的注视眼动中,抽出微跳视的运动的水平分量,并生成包括抽出的水平分量的实测档案;
个人属性信息获得部,获得所述利用者的个人属性信息;以及
推定部,在所述存储部所存储的基准数据中,搜索与在所述个人属性信息获得部获得的个人属性信息相对应,且与所述实测档案最接近的基准档案,并将与搜索到的基准档案相对应的人的状态决定为针对所述利用者而推定的人的状态。
2.如权利要求1所述的人的状态推定装置,其特征在于,
所述基准档案中包含有作为微跳视的运动的水平分量的频率分量,该频率分量是,相当于注视眼动的水平分量中作为微跳视而被平均观察的周期的频率中的频率分量;
所述分析部对所述注视眼动的水平分量的时间变化进行频率分析,并算出通过频率分析而得到的频谱中的所述频率分量,以作为所述微跳视的运动的水平分量。
3.如权利要求1所述的人的状态推定装置,其特征在于,
所述基准档案中还包括至少与漂移以及震颤中的一个相关的信息,所述漂移以及震颤均为注视眼动中的一种;
所述分析部还从所述注视眼动中抽出至少与所述漂移以及所述震颤中的一个相关的信息,并生成包括被抽出的信息的实测档案;
所述推定部除所述微跳视的运动的水平分量以外,还对照至少与所述漂移以及所述震颤中的一个相关的信息,以搜索与所述实测档案最接近的基准档案。
4.如权利要求1所述的人的状态推定装置,其特征在于,
所述基准档案中还包括有关瞳孔直径的信息;
所述分析部还从所述影像中抽出与瞳孔直径相关的信息,并生成包括被抽出的信息的实测档案;
所述推定部除所述微跳视的运动的水平分量以外,还对照与所述瞳孔直径相关的信息,以搜索与所述实测档案最接近的基准档案。
5.如权利要求1所述的人的状态推定装置,其特征在于,
所述分析部还根据在所述影像获得部获得的影像对眼球运动进行分析,所述眼球运动至少包括所述利用者的视线方向、视线移动轨迹、视线停留时间、会聚与分散、注视眼动的动态特性、跳视的动态特性、瞳孔直径以及瞳孔的动态特性中的一个;
所述个人属性信息获得部具有个人属性表,该个人属性表示出眼球运动和个人属性信息的对应关系,通过参照所述个人属性表,来确定与在所述分析部得到的眼球运动的分析结果相对应的个人属性信息,并获得被确定的个人属性信息以作为所述利用者的个人属性信息。
6.如权利要求1所述的人的状态推定装置,其特征在于,
所述人的状态推定装置还包括登记部,该登记部获得用于确定所述利用者的人的状态的信息,并将获得的信息和针对该利用者而在所述个人属性信息获得部获得的个人属性信息以及在所述分析部生成的实测档案对应起来,以作为新的基准数据登记到所述存储部。
7.一种人的状态推定方法,通过人的状态推定装置来执行,该人的状态推定装置根据利用者的眼球的注视眼动,对心理状态、感情状态以及思考状态之中的至少一种人的状态进行推定,其特征在于,
所述人的状态推定装置包括存储部,存储有基准数据,该基准数据是所述人的状态和基准档案针对多个个人属性信息的每一个而对应起来的数据,所述基准档案包括微跳视的运动中作为眼球的左右方向的分量的水平分量,所述微跳视包括在所述人的状态中的标准的眼球的注视眼动中,所述个人属性信息至少示出人的年龄段、视力以及患病状态之中的一个;
所述人的状态推定方法包括:
影像获得步骤,以眼球的旋转角度的精度在0.05度以上,且以每秒120样本以上的计测速度,获得示出眼球的运动的影像,该眼球的运动包括利用者的眼球的注视眼动;
分析步骤,从所述影像所示出的注视眼动中,抽出微跳视的运动的水平分量,并生成包括抽出的水平分量的实测档案;
个人属性信息获得步骤,获得所述利用者的个人属性信息;以及
推定步骤,在所述存储部所存储的基准数据中,搜索与在所述个人属性信息获得步骤获得的个人属性信息相对应,且与所述实测档案最接近的基准档案,并将与搜索到的基准档案相对应的人的状态决定为针对所述利用者而推定的人的状态。
8.一种程序,用于人的状态推定装置,该人的状态推定装置根据利用者的眼球的注视眼动,对心理状态、感情状态以及思考状态之中的至少一种人的状态进行推定,其特征在于,
使计算机执行权利要求7所述的人的状态推定方法中所包括的步骤。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007169799 | 2007-06-27 | ||
JP169799/2007 | 2007-06-27 | ||
PCT/JP2008/001656 WO2009001558A1 (ja) | 2007-06-27 | 2008-06-25 | ヒト状態推定装置およびその方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101686815A true CN101686815A (zh) | 2010-03-31 |
CN101686815B CN101686815B (zh) | 2011-03-30 |
Family
ID=40185383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008800214037A Active CN101686815B (zh) | 2007-06-27 | 2008-06-25 | 人的状态推定装置以及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8790280B2 (zh) |
JP (1) | JP5302193B2 (zh) |
CN (1) | CN101686815B (zh) |
WO (1) | WO2009001558A1 (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103211605A (zh) * | 2013-05-14 | 2013-07-24 | 重庆大学 | 一种心理测试系统及心理测试方法 |
CN103735278A (zh) * | 2013-12-25 | 2014-04-23 | 中国科学院苏州生物医学工程技术研究所 | 一种客观检测危险驾驶行为的方法 |
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104504390A (zh) * | 2015-01-14 | 2015-04-08 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
CN104504404A (zh) * | 2015-01-23 | 2015-04-08 | 北京工业大学 | 一种基于视觉行为的网上用户类型识别方法及系统 |
CN106073805A (zh) * | 2016-05-30 | 2016-11-09 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN106157092A (zh) * | 2011-10-19 | 2016-11-23 | 弗思特费斯有限公司 | 当移动通信终端激活时执行特定操作的方法 |
CN106264449A (zh) * | 2015-06-29 | 2017-01-04 | 松下知识产权经营株式会社 | 人状态推定方法和人状态推定系统 |
CN106333643A (zh) * | 2015-07-10 | 2017-01-18 | 中兴通讯股份有限公司 | 用户健康的监测方法、监测装置以及监测终端 |
CN106339668A (zh) * | 2016-08-16 | 2017-01-18 | 信利光电股份有限公司 | 一种虹膜识别方法及虹膜识别系统 |
CN106562792A (zh) * | 2015-10-08 | 2017-04-19 | 松下电器(美国)知识产权公司 | 信息提示装置的控制方法和信息提示装置 |
CN106793942A (zh) * | 2014-02-10 | 2017-05-31 | 华柏恩视觉诊断公司 | 用于测量眼球运动和瞳孔反应的系统、方法和设备 |
CN106923908A (zh) * | 2015-12-29 | 2017-07-07 | 东洋大学校产学协力团 | 性别注视特性分析系统 |
CN107822644A (zh) * | 2016-09-16 | 2018-03-23 | 松下知识产权经营株式会社 | 压力管理系统以及压力管理方法 |
CN108027977A (zh) * | 2015-12-01 | 2018-05-11 | Jvc 建伍株式会社 | 视线检测装置以及视线检测方法 |
CN108366764A (zh) * | 2015-10-01 | 2018-08-03 | 株式会社夏目综合研究所 | 排除明暗、呼吸和脉搏的影响的观看者情绪判定装置、观看者情绪判定系统和程序 |
CN108697392A (zh) * | 2016-02-29 | 2018-10-23 | 大金工业株式会社 | 判定结果输出装置、判定结果提供装置及判定结果输出系统 |
CN109643160A (zh) * | 2016-09-01 | 2019-04-16 | 株式会社和冠 | 坐标输入处理装置、感情推定装置、感情推定系统及感情推定用数据库的构建装置 |
CN110169778A (zh) * | 2018-02-19 | 2019-08-27 | 柯尼卡美能达株式会社 | 压力通知系统及记录介质 |
CN110495895A (zh) * | 2019-08-26 | 2019-11-26 | 重庆大学 | 一种基于眼动跟踪的疲劳检测方法与系统 |
CN110840467A (zh) * | 2019-10-18 | 2020-02-28 | 天津大学 | 一种眼动数据与精神系统疾病的关联分析方法 |
US12080104B2 (en) | 2019-09-12 | 2024-09-03 | Semiconductor Energy Laboratory Co., Ltd. | Classification method |
Families Citing this family (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9301679B2 (en) | 2007-11-01 | 2016-04-05 | Dignity Health | Method of detecting neurological disease |
JP5642945B2 (ja) * | 2009-05-29 | 2014-12-17 | 浜松ホトニクス株式会社 | 瞬目計測装置 |
JP5358414B2 (ja) * | 2009-12-04 | 2013-12-04 | 株式会社豊田中央研究所 | 漫然状態判定装置、方法及びプログラム |
US10922567B2 (en) * | 2010-06-07 | 2021-02-16 | Affectiva, Inc. | Cognitive state based vehicle manipulation using near-infrared image processing |
WO2012103470A2 (en) * | 2011-01-28 | 2012-08-02 | Dignity Health | Method of detecting neurological disease |
CN102274028B (zh) * | 2011-05-30 | 2013-03-27 | 国家体育总局体育科学研究所 | 一种人体运动状态多参数同步综合采集方法 |
JP2013043044A (ja) * | 2011-08-26 | 2013-03-04 | Canon Inc | 瞬目計測装置、方法、及びプログラム |
WO2013078461A1 (en) * | 2011-11-22 | 2013-05-30 | Dignity Health | System and method for using microsaccade peak velocity as a measure of mental workload and fatigue |
KR101434624B1 (ko) * | 2012-03-30 | 2014-08-27 | 단국대학교 산학협력단 | 긴장-이완 감성상태 측정 기반의 영상 저작물 스토리 분석 시스템 및 분석 방법 |
PL2844146T3 (pl) * | 2012-04-24 | 2016-12-30 | Układ i sposób pomiaru uwagi | |
JP5765740B2 (ja) * | 2012-05-21 | 2015-08-19 | 国立大学法人東京工業大学 | 注意位置推定装置 |
JP5949319B2 (ja) * | 2012-08-21 | 2016-07-06 | 富士通株式会社 | 視線検出装置及び視線検出方法 |
US9962119B2 (en) | 2013-05-31 | 2018-05-08 | Dignity Health | System and method for detecting neurological disease |
WO2014200508A1 (en) * | 2013-06-14 | 2014-12-18 | Intel Corporation | Methods and apparatus to provide power to devices |
JP6273823B2 (ja) | 2013-12-19 | 2018-02-07 | 株式会社デンソー | 状態推定装置、および状態推定プログラム |
US10743806B2 (en) | 2014-06-11 | 2020-08-18 | Dignity Health | Systems and methods for non-intrusive deception detection |
WO2016029019A1 (en) | 2014-08-21 | 2016-02-25 | Dignity Health | Systems and methods for using eye movements to determine traumatic brain injury |
JP6377545B2 (ja) * | 2015-02-17 | 2018-08-22 | 日本電信電話株式会社 | 個人識別方法、個人識別装置、プログラム |
KR101589685B1 (ko) * | 2015-07-03 | 2016-02-02 | 정세연 | 동공 크기 변화 측정을 이용한 심리상태 진단시스템 |
JP6578784B2 (ja) * | 2015-07-24 | 2019-09-25 | 株式会社デンソー | 状態推定装置および状態推定プログラム |
US9788760B2 (en) * | 2015-12-08 | 2017-10-17 | BrainStem Biometrics, Inc. | Ocular micro tremor (OMT) sensor, system and method |
JP6728699B2 (ja) * | 2016-01-15 | 2020-07-22 | 富士通株式会社 | 生体認証装置、生体認証方法および生体認証プログラム |
JP2017164491A (ja) * | 2016-03-10 | 2017-09-21 | パナソニックIpマネジメント株式会社 | 自律神経の揺らぎの利用方法およびシステム |
US10115205B2 (en) | 2016-03-11 | 2018-10-30 | Facebook Technologies, Llc | Eye tracking system with single point calibration |
EP3329316B1 (en) * | 2016-03-11 | 2023-09-20 | Facebook Technologies, LLC | Corneal sphere tracking for generating an eye model |
EP3488282A4 (en) * | 2016-07-19 | 2019-08-07 | Supereye, Inc. | SYSTEMS AND METHODS FOR PREDICTIVE VISUAL RENDERING |
US10888268B2 (en) * | 2016-12-08 | 2021-01-12 | BrainStem Biometrics, Inc. | Method of measuring sedation using ocular microtremor (OMT) and microsaccades (MS) |
US11176675B2 (en) | 2017-02-01 | 2021-11-16 | Conflu3Nce Ltd | System and method for creating an image and/or automatically interpreting images |
US11298062B2 (en) * | 2017-02-01 | 2022-04-12 | Conflu3Nce Ltd | Multi-purpose interactive cognitive platform |
US11158060B2 (en) | 2017-02-01 | 2021-10-26 | Conflu3Nce Ltd | System and method for creating an image and/or automatically interpreting images |
US20180271364A1 (en) * | 2017-03-24 | 2018-09-27 | Osaka University | Method and apparatus for detecting ocular movement disorders |
CN107610099A (zh) * | 2017-08-18 | 2018-01-19 | 中山大学 | 一种基于瞳孔信息的情感精神状态检测系统及方法 |
WO2019050034A1 (ja) * | 2017-09-11 | 2019-03-14 | Groove X株式会社 | 相手を見つめる自律行動型ロボット |
JP7207518B2 (ja) * | 2019-03-15 | 2023-01-18 | オムロン株式会社 | 認知症検知装置及び認知症検知方法 |
CN116469085B (zh) * | 2023-03-30 | 2024-04-02 | 万联易达物流科技有限公司 | 一种风险驾驶行为的监控方法及系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US28212A (en) * | 1860-05-08 | Compensating spring-balance | ||
US120172A (en) * | 1871-10-24 | Improvement in lamps | ||
US113713A (en) * | 1871-04-11 | Improvement in medical compounds or bitters | ||
US202841A (en) * | 1878-04-23 | Improvement in machines for pumping | ||
JPH08105B2 (ja) | 1992-11-27 | 1996-01-10 | 株式会社エイ・ティ・アール視聴覚機構研究所 | 固視微動検査装置 |
US6873314B1 (en) * | 2000-08-29 | 2005-03-29 | International Business Machines Corporation | Method and system for the recognition of reading skimming and scanning from eye-gaze patterns |
US6565518B2 (en) | 2001-05-25 | 2003-05-20 | Eastman Kodak Company | Technique for diagnosing attention deficit hyperactivity disorder |
AUPR872301A0 (en) * | 2001-11-08 | 2001-11-29 | Sleep Diagnostics Pty Ltd | Alertness monitor |
JP2005124909A (ja) | 2003-10-24 | 2005-05-19 | Sony Corp | 感情情報提示方法、感情情報表示装置及び情報コンテンツの検索方法 |
IL165586A0 (en) * | 2004-12-06 | 2006-01-15 | Daphna Palti Wasserman | Multivariate dynamic biometrics system |
-
2008
- 2008-06-25 CN CN2008800214037A patent/CN101686815B/zh active Active
- 2008-06-25 JP JP2009520352A patent/JP5302193B2/ja active Active
- 2008-06-25 US US12/666,507 patent/US8790280B2/en active Active
- 2008-06-25 WO PCT/JP2008/001656 patent/WO2009001558A1/ja active Application Filing
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11551263B2 (en) | 2011-10-19 | 2023-01-10 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
US10896442B2 (en) | 2011-10-19 | 2021-01-19 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
US10510097B2 (en) | 2011-10-19 | 2019-12-17 | Firstface Co., Ltd. | Activating display and performing additional function in mobile terminal with one-time user input |
CN106157092A (zh) * | 2011-10-19 | 2016-11-23 | 弗思特费斯有限公司 | 当移动通信终端激活时执行特定操作的方法 |
CN103211605B (zh) * | 2013-05-14 | 2015-02-18 | 重庆大学 | 一种心理测试系统及心理测试方法 |
CN103211605A (zh) * | 2013-05-14 | 2013-07-24 | 重庆大学 | 一种心理测试系统及心理测试方法 |
CN103735278A (zh) * | 2013-12-25 | 2014-04-23 | 中国科学院苏州生物医学工程技术研究所 | 一种客观检测危险驾驶行为的方法 |
CN103735278B (zh) * | 2013-12-25 | 2016-03-09 | 中国科学院苏州生物医学工程技术研究所 | 一种客观检测危险驾驶行为的方法 |
CN106793942A (zh) * | 2014-02-10 | 2017-05-31 | 华柏恩视觉诊断公司 | 用于测量眼球运动和瞳孔反应的系统、方法和设备 |
CN104173063B (zh) * | 2014-09-01 | 2015-08-12 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104173063A (zh) * | 2014-09-01 | 2014-12-03 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
WO2016033950A1 (zh) * | 2014-09-01 | 2016-03-10 | 北京工业大学 | 一种视觉注意的检测方法及系统 |
CN104504390A (zh) * | 2015-01-14 | 2015-04-08 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
CN104504390B (zh) * | 2015-01-14 | 2017-09-19 | 北京工业大学 | 一种基于眼动数据的网上用户状态识别方法和装置 |
CN104504404B (zh) * | 2015-01-23 | 2018-01-12 | 北京工业大学 | 一种基于视觉行为的网上用户类型识别方法及系统 |
CN104504404A (zh) * | 2015-01-23 | 2015-04-08 | 北京工业大学 | 一种基于视觉行为的网上用户类型识别方法及系统 |
CN106264449A (zh) * | 2015-06-29 | 2017-01-04 | 松下知识产权经营株式会社 | 人状态推定方法和人状态推定系统 |
CN106333643A (zh) * | 2015-07-10 | 2017-01-18 | 中兴通讯股份有限公司 | 用户健康的监测方法、监测装置以及监测终端 |
CN108366764A (zh) * | 2015-10-01 | 2018-08-03 | 株式会社夏目综合研究所 | 排除明暗、呼吸和脉搏的影响的观看者情绪判定装置、观看者情绪判定系统和程序 |
CN106562792A (zh) * | 2015-10-08 | 2017-04-19 | 松下电器(美国)知识产权公司 | 信息提示装置的控制方法和信息提示装置 |
CN106562792B (zh) * | 2015-10-08 | 2021-08-06 | 松下电器(美国)知识产权公司 | 信息提示装置的控制方法和信息提示装置 |
CN108027977A (zh) * | 2015-12-01 | 2018-05-11 | Jvc 建伍株式会社 | 视线检测装置以及视线检测方法 |
CN106923908A (zh) * | 2015-12-29 | 2017-07-07 | 东洋大学校产学协力团 | 性别注视特性分析系统 |
CN108697392A (zh) * | 2016-02-29 | 2018-10-23 | 大金工业株式会社 | 判定结果输出装置、判定结果提供装置及判定结果输出系统 |
CN106073805B (zh) * | 2016-05-30 | 2018-10-19 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN106073805A (zh) * | 2016-05-30 | 2016-11-09 | 南京大学 | 一种基于眼动数据的疲劳检测方法和装置 |
CN106339668A (zh) * | 2016-08-16 | 2017-01-18 | 信利光电股份有限公司 | 一种虹膜识别方法及虹膜识别系统 |
CN109643160A (zh) * | 2016-09-01 | 2019-04-16 | 株式会社和冠 | 坐标输入处理装置、感情推定装置、感情推定系统及感情推定用数据库的构建装置 |
CN109643160B (zh) * | 2016-09-01 | 2023-03-17 | 株式会社和冠 | 坐标输入处理装置、感情推定装置、系统及构建装置 |
CN107822644A (zh) * | 2016-09-16 | 2018-03-23 | 松下知识产权经营株式会社 | 压力管理系统以及压力管理方法 |
CN110169778A (zh) * | 2018-02-19 | 2019-08-27 | 柯尼卡美能达株式会社 | 压力通知系统及记录介质 |
CN110495895A (zh) * | 2019-08-26 | 2019-11-26 | 重庆大学 | 一种基于眼动跟踪的疲劳检测方法与系统 |
US12080104B2 (en) | 2019-09-12 | 2024-09-03 | Semiconductor Energy Laboratory Co., Ltd. | Classification method |
CN110840467A (zh) * | 2019-10-18 | 2020-02-28 | 天津大学 | 一种眼动数据与精神系统疾病的关联分析方法 |
Also Published As
Publication number | Publication date |
---|---|
US8790280B2 (en) | 2014-07-29 |
CN101686815B (zh) | 2011-03-30 |
JP5302193B2 (ja) | 2013-10-02 |
US20100191156A1 (en) | 2010-07-29 |
WO2009001558A1 (ja) | 2008-12-31 |
JPWO2009001558A1 (ja) | 2010-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101686815B (zh) | 人的状态推定装置以及方法 | |
CN102458220B (zh) | 形状辨别视力评估和跟踪系统 | |
US10691308B2 (en) | Controlling the display of a dataset | |
Turpin et al. | The Open Perimetry Interface: an enabling tool for clinical visual psychophysics | |
US20190200858A1 (en) | Display system and method | |
JP7106569B2 (ja) | ユーザーの健康状態を評価するシステム | |
WO2018046957A2 (en) | A reading system, text display method and apparatus | |
CN107592798A (zh) | 用于确定用户视力的方法和设备 | |
US10070787B2 (en) | System and method for detection and monitoring of a physical condition of a user | |
KR102132612B1 (ko) | 생체인식기술을 활용한 사용자 인증방법 및 인증장치 | |
US20240164677A1 (en) | Attention detection | |
Vincent et al. | Optimal feature integration in visual search | |
KR101984993B1 (ko) | 사용자 맞춤형 시표 제어가 가능한 시야검사기 | |
Denniss et al. | Estimation of contrast sensitivity from fixational eye movements | |
US20230259203A1 (en) | Eye-gaze based biofeedback | |
Thomson | Eye tracking and its clinical application in optometry | |
JP6911034B2 (ja) | 触覚インターフェースによって眼球運動を判定する装置及び方法 | |
US20210074389A1 (en) | System and method for collecting, analyzing, and utilizing cognitive, behavioral, neuropsychological, and biometric data from a user's interaction with a smart device with either physically invasive or physically non-invasive means | |
Platonov et al. | Not all observed actions are perceived equally | |
US11605462B1 (en) | System and methods for human identification of individuals with COVID-19 utilizing dynamic adaptive biometrics | |
US20240350051A1 (en) | Systems and methods for using eye imaging on a wearable device to assess human health | |
Mussgnug | Quantitative Usability Testing in User-Centered Product Development with Mobile Eye Tracking | |
EP4388398A1 (en) | Interaction events based on physiological response to illumination | |
Márquez et al. | Pupillary responses to directional uncertainty while intercepting a moving target | |
Lazar et al. | DEVELOPMENT OF EYE TRACKING PROCEDURES USED FOR THE ANALYSIS OF VISUAL BEHAVIOR-STATE OF ART |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Free format text: FORMER OWNER: TOKYO INST TECH Effective date: 20130110 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20130110 Address after: Osaka Japan Patentee after: Matsushita Electric Industrial Co., Ltd. Address before: Osaka Japan Patentee before: Matsushita Electric Industrial Co., Ltd. Patentee before: Tokyo Inst Tech |