CN113194839A - 评价装置、评价方法及评价程序 - Google Patents

评价装置、评价方法及评价程序 Download PDF

Info

Publication number
CN113194839A
CN113194839A CN201980082608.4A CN201980082608A CN113194839A CN 113194839 A CN113194839 A CN 113194839A CN 201980082608 A CN201980082608 A CN 201980082608A CN 113194839 A CN113194839 A CN 113194839A
Authority
CN
China
Prior art keywords
evaluation
determination
unit
image
gaze point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980082608.4A
Other languages
English (en)
Inventor
箱岛修二
土屋贤治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu University School of Medicine NUC
JVCKenwood Corp
Original Assignee
Hamamatsu University School of Medicine NUC
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu University School of Medicine NUC, JVCKenwood Corp filed Critical Hamamatsu University School of Medicine NUC
Publication of CN113194839A publication Critical patent/CN113194839A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

评价装置具备:显示部(101S),显示图像;注视点检测部(214),对观察显示部(101S)的受检者的注视点的位置数据进行检测;区域设定部(216),在显示部(101S)中设定判定区域;判定部(218),基于注视点的位置数据,分别判定注视点是否存在于判定区域的内部;运算部(220),基于判定部(218)的判定结果,对在规定时间内存在注视点的判定区域的总数进行计算;及评价部(224),基于运算部(220)计算出的存在注视点的判定区域的总数,求出受检者的评价数据。

Description

评价装置、评价方法及评价程序
技术领域
本发明涉及评价装置、评价方法及评价程序。
背景技术
近年来,据说存在发展障碍者增加的倾向。关于发展障碍,可知通过早期发现并开始治疗教育来减轻症状,且可适应社会的效果提高。公知有与诊断辅助用装置相关的技术,上述诊断辅助用装置根据受检者观察所相对的人的眼睛的时间与观察其他地方的比率之差来判断受检者是否具有自闭症的特征(例如参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2011-206542号公报
发明内容
被诊断为孤独症谱系障碍(ASD:Autism Spectrum Disorder)的受检者通常倾向于不关心其他人的存在,与人相比对事物的兴趣更强,对特定事物感兴趣(拘泥)。谋求通过适当地检测上述倾向来高精度地进行发展障碍的可能性是高还是低的评价。
本公开是鉴于上述内容而完成的,其目的在于提供能够高精度地进行发展障碍的可能性是高还是低的评价的评价装置、评价方法及评价程序。
本公开的评价装置具备:显示部,显示图像;注视点检测部,对观察所述显示部的受检者的注视点的位置数据进行检测;区域设定部,在所述显示部中设定判定区域;判定部,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;运算部,基于所述判定部的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及评价部,基于所述运算部计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
本公开的评价方法包括:显示步骤,在显示部显示图像;注视点检测步骤,对观察所述显示部的受检者的注视点的位置数据进行检测;区域设定步骤,在所述显示部中设定判定区域;判定步骤,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;运算步骤,基于所述判定步骤中的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及评价步骤,基于通过所述运算步骤计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
本公开的评价程序使计算机执行以下步骤:显示步骤,在显示部显示图像;注视点检测步骤,对观察所述显示部的受检者的注视点的位置数据进行检测;区域设定步骤,在所述显示部中设定判定区域;判定步骤,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;运算步骤,基于所述判定步骤中的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及评价步骤,基于通过所述运算步骤计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
根据本公开,能够提供能够高精度地进行发展障碍的可能性是高还是低的评价的评价装置、评价方法及评价程序。
附图说明
图1是示意性地表示本实施方式的视线检测装置的一例的立体图。
图2是表示本实施方式的视线检测装置的硬件结构的一例的图。
图3是表示本实施方式的视线检测装置的一例的功能框图。
图4是用于对本实施方式的角膜曲率中心的位置数据的计算方法进行说明的示意图。
图5是用于对本实施方式的角膜曲率中心的位置数据的计算方法进行说明的示意图。
图6是用于对本实施方式的校准处理的一例进行说明的示意图。
图7是用于对本实施方式的注视点检测处理的一例进行说明的示意图。
图8是表示评价用图像的一例的图。
图9是表示设定于图8的评价用图像的判定区域的一例的图。
图10是表示评价用图像的其他例子的图。
图11是表示设定于图10的评价用图像的判定区域的一例的图。
图12是表示相对于图8的评价用图像的注视点的一例的图。
图13是表示相对于图8的评价用图像的注视点的其他例子的图。
图14是表示相对于图10的评价用图像的注视点的一例的图。
图15是表示相对于图10的评价用图像的注视点的其他例子的图。
图16是表示评价用图像的其他例子的图。
图17是表示设定于图16的评价用图像的判定区域的一例的图。
图18是表示本实施方式的评价方法的一例的流程图。
具体实施方式
以下,基于附图对本公开的评价装置、评价方法及评价程序的实施方式进行说明。此外,不是通过该实施方式来限定本发明。另外,下述实施方式的构成要素包括本领域技术人员能够置换且容易想到的要素或者实质上相同的要素。
在以下的说明中,设定三维全局坐标系来说明各部的位置关系。将规定面上的与第1轴平行的方向设为X轴方向,将正交于第1轴的规定面上的与第2轴平行的方向设为Y轴方向,将与分别与第1轴及第2轴正交的第3轴平行的方向设为Z轴方向。规定面包括XY平面。
[视线检测装置]
图1是示意性地表示第1实施方式的视线检测装置100的一例的立体图。视线检测装置100用作进行发展障碍的可能性是高还是低的评价的评价装置。如图1所示,视线检测装置100具备显示装置101、立体相机装置102及照明装置103。
显示装置101包括液晶显示器(liquid crystal display:LCD)或者有机EL显示器(organic electroluminescence display:OLED)那样的平板显示器。在本实施方式中,显示装置101具有显示部101S。显示部101S显示图像。在本实施方式中,显示部101S例如显示用于评价受检者的视觉功能的指标。显示部101S与XY平面实质上平行。X轴方向是显示部101S的左右方向,Y轴方向是显示部101S的上下方向,Z轴方向是与显示部101S正交的进深方向。
立体相机装置102具有第1相机102A及第2相机102B。立体相机装置102配置于比显示装置101的显示部101S靠下方的位置。第1相机102A和第2相机102B配置在X轴方向上。第1相机102A配置于比第2相机102B靠-X方向。第1相机102A及第2相机102B分别包括红外线相机,例如具有能够使波长850[nm]的近红外光透过的光学系统和能够接受该近红外光的拍摄元件。
照明装置103具有第1光源103A及第2光源103B。照明装置103配置于比显示装置101的显示部101S靠下方的位置。第1光源103A和第2光源103B配置在X轴方向上。第1光源103A配置于比第1相机102A靠-X方向的位置。第2光源103B配置于比第2相机102B靠+X方向的位置。第1光源103A及第2光源103B分别包括LED(light emitting diode)光源,例如能够射出波长850[nm]的近红外光。此外,第1光源103A及第2光源103B可以配置于第1相机102A与第2相机102B之间。
照明装置103射出作为检测光的近红外光,对受检者的眼球111进行照明。立体相机装置102在从第1光源103A射出的检测光照射于眼球111时,通过第2相机102B对眼球111的一部分(以下,包括其在内称为“眼球”)进行摄影,在从第2光源103B射出的检测光照射于眼球111时,通过第1相机102A对眼球111进行摄影。
从第1相机102A及第2相机102B的至少一个输出帧同步信号。第1光源103A及第2光源103B基于帧同步信号射出检测光。第1相机102A在从第2光源103B射出的检测光照射于眼球111时,对眼球111的图像数据进行摄影。第2相机102B在从第1光源103A射出的检测光照射于眼球111时,对眼球111的图像数据进行摄影。
当检测光向眼球111照射时,该检测光的一部分由瞳孔112反射,来自该瞳孔112的光向立体相机装置102入射。另外,当检测光向眼球111照射时,在眼球111形成作为角膜的虚像的角膜反射像113,来自该角膜反射像113的光向立体相机装置102入射。
通过适当地设定第1相机102A及第2相机102B与第1光源103A及第2光源103B的相对位置,从瞳孔112向立体相机装置102入射的光的强度变低,从角膜反射像113向立体相机装置102入射的光的强度变高。即,由立体相机装置102摄影得到的瞳孔112的图像成为低亮度,角膜反射像113的图像成为高亮度。立体相机装置102能够基于摄影的图像的亮度,检测瞳孔112的位置及角膜反射像113的位置。
图2是表示本实施方式的视线检测装置100的硬件结构的一例的图。如图2所示,视线检测装置100具备显示装置101、立体相机装置102、照明装置103、计算机系统20、输入输出接口装置30、驱动电路40、输出装置50及输入装置60。
计算机系统20、驱动电路40、输出装置50及输入装置60经由输入输出接口装置30进行数据通信。计算机系统20包括运算处理装置20A及存储装置20B。运算处理装置20A包括CPU(central processing unit,中央处理单元)那样的微处理器。存储装置20B包括ROM(read only memory,只读存储器)及RAM(random access memory,随机存取存储器)那样的存储器或者寄存器。运算处理装置20A根据存储于存储装置20B的计算机程序20C来实施运算处理。
驱动电路40生成驱动信号,并向显示装置101、立体相机装置102及照明装置103输出。另外,驱动电路40将由立体相机装置102摄影得到的眼球111的图像数据经由输入输出接口装置30供给到计算机系统20。
输出装置50包括平板显示器那样的显示装置。此外,输出装置50可以包括印刷装置。输入装置60通过被操作而生成输入数据。输入装置60包括计算机系统用的键盘或者鼠标。此外,输入装置60也可以包括在作为显示装置的输出装置50的显示部设置的触摸传感器。
在本实施方式中,显示装置101和计算机系统20是独立的装置。此外,显示装置101和计算机系统20也可以是一体的。例如在视线检测装置100包括平板型个人计算机的情况下,也可以在该平板型个人计算机搭载计算机系统20、输入输出接口装置30、驱动电路40及显示装置101。
图3是表示本实施方式的视线检测装置100的一例的功能框图。如图3所示,输入输出接口装置30具备输入输出部302。
驱动电路40具有:显示装置驱动部402,生成用于驱动显示装置101的驱动信号并向显示装置101输出;第1相机输入输出部404A,生成用于驱动第1相机102A的驱动信号并向第1相机102A输出;第2相机输入输出部404B,生成用于驱动第2相机102B的驱动信号并向第2相机102B输出;及光源驱动部406,生成用于驱动第1光源103A及第2光源103B的驱动信号并向第1光源103A及第2光源103B输出。另外,第1相机输入输出部404A将由第1相机102A摄影得到的眼球111的图像数据经由输入输出部302而供给到计算机系统20。第2相机输入输出部404B将由第2相机102B摄影得到的眼球111的图像数据经由输入输出部302而供给到计算机系统20。
计算机系统20对视线检测装置100进行控制。计算机系统20具有显示控制部202、光源控制部204、图像数据获取部206、输入数据获取部208、位置检测部210、曲率中心计算部212、注视点检测部214、区域设定部216、判定部218、运算部220、存储部222、评价部224及输出控制部226。计算机系统20的功能通过运算处理装置20A及存储装置20B来发挥。
显示控制部202对显示装置驱动部402进行控制,而使显示装置101的显示部101S显示让受检者视觉确认的评价用图像。评价用图像包括静止画和动画。例如准备多个评价用图像。显示控制部202使该多个评价用图像依次显示于显示装置101。另外,也可以是,显示控制部202使显示装置101显示用于使注视点P位于显示部101S上所希望的位置的醒目的影像。
光源控制部204控制光源驱动部406,并控制第1光源103A及第2光源103B的工作状态。光源控制部204控制第1光源103A及第2光源103B,以使第1光源103A和第2光源103B在不同的时间点射出检测光。
图像数据获取部206经由输入输出部302从立体相机装置102获取由包括第1相机102A及第2相机102B的立体相机装置102摄影得到的受检者的眼球111的图像数据。
输入数据获取部208经由输入输出部302从输入装置60获取通过操作输入装置60而生成的输入数据。
位置检测部210基于由图像数据获取部206获取到的眼球111的图像数据,检测瞳孔中心的位置数据。另外,位置检测部210基于由图像数据获取部206获取到的眼球111的图像数据,检测角膜反射中心的位置数据。瞳孔中心是瞳孔112的中心。角膜反射中心是角膜反射像113的中心。位置检测部210针对受检者的左右各自的眼球111,对瞳孔中心的位置数据及角膜反射中心的位置数据进行检测。
曲率中心计算部212基于由图像数据获取部206获取到的眼球111的图像数据,计算眼球111的角膜曲率中心的位置数据。
注视点检测部214基于由图像数据获取部206获取到的眼球111的图像数据,对受检者的注视点P的位置数据进行检测。在本实施方式中,注视点P的位置数据是指:由三维全局坐标系规定的受检者的视线矢量与显示装置101的显示部101S的交点的位置数据。注视点检测部214基于从眼球111的图像数据获取到的瞳孔中心的位置数据及角膜曲率中心的位置数据,对受检者的左右各自的眼球111的视线矢量进行检测。在检测到视线矢量之后,注视点检测部214对表示视线矢量与显示部101S的交点的注视点P的位置数据进行检测。
区域设定部216对在显示装置101的显示部101S显示的、与评价用图像对应的判定区域进行设定。区域设定部216在评价用图像所含的人物、物体、花纹等设定判定区域。在本实施方式中,区域设定部216在显示部101S中评价用图像的至少一部分设定判定区域。优选设定多个判定区域。也可以是,区域设定部216在显示部101S显示自然图像和几何学图像的情况下,例如在显示自然图像的区域的至少一部分和显示几何学图像的区域的至少一部分分别设定判定区域。优选判定区域相对于评价用影像所含的物体而设定。优选判定区域在相对于自然图像而设定的情况下,例如按每个人物或者人物的面部之类的物体而设定。判定区域并不显示于显示部101S。判定区域的形状例如可以为矩形、圆形、椭圆形、多边形等,没有被限定。多个判定区域的大小可以不同。多个判定区域可以重叠设定。判定区域优选设定于在ASD的可能性高的受检者和ASD的可能性低的受检者中是否注视的倾向出现差异的评价用图像中的区域。
判定部218基于注视点P的位置数据,分别判定注视点P是否存在于判定区域,并输出判定数据。例如,判定部218输出如下判定数据:在判定为注视点P存在于判定区域的情况下,将该判定区域的判定值设为“1”,在判定为不存在的情况下,将该判定区域的判定值设为“0”。判定部218在判定为注视点P存在于判定区域的情况下,无论注视判定区域的时间及注视判定区域的次数如何,均将判定值设为“1”。判定部218无论注视的时间长还是短均将判定值设为“1”。判定部218在注视点P在判定区域与其他区域往复而被判定为多次存在于判定区域的情况下,也将判定值设为“1”。判定部218例如每隔恒定时间判定注视点P是否存在于判定区域。作为恒定时间,例如能够设为从第1相机102A及第2相机102B输出的帧同步信号的周期(例如每隔20[msec])。
运算部220基于判定部218的判定数据,计算在规定时间内存在注视点P的判定区域的总数。换言之,运算部220计算在规定时间内受检者看到几个评价用图像中的判定区域。运算部220对各判定区域的判定值进行累计,计算存在注视点P的判定区域的总数。
运算部220具有管理影像的再现时间的管理计时器和检测从在显示部101S显示影像起的经过时间的检测计时器。
评价部224基于运算部220计算出的存在注视点P的判定区域的总数,求出受检者的评价数据。评价数据是对受检者注视显示动作中显示于显示部101S的判定区域的数量进行评价的数据。评价数据例如与注视判定区域的时间及注视判定区域的次数无关地对注视的判定区域的数量进行评价。评价部224可以按存在注视点P的每个判定区域进行加权而求出评价数据。评价部224进一步判断评价数据是否为规定的阈值以上,从而进行评价的判定。
存储部222存储上述的判定数据及评价数据。另外,存储部222存储使计算机执行如下处理的评价程序:显示图像的处理;对观察显示部的受检者的注视点P的位置进行检测的处理;在显示部设定判定区域的处理;基于注视点P的位置数据分别判定注视点P是否存在于判定区域,并输出判定数据的处理;基于判定数据,求出受检者的评价数据的处理;及输出评价数据的处理。
输出控制部226对显示装置101及输出装置50的至少一个输出数据。
接下来,对本实施方式的曲率中心计算部212的处理的概要进行说明。曲率中心计算部212基于眼球111的图像数据,计算眼球111的角膜曲率中心的位置数据。图4及图5是用于对本实施方式的角膜曲率中心110的位置数据的计算方法进行说明的示意图。图4示出通过一个光源103C对眼球111进行照明的例子。图5示出通过第1光源103A及第2光源103B对眼球111进行照明的例子。
首先,对图4所示的例子进行说明。光源103C配置于第1相机102A与第2相机102B之间。瞳孔中心112C是瞳孔112的中心。角膜反射中心113C是角膜反射像113的中心。图4中,瞳孔中心112C表示眼球111被一个光源103C照明时的瞳孔中心。角膜反射中心113C表示眼球111被一个光源103C照明时的角膜反射中心。角膜反射中心113C存在于将光源103C和角膜曲率中心110连结的直线上。角膜反射中心113C置于角膜表面与角膜曲率中心110之间的中间点。角膜曲率半径109是角膜表面与角膜曲率中心110之间的距离。角膜反射中心113C的位置数据通过立体相机装置102来检测。角膜曲率中心110存在于将光源103C和角膜反射中心113C连结的直线上。曲率中心计算部212将该直线上距角膜反射中心113C的距离成为规定值的位置数据计算为角膜曲率中心110的位置数据。规定值是根据通常的角膜的曲率半径值等而预先决定的值,且存储于存储部222。
接下来,对图5所示的例子进行说明。在本实施方式中,第1相机102A及第2光源103B和第2相机102B及第1光源103A配置于相对于经过第1相机102A与第2相机102B之间的中间位置的直线而左右对称的位置。能够视为假想光源103V存在于第1相机102A与第2相机102B之间的中间位置。角膜反射中心121表示由第2相机102B对眼球111进行摄影而得到的图像的角膜反射中心。角膜反射中心122表示由第1相机102A对眼球111进行摄影而得到的图像的角膜反射中心。角膜反射中心124表示与假想光源103V对应的角膜反射中心。角膜反射中心124的位置数据基于由立体相机装置102摄影得到的角膜反射中心121的位置数据及角膜反射中心122的位置数据来计算。立体相机装置102对在立体相机装置102所规定的三维局部坐标系中角膜反射中心121的位置数据及角膜反射中心122的位置数据进行检测。针对立体相机装置102,预先实施基于立体校正法的相机校正,计算出将立体相机装置102的三维局部坐标系变换为三维全局坐标系的变换参数。该变换参数存储于存储部222。曲率中心计算部212使用变换参数将由立体相机装置102摄影得到的角膜反射中心121的位置数据及角膜反射中心122的位置数据变换为三维全局坐标系的位置数据。曲率中心计算部212基于由三维全局坐标系规定的角膜反射中心121的位置数据及角膜反射中心122的位置数据,计算三维全局坐标系的角膜反射中心124的位置数据。角膜曲率中心110存在于将假想光源103V和角膜反射中心124连结的直线123上。曲率中心计算部212将直线123上距角膜反射中心124的距离成为规定值的位置数据计算为角膜曲率中心110的位置数据。规定值是根据通常的角膜的曲率半径值等而预先决定的值,且存储于存储部222。
这样,在存在两个光源的情况下,也通过与存在一个光源的情况的方法相同的方法,来计算角膜曲率中心110。
角膜曲率半径109是角膜表面与角膜曲率中心110之间的距离。因此,通过计算角膜表面的位置数据及角膜曲率中心110的位置数据,来计算角膜曲率半径109。
接下来,对本实施方式的视线检测方法的一例进行说明。图6是用于对本实施方式的校准处理的一例进行说明的示意图。在校准处理中,为了使受检者注视,设定目标位置130。在三维全局坐标系中规定目标位置130。在本实施方式中,目标位置130例如设定于显示装置101的显示部101S的中央位置。此外,也可以是,目标位置130设定于显示部101S的端部位置。输出控制部226在所设定的目标位置130显示目标图像。直线131是将假想光源103V和角膜反射中心113C连结的直线。直线132是将目标位置130和瞳孔中心112C连结的直线。角膜曲率中心110是直线131与直线132的交点。曲率中心计算部212基于假想光源103V的位置数据、目标位置130的位置数据、瞳孔中心112C的位置数据及角膜反射中心113C的位置数据,能够计算角膜曲率中心110的位置数据。
接下来,对注视点检测部214的注视点检测处理进行说明。注视点检测处理在校准处理之后实施。注视点检测部214基于眼球111的图像数据,计算受检者的视线矢量及注视点P的位置数据。图7是用于对本实施方式的注视点检测处理的一例进行说明的示意图。在图7中,注视点165表示根据使用通常的曲率半径值而计算出的角膜曲率中心求出的注视点P。注视点166表示根据使用校准处理中求出的距离126计算出的角膜曲率中心求出的注视点P。瞳孔中心112C表示校准处理中计算出的瞳孔中心,角膜反射中心113C表示校准处理中计算出的角膜反射中心。直线173是将假想光源103V和角膜反射中心113C连结的直线。角膜曲率中心110是根据通常的曲率半径值计算出的角膜曲率中心的位置。距离126是由校准处理计算出的瞳孔中心112C与角膜曲率中心110之间的距离。角膜曲率中心110H表示使用距离126校正了角膜曲率中心110的校正之后的角膜曲率中心的位置。角膜曲率中心110H根据角膜曲率中心110存在于直线173上及瞳孔中心112C与角膜曲率中心110之间的距离为距离126而求出。由此,将使用通常的曲率半径值的情况下计算出的视线177校正为视线178。另外,将显示装置101的显示部101S上的注视点P从注视点165校正为注视点166。
[评价方法]
接下来,对本实施方式的评价方法进行说明。在本实施方式的评价方法中,通过使用上述的视线检测装置100,作为受检者的视觉功能,对发展障碍进行评价。
显示控制部202将评价用图像显示于显示部101S。也可以是,显示控制部202在显示评价用图像前,将醒目的影像显示于显示部101S,使受检者的注视点P位于显示部101S上所希望的位置。
首先,使用图8~图11对评价用图像的例子进行说明。图8是表示评价用图像的一例的图。图9是表示设定于图8的评价用图像的判定区域的一例的图。图10是表示评价用图像的其他例子的图。图11是表示设定于图10的评价用图像的判定区域的一例的图。
此处所示的评价用图像包含自然图像和几何学图像。这是因为发展障碍者相比自然图像而更喜欢几何学图像的影像。另外,这是因为被诊断为ASD的受检者通常倾向于不关心其他人的存在,与人相比对事物的兴趣更强,对特定事物感兴趣(拘泥)。自然图像为除几何学图像以外的自然物或者联想起自然物那样的图像即可。例如,由相机拍摄人物、动物、植物及自然的景观等而得到的图像(静止画、动画)可以用作自然图像。另外,模仿人物及动物等的角色的图像(静止画、动画)可以用作自然图像。
图8所示的评价用图像在左侧显示作为自然图像F1的人物影像,在右侧显示几何学图像G1。此处,设计为使自然图像F1与几何学图像G1的色彩、亮度、动作等接近。
另外,如图9所示,为了评价,在评价用图像中,在人物的面部附近设定圆形的判定区域A11、判定区域A12及判定区域A13,在几何花纹部分设定圆形的判定区域A14、判定区域A15、判定区域A16及判定区域A17。判定区域A11、判定区域A12、判定区域A13、判定区域A14、判定区域A15、判定区域A16及判定区域A17并不显示于显示部101S。通过求出对表示是否注视了这些判定区域的判定值进行了累计的评价数据亦即评价值,来评价受检者是否接近标准发育、发展障碍的可能性是高还是低。
图10所示的评价用图像相对于图8,在右侧显示自然图像F2,在左侧显示几何学图像G2。如图11所示,在人物的面部附近设定圆形的判定区域A22及判定区域A23,在几何花纹部分设定圆形的判定区域A21。这在显示这样的评价用图像的情况下,存在由于受检者的习惯而从右侧开始观察的情况、更多地观察左侧的情况等,为了减少该影响而存在以相同数目制作左右配置不同的影像并使其显示的方法(不均衡)。然而,完全消除该影响较为困难。
通常,使受检者观察多个自然图像和几何学图像的组合的图案等多个评价用图像,综合评价发展障碍的可能性是高还是低。这是由于:当为了排除偶然性时,减少恰好接近其喜好的影像出现而导致与发展障碍的特性不同的见解的情况的影响。因此,例如,如图8→图10那样视听评价用图像。
当使受检者视觉确认上述那样的评价用图像时,在受检者是发展障碍者的情况下,具有与人物影像相比而对几何学图像更感兴趣的倾向。另外,在受检者是发展障碍者的情况下,具有对特定事物感兴趣的倾向。在这种情况下,倾向于注视点P移动至几何学图像,注视几何学图像而不是注视人物影像。另一方面,在受检者不为发展障碍者的情况下,不具有对特定事物感兴趣的倾向,因此,没有对特定的图像表现较强的兴趣的倾向。在这种情况下,倾向于注视点P在图像中较多地移动,注视较多的区域。
因此,例如通过进行以下的过程,能够对受检者进行评价。在本实施方式中,一边在显示部101S提示评价图像,一边同时测定受检者的注视点P,进行针对设定于评价图像中的判定区域的注视判定。在受检者的注视点P进入了判定区域的情况下,判断为该受检者观察到该注视对象,将受检者相对于多个评价用图像观察到的判定区域的总数作为评价值。ASD受检者由于上述的理由而倾向于评价值相对较低,因此,能够高精度地进行ASD的诊断辅助。
在注视点P进入了判定区域的情况下,判定部218将判定区域的判定值设为“1”。运算部220计算存在注视点P的判定区域的累计得到的总数。
在本实施方式中,评价部224例如通过对多个图像的每个判定区域的判定值进行累计,能够进行评价的判定。评价部224能够判定评价为,评价值越大,则受检者的关心度越不倾向于表现出对特定事物感兴趣。另外,在这种情况下,能够判定评价为受检者是发展障碍者的可能性低。评价部224能够判定评价为,评价值越小,则受检者的关心度越倾向于对几何学图像更高或者表现出对特定事物感兴趣。另外,在这种情况下,能够判定评价为受检者是发展障碍者的可能性高。
此处,将图8所示的评价用图像的每个判定区域的判定值表达为X[判定区域]。例如,判定区域A11的判定值表达为X[A11],判定区域A14的判定值表达为X[A14]。此外,注视点P一次也没有存在于内部的判定区域的判定值为“0”,注视点P在内部存在过的判定区域的判定值为“1”。
在这种情况下,针对图8所示的评价用图像的评价值ANS1,对各判定区域的判定值进行累计而表达为ANS1=X[A11]+X[A12]+X[A13]+X[A14]+X[A15]+X[A16]+X[A17]。
针对图10所示的评价用图像的评价值ANS2,对各判定区域的判定值进行累计而表达为ANS2=X[A21]+X[A22]+X[A23]。
由此,对针对图8所示的评价用图像的评价值ANS1和针对图10所示的评价用图像的评价值ANS2进行累计,将受检者的评价值ANS例如表达为ANS=ANS1+ANS2。
使用图12、图14,对受检者A的评价值ANS进行说明。图12是表示针对图8的评价用图像的注视点的一例的图。图14是表示针对图10的评价用图像的注视点的一例的图。
将受检者A的针对图8所示的评价用图像的评价值ANS1计算为ANS1=1+0+1+1+0+0+0=3。
将受检者A的针对图10所示的评价用图像的评价值ANS2计算为ANS2=1+0+1=2。
由此,将受检者A的评价值ANS计算为ANS=3+2=5。
例如,当将判断ASD的可能性是否高的阈值设为“7”时,受检者A的评价值ANS不为阈值以上,因此,判断为“ASD的可能性高”。
使用图13、图15,对受检者B的评价值ANS进行说明。图13是表示针对图8的评价用图像的注视点的其他例子的图。图15是表示针对图10的评价用图像的注视点的其他例子的图。
将受检者B的针对图8所示的评价用图像的评价值ANS1计算为ANS1=1+1+1+1+1+1+0=6。
将受检者B的针对图10所示的评价用图像的评价值ANS2计算为ANS2=1+1+1=3。
由此,将受检者B的评价值ANS计算为ANS=6+3=9。
例如,当使判断ASD的可能性是否高的阈值为“7”时,受检者B的评价值ANS为阈值以上,因此,判断为“ASD的可能性低”。
另外,评价值也可以对每个判定区域的判定值进行加权来计算。
加权的第一方法是按相同图像内的每个判定区域进行加权的方法。例如,对设定于自然图像的判定区域进行加权。在这种情况下,评价值ANS1、评价值ANS2如以下那样表达。此外,K是用于加权的系数。系数K能够适当地设定。
ANS1=X[A11]·K+X[A12]·K+X[A13]·K+X[A14]+X[A15]+X[A16]+X[A17]
ANS2=X[A21]+X[A22]·K+X[A23]·K
此处,在使系数K为“2”的情况下,受检者A的评价值如以下那样计算。
ANS1=2+0+2+1+0+0+0=5
ANS2=1+0+2=3
ANS=8
进行加权,换言之重视的判定区域的选定方法可以考虑基于已知的临床知识的方法或者根据计测结果使诊断灵敏度变高地进行选择的方法等。另外,系数K的值还能够按每个判定区域而设定不同的值。
加权的第二方法是按每个评价用图像进行加权的方法。例如,对图10所示的评价用图像进行加权。在这种情况下,评价值ANS1、评价值ANS2如以下那样表达。
ANS1=X[A11]+X[A12]+X[A13]+X[A14]+X[A15]+X[A16]+X[A17]
ANS2=(X[A21]+X[A22]+X[A23])·K
此处,在使系数K为“2”的情况下,受检者A的评价值如以下那样计算。
ANS1=3
ANS2=4
ANS=7
进行加权,换言之重视的评价用图像的选定方法可以考虑基于已知的临床知识的方法或者根据计测结果使诊断灵敏度变高地选择的方法等。另外,系数K的值还能够按每个评价用图像而设定不同的值。
使用图16、图17,对评价用图像的其他例子进行说明。图16是表示评价用图像的其他例子的图。图17是表示设定于图16的评价用图像的判定区域的一例的图。评价用图像不限定于包含自然图像和几何学图像。评价用图像可以是包括多个物体的一个自然图像。
图16所示的评价用图像是包括多个物体的自然图像F3。自然图像F3例如包括汽车、汽车的驾驶员、信号灯、点亮时的绿灯、招牌、写在招牌上的文字、行人、动物、人行横道等。
另外,如图17所示,在用于评价的评价用图像中,对汽车设定判定区域A31,对汽车的驾驶员设定判定区域A32,对信号灯设定判定区域A33,对点亮时的绿灯设定判定区域A34,对招牌设定判定区域A35,对写在招牌上的文字设定判定区域A36,对行人设定判定区域A37,对动物设定判定区域A38,及对人行横道设定判定区域A39。另外,在判定区域A31中设定判定区域A32,在判定区域A33中设定判定区域A34,在判定区域A35中设定判定区域A36。在这种情况下,在判定为注视点P存在于内侧的判定区域A32、判定区域A34及判定区域A36的内部的情况下,判定为注视点P也存在于外侧的判定区域A31、判定区域A33及判定区域A35的内部。
评价部224判断作为评价数据的评价值ANS是否为规定的阈值以上,进行评价的判定。例如在评价值ANS为阈值以上的情况下,能够判定评价为受检者是ASD的可能性低。另外,在评价值ANS不为规定的阈值以上的情况下,能够判定评价为受检者是ASD的可能性高。
在本实施方式中,输出控制部226在评价部224输出了评价结果的情况下,根据评价结果,使输出装置50输出例如“认为受检者是发展障碍者的可能性低”的文字数据、“认为受检者是发展障碍者的可能性高”的文字数据等。
接下来,参照图18对本实施方式的评价方法的一例进行说明。图18是表示本实施方式的评价方法的一例的流程图。
注视点检测部214开始注视点检测(步骤S101)。然后,进入步骤S102。
显示控制部202使第一个评价用图像显示于显示部101S(步骤S102)。在本实施方式中,显示控制部202使图8所示的评价用图像显示于显示部101S。然后,进入步骤S103。
运算部220将设定于第一个评价用图像的判定区域的判定值设为“0”(步骤S103)。在本实施方式中,运算部220将设定于第一个评价用图像的判定区域A11~判定区域A17的判定值设为“0”。然后,进入步骤S104。
注视点检测部214获取受检者的评价用图像中的注视点P(步骤S104)。更详细而言,注视点检测部214在使受检者观察到显示于显示装置101的第一个评价用图像的状态下,按每个规定的取样周期(例如20[msec]),对显示装置101的显示部101S的受检者的注视点P的位置数据进行检测。然后,进入步骤S105。
判定部218判定注视点P的坐标是否存在于判定区域A11~判定区域A17的内部(步骤S105)。更详细而言,判定部218按每个取样周期(例如20[msec]),基于注视点检测部214检测出的位置数据来判定注视点P存在的判定区域。
在判定为注视点P存在于判定区域A11~判定区域A17的内部的情况下(在步骤S105中为“是”),判定部218将判定为存在注视点P的判定区域的判定值变更为“1”(步骤S106)。然后,进入步骤S107。
在判定为注视点P不存在于判定区域A11~判定区域A17的内部的情况下(在步骤S105中为“否”),进入步骤S107。
运算部220基于检测计时器的检测结果,判断是否到达第一个评价用影像的再现结束的时刻(步骤S107)。在本实施方式中,若从第一个评价用影像的再现开始起经过3[sec],则判断为到达第一个评价用影像的再现结束的时刻。在由运算部220判断为到达第一个评价用影像的再现结束的时刻的情况下(在步骤S107中为“是”),进入步骤S108。在本实施方式中,若从第一个评价用影像的再现开始起没有经过3[sec],则判断为没有达到第一个评价用影像的再现结束的时刻。在由运算部220判断为没有到达第一个评价用影像的再现结束的时刻的情况下(在步骤S107中为“否”),反复进行上述的步骤S104以下的处理。
在由运算部220判断为到达第一个评价用影像的再现结束的时刻的情况下(在步骤S107中为“是”),显示控制部202使第二个评价用图像显示于显示部101S(步骤S108)。在本实施方式中,显示控制部202使图10所示的评价用图像显示于显示部101S。然后,进入步骤S109。
运算部220将设定于第二个评价用图像的判定区域的判定值设为“0”(步骤S109)。在本实施方式中,运算部220将设定于第二个评价用图像的判定区域A21~判定区域A23的判定值设为“0”。然后,进入步骤S110。
注视点检测部214获取受检者的评价用图像的注视点P(步骤S110)。更详细而言,注视点检测部214在使受检者观察到显示于显示装置101的第二个评价用图像的状态下,按每个规定的取样周期(例如20[msec]),对显示装置101的显示部101S的受检者的注视点P的位置数据进行检测。然后,进入步骤S111。
判定部218判定注视点P的坐标是否存在于判定区域A21~判定区域A23的内部(步骤S111)。更详细而言,判定部218按每个取样周期(例如20[msec]),基于注视点检测部214检测出的位置数据来判定存在注视点P的判定区域。
在判定为注视点P存在于判定区域A21~判定区域A23的内部的情况下(在步骤S111中为“是”),判定部218使存在注视点P的判定区域的判定值变更为“1”(步骤S112)。然后,进入步骤S113。
在判定为注视点P不存在于判定区域A21~判定区域A23的内部的情况下(在步骤S111中为“否”),进入步骤S113。
运算部220基于检测计时器的检测结果,判断是否到达第二个评价用影像的再现结束的时刻(步骤S113)。在本实施方式中,若从第二个评价用影像的再现开始起经过3[sec],则判断为到达第二个评价用影像的再现结束的时刻。在由运算部220判断为到达第二个评价用影像的再现结束的时刻的情况下(在步骤S113中为“是”),进入步骤S114。在本实施方式中,若从第二个评价用影像的再现开始起没有经过3[sec],则判断为没有到达第二个评价用影像的再现结束的时刻。在由运算部220判断为没有到达第二个评价用影像的再现结束的时刻的情况下(在步骤S113中为“否”),反复进行上述的步骤S110以下的处理。
评价部224基于存在注视点P的判定区域的总数,计算受检者的评价值(步骤S114)。运算部220对针对第一个评价用图像的判定值进行累计而计算评价值ANS1。另外,运算部220对针对第二个评价用图像的判定值进行累计而计算评价值ANS2。评价部224对针对第一个评价用图像的评价值ANS1和针对第二个评价用图像的评价值ANS2进行累计,来计算受检者的评价值ANS。然后,进入步骤S115。
评价部224判断计算出的评价值ANS是否为阈值以上(步骤S115)。在本实施方式中,评价部224判断评价值ANS是否为阈值“7”以上。
评价部224在判断为计算出的评价值ANS不为阈值以上的情况下(在步骤S115中为“否”),判定评价为受检者是“ASD的可能性高”(步骤S116)。其后,输出控制部226将由评价部224判定出的评价结果输出,并结束处理。
评价部224在判断为计算出的评价值ANS为阈值以上的情况下(在步骤S115中为“是”),判定评价为受检者是“ASD的可能性低”(步骤S117)。其后,输出控制部226将由评价部224判定出的评价结果输出,并结束处理。
如以上那样,本实施方式的评价装置具备:显示部101S,显示图像;注视点检测部214,对观察显示部101S的受检者的注视点P的位置进行检测;区域设定部216,在显示部101S中设定判定区域;判定部218,基于注视点P的位置数据,分别判定注视点P是否存在于判定区域的内部;运算部220,基于判定部218的判定结果,计算存在注视点P的判定区域的总数;及评价部224,基于运算部220计算出的存在注视点P的判定区域的总数,求出受检者的评价数据。
另外,本实施方式的评价方法包括:显示步骤,在显示部101S显示图像;注视点检测步骤,对观察显示部101S的受检者的注视点P的位置进行检测;区域设定步骤,在显示部101S中设定判定区域;判定步骤,基于注视点P的位置数据,分别判定注视点P是否存在于判定区域的内部;运算步骤,基于判定步骤中的判定结果,计算存在注视点P的判定区域的总数;及评价步骤,基于通过运算步骤计算出的存在注视点P的判定区域的总数,求出受检者的评价数据。
另外,本实施方式的评价程序使计算机执行以下步骤:显示步骤,在显示部101S显示图像;注视点检测步骤,对观察显示部101S的受检者的注视点P的位置进行检测;区域设定步骤,在显示部101S中设定判定区域;判定步骤,基于注视点P的位置数据,分别判定注视点P是否存在于判定区域的内部;运算步骤,基于判定步骤中的判定结果,计算存在注视点P的判定区域的总数;及评价步骤,基于通过运算步骤计算出的存在注视点P的判定区域的总数,求出受检者的评价数据。
根据本实施方式,基于存在注视点P的判定区域的总数,换言之,根据看到多少个评价用图像中的判定区域,能够求出受检者的评价数据。本实施方式能够简单且高精度地进行受检者的ASD的诊断辅助。
在本实施方式中,区域设定部216在图像所含的人物、物体、花纹等设定多个判定区域。ASD的受检者倾向于对特定事物表现出较强的兴趣,因此,更加注视多个判定区域中的某一个的可能性高。这样,根据本实施方式,能够高效地得到高精度的评价数据。
在本实施方式中,评价部224按存在注视点P的每个判定区域进行加权而求出评价数据。由此,能够使用基于已知的临床知识的方法或者根据计测结果使诊断灵敏度变高地选择的方法等对各数据适当地排列优先顺序。根据本实施方式,能够得到更高精度的评价数据。
在本实施方式中,评价部224通过判断评价数据是否为规定的阈值以上,进行评价的判定。根据本实施方式,能够容易得到更高精度的评价数据。
本公开的技术范围不限定于上述实施方式,能够在不脱离本发明的主旨的范围内适当地施加变更。例如,在上述各实施方式中,列举将视线检测装置100用作评价成为ASD的可能性的评价装置的情况为例子进行了说明,但不限定于此。例如,视线检测装置100也能够用于评价是否为注意力不足/多动症(ADHD:Attention-deficit hyperactivitydisorder)的可能性的评价装置。
工业实用性
本公开的评价装置、评价方法及评价程序例如能够用于视线检测装置。
标号说明
A11~A17…判定区域;A21~A23…判定区域;P…注视点;ANS…评价值;20…计算机系统;100…视线检测装置;101…显示装置;101S…显示部;102…立体相机装置;103…照明装置;202…显示控制部;214…注视点检测部;216…区域设定部;218…判定部;220…运算部;222…存储部;224…评价部;226…输出控制部。

Claims (5)

1.一种评价装置,其中,具备:
显示部,显示图像;
注视点检测部,对观察所述显示部的受检者的注视点的位置数据进行检测;
区域设定部,在所述显示部中设定判定区域;
判定部,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;
运算部,基于所述判定部的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及
评价部,基于所述运算部计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
2.根据权利要求1所述的评价装置,其中,
所述区域设定部设定多个所述判定区域,
所述评价部对所述判定区域进行加权而求出评价数据。
3.根据权利要求1或2所述的评价装置,其中,
所述评价部还判断所述评价数据是否为规定的阈值以上,进行评价的判定。
4.一种评价方法,其中,包括:
显示步骤,在显示部显示图像;
注视点检测步骤,对观察所述显示部的受检者的注视点的位置数据进行检测;
区域设定步骤,在所述显示部中设定判定区域;
判定步骤,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;
运算步骤,基于所述判定步骤中的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及
评价步骤,基于通过所述运算步骤计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
5.一种评价程序,其中,使计算机执行以下步骤:
显示步骤,在显示部显示图像;
注视点检测步骤,对观察所述显示部的受检者的注视点的位置数据进行检测;
区域设定步骤,在所述显示部中设定判定区域;
判定步骤,基于所述注视点的位置数据,分别判定所述注视点是否存在于所述判定区域的内部;
运算步骤,基于所述判定步骤中的判定结果,计算在规定时间内存在所述注视点的所述判定区域的总数;及
评价步骤,基于通过所述运算步骤计算出的存在所述注视点的所述判定区域的总数,求出所述受检者的评价数据。
CN201980082608.4A 2018-12-14 2019-12-06 评价装置、评价方法及评价程序 Pending CN113194839A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018233988A JP7057483B2 (ja) 2018-12-14 2018-12-14 評価装置、評価方法、及び評価プログラム
JP2018-233988 2018-12-14
PCT/JP2019/047899 WO2020121975A1 (ja) 2018-12-14 2019-12-06 評価装置、評価方法、及び評価プログラム

Publications (1)

Publication Number Publication Date
CN113194839A true CN113194839A (zh) 2021-07-30

Family

ID=71076883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980082608.4A Pending CN113194839A (zh) 2018-12-14 2019-12-06 评价装置、评价方法及评价程序

Country Status (5)

Country Link
US (1) US20210290133A1 (zh)
EP (1) EP3878373B1 (zh)
JP (1) JP7057483B2 (zh)
CN (1) CN113194839A (zh)
WO (1) WO2020121975A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021192164A (ja) * 2020-06-05 2021-12-16 株式会社Jvcケンウッド 視線検出装置、視線検出方法、及び視線検出プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014068932A (ja) * 2012-09-28 2014-04-21 Jvc Kenwood Corp 診断支援装置および診断支援方法
CN104219992A (zh) * 2012-03-21 2014-12-17 国立大学法人浜松医科大学 自闭症诊断辅助方法和系统以及自闭症诊断辅助装置
WO2016052646A1 (ja) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 不注意の測定装置、システム、及び方法
US20160106354A1 (en) * 2013-06-28 2016-04-21 Jvc Kenwood Corp Diagnosis supporting device and diagnosis supporting method
JP2017099513A (ja) * 2015-11-30 2017-06-08 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP2018140007A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
WO2018216347A1 (ja) * 2017-05-22 2018-11-29 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP5949404B2 (ja) * 2012-09-28 2016-07-06 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP6217445B2 (ja) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド 診断支援装置および診断支援方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104219992A (zh) * 2012-03-21 2014-12-17 国立大学法人浜松医科大学 自闭症诊断辅助方法和系统以及自闭症诊断辅助装置
JP2014068932A (ja) * 2012-09-28 2014-04-21 Jvc Kenwood Corp 診断支援装置および診断支援方法
US20160106354A1 (en) * 2013-06-28 2016-04-21 Jvc Kenwood Corp Diagnosis supporting device and diagnosis supporting method
WO2016052646A1 (ja) * 2014-09-30 2016-04-07 国立大学法人浜松医科大学 不注意の測定装置、システム、及び方法
JP2017099513A (ja) * 2015-11-30 2017-06-08 株式会社Jvcケンウッド 診断支援装置および診断支援方法
JP2018140007A (ja) * 2017-02-28 2018-09-13 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム
WO2018216347A1 (ja) * 2017-05-22 2018-11-29 株式会社Jvcケンウッド 評価装置、評価方法、及び評価プログラム

Also Published As

Publication number Publication date
US20210290133A1 (en) 2021-09-23
EP3878373A1 (en) 2021-09-15
EP3878373B1 (en) 2023-09-20
WO2020121975A1 (ja) 2020-06-18
JP7057483B2 (ja) 2022-04-20
JP2020092924A (ja) 2020-06-18
EP3878373A4 (en) 2022-01-05

Similar Documents

Publication Publication Date Title
EP3075304B1 (en) Line-of-sight detection assistance device and line-of-sight detection assistance method
JP6848526B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP6245093B2 (ja) 診断支援装置および診断支援方法
WO2020137028A1 (ja) 表示装置、表示方法、およびプログラム
EP3928713B1 (en) Evaluation device, evaluation method, and evaluation program
EP3028644B1 (en) Diagnosis assistance device and diagnosis assistance method
CN113194839A (zh) 评价装置、评价方法及评价程序
JP7268307B2 (ja) 評価装置、評価装置の作動方法、及び評価プログラム
JP6996343B2 (ja) 評価装置、評価方法、及び評価プログラム
EP3970624B1 (en) Evaluation device, evaluation method, and evaluation program
EP3884873B1 (en) Evaluation device, evaluation method, and evaluation program
JP7215246B2 (ja) 表示装置、表示方法、及び表示プログラム
JP6766646B2 (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP7074221B2 (ja) 評価装置、評価方法、及び評価プログラム
US11653831B2 (en) Visual performance examination device, visual performance examination method, and computer program
WO2021010122A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7247690B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6677156B2 (ja) 視機能検査装置、視機能検査方法、及びコンピュータプログラム
JP7027958B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2023181494A1 (ja) 評価装置、評価方法及び評価プログラム
WO2015080003A1 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
WO2019181272A1 (ja) 評価装置、評価方法、及び評価プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination