CN106163418A - 检测装置和检测方法 - Google Patents

检测装置和检测方法 Download PDF

Info

Publication number
CN106163418A
CN106163418A CN201580015593.1A CN201580015593A CN106163418A CN 106163418 A CN106163418 A CN 106163418A CN 201580015593 A CN201580015593 A CN 201580015593A CN 106163418 A CN106163418 A CN 106163418A
Authority
CN
China
Prior art keywords
viewpoint
image
testee
geometrical pattern
scope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580015593.1A
Other languages
English (en)
Other versions
CN106163418B (zh
Inventor
首藤胜行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014062184A external-priority patent/JP6187347B2/ja
Priority claimed from JP2014062183A external-priority patent/JP2015181797A/ja
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of CN106163418A publication Critical patent/CN106163418A/zh
Application granted granted Critical
Publication of CN106163418B publication Critical patent/CN106163418B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/40ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Pathology (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明具有:显示部(101);拍摄部(102),对被检验者进行拍摄;视线检测部(354),根据通过拍摄部(102)拍摄的拍摄图像,检测被检验者的视线方向;输出控制部(356),使包括含有脸的图像的自身人物图像和几何图案图像的诊断图像显示于显示部(101);以及视点检测部(355),根据视线方向,对作为人物图像内的被检验者的视点的第一视点进行检测,对作为几何图案图像内的包括几何图案的中心、几何图案的特征部分、描绘几何图案的线的密度比其他部分大的部分以及几何图案变化的部分中的至少一个的区域中的被检验者的视点的第二视点进行检测。

Description

检测装置和检测方法
技术区域
本发明涉及检测装置和检测方法。
背景技术
最近,据说存在智障者增加的倾向。关于智障,可知通过早期发现并开始治疗教育来减轻症状,并且能够适应社会的效果提高。在日本,也以通过1岁半诊查时的门诊等来早期发现为目标。但是,存在精神科医生不足、门诊花费时间等问题,其效果不能说是充分的。因此,要求客观且高效的智障的诊断辅助装置。
为了智障的早期发现,理想的是例如在1岁半诊查时能够诊断。另外,对于诊查时的使用需要多考虑。作为智障儿童的特征,可以举出不看对面的对方的眼睛(转移视线)的例子。另外,作为智障儿童的特征,相比于人物影像更喜欢几何图案的影像。公开有如下的方法:应用通过相机对人的脸进行摄影,并通过计算角膜反射和瞳孔的位置来检测注视点的方法等,对智障进行诊断辅助。
现有技术文献
专利文献
专利文献1:日本特开2011-206542号公报
专利文献2:日本特开2005-198743号公报
非专利文献
非专利文献1:Pierce K et al.,“Preference for Geometric Patterns Earlyin Life as a Risk Factor for Autism.”,Arch Gen Psychiatry.2011Jan;68(1):101-109.
发明内容
虽然如上所述公开有检测注视点的方法、辅助智障的被检验者的诊断的方法,但是要求更高精度的检测方法。
本发明是鉴于上述情况而完成的,其目的在于,提供能够提高检测精度的检测装置和检测方法。
为了解决上述的课题并实现目的,本发明具有:显示部;拍摄部,对被检验者进行拍摄;视线检测部,根据通过所述拍摄部拍摄的拍摄图像,检测所述被检验者的视线方向;输出控制部,使包含人物图像和几何图案图像的诊断图像显示于所述显示部;以及视点检测部,根据所述视线方向,对作为所述人物图像内的所述被检验者的视点的第一视点进行检测,对作为所述几何图案图像内的包含几何图案的中心、几何图案的特征部分、描绘几何图案的线的密度比其他部分大的部分以及几何图案变化的部分中的至少一个的区域中的所述被检验者的视点的第二视点进行检测。
本发明的检测装置和检测方法具有能够提高检测精度的效果。
附图说明
图1是示出本实施方式的显示部、立体相机、红外线光源以及被检验者的配置的一例的图。
图2是示出本实施方式的显示部、立体相机、红外线光源以及被检验者的配置的一例的图。
图3是示出诊断辅助装置的功能的概要的图。
图4是示出图3所示的各部分的详细功能的一例的框图。
图5是说明通过本实施方式的诊断辅助装置执行的处理的概要的图。
图6是示出使用两个光源的方法与使用一个光源的本实施方式之间的不同的说明图。
图7是用于说明计算瞳孔中心位置与角膜曲率中心位置的距离的计算处理的图。
图8是示出本实施方式的计算处理的一例的流程图。
图9是示出使用事先求出的距离计算角膜曲率中心的位置的方法的图。
图10是示出本实施方式的视线检测处理的一例的流程图。
图11是示出诊断图像的一例的图。
图12是示出在本实施方式中使用的诊断图像的一例的图。
图13是示出在本实施方式中使用的诊断图像的另一例的图。
图14是示出使用图12的诊断图像时的诊断辅助处理的一例的流程图。
图15是示出使用图13的诊断图像时的诊断辅助处理的一例的流程图。
图16是示出在本实施方式中使用的诊断图像的另一例的图。
具体实施方式
以下,根据附图对本发明的检测装置和检测方法的实施方式进行详细说明。另外,本发明不限定于该实施方式。另外,以下对在使用视线检测结果辅助智障等的诊断的诊断辅助装置中使用了检测装置的例子进行说明。能够适用的装置不限定于诊断辅助装置。
本实施方式的检测装置(诊断辅助装置)使用设置在一处的照明部检测视线。另外,本实施方式的检测装置(诊断辅助装置)使用在视线检测前使被检验者注视一点来检测到的结果,高精度地计算出角膜曲率中心位置。
另外,照明部包含光源,是能够对被检验者的眼球照射光的要件。光源是例如LED(Light Emitting Diode,发光二极管)等产生光的元件。光源也可以由一个LED构成,也可以组合多个LED而配置在一处来构成。以下,作为这种表示照明部的用语有时使用“光源”。
另外,也可以构成为使用设置在两处以上的照明部检测视线。此时,例如能够适用与专利文献2相同的视线检测方法。
图1和图2是示出本实施方式的显示部、立体相机、红外线光源以及被检验者的配置的一例的图。
如图1所示,本实施方式的诊断辅助装置包含显示部101、立体相机102、LED光源103。立体相机102配置在显示部101的下方。LED光源103配置在包含于立体相机102的两个相机的中心位置。LED光源103是例如照射波长850nm的近红外线的光源。在图1中,示出通过9个LED构成LED光源103(照明部)的例子。另外,立体相机102使用能够透射波长850nm的近红外光的透镜。
如图2所示,立体相机102具备右相机202和左相机203。LED光源103朝向被检验者的眼球111照射近红外光。在由立体相机102获取的图像中,瞳孔112以低亮度反射而变暗,在眼球111内作为虚像产生的角膜反射113以高亮度反射而变亮。因此,能够通过两台相机(右相机202、左相机203)分别获取瞳孔112和角膜反射113的图像上的位置。
而且,根据通过两台相机得到的瞳孔112和角膜反射113的位置,计算出瞳孔112和角膜反射113的位置的三维世界坐标值。在本实施方式中,作为三维世界坐标,将显示部101的画面的中央位置作为原点,将上下作为Y坐标(上为+),将横方向作为X坐标(右边为+),将深度作为Z坐标(跟前为+)。
图3是示出诊断辅助装置100的功能的概要的图。在图3中示出图1和图2所示的结构的一部分和在该结构的驱动等中使用的结构。如图3所示,诊断辅助装置100包含右相机202、左相机203、LED光源103、扬声器205、驱动·IF(interface,接口)部313、控制部300、存储部150、显示部101。在图3中,虽然以容易理解与右相机202和左相机203的位置关系的方式示出了显示画面201,但是显示画面201是在显示部101中显示的画面。另外,驱动部与IF部可以使是一体的,也可以是单独的。
扬声器205在校准时等作为输出用于提醒被检验者注意的声音等的声音输出部来发挥功能。
驱动·IF部313对包含在立体相机102中的各部分进行驱动。另外,驱动·IF部313由包含在立体相机102中的各部分与控制部300的接口构成。
控制部300例如能够通过具有CPU(Central Processing Unit,中央处理器)等的控制装置、ROM(Read Only Memory,只读存储器)或RAM(Random Access Memory,随机存取存储器)等的存储装置、连接到网络而进行通信的通信I/F、连接各部分的总线的计算机等实现。
存储部150存储控制程序、检测结果、诊断辅助结果等各种信息。存储部150例如存储显示于显示部101的图像等。显示部101显示用于诊断的对象图像等各种信息。
图4是示出图3所示的各部分的详细功能的一例的框图。如图4所示,在控制部300上连接有显示部101、驱动·IF部313。驱动·IF部313具有相机IF314、相机IF315、LED驱动控制部316、扬声器驱动部322。
在驱动·IF部313上通过相机IF314、相机IF315分别连接有右相机202、左相机203。驱动·IF部313对这些相机进行驱动,从而对被检验者进行拍摄。
扬声器驱动部322对扬声器205进行驱动。另外,也可以是诊断辅助装置100具备用于与作为印刷部的打印机连接的接口(打印机IF)。另外,也可以构成为在诊断辅助装置100的内部具备打印机。
控制部300对诊断辅助装置100整体进行控制。控制部300具备第一计算部351、第二计算部352、第三计算部353、视线检测部354、视点检测部355、输出控制部356、评价部357。另外,作为视线检测装置,只要至少具备第一计算部351、第二计算部352、第三计算部353以及视线检测部354即可。
包含在控制部300中的各要件(第一计算部351、第二计算部352、第三计算部353、视线检测部354、视点检测部355、输出控制部356以及评价部357)可以通过软件(程序)实现,也可以通过硬件电路实现,也可以并用软件与硬件电路来实现。
在通过程序实现的情况下,该程序以能够安装的形式或者能够执行的形式的文件记录在CD-ROM(Compact Disk Read Only Memory,压缩盘只读存储器)、软盘(FD)、CD-R(Compact Disk Recordable,可记录压缩盘)、DVD(Digital Versatile Disk,数字通用磁盘)等计算机能够读取的记录介质而作为计算机程序产品来提供。也可以将程序构成为,存储在与因特网等网络连接的计算机上,并经由网络下载来提供。另外,也可以构成为,经由因特网等网络来提供或分发程序。另外,也可以构成为,预先组装到ROM等来提供程序。
第一计算部351根据通过立体相机102拍摄的眼球的图像,计算出表示瞳孔的中心的瞳孔中心的位置(第一位置)。第二计算部352根据所拍摄的眼球的图像,计算出表示角膜反射的中心的角膜反射中心的位置(第二位置)。
第三计算部353根据连结LED光源103与角膜反射中心的直线计算出角膜曲率中心(第三位置)。例如,第三计算部353将在该直线上到角膜反射中心的距离成为预定值的位置计算出为角膜曲率中心。关于预定值,能够使用根据一般的角膜曲率半径值等事先确定的值。
由于在角膜的曲率半径值上产生个体差异,因此当使用事先确定的值计算出角膜曲率中心时存在误差变大的可能性。因此,第三计算部353也可以考虑个体差异来计算出角膜曲率中心。此时,第三计算部353首先使用使被检验者注视目标位置时计算出的瞳孔中心和角膜反射中心,计算出连结瞳孔中心与目标位置的直线、以及连结角膜反射中心与LED光源103的直线的交点(第四位置)。并且第三计算部353计算出瞳孔中心与所计算出的交点之间的距离(第一距离),例如存储在存储部150中。
关于目标位置,只要是预先确定且能够计算出三维世界坐标值的位置即可。例如,能够将显示画面201的中央位置(三维世界坐标的原点)作为目标位置。此时,例如输出控制部356在显示画面201上的目标位置(中央)上,显示使被检验者注视的图像(目标图像)等。由此,能够使被检验者注视目标位置。
关于目标图像,只要是能够使被检验者注目的图像,则也可以是任何图像。例如,能够将亮度或颜色等显示方式变化的图像以及显示方式与其他的区域不同的图像等使用为目标图像。
另外,目标位置不限定于显示画面201的中央,可以是任意的位置。如果使显示画面201的中央作为目标位置,则与显示画面201的任意端部的距离变得最小。因此,例如能够减小视线检测时的测定误差。
例如在开始实际的视线检测之前事先执行到计算出距离为止的处理。在实际的视线检测时,第三计算部353将在连结LED光源103与角膜反射中心的直线上到瞳孔中心的距离成为事先计算出的距离的位置算出为角膜曲率中心。
视线检测部354从瞳孔中心和角膜曲率中心检测被检验者的视线。例如视线检测部354将从角膜曲率中心朝向瞳孔中心的方向检测为被检验者的视线方向。
视点检测部355使用检测到的视线方向检测被检验者的视点。视点检测部355例如对在显示画面201上被检验者注视的点、即视点(注视点)进行检测。视点检测部355将例如如图2所示的通过三维世界坐标系表示的视线矢量与XY平面的交点检测为被检验者的注视点。
输出控制部356控制对显示部101和扬声器205等的各种信息的输出。例如,输出控制部356使目标图像输出到显示部101上的目标位置。另外,输出控制部356对诊断图像和基于评价部357的评价结果等对于显示部101的输出进行控制。
诊断图像只要是与基于视线(视点)检测结果的评价处理对应的图像即可。例如如果是诊断智障的情况,则也可以使用包含智障的被检验者喜欢的图像(几何图案图像等)、除此以外的图像(人物图像等)的诊断图像。图像可以是静态图像也可以是动态图像。几何图案图像是例如包含一个以上的几何图案的图像。人物图像例如只要是包含人物的脸的图像即可。另外,也可以使用在通过相机对动物、植物以及自然景观等进行了拍摄的图像(静态图像、动态图像)中存在人物的图像。另外,也可以使用模拟了人物等的字符的图像(静态图像、动态图像)。
评价部357进行基于诊断图像和通过视点检测部355检测到的注视点的评价处理。例如如果是诊断智障的情况,则评价部357对诊断图像和注视点进行分析,对是否注视了智障的被检验者喜欢的图像进行评价。
图5是说明通过本实施方式的诊断辅助装置100执行的处理的概要的图。对在图1~图4中说明的要件标上相同的标号并省略说明。
瞳孔中心407和角膜反射中心408分别表示在使LED光源103点灯时检测的瞳孔的中心和角膜反射点的中心。角膜曲率半径409表示从角膜表面到角膜曲率中心410的距离。
图6是示出使用两个光源(照明部)的方法(以下,作为方法A)与使用一个光源(照明部)的本实施方式的不同的说明图。对于在图1~图4中说明的要件标上相同的标号并省略说明。另外,关于左右相机(右相机202、左相机203)与控制部300连接的情况,未图示并进行省略。
关于方法A,代替LED光源103使用两个LED光源511、LED光源512。在方法A中,计算出照射LED光源511时的连结角膜反射中心513与LED光源511的直线515、以及照射LED光源512时的连结角膜反射中心514与LED光源512的直线516的交点。该交点成为角膜曲率中心505。
相对于此,在本实施方式中,考虑照射了LED光源103时的、连结角膜反射中心522与LED光源103的直线523。直线523穿过角膜曲率中心505。另外,可知角膜的曲率半径的基于个体差异的影响少,几乎成为恒定的值。基于这些,照射LED光源103时的角膜曲率中心存在于直线523上,能够通过使用一般的曲率半径值来计算。
但是,当使用通过一般的曲率半径值求出的角膜曲率中心的位置计算视点时,由于眼球的个体差异而视点位置从原来的位置偏移,存在无法进行正确的视点位置检测的情况。
图7是用于说明在进行视点检测(视线检测)之前,计算角膜曲率中心位置和瞳孔中心位置与角膜曲率中心位置之间的距离的计算处理的图。关于在图1~图4中说明的要件标上相同的标号并省略说明。
目标位置605是在显示部101上的一点上显现目标图像等而用于使被检验者注视的位置。在本实施方式中为显示部101的画面的中央位置。直线613是连结LED光源103与角膜反射中心612的直线。直线614为连接被检验者注视的目标位置605(注视点)与瞳孔中心611的直线。角膜曲率中心615是直线613与直线614的交点。第三计算部353计算出瞳孔中心611与角膜曲率中心615之间的距离616而进行存储。
图8是示出本实施方式的计算处理的一例的流程图。
首先,输出控制部356在显示部101的画面上的一点上再现目标图像(步骤S101),使被检验者注视该一点。接着,控制部300使用LED驱动控制部316使LED光源103朝向被检验者的眼睛点灯(步骤S102)。控制部300通过左右相机(右相机202、左相机203)对被检验者的眼睛进行拍摄(步骤S103)。
通过LED光源103的照射,瞳孔部分被检测为暗的部分(暗瞳孔)。另外,作为LED照射的反射,产生角膜反射的虚像,作为明亮的部分检测到角膜反射点(角膜反射中心)。即,第一计算部351根据所拍摄的图像检测瞳孔部分,计算出表示瞳孔中心的位置的坐标。另外,第二计算部352根据所拍摄的图像检测角膜反射部分,计算出表示角膜反射中心的位置的坐标。另外,第一计算部351和第二计算部352对通过左右相机获取的两个图像分别计算出各坐标值(步骤S104)。
另外,关于左右相机,为了获取三维世界坐标,事先进行了基于立体校正方法的相机校正并计算出转换参数。关于立体校正方法,能够适用使用了Tsai的相机校准理论的方法等从以往开始使用的所有的方法。
第一计算部351和第二计算部352使用该转换参数,进行从左右相机的坐标向瞳孔中心和角膜反射中心的三维世界坐标的转换(步骤S105)。第三计算部353求出连结所求出的角膜反射中心的世界坐标与LED光源103的中心位置的世界坐标的直线(步骤S106)。接着,第三计算部353计算出连结在显示部101的画面上的一点上显示的目标图像的中心的世界坐标与瞳孔中心的世界坐标的直线(步骤S107)。第三计算部353求出在步骤S106中计算出的直线与在步骤S107中计算出的直线的交点,将该交点作为角膜曲率中心(步骤S108)。第三计算部353计算出此时的瞳孔中心与角膜曲率中心之间的距离并存储到存储部150等中(步骤S109)。所存储的距离是在之后的视点(视线)检测时算出角膜曲率中心而使用。
在计算处理中注视显示部101上的一点时的瞳孔中心与角膜曲率中心之间的距离,在检测显示部101内的视点的范围内保持恒定。关于瞳孔中心与角膜曲率中心之间的距离,可以根据目标图像的再现中计算出的值整体的平均求出,也可以根据在再现中计算出的值中的几个值的平均求出。
图9是示出在进行视点检测时,使用事先求出的瞳孔中心与角膜曲率中心之间的距离,计算被校正的角膜曲率中心的位置的方法的图。注视点805表示从使用一般的曲率半径值计算出的角膜曲率中心求出的注视点。注视点806表示从使用事先求出的距离计算出的角膜曲率中心求出的注视点。
瞳孔中心811和角膜反射中心812分别表示在视点检测时计算出的瞳孔中心的位置和角膜反射中心的位置。直线813是连结LED光源103与角膜反射中心812的直线。角膜曲率中心814是从一般的曲率半径值计算出的角膜曲率中心的位置。距离815是事先通过计算处理计算出的瞳孔中心与角膜曲率中心之间的距离。角膜曲率中心816是使用事先求出的距离计算出的角膜曲率中心的位置。从角膜曲率中心存在于直线813上以及瞳孔中心与角膜曲率中心之间的距离为距离815求出角膜曲率中心816。由此在使用一般的曲率半径值时计算出的视线817被校正为视线818。另外,显示部101的画面上的注视点从注视点805校正为注视点806。另外,关于左右相机(右相机202、左相机203)与控制部300连接的情况,未图示并进行省略。
图10是示出本实施方式的视线检测处理的一例的流程图。例如,作为在使用诊断图像的诊断处理中检测视线的处理,能够执行图10的视线检测处理。在诊断处理中,除了图10的各步骤以外,执行显示诊断图像的处理以及使用了注视点的检测结果的基于评价部357的评价处理等。
步骤S201~步骤S205与图8的步骤S102~步骤S106相同,因此省略说明。
第三计算部353将在步骤S205中计算出的直线上的到瞳孔中心的距离与通过事先的计算处理求出的距离相等的位置计算出为角膜曲率中心(步骤S206)。
视线检测部354求出连结瞳孔中心与角膜曲率中心的矢量(视线矢量)(步骤S207)。该矢量表示被检验者正在观察的视线方向。视点检测部355计算出该视线方向与显示部101的画面的交点的三维世界坐标值(步骤S208)。该值为用世界坐标表示被检验者注视的显示部101上的一点的坐标值。视点检测部355将所求出的三维世界坐标值转换为通过显示部101的二次元坐标系表示的坐标值(x,y)(步骤S209)。由此,能够计算出被检验者注视的显示部101上的视点(注视点)。
接着,对诊断辅助处理的详细进行说明。作为诊断辅助的方法,例如,可以考虑使用使人物图像和几何图案图像左右并排的诊断图像,对注视了左右各图像的范围(区域)内的时间进行合计的方法。图11是示出通过这种方法显示的诊断图像的一例的图。在显示画面201的中央附近的左边显示包含人物图像(范围H)的诊断图像,在右边显示包含几何图案图像(范围K)的诊断图像。并且,在范围H整体和范围K整体上,分别检测注视点的停留时间。在这种方法中,例如,即使在不注视人物图像(范围H)内的脸部分而视线偶然地朝向范围H的端部等时,也判断为注视了人物图像。
此处,在本实施方式中,在人物图像和几何图案图像上分别设置适合诊断辅助的一部分的区域(范围)。并且,检测注视了该部分的时间,通过比较检测到的时间来进行诊断辅助。例如,在人物图像中的脸的部分设置判定范围(第一特定区域),在几何图案的中心部分设置判定范围(第二特定区域)。并且,根据各自的判定范围的注视时间进行判定。由此,通过特别仔细观察了人物的脸部分、或者仔细观察了几何图案的中心,而正常发育的被检验者与智障的被检验者的注视时间的差变得更大。其结果,能够进一步实现高精度的检测。
图12是示出在本实施方式中使用的诊断图像的一例的图。与图11同样,在显示画面201的中央附近的左边显示包含人物图像(范围H)的诊断图像,在右边显示包含几何图案图像(范围K)的诊断图像。在本实施方式中,在人物图像和几何图案图像的各自中,进一步设置特定的判定范围。例如,范围H包含范围1A和范围2A作为判定范围。另外,范围K包含范围3B、范围4B以及范围5B作为判定范围。
范围1A是包含第一人物(少女)的脸的范围。范围2A是包含第二人物(婴儿)的脸的范围。范围3B是包含范围K内的三个几何图案中的左上部的几何图案的中心的范围。范围4B是包含下部的几何图案的中心的范围。范围5B是包含中央右的几何图案的中心的范围。
在检测到被检验者对人感兴趣、或者对几何图案感兴趣时,使判定为对人感兴趣的范围,成为范围1A和范围2A中的至少一个。另外,使判定为对几何图案感兴趣的范围,成为范围3B、范围4B以及范围5B中的至少一个。
图13是示出在本实施方式中使用的诊断图像的另一例的图。在图13的例子中,范围H包含范围12A和范围13A作为判定范围。另外,范围K包含范围11B作为判定范围。图13是相对于图12人物图像(范围H)和几何图案图像(范围K)的配置不同的诊断图像的例子。即,在图13中,左边为几何图案图像(范围K),右边为人物图像(范围H)。通过使用这种不同配置的诊断图像,确认被检验者的视线是否依赖于左右的位置关系,能够进行更正确的诊断。
范围11B是范围K内的包含几何图案整体的中心的范围。范围12A是包含第一人物(少女)的脸的范围。范围13A是包含第二人物(母亲)的脸的范围。
在检测到被检验者对人感兴趣、或者对几何图案感兴趣时,使判定为对人感兴趣的范围成为范围12A和范围13A中的至少一个。另外,使判定为对几何图案感兴趣的范围成为范围11B。
另外,在图12和图13中,虽然使判定范围的形状成为椭圆(或者圆),但是判定范围的形状并不限定于此,可以是任意的形状。另外,虽然例如在图12中示出包含三个同心圆状的几何图案的几何图案图像的例子,但是几何图案的个数可以是任意的。如上所述诊断图像也可以是动态图像,此时,只要根据图像的移动而判定范围也移动即可。另外,作为诊断图像上的符号的黑色的“○”的轨迹,表示在诊断图像上检测到的注视点的轨迹的例子。
图14是示出使用图12的诊断图像时的诊断辅助处理的一例的流程图。
首先,控制部300开始图像(影像)的再现(步骤S301)。接着,控制部300对计测比影像的再现时间稍微短的时间的计时器进行重置(步骤S302)。接着,控制部300对注视人物图像内的判定范围时计数的计数器1、注视几何图案图像内的判定范围时计数的计数器2、在不是双方的范围内时计数的计数器3进行重置(步骤S303)。
以下说明的注视点检测例如按同步而拍摄的立体相机的每一帧进行。即,按每个预定的时间间隔检测注视点。因此,计数器1、计数器2以及计数器3的计数值对应于注视时间。计数器1相当于在人物图像内的判定范围中检测到注视点(第一视点)的时间(注视时间)。另外,计数器2相当于在几何图案图像内的判定范围中检测到注视点(第二视点)的时间(注视时间)。
接着,进行注视点检测(步骤S304)。注视点检测是例如根据到图10为止说明的顺序,由第一计算部351、第二计算部352、第三计算部353以及视线检测部354执行。接着,控制部300判断注视点检测是否失败(步骤S305)。例如,在通过眨眼等而得不到瞳孔和角膜反射的图像时,注视点检测失败。另外,在注视点不在显示画面201内时(观察显示画面201以外时),注视点检测也失败。
在注视点检测失败时(步骤S305:是),由于不对计数器1、计数器2以及计数器3产生影响,因此跳过步骤S306~步骤S313的处理,移动到步骤S314。
在注视点检测成功时(步骤S305:否),控制部300通过所得到的注视点的坐标,判断注视点是否位于范围1A内(步骤S306)。如果位于范围1A内(步骤S306:是),则控制部300使计数器1进行计数(步骤S311)。在不位于范围1A内时(步骤S306:否),控制部300判定注视点是否位于范围2A内(步骤S307)。如果位于范围2A内(步骤S307:是),则控制部300使计数器1进行计数(步骤S311)。
在注视点没有位于范围2A内时(步骤S307:否),控制部300通过所得到的注视点的坐标,判断注视点是否位于范围3B内(步骤S308)。如果位于范围3B内(步骤S308:是),则控制部300使计数器2进行计数(步骤S312)。在没有位于范围3B内时(步骤S308:否),控制部300判断注视点是否位于范围4B内(步骤S309)。如果注视点位于范围4B内(步骤S309:是),则控制部300使计数器2进行计数(步骤S312)。在注视点没有位于范围4B内时(步骤S309:否),控制部300判断注视点是否位于范围5B内(步骤S310)。如果位于范围5B内(步骤S310:是),则控制部300使计数器2进行计数(步骤S312)。
在任何判定范围内都没有注视点时(步骤S310:否),成为没有观察人的脸、也没有观察几何图案的中心附近的情况,因此控制部300使计数器3进行计数(步骤S313)。
接着,为了确认影像的结束,控制部300调查计时器的完成(步骤S314)。例如,在计时器的值达到与影像的结束时间对应的预定值时,控制部300判定为计时器已完成。在没有完成时(步骤S314:否),返回步骤S304并重复进行处理。
在计时器已完成时(步骤S314:是),控制部300使影像的再现停止(步骤S315)。接着,控制部300输出计数器1的数据(步骤S316)。计数器1的数据对应于人物图像内的判定范围的注视时间。接着,控制部300输出计数器2的数据(步骤S317)。计数器2的数据对应于几何图案内的判定范围的注视时间。
接着,评价部357计算计数器1与计数器2的比例(步骤S318)。此时的比例,具体为,计数器1的计数值相对于计数器2的计数值的比例、计数器2的计数值相对于计数器1的计数值的比例、计数器1的计数值相对于计数器1的计数值+计数器2的计数值的比例、或者计数器2的计数值相对于计数器1的计数值+计数器2的计数值的比例等。这种评价值成为智障的可能性的指针。注视几何图案内的判定范围的比例越高,智障的可能性越高。评价部357输出所计算出的评价值(比例数据)(步骤S319)。
接着,评价部357计算计数器1的计数值相对于用于评价的所有视点的计数值(计数器1的计数值+计数器2的计数值+计数器3的计数值)的比例(步骤S320)。该值越高,智障的可能性越低。
接着,评价部357计算计数器2的计数值相对于用于评价的所有视点的计数值(计数器1的计数值+计数器2的计数值+计数器3的计数值)的比例(步骤S321)。该值越高,智障的可能性越高。
另外,评价值的计算方法不限定于上述方法。只要是能够判定注视人物图像和花样图像的哪一个的值,则也可以使用任何评价值。在图14的例子中,虽然计算出了三个评价值(步骤S318、步骤S320、步骤S321),但是计算出的评价值的个数是任意的。
如上所述,在本实施方式中,使人物图像内和几何学图像内的一部分的范围成为视点的检测对象(诊断对象),而不是使人物图像和几何学图像的整体(例如范围H、范围K)成为视点的检测对象(诊断对象)。由此,例如,能够避免在没有要注视的意图而视点偶然地进入到范围内时错误地检测注视点。即,能够提高检测(诊断)的精度。
图15是示出使用图13的诊断图像时的诊断辅助处理的一例的流程图。
步骤S401~步骤S405与图14的步骤S301~步骤S305相同,因此省略说明。
在注视点检测成功时,控制部300通过所得到的注视点的坐标,判断注视点是否位于范围11B内(步骤S406)。如果位于范围11B内(步骤S406:是),则控制部300使计数器2进行计数(步骤S410)。
在注视点没有位于范围11B内时(步骤S406:否),控制部300判断注视点是否位于范围12A内(步骤S407)。如果位于范围12A内(步骤S407:是),则控制部300使计数器1进行计数(步骤S409)。在不位于范围12A内时(步骤S407:否),控制部300判断注视点是否位于范围13A内(步骤S408)。如果位于范围13A内(步骤S408:是),则控制部300使计数器1进行计数(步骤S409)。
在任意一个判定范围内都没有注视点时(步骤S408:否),成为没有观察人的脸、也没有观察几何图案的中心附近的情况,因此控制部300使计数器3进行计数(步骤S411)。
步骤S412~步骤S419与图13的步骤S314~步骤S321相同,因此省略说明。
另外,设置在人物图像内的判定范围不限定于包含脸部分的范围。同样,设置在几何图案图像内的判定范围不限定于包含几何图案的中心的范围。在各图像中,只要是正常发育被检验者与智障被检验者的注视时间的差变大的范围,则可以是任何范围。
例如,如果是脸部分的图像大的情况,则也可以将人物图像内的包含眼睛的范围作为判定范围。另外,也可以将在几何图案图像内包含几何图案的特征部分的范围、包含描绘几何图案的线的密度比其他部分大的部分的范围、包含几何图案变化的部分的范围等作为判定范围。
另外,诊断图像不限定于使人物图像和几何图案图像并列的图像,只要包含人物图像和几何图案图像则可以是任何图像。图16是示出在本实施方式中使用的诊断图像的另一例的图。图16是从中央到左部包含人物图像,在右部包含几何图案图像(范围K)的诊断图像的例子。范围22A和范围23A是人物图像内的判定范围。范围21B是几何图案图像内的判定范围。在使用图16的诊断图像时,只要代替图13的范围12A、范围13A以及范围11B,使用范围22A、范围23A以及范围21B,执行例如图15的诊断辅助处理即可。
另外,关于诊断图像,虽然在人物图像内和几何图案图像内分别设置了判定范围,但是也可以关于人物图像在人物图像内设置判定范围、关于几何图案图像将几何图案图像整体作为判定范围来检测视点。另外,也可以关于人物图像将人物图像整体作为判定范围、关于几何图案图像在几何图案图像内设置判定范围来检测视点。通过在至少一个图像内设置判定范围,从而能够提高视点的检测精度。
如上所述,根据本实施方式,能够得到例如以下的效果。
(1)相比于对观察人物图像整体的注视时间与观察几何图案图像整体的注视时间进行比较的现有方法,由于正常发育被检验者与智障被检验者的注视时间(评价结果)的差变大,因此灵敏度和特异性提高。
(2)无需将光源(照明部)配置在两处,能够通过配置在一处的光源来进行视线检测。
(3)由于光源存在于一处,因此能够使装置实现紧凑化,也能够实现成本的降低。
将日本特愿2014-062183号(申请日:2014年3月25日)和日本特愿2014-062184号(申请日:2014年3月25日)的所有内容援用于此。
标号说明
100 诊断辅助装置
101 显示部
102 立体相机
103 LED光源
150 存储部
201 显示画面
202 右相机
203 左相机
205 扬声器
300 控制部
313 驱动·IF部
316 LED驱动控制部
322 扬声器驱动部
351 第一计算部
352 第二计算部
353 第三计算部
354 视线检测部
355 视点检测部
356 输出控制部
357 评价部

Claims (7)

1.一种检测装置,具有:
显示部;
拍摄部,对被检验者进行拍摄;
视线检测部,根据通过所述拍摄部拍摄的拍摄图像,检测所述被检验者的视线方向;
输出控制部,使包含人物图像和几何图案图像的诊断图像显示于所述显示部;以及
视点检测部,根据所述视线方向,对所述人物图像内的所述被检验者的视点即第一视点进行检测,对所述几何图案图像内的包含几何图案的中心、几何图案的特征部分、描绘几何图案的线的密度比其他部分大的部分以及几何图案变化的部分中的至少一个的区域中的所述被检验者的视点即第二视点进行检测。
2.根据权利要求1所述的检测装置,其中,
所述视点检测部对作为所述人物图像内的包含脸的区域中的所述被检验者的视点的第一视点进行检测。
3.根据权利要求1或2所述的检测装置,其中,
所述检测装置还具有评价部,该评价部根据所述第一视点和所述第二视点来计算出所述被检验者的评价值。
4.根据权利要求3所述的检测装置,其中,
所述评价部根据所述第一视点的计数值相对于所述第二视点的计数值的比例、所述第二视点的计数值相对于所述第一视点的计数值的比例、所述第一视点的计数值相对于用于评价的所有视点的计数值的比例以及所述第二视点的计数值相对于用于评价的所有视点的计数值的比例中的至少一个,计算出所述被检验者的评价值。
5.根据权利要求1所述的检测装置,其中,
所述检测装置还具有:
照明部,包含照射光的光源;
第一计算部,根据通过所述照明部照射光且通过所述拍摄部拍摄的被检验者的眼球的图像来计算出表示瞳孔的中心的第一位置;
第二计算部,根据所拍摄的所述眼球的图像来计算出表示角膜反射的中心的第二位置;以及
第三计算部,根据连结所述光源与所述第二位置的直线来计算出表示角膜曲率中心的第三位置,
所述视线检测部根据所述第一位置和所述第三位置检测所述被检验者的视线。
6.一种检测装置,具有:
显示部;
拍摄部,对被检验者进行拍摄;
视线检测部,根据通过所述拍摄部拍摄的拍摄图像,检测所述被检验者的视线方向;
输出控制部,使包括含有脸的人物图像和几何图案图像的诊断图像显示于所述显示部;以及
视点检测部,根据所述视线方向,对所述人物图像内的包含脸的区域中的所述被检验者的视点即第一视点进行检测,对所述几何图案图像内的所述被检验者的视点即第二视点进行检测。
7.一种检测方法,包括:
视线检测步骤,根据通过对被检验者进行拍摄的拍摄部拍摄的拍摄图像,检测所述被检验者的视线方向;
输出控制步骤,使包含人物图像和几何图案图像的诊断图像显示于显示部;以及
视点检测步骤,根据所述视线方向,对所述人物图像内的所述被检验者的视点即第一视点进行检测,对所述几何图案图像内的包含几何图案的中心、几何图案的特征部分、描绘几何图案的线的密度比其他部分大的部分以及几何图案变化的部分中的至少一个的区域中的所述被检验者的视点即第二视点进行检测。
CN201580015593.1A 2014-03-25 2015-02-27 检测装置和检测方法 Active CN106163418B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014-062183 2014-03-25
JP2014062184A JP6187347B2 (ja) 2014-03-25 2014-03-25 検出装置および検出方法
JP2014-062184 2014-03-25
JP2014062183A JP2015181797A (ja) 2014-03-25 2014-03-25 検出装置および検出方法
PCT/JP2015/055992 WO2015146491A1 (ja) 2014-03-25 2015-02-27 検出装置および検出方法

Publications (2)

Publication Number Publication Date
CN106163418A true CN106163418A (zh) 2016-11-23
CN106163418B CN106163418B (zh) 2019-06-18

Family

ID=54195022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580015593.1A Active CN106163418B (zh) 2014-03-25 2015-02-27 检测装置和检测方法

Country Status (6)

Country Link
US (1) US10159408B2 (zh)
EP (1) EP3123943B1 (zh)
CN (1) CN106163418B (zh)
AU (1) AU2015235511B2 (zh)
SG (1) SG11201607901YA (zh)
WO (1) WO2015146491A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016046642A (ja) * 2014-08-21 2016-04-04 キヤノン株式会社 情報処理システム、情報処理方法及びプログラム
WO2016031666A1 (ja) * 2014-08-29 2016-03-03 アルプス電気株式会社 視線検出装置
JP6693105B2 (ja) * 2015-12-01 2020-05-13 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
JP6638354B2 (ja) * 2015-12-01 2020-01-29 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
WO2017179279A1 (ja) * 2016-04-12 2017-10-19 パナソニックIpマネジメント株式会社 視線測定装置および視線測定方法
JP2017213191A (ja) * 2016-05-31 2017-12-07 富士通株式会社 視線検出装置、視線検出方法、及び視線検出プログラム
CN109690553A (zh) * 2016-06-29 2019-04-26 醒眸行有限公司 执行眼睛注视跟踪的系统和方法
US20180356885A1 (en) * 2017-06-10 2018-12-13 Tsunami VR, Inc. Systems and methods for directing attention of a user to virtual content that is displayable on a user device operated by the user
WO2019027505A1 (en) 2017-08-01 2019-02-07 Apple Inc. FACE DETECTION, ESTIMATED INSTALLATION AND ESTIMATED DISTANCE BETWEEN THE FACE AND THE SHOOTING DEVICE USING A SINGLE ARRAY
CN208589037U (zh) 2017-08-01 2019-03-08 苹果公司 电子设备
US10769414B2 (en) 2018-06-03 2020-09-08 Apple Inc. Robust face detection
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1159152A (zh) * 1994-08-23 1997-09-10 先进技术援助有限公司 用户控制的组合电子游戏及练习系统
WO2008097933A1 (en) * 2007-02-04 2008-08-14 Miralex Systems Incorporated Systems and methods for gaze tracking using multiple images
WO2013141098A1 (ja) * 2012-03-21 2013-09-26 国立大学法人浜松医科大学 自閉症診断支援方法およびシステム並びに自閉症診断支援装置
JP2014018484A (ja) * 2012-07-19 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
WO2014021169A1 (ja) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3453911B2 (ja) 1995-03-02 2003-10-06 富士ゼロックス株式会社 視線認識装置
JP4500992B2 (ja) 2004-01-14 2010-07-14 国立大学法人静岡大学 三次元視点計測装置
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
JP5912351B2 (ja) 2011-09-05 2016-04-27 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
JP6217445B2 (ja) * 2013-03-07 2017-10-25 株式会社Jvcケンウッド 診断支援装置および診断支援方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1159152A (zh) * 1994-08-23 1997-09-10 先进技术援助有限公司 用户控制的组合电子游戏及练习系统
WO2008097933A1 (en) * 2007-02-04 2008-08-14 Miralex Systems Incorporated Systems and methods for gaze tracking using multiple images
WO2013141098A1 (ja) * 2012-03-21 2013-09-26 国立大学法人浜松医科大学 自閉症診断支援方法およびシステム並びに自閉症診断支援装置
JP2014018484A (ja) * 2012-07-19 2014-02-03 Jvc Kenwood Corp 診断支援装置および診断支援方法
WO2014021169A1 (ja) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
AU2015235511B2 (en) 2017-06-01
CN106163418B (zh) 2019-06-18
US10159408B2 (en) 2018-12-25
SG11201607901YA (en) 2016-11-29
AU2015235511A1 (en) 2016-11-10
EP3123943B1 (en) 2021-04-07
EP3123943A1 (en) 2017-02-01
WO2015146491A1 (ja) 2015-10-01
US20170007120A1 (en) 2017-01-12
EP3123943A4 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
CN106163418B (zh) 检测装置和检测方法
US11213198B2 (en) System and method for the rapid measurement of the visual contrast sensitivity function
US8371693B2 (en) Autism diagnosis support apparatus
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
CN103648366B (zh) 用于远程测量光学焦点的系统和方法
EP3153092B1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
CN108027977A (zh) 视线检测装置以及视线检测方法
CN106462733A (zh) 视线检测校准
JP5983131B2 (ja) 診断支援装置および診断支援方法
CN105992965A (zh) 响应于焦点移位的立体显示
US11023039B2 (en) Visual line detection apparatus and visual line detection method
JP2022550712A (ja) 3次元測定値における誤差の検出のための方法、システムおよびコンピュータ可読記憶媒体
JP2016085588A (ja) 視線検出装置および視線検出方法
CN104185020A (zh) 一种检测立体视觉疲劳度的系统及方法
CN108537103B (zh) 基于瞳孔轴测量的活体人脸检测方法及其设备
JP6380178B2 (ja) 診断支援装置および診断支援方法
JP2018029764A (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP2015177953A (ja) 診断支援装置および診断支援方法
JP2005143599A (ja) 視線表示装置および痴呆症診断装置
KR20240040727A (ko) 광학 제품 시뮬레이션 방법
JP2023166176A (ja) 表示制御装置および方法並びにプログラム
JP7107242B2 (ja) 評価装置、評価方法、及び評価プログラム
JP6187347B2 (ja) 検出装置および検出方法
JP7052471B2 (ja) 評価装置、評価方法および評価プログラム
US20220202532A1 (en) Method for evaluating an orthodontic aligner

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant