CN104219992B - 自闭症诊断辅助系统以及自闭症诊断辅助装置 - Google Patents
自闭症诊断辅助系统以及自闭症诊断辅助装置 Download PDFInfo
- Publication number
- CN104219992B CN104219992B CN201380015493.XA CN201380015493A CN104219992B CN 104219992 B CN104219992 B CN 104219992B CN 201380015493 A CN201380015493 A CN 201380015493A CN 104219992 B CN104219992 B CN 104219992B
- Authority
- CN
- China
- Prior art keywords
- image
- self
- examinee
- picture
- closing disease
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/06—Children, e.g. for attention deficit diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Developmental Disabilities (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Social Psychology (AREA)
- Neurology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Epidemiology (AREA)
- Physiology (AREA)
- Primary Health Care (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Radiology & Medical Imaging (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Neurosurgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Business, Economics & Management (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
Abstract
提供了采用传统提出的视线检测技术、基于客观评价来辅助特别是婴儿的自闭症的早期发现和早期确诊的自闭症诊断辅助方法和系统及自闭症诊断辅助装置。该自闭症诊断辅助方法使用至少包括对被检者的眼球摄像的照相机部或安装在被检者的头部上并检测眼球的运动的电极部、以及安装在被检者的视线上的显示部的视线检测单元(A)来诊断被检者的自闭症,其包括:在显示部的画面上显示连续显示由特定人物图像(I)和非特定人物图像(II)构成的两个以上图像的复合图像,并且在采用视线检测单元检测观看复合图像的被检者的视线位置信息之后,将被检者的视线位置信息输入至视线位置信息存储部,并且利用与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置算法来评价被检者的视线位置。
Description
技术领域
本发明涉及自闭症诊断辅助方法和系统以及自闭症诊断辅助装置,并且更特别地,涉及使用视线检查技术来辅助自闭症患者的早期确诊的自闭症诊断辅助方法和系统以及自闭症诊断辅助装置。
在下文,使用术语“自闭症”作为包括诸如亚斯伯格综合征和亚斯伯格症候群(在社会性、兴趣和沟通方面存在异常的广泛性发育障碍)等的自闭症相关疾病的统称,并且本发明还可应用于这些自闭症相关疾病。
背景技术
自闭症是以社会性障碍作为主要症状的发育障碍之一(据称患病率为1%)。对于儿童自闭症如果误诊或未发现可能对儿童的日常生活和学校生活带来严重障碍。此外,预测会发生自尊心的降低以及出现诸如焦虑和烦躁不安等的精神症状。
然而,尚未发现对自闭症有确定疗效的药物疗法。因此,用以改善自闭症的唯一方式是早期诊断和基于该诊断的早期(未满3岁)教育干预。
然而,难以利用当前的标准临床技术来实现对自闭症早期确诊。例如,在传统的自闭症诊断中,儿科医师或儿童精神科医生基于婴儿的行为来进行评价和诊断。然而,专家(专门医师)太少并且难以进行早期诊断。此外,由于评价结果因评价者而改变,因此当前难以进行客观评价。
当前,在专门医师所进行的自闭症诊断中,通过面谈来基于外观进行经验判断,或者检查采集血液的成分。然而,存在如下问题:基于外观的判断要求经验丰富的专门医师,而其数值很难量化。血液测试需要采集血液的麻烦过程。此外,在婴儿的检查中,这些检查手段当前既不有效也不可靠。这是因为,几乎无法通过面谈与婴儿进行沟通,并且向未满3岁的婴儿应用基于血液成分的判断仍在试验阶段。此外,存在有在婴儿的父母尚未意识到婴儿患有自闭症的情况下发生的医疗咨询失败或延迟的严重问题。
有鉴于以上现状,对于不仅成人而且儿童、特别是婴儿的自闭症,已经提倡使得专家(专门医师)能够基于客观评价来进行早期发现和早期确诊的方法、装置和辅助系统。
近年来,已逐渐确信在未经诊断的患有自闭症的婴儿的注视点分布中发现了异常。具体地,患有自闭症的婴儿具有无法正确地关注其他人的视线这一特征正变得越来越明确。该异常被视为源自于作为自闭症的本质的社会性障碍。此外,该异常被视为在极早的阶段出现的症状。
通过使用优选的视线检测技术,可以正确地检测到该异常并且可以将该异常用作自闭症的早期诊断的客观指标。基于该想法,本发明人关注到该异常。
为了在注视点的分布中获得这种异常,作为传统的视线检测技术(称为“视线检测技术”、“视线感测技术”、“视线输入技术”、“视线识别技术”和“视线追踪技术”等),例如,一种用于检测被检者的视线的方法,其使用以下:第一摄像照相机,用于测量瞳孔相对于坐标系的位置;第二摄像照相机,其具有配置于所述坐标系中的已知位置的光源,并且形成角膜反射中心,以获得从所述角膜反射中心到瞳孔中心的距离r和所述距离r相对于所述坐标系的坐标轴的角度φ的数据;以及计算部件,用于基于来自各照相机的信息来计算视线的方向。此外,还提出了使用该方法的一些技术(用于检测视线的装置和技术等)(例如,参见专利文献1~5)。
作为与上述专利文献的“视线检测技术”相似的其它技术,专利文献6公开了一种眼检测装置,包括:
一个或多个光源,用于在向着用户的头部的方向上发出光;
检测器,用于接收来自用户的头部的光并重复捕获该光的图片;以及
评价单元,其连接至所述检测器,并且用于确定眼的位置和/或凝视方向,
其中,所述评价单元被配置为在所述检测器所捕获到的图片内确定单个或多个眼图像所位于的区域,并且在确定所述区域之后,控制所述检测器以仅将与同所述检测器所捕获到的所述图像的所确定区域相对应的连续或后续图片有关的信息发送至所述评价单元。
专利文献7公开了一种视线识别装置,其中:
利用光照射视线识别对象的眼球,
利用摄像照相机来形成图像,其中该图像在该眼球的角膜上具有3个以上的特征点,
根据所述角膜上所形成的图像的特征点来确定所述眼球的角膜曲率中心,以及
根据角膜曲率中心和瞳孔中心的位置信息来识别视线方向,
所述视线识别装置包括:
临时视线方向计算部件,用于根据角膜曲率中心和瞳孔中心之间的位置关系来计算临时视线方向;
角膜区域判断部件,用于根据临时视线方向和瞳孔的位置信息来确定所限定的角膜区域;以及
处理部件,用于在所述图像的特征点存在于所限定的角膜区域内的情况下,将所述临时视线方向视为视线识别结果,并且在所述图像的特征点的一部分不在所限定的角膜区域内的情况下,选择存在于所限定的角膜区域内的图像的特征点,根据所选择的图像的特征点来确定所述眼球的角膜曲率中心,根据角膜曲率中心和瞳孔中心的位置信息来识别视线方向,并且将该视线方向视为视线识别结果。
专利文献8公开了一种视标追踪系统,用于监视用户的眼运动,所述视标追踪系统包括:
(a)视频数据输入部件,用于接收监视用户的眼的眼摄像部件(摄像照相机)所产生的视频数据;
(b)点位置指定部件,用于根据所述视频数据来确定通过利用点光源对所述用户的眼进行照明而形成在所述用户的眼上的基准点的位置,所述点位置指定部件包括:自适应阈值部件,用于提供所述眼摄像部件所产生的图像的亮度大于阈值的部分的指示;以及点识别部件,用于通过将所述图像的所述部分与预定有效性基准进行比较来选择有效的基准点;
(c)瞳孔位置指定部件,用于根据所述视频数据来确定所述用户的眼的瞳孔相对于所述基准点的中心位置,从而确定所述用户的注视线,
所述瞳孔位置指定部件包括:
选择部件,用于选择包括所述眼摄像部件所产生的图像中的与所述有效基准点的位置相对应的一部分的瞳孔追踪窗口;
边缘选择部件,用于通过选择所述瞳孔追踪窗口内的所述图像部分的斜率中的所述斜率大于阈值的部分来选择所述瞳孔的边缘;以及
中心确定部件,用于通过参考针对所述瞳孔的边缘所选择的点来确定所述瞳孔的中心,
所述中心确定部件包括:
三组选择部件,用于从瞳孔图像数据的多个像素中实质随机选择三个超阈值像素,以形成进一步处理所用的三组;以及
三组处理部件,用于确定穿过所选择的各像素的假想圆的中心和半径;以及
(d)显示部件,用于根据所述瞳孔位置指定部件和所述点位置指定部件所确定的所述用户的注视线来显示所述用户的注视点。
专利文献9~11公开了为了实现针对装置免提的进行视线操作和控制指示所研究的技术。具体地,代替使用用于眼球摄像的照相机(眼摄像部件),视线检测单元2使用用于检测头部上戴有视线检测单元2的用户的眼球的运动的电极。将该电极安装至主要使用耳塞或头戴式耳机的电子装置的一部分,以与耳朵周围的部分相接触。
然而,很少发现应用上述的至少使用照相机或电极的“视线检测技术”等以辅助自闭症的诊断的现有技术。这些罕见示例包括本发明人在与研发项目(高级测量和分析所用的系统和技术的研发)有关的委托研究和开发中在针对开发课题名为POINTS OF REGARDDETECTION DEVICE FOR DIAGNOSING INFANT WITH AUTISM(自闭症婴儿诊断用的注视点监测装置)的开发过程中所提交的专利文献12和13。
如后面所述,本发明可以使用如专利文献1~11所述的“视线检测技术”。在这些技术中,上述专利文献1~5所述的技术适合于瞳孔小并且无法理解语言因而无法按所指示保持静止不动的婴儿。
现有技术文献
专利文献
专利文献1:日本专利4517049
专利文献2:日本专利4452835
专利文献3:日本专利4452836
专利文献4:日本专利4491604
专利文献5:日本专利4528980
专利文献6:日本专利4783018
专利文献7:日本专利3453911
专利文献8:日本专利4181037
专利文献9:日本特开2006-340986
专利文献10:WO2009/142008
专利文献11:日本特开2011-120887
专利文献12:日本特开2011-206542
专利文献13:日本特愿2011-192387的说明书
发明内容
发明要解决的问题
有鉴于上述问题,本发明的目的是提供可以使用传统上提出的“视线检测技术”基于客观评价来提供针对(特别是婴儿的)自闭症的早期发现和早期确诊的辅助的自闭症诊断辅助方法和系统以及自闭症诊断辅助装置。
在自闭症诊断辅助中,以高精度检测被检者的视线运动只不过是先决条件。该辅助必须基于“提取可能患有自闭症的被检者”这一重要想法。换句话说,针对医生所执行的自闭症诊断的辅助需要是高度灵敏的并且是专用的。
假定在总共1000个被检者中存在10个患有自闭症的个体。这里,尽管在该处理中被检者中的几个标准发育个体可能被判断为“疑似自闭症”,但所执行的筛查确定地检测到10个自闭症个体很重要。
总的看来,本发明的主要目的是提供可以实现确定地检测到自闭症个体的筛查的诊断辅助。优选地,该筛查涉及如上所述将最小可能数量的标准发育个体确定为“疑似自闭症”。
提出了专利文献12和13中所公开的发明的本发明人已发现了用以通过高级筛查来实现上述自闭症诊断辅助的主要目的的方式。具体地,通过评价自闭症个体无法正确地注视其他人的视线的趋势、同时还考虑到自闭症个体特有的视线的其它趋势,来实现这种筛查。
术语“有助于评价(或进行评价)”与从视线运动来检测源自于作为自闭症本质的社会性障碍的症状以暗示自闭症的早期诊断的客观指标相对应,并且不与实际医疗行为(确诊)相对应。
本发明提供了便利性得以提高的诊断辅助方法。例如,即使在专家(专门医师)的数量少的区域中或者在不存在专家(专门医师)(诸如学校或当地健康中心的团体体检等)的情况下,也可以仅进行针对数据检测的检查自身。可以由专家(专门医师)基于所检测到的数据的评价结果来进行确诊,以使得稍后或立即进行甚至使用通信部件的远距离的早期发现。此外,其它医疗领域的医生等可以进行推荐,以获得专家(专门医师)基于所检测到的数据的评价结果所进行的确诊。
用于解决问题的方案
本发明人已进行了广泛深入的研究以解决上述问题。结果,已发现了以下:可以通过针对上述自闭症的婴儿的注视点分布的异常(被视为源自于作为自闭症本质的社会性障碍、并且还被视为在极早阶段出现的症状)应用诸如上述现有技术文献中所述等的“视线检测技术”作为用于正确地检测该异常的技术、并且与该技术相结合地向被检者显示具有特定结构的特定“复合图像”,来检测标准发育(健康)儿童(以下称为包括成人、儿童和婴儿的“标准发育个体”)和作为被检者的患有自闭症的儿童(以下称为包括成人、儿童和婴儿的“自闭症个体”)之间在视线运动的趋势方面的差异。基于该新发现已完成了本发明。
具体地,本发明的第一方面提供一种自闭症诊断辅助系统,用于使用视线检测单元(A)来辅助被检者的自闭症的诊断,所述视线检测单元(A)至少包括:用于对被检者的眼球进行摄像的照相机部(a1)或者安装在被检者的头部上并且用于检测眼球的运动的电极部(a2);以及配置在被检者的视线方向上的显示部(a3),所述自闭症诊断辅助系统包括:显示装置,用于将连续显示包括特定人物图像(I)和特定非人物图像(II)的至少两个图像的复合图像显示在该显示部(a3)的画面上;以及评价装置,用于在使用该视线检测单元(A)检测观看该复合图像的被检者的视线位置信息之后,将被检者的视线位置信息输入至视线位置信息存储部中,并且利用用于将被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法来评价被检者的视线位置,其中,所述特定非人物图像(II)包括从出现预测图像(α)、错觉识别图像(β)和差异点搜索图像(γ)中所选择的至少一种图像。
根据本发明的第二方面,在第一方面中,提供如下的自闭症诊断辅助系统,其中:所述视线位置评价算法是基于具有相对于标准发育个体向着运动图像的动作部分的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异,其中,向着运动图像的动作部分的视线的移动频度是使由静止图像(i)和一部分动作的运动图像(ii)构成的所述特定人物图像(I)将静止图像(i)和一部分动作的运动图像(ii)的任一个显示在显示部(a3)的画面上时的视线的移动频度。
根据本发明的第三方面,在第二方面中,提供如下的自闭症诊断辅助系统,其中:所述特定人物图像(I)包括如下三种类型的图像:面部的静止图像(ia)、仅眼睛开闭的面部的运动图像(iia)、以及仅嘴开闭的面部的运动图像(iib)。
根据本发明的第四方面,在第三方面中,提供如下的自闭症诊断辅助系统,其中:该自闭症诊断辅助系统是基于具有与标准发育个体的视线的移动频度相比、自闭症个体的视线的移动频度较低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,所述视线的移动频度是显示仅眼睛开闭的面部的运动图像(iia)时的向着眼睛周围的视线的移动频度。
根据本发明的第五方面,在第三方面中,提供如下的自闭症诊断辅助系统,其中:该自闭症诊断辅助系统是基于具有与显示面部的静止图像(ia)或者仅嘴开闭的面部的运动图像(iib)时的标准发育个体的视线的移动频度相比、自闭症个体的视线的移动频度较低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,所述视线的移动频度是在首先显示仅嘴开闭的面部的运动图像(iib)之后接着显示仅眼睛开闭的面部的运动图像(iia)时的向着(iia)的视线的移动频度。
根据本发明的第六方面,在第一方面至第三方面中任一方面中,提供如下的自闭症诊断辅助系统,其中:作为所述特定人物图像(I),使用被检者认识的人物的图像。
根据本发明的第八方面,在第一方面中,提供如下的自闭症诊断辅助系统,其中:该自闭症诊断辅助系统是基于具有相对于标准发育个体向着移动体图像(α1)再显示的位置的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,向着移动体图像(α1)再显示的位置的视线的移动频度是使所述特定非人物图像(II)的出现预测图像(α)、即由移动体图像(α1)任意地与遮蔽体图像(α2)的组合所构成的运动图像首先以移动体图像(α1)在显示部(a3)的画面上移动的方式进行显示然后使该移动体图像(α1)通过移到显示部(a3)的画面外侧或利用遮蔽体图像(α2)转变为非显示状态之后、从显示部(a3)的特定位置再显示移动体图像(α1)时的视线的移动频度。
根据本发明的第九方面,在第八方面中,提供如下的自闭症诊断辅助系统,其中:对于所述再显示时的视线的移动频度,不以进行第一次再显示时的移动频度为评价的对象,而是以从能够预测移动体图像(α1)的规则运动的第二次再显示起的移动频度为评价的对象。
根据本发明的第十方面,在第一方面中,提供如下的自闭症诊断辅助系统,其中:该自闭症诊断辅助系统是基于具有相对于标准发育个体在显示有错觉引起元素(β1)的位置和显示有非错觉引起元素(β2)的位置之间的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,显示有错觉引起元素(β1)的位置和显示有非错觉引起元素(β2)的位置之间的视线的移动频度是使所述特定非人物图像(II)的错觉识别图像(β)、即由包括错觉引起元素(β1)和非错觉引起元素(β2)的图片构成的图像显示错觉引起元素(β1)时的视线的移动频度。
根据本发明的第十一方面,在第一方面中,提供如下的自闭症诊断辅助系统,其中:该自闭症诊断辅助系统是基于具有相对于标准发育个体在显示有同种图片(γ1)的位置和显示有异种图片(γ2)的位置之间的视线的移动频度低而自闭症个体的视线的移动频度高的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中显示有同种图片(γ1)的位置和显示有异种图片(γ2)的位置之间的视线的移动频度是使所述特定非人物图像(II)的差异点搜索图像(γ)、即由外观相同或相似的多个同种图片(γ1)和形状不同于同种图片的形状的一个或几个异种图片(γ2)的组合所构成的图像将同种图片(γ1)和异种图片(γ2)以混合方式显示在所述显示部(a3)上时的视线的移动频度。
根据本发明的第十二方面,在第一方面中,提供如下的自闭症诊断辅助系统,其中:在所述复合图像显示在显示部(a3)的画面上之前,预先将预备图像引导图像(θ)显示在显示构件上,以将被检者的视线引导至预定位置。
根据本发明的第十三方面,在第二方面中,提供根据权利要求1所述的如下的自闭症诊断辅助系统,其中:在标准发育个体和自闭症个体的视线的移动频度的评价中,基于从各图像显示在显示部的画面上的时间起的平均时间,在从所检测到的被检者的视线位置信息所获得的移动频度是高还是低的条件下检测频度。
根据本发明的第十四方面,在第二方面中,提供如下的自闭症诊断辅助系统,其中:所述视线位置评价算法基于存储有过去的被检者的视线位置信息和该被检者是否是自闭症个体的确诊信息的数据库,来针对视线的移动频度设置阈值。
本发明的第十五方面提供一种自闭症诊断辅助系统,包括:
(a)视线检测部件,用于使用视线检测单元(A)来检测观看显示部的画面的被检者的视线位置信息,其中所述视线检测单元(A)至少包括:用于对被检者的眼球进行摄像的照相机部(a1)或者安装在被检者的头部上并且用于检测眼球的运动的电极部(a2);以及配置在被检者的视线方向上的显示部(a3);
(b)用于输入该被检者的视线位置信息的部件;
(c)视线评价部件,用于基于该被检者的视线位置信息即在用于连续显示包括特定人物图像(I)和特定非人物图像(II)的至少两个图像的复合图像显示在显示部(a3)的画面上时的位置信息,利用将该被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法来评价该被检者的视线位置;以及
(d)显示部件,用于显示该被检者的视线位置的评价结果,其中,所述特定非人物图像(II)包括从出现预测图像(α)、错觉识别图像(β)和差异点搜索图像(γ)中所选择的至少一种图像。
本发明的第十六方面提供一种自闭症诊断辅助装置,用于使用用于连续显示包括特定人物图像(I)和特定非人物图像(II)的至少两个图像的复合图像来辅助自闭症诊断,所述自闭症诊断辅助装置包括:
(i)视线检测部,用于使用视线检测部件来检测观看被检者的视线方向上所显示的该复合图像的被检者的视线位置信息;
(ii)视线位置信息存储部,用于存储该视线检测部所检测到的视线位置信息;
(iii)视线位置信息显示部,用于显示该视线位置信息存储部中所存储的被检者的视线位置信息;
(iv)视线位置信息评价部,用于利用将被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法,通过与自闭症个体和/或标准发育个体的视线位置信息进行类比,来评价该视线位置信息显示部上所显示的被检者的视线位置信息;
(v)评价结果输出部,用于输出该视线位置信息评价部所获得的评价结果;以及
(vi)评价结果存储部,用于存储从该评价结果输出部所输出的评价结果或该视线位置信息评价部所获得的评价结果,其中,所述特定非人物图像(II)包括从出现预测图像(α)、错觉识别图像(β)和差异点搜索图像(γ)中所选择的至少一种图像。
发明的效果
利用各方面的结构,可以实现上述目的。
首先,在本发明的第一方面、第十五方面和第十六方面中,应用如上述专利文献所公开的“视线检测技术”。此外,与该技术相结合地向被检者显示采用指定结构的特定“具有至少两个连续图像的复合图像”。因而,基于用于确定地检测到自闭症者的筛查的概念,可以对自闭症患者的早期确诊提供辅助。该技术还使得非专门医师的某人能够示出患者患有自闭症的可能性的高低,并且暗示是否需要诊断。即使对于专门医师可以指定为自闭症的年龄之前的婴儿的自闭症,该技术也具有可以基于客观评价来向自闭症的早期检测和早期确诊提供辅助的特定优点。
在本发明的第二方面中,向被检者显示特定的运动图像。因而,提取与画面上的运动部分有关的、标准发育个体和自闭症个体之间的视线的移动频度的差异趋势,并且有助于进行评价。
在本发明的第三方面中,向被检者显示特定的面部图像。因而,提取标准发育个体和自闭症个体之间在视线的移动频度方面的差异趋势,并且有助于进行评价。
在本发明的第四方面中,向被检者显示进行面部图像的嘴的开闭的运动图像。因而,标准发育个体和自闭症个体的视线的移动频度的趋势可以更有助于进行评价。
在本发明的第五方面中,按特定顺序(首先嘴开闭、然后眼睛开闭)向被检者显示特定面部图像。因而,标准发育个体和自闭症个体的视线的移动频度的趋势可以更有助于进行评价。
在本发明的第六方面中,使用被检者熟悉的面部(熟悉面部)的图像。因而,实现了被检者可以更加容易地直视所显示面部图像的眼睛的状态,以提高标准发育个体直视眼睛的趋势。因而,不趋向于看着眼睛的自闭症个体的视线频度的趋势可以更有助于进行评价。
在本发明的第七方面中,使用出现预测图像、错觉识别图像或差异点搜索图像作为特定非人物图像。因而,不仅可以提取特定人物图像中的视线的移动频度的趋势,而且还可以提取针对这些图像的标准发育个体和自闭症个体的视线的移动频度的差异趋势,以供进一步考虑从而有助于进行评价。
在本发明的第八方面中,在特定人物图像之后,顺次显示出现预测图像、错觉识别图像或差异点搜索图像。因而,可以针对这些图像提取标准发育个体和自闭症个体之间在视线的移动频度方面的差异趋势,以供进一步考虑从而有助于进行评价。
在本发明的第九方面中,使用出现预测图像来提取被检者是否正在观看移动体在画面上出现的位置。因而,标准发育个体以相对预测的方式观看移动体的趋势、以及自闭症个体没有以相对预测的方式观看移动体的趋势可以有助于进行评价。
在本发明的第十方面中,在出现预测图像中,移动体基于预定运动模式重复地显示在画面上,并且提取被检者是否正在观看移动体第二次以后出现在画面上的位置。因而,减少了被检者的能力差异以有助于进行评价。
在本发明的第十一方面中,向被检者显示错觉识别图像。因而,标准发育个体观看错觉引起部分的趋势、以及某些自闭症个体没有观看错觉引起部分的趋势可以有助于进行评价。
在本发明的第十二方面中,向被检者显示错觉识别图像。因而,标准发育个体观看错觉引起部分的趋势、以及某些自闭症个体没有观看错觉引起部分的趋势可以有助于进行评价。
此外,在本发明的第十三方面中,向被检者显示差异点搜索图像。因而,标准发育个体在尝试找到差异点的趋势和找到了差异点时的趋势、以及自闭症个体没有尝试找到差异点的趋势或者具有在短时间段内找到差异点的极高能力的趋势可以有助于进行评价。
在本发明的第十四方面中,显示引导图像(θ),因而可以将显示下一图像时的被检者的视线位置引导至预定的位置。因而,评价不太可能受到显示时的视线位置的偏移所影响。因而,可以稳定地获得标准发育个体和自闭症个体的移动频度的趋势以有助于进行评价。
附图说明
图1是示意性示出本发明的自闭症诊断辅助方法和系统的结构的图。
图2是示出复合图像的一个示例的图。
图3是示出特定人物图像(I)的一个示例的图。
图4是示出作为特定非人物图像(II)的出现预测图像(α)的一个示例的图。
图5是示出作为特定非人物图像(II)的错觉识别图像(β)的一个示例的图。
图6是示出作为特定非人物图像(II)的差异点搜索图像(γ)的一个示例的图。
图7是示出引导图像(θ)的一个示例的图。
图8-1是示出视线位置评价算法的一个示例的图。
图8-2是示出视线位置评价算法的一个示例的图。
图8-3是示出视线位置评价算法的一个示例的图。
图9-1是示出显示视线位置信息的一个示例的图。
图9-2是示出显示视线位置信息的一个示例的图。
图10是示出对视线位置进行评价的一个示例的图。
具体实施方式
本发明的实施例包括以下所述的实施例、以及利用在本发明的技术思想内所进行的变形例所获得的各种方法。
在本说明书中,首先,将说明适合用在本发明中的视线检测单元2。然后,将结合复合图像来整体说明视线位置评价算法和实质等同于自闭症诊断辅助系统的自闭症诊断辅助装置。
随后,将结合自闭症诊断辅助装置的操作模式来说明自闭症诊断辅助方法(在以下说明中,为了便于说明,可以在将自闭症诊断辅助系统和自闭症诊断辅助方法称为自闭症诊断辅助装置的情况下对这两者进行说明)。
实施例
首先,说明视线检测单元2(视线检测部)。使用视线检测单元2作为本发明的自闭症诊断辅助系统中的视线检测部件(a)。
如图1所示,视线检测单元2包括拍摄被检者A的眼睛的图像的照相机部22和显示图像的显示部21。根据需要,设置用于确定地拍摄瞳孔的图像的摄像辅助照明部23。显示部21可以是商购可得的显示器,并且没有进行特别限制。具体地,可以使用液晶显示器、CRT和投影仪等,并且可以按照期望设置其内的显示部的大小和形状。尽管图中没有详述,但也可以代替照相机部22,而使用电极(电极部),其中该电极如头戴式耳机或耳塞那样与头部相接触以检测眼球的运动。根据诸如照相机部22的感光度和周围的明度来适当设置摄像辅助照明部23。
视线检测单元2检测被检者A的瞳孔,并且输出表示被检者A所观看的对象(显示部21)的位置的视线位置信息32。具体地,视线检测单元2可以基于被检者A、照相机部22和显示部21之间的位置关系来输出表示被检者A正观看显示部21的画面的哪个位置以及何时观看的视线位置信息32。
具体地,视线位置信息32不限于采用数值数据和图像数据的形式,只要是在自闭症诊断辅助的视线移动分析中可以使后面所述的要显示的图像的图片和时间与视线位置信息的位置和时间相对应地特定即可。
更具体地,可以将视线位置信息32输出作为表示摄像时刻和与显示部21的画面上的位置相对应的诸如二维数据(X,Y)等的相对位置坐标的数值数据。这里,显示部21的画面上的位置可能是无关的。例如,基于视线检测单元2的照相机部22所拍摄到的被检者A的眼睛的位置,可以将视线位置信息32输出作为表示摄像时刻和照相机部22特有的绝对位置坐标的数值数据。可选地,代替数值数据,可以将视线位置信息32输出作为图像数据。具体地,可以通过将作为照相机部22所拍摄到的视线位置的标绘点与所显示的图像数据直接相组合来获得视线位置信息32。
优选地,例如,在将视线位置信息32转换成与视线检测单元2所使用的显示部21(显示器)的分辨率和点位置信息(坐标信息)相对应的位置信息之后进行输出。这样,可以容易地确保相对于画面上所显示的图片的位置的一致性。例如,通过根据显示部21的画面上的二维数据(X,Y)对被检者A的视线位置信息32进行转换来获得视线位置信息32。例如,对于作为画面分辨率为480(垂直)×640(水平)个点的显示器的显示部21,可以在基于与画面分辨率相对应的480(垂直)×640(水平)个点将视线检测单元2的视线位置信息32转换成表示画面上的位置的位置信息之后,对该位置信息进行调整以供输出。
视线位置信息32不限于采用如上所述的画面上所显示的平面图像中的二维数据(X,Y)的形式,并且可以是立体三维数据(X,Y,Z)。
利用可能的最高精度来检测被检者A的视线位置的能力是作为良好的传统和/或可商购获得的检测部件的重要方面。在该上下文中,例如,将上述专利文献1~5中所述的视线检测技术(包括所公开的任何发明和申请的其它技术)应用于视线检测单元2可以针对诸如以下等的、已被视为难以检测视线的需要校正的情况提供极其适当的结构:作为被检者的婴儿在不断移动、被检者A戴眼镜、以及眼睛的曲率每个被检者A而不同等。具体地,可以在误差较少、精度高和装置的小型化的这些情况下检测视线。因而,可以实现极其适合精确且容易地检测视线的技术。
静冈大学已研发了视线检测部件的一个代表装置[信息科学和技术论坛的论文集(9(3),589-591,2010-08-20)中所发表的装置,“允许头部移动的利用立体照相机容易校准的注视点检测装置”]。在本发明中,在如下假定下进行说明:使用该单元,以使得对视线位置信息32进行调整以转换成显示部21的画面上的位置信息以供输出。
视线检测单元2根据如后面所述的本体单元1和显示部21的操作以及针对这两者的指示来检测被检者A的视线位置信息。尽管如此,视线检测单元2可能不必与本体单元1和显示部21连动地进行工作。在这种情况下,可以在本体单元1侧接收、计算并分析从视线检测单元2恒定地输出的视线位置信息。因而,识别出显示图像信息的各显示图片的位置和被检者A的显示时的视线位置。
接着,将说明本发明的显示图像信息31所使用的复合图像。
复合图像是用于显示在上述的视线检测单元2的显示部21上的显示图像信息31。以如图2的A~C所示连续显示特定人物图像(I)和特定非人物图像(II)的方式来构成复合图像。复合图像包括各自显示了几秒~几十秒的图像,因而最长整体显示几分钟。没有限制(I)和(II)顺序以及连续图像的数量。
术语“连续”并非必须表示按时间序列的连续显示。因此,在两个图像之间显示引导图像的情况也被认为复合图像,因而该术语应被理解为一系列诊断辅助的连续性。
作为从真实人物、动画人物和拟人化动物等的图像中所选择的人物图像的特定人物图像(I)包括:(i)整体图像保持静止的状态(静止图像);以及(ii)涉及画面上的特定运动的状态(部分运动的运动图像)。静止图像(i)是人物图像具有身体并且面部表情保持静止的状态的图像,并且包括运动图像的暂停状态。运动图像(ii)是人物图像的身体的一部分正在运动的图像,并且包括面部表情的变化。
特定人物图像(I)可被配置成显示全身或身体的一部分。优选地,在考虑到显示部21的画面的大小的情况下,显示作为包括上半身或面部周围的区域的运动图像的图像。因而,被检者A检查特别是与面部表情有关的眼睛、嘴及其周边的运动。优选地,显示大小接近实际大小并且明确显示了眼睛和嘴的运动的图像。
此外,优选被检者A认识的人(熟悉面部)的图像,以使得被检者A可以更加容易地直视人物图像(特别是眼睛)。例如,可以使用被检者A的一亲等或二亲等的人物的图像。
没有特别限制这些图像,并且这些图像可以是预先或实时拍摄到的图像。
特定人物图像(I)是优选包括各自显示了几秒的图像(ia)、(iia)和(iib)的图像。如图3A所示,图像(ia)是眼睛张开且嘴闭合的人物的图像(整体保持静止的面部图像)。如图3B所示,图像(iia)是在嘴闭合的状态下连续进行几秒的眼睛的开闭的人物的图像(仅眼睛开闭的面部图像)。如图3C所示,图像(iib)是在眼睛张开的状态下连续进行几秒的嘴的开闭的人物的图像(仅嘴开闭的面部图像)。在这种情况下,上述的图像的几秒被构成为一组。
这里,在显示部21中,为了清楚地识别眼睛的开闭运动,对于图像(iia)需要考虑以下重要条件。具体地,与正常的瞬时眨眼相比,需要更加缓慢且坚定地进行眼睛的开闭。需要在无需停止眼睛的运动(无需休息)的情况下顺次重复眨眼。
因而,在本发明中,正常瞬时眨眼没有被视为眼睛的开闭。根据维基百科,平均的正常眨眼速度为0.1~0.15秒。儿童的正常眨眼次数为5~18次/分钟。成年男性和女性的正常眨眼次数分别约为20次/分钟和15次/分钟(因而,儿童、成年男性和成年女性保持处于睁开他或她的眼睛的状态的时间长度分别为12~3.3秒、约3秒和约4秒)。在本发明中,优选使用的图像涉及以下:眨眼速度为正常速度的0.2~0.5倍快,并且在使眼睛保持处于正常睁开状态的时间几乎为0的状态下所执行的闭合眼睛的运动最长为1秒(正常长度乘以3~12以上)。因而,被检者A可以更加容易地识别出运动的位置。
在图像(iib)中,如图3D所示,人物可以以正常说话的方式使他的嘴运动。优选如下图像:人物以动态方式有意地进行嘴的开闭,以使得可以观察到嘴的大幅运动。此外,在被检者A是婴儿的情况下,优选诸如婴儿用语和礼貌用语等的引诱反应的用语以吸引被检者A对图像的更多注意。当然,可以与图像相组合地使用语音。
因而,可以形成如下图像,其中该图像可以便于尝试将被检者A的视线引导至运动部位(特别是眼睛、嘴及其周围)。
接着,将说明特定非人物图像(II)。
本发明中所使用的特定非人物图像(II)将包含各自显示了几秒的出现预测图像(α)、错觉识别图像(β)和差异点搜索图像(γ)的图像作为一组并且连同特定人物图像(I)一起使用。使用这些图像中的至少一个图像来形成各种连续图像。例如,连续图像可以采用诸如(I)→(α)和(β)→(I)等的顺序。在使用一个以上的图像的情况下,连续图像可以采用诸如(I)→(α)→(β)、(γ)→(I)→(β)和(α)→(I)→(β)→(I)→(α)等的顺序。
出现预测图像(α)是涉及基于特定规则在显示部上移动的图片(称为移动体(α1))的以下行为的运动图像。具体地,在移动体离开画面的情况下、或者在画面上所显示的其它图片(称为遮蔽体(α2))与移动体重叠而使得仿佛移动体作为遮蔽体(α2)的背景的情况下,在预定时间段内不显示移动体,然后将该移动体再显示在画面上。没有特别限制该图片。
术语“基于特定规则移动”表示被检者A可以容易地识别以下图像中移动体(α1)的再显示位置的状态。具体地,图4的A和B中的图像示出如下状态:画面上的移动体(α1)经过包括出现在显示部上并且在一定方向上移动而从画面消失的一系列操作,然后再显示在相同位置。图4的C和D中的图像示出再显示在相反方向上的位置、即移动体(α1)从画面消失的位置的状态。在图4的A~D中,为了便于说明,示出假设显示有多个箭头和图片的图像。实际上,使用一个图片,但这并不意味着无法显示多个移动体。
可选地,图4的E~G示出如下状态:在画面上显示遮蔽体(α2),并且被检者A基于以下规则针对图像可以容易地识别出移动体(α1)的再显示位置。移动体(α1)在画面上移动的过程中被遮蔽体(α2)重叠而无法显示。然后,移动体(α1)通过穿过遮蔽体(α2)而再显示。可以组合这些状态。
因而,这些图像被配置为使得能够将被检者A的视线有意地引导至图像上的发生再显示的特定位置(画面上的预测位置)。
错觉识别图像(β)是具有包括显示部的画面上的错觉引起元素(β1)和非错觉引起元素(β2)的图片的图像。这些图片包括还已知为错觉图像和错觉图形的一般意义上的错觉图像[在“维基百科,免费的百科全书”中在条目“视错觉”中采用各种形式进行了描述,http://en.wikipedia.org/wiki/Peripheral drift illusion]。
错觉识别图像(β)包括图5所示的这些图像。图5A是使用艾宾浩斯(Ebbinghaus)错觉图形的示例。图5B是使用卡尼札(Kanizsa)三角形错觉图形的示例。图5C是使用Fraser-Wilcox错觉图像的示例。
此外,还可以使用根据上述图形衍生和/或改进的错觉图形。图5D是图5B的Kanizsa三角形错觉图形的改进示例。图5E是图5C的Fraser-Wilcox错觉图形的改进示例。
在使用这些图片作为本发明的错觉识别图像(β)的情况下,同时将错觉引起元素(β1)和非错觉引起元素(β2)作为图片显示在显示部21的画面上。
这里,在图8H中示出使用如图5A所示的Ebbinghaus错觉图形的情况。具体地,这里的错觉引起元素(β1)是分别在圆形的两个集合的中央处的圆形,并且引起中央圆形在大小上看上去不同的视错觉。非错觉引起元素(β2)包括配置在中央圆形周围的圆形作为错觉引起元素(β1)周围的部分。
在图8I中示出使用图5的B和D所示的Kanizsa三角形错觉图形的情况。具体地,错觉引起元素(β1)是显示有在画面中不存在的形状的部分,并且非错觉引起元素(β2)是画面上所显示的图片的一部分。
在本发明中,术语“不存在的形状”未必表示画面中不存在的事物或透明对象。该术语表示颜色与画面整体的背景颜色相同的空间,因而无法从视觉上与画面的背景颜色区分开。
在图8K中示出使用图5的C和E所示的Fraser-Wilcox错觉图形的情况。具体地,这里,图片整体用作错觉引起元素(β1),因而将错觉引起元素(β1)设置为配置有图片的画面的一部分(图中画面的左半部分)。将非错觉引起元素(β2)设置为没有显示图片的画面的另一部分(图中画面的右半部分)。
似乎尚未完全定义这些特殊错觉图像的机制。尽管如此,这些特殊错觉图形各自通常被构造成静止图像并且包括引起如下视错觉的错觉引起元素:尽管图像被构造为静止图像,但在观看该静止图像的情况下,在图片的所观看的点周围的部分处(即,在除视野的中心以外的视野内的图片的一部分(因此,该部分从视觉上没有聚焦)处),“视线稍微离开的图片的一部分似乎在垂直方向、水平方向或转动方向上摇摆”。
这种错觉的效果被视为对于观看这种图像的任何个体而言大致相同,除非该个体存在视觉障碍(即,该个体是色盲个体、色弱个体或失明个体等)。对于色盲个体或色弱个体,可以选择该个体能够识别出的灰度图像或具有配色的图像。
在图8的J和K所示的示例中,将错觉图形和非错觉引起图形分别配置在显示部整体的左侧和右侧上。
非错觉引起图形是外观(即,诸如形状、图案和颜色等的形态元素)上与错觉图像相似、但不会引起如下视错觉的图形:在观看图像的情况下,眼睛略微移开的图像的一部分看上去在垂直方向、水平方向或转动方向上摇摆。例如,可以通过改变阴影(各点的配色)的图案来删除错觉引起元素,以使得其内的阴影的位置与仅来自一个方向的光源所产生的阴影相对应。
因而,对于被检者A,所显示的对象似乎包括覆盖画面整体的相同图片,但在被检者A保持整体观看图片的情况下,可以将对象区分为引起视错觉的部分(图中画面的左半部分)和没有引起视错觉的部分(图中画面的右半部分)。
具体地,被检者A观看显示部21上所显示的画面的一部分。在显示错觉图像的情况下,被检者感知错觉元素。观看该错觉图像的被检者A在该被检者A的视线移动的情况下,通过作为画面的一部分的特定错觉图像来在眼睛略微移开的部分的图像中感知错觉元素。在被检者A感知到错觉元素的情况下,将视线引导至被检者感知到错觉元素的位置。然而,在特定错觉元素图像中,在被检者A观看该部位的情况下无法感知到错觉元素。因而,被检者A的视线可以在画面上频繁地移动。
然而,在被检者是自闭症个体的情况下,该被检者没有感知到错觉元素、或者利用坚强的意志观看被检者他或她感兴趣的图像的一部分。由于该原因,患有自闭症的被检者自然不易受到错觉元素的影响。换句话说,自闭症个体的视线不太可能在画面上频繁地移动。
为了容易地将被检者A的视线的意图移动引导至特定位置,所显示的错觉图像和非错觉图像中的至少一个可能偶尔水平移动或闪烁。然而,在显示部21整体上采用具有相似图片的静止图像使得能够在无需有意引导被检者A的视线移动的情况下,检测被检者A的更自然发生的视线移动。另外,这在无法言语沟通的婴儿的情况下特别优选。
基于上述元素,可以将引起错觉的其它图片应用于具有在显示部的画面上同时显示错觉引起元素(β1)和非错觉引起元素(β2)的结构的图像。
因而,形成了使得能够将被检者A的视线移动引导至显示有错觉引起元素(β1)的特定位置的图像。
差异点搜索图像(γ)是作为外观相同或相似的多个同种图片(γ1)与形状不同于同种图片的一个或几个异种图片(γ2)的组合的图像。在该图像中,将同种图片(γ1)和异种图片(γ2)以混合方式显示在显示部中。
如图6A所示,在图像中,外观相同的多个图片(同种图片:r1)分散在画面上,并且包括颜色或方向其中之一相对于同种图片有所改变的一个或几个图片(异种图片γ2)。具体地,在该图中,在10条鳄鱼中,一条鳄鱼面向相反方向。
可选地,如图6B所示,外观相同的多个图片(同种图片:r1)分散在画面上,并且包括两个以上的元素在外观、方向和颜色上不同于同种图片的一个或几个图片。具体地,在该图中,在6头狮子和6只猫中,仅1只猫面向相反方向。
如上所述,显示了多个同种图片(γ1)以及一个或几个异种图片(γ2)。如错觉图像那样,可以在没有引导至要观看的位置或限制该位置的情况下,引导被检者A靠该被检者自身的意愿而自然发生的视线移动。具体地,多个同种图片似乎分散在画面整体中,并且在无需由于图片的差异而刺激引导被检者A的视线的情况下,被检者A根据他或她自身的意愿进行视线移动以在看上去相同的一组图像中寻找不同图片。
因而,形成了使得能够有意将被检者A的视线引导至显示有同种图片(γ1)或异种图片(γ2)的特定位置的图像。
接着,将说明连同复合图像一起显示的引导图像(θ)。
在将复合图像显示在显示部21的画面上之前,使用引导图像(θ)来显示用于预先将被检者A的视线引导至预定位置的图片。将该图片显示在画面中的特定位置处并持续几秒钟。
在引导图像(θ)中,如图7A所示,在画面的一部分中显示吸引被检者A注意的图片。因而,有意将要显示的画面中的初始视线位置引导至预定位置。
作为如上所述用于将视线引导至预定位置的图像的引导图像(θ)可以是静止图像或运动图像。优选地,图片不是具有过大而显示在整个画面上的大小,而是具有适当较小的大小。
如图7B所示,可以逐渐缩小在整个画面上放大的图片以供显示。可选地,图片可以不保持静止。具体地,当然,由于移动中的图片要引导视线,因此该图片可以通过在画面的预定位置处缩小、或者通过从画面移开而消失。
这里,重要的是,如图7C所示,将引导图像(θ)考虑到与用于对视线位置进行评价的位置的关系而显示在接下来要显示的复合图像中。
将更加详细地说明该情况。具体地,为了评价视线是否移动至作为嘴正在开闭的特定人物图像(I)的面部图像(iib)中的嘴的位置,以不影响该评价的方式在远离该嘴的位置处显示引导图像(θ)。因而,可以将嘴巧合地显示在被检者A正观看的位置、即在显示瞬间的被检者A并不意图的视线位置的情况从评价中排除。总的看来,可以进一步提高评价的精度。
可选地,为了评价视线是否移动至作为眼睛正在开闭的特定人物图像(I)的面部图像(iia)中的眼睛的位置,有意将引导图像(θ)显示在眼睛的位置处。这有助于对在显示面部图像的瞬间自闭症个体故意将眼睛移开的趋势进行评价。
上述事项同样应用于作为特定非人物图像(II)的(α)、(β)和(γ)。在特定非人物图像(II)中,还可以使用引导图像(θ)作为用于暗示视线位置作为要观看的正确位置的引导元素。具体地,可以在防止对显示之后的最初几秒的视线位置进行评价的情况下,将引导图像(θ)显示在与出现预测位置相同的位置、错觉引起位置和异种图片的位置。
自闭症诊断辅助系统使用视线检测单元2和上述的各种复合图像来按照如下评价被检者A的视线移动的趋势。
首先,作为自闭症诊断辅助系统的输入部件(b),本体单元1将与复合图像有关的显示图像信息31发送至视线检测单元2的显示部21。然后,本体单元1从视线检测单元2接收被检者A在画面上的视线位置信息32。
显示图像信息31包括复合图像的与图片有关的数据和与显示定时有关的数据。如果在视线检测单元2侧已准备了复合图像,则本体单元1可以发送针对该复合图像的显示定时的指示。
视线位置信息32是表示上述的被检者A的视线位置的信息。本体单元1接收视线位置信息32作为与显示部21上的位置相对应的位置坐标数据和利用标记指示了视线位置的图像数据。可以将如此接收到的视线位置信息32显示在检查者B的显示部11上,以供检查者B检查。
然后,作为自闭症诊断辅助系统的视线评价部件(c),本体单元1将与复合图像相对应的被检者A的视线位置信息32记录在诸如存储器或硬盘等的存储介质(视线信息存储部)中。可以将如此所记录的视线位置信息32显示在检查者B的显示部11(视线位置信息显示部)上,以供检查者检查。
作为直到此时为止的处理的结果,在图1中,检查者B可以实时地或在稍后的时刻检查其它显示部11的画面上所显示的视线位置信息32和该视线位置信息的检测结果信息34。还可以采用将本体单元1和视线检测单元2并入被检者A或检查者B的显示部11中的结构。作为该一体结构的极端示例,在被检者A的诊断和检查者B的检查不是同时进行的条件下,通过在针对被检者A的操作和检查者B的操作之间进行切换操作,可以将所有组件(各显示部和本体单元1的整体)一体化以兼用于这两个操作。没有限制将检查者B侧和被检者A侧的单元配置在同一室内。本发明包括以下:利用检查者B远程地对被检者A进行检查、以及利用检查者B在不同场所且在稍后的时间对所记录的被检者A的检查图像进行评价。
然后,视线评价部件(c)执行用于基于视线位置信息32来针对复合图像中的各图像判断被检者A是否正在观看所述特定位置的算法。
具体地,本体单元1的视线评价部件(c)在复合图像中设置以下所述的刺激区域S和非刺激区域N,并且获得如此设置的各区域S和N中的被检者A的视线的移动频度。
刺激区域S是用于判断特别是标准发育个体有可能引导视线移动的趋势的画面上的范围。刺激区域S是包围特定人物图像(I)中的运动部位和非特定人物图像(II)中的各特定位置处的图片的范围。
非刺激区域N是用于判断特别是自闭症个体将不会引导视线移动的趋势的画面上的范围,并且是包围除刺激区域S以外的没有引导视线移动的特定位置中的图片的范围。
此外,如后面将说明的,刺激区域S和非刺激区域N各自可以设置为一个或多个、进行缩小/放大、移动、仅在预定时间段内显示,并且可以彼此交换位置。
区域S和N的范围是沿着特定位置处的图片的外形(轮廓)所设置的。作为容易的方式,将显示构件的画面在垂直方向和水平方向上分割成适当大小的网格(块)。将与图片相对应的位置处的各块设置为一个子区域,并且一个图片可以由一组连续子区域构成。这里,可以适当进行进一步判断,以在块至少一半填充有图片的轮廓的一部分的情况下将该块设置为子区域、或者在块大致与图片相对应的情况下将该块设置为子区域。此外,可以进行适当判断,以将显示构件21的画面外的整个部分设置为非刺激区域N、或者设置为在要从设置中排除的区域外。
可以将区域S和N各自预先设置在复合图像的特定位置处、或者针对自动显示的各复合图像设置在与特定图片一致的位置处。在本体单元1中,针对作为显示图像信息31的对象的图像,设置所有复合图像中的各区域的位置信息,并且将该位置信息存储在视线位置信息中。该提供的定时可以在向被检者A显示所显示图像之前或之后,只要该提供在本体单元1将被检者A的视线的移动频度存储作为存储信息33并分析该存储信息33之前即可。
在本体单元1中,可以通过基于图像中的颜色数据和图片判断程序等自动设置各区域信息、或者通过检查者B针对各图像手动设置并调整各区域信息,来提供信息。
对于各区域,利用视线位置评价算法来评价存储信息33。作为被检者A的视线的移动频度,存储信息33包括复合图像的各显示时间段中的与各区域有关的累计停留时间、平均停留时间和最大停留时间、区域S和N之间的移动次数以及移动方向和移动速度。
以下将说明用于将各复合图像中的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法。
首先,将说明针对特定人物图像(I)的算法。
本体单元1将特定人物图像(I)显示在显示部21上以使被检者A观看人物图像的运动部位。具体地,根据作为画面上的面部图像整体保持静止而不存在运动部位的状态的静止图像(i),显示仅眼睛开闭的面部图像(iia)和仅嘴开闭的面部图像(iib)。面部图像(iia)表示将运动部位显示在眼睛的位置处的状态。面部图像(iib)表示将运动部位显示在嘴的位置处的状态。因而,检查被检者A观看运动部位的位置的趋势。
例如,图9A示出以下所述的表1的一个示例,其中在将(iia)显示了5秒的情况下,提取标准发育个体和自闭症个体的视线的移动频度。针对每33毫秒一次,将被检者的视线位置作为标绘点显示在面部图像上。该图中的标绘点的点的分布清楚地示出自闭症个体没有观看眼睛,并且他或她的视线集中在嘴周围的部位。
因而,如图8A所示,视线评价部件(c)在仅眼睛开闭的面部图像(iia)中,在眼睛的位置处设置刺激区域S并且在嘴的位置处设置非刺激区域N。因而,获得各区域S和N的特定位置处的被检者A的视线的移动频度。
此外,如图8B所示,视线评价部件(c)在仅嘴开闭的面部图像(iib)中,在嘴的位置处设置刺激区域S并且在眼睛的位置处设置非刺激区域N。因而,获得各区域S和N中的被检者A的视线的移动频度。
在静止图像(i)中,将眼睛和嘴这两者的位置都设置为非刺激区域N(无刺激区域S的状态)。如图8C所示,可以以多重方式设置各区域,以分析被检者是否直接观看眼睛或嘴。可以向除面部图像以外的图像设置多重区域。
表1
如上所述,与标准发育个体相比,自闭症个体在(ia)、(iia)和(iib)的任意中均具有特定趋势。具体地,在发现了向着运动部位、即向着作为刺激区域S的眼睛和嘴周围的部位的视线移动的情况下,自闭症个体趋于更加关注他或她感兴趣的特定位置。因而,不仅在刺激区域S中而且还在非刺激区域N中,获得视线的移动频度是有效的。
特别是在仅嘴开闭的面部图像(iib)中,如图8D所示,标准发育个体和自闭症这两者是共通的,即趋于使视线到达嘴周围的部位。基于该特征,可以分析在如下情况下刺激区域S和非刺激区域N中的反转的视线移动的趋势:显示仅嘴开闭的面部图像(iib),然后显示仅眼睛开闭的面部图像(iia)。
可选地,由于尽管图中没有详述、但标准发育个体相对趋于观看眼睛的位置,因此可以在仅嘴开闭的面部图像(iib)中提取仅嘴开闭期间的眼睛的位置的移动频度。这里,可以在将嘴周围的部位设置为非刺激区域并将眼睛周围的部位设置为刺激区域S的情况下,检测仅嘴开闭期间的眼睛的位置的移动频度。
利用该算法,可以提取出标准发育个体和自闭症个体之间在视线的移动频度方面的趋势差异。可以基于标准发育个体和自闭症个体的视线的移动的共通元素和非共通元素这两者来提取有助于评价的差异。
接着,将说明特定非人物图像(II)的算法。
在出现预测图像(α)中,检查如图4的A~G所示、被检者A观看在再显示时刻再显示移动体(α1)的特定部位的趋势。
因而,如图8的E~G所示,视线评价部件(c)在再显示时刻再显示移动体(α1)的各特定位置处设置刺激区域S。在存在遮蔽体(α2)的情况下,在包围遮蔽体(α2)的位置处设置非刺激区域N。然后,获得各区域S和N中的被检者A的视线的移动频度。这里,优选分析被检者A是否趋于观看移动体(α1)、以及在移动体消失之后被检者A是否以预测方式观看再显示部位,这很重要。
表2
针对再显示时刻之前和之后的短时间段内设置在特定位置处所设置的刺激区域S。在其它时刻将相同位置设置为非刺激区域N或区域设置外。可以在将移动体(α1)在刺激区域S处于再显示位置的情况下视为非刺激区域N或区域设置外、并且在其它时刻视为其它刺激区域S的情况下,获得移动的频度。
可以将再显示位置处的刺激区域S的位置固定为再显示位置、或者可以根据移动体(α1)的移动而移动。可以根据移动体(α1)的移动速度和被检者A的反应延迟来调整设置刺激区域S的时间段,并且该时间段可以为再显示前后的约1~2秒。
如图8G所示,可以设置与刺激区域S邻接的多个刺激区域S。因而,分析自闭症个体是否正直接观看邻接的刺激区域S,以发现自闭症个体是否趋于有意观看移动体的前方或后方的位置而不是直接观看移动体,由此他或她没有直接观看人物的眼睛。可以在除出现预测图像以外的情况下设置邻接区域。
利用该算法,在刺激区域S和非刺激区域N改变的情况下,可以在与特定人物图像(I)不同的出现预测图像(α)中提取标准发育个体和自闭症个体之间在视线的移动频度方面的趋势差异。该差异有助于实现用于确定地检测到自闭症个体的高水平筛查的评价。
在错觉图像(β)中,利用本体单元1所显示的图5的A~E中示出的错觉图像来检查用以观看错觉引起元素的趋势,从而使被检者A观看该错觉引起元素。
因而,如图8的H~M所示,视线评价部件(c)在错觉引起元素(β1)的位置处设置刺激区域S并且在非错觉引起元素(β2)的位置处设置非刺激区域N。然后,获得各区域S和N的特定位置中的被检者A的视线的移动频度。
例如,图9C示出表3的示例,其中利用左右(β1)和(β2)来提取标准发育个体和自闭症个体的视线的移动频度,并且如图8K所示并排显示在左侧和右侧上并持续5秒。针对每33毫秒一次,将被检者的视线位置作为标绘点显示在错觉图像上。该图中的标绘点的点的分布清楚地示出自闭症个体的视线集中于(β2)的一点。
这里,可以使用视线的移动频度来以如下方式基于视线的移动来检查并判断被检者是否正有兴趣地观看视错觉。具体地,使用从显示开始起直到结束为止的、各刺激区域S和非刺激区域N中的累计停留时间和最长停留时间以及时间的比率。在区域S和N之间的移动次数以及累计时间的比率都小的情况下,判断为被检者对视错觉不感兴趣。
使用如图8I所示的Kanizsa三角形错觉图形的情况是特别优选的。这里,在错觉引起元素(β1)中,在识别出不存在于画面中的图形的情况下,引起有意观看不存在于画面中的图形的轮廓附近的部位的趋势。结果,在标准发育个体的情况下,向着刺激区域S的位置(即,特别是刺激区域S的轮廓附近的位置)的移动频度可以增加。
尽管未图示,但按照如下详细检查向着轮廓附近的位置的视线的移动频度。具体地,将包围不存在于画面中的图形的图8I所示的刺激区域S形成作为多重区域(具体地,沿着不存在于画面中的图形的轮廓的大小2重的区域S)。因而,可以仅提取大区域和小区域之间的视线移动。
使用如图8K所示的Fraser-Wilcox错觉图形的情况是特别优选的。这里,该图形基于以下事实来使被检者观看错觉引起元素(β1):被检者在观看非错觉引起元素(β2)而非直接观看错觉引起元素(β1)的情况下,仿佛感到错觉引起元素(β1)正在他或她的视野内移动。结果,在标准发育个体的情况下,刺激区域S和非刺激区域N的位置之间的移动频度可以增加。如图8的L和M所示,可以以多重结构设置各区域以分析没有直接观看图片的趋势,或者可以分割该区域以分析一个图片中的部分视线的移动趋势。
表3
显示部21的画面上所显示的错觉图像使被检者A观看错觉引起部分。这里,通常,可以根据表1中的被检者A的趋势来检查自闭症个体特有的视线移动。
因而,可以形成如下图像:由于错觉引起元素和非错觉引起元素所引起的不适感,可以有意将被检者A的视线引导至画面中产生视错觉的特定位置。
在差异点搜索图像(γ)中,利用本体单元1显示如图6的A和B所示的多个同种图片(γ1)以及一个或几个异种图片(γ2),并且检查被检者A观看同种图片(γ1)和异种图片(γ2)的位置的趋势。
因而,如图8的N~O所示,视线评价部件(c)可以在异种图片(γ2)的位置处设置刺激区域S。如图8的P~Q所示,视线评价部件(c)还在同种图片(γ1)的位置处设置非刺激区域N。因而,获得了各区域S和N中的被检者A的视线的移动频度。非刺激区域N可以不设置在同种图片(γ1)的位置处。这里,可以将非刺激区域N设置为除异种图片(γ2)的位置处的刺激区域S以外的任何位置。
例如,图9A示出以下所述的表4的一个示例,其中在显示图8Q并持续5秒的情况下,提取标准发育个体和自闭症个体的视线的移动频度。针对每33毫秒一次,来将被检者的视线位置作为标绘点显示在面部图像上。该图中的标绘点的点分布清楚地示出自闭症个体不趋于观看画面整体中的图片。
这里,可以根据视线的移动来按以下方式检查视线的移动频度。具体地,可以在从显示开始起直到结束为止的时间段内根据与刺激区域S有关的累计停留时间和最长停留时间来判断被检者是否发现了异种图片(γ2)。在瞬时发现了刺激区域S中视线移动的情况下,可以判断为被检者尚未发现异种图片(γ2)、因而仍在搜索的处理中。可以按照如下来判断被检者是尝试发现各种图片中的少数异种图片(γ2)还是趋于注视一个图片。具体地,基于设置到同种图片(β1)的非刺激区域N之间或者区域S和区域N之间的移动次数以及累计时间的比率来检查这些趋势。
表4
总的看来,根据自己的意愿观看显示部的画面整体中所显示的图像的被检者将观看看似相同的同种图片中所发现的异种图片(这是因为,被检者对图片看上去相同但外观不同的部分所带来的不适感/不自然感感兴趣)。这样可以在同种图片和异种图片之间产生被检者A的视线的移动。通过如此检查自闭症个体和标准发育个体的视线的移动趋势来获得视线的移动频度是有效的。
利用该算法,可以提取出标准发育个体和自闭症个体之间在视线的移动频度方面的趋势差异。可以基于标准发育个体和自闭症个体的视线移动的共通元素和非共通元素这两者来提取有助于评价的差异。
在上述图像中,可以通过针对各区域进行计算来掌握被检者A对特定区域的关注程度。
可以在一个图像中设置多个刺激区域S和非刺激区域N,或者可以使用各自包括刺激区域S和非刺激区域N的多个图像。在这些情况下,可以计算出各区域S和N的总数。可选地,例如可以针对诸如刺激区域S1和刺激区域S2等的各区域独立执行计算。具体地,针对由于平均停留数不同因而还存在视线一次从一个区域移动至其它区域、然后该视线返回至并集中于原始区域的情况,期望进行这种计算。
可选地,可以将位置信息中的两个点之间的视线移动的距离换算成矢量的方向和大小,以计算视线移动的频度和/或速度作为一个信息。
如通过以上显而易见,在图像中的特定位置处设置这些区域并且提取这些位置处的视线的移动的信息使得能够基于被检者A的视线位置信息,以刺激区域S为基准来容易地计算诸如以下等的移动的趋势:在刺激区域S内停留的趋势、以及从刺激区域S内向刺激区域S外的区域或者从刺激区域S外的区域向刺激区域S内移动的趋势,其中该计算可以有助于进行有效的分析和/或比较。
如后面将说明的,本体单元1中的存储信息使得能够检测视线的移动趋势相对于使用相同的图像信息的同一被检者A的过去检测趋势的变化、或者使用相同的图像信息的不同被检者A之间的视线移动的趋势差异。
将存储信息与使用相同的图像信息已确诊为标准发育个体/自闭症个体的个体的过去获得的存储信息进行比较也很容易。
如上所述,视线评价部件(c)将针对复合图像中的各图像执行算法的结果存储作为存储信息,并且实时地或在检测完成之后进行计算,以根据整体复合图像来判断所检测到的视线移动是自闭症个体还是标准发育个体特有的。在该计算之后,视线评价部件(c)将该评价结果存储在评价结果存储部中。可选地,被检者A基于与自闭症个体特有的视线的移动频度的差异来将所检测到的视线移动与被识别为标准发育个体(或自闭症个体)的视线移动进行比较(视线位置信息评价部)。
存储信息是按照如下所获得的信息。具体地,本体单元1存储发送至显示部21的(包括区域信息的)显示图像信息和从视线检测单元2所输入的被检者A的视线位置信息,并且去除这些位置信息之间的不一致性,然后存储作为与视线位置有关的要分析的数据。
这种存储信息33可以提供如下的有所改进的便利性:在随后被检者A被确诊为标准发育个体/自闭症个体的情况下,可以将该诊断作为补充信息存储在过去存储信息中以增强该存储信息作为基准/比较信息的有效性,并且即使在专家(专门医师)的数量少的区域中或者在诸如学校或本地健康中心等的无专家(专门医师)的情况下,也可以进行用于获得存储信息的检查自身。可以由专家(专门医师)基于存储信息的评价结果来进行确诊,以使得稍后或立即进行甚至使用通信部件的远距离的早期检测。此外,其它医疗领域等的医生可以进行推荐以获得专家(专门医师)基于存储信息的评价结果所进行的确诊,同时将存储信息通知给专家(专门医师)。
在这些信息中,关于检查者所期望的进一步调查,优选添加各种补充信息,其中利用这些补充信息,可以将基准/比较对象分类成诸如年龄、性别或外貌特征等的表示趋势的各种元素。
在本发明中,优选地,基于存储有过去所获得的被检者A的视线位置信息和关于被检者A是否是自闭症个体的针对各被检者A的确诊的数据库,来针对错觉图像平面区域和非错觉图像平面区域之间相互移动的视线的移动频度设置阈值。
可以向存储信息添加除上述的区域位置信息和视线位置信息以外的任何补充信息。这种补充信息的示例包括图像文件的标题和属性信息、图像的显示时间的历史、所使用的单元的规格的信息、被检者A的个人信息和过去诊断的历史等。
可以针对向被检者所显示的所有图像整体进行分析,或者可以针对检查时间段的各特定单位或针对所显示的各图像单独进行分析。
根据需要,优选地,进行用于获得结果和过去针对作为用于使用相同图像的基准/对象的标准发育个体和/或自闭症个体所获得的存储信息之间的差的计算。
在该分析中,以下方面很重要。具体地,在特定图像中设置特定区域。这种设置给出了计算被检者A的视线的移动频度的标准。此外,标准发育个体和/或自闭症个体的存储信息用于视线的移动频度的趋势的对比或差异。因而,可以对被检者A的视线的移动频度进行评价。因而,在这种评价中,为了比较视线的移动频度,本体单元1优选地存储过去进行了检查的同一检查者的各种视线位置信息和其它被检者A的同一图像中的视线位置信息。与作为诊断信息的被诊断为患有自闭症的人的视线信息(确诊信息)进行比较是特别可取的。
优选地,可以在存储信息中累计、添加和校正这种信息。可以将被检者A的视线位置信息分别地与如此存储在本体单元1中的视线位置信息进行比较,或者可以适当与所存储的特定信息的平均值进行比较。
图像之间在显示速度和总显示时间方面的差异导致在总时间之间的比较中产生误差。因而,可以识别每平均时间的刺激区域S和非刺激区域N的频度。此外,可以将与显示构件有关的信息存储在视线位置信息存储部中,以防止由于所使用显示构件的大小、比率和分辨率的差异所引起的尺寸差异而导致比较时发生误差。
这里,优选以下:向所检测到的视线位置信息添加诸如由原子钟等所确定的实际时间信息等的向本体单元1或视线检测单元2清楚地示出被检者A观看显示图像信息的特定位置的时间的时间信息,这是因为这种信息随后确保了存储信息的一致性。评价的单位不限于时间并且可以适当确定。例如,视线检测单元2可以进行与每秒的检测次数相对应的次数的计算。例如,可以将视线检测单元2获得一个视线坐标所需的一个测量时间段计数作为一个标绘点的时间(例如,关于视线检测单元检测30个标绘点/秒,则为1/30秒/标绘点)。
视线位置信息评价单元可以在显示图像的总数中利用所有的复合图像进行评价,或者在一旦按照一定频度获得了自闭症特有的视线移动方向、显示就停止的状态下进行评价。
然后,将分析结果作为检测结果信息输出至显示部A(评价结果输出部)。
检测结果信息是本体单元1中以检查者所期望的格式要显示至检查者、进行打印或传送的存储信息的分析内容的信息,并且代替仅提供至显示部,还可以将检测结果信息以画面信息或记录信息的形式输出至诸如打印机等的打印介质、或者设置在外部的存储介质、再现介质或其它显示介质。
检测结果信息可能并非必须采用数值数据的形式,并且代替图10的A和B所示的条形图,还可以采用诸如线图、气泡图、散点图或圆形图等的各种图形或曲线图的形式来显示。条形图表示利用视线的集合的数量和时间所获得的浓度分布。可以以除存储信息的分析内容以外的方式来表示该信息。例如,可以如图9的A~D所示来表示该信息。具体地,可以将图像表示为作为显示图像信息和视线位置图像所记录的运动图像、或者具有诸如颜色改变的视线移动的叠加轨迹等的以各种形式再现的视线移动的运动图像。
图10的A和B所示的曲线图以在区域中停留的时间的比率来示出在显示复合图像期间视线在刺激区域S和非刺激区域N上的位置。这里,在将被检者恒定地观看刺激区域S的情况定义为100%的状态下,对10个标准发育个体和10个自闭症个体进行计算。
图10A示出作为静止图像(i)的静止面部图像中的视线移动的趋势。图10B示出与图10A相比、在显示仅嘴开闭的面部的运动图像(iia)期间向着眼睛周围的视线的移动频度的趋势大幅改变的状态。这里,可以发现,标准发育个体的视线移动的趋势的变化已从(i)明显改变为(iia)。
然后,对检查者的视线的移动频度的趋势是接近标准发育个体还是自闭症个体的视线的移动频度的趋势进行检查。因而,可以检查被检者患有自闭症的可能程度。针对复合图像中的各图像或复合图像整体,可以从视觉上向检查者提供标准发育个体和自闭症发育个体的视线移动的趋势的对比或差异。因而,可以实现针对便于比较和检查的辅助。
优选地,适当选择为了比较所呈现的数据作为与各测量个体有关的数据、根据在特定条件下选择的数据所计算出的平均值和标准值、或者这些的组合。
上述的存储信息的分析内容的呈现方式适合作为用以向检查者示出自闭症的可能症状的视线位置信息。
产业上的可利用性
本发明的自闭症诊断辅助方法和自闭症诊断辅助系统在以下方面是有利的:即使对于由专门医师指定为自闭症个体的年龄之前的婴儿的自闭症,也可以基于客观评价来提供用于自闭症的早期检查和早期确诊的辅助。
附图标记说明
1 本体单元
11 显示部
2 视线检测单元
21 显示部
22 照相机部
23 摄像辅助照明部
31 显示图像信息
32 视线位置信息
33 存储信息
34 检测结果信息
A 被检者
B 检查者
Claims (15)
1.一种自闭症诊断辅助系统,用于使用视线检测单元来辅助被检者的自闭症的诊断,所述视线检测单元至少包括:用于对被检者的眼球进行摄像的照相机部或者安装在被检者的头部上并且用于检测眼球的运动的电极部;以及配置在被检者的视线方向上的显示部,
所述自闭症诊断辅助系统包括:
输入装置,用于向所述显示部输入显示在该显示部的画面上的、连续显示包括特定人物图像和特定非人物图像的至少两个图像的复合图像的图像信息;以及
评价装置,用于在使用该视线检测单元检测观看该复合图像的被检者的视线位置信息之后,将被检者的视线位置信息输入至视线位置信息存储部中,并且利用用于将被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法来评价被检者的视线位置,
其中,所述特定非人物图像包括从出现预测图像、错觉识别图像和差异点搜索图像中所选择的至少一种图像。
2.根据权利要求1所述的自闭症诊断辅助系统,其中,
所述视线位置评价算法是基于具有相对于标准发育个体向着运动图像的动作部分的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异,其中,向着运动图像的动作部分的视线的移动频度是使由静止图像和一部分动作的运动图像构成的所述特定人物图像将静止图像和一部分动作的运动图像的任一个显示在显示部的画面上时的视线的移动频度。
3.根据权利要求2所述的自闭症诊断辅助系统,其中,所述特定人物图像包括如下三种类型的图像:面部的静止图像、仅眼睛开闭的面部的运动图像、以及仅嘴开闭的面部的运动图像。
4.根据权利要求3所述的自闭症诊断辅助系统,其中,该自闭症诊断辅助系统是基于具有与标准发育个体的视线的移动频度相比、自闭症个体的视线的移动频度较低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,所述视线的移动频度是显示仅眼睛开闭的面部的运动图像时的向着眼睛周围的视线的移动频度。
5.根据权利要求3所述的自闭症诊断辅助系统,其中,该自闭症诊断辅助系统是基于具有与显示面部的静止图像或者仅嘴开闭的面部的运动图像时的标准发育个体的视线的移动频度相比、自闭症个体的视线的移动频度较低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,所述视线的移动频度是在首先显示仅嘴开闭的面部的运动图像之后接着显示仅眼睛开闭的面部的运动图像时的向着仅眼睛开闭的面部的运动图像的视线的移动频度。
6.根据权利要求1至3中任一项所述的自闭症诊断辅助系统,其中,作为所述特定人物图像,使用被检者认识的人物的图像。
7.根据权利要求1所述的自闭症诊断辅助系统,其中,
该自闭症诊断辅助系统是基于具有相对于标准发育个体向着移动体图像再显示的位置的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,向着移动体图像再显示的位置的视线的移动频度是使所述特定非人物图像的出现预测图像、即由移动体图像任意地与遮蔽体图像的组合所构成的运动图像首先以移动体图像在显示部的画面上移动的方式进行显示然后使该移动体图像通过移到显示部的画面外侧或利用遮蔽体图像转变为非显示状态之后、从显示部的特定位置再显示移动体图像时的视线的移动频度。
8.根据权利要求7所述的自闭症诊断辅助系统,其中,对于所述再显示时的视线的移动频度,不以进行第一次再显示时的移动频度为评价的对象,而是以从能够预测移动体图像的规则运动的第二次再显示起的移动频度为评价的对象。
9.根据权利要求1所述的自闭症诊断辅助系统,其中,
该自闭症诊断辅助系统是基于具有相对于标准发育个体在显示有错觉引起元素的位置和显示有非错觉引起元素的位置之间的视线的移动频度高而自闭症个体的视线的移动频度低的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中,显示有错觉引起元素的位置和显示有非错觉引起元素的位置之间的视线的移动频度是使所述特定非人物图像的错觉识别图像、即由包括错觉引起元素和非错觉引起元素的图片构成的图像显示错觉引起元素时的视线的移动频度。
10.根据权利要求1所述的自闭症诊断辅助系统,其中,
该自闭症诊断辅助系统是基于具有相对于标准发育个体在显示有同种图片的位置和显示有异种图片的位置之间的视线的移动频度低而自闭症个体的视线的移动频度高的这种趋势的标准发育个体和自闭症个体的视线移动方向的对比或差异的系统,其中显示有同种图片的位置和显示有异种图片的位置之间的视线的移动频度是使所述特定非人物图像的差异点搜索图像、即由外观相同或相似的多个同种图片和形状不同于同种图片的形状的一个或几个异种图片的组合所构成的图像将同种图片和异种图片以混合方式显示在所述显示部上时的视线的移动频度。
11.根据权利要求1所述的自闭症诊断辅助系统,其中,
在所述复合图像显示在显示部的画面上之前,预先将预备图像引导图像显示在显示构件上,以将被检者的视线引导至预定位置。
12.根据权利要求2所述的自闭症诊断辅助系统,其中,在标准发育个体和自闭症个体的视线的移动频度的评价中,基于从各图像显示在显示部的画面上的时间起的平均时间,在从所检测到的被检者的视线位置信息所获得的移动频度是高还是低的条件下检测频度。
13.根据权利要求2所述的自闭症诊断辅助系统,其中,所述视线位置评价算法基于存储有过去的被检者的视线位置信息和该被检者是否是自闭症个体的确诊信息的数据库,来针对视线的移动频度设置阈值。
14.一种自闭症诊断辅助系统,包括:
视线检测部件,用于使用视线检测单元来检测观看显示部的画面的被检者的视线位置信息,其中所述视线检测单元至少包括:用于对被检者的眼球进行摄像的照相机部或者安装在被检者的头部上并且用于检测眼球的运动的电极部;以及配置在被检者的视线方向上的显示部;
用于输入该被检者的视线位置信息的部件;
视线评价部件,用于基于该被检者的视线位置信息即在用于连续显示包括特定人物图像和特定非人物图像的至少两个图像的复合图像显示在显示部的画面上时的位置信息,利用将该被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法来评价该被检者的视线位置;以及
显示部件,用于显示该被检者的视线位置的评价结果,
其中,所述特定非人物图像包括从出现预测图像、错觉识别图像和差异点搜索图像中所选择的至少一种图像。
15.一种自闭症诊断辅助装置,用于使用用于连续显示包括特定人物图像和特定非人物图像的至少两个图像的复合图像来辅助自闭症诊断,所述自闭症诊断辅助装置包括:
视线检测部,用于使用视线检测部件来检测观看被检者的视线方向上所显示的该复合图像的被检者的视线位置信息;
视线位置信息存储部,用于存储该视线检测部所检测到的视线位置信息;
视线位置信息显示部,用于显示该视线位置信息存储部中所存储的被检者的视线位置信息;
视线位置信息评价部,用于利用将被检者的视线位置信息与自闭症个体和/或标准发育个体的视线位置信息进行比较的视线位置评价算法,通过与自闭症个体和/或标准发育个体的视线位置信息进行类比,来评价该视线位置信息显示部上所显示的被检者的视线位置信息;
评价结果输出部,用于输出该视线位置信息评价部所获得的评价结果;以及
评价结果存储部,用于存储从该评价结果输出部所输出的评价结果或该视线位置信息评价部所获得的评价结果,
其中,所述特定非人物图像包括从出现预测图像、错觉识别图像和差异点搜索图像中所选择的至少一种图像。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012063237 | 2012-03-21 | ||
JP2012-063237 | 2012-03-21 | ||
JP2013-030686 | 2013-02-20 | ||
JP2013030686A JP5926210B2 (ja) | 2012-03-21 | 2013-02-20 | 自閉症診断支援システム及び自閉症診断支援装置 |
PCT/JP2013/056919 WO2013141098A1 (ja) | 2012-03-21 | 2013-03-13 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104219992A CN104219992A (zh) | 2014-12-17 |
CN104219992B true CN104219992B (zh) | 2017-03-29 |
Family
ID=49222558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380015493.XA Expired - Fee Related CN104219992B (zh) | 2012-03-21 | 2013-03-13 | 自闭症诊断辅助系统以及自闭症诊断辅助装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150050628A1 (zh) |
EP (1) | EP2829221B1 (zh) |
JP (1) | JP5926210B2 (zh) |
CN (1) | CN104219992B (zh) |
WO (1) | WO2013141098A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109846497A (zh) * | 2019-01-21 | 2019-06-07 | 上海交通大学 | 一种基于视觉的自闭症辅助早筛方法及装置 |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4554102A (en) * | 1983-09-26 | 1985-11-19 | Shell Oil Company | Cyanohydrination catalyst comprising non-crystalline or amorphous dipeptide |
JPS6092888A (ja) * | 1983-10-27 | 1985-05-24 | Tokyo Electric Co Ltd | 電子タイプライタ− |
GB2511237A (en) * | 2011-12-05 | 2014-08-27 | Gautam Singh | Computer implemented system and method for statistically assessing co-scholastic skills of user |
JP5983131B2 (ja) * | 2012-07-19 | 2016-08-31 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP5983135B2 (ja) * | 2012-07-23 | 2016-08-31 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP5974790B2 (ja) * | 2012-09-28 | 2016-08-23 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
WO2014051010A1 (ja) * | 2012-09-28 | 2014-04-03 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP6217445B2 (ja) * | 2013-03-07 | 2017-10-25 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP6217446B2 (ja) * | 2013-06-28 | 2017-10-25 | 株式会社Jvcケンウッド | 制御装置、診断支援装置、制御方法及び制御プログラム |
JP6142825B2 (ja) * | 2013-07-30 | 2017-06-07 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP6142822B2 (ja) * | 2013-07-29 | 2017-06-07 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
US10405786B2 (en) * | 2013-10-09 | 2019-09-10 | Nedim T. SAHIN | Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device |
BR112016008676A8 (pt) | 2013-10-17 | 2020-03-17 | Childrens Healthcare Atlanta Inc | sistemas para avaliar ou monitorar uma incapacidade ou capacidade de desenvolvimento; e métodos para a identificação de uma alteração na fixação visual de um indivíduo no tempo |
WO2015080063A1 (ja) * | 2013-11-27 | 2015-06-04 | 株式会社ニコン | 電子機器 |
JP2015181797A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
JP6187347B2 (ja) * | 2014-03-25 | 2017-08-30 | 株式会社Jvcケンウッド | 検出装置および検出方法 |
AU2015235511B2 (en) * | 2014-03-25 | 2017-06-01 | JVC Kenwood Corporation | Detection device and detection method |
JP6287486B2 (ja) * | 2014-03-31 | 2018-03-07 | 富士通株式会社 | 情報処理装置、方法及びプログラム |
EP2979635B1 (en) * | 2014-07-31 | 2018-10-24 | JVC KENWOOD Corporation | Diagnosis supporting device, diagnosis supporting method, and computer-readable recording medium |
JP6251412B2 (ja) | 2014-09-30 | 2017-12-20 | 国立大学法人浜松医科大学 | 不注意の測定装置、システム、及び方法 |
FR3027206B1 (fr) * | 2014-10-21 | 2021-06-04 | Univ Paris Descartes | Procede de test d'un nourrisson et dispositif adapte pour mettre en oeuvre le procede de test |
JP2016131741A (ja) * | 2015-01-20 | 2016-07-25 | 株式会社リコー | 通信端末、面談システム、表示方法及びプログラム |
JP6471533B2 (ja) * | 2015-02-25 | 2019-02-20 | 株式会社Jvcケンウッド | 視線検出装置および視線検出方法 |
JP2016157326A (ja) * | 2015-02-25 | 2016-09-01 | 株式会社Jvcケンウッド | 視線検出装置および視線検出方法 |
JP2016163166A (ja) * | 2015-03-02 | 2016-09-05 | 株式会社リコー | 通信端末、面談システム、表示方法及びプログラム |
WO2016160014A1 (en) * | 2015-04-01 | 2016-10-06 | Pracar Alexis | Monitoring, tracking, and managing symptoms of autism spectrum disorder |
JP6593133B2 (ja) * | 2015-11-30 | 2019-10-23 | 株式会社Jvcケンウッド | 診断支援装置および診断支援方法 |
JP6693105B2 (ja) * | 2015-12-01 | 2020-05-13 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
US11281893B2 (en) | 2016-06-21 | 2022-03-22 | Stefan Zechner | Method and device for modifying the affective visual information in the field of vision of an user |
JP2020513253A (ja) * | 2016-11-10 | 2020-05-14 | ニューロトラック テクノロジーズ,インク. | 認識能力の分析のために、画像取得デバイスを人間のユーザーに関連付けるための方法およびシステム |
JP2018116537A (ja) * | 2017-01-19 | 2018-07-26 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6848526B2 (ja) * | 2017-02-28 | 2021-03-24 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
JP6895144B2 (ja) * | 2017-04-05 | 2021-06-30 | 北海道公立大学法人 札幌医科大学 | 診断支援システム、診断支援システムの作動方法、及びプログラム |
JP6737234B2 (ja) * | 2017-05-22 | 2020-08-05 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
CN107833618B (zh) * | 2017-11-06 | 2021-02-23 | 广州优涵信息技术有限公司 | 自闭症儿童及家庭信息管理系统 |
AU2018366644B2 (en) | 2017-11-14 | 2024-05-02 | Osaka University | Cognitive impairment diagnostic apparatus and cognitive impairment diagnostic program |
WO2019102245A1 (en) * | 2017-11-21 | 2019-05-31 | Volvo Truck Corporation | Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product |
CN108960101B (zh) * | 2018-06-22 | 2022-06-14 | 张小勇 | 数据处理方法和系统 |
CN108922617B (zh) * | 2018-06-26 | 2021-10-26 | 电子科技大学 | 一种基于神经网络的自闭症辅助诊断方法 |
KR102166011B1 (ko) | 2018-07-09 | 2020-10-15 | 주식회사 두브레인 | 터치입력을 이용한 인지장애 판단 시스템 및 방법 |
JP7268307B2 (ja) * | 2018-08-31 | 2023-05-08 | 株式会社Jvcケンウッド | 評価装置、評価装置の作動方法、及び評価プログラム |
CN109431523B (zh) * | 2018-10-19 | 2022-08-30 | 昆山杜克大学 | 基于非社会性声音刺激行为范式的孤独症初级筛查装置 |
CN109616179B (zh) * | 2018-12-07 | 2022-06-21 | 山东大学 | 自闭症谱系障碍混合现实康复训练系统及方法 |
JP7057483B2 (ja) * | 2018-12-14 | 2022-04-20 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
JP6988787B2 (ja) * | 2018-12-28 | 2022-01-05 | 株式会社Jvcケンウッド | 表示装置、表示方法、およびプログラム |
CN109770921B (zh) * | 2019-02-03 | 2020-12-08 | 清华大学 | 自闭症儿童早期语言与认知能力筛查的方法及装置 |
JP6787601B2 (ja) * | 2019-03-19 | 2020-11-18 | Impute株式会社 | 自閉症治療支援システム、自閉症治療支援装置、及びプログラム |
JP7092082B2 (ja) * | 2019-03-22 | 2022-06-28 | 株式会社Jvcケンウッド | 評価装置、評価方法、及び評価プログラム |
CN110999798B (zh) * | 2019-12-12 | 2022-04-22 | 深圳先进技术研究院 | 一种整体知觉的行为检测装置及动物认知行为测试方法 |
CN113362961B (zh) * | 2020-03-05 | 2024-07-09 | 北京力泰克科技有限公司 | 自闭症快速筛查系统 |
CN115315217A (zh) | 2020-03-27 | 2022-11-08 | 国立大学法人大阪大学 | 认知功能障碍诊断装置以及认知功能障碍诊断程序 |
WO2022102721A1 (ja) * | 2020-11-11 | 2022-05-19 | Assest株式会社 | うつ状態判別プログラム |
CN112434595B (zh) | 2020-11-20 | 2024-07-19 | 小米科技(武汉)有限公司 | 行为识别方法及装置、电子设备、存储介质 |
CN112541400B (zh) * | 2020-11-20 | 2024-06-21 | 小米科技(武汉)有限公司 | 基于视线估计的行为识别方法及装置、电子设备、存储介质 |
CN113974631A (zh) * | 2021-12-03 | 2022-01-28 | 中国科学院心理研究所 | 一种基于生理信号识别与分析的孤独症计算机辅助诊断系统 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3453911B2 (ja) | 1995-03-02 | 2003-10-06 | 富士ゼロックス株式会社 | 視線認識装置 |
GB0119859D0 (en) | 2001-08-15 | 2001-10-10 | Qinetiq Ltd | Eye tracking system |
SE524003C2 (sv) | 2002-11-21 | 2004-06-15 | Tobii Technology Ab | Förfarande och anläggning för att detektera och följa ett öga samt dess blickvinkel |
WO2005063114A1 (ja) * | 2003-12-25 | 2005-07-14 | National University Corporation Shizuoka University | 視線検出方法および装置ならびに三次元視点計測装置 |
JP4517049B2 (ja) | 2003-12-25 | 2010-08-04 | 国立大学法人静岡大学 | 視線検出方法および視線検出装置 |
US7384399B2 (en) * | 2004-02-11 | 2008-06-10 | Jamshid Ghajar | Cognition and motor timing diagnosis and training system and method |
US20050273017A1 (en) * | 2004-03-26 | 2005-12-08 | Evian Gordon | Collective brain measurement system and method |
JP4491604B2 (ja) | 2004-12-17 | 2010-06-30 | 国立大学法人静岡大学 | 瞳孔検出装置 |
JP4722573B2 (ja) | 2005-06-10 | 2011-07-13 | 株式会社エヌ・ティ・ティ・ドコモ | 顔面情報検出装置および顔面情報検出式通信装置 |
JP4528980B2 (ja) | 2005-08-23 | 2010-08-25 | 国立大学法人静岡大学 | 瞳孔検出装置及び瞳孔検出方法 |
US8403480B2 (en) * | 2006-01-24 | 2013-03-26 | University Of Tennessee Research Foundation | Adaptive photoscreening system |
US9250703B2 (en) * | 2006-03-06 | 2016-02-02 | Sony Computer Entertainment Inc. | Interface with gaze detection and voice input |
JP4452836B2 (ja) | 2006-07-31 | 2010-04-21 | 国立大学法人静岡大学 | 瞳孔を検出する方法及び装置 |
JP4452835B2 (ja) | 2006-07-31 | 2010-04-21 | 国立大学法人静岡大学 | 瞳孔を検出する方法及び装置 |
WO2008097933A1 (en) * | 2007-02-04 | 2008-08-14 | Miralex Systems Incorporated | Systems and methods for gaze tracking using multiple images |
US8714982B2 (en) * | 2007-10-15 | 2014-05-06 | Casey Wimsatt | System and method for teaching social skills, social thinking, and social awareness |
WO2009142008A1 (ja) | 2008-05-20 | 2009-11-26 | パナソニック株式会社 | 視線検出装置、撮像装置、視線検出方法、プログラム、及び集積回路 |
US8808195B2 (en) * | 2009-01-15 | 2014-08-19 | Po-He Tseng | Eye-tracking method and system for screening human diseases |
US20110066068A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of functional impairment |
US20110065073A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of word detection latency |
US8882510B2 (en) * | 2009-09-16 | 2014-11-11 | Cerebral Assessment Systems, Inc. | Method and system for quantitative assessment of verbal memory |
US20110065076A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of social cues sensitivity |
US20110065071A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of word identification latency |
US8454165B2 (en) * | 2009-09-16 | 2013-06-04 | Cerebral Assessment Systems, Inc. | Method and system for quantitative assessment of visual contrast sensitivity |
US8777630B2 (en) * | 2009-09-16 | 2014-07-15 | Cerebral Assessment Systems, Inc. | Method and system for quantitative assessment of facial emotion sensitivity |
US20110065072A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of word recognition sensitivity |
US8562541B2 (en) * | 2009-09-16 | 2013-10-22 | Cerebral Assessment Systems, Inc. | Method and system for quantitative assessment of visual motion discrimination |
US20110065078A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of social interactions nulling testing |
US20110065070A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of letter identification latency |
US20110066082A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of visual motor response |
US20110065077A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of spatial sequence memory |
US20110066003A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of facial emotion nulling |
US20110066069A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of visual form discrimination |
US20110065069A1 (en) * | 2009-09-16 | 2011-03-17 | Duffy Charles J | Method and system for quantitative assessment of verbal recognition memory |
US8475391B2 (en) * | 2009-09-16 | 2013-07-02 | Cerebral Assessment Systems | Method and system for quantitative assessment of spatial distractor tasks |
JP5613528B2 (ja) | 2009-11-12 | 2014-10-22 | パナソニック株式会社 | 眼電位計測装置、眼科診断装置、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがね、眼電位計測方法、及びプログラム |
JP5504987B2 (ja) | 2010-03-11 | 2014-05-28 | 住友電装株式会社 | 充電用コネクタ |
US8371693B2 (en) * | 2010-03-30 | 2013-02-12 | National University Corporation Shizuoka University | Autism diagnosis support apparatus |
US20110262887A1 (en) * | 2010-04-21 | 2011-10-27 | Lc Technologies Inc. | Systems and methods for gaze based attention training |
US8678592B2 (en) * | 2011-03-09 | 2014-03-25 | The Johns Hopkins University | Method and apparatus for detecting fixation of at least one eye of a subject on a target |
JP5912351B2 (ja) * | 2011-09-05 | 2016-04-27 | 国立大学法人浜松医科大学 | 自閉症診断支援システム及び自閉症診断支援装置 |
CN102354349B (zh) * | 2011-10-26 | 2013-10-02 | 华中师范大学 | 提高孤独症儿童社会互动能力的人机互动多模态早期干预系统 |
JP5817582B2 (ja) * | 2012-02-22 | 2015-11-18 | 株式会社Jvcケンウッド | 脳機能疾患診断支援装置および脳機能疾患診断支援方法 |
-
2013
- 2013-02-20 JP JP2013030686A patent/JP5926210B2/ja active Active
- 2013-03-13 EP EP13763733.6A patent/EP2829221B1/en active Active
- 2013-03-13 CN CN201380015493.XA patent/CN104219992B/zh not_active Expired - Fee Related
- 2013-03-13 US US14/386,217 patent/US20150050628A1/en not_active Abandoned
- 2013-03-13 WO PCT/JP2013/056919 patent/WO2013141098A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109846497A (zh) * | 2019-01-21 | 2019-06-07 | 上海交通大学 | 一种基于视觉的自闭症辅助早筛方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2013141098A1 (ja) | 2013-09-26 |
JP5926210B2 (ja) | 2016-05-25 |
EP2829221A4 (en) | 2015-11-25 |
JP2013223713A (ja) | 2013-10-31 |
CN104219992A (zh) | 2014-12-17 |
US20150050628A1 (en) | 2015-02-19 |
EP2829221B1 (en) | 2020-06-24 |
EP2829221A1 (en) | 2015-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104219992B (zh) | 自闭症诊断辅助系统以及自闭症诊断辅助装置 | |
US9538947B2 (en) | Method, system and device for assisting diagnosis of autism | |
CN107847226B (zh) | 视觉认知测定系统、服务器控制方法 | |
US10614564B2 (en) | Method to determine impaired ability to operate a motor vehicle | |
EP3488282A1 (en) | Systems and methods for predictive visual rendering | |
Aivar et al. | Spatial memory and saccadic targeting in a natural task | |
KR102155309B1 (ko) | 인지 장애 예측 방법 및 이를 구현한 서버, 사용자 단말 및 어플리케이션 | |
CN105992965A (zh) | 响应于焦点移位的立体显示 | |
CN103476325A (zh) | 自适应照片筛查系统 | |
CN106060142A (zh) | 一种能够检查视力的手机及使用其进行视力检查的方法 | |
CN110772218A (zh) | 视力筛查设备及方法 | |
KR102344493B1 (ko) | 인공 지능 기반의 스마트 안진 검사 시스템, 방법 및 프로그램 | |
KR20190041081A (ko) | 인지장애 진단을 위한 vr기반 인지능력 평가시스템 | |
CN106572795A (zh) | 眼睛状况确定系统 | |
US10888263B2 (en) | Procedure of non-invasive video-oculographic measurement of eye movements as a diagnostic tool for (early) detection of neuropsychiatric diseases | |
CN115334957A (zh) | 用于对瞳孔心理感觉反应进行光学评估的系统和方法 | |
CN114502059A (zh) | 用于评估瞳孔反应的系统和方法 | |
Chukoskie et al. | Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection | |
US10631727B2 (en) | Method and system for detecting time domain cardiac parameters by using pupillary response | |
KR101357493B1 (ko) | 듀얼 태스크 패러다임을 이용한 치매 진단 장치 및 방법 | |
CN113633257B (zh) | 基于虚拟现实的前庭功能检查方法、系统、设备及介质 | |
Florea et al. | Computer vision for cognition: An eye focused perspective | |
Kiprijanovska et al. | Smart Glasses for Gait Analysis of Parkinson’s Disease Patients | |
Ahuja et al. | Retinal Image Based System to Detect the Drug Abuse | |
KR20150107511A (ko) | 공간주시특성을 이용한 공간탐색 특성정보 추출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170329 Termination date: 20180313 |
|
CF01 | Termination of patent right due to non-payment of annual fee |