KR102179931B1 - 인지 및 발달 조건의 탐지 시스템 및 방법 - Google Patents

인지 및 발달 조건의 탐지 시스템 및 방법 Download PDF

Info

Publication number
KR102179931B1
KR102179931B1 KR1020157028283A KR20157028283A KR102179931B1 KR 102179931 B1 KR102179931 B1 KR 102179931B1 KR 1020157028283 A KR1020157028283 A KR 1020157028283A KR 20157028283 A KR20157028283 A KR 20157028283A KR 102179931 B1 KR102179931 B1 KR 102179931B1
Authority
KR
South Korea
Prior art keywords
subject
data
computer
target
visual image
Prior art date
Application number
KR1020157028283A
Other languages
English (en)
Other versions
KR20150141957A (ko
Inventor
애미 클린
워렌 존스
피터 루이스
Original Assignee
칠드런스 헬스케어 오브 애틀란타, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 칠드런스 헬스케어 오브 애틀란타, 인크. filed Critical 칠드런스 헬스케어 오브 애틀란타, 인크.
Publication of KR20150141957A publication Critical patent/KR20150141957A/ko
Application granted granted Critical
Publication of KR102179931B1 publication Critical patent/KR102179931B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/005Constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

대상자 또는 환자에 대한 미리 정해진 특정 시각적 자극의 디스플레이의 결과로서 수신된 피드백으로부터 생성된 안구 추적 데이터의 분석에 의하여 자폐증 스펙트럼 장애(ASD)를 포함하는 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위한 시스템, 장치 및 방법이 설명된다. 교정 단계에 후속하여, 테스트 절차는 디스플레이 장치를 통해 미리 정해진 자극(예를 들어, 비디오)을 대상자에게 제시함으로써 수행된다. (미리 정해진 무비 또는 다른 시각적 자극에 응답하여 자신의 안구를 움직이는 대상자로부터의) 안구 추적 데이터는 수집된다. 데이터 수집 기간 동안, 시스템은 주기적으로 대상자의 시선을 반사적으로 유도하기 위해 타겟을 주기적으로 제시한다. 이러한 데이터는 나중에 정확성을 확인하는데 사용된다. 이러한 자극 동안 대상자의 보는 패턴의 분석은 ASD 같은 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용된다.

Description

인지 및 발달 조건의 탐지 시스템 및 방법{SYSTEMS AND METHODS FOR DETECTION OF COGNITIVE AND DEVELOPMENTAL CONDITIONS}
관련 출원에 대한 상호 참조
본 출원은 2013년 3월 11일에 출원된 일반적으로 양도된 동시 계속(co-pending) 미국 가출원 제61/775,880호의 우선권을 주장하고, 이 가출원은 그 전체가 본 명세서에 참조로 통합된다.
자폐증 스펙트럼 장애(autism spectrum disorder; ASD)와 같은 발달 장애는 미국에 있는 아이들의 약 14%에 영향을 미친다. ASD와 같은 조건에 대한 진단 방법은 매우 다양하며, 심지어 "모범 사례(best practice)" 도구의 사용은 조건에 오히려 불량한 민감도(sensitivity)와 특이도(specificity)를 제공한다. 발달 장애의 늦은 진단은 치료의 효과를 감소시켜 종종 불량한 결과를 생성한다. 더욱이, 치료 제공자(예를 들어, 소아과 의사 또는 다른 의료 전문가)는 이러한 조건에서 진행 상황을 측정하기 위한 적절한 도구가 부족하다. 관련 종래기술은 미국 특허 제7,922,670호 및 미국 특허 출원 제14/103,640호 등에 개시되어 있다.
본 시스템, 장치 및 방법은 일반적으로 대상자(subject)에 대해 미리 정해진 특정 시각적 자극(stimulus)의 표시(예를 들어, 하나 이상의 비디오)에 응답하여 생성되는 안구(eye) 추적 데이터의 분석을 이용하는 대상자에서 ASD를 포함하는 발달 또는 인지 조건의 탐지에 관한 것이다. 더욱이, 이러한 시스템, 장치 및 방법은 각각의 조건의 증상을 정량적으로 측정하고 모니터링하며, 어떤 경우에는 보다 정확한 적절한 처방 정보를 대상자, 가족 및 서비스 제공자에게 제공하기 위해 적용될 수 있다. 추가적인 양태에 따르면, 개시된 시스템, 장치 및 방법은 또한 글로벌 발달 장애 진단에 대해 유사한 진단 및 규정 측정치(prescriptive measures)를 제공하면서(규정 힘(prescriptive power)을 제공하는) 자폐증을 가진 대상자의 결과를 예측하는데 사용될 수 있다.
일 양태에 따르면, 안구 추적 장치로부터 데이터를 수집하는 방법이 제공되며, 방법은 제 1 시각적 이미지를 표시하는 단계, 제 1 시각적 이미지가 표시된 후, 제 1 시각적 이미지 대신에 고정 타겟(fixation target)을 표시하는 단계, 표시된 고정 타겟에 대해 대상자의 안구 움직임을 나타내는 안구 추적 장치로부터 데이터를 수신하는 단계, 및 대상자의 안구 움직임을 나타내는 데이터를 수신하는 것에 응답하여, 고정 타겟 대신에 제 2 시각적 이미지를 표시하는 단계를 포함한다. 특정 실시예에서, 고정 타겟은 대상자의 반사 안구 움직임을 트리거한다. 특정 실시예에서, 대상자의 안구 움직임은 구두 지시없이 유도된다. 방법은 추가로 대상자의 안구 움직임을 나타내는 데이터로부터 고정물(fixation)을 식별하는 단계, 고정물에 대한 고정 위치 좌표를 계산하는 단계, 및 고정 위치 좌표가 표시된 고정 타겟에 대해 알려진 타겟 위치 좌표의 근접 임계치 내에 있는지를 결정하는 단계를 포함한다. 특정 실시예에서, 대상자의 안구 움직임을 나타내는 데이터는 고정 위치 좌표가 근접 임계치 내에 있지 않을 경우에 교정을 위해 거부된다. 방법은 추가로 이러한 고정물을 오퍼레이터에 의해 관찰된 고정물로부터 식별하는 오퍼레이터로부터 수동 지시를 수신하는 단계를 포함할 수 있다. 방법은 추가로 오퍼레이터에 의해 관찰된 고정물로 식별된 고정물을 확증하는 오퍼레이터로부터 수동 지시를 수신하는 단계를 포함할 수 있다.
특정 실시예에서, 방법은 추가로 수신된 데이터가 표시된 고정 타겟에 대하여 대상자의 안구 움직임 동안 깜박임, 단속 운동(saccade), 또는 시추적 운동(smooth pursuit) 중 어느 하나를 나타내는지를 결정하는 단계를 포함한다. 수신된 데이터가 표시된 고정 타겟에 대하여 대상자의 안구 움직임 동안 깜박임, 단속 운동, 또는 시추적 운동 중 어느 하나를 나타낼 경우에 대상자의 안구 움직임을 나타내는 데이터는 적어도 부분적으로 교정을 위해 거부될 수 있다. 특정 실시예에서, 데이터는 고정물을 포함하지 않는 경우에 대상자의 안구 움직임을 나타내는 데이터는 교정을 위해 거부된다. 특정 실시예에서, 제 1 시각적 이미지는 제 2 시각적 이미지와 상이하다. 특정 실시예에서, 제 1 시각적 이미지는 제 2 시각적 이미지와 동일하다.
특정 실시예에서, 방법은 추가로 제 2 시각적 이미지 대신에 하나 이상의 후속 고정 타겟을 표시하는 단계를 포함한다. 특정 실시예에서, 각각의 시각적 이미지는 각각의 후속 고정 타겟이 표시된 후에 표시된다. 각각의 시각적 이미지는 제 1 및 제 2 시각적 이미지와 상이할 수 있거나, 각각의 시각적 이미지는 제 1 및 제 2 시각적 이미지와 동일할 수 있다. 특정 실시예에서, 각각의 후속 고정 타겟은 각각의 타겟 위치 좌표를 갖는다. 특정 실시예에서, 고정 타겟은 대상자를 관찰하는 오퍼레이터로부터의 수동 지시에 응답하여 표시된다. 특정 실시예에서, 시각적 이미지는 대상자의 속성에 기초하여 선택된다. 속성은 대상자의 나이(age)일 수 있다. 특정 실시예에서, 제 1 및 제 2 시각적 이미지는 동적인 시각적 이미지이다. 특정 실시예에서, 방법은 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용된다.
일 양태에 따르면, 디스플레이 장치, 디스플레이 장치에 의해 표시되는 자극에 응답하여 대상자의 안구 움직임을 탐지하기 위한 센서, 및 대상자를 앉히기 위한 지지 장치를 지지하는 프레임을 포함하는 시스템이 제공되며, 지지 장치는 디스플레이 장치와 안구 움직임 데이터의 수집을 허용하는 센서에 대한 방향으로 대상자의 위치를 정하도록 조절 가능하고, 지지 장치는 위치가 정해지면 상기 방향으로 대상자를 한정한다. 프레임은 바퀴 및 바퀴에 결합된 브레이크를 포함할 수 있다. 특정 실시예에서, 지지 장치는 대상자의 시야에서 시각적 주의 분산(visual distraction)을 최소화하는 파티션을 포함한다. 지지 장치는 뒤로 젖히도록 구성될 수 있다. 특정 실시예에서, 지지 장치는 조절 가능한 머리 받침대(head rest)를 포함한다. 머리 받침대는 대상자의 머리 움직임의 범위를 제한할 수 있다. 특정 실시예에서, 지지 장치는 축 주위를 선회하도록 구성된다.
특정 구현에서, 디스플레이 장치는 대상자에 대해 복수의 위치로 조절할 수 있다. 특정 실시예에서, 센서는 대상자에 대해 복수의 위치로 조절할 수 있다. 시스템은 추가로 대상자의 이미지를 오퍼레이터에 표시하도록 구성된 제 2 디스플레이 장치를 포함할 수 있다. 특정 실시예에서, 시스템은 대상자의 탐지된 안구 움직임을 네트워크로 전달하는 네트워크 인터페이스를 포함한다. 시스템은 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용될 수 있다. 특정 실시예에서, 시스템은 본 발명의 방법 중 어느 하나를 수행하도록 구성된다.
일 양태에 따르면, 안구 추적 데이터의 공간적 부정확성을 정정하기 위한 방법이 제공되며, 방법은 대상자에 대한 자극의 표시 동안에 기록된 안구 추적 데이터를 수신하는 단계로서, 자극은 대상자에 의해 고정물을 유도하는 고정 타겟를 포함하는 상기 수신하는 단계, 수신된 안구 추적 데이터에서 고정물을 식별하는 단계, 고정 타겟과 관련된 타겟 위치 좌표와 고정물과 관련된 고정 위치 좌표 사이의 차를 계산하는 단계, 타겟 위치 좌표와 고정 위치 좌표 사이의 계산된 차를 벡터 데이터로서 저장하는 단계, 및 타겟 위치 좌표와 고정 위치 좌표를 정렬하기 위해 벡터 데이터를 변환하는 단계를 포함한다. 특정 실시예에서, 변환하는 단계는 삼선 형 보간, 무게 중심 좌표(barycentric coordinates)에서의 선형 보간, 아핀 변환(affine transformation), 및 구간적 다항식 변환(piecewise polynomial transformation)으로 이루어진 그룹으로부터 선택된 수학적 연산을 수행하는 단계를 포함한다. 특정 실시예에서, 방법은 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용된다.
일 양태에 따르면, 대상자에 자극을 표시하기 위한 수단, 표시하기 위한 수단에 의해 표시되는 자극에 응답하여 대상자의 안구 움직임을 탐지하기 위한 수단, 및 대상자를 지지하기 위한 수단을 지지하는 프레임을 포함하는 시스템이 제공되며, 지지하기 위한 수단은 표시하기 위한 수단과 안구 움직임 데이터의 수집을 허용하는 탐지하기 위한 수단에 대한 방향으로 대상자의 위치를 정하도록 조절 가능하고, 지지하기 위한 장치는 위치가 정해지면 상기 방향으로 대상자를 한정한다. 프레임은 시스템을 이동하기 위한 수단 및 이동하기 위한 수단에 결합되는 움직임을 방해하기 위한 수단을 포함할 수 있다. 특정 실시예에서, 지지하기 위한 수단은 대상자의 시야에서 시각적 주의 분산을 최소화하기 위한 수단을 포함한다. 지지하기 위한 수단은 뒤로 젖히도록 구성된다. 특정 실시예에서, 지지하기 위한 수단은 조절 가능한 머리 받침대를 포함한다. 머리 받침대는 대상자의 머리 움직임의 범위를 제한할 수 있다. 특정 실시예에서, 지지하기 위한 수단은 축 주위를 선회하도록 구성된다.
특정 실시예에서, 표시하기 위한 수단은 대상자에 대해 복수의 위치로 조절할 수 있다. 특정 실시예에서, 탐지하기 위한 수단은 대상자에 대해 복수의 위치로 조절할 수 있다. 시스템은 추가로 대상자의 이미지를 오퍼레이터에 표시하기 위한 수단을 포함할 수 있다. 특정 실시예에서, 시스템은 대상자의 탐지된 안구 움직임을 네트워크로 전달하기 위한 수단을 포함한다. 시스템은 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용될 수 있다. 특정 실시예에서, 시스템은 본 발명의 방법 중 어느 하나를 수행하도록 구성된다.
일 양태에 따르면, 독립형(stand-alone) 장치 및 관련된 방법이 제공된다. ASD와 같은 발달 또는 인지 장애의 진단, 검사 및 모니터링을 위한 플랫폼은(a) 제공된 시각적 정보와 관하여 안구 추적 데이터를 수집하기 위한 장치, 특히 카메라 및 광원;(b) 환자에게 자극을 제시하기 위한 화면;(c) 환자에게 사운드를 제시하기 위한 스피커;(d) 장치가 다수의 위치 사이에서 연결될 수 있고, 유아(infant)에게 경사 위치를 제공하면서, 또한 더 큰 아이(toddler)가 자극 제시(stimulus presentation) 화면에 관하여 똑바로 앉을 수 있도록 조절을 할 수 있을 정도로 적절한 환자의 위치를 유지하기 위한 시스템으로서, 자극 제시 화면은 환자의 높이 변화를 수락하도록 수직으로 조절될 수 있고, 환자의 안구는 화면에서 소정의 거리에 있고, 환자는 안전하게 지지되고 시스템을 빠져 나가는 것이 억제되는 시스템;(e) 안구 추적 하드웨어 및 자극 제시 모니터, 및 스피커와 인터페이스하기 위한 컴퓨터;(f) 예를 들어, 식별 환자 정보가 기록될 수 있고, 안구 추적 하드웨어가 환자에게 교정될 수 있고, 무비가 환자에게 제시될 수 있고, 안구 추적 데이터가 수집될 수 있고, 데이터가 저장될 수 있고, 데이터가 처리를 위해 자동으로 전송될 수 있도록 안구 추적 하드웨어 및 자극 제시 모니터, 및 스피커와의 맞춤형(custom) 소프트웨어;(g) 예를 들어, 안구 추적 하드웨어가 광학적으로 적절한 위치에 배치되고, 자극 제시 화면이 환자에게 접근할 수 있는 위치에 배치되고 환자에게 혼란을 최소화하도록 하드웨어 구성 요소를 지지하는 강성 프레임;(h) 환자의 머리 움직임을 최소화하는 선택적인 환자의 머리 받침대;(i) 키보드, 마우스, 컴퓨터 모니터를 포함하는 오퍼레이터 제어부;(j) 환자의 행동을 모니터링하기 위한 카메라; 및(k) 주변 조명을 제어하기 위한 시스템을 포함한다.
일 양태에 따르면, 데이터 분석을 위해 안구 추적 데이터를 프로세서로 전송하기 위한 접근법은(a) 제시된 시각적 정보에 관한 안구 추적 데이터를 수집하기 위한 장치;(b) 네트워크 연결부;(c) 데이터를 중앙 데이터베이스로 업로드하기 위한 소프트웨어; 및(d) 중앙 데이터베이스를 포함한다. 다른 양태에 따르면, 데이터를 분석하기 위한 접근법은(a) 원 안구 추적 데이터 및 환자가 보는 무비의 목록로부터의 관련 정보를 파싱(parsing)하는 단계;(b) 관심 영역에 대한 안구 추적 데이터를 집계하는(tallying) 단계; 및(c) 안구 추적 데이터를 통해 개개의 환자 데이터를 규범적(normative) 및 비정형적(atypical) 발달의 기존의 모델에 비교하는 단계를 포함한다. 다른 양태에 따르면, 결과를 소아과 의사로 전달하기 위한 접근법은(a) 다음의 형식(i) 페이퍼 형태(paper form) 또는(ii) 웹 기반 인터페이스 중 어느 하나에서 그래픽 또는 비그래픽으로 제시된 규범적 발달의 지시를 포함한다.
일 양태에 따르면, 자동화된 "결정 트리(decision-tree)" 교정 방법은 다음과 같은 소프트웨어 기반 방법에 의해 구두 지시에 따를 수 없는(나이 또는 인지 능력 때문에) 개인에 대한 안구 추적 장치를 교정할 시에 오퍼레이터 에러를 감소시키기 위해 제공된다:(a)(i) 교정이 개인(오퍼레이터)에 의해 동작되고,(ii) 교정 소프트웨어가 참가자에 대한 비디오 자극의 제시를 허용하고,(ⅲ) 고정 타겟이 개인(참가자)에 제시되고,(iv) 오퍼레이터가 직접 시선(gaze), 직접 비디오 피드(video feed) 또는 다른 접근법에 의해 참가자를 볼 수 있는 능력을 가지고,(v) 오퍼레이터가 직접 시선, 직접 비디오 피드 또는 다른 접근법에 의해 참가자를 볼 수 있는 능력을 가지고,(vi) 오퍼레이터가 시각적 자극 타겟을 참가자에게 제시할 수 있는 능력을 가지고,(vii) 오퍼레이터가 타겟을 향한 참가자의 시선 이동을 관찰할 때를 나타낼 수 있는 능력을 가지고,(viii) 안구 추적 시스템은 오퍼레이터가 타겟을 찾고, 궁극적으로 시스템을 교정하기 위해 충분한 포인트에 걸쳐 충분한 정보를 수집하는 교정;(b)(i) 성공적인 교정 시에, 교정된 데이터가 이제 안구 추적 장치에 의해 출력되어진 채로 오퍼레이터가 참가자에게 랜덤 타겟을 보여줄 수 있는 능력을 가지고,(ii) 타겟이 화면에 나타나는 동안 실시간 안구 추적 데이터가 기록될 수 있고,(iii) 오퍼레이터가 타겟을 향한 참가자의 시선 이동을 관찰할 때를 나타낼 수 있는 능력을 가지고,(ⅳ) 기록된 데이터를 이용하여, 오퍼레이터가 나타낸 타이밍 정보를 가지거나 가지지 않고, 소프트웨어가 각각의 보여준 포인트에 대한 평균 고정 위치를 자동으로 계산하고,(v) 소프트웨어가 계산된 평균 고정 위치를 미리 지정된 정확도 임계값과 비교하고, 후속하여(확인(Validation))을 수락하거나(비확인(Non-Validation)) 포인트을 거부하는 확인;(c)(i) <3 타겟 확인된 소프트웨어가 스크래치(scratch)로부터 재교정을 시도하거나 일반적 교정을 로드(load)하기 위해 오프레이터에게 지시하는 조건 I;(ii) 3-4 타겟 확인된 소프트웨어가 잔여 포인트만을 재확인을 시도하거나 현재의 교정으로 계속하기 위해 오프레이터에게 지시하는 조건 II;(iii) 5 타겟 확인된 소프트웨어가 현재의 교정으로 계속하기 위해 오프레이터에게 지시하는 조건 III인 결정 트리.
일 양태에 따르면, 사후 검정(post-hoc) 교정 에러 해상도가 제공된다. 안구 추적 데이터의 공간 정확도에서 일반적인 에러를 조절하기 위한 계산 방법은(a) 안구 추적 데이터가 참가자에게 제시된 시각적 자극 타겟에 대하여 기록되고;(b) 평균 고정 위치가 계산 분석을 통해 식별되고;(c) 수락/거부 기준이 실제 제시된 타겟 위치에 대해 계산된 가까움에 기초하여 각각의 평균 고정 위치 계산에 적용되고; 및(d) 계산된 평균 고정 위치에서 실제 제시된 타겟 위치로의 안구 추적 데이터에 대한 공간적 변환을 적용하도록 제공된다.
일 양태에 따르면, 사회적 발달의 성장 차트가 제공된다. 시각적 표현을 통해 사회적 발전을 나타내기 위한 접근법은,(a) 통상(및/또는 비정상) 발전이 안구 추적 데이터의 많은 개개의 사례(individual instance)의 정량 분석에 의해 정의되고,(b) 정량 분석의 결과가(i) 주어진 자극에서 특정 관심 영역 상의 고정의 측정치, 또는 안구 추적 데이터 수집 시에서의 상대 돌출(relative saliency) 대 나이에 대한 통상(및/또는 비정상) 발전의 길이 방향 그래프로 표현되고,(b) 안구 추적 데이터의 분석의 새로운 인입 결과가 통상(및/또는 비정상) 데이터에 그래프로 비교될 수 있고;(c) 그래픽 표현이 개개의 데이터에 대해 의학적으로 관련 정보를 보호자(caregiver)에게 전달하는데 도움을 줄 수 있도록 제공된다.
본 실시예의 변형 및 수정은 본 발명을 검토한 후에 당업자에게 이루어질 것이다. 상술한 특징 및 양태는 본 명세서에 하나 이상의 다른 특징을 설명하면서(다수의 종속 조합 및 서브 조합을 포함하는) 임의의 조합 및 서브 조합에서 구현될 수 있다. 본 명세서에 설명되고 예시되고, 임의의 구성 요소를 포함하는 다양한 특징은 다른 시스템에 조합되거나 통합될 수 있다. 더욱이, 어떤 특징은 생략되거나 구현되지 않을 수 있다.
상술한 및 다른 목적 및 이점은 첨부된 도면과 함께 취해진 다음의 상세한 설명을 고려하여 명백할 것이며, 동일한 참조 부호는 동일한 부분을 나타낸다.
도 1은 본 발명의 특정 실시예에 따라 규범적인 진단 결과를 전달하기 위한 장치를 포함하고 데이터 인프라를 지원하는 예시적인 시스템의 블록도를 도시한다.
도 2는 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위한 예시적인 장치의 각각의 전면 및 후면 사시도를 도시한다.
도 3a 내지 3f는 본 발명의 특정 실시예에 따른 도 2의 장치의 대안적 실시예의 사시도를 도시한다.
도 4는 본 발명의 특정 실시예에 따라 데이터 수집을 위한 예시적인 흐름도를 도시한다.
도 5a 내지 5l은 본 발명의 특정 실시예에 따라 데이터 수집 동안 오퍼레이터에게 제시되는 일련의 예시적인 표시 화면을 도시한다.
도 6은 본 발명의 특정 실시예에 따라 안구 추적 데이터를 교정하기 위해 컴퓨터로 구현되는 기능을 가진 예시적인 흐름도를 도시한다.
도 7은 본 발명의 특정 실시예에 따라 안구 추적 데이터를 확인하기 위해 컴퓨터로 구현되는 기능을 가진 예시적인 흐름도를 도시한다.
도 8은 본 발명의 특정 실시예에 따라 잠재적 교정 포인트(potential calibration point)가 고정물을 포함하는지를 탐지하기 위해 컴퓨터로 구현되는 기능을 가진 예시적인 흐름도를 도시한다.
도 9 및 도 10은 본 발명의 특정 실시예에 따라 컴퓨터로 구현되는 기능 및 기준에 기초하여 교정 부정확성의 평가 및 교정의 대표적인 이미지를 도시한다.
도 11은 본 발명의 특정 실시예에 따라 수집된 데이터를 전송하기 위한 예시적인 시스템의 블록도를 도시한다.
도 12는 본 발명의 특정 실시예에 따라 중앙 집중식 데이터베이스를 이용하여 데이터 수집 및 데이터 처리 및 분석 단계를 지원하기 위한 예시적인 흐름도를 도시한다.
도 13은 본 발명의 특정 실시예에 따라 수집된 데이터를 처리하기 위한 예시적인 흐름도를 도시한다.
도 14는 본 발명의 특정 실시예에 따라 데이터 분석의 결과를 전달하기 위한 예시적인 시스템의 블록도를 도시한다.
도 15는 본 발명의 특정 실시예에 따라 다른 발달 또는 인지 프로파일에 대한 대상자의 발달 또는 인지 진행의 예시적인 컴퓨터로 생성된 데이터 표현을 도시한다.
본 명세서에 설명된 시스템, 장치 및 방법의 전반적인 이해를 제공하기 위해, 특정 예시적인 실시예가 설명될 것이다. 실시예 및 특징이 본 명세서에서 특히 자폐증 스펙트럼 장애(ASD)의 평가, 검사, 모니터링, 또는 진단을 위해 대상자로부터 안구 추적 데이터의 수집 및 분석과 관련하여 이용하기 위해 설명되어 있지만, 시스템, 장치 및 방법은 또한 다른 발달 또는 인지 장애뿐만 아니라, 알려진 유전적 장애의 존재를 가지거나 가지지 않고 언어 장애, 지적 장애 또는 발달 장애를 포함하지만 이에 제한되지 않는 다른 조건뿐만 아니라, 주의력 결핍 과잉 행동 장애(ADHD), 주의력 결핍 장애(ADD), 외상 후 스트레스 장애(PTSD), 두부 외상, 뇌진탕, 스포츠 부상 및 치매에 적용할 수 있는 것으로 이해될 것이다. 장애에 대한 측정치를 지시하지 않으면 이러한 데이터는 규범적 발달의 전형성(typicality)의 정도의 측정치를 제공하고, 일반적인 발달의 변동의 지시를 제공할 수 있다. 더욱이, 아래에 설명된 모든 구성 요소 및 다른 특징은 임의의 적절한 방식으로 서로 조합될 수 있고, 의료 진단 이외의 시스템에 구성되고 적용될 수 있다. 예를 들면, 본 발명의 대화식 시각적 자극은 치료 도구로 사용될 수 있다. 더욱이, 수집된 데이터는 대상자가 우선적으로 돌보는 특정 타입의 시각적 자극의 측정치를 가져올 수 있다. 이러한 우선 측정치는 예를 들어 시각적 자극 우선에 관련된 데이터가 관심있는 광고 또는 다른 산업을 포함하는 의료 진단 및 치료의 분야에 있고 분야에 없는 응용을 갖는다.
본 명세서에 언급된 모든 간행물, 특허 및 공개된 특허 출원은 구체적으로 본 명세서에 참고로 통합된다. 상충하는 경우, 특정 정의를 포함하는 본 명세서는 관리될 것이다. 본 명세서에서, 용어 "포함한다" 또는 "포함하는" 또는 "포함한다"와 같은 변형은 언급된 완전체(stated integer)(또는 구성 요소) 또는 완전체의 그룹(또는 구성 요소들)을 포함하는 것을 의미하는 것으로 이해될 것이다. 문맥이 명백히 달리 지시하지 않는 한 단수 형태 "a", "an" 및 "the"는 복수형을 포함한다. 더욱이, 용어 "환자", "참가자" 및 "대상자"는 본 발명의 전반에 걸쳐 상호 교환하여 사용된다. 본 명세서에 사용된 바와 같이, "고정"은 시각적 고정에 대한 약식이다. 시각적 고정은 망막에 대한 시각적 정보를 안정화하는데 사용되는 안구 움직임의 타입이다.
본 명세서에 설명되고, ASD를 포함하는 발달 또는 인지 조건의 탐지를 위한 시스템, 장치 및 방법은, 예를 들어, 2006년 2월 23일에 출원되고, 명칭이 "시각적 돌출을 정량화하고 매핑하기 위한 시스템 및 방법(System and Method for Quantifying and Mapping Visual Salience)"인 미국 특허 제7,922,670호, 및 2013년 12월 11일에 출원되고, 명칭이 "참여 및 지각된 자극 돌출의 마커로서 점멸 억제를 탐지하기 위한 시스템 및 방법(Systems and Methods for Detecting Blink Inhibition as a Marker of Engagement and Perceived Stimulus Salience)"인 미국 특허 출원 제14/103,640호에 설명된 것을 포함하는 수집된 안구 추적 데이터를 처리하고 분석하기 위한 다른 기술과 함께 이용될 수 있으며, 이런 개시물은 본 명세서에서 전적으로 참조로 통합된다.
도 1은 특정 실시예에 따라 진단 또는 규범적 결과를 전달하기 위한 장치를 포함하고 데이터 인프라를 지원하는 시스템(10)의 블록도를 도시한다. 도시된 바와 같이, 시스템(10)은 일반적으로 데이터 수집(20), 데이터 저장(30), 데이터 처리 및 분석(40), 및 데이터 결과(50)에 관련되는 4개의 부분(또한 때때로 본 명세서에서 시스템으로 지칭됨)으로 나누어질 수 있다. 특정 실시예에서, 시스템(10)은 대상자 또는 환자에서 ASD와 같은 발달 또는 인지 조건을 진단하기 위해 사용된다. 특히, 시스템(10)은 6개월 이하로 어린 아이 및 유아를 포함하는 비교적 어린 나이에 ASD의 진단을 고려한다. 특히, 시스템, 장치 및 방법은 신생아부터 노인까지 모든 나이의 환자를 위한 데이터를 신뢰성 있게 수집하고, ASD 또는 다른 인지 또는 발달 조건의 진단를 위해 수집된 데이터를 이용할 수 있다. 일반적으로, 시스템(10)은 사회적 기능의 대상자의 수준을 결정하기 위해 안구 추적 데이터를 수집하고 후속하여 분석한다. 시스템(10)은 비침습적(non-invasive)이다. 안구 추적 데이터의 수집과 관련된 절차(또한 "세션"이라 한다)는 임의의 적절한 시간량(예를 들어, 15분) 동안 실행하고, 도 1에 도시된 시스템(10)의 4개의 부분(즉, 데이터 수집 시스템(20), 데이터 저장 시스템(30), 데이터 처리 및 분석 시스템(40), 및 데이터 결과 시스템(50))에 대응하는 4개의 주요 단계를 포함할 수 있다.
일반적인 개요로서, 자신이 일반적인 사회적 상호 작용(전형적으로 이원적(dyadic) 또는 삼원적(triadic) 상호 작용)(데이터 수집(20))을 묘사한 동적 시각적 자극(예를 들어, 무비)을 주시할 동안 제 1 안구 추적 데이터는 대상자로부터 수집된다. 데이터 수집을 위해 대상자에게 표시된 자극은 무비 또는 비디오를 포함하는 임의의 적절한 시각적 이미지(정적이든 동적이든)뿐만 아니라, 정지 이미지 또는 임의의 다른 시각적 자극일 수 있다. 무비 또는 비디오는 예로서만 참조되고, 이러한 임의의 논의는 또한 시각적 자극의 다른 형태에 적용하는 것으로 이해될 것이다. 이러한 절차에 따라, 안구 추적 데이터뿐만 아니라 임의의 다른 적절한 정보(예를 들어, 대상자가 본 무비의 목록)는 보안 데이터베이스(데이터 저장 시스템(30))로 전송된다. 데이터베이스는 바람직하게는 많은 장치로부터 수집된 데이터를 수락하고 집계하기 위해 장치로부터 원격적이지만, 일부 실시예에서는 데이터베이스가 장치에 로컬적일 수 있다는 것이 이해될 것이다. 전송 후에, 데이터는 다시 (데이터베이스 및/또는 장치에 로컬 또는 원격적인) 중앙 처리 컴퓨터로 전송되고, 임의의 적절한 프로그래밍 언어(예를 들어, Matlab)(데이터 처리 및 분석 시스템(40))로 기록된 주문형 소프트웨어를 이용하여 처리된다. 그 처리 단계에서, 개개의 대상자의 데이터는 통계적 모델과 비교된다. 그 비교는 자신이 본 무비(데이터 결과 시스템(50)) 중에 고유 대상자의 자신의 시선 포인트(point-of-gaze)에 기초하여 사회적 기능의 측정치(예를 들어, 스코어)를 출력한다. 그 스코어는 통계적 모델로부터 미리 정해진 컷오프 또는 다른 값과 비교된다. 일부 실시예에서, 그 비교의 출력은 ASD를 포함하는 발달 또는 인지 조건의 그 대상자의 진단의 결정뿐만 아니라, 조건의 심각성의 수준이다. 일부 실시예에서, 그 비교의 출력은 대상자의 구두 또는 비구두적 인지 능력(cognitive skill)의 측정치이다. 일부 실시예에서, 그 비교의 출력은 전형적인 발달의 변동의 표시를 제공하는 규범적 발달의 전형성 정도의 측정치이다. 추가적으로, 결과는 ASD 또는 다른 인지 ㄸ또는 발달 조건에 의해 영향을 받은 대상자의 시간에 따른 치료의 효과를 모니터링하는데 사용될 수 있다. 분석 및 처리된 파일 자체의 결과는 후속하여 데이터베이스로 업로드된다. 전형적으로, 결과는 의사(예를 들어, 소아과 의사 또는 다른 의료 전문가) 또는 대상자의 다른 보호자에게 이용 가능하게 된다.
일부 실시예에서, 데이터 수집 시스템(20)은 하드웨어 및 소프트웨어 구성 요소의 혼합을 포함한다. 이러한 구성 요소는 함께 대상자에게 시청각 자극을 제시하고, 시간적으로 정렬된 안구 추적 데이터를 수집한다. 데이터 수집에 사용되는 장치(100)는 또한 대상자의 시야에서 시각적 주의 분산을 최소화하면서 (예를 들어 대상자 모니터 및 안구 추적 유닛에 대하여) 적절한 대상자 위치 결정을 촉진하도록 설계된다. 본 발명의 방법을 수행하기 위한 예시적인 시스템 및 장치의 특정 세부 사항은 아래에 언급된 도면을 참조하여 설명될 것이다.
도 2는 특정 실시예에 따라 도 1의 장치(100)의 각각의 전면 및 후면 사시도를 도시한다. 장치(100)는 ASD를 포함하는 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용된다. 일부 실시예에서, 장치(100)는 다양한 표면에 걸친 효율적인 이동성을 위해 휠 또는 캐스터(108) 위에 앉는다. 임의의 적절한 휠 또는 다른 움직임 용이한 구성 요소는 이동성을 제공하기 위해 캐스터(108) 대신에 또는 이에 더하여 사용될 수 있다. 장치(100)는 캐스터(108) 상에서 표준 복도 및 출입구를 통해 이동하도록 설계되고, 바람직하게는 모든 크기 및 세기의 오퍼레이터에 대한 기동성을 허용하는 무게(예를 들어, 약 250Ibs 이하)를 갖는다. 캐스터(108)는 대신에 이동되지 않는 경우 장치를 고정하기 위한 브레이크를 포함할 수 있다.
장치(100)는 또한 테스트 동안 시트(101)에서 의도되지 않은 이탈을 방지하기 위한 위치 결정 또는 구속 시스템(restraint system)(예를 들어, 시트벨트)을 가진 대상자에 대한 편안한 시트(101)(또는 지지 장치)를 포함한다. 아이 및 유아를 위한 카 시트 또는 높은 의자, 또는 청소년 및 성인을 위한 맞춤형 의자와 같은 다른 타입의 지지 장치를 포함하는 임의의 적절한 지지 장치는 절차를 수행하는 동안 대상자를 위치시키거나 자리에 앉히는데 사용될 수 있다. 장치는 (시각적 이미지 및 교정/고정 타겟을 포함하는) 테스트 자극의 대상자가 보기 위한 모니터 또는 디스플레이 장치(103)와, 테스트 자극과 관련된 오디오를 재생하기 위한 스피커 또는 다른 오디오 자극의 소스(106)를 갖는다. 일부 실시예에서, 구성 요소가 별도로 제공될 수 있지만, 스피커는 모니터와 통합된다. 모니터의 위치는 모니터의 임의의 축에 대해 조절할 수 있다(예를 들어, 수직 조절, 수평 조절 및 대상자를 향한 또는 대상자에서 떨어진 조절).
도시된 바와 같이, 장치(100)는 디스플레이 장치(103)에 의해 표시된 자극에 응답하여 대상자의 안구 움직임을 탐지하기 위한 안구 추적 유닛 또는 센서(104), 오퍼레이터 제어부(110), 및 대상자의 시야에서 주의 분산으로부터 대상자의 충분한 시각적 분리를 위한 배플 또는 파티션(107)을 더 포함한다. 오퍼레이터 제어부(110)는 오퍼레이터가 대상자를 보여주고, 오퍼레이터 모니터(109) 상에 표시되는 비디오 카메라(105)로부터의 피드(feed)를 통해 절차 내내 대상자를 관찰하도록 하는 오퍼레이터 모니터 또는 디스플레이 장치(109)와 함께 제공된다. 따라서, 일부 실시예에서, 오퍼레이터는 대상자로부터 (예를 들어, 전적으로 동일한 룸의 상이한 부분 또는 상이한 룸에서) 원격적으로 위치될 수 있다. 장치(100)에는 안구 추적 수집 및 자극 제시를 위한 제어 컴퓨터(111)와 장치(100)의 구성 요소를 가동하기 위한 전력 공급 유닛(112)이 제공된다. 장치(100)는 직접 플러그인 또는 무선 연결에 의해 의사의 사무실 또는 클리닉에서 네트워크에 연결하도록 구성할 수 있다. 특정 실시예에서, 장치(100)는 멀웨어(malware)의 도입을 방지하기 위해 발신 데이터 통신만을 고려한다. 일부 실시예에서, 장치(100)는 상술한 장치의 다양한 구성 요소를 지지하는 하우징 또는 프레임 구조물을 사용하여 형성될 수 있다.
장치(100)의 지지 장치 또는 시트(101)는 디스플레이 장치(103)와 안구 움직임 데이터의 수집을 고려하는 안구 추적 센서(104)에 대한 방향으로 대상자를 위치시키기 위해 조절할 수 있다. 시트(101)는, 일치되면, 대상자를 특정 방향으로 제한할 수 있다. 이것은 시트가 (대상자 간이든 동일한 대상자를 가진 여러 세션에 대해서든) 반복할 수 있는 위치로 동작하도록 허용한다. 예를 들면, 일부 실시예에서, 장치(100)는 모니터(103) 및 시트(101)의 방향이 아이(똑바로 앉는 것을 선호하는 성인과 같은 사람) 및 유아(눕는 것을 선호하는 사람)를 수락할 수 있도록 2개의 모드( "유아 모드" 및 "아이 모드")로 동작한다. 유아 또는 아이/성인을 이중 위치는 도 1의 데이터 수집 시스템(20)을 위한 인서트(insert)(15)에 도시된다. 대상자 간에 사용될 수 있고 반복할 수 있는 많은 가능한 위치가 있기 때문에, 시트는 임의의 적절한 수의 "모드"를 가질 수 있으며, 추가로 위치/조절 가능할 수 있다는 것이 이해될 것이다. 예를 들면, 장치(100)는 또한 디스플레이 장치(103)와 안구 추적 유닛에 대하여 대상자를 지향시키기 위해 사용될 수 있는 대상자 입구/출구를위한 회전(swivel) 메커니즘(102)을 갖는다.
도 2의 장치(100)는, (1) 대상자가 변하는 동적 비디오 및 다른 자극이 대상자를 위해 재생되는 표시 화면(예를 들어, 컴퓨터 모니터)의 전면에 앉히고, (2) 오퍼레이터는 (a) 대상자에 대한 안구 추적 유닛을 교정하고, (b) 교정이 정확하다는 것을 확인하며, 자신이 동적 비디오 또는 다른 시각적 자극을 주시할 때 대상자로부터 안구 추적 데이터를 수집하는 소프트웨어를 제어할 수 있도록 상술한 데이터 수집(20)을 위해 사용될 수 있다. "데이터 수집"으로 지칭되는 이러한 절차의 일부 후에, 대상자의 데이터는 보안 데이터베이스로 전송될 수 있다. 데이터베이스는 바람직하게는 많은 장치로부터 수집된 데이터를 수락하고 집계하기 위해 장치로부터 원격적이지만, 일부 실시예에서는 데이터베이스가 장치에 로컬적일 수 있다는 것이 이해될 것이다. 일부 실시예에서, 데이터베이스에 의해 수집된 데이터의 수신은 대상자의 개개의 데이터가 이전에 이력(historical) 안구 추적 데이터로부터 생성된 안구 추적 데이터의 모델과 비교되는 자동 소프트웨어로 구현되는 처리 및 분석 프로세스를 개시한다. 비교의 결과는 대상자의 발달 기능의 진단 및/또는 규정 측정치이다. 이러한 결과는 대상자의 의사에 의해 사용하기 위한 진단 보고로 간략하게 될 수 있다.
장치 오퍼레이터(예를 들어, 의료 보조자 또는 다른 의료 전문가)는 장치를 동작하기 위해 최소한의 훈련만을 필요로 한다. 장치는 디스플레이 장치(예를 들어, 도 2의 디스플레이 장치(103))의 전면에서 대상자의 반복 가능한 적절한 위치를 고려하도록 설계된다. 오퍼레이터 및 대상자의 정보를 장치 상에서 실행하는 맞춤형 소프트웨어 플랫폼에 입력한 후에, 소프트웨어는 나이별(age-specific) 자극(예를 들어, 무비)을 선택하고, 적절한 방향에서 대상자의 전면에 디스플레이 장치를 배치하도록 오퍼레이터에게 지시한다. 그 다음, 교정 절차는 대상자를 안구 추적 장치(예를 들어, 도 2의 안구 추적 장치(104))에 교정하도록 수행된다. (소프트웨어에 의해 결정되는) 유효 교정에 후속하여, 소프트웨어는 디스플레이 장치를 통해 대상자를 위해 재생되는 비디오를 선택함으로써 데이터 수집 프로세스를 시작하고, (소정의 무비 또는 다른 시각적 자극에 응답하여 자신의 안구를 움직이는 대상자로부터의) 원시 안구 추적 데이터는 수집된다. 그 후, 안구 추적 데이터 및 자극에 관한 정보(예를 들어, 대상자가 보는 자극의 목록)는 모두 처리를 위해 보안 데이터베이스로 전송된다.
대상자에 표시되는 무비는 대상자의 나이에 따라 달라질 수 있다. 일부 실시예에서, 장치는 (시트에 위치된) 대상자가 배우의 안구, 입, 또는 몸을 찾는데 소비하는 고정 시간량, 및 대상자가 비디오의 배경 영역을 찾는데 소비하는 시간량을 측정한다. 디스플레이 장치를 통해 대상자에게 보여준 비디오 장면은 사회적 상호 작용의 장면을 묘사할 수 있다(예를 들면, 배우는 카메라에 직접 보고, 예를 들어 시청 대상자 또는 재생 시에 어린이의 장면을 관여시키려고 한다). 일부 실시예에서, 비디오 장면은 예를 들어 애니메이션 및 우선 시청 태스크를 포함하는 다른 적절한 자극을 포함할 수 있다. 비디오의 특정 위치에 대한 고정 시간의 측정치는 사회 및/또는 인지 발달의 대상자의 수준과 관련이 있다. 예를 들면, 나이 12-15 개월 사이의 어린이는 증가하는 입 고정(increasing mouth fixation)을 보여주고, 언어 발달의 자신의 발달 단계의 결과로 안구와 입 고정 사이를 왔다갔다 한다.
(무비 표시 중) 대상자의 시청 패턴의 분석은 ASD를 포함하는 발달 또는 인지 조건의 진단 및 모니터링에 대해 수행된다. 이러한 데이터 수집 기간 동안, 시스템은 주기적으로 대상자에 (애니메이션될 수 있는) 교정 또는 고정 타겟을 보여준다. 이러한 데이터는 나중에 정확성을 검증하기 위해 사용된다. 테스트 방법은 깨어있고 화면을 보고있는 대상자에 따라 달라진다. 교정뿐만 아니라 데이터 수집 절차 모두 중에, 소정의 무비 및/또는 다른 시각적 자극은 디스플레이 장치를 통해 대상자에게 제시된다. 이러한 무비 및/또는 다른 시각적 자극은 손/얼굴/몸 움직임을 행하는 인간 또는 애니메이션 배우를 포함할 수 있다.
임의의 적절한 안구 추적 장치와 연관된 소프트웨어는 본 발명의 시스템, 장치 및 방법에 사용될 수 있다. 예를 들면, 센소모터릭 인스트루먼트(SensoMotoric Instruments)(예를 들어, 모델 RED-m), ISCAN사(예를 들어, 모델 RK-464), 및 토비 테크놀로지(예를 들어, 모델 X60)로부터 상업적으로 이용 가능한 안구 추적 유닛, 또는 다른 제조업체로부터의 임의의 다른 적절한 안구 추적 유닛을 포함하는 상업적으로 이용 가능한 다양한 안구 추적 유닛이 사용될 수 있다. 특정 실시예에서, 본 명세서에 개시된 시스템, 장치 및 방법의 출원인에 의해 개발된 것과 같은 마스터 소프트웨어 코드는 안구 추적 소프트웨어의 단계를 감독하거나 제어하기 위해 사용되며, 추가적으로 다른 기능을 수행하기 위해 사용된다. 이러한 기능의 예는 대상자의 이름, 생년월일 등을 보여주는 오퍼레이터에 대한 인터페이스, 대상자에게 보여주는 자극(예를 들어, 무비 등)에 관련된 정보 등을 제시하는 것을 포함한다. 일부 실시예에서, 마스터 소프트웨어 코드는 소프트웨어 개발 키트(SDK)를 통해 안구 추적 소프트웨어와 인터페이스한다.
특정 실시예에 따르면, 진단 테스트 세션을 용이하게 하는 컴퓨터는 (예를 들어, 테스트 프로세스에 포함된 비디오의 비교적 높은 볼륨 때문에) 높은 처리 능력을 가진 특수 목적 컴퓨터이다. 안구 추적 데이터는 컴퓨터에 의해 수집되고, 그 후 안전한 네트워크 접속을 통해 의사의 사무실에서 분석을 위해 중앙 데이터베이스 및 처리 컴퓨터로 전송되는 데이터 파일(예를 들어, idf 데이터로서)에 저장된다. 처리 시설에서, (예를 들어, ASD 또는 다른 발달 또는 인지 조건 및 또한 건강 조절을 갖는 것으로 알려진 대상자로부터 이전에 수집된 데이터를 이용하여) 이력 데이터로부터 생성된 모델에 관하여 (의사의 사무실에서 테스트된 대상자로부터 수신되는) 안구 추적 데이터를 분석함으로써 데이터의 오프라인 분석은 수행될 수 있다. 그러나, 본 명세서에서 논의된 바와 같이, 일부 실시예에서, 처리 및 분석 단계는 장치에 로컬적인 컴퓨터에 의해 세션 동안 실시간으로 수행될 수 있다는 것이 이해될 것이다.
안구 추적 데이터가 수집, 저장, 분석 및 처리되는 방식에 영향을 주지 않고 장치(100)에 대해 행해질 수 있는 많은 가능한 수정 또는 대안이 있다. 각각의 경우에, 또한 대상자의 시야에서 시각적 주의 분산을 최소화하면서 수정되거나 변경된 장치는 (예를 들어, 대상자 모니터 및 안구 추적 유닛에 대하여) 데이터 수집 및 적절한 대상자 위치 결정을 위해 제공한다. 도 3a 내지 3f는 도 2의 장치(100)의 대안적인 실시예(a) 내지(f)의 사시도를 도시한 것이다. 예를 들면, 일부 실시예에서, 장치는 정지된다(즉, 장치는 이동하지 않는다). 장치는 (예를 들어, 사용 시 적소에 고정되는) 마루에 영구적 또는 반영구적으로 고정될 수 있거나, 장치는 캐스터 또는 휠을 포함하지 않을 수 있으며, 따라서 장치의 무게는 적소에 유지한다. 도 3a 내지 3e에 도시된 바와 같이, 각각의 장치는 캐스터 또는 휠을 포함하지 않는다. 일부 실시예에서, 지지 장치(예를 들어, 도 2의 시트(101))는 (장치 자체가 이동하든 정지하든) 각각의 장치로부터 분리될 수 있다. 예를 들면, 대상자가 위치되는 시트는 롤링 메커니즘을 통해 슬라이드 가능하게 조절할 수 있다. 도 3e에 도시된 바와 같이, 장치(240)는 정지되지만, 지지 장치(242)는 이동한다. 다른 예로서, 도 3f에서, 장치(250)는 이동하고, 지지 장치(252)는 또한 이동한다.
특정 실시예에 따르면, 도 3a 내지 3f에서 상술한 것을 포함하는 본 발명의 장치 중 어느 하나는 (1) 대상자의 나이에 따라 조절될 수 있는 대상자에 대한 시트, (2) 장치를 향해 또는 장치에서 떨어져 시트를 회전시키기 위한 메커니즘, (3) 대상자 무비 또는 다른 시각적 자극을 보여주기 위해 (수동으로 또는 전기 모터를 이용하여 대상자의 높이를 변화시키기 위해 조절될 수 있는) 디스플레이 장치, (4) 대상자의 안구에 카메라의 초점을 맞추어, 적외선 또는 다른 전자기 에너지의 안전한 양으로 조명하는 안구 추적 유닛, (5) 대상자의 일반적 웰빙 및 준수(compliance)를 모니터링하도록 오퍼레이터의 사용을 위한 카메라, (6) 사운드를 생성하는 하나 이상의 스피커, (7) 디스플레이 장치, 안구 추적 장치, 및 임의의 다른 구성 요소를 위치 결정하기 위한 기계적 시스템(선택적으로 전동식), (8) 브레이크를 가진 회전식 캐스터, (9) 오퍼레이터가 장치를 동작시키기 위한 모니터(예를 들어, 터치 화면), (10) 오퍼레이터를 위한 키보드 및 마우스,(11) 주문형 소프트웨어를 가진 제어 컴퓨터, (12) 전력을 장치의 다양한 구성 요소로 전달하기 위한 전력 공급부, 및 (13) 모든 구성 요소를 함께 보유하기 위해 용접되고 피복된 기계적 프레임을 포함할 수 있다.
일부 실시예에서, 위의 구성 요소(1)-(13)는 함께 위치되거나 운반될 수 있도록 공통 기준 프레임(예를 들어, 상술한 용접 피복된 기계적 프레임 또는 임의의 다른 적절한 하우징 또는 인클로저(enclosure))에 정렬된다. 이러한 기준 프레임은 정적인 주문 설계된 금속 지지 구조물일 수 있다. 일부 실시예에서, 금속 지지 구조물은 지지 프레임 및 테스트 영역을 제작하도록 수직으로, 수평으로 및/또는 각지게 배치되는 용접 관상 부재를 포함하고; 시트는 대상자가 디스플레이 장치에 근접하여 위치된 체로 테스트 영역 내부에 위치되지만, 배플 또는 파티션에 의한 가장 외부의 주의 분산에 의해 차폐된다. 장치의 오퍼레이터는 오퍼레이터 컴퓨터를 통해 대상자를 감독하기 위한 위치에서 프레임워크 외부에 서서, 모니터링 카메라를 통해 대상자를 관찰할 수 있다. (지지 장치 상에 위치되는) 대상자는 바람직하게는 대상자의 뷰(view)가 파티션에 의해 막혀 있기 때문에 오퍼레이터를 볼 수 없다. 파티션은 청소가 용이하고, 금속 프레임워크로 열 성형되는 플라스틱형 재료로 형성될 수 있다. 예를 들면, 도 3a 내지 3f에 도시된 바와 같이, 장치는 각각의 장치의 구성 요소의 모두 또는 일부를 지지하는 프레임을 갖는다.
도 4는 특정 실시예에 따른 데이터 수집을 위한 흐름도(300)를 도시한다. 데이터 수집은 본 발명의 도 2의 장치(100)와 같은 장치 중 어느 하나로 구현되는 주문 개발된 소프트웨어 애플리케이션을 사용하여 달성된다. 프로세스의 특정 단계는 개시된 장치(예를 들어, 도 2의 컴퓨터(111))를 동작하는 컴퓨터와 연관된 소프트웨어 코드로 구현되는 컴퓨터 구현된 기능이다. 도 5a 내지 5l은 특정 실시예에 따라 데이터 수집 동안(예를 들어, 도 2의 오퍼레이터 모니터(109)를 통해) 오퍼레이터에게 제시되는 일련의 표시 화면을 도시하고, 프로세스(300)의 단계의 논의와 함께 참조될 것이다. 본 발명의 흐름도의 단계는 단지 예시적인 것으로 이해될 것이다. 흐름도의 단계 중 어느 하나는 수정, 생략 또는 재배열될 수 있고, 단계 중 둘 이상은 조합될 수 있거나, 임의의 추가적인 단계는 본 발명의 범위를 벗어나지 않고 추가될 수 있다.
특정 실시예에서, 주문 개발된 소프트웨어 애플리케이션은 장치 오퍼레이터가 (a) 테스트 절차를 특정 대상자와 관련시키고, (b) 대상자에 대한 안구 추적 데이터 수집 장치를 교정하고, (c) 대상자 자극 모니터 및 스피커 상에 비디오 및 오디오 자극을 제시하며, (d) 시청각 자극과 관련된 바와 같은 안구 추적 데이터(예를 들어, x, y 시선 좌표)를 대상자로부터 수집하도록 할 수 있다. 일부 실시예에서, 세션의 끝에서, 수집된 데이터는 추가로 처리 및 분석을 위한 중앙 데이터베이스 프로세스(1000)(예를 들어, 도 13의 프로세스(1050))로 전송된다.
프로세스(300)는 오퍼레이터의 정보가 (예를 들어, 도 2의 오퍼레이터 제어부(110)를 통해) 입력되는 단계(302)에서 시작한다. 정보는 오퍼레이터의 식별을 허용하는 임의의 적절한 정보일 수 있다. 예를 들면, 오퍼레이터의 성과 이름이 기록될 수 있다. 성과 이름은 시스템에 로그인할뿐만 아니라 오퍼레이터를 식별하기 위해 사용자 이름과 연관될 수 있다. 일부 실시예에서, 오퍼레이터 정보는 (낮은 것으로 예상되지만) 사이트 활용 및 오퍼레이터 의존적 데이터 품질 변동을 모니터링하기 위해 데이터베이스(예를 들어, 도 1의 데이터베이스(35))에 질의(query)된다. 도 5a에 도시된 바와 같이, 표시 화면(400a)은 오퍼레이터가 사용자 이름과 비밀 번호를 이용하여 시스템에 로그인하도록 하는 오버레이(overlay)(460)를 포함한다. 표시 화면(400a)은 또한 세션의 일부를 통해 탐색하거나 세션의 다른 기능을 제어하기 위해 세션에 걸쳐 이용할 수 있는 다양한 버튼(예를 들어, 애니메이션(Animation), 언두 라스트(Undo Last), 다음 무비(Next Movie), 액티브 무비(Active Movie), 볼륨(Volume), 종료 세션(End Session), 로그아웃(Logout))을 가진 배너 바(banner bar)(410)를 포함한다. 또한, 표시 화면(400a)의 하단에 제시되는 것은 세션에서 현재 애플리케이션의 특정 모드에 이용 가능한 기능에 관련되는 콘텍스트 버튼(contextual button)(450)(예를 들어, 다음 타겟을 재생(Play next target), 타겟을 봄(Looking at target), 무비로 복귀(Return to movie!))이다(예를 들어, 표시 화면(400a)은 표시 화면(400j)의 것과 상이한 콘텍스트 버튼(450)을 갖는다).
단계(304)에서 대상자 정보가 입력된다. 정보는 대상자의 식별을 허용하는 임의의 적절한 정보 및 데이터 처리 및 분석을 위해 관련된 임의의 다른 정보일 수 있다. 예를 들면, 대상자의 성과 이름, 생년월일, 성별, 주 언어가 입력될 수 있다. 대상자 정보는 데이터베이스의 개별 기록부에 주어진 세션의 데이터를 링크하는데 사용된다. 도 5b에 도시된 바와 같이, 표시 화면(400b)은 오퍼레이터가 상술한 것을 포함하는 다양한 분야에 대상자의 정보를 입력하도록 하는 오버레이(462)를 포함한다. 또한 오버레이(462)에는 각각의 대상자와 관련된 세션에 따라 데이터베이스에 수집된 데이터를 인덱싱하는 것을 허용하는 "세션 ID"가 도시된다.
단계(306)에서, 나이에 적절한 또는 나이별 자극(예를 들어, 무비)은 모니터에 재생된다. 이러한 표시는 모니터(예를 들어, 도 2의 디스플레이 장치(103))에 대상자의 관심을 끌고, 단계(308)에서 오퍼레이터 또는 대상자의 보호자가 의자에 대상자를 고정하도록 한다. 특정 실시예에서, 애플리케이션은 오퍼레이터에게 지시하여, (a) 대상자의 나이에 기초하여 모니터와 의자의 각도를 조절하고, (b) 대상자를 의자에 배치하고 시트벨트를 안전하게 고정시키며, (c) 안구 추적기가 대상자의 안구를 식별할 수 있음을 확인한다. 도 5c에 도시된 바와 같이. 표시 화면(400c)는 (비디오 윈도우(466)를 사용하여) 대상자의 위치를 관찰하고, 대상자의 안구가 (비디오 윈도우(468)를 사용하여) 안구 추적기에 의해 식별되는 것을 확인하기 위한 오버레이(464)를 포함한다. 비디오 윈도우(466)는 대상자의 비디오 피드를 보여주고, 고정 타겟이 대상자의 위치에 대해 표시되는 위치를 나타낸다. 비디오 윈도우(468)는 대상자의 안구가 안구 추적기에 의해 식별되었는지를 보여주고, 현재 위치 평가(position rating)에 대한 피드백(요소(468a 및 468b))을 제공한다. 일부 실시예에서, 위치 평가는 우수, 보통, 또는 불량 위치를 나타내도록 색 코드화된다.
단계(310)에서, 안구 추적 시스템은 대상자에 대해 교정된다. 오퍼레이터는 카메라 피드를 통해 대상자의 일정한 시각적 모니터링을 유지한다. 특정 실시예에서, 또한 고정 타겟이라고 하는 교정 타겟은 대상자에게 제시되며, 오퍼레이터 및 안구 추적 유닛(예를 들어, 도 2의 안구 추적 유닛(104))은 둘다 대상자가 고정되어 있음을 확인한다. 타겟은 대상자의 관심을 반사적으로 포착하여(capture), 알려진 타겟 위치를 향해 단속적 운동(saccade)을 생성하고, 이러한 위치에 고정물을 생성한다. 타겟은 고정물을 안정적으로 한정된 위치로 유도하며, 예를 들어, 방사상 대칭 타겟은 0.5도 미만의 시각적 각도를 스패닝(spanning)한다. 다른 예는 크기가 처음에는 클지라도 고정물을 안정적으로 고정된 타겟 위치로 유도하는 동심 패턴, 형상 또는 수축 자극을 포함한다. 도 5d에 도시된 바와 같이, 표시 화면(400d)은 오퍼레이터가 윈도우(420)의 카메라 피드를 통해 모니터링되는 대상자의 일정한 시각적 모니터링을 유지하는 것을 보여주는 비디오 윈도우(440)를 포함한다. 대상자에게 순차적으로 제시되는 교정 타겟 또는 고정 타겟의 위치는 윈도우(420)의 카메라 피드 위에 겹쳐진다. 오퍼레이터는 비디오 윈도우(420)를 봄으로써 대상자가 표시된 타겟에 고정시켜, 입력 장치를 사용하여 관찰된 고정물을 수동으로 나타내는 것을 시각적으로 확인할 수 있다. 비디오 윈도우(430)는 안구 추적 장치로부터 정보를 나타내는 피드 위에 겹쳐지는 타겟을 갖는다. 임의의 적절한 아이콘은 교정 또는 고정 타겟으로 사용될 수 있으며, 타겟은 정적 또는 동적일 수 있다. 예를 들면, 도 5e의 표시 화면(400e)에 도시된 바와 같이, 배너 바(410)로부터의 "애니메이션" 버튼의 선택은 고정 타겟으로 사용될 수 있는 가능한 애니메이션의 목록를 표시한다. 동적 또는 애니메이션된 고정 타겟은 오퍼레이터에 의해 구두 조정(verbal mediation) 또는 지시의 필요없이 대상자에 의해 외인성 큐잉(exogenous cueing)을 반사적으로 유발시킬 수 있다. 예를 들면, 오퍼레이터는 타겟 자체가 대상자의 관심을 포착하기 때문에 동적 타겟을 보기 위해 지시을 제공할 필요가 없다.
단계(312)에서, 연속(x, y) 시선 좌표는 안구 추적 장치(예를 들어, 도 2의 안구 추적 장치(104))로부터 출력된다. 교정 타겟을 향한 고정물의 상당수가 등록된 후, (x, y) 시선 위치 좌표의 연속 스트림은 예를 들어 120 Hz 또는 임의의 다른 적당한 레이트로 출력된다. 도 5f에 도시된 바와 같이, 표시 화면(400f)은 안구 추적 비디오 윈도우(440)의 시선 위치 좌표(442)를 포함한다. 대상자가 (자극의 표시 전, 중 또는 후에) 디스플레이 장치를 계속 볼 때, 안구 추적 장치는 이후의 데이터 처리 및 분석을 위한 연속 시선 위치 좌표를 출력한다.
수집된 안구 추적 데이터의 정확도는 관심을 반사적으로 포착하여, 알려진 타겟 위치를 향해 단속적 운동을 생성하고, 이러한 위치에 고정물을 생성하는 시각적 자극의 제시를 통해 평가될 수 있다. 타겟은 고정물을 안정적으로 한정된 위치로 유도하며, 예를 들어, 방사상 대칭 타겟은 0.5도 미만의 시각적 각도를 스패닝한다. 다른 예는 크기가 처음에는 클지라도 고정물을 안정적으로 고정된 타겟 위치로 유도하는 동심 패턴, 형상 또는 수축 자극을 포함한다. 이러한 자극은 이상적인 테스트 상황에서 고정물을 안정적으로 유도하여, 이의 사용이 비헤드 억제된(non head-restrained) 데이터 수집을 포함하도록 확장될 수 있음을 확인하기 위해 헤드 억제를 가진 데이터 수집하에 테스트될 수 있다.
단계(314)에서, 수집된 데이터가 정확함을 확인하기 위해, 안구 추적 교정이 확인된다. 이러한 단계는 초기 교정 직후에 발생할 수 있거나, 이러한 단계는 자극이 대상자에게 제시된 후(예를 들어, 다수의 무비가 보여진 후)에 발생할 수 있다. 일부 실시예에서, 추가적인 고정 타겟이 대상자에게 보여지고, 출력된 안구 추적 데이터는 데이터 정확도를 평가하기 위해 알려진 타겟 위치와 비교된다. 소프트웨어 애플리케이션은 데이터 품질이 충분하지 않은 경우에 재교정하기 위해 오퍼레이터에게 지시할 수 있다. 예를 들면, 도 5g의 표시 화면(400g)에 도시된 바와 같이, (5 타겟 중) 셋 미만의 타겟이 확인되었고, 오퍼레이터는 2 포인트 교정을 시도하거나 세션을 종료하도록 지시를 받는다. 도 5h의 예시적인 표시 화면(400h)에 도시된 바와 같이, 5 타겟 중 4 타겟이 확인되었고, 오퍼레이터는 잔여 포인트를 확인하거나 자극의 표시를 진행하기를 (또는 계속하기를) 시도하도록 지시를 받는다. 도 5i의 예시적인 표시 화면(400i)에 도시된 바와 같이, 5 타겟 중 5 타겟이 확인되었고, 오퍼레이터는 데이터 수집을 진행하도록 지시를 받는다. 임의의 적절한 수의 타겟은 표시될 수 있고, 안구 추적 장치의 교정 및/또는 확인을 위해 사용될 수 있다는 것이 이해될 것이다. 예를 들면, 일부 실시예에서, 2 포인트 교정 및 확인은 신뢰할 수 있는 안구 추적 데이터의 수집을 위해 사용될 수 있다.
단계(316)에서, 자극은 대상자에 보여지고, 시선 좌표 스트림은 기록된다. 특정 실시예에서, 시선 좌표 스트림은 주어진 기간(예를 들어, 시각적 자극의 기간) 동안 디스플레이(예를 들어, 도 2의 디스플레이(103))에 대해 대상자의 순시 시선 위치 좌표를 나타내는 소정의 주파수(예를 들어, 60 ㎐, 120 ㎐, 512 ㎐, 1000 ㎐, 또는 임의의 다른 적절한 주파수)에서 샘플링된 데이터를 포함한다. (단계(314)에서) 성공 확인을 뒤따라, 자극(예를 들어, 일반적인 이원적 및 삼원적 사회적 상호 작용을 묘사한 무비)은 대상자에게 제시된다. 시선 위치 좌표는 자극 제시에 관련하여 일시적으로 기록된다. 예를 들면, 도 5j의 표시 화면(400j)에 도시된 바와 같이, 윈도우(470)는 대상자에게 표시되는 현재 "액티브 무비" 및 "다음 무비"를 나타낸다. 다른 윈도우(472)는 완료된 백분율(472a), 경과된 시간(472b), 보여진 무비의 수(472c)를 포함하는 현재 세션에 대한 정보를 갖는다. 상술한 바와 같이, 콘텍스트 버튼(450)은 이전의 디스플레이에 표시된 것과 상이하고, 다음 무비를 스킵할 뿐만 아니라 다음 교정이 검사할 때까지 무비의 수를 나타내기 위한 옵션을 오퍼레이터에게 제공한다. 단계(314)에 대해 상술한 바와 같이, 안구 추적 교정의 확인은 초기 교정 직후에 발생할 수 있고/있거나, 확인은 자극이 대상자에게 제시된 후에 발생할 수 있다. 도 5k의 표시 화면(400k)에서, 교정 검사는 자극이 대상자에게 제시된 후(이 경우에는 9개의 무비가 보여진 후)에 수행된다. 도 5f에 대해 상술한 것과 유사한 윈도우를 포함하는 오버레이(480)가 표시된다. 콘텍스트 버튼(450)은 현재 액티브 타겟이 "오른쪽 상단(Upper Right)" 타겟임을 나타낸다.
단계(318)에서, 충분한 데이터가 수집된 경우 또는 대상자가 까다롭거나 비협조적인 경우(예를 들어, 대상자가 종종 어린이, 아이 및 유아인 경우)에 세션이 종료된다. 절차의 종료에 대한 이유는 기록될 수 있고, 오퍼레이터는 대상자를 제거(또는 대상자의 보호자가 대상자를 제거)하도록 지시를 받는다. 도 5l의 표시 화면(400l)에 도시된 바와 같이, 세션의 종료에 대한 이유와 세션 동안 다양한 이벤트에 대한 순위를 가진 설문지(questionnaire)를 포함하는 여러 질문을 오퍼레이터에게 요구하는 오버레이(490)가 생성된다. 또한, 충족된 데이터 요구 사항의 백분율, 경과된 시간, 보여진 무비, 보여진 교정 검사, 및 확인된 교정 타겟의 수를 포함하는 현재 세션에 대한 다양한 통계의 요약(492)이 도시된다. 세션에 관련된 임의의 다른 적절한 지표가 표시될 수 있다.
특정 실시예에 따르면, 본 명세서에 설명된 시스템, 장치 및 방법은 주어진 세션 동안 무엇을 할지에 대해 대상자에게 지시하기 위한 구두 조정을 필요로 하지 않는다. 즉, 안구 추적 시스템은 의미있는 데이터를 수집하기 위한 방향을 따를 수 있는 유순한 사람(compliant person)을 필요로 하지 않는다. 구두 조정 없이 의미있는 데이터를 기록하기 위해, 시스템, 장치 및 방법은 시각적 관심의 반사적 또는 외인성 큐잉에 의존하고(교정, 교정의 확인, 또는 다른 시각적 자극의 표시에 대한 여부), 데이터를 수집하고, 궁극적으로 진단을 제공하기 위해 자연주의적 자극(예를 들어, 실세계의 사회적 상호 작용의 비디오 장면) 또는 준자연주의적(quasi-naturalistic) 자극(예를 들어, 비디오 애니메이션)을 사용할 수 있다. 대상자가 방향을 따르지 않거나 따르지 않을 수 있는 경우에도 자극(예를 들어, 비디오)이 대상자의 관심을 자연적으로 얻고, 의미있는 데이터가 기록될 수 있기 때문에 자연주의적 및 준자연주의적 자극은 효과적이다. 따라서, 대상자는 안구 추적 데이터가 수집되어야 하는 안구 추적 데이터에 대해 수집되고 있는지를 인식할 필요가 없다.
본 발명의 실시예에 따라 교정이 수행될 수 있는 몇 가지 방식이 있다. 도 6은 특정 실시예에 따라 안구 추적 데이터를 교정하기 위해 컴퓨터로 구현되는 기능을 가진 흐름도를 도시한다. 적절한 교정은 (예를 들어, 나이 또는 기능의 인지 수준 때문에) 구두 지시를 따를 수 없는 대상자로부터 획득될 수 있다. 프로세스(500)는 오퍼레이터가 대상자의 관심을 끌기 위해 자극을 보여줄 때를 결정하기 위한 재량권(discretion)을 갖도록 한다. 따라서, 이러한 오퍼레이터 재량권에 기초하여, 대상자가 (일부 실시예에서, 교정이 이러한 방식으로 획득될 수 있지만) 미리 지정된 기간 및 타이밍에 따라 나타나는 타겟 자극의 세트를 따를 경우에만 교정이 획득될 필요가 없기 때문에, 본 발명의 안구 추적 시스템, 장치 및 방법은 이러한 인구(population)에 효과적이다. 일부 실시예에서, 프로세스(500)의 교정 단계는 도 4의 단계(310)의 일부로서 수행될 수 있다.
교정 프로세스(500)를 시작할 경우, 탈감작 무비(desensitization movie)는 단계(510)에서 대상자에 표시된다. 탈감작 무비의 표시 동안에 데이터는 일반적으로 기록되지 않으며, 대신에, 무비는 대상자의 관심을 얻기 위해 표시된다. 무비는 오퍼레이터에 의해 구두 조정 또는 지시에 대한 필요없이 대상자에 의해 외인성 큐잉을 반사적으로 유발시킬 수 있다. 예를 들면, 오퍼레이터는 무비 자체가 대상자의 관심을 포착하기 때문에 디스플레이 장치(예를 들어, 도 2의 디스플레이 장치(103))를 보기 위한 지시를 할 필요가 없다. 대상자가 세심한 경우, 교정 또는 고정 타겟은 단계(520)에서 표시된다. 교정 또는 고정 타겟이 대상자의 관심을 반사적으로 포착하여, 알려진 타겟 위치를 향해 단속적 운동을 생성하고, 이러한 위치에 고정물을 생성한다. 타겟은 고정물을 안정적으로 한정된 위치로 유도하며, 예를 들어, 방사상 대칭 타겟은 0.5도 미만의 시각적 각도를 스패닝한다. 다른 예는 크기가 처음에는 클지라도 고정물을 안정적으로 고정된 타겟 위치로 유도하는 동심 패턴, 형상 또는 수축 자극을 포함한다.
대상자가 타겟을 보는 것으로 오퍼레이터에 의해 관찰될 때(단계(522)), 오퍼레이터는 (예를 들어, "수락 포인트(accept point)" 버튼을 누름으로써) 입력 장치를 이용하여 관찰된 고정물을 수동을 나타낸다(단계(524)). 대상자가 타겟을 보지 않으면, 오퍼레이터는 타겟을 계속 표시하거나, 다른 탈감작 무비를 표시할 수 있다. 특정 실시예에서, 오퍼레이터는 대상자가 교정 타겟을 보는 것을 수동적으로 수락하기 보다는 또는 이에 더하여, 장치(예를 들어, 장치(100))는 대상자가 (예를 들어, 타겟 주변의 소정의 공간 영역 내에서 시선을 식별하는) 타겟을 보는 것을 자동으로 결정할 수 있는 소프트웨어 또는 다른 논리부를 포함한다. 단계(530)에서, 안구 추적기(예를 들어, 도 2의 안구 추적 장치(104))는 고정물이 탐지되는 지를 결정한다. 고정물이 탐지되지 않으면, 오퍼레이터는 타겟의 표시를 계속하고, 타겟를 다시 수락하려고 시도할 수 있거나, 프로세스(500)는 단계(510)로 반환하도록 지향될 수 있고, 탈감작 무비는 다시 대상자에 표시된다. 단계(540)에서 고정물이 탐지되면, 모든 포인트는 교정되었는지가 결정된다. 임의의 적절한 수의 포인트는 본 발명의 교정 단계에서 사용될 수 있다. 바람직하게는, 추가적인 포인트(예를 들어, 5개) 또는 (예를 들어, 포인트가 없음을 포함하는) 그 보다 적은 포인트가 사용될 수 있지만, 적어도 2개의 포인트가 교정된다. 모든 포인트가 교정되지 않은 경우, 프로세스는 단계(510)에서 탈감작 무비를 먼저 보여줌으로써 단계(550)에서 다음 교정되지 않은 타겟을 보여주기 위해 준비한다. 모든 포인트가 단계(540)에서 교정되었다면, 프로세스는 교정된 포인트가 확인되는 단계(560)로 계속한다.
도 7은 특정 실시예에 따라 안구 추적 데이터를 확인하기 위해 컴퓨터로 구현된 기능을 가진 흐름도를 도시한다. 도 6에 설명된 프로세스(500)와 유사하게, 오퍼레이터는 대상자의 관심을 끌기 위해 자극을 보여줄 때를 결정하기 위한 재량권을 가질 수 있다. 오퍼레이터는 대상자가 타겟을 보고 있음을 소프트웨어에 통지되면, 그 때부터 기록된 시선 좌표 정보는 계산되어, 표시된 타겟의 실제 위치와 비교된다. 성공의 다양한 수준을 가진 초기 확인(예를 들어, 확인된 포인트의 수)은 오퍼레이터에 자동으로 지시하여, (1) 안구 추적기를 재교정하고, (2) 확인될 수 없는 타겟을 재확인하거나, (3) 교정을 수락하고, 데이터 수집 소프트웨어의 "쇼 자극 및 기록 시선 좌표 스트림(show stimulus and record gaze coordinate stream)" 상태로 계속할 것이다(예를 들어, 도 4의 단계(316)). 교정과 유사하게, 본 시스템, 장치 및 방법은 오퍼레이터가 타겟 포인트와 탈감작 자극(예를 들어, 무비)을 보여주는 타이밍에서 재량권을 갖도록 한다. 일부 실시예에서, 프로세스(570)의 확인 단계는 도 4의 단계(314)의 일부로서 수행될 수 있다.
확인 프로세스(570)는 교정 프로세스(500)의 단계(560) 후에 시작할 수 있다. 그러나, 일부 실시예에서, 확인 프로세스(570)는 데이터 수집 중에 데이터의 정확도를 평가하기 위하여 자극(예를 들어, 무비)이 대상자에 표시된 후에 (한 번 이상) 수행될 수 있다. 단계(580)에서, 탈감작 무비는 대상자에 표시된다. 데이터는 일반적으로 탈감작 무비의 표시 중에 기록되지 않으며, 대신에, 무비는 대상자의 관심을 얻기 위해 표시된다. 무비는 오퍼레이터에 의해 구두 조정 또는 지시에 대한 필요없이 대상자에 의해 외인성 큐잉을 반사적으로 유발시킬 수 있다. 예를 들면, 오퍼레이터는 무비 자체가 대상자의 관심을 포착하기 때문에 디스플레이 장치(예를 들어, 도 2의 디스플레이 장치(103))를 보기 위한 지시를 할 필요가 없다. 대상자가 세심한 경우, 교정 또는 고정 타겟은 단계(590)에서 표시되고, 대상자의 시선 위치 좌표에 관련된 데이터는 기록된다. 교정 또는 고정 타겟은 대상자의 관심을 반사적으로 포착하여, 알려진 타겟 위치를 향해 단속적 운동을 생성하고, 이러한 위치에 고정물을 생성한다. 타겟은 고정물을 안정적으로 한정된 위치로 유도하며, 예를 들어, 방사상 대칭 타겟은 0.5도 미만의 시각적 각도를 스패닝한다. 다른 예는 크기가 처음에는 클지라도 고정물을 안정적으로 고정된 타겟 위치로 유도하는 동심 패턴, 형상 또는 수축 자극을 포함한다.
대상자가 타겟을 보는 것으로 오퍼레이터에 의해 관찰될 때(단계(592)), 오퍼레이터는 (예를 들어, "수락 포인트" 버튼을 누름으로써) 입력 장치를 이용하여 관찰된 고정물을 수동을 나타낸다(단계(594)). 대상자가 타겟을 보지 않으면, 오퍼레이터는 타겟을 계속 표시하거나, 다른 탈감작 무비를 표시할 수 있다. 특정 실시예에서, 오퍼레이터는 대상자가 교정 타겟을 보는 것을 수동적으로 수락하기 보다는 또는 이에 더하여, 장치(예를 들어, 장치(100))는 대상자가 (예를 들어, 타겟 주변의 소정의 공간 영역 내에서 시선을 식별하는) 타겟을 보는 것을 자동으로 결정할 수 있는 소프트웨어 또는 다른 논리부를 포함한다. 단계(600)에서, 안구 추적기(예를 들어, 도 2의 안구 추적 장치(104))는 고정물이 탐지되는 지를 결정한다. 고정물이 탐지되지 않으면, 오퍼레이터는 타겟의 표시를 계속하고, 타겟를 다시 수락하려고 시도할 수 있거나, 프로세스(570)는 단계(580)로 반환하도록 지향될 수 있고, 탈감작 무비는 다시 대상자에 표시된다. 고정물이 탐지되면, 단계(610)에서, 고정 위치는 고정물에 대해 계산되고, 단계(620)에서, 고정물은 타겟에 대해 알려진 위치 좌표의 지정된 근접 임계값 내에 있는지가 결정된다. 단계(630)에서, 고정물이 지정된 근접 임계치 내에 있지 않은 경우, 고정물은 확인 포인트로서 거부된다. 그렇지 않으면, 단계(630)에서, 고정물이 지정된 근접 임계치 내에 있는 경우, 고정물은 확인 포인트로서 수락된다.
고정물의 수락 또는 거부에 뒤따라, 단계(640)에서, (교정된 포인트의 수에 대응하는) 모든 이용 가능한 포인트가 보여졌는지가 결정된다. 모든 포인트가 보여주지 않은 경우, 프로세스는 먼저 단계(580)에서 탈감작 무비를 보여줌으로써 단계(650)에서 다음 타겟을 보여주기 위해 준비한다. 모든 포인트가 보여진 경우, 프로세스는 3 또는 4개의 확인 포인트가 수락되었는지가 결정되는 단계(660)에서 계속한다. 긍정적으로, 프로세스는 추가적인 포인트를 보여주기 위해 단계(650)에서 반복한다. 3개 미만의 확인 포인트가 수락되었다면(단계(670)), 시스템은 단계(680)에서 교정을 명확하게(clear) 하고, 교정 프로세스(예를 들어, 도 6의 프로세스(500))로 반환한다. 유일한 나머지 대안은 단계(690)에서 모든 5개의 확인 포인트가 수락되었음을 나타낸다. 이러한 단계에서, 확인 프로세스(570)는 종료한다. 상술한 논의는 5개의 교정 포인트가 확인된다는 것을 가정한다. 일부 실시예에서, 5개중 4개만의 교정 포인트 또는 일부 경우에 5개중 3개의 교정 포인트가 수락되는 경우에 확인은 수락될 수 있다. 더욱이, 일부 실시예에서 제로 교정 포인트를 포함하는 임의의 적절한 수의 교정 포인트가 사용될 수 있으며, 확인 프로세스(570)(특히 단계(660, 670, 690))가 이에 따라 갱신될 수 있다는 것이 이해될 것이다.
상술한 교정 및 확인 프로세스의 둘다에서, 안구 추적기가 고정물을 탐지하는지를 결정하는 단계(단계(530 및 600))가 포함된다. 도 8은 특정 실시예에 따라 잠재적 교정 포인트가 고정물을 포함하는지를 탐지하기 위해 컴퓨터로 구현되는 기능을 가진 흐름도를 도시한다. 일부 실시예에서, 프로세스(700)의 단계는 도 6의 단계(530) 및/또는 도 7의 단계(600)의 일부로서 수행될 수 있다. 오퍼레이터가 관찰된 고정물을 나타낸 후, 시스템은 프로세스(700)의 단계를 사용하여 고정물을 나타낸 것을 확인하거나 거부할 수 있다. 안구 추적 데이터 수집 소프트웨어는 관찰된 고정물이 오퍼레이터에 의해 나타낸 시간에서나 근처에서 기록된 데이터의 시선 위치 좌표가 실제로 타겟 상의 고정물을 나타내는지를 결정한다. 어떤 경우에, 오퍼레이터가 고정물을 관찰하는 시간과 고정물이 실제로 생성하는 시간의 지연이 있을 수 있다. 따라서, 안구 추적 데이터 수집 소프트웨어 및/또는 안구 추적 장치는 오퍼레이터가 관찰된 고정물을 나타낸 시간에서나 근처에서 시간의 범위(range of times)를 고려할 수 있다. 예를 들면, 2초의 윈도우가 관찰된 고정물(관찰된 고정물의 시간 전의 1 초 및 후의 1초)에 대해 분석될 수 있다. 그 윈도우 동안에 고정물이 없는 경우, 데이터 포인트는 고정물을 포함하지 않도록 결정되며, 교정 및/또는 확인을 위해 거부될 수 있다. 그 윈도우에 고정물이 있는 경우, 데이터 포인트는 고정물을 포함하도록 결정되고, 교정 및/또는 확인을 위해 수락될 수 있다.
단계(710)에서, 안구 추적기는 대상자의 안구가 식별되는지를 결정한다. 안구가 식별되지 않으면, 데이터 포인트는 단계(720)에서 고정물을 포함하지 않도록 결정되고, 교정 및/또는 확인을 위해 거부될 수 있다. 안구가 식별되면, 단계(730)에서, 안구는 안구 추적 장치로부터 적절한 거리에 있는지가 결정된다. 임의의 적절한 거리는 대상자로부터 데이터를 수집하기 위해 사용될 수 있으며, 일부 실시예에서, 적절한 거리는 특정 대상자의 하나 이상의 속성(예를 들어, 나이) 또는 안구 추적 장치 자체에 의존할 수 있다. 안구는 안구 추적기로부터 적절한 거리에 있지 않은 경우, 데이터 포인트는 단계(720)에서 고정물을 포함하지 않도록 결정되며, 교정 및/또는 확인을 위해 거부될 수 있다. 안구가 적절한 거리에 있을 경우, 단계(740)에서, 안구 움직임은 안정된 고정물(steady fixation)을 나타내는지가 결정된다. 예를 들면, 데이터가 고정물을 포함하는 경우에도, 단속적 운동, 원활 추종 운동(smooth pursuit), 또는 깜빡임(blink) 중 어느 하나는 또한 윈도우가 분석되는 시간에 존재할 수 있다. 이러한 안구 움직임(예를 들어, 단속적 운동, 원활 추종 운동, 깜빡임 등)이 있으면, 데이터는 교정 또는 확인을 위해 바람직하지 않을 수 있다. 단계(740)에서 안정된 고정물을 탐지하기 위한 다양한 기술이 채용될 수 있다. 일부 실시예들에서, 고정물의 표시는 안구 움직임이 소정의 기간 동안 소정의 속도 또는 가속도 미만인 경우에 발생할 수 있다. 예를 들면, 고정물의 표시는 안구 움직임이 약 100 ms 이상 동안 약 5 미만의 deg/sec인 경우에 발생할 수 있다. 임의의 다른 적절한 이벤트는 안정된 고정물의 발생을 결정하도록 정의될 수 있다는 것이 이해될 것이다. 해당 이벤트가 발생하지 않는 경우, 데이터 포인트는 단계(720)에서 고정물을 포함하지 않도록 결정되며, 교정 및/또는 확인을 위해 거부될 수 있다. 해당 이벤트가 발생하면, 단계(750)에서 데이터 포인트는 고정물을 포함하도록 결정되고, 교정 및/또는 확인을 위해 수락될 수 있다.
데이터 수집 세션 동안 일어나는 교정 데이터의 확인 및 에러 검사 이외에, 교정 데이터의 확인 및 에러 검사는 주어진 세션이 완료된 후에 발생할 수 있다. 안구 추적 데이터의 정확성은 잠재적으로 후속 분석의 타당성을 제한하는 특징이다. 정확성은 특히 (전형적으로 데이터 수집 세션의 시작에서 행해지는) 초기 대상자 교정의 정확성, 주기 데이터 수집에 걸쳐 일어날 수 있는 임의의 머리 움직임, 및 데이터 품질 및 정확성의 자연적 예상된 대상자간 변동(natural and expected inter-subject variation)에 의존한다. 머리 움직임이 억제되는 경우, 초기 교정의 정확성은 유지될 수 있고, 머리 움직임이 억제되지 않는 경우, 바람직하듯이, 정확성은 데이터 수집 세션 동안 변할 가능성이 있다(예를 들면, 편중 데이터 포인트(skewed data point), 또는 초기 교정의 정확성의 드리프트(drift)는 데이터 수집 세션 동안 머리 움직임의 결과로서 발생할 수 있다). 수집된 안구 추적 데이터의 공간적 부정확성을 평가하고 정정하기 위한 알고리즘은 아래에서 도 9 및 10을 참조하여 논의된다. 이러한 알고리즘은 테스트 절차 내에서 재교정 사례 동안에 대표적인 고정 포인트를 이용한다. 그 후, 이러한 대표적인 고정 포인트는 편중 데이터 포인트를 정정하기 위해 사후(post-hoc)(즉, 테스트 절차 후) 변환 시에 이용될 수 있다. 일부 실시예에서, 변환은 데이터가 수집될 때 실시간으로 발생할 수 있다. 도면은 특정 실시예에 따라 컴퓨터로 구현되는 기능과 기준에 기초하여 교정 부정확성의 평가 및 정정의 대표적인 이미지를 도시한다.
상술한 바와 같이, 수집된 안구 추적 데이터의 정확성은 관심을 반사적으로 포착하여, 알려진 타겟 위치를 향해 단속적 운동을 생성하고, 이러한 위치에 고정물을 생성한다. 타겟은 고정물을 안정적으로 한정된 위치로 유도하며, 예를 들어, 방사상 대칭 타겟은 0.5도 미만의 시각적 각도를 스패닝한다. 다른 예는 크기가 처음에는 클지라도 고정물을 안정적으로 고정된 타겟 위치로 유도하는 동심 패턴, 형상 또는 수축 자극을 포함한다. 이러한 자극은 이상적인 테스트 상황에서 고정물을 안정적으로 확실히 유도하도록 헤드 억제로 데이터 수집 하에 테스트될 수 있고, 그 후 이들의 사용은 비헤드 억제된 데이터 수집을 포함하도록 확장될 수 있다.
일부 실시예에서, 수집된 안구 추적 데이터의 정확성의 수치 평가는 다음과 같은 단계를 포함할 수 있다: (1) 시각적 표시 유닛의 작은 영역으로 고정물을 안정적으로 유도하는 고정 타겟을 제시하는 단계; (2) 타겟 제시를 통해 안구 추적 데이터를 기록하는 단계; (3) 수집된 안구 추적 데이터에서 고정물을 식별하는 단계; (4) 고정 위치 좌표와 타겟 위치 좌표 사이의 차를 계산하는 단계; (5) 고정 위치 좌표와 타겟 위치 좌표 사이의 계산된 차를 겨우 하나의 타겟 또는 가능한 한 많은 타겟(전형적으로 5 또는 9개 이지만 더 많을 수 있음)에 대한 벡터 데이터(방향 및 크기)로서 저장하는 단계; 및 (6) (a) 삼선형 보간, (b) 중심 좌표에서의 선형 보간, (c) 아핀 변환, 및 (d) 구간적 다항 변환을 포함하지만 이에 제한되지 않는 접근법에 의해 고정 위치 좌표를 실제 타겟 위치 좌표와 정렬하기 위해 공간 변환을 적용하는 단계.
도 9에 도시된 바와 같이, 기록된 안구 추적 데이터(810)는 안구 추적 데이터 및 자극과 관련된 정보(예를 들어, 대상자가 보는 무비의 목록)를 포함하는 파일(820)(또는 다수의 파일)로 출력된다. 수집된 원시 데이터는 이미지 해상도(이러한 해상도는 표시 화면의 실제 해상도일 수 있거나, 처리 시간을 축소시키기 위해 감소된 해상도일 수 있음)에 대응하는 축(830a, 830b)을 가진 디스플레이 장치(830)으로 도면에 시각적으로 도시된다. 디스플레이 장치(830)에서 알 수 있는 바와 같이, 원시 데이터는 특정 고정 위치 좌표(예를 들어, 포인트(832))가 일반적으로 서로 일치하지만, 각각의 알려진 타겟 위치 좌표(예를 들어, 타겟(834))로부터 오프셋되는 것을 나타낸다. 디스플레이(840)는 고정 위치 좌표(832')를 타겟 위치 좌표(834)와 정렬하기 위한 공간 변환의 결과를 보여준다. 변환에 대한 추가의 상세 사항은 도 10의 디스플레이(850)의 진행에서 보여진다. 제 1 디스플레이(860)는 고정 데이터가 수집된 원시 데이터로부터 추출된다는 것을 보여준다. 제 2 디스플레이(870)는 고정 데이터의 중간 값이 결정되는 것을 보여주고, 그 다음 제 3 디스플레이(880)에서는, 고정 데이터의 중간 값이 각각의 고정 위치 임계값과 비교된다. 일부 실시예에서, 임계값 밖에 있는 포인트(포인트(884))는 무시된다. 대안적으로 또는 부가적으로, 이러한 포인트는 고정 임계값에 의존하지 않고(또는 의존하는 것 이외에) 중앙 경향(central tendency)의 가중된 추정치(예를 들어, 중간 값)를 계산하기 위해 근접성에 따라 확률적 방식으로 가중될 수 있다. 일부 실시예에서, 임계값 내에 있는 포인트(포인트(882))는 데이터를 디스플레이(890)에 보여진 결과로 변환하기 위해 수락 가능한 포인트로 사용된다. ASD의 탐지의 정확성 뿐만 아니라 다른 발달 또는 인지 조건은 개시된 장치에서 안구 추적 유닛으로부터 수신되는 안구 추적 데이터는의 정확성에 의존한다는 것이 이해될 것이다.
지금 도 1을 참조하면, 데이터가 데이터 수집 시스템(20)에 의해 수집된 후, 데이터는 대상자 매칭(subject matching)에 따른 안전한 데이터베이스(35)를 포함하는 데이터 저장 시스템(30)으로 전송된다. 데이터베이스는 바람직하게는 많은 장치로부터 수집된 데이터를 수용하고 집계하기 위해 장치(100)로부터 원격적이지만, 일부 실시예에서는 데이터베이스가 장치에 로컬적일 수 있다는 것이 이해될 것이다. 데이터 수집이 완료되면, 데이터는 안전한 네트워크 접속을 통해 온라인 데이터베이스로 (예를 들어, 매시간 또는 밤마다와 같은 주기에 기초하여) 수동 또는 자동으로 전송된다. 데이터가 온라인 데이터베이스에서 수신된 후, 데이터는 분석된다. 일반적으로, 분석은 한 특정 대상자의 행동을 안구 추적될 동안 비슷한 무비를 본 다른 대상자의 행동과 비교하는 것을 포함한다. 특정 실시예에 따르면, 데이터 처리 및 분석의 결과는 대상자가 ASD의 증상을 갖는 (또는 키울) 가능성을 나타낸다. 일부 실시예에서, 결과는 규범적 발달의 전형성의 정도의 측정치를 나타내고, 전형적인 발달의 변동의 지시를 제공할 수 있다.
분석의 결과는 일반적으로 안전한 웹 기반 포털을 통해 각 대상자의 의사 또는 다른 보호자에게 전달된다. 일부 실시예에서, 오퍼레이터 포털 및 의사 포탈이있을 수 있다. 예를 들면, 오퍼레이터 포털의 주문형 인터페이스는 오퍼레이터가 하나 이상의 전자 장치를 통해 데이터베이스에 액세스하기 위해 제공된다. 일부 실시예에서, 하나 이상의 전자 장치는 상호 네트워크를 액세스할 수 없게 한다.(즉, 데이터는 장치로 출력만되고, 장치로부터 수신되지는 않는다). 일부 실시예에서, 이러한 포털을 통해, 사용자는 (a) 새로운 대상자에 대한 섭취 정보(intake information)를 입력할 수 있고, (b) 사용자 설명서 및 빠른 참조 카드에 액세스할 수 있으며, (c) 장치에 의한 과거 대상자의 경험에 대한 정보(예를 들어, 이전의 세션에 대한 메모 등)에 액세스할 수 있다. 의사 포탈은 원시 데이터가 처리되면 대상자의 테스트의 결과에 액세스하도록 할 수 있다. 포털은 일반적으로 인터넷이 가능한 장치로부터 액세스할 수 있다.
도 11는 본 발명의 특정 실시예에 따라 (도 1의 데이터 수집 시스템(20)으로부터) 수집된 데이터를 전송하기 위한 시스템(900)의 블록도를 도시한다. 시스템(900)의 배치는 도 1의 데이터 저장 시스템(30)과 데이터 처리 및 분석 시스템(40)으로 구현될 수 있다. 특정 실시예에 따르면, 처리 시설물(920)에서의 데이터베이스(930)는 데이터 수집 시스템(20)과 데이터 처리 및 분석 시스템(40)과 같은 다른 구성 요소와 중앙 집중식 데이터 저장소 및 인터페이스를 제공하고, 일반적으로 장치 오퍼레이터와 장치를 이용하는 의사 및/또는 전문가 모두에게 대상자 특정 정보를 제공한다. 데이터 저장 시스템(30)은 데이터 처리 및 분석 시스템(40)로부터 원격적일 수 있거나 두 시스템은 동일한 컴퓨팅 시스템의 일부분일 수 있다. 예를 들면, 도 9에 도시된 바와 같이, 처리 시설물(920)은 데이터 저장소(930)와 데이터 처리 및 분석 시스템(935) 모두를 포함한다.
일부 실시예에서, 데이터베이스는 SQL 서버이고, 임의의 적절한 프로그래밍 언어(예를 들어, 파이썬(Python), 매트랩(Matlab))로 기록된 도구와 쌍을 이루며, 데이터베이스에 대한 URL 기반 인터페이스 및 질의를 허용한다. 부가적으로, 데이터베이스는 데이터 수집 시스템에서 데이터베이스로 전송하고, 데이터베이스에서 중앙 처리 컴퓨터로 데이터를 전송하기 위해 사용되는 프로그래밍 언어(예를 들어, 파이썬, 매트랩)와 호환 가능할 수 있다. 예를 들면, 장치(예를 들어, 도 1의 장치(100))가 의료 시설물(910)에 위치되는 경우에, 데이터 수집은 시설물(910)에서 발생하고, 데이터는 처리 시설물(920)의 데이터베이스(930)와 의료 시설물(910) 사이로 전송된다. 데이터베이스는 안전한 HIPAA 컴플라이언트(compliant)이고, 리던던트(redundant) 백업 시스템에 의해 보호된다.
특정 실시예에서, 데이터베이스는 (a) 새로운 대상자 정보의 섭취, (b) (예를 들어, 안구 추적 데이터를 포함하는) 원시 데이터 파일의 저장, (c) 데이터 수집 장치, 데이터 처리 컴퓨터, 및 데이터베이스 사이로의 파일의 자동화된 안전한 전송, (d) 장치 이용 및 다른 데이터의 품질 메트릭을 평가하기 위한 데이터의 도표 작성(tabulation) 및 질의, 및 e) 의사에 의한 처리의 결과에 대한 액세스를 가능하게 하도록 설계된다. 데이터베이스의 예시적인 기능은 도 12에서 특정 실시예에 따라 중앙 집중식 데이터베이스를 이용하여 데이터 처리 및 분석 단계의 데이터 수집을 지원하기 위한 흐름도(1000)로서 도시된다. 데이터 처리를 위한 데이터베이스의 추가의 기능은 도 13에서 특정 실시예에 따라 수집된 데이터를 처리하기 위한 흐름도(1050)로서 도시된다. 흐름도는 대상자의 원시 데이터 뿐만 아니라 데이터 처리 및 분석을 통해 생성된 파일을 저장하는 데이터베이스와 연관된 소프트웨어 코드로 구현하는 컴퓨터 구현 기능을 묘사한다.
단계(1002)에서, 대상자 섭취(intake)가 수행된다. 데이터를 수집하기 전에, 오퍼레이터 또는 다른 숙련된 사용자는 오퍼레이터 포털 또는 섭취 정보를 입력하고 보기 위한 임의의 다른 적절한 안전한 웹 기반 툴을 사용하여 대상자를 데이터베이스(예를 들어, 도 1의 데이터베이스(35))에 추가할 수 있다. 단계(1004)에서, 원시 데이터는 데이터베이스로 업로드된다. 데이터 수집 세션이 장치(예를 들어, 도 1의 장치(100))를 사용하여 완료된 후, 2개의 파일이 데이터베이스로 업로드되며, 하나의 파일은 원시 안구 추적 시선 위치 좌표를 포함하고, 다른 파일은 자극에 관한 정보(대상자가 보는 이런 무비의 목록 또는 재생 목록)를 포함한다. 세션 시도가 실패한 경우, 대상자의 식별자를 가진 빈(empty) 재생 목록은 여전히 기록으로 업로드될 수 있다.
단계(1006)에서, 데이터는 대상자 파일에 저장된다. 업로드된 데이터(및 재생 목록 내의 식별자)는 섭취 기록에 대해 검사되고, (일치되는 경우) 대상자의 기록에 링크된다. 일치하지 않는 경우, 데이터는 수동 조정(manual reconciliation)을 위한 에러 테이블에 저장된다. 단계(1008)에서, 데이터는 데이터 처리로 다운로드된다. 정기적으로 스케줄링된 질의는 아직 처리되어야 하는 원시 데이터를 나타내며, 이러한 원시 데이터를 중앙 처리 컴퓨터로 밀어낸다. 단계(1010)에서 데이터 처리는 원시 데이터 파일을 처리하여 분석하고, 대상자에 대한 진단 정보를 산출하는 것을 포함한다. 특정 실시예에서, 3개의 파일이 생성되며, 하나의 파일은 처리된 ET 데이터를 포함하고, 다른 하나는 요약 안구 추적 통계를 포함하며, 또 다른 하나는 진단 정보를 포함한다. 데이터 처리에 대한 추가의 상세 사항은 도 13의 프로세스(1050)에 대하여 아래에서 설명된다. 단계(1012)에서, 처리된 파일이 저장된다. 단계(1010)에서 처리를 통해 생성된 3개의 파일은 후속하여 데이터베이스로 업로드되고 대상자와 관련되어 있다. 단계(1014)에서, 데이터는 세션 테이블에 도표화된다(tabulated). 요약 안구 추적 정보(예를 들어, 고정 샘플/무비 등)는 프로세스 요약 ET 파일로부터 판독되고 후속 질의를 위한 데이터베이스에 도표화된다. 그 후, 요약 값(예를 들어, 백분율 고정물/무비 등)은 데이터베이스 내에서 계산된다.
단계(1016)에서, 결과는 결과 테이블에 도표화된다. 요약 진단 데이터는 진단 요약 처리된 파일로부터 판독되고, 후속하여 의사 검토를 위해 데이터베이스 내에 시각화된다. 단계(1018)에서, 데이터는 질의될 수 있다. 데이터베이스는 여러 변수에 걸쳐 질의하기 위해 (예를 들어, 관리 역할을 가진 것을 위한) URL 기반의 질의를 허용한다. 예를 들면, 변수는 대상자/장치, 이상 반응(adverse event) 등을 포함할 수 있다. 단계(1020)에서, 의사의 포털(예를 들어, 웹 기반 인터페이스)은 의사가 테스트 결과를 보는 것을 허용한다. 테스트 결과(예를 들어, 추가적인 평가 추구)에 기초하여 미리 작성된 행동 방침(prewritten course of action)이 제공될 수 있다. 본 발명의 흐름도의 단계는 단지 예시적인 것으로 이해될 것이다. 흐름도의 단계 중 어느 하나는 수정, 생략 또는 재배치될 수 있고, 이러한 단계 중 둘 이상은 조합될 수 있거나, 임의의 추가적인 단계는 본 발명의 범위를 벗어나지 않고 추가될 수 있다.
상술한 바와 같이, 도 13은 특정 실시예에 따라 수집된 데이터를 처리하기 위한 흐름도(1050)를 도시한다. 단계(1052)에서, 원시 데이터는 데이터베이스(예를 들어, 도 1의 데이터베이스(35))로 판독된다. 예를 들면, 임의의 적절한 프로그래밍 언어(예를 들어, 파이썬, 매트랩)로 기록된 소프트웨어 스크립트는 처리를 위해 데이터베이스로부터 컴퓨터로 처리되지 않은 원시 데이터 파일을 전송하기 위해 사용될 수 있다. 이러한 컴퓨터는 일반적으로 인입(incoming) 데이터를 처리하고 분석한다. 2개의 파일은 분석을 위한 프로그램으로 판독될 수 있으며, 하나의 파일은 (x,y) 시선 위치 좌표를 포함하는 안구 추적 데이터를 포함하고, 다른 파일은 자극에 관련된 정보(예를 들어, 대상자가 보는 무비의 목록)를 포함한다. 관련 정보는 분리되어 저장된다. 단계(1054)에서, 데이터는 샘플 사이에서 어떤 시간적 변화를 고려하여 리샘플링된다. 데이터는 임의의 적절한 보간 기술을 사용하여 리샘플링된다. 단계(1056)에서, 데이터는 분석을 위해 적당한 해상도(예를 들어, 640×480 픽셀)로 변환된다. 원시 데이터는 전형적으로 처리를 위해 사용되는(예를 들어, 640×480 픽셀로 리스케일링되는) 것보다 더 높은 해상도(예를 들어, 1024×768 픽셀)에서 수집된다. 임의의 적절한 해상도는 수집된 데이터의 임의의 특정 원래의 해상도를 포함하는 데이터 처리를 위해 사용될 수 있다는 것이 이해될 것이다.
단계(1058)에서, 고정물, 단속 운동, 깜박임, 및 오프 스크린 또는 실패한 데이터 포인트가 식별된다. 알고리즘은 대상자가 화면을 보지 않은 경우 대상자가 고정, 단속 운동, 깜박임, 또는 시간 맞춤을 하는 시간을 자동으로 식별한다. 예시적인 실시예에서, 임의의 다른 적절한 프로그래밍 언어가 사용될 수 있지만, 데이터 처리 애플리케이션은 매트랩과 같은 프로그래밍 언어로 작성되어 자동으로 실행 가능하다. 일반적으로, 소프트웨어는 대상자의 테스트 세션 중에 생성된 원시 파일로부터 관련 정보를 추출하고, 이러한 정보를 이용하여 통계적 분석을 통해 진단을 유도한다. 일 양태에서, 이러한 프로그램은 기본적인 안구 운동 이벤트(basic oculomotor event)(고정물, 단속 운동, 깜박임, 오프 스크린 또는 누락된 데이터 등)를 자동으로 식별하고, 안구 추적 장치에 의한 출력으로서 시선 위치 추정의 수차를 조절한다. 예를 들면, 단계(1060)에서 교정이 정정된다. 추가적인 교정 타겟이 보여지는 시간으로부터의 데이터로, 시선 위치의 어떤 불일치(discrepancy)는 정정된다. 어떤 큰 불일치는 후속 분석에서 특정 데이터를 제외시킬 수 있다. 단계(1062)에서 에러 검사가 수행된다. 무비로부터의 데이터는 (a) 대상자가 무비 기간의 20%(또는 임의의 다른 적절한 퍼센트) 미만 동안 화면에 고정되거나, (b) 무비가 전체 기간 동안에 보여지지 않은 경우에 후속 분석에서 제외될 수 있다. 단계(1060 및 1062) 중 어느 하나 또는 둘 다에서, 도 9 및 도 10에 대해 상술한 데이터 평가 및 정정이 사용될 수 있다.
단계(1064)에서 데이터 분석이 수행된다. 개개의 대상자 데이터는 사회, 인지 또는 발달 기능의 다양한 수준에 걸친 대상자(예를 들어, 영유아)에 대한 시선의 위치의 상당한 차이의 사례와 비교된다. 데이터의 분석은 비교에 의해 사회적 기능의 수준을 보여줄 수 있다. 이러한 처리 단계 내에서, 대상자의 안구 추적 데이터의 통계적 분석은 대상자가 ASD를 포함하는 발달 또는 인지 조건으로 진단되는 지를 결정하기 위해 사용될 수 있다. 미국 특허 제7,922,670호에 개시되고, 이와 통합된 바와 같이, 처리된 안구 추적 데이터는 발달 또는 인지 조건의 수준을 결정하기 위해 기존의 데이터 모델과 비교된다. 그 후, 생성된 점수는 대상자의 ASD의 진단뿐만 아니라, 조건의 심각성 수준을 결정하기 위해 미리 정해진 컷오프 또는 다른 값과 비교된다.
단계(1066)에서 집계(tally)가 수행된다. 시선의 위치 좌표는 보여진 무비의 각 프레임에 걸친 사전 지정된 관심 영역과 비교된다. 단계(1068)에서 관련 통계가 요약된다. 화면 및 각 관심 영역 상의 고정의 시간 뿐만 아니라 단속 운동, 깜박임, 또는 그렇지 않으면 화면과 관련되지 않은 것을 소비한 시간을 포함하는 각 무비에 대한 요약 통계가 기록된다. 사회적 기능 분석의 결과가 또한 요약된다. 마지막으로, 단계(1070)에서, 처리된 데이터는 다시 데이터베이스로 전송된다. 2개의 파일이 다시 데이터베이스로 전송되며, 하나의 파일은 요약 통계를 포함하고, 다른 하나의 파일은 처리 및 분석의 각 단계를 추적하는 비닝된(binned) 정보를 포함한다. 단계(1052)에서 상술한 원시 데이터 다운로드 스크립트와 유사하게, 임의의 적절한 스크립트는 처리된 데이터의 모두를 다시 데이터베이스로 전송하는데 사용될 수 있다. 상술한 바와 같이, 처리의 진단 결과는 의사 포털을 통해 액세스될 수 있다. 본 발명의 흐름도의 단계는 단지 예시적인 것으로 이해될 것이다. 흐름도의 단계 중 어느 하나는 수정, 생략 또는 재배치될 수 있고, 이러한 단계 중 둘 이상은 조합될 수 있거나, 임의의 추가적인 단계는 본 발명의 범위를 벗어나지 않고 추가될 수 있다.
진단 또는 처방 결과는 데이터 처리 및 분석에 기초하여 임의의 적절한 방식으로 의사 또는 다른 보호자에게 제시될 수 있다. 예를 들면, 도 14는 특정 실시예에 따른 데이터 처리 및 분석 결과를 전달하기 위해 사용된 도 11의 시스템(900)의 블록도를 도시한다. 시스템(900)의 이러한 배치는 의료 시설물(910) 및 시설물(920)을 처리하는 데이터베이스(930)를 포함한다. 처리 시설물(920)은 데이터베이스(930)를 통해 도시된 바와 같이 진단 보고/결과 시트(940)를 전달할 수 있다. 보고서(940)는 데이터 수집에 관련된 서지(bibliographic) 및 다른 관련 정보(950), 진단 점수로 도시된 테스트 결과치(960)와, 비평 및 권고(970)를 포함한다. 임의의 적절한 형식은 진단 또는 처방 결과를 의사 또는 다른 보호자에게 제공하기 위해 사용될 수 있다는 것이 이해될 것이다. 일부 실시예에서, 장치는 직접 테스트 결과를 전달하기 위해 프린터를 구비할 수 있다.
예를 들면, 이제 도 15를 참조하면, 다른 발달 또는 인지 프로파일에 대한 대상자의 발달 또는 인지 진행의 컴퓨터에 생성된 데이터 표현이 도시된다. 진단 성장 차(1100)는 전형적으로 발달된 대상자 및 ASD를 갖는 것으로 알려진 대상자에 대한 역사적인 놈(norm)에 비해 몇몇 예시적인 대상자의 사회적인 발달을 나타낸다. 예를 들면, 차트(1110(a)) 및 (1120(a))는 단일 데이터 포인트(1110) 또는 시간이 지남에 따라 취해진 다수의 데이터 포인트(1120)에 기초하여 ASD를 가진 것에 대한 전형적인 발달을 보여주는 대상자에 관한 것이다. 차트(1110(b)) 및 (1120(b))는 단일 데이터 포인트(1110) 또는 시간이 지남에 따라 취해진 다수의 데이터 포인트(1120)에 기초하여 ASD의 다양한 수준을 보여주는 대상자에 관한 것이다.
상술한 논의에 기초하여, 본 명세서에 개시된 시스템, 장치 및 방법은 디지털 전자 회로, 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수 있다는 것이 이해될 것이다. 본 발명의 장치는 프로그램 가능한 프로세서에 의해 실행하기 위한 비일시적인 기계 판독 가능 또는 비일시적 컴퓨터 판독 가능 저장 장치로 명백히 실시되는 컴퓨터 프로그램 제품으로 구현될 수 있다. 본 발명의 방법 또는 프로세스 단계는 입력 데이터에 기초하여 동작하고 출력 데이터를 생성함으로써 본 발명의 기능을 수행하기 위해 명령어의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 시스템, 장치 및 방법은 각각 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터를 수신하고, 데이터를 각각 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로 송신하기 위해 결합된 적어도 하나의 프로그램 가능한 프로세서를 포함하는 프로그램 가능한 시스템으로 실행할 수 있는 하나 이상의 컴퓨터 프로그램을 이용하여 구현될 수 있다. 컴퓨터 프로그램은 높은 수준 또는 객체 지향 프로그램 가능한 언어, 및/또는 어셈블리 또는 기계 코드, 또는 임의의 다른 적절한 언어 또는 코드로 구현될 수 있다. 언어 또는 코드는 컴파일 또는 해석된 언어 또는 코드일 수 있다. 프로세서는 범용 및 특수 목적 마이크로 프로세서를 포함할 수 있다. 프로세서는 메모리로부터 명령어 및 데이터를 수신한다. 컴퓨터 프로그램 명령어 및 데이터를 명백히 실시하기 위해 적절한 저장 장치는 예로서 EPROM, EEPROM, 및 플래시 메모리 장치와 같은 반도체 메모리 장치; 내부 하드 디스크 및 이동식 디스크와 같은 자기 디스크; 광 자기 디스크; 및 컴팩트 디스크를 포함하는 비휘발성 메모리의 형태를 포함한다. 상술한 것 중 어느 하나는 ASIC(주문형 반도체)에 의해 보충되거나 이에 통합될 수 있다.
상술한 것은 본 발명의 원리의 예시일 뿐이고, 시스템, 장치 및 방법은 제한이 아닌 예시를 위해 제시되는 설명된 실시예와 달리 실시될 수 있다. 본 명세서에서의 실시예 및 특징이 특히 자폐증 스펙트럼 장애(ASD)의 평가, 검사, 모니터링, 또는 진단을 위해 대상자로부터 안구 추적 데이터의 수집 및 분석과 관련하여 이용하기 위해 설명되어 있지만, 시스템, 장치 및 방법은 또한 다른 발달 또는 인지 장애뿐만 아니라, 알려진 유전적 장애의 존재를 가지거나 가지지 않고 언어 장애, 지적 장애 또는 발달 장애를 포함하지만 이에 제한되지 않는 다른 조건뿐만 아니라, 주의력 결핍 과잉 행동 장애(ADHD), 주의력 결핍 장애(ADD), 외상 후 스트레스 장애(PTSD), 두부 외상, 뇌진탕, 스포츠 부상 및 치매에 적용할 수 있는 것으로 이해될 것이다. 장애에 대한 측정치를 지시하지 않으면 이러한 데이터는 규범적 발달의 전형성의 정도의 측정치를 제공하고, 일반적인 발달의 변동의 지시를 제공할 수 있다. 더욱이, 아래에 설명된 모든 구성 요소 및 다른 특징은 임의의 적절한 방식으로 서로 조합될 수 있고, 의료 진단 이외의 시스템에 구성되고 적용될 수 있다. 예를 들면, 본 발명의 대화식 시각적 자극은 치료 도구로 사용될 수 있다. 더욱이, 수집된 데이터는 대상자가 우선적으로 돌보는 특정 타입의 시각적 자극의 측정치를 가져올 수 있다. 이러한 우선 측정치는 예를 들어 시각적 자극 우선에 관련된 데이터가 관심있는 광고 또는 다른 산업을 포함하는 의료 진단 및 치료의 분야에 있고 분야에 없는 응용을 갖는다.
변형 및 수정은 본 명세서를 검토한 후에 당업자에게 발생할 것이다. 개시된 특징은 (다수의 종속 조합 및 서브조합을 포함하는) 임의의 조합 및 서브조합에서 본 명세서에 설명된 하나 이상의 다른 특징과 함께 구현될 수 있다. 상술하거나 위에 예시되고, 임의의 구성 요소를 포함하는 다양한 특징이 다른 시스템에 조합되거나 통합될 수 있다. 더욱이, 어떤 특징은 생략되거나 구현되지 않을 수 있다.
변경, 대체 및 변경의 예는 당업자에 의해 확인할 수 있고, 본 명세서에 개시된 정보의 범위를 벗어나지 않고 이루어질 수 있다. 본 명세서에 인용된 모든 참조물은 전적으로 참조로 통합되고 본 출원의 일부가 된다.

Claims (53)

  1. 안구 추적 장치로부터 데이터를 수집하기 위해 컴퓨터로 구현된 방법에 있어서,
    제 1 시각적 이미지를 표시하게 하는 단계;
    상기 제 1 시각적 이미지가 표시된 후, 상기 제 1 시각적 이미지 대신에 고정 타겟(fixation target)을 표시하게 하는 단계;
    상기 표시된 고정 타겟에 대해 대상자의 안구 움직임을 나타내는 상기 안구 추적 장치로부터 데이터를 수신하는 단계; 및
    상기 대상자의 안구 움직임을 나타내는 데이터를 수신하는 단계에 응답하여, 상기 고정 타겟 대신에 제 2 시각적 이미지를 표시하게 하는 단계
    를 포함하는, 컴퓨터로 구현된 방법.
  2. 제 1 항에 있어서,
    상기 고정 타겟은 상기 대상자의 반사 안구 움직임을 트리거(trigger)하는 것인, 컴퓨터로 구현된 방법.
  3. 제 1 항에 있어서,
    상기 대상자의 안구 움직임은 구두 지시 없이 유도(elicit)되는 것인, 컴퓨터로 구현된 방법.
  4. 제 1 항에 있어서,
    상기 대상자의 안구 움직임을 나타내는 데이터로부터 고정물(fixation)을 식별하는 단계;
    상기 고정물에 대한 고정 위치 좌표를 계산하는 단계; 및
    상기 고정 위치 좌표가 상기 표시된 고정 타겟에 대해 알려진 타겟 위치 좌표의 근접 임계치 내에 있는지 여부를 결정하는 단계
    를 더 포함하는, 컴퓨터로 구현된 방법.
  5. 제 4 항에 있어서,
    상기 대상자의 안구 움직임을 나타내는 데이터는, 상기 고정 위치 좌표가 상기 근접 임계치 내에 있지 않는 경우에 교정 목적을 위해 거부되는 것인, 컴퓨터로 구현된 방법.
  6. 제 4 항에 있어서,
    상기 고정물을 오퍼레이터에 의해 관찰된 고정물로부터 식별하는, 상기 오퍼레이터로부터의 수동 지시를 수신하는 단계를 더 포함하는, 컴퓨터로 구현된 방법.
  7. 제 4 항에 있어서,
    오퍼레이터에 의해 관찰된 고정물로 식별된 고정물을 확증하는, 상기 오퍼레이터로부터의 수동 지시를 수신하는 단계를 더 포함하는, 컴퓨터로 구현된 방법.
  8. 제 1 항에 있어서,
    상기 수신된 데이터가, 상기 표시된 고정 타겟에 대하여 상기 대상자의 안구 움직임 동안 깜박임, 단속 운동(saccade), 또는 시추적 운동(smooth pursuit) 중 어느 하나를 나타내는지를 결정하는 단계를 더 포함하는, 컴퓨터로 구현된 방법.
  9. 제 8 항에 있어서,
    상기 수신된 데이터가 상기 표시된 고정 타겟에 대하여 상기 대상자의 안구 움직임 동안 깜박임, 단속 운동, 또는 시추적 운동 중 어느 하나를 나타낼 경우에, 상기 대상자의 안구 움직임을 나타내는 데이터는 적어도 부분적으로 교정 목적을 위해 거부되는 것인, 컴퓨터로 구현된 방법.
  10. 제 1 항에 있어서,
    상기 데이터가 고정물을 포함하지 않는 경우에 상기 대상자의 안구 움직임을 나타내는 데이터는 교정 목적을 위해 거부되는 것인, 컴퓨터로 구현된 방법.
  11. 제 1 항에 있어서,
    상기 제 1 시각적 이미지는 상기 제 2 시각적 이미지와는 상이한 것인, 컴퓨터로 구현된 방법.
  12. 제 1 항에 있어서,
    상기 제 1 시각적 이미지는 상기 제 2 시각적 이미지와 동일한 것인, 컴퓨터로 구현된 방법.
  13. 제 1 항에 있어서,
    상기 제 2 시각적 이미지 대신에 하나 이상의 후속 고정 타겟을 표시하게 하는 단계를 더 포함하는, 컴퓨터로 구현된 방법.
  14. 제 13 항에 있어서,
    각각의 시각적 이미지는, 각각의 후속 고정 타겟이 표시된 후에 표시되는 것인, 컴퓨터로 구현된 방법.
  15. 제 14 항에 있어서,
    각각의 시각적 이미지는 상기 제 1 시각적 이미지 및 상기 제 2 시각적 이미지와는 상이한 것인, 컴퓨터로 구현된 방법.
  16. 제 14 항에 있어서,
    각각의 시각적 이미지는 상기 제 1 시각적 이미지 및 상기 제 2 시각적 이미지와 동일한 것인, 컴퓨터로 구현된 방법.
  17. 제 13 항에 있어서,
    각각의 후속 고정 타겟은 각각의 타겟 위치 좌표를 갖는 것인, 컴퓨터로 구현된 방법.
  18. 제 1 항에 있어서,
    상기 고정 타겟은 상기 대상자를 관찰하는 오퍼레이터로부터의 수동 지시에 응답하여 표시되는 것인, 컴퓨터로 구현된 방법.
  19. 제 1 항에 있어서,
    상기 시각적 이미지는 상기 대상자의 속성에 기초하여 선택되는 것인, 컴퓨터로 구현된 방법.
  20. 제 19 항에 있어서,
    상기 속성은 상기 대상자의 나이인 것인, 컴퓨터로 구현된 방법.
  21. 제 1 항에 있어서,
    상기 제 1 시각적 이미지 및 상기 제 2 시각적 이미지는 동적인 시각적 이미지인 것인, 컴퓨터로 구현된 방법.
  22. 제 1 항에 있어서,
    상기 방법은 상기 대상자의 발달 또는 인지 조건의 평가, 검사, 모니터링, 또는 진단을 위해 사용되는 것인, 컴퓨터로 구현된 방법.
  23. 제1항의 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템에 있어서,
    디스플레이 장치;
    상기 디스플레이 장치에 의해 표시되는 자극에 응답하여 대상자(subject)의 안구(eye) 움직임을 탐지하기 위한 센서;
    상기 대상자를 앉히기 위한 지지 장치 - 상기 지지 장치는, 상기 디스플레이 장치와 안구 움직임 데이터의 수집을 허용하는 센서에 대한 방향으로 상기 대상자의 위치를 정하도록 조절 가능하고, 상기 지지 장치는 위치가 정해지면 상기 방향으로 상기 대상자를 한정함(confine) -; 및
    상기 디스플레이 장치, 상기 대상자의 안구 움직임을 탐지하기 위한 센서, 및 상기 대상자를 앉히기 위한 지지 장치의 각각을 지지하는 프레임
    을 포함하는, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  24. 제 23 항에 있어서,
    상기 프레임은 바퀴를 포함하는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  25. 제 24 항에 있어서,
    상기 프레임은 상기 바퀴에 결합된 브레이크를 더 포함하는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  26. 제 23 항에 있어서,
    상기 지지 장치는 상기 대상자의 시야로부터의 시각적 주의 분산(visual distractions)을 최소화하는 파티션을 포함하는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  27. 제 23 항에 있어서,
    상기 지지 장치는 뒤로 젖히도록(recline) 구성되는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  28. 제 23 항에 있어서,
    상기 지지 장치는 조절 가능한 머리 받침대(head rest)를 포함하는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  29. 제 28 항에 있어서,
    상기 머리 받침대는 상기 대상자의 머리 움직임의 범위를 제한하는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  30. 제 23 항에 있어서,
    상기 지지 장치는 축 주위를 선회하도록 구성되는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  31. 제 23 항에 있어서,
    상기 디스플레이 장치는 상기 대상자에 대해 복수의 위치로 조절할 수 있는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  32. 제 23 항에 있어서,
    상기 센서는 상기 대상자에 대해 복수의 위치로 조절할 수 있는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  33. 제 23 항에 있어서,
    상기 대상자의 이미지를 오퍼레이터(operator)에 표시하도록 구성된 제 2 디스플레이 장치를 더 포함하는, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  34. 제 23 항에 있어서,
    상기 대상자의 탐지된 안구 움직임을 네트워크로 전달하기 위한 네트워크 인터페이스를 더 포함하는, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  35. 제 23 항에 있어서,
    상기 시스템은 상기 대상자의 발달 또는 인지 조건의 평가, 검사(screening), 모니터링, 또는 진단을 위해 사용되는 것인, 컴퓨터로 구현된 방법을 수행하도록 구성된 시스템.
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
  51. 삭제
  52. 삭제
  53. 삭제
KR1020157028283A 2013-03-11 2014-03-11 인지 및 발달 조건의 탐지 시스템 및 방법 KR102179931B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361775880P 2013-03-11 2013-03-11
US61/775,880 2013-03-11
PCT/US2014/023644 WO2014164858A1 (en) 2013-03-11 2014-03-11 Systems and methods for detection of cognitive and developmental conditions

Publications (2)

Publication Number Publication Date
KR20150141957A KR20150141957A (ko) 2015-12-21
KR102179931B1 true KR102179931B1 (ko) 2020-11-18

Family

ID=50630989

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157028283A KR102179931B1 (ko) 2013-03-11 2014-03-11 인지 및 발달 조건의 탐지 시스템 및 방법

Country Status (15)

Country Link
US (3) US9265416B2 (ko)
EP (1) EP2967314B1 (ko)
JP (1) JP6462657B2 (ko)
KR (1) KR102179931B1 (ko)
CN (2) CN109124657B (ko)
AU (1) AU2014248925B2 (ko)
BR (1) BR112015022523A2 (ko)
CA (1) CA2904346C (ko)
ES (1) ES2877350T3 (ko)
HK (1) HK1220597A1 (ko)
IL (1) IL241256B (ko)
MX (1) MX363272B (ko)
NZ (1) NZ712214A (ko)
SG (1) SG11201507147VA (ko)
WO (1) WO2014164858A1 (ko)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2511237A (en) * 2011-12-05 2014-08-27 Gautam Singh Computer implemented system and method for statistically assessing co-scholastic skills of user
AU2013239981B2 (en) 2012-03-26 2017-07-06 New York University Methods and kits for assessing central nervous system integrity
WO2014164858A1 (en) * 2013-03-11 2014-10-09 Children's Healthcare Of Atlanta, Inc. Systems and methods for detection of cognitive and developmental conditions
CN105764407A (zh) 2013-06-17 2016-07-13 纽约大学 用于评估神经系统和眼科功能以及定位神经系统病变的方法和试剂盒
EP3041402A4 (en) 2013-09-04 2017-08-23 Joseph Michael Lawless Kelly Methods and systems for the detection of disease
JP6797683B2 (ja) 2013-10-17 2020-12-09 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド 乳児及び子供の発達をアイ・トラッキングによって評価するための方法
US9804753B2 (en) * 2014-03-20 2017-10-31 Microsoft Technology Licensing, Llc Selection using eye gaze evaluation over time
US9465981B2 (en) 2014-05-09 2016-10-11 Barron Associates, Inc. System and method for communication
US11013441B2 (en) 2014-08-04 2021-05-25 New York University Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption
KR20160049273A (ko) * 2014-10-27 2016-05-09 삼성전자주식회사 의료 영상 장치
US9782069B2 (en) * 2014-11-06 2017-10-10 International Business Machines Corporation Correcting systematic calibration errors in eye tracking data
RU2582180C1 (ru) * 2015-03-20 2016-04-20 Виктор Маркович Шкловский Аппаратно-программный комплекс для обеспечения физической, профессиональной или когнитивной терапии пациентов с нарушением высших психических функций
JP7043262B2 (ja) 2015-06-30 2022-03-29 スリーエム イノベイティブ プロパティズ カンパニー 照明器
CN105069304B (zh) * 2015-08-18 2019-04-05 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于机器学习的评估预测asd的装置
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
US11972336B2 (en) * 2015-12-18 2024-04-30 Cognoa, Inc. Machine learning platform and system for data analysis
CN105534483B (zh) * 2016-02-03 2018-05-04 中国科学院昆明动物研究所 触屏多功能非人灵长类动物认知功能测试方法
US11642071B2 (en) 2016-08-02 2023-05-09 New York University Methods and kits for assessing neurological function and localizing neurological lesions
US10863902B2 (en) 2016-10-03 2020-12-15 Oculogica Inc. Method for detecting glaucoma
CN109862831B (zh) * 2016-10-07 2022-03-04 松下知识产权经营株式会社 认知功能评价装置、认知功能评价方法以及程序记录介质
WO2018090009A1 (en) * 2016-11-14 2018-05-17 Cognoa, Inc. Methods and apparatus for evaluating developmental conditions and providing control over coverage and reliability
CA3045768A1 (en) * 2016-12-07 2018-06-14 Auckland Uniservices Limited Stimulus and eye tracking system
FR3062307B1 (fr) * 2017-01-30 2022-01-21 Herve Harounian Dispositif et procede de stimulation cognitive d'un patient
US11141095B2 (en) 2017-02-17 2021-10-12 Oculogica Inc. Method and system for detecting concussion
EP3592204B1 (en) * 2017-03-05 2024-05-08 Virtuoptica Ltd. Eye examination method and apparatus therefor
US10950346B2 (en) 2017-04-28 2021-03-16 International Business Machines Corporation Utilizing artificial intelligence for data extraction
CN109276228B (zh) * 2017-07-21 2020-12-25 成都集思鸣智科技有限公司 一种检测大脑功能的系统及其装置
CN107397527B (zh) * 2017-07-26 2019-04-30 武汉爱尔眼科医院有限公司 一种眼睛视力测量装置
US10599682B2 (en) * 2017-08-08 2020-03-24 International Business Machines Corporation User interaction during ground truth curation in a cognitive system
WO2019055504A1 (en) * 2017-09-13 2019-03-21 Oculogica Inc. EYE TRACKING SYSTEM
US11694803B2 (en) * 2017-11-30 2023-07-04 Viewmind, Inc. System and method for detecting neurological disorders and for measuring general cognitive performance
US11207011B2 (en) * 2018-02-07 2021-12-28 RightEye, LLC Systems and methods for assessing user physiology based on eye tracking data
EP3591664A1 (en) 2018-07-05 2020-01-08 Université Libre de Bruxelles (ULB) Method for evaluating a risk of neurodevelopmental disorder with a child
EP3591665A1 (en) 2018-07-05 2020-01-08 Universite Libre De Bruxelles Method for evaluating a risk of neurodevelopmental disorder with a child
AU2019208212A1 (en) * 2018-07-27 2020-02-13 Welch Allyn, Inc. Vision screening device and methods
CN109259775A (zh) * 2018-08-30 2019-01-25 清华大学 一种人脸刺激范式生成方法及自闭症分析系统
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
CN109620258A (zh) * 2018-12-04 2019-04-16 北京大学 基于眼动技术测量孤独症重复刻板行为的测试装置
CN109589122B (zh) * 2018-12-18 2022-02-15 中国科学院深圳先进技术研究院 一种认知能力测评系统及方法
CN109464151B (zh) * 2018-12-29 2021-09-07 中国科学院深圳先进技术研究院 注意抑制能力获取方法、装置、设备及存储介质
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
CN109770921B (zh) * 2019-02-03 2020-12-08 清华大学 自闭症儿童早期语言与认知能力筛查的方法及装置
CN109758166A (zh) * 2019-03-06 2019-05-17 西安市儿童医院 消毒式儿童智力测试专用桌
JP7215246B2 (ja) * 2019-03-08 2023-01-31 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム
WO2020219446A1 (en) 2019-04-23 2020-10-29 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
KR102255399B1 (ko) * 2019-06-17 2021-05-24 김도훈 하이브리드 카시트 장치, 이를 이용한 영유아 안전 제공 시스템 및 방법
CA3148710A1 (en) * 2019-08-26 2021-03-04 Raul Mihali Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US11902498B2 (en) 2019-08-26 2024-02-13 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
CN110547756A (zh) * 2019-09-17 2019-12-10 广州智伴人工智能科技有限公司 一种视力测试方法、装置和系统
CN110652281B (zh) * 2019-10-25 2023-02-24 北京机械设备研究所 一种基于虚拟现实技术的视野计及视野检测方法
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
KR102281927B1 (ko) * 2019-11-27 2021-07-26 고큐바테크놀로지 주식회사 다양한 상태의 눈을 위한 동공 추적 방법 및 이를 이용한 건강 진단 시스템
CN111568367B (zh) * 2020-05-14 2023-07-21 中国民航大学 一种识别和量化眼跳入侵的方法
CN111939422A (zh) * 2020-08-13 2020-11-17 深圳市艾利特医疗科技有限公司 一种用于自闭症儿童的基于听觉训练的康复装置
KR102529240B1 (ko) * 2020-11-24 2023-05-04 (주)싱스웰 사용자 맞춤형 서비스를 제공하는 캡슐형 스마트 쉘터
CN113274021B (zh) * 2021-04-25 2023-11-28 阿呆科技(北京)有限公司 基于惊反射诱发的创伤后应激障碍诊断评估系统
JP2023006771A (ja) * 2021-06-30 2023-01-18 キヤノン株式会社 制御装置およびその制御方法
KR102377135B1 (ko) * 2021-08-19 2022-03-21 의료법인 명지의료재단 노인의 인지 기능 측정 방법 및 시스템
US11556174B1 (en) * 2022-03-30 2023-01-17 Motorola Mobility Llc Monitoring system having contextual gaze-detection-based selection/triggering of caregiver functions
US11903711B2 (en) * 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking
EP4331470A1 (en) * 2022-08-30 2024-03-06 DIVE Medical SL Validation of eye tracking data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020186348A1 (en) * 2001-05-14 2002-12-12 Eastman Kodak Company Adaptive autostereoscopic display system
US20100331721A1 (en) * 2002-11-18 2010-12-30 Epley Research Llc Head-stabilized, nystagmus-based repositioning apparatus, system and methodology

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4474186A (en) * 1979-07-17 1984-10-02 Georgetown University Computerized electro-oculographic (CEOG) system with feedback control of stimuli
JPH0655203B2 (ja) * 1992-07-09 1994-07-27 株式会社エイ・ティ・アール視聴覚機構研究所 視線検出を用いた医療診断装置
JP3821259B2 (ja) * 1998-02-12 2006-09-13 独立行政法人科学技術振興機構 眼球運動観察用装着具、視標投影装置、及びこれらを用いた平衡機能検査装置
EP1075208A1 (en) 1998-04-29 2001-02-14 Carnegie-Mellon University Apparatus and method of monitoring a subject's eyes using two different wavelengths of light
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
US6231187B1 (en) 1999-02-11 2001-05-15 Queen's University At Kingston Method and apparatus for detecting eye movement
JP2002253509A (ja) * 2000-12-28 2002-09-10 Matsushita Electric Works Ltd 脳機能検査方法とその装置、脳機能検査システム、脳機能検査サービス方法及びそのプログラムと装置
AU2002233323A1 (en) 2001-02-09 2002-08-28 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
GB0210288D0 (en) * 2002-05-04 2002-06-12 Univ Nottingham Ocular display apparatus for assessment and measurement of and for treatment of ocular disorders, and methods therefor
US6896655B2 (en) * 2002-08-05 2005-05-24 Eastman Kodak Company System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display
WO2005063114A1 (ja) 2003-12-25 2005-07-14 National University Corporation Shizuoka University 視線検出方法および装置ならびに三次元視点計測装置
US7819818B2 (en) 2004-02-11 2010-10-26 Jamshid Ghajar Cognition and motor timing diagnosis using smooth eye pursuit analysis
JP2006087833A (ja) * 2004-09-27 2006-04-06 Matsushita Electric Works Ltd 認知機能検査方法、認知機能検査プログラム、認知機能検査装置
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
JP4892742B2 (ja) * 2005-03-31 2012-03-07 国立大学法人 東京大学 視野計及び視野計測方法
GB0709405D0 (en) * 2007-05-16 2007-06-27 Univ Edinburgh Testing vision
US7556377B2 (en) * 2007-09-28 2009-07-07 International Business Machines Corporation System and method of detecting eye fixations using adaptive thresholds
AU2009236301A1 (en) * 2008-04-14 2009-10-22 The Johns Hopkins University Systems and methods for testing vestibular and oculomotor function
CN102245085B (zh) * 2008-10-14 2015-10-07 俄亥俄大学 利用眼跟踪的认知和语言评估
US8808195B2 (en) 2009-01-15 2014-08-19 Po-He Tseng Eye-tracking method and system for screening human diseases
US20120314045A1 (en) 2009-08-26 2012-12-13 Ecole Polytechnique Federale De Lausanne (Epfl) Wearable systems for audio, visual and gaze monitoring
US8371693B2 (en) 2010-03-30 2013-02-12 National University Corporation Shizuoka University Autism diagnosis support apparatus
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
WO2014164858A1 (en) * 2013-03-11 2014-10-09 Children's Healthcare Of Atlanta, Inc. Systems and methods for detection of cognitive and developmental conditions
US9247870B2 (en) * 2013-03-15 2016-02-02 Neuro Kinetics, Inc. Method and apparatus for system synchronization in video oculography based neuro-otologic testing and evaluation
KR102224932B1 (ko) * 2014-02-19 2021-03-08 삼성전자주식회사 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법
US10120413B2 (en) * 2014-09-11 2018-11-06 Interaxon Inc. System and method for enhanced training using a virtual reality environment and bio-signal data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020186348A1 (en) * 2001-05-14 2002-12-12 Eastman Kodak Company Adaptive autostereoscopic display system
JP2003087822A (ja) * 2001-05-14 2003-03-20 Eastman Kodak Co 適応型自動立体表示システム
US20100331721A1 (en) * 2002-11-18 2010-12-30 Epley Research Llc Head-stabilized, nystagmus-based repositioning apparatus, system and methodology

Also Published As

Publication number Publication date
JP2016515017A (ja) 2016-05-26
MX2015012061A (es) 2016-07-05
HK1220597A1 (zh) 2017-05-12
IL241256A0 (en) 2015-11-30
CN109124657B (zh) 2021-11-23
CN109124657A (zh) 2019-01-04
CN105163648A (zh) 2015-12-16
BR112015022523A2 (pt) 2017-07-18
MX363272B (es) 2019-03-19
IL241256B (en) 2019-09-26
NZ712214A (en) 2019-03-29
EP2967314B1 (en) 2021-06-02
US20160262612A1 (en) 2016-09-15
AU2014248925B2 (en) 2018-07-12
ES2877350T3 (es) 2021-11-16
KR20150141957A (ko) 2015-12-21
JP6462657B2 (ja) 2019-01-30
US20180289259A1 (en) 2018-10-11
WO2014164858A1 (en) 2014-10-09
EP2967314A1 (en) 2016-01-20
US10702150B2 (en) 2020-07-07
US9265416B2 (en) 2016-02-23
CN105163648B (zh) 2018-08-28
CA2904346C (en) 2021-09-28
US10022049B2 (en) 2018-07-17
US20140253876A1 (en) 2014-09-11
SG11201507147VA (en) 2015-10-29
AU2014248925A1 (en) 2015-10-01
CA2904346A1 (en) 2014-10-09

Similar Documents

Publication Publication Date Title
KR102179931B1 (ko) 인지 및 발달 조건의 탐지 시스템 및 방법
US11864832B2 (en) Systems and methods for assessing infant and child development via eye tracking
US9295806B2 (en) System and method for determining emotional response to olfactory stimuli
CN112890815A (zh) 一种基于深度学习的孤独症辅助评估系统和方法
US11903711B2 (en) Assessing developmental disorders via eye tracking

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant