JP2016537067A - 乳児及び子供の発達をアイ・トラッキングによって評価するための方法 - Google Patents
乳児及び子供の発達をアイ・トラッキングによって評価するための方法 Download PDFInfo
- Publication number
- JP2016537067A JP2016537067A JP2016524130A JP2016524130A JP2016537067A JP 2016537067 A JP2016537067 A JP 2016537067A JP 2016524130 A JP2016524130 A JP 2016524130A JP 2016524130 A JP2016524130 A JP 2016524130A JP 2016537067 A JP2016537067 A JP 2016537067A
- Authority
- JP
- Japan
- Prior art keywords
- visual
- individual
- fixation
- data
- stimulus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 261
- 230000008131 children development Effects 0.000 title description 6
- 230000000007 visual effect Effects 0.000 claims abstract description 372
- 230000001149 cognitive effect Effects 0.000 claims abstract description 56
- 239000003550 marker Substances 0.000 claims abstract description 10
- 210000001508 eye Anatomy 0.000 claims description 309
- 238000013480 data collection Methods 0.000 claims description 131
- 230000008859 change Effects 0.000 claims description 100
- 230000004424 eye movement Effects 0.000 claims description 93
- 230000008569 process Effects 0.000 claims description 84
- 238000003745 diagnosis Methods 0.000 claims description 41
- 230000009467 reduction Effects 0.000 claims description 23
- 230000003340 mental effect Effects 0.000 claims description 22
- 230000005856 abnormality Effects 0.000 claims description 20
- 210000003128 head Anatomy 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 20
- 230000003068 static effect Effects 0.000 claims description 13
- 238000012544 monitoring process Methods 0.000 claims description 11
- 230000004397 blinking Effects 0.000 claims description 9
- 230000000052 comparative effect Effects 0.000 claims description 8
- 210000000744 eyelid Anatomy 0.000 claims description 8
- 230000014509 gene expression Effects 0.000 claims description 7
- 208000020016 psychiatric disease Diseases 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 4
- 238000005201 scrubbing Methods 0.000 claims description 3
- 230000000087 stabilizing effect Effects 0.000 claims description 3
- 230000001747 exhibiting effect Effects 0.000 claims description 2
- 230000002159 abnormal effect Effects 0.000 abstract description 19
- 230000003923 mental ability Effects 0.000 abstract description 15
- 230000007423 decrease Effects 0.000 abstract description 13
- 230000003930 cognitive ability Effects 0.000 abstract 1
- 208000029560 autism spectrum disease Diseases 0.000 description 184
- 238000012360 testing method Methods 0.000 description 110
- 238000004458 analytical method Methods 0.000 description 58
- 238000002474 experimental method Methods 0.000 description 50
- 238000012545 processing Methods 0.000 description 46
- 230000006870 function Effects 0.000 description 40
- 238000012795 verification Methods 0.000 description 33
- 238000005259 measurement Methods 0.000 description 31
- 230000004434 saccadic eye movement Effects 0.000 description 28
- 230000018109 developmental process Effects 0.000 description 25
- 230000000694 effects Effects 0.000 description 24
- 208000024891 symptom Diseases 0.000 description 22
- 230000006399 behavior Effects 0.000 description 21
- 238000011161 development Methods 0.000 description 21
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 21
- 208000035475 disorder Diseases 0.000 description 20
- 206010003805 Autism Diseases 0.000 description 19
- 208000020706 Autistic disease Diseases 0.000 description 19
- 238000007405 data analysis Methods 0.000 description 17
- 230000000875 corresponding effect Effects 0.000 description 14
- 238000009826 distribution Methods 0.000 description 14
- 230000003993 interaction Effects 0.000 description 14
- 208000035478 Interatrial communication Diseases 0.000 description 13
- 206010003664 atrial septal defect Diseases 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 12
- 208000006096 Attention Deficit Disorder with Hyperactivity Diseases 0.000 description 11
- 238000004891 communication Methods 0.000 description 11
- 230000001755 vocal effect Effects 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 9
- 238000013500 data storage Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 208000022379 autosomal dominant Opitz G/BBB syndrome Diseases 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 238000002405 diagnostic procedure Methods 0.000 description 8
- 230000002068 genetic effect Effects 0.000 description 8
- 230000002829 reductive effect Effects 0.000 description 8
- 238000010200 validation analysis Methods 0.000 description 8
- 208000036864 Attention deficit/hyperactivity disease Diseases 0.000 description 7
- 238000013459 approach Methods 0.000 description 7
- 208000015802 attention deficit-hyperactivity disease Diseases 0.000 description 7
- 230000007717 exclusion Effects 0.000 description 7
- 208000035231 inattentive type attention deficit hyperactivity disease Diseases 0.000 description 7
- 238000011160 research Methods 0.000 description 7
- 238000012216 screening Methods 0.000 description 7
- 238000011282 treatment Methods 0.000 description 7
- 208000012239 Developmental disease Diseases 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000013211 curve analysis Methods 0.000 description 6
- 238000007689 inspection Methods 0.000 description 6
- 238000005192 partition Methods 0.000 description 6
- 208000028173 post-traumatic stress disease Diseases 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 230000000638 stimulation Effects 0.000 description 5
- 230000000153 supplemental effect Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 201000006347 Intellectual Disability Diseases 0.000 description 4
- 208000025890 Social Communication disease Diseases 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 4
- 230000003920 cognitive function Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 4
- 230000006735 deficit Effects 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 238000010234 longitudinal analysis Methods 0.000 description 4
- 230000009984 peri-natal effect Effects 0.000 description 4
- 230000003997 social interaction Effects 0.000 description 4
- 208000025978 Athletic injury Diseases 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 3
- 208000026350 Inborn Genetic disease Diseases 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 3
- 238000000540 analysis of variance Methods 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000009514 concussion Effects 0.000 description 3
- 238000002790 cross-validation Methods 0.000 description 3
- 230000001934 delay Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000009547 development abnormality Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 208000016361 genetic disease Diseases 0.000 description 3
- 230000008140 language development Effects 0.000 description 3
- 239000002184 metal Substances 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000011514 reflex Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 208000003265 stomatitis Diseases 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000001225 therapeutic effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 206010010254 Concussion Diseases 0.000 description 2
- 206010012411 Derailment Diseases 0.000 description 2
- 206010012559 Developmental delay Diseases 0.000 description 2
- 206010041738 Sports injury Diseases 0.000 description 2
- 208000030886 Traumatic Brain injury Diseases 0.000 description 2
- NIJJYAXOARWZEE-UHFFFAOYSA-N Valproic acid Chemical compound CCCC(C(O)=O)CCC NIJJYAXOARWZEE-UHFFFAOYSA-N 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000003759 clinical diagnosis Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013502 data validation Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000013401 experimental design Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000035800 maturation Effects 0.000 description 2
- 230000001095 motoneuron effect Effects 0.000 description 2
- 206010029864 nystagmus Diseases 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 208000013406 repetitive behavior Diseases 0.000 description 2
- 230000003989 repetitive behavior Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000009987 spinning Methods 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009529 traumatic brain injury Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 206010006094 Bradycardia foetal Diseases 0.000 description 1
- 208000006354 Congenital Nystagmus Diseases 0.000 description 1
- 206010010356 Congenital anomaly Diseases 0.000 description 1
- 206010010904 Convulsion Diseases 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 206010011878 Deafness Diseases 0.000 description 1
- 201000000913 Duane retraction syndrome Diseases 0.000 description 1
- 208000020129 Duane syndrome Diseases 0.000 description 1
- 208000002091 Febrile Seizures Diseases 0.000 description 1
- 208000001914 Fragile X syndrome Diseases 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 206010019196 Head injury Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 208000002787 Pregnancy Complications Diseases 0.000 description 1
- 208000004350 Strabismus Diseases 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 208000026911 Tuberous sclerosis complex Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 208000013404 behavioral symptom Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000003339 best practice Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008133 cognitive development Effects 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000012888 cubic function Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000586 desensitisation Methods 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000003670 easy-to-clean Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000037406 food intake Effects 0.000 description 1
- 235000012631 food intake Nutrition 0.000 description 1
- 238000012252 genetic analysis Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 230000010370 hearing loss Effects 0.000 description 1
- 231100000888 hearing loss Toxicity 0.000 description 1
- 208000016354 hearing loss disease Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010832 independent-sample T-test Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 208000011977 language disease Diseases 0.000 description 1
- 238000011866 long-term treatment Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000008774 maternal effect Effects 0.000 description 1
- 230000011987 methylation Effects 0.000 description 1
- 238000007069 methylation reaction Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 208000012113 pregnancy disease Diseases 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000004006 stereotypic behavior Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 208000009999 tuberous sclerosis Diseases 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 229960000604 valproic acid Drugs 0.000 description 1
- 238000009423 ventilation Methods 0.000 description 1
- 230000004462 vestibulo-ocular reflex Effects 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/167—Personality evaluation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/40—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management of medical equipment or devices, e.g. scheduling maintenance or upgrades
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/04—Babies, e.g. for SIDS detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/06—Children, e.g. for attention deficit diagnosis
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Psychology (AREA)
- Developmental Disabilities (AREA)
- Psychiatry (AREA)
- Pathology (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Ophthalmology & Optometry (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Eye Examination Apparatus (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
又は被験者自身の以前の視覚固視データと比較されたときの視覚固視の変化(とりわけ、人の眼、身体、もしくは他の関心領域、又は物体のイメージが視覚刺激の上に表示された状態での被験者による視覚固視の低下)は、発達的、認知的、又は精神的な障害を示す。
有しており、個人は、ディスプレイ・デバイス及びセンサに対して、データ収集装置の中で、ある向きで位置決めされ、それは、眼球運動データの収集を可能にする、工程と;第1のセッションの間に、個人に対して、ディスプレイ・デバイスの上に第1の視覚刺激の表示を引き起こす、工程と;表示された第1の視覚刺激に関して個人の視覚固視を示すセンサからの第1の眼球運動データを受信する工程と;第2のセッションの間に、データ収集装置内で個人を位置決めする、工程と;第2のセッションの間に、個人に対して、ディスプレイ・デバイスの上に第2の視覚刺激の表示を引き起こす、工程と;表示された第2の視覚刺激に関して個人の視覚固視を示すセンサからの第2の眼球運動データを受信する工程と;プロセッサの上で実行するソフトウェアを介して、第1の眼球運動データ及び第2の眼球運動データの表現を発生させる工程であって、表現は、第1のセッションから第2のセッションへの、個人に関する視覚固視の変化又は変化率を実証する、工程と;プロセッサの上で実行するソフトウェアを介して、表示された第1の視覚刺激及び表示された第2の視覚刺激に対する比較グループに関する視覚固視の変化又は変化率の比較表現を検索する工程と;プロセッサの上で実行するソフトウェアを介して、個人に関する視覚固視の変化又は変化率を、比較グループに関する視覚固視の変化又は変化率と比較し、個人に関する視覚固視の変化又は変化率が比較グループに関する視覚固視の変化又は変化率の所定の範囲から外れるかどうかを決定し、それによって、個人が、発達的、認知的、又は精神的な異常障害又は能力を有する可能性を示す工程とからなる。
を決定し、それによって、個人が、発達的、認知的、社会的、又は精神的な障害を有する可能性を示す工程とからなる。
にあり、利用可能な動的な焦点範囲は、約50〜70cmである。
び治療の分野でない用途の両方を有し、それは、たとえば、視覚刺激優先性に関連するデータが関心のものである広告業界又は他の産業を含む。
を描写する視覚刺激(たとえば、映画などの動的な視覚刺激)を見ている間に、第1のアイ・トラッキング・データが、被験者から収集される(データ収集20)。データ収集の目的のために被験者に表示される刺激は、(静的であろうと、動的であろうと)任意の適切な視覚イメージであることが可能であり、それは、映画又はビデオ、及び、静止画又は任意の他の視覚刺激を含む。映画又はビデオは、単に例として参照されていること、及び、任意のそのような議論は、他の形態の視覚刺激にも適用されることを理解されたい。手順にしたがって、アイ・トラッキング・データ、及び、任意の他の適切な情報(たとえば、被験者が見た映画のリスト)が、セキュア・データベース(データ・ストレージ30)に転送される。データベースは好適には、デバイスから遠隔にあり、多くのデバイスから収集されるデータを収容及び集約するが、いくつかの実施形態では、データベースは、デバイスにローカル接続され得ることを認識されたい。その転送の後に、データは、中央処理コンピュータ(データベース及び/又はデバイスにローカル接続されているか又は遠隔にある)に再び転送され、任意の適切なプログラミング言語(たとえば、MATLAB)で書かれたカスタム・ソフトウェアを使用して処理される(データ処理及び分析40)。特定の実施形態では、及び、処理工程の間に、個々の被験者のデータが、統計的モデル又は他の相対的な規範と比較される。その比較は、被験者が見た映画の間の被験者の自分自身のその固有の凝視点に基づいて、社会的機能の測定値(たとえば、スコア)を出力する(データ結果50)。そのスコアは、統計的モデルからの所定のカットオフ(cutoff)又は他の値と比較される。いくつかの実施形態では、その比較の出力は、ASDを含む、発達的、認知的、社会的、又は精神的な能力又は異常障害のその被験者の診断、及び、状態の重症度のレベルの決定である。いくつかの実施形態では、被験者の視覚固視(たとえば、凝視点データ)は、長い時間をかけてトラッキングされ(たとえば、何ヶ月以上にもわたって繰り返されるセッション)、視覚固視の変化又は変化率(その低下は、特に生後間もなくに、発達状態のマーカとして使用されることが可能である)を決定する。いくつかの実施形態では、その比較の出力は、被験者の言語的な認知技能又は非言語的な認知技能の測定値である。いくつかの実施形態では、その比較の出力は、規範的な発達の典型性の程度の測定値であり、典型的な発達の多様性を示す。追加的に、結果は、ASD、又は、他の認知状況、発達状況、社会的状況、もしくは精神的状況によって影響を与えられた被験者の長期間にわたる治療の有効性をモニタリングするために使用されることが可能である。分析の結果、及び処理されたファイル自体は、その後に、データベースにアップロードされる。典型的に、結果は、医師(たとえば、小児科医もしくは他の医療専門家)、又は、他の被験者の介護者に利用される。
をキャスタ108に乗って移動するように設計されており、好ましくは、すべてのサイズ及び強さのオペレータのための操縦性を可能にする重量(たとえば、おおよそ113.4kg(250lb)以下)を有している。キャスタ108は、移動させられていないときに、デバイスを適切な場所に固定するためのブレーキを含むことが可能である。
能性のある位置が存在するので、座席は、任意の適切な数の「モード」を有することが可能であり、また、さらに位置決め可能/調節可能であり得ることを理解されたい。たとえば、デバイス100の実施形態は、被験者進入/退出のための旋回機構102を有しており、それは、ディスプレイ・デバイス103及びアイ・トラッキング・ユニットに対して被験者を向かせるために使用されることも可能である。
ることが可能である(たとえば、カメラを真っ直ぐに見て、見ている被験者に関わることを試みる俳優、たとえば、又は、遊んでいる子供たちのシーン)。いくつかの実施形態では、ビデオ・シーンは、たとえば、アニメーション及びプレファレンシャル・ビューイング・タスクを含む、他の適切な刺激を含むことが可能である。ビデオの中の特定の空間的な場所に対する固視時間の測定は、被験者の社会的発達及び/又は認知発達のレベルに関連する可能性がある。たとえば、12〜15ヶ月の間の月齢の子供たちは、彼らの言語発達の発達段階の結果として、口の固視の増加を示し、また、眼の固視と口の固視との間を行ったり来たりする。別の例として、ビデオの中の俳優の眼に対して、被験者による長期間にわたる視覚固視の低下は、被験者の中のASD又は別の発達状況のインジケーターであることが可能である。
いるコンピュータによって、セッションの間にリアルタイムで行われ得ることを理解されたい。
タ・コンピュータを介して被験者を監視するための位置において、フレームワークの外側に立つことが可能であり、モニタリング・カメラを通して被験者を観察することが可能である。(サポート・デバイスの上に位置決めされている)被験者は、被験者の視界がパーティションによって妨害されるので、好ましくは、オペレータを見ることができない。パーティションは、プラスチックのような材料から形成されることが可能であり、プラスチックのような材料は、きれいにするのが容易であり、金属フレームワークに熱成形される。図3A〜図3Fに示されているように、たとえば、デバイスは、それぞれのデバイスのコンポーネントのすべて又はいくつかを支持するフレームを有している。
利用可能な機能に関連している(たとえば、ディスプレイ400aは、ディスプレイ400jの中のものとは異なるコンテキスト・ボタン450を有している)。
デバイスを使用して、観察された固視を手動で示すことが可能である。ビデオ・ウィンドウ430は、アイ・トラッキング機器からの情報を描写するフィードの上に重ね合わせられるターゲットを有している。任意の適切なアイコンが、キャリブレーション・ターゲット又は固視ターゲットとして使用されることが可能であり、ターゲットは、静的であっても、動的であってもよい。たとえば、図5Eのディスプレイ400eに示されているように、バーナー・バー410からの「アニメーション」ボタンの選択は、固視ターゲットとして使用され得る可能性のあるアニメーションのリストの表示を結果として生じさせる。動的な、又は、アニメが使われる固視ターゲットは、言語的な媒介、又は、オペレータによる命令の必要性なしに、被験者による外因性の(exogenous)キューイング(cueing)を反射的に引き起こすことが可能である。たとえば、ターゲット自体が被験者の注意を引き付けるので、オペレータは、動的なターゲットを見るように命令を与える必要がない。
うに命令される。任意の適切な数のターゲットが、表示されることが可能であり、また、アイ・トラッキング・デバイスのキャリブレーション及び/又は検証のために使用されることが可能であることを理解されたい。たとえば、いくつかの実施形態では、2点キャリブレーション及び検証が、信頼性の高いアイ・トラッキング・データの収集のために使用されることが可能である。
激(たとえば、現実世界の社会的相互作用のビデオ・シーン)又は準自然的な刺激(たとえば、ビデオ・アニメーション)を使用し、データを収集し、最終的に診断を与えることが可能である。被験者がディレクションにしたがわない、又はしたがうことができない場合でも、刺激(たとえば、ビデオ)が、被験者の注意を自然に集め、意味のあるデータが記録されることが可能であるので、自然的な及び準自然的な刺激は効果的である。したがって、被験者は、収集されることになるそのアイ・トラッキング・データに関して、アイ・トラッキング・データが収集されていることを知っている必要はない。
認するように試みることが可能であり、又は、プロセス500は、工程510に戻るように方向付けされることが可能であり、脱感作映画が、被験者のために再び表示される。固視が検出される場合には、工程540において、すべての点がキャリブレートされたかどうかが決定される。任意の適切な数の点が、本開示のキャリブレーション工程の中で使用されることが可能である。好ましくは、少なくとも2つの点がキャリブレートされるが、追加的な点(たとえば、5つ)、又は、それよりも少ない点(たとえば、点がないことを含む)が使用されることも可能である。すべての点がキャリブレートされていない場合には、プロセスは、工程510において脱感作映画を最初に示すことによって、工程550において、次のキャリブレートされていないターゲットを示す準備をする。工程540においてすべての点がキャリブレートされた場合には、プロセスは、工程560に続き、工程560において、キャリブレートされた点が検証される。
工程594)。被験者がターゲットを見ていない場合には、オペレータは、ターゲットを表示し続けることが可能であり、又は、別の脱感作映画の表示を引き起こす。特定の実施形態では、被験者がキャリブレーション・ターゲットを見ていることをオペレータが手動で承認するというよりも、又は、それに加えて、デバイス(たとえば、デバイス100)は、被験者がターゲットを見ていることを自動的に決定する(たとえば、ターゲットの周りの所定の空間的領域の中の凝視を識別する)ことができるソフトウェア又は他のロジックを含む。工程600において、アイ・トラッカー(たとえば、図2のアイ・トラッキング・デバイス104)は、固視が検出されているかどうかを決定する。固視が検出されない場合には、オペレータは、ターゲットの継続的な表示を可能にし、ターゲットを再び承認するように試みることが可能であり、又は、プロセス570は、工程580に戻るように方向付けされることが可能であり、脱感作映画が、被験者のために再び表示される。固視が検出される場合には、工程610において、固視に関して固視場所が計算され、工程620において、固視が、ターゲットに関して、既知の場所座標の特定の近接閾値の中に入るかどうかが決定される。工程630において、固視が特定の近接閾値の中にない場合には、固視は検証点として拒絶される。そうでなければ、工程630において、固視が特定の近接閾値の中にある場合には、固視は検証点として承認される。
である(観察された固視の時間の前に1秒、及び、その時間の後に1秒)。そのウィンドウの間に固視が存在しない場合には、データ点は、固視を含まないことが決定され、キャリブレーション及び/又は検証目的に関して拒絶されることが可能である。そのウィンドウの中に固視が存在している場合には、データ点は、固視を含むことが決定され、キャリブレーション及び/又は検証目的に関して承認されることが可能である。
基準に基づく、キャリブレーション不正確さの評価及び訂正の代表的なイメージを示している。
他の発達的、認知的、社会的、又は精神的な状態の検出の精度は、開示されているデバイスの中のアイ・トラッキング・ユニットから受信されるアイ・トラッキング・データの精度に依存することを理解及び認識されたい。
に関連付けされる。工程1014において、データが、セッション・テーブルへと作表される。概要アイ・トラッキング情報(たとえば、固視サンプル/映画など)は、プロセス概要ETファイルから読み取られ、その後に続く質問のためにデータベースの中に作表される。次いで、概要値(たとえば、固視/映画のパーセンテージなど)が、データベースの中で計算される。
する。たとえば、工程1060において、キャリブレーションが訂正される。追加的なキャリブレーション・ターゲットが示された時間からのデータを用いて、凝視位置の任意の食い違いが訂正される。いくつかのより大きな食い違いは、その後に続く分析から特定のデータを除外することが可能である。工程1062において、エラー・チェッキングが行われる。(a)被験者が、映画持続時間の20%未満(もしくは、任意の他の適切なパーセンテージ)にわたってスクリーンを凝視した場合には、又は、(b)映画が、その全体の持続時間にわたって示されなかった場合には、映画からのデータは、その後に続く分析から除外されることが可能である。工程1060及び工程1062のいずれか又は両方において、図9及び図10に関して上記に議論されているデータ評価及び訂正が使用されることが可能である。
能である。レポート940は、データ収集に関連している書誌的な及び他の関連のある情報950と、診断スコアとして描写されているテスト結果960と、コメント及び推奨970とを含む。診断結果又は処方箋的結果を医師又は他の介護者に提供するために、任意の適切なフォーマットが使用されることが可能であることを理解されたい。いくつかの実施形態では、デバイスは、プリンターを設けられ、テスト結果を直接的に送達することが可能である。
あったが、しかし、これらの欠陥の早期の発症は知られていなかった。本開示は、後に自閉症スペクトラム障害であると診断される乳児が、生後2ヶ月から6ヶ月において眼の固視(及び、一般的に、視覚固視)の平均低下を示すことを示すシステム、方法、デバイス、及び証拠を提供する。視覚固視のこの低下は、臨床転帰(clinical outcome)の重症度に一般に相関させられ、1年目単独における低下は、明白な症状が現れる前に、将来の結末の重症度をかなり予測する。低下のタイミングは、皮質成熟(cortical maturation)の幅の狭い発達ウィンドウを正確に示し、そうでなければ、典型的な社会的発達を切り開く上で重要な役割を果たすことになるプロセスの早期の脱線を明らかにする。規範的な経験からのこの早期の発散は、ある手段を示唆し、その手段によって、多様な遺伝的な責任(liabilities)は、発達的に、さまざまな被作用性へと例示化される。最後に、完全にないということではなく、この低下の観察は、眼に向かって反射的な初期の向きの助けとなる機構を見かけ上保存することに依拠し得る早期の介入に関する有望な機会を提供する。
開示の範囲から逸脱することなく、フローチャートの工程のいずれかが、修正されるか、省略されるか、もしくは再配置されてもよく、工程の2つ以上が組み合わせられてもよく、又は、任意の追加的な工程が加えられてもよい。
以下の例示的な議論は、早期に出現する規範的なプロセスの測定値(たとえば、馴染みの声、顔、顔のような刺激などに対する優先的な注意)が、明白な症状の兆候の前の時点において、ASDの混乱を明らかにすることが可能である範囲をテストする特定の実験に関する。一般的に、実験は、複数のセッションの過程(数ヶ月に広がる)にわたり、乳児及び若い幼児に関するアイ・トラッキング・データを使用し、乳児及び幼児に対して提示された視覚刺激に関する乳児及び幼児に関する視覚固視(すなわち、凝視点データ)の変化(及び、とりわけ、低下)を識別することを含んでいた。行われた実験の詳細は、関連のデータ/パラメータ、例示的なセッティング、実験からの関連の結果、一般的な影響、及び代替的な実施形態とともに、より詳細に以下に提供される説明及び添付の図面において、より良好に理解されることになる。
=0.9556;2−サンプルのコルモゴロフ−スミルノフ(Kolmogorov−Smirnov))、グループ間の差は存在しなかった。キャリブレーション精度は、任意のデータ収集セッションにおいて、診断の主効果(F1,2968.336=0.202、P=0.65)、又は、時間による診断の交互作用(F1,130.551=0.027、P=0.87)として、横断的にも(すべてのP>0.15、t<1.44;平均P=0.428)、また、縦断的にも、グループ同士の間に有意差はなかった(階層的線形モデリングに関するさらなる情報については、本開示の実験方法の章及び補足的実験情報の章を参照)。図28A〜Cは、テスト・グループに関するキャリブレーション精度のグラフィカルな説明図を示している。とりわけ、図28Aでは、アニュラスが、キャリブレーションに関する95%信頼区間をマークしている。図28Bでは、カーネル密度推定が、典型的に発育中の子供たちへの固視ターゲットに対する固視場所の分布をプロットしている。図28Cでは、カーネル密度推定が、ASDを患う子供たちへの固視ターゲットに対する固視場所の分布をプロットしている。図28A〜Cの中の図に関して、カーネル密度推定に関する平滑化バンド幅は、1°に等しかった。キャリブレーション・プロセスは、本開示の中で前に説明されたように使用された。
典型的に発育中の結末グループに関して異なっている。
ローニ(Bonferroni)補正、α=0.0125)。HLMを含む関連の分析が、本開示の実験方法の章及び補足的実験情報の章において、下記により詳細に提供されており、また、図24A〜図24H、図25A〜図25H、図27A〜図27D、及び図28A〜図28Cにおいて、より詳細に提供されており、それらのすべては、以前に上記に議論されている。
れているように、それぞれ、診断の主効果[F(1,21.652)=0.958、P=0.339;F(1,27.189)=0.250、P=0.621]、又は、年齢による診断の交互作用[F(1,20.026)=0.880、P=0.359;F(1,26.430)=0.561、P=0.460]のいずれかとして、固視又はサッカードすることのレベルにおいてグループ間の差は存在しなかった。とりわけ、図23A〜図23Fは、生後2ヶ月から6ヶ月の間に、凝視すること及びサッカードすることに費やした合計時間のパーセンテージのデータ・プロットを図示するグラフを示している。生のアイ・トラッキング・データは、凝視することに費やした時間(図23A〜図23Cを参照)及びサッカードすることに費やした時間(図23D〜図23Fを参照)の合計のパーセンテージに関して示されている。
Pとも称され、ここでは、HR−ASD_BAPとして略記される)のいずれかとして、臨床的に識別された。生後2ヶ月から6ヶ月の間の眼の固視の変化に関して、図20A、図20B、及び図20CのROC曲線は、結末(LOOCVによる95%信頼区間)に対する測定値の中のオーバーラップを定量化する。病気に罹っていない兄弟姉妹の挙動(HR−ASD_NoDx)は、(図20Cのグラフに示されているように)TDの子供たちのものと高度にオーバーラップしているが、一方、(図20Aのグラフに示されているように)後にASDであると診断された乳児の挙動、及び、(図20Bのグラフに示されているように)閾値以下のサインを有する乳児の挙動は、典型的なコントロールとは明確に異なっている。
分析
上記の説明及び関連の図によって示されているように、上記の実験の結果は、後にASDであると診断された乳児の発達が、生後2〜6ヶ月までの彼らの典型的な仲間の発達とは異なることを示している。これらの結果は、サンプル・サイズにおいて依然と限定されているが、そうでなければ典型的な社会化をガイドすることになる技能の脱線を立証する。脳の構造及び機能との、ならびに、遺伝子発現及び遺伝子メチル化との、個々の経験の相互依存を考えると、これらの結果は、初期の遺伝子型の脆弱性によってだけでなく、また、それらの脆弱性の結果として生じる非典型的な経験によって、単一の個人の結末がどのように形状決めさせることになるかことを示唆しており、被作用性の幅の広いスペクトルを例示化する。
実験方法
上記に説明されている実験に関して収集されたデータは、研究目的のためだけに使用されており、臨床ケアとは関係がない。家族は、任意の時間において研究から自由に脱退した。実験プロトコルのすべての態様は、子供たちの診断ステータスに気付かない人員によって行われた。すべての診断測定値は、実験手順の結果に気付かない訓練された臨床医によって管理された。子供たちは、生後2ヶ月から24ヶ月の間の10個の縦断的な検査点のそれぞれにおいて、自然的な介護者相互作用のビデオ・シーンを示された。実験は、動的な刺激の中の眼、口、身体、及び物体の関心領域に対する視覚固視時間のパーセンテージを測定し、これらの測定値は、縦断的解析に関する従属変数としての役割を果たした。計画された確認分析は、カテゴリ診断結末及び社会的コミュニケーション異常障害の次元レベルの両方に対して、縦断的な固視軌跡を測定した。視覚的スキャニングが、(本開示において先に参照されているような)アイ・トラッキング機器を用いて測定された。眼球運動の分析及び固視データのコーディングは、MATLABで書かれたソフトウェアを用いて行われた。しかし、理解及び認識されるように、視覚的スキャニング、データの分析、及び、本明細書で説明されている他のプロセスは、さまざまな同様の技術を利用して行われることが可能であり、本明細書でなされる特定の参照による本開示の限定は意図されていない。
実験刺激
本実験の子供たちは、女性俳優のビデオ・シーンを示され、女性俳優は、カメラを真っ直ぐに見て、介護者の役割を果たす:子供の頃のゲーム(たとえば、パタケーキ(pat−a−cake)で遊ぶ)を行うことによって、見ている幼児に求める(上記に参照されている図17A及び図17B、ならびに、対応する説明を参照)。俳優は、絵、おもちゃの棚、及び、動物のぬいぐるみを備える、子供部屋の現実世界の環境をまねた自然的なセッティングの中で撮影された。自然的な刺激(たとえば、静的な刺激というよりもむしろ動的な刺激、及び、ぼんやりしたシーン又は縮小的なシーンというよりもむしろ現実的なシーン)が、過去の研究を考慮して使用され、過去の研究は、ASDを患う年長児が、現実世界の彼らの実際の適応行動技能と、より構造化されたシチュエーションにおける彼らの認知的なポテンシャルとの間で、大きい食い違いを示し;静的な刺激に対して、動的な刺激によって、顔処理欠陥に関するより大きいグループ間の有効サイズを示し;構造化された機械的環境(その環境で、技能が初期に学習された)から、容易に変更可能な急速に変化する環境へ技能を一般化しようと試みるときに、マークされた困難性を示すことを示している。それぞれのデータ収集セッションにおいて、ビデオが、合計35のプールから擬似ランダム順序で引き出された。ここで分析された「介護者」ビデオ刺激(35個のビデオ)、ならびに、乳児及び幼児の相互作用のビデオ(「仲間と遊ぶ」ビデオ)の両方が、提示された。ビデオ刺激は、擬似ランダム順序で提示された。合計で(t34=0.685、P=0.498)、又は、具体的には、介護者刺激(t34=0.205、P=0.839)のいずれかに関して、子供ごとに収集されたデータの持続時間において、グループ間の差は存在しなかった。成功したデータ収集が、すべての検査セッションの80.
2%で実現された。失敗したデータ収集セッションは、乳児が寝てしまっているか、泣いているか、又は、ビデオを見ることに過度にぐずるようになっている結果として起こった。失敗の理由は、それぞれのセッションに関するデータ収集レポートの中に記録され、及び、データベースの中に維持された。失敗に関する理由の系統的な差は、2つのグループの間で識別されることができなかった。それぞれのデータ収集セッションにおいて、子供に示されたビデオのおおよそ30%は新規であったが、残りの70%は、以前のセッションから(直前のセッション及び2ヶ月進んで開始した任意の前のセッションの両方から)繰り返された。これは、同じ刺激ビデオに関して繰り返される測定値に対する必要性と、新規性に対する必要性をバランスさせた。繰り返される提示の学習効果をテストするために、この縦断的なサンプルの中の24ヶ月における末期の結果は、その年齢における横断的なサンプルの中の以前の結果と比較された。2x2の被験者間の要因的(factorial)ANOVAによってテストされ、縦断的−対−横断的なコホートの主効果は存在しなかったが(F1.57=0.052、P=0.820)、診断の有意な主効果は存在した(ASD対TD、F1.57=6.29、P=0.015)。
アイ・トラッキング・データ収集に関する2つのセッティングが、本研究において利用された。1つのアイ・トラッキング研究室は、2ヶ月から6ヶ月の間の月齢の乳児のために最適化され、第2のセッティングは、9ヶ月から36ヶ月の乳児及び幼児のために最適化された。2つのセッティングの間の主な区別は、より幼い乳児のために、(図3A、図3B、図3D、図3E、及び図3Fのデバイス100の実施形態に示されている座席101と同様の)リクライニング式のバシネットを使用することと、より年長の乳児及び幼児のために、(図2及び図3Cのデバイス100の実施形態に示されている座席101と同様の)車の座席を使用することであった。アイ・トラッキング・データ収集ハードウェア及びソフトウェアは、両方のセッティングにおいて同一であり、また、自動化された刺激提示、データ収集、及び分析のすべての態様も、同一であった。リクライニング式のバシネットの中の乳児による最適なアイ・イメージングを得るために、アイ・トラッキング・
カメラ及び赤外線光源が、テレプロンプターの中に隠されていた。幼児研究室では、アイ・トラッキング・カメラは、コンピュータ・ディスプレイ・モニタの下に装着されていた。ディスプレイ・モニタは、壁部パネルの中に面一に装着されていた。両方の研究室では、アイ・トラッキングは、60Hzで収集されたデータを用いて、Iスキャン社(ISCAN,Inc.)[米国マサチューセッツ州ウォーバーン(Woburn)所在]によって生成されたハードウェア及びソフトウェアによるビデオ・ベースの暗い瞳孔/角膜反射技法によって達成された。両方の研究室では、オーディオが、隠されたスピーカのセットを通して再生された。乳児は、修正されたトラベル・バシネットの中に設置され、ディスプレイ・モニタに対する乳児の眼の位置決めを標準化するために、それぞれのセッションの開始時に上昇及び低下させられたテーブルの上に装着されていた。幼児研究室では、子供たちは、ビデオが提示されるコンピュータ・スクリーンの前の車の座席の中に着席させられていた。乳児研究室の中のように、車の座席は、ディスプレイ・モニタに対するそれぞれの子供の眼の位置を標準化するために、上昇及び低下させられていた。
実験プロトコル
乳児及び幼児は、親又は主介護者によって常に同伴されていた。実験セッションを開始するために、子供たちのビデオがディスプレイ・モニタの上に再生されている間に、参加者(乳児又は幼児)及び介護者は、研究室部屋に入った。子供は、バシネット又は車の座席の中へバックルで留められた。次いで、ディスプレイ・モニタに対する位置が、座席又はバシネット場所を調節することによって、それぞれの子供のために標準化された。視聴者の眼は、ディスプレイ・モニタからおおよそ71.12センチメートル(28インチ)であり、ディスプレイ・モニタは、それぞれの視聴者の視野のおおよそ24°x32°部分を包んでいた。部屋の中のライトは薄暗くされ、ディスプレイ・モニタの上に提示される内容だけが容易に見られ得るようになっていた。検査の間に、実験者及び親の両方は、子供の視界から消えたが、アイ・トラッキング・カメラによって、及び、子供の全身イメージを撮影した第2のビデオ・カメラによって、子供を常にモニタリングすることができた。
眼球運動のデータ分析
特定の説明されている実験に関して、眼球運動の分析及び固視データのコーディングが、MATLAB(マス・ワークス社(Math Works))で書かれたソフトウェアを用いて行われた。分析の第1の局面は、まばたき、サッカード、及び、刺激提示スクリーンから離れるように方向付けされた固視を含む、非固視データの自動化された識別であった。サッカードは、30°/秒の閾値を使用して眼の速度によって識別された。実験は、上記に説明されている60Hzアイ・トラッキング・システムを用いて、及び、別々に、500Hzでデータを収集するアイ・トラッキング・システム(センサモータリック・インスツルメンツ・ゲーエムベーハー(SensoMotoric Instruments GmbH)[独国テルトー(Teltow)所在])を用いて、速度閾値をテストした。両方のケースにおいて、生の眼の位置データのハンド・コーディング、及び、子供の眼の高速ビデオの両方と比較して、均等な信頼性でサッカードが識別された。まばたきは、データの中で識別された。オフ・スクリーン固視(ビデオから離れる方を見たとき)は、刺激提示スクリーンを超える固視座標によって識別された。
縦断的なデータ分析
社会的な視覚注意の縦断的な発達を調査するために、個々の参加者に関して、ならびに、ASDグループ及びTDグループの両方にわたって、実験は、関数データ解析(FDA)、及び、条件付き期待値による主分析(PACE)を使用した(例示的な個々のフィットに関して図17D及び図17Eを参照、グループ結果に関して図18を参照、ならびに、図27を参照)。横断的な分析に固有の限界、及び、伝統的な成長曲線分析のいくつかの限界を克服するために、実験は、FDA/PACEに焦点を合わせたが、すべての分析は、(図24、図25、及び図26、ならびに、以下の表2に表現されているように)階層的線形モデリング(HLM)を使用して繰り返された。2つの方法は、(上記に説明されているような)同じパターンのグループ間の有意差を生み出したが、FDAアプローチが、一般的に好ましい。その理由は、伝統的な成長曲線分析は、発達タイムスケールの個々の差によって混乱させられ得るからであり、また、伝統的な成長曲線分析は、(これがデータ駆動型の方式で決定されることを可能にするというよりも、)根本的なパラメトリック・モデル又はセミ・パラメトリックモデルの正しい仮定を必要とすることが多いからである。それとは対照的に、FDA方法は、経験的に曲線形状を決定し、タイムスケール及び振幅の両方の統計的変動をモデル化する。また、FDAのPACE方法は、具体的には、縦断的な研究に関する共通の問題(とりわけ、値を消失するケースにおける不均一なサンプリング)を克服するように設計されている。PACEは、条件付き期待値に基づいて、全体の曲線形状の観点から、不規則にサンプリングされた縦断的なデータの統計的アンサンブルを特性評価する。これは、軌跡を横切る相関関係のパターンを検出する能力を最大化し、また、参加者ごとに種々の数の測定で、離散間隔でサンプリングされたデータの影響を最小化する。このアプローチは、軌跡形状の共通の特徴の検出をかなり改善する。
補足的実験情報
上記に述べられているように、現在説明されている実験は、本開示の特定の実施形態を実装してテストするための機構として行われた。しかし、理解及び認識されるように、この実験に関連する詳細、検査手法、参加者基準、及び他の情報は、単なる例示目的であることが意図されている。したがって、本明細書でとりわけ以下に説明されている実験詳細及び方法の特定の記載によって、本実施形態又は本開示の限定は意図されていない。
参加者詳細
組み入れ基準及び除外基準。参加している母親及び乳児は、母親が、彼ら自身に関する書面のインフォーム・ドコンセント、彼らの乳児に関する許可、ならびに、彼らの年長児に関する許可、及び/又は、年長児についての情報を提供する許可を提供した後に、この研究の中に含まれた。
下に説明されている。
めのそれぞれの子供の能力がテストされた。この手順は、眼球運動に影響を与える状況(たとえば、この研究において使用されたタイプの社会的な内容のビデオ・シーンを視覚的にじっと見る子供の能力に悪影響を与え得る状態(たとえば、眼振、デュアン(Duane)症候群、又は斜視など))の明らかな症状に対する基礎的なコントロールとして含まれた。子供たちは、そうでなければブランクのスクリーンの上の一連のアニメが使われたターゲットを示され、また、引き出された挙動(ターゲットに対してサッカードすること、及び、固視を維持すること)が、眼球運動機能の最小チェックとして、アイ・トラッキング機器を用いて測定された。子供たちは、ターゲットに対してサッカードすることができ、安定したフォビエイション(foveation)(視覚固視における5秒未満のドリフトとして定義される)を維持することができる場合には、子供たちはスクリーンをパスした。スクリーンは、それぞれの縦断的なビジットにおいて行われ、1つの例外(下記に説明されている)とともに、すべての子供たちはパスした。
Adaptive Behavior Scales−IIは、コミュニケーションのドメインの中の適応機能、日常生活の技能、社会化、及び運動技能の標準化された測定値を得るために、12ヶ月、18ヶ月、24ヶ月、及び36ヶ月において管理された。The Autism Diagnostic Interview−Revised(ADI−R)は、訓練された経験豊かなインタビュアーによって、トレーニング・サイトを用いて、確立された信頼性で、36ヶ月の月齢において、親に対して管理された。
障害を患う子供たちの臨床的評価における博士課程修了後の専門知識を備えており、監督する経験豊かな臨床医は、すべての診断手順、及び、プロトコルの全体を通して第5評価ごとに関する信頼性チェックのための共通コード化された診断器具を観察した。手順は、その後に続く再スコアリング、チェッキング、及び、研究持続時間の間の可能性のあるドリフトの訂正のために、ビデオテープに録画され、アーカイブに保管された。
1.48);ならびに、ADOS−Total(24ヶ月及び36ヶ月に関して、それぞれ、平均=11.45、SD=5.06、ならびに、平均=10.55、SD=4.20)のグループ測定値において有意差を明らかにしなかった。2年齢にわたるスコアの比較可能性を確実にするために、24ヶ月におけるADOSモジュール1と36ヶ月におけるADOSモジュール1との間で比較が行われた。3人のASDを患う子供たちを除くすべてが、ADOS−2を完了することができたが(すなわち、このモジュールの意味のある管理に関する表現言語基準を満たした)、彼らは、ADOS−1及びADOS−2の両方においてスコアした。その理由は、原則として、子供に対する要求がより高いので、より高いモジュールについてのスコアは、典型的により高い(すなわち、より大きい異常障害を示す)からである。
弟姉妹、及び、N=51のロー・リスク(LR−TDx)子供たちの最初に連続的に登録されたコホートについて行われた。12人のHR−ASD乳児が36ヶ月において確証的なASD診断を受けたときに、分析が行われた。N=110の合計のサンプル・サイズは、ASDに関するリスクがある乳児の他の著名な研究と良好に比較する。統計的パワーは、繰り返されるサンプリングによって増加させられた。これらの110子供たちは、960よりも多いビジット、及び、実験アイ・トラッキング・手順の7,893よりも多いトライアルを完了した。ASDの結末グループにおける男女比は、おおよそ予期された通りであり(男子対女子が10:2)、また、加えて、1人のLR−TDx乳児も、36ヶ月においてASD診断を受けた。合計で、N=11の男子のASDの子供たちが、36ヶ月において確認された。このサンプルは、絶対的には、依然として比較的に小さいが、1.18から1.26の範囲にあるCohen’s d値を備える、縦断的な眼、身体、及び物体の固視のグループ間の比較に関する有効サイズ(図18の中にプロットされている)は、差の検出のための十分なパワーを示す。加えて、このサンプルは、後にASDであると診断された子供たちに関する2ヶ月の月齢におけるデータとともにこれまでに収集された最大である。いくつかの他の著名な研究は、生後1年目のデータ収集を含んでいたが、生後6ヶ月及び/又は生後12ヶ月のみにおいてより頻繁であった。現在の研究は、より小さい全体的なサンプル・サイズであるがより頻繁のサンプリングを使用することによって、それらのアプローチを捕足し、400よりも多い成功したデータ収集セッションが、これらの乳児が6ヶ月の月齢に到達するときまでに完了した。
実験設計の選択における考慮事項。この研究の目標は、社会的異常障害の明白な症状の兆候の前の時点において、進化的に高度に保存された性能ベースの測定値、及び、典型的な社会的な適応の発達的に早期に出現する機構が、自閉症スペクトラム障害(ASD)において、どの程度混乱させられ得るかことをテストすることである。この目的のために、設計は、3つの主な特徴によってマークされて採用された。
6=0.202、P=0.65)、又は、時間による診断の交互作用(F1,130.551=0.027、P=0.87)のいずれかとして、グループ間で有意差はなかった。キャリブレーション精度の縦断的解析は、階層的線形モデリングによって行われ、キャリブレーション精度と年齢との間の関係は、逆関数としてモデル化された。intercept及びBという用語は、固着された効果としてモデル化されたが、グループによって変化することが許容された。自由度が、サタスウェイト(Satterthwaite)方法(等しい差異が仮定されない)によって計算された。
可能性)を生み出し、これらの確率から、単一のオッズ比が計算された。フィットしたROC曲線に関するブートストラップ95%信頼区間がコンピュータ計算された。
ある。言語又はコードは、コンパイラ型又はインタープリタ型の言語又はコードであることが可能である。プロセッサは、汎用マイクロプロセッサ及び専用マイクロプロセッサを含むことが可能である。プロセッサは、メモリから命令及びデータを受信する。コンピュータ・プログラム命令及びデータを有形に具体化するのに適切なストレージ・デバイスは、不揮発性のメモリの形態を含み、それは、例として、EPROM、EEPROM、及びフラッシュ・メモリ・デバイスなどのような半導体メモリ・デバイス;内部ハード・ディスク及びリムーバブル・ディスクなどのような磁気ディスク;光磁気ディスク;ならびにコンパクト・ディスクを含む。先述のもののいずれかは、ASIC(特定用途向け集積回路)によって補充され、又は、ASIC(特定用途向け集積回路)の中に組み込まれることが可能である。
Claims (87)
- 少なくとも2つのセッションの間に、長期間にわたる個人の視覚固視の変化を識別することに基づいて、発達的、認知的、社会的、又は精神的な、異常障害もしくは能力を評価し、モニタリングし、又は、診断するための方法において、
第1のセッションの間に、データ収集装置内で個人を位置決めする工程であって、前記装置は、前記個人に対して刺激を表示するためのディスプレイ・デバイス、及び、前記ディスプレイ・デバイスによって表示される前記刺激に応答して、前記個人の視覚固視を検出するためのセンサを有しており、前記個人は、前記ディスプレイ・デバイス及び前記センサに対して、前記データ収集装置の中で、ある向きで位置決めされ、それは、眼球運動データの収集を可能にする、データ収集装置内で個人を位置決めする工程と、
前記第1のセッションの間に、前記個人に対して、前記ディスプレイ・デバイスの上に第1の視覚刺激の表示を引き起こす工程と、
前記表示された第1の視覚刺激に関して前記個人の視覚固視を示す前記センサからの第1の眼球運動データを受信する工程と、
第2のセッションの間に、前記データ収集装置内で前記個人を位置決めする工程と、
前記第2のセッションの間に、前記個人に対して、前記ディスプレイ・デバイスの上に第2の視覚刺激の表示を引き起こす工程と、
前記表示された第2の視覚刺激に関して前記個人の視覚固視を示す前記センサからの第2の眼球運動データを受信する工程と、
プロセッサの上で実行するソフトウェアを介して、前記第1の眼球運動データを前記第2の眼球運動データと比較し、前記表示された第1の視覚刺激及び前記表示された第2の視覚刺激に対して、前記個人に関する視覚固視の変化を識別する工程と
からなり、
前記個人に関する長期間にわたる視覚固視の前記変化は、発達的、認知的、社会的、又は精神的な異常障害又は能力のマーカである、方法。 - 視覚固視の前記変化は、前記表示された第2の視覚刺激と比較して、前記表示された第1の視覚刺激に関する前記個人の視覚固視の低下からなる、請求項1に記載の方法。
- 前記表示された第2の視覚刺激と比較して、前記表示された第1の視覚刺激に関する前記個人の視覚固視の前記変化は、個人の比較グループにおいて測定される視覚固視の変化とは統計的に異なる視覚固視の変化からなる、請求項1又は2に記載の方法。
- 前記第1の眼球運動データ及び前記第2の眼球運動データは、前記表示された第1の視覚刺激及び前記表示された第2の視覚刺激の中の1つ又は複数の関心領域に関して、前記個人の視覚固視を示す視覚固視データを含む、請求項1〜3のいずれか1項に記載の方法。
- 前記1つ又は複数の関心領域は、空間的に事前定義されている、請求項4に記載の方法。
- 前記1つ又は複数の関心領域は、視覚的空間の1つ又は複数の離散領域からなる、請求項4又は5に記載の方法。
- 視覚的空間の前記1つ又は複数の離散領域は、95%統計的信頼を備える前記第1の眼球運動データ又は前記第2の眼球運動データの最小分解可能精度の少なくとも2倍に等しい視角の程度で測定される、請求項6に記載の方法。
- 前記第1の眼球運動データを前記第2の眼球運動データと比較する前記工程は、前記プロセッサの上で実行するソフトウェアを介して、前記表示された第1の視覚刺激及び前記表示された第2の視覚刺激の中の前記1つ又は複数の関心領域に関して、前記個人の視覚固
視のグラフィカルな表現を発生させる工程からさらになる、請求項4〜7のいずれか1項に記載の方法。 - 前記個人の視覚固視の前記グラフィカルな表現は、比較グループに対する差異の測定値をマークする1つ又は複数の段階的なラインからなる、請求項8に記載の方法。
- 視覚固視の前記変化は、前記1つ又は複数の関心領域に関して、前記個人の空間的な視覚固視の低下からなる、請求項4〜9のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、静的な視覚刺激、動的な視覚刺激、事前記録された視覚刺激、事前記録された視聴覚刺激、ライブの視覚刺激、ライブの視聴覚刺激、2次元の刺激、又は、3次元の刺激のうちの1つ又は複数からなる、請求項1〜10のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で特定の眼球運動応答を引き出すために正規化される、請求項1〜11のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で離散的な時空間的な場所に対して眼球運動応答を引き出す、請求項1〜11のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、前記個人に関する最小眼球運動固視持続時間の少なくとも半分に等しい測定可能な提示持続時間を有している、請求項1〜13のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激と同じである、請求項1〜14のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激とは異なっている、請求項1〜13のいずれか1項に記載の方法。
- 前記データ収集装置は、具体的には、月齢24ヶ月未満の個人に適合されている、請求項1〜15のいずれか1項に記載の方法。
- 前記データ収集装置は、具体的には、月齢6ヶ月未満の個人に適合されている、請求項1〜16のいずれか1項に記載の方法。
- 前記第1のセッション及び前記第2のセッションは、前記個人の以下の月齢、すなわち、月齢2ヶ月、月齢3ヶ月、月齢4ヶ月、月齢5ヶ月、月齢6ヶ月、月齢9ヶ月、月齢12ヶ月、月齢15ヶ月、月齢18ヶ月、及び月齢24ヶ月のうちの2つにおいて起こる、請求項1〜17のいずれか1項に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイス及び前記センサに対する前記向きで前記個人を着席させて縛り付けるためのサポート・デバイスを含む、請求項1〜19のいずれか1項に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対して前記個人を直線的に位置決めするためのサポート・デバイスを含み、前記眼球運動センサの利用可能な動的な焦点範囲が最大化されている間に、前記ディスプレイ・デバイスから前記個人の眼への直線距離
が最小化されるようになっている、請求項1〜20のいずれか1項に記載の方法。 - 前記直線距離は、約40〜80cmの範囲にあり、前記利用可能な動的な焦点範囲は、約50〜70cmにある、請求項21に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対してある回転位置に、前記個人の頭部及び眼を回転して位置決めするためのサポート・デバイスを含み、まぶたによる角膜の閉鎖が最小化又は排除されている間に、前記まぶたの分離が、まばたきをしていないときに、最も幅の広い物理的な距離に最大化されるようになっている、請求項1〜22のいずれか1項に記載の方法。
- 前記ディスプレイ・デバイスに対する前記個人の前記頭部の前記回転位置は、約0〜24度の範囲において前方に及び下向きに傾けられる、請求項23に記載の方法。
- 前記センサは、アイ・トラッキング・デバイスからなる、請求項1〜24のいずれか1項に記載の方法。
- 前記データ収集装置内で前記個人を位置決めする工程は、前記ディスプレイ・デバイス及び前記センサから約60cmに前記個人の眼を位置決めする工程と、約12度に前方に及び下向きに傾けられた角度で前記個人の前記頭部を位置決めする工程と、位置を維持するために、前記データ収集装置の頭部及び首部サポートを安定化させる工程とからさらになる、請求項1〜25のいずれか1項に記載の方法。
- 前記第1のセッション及び第2のセッションは、所定の時間期間によって分離されている、請求項1〜26のいずれか1項に記載の方法。
- 前記所定の時間期間は、少なくとも1つの暦月である、請求項27に記載の方法。
- 前記第1の眼球運動データ及び第2の眼球運動データのうちの少なくとも一方をスクラブし、不十分なデータ収集、及び質の悪いデータのうちの少なくとも一方に基づく質の悪いデータ点を除去する工程をさらに備える、請求項1〜28のいずれか1項に記載の方法。
- 長期間にわたる個人の視覚固視の変化を識別するための方法において、
第1の視覚刺激に対する個人の視覚固視を示すアイ・トラッキング・デバイスから収集された第1のデータ・セットを受信する工程であって、前記個人の視覚固視は、前記第1の視覚刺激の中の少なくとも1つの空間的な関心領域に対応している、第1のデータ・セットを受信する工程と、
第2の視覚刺激に対する前記個人の視覚固視を示す前記アイ・トラッキング・デバイスから収集された第2のデータ・セットを受信する工程であって、前記個人の視覚固視は、前記第2の視覚刺激の中の少なくとも1つの空間的な関心領域に対応しており、前記第2のデータ・セットは、第2のセッションの間に収集され、前記第2のセッションは、前記第1のデータ・セットが収集された第1のセッションの後で行われる、第2のデータ・セットを受信する工程と、
プロセッサの上で実行するソフトウェアを介して、前記第1のデータ・セット及び前記第2のデータ・セットの表現を発生させる工程であって、前記表現は、前記少なくとも1つの空間的な関心領域に対する視覚固視を実証している、前記第1のデータ・セット及び前記第2のデータ・セットの表現を発生させる工程と、
プロセッサの上で実行するソフトウェアを介して、前記第1のデータ・セット及び前記第2のデータ・セットの前記表現に基づいて、前記第1のセッションから前記第2のセッションへの、前記個人に関する視覚固視の変化率を計算する工程と
からなり、
前記第1のセッションから前記第2のセッションへの、前記個人に関する視覚固視の前記変化率は、発達的、認知的、社会的、又は精神的な異常障害又は能力のマーカである、方法。 - 前記少なくとも1つの空間的な関心領域は事前定義されている、請求項30に記載の方法。
- 前記少なくとも1つの空間的な関心領域は、視覚的空間の少なくとも1つの離散領域からなる、請求項30又は31に記載の方法。
- 視覚的空間の前記少なくとも1つの離散領域は、95%統計的信頼を備える前記第1のデータ・セット又は前記第2のデータ・セットの最小分解可能精度の少なくとも2倍に等しい視角の程度で測定される、請求項32に記載の方法。
- 視覚固視の前記変化率は、前記少なくとも1つの空間的な関心領域に対する前記個人の視覚固視の低下からなる、請求項30〜33のいずれか1項に記載の方法。
- 前記個人の視覚固視の前記変化率は、個人の比較グループにおいて測定される視覚固視の変化とは統計的に異なる視覚固視の偏差からなる、請求項30〜34のいずれか1項に記載の方法。
- 前記表現は、前記第1のセッションから前記第2のセッションへの前記個人の視覚固視のグラフィカルな表現からなる、請求項30〜35のいずれか1項に記載の方法。
- 前記個人の視覚固視の前記グラフィカルな表現は、比較グループに対する差異の測定値をマークする1つ又は複数の段階的なラインからなる、請求項36に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、静的な視覚刺激、動的な視覚刺激、事前記録された視覚刺激、事前記録された視聴覚刺激、ライブの視覚刺激、ライブの視聴覚刺激、2次元の刺激、又は、3次元の刺激のうちの1つ又は複数からなる、請求項30〜37のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で特定の眼球運動応答を引き出すために正規化される、請求項30〜38のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で離散的な時空間的な場所に対して眼球運動応答を引き出す、請求項30〜38のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、前記個人に関する最小眼球運動固視持続時間の少なくとも半分に等しい測定可能な提示持続時間を有している、請求項30〜40のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激と同じである、請求項30〜41のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激とは異なっている、請求項30〜41のいずれか1項に記載の方法。
- 前記第1のデータ・セット及び前記第2のデータ・セットは、データ収集装置を介して収集され、前記データ収集装置内では、データ収集の間に、前記個人が位置決めされる、請求項30〜43のいずれか1項に記載の方法。
- 前記データ収集装置は、具体的には、月齢24ヶ月未満の個人に適合されている、請求項44に記載の方法。
- 前記データ収集装置は、具体的には、月齢6ヶ月未満の個人に適合されている、請求項44に記載の方法。
- 前記データ収集装置は、前記アイ・トラッキング・デバイスに対して所定の向きで前記個人を着席させて縛り付けるためのサポート・デバイスと、前記第1の視覚刺激及び前記第2の視覚刺激を表示するためのディスプレイ・デバイスとを含む、請求項44〜46のいずれか1項に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対して前記個人を直線的に位置決めするためのサポート・デバイスを含み、前記アイ・トラッキング・デバイスの利用可能な動的な焦点範囲が最大化されている間に、前記ディスプレイ・デバイスから前記個人の眼への直線距離が最小化されるようになっている、請求項44〜47のいずれか1項に記載の方法。
- 前記直線距離は、約40〜80cmの範囲にあり、前記利用可能な動的な焦点範囲は、約50〜70cmである、請求項48に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対してある回転位置に、前記個人の頭部及び眼を回転して位置決めするためのサポート・デバイスを含み、まぶたによる角膜の閉鎖が最小化又は排除されている間に、前記まぶたの分離が、まばたきをしていないときに、最も幅の広い物理的な距離に最大化されるようになっている、請求項44〜49のいずれか1項に記載の方法。
- 前記ディスプレイ・デバイスに対する前記個人の前記頭部の前記回転位置は、約0〜24度の範囲において前方に及び下向きに傾けられる、請求項50に記載の方法。
- 前記所定の向きは、前記個人の位置からなり、前記個人の眼が、前記ディスプレイ・デバイス及び前記アイ・トラッキング・デバイスから約60cmにあるようになっており、前記個人の前記頭部が、約12度に前方に及び下向きの角度で傾けられるようになっており、前記位置が、頭部及び首部サポートによって維持されるようになっている、請求項47〜57のいずれか1項に記載の方法。
- 前記第1のセッション及び前記第2のセッションは、前記個人の以下の月齢、すなわち、月齢2ヶ月、月齢3ヶ月、月齢4ヶ月、月齢5ヶ月、月齢6ヶ月、月齢9ヶ月、月齢12ヶ月、月齢15ヶ月、月齢18ヶ月、及び月齢24ヶ月のうちの2つにおいて起こる、請求項30〜52のいずれか1項に記載の方法。
- 前記第1のセッション及び第2のセッションは、所定の時間期間によって分離されている、請求項30〜53のいずれか1項に記載の方法。
- 前記所定の時間期間は、少なくとも1つの暦月である、請求項54に記載の方法。
- 前記第1のデータ・セット及び前記第2のデータ・セットのうちの少なくとも一方をスクラブし、不十分なデータ収集及びデータ・キャリブレーションのうちの少なくとも一方に基づく質の悪いデータ点を除去する工程をさらに備える、請求項30〜55のいずれか1項に記載の方法。
- 少なくとも2つのセッションの間に、長期間にわたる個人の視覚固視の変化率に基づいて、発達的、認知的、社会的、又は精神的な、異常障害もしくは能力を評価し、モニタリングし、又は、診断するための方法において、
第1のセッションの間に、データ収集装置内で個人を位置決めする工程であって、前記装置は、前記個人に対して刺激を表示するためのディスプレイ・デバイス、及び、前記ディスプレイ・デバイスによって表示される前記刺激に応答して、前記個人の視覚固視を検出するためのセンサを有しており、前記個人は、前記ディスプレイ・デバイス及び前記センサに対して、前記データ収集装置の中で、ある向きで位置決めされ、それは、眼球運動データの収集を可能にする、データ収集装置内で個人を位置決めする工程と、
前記第1のセッションの間に、前記個人に対して、前記ディスプレイ・デバイスの上に第1の視覚刺激の表示を引き起こす工程と、
前記表示された第1の視覚刺激に関して前記個人の視覚固視を示す前記センサからの第1の眼球運動データを受信する工程と、
第2のセッションの間に、前記データ収集装置内で前記個人を位置決めする、工程と、
前記第2のセッションの間に、前記個人に対して、前記ディスプレイ・デバイスの上に第2の視覚刺激の表示を引き起こす工程と、
前記表示された第2の視覚刺激に関して前記個人の視覚固視を示す前記センサからの第2の眼球運動データを受信する工程と、
プロセッサの上で実行するソフトウェアを介して、前記第1の眼球運動データ及び前記第2の眼球運動データの表現を発生させる工程であって、前記表現は、前記第1のセッションから前記第2のセッションへの、前記個人に関する視覚固視の変化率を実証する、前記第1の眼球運動データ及び前記第2の眼球運動データの表現を発生させる工程と、
前記プロセッサの上で実行するソフトウェアを介して、前記表示された第1の視覚刺激及び前記表示された第2の視覚刺激に対する比較グループに関する視覚固視の変化率の比較表現を検索する工程と、
前記プロセッサの上で実行するソフトウェアを介して、前記個人に関する視覚固視の前記変化率を、前記比較グループに関する視覚固視の前記変化率と比較し、前記個人に関する視覚固視の前記変化率が前記比較グループに関する視覚固視の前記変化率の所定の範囲から外れるかどうかを決定し、それによって、前記個人が、発達的、認知的、又は精神的な異常障害又は能力を有する可能性を示す工程と
からなる、方法。 - 前記比較表現は、前記比較グループのそれぞれの部材に関して第1のセッション及び第2のセッションにわたってプロットされている、前記比較グループに関する視覚固視の平均変化率からなる、請求項57に記載の方法。
- 前記比較グループのそれぞれの部材に関して第1のセッション及び第2のセッションにわたって3次元のスキャン経路としてプロットされている、前記比較グループに関する視覚固視の包括的な変化率からなる、請求項57又は58に記載の方法。
- 視覚固視の前記変化は、前記表示された第2の視覚刺激と比較して、前記表示された第1の視覚刺激に関する前記個人の視覚固視の低下からなる、請求項57〜59のいずれか1項に記載の方法。
- 前記個人の視覚固視の前記変化率は、個人の比較グループにおいて測定される視覚固視の
変化とは統計的に異なる視覚固視の偏差からなる、請求項57〜60のいずれか1項に記載の方法。 - 前記第1の眼球運動データ及び前記第2の眼球運動データは、前記表示された第1の視覚刺激及び前記表示された第2の視覚刺激の中の1つ又は複数の関心領域に関して、前記個人の視覚固視を示す視覚固視データを含む、請求項57〜61のいずれか1項に記載の方法。
- 前記1つ又は複数の関心領域は、空間的に事前定義されている、請求項62に記載の方法。
- 前記1つ又は複数の関心領域は、視覚的空間の1つ又は複数の離散領域からなる、請求項63に記載の方法。
- 視覚的空間の前記1つ又は複数の離散領域は、95%統計的信頼を備える前記第1の眼球運動データ又は前記第2の眼球運動データの最小分解可能精度の少なくとも2倍に等しい視角の程度で測定される、請求項64に記載の方法。
- 前記個人の視覚固視の前記グラフィカルな表現は、比較グループに対する差異の測定値をマークする1つ又は複数の段階的なラインからなる、請求項57〜65のいずれか1項に記載の方法。
- 視覚固視の前記変化率は、前記1つ又は複数の関心領域に関して、前記個人の空間的な視覚固視の低下からなる、請求項62〜66のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、静的な視覚刺激、動的な視覚刺激、事前記録された視覚刺激、事前記録された視聴覚刺激、ライブの視覚刺激、ライブの視聴覚刺激、2次元の刺激、又は、3次元の刺激のうちの1つ又は複数からなる、請求項57〜67のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で特定の眼球運動応答を引き出すために正規化される、請求項57〜68のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、95%よりも大きい統計的信頼で離散的な時空間的な場所に対して眼球運動応答を引き出す、請求項57〜68のいずれか1項に記載の方法。
- 前記第1の視覚刺激及び前記第2の視覚刺激のうちの少なくとも一方は、前記個人に関する最小眼球運動固視持続時間の少なくとも半分に等しい測定可能な提示持続時間を有している、請求項57〜70のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激と同じである、請求項57〜71のいずれか1項に記載の方法。
- 前記第1の視覚刺激は、前記第2の視覚刺激とは異なっている、請求項57〜71のいずれか1項に記載の方法。
- 前記データ収集装置は、具体的には、月齢24ヶ月未満の個人に適合されている、請求項57〜73のいずれか1項に記載の方法。
- 前記データ収集装置は、具体的には、月齢6ヶ月未満の個人に適合されている、請求項57〜73のいずれか1項に記載の方法。
- 前記第1のセッション及び前記第2のセッションは、前記個人の以下の月齢、すなわち、月齢2ヶ月、月齢3ヶ月、月齢4ヶ月、月齢5ヶ月、月齢6ヶ月、月齢9ヶ月、月齢12ヶ月、月齢15ヶ月、月齢18ヶ月、及び月齢24ヶ月のうちの2つにおいて起こる、請求項57〜74のいずれか1項に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイス及び前記センサに対する前記向きで前記個人を着席させて縛り付けるためのサポート・デバイスを含む、請求項57〜76のいずれか1項に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対して前記個人を直線的に位置決めするためのサポート・デバイスを含み、前記眼球運動センサの利用可能な動的な焦点範囲が最大化されている間に、前記ディスプレイ・デバイスから前記個人の眼への直線距離が最小化されるようになっている、請求項57〜77のいずれか1項に記載の方法。
- 前記直線距離は、約40〜80cmの範囲にあり、前記利用可能な動的な焦点範囲は、約50〜70cmである、請求項78に記載の方法。
- 前記データ収集装置は、前記ディスプレイ・デバイスに対してある回転位置に、前記個人の頭部及び眼を回転して位置決めするためのサポート・デバイスを含み、まぶたによる角膜の閉鎖が最小化又は排除されている間に、前記まぶたの分離が、まばたきをしていないときに、最も幅の広い物理的な距離に最大化されるようになっている、請求項57〜79のいずれか1項に記載の方法。
- 前記頭部の前記回転位置は、約0〜24度の範囲において前方に及び下向きに傾けられる、請求項80に記載の方法。
- 前記センサは、アイ・トラッキング・デバイスからなる、請求項57〜81のいずれか1項に記載の方法。
- 前記データ収集装置内で前記個人を位置決めする前記工程は、前記ディスプレイ・デバイス及びセンサから約60cmに前記個人の眼を位置決めする工程と、12度前方及び下向きに傾けられた角度で前記個人の前記頭部を位置決めする工程と、位置を維持するために、前記データ収集装置の頭部及び首部サポートを安定化させる工程とからさらになる、請求項57〜82のいずれか1項に記載の方法。
- 前記第1のセッション及び第2のセッションは、所定の時間期間によって分離されている、請求項57〜83のいずれか1項に記載の方法。
- 前記所定の時間期間は、少なくとも1つの暦月である、請求項84に記載の方法。
- 前記第1の眼球運動データ及び第2の眼球運動データのうちの少なくとも一方をスクラブし、不十分なデータ収集及び質の悪いデータ・キャリブレーションのうちの少なくとも一方に基づく質の悪いデータ点を除去する工程をさらに含む、請求項57〜85のいずれか1項に記載の方法。
- 複数のセッションの間に、長期間にわたる個人の視覚固視の変化率に基づいて、発達的、
認知的、社会的、又は精神的な障害を評価し、モニタリングし、又は、診断するための方法において、
(a)セッションの間に、データ収集装置内で個人を位置決めする工程であって、前記装置は、前記個人に対して刺激を表示するためのディスプレイ・デバイス、及び、前記ディスプレイ・デバイスによって表示される前記刺激に応答して、前記個人の視覚固視を検出するためのアイ・トラッキング・デバイスを有しており、前記個人は、前記ディスプレイ・デバイス及び前記アイ・トラッキング・デバイスに対して、前記データ収集装置の中で、ある向きで位置決めされ、それは、眼球運動データの収集を可能にする、データ収集装置内で個人を位置決めする工程と、
(b)前記セッションの間に、前記個人に対して、前記ディスプレイ・デバイスの上にキャリブレーション・イメージの表示を引き起こす工程であって、前記キャリブレーション・イメージは、空間的な関心領域に前記個人の前記注意を引くために使用され、前記空間的な関心領域は、前記個人の視覚固視をキャリブレートする目的のために、前記ディスプレイ・デバイスの上の前記キャリブレーション・イメージに関連付けされる、前記ディスプレイ・デバイスの上にキャリブレーション・イメージの表示を引き起こす工程と、
(c)前記セッションの間に、及び、前記個人に対して、前記ディスプレイ・デバイスの上に前記キャリブレーション・イメージの表示を引き起こした後に、前記個人に対して、前記ディスプレイ・デバイスの上に視聴覚刺激の表示を引き起こす工程であって、前記視聴覚刺激は、介護者を演じる俳優の少なくとも1つのシーンからなる、前記ディスプレイ・デバイスの上に視聴覚刺激の表示を引き起こす工程と、
(d)前記個人に対して前記視聴覚刺激の表示を引き起こす工程に応答して、前記アイ・トラッキング・デバイスから眼球運動データを受信する工程であって、前記アイ・トラッキング・デバイスは、前記表示された視覚刺激の中で前記介護者を演じる前記俳優の眼に関連付けされる特定の空間的な関心領域に対する前記個人の視覚固視を示す、前記アイ・トラッキング・デバイスから眼球運動データを受信する工程と、
(e)前記個人の生後24ヶ月内に複数のセッションに関して工程a〜dを繰り返す工程であって、それぞれのセッションは、少なくとも約1ヶ月だけ分離されている、工程a〜dを繰り返す工程と、
(f)工程a〜eが完了すると、プロセッサの上で実行するソフトウェアを介して、前記複数のセッションにわたる前記受信された眼球運動データの表現を発生させる工程であって、前記表現は、前記複数のセッションにわたる前記個人に関する視覚固視の変化率を実証する、眼球運動データの表現を発生させる工程と、
(g)前記プロセッサの上で実行するソフトウェアを介して、同程度の複数のセッションに対する比較グループに関する視覚固視の変化率の比較表現を検索する工程と、
(h)前記プロセッサの上で実行するソフトウェアを介して、前記個人に関する視覚固視の前記変化率を、前記比較グループに関する視覚固視の前記変化率と比較し、前記個人に関する視覚固視の前記変化率が前記比較グループに関する視覚固視の前記変化率の所定の範囲から外れるかどうかを決定し、それによって、前記個人が、発達的、認知的、社会的、又は精神的な障害を有する可能性を示す工程と
からなる、方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361892300P | 2013-10-17 | 2013-10-17 | |
US201361892301P | 2013-10-17 | 2013-10-17 | |
US61/892,301 | 2013-10-17 | ||
US61/892,300 | 2013-10-17 | ||
PCT/US2014/055008 WO2015057321A1 (en) | 2013-10-17 | 2014-09-10 | Methods for assessing infant and child development via eye tracking |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016537067A true JP2016537067A (ja) | 2016-12-01 |
JP2016537067A5 JP2016537067A5 (ja) | 2017-10-26 |
JP6797683B2 JP6797683B2 (ja) | 2020-12-09 |
Family
ID=51656060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016524130A Active JP6797683B2 (ja) | 2013-10-17 | 2014-09-10 | 乳児及び子供の発達をアイ・トラッキングによって評価するための方法 |
Country Status (13)
Country | Link |
---|---|
US (5) | US10617295B2 (ja) |
EP (1) | EP3057508B1 (ja) |
JP (1) | JP6797683B2 (ja) |
KR (1) | KR20160106552A (ja) |
CN (1) | CN105873515B (ja) |
AU (1) | AU2014334870B2 (ja) |
BR (1) | BR112016008676A8 (ja) |
CA (1) | CA2927583C (ja) |
ES (1) | ES2848833T3 (ja) |
IL (1) | IL245153B (ja) |
MX (1) | MX2016004899A (ja) |
SG (1) | SG11201602944YA (ja) |
WO (1) | WO2015057321A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180083252A (ko) * | 2015-08-15 | 2018-07-20 | 구글 엘엘씨 | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 |
KR20200059509A (ko) * | 2018-11-21 | 2020-05-29 | 네이버웹툰 주식회사 | 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말 |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013105114A2 (en) * | 2011-12-05 | 2013-07-18 | Gautam Singh | A computer implemented system and method for statistically assessing co-scholastic skills of a user |
JP6559062B2 (ja) | 2012-03-26 | 2019-08-14 | ニューヨーク ユニバーシティ | 中枢神経系の完全性を評価するための方法およびキット |
JP6676522B2 (ja) | 2013-06-17 | 2020-04-08 | ニューヨーク ユニバーシティ | 対象における眼球運動を追跡するためのデバイスの作動方法、および当該デバイスによって追跡された眼球運動のデータの中枢神経系病変を位置特定するための使用方法 |
KR20150101915A (ko) * | 2014-02-27 | 2015-09-04 | 삼성전자주식회사 | 3차원 gui 화면의 표시 방법 및 이를 수행하기 위한 디바이스 |
AU2015301370B2 (en) | 2014-08-04 | 2020-04-30 | New York University | Methods and kits for diagnosing, assessing or quantitating drug use, drug abuse and narcosis, internuclear ophthalmoplegia, attention deficit hyperactivity disorder (ADHD), chronic traumatic encephalopathy, schizophrenia spectrum disorders and alcohol consumption |
US9771092B2 (en) * | 2015-10-13 | 2017-09-26 | Globus Medical, Inc. | Stabilizer wheel assembly and methods of use |
PL414836A1 (pl) * | 2015-11-18 | 2017-05-22 | Assistech Spółka Z Ograniczona Odpowiedzialnością | Układ i sposób wspomagania oceny stanu neurologicznego i wspomagania prowadzenia rehabilitacji neurologicznej, zwłaszcza funkcji poznawczych i/lub językowych |
JP6693105B2 (ja) * | 2015-12-01 | 2020-05-13 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
CA3032606A1 (en) | 2016-08-02 | 2018-02-08 | New York University | Methods and kits for assessing neurological function and localizing neurological lesions |
US10863902B2 (en) | 2016-10-03 | 2020-12-15 | Oculogica Inc. | Method for detecting glaucoma |
EP3551036B1 (en) * | 2016-12-07 | 2023-11-15 | Auckland Uniservices Limited | Stimulus, eye tracking system and method |
US11141095B2 (en) | 2017-02-17 | 2021-10-12 | Oculogica Inc. | Method and system for detecting concussion |
US20200058384A1 (en) * | 2017-03-07 | 2020-02-20 | Sony Olympus Medical Solutions Inc. | Medical information management apparatus, medical information management method, and medical information management system |
CN109276228B (zh) * | 2017-07-21 | 2020-12-25 | 成都集思鸣智科技有限公司 | 一种检测大脑功能的系统及其装置 |
US11113985B2 (en) * | 2017-08-30 | 2021-09-07 | Focus Reading Technology Inc. | Visual acuity measurement apparatus |
CN107595248A (zh) * | 2017-08-31 | 2018-01-19 | 郭淳 | 一种检测和评价儿童生长发育状况的方法和系统 |
WO2019055504A1 (en) * | 2017-09-13 | 2019-03-21 | Oculogica Inc. | EYE TRACKING SYSTEM |
CN110096936B (zh) * | 2018-01-31 | 2023-03-03 | 伽蓝(集团)股份有限公司 | 评估眼部表观年龄、眼部衰老程度的方法及其应用 |
CN108542404B (zh) * | 2018-03-16 | 2021-02-12 | 成都虚实梦境科技有限责任公司 | 注意力评估装置、vr设备及可读存储介质 |
US11024329B2 (en) | 2018-03-28 | 2021-06-01 | International Business Machines Corporation | Word repetition in separate conversations for detecting a sign of cognitive decline |
CN109712710B (zh) * | 2018-04-26 | 2023-06-20 | 南京大学 | 一种基于三维眼动特征的婴幼儿发育障碍智能评估方法 |
US11388118B2 (en) | 2018-05-11 | 2022-07-12 | International Business Machines Corporation | Transmission of a message based on a determined cognitive context |
EP3591665A1 (en) | 2018-07-05 | 2020-01-08 | Universite Libre De Bruxelles | Method for evaluating a risk of neurodevelopmental disorder with a child |
EP3591664A1 (en) * | 2018-07-05 | 2020-01-08 | Université Libre de Bruxelles (ULB) | Method for evaluating a risk of neurodevelopmental disorder with a child |
JP2018202191A (ja) * | 2018-08-10 | 2018-12-27 | 株式会社東芝 | アイウエア、データ収集システム及びデータ収集方法 |
CN109271030B (zh) * | 2018-09-25 | 2020-12-22 | 华南理工大学 | 一种三维空间下注视点轨迹多维度比较方法 |
US11804304B2 (en) * | 2019-04-23 | 2023-10-31 | Washington State University | Method and software for assessing neurodevelopmental abnormalities |
WO2020227703A1 (en) * | 2019-05-09 | 2020-11-12 | The Cleveland Clinic Foundation | Adaptive psychological assessment tool |
US10997773B2 (en) * | 2019-06-13 | 2021-05-04 | Facebook Technologies, Llc | Dynamic tiling for foveated rendering |
US20220360847A1 (en) * | 2019-06-25 | 2022-11-10 | The Regents Of The University Of California | Systems and methods for characterizing joint attention during real world interaction |
CN110298303B (zh) * | 2019-06-27 | 2022-03-25 | 西北工业大学 | 一种基于长短时记忆网络扫视路径学习的人群识别方法 |
CN110313923B (zh) * | 2019-07-05 | 2022-08-16 | 昆山杜克大学 | 基于联合注意能力测试和音视频行为分析的孤独症早期筛查系统 |
WO2021016487A1 (en) * | 2019-07-23 | 2021-01-28 | Broadspot Imaging Corp | Carousel guidance for optical imaging devices |
US11099642B2 (en) * | 2019-08-01 | 2021-08-24 | International Business Machines Corporation | Display adaptation for visual impairment |
US20220157142A1 (en) * | 2019-10-23 | 2022-05-19 | Yehiel Freisler | Safety apparatus for infant bed |
US11176637B2 (en) | 2019-12-03 | 2021-11-16 | Facebook Technologies, Llc | Foveated rendering using eye motion |
CN115039012A (zh) | 2020-01-31 | 2022-09-09 | 奇跃公司 | 用于测眼评估的增强和虚拟现实显示系统 |
CN113362961B (zh) * | 2020-03-05 | 2024-07-09 | 北京力泰克科技有限公司 | 自闭症快速筛查系统 |
KR102496834B1 (ko) * | 2020-11-20 | 2023-02-08 | 한국과학기술원 | 정신 질환 진단 프로토콜 자동 탐색을 위한 컴퓨터 시스템 및 그의 방법 |
CN113081718B (zh) * | 2021-04-12 | 2022-05-20 | 广东视明科技发展有限公司 | 基于生物机制刺激配合的综合视觉训练系统 |
US11503998B1 (en) | 2021-05-05 | 2022-11-22 | Innodem Neurosciences | Method and a system for detection of eye gaze-pattern abnormalities and related neurological diseases |
EP4197425A1 (en) * | 2021-12-17 | 2023-06-21 | Carl Zeiss Vision International GmbH | Determining a visual performance of an eye of a person |
US11556174B1 (en) * | 2022-03-30 | 2023-01-17 | Motorola Mobility Llc | Monitoring system having contextual gaze-detection-based selection/triggering of caregiver functions |
US11903711B2 (en) * | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
CN115990016B (zh) * | 2022-12-02 | 2024-04-19 | 天津大学 | 一种基于眼动特征的孤独特质程度检测装置 |
WO2024148094A1 (en) * | 2023-01-03 | 2024-07-11 | The Regents Of The University Of California | Methods for early-age eye-tracking biomarker for autism spectrum disorder |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62249637A (ja) * | 1986-01-28 | 1987-10-30 | ジヨ−ジ パブリテイス | 神経障害の決定方法および装置 |
JP2002360518A (ja) * | 2001-05-25 | 2002-12-17 | Eastman Kodak Co | 眼球のサッケード運動によりadhdを検出する装置 |
JP2011206542A (ja) * | 2010-03-30 | 2011-10-20 | National Univ Corp Shizuoka Univ | 自閉症診断支援用装置 |
WO2013035684A1 (ja) * | 2011-09-05 | 2013-03-14 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
WO2013141098A1 (ja) * | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4474186A (en) | 1979-07-17 | 1984-10-02 | Georgetown University | Computerized electro-oculographic (CEOG) system with feedback control of stimuli |
US5035500A (en) | 1988-08-12 | 1991-07-30 | Rorabaugh Dale A | Automated ocular perimetry, particularly kinetic perimetry |
US5150716A (en) | 1991-01-28 | 1992-09-29 | Emile Franssen | System for diagnosis and staging of dementia by neurologic examination |
US5384593A (en) | 1993-08-05 | 1995-01-24 | Gell, Jr.; Harold A. | Method and apparatus for reflex blink reaction conditioning |
US5880812A (en) | 1997-03-13 | 1999-03-09 | Ramot-University Authority For Applied Research And Industrial Development, Ltd. | Method and apparatus for evaluating and mapping visual field |
AU1091099A (en) | 1997-10-16 | 1999-05-03 | Board Of Trustees Of The Leland Stanford Junior University | Method for inferring mental states from eye movements |
WO1999052419A1 (en) | 1998-04-10 | 1999-10-21 | Visual Resources, Inc. | Method and apparatus for training visual attention capabilities of a subject |
CA2372376C (en) | 1998-04-29 | 2007-11-20 | Carnegie Mellon University | Apparatus and method of monitoring a subject's eyes using two different wavelengths of light |
US6106119A (en) | 1998-10-16 | 2000-08-22 | The Board Of Trustees Of The Leland Stanford Junior University | Method for presenting high level interpretations of eye tracking data correlated to saved display images |
US6116746A (en) | 1998-10-19 | 2000-09-12 | Chang-Hsing Yeh | Tool having a light device |
CA2298515A1 (en) | 1999-02-11 | 2001-08-10 | Queen's University At Kingston | Method and apparatus for detecting eye movement |
US6116736A (en) | 1999-04-23 | 2000-09-12 | Neuroptics, Inc. | Pupilometer with pupil irregularity detection capability |
US6402320B1 (en) * | 1999-08-09 | 2002-06-11 | Childrens Hospital Los Angeles | Methods and apparatus for measuring visual acuity in preverbal children |
US6120461A (en) | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
JP4817582B2 (ja) | 2000-04-17 | 2011-11-16 | ザ・ユニバーシティー・オブ・シドニー | 視覚機能の対物電気生理学的評価方法および装置 |
US6601021B2 (en) | 2000-12-08 | 2003-07-29 | Xerox Corporation | System and method for analyzing eyetracker data |
EP1219243A1 (en) * | 2000-12-28 | 2002-07-03 | Matsushita Electric Works, Ltd. | Non-invasive brain function examination |
US6670963B2 (en) | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
EP1357831A2 (en) | 2001-02-09 | 2003-11-05 | Sensomotoric Instruments GmbH | Multidimensional eye tracking and position measurement system |
US20020154833A1 (en) | 2001-03-08 | 2002-10-24 | Christof Koch | Computation of intrinsic perceptual saliency in visual environments, and applications |
US6752498B2 (en) | 2001-05-14 | 2004-06-22 | Eastman Kodak Company | Adaptive autostereoscopic display system |
US6712468B1 (en) | 2001-12-12 | 2004-03-30 | Gregory T. Edwards | Techniques for facilitating use of eye tracking data |
US6755527B1 (en) | 2001-12-14 | 2004-06-29 | Oracle International Corporation | Techniques for analyzing eye movements |
JP3625064B2 (ja) | 2002-06-28 | 2005-03-02 | 独立行政法人理化学研究所 | 眼底の立体表示および座標計測装置 |
US20040015098A1 (en) | 2002-07-19 | 2004-01-22 | Souvestre Philippe A. | Dynamic ocular visual monitoring system |
US6896655B2 (en) | 2002-08-05 | 2005-05-24 | Eastman Kodak Company | System and method for conditioning the psychological state of a subject using an adaptive autostereoscopic display |
US7892180B2 (en) | 2002-11-18 | 2011-02-22 | Epley Research Llc | Head-stabilized medical apparatus, system and methodology |
WO2005063114A1 (ja) | 2003-12-25 | 2005-07-14 | National University Corporation Shizuoka University | 視線検出方法および装置ならびに三次元視点計測装置 |
US7819818B2 (en) | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
US20050273017A1 (en) | 2004-03-26 | 2005-12-08 | Evian Gordon | Collective brain measurement system and method |
US7396129B2 (en) | 2004-11-22 | 2008-07-08 | Carestream Health, Inc. | Diagnostic system having gaze tracking |
US20060167670A1 (en) | 2005-01-26 | 2006-07-27 | Deering Michael F | Photon-based modeling of the human eye and visual perception |
US7922670B2 (en) | 2005-02-24 | 2011-04-12 | Warren Jones | System and method for quantifying and mapping visual salience |
JP2009508553A (ja) | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
US7384145B2 (en) | 2006-02-16 | 2008-06-10 | The Board Of Trustees Of The University Of Illinois | Mapping retinal function using corneal electrode array |
US20070265507A1 (en) | 2006-03-13 | 2007-11-15 | Imotions Emotion Technology Aps | Visual attention and emotional response detection and display system |
CN101657144B (zh) * | 2007-04-13 | 2012-05-30 | 耐克国际有限公司 | 单一式视觉和协调测试中心 |
DE102007028167A1 (de) | 2007-06-20 | 2008-12-24 | MAPAL Fabrik für Präzisionswerkzeuge Dr. Kress KG | Dehnreibahle |
US7824034B2 (en) | 2007-09-19 | 2010-11-02 | Utc Fire & Security Americas Corporation, Inc. | Iris imaging system and method for the same |
US7959578B2 (en) * | 2008-02-01 | 2011-06-14 | Lonky Martin L | Methods and techniques to measure, map and correlate ocular micro-movement and ocular micro-tremor (OMT) signals with cognitive processing capabilities in ADD/ADHD individuals |
US20100010370A1 (en) | 2008-07-09 | 2010-01-14 | De Lemos Jakob | System and method for calibrating and normalizing eye data in emotional testing |
CN102245085B (zh) * | 2008-10-14 | 2015-10-07 | 俄亥俄大学 | 利用眼跟踪的认知和语言评估 |
US20100128118A1 (en) * | 2008-11-26 | 2010-05-27 | Locarna Systems, Inc. | Identification of visual fixations in a video stream |
US20120094315A1 (en) | 2008-12-09 | 2012-04-19 | Stephanie Fryar-Williams | Biomarkers for the diagnosis and/or prediction of susceptibility to mental and neurodegenerative disorders |
US8808195B2 (en) | 2009-01-15 | 2014-08-19 | Po-He Tseng | Eye-tracking method and system for screening human diseases |
EP2470061A1 (en) | 2009-08-26 | 2012-07-04 | Ecole Polytechnique Fédérale de Lausanne (EPFL) | Wearable systems for audio, visual and gaze monitoring |
JP6066913B2 (ja) | 2010-11-08 | 2017-01-25 | オプタラート・オーストラリア・プロプライエタリー・リミテッド | 作業テストへの適応性 |
CN101980248B (zh) * | 2010-11-09 | 2012-12-05 | 西安电子科技大学 | 基于改进视觉注意力模型的自然场景目标检测方法 |
US8573980B2 (en) * | 2011-04-04 | 2013-11-05 | Sheepdog Sciences, Inc. | Apparatus, system, and method for modulating consolidation of memory during sleep |
US20140057232A1 (en) * | 2011-04-04 | 2014-02-27 | Daniel Z. Wetmore | Apparatus, system, and method for modulating consolidation of memory during sleep |
US8687840B2 (en) * | 2011-05-10 | 2014-04-01 | Qualcomm Incorporated | Smart backlights to minimize display power consumption based on desktop configurations and user eye gaze |
GB201200122D0 (en) | 2012-01-05 | 2012-02-15 | Univ Aberdeen | An apparatus and a method for psychiatric evaluation |
WO2013142771A1 (en) | 2012-03-22 | 2013-09-26 | The Curators Of The University Of Missouri | Device to measure pupillary light reflex in infants and toddlers |
US8668337B2 (en) * | 2012-04-18 | 2014-03-11 | TBI Diagnostics LLC | System for the physiological evaluation of brain function |
US9004687B2 (en) * | 2012-05-18 | 2015-04-14 | Sync-Think, Inc. | Eye tracking headset and system for neuropsychological testing including the detection of brain damage |
WO2014093546A2 (en) | 2012-12-11 | 2014-06-19 | Ami Klin | Systems and methods for detecting blink inhibition as a marker of engagement and perceived stimulus salience |
CA2904346C (en) * | 2013-03-11 | 2021-09-28 | Children's Healthcare Of Atlanta, Inc. | Systems and methods for detection of cognitive and developmental conditions |
US9198571B2 (en) * | 2013-03-15 | 2015-12-01 | Neuro Kinetics, Inc | Method of measuring and analyzing ocular response in a subject using stable pupillary parameters with video oculography system |
KR102224932B1 (ko) | 2014-02-19 | 2021-03-08 | 삼성전자주식회사 | 비전 센서를 이용한 사용자 입력 처리 장치 및 사용자 입력 처리 방법 |
US20150282705A1 (en) * | 2014-04-07 | 2015-10-08 | Ofer Avital | Method and System of Using Eye Tracking to Evaluate Subjects |
US10120413B2 (en) | 2014-09-11 | 2018-11-06 | Interaxon Inc. | System and method for enhanced training using a virtual reality environment and bio-signal data |
US10559386B1 (en) * | 2019-04-02 | 2020-02-11 | Kpn Innovations, Llc | Methods and systems for an artificial intelligence support network for vibrant constituional guidance |
US20230148922A1 (en) * | 2021-11-16 | 2023-05-18 | Great Plain Technologies LLC | Systems and methods for screening subjects for neuropathology associated with covid-19 utilizing a mobile device |
US11903711B2 (en) * | 2022-06-09 | 2024-02-20 | EarliTec Diagnostics, Inc. | Assessing developmental disorders via eye tracking |
-
2014
- 2014-09-10 WO PCT/US2014/055008 patent/WO2015057321A1/en active Application Filing
- 2014-09-10 MX MX2016004899A patent/MX2016004899A/es unknown
- 2014-09-10 AU AU2014334870A patent/AU2014334870B2/en active Active
- 2014-09-10 BR BR112016008676A patent/BR112016008676A8/pt not_active IP Right Cessation
- 2014-09-10 US US15/029,808 patent/US10617295B2/en active Active
- 2014-09-10 CA CA2927583A patent/CA2927583C/en active Active
- 2014-09-10 JP JP2016524130A patent/JP6797683B2/ja active Active
- 2014-09-10 EP EP14777964.9A patent/EP3057508B1/en active Active
- 2014-09-10 ES ES14777964T patent/ES2848833T3/es active Active
- 2014-09-10 KR KR1020167013017A patent/KR20160106552A/ko not_active Application Discontinuation
- 2014-09-10 SG SG11201602944YA patent/SG11201602944YA/en unknown
- 2014-09-10 CN CN201480068649.5A patent/CN105873515B/zh active Active
-
2016
- 2016-04-17 IL IL245153A patent/IL245153B/en active IP Right Grant
-
2020
- 2020-03-06 US US16/810,995 patent/US11471047B2/en active Active
-
2022
- 2022-09-13 US US17/943,719 patent/US11864832B2/en active Active
-
2023
- 2023-11-29 US US18/523,037 patent/US20240099578A1/en active Pending
- 2023-12-19 US US18/545,362 patent/US20240115130A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62249637A (ja) * | 1986-01-28 | 1987-10-30 | ジヨ−ジ パブリテイス | 神経障害の決定方法および装置 |
JP2002360518A (ja) * | 2001-05-25 | 2002-12-17 | Eastman Kodak Co | 眼球のサッケード運動によりadhdを検出する装置 |
JP2011206542A (ja) * | 2010-03-30 | 2011-10-20 | National Univ Corp Shizuoka Univ | 自閉症診断支援用装置 |
WO2013035684A1 (ja) * | 2011-09-05 | 2013-03-14 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
WO2013141098A1 (ja) * | 2012-03-21 | 2013-09-26 | 国立大学法人浜松医科大学 | 自閉症診断支援方法およびシステム並びに自閉症診断支援装置 |
Non-Patent Citations (2)
Title |
---|
松村佳亮: "近赤外線瞳孔検出法に基づくカラーカメラ顔画像中の高精度実時間瞳孔位置推定", 映像情報メディア学会誌, vol. V0l.65 No.12, JPN6013052141, 1 December 2011 (2011-12-01), JP, pages 1783 - 1787, ISSN: 0003659724 * |
福島順子: "追跡眼球運動の異常と広汎性発達障害の脳機能病態", 精神経誌(第104回日本精神神経学会総会), vol. 110巻10号, JPN6018025403, 2008, JP, pages 900 - 907, ISSN: 0003832737 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180083252A (ko) * | 2015-08-15 | 2018-07-20 | 구글 엘엘씨 | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 |
KR102196975B1 (ko) | 2015-08-15 | 2020-12-30 | 구글 엘엘씨 | 실제 객체 및 가상 객체와 상호작용하기 위한 생체기계적 기반의 안구 신호를 위한 시스템 및 방법 |
KR20200059509A (ko) * | 2018-11-21 | 2020-05-29 | 네이버웹툰 주식회사 | 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말 |
KR102216020B1 (ko) | 2018-11-21 | 2021-02-17 | 네이버웹툰 유한회사 | 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말 |
Also Published As
Publication number | Publication date |
---|---|
AU2014334870B2 (en) | 2019-06-13 |
CN105873515A (zh) | 2016-08-17 |
MX2016004899A (es) | 2017-01-18 |
AU2014334870A1 (en) | 2016-05-12 |
US20160262613A1 (en) | 2016-09-15 |
EP3057508B1 (en) | 2020-11-04 |
CA2927583A1 (en) | 2015-04-23 |
EP3057508A1 (en) | 2016-08-24 |
US10617295B2 (en) | 2020-04-14 |
KR20160106552A (ko) | 2016-09-12 |
IL245153A0 (en) | 2016-06-30 |
IL245153B (en) | 2020-11-30 |
US20210000340A1 (en) | 2021-01-07 |
CA2927583C (en) | 2021-11-09 |
US11864832B2 (en) | 2024-01-09 |
US20240099578A1 (en) | 2024-03-28 |
SG11201602944YA (en) | 2016-05-30 |
US20240115130A1 (en) | 2024-04-11 |
BR112016008676A8 (pt) | 2020-03-17 |
US20230015296A1 (en) | 2023-01-19 |
ES2848833T3 (es) | 2021-08-12 |
WO2015057321A1 (en) | 2015-04-23 |
US11471047B2 (en) | 2022-10-18 |
CN105873515B (zh) | 2020-11-20 |
JP6797683B2 (ja) | 2020-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11471047B2 (en) | Systems and methods for assessing infant and child development via eye tracking | |
US10702150B2 (en) | Systems and methods for detection of cognitive and developmental conditions | |
Knobloch et al. | The validity of parental reporting of infant development | |
Blanck-Lubarsch et al. | Simplifying diagnosis of fetal alcohol syndrome using machine learning methods | |
CN107205646A (zh) | 用于监控和促进婴儿锻炼的系统和方法 | |
US20240252083A1 (en) | Eye-tracking device and method for testing visual processing capabilities | |
Valencia et al. | Prechtl’s method to assess general movements: Inter-rater reliability during the preterm period | |
Chen et al. | The first step toward reconstructing visual perception and cognition in autism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170911 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170915 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171017 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180710 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20181010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190529 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20190529 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20190611 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190712 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20190716 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190726 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20190730 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20191023 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20200225 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200414 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200915 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20200923 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20201027 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20201027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6797683 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |