CN115553707A - 一种基于眼动追踪的对比敏感度测量方法及设备 - Google Patents
一种基于眼动追踪的对比敏感度测量方法及设备 Download PDFInfo
- Publication number
- CN115553707A CN115553707A CN202211456857.5A CN202211456857A CN115553707A CN 115553707 A CN115553707 A CN 115553707A CN 202211456857 A CN202211456857 A CN 202211456857A CN 115553707 A CN115553707 A CN 115553707A
- Authority
- CN
- China
- Prior art keywords
- test
- contrast
- visual target
- eye
- contrast sensitivity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000035945 sensitivity Effects 0.000 title claims abstract description 95
- 230000004424 eye movement Effects 0.000 title claims abstract description 25
- 238000000691 measurement method Methods 0.000 title claims abstract description 19
- 238000012360 testing method Methods 0.000 claims abstract description 154
- 230000000007 visual effect Effects 0.000 claims abstract description 81
- 238000000034 method Methods 0.000 claims abstract description 28
- 210000001508 eye Anatomy 0.000 claims description 85
- 230000004044 response Effects 0.000 claims description 15
- 230000004438 eyesight Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 31
- 238000005516 engineering process Methods 0.000 abstract description 9
- 230000006870 function Effects 0.000 description 30
- 238000007689 inspection Methods 0.000 description 9
- 230000004382 visual function Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000004304 visual acuity Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000003759 clinical diagnosis Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 206010029864 nystagmus Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012956 testing procedure Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Evolutionary Computation (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种基于眼动追踪的对比敏感度测量方法及设备,方法包括:基于受检者的眼部基本信息设置预设视标的基本参数,并选定受检者的被测眼;依次对被测眼进行m次视标测试;通过眼动追踪设备记录被测眼在每次视标测试中的注视参数;对比第K次视标测试中光栅视标的位置信息与注视参数是否一致,并借助预设预测模型预测每个空间频率的对比度阈值,完成第K次对比敏感度参数的更新;基于第m次更新的对比敏感度参数拟合对比敏感度函数曲线,构建该被测眼的对比敏感度函数。本方案基于眼动追踪技术实现自适应测量,无需与受检者互动,即可准确、客观、高效的实现人眼对比敏感度测量。
Description
技术领域
本发明涉及视觉系统处理领域,特别涉及一种基于眼动追踪的对比敏感度测量方法及设备。
背景技术
在临床上,视觉系统的空间频率分辨力通常以视锐度(visual acuity,VA)来确定,但视锐度多数是在高对比度下测量,并不能全面地反应视功能情况。同时,越来越多研究发现对比敏感度作为视功能检查的一部分对于很多疾病有更早期的预测价值,并且视觉系统的对比敏感度可独立受到损害而视力尚保持良好,此时患者往往会察觉到生活质量受到影响,但普通的视力检查却通常无明显异常。因此,准确、及时和早期发现对比敏感度的异常对临床诊断有重要意义。
传统视觉对比敏感度测量依赖于受检者理解测量过程并能够和检查者互动,做出可靠的反应,但对于学龄前的婴幼儿及行动、言语不便的受检者,这一过程往往受到很大限制,导致测量难以开展以及不准确等问题。因此,近几十年来有很多研究也致力于探索适用于婴幼儿及行动言语不便人群的视功能检查方法。
视动性眼颤(OptoKinetic Nystagmus,OKN)是目前较常用的用于6个月以下的婴幼儿的方法之一,该方法是根据人眼在追随一个移动物体时出现的不自主的眼球颤动。检查者通过观察受检者的视动性眼颤来判断被检眼是否可以看到某一空间频率的条栅。
优先注视(Preferential looKing,PL)是心理物理学家在1963年发现的婴幼儿的观察模式,即婴儿喜欢注视有图像的画面,而不喜欢注视均匀的空白画面。根据这一特点,有学者将各种不同宽度的黑白条纹与相对空白的画面同时呈现在婴儿眼前,根据婴儿的注视行为及头部运动情况即可测出婴儿的PL视力,称为优先注视法。
这些方法均可对婴幼儿视功能进行定性或者粗略的定量判断,但目前还没有较精确的、准确的定量测量方法。另外,不论是视动性眼颤法,还是优先注视法,都依赖检查者较丰富的经验及准确的判断,因此对受检者眼部基础疾病情况的认识及检查者的判断都会影响检查结果。
传统的对比敏感度测量方法是根据心理物理学方法测量可察觉到的对比度阈值,用这个方法需要采用不同空间频率下一系列不同对比度级别的图像或测试图标进行测试,并向受检者依次显示这些图表,让受检者做出两者选一的强迫选择。然后根据至少4个空间频率的对比度阈值求出对比敏感度并拟合出一条对比敏感度函数(contrast sensitivityfunction,CSF),故至少需要60分钟才能完成一只被检眼的CSF测量。正是因为这样冗长的测试过程会引起视疲劳导致测量偏差,因此这些测量在临床环境中难以大规模展开,而对于婴幼儿更是难以完成的。
发明内容
有鉴于此,本发明提出了一种基于眼动追踪的对比敏感度测量方法及设备,具体方案如下:
有益效果:本发明提供了一种基于眼动追踪的对比敏感度测量方法及设备,基于眼动追踪技术实现自适应测量,无需与受检者互动,即可准确、客观、高效的实现对比敏感度测量。将眼球追踪技术和自适应算法融入对比敏感度函数测量中,既可以大大推进原本难以在临床开展的对比敏感度函数检查,又可以在婴幼儿等行动、言语不便的患者上开展,借助对比敏感度函数对患者的视功能情况有更全面、准确的认识,并指导进一步治疗方式的选择。
附图说明
图1为本发明实施例的测量方法流程图;
图2为本发明实施例的测量方法原理示意图;
图3为本发明实施例的测量算法流程示意图;
图4为本发明实施例的测量设备模块示意图。
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
附图标记:1-眼动模块;2-显示模块;3-测试模块;4-算法模块。
具体实施方式
在下文中,将更全面地描述本发明公开的各种实施例。本发明公开可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本发明公开的各种实施例限于在此公开的特定实施例的意图,而是应将本发明公开理解为涵盖落入本发明公开的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。
在本发明公开的各种实施例中使用的术语仅用于描述特定实施例的目的并且并非意在限制本发明公开的各种实施例。如在此所使用,单数形式意在也包括复数形式,除非上下文清楚地另有指示。除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明公开的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明公开的各种实施例中被清楚地限定。
实施例1
本发明实施例1公开了一种基于眼动追踪的对比敏感度测量方法,能够准确、客观、高效的实现人眼对比敏感度测量。测量方法流程图如说明书附图1所示,具体方案如下:
一种基于眼动追踪的对比敏感度测量方法,包括如下步骤:
101、基于受检者的眼部基本信息设置预设视标的基本参数,并选定受检者的被测眼,并对受检者进行人眼校准及定位,;
102、依次对被测眼进行m次视标测试;在每次视标测试中,显示屏的预设区域内会随机出现光栅视标,光栅视标参数包括空间频率和对比度;
103、通过眼动追踪设备记录被测眼在每次视标测试中的注视参数;
104、对比第K次视标测试中光栅视标的位置信息与注视参数是否一致,得到关于被测眼对光栅视标可见性的反馈应答,将光栅视标的空间频率、对比度及对应的反馈应答作为第K次视标测试的测试结果并记入到输入图中;其中,K=1,2,3……m;m为大于2的自然数;
105、结合第K次视标测试的输入图和第K-1次视标测试的测试图,得到包含K次视标测试测试结果的第K次视标测试的测试图,并借助预设预测模型预测每个空间频率的对比度阈值,完成第K次对比敏感度参数的更新;当K=1时,则无需融合测试图,直接将输入图作为测试图;
106、基于第m次更新的对比敏感度参数拟合对比敏感度函数曲线,构建该被测眼的对比敏感度函数。
本实施例的方案基于眼动追踪技术实现自适应的对人眼对比敏感度函数测量,对比敏感度测量更加准确、客观、高效。将眼球追踪技术和自适应算法融入对比敏感度函数测量中,既可以大大推进原本难以在临床开展的对比敏感度检查,又可以在婴幼儿等行动言语不便的受检者上开展,可以对患者的视功能情况有更全面、准确的认识,解决长期困扰临床医生的问题,并指导进一步治疗方式的选择,长期监测诊治疗效。
具体地,基于受检者的眼部基本信息设置预设视标的基本参数。基本参数包括光栅视标的大小、视标测试的测试次数、被测眼与光栅视标之间的距离、相邻两次视标测试之间的时间间隔。相邻两次视标测试之间的时间间隔又可视为受检者在测试过程中的视标间隔。眼部基本信息包括受检者的左右眼的视力、裸眼或矫正视力情况。优选地,根据受检者的裸眼或矫正视力情况设置视标测试的测试次数,不同的视力情况会影响受检者对光栅的注视。例如,高度近视者对光栅的敏感性会明显不同于非近视者。
具体地,通过眼动追踪设备对受检者进行人眼校准及定位。在本实施例中,通过眼动追踪设备利用近红外光源使角膜和瞳孔产生反射图像,然后使用图像处理算法和一个三维模型精确地计算出眼睛在空间中的位置和视线的位置。本实施例通过眼动追踪提取注视点、注视时间、注视次数、眼跳距离、瞳孔大小等数据,从而研究个体的内在认知过程。本实施例测量方法的原理示意如说明书附图2所示。
具体地,选定受检者的被测眼,对被测眼进行多次视标测试。每对被测眼进行一次视标测试,都会获取一个对比敏感度参数,并更新对比敏感度函数,以及更新下一次视标的对比度和空间频率,通过多次更新输出最终对比敏感度函数。空间频率和对比度,这两个参数并不体现视标在屏幕上位置,而是体现这个视标的条纹的粗细及清晰度。每次视标测试都可划分为三个部分:呈现视标、注视视标和回正视标。需要说明的是,可能存在未找到光栅视标的情况,如说明书附图2所示。
正常情况下,被测眼会被光栅吸引,注视光栅,且注视点应该与光栅所在方位一致。通过眼动追踪设备捕捉被测眼的注视点等注视参数,比对注视点与光栅所在方位是否一致判断被测眼的回答是否正确。并通过回正视标,让被测眼注视回正。
其中,获取被测眼在当前视标测试中的反馈后,通过预设自适应算法基于该反馈和该次视标测试中的光栅视标参数计算下一次视标测试中的光栅视标参数。其中,光栅视标参数不仅包括空间频率和对比度,还包括光栅的方向,但光栅的方向不参与自适应算法中至自适应算法中,故可将光栅参数视为对比敏感度参数。。在本实施例中,光栅的方向具备随机性,光栅视标内会产生0°至180°随机方向的光栅。空间频率和对比度用来表征光栅视标参数在对比敏感度函数曲线中坐标点的位置,而非在屏幕呈现中的位置,具体可理解为坐标位置,空间频率为光栅视标的横坐标,对比度的倒数为光栅视标的纵坐标。
因此,除了第一次视标测试的光栅视标参数需要自行设定,后续其它视标测试的空间频率和对比度都是通过后续算法计算得出的,以保证视标测试的客观性。例如,第K次视标测试的空间频率和对比度是根据第K-1次视标测试得出的,第K次视标测试也会得出第K+1次视标测试空间频率和对比度。
进一步优选地,根据显示屏的分辨率、长度、宽度以及被测眼与光栅视标之间的距离,调整光栅视标的大小。测试距离会影响栅视标的大小,测试距离即为被测眼与光栅视标之间的水平距离,不同光栅视标与被测眼之间的距离均一致,以尽可能控制能影响视标测试的相关变量,确保视标测试的准确性。视标测试须确保光栅视标大小、测试距离稳定在一个预设区间,才能保证检测的准确性。
通过眼动追踪设备记录每次视标测试中被测眼注视光栅的注视参数。优选地,注视参数包括注视时间、注视点在屏幕上的位置信息。在测试之前,通过眼动追踪设备对受试眼进行五方位定位(即对被测眼进行校准),五方位具体为显示屏的四个角+中央,准确获取被测眼的注视点及注视时间等参数。在实际应用中,还可将五方位拓展至如九方位等更多方位,以进一步提升检测的精度。五方位和九方位为校准的内容。此外校准只需要在测试前执行一次即可。
通过对比注视点与光栅所在方位是否一致,来判断被测眼的反馈应答是否正确。正常情况下被测眼能注视视标时,注视点应与光栅的方位一致。若是,则被测眼的反馈应答正确;若否,则被测眼的反馈应答不正确。反馈应答即可作为每次视标测试的测试结果,根据每次视标测试的反馈应答、空间频率和对比度不断更新对比敏感度参数。
对每次视标测试的测试结果进行处理的过程如说明书附图3所示。将每次视标测试的测试结果计入到输入图中。输入图是一种灰度图,每一个像素代表一组空间频率和对比度,将测试结果中的空间频率作为横坐标x、对比度作为纵坐标y,将反馈应答计入到输入图中。在附图3中,输入图是一张72*135的图,共有72个空间频率水平和135个对比度水平。每个像素代表一组空间频率和对比度组合。图中只有三种颜色取值,三种颜色取值对应三种颜色都是灰度颜色,形式是这样的[a b c],其中,a, b, c均从0-255取值形成特定的颜色,分别代表可见取值、不可见取值和未测试取值。测试结果计入图(x,y)的像素位置(输入图),改变至对应的颜色。每当一个测试结果计入到输入图中,该测试结果对应像素的颜色取值由未测试取值变为可见取值或不可见取值;其中,可见取值表示被测眼的注视参数与光栅视标的位置信息相一致,不可见取值表示被测眼的注视参数与光栅视标的位置信息不一致。
第K次视标测试的输入图需要与第K-1次视标测试的测试图融合,以得到第K次视标测试的测试图,第K次视标测试的测试图包含K次视标测试测试结果。在图3中,第K次视标测试的测试图表示为K图,第K-1次视标测试的测试图表示为K-1图。第K次视标测试的测试图会作为第K+1次视标测试的输入图融合,因此,得到K图之后,用K图替换(K-1)图,用作下一次测试的计算。
在本实施例中,借助专门的预测模型进行预测。预测模型包括第一预测模块和第二预测模块。第一预测模块为CSF预测模块,负责对对比敏感度函数进行预测。第二预测模块为推荐峰度图预测模块,负责筛选像素。预测模型可为CNN卷积神经网络构建得到。
将第K次视标测试的测试图输入到预测模型中预设的第一预测模块中,通过第一预测模块预测每个空间频率下的所有对比度的阈值概率,且每个空间频率的所有对比度阈值概率之和为1;将每个空间频率下阈值概率最高的对比度作为该空间频率的对比度阈值;其中,每个空间频率下的对比度阈值即为一个正好划分开此空间频率下可见对比度区域与不可见对比度区域的对比度。在图3中,将K图输入CSF预测模块,预测72个空间频率的对比度阈值,一个空间频率的对比度阈值即为一个对比度水平正好划分开此空间频率下,可见与不可见的对比度区域,因此,即为135选1的分类问题。输出为每个对比度的阈值概率(取值为0-1连续数字)。
将对比度的阈值概率以及第K次视标测试的测试图输入到预测模型中预设的第二预测模块中,通过第二预测模块预测像素的推荐峰度,推荐峰度代表像素被推荐的概率;基于推荐峰度选取像素,将该像素对应的空间频率和对比度作为第K+1次视标测试中的光栅视标参数。在图3中,将对比度的阈值概率和K图输入推荐峰度图预测模块(CNN卷积神经网络),预测推荐峰度。推荐峰度是一个0-1的连续数值,代表每个像素(一组空间频率和对比度)被推荐的概率。输出的结果为一个72*135的图,每个像素取值为0-1的连续数值。每个像素点代表一个对比度和空间频率组合,取值0-1,越接近1就越值得推荐,这是神经网络自己的一个步骤,本身并不会生成图,而是一个数据组,只是把它描述成图。
输入图和测试图均为a*b的图,共有a个空间频率水平和b个对比度水平;将各像素的推荐峰度描述为a*b的推荐峰度图,每个像素点取值0-1,越接近1则越值得推荐。
基于推荐峰度图选取像素的原则包括:像素与所有空间频率的对比度阈值之间的最小欧式距离小于预设距离1,理论上欧式距离越小越好;或,根据对比度阈值的对比度划分结果与测试图之间存在较大差异的周边像素,像素与对比度阈值、测试图之间存在较大差异;且,像素远离已完成视标检测的像素。因此,由未经视标测试过的像素中选取推荐峰度最大的像素,将该像素对应的空间频率和对比度作为第K+1次视标测试中的光栅视标参数。
基于第K次视标测试获取空间频率的对比度阈值之后,将每个对比度阈值连接起来,构成K次视标测试的对比敏感度函数曲线;根据对比敏感度函数曲线可划分出可见区域和不可见区域,可见区域中的像素取值均为可见取值,不可见区域中的像素取值均为不可见取值。在图3中,为K次CSF曲线。假设总共需要n次视标测试,则n次视标测试的对比敏感度函数曲线即为最终的对比敏感度函数曲线。根据第m次更新的对比敏感度参数,拟合对比敏感度函数函数曲线,得到受检者该被测眼的对比敏感度函数。医生根据对比敏感度函数能够对受检者的视功能情况有更全面、准确的认识。
现有OKN或PL等方法均需要与受检者互动,通过检查者主观判断完成对比敏感度测量,主观性较强,容易造成结果偏倚。而本实施例的方案无需与受检者互动,通过眼动追踪设备的客观测量替代检查者主观判断,即可实现对比度测量,有效提高了测量的准确性和客观性。本方案由于不需要与受检者互动,针对婴幼儿等行动言语不便的受检者,也能实现精确定量判断,测量效果远超于OKN或PL等方法。
经过实验论证,本实施例的方法完成一个被测眼大约耗时10分钟,耗时约20分钟即可实现一个受检者的眼部对比敏感度测量。而传统的对比敏感度测量方法,若要获得精确定量的结果,至少需要60分钟才能完成一只被检眼的测量。本实施例的方案仅需传统方案六分之一的时间即可实现对比敏感度测量,大大提高了测量效率。
本实施例提供了一种基于眼动追踪的对比敏感度测量方法,基于眼动追踪技术实现自适应测量,无需与受检者互动,即可准确、客观、高效的实现对比敏感度测量。将眼球追踪技术和自适应算法融入对比敏感度函数测量中,既可以大大推进原本难以在临床开展的对比敏感度函数检查,又可以在婴幼儿等行动、言语不便的患者上开展,借助对比敏感度函数对患者的视功能情况有更全面、准确的认识。
实施例2
本发明实施例2公开了一种基于眼动追踪的对比敏感度测量设备,能够实现实施例1的测量方法,具体结构如说明书附图4所示,具体方案如下:
一种基于眼动追踪的对比敏感度测量设备,用于实施例1中基于眼动追踪的对比敏感度测量方法;
对比敏感度测量设备包括如下:
眼动模块1,配置有眼动追踪设备,用于通过眼动追踪设备对受检者进行人眼校准及定位,以及记录被测眼在每次视标测试中的注视参数;
显示模块2,用于显示光栅视标;
测试模块3,用于依次对被测眼进行m次视标测试;在每次视标测试中,显示屏的预设区域内会随机出现光栅视标,光栅视标参数包括空间频率和对比度;
算法模块4,用于对比第K次视标测试中光栅视标的位置信息与注视参数是否一致,得到关于被测眼对光栅视标可见性的反馈应答,将光栅视标的空间频率、对比度及对应的反馈应答作为第K次视标测试的测试结果并记入到输入图中;其中,K=1,2,3……m;m为大于2的自然数;结合第K次视标测试的输入图和第K-1次视标测试的测试图,得到包含K次视标测试测试结果的第K次视标测试的测试图,并借助预设预测模型预测每个空间频率的对比度阈值,完成第K次对比敏感度参数的更新;基于第m次更新的对比敏感度参数拟合对比敏感度函数曲线,构建该被测眼的对比敏感度函数。
本实施例提供了一种基于眼动追踪的对比敏感度测量设备,能够实现实施例1的测量方法,使其更具实用性。
本发明提供了一种基于眼动追踪的对比敏感度测量方法及设备,基于眼动追踪技术实现自适应测量,无需与受检者互动,即可准确、客观、高效的实现对比敏感度测量。将眼球追踪技术和自适应算法融入对比敏感度函数测量中,既可以大大推进原本难以在临床开展的对比敏感度函数检查,又可以在婴幼儿等行动、言语不便的患者上开展,借助对比敏感度函数对患者的视功能情况有更全面、准确的认识,并指导进一步治疗方式的选择。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本发明所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (10)
1.一种基于眼动追踪的对比敏感度测量方法,其特征在于,包括如下:
基于受检者的眼部基本信息设置预设视标的基本参数,对受检者进行人眼校准及定位,并选定受检者的被测眼;
依次对被测眼进行m次视标测试;在每次视标测试中,显示屏的预设区域内会随机出现光栅视标,光栅视标参数包括空间频率和对比度;
通过眼动追踪设备记录被测眼在每次视标测试中的注视参数;
对比第K次视标测试中光栅视标的位置信息与注视参数是否一致,得到关于被测眼对光栅视标可见性的反馈应答,将光栅视标的空间频率、对比度及对应的反馈应答作为第K次视标测试的测试结果并记入到输入图中;其中,K=1,2,3……m;m为大于2的自然数;
结合第K次视标测试的输入图和第K-1次视标测试的测试图,得到包含K次视标测试测试结果的第K次视标测试的测试图,并借助预设预测模型预测每个空间频率的对比度阈值,完成第K次对比敏感度参数的更新;
基于第m次更新的对比敏感度参数拟合对比敏感度函数曲线,通过空间频率和对比度反映光栅视标在对比敏感度函数曲线中的坐标位置,构建该被测眼的对比敏感度函数。
2.根据权利要求1所述的对比敏感度测量方法,其特征在于,所述输入图中的每个像素代表一组空间频率和对比度组合;
所述输入图中包括三种颜色取值,分别代表可见取值、不可见取值和未测试取值;每当一个测试结果计入到输入图中,该测试结果对应像素的颜色取值由未测试取值变为可见取值或不可见取值;
其中,可见取值表示被测眼的注视参数与光栅视标的位置信息相一致。
3.根据权利要求1所述的对比敏感度测量方法,其特征在于,对比度阈值的获取过程包括:
将第K次视标测试的测试图输入到预测模型中预设的第一预测模块中,通过所述第一预测模块预测每个空间频率下的所有对比度的阈值概率,且每个空间频率的所有对比度阈值概率之和为1;
将每个空间频率下阈值概率最高的对比度作为该空间频率的对比度阈值;其中,每个空间频率下的对比度阈值即为一个正好划分开此空间频率下可见对比度区域与不可见对比度区域的对比度。
4.根据权利要求1所述的对比敏感度测量方法,其特征在于,将对比度的阈值概率以及第K次视标测试的测试图输入到预测模型中预设的第二预测模块中,通过所述第二预测模块预测像素的推荐峰度,推荐峰度代表像素被推荐的概率;
基于推荐峰度选取像素,将该像素对应的空间频率和对比度作为第K+1次视标测试中的光栅视标参数。
5.根据权利要求4所述的对比敏感度测量方法,其特征在于,基于所述推荐峰度图选取像素的原则包括:
像素与所有空间频率的对比度阈值之间的最小欧式距离小于预设距离1;或,根据对比度阈值的对比度划分结果与测试图之间存在较大差异的周边像素;
且,像素远离已完成视标检测的像素。
6.根据权利要求4所述的对比敏感度测量方法,其特征在于,输入图和测试图均为a*b的图,共有a个空间频率水平和b个对比度水平;
将各像素的推荐峰度描述为a*b的推荐峰度图,每个像素点取值0-1;
由未经视标测试过的像素中选取推荐峰度最大的像素,将该像素对应的空间频率和对比度作为第K+1次视标测试中的光栅视标参数。
7.根据权利要求1所述的对比敏感度测量方法,其特征在于,基于第K次视标测试获取空间频率的对比度阈值之后,将每个对比度阈值连接起来,构成K次视标测试的对比敏感度函数曲线;
根据所述对比敏感度函数曲线可划分出可见区域和不可见区域,所述可见区域中的像素取值均为可见取值,所述不可见区域中的像素取值均为不可见取值。
8.根据权利要求1所述的对比敏感度测量方法,其特征在于,视标测试的基本参数包括光栅视标的大小、视标测试的测试次数、被测眼与光栅视标之间的距离、相邻两次视标测试之间的时间间隔。
9.根据权利要求8所述的对比敏感度测量方法,其特征在于,根据显示屏的分辨率、长度、宽度以及被测眼与光栅视标之间的距离,调整所述光栅视标的大小;
和/或,根据包括受检者的裸眼或矫正视力情况在内的眼部基本信息,设置视标测试的测试次数。
10.一种基于眼动追踪的对比敏感度测量设备,其特征在于,用于实现权利要求1-9任一项所述的基于眼动追踪的对比敏感度测量方法;
所述对比敏感度测量设备包括如下:
眼动模块,配置有眼动追踪设备,用于通过眼动追踪设备对受检者进行人眼校准及定位,以及记录被测眼在每次视标测试中的注视参数;
显示模块,用于显示光栅视标;
测试模块,用于依次对被测眼进行m次视标测试;在每次视标测试中,显示屏的预设区域内会随机出现光栅视标,所述光栅视标参数包括空间频率和对比度;
算法模块,用于对比第K次视标测试中光栅视标的位置信息与注视参数是否一致,得到关于被测眼对光栅视标可见性的反馈应答,将光栅视标的空间频率、对比度及对应的反馈应答作为第K次视标测试的测试结果并记入到输入图中;其中,K=1,2,3……m;m为大于2的自然数;
结合第K次视标测试的输入图和第K-1次视标测试的测试图,得到包含K次视标测试测试结果的第K次视标测试的测试图,并借助预设预测模型预测每个空间频率的对比度阈值,完成第K次对比敏感度参数的更新;
基于第m次更新的对比敏感度参数拟合对比敏感度函数曲线,构建该被测眼的对比敏感度函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211456857.5A CN115553707A (zh) | 2022-11-21 | 2022-11-21 | 一种基于眼动追踪的对比敏感度测量方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211456857.5A CN115553707A (zh) | 2022-11-21 | 2022-11-21 | 一种基于眼动追踪的对比敏感度测量方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115553707A true CN115553707A (zh) | 2023-01-03 |
Family
ID=84770747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211456857.5A Pending CN115553707A (zh) | 2022-11-21 | 2022-11-21 | 一种基于眼动追踪的对比敏感度测量方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115553707A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115944266A (zh) * | 2023-01-29 | 2023-04-11 | 吉林大学 | 基于眼动追踪技术的视功能确定方法及装置 |
CN116035523A (zh) * | 2023-03-28 | 2023-05-02 | 之江实验室 | 视觉对比敏感度检测方法、装置和电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105326471A (zh) * | 2014-07-31 | 2016-02-17 | 汉王科技股份有限公司 | 婴幼儿视力测试装置及测试方法 |
CN106037627A (zh) * | 2016-05-20 | 2016-10-26 | 上海青研科技有限公司 | 一种婴幼儿全自动视力检查方法及装置 |
US20170273553A1 (en) * | 2016-03-23 | 2017-09-28 | Johnson & Johnson Vision Care, Inc. | System and method for the rapid measurement of the visual contrast sensitivity function |
CN113158138A (zh) * | 2021-01-28 | 2021-07-23 | 浙江工业大学 | 一种快速检测对比敏感度阈值的方法 |
CN114007488A (zh) * | 2019-06-27 | 2022-02-01 | 卡尔蔡司光学国际有限公司 | 用于确定对比敏感度阈值的方法和装置 |
CN114931353A (zh) * | 2022-04-18 | 2022-08-23 | 中山大学中山眼科中心 | 一种便捷的快速对比敏感度检测系统 |
CN115251822A (zh) * | 2022-07-14 | 2022-11-01 | 中山大学中山眼科中心 | 一种基于神经网络的对比敏感度快速测量方法 |
-
2022
- 2022-11-21 CN CN202211456857.5A patent/CN115553707A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105326471A (zh) * | 2014-07-31 | 2016-02-17 | 汉王科技股份有限公司 | 婴幼儿视力测试装置及测试方法 |
US20170273553A1 (en) * | 2016-03-23 | 2017-09-28 | Johnson & Johnson Vision Care, Inc. | System and method for the rapid measurement of the visual contrast sensitivity function |
CN106037627A (zh) * | 2016-05-20 | 2016-10-26 | 上海青研科技有限公司 | 一种婴幼儿全自动视力检查方法及装置 |
CN114007488A (zh) * | 2019-06-27 | 2022-02-01 | 卡尔蔡司光学国际有限公司 | 用于确定对比敏感度阈值的方法和装置 |
CN113158138A (zh) * | 2021-01-28 | 2021-07-23 | 浙江工业大学 | 一种快速检测对比敏感度阈值的方法 |
CN114931353A (zh) * | 2022-04-18 | 2022-08-23 | 中山大学中山眼科中心 | 一种便捷的快速对比敏感度检测系统 |
CN115251822A (zh) * | 2022-07-14 | 2022-11-01 | 中山大学中山眼科中心 | 一种基于神经网络的对比敏感度快速测量方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115944266A (zh) * | 2023-01-29 | 2023-04-11 | 吉林大学 | 基于眼动追踪技术的视功能确定方法及装置 |
CN116035523A (zh) * | 2023-03-28 | 2023-05-02 | 之江实验室 | 视觉对比敏感度检测方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6951327B2 (ja) | 視覚の様相を検査する方法及びシステム | |
Hood et al. | ISCEV standard for clinical multifocal electroretinography (mfERG)(2011 edition) | |
EP2800507B1 (en) | Apparatus for psychiatric evaluation | |
CN115553707A (zh) | 一种基于眼动追踪的对比敏感度测量方法及设备 | |
US20200073476A1 (en) | Systems and methods for determining defects in visual field of a user | |
CN112351727B (zh) | 用于测量视觉功能图的系统和方法 | |
US7773769B2 (en) | Method of and apparatus for detecting degradation of visual performance | |
JP5908460B2 (ja) | 閾上検査及び視野内の測定で使用するサブピクセル法 | |
JP4717561B2 (ja) | 眼科検査プログラム、眼科検査装置及び眼科検査システム | |
JP2021519195A (ja) | モバイルデバイスを使用した視覚検査 | |
US9572486B2 (en) | Device and method for checking human vision | |
CN110772218A (zh) | 视力筛查设备及方法 | |
CN105326471A (zh) | 婴幼儿视力测试装置及测试方法 | |
US11116393B2 (en) | Vision assessment based on gaze | |
US20210298593A1 (en) | Systems, methods, and program products for performing on-off perimetry visual field tests | |
WO2002039754A1 (en) | Visual screening tests by means of computers | |
US10143367B2 (en) | Instrument and method for visual field examination | |
JP5955349B2 (ja) | 分析方法 | |
RU2357652C1 (ru) | Способ скрининговой диагностики глаукомы | |
RU2357651C1 (ru) | Способ компьютерной диагностики открытоугольной глаукомы | |
CN118284357A (zh) | 确定人的眼睛的视觉表现 | |
Grudzińska et al. | Evaluation of the Usability of the Innovative Strabiscan Device for Automatic Strabismus Angle Measurement | |
CN114176508A (zh) | 一种用于生成色彩敏感度的测试仪 | |
WO2023187408A1 (en) | Visual field sensitivity testing | |
WO2023044520A1 (en) | Methods and systems for screening for central visual field loss |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230103 |