CN117338234A - 一种屈光度与视力联合检测方法 - Google Patents
一种屈光度与视力联合检测方法 Download PDFInfo
- Publication number
- CN117338234A CN117338234A CN202311338138.8A CN202311338138A CN117338234A CN 117338234 A CN117338234 A CN 117338234A CN 202311338138 A CN202311338138 A CN 202311338138A CN 117338234 A CN117338234 A CN 117338234A
- Authority
- CN
- China
- Prior art keywords
- diopter
- vision
- obtaining
- eye
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000004304 visual acuity Effects 0.000 claims abstract description 17
- 230000035945 sensitivity Effects 0.000 claims abstract description 14
- 210000001747 pupil Anatomy 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 16
- 238000005457 optimization Methods 0.000 claims description 3
- 230000035479 physiological effects, processes and functions Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 17
- 230000000694 effects Effects 0.000 description 5
- 210000002569 neuron Anatomy 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000004379 myopia Effects 0.000 description 4
- 208000001491 myopia Diseases 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000003203 everyday effect Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/18—Arrangement of plural eye-testing or -examining apparatus
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提供了一种屈光度与视力联合检测方法,属于人工智能技术领域。先获得屈光度预测损失、视敏等级分类损失的联合训练模型,然后利用联合训练模型对患者进行快速预测:预测方式如下:采集预测者数据:拍摄人眼图像和收集其生理及用眼习惯等特征;提取特征:包括:瞳孔区域特征、生理及用户习惯等特征,得到测试者的屈光特征向量和视敏特征向量;将测试者的屈光特征向量和视敏特征向量输入联合训练模型;根据屈光度预测函数,得到测试者的屈光度;根据视敏度等级分类函数,得到测试者的视敏等级。本发明具有能够实现屈光度和视力的联合快速检测等优点。
Description
技术领域
本发明属于人工智能技术领域,涉及一种屈光度与视力联合检测方法。
背景技术
屈光度和视敏度是评估眼睛健康状况的重要指标。屈光度是指眼睛对焦光线的能力,视敏度,又称视力,则是指眼睛分辨物体的能力。这两个指标在眼科医生的日常工作中被广泛使用,用于诊断近视、远视、散光等眼科问题等,也被用于如体检、眼镜配对等。由于二者的评估标准不同,视力和屈光度需要采用不同的检测设备和技师互动完成,人力物力花费高昂,并且存在一定的缺陷。视力检测通常采用视力表上的字形或图形进行检查,这也需要专业人员的辅助才得以完成。由于视力和屈光度检测所需要的专业设备,检测者很难直接采用同一设备或技术手段同时获得自己的视力和屈光度。
近来人工智能技术也被广泛应用于眼睛健康状况的评估。例如:检测人员通过对采集的眼部图像,采用偏心摄影法、深度学习等方法进行屈光度检测,达到了较好的检测效果。视觉图像结合检测技术的人工智能技术已成为屈光度和视敏度的发展趋势。虽然,屈光度通过眼部图像即可识别,但由于屈光与视力并不存在对应比例关系,不能直接利用屈光度获得视力值。因此,仅采用眼部图像直接对屈光度和视力值作联合预测是难以有效的。
许多研究显示,视力除了受屈光度的影响外,还与检测者的生理和心理等因素有关系,例如身高、年龄、性别及用眼习惯。本发现提出一种直接利用眼部图像与生理特征对屈光度和视力状况作联合预测方法和设备。这种方法和设备可以帮助用户快速了解自己眼部健康状况。方法可以帮助医生或病人更快速地诊断眼科问题,并且可以在很多场合中应用,如体检、眼镜配对等。
发明内容
本发明的目的是针对现有的技术存在的上述问题,提供一种屈光度与视力联合检测方法,本发明所要解决的技术问题是如何实现光度和视力状况的快速联合检测。
本发明的目的可通过下列技术方案来实现:一种屈光度与视力联合检测方法,其特征在于,包括如下步骤:
1)制作训练数据集:采集检测者的眼部图像、生理特征及用眼习惯数据及对应的屈光度用视力等级;其中眼部图像、生理特征及用眼习惯数据作为特征,对应的屈光度、视敏等级作为训练参考标签;
2)提取瞳孔区域,获取屈光特征向量;融合屈光特征向量、生理及用户习惯等特征,获取视敏特征向量;
3)以屈光特征向量作为输入,构建屈光度预测函数;以视敏特征向量作为输入,构建视敏等级分类函数;
4)获得屈光度预测损失、视敏等级分类损失的联合训练模型;
5)通过训练优化参数,实时更新和优化联合训练模型;
6)利用联合训练模型对患者进行快速预测:
a)采集预测者数据:拍摄人眼图像和收集其生理及用眼习惯等特征;
b)提取特征:包括:瞳孔区域特征、生理及用户习惯等特征,得到测试者的屈光特征向量和视敏特征向量;
c)将测试者的屈光特征向量和视敏特征向量输入联合训练模型;
d)根据屈光度预测函数,得到测试者的屈光度;根据视敏度等级分类函数,得到测试者的视敏等级。
当前屈光度与视敏度预测采用不同的设备与不同的方法,没有采用同一设备或方法来同时预测屈光度与视敏度的。本发明提出一个联合的人工智能方法对屈光度与视敏度进行统一预测。有且助于提高检测效率。
由于屈光度与视力并不是比例对应关系,因此不能直接用屈光度来预测视力。基于此,本发明提出把屈光特征向量、生物特征向量和用眼习惯向量,通过交互网络得到视敏特征向量,用于对视敏等级的预测。
本方案能够利用模型实现快速预测,而省略了检测环节,只需要进行数据获取即可,预测完成后,该预测者的数据可以用于反向修正联合训练模型。
附图说明
图1是联合预测屈光度与视力值技术方案的框架图。
图2是联合模型的网络结构。
具体实施方式
以下是本发明的具体实施例并结合附图,对本发明的技术方案作进一步的描述,但本发明并不限于这些实施例。
模型如图1所示。
1、制作训练数据:采集检测者的眼部图像、生理特征及用眼习惯数据及对应的屈光度用视力等级;其中眼部图像、生理特征及用眼习惯数据作为特征,对应的屈光度、视力等级作为训练参考标签。
采集的数据包括三类
A)人眼部图像
B)生物特征:年龄、性别、身高等
C)用眼习惯数据:每周户外活动次数、每次户外活动时间、每天读书写字时间、每天看电子产品时间、父母近视情况等
2、提取特征:包括:瞳孔区域特征、生理及用户习惯等特征
1)对眼部图像进行目标检测,得到瞳孔区域图像;
实施步骤如下:
A)直方图均衡化:首先统计图像的灰度直方图,即计算每个灰度级别的像素数目及每个灰度级别在图像中出现的概率,然后采用累积分布函数,计算每个灰度级别的像素数目的累积和,最后将原始图像中的每个像素映射到新的灰度级别上,得到均衡化后的图像;
B)图像裁剪;使用图像裁剪方法剔除图像中与瞳孔无关干扰区域,提取感兴趣区域。降低识别干扰。
2)抽取瞳孔区域特征,并生成屈光特征向量;
通过DenseNet的网络结构对所述标准眼部图像进行特征提取,得到眼部特征图;然后对眼部特征图进行平均池化处理,得到眼部池化特征向量即屈光特征向量;
相比于传统的卷积神经网络,DenseNet更加高效、准确,并且可以避免梯度消失问题。
DenseNet的网络结构由多个Dense Block组成,每个Dense Block包含多个密集连接的卷积层(称为Bottleneck层)和一个Transition层。其中,Bottleneck层由一个1x1卷积层、一个3x3卷积层和一个Batch Normalization层组成,用于提取特征。而Transition层则由一个1x1卷积层、一个2x2的平均池化层和一个Batch Normalization层组成,用于调整特征图的大小和通道数。DenseNet的每个Dense Block都与前面所有的Dense Block直接相连,从而实现了密集连接。在训练时,每个卷积层都可以直接访问前面所有层的输入,并将其作为自己的输入。这样可以避免信息的丢失,同时还可以提高网络的稠密性和复用性。最后,DenseNet通过全局平均池化层将特征图转换为一个向量,即屈光特征向量。
3)对生物特征及用眼习惯数据进行预处理,包括数据清洗及规范,生成离散特征;
年龄作分段处理:(>0,<5)、(≥6,<8)、(≥8,<10)、(≥10,<12)、(≥10,<15)、(≥15,<18)、(≥18,<22)、(≥22),然后进行独热编码处理,得到所述年龄特征向量。
对所述性别特征数据进行独热编码处理,得到所述性别特征向量。
把身高作分段处理:(>0,<0.5)、(≥0.5,<0.8)、(≥0.8,<1)、(≥1,<1.2)、(≥1.2,<1.5)、(≥1.5,<1.8)、(≥1.8)),然后进行独热编码处理,得到所述年龄特征向量。
类似的,把用眼习惯数据分别作分段处理:
每周户外活动次数:1、2、3、4、5、6、7
每次户外活动时间:半小时以内、(≥0.5,<1)、(≥1,<2)、(≥2,<3)、(≥3)
每天读书写字时间:(≥0,<2)、(≥2,<4)、(≥4,<6)、(≥6,<8)、(≥8)
每天看电子产品时间:半小时以内、(≥0.5,<1)、(≥1,<2)、(≥2,<3)、(≥3)
父亲近视情况:正常、轻度、中度、重度
母亲近视情况:正常、轻度、中度、重度
4)查询向量表,获得生物特征向量和用眼习惯向量;
根据给定的生物特征及用眼习惯数据的离散特征向量表,获取采集的每个特征的特征向量。
把年龄、性别、身高特征向量级联融合成生理特征向量
把各个离散的用眼习惯特征级联融合成用眼习惯特征向量
5)融合屈光特征向量、物特征向量和用眼习惯向量,交互得到视敏特征向量:
把三类特征向量输出一个多层全连接网络,实现特征的交互。
多层全连接网络由多个隐藏层组成,每个隐藏层由多个神经元组成,每个神经元都具有一组权重和偏置参数,用于计算其输入数据的加权和,并通过激活函数进行非线性变换。隐藏层之间的连接是全连接的,即每个神经元都与上一层的所有神经元相连。具体实施中,采用二层隐藏层每层的神经元分别为1024,512,激活函数使用有ReLU,全连接网络最后的输出向量即为视敏特征向量,用户预测视敏度。
3、构建屈光度预测函数、视敏等级分类函数
A)构建屈光度预测函数f1(X)=UX+B,其中X为屈光特征向量,U为权重向量,B为偏置向量,f1(x)为预测的屈光度
B)构建视敏度等级分类函数f2(Z)=softmax(VZ+B),其中Z为屈光特征向量,V为权重向量,B为偏置向量,f2(Z)为预测的视敏度等级。
在实施过程中:把视力按等级划分为5类:[0,0.25][0.25,0.5][0.5,0.75],[0.75,1.0][1.0,1.5]。
4、联合模型训练获得最优模型
构建的屈光度与视力联合预测模型,如图2,显示联合模型的网络结构,其中屈光度预测模块的神经网络中的权重、视力预测模块的神经网络中的权重及年龄段、性别、身高密度向量表是需要学习的参数,因此需要对联合模型做训练。屈光度预测模块用于预测屈光度,因此可采用平方差损失作为屈光度预测模块的损失函数,其损失函数为公式(1):
其中M是batchsize;是样本预测的屈光度;yi是样本的真实屈光度。同理,视力预测模块用于预测视力值,因此可采用平方差损失作为视力值预测模块的损失函数,其损失函数为公式(2)
其中M是batchsize;C是类别个数,pij是样本i为视力等级j的真实值;是样本i预测为视力等级j的概率。
因而,在屈光度与视力联合预测模型的的损失函数进行优化时,联合模型的损失函数可以表示如公式(3)所示:
loss=a*loss1+b*loss2 公式(3)
其中,a、b为权重参数,该权重参数可以根据实际情况进行设定,不做限制。
通过上述方式可以方便地计算出联合模型的模型损失loss,并对该模型损失进行反向传播到联合模型,以对联合模型的模型参数进行调整,使得模型损失满足预设的迭代条件,停止对年龄预测模型的优化,其中,迭代条件可以是模型损失小于或者等于预设的模型损失阈值,或者是迭代次数达到预设的迭代次数阈值等等。此外在训练模型,同一目标人眼部图像采集10张,同时客观电脑验光数据屈光度和视力值作为标签特征。
具体而言,制作训练数据集:与视防中心合作共采集4832条记录。把数据随机划分按8:1:1成训练集、验证集、测试集。超参设置为a=0.4,b=0.6。测试集的实验结果如下表所示:
结果显示联合模型测试集的性能显著好于线性模型(p<0.05)。
如图2所示的预测者,输入预测者数据后,其预测结果为屈光度为0.31度,视敏等级为轻度。
上述预测方法所用设备包括如下结构:
获取模块,用于获取人眼部图像及其对应的生物特征数据;
预处理模块,用于对所述目标眼部图像进行图像预处理,得到标准眼部图像,并对所述目标生物特征数据进行数据预处理,得到所述对应的年龄、性别及身高特征向量;
屈光度预测模块,用于通过预设的屈光度预测模型对所述标准眼部图像进行年龄段预测处理,得到眼部池化特征向量和目屈光度;
特征拼接模块,用于通过所述屈光度预测模型对所述眼部屈光度特征向量、所述年龄、性别及身高特征向量向量进行拼接处理,得到视力特征向量;
视力值预测模块,用于根据所述预设的视力预测函数和所述视力特征向量,得到视力值。
反馈模块,被配置为用于向用户反馈所述屈光度预测模块和视力值预测模块输出的屈光度和视力值。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (1)
1.一种屈光度与视力联合检测方法,其特征在于,包括如下步骤:
1)制作训视敏练数据集:采集检测者的眼部图像、生理特征及用眼习惯数据及对应的屈光度用视力等级;其中眼部图像、生理特征及用眼习惯数据作为特征,对应的屈光度、视敏等级作为训练参考标签;
2)提取瞳孔区域,获取屈光特征向量;融合屈光特征向量、生理及用户习惯等特征,获取视敏特征向量;
3)以屈光特征向量作为输入,构建屈光度预测函数;以视敏特征向量作为输入,构建视敏等级分类函数;
4)获得屈光度预测损失、视敏等级分类损失的联合训练模型;
5)通过训练优化参数,实时更新和优化联合训练模型;
6)利用联合训练模型对患者进行快速预测:
a)采集预测者数据:拍摄人眼图像和收集其生理及用眼习惯等特征;
b)提取特征:包括:瞳孔区域特征、生理及用户习惯等特征,得到测试者的屈光特征向量和视敏特征向量;
c)将测试者的屈光特征向量和视敏特征向量输入联合训练模型;
d)根据屈光度预测函数,得到测试者的屈光度;根据视敏度等级分类函数,得到测试者的视敏等级。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311338138.8A CN117338234A (zh) | 2023-10-17 | 2023-10-17 | 一种屈光度与视力联合检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311338138.8A CN117338234A (zh) | 2023-10-17 | 2023-10-17 | 一种屈光度与视力联合检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117338234A true CN117338234A (zh) | 2024-01-05 |
Family
ID=89360828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311338138.8A Pending CN117338234A (zh) | 2023-10-17 | 2023-10-17 | 一种屈光度与视力联合检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117338234A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117617888A (zh) * | 2024-01-26 | 2024-03-01 | 湖南火眼医疗科技有限公司 | 一种近视屈光度的预测系统及方法 |
-
2023
- 2023-10-17 CN CN202311338138.8A patent/CN117338234A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117617888A (zh) * | 2024-01-26 | 2024-03-01 | 湖南火眼医疗科技有限公司 | 一种近视屈光度的预测系统及方法 |
CN117617888B (zh) * | 2024-01-26 | 2024-04-05 | 湖南火眼医疗科技有限公司 | 一种近视屈光度的预测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110837803B (zh) | 基于深度图网络的糖尿病视网膜病变分级方法 | |
CN113768461B (zh) | 一种眼底图像分析方法、系统和电子设备 | |
Boral et al. | Classification of diabetic retinopathy based on hybrid neural network | |
CN117338234A (zh) | 一种屈光度与视力联合检测方法 | |
CN110503636B (zh) | 参数调整方法、病灶预测方法、参数调整装置及电子设备 | |
CN112102940A (zh) | 一种屈光检测方法、装置、计算机设备及存储介质 | |
CN116563932A (zh) | 基于多任务学习的眼部图像识别方法及相关设备 | |
CN114424941A (zh) | 疲劳检测模型构建方法、疲劳检测方法、装置及设备 | |
Herath et al. | Autism spectrum disorder diagnosis support model using Inception V3 | |
CN113989217A (zh) | 一种基于深度学习的人眼屈光度检测方法 | |
Leopold et al. | Segmentation and feature extraction of retinal vascular morphology | |
CN112634221A (zh) | 基于图像和深度的角膜层次识别及病变定位方法和系统 | |
CN116993699A (zh) | 一种眼动辅助训练下的医学图像分割方法及系统 | |
CN115909438A (zh) | 基于深度时空域卷积神经网络的疼痛表情识别系统 | |
CN115223232A (zh) | 一种眼健康综合管理系统 | |
Kumari et al. | Automated process for retinal image segmentation and classification via deep learning based cnn model | |
Shanthakumari et al. | Glaucoma Detection using Fundus Images using Deep Learning | |
Sheikh | Diabetic Reinopathy Classification Using Deep Learning | |
Mostafa et al. | Diagnosis of Glaucoma from Retinal Fundus Image Using Deep Transfer Learning | |
KR102669542B1 (ko) | 딥러닝을 이용한 백내장 진단방법 및 시스템 | |
TUNCER | Optic Disc Segmentation based on Template Matching and Active Contour Method | |
KR102587830B1 (ko) | 딥러닝을 이용한 백내장 진단방법 및 시스템 | |
Azeroual et al. | Convolutional Neural Network for Segmentation and Classification of Glaucoma. | |
CN111259743B (zh) | 一种近视图像深度学习识别模型训练方法及系统 | |
CN117197637B (zh) | 神经影像脑网络效率指标的常模构建方法、应用及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |