CN117617888B - 一种近视屈光度的预测系统及方法 - Google Patents
一种近视屈光度的预测系统及方法 Download PDFInfo
- Publication number
- CN117617888B CN117617888B CN202410109614.7A CN202410109614A CN117617888B CN 117617888 B CN117617888 B CN 117617888B CN 202410109614 A CN202410109614 A CN 202410109614A CN 117617888 B CN117617888 B CN 117617888B
- Authority
- CN
- China
- Prior art keywords
- diopter
- eye region
- region image
- image
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 39
- 210000001747 pupil Anatomy 0.000 claims abstract description 14
- 238000010801 machine learning Methods 0.000 claims abstract description 12
- 208000001491 myopia Diseases 0.000 claims abstract description 6
- 230000004379 myopia Effects 0.000 claims abstract description 5
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 210000002569 neuron Anatomy 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 201000009487 Amblyopia Diseases 0.000 description 1
- 206010020675 Hypermetropia Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 201000009310 astigmatism Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000004305 hyperopia Effects 0.000 description 1
- 201000006318 hyperopia Diseases 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Radiology & Medical Imaging (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种近视屈光度的预测系统及方法,通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。
Description
技术领域
本发明属于屈光度计算技术领域,涉及一种近视屈光度的预测系统及方法。
背景技术
近视防控刻不容缓。定期的眼部检查,尤其是屈光检查,有利于及早发现远视、近视、散光、弱视等视力问题,是近视防控非常重要的组成部分。推动传统屈光检查设备准确率的提高,准确获取屈光状态,以便于在视力波动的早期采取干预措施,意义十分重大。在现实中,屈光度的检测方法按照原理可以主要分为三大类:光学、数字图像处理和其他方法。而深度学习用于人眼屈光度检测是一种新的方法,并且取得了很好的效果,具有很高的科研以及市场价值。
然而,大多数深度学习方法是基于人眼部图像特征预测屈光度,而在这个过程中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低。因此,需要开发一种能够通过计算眼部不同区域图像特征的权重,用于完善屈光度预测模型的方法。
发明内容
为解决现有技术中存在的上述问题,本发明提供了一种近视屈光度的预测系统及方法。
本发明的目的可以通过以下技术方案实现:
第一方面,本申请提供了一种近视屈光度的预测系统,包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果。
进一步地,所述屈光度预测模块中,所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
进一步地,步骤S2中,所述相关性系数,计算公式如下:
,
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
进一步地,步骤S3中,所述屈光度权重,计算公式如下:
,
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
进一步地,步骤S4中,所述眼部区域图像的融合值,计算公式如下:
,
式中,F为眼部区域图像的融合值; 为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
进一步地,步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
第二方面,本申请提供了一种近视屈光度的预测方法,应用于如上所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
本发明的有益效果:
通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了现有技术中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。
附图说明
为了便于本领域技术人员理解,下面结合附图对本发明作进一步的说明。
图1为本发明中一种近视屈光度的预测系统的结构图。
具体实施方式
为更进一步阐述本发明为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明的具体实施方式、结构、特征及其功效,详细说明如后。
请参阅图1,第一方面,本申请提供了一种近视屈光度的预测系统,包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
本实施例中,图像预处理包括直方图均衡化和图像裁剪:直方图均衡化使用累计分布函数,使得在某一灰度区域较密集直方图转换为在整体灰度范围内均匀分布的形式,即对像素值进行非线性拉伸,重新对像素值进行分配,在一定范围内均匀分布;另外使用图像裁剪方法剔除图像中与瞳孔无关干扰区域,提取感兴趣区域ROI降低识别干扰。
卷积神经网络(CNN)模型通过一系列的卷积层、池化层和全连接层来提取眼部区域图像的重要特征。在CNN中,卷积层利用可学习的滤波器对输入图像进行卷积运算,从而捕捉眼部图像中的局部特征信息。池化层则用于减小特征图的尺寸,并保留重要的特征信息。通过多次堆叠这两种层,CNN可以逐渐提取图像的高级特征表示。最后,通过全连接层将这些特征映射到预测或分类结果。整个过程中,CNN通过学习和调整网络的权重参数,使得提取的特征能够最大程度上区分和表示眼部图像中的关键信息。
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果。
进一步地,所述屈光度预测模块中,所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
需要注意的是,由于不同样本的瞳孔大小可能存在差异,在建立直角坐标系之前需要将瞳孔图像调整至相同的规格,后续模型对新采集的眼部区域图像进行预测时,对瞳孔区域也需相应调整至相同规格,使对瞳孔各坐标的预测更加准确。
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
本实施例中,相关性系数用于衡量各坐标眼部区域图像重要特征对于屈光度的关联性大小,在此基础上,将各坐标的相关性系数除以所有坐标的相关性系数总和,这样可使各坐标眼部区域的屈光度权重累计和为1。
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
在本实施例中,经过对眼部区域图像进行一系列处理,最终每个图像获得一个对应的融合值,该融合值与屈光度存在极大的关联性,通过建立大规模样本的眼部区域图像融合值与屈光度的预测关系模型,即可实现通过将采集的眼部区域图像输入模型中,预测其屈光度。
进一步地,步骤S2中,所述相关性系数,计算公式如下:
,
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
进一步地,步骤S3中,所述屈光度权重,计算公式如下:
,
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
进一步地,步骤S4中,所述眼部区域图像的融合值,计算公式如下:
,
式中,F为眼部区域图像的融合值;为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
进一步地,步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
第二方面,本申请提供了一种近视屈光度的预测方法,应用于如上所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
本发明的有益效果:
通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了现有技术中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭示如上,然而并非用以限定本发明,任何本领域技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简介修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (6)
1.一种近视屈光度的预测系统,其特征在于:包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果;
所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
2.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S2中,所述相关性系数,计算公式如下:
,
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
3.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S3中,所述屈光度权重,计算公式如下:
,
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
4.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S4中,所述眼部区域图像的融合值,计算公式如下:
,
式中,F为眼部区域图像的融合值;为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
5.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
6.一种近视屈光度的预测方法,其特征在于:应用于如权利要求1-5任一项所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410109614.7A CN117617888B (zh) | 2024-01-26 | 2024-01-26 | 一种近视屈光度的预测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410109614.7A CN117617888B (zh) | 2024-01-26 | 2024-01-26 | 一种近视屈光度的预测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117617888A CN117617888A (zh) | 2024-03-01 |
CN117617888B true CN117617888B (zh) | 2024-04-05 |
Family
ID=90021983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410109614.7A Active CN117617888B (zh) | 2024-01-26 | 2024-01-26 | 一种近视屈光度的预测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117617888B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198181A (zh) * | 2018-01-23 | 2018-06-22 | 电子科技大学 | 一种基于区域分割和图像融合的红外热图像处理方法 |
CN110279391A (zh) * | 2019-05-30 | 2019-09-27 | 廖亮举 | 便携红外相机视力检测算法 |
WO2021148519A1 (de) * | 2020-01-24 | 2021-07-29 | Carl Zeiss Meditec Ag | MACHINE-LEARNING BASIERTE BRECHKRAFTBESTIMMUNG FÜR MAßNAHMEN ZUR KORREKTUR DER SEHFÄHIGKEIT VON OCT BILDERN |
WO2021232609A1 (zh) * | 2020-05-20 | 2021-11-25 | 山东大学 | Rgb-d图像的语义分割方法、系统、介质及电子设备 |
CN113989217A (zh) * | 2021-10-26 | 2022-01-28 | 北京工业大学 | 一种基于深度学习的人眼屈光度检测方法 |
CN117338234A (zh) * | 2023-10-17 | 2024-01-05 | 湖北科技学院 | 一种屈光度与视力联合检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7729563B2 (en) * | 2002-08-28 | 2010-06-01 | Fujifilm Corporation | Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames |
-
2024
- 2024-01-26 CN CN202410109614.7A patent/CN117617888B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108198181A (zh) * | 2018-01-23 | 2018-06-22 | 电子科技大学 | 一种基于区域分割和图像融合的红外热图像处理方法 |
CN110279391A (zh) * | 2019-05-30 | 2019-09-27 | 廖亮举 | 便携红外相机视力检测算法 |
WO2021148519A1 (de) * | 2020-01-24 | 2021-07-29 | Carl Zeiss Meditec Ag | MACHINE-LEARNING BASIERTE BRECHKRAFTBESTIMMUNG FÜR MAßNAHMEN ZUR KORREKTUR DER SEHFÄHIGKEIT VON OCT BILDERN |
WO2021232609A1 (zh) * | 2020-05-20 | 2021-11-25 | 山东大学 | Rgb-d图像的语义分割方法、系统、介质及电子设备 |
CN113989217A (zh) * | 2021-10-26 | 2022-01-28 | 北京工业大学 | 一种基于深度学习的人眼屈光度检测方法 |
CN117338234A (zh) * | 2023-10-17 | 2024-01-05 | 湖北科技学院 | 一种屈光度与视力联合检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117617888A (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Automatic detection of diabetic retinopathy in retinal fundus photographs based on deep learning algorithm | |
CN108629370B (zh) | 一种基于深度置信网络的分类识别算法及装置 | |
CN111612856B (zh) | 用于彩色眼底图像的视网膜新生血管检测方法及成像方法 | |
CN113361623B (zh) | 一种轻量级cnn结合迁移学习的医学图像分类方法 | |
CN111141653B (zh) | 一种基于神经网络的隧道渗漏速率预测方法 | |
CN111798404B (zh) | 基于深度神经网络的虹膜图像质量评估方法及评估系统 | |
CN117315380B (zh) | 一种基于深度学习的肺炎ct图像分类方法及系统 | |
CN115131503A (zh) | 一种虹膜三维识别的健康监测方法及其系统 | |
Simanjuntak et al. | Cataract classification based on fundus images using convolutional neural network | |
CN114066812A (zh) | 基于空间注意力机制的无参考图像质量评价方法 | |
CN113989217A (zh) | 一种基于深度学习的人眼屈光度检测方法 | |
CN117095188B (zh) | 一种基于图像处理的电力安全加强方法及系统 | |
CN113935413A (zh) | 一种基于卷积神经网的配网录波文件波形识别方法 | |
CN113313021A (zh) | 一种基于低质量影像识别的深度学习模型构建方法 | |
CN117338234A (zh) | 一种屈光度与视力联合检测方法 | |
CN117593540A (zh) | 一种基于智能化图像识别技术的压力性损伤分期识别方法 | |
CN117617888B (zh) | 一种近视屈光度的预测系统及方法 | |
CN112861743A (zh) | 一种掌静脉图像防伪方法、装置和设备 | |
CN117253192A (zh) | 用于桑蚕养殖的智能系统及方法 | |
CN115830302B (zh) | 一种多尺度特征提取融合配电网设备定位识别方法 | |
CN111582440A (zh) | 一种基于深度学习的数据处理方法 | |
CN111325282A (zh) | 适应多机型的乳腺x射线影像识别方法和装置 | |
CN116152194A (zh) | 一种物体缺陷检测方法、系统、设备及介质 | |
CN113762478A (zh) | 射频干扰检测模型、射频干扰检测方法及装置 | |
CN117689880B (zh) | 基于机器学习用于生物医学图像中目标识别的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |