CN117617888B - 一种近视屈光度的预测系统及方法 - Google Patents

一种近视屈光度的预测系统及方法 Download PDF

Info

Publication number
CN117617888B
CN117617888B CN202410109614.7A CN202410109614A CN117617888B CN 117617888 B CN117617888 B CN 117617888B CN 202410109614 A CN202410109614 A CN 202410109614A CN 117617888 B CN117617888 B CN 117617888B
Authority
CN
China
Prior art keywords
diopter
eye region
region image
image
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410109614.7A
Other languages
English (en)
Other versions
CN117617888A (zh
Inventor
杨扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Huoyan Medical Technology Co ltd
Original Assignee
Hunan Huoyan Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Huoyan Medical Technology Co ltd filed Critical Hunan Huoyan Medical Technology Co ltd
Priority to CN202410109614.7A priority Critical patent/CN117617888B/zh
Publication of CN117617888A publication Critical patent/CN117617888A/zh
Application granted granted Critical
Publication of CN117617888B publication Critical patent/CN117617888B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种近视屈光度的预测系统及方法,通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。

Description

一种近视屈光度的预测系统及方法
技术领域
本发明属于屈光度计算技术领域,涉及一种近视屈光度的预测系统及方法。
背景技术
近视防控刻不容缓。定期的眼部检查,尤其是屈光检查,有利于及早发现远视、近视、散光、弱视等视力问题,是近视防控非常重要的组成部分。推动传统屈光检查设备准确率的提高,准确获取屈光状态,以便于在视力波动的早期采取干预措施,意义十分重大。在现实中,屈光度的检测方法按照原理可以主要分为三大类:光学、数字图像处理和其他方法。而深度学习用于人眼屈光度检测是一种新的方法,并且取得了很好的效果,具有很高的科研以及市场价值。
然而,大多数深度学习方法是基于人眼部图像特征预测屈光度,而在这个过程中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低。因此,需要开发一种能够通过计算眼部不同区域图像特征的权重,用于完善屈光度预测模型的方法。
发明内容
为解决现有技术中存在的上述问题,本发明提供了一种近视屈光度的预测系统及方法。
本发明的目的可以通过以下技术方案实现:
第一方面,本申请提供了一种近视屈光度的预测系统,包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果。
进一步地,所述屈光度预测模块中,所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
进一步地,步骤S2中,所述相关性系数,计算公式如下:
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
进一步地,步骤S3中,所述屈光度权重,计算公式如下:
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
进一步地,步骤S4中,所述眼部区域图像的融合值,计算公式如下:
式中,F为眼部区域图像的融合值; 为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
进一步地,步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
第二方面,本申请提供了一种近视屈光度的预测方法,应用于如上所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
本发明的有益效果:
通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了现有技术中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。
附图说明
为了便于本领域技术人员理解,下面结合附图对本发明作进一步的说明。
图1为本发明中一种近视屈光度的预测系统的结构图。
具体实施方式
为更进一步阐述本发明为实现预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明的具体实施方式、结构、特征及其功效,详细说明如后。
请参阅图1,第一方面,本申请提供了一种近视屈光度的预测系统,包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
本实施例中,图像预处理包括直方图均衡化和图像裁剪:直方图均衡化使用累计分布函数,使得在某一灰度区域较密集直方图转换为在整体灰度范围内均匀分布的形式,即对像素值进行非线性拉伸,重新对像素值进行分配,在一定范围内均匀分布;另外使用图像裁剪方法剔除图像中与瞳孔无关干扰区域,提取感兴趣区域ROI降低识别干扰。
卷积神经网络(CNN)模型通过一系列的卷积层、池化层和全连接层来提取眼部区域图像的重要特征。在CNN中,卷积层利用可学习的滤波器对输入图像进行卷积运算,从而捕捉眼部图像中的局部特征信息。池化层则用于减小特征图的尺寸,并保留重要的特征信息。通过多次堆叠这两种层,CNN可以逐渐提取图像的高级特征表示。最后,通过全连接层将这些特征映射到预测或分类结果。整个过程中,CNN通过学习和调整网络的权重参数,使得提取的特征能够最大程度上区分和表示眼部图像中的关键信息。
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果。
进一步地,所述屈光度预测模块中,所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
需要注意的是,由于不同样本的瞳孔大小可能存在差异,在建立直角坐标系之前需要将瞳孔图像调整至相同的规格,后续模型对新采集的眼部区域图像进行预测时,对瞳孔区域也需相应调整至相同规格,使对瞳孔各坐标的预测更加准确。
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
本实施例中,相关性系数用于衡量各坐标眼部区域图像重要特征对于屈光度的关联性大小,在此基础上,将各坐标的相关性系数除以所有坐标的相关性系数总和,这样可使各坐标眼部区域的屈光度权重累计和为1。
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
在本实施例中,经过对眼部区域图像进行一系列处理,最终每个图像获得一个对应的融合值,该融合值与屈光度存在极大的关联性,通过建立大规模样本的眼部区域图像融合值与屈光度的预测关系模型,即可实现通过将采集的眼部区域图像输入模型中,预测其屈光度。
进一步地,步骤S2中,所述相关性系数,计算公式如下:
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
进一步地,步骤S3中,所述屈光度权重,计算公式如下:
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
进一步地,步骤S4中,所述眼部区域图像的融合值,计算公式如下:
式中,F为眼部区域图像的融合值;为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
进一步地,步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
第二方面,本申请提供了一种近视屈光度的预测方法,应用于如上所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
本发明的有益效果:
通过采集大规模眼部区域图像数据样本及其关联的屈光度,提取眼部区域图像重要特征数据;以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。本发明解决了现有技术中由于眼部不同区域的图像特征与屈光度的关联程度存在差异,导致预测的屈光度准确性低的问题。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭示如上,然而并非用以限定本发明,任何本领域技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简介修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (6)

1.一种近视屈光度的预测系统,其特征在于:包括图像采集模块、图像处理模块和屈光度预测模块,其中:
所述图像采集模块,用于进行人眼检测并采集眼部区域图像序列;
所述图像处理模块,用于将眼部区域图像数据预处理后,输入卷积神经网络模型中以提取眼部区域图像重要特征数据;
所述屈光度预测模块,用于将眼部区域图像重要特征输入预设的屈光度预测模型中,输出相应的屈光度结果;
所述预设的屈光度预测模型,构建步骤如下:
S1、采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
S2、以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
S3、将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
S4、利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
S5、采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
2.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S2中,所述相关性系数,计算公式如下:
式中:rij表示各坐标的眼部区域图像重要特征变量xi与屈光度xj之间的相关性系数;xki表示xi的第k个样本,xkj表示xj的第k个样本,k=1,2,…,n,其中n为样本数;和/>分别表示xi与xj的平均值。
3.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S3中,所述屈光度权重,计算公式如下:
式中,表示坐标为(x,y)的眼部区域的屈光度权重;/>表示坐标为(x,y)的相关性系数;/>表示所有坐标的相关性系数总和。
4.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S4中,所述眼部区域图像的融合值,计算公式如下:
式中,F为眼部区域图像的融合值;为第i个坐标点的屈光度权重,n表示坐标点的个数;Ci表示第i个坐标点的眼部区域图像重要特征数据。
5.根据权利要求1所述的一种近视屈光度的预测系统,其特征在于:步骤S5中,所述机器学习算法,配置为BP人工神经网络模型,包括以下步骤:
S51、确定模型结构:确定神经网络的层数和每层的神经元数量,包括输入层、隐藏层和输出层,其中输入层为眼部区域图像的融合值,输出层为屈光度;
S52、前向传播:将输入数据通过神经网络进行计算,从输入层开始,通过隐藏层逐层传递,最终到达输出层,在每个神经元中,根据输入数据和权重计算加权和,最后通过激活函数得到神经元的输出;
S53、计算误差:将神经元的输出与期望输出进行比较,计算出误差;
S54、反向传播:根据误差,从输出层开始,逐层反向传播误差,并根据误差利用梯度下降算法调整连接权重和偏置;
S55、重复迭代:重复进行步骤S52至步骤S54,直到达到预设的误差阈值时停止;
S56、模型评估:使用独立的测试数据集对训练好的神经网络进行测试,采用决定系数评估模型的预测能力。
6.一种近视屈光度的预测方法,其特征在于:应用于如权利要求1-5任一项所述的一种近视屈光度的预测系统,包括以下步骤:
采集大规模眼部区域图像数据样本,并将图像数据预处理后输入卷积神经网络模型中提取眼部区域图像重要特征数据,同时采集与眼部区域图像关联的屈光度;
以瞳孔的中心为原点,建立眼部区域图像的直角坐标系,计算所有数据样本各坐标的眼部区域图像重要特征数据变量与屈光度之间的相关性系数;
将各坐标的相关性系数除以所有坐标的相关性系数总和,获得各坐标眼部区域的屈光度权重;
利用各坐标的屈光度权重与其对应的图像特征数据之间的关系,获得眼部区域图像的融合值;
采用机器学习算法,建立眼部区域图像的融合值与其对应的屈光度之间的预测关系模型。
CN202410109614.7A 2024-01-26 2024-01-26 一种近视屈光度的预测系统及方法 Active CN117617888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410109614.7A CN117617888B (zh) 2024-01-26 2024-01-26 一种近视屈光度的预测系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410109614.7A CN117617888B (zh) 2024-01-26 2024-01-26 一种近视屈光度的预测系统及方法

Publications (2)

Publication Number Publication Date
CN117617888A CN117617888A (zh) 2024-03-01
CN117617888B true CN117617888B (zh) 2024-04-05

Family

ID=90021983

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410109614.7A Active CN117617888B (zh) 2024-01-26 2024-01-26 一种近视屈光度的预测系统及方法

Country Status (1)

Country Link
CN (1) CN117617888B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198181A (zh) * 2018-01-23 2018-06-22 电子科技大学 一种基于区域分割和图像融合的红外热图像处理方法
CN110279391A (zh) * 2019-05-30 2019-09-27 廖亮举 便携红外相机视力检测算法
WO2021148519A1 (de) * 2020-01-24 2021-07-29 Carl Zeiss Meditec Ag MACHINE-LEARNING BASIERTE BRECHKRAFTBESTIMMUNG FÜR MAßNAHMEN ZUR KORREKTUR DER SEHFÄHIGKEIT VON OCT BILDERN
WO2021232609A1 (zh) * 2020-05-20 2021-11-25 山东大学 Rgb-d图像的语义分割方法、系统、介质及电子设备
CN113989217A (zh) * 2021-10-26 2022-01-28 北京工业大学 一种基于深度学习的人眼屈光度检测方法
CN117338234A (zh) * 2023-10-17 2024-01-05 湖北科技学院 一种屈光度与视力联合检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7729563B2 (en) * 2002-08-28 2010-06-01 Fujifilm Corporation Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198181A (zh) * 2018-01-23 2018-06-22 电子科技大学 一种基于区域分割和图像融合的红外热图像处理方法
CN110279391A (zh) * 2019-05-30 2019-09-27 廖亮举 便携红外相机视力检测算法
WO2021148519A1 (de) * 2020-01-24 2021-07-29 Carl Zeiss Meditec Ag MACHINE-LEARNING BASIERTE BRECHKRAFTBESTIMMUNG FÜR MAßNAHMEN ZUR KORREKTUR DER SEHFÄHIGKEIT VON OCT BILDERN
WO2021232609A1 (zh) * 2020-05-20 2021-11-25 山东大学 Rgb-d图像的语义分割方法、系统、介质及电子设备
CN113989217A (zh) * 2021-10-26 2022-01-28 北京工业大学 一种基于深度学习的人眼屈光度检测方法
CN117338234A (zh) * 2023-10-17 2024-01-05 湖北科技学院 一种屈光度与视力联合检测方法

Also Published As

Publication number Publication date
CN117617888A (zh) 2024-03-01

Similar Documents

Publication Publication Date Title
Li et al. Automatic detection of diabetic retinopathy in retinal fundus photographs based on deep learning algorithm
CN108629370B (zh) 一种基于深度置信网络的分类识别算法及装置
CN111612856B (zh) 用于彩色眼底图像的视网膜新生血管检测方法及成像方法
CN113361623B (zh) 一种轻量级cnn结合迁移学习的医学图像分类方法
CN111141653B (zh) 一种基于神经网络的隧道渗漏速率预测方法
CN111798404B (zh) 基于深度神经网络的虹膜图像质量评估方法及评估系统
CN117315380B (zh) 一种基于深度学习的肺炎ct图像分类方法及系统
CN115131503A (zh) 一种虹膜三维识别的健康监测方法及其系统
Simanjuntak et al. Cataract classification based on fundus images using convolutional neural network
CN114066812A (zh) 基于空间注意力机制的无参考图像质量评价方法
CN113989217A (zh) 一种基于深度学习的人眼屈光度检测方法
CN117095188B (zh) 一种基于图像处理的电力安全加强方法及系统
CN113935413A (zh) 一种基于卷积神经网的配网录波文件波形识别方法
CN113313021A (zh) 一种基于低质量影像识别的深度学习模型构建方法
CN117338234A (zh) 一种屈光度与视力联合检测方法
CN117593540A (zh) 一种基于智能化图像识别技术的压力性损伤分期识别方法
CN117617888B (zh) 一种近视屈光度的预测系统及方法
CN112861743A (zh) 一种掌静脉图像防伪方法、装置和设备
CN117253192A (zh) 用于桑蚕养殖的智能系统及方法
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN111582440A (zh) 一种基于深度学习的数据处理方法
CN111325282A (zh) 适应多机型的乳腺x射线影像识别方法和装置
CN116152194A (zh) 一种物体缺陷检测方法、系统、设备及介质
CN113762478A (zh) 射频干扰检测模型、射频干扰检测方法及装置
CN117689880B (zh) 基于机器学习用于生物医学图像中目标识别的方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant