CN115496808A - 一种角膜缘定位方法及其系统 - Google Patents

一种角膜缘定位方法及其系统 Download PDF

Info

Publication number
CN115496808A
CN115496808A CN202211451710.7A CN202211451710A CN115496808A CN 115496808 A CN115496808 A CN 115496808A CN 202211451710 A CN202211451710 A CN 202211451710A CN 115496808 A CN115496808 A CN 115496808A
Authority
CN
China
Prior art keywords
edge
positioning
resolution
image
edge image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211451710.7A
Other languages
English (en)
Other versions
CN115496808B (zh
Inventor
李劲嵘
李�根
封檑
周榆松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongshan Ophthalmic Center
Original Assignee
Zhongshan Ophthalmic Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongshan Ophthalmic Center filed Critical Zhongshan Ophthalmic Center
Priority to CN202211451710.7A priority Critical patent/CN115496808B/zh
Publication of CN115496808A publication Critical patent/CN115496808A/zh
Application granted granted Critical
Publication of CN115496808B publication Critical patent/CN115496808B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种角膜缘定位方法及其系统,方法包括:构建多分辨率多尺寸多种形态的卷积核;对输入图像进行包括边缘提取在内的预处理;通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到定位样本;样本扩展,并筛选得到n个最优样本;进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。本发明的方案具有鲁棒性、快速性和精确性,能够有效过滤眼睑特征对角膜缘定位识别的影响,准确、高效的实现角膜缘定位,且整体的计算量小,计算过程简单,计算效率高。

Description

一种角膜缘定位方法及其系统
技术领域
本发明涉及角膜缘识别领域,特别涉及一种角膜缘定位方法及其系统。
背景技术
角膜缘,又称角巩膜带(corneoscleral limbue),是角膜同巩膜之间的一条灰白色过渡带,也即白色巩膜组织同透明的角膜组织间的一条半透明灰白色的带,是角膜与巩膜的移行区,角膜镶嵌在巩膜而逐渐过渡到巩膜组织内。精确的角膜缘的定位对于诸多眼科病症的诊断非常重要。
现有的角膜缘定位方法,主要分为基于边缘信息的定位方法、基于深度学习的定位方法以及基于霍夫椭圆的定位方法。基于边缘信息的定位方法,主要是利用梯度强度和方向信息进行角膜缘定位,定位精度不高,且极易引入误差。这是由于图像噪声本身就是高频的,容易和边缘混淆。另外,眼睑也会产生边缘,容易和角膜缘混淆。基于深度学习的定位方法,要依靠大量的数据集训练模型,且难以对模型进行解释。而一旦出现错误,修改基于深度学习训练出的模型非常困难且耗时间,通常需要把错误的样本加入到以前的训练集中进行重新训练。基于霍夫椭圆的定位方法,定位过程中涉及庞大的计算量,耗时长,且极易出错。
发明内容
有鉴于此,本发明提出了一种角膜缘定位方法及其系统,具体方案如下:
一种角膜缘定位方法,包括如下:
基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;其中,每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;n为大于1的自然数;
对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。
在一个具体实施例中,基于最近点关联的迭代椭圆优化流程具体包括:将n个最优样本进一步优化精简为m个最优样本,m为小于n大于0的自然数;根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;对备选椭圆点集合进行最小二乘优化获得拟合椭圆,在拟合椭圆的基础上,进行椭圆参数迭代优化,直至获得最优的椭圆参数,分析拟合出的最优椭圆得到定位结果。
在一个具体实施例中,在进行椭圆参数迭代过程中,每次迭代会得到一个备选椭圆点集合和一个拟合椭圆,计算备选椭圆点集合与拟合椭圆之间的残差;判断每次迭代产生的残差是否小于预设误差阈值;
若是,则根据拟合出的椭圆得到角膜缘的圆心位置和角膜缘椭圆的几何参数;若否,则计算备选椭圆点集合中每个备选椭圆点到当前拟合椭圆的距离,选取距离小于预设距离阈值的点作为新的备选椭圆点,从而重新构建备选椭圆点集合,继续进行椭圆参数迭代。
在一个具体实施例中,所述卷积核包括外围区域、角膜缘区域和内部区域,所述角膜缘区域位于所述外围区域和所述内部区域之间;
所述外围区域的权重为-1*(外围区域像素面积的倒数);
所述角膜缘区域的权重为1*(角膜缘区域像素面积的倒数);
所述内部区域的权重为-1*(内部区域像素面积的倒数)。
在一个具体实施例中,所述预处理还包括:若输入图像中存在非眼部区域,则在边缘提取之前,对输入图像进行眼部分割,以得到仅涉及眼部区域的图像;将仅涉及眼部区域的图像作为原始图像;采用canny算法对所述原始图像构建金字塔,得到由多张分辨率不等的边缘图像所构成的边缘金字塔;对边缘金字塔进行边缘提取,利用低分辨率下低噪声、低精度的边缘图像作为掩膜,来获得高分辨率下低噪声、高精度的去噪边缘图像。
在一个具体实施例中,设边缘金字塔中x张边缘图像按分辨率从低到高排序依次为A1、A2、A3……Ax;所述边缘提取包括:对边缘图像An进行上采样,得到边缘图像A(n+1)的边缘掩膜B(n+1),n=1,2,3……x;求解边缘图像A(n+1)和边缘掩膜B(n+1)的交集,获得边缘图像A(n+1)的去噪边缘图像C(n+1);对去噪边缘图像C(n+1)进行上采样,得到边缘图像A(n+2)的边缘掩膜B(n+2);求解边缘图像A(n+2)和边缘掩膜B(n+2)的交集,获得边缘图像A(n+2)去噪边缘图像C(n+2);循环上述步骤,直到获得边缘图像Ax的去噪边缘图像Cx。
在一个具体实施例中,n个定位样本的获取具体包括:使用所有的最低分辨率下的卷积核遍历最低分辨率下的去噪边缘图像的所有像素坐标,计算得到每一个像素坐标的匹配程度,记录该匹配程度对应的卷积核编号;每个像素坐标及其对应的匹配程度、卷积核编号共构成了一个定位样本;对各个定位样本的匹配程度进行归一化处理,筛选出n个匹配程度最高的定位样本。
在一个具体实施例中,设最低分辨率下的去噪边缘图像的分辨率为ColLowest*RowLoest,最低分辨率下的卷积核的个数为k;遍历结束后得到ColLowest*RowLoest*k个定位样本。
在一个具体实施例中,设去噪边缘图像的分辨率依次为lowest、lowest-1、lowest-2……highest;“对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本”具体包括:
初始化当前分辨率curRes为最低分辨率lowest;获取定位样本,开始执行一轮主体循环;判断当前分辨率curRes是否等于最高分辨率highest:若是,则完成一轮主体循环,输出当前的定位样本;若否,则对每个定位样本执行退火采样以扩展定位样本个数;采用分辨率为curRes-1下的去噪边缘图像和卷积核,评价退火采样获得的定位样本的匹配程度;对各个定位样本的匹配程度进行归一化处理,筛选出n个匹配程度最高的定位样本作为n个最优样本;将当前分辨率curRes更新为curRes-1,对新的定位样本执行新一轮的主体循环。
一种角膜缘定位系统,包括如下:
卷积核获取单元,用于基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
预处理单元,用于对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
初始定位单元,用于通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;n为大于1的自然数;
样本优化单元,用于对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
椭圆优化单元,用于以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。
在一个具体实施例中,所述椭圆优化单元具体包括:将n个最优样本精简为m个最优样本,m为大于0小于n的自然数;根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;对备选椭圆点集合进行最小二乘优化获得拟合椭圆,在拟合椭圆的基础上,进行椭圆参数迭代优化,直至获得最优的椭圆参数,分析拟合出的最优椭圆得到定位结果。
在一个具体实施例中,所述预处理单元包括:
眼部分割模块,用于在对存在非眼部区域的输入图像进行眼部分割,以得到仅涉及眼部区域的图像;
金字塔构建模块,用于将眼部分割模块输出的图像作为原始图像,采用canny算法对所述原始图像构建金字塔,得到由多张分辨率不等的边缘图像所构成的边缘金字塔;
边缘提取模块,用于对边缘金字塔进行边缘提取,利用低分辨率下低噪声、低精度的边缘图像作为掩膜,来获得高分辨率下低噪声、高精度的去噪边缘图像。
有益效果:本发明提供了一种角膜缘定位方法及其系统,具有鲁棒性、快速性和精确性,能够准确、高效的实现角膜缘定位。采用多种分辨率下、多种形态下的卷积核进行卷积处理,能够有效过滤眼睑特征对角膜缘定位识别的影响。在边缘特征的基础上,结合低分辨率驱动的边缘提取,能够有效过滤光照变化对定位识别的影响,降低边缘图像中的高频噪声,同时保证边缘特征的精度。结合边缘金字塔与多分辨卷积核,使得角膜缘全局定位可以在低分辨率去噪边缘图像下进行,大幅度减少搜索空间,降低搜索复杂度。在低分辨率样本的基础上,采用基于多尺度粒子滤波的角膜缘定位,在小样本的情况下实现了基于高分辨率边缘图像的角膜缘粗定位,为后续的精密定位提供基础。在粗定位的基础上,进一步采用基于最近点关联的迭代椭圆优化进行角膜缘的精确定位,定位精度高,相较于基于霍夫椭圆的方案,计算量更小,计算过程简单,计算效率高。
附图说明
图1为本发明实施例的角膜缘定位方法流程示意图;
图2为本发明实施例完整的角膜缘定位方法流程图;
图3为本发明实施例的卷积核内部结构示意图;
图4为本发明实施例的多分辨率多形态卷积核示意图;
图5为本发明实施例的眼部分割示意图;
图6为本发明实施例的构建金字塔步骤示意图;
图7为本发明实施例的低分辨驱动的边缘提取原理示意图;
图8为本发明实施例的低分辨驱动的边缘提取流程示意图;
图9为本发明实施例的角膜缘全局初始定位示意图;
图10为本发明实施例的卷积步骤示意图;
图11为本发明实施例的基于多尺度粒子滤波的角膜缘定位流程图;
图12为本发明实施例的退火采样示意图;
图13为本发明实施例的基于最近点关联的迭代椭圆优化流程图;
图14为本发明实施例的角膜缘定位系统模块示意图。
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
附图标记:1-卷积核获取单元;2-预处理单元;3-初始定位单元;4-样本优化单元;5-椭圆优化单元;21-眼部分割模块;22-金字塔构建模块;23-边缘提取模块。
具体实施方式
在下文中,将更全面地描述本发明公开的各种实施例。本发明公开可具有各种实施例,并且可在其中做出调整和改变。然而,应理解:不存在将本发明公开的各种实施例限于在此公开的特定实施例的意图,而是应将本发明公开理解为涵盖落入本发明公开的各种实施例的精神和范围内的所有调整、等同物和/或可选方案。
需要说明的是,本发明的角膜缘定位方案能够在图像中定位出角膜缘,输入图像主要为人脸图像。当输入图像为人脸图像时,需要进行眼部分割、眼部图像金字塔构建、低分辨率驱动的边缘提取等预处理。当输入图像为眼部图像时,则可以视情况缩减预处理步骤。因此,本发明的角膜缘定位方案中,需要根据实际的输入图像确定预处理的步骤。
在本发明公开的各种实施例中使用的术语仅用于描述特定实施例的目的并且并非意在限制本发明公开的各种实施例。如在此所使用,单数形式意在也包括复数形式,除非上下文清楚地另有指示。除非另有限定,否则在这里使用的所有术语(包括技术术语和科学术语)具有与本发明公开的各种实施例所属领域普通技术人员通常理解的含义相同的含义。所述术语(诸如在一般使用的词典中限定的术语)将被解释为具有与在相关技术领域中的语境含义相同的含义并且将不被解释为具有理想化的含义或过于正式的含义,除非在本发明公开的各种实施例中被清楚地限定。
实施例1
本发明实施例1公开了一种角膜缘定位方法,具有鲁棒性,能够准确、高效的实现角膜缘定位。角膜缘定位方法流程图如说明书附图1所示,具体方案如下:
一种角膜缘定位方法,包括如下步骤:
101、基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
102、对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
103、通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;n为大于1的自然数;
104、对定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
105、以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。
本实施例的角膜缘定位方法,能够从图像中快速、鲁棒、精确定位角膜缘。角膜缘的定位结果包含两部分,第一部分为角膜缘中心在图像坐标系下的位置,第二部分为角膜缘的几何参数。由于本实施例的角膜缘定位方法采用椭圆来拟合角膜缘,因此角膜缘的几何参数包含:长轴长度、短轴长度和长轴方向。
角膜缘定位方法的整体流程如说明书附图2所示,其主要包含两个阶段:第一个阶段为预计算阶段,整个方法在实际使用过程中只需要计算一次。该阶段只涉及步骤101,构建多分辨率多尺度多形态的卷积核,该系列卷积核用于后续阶段的角膜缘识别及定位。第二个阶段是在线计算阶段,涉及步骤102-105,需要根据输入图像进行实时处理,获得定位结果。其中,步骤103为角膜缘全局初始定位,步骤104为多分辨率角膜缘粒子滤波跟踪,步骤105为椭圆拟合。实际上,步骤103、104是对角膜缘的粗略定位,而步骤105则是对角膜缘的精密定位。
由于眼球可以转动,角膜缘在眼球转动时会存在多种形态,因此,卷积核也需要具备多种形态。另外,为了后续能够实现快速的角膜缘识别,本实施例的角膜缘定位方法采用了多分辨卷积核。在低分辨率进行全局定位,而在高分辨率进行局部定位,整个的搜索空间小,速度快。
说明书附图3为角膜缘卷积核的构成。对于实际的眼睛,角膜缘外是眼白,角膜缘内是棕色巩膜。因此,该卷积核也分为三个区域,外围区域(A1)、角膜缘区域(A2)和内部区域(A3),角膜缘区域位于外围区域和内部区域之间。其中,黑色部分为背景,权重设置为0;外围区域的权重为-1*(外围区域像素面积的倒数);角膜缘区域的权重为1*(角膜缘区域像素面积的倒数);内部区域的权重为-1*(内部区域像素面积的倒数)。
说明书附图4为生成的多分辨率多形态多尺度卷积核的一个实例。其中,从左到右的卷积核分辨率越来越大,尺寸也越来越大,从15*15一直到127*127。显然,采用15*15的卷积核和眼部图像卷积的计算效率远高于127*127的卷积核。从上到下为角膜缘不同形态的卷积核,虽然眼球转动会导致不同的角膜缘形态,但总体形态的方差不大。因此,本是实施例的定位方法优选5种不同的形态来近似表达所有眼球形态的总体。采用多种分辨率下、多种形态下的卷积核进行卷积处理,能够有效过滤眼睑特征对角膜缘定位识别的影响。
关于步骤102的预处理,需要根据具体的输入图像进行调整。若输入图像中存在非眼部区域,则在边缘提取之前,对输入图像进行眼部分割,以得到仅涉及眼部区域的图像。
以输入图像为人脸图像为例,如说明书附图5所示,眼部分割主要是筛选出眼部区域。在图5中,眼部分割的输入为人脸图像,输出为眼睛局部图像。对于光照良好的情况下,采用基于Haar算子的级联分类器可实现眼睛局部图像的快速分割。对于环境复杂的情况,可以采用基于深度学习的图像分割方式。
获取到眼部区域图像后,为方便后续的多分辨率处理,需要构建图像金字塔。图像金字塔是图像多尺度表达的一种,是一种以多分辨率来解释图像的有效但概念简单的结构。一幅图像的图像金字塔是一系列以金字塔形状逐步降低,且来源于同一张原始图的图像分辨率集合。其通过梯次向下采样获得,直到达到某个终止条件才停止采样。将一层一层的图像比喻成金字塔,层级越高,则图像越小,分辨率越低。
将眼部区域图像作为原始图像。特别地,在后续对图像进行卷积处理时,不是采用原始图像,而是采用原始图像的边缘图像。由于角膜缘本身就是由边缘特征构成,边缘图像的信噪比更高,需要构建原始图像边缘图像的图像金字塔。构建图像金字塔的输入是仅涉及眼部区域的图像,输出是原始图像金字塔和眼部边缘图像金字塔。原始图像金字塔可作为后续的参考。
优选地,采用canny算法对相应分辨率的眼部图像进行处理即可获得边缘金字塔。canny边缘检测算法是一种多级边缘检测算法。目标是找到一个最优的边缘检测算法,最优边缘检测的含义是:(1)最优检测:算法能够尽可能多地标识出图像中的实际边缘,漏检真实边缘的概率和误检非边缘的概率都尽可能小;(2)最优定位准则:检测到的边缘点的位置距离实际边缘点的位置最近,或者是由于噪声影响引起检测出的边缘偏离物体的真实边缘的程度最小;(3)检测点与边缘点一一对应:算子检测的边缘点与实际边缘点应该是一一对应。
在本实施例中,canny的上权重为127(255的一半),下权重为50,目的是获取到尽可能多的边缘特征,但同时会引入更多的噪声。本实施例将会利用后续低分辨率驱动的边缘提取,来减少边缘图像的噪声,进一步提高信噪比。
说明书附图6展示了构建图像金字塔的示例图。其中,最左边的图像为输入的原始图像,最右边的两列为输出的原始图像金字塔和边缘金字塔。对于金字塔,其图像大小从38*66到305*531,在后续的步骤103角膜缘全局初始定位中,先从低分辨率进行搜索,即采用低分辨率卷积核(该例为15*15)在低分辨率边缘图像(该例为38*66)中进行搜索,定位速度会非常快。
对于边缘金字塔,可以清楚的看到在低分辨率时,噪声较少,但精度差;高分辨率时,噪声多,但精度高。因此,本实施例的定位方法通过低分辨率驱动的边缘提取来获得每个分辨率下同时保证精度和高信噪比的边缘图像。
低分辨率驱动的边缘提取作为预处理的一部分,主要是为了去噪。以边缘金字塔为输入,输出得到去噪后的边缘金字塔,如说明书附图7所示。该步骤的策略是利用低分辨率下低噪声低精度的边缘图像作为掩膜,来获得高分辨率下低噪声高精度的边缘图像。在边缘特征的基础上,结合低分辨率驱动的边缘提取,能够有效过滤光照变化对定位识别的影响,降低边缘图像中的高频噪声,同时保证边缘特征的精度。
低分辨驱动的边缘提取流程如说明书附图8所示。设边缘金字塔中x张边缘图像按分辨率从小到大排序依次为A1、A2、A3……Ax。边缘提取具体包括:对边缘图像An进行上采样,得到边缘图像A(n+1)的边缘掩膜B(n+1),n=1,2,3……x;对边缘图像An进行上采样,得到边缘图像A(n+1)的边缘掩膜B(n+1),n=1,2,3……x;求解边缘图像A(n+1)和边缘掩膜B(n+1)的交集,获得边缘图像A(n+1)的去噪边缘图像C(n+1);对去噪边缘图像C(n+1)进行上采样,得到边缘图像A(n+2)的边缘掩膜B(n+2);求解边缘图像A(n+2)和边缘掩膜B(n+2)的交集,获得边缘图像A(n+2)去噪边缘图像C(n+2);循环上述步骤,直到获得边缘图像Ax的去噪边缘图像Cx。
设去噪边缘图像的分辨率按从小到大顺序依次为lowest、lowest-1、lowest-2、lowest-3……highest。Lowest表示最低分辨率,highest表示最高分辨率。
首先利用最低分辨率(lowest)的边缘图像,对其进行上采样,得到图像扩大一倍的边缘图像,称其为特定分辨率下的“边缘掩膜”,具体为lowest-1分辨率下的边缘掩膜。由于上采样步骤中,还包含了对边缘进行高斯模糊和阈值分割步骤,因此上采样获得的边缘图像的边缘会更粗大。且边缘掩膜只具有0和255两类值,是一张二值图像。粗大的边缘是为了获取更多更精确的高一级分辨率(lowest-1)的边缘信息。
然后用该边缘掩膜(lowest-1)和对应分辨率(lowest-1)下的边缘图像求交集,获得lowest-1分辨率下的去噪边缘图像(lowest-1)。由于采用了图像求交,只有lowest-1分辨率下的原始边缘图像和边缘掩膜中共同具有的边缘才会被留下,从而实现了去噪。
此时,对lowest-1分辨率下的去噪边缘图像进行上采样,然后反复执行上述过程,一直到获得最高分辨率(highest)下的去噪边缘图像。
步骤103为角膜缘全局初始定位,该步骤之前的工作均为角膜缘定位的准备工作。以最低分辨率下的角膜缘卷积核和最低分辨率下的去噪边缘图像为输入,得到n个由角膜缘定位样本,原理如说明书附图9所示。具体可分为卷积和采样两步。
使用所有的最低分辨率下的卷积核遍历最低分辨率下的去噪边缘图像的所有的像素坐标,计算得到每一个像素坐标的匹配程度,记录该匹配程度对应的卷积核编号;每个像素坐标对应的匹配程度和卷积核编号构成了一个定位样。定位样本中的每个样本有三个属性构成,角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度。像素坐标(x,y):表示角膜缘在图像坐标系下以像素为单位的坐标。卷积核编号,即卷积核索引,在步骤101中对每一个卷积核编号,卷积核索引即表示应用了哪一个标号的卷积核。匹配程度,即归一化后的卷积分数,表示卷积核和图像在像素坐标(x,y)处的匹配程度。
在卷积步骤,要使用所有的最低分辨率下的卷积核对最低分辨率下的去噪边缘图像做卷积,其可以看为一个模板匹配的过程,即遍历最低分辨率边缘图像的所有的像素坐标,计算得到每一个像素坐标的匹配得程度,卷积步骤如说明书附图10所示。假定最低分辨率下的去噪边缘图像大小为ColLowest*RowLoest,最低分辨率下的卷积核个数为k。则卷积步骤之后可以获得ColLowest*RowLoest*k个定位样本。图10只展示了一个卷积核在九个位置的匹配情况,可以看出,中间位置的匹配程度最高。
在采样步骤,即对ColLowest*RowLoest*k个样本的匹配程度归一化,然后获取匹配程度最高的前n个样本,丢弃其他匹配程度低的样本。
步骤104、基于多尺度粒子滤波的角膜缘定位,以步骤103产生的定位样本和多分辨率下的去噪边缘图像为输入,通过卷积核进行卷积,输出得到n个最优样本。步骤104实际上是对n个定位样本先扩展样本,再筛选样本的过程。步骤104的具体流程如说明书附图11所示。
首先,初始化当前分辨率curRes为最低分辨率lowest;然后执行一个主体循环,一直到curRes和highest分辨率相等为止。主体循环有4个主要步骤:退火采样、样本卷积、重采样和分辨率更新。
退火采样:其目的是扩展样本个数,如果输入样本是n,扩展系数为p,那么扩展后的样本个数为n*(2*p+1)*(2*p+1),p一般取1,或2,对一个位置为(x_i,y_i)的样本进行退火采样的过程为如图12所示,退火采样需要对每一个样本执行;
样本卷积:对退火采样获得的样本在curRes-1分辨率(边缘图像和卷积核都选用curRes-1分辨率)下进行评分;
重采样:对匹配程度归一化,获取匹配程度最高的前n个样本,丢弃其他样本;
分辨率更新:curRes = curRes-1。
每轮主体循环如说明书附图11所示,具体包括如下步骤:获取定位样本,开始执行一轮主体循环;判断当前分辨率curRes是否等于最高分辨率highest:若是,则完成一轮主体循环,输出当前的定位样本;若否,则对每个定位样本执行退火采样以扩展定位样本个数;采用分辨率为curRes-1下的去噪边缘图像和卷积核,评价退火采样获得的定位样本的匹配程度;对各个定位样本的匹配程度进行归一化处理,筛选出n个匹配程度最高的定位样本构建出n个最优样本;将当前分辨率curRes更新为curRes-1,对新的定位样本执行新一轮的主体循环。
步骤105、基于最近点关联的迭代椭圆优化,以n个最优样本、卷积核以及最高分辨率下的去噪边缘图像为输入,计算得到角膜缘的定位结果,定位结果包含角膜缘的圆心位置和角膜缘椭圆的几何参数。基于最近点关联的迭代椭圆优化,实现了角膜缘的精确定位。本实施例的基于最近点关联的迭代椭圆优化,相较于现有技术中基于霍夫椭圆的定位方案,在保证定位准确定的基础上,大幅降低了计算量,缩减了计算流程,提高了计算效率。
基于最近点关联的迭代椭圆优化流程具体包括:将n个最优样本精简为m个最优样本,m为小于n的自然数;根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;对备选椭圆点集合进行椭圆参数迭代优化,直至得到一组可拟合为椭圆的椭圆点,分析拟合出的最优椭圆得到定位结果。
对备选椭圆点集合进行最小二乘优化获得拟合椭圆,在拟合椭圆的基础上,进行椭圆参数迭代优化,直至获得最优的椭圆参数,分析拟合出的最优椭圆得到定位结果。在进行椭圆参数迭代过程中,每次迭代会更新备选椭圆点集合和拟合椭圆,得到一个新的备选椭圆点集合和一个新的拟合椭圆,计算备选椭圆点集合与拟合椭圆之间的残差;判断每次迭代产生的残差是否小于预设误差阈值;若是,则根据拟合出的椭圆得到角膜缘的圆心位置和角膜缘椭圆的几何参数;若否,则计算备选椭圆点集合中每个备选椭圆点到当前拟合椭圆的距离,选取距离小于预设距离阈值的点作为新的备选椭圆点,从而重新构建备选椭圆点集合,继续进行椭圆参数迭代。残差获取具体为计算备选椭圆点集合中每个备选椭圆点到当前拟合椭圆的距离。
每个定位样本可以理解为一个位置假设,然后通过算法去验证假设并以分数进行评判,位置假设不好的分数就低,位置假设好的分数就高,粗定位阶段需要较多的假设,也就是n个,由于n个假设是在低分辨率空间初始化的,因此,分布较为分散。而经过后续步骤,n假设会逐渐汇聚到角膜缘真实的位置,分布开始集中。因此,用一个较小的m,且(m<n),已经足够来表示位置分布,同时可以减少后面精确定位的计算量。
基于最近点关联的迭代椭圆优化流程如说明书附图13所示。首先进行样本精化,即获取n个样本中,前m个评分最好的样本,该步骤实现了样本的进一步减少和精化。然后,根据每个定位样本的坐标位置,将对应样本的卷积核坐标变换到最高分辨下的去噪边缘图像中。此时会有m个卷积核投影到最高分辨率下的去噪边缘图像中。从步骤101可知,卷积核由三个部分组成,利用m个卷积核的角膜缘部分和最高分辨下的去噪边缘图像求交,获得属于角膜缘的边缘点,称为备选椭圆点集合。然后进入椭圆参数迭代优化的过程,该过程首先利用备选椭圆点集合,采用最小二乘法对椭圆进行拟合,然后判断拟合后的残差是否小于设定的errorThreshold,如果小于errorThreshold,说明椭圆完成,过程结束。如果大于errorThreshold,则计算所有备选椭圆点集合到当前拟合好的椭圆的距离,选取距离小于disThreshold的点,作为当前椭圆点,该步骤称为椭圆点生成。进一步,进入椭圆拟合步骤,如此循环,直到残差小于errorThreshold,或者迭代次数大于预设的iterThreshold。
本实施例提供了一种角膜缘定位方法,具有鲁棒性、快速性和精确性,能够准确、高效的实现角膜缘定位。采用多种分辨率下、多种形态下的卷积核进行卷积处理,能够有效过滤眼睑特征对角膜缘定位识别的影响。在边缘特征的基础上,结合低分辨率驱动的边缘提取,能够有效过滤光照变化对定位识别的影响,降低边缘图像中的高频噪声,同时保证边缘特征的精度。结合边缘金字塔与多分辨卷积核,使得角膜缘全局定位可以在低分辨率去噪边缘图像下进行,大幅度减少搜索空间,降低搜索复杂度。在低分辨率样本的基础上,采用基于多尺度粒子滤波的角膜缘定位,在小样本的情况下实现了基于高分辨率边缘图像的角膜缘粗定位,为后续的精密定位提供基础。在粗定位的基础上,进一步采用基于最近点关联的迭代椭圆优化进行角膜缘的精确定位,定位精度高,相较于基于霍夫椭圆的方案,计算量更小,计算过程简单,计算效率高。
实施例2
本发明实施例2公开了一种角膜缘定位系统。在实施例1的基础上,将实施例1的方法系统化。角膜缘定位系统的模块示意图如说明书附图14所示,方案如下:
一种角膜缘定位系统,包括如下:
卷积核获取单元1,用于基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
预处理单元2,用于对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
初始定位单元3,用于通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;
样本优化单元4,用于对定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
椭圆优化单元5,用于以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果;n为大于1的自然数。
其中,椭圆优化单元5具体包括:将n个最优样本精简为m个最优样本,m为小于n的自然数;根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;对备选椭圆点集合进行椭圆参数迭代优化,直至得到一组可拟合为椭圆的椭圆点,分析拟合出的最优椭圆得到定位结果。
其中,预处理单元包括2:
眼部分割模块21,用于在对存在非眼部区域的输入图像进行眼部分割,以得到仅涉及眼部区域的图像;
金字塔构建模块22,用于将眼部分割模块输出的图像作为原始图像,采用canny算法对原始图像构建金字塔,得到由多张分辨率不等的边缘图像所构成的边缘金字塔;
边缘提取模块23,用于对边缘金字塔进行边缘提取,利用低分辨率下低噪声、低精度的边缘图像作为掩膜,来获得高分辨率下低噪声、高精度的去噪边缘图像。
本实施例公开了一种角膜缘定位系统,将实施例1的方法系统化,使其更具实用性。
本发明提供了一种角膜缘定位方法及其系统,具有鲁棒性、快速性和精确性,能够准确、高效的实现角膜缘定位。采用多种分辨率下、多种形态下的卷积核进行卷积处理,能够有效过滤眼睑特征对角膜缘定位识别的影响。在边缘特征的基础上,结合低分辨率驱动的边缘提取,能够有效过滤光照变化对定位识别的影响,降低边缘图像中的高频噪声,同时保证边缘特征的精度。结合边缘金字塔与多分辨卷积核,使得角膜缘全局定位可以在低分辨率去噪边缘图像下进行,大幅度减少搜索空间,降低搜索复杂度。在低分辨率样本的基础上,采用基于多尺度粒子滤波的角膜缘定位,在小样本的情况下实现了基于高分辨率边缘图像的角膜缘粗定位,为后续的精密定位提供基础。在粗定位的基础上,进一步采用基于最近点关联的迭代椭圆优化进行角膜缘的精确定位,定位精度高,相较于基于霍夫椭圆的方案,计算量更小,计算过程简单,计算效率高。
本领域技术人员可以理解附图只是一个优选实施场景的示意图,附图中的模块或流程并不一定是实施本发明所必须的。本领域技术人员可以理解实施场景中的装置中的模块可以按照实施场景描述进行分布于实施场景的装置中,也可以进行相应变化位于不同于本实施场景的一个或多个装置中。上述实施场景的模块可以合并为一个模块,也可以进一步拆分成多个子模块。上述本发明序号仅仅为了描述,不代表实施场景的优劣。以上公开的仅为本发明的几个具体实施场景,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。

Claims (12)

1.一种角膜缘定位方法,其特征在于,包括如下:
基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;其中,每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;n为大于1的自然数;
对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。
2.根据权利要求1所述的角膜缘定位方法,其特征在于,基于最近点关联的迭代椭圆优化流程具体包括:
将n个最优样本进一步优化精简为m个最优样本,m为小于n大于0的自然数;
根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;
对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;
对备选椭圆点集合进行最小二乘优化获得拟合椭圆,在拟合椭圆的基础上,进行椭圆参数迭代优化,直至获得最优的椭圆参数,分析拟合出的最优椭圆得到定位结果。
3.根据权利要求2所述的角膜缘定位方法,其特征在于,在进行椭圆参数迭代过程中,每次迭代会更新备选椭圆点集合和拟合椭圆,计算备选椭圆点集合与拟合椭圆之间的残差;
判断每次迭代产生的残差是否小于预设误差阈值;
若是,则根据拟合出的椭圆得到角膜缘的圆心位置和角膜缘椭圆的几何参数;
若否,则计算备选椭圆点集合中每个备选椭圆点到当前拟合椭圆的距离,选取距离小于预设距离阈值的点作为新的备选椭圆点,从而重新构建备选椭圆点集合,继续进行椭圆参数迭代。
4.根据权利要求1所述的角膜缘定位方法,其特征在于,所述卷积核包括外围区域、角膜缘区域和内部区域,所述角膜缘区域位于所述外围区域和所述内部区域之间;
所述外围区域的权重为-1*外围区域像素面积的倒数;
所述角膜缘区域的权重为1*角膜缘区域像素面积的倒数;
所述内部区域的权重为-1*内部区域像素面积的倒数。
5.根据权利要求1所述的角膜缘定位方法,其特征在于,所述预处理还包括:
若输入图像中存在非眼部区域,则在边缘提取之前,对输入图像进行眼部分割,以得到仅涉及眼部区域的图像;
将仅涉及眼部区域的图像作为原始图像;
采用canny算法对所述原始图像构建金字塔,得到由多张分辨率不等的边缘图像所构成的边缘金字塔;
对边缘金字塔进行边缘提取,利用低分辨率下低噪声、低精度的边缘图像作为掩膜,来获得高分辨率下低噪声、高精度的去噪边缘图像。
6.根据权利要求5所述的角膜缘定位方法,其特征在于,设边缘金字塔中x张边缘图像按分辨率从低到高排序依次为A1、A2、A3……Ax;
所述边缘提取包括:
对边缘图像An进行上采样,得到边缘图像A(n+1)的边缘掩膜B(n+1),n=1,2,3……x;
求解边缘图像A(n+1)和边缘掩膜B(n+1)的交集,获得边缘图像A(n+1)的去噪边缘图像C(n+1);
对去噪边缘图像C(n+1)进行上采样,得到边缘图像A(n+2)的边缘掩膜B(n+2);
求解边缘图像A(n+2)和边缘掩膜B(n+2)的交集,获得边缘图像A(n+2)去噪边缘图像C(n+2);
循环上述步骤,直到获得边缘图像Ax的去噪边缘图像Cx。
7.根据权利要求1所述的角膜缘定位方法,其特征在于,n个定位样本的获取具体包括:
使用所有的最低分辨率下的卷积核遍历最低分辨率下的去噪边缘图像的所有像素坐标,计算得到每一个像素坐标的匹配程度,记录该匹配程度对应的卷积核编号;
每个像素坐标及其对应的匹配程度、卷积核编号共构成了一个定位样本;
对各个定位样本的匹配程度进行归一化处理,筛选出n个匹配程度最高的定位样本。
8.根据权利要求7所述的角膜缘定位方法,其特征在于,设最低分辨率下的去噪边缘图像的分辨率为ColLowest*RowLoest,最低分辨率下的卷积核的个数为k;
遍历结束后得到ColLowest*RowLoest*k个定位样本。
9.根据权利要求1所述的角膜缘定位方法,其特征在于,设去噪边缘图像的分辨率依次为lowest、lowest-1、lowest-2……highest;
“对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本”具体包括:
初始化当前分辨率curRes为最低分辨率lowest;
获取定位样本,开始执行一轮主体循环;
判断当前分辨率curRes是否等于最高分辨率highest:若是,则完成一轮主体循环,输出当前的定位样本;
若否,则对每个定位样本执行退火采样以扩展定位样本个数;
采用分辨率为curRes-1下的去噪边缘图像和卷积核,评价退火采样获得的定位样本的匹配程度;
对各个定位样本的匹配程度进行归一化处理,筛选出n个匹配程度最高的定位样本作为n个最优样本;
将当前分辨率curRes更新为curRes-1,对新的定位样本执行新一轮的主体循环。
10.一种角膜缘定位系统,其特征在于,包括如下:
卷积核获取单元,用于基于角膜缘在眼球转动时的多种形态,构建多个分辨率、多个尺寸、多种眼球转动形态下的卷积核,并对多个卷积核进行编号;
预处理单元,用于对输入图像进行包括边缘提取在内的预处理,得到仅涉及眼部区域的、多个分辨率下的去噪边缘图像;
初始定位单元,用于通过各个最低分辨率下的卷积核对最低分辨率下的去噪边缘图像进行卷积处理,得到n个定位样本;每个定位样本中包括角膜缘的像素坐标、卷积核编号以及卷积核与去噪边缘图像的匹配程度;n为大于1的自然数;
样本优化单元,用于对所述定位样本进行样本扩展,并基于预设分辨率下的卷积核和去噪边缘图像对扩展的样本进行筛选,重新得到n个最优样本;
椭圆优化单元,用于以n个最优样本、各个卷积核以及最高分辨率下的去噪边缘图像为输入,进行基于最近点关联的迭代椭圆优化流程,得到包括角膜缘的圆心位置和角膜缘椭圆的几何参数在内的定位结果。
11.根据权利要求10所述的角膜缘定位系统,其特征在于,所述椭圆优化单元具体包括:
将n个最优样本精简为m个最优样本,m为大于0小于n的自然数;
根据每个最优样本中角膜缘的像素坐标,将该最优样本对应的卷积核坐标变换到最高分辨率下的去噪边缘图像中,以使m个卷积核投影到最高分辨率下的去噪边缘图像中;
对m个卷积核的角膜缘部分和最高分辨率下的去噪边缘图像求图像交集,获得一组属于角膜缘的边缘点,将该组边缘点作为备选椭圆点集合;
对备选椭圆点集合进行最小二乘优化获得拟合椭圆,在拟合椭圆的基础上,进行椭圆参数迭代优化,直至获得最优的椭圆参数,分析拟合出的最优椭圆得到定位结果。
12.根据权利要求10所述的角膜缘定位系统,其特征在于,所述预处理单元包括:
眼部分割模块,用于在对存在非眼部区域的输入图像进行眼部分割,以得到仅涉及眼部区域的图像;
金字塔构建模块,用于将眼部分割模块输出的图像作为原始图像,采用canny算法对所述原始图像构建金字塔,得到由多张分辨率不等的边缘图像所构成的边缘金字塔;
边缘提取模块,用于对边缘金字塔进行边缘提取,利用低分辨率下低噪声、低精度的边缘图像作为掩膜,来获得高分辨率下低噪声、高精度的去噪边缘图像。
CN202211451710.7A 2022-11-21 2022-11-21 一种角膜缘定位方法及其系统 Active CN115496808B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211451710.7A CN115496808B (zh) 2022-11-21 2022-11-21 一种角膜缘定位方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211451710.7A CN115496808B (zh) 2022-11-21 2022-11-21 一种角膜缘定位方法及其系统

Publications (2)

Publication Number Publication Date
CN115496808A true CN115496808A (zh) 2022-12-20
CN115496808B CN115496808B (zh) 2023-03-24

Family

ID=85116235

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211451710.7A Active CN115496808B (zh) 2022-11-21 2022-11-21 一种角膜缘定位方法及其系统

Country Status (1)

Country Link
CN (1) CN115496808B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675524B1 (en) * 2007-05-17 2010-03-09 Adobe Systems, Incorporated Image processing using enclosed block convolution
US20140354886A1 (en) * 2013-05-29 2014-12-04 Yeda Research & Development Co. Ltd. Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence
CN107895157A (zh) * 2017-12-01 2018-04-10 沈海斌 一种低分辨率图像虹膜中心精确定位的方法
CN109598269A (zh) * 2018-11-14 2019-04-09 天津大学 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法
CN110766632A (zh) * 2019-10-22 2020-02-07 广东启迪图卫科技股份有限公司 基于通道注意力机制和特征金字塔的图像去噪方法
US20200327304A1 (en) * 2019-04-09 2020-10-15 Yung-Hui Li System and method for rapidly locating iris using deep learning
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113191390A (zh) * 2021-04-01 2021-07-30 华中科技大学 一种图像分类模型的构建方法、图像分类方法及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675524B1 (en) * 2007-05-17 2010-03-09 Adobe Systems, Incorporated Image processing using enclosed block convolution
US20140354886A1 (en) * 2013-05-29 2014-12-04 Yeda Research & Development Co. Ltd. Device, system, and method of blind deblurring and blind super-resolution utilizing internal patch recurrence
CN107895157A (zh) * 2017-12-01 2018-04-10 沈海斌 一种低分辨率图像虹膜中心精确定位的方法
CN109598269A (zh) * 2018-11-14 2019-04-09 天津大学 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法
US20200327304A1 (en) * 2019-04-09 2020-10-15 Yung-Hui Li System and method for rapidly locating iris using deep learning
CN110766632A (zh) * 2019-10-22 2020-02-07 广东启迪图卫科技股份有限公司 基于通道注意力机制和特征金字塔的图像去噪方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113191390A (zh) * 2021-04-01 2021-07-30 华中科技大学 一种图像分类模型的构建方法、图像分类方法及存储介质
WO2022205502A1 (zh) * 2021-04-01 2022-10-06 华中科技大学 一种图像分类模型的构建方法、图像分类方法及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DACHENG XING ET AL.: "Circuit Switch Automatic Shutoff Technique for Electrical Equipment Based on Big Data Analysis", 《2020 IEEE CONFERENCE ON TELECOMMUNICATIONS, OPTICS AND COMPUTER SCIENCE (TOCS)》 *
齐兴明: "白内障超声乳化术中手术切口的实时定位", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *

Also Published As

Publication number Publication date
CN115496808B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN109815850B (zh) 基于深度学习的虹膜图像分割及定位方法、系统、装置
EP3674968B1 (en) Image classification method, server and computer readable storage medium
US10740897B2 (en) Method and device for three-dimensional feature-embedded image object component-level semantic segmentation
WO2022166800A1 (zh) 基于深度学习网络的纵隔淋巴引流区的自动勾画方法
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
CN111046717A (zh) 眼底图像黄斑中心定位方法、装置、电子设备及存储介质
CN110599500B (zh) 一种基于级联全卷积网络的肝脏ct图像的肿瘤区域分割方法及系统
CN102930277A (zh) 一种基于识别反馈的字符图像验证码识别方法
CN106407986A (zh) 一种基于深度模型的合成孔径雷达图像目标识别方法
CN110706233A (zh) 一种视网膜眼底图像分割方法及装置
JP6857369B2 (ja) Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
CN111401145A (zh) 一种基于深度学习与ds证据理论的可见光虹膜识别方法
CN110570394B (zh) 医学图像分割方法、装置、设备及存储介质
CN111524144A (zh) 一种基于GAN和Unet网络的肺结节智能诊断方法
CN102542535B (zh) 虹膜图像的去模糊方法
CN115147648A (zh) 一种基于改进YOLOv5目标检测的茶叶嫩梢识别方法
CN112347936A (zh) 一种基于深度可分离卷积的快速目标检测方法
CN109872337B (zh) 一种基于快速均值移位的眼底图像视盘分割方法
EP3671635A1 (en) Curvilinear object segmentation with noise priors
US11620763B2 (en) Method and device for recognizing fundus image, and equipment
CN111160431A (zh) 一种基于多维特征融合的圆锥角膜识别方法及装置
CN115496808B (zh) 一种角膜缘定位方法及其系统
CN117409002A (zh) 一种用于创伤的视觉识别检测系统及其检测方法
CN117392156A (zh) 基于深度学习的巩膜镜oct图像泪液层分割模型和方法和设备
CN111666847A (zh) 一种基于局部0-1量化技术的虹膜分割、特征提取和匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant