CN107564048A - 基于分叉点特征配准方法 - Google Patents

基于分叉点特征配准方法 Download PDF

Info

Publication number
CN107564048A
CN107564048A CN201710877772.7A CN201710877772A CN107564048A CN 107564048 A CN107564048 A CN 107564048A CN 201710877772 A CN201710877772 A CN 201710877772A CN 107564048 A CN107564048 A CN 107564048A
Authority
CN
China
Prior art keywords
bifurcation
point
vessel
registration
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710877772.7A
Other languages
English (en)
Other versions
CN107564048B (zh
Inventor
张晓峰
杭益柳
殷若城
吴辉群
邵叶秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University Technology Transfer Center Co ltd
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN201710877772.7A priority Critical patent/CN107564048B/zh
Publication of CN107564048A publication Critical patent/CN107564048A/zh
Application granted granted Critical
Publication of CN107564048B publication Critical patent/CN107564048B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种基于分叉点特征配准方法,该方法首先获取眼底图像的绿色通道,并提取血管中心线:使用基于梯度散度的血管中心线提取技术,提取出眼底图像中的血管树;随后,使用八邻域查表法提取眼底血管树特征点,删除错误的特征点后得到正确的分叉点对应的Harris角点坐标;使用改进的特征描述算法,对得到的分叉点进行特征提取,得到对应的分叉角度与血管长度,形成特征向量;最终使用向量之间的欧氏距离得出最终用于匹配的特征点对,使用随机抽样一致算法得出参照图像对于原图的变换矩阵,并对配准后的结果图像进行基础修改,得到配准精确的眼底图像,本发明提出的配准方法在公开的FIRE眼底配准数据库中取得了较好的效果。

Description

基于分叉点特征配准方法
技术领域
本发明涉及眼底图像处理技术领域,尤其涉及基于分叉点特征配准方法。
背景技术
现代医疗与科学技术的结合日益紧密,在近20年间,眼底图像分析处理的运用范围日趋广泛。眼底中的视网膜血管是人整个身体中唯一可以直接观察的血管,从视网膜血管的变化可以窥见身体内部某些脏器的变化。例如眼底出现了毛细血管瘤或者小的渗出物和血点,则有很大的可能是糖尿病的症状;视网膜血管产生了动脉硬化则是高血压的预警。因此,在医疗诊断方面,眼底血管图像的信息对于身体病变的早期发现具有及其重要的作用。就目前的技术而言,通过眼底仪获取的眼底图像一次只能得到眼底的一部分图像,因此对一个眼球我们需要获取多幅图像,才能覆盖整个眼底的信息,也就是需要将多幅获得的不完全图像拼接成一幅完整的眼底图。目前,并没有特别有效的软件能够进行各种眼底图像的拼接。在部分医院,需由经验丰富的专家进行手动图像的拼接,而在一些偏远地区,由于医疗水平不高,专家经验有限,导致眼底图像拼接的效果较差,因此需要一种可以自动实现眼底图像配准的方法能够缓解此类问题,实现较完美的眼底图像拼接。
随着人们对于眼底图像在医疗方面应用的重视,眼底图像的配准技术也随之发展起来。一般眼底图像配准算法可以分为两大类:基于强度的配准和基于特征点的配准。基于强度的配准根据图像的强度差异、互相关、梯度相关或互信息进行配准。Kedir M.Adal等人在“A hierarchical coarse-to-fine approach for fundus image registration,″inInternational Workshop on Biomedical Image Registration,2014,pp.93-102”文献中公开了利用绿色眼底图像中视网膜血管的强度和结构信息对眼底图像进行配准。该方法没有基于特征的算法依赖于特征的数量和分布固有的局限性,但是该方法过分依赖于每一步的初始化结果,如果初始化出现偏差,则得出的结果不理想,而且该方法需要眼底血管与眼底的对比度明显,对模糊图像使用该方法则效果不好。基于互相关的计算方法几乎完全依赖于像素的灰度值,因此该方法仅适用于外在条件差异不大的两幅图像进行精确配准。
基于特征点的配准通常使用眼底图像的血管分叉点、整个血管树、点特征检测器提取的特征点进行配准。在计算机视觉中广泛使用的是SIFT和SURF特征检测。SIFT变换提取的特征点具有旋转不变、尺度不变的特性,但是该变换在具有病变的或者模糊的眼底图像中难找到稳定的匹配点,而且该方法耗时较长。SURF是对SIFT变换的改进,但是该方法对于异常值非常敏感,虽然提高了计算速度,但是旋转不变性能变差。Janabai Parekar等人在“Automatic retinal image registration using fully connected vascular tree,″in Signal and Information Processing(IConSIP),International Conference on,2016,pp.1-5”文献中提出了使用血管分叉点进行眼底图像配准的方法,该方法对于低对比度,重叠区域小的眼底图像具有很好的配准效果,但是该方法提取的特征向量存在着误差,可能导致最终得出的特征匹配点较少,有时不能很精确的实现图像的配准。
发明内容
为克服现有技术中存在的眼底图像拼接的效果差问题,本发明提供了一种基于分叉点特征配准方法。
本发明提供了一种基于分叉点特征配准方法,具体步骤如下:
步骤1,获取绿色通道,并提取血管中心线:使用基于梯度散度的血管中心线提取技术,提取出眼底图像中的血管树;
步骤2:使用八邻域查表法对眼底血管树进行特征点提取,删除错误的特征点后得到正确的分叉点对应的Harris角点坐标;
步骤3:使用改进的特征描述算法,对得到的分叉点进行特征提取,得到对应的分叉角度与血管长度,形成最终的特征向量;
步骤4:使用向量之间的欧氏距离得出最终用于匹配的特征点对,使用随机抽样一致算法得出参照图像对于原图的变换矩阵,并对配准后的结果图像进行基础修改,得到配准精确的眼底图像。
进一步的,在所述步骤1中,采用高斯滤波器平滑眼底图像。
进一步的,在步骤1中,所述梯度散度的血管中心线提取技术采用视网膜图像散度分割血管中心线,血管中心线由以下公式计算得出:
其中,t是用于分割中心线的阈值,该阈值由实验获得;NI(x,y)是邻近像素I(x,y)的散度总和。
进一步的,在步骤1中,获得的血管树使用bwmorph函数中的brigde、fill、skel、spur形态学处理类型对得到的血管中心线图操作,连接断裂的血管,在对孔洞进行填充后得到血管树的骨骼图并对其去骨刺。
进一步的,所述步骤2具体步骤如下:
步骤21,采用八邻域查表法检测眼底图像的分叉点,记录位置并保留在分叉点位置矩阵中;
步骤22,利用模板对八邻域得到的血管分叉点进行检测去除伪交叉点,将模板与分叉点及其周围像素相乘;
步骤23,判断相乘结果,若得到的最终结果大于2,则该点为分叉点,否则为伪分叉点,将其从分叉点矩阵中删除;
步骤24,使用模板对血管骨骼进行膨胀后使用Harris角点检测,检测出八邻域得出的分叉点对应的角点,利用该角点位置进行特征向量的提取与匹配。
进一步的,在步骤22中,模板规格为7×7的模板。
进一步的,在步骤24中,模板规格为5×5的模板。
进一步的,在步骤3中,所述改进的特征描述算法采用接近于人视网膜接收图像信息的采样模型,对特征点的局部信息进行描述。
进一步的,所述步骤3具体步骤如下:
步骤31,采用边长逐渐增大的正方形模板对血管分叉点周围血管的长度以及角度进行采样,由细到粗;
步骤32,提取出每个与正方形模相交的点,计算出其到特征点的距离与角度,将其记录到特征矩阵对应的位置中;
步骤33,取每个正方形边中的长度最大值与其对应的角度作为特征向量中的元素,以下公式为特征点的特征向量的描述:
V=[lengths,angles]
lengths=[l1l2,l3,...,ln] n=1,2,3,...,16
angles=[θ1,θ2,θ3,...,θn] n=1,2,3,...,16
其中,lengths表示血管的长度,angles表示血管分叉点的角度。
进一步的,在步骤4中,所述随机抽样一致算法得出参照图像对于原图的变换矩阵具体步骤如下:
随机选择准确配准对点集中的一组子集作为样本来计算变换矩阵,将待匹配图像中的特征点与变换矩阵进行运算,获得与待匹配点的距离,若两点之间的距离小于阈值,则该点为内点,否则为外点;重复以上步骤不断得到新的点集,选取内点数最多的点集得出图像间变换的最终变换矩阵。
与现有技术相比,本发明的有益效果是:
(1)使用本发明的配准方法,采样匹配时间短,特征向量的维度得到了相当大的减少提高了运算速度,对于图像的旋转变化不敏感,在国际公开的眼底数据库FIRE以及私人眼底筛查数据库中均得到了较好的效果,且配准后的图像在视觉上感觉较好,并且配准误差较小。
(2)对得到的图像使用bwmorph函数中的brigde形态学处理来连接间断点;随后使用skel形态学处理获取血管轮廓图;由于血管轮廓图存在骨刺,使用spur形态学处理移除骨刺;通过上述形态学处理类型操作后的清晰的血管轮廓。
(3)通过7×7模板对八邻域得到的血管分叉点进行检测去除伪交叉点,经过分叉点去伪操作后,检测到的分叉点基本为原分叉点总数的三分之一;使用一个5×5的模板对血管骨骼进行膨胀后使用Harris角点检测,最终的匹配图具有较好的视觉效果。
(4)为了提高图像配准的精度,使用随机抽样一致算法(RANSAC)对图像变换矩阵进行求解与精炼。
附图说明
图1是基于分叉点特征配准方法流程图;
图2是血管放大图;
图3是连接图2中间断点后的血管放大图;
图4是图3中的血管骨刺放大图;
图5是去除图4骨刺后的血管放大图;
图6是待配准某个血管分叉点的骨骼图;
图7是待配准中与图6相同的血管分叉点的骨骼图;
图8是16种血管分叉点邻域示意图;
图9是八邻域查表法检测到的分叉点图;
图10是去除伪分叉点图;
图11是7×7伪分叉点移除模板;
图12是八邻域查表法得到的分叉点与去伪操作后的分叉点个数对比图;
图13是使用八邻域检测出的血管分叉点的匹配图;
图14是使用八邻域与Harris角点检测得出的血管分叉点匹配图;
图15是检测的分叉点与其对应的最近距离的三个点;
图16是血管分叉点采样拓扑图;
图17是初始得出的匹配点对;
图18是经过筛选后的匹配点对;
图19是眼底图像绿色通道图;
图20是σ=0.2,检测角度为0度时的血管中心线;
图21是σ=1,检测角度为50度时的血管中心线图;
图22是完整的血管中心线图;
图23是待配准图像的绿色通道图;
图24是图23的血管结构图;
图25是图23上的分叉点示意图;
图26是图18中两幅图的配准结果示意图。
具体实施方式
以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本实施方式中基于分叉点特征配准方法包括如下步骤:
步骤1,获取眼底图像的绿色通道,并提取血管中心线:使用基于梯度散度的血管中心线提取技术,提取出眼底图像中的血管树;
步骤2:使用八邻域查表法提取眼底血管树特征点,删除错误的特征后得到正确的分叉点对应的Harris角点坐标;
步骤3:使用改进的特征描述算法,对得到的分叉点进行特征提取,得到对应的分叉角度与血管长度,形成特征向量;
步骤4:使用向量之间的欧氏距离得出最终用于匹配的特征点对,使用随机抽样一致算法(RANSAC)得出参照图像对于原图的变换矩阵,并对配准后的结果图像进行基础修改,得到配准精确的眼底图像。
在本实施方式配准方式中,需要说明的是,彩色眼底图像可以分为R、G、B三个通道,本发明选取绿色通道主要是由于,通过分析对比R、G、B三个通道后可以发现,相比于红色通道和蓝色通道,绿色通道中的眼底图像血管结构更加清晰,对比度更加明显。
在步骤1中,绿色眼底图像中的血管轮廓与高斯曲线相似,因此,视网膜图像散度被用来分割血管中心线,血管中心线由公式1计算得出:
其中,t是用于分割中心线的阈值,该阈值由实验获得;NI(x,y)是邻近像素I(x,y)的散度总和,NI(x,y)由公式2获得:
其中,Si每个像素的散度值,n是邻近的像素数量。
每个像素的散度值均是由公式3计算得出:
其中,P是在水平方向上的归一化梯度值,Q是垂直方向上的归一化梯度值,假设梯度F′是(P′,Q′),P′是水平方向上的梯度值,Q′是垂直方向上的梯度值,归一化梯度值F是(P,Q),其中P和Q由公式4所得:
在步骤1中,由于眼底图像中的血管具有不同的宽度和方向,为了能够提取出完整的血管中心线,需在不同尺度的眼底图像上计算不同方向上的散度值。本实施方式中,采用高斯滤波器平滑图像。
为了适应血管的方向,在实施例中采用了散度方向,该散度方向由公式5获取:
由公式5获得的结果中可能存在一些间断点,这些不连续血管对影响之后操作,为了能减少这些影响,对得到的图像使用bwmorph函数中的brigde形态学处理来连接间断点;随后使用skel形态学处理获取血管轮廓图;由于血管轮廓图存在骨刺,使用spur形态学处理移除骨刺;从图2-5可见,通过上述形态学处理类型操作后的清晰的血管轮廓。
在步骤2中,提取血管中心线后,两幅待配准图像的血管树分别进行特征点提取。由于不同图像中的相同血管在进行血管树骨骼化操作后得到的二值化图像存在着差别,如图6-7,是两幅待配准图像的相同部位的骨骼图,存在着明显的差异,为了得到相似的部位的血管分叉点,仅使用八邻域查表法来对分叉点进行检测。假设只有三个分支的分叉点被考虑,存在16种情况由图8所示,在后继的计算中如果图像某点的灰度值符合八邻域表中的某个值,则认为这个点为分叉点,并将其位置进行记录,保留在分叉点位置矩阵中。若仅使用八邻域查表法来检测分叉点,则会出现一些错误分叉点,图9中展现了仅使用八邻域查表法检测分差点后出现的一些错误分叉点,为了去除类似的伪分叉点,需对八邻域查表法得到的分叉点再次进行精确提取,血管树中的分叉点周围都会具有相应的血管,在检测出的分叉点处其周围具有相应的连通血管,而在伪分叉点处不存在连通血管,利用一个7×7模板对八邻域得到的血管分叉点进行检测去除伪交叉点,模板如图11所示,将模板与分叉点及其周围像素相乘,如果得到的最终结果大于2,则这个点为分叉点,否则就是伪分叉点,将其从分叉点矩阵中删除,得到如图8和图10结果,很明显最终得到的结果比仅使用八邻域得到的结果更精确。
对眼底数据库中的10幅图像进行分叉点检测与去伪操作,获得结果如图13-14所示,经过分叉点去伪操作后,检测到的分叉点基本为原分叉点总数的三分之一。由于两幅图相同部位的血管得出的血管骨骼是不相同的,因此使用八邻域法检测出的匹配分叉点在灰度图像上的位置存在着一到两个像素的偏差,如图13所示,这将导致得出的最终结果存在不完全重合的缺点,介于以上出现的问题,使用一个5×5的模板对血管骨骼进行膨胀后使用Harris角点检测,检测出八邻域得出的分叉点对应的角点,利用该角点的位置进行特征向量的提取与匹配。实验证明如图14所示,该方法比仅使用八邻域法得出的效果好,最终的匹配图具有较好的视觉效果,结果如图14所示。很明显图14的效果比图13好很多。
检测出特征点后,由于一个点的信息量有限,一般提取其周围邻域的特征组成向量,作为该点的描述向量,为此本实施方式采用改进的特征描述算法对特征点进行描述,该特征利用血管具有分叉角度与长度的特性,采用接近于人视网膜接收图像信息的采样模型,对特征点的局部信息进行描述。
因为血管骨骼树中的血管不是呈直线型,所以对两幅图的相同部位检测出的血管分叉点是不同的,如图9-10所示,如果使用经典特征表示方法,两幅图中正确配准点对(A,B)将会被认为是错误点对,在图15中离A点最近的分叉点为a,b,c三点,得到的分叉点角度与长度与图15离B点最近分差点a’,b’,c’三点是不同的,这将导致匹配的误差。根据FREAK算法以及自动视网膜图像配准方法中出现的不足进行改进获得改进后特征描述算法,使用改进的特征描述算法对分叉点周围的信息进行提取,该方法生成的描述符依赖于旋转和缩放。采用边长分别为5,11,21,35逐渐增大的正方形模板对血管分叉点周围血管的长度以及角度进行采样,由细到粗,符合人眼看事物的规律;采用长度和角度描述采样样品,样品数量为4,每个样品存在4个方面,因此描述符的长度为4×4×2=32维,采样的拓扑结构如图16所示,提取出每个与正方形模相交的点,计算出其到特征点的距离与角度,将其记录到特征矩阵对应的位置中,取每个正方形边中的长度最大值与其对应的角度作为特征向量中的元素,公式6为特征点的特征向量的描述:
在上式中,lengths表示血管的长度,angles表示血管分叉点的角度,发现特征点后,需要通过计算变换矩阵找到相应的特征点,由于大多数特征点的向量是相似的,因此可以利用两个向量之间的欧氏距离来排除错误点对。例如,一特征点距离点I(x,y)距离最小,则该点为I(x,y)的对应点,如果两点之间的最小距离低于某个阈值则保留,否则删除该匹配点对。
两幅图的匹配点对如图17所示,在图中很明显的可以看出存在着错误的匹配点,由于在同一幅图中,正确的匹配点对之间的距离理论上应该是相同的,本实施例利用这一特性对错误匹配点进行了删除。首先得出初始的各个匹配点对之间的距离,得出各个数所占的比例,以最大比例的数作为阈值对匹配点对进行分割,如果两点之间的距离符合阈值则保留,否则删除该匹配点对。利用上面的方法得出的匹配点对如图18所示,该图中错误的匹配点对基本被删除。
为了提高图像配准的精度,本实施例使用随机抽样一致算法(RANSAC)对图像变换矩阵进行求解与精炼。RANSAC随机选择准确配准对点集中的一组子集作为样本来计算变换矩阵,将待匹配图像中的特征点与变换矩阵进行运算,并计算出其与待匹配点的距离,若两点之间的距离小于阈值,则该点为内点,否则为外点。重复以上步骤不断得到新的点集,选取内点数最多的点集得出图像间变换的最终矩阵。根据这个变换矩阵可以将相应图像进行变换以确定重叠的区域,并将待融合图像映射到一幅新的空白图像中形成拼接图。
利用上面的方法得出的匹配点对如图18所示,该图中错误的匹配点对基本被删除。
对于眼底图像的配准,使用国际上公开的眼底数据库FIRE数据库中的眼底图像进行操作,实验计算机系统由以下部件构成:CPU是Intel(R)core(TM)i5-2450M,软件software是MATLAB R2016a。
由上述配准方法获得以下检测结果:
算法参数:本实施例中配准方法中的参数选取需与控制点和配准相关,在步骤1的血管树提取步骤中,采用20个不同的高斯滤波器用于平滑图像,其中σ选取范围从0.2-4,使用36个不同角度θ来检测血管树。中心线检测过程如图19-22所示。
分析特征点数量:本实施例中描述符由自动视网膜图像配准方法中提出,因此获得的局部描述符与采用自动视网膜图像配准方法的描述符对比,随机选取5对FIRE数据库眼底图像比较,N1是检测匹配点个数,N2是步骤4使用点个数,比较结果见表1。
表1匹配点和使用点数量
采样点匹配时间:本实施例中使用32维的特征向量远小于FREAK算法512维向量;相对于FREAK算法,特征向量的维度得到了相当大的减少提高了运算速度,对FIRE数据库中的任意5对图像分别使用FREAK算法与本文提出的改进特征算法进行采样匹配运算得到的实验结果如表2所示。
表2采样点匹配时间
与SIFT对比结果:SIFT是一种经典的基于特征算法,在许多地方用来解决图像配准问题,但它对灰度变化敏感且运行时间较长,下表3中,平均时间是找到特征点和输入图像匹配点的平均时间,匹配点的总数如表4所示。
表3 FIRE数据库的平均时间(s)
表4 FIRE数据库匹配点的数量
通过本实施方式得到的配准方法:首先,获取眼底绿色通道图像,获取血管树构造图;眼底图像提取主要是基于特征点;在之后的实验中血管构造图和分叉点均用于匹配图像;提取结果如图23-26所示。
提出的视网膜图像匹配方法利用八邻域查表法结合Harris角点检测法得出血管树中的分叉点,使用改进的特征描述算法针对分叉点特性得出特征向量,利用向量之间的欧氏距离以及匹配点对之间的距离进行特征点的匹配以及筛选出正确的匹配点对,最后使用RANSAC来找到两幅图像对应的关系,对于图像的旋转变化不敏感,在国际公开的眼底数据库FIRE以及私人眼底筛查数据库中均得到了较好的效果,且配准后的图像在视觉上感觉较好,并且配准误差较小。
上述说明示出并描述了本发明的优选实施例,如前所述,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述发明构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (10)

1.一种基于分叉点特征配准方法,具体步骤如下:
步骤1,获取绿色通道,并提取血管中心线:使用基于梯度散度的血管中心线提取技术,提取出眼底图像中的血管树;
步骤2:使用八邻域查表法提取眼底血管树特征点,删除错误的特征点后得到正确的分叉点对应的Harris角点坐标;
步骤3:使用改进的特征描述算法,对得到的分叉点进行特征提取,得到对应的分叉角度与血管长度,形成特征向量;
步骤4:使用向量之间的欧氏距离得出最终用于匹配的特征点对,使用随机抽样一致算法得出参照图像对于原图的变换矩阵,并对配准后的结果图像进行基础修改,得到配准精确的眼底图像。
2.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:在所述步骤1中,采用高斯滤波器平滑眼底图像。
3.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:在步骤1中,所述梯度散度的血管中心线提取技术采用视网膜图像散度分割血管中心线,血管中心线由以下公式计算得出:
其中,t是用于分割中心线的阈值,该阈值由实验获得;NI(x,y)是邻近像素I(x,y)的散度总和。
4.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:在步骤1中,获得的血管树使用bwmorph函数中的brigde、fill、skel、spur形态学处理类型对得到的血管中心线图操作,连接断裂的血管,在对孔洞进行填充后得到血管树的骨骼图并对其去骨刺。
5.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:所述步骤2具体步骤如下:
步骤21,采用八邻域查表法检测眼底图像的分叉点,记录位置并保留在分叉点位置矩阵中;
步骤22,利用模板对八邻域得到的血管分叉点进行检测去除伪交叉点,将模板与分叉点及其周围像素相乘;
步骤23,判断相乘结果,若得到的最终结果大于2,则该点为分叉点,否则为伪分叉点,将其从分叉点矩阵中删除;
步骤24,使用模板对血管骨骼进行膨胀后使用Harris角点检测,检测出八邻域得出的分叉点对应的角点,利用该角点位置进行特征向量的提取与匹配。
6.根据权利要求5所述的基于分叉点特征配准方法,其特征在于:在步骤22中,模板规格为7×7的模板。
7.根据权利要求5所述的基于分叉点特征配准方法,其特征在于:在步骤24中,模板规格为5×5的模板。
8.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:在步骤3中,所述改进的特征描述算法采用接近于人视网膜接收图像信息的采样模型,对特征点的局部信息进行描述。
9.根据权利要求8所述的基于分叉点特征配准方法,其特征在于:所述步骤3具体步骤如下:
步骤31,采用边长逐渐增大的正方形模板对血管分叉点周围血管的长度以及角度进行采样,由细到粗;
步骤32,提取出每个与正方形模相交的点,计算出其到特征点的距离与角度,将其记录到特征矩阵对应的位置中;
步骤33,取每个正方形边中的长度最大值与其对应的角度作为特征向量中的元素,以下公式为特征点的特征向量的描述:
V=[lengths,angles]
lengths=[l1,l2,l3,...,ln]n=1,2,3,...,16
angles=[θ1,θ2,θ3,...,θn]n=1,2,3,...,16
其中,lengths表示血管的长度,angles表示血管分叉点的角度。
10.根据权利要求1所述的基于分叉点特征配准方法,其特征在于:在步骤4中,所述随机抽样一致算法得出参照图像对于原图的变换矩阵具体步骤如下:随机选择准确配准对点集中的一组子集作为样本来计算变换矩阵,将待匹配图像中的特征点与变换矩阵进行运算,获得与待匹配点的距离,若两点之间的距离小于阈值,则该点为内点,否则为外点;重复以上步骤不断得到新的点集,选取内点数最多的点集得出图像间变换的最终变换矩阵。
CN201710877772.7A 2017-09-25 2017-09-25 基于分叉点特征配准方法 Active CN107564048B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710877772.7A CN107564048B (zh) 2017-09-25 2017-09-25 基于分叉点特征配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710877772.7A CN107564048B (zh) 2017-09-25 2017-09-25 基于分叉点特征配准方法

Publications (2)

Publication Number Publication Date
CN107564048A true CN107564048A (zh) 2018-01-09
CN107564048B CN107564048B (zh) 2020-08-21

Family

ID=60981879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710877772.7A Active CN107564048B (zh) 2017-09-25 2017-09-25 基于分叉点特征配准方法

Country Status (1)

Country Link
CN (1) CN107564048B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108073918A (zh) * 2018-01-26 2018-05-25 浙江大学 眼底视网膜的血管动静脉交叉压迫特征提取方法
CN109872314A (zh) * 2019-02-20 2019-06-11 数坤(北京)网络科技有限公司 一种基于中心线的优化分割方法及设备
CN110363738A (zh) * 2018-04-08 2019-10-22 中南大学 一种具有仿射不变性的视网膜图像配准方法及其装置
CN110853020A (zh) * 2019-11-13 2020-02-28 北京理工大学 基于拓扑结构和图谱的衡量视网膜血管网络相似性的方法
CN111862123A (zh) * 2020-07-29 2020-10-30 南通大学 一种基于深度学习的ct腹部动脉血管分级识别方法
CN112819867A (zh) * 2021-02-05 2021-05-18 苏州大学 基于关键点匹配网络的眼底图像配准方法
CN112907548A (zh) * 2021-02-26 2021-06-04 依未科技(北京)有限公司 图像评估方法及装置、计算机可读存储介质及电子设备
CN113012180A (zh) * 2021-02-08 2021-06-22 北京百度网讯科技有限公司 图像的成像设备确定方法、装置、设备及存储介质
CN115760807A (zh) * 2022-11-24 2023-03-07 湖南至真明扬技术服务有限公司 一种视网膜眼底图像配准方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090048223A1 (en) * 2007-02-28 2009-02-19 Asahi Kasei Pharma Corporation Sulfonamide compound
CN104933715A (zh) * 2015-06-16 2015-09-23 山东大学(威海) 一种应用于视网膜眼底图像的配准方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090048223A1 (en) * 2007-02-28 2009-02-19 Asahi Kasei Pharma Corporation Sulfonamide compound
CN104933715A (zh) * 2015-06-16 2015-09-23 山东大学(威海) 一种应用于视网膜眼底图像的配准方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
沈奔: ""基于局部血管结构的眼底图像配准"", 《中国优秀硕士学位论文全文数据库 信息科技II辑》 *
盛韩伟等: ""基于拓扑结构的眼底图像分割评价新方法"", 《生物医学工程学杂志》 *
祝婉: ""多模眼底图像配准方法研究"", 《中国优秀硕士学位论文全文数据库 信息科技II辑》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108073918B (zh) * 2018-01-26 2022-04-29 浙江大学 眼底视网膜的血管动静脉交叉压迫特征提取方法
CN108073918A (zh) * 2018-01-26 2018-05-25 浙江大学 眼底视网膜的血管动静脉交叉压迫特征提取方法
CN110363738A (zh) * 2018-04-08 2019-10-22 中南大学 一种具有仿射不变性的视网膜图像配准方法及其装置
CN110363738B (zh) * 2018-04-08 2021-08-27 中南大学 一种具有仿射不变性的视网膜图像配准方法及其装置
CN109872314A (zh) * 2019-02-20 2019-06-11 数坤(北京)网络科技有限公司 一种基于中心线的优化分割方法及设备
CN109872314B (zh) * 2019-02-20 2021-04-16 数坤(北京)网络科技有限公司 一种基于中心线的优化分割方法及设备
CN110853020A (zh) * 2019-11-13 2020-02-28 北京理工大学 基于拓扑结构和图谱的衡量视网膜血管网络相似性的方法
CN110853020B (zh) * 2019-11-13 2021-10-29 北京理工大学 基于拓扑结构和图谱的衡量视网膜血管网络相似性的方法
CN111862123A (zh) * 2020-07-29 2020-10-30 南通大学 一种基于深度学习的ct腹部动脉血管分级识别方法
CN111862123B (zh) * 2020-07-29 2024-01-23 南通大学 一种基于深度学习的ct腹部动脉血管分级识别方法
CN112819867A (zh) * 2021-02-05 2021-05-18 苏州大学 基于关键点匹配网络的眼底图像配准方法
CN113012180A (zh) * 2021-02-08 2021-06-22 北京百度网讯科技有限公司 图像的成像设备确定方法、装置、设备及存储介质
CN113012180B (zh) * 2021-02-08 2023-08-11 北京百度网讯科技有限公司 图像的成像设备确定方法、装置、设备及存储介质
CN112907548A (zh) * 2021-02-26 2021-06-04 依未科技(北京)有限公司 图像评估方法及装置、计算机可读存储介质及电子设备
CN115760807A (zh) * 2022-11-24 2023-03-07 湖南至真明扬技术服务有限公司 一种视网膜眼底图像配准方法及系统
CN115760807B (zh) * 2022-11-24 2024-01-19 北京至真健康科技有限公司 一种视网膜眼底图像配准方法及系统

Also Published As

Publication number Publication date
CN107564048B (zh) 2020-08-21

Similar Documents

Publication Publication Date Title
CN107564048A (zh) 基于分叉点特征配准方法
CN110276356B (zh) 基于r-cnn的眼底图像微动脉瘤识别方法
Sinthanayothin Image analysis for automatic diagnosis of diabetic retinopathy
EP2888718B1 (en) Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
Ali et al. Statistical atlas based exudate segmentation
Motta et al. Vessel optimal transport for automated alignment of retinal fundus images
Panda et al. New binary Hausdorff symmetry measure based seeded region growing for retinal vessel segmentation
Giachetti et al. Multiresolution localization and segmentation of the optical disc in fundus images using inpainted background and vessel information
CN107066957A (zh) 可见光眼部图像中的虹膜定位方法和装置
CN113436070B (zh) 一种基于深度神经网络的眼底图像拼接方法
Tan et al. Automated extraction of retinal vasculature
Argade et al. Automatic detection of diabetic retinopathy using image processing and data mining techniques
Dharmawan et al. A new optic disc segmentation method using a modified Dolph-Chebyshev matched filter
US20130222767A1 (en) Methods and systems for detecting peripapillary atrophy
CN116030042B (zh) 一种针对医生目诊的诊断装置、方法、设备及存储介质
Xiang et al. Segmentation of retinal blood vessels based on divergence and bot-hat transform
Shaikha et al. Optic Disc Detection and Segmentation in Retinal Fundus Image
Khan et al. Segmentation of single and overlapping leaves by extracting appropriate contours
Mittal et al. Optic disk and macula detection from retinal images using generalized motion pattern
Tamilarasi et al. Template matching algorithm for exudates detection from retinal fundus images
Mendonça et al. Optic disc and fovea detection in color eye fundus images
El Abbadi et al. Automatic detection of vascular bifurcations and crossovers in retinal fundus image
Jiang et al. A supervised method for retinal image vessel segmentation by embedded learning and classification
Soares et al. Curvature detection and segmentation of retinal exudates
Vermeer et al. Detecting glaucomatous wedge shaped defects in polarimetric images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Zhang Xiaofeng

Inventor after: Yin Ruocheng

Inventor after: Hang Yiliu

Inventor after: Wu Huiqun

Inventor after: Shao Yeqin

Inventor before: Zhang Xiaofeng

Inventor before: Hang Yiliu

Inventor before: Yin Ruocheng

Inventor before: Wu Huiqun

Inventor before: Shao Yeqin

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230829

Address after: 226000 Jiangsu city of Nantong province sik Road No. 9

Patentee after: Nantong University Technology Transfer Center Co.,Ltd.

Address before: 226000 No. 9 Siyuan Road, Chongchuan District, Nantong City, Jiangsu Province

Patentee before: NANTONG University