CN108961334B - 一种基于图像配准的视网膜血管壁厚度测量方法 - Google Patents

一种基于图像配准的视网膜血管壁厚度测量方法 Download PDF

Info

Publication number
CN108961334B
CN108961334B CN201810668831.4A CN201810668831A CN108961334B CN 108961334 B CN108961334 B CN 108961334B CN 201810668831 A CN201810668831 A CN 201810668831A CN 108961334 B CN108961334 B CN 108961334B
Authority
CN
China
Prior art keywords
image
point
fundus
blood vessel
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810668831.4A
Other languages
English (en)
Other versions
CN108961334A (zh
Inventor
秦臻
陈硕
秦志光
丁熠
周尔强
邓伏虎
赵洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810668831.4A priority Critical patent/CN108961334B/zh
Publication of CN108961334A publication Critical patent/CN108961334A/zh
Application granted granted Critical
Publication of CN108961334B publication Critical patent/CN108961334B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明涉及图像处理领域,目的是针对现有配准方法准确率低、现有视网膜血管壁厚度测量方法准确率低的问题,公开了一种基于图像配准的视网膜血管壁厚度测量方法;提出了一种新的眼底多模态图像配准方法及一种新的视网膜血管壁平均厚度、单个血管壁厚度测量方法;方法包括:获取眼底彩色图像及眼底荧光造影图像;分别对两种图像进行预处理、血管分割、血管去噪、血管骨骼化提取、角点检测、特征点生成;依据角点特征进行配准;对配准后的图片进行视盘标注;测量血管壁厚度。本发明可用于临床眼科图像分析及结果成像,致力于辅助医生进行判断,节约医生时间。

Description

一种基于图像配准的视网膜血管壁厚度测量方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于图像配准的视网膜血管壁厚度测量方法。
背景技术
眼底视网膜血管是人体中唯一可看见的血管,医生把它当作了解其它脏器血管情况的窗口。如高血压病人眼底可见到视网膜动脉硬化、糖尿病病人眼底可见毛细血管瘤、小的出血点和渗出物等。眼底血管管壁厚度能作为糖尿病视网膜病变的早期指标以及为判断血管静脉硬化提供帮助,而眼底彩色图像包含血管壁外侧、眼底荧光造影图像仅包含血管内侧。配准眼底图像能够使两幅图的信息互补,并使得测量血管壁厚度更加容易。
图像配准是指将同一场景的不同图像“对齐”或进行广义的配准,以消除存在的几何畸变。对同一场景使用相同或不同的传感器,在不同条件下获取的两个或多个图像一般都会存在差异。同一场景的多次成像的差别可以表现在:不同的分辨率、不同的灰度属性、不同的位置(平移和旋转)、不同的尺度、不同的非线性变换等等。多种成像模式产生的图像(称之为多模态图像)会表现出不同的分辨率、不同的灰度属性等差异。图像配准的主要目的是消除几何上的差异,对于灰度信息的差异并不关心。
目前测量眼底血管壁厚度的方法为直接通过眼底彩色图像中血管的两侧来测量,但是,眼底彩色图像中血管的两侧是反光形成的,并不是真正的血管壁厚度,因此,采用这种直接测量视网膜血管壁厚度的方法导致方法测量结果不准确,影响医生对患者是否含有糖尿病等疾病的判断。
此外,视网膜血管壁的平均厚度,能够反应糖尿病、脑卒中等疾病发生情况,而单个血管壁厚度还能反应该血管是否出现坏死、血管壁破裂等症状。这是因为单个血管壁厚度出现问题的时候,没有影响到平均血管壁厚度而带来的误判。因此对于视网膜血管壁厚度,既要测量平均厚度、也要测量单个血管壁厚度。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于图像配准的视网膜血管壁厚度测量方法,通过输入同一眼球的一张眼底彩色图像和一张眼底荧光造影图像,配准两幅图像,提高了配准的准确率;此外通过标注视盘后计算出眼底血管壁平均厚度及单个血管壁厚度,提高了血管壁厚度测量结果的准确性,有助于医生进行判断,节约了医生的时间。
为实现上述发明目的,本发明一种眼底图像配准的视网膜血管壁厚度测量方法,包括以下步骤:
S1:获取眼底彩色图像和眼底荧光造影图像;
S2:对获取的眼底彩色图像和眼底荧光造影图像进行预处理;
S3:利用PCA算法对预处理后的眼底彩色图像和眼底荧光造影图像进行血管分割;
S4:利用图像腐蚀和扩张方法对分割后的眼底彩色图像和眼底荧光造影图像进行去噪处理;
S5:利用Zhang并行快速细化算法对去噪处理后的眼底彩色图像和眼底荧光造影图像进行骨骼化处理;
S6:对骨骼化处理后的眼底彩色图像和眼底荧光造影图像进行Harris角点检测,得到包含分支点和交叉点的角点;
S7:以Harris角点检测得到的各角点为中心,判断骨骼化处理后的眼底彩色图像和眼底荧光造影图像中的各角点是分支点还是交叉点,若是交叉点,则舍弃该角点,若是分支点,则从该分支点的三个分支上分别找下一个角点,若三个分支上的三个角点同样是含有三个分支的角点,则把该角点作为特征点中心,将分支上的三个角点和该角点组合成特征点,特征点中心以外的角点采用顺时针记录;分别记录眼底彩色图像及眼底荧光造影图像中的特征点并构成两个特征点集;
S8:将眼底彩色图像的特征点集中的每个角点分别匹配眼底荧光造影图像的特征点集中的每个角点,将每个特征点中的角点横、纵坐标代入仿射变换公式并求得参数集,根据参数集中的参数计算匹配度,将参数集中匹配度最高的参数作为最终进行图像配准的仿射变换参数;
S9:以步骤S1获取的眼底荧光造影图像作为参考图像,以眼底彩色图像作为浮动图像,根据步骤S8得到的仿射变换参数,将获取的眼底彩色图像和眼底荧光造影图像进行配准;
S10:对配准后的图像进行视盘标注,并以视盘中心为圆心,视盘直径DD为基准,得到直径为2DD到3DD的圆构成的圆环;
S11:分别计数配准后图像中圆环内的像素点总数或某一血管段的像素点总数,根据像素点总数和视盘直径DD,计算视网膜血管壁厚度,所述视网膜血管壁厚度包括视网膜中单个血管的血管壁厚度P和视网膜血管壁的平均厚度P。
本发明的有益效果是:由步骤S8中提出的新的配准方法以及步骤S7中新的特征点提取方法提高了配准的准确率;步骤S9中对原始图像进行配准嵌合并生成的图像,能够辅助医生进行判断和提升医生判断病情的准确性及节约分析病情的时间。步骤S10、S11中新的血管壁厚度测量方法提高了眼底血管壁厚度的准确度,通过平均厚度来判断患者是否含有糖尿病等疾病,以及单个厚度判断血管是否有血管壁破裂等情况,可大大节约医生的时间,对眼科临床有较大益处。
附图说明
图1是本发明基于图像配准的视网膜血管壁厚度测量方法的流程图;
图2是本发明图像预处理结果示意图;
(a)为眼底彩色图像示意图;(b)为眼底荧光造影图像示意图;
图3是本发明血管分割结果示意图;
(a)为眼底彩色图像示意图;(b)为眼底荧光造影图像示意图;
图4是本发明图像骨骼化处理示意图;
(a)为眼底彩色图像示意图;(b)为眼底荧光造影图像示意图;
图5是本发明特征点匹配结果示意图;
图6是本发明图像配准结果示意图;
图7是本发明视盘标注示意图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
为了解决目前直接测量视网膜血管壁厚度的方法存在的结果不准确,影响医生对疾病的判断的问题,本发明提成了一种基于多模态眼底图像配准的视网膜血管壁厚度测量方法,包括以下步骤:
S1:获取眼底彩色图像和眼底荧光造影图像;获取的眼底彩色图像与眼底荧光造影图像均来自同一个人的同一个眼球,所述眼底彩色图像与眼底荧光造影图像均包括图像宽、高与颜色分量信息,且图像宽、高一致。
S2:对眼底彩色图像和眼底荧光造影图像进行预处理,具体为:
本步骤中,如果是眼底彩色图像,则进行通道处理和/或灰度处理,这里如果图像模糊或信息不全时,则要进行通道处理和灰度处理,经过处理后图像准确度提高了,但会降低效率,若图像清晰,则进行通道处理或灰度处理,其中通道处理是提取RGB三个色域中的一个,灰度处理则是将图片处理成灰度图像,灰度值的范围为0-255,表示亮度从深到浅,颜色从黑到白。若是眼底荧光造影图像,则进行反色处理,反色处理则是将灰度图像的每个值减去255后求绝对值。
S3:利用PCA算法对预处理后的眼底彩色图像和眼底荧光造影图像进行血管分割;
本步骤中,将眼底彩色图像和眼底荧光造影图像的RGB三通道中任意两通道分量置0,对非零通道分量向量化后进行PCA分析,得到SCORE矩阵;
对SCORE矩阵中非零通道分量归一化,然后进行CLAHE直方图均衡;
对均衡结果进行中值平滑,然后与平滑前图像做差,将差值与阈值比较,得到二值化图像,利用bwareaopen函数去除二值化图像中面积小的区域,然后取反色并将整体背景设为黑色,得到分割图像。
S4:利用图像腐蚀和扩张方法对分割后的眼底彩色图像和眼底荧光造影图像进行去噪处理;
本步骤中,首先对图像进行腐蚀和膨胀处理操作,这样做可以连通血管间分割效果较差的分支,另外可以去除分割时把一条血管分割成两条的错误情况。此时血管中有部分点是无法连通,只要去掉这些无法连通的点即可完成去噪。
S5:利用Zhang并行快速细化算法对去噪处理后的眼底彩色图像和眼底荧光造影图像进行骨骼化处理;
(1)遍历去噪处理后的眼底彩色图像和眼底荧光造影图像中的每个血管像素点,并以每个血管像素点Pi为中心,构成窗口W:
Figure BDA0001708552470000051
其中,i为第i个血管像素点,i=1、2……n-8,n为血管像素点总数,Pi+1~Pi+8为血管像素点Pi周围的8个像素点,若Pi+1~Pi+8中的像素点为血管像素点,则值为1,否则值为0;令N(Pi)表示Pi周围的像素点值之和,S(Pi)表示按Pi~Pi+8排列出现0-1的次数;
(2)第一次遍历所有的血管像素点Pi,判断窗口W是否满足2<=N(Pi)<=6、S(Pi)=1、Pi+1*Pi+3*Pi+5=0、Pi+3*Pi+5*Pi+7=0的条件,若满足条件则将Pi置为0,且将该血管像素点置为背景点,即不再是血管像素点;
(3)再次遍历剩下的所有血管像素点,若满足2<=N(Pi)<=6、S(Pi)=1、Pi+1*Pi+3*Pi+7=0、Pi+1*Pi+5*Pi+7=0的点,则置为背景点;
(4)返回步骤(2)直到没有血管像素点置为背景点为止,得到二值图像细化后的骨架。
S6:对骨骼化处理后的眼底彩色图像和眼底荧光造影图像进行Harris角点检测,角点包括分支、交叉点;利用移动的水平窗口和竖直窗口在骨骼化后的图像中的每个血管点移动来计算灰度变化值,用上、下、左、右四个方向移动后的窗口灰度值减去某个血管像素点的窗口灰度值即得到灰度变化值,若窗口在水平和竖直方向上移动后灰度值变化均高于某一阈值,则认为在窗口内遇到了角点即该血管像素点是角点,反之若灰度变化值在阈值之内,则认为该点并非角点;
其水平窗口为:
Figure BDA0001708552470000052
竖直窗口为:
Figure BDA0001708552470000061
对于以某一血管点Pi为中心,构成的窗口W为:
Figure BDA0001708552470000062
其中,左移即W+SP,右移即W-SP,上移即W-SZ、下移即W+SZ。
S7:以Harris角点检测得到的每个角点为中心,判断骨骼化处理后的眼底彩色图像和眼底荧光造影图像中的该角点是分支点还是交叉点,若是交叉点,则舍弃该角点,若是分支点,则从该分支点的三个分支上分别找下一个角点,若三个分支上的三个角点同样是含有三个分支的角点,则把该角点作为特征点中心,将分支上的三个角点和该角点组合成特征点;除特征点中心以外的角点采用顺时针记录;分别记录眼底彩色图像及眼底应该造影图像中的特征点构成两个特征点集;
S8:将S7中眼底彩色图像的特征点集中的每个点分别匹配眼底荧光造影图像的特征点集中的每个点,如首先分别取出一个角点,眼底彩色图像的特征点集中的点作为浮动点,眼底荧光造影图像的特征点集中的点作为参考点。由于一个特征点包含4个角点,且包含顺时针记录的3个角点,因此每次需要做3次匹配,每次匹配包括浮动点中心角点对应参考点中心角点,浮动点的3个顺时针角点对应参考点的3个顺时针角点,而每次匹配就是将角点的横纵坐标x、y、x'、y'带入仿射变换公式并求得参数向量,因为每次匹配都能得出3个参数(两次旋转),因此参数集个数为特征点集乘积的3倍;
本步骤中将每个特征点中的角点横、纵坐标代入仿射变换公式并求得参数集,其中,仿射变换公式为:
Figure BDA0001708552470000063
其中a1~a4分别为cos(θ)、-sin(θ)、sin(θ)、cos(θ),其中θ是仿射变换的角度参数,a1、a2、a3、a4、tx和ty分别为仿射变换公式参数,x、y分别为眼底荧光造影图像特征点中角点的横、纵坐标,x'、y'分别为眼底彩色图像特征点中角点的横、纵坐标,x、y、x'、y'均为已知值;
根据参数集中的参数计算匹配度,将参数集中匹配度最高的参数作为最终进行图像配准的仿射变换参数,其中,根据参数集中的参数计算匹配度有两种方式:
第一种:设置特征点之间的差值阈值,计算眼底彩色图像中的特征点经过仿射变换公式变换后在阈值范围内的个数,最后保留使得特征点匹配的数量最大的仿射变换公式参数,从而确定仿射变换参数。
第二种:直接遍历参数,将眼底彩色图像血管图像中每个血管像素点经过仿射变换映射到眼底荧光造影图像血管图像中,若映射的该像素点同样是血管像素点,则计数增加一,最后保留使得血管像素点匹配的计数最大的仿射变换公式参数,从而确定仿射变换参数。
从计数和时间复杂度角度看,第二种方法效率不如第一种方法,但更加准确,能够应对病变严重的眼底图像配准(血管不明显)。但提升的效果需要效率权衡,具体视实验需要效率还是精准度而定。
S9:以步骤S1获取的眼底荧光造影图像作为参考图像,以眼底彩色图像作为浮动图像,根据步骤S8得到的仿射变换参数,将获取的眼底彩色图像和眼底荧光造影图像进行配准。
本步骤中,将仿射变换参数和浮动图像中的每个像素点代入仿射变换公式,若变换后的像素点超过参考图像的范围,则抛弃该像素点;若在范围内,则保存该像素点,得到一组像素点,将该组像素点映射到参考图像的像素点数组中,则完成配准。
S10:对配准后的图像进行视盘标注,并以视盘中心为圆心,视盘直径DD为基准,得到直径为2DD到3DD的圆构成的圆环;
S11:分别计数配准后图像中圆环内的像素点总数,根据像素点总数的差值和视盘直径DD计算视网膜血管壁厚度。
本发明中视网膜血管壁厚度为视网膜中某血管壁厚度或视网膜血管壁的平均厚度方法,其计算方法分别如下:
第一种是:视网膜中某血管壁厚度,其具体过程为:
分别在眼底荧光造影图像和眼底彩色图像的圆环内某一血管段中设置探针标记点;
以该探针标记点为中心,向邻近像素点扩散,每扩散一个像素点,计数值COUNT1、COUNT2就分别增加一,直到扩散的所有像素点均在圆环之外时结束;此时计数值COUNT1、COUNT2的值则为该眼底荧光造影图像和眼底彩色图像中该血管的像素点总数,根据像素点总数差值和视盘直径DD计算该血管的血管壁厚度P,其计算公式为:
Figure BDA0001708552470000081
第二种是:视网膜血管壁的平均厚度方法,其具体过程为:
计算眼底荧光造影图像和眼底彩色图像的圆环内的血管内像素点总数为COUNT_TOTAL1及COUNT_TOTAL2,根据像素点总数差值和视盘直径DD计算视网膜平均血管壁厚度
Figure BDA0001708552470000082
为,其计算公式为:
Figure BDA0001708552470000083
实施例1
本实施例先作如下说明:
将眼底彩色图像中用到的名称以序号1来标注,将眼底荧光造影图像中用到的名称以序号2来标注;即1代表眼底彩色图像,2代表眼底荧光造影图像。
实施例中的数组均可保存为图像,另外参加下一步骤中计算的数组均可来源于上一步骤中的结果,也可以重新读取上一步骤中生成的结果图像。此外以下数组及图片信息保存结果均以A到Z的顺序保存,而不具有实际意义。
如图1所示,本发明基于多模态眼底图像配准的视网膜血管壁厚度测量方法,包括以下步骤:
S101:分别输入眼底彩色图像及眼底荧光造影图像;
本步骤中输入的眼底彩色图像A1与眼底荧光造影图像A2必须来自同一个人的同一个眼球,可以为不同时期。另外最好保证输出的A1、A2的宽、高一致,即像素大小一致,如均为768*768。输入图像后分别读取A1、A2中的信息,包括图像宽、高与颜色分量,将信息分别保存到五维数组中ARR1_A、ARR2_A中:
ARR1_A=[x1,y1,r1,g1,b1];ARR2_A=[x2,y2,r2,g2,b2]
其中xi表示横坐标、yi表示纵坐标、ri表示红色分量、gi表示绿色分量、bi表示蓝色分量,i=1,2。
S102:对眼底彩色图像和眼底荧光造影图像进行预处理;
本步骤中,如果是眼底彩色图像A1,则进行通道处理和/或灰度处理,这里如果图像模糊或信息不全时,则要进行通道处理和灰度处理,经过处理后图像准确度提高了,但会降低效率,若图像清晰,则进行通道处理或灰度处理,其中通道处理是提取RGB三个色域中的一个,灰度处理则是将图片处理成灰度图像,灰度值的范围为0-255,表示亮度从深到浅,颜色从黑到白。若是眼底荧光造影图像A2,则进行反色处理,反色处理则是将灰度图像的每个值减去255后求绝对值。
将S101中得到的ARR1_A数组进行红色通道提取:
ARR1-B=[x1,y1,r1,r1,r1];
可见g、b分量的值被置为r分量的值。
对S101中得到的ARR2_A数组进行反色处理:
ARR2_B=255-ARR2_A[x2,y2]=[x2,y2,255-r2,255-g2,255-b2];
此处用255减去分量值,或由分量值减去255取绝对值均可。
得到的新的ARR1_B与ARR2_B可保存为图像B1、B2作为结果展示,结果如图2所示。
S103:利用PCA算法对预处理后的两幅血管图像进行血管分割;
本步骤中,血管分割包括:
(1)读取B1、B2图像生成的ARR1_B与ARR2_B数组,将其中的r、g、b任意两个分量值置为0;此时,将五维数组降维为三维数组ARR1_C[x1][y1][L1]、ARR2_C[x2][y2][L2],其中L1、L2指r、g、b分量中非0的分量:
若保留红色分量,则三维数组值为:
ARR1_C=[x1,y1,r1]=[x1,y1,L1];
ARR2_C=[x2,y2,255-r2]=[x2,y2,L2];
若保留绿色分量,则三维数组为:
ARR1_C=[x1,y1,g1]=[x1,y1,L1];
ARR2_C=[x2,y2,255-g2]=[x2,y2,L2];
(2)分别对L1、L2分量向量化后进行PCA分析:
特征中心化,即每一维的数据都减去该维的均值
Figure BDA0001708552470000101
由于图片信息是分横坐标x,纵坐标y,以及分量L放入数组中的,如数组包含512行和768列,即X=512、Y=768,那么共有X*Y个像素点,均值就是这X*Y个像素点的分量总和除以X*Y,这里分别代入ARR1_C、ARR2_C数组:
Figure BDA0001708552470000107
Figure BDA0001708552470000102
Figure BDA0001708552470000103
Figure BDA0001708552470000104
其中,X1、Y1为ARR1_C数组的二维长度;X2、Y2为ARR2_C数组的二维长度。若Y1、Y2分辨率维512*768,此时X1、X2的值为512,Y1、Y2的值为768。I1、I2分别为L1、L2中的值。
(3)计算协方差矩阵C1、C2:
Figure BDA0001708552470000105
Figure BDA0001708552470000106
其中Y1、Y2为上述步骤中的值,li、1j为属于X1的值,表示第li、1j行,2i、2j为属于X2的值,表示第2i、2j行,相当于对ARR1_CN、ARR2_CN数组的每一行做协方差计算,如ARR1_CN、ARR2_CN装填的是512*768的图片,那么每一行都有768列,对于ARR1_CN,分别取第0行和第1行做协方差运算时,C1中的li就是0,1j就是1。
分别计算协方差矩阵C1、C2的特征值和特征向量,并分别选取大的特征值对应的特征向量,得到新的数据集D1、D2;
(4)对数据集D1、D2分别进行归一化,然后进行CLAHE直方图均衡:图像分块,以块为单位,先计算直方图,然后修剪直方图,最后均衡;
(5)对均衡结果进行中值平滑,然后与平滑前图像做差,得到细节图像Z1、Z2;然后对细节图像Z1、Z2进行阈值处理,得到二值化图像BW1、BW2,利用bwareaopen函数分别将二值化图像BW1、BW2中面积小的区域去除,得到图像BC1、BC2,然后再取反色并将整体背景设为黑色,即可得到眼底图像血管分割后的图像F1、F2。
说明:上述步骤中的D1、D2、Z1、Z2、BW1、BW2、BC1、BC2、F1、F2均为图像数组,可将图像数组保存为图片,若不保存为图像,数组的处理结果分别为ARR1_F、ARR2_F:
Figure BDA0001708552470000111
Figure BDA0001708552470000112
此外F1、F2的图像保存结果如图3所示。
S104:利用图像腐蚀和膨胀方法对两幅血管图像进行去噪处理;
首先对F1、F2图像进行腐蚀和膨胀处理操作,这样做可以连通血管间分割效果较差的分支,另外可以去除分割时把一条血管分割成两条的错误情况。此时血管中有部分点是无法连通,只要去掉这些无法连通的点即可完成去噪,具体实施为:
代入S103血管分割后或读取F1、F2图片生成的数组ARR1_F、ARR2_F,调用腐蚀、膨胀函数,得到新的血管分割数组ARR1_FN、ARR2_FN并保存为图像FN1、FN2。
S105:利用Zhang并行快速细化算法对FN1、FN2两幅血管图像进行血管的骨骼化操作,得到两幅血管骨架图像;由于一次提取会导致骨骼化不够平滑(非线性),因此需要迭代提取骨架,具体实施步骤如下:
(1)分别遍历S104结果数组或读取FN1、FN2图片生成的ARR1_FN、ARR2_FN中所有前景像素点,此处前景像素点即为血管点,背景像素点为非血管像素点。
对于某个前景像素点Pi,其周围8个像素点构成的窗口W为:
Figure BDA0001708552470000121
对符合待删除条件的像素点标记为删除;其中i为当前像素点,Pi+1~Pi+8为Pi相邻的8个像素点,条件如下:
Figure BDA0001708552470000122
其中N(Pi)表示和Pi相邻的8个像素点中为前景像素点的个数;S(Pi)表示从Pi+1~Pi+8像素点中出现0-1的累计次数(如Pi为0、Pi+1为1则构成一个0-1,Pi+2为0、Pi+3为0则不构成0-1),其中0表示背景,1表示前景;
(2)与(1)中条件类似,满足条件的像素点P1则标记为删除,条件如下:
Figure BDA0001708552470000123
(3)循环上述两步骤,直到两步中都没有像素点被标记为删除为止,输出的结果即为二值图像细化后的骨架。
(4)按顺序将步骤(1)至步骤(3)封装为Skeleton函数,分别代入ARR1_FN、ARR2_FN,迭代多次Skeleton函数,直到间隔调用Skeleton函数后数组没有变化,此时分别保存骨骼化数组为ARR1_G、ARR2_G。
(5)保存ARR1_G、ARR2_G数组为骨骼化图像G1、G2,如图4所示。
S106:对骨骼化后的两幅血管骨架图像G1、G2进行Harris角点检测,得到包含分支点和交叉点的角点;
本步骤中,利用移动的窗口在图像中计算灰度变化值,其流程包括转化为灰度图像、计算差分图像、高斯平滑、计算局部极值、确认角点。对第一次的角点集合再进行候选点剔除,这是由于第一次检测出的角点不一定全是正确的分支点或交叉点,具体实施步骤如下:
(1)设定3x3的水平方向移动窗口:
Figure BDA0001708552470000131
和垂直方向移动窗口:
Figure BDA0001708552470000132
若调用水平方向移动窗口做处理,则为某一像素点的左右移动;若调用垂直方向移动窗口则为上下移动。若同时使用,则能形成左上、左下、右上、右下的移动。
(2)取窗口函数w(x,y)为矩形窗Rectangle函数,其中,在窗口内的值为1,不在窗口内的值为0:
Figure BDA0001708552470000133
(3)从初始位置x=0,y=0开始移动窗口,其中平移量为[u,v],得出灰度变化值;灰度变化公式为:
Figure BDA0001708552470000134
其中I(x+u,y+v)表示窗口移动后的灰度值,I(x,y)为某一血管像素点及周围8个像素点构成的窗口的灰度值。分别代入S105中结果数组或由G1、G2生成的ARR1_G、ARR2_G数组,遍历数组中的血管像素点,对于某一点及其周围的八个点构成的窗口W,左移即W+SP,右移即W-SP,上移即W-SZ、下移即W+SZ。
分别计算这上、下、左、右四种移动后的灰度变化值,即用现在窗口灰度值减去窗口W的灰度值取绝对值。若四个方向移动的灰度值变化均高于某个阈值,则认为该点为角点。
(4)按顺序将步骤(1)至步骤(3)封装为FindHarris检测函数,代入S105的结果数组ARR1_G、ARR2_G,输出被判定为角点的数组ARR1_H、ARR2_H:
Figure BDA0001708552470000135
Figure BDA0001708552470000141
S107:遍历ARR1_H、ARR2_H中每个角点,从骨骼化处理后的眼底彩色图像和眼底荧光造影图像中提取特征点,并匹配特征,得到仿射变换参数;具体实施步骤如下:
(1)输入S105的骨骼化数组ARR1_G、ARR2_G和S106得到的被盘点为角点的数组ARR1_H、ARR2_H,分别遍历ARR1_H、ARR2_H数组,从骨骼化数组ARR1_G、ARR2_G找到仅有三个分支的点F1,由于少于三个分支的点可能是误分的分支分叉点,而多余三个分支的点则认为是交叉点,这里暂不使用交叉点。
(2)沿着F1点的三个分支,查找下一个角点,由于有三个分支,因此可以找到三个分支点F2~F4,若这三个分支无法找到三个角点,则认为F1不是候选点;若分别查找到三个角点,则查看F2~F4是否为同样为分支分叉点,只有当它们同样是分支分叉点时才保存F1~F4到特征向量中,其中特征向量为S:
s=[f1,f2,f3,f4,l1,l2,l3]
其中f1~f4包含F1~F4四个点的角度信息,由于都含有三个角度,因此:
f1=[a1,a2,a3]
f2~f4以内类推,另外11~l3表示点F1分别到F2、F3、F4的距离。此外f2~f4构成顺时针结构。
(3)分别保存眼底荧光造影图像及眼底彩色图像的骨骼化图像中的所有特征点的特征向量S1、S2到数组FA1[S1]、FA2[S2]中,遍历FA1数组,以每个特征点来遍历FA2数组中的每个特征点,由于每个特征包含四个点,将这四个点分别代入仿射变换公式:
Figure BDA0001708552470000142
其中a1~a4分别为cos(theta)、-sin(theta)、sin(theta)、cos(theta),其中theta是仿射变换的角度参数,此处确定theta的角度即可得出a1~a4的值,如theta=60°,则a1=1/2;x、y为参考图像特征点中角点的横纵坐标,x’、y’表示浮动图像特征点中角点的横纵坐标,此步骤旨在求取a1~a4、tx、ty的参数值,x、y、x’、y’为已知值。
这样求出a1、a2、a3、a4、tx、ty的值,即得到仿射变换公式参数;若遍历所有的特征向量,可得到FA1数组长度乘以FA2数组长度组这样的仿射变换公式,将仿射变换公式参数集保存到数组FANG中:
FANG=[a1,a2,a3,a4,tx,ty];
(4)确定最终仿射变换参数
这里有两种方式:
第一种:设置特征点之间的差值阈值如20,即一个特征点中的四个角点与另一个特征点中的四个角点之间的距离最小值之和,遍历数组FANG,求取眼底彩色图像中的特征点经过仿射变换后在阈值范围内的个数,数量最多的仿射变换公式参数则为最后保留的参数FANG_FINAL,特征点匹配结果如图5所示。
第二种:直接遍历数组FANG,将眼底彩色图像的血管分割图像的每个血管像素点经过仿射变换映射到眼底荧光造影图像的血管分割图像中,若映射的该点同样是血管像素点,则计数增加一。最后同样保留使得计数最大的仿射变换公式参数FANG_FINAL。
两种方法同样可行,从计数和时间复杂度角度看,第二种方法效率不如第一种方法,但更加准确,能够应对病变严重的眼底图像配准(血管不明显)。但提升的效果需要效率权衡,具体视实验需要效率还是精准度而定。
S108:以获取的眼底荧光造影图像A2作为参考图像,根据仿射变换参数将眼底彩色图像A1和眼底荧光造影图像A2进行配准,具体实施步骤如下:
(1)输入眼底彩色图像A1,将其某个像素点代入FANG_FINAL,若变换后的像素点超过眼底荧光造影图像的范围,则抛弃该像素点,若在范围内则保存,最后得到一组像素点,将这组像素点映射到眼底荧光造影图像的像素点数组中,即可完成配准:
Figure BDA0001708552470000151
ARR1_I=FANG_FINAL*ARR1_A
其中x1=x2且y1=y2。
其中,ARR1_A、ARR2_A来自S100,可将新的ARR_NEW数组保存为图像N,配准后的图像如图6所示。
S109:对配准后的图像N进行视盘标注,并以视盘中心为圆心,视盘直径DD为基准,画出直径为2DD和3DD的圆,2DD到3DD中的圆构成圆环,如图7所示;若需要测量某一根血管的血管壁厚度,则需要用同样的颜色在圆环内标注该血管中的某个点,存储标注后的图像为Q;若需要测量血管的平均血管壁厚度,则无需标注点,存储图像为Q0;
S110:根据图像Q或Q0分别求出图像Q中某一根血管的血管壁厚度或图像Q0中血管的平均厚度,具体情况如下:
求图像Q中某一根血管的血管壁厚度:
(1)输入图像Q,读取分辨率即颜色信息,包括宽度X,高度Y,以及每个像素点的RGB值,RGB分量值落在0-255区间,存储这些值到数组ARR中。由图像Q中的标注颜色,得到标注圆环的RGB值B,如红色标注的RGB值为[255,0,0],绿色标注的RGB值为[0,255,0]。遍历ARR数组,读取ARR[x][y]的RGB值C,若C等于B,则不处理,若C不等于B则置为[0,0,0],此值代表黑色:
Figure BDA0001708552470000161
C=[r,g,b]
并将此数组保存在内存中。
(2)读取眼底荧光造影图像即眼底造影图像的血管分割图像F1,同样保存其长宽值即像素点颜色分量到数组中,遍历此数组的每个像素点,找到标注为需要测量血管的像素点,以该点为中心,向邻居像素点扩散,每扩散一个点,计数值COUNT1增加一,直到扩散的所有像素点均在圆环之外时结束。此时计数值COUNT1的值则为该眼底荧光造影图像中该血管的像素点总数。用同样的方法处理输入的经过仿射变换后的眼底彩色图像的血管分割图像F2,得到血管像素点总值COUNT2。
(3)用COUNT1减去COUNT2的值即为差值DIF,由于DIF包含了血管的两侧,所以DIF除以2则为血管一侧的差值,用血管一侧的差值除以血管的长度,此长度约等于0.5个DD,得到的结果即为该血管的血管壁厚度估值P:
Figure BDA0001708552470000171
图像Q0中血管的平均厚度:
数组中的点在圆环中时,计数就增加一。这样分别得到的血管内像素点计数为COUNT_TOTAL1及COUNT_TOTAL2,由于总数包含了8根血管的像素点(四根动脉、四根静脉)。因此平均血管壁厚度
Figure BDA0001708552470000172
为:
Figure BDA0001708552470000173
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (9)

1.一种基于图像配准的视网膜血管壁厚度测量方法,其特征在于,包括以下步骤:
S1:获取眼底彩色图像和眼底荧光造影图像;
S2:对获取的眼底彩色图像和眼底荧光造影图像进行预处理;
S3:利用PCA算法对预处理后的眼底彩色图像和眼底荧光造影图像进行血管分割;
S4:利用图像腐蚀和扩张方法对分割后的眼底彩色图像和眼底荧光造影图像进行去噪处理;
S5:利用并行快速细化算法对去噪处理后的眼底彩色图像和眼底荧光造影图像进行骨骼化处理;
S6:对骨骼化处理后的眼底彩色图像和眼底荧光造影图像进行Harris角点检测,得到包含分支点和交叉点的角点;
S7:以Harris角点检测得到的各角点为中心,判断骨骼化处理后的眼底彩色图像和眼底荧光造影图像中的各角点是分支点还是交叉点,若是交叉点,则舍弃该角点,若是分支点,则从该分支点的三个分支上分别找下一个角点,若三个分支上的三个角点同样是含有三个分支的角点,则把该角点作为特征点中心,将分支上的三个角点和该角点组合成特征点,特征点中心以外的角点采用顺时针记录;分别记录眼底彩色图像及眼底荧光造影图像中的特征点并构成两个特征点集;
S8:将眼底彩色图像的特征点集中的每个角点分别匹配眼底荧光造影图像的特征点集中的每个角点,将每个特征点中的角点横、纵坐标代入仿射变换公式并求得参数集,根据参数集中的参数计算匹配度,将参数集中匹配度最高的参数作为最终进行图像配准的仿射变换参数;
S9:以步骤S1获取的眼底荧光造影图像作为参考图像,以眼底彩色图像作为浮动图像,根据步骤S8得到的仿射变换参数,将获取的眼底彩色图像和眼底荧光造影图像进行配准;
S10:对配准后的图像进行视盘标注,并以视盘中心为圆心,视盘直径DD为基准,得到直径为2DD到3DD的圆构成的圆环;
S11:分别计数配准后图像中圆环内的像素点总数或某一血管段的像素点总数,根据像素点总数和视盘直径DD,计算视网膜血管壁厚度,所述视网膜血管壁厚度包括视网膜中单个血管的血管壁厚度P和视网膜血管壁的平均厚度
Figure FDA0002184215350000022
2.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S1获取的眼底彩色图像与眼底荧光造影图像均来自同一个人的同一个眼球,所述眼底彩色图像与眼底荧光造影图像均包括图像宽、高与颜色分量信息,且图像宽、高一致。
3.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S2具体包括:
对眼底彩色图像进行通道处理和/或灰度处理;对眼底荧光造影图像进行反色处理。
4.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S3具体过程为:
将眼底彩色图像和眼底荧光造影图像的RGB三通道中任意两通道分量置0,对非零通道分量向量化后进行PCA分析,得到SCORE矩阵;
对SCORE矩阵中非零通道分量归一化,然后进行CLAHE直方图均衡;
对均衡结果进行中值平滑,然后与平滑前图像做差,将差值与阈值比较,得到二值化图像,利用bwareaopen函数去除二值化图像中面积小的区域,然后取反色并将整体背景设为黑色,得到分割图像。
5.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S5的骨骼化处理具体为:
(1)遍历去噪处理后的眼底彩色图像和眼底荧光造影图像中的每个血管像素点,并以每个血管像素点Pi为中心,构成窗口W:
Figure FDA0002184215350000021
其中,i为第i个血管像素点,i=1、2……n-8,n为血管像素点总数,Pi+1~Pi+8为血管像素点Pi周围的8个像素点,若Pi+1~Pi+8中的像素点为血管像素点,则值为1,否则值为0;令N(Pi)表示Pi周围的像素点值之和,S(Pi)表示按Pi~Pi+8排列出现0-1的次数;
(2)第一次遍历所有的血管像素点Pi,判断窗口W是否满足2<=N(Pi)<=6、S(Pi)=1、Pi+1*Pi+3*Pi+5=0、Pi+3*Pi+5*Pi+7=0的条件,若满足条件则将Pi置为0,且将该血管像素点置为背景点,即不再是血管像素点;
(3)再次遍历剩下的所有血管像素点,若满足2<=N(Pi)<=6、S(Pi)=1、Pi+1*Pi+3*Pi+7=0、Pi+1*Pi+5*Pi+7=0的点,则置为背景点;
(4)返回步骤(2)直到没有血管像素点置为背景点为止,得到二值图像细化后的骨架。
6.根据权利要求5所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S6的角点检测具体为:
利用移动的水平窗口和/或竖直窗口在骨骼化后的图像中的每个血管像素点移动来计算灰度变化值,用上、下、左、右四个方向移动后的窗口灰度值减去某个血管像素点的窗口W灰度值即得到灰度变化值,若窗口在水平和竖直方向上移动后灰度值变化均高于某一阈值,则认为在窗口内遇到了角点即该血管像素点是角点,反之若灰度变化值在阈值之内,则认为该点并非角点;
其水平窗口为:
Figure FDA0002184215350000031
竖直窗口为:
Figure FDA0002184215350000032
对于以某一血管像素点Pi为中心,构成的窗口W为:
Figure FDA0002184215350000033
其中,左移即W+SP,右移即W-SP,上移即W-SZ、下移即W+SZ。
7.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S8具体过程为:
将每个特征点中的角点横、纵坐标代入仿射变换公式并求得参数集,其中,仿射变换公式为:
Figure FDA0002184215350000041
其中,a1~a4分别为cos(θ)、-sin(θ)、sin(θ)、cos(θ),其中θ是仿射变换的角度参数,a1、a2、a3、a4、tx和ty分别为仿射变换公式参数,x、y分别为眼底荧光造影图像特征点中角点的横、纵坐标,x'、y'分别为眼底彩色图像特征点中角点的横、纵坐标,x、y、x'、y'均为已知值;
根据参数集中的参数计算匹配度,将参数集中匹配度最高的参数作为最终进行图像配准的仿射变换参数,其中,根据参数集中的参数计算匹配度有两种方式:
第一种:设置特征点之间的差值阈值,计算眼底彩色图像中的特征点经过仿射变换公式变换后在阈值范围内的个数,最后保留使得特征点匹配的数量最大的仿射变换公式参数,从而确定仿射变换参数;
第二种:直接遍历参数,将眼底彩色图像血管图像中每个血管像素点经过仿射变换映射到眼底荧光造影图像血管图像中,若映射的该像素点同样是血管像素点,则计数增加一,最后保留使得血管像素点匹配的计数最大的仿射变换公式参数,从而确定仿射变换参数。
8.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S9具体过程为:
将仿射变换参数和浮动图像中的每个像素点代入仿射变换公式,若变换后的像素点超过参考图像的范围,则抛弃该像素点;若在范围内,则保存该像素点,得到一组像素点,将该组像素点映射到参考图像的像素点数组中,则完成配准。
9.根据权利要求1所述的基于图像配准的视网膜血管壁厚度测量方法,其特征在于,所述步骤S11中单个血管的血管壁厚度P,其具体过程为:
分别在眼底荧光造影图像和眼底彩色图像的圆环内某一血管段中设置探针标记点;
以该探针标记点为中心,向邻近像素点扩散,每扩散一个像素点,计数值COUNT1、COUNT2就分别增加一,直到扩散的所有像素点均在圆环之外时结束;此时计数值COUNT1、COUNT2的值则为该眼底荧光造影图像和眼底彩色图像中该血管的像素点总数,根据像素点总数差值和视盘直径DD计算视网膜中该血管的血管壁厚度P,其计算公式为:
Figure FDA0002184215350000051
视网膜血管壁的平均厚度
Figure FDA0002184215350000052
其具体过程为:
计算眼底荧光造影图像和眼底彩色图像的圆环内的血管内像素点总数为COUNT_TOTAL1及COUNT_TOTAL2,根据像素点总数差值和视盘直径DD计算视网膜血管壁平均厚度
Figure FDA0002184215350000053
为,其计算公式为:
Figure FDA0002184215350000054
CN201810668831.4A 2018-06-26 2018-06-26 一种基于图像配准的视网膜血管壁厚度测量方法 Active CN108961334B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810668831.4A CN108961334B (zh) 2018-06-26 2018-06-26 一种基于图像配准的视网膜血管壁厚度测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810668831.4A CN108961334B (zh) 2018-06-26 2018-06-26 一种基于图像配准的视网膜血管壁厚度测量方法

Publications (2)

Publication Number Publication Date
CN108961334A CN108961334A (zh) 2018-12-07
CN108961334B true CN108961334B (zh) 2020-05-08

Family

ID=64486721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810668831.4A Active CN108961334B (zh) 2018-06-26 2018-06-26 一种基于图像配准的视网膜血管壁厚度测量方法

Country Status (1)

Country Link
CN (1) CN108961334B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993765B (zh) * 2019-04-09 2020-10-30 东莞理工学院 一种视网膜静脉交叉压迫角度检测方法
CN111178271B (zh) * 2019-12-30 2023-05-23 南京华图信息技术有限公司 一种人脸图像特征增强方法、人脸识别方法及电子设备
CN113643354B (zh) * 2020-09-04 2023-10-13 深圳硅基智能科技有限公司 基于增强分辨率的眼底图像的血管管径的测量装置
CN112037217B (zh) * 2020-09-09 2021-04-30 南京诺源医疗器械有限公司 一种基于荧光成像的术中血流成像方法
CN113487616B (zh) * 2021-07-06 2024-03-19 中国医学科学院阜外医院 一种使用连续多帧图像构建完整结构血管树结构的方法
CN114305321A (zh) * 2022-03-15 2022-04-12 汕头大学·香港中文大学联合汕头国际眼科中心 一种测量视网膜血管壁厚度的方法及系统
CN114782339A (zh) * 2022-04-09 2022-07-22 中山大学中山眼科中心 一种基于条件生成对抗网络的眼底彩照毛细血管标注方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102908120A (zh) * 2012-10-09 2013-02-06 北京大恒图像视觉有限公司 眼底图像的配准方法、眼底图像中视盘神经、血管的测量方法及眼底图像的拼接方法
CN103810709A (zh) * 2014-02-25 2014-05-21 南京理工大学 基于血管的眼底图像与sd-oct投影图像配准方法
CN106651827A (zh) * 2016-09-09 2017-05-10 浙江大学 一种基于sift特征的眼底图像配准方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101849860A (zh) * 2010-04-07 2010-10-06 温州医学院 一种视网膜静脉人工血管旁路术的活体动物眼模型的制作方法
CN103584868B (zh) * 2013-07-26 2016-03-02 童毓华 一种测量视网膜血管直径和血管壁厚度的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102908120A (zh) * 2012-10-09 2013-02-06 北京大恒图像视觉有限公司 眼底图像的配准方法、眼底图像中视盘神经、血管的测量方法及眼底图像的拼接方法
CN103810709A (zh) * 2014-02-25 2014-05-21 南京理工大学 基于血管的眼底图像与sd-oct投影图像配准方法
CN106651827A (zh) * 2016-09-09 2017-05-10 浙江大学 一种基于sift特征的眼底图像配准方法

Also Published As

Publication number Publication date
CN108961334A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN108961334B (zh) 一种基于图像配准的视网膜血管壁厚度测量方法
WO2021169128A1 (zh) 眼底视网膜血管识别及量化方法、装置、设备及存储介质
Rodrigues et al. Segmentation of optic disc and blood vessels in retinal images using wavelets, mathematical morphology and Hessian-based multi-scale filtering
Shen et al. Domain-invariant interpretable fundus image quality assessment
CN102525381B (zh) 图像处理装置、图像处理方法及计算机可读取的记录装置
KR100889014B1 (ko) 그래프 기반 접근 방법을 이용한 설진 영역 추출 방법
WO2013080868A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
WO2013187206A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN108615239B (zh) 基于阈值技术和灰度投影的舌图像分割方法
US20080123906A1 (en) Image Processing Apparatus And Method, Image Sensing Apparatus, And Program
CN107564048A (zh) 基于分叉点特征配准方法
CN112164043A (zh) 一种用于多眼底图像拼接的方法及系统
Giachetti et al. Multiresolution localization and segmentation of the optical disc in fundus images using inpainted background and vessel information
JP2008220617A (ja) 画像解析システム、及び画像解析プログラム
CN108601509A (zh) 图像处理装置、图像处理方法以及程序
CN112102259A (zh) 一种基于边界引导深度学习的图像分割算法
WO2017186635A1 (en) Retinal image processing
CN117078698B (zh) 一种基于深度学习的外周血管影像辅助分割方法及系统
Kim et al. Tongue diagnosis method for extraction of effective region and classification of tongue coating
CN111192280B (zh) 一种基于局部特征的视盘边缘检测方法
Lu et al. Adaboost-based detection and segmentation of bioresorbable vascular scaffolds struts in IVOCT images
CN108629780B (zh) 基于颜色分解和阈值技术的舌图像分割方法
CN115423804A (zh) 影像标定方法及装置、影像处理方法
JP2981382B2 (ja) パターンマッチング方法
JP5292886B2 (ja) 画像解析装置、その方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant