CN110148097B - 白内障图像的颜色校正方法 - Google Patents

白内障图像的颜色校正方法 Download PDF

Info

Publication number
CN110148097B
CN110148097B CN201910443848.4A CN201910443848A CN110148097B CN 110148097 B CN110148097 B CN 110148097B CN 201910443848 A CN201910443848 A CN 201910443848A CN 110148097 B CN110148097 B CN 110148097B
Authority
CN
China
Prior art keywords
image
pixel
light source
cataract
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910443848.4A
Other languages
English (en)
Other versions
CN110148097A (zh
Inventor
范文澜
彭真明
王慧
赵学功
王卓然
贺晨
袁国慧
曲超
彭凌冰
孔轩
蒲恬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910443848.4A priority Critical patent/CN110148097B/zh
Publication of CN110148097A publication Critical patent/CN110148097A/zh
Application granted granted Critical
Publication of CN110148097B publication Critical patent/CN110148097B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及内障图像的颜色校正方法,包括:A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;B.利用简单线性迭代聚类将每一层的图像分别划分为图像块;C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。克服了现有方法中受边缘影响导致白内障图像颜色校正中颜色偏差大和边缘颜色漂移的问题,棉线提高白内障图像颜色校正的准确率,降低了边缘影响。

Description

白内障图像的颜色校正方法
技术领域
本发明涉及医学图像处理的方法,具体的讲是白内障图像的颜色校正方法。
背景技术
白内障是一种常见的致盲性眼部疾病,当晶状体中蛋白质积聚时会引发白内障,出现晶状体混浊,这会阻挡光线透过晶状体,导致视力下降。根据白内障出现的区域,可以分为将白内障分为三种类型:核性白内障(N型),皮质性白内障(C型)和后囊型白内障(P型)。其中N型白内障是最常见的白内障类型,它在晶状体的焦点区域(核)深处形成,通常与细胞衰老有关。C型白内障是由于晶状体皮层(外层)变得不透明引起的,当晶状体周边的水含量改变时穿线裂缝时会发生这种情况。P型白内障发生在晶状体后部,患有糖尿病的人或服用高剂量类固醇药物的人患这种类型的白内障的风险更大。大多数老年人患有这三种类型的白内障中的一种。因此,如果眼科疾病能够被自动系统大规模筛选,对医生和病人来说都意义重大。
皮质型白内障图像包括全部角膜、虹膜、睫状体、晶状体等多个眼睛结构,其中白内障病变区域仅出现在晶状体;图像的采集仅由眼科医生完成,故图像的质量受医生习惯、拍摄环境等影响较大,所以图像质量差别较大,一般可以通过颜色恒常性算法将图像校准为标准光照射下采集图像。目前,常用的颜色恒常性算法分为以下几类:
(1)统计方法:统计类颜色恒常性方法不使用任何先验信息,仅利用图像的底层特征信息去估计光源,通常使用的图像底层特征信息包括边缘、纹理、对比度信息等等。灰度世界法、白斑法、灰度阴影法、灰度边缘法等均属于统计方法的范畴。尽管这类方法实现简单,但对于单幅输入图像,由于不知道场景中入射光的信息,以及场景中物体表面的反射特性,因此这类方法在没有合理的假设条件下问题是无法有效解决的。
(2)监督学习方法:监督学习颜色恒常性算法需要学习一些先验信息来促进问题的解决,如光源的色度分布,或者场景中物体表面的颜色分布,然后用这些学习到的有用的先验信息去估计输入图像中的未知光源的颜色。常用方法有色域映射算法、支持向量回归法、语义分析法等,该类方法准确率很高,但基于监督学习的方法需要知道训练数据的光源信息,且每个学习模型只对特定类型图像有效。
(3)基于生物医学的方法:计算机视觉的颜色恒常性模型就是以模拟人眼视觉实现为目的的,深入研究人类视觉系统的恒常性机制将进一步促进计算机视觉颜色恒常性问题的解决。不过目前生物医学对于人眼的颜色恒常性机制还不能非常清晰地从细胞级别进行解译,因此目前研究仅初步掌握人眼获取视觉信息的基本模型。
目前应用于图像预处理阶段的颜色恒常性算法,主要为统计方法,但这一类方法均需假设所研究场景中只有单个光源且光照均匀分布,现实中的自然图像很难满足该条件,现实场景中一般都会有多个光源的存在,例如室外场景中阴影区域仅受到天空光线的照亮,而非阴影区域同时受到太阳光和天空光线的照亮;室内场景会同时受室内和室外光源的影响;物体表面间的相互反射也会引入一个“虚光源”。针对多光源的颜色恒常性方法尚处于起步阶段,现有方法有基于物理的方法、基于生物启发模型的方法、基于样本学习的方法;其中基于物理的方法是针对室外拍摄图像的方法;基于生物启发模型的方法,通过模拟人眼的拮抗和双拮抗特性来实现对光源的估计;基于样本学习的方法,需要利用特征从训练集中找到待处理图像中的所有表面最接近的表面,从而估计出照射未知表面的光源值。
为了提高白内障图像颜色校正的准确率,考虑到常规颜色恒常性方法需假设场景光照均匀一致的特点,显然,多光源假设类基于样本学习的颜色恒常性方法更符合皮质型白内障图像特点,而该方法需要知道训练集图像光源信息,且算法复杂,容易受到表面边界影响,导致场景边缘颜色漂移;由于无法测量皮质型白内障图像的光源信息,同时为了消除边界效应,需要一种多层融合颜色恒常性的C型白内障图像颜色校正方法。
发明内容
本发明提供了一种白内障图像的颜色校正方法,以克服现有方法中受边缘影响导致白内障图像颜色校正中颜色偏差大和边缘颜色漂移的问题,并提高白内障图像颜色校正的准确率,降低边缘影响。
本发明的内障图像的颜色校正方法,包括:
A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;
B.利用简单线性迭代聚类(simple linear iterative clustering,SLIC)将每一层的图像分别划分为图像块;
C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。
本发明采用多光源颜色恒常性假设,将图像划分为多个图像块,假设每个图像块受单光源照射且光照均匀,更加符合皮质型白内障图像光照条件,解决了现有方法中由于采用单光源假设而导致光源估计与真实光源偏差大和采用多光源假设而需要一直光源信息数据集的问题,有效提高了光源估计准确率,降低了算法复杂度。而且引入了专门针对图像块边缘的多层融合,多层融合每一层采用不同图像块划分方法,每层块边缘不同,通过线性融合平滑块边缘,更好的描述了皮质型白内障图像光照信息,使算法的复杂度降低、使用条件降低,大幅度提高了算法的效率和算法的鲁棒性。
具体的,步骤A包括:
A1.获取白内障图像
Figure BDA0002072950070000031
其中m和n分别表示白内障图像的长和宽,
Figure BDA0002072950070000032
表示矩阵空间;
A2.初始化所有层的白内障图像
Figure BDA0002072950070000033
每层的初始图像均为原始图像,即I(t)=I,t=1,2…,w。
具体的,步骤B包括:
B1.将第t层的初始图像I(t)从RGB颜色空间转换到Lab颜色空间,得到图像
Figure BDA0002072950070000034
为图像L(t)均匀分配k(t)个种子点,划分为k(t)个超像素,计算每个相邻种子点之间的步长S;
B2.在每个种子点的s×s邻域内计算该邻域内所有像素点的梯度值,并将种子点移到该邻域内梯度最小的地方,其中s为所述领域的边长值,s可以根据实际情况按经验取值;
B3.以每个种子点的2S×2S邻域内为搜索范围,对每个搜索到的像素点,分别计算该像素点和种子点之间的距离D;
B4.由于每个像素点都会被多个种子点搜索到,所以每个像素点都会有一组与周围种子点的距离。每个像素点被所有种子点搜索完后,分别得到一组与周围种子点的距离,取各组里距离最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心,将每个类作为一个超像素,将计算得到的坐标重心作为其对应的超像素的新种子点位置;
B6.重复迭代步骤B2到B5得聚类结果和像素标签kLabel(t)∈Rm×n,以及图像分块结果。进一步的,步骤B1中计算所述步长S为:
Figure BDA0002072950070000035
进一步的,步骤B3中计算所述距离D为:
Figure BDA0002072950070000036
Figure BDA0002072950070000037
Figure BDA0002072950070000038
其中,dc表示像素间颜色的距离,ds表示像素间空间位置的距离,i和j分别表示第i个种子点和其搜索范围内的第j个像素,xi、xj、yi、yj分别表示像素点i和j的横坐标、纵坐标,li、lj、ai、aj、bi、bj像素点i和j的在Lab空间三通道的值。
具体的,步骤C包括:
C1.计算每个图像块的光源估计
Figure BDA0002072950070000041
计算如下:
Figure BDA0002072950070000042
其中,
Figure BDA0002072950070000043
表示求梯度,Ω表示图像块内所有像素,I(t)为第t层的初始图像;
C2.定义第t层像素照明光源估计的初始值
Figure BDA0002072950070000044
初始值
Figure BDA0002072950070000045
为:
Figure BDA0002072950070000046
其中,xu表示第u个像素的横坐标,yu表示第u个像素的纵坐标;
C3.更新第t层像素照明光源估计值
Figure BDA0002072950070000047
Figure BDA0002072950070000048
Figure BDA0002072950070000049
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu),d′v(xu,yu)与d′j(xu,yu)的含义相同,但因为需要求和所以用变量v进行区分。
具体的,步骤D包括:
D1.将所有层的图像块的像素照明光源估计值
Figure BDA00020729500700000410
进行线性融合,得到最终像素照明光源估计值
Figure BDA00020729500700000411
LR的计算为:
Figure BDA00020729500700000412
其中w为像素光源估计层数;
D2.计算颜色校正结果图IR,IR的计算为:
IR=I./LR
其中,./表示两个图像对应的元素相除,得到最终的颜色校正结果图
Figure BDA0002072950070000051
在此基础上优选的,步骤C中通过颜色恒常性算法Max-RGB计算出每个图像块的光源估计。优选的,所述的白内障图像为皮质型白内障图像。
本发明白内障图像的颜色校正方法的有益效果包括:
1.通过多光源颜色恒常性假设,将图像通过SLIC划分为多个图像块,假设每个图像块受单光源照射且光照均匀,由此更加符合皮质型白内障图像光照条件,解决了现有方法中由于采用单光源假设而导致光源估计与真实光源偏差大和采用多光源假设而需要一直光源信息数据集的问题,有效提高了光源估计准确率,降低了算法复杂度;
2.引入了专门针对图像块边缘的多层融合,多层融合每一层采用不同图像块划分方法,每层块边缘不同,采用线性融合平滑块边缘,更好的描述了皮质型白内障图像光照信息,解决了现有方法需要先验信息才能解决边缘光源估计错误问题,提高了非单一和非均匀光照场景颜色恢复准确率;
3.同时利用了超像素分割和基于统计的颜色恒常性方法,通过线性融合处理边界,大幅度降低了算法的复杂度、降低了使用条件,明显提高了算法的效率和算法的鲁棒性。
以下结合实施例的具体实施方式,对本发明的上述内容再作进一步的详细说明。但不应将此理解为本发明上述主题的范围仅限于以下的实例。在不脱离本发明上述技术思想情况下,根据本领域普通技术知识和惯用手段做出的各种替换或变更,均应包括在本发明的范围内。
附图说明
图1为本发明白内障图像的颜色校正方法的流程图。
图2为一副含有皮质型白内障病变的眼前节图像;
图3为通过本发明方法由图2转换到Lab颜色空间的图像;
图4为通过本发明方法对第一层初始图像的分割结果图;
图5为通过本发明方法对第二层初始图像的分割结果图;
图6为通过本发明方法对第三层初始图像的分割结果图;
图7为通过本发明方法由图4计算出的像素光源估计图;
图8为通过本发明方法由图5计算出的像素光源估计图;
图9为通过本发明方法由图6计算出的像素光源估计图;
图10为通过本发明方法由图7~图9融合后的最终光源估计图;
图11为通过本发明方法对图2的颜色校正结果图。
具体实施方式
本实施例以皮质型白内障图像的颜色校正为例,如图1所示本发明白内障图像的颜色校正方法,包括:
A.获取C型白内障图像
Figure BDA0002072950070000061
大小为2592×1728×3。设定像素光源估计层数w,每层设定不同聚类种子点的个数k,初始化w层图像
Figure BDA0002072950070000062
(本实施例为3层,即t=1,2,3),每层初始图像均为原始图像,即I(t)=I,t=1,2…,w。
B.利用简单线性迭代聚类(simple linear iterative clustering,SLIC)将每一层的图像分别划分为图像块。具体为:
B1.将第t层的初始图像I(t)从RGB颜色空间转换到Lab颜色空间,得到图像
Figure BDA0002072950070000063
为图像L(t)均匀分配k(t)个种子点(本实施例中为k(1)=2500,k(2)=1900,k(3)=1200),划分为k(t)个超像素,相邻种子点的步长为
Figure BDA0002072950070000064
B2.在每个种子点的s×s邻域(本实施例为3×3)内计算该邻域内所有像素点的梯度值,将种子点移到该邻域内梯度最小的地方;
B3.每个种子点的2S×2S邻域内为搜索范围,对于每个搜索到的像素点,分别计算该像素点和种子点的距离D,计算如下:
Figure BDA0002072950070000065
Figure BDA0002072950070000066
Figure BDA0002072950070000067
其中,dc表示像素间颜色的距离,ds表示像素间空间位置的距离,i和j分别表示第i个种子点和其搜索范围内的第j个像素,xi、xj、yi、yj分别表示像素点i和j的横坐标、纵坐标,li、lj、ai、aj、bi、bj像素点i和j的在Lab空间三通道的值;
B4.由于每个像素点都会被多个种子点搜索到,所以每个像素点都会有一组与周围种子点的距离,取每组里最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心。将一个类视为一个超像素,将所述的坐标重心作为对应超像素的新种子点位置;
B6.迭代步骤B2到步骤B5(本实施例中迭代10次)得聚类结果和像素标签kLabel(t)∈Rm×n,得到图像分块结果,第i个图像块用
Figure BDA0002072950070000068
表示。
步骤B6还具体包括有:
B61.计算超像素理的想面积大小SUPSZ:
SUPSZ=n/k
B62.初始化新的像素标签Label(t)=-1,Label(t)∈R2595×1728,选取每个超像素的起点(本实施例为每个超像素中左上角第一个像素点),初始有k(t)个起点;
B63.将起点的四邻域的像素点的kLabel(t)值和起点的kLabel(t)值进行比较,如果有kLabel(t)值相等且Label(t)=-1的点,将这些点作为新的起点,并将新的起点的新的像素标签更新为Label(t)=Label(t)+1;
B64.循环步骤B63,直到没有新的起点;
B65.如果新超像素大小小于
Figure BDA0002072950070000071
将该超像素每个像素点的像素标签kLabel(t)用前一个相邻超像素中像素点的像素标签kLabel(t)值代替,并且不递增标号值Label(t)
B66.迭代步骤B63~B65,直到遍历完整张图像,得到更新后的像素标签
Figure BDA0002072950070000072
将像素标签相同的所有像素作为一个图像块,第Ii (t)块的像素标签值Label(t)为i,且图像块用RGB颜色空间描述。
图2所示的是一副含有皮质型(C型)白内障病变的眼前节图像,除了瞳孔区域内的白内障病变之外,还有亮度很高的白色光斑、黄色的弥散光,瞳孔外还有眼皮、巩膜等结构;图3是将图2的原始图像由RGB颜色空间转换到Lab颜色空间的图像L;图4是经过步骤B后由第一层初始图像使用2500个种子点聚类后得到的分割结果图;图5是经过步骤B后由第二层初始图像使用1900个种子点聚类后得到的分割结果图;图6是经过步骤B后由第三层初始图像使用1200个种子点聚类后得到的分割结果图。
C.使用颜色恒常性算法Max-RGB计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计。具体为:
C1.计算每个图像块的光源估计
Figure BDA0002072950070000073
Figure BDA0002072950070000074
其中,Ii (t)表示第i个图像块,
Figure BDA0002072950070000075
表示求梯度,Ω表示图像块内所有像素;
C2.定义每一层像素照明光源估计的初始值
Figure BDA0002072950070000076
ms的定义如下:
ms (t)(xu,yu)=ei (t),if I(t)(xu,yu)∈Ii (t)
其中,xu表示第u个像素的横坐标,yu表示第u个像素的纵坐标;
C3.更新每一层像素照明光源估计值
Figure BDA0002072950070000081
更新如下:
Figure BDA0002072950070000082
Figure BDA0002072950070000083
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu),d′v(xu,yu)与d′j(xu,yu)的含义相同,但因为需要求和所以用变量v进行区分。
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。具体为:
D1.将所有层的图像块像素照明光源估计值
Figure BDA0002072950070000084
进行线性融合,得到最终的像素照明光源估计值
Figure BDA0002072950070000085
LR计算如下:
Figure BDA0002072950070000086
D2.计算颜色校正结果图IR,IR的计算公式为:
IR=I./LR
其中,./表示两个图像对应的元素相除,得到最终的颜色校正结果图
Figure BDA0002072950070000087
如图7~11所示,通过本发明的方法经过计算和处理后获得的像素光源估计在复杂光照的情况下更加准确,而且不会受到场景的约束;采用多层融合方法,使得场景光照变化更加均匀,克服了现有方法中易导致边缘光照估计异常问题,明显提高了颜色校正的准确率。

Claims (8)

1.白内障图像的颜色校正方法,其特征包括:
A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;
B.利用简单线性迭代聚类将每一层的图像分别划分为图像块;
C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;步骤C包括:
C1.计算每个图像块的光源估计
Figure FDA0002955050880000011
计算如下:
Figure FDA0002955050880000012
其中,▽表示求梯度,Ω表示图像块内所有像素,I(t)为第t层的初始图像;
C2.定义第t层像素照明光源估计的初始值
Figure FDA0002955050880000013
初始值
Figure FDA0002955050880000014
为:
Figure FDA0002955050880000015
其中,其中m和n分别表示白内障图像的长和宽,
Figure FDA0002955050880000016
表示矩阵空间,xu表示第u个像素的横坐标,yu表示第u个像素的纵坐标;
C3.更新第t层像素照明光源估计值
Figure FDA0002955050880000017
Figure FDA0002955050880000018
Figure FDA0002955050880000019
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu);
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。
2.如权利要求1所述的白内障图像的颜色校正方法,其特征为:步骤A包括:
A1.获取白内障图像
Figure FDA00029550508800000110
其中m和n分别表示白内障图像的长和宽,
Figure FDA00029550508800000111
表示矩阵空间;
A2.初始化所有层的白内障图像
Figure FDA0002955050880000021
每层的初始图像均为原始图像,即I(t)=I,t=1,2…,w。
3.如权利要求2所述的白内障图像的颜色校正方法,其特征为:步骤B包括:
B1.将第t层的初始图像I(t)从RGB颜色空间转换到Lab颜色空间,得到图像
Figure FDA0002955050880000022
为图像L(t)均匀分配k(t)个种子点,划分为k(t)个超像素,计算每个相邻种子点之间的步长S;
B2.在每个种子点的s×s邻域内计算该邻域内所有像素点的梯度值,并将种子点移到该邻域内梯度最小的地方,其中s为所述邻域的边长值;
B3.以每个种子点的2S×2S邻域内为搜索范围,对每个搜索到的像素点,分别计算该像素点和种子点之间的距离D;
B4.每个像素点被所有种子点搜索完后,分别得到一组与周围种子点的距离,取各组里距离最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心,将每个类作为一个超像素,将计算得到的坐标重心作为其对应的超像素的新种子点位置;
B6.重复迭代步骤B2到B5得聚类结果和像素标签kLabel(t)∈Rm×n,以及图像分块结果。
4.如权利要求3所述的白内障图像的颜色校正方法,其特征为:步骤B1中计算所述步长S为:
Figure FDA0002955050880000023
5.如权利要求3所述的白内障图像的颜色校正方法,其特征为:步骤B3中计算所述距离D为:
Figure FDA0002955050880000024
Figure FDA0002955050880000025
Figure FDA0002955050880000026
其中,dc表示像素间颜色的距离,ds表示像素间空间位置的距离,i和j分别表示第i个种子点和其搜索范围内的第j个像素,xi、xj、yi、yj分别表示像素点i和j的横坐标、纵坐标,li、lj、ai、aj、bi、bj像素点i和j的在Lab空间三通道的值。
6.如权利要求1所述的白内障图像的颜色校正方法,其特征为:步骤D包括:
D1.将所有层的图像块的像素照明光源估计值
Figure FDA0002955050880000031
进行线性融合,得到最终像素照明光源估计值
Figure FDA0002955050880000032
LR的计算为:
Figure FDA0002955050880000033
其中w为像素光源估计层数;
D2.计算颜色校正结果图IR,IR的计算为:
IR=I./LR
其中,I表示输入的原始白内障图像,./表示两个图像对应的元素相除,得到最终的颜色校正结果图
Figure FDA0002955050880000034
7.如权利要求1至6之一所述的白内障图像的颜色校正方法,其特征为:步骤C中通过颜色恒常性算法Max-RGB计算出每个图像块的光源估计。
8.如权利要求1至6之一所述的白内障图像的颜色校正方法,其特征为:所述的白内障图像为皮质型白内障图像。
CN201910443848.4A 2019-05-27 2019-05-27 白内障图像的颜色校正方法 Active CN110148097B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910443848.4A CN110148097B (zh) 2019-05-27 2019-05-27 白内障图像的颜色校正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910443848.4A CN110148097B (zh) 2019-05-27 2019-05-27 白内障图像的颜色校正方法

Publications (2)

Publication Number Publication Date
CN110148097A CN110148097A (zh) 2019-08-20
CN110148097B true CN110148097B (zh) 2021-06-29

Family

ID=67593193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910443848.4A Active CN110148097B (zh) 2019-05-27 2019-05-27 白内障图像的颜色校正方法

Country Status (1)

Country Link
CN (1) CN110148097B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429534B (zh) * 2020-02-17 2020-11-13 深圳市六六六国际旅行社有限公司 一种图像偏色矫正方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101706964A (zh) * 2009-08-27 2010-05-12 北京交通大学 一种基于图像导数结构的颜色恒常性计算方法及系统
CN106056155A (zh) * 2016-05-30 2016-10-26 西安电子科技大学 基于边界信息融合的超像素分割方法
CN106651795A (zh) * 2016-12-03 2017-05-10 北京联合大学 一种利用光照估计来校正图像颜色的方法
CN106981053A (zh) * 2017-03-02 2017-07-25 天津大学 一种基于加权融合的水下图像增强方法
CN107103326A (zh) * 2017-04-26 2017-08-29 苏州大学 基于超像素聚类的协同显著性检测方法
CN108961280A (zh) * 2018-06-29 2018-12-07 电子科技大学 一种基于slic超像素分割的眼底视盘精细分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7515285B2 (en) * 2005-09-26 2009-04-07 Kabushiki Kaisha Toshiba Method and apparatus for image processing
CN102426695A (zh) * 2011-09-30 2012-04-25 北京航空航天大学 一种单幅图像场景的虚实光照融合方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101706964A (zh) * 2009-08-27 2010-05-12 北京交通大学 一种基于图像导数结构的颜色恒常性计算方法及系统
CN106056155A (zh) * 2016-05-30 2016-10-26 西安电子科技大学 基于边界信息融合的超像素分割方法
CN106651795A (zh) * 2016-12-03 2017-05-10 北京联合大学 一种利用光照估计来校正图像颜色的方法
CN106981053A (zh) * 2017-03-02 2017-07-25 天津大学 一种基于加权融合的水下图像增强方法
CN107103326A (zh) * 2017-04-26 2017-08-29 苏州大学 基于超像素聚类的协同显著性检测方法
CN108961280A (zh) * 2018-06-29 2018-12-07 电子科技大学 一种基于slic超像素分割的眼底视盘精细分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种基于多模式融合的多视点图像颜色校正方法;邵枫等;《光电工程》;20091130;第36卷(第11期);第135-139页 *
分层色彩校正算法研究;赵萍等;《计算机工程与应用》;20140702;第51卷(第6期);第158-162页 *
基于光照分析的颜色恒常性算法研究;董俊鹏;《中国优秀硕士学位论文全文数据库信息科技辑》;20160515(第05期);正文第2、4章 *

Also Published As

Publication number Publication date
CN110148097A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
CN106920227B (zh) 基于深度学习与传统方法相结合的视网膜血管分割方法
He et al. Fully convolutional boundary regression for retina OCT segmentation
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
Li et al. DeepRetina: layer segmentation of retina in OCT images using deep learning
EP3660785A1 (en) Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ
KR20200063173A (ko) 디지털 치료적 보정 안경
Imran et al. Fundus image-based cataract classification using a hybrid convolutional and recurrent neural network
Basit et al. Optic disc detection and boundary extraction in retinal images
JP2019192215A (ja) 深層学習を用いた網膜層の3d定量解析
de Sisternes et al. Automated intraretinal segmentation of SD-OCT images in normal and age-related macular degeneration eyes
CN109671049B (zh) 一种医学图像处理方法、系统、设备、存储介质
CN106650794A (zh) 一种受物体表面高光反射影响的图像高光消除方法及系统
CN102982524B (zh) 玉米果穗有序图像的拼接方法
Sedai et al. Multi-stage segmentation of the fovea in retinal fundus images using fully convolutional neural networks
Hu et al. Automated segmentation of geographic atrophy in fundus autofluorescence images using supervised pixel classification
Kumar et al. Image processing in diabetic related causes
CN107256575A (zh) 一种基于双目立体视觉的三维舌像重建方法
Hu et al. Automated segmentation of geographic atrophy using deep convolutional neural networks
Duan et al. A generative model for OCT retinal layer segmentation by groupwise curve alignment
CN110148097B (zh) 白内障图像的颜色校正方法
CN104318565A (zh) 基于等梯度距离的双向区域增长的视网膜血管分割交互式方法
Wu et al. Diabetic macular edema grading based on improved Faster R-CNN and MD-ResNet
Girard et al. Simultaneous macula detection and optic disc boundary segmentation in retinal fundus images
Singh et al. Optimized convolutional neural network for glaucoma detection with improved optic-cup segmentation
Ghassabi et al. A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant