CN110148097B - 白内障图像的颜色校正方法 - Google Patents
白内障图像的颜色校正方法 Download PDFInfo
- Publication number
- CN110148097B CN110148097B CN201910443848.4A CN201910443848A CN110148097B CN 110148097 B CN110148097 B CN 110148097B CN 201910443848 A CN201910443848 A CN 201910443848A CN 110148097 B CN110148097 B CN 110148097B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- light source
- cataract
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 208000002177 Cataract Diseases 0.000 title claims abstract description 47
- 238000012937 correction Methods 0.000 title claims abstract description 28
- 238000005286 illumination Methods 0.000 claims abstract description 33
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 206010007748 Cataract cortical Diseases 0.000 claims description 12
- 208000029511 cortical cataract Diseases 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000009827 uniform distribution Methods 0.000 claims description 3
- 230000000903 blocking effect Effects 0.000 claims description 2
- 229920000742 Cotton Polymers 0.000 abstract 1
- 210000000695 crystalline len Anatomy 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 230000004438 eyesight Effects 0.000 description 4
- 238000007619 statistical method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000519995 Stachys sylvatica Species 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010007759 Cataract nuclear Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 230000032677 cell aging Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 210000004240 ciliary body Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 230000004452 decreased vision Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 208000030533 eye disease Diseases 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 208000029552 nuclear cataract Diseases 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 102000004169 proteins and genes Human genes 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 150000003431 steroids Chemical class 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及内障图像的颜色校正方法,包括:A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;B.利用简单线性迭代聚类将每一层的图像分别划分为图像块;C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。克服了现有方法中受边缘影响导致白内障图像颜色校正中颜色偏差大和边缘颜色漂移的问题,棉线提高白内障图像颜色校正的准确率,降低了边缘影响。
Description
技术领域
本发明涉及医学图像处理的方法,具体的讲是白内障图像的颜色校正方法。
背景技术
白内障是一种常见的致盲性眼部疾病,当晶状体中蛋白质积聚时会引发白内障,出现晶状体混浊,这会阻挡光线透过晶状体,导致视力下降。根据白内障出现的区域,可以分为将白内障分为三种类型:核性白内障(N型),皮质性白内障(C型)和后囊型白内障(P型)。其中N型白内障是最常见的白内障类型,它在晶状体的焦点区域(核)深处形成,通常与细胞衰老有关。C型白内障是由于晶状体皮层(外层)变得不透明引起的,当晶状体周边的水含量改变时穿线裂缝时会发生这种情况。P型白内障发生在晶状体后部,患有糖尿病的人或服用高剂量类固醇药物的人患这种类型的白内障的风险更大。大多数老年人患有这三种类型的白内障中的一种。因此,如果眼科疾病能够被自动系统大规模筛选,对医生和病人来说都意义重大。
皮质型白内障图像包括全部角膜、虹膜、睫状体、晶状体等多个眼睛结构,其中白内障病变区域仅出现在晶状体;图像的采集仅由眼科医生完成,故图像的质量受医生习惯、拍摄环境等影响较大,所以图像质量差别较大,一般可以通过颜色恒常性算法将图像校准为标准光照射下采集图像。目前,常用的颜色恒常性算法分为以下几类:
(1)统计方法:统计类颜色恒常性方法不使用任何先验信息,仅利用图像的底层特征信息去估计光源,通常使用的图像底层特征信息包括边缘、纹理、对比度信息等等。灰度世界法、白斑法、灰度阴影法、灰度边缘法等均属于统计方法的范畴。尽管这类方法实现简单,但对于单幅输入图像,由于不知道场景中入射光的信息,以及场景中物体表面的反射特性,因此这类方法在没有合理的假设条件下问题是无法有效解决的。
(2)监督学习方法:监督学习颜色恒常性算法需要学习一些先验信息来促进问题的解决,如光源的色度分布,或者场景中物体表面的颜色分布,然后用这些学习到的有用的先验信息去估计输入图像中的未知光源的颜色。常用方法有色域映射算法、支持向量回归法、语义分析法等,该类方法准确率很高,但基于监督学习的方法需要知道训练数据的光源信息,且每个学习模型只对特定类型图像有效。
(3)基于生物医学的方法:计算机视觉的颜色恒常性模型就是以模拟人眼视觉实现为目的的,深入研究人类视觉系统的恒常性机制将进一步促进计算机视觉颜色恒常性问题的解决。不过目前生物医学对于人眼的颜色恒常性机制还不能非常清晰地从细胞级别进行解译,因此目前研究仅初步掌握人眼获取视觉信息的基本模型。
目前应用于图像预处理阶段的颜色恒常性算法,主要为统计方法,但这一类方法均需假设所研究场景中只有单个光源且光照均匀分布,现实中的自然图像很难满足该条件,现实场景中一般都会有多个光源的存在,例如室外场景中阴影区域仅受到天空光线的照亮,而非阴影区域同时受到太阳光和天空光线的照亮;室内场景会同时受室内和室外光源的影响;物体表面间的相互反射也会引入一个“虚光源”。针对多光源的颜色恒常性方法尚处于起步阶段,现有方法有基于物理的方法、基于生物启发模型的方法、基于样本学习的方法;其中基于物理的方法是针对室外拍摄图像的方法;基于生物启发模型的方法,通过模拟人眼的拮抗和双拮抗特性来实现对光源的估计;基于样本学习的方法,需要利用特征从训练集中找到待处理图像中的所有表面最接近的表面,从而估计出照射未知表面的光源值。
为了提高白内障图像颜色校正的准确率,考虑到常规颜色恒常性方法需假设场景光照均匀一致的特点,显然,多光源假设类基于样本学习的颜色恒常性方法更符合皮质型白内障图像特点,而该方法需要知道训练集图像光源信息,且算法复杂,容易受到表面边界影响,导致场景边缘颜色漂移;由于无法测量皮质型白内障图像的光源信息,同时为了消除边界效应,需要一种多层融合颜色恒常性的C型白内障图像颜色校正方法。
发明内容
本发明提供了一种白内障图像的颜色校正方法,以克服现有方法中受边缘影响导致白内障图像颜色校正中颜色偏差大和边缘颜色漂移的问题,并提高白内障图像颜色校正的准确率,降低边缘影响。
本发明的内障图像的颜色校正方法,包括:
A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;
B.利用简单线性迭代聚类(simple linear iterative clustering,SLIC)将每一层的图像分别划分为图像块;
C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。
本发明采用多光源颜色恒常性假设,将图像划分为多个图像块,假设每个图像块受单光源照射且光照均匀,更加符合皮质型白内障图像光照条件,解决了现有方法中由于采用单光源假设而导致光源估计与真实光源偏差大和采用多光源假设而需要一直光源信息数据集的问题,有效提高了光源估计准确率,降低了算法复杂度。而且引入了专门针对图像块边缘的多层融合,多层融合每一层采用不同图像块划分方法,每层块边缘不同,通过线性融合平滑块边缘,更好的描述了皮质型白内障图像光照信息,使算法的复杂度降低、使用条件降低,大幅度提高了算法的效率和算法的鲁棒性。
具体的,步骤A包括:
具体的,步骤B包括:
B2.在每个种子点的s×s邻域内计算该邻域内所有像素点的梯度值,并将种子点移到该邻域内梯度最小的地方,其中s为所述领域的边长值,s可以根据实际情况按经验取值;
B3.以每个种子点的2S×2S邻域内为搜索范围,对每个搜索到的像素点,分别计算该像素点和种子点之间的距离D;
B4.由于每个像素点都会被多个种子点搜索到,所以每个像素点都会有一组与周围种子点的距离。每个像素点被所有种子点搜索完后,分别得到一组与周围种子点的距离,取各组里距离最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心,将每个类作为一个超像素,将计算得到的坐标重心作为其对应的超像素的新种子点位置;
B6.重复迭代步骤B2到B5得聚类结果和像素标签kLabel(t)∈Rm×n,以及图像分块结果。进一步的,步骤B1中计算所述步长S为:
进一步的,步骤B3中计算所述距离D为:
其中,dc表示像素间颜色的距离,ds表示像素间空间位置的距离,i和j分别表示第i个种子点和其搜索范围内的第j个像素,xi、xj、yi、yj分别表示像素点i和j的横坐标、纵坐标,li、lj、ai、aj、bi、bj像素点i和j的在Lab空间三通道的值。
具体的,步骤C包括:
其中,xu表示第u个像素的横坐标,yu表示第u个像素的纵坐标;
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu),d′v(xu,yu)与d′j(xu,yu)的含义相同,但因为需要求和所以用变量v进行区分。
具体的,步骤D包括:
其中w为像素光源估计层数;
D2.计算颜色校正结果图IR,IR的计算为:
IR=I./LR
在此基础上优选的,步骤C中通过颜色恒常性算法Max-RGB计算出每个图像块的光源估计。优选的,所述的白内障图像为皮质型白内障图像。
本发明白内障图像的颜色校正方法的有益效果包括:
1.通过多光源颜色恒常性假设,将图像通过SLIC划分为多个图像块,假设每个图像块受单光源照射且光照均匀,由此更加符合皮质型白内障图像光照条件,解决了现有方法中由于采用单光源假设而导致光源估计与真实光源偏差大和采用多光源假设而需要一直光源信息数据集的问题,有效提高了光源估计准确率,降低了算法复杂度;
2.引入了专门针对图像块边缘的多层融合,多层融合每一层采用不同图像块划分方法,每层块边缘不同,采用线性融合平滑块边缘,更好的描述了皮质型白内障图像光照信息,解决了现有方法需要先验信息才能解决边缘光源估计错误问题,提高了非单一和非均匀光照场景颜色恢复准确率;
3.同时利用了超像素分割和基于统计的颜色恒常性方法,通过线性融合处理边界,大幅度降低了算法的复杂度、降低了使用条件,明显提高了算法的效率和算法的鲁棒性。
以下结合实施例的具体实施方式,对本发明的上述内容再作进一步的详细说明。但不应将此理解为本发明上述主题的范围仅限于以下的实例。在不脱离本发明上述技术思想情况下,根据本领域普通技术知识和惯用手段做出的各种替换或变更,均应包括在本发明的范围内。
附图说明
图1为本发明白内障图像的颜色校正方法的流程图。
图2为一副含有皮质型白内障病变的眼前节图像;
图3为通过本发明方法由图2转换到Lab颜色空间的图像;
图4为通过本发明方法对第一层初始图像的分割结果图;
图5为通过本发明方法对第二层初始图像的分割结果图;
图6为通过本发明方法对第三层初始图像的分割结果图;
图7为通过本发明方法由图4计算出的像素光源估计图;
图8为通过本发明方法由图5计算出的像素光源估计图;
图9为通过本发明方法由图6计算出的像素光源估计图;
图10为通过本发明方法由图7~图9融合后的最终光源估计图;
图11为通过本发明方法对图2的颜色校正结果图。
具体实施方式
本实施例以皮质型白内障图像的颜色校正为例,如图1所示本发明白内障图像的颜色校正方法,包括:
A.获取C型白内障图像大小为2592×1728×3。设定像素光源估计层数w,每层设定不同聚类种子点的个数k,初始化w层图像(本实施例为3层,即t=1,2,3),每层初始图像均为原始图像,即I(t)=I,t=1,2…,w。
B.利用简单线性迭代聚类(simple linear iterative clustering,SLIC)将每一层的图像分别划分为图像块。具体为:
B1.将第t层的初始图像I(t)从RGB颜色空间转换到Lab颜色空间,得到图像为图像L(t)均匀分配k(t)个种子点(本实施例中为k(1)=2500,k(2)=1900,k(3)=1200),划分为k(t)个超像素,相邻种子点的步长为
B2.在每个种子点的s×s邻域(本实施例为3×3)内计算该邻域内所有像素点的梯度值,将种子点移到该邻域内梯度最小的地方;
B3.每个种子点的2S×2S邻域内为搜索范围,对于每个搜索到的像素点,分别计算该像素点和种子点的距离D,计算如下:
其中,dc表示像素间颜色的距离,ds表示像素间空间位置的距离,i和j分别表示第i个种子点和其搜索范围内的第j个像素,xi、xj、yi、yj分别表示像素点i和j的横坐标、纵坐标,li、lj、ai、aj、bi、bj像素点i和j的在Lab空间三通道的值;
B4.由于每个像素点都会被多个种子点搜索到,所以每个像素点都会有一组与周围种子点的距离,取每组里最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心。将一个类视为一个超像素,将所述的坐标重心作为对应超像素的新种子点位置;
步骤B6还具体包括有:
B61.计算超像素理的想面积大小SUPSZ:
SUPSZ=n/k
B62.初始化新的像素标签Label(t)=-1,Label(t)∈R2595×1728,选取每个超像素的起点(本实施例为每个超像素中左上角第一个像素点),初始有k(t)个起点;
B63.将起点的四邻域的像素点的kLabel(t)值和起点的kLabel(t)值进行比较,如果有kLabel(t)值相等且Label(t)=-1的点,将这些点作为新的起点,并将新的起点的新的像素标签更新为Label(t)=Label(t)+1;
B64.循环步骤B63,直到没有新的起点;
图2所示的是一副含有皮质型(C型)白内障病变的眼前节图像,除了瞳孔区域内的白内障病变之外,还有亮度很高的白色光斑、黄色的弥散光,瞳孔外还有眼皮、巩膜等结构;图3是将图2的原始图像由RGB颜色空间转换到Lab颜色空间的图像L;图4是经过步骤B后由第一层初始图像使用2500个种子点聚类后得到的分割结果图;图5是经过步骤B后由第二层初始图像使用1900个种子点聚类后得到的分割结果图;图6是经过步骤B后由第三层初始图像使用1200个种子点聚类后得到的分割结果图。
C.使用颜色恒常性算法Max-RGB计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计。具体为:
ms (t)(xu,yu)=ei (t),if I(t)(xu,yu)∈Ii (t)
其中,xu表示第u个像素的横坐标,yu表示第u个像素的纵坐标;
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu),d′v(xu,yu)与d′j(xu,yu)的含义相同,但因为需要求和所以用变量v进行区分。
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。具体为:
D2.计算颜色校正结果图IR,IR的计算公式为:
IR=I./LR
如图7~11所示,通过本发明的方法经过计算和处理后获得的像素光源估计在复杂光照的情况下更加准确,而且不会受到场景的约束;采用多层融合方法,使得场景光照变化更加均匀,克服了现有方法中易导致边缘光照估计异常问题,明显提高了颜色校正的准确率。
Claims (8)
1.白内障图像的颜色校正方法,其特征包括:
A.设定像素光源估计层数w,每层设定不同聚类种子点的个数k,并将每一层的图像初始化;
B.利用简单线性迭代聚类将每一层的图像分别划分为图像块;
C.计算出每个图像块的光源估计,将其反投影到原始图像上,得到每一层的像素照明光源估计;步骤C包括:
其中,▽表示求梯度,Ω表示图像块内所有像素,I(t)为第t层的初始图像;
其中dj(xu,yu)表示初始值ms(xu,yu)到第j个光源估计值ej的距离,d′j(xu,yu)为临时变量,d′j(xu,yu)=d′v(xu,yu);
D.将所有层的像素照明光源估计结果进行线性融合,得到最终的像素照明光源估计结果,根据像素照明光源估计对原始图像进行恢复,得到颜色校正后的结果图。
3.如权利要求2所述的白内障图像的颜色校正方法,其特征为:步骤B包括:
B2.在每个种子点的s×s邻域内计算该邻域内所有像素点的梯度值,并将种子点移到该邻域内梯度最小的地方,其中s为所述邻域的边长值;
B3.以每个种子点的2S×2S邻域内为搜索范围,对每个搜索到的像素点,分别计算该像素点和种子点之间的距离D;
B4.每个像素点被所有种子点搜索完后,分别得到一组与周围种子点的距离,取各组里距离最小值对应的种子点作为其对应像素点的聚类中心;
B5.计算每个类内所有像素的均值和坐标重心,将每个类作为一个超像素,将计算得到的坐标重心作为其对应的超像素的新种子点位置;
B6.重复迭代步骤B2到B5得聚类结果和像素标签kLabel(t)∈Rm×n,以及图像分块结果。
7.如权利要求1至6之一所述的白内障图像的颜色校正方法,其特征为:步骤C中通过颜色恒常性算法Max-RGB计算出每个图像块的光源估计。
8.如权利要求1至6之一所述的白内障图像的颜色校正方法,其特征为:所述的白内障图像为皮质型白内障图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910443848.4A CN110148097B (zh) | 2019-05-27 | 2019-05-27 | 白内障图像的颜色校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910443848.4A CN110148097B (zh) | 2019-05-27 | 2019-05-27 | 白内障图像的颜色校正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110148097A CN110148097A (zh) | 2019-08-20 |
CN110148097B true CN110148097B (zh) | 2021-06-29 |
Family
ID=67593193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910443848.4A Active CN110148097B (zh) | 2019-05-27 | 2019-05-27 | 白内障图像的颜色校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110148097B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429534B (zh) * | 2020-02-17 | 2020-11-13 | 深圳市六六六国际旅行社有限公司 | 一种图像偏色矫正方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706964A (zh) * | 2009-08-27 | 2010-05-12 | 北京交通大学 | 一种基于图像导数结构的颜色恒常性计算方法及系统 |
CN106056155A (zh) * | 2016-05-30 | 2016-10-26 | 西安电子科技大学 | 基于边界信息融合的超像素分割方法 |
CN106651795A (zh) * | 2016-12-03 | 2017-05-10 | 北京联合大学 | 一种利用光照估计来校正图像颜色的方法 |
CN106981053A (zh) * | 2017-03-02 | 2017-07-25 | 天津大学 | 一种基于加权融合的水下图像增强方法 |
CN107103326A (zh) * | 2017-04-26 | 2017-08-29 | 苏州大学 | 基于超像素聚类的协同显著性检测方法 |
CN108961280A (zh) * | 2018-06-29 | 2018-12-07 | 电子科技大学 | 一种基于slic超像素分割的眼底视盘精细分割方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7515285B2 (en) * | 2005-09-26 | 2009-04-07 | Kabushiki Kaisha Toshiba | Method and apparatus for image processing |
CN102426695A (zh) * | 2011-09-30 | 2012-04-25 | 北京航空航天大学 | 一种单幅图像场景的虚实光照融合方法 |
-
2019
- 2019-05-27 CN CN201910443848.4A patent/CN110148097B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101706964A (zh) * | 2009-08-27 | 2010-05-12 | 北京交通大学 | 一种基于图像导数结构的颜色恒常性计算方法及系统 |
CN106056155A (zh) * | 2016-05-30 | 2016-10-26 | 西安电子科技大学 | 基于边界信息融合的超像素分割方法 |
CN106651795A (zh) * | 2016-12-03 | 2017-05-10 | 北京联合大学 | 一种利用光照估计来校正图像颜色的方法 |
CN106981053A (zh) * | 2017-03-02 | 2017-07-25 | 天津大学 | 一种基于加权融合的水下图像增强方法 |
CN107103326A (zh) * | 2017-04-26 | 2017-08-29 | 苏州大学 | 基于超像素聚类的协同显著性检测方法 |
CN108961280A (zh) * | 2018-06-29 | 2018-12-07 | 电子科技大学 | 一种基于slic超像素分割的眼底视盘精细分割方法 |
Non-Patent Citations (3)
Title |
---|
一种基于多模式融合的多视点图像颜色校正方法;邵枫等;《光电工程》;20091130;第36卷(第11期);第135-139页 * |
分层色彩校正算法研究;赵萍等;《计算机工程与应用》;20140702;第51卷(第6期);第158-162页 * |
基于光照分析的颜色恒常性算法研究;董俊鹏;《中国优秀硕士学位论文全文数据库信息科技辑》;20160515(第05期);正文第2、4章 * |
Also Published As
Publication number | Publication date |
---|---|
CN110148097A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106920227B (zh) | 基于深度学习与传统方法相结合的视网膜血管分割方法 | |
CN112132817B (zh) | 一种混合注意力机制的眼底图像视网膜血管分割方法 | |
Li et al. | DeepRetina: layer segmentation of retina in OCT images using deep learning | |
KR20200063173A (ko) | 디지털 치료적 보정 안경 | |
WO2020109630A1 (en) | Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ | |
Basit et al. | Optic disc detection and boundary extraction in retinal images | |
Zhao et al. | Data-driven enhancement of blurry retinal images via generative adversarial networks | |
JP2019192215A (ja) | 深層学習を用いた網膜層の3d定量解析 | |
CN102982524B (zh) | 玉米果穗有序图像的拼接方法 | |
CN109671049B (zh) | 一种医学图像处理方法、系统、设备、存储介质 | |
CN107221029A (zh) | 一种三维图像重建方法 | |
CN106650794A (zh) | 一种受物体表面高光反射影响的图像高光消除方法及系统 | |
Sedai et al. | Multi-stage segmentation of the fovea in retinal fundus images using fully convolutional neural networks | |
Wu et al. | Auto-contouring via automatic anatomy recognition of organs at risk in head and neck cancer on CT images | |
Kumar et al. | Image processing in diabetic related causes | |
Sun et al. | Multi-label classification of fundus images with graph convolutional network and LightGBM | |
CN110148097B (zh) | 白内障图像的颜色校正方法 | |
CN104318565A (zh) | 基于等梯度距离的双向区域增长的视网膜血管分割交互式方法 | |
Niya et al. | Analysis of different automatic cataract detection and classification methods | |
Singh et al. | Optimized convolutional neural network for glaucoma detection with improved optic-cup segmentation | |
Ghassabi et al. | A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening | |
Devi et al. | Dehazing buried tissues in retinal fundus images using a multiple radiance pre-processing with deep learning based multiple feature-fusion | |
Pappu et al. | EANet: Multiscale autoencoder based edge attention network for fluid segmentation from SD‐OCT images | |
Jayachandran et al. | Multi-dimensional cascades neural network models for the segmentation of retinal vessels in colour fundus images | |
Vigueras-Guillén et al. | Automatic detection of the region of interest in corneal endothelium images using dense convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |