CN112907604A - 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法 - Google Patents

一种用于眼底棉绒斑图像分割的自适应超像素fcm方法 Download PDF

Info

Publication number
CN112907604A
CN112907604A CN202110281472.9A CN202110281472A CN112907604A CN 112907604 A CN112907604 A CN 112907604A CN 202110281472 A CN202110281472 A CN 202110281472A CN 112907604 A CN112907604 A CN 112907604A
Authority
CN
China
Prior art keywords
pixel
value
image
fundus
population
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110281472.9A
Other languages
English (en)
Inventor
丁卫平
冯志豪
李铭
孙颖
曹金鑫
鞠恒荣
黄嘉爽
程纯
秦廷帧
沈鑫杰
潘柏儒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202110281472.9A priority Critical patent/CN112907604A/zh
Publication of CN112907604A publication Critical patent/CN112907604A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Genetics & Genomics (AREA)
  • Physiology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,包括:S10、人为等比例裁剪出棉绒斑病变图像的病变区域;S20、对棉绒斑病变图像进行超像素处理,并将超像素点作为自适应FCM样本;S30、使用衍生多种群遗传算法优化自适应FCM聚类中心;S40、计算出聚类之后的逐像素损失值,回调参数;S50、形成眼底棉绒斑图像分割的遗传FCM聚类模型,输入眼底图像,既能输出分割后的眼底棉绒斑病变区域图像。本发明的一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,大大降低了运行时间,提升图像分割时的精度,为相关糖尿病视网膜棉绒斑病变疾病的临床诊断和治疗提供重要的影像特征依据。

Description

一种用于眼底棉绒斑图像分割的自适应超像素FCM方法
技术领域
本发明涉及图像处理分析技术领域,具体涉及一种用于眼底棉绒斑图像分割的自适应超像素FCM方法。
背景技术
近年来随着糖尿病患者的增多,糖尿病最为严重的眼部并发症——糖尿病视网膜病变(简称“糖网”,Diabetic Retinopathy,DR)目前已成为导致成人失明的首要原因。如今我国现已是世界第一糖尿病大国,且糖尿病知识普及较差,知晓率、诊断率以及控制达标率均较低,这造成糖网发生率较高,且诊断与治疗较为滞后,给患者造成了严重后果。世界卫生组织公布,糖网是全球导致视力缺损与失明的主要原因,糖尿病患者致盲风险是非糖尿病患者的25倍:患糖尿病10年的患者,糖网的发病率为50%;超过20年的患者,糖网的患病率几乎为100%。但医学专家指出,通过周期的眼底普查以及早期诊断,有近90%的由糖尿病引发的视力缺损和失明是完全可以得到有效避免的。因此,对糖尿病患者而言,需要在感觉到视力受损之前定期对视网膜进行检查,以期及早发现棉绒斑病变,采取及时合理有效的治疗措施,从而降低失明风险,同时也在最大程度上减轻患者的经济压力。因此,该项工作不仅具有重要的理论价值还具有积极的社会意义。
目前,大部分医疗机构对于眼底棉绒斑病变的检测诊断还是以医生个人经验和体检结果为标准。不仅在人工上花费很高,也会延误患者最佳就诊时间。
发明内容
为了解决上述问题,本发明提供一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,大大降低了运行时间,提升图像分割时的精度,为相关糖尿病视网膜棉绒斑病变疾病的临床诊断和治疗提供重要的影像特征依据。
为了实现以上目的,本发明采取的一种技术方案是:
一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,包括如下步骤:
S10、输入标准糖尿病患者的眼底图像数据,预处理后人为等比例裁剪出棉绒斑病变图像的病变区域,获得标记后的棉绒斑病变图像;S20、提取棉绒斑病变图像的病变区域后,进行滤波增强并按照步距S进行超像素处理,后将超像素点作为自适应FCM样本;S30、遗传编码初始化,自适应FCM样本的数据特征提取转化为N维度特征数据向量xi,并对眼底棉绒斑图像分割的遗传FCM聚类方法的各种超参数初始化后,采用二进制编码生成m个编码长度为L的遗传个体,L的计算方式如下公式(1)所示;
L=C×N (1)
式中,L为遗传个体编码长度,C为聚类中心数,N为特征维数,采用衍生多种群遗传算法然后寻找最优个体fa,在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中,并通过衍生算子生成孪生种群Pop′,合并Pop形成遗传进化初始种群;算子的衍生概率dm、交叉概率pc和变异概率pm使用模糊自动控制器Fuzzy PID控制调节,通过遗传算子在可行域内搜索最优个体,将类间方差函数作为适应度函数f进行计算,计算方式如下公式(2)所示;
f=n1n2(G1k-G2k)2,k=1,2,3,...,n, (2)
式中,n1、n2分别为超像素棉绒斑病变图像前景和背景两类像素点的个数,G1k为第一类中第k个像素点的灰度值,G2k为第二类中第k个像素点的灰度值;根据适应度函数f来评判个体优劣性,不断更新种群中的个体,直至遗传算法符合收敛条件,得到全局最优个体fa,将fa编码后作为用于眼底棉绒斑图像分割的自适应超像素FCM的初始化聚类中心;
S40将医生手动分割的棉绒斑病变标准分割图逐像素分类得到分类矩阵为y_predictij,并将棉绒斑病变图像集设为训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,进行softmax计算softmax(y_predict),进行眼底棉绒斑图像的逐像素交叉熵损失计算,得到第n次损失值lossn,计算方式如下公式(3)所示:
Figure BDA0002978657190000031
式中,y_trueij为预测出的逐像素分类矩阵中的i行j列的值,y_predictij为眼底棉绒斑标准分割图的分类矩阵的i行j列的值,class为i×j像素总个数;S50通过损失值回传,模糊控制改变初始的遗传FCM超参数,判断模型是否达到结束条件,若达到结束条件,则将以最终超权值作为最终训练完成的遗传FCM参数,将训练完成的权值参数带入分割遗传FCM聚类模型中,形成眼底棉绒斑图像分割的遗传FCM聚类模型,输入眼底图像,既能输出分割后的眼底棉绒斑病变区域图像,并输出逐像素分类矩阵的y_ture。
进一步地,所述步骤S20包括:S21使用建模工具Matlab的颜色空间转换包Colorspace Transformations分别提取红绿蓝三通道RGB中标记后的棉绒斑病变图像,并采用12个不同方向的滤波模板与RGB三通道图像进行卷积并选取卷积最大值作为增强图像的像素值,获得增强后的棉绒斑病变图像;S22按照步距S划分增强后的棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK,通过区域间重复计算像素点间相似性,将具有相似特性的像素聚合起来形成一个更具有代表性的超像素点,并将超像素点作为自适应FCM样本。
进一步地,所述S22包括:S221按照步距S划分棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK=[RkGkBkXkYk]T,其中,RkGkBk和XkYk分别代表第k个聚类中心的颜色距离参数和空间距离参数,T代表转置矩阵;假设增强后的棉绒斑病变图像总共有Ns个像素点,预分割为K个相同尺寸的超像素,那么每个超像素的大小为
Figure BDA0002978657190000032
相邻种子点的步长距离,计算方式如公式(4)所示:
Figure BDA0002978657190000033
式中,S为相邻种子点的步距;
S222在聚类中心的n×n领域内重新选择中心种子点,然后计算n×n领域内所有像素点的梯度值,将种子点移到n×n领域内梯度最小的地方;S223在每个增强后的棉绒斑病变图像的种子点周围领域内为每个像素点分配类别标签;S224对每个搜索到的棉绒斑病变像素点,分别计算每个棉绒斑病变像素点和该棉绒斑病变像素点所对应的种子点的距离,包括颜色距离和空间距离,计算方式如公式(5)、(6)和(7)所示:
Figure BDA0002978657190000041
式中,dc代表棉绒斑病变图像的颜色距离,rj-ri代表第j个像素点到第i个像素点在R通道上的相对距离,gj-gi和bj-bi分别代表G和B通道上的第j个像素点到第i个像素点的相对距离;
Figure BDA0002978657190000042
式中,ds代表棉绒斑病变图像的空间距离,xj-xi和yj-yi分别代表x轴和y轴上第j个像素点到第i个像素点的相对距离;
Figure BDA0002978657190000043
式中,D′ij代表像素点i到第j个种子点的距离,φ是空间距离的比重系数,λ代表颜色距离的比重系数,取值范围[1,40];S225采用四连通分量算法进一步处理增强后的棉绒斑病变图像的孤立像素点,即迭代完成后有可能产生的错分点,四连通分量算法进行遍历周边像素点对孤立像素点进行修正;最后输出超像素预处理后的眼底棉绒斑超像素图像,使其作为自适应FCM的基本样本。
进一步地,所述步骤S224中,λ的取值为10。
进一步地,所述步骤S20包括:S31采用衍生多种群遗传算法将自适应FCM样本的数据特征提取转化为N维度特征数据向量xi;S32对眼底棉绒斑图像分割的遗传模糊C均值聚类方法的超参数进行初始化;S33用随机函数Rand初始化隶属度矩阵然后采用二进制编码生成m个编码长度为L的个体,得到基因串b={β12,…,βi,…,βL},b中的前N个量化值代表第一个N维聚类中心,第N+1至2N个量化值代表第二个N维聚类中心,依此类推,获得第C个聚类中心;若二进制编码方式采用65536级编码,则每个基因串由长度为16×N×C个比特位的串组成;设x为聚类中心Vi的任意一维数的十进制形式,且x∈(-b,b),按下式将x转化为16位的二进制形式y,计算方式如下公式(8)所示:
Figure BDA0002978657190000051
式中,y的取值范围为(0,65536),b为x的定义域阈值。
进一步地,所述衍生多种群遗传算法包括:S311在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中;每个种群以衍生概率dm选择种群内个体进行衍生,选中为1,反之为0,变化计算方式如下公式(9)所示,进行了衍生,从母体物质演变而产生得到的新个体种群,生成孪生种群Pop′,合并Pop形成遗传进化初始种群,其中使用模糊控制调节衍生概率dm,每个种群计算出个体适应度均值,均值高的种群,衍生概率高,反之则低;
Figure BDA0002978657190000052
式中,pi代表第i个染色体,
Figure BDA0002978657190000053
代表第第i个染色体的第j个编码值,dm代表衍生概率,a是设置的一个变化阈值,取值范围(-128,127),f代表进行适应度计算,max代表取适应度大的变化方式;S312根据种群中适应度值的改变情况建立模糊逻辑控制系统,对衍生多种群遗传算法进行动态地调整交叉变异的概率;系统参数取并在Matlab环境下进行仿真试验,对该系统均构建dm、pc和pm模糊控制规则,计算方式如下公式(10)和(11)所示:
Figure BDA0002978657190000061
Figure BDA0002978657190000062
式中,t表示遗传代数,Fmax、Favg和Fmin表示第t代的适应度最大值、平均值和最小值;Favg′表示第t-1代的适应度平均值;X(t)和Y(t)为模糊逻辑控制箱的输入量,定义范围值为ES为很小、S为小、M为中等、B为大和EB为很大;S313然后每个种群中通过选择算子从旧种群中以一定概率选择最优的三个体到新种群中;然后通过交叉算子从种群中任选两个染色体,对每个位置按照pc的概率随机选择一个基因的位置进行交换,计算方式如下公式(12)所示:
Figure BDA0002978657190000063
式中,ami为第m个染色体的第i位,ani第n个染色体的第i位,pc为交叉概率;S314再通过变异算子从群体中任选一个体,以pm的概率选择个体中的一个基因位进行变异来产生更优秀的个体,计算方式如下公式(13)所示:
amn=amn+(amn-amax)×pm (13)
式中,amn为第m个染色体的第n位,amax为基因上界,pm为变异概率;S315各种群间使用迁移算子将迁出种群中最优的个体去替换迁入种群的最差个体,然后使用类间方差函数作为适应度函数f进行计算,来评判个体优劣性,计算方式采用公式(2)进行计算;S316判断衍生多种群遗传算法是否满足收敛条件,若满足,则停止衍生多种群遗传算法的寻优,将最优个体fa的值解码得到用于眼底棉绒斑图像分割的自适应超像素FCM的初始聚类中心,解码计算方式如下公式(14)所示;若不满足则将按适应度排序的精英种群的个体依次去替换每个种群中差的个体进行重新初始化,然后转到步骤S311;
Figure BDA0002978657190000071
式中,x为聚类中心Vi的任意一维数的十进制形式,y为16位的二进制编码结果,b为x的定义域阈值。
进一步地,所述步骤S40还包括:S41将训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,对眼底棉绒斑图像分割自适应FCM聚类方法的聚类类别数C、加权指数q、迭代停止阈值ε>0、最大迭代次数Tmax以及初始化聚类中心V参数初始化,并用Rand函数随机初始化隶属度矩阵;S42将步骤S30衍生多种群遗传算法寻得的棉绒斑最优超像素个体的值按公式(14)解码输入,作为遗传FCM的初始聚类中心V,然后计算每个棉绒斑图像超像素点与各个聚类中心的隶属度u,计算方式如下公式(15)所示:
Figure BDA0002978657190000072
式中,uij为第j个超像素点属于第i类簇的隶属度值,dij为第i个聚类中心和第j个数据点之间的欧几里德距离,dkj为第k个聚类中心和第j个数据点之间的欧几里德距离,m为模糊系数;同时使棉绒斑图像的隶属度矩阵u必须满足如下条件:
Figure BDA0002978657190000073
式中,当uij=1时表示第j个对象完全属于第i个类,uij=0时表示第j个对象完全不属于第i个类;S43计算每次眼底棉绒斑超像素图像聚类后的目标函数值,并与上一次的值进行比较,如果它小于某个确定的阈值,或者它相对上一次目标函数值的改变量小于给定阈值φ相同,就跳转S55输出结果,否则进行下一步,目标函数值的计算方式如下公式(17)所示:
Figure BDA0002978657190000081
式中,Jm代表最小化目标函数;c代表第i个簇类;uij表示第j个超像素点属于第i类簇的隶属度值;
Figure BDA0002978657190000082
为第i个聚类中心和第j个数据点之间的距离,其中Dc是眼底棉绒斑图像超像素点的颜色距离,λ是颜色距离的比重系数,Ds是眼底棉绒斑图像超像素点的空间距离,m为模糊系数,取值[1,∞];S44根据每个棉绒斑图像超像素点与聚类中心点的隶属度更新质心,并转向S42,计算方式如下公式(18)所示:
Figure BDA0002978657190000083
式中,
Figure BDA0002978657190000084
为公式(17)代入公式(15)后对vi的偏导求得的中心点更新公式;S45计算得到新的聚类中心,输出C个簇中心,并输出眼底棉绒斑图像超像素点隶属度矩阵和聚类结果预测值矩阵y_predict;S46通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,并进行眼底棉绒斑图像的逐像素交叉熵损失计算。
本发明的上述技术方案相比现有技术具有以下优点:
(1)本发明的一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,采用了结合衍生多种群遗传算法优化出的初始聚类中心,有效避免了FCM聚类中心对聚类结果的影响;并且利用超像素图像预处理方式,使用处理后的超像素点作为FCM聚类的基本单位,使聚类收敛更快;同时为了保留较重要特征,结合超像素预处理的距离计算方法,兼顾颜色距离和空间距离,一定程度上处理了眼底棉绒斑图像分辨率更低的问题;进一步提高眼底棉绒斑图像分割效率,为眼底棉绒斑病变的早期正确诊断具有重要意义。
(2)本发明的一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,由原生种群衍生孪生种群使得目标种群维数上升,并通过Fuzzy PID模糊控制所有种群的衍生概率、交换概率和变异概率,来保证较为良好的解集搜索性能,而且在提升目标种群维数和解集搜索性能的同时算法仍然能保持较好的收敛性和种群多样性,衍生多种群遗传算法得到的解集分布更加均匀,收敛性和多样性更好,能够更高效率的解决FCM聚类中心敏感问题,从而能够准确和高效的检测出眼底图像的棉绒斑病灶。
附图说明
下面结合附图,通过对本发明的具体实施方式详细描述,将使本发明的技术方案及其有益效果显而易见。
图1所示为本发明一实施例的用于眼底棉绒斑图像分割的自适应超像素FCM方法结构图;
图2所示为本发明一实施例的衍生多种群遗传方法流程图;
图3所示为本发明一实施例的自适应FCM聚类方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本实施例提供了一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,如图1所示,包括如下步骤:S10、输入标准糖尿病患者的眼底图像数据,预处理后人为等比例裁剪出棉绒斑病变图像的病变区域,获得标记后的棉绒斑病变图像。S20、提取棉绒斑病变图像的病变区域后,进行滤波增强并按照步距S进行超像素处理,后将超像素点作为自适应FCM样本。
S30、遗传编码初始化,自适应FCM样本的数据特征提取转化为N维度特征数据向量xi,并对眼底棉绒斑图像分割的遗传FCM聚类方法的各种超参数初始化后,采用二进制编码生成m个编码长度为L的遗传个体,L的计算方式如下公式(1)所示;
L=C×N (1)
式中,L为遗传个体编码长度,C为聚类中心数,N为特征维数
采用衍生多种群遗传算法然后寻找最优个体fa,在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中,并通过衍生算子生成孪生种群Pop′,合并Pop形成遗传进化初始种群;算子的衍生概率dm、交叉概率pc和变异概率pm使用模糊自动控制器FuzzyPID控制调节,通过遗传算子在可行域内搜索最优个体,将类间方差函数作为适应度函数f进行计算,计算方式如下公式(2)所示;
f=n1n2(G1k-G2k)2,k=1,2,3,...,n, (2)
式中,n1、n2分别为超像素棉绒斑病变图像前景和背景两类像素点的个数,G1k为第一类中第k个像素点的灰度值,G2k为第二类中第k个像素点的灰度值。
根据适应度函数f来评判个体优劣性,不断更新种群中的个体,直至遗传算法符合收敛条件,得到全局最优个体fa,将fa编码后作为用于眼底棉绒斑图像分割的自适应超像素FCM的初始化聚类中心。
S40将医生手动分割的棉绒斑病变标准分割图逐像素分类得到分类矩阵为y_predictij,并将棉绒斑病变图像集设为训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,进行softmax计算softmax(y_predict),进行眼底棉绒斑图像的逐像素交叉熵损失计算,得到第n次损失值lossn,计算方式如下公式(3)所示:
Figure BDA0002978657190000101
式中,y_trueij为预测出的逐像素分类矩阵中的i行j列的值,y_predictij为眼底棉绒斑标准分割图的分类矩阵的i行j列的值,class为i×j像素总个数。
S50通过损失值回传,模糊控制改变初始的遗传FCM超参数,判断模型是否达到结束条件,若达到结束条件,则将以最终超权值作为最终训练完成的遗传FCM参数,将训练完成的权值参数带入分割遗传FCM聚类模型中,形成眼底棉绒斑图像分割的遗传FCM聚类模型,输入眼底图像,既能输出分割后的眼底棉绒斑病变区域图像,并输出逐像素分类矩阵的y_ture。
所述步骤S20包括:S21使用建模工具Matlab的颜色空间转换包ColorspaceTransformations分别提取红绿蓝三通道RGB中标记后的棉绒斑病变图像,并采用12个不同方向的滤波模板与RGB三通道图像进行卷积并选取卷积最大值作为增强图像的像素值,获得增强后的棉绒斑病变图像。S22按照步距S划分增强后的棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK,通过区域间重复计算像素点间相似性,将具有相似特性的像素聚合起来形成一个更具有代表性的超像素点,并将超像素点作为自适应FCM样本。
所述S22包括:S221按照步距S划分棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK=[RkGkBkXkYk]T,其中,RkGkBk和XkYk分别代表第k个聚类中心的颜色距离参数和空间距离参数,T代表转置矩阵;假设增强后的棉绒斑病变图像总共有Ns个像素点,预分割为K个相同尺寸的超像素,那么每个超像素的大小为
Figure BDA0002978657190000111
相邻种子点的步长距离,计算方式如公式(4)所示:
Figure BDA0002978657190000112
式中,S为相邻种子点的步距。
S222在聚类中心的n×n领域内重新选择中心种子点,然后计算n×n领域内所有像素点的梯度值,将种子点移到n×n领域内梯度最小的地方。S223在每个增强后的棉绒斑病变图像的种子点周围领域内为每个像素点分配类别标签。S224对每个搜索到的棉绒斑病变像素点,分别计算每个棉绒斑病变像素点和该棉绒斑病变像素点所对应的种子点的距离,包括颜色距离和空间距离,计算方式如公式(5)、(6)和(7)所示:
Figure BDA0002978657190000121
式中,dc代表棉绒斑病变图像的颜色距离,rj-ri代表第j个像素点到第i个像素点在R通道上的相对距离,gj-gi和bj-bi分别代表G和B通道上的第j个像素点到第i个像素点的相对距离;
Figure BDA0002978657190000122
式中,ds代表棉绒斑病变图像的空间距离,xj-xi和yj-yi分别代表x轴和y轴上第j个像素点到第i个像素点的相对距离;
Figure BDA0002978657190000123
式中,D′ij代表像素点i到第j个种子点的距离,φ是空间距离的比重系数,λ代表颜色距离的比重系数,取值范围[1,40],λ的取值优选10。S225采用四连通分量算法进一步处理增强后的棉绒斑病变图像的孤立像素点,即迭代完成后有可能产生的错分点,四连通分量算法进行遍历周边像素点对孤立像素点进行修正;最后输出超像素预处理后的眼底棉绒斑超像素图像,使其作为自适应FCM的基本样本。
如图2~3所示,所述步骤S30包括:S31采用衍生多种群遗传算法将自适应FCM样本的数据特征提取转化为N维度特征数据向量xi。S32对眼底棉绒斑图像分割的遗传模糊C均值聚类方法的超参数进行初始化。S33用随机函数Rand初始化隶属度矩阵然后采用二进制编码生成m个编码长度为L的个体,得到基因串b={β12,…,βi,…,βL},b中的前N个量化值代表第一个N维聚类中心,第N+1至2N个量化值代表第二个N维聚类中心,依此类推,获得第C个聚类中心;若二进制编码方式采用65536级编码,则每个基因串由长度为16×N×C个比特位的串组成;设x为聚类中心Vi的任意一维数的十进制形式,且x∈(-b,b),按下式将x转化为16位的二进制形式y,计算方式如下公式(8)所示:
Figure BDA0002978657190000131
式中,y的取值范围为(0,65536),b为x的定义域阈值。
所述衍生多种群遗传算法包括:S311在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中;每个种群以衍生概率dm选择种群内个体进行衍生,选中为1,反之为0,变化计算方式如下公式(9)所示,进行了衍生,从母体物质演变而产生得到的新个体种群,生成孪生种群Pop′,合并Pop形成遗传进化初始种群,其中使用模糊控制调节衍生概率dm,每个种群计算出个体适应度均值,均值高的种群,衍生概率高,反之则低;
Figure BDA0002978657190000132
式中,pi代表第i个染色体,
Figure BDA0002978657190000133
代表第第i个染色体的第j个编码值,dm代表衍生概率,a是设置的一个变化阈值,取值范围(-128,127),f代表进行适应度计算,max代表取适应度大的变化方式。S312根据种群中适应度值的改变情况建立模糊逻辑控制系统,对衍生多种群遗传算法进行动态地调整交叉变异的概率;系统参数取并在Matlab环境下进行仿真试验,对该系统均构建dm、pc和pm模糊控制规则,计算方式如下公式(10)和(11)所示:
Figure BDA0002978657190000134
Figure BDA0002978657190000135
式中,t表示遗传代数,Fmax、Favg和Fmin表示第t代的适应度最大值、平均值和最小值;Favg′表示第t-1代的适应度平均值;X(t)和Y(t)为模糊逻辑控制箱的输入量,定义范围值为ES为很小、S为小、M为中等、B为大和EB为很大。S313然后每个种群中通过选择算子从旧种群中以一定概率选择最优的三个体到新种群中;然后通过交叉算子从种群中任选两个染色体,对每个位置按照pc的概率随机选择一个基因的位置进行交换,计算方式如下公式(12)所示:
Figure BDA0002978657190000141
式中,ami为第m个染色体的第i位,ani第n个染色体的第i位,pc为交叉概率;
S314再通过变异算子从群体中任选一个体,以pm的概率选择个体中的一个基因位进行变异来产生更优秀的个体,计算方式如下公式(13)所示:
amn=amn+(amn-amax)×pm (13)
式中,amn为第m个染色体的第n位,amax为基因上界,pm为变异概率。S315各种群间使用迁移算子将迁出种群中最优的个体去替换迁入种群的最差个体,然后使用类间方差函数作为适应度函数f进行计算,来评判个体优劣性,计算方式采用公式(2)进行计算。S316判断衍生多种群遗传算法是否满足收敛条件,若满足,则停止衍生多种群遗传算法的寻优,将最优个体fa的值解码得到用于眼底棉绒斑图像分割的自适应超像素FCM的初始聚类中心,解码计算方式如下公式(14)所示;若不满足则将按适应度排序的精英种群的个体依次去替换每个种群中差的个体进行重新初始化,然后转到步骤S311。
Figure BDA0002978657190000142
式中,x为聚类中心Vi的任意一维数的十进制形式,y为16位的二进制编码结果,b为x的定义域阈值。
所述步骤S40还包括:S41将训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,对眼底棉绒斑图像分割自适应FCM聚类方法的聚类类别数C、加权指数q、迭代停止阈值ε>0、最大迭代次数Tmax以及初始化聚类中心V参数初始化,并用Rand函数随机初始化隶属度矩阵。S42将步骤S30衍生多种群遗传算法寻得的棉绒斑最优超像素个体的值按公式(14)解码输入,作为遗传FCM的初始聚类中心V,然后计算每个棉绒斑图像超像素点与各个聚类中心的隶属度u,计算方式如下公式(15)所示:
Figure BDA0002978657190000151
式中,uij为第j个超像素点属于第i类簇的隶属度值,dij为第i个聚类中心和第j个数据点之间的欧几里德距离,dkj为第k个聚类中心和第j个数据点之间的欧几里德距离,m为模糊系数。
同时使棉绒斑图像的隶属度矩阵u必须满足如下条件:
Figure BDA0002978657190000152
式中,当uij=1时表示第j个对象完全属于第i个类,uij=0时表示第j个对象完全不属于第i个类。S43计算每次眼底棉绒斑超像素图像聚类后的目标函数值,并与上一次的值进行比较,如果它小于某个确定的阈值,或者它相对上一次目标函数值的改变量小于给定阈值φ相同,就跳转S55输出结果,否则进行下一步,目标函数值的计算方式如下公式(17)所示:
Figure BDA0002978657190000153
式中,Jm代表最小化目标函数;c代表第i个簇类;uij表示第j个超像素点属于第i类簇的隶属度值;
Figure BDA0002978657190000161
为第i个聚类中心和第j个数据点之间的距离,其中Dc是眼底棉绒斑图像超像素点的颜色距离,λ是颜色距离的比重系数,Ds是眼底棉绒斑图像超像素点的空间距离,m为模糊系数,取值[1,∞]。S44根据每个棉绒斑图像超像素点与聚类中心点的隶属度更新质心,并转向S42,计算方式如下公式(18)所示:
Figure BDA0002978657190000162
式中,
Figure BDA0002978657190000163
为公式(17)代入公式(15)后对vi的偏导求得的中心点更新公式。S45计算得到新的聚类中心,输出C个簇中心,并输出眼底棉绒斑图像超像素点隶属度矩阵和聚类结果预测值矩阵y_predict。S46通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,并进行眼底棉绒斑图像的逐像素交叉熵损失计算。
以上所述仅为本发明的示例性实施例,并非因此限制本发明专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (7)

1.一种用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,包括如下步骤:
S10、输入标准糖尿病患者的眼底图像数据,预处理后人为等比例裁剪出棉绒斑病变图像的病变区域,获得标记后的棉绒斑病变图像;
S20、提取棉绒斑病变图像的病变区域后,进行滤波增强并按照步距S进行超像素处理,后将超像素点作为自适应FCM样本;
S30、遗传编码初始化,自适应FCM样本的数据特征提取转化为N维度特征数据向量xi,并对眼底棉绒斑图像分割的遗传FCM聚类方法的各种超参数初始化后,采用二进制编码生成m个编码长度为L的遗传个体,L的计算方式如下公式(1)所示;
L=C×N (1)
式中,L为遗传个体编码长度,C为聚类中心数,N为特征维数
采用衍生多种群遗传算法然后寻找最优个体fa,在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中,并通过衍生算子生成孪生种群Pop′,合并Pop形成遗传进化初始种群;算子的衍生概率dm、交叉概率pc和变异概率pm使用模糊自动控制器Fuzzy PID控制调节,通过遗传算子在可行域内搜索最优个体,将类间方差函数作为适应度函数f进行计算,计算方式如下公式(2)所示;
f=n1n2(G1k-G2k)2,k=1,2,3,...,n, (2)
式中,n1、n2分别为超像素棉绒斑病变图像前景和背景两类像素点的个数,G1k为第一类中第k个像素点的灰度值,G2k为第二类中第k个像素点的灰度值;
根据适应度函数f来评判个体优劣性,不断更新种群中的个体,直至遗传算法符合收敛条件,得到全局最优个体fa,将fa编码后作为用于眼底棉绒斑图像分割的自适应超像素FCM的初始化聚类中心;
S40将医生手动分割的棉绒斑病变标准分割图逐像素分类得到分类矩阵为y_predictij,并将棉绒斑病变图像集设为训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,进行softmax计算softmax(y_predict),进行眼底棉绒斑图像的逐像素交叉熵损失计算,得到第n次损失值lossn,计算方式如下公式(3)所示:
Figure FDA0002978657180000021
式中,y_trueij为预测出的逐像素分类矩阵中的i行j列的值,y_predictij为眼底棉绒斑标准分割图的分类矩阵的i行j列的值,class为i×j像素总个数;
S50通过损失值回传,模糊控制改变初始的遗传FCM超参数,判断模型是否达到结束条件,若达到结束条件,则将以最终超权值作为最终训练完成的遗传FCM参数,将训练完成的权值参数带入分割遗传FCM聚类模型中,形成眼底棉绒斑图像分割的遗传FCM聚类模型,输入眼底图像,既能输出分割后的眼底棉绒斑病变区域图像,并输出逐像素分类矩阵的y_ture。
2.根据权利要求1所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述步骤S30包括:
S21使用建模工具Matlab的颜色空间转换包Colorspace Transformations分别提取红绿蓝三通道RGB中标记后的棉绒斑病变图像,并采用12个不同方向的滤波模板与RGB三通道图像进行卷积并选取卷积最大值作为增强图像的像素值,获得增强后的棉绒斑病变图像;
S22按照步距S划分增强后的棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK,通过区域间重复计算像素点间相似性,将具有相似特性的像素聚合起来形成一个更具有代表性的超像素点,并将超像素点作为自适应FCM样本。
3.根据权利要求2所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述S22包括:
S221按照步距S划分棉绒斑病变图像并在每个划分区域生成超像素聚类中心CK=[RkGkBkXkYk]T,其中,RkGkBk和XkYk分别代表第k个聚类中心的颜色距离参数和空间距离参数,T代表转置矩阵;假设增强后的棉绒斑病变图像总共有Ns个像素点,预分割为K个相同尺寸的超像素,那么每个超像素的大小为
Figure FDA0002978657180000031
相邻种子点的步长距离,计算方式如公式(4)所示:
Figure FDA0002978657180000032
式中,S为相邻种子点的步距;
S222在聚类中心的n×n领域内重新选择中心种子点,然后计算n×n领域内所有像素点的梯度值,将种子点移到n×n领域内梯度最小的地方;
S223在每个增强后的棉绒斑病变图像的种子点周围领域内为每个像素点分配类别标签;
S224对每个搜索到的棉绒斑病变像素点,分别计算每个棉绒斑病变像素点和该棉绒斑病变像素点所对应的种子点的距离,包括颜色距离和空间距离,计算方式如公式(5)、(6)和(7)所示:
Figure FDA0002978657180000033
式中,dc代表棉绒斑病变图像的颜色距离,rj-ri代表第j个像素点到第i个像素点在R通道上的相对距离,gj-gi和bj-bi分别代表G和B通道上的第j个像素点到第i个像素点的相对距离;
Figure FDA0002978657180000034
式中,ds代表棉绒斑病变图像的空间距离,xj-xi和yj-yi分别代表x轴和y轴上第j个像素点到第i个像素点的相对距离;
Figure FDA0002978657180000041
式中,D′ij代表像素点i到第j个种子点的距离,φ是空间距离的比重系数,λ代表颜色距离的比重系数,取值范围[1,40];
S225采用四连通分量算法进一步处理增强后的棉绒斑病变图像的孤立像素点,即迭代完成后有可能产生的错分点,四连通分量算法进行遍历周边像素点对孤立像素点进行修正;最后输出超像素预处理后的眼底棉绒斑超像素图像,使其作为自适应FCM的基本样本。
4.根据权利要求3所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述步骤S224中,λ的取值为10。
5.根据权利要求3所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述步骤S30包括:
S31采用衍生多种群遗传算法将自适应FCM样本的数据特征提取转化为N维度特征数据向量xi
S32对眼底棉绒斑图像分割的遗传模糊C均值聚类方法的超参数进行初始化;
S33用随机函数Rand初始化隶属度矩阵然后采用二进制编码生成m个编码长度为L的个体,得到基因串b={β12,…,βi,…,βL},b中的前N个量化值代表第一个N维聚类中心,第N+1至2N个量化值代表第二个N维聚类中心,依此类推,获得第C个聚类中心;若二进制编码方式采用65536级编码,则每个基因串由长度为16×N×C个比特位的串组成;设x为聚类中心Vi的任意一维数的十进制形式,且x∈(-b,b),按下式将x转化为16位的二进制形式y,计算方式如下公式(8)所示:
Figure FDA0002978657180000051
式中,y的取值范围为(0,65536),b为x的定义域阈值。
6.根据权利要求4所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述衍生多种群遗传算法包括:
S311在初始化m个体后,对所有个体按适应度排序分组到原生子种群Pop中;每个种群以衍生概率dm选择种群内个体进行衍生,选中为1,反之为0,变化计算方式如下公式(9)所示,进行了衍生,从母体物质演变而产生得到的新个体种群,生成孪生种群Pop′,合并Pop形成遗传进化初始种群,其中使用模糊控制调节衍生概率dm,每个种群计算出个体适应度均值,均值高的种群,衍生概率高,反之则低;
Figure FDA0002978657180000052
式中,pi代表第i个染色体,pi j代表第第i个染色体的第j个编码值,dm代表衍生概率,a是设置的一个变化阈值,取值范围(-128,127),f代表进行适应度计算,max代表取适应度大的变化方式;
S312根据种群中适应度值的改变情况建立模糊逻辑控制系统,对衍生多种群遗传算法进行动态地调整交叉变异的概率;系统参数取并在Matlab环境下进行仿真试验,对该系统均构建dm、pc和pm模糊控制规则,计算方式如下公式(10)和(11)所示:
Figure FDA0002978657180000053
Figure FDA0002978657180000054
式中,t表示遗传代数,Fmax、Favg和Fmin表示第t代的适应度最大值、平均值和最小值;Favg′表示第t-1代的适应度平均值;X(t)和Y(t)为模糊逻辑控制箱的输入量,定义范围值为ES为很小、S为小、M为中等、B为大和EB为很大;S313然后每个种群中通过选择算子从旧种群中以一定概率选择最优的三个体到新种群中;然后通过交叉算子从种群中任选两个染色体,对每个位置按照pc的概率随机选择一个基因的位置进行交换,计算方式如下公式(12)所示:
Figure FDA0002978657180000061
式中,ami为第m个染色体的第i位,ani第n个染色体的第i位,pc为交叉概率;
S314再通过变异算子从群体中任选一个体,以pm的概率选择个体中的一个基因位进行变异来产生更优秀的个体,计算方式如下公式(13)所示:
amn=amn+(amn-amax)×pm (13)
式中,amn为第m个染色体的第n位,amax为基因上界,pm为变异概率;
S315各种群间使用迁移算子将迁出种群中最优的个体去替换迁入种群的最差个体,然后使用类间方差函数作为适应度函数f进行计算,来评判个体优劣性,计算方式采用公式(2)进行计算;
S316判断衍生多种群遗传算法是否满足收敛条件,若满足,则停止衍生多种群遗传算法的寻优,将最优个体fa的值解码得到用于眼底棉绒斑图像分割的自适应超像素FCM的初始聚类中心,解码计算方式如下公式(14)所示;若不满足则将按适应度排序的精英种群的个体依次去替换每个种群中差的个体进行重新初始化,然后转到步骤S311;
Figure FDA0002978657180000062
式中,x为聚类中心Vi的任意一维数的十进制形式,y为16位的二进制编码结果,b为x的定义域阈值。
7.根据权利要求6所述的用于眼底棉绒斑图像分割的自适应超像素FCM方法,其特征在于,所述步骤S40还包括:
S41将训练集X=(x1,x2,...,xn),n=1,2,3,...输入遗传FCM聚类模型,对眼底棉绒斑图像分割自适应FCM聚类方法的聚类类别数C、加权指数q、迭代停止阈值ε>0、最大迭代次数Tmax以及初始化聚类中心V参数初始化,并用Rand函数随机初始化隶属度矩阵;
S42将步骤S30衍生多种群遗传算法寻得的棉绒斑最优超像素个体的值按公式(14)解码输入,作为遗传FCM的初始聚类中心V,然后计算每个棉绒斑图像超像素点与各个聚类中心的隶属度u,计算方式如下公式(15)所示:
Figure FDA0002978657180000071
式中,uij为第j个超像素点属于第i类簇的隶属度值,dij为第i个聚类中心和第j个数据点之间的欧几里德距离,dkj为第k个聚类中心和第j个数据点之间的欧几里德距离,m为模糊系数;
同时使棉绒斑图像的隶属度矩阵u必须满足如下条件:
Figure FDA0002978657180000072
式中,当uij=1时表示第j个对象完全属于第i个类,uij=0时表示第j个对象完全不属于第i个类;
S43计算每次眼底棉绒斑超像素图像聚类后的目标函数值,并与上一次的值进行比较,如果它小于某个确定的阈值,或者它相对上一次目标函数值的改变量小于给定阈值φ相同,就跳转S55输出结果,否则进行下一步,目标函数值的计算方式如下公式(17)所示:
Figure FDA0002978657180000081
式中,Jm代表最小化目标函数;c代表第i个簇类;uij表示第j个超像素点属于第i类簇的隶属度值;
Figure FDA0002978657180000082
为第i个聚类中心和第j个数据点之间的距离,其中Dc是眼底棉绒斑图像超像素点的颜色距离,λ是颜色距离的比重系数,Ds是眼底棉绒斑图像超像素点的空间距离,m为模糊系数,取值[1,∞];
S44根据每个棉绒斑图像超像素点与聚类中心点的隶属度更新质心,并转向S42,计算方式如下公式(18)所示:
Figure FDA0002978657180000083
式中,
Figure FDA0002978657180000084
为公式(17)代入公式(15)后对vi的偏导求得的中心点更新公式;
S45计算得到新的聚类中心,输出C个簇中心,并输出眼底棉绒斑图像超像素点隶属度矩阵和聚类结果预测值矩阵y_predict;
S46通过M次模糊聚类后,计算出逐像素分类概率,输出得到第n次预测值矩阵y_predict;将第n次真实值y_truen与第n次预测值y_predictn,并进行眼底棉绒斑图像的逐像素交叉熵损失计算。
CN202110281472.9A 2021-03-16 2021-03-16 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法 Withdrawn CN112907604A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110281472.9A CN112907604A (zh) 2021-03-16 2021-03-16 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110281472.9A CN112907604A (zh) 2021-03-16 2021-03-16 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法

Publications (1)

Publication Number Publication Date
CN112907604A true CN112907604A (zh) 2021-06-04

Family

ID=76105190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110281472.9A Withdrawn CN112907604A (zh) 2021-03-16 2021-03-16 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法

Country Status (1)

Country Link
CN (1) CN112907604A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610748A (zh) * 2022-03-16 2022-06-10 云南升玥信息技术有限公司 基于人工智能的医疗疾病数据的安全快速精准有效管理系统及应用
CN114943736A (zh) * 2022-07-21 2022-08-26 山东嘉翔汽车散热器有限公司 一种汽车散热翅片生产质量检测方法及系统
CN115063877A (zh) * 2022-06-06 2022-09-16 南通大学 一种面向大数据眼底图像的并行超像素Spark聚类方法
CN115424084A (zh) * 2022-11-07 2022-12-02 浙江省人民医院 基于类别加权网络的眼底照片分类方法与装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610748A (zh) * 2022-03-16 2022-06-10 云南升玥信息技术有限公司 基于人工智能的医疗疾病数据的安全快速精准有效管理系统及应用
CN115063877A (zh) * 2022-06-06 2022-09-16 南通大学 一种面向大数据眼底图像的并行超像素Spark聚类方法
CN114943736A (zh) * 2022-07-21 2022-08-26 山东嘉翔汽车散热器有限公司 一种汽车散热翅片生产质量检测方法及系统
CN115424084A (zh) * 2022-11-07 2022-12-02 浙江省人民医院 基于类别加权网络的眼底照片分类方法与装置
CN115424084B (zh) * 2022-11-07 2023-03-24 浙江省人民医院 基于类别加权网络的眼底照片分类方法与装置

Similar Documents

Publication Publication Date Title
CN112907604A (zh) 一种用于眼底棉绒斑图像分割的自适应超像素fcm方法
CN110659692B (zh) 基于强化学习和深度神经网络的病理图像自动标注方法
CN112132817B (zh) 一种混合注意力机制的眼底图像视网膜血管分割方法
CN108389211B (zh) 基于改进鲸鱼优化模糊聚类的图像分割方法
WO2022016912A1 (zh) 用于婴幼儿脑病历图像分割的全卷积遗传神经网络优化方法
CN110070531A (zh) 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置
CN115985503B (zh) 基于集成学习的癌症预测系统
CN116012721B (zh) 一种基于深度学习的水稻叶片病斑检测方法
CN114648806A (zh) 一种多机制自适应的眼底图像分割方法
CN113221913A (zh) 一种基于高斯概率决策级融合的农林病虫害细粒度识别方法及装置
CN111932541A (zh) 一种用于预测新冠肺炎预后的ct影像图像处理方法
CN114822823A (zh) 基于云计算和人工智能的融合多维度医疗数据的肿瘤精细分类系统
CN117315380B (zh) 一种基于深度学习的肺炎ct图像分类方法及系统
Patil et al. Sensitive crop leaf disease prediction based on computer vision techniques with handcrafted features
CN117132849A (zh) 基于ct平扫影像与图神经网络的脑卒中出血转化预测方法
CN116523877A (zh) 一种基于卷积神经网络的脑mri图像肿瘤块分割方法
CN116612386A (zh) 基于分级检测双任务模型的辣椒病虫害识别方法及系统
CN116433679A (zh) 一种基于空间位置结构先验的内耳迷路多级标注伪标签生成与分割方法
CN112785559B (zh) 基于深度学习的多个异构模型相互组合的骨龄预测方法
Lwin et al. Image Classification for Rice Leaf Disease Using AlexNet Model
CN115511838A (zh) 一种基于群智能优化的植物病害高精度识别方法
CN114120035A (zh) 一种医学影像识别训练方法
CN110930412B (zh) 一种用于眼底血管图像聚类分割的近似骨架蛙群编号方法
CN113469129A (zh) 一种基于卷积神经网络的小麦杂质图像检测方法
CN113011362A (zh) 基于双线性池化与注意力机制的细粒度眼底图像分级算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210604

WW01 Invention patent application withdrawn after publication