CN117274278A - 基于模拟感受野的视网膜图像病灶部位分割方法及系统 - Google Patents
基于模拟感受野的视网膜图像病灶部位分割方法及系统 Download PDFInfo
- Publication number
- CN117274278A CN117274278A CN202311272452.0A CN202311272452A CN117274278A CN 117274278 A CN117274278 A CN 117274278A CN 202311272452 A CN202311272452 A CN 202311272452A CN 117274278 A CN117274278 A CN 117274278A
- Authority
- CN
- China
- Prior art keywords
- image
- focus
- retina
- gray
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001525 retina Anatomy 0.000 title claims abstract description 138
- 230000011218 segmentation Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000004927 fusion Effects 0.000 claims abstract description 96
- 230000004256 retinal image Effects 0.000 claims abstract description 80
- 238000012545 processing Methods 0.000 claims abstract description 28
- 230000003902 lesion Effects 0.000 claims abstract description 26
- 238000004088 simulation Methods 0.000 claims abstract description 22
- 238000013507 mapping Methods 0.000 claims abstract description 18
- 238000011176 pooling Methods 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000001131 transforming effect Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 8
- 201000010099 disease Diseases 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 7
- 210000004204 blood vessel Anatomy 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 238000003709 image segmentation Methods 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 108010068977 Golgi membrane glycoproteins Proteins 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012014 optical coherence tomography Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- WKBPZYKAUNRMKP-UHFFFAOYSA-N 1-[2-(2,4-dichlorophenyl)pentyl]1,2,4-triazole Chemical compound C=1C=C(Cl)C=C(Cl)C=1C(CCC)CN1C=NC=N1 WKBPZYKAUNRMKP-UHFFFAOYSA-N 0.000 description 1
- 206010061218 Inflammation Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000037273 Pathologic Processes Diseases 0.000 description 1
- 208000017442 Retinal disease Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004054 inflammatory process Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008506 pathogenesis Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000009054 pathological process Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 239000011031 topaz Substances 0.000 description 1
- 229910052853 topaz Inorganic materials 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于模拟感受野的视网膜图像病灶部位分割方法及系统,包括:获取视网膜图像,对去噪后的视网膜图像进行直方图均衡化,将视网膜图像与均衡直方图像进行差值处理;将直方差分图像转化为灰度图像,得到灰度值对应的映射像素值,将映射像素值与所述视网膜图像进行加权融合,得到融合图像,利用感受野模拟模型提取视网膜图像中的图像数据集,并识别对应的病灶数据集,提取病灶数据集中的病灶特征;对视网膜图像进行图像分层,得到视网膜图像对应的分层图像,识别所述分层图像中病灶区域,对视网膜图像中病灶部位进行分割,得到视网膜图像对应的病灶分割图像。本发明在于提高视网膜图像中病灶的分割效率。
Description
技术领域
本发明涉及图像分割技术领域,尤其涉及一种基于模拟感受野的视网膜图像病灶部位分割方法及系统。
背景技术
图像分割方法是指将一幅图像分成多个子区域或对象的方法,这些子区域在某种程度上是相互独立的,并且可以用于进一步分析和处理。
目前,利用图像分割方法分割视网膜图像病灶部位,由于病灶部位的亮度和颜色变化可能很小,且视网膜图像中的噪声较多,容易出现难以选出精确阈值,同时病灶部位生长的方法可能会受到初始种子点的选择和生长规则的限制,导致无法准确分割复杂形状的病灶,因此,需要一种基于模拟感受野的视网膜图像病灶部位分割方法,以提高视网膜图像中病灶的分割效率。
发明内容
本发明提供一种基于模拟感受野的视网膜图像病灶部位分割方法及系统,其主要目的在于提高视网膜图像中病灶的分割效率。
为实现上述目的,本发明提供的一种基于模拟感受野的视网膜图像病灶部位分割方法,包括:
获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
可选地,所述对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,包括:
计算所述视网膜图像对应的直方图;
将所述直方图中的像素值进行归一化,得到归一化直方图;
对所述归一化直方图进行累加,得到所述归一化直方图对应的CDF;
对所述CDF进行分子映射,得到所述CDF对应的像素分子;
将所述像素分子重组,得到均衡直方图像。
可选地,所述将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,包括:
调节所述视网膜图像与所述均衡直方图像的图像尺寸,得到图像的相同尺寸;
基于所述相同尺寸,遍历所述视网膜图像与所述均衡直方图像中像素位置;
基于所述像素位置,识别所述视网膜图像与所述均衡直方图像对应位置的像素值;
将所述视网膜图像中的所述像素值减去所述均衡直方图像中的所述像素值,得到像素差值;
基于所述像素位置,利用所述像素差值构建直方差分图像。
可选地,所述对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,包括:
计算所述灰度图像中灰度值对应的新像素值,识别所述灰度值的像素位置;
基于所述像素位置,映射所述新像素值至所述灰度值,得到所述灰度值对应的映射像素值。
可选地,所述计算所述灰度图像中灰度值对应的新像素值,包括:
利用下述计算公式计算所述灰度图像中灰度值对应的新像素值:
其中,S表示所述灰度图像中灰度值对应的新像素值,Y表示所述灰度图像中灰度值对应的原像素值,a表示所述灰度图像中斜率参数,b表示所述灰度图像中偏移量参数,c表示所述原像素值的平方项的权重,d表示所述原像素值的一次项的权重,e表示所述灰度图像中的灰度曲率。
可选地,所述将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像,包括:
利用下述融合加权计算公式,对所述映射像素值与所述视网膜图像进行加权融合,得到融合图像:
R=∑(αi×(1-βi)×T+αi×βi×Z)
∑(αi)=1
其中,R表示所述融合图像,T表示所述视网膜图像,Z表示所述映射像素值,i表示所述视网膜图像中不同的输出图像,αi表示所述视网膜图像对应输入图像的权重系数,βi表示所述映射像素值对应输入图像像素的权重系数。
可选地,所述对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,包括:
基于所述融合图像,复制与所述融合图像对应的空白图像;
提取所述空白图像与滑动窗口重叠的局部区域;
选择所述融合图像对应的卷积核;
将所述局部区域与所述卷积核进行像素相乘,得到源像素值;
将所述源像素值赋给对应位置的所述空白图像;
提取赋值后的空白图像中与所述融合图像对应的图像边缘信息。
可选的,所述对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,包括:
确定池化窗口的窗口大小;
基于所述窗口大小,将所述融合图像按顺序进行划分,得到有序窗口;
计算所述有序窗口内的像素平均值,将所述像素平均值匹配所述池化窗口,得到与所述池化窗口对应的池化像素值;
基于所述池化像素值,构建与所述融合图像对应的图像矩阵,提取所述图像矩阵中与所述融合图像对应的维度特征。
可选的,所述计算所述有序窗口内的像素平均值,包括:
利用下述公式计算所述有序窗口内的像素平均值:
其中,P表示所述有序窗口内的像素平均值,w、h表示所述有序窗口的长和宽,(x,y)表示与所述有序窗口对应的像素坐标,(i,j)表示像素的纵向坐标,to表示范围的起始和结束值。
一种基于模拟感受野的视网膜图像病灶部位分割系统,其特征在于,所述系统包括:
直方差分模块,用于获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
加权融合模块,用于将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
模型构建模块,用于对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
特征识别模块,用于利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
病灶分割模块,用于基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
本发明通过获取视网膜图像,对所述视网膜图像进行去噪,可以提高视网膜图像的清晰度和细节可见性,从而更准确地分析和诊断,并且通过减少这种干扰,能够提高分割算法的准确性和稳定性,本发明通过将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,可以突出图像中的细节,并提高图像的视觉对比度,并且通过减去均衡直方图像中每个像素的值,可以使得原始图像中的细节更加明显和清晰,其中,本发明通过将所述直方差分图像转化为灰度图像,以便于降低图像的复杂性,使得图像更易于分析和理解,并且可以更好地突出图像中的亮度变化,并且更容易提取关键的特征和边缘信息;此外,本发明通过对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,能够减少噪声的影响,并使图像更加平滑和连续,并且可以根据像素点的邻域信息对不同通道的特征进行融合,从而得到更综合和全面的特征表示,本发明通过利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,可以增强图像处理算法在不同尺度下的稳定性和鲁棒性,提高图像处理的尺度不变性,本发明通过基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,可以为自动化病灶识别算法提供有价值的输入数据图像,这有助于开发自动化的视网膜疾病诊断系统,提高诊断的准确性和效率,因此,本发明实施例提供的一种基于模拟感受野的视网膜图像病灶部位分割方法及系统,能够提高视网膜图像中病灶的分割效率。
附图说明
图1为本发明一实施例提供的基于模拟感受野的视网膜图像病灶部位分割方法的流程示意图;
图2为本发明一实施例提供的基于模拟感受野的视网膜图像病灶部位分割系统的功能模块图;
图3为本发明一实施例提供的实现所述基于模拟感受野的视网膜图像病灶部位分割方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于模拟感受野的视网膜图像病灶部位分割方法。本申请实施例中,所述一种基于模拟感受野的视网膜图像病灶部位分割方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述一种基于模拟感受野的视网膜图像病灶部位分割方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的一种基于模拟感受野的视网膜图像病灶部位分割方法的流程示意图。在本实施例中,所述一种基于模拟感受野的视网膜图像病灶部位分割方法包括步骤S1—S5。
S1、获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像。
本发明通过获取视网膜图像,对所述视网膜图像进行去噪,可以提高视网膜图像的清晰度和细节可见性,从而更准确地分析和诊断,并且通过减少这种干扰,能够提高分割算法的准确性和稳定性。
其中,所述视网膜图像是指通过眼底摄影、光相干断层扫描(OCT)等技术获取的眼底视网膜的图像,可选地,所述对所述视网膜图像进行去噪可以通过图片去噪工具实现,如:Adobe Photoshop、Topaz Denoise以及DxO PhotoLab等工具。
进一步地,本发明对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,可以通过调整图像中像素的亮度分布,增强图像的对比度,有助于使视网膜图像更清晰、更易观察和分析,同时对于眼科手术操作、定位病变位置以及监测病情提供较大帮助。
其中,所述均衡直方图像是指通过调整图像像素的亮度分布,使其在整个亮度范围内更均匀地分布的过程。
作为本发明的一个实施例,所述对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,包括:计算所述视网膜图像对应的直方图;将所述直方图中的像素值进行归一化,得到归一化直方图;对所述归一化直方图进行累加,得到所述归一化直方图对应的CDF;对所述CDF进行分子映射,得到所述CDF对应的像素分子;将所述像素分子重组,得到均衡直方图像。
其中,所述直方图是指对去噪后的视网膜图像中每个灰度级别出现的像素数量进行统计;所述归一化直方图是指将直方图中的像素数量或频率进行归一化处理,使其范围在0-1之间;所述CDF是指归一化直方图的累积值,表示每个灰度级别在整个图像中出现的累积概率;所述像素分子是指将CDF中原始灰度级别映射到新的灰度级别范围后得到的像素分子。
进一步地,所述计算所述视网膜图像对应的直方图可以通过图像处理库实现,如:OpenCV、PIL、MATLAB等工具;所述将所述直方图中的像素值进行归一化可以通过归一化函数实现;所述对所述归一化直方图进行累加可以通过累加函数实现;所述对所述CDF进行分子映射可以通过线性变换函数实现;所述将所述像素分子重组可以通过线性差值算法实现。
本发明通过将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,可以突出图像中的细节,并提高图像的视觉对比度,并且通过减去均衡直方图像中每个像素的值,可以使得原始图像中的细节更加明显和清晰。
其中,所述直方差分图像是指一种通过计算原始图像和均衡直方图图像之间的差异来得到的图像。
作为本发明的一个实施例,所述将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,包括:调节所述视网膜图像与所述均衡直方图像的图像尺寸,得到图像的相同尺寸;基于所述相同尺寸,遍历所述视网膜图像与所述均衡直方图像中像素位置;基于所述像素位置,识别所述视网膜图像与所述均衡直方图像对应位置的像素值;将所述视网膜图像中的所述像素值减去所述均衡直方图像中的所述像素值,得到像素差值;基于所述像素位置,利用所述像素差值构建直方差分图像。
其中,所述相同尺寸是指将所述视网膜图像和所述均衡直方图像调整为具有相同的图像尺寸;所述像素位置是指在遍历图像时所访问的特定位置的坐标;所述像素值是指图像中某个特定位置的像素的数值;所述像素差值是指通过将所述视网膜图像中的像素值减去所述均衡直方图像中相应位置的像素值而获得的差异值。
进一步地,所述调节所述视网膜图像与所述均衡直方图像的图像尺寸可以通过图像处理软件,如:Photoshop、GIMP等;所述遍历所述视网膜图像与所述均衡直方图像中像素位置可以通过编程语言实现,如:Python、Java、C++等;所述识别所述视网膜图像与所述均衡直方图像对应位置的像素值可以通过特征描述算法实现,如:SIFT、SURF、ORB等;所述将所述视网膜图像中的所述像素值减去所述均衡直方图像中的所述像素值可以通过数组运算实现;所述利用所述像素差值构建直方差分图像可以通过图像处理库实现,如:OpenCV、PIL等。
S2、将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像。
本发明通过将所述直方差分图像转化为灰度图像,以便于降低图像的复杂性,使得图像更易于分析和理解,并且可以更好地突出图像中的亮度变化,并且更容易提取关键的特征和边缘信息。
其中,所述灰度图像是指每个像素只包含一个亮度值(通常是0到255之间的值),而不包含彩色信息的图像,可选地,将所述直方差分图像转化为灰度图像可以通过图像处理库实现,如:OpenCV、PIL、scikit-image等。
本发明通过对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,可以调整图像中的某些特征的对比度,使其更加突出和易于识别,并且可以通过减少过曝区域的亮度,同时增加欠曝区域的亮度,起到恢复图像的细节和信息的作用。
其中,所述映射像素值是指映射像素值指的是经过线性变换之后得到的新的像素值。
作为本发明的一个实施例,所述对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,包括:计算所述灰度图像中灰度值对应的新像素值;识别所述灰度值的像素位置;基于所述像素位置,映射所述新像素值至所述灰度值,得到所述灰度值对应的映射像素值。
其中,所述新像素值是指经线性变换计算后,得到的新的像素值;所述像素位置是指图像中每个像素的坐标或索引。
进一步地,所述计算所述灰度图像中灰度值对应的新像素值可以通过下述公式进行计算;所述识别所述灰度值的像素位置可以通过图像处理工具实现,如:GIMP、ImageJ等;所述映射所述新像素值至所述灰度值可以通过LUT映射函数实现。
可选地,利用下述计算公式计算所述灰度图像中灰度值对应的新像素值,包括:
其中,S表示所述灰度图像中灰度值对应的新像素值,Y表示所述灰度图像中灰度值对应的原像素值,a表示所述灰度图像中斜率参数,b表示所述灰度图像中偏移量参数,c表示所述原像素值的平方项的权重,d表示所述原像素值的一次项的权重,e表示所述灰度图像中的灰度曲率。
本发明通过将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像,可以增强图像中的细节和边缘信息,并且能够清晰地显示目标物体的形状、纹理和边界增强图像的表达能力和识别性能。
其中,所述融合图像是指是将映射后的像素值与视网膜图像进行加权融合后的结果图像。
作为本发明的一个实施例,所述将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像,包括:
利用下述融合加权计算公式,对所述映射像素值与所述视网膜图像进行加权融合,得到融合图像:
R=Σ(αi×(1-βi)×T+αi×βi×Z)
Σ(αi)=1
其中,R表示所述融合图像,T表示所述视网膜图像,Z表示所述映射像素值,i表示所述视网膜图像中不同的输出图像,αi表示所述视网膜图像对应输入图像的权重系数,βi表示所述映射像素值对应输入图像像素的权重系数。
S3、对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型。
本发明通过对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,能够减少噪声的影响,并使图像更加平滑和连续,并且可以根据像素点的邻域信息对不同通道的特征进行融合,从而得到更综合和全面的特征表示。
其中,所述图像边缘信息是指由颜色、亮度或纹理等特征在空间上的突变或不连续性引起的边界或轮廓信息。
作为本发明的一个实施例,所述对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,包括:基于所述融合图像,复制与所述融合图像对应的空白图像;提取所述空白图像与滑动窗口重叠的局部区域;选择所述融合图像对应的卷积核;将所述局部区域与所述卷积核进行像素相乘,得到源像素值;将所述源像素值赋给对应位置的所述空白图像;提取赋值后的空白图像中与所述融合图像对应的图像边缘信息。
其中,所述空白图像是指一个与融合图像大小相同的全黑图像;所述局部区域是指融合图像中滑动窗口所覆盖的部分区域;所述卷积核是指一种用于滤波操作的矩阵,可以通过不同权重的像素值来提取图像的特定信息;所述源像素值是指通过将局部区域与卷积核进行像素相乘后得到的结果。
进一步地,所述复制与所述融合图像对应的空白图像可以通过Open CV实现;所述提取所述空白图像与滑动窗口重叠的局部区域可以通过PIL函数实现;所述选择所述融合图像对应的卷积核可以通过卷积神经网络实现;所述将所述局部区域与所述卷积核进行像素相乘可以通过数学计算库,如:NumPy、PyTorch、TensorFlow等;所述提取赋值后的空白图像中与所述融合图像对应的图像边缘信息看可以通过边缘检测算法实现,如:Canny边缘检测、Sobel算子等。
本发明通过对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,以便于后续将图像的尺寸缩小,减少图像占用的存储空间使得图像更加平滑和连续。
其中,所述维度特征是指数据集或样本在不同维度上的特征值,所述维度特征可以是数值型、离散型或者类别型的特征。
作为本发明的一个实施例,所述对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,包括:确定池化窗口的窗口大小;基于所述窗口大小,将所述融合图像按顺序进行划分,得到有序窗口;计算所述有序窗口内的像素平均值,将所述像素平均值匹配所述池化窗口,得到与所述池化窗口对应的池化像素值;基于所述池化像素值,构建与所述融合图像对应的图像矩阵,提取所述图像矩阵中与所述融合图像对应的维度特征。
其中,所述窗口大小是指在进行平均池化时,所选择的窗口的大小;所述有序窗口是指将所述融合图像按照窗口大小的顺序进行划分得到的窗口;所述像素平均值是指在每个所述有序窗口内计算像素的平均值;所述池化窗口是指用于平均池化的窗口大小;所述池化像素值是指根据池化窗口对应的位置在图像矩阵中提取的像素值;所述图像矩阵是指基于所述融合图像构建的矩阵,其中每个元素代表一个像素的数值。
进一步地,所述将所述融合图像按顺序进行划分可以通过GrabCut算法实现;所述计算所述有序窗口内的像素平均值可以通过下述计算公式实现;所述将所述像素平均值匹配所述池化窗口可以通过NumPy实现;所述构建与所述融合图像对应的图像矩阵可以通过图像特征提取算法实现,如:SIFT、SURF、HOG;所述提取所述图像矩阵中与所述融合图像对应的维度特征可以通过预训练的CNN模型实现,如:VGG、ResNet、Inception等。
可选地,所述计算所述有序窗口内的像素平均值,包括:
利用下述公式计算所述有序窗口内的像素平均值:
其中,P表示所述有序窗口内的像素平均值,w、h表示所述有序窗口的长和宽,(x,y)表示与所述有序窗口对应的像素坐标,(i,j)表示像素的纵向坐标,to表示范围的起始和结束值。
本发明通过基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型,可以对输入图像进行局部区域的分析和处理,并且可以有效地捕捉图像中的空间关系和细节信息,以便于提高图像处理算法的效果,例如:目标检测、图像分割和边缘检测等任务。
其中,所述感受野模拟模型是指一种模型或方法,通过模拟人类视觉系统中神经元对视野中某一局部区域信息的感知范围,来进行图像处理和分析,可选地,所述构建所述视网膜图像对应的感受野模拟模型可以通过图像滤波器实现,如:Gabor滤波器、Laplacian滤波器等。
S4、利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征。
本发明通过利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,可以增强图像处理算法在不同尺度下的稳定性和鲁棒性,提高图像处理的尺度不变性。
其中,所述图像数据集是指包含大量有关所述视网膜图像的图像样本的集合,用于训练、验证和评估图像处理、计算机视觉和机器学习算法,可选地,所述提取所述视网膜图像中的图像数据集可以通过利用所述感受野模拟模型实现。
进一步地,所述对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,可以利用所述图像数据集的局部特征和上下文信息对病灶进行精确的边界检测,通过将这些边界信息与图像进行标记,可以得到准确的病灶轮廓,为后续的病灶识别和分析提供可靠的基础。
其中,所述病灶数据集是指包含了所述视网膜图像中病变或异常区域的标记信息的图像数据集,可选地,所述对所述图像数据集进行病灶标记可以通过图像分割算法实现,如:阈值分割、边缘检测、区域生长和基于图的分割等。
本发明通过识别所述病灶数据集中的病灶特征,可以提供关于病变类型、大小、位置以及与周围结构的关系等信息,有助于确定病情的严重程度和进一步的治疗方案。
其中,所述病灶特征是指在病灶数据集中所检测或提取出的与疾病相关的图像特征,可选地,所述识别所述病灶数据集中的病灶特征可以通过深度学习框架实现,如:TensorFlow、PyTorch、Keras等。
S5、基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
本发明通过基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,可以为自动化病灶识别算法提供有价值的输入数据图像,这有助于开发自动化的视网膜疾病诊断系统,提高诊断的准确性和效率。
其中,所述分层图像是指通过对原始图像进行处理和分析,将其分割成多个不同的层次或区域,以便更好地观察和分析图像中的特定结构、病变或目标,可选的,所述对所述视网膜图像进行图像分层可以通过医学图像分析软件,如:ImageJ、MATLAB等。
本发明通过识别所述分层图像中病灶区域,有利于将所述病灶区域与周围结构进行对比,以便于了解病理过程和相互作用,从而进行更精确的诊断和制定治疗方案。
其中,所述病灶区域是指在医学图像中显示出异常的区域,这些异常可能是疾病、损伤、肿块、炎症或其他异常情况的表现,可选地,所述识别所述分层图像中病灶区域可以通过医学图像识别工具实现,如3D Slicer、Mimics等工具。
进一步地,本发明通过提取所述病灶区域中的病灶位置,可以帮助深入研究疾病的发病机制、病变的特征等,从而促进疾病的诊断和治疗的进步,其中,所述病灶位置是指在医学图像中病变所在的具体位置,可选地,所述提取所述病灶区域中的病灶位置可以通过位置提取工具实现,如:lmageJ、ITK-SNAP、3D Slicer等工具。
本发明通过基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像,能够帮助及早检测和诊断视网膜疾病,并且可以更加客观地衡量疾病的严重程度、进展速度等,辅助制定治疗计划和监测疗效。
其中,所述病灶分割图像是指医学影像中针对特定疾病或异常区域进行区域提取和分割的图像。
作为本发明的一个实施例,所述基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像,包括:获取所述病灶位置对应的血管位置;基于所述血管位置,对所述视网膜图像进行血管分割,得到视网膜分割图像;利用预设的图像分割算法分割所述视网膜图像中的病灶部位,得到所述视网膜图像对应的病灶分割图像。
其中,所述血管位置是指在医学影像中显示出来的血管的空间位置和分布情况;所述视网膜分割图像是指对所述视网膜图像中不同结构和组织进行分割,将其分为不同的区域或对象的图像;所述病灶部位是指在病理状态下,所述视网膜图像中呈现出异常或病变的区域。
进一步地,所述获取所述病灶位置对应的血管位置可以通过SIFT算法实现;所述对所述视网膜图像进行血管分割可以通过血管分割算法实现;所述分割所述视网膜图像中的病灶部位可以通过利用预设的图像分割算法实现。
本发明通过获取视网膜图像,对所述视网膜图像进行去噪,可以提高视网膜图像的清晰度和细节可见性,从而更准确地分析和诊断,并且通过减少这种干扰,能够提高分割算法的准确性和稳定性,本发明通过将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,可以突出图像中的细节,并提高图像的视觉对比度,并且通过减去均衡直方图像中每个像素的值,可以使得原始图像中的细节更加明显和清晰,其中,本发明通过将所述直方差分图像转化为灰度图像,以便于降低图像的复杂性,使得图像更易于分析和理解,并且可以更好地突出图像中的亮度变化,并且更容易提取关键的特征和边缘信息;此外,本发明通过对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,能够减少噪声的影响,并使图像更加平滑和连续,并且可以根据像素点的邻域信息对不同通道的特征进行融合,从而得到更综合和全面的特征表示,本发明通过利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,可以增强图像处理算法在不同尺度下的稳定性和鲁棒性,提高图像处理的尺度不变性,本发明通过基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,可以为自动化病灶识别算法提供有价值的输入数据图像,这有助于开发自动化的视网膜疾病诊断系统,提高诊断的准确性和效率,因此,本发明实施例提供的一种基于模拟感受野的视网膜图像病灶部位分割方法及系统,能够提高视网膜图像中病灶的分割效率。
如图2所示,是本发明一实施例提供的一种基于模拟感受野的视网膜图像病灶部位分割系统的功能模块图。
本发明所述一种基于模拟感受野的视网膜图像病灶部位分割系统100可以安装于电子设备中。根据实现的功能,所述一种基于模拟感受野的视网膜图像病灶部位分割系统100可以包括直方差分模块101、加权融合模块102、模型构建模块103、特征识别模块104及病灶分割模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述直方差分模块101,用于获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
所述加权融合模块102,用于将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
所述模型构建模块103,用于对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
所述特征识别模块104,用于利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
所述病灶分割模块105,用于基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
详细地,本申请实施例中所述一种基于模拟感受野的视网膜图像病灶部位分割系统100中所述的各模块在使用时采用与上述图1中所述的一种基于模拟感受野的视网膜图像病灶部位分割方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图3所示,是本发明一实施例提供的实现一种基于模拟感受野的视网膜图像病灶部位分割方法的电子设备1的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如一种基于模拟感受野的视网膜图像病灶部位分割方法程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备1的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行一种基于模拟感受野的视网膜图像病灶部位分割方法程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如一种基于模拟感受野的视网膜图像病灶部位分割方法程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备1与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的一种基于模拟感受野的视网膜图像病灶部位分割方法程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于模拟感受野的视网膜图像病灶部位分割方法,其特征在于,所述方法包括:
获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
2.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,包括:
计算所述视网膜图像对应的直方图;
将所述直方图中的像素值进行归一化,得到归一化直方图;
对所述归一化直方图进行累加,得到所述归一化直方图对应的CDF;
对所述CDF进行分子映射,得到所述CDF对应的像素分子;
将所述像素分子重组,得到均衡直方图像。
3.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像,包括:
调节所述视网膜图像与所述均衡直方图像的图像尺寸,得到图像的相同尺寸;
基于所述相同尺寸,遍历所述视网膜图像与所述均衡直方图像中像素位置;
基于所述像素位置,识别所述视网膜图像与所述均衡直方图像对应位置的像素值;
将所述视网膜图像中的所述像素值减去所述均衡直方图像中的所述像素值,得到像素差值;
基于所述像素位置,利用所述像素差值构建直方差分图像。
4.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,包括:
计算所述灰度图像中灰度值对应的新像素值,识别所述灰度值的像素位置;
基于所述像素位置,映射所述新像素值至所述灰度值,得到所述灰度值对应的映射像素值。
5.如权利要求4所述的视网膜图像病灶部位分割方法,其特征在于,所述计算所述灰度图像中灰度值对应的新像素值,包括:
利用下述计算公式计算所述灰度图像中灰度值对应的新像素值:
其中,S表示所述灰度图像中灰度值对应的新像素值,Y表示所述灰度图像中灰度值对应的原像素值,a表示所述灰度图像中斜率参数,b表示所述灰度图像中偏移量参数,c表示所述原像素值的平方项的权重,d表示所述原像素值的一次项的权重,e表示所述灰度图像中的灰度曲率。
6.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像,包括:
利用下述融合加权计算公式,对所述映射像素值与所述视网膜图像进行加权融合,得到融合图像:
R=∑(αi×(1-βi)×T+αi×βi×Z)
∑(αi)=1
其中,R表示所述融合图像,T表示所述视网膜图像,Z表示所述映射像素值,i表示所述视网膜图像中不同的输出图像,αi表示所述视网膜图像对应输入图像的权重系数,βi表示所述映射像素值对应输入图像像素的权重系数。
7.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,包括:
基于所述融合图像,复制与所述融合图像对应的空白图像;
提取所述空白图像与滑动窗口重叠的局部区域;
选择所述融合图像对应的卷积核;
将所述局部区域与所述卷积核进行像素相乘,得到源像素值;
将所述源像素值赋给对应位置的所述空白图像;
提取赋值后的空白图像中与所述融合图像对应的图像边缘信息。
8.如权利要求1所述的视网膜图像病灶部位分割方法,其特征在于,所述对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,包括:
确定池化窗口的窗口大小;
基于所述窗口大小,将所述融合图像按顺序进行划分,得到有序窗口;
计算所述有序窗口内的像素平均值,将所述像素平均值匹配所述池化窗口,得到与所述池化窗口对应的池化像素值;
基于所述池化像素值,构建与所述融合图像对应的图像矩阵,提取所述图像矩阵中与所述融合图像对应的维度特征。
9.如权利要求8所述的视网膜图像病灶部位分割方法,其特征在于,所述计算所述有序窗口内的像素平均值,包括:
利用下述公式计算所述有序窗口内的像素平均值:
其中,P表示所述有序窗口内的像素平均值,w、h表示所述有序窗口的长和宽,(x,y)表示与所述有序窗口对应的像素坐标,(i,j)表示像素的纵向坐标,to表示范围的起始和结束值。
10.一种基于模拟感受野的视网膜图像病灶部位分割系统,其特征在于,其用于执行如权利要求1-9中任意一项所述的基于模拟感受野的视网膜图像病灶部位分割方法,所述系统包括:
直方差分模块,用于获取视网膜图像,对所述视网膜图像进行去噪,对去噪后的视网膜图像进行直方图均衡化,得到均衡直方图像,将所述视网膜图像与所述均衡直方图像进行差值处理,得到直方差分图像;
加权融合模块,用于将所述直方差分图像转化为灰度图像,对所述灰度图像中灰度值进行线性变换,得到所述灰度值对应的映射像素值,将所述映射像素值与所述视网膜图像进行加权融合,得到融合图像;
模型构建模块,用于对所述融合图像进行滑动卷积窗口,得到所述融合图像对应的图像边缘信息,对所述融合图像进行平均池化,得到所述融合图像对应的维度特征,基于所述图像边缘信息和所述维度特征,构建所述视网膜图像对应的感受野模拟模型;
特征识别模块,用于利用所述感受野模拟模型提取所述视网膜图像中的图像数据集,对所述图像数据集进行病灶标记,得到所述图像数据集对应的病灶数据集,识别所述病灶数据集中的病灶特征;
病灶分割模块,用于基于所述病灶特征,对所述视网膜图像进行图像分层,得到所述视网膜图像对应的分层图像,识别所述分层图像中病灶区域,提取所述病灶区域中的病灶位置,基于所述病灶位置,对所述视网膜图像中病灶部位进行分割,得到所述视网膜图像对应的病灶分割图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311272452.0A CN117274278B (zh) | 2023-09-28 | 2023-09-28 | 基于模拟感受野的视网膜图像病灶部位分割方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311272452.0A CN117274278B (zh) | 2023-09-28 | 2023-09-28 | 基于模拟感受野的视网膜图像病灶部位分割方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117274278A true CN117274278A (zh) | 2023-12-22 |
CN117274278B CN117274278B (zh) | 2024-04-02 |
Family
ID=89200526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311272452.0A Active CN117274278B (zh) | 2023-09-28 | 2023-09-28 | 基于模拟感受野的视网膜图像病灶部位分割方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117274278B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117635613A (zh) * | 2024-01-25 | 2024-03-01 | 武汉大学人民医院(湖北省人民医院) | 一种眼底病灶监测装置及方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537669A (zh) * | 2014-12-31 | 2015-04-22 | 浙江大学 | 眼底图像的动静脉视网膜血管分割方法 |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
US20200160521A1 (en) * | 2017-05-04 | 2020-05-21 | Shenzhen Sibionics Technology Co., Ltd. | Diabetic retinopathy recognition system based on fundus image |
WO2020143309A1 (zh) * | 2019-01-09 | 2020-07-16 | 平安科技(深圳)有限公司 | 分割模型训练方法、oct图像分割方法、装置、设备及介质 |
CN113012163A (zh) * | 2021-03-11 | 2021-06-22 | 山东大学 | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 |
CN113222975A (zh) * | 2021-05-31 | 2021-08-06 | 湖北工业大学 | 一种基于改进U-net的高精度视网膜血管分割方法 |
CN113763292A (zh) * | 2020-08-10 | 2021-12-07 | 西北师范大学 | 一种基于深度卷积神经网络的眼底视网膜图像分割方法 |
CN115496902A (zh) * | 2022-09-19 | 2022-12-20 | 桂林理工大学 | 基于改进的上下文编码网络的微动脉瘤病变分割方法 |
CN116453104A (zh) * | 2023-06-15 | 2023-07-18 | 安徽容知日新科技股份有限公司 | 液位识别方法、装置、电子设备及计算机可读存储介质 |
CN116563285A (zh) * | 2023-07-10 | 2023-08-08 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及系统 |
CN116681923A (zh) * | 2023-05-12 | 2023-09-01 | 武汉大学人民医院(湖北省人民医院) | 一种基于人工智能的眼科疾病自动分类方法及系统 |
-
2023
- 2023-09-28 CN CN202311272452.0A patent/CN117274278B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104537669A (zh) * | 2014-12-31 | 2015-04-22 | 浙江大学 | 眼底图像的动静脉视网膜血管分割方法 |
US20200160521A1 (en) * | 2017-05-04 | 2020-05-21 | Shenzhen Sibionics Technology Co., Ltd. | Diabetic retinopathy recognition system based on fundus image |
CN109685813A (zh) * | 2018-12-27 | 2019-04-26 | 江西理工大学 | 一种自适应尺度信息的u型视网膜血管分割方法 |
WO2020143309A1 (zh) * | 2019-01-09 | 2020-07-16 | 平安科技(深圳)有限公司 | 分割模型训练方法、oct图像分割方法、装置、设备及介质 |
CN113763292A (zh) * | 2020-08-10 | 2021-12-07 | 西北师范大学 | 一种基于深度卷积神经网络的眼底视网膜图像分割方法 |
CN113012163A (zh) * | 2021-03-11 | 2021-06-22 | 山东大学 | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 |
CN113222975A (zh) * | 2021-05-31 | 2021-08-06 | 湖北工业大学 | 一种基于改进U-net的高精度视网膜血管分割方法 |
CN115496902A (zh) * | 2022-09-19 | 2022-12-20 | 桂林理工大学 | 基于改进的上下文编码网络的微动脉瘤病变分割方法 |
CN116681923A (zh) * | 2023-05-12 | 2023-09-01 | 武汉大学人民医院(湖北省人民医院) | 一种基于人工智能的眼科疾病自动分类方法及系统 |
CN116453104A (zh) * | 2023-06-15 | 2023-07-18 | 安徽容知日新科技股份有限公司 | 液位识别方法、装置、电子设备及计算机可读存储介质 |
CN116563285A (zh) * | 2023-07-10 | 2023-08-08 | 邦世科技(南京)有限公司 | 一种基于全神经网络的病灶特征识别与分割方法及系统 |
Non-Patent Citations (2)
Title |
---|
TING CHEN等: "Novel insight into risk of major adverse cardiovascular and cerebrovascular events of patients with central retinal artery occlusion: regarding sex differences", 《RESEARCH SQUARE》, 21 April 2023 (2023-04-21), pages 1 - 23 * |
梁礼明 等: "基于改进的U-Net眼底视网膜血管分割", 《计算机应用研究》, vol. 37, no. 04, 30 April 2020 (2020-04-30), pages 1247 - 1251 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117635613A (zh) * | 2024-01-25 | 2024-03-01 | 武汉大学人民医院(湖北省人民医院) | 一种眼底病灶监测装置及方法 |
CN117635613B (zh) * | 2024-01-25 | 2024-04-16 | 武汉大学人民医院(湖北省人民医院) | 一种眼底病灶监测装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117274278B (zh) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490850B (zh) | 一种肿块区域检测方法、装置和医学图像处理设备 | |
CN111325739B (zh) | 肺部病灶检测的方法及装置,和图像检测模型的训练方法 | |
CN111862044B (zh) | 超声图像处理方法、装置、计算机设备和存储介质 | |
Liu et al. | A framework of wound segmentation based on deep convolutional networks | |
Hsu et al. | Chronic wound assessment and infection detection method | |
CN112164082A (zh) | 基于3d卷积神经网络分割多模态mr脑部图像方法 | |
US20220383661A1 (en) | Method and device for retinal image recognition, electronic equipment, and storage medium | |
CN112365973B (zh) | 基于对抗网络和Faster R-CNN的肺结节辅助诊断系统 | |
WO2019184851A1 (zh) | 图像处理方法和装置及神经网络模型的训练方法 | |
CN117274278B (zh) | 基于模拟感受野的视网膜图像病灶部位分割方法及系统 | |
CN113344894A (zh) | 眼底豹纹斑特征提取及特征指数确定的方法和装置 | |
CN113781488A (zh) | 舌象图像的分割方法、装置及介质 | |
CN114450716A (zh) | 用于卒中表征的图像处理 | |
CN116681923A (zh) | 一种基于人工智能的眼科疾病自动分类方法及系统 | |
CN115954101A (zh) | 一种基于ai舌诊图像处理的健康度管理系统及管理方法 | |
Huang et al. | HEp-2 cell images classification based on textural and statistic features using self-organizing map | |
Kaur et al. | Estimation of severity level of non-proliferative diabetic retinopathy for clinical aid | |
CN113610746A (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
Heravi et al. | Low price foot pressure distribution screening technique: optical podoscope with accurate foot print segmentation using hidden Markov random field model | |
CN112801238B (zh) | 一种图像分类方法、装置、电子设备及存储介质 | |
CN112862786B (zh) | Cta影像数据处理方法、装置及存储介质 | |
CN112862785B (zh) | Cta影像数据识别方法、装置及存储介质 | |
CN112862787B (zh) | Cta影像数据处理方法、装置及存储介质 | |
Jain et al. | Retina disease prediction using modified convolutional neural network based on Inception‐ResNet model with support vector machine classifier | |
CN118212235B (zh) | 一种胶囊内窥镜图像筛选方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |