CN112926537B - 图像处理方法、装置、电子设备以及存储介质 - Google Patents

图像处理方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN112926537B
CN112926537B CN202110372737.6A CN202110372737A CN112926537B CN 112926537 B CN112926537 B CN 112926537B CN 202110372737 A CN202110372737 A CN 202110372737A CN 112926537 B CN112926537 B CN 112926537B
Authority
CN
China
Prior art keywords
feature
feature information
information
characteristic information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110372737.6A
Other languages
English (en)
Other versions
CN112926537A (zh
Inventor
唐晓颖
黄义劲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest University of Science and Technology
Original Assignee
Southwest University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest University of Science and Technology filed Critical Southwest University of Science and Technology
Priority to CN202110372737.6A priority Critical patent/CN112926537B/zh
Publication of CN112926537A publication Critical patent/CN112926537A/zh
Application granted granted Critical
Publication of CN112926537B publication Critical patent/CN112926537B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种图像处理方法、装置、电子设备以及存储介质。该方法包括:获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。通过本发明实施例公开的技术方案,以达到提升模型分类准确性的效果。

Description

图像处理方法、装置、电子设备以及存储介质
技术领域
本发明实施例涉及图像识别技术领域,尤其涉及一种图像处理方法、装置、电子设备以及存储介质。
背景技术
随着社会的发展、人们生活水平的提高和饮食习惯的改变,糖尿病已经逐渐成为全世界需要共同面对的一大重要健康问题。糖尿病往往伴随着多项并发症,而糖尿病视网膜病变(diabetic retinopathy,DR)是其主要的并发症之一,是目前全世界范围内成年人群致盲的主要原因。糖尿病视网膜病变是由于糖尿病导致的视网膜微血管损害而引起的一系列典型病变,是一种影响视力甚至致盲的慢性进行性疾病。
DR患病率随患病时间和年龄的增长而升高,给人类健康和社会发展带来沉重的负担,已经成为严重的全球性问题。一般而言,糖尿病发展到十年以上会开始出现眼底病变,但如果血糖控制差或者是胰岛素依赖型糖尿病患者则可能更早出现眼底病变。因此,糖尿病患者需要定期进行眼科检查,尤其是眼底检查。如果能够得到及时准确的早期诊断,并加以治疗,则可以有效控制病情的发展。
发明内容
本发明提供一种图像处理方法、装置、电子设备以及存储介质,基于目标图像的多维度特征信息进行分类,以达到提升模型分类准确性的效果。
第一方面,本发明实施例提供了一种图像处理方法,该方法包括:
获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。
第二方面,本发明实施例还提供了一种图像处理装置,该装置包括:
初始特征信息获取模块,用于获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
融合特征信息获取模块,用于将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
分类结果确定模块,用于基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。
第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例提供的图像处理方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明任意实施例提供的图像处理方法。
本发明实施例的技术方案通过获取目标图像以及目标图像的第一特征信息和第二特征信息以增加目标图像的维度特征,将第一特征信息和第二特征信息进行融合得到融合特征信息,并且通过对多维度特征信息进行融合激活重要的特征信息,然后将融合特征信息输入至预先设置的分类模型对目标图像进行分类,以达到提升模型分类准确性的效果。
附图说明
为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。
图1是本发明实施例一提供的图像处理方法的流程示意图;
图2是本发明实施例二提供的图像处理方法的流程示意图;
图3是本发明实施例二涉及的图像分类方法的流程示意图;
图4是本发明实施例二涉及的特征信息融合的流程示意图;
图5是本发明实施例三提供的图像处理装置的结构示意图;
图6为本发明实施例四提供的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种图像处理方法的流程图,本实施例可适用于对目标图像进行图像分类的情况。该方法可以由图像处理装置来执行,该装置可以由软件和/或硬件的方式来实现。
为了实现本发明实施例提供的技术方案,首先需要通过创建初始分类模型,基于训练数据集对初始分类模型进行训练,得到中间分类模型;剔除中间分类模型中瓶颈层之后的部分模型,并对中间分类模型的剩余部分添加全连接层得到分类模型,从而实现利用图像中的多维信息实现提高图像分类的准确性。
具体的,可以先确定用于训练的数据集,在本发明实施例中训练数据集可以是对图像采集设备采集得到,例如训练数据集可以是眼底照片数据集,该数据集中的眼底图像可以由TOPCON-50DX的台式眼底照相机拍摄,保存为2880×2136分辨率、JPG格式的RGB彩色图像。需求说明的是,在其他实施例中,训练数据集可以是其他部位的图像数据。该训练数据集由某两位医师交叉阅片并标注,意见不一致时由第三位医师判定。以眼底照片数据集为例,数据集共4465张,其中DR眼底照片1955张,正常眼底照片2510张。将DR样本按7:2:1的比例随机划分构成训练集、测试集、验证集,再从正常人样本中划分出与DR类别同等数量的测试集与验证集,其他作为正常样本的训练集。
可选的,采用微调策略将初始分类模型载入在ImageNet数据集上预训练得到的网络参数,裁剪去瓶颈层(bottleneck layer)后剩余部分作为特征提取层即中间分类模型,之后接入新的适用于本实施例提供的技术方案的全连接层(full connected layer)作为分类层从而得到完整的分类模型,在训练的过程中基于上述数据集对分类模型和特征融合模型进行共同训练。具体的,在训练的过程中梯度下降的多次迭代中更新全部的可训练参数,保存在验证集准确率最高的模型,直至达到最大迭代次数,以实现完成分类模型训练得到已训练好的分类模型和特征融合模型。
如图1所示,该方法具体包括以下步骤:
S110、获取待检测的目标图像,并获取目标图像的第一特征信息以及目标图像的感兴趣区域的第二特征信息。
在本发明实施例中,目标图像可以是以特定部位的医学影像,例如可以是眼底图像、胸部图像、腿部图像等其他部位的医学图像。当然目标图像也可以是通过不同成像方式得到的医学图像,例如可以是CT(Computerized tomography,电子计算机断层扫描)图像、磁共振图像、OCT(Optical Coherence Tomography,光学相干断层扫描)图像等医学成像方式的医学图像。
目标图像的第一特征信息可以是目标图像的像素数据的特征信息,当然第一特征信息也可以是目标图像中的局部图像的特征信息,所以本实施例对目标图像的第一特征信息的特征及数量不加以限制。其中,目标图像的第一特征信息中的局部图像特征信息可以是根据目标图像对应的部位确定,示例性的,当目标图像为眼底图像时,局部图像特征信息可以是视盘特征信息,相应的,对于其他部位,例如肺部、头部等可根据预先设置的布局位置确定对应的局部图像特征信息。
目标图像的感兴趣区域可以是基于预设条件在目标图像中预设的区域,也可以是目标图像中产生病灶的区域等区域或者满足预设条件的区域,本实施例对感兴趣区域的预设条件和设置位置以及区域数量不加以限制,相应的,目标图像中感兴趣区域的第二特征信息的数量也不加以限制。
S120、将第一特征信息和第二特征信息进行特征融合,得到融合特征信息。
在本发明实施例中,为了匹配并分类模型预设数量的输入特征信息,需要将第一特征信息和第二特征信息进行特征融合,以得到预设的特征信息。在本发明实施例中基于预先设置的特征融合模型对至少一个第一特征信息和至少一个第二特征信息进行融合处理,得到预设数量的融合特征信息;其中,特征融合模型包括:至少一个卷积层和线性网络层,其中,至少一个卷积层用于提取第一特征信息和第二特征信息的特征图,线性网络层用于确定各第一特征信息和第二特征信息的权重,融合各特征图、第一特征信息和第二特征信息,得到融合特征信息。
可选的,分别提取第一特征信息和第二特征信息的特征图,确定各特征图的全局感受野;基于各特征图的全局感受野确定各第一特征信息和第二特征信息的权重;基于各特征图、第一特征信息和第二特征信息以及对应的权重进行特征融合,得到融合特征信息。
具体的,采用特征融合模型中的至少一个卷积层分别提取第一特征信息和第二特征信息的特征图。可选的,可以通过对所有特征信息的特征图进行均值计算各特征图的全局感受野,并基于各特征图的全局感受野以及特征融合模型中的线性网络层确定各第一特征信息和第二特征信息的权重,将各特征信息的权重以及各特征信息对应的特征图相乘以实现激活重要的特征信息,得到融合后的特征信。
S130、基于预先设置的分类模型对融合特征信息进行目标图像的分类,得到目标图像的分类结果。
在本发明实施例中,预设的分类模型可以是CNN分类模型,具体的,将该融合特征信息输入到该模型中sigmoid激活函数的二分类层,得到待识别的数据内容的分类结果。具体的,分类层的表达式可以是:
其中,表示的模型推算的概率值,wc是网络权值,bc是参数偏置。当分类结果为1时,表示待分类的目标图像为第一类图像;当分类结果为0时,表示待分类的目标图像为第二类图像。其中,第一类图像和第二类图像可以是标识目标图像是DR图像和非DR图像,也可以标识目标图像是肺水肿图像和非肺水肿图像,当然还可以根据实际情况进行具体设置,本实施例对此不加以限制。
本发明实施例的技术方案获取目标图像以及目标图像的第一特征信息和第二特征信息以增加目标图像的维度特征,将第一特征信息和第二特征信息进行融合得到融合特征信息,并且通过对多维度特征信息进行融合激活重要的特征信息,得到带有重要特征信息的融合特征信息,然后将融合特征信息输入至预先设置的分类模型对目标图像进行分类得到分类结果。本实施例的技术方案通过基于带有重要信息的多维度融合特征信息进行图像分类,以达到提升图像分类准确性的效果。
实施例二
图2为本发明实施例二提供的一种图像处理方法的流程图,本实施例在上述各实施例的基础上,以目标图像为眼底图像,具体介绍了上述目标图像的分类过程,其中,与上述各实施例相同或相应的术语的解释在此不再赘述。
在对本发明实施例的技术方案进行介绍之前,先对本发明实施例的应用场景进行示例性的介绍:通常,在使用深度学习技术对眼底照片进行DR分类时,是将一张眼底照作为输入,让网络自动学习特征的提取。该方法有两个明显的弊端:1)基于这种黑箱诊断方式,无法得知神经网络是根据什么信息来进行分类;2)感兴趣区域特征信息是医生分类图像是否为DR图像的关键,而网络是否正确且完整的使用该信息无法确定。因此,可以将感兴趣区域特征信息显式地提供给分类模型,可以获得感兴趣区域的分布信息,以实现提高模型分类的准确性。本实施例提供的眼底图像分类方法的流程示意图如图3所示,获取到眼底图像的第一特征信息和感兴趣区域的第二特征信息,并采用特征融合模型将上述各特征信息进行特征融合,得到带有重要信息的融合特征信息,并将该融合特征信息输入至分类模型中得到更加准确的分类结果。
如图2所示,本实施例提供的技术方案具体包括以下步骤:
S210、获取待检测的目标图像,并获取目标图像的第一特征信息以及目标图像的感兴趣区域的第二特征信息,其中,目标图像为眼底图像。
在本发明实施例中以目标图像为眼底图像进行示例性的介绍,所以目标图像的第一特征信息包括眼底图像中的像素特征信息和视盘特征信息,其中,眼底图像为RGB彩色图像。感兴趣区域的第二特征信息包括眼底图像中的微血管瘤区域的特征信息、渗出区域的特征信息和出血区域的特征信息,且各感兴趣区域在眼底图像中的位置不加以限定。
可选的,获取目标图像的第一特征信息中的像素特征信息的方式包括:基于眼底图像的像素数据确定像素特征信息中的R通道特征信息、G通道特征信息和B通道特征信息。具体的,基于眼底图像的像素数据分别确定眼底图像的R通道数据、G通道数据和B通道数据,并分别基于R通道数据、G通道数据和B通道数据确定像素特征信息的三个通道信息,所以像素特征信息包括R通道特征信息、G通道特征信息和B通道特征信息。
可选的,获取目标图像的第一特征信息中的视盘特征信息的方式包括:确定眼底图像的视盘位置并进行分割得到眼底图像的视盘图像,基于视盘图像的像素数据进行加权计算得到眼底图像的视盘特征。
其中,视盘图像为眼底图像中的部分区域图像,所以视盘图像同样为彩色RBG图像。具体的,采用预设方法获取眼底图像中的视盘图像,例如基于血管的现有技术实现对眼底图像中的视盘区域进行定位和分割以得到视盘图像,本实施例在此不对视盘区域的定位方法和分割方法进行赘述。确定视盘图像的像素数据,并基于视盘图像的像素数据分别确定视盘图像的R通道数据、G通道数据和B通道数据。并对视盘图像中的R通道数据、G通道数据和B通道数据进行加权计算,得到一个通道的视盘特征信息。示例性的,由于血管在R和G两个通道中特征最为明显,可以通过采用0.25R+0.75G的加权计算方式得到视盘特征信息。
可选的,获取目标图像的感兴趣区域的第二特征信息的方式包括:将眼底图像输入至已训练好的感兴趣区域检测模型进行感兴趣区域检测,得到感兴趣区域检测模型输出的感兴趣区域检测结果;其中,眼底图像的感兴趣区域结果包括微血管瘤区域检测结果、渗出区域检测结果和出血区域检测结果;将感兴趣区域检测结果作为眼底图像的感兴趣区域的第二特征信息。
具体的,可以采用深度学习中的感兴趣区域检测模型对感兴趣区域进行检测,例如感兴趣区域检测模型可以是以ResNet50为特征提取器的RetinaNet,感兴趣区域检测模型的分类层会输出每个感兴趣区域的类别概率分布,并与该感兴趣区域的标注结合,计算交叉熵损失函数。可选的,该感兴趣区域的标注为One-hot向量,即正确类别的概率值为1,其余为0。为了缓解数据集中可能会存在的错误标注及漏标的情况,本发明实施例的技术方案采用了标签平滑化机制,通过降低目标概率值,避免感兴趣区域检测模型对错误标注的过拟合。具体的,可以将损失函数中使用的One-hot向量的目标类别(出血)和背景类别的概率值分别从1减少到0.9和从0增加到0.1。
示例性的,将眼底图像输入至感兴趣区域检测模型,得到各感兴趣区域标识对应的类别概率值,当识别当前感兴趣区域的标识的类别概率值大于0.9时,说明当前感兴趣区域为正确类别,即根据该正确类别确定当前的感兴趣区域的特征信息;当识别当前感兴趣区域的标识类别概率值小于0.1时,说明当前感兴趣区域为非正确类别,即根据该非正确类别确定当前的感兴趣区域的特征信息。检测各感兴趣区域的类别,并基于各检测结果确定各感兴趣区域的第二特征信息。具体的,本发明实施例中的感兴趣区域包括微血管瘤区域、渗出区域和出血区域,基于感兴趣区域的检测结果确定感兴趣区域的第二特诊信息包括微血管瘤区域的特征信息、渗出区域的特征信息和出血区域的特征信息。当然,上述感兴趣区域只是作为可选实施例,也可以根据实际情况对感兴趣区域进行具体设置,本实施例对此不加以限制。
S220、将第一特征信息和第二特征信息进行特征融合,得到融合特征信息。
在本发明实施例中,可以采用Squeeze-and-Excitation(SE)模块作为特征融合模型用于结合通道的维度信息,其中,SE模块是SNENet中采用的组件,SE模块可以有效地识别哪个特征在此次分类中更为关键,并对输入各部分的重要程度进行调整和结合,以得到眼底图像的融合特征信息。具体的如图4所示的特征信息融合的流程示意图所示,先对获取到的第一特征信息和第二特征信息中的各个通道的特征图求平均,从而获取一定的全局感受野。再通过线性网络计算不同通道的重要性,最后通过将各特征信息与各特征信息对应的特征图进行相乘,激活重要的特征信息得到带有重要特征信息的融合特征信息,以达到提升图像分类的效果。
S230、基于预先设置的分类模型对融合特征信息进行目标图像的分类,得到目标图像的分类结果。
本实施例的技术方案,通过获取眼底图像以及眼底图像的像素特征信息和视盘特征信息和眼底图像的病灶区域特征信息以增加眼底图像的维度特征,将眼底图像的像素特征信息和视盘特征信息和眼底图像的病灶区域特征信息进行融合得到带有重要特征信息的融合特征信息,然后将融合特征信息输入至预先设置的分类模型对眼底图像进行分类得到分类结果。本实施例的技术方案通过基于带有重要信息的多维度融合特征信息进行图像分类,以达到提升图像分类准确性的效果。
以下是本发明实施例提供的图像处理装置的实施例,该装置与上述各实施例的图像处理方法属于同一个发明构思,在图像处理装置的实施例中未详尽描述的细节内容,可以参考上述图像处理方法的实施例。
实施例三
图5为本发明实施例三提供的图像处理装置的结构示意图,本实施例可适用于对目标图像进行图像分类的情况。该图像处理装置的具体结构如下:初始特征信息获取模块310、融合特征信息获取模块320和分类结果确定模块330;其中,
初始特征信息获取模块310,用于获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
融合特征信息获取模块320,用于将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
分类结果确定模块330,用于基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。
本发明实施例的技术方案通过获取目标图像以及目标图像的第一特征信息和第二特征信息以增加目标图像的维度特征,将第一特征信息和第二特征信息进行融合,得到带有重要特征信息的融合特征信息,然后将融合特征信息输入至预先设置的分类模型对目标图像进行分类得到分类结果。本实施例的技术方案通过基于带有重要信息的多维度融合特征信息进行图像分类,以达到提升图像分类准确性的效果。
在上述技术方案的基础上,融合特征信息获取模块320,包括:
特征图提取单元,用于分别提取所述第一特征信息和所述第二特征信息的特征图,确定各所述特征图的全局感受野;
权重确定单元,用于基于各所述特征图的全局感受野确定各所述第一特征信息和所述第二特征信息的权重;
融合特征信息获取单元,用于基于各所述特征图、所述第一特征信息和所述第二特征信息以及对应的权重进行特征融合,得到融合特征信息。
在上述技术方案的基础上,融合特征信息获取模块320,包括:
特征信息处理单元,用于基于预先设置的特征融合模型对所述第一特征信息和所述第二特征信息进行融合处理,得到融合特征信息。
在上述技术方案的基础上,所述特征融合模型包括:至少一个卷积层和线性网络层,其中,所述至少一个卷积层用于提取所述第一特征信息和所述第二特征信息的特征图,所述线性网络层用于确定各所述第一特征信息和所述第二特征信息的权重,融合各所述特征图、所述第一特征信息和所述第二特征信息,得到融合特征信息。
在上述技术方案的基础上,所述目标图像为眼底图像,第一特征信息包括像素特征信息和视盘特征信息,感兴趣区域的第二特征信息包括微血管瘤区域的特征信息、渗出区域的特征信息和出血区域的特征信息。
在上述技术方案的基础上,所述眼底图像为RGB彩色图像;
其中,初始特征信息获取模块310,包括:
像素特征信息获取单元,用于基于所述眼图像的像素数据确定所述像素特征信息中的R通道特征信息、G通道特征信息和B通道特征信息;
视盘图像获取单元,用于确定所述眼底图像的视盘位置并进行分割得到所述眼底图像的视盘图像;
视盘特征获取单元,用于基于所述视盘图像的像素数据进行加权计算得到所述眼底图像的视盘特征。
在上述技术方案的基础上,初始特征信息获取模块310,包括:
感兴趣区域检测结果获取单元,用于将所述眼底图像输入至已训练好的感兴趣区域检测模型进行感兴趣区域检测,得到所述感兴趣区域检测模型输出的感兴趣区域检测结果;其中,所述眼底图像的感兴趣区域结果包括微血管瘤区域检测结果、渗出区域检测结果和出血区域检测结果;
第二特征信息获取单元,用于将所述感兴趣区域检测结果作为所述眼底图像的感兴趣区域的第二特征信息。
在上述技术方案的基础上,所述装置还包括:
中间分类模型确定单元,用于在基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果之前创建初始分类模型,基于训练数据集对所述初始分类模型进行训练,得到中间分类模型;
分类模型确定单元,用于剔除所述中间分类模型中瓶颈层之后的部分模型,并对所述中间分类模型的剩余部分添加全连接层,得到分类模型。
本发明实施例所提供的图像处理装置可执行本发明任意实施例所提供的图像处理方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述图像处理装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
实施例四
图6为本发明实施例四提供的一种电子设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性电子设备12的框图。图6显示的电子设备12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备12以通用计算电子设备的形式表现。电子设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。电子设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。系统存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如系统存储器28中,这样的程序模块42包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
电子设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该电子设备12交互的设备通信,和/或与使得该电子设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,电子设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器20通过总线18与电子设备12的其它模块通信。应当明白,尽管图6中未示出,可以结合电子设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及样本数据获取,例如实现本发实施例所提供的一种图像处理方法步骤,图像处理方法包括:
获取软件性能测试工具的性能测试脚本以及所述软件性能测试工具对所述测试性能测试脚本进行测试生成的各测试事务的性能指标数据;
获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供的样本数据获取方法的技术方案。
实施例五
本实施例五提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现例如实现本发实施例所提供的一种图像处理方法步骤,图像处理方法包括:
获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于:电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本领域普通技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个计算装置上,或者分布在多个计算装置所组成的网络上,可选地,他们可以用计算机装置可执行的程序代码来实现,从而可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件的结合。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (9)

1.一种图像处理方法,其特征在于,包括:
获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
基于预先设置的分类模型对所述融合特征信息进行所述目标图像的分类,得到所述目标图像的分类结果;
基于预先设置的特征融合模型对所述第一特征信息和所述第二特征信息进行融合处理,得到所述融合特征信息;其中,所述特征融合模型包括:至少一个卷积层和线性网络层,其中,所述至少一个卷积层用于提取所述第一特征信息和所述第二特征信息的特征图,所述线性网络层用于确定各所述第一特征信息和所述第二特征信息的权重,融合各所述特征图、所述第一特征信息和所述第二特征信息,得到所述融合特征信息;
所述将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息,包括:
通过对所述第一特征信息和所述第二特征信息的特征图进行均值计算各所述特征图的全局感受野,并基于所述各所述特征图的全局感受野以及所述特征融合模型中的所述线性网络层确定各所述第一特征信息和所述第二特征信息的权重,将各所述特征信息的权重以及各所述特征信息对应的所述特征图相乘得到所述融合特征信息。
2.根据权利要求1所述的方法,其特征在于,所述将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息,包括:
分别提取所述第一特征信息和所述第二特征信息的特征图,确定各所述特征图的全局感受野;
基于各所述特征图的全局感受野确定各所述第一特征信息和所述第二特征信息的权重;
基于各所述特征图、所述第一特征信息和所述第二特征信息以及对应的权重进行特征融合,得到融合特征信息。
3.根据权利要求1所述的方法,其特征在于,所述目标图像为眼底图像,第一特征信息包括像素特征信息和视盘特征信息,感兴趣区域的第二特征信息包括微血管瘤区域的特征信息、渗出区域的特征信息和出血区域的特征信息。
4.根据权利要求3所述的方法,其特征在于,所述眼底图像和视盘图像均为RGB彩色图像;
其中,获取所述目标图像的第一特征信息包括:
基于所述眼底图像的像素数据确定所述像素特征信息中的R通道特征信息、G通道特征信息和B通道特征信息;
确定所述眼底图像的视盘位置并进行分割得到所述眼底图像的视盘图像;
基于所述视盘图像的像素数据进行加权计算得到所述视盘图像的视盘特征。
5.根据权利要求3所述的方法,其特征在于,获取所述目标图像的感兴趣区域的第二特征信息,包括:
将所述眼底图像输入至已训练好的感兴趣区域检测模型进行感兴趣区域检测,得到所述感兴趣区域检测模型输出的感兴趣区域检测结果;其中,所述眼底图像的感兴趣区域结果包括微血管瘤区域检测结果、渗出区域检测结果和出血区域检测结果;
将所述感兴趣区域检测结果作为所述眼底图像的感兴趣区域的第二特征信息。
6.根据权利要求1所述的方法,其特征在于,在基于预先设置的分类模型对所述融合特征信息进行目标图像的分类,得到所述目标图像的分类结果之前,还包括:
创建初始分类模型,基于训练数据集对所述初始分类模型进行训练,得到中间分类模型;
剔除所述中间分类模型中瓶颈层之后的部分模型,并对所述中间分类模型的剩余部分添加全连接层,得到分类模型。
7.一种图像处理装置,其特征在于,包括:
初始特征信息获取模块,用于获取待检测的目标图像,并获取所述目标图像的第一特征信息以及所述目标图像的感兴趣区域的第二特征信息;
融合特征信息获取模块,用于将所述第一特征信息和所述第二特征信息进行特征融合,得到融合特征信息;
分类结果确定模块,用于基于预先设置的分类模型对所述融合特征信息进行所述目标图像的分类,得到所述目标图像的分类结果;
所述融合特征信息获取模块,包括:
特征信息处理单元,用于基于预先设置的特征融合模型对所述第一特征信息和所述第二特征信息进行融合处理,得到所述融合特征信息;
在上述技术方案的基础上,所述特征融合模型包括:至少一个卷积层和线性网络层,其中,所述至少一个卷积层用于提取所述第一特征信息和所述第二特征信息的特征图,所述线性网络层用于确定各所述第一特征信息和所述第二特征信息的权重,融合各所述特征图、所述第一特征信息和所述第二特征信息,得到所述融合特征信息;
所述融合特征信息获取模块,具体用于通过对所述第一特征信息和所述第二特征信息的特征图进行均值计算各所述特征图的全局感受野,并基于所述各所述特征图的全局感受野以及所述特征融合模型中的所述线性网络层确定各所述第一特征信息和所述第二特征信息的权重,将各所述特征信息的权重以及各所述特征信息对应的所述特征图相乘得到所述融合特征信息。
8.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的图像处理方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一所述的图像处理方法。
CN202110372737.6A 2021-04-07 2021-04-07 图像处理方法、装置、电子设备以及存储介质 Active CN112926537B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110372737.6A CN112926537B (zh) 2021-04-07 2021-04-07 图像处理方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110372737.6A CN112926537B (zh) 2021-04-07 2021-04-07 图像处理方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
CN112926537A CN112926537A (zh) 2021-06-08
CN112926537B true CN112926537B (zh) 2024-05-28

Family

ID=76174289

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110372737.6A Active CN112926537B (zh) 2021-04-07 2021-04-07 图像处理方法、装置、电子设备以及存储介质

Country Status (1)

Country Link
CN (1) CN112926537B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658234A (zh) * 2021-07-21 2021-11-16 南方科技大学 脑部图像处理方法、电子设备及计算机可读存储介质
CN113576452A (zh) * 2021-07-30 2021-11-02 深圳市商汤科技有限公司 基于热成像的呼吸率检测方法、装置及电子设备
CN116245832B (zh) * 2023-01-30 2023-11-14 浙江医准智能科技有限公司 一种图像处理方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615051A (zh) * 2018-04-13 2018-10-02 博众精工科技股份有限公司 基于深度学习的糖尿病视网膜图像分类方法及系统
CN110276408A (zh) * 2019-06-27 2019-09-24 腾讯科技(深圳)有限公司 3d图像的分类方法、装置、设备及存储介质
CN110321920A (zh) * 2019-05-08 2019-10-11 腾讯科技(深圳)有限公司 图像分类方法、装置、计算机可读存储介质和计算机设备
CN110570421A (zh) * 2019-09-18 2019-12-13 上海鹰瞳医疗科技有限公司 多任务的眼底图像分类方法和设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615051A (zh) * 2018-04-13 2018-10-02 博众精工科技股份有限公司 基于深度学习的糖尿病视网膜图像分类方法及系统
CN110321920A (zh) * 2019-05-08 2019-10-11 腾讯科技(深圳)有限公司 图像分类方法、装置、计算机可读存储介质和计算机设备
CN110276408A (zh) * 2019-06-27 2019-09-24 腾讯科技(深圳)有限公司 3d图像的分类方法、装置、设备及存储介质
CN110570421A (zh) * 2019-09-18 2019-12-13 上海鹰瞳医疗科技有限公司 多任务的眼底图像分类方法和设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
多特征融合的纹理图像分类研究;龙力;;数字技术与应用(11);第109-112页 *

Also Published As

Publication number Publication date
CN112926537A (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
CN110197493B (zh) 眼底图像血管分割方法
US20220051405A1 (en) Image processing method and apparatus, server, medical image processing device and storage medium
CN112926537B (zh) 图像处理方法、装置、电子设备以及存储介质
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
US11210781B2 (en) Methods and devices for reducing dimension of eigenvectors and diagnosing medical images
KR101818074B1 (ko) 인공지능 기반 의료용 자동 진단 보조 방법 및 그 시스템
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
Tennakoon et al. Image quality classification for DR screening using convolutional neural networks
US20220383661A1 (en) Method and device for retinal image recognition, electronic equipment, and storage medium
CN111080643A (zh) 基于眼底图像的糖尿病及相关疾病的分类方法及设备
CN111612756B (zh) 冠状动脉特异性钙化检测方法及装置
JP2022180466A (ja) 診断支援装置、学習装置、診断支援方法、学習方法及びプログラム
CN112233128B (zh) 图像分割方法及模型的训练方法、装置、介质、电子设备
CN109191451A (zh) 异常检测方法、装置、设备和介质
KR20190087681A (ko) 자궁경부암에 대한 피검체의 발병 여부를 판정하는 방법
Gamage et al. Instance-based segmentation for boundary detection of neuropathic ulcers through Mask-RCNN
CN112971718A (zh) 证候识别方法、装置、电子设备及存储介质
CN111340794B (zh) 冠状动脉狭窄的量化方法及装置
US11861838B1 (en) Systems and methods for system agnostic automated detection of cardiovascular anomalies and/or other features
CN114612484B (zh) 基于无监督学习的视网膜oct图像分割方法
JP2007528763A (ja) インタラクティブコンピュータ支援診断方法及び装置
Chen et al. Spatio-temporal multi-task network cascade for accurate assessment of cardiac CT perfusion
Ragnarsdottir et al. Interpretable prediction of pulmonary hypertension in newborns using echocardiograms
CN115206494A (zh) 基于眼底图像分类的阅片系统及阅片方法
Preity et al. Automated computationally intelligent methods for ocular vessel segmentation and disease detection: a review

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant