CN111192252B - 一种图像分割结果优化方法、装置、智能终端及存储介质 - Google Patents
一种图像分割结果优化方法、装置、智能终端及存储介质 Download PDFInfo
- Publication number
- CN111192252B CN111192252B CN201911400425.0A CN201911400425A CN111192252B CN 111192252 B CN111192252 B CN 111192252B CN 201911400425 A CN201911400425 A CN 201911400425A CN 111192252 B CN111192252 B CN 111192252B
- Authority
- CN
- China
- Prior art keywords
- segmentation result
- neural network
- segmentation
- network model
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像分割结果优化方法、装置、智能终端及存储介质,所述方法包括:获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;对第一神经网络模型进行优化,并对初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;将所述标准图像、第二分割结果与所述第三分割结果输入值预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果。本发明通过图像组合训练的方式,缓解大模型被压缩后精度下降的问题,提高了压缩网络所得的分割精度。
Description
技术领域
本发明涉及图像分割技术领域,尤其涉及的是一种图像分割结果优化方法、装置、智能终端及存储介质。
背景技术
图像分割是图像处理与分析领域的关键技术,尤其是在医学图像领域中,其目的是根据临床需求利用图像特征将医学图像中具有某些特殊含义的部分分割出来。医学图像分割技术能够提取临床医生感兴趣区域,便于医学图像的分割与识别。不仅如此,医学图像分割技术还能帮助测量人体组织、器官或病灶的尺寸、体积和容积,定量分析、评价病患治疗前后的效果,帮助临床医生诊断、随访病患和及时修订病患的后续治疗方案。
传统的图像处理技术主要包括特征提取和分类器两部分,特征提取算法的设计复杂性与稳定性,特征提取算法与分类器结合的适配性和医学图像的复杂性限制着传统图像处理技术在医学图像分割上的效果。而深度学习是一种能够由程序自动化提取特征且擅长于发现高维数据中复杂结构的技术。但是,因深度学习网络的结构复杂,计算量庞大,使得在进行图像分割时,存在效率不高的问题。当前,提高深度学习网络效率的方法一般为使用结构简单,计算量较小的深度学习网络对原结构复杂,计算量庞大的网络进行压缩。但是压缩后的深度学习网络虽然效率提高了,但是精度却下降了。
因此,现有技术还有待改进和发展。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述缺陷,提供一种图像分割结果优化方法、装置、智能终端及存储介质,旨在解决现有技术中压缩网络的效率提高,但是精度下降的问题。
本发明解决问题所采用的技术方案如下:
第一方面,本发明实施例提供一种图像分割结果优化方法,其中,所述方法包括:
获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
对所述所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
将所述标准图像、第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果。
在一种实施方式中,所述获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的神经网络模型进行训练,得到初步分割结果,包括:
获取待分割图像以及预设的标准图像,所述标准图像为分割后的目标图像;
将所述待分割图像及预设的标准图像输入至预设的神经网络模型中进行训练,得到初步分割结果;
根据所述初步分割结果确定分割精度,并根据所述分割精度确定是否训练结束。
在一种实施方式中,所述据所述分割精度确定是否训练结束,包括:
当所述分割精度趋于稳定时,则确定训练完成。
在一种实施方式中,所述对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果,包括:
获取所述初步分割结果以及所述待分割图像;
将所述初步分割结果以及所述待分割图像同时输入至预设的第二神经网络模型中进行训练,得到所述第二分割结果;
根据所述第二分割结果,并对第二分割结果进行优化,以使所述得第二分割结果的分割精度趋近于所述第一分割结果的分割精度。
在一种实施方式中,所述将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果,包括:
根据所述第一分割结果与所述第二分割结果,确定所述第一分割结果与所述第二分割结果中待改进的区域;
将所述待改进的区域以及所述待分割图像同时输入至预设的第三神经网络模型中进行训练,得到所述第三分割结果。
在一种实施方式中,所述将所述标准图像、所述第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,包括:
根据所述标准图像、所述第二分割结果与所述第三分割结果,确定所述标准图像与所述第二分割结果和所述第三分割结果的结合分割结果中待改进的区域;
将所述待改进的而区域以及所述待分割图像同时输入至预设的第四神经网络模型中进行训练,得到所述第四分割结果。
在一种实施方式中,所述第一神经网络模型、第二神经网络模型、第三神经网络模型以及第四神经网络模型可以为同一类型的神经网络也可以为不同类型的神经网络。
第二方面,本发明实施例还提供一种图像分割结果优化装置,其中,所述装置包括:
第一训练模块,用于获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
第二训练模块,用于对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
第三训练模块,用于将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
第四训练模块,用于将所述标准图像、所述第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、所述第三分割结果与所述第四分割结果的结合分割结果的精度高于所述初步分割结果。
第三方面,本发明实施还提供一种智能终端,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行如上述任意一项所述的图像分割结果优化方法。
第四方面,本发明实施例还提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如上述中任意一项所述的图像分割结果优化方法。
本发明的有益效果:本发明通过不断地将上一次训练的网络中所得到的分割结果进行重复训练,并利用图像组合训练的方式,缓解大模型被压缩后精度下降的问题,提高了压缩网络所得图像分割结果的精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的图像分割结果优化方法的流程示意图。
图2是本发明实施例提供的图像分割结果优化方法的框架流程图。
图3是本发明实施例提供的蓝牙音频数据传输装置的原理框图。
图4是本发明实施例提供的智能终端的内部结构原理框图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明,若本发明实施例中有涉及方向性指示(诸如上、下、左、右、前、后……),则该方向性指示仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
为了解决现有技术中无法对字符、时间以及一些规则数据信息生成随机数据的问题,本实施例提供一种图像分割结果优化方法,主要不断地将上一次训练的网络中所得到的分割结果进行重复训练,并利用图像组合训练的方式,提高了图像分割结果的精度。
示例性方法
如图1中所示,本发明实施例提供一种图像分割结果优化方法,所述图像分割结果优化方法可以应用于智能终端。在本发明实施例中,所述方法包括如下步骤:
步骤S100、获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
步骤S200、对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
步骤S300、将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
步骤S400、将所述标准图像、第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果。
在本实施例中,所述待分割图像为需要进行分割的图像,而所述标准图像为分割后的目标图像,即所述标准图像的质量要高于所述待分割图像的质量。本实施例中,使用待分割图像和标准图像(GT)训练一个复杂的深度学习卷积神经网络(即所述第一神经网络模型,Net1)。然后,将所述待分割图像及预设的标准图像输入至预设的神经网络模型中进行训练,得到初步分割结果;再根据所述初步分割结果确定分割精度,并根据所述分割精度确定是否训练结束。本实施例中的第一神经网络模型是一个结构复杂,参数量庞大的网络,因此,第一神经网络模型的精度比较高。
具体地,结合图2,训练过程包括如下步骤:
1.搭建一个复杂的深度学习卷积神经网络(Net1)。
2.将分割目标图像和GT输入至Net1中进行训练,每一次训练Net1都能对分割目标图像进行分割得到第一分割结果S1。
3.根据公式(1)计算S1与GT的损失值L1。L1表示S1与GT的差异程度,两者差异程度越大,L1越大。根据公式(2)计算S1的分割精度D1。
4.在每一次的训练中,深度学习卷积神经网络都会通过自动学习来最小化 L1以得到更精确的S1。
5.当分割精度D1趋于稳定时,停止训练,得到训练完成的Net1。在应用时,只需将分割目标图像输入至Net1中,Net1就能自动输出第一分割结果S1。网络的参数量被定义为:
其中,n为深度学习卷积神经网络中卷积层个数,KH为卷积核高度,KW为卷积核宽度,Cin为卷积层输入的通道数,Cout为卷积核输出的通道数。假设Net1的参数量为P1。经过预训练后,能够得到Net1的第一分割结果S1。
进一步地,在进行第二次训练时,本实施例获取所述初步分割结果以及所述待分割图像;然后将所述初步分割结果以及所述待分割图像同时输入至预设的第二神经网络模型中进行训练,得到所述第二分割结果;再根据所述第二分割结果,并对第二分割结果进行优化,以使所述得第二分割结果的分割精度趋近于所述第一分割结果的分割精度。此步骤的目的是对第一神经网络模型进行压缩(即优化网络)。第二神经网络模型是一个小的压缩网络,这个网络结构简单,参数量小,但是精度较低。因此第二分割结果精度低于初步分割结果。值得说明的是,所述初步分割结果和第二分割结果都是完整的分割结果。
具体地,使用分割目标图像和S1以训练Net1的同样方式训练一个简单的深度学习卷积神经网络(即第二神经网络模型,Net2),假设Net2的参数量为P2。则P2需满足下式:
P2<P1 (4)
经过对Net2的训练后,能够得到网络参数量较Net1更小的Net2和Net2 的第二分割结果S2。由于Net2的参数量小于Net1,所以Net2的学习能力要差于Net1。因此,虽然Net2降低了网络参数量,但是分割效果可能有所下降,也就是S2的精度很可能低于S1的精度。为了在降低网络参数量的同时,保证一定的精度,本实施例对Net2的分割结果进行优化,使得S2的精度逼近S1的精度。根据公式(3)定义相较于Net1分割结果,Net2分割结果中待改进的区域E1:
E1=S1-S2 (5)
进一步地,本发明实施例在进行第三次训练时,根据所述第一分割结果与所述第二分割结果,确定所述第一分割结果与所述第二分割结果中待改进的区域;然后将所述待改进的区域以及所述待分割图像同时输入至预设的第三神经网络模型中进行训练,得到所述第三分割结果。
具体地,使用分割目标图像和E1以训练Net1的同样方式训练一个简单的深度学习卷积神经网络(即第三神经网络模型,Net3),假设Net3的参数量为P3。则P3需满足下式:
P3<P1-P2 (6)
经过对Net3的训练后,得到了能够对Net2的分割结果进行优化,提高 Net2分割精度,使得Net2的分割结果逼近Net1的分割结果的网路Net3及其第三分割结果S3。由于Net3分割得到的是Net2的分割优化结果,所以需要将 Net2的第二分割结果S2和Net3的第三分割结果S3以公式(7)的方式结合以得到优化后的分割结果CS1。为了方便说明,将Net2、Net3和公式(7)统称为 Concat-net(如图2所示)。将分割目标图像输入至Concat-net就能得到CS1。
CS1=S2+S3 (7)
Concat-net的参数量较Net1更小,分割精度较Net2的更高。Concat-net 得到的是精度逼近S1精度的分割结果,而S1相较于GT仍有待改进的区域,这就使得CS1相较于GT也仍有待改进的区域。根据公式(8)定义相较于GT, Concat-net分割结果中待改进区域的区域E2:
E2=GT-CS1 (8)
进一步地,在进行第四次训练时,本发明实施例根据所述标准图像与所述第二分割结果和所述第三分割结果的结合分割结果(即CS1),确定所述标准图像与所述第二分割结果和所述第三分割结果的结合分割结果中待改进的区域;然后将所述待改进的而区域以及所述待分割图像同时输入至预设的第四神经网络模型中进行训练,得到所述第四分割结果。值得说明的是,本实施例中的结合方式为相加(如图2所示),本实施例并不对结合方式做限制,可以是图2中的相加,也可以是其他。
具体地,使用分割目标图像和E2以训练Net1的同样方式训练一个简单的深度学习卷积神经网络(即第四神经网络模型,Net4),假设Net4的参数量为P4。则P4需满足下式:
本实施例通过Net4进一步优化Concat-net的分割结果,得到Net4的第四分割结果S4。由于Net4分割得到的是Concat-net的分割优化结果,所以需要将Net4的第四分割结果S4和Concat-net的分割结果CS1以公式(10)的方式结合以得到优化后的分割结果CS2。
CS2=CS1+S4 (7)
本发明实施例将Concat-net、Net4和公式(10)统称为Segnet(如图2所示)。最终,因此得到了比Net1参数量更少,比Net2和Concat-net的分割精度更高的Segnet。
优选地,本实施例中的所述第一神经网络模型、第二神经网络模型、第三神经网络模型以及第四神经网络模型可以为同一类型的神经网络也可以为不同类型的神经网络。例如,可选择的类型包括但不限于U-Net,E-Net。
本实施例中,初步分割结果和第二分割结果都是完整的分割结果;所述第三分割结果是针对第二分割结果的优化结果,即第二分割结果+第三分割结果=完整分割结果三;所述第四分割结果是针对完整分割结果三的优化结果,即完整分割结果三+第四分割结果=完整分割结果四。分割结果精度排序:完整分割结果四>初步分割结果>完整分割结果三>第二分割结果。因此,在具体应用时,将待分割图像输入至第二、三、四分割网络中分别得到第二、三、四分割结果,第二分割结果+第三分割结果+第四分割结果=最终分割结果。
可见,本实施例的目的是为了压缩第一神经网络模型,并希望通过后续的第二网络模型压缩第一神经网络模型(压缩参数),然后第三网络模型用来逼近第一网络模型(复杂网络)的精度,从而提高精度,第四网络模型用来逼近标准图像的精度(提高精度)。在应用时,只使用第二、三、四网络,实现结构简单,参数量小,精度高的压缩网络。
综上,本发明实施例首先使用标准图像和待分割图像预训练一个复杂深度学习网络(Net1),然后使用Net1的分割结果训练一个简单深度学习网络(Net2)。而Net2的分割结果相较于Net1的分割结果会有一定的精度损失,因此,使用Net1分割结果中Net2待改进的区域训练一个简单深度学习网络 (Net3)对Net2的分割结果进行优化。将Net2和Net3组合为Concat-net,提高Concat-net的分割结果相较于Net1的分割结果的精度。而Net1的输出结果相较于标准图像可能会有一定的精度损失,使用标准图像中 Concat-net待改进的区域训练简单深度学习网络(Net4)以再次优化 Concat-net的分割结果。最终,将Concat-net与Net4组合得到Segnet,提高Segnet的分割结果相较于图像标准的精度。
本发明实施例通过预训练一个复杂深度学习网络(Net1)后,使用Net1 的分割结果指导简单深度学习网络(Net2)进行学习,得到精度稍差但是参数量变小,速度变快的压缩网络Net2。随后,训练简单深度学习网络Net3 和Net4,通过组合的方式优化提高得到的网络的精度,最终实现了深度学习网络的压缩,并且保证了一定的精度。
示例性设备
如图3中所示,本发明实施例提供一种图像分割结果优化装置,该装置包括:第一训练模块310、第二训练模块320、第三训练模块330以及第四训练模块340。具体地,所述第一训练模块310,用于获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果。所述第二训练模块320,用于对所述初步分割结果进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果。所述第三训练模块330,用于将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果。所述第四训练模块340,用于将所述标准图像与所述第三分割结果输入值预设的第四神经网络模型进行训练,得到第四分割结果,所述第四分割结果的精度高于所述初步分割结果。
基于上述实施例,本发明还提供了一种智能终端,其原理框图可以如图4所示。该智能终端包括通过系统总线连接的处理器、存储器、网络接口、显示屏、温度传感器。其中,该智能终端的处理器用于提供计算和控制能力。该智能终端的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该智能终端的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种图像分割结果优化方法。该智能终端的显示屏可以是液晶显示屏或者电子墨水显示屏,该智能终端的温度传感器是预先在智能终端内部设置,用于检测内部设备的运行温度。
本领域技术人员可以理解,图4中示出的原理框图,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的智能终端的限定,具体的智能终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种智能终端,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
将所述标准图像、第二分割结果与所述第三分割结果输入值预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态 RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM (ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus) 直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
综上所述,本发明公开了一种图像分割结果优化方法、装置、智能终端及存储介质,所述方法包括:获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;对所述第一神经网络模型果进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;将所述第一分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;将所述标准图像、第二分割结果与所述第三分割结果输入值预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果。本发明通过图像组合训练的方式,缓解大模型被压缩后精度下降的问题,提高了压缩网络所得的分割精度。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (10)
1.一种图像分割结果优化方法,其特征在于,所述方法包括:
获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
将所述初步分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
将所述标准图像、第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果;
所述初步分割结果和第二分割结果都是完整的分割结果;所述第三分割结果是针对第二分割结果的优化结果,即第二分割结果+第三分割结果=完整分割结果三;所述第四分割结果是针对完整分割结果三的优化结果,即完整分割结果三+第四分割结果=完整分割结果四;分割结果精度排序为完整分割结果四>初步分割结果>完整分割结果三>第二分割结果;
使用标准图像和待分割图像预训练所述第一神经网络模型;
使用所述第一神经网络模型的分割结果训练所述第二神经网络模型;
使用所述第一神经网络模型的分割结果中所述第二神经网络模型中待改进的区域训练所述第三神经网络模型,以对所述第二神经网络模型的分割结果进行优化;
使用标准图像中Concat-net待改进的区域训练所述第四神经网络模型,以再次优化Concat-net的分割结果。
2.根据权利要求1所述的一种图像分割结果优化方法,其特征在于,所述获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的神经网络模型进行训练,得到初步分割结果,包括:
获取待分割图像以及预设的标准图像,所述标准图像为分割后的目标图像;
将所述待分割图像及预设的标准图像输入至预设的神经网络模型中进行训练,得到初步分割结果;
根据所述初步分割结果确定分割精度,并根据所述分割精度确定是否训练结束。
3.根据权利要求2所述的一种图像分割结果优化方法,其特征在于,所述据所述分割精度确定是否训练结束,包括:
当所述分割精度趋于稳定时,则确定训练完成。
4.根据权利要求1所述的一种图像分割结果优化方法,其特征在于,所述对所述初步分割结果进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果,包括:
获取所述初步分割结果以及所述待分割图像;
将所述初步分割结果以及所述待分割图像同时输入至预设的第二神经网络模型中进行训练,得到所述第二分割结果;
根据所述第二分割结果,并对第二分割结果进行优化,以使所述第二分割结果的分割精度趋近于所述初步分割结果的分割精度。
5.根据权利要求1所述的一种图像分割结果优化方法,其特征在于,所述将所述初步分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果,包括:
根据所述初步分割结果与所述第二分割结果,确定所述初步分割结果与所述第二分割结果中待改进的区域;
将所述待改进的区域以及所述待分割图像同时输入至预设的第三神经网络模型中进行训练,得到所述第三分割结果。
6.根据权利要求1所述的一种图像分割结果优化方法,其特征在于,所述将所述标准图像、所述第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,包括:
根据所述标准图像、所述第二分割结果与所述第三分割结果,确定所述标准图像与所述第二分割结果和所述第三分割结果的结合分割结果中待改进的区域;
将所述待改进的而区域以及所述待分割图像同时输入至预设的第四神经网络模型中进行训练,得到所述第四分割结果。
7.根据权利要求1所述的一种图像分割结果优化方法,其特征在于,所述第一神经网络模型、第二神经网络模型、第三神经网络模型以及第四神经网络模型可以为同一类型的神经网络也可以为不同类型的神经网络。
8.一种图像分割结果优化装置,其特征在于,所述装置包括:
第一训练模块,用于获取待分割图像以及预设的标准图像,并将所述待分割图像以及所述标准图像输入至预设的第一神经网络模型进行训练,得到初步分割结果;
第二训练模块,用于对所述第一神经网络模型进行优化,并对所述初步分割结果输入至预设的第二神经网络模型进行训练,得到第二分割结果;
第三训练模块,用于将所述初步分割结果与所述第二分割结果输入至预设的第三神经网络模型进行训练,得到第三分割结果;
第四训练模块,用于将所述标准图像、第二分割结果与所述第三分割结果输入至预设的第四神经网络模型进行训练,得到第四分割结果,所述第二分割结果、第三分割结果和第四分割结果的结合分割结果的精度高于所述初步分割结果;
所述初步分割结果和第二分割结果都是完整的分割结果;所述第三分割结果是针对第二分割结果的优化结果,即第二分割结果+第三分割结果=完整分割结果三;所述第四分割结果是针对完整分割结果三的优化结果,即完整分割结果三+第四分割结果=完整分割结果四;分割结果精度排序为完整分割结果四>初步分割结果>完整分割结果三>第二分割结果;
使用标准图像和待分割图像预训练所述第一神经网络模型;
使用所述第一神经网络模型的分割结果训练所述第二神经网络模型;
使用所述第一神经网络模型的分割结果中所述第二神经网络模型中待改进的区域训练所述第三神经网络模型,以对所述第二神经网络模型的分割结果进行优化;
使用标准图像中Concat-net待改进的区域训练所述第四神经网络模型,以再次优化Concat-net的分割结果。
9.一种智能终端,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于执行如权利要求1-7中任意一项所述的方法。
10.一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1-7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400425.0A CN111192252B (zh) | 2019-12-30 | 2019-12-30 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911400425.0A CN111192252B (zh) | 2019-12-30 | 2019-12-30 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111192252A CN111192252A (zh) | 2020-05-22 |
CN111192252B true CN111192252B (zh) | 2023-03-31 |
Family
ID=70707912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911400425.0A Active CN111192252B (zh) | 2019-12-30 | 2019-12-30 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111192252B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435213B (zh) * | 2020-10-21 | 2023-09-29 | 深圳大学 | 一种头颈部结构图像分割与分类方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
WO2019052561A1 (zh) * | 2017-09-18 | 2019-03-21 | 同方威视技术股份有限公司 | 检查方法和检查设备以及计算机可读介质 |
-
2019
- 2019-12-30 CN CN201911400425.0A patent/CN111192252B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019052561A1 (zh) * | 2017-09-18 | 2019-03-21 | 同方威视技术股份有限公司 | 检查方法和检查设备以及计算机可读介质 |
CN108765423A (zh) * | 2018-06-20 | 2018-11-06 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
朱婷 ; 王瑜 ; 肖洪兵 ; 邢素霞 ; .基于WRN-PPNet的多模态MRI脑肿瘤全自动分割.计算机工程.2018,(12),第264-269页、第276页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111192252A (zh) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706333B2 (en) | Medical image analysis method, medical image analysis system and storage medium | |
US20210209775A1 (en) | Image Processing Method and Apparatus, and Computer Readable Storage Medium | |
US20210390706A1 (en) | Detection model training method and apparatus, computer device and storage medium | |
US20220189142A1 (en) | Ai-based object classification method and apparatus, and medical imaging device and storage medium | |
CN109272048B (zh) | 一种基于深度卷积神经网络的模式识别方法 | |
WO2021121126A1 (zh) | 基于深度学习的脑瘤图像分割方法、装置、设备及介质 | |
WO2021164306A1 (zh) | 图像分类模型的训练方法、装置、计算机设备及存储介质 | |
US20210057069A1 (en) | Method and device for generating medical report | |
KR20210021039A (ko) | 이미지 처리 방법, 장치, 전자 기기 및 컴퓨터 판독 가능한 저장 매체 | |
CN111291825B (zh) | 病灶分类模型训练方法、装置、计算机设备和存储介质 | |
CN110827236B (zh) | 基于神经网络的脑组织分层方法、装置、计算机设备 | |
CN110276408B (zh) | 3d图像的分类方法、装置、设备及存储介质 | |
WO2022178997A1 (zh) | 医学影像配准方法、装置、计算机设备及存储介质 | |
CN112001399B (zh) | 基于局部特征显著化的图像场景分类方法和装置 | |
CN111209916A (zh) | 病灶识别方法及系统、识别设备 | |
WO2023065503A1 (zh) | 一种面部表情的分类方法和电子设备 | |
US20230052133A1 (en) | Medical image processing method and apparatus, device, storage medium, and product | |
WO2021136368A1 (zh) | 钼靶图像中胸大肌区域自动检测方法及装置 | |
CN110751187B (zh) | 异常区域图像生成网络的训练方法和相关产品 | |
WO2022194152A1 (zh) | 基于图像处理模型的图像处理方法、装置、电子设备、存储介质及计算机程序产品 | |
CN112085745A (zh) | 基于均衡采样拼接的多通道u型全卷积神经网络的视网膜血管图像分割方法 | |
CN111666890A (zh) | 脊柱变形人群识别方法、装置、计算机设备及存储介质 | |
CN112036298A (zh) | 一种基于双段区块卷积神经网络的细胞检测方法 | |
CN111192252B (zh) | 一种图像分割结果优化方法、装置、智能终端及存储介质 | |
CN114565601A (zh) | 基于DeepLabV3+改进的肝脏CT图像分割算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |