CN108765423A - 一种卷积神经网络训练方法及装置 - Google Patents
一种卷积神经网络训练方法及装置 Download PDFInfo
- Publication number
- CN108765423A CN108765423A CN201810638376.3A CN201810638376A CN108765423A CN 108765423 A CN108765423 A CN 108765423A CN 201810638376 A CN201810638376 A CN 201810638376A CN 108765423 A CN108765423 A CN 108765423A
- Authority
- CN
- China
- Prior art keywords
- training
- image
- segmentation image
- neural networks
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种卷积神经网络训练方法,通过获取待分割图像以及待分割图像的标准分割图像,根据标准分割图像获取标准分割图像的纹理特征;将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像,根据训练分割图像获取训练分割图像的纹理特征;根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练,得到目标卷积神经网络。该方法使训练分割图像与标准分割图像的差异体现的更加全面,根据全面的差异来对待训练卷积神经网络进行训练,使得到的目标卷积神经网络的准确率更高,实现更好的分割效果。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种卷积神经网络训练方法及装置。
背景技术
图像分割(Image Segmentation),是根据图像的某些视觉特征对图像的像素进行分组形成若干个不重叠区域的过程。具体的,图像分割就是将图像各个像素添加类别标签,以将不同类别的区域通过不同的颜色区别开来。
目前,图像分割需要先对卷积神经网络进行训练,然后利用训练得到的卷积神经网络对待处理图像进行图像分割。在训练的过程中,首先将待分割图像输入到待训练卷积神经网络中,通过待训练卷积神经网络进行图像分割,输出得到训练分割图像,然后将待训练卷积神经网络输出的训练分割图像的类别标签和标准分割图像的类别标签进行比对,根据比对结果对待训练卷积神经网络进行训练。
然而,通过上述方法得到的完成训练的卷积神经网络,在进行图像分割时准确率较低,分割效果较差。
发明内容
为了解决现有技术中图像分割准确率低,分割效果差的问题,本申请实施例提供了一种卷积神经网络训练方法及装置,用于提高图像分割的准确率。
本申请实施例提供了一种卷积神经网络训练方法,所述方法包括:
获取待分割图像以及所述待分割图像的标准分割图像;
根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征;
将所述待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像;
根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述训练分割图像的纹理特征;
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
可选的,所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,包括:
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别标签差异,得到所述待训练卷积神经网络的损失函数的值,根据所述损失函数的值更新所述待训练卷积神经网络的模型参数。
可选的,所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异,得到所述待训练卷积神经网络的损失函数的值,包括:
对所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异进行加权求和,得到所述待训练卷积神经网络的损失函数的值。
可选的,所述根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征,包括:
根据所述标准分割图像各像素携带的类别标签对应的灰度值得到所述标准分割图像的灰度共生矩阵,根据所述标准分割图像的灰度共生矩阵计算所述标准分割图像的熵;
所述根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征,包括:
根据所述训练分割图像各像素携带的类别标签对应的灰度值得到所述训练分割图像的灰度共生矩阵,根据所述训练分割图像的灰度共生矩阵计算所述训练分割图像的熵;
所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,包括:
根据所述训练分割图像的熵与所述标准分割图像的熵之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练。
可选的,所述方法还包括:
预先设置对待训练卷积神经网络进行训练的训练轮数;
所述对所述待训练卷积神经网络进行训练包括:
根据所述训练轮数对所述待训练卷积神经网络进行训练。
本申请实施例还提供了一种卷积神经网络训练装置,所述装置包括:
第一图像获取单元,用于获取待分割图像以及所述待分割图像的标准分割图像;
第一纹理特征获取单元,用于根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征;
第二图像获取单元,用于将所述待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像;
第二纹理特征获取单元,用于根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述训练分割图像的纹理特征;
训练单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
可选的,所述训练单元包括:
损失函数获取单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别标签差异,得到所述待训练卷积神经网络的损失函数的值;
参数更新单元,用于根据所述损失函数的值更新所述待训练卷积神经网络的模型参数,得到目标卷积神经网络。
可选的,所述损失函数获取单元具体用于:
对所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异进行加权求和,得到所述待训练卷积神经网络的损失函数的值。
可选的,所述第一纹理特征获取单元具体用于:
根据所述标准分割图像各像素携带的类别标签对应的灰度值得到所述标准分割图像的灰度共生矩阵,根据所述标准分割图像的灰度共生矩阵计算所述标准分割图像的熵;
第二纹理特征获取单元具体用于:
根据所述训练分割图像各像素携带的类别标签对应的灰度值得到所述训练分割图像的灰度共生矩阵,根据所述训练分割图像的灰度共生矩阵计算所述训练分割图像的熵;
所述训练单元具体用于:
根据所述训练分割图像的熵与所述标准分割图像的熵之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
可选的,所述装置还包括:
预设单元,用于预先设置对待训练卷积神经网络进行训练的训练轮数;
所述训练单元具体用于:
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异,以及所述训练轮数对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
本申请实施例提供的卷积神经网络训练方法及装置,通过获取待分割图像以及待分割图像的标准分割图像,根据标准分割图像各像素携带的类别标签对应的颜色获取标准分割图像的纹理特征;将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像,根据训练分割图像各像素携带的类别标签对应的颜色获取训练分割图像的纹理特征;根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练,得到目标卷积神经网络。
由于训练分割图像是待分割图像通过待训练卷积神经网络进行图像分割得到的,标准分割图像是想要通过卷积神经网络对待分割图像进行分割得到的标准图像,可作为对训练分割图像的质量的衡量标准,训练分割图像越接近标准分割图像,则训练分割图像的质量越好,对应的待训练卷积神经网络的分割效果越好。本申请实施例中,对于训练分割图像和标准分割图像的差异的衡量,除了考虑训练分割图像与标准分割图像之间各像素的类别标签差异,还考虑了训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,从而使训练分割图像与标准分割图像的差异体现的更加全面,根据全面的差异来对待训练卷积神经网络进行训练,得到的目标卷积神经网络的准确率更高,从而实现更好的分割效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本申请实施例提供的一种卷积神经网络训练方法的流程图;
图2为本申请实施例中待分割图像和标准分割图像的示意图;
图3为本申请实施例提供的一种卷积神经网络训练装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
现有技术中,通常通过卷积神经网络进行图像分割,而在卷积神经网络的训练过程中,首先将待分割图像输入到待训练卷积神经网络中,通过待训练卷积神经网络进行图像分割,输出得到训练分割图像,将待训练卷积神经网络输出的训练分割图像的类别标签和标准分割图像的类别标签进行比对,根据比对结果对待训练卷积神经网络进行训练。
在上述技术中,类别标签是用来区分不同类别的标签,由于比对的是训练分割图像和标准分割图像的类别标签,考虑了整体上对于像素的分割情况,而没有考虑对少数像素的错误分割的情况,导致得到的分割图像中会出现较少量的颜色错误,例如在类别标签对应的颜色为红色的像素形成的区域内,有少数绿色的像素,即在单一物块中出现杂色,从而降低了用户体验。
为了解决上述技术问题,本申请实施例中,在卷积神经网络的训练过程中,对训练分割图像与标准分割图像的差异的体现,不只考虑待训练卷积神经网络输出的训练分割图像的类别标签和标准分割图像的类别标签差异,还考虑了待训练卷积神经网络输出的训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,从而使训练分割图像与标准分割图像的差异体现的更加全面,根据这种全面的差异对待训练卷积神经网络进行训练,得到的目标卷积神经网络的准确率更高,从而实现更好的分割效果。
参考图1所示,为本申请实施例提供的一种卷积神经网络训练方法的流程图,该方法包括以下步骤。
S101,获取待分割图像以及待分割图像的标准分割图像。
待分割图像是图像分割过程中的作用对象,可以是彩色图,也可以是灰度图,通过图像分割可以为待分割图像中的像素赋予各自的类别标签,从而使生成的分割图像携带有类别标签。
待分割图像的标准分割图像是想要通过卷积神经网络得到的待分割图像对应的分割后的图像,待分割图像的标准分割图像中,各像素携带有类别标签,该类别标签可以是通过人工对待分割图像进行识别并添加的,也可以是通过其他方式添加的。
类别标签是用来区分不同类别的标签,在对像素进行分割后,相同类别的像素可以携带有相同的类别标签,不同类别的像素可以携带有不同的类别标签。类别标签可以通过颜色体现出来,不同的类别标签对应不同的颜色。类别标签例如可以是对应的颜色的像素值,例如红色的像素值为(255,0,0),也可以是颜色的名称或者代号,例如可以用“r”来表示红色,用“g”来表示绿色,类别标签还可以是其他形式。
举例来说,参考图2所示,图2(a)所示为待分割图像,其主要内容是人骑着一匹马,为待分割图像中的像素赋予类别标签后形成标准分割图像,其呈现出来的图像可以参考图2(b)所示,其中,人所在的区域内的像素携带的类别标签对应的颜色为浅灰色,马所在的区域内的像素携带的类别标签对应的颜色为深灰色,人的区域和马的区域之外的其他区域为背景区域,背景区域内的像素携带的类别标签对应的颜色为黑色。
S102,根据标准分割图像各像素携带的类别标签对应的颜色获取标准分割图像的纹理特征。
标准分割图像的纹理特征可以通过对图像的像素信息进行统计来获取,例如具有特定类别标签的像素的相对距离和方向特征等,也可以通过其他方式来获取。标准分割图像的纹理特征是用来反映标准分割图像的像素分布的,例如标准分割图像中人物所在的区域内的像素携带的类别标签对应的颜色为红色,则在该人物所在的区域中,对于各个距离和方向上的像素,其类别标签均相同,其对应的颜色均为红色。
标准分割图像的纹理特征可以通过多种方式获取,例如灰度共生矩阵(Gray-Level Co-occurrence Matrix,GLCM)、局部二值模式(Local Binary Patterns,LBP)等方式。灰度共生矩阵是对图像的一种统计特征,在一定程度上可以反映图像的纹理特征,下面以灰度共生矩阵为例,对标准分割图像的纹理特征的获取进行介绍。
具体的,如果标准分割图像是彩色图,可以将其转换为灰度图,再根据转换后的标准分割图像的灰度值得到图像的灰度共生矩阵。灰度共生矩阵H(i,j,d,θ)的计算公式可以为:
H(i,j,d,θ)=p(i,j)=m/n,
其中,i和j表示灰度值,其范围为0~255;d表示标准分割图像中的像素的距离,可以是小于标准分割图像的长度、宽度或斜边的正整数,d的取值大小可以和θ相关;θ表示两个像素的相对方向,可以是相对于竖直方向的夹角,也可以是相对于水平方向的夹角,例如相对于水平方向向右方向的夹角,例如θ为0°表示水平方向,θ为45°表示右上方的对角线方向;m表示标准分割图像中满足预设条件的像素对的数量,以第一像素和在θ方向上与第一像素距离为d个像素的第二像素构成像素对为例,预设条件可以是:标准分割图像中的第一像素的灰度值为i,且第二像素的灰度值为j;n表示标准分割图像中在θ方向上距离为d个像素的像素对的总数量,即第一像素和第二像素构成的像素对的数量;p(i,j)表示标准分割图像中,在θ方向上满足预设条件的像素对出现的概率。
举例来说,若i=50,j=50,d=1,θ=0°,第二像素在第一像素的右侧,且与第一像素的距离为1个像素,预设条件为:第一像素的像素值为50,第二像素的像素值为50。标准分割图像中的像素的像素值为则在第一行中水平方向上距离为1的像素对总共有2对,同理,第二行和第三行中水平方向上距离为1的像素对均有2对,则可以确定n=6;在这6对像素对中,满足预设条件的只有第一行第一个像素和第二个像素构成的像素对,以及第三行第二个像素和第三个像素构成的像素对,即m=2,由此可知,
H(50,50,1,0)=p(50,50)=1/3。
实际操作中,还可以通过对d和θ进行设置,得到不同的p(i,j),可选的,可以将得到的p(i,j)求平均值,得到最终的p(i,j)的值。
在得到标准分割图像的灰度共生矩阵后,根据标准分割图像的灰度共生矩阵计算标准分割图像的熵(Entropy,ENT),标准分割图像的熵可以作为标准分割图像具有的信息量的度量,用于表示标准分割图像的复杂程度,当复杂程度很高时,熵值较大,反之则较小。标准分割图像的熵值ENT的计算公式可以为:
其中,log p(i,j)为p(i,j)的对数,即标准分割图像的熵值ENT为将标准分割图像中在θ方向上满足预设条件的像素对出现的概率p(i,j)和log p(i,j)的乘积沿着i和j进行求和,得到的和的相反数为标准分割图像的熵值ENT。
对于不同d和θ得到的标准分割图像的p(i,j),也可以分别根据p(i,j)值求熵值,各个熵值可以组成熵值向量。
S103,将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像。
待训练卷积神经网络是具有初始化的模型参数的卷积神经网络,初始化的模型参数可以由用户设置,也可以是自动设置的。模型参数表示待训练卷积神经网络的特性,修改模型参数可以改变待训练卷积神经网络的功能,实现对待训练卷积神经网络的更新。
将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像,训练分割图像是通过待训练卷积神经网络中的算法对待分割图像进行分析,并根据分析结果对待分割图像的像素添加类别标签得到的。
另外,输入到待训练卷积神经网络进行图像分割的待分割图像可以是多个,可以在输入的待分割图像的数量达到预设个时,进行对待分割图像的分割,其中,每个待分割图像携带有图像标签,便于与得到的训练分割图像一一对应。
S104,根据训练分割图像各像素携带的类别标签对应的颜色获取训练分割图像的纹理特征。
训练分割图像的纹理特征可以通过图像的像素信息进行统计来获取,例如具有特定类别标签的像素的相对距离和方向特征等,也可以通过其他方式获取,训练分割图像的纹理特征是用来反应训练分割图像的像素分布的。
类比于标准分割图像的纹理特征的获取方式,训练分割图像的纹理特征的获取方式也可以通过灰度共生矩阵、局部二值模式等方式。通过灰度共生矩阵获取训练分割图像的纹理特征的过程,可以参考S102中通过灰度共生矩阵获取标准分割图像的纹理特征的过程,在此不再赘述。
S105,根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练,得到目标卷积神经网络。
由于训练分割图像是待分割图像通过待训练卷积神经网络进行图像分割得到的,其分割的效果是与待训练卷积神经网络的模型参数相关的,由于待训练卷积神经网络的模型参数是通过初始化生成的,通常对应的分割效果较差。而标准分割图像是想通过卷积神经网络对待分割图像进行分割得到的标准图像,因此可作为训练分割图像的质量的衡量标准,即训练分割图像越接近标准分割图像,训练分割图像的质量越好,对应的待训练卷积神经网络的分割效果越好。
因此,可以根据训练分割图像和标准分割图像之间的差异,对待训练卷积神经网络进行训练,使通过训练的待训练卷积神经网络对待分割图像进行分割得到的训练分割图像能够更接近标准分割图像。
具体的,训练分割图像和标准分割图像之间的差异,可以通过训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异来体现,即可以根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练。
由于训练分割图像与标准分割图像之间各像素的类别标签差异,往往体现训练分割图像与标准分割图像在某一区域内像素的类别标签差异,例如在某一区域内,大部分像素的类别标签相同;而训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,往往体现在某一区域内,其纹理特征上的差异,例如在某一像素周围的像素的类别标签是否与该像素的类别标签相同,因此,通过综合考虑图片的各像素的类别标签差异和纹理特征差异,使训练分割图像与标准分割图像的差异体现的更加全面,根据全面的差异来对待训练卷积神经网络进行训练,可以使得到的目标卷积神经网络的准确率更高,实现更好的分割效果。
作为一种可能的实现方式,可以根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像的之间的各像素的类别标签差异,得到待训练卷积神经网络的损失函数的值,根据损失函数的值更新待训练卷积神经网络的模型参数。
训练分割图像与标准分割图像的之间的各像素的类别标签差异,可以通过第一损失函数的值loss1来表示,若训练分割图像与标准分割图像中的像素的类别标签均为该像素的像素值,则第一损失函数的值loss1可以具体为训练分割图像中的各个像素对应的像素值y2与标准分割图像中的各个像素对应的像素值y1的差的二范数,即
loss1=||y2-y1||,
其中,y1和y2可以都以矩阵的形式体现。
训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,可以通过第二损失函数的值loss2来表示,若训练分割图像与标准分割图像的纹理特征通过各自的熵来表示,则第二损失函数的值loss2可以具体为:训练分割图像的熵值向量ENT(y1)与标准分割图像的熵值向量ENT(y2)的二范数,即
loss2=||ENT(y2)-ENT(y1)||,
其中,ENT(y1)为通过灰度共生矩阵得到的标准分割图像的熵值向量,ENT(y2)为通过灰度共生矩阵得到的训练分割图像的熵值向量。
在得到第一损失函数的值loss1和第二损失函数的值loss2后,训练分割图像与标准分割图像之间的差异,可以通过待训练卷积神经网络的损失函数的值loss来表示,该损失函数的值loss可以是第一损失函数的值loss1和第二损失函数的值loss2直接相加的结果,例如,
loss=loss1+loss2,
也可以是第一损失函数的值loss1和第二损失函数的值loss2进行加权相加的结果,例如,
loss=loss1+λ*loss2,
其中λ为权重值,该权重值可以根据实际情况而确定。
在得到图像损失函数的值后,可以根据待训练卷积神经网络的损失函数的值更新待训练卷积神经网络的模型参数。具体的,可以通过梯度下降法来最小化待训练卷积神经网络的损失函数,进而更新待训练卷积神经网络的模型参数。
在对待训练卷及神经网络的模型参数进行更新后,得到的新的卷积神经网络,可根据新的卷积神经网络对待分割图像进行分割,得到更新后的训练分割图像,在根据更新后的训练分割图像和标准分割图像的差异,对新的卷积神经网络的模型参数进行更新,在多次模型参数的更新后,得到目标卷积神经网络。
需要说明的是,在对待训练卷积神经网络的模型参数进行初始化时,还可以设置训练的超参数,以便根据训练的超参数对待训练卷积神经网络进行训练,超参数例如可以是训练轮数n、学习率lr和批处理数量bn的其中至少一项。其中训练轮数n是指对模型参数的更新次数,即在对模型参数进行n次更新得到的卷积神经网络即为目标卷积神经网络;学习率lr用于控制基于损失梯度调整模型参数的速度,学习率越小,沿着损失梯度下降的速度越慢;批处理数量bn是表征每一批待分割图像的数量,在输入的待分割图像的数量达到预设个时,进行对待分割图像的分割,进而根据得到的训练分割图像和标准训练图像实现对待训练卷积神经网络的训练。
本申请实施例提供的卷积神经网络训练方法,通过获取待分割图像以及待分割图像的标准分割图像,根据标准分割图像各像素携带的类别标签对应的颜色获取标准分割图像的纹理特征;将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像,根据训练分割图像各像素携带的类别标签对应的颜色获取训练分割图像的纹理特征;根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练,得到目标卷积神经网络。该方法中,对于训练分割图像和标准分割图像的差异的衡量,除了考虑训练分割图像与标准分割图像之间各像素的类别标签差异,还考虑了训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,从而使训练分割图像与标准分割图像的差异体现的更加全面,根据全面的差异来对待训练卷积神经网络进行训练,使得到的目标卷积神经网络的准确率更高,实现更好的分割效果。
基于以上实施例提供的一种卷积神经网络训练方法,本申请实施例还提供了一种卷积神经网络训练装置,下面结合附图来详细说明其工作原理。
参见图3,该图为本申请实施例提供的一种卷积神经网络训练装置的结构框图,该装置包括:
第一图像获取单元,用于获取待分割图像以及所述待分割图像的标准分割图像;
第一纹理特征获取单元,用于根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征;
第二图像获取单元,用于将所述待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像;
第二纹理特征获取单元,用于根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述训练分割图像的纹理特征;
训练单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
可选的,所述训练单元包括:
损失函数获取单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别标签差异,得到所述待训练卷积神经网络的损失函数的值;
参数更新单元,用于根据所述损失函数的值更新所述待训练卷积神经网络的模型参数,得到目标卷积神经网络。
可选的,所述损失函数获取单元具体用于:
对所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异进行加权求和,得到所述待训练卷积神经网络的损失函数的值。
可选的,所述第一纹理特征获取单元具体用于:
根据所述标准分割图像各像素携带的类别标签对应的灰度值得到所述标准分割图像的灰度共生矩阵,根据所述标准分割图像的灰度共生矩阵计算所述标准分割图像的熵;
第二纹理特征获取单元具体用于:
根据所述训练分割图像各像素携带的类别标签对应的灰度值得到所述训练分割图像的灰度共生矩阵,根据所述训练分割图像的灰度共生矩阵计算所述训练分割图像的熵;
所述训练单元具体用于:
根据所述训练分割图像的熵与所述标准分割图像的熵之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
可选的,所述装置还包括:
预设单元,用于预先设置对待训练卷积神经网络进行训练的训练轮数;
所述训练单元具体用于:
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异,以及所述训练轮数对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
本申请实施例提供的卷积神经网络训练装置,通过获取待分割图像以及待分割图像的标准分割图像,根据标准分割图像各像素携带的类别标签对应的颜色获取标准分割图像的纹理特征;将待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像,根据训练分割图像各像素携带的类别标签对应的颜色获取训练分割图像的纹理特征;根据训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,以及训练分割图像与标准分割图像之间各像素的类别标签差异对待训练卷积神经网络进行训练,得到目标卷积神经网络。
该装置中,对于训练分割图像和标准分割图像的差异的衡量,除了考虑训练分割图像与标准分割图像之间各像素的类别标签差异,还考虑了训练分割图像的纹理特征与标准分割图像的纹理特征之间的差异,从而使训练分割图像与标准分割图像的差异体现的更加全面,根据全面的差异来对待训练卷积神经网络进行训练,得到的目标卷积神经网络的准确率更高,从而实现更好的分割效果。
当介绍本申请的各种实施例的元件时,冠词“一”、“一个”、“这个”和“所述”都意图表示有一个或多个元件。词语“包括”、“包含”和“具有”都是包括性的并意味着除了列出的元件之外,还可以有其它元件。
需要说明的是,本领域普通技术人员可以理解实现上述方法实施例中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。其中,所述存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccess Memory,RAM)等。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元及模块可以是或者也可以不是物理上分开的。另外,还可以根据实际的需要选择其中的部分或者全部单元和模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述仅是本申请的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。
Claims (10)
1.一种卷积神经网络训练方法,其特征在于,所述方法包括:
获取待分割图像以及所述待分割图像的标准分割图像;
根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征;
将所述待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像;
根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述训练分割图像的纹理特征;
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
2.根据权利要求1所述的方法,其特征在于,所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,包括:
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别标签差异,得到所述待训练卷积神经网络的损失函数的值,根据所述损失函数的值更新所述待训练卷积神经网络的模型参数。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异,得到所述待训练卷积神经网络的损失函数的值,包括:
对所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异进行加权求和,得到所述待训练卷积神经网络的损失函数的值。
4.根据权利要求1所述的方法,其特征在于,所述根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征,包括:
根据所述标准分割图像各像素携带的类别标签对应的灰度值得到所述标准分割图像的灰度共生矩阵,根据所述标准分割图像的灰度共生矩阵计算所述标准分割图像的熵;
所述根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征,包括:
根据所述训练分割图像各像素携带的类别标签对应的灰度值得到所述训练分割图像的灰度共生矩阵,根据所述训练分割图像的灰度共生矩阵计算所述训练分割图像的熵;
所述根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,包括:
根据所述训练分割图像的熵与所述标准分割图像的熵之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
预先设置对待训练卷积神经网络进行训练的训练轮数;
所述对所述待训练卷积神经网络进行训练包括:
根据所述训练轮数对所述待训练卷积神经网络进行训练。
6.一种卷积神经网络训练装置,其特征在于,所述装置包括:
第一图像获取单元,用于获取待分割图像以及所述待分割图像的标准分割图像;
第一纹理特征获取单元,用于根据所述标准分割图像各像素携带的类别标签对应的颜色获取所述标准分割图像的纹理特征;
第二图像获取单元,用于将所述待分割图像输入到待训练卷积神经网络进行图像分割,得到训练分割图像;
第二纹理特征获取单元,用于根据所述训练分割图像各像素携带的类别标签对应的颜色获取所述训练分割图像的纹理特征;
训练单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
7.根据权利要求6所述的装置,其特征在于,所述训练单元包括:
损失函数获取单元,用于根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别标签差异,得到所述待训练卷积神经网络的损失函数的值;
参数更新单元,用于根据所述损失函数的值更新所述待训练卷积神经网络的模型参数,得到目标卷积神经网络。
8.根据权利要求7所述的装置,其特征在于,所述损失函数获取单元具体用于:
对所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像的之间的各像素的类别差异进行加权求和,得到所述待训练卷积神经网络的损失函数的值。
9.根据权利要求6所述的装置,其特征在于,所述第一纹理特征获取单元具体用于:
根据所述标准分割图像各像素携带的类别标签对应的灰度值得到所述标准分割图像的灰度共生矩阵,根据所述标准分割图像的灰度共生矩阵计算所述标准分割图像的熵;
第二纹理特征获取单元具体用于:
根据所述训练分割图像各像素携带的类别标签对应的灰度值得到所述训练分割图像的灰度共生矩阵,根据所述训练分割图像的灰度共生矩阵计算所述训练分割图像的熵;
所述训练单元具体用于:
根据所述训练分割图像的熵与所述标准分割图像的熵之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
预设单元,用于预先设置对待训练卷积神经网络进行训练的训练轮数;
所述训练单元具体用于:
根据所述训练分割图像的纹理特征与所述标准分割图像的纹理特征之间的差异,以及所述训练分割图像与所述标准分割图像之间各像素的类别标签差异,以及所述训练轮数对所述待训练卷积神经网络进行训练,得到目标卷积神经网络。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810638376.3A CN108765423B (zh) | 2018-06-20 | 2018-06-20 | 一种卷积神经网络训练方法及装置 |
PCT/CN2019/077248 WO2019242329A1 (zh) | 2018-06-20 | 2019-03-07 | 一种卷积神经网络训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810638376.3A CN108765423B (zh) | 2018-06-20 | 2018-06-20 | 一种卷积神经网络训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108765423A true CN108765423A (zh) | 2018-11-06 |
CN108765423B CN108765423B (zh) | 2020-07-28 |
Family
ID=63979512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810638376.3A Active CN108765423B (zh) | 2018-06-20 | 2018-06-20 | 一种卷积神经网络训练方法及装置 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN108765423B (zh) |
WO (1) | WO2019242329A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472789A (zh) * | 2018-11-20 | 2019-03-15 | 北京贝叶科技有限公司 | 一种用于皮肤病理图像处理的神经网络训练方法及装置 |
WO2019242329A1 (zh) * | 2018-06-20 | 2019-12-26 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
WO2020093435A1 (zh) * | 2018-11-08 | 2020-05-14 | 上海市第六人民医院 | 腹部图像分割方法、计算机设备及存储介质 |
CN111192252A (zh) * | 2019-12-30 | 2020-05-22 | 深圳大学 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
CN111415333A (zh) * | 2020-03-05 | 2020-07-14 | 北京深睿博联科技有限责任公司 | 乳腺x射线影像反对称生成分析模型训练方法和装置 |
JP2020135465A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび認識装置 |
CN111915598A (zh) * | 2020-08-07 | 2020-11-10 | 温州医科大学 | 一种基于深度学习的医疗图像处理方法和装置 |
CN112085746A (zh) * | 2020-09-08 | 2020-12-15 | 中国科学院计算技术研究所厦门数据智能研究院 | 一种基于增强特征表示的图像分割方法 |
CN112541463A (zh) * | 2020-12-21 | 2021-03-23 | 上海眼控科技股份有限公司 | 模型训练方法、外观分割方法、设备及存储介质 |
CN112651880A (zh) * | 2020-12-25 | 2021-04-13 | 北京市商汤科技开发有限公司 | 视频数据处理方法及装置、电子设备和存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114255203B (zh) * | 2020-09-22 | 2024-04-09 | 中国农业大学 | 一种鱼苗数量估计方法及系统 |
CN112330607A (zh) * | 2020-10-20 | 2021-02-05 | 精英数智科技股份有限公司 | 基于图像识别技术的煤矸识别方法、装置及系统 |
CN117725942A (zh) * | 2024-02-06 | 2024-03-19 | 浙江码尚科技股份有限公司 | 用于标签纹理防伪的识别预警方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408595A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 一种基于神经网络画风学习的图像渲染方法 |
CN106529568A (zh) * | 2016-10-11 | 2017-03-22 | 浙江工业大学 | 一种基于bp神经网络的珍珠多分类方法 |
EP3171297A1 (en) * | 2015-11-18 | 2017-05-24 | CentraleSupélec | Joint boundary detection image segmentation and object recognition using deep learning |
CN106874840A (zh) * | 2016-12-30 | 2017-06-20 | 东软集团股份有限公司 | 车辆信息识别方法及装置 |
CN107122809A (zh) * | 2017-04-24 | 2017-09-01 | 北京工业大学 | 基于图像自编码的神经网络特征学习方法 |
CN107169956A (zh) * | 2017-04-28 | 2017-09-15 | 西安工程大学 | 基于卷积神经网络的色织物疵点检测方法 |
CN107169974A (zh) * | 2017-05-26 | 2017-09-15 | 中国科学技术大学 | 一种基于多监督全卷积神经网络的图像分割方法 |
CN107330446A (zh) * | 2017-06-05 | 2017-11-07 | 浙江工业大学 | 一种面向图像分类的深度卷积神经网络的优化方法 |
CN107742122A (zh) * | 2017-10-27 | 2018-02-27 | 浙江大华技术股份有限公司 | 一种x光图像的分割方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506761B (zh) * | 2017-08-30 | 2020-01-17 | 山东大学 | 基于显著性学习卷积神经网络的脑部图像分割方法及系统 |
CN107993191B (zh) * | 2017-11-30 | 2023-03-21 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
CN108765423B (zh) * | 2018-06-20 | 2020-07-28 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
-
2018
- 2018-06-20 CN CN201810638376.3A patent/CN108765423B/zh active Active
-
2019
- 2019-03-07 WO PCT/CN2019/077248 patent/WO2019242329A1/zh active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3171297A1 (en) * | 2015-11-18 | 2017-05-24 | CentraleSupélec | Joint boundary detection image segmentation and object recognition using deep learning |
CN106408595A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 一种基于神经网络画风学习的图像渲染方法 |
CN106529568A (zh) * | 2016-10-11 | 2017-03-22 | 浙江工业大学 | 一种基于bp神经网络的珍珠多分类方法 |
CN106874840A (zh) * | 2016-12-30 | 2017-06-20 | 东软集团股份有限公司 | 车辆信息识别方法及装置 |
CN107122809A (zh) * | 2017-04-24 | 2017-09-01 | 北京工业大学 | 基于图像自编码的神经网络特征学习方法 |
CN107169956A (zh) * | 2017-04-28 | 2017-09-15 | 西安工程大学 | 基于卷积神经网络的色织物疵点检测方法 |
CN107169974A (zh) * | 2017-05-26 | 2017-09-15 | 中国科学技术大学 | 一种基于多监督全卷积神经网络的图像分割方法 |
CN107330446A (zh) * | 2017-06-05 | 2017-11-07 | 浙江工业大学 | 一种面向图像分类的深度卷积神经网络的优化方法 |
CN107742122A (zh) * | 2017-10-27 | 2018-02-27 | 浙江大华技术股份有限公司 | 一种x光图像的分割方法及装置 |
Non-Patent Citations (3)
Title |
---|
JALILIAN, E 等: "Domain Adaptation for CNN Based Iris Segmentation", 《2017 INTERNATIONAL CONFERENCE OF THE BIOMETRICS SPECIAL INTEREST GROUP (BIOSIG)》 * |
时永刚 等: "结合深度学习和支持向量机的海马子区图像分割", 《中国图象图形学报》 * |
王海 等: "基于深度卷积神经网络的场景自适应道路分割算法", 《电子与信息学报》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019242329A1 (zh) * | 2018-06-20 | 2019-12-26 | 北京七鑫易维信息技术有限公司 | 一种卷积神经网络训练方法及装置 |
US11302014B2 (en) | 2018-11-08 | 2022-04-12 | Shanghai Sixth People's Hospital | Methods of segmenting an abdominal image, computer apparatuses, and storage mediums |
WO2020093435A1 (zh) * | 2018-11-08 | 2020-05-14 | 上海市第六人民医院 | 腹部图像分割方法、计算机设备及存储介质 |
CN111161274A (zh) * | 2018-11-08 | 2020-05-15 | 上海市第六人民医院 | 腹部图像分割方法、计算机设备 |
CN111161274B (zh) * | 2018-11-08 | 2023-07-07 | 上海市第六人民医院 | 腹部图像分割方法、计算机设备 |
CN109472789A (zh) * | 2018-11-20 | 2019-03-15 | 北京贝叶科技有限公司 | 一种用于皮肤病理图像处理的神经网络训练方法及装置 |
JP2020135465A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび認識装置 |
JP7086878B2 (ja) | 2019-02-20 | 2022-06-20 | 株式会社東芝 | 学習装置、学習方法、プログラムおよび認識装置 |
CN111192252A (zh) * | 2019-12-30 | 2020-05-22 | 深圳大学 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
CN111192252B (zh) * | 2019-12-30 | 2023-03-31 | 深圳大学 | 一种图像分割结果优化方法、装置、智能终端及存储介质 |
CN111415333A (zh) * | 2020-03-05 | 2020-07-14 | 北京深睿博联科技有限责任公司 | 乳腺x射线影像反对称生成分析模型训练方法和装置 |
CN111415333B (zh) * | 2020-03-05 | 2023-12-01 | 北京深睿博联科技有限责任公司 | 乳腺x射线影像反对称生成分析模型训练方法和装置 |
CN111915598A (zh) * | 2020-08-07 | 2020-11-10 | 温州医科大学 | 一种基于深度学习的医疗图像处理方法和装置 |
CN111915598B (zh) * | 2020-08-07 | 2023-10-13 | 温州医科大学 | 一种基于深度学习的医疗图像处理方法和装置 |
CN112085746A (zh) * | 2020-09-08 | 2020-12-15 | 中国科学院计算技术研究所厦门数据智能研究院 | 一种基于增强特征表示的图像分割方法 |
CN112085746B (zh) * | 2020-09-08 | 2024-02-02 | 中国科学院计算技术研究所厦门数据智能研究院 | 一种基于增强特征表示的图像分割方法 |
CN112541463A (zh) * | 2020-12-21 | 2021-03-23 | 上海眼控科技股份有限公司 | 模型训练方法、外观分割方法、设备及存储介质 |
CN112651880A (zh) * | 2020-12-25 | 2021-04-13 | 北京市商汤科技开发有限公司 | 视频数据处理方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019242329A1 (zh) | 2019-12-26 |
CN108765423B (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108765423A (zh) | 一种卷积神经网络训练方法及装置 | |
CN106503693B (zh) | 视频封面的提供方法及装置 | |
CN105279519B (zh) | 基于协同训练半监督学习的遥感影像水体提取方法及系统 | |
CN107832725A (zh) | 基于评价指标的视频封面提取方法及装置 | |
US20190266435A1 (en) | Method and device for extracting information in histogram | |
Dischler et al. | Texture particles | |
CN110070101A (zh) | 植物种类的识别方法及装置、存储介质、计算机设备 | |
CN107330956A (zh) | 一种漫画手绘图无监督上色方法及装置 | |
CN108229279A (zh) | 人脸图像处理方法、装置和电子设备 | |
CN106204690B (zh) | 一种图像处理方法及装置 | |
CN108010034A (zh) | 商品图像分割方法及装置 | |
CN108647634A (zh) | 图像边框查找方法、装置、计算机设备及存储介质 | |
CN109920012A (zh) | 基于卷积神经网络的图像着色系统及方法 | |
CN107358176A (zh) | 基于高分遥感影像区域信息和卷积神经网络的分类方法 | |
CN107516103A (zh) | 一种影像分类方法和系统 | |
CN108229252A (zh) | 一种瞳孔定位方法及系统 | |
CN106339984A (zh) | 基于k均值驱动卷积神经网络的分布式图像超分辨方法 | |
CN107832740A (zh) | 一种远程教学的教学质量评估方法及系统 | |
CN108629762A (zh) | 一种骨龄评测模型减少干扰特征的图像预处理方法及系统 | |
CN109829510A (zh) | 一种产品品质分级的方法、装置和设备 | |
CN108399366A (zh) | 一种基于逐像素分类的遥感图像场景分类提取方法 | |
CN108647696A (zh) | 图片颜值确定方法及装置、电子设备、存储介质 | |
CN114841974A (zh) | 一种水果内部结构无损检测方法、系统、电子设备及介质 | |
CN108764248A (zh) | 图像特征点的提取方法和装置 | |
Chatzistamatis et al. | Image recoloring of art paintings for the color blind guided by semantic segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |