CN110853052A - 一种基于深度学习的土家织锦图案图元的分割方法 - Google Patents
一种基于深度学习的土家织锦图案图元的分割方法 Download PDFInfo
- Publication number
- CN110853052A CN110853052A CN201911021862.1A CN201911021862A CN110853052A CN 110853052 A CN110853052 A CN 110853052A CN 201911021862 A CN201911021862 A CN 201911021862A CN 110853052 A CN110853052 A CN 110853052A
- Authority
- CN
- China
- Prior art keywords
- tujia brocade
- tujia
- picture
- pattern
- brocade
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30124—Fabrics; Textile; Paper
Abstract
本发明提供了一种基于深度学习的土家织锦图案图元的分割方法,包括:首先建立用于织锦类图像识别与分割任务的训练数据集;然后设计一个基于卷积神经网络的土家织锦图案分割系统,采用训练数据集对系统进行训练;最后实现对土家织锦图像的图元进行自动识别与分割。本发明的有益效果是:本发明所采用的技术方案可以对原始土家织锦图片进行快速的批量自动分割,且可以在分割的基础上对图像进行理解,从而实现自动分类存储。
Description
技术领域
本发明涉及纺织工业领域,尤其涉及一种基于深度学习的土家织锦图案图元的分割方法。
背景技术
织锦图案纹理特征提取技术起源于上世纪八十年代中期。织锦图案纹理特征提取一般使用图像分割方法。图像分割(Image Segmentation)是将图像划分为多个具有相似特征的、互相没有重叠的同质区域,并提取感兴趣部分的技术与过程。图像分割的结果是图像中的子区域集合,按照某种分量每个子区域内的像素是非常相似的,不同区域之间显示不相似。
在2012年之前的传统图像分割算法大致包括阈值分割法、边缘检测分割法、区域生长及分裂合并分割法、基于图的分割法和活动轮廓模型分割法等。这几种分割法根据各自的优点和缺陷,所应用的图像范围有所不同。从物体图像中得到目标物体的外形轮廓即为轮廓提取,轮廓提取的基本方法是边缘检测,然后根据目标物体的轮廓特点去除杂散的冗余边缘并进行边缘的修补。
随着研究的深入和技术的发展,出现各种新的轮廓提取方法。如先验知识法,数学形态学方法,活动轮廓模型法,神经动力学方法等。
从2006年来,随着大量的关于深度学习的论文被发表,深度学习也在各个领域崭露头角。从传统的DNN(Deep Neural-Network)引申到图像中的CNN(ConvolutionalNeural-Network)及语音领域的RNN(Recursive Neural-Network),都取得了突破性的进展。
深度学习在物体识别中最重要的进展体现在ImageNet挑战赛(ILSVRC)中的图像分类任务。传统计算机视觉方法在这个测试集上最低的top5错误率是26.172%。深度学习技术在ILSVRC2014比赛中获胜,获胜者GoogLeNet将top5错误率降到6.656%。深度学习技术也对图像中的物体检测带来了巨大提升。物体检测是比物体识别更难的任务。一幅图像中可能包含属于不同类别的多个物体,物体检测需要确定每个物体的位置和类别。ILSVRC2013的比赛中赢得物体检测任务的方法使用的依然是手动设计的特征,平均物体检测率,即meanAveraged Precision(mAP),只有22.581%。而深度学习技术在ImageNet挑战赛(ILSVRC2014)中将mAP大幅提高到43.933%。在图像语义分割中,特征的提取将对最后的结果产生直接的影响,而CNN网络中卷积层对于图像特征的提取具有非常好的效果。R.Girshick和J.Donahue基于这样的考虑,提出一种基于深度卷积神经网络AlexNet作为区域特征提取的一种图像语义分割算法R-CNN。该算法将PASCAL VOC 2007图像识别中所有不同类别识别准确率的均值从35.1%提高到了58.5%。
深度学习取得成功的条件之一是大规模训练数据集的支撑。比较著名的图像数据集有CIFAR-10&CIFAR-100、ImageNet、COCO、PASCAL VOC等开源数据集,这些数据集大多是针对图像分类、定位、检测等研究工作的。深度学习模型采用大数据集进行训练可以提高识别的精度,避免数据处理的过拟合。但是这些数据集中都没有专门针对织锦类图像进行分割的训练数据,而采用通用数据集训练出的图像分割模型对织锦图像分割的效果非常差,所以如何建立足够多的带标注训练数据集是研究的关键性问题之一。
发明内容
为了解决上述问题,本发明提供了一种基于深度学习的土家织锦图案图元的分割方法;一种基于深度学习的土家织锦图案图元的分割方法,包括以下步骤:
S101:获取原始土家织锦图片数据,并对所述土家织锦图片数据中的多张图片一一进行标注,进而将标注后的土家织锦图片组合成为原始土家织锦图片数据集;
S102:对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集;
S103:构建土家织锦图案分割系统模型;所述土家织锦图案分割系统具体为:前端使用深度卷积神经网络DCNN输出粗糙的label map,后端使用全连接条件随机场Dense CRF优化前端的输出,得到精细的分割图;
S104:将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;
S105:将待分割识别的土家织锦图片输入至所述训练好的土家织锦图案分割系统模型,得到所述待分割识别的土家织锦图片的分割后的图元及其分类结果。
进一步地,步骤S101中,所述原始土家织锦图片数据包括多张具有土家织锦图案特征的图片;
对所述土家织锦图片数据中的多张图片一一进行标注时,所采用的标注规则及分类方法如下:
首先结合土家织锦图案的特征,将土家织锦图案分为:动物鸟兽类、植物花草类、生活器物类、天象地属类、文字装饰类、几何勾纹类、吉祥综合类和背景;然后,采用预设的RGB值,用不同的颜色来标注各类。
进一步地,步骤S102中,对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集;具体方法为:
对所述原始土家织锦图片数据集中的每张图片,采用数据抖动、图像旋转或者增强RGB特征的Fancy PCA处理手段,对图片随机变换,生成新的图片样本,以将所述原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集。
进一步地,步骤S103中,后端还可使用全连接条件随机场Dense CRF优化前端DCNN网络的输出。
进一步地,步骤S103中,所述土家织锦图案分割系统模型的采用了Google提出的开源网络结构Deeplab V2。
进一步地,步骤S104中,将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;具体方法如下:
将所述新数据集中的图片输入到所述土家织锦图案分割系统模型中进行特征学习,将系统预测的结果和真实标注图进行对比,计算其LOSS值,进而通过BP算法调整网络中各层的权重值,然后进行第二轮训练,如此迭代训练,直到达到预设训练次数或者LOSS值趋于稳定,结束训练,得到训练好的土家织锦图案分割系统模型。
进一步地,在开始训练所述土家织锦图案分割系统模型前,将所述土家织锦图案分割系统模型中的网络各层权值用高斯初始化或者随机初始化为一个分布在(0,1)之间的参数。
进一步地,步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,按照得到的分类结果对所述待分割识别的土家织锦图片进行分类存储,存储到预设的图案数据库中,以便于后续使用。
进一步地,步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,根据分类结果和步骤S101中的不同类别对应的颜色,对分割后的图元进行相应的颜色填充,以便于查看。
本发明提供的技术方案带来的有益效果是:本发明所采用的技术方案可以对原始土家织锦图片进行快速的批量自动分割,且可以在分割的基础上对图像进行理解,从而实现自动分类存储。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例中一种基于深度学习的土家织锦图案图元的分割方法的流程图;
图2是本发明实施例中图像分割的训练数据集示意图;
图3是本发明实施例中数据增强流程图;
图4是本发明实施例中土家织锦图案分割系统模型进行图像分割的具体流程图;
图5是本发明实施例中前端输出网络结构图;
图6是本发明实施例中整体分割系统框图;
图7是本发明实施例中网络模型训练流程图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
本发明的实施例提供了一种基于深度学习的土家织锦图案图元的分割方法。
请参考图1,图1是本发明实施例中一种基于深度学习的土家织锦图案图元的分割方法的流程图,具体包括如下步骤:
S101:获取原始土家织锦图片数据,并对所述土家织锦图片数据中的多张图片一一进行标注,进而将标注后的土家织锦图片组合成为原始土家织锦图片数据集;
S102:对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集;
S103:构建土家织锦图案分割系统模型;所述土家织锦图案分割系统具体为:前端使用深度卷积神经网络DCNN输出粗糙的label map,后端使用全连接条件随机场Dense CRF优化前端的输出,得到精细的分割图;
S104:将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;
S105:将待分割识别的土家织锦图片输入至所述训练好的土家织锦图案分割系统模型,得到所述待分割识别的土家织锦图片的分割后的图元及其分类结果。
步骤S101中,所述原始土家织锦图片数据包括多张具有土家织锦图案特征的图片(可通过网络搜索或者人工采集的方式获取);
对所述土家织锦图片数据中的多张图片(本发明实施例中,共标注了600张图片)一一进行标注时,所采用的标注规则及分类方法如下:
首先结合土家织锦图案的特征,将土家织锦图案分为:动物鸟兽类、植物花草类、生活器物类、天象地属类、文字装饰类、几何勾纹类、吉祥综合类和背景(可根据实际需求进行更多的分类);然后,采用预设的RGB值,用不同的颜色来标注各类,各类对应的RGB值标注规则如下表所示:
R(红色) | G(绿色) | B(蓝色) | |
动物鸟兽类 | 255 | 0 | 0 |
植物花草类 | 0 | 255 | 0 |
生活器物类 | 255 | 255 | 0 |
天象地属类 | 128 | 64 | 0 |
文字装饰类 | 0 | 0 | 255 |
几何勾纹类 | 255 | 0 | 255 |
吉祥综合类 | 186 | 84 | 90 |
背景 | 0 | 0 | 0 |
如图2所示,图2是本发明实施例中图像分割的训练数据集示意图;(a)列是原图,(b)列是对应标注图,(c)列是原图,(d)列是对应标注图。
如图3所示,图3是本发明实施例中数据增强流程图;步骤S102中,对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集(本发明实施例中,扩充后的新数据集共有6000张图片);具体方法为:
对所述原始土家织锦图片数据集中的每张图片,采用数据抖动、图像旋转或者增强RGB特征的Fancy PCA处理手段,对图片随机变换,生成新的图片样本,以将所述原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集。
步骤S103中,后端还可使用全连接条件随机场Dense CRF优化前端DCNN网络的输出。
请参考图4,图4是本发明实施例中土家织锦图案分割系统模型进行图像分割的具体流程图;
步骤S103中,所述土家织锦图案分割系统模型的采用了Google提出的开源网络结构Deeplab V2,Deeplab V2网络结构具有三个特点:(1)使用空洞卷积(hole)扩大感受野,将原始VGG的网络结构中pool4和pool5层的stride由原来的2设置为1,Conv_5的卷积层采用hole算法;(2)使用空洞空间金字塔(ASPP)池化实现多尺度预测和上下文信息提取;(3)后端输出连接一个全连接条件随机场Fully-Connected Conditional Random Fields利用低层的细节信息对分类的局部特征进行优化。
针对输入图像存在不同尺度的目标(8/16/24),采用一个不稳定的空间金字塔池(ASPP)来分割多个尺度的对象(即采用不同尺度的过滤器来处理输入图像),然后将处理后的feature map进行融合。前端输出网络结构图如图5所示。
后端输出连接一个全连接条件随机场Fully-Connected Conditional RandomFields对分割边界进行refine;在所述全连接条件随机场中,标签x的能量函数表示为:
上式中,θi(xi)是一元能量项,来自于前端输出,代表着将像素i分成label xi的能量,二元能量项θij(xi,xj)是对像素点i、j同时分割成xi、xj的能量。二元能量项描述像素点与像素点之间的关系,鼓励相似像素分配相同的标签,而相差较大的像素分配不同标签,这样CRF能够使图片尽量在边界处分割;
最小化E(x)能量就可以找到最有可能的分割。
步骤S104中,将所述新数据集输入至所述土家织锦图案分割系统模型前,还可以根据实际需求,将所述新数据集中的图片进行图像预处理,包括对新数据集中的每张图片依次进行灰度化、几何变换和图像增强操作;图像预处理的主要目的是消除图像中无关的信息,恢复有用的真实信息,增强有关信息的可检测性、最大限度地简化数据,从而改进特征提取、图像分割、匹配和识别的可靠性。
步骤S104中,将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;具体方法如下:
将所述新数据集中的图片输入到所述土家织锦图案分割系统模型中进行特征学习,将系统预测的结果和真实标注图进行对比,计算其LOSS值,进而通过BP算法调整网络中各层的权重值,然后进行第二轮训练,如此迭代训练,直到达到预设训练次数或者LOSS值趋于稳定(当LOSS值达到某个值后不再变小或者LOSS值又开始变大),结束训练,得到训练好的土家织锦图案分割系统模型;其中,网络的训练损失(LOSS)为网络最后一层中每个像素的Softmax损失之和。
步骤S104中,在开始训练所述土家织锦图案分割系统模型前,将所述土家织锦图案分割系统模型中的权值用高斯初始化或者随机初始化为一个分布在(0,1)之间的非0参数,也可以使用VGG16网络预训练模型进行权值初始化。
步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,按照得到的分类结果对所述待分割识别的土家织锦图片进行分类存储,存储到预设的图案数据库中,以便于后续使用。
步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,根据分类结果和步骤S101中的不同类别对应的颜色,对分割后的图元进行相应的颜色填充,以便于查看。
整体分割系统框图和流程如图6和图7所示;首先通过数字设备采集传统土家织锦图案,然后进行标准化处理,由于在民间收集的土家织锦时代久远,并且被经常性地使用,所以常常会出现破损和玷污,影响图像展示效果,所以系统会进行适当的图像增强。预处理好的图像输入到基于卷积神经网络的图像分割系统中,利用训练好的网络对土家织锦图案进行识别和分割,最后将分割后的图元进行分类保存。整个系统的重点建立一个基于卷积神经网络的图像分割系统。
本发明的有益效果是:本发明所采用的技术方案可以对原始土家织锦图片进行快速的批量自动分割,且可以在分割的基础上对图像进行理解,从而实现自动分类存储。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:包括以下步骤:
S101:获取原始土家织锦图片数据,并对所述土家织锦图片数据中的多张图片一一进行标注,进而将标注后的土家织锦图片组合成为原始土家织锦图片数据集;
S102:对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集;
S103:构建土家织锦图案分割系统模型;所述土家织锦图案分割系统具体为:前端使用深度卷积神经网络DCNN输出粗糙的label map,后端使用全连接条件随机场Dense CRF优化前端的输出,得到精细的分割图;
S104:将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;
S105:将待分割识别的土家织锦图片输入至所述训练好的土家织锦图案分割系统模型,得到所述待分割识别的土家织锦图片的分割后的图元及其分类结果。
2.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S101中,所述原始土家织锦图片数据包括多张具有土家织锦图案特征的图片;
对所述土家织锦图片数据中的多张图片一一进行标注时,所采用的标注规则及分类方法如下:
首先结合土家织锦图案的特征,将土家织锦图案分为:动物鸟兽类、植物花草类、生活器物类、天象地属类、文字装饰类、几何勾纹类、吉祥综合类和背景;然后,采用预设的RGB值,用不同的颜色来标注各类。
3.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S102中,对所述原始土家织锦图片数据集中的各图片分别进行数据增强处理,以对整个原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集;具体方法为:
对所述原始土家织锦图片数据集中的每张图片,采用数据抖动、图像旋转或者增强RGB特征的Fancy PCA处理手段,对图片随机变换,生成新的图片样本,以将所述原始土家织锦图片数据集进行扩充,得到扩充后的图片更多的新数据集。
4.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S103中,后端还可使用全连接条件随机场Dense CRF优化前端DCNN网络的输出。
5.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S103中,所述土家织锦图案分割系统模型的采用了Google提出的开源网络结构Deeplab V2。
6.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S104中,将所述新数据集输入至所述土家织锦图案分割系统模型,以对所述土家织锦图案分割系统模型进行训练,得到训练好的土家织锦图案分割系统模型;具体方法如下:
将所述新数据集中的图片输入到所述土家织锦图案分割系统模型中进行特征学习,将系统预测的结果和真实标注图进行对比,计算其LOSS值,进而通过BP算法调整网络中各层的权重值,然后进行第二轮训练,如此迭代训练,直到达到预设训练次数或者LOSS值趋于稳定,结束训练,得到训练好的土家织锦图案分割系统模型。
7.如权利要求6所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:在开始训练所述土家织锦图案分割系统模型前,将所述土家织锦图案分割系统模型中的网络各层权值用高斯初始化或者随机初始化为一个分布在(0,1)之间的参数。
8.如权利要求1所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,按照得到的分类结果对所述待分割识别的土家织锦图片进行分类存储,存储到预设的图案数据库中,以便于后续使用。
9.如权利要求2所述的一种基于深度学习的土家织锦图案图元的分割方法,其特征在于:步骤S105中,得到所述待分割识别的土家织锦图片的分割后的图元及其分类后,根据分类结果和步骤S101中的不同类别对应的颜色,对分割后的图元进行相应的颜色填充,以便于查看。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911021862.1A CN110853052A (zh) | 2019-10-25 | 2019-10-25 | 一种基于深度学习的土家织锦图案图元的分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911021862.1A CN110853052A (zh) | 2019-10-25 | 2019-10-25 | 一种基于深度学习的土家织锦图案图元的分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110853052A true CN110853052A (zh) | 2020-02-28 |
Family
ID=69597218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911021862.1A Pending CN110853052A (zh) | 2019-10-25 | 2019-10-25 | 一种基于深度学习的土家织锦图案图元的分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110853052A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112199572A (zh) * | 2020-11-09 | 2021-01-08 | 广西职业技术学院 | 一种京族图案收集整理系统 |
CN112287773A (zh) * | 2020-10-10 | 2021-01-29 | 国家电网有限公司 | 一种基于卷积神经网络的一次接线图图元识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751446A (zh) * | 2015-01-06 | 2015-07-01 | 金陵科技学院 | 一种基于数字图案特征的扎染工艺预测方法 |
US9697433B1 (en) * | 2015-06-03 | 2017-07-04 | Amazon Technologies, Inc. | Pixel-structural reference image feature extraction |
CN107564025A (zh) * | 2017-08-09 | 2018-01-09 | 浙江大学 | 一种基于深度神经网络的电力设备红外图像语义分割方法 |
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN109272500A (zh) * | 2018-09-27 | 2019-01-25 | 西安电子科技大学 | 基于自适应卷积神经网络的织物分类方法 |
-
2019
- 2019-10-25 CN CN201911021862.1A patent/CN110853052A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751446A (zh) * | 2015-01-06 | 2015-07-01 | 金陵科技学院 | 一种基于数字图案特征的扎染工艺预测方法 |
US9697433B1 (en) * | 2015-06-03 | 2017-07-04 | Amazon Technologies, Inc. | Pixel-structural reference image feature extraction |
CN107564025A (zh) * | 2017-08-09 | 2018-01-09 | 浙江大学 | 一种基于深度神经网络的电力设备红外图像语义分割方法 |
CN108062756A (zh) * | 2018-01-29 | 2018-05-22 | 重庆理工大学 | 基于深度全卷积网络和条件随机场的图像语义分割方法 |
CN109272500A (zh) * | 2018-09-27 | 2019-01-25 | 西安电子科技大学 | 基于自适应卷积神经网络的织物分类方法 |
Non-Patent Citations (1)
Title |
---|
赵海英: "基于双层模型的宫廷服饰龙纹自动分割算法研究", 《图学学报》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112287773A (zh) * | 2020-10-10 | 2021-01-29 | 国家电网有限公司 | 一种基于卷积神经网络的一次接线图图元识别方法 |
CN112199572A (zh) * | 2020-11-09 | 2021-01-08 | 广西职业技术学院 | 一种京族图案收集整理系统 |
CN112199572B (zh) * | 2020-11-09 | 2023-06-06 | 广西职业技术学院 | 一种京族图案收集整理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110428428B (zh) | 一种图像语义分割方法、电子设备和可读存储介质 | |
CN107680106A (zh) | 一种基于Faster R‑CNN的显著性目标检测方法 | |
US9449253B2 (en) | Learning painting styles for painterly rendering | |
CN108009222B (zh) | 基于较优视图和深度卷积神经网络的三维模型检索方法 | |
CN111476170A (zh) | 一种结合深度学习和随机森林的遥感影像语义分割方法 | |
CN108898138A (zh) | 基于深度学习的场景文本识别方法 | |
CN109934826A (zh) | 一种基于图卷积网络的图像特征分割方法 | |
CN103942571B (zh) | 一种基于遗传规划算法的图形图像分类方法 | |
CN111611972B (zh) | 基于多视图多任务集成学习的作物叶片种类识别方法 | |
CN109741341A (zh) | 一种基于超像素和长短时记忆网络的图像分割方法 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN112101364B (zh) | 基于参数重要性增量学习的语义分割方法 | |
Vallet et al. | A multi-label convolutional neural network for automatic image annotation | |
CN109872331A (zh) | 一种基于深度学习的遥感图像数据自动识别分类方法 | |
CN108268890A (zh) | 一种高光谱图像分类方法 | |
Gonçalves et al. | Carcass image segmentation using CNN-based methods | |
CN112085017B (zh) | 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法 | |
CN110853052A (zh) | 一种基于深度学习的土家织锦图案图元的分割方法 | |
CN112837320A (zh) | 一种基于并行空洞卷积的遥感影像语义分割方法 | |
CN114581451A (zh) | 一种基于散射图神经网络的大脑磁共振图像分割方法 | |
Tan et al. | Rapid fine-grained classification of butterflies based on FCM-KM and mask R-CNN fusion | |
CN116071560A (zh) | 一种基于卷积神经网络的水果识别方法 | |
Rodrigues et al. | Evaluation of Transfer Learning Scenarios in Plankton Image Classification. | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN113361589A (zh) | 基于迁移学习与知识蒸馏的珍稀濒危植物叶片识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200228 |
|
RJ01 | Rejection of invention patent application after publication |