CN111445426B - 一种基于生成对抗网络模型的目标服装图像处理方法 - Google Patents
一种基于生成对抗网络模型的目标服装图像处理方法 Download PDFInfo
- Publication number
- CN111445426B CN111445426B CN202010388604.3A CN202010388604A CN111445426B CN 111445426 B CN111445426 B CN 111445426B CN 202010388604 A CN202010388604 A CN 202010388604A CN 111445426 B CN111445426 B CN 111445426B
- Authority
- CN
- China
- Prior art keywords
- image
- sample
- generator
- discriminator
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 230000006870 function Effects 0.000 claims abstract description 41
- 239000011159 matrix material Substances 0.000 claims abstract description 12
- 230000036544 posture Effects 0.000 claims abstract description 7
- 230000008447 perception Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 16
- 238000005070 sampling Methods 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 2
- 230000008485 antagonism Effects 0.000 claims 1
- 230000004927 fusion Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000003042 antagnostic effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/44—Morphing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于生成对抗网络模型的目标服装图像处理方法,包括:将样品标准图像和其对应的各样品区域图像配对形成样品配对图像集;根据样品配对图像集,优化生成对抗网络模型的损失函数参数;将待办区域图像输入生成对抗网络模型,输出模版图像;将待办区域图像拉伸形变输出扭曲图像,使扭曲图像与模版图像边框对齐;通过获取像素权重矩阵,对扭曲图像和模版图像进行融合,输出目标服装图像。本发明通过构建基于感知损失函数的生成对抗网络模型和分步图像融合技术,将不同角度和姿态的服装图像转换为姿态端正和纹理增强的目标服装图像,供智能系统搜索使用,改善了目标服装图像质量,提高了智能系统检索精准度。
Description
技术领域
本发明涉及图像转换领域,尤其涉及一种基于生成对抗网络的目标服装图像的处理方法。
背景技术
随着互联网技术的不断进步与发展,网络购物的用户数量与日俱增。在众多可供浏览与购买的在线商品中服装占据了较大比例与营收份额。在此背景下如何高效地查找、推荐在线服装商品成为了亟待解决的难题。为了完成以上任务,需要一种能够有效获取特定服装区域特征的方法用以保证后续相关系统的精度。
传统的方法一般利用物体检测技术对服装区域进行探测与切割,基于切割出的图像进行进一步的特征抽取,继而完成后续的相关任务。但此种方法常因为原始图像中复杂的背景、人体皮肤区域、服装的不规则形变而引入大量的噪声,影响抽取的服装区域特征的质量。较新的方法(最好有引用)则利用模特图像作为输入,通过图像生成技术生成白色背景的整洁平面服装图像来解决噪音问题。此类方法能有效的去除原始服装区域的各类干扰,保留原始服装的各项属性,具有较大的优势。但现有的平面服装生成技术对于输入图像的角度较为严苛,并且难以还原服装区域纹理图案等特征,影响后续系统性能提升。
发明内容
基于此,本发明的目的在于提供一种基于生成对抗网络模型的目标服装图像处理方法,通过生成对抗网络技术和分步图像融合技术产生具有纹理图案的目标服装图像,解决现有技术中因目标服装图像的纹理缺失导致的智能系统搜索和推荐精准度问题。
为了实现上述目的,本发明采用以下技术方案:
一种基于生成对抗网络模型的目标服装图像处理方法,所述方法包括:构造样品配对图像集,将样品标准图像和其对应的各样品区域图像配对形成样品配对图像集,所述样品标准图像由服装样品的正面平整的原始图像抽取获得,所述样品区域图像由服装样品的其他角度其他姿态原始图像抽取获得;构建并训练生成对抗网络模型,根据所述样品配对图像集,优化生成对抗网络模型的损失函数参数;所述生成对抗网络模型包括生成器、判别器和特征抽取网络;所述生成器包括第一生成器和第二生成器;所述判别器包括第一判别器和第二判别器;所述特征抽取网络参数预先设定,不参与训练;对齐模版图像,将待办服装图像进行抽取获取区域图像,将所述区域图像输入所述生成对抗网络模型获取模版图像;将所述区域图像形变输出扭曲图像,所述扭曲图像与所述模版图像边框对齐;融合模版图像,将所述扭曲图像和所述模版图像输入至Attention UNet网络,通过训练AttentionUNet网络获取像素权重矩阵,根据所述像素权重矩阵对所述扭曲图像和所述模版图像进行融合,输出目标服装图像。
进一步地,所述构建并训练生成对抗网络模型的方法包括:将所述样品区域图像输入第一生成器,转换成平整图像输出至第一判别器,所述第一判别器将所述平整图像与所述样品标准图像进行比对,输出PR1和PF1至特征抽取网络;将所述样品标准图像输入第二生成器,转换成中间图像输出至第二判别器,所述第二判别器将所述中间图像与所述样品区域图像进行比对,输出PR2和PF2至特征抽取网络;所述生成器与所述判别器通过对抗损失函数和循环一致损失函数收敛,所述特征抽取网络通过感知损失函数收敛。
优选地,所述生成器包括残差块与微步卷积,所述残差块用于内部特征学习,所述微步卷积用于编解码操作;所述判别器包括PatchGAN结构,用于对特征区域进行判别,将图像区域各概率进行平均,获取图像为真的概率值。
进一步地,所述将区域图像形变输出扭曲图像的方法包括:在区域图像蒙版和模版图像蒙版的边缘进行顺序采样,获取采样点图像;用薄板样条采样技术计算所述采样点图像的插值函数参数;根据所述插值函数对所述区域图像进行形变,输出扭曲图像,所述扭曲图像与所述模版图像边框对齐。
优选地,所述生成对抗网络基于感知损失函数建立。
优选地,所述对原始图像进行抽取的方法,采用语义分割技术;所述通过训练Attention UNet网络获取像素权重矩阵的方法,采用语义分割技术。
本发明通过上述技术方案达到的有益效果是:
(1)通过基于感知损失函数的生成对抗网络模型,将普通区域图像转换为具有标准角度和姿态的模版图像,能够去除区域图像的形变和扭曲等噪音,解决因摄影角度和服装姿态带来的系统漏检问题;
(2)通过分步图像融合技术,对服装纹理图案还原及增强,提升目标服装图像质量,提高服装系统的检索精准度。
附图说明
图1为本发明提供的目标服装图像处理方法流程图;
图2为本发明的生成对抗网络模型训练逻辑图;
图3为本发明实施例区域图像与模版图像边框对齐方法示意图;
图4为本发明实施例图像融合方法示意图;
图5为本发明实施例生成的目标服装图像效果对比图。
图中各标号表示:
101.样品区域图像;102.样品标准图像;21.区域图像;22.模版图像;23.扭曲图像;24.目标服装图像;31.区域图像蒙版;32.模版图像蒙版;43.特征抽取网络;411.第一生成器;412.第二生成器;421.第一判别器;422.第二判别器;5.采样点图像;6.插值函数;7.Attention UNet网络;8.像素权重矩阵。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例对本发明的具体实施方式作进一步详细描述。应该理解,此处所描述的实施例仅用于解释本发明,但不用于限制本发明的范围。
请参阅图1,图1是本发明提供的一种基于生成对抗网络的目标服装图像处理方法流程图。其中,
步骤S1:构造样品配对图像集,将样品标准图像102和其对应的各样品区域图像101配对形成样品配对图像集,样品标准图像102由服装样品的正面平整的原始图像抽取获得,样品区域图像101由服装样品的其他角度其他姿态原始图像抽取获得。
步骤S2:构建并训练生成对抗网络模型,根据样品配对图像集,优化生成对抗网络模型的损失函数参数;生成对抗网络模型包括生成器、判别器和特征抽取网络43;生成器包括第一生成器411和第二生成器412;判别器包括第一判别器421和第二判别器422;特征抽取网络43参数预先设定,不参与训练。
步骤S3:对齐模版图像22,将待办服装图像进行抽取获取区域图像21,将区域图像21输入生成对抗网络模型获取模版图像22;将区域图像21形变输出扭曲图像23,扭曲图像23与模版图像22边框对齐。
步骤S4:融合模版图像22,将扭曲图像23和模版图像22输入至Attention UNet网络7,通过训练Attention UNet网络7获取像素权重矩阵8,根据像素权重矩阵8对扭曲图像23和模版图像22进行融合,输出目标服装图像24。
上述步骤S1中,本发明实施例中使用到的原始服装图像由Farfetch服装电商平台提供。同款服装的所有原始图像使用相同的身份码进行标识,对原始图像进行语义分割处理,抽取出纯色背景图像,所有的纯色背景图像使用原始图像的身份码;采用人工标定的方式将纯色背景图像进行分类,正面拍摄平整展开的纯色背景图像分类为样品标准图像102,将其他角度其他姿态的纯色背景图像分类为样品区域图像101;将相同身份码的样品标准图像102和样品区域图像101分为一个配对组,各配对组构成样品配对图像集。本发明实施例中,原始图像包括衬衫、T恤、毛衣、牛仔裤、长裤五类服装图像,共10万余张,14839组样品配对图像集。
在上述步骤S2,请参阅图2,图2是本发明的生成对抗网络模型训练逻辑图,构建并训练生成对抗网络模型的方法包括:将样品区域图像101输入第一生成器411,转换成平整图像输出至第一判别器421,第一判别器421将平整图像与样品标准图像102进行比对,返回参数更新第一生成器411;将样品标准图像102输入第二生成器412,转换成中间图像输出至第二判别器422,第二判别器422将中间图像与样品区域图像101进行比对,返回参数更新第二生成器412;生成器与判别器通过对抗损失函数和循环一致损失函数收敛,特征抽取网络43通过感知损失函数收敛。
本发明实施例中,基于循环一致损失函数的生成对抗网络(CycleGAN)的基础上提出了基于感知损失函数的生成对抗网络(ParsingGAN),本发明实施例的ParsingGAN的生成器包括残差块与微步卷积,残差块用于内部特征学习,微步卷积用于编解码操作;本发明实施例的判别器包括PatchGAN结构,用于对特征区域进行判别,将图像区域各概率进行平均,获取图像为真的概率值。
ParsingGAN在训练中,第一生成器411和第一判别器421用于将样品区域图像101转换为样品平整图像,第二生成器412和第二判别器422用于反向将样品标准图像102转化为样品中间图像,并以此判断参数是否满足循环一致损失的要求。两组生成器及判别器采用相同的优化方法进行训练。ParsingGAN采用三种损失函数作为优化目标,其中对抗损失函数用于指导两组生成器及判别器的总体训练过程,保证生成的模版图像22在语义层面上与样品标准图像102保持一致,在训练过程中生成器依靠判别器提供的梯度信息完成参数更新,生成器与判别器交替进行参数优化。循环一致损失函数用于限制生成器的自由度,使输入图像能够被投影至目标空间的合理区域。感知损失函数利用特征抽取网络43对模版图像22和样品标准图像102的特征进行抽取,并计算两特征的差值以产生具体的损失数值,此种损失能够有效增强模版图像22的真实性,确保图像内容处于中心位置。假设区域图像集为x,模版图像集为y,则对抗损失函数的形式可表示为
生成器被要求生成能被判别器判别为真的图像,而判别器被要求尽量正确的对模版图像22与样品标准图像102进行判别。生成器与判别器采用迭代训练的方式进行参数更新使自身性能均匀增加。循环一致损失函数则采用反向映射的形式对模版图像22进行限制,使其与输入的区域图像21保持较强的相关性。此种损失由前向与后向两种子损失构成,前向损失的推断流程可描述为:
x→Gf(x)→Gb(Gf(x))≈x
对应的后向损失可描述为:
y→Gb(y)→Gf(Gb(y))≈y
损失利用L1函数进行具体的数值计算,将两种损失相加即可得到完整的循环一致损失函数,循环一致损失函数形式可表示为:
感知损失用于判断生成的模版图像22与样品标准图像102在特征层面上保持一致,对生成的服装的内容区域与填充的纹理进行限制,感知损失函数的形式可表示为
其中φ代表特征抽取网络43,i代表指定数目池化层之前的卷积层区域,抽取的特征均为特定区域第二层卷积的输出特征。
在上述步骤S3,请参阅图3,图3是本发明实施例区域图像21与模版图像22边框对齐方法示意图,经过ParsingGAN得到的模版图像22是形态良好、无形变褶皱的服装图像,但其纹理细节仍与真实的图像有一定差距,为进一步提升目标服装图像24的质量,本发明采用分步图像融合技术对区域图像21和模版图像22进行对齐与融合。步骤S3对齐模版图像22,将区域图像21形变输出扭曲图像23的方法包括:在区域图像蒙版31和模版图像蒙版32的边缘进行顺序采样,获取采样点图像5;用薄板样条采样技术计算采样点图像5的插值函数6参数;根据插值函数6对区域图像21进行形变,输出扭曲图像23,扭曲图像23与模版图像22边框对齐。
其中,薄板样条函数的损失函数可定义为:
上述步骤S4,请参阅图4,图4为本发明实施例图像融合方法示意图,以扭曲图像23和模版图像22作为融合网络Attention UNet的输入,以模版图像22为基准对AttentionUNet进行训练。根据扭曲图像23和模版图像22的特征差异计算像素权重矩阵8,并利用点乘的形式对扭曲图像23和模版图像22进行融合,图像融合公式可定义为
cf=M⊙ct+(1-M)⊙c′
其中ct为模板图像,c′为扭曲图像23,cf为输出的目标服装图像24。融合网络采用与ParsingGAN中的感知损失一致的损失函数进行训练,获取像素权重矩阵8的方法,采用语义分割技术。
请参阅图5,图5为本发明实施例生成的目标服装图像24效果对比图,从图中可以看出本发明提出的基于生成对抗网络和分步图像融合技术的图像转换方法可以将不同拍摄角度和扭曲姿态的原始服装图像转换为逼近真实的目标服装图像24,提高了服装搜索系统的精准度。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.一种基于生成对抗网络模型的目标服装图像处理方法,其特征在于,所述方法包括:
构造样品配对图像集,将样品标准图像和其对应的各样品区域图像配对形成样品配对图像集,所述样品标准图像由服装样品的正面平整的原始图像抽取获得,所述样品区域图像由服装样品的其他角度其他姿态原始图像抽取获得;
构建并训练生成对抗网络模型,所述生成对抗网络模型包括生成器、判别器和特征抽取网络;所述生成器包括第一生成器和第二生成器;所述判别器包括第一判别器和第二判别器;所述特征抽取网络参数预先设定,不参与训练;
对齐模版图像,将待办服装图像进行抽取获取区域图像,将所述区域图像输入所述生成对抗网络模型获取模版图像;将所述区域图像形变输出扭曲图像,所述扭曲图像与所述模版图像边框对齐;
融合模版图像,将所述扭曲图像和所述模版图像输入至 Attention UNet网络,通过训练 Attention UNet 网络获取像素权重矩阵,根据所述像素权重矩阵对所述扭曲图像和所述模版图像进行融合,输出目标服装图像;
其中,所述构建并训练生成对抗网络模型的方法包括:
将所述样品区域图像输入所述第一生成器,转换成平整图像输出至所述第一判别器,所述第一判别器将所述平整图像与所述样品标准图像进行比对,返回参数更新所述第一生成器;
将所述样品标准图像输入所述第二生成器,转换成中间图像输出至所述第二判别器,所述第二判别器将所述中间图像与所述样品区域图像进行比对,返回参数更新所述第二生成器;
所述生成器与所述判别器通过对抗损失函数和循环一致损失函数收敛,所述特征抽取网络通过感知损失函数收敛;
所述对抗损失函数用于指导所述第一生成器、所述第二生成器以及所述第一判别器和所述第二判别器的总体训练过程,以使生成的模版图像在语义层面上与所述样品标准图像保持一致;所述循环一致损失函数用于限制所述生成器的自由度,使输入的目标服装图像能够被投影至目标空间的合理区域;所述感知损失函数用于利用所述特征抽取网络对所述模版图像和所述样品标准图像的特征进行抽取,并计算所述模版图像的特征和所述样品标准图像的特征的差值以产生具体的损失数值。
2.根据权利要求1所述的目标服装图像处理方法,其特征在于,所述生成器包括残差块与微步卷积,所述残差块用于内部特征学习,所述微步卷积用于编解码操作;所述判别器包括 PatchGAN 结构,用于对特征区域进行判别,将图像区域各概率进行平均,获取图像为真的概率值。
3.根据权利要求1所述的目标服装图像处理方法,其特征在于,所述将区域图像形变输出扭曲图像的方法包括:
在区域图像蒙版和模版图像蒙版的边缘进行顺序采样,获取采样点图像;
用薄板样条采样技术计算所述采样点图像的插值函数参数;
根据所述插值函数对所述区域图像进行形变,输出扭曲图像,所述扭曲图像与所述模版图像边框对齐。
4.根据权利要求1所述的目标服装图像处理方法,其特征在于,所述生成对抗网络模型基于感知损失函数建立。
5.根据权利要求1所述的目标服装图像处理方法,其特征在于,对原始图像进行抽取的方法,采用语义分割技术;所述通过训练 Attention UNet 网络获取像素权重矩阵的方法,采用语义分割技术。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010388604.3A CN111445426B (zh) | 2020-05-09 | 2020-05-09 | 一种基于生成对抗网络模型的目标服装图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010388604.3A CN111445426B (zh) | 2020-05-09 | 2020-05-09 | 一种基于生成对抗网络模型的目标服装图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111445426A CN111445426A (zh) | 2020-07-24 |
CN111445426B true CN111445426B (zh) | 2023-09-08 |
Family
ID=71652224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010388604.3A Active CN111445426B (zh) | 2020-05-09 | 2020-05-09 | 一种基于生成对抗网络模型的目标服装图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111445426B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022047662A1 (en) * | 2020-09-02 | 2022-03-10 | Intel Corporation | Method and system of neural network object recognition for warpable jerseys with multiple attributes |
CN113361560B (zh) * | 2021-03-22 | 2023-03-24 | 浙江大学 | 一种基于语义的多姿势虚拟试衣方法 |
CN113393550B (zh) * | 2021-06-15 | 2022-09-20 | 杭州电子科技大学 | 一种姿态和纹理引导的时尚服装设计合成方法 |
CN113610736B (zh) * | 2021-07-16 | 2023-09-19 | 华东师范大学 | 基于循环生成对抗残差网络及qtp损失项的黑夜图像增强方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109559287A (zh) * | 2018-11-20 | 2019-04-02 | 北京工业大学 | 一种基于DenseNet生成对抗网络的语义图像修复方法 |
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
-
2020
- 2020-05-09 CN CN202010388604.3A patent/CN111445426B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020029356A1 (zh) * | 2018-08-08 | 2020-02-13 | 杰创智能科技股份有限公司 | 一种基于生成对抗网络的脸部变化预测方法 |
CN109559287A (zh) * | 2018-11-20 | 2019-04-02 | 北京工业大学 | 一种基于DenseNet生成对抗网络的语义图像修复方法 |
Non-Patent Citations (1)
Title |
---|
haijun zhang等.ClothingOut: a category-supervised GAN model for clothing segmentation and retrieval.Neural Computing and Applications.2018,第4519-4530页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111445426A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111445426B (zh) | 一种基于生成对抗网络模型的目标服装图像处理方法 | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN108334816B (zh) | 基于轮廓对称约束生成式对抗网络的多姿态人脸识别方法 | |
CN106570480B (zh) | 一种基于姿势识别的人体动作分类方法 | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN108961675A (zh) | 基于卷积神经网络的跌倒检测方法 | |
CN110399809A (zh) | 多特征融合的人脸关键点检测方法及装置 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN104915684B (zh) | 一种基于鲁棒多平面支持向量机的图像识别方法及装置 | |
US20240193899A1 (en) | Methods of estimating a bare body shape from a concealed scan of the body | |
CN112232134A (zh) | 一种基于沙漏网络结合注意力机制的人体姿态估计方法 | |
CN109920050A (zh) | 一种基于深度学习和薄板样条的单视图三维火焰重建方法 | |
CN115761791A (zh) | 基于2d图像的人体语义预测模块、虚拟换衣模型及方法 | |
Zhang et al. | Warpclothingout: A stepwise framework for clothes translation from the human body to tiled images | |
Wang et al. | KTN: Knowledge transfer network for learning multiperson 2D-3D correspondences | |
Chen et al. | 3D reconstruction of unstructured objects using information from multiple sensors | |
CN114118303A (zh) | 基于先验约束的人脸关键点检测方法及装置 | |
CN111738096B (zh) | 一种基于骨架姿态的人物跟踪方法 | |
CN106599901B (zh) | 基于深度玻尔兹曼机的协同目标分割与行为识别方法 | |
Le et al. | Overlay upper clothing textures to still images based on human pose estimation | |
CN115035343A (zh) | 神经网络训练方法、物品检测方法、装置、设备及介质 | |
CN114821632A (zh) | 一种遮挡行人重识别方法 | |
Fengyi et al. | 3D Garment Design Model Based on Convolution Neural Network and Virtual Reality | |
CN114445649A (zh) | 用多尺度超像素融合检测rgb-d单幅图像阴影的方法 | |
CN111832475A (zh) | 一种基于语义特征的人脸误检筛除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |