CN110362746A - 一种基于美学特征的服装搭配方法 - Google Patents
一种基于美学特征的服装搭配方法 Download PDFInfo
- Publication number
- CN110362746A CN110362746A CN201910564831.4A CN201910564831A CN110362746A CN 110362746 A CN110362746 A CN 110362746A CN 201910564831 A CN201910564831 A CN 201910564831A CN 110362746 A CN110362746 A CN 110362746A
- Authority
- CN
- China
- Prior art keywords
- net
- network
- item
- image
- garment coordination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000012549 training Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 210000002569 neuron Anatomy 0.000 claims description 8
- 239000002356 single layer Substances 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 241001269238 Data Species 0.000 claims description 2
- 210000005036 nerve Anatomy 0.000 claims 1
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/061—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于美学特征的服装搭配方法,该方法考虑美学特征的情况下,能够为用户提供个性化服装搭配方案,算法由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所发明的方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。
Description
技术领域
本发明涉及服装搭配技术领域,具体涉及一种基于美学特征的服装搭配方法,该方法考虑美学特征的情况下,能够为用户提供个性化服装搭配方案,其方法由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所述方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。
背景技术
传统的服装搭配技术采用度量学习的方式挖掘潜在的搭配关系,然而该种方式只能判断成对的服装单品是否搭配,若要形成一套完整的服装搭配,必须要比较多次,因此会带来大量的计算,此外,传统的服装搭配技术在生成搭配方案时,仅仅考虑服装的颜色、纹理、尺寸、面料等因素,没有考虑服装的美学特征,无法保证生成的服装搭配能够符合人们的审美偏好,美学特征是一个抽象的概念且很难定性分析,因此,现有的服装搭配方法很少会将美学特征作为服装搭配的参考,如何建立有效的深度学习模型实现服装搭配是一个亟待解决的实际问题。
发明内容
本发明的目的是针对现有技术的不足,并针对服装搭配中搭配关系及美学特征学习问题,利用深度学习策略,构建神经网络,提供一种有效的服装搭配方法,该方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案,具有更高的实用价值。
实现本发明目的的具体技术方案是:
一种基于美学特征的服装搭配及推荐方法,其特征在于,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,1≤Y≤10,序列中图像分辨率均为f×f的RGB图像,200≤f≤1200,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,10≤b≤15,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,10000≤K≤15000,20000≤S≤25000,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,5≤T≤20,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},3≤L≤10,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299、598或者1196,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,20≤H≤50;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di中每幅图像分辨率均缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512、1024或者2048,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为32、48或者64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512、1024或者2048,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8:1:1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=ED+λVEV+λAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,0≤λV≤1,0≤λA≤1;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
本发明具有简单、实用的特点,本发明由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所发明的方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。
附图说明
图1为本发明服装搭配的美学评分结果图;
图2为本发明生成的仅有图像特征的搭配结果图;
图3为本发明生成的具有图像特征和美学特征的搭配结果图。
具体实施方式
实施例
下面结合附图对本发明进一步说明。
本实施例在PC机上Ubuntu16.0464位操作系统下进行实施,其硬件配置为CPUi5-7500,内存8G,GPUNVIDIAGeForceGTX 1070 8G,深度学习框架采用TensorFlow0.4.1,编程语言采用Python2.7;
实现本发明目的的具体技术方案是:一种基于美学特征的服装搭配方法,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,Y为8,序列中图像分辨率均为f×f的RGB图像,f为299,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,b取12,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,K取13248,S取21889,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,T取10,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},L为8,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,H为30;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di的图像分辨率缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8:1:1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=ED+λVEV+λAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,λV和λA均取0.5;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
实验过程中,网络的实现细节与使用的重要超参数如下:F-Net使用预训练的权重进行参数的初始化,D-Net、V-Net和A-Net采用Gaussian方式进行参数的初始化,D-Net中Dropout率取0.7,V-Net和A-Net中Dropout率取0.5,每批次服装搭配样本数为64,优化器采用BPTT优化器,学习率初始值为0.2,之后每经过2个轮次,学习率变为原来的0.5倍。
图1为本发明服装搭配的美学评分结果图,图中给出了5组实验结果,每一行代表一套搭配的评分,评分约定最大值为1.0,最小为0,从图中可看出,在第一行和第二行的搭配中,所有服装单品之间都是视觉协调的,而且都具有统一的美学特征,所以美学评分相对较高;在第三行搭配中,由于某些项目在颜色上不协调,因此美学评分要低于前两组搭配;在第四行和第五行的搭配中,由于服装单品在颜色和纹理上不协调,且分别缺失鞋子和裤子,因此美学评分较低。
图2为本发明生成的仅有图像特征的搭配结果图,图中给出了6组实验结果,其中框内的图像代表已有的服装单品,从图中可以看到,本发明方法可以自动提取已有服装单品的视觉特征,同时学习服装单品之间的搭配关系,最终为用户生成视觉协调的服装搭配。
图3为本发明生成的具有图像特征和美学特征的搭配结果图,图中给出了6组实验结果,左边第一列为给定的服装单品,在提供的美学特征文本的基础上,本发明方法可以根据提供的美学特征生成视觉协调且符合个人审美偏好的服装搭配。
Claims (1)
1.一种基于美学特征的服装搭配方法,其特征在于,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,1≤Y≤10,序列中图像分辨率均为f×f的RGB图像,200≤f≤1200,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,10≤b≤15,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,10000≤K≤15000,20000≤S≤25000,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,5≤T≤20,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},3≤L≤10,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299、598或者1196,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,20≤H≤50;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di中每幅图像分辨率均缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512、1024或者2048,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为32、48或者64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512、1024或者2048,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8∶1∶1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=ED+λVEV+λAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,0≤λV≤1,0≤λA≤1;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910564831.4A CN110362746A (zh) | 2019-06-27 | 2019-06-27 | 一种基于美学特征的服装搭配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910564831.4A CN110362746A (zh) | 2019-06-27 | 2019-06-27 | 一种基于美学特征的服装搭配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110362746A true CN110362746A (zh) | 2019-10-22 |
Family
ID=68217118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910564831.4A Pending CN110362746A (zh) | 2019-06-27 | 2019-06-27 | 一种基于美学特征的服装搭配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110362746A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111400525A (zh) * | 2020-03-20 | 2020-07-10 | 中国科学技术大学 | 基于视觉组合关系学习的时尚服装智能搭配与推荐方法 |
-
2019
- 2019-06-27 CN CN201910564831.4A patent/CN110362746A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111400525A (zh) * | 2020-03-20 | 2020-07-10 | 中国科学技术大学 | 基于视觉组合关系学习的时尚服装智能搭配与推荐方法 |
CN111400525B (zh) * | 2020-03-20 | 2023-06-16 | 中国科学技术大学 | 基于视觉组合关系学习的时尚服装智能搭配与推荐方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080918B2 (en) | Method and system for predicting garment attributes using deep learning | |
Song et al. | Uncertain graph neural networks for facial action unit detection | |
Mankad et al. | Structural and functional discovery in dynamic networks with non-negative matrix factorization | |
Phan et al. | Color orchestra: Ordering color palettes for interpolation and prediction | |
CN110110181A (zh) | 一种基于用户风格和场景偏好的服装搭配推荐方法 | |
CN107391709A (zh) | 一种基于新型注意模型进行图像字幕生成的方法 | |
CN108960959A (zh) | 基于神经网络的多模态互补服装搭配方法、系统及介质 | |
CN110909754A (zh) | 一种属性生成对抗网络及基于该网络的搭配服饰生成方法 | |
Li et al. | Product innovation concept generation based on deep learning and Kansei engineering | |
Massiceti et al. | Visual dialogue without vision or dialogue | |
Shao et al. | Clustering on multi-source incomplete data via tensor modeling and factorization | |
CN110414433A (zh) | 图像处理方法、装置、存储介质和计算机设备 | |
Zhao et al. | An end-to-end framework for clothing collocation based on semantic feature fusion | |
CN108446605A (zh) | 复杂背景下双人交互行为识别方法 | |
CN116012094A (zh) | 一种深度图匹配网络及基于该网络的时尚搭配推荐方法 | |
Zhou et al. | Personalized and occupational-aware age progression by generative adversarial networks | |
CN111400525A (zh) | 基于视觉组合关系学习的时尚服装智能搭配与推荐方法 | |
Shahzad et al. | Role of zoning in facial expression using deep learning | |
CN105138610A (zh) | 一种基于图像元素的图像特征值预测方法和装置 | |
Xu | Mt-resnet: a multi-task deep network for facial attractiveness prediction | |
CN110362746A (zh) | 一种基于美学特征的服装搭配方法 | |
CN112699261A (zh) | 一种服装图像自动生成系统及方法 | |
Chen et al. | SketchTrans: Disentangled prototype learning with transformer for sketch-photo recognition | |
CN107577681B (zh) | 一种基于社交媒体图片的地域分析、推荐方法及系统 | |
Zhang et al. | Age group classification in the wild with deep RoR architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191022 |