CN110362746A - 一种基于美学特征的服装搭配方法 - Google Patents

一种基于美学特征的服装搭配方法 Download PDF

Info

Publication number
CN110362746A
CN110362746A CN201910564831.4A CN201910564831A CN110362746A CN 110362746 A CN110362746 A CN 110362746A CN 201910564831 A CN201910564831 A CN 201910564831A CN 110362746 A CN110362746 A CN 110362746A
Authority
CN
China
Prior art keywords
net
network
item
image
garment coordination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910564831.4A
Other languages
English (en)
Inventor
全红艳
王振
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201910564831.4A priority Critical patent/CN110362746A/zh
Publication of CN110362746A publication Critical patent/CN110362746A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/532Query formulation, e.g. graphical querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/061Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using biological neurons, e.g. biological neurons connected to an integrated circuit
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于美学特征的服装搭配方法,该方法考虑美学特征的情况下,能够为用户提供个性化服装搭配方案,算法由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所发明的方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。

Description

一种基于美学特征的服装搭配方法
技术领域
本发明涉及服装搭配技术领域,具体涉及一种基于美学特征的服装搭配方法,该方法考虑美学特征的情况下,能够为用户提供个性化服装搭配方案,其方法由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所述方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。
背景技术
传统的服装搭配技术采用度量学习的方式挖掘潜在的搭配关系,然而该种方式只能判断成对的服装单品是否搭配,若要形成一套完整的服装搭配,必须要比较多次,因此会带来大量的计算,此外,传统的服装搭配技术在生成搭配方案时,仅仅考虑服装的颜色、纹理、尺寸、面料等因素,没有考虑服装的美学特征,无法保证生成的服装搭配能够符合人们的审美偏好,美学特征是一个抽象的概念且很难定性分析,因此,现有的服装搭配方法很少会将美学特征作为服装搭配的参考,如何建立有效的深度学习模型实现服装搭配是一个亟待解决的实际问题。
发明内容
本发明的目的是针对现有技术的不足,并针对服装搭配中搭配关系及美学特征学习问题,利用深度学习策略,构建神经网络,提供一种有效的服装搭配方法,该方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案,具有更高的实用价值。
实现本发明目的的具体技术方案是:
一种基于美学特征的服装搭配及推荐方法,其特征在于,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,1≤Y≤10,序列中图像分辨率均为f×f的RGB图像,200≤f≤1200,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,10≤b≤15,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,10000≤K≤15000,20000≤S≤25000,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,5≤T≤20,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},3≤L≤10,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299、598或者1196,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,20≤H≤50;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di中每幅图像分辨率均缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512、1024或者2048,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为32、48或者64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512、1024或者2048,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8:1:1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=EDVEVAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,0≤λV≤1,0≤λA≤1;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
本发明具有简单、实用的特点,本发明由搭配关系网络、视觉语义网络及美学特征网络构成,在搭配关系网络中,从现有的套装中挖掘服装单品之间的搭配关系,在视觉语义网络中,从服装的文本描述中学习服装搭配的语义关系,在美学特征网络中挖掘服装搭配的美学特征,所发明的方法能够对用户现有的服装搭配方案进行评价,也能为用户提供视觉协调、符合美学特征的个性化服装搭配方案。
附图说明
图1为本发明服装搭配的美学评分结果图;
图2为本发明生成的仅有图像特征的搭配结果图;
图3为本发明生成的具有图像特征和美学特征的搭配结果图。
具体实施方式
实施例
下面结合附图对本发明进一步说明。
本实施例在PC机上Ubuntu16.0464位操作系统下进行实施,其硬件配置为CPUi5-7500,内存8G,GPUNVIDIAGeForceGTX 1070 8G,深度学习框架采用TensorFlow0.4.1,编程语言采用Python2.7;
实现本发明目的的具体技术方案是:一种基于美学特征的服装搭配方法,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,Y为8,序列中图像分辨率均为f×f的RGB图像,f为299,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,b取12,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,K取13248,S取21889,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,T取10,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},L为8,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,H为30;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di的图像分辨率缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8:1:1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=EDVEVAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,λV和λA均取0.5;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
实验过程中,网络的实现细节与使用的重要超参数如下:F-Net使用预训练的权重进行参数的初始化,D-Net、V-Net和A-Net采用Gaussian方式进行参数的初始化,D-Net中Dropout率取0.7,V-Net和A-Net中Dropout率取0.5,每批次服装搭配样本数为64,优化器采用BPTT优化器,学习率初始值为0.2,之后每经过2个轮次,学习率变为原来的0.5倍。
图1为本发明服装搭配的美学评分结果图,图中给出了5组实验结果,每一行代表一套搭配的评分,评分约定最大值为1.0,最小为0,从图中可看出,在第一行和第二行的搭配中,所有服装单品之间都是视觉协调的,而且都具有统一的美学特征,所以美学评分相对较高;在第三行搭配中,由于某些项目在颜色上不协调,因此美学评分要低于前两组搭配;在第四行和第五行的搭配中,由于服装单品在颜色和纹理上不协调,且分别缺失鞋子和裤子,因此美学评分较低。
图2为本发明生成的仅有图像特征的搭配结果图,图中给出了6组实验结果,其中框内的图像代表已有的服装单品,从图中可以看到,本发明方法可以自动提取已有服装单品的视觉特征,同时学习服装单品之间的搭配关系,最终为用户生成视觉协调的服装搭配。
图3为本发明生成的具有图像特征和美学特征的搭配结果图,图中给出了6组实验结果,左边第一列为给定的服装单品,在提供的美学特征文本的基础上,本发明方法可以根据提供的美学特征生成视觉协调且符合个人审美偏好的服装搭配。

Claims (1)

1.一种基于美学特征的服装搭配方法,其特征在于,该方法输入一个服装单品的图像序列,序列中具有Y幅图像,1≤Y≤10,序列中图像分辨率均为f×f的RGB图像,200≤f≤1200,具体包括以下步骤:
步骤1:构建服装搭配数据集R
收集数据前,定义b个美学特征关键词,10≤b≤15,再根据这些关键词从shoplook.io和ssense.com网站分别收集K组和S组服装搭配的图像数据,10000≤K≤15000,20000≤S≤25000,收集的所有组图像数据要满足条件:包含一个美学特征关键词Bi且用户满意度的投票数大于T,其中,1≤i≤b,5≤T≤20,利用这些组数据构建服装搭配数据集R,每组数据Di包含L幅服装单品图像{Ik|0≤k≤L-1},3≤L≤10,0≤i≤K+S-1,每组的单品图像都包含以下服装类别的有序服装实例:上衣、裤子、鞋子、帽子,收集的Ik都附有与类别相关的文本描述句子Ck,0≤k≤L-1,将Ck分割成q个描述性单词{Wi|0≤i≤q-1},2≤q≤50;
将R的各组图像缩放为N×N,N为299、598或者1196,统计R中所有描述性单词的词频,从Ck中删除词频低于H的描述性单词,20≤H≤50;
步骤2:构建神经网络
神经网络构建包括四个部分:特征提取网络F-Net、搭配关系网络D-Net、视觉语义网络V-Net及美学特征网络A-Net;
将Di中每幅图像分辨率均缩放到299×299,张量形状为299×299×3,然后输入到F-Net,F-Net的输出结果是Di组内每幅图像提取的特征{Ak|0≤k≤L-1},其张量形状为h×1,h为512、1024或者2048,把F-Net输出的特征输入到D-Net、V-Net及A-Net;
对于D-Net的结构设置为双向LSTM,输出的是搭配单品在J个候选单品中出现的概率,其中LSTM前向预测的概率为Pt,后向预测的概率为Qt,输出的张量形状均为J×1,J为32、48或者64;
对于V-Net的输入,除了F-Net输出的特征以外,还有{Ck|0≤k≤L-1},输出是F-Net输出特征的编码{Uk|0≤k≤L-1}以及利用词袋模型编码得到的文本特征向量{Vk|0≤k≤L-1},Uk和Vk的张量形状都为h×1;
A-Net的输出为网络预测的Di的美学特征Oi,1≤i≤b,张量形状为b×1;
在网络结构设置时,F-Net采用Inceptionv3的网络结构,将最后一个全连接层的神经元个数设为h,D-Net设置为单层的双向LSTM网络,含h个隐藏单元,V-Net设置为单层的全连接结构,神经元个数为h,全连接层输出的结果采用ReLU函数进行激活;A-Net设置为3层全连接结构,神经元的个数分别为G、G、b,其中G为512、1024或者2048,前两个全连接层输出的结果采用ReLU函数进行激活;
步骤3:神经网络的训练
将R按照8∶1∶1的比例划分为训练集,评估集和测试集,利用训练集训练网络模型,利用评估集,评估训练过程中网络的性能,利用测试集对网络性能进行测试,F-Net、D-Net、V-Net及A-Net的训练过程同时进行,训练的轮次为100次;
D-Net训练时,定义的损失为:
V-Net训练时,定义的损失为:
其中,k≠i,m代表两个特征向量之间距离的阈值,0.1≤m≤0.5,d表示两个特征向量之间的Cosine距离,Vi是Uk对应单品的同组其它单品的文本特征,假设Ui是Vk对应单品的同组其它单品的图像特征;
对A-Net进行训练时,定义的损失为:
训练模型的总损失为:
E=EDVEVAEA#(4)
其中,λV和λA分别表示损失EV和EA的权重系数,0≤λV≤1,0≤λA≤1;
步骤4:服装搭配操作
从R中选取多幅不同种类的服装单品图像,构成服装搭配初始图像序列,利用序列中第一个候选单品,利用已经训练好的网络,生成初始搭配方案,再将初始图像序列中其它候选单品替换初始搭配方案中的单品,将得到的单品序列输入到网络中,从D-Net的双向LSTM输出的图像序列得到最终的服装搭配方案。
CN201910564831.4A 2019-06-27 2019-06-27 一种基于美学特征的服装搭配方法 Pending CN110362746A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910564831.4A CN110362746A (zh) 2019-06-27 2019-06-27 一种基于美学特征的服装搭配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910564831.4A CN110362746A (zh) 2019-06-27 2019-06-27 一种基于美学特征的服装搭配方法

Publications (1)

Publication Number Publication Date
CN110362746A true CN110362746A (zh) 2019-10-22

Family

ID=68217118

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910564831.4A Pending CN110362746A (zh) 2019-06-27 2019-06-27 一种基于美学特征的服装搭配方法

Country Status (1)

Country Link
CN (1) CN110362746A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111400525A (zh) * 2020-03-20 2020-07-10 中国科学技术大学 基于视觉组合关系学习的时尚服装智能搭配与推荐方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111400525A (zh) * 2020-03-20 2020-07-10 中国科学技术大学 基于视觉组合关系学习的时尚服装智能搭配与推荐方法
CN111400525B (zh) * 2020-03-20 2023-06-16 中国科学技术大学 基于视觉组合关系学习的时尚服装智能搭配与推荐方法

Similar Documents

Publication Publication Date Title
US11080918B2 (en) Method and system for predicting garment attributes using deep learning
Song et al. Uncertain graph neural networks for facial action unit detection
Mankad et al. Structural and functional discovery in dynamic networks with non-negative matrix factorization
Phan et al. Color orchestra: Ordering color palettes for interpolation and prediction
CN110110181A (zh) 一种基于用户风格和场景偏好的服装搭配推荐方法
CN107391709A (zh) 一种基于新型注意模型进行图像字幕生成的方法
CN108960959A (zh) 基于神经网络的多模态互补服装搭配方法、系统及介质
CN110909754A (zh) 一种属性生成对抗网络及基于该网络的搭配服饰生成方法
Li et al. Product innovation concept generation based on deep learning and Kansei engineering
Massiceti et al. Visual dialogue without vision or dialogue
Shao et al. Clustering on multi-source incomplete data via tensor modeling and factorization
CN110414433A (zh) 图像处理方法、装置、存储介质和计算机设备
Zhao et al. An end-to-end framework for clothing collocation based on semantic feature fusion
CN108446605A (zh) 复杂背景下双人交互行为识别方法
CN116012094A (zh) 一种深度图匹配网络及基于该网络的时尚搭配推荐方法
Zhou et al. Personalized and occupational-aware age progression by generative adversarial networks
CN111400525A (zh) 基于视觉组合关系学习的时尚服装智能搭配与推荐方法
Shahzad et al. Role of zoning in facial expression using deep learning
CN105138610A (zh) 一种基于图像元素的图像特征值预测方法和装置
Xu Mt-resnet: a multi-task deep network for facial attractiveness prediction
CN110362746A (zh) 一种基于美学特征的服装搭配方法
CN112699261A (zh) 一种服装图像自动生成系统及方法
Chen et al. SketchTrans: Disentangled prototype learning with transformer for sketch-photo recognition
CN107577681B (zh) 一种基于社交媒体图片的地域分析、推荐方法及系统
Zhang et al. Age group classification in the wild with deep RoR architecture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191022