CN112084981B - 一种基于神经网络定制服装的方法 - Google Patents
一种基于神经网络定制服装的方法 Download PDFInfo
- Publication number
- CN112084981B CN112084981B CN202010965835.6A CN202010965835A CN112084981B CN 112084981 B CN112084981 B CN 112084981B CN 202010965835 A CN202010965835 A CN 202010965835A CN 112084981 B CN112084981 B CN 112084981B
- Authority
- CN
- China
- Prior art keywords
- human body
- point
- key point
- neural network
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- A—HUMAN NECESSITIES
- A41—WEARING APPAREL
- A41H—APPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
- A41H1/00—Measuring aids or methods
- A41H1/02—Devices for taking measurements on the human body
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Textile Engineering (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明提供了计算机技术领域的一种基于神经网络定制服装的方法,包括:步骤S10、获取第一人像并记录围度信息;步骤S20、对第一人像进行标注;步骤S30、利用标注的图像对姿态估计模型进行训练,得到第一关键点检测模型;步骤S40、获取第二人像并输入第一关键点检测模型,得到宽厚度尺寸;步骤S50、利用改进的BP神经网络将宽厚度尺寸拟合围度信息,得到围度尺寸;步骤S60、利用MPII对姿态估计模型进行训练迭代,得到第二关键点检测模型;步骤S70、将目标人体图像输入第二关键点检测模型,结合目标人体身高得到长度尺寸;步骤S80、基于围度尺寸以及长度尺寸定制服装。本发明的优点在于:极大的提升了身体尺寸数据获取的便捷性,降低了定制服装的成本。
Description
技术领域
本发明涉及计算机技术领域,特别指一种基于神经网络定制服装的方法。
背景技术
随着时代的发展,电商已成为商业发展的新动力,互联网+系统日益完善,对企业盈利能力的贡献日益突出。淘宝、京东、聚美优品、当当网等购物网站的飞速发展使得线上购物这一新的购物方式进入千家万户,尤其在服装方面购物需求更是日益增多。然而,目前服装电商企业尚不提供个性化定制服装的服务,服装采用通用型号和款式,穿在不同客户身上的效果千差万别,由于服装不合身而引发的退换货率居高不下,这无疑会加剧人们对网购的抗拒,加大退换货带来的成本。
定制服装需要获取客户的身体尺寸数据,针对身体尺寸数据的测量,传统上存在接触式手工测量与非接触式自动测量两种方法。接触式手工测量即人工量体裁衣,并不适合电商企业;非接触式自动测量是利用三维人体扫描仪获取身体尺寸数据,虽然精度高,但存在价格昂贵、维护成本高、不便于移动等缺点,在实际应用中的测量成本比接触式手工测量还高。
因此,如何提供一种基于神经网络定制服装的方法,实现提升身体尺寸数据获取的便捷性,降低定制服装的成本,成为一个亟待解决的问题。
发明内容
本发明要解决的技术问题,在于提供一种基于神经网络定制服装的方法,实现提升身体尺寸数据获取的便捷性,降低定制服装的成本。
本发明是这样实现的:一种基于神经网络定制服装的方法,包括如下步骤:
步骤S10、获取大量的第一人体图像,所述第一人体图像包括正面图像以及侧面图像,并记录各所述第一人体图像对应真实的围度信息;
步骤S20、对各所述第一人体图像的第一人体关键点组进行标注;
步骤S30、利用标注的所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型;
步骤S40、获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的宽厚度尺寸;
步骤S50、利用改进的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;
步骤S60、利用现有的人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;
步骤S70、将目标人体图像输入所述第二关键点检测模型得到第二人体关键点组,基于所述第二人体关键点组以及目标人体身高得到人体长度尺寸;
步骤S80、基于所述人体围度尺寸以及人体长度尺寸定制服装。
进一步地,所述步骤S10中,所述围度信息包括胸围、腰围、臀围、身高。
进一步地,所述步骤S20具体包括:
步骤S21、利用图像标注工具对各所述第一人体图像的第一人体关键点组进行标注,得到json标注文件;所述第一人体关键点组包括头顶点、脚底点、左胸点、右胸点、左腰点、右腰点、左臀点以及右臀点;
步骤S22、利用MaskRCNN算法生成检测人体框选取所述第一人体图像中的人体,获取所述检测人体框的左上角坐标(lx,ly)以及右下角坐标(rx,ry)并计算第一人体图像中的人体范围比例scale以及人体中心坐标center:
scale=(max(rx-lx,ry-ly))/200;
center=[lx+((rx-lx)/2),ly+((ry-ly)/2)];
步骤S23、对所述json标注文件的第一人体关键点组、人体范围比例scale以及人体中心坐标center进行关联后,设定所述json标注文件包括图片名称、关节点是否可见、人体关键点位置、scale以及center的属性。
进一步地,所述步骤S30具体为:
将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍,并在姿态估计模型中加入使所述第一人体图像的长宽均变为原来1/2的卷积层后,利用所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型。
进一步地,所述步骤S40具体为:
获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的第一人体关键点组,进而基于所述第一人体关键点组计算得到包括人体高度、人体宽度、人体厚度、腰宽、腰厚、臀宽、臀厚的宽厚度尺寸,基于人体高度与真实的身高的比例关系,将各所述宽厚度尺寸换算为真实的宽厚度尺寸,并存储至csv表中。
进一步地,所述步骤S50具体包括:
利用改进后的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;
步骤S51、将所述csv表中的数据按1:5的比例划分为检测集和训练集;
步骤S52、设定BP神经网络的学习率:α=α'*d_α^(g_s/d_s);
其中α表示BP神经网络的学习率,α'表示BP神经网络的初始学习率,d_α表示学习率的腐蚀率,g_s表示当前的训练次数,d_s表示学习率更新速度系数;
在BP神经网络中加入归一化函数:
其中i表示检测集和训练集中的样本编号,为正整数;表示第i个样本经过归一化后的输出值;Xi表示第i个样本的初始值;meani表示第i个样本经过relu函数输出数值的均值;varii表示第i个样本经过relu函数输出数值的方差;s表示任意小的正数;
步骤S53、基于所述学习率,将所述检测集、训练集、围度信息输入改进后的BP神经网络进行拟合训练、验证,得到人体围度尺寸。
进一步地,所述步骤S60具体为:
获取现有的人体姿态估计数据集,将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍后,利用所述人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;所述第二关键点检测模型用于检测人体的第二人体关键点组;所述第二人体关键点组包括右踝点、右膝点、右臀点、左踝点、左膝点、左臀点、盆骨点、中心点、颈点、头顶点、右腕点、右肘点、右肩点、左肩点、左肘点以及左腕点。
本发明的优点在于:
通过获取第一人体图像并记录对应真实的围度信息,对所述第一人体图像进行标注,利用标注的第一人体图像对姿态估计模型进行训练得到能检测出第一人体关键点组第一关键点检测模型,再获取未标注过的第二人体图像并输入第一关键点检测模型得到人体关键部位的宽厚度尺寸,将宽厚度尺寸拟合围度信息,得到人体围度尺寸;利用人体姿态估计数据集对姿态估计模型进行训练迭代得到能检测出第二人体关键点组的第二关键点检测模型,将目标人体图像输入第二关键点检测模型得到第二人体关键点组,基于第二人体关键点组以及目标人体身高得到人体长度尺寸;最终利用人体围度尺寸以及人体长度尺寸定制服装,实现身体尺寸数据(人体围度尺寸以及人体长度尺寸)稳定、简便、准确且高效的获取,只需要一张正面图像和一张侧面图像即可快速且准确的获取身体尺寸数据,进而快速定制服装,省去了手动测量的误差和繁琐步骤,极大的提升了身体尺寸数据获取的便捷性,相对于传统上的三维人体扫描仪,极大的降低了定制服装的成本。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1是本发明一种基于神经网络定制服装的方法的流程图。
图2是HRnet算法的示意图。
图3是改进的HRnet算法的检测结果示意图。
图4是改进的BP神经网络算法的正向传播示意图。
具体实施方式
请参照图1至图4所示,本发明一种基于神经网络定制服装的方法的较佳实施例,包括如下步骤:
步骤S10、获取大量的第一人体图像,所述第一人体图像包括正面图像以及侧面图像,并记录各所述第一人体图像对应真实的围度信息;
步骤S20、对各所述第一人体图像的第一人体关键点组进行标注;标注时是对人体姿态估计数据集(MPII)没有标注的人体关键点进行标注,MPII是现有的一个数据集;
步骤S30、利用标注的所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型;所述姿态估计模型为现有的模型的改进,优选为HRnet(Deep High-Resolution Representation Learning for Human Pose Estimation),HRnet模型可以准确的检测出人体的关键点;
步骤S40、获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的宽厚度尺寸;所述第二人体图像包括正面图像以及侧面图像;所述第一人体图像与第二人体图像的尺寸大小相同;获取所述第一人体图像与第二人体图像时,人体直立正对相机,人体中心与相机中心基本在同一水平线上,人体图像中包括整个人体长度;可对所述正面图像以及侧面图像进行编号分组,例如正面图像用1表示,侧面图像用2表示,第一个人的正面图像表示为11,第一个人的侧面图像表示为12,以此类推,用于后续获取人体关键部位尺寸;
步骤S50、利用改进的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;BP神经网络具有很好的非线性映射、自学习、自适应、泛化以及容错能力,能够准确高效的拟合出数据与数据之间的关系;
步骤S60、利用现有的人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;所述姿态估计模型为现有的模型的改进,优选为HRnet,HRnet模型可以准确的检测出人体的关键点,减少了自己标记和采集数据的工作量也提高了关键点检测的准确度;
步骤S70、将目标人体图像输入所述第二关键点检测模型得到第二人体关键点组,基于所述第二人体关键点组以及目标人体身高得到人体长度尺寸;
步骤S80、基于所述人体围度尺寸以及人体长度尺寸定制服装。
所述步骤S10中,所述围度信息包括胸围、腰围、臀围、身高,用于真实数据与图像数据的转换。
所述步骤S20具体包括:
步骤S21、利用图像标注工具对各所述第一人体图像的第一人体关键点组进行标注,得到json标注文件;所述第一人体关键点组包括头顶点、脚底点、左胸点、右胸点、左腰点、右腰点、左臀点以及右臀点;所述图像标注工具优选为labelme;
步骤S22、利用MaskRCNN算法生成检测人体框选取所述第一人体图像中的人体,获取所述检测人体框的左上角坐标(lx,ly)以及右下角坐标(rx,ry)并计算第一人体图像中的人体范围比例scale以及人体中心坐标center:
scale=(max(rx-lx,ry-ly))/200;
center=[lx+((rx-lx)/2),ly+((ry-ly)/2)];
步骤S23、对所述json标注文件的第一人体关键点组、人体范围比例scale以及人体中心坐标center进行关联后,设定所述json标注文件包括图片名称(image)、关节点是否可见(joints_vis)、人体关键点位置(joints)、scale以及center的属性。
所述步骤S30具体为:
将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍,并在姿态估计模型中加入使所述第一人体图像的长宽均变为原来1/2的卷积层后,利用所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型。
模型改进即改变网络的输入和输出。HRnet算法以高分辨率子网络(high-resolution subnetwork)作为第一阶段开始,逐步增加高分辨率到低分辨率的子网,形成更多的阶段,并将多分辨率子网并行连接,进行多次多尺度融合multi-scale fusions,使得每一个高分辨率到低分辨率的表征都从其他并行表示中反复接收信息,从而得到丰富的高分辨率表征。改进时需要在高分辨率图片输入之前增加两个卷积层使得原来模型以256*256作为输入图片变为以1024*1024作为输入模型时的图片大小。原模型中最终将最高分辨的分支作为输出将32通道的高分辨率图片转换为16通道的64*64的高分辨率输出,分别预测16个关键点,因此我们在改进HRnet网络时需要将输出的16通道改为8通道。
在实际应用中只需要输入一张图片即可获得我们所需要的八个关键点的位置,展示在一张1024*1024的图片上。
所述步骤S40具体为:
获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的第一人体关键点组,进而基于所述第一人体关键点组计算得到包括人体高度、人体宽度、人体厚度、腰宽、腰厚、臀宽、臀厚的宽厚度尺寸,基于人体高度与真实的身高的比例关系,将各所述宽厚度尺寸换算为真实的宽厚度尺寸,并存储至csv表中。例如通过计算头顶点和脚底点的差值得到人体高度,通过计算正面图像中左胸点与右胸点的差值得到人体宽度。
所述步骤S50具体包括:
利用改进后的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;
步骤S51、将所述csv表中的数据按1:5的比例划分为检测集和训练集;
步骤S52、设定BP神经网络的学习率:α=α'*d_α^(g_s/d_s);
其中α表示BP神经网络的学习率,α'表示BP神经网络的初始学习率,d_α表示学习率的腐蚀率,g_s表示当前的训练次数,d_s表示学习率更新速度系数;
学习率即不能太高也不能太低,太高会使权值一直在最优点两侧徘徊,使收敛速度大大降低,甚至会跨过最优点一直震荡无法达到最优值,太低会导致收敛速度过慢,且容易的达到局部最优点而非全局最优;故设置了随训练次数变化而变化的学习率,即梯变学习率;通过设定学习率的参数,达到每训练一百次学习率变为原来的0.95倍,随着训练次数的增加学习率慢慢的降低,这样即大大加快了收敛速度,也使精度得到了提升;
在BP神经网络中加入归一化函数:
其中i表示检测集和训练集中的样本编号,为正整数;表示第i个样本经过归一化后的输出值;Xi表示第i个样本的初始值;meani表示第i个样本经过relu函数输出数值的均值;varii表示第i个样本经过relu函数输出数值的方差;s表示任意小的正数,防止分母为0,将/>的输出值均一化到平均值为1,方差为0的范围。加入平均值均值归一化后的BP神经网络,通过对每一层归一化,减少噪音数据的干扰,鲁棒性大大增强;
对每一层的relu函数都加入了一个sigmoid函数,避免了隐藏层数过多而出现的梯度消失现象,又保持了sigmoid函数的鲁棒性,并且训练效果比sigmoid精度更高。
由于训练时参数较多会导致过拟合现象,故引进了正则化,原理是通过加入正则表达式对权值加入限制来减少过拟合。
步骤S53、基于所述学习率,将所述检测集、训练集、围度信息输入改进后的BP神经网络进行拟合训练、验证,得到人体围度尺寸。
所述步骤S60具体为:
获取现有的人体姿态估计数据集,将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍后,利用所述人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;所述第二关键点检测模型用于检测人体的第二人体关键点组;所述第二人体关键点组包括右踝点、右膝点、右臀点、左踝点、左膝点、左臀点、盆骨点、中心点、颈点、头顶点、右腕点、右肘点、右肩点、左肩点、左肘点以及左腕点。
综上所述,本发明的优点在于:
通过获取第一人体图像并记录对应真实的围度信息,对所述第一人体图像进行标注,利用标注的第一人体图像对姿态估计模型进行训练得到能检测出第一人体关键点组第一关键点检测模型,再获取未标注过的第二人体图像并输入第一关键点检测模型得到人体关键部位的宽厚度尺寸,将宽厚度尺寸拟合围度信息,得到人体围度尺寸;利用人体姿态估计数据集对姿态估计模型进行训练迭代得到能检测出第二人体关键点组的第二关键点检测模型,将目标人体图像输入第二关键点检测模型得到第二人体关键点组,基于第二人体关键点组以及目标人体身高得到人体长度尺寸;最终利用人体围度尺寸以及人体长度尺寸定制服装,实现身体尺寸数据(人体围度尺寸以及人体长度尺寸)稳定、简便、准确且高效的获取,只需要一张正面图像和一张侧面图像即可快速且准确的获取身体尺寸数据,进而快速定制服装,省去了手动测量的误差和繁琐步骤,极大的提升了身体尺寸数据获取的便捷性,相对于传统上的三维人体扫描仪,极大的降低了定制服装的成本。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。
Claims (4)
1.一种基于神经网络定制服装的方法,其特征在于:包括如下步骤:
步骤S10、获取大量的第一人体图像,所述第一人体图像包括正面图像以及侧面图像,并记录各所述第一人体图像对应真实的围度信息;
步骤S20、对各所述第一人体图像的第一人体关键点组进行标注;
步骤S30、利用标注的所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型;
步骤S40、获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的宽厚度尺寸;
步骤S50、利用改进的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;
步骤S60、利用现有的人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;
步骤S70、将目标人体图像输入所述第二关键点检测模型得到第二人体关键点组,基于所述第二人体关键点组以及目标人体身高得到人体长度尺寸;
步骤S80、基于所述人体围度尺寸以及人体长度尺寸定制服装;
所述步骤S10中,所述围度信息包括胸围、腰围、臀围、身高;
所述步骤S40具体为:
获取大量的第二人体图像并输入所述第一关键点检测模型,得到人体关键部位的第一人体关键点组,进而基于所述第一人体关键点组计算得到包括人体高度、人体宽度、人体厚度、腰宽、腰厚、臀宽、臀厚的宽厚度尺寸,基于人体高度与真实的身高的比例关系,将各所述宽厚度尺寸换算为真实的宽厚度尺寸,并存储至csv表中;
所述步骤S50具体包括:
利用改进后的BP神经网络将所述宽厚度尺寸拟合围度信息,得到人体围度尺寸;
步骤S51、将所述csv表中的数据按1:5的比例划分为检测集和训练集;
步骤S52、设定BP神经网络的学习率:α=α'*d_α^(g_s/d_s);
其中α表示BP神经网络的学习率,α'表示BP神经网络的初始学习率,d_α表示学习率的腐蚀率,g_s表示当前的训练次数,d_s表示学习率更新速度系数;
在BP神经网络中加入归一化函数:
其中i表示检测集和训练集中的样本编号,为正整数;表示第i个样本经过归一化后的输出值;Xi表示第i个样本的初始值;meani表示第i个样本经过relu函数输出数值的均值;varii表示第i个样本经过relu函数输出数值的方差;s表示任意小的正数;
步骤S53、基于所述学习率,将所述检测集、训练集、围度信息输入改进后的BP神经网络进行拟合训练、验证,得到人体围度尺寸。
2.如权利要求1所述的一种基于神经网络定制服装的方法,其特征在于:所述步骤S20具体包括:
步骤S21、利用图像标注工具对各所述第一人体图像的第一人体关键点组进行标注,得到json标注文件;所述第一人体关键点组包括头顶点、脚底点、左胸点、右胸点、左腰点、右腰点、左臀点以及右臀点;
步骤S22、利用MaskRCNN算法生成检测人体框选取所述第一人体图像中的人体,获取所述检测人体框的左上角坐标(lx,ly)以及右下角坐标(rx,ry)并计算第一人体图像中的人体范围比例scale以及人体中心坐标center:
scale=(max(rx-lx,ry-ly))/200;
center=[lx+((rx-lx)/2),ly+((ry-ly)/2)];
步骤S23、对所述json标注文件的第一人体关键点组、人体范围比例scale以及人体中心坐标center进行关联后,设定所述json标注文件包括图片名称、关节点是否可见、人体关键点位置、scale以及center的属性。
3.如权利要求1所述的一种基于神经网络定制服装的方法,其特征在于:所述步骤S30具体为:
将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍,并在姿态估计模型中加入使所述第一人体图像的长宽均变为原来1/2的卷积层后,利用所述第一人体图像对姿态估计模型进行训练,得到第一关键点检测模型。
4.如权利要求1所述的一种基于神经网络定制服装的方法,其特征在于:所述步骤S60具体为:
获取现有的人体姿态估计数据集,将姿态估计模型的输入尺寸在原始模型输入尺寸上扩大4倍后,利用所述人体姿态估计数据集对姿态估计模型进行训练迭代,得到第二关键点检测模型;所述第二关键点检测模型用于检测人体的第二人体关键点组;所述第二人体关键点组包括右踝点、右膝点、右臀点、左踝点、左膝点、左臀点、盆骨点、中心点、颈点、头顶点、右腕点、右肘点、右肩点、左肩点、左肘点以及左腕点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010965835.6A CN112084981B (zh) | 2020-09-15 | 2020-09-15 | 一种基于神经网络定制服装的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010965835.6A CN112084981B (zh) | 2020-09-15 | 2020-09-15 | 一种基于神经网络定制服装的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112084981A CN112084981A (zh) | 2020-12-15 |
CN112084981B true CN112084981B (zh) | 2023-06-02 |
Family
ID=73737115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010965835.6A Active CN112084981B (zh) | 2020-09-15 | 2020-09-15 | 一种基于神经网络定制服装的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112084981B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114331216B (zh) * | 2022-01-21 | 2022-06-17 | 杭州贝嘟科技有限公司 | 服装尺寸评估方法、电子装置和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019141104A1 (zh) * | 2018-01-19 | 2019-07-25 | 北京市商汤科技开发有限公司 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
CN111160085A (zh) * | 2019-11-19 | 2020-05-15 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN111507184A (zh) * | 2020-03-11 | 2020-08-07 | 杭州电子科技大学 | 基于并联空洞卷积和身体结构约束的人体姿态检测方法 |
-
2020
- 2020-09-15 CN CN202010965835.6A patent/CN112084981B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019141104A1 (zh) * | 2018-01-19 | 2019-07-25 | 北京市商汤科技开发有限公司 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
CN111160085A (zh) * | 2019-11-19 | 2020-05-15 | 天津中科智能识别产业技术研究院有限公司 | 一种人体图像关键点姿态估计方法 |
CN111339903A (zh) * | 2020-02-21 | 2020-06-26 | 河北工业大学 | 一种多人人体姿态估计方法 |
CN111507184A (zh) * | 2020-03-11 | 2020-08-07 | 杭州电子科技大学 | 基于并联空洞卷积和身体结构约束的人体姿态检测方法 |
Non-Patent Citations (2)
Title |
---|
基于BP神经网络的MTM中合体服装样板生成研究;于辉;郑瑞平;;北京服装学院学报(自然科学版)(第01期);全文 * |
基于级联卷积神经网络的服饰关键点定位算法;李锵;姚麟倩;关欣;;天津大学学报(自然科学与工程技术版)(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112084981A (zh) | 2020-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107194987B (zh) | 对人体测量数据进行预测的方法 | |
KR20220066366A (ko) | 예측적 개인별 3차원 신체 모델 | |
CN107111833A (zh) | 快速3d模型适配和人体测量 | |
US20100319100A1 (en) | Simple techniques for three-dimensional modeling | |
Ballester et al. | Data-driven three-dimensional reconstruction of human bodies using a mobile phone app | |
TR201815349T4 (tr) | Geliştirilmiş sanal deneme simülasyonu hizmeti. | |
CN113711269A (zh) | 用于确定身体量度和提供服装尺码推荐的方法和系统 | |
CN112668531A (zh) | 一种基于动作识别的运动姿态矫正方法 | |
Kaashki et al. | Deep learning-based automated extraction of anthropometric measurements from a single 3-D scan | |
CN109508661A (zh) | 一种基于物体检测和姿态估计的举手者检测方法 | |
Lu et al. | Accurate nonrigid 3d human body surface reconstruction using commodity depth sensors | |
CN111445426A (zh) | 一种基于生成对抗网络模型的目标服装图像处理方法 | |
Zhou et al. | Anthropometric body modeling based on orthogonal-view images | |
CN112084981B (zh) | 一种基于神经网络定制服装的方法 | |
Song et al. | Data-driven 3-D human body customization with a mobile device | |
Chi et al. | A new parametric 3D human body modeling approach by using key position labeling and body parts segmentation | |
Xiong et al. | Robust vision-based workout analysis using diversified deep latent variable model | |
Yogaswara et al. | Instance-aware semantic segmentation for food calorie estimation using mask R-CNN | |
CN115953834A (zh) | 面向仰卧起坐的多头注意力姿态估计方法及检测系统 | |
Nourbakhsh Kaashki et al. | A deep learning approach to automatically extract 3d hand measurements | |
Alemany et al. | 3D body modelling and applications | |
Mok et al. | Precise shape estimation of dressed subjects from two-view image sets | |
Liu et al. | New anti-blur and illumination-robust combined invariant for stereo vision in human belly reconstruction | |
Aly et al. | Toward Smart Internet of Things (IoT) for Apparel Retail Industry: Automatic Customer’s Body Measurements and Size Recommendation System using Computer Vision Techniques | |
US20210390727A1 (en) | System and method of use of augmented reality in measuring body circumference for the use of apparel production |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |