CN114662172B - 一种基于神经网络的服装布料动态仿真模拟方法 - Google Patents

一种基于神经网络的服装布料动态仿真模拟方法 Download PDF

Info

Publication number
CN114662172B
CN114662172B CN202210543880.1A CN202210543880A CN114662172B CN 114662172 B CN114662172 B CN 114662172B CN 202210543880 A CN202210543880 A CN 202210543880A CN 114662172 B CN114662172 B CN 114662172B
Authority
CN
China
Prior art keywords
cloth
vertex
information
neural network
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210543880.1A
Other languages
English (en)
Other versions
CN114662172A (zh
Inventor
余锋
王画
姜明华
刘筱笑
周昌龙
宋坤芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Textile University
Original Assignee
Wuhan Textile University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Textile University filed Critical Wuhan Textile University
Priority to CN202210543880.1A priority Critical patent/CN114662172B/zh
Publication of CN114662172A publication Critical patent/CN114662172A/zh
Application granted granted Critical
Publication of CN114662172B publication Critical patent/CN114662172B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于神经网络的服装布料动态仿真模拟方法,涉及计算机图形学和人工智能技术领域,该方法包括导入动态展示数字人模型、构建布料网格体模型、预测网格体顶点坐标信息三大流程。通过在着装动态数字人模型上构建布料网格体的模型,利用深度卷积神经网络预测网格体顶点后续的运动状态来实现布料运动状态的模拟。本发明在保证布料模拟真实性的前提条件下,相比于传统物理布料模拟的方法,不但在模拟效果上得到了提升,并且在收敛速度上也有很大提升,满足使用者对实时性的要求。

Description

一种基于神经网络的服装布料动态仿真模拟方法
技术领域
本发明涉及计算机图形学领域和人工智能领域,具体涉及一种基于神经网络的服装布料动态仿真模拟方法。
背景技术
服装的网络虚拟展示是目前虚拟服装的研究热点,在电子商务等领域具有重要研究意义。它的逼真程度直接影响整个动画的效果,这使得布料动画成为当前的研究热点,并且它在很多领域有着重要的应用,尤其是在游戏,电影和虚拟试衣领域。
布料是一种柔性材料,很容易发生弯曲形变,产生不同程度的褶皱,这些褶皱可以显示出不同程度的细节特征。准确而逼真地模拟布料的褶皱,是布料动画的关键。基于物理的布料模拟技术,根据经典力学规律,计算布料在任一时刻的状态,从而模拟现实世界中布料的运动和形态变化 ,但物理布料模拟方法在识别褶皱上仍需花费一些时间。在布料动画研究中,存在计算量大、成本高以及耗时长等问题。如何在保证“真实感”的同时,提高“实时性”,成为目前布料动画的一个研究难点。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于神经网络的服装布料动态仿真模拟方法,其目的在于能够更快更准确的实现布料模拟。
本发明提供一种基于神经网络的服装布料动态仿真模拟方法,包括以下步骤:
S1,从人体模型数据库导入数字人体模型,并在数字人体模型基础上,从服装数据库中导入服装数据,在着装数字人体模型的基础上,从动画数据库中添加动态展示动画得到动态展示数字人模型;
S2,将服装布料切分为面积大小在[a,b]范围中的随机离散三角形网格体,并赋予每个离散三角形的三个顶点一个大小在[c,d]范围内的随机质量m i ,其中i表示布料网格体顶点的编号,以此构建布料三角形网格体模型,并以数字人模型头顶最上方的点为原点构建空间坐标系,存储所有网格体的顶点坐标信息;
S3,在布料网格体模型的基础上,基于深度卷积神经网络预测布料网格体的顶点下一时刻的空间坐标信息,实现布料网格体的运动状态模拟。
进一步的,所述步骤S3的具体过程包括:
S31,获取布料网格体中的每个离散三角形顶点在上一时刻的位置信息、顶点在当前时刻所受到的外力和内力的大小与方向信息;
S32,对获取到的位置信息、外力、内力进行预处理;
S33,将预处理后的三组信息送入深度卷积神经网络框架中,所述深度卷积神经网络包括A、B两个分支网络,其中B分支又包括B1、B2两个分支,B1、B2两个分支网络结构相同但不共享权重;
S34,对含有三个不同分支的网络分别进行训练;
S35,对布料网格体的顶点的下一位置状态信息的预测。
进一步的,所述步骤S32的外力包括网格体顶点所受的重力和空气阻力,外力计算公式如下:
Figure 954693DEST_PATH_IMAGE001
其中F α 表示第i个顶点所受到的重力,α表示该顶点所受的重力加速度,m i 表示第i 个顶点的质量;F β 示该顶点所受的空气阻尼,β表示空气阻尼系数,
Figure 668571DEST_PATH_IMAGE002
为t时刻下第i个顶点 的空间坐标信息,∆t表示布料网格体顶点运动所经历的一个时间步长;
所述步骤S32的内力包括网格体顶点之间的拉伸力,内力计算公式如下:
Figure 120412DEST_PATH_IMAGE003
其中F γ 表示第i个顶点所受到的拉伸力,γ表示顶点之间的拉伸系数,
Figure 187725DEST_PATH_IMAGE004
表示第i个顶点和其相邻的顶点的距离,δ表示顶点x i 和顶点
Figure 172737DEST_PATH_IMAGE005
之间初始距离。
进一步的,所述步骤S32的预处理过程具体包括:
S321,求布料网格体中的每个离散三角形的顶点的位置坐标与上一时时刻的位置坐标的向量之差,得到顶点位置信息变化矢量值;
S322,将顶点当前时刻所受到的所有外力向量相加得到外力矢量值:
S323,将顶点当前时刻所受到的所有内力向量相加得到内力矢量值;
S324,对位置矢量、外力矢量、内力矢量三个一维信息分别通过马尔可夫变迁场MTF的处理,分别得到三个二维信息。
进一步的,所述A分支包含e个卷积、池化层和一个全连接层,其中输入的是步骤S324得到的位置向量变换后的二维信息,经过分支A进行特征提取后输出提取到的特征信息,且将输出结果分别输入到B1、B2两个分支,作为B1、B2两个分支的输入。
进一步的,所述B1、B2两个分支均包含f个计算单元,除第一个计算单元外的每一个计算单元均有3个输入和2个输出,输入分别为A分支该时刻的特征输出、上一计算单元的输出,该时刻的力的特征输入,其中第一个计算单元的输入没有来自于上一单元的输出,计算单元的2个输出分别为本计算单元的特征值和预测值,其中B1、B2两个网络的不同之处在顶点所受的力的特征输入项中,B1分支输入的是步骤S324得到的外力矢量变换后的二维信息,B2分支输入的是步骤S324得到的内力矢量变换后的二维信息。
进一步的,所述深度卷积神经网络的训练过程公式如下所示:
Figure 791937DEST_PATH_IMAGE006
其中
Figure 465495DEST_PATH_IMAGE007
表示t时刻B1分支传递给下一计算单元的输出,
Figure 336499DEST_PATH_IMAGE008
表示t时刻B2分支传 递给下一计算单元的输出,
Figure 536536DEST_PATH_IMAGE009
为t时刻的布料网格体顶点空间坐标位置信息的预测值输 出;
Figure 202004DEST_PATH_IMAGE010
为t时刻计算单元的布料网格体顶点的特征输入,即A分支t时刻的特征输出;
Figure 487491DEST_PATH_IMAGE011
为t时刻计算单元的布料网格体顶点的所受外力信息输入;
Figure 398072DEST_PATH_IMAGE012
为t时刻计算单元的布料网 格体顶点的所受内力信息输入,f为B分支中的计算单元的数量,∅1,∅2均为激活函数,θ 1,θ 2,θ 3,ρ 1,ρ 2,ρ 3,ω,μ均为权重系数,τ,φ,ε均为偏置。
进一步的,步骤S34中的网络训练是使用布料顶点状态信息数据库当作样本集完 成网络训练,所述布料顶点状态信息数据库通过记录实际情况下布料网格体顶点任一时刻 的空间坐标、所受外力、所受内力的状态信息来构建,在网络的训练过程中分别输入对应信 息作为训练样本,通过损失函数计算网络的预测值
Figure 327982DEST_PATH_IMAGE013
与样本集中的实际值
Figure 554564DEST_PATH_IMAGE014
的差距判 断网络是否收敛,从而得到训练好的神经网络。
进一步的,所述步骤S35具体过程为:对A分支输入t次时间变化下布料网格体顶点的空间位置坐标信息,对B1、B2分支并行输入t次时间变化下布料网格体顶点所受的外力、内力,持续得到网格体顶点的下一个时刻的空间坐标信息预测值,以此更新网格体顶点在t时间内的位置变化坐标,且在第一轮预测结束后,继续输入[t,2t]范围内的布料网格体顶点的空间位置坐标信息、所受的外力、内力,直到布料网格体顶点坐标位置不再变化,以此实现布料运动状态的模拟。
本发明提供一种基于神经网络的服装布料动态仿真模拟方法,通过采用上述的技术方案,与现有技术相比,具有以下的有益效果:
(1)真实感
通过对布料进行力学建模,并在网络中输入模型中布料网格体顶点所受的力,实现了较高准确的实际布料模拟效果,极大增强了布料动画中的真实感。
(2)实时性
在对后续布料网格体的顶点位置关系预测中,使用深度卷积神经网络实现更加快速的顶点位置变换计算,实现布料动画的实时性。
附图说明
下面结合附图和实施例对本发明作进一步说明;
图1为本发明提供的一种基于神经网络的服装布料动态仿真模拟方法的框架示意图;
图2为本发明提供的一种基于神经网络的服装布料动态仿真模拟方法的步骤S32中的预处理流程图;
图3为本发明提供的一种基于神经网络的服装布料动态仿真模拟方法的深度卷积神经网络结构图。
具体实施方式
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。如图1所示,是实施例提供的一种基于神经网络的服装布料动态仿真模拟方法的框架示意图,主要包括:导入动态展示数字人模型、构建布料网格体模型、预测网格体顶点坐标信息,下面主要对这三个流程进行介绍。
(1)导入动态展示数字人模型
所述导入动态展示数字人模型包括从人体模型数据库导入数字人体模型,并在数字人体模型基础上,从服装数据库中导入服装数据,在着装数字人体模型的基础上,从动画数据库中添加动态展示动画得到动态展示数字人模型。
(2)构建布料网格体模型
所述构建布料网格体模型包括将服装布料切分为面积大小范围在[a,b]中的随机离散三角形网格体,并赋予每个离散三角形的三个顶点一个大小在[c,d]范围内的随机质量m i ,其中i表示布料网格体顶点的编号,以此构建布料三角形网格体模型,并以数字人模型头顶最上方的点为原点构建空间坐标系,存储所有网格体的顶点坐标信息。
具体实施中,a=0.01,b=0.1,c=0.1,d=1。
(3)预测网格体顶点坐标信息
所述预测网格体顶点坐标信息包括在布料网格体模型的基础上,基于深度卷积神经网络预测布料网格体的顶点下一时刻的空间坐标信息,实现布料模拟。具体步骤包括:
S31:获取布料网格体中的每个离散三角形的顶点在上一时刻的位置信息以及顶点在当前时刻所受到的外力和内力的大小与方向信息;
S32:对获取到的位置信息、外力、内力进行预处理;
S33:将预处理后的三组信息分别送入深度卷积神经网络框架的三个不同分支中,所述深度卷积神经网络包括A、B两个分支网络,其中B分支又包括B1、B2两个分支,B1、B2两个分支网络结构相同但不共享权重;
S34:对含有三个不同分支的网络分别进行训练;
S35:对布料网格体的顶点的下一位置状态信息的预测。
所述步骤S32的外力包括网格体顶点所受的重力和空气阻力,外力计算公式如下:
Figure 202714DEST_PATH_IMAGE001
其中F α 表示第i个顶点所受到的重力,α表示该顶点所受的重力加速度,m i 表示第i 个顶点的质量;F β 示该顶点所受的空气阻尼,β表示空气阻尼系数,
Figure 149941DEST_PATH_IMAGE002
为t时刻下第i个顶点 的空间坐标信息,∆t表示布料网格体顶点运动所经历的一个时间步长;
所述步骤S32的内力包括网格体顶点之间的拉伸力,内力计算公式如下:
Figure 590150DEST_PATH_IMAGE003
其中F γ 表示第i个顶点所受到的拉伸力,γ表示顶点之间的拉伸系数,
Figure 830376DEST_PATH_IMAGE004
表示第i个顶点和其相邻的顶点的距离,δ表示顶点x i 和顶点
Figure 231402DEST_PATH_IMAGE005
之间初始距离。
所述步骤S32的预处理过程具体包括:
S321:求布料网格体中的每个离散三角形的顶点的位置坐标与上一时时刻的位置坐标的向量之差,得到顶点位置信息变化矢量值;
S322:将顶点当前时刻所受到的所有外力向量相加得到外力矢量值:
Figure 841375DEST_PATH_IMAGE015
S323:将顶点当前时刻所受到的所有内力向量相加得到内力矢量值;
Figure 11456DEST_PATH_IMAGE016
S324:对位置矢量、外力矢量、内力矢量三个一维信息分别通过马尔可夫变迁场(MTF)的处理,分别得到三个二维信息。
所述A分支中的深度卷积网络A包含e个卷积、池化层和一个全连接层,其中输入的是步骤S324得到的位置向量变换后的二维信息,经过深度卷积神经网络模型A,特征提取后输出提取到的特征信息,且将输出结果分别输入到B1、B2两个分支,作为B1、B2两个分支的输入。
具体实施中,e=128。
所述B1、B2两个分支均包含f个计算单元,除第一个计算单元外的每一个计算单元 均有3个输入和2个输出,输入分别为A分支该时刻的特征输出,上一计算单元的输出,以及 该时刻的力的特征输入,其中第一个计算单元的输入没有来自于上一单元的输出,计算单 元的2个输出分别为本计算单元的特征值(
Figure 314261DEST_PATH_IMAGE007
Figure 937004DEST_PATH_IMAGE008
)和预测值
Figure 987218DEST_PATH_IMAGE009
,其中B1、B2两个网 络的不同之处在顶点所受的力的特征输入项中,B1分支输入的是步骤S324得到的外力矢量 变换后的二维信息,B2分支输入的是步骤S324得到的内力矢量变换后的二维信息。
所述深度卷积神经网络的训练过程中权重更新公式如下所示:
Figure 11806DEST_PATH_IMAGE006
其中
Figure 751092DEST_PATH_IMAGE007
表示t时刻B1分支传递给下一计算单元的输出,
Figure 595551DEST_PATH_IMAGE008
表示t时刻B2分支传 递给下一计算单元的输出,
Figure 688272DEST_PATH_IMAGE009
为t时刻的布料网格体顶点空间坐标位置信息的预测值输 出;
Figure 692000DEST_PATH_IMAGE010
为t时刻计算单元的布料网格体顶点的特征输入,即A分支t时刻的特征输出;
Figure 976089DEST_PATH_IMAGE011
为t时刻计算单元的布料网格体顶点的所受外力信息输入;
Figure 432478DEST_PATH_IMAGE012
为t时刻计算单元的布料网 格体顶点的所受内力信息输入,f为B分支中的计算单元的数量,∅1,∅2均为激活函数,θ 1,θ 2,θ 3,ρ 1,ρ 2,ρ 3,ω,μ均为权重系数,τ,φ,ε均为偏置。
具体实施中,∅1,∅2均为tanh激活函数,f=128。
所述步骤S34中的网络训练是使用布料顶点状态信息数据库当作样本集完成网络 训练,所述布料顶点状态信息数据库通过记录实际情况下布料网格体顶点任一时刻的空间 坐标、所受外力、所受内力的状态信息来构建,在网络的训练过程中分别输入对应信息作为 训练样本,通过损失函数计算网络的预测值
Figure 328890DEST_PATH_IMAGE013
与样本集中的实际值
Figure 796911DEST_PATH_IMAGE014
的差距判断网络 是否收敛,从而得到训练好的神经网络。
所述步骤S35具体过程为:对A分支输入t次时间变化下布料网格体顶点的空间位置坐标信息,对B1、B2分支并行输入t次时间变化下布料网格体顶点所受的外力、内力,持续得到网格体顶点的下一个时刻的空间坐标信息预测值,以此更新网格体顶点在t时间内的位置变化坐标,且在第一轮预测结束后,继续输入[t,2t]范围内的布料网格体顶点的空间位置坐标信息、所受的外力、内力,直到布料网格体顶点坐标位置不再变化,以此实现布料运动状态的模拟。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于神经网络的服装布料动态仿真模拟方法,其特征在于,包括以下步骤:
S1,从人体模型数据库导入数字人体模型,并在数字人体模型基础上,从服装数据库中导入服装数据,在着装数字人体模型的基础上,从动画数据库中添加动态展示动画得到动态展示数字人模型;
S2,将服装布料切分为面积大小在[a,b]范围中的随机离散三角形网格体,并赋予每个离散三角形的三个顶点一个大小在[c,d]范围内的随机质量mi,其中i表示布料网格体顶点的编号,以此构建布料三角形网格体模型,并以数字人体模型头顶最上方的点为原点构建空间坐标系,存储所有网格体的顶点坐标信息;
S3,在布料网格体模型的基础上,基于深度卷积神经网络预测布料网格体的顶点下一时刻的空间坐标信息,实现布料网格体的运动状态模拟;
所述步骤S3的具体过程包括:
S31,获取布料网格体中的每个离散三角形顶点在上一时刻的位置信息、顶点在当前时刻所受到的外力和内力的大小与方向信息;
S32,对获取到的位置信息、外力、内力进行预处理;
S33,将预处理后的三组信息送入深度卷积神经网络框架中,所述深度卷积神经网络包括A、B两个分支网络,其中B分支又包括B1、B2两个分支,B1、B2两个分支网络结构相同但不共享权重;
S34,对含有三个不同分支的深度卷积神经网络进行训练;
S35,对布料网格体的顶点的下一时刻的空间坐标信息的预测。
2.如权利要求1所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述步骤S32的外力包括网格体顶点所受的重力和空气阻力,外力计算公式如下:
Fα=miα
Figure FDA0003738604640000011
其中Fα表示第i个顶点所受到的重力,α表示该顶点所受的重力加速度,mi表示第i个顶点的质量;Fβ示该顶点所受的空气阻力,β表示空气阻力系数,
Figure FDA0003738604640000012
为t时刻下第i个顶点的空间坐标信息,Δt表示布料网格体顶点运动所经历的一个时间步长;
所述步骤S32的内力包括网格体顶点之间的拉伸力,内力计算公式如下:
Fγ=-γ(|xi-xi′|-δ)
其中Fγ表示第i个顶点所受到的拉伸力,γ表示顶点之间的拉伸系数,|xi-xi′|表示第i个顶点和其相邻的顶点的距离,δ表示顶点xi和顶点xi′之间初始距离。
3.如权利要求2所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述步骤S32的预处理过程具体包括:
S321,求布料网格体中的每个离散三角形的顶点的位置坐标与上一时刻的位置坐标的向量之差,得到顶点位置信息变化矢量值;
S322,将顶点当前时刻所受到的所有外力相加得到外力矢量值:
Figure FDA0003738604640000021
S323,将顶点当前时刻所受到的所有内力相加得到内力矢量值;
F=Fγ=-γ(|xi-xi′|-δ)
S324,对位置矢量、外力矢量、内力矢量三个一维信息分别通过马尔可夫变迁场MTF的处理,分别得到三个二维信息。
4.如权利要求3所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述A分支包含e个卷积层、e个池化层和一个全连接层,其中输入的是步骤S324得到的位置矢量变换后的二维信息,经过分支A进行特征提取后输出提取到的特征信息,且将输出结果分别输入到B1、B2两个分支,作为B1、B2两个分支的输入。
5.如权利要求4所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述B1、B2两个分支均包含f个计算单元,除第一个计算单元外的每一个计算单元均有3个输入和2个输出,输入分别为A分支该时刻的特征输出、上一计算单元的输出、该时刻的力的特征输入,其中第一个计算单元的输入没有来自于上一单元的输出,计算单元的2个输出分别为本计算单元的特征值和预测值,其中B1、B2两个分支的不同之处在顶点所受的力的特征输入项中,B1分支输入的是步骤S324得到的外力矢量变换后的二维信息,B2分支输入的是步骤S324得到的内力矢量变换后的二维信息。
6.如权利要求5所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述深度卷积神经网络的训练过程公式如下所示:
Figure FDA0003738604640000031
Figure FDA0003738604640000032
Figure FDA0003738604640000033
其中
Figure FDA0003738604640000034
表示t时刻B1分支传递给下一计算单元的输出,
Figure FDA0003738604640000035
表示t时刻B2分支传递给下一计算单元的输出,
Figure FDA0003738604640000036
为t时刻的布料网格体顶点空间坐标位置信息的预测值输出;x(t)为t时刻计算单元的布料网格体顶点的特征输入,即A分支t时刻的特征输出;
Figure FDA0003738604640000037
为t时刻计算单元的布料网格体顶点的所受外力信息输入;
Figure FDA0003738604640000038
为t时刻计算单元的布料网格体顶点的所受内力信息输入,f为B分支中的计算单元的数量,
Figure FDA0003738604640000039
均为激活函数,θ123123,ω,μ均为权重系数,τ,
Figure FDA00037386046400000311
ε均为偏置。
7.如权利要求6所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:步骤S34中的网络训练是使用布料顶点状态信息数据库当作样本集完成网络训练,所述布料顶点状态信息数据库通过记录实际情况下布料网格体顶点任一时刻的空间坐标、所受外力、所受内力的状态信息来构建,在网络的训练过程中分别输入对应信息作为训练样本,通过损失函数计算网络的预测值
Figure FDA00037386046400000310
与样本集中的实际值y(t)的差距判断网络是否收敛,从而得到训练好的深度卷积神经网络。
8.如权利要求7所述的基于神经网络的服装布料动态仿真模拟方法,其特征在于:所述步骤S35具体过程为:对A分支输入t时间内变化下布料网格体顶点的空间位置坐标信息,对B1、B2分支并行输入t时间内变化下布料网格体顶点所受的外力、内力,持续得到网格体顶点的下一个时刻的空间坐标信息预测值,以此更新网格体顶点在t时间内的位置变化坐标,且在第一轮预测结束后,继续输入[t,2t]范围内的布料网格体顶点的空间位置坐标信息、所受的外力、内力,直到布料网格体顶点坐标位置不再变化,以此实现布料运动状态的模拟。
CN202210543880.1A 2022-05-19 2022-05-19 一种基于神经网络的服装布料动态仿真模拟方法 Active CN114662172B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210543880.1A CN114662172B (zh) 2022-05-19 2022-05-19 一种基于神经网络的服装布料动态仿真模拟方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210543880.1A CN114662172B (zh) 2022-05-19 2022-05-19 一种基于神经网络的服装布料动态仿真模拟方法

Publications (2)

Publication Number Publication Date
CN114662172A CN114662172A (zh) 2022-06-24
CN114662172B true CN114662172B (zh) 2022-08-16

Family

ID=82037732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210543880.1A Active CN114662172B (zh) 2022-05-19 2022-05-19 一种基于神经网络的服装布料动态仿真模拟方法

Country Status (1)

Country Link
CN (1) CN114662172B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114925552B (zh) * 2022-07-19 2022-10-18 武汉亘星智能技术有限公司 基于hpbd的布料仿真方法及系统
CN116664733B (zh) * 2023-07-28 2024-01-30 腾讯科技(深圳)有限公司 虚拟服装预测方法、装置、设备及计算机可读存储介质
CN116797699B (zh) * 2023-08-28 2023-12-15 武汉博润通文化科技股份有限公司 基于三维立体技术的智能动画建模方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881557A (zh) * 2015-06-19 2015-09-02 南京大学 一种计算机中人体服装动态仿真实现方法
US11094115B2 (en) * 2019-08-23 2021-08-17 Clo Virtual Fashion Inc. Generating clothing patterns of garment using bounding volumes of body parts
CN114119910A (zh) * 2020-08-27 2022-03-01 北京陌陌信息技术有限公司 一种服装模型匹配人体模型的方法、设备和存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103366054B (zh) * 2013-06-28 2016-08-31 北京航空航天大学 一种基于质点弹簧模型的衣物接缝处理和褶皱增强方法
CN106354959A (zh) * 2016-08-31 2017-01-25 北京维盛视通科技有限公司 三维服装与人体模型的碰撞检测方法及装置
CN107025688B (zh) * 2017-03-13 2019-11-08 东华大学 一种三维扫描服装重构与重用方法
EP3579196A1 (en) * 2018-06-05 2019-12-11 Cristian Sminchisescu Human clothing transfer method, system and device
CN110555899B (zh) * 2019-08-20 2022-09-16 中北大学 基于cnn布料褶皱识别的多精度网格精化方法
KR102130252B1 (ko) * 2019-08-23 2020-07-06 (주)클로버추얼패션 바인딩을 반영한 의복 시뮬레이션 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881557A (zh) * 2015-06-19 2015-09-02 南京大学 一种计算机中人体服装动态仿真实现方法
US11094115B2 (en) * 2019-08-23 2021-08-17 Clo Virtual Fashion Inc. Generating clothing patterns of garment using bounding volumes of body parts
CN114119910A (zh) * 2020-08-27 2022-03-01 北京陌陌信息技术有限公司 一种服装模型匹配人体模型的方法、设备和存储介质

Also Published As

Publication number Publication date
CN114662172A (zh) 2022-06-24

Similar Documents

Publication Publication Date Title
CN114662172B (zh) 一种基于神经网络的服装布料动态仿真模拟方法
Villard et al. Adaptive meshing for cloth animation
CN104021584A (zh) 一种骨骼蒙皮动画的实现方法
CN105427360B (zh) 一种动态网格的误差可控cage序列表示算法
Bao The application of intelligent algorithms in the animation design of 3D graphics engines
Zou et al. Collision detection for virtual environment using particle swarm optimization with adaptive cauchy mutation
Liang et al. Machine learning for digital try-on: Challenges and progress
CN116363308A (zh) 人体三维重建模型训练方法、人体三维重建方法和设备
CN116362133A (zh) 一种基于骨架的预测目标姿势下布料静态变形的双相流网络方法
Bender et al. Adaptive cloth simulation using corotational finite elements
CN111460193A (zh) 一种基于多模态信息融合的三维模型分类方法
CN112308952B (zh) 模仿给定视频中人物动作的3d角色动作生成系统和方法
Wu et al. Example-based real-time clothing synthesis for virtual agents
CN106780716A (zh) 历史文化遗产数字化展示方法
CN112862957B (zh) 一种基于约束投影的gpu并行试衣仿真方法
Movania et al. A novel GPU-based deformation pipeline
Ascough et al. A simple finite element model for cloth drape simulation
CN109118561B (zh) 一种基于位置的层次化动态模拟方法
CN112819930A (zh) 一种基于前馈神经网络的实时角色服装布料动画模拟方法
Stotko et al. Physics-guided Shape-from-Template: Monocular Video Perception through Neural Surrogate Models
CN112419157B (zh) 一种基于生成对抗网络的布料超分辨率方法
Yang et al. Physically-based tree animation and leaf deformation using CUDA in real-time
Gu et al. Constraint solving order in position based dynamics
Achar et al. A Comparative Study of Garment Draping Techniques
CN117557699B (zh) 动画数据生成方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant