CN114241473A - 估计织物物性参数的方法及装置 - Google Patents

估计织物物性参数的方法及装置 Download PDF

Info

Publication number
CN114241473A
CN114241473A CN202111046428.6A CN202111046428A CN114241473A CN 114241473 A CN114241473 A CN 114241473A CN 202111046428 A CN202111046428 A CN 202111046428A CN 114241473 A CN114241473 A CN 114241473A
Authority
CN
China
Prior art keywords
fabric
dimensional
property parameters
physical property
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111046428.6A
Other languages
English (en)
Inventor
崔名杰
朱垠贞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kelou Virtual Fashion Co ltd
Original Assignee
Kelou Virtual Fashion Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kelou Virtual Fashion Co ltd filed Critical Kelou Virtual Fashion Co ltd
Publication of CN114241473A publication Critical patent/CN114241473A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

根据一实施例的估计织物的物性参数的方法及装置,能够获取包括放置在三维几何物体上的织物(fabric)的三维轮廓形状(contour shape)的信息;将所述信息应用于预先训练的人工神经网络,从而估计用于重现由所述织物制成的三维服装的覆盖形状(drape shapes)的所述织物的物性参数(material property parameter);以及输出所述织物的物性参数。

Description

估计织物物性参数的方法及装置
技术领域
实施例涉及用于估计织物物性参数的人工神经网络训练数据的生成方法,估计织物物性参数的方法及装置
背景技术
尽管将衣服(clothes)穿在身上时是三维的,但实际上衣服更接近于二维,是根据二维纸样裁剪的织物(fabric)块的组合。用作服装材料的织物比较柔软(flexible),因此根据穿戴者的身材或动作可能呈现出不同模样。此外,织物具有刚度、拉伸度、收缩率等多种性质,基于不同织物的物性差异,即使是具有相同设计的服装其表现形式与感觉会有所不同。
上述背景技术是发明人在开发本发明的过程中掌握或习得的,不应被理解为必须是申请本发明前公开的一般公知技术。
发明内容
要解决的技术问题
根据一实施例,通过将织物的三维轮廓形状及密度应用于预先训练的神经网络,可以更准确地估计用于重现由织物制成的三维服装的覆盖形状(drape shapes)的织物物性参数(material property parameter)。
根据一实施例,通过利用矩形织物的三维轮廓形状,可以确保三维服装的覆盖形状的多样性。
根据一实施例,通过利用织物的三维轮廓形状(轮廓线)而不是织物整体覆盖形状,可以减小用于训练人工神经网络的数据大小。
根据一实施例,通过利用织物的三维轮廓形状而不是织物整体覆盖形状,可以降低神经网络为了估计织物物性参数而执行的计算的复杂性。
根据一实施例,通过同时利用织物的三维轮廓形状与织物密度,可以提高人工神经网络的训练准确度。
解决问题的技术方案
根据一实施例的估计织物物性参数的方法,可以包括以下步骤:获取包括放置在三维几何物体上的织物(fabric)的三维轮廓形状(contour shape)的信息;将所述信息应用于预先训练的人工神经网络,从而估计用于重现由所述织物制成的三维服装的覆盖形状(drape shapes)的所述织物的物性参数(material property parameter);以及输出所述织物的物性参数。
所述织物的三维轮廓形状与所述三维服装的覆盖形状可以彼此具有相关性。
所述获取信息的步骤,可以包括以下步骤:接收拍摄所述放置在三维几何物体上的织物的三维轮廓形状的影像;从所述影像生成包括所述织物的三维轮廓形状的三维模型;以及从所述三维模型提取与所述织物的三维轮廓形状相对应的三维顶点坐标。
所述获取信息的步骤,可以包括以下步骤:获得与所述放置在三维几何物体上的织物的三维轮廓形状相对应的三维顶点坐标。
所述获取三维顶点坐标的步骤,可以包括以下步骤:从包括所述放置在三维几何物体上的织物的三维轮廓形状的深度影像或三维扫描影像中对与所述三维轮廓形状相对应的所述三维顶点进行采样;以及获取所述采样的三维顶点坐标。
所述信息还可以包括所述织物的密度。
所述织物可以包括天然纤维织物(natural fiber fabrics)、合成纤维织物(synthetic fiber fabrics),以及包括棉(cotton)、亚麻(linen)、羊毛(wool)、聚酯纤维(polyester)、尼龙(nylon)、弹性纤维(elastane)等的混纺纱织物(blended yarnfabrics)中的至少一种。
所述织物的至少部分区域被放置在所述三维几何物体上由所述三维几何物体支撑,剩余部分区域未被所述三维几何物体支撑而下垂,所述织物的三维轮廓形状由所述织物中未被所述三维几何物体支撑而下垂的剩余区域的外轮廓线形成。
所述织物的物性参数可以包括所述织物的纬纱拉伸刚度(stretch-weftstiffness),经纱拉伸刚度(stretch-wrap stiffness),剪切刚度(shear stiffness),纬纱弯曲刚度(banding-weft stiffness),经纱弯曲刚度(banding-wrap stiffness),以及弯曲斜纹刚度(bending bias stiffness)中的至少一种。
可以通过训练数据对所述人工神经网络进行训练,所述训练数据是基于高斯混合模型(Gaussian Mixture Model;GMM)的概率分布随机采样的织物的物性参数来生成。
所述人工神经网络可以包括估计与所述织物刚度(stiffness)相关的物性参数的第一神经网络;以及估计与所述织物的弯曲(bending)相关的物性参数的第二神经网络。
所述第一神经网络及所述第二神经网络分别可以包括全连接神经网络模型(Fully Connected Neural Network Model)。
所述输出织物的物性参数的步骤,可以包括以下步骤:将所述织物的物性参数应用于所述三维服装;以及显示覆盖所述三维服装的结果。
根据一实施例的生成人工神经网络训练数据的方法,可以包括以下步骤:收集织物的第一数量的物性参数;利用基于所述物性参数的生成模型对第二数量的物性参数进行采样,所述第二数量大于所述第一数量;基于所述采样的物性参数来模拟相应织物的覆盖形状,从而获得所述相应织物的三维轮廓形状;以及基于所述采样的物性参数及所述相应织物的三维轮廓形状,生成对应所述相应织物的训练数据。
所述生成模型可以根据高斯混合模型(Gaussian Mixture Model;GMM)的概率分布对所述物性参数进行随机采样。
可以利用对应于所述相应织物的训练数据,对所述人工神经网络进行训练以估计所述相应织物的物性参数。
根据一实施例的估计织物的物性参数的装置,可以包括:通信接口,其获取包括放置在三维几何物体上的织物的三维轮廓形状的信息;处理器,其将所述信息应用于预先训练的人工神经网络,从而估计用于重现由所述织物制成的三维服装的覆盖形状的所述织物的物性参数;以及输出装置,其输出所述织物的物性参数。
所述织物的三维轮廓形状与所述三维服装的覆盖形状可以彼此具有相关性。
所述通信接口可以接收拍摄所述放置在三维几何物体上的织物的三维轮廓形状的影像,所述处理器可以从所述影像生成包括所述织物的三维轮廓形状的三维模型,从所述三维模型提取对应于所述织物的三维轮廓形状的三维顶点坐标。
发明效果
根据一方面,通过将织物的三维轮廓形状及密度应用于预先训练的神经网络,可以更准确地估计用于重现由织物制成的三维服装的覆盖形状(drape shapes)的织物物性参数(material property parameter)。
根据一方面,通过利用矩形织物的三维轮廓形状,可以确保三维服装的覆盖形状的多样性。
根据一方面,通过利用织物的三维轮廓形状(轮廓线)而不是织物整体覆盖形状,可以减小用于训练人工神经网络的数据大小。
根据一方面,通过利用织物的三维轮廓形状而不是织物整体覆盖形状,可以降低神经网络为了估计织物物性参数而执行的计算的复杂性。
根据一方面,通过同时利用织物的三维轮廓形状与织物密度,可以提高人工神经网络的训练准确度。
附图说明
图1是显示根据一实施例的物性参数的估计方法的流程图。
图2是说明根据一实施例的织物的三维轮廓形状信息的获取方法的附图。
图3是说明根据一实施例的人工神经网络的训练原理的附图。
图4是说明根据一实施例的人工神经网络的操作的附图。
图5是说明根据一实施例估计的物性参数与织物的三维轮廓形状之间的相关性的附图。
图6是显示根据一实施例的人工神经网络的结构的附图。
图7是显示根据一实施例的人工神经网络训练数据的生成方法的流程图。
图8是根据一实施例的物性参数的估计装置的框图。
附图标记说明
800:估计装置
805:通信总线
810:通信接口
830:处理器
850:存储器
870:输出装置
具体实施方式
下面参照附图详细说明实施例。然而,可以对实施例进行多种变更,本申请的权利范围并不受限于上述实施例。应当理解,对实施例的所有变更、其等同物乃至其替代物均包括在权利范围。
实施利中使用的术语仅用于说明特定实施例,并非用于限定保护范围。在内容中没有特别说明的情况下,单数表达包括复数含义。在本说明书中,“包括”或者“具有”等术语用于表达存在说明书中所记载的特征、数字、步骤、操作、构成要素、配件或其组合,并不排除还具有一个或一个以上其他特征、数字、步骤、操作、构成要素、配件或其组合或附加功能。
在没有其他定义的情况下,包括技术或者科学术语在内的本文使用的全部术语,都具有本领域普通技术人员所理解的通常含义。通常使用的如词典定义的术语,应理解为相关技术内容中的含义,在本说明书中没有明确定义的情况下,不能解释为理想化或过于形式化的含义。
并且,在参照附图进行说明的过程中与附图标记无关,相同的构成要素使用相同的附图标记,并省略重复说明。在说明实施例的过程中,当判断对于相关公知技术的具体说明会不必要地混淆实施例时,省略其详细说明。
另外,在说明实施例的构成要素时,可以使用第一、第二、A、B、(a)、(b)等术语。这类术语仅用于将构成要素区别于其他构成要素,然而这类术语并不用于限制构成要素的本质、顺序或次序。应当理解,当描述某一构成要素“连接”、“结合”或“接触”其他构成要素,各构成要素可以直接连接或接触另一构成要素,但各构成要素之间还可能“连接”、“结合”或“接触”有其他构成要素。
当某一构成要素与其他实施例中的构成要素具有共同功能时,在其他实施例中使用相同名称进行说明。在没有言及反例的情况下,某一实施例的说明能够适用于其他实施例,对重复内容省略详细说明。
图1是显示根据一实施例的物性参数的估计方法的流程图。参照图1,根据一实施例的物性参数的估计装置(下面称为“估计装置”)可以通过步骤110至步骤130来估计织物的物性参数。
在步骤110中,估计装置获取包括放置在三维几何物体上的织物(fabric)的三维轮廓形状(contour shape)的信息。三维几何物体的非限制性示例包括圆柱体、立方体、球体、微型体或人体模型。织物可以包括天然纤维织物(natural fiber fabrics)、合成纤维织物(synthetic fiber fabrics),以及棉(cotton)、亚麻(linen)、羊毛(wool)、聚酯纤维(polyester)、尼龙(nylon)、弹性纤维(elastane)等混纺纱织物(blended yarn fabrics)中的至少一种。织物形状的非限制性示例有矩形或圆形。此时,织物的至少部分区域被放置在三维几何物体上由三维几何物体支撑,剩余区域没有被三维几何物体支撑而下垂。在一实施例中,织物的三维轮廓形状可以是织物的未被三维几何物体支撑而下垂的剩余区域的外轮廓线。在一示例实施例中,织物的三维轮廓形状可以是织物在固定静态下的织物的三维轮廓形状。
在步骤110中,估计装置可以从拍摄放置在三维几何物体上的织物的三维轮廓形状的影像中提取与织物的三维轮廓形状相对应的三维顶点坐标。因外在因素(externalfactors)(例如,包括除了织物本身性质之外的全部外部因素)导致照片或视频数据发生改变的可能性较低,估计装置利用影像提取的三维顶点坐标与实际三维顶点坐标具有相同效果。或者,估计装置可以直接获取与放置在三维几何物体上的织物的三维轮廓形状相对应的三维顶点坐标。估计装置获取包括织物三维轮廓形状的信息的方法将参照图2更具体地进行说明。
根据实施例,在步骤110中,估计装置除了获取织物的三维轮廓形状之外,还可以获取织物密度。此时,织物密度可以是相应织物质量除以织物总面积后的值。除了织物的三维轮廓形状之外还获取织物密度时,估计装置可以在步骤120中估计织物的物性参数时,进一步考虑肉眼无法确认的特性。
在步骤120中,估计装置将在步骤110中获取的信息应用于预先训练的人工神经网络,由此估计用于重现由织物制成的三维服装的覆盖形状(drape shapes)的织物的物性参数(material property parameter)。在本说明书中,“覆盖(draping)”可以理解为利用计算机程序使三维分身等穿上三维服装的过程,其中三维服装是利用反映估计的织物物性参数的织物来制成。在一实施例中,织物的三维轮廓形状与三维服装的覆盖形状可以彼此具有相关性。
根据一实施例的人工神经网络可以是在织物的物性参数方面得到训练的神经网络,其中,织物的物性参数用于重现织物的静态覆盖形状。
根据一实施例的人工神经网络可以利用如公式1的估计模型
Figure BDA0003249728710000061
进行定义。估计模型
Figure BDA0003249728710000062
可以由线性回归模型定义。
公式1
Figure BDA0003249728710000063
其中,y可以表示由估计模型
Figure BDA0003249728710000064
要估计的6个物性参数构成的向量。ln(·)是各个元素的对数(element-wise logarithm),{Ω,d}是特征向量。Ω是织物的三维轮廓形状的采样点集合,d织物密度的采样点集合。
在一实施例中,可以利用由大数据集构成的训练数据训练的估计模型
Figure BDA0003249728710000065
来估计织物的物性参数。此时,作为示例,可以利用由实际织物材料(fabric materials)的400种机械性能(mechanical properties)生成的生成模型来生成大数据集。作为示例,生成模型可以是高斯混合模型(Gaussian Mixture Model,GMM)。
例如,可以用训练数据对人工神经网络进行训练,其中训练数据是由基于高斯混合模型(GMM)的概率分布随机采样的织物的物性参数来生成。
根据一实施例的人工神经网络的训练原理及人工神经网络的操作将参照图3至图4更具体地进行说明。并且,人工神经网络的结构将参照图6更具体地进行说明。
在步骤120中,估计的织物物性参数的非限制性示例可以包括织物的纬纱拉伸刚度(stretch-weft stiffness)、经纱拉伸刚度(stretch-wrap stiffness)、剪切刚度(shear stiffness)、纬纱弯曲刚度(banding-weft stiffness)、经纱弯曲刚度(banding-wrap stiffness),以及弯曲斜纹刚度(bending bias stiffness)等。其中,“纬纱(weft)”表示织物的水平方向线,也被称为“纬线”。并且,“经纱(warp)”表示织物的垂直方向线,也被称为“经线”。
在步骤130中,估计装置输出在步骤120中估计的织物的物性参数。估计装置可以明确(explicitly)输出也可以隐含(implicitly)输出在步骤120中估计的织物的物性参数。在一示例实施例中,“明确输出织物的物性参数”可以包括将织物的物性参数直接显示在显示面板,和/或输出至纸张等进行显示。或者作为示例,“隐含输出织物的物性参数”可以包括显示三维服装的模拟结果,或者将相应三维服装覆盖在三维分身等上的模拟结果,其中该三维服装是由采用了织物物性参数的织物制成。
图2是说明根据一实施例的织物的三维轮廓形状信息的获取方法的附图。图2以圆柱体(cylinder)211作为三维几何物体,示出了在圆柱体(cylinder)211上面铺开矩形织物213的状态的图210。织物213可以相当于织物的一定大小的样本(specimen)。
此时,作为示例,圆柱体211的直径(diameter)可以是10cm,高度可以是20cm。并且,织物213可以是长宽30cm的正方形。织物213被放在圆柱体211的上面,织物213的中心与圆柱体211上面中心可以位于同一点(same point)。
如图210所示放置织物213时,织物213的未被圆柱体211支撑的部分会如图230下垂,并形成多种形状的褶皱(wrinkles)。此时,织物213的水平边缘及垂直边缘应分别在纬纱及经纱排列,可以明确区分纬纱及经纱方向的刚度(stiffness)。
在一实施例中,如图230所示,“圆柱体测试”是指使未被圆柱体支撑的织物区域下垂从而产生褶皱的过程。
在一实施例中可以模拟圆柱体测试,从而从织物中提取特征向量,并且使用人工神经网络预测物性参数,并对预测结果与使用实际织物的结果之间的视觉相似度(similarity)进行评价。在圆柱体测试过程中,织物的三维轮廓形状会根据放置相应织物样本的方法有所不同。此时,使得织物的四个角在相同高度同时下落变得十分重要。可以对一个织物多次重复这一过程,并从中选择重复出现的织物的三维轮廓形状。
在一实施例中,使用正方形的织物来执行圆柱体测试,可以更明确织物的凹陷处与扭曲方向,可以导出更多具有多种潜在覆盖形状的更多覆盖区域。对于正方形的织物,边角区域的面积比剩余区域的面积更大,因此,边角区域的重量也比剩余区域更重。其结果,可以更明确地观察根据矩形织物的重量(weight)分布(distribution)而带来的覆盖形状的变化。
根据一实施例的估计装置可以通过圆柱体测试来获得信息,其中,该信息包括相当于用于估计织物的物性参数的部分特征向量的织物三维轮廓形状(contour shape)。织物的三维轮廓形状可以是三维闭合曲线(closed curve)。
如图250,估计装置可以获取具有约5mm的间隔的244个采样点(sampling points)255的集合(set)作为包括相应织物的三维轮廓形状的信息。244个采样点255是从圆柱体测试提取的织物的轮廓曲线(contour curve)。
在一实施例中,在估计织物的物性参数时,使用织物的三维轮廓线来代替织物整体覆盖形状,可以大幅降低人工神经网络训练过程的复杂性。这通常是假定在圆柱体测试中显示出的织物的覆盖形状(drape shapes)与织物的三维轮廓形状之间存在一对一的对应关系。
在一实施例中,如下面的图5中的图510,可以利用织物的三维轮廓线与物性参数之间的可视化的相关矩阵,确认从织物的三维轮廓线训练得到物性参数的可能性。为此,需要使用400个实际织物样本的物性参数与模拟结果。
根据示例实施例,估计装置可以接收拍摄放置在三维几何物体上的织物的三维轮廓形状的影像,并从影像生成包括织物的三维轮廓形状的三维模型。其中,三维模型可以相当于织物的网格模型。估计装置可以从三维模型提取与织物的三维轮廓形状相对应的三维顶点坐标。例如,估计装置从织物的网格模型的边界(boundary)提取顶点(vertices),将提取的顶点坐标确定为与织物的三维轮廓形状相对应的三维顶点坐标。
根据实施例,估计装置可以通过下述方法来复原所覆盖织物的三维轮廓形状。例如,估计装置可以利用能够从织物的二维平面图中复原三维轮廓形状的人工神经网络。人工神经网络可以基于[二维平面图-三维轮廓形状]的配对数据(pair data)进行学习。或者,估计装置可以基于从多个角度拍摄的二维图像来重建三维模型,由此生成织物的三维网格后从三维网格复原三维轮廓形状。或者,估计装置可以利用三维扫描仪对所覆盖的织物进行扫描,由此生成三维网格后从三维网格复原三维轮廓数据。
作为示例,可以通过包括多个多边形(例如三角形)的网格(mesh)来对织物的网格模型进行建模。多边形(三角形)的三个顶点可以是有质量的质点(point mass),多边形的各边可以表示为连接质点的具有弹性的弹簧。由此,作为示例,可以通过质量-弹簧模型(Mass-Spring Model)来对织物进行建模。其中,弹簧可以根据织物(fabric)的物性参数对拉伸(stretch)、剪切(shear)、弯曲(bending)等具有不同的抵抗值(resist values)。各顶点可以根据重力等外力(external force)以及拉伸、剪切和弯曲的内力(internal force)而运动。例如,通过计算外力和内力求出施加于各顶点的力,则可以求出各顶点的变位及运动速度。并且,可以通过多边形的顶点在各时间点(time step)的运动来模拟虚拟服装的运动。
在一实施例中,将由利用网格建模的织物制成的服装覆盖(draping)在三维分身上,可以体现基于物理法则的自然的三维虚拟服装。
在一示例实施例中,拍摄织物的三维轮廓形状的影像是使用安装有深度传感器或深度相机的移动设备对放置在三维几何物体上的织物的三维轮廓形状进行扫描的影像。估计装置从扫描的影像中生成织物的三维网格模型,并对网格表面的三维顶点进行采样,由此提取织物的三维轮廓形状。估计装置可以使用贝塞尔曲线(Bezier curve)等来对采样的顶点进行插值。根据实施例,为了提取织物的三维轮廓形状,估计装置还可以首先扫描相应织物样本的三维网格模型,然后对贝塞尔样条(Bezier spline)的控制点进行采样。
或者,估计装置还可以直接获取与放置在三维几何物体上的织物的三维轮廓形状相对应的三维顶点坐标。例如,估计装置可以从包括放置在三维几何物体上的织物的三维轮廓形状的深度影像或三维扫描影像对与三维轮廓形状对应的三维顶点进行采样。估计装置可以获取采样的三维顶点坐标。
例如,在对织物进行模拟的过程中,织物重量会对最终覆盖结果产生很大影像。因此,在一实施例中,还额外考虑了织物密度(重量)来估计物性参数。在很多情况下可能无法肉眼识别织物密度。例如,织物的未被三维几何物体支撑而下垂的区域相比被三维几何物体支撑的区域,可能密度更大或刚度更小。在一实施例中,为考虑不可视的覆盖方面,将织物密度作为特征向量的一部分进行使用。可以用相应织物质量除以相应织物总面积来测量织物密度。在一实施例中,除了织物的三维轮廓形状之外还使用织物密度来提高训练的准确度。
图3是说明根据一实施例的人工神经网络的训练原理的附图。参照图3,示出了放在三维几何物体(例如圆柱体)上的织物的照片310,机器学习模型330,以及从机器学习模型330输出的织物的物性参数350。机器学习模型可以相当于根据一实施例的人工神经网络。
例如,织物的覆盖特性(drape property)可以给织物的外观带来决定性影响。织物的覆盖特性作为可以视觉识别的特性,可以通过机器学习从照片或视频数据库中导出机制。然而,使用照片或视频作为训练数据时,因拍摄角度、镜头属性、照明以及织物颜色等不可控外在因素,通常要求的数据多样性过高。为了处理多样数据,需要更多的训练数据以及卷积层等更复杂的训练模型。
因此,在一实施例中,对机器学习模型330进行训练使其从放在三维几何物体(例如圆柱体)上的织物的照片310估计织物的物性参数350,由此可以重现对象织物的静态覆盖形状。
图4是说明根据一实施例的人工神经网络的操作的附图。参照图4,根据一实施例的人工神经网络执行第一步,从被放在三维几何物体(例如圆柱体)上的织物的照片410中复原三维模型420,之后执行第二步,从复原的三维模型提取织物的三维边界曲线430并估计织物的物性参数440,由此输出织物的物性参数450。
根据实施例,第一步及第二步的操作均由包括在估计装置的人工神经网络执行,或者第一步的操作由估计装置,第二步的操作由包括在估计装置的人工神经网络执行。
例如,照片410可以是拍摄放置在三维几何物体上的织物的三维轮廓形状的影像。
根据一实施例的人工神经网络在接收到织物的照片410后,可以从照片410复原420或重构包括织物的三维轮廓形状的三维模型。其中,三维模型相当于前述的织物的网格模型。因织物是静态(static state)的,并且已知其原本的形状与大小,因此人工神经网络可以更容易地复原三维模型。
人工神经网络可以从复原的三维模型420提取相当于织物的三维轮廓形状的织物的边界曲线430。此时,人工神经网络可以提取与织物的边界曲线430相对应的三维顶点坐标。在将边界曲线430的三维坐标提供至神经网络之前,需要先执行标准化操作。例如,三维坐标可以对各坐标的最小值、最大值进行标准化(normalize)。假设圆柱体位于正中间,对于x、z坐标的最小值,最大值可以是样本织物的横/纵尺寸的二分之一,对于y坐标的最小值是0,最大值是圆柱体高度。标准化值可以用(坐标-最小值)/(最大值-最小值)来计算。人工神经网络从与织物的三维边界曲线430相对应的三维顶点坐标来估计440织物的物性参数并进行输出450。
其中,机器学习模型330的输入与图4的第一步输入相同,机器学习模型330的输出与图4的第二步的输出相同。输入可以是所覆盖织物的三维轮廓模型,作为示例,可以是以相同间距对三维轮廓模型进行采样的三维位置的集合。输出是估计的物性参数(图4的450)。图3的350中显示的物性参数是列出了通常用于织物模拟的物性参数,实施例中可以使用图4的450中显示的物性参数,即相当于图3的350的部分集合。人工神经网络在完成学习后,将相当于特定织物的三维轮廓形状的三维位置集合输入至人工神经网络,即可估计图4的450中定义的物性参数。
收集学习所需的学习数据的方法如下。最初给定数百个实际织物与物性参数数据(以预设的方法提供)。为了生成与给定的物性参数集合在统计上具有相似分布的新的随机物性参数,从最初的数据学习GMM模型。从GMM模型生成所需数量的物性参数集合,使用新生成的物性参数进行虚拟模拟,由此来生成人工神经网络模型的学习数据,即覆盖相应织物的三维轮廓模型。
图5是说明根据一实施例的估计的物性参数与织物的三维轮廓形状之间的相关性的附图。图5示出了表示根据一实施例的显示织物的物性参数与织物的三维轮廓形状之间的相关矩阵(correlation matrix)的图510,以及根据一实施例的织物的物性参数之间的自相关矩阵的图530。
在图5中,横轴(horizontal axis)可以显示织物的三维轮廓形状前30个采样点的x,y,以及z坐标。在图510中示出的颜色图(color map)的各个颜色可以表示织物的物性参数与织物的三维轮廓形状之间的相关性(correlations)不低。
图5图表中的x轴是将x,y,z坐标一维展开。例如,第一个三维位置的x,y,z是第0,1,2号数据,第二个三维位置的x,y,z是第3,4,5号数据,第k个三维位置的x,y,z是第3*(k-1)+0,3*(k-1)+1,3*(k-1)+2号数据。如图5所示,第0~23号数据是8个采样数据的x,y,z值。横轴数据与相应纵轴数据(拉伸-纬纱,弯曲-经纱,剪切,弯曲-纬纱,弯曲-经纱,弯曲-斜纹)的相关值(correlation value)在纵轴上以颜色标出。相关值(correlation value)越接近1或-1(颜色越深),两数据间的相关性更大。
图6是显示根据一实施例的人工神经网络的结构的附图。图6示出了根据一实施例的包括第一神经网络610与第二神经网络630的人工神经网络600的结构。
例如,人工神经网络600可以包括估计与织物刚度(stiffness)相关的物性参数的第一神经网络610;以及估计与织物的弯曲(bending)相关的物性参数的第二神经网络630。作为示例,与织物刚度相关的物性参数可以包括纬纱拉伸刚度(stretch-weftstiffness)、经纱拉伸刚度(stretch-wrap stiffness)、剪切刚度(shear stiffness)等。并且作为示例,与织物的弯曲相关的物性参数可以包括纬纱弯曲刚度(banding-weftstiffness)、经纱弯曲刚度(banding-wrap stiffness),以及弯曲斜纹刚度(bending biasstiffness)等。
此时,第一神经网络610与第二神经网络630可以由相互独立的全连接神经网络(Full Connected Neural Network;FCNN)模型构成。前述公式1可以对全连接神经网络模型进行定义。两个神经网络的输入均为轮廓采样点的三维位置。以相同的输入分别对拉伸/弯曲学习两个学习模型,并分别从两个模型输出拉伸/弯曲参数。
参照图5的图530,在由第一神经网络610输出的与织物刚度相关的物性参数(“第一集合”)与由第二神经网络630输出的与织物的弯曲相关的物性参数(“第二集合”)中,属于同一集合的物性参数具有很高的自相关性,反之两集合之间的相关性相对较弱。相同集合是指拉伸参数与其他拉伸参数(纬纱拉伸/经纱拉伸/剪切)、弯曲参数与其他弯曲参数(纬纱弯曲/经纱弯曲/斜纹弯曲)具有很大的相关性。分别构成第一神经网络610及第二神经网络630的隐藏层与节点个数、激活类型以及其他参数可通过实验实现最优化。
在一示例实施例中,神经网络模型600可以对32batch大小进行100epoch的训练。
图7是显示根据一实施例的人工神经网络训练数据的生成方法的流程图。参照图7,根据一实施例的训练数据的生成装置(下面称为“生成装置”)经过步骤710至步骤740来生成用于估计织物的物性参数的人工神经网络训练数据。
在步骤710中,生成装置收集有关织物的第一数量的物性参数。其中,作为示例,第一数量的物性参数可以包括实际织物材料(materials)的400种机械特性(mechanicalproperties)。此时,生成装置除了织物的物性参数之外,还可以再收集织物密度。第一数量的非限制性示例是400个。
在步骤720中,生成装置利用基于步骤710收集的物性参数的生成模型对第二数量的物性参数进行采样,其中第二数量大于第一数量。生成模型可以利用高斯混合模型(Gaussian Mixture Model;GMM)的概率分布等来对物性参数进行随机采样。作为示例,第二数量是比400大的数量。
根据实施例,为了生成训练所需足够大的集合,生成装置可以随机采集物性参数与密度。然后,为了对各参数集合收集包括三维轮廓形状的信息,生成装置通过模拟系统来模拟圆柱体测试。没有先验参数空间信息(prior parameter space information)的采样存在生成偏离(bias)或无效数据集的风险,而无效数据会生成物理上无法实现或者不适合衣服的参数。在一实施例中,为防止这一风险,所利用的生成模型可以是基于从实际织物中测量的机械性能来生成。
生成装置可以将各机械特性集合转换为6个物性参数以及密度。下面表1是从400个实际织物中测量的6种参数以及密度的统计值。
表1
Figure BDA0003249728710000131
在表1中,平均值(mean)、最小值(min)、最大值(max),以及标准偏差(standarddeviation(std.dev.))可以包括用于训练机器学习的大范围参数空间。其中,1,000,000是根据一实施例的模拟系统定义的最大刚度极限(maximum limit of stiffness)。
作为示例,生成装置还可以利用400个实际织物数据集合,用7个变量(例如,6个物性参数以及密度)生成高斯混合模型(GMM)。在一示例实施例中,将最优簇数为5个的高斯混合模型作为用于对训练数据进行采样的生成模型。这样具有两个很重要的优点。首先,生成装置对各簇采集相同数量,能够轻松避免数据偏离。第二,生成装置可以降低采集不适合衣物的参数,即无效参数集合的可能性。
在一示例实施例中,利用前述图2所述的圆柱体测试一共对100,000样本(对各簇采集20,000样本)进行模拟并收集特征向量。此时,虚拟织物的最大粒子距离可以是5mm,时间阶段是0.33秒。生成装置在全部粒子处于稳定状态时停止模拟,并丢弃无法收敛的样本。
在步骤730中,生成装置基于在步骤720中采集的物性参数对相应织物的覆盖形状进行模拟,从而获取相应织物的三维轮廓形状。此时,作为示例,相应织物的覆盖形状是将相应织物放置在三维几何物体上时的覆盖形状。
在步骤740中,生成装置基于在步骤720中采集的物性参数及在步骤730获取的相应织物的三维轮廓形状,生成对应于相应织物的训练数据。
根据实施例,生成装置利用在步骤740中生成的对于相应织物的训练数据,对人工神经网络进行训练使其能够估计相应织物的物性参数。
图8是根据一实施例的物性参数的估计装置的框图。参照图8,根据一实施例的估计装置800可以包括通信接口810、处理器830、存储器850,以及输出装置870。通信接口810、处理器830、存储器850,以及输出装置870通过通信总线805互相通信。
通信接口810获取包括放置在三维几何物体上的织物的三维轮廓形状的信息。根据实施例,通信接口810还可以获取织物的重量或织物密度。
处理器830将信息应用于预先训练的人工神经网络,由此估计用于重现由织物制成的三维服装的覆盖形状的织物物性参数。其中,织物的三维轮廓形状与三维服装的覆盖形状可以彼此具有相关性。
或者,通信接口810可以接收拍摄放置在三维几何物体上的织物的三维轮廓形状的影像。此时,处理器830从影像生成包括织物的三维轮廓形状的三维模型。处理器830可以从三维模型提取与织物的三维轮廓形状相对应的三维顶点坐标。
存储器850可以存储利用通信接口810获得的织物的三维轮廓形状,和/或织物密度。并且,存储器850可以存储处理器830估计的织物的物性参数。存储器850可以存储上述处理器830的处理过程中生成的多种信息。此外,存储器850可以存储多种数据与程序等。存储器850可以包括易失性存储器或非易失性存储器。存储器850具备硬盘等大容量存储介质,由此存储各种数据。
输出装置870可以输出处理器830估计的织物的物性参数。输出装置870可以输出物性参数本身,或者,还可以输出将采用物性参数的织物制成的虚拟服装覆盖在三维分身上的画面。作为示例,输出装置870可以是显示装置,或者是将纸样样片打印在纸张或布料上的打印装置。
或者,处理器830可以执行基于图1至图7说明的至少一个方法或对应于至少一个方法的算法。处理器830可以是由硬件体现的数据处理装置,其中,该硬件包括具有用于执行目标操作(desired operations)的物理结构的回路。例如,目标操作可以包括程序中包括的代码(code)或指令(instructions)。作为示例,处理器830可以被配置为中央处理单元(CPU,Central Processing Unit)、图形处理单元(GPU,Graphics Processing Unit)或神经网络处理单元(NPU,Neural network Processing Unit)。例如,由硬件实现的估计装置800可以包括微处理器(microprocessor),中央处理单元(central processing unit)、处理器内核(processor core)、多核处理器(multi-core processor)、多处理器(multiprocessor)、专用集成电路(Application-Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)。
处理器830可以执行程序并控制估计装置800。处理器830执行的程序代码可以存储在存储器850中。
根据实施例的方法以能够通过多种计算机手段执行的程序命令的形式体现,并记录在计算机读写介质中。所述计算机读写介质能够以单独或者组合的形式包括程序命令、数据文件、数据结构等。记录在所述介质的程序指令能够是为实现实施例而特别设计与构成的指令,或者是计算机软件领域普通技术人员能够基于公知使用的指令。计算机读写记录介质能够包括硬盘、软盘以及磁带等磁性媒介(magnetic media);与CD-ROM、DVD等类似的光学媒介(optical media);与光磁软盘(floptical disk)类似的磁光媒介(magneto-optical media),以及与只读存储器(ROM)、随机存取存储器(RAM)、闪存等类似的为存储并执行程序命令而特别构成的硬件装置。程序指令的例子不仅包括通过编译器生成的机器语言代码,还包括通过使用解释器等能够由计算机执行的高级语言代码。为执行实施例的操作,所述硬件装置能够构成为以一个以上的软件模块实现操作的方式,反之亦然。
软件能够包括计算机程序(computer program)、代码(code)、指令(instruction),或其中的一个以上的组合,能够使处理装置按照所期待的方式操作,或者,单独或共同(collectively)命令处理装置。为通过处理装置进行解释或者向处理装置提供命令或数据,软件和/或数据能够永久或临时体现于(embody)任何类型的设备、构成要素(component)、物理装置、虚拟装置(virtual equipment)、计算机存储介质或装置,或者传送的信号波(signal wave)。软件分布于通过网络连接的计算机系统上,能够以分布式存储或执行。软件及数据能够存储于一个以上的计算机读写存储介质中。
综上,参照有限的附图说明了实施例,但显而易见地,对于本领域普通技术人员而言,在不脱离权利要求及其等价物的精神和范围的情况下可以对这些实例的形式和细节进行多种修改。本文所述的实施例仅用于说明,并非出于限制目的。对每个实施例的特征或方面的描述同样适用于其他实施例中的类似特征或方面。当以不同的顺序,和/或系统、架构、设备或电路的组件以不同的方式组合,和/或由其他组件或其等价物替换或补充,也可以获得适当的结果。
因此,本公开的范围并非受限于具体实施方式,而是由权利要求及其等价物来定义,并且包括在权利要求书及其等价范围内的所有变化均应被解释为包括在本公开中。

Claims (20)

1.一种估计织物物性参数的方法,其特征在于,
包括以下步骤:
获取包括放置在三维几何物体上的织物的三维轮廓形状的信息;
将所述信息应用于预先训练的人工神经网络,从而估计用于重现由所述织物制成的三维服装的覆盖形状的所述织物的物性参数;以及
输出所述织物物性参数。
2.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述织物的三维轮廓形状与所述三维服装的覆盖形状彼此具有相关性。
3.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述获取信息的步骤,包括以下步骤:
接收拍摄所述放置在三维几何物体上的织物的三维轮廓形状的影像;
从所述影像生成包括所述织物的三维轮廓形状的三维模型;以及
从所述三维模型提取与所述织物的三维轮廓形状相对应的三维顶点坐标。
4.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述获取信息的步骤,包括以下步骤:
获得与所述放置在三维几何物体上的织物的三维轮廓形状相对应的三维顶点坐标。
5.根据权利要求4所述的估计织物物性参数的方法,其特征在于,
所述获取三维顶点坐标的步骤,包括以下步骤:
从包括所述放置在三维几何物体上的织物的三维轮廓形状的深度影像或三维扫描影像中对与所述三维轮廓形状相对应的所述三维顶点进行采样;以及
获取所述采样的三维顶点坐标。
6.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述信息还包括所述织物的密度。
7.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述织物包括天然纤维织物、合成纤维织物,以及包括棉、亚麻、羊毛、聚酯纤维、尼龙、弹性纤维的混纺纱织物中的至少一种。
8.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述织物的至少部分区域被放置在所述三维几何物体上由所述三维几何物体支撑,剩余部分区域未被所述三维几何物体支撑而下垂,
所述织物的三维轮廓形状由所述织物中未被所述三维几何物体支撑而下垂的剩余区域的外轮廓线形成。
9.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述织物的物性参数包括所述织物的纬纱拉伸刚度、经纱拉伸刚度、剪切刚度、纬纱弯曲刚度、经纱弯曲刚度,以及弯曲斜纹刚度中的至少一个。
10.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
通过训练数据对所述人工神经网络进行训练,所述训练数据是基于高斯混合模型的概率分布随机采样的织物的物性参数来生成。
11.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
所述人工神经网络包括估计与所述织物刚度相关的物性参数的第一神经网络;以及
估计与所述织物的弯曲相关的物性参数的第二神经网络。
12.根据权利要求11所述的估计织物物性参数的方法,其特征在于,
所述第一神经网络及所述第二神经网络分别包括全连接神经网络模型。
13.根据权利要求1所述的估计织物物性参数的方法,其特征在于,
输出所述织物物性参数的步骤,包括以下步骤:
将所述织物物性参数应用于所述三维服装;以及
显示覆盖所述三维服装的结果。
14.一种生成人工神经网络训练数据的方法,其特征在于,
包括以下步骤:
收集织物的第一数量的物性参数;
利用基于所述物性参数的生成模型对第二数量的物性参数进行采样,所述第二数量大于所述第一数量;
基于所述采样的物性参数来模拟相应织物的覆盖形状,从而获得所述相应织物的三维轮廓形状;以及
基于所述采样的物性参数及所述相应织物的三维轮廓形状,生成对应于所述相应织物的训练数据。
15.根据权利要求14所述的生成训练数据的方法,其特征在于,
所述生成模型根据高斯混合模型的概率分布对所述物性参数进行随机采样。
16.根据权利要求14所述的生成训练数据的方法,其特征在于,
利用对应于所述相应织物的训练数据,对所述人工神经网络进行训练以估计所述相应织物的物性参数。
17.一种存储在计算机可读存储媒介上的计算机程序,其特征在于,
与硬件结合来执行权利要求1所述的方法。
18.一种织物物性参数的估计装置,其特征在于,
包括:
通信接口,其获取包括放置在三维几何物体上的织物的三维轮廓形状的信息;
处理器,其将所述信息应用于预先训练的人工神经网络,从而估计用于重现由所述织物制成的三维服装的覆盖形状的所述织物物性参数;以及
输出装置,其输出所述织物物性参数。
19.根据权利要求18所述的织物物性参数的估计装置,其特征在于,
所述织物的三维轮廓形状与所述三维服装的覆盖形状彼此具有相关性。
20.根据权利要求18所述的织物物性参数的估计装置,其特征在于,
所述通信接口接收拍摄所述放置在三维几何物体上的织物的三维轮廓形状的影像,
所述处理器从所述影像生成包括所述织物的三维轮廓形状的三维模型,并从所述三维模型提取与所述织物的三维轮廓形状相对应的三维顶点坐标。
CN202111046428.6A 2020-09-07 2021-09-07 估计织物物性参数的方法及装置 Pending CN114241473A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0113850 2020-09-07
KR1020200113850A KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Publications (1)

Publication Number Publication Date
CN114241473A true CN114241473A (zh) 2022-03-25

Family

ID=77666276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111046428.6A Pending CN114241473A (zh) 2020-09-07 2021-09-07 估计织物物性参数的方法及装置

Country Status (7)

Country Link
US (1) US11900582B2 (zh)
EP (1) EP3975134A1 (zh)
JP (1) JP7462111B2 (zh)
KR (2) KR102504871B1 (zh)
CN (1) CN114241473A (zh)
CA (1) CA3191980A1 (zh)
WO (1) WO2022050810A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023212861A1 (zh) * 2022-05-05 2023-11-09 浙江凌迪数字科技有公司 一种基于学习的悬垂式面料弯曲硬度测量方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998268B (zh) * 2022-06-07 2022-11-25 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置
TW202420119A (zh) * 2022-11-03 2024-05-16 財團法人紡織產業綜合研究所 布料特徵預測方法
US20240257330A1 (en) * 2023-01-26 2024-08-01 Clo Virtual Fashion Inc. Method and apparatus for estimating physical property parameter of target fabric

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106971199A (zh) * 2017-03-10 2017-07-21 东华大学 一种织物三维悬垂形态的自动分类方法
WO2017203262A2 (en) * 2016-05-25 2017-11-30 Metail Limited Method and system for predicting garment attributes using deep learning
JP2019016164A (ja) * 2017-07-06 2019-01-31 日本電信電話株式会社 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
CN109325941A (zh) * 2018-09-05 2019-02-12 深圳灵图慧视科技有限公司 表面属性检测方法及装置、计算机设备及计算机可读介质
US20190179978A1 (en) * 2017-12-12 2019-06-13 Wipro Limited Method and device for generating physical design parameters of an object
US20190281915A1 (en) * 2016-07-20 2019-09-19 F.F.P. Technologies Ltd. Seamless wearable structure garment
CN111311751A (zh) * 2020-02-12 2020-06-19 叠境数字科技(上海)有限公司 一种基于深度神经网络的三维衣服模型的重建方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707716B1 (ko) * 2000-04-29 2007-04-16 디엔엠에프티 (주) 천의 드레이프 평가 방법 및 시스템과 이를 구축한 전자 기록 매체
JP2004219071A (ja) 2002-11-22 2004-08-05 Hyogo Prefecture 織物の風合い予測方法、装置、およびプログラム
JP4793974B2 (ja) 2005-01-31 2011-10-12 愛知県 織物構造のモデル化プログラム、記録媒体及び織物構造のモデル化装置
KR100910589B1 (ko) * 2007-10-17 2009-08-03 충남대학교산학협력단 옷감 시뮬레이터를 이용한 의복압 측정방법
KR101284794B1 (ko) 2009-12-21 2013-07-10 한국전자통신연구원 직조 형태에 따른 섬유재질 렌더링 장치 및 그 방법
ES2570653B1 (es) * 2014-11-18 2017-03-24 Universidad Rey Juan Carlos Método implementado por ordenador, sistema y producto de programa de ordenador para simular el comportamiento de un tejido entretejido a nivel de hilo
JP7534311B2 (ja) * 2018-10-09 2024-08-14 レソナイ インコーポレイテッド 3dシーン拡張及び再構築のためのシステム及び方法
WO2021003378A1 (en) * 2019-07-02 2021-01-07 Insurance Services Office, Inc. Computer vision systems and methods for blind localization of image forgery

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203262A2 (en) * 2016-05-25 2017-11-30 Metail Limited Method and system for predicting garment attributes using deep learning
US20190281915A1 (en) * 2016-07-20 2019-09-19 F.F.P. Technologies Ltd. Seamless wearable structure garment
CN106971199A (zh) * 2017-03-10 2017-07-21 东华大学 一种织物三维悬垂形态的自动分类方法
JP2019016164A (ja) * 2017-07-06 2019-01-31 日本電信電話株式会社 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
US20190179978A1 (en) * 2017-12-12 2019-06-13 Wipro Limited Method and device for generating physical design parameters of an object
CN109325941A (zh) * 2018-09-05 2019-02-12 深圳灵图慧视科技有限公司 表面属性检测方法及装置、计算机设备及计算机可读介质
CN111311751A (zh) * 2020-02-12 2020-06-19 叠境数字科技(上海)有限公司 一种基于深度神经网络的三维衣服模型的重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
AZMAT HUSSAIN 等: "基于三维悬垂模型的织物手感评价新方法", 《AUTEX RESEARCH JOURNAL》, 13 May 2020 (2020-05-13), pages 155 - 167 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023212861A1 (zh) * 2022-05-05 2023-11-09 浙江凌迪数字科技有公司 一种基于学习的悬垂式面料弯曲硬度测量方法

Also Published As

Publication number Publication date
KR20220032270A (ko) 2022-03-15
JP2023540600A (ja) 2023-09-25
KR102504871B1 (ko) 2023-03-02
US20220076405A1 (en) 2022-03-10
KR20230035282A (ko) 2023-03-13
EP3975134A1 (en) 2022-03-30
US11900582B2 (en) 2024-02-13
WO2022050810A1 (en) 2022-03-10
KR102553955B1 (ko) 2023-07-11
CA3191980A1 (en) 2022-03-10
JP7462111B2 (ja) 2024-04-04

Similar Documents

Publication Publication Date Title
CN114241473A (zh) 估计织物物性参数的方法及装置
Jiang et al. Bcnet: Learning body and cloth shape from a single image
Dong et al. Fw-gan: Flow-navigated warping gan for video virtual try-on
Yuksel et al. Stitch meshes for modeling knitted clothing with yarn-level detail
Grigorev et al. Hood: Hierarchical graphs for generalized modelling of clothing dynamics
CN114663199A (zh) 一种动态展示的实时三维虚拟试衣系统及方法
US20210056754A1 (en) Generating clothing patterns of garment using bounding volumes of body parts
CN113593001A (zh) 目标对象三维重建方法、装置、计算机设备和存储介质
Feng et al. Learning-based bending stiffness parameter estimation by a drape tester
Liang et al. Machine learning for digital try-on: Challenges and progress
CN117557755A (zh) 虚拟场景中师生化身服饰可视化方法及系统
Jojic et al. Computer modeling, analysis, and synthesis of dressed humans
CN110309554B (zh) 基于服装建模与仿真的视频人体三维重建方法及装置
Taylor et al. Innovative potential of 3D software applications in fashion and textile design
Gong et al. Progress towards effective garment CAD
Frâncu et al. Virtual try on systems for clothes: Issues and solutions
Zhu et al. Generation of Realistic Virtual Garments on Recovery Human Model
Sanchez-Riera et al. Physxnet: A customizable approach for learning cloth dynamics on dressed people
Achar et al. A Comparative Study of Garment Draping Techniques
CN118396917A (zh) 推定目标面料的物性参数的方法及装置
Bottino et al. Quantitavely Comparing Virtual and Real Draping of Clothes
Pritchard Cloth parameters and motion capture
FENG et al. Research on Fiber Cloth Simulation Fitting
EP4407506A1 (en) Method and apparatus for estimating physical property parameter of target fabric
Rial-Farràs et al. UV-based reconstruction of 3D garments from a single RGB image

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40063965

Country of ref document: HK

CB02 Change of applicant information
CB02 Change of applicant information

Address after: 42nd Floor, Jiangnan Financial Center, 152 Teheran Road, Jiangnan District, Seoul, South Korea

Applicant after: Kelou virtual Fashion Co.,Ltd.

Address before: 17-4, 8th Street, Doosan Road, Jiangnan District, Seoul, Korea

Applicant before: Kelou virtual Fashion Co.,Ltd.