KR20230035282A - 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치 - Google Patents

직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치 Download PDF

Info

Publication number
KR20230035282A
KR20230035282A KR1020230024625A KR20230024625A KR20230035282A KR 20230035282 A KR20230035282 A KR 20230035282A KR 1020230024625 A KR1020230024625 A KR 1020230024625A KR 20230024625 A KR20230024625 A KR 20230024625A KR 20230035282 A KR20230035282 A KR 20230035282A
Authority
KR
South Korea
Prior art keywords
fabric
physical property
property parameters
fabrics
neural network
Prior art date
Application number
KR1020230024625A
Other languages
English (en)
Other versions
KR102553955B1 (ko
Inventor
최명걸
주은정
Original Assignee
(주)클로버추얼패션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)클로버추얼패션 filed Critical (주)클로버추얼패션
Priority to KR1020230024625A priority Critical patent/KR102553955B1/ko
Publication of KR20230035282A publication Critical patent/KR20230035282A/ko
Application granted granted Critical
Publication of KR102553955B1 publication Critical patent/KR102553955B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

일 실시예에 따른 직물의 물성 파라미터를 추정하는 방법 및 장치는 3차원 기하학 물체 위에 놓인 직물의 외형 정보를 획득하고, 외형 정보를 미리 트레이닝된 인공 신경망에 인가함으로써 직물에 의해 제작되는 3차원 의상의 드레이프 형태를 재현하는 데에 이용되는 직물의 물성 파라미터를 추정하며, 직물의 물성 파라미터를 출력한다.

Description

직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치{METHOD OF GENERATING TRAINING DATA OF ARTIFICAIL NEURAL NETWORK FOR ESTIMATNG MATERIAL PROPERTY OF FABRIC, METHOD AND APPARATUS OF ESTIMATNG MATERIAL PROPERTY OF FABRIC}
실시예들은 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치에 관한 것이다.
의상(clothes)은 사람이 착용한 경우에 3차원으로 보이지만, 실제로는 2차원의 패턴(pattern)에 따라 재단된 직물(fabric) 조각의 조합에 해당하므로 2차원에 가깝다. 의상의 재료가 되는 직물은 유연(flexible)하기 때문에 의상을 착용한 사람의 신체 모양이나 움직임에 따라 그 형태가 다양하게 변화될 수 있다. 또한, 직물은 예를 들어, 강도, 신도, 및 수축률 등과 같은 다양한 물성을 가질 수 있으며, 각 직물의 물성 차이에 의해 동일한 디자인의 의상이라 하더라도 그 표현 형태 및 느낌이 상이할 수 있다.
전술한 배경기술은 발명자가 본원의 개시 내용을 도출하는 과정에서 보유하거나 습득한 것으로서, 반드시 본 출원 전에 일반 공중에 공개된 공지기술이라고 할 수는 없다.
일 실시예에 따르면, 직물의 외형 정보를 미리 트레이닝 된 신경망에 인가함으로써 직물에 의해 제작되는 3차원 의상의 드레이프 형태(drape shapes)를 재현하는 데에 이용되는 직물의 물성 파라미터(material property parameter)를 보다 정확하게 추정할 수 있다.
일 실시예에 따르면, 사각형 형태의 직물에 대한 외형 정보를 이용함으로써 3차원 의상의 드레이프 형태에 대한 다양성을 확보할 수 있다.
일 실시예에 따르면, 직물의 깊이 영상을 이용함으로써 인공 신경망의 트레이닝에 이용되는 데이터의 크기를 감소시킬 수 있다.
일 실시예에 따르면, 직물의 깊이 영상을 이용함으로써 신경망이 직물의 물성 파라미터를 추정하기 위해 수행하는 계산의 복잡성을 감소시킬 수 있다.
일 실시예에 따르면, 직물의 외형 정보와 직물의 밀도를 함께 이용함으로써 인공 신경망에 대한 트레이닝의 정확성을 향상시킬 수 있다.
일 실시예에 따르면, 직물의 물성 파라미터를 추정하는 방법은 3차원 기하학 물체 위에 놓인 직물(fabric)의 외형 정보를 획득하는 단계; 상기 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 상기 직물에 의해 제작되는 3차원 의상의 드레이프 형태(drape shapes)를 재현하는 데에 이용되는 상기 직물의 물성 파라미터(material property parameter)를 추정하는 단계; 및 상기 직물의 물성 파라미터를 출력하는 단계를 포함한다.
상기 직물의 외형 정보와 상기 3차원 의상의 드레이프 형태는 서로 상관 관계를 가질 수 있다.
상기 외형 정보를 획득하는 단계는 상기 3차원 기하학 물체 위에 놓인 직물의 깊이 영상을 획득하는 단계를 포함할 수 있다.
상기 정보는 상기 직물의 밀도를 더 포함할 수 있다.
상기 직물은 천연 섬유 직물(natural fiber fabrics), 합성 섬유 직물(synthetic fiber fabrics) 및 면(cotton), 린넨(linen), 울(wool), 폴리에스터(polyester), 나일론(nylon), 엘라스틴(elastane) 등의 혼합사 직물(blended yarn fabrics) 중 적어도 하나를 포함할 수 있다.
상기 직물의 적어도 일부 영역은 상기 3차원 기하학 물체 위에 놓여 상기 3차원 기하학 물체에 의해 지지되고, 나머지 일부 영역은 상기 3차원 기하학 물체에 의해 지지되지 않아 아래로 흘러내릴 수 있다.
상기 직물의 물성 파라미터는 상기 직물의 위사 강도(stretch-weft stiffness), 경사 강도(stretch-wrap stiffness), 전단 강도(shear stiffness), 위사 굽힘 강도(banding-weft stiffness), 경사 굽힘 강도(banding-wrap stiffness) 및 바이어스 굽힘 강도(bending bias stiffness) 중 적어도 하나를 포함할 수 있다.
상기 인공 신경망은 가우시안 혼합 모델(Gaussian Mixture Model; GMM)의 확률 분포에 의해 다양한 직물의 물성 파라미터들에 기초하여 생성된 트레이닝 데이터들에 의해 트레이닝된 것일 수 있다.
상기 인공 신경망은 상기 직물의 강도(stiffness)와 관련된 물성 파라미터 를 추정하는 제1 신경망; 및 상기 직물의 굽힘(bending)과 관련된 물성 파라미터 를 추정하는 제2 신경망을 포함할 수 있다.
상기 제1 신경망 및 상기 제2 신경망 각각은 완전 연결된 신경망 모델(Fully Connected Neural Network Model)을 포함할 수 있다.
상기 직물의 물성 파라미터를 출력하는 단계는 상기 직물의 물성 파라미터를 상기 3차원 의상에 적용하는 단계; 및 상기 3차원 의상을 드레이핑한 결과를 표시하는 단계를 포함할 수 있다.
일 실시예에 따르면, 인공 신경망의 트레이닝 데이터를 생성하는 방법은 직물들에 대한 제1 개수의 물성 파라미터들을 수집하는 단계; 상기 직물 파라미터들에 기초한 생성 모델을 이용하여 상기 제1 개수보다 많은 제2 개수의 물성 파라미터들을 샘플링하는 단계; 상기 샘플링한 물성 파라미터들에 기초하여 해당 직물의 드레이프 형태를 시뮬레이션 함으로써 상기 해당 직물의 외형 정보를 획득하는 단계; 및 상기 샘플링한 물성 파라미터 및 상기 해당 직물의 외형 정보를 기초로, 상기 해당 직물에 대응하는 트레이닝 데이터를 생성하는 단계를 포함한다.
상기 생성 모델은 가우시안 혼합 모델(Gaussian Mixture Model; GMM)의 확률 분포에 의해 상기 직물 파라미터들을 무작위로 샘플링할 수 있다.
상기 트레이닝 데이터를 생성하는 방법은 상기 해당 직물에 대응하는 트레이닝 데이터를 이용하여 상기 인공 신경망이 상기 해당 직물의 물성 파라미터를 추정하도록 트레이닝하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 직물의 물성 파라미터를 추정하는 장치는 3차원 기하학 물체 위에 놓인 직물의 외형 정보를 획득하는 통신 인터페이스; 상기 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 상기 직물에 의해 제작되는 3차원 의상의 드레이프 형태를 재현하는 데에 이용되는 상기 직물의 물성 파라미터를 추정하는 프로세서; 및 상기 직물의 물성 파라미터를 출력하는 출력 장치를 포함한다.
상기 직물의 외형 정보와 상기 3차원 의상의 드레이프 형태는 서로 상관 관계를 가질 수 있다.
상기 통신 인터페이스는 상기 3차원 기하학 물체 위에 놓인 직물의 깊이 영상을 수신할 수 있다.
일 측에 따르면, 직물의 외형 정보를 미리 트레이닝 된 신경망에 인가함으로써 직물에 의해 제작되는 3차원 의상의 드레이프 형태를 재현하는 데에 이용되는 직물의 물성 파라미터를 보다 정확하게 추정할 수 있다.
일 측에 따르면, 사각형 형태의 직물에 대한 외형 정보를 이용함으로써 3차원 의상의 드레이프 형태에 대한 다양성을 확보할 수 있다.
일 측에 따르면, 직물의 깊이 영상을 이용함으로써 인공 신경망의 트레이닝에 이용되는 데이터의 크기를 감소시킬 수 있다.
일 측에 따르면, 직물의 깊이 영상을 이용함으로써 신경망이 직물의 물성 파라미터를 추정하기 위해 수행하는 계산의 복잡성을 감소시킬 수 있다.
일 측에 따르면, 직물의 외형 정보와 직물의 밀도를 함께 이용함으로써 인공 신경망에 대한 트레이닝의 정확성을 향상시킬 수 있다.
도 1은 일 실시예에 따른 물성 파라미터를 추정하는 방법을 나타낸 흐름도.
도 2는 일 실시예에 따라 직물의 3차원 윤곽 형태에 대한 정보를 획득하는 방법을 설명하기 위한 도면.
도 3은 일 실시예에 따른 인공 신경망의 트레이닝 원리를 설명하기 위한 도면.
도 4는 일 실시예에 따른 인공 신경망의 동작을 설명하기 위한 도면.
도 5는 일 실시예에 따라 추정된 물성 파라미터와 직물의 3차원 윤곽 형태 간의 상관 관계를 나타낸 도면.
도 6은 일 실시예에 따른 인공 신경망의 구성을 나타낸 도면.
도 7은 실제 직물과 일 실시예에 따른 인공 신경망을 이용하여 추정한 물성 파라미터를 사용한 제작한 직물의 시뮬레이션 결과를 나타낸 도면.
도 8은 실제 의상과 일 실시예에 따른 인공 신경망에 의해 추정된 물성 파라미터를 사용하여 시뮬레이션 한 가상 의상의 착장 결과를 나타낸 도면.
도 9는 일 실시예에 따른 인공 신경망의 트레이닝 데이터를 생성하는 방법을 나타낸 흐름도.
도 10은 일 실시예에 따른 물성 파라미터를 추정하는 장치의 블록도.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
도 1은 일 실시예에 따른 물성 파라미터를 추정하는 방법을 나타낸 흐름도이다. 도 1을 참조하면, 일 실시예에 따른 물성 파라미터를 추정하는 장치(이하, '추정 장치')는 단계(110) 내지 단계(130)의 과정을 통해 직물의 물성 파라미터를 추정할 수 있다.
단계(110)에서, 추정 장치는 3차원 기하학 물체 위에 놓인 직물(fabric)의 3차원 윤곽 형태(contour shape)를 포함하는 정보를 획득한다. 3차원 기하학 물체는 예를 들어, 원통 형의 실린더, 큐브, 스피어, 미니어쳐, 또는 마네킹의 형태를 가질 수 있으며, 반드시 이에 한정되지는 않는다. 직물은 예를 들어, 천연 섬유 직물(natural fiber fabrics), 합성 섬유 직물(synthetic fiber fabrics) 및 면(cotton), 린넨(linen), 울(wool), 폴리에스터(polyester), 나일론(nylon), 엘라스틴(elastane) 등의 혼합사 직물(blended yarn fabrics) 중 적어도 하나를 포함할 수 있다. 직물의 형상은 예를 들어, 사각형일 수도 있고, 또는 원형일 수도 있으며, 반드시 이에 한정되지는 않는다. 이때, 직물의 적어도 일부 영역은 3차원 기하학 물체 위에 놓여 3차원 기하학 물체에 의해 지지되고, 나머지 일부 영역은 3차원 기하학 물체에 의해 지지되지 않아 아래로 흘러내릴 수 있다. 일 실시예에서 직물의 3차원 윤곽 형태는 직물에서 3차원 기하학 물체에 의해 지지되지 않아 아래로 흘러내린 나머지 일부 영역의 외곽선에 의해 형성될 수 있다. 일 실시예에서 직물의 3차원 윤곽 형태는 예를 들어, 직물이 고정된 정적 상태에서의 직물의 3차원 윤곽 형태에 해당할 수 있다.
단계(110)에서, 추정 장치는 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 촬영한 영상으로부터 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표를 추출할 수도 있다. 외부 요인(external factors)에 의해 사진 또는 비디오 데이터가 변경될 가능성이 적으므로 추정 장치가 영상으로부터 추출한 3차원 정점들의 좌표 또한 직접 획득한 3차원 정점들의 좌표와 마찬가지의 효과를 가질 수 있다. 또는 추정 장치는 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표를 직접 획득할 수 있다. 추정 장치가 직물의 3차원 윤곽 형태를 포함하는 정보를 획득하는 방법은 아래의 도 2를 참조하여 보다 구체적으로 설명한다.
실시예에 따라서, 추정 장치는 단계(110)에서 직물의 3차원 윤곽 형태에 더하여 직물의 밀도를 더 획득할 수 있다. 이때, 직물의 밀도는 해당 직물의 질량을 직물의 전체 면적으로 나눈 값에 해당할 수 있다. 직물의 3차원 윤곽 형태에 더해 직물의 밀도를 획득한 경우, 추정 장치는 시각으로 확인되지 않는 특성을 더 고려하여 단계(120)에서 직물의 물성 파라미터를 추정할 수 있다.
단계(120)에서, 추정 장치는 단계(110)에서 획득한 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 직물에 의해 제작되는 3차원 의상의 드레이프 형태(drape shapes)를 재현하는 데에 이용되는 직물의 물성 파라미터(material property parameter)를 추정한다. 본 명세서에서 '드레이핑(draping)'은 컴퓨터 프로그램에 의해 추정된 직물의 물성 파라미터가 반영된 직물에 의해 제작된 3차원 의상을 3차원 아바타 등에 입히는 과정으로 이해될 수 있다. 일 실시예에서 직물의 3차원 윤곽 형태와 3차원 의상의 드레이프 형태는 서로 상관 관계를 가질 수 있다.
일 실시예에 따른 인공 신경망은 직물의 정적 드레이프 형태를 재생하기 위한 직물의 물성 파라미터를 트레이닝시킨 신경망에 해당할 수 있다.
일 실시예에 따른 인공 신경망은 예를 들어, 아래의 수학식 1과 같은 추정 모델
Figure pat00001
에 의해 정의될 수 있다. 추정 모델
Figure pat00002
은 선형 회귀 모델로 정의될 수 있다.
Figure pat00003
여기서,
Figure pat00004
는 추정 모델
Figure pat00005
이 추정하고자 하는 6 개의 물성 파라미터들로 구성된 벡터를 나타낼 수 있다.
Figure pat00006
은 요소 별 로그(element-wise logarithm)를 나타내고,
Figure pat00007
는 특징 벡터를 나타낼 수 있다.
Figure pat00008
는 직물의 3차원 윤곽 형태에 대한 샘플링 포인트들의 집합을 나타내고,
Figure pat00009
는 직물의 밀도에 대한 샘플링 포인트들의 집합을 나타낼 수 있다.
일 실시예에서는 대규모 데이터 세트로 구성된 트레이닝 데이터에 의해 트레이닝된 추정 모델
Figure pat00010
에 의해 직물의 물성 파라미터를 추정할 수 있다. 이때, 대규모 데이터 세트는 예를 들어, 실제 직물 재료(fabric materials)의 400 가지 기계적 특성들(mechanical properties)로 생성된 생성 모델을 사용하여 생성된 것일 수 있다. 생성 모델은 예를 들어, 가우시안 혼합 모델(Gaussian Mixture Model; GMM)일 수 있다.
인공 신경망은 예를 들어, 가우시안 혼합 모델(GMM)의 확률 분포에 의해 랜덤하게 샘플링된 직물의 물성 파라미터들에 기초하여 생성된 트레이닝 데이터들에 의해 트레이닝된 것일 수 있다.
일 실시예에 따른 인공 신경망의 트레이닝 원리 및 인공 신경망의 동작은 아래의 도 3 내지 도 4를 참조하여 보다 구체적으로 설명한다. 또한, 인공 신경망의 구성은 아래의 도 6을 참조하여 보다 구체적으로 설명한다.
단계(120)에서 추정한 직물의 물성 파라미터는 예를 들어, 직물의 위사 강도(stretch-weft stiffness), 경사 강도(stretch-wrap stiffness), 전단 강도(shear stiffness), 위사 굽힘 강도(banding-weft stiffness), 경사 굽힘 강도(banding-wrap stiffness) 및 바이어스 굽힘 강도(bending bias stiffness) 등을 포함할 수 있으며, 반드시 이에 한정되는 것은 아니다. 여기서, '위사(weft)'는 직물의 가로 방향을 실을 나타내며, '씨실'이라고도 부를 수 있다. 또한, '경사(warp)'는 직물의 세로 방향의 실을 나타내며, '날실'이라고도 부를 수 있다.
단계(130)에서, 추정 장치는 단계(120)에서 추정한 직물의 물성 파라미터를 출력한다. 추정 장치는 단계(120)에서 추정한 직물의 물성 파라미터를 명시적(explicitly)으로 출력할 수도 있고, 또는 암시적(implicitly)으로 출력할 수도 있다. 일 실시예에서, '직물의 물성 파라미터를 명시적으로 출력'하는 것은 예를 들어, 직물의 물성 파라미터 값을 직접 디스플레이 패널을 통해 표시하거나, 및/또는 종이 등에 출력하는 것을 포함할 수 있다. 또는, '직물의 물성 파라미터를 암시적으로 출력'하는 것은 예를 들어, 직물의 물성 파라미터를 적용한 직물에 의해 제작된 3차원 의상을 시뮬레이션한 결과를 표시하거나, 또는 해당 3차원 의상을 3차원 아바타 등에 드레이핑 시뮬레이션한 결과를 표시하는 것을 포함할 수 있다.
도 2는 일 실시예에 따라 직물의 3차원 윤곽 형태에 대한 정보를 획득하는 방법을 설명하기 위한 도면이다. 도 2를 참조하면, 3차원 기하학 물체의 일 예시인 실린더(cylinder)(211)의 윗면에 사각형의 직물(213)을 펼치는 상황을 나타낸 도면(210)이 도시된다. 직물(213)은 직물의 일정 크기의 견본(specimen)에 해당할 수 있다.
이때, 실린더(211)의 직경(diameter)은 예를 들어, 10cm이고, 실린더의 높이는 예를 들어, 20cm 일 수 있다. 또한, 직물(213)은 예를 들어, 가로, 세로 30cm의 정사각형 형태를 가질 수 있다. 직물(213)은 실린더(211)의 윗면에 놓이고, 직물(213)의 중심과 실린더(211)의 윗면의 중심은 같은 지점(same point)에 있을 수 있다.
직물(213)이 도면(210)과 같이 놓인 경우, 직물(213)에서 실린더(211)에 의해 지지되지 않는 부분은 도면(230)과 같이 아래로 흘러내려 다양한 형태의 주름(wrinkles)을 형성할 수 있다. 이때, 직물(213)의 수평 모서리 및 수직 모서리는 각각 위사 및 경사 방향으로 정렬되어야 하며, 위사 및 경사 방향의 강도(stiffness)는 명확하게 구별될 수 있다.
일 실시예에서 도면(230)과 같이 실린더에 의해 직물의 지지되지 않은 영역이 흘러내려 주름을 형성하도록 하는 과정을 “실린더 테스트”라고 부를 수 있다.
일 실시예에서는 실제 직물에서 특징 벡터를 추출하고 인공 신경망을 사용하여 물성 파라미터를 예측하며, 예측된 결과와 실제 직물을 사용한 결과 간의 시각적 유사도(similarity)를 평가하기 위해 실린더 테스트를 시뮬레이션할 수 있다. 실린더 테스트 과정에서 직물의 3차원 윤곽 형태는 해당 직물의 견본을 떨어뜨리는 방법에 따라 달라질 수 있다. 이때, 직물의 네 모서리를 같은 높이에서 동시에 떨어뜨리는 것이 중요할 수 있다. 하나의 직물에 대해 이러한 과정을 여러 번 반복하고 반복적으로 나타나는 직물의 3차원 윤곽 형태를 선택할 수 있다.
일 실시예에서는 정사각형 형태의 직물을 사용하여 실린더 테스트를 수행함으로써 직물의 움푹 들어간 곳과 뒤틀린 방향을 더 명확하게 만들고, 잠재적으로 다양한 드레이프 형태를 나타낼 수 있는 더 많은 드레이핑 영역이 도출되도록 할 수 있다. 정사각형 형태의 직물의 경우, 코너 영역의 면적이 나머지 영역의 면적보다 더 크므로 그 무게 또한 코너 영역이 나머지 영역보다 더 무겁다. 그 결과, 사각형 형태의 직물에서 중량(weight)의 분포(distribution)에 따른 드레이프 형태의 변화가 보다 명확하게 관찰될 수 있었다.
일 실시예에 따른 추정 장치는 실린더 테스트를 통해 직물의 물성 파라미터 추정에 이용되는 특징 벡터의 일부에 해당하는 직물의 3차원 윤곽 형태(contour shape)를 포함하는 정보를 획득할 수 있다. 직물의 3차원 윤곽 형태는 3 차원의 닫힌 곡선(closed curve)에 해당할 수 있다.
추정 장치는 예를 들어, 도면(250)과 같이 약 5mm의 간격을 가진 244 개의 샘플링 포인트들(sampling points)(255)의 집합(set)을 해당 직물의 3차원 윤곽 형태를 포함하는 정보로 획득할 수 있다. 244 개의 샘플링 포인트들(255)은 실린더 테스트에서 추출한 직물의 윤곽 커브(contour curve)에 해당할 수 있다.
일 실시예에서는 직물의 물성 파라미터를 추정하는 데에 직물 전체의 드레이프 모양 대신 직물의 3차원 윤곽선 부분만을 사용함으로써 인공 신경망의 트레이닝 과정에서의 복잡성을 크게 줄일 수 있다. 이는 일반적으로 실린더 테스트에서 나타난 직물의 드레이프 형태(drape shapes)과 직물의 3차원 윤곽 형태 사이에 일대일 관계가 있다는 가정에 기초할 수 있다.
일 실시예에서는 아래 도 5의 도면(510)과 같이 시각화된 직물의 3차원 윤곽선과 물성 파라미터 간의 상관 매트릭스를 통해 직물의 3차원 윤곽선에서 물성 파라미터까지 트레이닝 가능성을 확인할 수 있다. 이를 위해 400 개의 실제 직물 샘플의 물성 파라미터와 시뮬레이션 결과가 사용될 수 있다.
실시예에 따라서, 추정 장치는 예를 들어, 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 촬영한 영상을 수신하고, 영상으로부터 직물의 3차원 윤곽 형태를 포함하는 3차원 모델을 생성할 수 있다. 여기서, 3차원 모델은 직물의 메쉬 모델에 해당할 수 있다. 추정 장치는 3차원 모델로부터 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표를 추출할 수 있다. 추정 장치는 예를 들어, 직물의 메쉬 모델의 경계(boundary)에서 꼭지점(vertices)을 추출하고, 추출한 꼭지점의 좌표를 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표로 결정할 수 있다.
여기서, 직물의 메쉬 모델은 예를 들어, 복수의 다각형(예를 들어, 삼각형)들을 포함하는 메쉬(mesh)로 모델링될 수 있다. 다각형(삼격형)의 세 꼭지점은 질량을 가지고 있는 점(point mass)이며, 다각형의 각 변은 그 질량을 연결하는 탄성을 가지고 있는 스프링들로 표현될 수 있다. 이에 따라, 직물은 예를 들어, 질량-스프링 모델(Mass-Spring Model)에 의해 모델링될 수 있다. 스프링들은 사용되는 직물의 물성 파라미터에 따라 예를 들어, 신축(stretch), 비틀림(shear), 및 굽힘(bending)에 대한 각 저항값(resist)을 가질 수 있다. 각 꼭지점들은 중력 등과 같은 외부적인 힘(external force)과 신축, 비틀림, 및 굽힘의 내부적인 힘(internal force)의 작용에 따라 움직일 수 있다. 예를 들어, 외부적인 힘과 내부적인 힘을 계산하여 각 꼭지점에 가해지는 힘을 구하면, 각 꼭지점의 변위 및 움직임의 속도가 구해질 수 있다. 그리고 각 시점(time step)의 다각형의 꼭지점들의 움직임을 통하여 가상 의상의 움직임이 시뮬레이션될 수 있다.
일 실시예에서는 메쉬로 모델링된 직물에 의해 제작된 의상을 3차원의 아바타에 착장(draping)시킴으로써 물리 법칙에 기반한 자연스러운 모습의3차원 가상 의상을 구현할 수 있다.
일 실시예에서 직물의 3차원 윤곽 형태를 촬영한 영상은 예를 들어, 깊이 센서 또는 깊이 카메라가 장착된 모바일 장치를 사용하여 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 스캔한 영상에 해당할 수 있다. 추정 장치는 스캔한 영상으로부터 직물의 3차원 메쉬 모델을 생성하고, 메쉬 표면의 3차원 정점들을 샘플링하여 직물의 3차원 윤곽 형태를 추출할 수 있다. 추정 장치는 샘플링한 정점들을 예를 들어, 베지어 곡선(Bezier curve)으로 보간할 수 있다. 실시예에 따라서, 추정 장치는 직물의 3차원 윤곽 형태를 추출하기 위해 먼저 해당 직물 견본의 3차원 메쉬 모델을 스캔한 다음 베지어 스플라인(Bezier spline)의 제어점들을 샘플링할 수도 있다.
또는 추정 장치는 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표를 직접 획득할 수도 있다. 추정 장치는 예를 들어, 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 포함하는 깊이 영상 또는 3차원 스캔 영상으로부터 3차원 윤곽 형태에 대응하는 3차원 정점들을 샘플링할 수 있다. 추정 장치는 샘플링된 3차원 정점들의 좌표를 획득할 수 있다.
예를 들어, 직물의 시뮬레이션 시에 직물의 무게가 드레이핑의 최종 결과에 큰 영향을 줄 수 있다. 때문에 일 실시예에서는 직물의 밀도(무게)를 더 고려하여 물성 파라미터를 추정할 수도 있다. 많은 경우에 직물의 밀도는 시각적으로 인식되지 않을 수 있다. 예를 들어, 직물에서 3차원 기하학 물체에 의해 지지되지 않고 아래로 떨어지는 영역은 3차원 기하학 물체에 의해 지지되는 영역에 비해 그 밀도가 높거나 강도가 낮을 수 있다. 일 실시예에서는 비시각적인 드레이프 측면을 고려하기 위해 직물의 밀도를 특징 벡터의 일부로 사용할 수 있다. 직물의 밀도는 해당 직물의 질량을 해당 직물의 전체 면적으로 나눔으로써 측정될 수 있다. 일 실시예에서 직물의 3차원 윤곽 형태 이외에 직물의 밀도를 더 사용함으로써 트레이닝의 정확성을 향상시킬 수 있다.
도 3은 일 실시예에 따른 인공 신경망의 트레이닝 원리를 설명하기 위한 도면이다. 도 3을 참조하면, 3차원 기하학 물체(예를 들어, 원통) 위에 놓인 직물의 사진(310), 기계 학습 모델(330), 및 기계 학습 모델(330)로부터 출력된 직물의 물성 파라미터들(350)이 도시된다. 기계 학습 모델은 일 실시예에 따른 인공 신경망에 해당할 수 있다.
예를 들어, 직물의 드레이프 특성(drape property)은 직물의 외관에 결정적인 영향을 줄 수 있다. 직물의 드레이프 특성은 시각적으로 인식되는 특성이므로 기계 학습을 통해 사진 또는 비디오 데이터베이스에서 메커니즘이 식별될 수 있다. 하지만, 트레이닝 데이터로 사진이나 비디오를 사용하려면 촬영 각도, 렌즈 속성, 조명 및 직물 색상과 같은 제어할 수 없는 외부 요인으로 인해 데이터 다양성이 지나치게 높아져야 한다. 이러한 다양성을 다루기 위해서는 더 많은 트레이닝 데이터와 여러 컨볼루션 레이어와 같은 보다 복잡한 트레이닝 모델이 필요하다.
따라서, 일 실시예에서는 기계 학습 모델(330)이 3차원 기하학 물체(예를 들어, 원통) 위에 놓인 직물의 사진(310)으로부터 직물의 물성 파라미터들(350)을 추정하도록 트레이닝 시킴으로써 대상 직물의 정적 드레이프 형태를 재현할 수 있다.
도 4는 일 실시예에 따른 인공 신경망의 동작을 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에 따른 인공 신경망이 3차원 기하학 물체(예를 들어, 원통) 위에 직물이 놓인 사진(410)으로부터 3차원 모델을 복원(420)하는 1단계 동작을 수행한 후, 복원된 3차원 모델로부터 직물의 3차원 테두리 곡선(430)을 추출하여 직물의 물성 파라미터들을 추정(440)하는 2단계 동작을 수행함으로써 직물의 물성 파라미터를 출력(450)할 수 있다.
실시예에 따라서, 1단계 동작 및 2단계 동작이 모두 추정 장치에 포함된 인공 신경망에 의해 수행될 수도 있고, 또는 1단계 동작은 추정 장치에 의해, 2단계 동작은 추정 장치에 포함된 인공 신경망에 의해 수행될 수도 있다.
사진(410)은 예를 들어, 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 촬영한 영상에 해당할 수 있다.
일 실시예에 따른 인공 신경망은 직물의 사진(410)이 입력되면, 사진(410)으로부터 직물의 3차원 윤곽 형태를 포함하는 3차원 모델을 복원(420) 또는 재구성할 수 있다. 여기서, 3차원 모델은 전술한 직물의 메쉬 모델에 해당할 수 있다. 직물이 정적인 상태(static state)이고 원래의 모양과 크기를 알고 있기 때문에 인공 신경망은 비교적 용이하게 3차원 모델을 복원할 수 있다.
인공 신경망은 복원된 3차원 모델(420)로부터 직물의 3차원 윤곽 형태에 해당하는 직물의 테두리 곡선(430)을 추출할 수 있다. 이때, 인공 신경망은 직물의 테두리 곡선(430)에 대응하는 3차원 정점들의 좌표를 추출할 수 있다. 인공 신경망은 직물의 3차원 테두리 곡선(430)에 대응하는 3차원 정점들의 좌표로부터 직물의 물성 파라미터들을 추정(440)하여 출력할 수 있다(450).
도 5는 일 실시예에 따라 추정된 물성 파라미터와 직물의 3차원 윤곽 형태 간의 상관 관계를 나타낸 도면이다. 도 5를 참조하면, 일 실시예에 따른 직물의 물성 파라미터들과 직물의 3차원 윤곽 형태 간의 상관 매트릭스(correlation matrix)를 나타낸 도면(510) 및 일 실시예에 따른 직물의 물성 파라미터들 간의 자기 상관 매트릭스를 나타내 도면(530)이 도시된다.
도 5에서 가로 축(horizontal axis)은 직물의 3차원 윤곽 형태의 처음 30 개 샘플링 포인트들의 x, y 및 z 좌표를 나타낼 수 있다. 도면(510)에 도시된 칼라 맵(color map)의 각 색상은 직물의 물성 파라미터들과 직물의 3차원 윤곽 형태 간의 상관도(correlations)가 낮지 않음을 나타낼 수 있다.
도 6은 일 실시예에 따른 인공 신경망의 구성을 나타낸 도면이다. 도 6을 참조하면, 일 실시예에 따른 제1 신경망(610)과 제2 신경망(630)을 포함하는 인공 신경망(600)의 구성이 도시된다.
인공 신경망(600)은 예를 들어, 직물의 강도(stiffness)와 관련된 물성 파라미터를 추정하는 제1 신경망(610), 및 직물의 굽힘(bending)과 관련된 물성 파라미터를 추정하는 제2 신경망(620)을 포함할 수 있다. 여기서, 직물의 강도와 관련된 물성 파라미터는 예를 들어, 위사 강도(stretch-weft stiffness), 경사 강도(stretch-wrap stiffness), 전단 강도(shear stiffness) 등을 포함할 수 있다. 또한, 직물의 굽힘과 관련된 물성 파라미터는 예를 들어, 위사 굽힘 강도(banding-weft stiffness), 경사 굽힘 강도(banding-wrap stiffness) 및 바이어스 굽힘 강도(bending bias stiffness) 등을 포함할 수 있다.
이때, 제1 신경망(610)과 제2 신경망(630)은 서로 독립적인 완전 연결된 신경망(Full Connected Neural Network; FCNN) 모델로 구성될 수 있다. 전술한 수학식 1은 완전 연결 신경망 모델에 대해 정의될 수 있다.
도 5의 도면(530)을 참조하면, 제1 신경망(610)에 의해 출력되는 직물의 강도와 관련된 물성 파라미터들('제1 그룹')과 제2 신경망(630)에 의해 출력되는 직물의 굽힘과 관련된 물성 파라미터들('제2 그룹')에서 서로 동일한 그룹에 속한 물성 파라미터들은 서로 강한 자기 상관도를 가지는 반면, 두 그룹 사이의 상관도는 상대적으로 약함을 알 수 있다. 제1 신경망(610) 및 제2 신경망(630) 각각을 구성하는 히든 레이어와 노드들의 개수, 활성화 유형 및 기타 파라미터들은 실험적으로 최적화될 수 있다.
일 실시예에서는 신경망 모델(600)은 예를 들어, 32 배치(batch) 크기의 100 에포크(epoch)에 대해 트레이닝될 수 있다.
도 7은 실제 직물과 일 실시예에 따른 인공 신경망을 이용하여 추정한 물성 파라미터를 사용하여 제작한 직물의 시뮬레이션 결과를 나타낸 도면이다.
도 7에서 첫 번째 열(710)은 실제 직물을 나타낼 수 있다. 두 번째(720) 및 네 번째 열(740)은 스캔한 직물의 3차원 모델을 나타낼 수 있다. 또한, 세 번째 열(730) 및 다섯 번째 열(750)은 일 실시예에 따른 인공 신경망에 의해 추정된 물성 파라미터를 사용하여 시뮬레이션 된 결과를 나타낼 수 있다. 정도에 차이가 있기는 하지만, 직물의 3차원 윤곽 형태가 모든 경우에 유사하게 나타남을 볼 수 있다.
도 8은 실제 의상과 일 실시예에 따른 인공 신경망에 의해 추정된 물성 파라미터를 사용하여 시뮬레이션 한 가상 의상의 착장 결과를 나타낸 도면이다. 도 8에서 첫 번째 도면(810), 세 번째 도면(830), 및 다섯 번째 도면(850)은 실물 크기로 제작된 실제 의상(예를 들어, 드레스)을 마네킹에 착장시킨 결과를 촬영한 영상이고, 두 번째 도면(820), 네 번째 도면(840), 및 여섯 번째 도면(860)은 일 실시예에 따른 인공 신경망에 의해 추정된 물성 파라미터를 적용한 직물에 의해 제작된 가상 의상에 대한 착장 시뮬레이션을 수행한 결과 영상이다.
도 8에서 실제 의상과 가상 의상은 모두 동일한 섬유로 만들어진 것임을 가정할 수 있다. 도 8에 도시된 것과 같이 실제 의상과 가상 의상에서 나타난 주름의 모양이 유사함으로 볼 수 있다.
도 9는 일 실시예에 따른 인공 신경망의 트레이닝 데이터를 생성하는 방법을 나타낸 흐름도이다. 도 9를 참조하면, 일 실시예에 따른 트레이닝 데이터를 생성하는 장치(이하, '생성 장치')는 단계(910) 내지 단계(940)의 과정을 거쳐 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성할 수 있다.
단계(910)에서, 생성 장치는 직물들에 대한 제1 개수의 물성 파라미터들을 수집한다. 여기서, 제1 개수의 물성 파라미터들은 예를 들어, 실제 직물의 재료(materials)에 대한 400 가지 기계적 특성(mechanical properties)을 포함할 수 있다. 이때, 생성 장치는 직물들에 대한 물성 파라미터들에 더하여 직물의 밀도를 더 수집할 수도 있다. 제1 개수는 예를 들어, 400개일 수 있으며, 반드시 이에 한정되지는 않는다.
단계(920)에서, 생성 장치는 단계(910)에서 수집한 직물 파라미터들에 기초한 생성 모델을 이용하여 제1 개수보다 많은 제2 개수의 물성 파라미터들을 샘플링한다. 여기서, 생성 모델은 예를 들어, 가우시안 혼합 모델(Gaussian Mixture Model; GMM)의 확률 분포에 의해 직물 파라미터들을 무작위로 샘플링할 수 있다. 제2 개수는 예를 들어, 400개 보다 많은 개수에 해당할 수 있다.
실시예에 따라서, 트레이닝을 위한 충분히 큰 세트를 생성하기 위해, 생성 장치는 물성 파라미터와 밀도를 무작위로 샘플링할 수 있다. 이후, 생성 장치는 각 파라미터 세트에 대해 3차원 윤곽 형태를 포함하는 정보를 수집하기 위해 시뮬레이션 시스템에 의해 실린더 테스트를 시뮬레이션할 수 있다. 사전 파라미터 공간 정보(prior parameter space information)가 없는 샘플링은 바이어스(bias) 또는 유효하지 않은 데이터 세트를 생성할 위험이 높으며, 유효하지 않은 데이터는 물리적으로 불가능하거나 옷에 적합하지 않은 파라미터를 초래할 수 있다. 일 실시예에서는 이러한 위험을 피하기 위해 실제 직물에서 측정한 기계적 특성들을 기반으로 만든 생성 모델을 이용할 수 있다.
생성 장치는 각 기계적 특성 세트를 6 개의 물성 파라미터 및 밀도로 변환할 수 있다. 아래 [표 1]은 400 개의 실제 직물에서 측정한 6 가지 파라미터 및 밀도에 대한 통계치를 나타낸다.
Figure pat00011
[표 1]에서, 평균(mean) 값, 최소(min) 값, 최대(max) 값, 및 표준 편차(standard deviation(std. dev.)) 값은 머신 러닝의 트레이닝에 사용할 수 있는 넓은 범위의 파라미터 공간을 포괄할 수 있다. 여기서, 1,000,000은 일 실시예에 따른 시뮬레이션 시스템에 의해 정의된 최대 강도 한계(maximum limit of stiffness)를 나타낼 수 있다.
생성 장치는 예를 들어, 400 개의 실제 직물 데이터 세트를 사용하여 7 개의 변수들(예를 들어, 6 개의 물성 파라미터 및 밀도)로 가우시안 혼합 모델 (GMM)을 생성할 수도 있다. 일 실시예에서는 예를 들어, 클러스터 수를 5 개로 최적화한 가우시안 혼합 모델을 트레이닝 데이터의 샘플링을 위한 생성 모델로 사용할 수 있다. 이것은 두 가지 주요 이점을 가질 수 있다. 먼저, 생성 장치는 각 클러스터에 대해 동일한 수를 샘플링 함으로써 데이터 바이어스를 쉽게 피할 수 있다. 둘째, 생성 장치는 의류에 적합하지 않은, 다시 말해 유효하지 않은 파라미터 세트를 샘플링 할 가능성을 줄일 수 있다.
일 실시예에서는 예를 들어, 총 100,000 샘플들(각 클러스터에 대해 20,000 샘플들)에 대해 전술한 도 2와 같이 실린더 테스트를 시뮬레이션하고 특징 벡터를 수집할 수 있다. 이때, 가상 직물의 최대 입자 거리는 5mm이고, 시간 단계는 0.33 초일 수 있다. 생성 장치는 모든 입자들이 안정 상태에 있을 때 시뮬레이션을 중단할 수 있으며, 수렴하지 못한 샘플들을 버릴 수 있다.
단계(930)에서, 생성 장치는 단계(920)에서 샘플링한 물성 파라미터들에 기초하여 해당 직물의 드레이프 형태를 시뮬레이션 함으로써 해당 직물의 3차원 윤곽 형태를 획득한다. 이때, 해당 직물의 드레이프 형태는 예를 들어, 해당 직물을 3차원 기하학 물체 위에 놓은 경우의 드레이프 형태에 해당할 수 있다.
단계(940)에서, 생성 장치는 단계(920)에서 샘플링한 물성 파라미터 및 단계(930)에서 획득한 해당 직물의 3차원 윤곽 형태를 기초로, 해당 직물에 대응하는 트레이닝 데이터를 생성한다.
실시예에 따라서, 생성 장치는 단계(940)에서 생성한 해당 직물에 대응하는 트레이닝 데이터를 이용하여 인공 신경망이 해당 직물의 물성 파라미터를 추정하도록 트레이닝할 수 있다.
도 10은 일 실시예에 따른 물성 파라미터를 추정하는 장치의 블록도이다. 도 10을 참조하면, 일 실시예에 따른 추정 장치(1000)는 통신 인터페이스(1010), 프로세서(1030), 메모리(1050), 및 출력 장치(1070)를 포함할 수 있다. 통신 인터페이스(1010), 프로세서(1030), 메모리(1050), 및 출력 장치(1070)는 통신 버스(1005)를 통해 서로 통신할 수 있다
통신 인터페이스(1010)는 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 포함하는 정보를 획득한다. 실시예에 따라서, 통신 인터페이스(1010)는 직물의 무게 또는 직물의 밀도를 더 획득할 수 있다.
프로세서(1030)는 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 직물에 의해 제작되는 3차원 의상의 드레이프 형태를 재현하는 데에 이용되는 직물의 물성 파라미터를 추정한다. 여기서, 직물의 3차원 윤곽 형태와 3차원 의상의 드레이프 형태는 서로 상관 관계를 가질 수 있다.
또는 통신 인터페이스(1010)는 3차원 기하학 물체 위에 놓인 직물의 3차원 윤곽 형태를 촬영한 영상을 수신할 수 있다. 이 경우, 프로세서(1030)는 영상으로부터 직물의 3차원 윤곽 형태를 포함하는 3차원 모델을 생성할 수 있다. 프로세서(1030)는 3차원 모델로부터 직물의 3차원 윤곽 형태에 대응하는 3차원 정점들의 좌표를 추출할 수 있다.
메모리(1050)는 통신 인터페이스(1010)를 통해 획득한 직물의 3차원 윤곽 형태, 및/또는 직물의 밀도를 저장할 수 있다. 또한, 메모리(1050)는 프로세서(1030)가 추정한 직물의 물성 파라미터를 저장할 수 있다. 메모리(1050)는 상술한 프로세서(1030)의 처리 과정에서 생성되는 다양한 정보들을 저장할 수 있다. 이 밖에도, 메모리(1050)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(1050)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(1050)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다.
출력 장치(1070)은 프로세서(1030)가 추정한 직물의 물성 파라미터를 출력한다. 출력 장치(1070)는 물성 파라미터 자체를 출력할 수도 있고, 또는 물성 파라미터가 적용된 직물에 의해 제작된 가상 의상을 착장한 3차원 아바타를 화면에 출력할 수도 있다. 출력 장치(1070)는 예를 들어, 디스플레이 장치일 수도 있고, 또는 종이 또는 옷감에 패턴 조각을 표시하는 프린트 장치일 수도 있다.
또한, 프로세서(1030)는 도 1 내지 도 9를 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(1030)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 프로세서(1030)는 예를 들어, CPU(Central Processing Unit), GPU(Graphics Processing Unit), 또는 NPU(Neural network Processing Unit)으로 구성될 수 있다. 예를 들어, 하드웨어로 구현된 추정 장치(1000)는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
프로세서(1030)는 프로그램을 실행하고, 추정 장치(1000)를 제어할 수 있다. 프로세서(1030)에 의하여 실행되는 프로그램 코드는 메모리(1050)에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
1000: 추정 장치
1005: 통신 버스
1010: 통신 인터페이스
1030: 프로세서
1050: 메모리
1070: 출력 장치

Claims (17)

  1. 3차원 기하학 물체 위에 놓인 직물(fabric)의 외형 정보를 획득하는 단계;
    상기 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 상기 직물에 의해 제작되는 3차원 의상의 드레이프 형태(drape shapes)를 재현하는 데에 이용되는 상기 직물의 물성 파라미터(material property parameter)를 추정하는 단계; 및
    상기 직물의 물성 파라미터를 출력하는 단계
    를 포함하고,
    상기 인공 신경망은
    다양한 직물의 물성 파라미터들에 기초하여 생성된 트레이닝 데이터들에 의해 해당 직물의 물성 파라미터를 추정하도록 트레이닝된 것이고,
    상기 트레이닝 데이터들은
    직물들에 대해 수집된 제1 개수의 물성 파라미터들에 기초한 생성 모델을 이용하여 상기 제1 개수보다 많은 제2 개수의 물성 파라미터들을 샘플링하고, 상기 샘플링한 물성 파라미터들에 기초하여 상기 해당 직물의 드레이프 형태를 시뮬레이션 함으로써 획득한 상기 해당 직물의 외형 정보와 상기 샘플링한 물성 파라미터들에 기초하여 생성되는,
    직물의 물성 파라미터를 추정하는 방법.
  2. 제1항에 있어서,
    상기 직물의 외형 정보와 상기 3차원 의상의 드레이프 형태는 서로 상관 관계를 가지는,
    직물의 물성 파라미터를 추정하는 방법.
  3. 제1항에 있어서,
    상기 외형 정보를 획득하는 단계는
    상기 3차원 기하학 물체 위에 놓인 직물의 깊이 영상을 획득하는 단계
    를 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  4. 제1항에 있어서,
    상기 획득하는 단계는
    상기 직물의 밀도를 더 획득하는 단계
    를 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  5. 제1항에 있어서,
    상기 직물은
    천연 섬유 직물(natural fiber fabrics), 합성 섬유 직물(synthetic fiber fabrics) 및 면(cotton), 린넨(linen), 울(wool), 폴리에스터(polyester), 나일론(nylon), 엘라스틴(elastane) 등의 혼합사 직물(blended yarn fabrics) 중 적어도 하나를 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  6. 제1항에 있어서,
    상기 직물의 적어도 일부 영역은 상기 3차원 기하학 물체 위에 놓여 상기 3차원 기하학 물체에 의해 지지되고, 나머지 일부 영역은 상기 3차원 기하학 물체에 의해 지지되지 않아 아래로 흘러내리는,
    직물의 물성 파라미터를 추정하는 방법.
  7. 제1항에 있어서,
    상기 직물의 물성 파라미터는
    상기 직물의 위사 강도(stretch-weft stiffness), 경사 강도(stretch-wrap stiffness), 전단 강도(shear stiffness), 위사 굽힘 강도(banding-weft stiffness), 경사 굽힘 강도(banding-wrap stiffness) 및 바이어스 굽힘 강도(bending bias stiffness) 중 적어도 하나를 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  8. 제1항에 있어서,
    상기 인공 신경망은
    상기 직물의 강도(stiffness)와 관련된 물성 파라미터를 추정하는 제1 신경망; 및
    상기 직물의 굽힘(bending)과 관련된 물성 파라미터를 추정하는 제2 신경망
    을 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  9. 제8항에 있어서,
    상기 제1 신경망 및 상기 제2 신경망 각각은
    완전 연결된 신경망 모델(Fully Connected Neural Network Model)을 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  10. 제1항에 있어서,
    상기 직물의 물성 파라미터를 출력하는 단계는
    상기 직물의 물성 파라미터를 상기 3차원 의상에 적용하는 단계; 및
    상기 3차원 의상을 드레이핑한 결과를 표시하는 단계
    를 포함하는,
    직물의 물성 파라미터를 추정하는 방법.
  11. 인공 신경망의 트레이닝 데이터를 생성하는 방법에 있어서,
    직물들에 대한 제1 개수의 물성 파라미터들을 수집하는 단계;
    상기 제1 개수의 물성 파라미터들에 기초한 생성 모델을 이용하여 상기 제1 개수보다 많은 제2 개수의 물성 파라미터들을 샘플링하는 단계;
    상기 샘플링한 물성 파라미터들에 기초하여 해당 직물의 드레이프 형태를 시뮬레이션 함으로써 상기 해당 직물의 외형 정보를 획득하는 단계; 및
    상기 샘플링한 물성 파라미터들 및 상기 해당 직물의 외형 정보를 기초로, 상기 해당 직물에 대응하는 트레이닝 데이터를 생성하는 단계
    를 포함하는,
    트레이닝 데이터를 생성하는 방법.
  12. 제11항에 있어서,
    상기 생성 모델은
    가우시안 혼합 모델(Gaussian Mixture Model; GMM)의 확률 분포에 의해 상기 제1 개수의 물성 파라미터들을 무작위로 샘플링하는,
    트레이닝 데이터를 생성하는 방법.
  13. 제11항에 있어서,
    상기 해당 직물에 대응하는 트레이닝 데이터를 이용하여 상기 인공 신경망이 상기 해당 직물의 물성 파라미터를 추정하도록 트레이닝하는 단계
    를 더 포함하는,
    트레이닝 데이터를 생성하는 방법.
  14. 하드웨어와 결합되어 제1항 내지 제13항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터로 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
  15. 3차원 기하학 물체 위에 놓인 직물의 외형 정보를 획득하는 통신 인터페이스;
    상기 정보를 미리 트레이닝된 인공 신경망에 인가함으로써, 상기 직물에 의해 제작되는 3차원 의상의 드레이프 형태를 재현하는 데에 이용되는 상기 직물의 물성 파라미터를 추정하는 프로세서; 및
    상기 직물의 물성 파라미터를 출력하는 출력 장치
    를 포함하고,
    상기 인공 신경망은
    다양한 직물의 물성 파라미터들에 기초하여 생성된 트레이닝 데이터들에 의해 해당 직물의 물성 파라미터를 추정하도록 트레이닝된 것이고,
    상기 트레이닝 데이터들은
    직물들에 대해 수집된 제1 개수의 물성 파라미터들에 기초한 생성 모델을 이용하여 상기 제1 개수보다 많은 제2 개수의 물성 파라미터들을 샘플링하고, 상기 샘플링한 물성 파라미터들에 기초하여 상기 해당 직물의 드레이프 형태를 시뮬레이션 함으로써 획득한 상기 해당 직물의 외형 정보와 상기 샘플링한 물성 파라미터들에 기초하여 생성되는,
    직물의 물성 파라미터를 추정하는 장치.
  16. 제15항에 있어서,
    상기 직물의 외형 정보와 상기 3차원 의상의 드레이프 형태는 서로 상관 관계를 가지는,
    직물의 물성 파라미터를 추정하는 장치.
  17. 제15항에 있어서,
    상기 통신 인터페이스는
    상기 3차원 기하학 물체 위에 놓인 직물의 깊이 영상을 수신하는,
    직물의 물성 파라미터를 추정하는 장치.
KR1020230024625A 2020-09-07 2023-02-23 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치 KR102553955B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230024625A KR102553955B1 (ko) 2020-09-07 2023-02-23 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200113850A KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치
KR1020230024625A KR102553955B1 (ko) 2020-09-07 2023-02-23 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200113850A Division KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20230035282A true KR20230035282A (ko) 2023-03-13
KR102553955B1 KR102553955B1 (ko) 2023-07-11

Family

ID=77666276

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200113850A KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치
KR1020230024625A KR102553955B1 (ko) 2020-09-07 2023-02-23 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200113850A KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치

Country Status (7)

Country Link
US (1) US11900582B2 (ko)
EP (1) EP3975134A1 (ko)
JP (1) JP7462111B2 (ko)
KR (2) KR102504871B1 (ko)
CN (1) CN114241473A (ko)
CA (1) CA3191980A1 (ko)
WO (1) WO2022050810A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023212861A1 (zh) * 2022-05-05 2023-11-09 浙江凌迪数字科技有公司 一种基于学习的悬垂式面料弯曲硬度测量方法
CN114998268B (zh) * 2022-06-07 2022-11-25 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置
TW202420119A (zh) * 2022-11-03 2024-05-16 財團法人紡織產業綜合研究所 布料特徵預測方法
US20240257330A1 (en) * 2023-01-26 2024-08-01 Clo Virtual Fashion Inc. Method and apparatus for estimating physical property parameter of target fabric

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010098266A (ko) * 2000-04-29 2001-11-08 최상현 천의 드레이프 평가 방법과 이를 구축한 전자 기록 매체
KR20090039091A (ko) * 2007-10-17 2009-04-22 충남대학교산학협력단 옷감 시뮬레이터를 이용한 의복압 측정방법
KR20170085081A (ko) * 2014-11-18 2017-07-21 유니버시다드 레이 후안 카를로스 원사 단위의 직물 거동을 시뮬레이션하는 컴퓨터 구현 방법, 시스템 및 컴퓨터 프로그램 제품

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219071A (ja) 2002-11-22 2004-08-05 Hyogo Prefecture 織物の風合い予測方法、装置、およびプログラム
JP4793974B2 (ja) 2005-01-31 2011-10-12 愛知県 織物構造のモデル化プログラム、記録媒体及び織物構造のモデル化装置
KR101284794B1 (ko) 2009-12-21 2013-07-10 한국전자통신연구원 직조 형태에 따른 섬유재질 렌더링 장치 및 그 방법
US11080918B2 (en) * 2016-05-25 2021-08-03 Metail Limited Method and system for predicting garment attributes using deep learning
US20190281915A1 (en) * 2016-07-20 2019-09-19 F.F.P. Technologies Ltd. Seamless wearable structure garment
CN106971199B (zh) * 2017-03-10 2019-11-08 东华大学 一种织物三维悬垂形态的自动分类方法
JP2019016164A (ja) * 2017-07-06 2019-01-31 日本電信電話株式会社 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
US10990718B2 (en) * 2017-12-12 2021-04-27 Wipro Limited Method and device for generating physical design parameters of an object
CN109325941A (zh) * 2018-09-05 2019-02-12 深圳灵图慧视科技有限公司 表面属性检测方法及装置、计算机设备及计算机可读介质
JP7534311B2 (ja) * 2018-10-09 2024-08-14 レソナイ インコーポレイテッド 3dシーン拡張及び再構築のためのシステム及び方法
WO2021003378A1 (en) * 2019-07-02 2021-01-07 Insurance Services Office, Inc. Computer vision systems and methods for blind localization of image forgery
CN111311751A (zh) * 2020-02-12 2020-06-19 叠境数字科技(上海)有限公司 一种基于深度神经网络的三维衣服模型的重建方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010098266A (ko) * 2000-04-29 2001-11-08 최상현 천의 드레이프 평가 방법과 이를 구축한 전자 기록 매체
KR20090039091A (ko) * 2007-10-17 2009-04-22 충남대학교산학협력단 옷감 시뮬레이터를 이용한 의복압 측정방법
KR20170085081A (ko) * 2014-11-18 2017-07-21 유니버시다드 레이 후안 카를로스 원사 단위의 직물 거동을 시뮬레이션하는 컴퓨터 구현 방법, 시스템 및 컴퓨터 프로그램 제품

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Azmat Hussain 등, A NEW APPROACH TO EVALUATE FABRIC HAND BASED ON THREE-DIMENSIONAL DRAPE MODEL, AUTEX Research Journal(2020.06.)* *
Shan Yang 등, Learning-based Cloth Material Recovery from Video, IEEE Conference on Computer Vision(2017.10.22.)* *

Also Published As

Publication number Publication date
KR20220032270A (ko) 2022-03-15
JP2023540600A (ja) 2023-09-25
KR102504871B1 (ko) 2023-03-02
US20220076405A1 (en) 2022-03-10
CN114241473A (zh) 2022-03-25
EP3975134A1 (en) 2022-03-30
US11900582B2 (en) 2024-02-13
WO2022050810A1 (en) 2022-03-10
KR102553955B1 (ko) 2023-07-11
CA3191980A1 (en) 2022-03-10
JP7462111B2 (ja) 2024-04-04

Similar Documents

Publication Publication Date Title
KR102553955B1 (ko) 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치
Yuksel et al. Stitch meshes for modeling knitted clothing with yarn-level detail
US8364561B2 (en) Garment digitization system and method
Liu et al. Liquid warping gan with attention: A unified framework for human image synthesis
CN114663199A (zh) 一种动态展示的实时三维虚拟试衣系统及方法
Magnenat-Thalmann Modeling and simulating bodies and garments
Wijnhoven et al. Digital replication and reconstruction of mail armour
Ju et al. Estimating cloth simulation parameters from a static drape using neural networks
CN110298916A (zh) 一种基于合成深度数据的三维人体重建方法
De Luigi et al. Drapenet: Garment generation and self-supervised draping
Guo et al. Inverse simulation: Reconstructing dynamic geometry of clothed humans via optimal control
Lu et al. Parametric shape estimation of human body under wide clothing
Wu et al. Mechanical properties of fabric materials for draping simulation
Imaoka et al. Three models for garment simulation
Vassilev et al. Efficient cloth model for dressing animated virtual people
Gabrijelčič Tomc et al. 1D and 2D shape descriptors applied in fabric drape computer simulation
Petrak et al. Computer technology in fashion design and product development
Achar et al. A Comparative Study of Garment Draping Techniques
Basori et al. Forced-driven wet cloth simulation based on external physical dynamism
KR20240117997A (ko) 대상 원단의 물성 파라미터를 추정하는 방법 및 장치
Kuzmina et al. Image-based cloth capture and cloth simulation used for estimation cloth draping parameters
Wong High performance virtual clothing dynamics
Yueqi et al. V-Dresser: An image based 3D garment generating system
Pinisetty Recreating and simulating digital costumes from a stage production of “Medea”
XIN et al. METHODS, IMPROVEMENT AND CHALLENGES ON CLOTH AND HAIR ANIMATION

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right