JP7462111B2 - 織物の物性パラメータを推定するためのトレーニングデータ生成、及び織物の物性パラメータ推定 - Google Patents

織物の物性パラメータを推定するためのトレーニングデータ生成、及び織物の物性パラメータ推定 Download PDF

Info

Publication number
JP7462111B2
JP7462111B2 JP2023515402A JP2023515402A JP7462111B2 JP 7462111 B2 JP7462111 B2 JP 7462111B2 JP 2023515402 A JP2023515402 A JP 2023515402A JP 2023515402 A JP2023515402 A JP 2023515402A JP 7462111 B2 JP7462111 B2 JP 7462111B2
Authority
JP
Japan
Prior art keywords
fabric
textile
dimensional
parameters
woven fabric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023515402A
Other languages
English (en)
Other versions
JP2023540600A (ja
Inventor
ゲオル チョイ、ミョン
ジュン ジュ、ウン
Original Assignee
クロー・バーチャル・ファッション・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クロー・バーチャル・ファッション・インク filed Critical クロー・バーチャル・ファッション・インク
Publication of JP2023540600A publication Critical patent/JP2023540600A/ja
Application granted granted Critical
Publication of JP7462111B2 publication Critical patent/JP7462111B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/543Depth or shape recovery from line drawings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/182Extraction of features or characteristics of the image by coding the contour of the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/19007Matching; Proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Description

実施形態は、織物の物性パラメータを推定するためのトレーニングデータ生成、及び織物の物性パラメータ推定に関する。
衣装(clothes)は、人が着用している場合に3次元に見えるが、衣装は実際は2次元のパターンにより裁断された織物(fabric)彫刻の組み合わせであるため、2次元の物体として見なされる。衣装を構成している織物は柔軟であるため、衣装を着用した人の身体の形(体型)や動きに応じて織物の形が変わり得る。また、織物は、例えば、強度(stiffness)、伸長(elongation)、及び収縮率(shrinkage)などの様々な物性を有する。各織物の物性の違いによって同じデザインの衣装であっても、その形及び感じが異なることがある。
一実施形態によれば、織物の3次元輪郭形態及び密度を予めトレーニングされた神経網に印加することで、織物により製造される3次元衣装のドレープ形態(drape shapes)を再現するために使用される織物の物性パラメータをより正確に推定することにある。
一実施形態によれば、四角形態の織物に対する3次元輪郭形態を使用することで、3次元衣装のドレープ形態に対する多様性を確保することにある。
一実施形態によれば、織物の全体ドレープ形態でない織物の3次元輪郭形態(輪郭線)を使用することで、人工神経網のトレーニングに用いられるデータの大きさを減少することにある。
一実施形態によれば、織物の全体ドレープ形態でない織物の3次元輪郭形態を使用することで、神経網が織物の物性パラメータを推定するために行う計算の複雑性を減少することにある。
一実施形態によれば、織物の3次元輪郭形態と織物の密度を共に利用することで、人工神経網に対するトレーニングの正確性を向上させることにある。
一実施形態によれば、織物の物性パラメータを推定する方法は、織物の少なくとも一部が3次元幾何学的な物体上に配置され、前記織物の他の部分が前記3次元幾何学的な物体から吊り下がっている前記織物の3次元輪郭形態を受信するステップと、トレーニングされた人工神経網によって前記織物の3次元輪郭形態を処理して前記織物の物性パラメータを推定するステップと、前記織物の推定した物性パラメータを提供するステップとを含む。
前記織物の物性パラメータを推定する方法は、前記織物の3次元輪郭形態を含む映像を受信するステップと、前記映像からキャプチャーされた前記3次元輪郭形態から3次元モデルを生成するステップと、前記3次元モデルの境界による3次元頂点の座標を前記織物の3次元輪郭形態に抽出するステップとを含むことができる。
前記織物の物性パラメータを推定する方法は、前記織物を3次元スキャニングして3次元スキャン映像又は前記織物の深度映像を生成するステップと、前記3次元スキャン映像又は前記深度映像から前記織物の3次元輪郭形態を決定するステップとをさらに含むことができる。
前記織物の物性パラメータを推定する方法は、前記3次元輪郭形態を決定するために、前記深度映像又は前記3次元スキャン映像から3次元頂点をサンプリングするステップをさらに含むことができる。
前記織物の物性パラメータを推定する方法は、前記織物の密度を受信するステップをさらに含み、前記織物の物性パラメータは、前記織物の密度に基づいて追加に推定されることができる。
前記織物は、天然繊維織物、合成繊維織物、又は、混合糸織物であってもよい。
前記織物は所定の寸法で成形され、前記織物の中心が前記3次元幾何学的な物体の上面の中心と重なるように前記3次元幾何学的な物体の上面に前記織物が配置されることができる。
前記織物の物性パラメータは、前記織物の緯糸強度(stretch-weft stiffness)、経糸強度(stretch-wrap stiffness)、せん断強度(shear stiffness)、緯糸曲げ強度(banding-weft stiffness)、経糸曲げ強度(banding-wrap stiffness)及びバイアス曲げ強度(bending bias stiffness)のうち少なくとも1つを含むことができる。
前記人工神経網は、ガウス混合モデル(Gaussian Mixture Model;GMM)の確率分布に応じて前記物性パラメータをランダムにアップサンプリングして生成されたトレーニングデータを用いてトレーニングされたものであってもよい。
前記人工神経網は、前記織物の強度に関する物性パラメータを推定するようにトレーニングされた第1下位神経網と、前記織物の曲げに関する物性パラメータを推定するようにトレーニングされた第2下位神経網とを含むことができる。
前記第1下位神経網及び前記第2下位神経網のそれぞれは、完全接続された神経網(Fully Connected Neural Network)であってもよい。
前記推定した織物の物性パラメータを提供するステップは、前記推定した織物の物性パラメータを前記織物を含む3次元衣装に適用するステップと、前記3次元衣装のドレーピング結果を表示するステップとを含むことができる。
一実施形態に係る人工神経網のトレーニングデータを生成する方法は、異なる織物に対する第1個数の物性パラメータを受信するステップと、前記第1個数の物性パラメータに生成モデルを適用して第2個数の物性パラメータを生成するステップ(前記第2個数は、前記第1個数よりも多い)と、前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態を生成するためにシミュレーションを行うステップ(前記織物の輪郭形態は、3次元幾何学的な物体に吊り下がっている織物の部分を含む)と、前記シミュレーション織物の前記生成された3次元輪郭形態及び前記第2個数の物性パラメータを含むトレーニングデータを生成するステップとを含む。
前記生成モデルは、ガウス混合モデル(GMM)の確率分布を示す。
前記トレーニングデータを生成する方法は、前記トレーニングデータを利用して与えられた該当織物の前記物性パラメータを推定するように前記人工神経網をトレーニングするステップをさらに含むことができる。
一実施形態に係る命令語を格納する非一時的コンピュータで読み出し可能な格納媒体は、前記非一時的コンピュータで読み出し可能な格納媒体はプロセッサにより、織物の少なくとも一部が3次元幾何学的な物体上に配置され、前記織物の他の部分が前記3次元幾何学的な物体から吊り下がっている前記織物の3次元輪郭形態を受信し、前記織物の物性パラメータを推定するためにトレーニングされた人工神経網によって前記織物の3次元輪郭形態を処理し、前記織物の前記推定された物性パラメータを提供するようにする命令語を格納する。
前記非一時的コンピュータで読み出し可能な格納媒体は、前記プロセッサにより、前記織物の3次元輪郭形態を含む映像を受信し、前記映像からキャプチャーされた前記3次元輪郭形態から3次元モデルを生成し、前記3次元モデルの境界に沿って3次元頂点の座標を前記織物の3次元輪郭形態に抽出するようにする命令語をさらに格納することができる。
前記非一時的コンピュータで読み出し可能な格納媒体は、前記プロセッサにより、前記織物を3次元スキャニングして3次元スキャン映像又は前記織物の深度映像を生成し、前記3次元スキャン映像又は前記深度映像で前記織物の3次元輪郭形態を決定するようにする命令語をさらに格納することができる。
前記人工神経網は、ガウス混合モデル(GMM)の確率分布に応じて前記物性パラメータをランダムにアップサンプリングして生成されたトレーニングデータを用いてトレーニングされることができる。
一実施形態に係る命令語を格納する非一時的コンピュータで読み出し可能な格納媒体は、前記命令語は、異なる織物に対する第1個数の物性パラメータを受信し、前記第1個数の物性パラメータに生成モデルを適用して第2個数(前記第2個数は、前記第1個数よりも多い)の物性パラメータを生成し、前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態(前記織物の輪郭形態は、3次元幾何学的な物体に吊り下がった織物の部分を含む)を生成するためにシミュレーションを行い、前記シミュレーション織物の前記生成された3次元輪郭形態及びトレーニングデータにある前記第2個数の物性パラメータを含み、前記トレーニングデータを用いて前記人工神経網をトレーニングさせることができる。
一側面によれば、織物の3次元輪郭形態及び密度を予めトレーニングされた神経網に印加することで、織物によって製造される3次元衣装のドレープ形態を再現するために使用される織物の物性パラメータをより正確に推定することができる。
一側面によれば、四角形態の織物に対する3次元輪郭形態を使用することで、3次元衣装のドレープ形態に対する多様性を確保することができる。
一側面によれば、織物の全体ドレープ形態でない織物の3次元輪郭形態(輪郭線)を使用することで、人工神経網のトレーニングに使用されるデータの大きさを減少することができる。
一側面によれば、織物の全体ドレープ形態でない織物の3次元輪郭形態を使用することで、神経網が織物の物性パラメータを推定するために行う計算の複雑性を減少することができる。
一側面によれば、織物の3次元輪郭形態と織物の密度を共に利用することで、人工神経網に対するトレーニングの正確性を向上させることができる。
一実施形態に係る物性パラメータを推定する方法を示したフローチャートである。 一実施形態に係る織物の3次元輪郭形態に関する情報を取得する方法を説明するための図である。 一実施形態に係る人工神経網のトレーニング原理を説明するための概念図である。 一実施形態に係る人工神経網の動作を説明するための図である。 一実施形態により推定された物性パラメータと織物の3次元輪郭形態との間の相関関係を示す図である。 一実施形態に係る人工神経網の構成を示す図である。 一実施形態に係る人工神経網のトレーニングデータを生成する方法を示したフローチャートである。 一実施形態に係るコンピューティング装置のブロック図である。
以下、添付の図面を参照して実施形態について詳説する。しかし、本明細書で開示する特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示したものであり、実施形態は様々な異なる形態で実施され、本発明は本明細書で説明した実施形態に限定されるものではない。実施形態に対する全ての変更、均等物ないし代替物が権利範囲に含まれているものと理解されなければならない。
実施形態で用いられる用語は、単に、説明を目的として使用されたものであり、限定しようとする意図として解釈されることはない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義さがれない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく、同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略することにする。実施形態の説明において、関連する公知技術に対する具体的な説明が実施形態の要旨を不要に曖昧にするものと判断される場合、その詳細な説明を省略する。
また、実施形態の構成要素を説明することにおいて、第1、第2、A、B、(a)、(b)などの用語を使用することができる。これらの用語は、その構成要素を他の構成要素と区別するためのものであり、その用語によって当該の構成要素の本質や順番、又は順序などが限定されない。いずれかの構成要素が他の構成要素に「連結」、「結合」又は「接続」されると記載されている場合、その構成要素は、その他の構成要素に直接連結されたり接続されるが、各構成要素間で別の構成要素が「連結」、「結合」又は「接続」され得ると理解できるのであろう。
いずれかの実施形態に含まれる構成要素と共通の機能を含む構成要素は、他の実施形態で同じ名称を用いて説明することにする。逆の記載がない以上、いずれかの実施形態に記載した説明は他の実施形態にも適用され、重複する範囲で具体的な説明は省略することにする。
図1は、一実施形態に係る物性パラメータを推定する方法を示したフローチャートである。
ステップ110において、3次元幾何学的な物体上に置かれている織物の3次元輪郭形態を含む情報が受信される。3次元幾何学的な物体は、例えば、円筒型のシリンダ、キューブ、スピア、ミニチュア、又はマネキンの形態を有してもよい。織物の少なくとも一部の領域は3次元幾何学的な物体上に置かれて3次元幾何学的な物体により支持され、残りの一部の領域は3次元幾何学的な物体によって支持されず下方にずり落ちることがある。一実施形態において、織物の3次元輪郭形態は、3次元幾何学的な物体によって支持されず下方にずり落ちた残り部分の輪郭(外郭線)によって形成される。一実施形態において織物の3次元輪郭形態は、例えば、織物が固定された静的状態における織物の形状を示す。
織物は、例えば、天然繊維織物(natural fiber fabrics)、合成繊維織物(synthetic fiber fabrics)、及び綿(cotton)、リネン(linen)、ウール(wool)、ポリエステル(polyester)、ナイロン(nylon)、及びエラスチン(elastane)などの混合糸織物(blended yarn fabrics)であってもよい。織物の形状は、例えば、四角形又は円形であってもよい。
一実施形態において、織物の3次元輪郭形状は、織物が3次元幾何学的な物体上に配置されるときカメラによってキャプチャーされた織物の映像から3次元輪郭形状の3次元頂点の座標として表現される。キャプチャーされた織物の映像が外部要因(例えば、風、日光、照明などの環境要因)によって変わる可能性はほぼない。そのため、推定装置によって織物の映像から抽出された3次元頂点の座標は、3次元頂点の実際座標と実質的に同じである。場合によって、推定装置は、3次元幾何学的な物体上に置かれた織物の3次元輪郭形態に対応する3次元頂点の座標を直接取得することができる。推定装置が織物の3次元輪郭形態を取得する方法は、下記の図2を参照してより具体的に説明する。
1つ以上の実施形態において、推定装置は、織物の3次元輪郭形態を受信する他に、織物の密度をさらに受信してもよい。織物の密度は、該当織物の質量を織物の全体面積に割って求めることができる。織物の3次元輪郭形態に加えて織物の密度が受信されると、推定装置は、織物の材料特性を推定するとき密度をさらに考慮して織物の物性パラメータを推定することができる。
ステップ120において、3次元幾何学的な物体にわたった3次元衣装の織物の物性パラメータ(material property parameter)は、トレーニングされた人工神経網に織物の3D輪郭形状を印加することによって推定される。本明細書において、「ドレーピング(draping)」は、特定物性パラメータがソフトウェアにより推定される3次元物体(例えば、3次元アバター)に特定物性パラメータを有する織物を含む3次元衣装を着せることを意味する。
ここで説明された人工神経網は、3D幾何学的な物体上に置かれたり、かけられた服地の物性パラメータを用いてトレーニングされることができる。
人工神経網は、例えば、下記の数式(1)のような推定モデルMによって定義される。推定モデルMは、下記の数式(1)に表現される線型回帰モデルとして定義される。
Figure 0007462111000001
ここで、yは推定モデルMが推定しようとする6個の物性パラメータから構成されたベクトルを示す。ln(・)は要素ごとのログ(element-wise logarithm)を示し、{Ω,d}は特徴ベクトルを示す。Ωは織物の3次元輪郭形態に対するサンプリングポイントの集合を示し、dは織物の密度に対するサンプリングポイントの集合を示す。
例示的な実施形態において、織物の材料特性パラメータは、実質的に利用可能なサンプル織物材料の数よりも大きい大規模データセットを含むトレーニングデータを用いてトレーニングされた推定モデルMによって推定される。トレーニングのためのデータセットの数は、例えば、実際の織物材料の機械的特性の所定の数(例えば、400種類)からアップサンプリングされたデータセットを生成するガウス混合モデル(Gaussian Mixture Model;GMM)を用いてアップサンプリングされることができる。
人工神経網は、ガウス混合モデル(GMM)の確率分布によってランダムにアップサンプリングされた織物の物性パラメータに基づいて生成されたトレーニングデータによりトレーニングされ得る。
人工神経網のトレーニング原理及び人工神経網の動作については、以下の図3~図4を参照してより具体的に説明する。また、人工神経網の構成については、下記の図6を参照してより具体的に説明する。
図1を参照して説明された方法を用いて推定された織物の物性パラメータは、例えば、織物の緯糸強度(stretch-weft stiffness)、経糸強度(stretch-wrap stiffness)、せん断強度(shear stiffness)、緯糸曲げ強度(banding-weft stiffness)、経糸曲げ強度(banding-wrap stiffness)及びバイアス曲げ強度(bending bias stiffness)などを含んでもよいが、必ずこれに限定されることはない。本明細書において記載された「緯糸(weft)」は織物の横方向の糸を示し、「横糸(weft threads)」とも呼ぶことができる。また、「経糸(warp)」は織物の縦方向の糸示し、「縦糸(warp threads)」とも呼ぶことができる。
ステップ130において、推定装置は、ステップ120で推定した織物の物性パラメータを出力する。推定装置は、ステップ120で推定した織物の物性パラメータを明示的に出力してもよく、又は、暗示的に出力してもよい。一実施形態において、「物性パラメータを明示的に出力」することは、例えば、織物の物性パラメータ値をディスプレイパネルを介して直接出力したり、及び/又は、物性パラメータ値を紙に印刷することを含んでもよい。又は、「物性パラメータを暗示的に出力」することは、例えば、織物によって製造された3次元衣装を織物の物性パラメータでシミュレーションした結果を表示したり、又は、3次元アバター上に3次元衣装を着せたシミュレーションした結果を表示してもよい。
図2は、一実施形態により織物の3次元輪郭形態に関する情報を取得する方法を説明するための図である。図2において、図面210は、3次元幾何学的な物体211(例えば、シリンダ)の上面に四角形に繰り広げられた織物213を示す。織物213は、織物の一定の大きさの見本(specimen)に該当する。
ここで、シリンダ211の直径は例えば、10cmであってもよく、シリンダの高さは例えば、20cmであってもよい。また、織物213は、例えば、横、縦30cmの正方形の形態を有してもよい。織物213は、シリンダ211の上面に位置づけられる。織物213の中心とシリンダ211の上面の中心は重なってもよい。
織物213が図面210のように置かれている場合、シリンダ211上の表面から延びる織物213の一部は、図面230に示すようにしわ状に下がっている。このような場合、織物213の水平角及び垂直角はそれぞれ緯糸及び経糸方向に整列しなければならず、緯糸及び経糸方向の強度は明確に区別され得る。
一実施形態において、図面230に示すようにシリンダの上面を越えて延長された生地の部分が下がってシワが形成されるように生地を位置づける過程により、織物の支持されていない領域が垂れ下がってシワを形成させる過程を「シリンダテスト」と呼ぶ。
一実施形態において、シリンダテストは実際の織物から特徴ベクトルを抽出し、人工神経網を用いて物性パラメータを予測し、予測された結果と実際の織物を用いて取得された結果との間の視覚的類似度を評価するためにシミュレーションされることができる。シリンダテスト過程で織物の3次元輪郭形態は、織物がシリンダに落下する方式に応じて変わり得る。したがって、一貫性のために、織物の四隅が同時に同じ高さから落下するものとシミュレーションされることができる。このような過程は、1つの織物サンプルに対して何度も繰り返すことができ、繰り返し現れる織物の3次元輪郭形態が選択され得る。
一実施形態において、正方形の形態の織物を用いてシリンダテストを行うことで織物の内側シワの部分とねじれ方向の対比がより明確になり、様々なドレープ形態を示すドレーピング領域をさらに多く導き出すことができる。正方形の形態の織物である場合、コーナー領域の面積が残りの領域の面積よりも大きいため、コーナー領域の重さが残りの領域の重さよりも重い。その結果、四角形態の織物の場合に重量の分布によるドレープ形態の変化をより明確に観察することができる。
推定装置は、シリンダテストを介して織物の物性パラメータを推定するために使用される特徴ベクトルの一部に該当する織物の3次元輪郭形態を決定して処理することができる。織物の3次元輪郭形態は、3次元の閉鎖曲線(closed curve)であってもよい。
図面250に示すように、244個のサンプリングポイント255の集合(set)に関する情報は、織物の3次元輪郭形態を表現するために約5mmの間隔で取得されてもよい。244個のサンプリングポイント255は、シリンダテストで抽出された織物の輪郭カーブを示す。
一実施形態において、織物の物性パラメータは全体織物のドレープ形の代わりに、織物の3次元輪郭線の部分のみを用いて推定されることができる。これにより、人工神経網をトレーニングさせる過程に関する複雑性を減らすことができる。前述した例は、一般に、シリンダテストに現れる織物のドレープ形態(drape shapes)と織物の3次元輪郭形態が一対一の対応関係を有するという仮定に基づいたものである。
一実施形態いおいて、以下の図5の図面510に示すように、視覚化された織物の3次元輪郭線と物性パラメータと間の関係マトリックスを介して、織物の3次元輪郭線から物性パラメータまでトレーニングの可能性を確認することができる。
1つ以上の実施形態において、推定装置は、3次元幾何学的な物体上に置かれた織物の3次元輪郭形態を撮影した映像を受信してもよい.推定装置は、映像から織物の3次元輪郭形態を含む3次元モデルを生成する。3次元モデルは、メッシュモデルであってもよい。推定装置は、3次元輪郭形態の3次元頂点の座標は3次元モデルから抽出することができる。推定装置は、例えば、織物のメッシュモデルの境界にある頂点を抽出し、3次元輪郭形態の3次元頂点の座標として使用されることができる。
実施形態によると、推定装置は、ドレープされた織物の3次元輪郭形態を再構成するために次のような方法を使用することができる。例えば、推定装置は、織物の平面図2D映像から3D輪郭形態を再構成する人工神経網を使用することができる。人工神経網は、「top view 2D image-3D contour shape」の対データ(pair data)に基づいて学習され得る。
又は、推定装置は、ドレーピングされた織物を多様な角度で撮影した2次元映像に基づいて3次元モデルを再構成して織物の3次元メッシュを生成した後、3次元メッシュから3次元輪郭形態を再構成してもよい。
又は、推定装置は、ドレーピングされた織物を3Dスキャナーでスキャンして3Dメッシュを生成した後、3Dメッシュから3D輪郭形態を再構成してもよい。
織物のメッシュモデルは、例えば、複数の多角形(例えば、三角形)を含むメッシュでモデリングされてもよい。多角形(三角形)の3つの頂点は質量を有している点(point mass)であり、多角形の各辺はその質量を連結する弾性を有するばねに表現される。そのため、織物は、例えば、質量ばねモデル(Mass-Spring Model)によってモデリングされる。ばねは使用される織物の物性パラメータにより、例えば、伸縮(stretch)、ねじれ(shear)、及び曲げ(bending)に対する各抵抗値を有してもよい。各頂点は重力などのような外部的な力と、伸縮、ねじれ、及び曲げの内部的な力の作用により動く。例えば、外部的な力と内部的な力を計算して各頂点に加えられる力を求めると、各頂点の変位及び動きの速度が求められる。そして、各時点の多角形の頂点の動きを介して仮想衣装の動きがシミュレーションされ得る。
一実施形態において、織物の3次元輪郭形態を示す映像は、例えば、深度センサ又は深度カメラを用いて3次元幾何学的な物体上に置かれている織物を3次元スキャニングすることで取得されたスキャン映像であり得る。織物の3次元メッシュモデルは、当業界で周知の技術を用いてスキャニングされた映像から生成される。その次に、メッシュ表面の3次元頂点を3次元メッシュモデルでサンプリングして織物の3次元輪郭形態を抽出することができる。
サンプリングされた頂点が、例えば、ベジェ曲線(Bezier curve)に合わされる。
一部の実施形態において、推定装置は、織物の3次元輪郭形態の3次元頂点の座標集合を中間3次元メッシュモデルを生成せずに直接取得してもよい。例えば、3次元輪郭形態の3次元頂点は、3次元スキャン映像又は深度映像で直接サンプリングされてもよい。幾何学的な物体幾何学的な物体、例えば、織物をシミュレーションするとき、織物の重さはドレーピングの最終結果に相当な影響を与える。このような理由により、一実施形態では、織物の密度(重さ)をさらに考慮して物性パラメータを推定してもよい。一般に、織物の密度は肉眼で識別することができない。また、3次元幾何学的な物体上に延長され、3次元幾何学的な物体から伝達される織物の部分は3次元幾何学的な物体上の部分に比べてさらに高い密度、又はさらに低い剛性を有し得る。例示的な実施形態において、織物の密度は、織物の形状に影響を及ぼす非視覚的な側面を説明するために特徴ベクトルの一部になり得る。織物の密度は、織物の質量を織物の全体面積に割ることで測定され得る。一実施形態で織物の3次元輪郭形態に加え、織物の密度を使用することによりトレーニングの正確性を向上させ得る。
図3は、一実施形態に係る人工神経網のトレーニング原理を説明するための概念図である。図3を参照すると、3次元幾何学的な物体(例えば、円筒)上に置かれた織物の写真310、機械学習モデル330、及び機械学習モデル330から出力された織物の物性パラメータ350が示されている。機械学習モデルは一実施形態に係る人工神経網に該当する。
例えば、織物のドレープ特性(drape property)は、織物の外観に影響を与えることがある。織物のドレープ特性は視覚的に判断できる特性であるため、機械学習を介して写真又はビデオデータベースでメカニズムを識別することがでる。しかし、トレーニングデータで写真やビデオを使用すると、撮影角度、レンズ属性、照明、及び織物の色のような制御できない外部要因によりデータの多様性が高すぎる。このような多様性を扱うためには、より多くのトレーニングデータ及び様々な畳み込みレイヤのような、より複雑なトレーニングモデルが必要である。
したがって、一実施形態では、機械学習モデル330が3次元幾何学的な物体(例えば、円筒)上に置かれた織物の写真310から織物の物性パラメータ350を推定するようにトレーニングさせることで、対象織物の静的ドレープ形態を再現することができる。
図4は、一実施形態に係る人工神経網の動作を説明するための図である。図4を参照すると、一実施形態に係る人工神経網が3次元幾何学的な物体(例えば、円筒)上に織物が置かれた写真410から3次元モデルを復元420する第1ステップ動作を行った後、復元された3次元モデルから織物の3次元枠曲線430を抽出して織物の物性パラメータを推定440する第2ステップ動作を行うことで、織物の物性パラメータを出力450することができる。
1つ以上の実施形態において、第1ステップ動作及び第2ステップ動作がすべて推定装置に含まれている人工神経網によって実行されてもよく、又は、第1ステップ動作は推定装置により、第2ステップ動作は推定装置に含まれた人工神経網により実行されてもよい。
写真410は、例えば、3次元幾何学的な物体上に置かれた織物の3次元輪郭形態を含んでいる。
一実施形態に係る人工ニューラルネットワークは、織物の写真410が受信されると、写真410から織物の3次元輪郭形態を含む3次元モデルを復元420又は再構成することができる。3次元モデルは、前述した織物のメッシュモデルであってもよい。織物が静的な状態であり、元の形状及び大きさを知っているため、人工ニューラルネットワークは比較的容易に3次元モデルを復元することができる。
人工神経網は、復元された3次元モデル420から織物の3次元輪郭形状の枠曲線430の3次元座標を抽出することができる。正規化は、枠の曲線430の3次元座標を神経網に供給する前に行うことができる。例えば、3次元座標は、各3次元座標の最小値(min)、及び最大値(max)に対して正規化することができる。柱(column)が中央にあると仮定すれば、x及びz座標の最小値/最大値はサンプル織物の幅/長さの1/2であり、y座標の最小値は0であり、y座標の最大値は柱の高さであってもよい。正規化された値は、(座標-最小値(min))/(最大値(max)-最小値(min))に計算される。人工神経網は、織物の3次元枠曲線430の3次元頂点の座標から織物の物性パラメータを推定440して生成する。
ここで、機械学習モデル330の入力は、図4に示す第1ステップの入力と同じであり、機械学習モデル330の出力は図4に示す第2ステップの出力と同じである。入力は、ドレーピングされた織物の3次元輪郭形態、例えば、3次元輪郭形態から均一な間隔でサンプリングされた3次元位置の集合であってもよい。機械学習モデル330の出力は、推定された物性パラメータ(図4に示す450)である。図3の350に図示された物性パラメータは、一般的な織物シミュレーションで使用される物性パラメータの目録であり、実施形態で図3に示す350のサブセットに対応する図4の450に図示された材料特性パラメータを使用してもよい。人工神経網の学習が完了した後、人工神経網の入力として特定織物の3次元輪郭形態に対応する3次元位置の設定を適用すると、図4に示す450で定義された物性パラメータが推定される。
トレーニングに必要なトレーニングデータを収集する過程は次の通りである。最初は、数百個の実際の織物と(事前設定で提供される)物性パラメータデータが与えられる。与えられた物性パラメータセットと類似の統計的な分布を有する新しいランダムの物性パラメータを生成するために、オリジナルデータからガウス混合モデル(GMM)を学習する。ガウス混合モデル(GMM)で希望する量のランダムな物性パラメータセットが生成され、新たに生成された物性パラメータを用いて仮想シミュレーションを行い、人工神経網モデルのトレーニングデータに該当する織物がドレーピングされた3次元輪郭形態を生成する。
図5は、一実施形態により推定された物性パラメータと織物の3次元輪郭形態との間の相関関係を示す図である。図5を参照すると、一実施形態に係る織物の物性パラメータと織物の3次元輪郭形態との間の関係マトリックス(correlation matrix)を示す図面510、及び一実施形態に係る織物の物性パラメータ間の自己相関マトリックスを示す図面530が示されている。
図5において、横軸は、織物の3次元輪郭形態の最初の30個のサンプリングポイントのx、y及びz座標を示す。図面510に示されたカラーマップの各色は、織物の物性パラメータと織物の3次元輪郭形態との間の相関度が低くないことを示す。
図5に示すグラフのx軸値はx、y、z座標を1次元データに配列した形態である。例えば、最初の3次元位置のx、y、zはデータ0、データ1、データ2であり、2番目の3次元位置のx、y、zはデータ3、データ4、データ5である。k番目の3次元位置のx、y、zは、データ3×(k-1)+0、データ3×(k-1)+1、データ3×(k-1)+2データである。図5に示すデータ0~23は8個のサンプリングデータのx、y、z値を示す。縦軸には横軸データとその縦軸データ(伸縮-緯糸(stretch-weft)、伸縮-経糸(stretch-warp)、せん断(shear)、曲げ-緯糸(bending-weft)、曲げ-経糸(bending-warp)、曲げ-バイアス(bending-bias))の相関関係の値を色に表示した。相関関係の値が1又は-1に近いほど(色が暗いほど)、2個のデータ間の相関関係は大きくなる。
図6は、一実施形態に係る人工神経網の構成を示す図である。図6を参照すると、一実施形態に係る第1下位神経網610と第2下位神経網630を含む人工神経網600の構成が示されている。
第1下位神経網610が織物の強度に関する物性パラメータを推定する一方、第2下位神経網630は、織物の曲げに関する物性パラメータを推定することができる。織物の強度に関する物性パラメータは、例えば、緯糸強度(stretch-weft stiffness)、経糸強度(stretch-wrap stiffness)、せん断強度(shear stiffness)などを含んでもよい。また、織物の曲げに関する物性パラメータは、例えば、緯糸曲げ強度(banding-weft stiffness)、経糸曲げ強度(banding-wrap stiffness)及びバイアス曲げ強度(bending bias stiffness)などを含んでもよい。
ここで、第1下位神経網610と第2下位神経網630は、互いに独立的な完全接続された神経網(Full Connected Neural Network;FCNN)から構成されてもよい。前述した数式(1)は完全接続神経網モデルとして定義される。2つの下位神経網の入力は、輪郭サンプリングポイントの同じ3次元位置である。2つのモデルは、同じ入力で各伸縮/曲げ(stretch/bend)について学習され、伸縮/曲げのパラメータは各モデルから出力される。
図5の図面530を参照すると、第1下位神経網610によって出力される織物の強度に関する物性パラメータ(「第1グループ」)と第2下位神経網630によって出力される織物の曲げに関する物性パラメータ(「第2グループ」)で互いに同一のグループに属する物性パラメータは互いに強い自己相関度を有する一方、2つのグループ間の相関度は相対的に弱いことが分かる。第1下位神経網610及び第2下位神経網630のそれぞれを構成する隠れ層とノードの個数、活性化タイプ及びその他のパラメータは試験を介して決定される。同じグループは、ストレッチ特性の異なるストレッチ特性(緯糸強度(stretch-weft)、経糸強度(stretch-wrap)、せん断強度(shear))と強い相関関係を有し、曲げ特性の異なる曲げ特性(緯糸曲げ特性(banding-weft)、経糸曲げ(banding-wrap)、バイアス曲げ(bending bias))と強い相関関係を有することを意味する。
一実施形態において、神経網モデル600は、例えば、32バッチ(batch)の大きさの100エポック(epoch)に対してトレーニングされることができる。
図7は、一実施形態に係る人工神経網のトレーニングデータを生成する方法を示したフローチャートである。
ステップ710において、織物に対する第1個数の物性パラメータが収集される。第1個数の物性パラメータは、例えば、実際の織物の材料に対する400種類機械的特性を含んでもよい。織物の物性パラメータの他にも織物の密度がさらに収集されてもよい。第1個数は、例えば、400個であってもよい。
ステップ720において、第1個数よりも多い第2個数の物性パラメータは、収集された物性パラメータに基づいた生成モデルを用いてアップサンプリングされる。生成モデルは、例えば、ガウス混合モデル(Gaussian Mixture Model;GMM)の確率分布をベースに物性パラメータをランダムにアップサンプリングしてもよい。
1つ以上の実施形態において、物性パラメータ及び密度は、トレーニングのために十分に大きいセットを生成するためにアップサンプリングされてもよい。事前パラメータ空間情報(prior parameter space information)がないアップサンプリングは、バイアス又は有効でないデータセットを生成する可能性があり、有効でないデータは、衣装に適していないか物理的に不可能なパラメータを誘発し得る。このような危険を避けるために、一実施形態では、実際の織物から測定した機械的特性に基づいて生成された生成モデルを使用することができる。
具体的に、アップサンプリングを行うために、それぞれの機械的特性セットを6個の物性パラメータ(例えば、伸長-緯糸(stretch-weft)、伸長-経糸(stretch-warp)、せん断(shear)、曲げ-緯糸(bending-weft)、曲げ-経糸(bending-warp)、及び曲げバイアス(bending-bias))及び密度に変換してもよい。下記の[表1]は、400個の実際の織物で測定した6種類のパラメータ及び密度に対する統計値を示す。
[表1]において、平均(mean)値、最小(min)値、最大(max)値、及び標準偏差(standard deviation(std.dev.))値は、人工神経網のトレーニングに使用できる広い範囲のパラメータ空間を包括する。ここで、1、000、000は、一実施形態に係るシミュレーションシステムによって定義された最大強度限界(maximum limit of stiffness)を示す。
ガウス混合モデル(GMM)は、例えば、7個の変数(例えば、6個の物性パラメータ及び密度)に基づいて400個の実際の織物データセットを用いて生成されてもよい。一実施形態において、5個のクラスタで構成されたガウス混合モデルがトレーニングデータのサンプリングのための生成モデルとして使用されてもよい。これは、何よりも次のような利点を有する。第1に、各クラスタに対して同じ数がアップサンプリングされ得るため、データの偏向を容易に回避し得る。第2に、衣装に適していないパラメータセットをアップサンプリングしたり、有効でないデータセットを生成する確率を減らし得る。
一実施形態において、例えば、合計100、000サンプル(各クラスタに対して20、000サンプル)に対して前述した図2に示すように、シリンダテストをシミュレーションして特徴ベクトルを収集してもよい。ここで、仮想織物の最大粒子距離は5mmであり、時間ステップは0.33秒であってもよい。全ての粒子が安定状態にあり、収斂されないサンプルを廃棄するときシミュレーションが一時中断されてもよい。
ステップ730において、織物の3D輪郭形態は、アップサンプリングされた物性パラメータに基づいて3D幾何学的オブジェクト(例えば、シリンダ)上に織物のドレーピングをシミュレーションすることによって取得される。織物のドレープ形態は、3次元幾何学的な物体上に置かれた織物の配置をシミュレーションすることができる。
ステップ740において、織物のトレーニングデータは、ステップ920でアップサンプリングした物性パラメータ及びステップ730でシミュレートされた3次元輪郭形態に基づいて生成される。人工神経網は、トレーニングデータを用いて3次元輪郭形態が人工神経網に供給されると、人工神経網が織物の物性パラメータを推定するようにトレーニングされる。
図8は、一実施形態に係るコンピューティング装置のブロック図である。コンピューティング装置800は、通信インターフェース810、プロセッサ830、メモリ850、及び出力装置870を含む。通信インターフェース810、プロセッサ830、メモリ850、及び出力装置870は、通信バス805を介して通信する。
通信インターフェース810は、3次元幾何学的な物体上に置かれた織物の3次元輪郭形態を含む情報を受信する。通信インターフェース810は、織物の重さ又は織物の密度をさらに取得してもよい。
プロセッサ830は、情報を予めトレーニングされた人工神経網に印加することによって、織物により製造される3次元衣装のドレープ形態を再現するために使用される織物の物性パラメータを推定するようにする命令語を行う。ここで、織物の3次元輪郭形態と3次元衣装のドレープ形態は互いに相関関係を有してもよい。
又は、通信インターフェース810は、3次元幾何学的な物体上に置かれた織物の3次元輪郭形態を撮影した映像を受信してもよい。この場合、プロセッサ830は、映像から織物の3次元輪郭形態を含む3次元モデルを生成し得る。プロセッサ830は、3次元モデルから織物の3次元輪郭形態に対応する3次元頂点の座標を抽出することができる。
メモリ850は、人工神経網を実現するためにプロセッサ830によって実行される命令語を格納する。そのために、メモリ850は、人工神経網に対するパラメータ(例えば、ノードの加重値)及び人工神経網でノードの接続又は構成を含んでもよい。また、メモリ850は、通信インターフェース810を介して受信した織物の3次元輪郭形態、及び/又は織物の密度を格納してもよい。また、メモリ850は、プロセッサ830が推定した織物の物性パラメータを格納してもよい。メモリ850は、上述したプロセッサ830の処理過程で生成される様々な情報を格納してもよい。その他にも、メモリ850は、各種のデータとプログラムなどを格納してもよい。メモリ850は、揮発性メモリ又は不揮発性メモリを含んでもよい。メモリ850は、ハードディスクなどのような大容量の格納媒体を備えて各種のデータを格納してもよい。
出力装置870は、プロセッサ830が推定した織物の物性パラメータを出力する。出力装置870は、物性パラメータの自体を出力してもよく、又は、物性パラメータが適用された織物により製作された仮想衣装を着装した3次元アバターを画面に出力してもよい。出力装置870は、例えば、ディスプレイ装置であってもよく、又は、紙あるいは布地にパターンピースを表示するプリント装置であってもよい。
また、プロセッサ830は、図1~図7を参照して前述した少なくとも1つの方法又は少なくとも1つの方法に対応するアルゴリズムを行うことができる。プロセッサ830は、目的とする動作(desired operations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現されたデータ処理装置であり得る。例えば、目的とする動作はプログラムに含まれたコード又は命令を含んでもよい。プロセッサ830は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、NPU(Neural network Processing Unit)で構成されてもよい。例えば、ハードウェアで具現されたコンピューティング装置800は、マイクロプロセッサー(microprocessor)、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチ-コアプロセッサ(multi-core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)を含んでもよい。
プロセッサ830はプログラムを実行し、コンピューティング装置800を制御することができる。プロセッサ830によって実行されるプログラムコードはメモリ850に格納される。
実施形態に係る方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
800:コンピューティング装置
805:通信バス
810:通信インターフェース
830:プロセッサ
850:メモリ
870:出力装置

Claims (20)

  1. 織物の少なくとも一部が3次元幾何学的な物体上に配置され、前記織物の他の部分が前記3次元幾何学的な物体から吊り下がっている前記織物の3次元輪郭形態を受信するステップと、
    トレーニングデータを用いてトレーニングされた人工神経網によって前記織物の3次元輪郭形態を処理して前記織物の物性パラメータを推定するステップと、
    前記織物の推定した物性パラメータを提供するステップと、
    を含み、
    前記トレーニングデータは、異なるサンプル織物に対する第1個数の物性パラメータに生成モデルを適用して生成された第2個数の物性パラメータと、シミュレーションにより生成された前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態と、を含み、
    前記第2個数は、前記第1個数よりも多い、
    織物の物性パラメータを推定する方法。
  2. 前記織物の3次元輪郭形態を含む映像を受信するステップと、
    前記映像からキャプチャーされた前記3次元輪郭形態から3次元モデルを生成するステップと、
    前記3次元モデルの境界による3次元頂点の座標を前記織物の3次元輪郭形態に抽出するステップと、
    を含む、請求項1に記載の織物の物性パラメータを推定する方法。
  3. 前記織物を3次元スキャニングして3次元スキャン映像又は前記織物の深度映像を生成するステップと、
    前記3次元スキャン映像又は前記深度映像から前記織物の3次元輪郭形態を決定するステップと、
    をさらに含む、請求項1に記載の織物の物性パラメータを推定する方法。
  4. 前記3次元輪郭形態を決定するために、前記深度映像又は前記3次元スキャン映像から3次元頂点をサンプリングするステップをさらに含む、請求項3に記載の織物の物性パラメータを推定する方法。
  5. 前記織物の密度を受信するステップをさらに含み、
    前記織物の物性パラメータは、前記織物の密度に基づいて追加に推定される、請求項1に記載の織物の物性パラメータを推定する方法。
  6. 前記織物は、天然繊維織物、合成繊維織物、又は、混合糸織物である、請求項1に記載の織物の物性パラメータを推定する方法。
  7. 前記織物は所定の寸法で成形され、
    前記織物の中心が前記3次元幾何学的な物体の上面の中心と重なるように前記3次元幾何学的な物体の上面に前記織物が配置される、請求項1に記載の織物の物性パラメータを推定する方法。
  8. 前記織物の物性パラメータは、前記織物の緯糸強度(stretch-weft stiffness)、経糸強度(stretch-wrap stiffness)、せん断強度(shear stiffness)、緯糸曲げ強度(banding-weft stiffness)、経糸曲げ強度(banding-wrap stiffness)及びバイアス曲げ強度(bending bias stiffness)のうち少なくとも1つを含む、請求項1に記載の織物の物性パラメータを推定する方法。
  9. 前記生成モデルは、ガウス混合モデル(Gaussian Mixture Model;GMM)の確率分布を示す、請求項1に記載の織物の物性パラメータを推定する方法。
  10. 前記人工神経網は、
    前記織物の強度に関する物性パラメータを推定するようにトレーニングされた第1下位神経網と、
    前記織物の曲げに関する物性パラメータを推定するようにトレーニングされた第2下位神経網と、
    を含む、請求項1に記載の織物の物性パラメータを推定する方法。
  11. 前記第1下位神経網及び前記第2下位神経網のそれぞれは、完全接続された神経網(Fully Connected Neural Network)である、請求項10に記載の織物の物性パラメータを推定する方法。
  12. 前記推定した織物の物性パラメータを提供するステップは、
    前記推定した織物の物性パラメータを前記織物を含む3次元衣装に適用するステップと、
    前記3次元衣装のドレーピング結果を表示するステップと、
    を含む、請求項10に記載の織物の物性パラメータを推定する方法。
  13. 人工神経網のトレーニングデータを生成する方法であって、
    異なる織物に対する第1個数の物性パラメータを受信するステップと、
    前記第1個数の物性パラメータに生成モデルを適用して第2個数の物性パラメータを生成するステップであって、前記第2個数は、前記第1個数よりも多い、ステップと、
    前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態を生成するためにシミュレーションを行うステップであって、前記織物の輪郭形態は、3次元幾何学的な物体に吊り下がっている織物の部分を含む、ステップと、
    前記シミュレーション織物の前記生成された3次元輪郭形態及び前記第2個数の物性パラメータを含むトレーニングデータを生成するステップと、
    を含む、トレーニングデータを生成する方法。
  14. 前記生成モデルは、ガウス混合モデル(GMM)の確率分布を示す、請求項13に記載のトレーニングデータを生成する方法。
  15. 前記トレーニングデータを利用して与えられた該当織物の前記物性パラメータを推定するように前記人工神経網をトレーニングするステップをさらに含む、請求項13に記載のトレーニングデータを生成する方法。
  16. 命令語を格納する非一時的コンピュータで読み出し可能な格納媒体であって、
    前記非一時的コンピュータで読み出し可能な格納媒体はプロセッサにより、織物の少なくとも一部が3次元幾何学的な物体上に配置され、前記織物の他の部分が前記3次元幾何学的な物体から吊り下がっている前記織物の3次元輪郭形態を受信し、
    前記織物の物性パラメータを推定するために、トレーニングデータを用いてトレーニングされた人工神経網によって前記織物の3次元輪郭形態を処理し、前記トレーニングデータは、異なるサンプル織物に対する第1個数の物性パラメータに生成モデルを適用して生成された第2個数の物性パラメータと、シミュレーションにより生成された前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態と、を含み、前記第2個数は、前記第1個数よりも多く、
    前記織物の前記推定された物性パラメータを提供するようにする命令語を格納する、非一時的コンピュータ読み出し可能な格納媒体。
  17. 前記非一時的コンピュータで読み出し可能な格納媒体は、
    前記プロセッサにより、
    前記織物の3次元輪郭形態を含む映像を受信し、
    前記映像からキャプチャーされた前記3次元輪郭形態から3次元モデルを生成し、
    前記3次元モデルの境界に沿って3次元頂点の座標を前記織物の3次元輪郭形態に抽出するようにする命令語をさらに格納する、請求項16に記載の非一時的コンピュータで読み出し可能な格納媒体。
  18. 前記非一時的コンピュータで読み出し可能な格納媒体は、
    前記プロセッサにより、
    前記織物を3次元スキャニングして3次元スキャン映像又は前記織物の深度映像を生成し、
    前記3次元スキャン映像又は前記深度映像で前記織物の3次元輪郭形態を決定するようにする命令語をさらに格納する、請求項16に記載の非一時的コンピュータで読み出し可能な格納媒体。
  19. 前記生成モデルは、ガウス混合モデル(GMM)の確率分布を示す、請求項16に記載の非一時的コンピュータで読み出し可能な格納媒体。
  20. 命令語を格納する非一時的コンピュータで読み出し可能な格納媒体であって、
    前記命令語は、
    異なる織物に対する第1個数の物性パラメータを受信し、
    前記第1個数の物性パラメータに生成モデルを適用して第2個数の物性パラメータを生成し、前記第2個数は、前記第1個数よりも多く、
    前記第2個数の物性パラメータに対応するシミュレーション織物の3次元輪郭形態を生成するためにシミュレーションを行い、前記織物の輪郭形態は、3次元幾何学的な物体に吊り下がった織物の部分を含み、
    前記シミュレーション織物の前記生成された3次元輪郭形態及び前記第2個数の物性パラメータをトレーニングデータにませ
    前記トレーニングデータを用いて人工神経網をトレーニングさせる、非一時的コンピュータで読み出し可能な格納媒体。
JP2023515402A 2020-09-07 2021-09-07 織物の物性パラメータを推定するためのトレーニングデータ生成、及び織物の物性パラメータ推定 Active JP7462111B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2020-0113850 2020-09-07
KR1020200113850A KR102504871B1 (ko) 2020-09-07 2020-09-07 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치
PCT/KR2021/012097 WO2022050810A1 (en) 2020-09-07 2021-09-07 Generating training data for estimating material property parameter of fabric and estimating material property parameter of fabric

Publications (2)

Publication Number Publication Date
JP2023540600A JP2023540600A (ja) 2023-09-25
JP7462111B2 true JP7462111B2 (ja) 2024-04-04

Family

ID=77666276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023515402A Active JP7462111B2 (ja) 2020-09-07 2021-09-07 織物の物性パラメータを推定するためのトレーニングデータ生成、及び織物の物性パラメータ推定

Country Status (7)

Country Link
US (1) US11900582B2 (ja)
EP (1) EP3975134A1 (ja)
JP (1) JP7462111B2 (ja)
KR (2) KR102504871B1 (ja)
CN (1) CN114241473A (ja)
CA (1) CA3191980A1 (ja)
WO (1) WO2022050810A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023212861A1 (zh) * 2022-05-05 2023-11-09 浙江凌迪数字科技有公司 一种基于学习的悬垂式面料弯曲硬度测量方法
CN114998268B (zh) * 2022-06-07 2022-11-25 常州市新创智能科技有限公司 一种花边捆绑纱并丝断丝的检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219071A (ja) 2002-11-22 2004-08-05 Hyogo Prefecture 織物の風合い予測方法、装置、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100707716B1 (ko) * 2000-04-29 2007-04-16 디엔엠에프티 (주) 천의 드레이프 평가 방법 및 시스템과 이를 구축한 전자 기록 매체
JP4793974B2 (ja) 2005-01-31 2011-10-12 愛知県 織物構造のモデル化プログラム、記録媒体及び織物構造のモデル化装置
KR100910589B1 (ko) * 2007-10-17 2009-08-03 충남대학교산학협력단 옷감 시뮬레이터를 이용한 의복압 측정방법
KR101284794B1 (ko) 2009-12-21 2013-07-10 한국전자통신연구원 직조 형태에 따른 섬유재질 렌더링 장치 및 그 방법
ES2570653B1 (es) * 2014-11-18 2017-03-24 Universidad Rey Juan Carlos Método implementado por ordenador, sistema y producto de programa de ordenador para simular el comportamiento de un tejido entretejido a nivel de hilo
EP3465537A2 (en) 2016-05-25 2019-04-10 Metail Limited Method and system for predicting garment attributes using deep learning
WO2018015961A1 (en) * 2016-07-20 2018-01-25 F.F.P. Technologies Ltd. Seamless wearable structure garment
CN106971199B (zh) * 2017-03-10 2019-11-08 东华大学 一种织物三维悬垂形态的自动分类方法
JP2019016164A (ja) * 2017-07-06 2019-01-31 日本電信電話株式会社 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
US10990718B2 (en) * 2017-12-12 2021-04-27 Wipro Limited Method and device for generating physical design parameters of an object
CN109325941A (zh) * 2018-09-05 2019-02-12 深圳灵图慧视科技有限公司 表面属性检测方法及装置、计算机设备及计算机可读介质
JP2022508674A (ja) * 2018-10-09 2022-01-19 レソナイ インコーポレイテッド 3dシーン拡張及び再構築のためのシステム及び方法
WO2021003378A1 (en) * 2019-07-02 2021-01-07 Insurance Services Office, Inc. Computer vision systems and methods for blind localization of image forgery
CN111311751A (zh) * 2020-02-12 2020-06-19 叠境数字科技(上海)有限公司 一种基于深度神经网络的三维衣服模型的重建方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004219071A (ja) 2002-11-22 2004-08-05 Hyogo Prefecture 織物の風合い予測方法、装置、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Azmat Hussain et al.,A New Approach to Evaluate Fabric Hand Based on Three-Dimensional Drape Model,Autex Research Journal,2020年05月13日,pp.155-167,https://www.degruyter.com/document/doi/10.2478/aut-2019-0011/html
Shan Yang et al.,Learning-Based Cloth Material Recovery from Video,2017 IEEE International Conference on Computer Vision(ICCV),2017年10月29日,pp.4393-4403,https://ieeexplore.ieee.org/document/8237732

Also Published As

Publication number Publication date
US20220076405A1 (en) 2022-03-10
EP3975134A1 (en) 2022-03-30
KR20230035282A (ko) 2023-03-13
US11900582B2 (en) 2024-02-13
KR102504871B1 (ko) 2023-03-02
KR102553955B1 (ko) 2023-07-11
JP2023540600A (ja) 2023-09-25
CA3191980A1 (en) 2022-03-10
CN114241473A (zh) 2022-03-25
KR20220032270A (ko) 2022-03-15
WO2022050810A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
KR102553955B1 (ko) 직물의 물성 파라미터를 추정하기 위한 인공 신경망의 트레이닝 데이터를 생성하는 방법, 직물의 물성 파라미터를 추정하는 방법 및 장치
Magnenat-Thalmann Modeling and simulating bodies and garments
US11094115B2 (en) Generating clothing patterns of garment using bounding volumes of body parts
US11461967B2 (en) Method and apparatus for simulating clothes
WO2021009062A1 (en) Methods of estimating a bare body shape from a concealed scan of the body
JP2010211732A (ja) 物体認識装置および方法
JP3765863B2 (ja) 衣服の動きのシミュレーション方法
JP7177020B2 (ja) 画像処理装置、方法及びプログラム
CN113191018B (zh) 一种布料仿真方法、系统、电子设备及存储介质
JP3340198B2 (ja) 形状復元装置
Stotko et al. Physics-guided Shape-from-Template: Monocular Video Perception through Neural Surrogate Models
EP4250240A1 (en) Three-dimensional fabric draping simulation method and device
Yueqi et al. V-Dresser: An image based 3D garment generating system
CN116510295B (zh) 数据处理方法、装置、设备及存储介质
Hwan Sul Fast cloth collision detection using collision matrix
Hwan Sul et al. Improvement of drape simulation speed using constrained fabric collision
Achar et al. A Comparative Study of Garment Draping Techniques
CN116615758A (zh) 3d织物的披挂模拟方法及装置
Xu et al. Physically based real-time animation of curtains
Kuzmina et al. Image-based cloth capture and cloth simulation used for estimation cloth draping parameters
Zhong A photo based 3D garment making system for educational purpose in style reconstruction and evaluation
Zhong Fast virtual garment dressing on posed human model
Yang et al. A Survey on 3D Human Body Modeling for Interactive Fashion Design
FENG et al. Research on Fiber Cloth Simulation Fitting
CN116615759A (zh) 3d织物的披挂模拟方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7462111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150