JP2022542573A - 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム製品 - Google Patents

衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム製品 Download PDF

Info

Publication number
JP2022542573A
JP2022542573A JP2022504554A JP2022504554A JP2022542573A JP 2022542573 A JP2022542573 A JP 2022542573A JP 2022504554 A JP2022504554 A JP 2022504554A JP 2022504554 A JP2022504554 A JP 2022504554A JP 2022542573 A JP2022542573 A JP 2022542573A
Authority
JP
Japan
Prior art keywords
garment
map
texture map
generating
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022504554A
Other languages
English (en)
Other versions
JP7370527B2 (ja
Inventor
シュテファン ハウスヴィースナー
フィリップ グラスマグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Reactive Reality AG
Original Assignee
Reactive Reality AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Reactive Reality AG filed Critical Reactive Reality AG
Publication of JP2022542573A publication Critical patent/JP2022542573A/ja
Application granted granted Critical
Publication of JP7370527B2 publication Critical patent/JP7370527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/16Cloth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/62Semi-transparency
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Abstract

ターゲット衣服サイズを有する衣服の3次元モデルデータを生成する方法では、衣服の中間モデルデータが記憶されており、中間モデルデータは、ベース衣服サイズに関連付けられており、中間ジオメトリデータと、中間ジオメトリデータに関連付けられた少なくとも1つの中間テクスチャマップと、を含む。中間テクスチャマップのセマンティックセグメンテーションを通して、中間テクスチャマップの各要素を、衣服のセグメントのセットおよび関連付けられたサイズ変更ルールのそれぞれの1つに関連付けるラベルマップが生成される。モデルデータのためのジオメトリデータは、ラベルマップ、サイズ変更ルール、身体モデル、およびベース衣服サイズとターゲット衣服サイズとの間のスケーリング要因のセットに基づいて中間ジオメトリデータをサイズ変更することによって生成される。テクスチャマップは、中間テクスチャマップ、ラベルマップ、サイズ変更ルール、およびスケーリング要因のセットに基づいて生成される。【選択図】図1

Description

本開示は、衣服の3次元、3Dモデルデータを生成するためにコンピュータにより実行される方法およびコンピュータプログラム製品に関する。
視覚化とフィットシミュレーションのために衣服の3Dモデルを作成することは、手動モデリングや衣服のCADモデルの変換など、さまざまな方法で行うことができる。オンライン小売業者は通常、非常に多数のアイテムを有しており、製品範囲は頻繁に変化する。したがって、手動モデリングは合理的なアプローチではない。衣服の設計および製造に通常使用されるCADモデルは、専用ソフトウェアを使用して3Dモデルに変換することができる。しかしながら、例えばジオメトリックプリミティブカウント(geometric primitive count)のように通常は非常に詳細レベルが高いため、かつ、例えば分断されたパーツのように位相幾何学的品質が劣るため、結果として得られるモデルは、リアルタイムの可視化やシミュレーションには適さない。さらに、CADモデルは製造プロセスのために、最終製品に完全に対応しないことが多い。製造時には、ある種の修正を行わなければならず、ファブリックの属性が結果の外観および形状に影響を及ぼす。これらの変化は、元のCADモデルによっては、反映されない。
さらに、従来の解決策では、1つの衣服の1つの3Dモデルについて、1つのサイズのみが一度に生成される。異なるサイズの3Dモデルが必要とされる場合、それらの全ては別々に生成されなければならない。小売業者は、この経費を回避する要望を有する。達成されるべき目的は、様々なサイズの衣服の3次元モデルデータの生成を可能とする、改善されたモデリング概念を提供することである。
この目的は、独立請求項の主題によって達成される。実施形態および発展形態は、従属請求項に由来する。
改善されたモデリング概念は、衣服が一様にスケーリングされないという洞察に基づいている。これは、例えば、サイズがMサイズからLサイズになるとき、衣服の異なる部分のスケール要因が異なることを意味する。例えば、衣服の袖の長さのスケール要因は、袖の周囲のスケール要因とは異なる。製造目的のために、衣服スケーリングの仕方は、等級付けテーブルによって記述される。このテーブルは、異なるパーツがサイズごとにどのようにスケーリングするかを記述する。改善されたモデリング概念によれば、この情報は、とりわけ、1つまたは複数の所望のサイズのためのモデルのジオメトリを調整するために使用される。
この目的のために、異なるサイズのモデルデータが、衣服の単一の3Dモデルおよび衣服の等級付けテーブルからアルゴリズム的に生成される。これは、例えば、衣服の様々なセグメントを決定するために、衣服の中間モデルデータのセマンティックセグメンテーション(Semantic Segmentation)を実行することを含む。そして、この情報は、衣服のジオメトリデータ(例えばメッシュなど)と、衣服の可視テクスチャに関する情報を伝える関連テクスチャマップとを別々にスケーリングするために使用される。このプロセスでは、衣服に関連付けられた身体モデルも使用され、例えば、ジオメトリおよび/またはテクスチャマップのどの部分が衣服を着用した状態の身体のどの部分に対応するかについての情報を提供する。
例えば、衣服のテクスチャ(例えば、クロス、ファブリック、およびプリントを表すもの)も、一様にはスケーリングされず、むしろ通常は反復される。したがって、使用されたファブリックの知識を用いて、この挙動をシミュレートすることができる。ボタンまたはポケットのような要素もまた、通常、スケーリングしない、または縫い目またはジッパーが一方向にスケーリングするように、特定の制約の下でのみスケーリングする。衣服上のプリントは、通常、ファブリックのパターンとは独立してスケールする。基本となるロジックは、通常、一組のグローバルルールでは記述できない。ある程度、衣服の等級付けは、デザイナーおよび製造要件の創造的自由に依存する。したがって、改良されたモデリング概念はこれらの設計選択を反映するために、各要素またはセグメントに対するスケーリング挙動を独立に修正する方法を提供する。
中間モデルデータは外部から提供されてもよく、例えば、従来の方法で生成されてもよい。しかしながら、改良されたモデリング概念によれば、中間モデルデータは、3次元再構成を用いて、複数の視角から衣服を示す画像のセットに基づいて生成されてもよい。画像は、マネキンまたは人に着用されている衣服の写真、または、着用状態にある衣服のCADモデルのレンダリングされた画像であってもよい。
改善されたモデリング概念の一実施形態によれば、例えば、ターゲット衣服サイズを有する衣服の3次元モデルデータを生成するためにコンピュータにより実行される方法は、例えばコンピュータシステムにおいて、衣服の中間モデルデータを記憶することを含み、中間モデルデータは、ベース衣服サイズに関連付けられており、中間ジオメトリデータと、中間ジオメトリデータに関連付けられた複数の要素を有する少なくとも1つの中間テクスチャマップとを含む。例えば、中間ジオメトリデータは、表面点であってもよく、衣服の3Dジオメトリを決定する3D点のリストを含む。いくつかの実装では、3D点がメッシュ構造を定義することができるが、3D表面を記述する他の実装形態は除外されない。中間テクスチャマップは、複数の要素を含む2次元テクスチャの形式であってもよい。例えば、要素はテクセルを表すことができる。各要素は、中間ジオメトリデータの3D点のうちの1つに関連付けられた座標の対(例えばUV座標)によって定義することができる。
この方法にしたがって、中間テクスチャマップのセマンティックセグメンテーションが例えば、ラベルマップを生成するために、コンピュータシステムにおいて実行される。ラベルマップは、中間テクスチャマップの各要素を衣服のセグメントのセットのそれぞれの1つに関連付ける。各セグメントには、サイズ変更ルールが関連付けられている。さらに、衣服のモデルデータのジオメトリデータは、例えばコンピュータシステムにおいて、ラベルマップ、セグメントに関連付けられたサイズ変更ルール、衣服に関連する身体モデル、および、ベース衣服サイズとターゲット衣服サイズとの間の複数のスケーリング要因のセットに基づいて、中間ジオメトリデータをサイズ変更することによって生成される。スケーリング要因の各々は、身体モデルのそれぞれの部分に関連付けられている。例えば、スケーリング要因のセットは、例えば身体モデルのいくつかの部分に対応する、2つ以上のスケーリング要因を含む。
さらに、衣服のモデルデータのテクスチャマップは、例えばコンピュータシステムにおいて、中間テクスチャマップ、ラベルマップ、セグメントに関連付けられたサイズ変更ルール、およびスケーリング要因のセットに基づいて、生成される。
いくつかの実装では、中間テクスチャマップのセマンティックセグメンテーションは、中間テクスチャマップの複数の要素と中間ジオメトリデータとの関連付けにさらに基づいて実行される。
本方法によって生成されたモデルデータは中間モデルデータと同じまたは少なくとも同様のフォーマット、すなわち、ジオメトリデータと、例えば2D構造に構造化されたそれぞれのテクスチャ要素とによって構成される3D点のセットを有し、各要素は、例えばそれぞれのUV座標によって、3D点のうちの少なくとも1つに関連付けられている。
例えば、セマンティックセグメンテーションは、機械学習アルゴリズムを使用して実行される。例えば、このプロセスによって生成されるラベルマップは、中間テクスチャマップのどの要素が衣服のどのセマンティック領域に属するか、またはそのような割り当ての尤度を記述する。例えば、この処理において、セマンティックな意味を、衣服の襟、継ぎ目、ボタンなどに属するそれぞれの要素(例えば、テクセル(texel))に割り当てる。いくつかの実装形態では、同じアルゴリズムが、除去のため、例えば中間モデルデータの以前の生成の結果としての、中間テクスチャマップの一部である、背景テクセルおよび/またはマネキンテクセルにラベル付けを行うことができる。例えば、ラベルマップは、特に各要素を衣服の特定のセグメントに割り当てることによって、中間テクスチャマップの各要素に挙動ルールを割り当てる。ラベルマップは中間テクスチャマップと同じフォーマットを有してもよく、したがって、各要素のそれぞれのセマンティックミーニングは、中間ジオメトリデータ(例えばテクスチャマップ内のそれぞれのUV座標を介した3D表面または3D点)に容易に転送される。
例えば、身体モデルは、身体モデルのそれぞれの部分と中間ジオメトリデータのそれぞれの部分との間の関連付けを定義する情報をさらに含む。ジオメトリデータを生成することは、サイズ変更ルールに基づく身体モデルによって定義された中間ジオメトリデータのそれぞれの部分をスケーリングまたは反復することによる、中間ジオメトリデータのサイズ変更を含んでもよい。
スケーリング要因に基づいて衣服のジオメトリデータおよびテクスチャマップをスケーリングすることは技術的に正しいかもしれないが、あらゆるタイプの衣服に対して衣服の製造中に何が起こるかを反映ししていない。例えば、ボタンおよびポケットのような要素は通常、スケーリングせず、ジッパーまたは縫い目のような要素は特定の方向にのみスケーリングする。さらに、実際には、ファブリックは通常、引き伸ばすことによってはスケーリングされず、むしろ、より多くのファブリックが使用される。これは、技術的には材料を反復することに対応する。したがって、サイズ変更ルールは、衣服のモデルデータを生成するときに、衣服の異なるセグメントがどのようにスケーリングするかを定義する。例えば、サイズ変更ルールは、衣服の特定のセグメントが以下のうちの1つにしたがってサイズ変更されるかどうかを決定してもよい:
・特にあらゆる方向においてスケーリングすること;
・特にジオメトリ構造および/またはテクスチャを反復することによって反復すること;
・制約を伴って反復すること、なお、反復は例えば一方向でのみ実行され、スケーリングは別の方向で防止または制限される;または、
・例えばボタンなど、サイズ変更不可能な要素のために、サイズを変更しないこと。
いくつかの実装では、テクスチャマップを生成することは、サイズ変更ルールに基づいて中間テクスチャマップのパターンをスケーリングする、反復する、または切断することによって、中間テクスチャマップをサイズ変更することを含む。このため、セグメント毎にテクスチャを生成する適切な方法を個別に選択することができる。
いくつかの実装では、テクスチャマップを生成することは、照明マップおよび色マップを生成するために、中間テクスチャマップの照明情報を中間テクスチャマップの色情報から分離することを含む。そして、色マップはサイズ変更され、照明マップはテクスチャマップを生成するためにサイズ変更された色マップに適用される。このような分離アプローチでは、テクスチャマップは、例えば、ジオメトリにおけるしわ、凹部、凸部などによって生じるライティングおよび/またはシェーディング効果を不正確に扱うことなく、サイズ変更することができる。したがって、ターゲット衣服サイズにおけるテクスチャマップのより現実的なテクスチャを達成することができる。
このプロセスは、テクスチャに関する情報を別々に提供することによってさらにサポートされうる。例えば、分離することは、中間モデルデータに関連付けられたファブリックパッチまたは材料パッチの画像に基づく。例えば、ファブリックパッチおよび/または材料パッチは白色、拡散、かつ均質な照明条件下でキャプチャされてもよく、これはシェーディング情報を含むテクスチャマップのテクスチャと、一様に照明されたファブリックサンプルまたは材料サンプルとの差分を計算することを可能にする。
いくつかの実装では、テクスチャのアルファマッティング(alpha matting)も使用することができる。例えば、本方法は中間テクスチャマップと、任意選択でラベルマップとに基づいて透明度マップを生成することをさらに含み、透明度マップを生成することは、中間テクスチャマップの各要素について、中間テクスチャマップに基づく背景色を決定することと、要素の透明度値を決定するために、中間テクスチャマップの各要素を要素のそれぞれの背景色と比較することと、要素のそれぞれの透明度値に基づいて、要素のそれぞれの前景色から要素の背景色を減算することと、を含む。透明度マップは、例えば同じアルゴリズムによって、ターゲット衣服サイズのテクスチャマップと同じサイズにすることができる。したがって、透明度マップは、テクスチャマップと同じジオメトリデータへの関連付けを有する。透明度マップは複雑な衣服をレンダリングすることの現実的な効果を、特に、縞、レースなどのような透明または複雑な輪郭において増大させることを可能にする。
本方法の様々な実装では、身体モデルは、中間モデルデータとともに記憶され、かつ、中間モデルデータに対応する、または、標準的な身体モデルを中間ジオメトリデータに位置合わせおよび/またはマッピングすることによって生成される。
身体モデルが中間モデルデータと共に記憶される場合、例えば、中間ジオメトリデータの3D点を、身体モデルによって定義される基礎的マネキンのリグ(rig)に割り当てることができる。このような割り当てのプロセスは、「スキンニング(skinning)」または「リギング(rigging)」と呼ばれうる。例えば、スキンニングプロセスは、「頂点」とも呼ぶことができる3D点を、特定の重みを有するリグのそれぞれの骨に割り当てる。この割り当ては、身体モデルによって定義された骨格または骨にそれぞれのスケーリング要因の情報を適用するときに、中間ジオメトリデータのそれぞれの部分をスケーリングまたは反復するために使用されうる。そのような実装では、身体モデルがリギングされたマネキンモデルであってもよい。身体モデルはまた、マネキン、リグなどに対応するCADモデルからエクスポートされたフィット情報を含んでもよく、フィット情報は、中間モデルデータの生成中に使用されていてもよい。
中間モデルデータとともに身体モデルが記憶されていない場合、身体モデルを生成するために、骨格およびリグ情報が自動的に計算されうる。例えば、モデルの骨格およびリグを計算するための自動化された方法は、人間の形状のモデルで最もよく機能する。いくつかのタイプの衣服、例えばスカートまたはチューブトップなどでは、対応するリギングアルゴリズムの機械学習方法によって、人間型の形状を認識することが困難である。いくつかの実装によれば、標準的な身体モデルが中間モデルデータとともに入力として使用され、これによってロバストな自動化されたリギングが可能となる。例えば、人間型の形状は標準的な身体モデルの結果として与えられ、マネキン上の衣服の相対的な位置はその全体的なフィット性を記述する。サイズ変更ルールは、スケーリング要因とサイズ変更後の骨格の修正との間のマッピングを定義してもよい。
例えば、修正は粗い修正から開始され、細かい修正で終了する。例えば、シャツの場合、最初に、所望の肩幅が、全体的なスケーリングにより確定される。そして、高さがスケーリングされ、正しい胴体長さを達成する。その後、奥行きがスケーリングされ、正しい腰周りが達成され、続いてリグを使用して腕がスケーリングされる。同様のサイズ変更ルールは、他の種類の衣服それぞれについて発見される。
前の実施形態では、中間モデルデータが衣服のいわゆる最終的な3次元モデルデータを生成するための開始点として既に利用可能である、と仮定されていた。しかしながら、本方法のいくつかの実装では、中間モデルデータが複数の視角から衣服を示す画像のセットに基づいて生成され、記憶される。この目的のために、中間モデルデータを生成することは、中間ジオメトリデータを生成するための3D再構成と、中間テクスチャマップを生成するためのテクスチャマッピングとを含む。画像は、マネキンに着せられている衣服の写真、または着用状態の衣服のCADモデルの人物またはレンダリングされた画像のうちの1つとなりうる。
写真は例えば、360°をカバーする写真のセットが利用可能となるように、例えばターンテーブル上のマネキンに着せられた衣服の製品写真を通してキャプチャされうる。さらに、水平または基本的に水平な向きの写真を撮ることができるだけでなく、衣服の種類に応じて、水平面に対して異なる視角、すなわち正および負の視角からも撮ることができる。自由に言えば、画像のセットは3D再構成およびテクスチャマッピングのための良好な基礎を持たせるために、全ての側から衣服を示すべきである。
画像が衣服のCADモデルのレンダリングされた画像である場合にも、同様のアプローチをとることができる。両方の場合において、製品、すなわち衣服は現実のカメラまたは仮想カメラの前で回転され、またはその逆であり、可能な限り多くの視角で画像をキャプチャするために異なる高さで移動される。
いくつかの実装では、中間モデルデータを生成することは複数の視角から衣服を示すさらなる画像セットにさらに基づいており、さらなる画像セットの画像は衣服の表面に、追加された視覚的に特有の特徴、例えば、特に、仮想的または現実的なパターン、および/またはステッカー、および/またはテープを有する衣服を示している。
例えば、3D再構成は通常、いくつかの画像にわたる画像の特徴を識別するために、滑らかな表面ではなく、テクスチャ化された表面を仮定する。単色の、滑らかな、大きな表面は、理想的な結果を提供しない場合がある。したがって、画像のさらなるセットについて、それぞれの表面は視覚的に特有の特徴を追加することによって修正され、これにより信頼性のある3D再構成が可能となる。中間ジオメトリデータを生成するために、オリジナルの画像のセットから得られる3Dモデル、および、さらなる画像のセットから得られる3Dモデルは、例えば反復的な最接近点アルゴリズムを介して、位置合わせされる。そして、さらなる画像セットから得られた3Dジオメトリデータは、オリジナルの画像セットにテクスチャマッピングされ、オリジナルの画像セットは、メッシュアライメントまたは同様の手順を通じて同じ座標系にもたらされてもよい。その結果、両方の画像セットのうちの最良のもの、すなわち、修正されたさらなる画像セットからの良好なジオメトリ、および修正されていない画像セットからのオリジナルの衣服外観が使用される。
本方法のいくつかの実装では、画像は写真であって、中間モデルデータを生成することは、例えば、1つまたは複数のパッシブまたはアクティブな奥行きセンサで記録された、衣服の表面の奥行き情報にさらに基づく。そのような奥行きセンサは、構造化された光センサまたはTOF(Time Of Flight)センサ、LIDARなどを含むことができる。3D再構成およびテクスチャマッピングは、標準的な写真測量法を使用してもよい。画像が描画されるいくつかの実装では、3D再構成プロセスを容易にするため、レンダリングされた画像をレンダリングすることは、以下の少なくとも1つを含む:
・CADモデルの最前面層のみをレンダリングすること;
・部分的または完全に不透明になるように衣服の材料を変更すること;
・衣服の透明性を考慮せずにレンダリングすること;
・部分的または完全に衣服の透明性を無視してレンダリングすること;
・拡散、均一、および明るい仮想的な照明を使用すること;
・異方性材料や光沢材料を衣服の拡散させる材料に置き換えること;
・衣服の材料特性をレンダリングして画像チャネルを分離し、それらを使用して中間モデルを作成すること。
画像がレンダリングされた画像である本方法のいくつかの実装では、中間モデルデータの生成は、さらに以下のうちの少なくとも1つに基づく:
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている輝度情報、
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている透明度情報、
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている視界依存材料特性、
・特にCADモデルの頂点および/または法線である、衣服のCADモデルからのジオメトリ情報、
・画像をレンダリングするために使用されるカメラ投影行列。
改善されたモデリング概念の一実施形態によれば、ターゲット衣服サイズを有する衣服の3次元モデルデータを生成するためのコンピュータプログラム製品は、非一時的なコンピュータ可読記憶媒体と、コンピュータシステムが、上述の実装の1つによる方法を実行することを可能とする、記憶されたコンピュータプログラム命令とを含む。
さらに、コンピュータシステムはプロセッサと、その中に記憶されたコンピュータプログラム命令を有する記憶媒体とを有することができ、プロセッサは、上述の実装の1つによる方法を実行することができる。
改良されたモデリング概念は、図面を用いて以下により詳細に説明される。同一または類似の機能を有する素子および機能ブロックは、図面を通して同一の参照番号を有する。したがって、以下の図面において、それらの説明は必ずしも繰り返されない。
衣服の3次元モデルデータを生成する方法の例示的なブロック図を示す 異なるセグメントを有する衣服の例を示す 関連付けられた衣服を有する等級付けテーブルの一例を示す 身体モデル上の衣服の一例を示す テクスチャ合成プロセスのブロック図の一例を示す サイズ変更の例を示す 色情報と照明情報の分離の例を示す テクスチャマップの例を示す 衣服の3次元モデルデータの適用例を示す 中間モデルデータを生成するプロセスの例示的なブロック図を示す カメラの構成例を示す 衣服の3Dモデルデータの出願の例示的なブロック図を示す 改善されたモデリング概念にしたがって出力画像を生成するための例示的なシステムを示す
図1は、ターゲット衣服サイズを有する衣服の3次元モデルデータを生成するための方法の例示的なブロック図を示す。この方法は、特に、様々な種類の情報を記憶し、処理することができるコンピュータシステム上で実行される。以下において、Dから始まり、数字が続く参照番号はコンピュータシステムに記憶されたデータ構造を指し、SまたはGから始まり、数字が続く参照番号は、コンピュータシステムによって実行されるプロセスステップを指す。
例えば、中間モデルデータD10は、中間ジオメトリデータD11および1つまたは複数の中間テクスチャマップD12を含むコンピュータシステムに記憶される。各中間テクスチャマップは、中間ジオメトリデータD11に関連付けられた複数の要素を有する。中間モデルデータD10は3Dモデルを表し、中間ジオメトリデータD11は例えば、3D点または面点のリストを用いて、3Dモデルの頂点、面、または法線のようなジオメトリ情報を記述し、中間テクスチャマップD12は、例えば2次元以上の画像の形式の3Dモデルのテクスチャ情報に対応する。例えば、テクスチャマップ内の各ピクセルは「テクセル」と呼ばれる。例えば、ピクセルまたはテクセルは、テクスチャマップD12の要素である。
中間テクスチャマップD12の要素と中間ジオメトリデータD11との間の関連付けは、例えば、中間ジオメトリデータの各頂点が、「UV座標」と呼ばれる、各テクスチャマップのための追加の画像座標のセットを取得することで実施される。したがって、中間テクスチャマップD12は、中間ジオメトリデータD11によって定義されるジオメトリにマッピングされる。中間モデルデータD10は、ベース衣服サイズに関連付けられている。したがって、中間モデルデータD10によって表される衣服の実際の寸法は既知である。
ステップS10において、ラベルマップD20を生成するために、中間テクスチャマップD12のセマンティックセグメンテーションが実行される。ラベルマップD20は、中間テクスチャマップD12の各要素(例えば、テクセル)を、衣服のセグメントのセットのそれぞれの1つに関連付ける。各セグメントは、サイズ変更ルールD30に含まれる、関連付けられたサイズ変更ルールを有する。いくつかの実装では、中間テクスチャマップD12のセマンティックセグメンテーションS10は、中間ジオメトリデータD11、例えば、中間テクスチャマップD12の要素と中間ジオメトリデータD11との関連付けにさらに基づいて、実行される。ラベルマップD20は、例えば中間テクスチャマップD12のどのピクセルがどのセマンティック領域に割り当てられるかを記述する、またはそのような割り当ての尤度(likelihood)を記述する画像である。
このステップS10では、衣服の中間ジオメトリデータD11および中間テクスチャマップD12の形式のそのテクスチャ、または中間テクスチャマップD12のみが、テクスチャマップの各要素、例えば各テクセルにセマンティックミーニングを割り当てる機械学習アルゴリズムに入力される。例えば、セマンティックミーニングは、2、3例を挙げると、襟、縫い目、ボタン、袖のように、それぞれの要素が衣服のどの部分に属するかを定義する。このステップS10では、同じまたは類似のアルゴリズムを用いて、背景テクセルおよび/またはマネキンテクセルに関連する中間テクスチャマップの要素が、除去のためにラベル付けされうる。マネキンテクセルは、例えば中間モデルデータD10を生成するためにマネキンが使用され、例えばマネキンが衣服の完全に不透明でない部分を通して可視である場合に現れうる。
したがって、ラベルマップD20は、セグメンテーションを通じて各テクセルに挙動ルールを割り当てる衣服に作成される。人間のオペレータがラベルマップD20を手動で調整して、潜在的な誤分類を訂正するか、またはルールを調整することは可能であるが、必須ではない。図2を参照すると、衣服、ここではシャツのセグメント化の例が示されている。例えば、シャツのモデルの中間テクスチャマップD12は、数例を挙げると、袖21、襟22、袖口23、ボタンストリップ24、ボタン25、および縫い目26のセグメントについてラベル付けされている。識別された各セグメントまたは識別されたセグメントのそれぞれの要素は、例えばセグメントのタイプに応じて、サイズ変更ルールD30のうちの1つに関連付けられる。例えば、襟22、袖口23、およびボタン25は、衣服の異なるサイズに合わせたスケーリングをしない。ボタンストリップ24は、通常垂直方向にのみスケーリングし、縫い目26は、水平方向にのみスケーリングする。さらに、例えば、衣服の平坦な部分と比較して異なってスケーリングする、識別されたしわに対しては、より複雑なルールが適用されてもよい。さらに、ルールは、特にテクスチャに関して、セグメントが実際にスケーリングするか、または衣服のそれぞれの部分を切断または反復することによってサイズ変更できるかどうかを定義してもよい。例えば、いくつかのセグメントは、限定された方向にのみ反復されてもよく、したがって、いくつかの制約を伴う。
サイズ変更ルールD30の適用のさらなる例は、以下のジオメトリサイズ決定ステップS20およびテクスチャ合成ステップS30の説明に関連して与えられる。
ステップS20では、衣服のターゲット3DモデルデータD60のジオメトリデータD61を生成するために、ジオメトリのサイズ決定が実行される。このステップは、ラベルマップD20、セグメントに関連付けられたサイズ変更ルールD30、衣服に関連付けられた身体モデルD50、およびベース衣服サイズとターゲット衣服サイズとの間の複数のスケーリング要因D40のセット、例えば2つ以上のスケーリング要因に基づいて、中間ジオメトリデータD11をサイズ変更することで行われる。ここで、スケーリング要因D40のそれぞれは、身体モデルD50のそれぞれの部分に関連付けられる。
3DモデルデータD60は中間モデルデータD10と同じ、または少なくとも同様の構造を有し、すなわち、ジオメトリデータD61は衣服の3Dジオメトリを表す3D点または表面点のリストを表し、一方、テクスチャマップD62は、ジオメトリデータD61のそれぞれの3D点に関連付けられたテクセルのようなそれぞれの要素を有する2次元以上の画像によって表される衣服のテクスチャを表す。
中間ジオメトリデータをスケーリングするための基礎はターゲット衣服サイズに関連付けられており、例えば、衣服の部分のための等級付けテーブルの少なくとも一部を表しているスケーリング要因D40である。図3を参照すると、シャツのための例示的な等級付けテーブルが示されている。この表は、胸周り、ウエスト周り、ヒップ周り、二頭筋周、背中の幅、背中の長さ、袖の長さなどの様々な要素が衣服の1つのサイズから次のサイズまでどのようにスケーリングするかを記述する。例えば、等級付けテーブルの各欄には、サイズが異なる実測値が定められている。したがって、スケーリング要因D40は、中間モデルデータのベース衣服サイズとターゲット3Dモデルデータのターゲット衣服サイズとの間の比を考慮に入れる。
説明を容易にするために、図3は、それぞれの行の値と実際の衣服との間のそれぞれの関連付けを示す例示的なシャツの正面図および背面図も含む。
図1に戻ると、ジオメトリのサイズ決定ステップS20においてスケーリング情報を適用するために、衣服の別個の領域またはセグメントのセマンティックな知識が利用可能である。例えば、このようなセマンティックな知識は、衣服の幾何学的形状と実際の身体部分との関連付けを含む。このような情報は例えば、衣服の3D表面の頂点を、ジオメトリデータD11によって定義される、衣服の下にあるマネキンのリグに割り当てることによって抽出することができる。このようなプロセスは、「スキンニング」と呼ばれうる。お福の下にあるマネキン、すなわち衣服を着せられたマネキンのリグに関する情報は例えば、身体モデルD50において定義される。したがって、身体モデルは、衣服の各部分が身体のどの部分に着用されているかに関する情報を提供する。例えば、この情報は、体内の骨または骨格の位置に関する情報も含む。
いわゆるスキンニングプロセスは、特定の重量を有するリグの骨に頂点を割り当てることができ、この特定の重量は、例えば図4の概略図に示されている。図4は、連結された小球によって示される身体モデルのリグ、さらに、リグ上に着用される衣服の一例としてのシャツを示す。ジオメトリデータの頂点に割り当てられた特定の重みは、異なるシェーディングを有する右腕の例として示されている。図1に戻ると、この割り当ては、スケーリング要因D40からの情報を、身体モデルD50によって定義されるリグまたは骨格に適用するときに、ジオメトリデータのそれぞれの部分をスケーリングまたは反復するために使用される。
なお、身体モデルD50は、中間モデルデータD10とともに提供されてもよい。しかしながら、このような身体モデルD50が予め利用可能でない場合には、骨格およびリグ情報も自動的に計算されてもよい。例えば、モデルの骨格およびリグを計算するための自動化された方法を、人間の形状のモデルに適用することができる。例えば、身体モデルは、標準的な身体モデルを中間ジオメトリデータに位置合わせ、および/またはマッピングすることによって生成される。幾つかのタイプの衣服、例えばスカート、チューブトップなどでは、人間型の形状は、ジオメトリデータをリグに関連付けるアルゴリズムの機械学習方法によっては認識することができない。例えば、衣服とマネキンとを組み合わせたジオメトリデータが、身体モデルD50を生成するロバストなアルゴリズムを達成するための入力として使用されうる。このようにして、人間型の形状が与えられ、マネキン上の衣服の相対的な位置が、その全体的な適合を記述する。
セグメントに関連するサイズ変更ルールD30は、ジオメトリのサイズ決定S20を実行するときにスケーリング要因D40がどのようにどの順序で適用されるかを定義することもできる。例えば、粗い修正から細かい変更が行われる。例えば、シャツでは、最初に全体的にスケーリングすることによって、所望の肩幅が確定される。そして、高さがスケーリングされて正しい胴体長さを達成し、次いで、深さがスケーリングされて正しい腰周りを達成し、次いで、リグを用いて腕がスケーリングされる。
身体モデルは、例えば、身体モデルのそれぞれの部分と中間ジオメトリデータのそれぞれの部分との間の関連を定義する情報を含む。ジオメトリデータを生成することは、サイズ変更ルールに基づいて身体モデルによって定義された中間ジオメトリデータのそれぞれの部分をスケーリングまたは反復することによって、中間ジオメトリデータのサイズ変更をすることを含みうる。
テクスチャ合成ステップS30では、衣服のモデルデータD60のテクスチャマップD62が、中間テクスチャマップD12、ラベルマップD20、セグメントに関連付けられたサイズ変更ルールD30、およびスケーリング要因D40のセットに基づいて生成される。
衣服のジオメトリのサイズを単に適合させるとき、テクスチャはそれに応じてスケーリングする。これは技術的に正しいかもしれないが、第1サイズの衣服の製造中に起こっていることを通常は反映していない。したがって、改善されたモデリング概念によれば、ラベルマップD20およびサイズ変更ルールD30もステップS30において適用される。
図5を参照すると、テクスチャ合成ステップS30は、テクスチャサイズ決定ステップS31と、任意選択で、テクスチャ再照明ステップS32と、テクスチャアルファマッティングステップS33とを含んでもよい。
テクスチャサイズ決定ステップS31の入力は、1つまたは複数の中間テクスチャマップD12、ラベルマップD20、サイズ変更ルールD30、および上記定義したスケーリング要因D40である。テクスチャサイズ決定は、サイズ変更ルールに基づいて中間テクスチャマップのパターンをスケーリング、反復、または切断することによって、中間テクスチャマップをサイズ変更することを含んでもよい。上述したように、衣服のいくつかの部分は、完全にはスケーリングせず、または部分的にのみスケーリングする。さらに、実際には、ファブリックは、通常スケーリングにより引き伸ばされず、むしろ、より多くのファブリックが使用される。図6を参照すると、この挙動が示されている。左側の画像a)には、満たされるべき矩形のテクスチャパッチの例が表示されている。真ん中の画像b)において、テクスチャパッチがスケーリングされるだけの場合に何が起こるか、すなわち、画像a)の波形パターンの異なる誤った痕跡が示される。したがって、代わりに、右側の画像c)に示されるように、テクスチャパターンが繰り返される必要がある。技術的には、これは材料を反復することに相当する。均質なファブリックについては、差が視覚的に目立たないことがあるので、スケーリングは技術的に十分である。そのため、テクスチャのサイズ決定方法は、サイズ変更ルールD30で定義される。
上述したように、この相違は、衣服のテクスチャにとって大部分重要であるが、細かい詳細となるとジオメトリにとっても重要でありうる。例えば、しわは、伸ばされると不自然に見える。また、そのような場合、正しい処理はジオメトリを繰り返し、それによってジオメトリパターンを反復することを必要としてもよい。例えば、反復挙動を再現できるように、使用済みのファブリックのテクスチャに関する情報が、画像の形式でシステムに提供されてもよい。テクスチャのサイズ変更の際、ファブリックのそれぞれの画像がテクスチャに登録され、追加された領域が外挿法によって推定されうる。同じまたは類似のロジックは、一方向のみにおいて反復し、他方向においては固定される要素に適用される。テクスチャサイズ決定のための反復挙動は、いくつかの方法、例えばテクスチャ合成、インペインティングおよびタイリングアルゴリズムを含む方法、並びに、好ましくは中間モデルデータD10とともに提供される、別々に写真撮影されたファブリックパッチを介して達成することができる。
1つまたは複数の中間テクスチャマップがインプリントを含む場合、下にあるファブリックとインプリントとの分離を実行する必要がある場合がある。これは、ファブリックの提供された画像を使用してインペイントおよび抽出を行い、それによって装飾要素を含む領域を除去することによって行われうる。これにより、ファブリックとインプリントとを独立して処理することができる。
図5に戻ると、ステップS32において、テクスチャ再照明が適用されてもよい。例えば、ジオメトリのしわ、凹面、凸面などによって引き起こされるライティングおよび/またはシェーディング効果を不正確に取り扱うことなくテクスチャサイズ変更を達成するために、テクスチャの色情報は、最終結果に再適用される照明情報から分離されてもよい。例えば、色情報は、材料の基本色を表す「アルベド(albedo)」と呼ばれうる。したがって、テクスチャマップを生成することは、照明マップおよび色マップを生成するために中間テクスチャマップの色情報から中間テクスチャマップの照明情報を分離することと、色マップのサイズ変更と、テクスチャマップを生成するためにサイズ変更された色マップに照明マップを適用することとを含んでもよい。
色情報、それぞれの材料情報、および照明情報を分離する別の理由は、同じタイプの衣服が異なる色で、または異なる布地からしばしば生成されうることである。したがって、このステップでは、サイズ変更ステップを適用し、照明マップをサイズ変更された色マップに適用する前に、色マップを変更することも可能である。これにより、異なる色または材料で同じタイプの衣服の全てのバリエーションをスキャンしなければならないことを回避できる。照明情報から色を分離するための2つの一般的なアプローチがある。すなわち、照明が既知である、または、ファブリック、それぞれ材料が既知であることである。この情報は、テクスチャ再照明ステップS32において、照明またはファブリック/材料情報D70として提供されてもよい。
第1のケースでは、中間モデルデータD10の生成中の照明条件が既知であり、照明条件は、例えば、環境マップまたは照明モデルの形式でデジタル化される。第2のケースでは、分離することは、中間モデルデータD10に関連付けられたファブリックパッチ/材料パッチの画像に基づいてもよい。例えば、これらのパッチは、白色、拡散、および均質な照明条件下でキャプチャされる。シェーディング情報を含むテクスチャと均一に照らされたファブリックサンプルとの差を計算することによって、シェーディングを色から分離することができる。非拡散材料の場合、材料特性および環境マップは、中間モデルデータD10の生成中に再構成される必要がある。これについては後でより詳細に説明する。
図7を参照すると、左側の画像a)は、中間テクスチャマップに見られるようなファブリックの表現を示す。真ん中の画像b)には照明情報を示す画像が示され、一方、右側の画像c)には、ファブリックの色情報のみが示されている。
材料を交換する際、提供されたファブリックサンプルは、好ましくはオリジナルのサンプルと同じ縮尺および向きでキャプチャされる。この場合、実際のファブリックの計算された登録により、テクスチャを異なる材料で置き換えることができる。最後に、以前に分離されたシェーディング/ライティング情報が新しいテクスチャに再適用される。
図5に戻ると、ステップS33において、テクスチャアルファマッティングが適用されうる。衣服が、フリンジ、レースなどのように、透明な部分または複雑な輪郭を有する場合、衣服のテクスチャを現実的に再現するためにアルファマットが必要とされうる。アルファマッティングは、各テクセルの色の前景色の比率を記述するテクスチャマップの各テクセルに、不透明度値を割り当てるプロセスである。例えば、中間モデルデータD10の生成中に、コントラストがあるマネキンまたは人物、および背景の上に、衣服がキャプチャされる、またはレンダリングされる場合に有用である。例えば、テクスチャマップでは、1つの色を高い不透明度に割り当て、別の色を低い不透明度に割り当てることができる。不透明度のいくつかのレベルを記述するために、分数値または色の組み合わせが可能である。
例えば、ステップS33の基礎となるマッティングアルゴリズムは、以下のように動作してもよい。第1に、マネキンおよび背景色は、例えばヒストグラムを構築することによって、例えばセマンティックセグメンテーションステップS10の間に、対応するテクスチャセグメントから導出される。次に、衣服の要素またはテクセルの各々を背景ヒストグラムと比較して、その透明度を決定する。最後に、衣服のテクセルまたは要素の前景色から背景色を減算するために使用される透明度値が、図8に示されるような外観を有しうる透明度マップをもたらす。なお、透明度マップは、例えば中間および/または最終テクスチャマップと同じ構造および寸法を有し、例えば、それぞれのUV座標を介して、同じ方法でジオメトリデータに関連付けられる。
結果として得られるジオメトリデータD61、テクスチャマップD62、および任意選択で透明度マップを使用して、複雑な衣服であってもリアルにレンダリングすることができる。例えば、図9は例えば、図8の透明度を基礎とする透明要素を有するパンティストッキングをレンダリングした例を示す。最終的な3次元モデルデータD60を適用するさらなる応用については、図12と合わせて、後でより詳細に説明する。
言い換えれば、改善されたモデリング概念による方法は、中間テクスチャマップと、任意選択でラベルマップとに基づいて透明度マップを生成することをさらに含むことができ、中間テクスチャマップのそれぞれの要素毎に、中間テクスチャマップに基づいて背景色を決定し、中間テクスチャマップの各要素を要素のそれぞれの背景色と比較して要素の透明度を決定し、要素のそれぞれの透明度値に基づいて、要素のそれぞれの前景色から要素の背景色を減算することと、を含む。
前述の図面の説明では、中間モデルデータD10は、最終的な3DモデルデータD60を達成するように処理されるのに適したフォーマットで既に提供されたことが、多少仮定されている。しかしながら、以下では、中間モデルデータD10が生成される方法のいくつかの実装が提示される。
したがって、図10を参照すると、改良されたモデリング概念に従った方法は、衣服を複数の視角から示す画像のセットに基づいて中間モデルデータD10を生成して記憶することをさらに含む。これにより、中間モデルデータD10を生成するステップは、中間ジオメトリデータD11を生成するための3D再構成ステップG21と、中間テクスチャマップD12を生成するためのテクスチャマッピングステップG22とを含む。両方のステップは例えば、画像のセットに作用する。例えば、画像は、キャプチャリングステップG11でキャプチャされるような、マネキンまたは人に着用されている衣服の写真である。代わりの実装では、画像は、例えばレンダリングステップG12で提供されるように、着用状態にある衣服のCADモデルのレンダリング画像である。
したがって、キャプチャリングステップG11または代わりのレンダリングステップG12の両方を用いて、衣服を示す、いわばすべての側面からの製品画像D110のセットが生成される。いずれの場合も、製品、すなわちそれぞれの衣服は、現実のカメラまたは仮想カメラ、またはその逆の前で旋回され、異なる仰角まで移動されてできるだけ多くの視角でキャプチャされる。
図11は、図11の左側に衣服の上面図を、右側に衣服の側面図を有するこのようなプロセスの実装例を示している。上面図における約10°の差分角度の例は単に一例として使用されており、衣服の複雑さに応じて、より高くても、より低くてもよい。同様に、衣服の側面図の右側に示された視角も、単に例として採用されているだけである。図10に戻ると、例えば、キャプチャリングステップG11は、ターンテーブルを用いて実施することができ、ターンテーブル上には、マネキンに着せられた衣服が異なる視角を達成するために配置される。あるいは、カメラが、マネキンに着せられた衣服の周りを移動しうる。
図10に戻ると、特にステップG11において、以下のような、写真撮影によって衣服をキャプチャするためのいくつかの推奨が与えられる。推奨されるポーズに関して、変形を回避するため、衣服はマネキンに着せられるべきであり、衣服のサイズはマネキンのサイズと一致するべきであり、またはその逆である。マネキンは、好ましくはマネキンのアームがA字形状を形成するAポーズであるべきである。このようなポーズは通常、セルフオクルージョンが非常に少なく、また、例えばTポーズのように、衣服を著しく歪ませることがない。使用されたマネキンは、一度閉じることなくキャプチャされることもできる。例えば、図1に合わせて上述したジオメトリサイズ決定ステップS20では、衣服のジオメトリを修正するために使用されうるマネキンに、骨格、それぞれのリグが適合されうる。例えば、身体モデルD50を提供するために、マネキン自体の画像およびリグが使用されうる。
3D再構成G21は、通常、画像特徴マッチングによって動作し、いくつかの画像における画像特徴を可能な限り正確に識別し、区別することができる必要がある。これを支援するために、キャプチャされた画像は、例えば少なくとも6メガピクセルの解像度で、ほとんどまたは全く圧縮させるべきではない。
衣服の透明性の識別を改善するために、すなわち、透明または半透明の衣服をキャプチャするために、マネキンおよび背景の色は、好ましくは衣服に対して高いコントラストを有する。
照明に関して、強い指向性光源はしばしばドロップシャドウと反射とを生じさせ、これは3D再構成G21にとって望ましくない。したがって、明るい、拡散する光の設定が好適である。
写真のキャプチャリングは、人間のオペレータによって達成することができる、または、電動ターンテーブル、1つまたは複数のカメラ、フラッシュおよび制御ユニット、例えば、コンピュータから成る機械によって自動化されうる。
キャプチャリングは、標準的なDSLRカメラまたはスマートフォンカメラを用いて行われうる。ステップG21、G22で採用されているような写真測量の欠点の幾つかを扱う選択、例えば、構造化された光センサまたはTOF(Time Of Flight)センサ、LIDARなどのアクティブまたはパッシブ奥行きセンサが使用されうる。カメラからの高品質画像は、奥行きセンサがシステムに追加された場合でも、常に必要とされる。
代替として、レンダリングステップG12において衣服のCADモデルをレンダリングする際、このステップは、写真のキャプチャリングと同様に行われてもよく、衣服はすべての側面から、異なる仰角で見えるべきである。レンダリングされた画像は以下の任意選択であるが推奨される列挙に従うべきである。ポーズに関して、写真キャプチャリングのために上述したものと同じポーズ、およびオクルージョン原理が適用される、特に、長袖の衣服は、仮想マネキン上にAポーズでレンダリングされるべきである。
レンダリングされた画像の解像度に関して、ステップG21の3D再構成アルゴリズムは、画像特徴マッチングによって動作し、いくつかの画像内の画像特徴を正確に識別し、区別することができる必要がある。これを可能にするために、レンダリングされた画像は、好ましくはa)CADモデルに存在する全ての幾何学的およびテクスチャの詳細を反映するのに十分に高い解像度、およびb)目に見える画素境界およびエイリアシングを回避するのに十分に高い解像度を有する、PNGのような可逆的な画像フォーマットである。同時に、解像度は、3D再構成G21およびテクスチャマッピングG22のステップ、およびそのあとのサイズ変更における、不必要な計算の複雑さを回避するために、より高くされるべきではない。
透明性に関して、3D再構成は、通常、信頼性がある画像特徴マッチングを可能にするために、不透明な、すなわち透明でない、表面を仮定する。しかしながら、衣服は、部分的にまたは完全に透明であることが多い。これは、レンダリングされた画像内のいくつか、またはすべての衣服ピクセルが、衣服の下にある層、その裏面、およびマネキン部分または背景の色の混合からなることを意味する。これは、画像特徴が検出されない、または誤って検出されることにつながるかもしれない。この状況を回避するために、改善されたモデリング概念は、モデルの最前部の奥行き層のみをレンダリングし、画素の透明度を別のチャネル、すなわち画像のアルファチャネル、例えばPNG画像に保存することが好ましい。このように、各画素のRGB色は、下にある画素の色に汚染されず、透明度は後にリアルなレンダリングに使用されうる。
3D再構成は、通常、拡散性を有する、すなわち非反射性の表面を仮定する。強く反射する表面は、異なる視角から異なるように見えてしまうので、画像特徴マッチングプロセスが複雑になる。したがって、光沢のない材料とともに、明るく、拡散する光の設定が使用される。3D再構成およびテクスチャマッピング、および図1に記載されたサイズ変更プロセス全体の間、光沢のある、または他の視界依存材料を保存し、これらの効果を有する最終レンダリングを可能にするために、各ピクセルの光沢係数、および任意選択で他の視界依存材料特性が、CADモデルレンダリングの間、別の画像チャネルに格納される。これらのチャネルは、RGBチャネルと同様に、プロセスステップG21、G22、S10、S20、およびS30において変換されてもよく、後に図12のステップS40に合わせてより詳細に説明されるシェーダに、オリジナルの材料特性を再現させることを可能にしてもよい。
上述の画像キャプチャリングステップG11で説明したように、強い指向性光源は、ドロップシャドウおよび反射を生じ、これらは望ましくない。したがって、レンダリングG12中にも、アンビエント照明/シェーディング、またはアンビエントオクルージョンとともに、明るく、拡散する照明の設定がリアル化のために使用される。
さらなる情報は、レンダリング処理の間に、または少なくとも3D再構成G21で使用可能なレンダリング処理と合わせて、生成されうる。例えば、そのような情報は、以下のうちの1つまたは複数を含む:
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている輝度情報、
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている透明度情報、
・画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている視界依存材料特性、
・特にCADモデルの頂点および/または法線である、衣服のCADモデルからのジオメトリ情報、
・画像をレンダリングするために使用されるカメラ投影行列。
例えば、CADモデルの頂点と法線は、ストラクチャー・フロム・モーションプロセス(structure-from-motion process)および3D再構成ステップG21中のベース形状として使用することができ、エクスポートされたカメラ投影行列は、基礎的な問題の複雑さを低減するために使用することができる。このような改良により、光沢がある表面を有し、かつテクスチャの詳細度が低い衣服などの処理が難しい衣服であっても、ロバストで高品質な再構成結果が保証される。
レンダリング処理は、人間のオペレータによって駆動されてもよいし、所定の仕様にしたがって、記述されたレンダリングを作成するスクリプトまたはプログラムなどによって、完全に自動化されてもよい。
ステップG21で実行される3D再構成は、通常、いくつかの画像にわたる画像特徴を識別するために、テクスチャ化され、滑らかではない表面を仮定する。したがって、単色に着色され、滑らかで、かつ大きな表面は、再構成の結果を劣化させる。この目的のために、中間モデルデータD10を生成するステップは、さらに、複数の視角から衣服を示すさらなる画像セットD111に基づいてもよい。さらなる画像セットD111の画像は、追加された視覚的に特有の特徴、例えば、衣服の表面における仮想的または現実的なパターン、および/またはステッカー、および/またはテープを有する衣服を示す。
ステップG11に合わせて説明された、キャプチャされた画像の場合、正規の画像セットD110が上述したようにキャプチャされる。さらに、マネキンに着させられた衣服の全ての滑らかな表面は、ステッカー、テープ、構造化された光パターン、または他の視覚的に特有の特徴を追加することによって修正される。修正された衣服は、以前の修正されていない衣服と同じ方法でキャプチャされる。この結果、2つの別の画像セットD110、D111が得られ、両方とも、ステップG21に含まれる別の3D再構成ステップに入力される。
例えば、中間モデルデータを生成するステップは、さらなる画像セットD110に基づいて3D再構成を実行することによって補助ジオメトリデータを生成するステップと、中間ジオメトリデータを補助ジオメトリデータに位置合わせすることによって中間テクスチャマップを補助ジオメトリデータに位置合わせするステップとを含む。例えば、両方の結果の3Dモデルは、反復最接近点アルゴリズムなどを介して整列される。最後に、修正された画像セットからの良好な3Dメッシュは、例えばメッシュアライメントを通じて、同じ座標系にもたらされたオリジナルの画像セットにテクスチャマッピングされる。その結果、両方の画像セットのうちの最良のもの、すなわち、修正されたセットからの良好なジオメトリと、修正されていないセットからのオリジナルの衣服の外観とが達成される。
CADモデルからレンダリングされた画像の場合、CADモデルのすべての滑らかな材料に、ランダムなドットやノイズパターンなどの高周波パターンが追加されてもよい。修正されたCADモデルからレンダリングされた画像、例えば、修正されていないCADモデルと同じカメラ位置からレンダリングされた画像は、上述したように、画像D111のさらなるセットを形成する。キャプチャされた画像と同様に、3D再構成は、中間モデルデータD10を達成するために、両方の画像セットD110、D111に対して実行されうる。
3D再構成G21およびテクスチャマッピングG22のステップは、好ましくは完全に自動化される。入力は、キャプチャG11およびレンダリングG12プロセスに合わせて上述したように、1つまたは複数の画像セットおよび任意のメタデータである。出力は、例えば、3D表面点の形式の頂点、面、法線などのようなジオメトリ情報と、上述したようなテクスチャ情報とからなる3Dモデルである。
3D再構成G21は、(同時)定位およびマッピング、SLAM、ストラクチャー・フロム・モーション、SFMなどのような従来の写真測量法に基づくことができる。これらのアプローチは、いわゆる画像特徴をマッチングすることによって、画像の1つのセットまたは複数のセット内の共通部分を見つけ出し、識別する。画像特徴は、画像中の特有の点またはパッチ、例えば、特定の色勾配またはパターンである。これらの特徴をマッチングし、対応する3D点を三角測量することによって、3D表面仮説が再構成される。結果を改善するために、表面のある程度の平滑性を強制する最適化方法を使用することが可能である
このプロセスをより信頼できるものにするために、いくつかの修正、例えば、上述したように、追加された視覚的に特有の特徴を有する第2の画像セットの提供が可能である。従来の写真測量の欠点のいくつかを扱う別の選択は、パッシブまたはアクティブな奥行きセンサ、例えば、構造化された光またはTOF(Time-Of-Flight)センサ、LIDARなどである。この場合、3D再構成ステップG21は、写真測量の代わりに、例えば奥行きマップ融合アルゴリズムに基づいてもよい。
テクスチャマップは、2以上の次元の画像であり、テクスチャマップの各画素は、例えばテクセルと呼ばれる。3DジオメトリD210または第2の3DジオメトリD211で定義された各モデル頂点は、各テクスチャマップについて、しばしばUV座標と呼ばれる画像座標の追加のセットを取得する。
3D再構成G21の後、入力画像は、テクスチャマッピングステップG22において、モデルに対し1つまたは複数のテクスチャマップを生成するために使用される。例えば、生成は、投影テクスチャマッピング、可視性チェック、テクスチャマップアライメント、および/または、望ましくない視界依存効果を低減し、再構成されたジオメトリの欠陥を補償する融合方法を介して行われる。追加された視覚的に特有の特徴を伝える、上述した画像の第2のセットに関して、テクスチャマップ生成のために使用される画像は、3D再構成のために使用される画像セットまたは奥行きマップセットとは異なりうる。
図12を参照すると、改善されたモデリング概念の結果の可能な応用が記述されている。上記にてより詳細に説明したように、改良されたモデリング概念のプロセスは、最終的には、ジオメトリデータD61およびテクスチャマップD62を含む、ターゲット衣服サイズの衣服の3DモデルデータD60を提供する。次の応用ステップS40では、結果として得られる衣服モデルは、例えば3D製品鑑賞に使用されうる。例えば、3Dモデルデータは、潜在的な電子商取引の顧客がより良い購入決定を行うことを可能にするために、ウェブサイト上の3Dモデルビューア、アプリなどに表示されうる。
別の応用では、3Dモデルデータは、衣服の仮想試着およびミックスおよびマッチング用アプリケーションに使用されうる。例えば、異なるサイズの結果として得られる衣服モデルは、任意の新たな望ましい身体ポーズにリギングされ、例えば差分メッシュの編集によって、ユーザの身体にフィットされうる。このような、フィットしたメッシュは、電子商取引の顧客に衣服のフィット感およびサイズをより良く判断させ、適切な定型サイズを選択させることができる。さらに、ユーザは、複数の衣服を一緒に組み合わせることができる。
3DモデルデータD60の別の応用は、任意のサイズを作成することに関する。記載されたプロセスは、例えば、衣服の一組の別個の装飾サイズを作成する。さらに、システムは、上述のような処理の一部として、衣服のスケーリング挙動を学習する。したがって、学習は、任意の数の中間サイズを作成するために使用されうる。これにより、顧客ごとに完璧なサイズを個別に計算し、製造することによって、新規のあつらえで作られた(maid-to-measure)、特注の衣服の使用ケースが可能となる。
図13は、改善された概念による実施形態を組み入れてもよいコンピュータシステムのブロック図である。図13は、改善された概念を組み入れた実施形態の単なる例示であり、特許請求の範囲に記載された本発明の範囲を限定しない。当業者は、他の変形形態、修正形態、および代替形態を認識しうる。
一実施形態では、コンピュータシステム700は、典型的にはモニタ710、コンピュータ720、ユーザ出力デバイス730、ユーザ入力デバイス999、通信インターフェース750などを含む。
図13に示すように、コンピュータ720は、バスサブシステム790を介して多数の周辺装置と通信するプロセッサ760を含んでもよい。これらの周辺装置は、ユーザ出力デバイス730、ユーザ入力デバイス740、通信インターフェース750、およびランダムアクセスメモリ(RAM)770およびディスクドライブ780のような記憶サブシステムを含みうる。
ユーザ入力デバイス740は、コンピュータシステム720に情報を入力するためのすべての可能なタイプのデバイスおよびメカニズムを含む。これらは、キーボード、キーパッド、ディスプレイに組み込まれたタッチスクリーン、音声認識システムなどのオーディオ入力デバイス、マイクロフォン、および他のタイプの入力デバイスを含んでもよい。様々な実施形態では、ユーザ入力デバイス740は、典型的にはコンピュータマウス、トラックボール、トラックパッド、ジョイスティック、ワイヤレスリモート、ドローイングタブレット、ボイスコマンドシステム、アイトラッキングシステムなどとして具現化される。ユーザ入力デバイス740は、典型的にはユーザがボタンのクリックなどのコマンドを介して、モニタ710上に現れるオブジェクト、アイコン、テキストなどを選択することを可能にする。また、ユーザ入力デバイス740は、色および/または奥行きカメラ、身体形状および/またはポーズトラッキングセンサ、手部トラッキングデバイス、頭部トラッキングデバイスなどを含んでもよい。ユーザ入力デバイス740は、特に、例えばDSLRカメラまたはスマートフォンなどのカメラのような種々のタイプのカメラを含んでもよい。このようなカメラまたはスマートフォンまたは他のモバイルデバイスは、通信インターフェース750を介して接続された通信ネットワークを介してコンピュータ720に接続されてもよい。
ユーザ出力デバイス730は、コンピュータ720から情報を出力するためのすべての可能なタイプのデバイスおよびメカニズムを含む。これらは、ディスプレイ(例えば、モニタ710)、オーディオ出力デバイスなどの非ビジュアルディスプレイなどを含むことができる。
通信インターフェース750は、他の通信ネットワークおよび装置へのインターフェースを提供する。通信インターフェース750は、他のシステムとの間でデータを受信したり、他のシステムにデータを送信したりするためのインターフェースとして機能してもよい。通信インターフェース750の実施形態は、典型的には、イーサネットカード、モデム(電話、衛星、ケーブル、ISDN)、(非同期)デジタル加入者線(DSL)ユニット、FireWireインターフェース、USBインターフェース、Wi-Fi(登録商標)およびBluetooth(登録商標)のような無線接続などを含む。例えば、通信インターフェース750は、コンピュータネットワーク、FireWireバスなどに結合されてもよい。他の実施形態では、通信インターフェース750は、コンピュータ720のマザーボード上に物理的に統合されてもよく、ソフトDSLなどのソフトウェアプログラムであってもよい。
様々な実施形態において、コンピュータシステム700は、HTTP、TCP/IP、RTP/RTSPプロトコルなどのネットワークを介した通信を可能にするソフトウェアも含んでもよい。
RAM770およびディスクドライブ780は、実行可能なコンピュータコード、人間が読み取ることができるコードなどを含む、データを記憶するように構成された有形媒体の例である。他のタイプの有形媒体には、ソリッドステートドライブ、SSD、フロッピー(登録商標)ディスク、リムーバブルハードディスク、CD-ROM、DVDおよびバーコードなどの光記憶媒体、フラッシュメモリなどの半導体メモリ、リードオンリーメモリ(ROMS)、バッテリバックアップ揮発性メモリ、ネットワーク化された記憶装置などが含まれる。RAM770およびディスクドライブ780は、改善されたモデリング概念の機能性を提供する基本プログラミングおよびデータ構成を記憶するように構成されうる。
改善された概念の機能性を提供するソフトウェアコードモジュールおよび命令は、RAM770およびディスクドライブ780に記憶されてもよい。これらのソフトウェアモジュールは、プロセッサ760によって実行されてもよい。RAM770およびディスクドライブ780は、本発明にしたがって使用されるデータを格納するためのリポジトリも提供ししてもよい。
RAM770およびディスクドライブ780は、プログラム実行中の命令およびデータを記憶するためのメインランダムアクセスメモリ(RAM)と、固定命令が記憶されるリードオンリーメモリ(ROM)とを含む多数のメモリを含んでもよい。RAM770およびディスクドライブ780は、プログラムおよびデータファイルのための永続的(不揮発性)記憶領域を提供するファイル記憶サブシステムを含んでもよい。RAM770およびディスクドライブ780は、また、リムーバブルフラッシュメモリのようなリムーバブル記憶システムを含んでもよい。
バスサブシステム790は、コンピュータ720の様々な構成要素およびサブシステムが意図したとおりに互いに通信できるようにするメカニズムを提供する。バスサブシステム790は、単一のバスとして概略的に示されているが、バスサブシステムの代替実施形態は複数のバスを利用してもよい。
図13は、改良されたモデリング概念を具体化することができるコンピュータシステムを表す。多くの他のハードウェアおよびソフトウェア構成がこのような使用に適していることは、当業者には容易に明らかであろう。例えば、コンピュータは、モバイルデバイス、特に携帯電話、またはデスクトップ、ポータブル、ラックマウントまたはタブレット構成であってもよい。さらに、コンピュータは、一連のネットワーク化されたコンピュータであってもよい。
改善された概念の様々な実施形態は、ソフトウェアまたはハードウェア、または両方の組み合わせのロジックの形式で実装されうる。ロジックは、コンピュータシステムのプロセッサに、改善された概念の実施形態で開示されたステップのセットを実行するように指示するように適合された命令のセットとして、コンピュータ可読または機械可読記憶媒体に記憶されうる。ロジックは、改善されたモデリング概念の実施形態において開示されたステップのセットを自動的に実行するように情報処理装置に指示するように適合されたコンピュータプログラム製品の一部を形成してもよい。
したがって、本明細書および図面は、制限的な意味ではなく例示的な意味に考えられるべきである。しかし、特許請求の範囲に記載された本発明の範囲から逸脱することなく、様々な修正および変更を加えることができることは明らかであろう。

Claims (16)

  1. ターゲット衣服サイズを有する衣服の3次元モデルデータを生成するためのコンピュータにより実施される方法であって、
    コンピュータシステムにおいて、ベース衣服サイズに関連付けられ、中間ジオメトリデータと、前記中間ジオメトリデータに関連付けられた複数の要素を有する少なくとも1つの中間テクスチャマップとを含む、前記衣服の中間モデルデータを記憶することと、
    前記コンピュータシステムにおいて、前記中間テクスチャマップの各要素を、前記衣服のセグメントであって、各セグメントが関連するサイズ変更ルールを有する前記セグメントのセットのそれぞれの1つに関連付けるラベルマップを生成するための前記中間テクスチャマップのセマンティックセグメンテーションを実行することと、
    前記コンピュータシステムにおいて、前記ラベルマップ、前記セグメントに関連付けられた前記サイズ変更ルール、前記衣服に関連付けられた身体モデル、および、前記ベース衣服サイズと前記ターゲット衣服サイズとの間の複数のスケーリング要因であって、特に、それぞれの前記スケーリング要因が前記身体モデルのそれぞれの部分に関連付けられている2以上の前記スケーリング要因のセットに基づいて前記中間ジオメトリデータをサイズ変更することによって、前記衣服のモデルデータのためのジオメトリデータを生成することと、
    前記コンピュータシステムにおいて、前期中間テクスチャマップ、前記ラベルマップ、前記セグメントに関連付けられた前記サイズ変更ルール、および前記スケーリング要因の前記セットに基づいて、前記衣服のモデルデータのためのテクスチャマップを生成することと、
    を含む、方法。
  2. 前記中間テクスチャマップの前記セマンティックセグメンテーションは、前記中間テクスチャマップの前記複数の要素と前記中間ジオメトリデータとの関連付けにさらに基づいて実行される、
    請求項1に記載の方法。
  3. 前記身体モデルは、前記身体モデルのそれぞれの部分と前記中間ジオメトリデータのそれぞれの部分との間の関連付けを定義する情報をさらに含む、
    請求項1または2に記載の方法。
  4. 前記ジオメトリデータを生成することは、前記サイズ変更ルールに基づいて、前記身体モデルによって定義されるように、前記中間ジオメトリデータのそれぞれの部分をスケーリングまたは反復することによって、前記中間ジオメトリデータをサイズ変更することを含む、
    請求項3に記載の方法。
  5. 前記テクスチャマップを生成することは、前記サイズ変更ルールに基づいて、前記中間テクスチャマップのパターンをスケーリング、反復、または切断することによって、前記中間テクスチャマップをサイズ変更することを含む、
    請求項1から4のいずれか一項に記載の方法。
  6. 前記テクスチャマップを生成することは、
    照明マップおよび色マップを提供するために、前記中間テクスチャマップの照明情報を前記中間テクスチャマップの色情報から分離することと、
    前記色マップをサイズ変更することと、
    前記テクスチャマップを提供するために、前記照明マップをサイズ変更された前記色マップに適用することと、
    を含む、請求項1から5のいずれか一項に記載の方法。
  7. 前記分離することは、前記中間モデルデータに関連付けられた布地パッチまたは材料パッチの画像に基づく、
    請求項6に記載の方法。
  8. 前記中間テクスチャマップに基づいて透明度マップを生成することをさらに含み、
    前記透明度マップを生成することは、
    前記中間テクスチャマップの各要素について、前記中間テクスチャマップに基づいて背景色を決定することと、
    前記中間テクスチャマップの各要素を、前記要素の透明度値を決定するための前記要素のそれぞれの背景色と比較することと、
    前記中間テクスチャマップの各要素について、前記要素のそれぞれの前記透明度値に基づいて、前記要素の前記背景色を前記要素のそれぞれの前景色から減算することと、
    を含む、請求項1から7のいずれか一項に記載の方法。
  9. 前記身体モデルは、
    前記中間モデルデータと共に、前記中間モデルデータに対応するように記憶される、または、
    前記中間ジオメトリデータに標準身体モデルを位置合わせおよび/またはマッピングすることによって生成される、
    請求項1から8のいずれか一項に記載の方法。
  10. 複数の視角からの前記衣服を示す画像のセットに基づいて前記中間モデルデータを生成および記憶することをさらに含み、
    前記中間モデルデータを生成することは、前記中間テクスチャマップを生成するための前記中間ジオメトリデータおよびテクスチャマッピングを生成するための3D再構成を含み、
    前記画像は、マネキンまたは人に着用されている前記衣服の写真、着用状態の前記衣服のCADモデルのレンダリングされた画像のうちの1つである、
    請求項1から9のいずれか一項に記載の方法。
  11. 前記中間モデルデータを生成することは、さらに、複数の視角からの前記衣服を示すさらなる画像のセットに基づいており、前記さらなる画像のセットの前記画像は、前記衣服の表面に、追加された視覚的に特有の特徴、特に、仮想的または現実的なパターン、および/またはステッカー、および/またはテープを有する前記衣服を示している、
    請求項10に記載の方法。
  12. 前記中間モデルデータを生成することは、
    前記さらなる画像のセットに基づいて3D再構成を実行することによって補助ジオメトリデータを生成することと、
    前記中間ジオメトリデータを前記補助ジオメトリデータに位置合わせすることによって、前記中間テクスチャマップを前記補助ジオメトリデータに位置合わせすることと、
    を含む、請求項11に記載の方法。
  13. 前記画像は写真であり、
    前記中間モデルデータを生成することは、特に、1つまたは複数のパッシブまたはアクティプな奥行きセンサで記録された、前記衣服の表面の奥行き情報にさらに基づく、
    請求項10から12のいずれか一項に記載の方法。
  14. 前記画像はレンダリングされた画像であり、
    前記3D再構成の処理を容易にするために、前記レンダリングされた画像をレンダリングすることは、
    前記CADモデルの最前面層のみをレンダリングすること、
    部分的または完全に不透明になるように前記衣服の材料を変更すること、
    前記衣服の透明性を考慮せずにレンダリングすること、
    部分的または完全に前記衣服の透明性を無視してレンダリングすること、
    拡散、均一、および明るい仮想的な照明を使用すること、
    異方性材料や光沢材料を前記衣服の拡散させる材料に置き換えること、
    前記衣服の材料特性をレンダリングして画像チャネルを分離し、それらを使用して前記中間モデルを作成すること、
    のうちの少なくとも1つを含む、請求項10から13のいずれか一項に記載の方法。
  15. 前記画像はレンダリングされた画像であり、
    前記中間モデルデータを生成することは、
    前記画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている輝度情報、
    前記画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている透明度情報、
    前記画像のうちの1つまたは複数の関連付けられたチャネルに記憶されている視界依存材料特性、
    特に前記CADモデルの頂点および/または法線である、前記衣服の前記CADモデルからのジオメトリ情報、
    前記画像をレンダリングするために使用されるカメラ投影行列、
    のうちの少なくとも1つにさらに基づく、
    請求項10から14のいずれか一項に記載の方法。
  16. ターゲット衣服サイズを有する衣服の3次元モデルデータを生成するためのコンピュータプログラム製品であって、非一時的なコンピュータ可読記憶媒体と、コンピュータシステムに請求項1から15のいずれか一項に記載の方法を実行することを可能とさせる、記憶されたコンピュータプログラム命令とを含む、
    コンピュータプログラム製品。
JP2022504554A 2019-07-30 2020-07-28 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム Active JP7370527B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19189134.0A EP3772040A1 (en) 2019-07-30 2019-07-30 Method and computer program product for producing 3-dimensional model data of a garment
EP19189134.0 2019-07-30
PCT/EP2020/071280 WO2021018894A1 (en) 2019-07-30 2020-07-28 Method and computer program product for producing 3-dimensional model data of a garment

Publications (2)

Publication Number Publication Date
JP2022542573A true JP2022542573A (ja) 2022-10-05
JP7370527B2 JP7370527B2 (ja) 2023-10-30

Family

ID=67544005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022504554A Active JP7370527B2 (ja) 2019-07-30 2020-07-28 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム

Country Status (4)

Country Link
US (1) US11961200B2 (ja)
EP (1) EP3772040A1 (ja)
JP (1) JP7370527B2 (ja)
WO (1) WO2021018894A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11663775B2 (en) * 2021-04-19 2023-05-30 Adobe, Inc. Generating physically-based material maps
EP4083918A1 (en) * 2021-04-27 2022-11-02 Reactive Reality AG Method and computer program product for performing at least one measurement on a 3d reconstruction of a body
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11900506B2 (en) 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
WO2023055825A1 (en) * 2021-09-30 2023-04-06 Snap Inc. 3d upper garment tracking
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments
US20230186563A1 (en) * 2021-12-10 2023-06-15 The Boeing Company Three-dimensional inspection twin for remote visual inspection of a vehicle
CN114419233A (zh) * 2021-12-31 2022-04-29 网易(杭州)网络有限公司 模型生成方法、装置、计算机设备及存储介质
CN115715609B (zh) * 2022-11-02 2023-07-07 宁波得立丰服饰有限公司 一种成衣服装生产方法、系统、存储介质及智能终端
CN117036570B (zh) * 2023-05-06 2024-04-09 沛岱(宁波)汽车技术有限公司 一种3d点云模型贴图的自动生成方法及系统
CN116883580A (zh) * 2023-07-07 2023-10-13 上海散爆信息技术有限公司 一种丝袜对象渲染方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296573A (ja) * 1998-04-14 1999-10-29 Toray Ind Inc 2次元形状データの作成方法および2次元形状データの作成装置ならびに物品の製造方法
JP2000331058A (ja) * 1999-05-21 2000-11-30 Toray Ind Inc 組立構造体の製造支援装置および組立構造体の製造方法
US20180197331A1 (en) * 2015-08-14 2018-07-12 Metail Limited Method and system for generating an image file of a 3d garment model on a 3d body model

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2799556B1 (fr) * 1999-10-08 2002-01-25 Lectra Systemes Sa Procede et dispositif de simulation et de representation de l'habillage d'un mannequin
US9613424B2 (en) * 2013-09-23 2017-04-04 Beihang University Method of constructing 3D clothing model based on a single image
US20150134302A1 (en) * 2013-11-14 2015-05-14 Jatin Chhugani 3-dimensional digital garment creation from planar garment photographs
KR101778833B1 (ko) 2014-04-03 2017-09-26 한국전자통신연구원 3d 의류 모델 복원 방법 및 장치
US20160092956A1 (en) * 2014-09-30 2016-03-31 Jonathan Su Garment size mapping
US20160335807A1 (en) * 2015-05-11 2016-11-17 TechStyle Fit Ltd. Method and system for providing virtual fitting service
US9870646B2 (en) * 2015-06-26 2018-01-16 Virtual Outfits, Llc Three-dimensional model generation based on two-dimensional images
US20170046769A1 (en) * 2015-08-10 2017-02-16 Measur3D, Inc. Method and Apparatus to Provide A Clothing Model
RU2635294C1 (ru) * 2016-06-09 2017-11-09 Наталия Валерьевна Кривоносова Способ и система интерактивного создания предметов одежды
US9754410B2 (en) * 2017-02-15 2017-09-05 StyleMe Limited System and method for three-dimensional garment mesh deformation and layering for garment fit visualization
WO2018151612A1 (en) 2017-02-17 2018-08-23 Quivervision Limited Texture mapping system and method
US10546433B2 (en) * 2017-08-03 2020-01-28 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for modeling garments using single view images
CN109712223B (zh) 2017-10-26 2020-11-03 北京大学 一种基于纹理合成的三维模型自动上色方法
CA3082886A1 (en) * 2017-11-02 2019-05-09 Measur3D, Llc Clothing model generation and display system
KR102348137B1 (ko) * 2018-03-30 2022-01-07 (주)클로버추얼패션 아바타에 착장된 의상의 전이 패턴 생성 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296573A (ja) * 1998-04-14 1999-10-29 Toray Ind Inc 2次元形状データの作成方法および2次元形状データの作成装置ならびに物品の製造方法
JP2000331058A (ja) * 1999-05-21 2000-11-30 Toray Ind Inc 組立構造体の製造支援装置および組立構造体の製造方法
US20180197331A1 (en) * 2015-08-14 2018-07-12 Metail Limited Method and system for generating an image file of a 3d garment model on a 3d body model

Also Published As

Publication number Publication date
EP3772040A1 (en) 2021-02-03
WO2021018894A1 (en) 2021-02-04
US11961200B2 (en) 2024-04-16
JP7370527B2 (ja) 2023-10-30
US20220189095A1 (en) 2022-06-16

Similar Documents

Publication Publication Date Title
JP7370527B2 (ja) 衣服の3次元モデルデータを生成するための方法およびコンピュータプログラム
US10922898B2 (en) Resolving virtual apparel simulation errors
CN107679497B (zh) 视频面部贴图特效处理方法及生成系统
CN106373178B (zh) 生成人工图像的装置和方法
EP3218878B1 (en) Image to item mapping
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2019510297A (ja) ユーザの真実の人体モデルへの仮想的な試着
KR20180069786A (ko) 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템
EP4071704A1 (en) System and method for digital markups of custom products
CN108876886B (zh) 图像处理方法、装置和计算机设备
EP3533218B1 (en) Simulating depth of field
US11900552B2 (en) System and method for generating virtual pseudo 3D outputs from images
WO2020104990A1 (en) Virtually trying cloths & accessories on body model
CN109166172B (zh) 服装模型的构建方法、装置、服务器和存储介质
WO2018182938A1 (en) Method and system for wireless ultra-low footprint body scanning
CN114612641A (zh) 素材的迁移方法和装置、数据处理方法
JP2017188071A (ja) 柄替えシミュレーション装置、柄替えシミュレーション方法、及びプログラム
US20240062345A1 (en) Method, apparatus, and computer-readable medium for foreground object deletion and inpainting
KR102461153B1 (ko) 사용자가 선택한 원단 착용 이미지를 자동 생성하는 온라인 쇼핑몰 시스템
Zhang et al. Image-based virtual exhibit and its extension to 3D
TWI525585B (zh) An image processing system and method
Vanaken et al. Strike a Pose: Image-Based Pose Synthesis.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231006

R150 Certificate of patent or registration of utility model

Ref document number: 7370527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150