JP2022513272A - 訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム - Google Patents
訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム Download PDFInfo
- Publication number
- JP2022513272A JP2022513272A JP2021534791A JP2021534791A JP2022513272A JP 2022513272 A JP2022513272 A JP 2022513272A JP 2021534791 A JP2021534791 A JP 2021534791A JP 2021534791 A JP2021534791 A JP 2021534791A JP 2022513272 A JP2022513272 A JP 2022513272A
- Authority
- JP
- Japan
- Prior art keywords
- model
- extended
- deep learning
- data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 132
- 238000013135 deep learning Methods 0.000 title claims abstract description 129
- 238000012549 training Methods 0.000 title claims abstract description 113
- 238000005259 measurement Methods 0.000 claims abstract description 132
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 230000001815 facial effect Effects 0.000 claims abstract description 20
- 230000004931 aggregating effect Effects 0.000 claims abstract description 6
- 238000010801 machine learning Methods 0.000 claims description 67
- 238000004513 sizing Methods 0.000 claims description 54
- 238000004422 calculation algorithm Methods 0.000 claims description 45
- 230000011218 segmentation Effects 0.000 claims description 30
- 238000003860 storage Methods 0.000 claims description 19
- 238000007637 random forest analysis Methods 0.000 claims description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 5
- 238000012805 post-processing Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 27
- 230000036544 posture Effects 0.000 description 26
- 230000015654 memory Effects 0.000 description 21
- 230000000875 corresponding effect Effects 0.000 description 15
- 238000012360 testing method Methods 0.000 description 14
- 239000003086 colorant Substances 0.000 description 13
- 241000282412 Homo Species 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000013473 artificial intelligence Methods 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000037308 hair color Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 210000002683 foot Anatomy 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000037237 body shape Effects 0.000 description 5
- 238000003066 decision tree Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000010339 dilation Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 101100322735 Danio rerio aep1 gene Proteins 0.000 description 2
- 101100310354 Homo sapiens SKIDA1 gene Proteins 0.000 description 2
- 101150042946 NAC20 gene Proteins 0.000 description 2
- 102100027349 SKI/DACH domain-containing protein 1 Human genes 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003187 abdominal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000011872 anthropometric measurement Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000005911 diet Nutrition 0.000 description 1
- 230000037213 diet Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000008570 general process Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 238000005303 weighing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
提供される図面を参照して、以下に本発明の実施例について詳細に記載する。
図1は、本発明の一実施例による、測定値決定のために深層学習ネットワークを訓練する大きいデータセットを生成する段階を実証する一例のツリー100を示している。最初に、3Dモデル101が受信される。ステップ110で、複数(P1)の選択肢を備える第1のタイプの拡張データが生成され、3Dモデル101を各選択肢で拡張して、複数(P1)の第1段階の拡張3Dモデル111~114が生成される。任意選択であってもよいステップ120で、複数(P2)の選択肢を備える別のタイプの拡張データが生成され、複数(P1)の第1段階の拡張3Dモデル111~114を再び、複数(P2)の選択肢における各選択肢で拡張して、複数(P1×P2)の第2段階の拡張3Dモデル121~126が生成される。ステップ130で、3Dモデルの投影を実施して複数(P1×P2)の2D画像131~132を生成することによって、少なくとも1つの2D画像が複数(P1×P2)の拡張3Dモデルそれぞれから生成される。ステップ140で、複数(Q)の選択肢を備える第2のタイプの拡張データが生成され、複数(P1×P2)の2D画像131~132を、複数(Q)の選択肢における各選択肢で拡張して、複数(P1×P2×Q)の拡張2D画像141~144が生成される。このように、単一の3Dモデル101から、多数(P1×P2×Q)の拡張2D画像が生成されて、深層学習ネットワークの訓練で使用される訓練データとして含まれてもよい。例示のツリー100を生成するプロセスの様々な実施例については、図2~図5で更に記載する。
本発明の利益を理解するためには、訓練データセットを生成するための図2~図5に記載されるプロセスを、深層学習ネットワークを訓練するための、セグメント化された注釈付きの正面及び側面画像を生成するのに使用される、一般的なプロセスと比較することが有用である。その点に関して、図6A及び図7Aは、身体測定値決定のために深層学習ネットワークを訓練するのに、対象者の正面視写真に注釈を付ける例示の注釈プロセスを示し、図6B及び図7Bは、身体測定値決定のために深層学習ネットワークを訓練するのに、対象者の側面視写真に注釈を付ける例示の注釈プロセスを示しており、図6A及び図6Bはプロセスに対する入力画像(注釈前)、図7A及び図7Bはプロセスの出力画像(注釈後)である。特定のユーザ姿勢「Aの姿勢」が、図6A、図6B、図7A、及び図7Bに示されているが、Aの姿勢、手を身体に付けた姿勢、又は他の任意の姿勢など、任意の姿勢が本発明の範囲内にあることが、当業者には理解されるであろう。最適な姿勢は、身体から離れた脚及び腕がはっきり見える姿勢であろう。本発明の1つの利点は、人間が任意のタイプの背景の前に、ほとんどの任意の妥当な姿勢で立つことができる点である。人間は、空の背景の前に立つ必要はなく、又は写真を撮るための特別な手配をする必要もない。
深層学習ネットワークなどによって使用される任意の機械学習方法の出発点は、システム入力及び適正な成果(例えば、訓練データ)の複数のインスタンスを包含する文書化されたデータセットである。このデータセットは、パラメトリック分類方法、非パラメトリック方法、決定木学習、ニューラルネットワーク、帰納学習及び分析学習の両方を組み合わせた方法、並びに回帰モデルなどのモデル化方策など、標準化された機械学習方法を含むがそれらに限定されない、当該分野で知られている方法を使用して、機械学習システムを訓練し、訓練済みシステムの性能を評価し最適化するのに使用することができる。機械学習システムの出力の品質は、(a)パターンパラメータ化、(b)学習機械設計、及び(c)訓練データベースの品質に応じて決まる。これらの構成要素は、様々な方法を使用して改良し最適化することができる。例えば、データベースは、新しい文書化された対象者に対するデータセットを追加することによって改良することができる。データベースの品質は、例えば、カスタム化が1人又は複数の専門家によって遂行された事例をデータベースに投入することによって改善することができる。したがって、データベースは専門家の知識をより良好に表すようになる。一実施例では、データベースは、訓練済みシステムの評価を支援することができる、照合の例に対するデータを含む。
図9A及び図9Bは、深層学習ネットワーク(DLN)が訓練された後の、身体測定値決定のためにDLNを利用する、サンプル3Dモデルのサンプル2D画像(それぞれ、正面視及び側面視)に対する例示のテストランを示している。上述したように、図6A及び図6Bは、身体測定値決定のために深層学習ネットワークを訓練する、対象者の正面視写真及び側面視写真に注釈を付けるための、例示的な注釈プロセスの入力画像である。同じ図6A及び図6Bを、身体測定値決定のためのサンプル2D画像に対する例示のテストランの入力画像として考慮する。上述したように、特定のユーザ姿勢「Aの姿勢」が、図6A、図6B、図9A、及び図9Bに示されているが、Aの姿勢、手を身体に付けた姿勢、又は他の任意の姿勢など、任意の姿勢が本発明の範囲内にあることが、当業者には理解されるであろう。最適な姿勢は、身体から離れた脚及び腕がはっきり見える姿勢であろう。
最初に、第1のタイプの拡張データ(例えば、顔拡張)がなぜ必要であるか?一般的なデータセットでは、例えば、一般的な3D身体データセットが3D身体モデルから生成され、多くの3D身体形状モデルが利用可能なので、各レンダリング画像は多くの身体形状を有する。しかしながら、所与のベースメッシュに応じて、いくつかのみ、一般的には2つ又は3つの顔パターンがある。所与のベースメッシュは、3Dスキャンされた身体データをラップする統合メッシュである。したがって、仮想深層学習データセット生成では、肌、顔、髪、及び他の第1のタイプの拡張が必要である。次にこれらについて考察する。
肌の拡張に関して、本発明に従って様々な実現例が可能である。一実施例では、現在の生成システムは肌の色の拡張を有する。肌の拡張は、一実施例では、更に詳細に後述するように、肌の拡張のシェーダコードによって実現される。シェーダは、3Dグラフィックスプログラムのシェーディングプログラムであり、シェーダは、肌の色を黒から白に、並びにそれらの間の色に変更するのに使用することができる、ランダムRGB曲線を有する。肌の拡張は、3Dモデルのレンダリング中にプログラム的に行われる。一実施例では、スクリプトは、例えば、一様、ガウス、又は他の分布を使用して、肌の色の統計に基づいてシェーダのRGB曲線を変更する。
一実施例では、顔の拡張は、1)第一に、目、鼻、及び口がマスクされた画像をレンダリングし、2)第二に、部分畳み込み深層学習ネットワークをマスク画像に適用し、顔拡張画像を得ることによって、部分畳み込み深層学習ネットワークを使用して実現されてもよい。したがって、いくつかの顔のばらつきのみを含む限定された数の3D身体モデルから、現実的な顔を有する多数の現実的にレンダリングされた人間を得ることが可能である。
他のものとは独立して又は部分的に依存して使用することができる、別のカテゴリの第1のタイプの拡張データは、髪の拡張を含む。髪の拡張は、様々な髪型、髪色、髪の質感、及び顔又は身体を部分的に覆う髪を含んでもよい。いくつかの実施例では、髪の拡張は自動髪アルゴリズムによって実施されてもよい。いくつかの実施例では、自動髪アルゴリズムは、http://www.kunzhou.net/2016/autohair.pdfにおいて利用可能なMenglei Chaiらの「AutoHair:Fully Automatic Hair Modeling from A Single Image」によって記載されているように実現され、その開示全体を本明細書に十分に記載されているものとして参照により本明細書に組み込む。最初に、入力としての単一の画像を所与として、AutoHairパイプラインは、髪のセグメント化を指示マップと共に生成する。この情報は次に、事前計算された3D髪モデルの模範と組み合わされて、本明細書に記載するように、裸の3D身体モデルに対して拡張されてもよい、最終的なストランドレベルの髪モデルが生成される。
光の拡張は、3Dオブジェクトが結像又は撮影される、様々な照明条件をシミュレートすることを含んでもよい。例えば、光源の角度は影に影響し、光源の色は対象者及び周囲のオブジェクトの色に影響し、低照明条件は身体的特徴の縁部を決定する精度に影響するであろう。深層学習ネットワークを訓練するための追加の現実的なデータセットを生成するために、肌のシェーダを使用して肌の色を拡張するのに上記で用いたプロセスと同様の形で、これらの照明条件が全て循環され、第1のタイプの拡張データが生成されてもよい。
他の第1のタイプの拡張データはまた、それらに限定されるものではないが、上述したように、写真が撮られるときに実際の人間が着用することがある様々な衣服を例示する、様々な仮想衣服を含む。図6A、図6B、図7A、図7B、図9A、及び図9Bは、サンプル3Dベースメッシュ身体モデルに追加される、様々な仮想衣服モデルを示している。
背景の拡張
図2を参照して上述したように、いくつかの実施例では、第2のタイプの拡張データは、例えば複数(Q)の背景画像であってもよい。背景画像は、実際の環境で対象者によって観察されることがある、様々な背景の可能性を表す。背景画像は、様々な照明、影、局所性、及び身体測定値などの空間特徴を取っている対象者に典型的である、他の背景条件を表すものであるべきである。様々な背景は、特に上述したようなセグメント化深層学習ネットワークにおいて、深層学習ネットワークの訓練を最適化するように選択されるべきである。
他の実施例では、第2のタイプの拡張データは、例えば、ホワイトノイズ又は他のタイプのランダムノイズであってもよい。これは、不完全な画像捕捉及び他の環境条件に対して、深層学習ネットワークをより強固にレンダリングするのに有用なことがある。ノイズは、例えば、ガウス又は一様分布などの選択された確率分布に従って、乱数発生器によって生成されてもよい。他の実施例では、ノイズは実生活環境のノイズの測定値から生成されてもよい。例えば、かかるノイズは、カメラレンズのほこり、写真が撮られるときの環境の煙若しくは霧、又は外光(例えば、カメラレンズ内に直接反射される太陽光)から生じることがある。
他の実施例では、第2のタイプの拡張データは、例えば、パースペクティブ歪みデータであってもよい。固定の地点から3Dオブジェクト又はシーンの2D画像が撮られるとき、近距離及び遠距離の特徴の相対換算により、2D画像が無限の距離から撮られた場合にオブジェクトが見えるだろうもの(即ち、3Dオブジェクトの2D投影)とは大幅に異なる、オブジェクト若しくはシーンのワーピング又は変換がある。ワーピング又は変換は、固定点からの距離及び角度の変更に基づいて、特徴の相対サイズを歪ませることを含む。パースペクティブ歪みデータは、2D投影画像を、特定の地点から画像が撮られた場合にそうなるであろうものに変更する情報を含む。したがって、パースペクティブ歪みデータを使用して、様々な焦点から撮られた写真をシミュレートする複数の2D画像を生成することで、実生活の写真で生じるワーピング及び変換を補正するように、DLNが訓練される。
上述したように、合成された訓練データを使用して深層学習ネットワークが訓練されると、自然な環境で撮られた2D写真からの正確な測定値決定に使用することができる。例えば、一実施例では、訓練済み深層学習ネットワークが、一般的な条件下で人間の対象者を撮った2D写真の非常に正確な身体部分測定値のために使用されてもよい。正確な測定値決定のために訓練済み深層学習ネットワークを利用するプロセスについて、次に記載する。
考察されるように、本開示を通して記載したデータ(例えば、写真、テキスト記述など)は、クラウドコンピューティングプラットフォームに格納されるか又はそこでホストされるデータベースに格納される、データを含むことができる。本開示は以下のクラウドコンピューティングに対する詳細な記載を含むが、本明細書で言及する教示の実現はクラウドコンピューティング環境に限定されないことが理解されるべきである。それよりもむしろ、本発明の実施例は、現在知られているか又は今後開発される他の任意のタイプのコンピューティング環境と併せて実現され得る。
図19は、通常の背景の前に立っている一般的な衣服を着た人間の正面視を示す、携帯デバイス1902の単一のカメラが人体測定値を捕捉するのに使用される、本発明の使用例の例示の図1900である。例示の図1900では、携帯デバイス1902は、人間の形を表示するディスプレイ1904を有する。一実施例では、人間の形の胴体が、例えば点線1906によって特定され、身体セグメントが、例えば実線1908によって特定される。頭の最上部が、例えば第1の丸い点1910によって特定され、足の最下部が、例えば第2の丸い点1912によって特定される。図19に示される携帯デバイスは、少なくとも1つのカメラと、プロセッサと、非一時的記憶媒体と、サーバへの通信リンクとを備える。一実施例では、ユーザの身体の1つ又は複数の写真は、本明細書に記載する動作を実施するサーバに送信される。一実施例では、ユーザの身体の1つ又は複数の写真は、携帯デバイス1902のプロセッサによってローカルで分析される。実施された動作は1つ又は複数の身体測定値を返し、それらはサーバに格納され、並びにユーザに提示されてもよい。それに加えて、身体測定値は次に、1つ又は複数の注文品の衣類、注文品の眼鏡、注文品の手袋、注文品のボディスーツ、注文品のPPE(個人用防護具)、注文品の帽子、特注の食事療法、特注の運動、ジム、及びトレーニング習慣などのセールをユーザに提示することを含むがそれらに限定されない、多くの目的に利用されてもよい。一般性を損なうことなく、身体測定値は、身体測定値が有用である任意の目的のため、出力、送信、及び/又は利用されてもよい。
Claims (32)
- 三次元(3D)オブジェクトの二次元(2D)画像から空間特徴を抽出するため、深層学習ネットワーク(DLN)を訓練する訓練データセットを生成するコンピュータ実装方法であって、
前記コンピュータ実装方法がハードウェアプロセッサによって実行可能であり、前記方法が、
前記3Dオブジェクトの3Dモデルを受信することと、
前記3Dモデルから空間特徴を抽出することと、
前記3Dモデルに対する第1のタイプの拡張データを生成することと、
前記第1のタイプの拡張データを用いて前記3Dモデルを拡張して、拡張3Dモデルを生成することと、
前記拡張3Dモデルを少なくとも1つの面上に投影することによって、前記拡張3Dモデルから少なくとも1つの2D画像を生成することと、
前記空間特徴及び前記少なくとも1つの2D画像を集約することによって、空間特徴抽出のために前記深層学習ネットワーク(DLN)を訓練する訓練データセットを生成することと、を含む、方法。 - 前記少なくとも1つの2D画像に対する第2のタイプの拡張データを受信することと、
前記第2のタイプの拡張データを用いて前記少なくとも1つの2D画像を拡張して、前記拡張3Dモデルの前記投影及び前記第2のタイプの拡張データのインスタンスをそれぞれ含む、複数の拡張2D画像を生成することと、
前記空間特徴及び前記複数の拡張2D画像を集約することによって、空間特徴抽出のために前記深層学習ネットワーク(DLN)を訓練する前記訓練データセットを生成することと、
を更に含む、請求項1に記載のコンピュータ実装方法。 - 前記3Dモデルが3D人体モデルである、請求項1に記載のコンピュータ実装方法。
- 前記空間特徴が一次元(1D)身体測定値である、請求項3に記載のコンピュータ実装方法。
- 前記空間特徴が2D身体セグメントである、請求項3に記載のコンピュータ実装方法。
- 前記第1のタイプの拡張データが、肌の色、顔の輪郭、髪型、及び仮想衣服から成る群から選択される、請求項1に記載のコンピュータ実装方法。
- 前記第1のタイプの拡張データが照明条件である、請求項1に記載のコンピュータ実装方法。
- 前記第2のタイプの拡張データが様々な背景を表す背景画像である、請求項2に記載のコンピュータ実装方法。
- 前記3Dモデルが3D人体モデルであり、前記方法が、
前記3Dモデルからの複数のデータ点を利用する、前記拡張2D画像に対するセグメント化を実施して、前記3Dモデルと関連付けられた1つ又は複数の特徴を前記背景から抽出すること
を更に含む、請求項8に記載のコンピュータ実装方法。 - 前記3Dモデルが3D人体モデルであり、前記方法が、
前記3Dモデルからの複数のデータ点を利用する、前記拡張2D画像に対する線注釈を実施して、空間特徴測定値に対応する各空間特徴上の注釈線を生成すること
を更に含む、請求項8に記載のコンピュータ実装方法。 - 前記3Dモデルからの複数のデータ点を利用して、前記空間特徴からグラウンドトゥルース特徴測定値を生成すること
を更に含む、請求項8に記載のコンピュータ実装方法。 - 前記第2のタイプの拡張データがホワイトノイズである、請求項2に記載のコンピュータ実装方法。
- 前記第2のタイプの拡張データがパースペクティブ歪みデータである、請求項2に記載のコンピュータ実装方法。
- 第2の3Dモデルから第2の訓練データセットを生成して、空間特徴抽出のために前記深層学習ネットワークを訓練することを更に含み、
前記第2の訓練データセットが、第2の複数の空間特徴、第2の複数の拡張3Dモデル、及び第2の複数の2D画像を備える、
請求項1に記載のコンピュータ実装方法。 - 前記第2の訓練データセットを使用して、空間特徴抽出のために前記深層学習ネットワークを訓練すること
を更に含む、請求項14に記載のコンピュータ実装方法。 - 前記少なくとも1つの2D画像が、前記3Dモデルの正面視画像、前記3Dモデルの側面視画像、及び前記正面視画像に対して45度の角度で前記3Dモデルから投影された画像から成る群から選択される、請求項1に記載のコンピュータ実装方法。
- 前記3Dモデルが3D身体モデルであり、前記方法が、
前記3D身体モデルから抽出された1D身体測定値を含むグラウンドトゥルースデータに対して訓練される、サイジング機械学習モジュールを訓練すること
を更に含む、請求項1に記載のコンピュータ実装方法。 - 前記サイジング機械学習モジュールが、前記3D身体モデルから抽出された前記1D身体測定値と前記3D身体モデルと関連付けられた1つ又は複数のユーザパラメータとを含む、グラウンドトゥルースデータに対して訓練される、請求項17に記載のコンピュータ実装方法。
- 前記ユーザパラメータが、身長、体重、性別、年齢、及び前記ユーザと関連付けられた人口統計情報から成る群から選択される、請求項18に記載のコンピュータ実装方法。
- 前記サイジング機械学習モジュールがランダムフォレストアルゴリズムを含む、請求項17に記載のコンピュータ実装方法。
- 前記3Dモデルが、全裸のユーザ又は半裸のユーザの少なくとも1つの3D身体モデルを含む、請求項1に記載のコンピュータ実装方法。
- 前記深層学習ネットワーク(DLN)が畳み込みニューラルネットワーク(CNN)を含む、請求項1に記載のコンピュータ実装方法。
- 前記深層学習ネットワーク(DLN)がピラミッドプーリングモジュールを更に含む、請求項22に記載のコンピュータ実装方法。
- 前記少なくとも1つの3Dモデルが3Dスキャナから受信される、請求項1に記載のコンピュータ実装方法。
- 前記3Dモデルが人体の3D人体スキャナから受信される、請求項24に記載のコンピュータ実装方法。
- 前記訓練データセットを使用して、身体測定値決定のために前記深層学習ネットワーク(DLN)を訓練すること
を更に含む、請求項1に記載のコンピュータ実装方法。 - 測定値決定のために前記訓練済み深層学習ネットワーク(DLN)を提供すること
を更に含む、請求項26に記載のコンピュータ実装方法。 - 前記深層学習ネットワーク(DLN)を訓練するのに前記訓練データセットを提供する前に、前記訓練データセットを後処理すること
を更に含む、請求項26に記載のコンピュータ実装方法。 - 三次元(3D)オブジェクトの二次元(2D)画像から空間特徴を抽出するため、深層学習ネットワークを訓練する訓練データセットを生成するコンピュータプログラム製品であって、具体化されたプログラム命令を有する非一時的コンピュータ可読記憶媒体を備え、前記プログラム命令がプロセッサによって実行可能であり、前記プロセッサに、
前記3Dオブジェクトの3Dモデルを受信させ、
前記3Dモデルから空間特徴を抽出させ、
前記3Dモデルに対する第1のタイプの拡張データを生成させ、
前記第1のタイプの拡張データを用いて前記3Dモデルを拡張して、拡張3Dモデルを生成させ、
前記拡張3Dモデルを少なくとも1つの面上に投影することによって、前記拡張3Dモデルから少なくとも1つの2D画像を生成させ、
前記空間特徴及び前記少なくとも1つの2D画像を集約することによって、空間特徴抽出のために前記深層学習ネットワーク(DLN)を訓練する訓練データセットを生成させる、コンピュータプログラム製品。 - 前記少なくとも1つの2D画像に対する第2のタイプの拡張データを受信させ、
前記第2のタイプの拡張データを用いて前記少なくとも1つの2D画像を拡張して、前記拡張3Dモデルの前記投影及び前記第2のタイプの拡張データのインスタンスをそれぞれ含む、複数の拡張2D画像を生成させ、
前記空間特徴及び前記複数の拡張2D画像を集約することによって、空間特徴抽出のために前記深層学習ネットワーク(DLN)を訓練する前記訓練データセットを生成させる、
プログラム命令を更に備える、請求項29に記載のコンピュータプログラム製品。 - 前記3Dモデルが3D人体モデルである、請求項29に記載のコンピュータプログラム製品。
- 三次元(3D)オブジェクトの二次元(2D)画像から空間特徴を抽出するため、深層学習ネットワークを訓練する訓練データセットを生成するシステムであって、
少なくとも1つのプロセッサと、
具体化されたプログラム命令を有する少なくとも1つの非一時的コンピュータ可読記憶媒体と、を備え、
前記プログラム命令が前記少なくとも1つのプロセッサによって実行可能であり、前記少なくとも1つのプロセッサに、
前記3Dオブジェクトの3Dモデルを受信させ、
前記3Dモデルから空間特徴を抽出させ、
前記3Dモデルに対する第1のタイプの拡張データを生成させ、
前記第1のタイプの拡張データを用いて前記3Dモデルを拡張して、拡張3Dモデルを生成させ、
前記拡張3Dモデルを少なくとも1つの面上に投影することによって、前記拡張3Dモデルから少なくとも1つの2D画像を生成させ、
前記空間特徴及び前記少なくとも1つの2D画像を集約することによって、空間特徴抽出のために前記深層学習ネットワーク(DLN)を訓練する訓練データセットを生成させる、システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862780737P | 2018-12-17 | 2018-12-17 | |
US62/780,737 | 2018-12-17 | ||
US16/517,391 US10489683B1 (en) | 2018-12-17 | 2019-07-19 | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
US16/517,391 | 2019-07-19 | ||
PCT/US2019/066994 WO2020131970A1 (en) | 2018-12-17 | 2019-12-17 | Methods and systems for automatic generation of massive training data sets from 3d models for training deep learning networks |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022513272A true JP2022513272A (ja) | 2022-02-07 |
Family
ID=68617596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021534791A Pending JP2022513272A (ja) | 2018-12-17 | 2019-12-17 | 訓練深層学習ネットワークの3dモデルから大量訓練データセットを自動的に生成する方法及びシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10489683B1 (ja) |
EP (1) | EP3899788A4 (ja) |
JP (1) | JP2022513272A (ja) |
WO (1) | WO2020131970A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022036918A (ja) * | 2020-08-24 | 2022-03-08 | オートデスク,インコーポレイテッド | 人工知能の使用による3dオブジェクトへのuvマッピング |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
US11507781B2 (en) | 2018-12-17 | 2022-11-22 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
WO2020148810A1 (ja) * | 2019-01-15 | 2020-07-23 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US11423630B1 (en) * | 2019-06-27 | 2022-08-23 | Amazon Technologies, Inc. | Three-dimensional body composition from two-dimensional images |
US11232629B1 (en) | 2019-08-30 | 2022-01-25 | Amazon Technologies, Inc. | Two-dimensional image collection for three-dimensional body composition modeling |
US11903730B1 (en) | 2019-09-25 | 2024-02-20 | Amazon Technologies, Inc. | Body fat measurements from a two-dimensional image |
US11069131B2 (en) | 2019-09-26 | 2021-07-20 | Amazon Technologies, Inc. | Predictive personalized three-dimensional body models |
US12014497B2 (en) * | 2019-10-04 | 2024-06-18 | Siemens Medical Solutions Usa, Inc. | Summing tree structural motion-correction algorithm for medical images using 3D to 2D projection |
US10769807B1 (en) * | 2019-11-25 | 2020-09-08 | Pet3D Corp | System, method, and apparatus for clothing a pet |
CN111105377B (zh) * | 2019-12-19 | 2022-05-06 | 西南石油大学 | 一种对微电阻率成像图像的修复方法 |
WO2021178909A1 (en) * | 2020-03-05 | 2021-09-10 | Waymo Llc | Learning point cloud augmentation policies |
US11494976B2 (en) * | 2020-03-06 | 2022-11-08 | Nvidia Corporation | Neural rendering for inverse graphics generation |
US11238650B2 (en) * | 2020-03-13 | 2022-02-01 | Nvidia Corporation | Self-supervised single-view 3D reconstruction via semantic consistency |
CN113689578B (zh) * | 2020-05-15 | 2024-01-02 | 杭州海康威视数字技术股份有限公司 | 一种人体数据集生成方法及装置 |
US11676406B2 (en) | 2020-05-20 | 2023-06-13 | Applications Mobiles Overview Inc. | System and method of augmenting a three-dimensional objects training dataset |
CN111784600A (zh) * | 2020-06-24 | 2020-10-16 | Oppo广东移动通信有限公司 | 图像数据集的生成方法和系统、及存储介质 |
CN111931591B (zh) * | 2020-07-15 | 2024-01-12 | 北京百度网讯科技有限公司 | 用于构建关键点学习模型的方法、装置、电子设备及可读存储介质 |
KR102208690B1 (ko) * | 2020-07-23 | 2021-01-28 | 주식회사 어반베이스 | 데이터 증강 기반 스타일 분석 모델 학습 장치 및 방법 |
KR102208688B1 (ko) * | 2020-07-23 | 2021-01-28 | 주식회사 어반베이스 | 데이터 증강 기반 사물 분석 모델 학습 장치 및 방법 |
KR102208685B1 (ko) * | 2020-07-23 | 2021-01-28 | 주식회사 어반베이스 | 데이터 증강 기반 공간 분석 모델 학습 장치 및 방법 |
US11482030B2 (en) * | 2020-08-18 | 2022-10-25 | SecurifAI LLC | System and method for automatic detection and recognition of people wearing personal protective equipment using deep learning |
CN112330534A (zh) * | 2020-11-13 | 2021-02-05 | 北京字跳网络技术有限公司 | 动物脸风格图像生成方法、模型训练方法、装置和设备 |
US11693878B2 (en) | 2020-11-19 | 2023-07-04 | International Business Machines Corporation | Generation of a dataset in the format of a machine learning framework |
KR102454443B1 (ko) * | 2020-12-02 | 2022-10-12 | 인하대학교 산학협력단 | 저해상도 얼굴 인식을 위한 생성적 도메인 적응 방법 및 장치 |
CN112435345B (zh) * | 2020-12-14 | 2022-07-19 | 武汉纺织大学 | 一种基于深度学习的人体三维测量方法及系统 |
US11354860B1 (en) * | 2021-01-26 | 2022-06-07 | Qualcomm Incorporated | Object reconstruction using media data |
CN117355253A (zh) * | 2021-03-24 | 2024-01-05 | 智能身型 | 使用深度学习网络根据用户图像预测身体组成 |
CN113129347B (zh) * | 2021-04-26 | 2023-12-12 | 南京大学 | 一种自监督单视图三维发丝模型重建方法及系统 |
US11211162B1 (en) | 2021-04-29 | 2021-12-28 | Lymphatech, Inc. | Methods and systems for identifying body part or body area anatomical landmarks from digital imagery for the fitting of compression garments for a person in need thereof |
US11848095B2 (en) | 2021-04-29 | 2023-12-19 | Lymphatech, Inc. | Identifying body part or body area anatomical landmarks from digital imagery for the fitting of compression garments for a person in need thereof |
US11527320B2 (en) | 2021-04-29 | 2022-12-13 | Lymphatech, Inc. | Methods and systems for generating accurately fitting compression garments having glove or glove-like features for a person in need thereof |
EP4105826A1 (en) | 2021-06-16 | 2022-12-21 | Volkswagen Aktiengesellschaft | Computer-implemented method and system for generating a synthetic training data set for training a machine learning computer vision model |
US11854146B1 (en) | 2021-06-25 | 2023-12-26 | Amazon Technologies, Inc. | Three-dimensional body composition from two-dimensional images of a portion of a body |
US20220414928A1 (en) * | 2021-06-25 | 2022-12-29 | Intrinsic Innovation Llc | Systems and methods for generating and using visual datasets for training computer vision models |
US11887252B1 (en) | 2021-08-25 | 2024-01-30 | Amazon Technologies, Inc. | Body model composition update from two-dimensional face images |
US11861860B2 (en) | 2021-09-29 | 2024-01-02 | Amazon Technologies, Inc. | Body dimensions from two-dimensional body images |
WO2023064990A1 (en) * | 2021-10-21 | 2023-04-27 | Meat & Livestock Australia Limited | Computer implemented system, method and device for counting animals |
CN115311403B (zh) * | 2022-08-26 | 2023-08-08 | 北京百度网讯科技有限公司 | 深度学习网络的训练方法、虚拟形象生成方法及装置 |
CN115587975B (zh) * | 2022-09-28 | 2023-06-30 | 国网湖北省电力有限公司超高压公司 | 充油设备套管积污缺陷诊断系统、方法和介质 |
CN115578515B (zh) * | 2022-09-30 | 2023-08-11 | 北京百度网讯科技有限公司 | 三维重建模型的训练方法、三维场景渲染方法及装置 |
US20240123288A1 (en) * | 2022-10-18 | 2024-04-18 | Tonal Systems, Inc. | Exercise guidance using multi-modal data |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5737506A (en) * | 1995-06-01 | 1998-04-07 | Medical Media Systems | Anatomical visualization system |
US5956525A (en) | 1997-08-11 | 1999-09-21 | Minsky; Jacob | Method of measuring body measurements for custom apparel manufacturing |
US6490534B1 (en) | 2000-04-25 | 2002-12-03 | Henry Pfister | Camera measurement system |
EP1599830A1 (en) * | 2003-03-06 | 2005-11-30 | Animetrics, Inc. | Generation of image databases for multifeatured objects |
GB2402311B (en) * | 2003-05-27 | 2006-03-08 | Canon Kk | Image processing |
CA2579903C (en) * | 2004-09-17 | 2012-03-13 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US9189886B2 (en) * | 2008-08-15 | 2015-11-17 | Brown University | Method and apparatus for estimating body shape |
NL1037949C2 (nl) | 2010-05-10 | 2011-11-14 | Suitsupply B V | Werkwijze voor het op afstand bepalen van kledingmaten. |
CA2801593C (en) | 2010-06-10 | 2022-06-21 | Brown University | Parameterized model of 2d articulated human shape |
KR101805619B1 (ko) * | 2011-01-25 | 2017-12-07 | 삼성전자주식회사 | 3차원 의료 영상으로부터 최적의 2차원 의료 영상을 자동으로 생성하는 방법 및 장치 |
GB201102794D0 (en) | 2011-02-17 | 2011-03-30 | Metail Ltd | Online retail system |
US9437011B2 (en) * | 2012-06-11 | 2016-09-06 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating a pose of a head for a person |
ITBO20120628A1 (it) | 2012-11-16 | 2014-05-17 | In Pro Di Inghirami Produzione Dist Ribuzione S P | Procedimento e sistema per la realizzazione di capi di abbigliamento su misura. |
WO2014159726A1 (en) | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
US20140277663A1 (en) | 2013-03-15 | 2014-09-18 | Neil Rohin Gupta | System and Method for Creating Custom-Fit Apparel Designs |
CN104008571B (zh) * | 2014-06-12 | 2017-01-18 | 深圳奥比中光科技有限公司 | 基于深度相机的人体模型获取方法及网络虚拟试衣系统 |
MA41117A (fr) | 2014-12-05 | 2017-10-10 | Myfiziq Ltd | Imagerie d'un corps |
US9858719B2 (en) | 2015-03-30 | 2018-01-02 | Amazon Technologies, Inc. | Blended reality systems and methods |
US9904849B2 (en) * | 2015-08-26 | 2018-02-27 | Digitalglobe, Inc. | System for simplified generation of systems for broad area geospatial object detection |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
US9623578B1 (en) | 2015-12-16 | 2017-04-18 | Amazon Technologies, Inc. | On demand apparel manufacturing |
US11144889B2 (en) * | 2016-04-06 | 2021-10-12 | American International Group, Inc. | Automatic assessment of damage and repair costs in vehicles |
US11080918B2 (en) * | 2016-05-25 | 2021-08-03 | Metail Limited | Method and system for predicting garment attributes using deep learning |
US10055882B2 (en) * | 2016-08-15 | 2018-08-21 | Aquifi, Inc. | System and method for three-dimensional scanning and for capturing a bidirectional reflectance distribution function |
US10289934B2 (en) * | 2016-11-08 | 2019-05-14 | Nec Corporation | Landmark localization on objects in images using convolutional neural networks |
US10163003B2 (en) * | 2016-12-28 | 2018-12-25 | Adobe Systems Incorporated | Recognizing combinations of body shape, pose, and clothing in three-dimensional input images |
WO2018176000A1 (en) * | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US10657709B2 (en) | 2017-10-23 | 2020-05-19 | Fit3D, Inc. | Generation of body models and measurements |
US10769411B2 (en) * | 2017-11-15 | 2020-09-08 | Qualcomm Technologies, Inc. | Pose estimation and model retrieval for objects in images |
US10552665B2 (en) * | 2017-12-12 | 2020-02-04 | Seiko Epson Corporation | Methods and systems for training an object detection algorithm using synthetic images |
US10410089B2 (en) * | 2018-01-19 | 2019-09-10 | Seiko Epson Corporation | Training assistance using synthetic images |
US11534136B2 (en) * | 2018-02-26 | 2022-12-27 | Siemens Medical Solutions Usa, Inc. | Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging |
US10321728B1 (en) | 2018-04-20 | 2019-06-18 | Bodygram, Inc. | Systems and methods for full body measurements extraction |
US10332261B1 (en) * | 2018-04-26 | 2019-06-25 | Capital One Services, Llc | Generating synthetic images as training dataset for a machine learning network |
US10489683B1 (en) * | 2018-12-17 | 2019-11-26 | Bodygram, Inc. | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks |
-
2019
- 2019-07-19 US US16/517,391 patent/US10489683B1/en active Active
- 2019-12-17 WO PCT/US2019/066994 patent/WO2020131970A1/en unknown
- 2019-12-17 JP JP2021534791A patent/JP2022513272A/ja active Pending
- 2019-12-17 EP EP19898727.3A patent/EP3899788A4/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022036918A (ja) * | 2020-08-24 | 2022-03-08 | オートデスク,インコーポレイテッド | 人工知能の使用による3dオブジェクトへのuvマッピング |
JP7129529B2 (ja) | 2020-08-24 | 2022-09-01 | オートデスク,インコーポレイテッド | 人工知能の使用による3dオブジェクトへのuvマッピング |
US11915362B2 (en) | 2020-08-24 | 2024-02-27 | Autodesk, Inc. | UV mapping on 3D objects with the use of artificial intelligence |
Also Published As
Publication number | Publication date |
---|---|
US10489683B1 (en) | 2019-11-26 |
WO2020131970A1 (en) | 2020-06-25 |
EP3899788A1 (en) | 2021-10-27 |
EP3899788A4 (en) | 2022-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10489683B1 (en) | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks | |
US11010896B2 (en) | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation | |
JP7075085B2 (ja) | 全身測定値抽出のためのシステムおよび方法 | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
US11507781B2 (en) | Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks | |
US20230073340A1 (en) | Method for constructing three-dimensional human body model, and electronic device | |
US11798299B2 (en) | Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation | |
US11282256B2 (en) | Crowdshaping realistic 3D avatars with words | |
CN107924579A (zh) | 生成个性化3d头部模型或3d身体模型的方法 | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
US10818062B2 (en) | Crowdshaping realistic 3D avatars with words | |
JP2023531264A (ja) | 改善された顔属性分類およびその使用のためのシステム及び方法 | |
JP2014211719A (ja) | 情報処理装置およびその方法 | |
WO2021222386A1 (en) | Photometric-based 3d object modeling | |
CN116547721A (zh) | 用于分析用户的头部的头发区域的图像的像素数据以生成一个或多个用户特定推荐的数字成像和学习系统及方法 | |
US20240212106A1 (en) | Photo Relighting and Background Replacement Based on Machine Learning Models | |
CN114820907A (zh) | 人脸图像卡通化处理方法、装置、计算机设备和存储介质 | |
JPWO2022002961A5 (ja) | ||
CN110838042B (zh) | 一种商品展示方法及系统 | |
Goldstein et al. | Virtual prototyping: from concept to 3D design and prototyping in hours | |
Nguyen et al. | A New 3D Face Model for Vietnamese Based on Basel Face Model | |
CN110473041A (zh) | 一种意向造型信息评价方法、系统及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231027 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240311 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240510 |