JP6799302B2 - 全身測定値抽出のためのシステムおよび方法 - Google Patents

全身測定値抽出のためのシステムおよび方法 Download PDF

Info

Publication number
JP6799302B2
JP6799302B2 JP2019535333A JP2019535333A JP6799302B2 JP 6799302 B2 JP6799302 B2 JP 6799302B2 JP 2019535333 A JP2019535333 A JP 2019535333A JP 2019535333 A JP2019535333 A JP 2019535333A JP 6799302 B2 JP6799302 B2 JP 6799302B2
Authority
JP
Japan
Prior art keywords
feature
user
image
human
annotation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019535333A
Other languages
English (en)
Other versions
JP2020522285A (ja
Inventor
ジン コウ、チョン
ジン コウ、チョン
佐藤 優
優 佐藤
Original Assignee
ボディグラム、インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ボディグラム、インコーポレイテッド filed Critical ボディグラム、インコーポレイテッド
Publication of JP2020522285A publication Critical patent/JP2020522285A/ja
Application granted granted Critical
Publication of JP6799302B2 publication Critical patent/JP6799302B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41HAPPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
    • A41H1/00Measuring aids or methods
    • A41H1/02Devices for taking measurements on the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

優先権出願の参照
本出願は、「全身測定値抽出のためのシステムおよび方法」と題された、2018年11月19日出願の米国特許出願第16/195,802号、および「2D電話カメラを使用する全身測定値抽出のためのシステムおよび方法」と題された、2018年4月20日出願の米国特許出願第62/660,377号の、特許協力条約(PCT)の下での優先権を主張する。
本発明の実施形態は、自動身体測定の分野にあり、特にモバイル装置で撮影した写真を使用してユーザの身体測定値を抽出することに関する。
本発明の背景の記載は、本発明ならびにその用途および使用の理解を助けるために提供されており、従来技術を構成するものではない。
一般的に、ユーザの画像から身体測定値を生成または抽出しようと試みてきた3つのアプローチがある。第1のアプローチは、MICROSOFT KINECTカメラのような奥行きデータを提供する3Dカメラを使用することであった。奥行き感知を使用すると、身体サイズを捕捉するための3D身体モデルを構築することができる。しかしながら、誰でも3Dカメラにアクセスできるわけではなく、現時点では大量採用への明確な道筋がないため、このような3Dカメラが普及することは現在考えられない。
第2のアプローチは、2D動画を捕捉するための2Dカメラを使用して、身体サイズを捕捉するための3D身体モデルを再作成するために2Dから3Dへの再構築技術を利用することであった。このような技術は、MTAILORおよび3DLOOKなどの企業で使用されている。2D動画アプローチでは、3D身体モデルが再作成され、このアプローチは、予め満たされたポイントクラウドを有する既存の3D身体テンプレートを新しく作成された3D身体に適合させるために、「ポイントクラウドマッチング技術」を実行しようと試みる。しかしながら、固有のユーザの3D身体上に既存のテンプレートを適応させようとすると、結果が正確ではない場合がある。テンプレート3D身体とユーザの3D身体との適合が完了した後に、サイズおよび測定値が得られるが、これらは一般的に正確ではない。
第3のアプローチは、2D動画の代わりに2D写真を捕捉するために2Dカメラを使用し、先の方法と同様に、身体サイズを捕捉するために2Dから3Dへの再構築技術を利用することであった。このような技術は、たとえば、2D写真から3Dモデルへの3D再構築を開発した企業である、AGISOFTによって使用されている。2D動画の代わりに2D写真を使用することは、より高い解像度で捕捉された写真を伴う場合があり、こうしてわずかに精度の高い結果を生み出すが、その他の前述の問題が残る。
2D動作または写真を使用する既存の方法では、3D身体モデルが生成され、これらのアプローチは一般的に、ユーザが特定の姿勢を取り、空白の背景の前でカメラから特定の距離に立ち、ぴったりした衣服を着て、および/または下着のみを着て部分的に裸になることを必要とする。制御された環境および著しいユーザの摩擦に対するこのような要件は、望ましくない。
したがって、誰でも自分の写真を容易に撮影でき、全身測定値抽出の恩恵を受けることができるように、1)ユーザが任意の姿勢を取り、2)ユーザが任意の背景タイプの前に立ち、3)任意の距離で写真が撮られ、4)ユーザが任意のタイプの衣服を着用して、2D写真から身体測定値を正確に抽出するためのシステムおよび方法を提供することは、先端技術の進歩となるだろう。
この背景に対して、本発明が開発された。
本発明は、たとえばモバイル装置カメラから取られた2Dユーザ画像を使用して全身測定を抽出するための方法およびシステムに関する。
より具体的には、様々な実施形態において、本発明は、人間の身体サイズ測定値を生成するためのコンピュータ実装方法であり、コンピュータ実装方法はハードウェアプロセッサによって実行可能であり、方法は、1つ以上のユーザパラメータを受信するステップと;人間および背景を含む少なくとも1つの画像を受信するステップと;人間に関連付けられた1つ以上の身体特徴を識別するステップと;身体特徴測定値に対応する各身体特徴上に注釈線を生成するために識別された身体特徴について身体特徴注釈付けを実行するステップであって、身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと;注釈付き身体特徴および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと;各身体特徴について身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、を備える。
一実施形態では、人間に関連付けられた1つ以上の身体特徴を識別するステップは、背景から人間に関連付けられた1つ以上の身体特徴を識別するために少なくとも1つの画像に対して身体セグメント化を実行するステップを備え、身体セグメント化は、セグメント化訓練データについて訓練されてきたセグメント化ディープラーニングネットワークを利用し、セグメント化訓練データは、1人以上のサンプル人間についての1つ以上の画像および1人以上のサンプル人間の各身体特徴についての身体特徴セグメント化を備える。
一実施形態では、身体特徴セグメント化は衣服の下で抽出され、セグメント化訓練データは、アノテータによって衣服の下の人間の身体を推定する身体セグメント化を備える。
一実施形態では、各身体特徴上の注釈線は、所与の身体特徴測定値に対応する1つ以上の線分を備え、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップは、各身体特徴上の注釈線を利用する。
一実施形態では、少なくとも1つの画像は、少なくとも人間の正面図画像および側面図画像を備え、方法は、身体特徴注釈付けを実行するステップの後に、人間の線注釈付き正面図および側面図画像ならびに身長を利用して少なくとも1つの注釈付き身体特徴の少なくとも1つの周囲長を計算するステップと;少なくとも1つの周囲長、身長、および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、少なくとも1つの周囲長から身体特徴測定値を生成するステップと、をさらに備える。
一実施形態では、サイジング機械学習モジュールはランダムフォレストアルゴリズムを備え、サイジング機械学習モジュールは、1人以上のサンプル人間についての1つ以上のサンプル身体サイズ測定値を備えるグラウンドトゥルースデータについて訓練される。
一実施形態では、1つ以上のユーザパラメータは、身長、体重、性別、年齢、および人口統計情報からなる群より選択される。
一実施形態では、1つ以上のユーザパラメータを受信するステップは、ユーザ装置を通じて1つ以上のユーザパラメータのユーザ入力を受信するステップを備える。
一実施形態では、1つ以上のユーザパラメータを受信するステップは、ユーザ装置によって実行された測定値を受信するステップを備える。
一実施形態では、少なくとも1つの画像は、人間の正面図画像および人間の側面図画像からなる群より選択される。
一実施形態では、少なくとも1つの画像は、人間の正面図画像に対して45度の角度で撮影された人間の追加画像をさらに備える。
一実施形態では、少なくとも1つの画像に対して身体セグメント化を実行するステップは、身体セグメント化の精度を向上させるためにユーザ入力を受信するステップをさらに備え、ユーザ入力は、人間の身体の所与の領域に対応する身体特徴の1つ以上の部分のユーザ選択を備える。
一実施形態では、少なくとも1つの画像は、完全着衣のユーザまたは部分着衣のユーザの少なくとも1つの画像を備え、身体特徴測定値を生成するステップは、完全着衣のユーザまたは部分着衣のユーザの少なくとも1つの画像上で身体特徴測定値を生成するステップをさらに備える。
一実施形態では、身体サイズ測定値は第1身体サイズ測定値を備え、方法は、第2のサイジング機械学習モジュールを使用して第2身体サイズ測定値を生成するステップをさらに備え、第2身体サイズ測定値の精度は第1身体サイズ測定値の精度よりも高い。
別の実施形態では、方法は、身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと;所与の身体特徴測定値が所定値未満の信頼性レベルに対応するという判断に応答して、人間の適合3Dモデルを決定するために身体特徴に対して3Dモデル適合モジュールを使用する3Dモデル適合を実行するステップであって、3Dモデル適合モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、適合3Dモデルに基づいて身体特徴測定を実行するステップと、所与の身体特徴測定値を適合3Dモデルからの予測された身体特徴測定値と置き換えるステップと、をさらに備える。
さらに別の実施形態では、方法は、身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと;所与の身体特徴測定値が所定値未満の信頼性レベルに対応するという判断に応答して、人間の関節位置を判断するために身体特徴に対して骨格検出モジュールを使用して骨格検出を実行するステップであって、骨格検出モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、判断された関節位置に基づいて身体特徴測定を実行するステップと、所与の身体特徴測定値を骨格検出モジュールからの予測された身体特徴測定値と置き換えるステップと、をさらに備える。
さらに別の実施形態では、方法は、身体セグメント化を実行する前に、人間および背景の少なくとも1つの画像を前処理するステップをさらに備える。一実施形態では、前処理は、少なくとも1つの画像に対する少なくとも遠近補正を備える。一実施形態では、遠近補正は、人間の頭部を利用する遠近補正、ユーザ装置のジャイロスコープを利用する遠近補正、およびユーザ装置の別のセンサを利用する遠近補正からなる群より選択される。
さらに別の実施形態では、1つ以上の身体特徴を識別するステップは、人間上に身体特徴のセグメント化マップを生成するステップと;身体特徴注釈付けを実行するステップの前に人間および背景からの1つ以上の識別された身体特徴をトリミングするステップと、をさらに備え、身体特徴注釈付けを実行するステップは、各身体特徴について個別に訓練された複数の注釈付けディープラーニングネットワークを利用する。
様々な実施形態において、コンピュータプログラム製品が開示される。コンピュータプログラムは、人間の身体サイズ測定値を生成するために使用されてもよく、それにより実現されるプログラム命令またはプログラムコードを有するコンピュータ可読記憶媒体を含んでもよく、プログラム命令はプロセッサに、1つ以上のユーザパラメータを受信するステップと;人間および背景を含む少なくとも1つの画像を受信するステップと;人間に関連付けられた1つ以上の身体特徴を識別するステップと;身体特徴測定値に対応する各身体特徴上に注釈線を生成するために抽出された身体特徴に対して身体特徴注釈付けを実行するステップであって、身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと;注釈付き身体特徴および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと;各身体特徴について身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、を実行させるために、プロセッサによって実行可能である。
さらに別の実施形態によれば、本発明は、人間の身体サイズ測定値を生成するためのコンピュータ実装方法であり、コンピュータ実装方法はハードウェアプロセッサによって実行可能であり、方法は、ユーザ装置から1つ以上のユーザパラメータを受信するステップと;ユーザ装置から少なくとも1つの画像を受信するステップであって、少なくとも1つの画像は人間および背景を含む、ステップと;背景から人間に関連付けられた1つ以上の身体特徴を抽出するために少なくとも1つの画像に対して身体セグメント化を実行するステップであって、身体セグメント化はセグメント化訓練データについて訓練されてきたセグメント化ディープラーニングネットワークを利用する、ステップと;身体特徴測定値に対応する各身体特徴上に注釈線を注釈するために抽出された身体特徴に対して身体特徴注釈付けを実行するステップであって、身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと;注釈付き身体特徴および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと;各抽出された身体特徴について身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、を備える。
一実施形態では、セグメント化訓練データは、1人以上のサンプル人間についての1つ以上の画像と、1人以上のサンプル人間の各身体特徴についての手動で決定された身体特徴セグメント化とを備える。
一実施形態では、手動で決定された身体特徴セグメント化は衣服の下で抽出され、セグメント化訓練データは、アノテータによって衣服の下の人間の身体を推定する手動で決定された身体セグメント化を備える。
一実施形態では、各身体特徴上の注釈線は、所与の身体特徴測定値に対応する1つ以上の線分を備え、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップは、各身体特徴上の注釈線を利用する。
一実施形態では、少なくとも1つの画像は、少なくとも人間の正面図画像および側面図画像を備え、方法は、身体特徴注釈付けを実行するステップの後に、人間の線注釈付き正面図および側面図画像ならびに身長を利用して少なくとも1つの注釈付き身体特徴の少なくとも1つの周囲長を計算するステップと;少なくとも1つの周囲長、身長、および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、少なくとも1つの周囲長から身体特徴測定値を生成するステップと、をさらに備える。
一実施形態では、サイジング機械学習モジュールはランダムフォレストアルゴリズムを備え、サイジング機械学習モジュールは、1人以上のサンプル人間についての1つ以上のサンプル身体サイズ測定値を備えるグラウンドトゥルースデータについて訓練される。
一実施形態では、1つ以上のユーザパラメータは、身長、体重、性別、年齢、および人口統計情報からなる群より選択される。
一実施形態では、ユーザ装置から1つ以上のユーザパラメータを受信するステップは、ユーザ装置を通じて1つ以上のユーザパラメータのユーザ入力を受信するステップを備える。
一実施形態では、ユーザ装置から1つ以上のユーザパラメータを受信するステップは、ユーザ装置によって実行された測定値を受信するステップを備える。
一実施形態では、少なくとも1つの画像は、人間の正面図画像および人間の側面図画像からなる群より選択される。
一実施形態では、少なくとも1つの画像は、人間の正面図画像に対して45度の角度で撮影された人間の追加画像をさらに備える。
一実施形態では、少なくとも1つの画像に対して身体セグメント化を実行するステップは、身体セグメント化の精度を向上させるためにユーザ入力を受信するステップをさらに備え、ユーザ入力は、人間の身体の所与の領域に対応する抽出された身体特徴の1つ以上の部分のユーザ選択を備える。
一実施形態では、少なくとも1つの画像は、完全着衣のユーザまたは部分着衣のユーザの少なくとも1つの画像を備え、身体特徴測定値を生成するステップは、完全着衣のユーザまたは部分着衣のユーザの少なくとも1つの画像上で身体特徴測定値を生成するステップをさらに備える。
一実施形態では、身体サイズ測定値は第1身体サイズ測定値を備え、方法は、第2の機械学習モジュールを使用して第2身体サイズ測定値を生成するステップをさらに備え、第2身体サイズ測定値の精度は第1身体サイズ測定値の精度よりも高い。
別の実施形態では、方法は、抽出された身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと;所与の身体特徴測定値が所定値未満の信頼性レベルに対応するという判断に応答して、人間の適合3Dモデルを決定するために抽出された身体特徴に対して3Dモデル適合モジュールを使用する3Dモデル適合を実行するステップであって、3Dモデル適合モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、適合3Dモデルに基づいて身体特徴測定を実行するステップと、所与の身体特徴測定値を適合3Dモデルからの予測された身体特徴測定値と置き換えるステップと、をさらに備える。
さらに別の実施形態では、方法は、抽出された身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと;所与の身体特徴測定値が所定値未満の信頼性レベルに対応するという判断に応答して、人間の関節位置を判断するために抽出された身体特徴に対して骨格検出モジュールを使用して骨格検出を実行するステップであって、骨格検出モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、判断された関節位置に基づいて身体特徴測定を実行するステップと、所与の身体特徴測定値を骨格検出モジュールからの予測された身体特徴測定値と置き換えるステップと、をさらに備える。
さらに別の実施形態では、方法は、身体セグメント化を実行する前に、人間および背景の少なくとも1つの画像を前処理するステップをさらに備え、前処理は、少なくとも1つの画像に対する少なくとも遠近補正を備え、遠近補正は、人間の頭部を利用する遠近補正、ユーザ装置のジャイロスコープを利用する遠近補正、およびユーザ装置の別のセンサを利用する遠近補正からなる群より選択される。
さらに別の実施形態では、コンピュータプログラム製品は、人間の身体サイズ測定値を生成するために使用されてもよく、それにより実現されるプログラム命令またはプログラムコードを有するコンピュータ可読記憶媒体を含んでもよく、プログラム命令はプロセッサに、ユーザ装置から1つ以上のユーザパラメータを受信するステップと;ユーザ装置から少なくとも1つの画像を受信するステップであって、少なくとも1つの画像は人間および背景を含む、ステップと;背景から人間に関連付けられた1つ以上の身体特徴を抽出するために少なくとも1つの画像上で身体セグメント化を実行するステップであって、身体セグメント化は、セグメント化訓練データについて訓練されてきたセグメント化ディープラーニングネットワークを利用する、ステップと;身体特徴測定値に対応する各身体特徴上に注釈線を描画するために抽出された身体特徴に対して身体特徴注釈付けを実行するステップであって、身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと;注釈付き身体特徴および1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと;各身体特徴について身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、を実行させるために、プロセッサによって実行可能である。
様々な実施形態において、コンピュータ実行可能コンポーネントを記憶するメモリと、メモリに動作可能に結合され、メモリ内に記憶されたコンピュータ実行可能コンポーネントを実行する、ハードウェアプロセッサと、を含むシステムが記載されており、コンピュータ実行可能コンポーネントは、前述のステップを実行するプロセッサと通信可能に結合されたコンポーネントを含んでもよい。
別の実施形態では、本発明は、プロセッサによって実行されると、プロセッサに、身体測定値を生成するためのプロセスを実行させる実行可能命令を記憶する、非一時的なコンピュータ可読記憶媒体であり、命令はプロセッサに前述のステップを実行させる。
別の実施形態では、本発明は、2D電話カメラを使用する全身測定値抽出のためのシステムであり、システムは、2Dカメラ、プロセッサ、ディスプレイ、第1のメモリを有するユーザ装置と;第2のメモリおよびデータリポジトリを備えるサーバと;前記ユーザ装置と前記サーバとの間の遠隔通信リンクと;前記ユーザ装置および前記サーバの前記第1および第2のメモリ上で実現された複数のコンピュータコードと、を備え、前記複数のコンピュータコードは実行されると前記サーバおよび前記ユーザ装置に、前述のステップを備えるプロセスを実行させる。
さらに別の実施形態では、本発明は、少なくとも1つのプロセッサ、メモリ、および前記メモリ上で実現された複数のコンピュータコードを備えるコンピュータ化されたサーバであり、前記複数のコンピュータコードは実行されると前記プロセッサに、前述のステップを備えるプロセスを実行させる。
本発明の他の態様および実施形態は、本明細書に記載されたステップを備える方法、プロセス、およびアルゴリズムを含み、本明細書に記載されたシステムおよびサーバのプロセスおよび動作モードも含む。
本発明のさらに別の態様および実施形態は、添付図面と併せて読めば、本発明の詳細な説明から明らかになるだろう。
本明細書に記載される本発明の実施形態は、例示的であって限定的ではない。実施形態は、以下の添付図面を参照して、例として以下に記載される。
本発明の一実施形態による、ディープラーニングネットワーク(DLN)および機械学習を利用する身体測定値決定の例示的なフロー図を示す。 本発明の別の実施形態による、ディープラーニングネットワーク(DLN)および機械学習を使用する身体測定値決定の別の例示的なフロー図を示す。 本発明の別の実施形態による、ディープラーニングネットワーク(DLN)および機械学習を使用する身体測定値決定の詳細なフロー図を示す。 本発明の一実施形態による、ディープラーニングネットワーク(DLN)を使用する身体部分セグメント化および注釈付けの詳細なフロー図を示す。 本発明の別の実施形態による、ディープラーニングネットワーク(DLN)から得られた1つ以上の特徴値からの身体サイジング決定のための機械学習アルゴリズムの説明図を示す。 本開示の例示的な実施形態による、身体測定値決定のために図1Aのフロー図と共に使用される、ディープラーニングネットワーク(DLN)および機械学習モジュールを訓練するための例示的なフロー図を示す。 セグメント化および注釈付けDLNを訓練するために捕捉された、衣服を着ている人体を示すユーザ画像(正面図)の説明図を示す。 セグメント化DLNを訓練するために背景から衣服の下の人体の1つ以上の特徴を手動でセグメント化するアノテータを示す説明図を示す。 セグメント化DLNを訓練するために背景からセグメント化された人体の身体特徴の説明図を示す。 注釈付けDLNを訓練するために身体注釈線を手動で注釈するアノテータを示す説明図を示す。 本発明の一実施形態による、身体測定値抽出を実装するための説明的なクライアント−サーバ図を示す。 本発明の一実施形態による、(個別のセグメント化DLN、注釈付けDLN、およびサイジング機械学習モジュールを示す)身体測定値決定の例示的なフロー図を示す。 本発明の別の実施形態による、(セグメント化−注釈付けDLNおよびサイジング機械学習モジュールの組み合わせを示す)身体測定値決定の別の例示的なフロー図を示す。 本発明のさらに別の実施形態による、(組み合わせサイジングDLNを示す)身体測定値決定のさらに別の例示的なフロー図を示す。 本開示の別の説明的実施形態による、(3D人間モデルおよび骨格/関節位置モデルを示す)身体測定値決定の別の例示的なフロー図を示す。 本発明の一実施形態を実装するためのサーバの説明的ハードウェアアーキテクチャ図を示す。 クライアントサーバ環境において本発明の一実施形態を実装するための説明的システムアーキテクチャ図を示す。 通常の背景に対して立っている典型的な衣服の人間の正面図を示す、人体測定値を捕捉するためにモバイル装置上の単一のカメラが使用される、本発明の使用事例の説明図を示す。 本発明の一実施形態による、正面図写真を捕捉するためのユーザ命令を示すモバイル装置グラフィカルユーザインターフェース(GUI)の説明図を示す。 本発明の一実施形態による、身長(および任意選択的に体重、年齢、性別など他のユーザパラメータ)を入力し、好みのフィットスタイル(タイト、普通、またはルーズフィット)を選択するようにユーザに要求する、モバイル装置GUIの説明図を示す。 本発明の一実施形態による、正面図写真を捕捉するためのモバイル装置GUIの説明図を示す。 本発明の一実施形態による、正面図写真を捕捉するためのモバイル装置GUIの別の説明図を示す。 本発明の一実施形態による、側面図写真を捕捉するためのモバイル装置GUIの説明図を示す。 本発明の一実施形態による、身体測定値を抽出するためにシステムが捕捉された写真を処理している間に表示されるモバイル装置GUIの説明図を示す。 本発明の一実施形態による、身体測定値が首尾よく抽出されたときの通知画面を示すモバイル装置GUIの説明図を示す。
概要
提供された図面を参照して、本発明の実施形態がここで詳細に説明される。
以下の説明では、説明目的のため、本発明の徹底的な理解を提供するために、多くの具体的な詳細が明記されている。しかしながら、これらの具体的な詳細を伴わなくても本発明が実践され得ることは、当業者にとって明らかであろう。他の例では、本発明を曖昧にすることを避けるために、概略図、使用事例、および/またはフロー図を使用して、構造、装置、動作、および方法が示されている。以下の説明は説明目的のために多くの詳細を含むが、提案された詳細に対する多くの変形および/または変更が本発明の範囲に含まれることを、当業者は理解するだろう。同様に、本発明の特徴の多くは互いに対して、または互いに関連して記載されているが、これらの特徴の多くは他の特徴とは無関係に提供され得ることを、当業者は理解するだろう。したがって、本発明のこの説明は、本発明に対する一般性を失うことなく、また本発明に対して制限を課すことなく、明記されている。
他の者たちは、ユーザの画像から身体測定値を生成または抽出するために、多くの異なるタイプのアプローチを試みてきた。これらのアプローチの全ては一般的に、ユーザが特定の姿勢を取り、空白の背景の前でカメラから特定の距離に立ち、ぴったりしたシャツを着て、および/または下着のみを着て部分的に裸になることを必要とする。制御された環境および著しいユーザの摩擦に対するこのような要件は、望ましくない。
本発明は、誰でも自分の写真を容易に撮影でき、全身測定値抽出の恩恵を受けることができるように、1)人間が任意の姿勢を取り、2)人間が任意の背景タイプの前に立ち、3)任意の距離で写真が撮られ、4)人間が任意のタイプの衣服を着用して、2D写真から身体測定値を正確に抽出するためのシステムおよび方法を提供することによって、前述の問題を解決する。本発明のいくつかの実施形態は、3D再構築も3D身体モデルも伴わず、特殊化されたハードウェアカメラも必要としない。代わりに、ユーザが何を着ていようと、単純なモバイル装置カメラから提供された写真から正確な身体測定値を生成するために、ディープラーニング技術と組み合わせた高度なコンピュータビジョンが使用される。本開示では、スマートフォン、タブレット、ラップトップ、またはデスクトップのような計算装置に埋め込まれるかまたは接続されたあらゆる従来のカメラを表すために、用語「2D電話カメラ」が使用される。
身体測定のためのディープラーニングネットワークおよび機械学習
図1Aは、本開示の例示的な実施形態による、身体測定値決定動作のための例示的なフローの図を示す。本発明のいくつかの実施形態では、コンピュータビジョン技術およびディープラーニングがユーザの1つの正面図写真および1つの側面図写真、プラスユーザの身長、ならびに場合により体重、性別、年齢など他のユーザパラメータに適用され、何千ものサンプル人間について収集および注釈された注釈付き身体測定値について訓練されてきた1つ以上のディープラーニングネットワークを使用して全身測定値を生成する。より多くのデータがシステムによって収集されるにつれて、身体測定の精度は自動的に向上する。いくつかの他の実施形態では、ディープラーニングアプローチからの任意の低信頼性身体測定値を改善するために、コンピュータビジョン技術を利用する、遠近補正、人間背景差分、骨格検出、および3Dモデル適合アプローチが使用される。このハイブリッドアプローチは、身体測定精度を著しく改善し、身体測定値に対するユーザの満足度を高める。身体測定値がカスタム衣類製造に使用される場合、結果として得られる精度は顧客サービスを改善し、製造されたカスタム衣類の返品率を低下させる。
全体のプロセスはステップ101で始まる。ステップ102において、正規化またはスケーリングを実行するために、ユーザの身長などの正規化データ(1つ以上のユーザパラメータ)が取得、生成、および/または測定される。別の実施形態では、身長と併せて体重も使用され得る。いずれのユーザパラメータも、(たとえば、コンピュータビジョンアルゴリズムを使用するかまたは1つ以上のデータベースからマイニングして)自動的に決定されてもよく、またはユーザ(たとえば、ユーザ入力)から決定されてもよい。一実施形態では、これらのユーザパラメータから、肥満度指数(BMI)が計算されてもよい。BMIは、体重および身長の両方を使用して、身体測定値抽出を較正するために使用されてもよい。追加のユーザパラメータは、とりわけ、身長、体重、性別、年齢、人種、出身国、運動歴、および/またはユーザに関連付けられた他の人口統計情報のうちの少なくとも1つを含むことができる。ユーザの身長は、正面および/または側面図写真を正規化またはスケーリングし、写真内の人間について既知のサイズ基準を提供するために、使用される。体重、BMI指数、年齢、性別など、その他のユーザパラメータは、身体サイジング測定を最適化するための、システムへの追加入力として使用される。一実施形態では、その他のユーザパラメータは、ユーザ装置から、1つ以上の第三者データソースから、またはサーバから、自動的に取得され得る。
ステップ104において、1つ以上のユーザ写真が受信されてもよい。たとえば、所与のユーザの少なくとも1つの正面および/または側面図写真が受信されてもよい。別の実施形態では、写真はユーザ装置(たとえば、携帯電話、ラップトップ、タブレットなど)から取得されてもよい。別の実施形態では、写真はデータベース(たとえば、ソーシャルメディアデータベース)から取得されてもよい。別の実施形態では、ユーザ写真は、ユーザの全身の正面図を示す写真および側面図を示す写真を含む。いくつかの実施形態では、正面図などの1つの写真のみが利用され、正確な身体測定値抽出を実行するのにその1つの写真で十分である。さらに別の実施形態では、3つ以上の写真が利用され、いくつかの実施形態では、正面図写真、側面図写真、および45度の角度で撮影された写真を含む。当業者によって認識されるように、ユーザ写真の他の組み合わせも本発明の範囲に含まれる。いくつかの実施形態では、たとえばユーザの正面図、90度、180度、または360度の図など、ユーザ動画が受信されてもよい。ユーザ動画から、ユーザの正面図、側面図、および/または45度の図など、1つ以上の静止フレームまたは写真が動画から抽出され、後続のプロセスで使用される。ステップ102から104は、本発明の様々な実施形態においていずれの順序で実行されてもよく、2つのステップが並行して実装されてもよい。
一実施形態では、システムは、後続のステップに関連して以下でさらに説明されるように、写真および正規化データを使用して、(たとえば、1つ以上のAIアルゴリズムを使用して)身体測定値を自動的に計算してもよい。別の実施形態では、ユーザは、より正確な結果のために、ユーザがタイト、普通、またはルーズな衣服を着ているか否かを示してもよい。
一実施形態では、指定された距離(たとえば、ユーザの装置のカメラからおよそ10フィート)で画像が撮影されてもよい。一実施形態では、画像は、指定された姿勢(たとえば、腕を所定の位置にして、脚を肩幅に広げ、背筋を伸ばして、「A姿勢」など)を取るユーザの画像が撮影されてもよい。別の実施形態では、所与の姿勢の複数の画像(たとえば、正面および側面図写真)が撮影されてもよく、各姿勢について平均的な画像が決定されてもよい。これは、精度を向上させるために実行され得る。別の実施形態では、ユーザは、特定のタイプの背景(たとえば、天然色、または所定の背景画像を有する)に対して位置決めされてもよい。いくつかの実施形態では、ユーザはいずれのタイプの背景に対する位置であってもよい。一実施形態では、正面および側面図写真は、類似の照明条件(たとえば、所与の明るさ、影など)の下で撮影され得る。別の実施形態では、正面および側面図写真は、普通のフィット感の衣服(たとえば、緩すぎないまたはきつすぎない)を着ているユーザの写真を含んでもよい。あるいは、または付加的に、正面および側面図写真は、AIベースのアルゴリズムおよび関連するプロセスの必要に応じて、部分的に着衣の(たとえば、シャツを脱いだ)、または異なるタイプのフィット感(たとえば、タイト、ルーズなど)を有するユーザの画像を含んでもよい。
いくつかの実施形態では、必要であれば、遠近補正など、ユーザの1つ以上の写真に対する前処理(図1Aには示さず)が、正面および側面図写真に対して実行されてもよい。たとえば、システムは、オープンソースのマシンビジョンライブラリであるOpenCVを使用してもよく、遠近補正の基準として正面および側面図写真における頭部の特徴およびユーザの身長を利用してもよい。このようにして、本開示の実施形態は、胴の長さおよび脚の長さなど、身体の長さの割合に関する限り、不正確な測定値を決定することを回避することができる。任意選択的に、撮影される人の位置に対してカメラがどこに位置決めされるかを示す遠近側面写真は、システムがカメラとユーザとの間の距離を計算できるようにすることによって、さらに正確な遠近補正を生み出すことができる。いくつかの実施形態では、システムは、システムは代わりに、写真遠近角度を検出するためにユーザ装置(または付属コンピュータ装置など、ユーザ装置に接続された周辺装置)によって提供されたジャイロスコープデータを使用し、この写真遠近角度に基づいて遠近補正を実行してもよい。
いくつかの実施形態では、ユーザの1つ以上の写真に対して1つ以上の追加前処理ステップ(図1Aには示さず)が実行されてもよい。1つ以上の画像をさらに前処理するために、様々なコンピュータビジョン技術が利用されてもよい。前処理ステップの例は、遠近補正に加えて、さらなる処理の前に1つ以上の画像の品質を向上させるための、コントラスト、照明、および他の画像処理技術を含み得る。
ステップ106において、セグメント化DLNとして知られる第1のディープラーニングネットワーク(DLN)を使用して、人間の身体部分(たとえば、首、腕、脚など)などの身体特徴が画像から識別または抽出されてもよい。一実施形態では、「ディープラーニング」は、ニューラルネットワークをモデルとした特徴抽出および変換のための非線形処理ユニットの複数の層のカスケードを使用する、機械学習アルゴリズムの階級を指すことができる。一実施形態では、連続する層は、前の層からの出力を入力として使用することができる。一実施形態では、「ディープラーニング」の「ディープ」は、それを通じてデータが変換される層の数を指すことができる。身体特徴抽出の一例は、図3から図4に関連して以下で説明され示される。
実際のユーザからのデータに対してこのセグメント化ステップを実行する前に、システムはまず、たとえば、図2に関連して説明されたような、「A姿勢」として知られることもある、両手を45度にした状態で、異なる衣服で異なる環境でポーズを取っている人間のサンプル写真について、訓練されていてもよい。いくつかの実施形態では、ディープニューラルネットワーク、ディープビリーフネットワーク、および/またはリカレントニューラルネットワークなど、いずれの適切なディープラーニングアーキテクチャが使用されてもよい。別の実施形態では、ディープラーニングアルゴリズムは、教師付き(たとえば、分類)および/または教師なし(たとえば、パターン分析)で学習することができる。さらに、ディープラーニングアルゴリズムは、画像内に符号化された情報(たとえば、身体、身体部分など)の異なるレベルの抽象化に対応する、複数のレベルの表現を学習することができる。別の実施形態では、画像(たとえば、正面および側面写真)は、画素のマトリクスとして表されてもよい。たとえば、一実施形態では、第1の表現層は、画素を抽出して境界を符号化することができ、第2の層は境界の配置を構成および符号化することができ、第3の層は鼻と目を符号化することができ、第4の層は、画像が顔などを含むことを認識することができ、以下同様である。
一実施形態では、セグメント化DLNアルゴリズムは、図2に関連して以下に説明されるように、セグメント化訓練データを用いて訓練されてもよい。いくつかの実施形態では、セグメント化訓練データは、手動でセグメント化された身体特徴を有する数千のサンプル人間を含んでもよい。いくつかの実施形態では、訓練データは、たとえばCATスキャン、MRIスキャンなどからの医療データを含む。いくつかの実施形態では、訓練データは、3Dボディスキャナからの3Dボディスキャンおよび「グラウンドトゥルース」データを含む、以前のテーラーまたは3D身体測定値からのデータを含む。いくつかの実施形態では、3Dボディスキャンは、正面および側面図写真が明確に利用可能ではない場合に、おおよその正面および/または側面図写真を抽出するために使用されてもよい。いくつかの実施形態では、グラウンドトゥルースデータは人間のテーラーによる測定データを備え、他の実施形態では、グラウンドトゥルースデータは、3Dボディスキャンから自動的に抽出された1D身体サイズ測定値を備える。いくつかの実施形態では、約10,000人の人間被験者(男女両方)について得られた3Dボディスキャンの商用サンプルである、「サイズUSA」データセットからの3Dボディスキャンデータが利用されてもよい。別の実施形態では、「CAESAR」データセットからの3Dボディスキャンデータが利用されてもよく、これは約4,000人の人間被験者について得られた3Dボディスキャンの別の商用サンプルであり、人間のテーラーを使用して手動測定したグラウンドトゥルースデータも含む。さらに別の実施形態では、本発明を利用する組織は、セグメント化DLNを訓練するために、人間のテーラーを使用する適切なグラウンドトゥルースデータと共に、自身の正面および側面写真を捕捉してもよい。さらに別の実施形態では、セグメント化訓練データは、人間オペレータによって手動でセグメント化される代わりに、1つ以上のディープラーニングネットワークを含む、1つ以上のアルゴリズムによって自動的に生成されてもよい。
一実施形態(図1Aには示さず)では、識別された身体部分は、ステップ106で生成されたセグメント化マップを使用して、人間の残部および背景からセグメント化、分離、またはトリミングされる。トリミングは、現実または仮想トリミングであってもよい。各識別された身体部分に対応する画像の部分は、画像の残部からトリミング、セグメント化、または分離されてもよく、画像のその部分は注釈付けステップ107に渡されてもよい。識別された身体部分を画像の残部からトリミングまたは分離することによって、注釈付けステップ107で使用される注釈付けDLNは、各個別の身体部分について特別にまたは個別に訓練されることが可能であり、精度および信頼性の両方を向上させる。
ステップ107において、ステップ106で識別または抽出された各身体部分の注釈線は、たとえば注釈付けDLNなどの1つ以上の追加のディープラーニングネットワーク(DLN)を使用して決定されてもよい。一実施形態では、全身に対して1つの身体特徴注釈付けDLNがある。別の実施形態では、各身体部分に対して個別の身体特徴注釈付けDLNがある。各身体部分に対して個別の身体特徴注釈付けDLNを使用する利点は、身体部分測定における精度および信頼性の向上である。各身体部分DLNは、各身体部分の個別で固有のデータについて個別に訓練されてもよい。各身体部分に関するデータの特異性は、DLNの精度および信頼性を高め、ニューラルネットワーク層訓練の収束速度も高める。身体特徴注釈付けの一例は、図5から図6に関連して以下で説明され示される。
一実施形態では、システムは、たとえば最初に身体特徴から得られた信号から注釈線を生成することによって、注釈付けDLNなどのAIベースのアルゴリズムを使用して、身体特徴測定値を生成および抽出してもよい。各注釈線は、身体特徴ごとに異なってもよく、異なる描き方をされてもよい。たとえば、二頭筋の幅または周囲長について、システムは、二頭筋の位置で骨格線に対して垂直な線を引くことができ、胸部については、システムは代わりに2つの胸部ドットを接続することができる。各身体特徴の注釈付けから、身体特徴測定値はその後、以下でさらに説明されるように、ステップ102で受信したユーザの身長を正規化することによって、取得され得る。
実際のユーザからのデータに対してこの注釈付けステップを実行する前に、システムはまず、たとえば、以下で図2に関連してさらに説明されるような、「A姿勢」として知られることもある、両手を45度にした状態で、異なる衣服で異なる環境でポーズを取っている人間のサンプル写真について、訓練されていてもよい。さらに別の実施形態では、注釈付け訓練データは、人間オペレータによって手動で注釈付けされる代わりに、1つ以上のディープラーニングネットワークを含む、1つ以上のアルゴリズムによって自動的に生成されてもよい。セグメント化および注釈付けDLNは、図1B、図1C、および図1Dに関連してより詳細に説明される。
ステップ108において、たとえばサイジング機械学習(ML)アルゴリズムなど、1つ以上の機械学習アルゴリズムを使用して、ステップ107で生成された注釈線を有する各身体部分について、身体特徴測定値が推定されることが可能である。一実施形態では、サイジングMLアルゴリズムは、ランダムフォレスト機械学習モジュールを備える。一実施形態では、各身体部分に対して個別のサイジングMLモジュールがある。いくつかの実施形態では、全身に対して1つのサイジングMLモジュールがある。一実施形態では、システムは、サイジング推定値を正規化するために、ステップ102で受信した身長を入力として使用して、身体特徴のサイズを決定してもよい。これを行うために、一実施形態における注釈付けDLNは、1つのドットが被験者の足の裏を表し、もう1つのドットが被験者の頭頂部を表す、被験者の身長の位置を示す「全身」注釈線を引く。この「全身」注釈線は、ステップ102で提供された被験者の既知の身長によって他の注釈線を正規化するために使用される。言い換えると、画像内の被験者の身長が検出され、全ての注釈線測定値を正規化するために、既知の実際の身長と共に使用される。このプロセスは、正規化のための標準的な測定値として被験者の既知の身長を使用する、「身長基準の正規化」と考えることができる。別の実施形態では、ユーザの身長の代わりに、またはこれに加えて、レターまたはA4サイズの紙、もしくはクレジットカードのような、既知のサイズの物体が正規化基準として使用されてもよい。
別の実施形態では、体重、BMI指数、性別、年齢、および/またはステップ102で受信したユーザに関連付けられた他の人口統計情報などの、ただしこれらに限定されない、付加的なユーザ人口統計データが、図1Eに関連してより詳細に説明される、サイジングMLアルゴリズム(ランダムフォレストなど)への入力として使用される。
システムはまた、各身体特徴測定値について他のアルゴリズム、手段、および中央値を使用してもよい。注釈付けDLNおよびサイジングMLは、各身体特徴に対して注釈を付けて測定を実行する1つのサイジングDLNとして実装されてもよく、または2つの個別のモジュール、すなわち各身体特徴を注釈付けする注釈付けDLN、および注釈付き身体特徴に対して測定を実行する個別のサイジングMLモジュールとして、実装されてもよい。同様に、ステップ106のセグメント化DLN、ステップ107の注釈付けDLN、およびステップ108のサイジングMLモジュールを実装するための様々な代替アーキテクチャが、図8から図10に関連して以下に説明される。たとえば、図8は図1Aに示されるアーキテクチャに対応し、そこではセグメント化DLN、注釈付けDLN、およびサイジングMLモジュールが個別のモジュールである。対照的に、図9は、(セグメント化および注釈付けを効率的に実行する)セグメント化DLNおよび注釈付けDLNが単一の注釈付けDLNに組み込まれ、これにサイジングMLモジュールが続く代替アーキテクチャ(図1Aには示さず)に対応する。最後に、図10は、セグメント化DLN、注釈付けDLN、およびサイジングMLモジュールが全て、セグメント化、注釈付け、およびサイズ測定の全ての機能を効率的に実行する単一のサイジングDLNに組み込まれている、さらに別の代替アーキテクチャ(図1Aには示さず)に対応する。
任意選択的に、ステップ110において、各身体特徴測定値の信頼性レベルが、ステップ108からのサイジングMLモジュールから決定、取得、または受信され得る。各身体特徴の予想身体測定値を出力するのに加えて、サイジングMLモジュールはまた、各予想身体特徴測定値の信頼性レベルも出力し、これはその後、以下に説明されるように、出力を改善するためにその他のアプローチが利用されるべきか否かを判断するために利用される。別の実施形態では、信頼性レベルは信頼区間に基づいてもよい。具体的には、信頼区間は、未知の母数(たとえば、身体部分の測定値)の真値を含み得る、観測データ(たとえば、画像データを符号化する正面および側面写真)の統計から計算された、区間推定値のタイプを指すことができる。区間は、パラメータがその区間内にあるという信頼性のレベルを定量化し得る、関連信頼性レベルを有してもよい。より厳密に言えば、信頼性レベルは、未知の母数の真値を含む可能性のある信頼区間の頻度(すなわち、割合)を表す。言い換えると、信頼区間が無限数の独立したサンプル統計から所与の信頼性レベルを使用して構築された場合、パラメータの真値を含むこれらの区間の割合は、信頼性レベルに等しくなる。別の実施形態では、信頼性レベルは、データ(たとえば、画像およびそこから抽出された測定値)を調べる前に指定されてもよい。一実施形態では、95%の信頼性レベルが使用される。しかしながら、たとえば90%、99%、99.5%など、他の信頼性レベルが使用されることも可能である。
様々な実施形態において、信頼区間および対応する信頼性レベルは、有効性および/または最適性の判断に基づいて決定されてもよい。別の実施形態では、有効性は、正確にまたは良好な近似のいずれかで、信頼区間保持の信頼性レベルを指すことができる。一実施形態では、最適性は、データセット内の情報(画像および抽出された特徴および測定値)を可能な限り利用すべき信頼区間を構築するための規則を指すことができる。
ステップ112において、信頼性レベルが所定値よりも大きいか否かが判断され得る。信頼性レベルが所定値よりも大きいと判断された場合には、プロセスはステップ114に進み、そこで高信頼性身体特徴測定値が出力されてもよい。信頼性レベルが所定値よりも小さいと判断された場合には、プロセスはステップ116またはステップ118に進むことができる。ステップ116および118は、ディープラーニングアプローチが低い信頼性を有するこれらの身体特徴について推定された身体特徴測定値を予想または予測するための1つ以上の任意選択的なフォールバックアルゴリズムを示す。(破線で示される)ディープラーニングアプローチからの高信頼性身体特徴測定値と共に、低信頼性身体特徴測定値のための代替フォールバックアルゴリズムからの予測身体特徴測定値は、以下に説明されるように、後に完全なセットの高信頼性身体特徴測定値に合成される。記載されたように、別の実施形態では、信頼性レベルは、データ(たとえば、画像およびそこから抽出された測定値)を調べる前に指定されてもよい。
具体的には、ステップ116および118において、他の任意選択的なモデル(たとえば、AIベースまたはコンピュータビジョンベースのモデル)が適用されてもよい。ステップ116において、および任意選択的な一実施形態によれば、3D人間モデル適合アルゴリズムが適用されてもよい。たとえば、システムは最初に、背景から人体を抽出するために、OpenCVおよび/またはディープラーニング技術を利用してもよい。抽出された人体はその後、身体特徴測定値を得るために1つ以上の既知の3D人間モデルに適合される。この技術および既存の3Dボディスキャンのデータベース、たとえば数千の3Dボディスキャンのデータベースを使用して、システムは、検出された最も近い身体を3Dボディスキャンの点と適合させてもよい。最も近い適合3Dモデルを使用して、システムは次に3Dモデルから身体特徴測定値を抽出することができる。この技術は、図11に関連して以下により詳細に説明される。
あるいは、および/または付加的に、ステップ118において、骨格/関節位置モデルなどの他のモデルが適用されてもよい。一実施形態では、骨格/関節検出は、姿勢検出のオープンソースアルゴリズムである、OpenPose(以下でさらに論じられる)を用いて実行されてもよい。骨格および関節位置を得るためのこの技術を使用して、システムはその後、必要であれば追加のディープラーニングネットワーク(DLN)を使用して、様々な重要な骨格構造を示すためにユーザ写真上に描かれた骨の中央の位置を示す、適切な点の間に線を引き、肩、首、腕などの様々な身体部分がどこにあるかを示すことができる。この情報から、身体特徴測定値は適切な線から取得され得る。たとえば、肩と手首との間を接続する線は、腕の長さを決定するために使用され得る。この技術は、図11に関連して以下で詳細に説明される。
一実施形態では、3Dモデルアルゴリズムおよび骨格/関節位置モデルは、以下のように組み合わせられる(ただしこれは図1Aには明確に示されていない)。たとえば数千の3Dボディスキャンのデータベースなど、既存の3Dボディスキャンのデータベースを使用して、システムは、最も近い骨格検出を3Dボディスキャンの骨格点と適合させて、様々な重要な骨格構造を示す骨の位置を示す点および線を示し、肩、首、および腕などの様々な身体部分がどこにあるかを示すことができる。最も近い適合3Dモデルが適合すると、システムは3Dモデルから身体特徴測定値を抽出することができる。
いずれかまたは両方の場合、ステップ120またはステップ122または両方において、高信頼性身体特徴測定値が予測(たとえば、推定)され得る。具体的には、高信頼性身体特徴測定値の推定は、第1の低信頼性ディープラーニングプロセス(たとえば、上記のステップ108に関連して図示および説明されたもの)とは異なるプロセスを用いて実行されてもよい。
このアプローチの1つの有利な特徴は、ステップ114からの高信頼性身体特徴測定値(破線で示される)が、たとえばステップ116の3D人間モデルアルゴリズムおよびステップ118の骨格/関節位置モデルなど、その他のモデルの較正を支援するために使用され得ることである。つまり、ステップ108で得られるディープラーニングアプローチからの高信頼性身体特徴測定値は、たとえば3D人間モデル116および/または骨格/関節位置モデル118など、その他のモデルを支援するために使用され得る。次いでその他のモデル(116および/または118)は、ステップ112において所定値未満の信頼性を有すると判断されたこれらの身体特徴測定値について、予測された高信頼性身体特徴測定値を得るために使用され得る。その後、予測された高信頼性身体特徴測定値は、ディープラーニングアプローチからの低信頼性身体特徴測定値を置き換えるかまたは補足することができる。
さらに、ステップ124において、ステップ120および/またはステップ122で決定された高信頼性身体特徴測定値は、高信頼性身体特徴測定値を決定するために使用され得る。このようにして、様々なモデル、すなわち3D人間モデルおよび骨格/関節位置モデルはいずれも、ステップ114で得られた身体特徴測定値の精度をさらに向上させるために使用され得る。したがって、高信頼性身体特徴測定値は集約され、ステップ114(たとえば、ディープラーニングアプローチ)からの高信頼性身体特徴測定値は、ステップ120および122からの予測された高信頼性身体特徴測定値(たとえば、その他のモデル)と組み合わせられる。
ステップ126において、高信頼性身体特徴測定値は、人体全体の完全な身体測定値に集約され、その後使用するために出力される。具体的には、身体測定値は、たとえば測定値に基づいて衣服を製造する企業に関連付けられた、ユーザ装置および/または対応するサーバに出力されてもよい。一実施形態では、出力は、テキストメッセージ、電子メール、モバイルアプリケーションまたはウェブサイト上のテキスト記述、これらの組み合わせ、などの形態であってもよい。完全な身体測定値はその後、カスタム衣類製造を含むがこれに限定されない、いずれの目的に使用されてもよい。当業者は、完全な身体測定値の出力が、フィットネス、健康、買い物などの、ただしこれらに限定されない、正確で簡単な身体測定が有用ないずれの目的に利用されてもよいことを、理解するだろう。
図1Bは、本発明の別の実施形態による、ディープラーニングネットワーク(DLN)および機械学習を使用する身体測定値決定の別の例示的なフロー図を示す。ステップ151において、正面写真、側面写真、およびユーザパラメータ(身長、体重、年齢、性別など)を備える入力データ152が受信される。ステップ153において、1つ以上の画像処理ステップが適用される。まず、任意選択的な画像前処理(遠近補正、人間トリミング、サイズ変更など)ステップが実行され得る。次に、図1Dに関連してより詳細に説明されるように身体特徴をセグメント化および注釈付けするために、ディープラーニングネットワーク(DLN)154が画像に適用される。次に、図1Eに関連してより詳細に説明されるように、注釈線およびユーザパラメータの1つ以上から身体サイズ測定値を決定するために、サイジング機械学習モジュール(ML)156が注釈付き身体特徴に適用される。最後に、ステップ155において、出力データ158として説明的に示される、身体サイズ測定値(たとえば、16個の標準的な身体部分サイズ)が出力される。出力158は、サイジング結果(首、肩、袖、身長、総丈、股下などの標準的な身体サイズ測定値のセット)を含むことができ、注釈線で注釈された正面および側面写真も含むことができる。
図1Cは、本発明の別の実施形態による、ディープラーニングネットワーク(DLN)および機械学習を使用する身体測定値決定の詳細な説明フロー図を示す。身体測定プロセスへの入力は、正面写真161、側面写真162、身長163、および他のユーザパラメータ(体重、年齢、性別など)164を含む。正面写真161はステップ165で前処理され、側面写真162はステップ166で前処理される。遠近補正、人間トリミング、画像サイズ変更などのような前処理ステップの例は、以前に論じられている。ステップ167において、前処理された全面写真は、正面写真161のための注釈線を生成するために、DLN1(図1Dに関連して処理詳細に説明される、セグメント化−注釈付けDLN)への入力として使用される。ステップ168において、前処理された側面写真は、側面写真161のための注釈線を同じように生成するために、DLN2(セグメント化−注釈付けDLN)への入力として使用される。正面図169からの各身体部分のための注釈線はDLN1から出力され、側面図170からの各身体部分のための注釈線はDLN2から出力される。ステップ171において、正面写真161および側面写真162からの2セットの注釈線は、各身体部分の周囲長を計算するために、身長入力163から受信した身長正規化基準175と共に利用される。ステップ172において、入力163および164から受信した身長および他のユーザパラメータ176と共に、各身体部分の周囲長は、1つ以上の身体サイズ測定値を計算するために、ランダムフォレスト(図1Eに関連してより詳細に説明される)などの機械学習アルゴリズムで利用される。ステップ173において、身体サイズ測定結果(各標準測定の長さ)が出力される。最後に、身体測定プロセスはステップ174で終了する。
説明的なディープラーニングネットワークおよび機械学習アーキテクチャ
図1Dは、本発明の一実施形態による、身体部分セグメント化および注釈付けの詳細なフロー図を示す。一実施形態では、身体部分セグメント化および注釈付けは、上述のような訓練データを使用するディープラーニングネットワーク(DLN)を使用して行われる。一実施形態では、身体部分セグメント化および注釈付けは、改良されたグローバルおよびローカルコンテキスト情報のためにピラミッドシーン解析ネットワーク(PSPNet)と組み合わせられた畳み込みニューラルネットワーク(CNN)を使用して、実行される。PSPNetでは、プロセスは、ピラミッドプーリングモジュール184を通じて集約された異なるサイズの領域からのグローバルおよびローカルコンテキスト情報を利用してもよい。図1Dに示されるように、入力画像181は、各画素を所与の身体部分および/または注釈線に分類またはセグメント化する特徴マップ183を得るために、まず畳み込みニューラルネットワーク(CNN)182を通過する。次に、ピラミッドプーリングモジュール184を利用してグローバルおよびローカルコンテキスト情報が特徴マップ183から抽出され、ピラミッドプーリングモジュール184は異なるサイズスケールの画像から情報を集約する。最後に、角画素を身体部分セグメントおよび/または注釈線186に分類するために、データは最終畳み込み層185を通過する。
より詳細には、入力画像181から、特徴マップ183を得るためにまずCNN182使用され、次いで異なるサブ領域の特徴を抽出するためにピラミッドプーリングモジュール184が使用され、最終特徴表現を形成するためのアップサンプリングおよび連結層がこれに続き、これはローカルおよびグローバルの両方のコンテキスト情報を担持する。最後に、最終的な画素ごとの予想を得るために、特徴表現が最終畳み込み層185に供給される。図1Dに示される例では、ピラミッドプーリングモジュール184は、4つの異なるスケールの下で特徴を組み合わせる。最大のスケールはグローバルである。後続のレベルは、特徴マップを異なるサブ領域に分割する。ピラミッドプーリングモジュール184内の異なるレベルの出力は、異なるスケールの下の特徴マップを備える。一実施形態では、グローバルな特徴の重みを維持するために、図1Dに示されるように、コンテキスト表現の次元を縮小するために、各ピラミッドレベルの後に畳み込み層が使用され得る。次に、元の特徴マップと同じサイズの特徴を得るために、低次元特徴マップがアップサンプルされる。最後に、ピラミッドプーリングモジュール184出力のために、異なる特徴レベルが元の特徴マップ183と連結される。一実施形態では、図示されるように、4レベルピラミッドを使用することによって、プーリングウィンドウは元の画像181の全体、半分、およびさらに小さい部分をカバーする。
一実施形態では、PSPNetアルゴリズムは、arXiv:1612.01105で入手可能な、Hengshuang Zhaoら、「ピラミッドシーン解析ネットワーク(Pyramid Scene Parsing Network)」、CVPR 2017、2016年12月4日に記載されるような実装である。PSPNetは、本発明の範囲内の1つの説明的なディープラーニングネットワークアルゴリズムに過ぎず、本発明はPSPNetの使用に限定されるものではない。他のディープラーニングアルゴリズムもまた本発明の範囲に含まれる。たとえば、本発明の一実施形態では、身体セグメントを抽出するために畳み込みニューラルネットワーク(CNN)が利用され(セグメント化)、各身体セグメントを注釈付けするために個別のCNNが使用される(注釈付け)。
図1Eは、本発明の別の実施形態による、ディープラーニングネットワーク(DLN)から得られた1つ以上の特徴値191からの身体測定値決定のための機械学習アルゴリズムの説明図を示す。一実施形態では、1つの説明的な機械学習アルゴリズムであるランダムフォレストアルゴリズムを使用して、身体部分サイジングが決定される。ランダムフォレストアルゴリズムは、各決定木が訓練データのランダムサブセットの値に依存するように、多数の決定木予測子を使用し、これによって訓練データセットに対する過剰適合の機会を最小化する。一実施形態では、ランダムフォレストアルゴリズムは、doi.org/10.1023/A:1010933404324で入手可能な、Leo Breiman、「ランダムフォレスト(Random Forests)」、Machine Learning、45、5−32、2001、Kluwer Academic Publishers、オランダに記載されるような実装である。ランダムフォレストは、本発明の範囲内の1つの説明的な機械学習アルゴリズムに過ぎず、本発明はランダムフォレストの使用に限定されるものではない。最近傍、決定木、サポートベクターマシン(SVM)、アダブースト、ベイジアンネットワーク、ディープラーニングネットワークを含む様々なニューラルネットワーク、進化的アルゴリズムなどを含むがこれらに限定されない、他の機械学習アルゴリズムも本発明の範囲に含まれる。機械学習アルゴリズムへの入力は特徴値(x)191であり、図1Cに関連して説明されたように、これらはディープラーニングネットワークから得られた身体部分の周囲長、身長、およびその他のユーザパラメータを備える。機械学習アルゴリズムの出力は、サイジング測定値(y)192の予想値である。
記載されたように、本明細書に記載される装置およびシステム(ならびにこれらの様々なコンポーネント)の実施形態は、本明細書に記載される1つ以上の特徴の自動化を促進するために人工知能(AI)を採用することができる(たとえば、身体抽出値の提供、身体セグメント化、測定値抽出など)。コンポーネントは、本明細書に開示された様々な実施形態/例を実行するために様々なAIベースのスキームを採用することができる。本明細書に記載される多数の決定(たとえば、判断、確認、推測、計算、予想、予測、推定、導出、予報、検出、算出)を提供または支援するために、本明細書に記載されるコンポーネントは、アクセスが許可されているデータの全体またはサブセットを調べることができ、イベントおよび/またはデータを介して補足された一連の観測から、システム、環境などの状態を推論または判断することができる。決定は、特定のコンテキストまたはアクションを識別するために採用されることが可能であり、またはたとえば状態にわたる確率分布を生成することができる。決定は確率的、すなわちデータおよびイベントの考慮に基づく対象の状態にわたる確率分布の計算であり得る。決定はまた、一連のイベントおよび/またはデータから高レベルのイベントを構成するために採用される技術を指すこともできる。
このような決定は、イベントが時間的に近接して相間していてもいなくても、ならびにイベントおよびデータが1つまたはいくつかのイベントおよびデータソースに由来していてもいなくても、一連の観測されたイベントおよび/または記憶されたイベントから新しいイベントまたはアクションの構築をもたらすことができる。本明細書で開示されるコンポーネントは、請求された主題に関連する自動的なおよび/または決定されたアクションを実行することに関連して、様々な分類((たとえば訓練データを介して)明確に訓練されると共に(たとえば挙動、嗜好、履歴情報、外部情報の受信などを介して)明確に訓練された)スキームおよび/またはシステム(たとえば、サポートベクターマシン、ニューラルネットワーク、エキスパートシステム、ベイジアン信念ネットワーク、ファジー論理、データフュージョンエンジンなど)を採用することができる。したがって、多数の機能、アクション、および/または決定を自動的に学習および実行するために、分類スキームおよび/またはシステムが使用され得る。
分類子は、入力属性ベクトルz=(z1、z2、z3、z4、...、zn)を、f(z)=信頼度(階級)のように、入力がある階級に属する信頼度にマッピングすることができる。このような分類は、自動的に実行すべきアクションを決定するために、確率的および/または統計ベースの分析(たとえば、分析ユーティリティおよびコストに組み込む)を採用してもよい。採用され得る分類子の別の例は、サポートベクターマシン(SVM)である。SVMは、可能性のある入力の空間内で超曲面を見つけることによって動作し、超曲面は、トリガ基準を非トリガイベントから分割しようと試みる。直感的に、これは、訓練データに近いが同一ではないデータを試験するために分類を補正する。他の有向および無向モデル分類アプローチは、異なるパターンの独立が採用され得るとすれば、たとえば、ナイーブベイズ、ベイジアンネットワーク、決定木、ニューラルネットワーク、ファジー論理モデル、および/または確率的分類モデルを含む。本明細書で使用される際の分類はまた、優先度のモデルを開発するために利用される統計的回帰を含む。
ディープラーニングネットワークおよび機械学習モジュールの訓練
図2は、本発明の例示的な実施形態による、身体測定値を生成する際に利用される、セグメント化DLN、注釈付けDLN、およびサイジングMLを訓練するための例示的なフロー図の図を示す。訓練プロセスはステップ201で始まる。ステップ202において、1つ以上の写真が受信される。たとえば、所与のユーザの正面および側面図写真が受信され得る。別の実施形態では、写真はユーザ装置(たとえば、携帯電話、ラップトップ、タブレットなど)から取得されてもよい。別の実施形態では、写真はデータベース(たとえば、ソーシャルメディアデータベース)から取得されてもよい。別の実施形態では、ユーザからの写真は、ユーザの全身の正面図を示す写真および側面図を示す写真を含む。
ステップ204において、アノテータは、人間の直感を用いて衣服の下の、身体部分などの身体特徴をセグメント化することができる。具体的には、身体セグメント化は、写真の背景から、衣服を除く人体を抽出するために、人間によって実行されてもよい。たとえば、人間のアノテータは、写真を視覚的に編集(たとえば、描画および色分け)し、背景から衣服を除く人体を抽出するために、どの身体部分が写真のどの部分に対応するかを示すことができる。一実施形態では、写真は両手を45度にして(「A姿勢」)、異なる衣服で異なる環境でポーズを取っている人間を含んでもよい。記載されたように、背景から手動で人間のアノテータによって、正確な身体輪郭線が描かれてもよい。特に経験豊富であって正確で信頼できる体型注釈付けを提供することができる熟練したアノテータによって、いかなる種類の衣服の下で撮影された人間の体型も決定することができる人間のアノテータの能力は、システムの高性能を保証する。身体輪郭線は、いずれの適切なソフトウェアプラットフォーム上で描かれてもよく、注釈付けを容易にするために周辺装置(たとえば、スマートペン)を使用してもよい。別の実施形態では、画像のプリントアウトが使用されてペン/鉛筆を用いて手動でセグメント化されてもよく、セグメント化されたプリントアウトは、1つ以上のAIアルゴリズム(たとえば、コンピュータビジョンベースのアルゴリズム)を使用するシステムによってスキャンおよび認識されてもよい。さらに、このようなセグメント化された画像の少なくとも一部は、ステップ208でディープラーニングネットワークに供給され得る訓練データとして使用され得るので、GPUは、あらゆる背景であらゆる衣服を着ているA姿勢の人間の輪郭線から学習することができる。別の実施形態では、セグメント化された身体特徴は、たとえば、既知の3Dモデルから生成された、または別のディープラーニングネットワークを含む別のアルゴリズムを使用して別途生成された、別の訓練データから、自動的に決定されてもよい。セグメント化DLNを訓練する方法は、本発明の限定ではない。一実施形態では、ステップ204からのセグメント化された画像は、図1Aのステップ106で使用されたセグメント化DLNを訓練するために利用される。
ステップ205において、アノテータはその後、人間の直感を用いて衣服の下の各身体特徴について推定された注釈(測定)線を引くことができる。記載されたように、背景から手動で人間のアノテータによって、正確な注釈線が描かれてもよい。特に経験豊富であって正確で信頼できる体型注釈付けを提供することができる熟練したアノテータによって、いかなる種類の衣服の下で撮影された人間の正しい注釈線も決定することができる人間の作業者の能力は、システムの高性能を保証する。注釈線は、いずれの適切なソフトウェアプラットフォーム上で描かれてもよく、注釈付けを容易にするために周辺装置(たとえば、スマートペン)を使用してもよい。別の実施形態では、画像のプリントアウトが使用されてペン/鉛筆を用いて手動で注釈付けされてもよく、注釈付けされたプリントアウトは、1つ以上のAIアルゴリズム(たとえば、コンピュータビジョンベースのアルゴリズム)を使用するシステムによってスキャンおよび認識されてもよい。さらに、このような注釈付けされた画像の少なくとも一部は、以下のステップ210でディープラーニングネットワークに供給され得る訓練データとして使用され得るので、GPUは、あらゆる背景であらゆる衣服を着ているA姿勢の人間の注釈線から学習することができる。別の実施形態では、身体特徴の注釈付けは、たとえば、既知の3Dモデルから生成された、または別のディープラーニングネットワークを含む別のアルゴリズムを使用して別途生成された、別の訓練データから、自動的に決定されてもよい。注釈付けDLN訓練する方法は、本発明の限定ではない。
上記のディープラーニングコンポーネントによって使用されるような任意の機械学習方法の開始点は、システム入力および正しい結果(たとえば、訓練データ)の複数の事例を含む文書化されたデータセットである。このデータセットは、機械学習システムを訓練して、訓練されたシステムの性能を評価および最適化するために、パラメトリック分類方法、非パラメトリック方法、決定木学習、ニューラルネットワーク、帰納的および分析的学習の両方を組み合わせた方法、および回帰モデルなどのモデリングアプローチなどの標準化された機械学習方法を含むがこれらに限定されない、当該技術分野で既知の方法を用いて、使用されることが可能である。機械学習システム出力の出力の品質は、(a)パターンのパラメータ化、(b)学習機械の設計、および(c)訓練データベースの質に依存する。これらのコンポーネントは、様々な方法を用いて精緻化および最適化され得る。たとえば、データベースは、新しい文書化された被験者のためのデータセットを追加することによって、精緻化されることが可能である。データベースの質は、たとえば衣類のカスタマイズにおける1人以上の専門家によってカスタマイズが達成された事例をデータベースに加えることによって、改良されることが可能である。こうして、データベースは、専門家の知識をより良く表すようになる。一実施形態では、データベースは、たとえばあまりフィットしていないデザインのデータを含み、これにより訓練されたシステムの評価を支援することができる。
ステップ206において、(たとえば、テーラー、または3Dボディスキャンから取られた1D測定値によって決定された)各身体特徴の実人間測定値は、グラウンドトゥルースデータとして役立つために受信され得る。実人間測定値は、検証データとして使用されてもよく、システムによって使用されるアルゴリズムを訓練するために使用されてもよい。たとえば、実人間測定値は、機械学習アルゴリズムに関連付けられた誤差関数または損失関数(平均二乗誤差、尤度損失、対数損失、ヒンジ損失など)を最小化する際に使用されてもよい。一実施形態では、ステップ205からの注釈線およびステップ206からのグラウンドトゥルースデータは、図1Aのステップ107およびサイジングMLステップ108で使用される注釈付けDLNを訓練するために利用される。
一実施形態では、人間測定値は、ユーザ入力(たとえば、スマートフォンなどのユーザ装置への入力)から受信され得る。別の実施形態では、人間測定値は、たとえばウェブサイトを通じて、ネットワーク(たとえば、インターネット)から受信されてもよい。たとえば、テーラーは1つ以上の測定値をウェブサイトにアップロードすることができ、システムは測定値を受信することができる。記載されたように、別の実施形態では、実測値は、以下で論じられる、AIベースのアルゴリズム結果(たとえば、ディープラーニングモデル)結果の精度を訓練および/または改善するために、使用され得る。セグメント化および注釈付けDLN、ならびにサイジングMLモジュールを訓練する方法は、本発明の限定ではない。
ステップ208において、セグメント化DLNは、身体セグメント化または身体特徴抽出について訓練され得る。一実施形態では、セグメント化DLNは、ステップ204から得られた注釈付き人体セグメント化を用いて訓練されてもよい。たとえば、セグメント化DLNは、ラベル付きデータ(たとえば、ユーザの画像および関連付けられた実際の身体セグメント化)を提示されてもよく、セグメント化DLNおよび実際の身体セグメント化の結果に基づいて(たとえば、上記で論じられたような損失関数から)誤差関数を決定することができる。セグメント化DLNは、この誤差関数の大きさを減らすように訓練されてもよい。
別の実施形態では、セグメント化DLNは、訓練およびテストセット(従来は2/3の訓練セットおよび1/3のテストセットの指定)内でデータ(たとえば、対応するセグメント化を有する画像、およびセグメント化DLNを使用してセグメント化を抽出する、対応するセグメント化を有していない画像を含む、全ての画像)を分割し得る、ホールドアウト法などの精度推定技術によって検証されてもよく、テストセット上のセグメント化DLNモデルの性能を評価してもよい。別の実施形態では、N倍交差検証法が使用されてもよく、この方法はデータをランダムにk個のサブセットに分割し、セグメント化DLNモデルを訓練するためにk−1個のデータのインスタンスが使用される一方、セグメント化DLNモデルの予測能力をテストするためにk番目のインスタンスが使用される。ホールドアウト法および公差検証法に加えて、データセットからの置き換えを伴ってn個のインスタンスをサンプリングするブートストラップ法が使用されてもよく、セグメント化DLNモデル精度を評価するために使用されることが可能である。
ステップ210において、各身体特徴について1つ以上の注釈付けDLNが訓練されてもよく、あるいは全身について単一の注釈付けDLNが訓練されてもよい。たとえば、16カ所の異なる身体部分に1つずつ、16個の注釈付けDLNが訓練されてもよい。一実施形態では、注釈付けDLNは、ステップ205から得られた注釈付けを用いて訓練されてもよい。たとえば、注釈付けDLNは、ラベル付きデータ(たとえば、線注釈を有するユーザの身体特徴の画像)を提示されてもよく、注釈付けDLNおよび実際の注釈付けの結果に基づいて(たとえば、上記で論じられたような損失関数から)誤差関数を決定することができる。注釈付けDLNは、この誤差関数の大きさを減らすように訓練されてもよい。
別の実施形態では、注釈付けDLNは、たとえば腕、脚、首などのような特定の身体部分など、特定の身体特徴について、特に注釈線を生成するように訓練されてもよい。別の実施形態では、各身体特徴についての注釈付けDLNの訓練は、連続して(たとえば階層的に、関連する身体特徴の群が次々と訓練される)、または並列に、実行され得る。別の実施形態では、異なる注釈付けDLNには異なる訓練データセットが使用されてもよく、異なる注釈付けDLNは異なる身体特徴または身体部分に対応する。一実施形態では、たとえば計算リソースに応じて、16カ所の身体部分に対して16個より多くのまたは少ないDLNがあってもよい。別の実施形態では、注釈付けDLNの訓練は、少なくとも部分的に、以下で説明されるクラウドで実行されてもよい。
また、ステップ210において、各身体特徴について1つ以上のサイジングMLモジュールが訓練されてもよく、あるいは全身について1つのサイジングMLモジュールが訓練されてもよい。一実施形態では、サイジングMLモジュールは、ステップ206から得られた測定値を用いて訓練されてもよい。たとえば、サイジングMLモジュールは、ラベル付きデータ(たとえば、注釈線の長さおよび関連付けられた実測値データ)を提示されてもよく、サイジングMLモジュールおよび実測値の結果に基づいて(たとえば、上記で論じられたような損失関数から)誤差関数を決定することができる。サイジングMLモジュールは、この誤差関数の大きさを減らすように訓練されてもよい。
別の実施形態では、サイジングMLモジュールは、たとえば腕、脚、首などのような特定の身体部分など、特定の身体特徴から特に測定値を抽出するように訓練されてもよい。別の実施形態では、各身体特徴についてのサイジングMLモジュールの訓練は、連続して(たとえば階層的に、関連する身体特徴の群が次々と訓練される)、または並列に、実行され得る。別の実施形態では、異なるサイジングMLモジュールには異なる訓練データセットが使用されてもよく、異なるサイジングMLモジュールは異なる身体特徴または身体部分に対応する。一実施形態では、たとえば計算リソースに応じて、16カ所の身体部分に対して16個より多くのまたは少ないサイジングMLモジュールがあってもよい。別の実施形態では、サイジングMLモジュールの訓練は、少なくとも部分的に、以下で説明されるクラウドで実行されてもよい。
ステップ212において、図1A、図1B、および図1Cで使用される、訓練されたセグメント化DLN、注釈付けDLN、およびサイジングMLモジュールが出力され得る。具体的には、ステップ208で訓練されたセグメント化DLNが、図1Aのステップ106で使用するために出力される。同様に、ステップ210で訓練された1つ以上の注釈付けDLNが、図1Aのステップ107で使用するために出力される。最後に、ステップ210で訓練されたサイジングMLモジュールが、図1Aのステップ108で使用するために出力される。
図3から図6は、セグメント化および注釈付けDLNを訓練するための訓練データを生成するために利用される、図2のプロセスステップに対応するグラフィカルユーザインターフェース(GUI)の説明図を示す。図3は、セグメント化DLNを訓練するために捕捉された、衣服を着ている人体を示すユーザ画像の説明図を示す。特定のユーザ姿勢である「A姿勢」が図3から図6に示されているが、A姿勢、両手を脇に置く、またはその他の姿勢など、いずれの姿勢も本発明の範囲に含まれることは、当業者によって理解されるだろう。最適な姿勢は、脚および腕を身体から離して明確に示すものである。本発明の1つの利点は、人間が、任意のタイプの背景に対してほとんどいずれの合理的な姿勢でも立つことができることである。人間は、空白の背景に対して立つ必要も、写真が撮影される場所について特別な配置をする必要もない。
図4は、セグメント化DLNを訓練するために背景から衣服の下の人体の1つ以上の特徴を手動でセグメント化するアノテータまたはオペレータの説明図を示す。図4において、アノテータは、衣服の下の左脚の位置を手動で注釈付けしている。人間は、他の人間を見て、衣服の下の彼らの体形を推定する豊富な経験を有しており、このデータは、未知の人間の新しい写真に対して類似の動作を自動的に実行するようにセグメント化DLNを訓練するために、使用される。図5は、全ての身体特徴がアノテータによって首尾よく注釈付けられた後に背景からセグメント化された人体の身体特徴の説明図を示す。このデータは、人間セグメント化DLNを訓練するために使用される。図5は、図2のステップ208でセグメント化DLNを訓練する際に使用される手動注釈付きデータを提供する。図5で得られたデータを用いて図2のステップ208で訓練されたセグメント化DLNはその後、図1Aのステップ106で使用される。
図6は、注釈付けDLNを訓練するために注釈線を手動で描くアノテータの説明図を示す。このデータは、各身体特徴について注釈線を自動的に描くための注釈付けDLNを訓練するために使用される。図6は、図2のステップ210で注釈付けDLNを訓練する際に使用される手動注釈付きデータを提供する。図6で得られたデータを用いて図2のステップ210で訓練された注釈付けDLNはその後、図1Aのステップ107で使用される。
図3から図6には正面図のみが示されているが、望ましい身体測定のタイプに応じて、正面図、45度図、上面図などを含むその他いずれの配向の図も本発明の範囲に含まれることを、当業者は認識するだろう。たとえば、一実施形態では、身体部分の周囲長を推定する際に使用するため、人間の側面図が同様にセグメント化および注釈付けされる。別の例として、カスタム帽子を製造するために使用される頭部測定には、人間の頭頂部の上面写真が最適であろう。同様に、眼鏡、光学器械などのサイジングに使用される顔測定には、正面の顔のみの写真が最適であろう。人間の手の前後のクローズアップ写真は、カスタム手袋、手のカスタムPPE(個人用保護具)、カスタムネイルなどのサイジングに使用されることが可能である。
一実施形態では、有向教師付き学習と同様に、計算プロセスにおいてディープラーニングネットワークを支援するために人間を展開させることもまた可能である。人間アノテータは、さらに正確なサイジング結果を配信するために、セグメント化DLNおよび/または注釈付けDLNからの結果を手動で調整、または編集することができる。ディープラーニングネットワークからセグメント化および注釈マップへ人間のアノテータによって作成された調整データは、経時的に自動的にDNLモデルを改良するために、ディープラーニングネットワークに戻るフィードバックループ内で使用されることが可能である。
代替のディープラーニングネットワーク(DLN)アーキテクチャ
図7は、本発明の一実施形態による、身体測定値抽出を実装するための説明的なクライアント−サーバ図を示す。クライアント側(ユーザ)709は上に示され、サーバ側703は下に示されている。クライアント側は702において、正面および側面画像を送信することによってプロセスを開始する。画像を受信した後、サーバは704において、フォーマットの正しさおよび他の形式的なチェックについて、画像をチェックする。705において画像が正しいフォーマットではないか、または誤った姿勢、不十分なコントラスト、遠すぎまたは近すぎ、被写体が目内、被写体が部分的に遮られているなど、他の形式的な問題を有する場合、プロセスは701でクライアントにこの情報を戻す。701において、一実施形態では、ユーザが画像を再撮影できるようにするために、エラーメッセージまたは他の通信がユーザに対して表示されてもよい。
705において画像が正しいフォーマットであって他の形式的な問題がない場合には、画像がDLN(ディープラーニングネットワーク)によって操作され得るように、706において画像は前処理される。画像はその後、前により詳細に説明されたように、708においてサイジングを決定するためにDLNを通じて処理される。サイジング結果または完全な身体測定値は、710においてサーバから返される。712においてクライアントはサイジング結果をチェックする。713で決定されるように、サイジング結果が、たとえば範囲外である、不当に小さいまたは大きいなど、何らかの形式的な問題を有する場合、プロセスは701に戻り、ユーザが画像を再撮影できるようにするために、同様にエラーメッセージまたは他の通信がユーザに対して表示されてもよい。713において決定されるように、サイジング結果が形式的な問題を有していない場合には、完全な身体測定値を使用可能としてプロセスは終了する。
図8は、本発明の一実施形態による、(個別のセグメント化DLN、注釈付けDLN、およびサイジングMLモジュールを使用する)身体測定値決定の1つの例示的なフロー図の図を示す。一実施形態では、802において正面および側面画像がユーザから受信される。画像は804において前処理される。先に論じられたように、いくつかの実施形態では、必要であれば、遠近補正など、ユーザの1つ以上の画像に対する前処理が、正面および側面図写真に対して実行されてもよい。たとえば、システムは、オープンソースのマシンビジョンライブラリであるOpenCVを使用してもよく、遠近補正の基準として正面および側面図写真における頭部の特徴およびユーザの身長を利用してもよい。1つ以上の画像をさらに前処理するために、様々なコンピュータビジョン技術が利用されてもよい。前処理ステップの例は、遠近補正に加えて、さらなる処理の前に1つ以上の画像の品質を向上させるための、コントラスト、照明、および他の画像処理技術を含み得る。
前処理の後、前処理された画像は、先に論じられたように、セグメント化マップを生成するために、806においてセグメント化DLNに送信される。814において、セグメント化マップは残りのデータと共に集約される。セグメント化と並行して、一実施形態では、先に論じられたように、808において、前処理された画像はまた、注釈測定線を生成するために注釈付けDLNにも送信される。814において、注釈マップは残りのデータと共に集約される。注釈マップは、一実施形態では、先に論じられたように、各注釈線を測定することによってセグメント化および注釈付けされた各身体特徴について身体特徴測定値を生成するために、サイジング機械学習(ML)モジュール810に提供される。814において、サイジング結果は残りのデータと共に集約される。サイジング結果は、本明細書で説明されるように812において様々な用途のために1つ以上の外部システムに出力される。最後に、集約および構築課されたデータの全て、すなわち814で集約された(1)前処理された正面および側面画像、(2)セグメント化マップ、(3)注釈マップ、および(4)サイジング結果は、1016におけるさらなるDLN訓練のためにデータベースに記憶される。
図9は、本発明の別の実施形態による、(セグメント化−注釈付けDLNおよびサイジングMLモジュールの組み合わせを使用する)身体測定値決定の別の例示的なフロー図の図を示す。先に論じられたように、正面および側面画像は902においてユーザから受信され、画像は904において前処理される。前処理ステップの例は、さらなる処理の前に1つ以上の画像の質を向上させるための、遠近補正、コントラスト、照明、および他の画像処理技術を含む。
前処理の後、前処理された画像は、先に論じられたように、注釈マップを生成するために、918において注釈付けDLNに直接送信される。身体特徴セグメント化を最初に実行する代わりに、この代替実施形態では、セグメント化DLNおよび注釈付けDLN(図8の実施形態に示される)の両方の特徴を効率的に組み合わせて図9に示される単一の注釈付けDLNにする、特別に訓練され組み合わせられたセグメント化−注釈付けDLNを使用して背景から身体特徴を明確にセグメント化することなく、画像上に直接注釈線が引かれる。実際には、身体特徴セグメント化は、注釈付けDLNによって黙示的に実行される。注釈マップは914において残りのデータと共に集約される。
注釈マップは、一実施形態では、先に論じられたように、各注釈線を測定することによって注釈付けされた各身体特徴について身体特徴測定値を生成するために、サイジング機械学習(ML)モジュール910に提供される。914において、サイジング結果は残りのデータと共に集約される。サイジング結果は、912において本明細書で説明されるように様々な用途のために1つ以上の外部システムに出力される。最後に、集約および構築課されたデータの全て、すなわち914で集約された(1)前処理された正面および側面画像、(2)注釈マップ、および(3)サイジング結果は、916においてさらなるDLN訓練のためにデータベースに記憶される。
図10は、本発明のさらに別の実施形態による、(組み合わせサイジングDLNを使用する)身体測定値決定のさらに別の例示的なフロー図の図を示す。先に論じられたように、正面および側面画像は1002においてユーザから受信され、画像は1004において前処理される。前処理ステップの例は、さらなる処理の前に1つ以上の画像の質を向上させるための、遠近補正、コントラスト、照明、および他の画像処理技術を含む。
前処理の後、前処理された画像は、先に論じられたように、完全な身体特徴測定値を生成するために、1010においてサイジングDLNに直接送信される。身体特徴セグメント化および測定線の注釈付け、これに続く線の測定を最初に実行する代わりに、この代替実施形態では、セグメント化DLN、注釈付けDLN、および測定機械学習モジュール(図8の実施形態に示される)の特徴を効率的に組み合わせて図10に示される単一のサイジングDLNにする、特別に訓練されたサイジングDLNを使用して、背景から身体特徴を明確にセグメント化することなく(注釈線を明確に引くこともなく)、前処理された画像から身体特徴が直接抽出される。実際には、身体特徴セグメント化および測定線の注釈付けは、サイジングDLNによって黙示的に実行される。
1014において、サイジング結果は残りのデータと共に集約される。サイジング結果は、本明細書で説明されるように1012において様々な用途のために1つ以上の外部システムに出力される。最後に、集約および構築課されたデータの全て、すなわち1014で集約された(1)前処理された正面および側面画像、および(2)サイジング結果は、1016においてさらなるDLN訓練のためにデータベースに記憶される。
3Dモデルおよび骨格/関節位置モデルの実施形態
図11は、本開示の例示的な実施形態による、身体測定値決定動作のための別の例示的なプロセスフローの図を示す。プロセスはステップ1101で始まる。ステップ1102において、ユーザパラメータ(たとえば、身長、体重、人口統計、運動歴など)がユーザから受信されてもよく、および/または電話カメラによって自動生成されたパラメータを受信してもよい。追加の態様では、ユーザパラメータは、(たとえば、コンピュータビジョンアルゴリズムを使用するかまたは1つ以上のデータベースからマイニングして)自動的に決定されてもよく、またはユーザから決定されてもよい(たとえば、ユーザ入力)。別の実施形態では、これらのパラメータから、肥満度指数(BMI)が計算されてもよい。記載されたように、BMI(または上記で決定された他の任意のパラメータ)は、身長に対して体重を較正するために使用され得る。
ステップ1104において、ユーザの画像(たとえば、ユーザの全身正面図および側面図を表す第1および第2の画像)が受信されてもよく、任意選択的な第3の画像が受信されてもよい(たとえば、正面図と側面図との間の45度図であり、後続のアルゴリズムの精度を向上させるために使用され得る)。別の実施形態では、画像はユーザ装置(たとえば、携帯電話、ラップトップ、タブレットなど)から取得されてもよい。別の実施形態では、画像はデータベース(たとえば、ソーシャルメディアデータベース)から決定されてもよい。別の実施形態では、ユーザは、より正確な結果のために、彼または彼女がタイト、普通、またはルーズな衣服を着ているか否かを示してもよい。いくつかの任意選択的な実施形態では、上述のように、必要であれば、正面および側面図写真に対して遠近補正が実行されてもよい。
ステップ1106において、人間セグメント化(たとえば、画像の背景からの人間の抽出)が実行されてもよく、抽出された人間に対して3Dモデルが適合されてもよい。また、三次元形状は、三次元モデリング技術を用いて推定されてもよい。一実施形態では、システムは、背景から衣服を含む人体を抽出するために、ディープラーニング技術および/またはOpenCVを利用してもよい。実際のユーザからのデータに対してこのステップを実行する前に、システムはまず、両手を45度にした状態(「A姿勢」)で、異なる衣服で異なる環境でポーズを取っている人間のサンプル写真について、訓練されていてもよい。
ステップ1108において、骨格検出を用いて人間の関節位置および体勢が決定され得る。さらに、決定は、姿勢検出のためのオープンソースアルゴリズムである、OpenPoseなどの姿勢推定アルゴリズムを用いて実行され得る。一実施形態では、身体姿勢推定は、画像ベースの観察を使用して、関節および硬質部分からなる関節体の姿勢を回復させる、アルゴリズムおよびシステムを含み得る。別の実施形態では、OpenPoseは、単一画像上の人体、手、顔、および足のキーポイント(合計135カ所のキーポイント)を共同で検出するためのリアルタイム多人数システムを含み得る。一実施形態では、キーポイントは、鼻、右耳、左膝、右足など、推定される人の姿勢の一部を指すことができる。キーポイントは、位置およびキーポイント信頼性スコアの両方を含む。OpenPose機能のさらなる態様は、2Dリアルタイム多人数キーポイント身体推定を含むが、これに限定されるものではない。機能は、アルゴリズムが、検出された人々の数に対して実行時に不変であるという能力をさらに含み得る。その機能の別の態様は、複数の単一ビューからの3D三角測量を含む、3Dリアルタイム1人キーポイントを含み得るが、これに限定されるものではない。
ステップ1110において、身体サイジング測定は、推定された三次元形状、関節位置、および/または体勢に基づいて決定され得る。別の実施形態では、システムは、身長、体重、および/またはその他のパラメータ(たとえば、BMI指数、年齢、性別など)を用いて身体部分のサイズを決定することができる。一実施形態では、システムは、部分的に、人体部分の標準的なDaVinciモデルおよび身体部分の相対的なサイズを提供するアルゴリズムである、Virtuosoアルゴリズムを使用することができる。
さらに、システムは、たとえば骨格点から得られた信号から測定線を引くことによって、上述のように、DLNアルゴリズムなどのAIベースのアルゴリズムを使用して、身体測定値を生成および抽出することができる。具体的には、システムは、1つ以上の骨格点を見て、ユーザの身体の境界に対して角度を成す骨を計算し、特定の配向または方向に測定線を引くことができる。各測定線は、身体部分ごとに異なってもよく、異なる描き方をされてもよい。システムはまた、他のアルゴリズム、手段、中央値、および他のリソースを使用してもよい。
さらに、身体測定値は、ユーザ装置および/または対応するサーバに出力されてもよい。一実施形態では、出力は、テキストメッセージ、電子メール、モバイルアプリケーションまたはウェブサイト上のテキスト記述、これらの組み合わせ、などの形態であってもよい。
ステップ1112において、身体サイジング測定は、訓練データを利用する教師付きディープラーニングアルゴリズムを使用することによって誤差を低減するように更新されてもよく、訓練データは衣服の下の手動で決定された身体検出を備える。いくつかの態様では、上述のように、ディープニューラルネットワーク、ディープビリーフネットワーク、およびリカレントニューラルネットワークなど、いずれの適切なディープラーニングアーキテクチャが使用されてもよい。一実施形態では、訓練データは、上述のように、写真の背景から、衣服を除く所与の写真から人体を抽出する、アノテータ入力から得られてもよい。さらに、このような注釈付き画像の少なくとも一部は、GPUが任意の背景で衣服を着ている人間の輪郭線から学習することができるように、ディープラーニングネットワークに供給され得る訓練データとして使用され得る。要するに、いくつかの実施形態では、3Dモデルおよび骨格/関節位置アプローチの精度および信頼性を改善するために、上述のディープラーニングアプローチは組み合わせて使用され得る。
本発明のハードウェア、ソフトウェア、およびクラウド実装
論じられたように、本開示を通して説明されているデータ(たとえば、写真、テキスト記述など)は、クラウドコンピューティングプラットフォーム上に記憶またはホストされたデータベース上に記憶されたデータを含むことができる。本開示は、以下のクラウドコンピューティングに関する詳細な説明を含むが、本明細書に列挙される教示の実装がクラウドコンピューティング環境に限定されるものではないことは、理解されるべきである。むしろ、本発明の実施形態は、現在知られているかまたは後に開発されるその他のタイプの計算環境と併せて実装されることが可能である。
クラウドコンピューティングは、最小限の管理努力またはサービスのプロバイダとの相互作用で迅速に供給またはリリースされることが可能な、構成可能計算リソース(たとえば、ネットワーク、ネットワーク帯域幅、サーバ、処理、メモリ、ストレージ、アプリケーション、仮想マシン、およびサービス)の共有プールへの便利なオンデマンドネットワークアクセスを可能にするための、サービス配信のモデルを指すことができる。このクラウドモデルは、少なくとも5つの特性、少なくとも3つのサービスモデル、および少なくとも4つの展開モデルを含むことができる。
特性は、以下のうちの1つ以上を含み得る。オンデマンドセルフサービス:クラウド消費者は、サービスのプロバイダとの人間の相互作用を必要とせずに必要に応じて自動的に、サーバ時間およびネットワークストレージなどの計算能力を一方的に提供することができる。ブロードネットワークアクセス:能力は、ネットワークを介して利用可能であり、均質な薄型または厚型クライアントプラットフォーム(たとえば、携帯電話、ラップトップ、およびPDA)による使用を促進する標準的な機構を通じてアクセスされる。リソースプーリング:需要に応じて動的に割り当ておよび再割り当てされた異なる物理リソースおよび仮想リソースを用いて、マルチテナントモデルを使用して複数の消費者にサービス提供するために、プロバイダの計算リソースがプールされる。消費者は一般的に提供されたリソースの正確な位置に関する制御または知識を持たないが、より高い抽象レベル(たとえば、国、州、またはデータセンター)で位置を指定できるという点において、位置独立性の感覚がある。高速弾性:急速にスケールアウトする能力が、場合により自動的に、高速かつ弾性的に供給され、急速にスケールインするために高速に解除されることが可能である。消費者にとって、供給のために利用可能な能力はしばしば無制限であるように見え、いつでも任意の量で購入できる。測定されたサービス:クラウドシステムは、サービスのタイプ(たとえば、ストレージ、処理、帯域幅、およびアクティブユーザアカウント)に適したいずれかの抽象レベルでの計測能力の影響力を行使することによって、リソース使用を自動的に制御および最適化する。リソース使用量が監視、制御、および報告され、利用サービスのプロバイダおよび消費者の両方に透明性を提供する。
別の実施形態では、サービスモデルは、以下のうちの1つ以上を含むことができる。サービスとしてのソフトウェア(SaaS:Software as a Service):消費者に提供される能力は、クラウドインフラストラクチャ上で実行されているプロバイダのアプリケーションを使用することである。アプリケーションは、ウェブブラウザ(たとえば、ウェブベースの電子メール)などの薄型クライアントインターフェースを通じて様々なクライアント装置からアクセス可能である。消費者は、限定されたユーザ固有のアプリケーション構成設定を例外とする可能性はあるが、ネットワーク、サーバ、オペレーティングシステム、ストレージ、または個々のアプリケーション能力を含む、基盤となるクラウドインフラストラクチャを管理または制御するものではない。
サービスとしてのプラットフォーム(PaaS:Platform as a Service):消費者に提供される能力は、プロバイダによってサポートされたプログラミング言語およびツールを使用して消費者が作成または取得したアプリケーションを、クラウドインフラストラクチャ上に展開することである。消費者は、ネットワーク、サーバ、オペレーティングシステム、またはストレージを含む基盤となるクラウドインフラストラクチャを管理も制御もしないが、展開されたアプリケーションおよび場合によりアプリケーションホスティング環境構成に対する制御を行う。
サービスとしてのインフラストラクチャ(IaaS:Infrastructure as a Service):消費者に提供される能力は、消費者が任意のソフトウェアを展開および実行することができる、処理、ストレージ、ネットワーク、および他の基本的な計算リソースを提供することであり、これはオペレーティングシステムおよびアプリケーションを含むことができる。消費者は、基盤となるクラウドインフラストラクチャを管理も制御もしないが、オペレーティングシステム、ストレージ、展開されたアプリケーション、および場合により選択ネットワーキングコンポーネント(たとえば、ホストファイアウォール)に対して限定された制御を行う。
展開モデルは、以下のうちの1つ上を含み得る。プライベートクラウド:クラウドインフラストラクチャは1つの組織のみのために動作する。これは組織または第三者によって管理されることが可能であり、オンプレミスまたはオフプレミスで存在することができる。
コミュニティクラウド:クラウドインフラストラクチャは、いくつかの組織によって共有されており、懸念(たとえば、ミッション、セキュリティ要件、ポリシー、およびコンプライアンスの考慮事項)を共有している特定のコミュニティをサポートする。これは組織または第三者によって管理されることが可能であり、オンプレミスまたはオフプレミスで存在することができる。
パブリッククラウド:クラウドインフラストラクチャは、一般の人々または大規模な業界団体によって利用可能とされ、クラウドサービスを販売する組織によって所有されている。
ハイブリッドクラウド:クラウドインフラストラクチャは、固有のエンティティのままであるが、データおよびアプリケーションの移植性(たとえば、クラウド間の負荷バランスのためのクラウドバースト)を可能にする標準化されたかまたは専用の技術によって結合された、2つ以上のクラウド(プライベート、コミュニティ、またはパブリック)の構成である。
クラウドコンピューティング環境は、無国籍、低結合、モジュール性、および意味相互運用性に重点を置いたサービス指向である。クラウドコンピューティングの中心部には、相互接続されたノードのネットワークを含むインフラストラクチャがある。
クラウドコンピューティング環境は1つ以上のクラウドコンピューティングノードを含むことができ、これを用いて、たとえばパーソナルデジタルアシスタント(PDA)または携帯電話、デスクトップコンピュータ、ラップトップコンピュータ、および/または自動車コンピュータシステムなど、クラウド消費者によって使用されるローカル計算装置が通信することができる。ノードは互いに通信できる。これらは、上記で説明されたようなプライベート、コミュニティ、パブリック、またはハイブリッドクラウドなどの1つ以上のネットワーク、またはこれらの組み合わせにおける、物理的または仮想的なグループであり得る。これにより、クラウドコンピューティング環境は、クラウド消費者がローカル計算装置上でリソースを維持する必要のないサービスとして、インフラストラクチャ、プラットフォーム、および/またはソフトウェアを提供できるようになる。計算装置のタイプは例示目的に過ぎないこと、ならびに計算ノードおよびクラウドコンピューティング環境は、任意のタイプのネットワークおよび/またはネットワークアドレス指定可能な接続を介して(たとえば、ウェブブラウザを使用して)任意のタイプのコンピュータ化デバイスと通信できることが、理解される。
本発明は、サーバベースのハードウェアおよびソフトウェアを使用して実装されてもよい。図12は、本発明の一実施形態を実装するためのサーバの説明的ハードウェアアーキテクチャ図を示す。本発明を曖昧にしないために、システムの多くのコンポーネント、たとえばネットワークインターフェースなどは示されていない。しかしながら、当業者は、システムが必然的にこれらのコンポーネントを含むことを理解するだろう。ユーザ装置は、メモリ1250に結合された少なくとも1つのプロセッサ1240を含むハードウェアである。プロセッサは1つ以上のプロセッサ(たとえば、マイクロプロセッサ)を表すことができ、メモリは、ハードウェアの主記憶装置、ならびにたとえばキャッシュメモリ、不揮発性またはバックアップメモリ(たとえばプログラマブルまたはフラッシュメモリ)、読み出し専用メモリなど任意の補助レベルのメモリを備える、ランダムアクセスメモリ(RAM)デバイスを表すことができる。加えて、メモリは、たとえばプロセッサ内のキャッシュメモリなど、ハードウェア内のどこか別の場所に物理的に配置されたメモリストレージ、ならびにたとえば大容量記憶装置上に記憶されたような、仮想メモリとして使用される任意の記憶容量を含むと見なされてもよい。
ユーザ装置のハードウェアはまた、通常、外部と情報を通信するための多数の入力1210および出力1220を受信する。ユーザとのインターフェースのため、ハードウェアは1つ以上のユーザ入力装置(たとえば、キーボード、マウス、スキャナ、マイクロフォン、ウェブカメラなど)およびディスプレイ(たとえば、液晶ディスプレイ(LCD)パネル)を含むことができる。追加のストレージのため、ハードウェアは、たとえばとりわけフロッピーまたは他のリムーバブルディスクドライブ、ハードディスクドライブ、直接アクセス記憶装置(DASD)、光学ドライブ(たとえばコンパクトディスク(CD)ドライブ、デジタル多用途ディスク(DVD)ドライブなど)、および/またはテープドライブなど、1つ以上の大容量記憶装置1290も含み得る。さらに、ハードウェアは、インターフェース、1つ以上の外部SQLデータベース1230、ならびにネットワークに結合された他のコンピュータとの情報の通信を可能にするための1つ以上のネットワーク1280(たとえば、とりわけローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、無線ネットワーク、および/またはインターネット)を含み得る。ハードウェアは通常、互いに通信するのに適したアナログおよび/またはデジタルインターフェースを含むことが、理解されるべきである。
ハードウェアは、オペレーティングシステム1270の制御下で動作し、上記で説明された方法、プロセス、および技術を実行するために、参照番号でまとめて示された、様々なコンピュータソフトウェアアプリケーション1260、コンポーネント、プログラム、コード、ライブラリ、オブジェクト、モジュールなどを実行する。
本発明は、クライアントサーバ環境で実装され得る。図13は、ライアントサーバ環境において本発明の一実施形態を実装するための説明的システムアーキテクチャを示す。クライアント側のユーザ装置1310は、スマートフォン1312、ラップトップ1314、デスクトップPC1316、タブレット1318、または他の装置を含み得る。このようなユーザ装置1310は、インターネットなど、何らかのネットワーク接続1320を通じてシステムサーバ1330のサービスにアクセスする。
本発明のいくつかの実施形態では、システム全体が実装され、いわゆるクラウド実装において、インターネットを介してエンドユーザおよびオペレータに提供され得る。ソフトウェアまたはハードウェアのローカルインストールは必要とされず、エンドユーザおよびオペレータは、クライアント上のウェブブラウザまたは類似のソフトウェアのいずれかを使用して、インターネットを通じて直接本発明のシステムにアクセスすることができ、このクライアントはデスクトップ、ラップトップ、モバイル装置などであり得る。これにより、クライアント側でカスタムソフトウェアをインストールする必要はなくなり、サービスの配信の柔軟性を向上させ(サービスとしてのソフトウェア)、ユーザの満足度および使いやすさを向上させる。本発明の様々なビジネスモデル、収益モデル、および配信機構が想定され、これらは全て本発明の範囲内であると見なされるべきである。
一般に、本発明の実施形態を実装するために実行される方法は、オペレーティングシステムまたは特定のアプリケーション、コンポーネント、プログラム、オブジェクト、モジュール、もしくは「コンピュータプログラム」または「コンピュータコード」と称される一連の命令の一部として実装され得る。コンピュータプログラムは通常、コンピュータ内の様々なメモリおよび記憶装置内に様々な時点で設定された1つ以上の命令を備え、この命令は、コンピュータ内の1つ以上のプロセッサによって読み取られて実行されると、本発明の様々な態様を伴う要素を実行するのに必要な動作をコンピュータに実行させる。また、本発明は、コンピュータおよびコンピュータシステムを完全に機能させる文脈で説明されてきたが、当業者は、本発明の様々な実施形態が多様な形態のプログラム製品として配布され得ること、ならびに実際に配布を行うために使用される特定のタイプの機械またはコンピュータ可読媒体に関係なく本発明が等しく適用されることを、理解するだろう。コンピュータ可読媒体の例は、揮発性および不揮発性メモリ装置、フロッピーおよび他のリムーバブルディスク、ハードディスクドライブ、光学ディスク(たとえば、コンパクトディスク読み出し専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)など)、およびデジタルおよびアナログ通信媒体など、記録可能なタイプの媒体を含むが、これらに限定されるものではない。
本発明の使用事例の例
図14は、通常の背景に対して立っている典型的な衣服の人間の正面図を示す、人体測定値を捕捉するためにモバイル装置上の単一のカメラが使用される、本発明の使用事例の説明図を示す。図14に示されるモバイル装置は、少なくとも1つのカメラ、プロセッサ、非一時的記憶媒体、およびサーバとの通信リンクを備える。一実施形態では、ユーザの身体の1つ以上の写真が、本明細書に記載される動作を実行するサーバに送信される。一実施形態では、ユーザの身体の1つ以上の写真は、モバイル装置のプロセッサによってローカルに分析される。実行された動作は1つ以上の身体測定値を返し、これはサーバ上に記憶されると共に、ユーザに提示されてもよい。加えて、身体測定値はその後、1つ以上のカスタム衣類、カスタム眼鏡、カスタム手袋、カスタムボディスーツ、カスタムPPE(個人用保護具)、カスタム帽子、カスタム食事療法、カスタム運動、ジム、およびトレーニングルーチンなどを含むがこれらに限定されない、多くの目的のために利用され得る。一般性を失うことなく、身体測定値は、身体測定値が有用である任意の目的のために出力、送信、および/または利用されることが可能である。
最後に、図15から図21は、本発明のいくつかの実施形態が実装されている、説明的なモバイルグラフィカルユーザインターフェース(GUI)を示す。図15は、本発明の一実施形態による、正面図写真を捕捉するためのユーザ命令を示すモバイル装置GUIの説明図を示す。図16は、本発明の一実施形態による、身長(および任意選択的に体重、年齢など他の人口統計情報)を入力し、好みのフィットスタイル(タイト、普通、またはルーズフィット)を選択するようにユーザに要求する、モバイル装置GUIの説明図を示す。図17は、本発明の一実施形態による、正面図写真を捕捉するためのモバイル装置GUIの説明図を示す。図18は、本発明の一実施形態による、説明用のA姿勢が点線で示された、正面図写真を捕捉するためのモバイル装置GUIの別の説明図を示す。図19は、本発明の一実施形態による、側面図写真を捕捉するためのモバイル装置GUIの説明図を示す。図20は、本発明の一実施形態による、身体測定値を抽出するためにシステムが写真を処理している間に表示されるモバイル装置GUIの説明図を示す。最後に、図21は、本発明の一実施形態による、身体測定値が首尾よく抽出されたときの通知画面を示すモバイル装置GUIの説明図を示す。
本発明は首尾よく実施され、人間のテーラーに対して1cm未満の精度の身体測定値をもたらした。システムは、2つの写真のみを使用して、人間のテーラーに匹敵する精度を達成することができる。システムは、いかなる特殊化されたハードウェアセンサの使用も必要とせず、ユーザが特殊な背景に対して立つ必要もなく、特殊な照明も必要とせず、任意の距離で撮影した写真も使用でき、任意のタイプの衣類を着用するユーザでも使用できる。その結果、誰でも簡単に自分の写真を撮ることができ、自動全身測定値抽出の恩恵を受けることができるように、任意のモバイル装置でも利用できる身体測定システムができる。
当業者は、使用事例、構造、概略図、およびフロー図が他の順序または組み合わせで実行されてもよく、それでもなお本発明の発明的概念は本発明のより広い範囲から逸脱しないままであることを知っている。全ての実施形態は独特であり、全てのユーザが本発明の方法を実践するのに適合するように、方法/ステップは短縮または延長され、他の動作と重複し、遅延し、時間差後に継続することが可能である。
本発明は特定の例示的な実施形態を参照して説明されたが、本発明のより広い範囲から逸脱することなくこれらの実施形態に対して様々な修正および変更を加えることができることは、明らかであろう。したがって、明細書および図面は、限定的な意味ではなく説明的な意味で見なされるべきである。上述の実施形態が、教示された単一の説明のどれよりも広い範囲を有するであろう単一のより広い発明の具体例であることもまた、当業者には明らかであろう。本発明の範囲から逸脱することなく、説明において多くの変更が加えられてもよい。

Claims (20)

  1. 人間の身体サイズ測定値を生成するためのコンピュータにより実行される方法であって、
    ユーザ装置から1つ以上のユーザパラメータを受信するステップと、
    前記ユーザ装置から少なくとも1つの画像を受信するステップであって、前記少なくとも1つの画像は前記人間および背景を含む、ステップと、
    前記背景から前記人間に関連付けられた1つ以上の身体特徴を抽出するため前記少なくとも1つの画像に対して身体セグメント化を実行するステップであって、前記身体セグメント化はセグメント化訓練データについて訓練されてきたセグメント化ディープラーニングネットワークを利用する、ステップと、
    身体特徴測定値に対応する各身体特徴上に注釈線を注釈するために前記抽出された身体特徴に対して身体特徴注釈付けを実行するステップであって、前記身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、前記注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと、
    前記注釈付き身体特徴および前記1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、前記1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと、
    各抽出された身体特徴について前記身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、
    を備える方法。
  2. 前記セグメント化訓練データは、1人以上のサンプル人間についての1つ以上の画像と、前記1人以上のサンプル人間の各身体特徴についての手動で決定された身体特徴セグメント化とを備える、請求項1に記載の方法。
  3. 前記手動で決定された身体特徴セグメント化は衣服の下で抽出され、前記セグメント化訓練データは、アノテータによって前記衣服の下の前記人間の身体を推定する手動で決定された身体セグメント化を備える、請求項2に記載の方法。
  4. 各身体特徴上の前記注釈線は、所与の身体特徴測定値に対応する1つ以上の線分を備え、
    前記1つ以上の注釈付き身体特徴から前記身体特徴測定値を生成する前記ステップは、各身体特徴上の前記注釈線を利用する、請求項1に記載の方法。
  5. 前記少なくとも1つの画像は、少なくとも前記人間の正面図画像および側面図画像を備え、前記方法は、身体特徴注釈付けを実行する前記ステップの後に、
    前記人間の線注釈付き正面図および側面図画像ならびに身長を利用して少なくとも1つの注釈付き身体特徴の少なくとも1つの周囲長を計算するステップと、
    前記少なくとも1つの周囲長、前記身長、および前記1つ以上のユーザパラメータに基づいて前記サイジング機械学習モジュールを利用して、前記少なくとも1つの周囲長から前記身体特徴測定値を生成するステップと、
    をさらに備える、請求項1に記載の方法。
  6. 前記サイジング機械学習モジュールはランダムフォレストアルゴリズムを備え、
    前記サイジング機械学習モジュールは、1人以上のサンプル人間についての1つ以上のサンプル身体サイズ測定値を備えるグラウンドトゥルースデータについて訓練される、請求項1に記載の方法。
  7. 前記1つ以上のユーザパラメータは、身長、体重、性別、年齢、および人口統計情報からなる群より選択される、請求項1に記載の方法。
  8. 前記ユーザ装置から前記1つ以上のユーザパラメータを受信する前記ステップは、前記ユーザ装置を通じて1つ以上のユーザパラメータのユーザ入力を受信するステップを備える、請求項7に記載の方法。
  9. 前記ユーザ装置から1つ以上のユーザパラメータを受信する前記ステップは、前記ユーザ装置によって実行された測定値を受信するステップを備える、請求項7に記載の方法。
  10. 前記少なくとも1つの画像は、前記人間の正面図画像および前記人間の側面図画像からなる群より選択される、請求項1に記載の方法。
  11. 前記少なくとも1つの画像は、前記人間の前記正面図画像に対して45度の角度で撮影された前記人間の追加画像をさらに備える、請求項10に記載の方法。
  12. 前記少なくとも1つの画像に対して前記身体セグメント化を実行する前記ステップは、前記身体セグメント化の精度を向上させるためにユーザ入力を受信するステップをさらに備え、
    前記ユーザ入力は、前記人間の身体の所与の領域に対応する前記抽出された身体特徴の1つ以上の部分のユーザ選択を備える、請求項1に記載の方法。
  13. 前記少なくとも1つの画像は、完全着衣のユーザまたは部分着衣のユーザの少なくとも1つの画像を備え、
    身体特徴測定値を生成する前記ステップは、前記完全着衣のユーザまたは前記部分着衣のユーザの前記少なくとも1つの画像上で前記身体特徴測定値を生成するステップをさらに備える、請求項1に記載の方法。
  14. 前記身体サイズ測定値は第1身体サイズ測定値を備え、
    前記方法は、第2の機械学習モジュールを使用して第2身体サイズ測定値を生成するステップをさらに備え、
    前記第2身体サイズ測定値の精度は前記第1身体サイズ測定値の精度よりも高い、請求項1に記載の方法。
  15. 前記抽出された身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと、
    前記所与の身体特徴測定値が前記所定値未満の信頼性レベルに対応するという判断に応答して、
    前記人間の適合3Dモデルを決定するために前記抽出された身体特徴に対して3Dモデル適合モジュールを使用する3Dモデル適合を実行するステップであって、前記3Dモデル適合モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、
    前記適合3Dモデルに基づいて身体特徴測定を実行するステップと、
    前記所与の身体特徴測定値を前記適合3Dモデルからの予測された身体特徴測定値と置き換えるステップと、
    をさらに備える、請求項1に記載の方法。
  16. 前記抽出された身体特徴の所与の身体特徴測定値が所定値未満の信頼性レベルに対応するか否かを判断するステップと、
    前記所与の身体特徴測定値が前記所定値未満の信頼性レベルに対応するという判断に応答して、
    前記人間の関節位置を判断するために前記抽出された身体特徴に対して骨格検出モジュールを使用して骨格検出を実行するステップであって、前記骨格検出モジュールを案内するために1つ以上の高信頼性身体特徴測定値が使用される、ステップと、
    前記判断された関節位置に基づいて身体特徴測定を実行するステップと、
    前記所与の身体特徴測定値を前記骨格検出モジュールからの予測された身体特徴測定値と置き換えるステップと、
    をさらに備える、請求項1に記載の方法。
  17. 前記身体セグメント化を実行する前に、前記人間および前記背景の前記少なくとも1つの画像を前処理するステップをさらに備え、
    前記前処理は、前記少なくとも1つの画像に対する少なくとも遠近補正を備え、
    前記遠近補正は、前記人間の頭部を利用する遠近補正、前記ユーザ装置のジャイロスコープを利用する遠近補正、および前記ユーザ装置の別のセンサを利用する遠近補正からなる群より選択される、請求項1に記載の方法。
  18. 人間の身体サイズ測定値を生成するためのコンピュータプログラムであって、その中で実現されるプログラム命令またはプログラムコードを有する非一時的なコンピュータ可読記憶媒体を備え、前記プログラム命令はプロセッサに、
    ユーザ装置から1つ以上のユーザパラメータを受信するステップと、
    前記ユーザ装置から少なくとも1つの画像を受信するステップであって、前記少なくとも1つの画像は前記人間および背景を含む、ステップと、
    前記背景から前記人間に関連付けられた1つ以上の身体特徴を抽出するために前記少なくとも1つの画像上で身体セグメント化を実行するステップであって、前記身体セグメント化は、セグメント化訓練データについて訓練されてきたセグメント化ディープラーニングネットワークを利用する、ステップと、
    身体特徴測定値に対応する各身体特徴上に注釈線を描画するために前記抽出された身体特徴に対して身体特徴注釈付けを実行するステップであって、前記身体特徴注釈付けは、注釈付け訓練データについて訓練されてきた注釈付けディープラーニングネットワークを利用し、前記注釈付け訓練データは、1つ以上のサンプル身体特徴についての1つ以上の画像および各身体特徴についての注釈線を備える、ステップと、
    前記注釈付き身体特徴および前記1つ以上のユーザパラメータに基づいてサイジング機械学習モジュールを利用して、前記1つ以上の注釈付き身体特徴から身体特徴測定値を生成するステップと、
    各身体特徴について前記身体特徴測定値を集約することによって身体サイズ測定値を生成するステップと、
    を実行させるために前記プロセッサによって実行可能である、コンピュータプログラム
  19. 各身体特徴上の前記注釈線は、所与の身体特徴測定値に対応する1つ以上の線分を備え、
    前記1つ以上の注釈付き身体特徴から前記身体特徴測定値を生成する前記ステップは、各身体特徴上の前記注釈線を利用する、請求項18に記載のコンピュータプログラム
  20. 前記少なくとも1つの画像は、少なくとも前記人間の正面図画像および側面図画像を備え、前記プログラム命令は前記プロセッサに、
    前記人間の線注釈付き正面図および側面図画像ならびに身長を利用して少なくとも1つの注釈付き身体特徴の少なくとも1つの周囲長を計算するステップと、
    前記少なくとも1つの周囲長、前記身長、および前記1つ以上のユーザパラメータに基づいて前記サイジング機械学習モジュールを利用して、前記少なくとも1つの周囲長から前記身体特徴測定値を生成するステップと、
    をさらに実行させるために前記プロセッサによって実行可能である、請求項18に記載のコンピュータプログラム
JP2019535333A 2018-04-20 2019-04-15 全身測定値抽出のためのシステムおよび方法 Active JP6799302B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862660377P 2018-04-20 2018-04-20
US62/660,377 2018-04-20
US16/195,802 2018-11-19
US16/195,802 US10321728B1 (en) 2018-04-20 2018-11-19 Systems and methods for full body measurements extraction
PCT/US2019/027564 WO2019204235A1 (en) 2018-04-20 2019-04-15 Systems and methods for full body measurements extraction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020160972A Division JP7075085B2 (ja) 2018-04-20 2020-09-25 全身測定値抽出のためのシステムおよび方法

Publications (2)

Publication Number Publication Date
JP2020522285A JP2020522285A (ja) 2020-07-30
JP6799302B2 true JP6799302B2 (ja) 2020-12-16

Family

ID=66825815

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019535333A Active JP6799302B2 (ja) 2018-04-20 2019-04-15 全身測定値抽出のためのシステムおよび方法
JP2020160972A Active JP7075085B2 (ja) 2018-04-20 2020-09-25 全身測定値抽出のためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020160972A Active JP7075085B2 (ja) 2018-04-20 2020-09-25 全身測定値抽出のためのシステムおよび方法

Country Status (6)

Country Link
US (3) US10321728B1 (ja)
EP (1) EP3781022A4 (ja)
JP (2) JP6799302B2 (ja)
CN (2) CN114419677A (ja)
CA (1) CA3097712C (ja)
WO (1) WO2019204235A1 (ja)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568627B2 (en) 2015-11-18 2023-01-31 Adobe Inc. Utilizing interactive deep learning to select objects in digital visual media
US10192129B2 (en) 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10565729B2 (en) * 2017-12-03 2020-02-18 Facebook, Inc. Optimizations for dynamic object instance detection, segmentation, and structure mapping
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US10692183B2 (en) * 2018-03-29 2020-06-23 Adobe Inc. Customizable image cropping using body key points
US11244195B2 (en) 2018-05-01 2022-02-08 Adobe Inc. Iteratively applying neural networks to automatically identify pixels of salient objects portrayed in digital images
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
KR20200044198A (ko) * 2018-10-10 2020-04-29 (주)필링크아이 딥 러닝 기반의 의상 스타일 평가 방법 및 시스템
CN115512173A (zh) 2018-10-11 2022-12-23 特斯拉公司 用于使用增广数据训练机器模型的系统和方法
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11138785B2 (en) * 2018-12-07 2021-10-05 Electronics And Telecommunications Research Institute Method and system for generating 3D image of character
US10489683B1 (en) 2018-12-17 2019-11-26 Bodygram, Inc. Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US11282208B2 (en) * 2018-12-24 2022-03-22 Adobe Inc. Identifying target objects using scale-diverse segmentation neural networks
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
CN109730704B (zh) * 2018-12-29 2022-11-01 上海联影智能医疗科技有限公司 一种控制医用诊疗设备曝光的方法及系统
WO2020141800A1 (ko) * 2019-01-03 2020-07-09 주식회사 미즈 이미지를 이용하여 신체 사이즈를 측정하고, 의류 사이즈를 추천하는 방법, 서버 및 프로그램
WO2020141751A1 (ko) * 2019-01-03 2020-07-09 주식회사 미즈 신체 사이즈 측정용 사진 획득 방법 및 이를 이용한 신체 사이즈 측정 방법, 서버 및 프로그램
WO2020145983A1 (en) * 2019-01-11 2020-07-16 Hewlett-Packard Development Company, L.P. Local defect determinations
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11559097B2 (en) * 2019-03-16 2023-01-24 Short Circuit Technologies Llc System and method of ascertaining a desired fit for articles of clothing utilizing digital apparel size measurements
US11381651B2 (en) * 2019-05-29 2022-07-05 Adobe Inc. Interpretable user modeling from unstructured user data
US11423630B1 (en) 2019-06-27 2022-08-23 Amazon Technologies, Inc. Three-dimensional body composition from two-dimensional images
US11861867B2 (en) * 2019-07-09 2024-01-02 Gentex Corporation Systems, devices and methods for measuring the mass of objects in a vehicle
TWI696193B (zh) * 2019-07-22 2020-06-11 陳賢鴻 身形變化預測系統
US11257191B2 (en) * 2019-08-16 2022-02-22 GE Precision Healthcare LLC Systems and methods for deblurring medical images using deep neural network
US11232629B1 (en) 2019-08-30 2022-01-25 Amazon Technologies, Inc. Two-dimensional image collection for three-dimensional body composition modeling
US11903730B1 (en) * 2019-09-25 2024-02-20 Amazon Technologies, Inc. Body fat measurements from a two-dimensional image
JP2021056571A (ja) * 2019-09-27 2021-04-08 国立大学法人 東京大学 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN110852162B (zh) * 2019-09-29 2020-10-23 深圳云天励飞技术有限公司 一种人体完整度数据标注方法、装置及终端设备
EP4036863A4 (en) * 2019-09-30 2023-02-08 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND SYSTEM FOR RECONSTRUCTION OF THE HUMAN BODY MODEL AND STORAGE MEDIUM
JP7355588B2 (ja) * 2019-10-04 2023-10-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 学習装置、学習方法、学習プログラム
FR3101989A1 (fr) * 2019-10-11 2021-04-16 Asmodine Fourniture d’une recommandation d’au moins un vetement parmi un catalogue numerique d’une pluralite de vetements
CN110866550B (zh) * 2019-11-01 2022-06-14 云南大学 卷积神经网络、金字塔条状池化方法及恶意软件分类方法
IT201900021252A1 (it) * 2019-11-15 2021-05-15 Tresarti S R L Sistema e metodo per la stima delle misure corporee di un utente, particolarmente per la produzione di abbigliamento su misura.
US11222434B2 (en) * 2019-11-21 2022-01-11 Shopify Inc. Systems and methods for measuring body size
US10769807B1 (en) * 2019-11-25 2020-09-08 Pet3D Corp System, method, and apparatus for clothing a pet
US11790438B2 (en) * 2019-12-05 2023-10-17 Fitnonce, Inc. System and method for identifying fit of apparel on a user
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111292341B (zh) * 2020-02-03 2023-01-03 北京海天瑞声科技股份有限公司 图像标注方法、图像标注装置及计算机存储介质
US20230126178A1 (en) * 2020-02-13 2023-04-27 Northeastern University Light-Weight Pose Estimation Network With Multi-Scale Heatmap Fusion
JP7282704B2 (ja) * 2020-02-25 2023-05-29 エヌ・ティ・ティ・コムウェア株式会社 個体推定装置、個体推定方法、およびプログラム
KR102268801B1 (ko) * 2020-03-05 2021-06-24 (주)헬스허브 의료영상을 통한 신체 사이즈의 시계열적 변화 추정 장치 및 그 방법
CN111461017B (zh) * 2020-04-01 2024-01-19 杭州视在科技有限公司 一种用于城市级规模的餐饮后厨工作服高精度识别方法
US11367254B2 (en) * 2020-04-21 2022-06-21 Electronic Arts Inc. Systems and methods for generating a model of a character from one or more images
CN111629212B (zh) * 2020-04-30 2023-01-20 网宿科技股份有限公司 一种对视频进行转码的方法和装置
CN111289076B (zh) * 2020-05-13 2020-08-21 成都泰盟软件有限公司 自动采集人体基础数据的人体生理实验系统
EP3951715A1 (en) * 2020-08-05 2022-02-09 Canon Kabushiki Kaisha Generation apparatus, generation method, and program
US11335004B2 (en) 2020-08-07 2022-05-17 Adobe Inc. Generating refined segmentation masks based on uncertain pixels
KR20220029247A (ko) * 2020-09-01 2022-03-08 삼성전자주식회사 전자 장치 및 이의 제어 방법
US20230316046A1 (en) * 2020-09-17 2023-10-05 Bodygram, Inc. Evaluation and training of machine learning modules without corresponding ground truth data sets
CN112401369A (zh) * 2020-11-23 2021-02-26 叠境数字科技(上海)有限公司 基于人体重建的身体参数测量方法、系统、设备、芯片及介质
US11676279B2 (en) 2020-12-18 2023-06-13 Adobe Inc. Utilizing a segmentation neural network to process initial object segmentations and object user indicators within a digital image to generate improved object segmentations
GB2602163A (en) * 2020-12-21 2022-06-22 Jonple Group Ltd System for determining body measurements from images
CN112733671A (zh) * 2020-12-31 2021-04-30 新大陆数字技术股份有限公司 行人检测方法、装置及可读存储介质
USD999226S1 (en) * 2021-01-14 2023-09-19 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
USD999225S1 (en) * 2021-01-14 2023-09-19 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with an animated graphical user interface
CN112783949B (zh) * 2021-01-29 2024-04-09 北京百度网讯科技有限公司 人体数据预测方法、装置、电子设备和存储介质
US11373352B1 (en) * 2021-03-04 2022-06-28 Meta Platforms, Inc. Motion transfer using machine-learning models
US11875510B2 (en) 2021-03-12 2024-01-16 Adobe Inc. Generating refined segmentations masks via meticulous object segmentation
CA3226737A1 (en) * 2021-04-05 2022-10-13 Advanced Health Intelligence Ltd. Predicting user body volume to manage medical treatments and medication
WO2022216973A1 (en) * 2021-04-08 2022-10-13 Universal City Studios Llc Guest measurement systems and methods
JP7167241B1 (ja) * 2021-04-28 2022-11-08 ジーイー・プレシジョン・ヘルスケア・エルエルシー 学習済みモデル生成方法、処理装置、および記憶媒体
US20240013415A1 (en) * 2021-05-11 2024-01-11 Tam Technologies, Inc. Methods and systems for representing a user
CN113095338B (zh) * 2021-06-10 2021-11-09 季华实验室 工业品图像的自动标注方法、装置、电子设备和存储介质
US11854146B1 (en) 2021-06-25 2023-12-26 Amazon Technologies, Inc. Three-dimensional body composition from two-dimensional images of a portion of a body
US20230005231A1 (en) * 2021-07-02 2023-01-05 Viettel Group System and method for reconstructing a 3d human body from anthropometric measurements
US11961198B2 (en) * 2021-07-20 2024-04-16 Dhana Inc. System and method for improved generation of avatars for virtual try-on of garments
US11887252B1 (en) 2021-08-25 2024-01-30 Amazon Technologies, Inc. Body model composition update from two-dimensional face images
KR102625576B1 (ko) * 2021-09-14 2024-01-16 김봉건 고객 맞춤형 추천 안경 제공 시스템
US11861860B2 (en) 2021-09-29 2024-01-02 Amazon Technologies, Inc. Body dimensions from two-dimensional body images
US20230237768A1 (en) * 2022-01-21 2023-07-27 CurioSearch DBA Materiall Method of identifying similars in clothing images
EP4215106A1 (en) 2022-01-25 2023-07-26 Jaes Informatica Societa'Cooperativa Apparatus for the automatic detection of anthropometric measurements and for the determination of sizes of items of clothing on the basis of said measurement, and corresponding method

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956525A (en) 1997-08-11 1999-09-21 Minsky; Jacob Method of measuring body measurements for custom apparel manufacturing
US6490534B1 (en) 2000-04-25 2002-12-03 Henry Pfister Camera measurement system
US6968075B1 (en) * 2000-05-09 2005-11-22 Chang Kurt C System and method for three-dimensional shape and size measurement
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
WO2008130905A2 (en) * 2007-04-17 2008-10-30 Mikos, Ltd. System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
BRPI0917864A2 (pt) 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
NL1037949C2 (nl) 2010-05-10 2011-11-14 Suitsupply B V Werkwijze voor het op afstand bepalen van kledingmaten.
US8908928B1 (en) 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US9292967B2 (en) 2010-06-10 2016-03-22 Brown University Parameterized model of 2D articulated human shape
WO2012075298A2 (en) 2010-12-01 2012-06-07 Cornell University Body shape analysis method and system
GB201102794D0 (en) 2011-02-17 2011-03-30 Metail Ltd Online retail system
GB201209382D0 (en) * 2012-05-25 2012-07-11 Poikos Ltd Body measurement
WO2014037939A1 (en) * 2012-09-05 2014-03-13 Body Pass Ltd. System and method for deriving accurate body size measures from a sequence of 2d images
GB201215944D0 (en) * 2012-09-06 2012-10-24 Univ Manchester Image processing apparatus and method for fittng a deformable shape model to an image using random forests
ITBO20120628A1 (it) 2012-11-16 2014-05-17 In Pro Di Inghirami Produzione Dist Ribuzione S P Procedimento e sistema per la realizzazione di capi di abbigliamento su misura.
US9489743B2 (en) 2013-03-13 2016-11-08 Mecommerce, Inc. Determining dimension of target object in an image using reference object
US10366175B2 (en) 2013-03-15 2019-07-30 3D Tech Llc System and method for automated manufacturing of custom apparel
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
WO2015193628A1 (en) * 2014-06-19 2015-12-23 Toshiba Research Europe Limited Methods and systems for generating a three dimensional representation of a human body shape
US9928412B2 (en) * 2014-10-17 2018-03-27 Ebay Inc. Method, medium, and system for fast 3D model fitting and anthropometrics
MA41117A (fr) * 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US9858719B2 (en) 2015-03-30 2018-01-02 Amazon Technologies, Inc. Blended reality systems and methods
US9623578B1 (en) 2015-12-16 2017-04-18 Amazon Technologies, Inc. On demand apparel manufacturing
US9936754B2 (en) * 2016-04-25 2018-04-10 Original Inc. Methods of determining measurements for custom clothing manufacture
US10290136B2 (en) * 2016-08-10 2019-05-14 Zeekit Online Shopping Ltd Processing user selectable product images and facilitating visualization-assisted coordinated product transactions
JP2018089161A (ja) * 2016-12-05 2018-06-14 富士通株式会社 対象者認識方法、装置、システム、プログラム
CN106952333A (zh) * 2017-02-14 2017-07-14 深圳奥比中光科技有限公司 一种创建人体参数化模型的方法及系统
CN107194987B (zh) 2017-05-12 2021-12-10 西安蒜泥电子科技有限责任公司 对人体测量数据进行预测的方法
US10665022B2 (en) * 2017-06-06 2020-05-26 PerfectFit Systems Pvt. Ltd. Augmented reality display system for overlaying apparel and fitness information
US10657709B2 (en) 2017-10-23 2020-05-19 Fit3D, Inc. Generation of body models and measurements

Also Published As

Publication number Publication date
CN114419677A (zh) 2022-04-29
US11497267B2 (en) 2022-11-15
JP7075085B2 (ja) 2022-05-25
WO2019204235A1 (en) 2019-10-24
US20210235802A1 (en) 2021-08-05
CA3097712A1 (en) 2019-10-24
EP3781022A1 (en) 2021-02-24
US20190357615A1 (en) 2019-11-28
US10321728B1 (en) 2019-06-18
CN110662484B (zh) 2021-12-10
CN110662484A (zh) 2020-01-07
EP3781022A4 (en) 2022-01-26
US10470510B1 (en) 2019-11-12
JP2021012707A (ja) 2021-02-04
CA3097712C (en) 2021-10-12
JP2020522285A (ja) 2020-07-30

Similar Documents

Publication Publication Date Title
JP6799302B2 (ja) 全身測定値抽出のためのシステムおよび方法
US10489683B1 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US11010896B2 (en) Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
US10962404B2 (en) Systems and methods for weight measurement from user photos using deep learning networks
US9949697B2 (en) Imaging a body
KR20220066366A (ko) 예측적 개인별 3차원 신체 모델
US11574421B2 (en) Methods and systems for predicting pressure maps of 3D objects from 2D photos using deep learning
US11507781B2 (en) Methods and systems for automatic generation of massive training data sets from 3D models for training deep learning networks
US11798299B2 (en) Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
US11461630B1 (en) Machine learning systems and methods for extracting user body shape from behavioral data
US11861860B2 (en) Body dimensions from two-dimensional body images
KR102465453B1 (ko) 가상화장 합성 처리 인공지능 장치 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6799302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250