JP2023125703A - スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 - Google Patents
スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 Download PDFInfo
- Publication number
- JP2023125703A JP2023125703A JP2022029948A JP2022029948A JP2023125703A JP 2023125703 A JP2023125703 A JP 2023125703A JP 2022029948 A JP2022029948 A JP 2022029948A JP 2022029948 A JP2022029948 A JP 2022029948A JP 2023125703 A JP2023125703 A JP 2023125703A
- Authority
- JP
- Japan
- Prior art keywords
- bone length
- bone
- skeleton
- statistical learning
- joint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 7
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 108
- 239000013598 vector Substances 0.000 claims abstract description 69
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 230000006870 function Effects 0.000 claims abstract description 14
- 238000004458 analytical method Methods 0.000 claims description 15
- 238000000513 principal component analysis Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 abstract description 5
- 241001640034 Heteropterys Species 0.000 abstract 1
- 230000036544 posture Effects 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 10
- 230000009466 transformation Effects 0.000 description 8
- 230000037237 body shape Effects 0.000 description 6
- 210000003127 knee Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000002414 leg Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- QBWCMBCROVPCKQ-UHFFFAOYSA-N chlorous acid Chemical compound OCl=O QBWCMBCROVPCKQ-UHFFFAOYSA-N 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
姿勢は、関節点の位置に応じて異なる。例えば全く同一の人物であっても、両足を開いた場合と、両足を閉じた場合とでは、特に足の部分で大きく異なる人体モデルとして取得されることとなる。また、3次元スキャナによって計測する場合、生身の人物である全員に、同一姿勢を強要することは非常に難しい。
一方で、「姿勢」は、人物における骨格の関節点の位置によって変化する。同じ体形の人物同士であっても、例えば前傾、後傾、猫背、巻き肩などのような姿勢の変化によって、その外観的印象は大きく異なる。また、「肉付き」も、同一人物であっても日々変化するものでもある。
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出するボーン長ベクトル抽出手段と、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する統計学習エンジンと
してコンピュータを機能させることを特徴とする。
ボーン長ベクトル抽出手段は、子関節点の位置と親関節点の位置との絶対差|b|をボーン長とし、全てのボーンからなるボーン長ベクトルとして抽出する
ようにコンピュータを機能させることも好ましい。
1体のポリゴンメッシュから、関節点の位置を推定する関節点推定手段と
して更にコンピュータを機能させることも好ましい。
関節点推定手段は、関節点学習エンジンであり、
訓練段階として、教師データ群の複数体のポリゴンメッシュをそれぞれ入力し、関節点の位置を出力するように関節点学習モデルを構築し、
推定段階として、推定対象となるポリゴンメッシュを入力し、関節点の位置を出力する
ようにコンピュータを機能させることも好ましい。
第1の推定段階として、
統計学習エンジンは、推定対象となる1体のポリゴンメッシュにおけるボーン長ベクトルを入力し、成分変数を出力する
ようにコンピュータを機能させることも好ましい。
第2の推定段階として、
統計学習エンジンは、推定対象となる成分変数を入力し、1体のスキンモデルにおける関節点同士毎のボーン長ベクトルを出力する
ようにコンピュータを機能させることも好ましい。
スキンモデルは、人体モデルであり、
スケルトンは、人体の骨格であり、
ボーンは、関節点間の骨である
ようにコンピュータを機能させることも好ましい。
統計学習エンジンは、主成分分析(Principal Component Analysis)又はオートエンコーダ(AutoEncoder)に基づくものである
ようにコンピュータを機能させることも好ましい。
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出するボーン長ベクトル抽出手段と、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する統計学習エンジンと
を有することを特徴とする。
装置は、
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出する第1のステップと、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する第2のステップと
を実行することを特徴とする。
「スキン」 :複数の頂点からなるポリゴンメッシュ
(例えば人体を3次元スキャナで撮影した人体のポリゴンメッシュ)
「スキンモデル」 :スキンに複数の関節点を内在するモデル
「関節点」 :スキンを変形させるジョイント(例えば人体の関節)
「ボーン」 :関節点を結ぶ線分(例えば人体の骨)
「スケルトン」 :関節点同士を親子関係によってボーンで結んだ構成
(例えば人体の骨格)
「スキンウェイト」:関節点がスキンの各頂点に及ぼす影響度
「頚椎」
「中央胸」
「左肩」「左肘」「左手首」
「右肩」「右肘」「右手首」
「中央腰」
「左腰」「左膝」「左足首」
「右腰」「右膝」「右足首」
図2によれば、分析装置1は、ボーン長ベクトル抽出部11と、統計学習エンジン12とを有する。これら機能構成部は、分析装置に搭載されたコンピュータを機能させるプログラムを実行させることによって実現される。また、これら機能構成部の処理の流れは、分析方法としても理解できる。
尚、本発明が想定する関節点や骨格とは、人体の解剖学的なものではなく、あくまで動き(モーション)の際の基軸となるものに過ぎない。
ボーン長ベクトル抽出部11は、関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出する。
関節点は、3次元の世界座標系を基準として表現される。世界座標系では基本的に、y軸正方向を鉛直上向き方向、x-z平面を水平面とした座標系とする。その上で、関節点毎の位置ベクトルを、以下のように表す。
関節点の位置ベクトル :t=(tx ty tz)
人体の骨格は、関節点を結ぶツリー構造として表現される。
ボーン長ベクトル抽出部11は、子関節点の位置と親関節点の位置との絶対差|b|をボーン長とし、全てのボーンからなるボーン長ベクトルrとして抽出する。
ボーン長ベクトルrは、例えば前述した図1によれば、以下の14次元のベクトルで表現される。
{
「頚椎-中央胸」のボーン長
「中央胸-左肩」のボーン長
「左肩-左肘」のボーン長
「左肘-左手首」のボーン長
「中央胸-右肩」のボーン長
「右肩-右肘」のボーン長
「右肘-右手首」のボーン長
「中央胸-中央腰」のボーン長
「中央腰-左腰」のボーン長
「左腰-左膝」のボーン長
「左膝-左足首」のボーン長
「中央腰-右腰」のボーン長
「右腰-右膝」のボーン長
「右膝-右足首」のボーン長
}
統計学習エンジン12は、訓練段階として、以下のように機能する。
<訓練段階>
統計学習エンジン12は、訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する。
図4(a)によれば、1体の3次元モデルは、ボーン長ベクトルとなるD(=14)次元のベクトルで表現される。
図4(b)によれば、3次元モデルの人体毎に、D次元空間における1点で表される。
図6は、統計学習エンジンにおける主成分分析を表す簡易なコードである。
「主成分分析」によって、相関のあるD次元空間の6000点から、互いに無相関で全体のばらつきをよく表す次元(例えば14次元)の主成分(成分変数)を導出する。第1主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と無相関という拘束条件の下で、分散を最大化するようにして選択される。主成分の分散を最大化することによって、観測値の変化に対する説明能力を可能な限り主成分に持たせる。主成分を与える主軸はD次空間における6000点の群の直交基底となっている。主軸の直交性は、主軸が共分散行列の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。
本発明によれば、D(=14)次元空間における各3次元モデルを、例えば14次元(成分変数)空間に射影する。主成分を与える変換は、観測値の集合からなる行列の特異値分解で表され、D次元空間の6000点の群からなる矩形行列Xの特異値分解は、以下の式で表される。
X=U*Σ*VT
X:D次元空間の6000点からなる行列(6000行×D列)
U:n(6000)×n(6000)の正方行列(n次元単位ベクトルの直交行列)
Σ:n(6000)×p(D)の矩形対角行列(対角成分は、Xの特異値)
V:p(D)×p(D)の正方行列(p次元単位ベクトルの直交行列)
ここで、行列Vによる線形変換はXの主成分を与える。
V:D次元空間->統計形状(14次元)空間への変換を表す行列
V-1:統計形状(14次元)空間->D次元空間への変換を表す行列
尚、行列の上付き添え字-1は逆行列を示す記号ではなく、行列が定めるベクトルの変換に対して、その逆変換を意味する抽象的な記号として用いている。ここでは、V-1は、Vの転置VTと等しい。
s=x*V
x=s*V-1
s:統計形状空間のベクトル
x:D次元空間のベクトル
V:統計学習モデル
統計形状空間における原点は、教師データとして訓練した全ての人体モデルのボーン長の平均となる。即ち、平均となる原点から離れるほど、その点におけるボーン長は、特徴的であることを意味する。
オートエンコーダは、ニューラルネットワークの一種で、入力データの情報量から抽象的概念(特徴量)を出力する。具体的には、入力データを、隠れ層で次元圧縮し、出力時に元のサイズに戻す。
オートエンコーダも、主成分分析と同様に、相関のあるD次元空間の6000点から、互いに無相関で全体のばらつきを最もよく表す14次元の成分変数を導出する。
<エンコーダとしての推定段階>
統計学習エンジン12は、推定対象となる1体のポリゴンメッシュにおける全ての関節点のボーン長ベクトルを入力し、成分変数を出力する。
成分変数は、例えば14次元ベクトルであって、推定対象となるスキンモデル(ポリゴンメッシュ+スケルトン)の「姿勢(全ての関節点の回転)」の主成分となる。
<デコーダとしての推定段階>
統計学習エンジン12は、推定対象となる成分変数を入力し、1体のスキンモデルにおける「全てのボーン長(=ボーン長ベクトル)」を出力する。
例えば推定対象となる14次元ベクトルの成分変数を入力することによって、1体の全てのボーン長ベクトルを出力することができる。全てのボーン長ベクトルは、その人体の不変的な外観的特徴を表す。
従来技術によれば、スキニングでは一般に、関節点を中心とした人体部位の回転として姿勢や動きを表現する。スキニング処理は、「Skeleton Subspace Deformation」とも称され、骨格における関節点毎の座標系によって変形を記述するものである。その骨格を変位させることによって、ポリゴンメッシュを変形させる。また、一般的なアニメーションの用途によれば、骨格の作成の設定は、作業者が手動で操作するものである。
これに対し、本発明は、骨格における関節点毎のボーン長ベクトルのみを抽出し、3Dポリゴンメッシュの変形とは別に、統計的に分析するものである。このような技術は、既存技術として存在しない。本発明によれば、関節点のボーン長ベクトルの分解は、スキニングアルゴリズムを最後まで計算せずに、中間データとなるボーン長ベクトルを抽出し、統計学習エンジンで訓練させたことにある。
例えば衣服の場合、人のサイズ(骨格の長さ)や周径に基づいて設計されているが、その衣服が似合うような人の姿勢(関節点の回転)までも考慮されたものではない。一方で、衣服を購入するユーザも、自らのサイズや体形は考慮するが、姿勢までも考慮することは全くない。ユーザ自らの姿勢が、平均的な姿勢又は理想的な姿勢からどの程度離れたものであるか、も考慮することはない。
姿勢判定アプリケーションとして、様々な用途が想定されるが、異なる人体における姿勢の相違を数値的に取得することができる。姿勢の相違は、例えば主成分分析に基づく統計形状空間では、点間の距離として認識することができる。
関節点推定部13は、1体のポリゴンメッシュから、関節点の位置を推定する。
関節点推定部13は、関節点学習エンジンであってもよく、以下のように機能させる。
(訓練段階)教師データ群の複数体のポリゴンメッシュ(説明変数)をそれぞれ入力し、関節点の位置(目的変数)を出力するように関節点学習モデルを構築する。
(推定段階)推定対象となるポリゴンメッシュ(説明変数)を入力し、関節点の位置(目的変数)を出力する。
勿論、回帰モデルのような機械学習ではなく、モーションキャプチャに基づくフレーム画像に映るマーク点に対応するメッシュ頂点を指定して、メッシュから直接に関節位置を計算したものであってもよい。
スケルトン変形部14は、1体の全ての関節点のボーン長ベクトルから、1体のスケルトンを再生する。
統計学習エンジン12から出力されるものは、ボーン長ベクトルのみであるので、スケルトンのテンプレートを予め用意しておく。そのテンプレートを、統計学習エンジン12から出力されたボーン長ベクトル(回転軸、回転角)に対応させて、テンプレートのスケルトンモデルを変形(関節点の回転)させる。
このように、スケルトン変形部14によって、スケルトンに基づく姿勢を視覚的に認識することができる。
11 ボーン長ベクトル抽出部
12 統計学習エンジン
13 関節点推定部
14 スケルトン変形部
Claims (10)
- 複数の頂点からなるポリゴンメッシュに複数の関節点を内在するスキンモデルを統計的に分析する装置に搭載されたコンピュータを機能させるプログラムであって、
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出するボーン長ベクトル抽出手段と、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する統計学習エンジンと
してコンピュータを機能させることを特徴とするプログラム。 - ボーン長ベクトル抽出手段は、子関節点の位置と親関節点の位置との絶対差|b|をボーン長とし、全てのボーンからなるボーン長ベクトルとして抽出する
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。 - 1体のポリゴンメッシュから、関節点の位置を推定する関節点推定手段と
して更にコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。 - 関節点推定手段は、関節点学習エンジンであり、
訓練段階として、教師データ群の複数体のポリゴンメッシュをそれぞれ入力し、関節点の位置を出力するように関節点学習モデルを構築し、
推定段階として、推定対象となるポリゴンメッシュを入力し、関節点の位置を出力する
ようにコンピュータを機能させることを特徴とする請求項3に記載のプログラム。 - 第1の推定段階として、
統計学習エンジンは、推定対象となる1体のポリゴンメッシュにおけるボーン長ベクトルを入力し、成分変数を出力する
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。 - 第2の推定段階として、
統計学習エンジンは、推定対象となる成分変数を入力し、1体のスキンモデルにおける関節点同士毎のボーン長ベクトルを出力する
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。 - スキンモデルは、人体モデルであり、
スケルトンは、人体の骨格であり、
ボーンは、関節点間の骨である
ようにコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。 - 統計学習エンジンは、主成分分析(Principal Component Analysis)又はオートエンコーダ(AutoEncoder)に基づくものである
ようにコンピュータを機能させることを特徴とする請求項1から7のいずれか1項に記載のプログラム。 - 複数の頂点からなるポリゴンメッシュに複数の関節点を内在するスキンモデルを統計的に分析する分析装置であって、
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出するボーン長ベクトル抽出手段と、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する統計学習エンジンと
を有することを特徴とする分析装置。 - 複数の頂点からなるポリゴンメッシュに複数の関節点を内在するスキンモデルを統計的に分析する装置の分析方法であって、
装置は、
関節点同士を親子関係によってボーンで結ぶことによってスケルトンを構成し、全てのボーン長をボーン長ベクトルとして抽出する第1のステップと、
訓練段階として、教師データ群となる複数体のスキンモデルにおけるボーン長ベクトルを入力し、成分変数を出力するように統計学習モデルを構築する第2のステップと
を実行することを特徴とする分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022029948A JP7067709B1 (ja) | 2022-02-28 | 2022-02-28 | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022029948A JP7067709B1 (ja) | 2022-02-28 | 2022-02-28 | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7067709B1 JP7067709B1 (ja) | 2022-05-16 |
JP2023125703A true JP2023125703A (ja) | 2023-09-07 |
Family
ID=81606824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022029948A Active JP7067709B1 (ja) | 2022-02-28 | 2022-02-28 | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7067709B1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11915362B2 (en) * | 2020-08-24 | 2024-02-27 | Autodesk, Inc. | UV mapping on 3D objects with the use of artificial intelligence |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282110A (ja) * | 2007-05-09 | 2008-11-20 | Univ Of Tokyo | 対象物の関節構造の取得方法及び装置 |
JP2011180790A (ja) * | 2010-02-26 | 2011-09-15 | Nippon Yunishisu Kk | 三次元形状モデル生成装置、三次元形状モデル生成方法、三次元形状モデル生成プログラム、及び三次元形状モデル生成システム |
US20130250050A1 (en) * | 2012-03-23 | 2013-09-26 | Objectvideo, Inc. | Video surveillance systems, devices and methods with improved 3d human pose and shape modeling |
WO2016021152A1 (ja) * | 2014-08-06 | 2016-02-11 | パナソニック株式会社 | 姿勢推定方法および姿勢推定装置 |
WO2017029488A2 (en) * | 2015-08-14 | 2017-02-23 | Metail Limited | Methods of generating personalized 3d head models or 3d body models |
JP2020027526A (ja) * | 2018-08-15 | 2020-02-20 | 裕樹 有光 | 採寸値に基づく3次元モデルを生成するプログラム及び装置 |
CN112419419A (zh) * | 2019-11-27 | 2021-02-26 | 上海联影智能医疗科技有限公司 | 用于人体姿势和形状估计的系统和方法 |
-
2022
- 2022-02-28 JP JP2022029948A patent/JP7067709B1/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008282110A (ja) * | 2007-05-09 | 2008-11-20 | Univ Of Tokyo | 対象物の関節構造の取得方法及び装置 |
JP2011180790A (ja) * | 2010-02-26 | 2011-09-15 | Nippon Yunishisu Kk | 三次元形状モデル生成装置、三次元形状モデル生成方法、三次元形状モデル生成プログラム、及び三次元形状モデル生成システム |
US20130250050A1 (en) * | 2012-03-23 | 2013-09-26 | Objectvideo, Inc. | Video surveillance systems, devices and methods with improved 3d human pose and shape modeling |
WO2016021152A1 (ja) * | 2014-08-06 | 2016-02-11 | パナソニック株式会社 | 姿勢推定方法および姿勢推定装置 |
WO2017029488A2 (en) * | 2015-08-14 | 2017-02-23 | Metail Limited | Methods of generating personalized 3d head models or 3d body models |
JP2020027526A (ja) * | 2018-08-15 | 2020-02-20 | 裕樹 有光 | 採寸値に基づく3次元モデルを生成するプログラム及び装置 |
CN112419419A (zh) * | 2019-11-27 | 2021-02-26 | 上海联影智能医疗科技有限公司 | 用于人体姿势和形状估计的系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7067709B1 (ja) | 2022-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114663199B (zh) | 一种动态展示的实时三维虚拟试衣系统及方法 | |
Dibra et al. | Human shape from silhouettes using generative hks descriptors and cross-modal neural networks | |
Balan et al. | Detailed human shape and pose from images | |
Corazza et al. | Markerless motion capture through visual hull, articulated icp and subject specific model generation | |
Hasler et al. | Multilinear pose and body shape estimation of dressed subjects from image sets | |
Dekker et al. | Building symbolic information for 3D human body modeling from range data | |
Jiang et al. | Disentangled human body embedding based on deep hierarchical neural network | |
Ballester et al. | Data-driven three-dimensional reconstruction of human bodies using a mobile phone app | |
WO2007010893A1 (ja) | 関節物体位置姿勢推定装置及びその方法ならびにプログラム | |
CN109655011B (zh) | 一种人体建模维度测量的方法及系统 | |
Deng et al. | Plausible 3d face wrinkle generation using variational autoencoders | |
JP7067709B1 (ja) | スキンモデルから骨格に基づく体長を統計的に分析するプログラム、装置及び方法 | |
JP7141610B1 (ja) | スキンモデルから骨格に基づく姿勢を統計的に分析するプログラム、装置及び方法 | |
Lifkooee et al. | Real-time avatar pose transfer and motion generation using locally encoded laplacian offsets | |
JP2010211732A (ja) | 物体認識装置および方法 | |
Laga et al. | 4d atlas: Statistical analysis of the spatiotemporal variability in longitudinal 3D shape data | |
JP7120532B1 (ja) | スキンモデルから肉付きに基づく体形を統計的に分析するプログラム、装置及び方法 | |
Endo et al. | Hand modeling and motion reconstruction for individuals | |
KR102270949B1 (ko) | 3차원 인간 모델 복원 장치 및 방법 | |
Lu et al. | Parametric shape estimation of human body under wide clothing | |
Cha et al. | Mobile. Egocentric human body motion reconstruction using only eyeglasses-mounted cameras and a few body-worn inertial sensors | |
JP2020112900A (ja) | 人体に基づくデプス画像と組成値とを対応付ける装置 | |
Tejeda et al. | A neural anthropometer learning from body dimensions computed on human 3D meshes | |
Ichim et al. | Semantic parametric body shape estimation from noisy depth sequences | |
CN114863013A (zh) | 一种目标物体三维模型重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220318 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220415 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7067709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |