JP6892569B2 - 人体に基づくデプス画像と組成値とを対応付ける装置 - Google Patents
人体に基づくデプス画像と組成値とを対応付ける装置 Download PDFInfo
- Publication number
- JP6892569B2 JP6892569B2 JP2019001566A JP2019001566A JP6892569B2 JP 6892569 B2 JP6892569 B2 JP 6892569B2 JP 2019001566 A JP2019001566 A JP 2019001566A JP 2019001566 A JP2019001566 A JP 2019001566A JP 6892569 B2 JP6892569 B2 JP 6892569B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- component variable
- composition
- value
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Processing Or Creating Images (AREA)
Description
計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載しており、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
第1の相関学習エンジンを用いて、デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と、当該計測対象ユーザの少なくとも身長及び1つ以上の体組成計値を含む組成値とを対応付ける
ことを特徴とする。
当該装置は、体組成計であり、
デプスカメラは、人が手で把持するグリップに搭載されている
ことも好ましい。
計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載した端末と通信可能であり、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
端末から、デプスカメラによって撮影されたデプス画像を受信すると共に、第1の相関学習エンジンを用いて、当該デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と当該計測対象ユーザの組成値とを対応付ける
ことも好ましい。
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
体組成計によって計測された組成値を受信すると共に、第1の相関学習エンジンを用いて、デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と体組成計から受信した組成値とを対応付ける
ことを特徴とする。
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
体組成計から、計測された組成値と、デプスカメラによって撮影されたデプス画像とを受信すると共に、第1の相関学習エンジンを用いて、デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と組成値とを対応付ける
ことを特徴とする。
第1の相関学習エンジンは、畳み込みニューラルネットワークに基づくものであり、教師データとしてのデプス画像を説明変数とし、次元圧縮された次元数mの成分変数を目的変数として予め学習したものである
ことも好ましい。
教師データとしての3次元モデル毎に、1つ以上の採寸箇所を含む次元数nの組成値が対応付けられており、
教師データとしての3次元モデル毎に、当該次元数nの組成値と、当該3次元モデルを次元圧縮した次元数mの成分変数とから第2の相関学習モデルを予め構築した第2の相関学習エンジンと、
第2の相関学習エンジンを用いて、対象データとしての1体の次元数nの組成値から次元数mの成分変数へエンコードする第2のエンコーダと
を更に有することも好ましい。
対象データとして1体の次元数nの組成値について、k(<n)個の組成値のみ決定され、その他のn−k個の組成値が欠損していても、次元数mの成分変数を推定するために、k個の組成値を束縛条件として、最適化された他のn−k個の組成値を推定する欠損値推定手段と
を更に有することも好ましい。
欠損値推定手段は、ラグランジュの未定乗数法(method of Lagrange multiplier)を用いることも好ましい。
エンコードされた次元数mの成分変数を、シェア(Share)コードとして出力すると共に、当該シェアコードを、QR(Quick Response、登録商標)、RFID(Radio Frequency IDentifier)又はCookieに埋め込むシェアコード出力手段を
更に有することも好ましい。
エンコードされた次元数mの成分変数を、1体の3次元モデルにデコードするために、
3次元モデルと、次元圧縮された次元数mの成分変数とを対応付けた統計学習モデルを構築した統計学習エンジンと、
統計学習エンジンを用いて、当該次元数mの成分変数から3次元モデルにデコードする第1のデコーダと
を有することも好ましい。
当該装置にディスプレイが搭載されており、
ディスプレイに、第1のデコーダによってデコードされた3次元モデルを表示する
ことも好ましい。
デコードされた3次元モデルを、所定視点からソフトウェア上で撮影した1枚以上のグレースケール画像を作成するグレースケール画像作成手段を
更に有することも好ましい。
当該装置にディスプレイが搭載されており、
ディスプレイに、グレースケール画像作成手段によって作成されたグレースケール画像を表示する
ことも好ましい。
本発明に実施形態によれば、3次元モデルは、人体であるとして説明する。
3次元モデル自体は、人工的に分散させて生成されたものであってもよいし、不特定多数の人体から光学スキャナによって予め取得されたものであってもよい。
組成値は、その3次元モデルに基づく人(ユーザ)から取得された体組成計値であってもよい。ここで、組成値とは、例えば身長、腹囲、胸囲のように、3次元モデルの外観からも取得可能な採寸値を含むものであってもよい。但し、本発明によれば、人体の場合、少なくとも身長は、組成値として含むことが好ましい。また、組成値には、体組成計によって計測された体重、体脂肪、内臓脂肪、骨格筋率などのように、3次元モデルの外観とは結び付かない体組成計値を含むことも好ましい。
尚、本発明の本質的には、組成値までも必須とするものではない。
デプス画像作成部10は、教師データの3次元モデル毎に、当該3次元モデルを1つ以上の所定視点からソフトウェア上で撮影したデプス画像を作成する。
1つ以上のデプス画像は、デプス(深度)画像であって、深度に応じてグレースケール階調としたものである。
そして、作成されたデプス画像は、第1の相関学習エンジン110へ出力される。
統計学習エンジン100は、教師データ群の複数体の3次元モデルを入力し、次元圧縮された次元数mの成分変数を出力すると共に、統計学習モデルを構築する。
統計学習エンジンは、主成分分析(Principal Component Analysis)又はAutoEncoderに基づくものであってもよい。
図3(a)によれば、3次元モデルは、1体毎に頂点数がN=15,000あり、各頂点は3次元(x,y,z)で表現される。即ち、1体の3次元モデルは、3N(=45,000)次元のベクトルで表される。
図3(b)によれば、3次元モデルの1体毎に、3N次元空間における1点で表される。
図5は、統計学習エンジンにおける主成分分析を表す簡易なコードである。
「主成分分析」によって、相関のある3N次元空間の1000点から、互いに無相関で全体のばらつきを最もよく表す少数(例えば30個)の主成分(成分変数)を導出する。第1主成分の分散を最大化し、続く主成分はそれまでに決定した主成分と無相関という拘束条件の下で、分散を最大化するようにして選択される。主成分の分散を最大化することによって、観測値の変化に対する説明能力を可能な限り主成分に持たせる。主成分を与える主軸は3N次空間の1000点の群の直交基底となっている。主軸の直交性は、主軸が共分散行列の固有ベクトルになっており、共分散行列が実対称行列であることから導かれる。
本発明によれば、3N(=45,000)次元空間における各3次元モデルを、例えば30次元(成分変数)空間に射影する。主成分を与える変換は、観測値の集合からなる行列の特異値分解で表され、3N次元空間の1000点の群からなる矩形行列Xの特異値分解は、以下の式で表される。
X=U*Σ*VT
X:3N次元空間の1000点からなる行列(1000行×3N列)
U:n(1000)×n(1000)の正方行列(n次元単位ベクトルの直交行列)
Σ:n(1000)×p(3N)の矩形対角行列(対角成分は、Xの特異値)
V:p(3N)×p(3N)の正方行列(p次元単位ベクトルの直交行列)
ここで、Vの最初の30列からなる行列をVと改める。そして、その行列Vによる線形変換はXの主成分を与える。
V:3N次元空間->統計形状(30次元)空間への変換を表す行列
V-1:統計形状(30次元)空間->3N次元空間への変換を表す行列
尚、行列の上付き添え字-1は逆行列を示す記号ではなく、行列が定めるベクトルの変換に対して、その逆変換を意味する抽象的な記号として用いている。ここでは、V-1は、Vの転置VTと等しい。
s=x*V
x=s*V-1
s:統計形状空間のベクトル
x:3N次元空間のベクトル
V:統計学習モデル
オートエンコーダは、ニューラルネットワークの一種で、情報量を小さくした特徴表現を実現する(例えば非特許文献3参照)。具体的には、入力データの次元数よりも、隠れ層の次元を圧縮したものである。入力データを、ニューラルネットワークを通して圧縮し、出力時には元のサイズに戻す。このとき、ニューラルネットワークは、入力データの抽象的概念(特徴量)を抽出する。
オートエンコーダも、主成分分析と同様に、相関のある3N次元空間の1,000点から、互いに無相関で全体のばらつきを最もよく表す30次元の成分変数を導出する。
第1の相関学習エンジン110は、教師データ群の複数体の3次元モデルについて、当該3次元モデルのデプス画像と、次元数mの成分変数との第1の相関学習モデルを構築する。
説明変数:3次元モデルのデプス画像(グレースケール画像)
目的変数:統計学習エンジン100から出力された次元数mの成分変数
これによって、運用段階では、説明変数としてのデプス画像を入力することによって、目的変数としての次元数mの成分変数を出力することができる。
第2の相関学習エンジン120は、教師データ群の複数体の3次元モデルについて、少なくとも1つ以上の採寸箇所を含む次元数nの組成値と、次元数mの成分変数との第2の相関学習モデルを構築する。
組成値は、3次元モデルと紐付けられているが、その3次元モデル自体から導出可能な1つ以上の採寸値(例えば身長や胸囲、腹囲など)を含むものであってもよい。但し、幾何学に基づく採寸箇所は、1カ所以上であることが好ましい。身長だけでもよいし、身長+腹囲であってもよいし、身長+腹囲+胸囲であってもよい。
ここで、複数の組成値をその要素値とした組成値空間を導出することができる。例えば10個の組成値が付与されている場合、組成値空間は10次元となる。
図9は、第2の相関学習エンジンにおける統計形状空間と組成値空間との間の線形変換を表す簡易なコードである。
第2の相関学習エンジン120は、最小二乗法に基づくものである。
「最小二乗法(least squares method)」とは、複数の多次元ベクトル(データの組)から線形モデルで近似する際に、残差の二乗和が最小となる最も確からしい線形モデルを決定することをいう。
s=d*A
d=s*A-1
A=(DT*D)-1*DT*S (||D*A−S||を最小化するAを導出する)
s:統計形状空間のベクトル
d:組成値空間のベクトル
S:統計形状空間のベクトルの組
D:組成値空間のベクトルの組
A:相関学習モデル
第2の相関学習エンジン120は、多層パーセプトロンに基づくものであってもよい。
「多層パーセプトロン(Multilayer perceptron)」とは、順伝播型ニューラルネットワークであって、誤差逆伝播法と称される教師あり学習を用いており、これは、線形パーセプトロンにおける最小二乗法アルゴリズムの一般化である。
尚、第1のエンコーダ111と、第2のエンコーダ121及び欠損値推定部122とは、装置1の用途に応じて、いずれか一方のみを備えたものであってもよい。
第1のエンコーダ111は、第1の相関学習エンジン110を用いて、対象データとしてのデプス画像から次元数mの成分変数へエンコードする。エンコードされた次元数mの成分変数は、デプス画像を認識できない秘匿性を持つ。そのために、個人情報としてのデプス画像が守秘情報である場合に適する。
エンコードされた次元数mの成分変数は、シェアコード出力部13へ出力される。
S1:物体抽出段階
物体抽出のために、以下の3つのステップを要する。
(S11)人体と背景との両方を含む対象デプス画像を入力する。
(S12)2値化処理によって2つのクラス(物体部分と非物体部分)に分離した2値画像を生成する。この2値化処理に、例えば「大津の判別分析法(discriminant analysis method)」を適用した場合、分離度(separation metrics)という値が最大となる閾値を求め、自動的に2値化することができる。分離度は、クラス間分散(between-class variance)とクラス内分散(within-class variance)との比で求める。
(S13)S11で入力された対象デプス画像を、S12で算出された2値化画像によってマスク処理して、人体のみのデプス画像を抽出する。
正規化のために、以下の5つのステップを要する。
(S21)物体抽出段階によって抽出したデプス画像の画像平面上のピクセル座標p=(x,y,z)から、3次元座標P=(X,Y,Z)を計算する。
各点P=(X,Y,Z)について、X=x*z/f, Y=y*z/f, Z=(Max-Min)*z+Min
<既知のカメラ仕様>
焦点距離(物理) F (mm)
焦点距離(ピクセル) f=(fx,fy)=(F*sx,F*sy) (pixel)
ピクセルサイズ s=(sx,sy) (pixel/mm)
深度測定距離 Min,Max (mm)
(S22)物体のデプス画像からバウンディングボックスを特定し、その重心を決定する。
(S23)S22によって決定された重心に基づいて、デプス画像を所定の重心に平行移動する。
(S24)S23によって平行移動されたデプス画像に対して、画像平面上のピクセル座標を計算する。
各点p=(x,y,z)について、x=X*f/Z, y=Y*f/Z, z=(Z-Min)/(Max-Min)
(S25)S24によって計算されたピクセル座標は必ずしも整数値ではないので、補完を使って最終的なピクセル座標を計算する。
(S26)S5によって補完されたデプス画像を、対象データとして、第1の相関学習エンジン110へ入力する。
第2のエンコーダ121は、第2の相関学習エンジン120を用いて、対象データとしての1体の次元数nの組成値から次元数mの成分変数へエンコードする。この場合も、エンコードされた次元数mの成分変数は、組成値を認識できない秘匿性を持つ。
エンコードされた次元数mの成分変数は、シェアコード出力部13へ出力される。
欠損値推定部122は、オプション的な他の実施形態として、入力された対象データの組成値に対して、欠損値を推定する。
図12は、本発明における欠損値推定を表す簡易なコードである。
ここで、欠損値推定部122は、対象データとして1体の次元数nの組成値について、k(<n)個の組成値のみが決定され、その他のn−k個の組成値が欠損していてもよい。即ち、本発明によれば、教師データ群によって例えば10次元の組成値空間から第2の相関学習モデルを構築したとしても、例えばk=3個の組成値のみを入力することによって、次元数mの成分変数を推定することができる。
超楕円体を表す二次形式(x:列ベクトル)
f(x)=xT*C-1*x
C-1:対称行列
※実際には分散共分散行列はC=DT*D/教師データ群数
※-1は、逆行列を示す
F(x1,・・・,xn,λ1,・・・,λk)
=f(x1,・・・,xn)+Σλjgj(x1,・・・,xn)
とすることによって、以下の式を満たす。
dF/dxi=0 (i=1,・・・,n)
dF/dλj=0 (j=1,・・・,k)
アフィン超平面を表す一次方程式
gj(x)=nj T*(x−pj)=0
n:超平面の法線ベクトル
p:超平面上の点
特に、それぞれの超平面は基底に直交する(nの方向が基底方向に一致する)ために、以下のようになる。
gj(x)=xi−yj=0
yj:j番目の組成値
xi:対応するxの要素
制約条件の下で、関数f(x)の最小値を求めることは、与えられた組成値の下で、平均に最も近い体形を求めることとなる。
x:10次元列ベクトル
y:k個の組成値を含む10次元列ベクトル (k個以外の組成値の値は任意)
λ:ラグランジュ乗数を要素とするk次元列ベクトル
O:k行10列の行列 各行は与えられた組成値に応じたone-hot行ベクトル
C:分散共分散行列
f(x)=1/2*xT*C-1*x
g(x)=O*(y−x)
F(x)=f(x)+λT*g(x)
dF/dx=C-1*x−OT*λ=0 (1)
dF/dλ=O*(y−x)=0 (2)
(1)より、x=C*OT*λ (3)
(3)を(2)に代入
O*y−O*C*OT*λ=0
λ=(O*C*OT)-1*O*y
λを(3)に代入
x=C*OT*(O*C*OT)-1*O*y
シェアコード出力部13は、エンコードされた次元数mの成分変数を、シェア(Share)コードとして出力する。
本発明によれば、3次元モデルを、成分変数(4バイト)で30次元とした場合、120バイトで表すことができる。
このとき、当該シェアコードを、QR(Quick Response、登録商標)、RFID(Radio Frequency IDentifier)又はCookieに埋め込むものであってもよい。
本発明によれば、例えば3次元モデルの成分変数を、RFタグに記述しておくだけで、リーダによって瞬時に読み取らせることができる。RFタグから成分変数を読み取ったリーダは、その成分変数に対応した3次元モデルを瞬時にディスプレイに表示することもきる。
このユーザインタフェースによれば、組成値に対応する3次元モデルと、その3次元モデルの成分変数が記述されたQRコードとを、一見することができる。特に、QRコードを、カメラによって読み取らせるだけで、3次元モデルを共有することできる。
尚、統計学習エンジン100及び第1のデコーダ113と、第2の相関学習エンジン120及び第2のデコーダ123とは、装置1の用途に応じて、いずれか一方のみを備えたものであってもよい。
第1のデコーダ113は、統計学習エンジン100を用いて、当該次元数mの成分変数から3次元モデルにデコードする。これによって、シェアコードから3次元モデルを生成することができる。
グレースケール画像作成部15は、デコードされた3次元モデルを、所定視点からソフトウェア上で撮影した1枚以上のグレースケール画像を作成する。これによって、シェアコードから、生成された3次元モデルの任意の視点から見たグレースケール画像を生成することができる。
第2のデコーダ123は、第2の相関学習エンジン120を用いて、対象データとしての次元数mの成分変数から組成値にデコードする。これによって、シェアコードから組成値を生成することができる。
中央には、その対象データの人体を、デプスカメラで撮影したデプス画像が表されている。
右側には、そのデプス画像をエンコードしてシェアコードを作成した後、そのシェアコードをデコードして生成した3次元モデルが表されている。
ここで特徴的な点として、左側の対象データの人体と、右側の生成された3次元モデルとが、ほぼ同じ体形となっている。
尚、エンコード及びデコードには、第1の相関学習エンジン110を用いた第1のエンコーダ111と、統計学習エンジン100を用いた第1のデコーダ113とから実現しており、組成値としては身長のみを考慮している。
統合部16は、第1のエンコーダ111によってエンコードされた対象データの第1の次元数mの成分変数と、 第2のエンコーダ121によってエンコードされた第2の次元数mの成分変数とを入力する。そして、統合部16は、第1の次元数mの成分変数と、第2の次元数mの成分変数とを、1つの次元数mの成分変数に統合する。
このとき、図12のシェアコード出力部13の統合機能と同様に、対象データの組成値について欠損した組成値の数が多いほど、小さくなる重みwを付与して、次元毎に算出した、第1の次元数mの成分変数と第2の次元数mの成分変数との加重平均を、1つの次元数mの成分変数として統合する。
これによって、デプスカメラによって撮影されたデプス画像、又は、体組成計によって計測された体組成値の一方のみに強く依存したシェアコードにならないようにすることができる。
尚、組成値について欠損した組成値の数が明確であることを要する。この場合、シェアコードに、別途、欠損した組成値がデコード側で検出することができるように、組成値10次元に対応する10ビットによって、入力値1/欠損値0のようにフラグを立てておくことも好ましい。
同様に、第2の相関学習エンジン120は、対象データの組成値と、統合された次元数mの成分変数とから再学習する。
計測対象ユーザは、体組成計の上に立つと共に、電極が装着されたグリップを両手で把持する。そして、腕を水平に上げて、肘を伸ばす。これによって、腕と背筋とが垂直となり、その両手に把持されたグリップが顔の正面に位置する。このとき、グリップに搭載されたデプスカメラが、顔の正面からその計測対象ユーザの上半身を含む部分的な体形を撮影することができる。
これによって、デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と自ら計測した組成値とを対応付けることができる。
統合機能とは、第1のエンコーダ111から出力された第1の次元数mの成分変数と、第2のエンコーダ121から出力された第2の次元数mの成分変数とを統合したシェアコードを出力する。
これによって、デプスカメラによって撮影されたデプス画像、又は、体組成計によって計測された体組成値の一方のみに強く依存したシェアコードにならないようにすることができる。
これに対し、図17(a)によれば、人の組成値を計測する体組成計は、組成値の計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載した端末(例えばスマートフォン)と通信可能である。
体組成計は、端末から、デプスカメラによって撮影されたデプス画像を受信すると共に、当該デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と自ら計測した組成値とを対応付けることができる。
端末は、体組成計によって計測された組成値を受信すると共に、デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と体組成計から受信した組成値とを対応付けることができる。
端末は、体組成計から、計測された組成値と、デプスカメラによって撮影されたデプス画像とを受信すると共に、デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と組成値とを対応付けることができる。
中央には、その対象データの人体が、図18と同じ姿勢で、体組成計のグリップ部分からデプスカメラで撮影したデプス画像が表されている。
右側には、そのデプス画像をエンコードしてシェアコードを作成した後、そのシェアコードをデコードして生成した3次元モデルが表されている。
ここで特徴的な点として、左側の対象データの人体と、右側の生成された3次元モデルとが、ほぼ同じ体形となっている。
尚、図14と同様に、エンコード及びデコードには、第1の相関学習エンジン110を用いた第1のエンコーダ111と、統計学習エンジン100を用いた第1のデコーダ113とから実現しており、組成値までは含めていない。
10 デプス画像作成部
100 統計学習エンジン
110 第1の相関学習エンジン
111 第1のエンコーダ
113 第1のデコーダ
120 第2の相関学習エンジン
121 第2のエンコーダ
122 欠損値推定部
123 第2のデコーダ
13 シェアコード出力部
14 シェアコード入力部
15 グレースケール画像作成部
16 統合部
Claims (14)
- 計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載しており、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
第1の相関学習エンジンを用いて、前記デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と、当該計測対象ユーザの少なくとも身長及び1つ以上の体組成計値を含む組成値とを対応付ける
ことを特徴とする装置。 - 当該装置は、体組成計であり、
前記デプスカメラは、人が手で把持するグリップに搭載されている
ことを特徴とする請求項1に記載の装置。 - 計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載した端末と通信可能であり、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
前記端末から、前記デプスカメラによって撮影されたデプス画像を受信すると共に、第1の相関学習エンジンを用いて、当該デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と当該計測対象ユーザの組成値とを対応付ける
ことを特徴とする装置。 - 体組成計と通信可能であり、計測対象ユーザを、部分的又は全体的に撮影するデプスカメラを搭載した装置であって、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
前記体組成計によって計測された組成値を受信すると共に、第1の相関学習エンジンを用いて、前記デプスカメラによって撮影されたデプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と前記体組成計から受信した組成値とを対応付ける
ことを特徴とする装置。 - 計測対象ユーザを部分的又は全体的に撮影するデプスカメラを搭載した体組成計と通信可能な装置であって、
教師データの3次元モデル毎に、当該3次元モデルを所定視点からソフトウェア上で撮影したデプス画像と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第1の相関学習エンジンを有し、
前記体組成計から、計測された組成値と、前記デプスカメラによって撮影されたデプス画像とを受信すると共に、第1の相関学習エンジンを用いて、前記デプス画像を次元数mの成分変数へエンコードし、当該次元数mの成分変数と前記組成値とを対応付ける
ことを特徴とする装置。 - 第1の相関学習エンジンは、畳み込みニューラルネットワークに基づくものであり、教師データとしてのデプス画像を説明変数とし、次元圧縮された次元数mの成分変数を目的変数として予め学習したものである
ことを特徴とする請求項1から5のいずれか1項に記載の装置。 - 教師データとしての3次元モデル毎に、1つ以上の採寸箇所を含む次元数nの組成値が対応付けられており、
教師データとしての3次元モデル毎に、当該次元数nの組成値と、当該3次元モデルを次元圧縮した次元数mの成分変数とを対応付けた第2の相関学習エンジンと
を更に有し、
第2の相関学習エンジンを用いて、対象データとしての1体の次元数nの組成値から次元数mの成分変数へエンコードする
ことを特徴とする請求項1から6のいずれか1項に記載の装置。 - 対象データとして1体の次元数nの組成値について、k(<n)個の組成値のみ決定され、その他のn−k個の組成値が欠損していても、次元数mの成分変数を推定するために、k個の組成値を束縛条件として、最適化された他のn−k個の組成値を推定する欠損値推定手段と
を更に有することを特徴とする請求項7に記載の装置。 - 前記欠損値推定手段は、ラグランジュの未定乗数法(method of Lagrange multiplier)を用いる
ことを特徴とする請求項8に記載の装置。 - エンコードされた次元数mの成分変数を、シェア(Share)コードとして出力すると共に、当該シェアコードを、QR(Quick Response、登録商標)、RFID(Radio Frequency IDentifier)又はCookieに埋め込むシェアコード出力手段を
更に有することを特徴とする請求項1から9のいずれか1項に記載の装置。 - エンコードされた次元数mの成分変数を、1体の3次元モデルにデコードするために、
3次元モデルと、次元圧縮された次元数mの成分変数とを対応付けた統計学習モデルを構築した統計学習エンジンと、
前記統計学習エンジンを用いて、当該次元数mの成分変数から3次元モデルにデコードする第1のデコーダと
を有することを特徴とする請求項1から10のいずれか1項に記載の装置。 - 当該装置にディスプレイが搭載されており、
前記ディスプレイに、第1のデコーダによってデコードされた前記3次元モデルを表示する
ことを特徴とする請求項11に記載の装置。 - デコードされた3次元モデルを、所定視点からソフトウェア上で撮影した1枚以上のグレースケール画像を作成するグレースケール画像作成手段を
更に有することを特徴とする請求項11に記載の装置。 - 当該装置にディスプレイが搭載されており、
前記ディスプレイに、前記グレースケール画像作成手段によって作成されたグレースケール画像を表示する
ことを特徴とする請求項13に記載の装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001566A JP6892569B2 (ja) | 2019-01-09 | 2019-01-09 | 人体に基づくデプス画像と組成値とを対応付ける装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001566A JP6892569B2 (ja) | 2019-01-09 | 2019-01-09 | 人体に基づくデプス画像と組成値とを対応付ける装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020112900A JP2020112900A (ja) | 2020-07-27 |
JP2020112900A5 JP2020112900A5 (ja) | 2020-09-03 |
JP6892569B2 true JP6892569B2 (ja) | 2021-06-23 |
Family
ID=71667544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019001566A Active JP6892569B2 (ja) | 2019-01-09 | 2019-01-09 | 人体に基づくデプス画像と組成値とを対応付ける装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6892569B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112435239B (zh) * | 2020-11-25 | 2024-02-23 | 南京农业大学 | 基于MRE-PointNet和自编码器模型的绿萝叶片外形参数估测方法 |
US20230065288A1 (en) * | 2021-08-30 | 2023-03-02 | Apple Inc. | Electronic Devices with Body Composition Analysis Circuitry |
JP7403108B2 (ja) * | 2021-10-28 | 2023-12-22 | 株式会社 Sai | 建屋内構造物認識システム及び建屋内構造物認識方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5429992B2 (ja) * | 2010-02-26 | 2014-02-26 | 日本ユニシス株式会社 | 三次元形状モデル生成装置、三次元形状モデル生成方法、三次元形状モデル生成プログラム、及び三次元形状モデル生成システム |
JP2012070989A (ja) * | 2010-09-29 | 2012-04-12 | Omron Healthcare Co Ltd | 生体情報測定装置、生体情報測定装置の制御方法、および、生体情報測定システム |
JP2015019867A (ja) * | 2013-07-19 | 2015-02-02 | 株式会社ニコン | 生体情報検出装置 |
EP4131172A1 (en) * | 2016-09-12 | 2023-02-08 | Dassault Systèmes | Deep convolutional neural network for 3d reconstruction of a real object |
-
2019
- 2019-01-09 JP JP2019001566A patent/JP6892569B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020112900A (ja) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021057810A1 (zh) | 数据处理、训练、识别方法、装置和存储介质 | |
CN108460338B (zh) | 人体姿态估计方法和装置、电子设备、存储介质、程序 | |
WO2021151276A1 (zh) | 基于oct图像的图像识别方法、装置、设备及存储介质 | |
JP6892569B2 (ja) | 人体に基づくデプス画像と組成値とを対応付ける装置 | |
KR101791590B1 (ko) | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 | |
JP4950787B2 (ja) | 画像処理装置及びその方法 | |
WO2021052375A1 (zh) | 目标图像生成方法、装置、服务器及存储介质 | |
JP6424309B1 (ja) | 採寸値に基づく3次元モデルを生成するプログラム及び装置 | |
JP5822411B2 (ja) | 画像情報のコード変換装置、画像情報のコード変換方法、画像コードを用いた画像関連情報提供システム、画像情報のコード変換プログラム、及びそのプログラムを記録した記録媒体 | |
US20150347833A1 (en) | Noncontact Biometrics with Small Footprint | |
CN109684969B (zh) | 凝视位置估计方法、计算机设备及存储介质 | |
CN111819568A (zh) | 人脸旋转图像的生成方法及装置 | |
Rehman et al. | SLNet: Stereo face liveness detection via dynamic disparity-maps and convolutional neural network | |
CN109271930B (zh) | 微表情识别方法、装置与存储介质 | |
CN109478243B (zh) | 材料主体的增强认证的方法 | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
CN111815768B (zh) | 三维人脸重建方法和装置 | |
JP4539519B2 (ja) | 立体モデル生成装置および立体モデル生成方法 | |
Chang et al. | Salgaze: Personalizing gaze estimation using visual saliency | |
JP6667785B1 (ja) | 3次元モデルとデプス画像とを対応付けて学習するプログラム | |
Poreddy et al. | No-reference virtual reality image quality evaluator using global and local natural scene statistics | |
Galdi et al. | PROTECT: Pervasive and useR fOcused biomeTrics bordEr projeCT–a case study | |
JP2008171074A (ja) | 三次元形状モデル生成装置、三次元形状モデル生成方法、コンピュータプログラム、及び三次元形状モデル生成システム | |
CN113111743A (zh) | 人员距离探测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200711 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201023 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210212 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210311 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6892569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |