JP7444646B2 - ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム - Google Patents
ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム Download PDFInfo
- Publication number
- JP7444646B2 JP7444646B2 JP2020041836A JP2020041836A JP7444646B2 JP 7444646 B2 JP7444646 B2 JP 7444646B2 JP 2020041836 A JP2020041836 A JP 2020041836A JP 2020041836 A JP2020041836 A JP 2020041836A JP 7444646 B2 JP7444646 B2 JP 7444646B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- pose
- dimensional
- imu
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 195
- 238000012545 processing Methods 0.000 claims description 230
- 238000003384 imaging method Methods 0.000 claims description 182
- 230000008569 process Effects 0.000 claims description 167
- 238000005259 measurement Methods 0.000 claims description 132
- 238000006243 chemical reaction Methods 0.000 claims description 101
- 238000012937 correction Methods 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 9
- 230000001133 acceleration Effects 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 238000003786 synthesis reaction Methods 0.000 claims 2
- 101150052583 CALM1 gene Proteins 0.000 description 90
- 238000010586 diagram Methods 0.000 description 73
- 101150075118 sub1 gene Proteins 0.000 description 64
- 239000013598 vector Substances 0.000 description 55
- 230000006870 function Effects 0.000 description 19
- 230000036544 posture Effects 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 17
- 238000009877 rendering Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000010354 integration Effects 0.000 description 8
- 238000012546 transfer Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 6
- 238000009434 installation Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 4
- 239000002245 particle Substances 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/34—Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Dentistry (AREA)
- Molecular Biology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Social Psychology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Description
(1)画像データから取得された画像ベースポーズデータと、補間処理により取得された補間ポーズデータとの差が所定の閾値よりも大きい場合、画像データから取得された画像ベースポーズデータをポーズデータ生成装置からの出力データとし、
(2)画像データから取得された画像ベースポーズデータと、補間処理により取得された補間ポーズデータとの差が所定の閾値以下である場合、補間処理により取得された補間ポーズデータをポーズデータ生成装置からの出力データとする。
第1実施形態について、図面を参照しながら、以下、説明する。
図1は、第1実施形態に係るポーズデータ生成システム1000の概略構成図である。
(1)補間部3は、フレーム画像データが取得された時間ステップにおいて画像ベースポーズデータ取得部1から最初にポーズデータD1_pose_3Dが入力された場合、当該入力されたポーズデータD1_pose_3Dを出力データDout(3次元ポーズデータDout)として出力するとともに、当該出力データDoutを記憶保持する。
(2)補間部3は、フレーム画像データが取得されていない時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3が記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD1_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータを取得する。そして、補間部3は、取得した補間処理後のポーズデータを出力データDoutとして出力するとともに、当該出力データDoutを記憶保持する。
(3)補間部3は、フレーム画像データが取得された時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3が記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD1_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータを取得する。また、補間部3は、入力されたポーズデータD1_pose_3D(フレーム画像データから取得したポーズデータ)と、上記補間処理後のポーズデータとを比較し、当該比較の結果に従って、入力されたポーズデータD1_pose_3D(フレーム画像データから取得したポーズデータ)、および、上記補間処理後のポーズデータのいずれかを選択する。そして、補間部3は、選択したポーズデータを出力データDoutとして出力するとともに、当該出力データDoutを記憶保持する。
以上のように構成されたポーズデータ生成システム1000の動作について、以下、説明する。
時間ステップtにおいて、撮像装置Cam1により、被写体人物Sub1を含む3次元空間(撮像空間SP1)を撮像することで、フレーム画像データD_img(t)を取得する。なお、時間ステップtに取得されたフレーム画像データをD_img(t)と表記する。フレーム画像データD_img(t)により形成される画像(フレーム画像)は、図2の上左図に示す画像Img1である。
PT 1 (t)=[x1 (t),y1 (t),z1 (t)]
x1 (t):時間ステップtにおける慣性計測装置IMU1のx座標
y1 (t):時間ステップtにおける慣性計測装置IMU1のy座標
z1 (t):時間ステップtにおける慣性計測装置IMU1のz座標
PT 1 (t):P1 (t)転置行列
である。
PT 2 (t)=[x2 (t),y2 (t),z2 (t)]
x2 (t):時間ステップtにおける慣性計測装置IMU2のx座標
y2 (t):時間ステップtにおける慣性計測装置IMU2のy座標
z2 (t):時間ステップtにおける慣性計測装置IMU2のz座標
PT 2 (t):P2 (t)転置行列
である。
PT 3 (t)=[x3 (t),y3 (t),z3 (t)]
x3 (t):時間ステップtにおける慣性計測装置IMU3のx座標
y3 (t):時間ステップtにおける慣性計測装置IMU3のy座標
z3 (t):時間ステップtにおける慣性計測装置IMU3のz座標
PT 3 (t):P3 (t)転置行列
である。
時間ステップt+1において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+1)~D03(t+1)を取得し、取得したIMUデータをポーズデータ生成装置100のIMUデータ取得部2に送信する。なお、慣性計測装置IMU1~IMU3は、角速度のデータを取得するものとして、以下説明する。また、慣性計測装置IMU1が時間ステップtにおいて取得するIMUデータをD0k(t)と表記する。
(k:自然数、1≦k≦3)
Δk (t+1)=Ok (t+1)×Δt
OT k (t+1)=[ωxk (t+1),ωyk (t+1),ωzk (t+1)]
Δt:時間ステップtと時間ステップt+1と時間間隔
OT k (t+1):Ok (t+1)の転置行列
なお、ωxk (t+1)は、時間ステップt+1において慣性計測装置IMUkで取得された角速度のx成分データであり、ωyk (t+1)は、時間ステップt+1において慣性計測装置IMUkで取得された角速度のy成分データであり、ωzk (t+1)は、時間ステップt+1において慣性計測装置IMUkで取得された角速度のz成分データである。
Δxk (t+1)=ωxk (t+1)×Δt
Δyk (t+1)=ωyk (t+1)×Δt
Δzk (t+1)=ωzk (t+1)×Δt
に相当する処理により、慣性計測装置IMUkの時間ステップtから時間ステップt+1までの変位量(移動量)を取得(推定)する。
Pose_3d(t+1)=f1(P1 (t+1),P2 (t+1),P3 (t+1),Pose_3d(t))
に相当する処理を実行することで、時間ステップt+1の3DポーズデータPose_3d(t+1)を取得する。なお、関数f1は、P1 (t+1)~P3 (t+1)、および、Pose_3d(t)から、時間ステップt+1の3DポーズデータPose_3d(t+1)を取得する関数である。
時間ステップt+2において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+2)~D03(t+2)を取得し、取得したIMUデータをポーズデータ生成装置100のIMUデータ取得部2に送信する。
Pose_3d(t+2)=f1(P1 (t+2),P2 (t+2),P3 (t+2),Pose_3d(t+1))
に相当する処理を実行することで、時間ステップt+2の3DポーズデータPose_3d(t+2)を取得する。これにより、補間部3は、図7に示すような時間ステップt+2の3DポーズデータPose_3d(t+2)を取得する。
時間ステップt+3において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+3)~D03(t+3)を取得し、取得したIMUデータをポーズデータ生成装置100のIMUデータ取得部2に送信する。
Pose_3d(t+3)=f1(P1 (t+3),P2 (t+3),P3 (t+3),Pose_3d(t+2))
に相当する処理を実行することで、時間ステップt+3の3DポーズデータPose_3d(t+3)を取得する。これにより、補間部3は、図8に示すような時間ステップt+3の3DポーズデータPose_3d(t+3)を取得する。
時間ステップt+4において、撮像装置Cam1により、被写体人物Sub1を含む3次元空間(撮像空間SP1)を撮像することで、フレーム画像データD_img(t+4)を取得する。
PoseH_3d(t+4)=f1(P1 (t+4),P2 (t+4),P3 (t+4),Pose_3d(t+3))
に相当する処理を実行することで、時間ステップt+4の補間処理による3DポーズデータPoseH_3d(t+4)を取得する。
v1=vec(kp3,kp2)
v2=vec(kp2,kp1)
v3=vec(kp3,kp5)
v4=vec(kp5,kp6)
v5=vec(kp6,kp7)
v6=vec(kp3,kp4)
v7=vec(kp3,kp14)
v8=vec(kp14,kp15)
v9=vec(kp15,kp16)
v10=vec(kp4,kp8)
v11=vec(kp8,kp9)
v12=vec(kp9,kp10)
v13=vec(kp4,kp11)
v14=vec(kp11,kp12)
v15=vec(kp12,kp13)
なお、3DポーズデータPoseH_3d(t+4)に対応するキーポイント間のベクトルをベクトルv1~v15とし、3DポーズデータV_3d(t+4)に対応するキーポイント間のベクトルをベクトルv’1~v’15とする。
M:キーポイント間のベクトルの数
そして、補間部3は、上記により取得した評価値Evを所定の閾値Th1と比較する。なお、3DポーズデータPoseH_3d(t+4)と、3DポーズデータV_3d(t+4)とに対する評価値EvをEv(PoseH_3d(t+4),V_3d(t+4))と標記する。
(1)Ev(PoseH_3d(t+4),V_3d(t+4))>Th1である場合、補間部3は、ポーズデータ生成装置100で実行されている補間処理の予測精度が低いと判断し、フレーム画像データD_img(t+4)から取得した3DポーズデータV_3d(t+4)を時間ステップt+4の3DポーズデータPose_3d(t+4)として出力する(例えば、図11の場合)。
(2)Ev(PoseH_3d(t+4),V_3d(t+4))≦Th1である場合、補間部3は、ポーズデータ生成装置100で実行されている補間処理の予測精度が高いと判断し、補間処理により取得した3DポーズデータPoseH_3d(t+4)を時間ステップt+4の3DポーズデータPose_3d(t+4)として出力する(例えば、図10の場合)。
時間ステップt+5以降、ポーズデータ生成システム1000は、上記と同様の処理を繰り返し実行する。すなわち、フレーム画像が取得される時間ステップでは、時間ステップt+4の処理と同様の処理が実行され、フレーム画像が取得されない時間ステップでは、時間ステップt+1~t+3の処理と同様の処理が実行される。
次に、第1実施形態の第1変形例について、説明する。なお、上記実施形態と同様の部分については、同一符号を付し、詳細な説明を省略する。
システムモデル(状態方程式):
xt=f(xt-1,ut,wt)
f:時間ステップt-1と時間ステップtとの状態変化を表す状態遷移関数
ut:時間ステップtの制御入力
wt:時間ステップtのシステムノイズ
観測モデル(観測方程式):
zt=h(xt,vt)
h:状態xtのときに得られる観測ベクトルを表す関数
vt:時間ステップtの観測ノイズ
運動方程式等で人の動作(または人の特定部位の移動)が表現(予測)できる場合、当該運動方程式等により予測したデータと、実際の観測データ(IMUデータから特定されるデータ)とを用いて、時系列フィルタを適用することができる。
(A)予測
xt|t-1=f(xt-1|t-1),ut,0)
Pt|t-1=FtPt-1|t-1FT t+GtQtGT t
xt|t-1:時間ステップt-1における時間ステップtの状態推定値(状態推定ベクトル)
xt-1|t-1:時間ステップt-1における更新処理後の状態推定値(状態推定ベクトル)
Ft:システムの時間遷移に関する線形モデル
Pt-1|t-1:誤差の共分散行列
FT t:Ftの転置行列
Gt:時間遷移に関するノイズモデルの行列
Qt:時間遷移に関するノイズモデルの共分散行列
GT t:Gtの転置行列
(B)更新
et=zt-h(xt|t-1,0)
St=HtPt|t-1HT t+Rt
Kt=Pt|t-1HT t+S-1 t
xt|t=xt|t-1+Ktet
Pt|t=(I-KtHt)Pt|t-1
et:時間ステップtの観測残差
St:時間ステップtの観測残差の共分散
Kt:時間ステップtの最適カルマンゲイン
xt|t:時間ステップtにおいて更新された状態の推定値(推定ベクトル)
Pt|t:時間ステップtにおいて更新された誤差の共分散
Ht:観測モデルに関する線形モデル
Rt:時間ステップtの観測ノイズの共分散
なお、Ft、および、Htは、非線形カルマンフィルタとして拡張カルマンフィルタを用いる場合、下記の数式により示されるものとなる。
すなわち、前述した状態空間モデルの関数f、関数hは非線形関数である場合、テイラー展開より、2次微分以降の項目を省略して、非線形である関数f、hのそれぞれ1次微分の項までで近似し、線形化することで、カルマンフィルタのアルゴリズムが適用可能となる。
次に、第2実施形態について説明する。なお、上記実施形態(変形例を含む)と同様の部分については、同一符号を付し、詳細な説明を省略する。
図15は、第2実施形態に係るポーズデータ生成システム2000の概略構成図である。
(1)補間部3Aは、フレーム画像データが取得された時間ステップにおいて画像ベースポーズデータ取得部1Aから最初にポーズデータD1_pose_2Dが入力された場合、当該入力されたポーズデータD1_pose_2Dを出力データDout(2次元ポーズデータDout)として出力するとともに、当該出力データDoutを記憶保持する。
(2)補間部3Aは、フレーム画像データが取得されていない時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3Aが記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD2_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータを取得する。そして、補間部3Aは、取得した補間処理後のポーズデータを出力データDoutとして出力するとともに、当該出力データDoutを記憶保持する。
(3)補間部3Aは、フレーム画像データが取得された時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3Aが記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD2_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータを取得する。また、補間部3Aは、入力されたポーズデータD1_pose_2D(フレーム画像データから取得したポーズデータ)と、上記補間処理後のポーズデータとを比較し、当該比較の結果に従って、入力されたポーズデータD1_pose_2D(フレーム画像データから取得したポーズデータ)、および、上記補間処理後のポーズデータのいずれかを選択する。そして、補間部3Aは、選択したポーズデータを出力データDoutとして出力するとともに、当該出力データDoutを記憶保持する。
以上のように構成されたポーズデータ生成システム2000の動作について、以下、説明する。
時間ステップtにおいて、撮像装置Cam1により、被写体人物Sub1を含む3次元空間(撮像空間SP1)を撮像することで、フレーム画像データD_img(t)を取得する。フレーム画像データD_img(t)により形成される画像(フレーム画像)は、図16の上左図に示す画像Img1である。
PT k (t)=[xk (t),yk (t)]
xk (t):時間ステップtにおける慣性計測装置IMU1の2次元画像上のx座標
yk (t):時間ステップtにおける慣性計測装置IMU1の2次元画像上のy座標
PT 1 (t):P1 (t)転置行列
k:1≦k≦3を満たす自然数
である。
時間ステップt+1において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+1)~D03(t+1)を取得し、取得したIMUデータをポーズデータ生成装置200のIMUデータ取得部2に送信する。なお、慣性計測装置IMU1~IMU3は、角速度のデータを取得するものとして、以下説明する。また、慣性計測装置IMU1が時間ステップtにおいて取得するIMUデータをD0k(t)と表記する。
(k:自然数、1≦k≦3)
Δk (t+1)=Ok (t+1)×Δt
OT k (t+1)=[ωxk (t+1),ωyk (t+1)]
Δt:時間ステップtと時間ステップt+1と時間間隔
OT k (t+1):Ok (t+1)の転置行列
なお、ωxk (t+1)は、時間ステップt+1において慣性計測装置IMUkで取得された角速度の3次元空間座標のx成分データを3次元座標-2次元座標変換した後のデータ、すなわち、2次元画像上のx成分データであり、ωyk (t+1)は、時間ステップt+1において慣性計測装置IMUkで取得された角速度の3次元空間座標のy成分データを3次元座標-2次元座標変換した後のデータ、すなわち、2次元画像上のy成分データである。
Δxk (t+1)=ωxk (t+1)×Δt
Δyk (t+1)=ωyk (t+1)×Δt
に相当する処理により、慣性計測装置IMUkの時間ステップtから時間ステップt+1までの変位量(移動量)を取得(推定)する。
Pose_2d(t+1)=f2(P1 (t+1),P2 (t+1),P3 (t+1),Pose_2d(t))
に相当する処理を実行することで、時間ステップt+1の2DポーズデータPose_2d(t+1)を取得する。なお、関数f2は、P1 (t+1)~P3 (t+1)、および、Pose_2d(t)から、時間ステップt+1の3DポーズデータPose_2d(t+1)を取得する関数である。
時間ステップt+2において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+2)~D03(t+2)を取得し、取得したIMUデータをポーズデータ生成装置200のIMUデータ取得部2に送信する。
Pose_2d(t+2)=f2(P1 (t+2),P2 (t+2),P3 (t+2),Pose_2d(t+1))
に相当する処理を実行することで、時間ステップt+2の2DポーズデータPose_2d(t+2)を取得する。これにより、補間部3Aは、図18に示すような時間ステップt+2の2DポーズデータPose_2d(t+2)を取得する。
時間ステップt+3において、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+3)~D03(t+3)を取得し、取得したIMUデータをポーズデータ生成装置200のIMUデータ取得部2に送信する。
Pose_2d(t+3)=f2(P1 (t+3),P2 (t+3),P3 (t+3),Pose_2d(t+2))
に相当する処理を実行することで、時間ステップt+3の2DポーズデータPose_2d(t+3)を取得する。これにより、補間部3Aは、図19に示すような時間ステップt+3の2DポーズデータPose_2d(t+3)を取得する。
時間ステップt+4において、撮像装置Cam1により、被写体人物Sub1を含む3次元空間(撮像空間SP1)を撮像することで、フレーム画像データD_img(t+4)を取得する。
PoseH_2d(t+4)=f2(P1 (t+4),P2 (t+4),P3 (t+4),Pose_2d(t+3))
に相当する処理を実行することで、時間ステップt+4の補間処理による2DポーズデータPoseH_2d(t+4)を取得する。
v1=vec(kp3,kp2)
v2=vec(kp2,kp1)
v3=vec(kp3,kp5)
v4=vec(kp5,kp6)
v5=vec(kp6,kp7)
v6=vec(kp3,kp4)
v7=vec(kp3,kp14)
v8=vec(kp14,kp15)
v9=vec(kp15,kp16)
v10=vec(kp4,kp8)
v11=vec(kp8,kp9)
v12=vec(kp9,kp10)
v13=vec(kp4,kp11)
v14=vec(kp11,kp12)
v15=vec(kp12,kp13)
なお、2DポーズデータPoseH_2d(t+4)に対応するキーポイント間のベクトルをベクトルv1~v15とし、2DポーズデータV_3d(t+4)に対応するキーポイント間のベクトルをベクトルv’1~v’15とする。
M:キーポイント間のベクトルの数
そして、補間部3Aは、上記により取得した評価値Evを所定の閾値Th2と比較する。なお、2DポーズデータPoseH_2d(t+4)と、2DポーズデータV_2d(t+4)とに対する評価値EvをEv(PoseH_2d(t+4),V_2d(t+4))と標記する。
(1)Ev(PoseH_2d(t+4),V_2d(t+4))>Th2である場合、補間部3Aは、ポーズデータ生成装置200で実行されている補間処理の予測精度が低いと判断し、フレーム画像データD_img(t+4)から取得した2DポーズデータV_2d(t+4)を時間ステップt+4の2DポーズデータPose_2d(t+4)として出力する(例えば、図22の場合)。
(2)Ev(PoseH_2d(t+4),V_2d(t+4))≦Th2である場合、補間部3Aは、ポーズデータ生成装置200で実行されている補間処理の予測精度が高いと判断し、補間処理により取得した2DポーズデータPoseH_2d(t+4)を時間ステップt+4の2DポーズデータPose_2d(t+4)として出力する(例えば、図21の場合)。
時間ステップt+5以降、ポーズデータ生成システム2000は、上記と同様の処理を繰り返し実行する。すなわち、フレーム画像が取得される時間ステップでは、時間ステップt+4の処理と同様の処理が実行され、フレーム画像が取得されない時間ステップでは、時間ステップt+1~t+3の処理と同様の処理が実行される。
次に、第3実施形態について説明する。第3実施形態では、ポーズデータ生成システムを用いたCGデータ生成システムを実現させる。
図26は、第3実施形態に係るCGデータ生成システム3000の概略構成図である。
以上のように構成されたCGデータ生成システム3000の動作について、以下説明する。
次に、第4実施形態について説明する。第4実施形態では、ポーズデータ生成システムを用いたCGデータ生成システムを実現させる。
図27は、第4実施形態に係るCGデータ生成システム4000の概略構成図である。
(1)補間部3Cは、フレーム画像データが取得された時間ステップであって、初期化処理を行う時間ステップにおいて、画像ベースポーズデータ取得部1Aから出力されるデータD1_pose_2Dを2D-3D変換部6により2D-3D変換されたデータerr_3D(データD1_pose_2Dに対応する3Dデータ)を入力し、入力された当該データを出力データDout(3次元ポーズデータDout)として出力するとともに、当該出力データDoutを記憶保持する。
(2)補間部3Cは、フレーム画像データが取得されていない時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3Cが記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD1_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータを取得する。そして、補間部3Cは、取得した補間処理後のポーズデータを出力データDoutとして出力するとともに、当該出力データDoutを記憶保持する。
(3)補間部3Cは、フレーム画像データが取得された時間ステップであって、初期化処理を実行しない時間ステップにおいて、撮像空間に関する情報Info_space、および、撮像装置Cam1の撮影パラメータInfo_cam_prmに基づいて、補間部3Cが記憶保持している3次元ポーズデータDoutと、現時間ステップにおいて取得されたデータD1_imuとを用いて、補間処理を実行することで、補間処理後のポーズデータPoseH_3dを取得する。そして、補間部3Cは、取得した補間処理後のポーズデータを出力データDoutとして出力する。さらに、補間部3Cは、2D-3D変換部6から入力した誤差データerr_3Dと、補間処理後のポーズデータPoseH_3dとを用いて、補間処理後のポーズデータPoseH_3dを誤差データerr_3Dにより修正する処理(誤差修正処理)を実行することで、修正処理後のポーズデータをポーズデータPose_3dとして取得する。そして、補間部3Cは、取得したポーズデータPose_3dを出力データDoutとして、3次元CGデータ生成部Dev2に出力するとともに、当該出力データDoutを記憶保持する。
err_2D=D1_pose_2D-D2_pose_2D
に相当する処理を実行することで、2次元のポーズデータの誤差データerr_2Dを取得する。そして、誤差取得部5は、取得した2次元のポーズデータの誤差データerr_2Dを2D-3D変換部6に出力する。
以上のように構成されたCGデータ生成システム4000の動作について、以下説明する。
時間ステップtにおいて、撮像装置Cam1により、被写体人物Sub1を含む3次元空間(撮像空間SP1)を撮像することで、フレーム画像データD_img(t)を取得する。フレーム画像データD_img(t)により形成される画像(フレーム画像)は、例えば、図16の上左図に示す画像Img1である。
err_2D=D1_pose_2D-D2_pose_2D
に相当する処理を実行する。時刻tにおいては、初期化処理を実行するので、データD2_pose_2Dは「0」(あるいは、無入力)であるので、
err_2D=D1_pose_2D
である。
時間ステップt+1~t+3の各時間ステップにおいて、CGデータ生成システム4000では、第1実施形態(変形例を含む)と同様の処理(時間ステップt+1~t+3の処理の各時間ステップの処理)が実行され、3次元ポーズデータPose_3d(t+1)~Pose_3d(t+3)が取得される。そして、CGデータ生成システム4000では、3次元ポーズデータPose_3d(t+1)~Pose_3d(t+3)を用いて、上記と同様に、3次元CGデータ生成部Dev2Aでの処理、2次元CGデータ生成部Dev1Aでの処理が実行されることで、2次元CGデータCG_outが取得される。
時間ステップt+4において、時間ステップt+1~t+3の処理と同様に、慣性計測装置IMU1~IMU3は、それぞれ、IMUデータD01(t+4)~D03(t+4)を取得し、取得したIMUデータをポーズデータ生成装置200BのIMUデータ取得部2に送信する。そして、補間部3Cは、時間ステップt+1~t+3の処理と同様の補間処理を実行し、補間処理後の3次元ポーズデータPoseH_3d(t+4)を取得する。そして、補間部3Cは、補間処理後の3次元ポーズデータPoseH_3d(t+4)を、データDoutとして、3次元CGデータ生成部Dev2Aに出力する。
err_2D=D1_pose_2D-D2_pose_2D
(err_2d(t+4)=V_2d(t+4)―PoseH_2d(t+4))
に相当する処理を実行することで、2次元のポーズデータの誤差データerr_2D(=err_2d(t+4))を取得する。そして、誤差取得部5は、取得した2次元のポーズデータの誤差データerr_2D(=err_2d(t+4))を2D-3D変換部6に出力する。
Pose_3d(t+4)=PoseH_3d(t+4)-k1×err_3d(t+4)
k1:係数
に相当する処理を実行することで、誤差修正処理を実行する。
時間ステップt+5以降、CGデータ生成システム4000は、上記と同様の処理を繰り返し実行する。すなわち、フレーム画像が取得される時間ステップでは、時間ステップt+4の処理と同様の処理が実行され、フレーム画像が取得されない時間ステップでは、時間ステップt+1~t+3の処理と同様の処理が実行される。
上記実施形態(変形例を含む)では、画像ベースポーズデータ取得部において、フレーム画像データからポーズデータ(画像ベースポーズデータ)を取得するときに、単独のフレーム画像を用いて処理する場合について説明したが、これに限定されることはない。例えば、ポーズデータ取得部において、複数のフレーム画像(例えば、時系列に連続する複数のフレーム画像)を用いて、フレーム画像データからポーズデータ(画像ベースポーズデータ)を取得する処理(例えば、ニューラルネットワークによる処理)を実行することで、ポーズデータ(画像ベースポーズデータ)を取得するようにしてもよい。なお、ポーズデータ(画像ベースポーズデータ)が取得されるタイミングとIMUデータが取得されるタイミングがずれる場合、ポーズデータ生成装置において、例えば、IMUデータを遅延させて、両者のタイミングを一致させるようにして、補間処理等を実行するようにすればよい。
3000、4000 CGデータ生成システム
100、200、200A、200B ポーズデータ生成装置
1、1A 画像ベースポーズデータ取得部
2 IMUデータ取得部
3、3A、3B 補間部
4、4A IMUデータ変換部
5 誤差取得部
6 2D-3D変換部
IMU1~IMUn 慣性計測装置
Claims (11)
- 時間ステップt(t:整数)において3次元空間内の被写体を撮像することで取得される画像データから、前記被写体の姿勢情報を含むデータである画像ベースポーズデータを取得する画像ベースポーズデータ取得部と、
前記被写体の異なる位置に取り付けられた複数の慣性計測装置から出力されるデータであって、前記被写体に取り付けられた前記慣性計測装置の3次元空間内での位置データ、変位データ、速度データ、加速度データ、角速度データの少なくとも1つを含むデータであるIMUデータを取得するIMUデータ取得処理部と、
時間ステップtに取得された前記画像データの次に画像データが取得されるタイミングを時間ステップt+k(k:自然数)とすると、時間ステップtよりも後で、かつ、時間ステップt+kよりも前の期間である第1期間において、前記画像ベースポーズデータ取得部により時刻tに取得された前記画像データを用いて取得された前記画像ベースポーズデータと、前記第1期間において前記IMUデータ取得処理部により取得された前記IMUデータとに基づいて補間処理を行うことで、前記被写体のポーズデータの補間データである補間ポーズデータを取得する補間部と、
を備えるポーズデータ生成装置。 - 前記画像ベースポーズデータ取得部は、前記画像データから、3次元データである前記画像ベースポーズデータを取得する、
請求項1に記載のポーズデータ生成装置。 - 前記画像ベースポーズデータ取得部は、前記画像データから、2次元データである前記画像ベースポーズデータを取得し、
前記IMUデータは、3次元データであり、
前記IMUデータ取得処理部は、3次元データである前記IMUデータに対して、3次元-2次元変換処理を実行することで、2次元データであるIMUデータを取得する、
請求項1に記載のポーズデータ生成装置。 - 前記画像ベースポーズデータ取得部は、前記画像データから、2次元データである前記画像ベースポーズデータを取得し、
前記IMUデータは、3次元データであり、
前記補間ポーズデータは、3次元データであり、
3次元データである前記補間ポーズデータを2次元に変換したデータである2次元補間ポーズデータと、前記画像ベースポーズデータとの誤差を含むデータである2次元誤差データを取得する誤差取得部と、
前記2次元誤差データを3次元に変換することで、3次元誤差データを取得する2D/3D変換部と、
をさらに備え、
前記補間部は、前記補間ポーズデータに対して、前記3次元誤差データに基づく誤差を修正する処理を行うことで、誤差修正処理後の補間ポーズデータを取得する、
請求項1に記載のポーズデータ生成装置。 - 前記画像ベースポーズデータ取得部は、
ポーズデータ生成装置により生成されるポーズデータのフレームレートをR1fps(R1:実数、fps:frames per second)とすると、0.5×R1fps以下のフレームレートで取得される前記画像データから前記画像ベースポーズデータを取得する、
請求項1から4のいずれかに記載のポーズデータ生成装置。 - 前記補間部は、
前記画像データが取得される時間ステップにおいて、前記画像データから取得された前記画像ベースポーズデータと、前記補間処理により取得された前記補間ポーズデータとを比較し、
(1)前記画像データから取得された前記画像ベースポーズデータと、前記補間処理により取得された前記補間ポーズデータとの差が所定の閾値よりも大きい場合、前記画像データから取得された前記画像ベースポーズデータを前記ポーズデータ生成装置からの出力データとし、
(2)前記画像データから取得された前記画像ベースポーズデータと、前記補間処理により取得された前記補間ポーズデータとの差が所定の閾値以下である場合、前記補間処理により取得された前記補間ポーズデータを前記ポーズデータ生成装置からの出力データとする、
請求項1から3のいずれかに記載のポーズデータ生成装置。 - 前記補間部は、時系列フィルタを用いた処理を実行することで前記補間処理を実行する、
請求項1から6のいずれかに記載のポーズデータ生成装置。 - 請求項3に記載のポーズデータ生成装置と、
3次元CGデータから2次元CGデータを生成するとともに、2次元のポーズデータから2次元CGデータを生成するCGデータ生成部と、
を備えるCGデータ生成システムであって、
前記CGデータ生成部は、
前記IMUデータ取得処理部が2次元データであるIMUデータを取得するための3次元―2次元変換処理に用いた変換パラメータに基づいて、3次元CGデータを2次元CGデータに変換する処理を実行することで、2次元合成用CGデータを取得し、取得した前記2次元合成用CGデータを前記2次元のポーズデータから生成された2次元CGデータを合成することで、出力用CGデータを取得する、
CGデータ生成システム。 - 請求項4に記載のポーズデータ生成装置と、
3次元のポーズデータに基づいて、CG処理を行うことで、3次元CGデータを生成する3次元CGデータ生成部と、
前記3次元CGデータ生成部により生成された3次元CGデータを2次元に変換する3D/2D変換処理を実行することで、2次元CGデータを取得する2次元CGデータ生成部と、
を備え、
前記誤差取得部は、前記2次元CGデータ生成部により取得される前記2次元CGデータに対応する2次元ポーズデータを前記2次元補間ポーズデータとして、当該2次元補間ポーズデータと、前記画像ベースポーズデータとの誤差を含むデータである2次元誤差データを取得する、
CGデータ生成システム。 - 時間ステップt(t:整数)において3次元空間内の被写体を撮像することで取得される画像データから、前記被写体の姿勢情報を含むデータである画像ベースポーズデータを取得する画像ベースポーズデータ取得ステップと、
前記被写体の異なる位置に取り付けられた複数の慣性計測装置から出力されるデータであって、前記被写体に取り付けられた前記慣性計測装置の3次元空間内での位置データ、変位データ、速度データ、加速度データ、角速度データの少なくとも1つを含むデータであるIMUデータを取得するIMUデータ取得処理ステップと、
時間ステップtに取得された前記画像データの次に画像データが取得されるタイミングを時間ステップt+k(k:自然数)とすると、時間ステップtよりも後で、かつ、時間ステップt+kよりも前の期間である第1期間において、前記画像ベースポーズデータ取得ステップにより時刻tに取得された前記画像データを用いて取得された前記画像ベースポーズデータと、前記第1期間において前記IMUデータ取得処理ステップにより取得された前記IMUデータとを用いて補間処理を行うことで、前記被写体のポーズデータの補間データである補間ポーズデータを取得する補間ステップと、
を備えるポーズデータ生成方法。 - 請求項10に記載のポーズデータ生成方法をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041836A JP7444646B2 (ja) | 2020-03-11 | 2020-03-11 | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム |
PCT/JP2021/002034 WO2021181902A1 (ja) | 2020-03-11 | 2021-01-21 | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム |
US17/690,015 US12118817B2 (en) | 2020-03-11 | 2022-03-09 | Pose data generation device, CG data generation system, pose data generation method, and non-transitory computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041836A JP7444646B2 (ja) | 2020-03-11 | 2020-03-11 | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021144403A JP2021144403A (ja) | 2021-09-24 |
JP7444646B2 true JP7444646B2 (ja) | 2024-03-06 |
Family
ID=77671309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041836A Active JP7444646B2 (ja) | 2020-03-11 | 2020-03-11 | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US12118817B2 (ja) |
JP (1) | JP7444646B2 (ja) |
WO (1) | WO2021181902A1 (ja) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164161A (ja) | 2011-02-07 | 2012-08-30 | Celsys:Kk | オブジェクト修正処理装置、方法及びプログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3611239B2 (ja) | 1999-03-08 | 2005-01-19 | 富士通株式会社 | 三次元cgモデル作成装置および処理プログラムを記録した記録媒体 |
JP3872469B2 (ja) * | 2003-10-23 | 2007-01-24 | 株式会社コナミデジタルエンタテインメント | データ処理方法、データ処理装置 |
JP4686595B2 (ja) * | 2005-03-17 | 2011-05-25 | 本田技研工業株式会社 | クリティカルポイント解析に基づくポーズ推定 |
JP2015185020A (ja) * | 2014-03-25 | 2015-10-22 | 株式会社ハイスピードボーイズ | イベント方法、コンサート開催方法、イベント会場及びコンテンツの売買方法 |
US10803600B2 (en) * | 2015-09-30 | 2020-10-13 | Sony Corporation | Information processing device, information processing method, and program |
JP2017182274A (ja) * | 2016-03-29 | 2017-10-05 | セイコーエプソン株式会社 | 情報処理装置およびコンピュータープログラム |
US10600157B2 (en) * | 2018-01-05 | 2020-03-24 | Qualcomm Incorporated | Motion blur simulation |
US11030813B2 (en) * | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
US10867220B2 (en) * | 2019-05-16 | 2020-12-15 | Rpx Corporation | Systems and methods for generating composite sets of data from different sensors |
-
2020
- 2020-03-11 JP JP2020041836A patent/JP7444646B2/ja active Active
-
2021
- 2021-01-21 WO PCT/JP2021/002034 patent/WO2021181902A1/ja active Application Filing
-
2022
- 2022-03-09 US US17/690,015 patent/US12118817B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012164161A (ja) | 2011-02-07 | 2012-08-30 | Celsys:Kk | オブジェクト修正処理装置、方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2021181902A1 (ja) | 2021-09-16 |
JP2021144403A (ja) | 2021-09-24 |
US12118817B2 (en) | 2024-10-15 |
US20220207903A1 (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Knoop et al. | Sensor fusion for 3D human body tracking with an articulated 3D body model | |
JP4222369B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び記録媒体 | |
Tao et al. | A novel sensing and data fusion system for 3-D arm motion tracking in telerehabilitation | |
JP4668360B2 (ja) | 移動体検出方法及び移動体検出装置 | |
JP7227969B2 (ja) | 三次元再構成方法および三次元再構成装置 | |
JP5555207B2 (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP2021518622A (ja) | 自己位置推定、マッピング、およびネットワークトレーニング | |
JP2018520425A (ja) | 三次元空間のモデリング | |
JP2024519940A (ja) | データ処理方法、装置、データ処理システム、電子機器及びコンピュータプログラム | |
Bashirov et al. | Real-time rgbd-based extended body pose estimation | |
JP2003346157A (ja) | 物体追跡装置及び方法 | |
KR102270949B1 (ko) | 3차원 인간 모델 복원 장치 및 방법 | |
JP2009237848A (ja) | 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム | |
JP2014085933A (ja) | 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
Fechteler et al. | Real-time avatar animation with dynamic face texturing | |
JP3520050B2 (ja) | 移動物体追跡装置 | |
JP7498404B2 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
JP7444646B2 (ja) | ポーズデータ生成装置、cgデータ生成システム、ポーズデータ生成方法、および、プログラム | |
JP5767078B2 (ja) | 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム | |
JP3401512B2 (ja) | 移動物体追跡装置 | |
KR20230165138A (ko) | 사람에 대한 3d 모델을 생성하는 전자 장치 및 그 동작 방법 | |
JP4673241B2 (ja) | 動体追跡装置、動体追跡方法及びその方法を実現したプログラムを格納した記録媒体 | |
Hori et al. | Silhouette-Based 3D Human Pose Estimation Using a Single Wrist-Mounted 360° Camera | |
JP7566683B2 (ja) | ポーズデータ生成装置、ポーズデータ生成方法、および、プログラム | |
Liu et al. | Deep learning for 3D human pose estimation and mesh recovery: A survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7444646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |