JP2022050776A - 人体部位追跡方法及び人体部位追跡システム - Google Patents

人体部位追跡方法及び人体部位追跡システム Download PDF

Info

Publication number
JP2022050776A
JP2022050776A JP2020156887A JP2020156887A JP2022050776A JP 2022050776 A JP2022050776 A JP 2022050776A JP 2020156887 A JP2020156887 A JP 2020156887A JP 2020156887 A JP2020156887 A JP 2020156887A JP 2022050776 A JP2022050776 A JP 2022050776A
Authority
JP
Japan
Prior art keywords
reference point
human body
point
image
body part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020156887A
Other languages
English (en)
Inventor
勝修 郭
Sheng-Hsiu Kuo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2020156887A priority Critical patent/JP2022050776A/ja
Publication of JP2022050776A publication Critical patent/JP2022050776A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

Figure 2022050776000001
【課題】運動予測による人体部位追跡方法及び人体部位追跡システムを提供する。
【解決手段】方法は、第1の画像を画像撮像装置から取得し、第1の画像から第1の参照点と第2の参照点とを識別し、第1と第2の参照点の3次元座標に基づき、第1の部分と第2の部分との間の位置関係を判定する。第2の画像を画像撮像装置から取得する。第2の画像は、第2の時点での第1の部分を捉えるが、第2の部分は捉えていない。第2の画像からの第3の参照点を識別する。第3の参照点は、第2の時点での人体部位の第1の部分の位置を示す。第3の参照点の3次元座標と位置関係とを用いることにより、第4の参照点の3次元座標を予測する。第4の参照点は、第2の時点での人体部位の第2の部分の位置を示す。従って、視野の外にある人体部位の位置が追跡できる。
【選択図】図3

Description

本発明は、運動予測に関するものであり、特に、人体部位追跡方法及び人体部位追跡システムに関するものである。
仮想現実(VR)、拡張現実(AR)、複合現実(MR)、XR(Extended Reality)といった、感覚、知覚、及び/又は環境をシミュレートするための技術は、最近人気が高まっている。前記技術は、ゲーム、軍事訓練、医療、遠隔操作等といった、複数の分野に応用することができる。一般的に、ユーザは仮想世界を体験するためヘッドマウントディスプレイを着用する。更に、ヘッドマウントディスプレイシステムでの直感的な操作を提供するため、ユーザの運動に応じてヘッドマウントディスプレイシステムを直接操作できるよう、ユーザの運動が検出されてよい。ユーザの運動は、カメラにより撮像された1以上の画像に基づき判定されてよい。しかし、カメラは限られた視野を有する。例えば、図1Aと図1Bは手の動作の例を表す概略図である。図1Aを参照し、ユーザの手Hはカメラの視野FOV内に位置している。図1Bを参照し、ユーザが手Hを更に上げると、手Hは視野FOVの外側に位置する可能性がある。ヘッドマウントディスプレイシステムは図1Bにおける手Hの位置を知らず、手Hの運動を追跡できない可能性がある。
人体部位が視野の外に位置するとき、人体部位の位置は追跡されることができない可能性がある。従って、本発明は、カメラの視野において欠けている人体部位の位置を予測するための、人体部位追跡方法及び人体部位追跡システムを対象とする。
例示的な実施形態の1つにおいて、人体部位追跡方法は、次のステップを含むが、これに限定されない。第1の画像が画像撮像装置から取得され、第1の画像は、第1の時点での人体部位の第1の部分と第2の部分とを捉える。第1の画像から、第1の参照点と第2の参照点が識別される。第1の参照点は第1の時点での第1の部分の位置を示し、第2の参照点は第1の時点での第2の部分の位置を示す。第1と第2の参照点の3次元座標に基づき、第1の部分と第2の部分との間の位置関係が判定される。第2の画像が画像撮像装置から取得される。第2の画像は、第2の時点での第1の部分を捉えるが、第2の部分は捉えていない。第3の参照点が第2の画像から識別される。第2の画像からの第3の参照点が識別され、第3の参照点は、第2の時点での人体部位の第1の部分の位置を示す。第3の参照点の3次元座標と位置関係とを用いることにより、第4の参照点の3次元座標が予測される。第4の参照点は、第2の時点での人体部位の第2の部分の位置を示す。
例示的な実施形態の1つにおいて、人体部位追跡システムは、画像撮像装置と、プロセッサとを含むが、これに限定されない。プロセッサは画像撮像装置に連接され、以下を行うよう構成される。画像撮像装置を介して第1の画像を取得し、第1の画像は第1の時点での人体部位の第1の部分と第2の部分とを捉え、人体部位の第1の部分は人体部位の第2の部分とつながっている。第1の画像から第1の参照点と第2の参照点とを識別し、第1の参照点は第1の時点での人体部位の第1の部分の位置を示し、第2の参照点は第1の時点での人体部位の第2の部分の位置を示す。第1の参照点と第2の参照点の3次元座標に基づき、人体部位の第1の部分と第2に部分との間の位置関係が判定される。画像撮像装置を介して第2の画像を取得し、第2の画像は第2の時点での人体部位の第1の部分を捉えるが、第2の部分は捉えていない。第2の画像から第3の参照点を識別し、第3の参照点は第2の時点での人体部位の第1の部分の位置を表す。第3の参照点の3次元座標と位置関係とを用いることにより、第4の参照点の3次元座標を予測し、第4の参照点は第2の時点での人体部位の第2の部分の位置を示す。第1の画像に基づき、第1の部分と第2の部分との間の位置関係を判定する。
上記を鑑み、人体部位追跡方法及び人体部位追跡システムによると、第1の時点での画像における人体部位の2つの部分の参照点が、第2の時点でのもう1つの画像において位置していない1つの部分の参照点の位置を予測するために用いられることができる。このため、人体部位の一部が何かにより隠れているとき、やはり隠れた部分の位置を追跡することが可能である。
ただし、この概要は本発明の全ての様態と実施形態を含むものではなく、如何なる方法でも限定又は制限を意図するものではないことを理解されたい。そして、ここで開示される発明は、その明らかな改善と改変を含むと当業者により理解される。
本発明の更なる理解のため添付図面が含まれ、本明細書に包含され、本明細書の一部を構成する。図面は本発明の実施形態を表し、明細書と共に、本発明の原理を説明する役割を果たす。
図1Aは、手の動作の例を表す概略図である。
図1Bは、手の動作の例を表す概略図である。
図2は、本発明の例示的な実施形態の1つによる人体部位追跡システムを表すブロック図である。
図3は、本発明の例示的な実施形態の1つによる人体部位追跡方法を表すフロー図である。
図4は、本発明の例示的な実施形態の1つによる、第1の時点での人体部位の運動を表す概略図である。
図5は、本発明の例示的な実施形態の1つによる、第2の時点での人体部位の運動を表す概略図である。
図6は、本発明の例示的な実施形態の1つによる、第2の時点での人体部位の運動を表す概略図である。
本発明の好ましい実施形態の詳細を述べる。実施例は添付の図面に表される。可能な限り、図面と明細書において同一の符号が同一又は類似の部材に対し用いられる。
図2は、本発明の例示的な実施形態の1つによる人体部位追跡システム100を表すブロック図である。図2を参照し、人体部位追跡システム100は、画像撮像装置110と、メモリ130と、プロセッサ150とを含むが、これに限定されない。人体部位追跡システム100は、VR、AR、MR、XR、又は他の現実シミュレーション関連技術に適合される。
画像撮像装置110は、モノクロカメラ又はカラーカメラといったカメラ、深層学習対応カメラ、ビデオレコーダ、又は画像を撮像できるその他の画像センサであってよい。1つの実施形態において、画像撮像装置120はヘッドマウントディスプレイ(HMD)の本体に設けられ、特定の方向に向かい撮像する。例えば、ユーザがHMDを着用したとき、画像撮像装置110はユーザの前方の情景を撮像する。いくつかの実施形態において、画像撮像装置110の方向及び/又は視野は、実際に要件に基づき調整できる。更にいくつかの実施形態において、画像撮像装置110は、ユーザの人体部位を含む画像を生成するため、ユーザの1以上の人体部位に向かい撮像するために用いられてよい。例えば、1以上の人体部位は、ユーザの手、腕、足首、脚、又は他の人体部位を含んでよい。
メモリ130は、固定又は取り外し可能なランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ、類似のデバイス、又は上記デバイスの組合せの如何なる類別であってもよい。メモリ130は、プログラムコード、デバイス構成、バッファデータ、又は、(画像、位置、位置関係、3次元座標、運動モデルといった)永続的データを記録し、これらデータについては後に紹介する。
プロセッサ150は、画像撮像装置110とメモリ130とに連接される。プロセッサ150は、本発明の例示的な実施形態の手順を実行するため、メモリ130に格納されたプログラムデータをロードするよう構成される。
いくつかの実施形態において、プロセッサ150は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)であってよい。プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)により実装されてもよく、プロセッサ150の動作はソフトウェアにより実装されてもよい。
プロセッサ150は、画像撮像装置110と同一の装置に設けられなくてもよいことに注意されたい。ただし、画像撮像装置110、プロセッサ150をそれぞれ搭載する機器は、互いにデータを送受信するため、Bluetooth、Wi-Fi、赤外線無線通信といった、互換性のある通信技術を有する通信トランシーバ、又は物理的な伝送路を更に含んでよい。例えば、画像撮像装置110がHMDの本体に設けられるのに対し、プロセッサ150は演算装置内に設けられてよい。
本発明の1以上の実施形態において提供される動作処理をより理解し易くするよう、人体部位追跡システム100の動作処理を詳述するため、いくつかの実施形態を以下に例示する。人体部位追跡システム100内のデバイスとモジュールは、ここで提供される制御方法を説明するための、下記の実施形態において適用される。方法の各ステップは実際の実装状況に応じて調整でき、ここで説明されるものに限定されるべきではない。
図3は、本発明の例示的な実施形態の1つによる人体部位追跡方法を表すフロー図である。図3を参照し、プロセッサ150は画像撮像装置110を介し/から第1の画像を取得してよい(ステップS310)。具体的には、第1の画像は、第1の時点で画像撮像装置110により撮像された画像のうちの1つである。第1の画像は、第1の時点での人体部位の第1の部分と第2の部分とを捉えることに注意されたい。即ち、人体部位の第1と第2の部分は、共に画像撮像装置110の視野内に位置している。人体部位は、ユーザの手、腕、脚、足、足首、脚、又は他の人体部位であることができる。人体部位の第1の部分は、人体部位の第2の部分につながっている。第1と第2の部分は、関節の間の人体部位の部分、又は人体部位の2つの隣り合う部分であってよい。例えば、第1の部分が前腕であり、第2の部分が手である。もう1つの例として、第1の部分が手のひらであり、第2の部分が1つの指である。いくつかの実施形態において、該部分は実際の要件に基づき決定されてよい。プロセッサ150は、物体認識機能又は他の画像認識技術で構成された(深層学習、人工ニューラルネットワーク(ANN)、サポートベクターマシン(SVM)等といった)機械学習技術を介し、第1の画像における人体部位、第1の部分、第2の部分を識別してよい。
プロセッサ150は、第1の画像から、第1の参照点と、第2の参照点とを識別してよい(ステップS320)。1つの実施形態において、第1の参照点は第1の時点での人体部位の第1の部分の位置を示し、第2の参照点は第1の時点での人体部位の第2の部分の位置を示す。第1の参照点と第2の参照点は、それぞれ第1の部分と第2の部分に位置する、重心、幾何学的中心、又は任意の点であることができる。いくつかの実施形態において、第1と第2の部分の位置を示すため、より多くの参照点、表面、輪郭を用いることができる。
図4は、本発明の例示的な実施形態の1つによる、第1の時点での人体部位の運動を表す概略図である。図4を参照し、第1の時点で、手410と前腕430とが共に視野FOV内に位置する。更に、プロセッサ150は、前腕430に位置する1つの点と、手410の重心を、それぞれ第1の参照点431と第2の参照点411として決定する。
プロセッサ150は、第1の参照点と第2の参照点の3次元座標に基づき、人体部位の第1の部分と第2の部分との間の位置関係を判定してよい(ステップS330)。具体的には、3次元座標は、ある空間における、ある点の位置を表すフォーマットの1つである。第1の参照点と第2の参照点の3次元座標を生成するため、第1の画像における第1の参照点と第2の参照点に対応する検出強度と画素位置が、第1の参照点と第2の参照点の奥行き情報(即ち、画像撮像装置110又は他の基準装置に相対する距離)を推定するため、そして画像撮像装置110に平行な面での第1の参照点と第2の参照点の2次元座標を推定するために用いられることができる。いくつかの実施形態において、ある点の位置を表すため、相対位置又は奥行きを用いることができる。
更に、位置関係は、人体部位の第1と第2の部分の間の相対位置に関連する。例えば、第1と第2の部分の間の距離、及び/又は、第1の部分から第2の部分への方向である。
1つの実施形態において、プロセッサ150は、位置関係として第1の参照点と第2の参照点との間の身体リンクを形成するため、第1の部分の第1の参照点と、第2の部分の第2の参照点とを結んでよい。図4を例とし、身体リンクBLは、第1の参照点431と第2の参照点411とを結ぶ。即ち、第1の参照点431と第2の参照点411は身体リンクBLの2つの端部である。
いくつかの実施形態において、身体リンクBLは直線でなくてもよい。手410と前腕430との間に、交点451が生成されてよい。例えば、交点451は手首に位置する。更には、身体リンクBLは交点451を更に通過してよい。
プロセッサ150は、画像撮像装置110を介し/から第2の画像を取得してよい(ステップS340)。具体的には、第2の画像は、第1の時点の後の第2の時点で画像撮像装置110により撮像された画像のうちのもう1つである。第2の画像は、第2の時点での第1の部分を捉えるが、第2の部分を捉えていないことに注意されたい。即ち、人体部位が動き、人体部位の第1の部分のみが画像撮像装置110の視野内に位置する。
プロセッサ150は、第2の画像から第3の参照点を識別してよい(ステップS350)。1つの実施形態において、第3の参照点は、第2の時点での人体部位の第1の部分の位置を示す。第3の参照点は、第1の部分に位置する、重心、幾何学的中心、又は任意の点であることができる。いくつかの実施形態において、第2の時点での第1の部分の位置を示すため、より多くの参照点、表面、輪郭を用いることができる。
図5は、本発明の例示的な実施形態の1つによる、第2の時点での人体部位の運動を表す概略図である。図5を参照し、第2の時点では、前腕430のみが視野FOV内に位置しており、手410は視野FOVの外側にある。更に、プロセッサ150は、第3の参照点として、前腕430に位置する1つの点を決定する。
プロセッサは、第3の参照点の3次元座標と、位置関係とを用いることにより、第4の参照点の3次元座標を予測してよい(ステップS360)。1つの実施形態において、第4の参照点は、第2の時点での人体部位の第2の部分の位置を示す。第4の参照点は、第2の部分に位置する、重心、幾何学的中心、又は任意の点であることができる。いくつかの実施形態において、第2の時点での第2の部分の位置を示すため、より多くの参照点、表面、輪郭を用いることができる。
第4の参照点が視野内に位置しないことから、プロセッサ150は、第1の部分の位置のように、第2の画像に基づき第2の部分の位置を直接判定することができない。ここで、位置関係が第3の参照点の位置と第4の参照点の位置とに関連すると仮定する。第1の時点での第1と第2の部分の間の相対位置は、第2の時点での第1と第2の部分の間の相対位置とまだ同一でありうる。
1つの実施形態において、プロセッサ150は、第2の画像における第3の参照点と第4の参照点とを身体リンクBLと共に結ぶことにより、第4の参照点の3次元座標を判定してよい。身体リンクはその形状を維持してよい。しかし、身体リンクの2つの端部は、第1の参照点と第2の参照点から、第3の参照点と第4の参照点へと変わる。プロセッサ150は、身体リンクに基づき第1の参照点と第2の参照点との間の座標差異を判定し、第4の参照点の3次元座標を判定するため、第3の参照点の3次元座標と、座標差異とを用いる。
図4と図5を例とし、身体リンクBLは手410と前腕430の動きと共に偏移しうる。第3の参照点433と(、交点453と、)第4の参照点413とを結ぶ身体リンクBLが存在する。従って、第4の参照点413の位置が決定できる。
1つの実施形態において、プロセッサ150は、第2の部分には位置せず、第1の部分の端部に位置する基準点を判定してよい。例えば、第1の部分は前腕であり、第2の部分が手であり、基準点は肘に位置する。プロセッサ150は、逆運動学に基づき、第2の画像における第1の部分と第2の部分との間に位置する中間点と基準点との位置に基づき、第2の部分に位置する目標点の位置を推定してよい。基準点として肘を例とすると、中間点は前腕と手の交点である手首に位置し、目標点は指の先端であってよい。一方、逆運動学は、関節のパラメータを算出する数学的方法である。プロセッサ150は、中間点と、基準点と、目標点とを逆運動学のための関節と見なしてよい。逆運動学に基づき、(第1の部分と第2の部分との間の角度、基準点と中間点の位置等といった)関節パラメータが与えられ、目標点の位置が推定できる。次いで、プロセッサ150は、目標点の位置に応じて、第4の参照点の3次元座標を調整してよい。ここで、第4の参照点と目標点とは、共に人体部位の第2の部分に位置すると仮定する。プロセッサ150は、第4の参照点が修正された位置からずれているか否かを確認し、第4の参照点の3次元座標を更に改変するため、目標点を用いてよい。
図6は、本発明の例示的な実施形態の1つによる、第2の時点での人体部位の運動を表す概略図である。図6を参照し、基準点435は肘に位置し、中間点455は手首に位置し、目標点415は指の先端に位置する。目標点415の位置は、逆運動学を用いることにより、基準点435と中間点455とに基づき判定できる。プロセッサ150は、第4の参照点が中間点455と目標415とを結ぶ線に位置するか否かを判定してよい。プロセッサ150は、中間点455と目標415との線に基づき、第4の参照点413の3次元座標を更に改変してよい。
1つの実施形態において、プロセッサ150は、第1の画像と、1以上の以前の画像とに基づき、第2の部分の運動モデルを判定してよい。1以上の以前の画像は、第1の画像の前に画像撮像装置110から取得される。プロセッサ150は、第1の画像と以前の画像との間の第2の部分のずれを分析し、第2の部分の軌道、回転、及び/又は速度を更に推定してよい。一方、運動モデルは、第2の部分の動きをシミュレートする数学的モデルである。第2の部分の軌道、回転、及び/又は速度は、運動モデルを推定するために用いられる。例えば、速度が固定値に留まる場合、運動モデルは等速運動である。プロセッサ150は、運動モデルに基づき、第4の参照点の3次元座標を更に調整してよい。例えば、運動モデルが回転運動である場合、第4の参照点の位置は下げられてよい。
1つの実施形態において、プロセッサ150は、目標点の位置に応じて、運動モデルに基づく第4の参照点の3次元座標を調整してよい。即ち、プロセッサ150は、運動モデルに基づき改変された第4の参照点の3次元座標を更に調整するため、目標点の位置を用いてよい。例えば、プロセッサ150は、改変された第4の参照点の3次元座標が中間点と目標点を結ぶ線に位置するか否かを判定する。従って、位置推定の精度が向上する。
まとめると、上記の例示的な実施形態は、人体部位方法と人体部位システムを描写している。1つの人体の2つの部分の位置関係は、第1の時点での画像における該部分の2つの参照点に基づき判定できる。第2の時点で該部分のうちの1つが画像撮像装置の視野の外側に位置する場合、視野から外れた部分に対応する参照点の位置は、位置関係に基づき推定できる。このため、人体部位のある部分が視野から外れても、人体部位の該部分を追跡できる。
当業者にとって、本発明の範囲又は精神から逸脱することなく、本発明の構造に様々な改変と変形を行うことができることは明らかであろう。上記を鑑み、本発明は、以下の特許請求の範囲及びそれらの均等物の範囲内にあるという条件で、本発明の改変及び変形を網羅することを意図している。
本発明の人体部位方法と人体部位システムは、人体部位の追跡機構に応用することができる。
FOV:視野
H、410:手
100:人体部位追跡システム
110:画像撮像装置
130:メモリ
150:プロセッサ
S310~S360:ステップ
411:第2の参照点
431:第1の参照点
430:前腕
451、453:交点
BL:身体ライン
413:第4の参照点
433:第3の参照点
415:目標点
435:基準点
455:中間点

Claims (7)

  1. 第1の画像を画像撮像装置から取得することであって、前記第1の画像が第1の時点での人体部位の第1の部分と第2の部分とを捉え、前記人体部位の前記第1の部分が前記人体部位の前記第2の部分とつながっていることと、
    前記第1の画像から第1の参照点と第2の参照点とを識別することであって、前記第1の参照点が前記第1の時点での前記人体部位の前記第1の部分の位置を示し、前記第2の参照点が前記第1の時点での前記人体部位の前記第2の部分の位置を示すことと、
    前記第1の参照点と前記第2の参照点の3次元座標に基づき、前記人体部位の前記1の部分と前記第2の部分との間の位置関係を判定することと、
    第2の画像を前記画像撮像装置から取得することであって、前記第2の画像が第2の時点での前記人体部位の前記第1の部分を捉えるが、前記第2の部分は捉えていないことと、
    前記第2の画像から第3の参照点を識別することであって、前記第3の参照点が前記第2の時点での前記人体部位の前記1の部分の位置を示すことと、
    前記第3の参照点の3次元座標と前記位置関係とを用いることにより、第4の参照点の3次元座標を予測することであって、前記第4の参照点が前記第2の時点での前記人体部位の前記第2の部分の位置を示すことと
    を含む、
    人体部位追跡方法。
  2. 画像撮像装置と、
    前記画像撮像装置に連接され、
    前記画像撮像装置を介し、第1の画像を取得することであって、前記第1の画像が第1の時点での人体部位の第1の部分と第2の部分とを捉え、前記人体部位の前記第1の部分が前記人体部位の前記第2の部分とつながっていることと、
    前記第1の画像から第1の参照点と第2の参照点とを識別することであって、前記第1の参照点が前記第1の時点での前記人体部位の前記第1の部分の位置を示し、前記第2の参照点が前記第1の時点での前記人体部位の前記第2の部分の位置を示すことと、
    前記第1の参照点と前記第2の参照点の3次元座標に基づき、前記人体部位の前記1の部分と前記第2の部分との間の位置関係を判定することと、
    前記画像撮像装置を介し、第2の画像を取得することであって、前記第2の画像が第2の時点での前記人体部位の前記第1の部分を捉えるが、前記第2の部分は捉えていないことと、
    前記第2の画像から第3の参照点を識別することであって、前記第3の参照点が前記第2の時点での前記人体部位の前記第1の部分の位置を示すことと、
    前記第3の参照点の3次元座標と前記位置関係とを用いることにより、第4の参照点の3次元座標を予測することであって、前記第4の参照点が前記第2の時点での前記人体部位の前記第2の部分の位置を示すことと
    を行うよう構成された、プロセッサと
    を含む、
    人体部位追跡システム。
  3. 前記第1の部分と前記第2の部分との間の前記位置関係を判定するステップが、
    前記位置関係として、前記第1の参照点と前記第2の参照点との間の身体リンクを形成するため、前記第1の画像における、前記第1の部分の前記第1の参照点と、前記第2の部分の前記第2の参照点とを結ぶことを含む、
    請求項1に記載の人体部位追跡方法、
    又は、
    前記プロセッサが、
    前記位置関係として、前記第1の参照点と前記第2の参照点との間の身体リンクを形成するため、前記第1の画像における、前記第1の部分の前記第1の参照点と、前記第2の部分の前記第2の参照点とを結ぶよう構成される、
    請求項2に記載の人体部位追跡システム。
  4. 前記第4の参照点の前記3次元座標を予測するステップが、
    前記第2の画像における前記第3の参照点と前記第4の参照点とを前記身体リンクと共に結ぶことにより、前記第4の参照点の前記3次元座標を判定することを含む、
    請求項3に記載の人体部位追跡方法、
    又は、
    前記プロセッサが、
    前記第2の画像における前記第3の参照点と前記第4の参照点とを前記身体リンクと共に結ぶことにより、前記第4の参照点の前記3次元座標を判定するよう構成される、
    請求項3に記載の人体部位追跡システム。
  5. 前記第2の時点での前記第1の部分の端部に位置する基準点を判定することと、
    逆運動学に基づき、前記第2の画像における、前記第1の部分と前記第2の部分との間の中間点と、前記基準点との位置に基づき、前記第2の部分に位置する目標点の位置を推定することであって、前記逆運動学が関節のパラメータを算出する数学的方法であり、前記中間点と前記基準点と前記目標点とが前記関節として見なされることと、
    前記目標点の位置に応じて、前記第4の参照点の前記3次元座標を調整することと
    を更に含む、
    請求項4に記載の人体部位追跡方法、
    又は、
    前記プロセッサが、
    前記第2の時点での前記第1の部分の端部に位置する基準点を判定することと、
    逆運動学に基づき、前記第2の画像における、前記第2の特徴点と、前記基準点との位置に基づき、前記第2の部分に位置する目標点の位置を推定することであって、前記逆運動学が関節のパラメータを算出する数学的方法であり、前記中間点と前記基準点と前記目標点とが前記関節として見なされることと、
    前記目標点の位置に応じて、前記第4の参照点の前記3次元座標を調整することと
    を行うよう構成される、
    請求項4に記載の人体部位追跡システム。
  6. 前記第1の画像と、少なくとも1つの以前の画像とに基づき、前記第2の部分の運動モデルを判定することであって、前記少なくとも1つの以前の画像が前記第1の画像の前に取得され、前記運動モデルが前記第2の部分の運動をシミュレートする数学的モデルであることと、
    前記運動モデルに応じて、前記第4の参照点の前記3次元座標を調整することと
    を更に含む、
    請求項4に記載の人体部位追跡方法、
    又は、
    前記プロセッサが、
    前記第1の画像と、少なくとも1つの以前の画像とに基づき、前記第2の部分の運動モデルを判定することであって、前記少なくとも1つの以前の画像が前記第1の画像の前に取得され、前記運動モデルが前記第2の部分の運動をシミュレートする数学的モデルであることと、
    前記運動モデルに応じて、前記第4の参照点の前記3次元座標を調整することと
    を行うよう構成される、
    請求項4に記載の人体部位追跡システム。
  7. 前記第2の時点での前記第1の部分の端部に位置する基準点を判定することと、
    逆運動学に基づき、前記第2の画像における、前記第1の部分と前記第2の部分との間の中間点と、前記基準点との位置に基づき、前記第2の部分に位置する目標点の位置を推定することであって、前記逆運動学が関節のパラメータを算出する数学的方法であり、前記基準点と前記中間点と前記目標点とが前記関節として見なされることと、
    前記目標点の位置に応じて、前記運動モデルに基づく前記第4の参照点の前記3次元座標を調整すること
    を更に含む、
    請求項6に記載の人体部位追跡方法、
    又は、
    前記プロセッサが、
    前記第2の時点での前記第1の部分の端部に位置する基準点を判定することと、
    逆運動学に基づき、前記第2の画像における、前記第1の部分と前記第2の部分との間の中間点と、前記基準点との位置に基づき、前記第2の部分に位置する目標点の位置を推定することであって、前記逆運動学が関節のパラメータを算出する数学的方法であり、前記中間点と前記目標点と前記基準点とが前記関節として見なされることと、
    前記目標点の位置に応じて、前記運動モデルに基づく前記第4の参照点の前記3次元座標を調整することと
    を行うよう構成される、
    請求項6に記載の人体部位追跡システム。

JP2020156887A 2020-09-18 2020-09-18 人体部位追跡方法及び人体部位追跡システム Pending JP2022050776A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020156887A JP2022050776A (ja) 2020-09-18 2020-09-18 人体部位追跡方法及び人体部位追跡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020156887A JP2022050776A (ja) 2020-09-18 2020-09-18 人体部位追跡方法及び人体部位追跡システム

Publications (1)

Publication Number Publication Date
JP2022050776A true JP2022050776A (ja) 2022-03-31

Family

ID=80854615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156887A Pending JP2022050776A (ja) 2020-09-18 2020-09-18 人体部位追跡方法及び人体部位追跡システム

Country Status (1)

Country Link
JP (1) JP2022050776A (ja)

Similar Documents

Publication Publication Date Title
Regazzoni et al. RGB cams vs RGB-D sensors: Low cost motion capture technologies performances and limitations
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
CN106843507A (zh) 一种虚拟现实多人互动的方法及系统
US11199711B2 (en) Enhanced reality systems
JP2004094288A (ja) 指示位置検出装置及び自律ロボット
Ohashi et al. Synergetic reconstruction from 2D pose and 3D motion for wide-space multi-person video motion capture in the wild
CN111353355A (zh) 动作追踪系统及方法
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
Yahya et al. Accurate shoulder joint angle estimation using single RGB camera for rehabilitation
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
CN206819290U (zh) 一种虚拟现实多人互动的系统
WO2014111947A1 (en) Gesture control in augmented reality
CN113033526A (zh) 基于计算机实现的方法、电子设备和计算机程序产品
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
JP2022516466A (ja) 情報処理装置、情報処理方法、並びにプログラム
TWI836498B (zh) 用於配件配對的方法、系統以及記錄介質
CN112712545A (zh) 人体部分跟踪方法和人体部分跟踪系统
JP2022050776A (ja) 人体部位追跡方法及び人体部位追跡システム
Desai et al. Combining skeletal poses for 3D human model generation using multiple Kinects
KR102483387B1 (ko) 손가락 재활 훈련을 위한 증강현실 콘텐츠 제공 방법 및 손가락 재활 훈련 시스템
TWI851831B (zh) 人體部位追蹤方法和人體部位追蹤系統
Cheng et al. Capturing human motion in natural environments
JP2021099666A (ja) 学習モデルの生成方法
Moharkan Comprehensive Survey on Human Motion Tracking System
TWI811108B (zh) 混合實境處理系統及混合實境處理方法