JP2022096723A - モーション追跡に関係するシステム及び方法 - Google Patents
モーション追跡に関係するシステム及び方法 Download PDFInfo
- Publication number
- JP2022096723A JP2022096723A JP2020209841A JP2020209841A JP2022096723A JP 2022096723 A JP2022096723 A JP 2022096723A JP 2020209841 A JP2020209841 A JP 2020209841A JP 2020209841 A JP2020209841 A JP 2020209841A JP 2022096723 A JP2022096723 A JP 2022096723A
- Authority
- JP
- Japan
- Prior art keywords
- position information
- motion
- information
- human body
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】モーション追跡に関係するシステム及び方法を提供する。
【解決手段】モーション追跡システムは、ユーザの人体部位に装着可能な複数のモーシ感知装置を含む。モーション追跡方法は、第1の期間中の第1の感知データにより、位置情報の第1の部分を取得し、第2の期間中の第2の感知データにより、位置情報の第2の部分を取得する。第2の感知データは、画像センサから撮像された画像に基づき取得される。第1の感知データは、該画像に基づき取得されない。位置情報の第1の部分と第2の部分とが、組合せ済み位置情報として組み合わされる。ユーザのモーション情報が、組合せ済み位置情報により決定される。従って、ユーザの動きを、改善された精度で追跡することができる。
【選択図】図3
【解決手段】モーション追跡システムは、ユーザの人体部位に装着可能な複数のモーシ感知装置を含む。モーション追跡方法は、第1の期間中の第1の感知データにより、位置情報の第1の部分を取得し、第2の期間中の第2の感知データにより、位置情報の第2の部分を取得する。第2の感知データは、画像センサから撮像された画像に基づき取得される。第1の感知データは、該画像に基づき取得されない。位置情報の第1の部分と第2の部分とが、組合せ済み位置情報として組み合わされる。ユーザのモーション情報が、組合せ済み位置情報により決定される。従って、ユーザの動きを、改善された精度で追跡することができる。
【選択図】図3
Description
本発明は、ユーザの動きを追跡するための方法に関するものであり、特に、モーション追跡に関係するシステム及び方法に関するものである。
(ゲームプレーヤー、コンピュータ、スマートフォン、スマート家電等といった)電子装置の直観的な操作を提供するため、ユーザの動きにより電子装置を直接制御するよう、ユーザの動きを検出することができる。
従来の技術において、電子装置によってはユーザの(手、脚、頭等といった)人体部位がこれら電子装置の動作を制御することを可能とし、これら人体部位の動きが追跡される。しかし、これら電子装置は、同時に複数の人体部位の動きを検出する1つの方法を提供するのみである。例えば、ある仮想現実(VR)製品は手持ち型コントローラを提供し、各手持ち型コントローラはユーザの手の動きを追跡するための慣性測定ユニット(IMU)を含む。時には、1つのモーション追跡方法のみがそのハードウェアまたは追跡機構により制限され、異常又は不正確な追跡結果となる可能性がある。
時には、単に1つのセンサでの追跡結果は正確でない可能性がある。従って、本発明は、1つの人体部位が異なるモーション追跡技術で追跡されることのできる、モーション追跡に関係するシステム及び方法を対象とする。
例示的な実施形態の1つにおいて、方法は、ユーザの人体部位に装着可能な第1、第2、第3のモーション感知装置を含むシステムに適合される。該方法は、以下のステップを含むが、これに限定されない。第1、第2、第3のモーション感知装置に設けられたモーションセンサに基づき、第1の感知データが取得される。第1、第2、第3のモーション感知装置の間で送信される無線信号に基づき、第2の感知データが取得される。ユーザのモーション情報が、第1の感知データと第2の感知データとを含む決定要因により決定される。
例示的な実施形態の1つにおいて、システムは、3つのモーション感知装置とプロセッサとを含むが、これに限定されない。モーション感知装置は、ユーザの人体部位に装着可能である。各モーション感知装置は、無線トランシーバとモーションセンサとを含む。無線トランシーバは、無線信号を送受信するために用いられる。モーションセンサは、ユーザの1つの人体部位の動きを感知するために用いられる。プロセッサは、モーション感知装置のモーションセンサに基づく第1の感知データと、3つのモーション感知装置の間で送信される無線信号に基づく第2の感知データとを取得し、第1の感知データと第2の感知データとを含む決定要因によりユーザのモーション情報を決定するよう構成される。
上記を鑑み、1以上の実施形態により提供されるモーション追跡に関係するシステム及び方法によると、ユーザの1つの動作部位の動きが複数の感知方法に基づく感知データに基づき追跡される。従って、正確で信頼できる追跡メカニズムが提供される。
ただし、この概要は本発明の全ての様態と実施形態を含むものではなく、如何なる方法でも限定又は制限を意図するものではないことを理解されたい。そして、ここで開示される発明は、その明らかな改善と改変を含むと当業者により理解される。
本発明の更なる理解のため添付図面が含まれ、本明細書に包含され、本明細書の一部を構成する。図面は本発明の実施形態を表し、明細書と共に、本発明の原理を説明する役割を果たす。
本発明の好ましい実施形態の詳細を述べる。実施例は添付の図面に表される。可能な限り、図面と明細書において同一の符号が同一又は類似の部材に対し用いられる。
図1は、本発明の例示的な実施形態の1つによるモーション追跡システム10を表すブロック図である。図1を参照し、モーション追跡システム10は、3以上の複数のモーション感知装置100と、演算装置200とを含むが、これに限定されない。モーション追跡システム10は、VR、AR、MR、XR又は他の現実関連技術に適合される。
各モーション感知装置100は、無線トランシーバ110とモーションセンサ130とを含むが、これに限定されない。モーション感知装置100は、手持ち型コントローラ、又は、装着型コントローラ、スマートウォッチ、足首センサ、腰ベルト、ヘッドマウントディスプレイ(HMD)等といった装着型装置であることができる。1つの実施形態において、各モーション感知装置100はユーザの1つの人体部位に装着可能である。人体部位は、手、頭、足首、脚、腰、又は他の部位であってよい。
無線トランシーバ110は、Bluetooth、Wi-Fi、IR、RFID、又は他の無線通信技術と互換性がある通信トランシーバであることができる。1つの実施形態において、無線トランシーバ110は、他のモーション感知装置100の無線トランシーバ110と無線信号を送受信するために用いられ、モーション感知装置100の間で送信される無線信号に基づき、一連の第1の感知データが生成される。一連の第1の感知データ生成のための詳細な処理については後に紹介する。
モーションセンサ130は、加速度計、ジャイロスコープ、磁力計、慣性測定ユニット(IMU)、又は上記のセンサの任意の組合せであってよい。1つの実施形態において、モーションセンサ130は、ある時間内の複数の時点でモーションセンサ130の(加速度、回転、磁力等といった)感知結果から一連の第1の感知データを生成するため、該時間にモーション感知装置100を装着したユーザの対応する人体部位の動きを感知するために用いられる。1つの例として、第1の感知データは3-DoF(Degree of Freedom:自由度)データを含み、3-DoFデータは、ヨー、ロール、ピッチの加速度といった、3次元(3D)空間における人体部位の方位情報に関連する。
演算装置200は、メモリ240とプロセッサ250とを含むが、これに限定されない。演算装置200は、コンピュータ、サーバ、スマートフォン、タブレット、又はモーション感知装置100のうちの1つであることができる。
メモリ240は、固定又は取り外し可能なランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ又は類似のデバイス、又は上記デバイスの組合せであってよい。メモリ240は、プログラムコード、デバイス設定、バッファデータ、又は(感知データ、モーション情報、距離関係等といった)永続的データを格納するために用いられ、これらデータについては後に紹介する。
プロセッサ250はメモリ240に連接され、プロセッサ250は、本発明の例示的な実施形態の手順を実行するため、メモリ240に格納されたプログラムコードを読み込むよう構成される。1つの実施形態において、プロセッサ150の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)等といったプログラマブルユニットにより実装されてよい。いくつかの実施形態において、プロセッサ250の機能は独立した電子デバイス又は集積回路(IC)により実装されてもよく、プロセッサ150の動作はソフトウェアにより実装されてもよい。
プロセッサ250は、モーション感知装置100の一部又は全てと同一の装置に設けられても設けられなくてよいことに注意されたい。ただし、モーションセンサ130とプロセッサ250をそれぞれ搭載する装置は、互いにデータを送受信するため、Bluetooth、Wi-Fi、赤外線無線通信といった、互換性のある通信技術を有する通信トランシーバ、又は物理的な伝送路を更に含んでよい。
1つの実施形態において、モーション追跡システム10はヘッドマウントディスプレイ(HMD)300を更に含んでよい。HMD300はユーザの頭に装着可能である。HMD300は、無線トランシーバ310と画像センサ360とを含むが、これに限定されない。
無線トランシーバ310の説明は、無線トランシーバ110の説明を参照でき、省略する。これは、HMD300が無線トランシーバ310を介しモーション感知装置100と通信してよいことを意味する。
画像センサ360は、モノクロカメラ又はカラーカメラといったカメラ、深層学習対応カメラ、ビデオレコーダ、又は画像を撮像できるその他の画像撮像装置であってよい。
図2は、本発明の例示的な実施形態の1つによるモーション感知システム20を表す概略図である。図2を参照し、モーション感知システム20は、HMD300と、4つのモーション感知装置100(人体部位B1とB2(即ち、2つの足首)に装着された2つの足首センサと、人体部位B3とB4(即ち、2つの手)に装着された2つの手持ち型コントローラ)とを含む。いくつかの実施形態において、HMD300は、人体部位B5(即ち、頭)の方位情報を取得するため、もう1つのモーションセンサ130(図示せず)を更に含んでよい。プロセッサ250は、HMD300組み込まれる。
モーション感知システム20は、モーション感知装置100と、HMD300と、プロセッサ250の設置方法を表すための単なる1つの例であることに注意されたい。しかし、多くの他の行動理解システム10の実装がまだ存在し、本発明はこれに限定されない。
本発明の1以上の実施形態において提供される動作処理をより理解し易くするよう、モーション追跡システム10又は20の動作処理を詳述するため、いくつかの実施形態を以下に例示する。モーション追跡システム10又は20内のデバイスとモジュールは、ここで提供される制御方法を説明するための、下記の実施形態において適用される。制御方法の各ステップは実際の実装状況に応じて調整でき、ここで説明されるものに限定されるべきではない。
図3は、本発明の例示的な実施形態の1つによるモーション追跡方法を表すフロー図である。図3を参照し、プロセッサ250は、3つのモーション感知装置100に設けられたモーションセンサ130に基づき、第1の感知データを取得してよい(ステップS310)。具体的には、モーションセンサ130の異なる種類について、2D/3D空間における対応する人体部位の動きの、加速度、回転、磁力、方位、及び/又は、3-DoF/6-DoFが取得されてよく、モーションセンサ130の1以上の感知結果が人体部位の一連の第1の感知データとなる。
一方で、プロセッサ250は、3つのモーション感知装置100の間で送信される無線信号に基づき、第2の感知データを取得してよい(ステップS330)。1つの実施形態において、プロセッサ250は、複数の時点で、3以上のモーション感知装置100からの無線信号の信号強度を取得してよく、各信号強度は、それに対応する送信機と受信機と共にメモリ240に記録される。信号強度は、受信信号強度インジケーション(RSSI)、受信チャネル電力インジケータ(RCPI)、参照信号受信電力(RSRP)等であることができる。1つの実施形態において、モーション感知装置100は全ての検出可能な無線信号の信号強度を監視してよく、各無線信号は送信機及び/又は受信機の特定の識別子を含む。モーション感知装置100は更に、対応する識別子と共に信号強度を演算装置200へフィードバックしてよい。もう1つの実施形態において、演算装置200は全ての検出可能な無線信号の信号強度を監視してよく、プロセッサ250は、対応する送信機の識別子と共に信号強度をメモリ240に記録する。信号強度は、一連の第2の感知データを生成するため、ある期間にわたり記録される。これは、第2の感知データが時間で並べられた一連の信号強度を含むことを意味する。
いくつかの実施形態において、プロセッサ250は、画像センサ360から撮像された画像に基づき、第3の感知データを更に取得してよい。第3の感知データは、一連の画像、及び/又は、画像内の画素の(明度、色、深度等といった)感知結果であることができる。
次いで、プロセッサ250は、第1の感知データと第2の感知データとを含む決定要因によりユーザのモーション情報を決定してよい(ステップS350)。1つの実施形態において、モーション情報は、位置情報と方位情報とを含んでよい。位置情報について、先ず、1つの実施形態において、プロセッサ250は第1の感知データによりユーザの位置情報を決定してよい。この実施形態において、決定要因は第1の感知データを含む。変位に基づき位置情報を更に決定するため、人体部位に対応する変位が、3軸における人体部位の検出された加速度(即ち、第2の感知データ)の二重積分を介し推定されることができる。例えば、位置情報は、2又は3軸での座標、基準に対する位置等であることができる。
もう1つの実施形態において、プロセッサ250は、3つのモーション感知装置100の間の無線信号に基づく第2の感知データにより、位置情報を取得してよい。この実施形態において、決定要因は第2の感知データを含み、無線信号の信号強度は2つのモーション感知装置100の間の相対距離に関連することに注意されたい。加えて、三辺測量に基づき、3点の間の3つの距離が、3点の相対位置情報を決定するために用いられることができる。モーション感知装置100のうちの3つが上述した3点であると仮定し、プロセッサ250は、各2つのモーション感知装置100の間の相対距離を、モーション感知装置100の間の距離関係として決定してよい。次いで、プロセッサ250は、距離関係と三辺測量に基づき、追跡される装置の位置情報を生成してよい。
モーション追跡システム20を例として、プロセッサ250は、人体部位B3のためのモーション感知装置100から人体部位B5のためのHMD300(本実施形態においてモーション感知装置100の1つ)への無線信号、人体部位B4のためのモーション感知装置100から人体部位B5のためのHMD300への無線信号、及び人体部位B3のためのモーション感知装置100から人体部位B4のためのモーション感知装置100への無線信号の、信号強度を取得してよい。プロセッサ250は、信号強度によりこれらの距離関係を決定し、次いで、該距離関係に基づき人体部位B3の位置情報を生成してよい。位置情報は座標又は相対位置であってよい。
本実施形態はどの3つのモーション感知装置100が選択されるか限定しないことに注意されたい。例えば、人体部位B2のためのモーション感知装置100から人体部位B3のためのモーション感知装置100への無線信号、人体部位B3のためのモーション感知装置100から人体部位B1のためのモーション感知装置100への無線信号、及び人体部位B2のためのモーション感知装置100から人体部位B1のためのモーション感知装置100への無線信号の信号強度が、人体部位B1の位置情報を推定するために用いられることができる。モーション感知装置100の組合せは要件に応じて変化することができる。
更にもう1つの実施形態において、プロセッサ250は、第3の感知データによりユーザの位置情報を判定してよい。この実施形態において、決定要因は第3の感知データを含む。画像内の人体部位の位置と変位が、実環境における位置情報を決定するために用いられることができる。図2を例として、画像内の人体部位B4に対応する感知強度と画素位置が、人体部位B4の深度情報(即ち、HMD300に対する距離)を推定するため、そして画像センサ360に対し平行な面での人体部位B4の2D位置を推定するために用いられることができる。
例えば、無線トランシーバ110、モーションセンサ130、画像センサ360のうちの1つに基づく、1つの感知方法のみに基づく位置情報の精度は異なる可能性があることに注意されたい。このため、対応する人体部位の位置情報を決定するため、2以上の感知方法が用いられることができる。
1つの実施形態において、プロセッサ250は、第1の感知データにより第1の位置情報を取得し、第2の感知データにより第2の位置情報を取得し、第1の位置情報と第2の位置情報とにより調整済み位置情報を取得してよい。この実施形態において、決定要因は第1の感知データと第2の感知データとを含む。プロセッサ250は、第1の位置情報と第2の位置情報との組合せにより位置情報を決定してよい。いくつかの実施形態において、該組合せは重み付き組合せである。調整済み位置情報は、重み付き第1の位置情報と重み付き第2の位置情報との和により決定される。
1つの実施形態において、第1の位置情報と第2の位置情報の重み付き組合せの重みは固定であってよい。もう1つの実施形態において、第1の位置情報と第2の位置情報の重み付き組合せの重みは変化してよい。第1の位置情報の重みは0~100%までの値であることができ、第2の位置情報の重みは0~100%までの値であることができる。ただし、第1と第2の位置情報の重みは共に同時に0とはならない。
いくつかの実施形態において、画像センサ360の画像により生成された第3の感知データに基づき決定された位置情報は、無線トランシーバ110及び/又はモーションセンサ130に基づき決定された位置情報よりも正確であることに注意されたい。このため、1つの実施形態において、決定要因は第2と第3の感知データを含んでよい。プロセッサ250は、第1、第2、第3の感知データに基づき取得した位置情報の組合せにより位置情報を決定してよい。
1つの実施形態において、プロセッサ250は、第1の期間における第2の感知データにより位置情報の第1の部分を取得し、第2の期間における第3の感知データにより位置情報の第2の部分を取得し、位置情報の第1と第2の部分を、組合せ済み位置情報として組み合わせてよい。人体部位を検出する第3の感知データが、第1と第2の期間における第2の感知データに基づき位置情報を修正するため用いられることができる。プロセッサ250は、異なる期間における位置情報の第1と第2の部分に基づき、組合せ済み位置情報を決定してよい。例えば、位置(1,1)が第1の期間で第2の感知データに基づき決定され、もう1つの位置(2,1)が第2の期間で第3の感知データに基づき決定され、組合せ済み位置情報は位置(1,1)から位置(2,1)への変位であってよい。
いくつかの実施形態において、プロセッサ250は、第2と第3の位置情報の重み付き組合せにより位置情報を決定してよい。第2と第3の位置情報のための重みは、実際の状況により固定又は可変であってよい。例えば、第3の位置情報のための重みは第2の位置情報よりも大きくてよい。もう1つの実施形態において、人体部位が第3の感知データ内に存在する場合、位置情報は重み付き位置情報であり、人体部位が第3の感知データ内に存在しない場合、位置は第2の位置情報である。
1つの実施形態において、画像センサ360は、特定の視野(FOV)で設計されてよい。1つの人体部位が画像センサ360の視野の外側に位置する場合、プロセッサ250は第3の感知データを用いることのみによりこの人体部位のモーション情報を決定することはできず、第1又は第2の感知データが考慮されるべきである。
1つ実施形態において、プロセッサ250は、ユーザの人体部位が一連の第3の感知データ内に存在するか否かを判定し、三辺測量に基づき位置情報を決定するために人体部位の存在の判定結果により3つのモーション感知装置100の間の距離関係を用いるか否かを判定してよい。プロセッサ250は、第3の感知データ内の目標人体部位を識別するため、(深層学習、人工ニューラルネットワーク(ANN)、又はサポートベクターマシン(SVM)等といった)機械学習技術を用いてよい。
図4は、本発明の例示的な実施形態の1つによるモーション追跡方法を表す概略図である。図4を参照し、人体部位B4のためのモーション感知装置100が目標装置であると仮定する。この図において、人体部位B4はHMD300の視野FOV内に存在する(即ち、人体部位B4は第3の感知データ内に存在する)。
図5は、本発明の例示的な実施形態の1つによるモーション追跡方法を表す概略図である。図5を参照し、人体部位B3のためのモーション感知装置100が目標装置であると仮定する。この図において、人体部位B5はHMD300の視野FOV内に存在しない(即ち、人体部位B5は第3の感知データ内に存在しない)。
図4と5に表された視野のサイズと形状は例示のみであり、実際の要件に基づき改変されることができることに注意されたい。
このため、画像センサ360の視野が、人体部位が第3の感知データ内に存在するか否かを判定するために用いられる。1つの実施形態において、人体部位が第1の期間で視野の外側に位置し(即ち、第3の感知データ内に存在しない)、該人体部位が第2の期間で画像センサ360の視野の内側に位置する(即ち、第3の感知データ内に存在する)と仮定する。いくつかの実施形態において、人体部位が第1と第2の期間で画像センサ360の視野の内側に位置すると仮定する。
もう1つの実施形態において、プロセッサ250は、第1の感知データにより第1の位置情報を取得し、第2の感知データにより第2の位置情報を取得し、第1の位置情報と第2の位置情報と第3の位置情報とにより調整済み位置情報を取得してよい。この実施形態において、決定要因は第1、第2、第3の感知データを含む。プロセッサ250は、第1の位置情報と第2の位置情報と第3の位置情報との組合わせにより調整済み位置情報を決定してよい。
1つの実施形態において、該組合せは重み付き組合せである。プロセッサ250は、第3の位置情報により、第1の位置情報のための第1の重みと、第2の位置情報のための第2の重みを決定してよい。1つの実施形態において、第1の重みと第2の重みは度々変化する。人体部位が第3の感知データ内に存在する期間、第3の位置情報は正しい位置情報であると見なされ、第1の重みと第2の重みを伴う第1と第2の位置情報の重み付き組合せは、第3の位置情報により調整される。プロセッサ250は、重み付き組合せを取得するため、第1の重みと第1の位置情報とを乗算することにより第1のパラメータを取得し、第2の重みと第2の位置情報とを乗算することにより第2のパラメータを取得し、第1のパラメータと第2のパラメータとを加算することにより調整済み位置情報を取得してよいことに注意されたい。
1つの実施形態において、後続の時点での第1と第2の重みは、第3の位置情報が前の時点での第1と第2の位置情報の重み付き組合せに等しいという等式に基づき、決定されてよい。例えば、第3の時点で、第1の重みが0.5であり、第2の重みが0.5であり、3次元座標システムにおいて第1の位置情報が(6,6,6)であり、第2の位置情報が(10,10,10)であり、調整済み位置情報は(8,8,8)である。第3の位置情報が(7,7,7)である場合、第4の時点での第1の重みと第2の重みは、それぞれ0.75と0.25として決定される。次いで、第4の時点で、3次元座標システムにおいて第1の位置情報が(7,6,6)であり、第2の位置情報が(12,10,10)である場合、調整済み位置情報は(8.25,7,7)である。
もう1つの実施形態において、現時点での第1と第2の重みは、第3の位置情報が現時点での第1と第2の位置情報の重み付き組合せに等しいという等式にに基づき、決定されてよい。例えば、第2の時点で、3次元座標システムにおいて第1の位置情報が(6,6,6)であり、第2の位置情報が(10,10,10)である。第3の位置情報が(7,7,7)である場合、第2の時点での第1の重みと第2の重みは、それぞれ0.75と0.25として決定される。このとき、第2の時点での調整済み位置情報は(7,7,7)として決定される。
いくつかの実施形態において、ユーザの人体部位が第3の感知データ内に存在しない場合、第1の重みと第2の重みは固定である。人体部位が画像センサ360の視野の外側に位置する場合、第3と第2の重みは、ユーザの人体部位がまだ第3の感知データ内に存在した前の時点での、前の第1と第2の重みと同一である。例えば、第1の時点で人体部位が画像センサ360の視野の内側に位置し、第1の重みが0.5であり、第2の重みが0.5である。次いで、第2の時点で、人体部位が画像センサ360の視野の外側に位置する。第1の時点での第1と第2の重みと同じく、第2の時点で第1の重みは0.5であり、第2の重みは0.5である。ユーザの人体部位が第3の感知データ内に存在するまで、第1と第2の重みは第3の感知データにより変化する。
更にもう1つの実施形態において、プロセッサ250は、第1の位置情報と第2の位置情報と第3の位置情報との重み付き組合せにより、調整済み位置情報を決定してよい。調整済み位置情報は、重み付き第1の位置情報と重み付き第2の位置情報と重み付き第3の位置情報との和により決定される。3つの位置情報の重みは、実際の状況により可変又は固定であってよい。
一方、方位情報について、1つの実施形態において、プロセッサ250は一連の第1の感知データを、直接、方位情報として用いてよい。例えば、方位情報は、加速度、3軸における角速度、方位、3-DoF情報、及び/又は6-DoF情報であることができる。
もう1つの実施形態において、プロセッサ250は、第3の感知データにより方位情報を決定してよい。図4を例として、異なる時点での画像内の人体部位B4の2つの姿勢が、方位情報を推定するために用いられることができる。
いくつかの実施形態において、プロセッサ250は、第1の感知データと第3の感知データとにより、方位情報を決定してよい。方位情報は、第1の感知データと第3の感知データとの重み付き組合せであってよい。例えば、位置情報は、モーションセンサ130に基づく重み付き第1の方位情報と、画像センサ360に基づく重み付き第2の方位情報との和により決定されてよい。
1つの実施形態において、画像センサ360の視野は、第3の感知データによる方位情報を用いるか否かに関する条件である。人体部位が第3の感知データ内に存在する場合、第1の感知データと第3の感知データとにより方位情報が決定されてよい。人体部位が第3の感知データ内に存在しない場合、第1の感知データのみにより方位情報が決定されてよい。
1つの実施形態において、プロセッサ250は、方位情報と位置情報の両方により、ユーザのモーション情報を決定してよい。方位情報は、上述したように、第1の感知データ、第3の感知データ、又は第1と第3の感知データの組合せに基づき生成されることができる。位置情報は、上述したように、第1、第2、第3の感知データのうちの1つに基づき生成されることができる。図2の人体部位B1又はB2を例として、モーション情報は、持ち上げる、指し示す、蹴る、ステップを踏む、又はジャンプする動きに関連してよい。
もう1つの実施形態において、プロセッサ250は、第1の感知データに基づく方位情報と、第1の第2の位置情報に基づく調整済み位置情報の両方により、ユーザのモーション情報を決定してよい。人体部位が第3の感知データ内に存在するか否かに関わらず、プロセッサ250はユーザの動きを予測することができる。
更にもう1つの実施形態において、プロセッサ250は、第1の感知データに基づく方位情報と、第2と第3の感知データに基づく組合せ済み位置情報の両方に基づき、ユーザのモーション情報を決定してよい。これは、モーション情報が、人体部位が第3の感知データ内に存在する期間と存在しない期間の2つの期間における方位情報と組合せ済み位置情報とに基づき決定されることができることを意味する。
図4と5を例として、図4において人体部位B4の手を挙げる動きが判定され、図5において手を下げる動きが判定される。次いで、人体部位B4の上から下への揺動が決定される。
1つの実施形態において、プロセッサ250は、第2の感知データに基づく位置情報のみにより、ユーザのモーション情報を決定してよい。もう1つの実施形態において、プロセッサ250は、第2と第3の感知データに基づく組合せ済み位置情報のみにより、ユーザのモーション情報を決定してよい。いくつかの実施形態において、プロセッサ250は、人体部位が第3の感知データ内に存在しない場合、第2の感知データに基づく位置情報のみによりユーザのモーション情報を決定してよく、人体部位が第3の感知データ内に存在する場合、第3の感知データに基づく位置情報又は組合せ済み位置情報のみによりユーザのモーション情報を決定してよい。
人体部位の変位又は軌跡が追跡されてよく、モーション情報は方位又は軌跡に基づき決定されることができる。図4と5を例として、人体部位B3が上から下へ移動し、人体部位B4の上から下への揺動が決定される。
まとめると、上述した例示的な実施形態は、モーション追跡に関係するシステム及び方法を描写している。人体部位の動きは、信号強度、モーションセンサの感知結果、及び/又はカメラ画像に基づき追跡することができる。カメラ画像の検出結果により、追跡された人体部位がFOV内に存在しないことに応じて、モーション感知装置の間の信号強度が、位置情報の決定におけるモーションセンサの感知結果での精度の欠如を補償するために用いられることができる。追跡される人体部位がFOV内に存在することに応じて、カメラ画像が、信号強度に基づく位置推定結果を修正するために用いられることができる。従って、異なる条件のために複数の追跡方法が用いられることができ、追跡結果の精度を改善することができる。
当業者にとって、本発明の範囲又は精神から逸脱することなく、本発明の構造に様々な改変と変形を行うことができることは明らかであろう。上記を鑑み、本発明は、以下の特許請求の範囲及びそれらの均等物の範囲内にあるという条件で、本発明の改変及び変形を網羅することを意図している。
本発明のモーション追跡に関係するシステム及び方法は、モーション感知技術に応用することができる。
10、20:モーション感知システム
100:モーション感知装置
110、310:無線トランシーバ
130:モーションセンサ
200:演算装置
240:メモリ
250:プロセッサ
300:ヘッドマウントディスプレイ
360:画像センサ
B1~B5:人体部位
S310~S350:ステップ
FOV:視野
100:モーション感知装置
110、310:無線トランシーバ
130:モーションセンサ
200:演算装置
240:メモリ
250:プロセッサ
300:ヘッドマウントディスプレイ
360:画像センサ
B1~B5:人体部位
S310~S350:ステップ
FOV:視野
Claims (7)
- ユーザの人体部位に装着可能な複数のモーション感知装置を含むシステムに適合された方法であって、
前記方法が、
第1の期間中の第1の感知データにより、位置情報の第1の部分を取得することと、
第2の期間中の第2の感知データにより、前記位置情報の第2の部分を取得することであって、前記第2の感知データが画像センサから撮像された画像に基づき取得され、前記第1の感知データが前記画像に基づき取得されないことと、
前記位置情報の前記第1の部分と前記第2の部分とを、組合せ済み位置情報として組み合わせることと、
前記組合せ済み位置情報により、前記ユーザのモーション情報を決定することと
を含む、
方法。 - ユーザの人体部位に装着可能な、複数のモーション感知装置と、
画像センサと、
第1の期間中の第1の感知データにより、位置情報の第1の部分を取得することと、
第2の期間中の第2の感知データにより、前記位置情報の第2の部分を取得することであって、前記第2の感知データが前記画像センサから撮像された画像に基づき取得され、前記第1の感知データが前記画像に基づき取得されないことと、
前記位置情報の前記第1の部分と前記第2の部分とを、組合せ済み位置情報として組み合わせることと、
前記組合せ済み位置情報により、前記ユーザのモーション情報を決定することと
を実行するよう構成された、プロセッサと
を含む、
システム。 - 前記ユーザの前記人体部位のうちの1つが、前記第1の期間中の前記第2の感知データ内に存在しないことを判定することと、
前記ユーザの前記人体部位のうちの1つが、前記第2の期間中の前記第2の感知データ内に存在することを判定することと
を更に含む、
請求項1に記載の方法、
又は、
前記プロセッサが、
前記ユーザの前記人体部位のうちの1つが、前記第1の期間中の前記第2の感知データ内に存在しないことを判定することと、
前記ユーザの前記人体部位のうちの1つが、前記第2の期間中の前記第2の感知データ内に存在することを判定することと
を行うよう構成された、
請求項2に記載のシステム。 - 前記複数のモーション感知装置のうちの3つの間で送信される無線信号に基づき、前記第1の感知データを取得すること
を更に含む、
請求項1に記載の方法、
又は、
前記プロセッサが、
前記複数のモーション感知装置のうちの3つの間で送信される無線信号に基づき、前記第1の感知データを取得することと
を行うよう構成された、
請求項2に記載のシステム。 - 前記複数のモーション感知装置に設けられたモーションセンサに基づき、第3の感知データを取得することと、
前記第3の感知データにより、方位情報を取得することと、
前記方位情報と前記組合せ済み位置情報の両方により、前記ユーザの前記モーション情報を決定することと
を更に含む、
請求項1に記載の方法、
又は、
前記プロセッサが、
前記複数のモーション感知装置に設けられたモーションセンサに基づき、第3の感知データを取得することと、
前記第3の感知データにより、方位情報を取得することと、
前記方位情報と前記組合せ済み位置情報の両方により、前記ユーザの前記モーション情報を決定することと
を行うよう構成された、
請求項2に記載のシステム。 - 前記組合せ済み位置情報が、前記位置情報の前記第1の部分と前記第2の部分との間の変位を含む、
請求項1に記載の方法、
又は、
請求項2に記載のシステム。 - 前記第2の期間中の前記第1の感知データにより、前記位置情報の第3の部分を取得することと、
位置情報の前記第2の部分と前記第3の部分の重み付き組合せを決定することと、
前記重み付き組合せにより、前記位置情報を決定することと
を更に含む、
請求項1に記載の方法、
又は、
前記プロセッサが、
前記第2の期間中の前記第1の感知データにより、前記位置情報の第3の部分を取得することと、
位置情報の前記第2の部分と前記第3の部分の重み付き組合せを決定することと、
前記重み付き組合せにより、前記位置情報を決定することと
を行うよう構成された、
請求項2に記載のシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020209841A JP2022096723A (ja) | 2020-12-18 | 2020-12-18 | モーション追跡に関係するシステム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020209841A JP2022096723A (ja) | 2020-12-18 | 2020-12-18 | モーション追跡に関係するシステム及び方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022096723A true JP2022096723A (ja) | 2022-06-30 |
Family
ID=82165392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020209841A Pending JP2022096723A (ja) | 2020-12-18 | 2020-12-18 | モーション追跡に関係するシステム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022096723A (ja) |
-
2020
- 2020-12-18 JP JP2020209841A patent/JP2022096723A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11083950B2 (en) | Information processing apparatus and information processing method | |
JP2022529245A (ja) | 電磁追跡のためのセンサ融合 | |
WO2016041088A1 (en) | System and method for tracking wearable peripherals in augmented reality and virtual reality applications | |
US11460912B2 (en) | System and method related to data fusing | |
JP6852673B2 (ja) | センサ装置、センサシステム及び情報処理装置 | |
KR20190094954A (ko) | 전자장치의 움직임 측정 장치 및 방법 | |
TW201842432A (zh) | 自動配置感測器的方法、電子設備及記錄媒體 | |
US20180216959A1 (en) | A Combined Motion Capture System | |
US20210132684A1 (en) | Human computer interaction system and human computer interaction method | |
EP3971683A1 (en) | Human body portion tracking method and human body portion tracking system | |
JP2022096723A (ja) | モーション追跡に関係するシステム及び方法 | |
JP2022096724A (ja) | データ融合に関係するシステム及び方法 | |
TWI737068B (zh) | 動作追蹤系統和方法 | |
US11783492B2 (en) | Human body portion tracking method and human body portion tracking system | |
JP2021089691A (ja) | 動作追跡システム及び動作追跡方法 | |
EP3832435A1 (en) | Motion tracking system and method | |
EP4016252A1 (en) | System and method related to motion tracking | |
EP4016253A1 (en) | System and method related to data fusing | |
CN114661143A (zh) | 相关于数据融合的系统和方法 | |
TWI851831B (zh) | 人體部位追蹤方法和人體部位追蹤系統 | |
CN114745010A (zh) | 相关于运动跟踪的系统和方法 | |
CN113029190A (zh) | 运动跟踪系统和方法 | |
TW202225916A (zh) | 相關於動作追蹤的系統和方法 | |
TW202225915A (zh) | 相關於資料融合的系統和方法 | |
KR20160015674A (ko) | 관성센서를 이용한 인체 동작 분석 시스템 |