JP2021089691A - 動作追跡システム及び動作追跡方法 - Google Patents

動作追跡システム及び動作追跡方法 Download PDF

Info

Publication number
JP2021089691A
JP2021089691A JP2019220948A JP2019220948A JP2021089691A JP 2021089691 A JP2021089691 A JP 2021089691A JP 2019220948 A JP2019220948 A JP 2019220948A JP 2019220948 A JP2019220948 A JP 2019220948A JP 2021089691 A JP2021089691 A JP 2021089691A
Authority
JP
Japan
Prior art keywords
position information
motion
information
acquiring
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220948A
Other languages
English (en)
Inventor
靖▲にん▼ 黄
Ching-Ning Huang
靖▲にん▼ 黄
毅剛 謝
Yi Gang Xie
毅剛 謝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2019220948A priority Critical patent/JP2021089691A/ja
Publication of JP2021089691A publication Critical patent/JP2021089691A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動作追跡システム及び動作追跡方法を提供すること。【解決手段】動作追跡システムが、ユーザの人体部分に装着可能な3つの動作感知装置を含む。本方法において、第1の感知データが、動作感知装置上に配置された動作センサに基づいて獲得され、第2の感知データが、動作感知装置の間で送信される無線信号に基づいて獲得される。ユーザの動作情報が、決定要因によって決定される。決定要因は、第1の感知データと、第2の感知データとを含む。したがって、ユーザの動作が、向上した精度で追跡されることが可能である。【選択図】図3

Description

本開示は、一般に、ユーザの動作を追跡するための方法に関し、特に、動作追跡システム及び動作追跡方法に関する。
電子装置(ゲーム機、コンピュータ、スマートフォン、スマート器具など)上で直観的な操作を提供するのに、ユーザの動作に従って電子装置を直接に操作すべく、ユーザの動作が検出される場合がある。
従来の技術において、一部の電子装置では、ユーザの人体部分(手、脚、頭部など)によって、これらの電子装置の動作を制御することが可能であり、これらの人体部分の動作が追跡されることが可能である。しかし、これらの電子装置は、複数の人体部分の動作を同時に検出する1つの方法を提供するにすぎない。例えば、仮想現実(VR)製品が、ハンドヘルド・コントローラを提供する場合があり、各ハンドヘルド・コントローラは、ユーザの手の動作を追跡する慣性測定ユニット(IMU)が含まれている。ときとして、たった1つの動作追跡方法は、その製品のハードウェア又は追跡機構によって限定される場合があり、異常な、又は不正確な追跡結果をもたらす可能性がある。
時には、たった1つのセンサを用いた追跡結果は、正確でない可能性がある。したがって、本開示は、動作追跡システム及び動作追跡方法を対象とする。
例示的な実施形態のうちの1つにおいて、動作追跡方法は、ユーザの人体部分に装着可能な第1の動作感知装置と、第2の動作感知装置と、第3の動作感知装置とを含む動作追跡システムに適合させられる。動作追跡方法は、以下のステップを含むが、これらに限定されない。第1の感知データは、第1の動作感知装置、第2の動作感知装置、及び第3の動作感知装置の上に配置された動作センサに基づいて獲得される。第2の感知データが、第1の動作感知装置、第2の動作感知装置、及び第3の動作感知装置の間で送信される無線信号に基づいて獲得される。ユーザの動作情報が、第1の感知データと、第2の感知データとを含む決定要因により決定される。
例示的な実施形態のうちの1つにおいて、動作追跡システムが、3つの動作感知装置と、プロセッサとを含むが、これらに限定されない。動作感知装置は、ユーザの人体部分に装着可能である。各動作感知装置は、無線トランシーバと、動作センサとを含む。無線トランシーバは、無線信号を送信するため、又は受信するために使用される。動作センサは、ユーザの1つの人体部分の動作を感知するために使用される。プロセッサは、動作感知装置の動作センサに基づいて第1の感知データを獲得し、3つの動作感知装置の間で送信される無線信号に基づいて第2の感知データを獲得し、第1の感知データと、第2の感知データとを含む決定要因によってユーザの動作情報を決定するように構成される。
以上のことに鑑みて、1つ又は複数の実施形態において提供される動作追跡システム及び動作追跡方法によれば、ユーザの1つの操作部分の動作が、無線信号及び動作センサからの感知データに基づいて追跡される。したがって、正確であり、かつ信頼性の高い追跡機構が提供される。
しかし、本概要は、本開示の態様及び実施形態のすべてを包含するわけではない可能性があり、限定すること、又は制限的であることは、いずれの様態においても意図されていないこと、及び本明細書において開示される発明は、本発明の明白な改良形態及び変形形態を包含するように当業者によって理解されることを理解されたい。
添付の図面は、本開示のさらなる理解をもたらすように含められ、本明細書に組み込まれ、本明細書の一部分を構成する。図面は、本開示の実施形態を例示し、説明とともに、本開示の原理を説明するのに役立つ。
本開示の例示的な実施形態のうちの1つによる動作追跡システムを示すブロック図である。 本開示の例示的な実施形態のうちの1つによる動作追跡システムを示す概略図である。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示すフローチャートである。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。
次に、本開示の現在の好ましい実施形態を詳細に参照し、実施例を添付の図面に示す。可能な限り、同一の部分又は同様の部分を参照するのに、同一の参照符号が図面及び説明において使用される。
図1は、本開示の例示的な実施形態のうちの1つによる動作追跡システム10を示すブロック図である。図1を参照すると、動作追跡システム10が、3つ以上の複数の動作感知装置100と、計算装置200とを含むが、これらに限定されない。動作追跡システム10は、VR技術、AR技術、MR技術、XR技術、又は他の現実関連の技術に適合させられることが可能である。
各動作感知装置100は、無線トランシーバ110と、動作センサ130とを含むが、これらに限定されない。動作感知装置100は、装着可能なコントローラ、スマート・ウォッチ、足首センサ、腰回りベルト、頭部装着型ディスプレイ(HMD)、又はそれらに類似するものなどのハンドヘルド・コントローラ又は装着可能な装置であることが可能である。一実施形態において、各動作感知装置100は、ユーザの1つの人体部分に装着可能である。人体部分は、手、頭部、足首、脚、腰、又はその他の部分であってよい。
無線トランシーバ110は、Bluetooth(登録商標)技術、Wi−Fi技術、IR技術、RFID技術、又はその他の無線通信技術と適合する通信トランシーバであることが可能である。一実施形態において、無線トランシーバ110は、他の動作感知装置100の無線トランシーバ110を相手に無線信号を送信するため、及び/又は受信するために使用され、第1の感知データのシーケンスは、動作感知装置100の間で送信される無線信号に基づいて生成される。第1の感知データのシーケンスの生成に関する詳細なプロセスは、後段で概説される。
動作センサ130は、加速度計、ジャイロスコープ、磁力計、慣性測定ユニット(IMU)、又は前述のセンサの任意の組合せであってよい。実施形態において、動作センサ130は、期間内の複数の時点における動作センサ130の感知結果(加速度、回転、磁力など)から第1の感知データのシーケンスを生成すべく、ある期間にわたって、動作感知装置100を装着した、ユーザの対応する人体部分の動作を感知するために使用される。一実施例として、第1の感知データは、3自由度(3−DoF)データを含み、3−DoFデータは、ヨー、ロール、及びピッチにおける加速度などの、3次元(3D)空間における人体部分の方向情報と関係する。
計算装置200は、メモリ240と、プロセッサ250とを含むが、これらに限定されない。計算装置200は、コンピュータ、サーバ、スマートフォン、タブレット、又は動作感知装置100のうちの1つであることが可能である。
メモリ240は、任意のタイプの固定又は可動なランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、フラッシュ・メモリ、類似したデバイス、又はこれらのデバイスの組合せであってよい。メモリ240は、プログラム・コード、デバイス構成、バッファ・データもしくは永久データ(感知データ、動作情報、距離関係など)を記憶するのに使用されることが可能であり、これらのデータについては、後段で概説される。
プロセッサ250は、メモリ240に結合され、かつプロセッサ250は、本開示の例示的な実施形態の手続きを実行すべく、メモリ240に記憶されたプログラム・コードをロードするように構成される。一実施形態において、プロセッサ250の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル・シグナル・プロセッサ(DSP)チップ、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラム可能なユニットを使用することによって実施されてよい。また、一部の実施形態において、プロセッサ250の機能は、独立した電子デバイス又は集積回路(IC)によって実施されてもよく、プロセッサ250の動作は、ソフトウェアによって実施されてもよい。
プロセッサ250は、動作感知装置100のうちの1つ、一部、又はすべてと同一の装置に配置されても、そのようにされなくてもよいことに留意されたい。しかし、動作センサ130と、プロセッサ250とをそれぞれ備えた装置は、互いにデータを送信/受信すべく、Bluetooth(登録商標)、Wi−Fi、IR、又は物理的な通信回路などの適合する通信技術を備えた通信トランシーバをさらに含んでよい。
一実施形態において、動作追跡システム10は、頭部装着型ディスプレイ(HMD)300をさらに含んでよい。HMD300は、ユーザの頭部に装着可能である。HMD300は、無線トランシーバ310と、画像センサ360とを含むが、これらに限定されない。
無線トランシーバ310についての説明は、無線トランシーバ110の説明を参照することが可能であり、省略される。このことは、HMD300が無線トランシーバ310を通じて動作感知装置100と通信できることを意味する。
画像センサ360は、モノクロ・カメラもしくはカラー・カメラ、ディープ・カメラ、ビデオ・レコーダ、又は画像を取り込むことができる他のセンサなどのカメラであってよい。
図2は、本開示の例示的な実施形態のうちの1つによる動作感知システム20を示す概略図である。図2を参照すると、動作感知システム20は、HMD300と、4つの動作感知装置100(人体部分B1及びB2(すなわち、2つの足首)に装着される2つの足首センサ、及び人体部分B3及びB4(すなわち、2つの手)に装着される2つのハンドヘルド・コントローラである)とを含む。一部の実施形態において、HMD300は、人体部分B5(すなわち、頭部)の方向情報を獲得すべく、別の動作センサ130(図示せず)をさらに含んでよい。プロセッサ250は、HMD300に埋め込まれる。
動作感知システム20は、動作感知装置100、HMD300、及びプロセッサ250の配置様態を例示する実施例に過ぎないことに留意されたい。しかし、動作追跡システム10のさらに多くの他の実装形態が存在し、本開示は、それらに限定されない。
本開示の1つ又は複数の実施形態において提供される動作プロセスをよりよく理解すべく、いくつかの実施形態を以下に例示して、動作追跡システム10又は20の動作プロセスについて詳述する。動作追跡システム10又は20におけるデバイス及びモジュールは、本明細書において提供される制御方法を説明するために後段の実施形態において適用される。制御方法の各ステップは、実際の実装状況により調整されることが可能であり、本明細書において説明されるものに限定されるべきではない。
図3は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示すフローチャートである。図3を参照すると、プロセッサ250は、3つの動作感知装置100の上に配置された動作センサ130に基づいて第1の感知データを獲得してよい(ステップS310)。具体的には、様々なタイプの動作センサ130に関して、2D/3D空間における対応する人体部分の動作に関する加速度、回転、磁力、向き、及び/又は3−DoF/6−DoFが獲得することができ、動作センサ130の1つ又は複数の感知結果は、人体部分の第1の感知データのシーケンスになる。
他方、プロセッサ250は、3つの動作感知装置100の間で送信される無線信号に基づいて第2の感知データを獲得してもよい(ステップS330)。一実施形態において、プロセッサ250は、複数の時点で3つ以上の動作感知装置100から無線信号の信号強度を獲得してもよく、各信号強度は、その信号に対応する送信機及び受信機と一緒にメモリ240に記録される。信号強度は、受信信号強度指標(RSSI)、受信チャネル電力インジケータ(RCPI)、基準信号受信電力(RSRP)、又はそれらに類するものであることが可能である。一実施形態において、動作感知装置100は、検出可能なすべての無線信号の信号強度を監視してもよく、各無線信号は、送信機及び/又は受信機の特定の識別子を含む。動作感知装置100は、信号強度を、対応する識別子と一緒に計算装置200にさらにフィードバックしてもよい。別の実施形態において、計算装置200は、検出可能なすべての無線信号の信号強度を監視し、プロセッサ250は、信号強度を、送信機の対応する識別子と一緒にメモリ240に記録する。信号強度は、第2の感知データのシーケンスを生成すべくある期間にわたって記録される。このことは、第2の感知データが、時間順に並べられた信号強度のシーケンスを含むことを意味する。
一部の実施形態において、プロセッサ250は、画像センサ360から取り込まれた画像に基づいて第3の感知データをさらに獲得してもよい。第3の感知データは、画像のシーケンス、及び/又は画像におけるピクセルの感知結果(明るさ、色、深度など)であることが可能である。
次に、プロセッサ250は、第1の感知データと、第2の感知データとを含む決定要因によってユーザの動作情報を決定してよい(ステップS350)。一実施形態において、動作情報は、位置情報と、方向情報とを含んでよい。位置情報に関して、第一に、一実施形態において、プロセッサ250は、第1の感知データによりユーザの位置情報を決定してよい。この実施形態において、決定要因は、第1の感知データを含む。対応する人体部分の変位が、変位に基づいて位置情報をさらに決定すべく、3つの軸における人体部分の検出された加速度(すなわち、第2の感知データ)の二重積分を通じて推定されることが可能である。例えば、位置情報は、2つ又は3つの軸における座標、基準に対する位置などであることが可能である。
別の実施形態において、プロセッサ250は、3つの動作感知装置100の間の無線信号に基づく第2の感知データにより位置情報を獲得してもよい。この実施形態において、決定要因は、第2の感知データを含み、無線信号の信号強度は、2つの動作感知装置100の間の相対距離と関係することに留意されたい。さらに、三辺測量に基づいて、3点間の3つの距離が、その3点の相対位置情報を決定するのに使用されることが可能である。動作感知装置100のうちの3つが、前述の3点であるものと仮定して、プロセッサ250は、各2つの動作感知装置100の間の相対距離を、動作感知装置100の間の距離関係として決定することができる。次に、プロセッサ250は、距離関係及び三辺測量に基づいて、追跡される装置の位置情報を生成してよい。
動作追跡システム20を例にとると、プロセッサ250は、人体部分B3に関する動作感知装置100から人体部分B5に関するHMD300(この実施形態における動作感知装置100のうちの1つである)までの無線信号の信号強度、人体部分B4に関する動作感知装置100から人体部分B5に関するHMD300までの無線信号の信号強度、及び人体部分B3に関する動作感知装置100から人体部分B4に関する動作感知装置100までの無線信号の信号強度を獲得してよい。プロセッサ250は、それらの信号強度によりそれら動作感知装置100の距離関係を決定してよく、次に、その距離関係に基づいて人体部分B3の位置情報を生成する。位置情報は、座標又は相対位置であってよい。
実施形態は、どの3つの動作感知装置100が選択されるかを限定しないことに留意されたい。例えば、人体部分B2に関する動作感知装置100から人体部分B3に関する動作感知装置100までの無線信号の信号強度、人体部分B3に関する動作感知装置100から人体部分B1に関する動作感知装置100までの無線信号の信号強度、及び人体部分B2に関する動作感知装置100から人体部分B1に関する動作感知装置100までの無線信号の信号強度が、人体部分B1の位置情報を推定するために使用されることが可能である。動作感知装置100の組合せは、要求に応じて変更することが可能である。
さらに別の実施形態において、プロセッサ250は、第3の感知データによりユーザの位置情報を決定してもよい。この実施形態において、決定要因は、第3の感知データを含む。画像における人体部分の位置及び変位が、現実環境における位置情報を決定するために使用されることが可能である。図2を例にとると、信号強度、及び画像における人体部分B4に対応するピクセル位置が、人体部分B4の深度情報(すなわち、HMD300に対する距離)を推定するため、及び画像センサ360に平行な面における人体部分B4の2D位置を推定するために使用されることが可能である。
例えば、無線トランシーバ110、動作センサ130、及び画像センサ360のうちの1つに基づく、1つだけの感知方法に基づく位置情報の精度は、様々である可能性があることに留意されたい。したがって、2つ以上の感知方法が、対応する人体部分の位置情報を決定するのに使用されることが可能である。
一実施形態において、プロセッサ250は、第1の感知データにより第1の位置情報を獲得し、第2の感知データにより第2の位置情報を獲得し、かつ第1の位置情報及び第2の位置情報により、調整された位置情報を獲得してもよい。この実施形態において、決定要因は、第1の感知データと、第2の感知データとを含む。プロセッサ250は、第1の位置情報と第2の位置情報の組合せにより位置情報を決定してもよい。一部の実施形態において、組合せは、重量付けされた組合せである。調整された位置情報は、重量付けされた第1の位置情報と重量付けされた第2の位置情報の合計により決定される。
一実施形態において、第1の位置情報と第2の位置情報に関する重量付けされた組合せの重量は、固定であってよい。別の実施形態において、第1の位置情報と第2の位置情報に関する重量付けされた組合せの重量は、変更されてよい。第1の位置情報に関する重量が、0%から100%までの値であることが可能であり、かつ第2の位置情報に関する重量が、0%から100%までの値であることが可能である。しかし、第1の位置情報に関する重量と第2の位置情報に関する重量の両方が同時に0であってはならない。
一部の実施形態において、画像センサ360の画像によって生成される第3の感知データに基づいて決定される位置情報は、無線トランシーバ110及び/又は動作センサ130に基づいて決定される位置情報と比べて、より正確である可能性があることに留意されたい。したがって、一実施形態において、決定要因は、第2の感知データと、第3の感知データとを含んでもよい。プロセッサ250は、第1の感知データ、第2の感知データ、及び第3の感知データに基づいて獲得された位置情報の組合せにより、位置情報を決定してもよい。
一実施形態において、プロセッサ250は、第1の持続時間における第2の感知データにより位置情報の第1の部分を獲得し、第2の持続時間における第3の感知データにより位置情報の第2の部分を獲得し、かつ位置情報の第1の部分と第2の部分を組み合わされた位置情報として組み合わせてもよい。人体部分を検出する第3の感知データは、第1の持続時間及び第2の持続時間における第2の感知データに基づく位置情報を補正するのに使用されることが可能である。プロセッサ250は、異なる持続時間における位置情報の第1の部分及び第2の部分に基づいて、組み合わされた位置情報を決定してもよい。例えば、位置(1,1)が、第1の持続時間における第2の感知データに基づいて決定され、別の位置(2,1)が、第2の持続時間における第3の感知データに基づいて決定され、組み合わされた位置情報が、位置(1,1)から位置(2,1)への変位であることが可能である。
一部の実施形態において、プロセッサ250は、第2の位置情報と第3の位置情報の重量付けされた組合せにより、位置情報を決定してもよい。第2の位置情報と第3の位置情報に関する重量は、実際の状況に基づいて変更されても、固定であってもよい。例えば、第3の位置情報に関する重量は、第2の位置情報と比べて、より大きくてよい。別の実施形態において、位置情報は、第3の感知データに人体部分が存在する場合、重量付けされた組合せであり、位置情報は、第3の感知データに人体部分が存在しない場合、第2の位置情報である。
一実施形態において、画像センサ360は、特定の視野(FOV)を有するように設計されてもよい。1つの人体部分が、画像センサ360の視野の外に位置している場合、プロセッサ250は、第3の感知データを使用するだけではこの人体部分の動作情報を決定することができない可能性があり、第1の感知データ又は第2の感知データが考慮されなければならない。
一実施形態において、プロセッサ250は、ユーザの1つの人体部分が第3の感知データのシーケンスに存在するかどうかを判定してよく、その人体部分の存在の判定された結果により、3つの動作感知装置100の間の距離関係を、三辺測量に基づいて位置情報を決定するのに使用すべきかどうかを判定してよい。プロセッサ250は、第3の感知データにおいて目標人体部分を識別すべく、機械学習技術(深層学習、人工ニューラル・ネットワーク(ANN)、又はサポート・ベクタ・マシン(SVM)など)を使用してよい。
図4は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。図4を参照すると、人体部分B4に関する動作感知装置100が目標装置であるものと想定される。この図では、人体部分B4は、HMD300の視野FOVに存在する(すなわち、人体部分B4は、第3の感知データに存在する)。
図5は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。図5を参照すると、人体部分B3に関する動作感知装置100が目標装置であるものと想定される。この図では、人体部分B3は、HMD300の視野FOVに存在しない(すなわち、人体部分B3は、第3の感知データに存在しない)。
図4及び図5に示される視野のサイズ及び形状は、単に実施例であり、実際の要件に基づいて変更されることが可能であることに留意されたい。
したがって、画像センサ360の視野は、人体部分が第3の感知データに存在するかどうかを判定するために使用される。一実施形態において、人体部分は、第1の持続時間において視野の外に位置し(すなわち、第3の感知データに存在せず)、人体部分は、第2の持続時間において画像センサ360の視野内に位置する(すなわち、第3の感知データに存在する)ものと想定される。一部の実施形態において、人体部分は、第1の持続時間及び第2の持続時間において画像データ360の視野内に位置するものと想定される。
別の実施形態において、プロセッサ250は、第1の感知データにより第1の位置情報を獲得し、第2の感知データにより第2の位置情報を獲得し、第3の感知データにより第3の位置情報を獲得し、かつ第1の位置情報、第2の位置情報、及び第3の位置情報により、調整された位置情報を獲得してもよい。この実施形態において、決定要因は、第1の感知データと、第2の感知データと、第3の感知データとを含む。プロセッサ250は、第1の動作情報、第2の動作情報、及び第3の位置情報の組合せにより、調整された位置情報を決定してもよい。
一実施形態において、組合せは、重量付けされた組合せである。プロセッサ250は、第3の位置情報により、第1の位置情報に関する第1の重量、及び第2の位置情報に関する第2の重量を決定してもよい。一実施形態において、第1の重量及び第2の重量は、繰り返し変更される。人体部分が第3の感知データに存在する持続時間において、第3の位置情報は、正しい位置情報と見なされ、第1の重量と第2の重量を用いた第1の位置情報と第2の位置情報の重量付けされた組合せは、第3の位置情報により調整される。プロセッサ250は、第1の重量と第1の位置情報を乗算することによって第1のパラメータを獲得し、第2の重量と第2の位置情報を乗算することによって第2のパラメータを獲得し、かつ重量付けされた組合せを獲得するように、第1のパラメータを第2のパラメータに加算することによって、調整された位置情報を獲得してもよいことに留意されたい。
一実施形態において、後続の時点における第1の重量及び第2の重量は、第3の位置情報が、前の時点における第1の位置情報と第2の位置情報の重量付けされた組合せと等しくなる式に基づいて決定されてもよい。例えば、第3の時点で、第1の重量が、0.5であり、第2の重量が、0.5であり、3次元座標系における第1の位置情報が、(6,6,6)であり、第2の位置情報が、(10,10,10)であり、調整された位置情報が、(8,8,8)である。第3の位置情報が、(7,7,7)である場合、第4の時点における第1の重量及び第2の重量は、それぞれ、0.75及び0.25として決定される。すると、第4の時点で、3次元座標系における第1の位置情報が(7,6,6)であり、第2の位置情報が(12,10,10)である場合、調整された位置情報は(8.25,7,7)である。
別の実施形態において、現時点における第1の重量及び第2の重量は、第3の位置情報が、現時点における第1の位置情報と第2の位置情報の重量付けされた組合せと等しくなる式に基づいて決定されてよい。例えば、第2の時点で、3次元座標系における第1の位置情報が(6,6,6)であり、第2の位置情報が(10,10,10)である。第3の位置情報が(7,7,7)である場合、第2の時点における第1の重量及び第2の重量は、それぞれ、0.75及び0.25として決定される。すると、第2の時点における調整された位置情報は、(7,7,7)として決定される。
一部の実施形態において、第1の重量及び第2の重量は、ユーザの人体部分が第3の感知データに存在しない場合、固定される。人体部分が、画像センサ360の視野の外に位置する場合、第1の重量及び第2の重量は、ユーザの人体部分が第3の感知データに依然として存在する、前の時点における前の第1の重量及び第2の重量と同一である。例えば、人体部分が、第1の時点で画像センサ360の視野内に位置し、第1の重量が、0.5であり、第2の重量が、0.5である。次に、第2の時点で、人体部分が、画像センサ360の視野の外に位置する。第2の時点で、第1の時点における第1の重量及び第2の重量と同じく、第1の重量は、0.5であり、第2の重量は、0.5である。ユーザの人体部分が第3の感知データに存在するようになるまで、第1の重量及び第2の重量は、第3の感知データにより変更される。
さらに別の実施形態において、プロセッサ250は、第1の位置情報、第2の位置情報、及び第3の位置情報の重量付けされた組合せにより、調整された位置情報を決定してもよい。調整された位置情報は、重量付けされた第1の位置情報、重量付けされた第2の位置情報、及び重量付けされた第3の位置情報の合計により決定される。3つの位置情報に関する重量は、実際の状況に基づいて変更されても、固定であってもよい。
他方、方向情報に関して、一実施形態において、プロセッサ250は、第1の感知データのシーケンスを方向情報として直接に使用してよい。例えば、方向情報は、加速度、3軸における角速度、向き、3−DoF情報及び/又は6−DoF情報であることが可能である。
別の実施形態において、プロセッサ250は、第3の感知データにより方向情報を決定してよい。図4を例にとると、異なる時点における画像における人体部分B4の2つの姿勢が、方向情報を推定するために使用されることが可能である。
一部の実施形態において、プロセッサ250は、第1の感知データ及び第3の感知データにより方向情報を決定してもよい。方向情報は、第1の感知データと第3の感知データの重量付けされた組合せであってもよい。例えば、位置情報は、動作センサ130に基づく重量付けされた第1の方向情報と画像センサ360に基づく重量付けされた第2の方向情報の合計により決定される。
一実施形態において、画像センサ360の視野は、第3の感知データによる方向情報を使用すべきかどうかについての条件である。人体部分が第3の感知データに存在する場合、方向情報は、第1の感知データ及び第3の感知データにより決定されてよい。人体部分が、第3の感知データに存在しない場合、方向情報は、単に第1の感知データにより決定されてもよい。
一実施形態において、プロセッサ250は、方向情報と位置情報の両方によりユーザの動作情報を決定してもよい。方向情報は、前述したとおり、第1の感知データ、第3の感知データ、又は第1の感知データと第3の感知データの組合せに基づいて生成されることが可能である。位置情報は、前述したとおり、第1の感知データ、第2の感知データ、及び第3の感知データのうちの1つに基づいて生成されることが可能である。図2における人体部分B1又はB2を例にとると、動作情報は、持ち上げる動作、指し示す動作、蹴る動作、踏む動作、又は跳ぶ動作と関係し得る。
別の実施形態において、プロセッサ250は、第1の感知データに基づく方向情報と、第1の位置情報及び第2の位置情報に基づく調整された位置情報の両方により、ユーザの動作情報を決定し得る。人体部分が第3の感知データに存在するかどうかにかかわらず、プロセッサ250は、ユーザの動作を予測することが可能である。
さらに別の実施形態において、プロセッサ250は、第1の感知データに基づく方向情報と、第2の感知データ及び第3の感知データに基づく組み合わされた位置情報の両方により、ユーザの動作情報を決定してよい。このことは、動作情報が、人体部分が第3の感知データに存在するときと、第3の感知データに存在しないときの2つの持続時間において、方向情報及び組み合わされた位置情報に基づいて決定されることが可能であることを意味する。
図4及び図5を例にとると、人体部分B4に関する手を上げる動作が、図4において決定され、手を下げる動作が、図5において決定される。次に、人体部分B4に関して上から下に振り下ろす動作が決定される。
一実施形態において、プロセッサ250は、第2の感知データに基づく位置情報だけにより、ユーザの動作情報を決定してよい。別の実施形態において、プロセッサ250は、第2の感知データ及び第3の感知データに基づく組み合わされた位置情報だけにより、ユーザの動作情報を決定してよい。一部の実施形態において、プロセッサ250は、人体部分が第3の感知データに存在しない場合、第2の感知データに基づく位置情報だけにより、ユーザの動作情報を決定してよく、人体部分が第3の感知データに存在する場合、第3の感知データに基づく位置情報だけにより、又は組み合わされた位置情報により、ユーザの動作情報を決定してよい。
人体部分の変位又は軌道が追跡されてよく、動作情報は、その変位又は軌道に基づいて決定されることが可能である。図4及び図5を例にとると、人体部分B3が上から下に動作、人体部分B4に関する上から下に振り下ろす動作が決定される。
要約すると、前述した例示的な実施形態は、ユーザの複数の操作部分に関する動作追跡システム及び動作追跡方法について説明した。人体部分の動作が、信号強度、動作センサの感知結果、及び/又はカメラ画像に基づいて追跡されることが可能である。カメラ画像の検出された結果により、追跡される人体部分がFOVに存在しなかったことに応じて、動作感知装置の間の信号強度が、位置情報の決定についての動作センサの感知結果の精度の不足を補うのに使用されることが可能である。追跡される人体部分がFOVに存在することに応じて、カメラ画像が、信号強度に基づいて位置推定された結果を補正するのに使用されることが可能である。したがって、複数の追跡方法が、異なる条件に関して使用されることが可能であり、追跡結果の精度が、向上させられることが可能である。
本開示の範囲も趣旨も逸脱することなく、本開示の構造に様々な変形及び変更が行われることが可能であることが、当業者には明白であろう。以上のことに鑑みて、本開示は、本開示の変形及び変更を、それらの変形及び変更が、添付の特許請求の範囲、及び等価物の範囲に含まれるという条件付きで、範囲に含むものとする。
本発明の動作追跡システム及び動作追跡方法は、動作感知技術において適用することができる。
10、20 動作感知システム
100 動作感知装置
110、310 無線トランシーバ
130 動作センサ
200 計算装置
240 メモリ
250 プロセッサ
300 頭部装着型ディスプレイ
360 画像センサ
B1、B2、B3、B4、B5 人体部分
S310、S330、S350 ステップ
FOV 視野

Claims (11)

  1. 動作追跡システムに適合させられた動作追跡方法であって、
    前記動作追跡システムは、ユーザの人体部分に装着可能な第1の動作感知装置と、第2の動作感知装置と、第3の動作感知装置とを備え、動作追跡方法は、
    前記第1の動作感知装置、前記第2の動作感知装置、及び前記第3の動作感知装置の上に配置された動作センサに基づいて第1の感知データを獲得するステップと、
    前記第1の動作感知装置、前記第2の動作感知装置、及び前記第3の動作感知装置の間で送信される無線信号に基づいて第2の感知データを獲得するステップと、
    決定要因によって前記ユーザの動作情報を決定するステップであって、前記決定要因は、前記第1の感知データと、前記第2の感知データとを備える、ステップと
    を含む動作追跡方法。
  2. 無線信号を送信する、又は受信する無線トランシーバと、
    ユーザの人体部分のうちの1つの動作を感知する動作センサと、
    をそれぞれが備える、前記ユーザの前記人体部分上に装着可能な3つの動作感知装置と、
    前記3つの動作感知装置の前記動作センサに基づいて第1の感知データを獲得すること、
    前記3つの動作感知装置の間で送信される前記無線信号に基づいて第2の感知データを獲得すること、及び
    決定要因によって前記ユーザの動作情報を決定することであって、前記決定要因は、前記第1の感知データと、前記第2の感知データとを備える、こと
    を実行するように構成されたプロセッサと
    を備える動作追跡システム。
  3. 前記ユーザの前記動作情報を決定する前記ステップは、
    前記第1の感知データにより方向情報を獲得するステップと、
    前記第2の感知データにより位置情報を獲得するステップと、
    前記方向情報と前記位置情報の両方により、前記ユーザの前記動作情報を決定するステップとを含む、請求項1に記載の動作追跡方法、又は
    前記プロセッサは、
    前記第1の感知データにより方向情報を獲得すること、
    前記第2の感知データにより位置情報を獲得すること、及び
    前記方向情報と前記位置情報の両方により、前記ユーザの前記動作情報を決定することを実行するように構成される、請求項2に記載の動作追跡システム。
  4. 前記ユーザの前記動作情報を決定する前記ステップは、
    前記第1の感知データにより第1の位置情報及び方向情報を獲得するステップと、
    前記第2の感知データにより第2の位置情報を獲得するステップと、
    前記第1の位置情報及び前記第2の位置情報により、調整された位置情報を獲得するステップと、
    前記方向情報と前記調整された位置情報の両方により、前記ユーザの前記動作情報を決定するステップとを含む、請求項1に記載の動作追跡方法、又は
    前記プロセッサは、
    前記第1の感知データにより第1の位置情報及び方向情報を獲得すること、
    前記第2の感知データにより第2の位置情報を獲得すること、
    前記第1の位置情報及び前記第2の位置情報により、調整された位置情報を獲得すること、
    前記方向情報と前記調整された位置情報の両方により、前記ユーザの前記動作情報を決定することを実行するように構成される、請求項2に記載の動作追跡システム。
  5. 画像センサから取り込まれた画像に基づいて第3の感知データを獲得するステップをさらに含み、
    前記ユーザの前記人体部分が、前記第3の感知データに存在し、前記決定要因が、前記第3の感知データをさらに備える、請求項1に記載の動作追跡方法、又は
    画像を獲得する画像センサをさらに備え、
    前記プロセッサは、
    前記画像に基づいて第3の感知データを獲得することを実行するように構成され、前記ユーザの前記人体部分が、前記第3の感知データに存在し、前記決定要因が、前記第3の感知データをさらに備える、請求項2に記載の動作追跡システム。
  6. 前記ユーザの前記動作情報を決定する前記ステップは、
    前記第1の感知データにより方向情報を獲得するステップと、
    第1の持続時間において前記第2の感知データにより位置情報の第1の部分を獲得するステップと、
    第2の持続時間において前記第3の感知データにより位置情報の第2の部分を獲得するステップと、
    位置情報の前記第1の部分と前記第2の部分を組み合わされた位置情報として組み合わせるステップと、
    前記方向情報と前記組み合わされた位置情報の両方により、前記ユーザの前記動作情報を決定するステップとを含む、請求項5に記載の動作追跡方法、又は
    前記プロセッサは、
    前記第1の感知データにより方向情報を獲得すること、
    第1の持続時間において前記第2の感知データにより位置情報の第1の部分を獲得すること、
    第2の持続時間において前記第3の感知データにより位置情報の第2の部分を獲得すること、
    位置情報の前記第1の部分と前記第2の部分を組み合わされた位置情報として組み合わせること、及び
    前記方向情報と前記組み合わされた位置情報の両方により、前記ユーザの前記動作情報を決定することを実行するように構成される、請求項5に記載の動作追跡システム。
  7. 前記ユーザの前記動作情報を決定する前記ステップは、
    前記第1の感知データにより方向情報及び第1の位置情報を獲得するステップと、
    前記第2の感知データにより第2の位置情報を獲得するステップと、
    前記第3の感知データにより第3の位置情報を獲得するステップと、
    前記第1の位置情報、前記第2の位置情報、及び前記第3の位置情報により、調整された位置情報を獲得するステップと、
    前記方向情報と前記調整された位置情報の両方により、前記ユーザの前記動作情報を決定するステップとを含む、請求項5に記載の動作追跡方法、又は
    前記プロセッサは、
    前記第1の感知データにより方向情報及び第1の位置情報を獲得すること、
    前記第2の感知データにより第2の位置情報を獲得すること、
    前記第3の感知データにより第3の位置情報を獲得すること、
    前記第1の位置情報、前記第2の位置情報、及び前記第3の位置情報により、調整された位置情報を獲得すること、並びに
    前記方向情報と前記調整された位置情報の両方により、前記ユーザの前記動作情報を決定することを実行するように構成される、請求項5に記載の動作追跡システム。
  8. 前記第1の位置情報、前記第2の位置情報、及び前記第3の位置情報により、前記調整された位置情報を獲得する前記ステップは、
    前記第3の位置情報により第1の重量及び第2の重量を決定するステップと、
    前記第1の重量と前記第1の位置情報を乗算することによって第1のパラメータを獲得するステップと、
    前記第2の重量と前記第2の位置情報を乗算することによって第2のパラメータを獲得するステップと、
    前記第1のパラメータを前記第2のパラメータに加算することによって前記調整された位置情報を獲得するステップとを含む、請求項7に記載の動作追跡方法、又は
    前記プロセッサは、
    前記第3の位置情報により第1の重量及び第2の重量を決定すること、
    前記第1の重量と前記第1の位置情報を乗算することによって第1のパラメータを獲得すること、
    前記第2の重量と前記第2の位置情報を乗算することによって第2のパラメータを獲得すること、
    前記第1のパラメータを前記第2のパラメータに加算することによって前記調整された位置情報を獲得することを実行するように構成される、請求項7に記載の動作追跡システム。
  9. 前記第1の重量及び前記第2の重量は繰り返し変更される、請求項8に記載の動作追跡方法、又は請求項8に記載の動作追跡システム。
  10. 前記第1の重量及び前記第2の重量は、前記ユーザの前記人体部分が前記第3の感知データに存在しないことに応じて固定される、請求項8に記載の動作追跡方法、又は請求項8に記載の動作追跡システム。
  11. 前記ユーザの前記人体部分は、前記第1の持続時間において前記第3の感知データに存在せず、前記ユーザの前記人体部分は、前記第2の持続時間において前記第3の感知データに存在する、請求項6に記載の動作追跡方法、又は請求項6に記載の動作追跡システム。

JP2019220948A 2019-12-06 2019-12-06 動作追跡システム及び動作追跡方法 Pending JP2021089691A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220948A JP2021089691A (ja) 2019-12-06 2019-12-06 動作追跡システム及び動作追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220948A JP2021089691A (ja) 2019-12-06 2019-12-06 動作追跡システム及び動作追跡方法

Publications (1)

Publication Number Publication Date
JP2021089691A true JP2021089691A (ja) 2021-06-10

Family

ID=76220308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220948A Pending JP2021089691A (ja) 2019-12-06 2019-12-06 動作追跡システム及び動作追跡方法

Country Status (1)

Country Link
JP (1) JP2021089691A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010172537A (ja) * 2009-01-30 2010-08-12 Namco Bandai Games Inc 姿勢報知システム及び姿勢検出ユニット
JP2013535039A (ja) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
JP2017505207A (ja) * 2014-11-27 2017-02-16 インテル コーポレイション ウェアラブルなパーソナルコンピュータ及びヘルスケア装置
JP2017205213A (ja) * 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP2019138812A (ja) * 2018-02-13 2019-08-22 日本電信電話株式会社 距離測定装置、距離測定システム及び距離測定方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010172537A (ja) * 2009-01-30 2010-08-12 Namco Bandai Games Inc 姿勢報知システム及び姿勢検出ユニット
JP2013535039A (ja) * 2010-04-13 2013-09-09 サムスン エレクトロニクス カンパニー リミテッド 仮想世界処理装置及び方法
JP2017505207A (ja) * 2014-11-27 2017-02-16 インテル コーポレイション ウェアラブルなパーソナルコンピュータ及びヘルスケア装置
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス
JP2017205213A (ja) * 2016-05-17 2017-11-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2019138812A (ja) * 2018-02-13 2019-08-22 日本電信電話株式会社 距離測定装置、距離測定システム及び距離測定方法

Similar Documents

Publication Publication Date Title
TWI610084B (zh) 用於判定基於來自複數個與人共定位之行動裝置之感測器量測之移動之技術
EP3811372B1 (en) Method and system for determining a correct reproduction of a movement
US11460912B2 (en) System and method related to data fusing
CN107923740B (zh) 传感器设备、传感器系统以及信息处理设备
CN106575437A (zh) 信息处理装置、信息处理方法以及程序
CN107613867B (zh) 动作显示系统以及记录介质
KR20190094954A (ko) 전자장치의 움직임 측정 장치 및 방법
JP2011033489A (ja) モーションキャプチャ用のマーカ
EP3971683A1 (en) Human body portion tracking method and human body portion tracking system
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP2021089691A (ja) 動作追跡システム及び動作追跡方法
TWI737068B (zh) 動作追蹤系統和方法
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
EP4016252A1 (en) System and method related to motion tracking
JP2022096723A (ja) モーション追跡に関係するシステム及び方法
EP4016253A1 (en) System and method related to data fusing
JP2022096724A (ja) データ融合に関係するシステム及び方法
EP3832435A1 (en) Motion tracking system and method
CN114661143A (zh) 相关于数据融合的系统和方法
CN114745010A (zh) 相关于运动跟踪的系统和方法
CN113029190A (zh) 运动跟踪系统和方法
TW202225916A (zh) 相關於動作追蹤的系統和方法
TW202225915A (zh) 相關於資料融合的系統和方法
CN112712545A (zh) 人体部分跟踪方法和人体部分跟踪系统
Kempfle et al. Quaterni-On: Calibration-free Matching of Wearable IMU Data to Joint Estimates of Ambient Cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130