JP2021089692A - 動作感知データ生成方法及び動作感知データ生成システム - Google Patents

動作感知データ生成方法及び動作感知データ生成システム Download PDF

Info

Publication number
JP2021089692A
JP2021089692A JP2019220949A JP2019220949A JP2021089692A JP 2021089692 A JP2021089692 A JP 2021089692A JP 2019220949 A JP2019220949 A JP 2019220949A JP 2019220949 A JP2019220949 A JP 2019220949A JP 2021089692 A JP2021089692 A JP 2021089692A
Authority
JP
Japan
Prior art keywords
motion sensing
sensing data
sensor
motion
sensing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220949A
Other languages
English (en)
Inventor
靖▲にん▼ 黄
Ching-Ning Huang
靖▲にん▼ 黄
華綸 呂
Hua-Lun Lu
華綸 呂
毅剛 謝
Yi Gang Xie
毅剛 謝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2019220949A priority Critical patent/JP2021089692A/ja
Publication of JP2021089692A publication Critical patent/JP2021089692A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】動作感知データの内容が動作感知装置の機能によって制限されない動作感知データ生成方法および動作感知データ生成システムを提供する。【解決手段】動作感知データ生成システムは、動作感知装置と、プロセッサと、を含む。プロセッサは、第1の動作感知データ内で動作感知装置が検出されるかどうかを解析するS310。動作感知装置は、ユーザの人体部分で作動し、第1の動作感知データは、第1のセンサに基づいて生成され、動作感知装置は、第1のセンサとは異なる第2のセンサを含む。プロセッサは、第1のセンサと第2のセンサの両方に基づいて第2の動作感知データを生成すべきかどうかを、解析された結果により判定するS330。したがって、動作感知データの内容が、複数のセンサによって強化されることが可能である。【選択図】図3

Description

本開示は、一般に、感知データに関する生成に関し、特に、動作感知データ生成方法及び動作感知データ生成システムに関する。
電子装置(ゲーム機、コンピュータ、スマートフォン、スマート機器など)上で直観的な操作を提供するのに、ユーザの動作により電子装置を直接に操作すべく、ユーザの動作が検出される場合がある。
従来のアプローチにおいて、一部の電子装置では、ユーザの人体部分(手、脚、頭部など)によって、これらの電子装置の動作を制御することが可能である。例えば、仮想現実(VR)製品を制御するためのハンドヘルド・コントローラが提供され、各ハンドヘルド・コントローラが、ユーザの手の動作を追跡するセンサを含む。しかし、動作感知データの生成は、センサのタイプによって限定される可能性がある。例えば、一部のセンサの感知結果は、3つの直交軸における位置平行移動と関係する動作感知データを生成するためにだけ使用される可能性があり、回転状況についての動作感知データは生成されない。
動作感知データの内容は、動作感知装置の機能によって制限される。したがって、本開示は、動作感知データ生成方法及び動作感知データ生成システムを対象とする。
例示的な実施形態のうちの1つにおいて、動作感知データ生成方法は、以下のステップを含むが、それらには限定されない。第1の動作感知データ内で動作感知装置が検出されるかどうかが解析される。動作感知装置は、ユーザの人体部分で作動し、第1の動作感知データは、第1のセンサに基づいて生成され、動作感知装置は、第1のセンサとは異なる第2のセンサを含む。第1のセンサと第2のセンサの両方に基づいて第2の動作感知データを生成すべきかどうかが、解析された結果により判定される。
例示的な実施形態のうちの1つにおいて、動作感知データ生成システムは、動作感知装置と、プロセッサとを含むが、これらに限定されない。プロセッサは、第1の動作感知データ内で動作感知装置が検出されるかどうかを解析する。動作感知装置は、ユーザの人体部分で作動し、第1の動作感知データは、第1のセンサに基づいて生成され、動作感知装置は、第1のセンサとは異なる第2のセンサを含む。プロセッサは、解析された結果に応じて、第1のセンサと第2のセンサの両方に基づいて第2の動作感知データを生成すべきかどうかを判定する。
以上のことに鑑みて、1つ又は複数の実施形態において提供される動作感知データ生成方法及び動作感知データ生成システムによれば、第1のセンサが、第2のセンサを含む動作感知装置の動作を検出することができるかどうかが解析され、人体部分に関する動作感知データは、解析された結果により2つのセンサに基づいて生成されてもよい。したがって、動作感知データの内容が、複数のセンサと、動作感知データの内容を強化するための柔軟で便利な方法によって強化されることが可能である。
しかし、本概要は、本開示の態様及び実施形態のすべてを包含するわけではない可能性があり、限定すること、又は制限的であることは、いずれの様態においても意図されていないこと、及び本明細書において開示される発明は、本発明の明白な改良形態及び変形形態を包含するように当業者によって理解されることを理解されたい。
添付の図面は、本開示のさらなる理解をもたらすように含められ、本明細書に組み込まれ、本明細書の一部分を構成する。図面は、本開示の実施形態を例示し、説明とともに、本開示の原理を説明するのに役立つ。
本開示の例示的な実施形態のうちの1つによる動作感知データ生成システムを示すブロック図である。 本開示の例示的な実施形態のうちの1つによる動作感知データ生成システムを示す概略図である。 本開示の例示的な実施形態のうちの1つによる動作感知データ生成方法を示すフローチャートである。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。
次に、本開示の現在の好ましい実施形態を詳細に参照し、実施例を添付の図面に示す。可能な限り、同一の部分又は同様の部分を参照するのに、同一の参照符号が図面及び説明において使用される。
図1は、本開示の例示的な実施形態のうちの1つによる動作感知データ生成システム100を示すブロック図である。図1を参照すると、動作感知データ生成システム100は、1つ又は複数の動作感知装置110と、メモリ130と、プロセッサ150とを含むが、これらに限定されない。一実施形態において、動作感知データ生成システム100は、VR技術、AR技術、MR技術、XR技術、又は他の現実関連の技術に適合させられることが可能である。一部の実施形態において、動作感知データ生成システム100は、外部装置(コンピュータ、ゲーム機、スマートフォン、ダッシュボード埋込み型システム、スマート機器など)を操作するように適合させられることが可能である。
動作感知装置110は、装着可能なコントローラ、スマートウォッチ、足首センサ、腰ベルト、又はそれらに類似するものなどのハンドヘルド・コントローラ又は装着可能な装置であることが可能である。一実施形態において、各動作感知装置100は、ユーザの1つの人体部分に装着可能である。例えば、人体部分は、左手若しくは右手、頭部、左足首若しくは右足首、左脚若しくは右脚、腰、又は他の部分であってもよい。
一実施形態において、動作感知装置110は、センサ111を含む。センサ110は、加速度計、ジャイロスコープ、磁力計、レーザ・センサ、慣性測定ユニット(IMU)、赤外線(IR)センサ、又は前述の動作センサの任意の組合せなどの動作センサであってもよい。センサ110は、動作自体を感知するために使用され、センサ110自体が配置された人体部分で作動する。例えば、動作センサは、3次元空間における位置及び/又は回転状況自体を検出する。ユーザの人体部分は、動作センサが人体部分で作動するように、動作感知装置110を保持すること、装着すること、又は携帯することが可能である。したがって、動作センサの動作は、人体部分の動作を表すことが可能である。
別の実施形態において、センサ110は、画像センサ、他のタイプのセンサ、又は複数のセンサの組合せであることが可能である。
一実施形態において、動作感知データ生成システム100は、1つ又は複数の動作感知装置120をさらに含んでよい。動作感知装置120は、頭部装着型ディスプレイ(HMD)、スマートフォン、カメラ、ラップトップ、測位装置、又はそれらに類似するものであることが可能である。一実施形態において、動作感知装置120は、センサ121を含む。センサ121は、モノクロ・カメラ若しくはカラー・カメラ、ディープ・カメラ、ビデオ・レコーダ、又は画像を取り込むことができる他の画像センサなどのカメラなどの画像センサであってもよい。
一部の実施形態において、センサ110は、ユーザの1つ又は複数の人体部分を含む画像を生成すべく、ユーザの1つ又は複数の人体部分に向けて取り込むために使用されてもよい。
別の実施形態において、センサ120は、動作センサ、他のタイプのセンサ、又は複数のセンサの組合せであることが可能である。
メモリ130は、任意のタイプの固定又は可動なランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、フラッシュ・メモリ、類似したデバイス、又は以上のデバイスの組合せであってよい。一部の実施形態において、メモリ130は、プログラム・コード、デバイス構成、バッファ・データ若しくは永久データ(動作感知データ、画像、動作感知結果など)を記憶するのに使用されることが可能であり、これらのデータについては、後段で概説される。
プロセッサ150は、メモリ130に結合され、かつプロセッサ150は、本開示の例示的な実施形態の手続きを実行すべく、メモリ130に記憶されたプログラム・コードをロードするように構成される。一部の実施形態において、プロセッサ150の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル・シグナル・プロセッサ(DSP)チップ、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラム可能なユニットを使用することによって実施されてよい。また、一実施形態において、プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実施されてもよく、プロセッサ150の動作は、ソフトウェアによって実施されてもよい。
プロセッサ150は、動作感知装置110及び120と一緒に配置されても、そのようにされなくてもよいことに留意されたい。しかし、動作感知装置110及び120、並びにプロセッサ150は、互いにデータを送信/受信すべく、Bluetooth(登録商標)、Wi−Fi、IR、又は物理的な送信回路などの適合する通信技術を備えた通信トランシーバをさらに含んでよく、又はそのような通信トランシーバにさらに接続されてもよい。
図2は、本開示の例示的な実施形態のうちの1つによる動作感知データ生成システム200を示す概略図である。図2を参照すると、動作感知データ生成システム200が、動作感知装置110(例えば、ハンドヘルド・コントローラである)と、動作感知装置120(例えば、HMDである)とを含む。センサ121(例えば、ステレオ・カメラである)及びプロセッサ150が、HMDに埋め込まれ、センサ121は、操作部分B1(すなわち、ユーザの左手)及び操作部分B2(すなわち、ユーザの右手)に向けてカメラ画像を取り込むように構成されてよい。さらに、センサ111(例えば、IMUである)が、操作部分B2の動作感知結果を獲得すべく、ハンドヘルド・コントローラに埋め込まれる。
動作感知データ生成システム100又は200に備えられるさらに多くの動作感知装置110が存在することに留意されたい。例えば、動作感知データ生成システム200は、2つの足首センサと、腰ベルトとをさらに含む。しかし、動作感知装置110の数は、これらに限定されない。
本開示の1つ又は複数の実施形態において提供される動作プロセスをよりよく理解すべく、いくつかの実施形態を以下に例示して、動作感知データ生成システム100の動作プロセスについて詳述する。動作感知データ生成システム100におけるデバイス及びモジュールは、本明細書において提供される制御方法を説明するために後段の実施形態において適用される。制御方法の各ステップは、実際の実装状況により調整されることが可能であり、本明細書において説明されるものに限定されるべきではない。
図3は、本開示の例示的な実施形態のうちの1つによる動作感知データ生成方法を示すフローチャートである。図3を参照すると、プロセッサ150が、第1の動作感知データ内で動作感知装置110が検出されるかどうかを解析する(ステップS310)。具体的には、ユーザは、動作感知装置110を保持すること、装着すること、又は携帯することが可能である。具体的には、第1の動作感知データは、動作感知装置110が人体部分で作動する人体部分及び/又は動作感知装置110の動作と関係する。第1の動作感知データは、センサ121に基づいて生成される。
一実施形態において、センサ121は、画像センサであり、プロセッサ150は、動作感知装置120の画像センサによって取り込まれた画像に基づいて第1の動作感知データを生成する。一実施形態において、プロセッサ150は、解析された結果を生成すべく、画像に存在した人体部分の動作を決定してよい。このことは、人体部分の動作が、解析された結果と関係することを意味する。
一部の実施形態において、プロセッサ150は、動作感知装置120で作動する人体部分が画像内で検出されるかどうかを検出してよい。一実施形態において、画像における人体部分は、機械学習技術(深層学習、人工ニューラル・ネットワーク(ANN)、又はサポート・ベクター・マシン(SVM)など)を通じて識別される。別の実施形態において、人体部分は、2項分類器、適応ブースティング(Adaboost)などの他の物体識別技術を通じて識別されてもよい。
例として、図4は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。図4を参照すると、動作感知装置110を保持する人体部分B2は、動作感知装置120の画像センサの視野FOVに存在する。別の例として、図5は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。図5を参照すると、動作感知装置110を保持する人体部分B2は、動作感知装置120の画像センサの視野FOVに存在しない。
別の実施形態において、プロセッサ150は、事前定義された1つ又は複数の軌道及び/又は変位を有する第1の動作感知データに基づいて、人体部分の変位又は軌道を比較してもよい。一部の実施形態において、画像における人体部分に対応する感知強度及びピクセル位置が、人体部分の深度情報(すなわち、動作感知装置120又は他の基準装置に対する距離)を推定するため、及び動作感知装置120と平行な面における人体部分の2D位置を推定するために使用されることが可能である。プロセッサ150は、その距離、及び人体部分の2D位置により、事前定義された座標系における3D位置を生成して、人体部分の変位を決定するようにすることが可能である。一実施形態において、第1の動作感知データが、事前定義された軌道及び/又は変位を満たす場合、プロセッサ150は、動作感知装置110が人体部分で作動していると判定してよく、かつ解析された結果は、第1の動作感知データ内で動作感知装置110が検出されることであると判定してもよい。他方、プロセッサ150は、第1の動作感知データ内で動作感知装置110が検出されないと判定することも可能である。
さらに別の実施形態において、センサ110は動作センサであり、センサ120は画像センサであり、プロセッサ150は、人体部分の動作が、動作センサから獲得された動作感知結果と画像センサによって取り込まれた画像の両方において同一であるかどうかを判定してもよい。異なるタイプのセンサ110に関して、動作感知結果は、加速度、回転、磁力、向き、距離、及び/又は位置(以降、呼ばれる)であることが可能であり、位置データ、変位データ、及び/又は回転データを生成するために使用されることが可能である。例えば、人体部分の変位は、3つの軸におけるセンサ110の検出された加速度の二重積分を通じて推定されることが可能である。動作感知結果と画像の間の変位、位置、及び/又は回転が、比較されてよい。比較された結果が同一である場合、プロセッサ150は、解析された結果は、第1の動作感知データ内で動作感知装置110が検出されることであると判定する。他方、比較された結果が同一ではない場合、プロセッサ150は、第1の動作感知データ内で動作感知装置110が検出されないと判定する。
一部の実施形態において、プロセッサ150は、画像内で手のジェスチャをさらに識別してもよい。例えば、保持するジェスチャは、ユーザの手が動作感知装置110を保持しているものと見なされる。
プロセッサ150が、解析された結果を判定する前に、プロセッサ150は、動作感知装置110が起動されているかどうかを確認してもよいことに留意されたい。センサ110に基づく変動状況、変位状況、及び/又は回転状況が、動作感知装置110が静止していないことを確かめるのに使用される。動作感知装置110が起動されている場合、プロセッサ150は、解析された結果を判定する。
解析結果が判定された後、プロセッサ150は、解析された結果により、センサ111とセンサ121の両方に基づいて第2の動作感知データを生成すべきかどうかを判定し得る(ステップS330)。具体的には、第1の動作感知データ内で動作感知装置110が検出された場合、そのことは、第1の動作感知データが、動作感知装置110又は対応する人体部分の動作を決定するのに有用であり得ることを意味する。他方、第1の動作感知データ内で動作感知装置110が検出されない場合、第1の動作感知データは役に立たない場合がある。
一実施形態において、プロセッサ150は、解析された結果が、第1の動作感知データ内で動作感知装置110が検出されることである場合、センサ111とセンサ121の両方に基づいて第2の動作感知データを生成してもよい。言い換えると、第2の動作感知データは、センサ111の動作感知結果とセンサ121によって取り込まれた画像の両方に基づいて生成される。動作感知装置110の動作センサは、ある期間にわたって、動作感知装置110を携帯するユーザの対応する人体部分の動作を感知してよく、プロセッサ150は、その期間内の複数の時点において動作センサの動作感知結果(例えば、感知された強度値、度数など)からの第3の動作感知データのシーケンスを生成してもよい。一実施例として、第3の動作感知データは、3自由度(3−DoF)情報を含む。別の実施例として、第1の動作感知データは、2D/3D空間における人体部分の相対位置及び/又は変位を含む。
一実施形態において、第2の動作感知データは、第1の動作感知データと第3の動作感知データの組合せであることが可能である。例えば、動作センサ及び画像センサに基づく回転データと位置データの重み付けされた組合せである。位置データ又は回転データの値に重量が与えられ、第2の動作感知データは、2つのセンサから獲得された位置データ又は回転データの重量付けされた計算に基づいて生成される。したがって、第2の動作感知データの精度が向上させられることが可能である。
別の実施形態において、第1の動作感知データは、3−DoF情報を含み、第2の動作感知データは、6−DoF情報を含む。図4を例にとると、人体部分B2の姿勢は、人体部分B2上で感知された加速度、回転、及び磁力により推定され、そして、事前定義された座標系における人体部分B2の回転情報は、センサ110の動作感知結果に基づいて決定されることが可能である。加速度データが、人体部分B2の変位(すなわち、3−DoF情報)を推定するのに使用されることが可能である。他方、センサ121によって取り込まれた画像における人体部分B2に対応する感知強度及びピクセル位置は、人体部分B2の深度情報(すなわち、動作感知装置120に対する距離)を推定するため、及びセンサ121と平行な面における人体部分B2の2D位置を推定するため、並びにその距離、及び人体部分B2の2D位置により、事前定義された座標系における3D位置をさらに生成するために使用されることが可能である。次に、6−DoF情報を生成すべく、事前定義された座標系における人体部分B2の回転と3D位置が融合されることが可能である。
別の実施形態において、プロセッサ150は、解析された結果が、第1の動作感知データ内で動作感知装置110が検出されないことである場合、センサ111のみに基づいて第2の動作感知データを生成してもよい。一実施形態において、第2の動作感知データは、センサ111の動作感知結果に基づく3−DoF情報を含むことが可能であるが、6−DoF情報を含むことは可能でない。別の実施形態において、第2の動作感知データは、第1の動作感知データのみに基づく加速度データ、回転データ、磁力データ、位置データ、又は他のデータであることが可能である。
動作感知装置120の画像センサの視野FOVに人体部分B2が入っていない図5を例にとると、動作感知装置120のみに基づく身体部分B2に関する動作感知データは存在しない。しかし、動作感知装置110が、人体部分B2の動作を追跡しつづけることが可能である。
一部の実施形態において、解析された結果がどのようなものであれ、プロセッサ150は、センサ110のみに基づいて第2の動作感知データを生成してもよいことに留意されたい。
要約すると、前述した例示的な実施形態は、人体部分の動作を決定するのに第1の動作感知データが信頼できるかどうかを判定することが可能であり、かつ2つのセンサの両方、又は1つだけのセンサに基づいて第2の動作感知データをさらに生成することが可能な動作感知データ生成方法及び動作感知データ生成システムについて説明した。その上、第2の動作感知データの内容が強化されることが可能である。
本開示の範囲も趣旨も逸脱することなく、本開示の構造に様々な変形及び変更が行われることが可能であることが、当業者には明白であろう。以上のことに鑑みて、本開示は、本開示の変形及び変更を、それらの変形及び変更が、添付の特許請求の範囲、及び等価物の範囲に含まれるという条件付きで、範囲に含むものとする。
本発明の動作感知データ生成方法及び動作感知データ生成システムは、動作追跡技術において適用することができる。
100、200 動作感知データ生成システム
110 動作感知装置
111 センサ
120 動作感知装置
121 センサ
130 メモリ
150 プロセッサ
B1、B2 操作部分
S310、S330 ステップ
FOV 視野

Claims (10)

  1. 第1の動作感知データ内で動作感知装置が検出されるかどうかを解析するステップであって、前記動作感知装置は、ユーザの人体部分で作動し、前記第1の動作感知データは、第1のセンサに基づいて生成され、前記動作感知装置は、前記第1のセンサとは異なる第2のセンサを備える、ステップと、
    前記第1のセンサと前記第2のセンサの両方に基づいて第2の動作感知データを生成すべきかどうかを、前記解析された結果により判定するステップと
    を含む動作感知データ生成方法。
  2. 前記第1のセンサと前記第2のセンサの両方に基づいて前記第2の動作感知データを生成すべきかどうかを、前記解析された結果により判定する前記ステップは、
    前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、前記第1のセンサと前記第2のセンサの両方に基づいて前記第2の動作感知データを生成するステップと、
    前記第1の動作感知データ内で前記動作感知装置が検出されないという前記解析された結果に応じて、前記第2のセンサのみに基づいて前記第2の動作感知データを生成するステップとを含む、請求項1に記載の動作感知データ生成方法。
  3. 前記第1のセンサは、画像センサを備え、前記第1の動作感知データは、前記画像センサによって取り込まれた画像に基づいて生成され、
    前記第1の動作感知データ内で前記動作感知装置が検出されるかどうかを解析する前記ステップは、
    前記画像に存在した前記人体部分の動作を判定するステップであって、前記人体部分の前記動作は、前記解析された結果と関係する、ステップを含む、請求項1に記載の動作感知データ生成方法。
  4. 前記第1のセンサは、画像センサを備え、前記第2のセンサは、動作センサを備え、
    前記第1の動作感知データ内で前記動作感知装置が検出されるかどうかを解析する前記ステップは、
    前記動作感知装置で作動する前記人体部分を識別するステップと、
    前記人体部分の前記動作が、前記動作センサから獲得された動作感知結果と前記画像センサによって取り込まれた画像の両方において同一であるかどうかを判定するステップと
    を含む、請求項1に記載の動作感知データ生成方法。
  5. 前記第2の動作感知データは、前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、6自由度(DoF)データを含み、かつ
    前記第2の動作感知データは、前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、3−DoF情報を含む、請求項2に記載の動作感知データ生成方法。
  6. 動作感知装置と、
    第1の動作感知データ内で前記動作感知装置が検出されるかどうかを解析することであって、前記動作感知装置は、ユーザの人体部分で作動し、前記第1の動作感知データは、第1のセンサに基づいて生成され、前記動作感知装置は、前記第1のセンサとは異なる第2のセンサを備えること、及び
    前記第1のセンサと前記第2のセンサの両方に基づいて第2の動作感知データを生成すべきかどうかを、前記解析された結果により判定すること
    を実行するように構成されたプロセッサと
    を備える動作感知データ生成システム。
  7. 前記プロセッサは、
    前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、前記第1のセンサと前記第2のセンサの両方に基づいて前記第2の動作感知データを生成すること、及び
    前記第1の動作感知データ内で前記動作感知装置が検出されないという前記解析された結果に応じて、前記第2のセンサのみに基づいて前記第2の動作感知データを生成することを実行するように構成される、請求項6に記載の動作感知データ生成システム。
  8. 前記第1のセンサは、画像センサを備え、前記第1の動作感知データは、前記画像センサによって取り込まれた画像に基づいて生成され、
    前記プロセッサは、前記画像に存在した前記人体部分の動作を判定することであって、前記人体部分の前記動作は、前記解析された結果と関係する、ことを実行するように構成される、請求項6に記載の動作感知データ生成システム。
  9. 前記第1のセンサは、画像センサを備え、前記第2のセンサは、動作センサを備え、
    前記プロセッサは、
    前記動作感知装置で作動する前記人体部分を識別すること、及び
    前記人体部分の前記動作が、前記動作センサから獲得された動作感知結果と前記画像センサによって取り込まれた画像の両方において同一であるかどうかを判定することを実行するように構成される、請求項6に記載の動作感知データ生成システム。
  10. 前記第2の動作感知データは、前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、6自由度(DoF)データを含み、かつ
    前記第2の動作感知データは、前記第1の動作感知データ内で前記動作感知装置が検出されるという前記解析された結果に応じて、3−DoF情報を含む、請求項6に記載の動作感知データ生成システム。
JP2019220949A 2019-12-06 2019-12-06 動作感知データ生成方法及び動作感知データ生成システム Pending JP2021089692A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220949A JP2021089692A (ja) 2019-12-06 2019-12-06 動作感知データ生成方法及び動作感知データ生成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220949A JP2021089692A (ja) 2019-12-06 2019-12-06 動作感知データ生成方法及び動作感知データ生成システム

Publications (1)

Publication Number Publication Date
JP2021089692A true JP2021089692A (ja) 2021-06-10

Family

ID=76220288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220949A Pending JP2021089692A (ja) 2019-12-06 2019-12-06 動作感知データ生成方法及び動作感知データ生成システム

Country Status (1)

Country Link
JP (1) JP2021089692A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528253A (ja) * 2012-07-20 2015-09-24 フェイスブック,インク. ユーザの意図および/または識別情報に基づくモバイルデバイス状態の調整
JP2017505207A (ja) * 2014-11-27 2017-02-16 インテル コーポレイション ウェアラブルなパーソナルコンピュータ及びヘルスケア装置
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528253A (ja) * 2012-07-20 2015-09-24 フェイスブック,インク. ユーザの意図および/または識別情報に基づくモバイルデバイス状態の調整
JP2017505207A (ja) * 2014-11-27 2017-02-16 インテル コーポレイション ウェアラブルなパーソナルコンピュータ及びヘルスケア装置
JP2018504682A (ja) * 2014-12-08 2018-02-15 セス,ロヒット ウェアラブルワイヤレスhmiデバイス

Similar Documents

Publication Publication Date Title
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
US11029753B2 (en) Human computer interaction system and human computer interaction method
US11460912B2 (en) System and method related to data fusing
JP2021077310A (ja) アバター動作生成方法及び頭部装着型ディスプレイ・システム
US10388027B2 (en) Detection method, display apparatus, and detection system
CN112449708A (zh) 虚拟现实系统、程序、以及计算机可读取存储介质
US20220137787A1 (en) Method and system for showing a cursor for user interaction on a display device
JP2021089692A (ja) 動作感知データ生成方法及び動作感知データ生成システム
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
US20210157395A1 (en) Motion sensing data generating method and motion sensing data generating system
EP3832436A1 (en) Motion sensing data generating method and motion sensing data generating system
CN113031753A (zh) 运动传感数据产生方法和运动传感数据产生系统
US20200089940A1 (en) Human behavior understanding system and method
JP2021089693A (ja) 行動ベースの構成方法及び行動ベースの構成システム
EP3832434A1 (en) Behavior-based configuration method and behavior-based configuration system
US20210165485A1 (en) Behavior-based configuration method and behavior-based configuration system
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
EP3792817A1 (en) Method and system for human behavior identification
TW202144983A (zh) 與虛擬實境環境中的虛擬生物互動的方法和虛擬物件操作系統
CN113031755A (zh) 基于行为的配置方法和基于行为的配置系统
TWI737068B (zh) 動作追蹤系統和方法
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
EP4016252A1 (en) System and method related to motion tracking
EP4002064A1 (en) Method and system for showing a cursor for user interaction on a display device
KR20190056833A (ko) 착용형 헤드셋 제어 장치 및 착용형 헤드셋 장치를 위한 제어 신호 생성 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130