JP2021089693A - 行動ベースの構成方法及び行動ベースの構成システム - Google Patents

行動ベースの構成方法及び行動ベースの構成システム Download PDF

Info

Publication number
JP2021089693A
JP2021089693A JP2019220957A JP2019220957A JP2021089693A JP 2021089693 A JP2021089693 A JP 2021089693A JP 2019220957 A JP2019220957 A JP 2019220957A JP 2019220957 A JP2019220957 A JP 2019220957A JP 2021089693 A JP2021089693 A JP 2021089693A
Authority
JP
Japan
Prior art keywords
motion sensing
sensing device
motion
human body
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220957A
Other languages
English (en)
Inventor
靖▲にん▼ 黄
Ching-Ning Huang
靖▲にん▼ 黄
華綸 呂
Hua-Lun Lu
華綸 呂
毅剛 謝
Yi Gang Xie
毅剛 謝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Priority to JP2019220957A priority Critical patent/JP2021089693A/ja
Publication of JP2021089693A publication Critical patent/JP2021089693A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】行動ベースの構成方法及び行動ベースの構成システムを提供すること。【解決手段】 行動ベースの構成システムのプロセッサが、動作感知装置が起動されているかどうかを、動作感知装置からの第1の動作感知データに基づいて判定し、動作感知装置が起動されていることに応じて、ユーザのどの人体部分が動作感知装置で作動するかを判定すべく第2の動作感知データを解析し、動作感知装置で作動する第1の人体部分に関する第1の操作モードを、第1の期間における第2の動作感知データの解析された結果に基づいて構成し、動作感知装置で作動する第2の人体部分に関する第2の操作モードを、第2の期間における第2の動作感知データの解析された結果に基づいて構成する。したがって、ユーザが動作感知装置を使用するのに好都合である。【選択図】図3

Description

本開示は、一般に、構成のための方法に関し、特に、行動ベースの構成方法及び行動ベースの構成システムに関する。
電子装置(ゲーム機、コンピュータ、スマートフォン、スマート機器など)上で直観的な操作を提供するのに、ユーザの動作により電子装置を直接に操作すべく、ユーザの動作が検出される場合がある。
従来のアプローチにおいて、一部の電子装置では、ユーザの人体部分(手、脚、頭部など)によって、これらの電子装置の動作を制御することが可能である。動作センサを備えたハンドヘルド・コントローラ又は他の装着可能な動作感知装置が、ユーザの人体部分を感知するために提供されてもよい。しかし、これらの動作感知装置は、特定の人体部分に合わせて設計される。例えば、ハンドヘルド・コントローラが、ユーザの右手に合わせて設計され、別のハンドヘルド・コントローラが、左手に合わせて設計される。特定の人体部分に合わせたこの制限は、ユーザにとって直観的でない。ユーザは、どのハンドヘルド・コントローラが、ユーザの操作する手に適合しているかをまず識別しなければならない。
従来のアプローチにおいて、動作感知装置は、対応するモードを有するように事前構成される。ときとして、動作感知装置の事前構成は、一部の状況に関して好都合でない。したがって、本開示は、行動ベースの構成方法及び行動ベースの構成システムを対象とする。
例示的な実施形態のうちの1つにおいて、行動ベースの構成方法が、以下のステップを含むが、それらには限定されない。動作感知装置が起動されているかどうかが、動作感知装置からの第1の動作感知データに基づいて判定される。動作感知装置が起動されていることに応じて、ユーザのどの人体部分が動作感知装置で作動しているかを判定すべく、第2の動作感知データが、解析される。第2の動作感知データは、動作感知装置で作動する人体部分と関係する。動作感知装置で作動する第1の人体部分に関する第1の操作モードが、第1の期間における第2の動作感知データの解析された結果に基づいて構成される。動作感知装置で作動する第2の人体部分に関する第2の操作モードが、第2の期間における第2の動作感知データの解析された結果に基づいて構成される。
例示的な実施形態のうちの1つにおいて、行動ベースの構成システムは、動作感知装置と、プロセッサとを含むが、これらに限定されない。プロセッサは、動作感知装置が起動されているかどうかを、動作感知装置からの第1の動作感知データに基づいて判定し、動作感知装置が起動されていることに応じて、ユーザのどの人体部分が動作感知装置と作用させられているかを判定すべく第2の動作感知データを解析し、動作感知装置で作動する第1の人体部分に関する第1の操作モードを、第1の期間における第2の動作感知データの解析された結果に基づいて構成し、動作感知装置で作動する第2の人体部分に関する第2の操作モードを、第2の期間における第2の動作感知データの解析された結果に基づいて構成する。第2の動作感知データは、動作感知装置で作動する人体部分と関係する。
以上のことに鑑みて、1つ又は複数の実施形態において提供される行動ベースの構成方法及び行動ベースの構成システムによれば、ユーザの人体部分の動作が追跡され、人体部分の動作は、どの人体部分が動作感知装置で作動しているかを識別すべく解析される。次に、解析された結果により、異なる人体部分に関して異なる操作モードが、それぞれ、構成されることが可能である。したがって、電子装置を操作するための柔軟で便利な方法が提供される。
しかし、本概要は、本開示の態様及び実施形態のすべてを包含するわけではない可能性があり、限定すること、又は制限的であることは、いずれの様態においても意図されていないこと、及び本明細書において開示される発明は、本発明の明白な改良形態及び変形形態を包含するように当業者によって理解されることを理解されたい。
添付の図面は、本開示のさらなる理解をもたらすように含められ、本明細書に組み込まれ、本明細書の一部分を構成する。図面は、本開示の実施形態を例示し、説明とともに、本開示の原理を説明するのに役立つ。
本開示の例示的な実施形態のうちの1つによる行動ベースの構成システムを示すブロック図である。 本開示の例示的な実施形態のうちの1つによる行動ベースの構成システムを示す概略図である。 本開示の例示的な実施形態のうちの1つによる行動ベースの構成方法を示すフローチャートである。 本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。
次に、実施例が添付の図面に示される、本開示の現在の好ましい実施形態を詳細に参照する。可能な限り、同一の部分又は同様の部分を参照するのに、同一の参照符号が図面及び説明において使用される。
図1は、本開示の例示的な実施形態のうちの1つによる行動ベースの構成システム100を示すブロック図である。図1を参照すると、行動ベースの構成システム100は、1つ又は複数の動作感知装置110と、メモリ130と、プロセッサ150とを含むが、これらに限定されない。一実施形態において、行動ベースの構成システム100は、VR技術、AR技術、MR技術、XR技術、又は他の現実関連の技術に適合させられることが可能である。一部の実施形態において、行動ベースの構成システム100は、外部装置(コンピュータ、ゲーム機、スマートフォン、ダッシュボード埋込み型システム、スマート機器など)を操作することに適合させられることが可能である。
動作感知装置110は、装着可能なコントローラ、スマートウォッチ、足首センサ、腰ベルト、又はそれらに類似するものなどのハンドヘルド・コントローラ又は装着可能な装置であることが可能である。一実施形態において、各動作感知装置110は、ユーザの1つの人体部分に装着可能である。例えば、人体部分は、左手若しくは右手、頭部、左足首若しくは右足首、左脚若しくは右脚、腰、又はその他の部分であってもよい。
一実施形態において、動作感知装置110は、動作センサを含む。動作センサは、加速度計、ジャイロスコープ、磁力計、レーザ・センサ、慣性測定ユニット(IMU)、赤外線(IR)センサ、又は前述の動作センサの任意の組合せであってもよい。動作センサは、動作自体を感知するために使用され、動作センサ自体が配置された人体部分で作動する。例えば、動作センサは、3次元空間における位置、及び回転状況自体を検出する。ユーザの人体部分は、動作センサが人体部分で作動するように、動作感知装置110を保持すること、装着すること、又は携帯することが可能である。したがって、動作センサの動作は、人体部分の動作を表すことが可能である。
一実施形態において、行動ベースの構成システム100は、1つ又は複数の動作感知装置120をさらに含んでもよい。動作感知装置120は、頭部装着型ディスプレイ(HMD)、スマートフォン、カメラ、ラップトップ、測位装置、又はそれらに類似するものであることが可能である。一実施形態において、動作感知装置120は、画像センサを含む。画像センサは、モノクロ・カメラ若しくはカラー・カメラ、ディープ・カメラ、ビデオ・レコーダ、又は画像を取り込むことができる他の画像センサなどのカメラであってもよい。
一部の実施形態において、画像センサは、ユーザの1つ又は複数の人体部分を含む画像を生成すべく、ユーザの1つ又は複数の人体部分に向けて取り込むのに使用されてもよい。
メモリ130は、任意のタイプの固定又は可動なランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、フラッシュ・メモリ、類似したデバイス、又は以上のデバイスの組合せであってもよい。一部の実施形態において、メモリ130は、プログラム・コード、デバイス構成、バッファ・データ若しくは永久データ(動作感知データ、画像、動作感知結果、構成など)を記憶するのに使用されることが可能であり、これらのデータについては、後段で概説される。
プロセッサ150は、メモリ130に結合され、かつプロセッサ150は、本開示の例示的な実施形態の手続きを実行すべく、メモリ130に記憶されたプログラム・コードをロードするように構成される。一部の実施形態において、プロセッサ150の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル・シグナル・プロセッサ(DSP)チップ、フィールド・プログラマブル・ゲート・アレイ(FPGA)、その他などのプログラム可能なユニットを使用することによって実施されてもよい。また、一実施形態において、プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実施されてもよく、プロセッサ150の動作は、ソフトウェアによって実施されてもよい。
プロセッサ150は、動作感知装置110及び120と一緒に配置されても、そのようにされなくてもよいことに留意されたい。しかし、動作感知装置110及び120、ならびにプロセッサ150は、互いにデータを送信/受信すべく、Bluetooth(登録商標)、Wi−Fi、IR、又は物理的な送信回路などの適合する通信技術を備えた通信トランシーバをさらに含んでよく、又はそのような通信トランシーバにさらに接続されてもよい。
図2は、本開示の例示的な実施形態のうちの1つによる行動ベースの構成システム200を示す概略図である。図2を参照すると、行動ベースの構成システム200が、動作感知装置110(ハンドヘルド・コントローラである)と、動作感知装置120(HMDである)とを含む。ステレオ・カメラ121(すなわち、画像センサ)及びプロセッサ150が、HMDに埋め込まれ、ステレオ・カメラ121は、操作部分B1(すなわち、ユーザの左手)及び操作部分B2(すなわち、ユーザの右手)に向けてカメラ画像をキャプチャするように構成されてもよい。さらに、IMU111(すなわち、動作センサ)が、操作部分B2の動作感知結果を獲得すべく、ハンドヘルド・コントローラに埋め込まれる。
行動ベースの構成システム100又は200に備えられるさらに多くの動作感知装置110が存在することに留意されたい。例えば、行動ベースの構成システム200は、2つの足首センサと、腰ベルトとをさらに含む。しかし、動作感知装置110の数は、これらに限定されない。
本開示の1つ又は複数の実施形態において提供される動作プロセスをよりよく理解すべく、いくつかの実施形態を以下に例示して、行動ベースの構成システム100の動作プロセスについて詳述する。行動ベースの構成システム100におけるデバイス及びモジュールは、本明細書において提供される制御方法を説明するために、以下の実施形態において適用される。制御方法の各ステップは、実際の実装状況により調整されることが可能であり、本明細書において説明されるものに限定されるべきではない。
図3は、本開示の例示的な実施形態のうちの1つによる行動ベースの構成方法を示すフローチャートである。図3を参照すると、プロセッサ150が、動作感知装置110が起動されているかどうかを、動作感知装置110からの第1の動作感知データに基づいて判定する(ステップS310)。具体的には、ユーザは、動作感知装置110を保持すること、装着すること、又は携帯することが可能である。しかし、動作感知装置110は、ユーザの人体部分で作動することのない任意の場所に配置されてもよい。動作感知装置110の動作センサは、ある期間にわたって、動作感知装置110を携帯するユーザの対応する人体部分の動作を感知してよく、プロセッサ150は、その期間内の複数の時点において動作センサの動作感知結果(例えば、感知された強度値、度数など)からの第1の動作感知データのシーケンスを生成してもよい。一実施例として、第1の動作感知データは、3自由度(3−DoF)データを含み、3−DoFデータは、ヨー、ロール、及びピッチにおける加速度などの、3次元(3D)空間における人体部分の回転情報と関係する。別の実施例として、第1の動作感知データは、2D/3D空間における人体部分の相対位置及び/又は変位を含む。
一実施形態において、プロセッサ150は、動作感知装置110が起動されていることを判定すべく、動作センサの動作感知結果に基づいて、動作感知装置110の動作を判定することができる。例えば、プロセッサ150は、動作感知装置110がまだ静止していないことを確認してもよい。
一部の実施形態において、異なる時点において動作感知装置110の動作センサから獲得される第1の動作感知データの変動が決定されてもよい。2つの時点の間の変動の値が、事前定義された閾値より大きい場合、プロセッサ150は、動作感知装置110が動いており、かつ起動されていると判定してもよい。他方、プロセッサ150は、動作感知装置110が起動されていないと判定することが可能である。
一部の実施形態において、プロセッサ150は、事前定義された1つ又は複数の軌道及び/又は回転を有する第1の動作感知データに基づいて、動作感知装置110の変位状況及び/又は回転状況を比較してもよい。第1の動作感知データが、事前定義された軌道及び/又は回転を満たす場合、プロセッサ150は、動作感知装置110が起動されていると判定してもよい。他方、プロセッサ150は、動作感知装置110が起動されていないと判定することも可能である。
動作感知装置110が起動されている場合、プロセッサ150は、ユーザのどの人体部分が動作感知装置110で作動しているかを判定すべく、第2の動作感知データを解析してもよい(ステップS330)。具体的には、第2の動作感知データは、人体部分の動作と関係する。一実施形態において、第2の動作感知データは、動作感知装置120から獲得され、プロセッサ150は、動作感知装置120の画像センサによって取り込まれた画像に基づいて第2の動作感知データを生成する。一実施形態において、プロセッサ150は、画像において1つ又は複数の人体部分が検出されたかどうかを検出してもよい。一部の実施形態において、画像における人体部分は、機械学習技術(深層学習、人工ニューラル・ネットワーク(ANN)、又はサポート・ベクター・マシン(SVM)など)を通じて識別される。別の実施形態において、人体部分は、2項分類器、適応ブースティング(Adaboost)などの他の物体識別技術を通じて識別されてもよい。
一実施形態において、画像において人体部分が検出された場合、プロセッサ150は、画像における人体部分の動作により第2の動作感知データを生成してもよい。一部の実施形態において、画像における人体部分に対応する感知強度及びピクセル位置が、第1の操作部分の深度情報(すなわち、動作感知装置120又は他の基準装置に対する距離)を推定するため、及び動作感知装置120と平行な面における人体部分の2D位置を推定するために使用されることが可能である。プロセッサ150は、その距離、及び人体部分の2D位置により、事前定義された座標系における3D位置を生成することが可能である。プロセッサ150は、6自由度(6−DoF)データ(第2の動作感知データと見なされる)を生成するように、異なる時点における複数の位置により人体部分の変位及び回転データをさらに推定してもよい。一部の実施形態において、2D/3D空間における人体部分の相対位置及び/又は変位である3−DoFデータが、第2の動作感知データであることが可能である。一部の実施形態において、プロセッサ150は、画像における手のジェスチャをさらに識別してよく、又は画像に動作感知装置110が存在するかどうかをさらに識別してもよい。
別の実施形態において、第2の動作感知データは、動作感知装置110から獲得され、プロセッサ150は、動作感知装置110の動作センサの動作感知結果に基づいて第2の動作感知データを生成する。この実施形態において、第2の動作感知データの生成については、第1の動作感知データの生成を参照することが可能であり、それについての詳細な説明は省略される。
さらに別の実施形態において、第2の動作感知データは、動作感知装置110及び動作感知装置120から獲得され、プロセッサ150は、動作感知装置110の動作センサの動作感知結果と、動作感知装置120の画像センサによって取り込まれた画像の両方に基づいて、第2の動作感知データを生成する。例えば、画像は、人体部分の位置を推定するために使用されることが可能であり、動作感知結果は、人体部分の回転状況を推定するために使用されることが可能である。別の実施例として、画像と動作感知結果の両方が、人体部分の位置を決定するために使用されることが可能である。さらに別の実施例として、第2の動作感知データは、動作感知結果に基づく位置及び回転データ、並びに画像に基づく位置及び回転データをそれぞれ記録してもよい。
第2の動作感知データが生成された後、プロセッサ150は、解析された結果を生成すべく、第2の動作感知データが条件を満たすかどうかを判定してもよい。具体的には、条件は、人体部分の動作が第2の動作感知データに基づいて検出されたことと関係する。ユーザの行動は、どの人体部分が動作感知装置110を携帯している/装着している/保持しているかを推定するのに使用されることが可能であるものと想定される。例として、ユーザがハンドヘルド・コントローラを保持するとき、ユーザは自身の腕を持ち上げることが可能である。別の例として、ユーザが足首センサを装着するとき、ユーザは、歩くことを試みることが可能である。他方、人は、一対の手、腕、脚、及び足を有することが可能である。ときとして、変位及び回転は、人体部分の前述した各対における2つの人体部分に関して異なる可能性があり、人体部分のどちらの側であるかを推定するのに使用されることが可能である。
一実施形態において、条件は、人体部分の動作が、動作感知装置120から獲得された画像に存在したことと関係する。ユーザは、動作感知装置110を携帯する人体部分を動かすことが可能であるものと想定される。一部の実施形態において、各画像は、2つ以上の区域に分割されてよく、人体部分が存在する区域が、どの人体部分が動いているかを判定するのに使用されることが可能である。例として、ユーザが右手を上げ、その右手が画像の右側に存在することが可能である。
一部の実施形態において、画像の人体部分の軌道が、どの人体部分が動いているかを判定するのに使用されることが可能である。例えば、ユーザが歩き、ユーザの膝が画像の下から中央に動いて、脚が動いていると判定されることが可能である。
一部の実施形態において、画像におけるユーザの手のジェスチャが、どの人体部分が動作感知装置110を使用するかを判定するのに使用されることが可能である。例えば、親指の指先が、画像における右側に向かっていて、手が動作感知装置110を保持すると判定される。
一実施形態において、条件は、人体部分の動作が動作感知結果において検出されたことと関係する。一部の実施形態において、動作感知結果に基づく人体部分の変位及び回転が、どの人体部分が動いているかを判定するのに使用されることが可能である。例として、手が波の動作を実行していると判定されるために、波の動作が検出される。別の例として、ユーザが腰を捻っていると判定されるために、人体部分が水平に回転する。
一部の実施形態において、動作感知結果に基づく人体部分の位置が、どの人体部分が動作感知装置110を携帯しているかを判定するのに使用されることが可能である。例えば、人体部分が、左胸の前方に位置し、プロセッサ150が、その人体部分が左手であると推定することが可能である。
さらに別の実施形態において、条件は、人体部分の動作が動作感知結果と画像の両方において検出されたことと関係する。一部の実施形態において、人体部分の変位、位置、及び/又は回転が、動作感知結果と画像の組合せに基づいて決定されることが可能であり、その変位、位置、及び/又は回転が、前述したとおり、どの人体部分が動いているか、又は動作感知装置110を装着している/携帯している/保持しているかを推定するのに使用されることが可能である。
一部の実施形態において、プロセッサ150は、画像において人体部分を識別してよく、かつ人体部分の動作が、動作感知結果と画像の両方において同一であるかどうかを判定してもよい。動作感知結果と画像の両方における変位、位置、及び/又は回転が、比較されてもよい。比較された結果が同一である場合、プロセッサ150は、条件が満たされたと判定し、かつ識別された人体部分が動作感知装置110と作用させられていると判定する。他方、比較された結果が同一でない場合、プロセッサ150は、条件が満たされていないと判定する。
図4は、本開示の例示的な実施形態のうちの1つによる動作追跡方法を示す概略図である。図4を参照すると、人体部分B1及びB2が、動作感知装置120の画像センサの視野FOVに存在する。しかし、人体部分B1に関して、画像に基づく位置データと同一である、動作感知装置120から獲得された動作感知結果に基づく位置データは、存在しない。他方、動作感知装置120から獲得された動作感知結果に基づく位置データは、人体部分B2に関する画像に基づく位置データと同一である。したがって、プロセッサ150は、人体部分B2(すなわち、右手)が動作感知装置110を保持すると判定してもよい。
別の実施形態において、動作感知装置110が起動されていない場合、プロセッサ150は、人体部分の動作を感知すべく、別の動作感知装置(動作感知装置120であること、又は動作感知装置110とは異なる他の動作感知装置であることが可能である)から獲得された第3の動作感知データを使用してもよい。動作感知装置110は、ユーザによって使用されず、したがって、この動作感知装置から獲得された動作感知結果は、信頼できず、別の動作感知データが必要とされるものと想定される。第3の動作感知データは、画像又は他のデータに基づいて生成されてもよい。
例として、ハンドヘルド・コントローラが、第1の動作感知データに基づいて、起動されていない場合、プロセッサ150は、ユーザの手の動作を決定すべく、HMDの画像センサからの別の動作感知データを使用してもよい。
人体部分が判定され、かつ判定された人体部分がユーザの第1の人体部分であるものと想定される場合、プロセッサ150は、第1の期間における第2の動作感知データの解析された結果に基づいて、動作感知装置110で作動する第1の人体部分に関する第1の操作モードを構成してもよい(ステップS350)。具体的には、解析された結果は、人体部分が動作感知装置110と作用させられたことと関係する。プロセッサ150は、第1の人体部分である、判定された人体部分に合わせて動作感知装置110の第1の操作モードを構成してもよい。一実施形態において、第1の操作モードは、人体部分の対の右側又は左側と関係する。例えば、プロセッサ150は、ハンドヘルド・コントローラに関して右手操作モード又は左手操作モードを構成する。別の実施形態において、第1の操作モードは、シナリオ、コマンド、動作感知機構、その他と関係することが可能である。一部の実施形態において、第1の操作モードは、動作感知装置120又は他の外部装置に関して使用されてもよい。第1の期間は、第1の操作モードが構成される持続時間である。一部の実施形態において、第1の期間は、第1の人体部分が動作感知装置110で作動しない場合、終了されてもよい。
人体部分が判定され、かつ判定された人体部分が、第1の人体部分とは異なるユーザの第2の人体部分であるものと想定される場合、プロセッサ150は、第2の期間における第2の動作感知データの解析された結果に基づいて、動作感知装置110で作動する第2の人体部分に関する第2の操作モードを構成してもよい(ステップS370)。ステップS350と同様に、プロセッサ150は、第2の人体部分である、判定された人体部分に合わせて動作感知装置110の第2の操作モードを構成してもよい。第2の操作モードは、第1の操作モードと同一であっても、異なっていてもよい。実施例として、第1の操作モードが、人体部分の対の右側と関係し、第2の操作モードが、人体部分の対の左側と関係する。別の実施例として、第1の操作モードと第2の操作モードはともに、ユーザ・インターフェースに関する操作モードである。一部の実施形態において、第2の操作モードは、シナリオ、コマンド、動作感知機構、その他と関係することも可能であり、第2の操作モードは、動作感知装置120又は他の外部装置に関して使用されてもよい。さらに、第2の期間は、第2の操作モードが構成される持続時間である。一部の実施形態において、第2の期間は、第2の人体部分が動作感知装置110で作動しない場合、終了されてもよい。第2の期間は、第1の期間と重なり合うようにされても、重なり合うようにされなくてもよいことに留意されたい。
一実施形態において、動作感知装置110又は120から獲得された動作感知データが、アバターの対応する身体部分の動作を制御するのに使用されることが可能である。例えば、動作感知データが、左脚が現実世界において上がっていることと関係し、アバターの左脚が、仮想世界においてそれに相応して上がってもよい。
一部の実施形態において、プロセッサ150は、第1の操作モードでユーザの第1の人体部分に対応するアバターの第1の身体部分を動かしてよく、かつ第2の操作モードでユーザの第2の人体部分に対応するアバターの第2の身体部分を動かしてもよい。アバターの身体部分は、手、頭部、左足首若しくは右足首、左脚若しくは右脚、腰、又はその他の部分であることが可能である。例えば、第1の身体部分及び第1の人体部分が、ユーザの左手に対応しており、かつ第2の身体部分及び第2の人体部分が、ユーザの右手に対応している。すると、アバターの左手の動作情報は、ハンドヘルド・コントローラの左手モードでユーザの左手の動作により生成されてよく、かつアバターの右手の動作情報は、異なる期間における同一のハンドヘルド・コントローラの右手モードでユーザの右手の動作により生成されてもよい。
したがって、動作感知装置110の構成は、ユーザの検出された行動に基づいて自動的に設定されることが可能である。例えば、ユーザが、右手によってハンドヘルド・コントローラを保持し、かつ現実世界において右手を振る場合、プロセッサ150は、ハンドヘルド・コントローラに関して右手操作モードを構成してよく、ユーザのアバターが、仮想世界において右手を振ってもよい。次に、ユーザが、左手によってハンドヘルド・コントローラを保持し、かつ現実世界において左手を振る場合、同一のハンドヘルド・コントローラが、左手操作モードに切り換えられてよく、ユーザのアバターが、仮想世界において左手を振ってもよい。
要約すると、前述した例示的な実施形態は、人体部分の動作を決定すべく動作感知データを解析することが可能であり、かつどの人体部分が動作感知装置で作動しているかをさらに判定することが可能な、行動ベースの構成方法及び行動ベースの構成システムについて説明した。さらに、判定された人体部分に関する操作モードが、構成されることが可能である。したがって、ユーザが動作感知装置を操作することが便利である。
本開示の範囲も趣旨も逸脱することなく、本開示の構造に様々な変形及び変更が行われることが可能であることが、当業者には明白であろう。以上のことに鑑みて、本開示は、本開示の変形及び変更を、それらの変形及び変更が、添付の特許請求の範囲、及び均等の範囲に含まれるという条件付きで、範囲に含むものとする。
本発明の行動ベースの構成方法及び行動ベースの構成システムは、操作モードの構成において適用されてもよい。
100、200 行動ベースの構成システム
110 動作感知装置
111 IMU
120 動作感知装置
121 ステレオ・カメラ
130 メモリ
150 プロセッサ
S310、S330、S350、S370 ステップ
FOV 視野

Claims (11)

  1. 動作感知装置からの第1の動作感知データに基づいて、前記動作感知装置が起動されているかどうかを判定するステップと、
    前記動作感知装置が起動されていることに応じて、ユーザのどの人体部分が前記動作感知装置で作動するかを判定すべく、第2の動作感知データを解析するステップであって、前記第2の動作感知データは、前記動作感知装置で作動する前記人体部分に関する、ステップと、
    第1の期間における前記第2の動作感知データの前記解析された結果に基づいて、前記動作感知装置で作動する第1の人体部分に関する第1の操作モードを構成するステップと、
    第2の期間における前記第2の動作感知データの前記解析された結果に基づいて、前記動作感知装置で作動する第2の人体部分に関する第2の操作モードを構成するステップと
    を含む行動ベースの構成方法。
  2. 動作感知装置と、
    前記動作感知装置からの第1の動作感知データに基づいて、前記動作感知装置が起動されているかどうかを判定すること、
    前記動作感知装置が起動されていることに応じて、ユーザのどの人体部分が前記動作感知装置で作動しているかを判定すべく、第2の動作感知データを解析することであって、前記第2の動作感知データは、前記動作感知装置で作動する前記人体部分に関すること、
    第1の期間における前記第2の動作感知データの前記解析された結果に基づいて、前記動作感知装置で作動する第1の人体部分に関する第1の操作モードを構成すること、及び
    第2の期間における前記第2の動作感知データの前記解析された結果に基づいて、前記動作感知装置で作動する第2の人体部分に関する第2の操作モードを構成すること
    を実行するように構成されたプロセッサと
    を備える行動ベースの構成システム。
  3. 第2の動作感知データを解析する前記ステップは、
    前記解析された結果を生成すべく、前記第2の動作感知データが条件を満たすかどうかを判定するステップであって、前記条件は、前記人体部分の動作が前記第2の動作感知データに基づいて検出されたことと関係する、請求項1に記載の行動ベースの構成方法、又は
    前記プロセッサは、
    前記解析された結果を生成すべく、前記第2の動作感知データが条件を満たすかどうかを判定することであって、前記条件は、前記人体部分の動作が前記第2の動作感知データに基づいて検出されたことと関係する、ことを実行するように構成される、請求項2に記載の行動ベースの構成システム。
  4. 前記第2の動作感知データは、第2の動作感知装置から獲得され、前記第2の動作感知装置は、画像センサを備え、前記第2の動作感知データは、前記画像センサによって取り込まれた画像に基づいて生成され、前記条件は、前記人体部分の動作が、前記画像に存在したことと関係する、請求項3に記載の行動ベースの構成方法、又は
    第2の動作感知装置をさらに備え、
    前記第2の動作感知データは、前記第2の動作感知装置から獲得され、前記第2の動作感知装置は、画像センサを備え、前記第2の動作感知データは、前記画像センサによって取り込まれた画像に基づいて生成され、前記条件は、前記人体部分の動作が、前記画像に存在したことと関係する、請求項3に記載の行動ベースの構成システム。
  5. 前記第2の動作感知データは、前記動作感知装置から獲得され、前記動作感知装置は、動作センサを備え、前記第2の動作感知データは、前記動作センサの動作感知結果に基づいて生成され、前記条件は、前記人体部分の動作が、前記動作感知結果において検出されたことと関係する、請求項3に記載の行動ベースの構成方法、又は請求項3に記載の行動ベースの構成システム。
  6. 前記第2の動作感知データは、前記動作感知装置及び第2の動作感知装置から獲得され、前記動作感知装置は、動作センサを備え、前記第2の動作感知装置は、画像センサを備え、前記第2の動作感知データは、前記動作センサの動作感知結果と前記画像センサによって取り込まれた画像の両方に基づいて生成され、前記条件は、前記人体部分の動作が、前記動作感知結果と前記画像の両方において検出されたことと関係する、請求項3に記載の行動ベースの構成方法、又は
    第2の動作感知装置をさらに備え、
    前記第2の動作感知データは、前記動作感知装置及び前記第2の動作感知装置から獲得され、前記動作感知装置は、動作センサを備え、前記第2の動作感知装置は、画像センサを備え、前記第2の動作感知データは、前記動作センサの動作感知結果と前記画像センサによって取り込まれた画像の両方に基づいて生成され、前記条件は、前記人体部分の動作が、前記動作感知結果と前記画像の両方において検出されたことと関係する、請求項3に記載の行動ベースの構成システム。
  7. 前記第2の動作感知データが前記条件を満たすかどうかを判定する前記ステップは、
    前記人体部分の前記動作が前記動作感知結果と前記画像の両方において同一であるかどうかを判定するステップを含む、請求項6に記載の行動ベースの構成方法、又は
    前記プロセッサは、
    前記人体部分の前記動作が前記動作感知結果と前記画像の両方において同一であるかどうかを判定することを実行するように構成される、請求項6に記載の行動ベースの構成システム。
  8. 前記第1の人体部分と前記第2の人体部分のいずれかが、前記ユーザの右手又は左手である、請求項1に記載の行動ベースの構成方法、又は請求項2に記載の行動ベースの構成システム。
  9. 前記動作感知装置は、動作センサを備え、前記動作感知装置が起動されていることを判定する前記ステップは、
    前記動作感知装置が起動されていることを判定すべく、前記動作センサの動作感知結果に基づいて、前記動作感知装置の動作を判定するステップを含む、請求項1に記載の行動ベースの構成方法、又は
    前記動作感知装置は、動作センサを備え、前記プロセッサは、
    前記動作感知装置が起動されていることを判定すべく、前記動作センサの動作感知結果に基づいて、前記動作感知装置の動作を判定することを実行するように構成される、請求項2に記載の行動ベースの構成システム。
  10. 前記動作感知装置が起動されていないことに応じて、前記人体部分の動作を感知すべく第3の動作感知装置から獲得された第3の動作感知データを使用するステップをさらに含む請求項1に記載の行動ベースの構成方法、又は
    第3の動作感知装置をさらに備え、
    前記プロセッサは、
    前記動作感知装置が起動されていないことに応じて、前記人体部分の動作を感知すべく前記第3の動作感知装置から獲得された第3の動作感知データを使用することを実行するように構成される、請求項2に記載の行動ベースの構成システム。
  11. 前記第1の操作モードでは、前記ユーザの前記第1の人体部分に対応するアバターの第1の身体部分を動かすステップと、
    前記第2の操作モードでは、前記ユーザの前記第2の人体部分に対応する前記アバターの第2の身体部分を動かすステップと
    をさらに含む請求項1に記載の行動ベースの構成方法、又は
    前記プロセッサは、
    前記第1の操作モードでは、前記ユーザの前記第1の人体部分に対応するアバターの第1の身体部分を動かすこと、及び
    前記第2の操作モードでは、前記ユーザの前記第2の人体部分に対応する前記アバターの第2の身体部分を動かすことを実行するように構成される、請求項2に記載の行動ベースの構成システム。
JP2019220957A 2019-12-06 2019-12-06 行動ベースの構成方法及び行動ベースの構成システム Pending JP2021089693A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220957A JP2021089693A (ja) 2019-12-06 2019-12-06 行動ベースの構成方法及び行動ベースの構成システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220957A JP2021089693A (ja) 2019-12-06 2019-12-06 行動ベースの構成方法及び行動ベースの構成システム

Publications (1)

Publication Number Publication Date
JP2021089693A true JP2021089693A (ja) 2021-06-10

Family

ID=76220324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220957A Pending JP2021089693A (ja) 2019-12-06 2019-12-06 行動ベースの構成方法及び行動ベースの構成システム

Country Status (1)

Country Link
JP (1) JP2021089693A (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067865A (ja) * 2006-09-13 2008-03-27 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
JP2017513126A (ja) * 2014-04-01 2017-05-25 アップル インコーポレイテッド リング形コンピューティングデバイスのための装置及び方法
WO2017150127A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置及び制御プログラム
JP2018010348A (ja) * 2016-07-11 2018-01-18 株式会社コロプラ 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置
JP2018502396A (ja) * 2014-12-31 2018-01-25 華為技術有限公司Huawei Technologies Co.,Ltd. ウェアラブルデバイスの画面表示方法およびウェアラブルデバイス
JP2019074505A (ja) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. 位置推定方法、装置及びコンピュータプログラム
US20190262697A1 (en) * 2018-02-27 2019-08-29 Samsung Electronics Co., Ltd Method of displaying graphic object differently according to body portion in contact with controller, and electronic device
JP6581666B2 (ja) * 2015-04-15 2019-09-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイでのピンチアンドホールドジェスチャのナビゲーション
JP2020064629A (ja) * 2018-10-15 2020-04-23 タンギ0 リミッテッド センサ装置及び方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067865A (ja) * 2006-09-13 2008-03-27 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
JP2017513126A (ja) * 2014-04-01 2017-05-25 アップル インコーポレイテッド リング形コンピューティングデバイスのための装置及び方法
JP2018502396A (ja) * 2014-12-31 2018-01-25 華為技術有限公司Huawei Technologies Co.,Ltd. ウェアラブルデバイスの画面表示方法およびウェアラブルデバイス
JP6581666B2 (ja) * 2015-04-15 2019-09-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイでのピンチアンドホールドジェスチャのナビゲーション
WO2017150127A1 (ja) * 2016-03-04 2017-09-08 株式会社ソニー・インタラクティブエンタテインメント 制御装置及び制御プログラム
JP2018010348A (ja) * 2016-07-11 2018-01-18 株式会社コロプラ 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置
JP2019074505A (ja) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. 位置推定方法、装置及びコンピュータプログラム
US20190262697A1 (en) * 2018-02-27 2019-08-29 Samsung Electronics Co., Ltd Method of displaying graphic object differently according to body portion in contact with controller, and electronic device
JP2020064629A (ja) * 2018-10-15 2020-04-23 タンギ0 リミッテッド センサ装置及び方法

Similar Documents

Publication Publication Date Title
US10169880B2 (en) Information processing apparatus, information processing method, and program
US9563258B2 (en) Switching method and electronic device
US20180005445A1 (en) Augmenting a Moveable Entity with a Hologram
US11029753B2 (en) Human computer interaction system and human computer interaction method
CN112764525B (zh) 虚拟化身运动生成方法和头戴式显示器系统
US10996743B2 (en) Electronic system and controller and the operating method for the same
KR102183857B1 (ko) 스마트 워치 제어 방법 및 시스템
Tsun et al. A human orientation tracking system using Template Matching and active Infrared marker
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JP2021089693A (ja) 行動ベースの構成方法及び行動ベースの構成システム
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
EP3832434A1 (en) Behavior-based configuration method and behavior-based configuration system
US20210165485A1 (en) Behavior-based configuration method and behavior-based configuration system
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
CN113031755A (zh) 基于行为的配置方法和基于行为的配置系统
JP2021089692A (ja) 動作感知データ生成方法及び動作感知データ生成システム
CN113031753A (zh) 运动传感数据产生方法和运动传感数据产生系统
US20210157395A1 (en) Motion sensing data generating method and motion sensing data generating system
US20200089940A1 (en) Human behavior understanding system and method
EP3832436A1 (en) Motion sensing data generating method and motion sensing data generating system
JP2021043930A (ja) 人間行動理解システム及び方法
US11783492B2 (en) Human body portion tracking method and human body portion tracking system
US20220415094A1 (en) Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium
JP2015207908A (ja) 情報処理装置
JP2021089691A (ja) 動作追跡システム及び動作追跡方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019