JP2021077311A - ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法 - Google Patents

ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法 Download PDF

Info

Publication number
JP2021077311A
JP2021077311A JP2019221227A JP2019221227A JP2021077311A JP 2021077311 A JP2021077311 A JP 2021077311A JP 2019221227 A JP2019221227 A JP 2019221227A JP 2019221227 A JP2019221227 A JP 2019221227A JP 2021077311 A JP2021077311 A JP 2021077311A
Authority
JP
Japan
Prior art keywords
sensor
image
user
motion
operation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019221227A
Other languages
English (en)
Inventor
彦宏 林
Yanhung Lin
彦宏 林
▲ちー▼凱 王
Chieh-Kai Wang
▲ちー▼凱 王
士豪 柯
Shi Hao Ke
士豪 柯
偉齊 嚴
Wei-Chi Yen
偉齊 嚴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2021077311A publication Critical patent/JP2021077311A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法を提供すること。
【解決手段】ヒューマン・コンピュータ・インタラクション・システムは、第1のセンサ、第2のセンサ及びプロセッサを含む。プロセッサは、第1のセンサから第1の操作部の第1の動作感知データを取得し、第1の操作部とは異なる第2のセンサから第2の操作部の第2の動作感知データを取得し、第1の動作感知データ及び第2の動作感知データの両方にしたがって、事象を判定する。したがって、ユーザーの複数の操作部用のハイブリッドな動作追跡方法が提供される。
【選択図】図2

Description

本開示は、一般にユーザーの動作を追跡する方法に関し、特に、ユーザーのヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法に関する。
電子機器(ゲーム機、コンピュータ、スマートフォン、スマート家電など)に直観的な操作を提供するため、ユーザーの動作を検出して、ユーザーの動作にしたがって、電子機器を直接操作することができる。
従来の手法では、一部の電子機器は、ユーザーの複数の人体部分(手、脚、頭部など)がこれらの電子機器の操作を制御を可能にし、これらの人体部分の動作を追跡させることができる。しかし、これらの電子機器は、複数の人体部分の動作を同時に検出するための1つの方法を提供しているに過ぎない。例えば、仮想現実(VR)製品では、手持ち式コントローラを提供して、手持ち式コントローラはそれぞれ、慣性測定ユニット(IMU)を含んで、ユーザーの手の動作を追跡する。1つの動作を追跡する方式は、習慣又は所望により、ユーザーによっては制限となることがある。
単に1つのセンサで人体部分の動作を推定するのは難しい。したがって、本開示は、ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法を対象とする。
例示的な実施形態の1つでは、ヒューマン・コンピュータ・インタラクションの方法は、以下の工程を含むが、それに限定されない。第1の動作感知データが取得され、第1の動作感知データは、ユーザーの第1の操作部に関係し、第1のセンサに基づいて生成される。第2の動作感知データが取得され、第2の動作感知データは、第1の操作部とは異なるユーザーの第2の操作部に関係し、第2のセンサに基づいて生成される。1つの事象は、第1の動作感知データ及び第2の動作感知データの両方にしたがって、トリガされる。
例示的な実施形態の1つでは、ヒューマン・コンピュータ・インタラクション・システムは、第1のセンサ、第2のセンサ、及びプロセッサを含むが、それに限定されない。第1のセンサは、ユーザーの第1の操作部に関連した第1の動作感知データを取得する。第2のセンサは、第1の操作部とは異なるユーザーの第2の操作部に関連した第2の動作感知データを取得する。プロセッサは、第1のセンサから取得された画像データに基づいて第1の操作部の第1の動作感知データを取得し、第2のセンサの動作に基づいて第2の操作部の第2の動作感知データを取得し、第1の動作感知データ及び第2の動作感知データの両方にしたがって事象をトリガする。
上述の点から、1つ又は複数の実施形態にて提供されるヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法によれば、ユーザーの一操作部の動作は第1のセンサによって追跡され、ユーザーの別の操作部の動作は第2のセンサにより追跡される。したがって、電子機器を操作するための柔軟で便利な方法を提供することができる。
しかし、この概要は、本開示の態様及び実施形態のすべてを包含するわけではなく、限定又は制限することは、いずれの様態においても意図するものではなく、ならびに、本明細書において開示される発明は、本発明の明白な改良形態及び変形形態を包含するように当業者によって理解されるであろうことを理解されたい。
添付の図面は、本開示のさらなる理解をもたらすように含められ、本明細書に組み込まれ、本明細書の一部分を構成する。図面は、本開示の実施形態を例示し、説明と一緒に、本開示の原理を明らかにする役割をする。
本開示の例示的な実施形態の1つによる、ヒューマン・コンピュータ・インタラクション・システムを示すブロック図である。 本開示の例示的な実施形態の1つによる、ヒューマン・コンピュータ・インタラクションの方法を示すフローチャートである。 本開示の例示的な実施形態の1つによる、ヒューマン・コンピュータ・インタラクション・システムを示す概略図である。 本開示の例示的な実施形態の1つによる、別のヒューマン・コンピュータ・インタラクション・システムを示す概略図である。
ここで、本開示の現在の好ましい実施形態を詳細に参照し、その例を添付の図面に示す。可能限り、同一の部分、又は同様の部分を参照するのに同一の参照符号が、図面及び説明において使用される。
図1は、本開示の例示的な実施形態の1つによるヒューマン・コンピュータ・インタラクション・システム100を示すブロック図である。図1に示すように、ヒューマン・コンピュータ・インタラクション・システム100は、1つ又は複数の第1のセンサ110、1つ又は複数の第2のセンサ120、メモリ130及びプロセッサ150を含むが、これらに限定されない。一実施形態では、ヒューマン・コンピュータ・インタラクション・システム100は、VR技術、AR技術、MR技術、XR技術又はその他の現実関連技術に適合され得る。実施形態によっては、ヒューマン・コンピュータ・インタラクション・システム100は、外部機器(コンピュータ、ゲーム機、スマートフォン、ダッシュボード搭載型システム、スマート家電など)を操作するよう適合され得る。
一実施形態では、第1のセンサ110は、モノクロ・カメラもしくはカラー・カメラ、ディープ・カメラ、ビデオ録画機、又は画像を取り込めるその他の画像センサなどのカメラであってもよい。
実施形態によっては、第1のセンサ110を使用して、ユーザーの1つ又は複数の操作部に向かって取り込み、ユーザーの操作部を含む画像データを生成することができる。例えば、1つ又は複数の操作部には、ユーザーの顔、手、頭部、足首、脚、腰回り、又はその他の人体部分が含まれてもよい。
一実施形態では、ヒューマン・コンピュータ・インタラクション・システム100は、頭部装着型ディスプレイ(HMD)をさらに含み、第1のセンサ110はHMDに埋め込まれる。実施形態によっては、第1のセンサ110は、第1のセンサ110が標的操作部を取り込める任意の場所に配置されてもよい。
別の実施形態では、第1のセンサ110は、加速度計、ジャイロスコープ、磁気計、レーザ・センサ、慣性測定ユニット(IMU)、赤外線(IR)センサ、又は上述の動作センサの任意の組み合わせであってもよい。第1のセンサ110は、動作自体を感知するため使用され、それ自体が配置される操作部により作動する。例えば、第1のセンサ110は、3次元空間内における位置及び回転状況自体を検出する。
実施形態によっては、ヒューマン・コンピュータ・インタラクション・システム100は、1つ又は複数のコントローラ(例えば、手持ち式コントローラ、装着型機器(装着型コントローラ、スマートウォッチ、足首センサ、又はHMDなど))をさらに含み、第1のセンサ110は、コントローラ内に埋め込まれる。ユーザーの操作部は、コントローラを保持、着用、又は携帯してもよい。第1のセンサ110は、ユーザーの操作部と共に移動又は回転させることができる。したがって、第1のセンサ110の動作は、操作部の動作を表すことができる。
さらに別の実施形態では、第1のセンサ110は、上述の画像センサ及び動作センサの両方を含んでもよい。
同様に、第2のセンサ120は、任意の種類の上述の画像センサ又は任意の種類の上述の動作センサであってもよい。実施形態によっては、第2のセンサ120は、画像センサ及び動作センサの両方を含んでもよい。第2のセンサ120と第1のセンサ110との間の違いは、第2のセンサ120を使用して、第1のセンサ110によって感知される操作部とは異なるユーザーの別の操作部の動作を感知することであることに留意されたい。
メモリ130は、任意の種類の固定された又は可動のランダム・アクセス・メモリ(RAM)、読取り専用メモリ(ROM)、フラッシュ・メモリ又は同様のデバイスあるいは上記のデバイスの組み合わせであってもよい。メモリ130を使用して、プログラム・コード、デバイス構成、バッファ・データ又は永久データ(動作感知データ、画像データ、操作コマンドなど)を保存することができ、これらのデータについては後段で概説される。
プロセッサ150はメモリ130に結合され、プロセッサ150は、メモリ130に保存されたプログラム・コードを読み込み、本開示の例示的な実施形態の手順を実施するように構成される。実施形態によっては、プロセッサ150の機能は、中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)チップ、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラム可能なユニットを使用することにより、実装できる。一実施形態では、プロセッサ150の機能は、独立した電子デバイス又は集積回路(IC)によって実装することもでき、プロセッサ150の動作はソフトウェアによって実施することもできる。
プロセッサ150は、第1のセンサ110又は第2のセンサ120と同じ機器に配置されてもされなくてもよいことに留意されたい。しかし、第1のセンサ110、第2のセンサ120及びプロセッサ150をそれぞれ装備した機器は、ブルートゥース、Wi−Fi、赤外線(IR)、又は物理伝送線路などの適合する通信技術を備えた通信送受信機をさらに含んで、互いにデータを送受信できる。
本開示の1つ又は複数の実施形態にて提供される操作手順をより良く理解するため、いくつかの実施形態を以下に例示して、ヒューマン・コンピュータ・インタラクション・システム100の操作手順を詳述する。ヒューマン・コンピュータ・インタラクション・システム100のデバイス及びモジュールを、以下の実施形態において適用して、本明細書にて提供される制御方法を説明する。制御方法の各工程は、実際の実装状況にしたがって調節可能であり、本明細書に説明されるものに制限されるべきではない。
図2は、本開示の例示的な実施形態の1つによる、ヒューマン・コンピュータ・インタラクションの方法を示すフローチャートである。図2を参照すると、プロセッサ150は、第1のセンサ110から第1の動作感知データを取得することができる(工程S210)。具体的には、第1の動作感知データは、ユーザーの第1の操作部に関連し、第1のセンサ110に基づいて生成される。プロセッサ150は、ユーザーの1つもしくは複数の人体部分を予め定義するか、又はユーザーからの選択による1つもしくは複数の人体部分を選択して、第1の操作部の種類として決定することができる。例えば、右手は、既定の第1の操作部であろう。別の実施例では、ヒューマン・コンピュータ・インタラクション・システム100は、UIを提示するためのディスプレイを備え、UIはいくつかの人体部分を示し、UI上でのユーザーの選択が第1の操作部として決定され得る。
一実施形態では、第1のセンサ110から取得された画像(様々な時間点で取り込まれた一連の取り込まれた画像を含み得る)及び/又はデータ(様々な時間点で取得された一連の検知データを含み得る)の受信後、プロセッサ150は、第1の操作部が、画像又はデータ内で検出されるかどうかを検出できる。実施形態によっては、画像内の第1の操作部は、機械学習技術(ディープ・ラーニング、人工ニューラル・ネットワーク(ANN)、又はサポート・ベクトル・マシン(SVM)など)を介して識別される。別の実施形態では、第1の操作部は、2値分類器、適応的ブースティング(アダブースト)などのその他の物体認知技術を介して識別され得る。さらに別の実施形態では、様々な時間点で動作センサから取得されたデータの変動を決定することができる。2つの時間点の間の変動の値が、所定の閾値より大きい場合、プロセッサ150は、第1の操作部が移動していると判定できる。他方で、プロセッサ150は、第1の操作部が移動していない、又は第1のセンサ110は第1の操作部から離れたと判定してもよい。
一実施形態では、画像内で検出されている第1の操作部に応答して、プロセッサ150は、画像内の第1の操作部の動作による、第1の動作感知データを生成することができる。実施形態によっては、画像内の第1の操作部に対応する感知強度及び画素位置は、第1の操作部の深度情報(すなわち、第1のセンサ110又は他の基準機器に対する距離)を推定し、第1のセンサ110に平行な平面の第1の操作部の2D位置を推定するために使用され得る。プロセッサ150は、第1の操作部の距離及び2D位置による所定の座標システム内の3D位置を生成できる。プロセッサ150は、6自由度(6−DoF)データ(第1の動作感知データとして考えられるであろう)を生成するために、様々な時間点の複数の位置による第1の操作部の変位及び回転データをさらに推定できる。実施形態によっては、3−DoFデータ、2D/3D空間における第1の操作部の相対位置及び/又は変位が、第1の動作感知データであってもよい。
別の実施形態では、第1の動作感知データは、第1のセンサ110が動作センサである第1のセンサ110から取得されたデータに基づく、3−DoFデータ、6−DoFデータ、2D/3D空間における第1の操作部の相対位置及び/又は変位であってもよい。
さらに別の実施形態では、第1のセンサ110は、画像センサ及び動作センサを含み、第1の動作感知データは、画像センサからの画像及び動作センサからのデータの両方の画像に基づいて生成され得る。例えば、画像は、第1の操作部の位置を推定するために使用することができ、データは、第1の操作部の回転状況を推定するために使用できる。別の実施例では、画像とデータの両方を第1の操作部の位置を決定するために使用できる。
他方で、プロセッサ150は、第2の動作感知データを取得できる(工程S230)。具体的には、第2の動作感知データは、第1の操作部とは異なるユーザーの第2の操作部に関連する。例えば、第1の操作部は右手であり、第2の操作部は左手である。一実施形態では、第2のセンサ120からの第2の動作感知データの生成は、第1のセンサ110からの第1の動作感知データの生成を指す場合がある。それは、第2の動作感知データが、第2のセンサ120から取得された画像及び/又はデータに基づいて生成され得ることを意味する。例えば、第2のセンサ120はIMUであり、左手用手持ち式コントローラに埋め込まれており、IMUは、加速度、回転(向き及び角速度を含み得る)、及び磁界を取得できる。第2の動作感知データとして判定するために、IMUの感知結果を使用して、左手の構え及び回転データを推定することができる。
図3Aは、本開示の例示的な実施形態の1つによるヒューマン・コンピュータ・インタラクション・システム200を示す概略図である。図3Aを参照すると、ヒューマン・コンピュータ・インタラクション・システム200は、HMD140及び右手用手持ち式コントローラ160を含む。ステレオ・カメラ115(すなわち、第1のセンサ110及び/又は第2のセンサ120)及びプロセッサ150は、HMD140に埋め込まれ、ステレオ・カメラ115は、操作部B1(すなわち、ユーザーの左手)及び操作部B2(すなわち、ユーザーの右手)に向かってカメラ画像を取り込み、操作部B1の動作感知データ及び/又は操作部B2の動作感知データを判定するように構成され得る。加えて、IMU121(すなわち、第2のセンサ120)は、手持ち式コントローラ160に埋め込まれて、操作部B2の動作感知データを取得する。
図3Bは、本開示の例示的な実施形態の1つによる、別のヒューマン・コンピュータ・インタラクション・システム300を示す概略図である。図3Bを参照すると、ヒューマン・コンピュータ・インタラクション・システム300は、HMD140及び2つの足首用の2つの足首センサ180を含む。ステレオ・カメラ115は、操作部B3及び操作部B4(すなわち、ユーザーの左右の手)に向かってカメラ画像を取り込み、操作部B3及び操作部B4それぞれの動作感知データを判定するように構成され得る。IMU123(すなわち、第1のセンサ110及び/又は第2のセンサ120)は、足首センサ180に埋め込まれて、操作部B5及び操作部B6(すなわち、ユーザーの左右の足首)それぞれの動作感知データを取得する。
第1のセンサ110又は第2のセンサ120によって追跡された操作部は、実際の要求に基づいて変更することができることに留意されたい。
一実施形態では、ヒューマン・コンピュータ・インタラクション・システム100は、第1のセンサ110及び/又は第2のセンサ120をそれぞれ埋め込まれた2つ以上のコントローラを備え得る。プロセッサ150は、どのコントローラをユーザーが使用しているかを判定し、それによりユーザーのどの操作部が追跡されているかを判定することができる。プロセッサ150は、第1のセンサ110及び/又は第2のセンサ120の感知結果から、画像センサからの画像及び/又は動作センサからのデータが信頼できるかどうかを判定できる。
一実施形態では、プロセッサ150は、ユーザーの第1の操作部/第2の操作部の動作に関連する画像分析結果が信頼できるかどうか判定できる。画像分析結果は、第1のセンサ110/第2のセンサ120の画像センサから取り込まれた画像に基づいて判定される。一実施形態では、第1の操作部/第2の操作部が、第1のセンサ110/第2のセンサ120から取り込まれた画像内に存在する場合、プロセッサ150は、画像センサに対する画像分析結果が信頼できると判定し、第1の動作感知データ/第2の動作感知データとして画像センサから取り込まれた画像を使用することができる。他方で、一実施形態では、第1の操作部/第2の操作部が、画像センサから取り込まれた画像内に存在しない場合、プロセッサ150は、画像センサに対する画像分析結果が信頼できないと判定して、第1の動作感知データ/第2の動作感知データとして、第1のセンサ110/第2のセンサ120の動作センサから取得されたデータを使用できる。
別の実施形態では、プロセッサ150は、ユーザーの第1の操作部/第2の操作部の動作に関連するデータ分析結果が信頼できるかどうかを判定できる。データ分析結果は、第1のセンサ110/第2のセンサ120の動作センサから取得されたデータに基づいて判定される。一実施形態では、動作センサの位置及び向き(すなわち、感知結果)が同じでないか、又はその変動が、ある期間の間、閾値より大きい場合、プロセッサ150は、動作センサに対するデータ分析結果が信頼できると判定し、第1の動作感知データ/第2の動作感知データとして動作センサから取得されたデータを使用できるか、又は動作センサからのデータと画像センサからの画像との両方を使用して、第1の動作感知データ/第2の動作感知データを判定できる。他方で、一実施形態では、動作センサの位置及び向きが同じであるか、又はそれらの変動がある期間の間、閾値より小さい場合、プロセッサ150は、動作センサに対するデータ分析結果は信頼できないと判定して、第1の動作感知データ/第2の動作感知データとして第1のセンサ110/第2のセンサ120の画像センサから取り込まれたデータを使用することができる。
実施形態によっては、プロセッサ150は、ユーザーの第1の操作部の動作に関連する画像分析結果が信頼できると判定し、ユーザーの第2の操作部の動作に関連するデータ分析結果が信頼できるかどうかを判定することができる。実施形態によっては、プロセッサ150は、ユーザーの第1の操作部の動作に関連するデータ分析結果が信頼できると判定し、ユーザーの第2の操作部の動作に関連する画像分析結果が信頼できるかどうか判定できる。
一実施形態では、プロセッサ150は、第1のセンサ110/第2のセンサ120を埋め込まれたコントローラ上で操作が検出されるかどうかを判定できる。コントローラは、ボタン、スイッチ、タッチ・パネルなどの入力機器を含むことができる。 コントローラは、入力機器によって受信されたユーザーによる操作の入力事象をプロセッサ150に報告することができる。入力事象は、例えば、ボタンが押されたり、スイッチが押されたり、又はタッチ・パネル上の特定の位置がユーザーの指で接触されたりすることであってもよい。プロセッサ150が、入力事象を第2の期間の間受信せず、第2の期間が第2の遊休時間閾値を超える場合、プロセッサ150は、ユーザーの操作が検出されないと判定し、動作センサに対するデータ分析結果は信頼できないと判定することができる。他方で、第2の期間が第2の遊休時間閾値未満である場合、プロセッサ150は、ユーザーの操作が検出されたと判定し、動作センサに対するデータ分析結果が信頼できると判定することができる。
一実施形態では、動作センサのデータ分析結果が信頼できることを受けて、プロセッサ150は、動作センサにより作動するユーザーの操作部が追跡対象であると判定し得る。他方で、動作センサのデータ分析結果が信頼できないことを受けて、プロセッサ150は、第1のセンサ110/第2のセンサ120の動作センサを埋め込まれたコントローラが、今はユーザーに使われていないと判定することができ、プロセッサ150は、第1のセンサ110/第2のセンサ120の画像センサから取得された画像に基づいて第1/第2の動作感知データを取得することができる。
実施形態によっては、第1のセンサ110/第2のセンサ120の動作が、停止中であるか、又は第1のセンサ110/第2のセンサ120を埋め込まれたコントローラで、しばらくの間(第1又は第2の遊休時間閾値を越える時間など)操作が検出されない場合でさえ、プロセッサ150は、第1のセンサ110/第2のセンサ120の動作に基づいて第1/第2の動作感知データを依然として取得することができることに留意すべきである。
図2に戻ると、プロセッサ150は、第1の動作感知データ及び第2の動作感知データの両方にしたがって、事象をトリガすることができる(工程S250)。一実施形態では、事象は、仮想環境の仮想物体又は現実環境の実物を制御する1つ又は複数のコマンドに関連する。コマンドは、アバターの対応する身体部、仮想環境内の1つもしくは複数の仮想物体との相互作用行動(手で触る、投げる、たたく行動など)、又は現実環境内の外部機器(コンピュータ、ゲーム機、スマートフォン、ダッシュボード搭載型システム、スマート家電など)の動作機能(電源を切る、ページ上送り、ナビゲーションなど)の動作指令であり得る。
例として図3Aを見ると、アバターの左右の手は、ステレオ・カメラ115の画像データ及びIMU121の各動作に基づく、操作部B1及びB2の動作感知データにしたがって、移動又は回転できる。例として図3Bを見ると、アバターの左右の手は、ステレオ・カメラ115の画像データに基づく操作部B3及びB4それぞれの動作感知データにしたがって、移動又は回転できる。さらに、アバターの左右の足首は、IMU123の動作に基づく操作部B5及びB6それぞれの動作感知データにしたがって、移動又は回転できる。したがって、2つの動作の追跡方式(画像感知及び動作感知)を、同時に実施できる。
2つ以上のコマンドが事象をトリガするために使用され得ることに留意すべきである。例えば、左手の波の動作は、5つのコマンドに対応して、それぞれVRモードで順番に仮想環境から5つの仮想物体を取り除くことができる、2つのコマンドに対応して、ARモードで同時に2つの実物を制御できる(例えば、実物のテレビの電源を入れ、実物のコンピュータの電源を切る)、又は一連のコマンドに対応する(例えば、実物の録画機の電源を入れ、10秒待って、実物の録画機の電源を切る)ことができる。
別の実施形態では、事象は、プロセッサ150によって実行されるアプリケーション又はオペレーティング・システムの設定、中断、及び/又は操作を制御する1つ又は複数のコマンドに関連する。例えば、事象は、シナリオの変更、動作モードの変更、ゲームからの退出、ゲームの停止、ヒューマン・コンピュータ・インタラクション・システム100の切断などであり得る。しかし、事象は、実際の要求に基づいたその他の用途に適合され、本開示は、それに制限されない。
要約すると、上述の例示的な実施形態は、ユーザーのヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法を示している。様々な人体部分の動作は、画像センサの画像及び/又は動作センサのデータそれぞれに基づいて追跡される。事象は、同時に2つの動作の追跡方式の動作感知データに基づいてトリガされ得る。したがって、ユーザーは、ユーザーの所望又は習慣に基づいてセンサを埋め込まれたコントローラを選択して、1つ又は複数の身体部に対応するコントローラを用いて操作できる。同時に、ユーザーは、コントローラを用いずにその他の身体部を使って、コマンドを生成できる。
本開示の範囲又は趣旨から逸脱することなく、本開示の構造に様々な変更及び変形がなされ得ることは当業者には明らかであろう。上述を鑑みて、本開示の変更及び変形が、以下の特許請求の範囲及びその等価物の範囲内にある限り、本開示は、本開示の変更及び変形を網羅するものである。
本開示のヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法は、対話型シミュレーションに適用可能である。
100、200、300 ヒューマン・コンピュータ・インタラクション・システム
110 第1のセンサ
115 ステレオ・カメラ
120 第2のセンサ
121、123 IMU
130 メモリ
140 HMD
150 プロセッサ
160 手持ち式コントローラ
180 足首センサ
S210〜S250 工程
B1〜B6 操作部

Claims (11)

  1. 第1の動作感知データはユーザーの第1の操作部に関連し、第1のセンサに基づいて生成される、前記第1の動作感知データの取得と、
    第2の動作感知データは前記第1の操作部とは異なる前記ユーザーの第2の操作部に関連し、第2のセンサに基づいて生成される、前記第2の動作感知データの取得と、
    前記第1の動作感知データ及び前記第2の動作感知データの両方にしたがって、事象をトリガすることと
    を含む、ヒューマン・コンピュータ・インタラクションの方法。
  2. 第1のセンサと、
    第2のセンサと、
    前記第1のセンサから第1の操作部の第1の動作感知データを取得することと、
    前記第1の操作部とは異なる前記第2のセンサから第2の操作部の第2の動作感知データを取得することと、
    前記第1の動作感知データ及び前記第2の動作感知データの両方にしたがって、ユーザーの入力をトリガすることと
    を実施するように構成された、プロセッサと
    を備える、ヒューマン・コンピュータ・インタラクション・システム。
  3. 前記第1のセンサは動作センサであり、前記第2のセンサは画像センサであり、前記第1のセンサは前記ユーザーの前記第1の操作部により作動し、前記第2のセンサは前記ユーザーの前記第2の操作部の画像を取り込む、請求項1に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第1のセンサは動作センサであり、前記第2のセンサは画像センサであり、前記第1のセンサは前記ユーザーの前記第1の操作部により作動し、前記第2のセンサは前記ユーザーの前記第2の操作部の画像を取り込む、請求項2に記載のヒューマン・コンピュータ・インタラクション・システム。
  4. 前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサが前記ユーザーの前記第1の操作部の画像を取り込み、前記第1の画像センサから取り込まれた画像及び前記第1の動作センサから取得されたデータの両方が前記第1の動作感知データとして使用される、請求項1に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサは前記ユーザーの前記第1の操作部の画像を取り込み、前記第1の画像センサから取り込まれた画像及び前記第1の動作センサから取得されたデータの両方が前記第1の動作感知データとして使用される、請求項2に記載のヒューマン・コンピュータ・インタラクション・システム。
  5. 前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、前記第2の画像センサから取り込まれた画像及び前記第2の動作センサから取得されたデータの両方が前記第2の動作感知データとして使用される、請求項4に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、前記第2の画像センサから取り込まれた画像及び前記第2の動作センサから取得されたデータの両方が前記第2の動作感知データとして使用される、請求項4に記載のヒューマン・コンピュータ・インタラクション・システム。
  6. 前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサは前記ユーザーの前記第1の操作部の画像を取り込み、
    前記第1の動作感知データを取得する前記工程が、
    第1の画像分析結果が信頼できるかどうか判定することであって、前記第1の画像分析結果が前記ユーザーの前記第1の操作部の動作に関連し、前記第1の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第1の操作部の前記第1の画像分析結果が信頼できることに応答して、前記第1の動作感知データとして前記第1の画像センサから取り込まれた前記画像を使用し、
    前記ユーザーの前記第1の操作部の前記第1の画像分析結果が信頼できないことに応答して、前記第1の動作感知データとして前記第1の動作センサから取得されたデータを使用することと、を含む、請求項1に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサは前記ユーザーの前記第1の操作部の画像を取り込み、
    前記プロセッサが、
    第1の画像分析結果が信頼できるかどうか判定することであって、前記第1の画像分析結果が前記ユーザーの前記第1の操作部の動作に関連し、前記第1の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第1の操作部の前記第1の画像分析結果が信頼できることに応答して、前記第1の動作感知データとして前記第1の画像センサから取り込まれた前記画像を使用し、
    前記ユーザーの前記第1の操作部の前記第1の画像分析結果が信頼できないことに応答して、前記第1の動作感知データとして前記第1の動作センサから取得されたデータを使用することと
    を実施するように構成される、請求項2に記載のヒューマン・コンピュータ・インタラクション・システム。
  7. 前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記第2の動作感知データを取得する前記工程が、
    第2の画像分析結果が信頼できるかどうか判定することであって、前記第2の画像分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第2の画像分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用し、
    前記ユーザーの前記第2の操作部の前記第2の画像分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用することと、を含む、請求項6に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記プロセッサが、
    第2の画像分析結果が信頼できるかどうか判定することであって、前記第2の画像分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第2の画像分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用し、
    前記ユーザーの前記第2の操作部の前記第2の画像分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用することと
    を実施するように構成される、請求項6に記載のヒューマン・コンピュータ・インタラクション・システム。
  8. 前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記第2の動作感知データを取得する前記工程が、
    第1のデータ分析結果が信頼できるかどうか判定することであって、前記第1のデータ分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第1のデータ分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用し、
    前記ユーザーの前記第2の操作部の前記第1のデータ分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用することと、を含む、請求項6に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記プロセッサが、
    第1のデータ分析結果が信頼できるかどうか判定することであって、前記第1のデータ分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の画像センサから取り込まれた前記画像に基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第1のデータ分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用し、
    前記ユーザーの前記第2の操作部の前記第1のデータ分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用することと
    を実施するように構成される、請求項6に記載のヒューマン・コンピュータ・インタラクション・システム。
  9. 前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサは前記ユーザーの前記第1の操作部の画像を取り込み、
    前記第1の動作感知データを取得する前記工程が、
    第2のデータ分析結果が信頼できるかどうか判定することであって、前記第2のデータ分析結果が前記ユーザーの前記第1の操作部の動作に関連し、前記第1の動作センサから取得されたデータに基づいて判定され、
    前記ユーザーの前記第1の操作部の前記第2のデータ分析結果が信頼できることに応答して、前記第1の動作感知データとして前記第1の動作センサから取得された前記データを使用し、
    前記ユーザーの前記第1の操作部の前記第2のデータ分析結果が信頼できないことに応答して、前記第1の動作感知データとして前記第1の画像センサから取り込まれた前記画像を使用することと、を含む、請求項1に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第1のセンサは第1の動作センサ及び第1の画像センサを備え、前記第1の動作センサは前記ユーザーの前記第1の操作部により作動し、前記第1の画像センサは前記ユーザーの前記第1の操作部の画像を取り込み、
    前記プロセッサが、
    第2のデータ分析結果が信頼できるかどうか判定することであって、前記第2のデータ分析結果が前記ユーザーの前記第1の操作部の動作に関連し、前記第1の動作センサから取得されたデータに基づいて判定され、
    前記ユーザーの前記第1の操作部の前記第2のデータ分析結果が信頼できることに応答して、前記第1の動作感知データとして前記第1の動作センサから取得された前記データを使用し、
    前記ユーザーの前記第1の操作部の前記第2のデータ分析結果が信頼できないことに応答して、前記第1の動作感知データとして前記第1の画像センサから取り込まれた前記画像を使用することと
    を実施するように構成される、請求項2に記載のヒューマン・コンピュータ・インタラクション・システム。
  10. 前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記第2の動作感知データを取得する前記工程が、
    第3のデータ分析結果が信頼できるかどうかを判定することであって、前記第3のデータ分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の動作センサから取得されたデータに基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第3のデータ分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用し、
    前記ユーザーの前記第2の操作部の前記第3のデータ分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用することと、を含む、請求項9に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記第2のセンサは第2の動作センサ及び第2の画像センサを備え、前記第2の動作センサは前記ユーザーの前記第2の操作部により作動し、前記第2の画像センサは前記ユーザーの前記第2の操作部の画像を取り込み、
    前記プロセッサが、
    第3のデータ分析結果が信頼できるかどうかを判定することであって、前記第3のデータ分析結果が前記ユーザーの前記第2の操作部の動作に関連し、前記第2の動作センサから取得されたデータに基づいて判定され、
    前記ユーザーの前記第2の操作部の前記第3のデータ分析結果が信頼できることに応答して、前記第2の動作感知データとして前記第2の動作センサから取得されたデータを使用し、
    前記ユーザーの前記第2の操作部の前記第3のデータ分析結果が信頼できないことに応答して、前記第2の動作感知データとして前記第2の画像センサから取り込まれた前記画像を使用することと
    を実施するように構成される、請求項9に記載のヒューマン・コンピュータ・インタラクション・システム。
  11. 前記事象は、仮想環境の仮想物体又は現実環境の実物を制御する少なくとも1つのコマンドに関連する、請求項1に記載のヒューマン・コンピュータ・インタラクションの方法、
    又は、前記事象が、仮想環境の仮想物体又は現実環境の実物を制御する少なくとも1つのコマンドに関連する、請求項2に記載のヒューマン・コンピュータ・インタラクション・システム。

JP2019221227A 2019-11-05 2019-12-06 ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法 Pending JP2021077311A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/673,987 US11029753B2 (en) 2019-11-05 2019-11-05 Human computer interaction system and human computer interaction method
US16/673,987 2019-11-05

Publications (1)

Publication Number Publication Date
JP2021077311A true JP2021077311A (ja) 2021-05-20

Family

ID=68731852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019221227A Pending JP2021077311A (ja) 2019-11-05 2019-12-06 ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法

Country Status (5)

Country Link
US (1) US11029753B2 (ja)
EP (1) EP3819747A1 (ja)
JP (1) JP2021077311A (ja)
CN (1) CN112783318A (ja)
TW (1) TWI788607B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
US11845001B2 (en) * 2021-01-14 2023-12-19 Htc Corporation Calibration system and method for handheld controller
CN113181619A (zh) * 2021-04-09 2021-07-30 青岛小鸟看看科技有限公司 一种运动训练方法、装置和系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217861A (ja) * 2011-04-11 2012-11-12 Sony Computer Entertainment Inc 温度フィードバックを提供するモーションコントローラ
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
JP2018010665A (ja) * 2017-08-25 2018-01-18 株式会社コロプラ 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP2018206080A (ja) * 2017-06-05 2018-12-27 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019074505A (ja) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. 位置推定方法、装置及びコンピュータプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
KR101302138B1 (ko) * 2009-12-18 2013-08-30 한국전자통신연구원 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
JP2015535378A (ja) * 2012-10-19 2015-12-10 インターフェイズ・コーポレーション 対話型表示システムにおける動き補償
CN106575151A (zh) 2014-06-17 2017-04-19 奥斯特豪特集团有限公司 用于头戴式计算的外部用户接口
KR20160079664A (ko) 2014-12-26 2016-07-06 삼성전자주식회사 웨어러블 기기를 제어하는 디바이스 및 그 제어 방법
CN113017836A (zh) 2015-02-20 2021-06-25 柯惠Lp公司 手术室和手术部位感知
CN104834917A (zh) * 2015-05-20 2015-08-12 北京诺亦腾科技有限公司 一种混合运动捕捉系统及方法
JP6320542B2 (ja) * 2015-05-23 2018-05-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 初期構成を有する複数のセンサを有する可動物体に対する1または複数の外部パラメータを推定する方法、システム、及びプログラム
US10908694B2 (en) 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
US10112111B2 (en) 2016-03-18 2018-10-30 Sony Interactive Entertainment Inc. Spectator view perspectives in VR environments
US10249090B2 (en) 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US10078377B2 (en) 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
JP6601352B2 (ja) 2016-09-15 2019-11-06 株式会社デンソー 車両姿勢推定装置
CN206411612U (zh) * 2016-12-23 2017-08-15 歌尔科技有限公司 一种虚拟现实系统的交互控制装置及虚拟现实设备
US11089975B2 (en) 2017-03-31 2021-08-17 DePuy Synthes Products, Inc. Systems, devices and methods for enhancing operative accuracy using inertial measurement units
CN110476168B (zh) * 2017-04-04 2023-04-18 优森公司 用于手部跟踪的方法和系统
US10996742B2 (en) 2017-10-17 2021-05-04 Logitech Europe S.A. Input device for AR/VR applications
CN110163911B (zh) * 2019-04-10 2022-07-19 电子科技大学 一种图像与惯性结合的头部姿态检测系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012217861A (ja) * 2011-04-11 2012-11-12 Sony Computer Entertainment Inc 温度フィードバックを提供するモーションコントローラ
JP2016540276A (ja) * 2013-09-30 2016-12-22 クゥアルコム・インコーポレイテッドQualcomm Incorporated 既知の、まだ着用されていないセンサの使用によるジェスチャ検出システムの分類
JP2018206080A (ja) * 2017-06-05 2018-12-27 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018010665A (ja) * 2017-08-25 2018-01-18 株式会社コロプラ 仮想空間内オブジェクトへの動作指示方法、及びプログラム
JP2019074505A (ja) * 2017-10-16 2019-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. 位置推定方法、装置及びコンピュータプログラム

Also Published As

Publication number Publication date
TW202119175A (zh) 2021-05-16
TWI788607B (zh) 2023-01-01
US11029753B2 (en) 2021-06-08
CN112783318A (zh) 2021-05-11
US20210132684A1 (en) 2021-05-06
EP3819747A1 (en) 2021-05-12

Similar Documents

Publication Publication Date Title
EP3425481B1 (en) Control device
EP3218781B1 (en) Spatial interaction in augmented reality
US9360944B2 (en) System and method for enhanced gesture-based interaction
JP2021077311A (ja) ヒューマン・コンピュータ・インタラクション・システム及びヒューマン・コンピュータ・インタラクションの方法
WO2014048506A1 (en) Remote control with 3d pointing and gesture recognition capabilities
WO2014140827A2 (en) Systems and methods for proximity sensor and image sensor based gesture detection
CN111045511B (zh) 基于手势的操控方法及终端设备
WO2013008236A1 (en) System and method for computer vision based hand gesture identification
WO2012164562A1 (en) Computer vision based control of a device using machine learning
US10025975B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
KR102021851B1 (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
WO2015001547A1 (en) Aligning gaze and pointing directions
US9864905B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
US20160232404A1 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
US9824293B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
KR20190027726A (ko) 제스쳐를 이용하는 단말 제어 방법
US9761009B2 (en) Motion tracking device control systems and methods
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
CN111522429A (zh) 基于人体姿态的交互方法及装置、计算机设备
EP3813018A1 (en) Virtual object operating system and virtual object operating method
JP2021089693A (ja) 行動ベースの構成方法及び行動ベースの構成システム
US20200089940A1 (en) Human behavior understanding system and method
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
JP2021089692A (ja) 動作感知データ生成方法及び動作感知データ生成システム
CN115562479A (zh) 电子设备的控制方法、电子设备的控制装置和穿戴设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019