JP2023532000A - ユーザインターフェース方法及びシステム - Google Patents

ユーザインターフェース方法及びシステム Download PDF

Info

Publication number
JP2023532000A
JP2023532000A JP2022579855A JP2022579855A JP2023532000A JP 2023532000 A JP2023532000 A JP 2023532000A JP 2022579855 A JP2022579855 A JP 2022579855A JP 2022579855 A JP2022579855 A JP 2022579855A JP 2023532000 A JP2023532000 A JP 2023532000A
Authority
JP
Japan
Prior art keywords
gesture
user
sensor data
parameters
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022579855A
Other languages
English (en)
Inventor
モリン、トマス
ドフランス、セルジュ
ゲルムド、ハサヌ
ルリエーヴル、シルヴァン
Original Assignee
インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ filed Critical インターディジタル・シーイー・パテント・ホールディングス・ソシエテ・パ・アクシオンス・シンプリフィエ
Publication of JP2023532000A publication Critical patent/JP2023532000A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

命令を記憶するように構成されているメモリと、少なくとも1つのハードウェアプロセッサであって、命令を実行して、少なくとも1つのセンサから、ユーザジェスチャに対応するセンサデータを取得することと、センサデータに一致するユーザインターフェースジェスチャを判定することと、判定されたインターフェースジェスチャに対するパラメータを取得することと、判定されたインターフェースジェスチャに対するパラメータを取得すると、センサデータ及び判定されたインターフェースジェスチャに対するパラメータを使用して、ユーザインターフェースにおけるユーザジェスチャを推定することと、を行うように構成されている、少なくとも1つのハードウェアプロセッサと、を含む、ユーザインターフェースデバイス。方法も提供される。【選択図】図3

Description

本開示概して、ユーザインターフェースに関し、特に、ユーザインターフェースにおけるユーザジェスチャの検出に関する。
この節は、以下に説明及び/又は特許請求される本開示の様々な態様に関連し得る様々な技術の態様を読者を紹介することを意図している。この考察は、本開示の様々な態様のより良好な理解を容易にするための背景情報を読者に提供する上で有用であると考えられる。したがって、これらの記述は、この観点から読まれるべきであり、先行技術の承認として読まれるべきではないことを理解されたい。
グラフィカルユーザインターフェース(Graphical User Interface、GUI)は、ユーザがデジタルディスプレイ、例えば、テレビ、モニタ、スマートフォン、タブレット、及びヘッドマウントディスプレイ(Head-Mounted Display、HMD)と対話するための周知の方法である。
ユーザが、例えば、マウス、ジョイスティックを使用して、又は物理的接触によって、直接アクションを通してGUIと対話することが一般的であるが、GUIシステムが、ユーザのジェスチャを検出し、これらを、いくつか名前を挙げると、「起動」、「選択」、及び「移動」などのGUIアクションとして解釈することも可能である。
後者の場合、システムは、片手又は両手などのユーザの身体部分を検出する1つ以上のセンサを必要とする。典型的には、位置及び姿勢の両方が検出され、例えば、手がどこに位置するか、及び手がどのように形作られているか(指が伸ばされているかどうかなど)が検出される。次いで、システムは、身体部分の仮想構造を構築することができ、この仮想構造の座標が、GUI環境との対話を計算するために使用され得る。
現在、手の姿勢及び位置のための最も周知のセンサは、LeapMotionデバイスであり、これは、デスクトップ上に設置されるか、人間の胸部に取り付けられるか、又はHMDなどのデバイスに組み込まれ得る。
ディスプレイ及びセンサを伴うそのようなGUIシステムを使用して、ユーザは、次いで、身体部分を移動させることができ、それは、センサによって検出され、ディスプレイ上にレンダリングされる仮想オブジェクトと対話するように解釈される。
しかしながら、特定の場合、例えば、身体部分がセンサから遠いときに、又は身体部分を完全に検出することができないときに、計算された仮想構造(例えば、骨格)の座標にノイズが導入される。身体部分の振動の結果でもあり得るノイズは、身体部分の誤った解釈を引き起こす可能性があり、例えば、誤った又は物理的に不可能な身体部分座標(例えば、「折れた」指)又は座標の欠如を引き起こす可能性がある。
ユーザが仮想オブジェクト(例えば、ボタン)と対話したい場合、不正確な座標は、対話を妨げることがある。
したがって、身体部分を検出するセンサを有するGUIの欠点のうちの少なくともいくつかに対処する解決策に対する要望が存在することが理解されよう。本原理は、係る解決策を提供する。
第1の態様では、本原理は、プロセッサによって実行可能な命令を記憶するように、かつパラメータを記憶するように構成されているメモリと、少なくとも1つのハードウェアプロセッサであって、命令を実行して、少なくとも1つのセンサから、ユーザジェスチャに対応するセンサデータを取得することと、センサデータに一致するユーザインターフェースジェスチャを判定することと、判定されたインターフェースジェスチャに対するパラメータを取得することと、判定されたインターフェースジェスチャに対するパラメータを取得すると、センサデータ及び判定されたインターフェースジェスチャに対するパラメータを使用して、ユーザインターフェースにおけるユーザジェスチャを推定することと、を行うように構成されている、少なくとも1つのハードウェアプロセッサと、を含む、デバイスを対象とする。
第2の態様では、本原理は、デバイスの少なくとも1つのハードウェアプロセッサにおいて、少なくとも1つのセンサから、ユーザジェスチャに対応するセンサデータを取得することと、センサデータに一致するユーザインターフェースジェスチャを判定することと、判定されたインターフェースジェスチャに対するパラメータを取得することと、判定されたインターフェースジェスチャに対するパラメータを取得すると、センサデータ及び判定されたインターフェースジェスチャに対するパラメータを使用して、ユーザインターフェースにおけるユーザジェスチャを推定することと、を含む、方法を対象とする。
第3の態様では、本原理は、非一時的コンピュータ可読媒体に記憶され、第2の態様のいずれかの実施形態による方法のステップを実装するためにプロセッサによって実行可能なプログラムコード命令を含む、コンピュータプログラム製品を対象としている。
ここで、本原理の特徴を、添付の図面を参照して、非限定的な例として説明する。
本原理の実施形態によるGUIシステムを例示する。 本原理の実施形態によるモデル姿勢を学習するための方法を例示する。 本原理の実施形態による仮想オブジェクト対話のための方法を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。 検出されたノードを使用した例示的なユーザジェスチャの推定を例示する。
以下の説明では、以下の表現が使用される。
・ユーザジェスチャ:ユーザの身体又は身体部分の位置、運動を含む可能性があり、例えば、胴体及び脚を垂直にした状態で水平に保持された腕、「サムズアップ」、人差し指を伸ばした状態で閉じた拳である。
・センサデータ:典型的にはユーザジェスチャを表す、少なくとも1つのセンサによって出力されるデータ(例えば、ノード座標)である。
・GUIジェスチャ:GUIとの(可能な)対話としてGUIによって解釈することができる全ての可能なユーザジェスチャのサブセットである。例えば、サムズアップは、GUIジェスチャではない場合があるが、人差し指を延ばした状態で閉じた拳はそうである。
・デフォルトパラメータ:ユーザジェスチャを解釈するために使用されるGUIジェスチャの「標準」パラメータである。
・学習済みパラメータ:検出されたユーザジェスチャから測定されたGUIジェスチャパラメータ。
図1は、本原理の実施形態によるグラフィカルユーザインターフェース(Graphical User Interface、GUI)100を例示している。GUIシステム100は、処理デバイス110と、ディスプレイ120と、少なくとも1つのセンサ130と、を含む。
処理デバイス110、ディスプレイ120、及び少なくとも1つのセンサ130は、別個の機能的に接続されたデバイスであり得る。例えば、処理デバイス110は、1つ以上のスタンドアロンセンサ130から入力を受信し、ディスプレイ120、例えば、テレビ受像機に出力を提供する、コンピュータ、デコーダ、又はセットトップボックスであり得る。
実施形態では、例えば、別個の処理デバイス110並びに組み合わされたディスプレイ120及び少なくとも1つのセンサ130、又は少なくとも1つの別個のセンサ130に接続された組み合わされた処理デバイス110及びディスプレイ120(例えば、テレビジョンセット内の)など、様々な組み合わせも企図されている。特定の実施形態では、処理デバイス110、ディスプレイ120、及び少なくとも1つのセンサ130は、テレビジョンセット又はヘッドマウントデバイス(HMD)などの単一のデバイスに組み込まれる。少なくとも1つのセンサ130が少なくとも1つの他の部品と同じ場所に位置するときに、システムは、追加の別個のセンサを更に含み得ることを理解されたい。
処理デバイス110は、典型的には、少なくとも1つのユーザインターフェース111と、少なくとも1つのハードウェアプロセッサ(「プロセッサ」)112と、メモリ113と、通信インターフェース114と、を含む。
ユーザインターフェース111は、ユーザからの入力を受信するように構成されている。ユーザインターフェース111は、(物理的又は仮想的な)1つ以上のボタン、又は従来の遠隔制御などのユーザインターフェースユニットからの信号の受信機を含むことができる。
プロセッサ112は、本原理による方法を実施するためのプログラムコード命令を実行するように構成されている。
少なくとも部分的に非一時的であり得るメモリ113は、プロセッサ112によって実行されるべきプログラムコード命令、パラメータ、画像データ、中間結果などを記憶するように構成されている。
通信インターフェース114は、例えば、ディスプレイ120上に表示するためのコンテンツ及び他の情報を受信するために、外部デバイスと通信するように構成されている。通信インターフェースは、任意の好適な技術、有線若しくは無線、又はその2つの組み合わせを実装することができる。
ディスプレイ120は、当該技術分野で既知であるように、処理デバイスによって提供される画像をそのスクリーン上に表示するように構成されている。
少なくとも1つのセンサ130は、ユーザジェスチャを検出し、センサデータを処理デバイス110に提供するように構成されている。言及されたように、少なくとも1つのセンサは、ディスプレイ120から分離することができるが、例えば、そのスタンド、そのフレーム、又は更にはそのスクリーンの内部など、その1つ以上の部品に一体化され得る。
少なくとも1つのセンサ130は、例えば、リープモーション(Leap Motion)技術に基づき得る。一実施形態では、少なくとも1つのセンサ130は、ディスプレイ120の前のユーザジェスチャを検出するように構成されている。複数のセンサが必要とされ得ることに留意されたい。
非一時的記憶媒体140は、少なくとも1つのプロセッサによって実行されるときに、図2及び図3を参照して説明された方法などの本原理の少なくとも1つの方法を実行するコンピュータ可読命令を記憶する。
この説明の大部分で使用される非限定的な例では、身体部分は、手であるが、説明されるように、本原理は、他の身体部分に容易に拡張される。
理解されるように、身体部分の仮想構造は、概して、例えば関節又は端点に対応するノードから構成される。ノードは、座標安定性及び/又は信頼性に関してランク付けされ得る。例えば、手のひらの位置は、典型的には、指先の位置よりも安定かつ正確である。これにより、指先の座標がノイズの影響を受けて信頼できない場合に、手のひらの位置に基づいて指先の位置を推定することが可能になる。推定の精度は、システムが、現在のユーザジェスチャに対応する学習済みパラメータを以前に、好ましくはノイズの影響が少ないか、又はノイズなしで学習した場合に増加され得る。
一例として、GUI環境は、ユーザが、典型的には人差し指の先端を使用して対話することができるボタンを提案することができる。手がセンサの近くにあるときに、姿勢、特に、例えば、手のひら又は人差し指の近位指節間関節のノードに対する指先のノードの位置が学習され得る。後の時点で、手が(仮想)ボタンに近づくと、システムは、指先のノードの座標が信頼できるかどうかを検証することができる。信頼性検証は、例えば、センサからの事前定義された距離閾値に基づくか、又はハンドノード座標上のノイズ分析に基づくことができる。座標(したがって、指先の位置)が信頼できないとみなされる場合、システムは、検出された指先位置を、対応するGUIジェスチャに対する学習済みパラメータから外挿された指先位置、及び一般に、より正確に検出された(例えば、手のひら又は人差し指の近位指節間関節に対応する)ノードの検出された位置によって置き換えることができる。
先の例では、多数の任意の選択がなされたことに留意されたい。例えば、手のひら又は近位指節間座標は、安定していると考えられ、ユーザは、伸ばした人差し指の先端と、固有の向きを有する手のひらとのみ対話する。しかしながら、これらの仮定に基づく既存のUIシステムが存在すると理解されたい。
また、本原理は、例えば、以下のうちの1つ以上を有するより複雑なモデルをカバーするように容易に拡張されることに留意されたい。
-GUIを制御することができる複数の身体部分、
-身体部分の自由な向き、
-例えば、オブジェクトが向きに応じて異なって対話され得ることを意味する、仮想オブジェクトの自由な向き、
-仮想オブジェクトとの相互作用のための、単一の身体部分であっても複数の姿勢、
-安定していると考えられるノードがコンテキストに依存し得ることを意味する、安定しているノードの動的管理。
本原理は、2つの主要な部分、すなわち、学習済みパラメータを取得するために検出されたユーザジェスチャからパラメータを取得するための部分と、信頼できない検出センサデータが置き換え又は訂正されるGUIオブジェクト操作のための部分と、に依拠することができる。
GUIシステムは、いくつかのGUIジェスチャ、例えば、開いた手、閉じた手、及び人差し指だけ伸ばした状態での閉じた手を使用することができる。更に、対話型GUIオブジェクトは、異なるユーザジェスチャを使用して対話され得る。ボタンは、例えば、人差し指又は開いた手の手のひらを使用して作動させることができる。
学習パラメータ
最初に、少なくとも大抵の場合に正しく検出される傾向がある、ユーザジェスチャに対するパラメータは、学習される必要がない場合があることに留意されたい。そのようなジェスチャの一例は、指を合わせた開いた手である。
透過的学習が好ましい可能性があるが、GUIシステムは、ユーザが学習されるジェスチャを行うように要求される較正手順を提案することもできることにも留意されたい。
透過的学習を使用して、パラメータは、以下の状況のいずれか又は両方を通して学習され得る。
GUIシステムは、システムがキャプチャされたセンサデータの精度において高い信頼性を有する位置におけるユーザ姿勢を検出する。例:ユーザの手が、その手がセンサに比較的近いときにボタンと対話する。次いで、GUIシステムは、ユーザがボタンと対話するために選択したユーザジェスチャのパラメータを学習することができる。次いで、GUIシステムは、センサから比較的より遠く離れたボタン(又は同様のオブジェクト)と対話するときに、ユーザが同じユーザジェスチャを使用すると推定することができる。ある意味では、GUIシステムは、このようにして新しいGUIジェスチャを学習する。
GUIシステムはまた、GUIシステム、特にオブジェクト(例えばボタン)との対話のための既存のGUIジェスチャに対する特定のパラメータを学習することができる。学習は、更に説明されるように、ユーザ固有のセンサデータを取得することと、これらのデータを使用して、GUIジェスチャに対する学習済みパラメータを取得することと、を含む。例:GUIシステムは、伸ばされた人差し指によるタッチボタンとの対話のみを可能にし、その場合、学習は、新しいGUIジェスチャパラメータを提供するために、又は既存の学習済みパラメータを精緻化するために、特定の手ノード間の距離及び角度を測定することを含むことができる。
図2は、本原理の実施形態によるパラメータを学習するための方法200を例示する。方法は、センサ(図1の130)からの入力を使用して処理デバイス(図1の110)のプロセッサ(図1の112)によって実行され得るが、入力は複数のセンサによって提供され得ることが理解されるであろう。
説明された方法では、方法は、肯定的な判定の場合に、次のステップに進む。そうでない場合、方法は、第1のステップに戻る。
ステップS210では、少なくとも1つのユーザジェスチャがセンサによって検出されたかどうかが判定される。
ステップS220では、例えば、ユーザジェスチャがGUIジェスチャに対応するかどうかを判定することによって(例えば、類似性スコアを使用して)、ユーザジェスチャがGUIを制御するために使用され得るかどうかが判定される。既に説明されたように、ユーザがGUIオブジェクトと対話することを判定することも可能である。
ステップS230では、ユーザジェスチャの取得されたセンサデータ(例えば、ノード座標)が正確であると評価されるかどうかが判定される。これは、例えば、センサからの距離(例えば、ジェスチャが、近すぎず、遠すぎないなど、検出が典型的には正確である体積内で検出されるかどうか)と、例えば、既知のような座標ノイズレベルに基づく身体部分座標安定性検出との一方又は両方に基づいて行われ得る。
ステップS240では、ユーザジェスチャがGUIジェスチャに対応するかどうか、並びにユーザジェスチャが測定されるように正しく向いている、及び/又は位置決めされているかどうかが判定される。
ステップS250では、センサデータは、当該技術分野において周知であるように、GUIジェスチャに対するパラメータ(例えば、相対ノード座標)に変換される。
ステップS260では、取得されたパラメータがGUIジェスチャのために考慮されるべきかどうかが判定される。これは、例えば、GUIジェスチャが関連付けられたデフォルトパラメータ又は学習済みパラメータを有さない場合、取得されたパラメータがGUIジェスチャに対する現在学習済みパラメータよりも良好である(すなわち、より信頼性があり、例えば、センサがより正確である場所でユーザジェスチャが検出された場合であり得る)場合、又は判定された姿勢パターンパラメータが現在学習済みパラメータを強化する(すなわち、改善する)ために使用され得る場合になされ得るが、これを判定する1つ又は複数の条件は、実装態様に依存する可能性がある。
ステップS270では、取得されたパラメータが、(場合に応じて、デフォルト又は学習済みパラメータとして)記憶されるか、又は学習済みパラメータを強化するために使用される。
GUIシステムは、複数のユーザを有し得ることに留意されたい。この場合、どのユーザが現在システムと対話しているかを判定する必要があり得る。これは、例えば、現在のユーザの身体の特定の態様、例えば手のひらノードと肘ノードとの間の距離を測定することによって行われ得る。少なくとも大体同じサイズの2人のユーザを区別する必要はない場合があることに留意されたい。更に、GUIシステムは、特定の場合、例えば、GUIジェスチャが人差し指を伸ばした状態で閉じた拳であり、ユーザが何らかの理由で(例えば、人差し指を有していない)代わりに中指を使用する場合、別個の学習済みパラメータを提供することができる。
GUIシステムは、例えば左手及び右手の使用に対応するミラーリングされたGUIジェスチャを含むことができることにも留意されたい。
学習済みパラメータは、例えば、以下を含むことができる。
-既に説明されたように、ユーザ識別子、例えば、1つ以上の身体測定値、
-姿勢パターン類似性スコア、すなわちどのGUIジェスチャが最も似ているか?
-(調整された)GUIジェスチャがアタッチされる1つ以上のノード、例えば、手のノードが手首のノードにアタッチされ得る、
-GUIジェスチャの向き。
仮想オブジェクト対話
本原理によれば、対話型オブジェクトは、身体部分がオブジェクトに接近するときを検出するために(例えば、ユーザジェスチャを検出するために)周囲体積に関連付けられ得る。接近する身体部分の検出は、(場合によっては現実世界における)GUIにおける対話型オブジェクトに接近する身体部分の検出、又はGUI仮想環境における対話型オブジェクトに接近する対応する仮想構造の検出によるものとすることができる。
更に、対話型オブジェクトは、1つ以上の互換性のあるGUIジェスチャ、すなわち、ユーザが対話型オブジェクトと対話するために使用することができるジェスチャに関連付けられ得る。
図3は、本原理の実施形態による仮想オブジェクト対話のための方法300を例示する。図2に例示される方法に関して、この方法は、センサ(図1の130)からの入力を使用して処理デバイス(図1の110)のプロセッサ(図1の112)によって実行され得るが、入力は複数のセンサによって提供され得ることが理解されるであろう。
図2を参照して説明されたように、例示されていないが、図3に例示される方法は、現在のユーザの検出を含み得る。そのような検出は、例えば、ステップS302において若しくはその後に、又はステップS308の後に、方法の実行中の実用的に任意の時間に発生し得る。
ステップS302では、身体部分がGUI対話型オブジェクトに接近しているかどうかが判定される。これは、身体部分がオブジェクトに関連付けられたボリューム内に位置しているかどうかを検出することによって行われ得る。ステップS302は、身体部分がオブジェクトに近づくまで繰り返され、接近すると、方法はステップS304に進む。言い換えれば、ステップS302では、ユーザジェスチャが検出され得る。
ステップS304では、(身体部分によって接近される)オブジェクトとの対話に適合するユーザジェスチャが判定される。
ステップS306では、ユーザジェスチャに対応するセンサデータが取得される。
ステップS308では、既に説明されたように、センサデータが信頼できるかどうか、すなわち正確であるかどうかが判定される。
センサデータは、ノイズの影響が少ない場合に信頼性が高いと言える。これは、例えば、センサが、その読み取り値が信頼できる(近すぎず、遠すぎないなど)と判定された場所でジェスチャを検出するかどうかを判定することによって、又は、既知であるように、ノイズ分析アルゴリズムを使用することによって判定され得る。
センサデータが信頼できると判定される場合、方法は、ステップS310に進み、センサデータがGUIシステムによって使用される。使用は、例えば、オブジェクトとの対話及びディスプレイ上のユーザジェスチャのレンダリングを判定することであり得る。次いで、本方法は終了するか、又はステップS302に戻ることができる。
センサデータが信頼できないと判定される場合、方法は、ステップS312に続き、(場合によっては、対応するパラメータを取得するために処理された)センサデータがGUIジェスチャと比較されて、センサデータに最良に一致するものが見つけられる。これは、例えば、ノード距離及び角度を比較する方法などの任意の好適な従来の方法を使用して取得された類似性スコアを使用して行われ得る。
比較は、以前に取得されたパラメータも使用して、時間的側面を含むことができる。例えば、特定のジェスチャが所与の時間から現在(センサデータがもはや信頼できない)まで確実に検出された場合、これは、以前に検出されたジェスチャが現在のジェスチャに対応するという指示として使用され得る。一例として、ボタンを押すこと、又は別のオブジェクトと対話することを望むユーザは、ボタンに向かって移動する前(又は移動するとき)に適切なユーザジェスチャを採用し、ボタンがクリックされるまでジェスチャを維持し得る。
ステップS314では、「一致する」GUIジェスチャについて(場合によっては、現在のユーザについて)学習済みパラメータがあるかどうかが判定される。
そのような学習済みパラメータが存在する場合、ステップS316では、これらの学習済みパラメータが(例えば、メモリから)取得され、ステップS322では、センサデータの信頼できる部分と共に使用されて、ユーザジェスチャを推定し、GUIシステムとのその対話を判定する。そのような対話は、GUIオブジェクトとの対話、GUIシステムにおけるユーザジェスチャの表現、又はその両方とすることができる。
既に説明されたように、センサデータの一部は信頼できるが、他の部分は信頼できない。例えば、手のひらノードの座標は信頼できるモノであり得るが、人差し指の先端の座標は信頼できない。これは、例えば、既に言及されたように、ノイズ分析を使用してセンサデータから判定され得るが、事前判定され得る(例えば、手のひら座標が信頼できると仮定される)。次いで、GUIシステムは、センサデータ及び学習済みパラメータからの手のひら座標を使用して、人差し指の先端の座標を外挿することができる。
しかしながら、そのような学習済みパラメータが存在しない場合、ステップS318では、「一致する」GUIジェスチャについてデフォルトパラメータが存在するかどうかが判定される。実際に、GUIシステムが学習済みパラメータのみを使用することが可能である。
デフォルトパラメータが存在しない場合、ステップ318において、センサデータは、既に説明されたように、GUIシステムによって使用される。
しかしながら、デフォルトパラメータが存在する場合、ステップS320では、デフォルトパラメータが(例えば、メモリから)取得され、既に説明されたように、ステップS322において使用される。
一実施形態では、GUIシステムは、学習済みパラメータが使用されるときに、GUIフィードバック(例えば、視覚又は音声フィードバック)を提供する。一例として、学習済みパラメータがユーザの手のジェスチャを解釈するために使用されるときに、GUIは、手を特定の色でレンダリングすることができる。
信頼性及び類似性スコア
GUIシステムは、ハンドジェスチャの信頼性及び類似性スコアを使用することができるが、より大きいジェスチャを使用してより容易に例示される。
図4Aは、検出されたノードでオーバーレイされた例示的なユーザジェスチャを例示する。図では、塗りつぶされたノード(斜線でハッチングされている)は、ジェスチャによって定義されるノードであるが、白いノードは、ジェスチャの一部ではなく検出される。図4Bは、ジェスチャのノード図、すなわち、ノードの相対座標を例示する。
図4Cは、検出されたユーザジェスチャのセンサデータを例示する。見て分かるように、検出されたノードは、図4Bに例示されるジェスチャのノードと正確に一致しない。
図4Dは、検出されたノード及びそれらの信頼性スコアを例示する。スコアは、以下のうちの1つ以上をパラメータとしてとり得る関数を使用して判定され得る。すなわち、ユーザまでの距離、座標ノイズ、周囲照明レベル、ジェスチャ速度、ユーザからのオブジェクトの掩蔽度など。
図4Dでは、ノードは、信頼性スコアに対応する異なるマーキングに関連付けられており、正方形パターンは信頼性が高い(例えば、>85%)ことを示し、斜線ハッチングは信頼性が低い(例えば、45~85%)ことを示し、小円は信頼できない(<45%)ことを示す。個々のスコアは、必ずしもそれらの全てではないが、全体スコアを得るために処理され得る。一実施形態では、個々のスコアのうちの1つ以上は、全体スコアの計算において重み付けされ得る。この例では、例えば、総合スコアが、照明条件、ジェスチャ速度などのコンテキストに依存し得る所与の値を下回る場合、全体スコアは、センサデータが信頼できないことを示すと仮定される。
図4Eは、検出されたノードと記憶されたジェスチャノードとの間の比較を示す。この例では、図4Bのノードが、対応する検出されたノード(すなわち、全ての検出されたノードのサブセット)と比較され、例えば従来の方法を使用して、類似性スコアが判定される。類似性スコアを判定するために使用される関数は、記憶されたジェスチャ間で異なり得る。次いで、類似性スコアを使用して、一致するGUIジェスチャを判定することができる。
一実施形態では、センサデータのノードとパラメータのノードとの間の角度及び距離の差が同じ(マージン内)である場合、これは一致として解釈することができる。いくつかの一致の場合、最良の一致を選択することができる。
別の実施形態では、時間的ジェスチャ分析が類似性スコアに寄与することができる。この例では、ユーザの腕が下から上へまっすぐに上げられる場合、これは類似性スコアを増加させることができる。
図4Fは、推定されたジェスチャを取得するために、測定されたノードが記憶されたパラメータとどのように組み合わされたかを例示する。
例示的な実験的GUIシステムは、ユーザがスクリーンからある距離で作動される「タッチ」によって対話することができる大型スクリーンと、例えばスクリーンスタンド内に位置するLeapMotionセンサと、を含む。言い換えれば、ユーザの手のジェスチャは、それらがスクリーンに接近するときに解釈される。
実験は、手がセンサよりも高い位置にあるときに行われる手のジェスチャを補正する必要があることを示した。なぜなら、これは指座標にあまりに多くのノイズをもたらすからである。
実験的システムの第1の実装態様では、人差し指の先端のみがGUIを制御することを可能にする。手の向きは、指先の下に位置する最も近いピクセル又はピクセルのグループとの対話が行われるので無視される。
これに関連して、人差し指中手骨の頂部のキャプチャされた座標は、人差し指末節骨の先端(すなわち指先)の座標よりもはるかに安定していることが示されている。
これらの2つの空間ノードは、人差し指末節骨ノードの投影座標である(x,y)、及び人差し指中手骨ノードの投影座標である(x,y)を提供するために、スクリーンの平面上に投影することができる。
次に、パラメータを学習することは、(x,y)=f(x,y)を満たす関数fを計算することによって行うことができる。これを行う方法は、周知である。
パラメータが学習されると、指標中手骨ノードの座標及びパラメータは、指標末節骨ノードの座標を推定するために使用されることができる。なぜなら、これらの座標は、実際には常に、指先の座標よりも安定しているからである。
実験的GUIシステムは、クリック、ドラッグ、スクロールなどのために、スクリーンから人差し指の先端までの距離を管理することもできる。これは、(z)=g(z)を満足する関数gを見つけることによって、z次元においてほぼ同じ方法で行うことができる。
f及びgが既知になると(すなわち、学習済みパラメータが取得されると)、GUIシステムは、常に(x,y,z)の代わりに(x,y,z)を使用することができ、実験的システムにおけるスクリーンの表面全体にわたってより良好な座標精度を与えることが示されている。
本原理は、従来の遠隔制御、ジェスチャ検出システム、又はその両方と並行して使用され得ることが理解されるであろう。例えば、GUIシステムは、ユーザがディスプレイから特定の距離内にいるときに本原理を使用し、ユーザが更に離れているときにジェスチャ検出を使用するように構成され得る。距離は、製造中に又はユーザによって構成され得る。
したがって、本原理を使用して、検出されたユーザジェスチャに対してより高い精度を提供することができるGUIシステムを提供することができることが理解されよう。
図に示される要素は、様々な形態のハードウェア、ソフトウェア、又はそれらの組み合わせで実装され得ることを理解されたい。好ましくは、これらの要素は、1つ以上の適切にプログラムされた汎用デバイス上のハードウェア及びソフトウェアの組み合わせで実装され、プロセッサ、メモリ、及び入力/出力インターフェースを含み得る。
本説明は、本開示の原理を例示している。したがって、当業者は、本明細書に明示的に説明又は示されていないが、本開示の原理を具現化し、その範囲内に含まれる様々な構成を考案することができることが理解されよう。
本明細書に列挙される全ての例及び条件付き言語は、本開示の原理及び当該技術分野を促進するために発明者によって寄与される概念を読者が理解するのを助ける教育目的を意図しており、係る具体的に列挙された例及び条件に限定されるものではないものとして解釈されるべきである。
更に、本開示の原理、態様、及び実施形態を列挙する本明細書における全ての記述、並びにその特定の例は、その構造的等価物及び機能的等価物の両方を包含することが意図される。加えて、係る等価物は、現在既知である等価物、並びに将来開発される等価物、すなわち、構造を問わず、同じ機能を実施する、開発される任意の要素の両方を含むことが意図される。
したがって、例えば、本明細書に提示されるブロック図は、本開示の原理を具現化する例示的な回路の概念図を表すことが当業者には理解されよう。同様に、任意のフローチャート、フロー図などは、コンピュータ可読媒体で実質的に表され、係るコンピュータ又はプロセッサが明示的に示されているかどうかにかかわらず、コンピュータ又はプロセッサによって実行され得る様々なプロセスを表すことが理解されよう。
図に示される様々な要素の機能は、専用のハードウェア、並びに適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアの使用を通じて提供され得る。プロセッサによって提供される場合、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又は複数の個々のプロセッサによって提供され得、そのいくつかは、共有され得る。更に、「プロセッサ」又は「コントローラ」という用語の明示的な使用は、ソフトウェアを実行することができるハードウェアを排他的に指すと解釈されるべきではなく、デジタル信号プロセッサ(digital signal processor、DSP)ハードウェア、ソフトウェアを記憶するための読み取り専用メモリ(read only memory、ROM)、ランダムアクセスメモリ(random access memory、RAM)、及び不揮発性記憶装置を暗黙的に含み得るが、これらに限定されない。
従来の及び/又はカスタムの他のハードウェアも含まれ得る。同様に、図に示されるいずれのスイッチも、概念的なものに過ぎない。それらの機能は、プログラム論理の動作を通じて、専用論理の動作を通じて、プログラム制御及び専用論理との対話を通じて、又は手動でさえ実行され得、特定の技術は、その文脈からより具体的に理解されるように、実装者によって選択可能である。
本明細書の特許請求の範囲において、特定の機能を実施するための手段として表される任意の要素は、例えば、a)その機能を実施する回路要素の組み合わせ、又はb)その機能を実施するためにそのソフトウェアを実行するための適切な回路と組み合わされた、ファームウェア、マイクロコードなどを含む任意の形態のソフトウェアを含む、その機能を実施する任意の方法を包含することが意図される。係る特許請求の範囲によって定義される本開示は、様々な列挙される手段によって提供される機能性が、特許請求の範囲が要求する様式で組み合わされ、まとめられるという事実に存する。したがって、それらの機能性を提供することができるいずれの手段も、本明細書に示されるものと同等であるとみなされる。

Claims (15)

  1. デバイスであって、
    プロセッサによって実行可能な命令を記憶するように、かつパラメータを記憶するように構成されているメモリと、
    少なくとも1つのハードウェアプロセッサであって、前記命令を実行して、
    少なくとも1つのセンサから、ユーザジェスチャに対応するセンサデータを取得することと、
    前記センサデータに一致するユーザインターフェースジェスチャを判定することと、
    前記判定されたインターフェースジェスチャに対するパラメータを取得することと、
    前記判定されたインターフェースジェスチャに対する前記パラメータを取得すると、前記センサデータ及び前記判定されたインターフェースジェスチャに対する前記パラメータを使用して、ユーザインターフェースにおける前記ユーザジェスチャを推定することと、を行うように構成されている、少なくとも1つのハードウェアプロセッサと、を備える、デバイス。
  2. 前記センサデータに一致するユーザインターフェースジェスチャを判定することが、前記センサデータに対して最も高い類似性スコアを有する前記ユーザインターフェースジェスチャを判定することを含む、請求項1に記載のデバイス。
  3. 前記判定されたインターフェースジェスチャに対するパラメータを取得することが、
    現在のユーザから学習された前記判定されたインターフェースジェスチャに対するパラメータを取得することを含む、請求項1に記載のデバイス。
  4. 前記判定されたインターフェースジェスチャに対するパラメータを取得することが、前記現在のユーザから学習された前記判定されたインターフェースジェスチャに対するパラメータが取得されない場合、
    前記判定されたインターフェースジェスチャに対するデフォルトパラメータを取得することを更に含む、請求項3に記載のデバイス。
  5. 前記判定されたインターフェースジェスチャに対するデフォルトパラメータが取得されない場合、前記ユーザインターフェースにおいて前記センサデータを使用することを更に含む、請求項4に記載のデバイス。
  6. 前記ユーザインターフェースにおける前記ユーザジェスチャを推定することが、信頼できないセンサデータを、前記パラメータに基づくデータで置き換えることを含む、請求項1に記載のデバイス。
  7. 前記パラメータに基づく前記データが、信頼できるセンサデータから更に取得される、請求項6に記載のデバイス。
  8. 前記センサデータが、前記インターフェースジェスチャのノード座標及びパラメータ相対ノード座標を含み、前記信頼できるセンサデータが、少なくとも1つのノードに対する信頼できる座標を含み、前記パラメータに基づく前記データが、相対ノード座標を、前記少なくとも1つのノードに対する前記信頼できる座標に加算することによって取得される、請求項7に記載のデバイス。
  9. 前記推定されたユーザジェスチャが、前記ユーザインターフェースにおいて使用されて、前記ユーザインターフェースにおけるオブジェクトとの対話を判定すること、及び前記ユーザインターフェースにおける前記ユーザジェスチャのレンダリングのうちの少なくとも1つを行う、請求項1に記載のデバイス。
  10. 前記少なくとも1つのハードウェアプロセッサは、全ての前記センサデータが信頼できるかどうかを判定し、全ての前記センサデータが信頼できるわけではないと判定すると、前記センサデータに一致するユーザインターフェースジェスチャを判定するように構成されている、請求項1に記載のデバイス。
  11. デバイスの少なくとも1つのハードウェアプロセッサにおいて、
    少なくとも1つのセンサから、ユーザジェスチャに対応するセンサデータを取得することと、
    前記センサデータに一致するユーザインターフェースジェスチャを判定することと、
    前記判定されたインターフェースジェスチャに対するパラメータを取得することと、
    前記判定されたインターフェースジェスチャに対する前記パラメータを取得すると、前記センサデータ及び前記判定されたインターフェースジェスチャに対する前記パラメータを使用して、ユーザインターフェースにおける前記ユーザジェスチャを推定することと、を含む、方法。
  12. 前記センサデータに一致するユーザインターフェースジェスチャを判定することが、前記センサデータに対して最も高い類似性スコアを有する前記ユーザインターフェースジェスチャを判定することを含む、請求項11に記載の方法。
  13. 前記判定されたインターフェースジェスチャに対するパラメータを取得することが、現在のユーザから学習された前記判定されたインターフェースジェスチャに対するパラメータを取得することを含む、請求項11に記載の方法。
  14. 前記ユーザインターフェースにおける前記ユーザジェスチャを推定することが、信頼できないセンサデータを、前記パラメータに基づくデータで置き換えることを含む、請求項11に記載の方法。
  15. 命令を記憶する非一時的コンピュータ可読記憶媒体であって、前記命令が、実行されるときに、少なくとも1つのハードウェアプロセッサに、請求項11~14のいずれか一項に記載の方法を実行させる、非一時的コンピュータ可読記憶媒体。
JP2022579855A 2020-06-26 2021-06-22 ユーザインターフェース方法及びシステム Pending JP2023532000A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20305710.4 2020-06-26
EP20305710 2020-06-26
PCT/EP2021/066963 WO2021259916A1 (en) 2020-06-26 2021-06-22 User interface method and system

Publications (1)

Publication Number Publication Date
JP2023532000A true JP2023532000A (ja) 2023-07-26

Family

ID=71614819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022579855A Pending JP2023532000A (ja) 2020-06-26 2021-06-22 ユーザインターフェース方法及びシステム

Country Status (6)

Country Link
US (1) US20230168746A1 (ja)
EP (1) EP4172727A1 (ja)
JP (1) JP2023532000A (ja)
KR (1) KR20230025807A (ja)
CN (1) CN115836270A (ja)
WO (1) WO2021259916A1 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4311190B2 (ja) * 2003-12-17 2009-08-12 株式会社デンソー 車載機器用インターフェース
US8145594B2 (en) * 2009-05-29 2012-03-27 Microsoft Corporation Localized gesture aggregation
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
CN106030610B (zh) * 2014-01-05 2019-09-20 马诺手势股份公司 移动设备的实时3d姿势识别和跟踪系统
US10649536B2 (en) * 2015-11-24 2020-05-12 Intel Corporation Determination of hand dimensions for hand and gesture recognition with a computing interface
US20170193289A1 (en) * 2015-12-31 2017-07-06 Microsoft Technology Licensing, Llc Transform lightweight skeleton and using inverse kinematics to produce articulate skeleton

Also Published As

Publication number Publication date
US20230168746A1 (en) 2023-06-01
KR20230025807A (ko) 2023-02-23
EP4172727A1 (en) 2023-05-03
CN115836270A (zh) 2023-03-21
WO2021259916A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
US11003253B2 (en) Gesture control of gaming applications
US10511778B2 (en) Method and apparatus for push interaction
KR102517425B1 (ko) 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
US8593402B2 (en) Spatial-input-based cursor projection systems and methods
US9128526B2 (en) Operation control device, operation control method, and computer-readable recording medium for distinguishing an intended motion for gesture control
WO2018000519A1 (zh) 一种基于投影的用户交互图标的交互控制方法及系统
JP6349800B2 (ja) ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP2004078977A (ja) インターフェイス装置
WO2018079382A1 (ja) 情報処理装置、制御方法、プログラム、及び記憶媒体
CN110520822B (zh) 控制装置、信息处理系统、控制方法和程序
TWI788607B (zh) 人機交互系統和人機交互方法
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
CN106598422B (zh) 混合操控方法及操控系统和电子设备
CN111103981A (zh) 控制指令生成方法及装置
JP2023532000A (ja) ユーザインターフェース方法及びシステム
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
JP2013109538A (ja) 入力方法及び入力装置
KR20110033318A (ko) 영상인식을 이용한 가상마우스 시스템
US20230061557A1 (en) Electronic device and program
JP6559017B2 (ja) 制御装置及び制御方法
Pullan et al. High Resolution Touch Screen Module
JP2021189659A (ja) 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム
KR20220109570A (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 방법
KR20140097907A (ko) 카메라 기반 명령 입력 장치 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230124

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230421