JP2014501413A - ジェスチャ認識のためのユーザ・インタフェース、装置および方法 - Google Patents

ジェスチャ認識のためのユーザ・インタフェース、装置および方法 Download PDF

Info

Publication number
JP2014501413A
JP2014501413A JP2013546543A JP2013546543A JP2014501413A JP 2014501413 A JP2014501413 A JP 2014501413A JP 2013546543 A JP2013546543 A JP 2013546543A JP 2013546543 A JP2013546543 A JP 2013546543A JP 2014501413 A JP2014501413 A JP 2014501413A
Authority
JP
Japan
Prior art keywords
gesture
sub
user interface
user
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013546543A
Other languages
English (en)
Other versions
JP5885309B2 (ja
JP2014501413A5 (ja
Inventor
ジヨウ,ウエイ
シユイ,ジユン
マー,シヤオジユン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2014501413A publication Critical patent/JP2014501413A/ja
Publication of JP2014501413A5 publication Critical patent/JP2014501413A5/ja
Application granted granted Critical
Publication of JP5885309B2 publication Critical patent/JP5885309B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

ジェスチャ認識のためのユーザ・インタフェース、装置、および方法は、以前にユーザによって実行された1つ以上のサブジェスチャに基づいてこの装置に対する1つ以上の可能なコマンドを予測し、この1つ以上の可能なコマンドを示すことを含む。
【選択図】図1

Description

本発明は、一般的には、ジェスチャ認識に関し、より具体的には、電子システムにおけるジェスチャ認識のためのユーザ・インタフェース、装置、および方法に関する。
コンピュータを用いて成し遂げることができるアクティビティの範囲の広がりに伴い、ユーザとマシンとの間のインタフェースを提供する新たな革新的な方法がしばしば開発され、より自然なユーザ体験を提供している。例えば、タッチ感応スクリーンは、マウスおよび/またはキーボード無しでユーザがコンピュータに入力を提供できるようにし、その結果、コンピュータの操作に机での領域が必要とはならないようにする。また、ジェスチャ認識は、サイン言語認識、多様な人間とコンピュータとのインタラクション、仮想現実、および、ロボット制御において、それを潜在的に使用できる可能性があるため、より多くの注目を集めるようになっている。
ジェスチャ認識は、コンピュータの世界において、急速に発達している領域であり、装置がユーザの特定のハンド・ジェスチャを認識できるようにして、そのジェスチャに基づいて装置の特定の機能を実行できるようにする。コンピュータ・ビジョンに基づくジェスチャ認識システムは、より「自然な(natural)」、効率的かつ効果的な、ユーザとマシンとの間のインタフェースを実現するために提案されている。コンピュータ・ビジョンにおいては、ジェスチャ認識の正確性を向上させるために、カメラからキャプチャされた関連するビデオをスクリーン上に表示することが必要である。さらに、このタイプのビデオは、ユーザに対し、自己のジェスチャが正確に認識されるかどうか、さらに、ユーザが自己の位置に対し、何らかの調節を必要としているかどうかを示すことに役立つことができる。しかしながら、カメラからキャプチャされたビデオを表示すると、通常、ユーザにとって、スクリーン上の現在の番組の視聴にマイナスの影響が及ぼされることになる。従って、スクリーン上で現在の番組の表示が阻害されることを最低限にし、それと同時に、高精度の認識を維持する方法を見出すことが必要である。
その一方で、近年、(グラブ・アンド・ドロップ(grab and drop)などの)より多くのジェスチャを組み合わせた複合ジェスチャがユーザ・インタフェース(UI)に適用されている。これらの複合ジェスチャは、通常、複数のサブジェスチャを含み、単純なジェスチャよりも認識が困難になっている。2008年8月22日付で出願されたH.kieth Nishihara氏らの米国特許出願公開第2010/0050133号「複合ジェスチャ認識(Compound Gesture Recognition)」は、複数のカメラを備え、異なるサブジェスチャを検出し、これを異なる装置のための異なる入力に変換しようと試行する方法を提案している。しかしながら、複数のカメラのコスト、さらに、複数のカメラを配備することで、家庭内でこの方法を適用することには制限が伴う。
従って、ユーザ・インタフェース・システムにおける複合ジェスチャ認識を研究することが重要となっている。
本発明は、ジェスチャ認識システムにおけるユーザ・インタフェースであって、以前にユーザによって実行され、ジェスチャ認識システムによって受信されている少なくとも1つのサブジェスチャに従って、少なくとも1つのジェスチャ・コマンドの後続するサブジェスチャを示すように構成されたディスプレイ・ウインドウを含む、このユーザ・インタフェースに関する。
本発明は、さらに、装置であって、以前にユーザによって実行された1つ以上のサブジェスチャに基づいて、この装置に対する1つ以上の可能なコマンドを予測するように構成されたジェスチャ予測ユニットと、1つ以上の可能なコマンドを示すように構成されたディスプレイと、を含む、この装置に関する。
本発明は、さらに、ジェスチャ認識のための方法であって、以前にユーザによって実行された1つ以上のサブジェスチャに基づいて装置に対する1つ以上の可能なコマンドを予測するステップと、1つ以上の可能なコマンドを示すステップと、を含む、この方法に関する。
本発明のこれらの態様、特徴、および利点、さらに、その他の態様、特徴、および利点は、添付図面と併せて、実施形態の以下の説明より明らかになるであろう。
本発明の原理の実施形態に従った、ジェスチャ認識システムの例を示すブロック図である。 本発明を説明するために使用されるハンド・ジェスチャの図である。 本発明を説明するために使用されるハンド・ジェスチャの図である。 本発明を説明するために使用されるハンド・ジェスチャの図である。 本発明の実施形態に従ったユーザ・インタフェースのディスプレイ・ウインドウの例を示す図である。 本発明の実施形態に従ったディスプレイ・スクリーン内のユーザ・インタフェースの領域を示す図である。 本発明の実施形態に従ったディスプレイ・スクリーン内のユーザ・インタフェースの領域を示す図である。 ディスプレイ・ウインドウの不透明度の制御方法を示すフローチャートである。 本発明の実施形態に従ったジェスチャ認識のための方法を示すフローチャートである。
図面は開示内容の概念を例示するためのものであり、必ずしも、開示内容を例示する想定可能な構成が図面に限定されるものではないことを理解すべきである。
以下の詳細な説明において、ジェスチャ認識のためのユーザ・インタフェース、装置、および方法についての記載は、本発明の完全な理解のためのものである。しかしながら、当業者であれば、本発明が、これらの特定の詳細な記載内容によることなく、あるいは、その均等物を用いて実施される場合があることが理解できよう。本発明の態様が不必要に曖昧になることを避けるために、他の例において、公知な方法、手順、コンポーネント、および回路については詳細に説明しない。
ユーザは、シミュレートされた入力をコンピュータ、TV,または、他の電子機器に与えることができる。シミュレートされた入力は、複合ジェスチャによってあたえられることもあれば、単一ジェスチャによって与えられることもあれば、ユーザによって行われるどのようなボディ・ジェスチャによって与えられることさえもあることを理解すべきである。例えば、ユーザは、ジェスチャ認識環境において、所定の動きを含むジェスチャを提供することがある。ユーザは、例えば、ユーザの片手または両手で、あるいは、棒状の道具、スタイラス、ポインティング・スティックで、あるいは、ユーザがジェスチャを行うことができる他の様々な装置でジェスチャ入力を行う。シミュレートされた入力は、例えば、表示された視覚コンテンツに対する参照を設定し、参照物の参照する視覚コンテンツの部分に対してコマンドを実行するような、シミュレートされたマウス入力であろう。
図1は、本発明の実施形態に従ったジェスチャ認識システム100の例を示すブロック図である。図1に示されているように、ジェスチャ認識システム100は、カメラ101と、ディスプレイ・スクリーン102と、スクリーン108−1と、スクリーン108−2と、ディスプレイ・コントローラ104と、ジェスチャ予測器105と、ジェスチャ認識ユニット106と、ジェスチャ・データベース107とを含む。例として、カメラ101は、ディスプレイ・スクリーン102の上方に取り付けられ、スクリーン108−1および108−2は、それぞれ、ディスプレイ・スクリーン102の左側および右側に配置されている。
ディスプレイ・スクリーン102の前にいるユーザは、入力オブジェクトによってシミュレートされた入力をジェスチャ認識システム100に与えることができる。実施形態においては、入力オブジェクトはユーザの手として示されており、シミュレートされた入力はハンド・ジェスチャを通じて与えることできる。ハンド・ジェスチャを通じてシミュレートされた入力を与えるための手の使用は、ジェスチャ認識システム100の1つの例示的な実施態様であることを理解すべきである。さらに、シミュレートされた入力を与えるための入力オブジェクトとしてのユーザの手を通じてジェスチャを行う例においては、ユーザの手は、グローブおよび/または指先および指関節のセンサを含むことも、ユーザの素手であることもある。
図1の実施形態において、カメラ101は、例えば、毎秒30回でユーザのハンド・ジェスチャの複数の静止写真画像を高速に撮影し、それらの静止写真画像は、ユーザのジェスチャを認識するために、ジェスチャ認識ユニット106に供給される。ジェスチャ認識は、近年、サイン言語認識、多様な人間とコンピュータとのインタラクション、仮想現実、および、ロボット制御において、それを潜在的に使用できる可能性があるため、より多くの注目を集めるようになっている。大抵の従来技術のジェスチャ認識方法は、観察された画像シーケンスをトレーニング・サンプルまたはモデルと一致させるものである。入力シーケンスは、サンプルまたはモデルの一致が最良であるクラスとして分類される。動的時間伸縮法(DTW)、連続動的計画法(CDP)、隠れマルコフモデル(HMM)、および条件付き確率場(CRF)は、従来技術におけるこのカテゴリーの方法の例である。HMMは、ジェスチャ認識のために最も広く使用されている技術である。サブジェスチャのための詳細な認識方法は、ここでは説明しない。
ジェスチャ認識ユニット106、ジェスチャ予測器105、ディスプレイ・コントローラ104、およびジェスチャ・データベース107は、入力オブジェクトに関連付けられた各画像を処理してディスプレイ・スクリーン102のディスプレイ・ウインドウ103に示される制御命令を生成するようにするために、例えば、コンピュータ(図示せず)内、または組み込みプロセッサに設けることができる。
実施形態によれば、ユーザによる単一ジェスチャおよび複合ジェスチャの入力を認識することができる。複合ジェスチャは、複数のサブジェスチャが用いられて複数の関連する装置入力を与えるジェスチャとすることができる。例えば、1番目のサブジェスチャを視覚コンテンツの部分を参照する参照ジェスチャとし、2番目のサブジェスチャを1番目のサブジェスチャの直後に連続的に実行される実行ジェスチャとすることができ、その2番目のサブジェスチャが1番目サブジェスチャが参照する視覚コンテンツの部分に対するコマンドを実行するためなどである。単一ジェスチャは、単に、1つのサブジェスチャを含み、サブジェスチャが識別された直後に実行される。図2は、本発明を説明するために使用される例示的なハンド・ジェスチャを示している。
図2に示されているように、複合ジェスチャは、幾つかのサブジェスチャ(このジェスチャは、後続(subsequent)ジェスチャと呼ばれることもある)を含み、この複合ジェスチャが表す機能に依存する。最初のサブジェスチャをヘッド・ジェスチャと呼び、最後のサブジェスチャをテール・ジェスチャと呼ぶ。三次元ユーザ・インタフェース(3D UI)においては、同じ最初のジェスチャを共有する多くの機能が存在する。例えば、典型的な複合ジェスチャは、「グラブ(つかむ)とドロップ(落とす)」である。この場合、ユーザは、自己のハンド・ジェスチャを使用してTV番組からのシーン・コンテンツをグラブし(つかみ)、それをDROPのハンド・ジェスチャを行うことによって、近傍のピクチャ・フレームまたは装置スクリーンにドロップする。ここで、複合ジェスチャの定義は、3つの部分(サブジェスチャ)、すなわち、グラブ、ドロップ、およびドロップする場所を含む。例えば、図1に示されているように、ユーザのリビング・ルームにおいて、TVセットと、TVの右側と左側にそれぞれ配置された2つのタブレット装置とが存在する。そして、これらの2つのタブレット装置は、既にシステムに登録されており、ジェスチャ・データベース107に結合されている。従って、「グラブとドロップ」の複合ジェスチャは、2つのタイプを含む。一方のタイプは、図2(b)に示されているような、2つのサブジェスチャ「グラブして左側にドロップする」を有し、これは、ユーザによって示されたスクリーン・コンテンツが左側のタブレット装置にドロップされ、データベース107から左側のタブレット装置108−1に送信されることを意味する。他方のタイプは、図2(a)に示されているような、「グラブして右側にドロップする」であり、これは、ユーザによって示されたスクリーン・コンテンツが右側のタブレット装置にドロップされ、データベース107から右側のタブレット装置108−2に送信されることを意味する。これらの2つのタイプは、同じ1番目のサブジェスチャ「グラブ」を共有する。勿論、図2(c)に示されているように、2番目のサブジェスチャが依然として、1番目のジェスチャ「グラブ」と同じ「グラブ」である場合には、「グラブ」が1秒よりも長く保持される。これは、この複合ジェスチャが1つのサブジェスチャ「グラブ」のみを含んでおり、スクリーン・コンテンツがローカルで保存、ドロップされることを意味する。
図1に戻ると、ジェスチャ認識システム100のジェスチャ予測器105は、ジェスチャ認識ユニット106によって以前に認識された1つ以上のユーザのジェスチャおよびその順序または順番に基づいて、装置に対する1つ以上の可能なジェスチャ・コマンドを予測するように構成される。予測を実行するために、別のユニットとしての複合ジェスチャ・データベース107が必要であり、この複合ジェスチャ・データベース107は、特定のコマンド機能を有する所定のジェスチャを記憶するように構成される。
カメラ101によって取得されるジェスチャ画像がジェスチャ認識ユニット106によって認識されると、認識結果、例えば、所定のサブジェスチャがジェスチャ予測器105に入力される。そこで、認識結果に基づいてジェスチャ・データベース107を参照することによって、ジェスチャ予測器105は、1つ以上の可能なジェスチャ・コマンドを予測し、可能なジェスチャ・コマンドの後続するサブジェスチャがディスプレイ・ウインドウ103にインジケーションとして表示される。例えば、1番目のサブジェスチャ「グラブ」が認識されると、データベース107を参照することによって、予測器は、この複合ジェスチャに対して3つの可能な候補、「グラブして左側にドロップ」、「グラブして右側にドロップ」、および「グラブのみ」が存在するとの結論を下す。
データベース107内には、以下のような、さらに他の単一ジェスチャ、複合ジェスチャが存在する。ヘッド・ジェスチャが「右手を振る」の場合、テール・ジェスチャは、それぞれ、「右手を振る」、「両手を振る」、「右手を挙げる」、または、「静止する」となることがある。例えば、ヘッド・ジェスチャは、TVセットの電源をオンにすることを意味する。テール・ジェスチャが「右手を振る」である場合、これは、TVセットがセット・トップ・ボックスから番組を再生することを意味する。テール・ジェスチャが「両手を振る」である場合には、これは、TVセットがメディア・サーバから番組を再生することを意味する。テール・ジェスチャが「右手を挙げる」である場合、これは、TVセットがDVD(ディジタル・ビデオ・ディスク)から番組を再生することを意味する。テール・ジェスチャが「両手を振る」である場合、これは、TVセットがメディア・サーバから番組を再生することを意味する。テール・ジェスチャが「静止する」である場合、これは、TVセットが番組を何も再生しないことを意味する。複合ジェスチャ「グラブとドロップ」および2つのステップのサブジェスチャを例にとって本発明を説明しているが、この例は、本発明を限定するものとみなされるべきではない。
実施形態によれば、ジェスチャ認識システム100のユーザ・インタフェースを提供するディスプレイ・ウインドウ103を使用することにより、ジェスチャ予測器105によって取得される1つ以上の可能なコマンドの後続するサブジェスチャを、完全に可能なコマンドの後続するジェスチャの実行の仕方についての情報と共に示す。図3は、本発明の実施形態に従ったディスプレイ・ウインドウ103の例を示す図である。ここで、当業者によって、必要に応じてディスプレイ・ウインドウのサイズおよび位置を選択し、ディスプレイ・スクリーン102上の画像またはスクリーン全体を覆うようにすることもできるし、画像に対して透過的にすることもできる。
ディスプレイ・スクリーン102上のディスプレイ・ウインドウ103は、ディスプレイ・コントローラ104によって制御される。ディスプレイ・コントローラ104は、データベース107のリスト内の所定のジェスチャに従ってジェスチャ予測器105によって予測される各複合ジェスチャに対して後続するサブジェスチャの実行の仕方について、幾らかのインジケーションまたは命令を提供し、これらのインジケーションまたは命令は、コマンドについての情報と共に、ヒント(暗示)により、ディスプレイ・ウインドウ103に表示される。例えば、ディスプレイ・スクリーン102上のディスプレイ・ウインドウ103は、ユーザが自己の後続するサブジェスチャに進むのに役立つように、スクリーン上の領域をディスプレイ・ウインドウとしてハイライトすることができる。この領域においては、幾つかのヒント、例えば、点線矢印、または、点線で描かれた曲線の使用により、可能なコマンドの後続するサブジェスチャを示している。コマンドについての情報は、手を左側に移動させるようにユーザをガイドする「グラブして左側にドロップ」、手を右側に移動させるようにユーザをガイドする「グラブして右側にドロップ」、さらに、このグラブのジェスチャを保持するようにユーザをガイドする「グラブのみ」を含む。さらに、ジェスチャ認識システム100によって受信されるサブジェスチャのインジケーションもまた、ディスプレイ・ウインドウ103におけるヒントに対応する場所に表示されている。そこで、インジケーションは、システムによって受信される画像でもよく、サブジェスチャを表すどのような画像でもよい。Adobe(登録商標) Flash(商標)、Microsoft(登録商標) Silverlight(登録商標)、およびJavaFX(商標)は、全て、このような種類のアプリケーションをディスプレイ・ウインドウ103におけるインジケーションとして実施するために、ディスプレイ・コントローラによって使用することができる。さらに、ヒントは、上述したものに限定されるものではなく、ヒントがユーザにとって、そのうちの1つに従うことで、ジェスチャ・コマンドを完了させるために役立つ限り、当業者によって、必要に応じて他のどのようなインジケーションとして実施することもできる。
図4は、実施形態に従ったディスプレイ・スクリーン102における領域を示す図である。図4に示されているように、上記インジケーションおよび命令を表示する不透明度は、ジェスチャ認識処理を次第により明らかにしていくのに役立つ重要なパラメータである。例えば、「RGBA(Red Green Blue Alpha)」技術におけるアルファ値は、ブレンディング値(0〜1)であり、領域の不透明度(0〜1)を記述してジェスチャ認識の進行を反映させ、ジェスチャ認識処理を次第により明らかにしてゆくのに役立たせるために使用される。例えば、グラブの1番目のサブジェスチャが認識され、ヒントがディスプレイ・ウインドウに示されると、ユーザは、ヒントのうちの1つに従うことにより、複合ジェスチャ「グラブして左側にドロップ」を実行する。この複合ジェスチャもまた、認識ユニットによって認識される。ディスプレイ・ウインドウにおけるジェスチャ「グラブして右側にドロップ」および「グラブのみ」のヒントは、図4(a)に示されているように消える。同時に、ディスプレイ・ウインドウの不透明度は、図4(b)に示されたようなジェスチャ「グラブして左側にドロップ」の実行の進行とともに、減少する。
図5は、上記複合ジェスチャ「グラブとドロップ」を例にとった、ディスプレイ・コントローラ104によって使用されるディスプレイ・ウインドウの不透明度の制御方法を示すフローチャートである。ステップ501において、グラブ・ジェスチャがユーザによって実行されるかどうかを調べるための判定が行われる。これは、グラブ・ジェスチャが認識ユニットによって認識されるかどうかを意味する。グラブ・ジェスチャがユーザによって実行されない場合(いいえの場合)は、方法は、ステップ510に進み、コントローラは待機する。グラブ・ジェスチャがユーザによって実行される場合は、ステップ502において全ての近傍のサブジェスチャのステップおよび現在のサブジェスチャのステップに対する方向ラインまたはドロップのヒントのアルファ・ブレンディング値が1に設定される。すなわち、ディスプレイ・ウインドウ内の全ての情報が明確に表示されている。次に、ステップ503において、認識ユニットの認識結果に従って、グラブ・ジェスチャが特定の期間静止した状態を保持しているかどうかを判定する。グラブ・ジェスチャが特定の期間静止した状態を保持していると判定された場合(はいの場合)、すなわち、「グラブのみ」が実行されている場合は、ステップ506において全ての近傍のサブジェスチャのステップに対する方向ラインまたはドロップのヒントのアルファ・ブレンディング値が0に設定される。すなわち、ウインドウ内の全ての近傍のサブジェスチャが消える。さらに、ステップ503における判定結果がいいえである場合には、方法は、ステップ505に進み、グラブ・ジェスチャの移動方向を判定する。認識結果に従ってジェスチャが1つの方向に移動すると、他の方向に対する方向ラインまたはドロップのヒントのアルファ・ブレンディング値がステップ507において0に設定される。そして、ステップ508において、認識結果に従ってドロップ・ジェスチャが実行される場合には、現在の方向に対する方向ラインまたはドロップのヒントのアルファ・ブレンディング値がステップ509において0に設定されるか、次第に0に減少する。その一方で、「グラブのみ」ジェスチャが実行され、ドロップまたは記憶ステップが実行されている場合には、そのヒントのアルファ・ブレンディング値もまた、0に設定されるか、次第に0に減少する。
図6は、本発明の実施形態に従ったジェスチャ認識のための方法を示すフローチャートである。本発明の実施形態に従って、手の位置および手のその他の特徴に基づいて1番目のサブジェスチャが認識されると、どのジェスチャ・コマンドが行われるかについての推定がデータベースにおける全てのジェスチャ定義についての情報に基づいて実行される。次に、1つのウインドウがディスプレイ・スクリーンに現われ、推定されたジェスチャ・コマンドに対するジェスチャおよびヒントを表示する。次に、2番目のサブジェスチャが認識されると、1番目および2番目のサブジェスチャの認識結果に基づいてジェスチャ・コマンドの推定結果の数が変化する。通常、この数は、1番目のサブジェスチャのみに基づくものよりも小さい。上記段落における記載と同様に、新たな推定結果が分析され、コマンドの後続するサブジェスチャの終了の仕方についてのヒントが与えられる。さらに、推定結果の数が減少すると、ウインドウの不透明度もまた、減少する。ウインドウの不透明度の変化は、複合ジェスチャ認識のための別のタイプのヒントであると理解することができる。
図6に示されているように、1番目のサブジェスチャなどのユーザのジェスチャは、ステップ601において、ジェスチャ認識ユニット106によって認識される。次に、ステップ602において、予測器105は、ステップ601において認識された1つ以上のサブジェスチャに基づいてシステムに対する1つ以上の可能なコマンドを予測する。少なくとも1つの可能なコマンドの後続するサブジェスチャは、ステップ603において、ディスプレイ・ウインドウにおけるユーザ・インタフェースによって示される。次に、1つのコマンドのさらなるサブジェスチャが実行されている場合には、ステップ604において、ユーザ・インタフェースから他のものが消え、ステップ605において、ディスプレイ・ウインドウの不透明度が減少する。次に、ユーザがジェスチャ・コマンドを終了すると、ステップ606において、ディスプレイ・ウインドウもまた消える。
本実施形態は、1番目のサブジェスチャおよび2番目のサブジェスチャに基づいて説明しているが、さらなるサブジェスチャの認識およびユーザ・インタフェースに示されたコマンドの後続するサブジェスチャのヒントもまた、本発明の実施形態に適用可能である。さらなるサブジェスチャが受信されない、または、ジェスチャ・コマンドが終了する場合には、スクリーン上でディスプレイ・ウインドウが消える。
上述した内容は、本発明の実施形態を例示しているだけに過ぎず、従って、当業者であれば、本明細書中で明示的に記載されていなくとも、本発明の原理を実施し、本発明の精神および範囲に含まれる多くの代替的な構成を企図することが可能であることが理解できよう。

Claims (15)

  1. ジェスチャ認識システムにおけるユーザ・インタフェースであって、
    以前にユーザによって実行され、前記ジェスチャ認識システムによって認識されている少なくとも1つのサブジェスチャおよびその順序に従って、少なくとも1つのジェスチャ・コマンドの後続するサブジェスチャを示すように構成されたディスプレイ・ウインドウを含む、前記ユーザ・インタフェース。
  2. 前記後続するサブジェスチャは、前記少なくとも1つのジェスチャ・コマンドを完了させるための前記後続するジェスチャの仕方についての情報と共に、ヒントによって示される、請求項1に記載のユーザ・インタフェース。
  3. 前記ジェスチャ認識システムによって認識される少なくとも1つのサブジェスチャのインジケーションもまた、前記ディスプレイ・ウインドウ内の前記ヒントに対応する位置に表示される、請求項2に記載のユーザ・インタフェース。
  4. 1つのジェスチャ・コマンドの前記後続するサブジェスチャが前記ユーザによって実行され、前記ジェスチャ認識システムによって認識されると、他のジェスチャ・コマンドの後続するサブジェスチャが前記ディスプレイ・ウインドウから消える、請求項1〜3のいずれか1項に記載のユーザ・インタフェース。
  5. 前記ヒントおよび少なくとも1つのサブジェスチャの前記インジケーションを有する前記ディスプレイ・ウインドウは、不透明度を有し、当該不透明度は、前記後続するサブジェスチャが前記ユーザによって実行され、前記ジェスチャ認識システムによって認識されていると、次第に減少する、請求項4に記載のユーザ・インタフェース。
  6. 前記後続するサブジェスチャは、前にユーザによって実行され、前記ジェスチャ認識システムによって認識された前記少なくとも1つのサブジェスチャと同一である、請求項1〜5のいずれか1項に記載のユーザ・インタフェース。
  7. 装置であって、
    以前にユーザによって実行され、ジェスチャ認識システムによって認識されている1つ以上のサブジェスチャおよびその順序に基づいて、当該装置に対する1つ以上の可能なコマンドを予測するように構成されたジェスチャ予測ユニットと、
    ユーザ・インタフェースにおいて前記1つ以上の可能なコマンドの後続するサブジェスチャを示すように構成されたディスプレイと、を含む、前記装置。
  8. 前記後続するサブジェスチャは、前記コマンドを完了させるための前記後続するジェスチャの仕方についての情報と共に、ヒントによって前記ユーザ・インタフェースにおいて示される、請求項7に記載の装置。
  9. 前記ディスプレイは、さらに、当該装置によって認識される前記1つ以上のサブジェスチャを示すように構成されている請求項7または8に記載の装置。
  10. 1つの可能なコマンドの前記後続するサブジェスチャがユーザによって実行され、当該装置によって認識されていると、他の可能なコマンドの後続するサブジェスチャが前記ユーザ・インタフェースにおいて消える、請求項7〜9のいずれか1項に記載の装置。
  11. 前記ディスプレイにおける前記ヒントおよび1つ以上の可能なコマンドの前記インジケーションは不透明度を有し、当該不透明度は、前記1つ以上の可能なコマンドが前記ユーザによって実行され当該装置によって認識されると次第に減少する、請求項7〜10のいずれか1項に記載の装置。
  12. 装置におけるジェスチャ認識のための方法であって、
    前記装置によって以前に認識された1つ以上のサブジェスチャに基づいて前記装置に対する1つ以上の可能なコマンドを予測するステップと、
    ユーザ・インタフェースによって前記1つ以上の可能なコマンドの後続するサブジェスチャを示すステップと、を含む、前記方法。
  13. 前記後続するサブジェスチャは、前記ユーザ・インタフェース内に表示されるヒントによって表示され、前記ユーザによって実行される前記1つ以上のサブジェスチャのインジケーションもまた、前記ユーザ・インタフェース内に表示されている、請求項12に記載の方法。
  14. 1つの可能なコマンドの前記後続するサブジェスチャが、前記装置によって認識されていると、前記ユーザ・インタフェースにおける他の可能なコマンドの前記後続するサブジェスチャを削除するステップをさらに含む、請求項12または13に記載の方法。
  15. 前記ヒントは、前記少なくとも1つのコマンドを完了させるために、前記後続するサブジェスチャの仕方についての情報と共に表示される、請求項12〜14のいずれか1項に記載の方法。
JP2013546543A 2010-12-30 2010-12-30 ジェスチャ認識のためのユーザ・インタフェース、装置および方法 Expired - Fee Related JP5885309B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/002206 WO2012088634A1 (en) 2010-12-30 2010-12-30 User interface, apparatus and method for gesture recognition

Publications (3)

Publication Number Publication Date
JP2014501413A true JP2014501413A (ja) 2014-01-20
JP2014501413A5 JP2014501413A5 (ja) 2014-02-27
JP5885309B2 JP5885309B2 (ja) 2016-03-15

Family

ID=46382154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013546543A Expired - Fee Related JP5885309B2 (ja) 2010-12-30 2010-12-30 ジェスチャ認識のためのユーザ・インタフェース、装置および方法

Country Status (8)

Country Link
US (1) US20130283202A1 (ja)
EP (1) EP2659336B1 (ja)
JP (1) JP5885309B2 (ja)
KR (1) KR101811909B1 (ja)
CN (1) CN103380405A (ja)
AU (1) AU2010366331B2 (ja)
BR (1) BR112013014287B1 (ja)
WO (1) WO2012088634A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104525A1 (ja) * 2015-12-17 2017-06-22 コニカミノルタ株式会社 入力装置、電子機器及びヘッドマウントディスプレイ

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5585505B2 (ja) * 2011-03-17 2014-09-10 セイコーエプソン株式会社 画像供給装置、画像表示システム、画像供給装置の制御方法、画像表示装置、及び、プログラム
KR101322465B1 (ko) 2011-11-17 2013-10-28 삼성전자주식회사 셀프 카메라 촬영을 위한 방법 및 장치
SE537553C2 (sv) * 2012-08-03 2015-06-09 Crunchfish Ab Förbättrad identifiering av en gest
KR101984683B1 (ko) * 2012-10-10 2019-05-31 삼성전자주식회사 멀티 디스플레이 장치 및 그 제어 방법
US20140215382A1 (en) * 2013-01-25 2014-07-31 Agilent Technologies, Inc. Method for Utilizing Projected Gesture Completion to Improve Instrument Performance
JP6212918B2 (ja) * 2013-04-18 2017-10-18 オムロン株式会社 遊技機
US20150007117A1 (en) * 2013-06-26 2015-01-01 Microsoft Corporation Self-revealing symbolic gestures
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
DE102014001183B4 (de) 2014-01-30 2022-09-22 Audi Ag Verfahren und System zum Auslösen wenigstens einer Funktion eines Kraftwagens
CN103978487B (zh) * 2014-05-06 2017-01-11 宁波易拓智谱机器人有限公司 一种基于手势的通用机器人末端位置的操控方法
CN104615984B (zh) * 2015-01-28 2018-02-02 广东工业大学 基于用户任务的手势识别方法
US20160257198A1 (en) 2015-03-02 2016-09-08 Ford Global Technologies, Inc. In-vehicle component user interface
DE112016001794T5 (de) * 2015-04-17 2018-02-08 Mitsubishi Electric Corporation Gestenerkennungsvorrichtung, Gestenerkennungsverfahren und Informationsverarbeitungsvorrichtung
US9914418B2 (en) 2015-09-01 2018-03-13 Ford Global Technologies, Llc In-vehicle control location
US9967717B2 (en) 2015-09-01 2018-05-08 Ford Global Technologies, Llc Efficient tracking of personal device locations
US10046637B2 (en) 2015-12-11 2018-08-14 Ford Global Technologies, Llc In-vehicle component control user interface
US10082877B2 (en) * 2016-03-15 2018-09-25 Ford Global Technologies, Llc Orientation-independent air gesture detection service for in-vehicle environments
US9584653B1 (en) * 2016-04-10 2017-02-28 Philip Scott Lyren Smartphone with user interface to externally localize telephone calls
US9914415B2 (en) 2016-04-25 2018-03-13 Ford Global Technologies, Llc Connectionless communication with interior vehicle components
DE102016212240A1 (de) * 2016-07-05 2018-01-11 Siemens Aktiengesellschaft Verfahren zur Interaktion eines Bedieners mit einem Modell eines technischen Systems
CN108520228A (zh) * 2018-03-30 2018-09-11 百度在线网络技术(北京)有限公司 手势匹配方法及装置
CN112527093A (zh) * 2019-09-18 2021-03-19 华为技术有限公司 手势输入方法及电子设备
CN110795015A (zh) * 2019-09-25 2020-02-14 广州视源电子科技股份有限公司 操作提示方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331210A (ja) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp ユーザインタフェース装置及びユーザインタフェース方法
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
JP2010257093A (ja) * 2009-04-23 2010-11-11 Hitachi Ltd 入力装置
JP2010537268A (ja) * 2007-08-16 2010-12-02 ノキア コーポレイション 項目タグ付けの装置および方法
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2323856A1 (en) * 2000-10-18 2002-04-18 602531 British Columbia Ltd. Method, system and media for entering data in a personal computing device
US7343566B1 (en) * 2002-07-10 2008-03-11 Apple Inc. Method and apparatus for displaying a window for a user interface
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7466859B2 (en) * 2004-12-30 2008-12-16 Motorola, Inc. Candidate list enhancement for predictive text input in electronic devices
KR100687737B1 (ko) * 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
JP4602166B2 (ja) * 2005-06-07 2010-12-22 富士通株式会社 手書き情報入力装置。
WO2007052382A1 (ja) * 2005-11-02 2007-05-10 Matsushita Electric Industrial Co., Ltd. 表示オブジェクト透過装置
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
KR101304461B1 (ko) * 2006-12-04 2013-09-04 삼성전자주식회사 제스처 기반 사용자 인터페이스 방법 및 장치
US20090100383A1 (en) * 2007-10-16 2009-04-16 Microsoft Corporation Predictive gesturing in graphical user interface
TW201009650A (en) * 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US7983450B2 (en) * 2009-03-16 2011-07-19 The Boeing Company Method, apparatus and computer program product for recognizing a gesture
US8285499B2 (en) * 2009-03-16 2012-10-09 Apple Inc. Event recognition
CN101706704B (zh) * 2009-11-06 2011-05-25 谢达 一种会自动改变不透明度的用户界面显示方法
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
TWI514194B (zh) * 2010-06-18 2015-12-21 Prime View Int Co Ltd 電子閱讀器及其顯示方法
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
GB2496793B (en) * 2010-08-17 2018-06-20 Google Llc Touch-based gesture detection for a touch-sensitive device
US8701050B1 (en) * 2013-03-08 2014-04-15 Google Inc. Gesture completion path display for gesture-based keyboards

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331210A (ja) * 2005-05-27 2006-12-07 Mitsubishi Electric Corp ユーザインタフェース装置及びユーザインタフェース方法
JP2010537268A (ja) * 2007-08-16 2010-12-02 ノキア コーポレイション 項目タグ付けの装置および方法
JP2010015238A (ja) * 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
JP2010257093A (ja) * 2009-04-23 2010-11-11 Hitachi Ltd 入力装置
JP2011204019A (ja) * 2010-03-25 2011-10-13 Sony Corp ジェスチャ入力装置、ジェスチャ入力方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104525A1 (ja) * 2015-12-17 2017-06-22 コニカミノルタ株式会社 入力装置、電子機器及びヘッドマウントディスプレイ

Also Published As

Publication number Publication date
JP5885309B2 (ja) 2016-03-15
EP2659336A1 (en) 2013-11-06
KR20140014101A (ko) 2014-02-05
BR112013014287B1 (pt) 2020-12-29
EP2659336A4 (en) 2016-09-28
BR112013014287A2 (pt) 2016-09-20
AU2010366331B2 (en) 2016-07-14
KR101811909B1 (ko) 2018-01-25
CN103380405A (zh) 2013-10-30
WO2012088634A1 (en) 2012-07-05
AU2010366331A1 (en) 2013-07-04
EP2659336B1 (en) 2019-06-26
US20130283202A1 (en) 2013-10-24

Similar Documents

Publication Publication Date Title
JP5885309B2 (ja) ジェスチャ認識のためのユーザ・インタフェース、装置および方法
US11048333B2 (en) System and method for close-range movement tracking
JP6659644B2 (ja) 応用素子の代替的グラフィック表示の事前の生成による入力に対する低レイテンシの視覚的応答およびグラフィック処理ユニットの入力処理
JP5900393B2 (ja) 情報処理装置、操作制御方法及びプログラム
US9910498B2 (en) System and method for close-range movement tracking
US9342230B2 (en) Natural user interface scrolling and targeting
CN105518575B (zh) 与自然用户界面的双手交互
JP6684883B2 (ja) カメラエフェクトを提供する方法およびシステム
EP3189397B1 (en) Information processing device, information processing method, and program
US20100321319A1 (en) Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device
JP2018516422A (ja) スマートホームのためのジェスチャ制御システム及び方法
JP2013037675A5 (ja)
JP2016534481A (ja) 状態変化および将来のユーザ入力の予想に関する情報を使用するユーザ入力に対する応答を提供するためのシステムおよび方法
US10067664B2 (en) Method and system for providing prototyping tool, and non-transitory computer-readable recording medium
KR101575092B1 (ko) 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US20130285904A1 (en) Computer vision based control of an icon on a display
CN106796810A (zh) 在用户界面上从视频选择帧
US20150123901A1 (en) Gesture disambiguation using orientation information
US11301124B2 (en) User interface modification using preview panel
CN112788390B (zh) 一种基于人机交互的控制方法、装置、设备及存储介质
CN104951051A (zh) 一种信息处理方法和电子设备
KR20230068752A (ko) 머리 착용형 디스플레이 장치에서 손 인식을 활용한 마우스 포인트의 기준점 설정 방법 및 장치
CN114791766A (zh) 一种基于ar设备的操作方法、装置、介质及设备
EP2886173A1 (en) Augmented reality overlay for control devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150129

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150427

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160205

R150 Certificate of patent or registration of utility model

Ref document number: 5885309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees