JP2014053045A - ウェーブエンゲージメントジェスチャの改良された検出 - Google Patents

ウェーブエンゲージメントジェスチャの改良された検出 Download PDF

Info

Publication number
JP2014053045A
JP2014053045A JP2013251933A JP2013251933A JP2014053045A JP 2014053045 A JP2014053045 A JP 2014053045A JP 2013251933 A JP2013251933 A JP 2013251933A JP 2013251933 A JP2013251933 A JP 2013251933A JP 2014053045 A JP2014053045 A JP 2014053045A
Authority
JP
Japan
Prior art keywords
gesture
user
computer
motion data
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013251933A
Other languages
English (en)
Other versions
JP5755712B2 (ja
Inventor
Ian Clarkson
イアン クラークソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2014053045A publication Critical patent/JP2014053045A/ja
Application granted granted Critical
Publication of JP5755712B2 publication Critical patent/JP5755712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本開示は、ウェーブエンゲージメントジェスチャの改良された検出に関連する。
【解決手段】ウェーブエンゲージメントジェスチャの改良された検出では、形状は、モーションデータの中で定義され、モーションデータは、定義された形状と位置合わせされる地点でサンプリングされ、そして、サンプリングされたモーションデータに基づいて、定義された形状に沿った移動対象物の位置は、時間とともに決定される。移動対象物が、決定された位置により呈するパターンに基づいてジェスチャを実行しているかどうか決定され、そして、移動対象物がジェスチャを実行していると決定する場合、アプリケーションはコントロールされる。
【選択図】図1A

Description

[関連出願の相互参照]
本出願は、2008年7月25日に出願の米国仮出願第61/083,605号の利益を主張し、その全体において参照することにより本明細書に援用される。
[技術分野]
本開示は、一般に、ユーザ入力に関連する。
カメラは、対象物の画像をキャプチャするために用いられてきた。対象物の位置を検出するために、1つ以上の画像内にある対象物の1つ以上の画像を分析するためのさまざまな技術が開発されてきた。例えば、時間内にテンポ良く連続して撮られた対象物の複数の画像を分析することによって、対象物の動きを検出するために、オプティカルフローが用いられている。
1つの概略的な実施によれば、移動する対象物の位置は、モーションデータ内で定義された形状に沿って経時的にトラッキングされてよい。対象物の位置(形状の一次元の一部として表現される)が経時的にグラフ化されるとき、グラフ化された位置が、正弦曲線の1つ以上の期間に概略的に類似する形を表す場合、その移動する対象物は、ウェーブ、スワイプ、または振動のジェスチャを行うことが決定されてよい。このようなジェスチャは、制御入力にマッピングされてよく、人間とコンピュータとのインターフェースの精度を改善する。
別の概略的な実施によれば、コンピュータ可読媒体は、命令を含むコンピュータプログラムを用いてコード化され、この命令が実行される場合、コンピュータが複数の動作を実行させるように稼動する。複数の動作は、モーションデータ内において形状を定義する工程、その定義された形状に合わせた位置における上記モーションデータをサンプリングする工程、および、上記サンプリングされたモーションデータに基づいて、経時的に、上記定義された形状に沿って移動する対象物の位置を決定する工程、を含む。それらの動作はまた、上記移動する対象物が上記決定された位置によって表されるパターンに基づいてジェスチャを行うかどうかを決定する工程、および、上記移動する対象物が上記ジェスチャを行うことを決定した場合に、アプリケーションをコントロールする工程、を含む。
実施は、以下の特徴の1つ以上を含んでよい。例えば、モーションデータは、上記移動する対象物がある点(地点)において検出されるので、画像の各々の点(地点)に対して、時間の指示を提供するモーションデータ値をさらに含むモーション履歴マップを含んでよい。上記定義された形状に沿って移動する対象物の位置を決定する工程は、経時的に、第1および第2の時間において、上記定義された形状に合わせてあり、かつあらかじめ決められた閾値を満たすサンプリングされたモーション履歴データ値を含む位置を選択する工程、および、上記選択された点(地点)のうちの1つを選択する工程、をさらに含んでよい。上記移動する対象物の位置を決定する工程は、上記移動する対象物の第1および第2の位置として、上記第1および第2の時間において個々に選択された1つの点(地点)を出力する工程を含んでよい。その1つの点(地点)とは、上記選択された点(地点)の中央点、平均点、またはランダムの点であってよい。それらの動作はまた、上記画像にアクセスする工程、および、上記アクセスされた画像に基づいて上記モーション履歴マップ内に含まれるモーション履歴データ値を生成する工程、を含んでよい。モーション履歴マップは、オプティカルフローを用いて生成されてよい。
他の例において、上記パターンは、経時的に、上記決定された位置のグラフ上の正弦曲線または段階的な正弦曲線の1周期の形状を含み、上記決定された位置は、その形状の一次元の一部として表現される。それらの動作はまた、各々の点(地点)において、上記移動する対象物があらかじめ決められた閾値内において検出されているかどうかを決定する工程、および、上記あらかじめ決められた閾値内において上記移動する対象物の動きを検出したと決定された隣接する点(地点)をグループ化する工程を含んでもよく、ここで上記モーションデータは、上記定義された形状に合わせた上記グループ化された点(地点)のサブセットにおいてサンプリングされてよい。それらの動作はまた、上記グループ化された点(地点)の周囲にある境界ボックスを定義する工程を含んでよく、ここで上記モーションデータ内の形状のサイズおよび位置は、上記境界ボックスに対して定義される。その形状は、ラインセグメントまたは弦であってよく、例えば最も長いラインセグメントが上記グループ化された点(地点)内でフィッティングできる。
さらなる例において、それらの動作は、上記モーションデータ内において点(地点)のグループを検出する工程、および、上記点(地点)のグループのうちの1つを選択する工程を含んでよく、ここでその形状は、上記1つの選択されたグループ内において定義される。上記1つのグループは、相対的なサイズに基づいて選択されてよい。上記モーションデータは、上記定義された形状に合わせた点(地点)のサンプリングされた量においてサンプリングされてよく、上記サンプリングされた量は、固定量を含んでよく、あるいは、上記定義された形状のサイズ、または上記モーションデータ内における上記定義された形状に合わせた点(地点)の合わされた量に基づいていてよい。上記移動する対象物が上記決定された位置によって表された上記パターンに基づいて上記ジェスチャを行うかどうかを決定する工程は、上記パターンを、上限および下限の閾値基準と、タイミング基準とに比較させる工程をさらに含んでよい。上記ジェスチャは、スワイプまたはウェーブ、手または指のジェスチャであってよい。それらの動作は、上記決定された位置をモーション履歴に加える工程、上記パターンが上記モーション履歴内に存在するかどうかを決定する工程、または、上記ジェスチャのパフォーマンスの量を数える工程をさらに含んでよい。
別の概略的な実施において、プロセスは、モーションデータ内において形状を定義する工程、その定義された形状に合わせた位置における上記モーションデータをサンプリングする工程、および、上記サンプリングされたモーションデータに基づいて、経時的に、上記定義された形状に沿って移動する対象物の位置を決定する工程、を含む。プロセスはまた、上記移動する対象物が上記決定された位置によって表されるパターンに基づいてジェスチャを行うかどうかを決定する工程、および、上記移動する対象物が上記ジェスチャを行うことを決定した場合に、アプリケーションをコントロールする工程を含んでよい。
さらなる概略的な実施において、デバイスは、モーションデータ内において形状を定義し、その定義された形状に合わせた位置における上記モーションデータをサンプリングし、および、上記サンプリングされたモーションデータに基づいて、経時的に、上記定義された形状に沿って移動する対象物の位置を決定するように構成された処理装置を備える。上記処理装置は、上記移動する対象物が上記決定された位置によって表されるパターンに基づいてジェスチャを行うかどうかを決定し、および、上記移動する対象物が上記ジェスチャを行うことを決定した場合に、アプリケーションをコントロールするようにさらに構成されている。
上述の技術の任意の実施は、方法、プロセス、システム、デバイス、装置、相互インターフェース、コンピュータ可読媒体に保存された命令、または、コンピュータプログラムを用いてコード化されているコンピュータ可読媒体を含んでよい。1つ以上の実施の詳細は、添付の図面および以下の記載において説明される。他の特徴は、記載および図面、ならびに特許請求の範囲から明らかである。
類似する参照符号は全体を通して対応する部分を示す。
図1Aは、ジェスチャの認識を実演している状況図を示す。 図1Bは、対象物の位置を決定するために用いられる関連のモーション履歴値のグラフを示す。 図2は、デバイスのブロック図である。 図3は、例示的なプロセスのフローチャートである。 図4は、例示的な内接する形状を示す。 図5は、例示的なグラフを示す。 図6は、例示的なグラフを示す。 図7は、例示的なジェスチャおよびそれに関連するグラフを示す。 図8は、例示的なジェスチャおよびそれに関連するグラフを示す。 図9は、ジェスチャの検出を示す。 図10は、例示的なユーザーインターフェースを示す。 図11は、例示的なユーザーインターフェースを示す。 図12は例示的なコンピューティングデバイスを示す。
1つの概略的な実施によれば、移動する対象物の位置は、モーションデータ内において定義された形状に沿って、経時的に、トラッキングされてよい。対象物の位置(形状の一次元の一部として表現される)が経時的にグラフ化されるとき、グラフ化された位置が、正弦曲線の1つ以上の周期に概略的に類似する形を表す場合、その移動する対象物は、ウェーブ、スワイプ、または振動のジェスチャを行うことが決定されてよい。このようなジェスチャは、制御入力にマッピングされてよく、人間とコンピュータとのインターフェースの精度を改善する。
そうすることで、かつユーザーインターフェース上でのコントロールを選択する工程の代わりに、そのジェスチャに関連される特定の機能性を呼び出すために、ユーザは、ジェスチャ(例えば、手または他の身体の部分を動かす)を定義する一連のモーションを介して移動してよい。このようにして、物理的なボタンまたはユーザーインターフェースコントロールの使用を必要とすることなく機能が実施されてよく、より小さなユーザーインターフェースを可能とし、かつ機能性の選択において精度を向上させる。さらに、カメラベースの入力を使用することによって、タッチスクリーン上の指紋の悪影響を及ぼす、ぼやけた効果が除去される。なぜならば、ユーザは、制御入力を生じさせるために、任意のデバイスに物理的に接触することを必要とされないからである。
このように、1つの例において、ユーザは、一組の定義されたジェスチャを行うことによってデバイスと相互作用する。向上されたアプローチが提供され、ここで、入力ジェスチャは、モーションデータ内で定義された形状にあわせた地点においてサンプリングされたモーションデータが予期されたパターンを表すかどうかに基づいて、認識されるか、または拒否される。
本明細書において全体を通して用いられるように、「ジェスチャ」は、人間の身体の一部を用いてなされた非言語的なコミュニケーションの形態のことをいうことが意図され、例えばスピーチなどの言語的なコミュニケーションと対比されるものである。例えば、ジェスチャは、動き、変化、第1の位置、ポーズ、または表現と、第2のポーズ、位置、または表現との間の変化によって定義されてよい。日常的な会話において用いられる一般的なジェスチャは、例えば、「エアクォーツ」のジェスチャ、お辞儀(bowing)のジェスチャ、おじぎ(curtsy)、頬へのキス、指または手の動き、ひざまずく動き、頭の振りまたは動き、ハイタッチ、頷き、拳を突き上げる動き、敬礼、親指を挙げる動き、つねる動き、手または体をよじるジェスチャ、あるいは指を指すジェスチャ等を含む。
ジェスチャは、例えば、傾きセンサを利用して、例えば、ユーザがデバイスを支え、または傾ける角度を検出することによって、デバイスの動きを感知し、または任意の他のアプローチによって、ユーザの画像を分析することによって、カメラを用いて検出されてよい。ジェスチャは、一連の動き、特に、パターンや様式を行うことによって形成されてよい。
本明細書に記載された改良されたアプローチは、一例としてウェーブのジェスチャを用いて記載されているが、他の実施において、任意の他の形状または種類のジェスチャ(上述に記載されたジェスチャの例など)もまた検出されてよい。さらに、例示的なウェーブのジェスチャが「エンゲージメント」ジェスチャとして記載されているが、他の実施において、この改良されたアプローチを用いて検出されたジェスチャは、「エンゲージメントジェスチャ」以外の目的を有する。「エンゲージメントジェスチャ」(実際のコマンド入力を定義することが意図されたジェスチャとは対照的に)のさらなる記載が以下でさらに詳細に記載される。
ユーザは、体の一部(例えばウェーブモーション)の位置を変えることによってジェスチャをし得る(あるいは、ジェスチャし得る、またはジェスチャで表現し得る)か、はたまた、ユーザは、体の一部の位置を変えることなしにジェスチャで表現し得る(例えば、拳骨を握り締めるジェスチャをすることによって、または所定期間からだの一部を動かさないことによって)。改良されたアプローチは、例えば、指、手、および腕のジェスチャなどを用いるが、他の種類のジェスチャもまた用いられてよい。例えば、ユーザの眼の動きがトラッキングされる場合、本明細書に記載された改良されたアプローチは、左右の「眼の見渡し」のジェスチャを検出するために用いられてよい。
図1Aは、ジェスチャの認識を実演している状況図を示し、図1Bは、ユーザ102がカメラ104および媒体ハブ106の前に立っている特定の時Aで、対象物の位置を決定するために用いられる関連のモーション履歴値のグラフを示す。媒体ハブ106は、例えば、音楽の記録を演奏しているコンピュータでよい。ユーザ102は、彼らの左手108を、往ったり来たりするウェーブモーションで動かす。(例えば、ユーザは、手または指でスワイプまたはウェーブをジェスチャしてよい。)例えば、時点t1で、ユーザは、彼らの手108を身体の方へ動かし、時点t2で、ユーザは、彼らの手108を側方(この例では身体から離れる方、あるいは、リーダの視点から右方向)へ動かし、そして、時点t3で、ユーザは、彼らの手108を身体の方へ戻し動かす。ユーザ102が意図的なジェスチャ(例えば、手108のウェーブモーション)を実行する間に、ユーザは、他の、意図的または非意図的な動き(例えば、右手110の小刻みなまたは小さい動き)をしてよい。右手110のこの小さい動きは、身体のジッターまたはカメラ104自体の移動によってさえ生じてよい。
時間が経過するにつれて、カメラ104は、ユーザ102の複数の画像を取り入れてよい。媒体ハブ106は、複数の画像を処理して、モーション履歴マップ120を生成してもよく、そしてそれは、時間とともにユーザのモーションを示してよい。モーション履歴マップ120は、モーションデータを提供してもよく、そしてそれは、移動対象物がその地点で検出された時から、画像における各地点に対する時間の表示を含む。媒体ハブ106は、画像における各地点に対して、移動対象物(例えば、手108)が所定の期間内に検出されたかどうかを決定してよい。モーションが検出される各時点(例えば、t1、t2、t3)に対する1つのモーション履歴マップ120のような、多くのモーション履歴マップ120は、生成されてよい。
モーション履歴マップ120が地点の視覚のグリッドとして図示されるにもかかわらず、モーション履歴マップ120は、付随する視覚化なしで、純粋にコンピュータ可読媒体上のデータ構造として存在してよい。視覚化されるときに、しかしながら、モーション履歴マップ120上の地点は、最近のモーションが検出された輝点(高い値を表す)として現れてよい。そしてそれは、追加的なモーションの発生なしに時間が経過するにつれて、時間とともに黒まで弱まる。時間内の特定のモーメントで、例えば、手のスワイプモーションは、ユーザの手がごく最近検出される輝点として現れてよい。そしてそれは、手のスワイプモーションが始まった場所で黒まで弱まる跡が続く。
モーション履歴マップ120において、検出モーションを有することが決定した隣接点は、単一のグループ、クラスターまたは「小塊(blob)」として、処理のためにグループ化されてよい。地点をグループとして切り分けることによって、計算の費用は、最小化されてよい。右手110の動きの結果として、モーションを有することが決定した地点は、地点のグループ122としてグループ化されてよい。別の例として、左手108の動きの結果として、モーションを有することが決定した地点は、地点のグループ124としてグループ化されてよい。
地点のグループごとに、境界ボックスは、グループ周辺で定義されてよい。例えば、境界ボックス126は、地点のグループ122周辺で定義され、そして、境界ボックス128は、地点のグループ124周辺で定義される。ユーザが、彼らの手がすでに真上にある位置からジェスチャを実行し始める場合、境界ボックスは、横長の長方形として一般に形づくられてよい。ユーザが、彼らの手が身体の側にある位置からジェスチャを実行し始める場合、その手を身体の側から真上まで持ち上げることは、境界ボックスを、縦長の長方形または正方形として形づくらせてよい。モーション履歴の残像を減少させる(例えば、各ピクセルのモーション履歴の漸移率を増加させる)ことによって、この手の持ち上げモーションの効果は減少可能であり、境界ボックスが、正方形に形づくられるよりも、より横長の長方形に形づくられることに結びつく。
意図的なジェスチャは、意図的でないジェスチャに比べてより大きな地点のグループに、一般に結びついてよい。例えば、地点のグループ124は、地点のグループ122よりも大きい。いくつかの実施例において、ジェスチャ検出のために、ジェスチャ候補(candidate gesture)と関連した、最も大きな地点のグループのみが、考慮されてよい。他のアプローチにおいて、しかしながら、より小さい地点のグループが最初に考慮され、地点のグループの各々は、同時に考慮され、または、グループの各々は、サイズまたは他の基準に基づいて順番に考慮される。さらにまた、グループの各々は、並行して同時に調べられてよい。
形状は、モーションデータの内部に内接してもよく、さもなければ定義されてよい。ここで、形状のサイズおよび位置づけは、境界ボックスに関して定義されてよい。例えば、ラインセグメント130は、境界ボックス128(例えば、最も大きな地点のグループを囲んでいる境界ボックス)の内部に内接してよい。ラインセグメント130の長さは、境界ボックス128のサイズに基づいてよい。例えば、ラインセグメント130の長さは、境界ボックス128のより大きい寸法長に対応してよい。他のラインセグメントのサイズおよび他の内接する形状は、後で詳しく述べるように、可能である。
モーションデータは、ラインセグメント130に位置合わせされる地点を用いてサンプリングされてよい。サンプリングされる量は、決まった量(例えば3、64または10,000のサンプル)でよい。または、サンプリングされる量は、ラインセグメント130(例えば、より長いラインセグメントは、より短いラインセグメントに比べてより多くのサンプル地点に結びつていもよい。)の長さに基づいてよい。
サンプリングされるモーションデータに基づいて、ラインセグメント130に沿った手108の最後の検出位置は、決定されてよい。例えば(図1Bに示すように)、ユーザ102が彼らの手108を左(リーダの視点から見て)へ動かす時点t1で、比較的高いモーション履歴データ値が、ラインセグメント130の左側にあってよい。すなわち、ラインセグメント130の左側は、手108のごく最近のモーションを示す値を有してよい。より最近でないモーションは、フィルタにより除去されてもよく、さもなければ、ラインセグメント130に沿ってサンプリングされる地点に閾値160を適用することによって、無視されてよい。閾値未満のモーション履歴データ値を有するサンプリングされる地点は、フィルタリングされてよい。
手108の位置は、残りのフィルタリングされない地点162から、1地点を選択することによって、識別されてよい。例えば、フィルタリングされない地点の領域は、決定されてもよく、そして、その領域の中の中央地点.164(ラインに沿った18%の位置に対応する)は、選択されてよい。地点選択アプローチの他の例は、フィルタリングされない地点を含む領域の端縁上の1地点を選択すること、ランダム地点を選択すること、フィルタリングされない地点の中の最も高いモーション履歴データ値を有する1地点を選択すること、あるいは、フィルタリングされない地点の中の平均モーション履歴データ値に等しいモーション履歴データ値を有する1地点を選択すること、を含む。
手の検出位置は、ラインセグメント130の長さの百分率として表されてよい。例えば、0%の検出位置は、ラインセグメント130の左端の位置に対応する。100%の検出位置は、ラインセグメント130の右端の位置に対応する。手108のウェーブモーションに対応する手の検出位置は、時点t1に対する18%の手の検出位置132、時点t2に対する84%の手の検出位置134および時点t3に対する19%の手の検出位置136を含む。
時間とともに検出される手の位置は、グラフ140にプロットされてよい。例えば、グラフ140は、手の検出位置132〜136にそれぞれ対応するグラフ地点142〜146を含む。グラフ140は、80%の上方閾値位置150および20%の下方閾値位置152を含む。閾値位置150〜152は、ユーザのモーションがウェーブを構成するかどうか決定するために用いられてよい。
例えば、ウェーブを発生させるために、ユーザ102は、彼らの手を下方閾値位置152よりも下(すなわち、例えば時点t1に対応する地点142によって図示される、20%の位置よりも下)まで左へ動かし、その後、上方閾値位置150よりも上(すなわち、例えば時点t2に対応する地点144によって図示される、80%の位置よりも上)まで反対方向へ動かし、そしてその後、少なくとも下方閾値位置152(例えば、時点t3に対応する地点146によって図示される)まで再び左へ動かしてよい。ユーザ102が彼らのモーションを開始する場所に応じて、ウェーブは、ユーザによって、最初に上方閾値位置150を交差することで発生してよい。
グラフ140が正弦曲線パターンを呈する場合、1つ以上のウェーブジェスチャは、検出されてよい。1つのウェーブジェスチャは、正弦曲線の周期に対応してよい。例えば、地点142から地点146までのグラフ部分は、正弦曲線の1周期であり、したがって1つのウェーブジェスチャに対応する。すなわち、ユーザ102が彼らの手108を、左へ、下方閾値位置152を越えて動かしたあと、ウェーブジェスチャは、時点t3で検出される。ユーザが往ったり来たりするジェスチャを続ける場合、マルチプルウェーブジェスチャは、グラフ140の正弦曲線の各周期に対して1つ、検出されてよい。
1つ以上のウェーブジェスチャの検出に応答して、アプリケーションは、コントロールされてよい。例えば、媒体ハブ106で演奏している音楽の音量は、増加されてよい。ジェスチャに応答して実行する機能は、例えば、機能にジェスチャをマップするマッピングデータベースを問合せることによって決定されてよい。検出されるウェーブの数は、実行される機能への入力として提供されてよい。例えば、検出されるウェーブの数は、音量を上げる分量を示してよい。別の例として、ユーザ102は、テレビのチャネルをチャネル番号「5」に切り替えるか、または、「5」のファクタを用いる他の動作を実行するために、媒体ハブ106への入力を提供するために、5回、ウェーブしてよい。媒体機能に加えて、1つ以上のウェーブジェスチャの検出は、例えば参照テーブルを調べた後に、コンピュータに全く任意の機能性を呼び出させてよい。ここで、計数されたウェーブの数は、参照テーブルへの入力として用いられてよい。
図2は、ジェスチャ認識を実現するために用いるデバイス200のブロック図である。つまり、そしてとりわけ、デバイス200は、ユーザーインターフェース201、記憶媒体202、カメラ204、処理装置205および傾斜センサ209を含む。
ユーザーインターフェース201は、ユーザが、デバイス200と、または、デバイス200によって呼び出されるアプリケーションと、相互に作用することができるためのメカニズムである。ユーザーインターフェース201は、ユーザが、デバイスを操作することができるか、または、ユーザによる操作の効果をデバイスに対して生じさせることができるための、入力および出力の両方に対するメカニズムを提供してよい。デバイス200は、任意のタイプのユーザーインターフェース201(例えば、グラフィカルユーザーインターフェース(GUI)、音声ユーザーインターフェース、または触覚ユーザーインターフェース)を利用してよい。
ユーザーインターフェース201は、表示装置の画像を描画するために構成されてよい。例えば、ユーザーインターフェース201は、モニタ、テレビジョン、液晶ディスプレイ(LCD)、プラズマディスプレイ装置、投影用スクリーンを有するプロジェクタ、自動立体ディスプレイ、陰極線管(CRT)ディスプレイ、デジタル光処理(DLP)ディスプレイ、または、表示画像を描画するために構成される他の任意のタイプのディスプレイ装置でよい。ユーザーインターフェース201は、1つ以上のディスプレイ装置を含んでよい。いくつかの機器構成において、ユーザーインターフェース201は、アプリケーションと関連した画像を表示するために構成されてよい。それは例えば、対象物または表現(例えばアバター)を含む、アプリケーションによって生成される画像を表示する。
記憶媒体202は、情報またはデータを格納して記録する。そして、光記憶媒体、磁気記憶媒体、フラッシュメモリ、または他の任意のタイプの記憶媒体でよい。とりわけ、記憶媒体は、辞書210およびジェスチャ認識モジュール214によって符号化される。
辞書210は、デバイス200が認識してよいジェスチャに関する情報を含む。例えば、辞書210は、認識されるジェスチャの各々に対して、ジェスチャの受入れまたは拒否のコントロールに使われてよいさまざまな閾値パラメータまたは基準とともに、ジェスチャ(すなわち線)に対応する形状、サンプリングされるモーション履歴データのグラフが呈すると予想されるパターン、を記述するジェスチャ定義を含んでよい。
ジェスチャ認識モジュール214は、モーションセンサ(例えばカメラ204および/または傾斜センサ209)によって取り込まれるモーションデータを受け止める。そして、認識可能なジェスチャが実行されたかどうか決定するために、受け止められたモーションデータを、辞書210に格納されたモーションデータと比較する。例えば、ジェスチャ認識モジュールは、受け止められたモーションデータに内接する形状に沿って、サンプリングされるモーション履歴データ値をプロットしてもよく、そして、結果として生じるグラフを、辞書210に格納された予想されるグラフと比較してもよい。
カメラ204は、スチール写真または一連の動画として、画像を取り込むために用いるデバイスである。カメラ204は、可視スペクトル光、または、電磁放射スペクトル(例えば赤外線)の他の部分を有する光を用いてよい。例えば、カメラ204は、デジタルカメラ、デジタルビデオカメラ、または、画像を取り込むために構成される他の任意のタイプのデバイスでよい。カメラ204は、1つ以上のカメラを含んでよい。いくつかの実施例において、カメラ204は、対象物、またはアプリケーションとインタラクトしているユーザ、の画像を取り込むために構成されてよい。例えば、カメラ204は、空きスペース(例えばユーザを囲んでいる空気)において物理的にジェスチャをしているか、さもなければカメラ204の視界の中でアプリケーションとインタラクトしているユーザまたは人の画像を取り込むために構成されてよい。
カメラ204は、立体カメラ、飛行時間型カメラ、または他の任意のカメラでよい。例えば、カメラ204は、ユーザのモーションおよび同様にジェスチャを検出するために、背景画像をサンプリングすることができる画像検出器でよい。カメラ204は、グレースケール画像、カラー画像、または距離画像(例えば、距離画像を生成することができる立体カメラまたは飛行時間型カメラ)を作り出してよい。立体カメラは、わずかに異なる視点で画像を取得する2台の画像センサを含んでよい。ここで、処理装置は、画像の部分の距離を算出するために、別々の視点から取得される画像を比較する。飛行時間型カメラは、光(赤外光でよい)のパルスを生成するエミッタを含んでよい。ここで、光のパルスがエミッタから対象物まで伝わり、そしてセンサまで戻り伝わる時間は、画像の部分の距離を算出するために測定される。
デバイス200は、有線または無線経路を通じて、カメラ204およびユーザーインターフェース201に電気的に接続され、かつそれらと通信可能であり、そして、改良されたコントロールを提供するために処理装置205の動作をコントロールするように構成される。1つの機器構成において、デバイス200は、改良されたカメラベースの入力を提供するアプリケーションを実行するために、処理装置205または他の制御回路を用いる。カメラ204が、デバイス200と通信する別個の装置(例えばウェーブカメラ)でよいにもかかわらず、他の実施例では、カメラ204は、デバイス200の内部に組み込まれて、内部バスを介してデバイス200の他のコンポーネント(例えば処理装置205)と通信する。例えば、カメラ204は、テレビジョンまたはセットトップボックスの内部に組み込まれてよい。
デバイス200が、パーソナルコンピュータ(PC)またはセットトップボックスとして記述されたにもかかわらず、この種の説明は、単に簡潔さのためのみに作られ、そして、他の実施例または具現例が予想されもする。例えば、デバイス200は、テレビジョン、ウルトラモバイル・パーソナルコンピュータ(UMPC)、モバイル・インターネットデバイス(MID)、デジタル・ピクチャーフレーム(DPF)、ポータブル・メディアプレーヤ(PMP)、一般的または特殊目的のコンピュータ(例えば、デスクトップコンピュータ、ワークステーション、またはラップトップコンピュータ)、サーバ、ゲームデバイスまたはコンソール、あるいは、命令を実行するために構成される処理装置または他の制御回路を含む他の任意のタイプの電子デバイス、あるいは、ユーザーインターフェースを含む他の任意の装置、として実現されてよい。
1つの実施例において、ジェスチャを実行しているユーザの画像を検出するように、入力は、カメラを用いることによって発生する。例えば、携帯電話は、テーブル上に配置されてもよくて、顔向き(face−forward)カメラを使用しているユーザの画像を生成するように操作可能でよい。例えば、検出される「左スワイプ」ジェスチャは、画像を左へパンしてもよく、そして、検出される「右スワイプ」ジェスチャは、画像を右へパンしてよい。あるいは、ジェスチャは、傾斜センサ209を用いて認識されてもよくまたは検出されてよい。例えば、「左傾斜」ジェスチャを検出することによって、表現を左へ移動して、画像を左へパンするか、または画像を反時計回りに回転させる。あるいは、「前および右傾斜」ジェスチャを検出することによって、中立位置の表現を接近および右へ移動して、ズームインして、画像を右へパンする。
傾斜センサ209は、したがって、デバイス200(例えばジャイロスコープ、アクセロメータまたはカメラベースのオプティカルフロー追尾装置)の角度位置を検出するように操作可能な任意のタイプのモジュールでよい。この点に関して、画像ベースの入力は、ユーザによって要求される機能またはコマンドを実行するために、傾斜センサ入力によって補われてよく、または、傾斜センサ入力と置き換えられてよい。言い換えれば、ユーザのジェスチャの検出は、カメラを使用せずに、または、画像の範囲内でユーザを検出せずに、発生してよい。ユーザがユーザーインターフェース上の画像を操作するために希望するのと同じ種類のストロークパターンのデバイスを動かすことによって、ユーザは、まっすぐな様式における同じインターフェースまたはアプリケーションをコントロールすることが可能になる。
図3は、認識されたジェスチャに応答して、機能性呼び出しを生じさせる、コンピュータ実行プロセス300を示すフローチャートである。簡単にいうと、コンピュータ実行プロセス300は、モーションデータの中で形状を定義すること、定義された形状と位置合わせされる地点でモーションデータをサンプリングすること、サンプリングされたモーションデータに基づいて、時間とともに、定義された形状に沿って移動対象物の位置を決定すること、決定された位置により呈するパターンに基づいて、移動対象物が、定義された形状と関連があるジェスチャを実行しているかどうか決定すること、および、移動対象物がジェスチャを実行していることが決定された場合、アプリケーションをコントロールすること、を含む。
さらに詳細には、プロセス300が開始する(S301)ときに、形状は、モーションデータの中で定義される(S302)。モーションデータは、モーション履歴マップ(例えばマップ120、図1)によって提供される。モーション履歴マップは、時間とともに撮られるユーザの複数の画像から作られてよい。モーション履歴マップは、時間とともにユーザのモーションを示してもよく、モーションデータを提供してよい。そしてそれは、画像の各地点に対して、移動対象物がその地点で検出されてからの時間の指示を含む。形状は、ユーザーインターフェース上で形状またはモーションのデータのいずれかを視覚化することのない、モーションデータの中で定義されてよい。
モーションデータは、モーションを有するために決定される隣接点のグループを含んでよい。地点のグループごとに、境界ボックスは、グループ周辺で定義されてよい。意図的なジェスチャは、意図的でないジェスチャに比べてより大きな地点のグループに、一般に結びつくので、いくつかの実施例では、ジェスチャ検出のために、ジェスチャ候補と関連した、最も大きな地点のグループのみが、考慮されてよい。他のアプローチにおいて、しかしながら、より小さい地点のグループが最初に考慮され、地点のグループの各々は、同時に考慮され、または、グループの各々は、サイズまたは他の基準に基づいて順番に考慮される。
形状(例えばラインセグメント)は、モーションデータの内部に内接してよい。ここで、形状のサイズおよび位置づけは、最大の境界ボックスに関して定義されてよい。例えば、図4に示すように、境界ボックス406の中心404を通過する水平ラインセグメント402は、定義されてよい。ラインセグメント408またはラインセグメント410のような、他のラインセグメントは、定義されてよい。ラインセグメント408は、境界ボックス406の内部の地点のグループの中にフィットすることができる最も長いラインセグメントである。ラインセグメント410は、境界ボックス406の内部の地点のグループの中にフィットすることができる最も長い水平ラインセグメントである。アーク412のような、他の形状は、定義されてよい。アーク412は、往ったり来たりするウェーブをしているユーザの手のわずかにカーブするモーションに似ていてよい。
図3に一旦戻って、形状が定義されたあと、モーションデータは、定義された形状(S304)に位置合わせされる地点でサンプリングされる。例えば、サンプリングする地点は、内接するラインセグメントの端縁部に沿って位置つけられてよい。サンプリングされる量は、一定の量(例えば1000のサンプル)でよい。または、サンプリングされる量は、形状のサイズ(例えば、より大きな形状は、より小さい形状に比べてより多くのサンプリングする地点に結びついてよい。)に基づいてよい。サンプリングされる地点は、一定の距離および/または予め定められた距離だけ互いに離れた距離でよい。いくつかの実施例において、特定のジェスチャが少なくとも1回認識されたあと、より小さいサンプルサイズが使われてよい。
モーションデータがサンプリングされたあと、定義された形状に沿った移動対象物の位置は、サンプリングされるモーションデータに基づいて、時間とともに決定される(S306)。例えば、定義されたラインセグメントに沿った手の位置は、決定されてよい。ユーザの手の最後の位置の領域においてサンプリングされる地点は、比較的高いモーションデータ履歴値(例えば、ユーザの手のごく最近のモーションを示している)を一般に有する。より最近でないモーションは、フィルタにより除去されてもよく、さもなければ、ラインセグメントに沿ってサンプリングされる地点に閾値テストを適用することによって、無視されてよい。閾値未満のモーション履歴データ値を有するサンプリングされる地点は、フィルタリングされてよい(図1B参照)。
ユーザの手の最新の位置は、残りのフィルタリングされない地点から、1地点を選択することによって、識別されてよい。例えば、フィルタリングされない地点の領域は、決定されてもよく、そして、その領域の中の中央地点.は、選択されてよい。地点選択アプローチの他の例は、フィルタリングされない地点を含む領域の端縁上の1地点を選択すること、ランダム地点を選択すること、フィルタリングされない地点の中の最も高いモーション履歴データ値を有する1地点を選択すること、あるいは、フィルタリングされない地点の中の平均モーション履歴データ値に等しいモーション履歴データ値を有する1地点を選択すること、を含む。
手の検出位置は、ラインセグメントの長さの百分率として表されてよい。例えば、0%の検出位置は、ラインセグメントの左端の位置に対応してよい。100%の検出位置は、ラインセグメントの右端の位置に対応してよい。検出位置は、検出位置の履歴に格納されてよい。モーションデータの中の形状の定義が動的であるので、以前に0%または100%として指定された形状の端点を過ぎたユーザの手モーションは、その形状を延長させ、および、より極端な手の位置を新たな0%または100%の位置として指定させる。
移動対象物の位置が決定されたあと、移動対象物が、決定された位置によって呈されるパターンに基づいて、定義された形状と関連があるジェスチャを実行しているかどうかが、決定される(S308)。例えば、決定された手の位置は、グラフ(例えばグラフ140、図1)にプロットされてよい。グラフの形状は、特定の定義されたジェスチャが実行されるときに、発生すると予想されるグラフ形状のパターンと比較されてよい。例えば、正弦曲線パターンまたは段階的な正弦曲線パターンは、ウェーブジェスチャの実行の結果として、予想されてよい。
例えば、図5に示すように、グラフ500は、正弦曲線パターンを呈する。グラフ500は、時間とともに検出されたプロットされた手の位置502〜532を表示する。グラフ500は、7つの正弦曲線の周期を含む。従って、最高7つのウェーブジェスチャは、検出されてよい。一例の正弦曲線の周期は、プロットされた位置502〜506の間に存在する。
さまざまなテストは、1つ以上の受け入れ可能な正弦曲線パターンが呈されるかどうか決定するために、グラフ500上に実行されてよい。例えば、テストは、正弦曲線の周期が、下方閾値位置540(例えば位置502)以下で第1のプロットされた手の位置を含むかどうか、そして、上方閾値位置542(例えば位置504)以上で第2のプロットされた手の位置が続くかどうか、そして、下方閾値位置540(例えば位置506)以下で第3のプロットされた手の位置が続くかどうか、を決定するために実行されてよい。例えば、以下の正弦曲線の周期(1組のプロットされた手の位置として記述される)は、この種のテスト502〜506、506〜510、510〜514、514〜518、518〜522、522〜526、526〜530に基づいて受け入れ可能とみなされてよい。
ウェーブジェスチャに対応するとして受け入れらなくてよい正弦曲線の周期の例は、図6のグラフ600に示される。グラフ600は、時間とともに手の検出位置をプロットする。プロットされた手の位置602〜606は、正弦曲線の周期を構成する。プロットされた手の位置602は、それが下方閾値位置610よりも下にあるので、受け入れらなくてもよく、および、プロットされた手の位置604は、それが上方閾値位置612よりも上にあるので、受け入れられてよい。しかしながら、プロットされた手の位置606は、それが下方閾値位置610よりも上にあるので、受け入れられなくてよい。プロットされた手の位置602〜606は、ユーザの手が、最初に彼らの身体の近く(すなわち位置602)にあり、その後、ユーザが彼らの手を身体から離すように動かし(すなわち位置604)、それから、彼らの手を身体に向かって途中まで戻し動かした(すなわち位置606)、状況に対応してよい。換言すれば、プロットされた位置606が、下方閾値位置610を交差しなかったことから、ユーザがウェーブジェスチャを「完了しなかった」と決定してよい。
潜在的に受け入れられない正弦曲線の周期の他の例は、プロットされた手の位置614、616および602を含む正弦曲線の周期である。プロットされた手の位置614は、それが下方閾値位置610よりも下にあるので、受け入れられてよい。プロットされた手の位置616は、しかしながら、それが上方閾値位置612よりも上にないので、受け入れられなくてよい。プロットされた手の位置602は、それが下方閾値位置610よりも下にあるので、受け入れられてよい。プロットされた手の位置614、616および602は、ユーザがウェーブジェスチャを「完了しなかった」状況に対応する。換言すれば、ユーザの手は、最初に彼らの身体の近く(すなわち位置614)にあった。そしてその後、ユーザは、彼らの手を身体から離すように、しかし途中までのみ動かし(すなわち位置616)、それから、彼らの手を身体に向かって戻し動かした(すなわち位置602)。
他の閾値テストは、実行されてよい。例えば、ウェーブの周期の幅は、テストされてよい。正弦曲線の周期が、とても狭いかとても広い場合、正弦曲線の周期は、ウェーブジェスチャに対応しないとして受け入れられなくてよい。例えば、図6にプロットされた手の位置618、620および622間に示される正弦曲線の周期のように、広い正弦曲線の周期は、ユーザが、彼らの手をゆっくり往ったり来たり動かしていることに対応してよい。手の位置618〜622間の正弦曲線の周期がウェーブを構成するかどうかは、閾値の値に依存してよい。
例えば、3秒の閾値が、使われてよい。地点622、618間の時間差は、算出されてもよく、そして、閾値と比較されてよい。時間差が閾値を超える場合、正弦曲線の周期は、ユーザがウェーブジェスチャを完了するのに手間どりすぎているため、ウェーブジェスチャに対応しないとして拒否されてよい。別の例として、地点514、510間で算出される時間差(例えば2秒)が閾値(例えば3秒)未満である場合、図5の地点510〜514間の正弦曲線の周期は、ウェーブジェスチャに対応するとして受け入れられてよい。
完了するのにおそらく長くかかりすぎているウェーブジェスチャの他の例は、図7に示される。ユーザは、彼らの手704を使用してウェーブジェスチャ702を作る。ユーザが時点t1で彼らの手704を右へ動かしたあと、ユーザは、時点t2、t3およびt4の間、休止する(例えば、彼らの手704を保持する。)。そしてそれから、時点t5で彼らの手704を左へ動かす。グラフ706は、時間とともに手の検出位置をプロットする。グラフ706の正弦曲線の形状を広げている、グラフ706の上部平坦域(t4〜t1に対応)での連続的な同値の位置のため、ジェスチャ702は、タイミング閾値を上回ることに基づいて拒否されてよい。
図5、6のグラフに沿ったさまざまな位置は、閾値テストのために使われてよい。すでに述べられるように、テストは、正弦曲線の周期のピーク間および/または谷間の時間差を算出することによって実行されてよい。時間差および他の計算もまた、他の位置に基づいて実行されてよい。例えば、計算は、正弦曲線の周期が、最初に上方向に向かって上方閾値位置(例えば542)を横切る場所(例えば位置550)と、正弦曲線の周期が、同じ方向に前と同様に上方閾値位置を横切る場所(例えば552)との比較に基づいて、実行されてよい。別の例として、閾値テストは、グラフが、一方向に閾値位置を横切る(例えば、位置552で示すように、上方向に向かって上方閾値位置542を横切る)場所と、グラフが、反対方向に同じ閾値位置を横切る(例えば、位置554で示すように)場所との比較に基づいてよい。
グラフの部分は、複数の理由のために1つ以上のウェーブジェスチャに対応するとして、拒否されてよい。例えば、図6で、位置622、614、604間のグラフ部分624は、上方閾値位置612よりも上の値(例えば、位置622で)、下方閾値位置610よりも下の値(例えば、位置614で)、および、上方閾値位置612よりも上の別の値(例えば、位置604で)、を有する。上下の閾値位置を交差させるための基準をおそらく満たすとはいえ、グラフ部分624は、多数の他の理由のために拒否されてよい。
例えば、位置604および622に基づくタイミングのずれは、閾値を上回ってよい。換言すれば、ユーザが2度目に彼らの手を完全に右へ動かすのに、長くかかりすぎたとしてよい。グラフ部分624もまた、方向性の条件に背くため、拒否されてよい。位置626は、ユーザが、下方閾値位置610を交差させる前に方向を反転させたことを示す。そして、位置628は、ユーザが、上方閾値位置612を交差させる前に同様に方向を反転させたことを示す。
図8は、ユーザが、彼らの手を側方へ動かし切る前に方向を反転させるシナリオを示す。ユーザは、彼らの手804によって往ったり来たりするジェスチャ802をする。ユーザは、時点t1で彼らの手804を右へ動かしていて、それから、時点t2で彼らの手804を左へ動かす。しかしながら、左へざっと中間まで戻りながら、時点t3で、彼らの手804を時点t4で左へ動かすよりも前に、ユーザは、彼らの手804を右へ短時間戻し動かす。時点t5で、ユーザの手804は、遠い左にある。グラフ806は、ジェスチャ802に対応する手の検出位置をプロットする。グラフ806は、十分な高さに達していないピーク808(時点t3でのユーザの方向反転に対応する)、および/または、十分な低さに達していない谷810(時点t3でのユーザの方向反転に対応する)に起因する正弦曲線パターンにマッチングするとして、拒否されてよい。
図3に戻ると、定義されたジェスチャは、一回の動作の形状であってよい。ジェスチャは、英数字の文字(例えば「O」、「8」)、または、一部の他のシンボルまたは機能(例えば無限のシンボル)を示してよい。一般に、ジェスチャは、考え、意見、感情、コミュニケーション、命令、デモンストレーション、または表現などを表す動き、位置、ポーズ、または姿勢のことをいうように意図される。ユーザは、ハンドヘルドのデバイスを支えている間にジェスチャを行ってもよく、または、ユーザは、ユーザの身体の一部の上にデバイスを身に付ける一方で、1つ以上の身体の部分を用いてジェスチャしてよい。例えば、ユーザのジェスチャは、単一または複数の指のジェスチャ、単一の手のジェスチャ、単一の手および腕のジェスチャ、単一の点および腕ならびに体のジェスチャ、両手のジェスチャ、頭のポーズまたは姿勢、眼の位置、表情、体のポーズまたは姿勢、あるいは、任意の他の表現上の体の状態であってよい。
ユーザのジェスチャは、エネーブリングまたは「エンゲージメント」ジェスチャを表してよい。エンゲージメントジェスチャは、特定の手のポーズまたはあらかじめ決められた時間量の間に保持されるジェスチャによって表現される手の動きの連続であってよい。1つの例としてのエンゲージメントジェスチャは、ユーザが3秒間、ハンドヘルドのデバイスを動かさないで保持することである。別の例は、ユーザの顔の前でユーザの腕を伸ばすことでハンドヘルドのデバイスを支える間に、ユーザの頭の前で腕を円形に動かしてなされる円形の手の動きである。別の例として、エンゲージメントジェスチャは、ユーザがデバイスを揺さぶることであってよい。実質的には、エンゲージメントジェスチャは、ユーザが、生じるべきさらなる入力に対して準備ができているデバイスに特定される。エラーを低減させるために、エンゲージメントジェスチャは、型にはまらないジェスチャであってよく、例えば、通常の会話の間でのボディーランゲージで意識的にはなされないジェスチャ、または通常の人間の行為の通常の振る舞いにおいてなされないジェスチャであってよい。
ユーザの考え、意見、感情、コミュニケーション、命令、デモンストレーション、または表現を定義するジェスチャが派生されてよい。例えば、ユーザのジェスチャは、単一または複数の指のジェスチャ、単一の手のジェスチャ、単一の手および腕のジェスチャ、単一の点および腕ならびに身体のジェスチャ、両手のジェスチャ、頭のポーズまたは姿勢、眼の位置、表情、身体のポーズまたは姿勢、あるいは、任意の他の表現上の身体の状態であってよい。
簡略的には、関連のジェスチャを行うために用いられる身体の一部または複数の部分は、一般に、「制御対象」と呼ばれる。例えば、ユーザは、身体全体または他の物理的な部分を用いて命令を表現してよく、この場合、ユーザの身体全体または他の物理的な部分は制御対象であってよい。ユーザは、眼をパチクリすることによって、鼻を鳴らすことで、または指をくねくねさせることによって、命令をさらに微妙に表現してよく、この場合、まぶた、鼻、または指は制御対象であってよい。制御対象はまた、例えば、いくつか例を挙げれば、赤外線の指の光、携帯装置、腕時計、レトロリフレクタ、または遠隔制御等の物理的なデバイスであってよい。
モーションデータからユーザのジェスチャを決定する多くの方法が存在する。例えば、「空に円を描く」、または「手を一方の側にスワイプする」のジェスチャは、手、腕、身体、頭、または他の対象の位置情報を用いて、ジェスチャ分析および検出プロセスによって検出されてよい。例えば、スワイプのジェスチャがなされた場合、ジェスチャが2次元または3次元の位置の置換を含んでもよく、他の例においては、ジェスチャは、同時の位置の置換なしの変化を含む。例えば、5本の伸ばした指と手のひらとを前面にして手が「止まれ」の合図をしている場合、たとえ、手または腕の全体の位置が静止している場合であっても、手のひらを前面にしたままで5本全ての指が引っ込められる場合、ユーザのジェスチャは変化する。
ジェスチャは、例えば、手またはデバイスの位置情報が明確な一連のルールをパスするかどうかを決定することによる、発見的な技術を用いて検出されてよい。例えば、「手を一方の側にスワイプする」のジェスチャは、以下のジェスチャの検出ルールが満たされた場合に識別されてよい。(1)水平位置における変化が、あらかじめ決められた限度未満である、ある期間に亘るあらかじめ決められた距離よりも大きい。(2)水平位置がその期間に亘って単調に変化する。(3)垂直位置における変化が、その期間に亘るあらかじめ決められた距離未満である。(4)その期間の終わりの位置が、その期間の開始の位置よりも、手の検出領域の境界により近い(または境界上)。
一部のジェスチャは、明確な命令において実行されかつ満たされる複数の一連のルールを利用し、ここで、一連のルールを満たすと、システムは、異なる一連のルールが適応される状態へと変化する。このシステムは、微妙なジェスチャを検出することができない場合があり、この場合、隠れマルコフモデルを使用してもよく、というのも、これらのモデルは、検出される一連の特定のモーションを可能にし、また、モーションが十分にジェスチャにフィットする全体の確率を想定するからである。
複雑なコマンドの入力を可能にし、かつ複数の入力オプションを増加させるために、ユーザのジェスチャを認識するためのプロセスが、第1の方向における第1の転置を認識する工程、および第2の方向における第2の転置を認識する工程、ならびに、単一のジェスチャとして、これらの複数の転置を集約する工程をさらに含んでよい。さらに、ユーザのジェスチャの認識は、ユーザのジェスチャの大きさおよび方向を決定してよい。
図3に戻ると、移動する対象物がジェスチャを行ったと決定された場合、アプリケーションがコントロールされ(S310)、それによりプロセス300を終了する(S312)。いくつか例を挙げると、音量がメディアプレーヤ上で上げられてよく、アプリケーションが始動されてよく、アプリケーションまたはデバイスが終了されてよく、あるいは、eメールのメッセージが送られてよい。ジェスチャに応じて実行するための機能は、例えば、ジェスチャを複数の機能にマッピングするマッピングデータベースを問い合わせる(クエリ)ことによって決定されてよい。検出されるウェーブの数は、実行された機能への入力として提供されてよい。例えば、検出されたウェーブの数は、「スピード−ダイヤル」機能への入力として提供されてよく、ここでウェーブの回数が、通話またはテキストメッセージ受信者を同定する。
図9は、正方形ジェスチャ901の検出を示す。ユーザ902は、カメラ904および媒体ハブ906の前に立っている。ユーザ902は、正方形ジェスチャ901の中において、彼らの左手908を動かす。時点t0と時点t2との間に、ユーザ102は、右から左へ(リーダの視点から見て)彼らの手908を動かす。時点t2と時点t4との間に、ユーザ102は、下方へ向かって彼らの手908を動かす。時点t4と時点t8との間に、ユーザ102は、左から右へ彼らの手908を動かす。時点t6と時点t8との間に、ユーザ102は、時点t0で始まったところでの手908の終わりをともなって、上方へ向かって彼らの手908を動かす。
モーション履歴マップ910は、境界ボックス914の内部に、被検出地点のグループ912を含む。ラインセグメント916〜922は、被検出地点のグループ912に内接している。ラインセグメント916〜922の各々に対して、手の検出位置は、時間とともに検出されてよい。ラインセグメント916〜922のうちの1つと関連した各グラフ924〜930については、手の検出位置は、グラフ924〜930にプロットされてよい。
例えば、グラフ924は、水平ラインセグメント916(すなわち、正方形のジェスチャ901の最上側に対応する)に沿って検出される手の位置をプロットする。グラフ926は、垂直ラインセグメント918(すなわち、正方形のジェスチャ901の左側に対応する)に沿って検出される手の位置をプロットする。グラフ928は、水平ラインセグメント920(すなわち、正方形のジェスチャ901の下側に対応する)に沿って検出される手の位置をプロットする。グラフ930は、垂直ラインセグメント922(すなわち、正方形のジェスチャ901の右側に対応する)に沿って検出される手の位置をプロットする。
グラフ924は、時間とともに、水平ラインセグメント916に沿って検出される手の位置を図示する。「0%」の位置の値が、ラインセグメント916の右端における位置を示し、かつ、「100%」の位置の値が、ラインセグメント916の左端における位置を示すように、位置は定義されてよい。例えば、グラフ924に示すように、時点t0で、ユーザの手908は、ラインセグメント916の右端(すなわち0%の位置)にあり、そして、時点t2で、ユーザの手は、ラインセグメント916の左端(すなわち100%の位置)にある。時点t8で、ユーザの手908は、ラインセグメント916の右端(すなわち0%の位置)において、前と同じように検出される。
グラフ926は、時間とともに、垂直ラインセグメント918に沿って検出される手の位置を図示する。「0%」の位置の値が、ラインセグメント918の最も上側における位置を示し、かつ、「100%」の位置の値が、ラインセグメント918の最も下側における位置を示すように、位置は定義されてよい。例えば、グラフ926に示すように、時点t2で、ユーザの手908は、ラインセグメント918の最も上側(すなわち0%の位置)にあり、そして、時点t4で、ユーザの手908は、ラインセグメント918の最も下側(すなわち100%の位置)にある。
グラフ928は、時間とともに、水平ラインセグメント920に沿って検出される手の位置を図示する。「0%」の位置の値が、ラインセグメント920の左端における位置を示し、かつ、「100%」の位置の値が、ラインセグメント920の右端における位置を示すように、位置は定義されてよい。例えば、グラフ928に示すように、時点t4で、ユーザの手908は、ラインセグメント920の左端(すなわち0%の位置)にあり、そして、時点t8で、ユーザの手908は、ラインセグメント920の右端(すなわち100%の位置)にある。
グラフ930は、時間とともに、垂直ラインセグメント922に沿って検出される手の位置を図示する。「0%」の位置の値が、ラインセグメント922の最も下側における位置を示し、かつ、「100%」の位置の値が、ラインセグメント922の最も上側における位置を示すように、位置は定義されてよい。例えば、グラフ930に示すように、時点t6で、ユーザの手908は、ラインセグメント922の最も下側(すなわち0%の位置)にあり、そして、時点t8で、ユーザの手908は、ラインセグメント922の最も上側(すなわち100%の位置)にある。
グラフ924〜930の1組は、正方形のジェスチャ901が実行されたかどうか決定するために調べられてよい。すなわち、グラフ924〜930の各々は、各グラフが、正方形のジェスチャ901のそれぞれの側に対応するサブジェスチャが発生したことを示すかどうか(例えば、グラフによって示されるパターンを、予想されるグラフ・パターンと比較することによって)決定するために、調べられてよい。グラフ924〜930の各々が、サブジェスチャが発生したことを示す場合、そして、グラフ924〜930が、タイミングの考慮に関して互いに並ぶ場合、正方形のジェスチャ901の検出に関して、全体の決定がなされてよい。正方形のジェスチャが検出される場合、アプリケーションはコントロールされてよい。例えば、ユーザ902と関連した接触リストにおける個人の呼び出しを設定する。
図10は、実行されたウェーブジェスチャと関連したモーション履歴マップ1002を含むユーザーインターフェース1000である。ラインセグメント1004は、検出モーションを示している地点を囲む境界ボックスの内部に内接する。グラフ1006は、時間とともに、ラインセグメント1002に沿ってユーザの手の検出位置を表示する。グラフ1006の形状は、ウェーブジェスチャが検出されていない(おそらく1つ以上の閾値テストの不良のため)ことをウェーブ計数ラベル1008が示す、正弦曲線パターンにやや似て見える部分を有する。
ユーザーインターフェース1000は、ジェスチャ検出を構成するために用いられてよい制御部を含む。例えば、制御部1010は、モーション履歴値が減衰する前に、時間の長さをコントロールする持続時間値を定義するために用いられてよい。別の例として、制御部1012は、ウェーブジェスチャに含まれる「スワイプ」(すなわち往ったり来たりするモーションにおける一側へのモーション)の必要とされる回数を定義するために用いられてよい。
他の構成のコントロール例は、上下のウェーブ閾値1014〜1016およびタイミング受入部1018を含む。上下のウェーブ閾値1014〜1016は、ウェーブセグメントとして計数するためにモーション履歴データが通過してよい、上方(および下方)の百分率である。タイミング受入部1018は、ウェーブの各セグメントがそれによって判断されてよい乗算器である。0.1のタイミング受入値1018については、ウェーブセグメントは、他のウェーブセグメントの平均の90%〜110%の範囲内であることを要求されてよい。0.2のタイミング受入値1018については、ウェーブセグメントは、80%〜120%の範囲内にあることを要求されてよい。換言すれば、より小さいタイミング受入値1018は、より良好なタイミングの整合性に対応する。
図11は、実行されたウェーブジェスチャと関連したモーション履歴マップ1102を含むユーザーインターフェース1100である。ラインセグメント1104は、検出モーションを示している地点を囲む境界ボックスの内部に内接する。グラフ1106は、時間とともに、ラインセグメント1102に沿ってユーザの手の検出位置を表示する。グラフ1106の部分は、正弦曲線パターンを呈する。ウェーブ計数ラベル1108は、6つのウェーブジェスチャが検出されたことを示す。
図12は、コンピューティングデバイス1200、1250のブロック図であり、コンピューティングデバイスは、クライアントとして、あるいは、1つのサーバまたは複数のサーバとして、本明細書において記述されるシステムおよび方法を実現するために用いてよい。コンピューティングデバイス1200は、デジタルコンピュータ(例えば、ラップトップ、デスクトップ、ワークステーション、パーソナル携帯情報機器、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータ)のさまざまな形態を表現することを意図とする。コンピューティングデバイス1250は、モバイル機器(例えば、パーソナル携帯情報機器、移動電話、多機能電話、および他の同様のコンピューティングデバイス)のさまざまな形態を表現することを意図する。この場合に示されるコンポーネント、それらの接続および関係、ならびにそれらの機能は、例示的のみとされており、本明細書において記述されておよび/または請求されるアプローチの実施例を制限することを意図しない。
コンピューティングデバイス1200は、処理装置1202、メモリ1204、記憶装置1206、メモリ1204および高速拡張ポート1210に接続している高速インターフェース1208、ならびに、低速バス1214および記憶装置1206に接続している低速インターフェース1212を含む。コンポーネント1202、1204、1206、1208、1210、1212の各々は、さまざまなバスを用いて相互接続されて、共通のマザーボード上に、または適切な他の方法において、搭載されてよい。処理装置1202は、外部入力/出力装置(例えば、高速インターフェース1208に接続されるディスプレイ1216)上のGUIのためのグラフィック情報を表示するために、メモリ1204または記憶装置1206に保存される命令を含む、コンピューティングデバイス1200の中の実行のための命令を処理してよい。他の実施例では、マルチプルメモリおよびさまざまなタイプのメモリとともに、必要に応じて、マルチ処理装置および/またはマルチプルバスが用いられてよい。また、必要な動作の部分を提供している各デバイス(例えば、サーババンク、一群のブレードサーバ、またはマルチ処理装置・システムのような)については、マルチプル・コンピューティングデバイス1200は、接続されてよい。
メモリ1204は、コンピューティングデバイス1200の内部に情報を格納する。一実施例では、メモリ1204は、コンピュータ可読媒体である。一実施例では、メモリ1204は、1つまたは複数の揮発性記憶装置である。他の実施例において、メモリ1204は、1つまたは複数の不揮発性記憶装置である。
記憶装置1206は、大容量記憶域をコンピューティングデバイス1200に提供することができる。一実施例では、記憶装置1206は、コンピュータ可読媒体である。さまざまな別々の実施例において、記憶装置1206は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリまたは他の同様の固体メモリデバイス、あるいは、記憶領域ネットワークまたは他の機器構成におけるデバイスを含むデバイスアレイ、でよい。一実施例では、コンピュータプログラム製品は、情報担体において明らかに実現される。コンピュータプログラム製品は、実行されるときに、1つ以上の方法(例えば上記したもの)を実行する命令を収容している。情報担体は、コンピュータ可読媒体または機械で読み取り可能な媒体(例えばメモリ1204、記憶装置1206、または処理装置1202上のメモリ)である。
高速コントローラ1208は、コンピューティングデバイス1200のためのバンド幅集約型の動作を管理し、一方、低速コントローラ1212は、より小さいバンド幅集約型の動作を管理する。デューティのこの配分は、例示的のみである。一実施例では、高速コントローラ1208は、メモリ1204、ディスプレイ1216(例えば、グラフィック処理装置またはアクセラレータを通して)、および高速拡張ポート1210に接続される。そしてそれは、さまざまな拡張カード(図示せず)を受け入れてよい。実施例において、低速コントローラ1212は、記憶装置1206および低速拡張ポート1214に接続される。さまざまな通信ポート(例えばUSB、ブルートゥース、イーサネット(登録商標)、無線イーサネット(登録商標))を含んでよい低速拡張ポートは、1つ以上の入出力装置(例えばキーボード、ポインティングデバイス、スキャナ、またはネットワーク・デバイス(例えばネットワークアダプタを通じたスイッチまたはルーター))に接続されてよい。
図に示すように、コンピューティングデバイス1200は、多くの別々の形態で実現されてよい。例えば、それは、標準サーバ1220として、または、この種のサーバのグループにおける複数の処理回数として、実現されてよい。それは、また、ラック・サーバーシステム1224の一部として実現されてよい。加えて、それは、パーソナルコンピュータ(例えばラップトップコンピュータ1222)において実現されてよい。あるいは、コンピューティングデバイス1200からのコンポーネントは、モバイル機器(図示せず)(例えばデバイス1250)の他のコンポーネントと組み合わされてよい。この種のデバイスの各々は、1つ以上のコンピューティングデバイス1200、1250を収容してよい。そして、システム全体は、互いに通信しているマルチプル・コンピューティングデバイス1200、1250から構成されてよい。コンピューティングデバイス1200は、コンピューティングデバイス1200のモーションまたは位置を検出するかまたは検知するように構成される、1つ以上のセンサ(図示せず)(例えばジャイロスコープ、カメラ、またはGPS(全地球測位衛星)追尾装置)を含んでよい。
コンピューティングデバイス1250は、他のコンポーネントの中で、処理装置1252、メモリ1264、入出力装置(例えばディスプレイ1254)、通信インターフェース1266、およびトランシーバ1268、を含む。デバイス1250は、また、追加の記憶機構を提供するために、記憶装置(例えばマイクロ駆動装置または他のデバイス)とともに提供されてよい。コンポーネント1202、1204、1206、1208、1210、1212の各々は、さまざまなバスを用いて相互接続される。そして、コンポーネントのいくつかは、共通のマザーボード上に、または適切な他の方法において、搭載されてよい。コンピューティングデバイス1200は、コンピューティングデバイス1200のモーションまたは位置を検出するかまたは検知するように構成される、1つ以上のセンサ(図示せず)(例えばジャイロスコープ、カメラ、またはGPS(全地球測位衛星)追尾装置)を含んでよい。
処理装置1252は、コンピューティングデバイス1250の内部で、メモリ1264に保存される命令を含む実行のための命令を処理してよい。処理装置は、また、別個のアナログおよびデジタル処理装置を含んでよい。処理装置は、例えば、ユーザーインターフェースのコントロールのような、コンピューティングデバイス1250の他のコンポーネントの調整のために、コンピューティングデバイス1250によって動作するアプリケーション、およびコンピューティングデバイス1250による無線通信を提供してよい。
処理装置1252は、制御インターフェース1258および、ディスプレイ1254に接続される表示インターフェース1256を通じて、ユーザと情報交換してよい。ディスプレイ1254は、例えば、TFT液晶ディスプレイまたはOLEDディスプレイ、あるいは他の適切な表示技術であってよい。表示インターフェース1256は、ユーザにグラフィックおよび他の情報を提示するようにディスプレイ1254を駆動させるための適切な回路を含んでよい。制御インターフェース1258は、ユーザからコマンドを受け止めて、そして、処理装置1252に発信するためにそれらを変換してよい。加えて、コンピューティングデバイス1250による他のデバイスとの近いエリアの通信を可能にするように、外部インターフェース1262は、処理装置1252との通信に提供されてよい。外部インターフェース1262は、例えば、有線通信(例えば、ドッキング手順を介する)のために、あるいは、無線通信(例えば、ブルートゥースまたはこの種の他の技術を介する)のために、提供されてよい。
メモリ1264は、コンピューティングデバイス1250の内部で情報を格納する。一実施例では、メモリ1264は、コンピュータ可読媒体である。一実施例では、メモリ1264は、1つまたは複数の揮発性記憶装置である。他の実施例において、メモリ1264は、1つまたは複数の不揮発性記憶装置である。増設メモリ1274もまた、提供されてもよく、そして、拡張インターフェース1272を通じてコンピューティングデバイス1250に接続されてよい。そしてそれは、例えば、SIMMカード・インターフェースを含んでよい。この種の増設メモリ1274は、追加の記憶空間をコンピューティングデバイス1250に提供してもよく、または、コンピューティングデバイス1250のためのアプリケーションまたは他の情報を格納してよい。具体的には、増設メモリ1274は、上記のプロセスを実行するかまたは補うために命令を含んでもよくて、そして、保証された情報も含んでよい。したがって、例えば、増設メモリ1274は、コンピューティングデバイス1250用のセキュリティモジュールとして提供されてもよく、そして、コンピューティングデバイス1250の保証された使用ができるようにする命令をともなってプログラムされてよい。加えて、保証されたアプリケーションは、例えば、SIMMカードに関する情報を、ハッキングできない方法で識別するような追加情報とともに、SIMMカードを介して提供されてよい。
後述するように、メモリは、例えば、フラッシュメモリおよび/またはMRAMメモリを含んでよい。一実施例では、コンピュータプログラム製品は、情報担体において明らかに実現される。コンピュータプログラム製品は、実行されるときに、1つ以上の方法(例えば上記したもの)を実行する命令を収容している。情報担体は、コンピュータ可読媒体または機械で読み取り可能な媒体(例えばメモリ1264、増設メモリ1274、または処理装置1252上のメモリ)である。
コンピューティングデバイス1250は、通信インターフェース1266を通じて無線で通信してよい。そしてそれは、必要な場合、デジタル信号処理回路を含んでよい。通信インターフェース1266は、さまざまなモードまたはプロトコル下の通信(例えば、GSM(登録商標)音声通話、SMS、EMSまたはMMSメッセージ送信、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、または中でもGPRS)を提供してよい。この種の通信は、例えば、高周波トランシーバ1268を通して発生してよい。加えて、例えばブルートゥース、WiFi、またはこの種の他のトランシーバ(図示せず)を使用して、短距離通信は、発生してよい。加えて、GPS受信モジュール1270は、コンピューティングデバイス1250に追加的な無線データを提供してよい。そしてそれは、コンピューティングデバイス1250で動作しているアプリケーションによって適切に使用されてよい。
コンピューティングデバイス1250は、音声コーデック1260を用いて聞こえるように通信してよい。そしてそれは、ユーザから口頭の情報を受け止めて、それを使用可能なデジタル情報に変換してよい。音声コーデック1260は、例えば、コンピューティングデバイス1250のハンドセットにおけるスピーカを通じて、ユーザのための可聴音を同様に生成してよい。この種の音は、音声電話からの音を含んでもよく、記録された音(例えばボイスメッセージ、音楽ファイル等)を含んでもよく、そして、コンピューティングデバイス1250上で動作しているアプリケーションによって生成される音をも含んでよい。
図示するように、コンピューティングデバイス1250は、多くの別々の形態で実現されてよい。例えば、それは、移動電話1280として実現されてよい。それはまた、多機能電話1282、パーソナル携帯情報機器、または他の同様のモバイル機器の一部として実現されてよい。
本明細書に記載されたシステムおよび技術のさまざまな実施は、デジタル電子回路網、集積回路網、特定用途に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせにおいて実現されてよい。これらのさまざまな実施は、記憶システムからデータおよび命令を受信し、かつ記憶システムへデータおよび命令を送信する(特定用途または汎用であってよい)少なくとも1つのプログラマブル処理装置、少なくとも1つの入力デバイス、ならびに少なくとも1つの出力デバイスを含むプログラマブルシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムにおける実施を含んでよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られる)は、プログラマブル処理装置に対する機械命令を含み、ハイレベルの手続き型言語および/またはオブジェクト指向のプログラミング言語、ならびに/またはアセンブリ言語/機械言語において実施されてよい。本明細書において用いられるように、用語「機械可読媒体」、「コンピュータ可読媒体」とは、機械可読信号としての機械命令を受信する機械可読媒体を含む、機械命令および/またはデータをプログラマブル処理装置に提供するために用いられる任意のコンピュータプログラム製品、装置および/またはデバイス(例えば、磁気ディスク、光学ディスク、メモリ、プログラマブルロジックデバイス(PLD)など)のことをいう。用語「機械可読信号」とは、機械命令および/またはデータをプログラマブル処理装置に提供するために用いられる任意の信号のことをいう。
ユーザとの相互遣り取りを提供するために、本明細書に記載されたシステムおよび技術は、情報をユーザに表示するためのディスプレイ装置(例えばCRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)、ならびに、ユーザが入力をコンピュータに提供し得るキーボードおよびポインティングデバイス(例えばマウスまたはトラックボール)を有するコンピュータ上で実施されてよい。他の種類のデバイスは、ユーザとの相互遣り取りを提供するために用いられてよく、例えば、ユーザに提供されるフィードバックは、任意の形態の感覚によるフィードバック(例えば視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ならびにユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態において受信されてよい。
本明細書に記載のシステムおよび技術は、バックエンドコンポーネント(例えばデータサーバとして)を含むか、またはミドルウェアコンポーネント(例えばアプリケーションサーバ)を含むか、あるいは、フロントエンドコンポーネント(例えば、ユーザが本明細書に記載のシステムおよび技術の実施と相互に遣り取りをし得るグラフィックユーザーインターフェースまたはウェーブブラウザを有するクライアントコンピュータ)、はたまた、そのようなバックエンド、ミドルウェア、フロントエンドコンポーネントの任意の組み合わせを含むコンピュータシステムにおいて実施されてよい。システムのコンポーネントは、デジタルデータ通信(例えば通信ネットワーク)の任意の形態または媒体によって相互接続されてよい。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、広域ネットワーク(「WAN」)、およびインターネットを含む。
コンピュータシステムは、クライアントおよびサーバを含んでよい。クライアントおよびサーバは、一般に、互いに遠隔にあり、通常は、通信ネットワークを通じて遣り取りする。クライアントおよびサーバの関係は、個々のコンピュータ上で走り、互いにクライアント−サーバの関係を有するコンピュータプログラムにより、生じる。
複数の実施が記載されている。しかしながら、さまざまな修正が、本開示の趣旨および範囲から逸脱することなくなされてよいことは理解される。したがって、他の実施もまた以下の特許請求の範囲の範囲内にある。
102 ユーザ
104 カメラ
106 媒体ハブ
108 左手
110 右手
120 モーション履歴マップ
120 マップ
122 グループ
124 グループ
126 境界ボックス
128 境界ボックス
130 ラインセグメント
132〜136 検出位置
140 グラフ
142〜146 グラフ地点
150 上方閾値位置
152 下方閾値位置

Claims (22)

  1. 実行されるときに、コンピュータに動作を実行させるように稼働する命令を含む、コンピュータプログラムで符号化された非一時的コンピュータ読み取り可能媒体であって、前記動作は、
    複数のユーザ選択可能なオプションを提供する段階であって、前記複数のユーザ選択可能なオプションのそれぞれは、ジェスチャの認識のためにどのようにモーションデータが使用されるかの態様に関する、段階と、
    少なくとも一つの前記複数のユーザ選択可能なオプションに関するユーザ入力を受信する段階と、
    移動対象物が前記ジェスチャを実行したかどうかを決定するために前記移動対象物の前記モーションデータを使用する段階であって、前記決定は、前記ユーザ入力に基づく、段階と、
    を含むコンピュータ読み取り可能媒体。
  2. 時間に関して前記移動対象物の動作の表示を提供するモーション履歴マップとして前記モーションデータを前記コンピュータに表示させるための命令をさらに含む請求項1に記載のコンピュータ読み取り可能媒体。
  3. 前記モーション履歴マップの一部に沿って前記移動対象物の検出された位置を示すグラフを前記コンピュータに表示させるための命令をさらに含む請求項2に記載のコンピュータ読み取り可能媒体。
  4. 前記ユーザ入力を提供するためのコントロールを持つグラフィカルユーザインターフェースを前記コンピュータに提供させるための命令をさらに含む請求項1に記載のコンピュータ読み取り可能媒体。
  5. 前記コントロールは、スライダーコントロールを含む、請求項4に記載のコンピュータ可読媒体。
  6. 前記インターフェースを前記コンピュータに提供させるための命令は、
    持続値か、
    複数の検出可能な前記ジェスチャの認識のための動作か、
    検出された動作としてモーションデータが解釈されるための高い閾値および低い閾値か、
    タイミング受入値か、の少なくとも一つに関する前記ユーザ入力を受信するための前記インターフェースを有効にするための命令を含む請求項4に記載のコンピュータ読み取り可能媒体。
  7. 前記持続値に関するユーザ入力に基づいて、前記モーションデータが減衰する前に、時間の長さを調整するための命令をさらに含む、請求項6に記載のコンピュータ読み取り可能媒体。
  8. 前記タイミング受入値に関するユーザ入力に基づいて、解析されたであろう前記ジェスチャにおける各セグメントによってタイミング整合性を調整するための命令をさらに含む請求項6に記載のコンピュータ読み取り可能媒体。
  9. 前記ジェスチャは、手または指でスワイプまたはウェーブするジェスチャを含む請求項1に記載のコンピュータ読み取り可能媒体。
  10. 前記コンピュータに、
    1または複数の前記移動対象物の画像を獲得させ、
    前記1または複数の画像から前記モーションデータを抜き出させるための命令をさらに含む請求項1に記載のコンピュータ読み取り可能媒体。
  11. 前記コンピュータに、前記ジェスチャを実行した前記移動対象物の検出に基づいて、アプリケーションをコントロールさせるための命令をさらに含む請求項1に記載のコンピュータ読み取り可能媒体。
  12. コンピュータによって実施されるための方法であって、前記方法は、
    複数のユーザ選択可能なオプションを提供するステップであって、前記複数のユーザ選択可能なオプションのそれぞれは、ジェスチャの認識のためにどのようにモーションデータが使用されるのかの態様に関するステップと、
    少なくとも一つの前記複数のユーザ選択可能なオプションに関するユーザ入力を受信するステップと、
    移動対象物が前記ジェスチャを実行したかどうかを決定するために前記移動対象物の前記モーションデータが使用されるステップであって、前記決定は、前記ユーザ入力に基づく、ステップと、
    を含む方法。
  13. 時間に関して前記移動対象物の動作の表示を提供するモーション履歴マップとして前記モーションデータを表示するステップをさらに有する請求項12に記載の方法。
  14. 前記モーション履歴マップの一部に沿って前記移動対象物の検出された位置を示すグラフを表示するステップをさらに有する請求項13に記載の方法。
  15. 前記ユーザ入力を提供するためのコントロールを持つグラフィカルユーザインターフェースを提供するステップをさらに有する請求項12に記載の方法。
  16. 前記コントロールは、スライダーコントロールを含む、請求項15に記載の方法。
  17. 前記ユーザ入力は、
    持続値か、
    複数の検出可能な前記ジェスチャの認識のための動作か、
    検出された動作としてモーションデータが解釈されるための高い閾値および低い閾値か、
    タイミング受入値か、の少なくとも1つに関する情報を有する請求項12に記載の方法。
  18. 前記ジェスチャは、手または指でスワイプまたはウェーブするジェスチャを含む請求項12に記載の方法。
  19. 1または複数の前記移動対象物の画像を獲得するステップと、
    前記1または複数の画像から前記モーションデータを抜き出すステップと、をさらに有する請求項12に記載の方法。
  20. 前記ジェスチャを実行した前記移動対象物の検出に基づいて、アプリケーションをコントロールするステップをさらに有する請求項12に記載の方法。
  21. 複数のユーザ選択可能なオプションを持つインターフェースであって、前記複数のユーザ選択可能なオプションのそれぞれは、ジェスチャの認識のためにどのようにモーションデータが使用されるのかの態様に関する、インターフェースと、
    少なくとも一つの前記複数のユーザ選択可能なオプションに関するユーザ入力を受信するとともに、
    移動対象物が前記ジェスチャを実行したかどうかを決定するために前記移動対象物の前記モーションデータを使用し、ように構成されるプロセッサと、を有し、
    前記決定は、前記ユーザ入力に基づくデバイス。
  22. 複数のユーザ選択可能なオプションを提供するための手段であって、前記複数のユーザ選択可能なオプションのそれぞれは、ジェスチャの認識のためにどのようにモーションデータが使用されるかの態様に関する、手段と、
    少なくとも一つの前記複数のユーザ選択可能なオプションに関するユーザ入力を受信するための手段と、
    移動対象物が前記ジェスチャを実行したかどうかを決定するために前記移動対象物の前記モーションデータを使用するための手段であって、前記決定は、前記ユーザ入力に基づく、手段と、
    を有するシステム。
JP2013251933A 2008-07-25 2013-12-05 ウェーブエンゲージメントジェスチャの改良された検出 Active JP5755712B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US8360508P 2008-07-25 2008-07-25
US61/083,605 2008-07-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011520227A Division JP5432260B2 (ja) 2008-07-25 2009-07-24 ウェーブエンゲージメントジェスチャの改良された検出

Publications (2)

Publication Number Publication Date
JP2014053045A true JP2014053045A (ja) 2014-03-20
JP5755712B2 JP5755712B2 (ja) 2015-07-29

Family

ID=41570626

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011520227A Active JP5432260B2 (ja) 2008-07-25 2009-07-24 ウェーブエンゲージメントジェスチャの改良された検出
JP2013251933A Active JP5755712B2 (ja) 2008-07-25 2013-12-05 ウェーブエンゲージメントジェスチャの改良された検出

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011520227A Active JP5432260B2 (ja) 2008-07-25 2009-07-24 ウェーブエンゲージメントジェスチャの改良された検出

Country Status (6)

Country Link
US (2) US8605941B2 (ja)
EP (1) EP2327005B1 (ja)
JP (2) JP5432260B2 (ja)
CN (1) CN102165396B (ja)
ES (1) ES2648049T3 (ja)
WO (1) WO2010011929A1 (ja)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
US20140321756A9 (en) * 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
US8146020B2 (en) 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
EP2327005B1 (en) 2008-07-25 2017-08-23 Qualcomm Incorporated Enhanced detection of waving gesture
US20100027845A1 (en) * 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
US8433101B2 (en) * 2008-07-31 2013-04-30 Samsung Electronics Co., Ltd. System and method for waving detection based on object trajectory
US8744799B2 (en) * 2008-09-25 2014-06-03 Blackberry Limited System and method for analyzing movements of an electronic device
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US8553931B2 (en) * 2009-02-11 2013-10-08 Samsung Electronics Co., Ltd. System and method for adaptively defining a region of interest for motion analysis in digital video
US8643628B1 (en) 2012-10-14 2014-02-04 Neonode Inc. Light-based proximity detection system and user interface
US8917239B2 (en) * 2012-10-14 2014-12-23 Neonode Inc. Removable protective cover with embedded proximity sensors
WO2010095204A1 (ja) * 2009-02-18 2010-08-26 株式会社 東芝 インターフェース制御装置、及びその方法
US20100306685A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation User movement feedback via on-screen avatars
DE102009057725A1 (de) * 2009-12-10 2011-06-16 Siemens Enterprise Communications Gmbh & Co. Kg Signalgebende Vorrichtung, Signalisiervorrichtung, Signalgebungsverfahren sowie Signalisierverfahren
US20110151974A1 (en) * 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
JP5757063B2 (ja) * 2010-03-29 2015-07-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
EP2635952B1 (en) * 2010-11-01 2021-01-06 InterDigital CE Patent Holdings Method and device for detecting gesture inputs
KR20130141657A (ko) * 2010-12-29 2013-12-26 톰슨 라이센싱 제스처 인식을 위한 시스템 및 방법
EP2474950B1 (en) 2011-01-05 2013-08-21 Softkinetic Software Natural gesture based user interface methods and systems
US10088924B1 (en) * 2011-08-04 2018-10-02 Amazon Technologies, Inc. Overcoming motion effects in gesture recognition
JP5862143B2 (ja) * 2011-09-15 2016-02-16 オムロン株式会社 ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体
KR20130047890A (ko) * 2011-11-01 2013-05-09 삼성전기주식회사 원격 조정 장치 및 원격 조정 장치의 제스처 인식 방법
US9223415B1 (en) 2012-01-17 2015-12-29 Amazon Technologies, Inc. Managing resource usage for task performance
JP6316540B2 (ja) * 2012-04-13 2018-04-25 三星電子株式会社Samsung Electronics Co.,Ltd. カメラ装置及びその制御方法
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
US9400575B1 (en) 2012-06-20 2016-07-26 Amazon Technologies, Inc. Finger detection for element selection
US9213436B2 (en) * 2012-06-20 2015-12-15 Amazon Technologies, Inc. Fingertip location for gesture input
KR20140014548A (ko) * 2012-07-24 2014-02-06 삼성전자주식회사 전자 장치, 그 제어 방법, 및 컴퓨터 판독가능 기록매체
US8819812B1 (en) 2012-08-16 2014-08-26 Amazon Technologies, Inc. Gesture recognition for device input
US9268407B1 (en) * 2012-10-10 2016-02-23 Amazon Technologies, Inc. Interface elements for managing gesture control
US10585530B2 (en) 2014-09-23 2020-03-10 Neonode Inc. Optical proximity sensor
US9741184B2 (en) 2012-10-14 2017-08-22 Neonode Inc. Door handle with optical proximity sensors
US9164625B2 (en) 2012-10-14 2015-10-20 Neonode Inc. Proximity sensor for determining two-dimensional coordinates of a proximal object
US9921661B2 (en) 2012-10-14 2018-03-20 Neonode Inc. Optical proximity sensor and associated user interface
US10282034B2 (en) 2012-10-14 2019-05-07 Neonode Inc. Touch sensitive curved and flexible displays
US10324565B2 (en) 2013-05-30 2019-06-18 Neonode Inc. Optical proximity sensor
US20140118244A1 (en) * 2012-10-25 2014-05-01 Pointgrab Ltd. Control of a device by movement path of a hand
CN102932597B (zh) * 2012-11-02 2016-08-03 邱虹云 具有wifi接口的天文ccd相机控制器
US9785228B2 (en) * 2013-02-11 2017-10-10 Microsoft Technology Licensing, Llc Detecting natural user-input engagement
US10134267B2 (en) * 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US9245100B2 (en) * 2013-03-14 2016-01-26 Google Technology Holdings LLC Method and apparatus for unlocking a user portable wireless electronic communication device feature
US9666064B2 (en) * 2013-04-23 2017-05-30 Nec Corporation Information processing system, information processing method and storage medium
US10884493B2 (en) 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
TWI505135B (zh) * 2013-08-20 2015-10-21 Utechzone Co Ltd 顯示畫面的控制系統、輸入裝置及控制方法
KR101544022B1 (ko) 2013-09-10 2015-08-13 경북대학교 산학협력단 자세 추적 방법 및 자세 추적 장치
US9405366B2 (en) * 2013-10-02 2016-08-02 David Lee SEGAL Systems and methods for using imagined directions to define an action, function or execution for non-tactile devices
US20150185829A1 (en) * 2013-12-27 2015-07-02 Datangle, Inc. Method and apparatus for providing hand gesture-based interaction with augmented reality applications
US20150185827A1 (en) * 2013-12-31 2015-07-02 Linkedln Corporation Techniques for performing social interactions with content
US9600999B2 (en) 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
US10207193B2 (en) 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US9433870B2 (en) 2014-05-21 2016-09-06 Universal City Studios Llc Ride vehicle tracking and control system using passive tracking elements
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US9616350B2 (en) 2014-05-21 2017-04-11 Universal City Studios Llc Enhanced interactivity in an amusement park environment using passive tracking elements
US9429398B2 (en) 2014-05-21 2016-08-30 Universal City Studios Llc Optical tracking for controlling pyrotechnic show elements
US9958946B2 (en) 2014-06-06 2018-05-01 Microsoft Technology Licensing, Llc Switching input rails without a release command in a natural user interface
JP5932082B2 (ja) * 2015-03-04 2016-06-08 株式会社東芝 認識装置
CN106662970B (zh) * 2015-04-21 2020-03-10 华为技术有限公司 一种设置指纹识别器中断阈值的方法、装置和终端设备
US20180089519A1 (en) * 2016-09-26 2018-03-29 Michael Raziel Multi-modal user authentication
US10416757B2 (en) * 2016-12-08 2019-09-17 Raymond Maurice Smit Telepresence system
EP3570740B1 (en) 2017-01-23 2023-08-30 Naqi Logix Inc. Apparatus and method for using imagined direction to perform at least one action
WO2018156970A1 (en) 2017-02-24 2018-08-30 Flir Systems, Inc. Real-time detection of periodic motion systems and methods
CN107633227B (zh) * 2017-09-15 2020-04-28 华中科技大学 一种基于csi的细粒度手势识别方法和系统
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
US11442550B2 (en) * 2019-05-06 2022-09-13 Samsung Electronics Co., Ltd. Methods for gesture recognition and control
US11842014B2 (en) 2019-12-31 2023-12-12 Neonode Inc. Contactless touch input system
US11282267B2 (en) 2020-07-02 2022-03-22 Cognizant Technology Solutions India Pvt. Ltd. System and method for providing automated data visualization and modification
WO2022103412A1 (en) * 2020-11-13 2022-05-19 Innopeak Technology, Inc. Methods for recognition of air-swipe gestures
CN113469081B (zh) * 2021-07-08 2023-06-06 西南交通大学 一种运动状态识别方法
WO2024115395A1 (en) * 2022-11-28 2024-06-06 Ams-Osram Ag Method for calculating a trajectory of an object, system, computer program and computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781663A (en) * 1994-06-30 1998-07-14 Canon Kabushiki Kaisha System for recognizing various input data types
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2004157994A (ja) * 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
JP2004171476A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5452371A (en) 1992-05-27 1995-09-19 Apple Computer, Inc. Method of aligning shapes on a display of a computer system
US5687254A (en) 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
KR19990011180A (ko) 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
EP0905644A3 (en) 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
EP0991011B1 (en) 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6574266B1 (en) 1999-06-25 2003-06-03 Telefonaktiebolaget Lm Ericsson (Publ) Base-station-assisted terminal-to-terminal connection setup
JP2001111881A (ja) * 1999-10-07 2001-04-20 Internatl Business Mach Corp <Ibm> 撮像装置及びその遠隔操作方法
EP1837858B1 (en) * 2000-01-11 2013-07-10 Yamaha Corporation Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
SE0000850D0 (sv) 2000-03-13 2000-03-13 Pink Solution Ab Recognition arrangement
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US20030058111A1 (en) 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050196015A1 (en) * 2004-03-02 2005-09-08 Trw Automotive U.S. Llc Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
CN103257684B (zh) 2005-05-17 2017-06-09 高通股份有限公司 方向敏感的信号输出方法及装置
JP2007172577A (ja) 2005-11-25 2007-07-05 Victor Co Of Japan Ltd 操作情報入力装置
JP4569555B2 (ja) 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
US7721207B2 (en) * 2006-05-31 2010-05-18 Sony Ericsson Mobile Communications Ab Camera based control
GB2452644B (en) 2006-10-10 2009-09-16 Promethean Ltd Automatic tool docking
JP2008146243A (ja) * 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
US8146020B2 (en) 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
EP2327005B1 (en) 2008-07-25 2017-08-23 Qualcomm Incorporated Enhanced detection of waving gesture
US8180368B2 (en) 2008-11-11 2012-05-15 Trueposition, Inc. Femto-cell location by direct methods

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781663A (en) * 1994-06-30 1998-07-14 Canon Kabushiki Kaisha System for recognizing various input data types
JP2003316510A (ja) * 2002-04-23 2003-11-07 Nippon Hoso Kyokai <Nhk> 表示画面上に指示されたポイントを表示する表示装置、及び表示プログラム。
JP2004157994A (ja) * 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
JP2004171476A (ja) * 2002-11-22 2004-06-17 Keio Gijuku ハンドパターンスイッチ装置
JP2008052590A (ja) * 2006-08-25 2008-03-06 Toshiba Corp インターフェース装置及びその方法

Also Published As

Publication number Publication date
CN102165396B (zh) 2014-10-29
WO2010011929A1 (en) 2010-01-28
US20140055350A1 (en) 2014-02-27
EP2327005B1 (en) 2017-08-23
JP5755712B2 (ja) 2015-07-29
CN102165396A (zh) 2011-08-24
EP2327005A1 (en) 2011-06-01
JP2011529234A (ja) 2011-12-01
JP5432260B2 (ja) 2014-03-05
US8605941B2 (en) 2013-12-10
US20100040292A1 (en) 2010-02-18
ES2648049T3 (es) 2017-12-28
EP2327005A4 (en) 2016-08-24
US8737693B2 (en) 2014-05-27

Similar Documents

Publication Publication Date Title
JP5755712B2 (ja) ウェーブエンゲージメントジェスチャの改良された検出
US8146020B2 (en) Enhanced detection of circular engagement gesture
US10268339B2 (en) Enhanced camera-based input
US9927881B2 (en) Hand tracker for device with display
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
CN109716781B (zh) 用于视频流的实时绘制的系统、装置、介质和方法
CN107102723B (zh) 用于基于手势的移动交互的方法、装置、设备和非暂时性计算机可读介质
KR20160071404A (ko) 사용자 인터페이스 프로그래밍적 스케일링
US20150241984A1 (en) Methods and Devices for Natural Human Interfaces and for Man Machine and Machine to Machine Activities
US20230410441A1 (en) Generating user interfaces displaying augmented reality graphics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150527

R150 Certificate of patent or registration of utility model

Ref document number: 5755712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250