JP5788588B2 - 仮想キーボードおよびその提供方法 - Google Patents
仮想キーボードおよびその提供方法 Download PDFInfo
- Publication number
- JP5788588B2 JP5788588B2 JP2014506521A JP2014506521A JP5788588B2 JP 5788588 B2 JP5788588 B2 JP 5788588B2 JP 2014506521 A JP2014506521 A JP 2014506521A JP 2014506521 A JP2014506521 A JP 2014506521A JP 5788588 B2 JP5788588 B2 JP 5788588B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- gesture
- sensor
- user
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000033001 locomotion Effects 0.000 claims description 94
- 238000000605 extraction Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000008030 elimination Effects 0.000 claims description 12
- 238000003379 elimination reaction Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 11
- 230000004913 activation Effects 0.000 description 7
- 230000005057 finger movement Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 229910052727 yttrium Inorganic materials 0.000 description 2
- IRLPACMLTUPBCL-KQYNXXCUSA-N 5'-adenylyl sulfate Chemical compound C1=NC=2C(N)=NC=NC=2N1[C@@H]1O[C@H](COP(O)(=O)OS(O)(=O)=O)[C@@H](O)[C@H]1O IRLPACMLTUPBCL-KQYNXXCUSA-N 0.000 description 1
- VYZAMTAEIAYCRO-UHFFFAOYSA-N Chromium Chemical compound [Cr] VYZAMTAEIAYCRO-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- OJIJEKBXJYRIBZ-UHFFFAOYSA-N cadmium nickel Chemical compound [Ni].[Cd] OJIJEKBXJYRIBZ-UHFFFAOYSA-N 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000001746 injection moulding Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Description
[0035] 図1は、ネットワーク2の概略図である。例示されたネットワーク2は、それぞれがインターネット4で通信する、ユーザデバイス10a、ユーザデバイス10b、およびサーバ8を含む。ユーザデバイス10a、10b、およびサーバ8のみが例示されているけれども、ネットワーク2は追加のユーザデバイスおよびサーバを含むことができる。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンピューティングデバイスにデータを入力するためのシステムであって、
ユーザの指を収める画像のシーケンスを捕捉するためのカメラと、
仮想キーボードと結合された前記シーケンスのそれぞれの画像を表示するためのディスプレイと、ここにおいて、前記仮想キーボードに関係する表示された画像における前記指の位置は、前記ユーザの指が前記カメラに関係して動くにつれて変化する、
前記仮想キーボードに関係する前記画像のシーケンスにおける前記ユーザの指の動きを検出するように構成される動画特徴抽出モジュールと、ここにおいて、前記仮想キーボードは複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、前記動画特徴抽出モジュールは、検出された動きを使用して前記仮想センサのセンサ作動データを捕捉する、
ユーザのジェスチャを認識して、前記コンピューティングデバイスにデータを入力するために、前記センサ作動データを使用するためのジェスチャパターン適合モジュールと、を備えるシステム。
[C2]
前記ディスプレイが、前記仮想キーボードを、前記シーケンスにおける前記画像のそれぞれにオーバーレイし、前記仮想キーボードが少なくとも部分的に透明である、C1に記載のシステム。
[C3]
前記システムが、前記ジェスチャが認識されるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうち少なくとも1つを提供するように構成される、C1に記載のシステム。
[C4]
ジェスチャの終点を検出するためのジェスチャ終点検出モジュールをさらに備える、C1に記載のシステム。
[C5]
前記ジェスチャパターン適合モジュールが、前記ジェスチャを認識するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、C4に記載のシステム。
[C6]
前記ジェスチャパターン適合モジュールが、前記ジェスチャの終点が検出された後に、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、C4に記載のシステム。
[C7]
前記ジェスチャパターン適合モジュールが、動的時間伸縮を使用して、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれに合わせるように構成される、C5に記載のシステム。
[C8]
前記センサ作動データを使用して動き条件を検出するための、ならびに前記動き条件がしきい値より上であるとき、前記ジェスチャパターン適合モジュールが、前記ジェスチャを認識することから防ぐための誤警報排除モジュールをさらに備える、C1に記載のシステム。
[C9]
前記誤警報排除モジュールが、前記動き条件が前記しきい値より上であるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうちの少なくとも1つを提供するように構成される、C8に記載のシステム。
[C10]
前記ジェスチャがキー入力である、C1に記載のシステム。
[C11]
仮想キーボードを使用して、電子デバイスにデータを入力するための方法であって、
ユーザの指を収める画像のシーケンスを受け取ることと、
前記シーケンスのそれぞれの画像についての結合された画像を生成することと、前記結合された画像は、前記ユーザの指および仮想キーボードを収めている、
前記仮想キーボードに関係する前記画像のシーケンスにおける前記指の動きを検出することと、前記仮想キーボードは複数の仮想キーを有し、それぞれの仮想キーが複数の仮想センサを有する、
検出された動きのピクセル領域を、前記仮想センサのピクセル領域と比較することにより、センサ作動データを生成することと、
前記電子デバイスにデータを入力するために、前記センサ作動データを使用して、ジェスチャを認識することと
を備える、方法。
[C12]
前記結合された画像を、ディスプレイ上に表示することをさらに備える、C11に記載の方法。
[C13]
前記結合された画像を表示することが、前記画像のシーケンスにオーバーレイされた前記仮想キーボードを表示することを備え、前記仮想キーボードは少なくとも部分的に透明である、C12に記載の方法。
[C14]
前記ジェスチャを認識した後、少なくとも1つの仮想キーをハイライトすることをさらに備える、C12に記載の方法。
[C15]
前記ジェスチャを認識することが、少なくとも1つの候補ジェスチャを識別するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較することを備える、C11に記載の方法。
[C16]
前記検出された動きを使用して、ジェスチャの終点を検出することをさらに備える、C15に記載の方法。
[C17]
動的時間伸縮を使用して、前記センサ作動データを、それぞれのジェスチャ認識テンプレートと合わせることをさらに備える、C16に記載の方法。
[C18]
信頼ファクタを、それぞれの候補ジェスチャに割り当てることをさらに備える、C15に記載の方法。
[C19]
前記ジェスチャを認識することが、最も大きい信頼ファクタを有する前記少なくとも1つの候補ジェスチャから、ジェスチャを選択することを備える、C18に記載の方法。
[C20]
前記センサ作動データを使用して動き条件を決定することと、前記動き条件がしきい値より上であるとき、前記少なくとも1つの候補ジェスチャのうちの1つまたは複数が、認識されたジェスチャであることを防ぐことをさらに備える、C15に記載の方法。
[C21]
コンピューティングデバイスにデータを入力するためのシステムであって、
ユーザの指を収める画像のシーケンスを捕捉するための手段と、
仮想キーボードと結合された前記シーケンスのぞれぞれの画像を表示するための手段と、ここにおいて、前記仮想キーボードに関係する表示された画像における前記指の位置は、前記ユーザの指が前記カメラに関係して動くにつれて変化する、
前記仮想キーボードに関係する前記画像のシーケンスにおける前記ユーザの指の動きを検出するための手段と、ここにおいて、前記仮想キーボードは複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、動きを検出するための手段は、検出された動きを使用して前記仮想センサのセンサ作動データを捕捉する、
前記コンピューティングデバイスにデータを入力するために、前記センサ作動データを使用して、ユーザのジェスチャを認識するための手段と、
を備える、システム。
[C22]
前記表示するための手段が、前記仮想キーボードを、前記シーケンスにおける前記画像のそれぞれにオーバーレイし、前記仮想キーボードが少なくとも部分的に透明である、C21に記載のシステム。
[C23]
前記システムが、前記ジェスチャが認識されるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうちの少なくとも1つを提供するように構成される、C21に記載のシステム。
[C24]
ジェスチャの終点を検出するための手段をさらに備える、C21に記載のシステム。
[C25]
前記ユーザのジェスチャを認識するための手段が、前記ジェスチャを認識するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、C24に記載のシステム。
[C26]
前記ユーザのジェスチャを認識するための手段が、前記ジェスチャの終点が検出された後に、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、C25に記載のシステム。
[C27]
前記ユーザのジェスチャを認識するための手段が、動的時間伸縮を使用して、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれに合わせるように構成される、C25に記載のシステム。
[C28]
前記動き条件がしきい値より上であるとき、前記ジェスチャパターン適合モジュールが、前記ジェスチャを認識することから防ぐための手段をさらに備える、C21に記載のシステム。
[C29]
実行されるときに、仮想キーボードを使用して電子デバイスにデータを入力するという方法を行う命令を備える、非一時的なコンピュータ可読記憶媒体であって、前記方法が、
ユーザの指を収める画像のシーケンスを受け取ることと、
前記シーケンスのそれぞれの画像についての結合された画像を生成することと、前記結合された画像は、前記ユーザの指および仮想キーボードを収めている、
前記仮想キーボードに関係する前記画像のシーケンスにおける前記指の動きを検出することと、前記仮想キーボードは複数の仮想キーを有し、それぞれの仮想キーが複数の仮想センサを有する、
検出された動きのピクセル領域を、前記仮想センサのピクセル領域と比較することにより、センサ作動データを生成することと、
前記電子デバイスにデータを入力するために、前記センサ作動データを使用して、ジェスチャを認識することと
を備える、非一時的なコンピュータ可読記憶媒体。
[C30]
前記方法が、前記結合された画像を、ディスプレイ上に表示することをさらに備える、C29に記載のコンピュータ可読記憶媒体。
[C31]
前記結合された画像を表示することが、前記画像のシーケンスにオーバーレイされた前記仮想キーボードを表示することを備え、前記仮想キーボードは少なくとも部分的に透明である、C30に記載のコンピュータ可読記憶媒体。
[C32]
前記方法が、前記ジェスチャを認識した後、少なくとも1つの仮想キーをハイライトすることをさらに備える、C31に記載のコンピュータ可読記憶媒体。
[C33]
前記ジェスチャを認識することが、少なくとも1つの候補ジェスチャを識別するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較することを備える、C29に記載のコンピュータ可読記憶媒体。
[C34]
前記方法が、前記検出された動きを使用して、ジェスチャの終点を検出することをさらに備える、C33に記載のコンピュータ可読記憶媒体。
[C35]
前記方法が、動的時間伸縮を使用して、前記センサ作動データを、それぞれのジェスチャ認識テンプレートと合わせることをさらに備える、C34に記載のコンピュータ可読記憶媒体。
[C36]
前記方法が、信頼ファクタをそれぞれの候補ジェスチャに割り当てることをさらに備える、C35に記載のコンピュータ可読記憶媒体。
[C37]
前記ジェスチャを認識することが、最も大きい信頼ファクタを有する前記少なくとも1つの候補ジェスチャから、ジェスチャを選択することを備える、C36に記載のコンピュータ可読記憶媒体。
[C38]
前記方法が、前記センサ作動データを使用して動き条件を決定することと、前記動き条件がしきい値より上であるとき、前記少なくとも1つの候補ジェスチャのうちの1つまたは複数が、認識されたジェスチャであることを防ぐことをさらに備える、C37に記載のコンピュータ可読記憶媒体。
Claims (40)
- コンピューティングデバイスにデータを入力するためのシステムであって、
ユーザの指を収める画像のシーケンスを捕捉するためのカメラと、
複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、それぞれの仮想センサは対応する仮想キー内に隣接しているピクセルの領域を備えており、ここにおいて複数の前記仮想キーは互いに異なる仮想センサレイアウトを有する仮想キーボードと、
前記仮想キーボードと結合された前記シーケンスのそれぞれの画像を表示するためのディスプレイと、ここにおいて、前記仮想キーボードに関係する表示された画像における前記指の位置は、前記ユーザの指が前記カメラに関係して動くにつれて変化する、
前記仮想キーボードに関係する前記画像のシーケンスにおける前記ユーザの指の動きを検出し、
前記検出された動きに基づき、前記複数の仮想キーの少なくとも1つの内の作動仮想センサのシーケンスを識別し、ここにおいて前記ユーザの指の前記動きが、前記作動仮想センサに対応する隣接しているピクセルの前記領域内のピクセルのしきい値の数を超えて検出されたとき仮想センサは作動させられる、および
作動仮想センサの前記シーケンスのそれぞれの作動仮想センサに関係している地理的および時間的な情報の両方を備える仮想センサ作動データを収集するように構成される動画特徴抽出モジュールと、
有効なキー入力および排除されたキー入力の1つとしてユーザのジェスチャを認識して、前記コンピューティングデバイスにデータを入力するために、仮想センサ作動の前記シーケンスを使用するためのジェスチャパターン適合モジュールと、を備えるシステム。 - 前記ディスプレイが、前記仮想キーボードを、前記シーケンスにおける前記画像のそれぞれにオーバーレイし、前記仮想キーボードが少なくとも部分的に透明である、請求項1に記載のシステム。
- 前記システムが、前記ジェスチャが認識されるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうち少なくとも1つを提供するように構成される、請求項1に記載のシステム。
- ジェスチャの終点を検出するためのジェスチャ終点検出モジュールをさらに備える、請求項1に記載のシステム。
- 前記ジェスチャパターン適合モジュールが、前記ジェスチャを認識するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、請求項4に記載のシステム。
- 前記ジェスチャパターン適合モジュールが、前記ジェスチャの終点が検出された後に、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、請求項4に記載のシステム。
- 前記ジェスチャパターン適合モジュールが、動的時間伸縮を使用して、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれに合わせるように構成される、請求項5に記載のシステム。
- 前記センサ作動データを使用して動き条件を検出するための、ならびに前記動き条件がしきい値より上であるとき、前記ジェスチャパターン適合モジュールが、前記ジェスチャを認識することから防ぐための誤警報排除モジュールをさらに備える、請求項1に記載のシステム。
- 前記誤警報排除モジュールが、前記動き条件が前記しきい値より上であるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうちの少なくとも1つを提供するように構成される、請求項8に記載のシステム。
- 仮想キーボードを使用して、電子デバイスにデータを入力するための方法であって、
ユーザの指を収める画像のシーケンスを受け取ることと、
前記シーケンスのそれぞれの画像についての結合された画像を生成することと、前記結合された画像は、前記ユーザの指および仮想キーボードを収めており、前記仮想キーボードは、複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、それぞれの仮想センサは対応する仮想キー内に隣接しているピクセルの領域を備えており、ここにおいて複数の前記仮想キーは互いに異なる仮想センサレイアウトを有し、
前記仮想センサに関係する前記画像のシーケンスにおける前記指の動きを検出することと、
前記検出された動きに基づき、前記複数の仮想キーの少なくとも1つの内の作動仮想センサのシーケンスを識別することと、ここにおいて前記ユーザの指の前記動きが、前記作動仮想センサに対応する前記複数のピクセルの内のピクセルのしきい値の数を超えて検出されたとき仮想センサは作動させられる、
作動仮想センサの前記シーケンスのそれぞれの作動仮想センサに関係している地理的および時間的な情報の両方を備えるセンサ作動データを生成することと、
前記電子デバイスにデータを入力するために、仮想センサ作動の前記シーケンスを使用して、有効なキー入力および排除されたキー入力の1つとしてジェスチャを認識することとを備える、方法。 - 前記結合された画像を、ディスプレイ上に表示することをさらに備える、請求項10に記載の方法。
- 前記結合された画像を表示することが、前記画像のシーケンスにオーバーレイされた前記仮想キーボードを表示することを備え、前記仮想キーボードは少なくとも部分的に透明である、請求項11に記載の方法。
- 前記ジェスチャを認識した後、少なくとも1つの仮想キーをハイライトすることをさらに備える、請求項11に記載の方法。
- 前記ジェスチャを認識することが、少なくとも1つの候補ジェスチャを識別するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較することを備える、請求項10に記載の方法。
- 前記検出された動きを使用して、ジェスチャの終点を検出することをさらに備える、請求項14に記載の方法。
- 動的時間伸縮を使用して、前記センサ作動データを、それぞれのジェスチャ認識テンプレートと合わせることをさらに備える、請求項15に記載の方法。
- 信頼ファクタを、それぞれの候補ジェスチャに割り当てることをさらに備える、請求項14に記載の方法。
- 前記ジェスチャを認識することが、最も大きい信頼ファクタを有する前記少なくとも1つの候補ジェスチャから、ジェスチャを選択することを備える、請求項17に記載の方法。
- 前記センサ作動データを使用して動き条件を決定することと、前記動き条件がしきい値より上であるとき、前記少なくとも1つの候補ジェスチャのうちの1つまたは複数が、認識されたジェスチャであることを防ぐことをさらに備える、請求項14に記載の方法。
- コンピューティングデバイスにデータを入力するためのシステムであって、
ユーザの指を収める画像のシーケンスを捕捉するための手段と、
仮想キーボードと結合された前記シーケンスのぞれぞれの画像を表示するための手段と、前記仮想キーボードは、複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、それぞれの仮想センサは対応する仮想キー内に隣接しているピクセルの領域を備えており、ここにおいて複数の前記仮想キーは互いに異なる仮想センサレイアウトを有し、ここにおいて、前記仮想キーボードに関係する表示された画像における前記指の位置は、前記ユーザの指がカメラに関係して動くにつれて変化する、
前記仮想センサに関係する前記画像のシーケンスにおける前記ユーザの指の動きを検出するための手段と、前記検出された動きに基づき、前記複数の仮想キーの少なくとも1つの内の作動仮想センサのシーケンスを識別するための手段と、ここにおいて前記ユーザの指の前記動きが、前記作動仮想センサに対応する前記複数のピクセルの内のピクセルのしきい値の数を超えて検出されたとき仮想センサは作動させられる、
作動仮想センサの前記シーケンスのそれぞれの作動仮想センサに関係している地理的および時間的な情報の両方を備えるセンサ作動データを生成する手段と、
前記コンピューティングデバイスにデータを入力するために、仮想センサ作動データの前記シーケンスを使用して、有効なキー入力および排除されたキー入力の1つとしてユーザのジェスチャを認識するための手段と、を備える、システム。 - 前記表示するための手段が、前記仮想キーボードを、前記シーケンスにおける前記画像のそれぞれにオーバーレイし、前記仮想キーボードが少なくとも部分的に透明である、請求項20に記載のシステム。
- 前記システムが、前記ジェスチャが認識されるとき、視覚フィードバック、音声フィードバック、および振動性フィードバックのうちの少なくとも1つを提供するように構成される、請求項20に記載のシステム。
- ジェスチャの終点を検出するための手段をさらに備える、請求項20に記載のシステム。
- 前記ユーザのジェスチャを認識するための手段が、前記ジェスチャを認識するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、請求項23に記載のシステム。
- 前記ユーザのジェスチャを認識するための手段が、前記ジェスチャの終点が検出された後に、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれと比較するように構成される、請求項24に記載のシステム。
- 前記ユーザのジェスチャを認識するための手段が、動的時間伸縮を使用して、前記センサ作動データを、前記複数のジェスチャ認識テンプレートのそれぞれに合わせるように構成される、請求項24に記載のシステム。
- 前記動き条件がしきい値より上であるとき、前記ユーザのジェスチャを認識するための手段が、前記ジェスチャを認識することから防ぐための手段をさらに備える、請求項20に記載のシステム。
- 実行されるときに、仮想キーボードを使用して電子デバイスにデータを入力するという方法を行う命令を備える、非一時的なコンピュータ可読記憶媒体であって、前記方法が、 ユーザの指を収める画像のシーケンスを受け取ることと、
前記シーケンスのそれぞれの画像についての結合された画像を生成することと、前記結合された画像は、前記ユーザの指および仮想キーボードを収めており、前記仮想キーボードは、複数の仮想キーを備え、それぞれの仮想キーが複数の仮想センサを有し、それぞれの仮想センサは対応する仮想キー内に隣接しているピクセルの領域を備えており、ここにおいて複数の前記仮想キーは互いに異なる仮想センサレイアウトを有し、
前記仮想センサに関係する前記画像のシーケンスにおける前記指の動きを検出することと、
前記検出された動きに基づき、前記複数の仮想キーの少なくとも1つの内の作動仮想センサのシーケンスを識別することと、ここにおいて前記ユーザの指の前記動きが、前記作動仮想センサに対応する前記複数のピクセルの内のピクセルのしきい値の数を超えて検出されたとき仮想センサは作動させられる、
作動仮想センサの前記シーケンスのそれぞれの作動仮想センサに関係している地理的および時間的な情報の両方を備えるセンサ作動データを生成することと、
前記電子デバイスにデータを入力するために、仮想センサ作動の前記シーケンスを使用して、有効なキー入力および排除されたキー入力の1つとしてジェスチャを認識することとを備える、非一時的なコンピュータ可読記憶媒体。 - 前記方法が、前記結合された画像を、ディスプレイ上に表示することをさらに備える、請求項28に記載のコンピュータ可読記憶媒体。
- 前記結合された画像を表示することが、前記画像のシーケンスにオーバーレイされた前記仮想キーボードを表示することを備え、前記仮想キーボードは少なくとも部分的に透明である、請求項29に記載のコンピュータ可読記憶媒体。
- 前記方法が、前記ジェスチャを認識した後、少なくとも1つの仮想キーをハイライトすることをさらに備える、請求項30に記載のコンピュータ可読記憶媒体。
- 前記ジェスチャを認識することが、少なくとも1つの候補ジェスチャを識別するために、前記センサ作動データを、複数のジェスチャ認識テンプレートのそれぞれと比較することを備える、請求項28に記載のコンピュータ可読記憶媒体。
- 前記方法が、前記検出された動きを使用して、ジェスチャの終点を検出することをさらに備える、請求項32に記載のコンピュータ可読記憶媒体。
- 前記方法が、動的時間伸縮を使用して、前記センサ作動データを、それぞれのジェスチャ認識テンプレートと合わせることをさらに備える、請求項33に記載のコンピュータ可読記憶媒体。
- 前記方法が、信頼ファクタをそれぞれの候補ジェスチャに割り当てることをさらに備える、請求項34に記載のコンピュータ可読記憶媒体。
- 前記ジェスチャを認識することが、最も大きい信頼ファクタを有する前記少なくとも1つの候補ジェスチャから、ジェスチャを選択することを備える、請求項35に記載のコンピュータ可読記憶媒体。
- 前記方法が、前記センサ作動データを使用して動き条件を決定することと、前記動き条件がしきい値より上であるとき、前記少なくとも1つの候補ジェスチャのうちの1つまたは複数が、認識されたジェスチャであることを防ぐことをさらに備える、請求項36に記載のコンピュータ可読記憶媒体。
- 前記ユーザの指の動きは、大きさを有する動きベクトルに変換される、請求項1に記載のシステム。
- 前記少なくとも1つの作動仮想センサは、前記動きベクトルの前記大きさがしきい値より上であるときに作動させられる、請求項38に記載のシステム。
- 仮想センサは、前記ユーザの指が前記仮想センサ上の実質的に静止した位置にあるときに作動されない、請求項39に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/090,497 US8928589B2 (en) | 2011-04-20 | 2011-04-20 | Virtual keyboards and methods of providing the same |
US13/090,497 | 2011-04-20 | ||
PCT/US2012/034122 WO2012145429A2 (en) | 2011-04-20 | 2012-04-18 | Virtual keyboards and methods of providing the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014512620A JP2014512620A (ja) | 2014-05-22 |
JP5788588B2 true JP5788588B2 (ja) | 2015-09-30 |
Family
ID=46026945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014506521A Active JP5788588B2 (ja) | 2011-04-20 | 2012-04-18 | 仮想キーボードおよびその提供方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8928589B2 (ja) |
EP (1) | EP2699989A2 (ja) |
JP (1) | JP5788588B2 (ja) |
CN (1) | CN103518179B (ja) |
WO (1) | WO2012145429A2 (ja) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8810543B1 (en) | 2010-05-14 | 2014-08-19 | Cypress Semiconductor Corporation | All points addressable touch sensing surface |
US9135503B2 (en) * | 2010-11-09 | 2015-09-15 | Qualcomm Incorporated | Fingertip tracking for touchless user interface |
US9746928B2 (en) * | 2011-04-19 | 2017-08-29 | Lg Electronics Inc. | Display device and control method thereof |
CN103019391A (zh) * | 2011-09-22 | 2013-04-03 | 纬创资通股份有限公司 | 利用所撷取键盘影像作为指令输入依据的输入装置及方法 |
KR101322465B1 (ko) * | 2011-11-17 | 2013-10-28 | 삼성전자주식회사 | 셀프 카메라 촬영을 위한 방법 및 장치 |
WO2013101206A1 (en) * | 2011-12-30 | 2013-07-04 | Intel Corporation | Interactive drawing recognition |
US20130239041A1 (en) * | 2012-03-06 | 2013-09-12 | Sony Corporation | Gesture control techniques for use with displayed virtual keyboards |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
US9772722B2 (en) | 2012-10-22 | 2017-09-26 | Parade Technologies, Ltd. | Position sensing methods and devices with dynamic gain for edge positioning |
US10302434B2 (en) * | 2012-11-20 | 2019-05-28 | CSR Technology, Inc. | Method and apparatus for determining walking direction for a pedestrian dead reckoning process |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US10185416B2 (en) | 2012-11-20 | 2019-01-22 | Samsung Electronics Co., Ltd. | User gesture input to wearable electronic device involving movement of device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US20140152566A1 (en) * | 2012-12-05 | 2014-06-05 | Brent A. Safer | Apparatus and methods for image/sensory processing to control computer operations |
US9983779B2 (en) * | 2013-02-07 | 2018-05-29 | Samsung Electronics Co., Ltd. | Method of displaying menu based on depth information and space gesture of user |
US9971888B2 (en) * | 2013-03-15 | 2018-05-15 | Id Integration, Inc. | OS security filter |
US9483176B2 (en) * | 2013-07-08 | 2016-11-01 | Samsung Display Co., Ltd. | Method and apparatus to reduce display lag of soft keyboard presses |
US9426605B2 (en) * | 2013-10-10 | 2016-08-23 | Yahoo! Inc. | Cross device information exchange using gestures and locations |
US10203812B2 (en) * | 2013-10-10 | 2019-02-12 | Eyesight Mobile Technologies, LTD. | Systems, devices, and methods for touch-free typing |
US9372543B2 (en) * | 2013-12-16 | 2016-06-21 | Dell Products, L.P. | Presentation interface in a virtual collaboration session |
US9557905B2 (en) | 2013-12-18 | 2017-01-31 | General Electric Company | System and method for user input |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
US9158426B1 (en) | 2014-03-19 | 2015-10-13 | Google Inc. | Touch keyboard calibration |
US9766806B2 (en) | 2014-07-15 | 2017-09-19 | Microsoft Technology Licensing, Llc | Holographic keyboard display |
CN105323619A (zh) * | 2014-08-04 | 2016-02-10 | 深圳市同方多媒体科技有限公司 | 基于模拟按键板的手势控制方法及手势控制电视机 |
US10015402B2 (en) | 2014-09-08 | 2018-07-03 | Nintendo Co., Ltd. | Electronic apparatus |
JP6684042B2 (ja) * | 2014-09-08 | 2020-04-22 | 任天堂株式会社 | 電子機器 |
CN105635776B (zh) * | 2014-11-06 | 2019-03-01 | 深圳Tcl新技术有限公司 | 虚拟操作界面遥控控制方法及系统 |
TWI576722B (zh) * | 2015-04-15 | 2017-04-01 | 崑山科技大學 | Wireless transmission code translation device |
WO2016185634A1 (ja) * | 2015-05-21 | 2016-11-24 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置 |
US9740508B2 (en) | 2015-08-21 | 2017-08-22 | International Business Machines Corporation | Alerting a user of an indicated impact of a command |
CN107656687B (zh) * | 2016-07-26 | 2020-04-24 | 南宁富桂精密工业有限公司 | 虚拟键盘生成的方法及系统 |
KR102160297B1 (ko) * | 2017-06-26 | 2020-09-28 | 서울대학교 산학협력단 | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 |
CN107632667A (zh) * | 2017-10-26 | 2018-01-26 | 上海龙旗科技股份有限公司 | 一种实现虚拟键盘的设备及双屏笔记本电脑 |
US11580002B2 (en) * | 2018-08-17 | 2023-02-14 | Intensity Analytics Corporation | User effort detection |
WO2020106268A1 (en) * | 2018-11-19 | 2020-05-28 | Hewlett-Packard Development Company, L.P. | Virtual input devices |
US11270515B2 (en) | 2019-09-04 | 2022-03-08 | Qualcomm Incorporated | Virtual keyboard |
US11132058B1 (en) * | 2019-09-12 | 2021-09-28 | Facebook Technologies, Llc | Spatially offset haptic feedback |
CN111158476B (zh) * | 2019-12-25 | 2023-05-23 | 中国人民解放军军事科学院国防科技创新研究院 | 一种虚拟键盘的按键识别方法、系统、设备及存储介质 |
US11656723B2 (en) | 2021-02-12 | 2023-05-23 | Vizio, Inc. | Systems and methods for providing on-screen virtual keyboards |
US11757951B2 (en) | 2021-05-28 | 2023-09-12 | Vizio, Inc. | System and method for configuring video watch parties with gesture-specific telemojis |
CN113778312B (zh) * | 2021-08-17 | 2024-04-23 | 咪咕数字传媒有限公司 | 虚拟键盘显示方法、装置、设备及计算机可读存储介质 |
CN114356108A (zh) * | 2022-01-13 | 2022-04-15 | 天津大学 | 一种高级语言键盘 |
CN114167996B (zh) * | 2022-02-14 | 2022-05-17 | 浙江强脑科技有限公司 | 一种基于传感器的动作预判方法、装置及存储介质 |
WO2024072410A1 (en) * | 2022-09-30 | 2024-04-04 | Innopeak Technology, Inc. | Real-time hand gesture tracking and recognition |
Family Cites Families (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5168531A (en) * | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
JP3244798B2 (ja) * | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
JP3419050B2 (ja) * | 1993-11-19 | 2003-06-23 | 株式会社日立製作所 | 入力装置 |
US5563988A (en) * | 1994-08-01 | 1996-10-08 | Massachusetts Institute Of Technology | Method and system for facilitating wireless, full-body, real-time user interaction with a digitally represented visual environment |
US5594469A (en) * | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
DE69634913T2 (de) * | 1995-04-28 | 2006-01-05 | Matsushita Electric Industrial Co., Ltd., Kadoma | Schnittstellenvorrichtung |
US6002808A (en) * | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
US6075895A (en) * | 1997-06-20 | 2000-06-13 | Holoplex | Methods and apparatus for gesture recognition based on templates |
US6037882A (en) * | 1997-09-30 | 2000-03-14 | Levy; David H. | Method and apparatus for inputting data to an electronic system |
US6088018A (en) | 1998-06-11 | 2000-07-11 | Intel Corporation | Method of using video reflection in providing input data to a computer system |
US6501515B1 (en) * | 1998-10-13 | 2002-12-31 | Sony Corporation | Remote control system |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6512838B1 (en) * | 1999-09-22 | 2003-01-28 | Canesta, Inc. | Methods for enhancing performance and data acquired from three-dimensional image systems |
US6738041B2 (en) * | 1999-10-29 | 2004-05-18 | Intel Corporation | Using video information to control cursor position |
JP4052498B2 (ja) * | 1999-10-29 | 2008-02-27 | 株式会社リコー | 座標入力装置および方法 |
US6710770B2 (en) * | 2000-02-11 | 2004-03-23 | Canesta, Inc. | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device |
US7050177B2 (en) * | 2002-05-22 | 2006-05-23 | Canesta, Inc. | Method and apparatus for approximating depth of an object's placement onto a monitored region with applications to virtual interface devices |
US20030132950A1 (en) * | 2001-11-27 | 2003-07-17 | Fahri Surucu | Detecting, classifying, and interpreting input events based on stimuli in multiple sensory domains |
JP2005174356A (ja) * | 2000-02-01 | 2005-06-30 | Toshiba Corp | 方向検出方法 |
SE0000850D0 (sv) * | 2000-03-13 | 2000-03-13 | Pink Solution Ab | Recognition arrangement |
KR100865598B1 (ko) * | 2000-05-29 | 2008-10-27 | 브이케이비 인코포레이티드 | 수문자 조합 및 다른 데이터의 입력을 위한 가상 데이터입력 장치 및 방법 |
US6826292B1 (en) * | 2000-06-23 | 2004-11-30 | Sarnoff Corporation | Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation |
US7042442B1 (en) * | 2000-06-27 | 2006-05-09 | International Business Machines Corporation | Virtual invisible keyboard |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7058204B2 (en) * | 2000-10-03 | 2006-06-06 | Gesturetek, Inc. | Multiple camera control system |
JP3725460B2 (ja) * | 2000-10-06 | 2005-12-14 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス |
US6903730B2 (en) * | 2000-11-10 | 2005-06-07 | Microsoft Corporation | In-air gestures for electromagnetic coordinate digitizers |
US6690354B2 (en) * | 2000-11-19 | 2004-02-10 | Canesta, Inc. | Method for enhancing performance in a system utilizing an array of sensors that sense at least two-dimensions |
US7242388B2 (en) * | 2001-01-08 | 2007-07-10 | Vkb Inc. | Data input device |
US6600475B2 (en) * | 2001-01-22 | 2003-07-29 | Koninklijke Philips Electronics N.V. | Single camera system for gesture-based input and target indication |
US6594616B2 (en) | 2001-06-18 | 2003-07-15 | Microsoft Corporation | System and method for providing a mobile input device |
US7710391B2 (en) * | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
EP1540641A2 (en) * | 2002-06-26 | 2005-06-15 | VKB Inc. | Multifunctional integrated image sensor and application to virtual interface technology |
US7982751B2 (en) | 2003-07-11 | 2011-07-19 | The University Of North Carolina | Methods and systems for controlling a computer using a video image and for combining the video image with a computer desktop |
US7969409B2 (en) * | 2004-02-18 | 2011-06-28 | Rafal Jan Krepec | Camera assisted pen tablet |
US20070115261A1 (en) * | 2005-11-23 | 2007-05-24 | Stereo Display, Inc. | Virtual Keyboard input system using three-dimensional motion detection by variable focal length lens |
JP4005061B2 (ja) | 2004-06-30 | 2007-11-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、プログラム、および、情報処理装置におけるオブジェクト制御方法 |
JP2006053678A (ja) * | 2004-08-10 | 2006-02-23 | Toshiba Corp | ユニバーサルヒューマンインタフェースを有する電子機器 |
JP4689684B2 (ja) * | 2005-01-21 | 2011-05-25 | ジェスチャー テック,インコーポレイテッド | 動作に基づくトラッキング |
JP5631535B2 (ja) * | 2005-02-08 | 2014-11-26 | オブロング・インダストリーズ・インコーポレーテッド | ジェスチャベースの制御システムのためのシステムおよび方法 |
US9760214B2 (en) * | 2005-02-23 | 2017-09-12 | Zienon, Llc | Method and apparatus for data entry input |
WO2007013652A1 (ja) * | 2005-07-29 | 2007-02-01 | Pioneer Corporation | 画像表示制御装置、画像表示装置、遠隔操作器、画像表示システム |
US20070063979A1 (en) * | 2005-09-19 | 2007-03-22 | Available For Licensing | Systems and methods to provide input/output for a portable data processing device |
JP4711885B2 (ja) * | 2006-05-25 | 2011-06-29 | 三菱電機株式会社 | 遠隔操作装置及び方法 |
US8144121B2 (en) * | 2006-10-11 | 2012-03-27 | Victor Company Of Japan, Limited | Method and apparatus for controlling electronic appliance |
JP2008146243A (ja) * | 2006-12-07 | 2008-06-26 | Toshiba Corp | 情報処理装置、情報処理方法、及びプログラム |
US20080180399A1 (en) * | 2007-01-31 | 2008-07-31 | Tung Wan Cheng | Flexible Multi-touch Screen |
JP4605170B2 (ja) * | 2007-03-23 | 2011-01-05 | 株式会社デンソー | 操作入力装置 |
US8115753B2 (en) * | 2007-04-11 | 2012-02-14 | Next Holdings Limited | Touch screen system with hover and click input methods |
US8203530B2 (en) * | 2007-04-24 | 2012-06-19 | Kuo-Ching Chiang | Method of controlling virtual object by user's figure or finger motion for electronic device |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
US8726194B2 (en) | 2007-07-27 | 2014-05-13 | Qualcomm Incorporated | Item selection using enhanced control |
US8812261B2 (en) * | 2007-08-23 | 2014-08-19 | Applied Materials, Inc. | Method and apparatus to automatically create virtual sensors with templates |
JP5559691B2 (ja) * | 2007-09-24 | 2014-07-23 | クアルコム,インコーポレイテッド | 音声及びビデオ通信のための機能向上したインタフェース |
US7975243B2 (en) * | 2008-02-25 | 2011-07-05 | Samsung Electronics Co., Ltd. | System and method for television control using hand gestures |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
US9772689B2 (en) * | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US8259163B2 (en) * | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
JP5277703B2 (ja) * | 2008-04-21 | 2013-08-28 | 株式会社リコー | 電子機器 |
US8054300B2 (en) * | 2008-06-17 | 2011-11-08 | Apple Inc. | Capacitive sensor panel having dynamically reconfigurable sensor size and shape |
US8514251B2 (en) * | 2008-06-23 | 2013-08-20 | Qualcomm Incorporated | Enhanced character input using recognized gestures |
JP4720874B2 (ja) * | 2008-08-14 | 2011-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US7869204B2 (en) * | 2008-09-15 | 2011-01-11 | International Business Machines Corporation | Compact size portable computer having a fully integrated virtual keyboard projector and a display projector |
US8165394B2 (en) * | 2008-09-18 | 2012-04-24 | Microsoft Corporation | Reconstruction of image in a Bayer pattern |
US20100177035A1 (en) | 2008-10-10 | 2010-07-15 | Schowengerdt Brian T | Mobile Computing Device With A Virtual Keyboard |
EP2350792B1 (en) * | 2008-10-10 | 2016-06-22 | Qualcomm Incorporated | Single camera tracker |
US8941466B2 (en) * | 2009-01-05 | 2015-01-27 | Polytechnic Institute Of New York University | User authentication for devices with touch sensitive elements, such as touch sensitive display screens |
US20100199228A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Gesture Keyboarding |
US20100259482A1 (en) * | 2009-04-10 | 2010-10-14 | Microsoft Corporation | Keyboard gesturing |
CN104808821A (zh) * | 2009-05-26 | 2015-07-29 | 美国智能科技有限公司 | 数据输入方法及装置 |
WO2011027397A1 (ja) * | 2009-09-03 | 2011-03-10 | 株式会社 東芝 | ユーザーインターフェース装置 |
US8547327B2 (en) * | 2009-10-07 | 2013-10-01 | Qualcomm Incorporated | Proximity object tracker |
US8009141B1 (en) * | 2011-03-14 | 2011-08-30 | Google Inc. | Seeing with your hand |
US9430145B2 (en) * | 2011-04-06 | 2016-08-30 | Samsung Electronics Co., Ltd. | Dynamic text input using on and above surface sensing of hands and fingers |
-
2011
- 2011-04-20 US US13/090,497 patent/US8928589B2/en active Active
-
2012
- 2012-04-18 EP EP12718815.9A patent/EP2699989A2/en not_active Withdrawn
- 2012-04-18 WO PCT/US2012/034122 patent/WO2012145429A2/en active Application Filing
- 2012-04-18 CN CN201280022589.4A patent/CN103518179B/zh active Active
- 2012-04-18 JP JP2014506521A patent/JP5788588B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2012145429A9 (en) | 2013-05-23 |
CN103518179A (zh) | 2014-01-15 |
US20120268376A1 (en) | 2012-10-25 |
EP2699989A2 (en) | 2014-02-26 |
WO2012145429A2 (en) | 2012-10-26 |
WO2012145429A3 (en) | 2013-03-07 |
US8928589B2 (en) | 2015-01-06 |
CN103518179B (zh) | 2016-10-12 |
JP2014512620A (ja) | 2014-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5788588B2 (ja) | 仮想キーボードおよびその提供方法 | |
KR101947034B1 (ko) | 휴대 기기의 입력 장치 및 방법 | |
US9207771B2 (en) | Gesture based user interface | |
US20180024643A1 (en) | Gesture Based Interface System and Method | |
US8390577B2 (en) | Continuous recognition of multi-touch gestures | |
US8890825B2 (en) | Apparatus and method for determining the position of user input | |
US20150220150A1 (en) | Virtual touch user interface system and methods | |
US20150220149A1 (en) | Systems and methods for a virtual grasping user interface | |
US20110157028A1 (en) | Text entry for a touch screen | |
WO2014045953A1 (ja) | 情報処理装置および方法、並びにプログラム | |
WO2016206279A1 (zh) | 触控显示装置及其触控方法 | |
KR20110138212A (ko) | 비디오 스트림에 있어서 물체 인식 및 트랙킹을 위한 시스템 및 방법 | |
CN104199607A (zh) | 一种基于输入法的候选选择方法和装置 | |
KR20190001559A (ko) | 손가락 동작 인식을 이용한 키보드 입력 시스템 및 키보드 입력 방법 | |
US20180129875A1 (en) | Gesture identification with natural images | |
CN104714637B (zh) | 多边形手势检测及互动方法、装置及计算机程序产品 | |
JP2013105305A (ja) | ジェスチャ認識装置、その方法、及び、そのプログラム | |
US20160034027A1 (en) | Optical tracking of a user-guided object for mobile platform user input | |
US20200142582A1 (en) | Disambiguating gesture input types using multiple heatmaps | |
Yin et al. | CamK: A camera-based keyboard for small mobile devices | |
Yin et al. | CamK: Camera-based keystroke detection and localization for small mobile devices | |
JP2011134272A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20230236673A1 (en) | Non-standard keyboard input system | |
CN103870146A (zh) | 一种信息处理方法及电子设备 | |
Pansare et al. | Gestuelle: A system to recognize dynamic hand gestures using hidden Markov model to control windows applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150729 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5788588 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |