JP6522726B2 - 手姿勢制御を伴う入力デバイス - Google Patents
手姿勢制御を伴う入力デバイス Download PDFInfo
- Publication number
- JP6522726B2 JP6522726B2 JP2017236749A JP2017236749A JP6522726B2 JP 6522726 B2 JP6522726 B2 JP 6522726B2 JP 2017236749 A JP2017236749 A JP 2017236749A JP 2017236749 A JP2017236749 A JP 2017236749A JP 6522726 B2 JP6522726 B2 JP 6522726B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- input object
- user input
- elevation
- touch sensitive
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 46
- 230000005684 electric field Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 18
- 230000005484 gravity Effects 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000036544 posture Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000005192 partition Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000012512 characterization method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
Description
本願は、2012年8月27日出願の米国仮特許出願第61/693,617号からの優先権を主張し、その米国仮特許出願は、本明細書で十分に述べられるように、参照によってその全体が本明細書によって援用される。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
入力オブジェクトのタッチ位置を検知することと、
前記タッチ位置、および、入力オブジェクトの位置の特徴的なパラメータに応じて、入力モードを選択することと、
前記特徴的なパラメータの計算後、または、それぞれのタッチの解放に従ってのいずれかで、入力文字を入力することと
を含む、ジェスチャ検知方法。
(項目2)
入力モードは、3次元センサシステムのパラメータ変化の検知時に切り替えられる、項目1に記載のジェスチャ検知方法。
(項目3)
前記パラメータは、タッチを行う入力オブジェクトの仰角レベルによって判定される、項目1に記載のジェスチャ検知方法。
(項目4)
前記入力オブジェクトは、手であり、前記パラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって判定される、項目1に記載のジェスチャ検知方法。
(項目5)
前記入力オブジェクトは、手であり、前記パラメータは、前記タッチを行う前記手の方位角によって判定される、項目1に記載のジェスチャ検知方法。
(項目6)
第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、項目3に記載のジェスチャ検知方法。
(項目7)
第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、項目5に記載のジェスチャ検知方法。
(項目8)
ジェスチャ検知システムであって、前記ジェスチャ検知システムは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
ユーザ入力オブジェクトの3次元空間における位置についての特徴的なパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、ジェスチャ検知システム。
(項目9)
前記入力デバイスまたは前記接続されたシステムは、グラフィカルユーザインターフェースを含む、項目8に記載のジェスチャ検知システム。
(項目10)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目11)
前記ユーザ入力オブジェクトの3次元空間における前記位置を判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目9に記載のジェスチャ検知システム。
(項目12)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置を判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目9に記載のジェスチャ検知システム。
(項目13)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目9に記載のジェスチャ検知システム。
(項目14)
タイプされたテキストと、前記ユーザ入力オブジェクトの3次元空間における前記位置との検知に応答してアクセス可能な辞書をさらに備える、項目9に記載のジェスチャ検知システム。
(項目15)
前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目14に記載のジェスチャ検知システム。
(項目16)
電子デバイスであって、前記電子デバイスは、
タッチ感応性表面および非接触式検知システムを含む入力デバイスと、
前記入力デバイスを使用して選択を表示するための表示デバイスと、
前記タッチ感応性表面に対するユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記ユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成されたコントローラと
を備える、電子デバイス。
(項目17)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの方位角を判定することと、前記方位角に基づいて前記グラフィカルユーザインターフェース上の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目18)
前記ユーザ入力オブジェクトの3次元空間における前記位置と関連付けられるパラメータを判定することは、前記ユーザ入力オブジェクトの仰角を判定することと、前記仰角に基づいて前記グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することとを含む、項目16に記載の電子デバイス。
(項目19)
前記コントローラは、第2のユーザ入力オブジェクトの3次元空間における位置と関連付けられるパラメータを判定し、かつ、前記第2のユーザ入力オブジェクトの前記位置に基づいて前記入力デバイスの動作モードを選択するように構成される、項目16に記載の電子デバイス。
(項目20)
前記入力デバイスの前記動作モードは、前記ユーザ入力オブジェクトの3次元空間における前記位置に基づいて、オプションメニューを表示することを含む、項目16に記載の電子デバイス。
(項目21)
タイプされたテキストと前記パラメータとの検知に応答してアクセス可能な辞書をさらに備える、項目16に記載の電子デバイス。
(項目22)
前記コントローラは、前記パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供するようにさらに構成される、項目21に記載の電子デバイス。
(項目23)
方法であって、前記方法は、
タッチ位置を検知することと、
3次元空間におけるユーザ入力オブジェクトの位置関連パラメータを検知することと、
前記タッチ位置および前記位置関連パラメータに基づいて、電子デバイスの動作モードを選択することと
を含む、方法。
(項目24)
前記動作モードは、前記位置関連パラメータに基づいて、グラフィカルユーザインターフェース上の第1の文字または第2の文字を選択することを含む、項目23に記載の方法。
(項目25)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの方位角を含む、項目23に記載の方法。
(項目26)
前記位置関連パラメータは、前記ユーザ入力オブジェクトの仰角を含む、項目23に記載の方法。
(項目27)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目26に記載の方法。
(項目28)
3次元空間における第2のユーザ入力オブジェクトの位置関連パラメータを検知することと、3次元空間における前記第2のユーザ入力オブジェクトの前記位置関連パラメータに基づいて、前記電子デバイスの動作モードを選択することとをさらに含む、項目25に記載の方法。
(項目29)
前記動作モードを選択することは、前記位置関連パラメータに基づいて前記グラフィカルユーザインターフェース上の1つ以上の制御を選択することを含む、項目23に記載の方法。
(項目30)
タイプされたテキストと前記位置関連パラメータとの検知に応答して、辞書にアクセスすることをさらに含む、項目23に記載の方法。
(項目31)
前記位置関連パラメータに基づいて、前記タイプされたテキストと関連付けられる前記辞書からの1つ以上の自動補完オプションを提供することをさらに含む、項目30に記載の方法。
(項目32)
第1の位置情報および第2の位置情報は、イベント駆動型多重化を使用して判定される、項目30に記載の方法。
本開示ならびにそれの種々の特徴および利点は、添付図面で図示され、下記の説明で詳述される、例示的であり、したがって、非限定的な実施形態を参照して、より十分に説明される。しかしながら、発明を実施するための形態および具体的例は、好ましい実施形態を示すが、限定ではなく例証としてのみ挙げられることが、理解されるべきである。既知のプログラミング技法、コンピュータソフトウェア、ハードウェア、オペレーティングプラットフォーム、および、プロトコルの説明は、本開示の詳細を不必要に曖昧にしないよう省略され得る。基礎的な発明概念の精神および/または範囲内の種々の置換、改変、追加、および/または、再構成が、本開示から当業者に明白である。
下記でさらに詳細に議論されるように、種々の実施形態は、手姿勢を検知し、電子デバイスを制御するために手姿勢を使用する。したがって、そのような手姿勢を検知するために使用され得るシステムを最初に説明することが有用であり得る。そのような検知のためのシステムおよび方法についての追加の詳細は、本明細書で完全に記載されるように、それの全体において参照によって本明細書に援用される2011年12月9日出願の「Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch−sensitive surface and contact−free detection means」と題される、同一出願人による同時係属中の米国特許出願第13/315,739号で説明されている。
上記のように、実施形態は、電子デバイス100の手姿勢制御のために、特定すると、電子デバイスを制御するように、ジェスチャまたは手の姿勢あるいは配向等の位置と関連付けられる特徴的なパラメータを使用して、上記で説明されるようなセンサシステムを利用し得る。ここで図8を参照すると、そのような方法を適用するための例示的な環境を図示する略図が、示されている。タッチ感応性モジュール200、ならびに、手501および関連する指500が、示されている。指500は、タッチ感応性モジュール200の接触領域またはタッチ位置210に触れる。接触領域210は、3次元座標における点を画定する。特定すると、接触領域210は、座標(x1,y1,0)を有する点Aを画定する。手501は、座標(x2,y2,z2)を有するBにおいて重心を有する。重心は、センサについての「集中」点であり、カメラベースのセンサについては、これは、典型的に、幾何学的中心であり、容量および音響センサについては、この中心点は、典型的に、上記で議論されるような距離測定および三辺測量の結果である。重心Bは、タッチ感応性モジュール200に対する仰角αと、方位角βと呼ばれるタッチ感応性表面上の角度とを画定する。
」を選択するように、接触点210で画面200に触れる。ユーザは、図示される実施形態において小文字を選択する低い仰角でそのようにする。示されるように、ユーザは、より大きい負の方位角βで文字に触れ得る。これは、ポップアップウィンドウ1402が表示されるようにする。ポップアップディスプレイ1402に表示される文字「
」の選択は、長方形によって示される最も左側にある文字である。ユーザがこの位置でタッチを解放した場合、ユーザは、「
」を書き込む。しかしながら、ユーザが右に(反時計回りに)指500を回転させた場合、ユーザは、示された文字を右にスクロールすることにより、所望の変形例を強調表示して選択することができる。
それぞれの文の中で意味を成さない文字が抑制されることができる。
2番目の文字としては大文字がない。
終止符の後の最初の文字としては常に大文字である。
Claims (8)
- ジェスチャ検知方法であって、前記ジェスチャ検知方法は、
ディスプレイ上への入力オブジェクトのタッチがあるときにタッチ感応性モジュールによって前記入力オブジェクトのタッチ位置を検知することと、
伝送電極と複数の容量性センサ電極とを備える3次元容量性検知システムによって、少なくとも前記入力オブジェクトの重心の座標、前記入力オブジェクトの仰角および前記入力オブジェクトの方位角を含む特徴的なパラメータを決定することであって、前記3次元容量性検知システムは、前記タッチ感応性モジュールに含まれており、前記特徴的なパラメータは、前記入力オブジェクトの前記タッチ位置に関連しており、前記入力オブジェクトの前記仰角および前記方位角が、前記入力オブジェクトの決定された重心の前記座標に基づいて決定され、前記伝送電極は、前記タッチ感応性モジュールの上の領域において電場を生成するように構成され、前記電場は、前記複数の容量性センサ電極によって受信され、特徴的なパラメータを決定することは、前記複数の容量性センサ電極によって受信される前記電場の変化を測定することを含む、ことと、
前記入力オブジェクトの前記タッチ位置と前記特徴的なパラメータとに応じて、入力モードを選択することと、
前記ディスプレイ上への前記入力オブジェクトの前記タッチが解放されたときに選択された前記入力モードに従って入力文字を入力することと
を含む、ジェスチャ検知方法。 - 前記複数の容量性センサ電極は、前記タッチ感応性モジュールの周りに配列され、前記特徴的なパラメータは、前記複数の容量性センサ電極で受信される信号に応じる、請求項1に記載のジェスチャ検知方法。
- 前記入力モードは、前記3次元容量性検知システムによって決定される前記特徴的なパラメータの変化の検知時に切り替えられる、請求項1に記載のジェスチャ検知方法。
- 前記特徴的なパラメータは、タッチを行う前記入力オブジェクトの仰角レベルによって決定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記特徴的なパラメータは、モバイルデバイスを保持する前記手から指を持ち上げることによって決定される、請求項1に記載のジェスチャ検知方法。
- 前記入力オブジェクトは、手であり、前記特徴的なパラメータは、前記タッチを行う前記手の方位角によって決定される、請求項1に記載のジェスチャ検知方法。
- 第1の仰角は、第1の入力モードを選択し、第2の仰角は、第2の入力モードを選択する、請求項4に記載のジェスチャ検知方法。
- 第1の方位角は、第1の入力モードを選択し、第2の方位角は、第2の入力モードを選択する、請求項6に記載のジェスチャ検知方法。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261693617P | 2012-08-27 | 2012-08-27 | |
US61/693,617 | 2012-08-27 | ||
US13/975,579 US9552068B2 (en) | 2012-08-27 | 2013-08-26 | Input device with hand posture control |
US13/975,579 | 2013-08-26 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528992A Division JP2015531139A (ja) | 2012-08-27 | 2013-08-27 | 手姿勢制御を伴う入力デバイス |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018055718A JP2018055718A (ja) | 2018-04-05 |
JP2018055718A5 JP2018055718A5 (ja) | 2018-05-24 |
JP6522726B2 true JP6522726B2 (ja) | 2019-05-29 |
Family
ID=50147554
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528992A Withdrawn JP2015531139A (ja) | 2012-08-27 | 2013-08-27 | 手姿勢制御を伴う入力デバイス |
JP2017236749A Active JP6522726B2 (ja) | 2012-08-27 | 2017-12-11 | 手姿勢制御を伴う入力デバイス |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015528992A Withdrawn JP2015531139A (ja) | 2012-08-27 | 2013-08-27 | 手姿勢制御を伴う入力デバイス |
Country Status (7)
Country | Link |
---|---|
US (1) | US9552068B2 (ja) |
EP (1) | EP2888653A1 (ja) |
JP (2) | JP2015531139A (ja) |
KR (1) | KR102137687B1 (ja) |
CN (1) | CN104662508A (ja) |
TW (1) | TWI614645B (ja) |
WO (1) | WO2014033138A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
DE102012219736A1 (de) * | 2012-10-29 | 2014-04-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben einer Eingabevorrichtung |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
TWI507920B (zh) * | 2014-08-20 | 2015-11-11 | Quanta Comp Inc | 電子裝置及避免多個輸入裝置互相干擾的方法 |
US10039975B2 (en) | 2015-01-13 | 2018-08-07 | Disney Enterprises, Inc. | Techniques for representing imaginary participants in an immersive play environment |
US10265621B2 (en) | 2015-01-20 | 2019-04-23 | Disney Enterprises, Inc. | Tracking specific gestures relative to user movement |
US9855497B2 (en) | 2015-01-20 | 2018-01-02 | Disney Enterprises, Inc. | Techniques for providing non-verbal speech recognition in an immersive playtime environment |
WO2016121708A1 (ja) * | 2015-01-26 | 2016-08-04 | Necソリューションイノベータ株式会社 | 入力システム、入力装置、入力方法、および、記録媒体 |
US10108292B2 (en) * | 2015-04-22 | 2018-10-23 | Microchip Technology Incorporated | Capacitive sensor system with multiple transmit electrodes |
USD788048S1 (en) * | 2015-06-16 | 2017-05-30 | Fibar Group S.A. | Touch-less swipe controller |
CN106027104A (zh) * | 2016-07-08 | 2016-10-12 | 杭州联络互动信息科技股份有限公司 | 一种使用手腕佩戴的智能设备执行通讯操作的方法及装置 |
CN106598470A (zh) * | 2016-12-27 | 2017-04-26 | 努比亚技术有限公司 | 一种触控操作方法及装置 |
WO2018119728A1 (zh) * | 2016-12-28 | 2018-07-05 | 英华达(上海)科技有限公司 | 电子设备的输入方法及系统 |
KR102635976B1 (ko) * | 2016-12-30 | 2024-02-13 | 에스엘 주식회사 | 제스처 인식 장치 |
CN106873870A (zh) * | 2017-01-06 | 2017-06-20 | 珠海格力电器股份有限公司 | 一种终端交互方法及其装置、终端及电子设备 |
US10788935B2 (en) * | 2017-03-13 | 2020-09-29 | Microsoft Technology Licensing, Llc | Multiplexing capacitance sensing and display functionality |
CN111033452B (zh) * | 2017-09-04 | 2024-04-09 | 株式会社和冠 | 空间位置指示系统 |
CN113849093A (zh) * | 2021-09-28 | 2021-12-28 | 联想(北京)有限公司 | 一种控制方法、装置及电子设备 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US6597345B2 (en) | 2000-03-03 | 2003-07-22 | Jetway Technologies Ltd. | Multifunctional keypad on touch screen |
US9274551B2 (en) * | 2005-02-23 | 2016-03-01 | Zienon, Llc | Method and apparatus for data entry input |
WO2007097414A1 (ja) * | 2006-02-23 | 2007-08-30 | Pioneer Corporation | 操作入力装置 |
DE102007020873A1 (de) | 2007-04-26 | 2008-10-30 | Ident Technology Ag | Sensoreinrichtung, sowie Verfahren zur Generierung von hinsichtlich der Position oder Positionsänderung von Gliedmaßen indikativen Signalen |
KR100838818B1 (ko) * | 2007-08-13 | 2008-06-17 | 홍성찬 | 문자입력장치 |
JP4609543B2 (ja) * | 2008-07-25 | 2011-01-12 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US20100271331A1 (en) * | 2009-04-22 | 2010-10-28 | Rachid Alameh | Touch-Screen and Method for an Electronic Device |
JP2011008424A (ja) * | 2009-06-24 | 2011-01-13 | Sharp Corp | 電子機器、動作モード設定方法、およびプログラム |
US9323398B2 (en) * | 2009-07-10 | 2016-04-26 | Apple Inc. | Touch and hover sensing |
US9632622B2 (en) * | 2009-07-16 | 2017-04-25 | Apple Inc. | Ground detection for touch sensitive device |
DE102010007455A1 (de) | 2010-02-10 | 2011-08-11 | Ident Technology AG, 82234 | System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum |
EP2558927B1 (de) | 2010-04-16 | 2022-06-15 | Microchip Technology Germany GmbH | Tft-lc display sowie verfahren zur detektion der räumlichen position von gliedmassen in dem einem display vorgelagerten räumlichen bereich |
US8890818B2 (en) * | 2010-09-22 | 2014-11-18 | Nokia Corporation | Apparatus and method for proximity based input |
US9323379B2 (en) | 2011-12-09 | 2016-04-26 | Microchip Technology Germany Gmbh | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
US8436828B1 (en) * | 2012-01-27 | 2013-05-07 | Google Inc. | Smart touchscreen key activation detection |
US9298295B2 (en) * | 2012-07-25 | 2016-03-29 | Facebook, Inc. | Gestures for auto-correct |
-
2013
- 2013-08-26 US US13/975,579 patent/US9552068B2/en active Active
- 2013-08-27 TW TW102130737A patent/TWI614645B/zh active
- 2013-08-27 CN CN201380050335.8A patent/CN104662508A/zh active Pending
- 2013-08-27 KR KR1020157007366A patent/KR102137687B1/ko active IP Right Grant
- 2013-08-27 JP JP2015528992A patent/JP2015531139A/ja not_active Withdrawn
- 2013-08-27 EP EP13753626.4A patent/EP2888653A1/en active Pending
- 2013-08-27 WO PCT/EP2013/067746 patent/WO2014033138A1/en active Application Filing
-
2017
- 2017-12-11 JP JP2017236749A patent/JP6522726B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP2888653A1 (en) | 2015-07-01 |
US9552068B2 (en) | 2017-01-24 |
US20140055396A1 (en) | 2014-02-27 |
JP2015531139A (ja) | 2015-10-29 |
TW201413538A (zh) | 2014-04-01 |
KR102137687B1 (ko) | 2020-07-27 |
JP2018055718A (ja) | 2018-04-05 |
CN104662508A (zh) | 2015-05-27 |
WO2014033138A1 (en) | 2014-03-06 |
TWI614645B (zh) | 2018-02-11 |
KR20150047577A (ko) | 2015-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6522726B2 (ja) | 手姿勢制御を伴う入力デバイス | |
EP3342143B1 (en) | Portable device and screen display method of portable device | |
KR102120930B1 (ko) | 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스 | |
JP6109847B2 (ja) | 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス | |
AU2014307237B2 (en) | Method and apparatus for recognizing grip state in electronic device | |
CN103677561B (zh) | 用于提供由便携式装置使用的用户接口的系统 | |
US8928593B2 (en) | Selecting and updating location of virtual keyboard in a GUI layout in response to orientation change of a portable device | |
EP2332023B1 (en) | Two-thumb qwerty keyboard | |
KR102007651B1 (ko) | 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 | |
US9665177B2 (en) | User interfaces and associated methods | |
US8638297B2 (en) | Portable electronic device and method therefor | |
US8952904B2 (en) | Electronic device, screen control method, and storage medium storing screen control program | |
KR20090046881A (ko) | 3차원 터치 패드 입력 장치 | |
WO2009142880A1 (en) | Proximity sensor device and method with subregion based swipethrough data entry | |
CN109933252B (zh) | 一种图标移动方法及终端设备 | |
US8810529B2 (en) | Electronic device and method of controlling same | |
CA2886662C (en) | Sensor pattern for a tactile input device | |
WO2021197262A1 (zh) | 显示方法及电子设备 | |
WO2018133211A1 (zh) | 一种双屏电子设备的屏幕切换方法及双屏电子设备 | |
US20130069881A1 (en) | Electronic device and method of character entry | |
US9483168B2 (en) | Correcting scrolling gesture | |
EP2570892A1 (en) | Electronic device and method of character entry | |
EP2487570B1 (en) | Electronic device and method of controlling same | |
US20150242004A1 (en) | Touch-sensitive input device having a logo displayed thereon for use in a mobile electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6522726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |