JP2012506574A - 電子システムのパラメータを調節するための入力デバイス及び方法 - Google Patents
電子システムのパラメータを調節するための入力デバイス及び方法 Download PDFInfo
- Publication number
- JP2012506574A JP2012506574A JP2011532147A JP2011532147A JP2012506574A JP 2012506574 A JP2012506574 A JP 2012506574A JP 2011532147 A JP2011532147 A JP 2011532147A JP 2011532147 A JP2011532147 A JP 2011532147A JP 2012506574 A JP2012506574 A JP 2012506574A
- Authority
- JP
- Japan
- Prior art keywords
- adjustment
- movement
- sensing area
- change
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【選択図】 図1
Description
[0001]本出願は、2008年10月21日に出願された米国特許仮出願第61/107、245号、及び2009年2月23日に出願された米国実用特許出願第12/391、011号の優先権を主張するものである。該出願は、参照により本明細書に組み込まれる。
Claims (26)
- パラメータの調節を達成するための方法であって、
感知領域における第2の物体に対する第1の物体の位置の変化を検出するステップであり、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在する、ステップと、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定するステップと、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答して前記パラメータに対する第1の調節を示すステップであり、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づく、ステップと、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を検出する前記ステップの後に、前記感知領域における前記第1の物体の運動を検出するステップと、
前記感知領域に対する前記第1の物体の前記運動を示す第2の測定値を決定するステップと、
前記第1の物体の前記運動を検出する前記ステップと、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示すステップであり、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく、ステップと
を含む、方法。 - 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化と前記感知領域における前記第1の物体の前記運動との間における移行を示す移行事象を検出するステップをさらに含み、前記第2の調節を示す前記ステップが、前記移行事象を検出するこのステップに応答してさらに行なわれる、請求項1に記載の方法。
- 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項2に記載の方法。
- 前記移行事象が、しきい値を超える前記第1の測定値を含む、請求項2に記載の方法。
- 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定する前記ステップが、
前記第2の物体に対する前記第1の物体の位置の前記変化を示す距離の変化を決定するステップから成る、請求項1に記載の方法。 - 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定する前記ステップが、
前記第2の物体に対する前記第1の物体の位置の前記変化を示す角度の変化を決定するステップから成る、請求項1に記載の方法。 - 前記感知領域における前記第1の物体の前記運動を検出する前記ステップの後に、前記感知領域における前記第1の物体の第2の運動を検出するステップであって、前記第2の運動が、前記第1の運動の逆となる、ステップと、
前記感知領域に対する前記第1の物体の前記第2の運動を示す第3の測定値を決定するステップと、
前記第1の物体の前記第2の運動を検出する前記ステップに応答して前記パラメータに対する第3の調節を示すステップであって、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づき、前記パラメータに対する前記第3の調節が、前記パラメータに対する前記第2の調節の逆ではない、ステップと
をさらに含む、請求項1に記載の方法。 - 前記感知領域における前記第1の物体の前記運動を検出する前記ステップの後に、前記感知領域における前記第1の物体の第2の運動を検出するステップであって、前記第2の運動が、前記第1の運動の逆となる、ステップと、
前記感知領域に対する前記第1の物体の前記第2の運動を示す第3の測定値を決定するステップと、
前記第1の物体の前記第2の運動を検出する前記ステップに応答して前記パラメータに対する第3の調節を示すステップであって、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づき、前記パラメータに対する前記第3の調節が、前記パラメータに対する前記第2の調節の逆となる、ステップと
をさらに含む、請求項1に記載の方法。 - 前記第2の測定値が、前記感知領域に対する前記第1の物体の前記運動の経路長さである、請求項1に記載の方法。
- 感知領域を有するセンサデバイスを使用してパラメータの調節を達成するための方法であって、
前記感知領域における第2の物体に対する第1の物体の位置を示す角度の変化を検出するステップであり、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在する、ステップと、
角度の前記変化を検出する前記ステップの後に、前記パラメータの調節を達成するための調節モードに進むステップと、
前記角度の前記変化を検出する前記ステップの後に、前記感知領域における前記第1の物体の運動を検出するステップと、
前記感知領域に対する前記第1の物体の前記運動を示す測定値を決定するステップと、
前記感知領域における前記第1の物体の前記運動を検出する前記ステップに応答して前記調節モードに進む前記ステップの後に、前記パラメータに対する調節を示すステップであり、前記パラメータに対する前記調節の量が、前記測定値に基づく、ステップと
を含む、方法。 - 前記第2の物体に対する前記第1の物体の前記位置を示す前記角度の前記変化を示す第2の測定値を決定するステップと、
前記感知領域における前記第1の物体の前記運動を検出する前記ステップに応答して前記パラメータに対する前記調節を示す前記ステップの前に、先行調節を示すステップであって、前記先行調節が、前記第2の物体に対する前記第1の物体の前記位置を示す角度の前記変化に応答するものであり、前記先行調節の量が、前記第2の測定値に基づく、ステップと
をさらに含む、請求項10に記載の方法。 - 前記調節モードに進む前記ステップが、
しきい値を越える前記角度の前記変化に応答して、前記調節モードに進むステップ
をさらに含む、請求項10に記載の方法。 - 感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、
前記感知システムに結合される処理システムであって、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の変化を示す第1の測定値を決定し、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答してパラメータに対する第1の調節を示し、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づき、
前記感知領域に対する前記第1の物体の運動を示す第2の測定値を決定し、前記第1の物体の前記運動が、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化後に行なわれ、
前記第1の物体の前記運動と、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示し、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく
ように構成される、処理システムと
を備える、入力デバイス。 - 前記処理システムが、前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化と前記感知領域における前記第1の物体の前記運動との間における移行を示す移行事象を検出するようにさらに構成され、前記処理システムが、前記移行事象にさらに応答して前記第2の調節を示すようにさらに構成される、請求項13に記載の入力デバイス。
- 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項14に記載の入力デバイス。
- 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す前記第1の測定値が、距離の変化を含む、請求項13に記載の入力デバイス。
- 前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す前記第1の測定値が、角度の変化を含む、請求項13に記載の入力デバイス。
- 前記パラメータに対する前記第1の調節及び前記第2の調節がそれぞれ、ディスプレイ上に表示される画像のズーム機能、ディスプレイ上に表示される画像の回転機能、又はそれらの組合せを含む、請求項13に記載の入力デバイス。
- 感知領域における第1の物体及び第2の物体の存在及び運動を検出するように構成された感知システムと、
前記感知システムに結合される処理システムであって、
前記感知領域における第2の物体に対する第1の物体の位置を示す角度の変化を検出し、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在し、
前記角度の前記変化の検出後に調節モードに進んで前記パラメータの調節を達成し、
前記角度の前記変化の検出後に前記感知領域における前記第1の物体の運動を検出し、
前記感知領域に対する前記第1の物体の前記運動を示す測定値を決定し、及び
前記感知領域における前記第1の物体の前記運動の検出に応答して前記パラメータに対する調節を示し、前記パラメータに対する前記調節の量が、前記測定値に基づく
ように構成される、処理システムと
を備える、入力デバイス。 - 前記パラメータに対する前記調節が、後の調節であり、前記パラメータに対する前の調節が、前記角度の前記変化の検出に応答して示される、請求項19に記載の入力デバイス。
- 前記処理システムが、
前記第2の物体に対する前記第1の物体の前記位置を示す前記角度の前記変化を示す第2の測定値を決定し、
前記感知領域における前記第1の物体の前記運動の検出に応答して前記パラメータに対する前記調節を示す前に、先行調節を示し、前記先行調節が、前記第2の物体に対する前記第1の物体の前記位置を示す角度の前記変化に応答するものであり、前記先行調節の量が、前記第2の測定値に基づく
ようにさらに構成される、請求項19に記載の入力デバイス。 - 前記処理システムが、前記角度の前記変化に応答して前記調節モードに進むようにさらに構成される、請求項19に記載の入力デバイス。
- 入力デバイス用プログラムであって、
感知領域における第2の物体に対する第1の物体の位置の変化を検出し、前記第1の物体及び前記第2の物体が、前記感知領域に同時に存在し、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化を示す第1の測定値を決定し、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化に応答してパラメータに対する第1の調節を示し、前記パラメータに対する前記第1の調節の量が、前記第1の測定値に基づき、
前記感知領域における前記第2の物体に対する前記第1の物体の位置の前記変化後の移行事象を検出し、
前記移行事象後の前記感知領域における前記第1の物体の運動を検出し、
前記感知領域に対する前記第1の物体の前記運動を示す第2の測定値を決定し、
前記第1の物体の前記運動と、前記移行事象の開始と前記感知領域における前記第1の物体の前記運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体のうちの少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第2の調節を示し、前記パラメータに対する前記第2の調節の量が、前記第2の測定値に基づく
ように構成された、入力デバイス用プログラムと、
前記入力デバイス用プログラムを担持するコンピュータ可読メディアと
を備える、プログラム製品。 - 前記移行事象が、前記感知領域からの前記第1の物体及び前記第2の物体の少なくとも一方の離動を含む、請求項23に記載のプログラム製品。
- 前記移行事象が、しきい値を越える前記第1の測定値を含み、前記第1の測定値が、前記感知領域における前記第2の物体に対する前記第1の物体の位置を示す角度の変化と、前記第1の物体及び前記第2の物体を隔てる距離の変化とのうち少なくとも一方を含む、請求項23に記載のプログラム製品。
- 前記処理システムが、
前記感知領域に対する前記第1の物体の第2の運動を示す第3の測定値を決定し、
前記第1の物体の前記第2の運動と、前記感知領域における前記第1の物体の前記運動の開始と前記感知領域における前記第1の物体の前記第2の運動の開始との間に、前記感知領域における前記第1の物体及び前記第2の物体の少なくとも一方が継続的に存在することとに応答して、前記パラメータに対する第3の調節を示し、前記パラメータに対する前記第3の調節が、前記第3の測定値に基づく
ようにさらに構成される、請求項23に記載のプログラム製品。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10724508P | 2008-10-21 | 2008-10-21 | |
US61/107,245 | 2008-10-21 | ||
US12/391,011 US8174504B2 (en) | 2008-10-21 | 2009-02-23 | Input device and method for adjusting a parameter of an electronic system |
US12/391,011 | 2009-02-23 | ||
PCT/US2009/059685 WO2010047945A2 (en) | 2008-10-21 | 2009-10-06 | Input device and method for adjusting a parameter of an electronic system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012506574A true JP2012506574A (ja) | 2012-03-15 |
JP2012506574A5 JP2012506574A5 (ja) | 2012-11-08 |
JP5561682B2 JP5561682B2 (ja) | 2014-07-30 |
Family
ID=42108277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011532147A Active JP5561682B2 (ja) | 2008-10-21 | 2009-10-06 | 電子システムのパラメータを調節するための入力デバイス及び方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8174504B2 (ja) |
EP (1) | EP2356548A2 (ja) |
JP (1) | JP5561682B2 (ja) |
KR (1) | KR20110074600A (ja) |
CN (1) | CN102257468B (ja) |
WO (1) | WO2010047945A2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013257517A (ja) * | 2012-06-14 | 2013-12-26 | Yamaha Corp | パラメータ制御プログラム及びパラメータ制御装置 |
JP2015005265A (ja) * | 2013-11-25 | 2015-01-08 | 利仁 曽根 | リサイズ要求判定方法 |
JP2016045813A (ja) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | ズーム制御装置およびその制御方法 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100321319A1 (en) * | 2009-06-17 | 2010-12-23 | Hefti Thierry | Method for displaying and updating a view of a graphical scene in response to commands via a touch-sensitive device |
US20110205169A1 (en) * | 2010-02-24 | 2011-08-25 | Primax Electronics Ltd. | Multi-touch input apparatus and its interface method using hybrid resolution based touch data |
US8878773B1 (en) | 2010-05-24 | 2014-11-04 | Amazon Technologies, Inc. | Determining relative motion as input |
JP2015038642A (ja) | 2010-06-09 | 2015-02-26 | 株式会社東芝 | 表示処理装置及び表示処理方法 |
FR2963970B1 (fr) * | 2010-08-17 | 2013-07-12 | Compagnie Ind Et Financiere Dingenierie Ingenico | Procede de commande d'actions au moyen d'un ecran tactile. |
US20120054670A1 (en) * | 2010-08-27 | 2012-03-01 | Nokia Corporation | Apparatus and method for scrolling displayed information |
US20120161791A1 (en) * | 2010-12-28 | 2012-06-28 | Synaptics Incorporated | Methods and apparatus for determining input objects associated with proximity events |
US8497838B2 (en) * | 2011-02-16 | 2013-07-30 | Microsoft Corporation | Push actuation of interface controls |
CN102692995A (zh) * | 2011-03-21 | 2012-09-26 | 国基电子(上海)有限公司 | 具有接近感应功能的电子装置及接近感应控制方法 |
KR20140025524A (ko) * | 2011-06-21 | 2014-03-04 | 유니파이 게엠베하 운트 코. 카게 | 정보 기술 장치의 디스플레이 디바이스에 의한 회화 정보의 표현에 영향을 주기 위한 방법들 및 물건들 |
US9041734B2 (en) | 2011-07-12 | 2015-05-26 | Amazon Technologies, Inc. | Simulating three-dimensional features |
US10088924B1 (en) | 2011-08-04 | 2018-10-02 | Amazon Technologies, Inc. | Overcoming motion effects in gesture recognition |
US8947351B1 (en) * | 2011-09-27 | 2015-02-03 | Amazon Technologies, Inc. | Point of view determinations for finger tracking |
DE102011084802A1 (de) * | 2011-10-19 | 2013-04-25 | Siemens Aktiengesellschaft | Anzeige- und Bedieneinrichtung |
JP5160680B1 (ja) * | 2011-10-26 | 2013-03-13 | 株式会社コナミデジタルエンタテインメント | 画像処理装置、画像処理装置の制御方法、及びプログラム |
JP5060651B2 (ja) * | 2011-12-20 | 2012-10-31 | 株式会社東芝 | 表示処理装置、表示制御プログラム及び表示処理方法 |
US8942434B1 (en) | 2011-12-20 | 2015-01-27 | Amazon Technologies, Inc. | Conflict resolution for pupil detection |
TWI547858B (zh) * | 2011-12-30 | 2016-09-01 | 富智康(香港)有限公司 | 於觸控螢幕上控制檔案縮放及旋轉的系統及方法 |
US9223415B1 (en) | 2012-01-17 | 2015-12-29 | Amazon Technologies, Inc. | Managing resource usage for task performance |
US9342195B2 (en) * | 2012-03-12 | 2016-05-17 | Microchip Technology Incorporated | System and method to share electrodes between capacitive touch controller and gesture detection device |
US20130257792A1 (en) * | 2012-04-02 | 2013-10-03 | Synaptics Incorporated | Systems and methods for determining user input using position information and force sensing |
US9317113B1 (en) | 2012-05-31 | 2016-04-19 | Amazon Technologies, Inc. | Gaze assisted object recognition |
CN103593119B (zh) * | 2012-08-14 | 2017-06-13 | 国基电子(上海)有限公司 | 便携式电子装置及其显示内容放大的方法 |
US9195368B2 (en) | 2012-09-13 | 2015-11-24 | Google Inc. | Providing radial menus with touchscreens |
US9507425B2 (en) | 2013-03-06 | 2016-11-29 | Sony Corporation | Apparatus and method for operating a user interface of a device |
DE102013009009B4 (de) * | 2013-05-17 | 2023-08-03 | Elektrobit Automotive Gmbh | System und Verfahren zur Datenauswahl mittels einer berührungsempfindlichen Oberfläche |
US9269012B2 (en) | 2013-08-22 | 2016-02-23 | Amazon Technologies, Inc. | Multi-tracker object tracking |
CN105531646A (zh) * | 2013-09-17 | 2016-04-27 | 皇家飞利浦有限公司 | 手势驱动的范围和值的同时选择 |
US10055013B2 (en) | 2013-09-17 | 2018-08-21 | Amazon Technologies, Inc. | Dynamic object tracking for user interfaces |
CN103995653B (zh) * | 2014-06-09 | 2018-10-12 | 联想(北京)有限公司 | 一种参数调节的方法和装置 |
CA2955169A1 (en) * | 2014-09-03 | 2016-03-10 | University Of Malta | A human machine interface device for aircraft |
CN105137938A (zh) * | 2015-08-31 | 2015-12-09 | 中国烟草总公司广东省公司 | 一种基于物联网技术的智能烟田监控管理系统 |
US9652069B1 (en) | 2015-10-22 | 2017-05-16 | Synaptics Incorporated | Press hard and move gesture |
US10089000B2 (en) | 2016-06-03 | 2018-10-02 | Microsoft Technology Licensing, Llc | Auto targeting assistance for input devices |
US10459544B2 (en) * | 2017-05-19 | 2019-10-29 | Htc Corporation | Electronic system and proximity sensing method |
US11094135B1 (en) * | 2021-03-05 | 2021-08-17 | Flyreel, Inc. | Automated measurement of interior spaces through guided modeling of dimensions |
US20230289244A1 (en) * | 2022-01-21 | 2023-09-14 | Hewlett-Packard Development Company, L.P. | Peripheral device positions |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008020446A1 (en) * | 2006-08-15 | 2008-02-21 | N-Trig Ltd. | Gesture detection for a digitizer |
JP2008217767A (ja) * | 2008-01-29 | 2008-09-18 | Fujitsu Ten Ltd | 表示装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5327161A (en) * | 1989-08-09 | 1994-07-05 | Microtouch Systems, Inc. | System and method for emulating a mouse input device with a touchpad input device |
US5543590A (en) * | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Object position detector with edge motion feature |
US5543591A (en) * | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5880411A (en) * | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5889236A (en) * | 1992-06-08 | 1999-03-30 | Synaptics Incorporated | Pressure sensitive scrollbar feature |
US5825352A (en) * | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
US5943052A (en) * | 1997-08-12 | 1999-08-24 | Synaptics, Incorporated | Method and apparatus for scroll bar control |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US7469381B2 (en) * | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
JP2001134382A (ja) * | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
US7138983B2 (en) * | 2000-01-31 | 2006-11-21 | Canon Kabushiki Kaisha | Method and apparatus for detecting and interpreting path of designated position |
JP4803883B2 (ja) | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
JP4223664B2 (ja) | 2000-09-14 | 2009-02-12 | 株式会社リコー | タッチパネル式座標入力装置 |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
JP5259898B2 (ja) | 2001-04-13 | 2013-08-07 | 富士通テン株式会社 | 表示装置、及び表示処理方法 |
US7038659B2 (en) | 2002-04-06 | 2006-05-02 | Janusz Wiktor Rajkowski | Symbol encoding apparatus and method |
CN100412766C (zh) * | 2003-08-29 | 2008-08-20 | 诺基亚公司 | 在基于触摸的用户输入装置上用于识别双点用户输入的方法和装置 |
WO2005104709A2 (en) * | 2004-04-23 | 2005-11-10 | Cirque Corporation | An improved method for scrolling and edge motion on a touchpad |
JP4903371B2 (ja) * | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
US20070046643A1 (en) * | 2004-08-06 | 2007-03-01 | Hillis W Daniel | State-Based Approach to Gesture Identification |
US7728821B2 (en) * | 2004-08-06 | 2010-06-01 | Touchtable, Inc. | Touch detecting interactive display |
US20070130547A1 (en) * | 2005-12-01 | 2007-06-07 | Navisense, Llc | Method and system for touchless user interface control |
US9395905B2 (en) * | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
US20070262951A1 (en) * | 2006-05-09 | 2007-11-15 | Synaptics Incorporated | Proximity sensor device and method with improved indication of adjustment |
WO2007149357A2 (en) | 2006-06-16 | 2007-12-27 | Cirque Corporation | A method of scrolling that is activated by touchdown in a predefined location on a touchpad that recognizes gestures for controlling scrolling functions |
US8086971B2 (en) | 2006-06-28 | 2011-12-27 | Nokia Corporation | Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications |
US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
-
2009
- 2009-02-23 US US12/391,011 patent/US8174504B2/en active Active
- 2009-10-06 KR KR1020117011341A patent/KR20110074600A/ko not_active Application Discontinuation
- 2009-10-06 WO PCT/US2009/059685 patent/WO2010047945A2/en active Application Filing
- 2009-10-06 JP JP2011532147A patent/JP5561682B2/ja active Active
- 2009-10-06 CN CN2009801528290A patent/CN102257468B/zh active Active
- 2009-10-06 EP EP09793320A patent/EP2356548A2/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008020446A1 (en) * | 2006-08-15 | 2008-02-21 | N-Trig Ltd. | Gesture detection for a digitizer |
JP2008217767A (ja) * | 2008-01-29 | 2008-09-18 | Fujitsu Ten Ltd | 表示装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013257517A (ja) * | 2012-06-14 | 2013-12-26 | Yamaha Corp | パラメータ制御プログラム及びパラメータ制御装置 |
JP2015005265A (ja) * | 2013-11-25 | 2015-01-08 | 利仁 曽根 | リサイズ要求判定方法 |
JP2016045813A (ja) * | 2014-08-25 | 2016-04-04 | キヤノン株式会社 | ズーム制御装置およびその制御方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102257468A (zh) | 2011-11-23 |
US8174504B2 (en) | 2012-05-08 |
WO2010047945A3 (en) | 2010-09-30 |
KR20110074600A (ko) | 2011-06-30 |
CN102257468B (zh) | 2013-11-13 |
JP5561682B2 (ja) | 2014-07-30 |
WO2010047945A2 (en) | 2010-04-29 |
EP2356548A2 (en) | 2011-08-17 |
US20100097332A1 (en) | 2010-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5561682B2 (ja) | 電子システムのパラメータを調節するための入力デバイス及び方法 | |
US9870137B2 (en) | Speed/positional mode translations | |
EP2788843B1 (en) | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means | |
US7825797B2 (en) | Proximity sensor device and method with adjustment selection tabs | |
US8139028B2 (en) | Proximity sensor and method for indicating extended interface results | |
US20090289902A1 (en) | Proximity sensor device and method with subregion based swipethrough data entry | |
US9690377B2 (en) | Mobile terminal and method for controlling haptic feedback | |
JP5862898B2 (ja) | 動作モードを変更する方法および装置 | |
KR101007045B1 (ko) | 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법 | |
KR101521337B1 (ko) | 재배치가능한 터치면 상의 제스처 방위의 검출 | |
US20070262951A1 (en) | Proximity sensor device and method with improved indication of adjustment | |
US20150109242A1 (en) | Method, device and mobile terminal for three-dimensional operation control of a touch screen | |
US20140043265A1 (en) | System and method for detecting and interpreting on and off-screen gestures | |
US20090288889A1 (en) | Proximity sensor device and method with swipethrough data entry | |
WO2008085789A2 (en) | Gestures for devices having one or more touch sensitive surfaces | |
CN104793853B (zh) | 使用者界面的操作方法与电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120921 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140513 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5561682 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |