JP5649240B2 - タッチスクリーンユーザインターフェース上でコマンドを修正する方法 - Google Patents
タッチスクリーンユーザインターフェース上でコマンドを修正する方法 Download PDFInfo
- Publication number
- JP5649240B2 JP5649240B2 JP2012541081A JP2012541081A JP5649240B2 JP 5649240 B2 JP5649240 B2 JP 5649240B2 JP 2012541081 A JP2012541081 A JP 2012541081A JP 2012541081 A JP2012541081 A JP 2012541081A JP 5649240 B2 JP5649240 B2 JP 5649240B2
- Authority
- JP
- Japan
- Prior art keywords
- command
- detected
- gesture
- computing device
- subsequent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/786—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
324 デジタル信号プロセッサ
326 アナログ信号プロセッサ
328 ディスプレイコントローラ
330 タッチスクリーンコントローラ
332 タッチスクリーンディスプレイ
334 ビデオエンコーダ
336 ビデオ増幅器
338 ビデオポート
340 USBコントローラ
342 USBポート
344、406、506、608 メモリ
346 加入者同定モジュール(SIM)カード
348 デジタルカメラ
350 ステレオオーディオCODEC
352 オーディオ増幅器
354、356 ステレオスピーカ
358 マイクロフォン増幅器
360 マイクロフォン
362 ラジオチューナ
364 アンテナ
366 ステレオヘッドフォン
368 ラジオ周波数(RF)トランシーバ
370 スイッチ
372 アンテナ
374 キーパッド
376 モノラルヘッドセット
378 振動デバイス
380 電源
382 コマンド管理モジュール
388 ネットワークカード
Claims (48)
- 携帯用コンピューティングデバイスでコマンドを修正する方法であって、
初期コマンドジェスチャを検出するステップと、
第1の後続のコマンドジェスチャが検出されるかどうかを判定するステップであって、前記第1の後続のコマンドジェスチャが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行するステップと、
前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップと
を備える、方法。 - 第2の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行するステップと、
前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行するステップと
をさらに備える、請求項1に記載の方法。 - 第3の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行するステップと、
前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行するステップと
をさらに備える、請求項2に記載の方法。 - 前記初期コマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するステップを備える、請求項1に記載の方法。
- 前記第2の後続のコマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するステップを備える、請求項2に記載の方法。
- 前記第3の後続のコマンドジェスチャを検出するステップが、前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するステップを備える、請求項3に記載の方法。
- 初期コマンドジェスチャを検出する手段と、
第1の後続のコマンドジェスチャが検出されるかどうかを判定する手段であって、前記第1の後続のコマンドジェスチャが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行する手段と、
前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する手段と
を備える、携帯用コンピューティングデバイス。 - 第2の後続のコマンドジェスチャが検出されるかどうかを判定する手段と、
前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行する手段と、
前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行する手段と
をさらに備える、請求項7に記載の携帯用コンピューティングデバイス。 - 第3の後続のコマンドジェスチャが検出されるかどうかを判定する手段と、
前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行する手段と、
前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行する手段と
をさらに備える、請求項8に記載の携帯用コンピューティングデバイス。 - 前記初期コマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出する手段を備える、請求項7に記載の携帯用コンピューティングデバイス。
- 前記第2の後続のコマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出する手段を備える、請求項8に記載の携帯用コンピューティングデバイス。
- 前記第3の後続のコマンドジェスチャを検出する前記手段が、前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出する手段を備える、請求項9に記載の携帯用コンピューティングデバイス。
- 初期コマンドジェスチャを検出する、
第1の後続のコマンドジェスチャが検出されるかどうかを判定し、前記第1の後続のコマンドジェスチャが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行する、および
前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する
ように動作可能なプロセッサ
を備える、携帯用コンピューティングデバイス。 - 前記プロセッサがさらに、
第2の後続のコマンドジェスチャが検出されるかどうかを判定する、
前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行する、および、
前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行する
ように動作可能な、請求項13に記載の携帯用コンピューティングデバイス。 - 前記プロセッサがさらに、
第3の後続のコマンドジェスチャが検出されるかどうかを判定する、
前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行する、および、
前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行する
ように動作可能な、請求項14に記載の携帯用コンピューティングデバイス。 - 前記プロセッサが、前記初期コマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するように動作可能な、請求項13に記載の携帯用コンピューティングデバイス。
- 前記プロセッサが、前記第2の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するように動作可能な、請求項14に記載の携帯用コンピューティングデバイス。
- 前記プロセッサが、前記第3の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するように動作可能な、請求項15に記載の携帯用コンピューティングデバイス。
- 携帯用コンピューティングデバイスのプロセッサに処理を行わせるよう構成されたプロセッサ実行可能な命令を有するコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
初期コマンドジェスチャを検出するステップと、
第1の後続のコマンドジェスチャが検出されるかどうかを判定するステップであって、前記第1の後続のコマンドジェスチャが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されており、
前記第1の後続のコマンドジェスチャが検出されないときに基本コマンドを実行するステップと、
前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップと
を備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項19に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
第2の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
前記第2の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第1の修正を実行するステップと、
前記第2の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第2の修正を実行するステップと
をさらに備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項20に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
第3の後続のコマンドジェスチャが検出されるかどうかを判定するステップと、
前記第3の後続のコマンドジェスチャが検出されないときに前記基本コマンドの前記第2の修正を実行するステップと、
前記第3の後続のコマンドジェスチャが検出されるときに前記基本コマンドの第3の修正を実行するステップと
をさらに備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項19に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
前記初期コマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第1のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項20に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
前記第2の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第2のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項21に記載のコンピュータ読み出し可能な媒体であって、前記プロセッサの前記処理が、
前記第3の後続のコマンドジェスチャを検出するための前記タッチスクリーンユーザインタフェイスへの第3のタッチを検出するステップをさらに備える、前記コンピュータ読み出し可能な媒体。 - コマンドを修正する方法であって、
1つまたは複数のコマンドジェスチャを検出するステップと、
コマンドジェスチャの数を判定するステップと、
単一のコマンドジェスチャが検出されるときに基本コマンドを実行するステップと、
2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップであって、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されている、ステップと
を備える、方法。 - N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するステップ
をさらに備える、請求項25に記載の方法。 - 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、請求項26に記載の方法。
- 前記N個のコマンドジェスチャが前記タッチスクリーンユーザインタフェイスへの N-1回のタッチを備える、請求項27に記載の方法。
- 1つまたは複数のコマンドジェスチャを検出する手段と、
前記コマンドジェスチャの数を判定する手段と、
単一のコマンドジェスチャが検出されるときに基本コマンドを実行する手段と、
2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行する手段であって、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されている、手段と
を備える、携帯用コンピューティングデバイス。 - N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行する手段
をさらに備える、請求項29に記載の携帯用コンピューティングデバイス。 - 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、請求項30に記載の携帯用コンピューティングデバイス。
- 前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、請求項31に記載の携帯用コンピューティングデバイス。
- 1つまたは複数のコマンドジェスチャを検出する、
前記コマンドジェスチャの数を判定する、
単一のコマンドジェスチャが検出されるときに基本コマンドを実行する、および、
2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行し、前記2つのコマンドジェスチャのうちの少なくとも1つが携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されたものである、
ように動作可能なプロセッサ
を備える、携帯用コンピューティングデバイス。 - 請求項33に記載の携帯用コンピューティングデバイスであって、
N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するように前記プロセッサが動作可能である、前記携帯用コンピューティングデバイス。 - 前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、
請求項34に記載の携帯用コンピューティングデバイス。 - 前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、
請求項35に記載の携帯用コンピューティングデバイス。 - 携帯用コンピューティングデバイスのプロセッサに処理を行わせるよう構成されたプロセッサ実行可能な命令を有するコンピュータ読み出し可能な媒体であって、
1つまたは複数のコマンドジェスチャを検出するステップと、
コマンドジェスチャの数を判定するステップと、
単一のコマンドジェスチャが検出されるときに基本コマンドを実行するステップと、
2つのコマンドジェスチャが検出されるときに前記基本コマンドの第1の修正を実行するステップであって、前記2つのコマンドジェスチャのうちの少なくとも1つが前記携帯用コンピューティングデバイスの筐体への圧迫入力であり、前記筐体が、タッチスクリーンユーザインタフェイス以外の前記筐体上の位置における前記圧迫入力を検出するよう構成されたものであるステップと
を備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項37に記載のコンピュータ読み出し可能な媒体であって、
N個のコマンドジェスチャが検出されるときに前記基本コマンドの第Mの修正を実行するための少なくとも1つの命令
をさらに備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項38に記載のコンピュータ読み出し可能な媒体であって、
前記単一のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのシングルタッチを備える、前記コンピュータ読み出し可能な媒体。 - 前記携帯用コンピューティングデバイスの前記プロセッサに処理を行わせるよう構成された前記プロセッサ実行可能な命令を有する請求項39に記載のコンピュータ読み出し可能な媒体であって、
前記N個のコマンドジェスチャが、前記タッチスクリーンユーザインタフェイスへのN-1回のタッチを備える、前記コンピュータ読み出し可能な媒体。 - 前記第1の後続のコマンドジェスチャが検出されたとき、前記基本コマンドが修正されたことの指示をブロードキャストするステップを更に備える、請求項1に記載の方法。
- 前記指示が可聴指示である、請求項41に記載の方法。
- 前記指示が視覚的指示である、請求項41に記載の方法。
- 前記指示が可聴指示と視覚的指示との組み合わせである、請求項41に記載の方法。
- 前記第1の後続のコマンドジェスチャが検出されたとき、アプリケーションが前記携帯用コンピューティングデバイス上のアプリケーションスタック内に開いた第1のインスタンスを有するか否かを判断するステップを更に備え、
前記基本コマンドが前記第1のインスタンスを開くコマンドであり、
前記第1の後続のコマンドジェスチャが検出されるときに前記基本コマンドの前記第1の修正を実行する前記ステップが、前記第1の後続のコマンドジェスチャが検出されるとき、かつ、前記アプリケーションが開いた前記第1のインスタンスを有するときに、前記アプリケーションの第2のインスタンスを開くステップを備える、
請求項1に記載の方法。 - 前記基本コマンドがテキストフィールドにカーソルを置くコマンドであり、
前記基本コマンドの前記第1の修正が、カット機能、コピー機能、及び、ペースト機能の起動を行うコマンドである、
請求項1に記載の方法。 - 前記基本コマンドがスケジューラアプリケーションにおいてイベントを開くコマンドであり、
前記基本コマンドの前記第1の修正が、イベントの状態を暫定的、キャンセル、及び却下のうちの1つに変更するコマンドである、
請求項1に記載の方法。 - 前記基本コマンドがウィジェットに関するコマンドであり、
前記基本コマンドの前記第1の修正が、前記ウィジェットをディスプレイ上の新しい位置へ移動するコマンドである、
請求項1に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/625,182 US20110126094A1 (en) | 2009-11-24 | 2009-11-24 | Method of modifying commands on a touch screen user interface |
US12/625,182 | 2009-11-24 | ||
PCT/US2010/053159 WO2011066045A1 (en) | 2009-11-24 | 2010-10-19 | Method of modifying commands on a touch screen user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013512505A JP2013512505A (ja) | 2013-04-11 |
JP5649240B2 true JP5649240B2 (ja) | 2015-01-07 |
Family
ID=43708690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012541081A Expired - Fee Related JP5649240B2 (ja) | 2009-11-24 | 2010-10-19 | タッチスクリーンユーザインターフェース上でコマンドを修正する方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20110126094A1 (ja) |
EP (1) | EP2504749A1 (ja) |
JP (1) | JP5649240B2 (ja) |
KR (1) | KR101513785B1 (ja) |
CN (1) | CN102667701B (ja) |
WO (1) | WO2011066045A1 (ja) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US8266314B2 (en) * | 2009-12-16 | 2012-09-11 | International Business Machines Corporation | Automated audio or video subset network load reduction |
US8239785B2 (en) * | 2010-01-27 | 2012-08-07 | Microsoft Corporation | Edge gestures |
US8261213B2 (en) | 2010-01-28 | 2012-09-04 | Microsoft Corporation | Brush, carbon-copy, and fill gestures |
US9411504B2 (en) | 2010-01-28 | 2016-08-09 | Microsoft Technology Licensing, Llc | Copy and staple gestures |
US20110191719A1 (en) * | 2010-02-04 | 2011-08-04 | Microsoft Corporation | Cut, Punch-Out, and Rip Gestures |
US9519356B2 (en) * | 2010-02-04 | 2016-12-13 | Microsoft Technology Licensing, Llc | Link gestures |
US9310994B2 (en) | 2010-02-19 | 2016-04-12 | Microsoft Technology Licensing, Llc | Use of bezel as an input mechanism |
US9965165B2 (en) | 2010-02-19 | 2018-05-08 | Microsoft Technology Licensing, Llc | Multi-finger gestures |
US9274682B2 (en) * | 2010-02-19 | 2016-03-01 | Microsoft Technology Licensing, Llc | Off-screen gestures to create on-screen input |
US8799827B2 (en) * | 2010-02-19 | 2014-08-05 | Microsoft Corporation | Page manipulations using on and off-screen gestures |
US9367205B2 (en) | 2010-02-19 | 2016-06-14 | Microsoft Technolgoy Licensing, Llc | Radial menus with bezel gestures |
US8539384B2 (en) | 2010-02-25 | 2013-09-17 | Microsoft Corporation | Multi-screen pinch and expand gestures |
US9075522B2 (en) | 2010-02-25 | 2015-07-07 | Microsoft Technology Licensing, Llc | Multi-screen bookmark hold gesture |
US20110209058A1 (en) * | 2010-02-25 | 2011-08-25 | Microsoft Corporation | Multi-screen hold and tap gesture |
US20110209089A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen object-hold and page-change gesture |
US8707174B2 (en) * | 2010-02-25 | 2014-04-22 | Microsoft Corporation | Multi-screen hold and page-flip gesture |
US8751970B2 (en) * | 2010-02-25 | 2014-06-10 | Microsoft Corporation | Multi-screen synchronous slide gesture |
US9454304B2 (en) | 2010-02-25 | 2016-09-27 | Microsoft Technology Licensing, Llc | Multi-screen dual tap gesture |
US20110209101A1 (en) * | 2010-02-25 | 2011-08-25 | Hinckley Kenneth P | Multi-screen pinch-to-pocket gesture |
US8473870B2 (en) | 2010-02-25 | 2013-06-25 | Microsoft Corporation | Multi-screen hold and drag gesture |
US20110314427A1 (en) * | 2010-06-18 | 2011-12-22 | Samsung Electronics Co., Ltd. | Personalization using custom gestures |
US8462106B2 (en) * | 2010-11-09 | 2013-06-11 | Research In Motion Limited | Image magnification based on display flexing |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
EP2487577A3 (en) * | 2011-02-11 | 2017-10-11 | BlackBerry Limited | Presenting buttons for controlling an application |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US8893033B2 (en) | 2011-05-27 | 2014-11-18 | Microsoft Corporation | Application notifications |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9104440B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US8638385B2 (en) | 2011-06-05 | 2014-01-28 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
US9395881B2 (en) * | 2011-07-12 | 2016-07-19 | Salesforce.Com, Inc. | Methods and systems for navigating display sequence maps |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US20130147850A1 (en) * | 2011-12-08 | 2013-06-13 | Motorola Solutions, Inc. | Method and device for force sensing gesture recognition |
US9372978B2 (en) * | 2012-01-20 | 2016-06-21 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
EP2631747B1 (en) | 2012-02-24 | 2016-03-30 | BlackBerry Limited | Method and apparatus for providing a user interface on a device that indicates content operators |
US8539375B1 (en) | 2012-02-24 | 2013-09-17 | Blackberry Limited | Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content |
EP2631762A1 (en) * | 2012-02-24 | 2013-08-28 | Research In Motion Limited | Method and apparatus for providing an option to enable multiple selections |
US9507513B2 (en) | 2012-08-17 | 2016-11-29 | Google Inc. | Displaced double tap gesture |
CN102880422A (zh) * | 2012-09-27 | 2013-01-16 | 深圳Tcl新技术有限公司 | 触摸屏智能设备文字处理方法和装置 |
US9582122B2 (en) | 2012-11-12 | 2017-02-28 | Microsoft Technology Licensing, Llc | Touch-sensitive bezel techniques |
KR20140065075A (ko) * | 2012-11-21 | 2014-05-29 | 삼성전자주식회사 | 메시지 기반의 대화기능 운용방법 및 이를 지원하는 단말장치 |
US9715282B2 (en) | 2013-03-29 | 2017-07-25 | Microsoft Technology Licensing, Llc | Closing, starting, and restarting applications |
US20140372903A1 (en) * | 2013-06-14 | 2014-12-18 | Microsoft Corporation | Independent Hit Testing for Touchpad Manipulations and Double-Tap Zooming |
US20150091841A1 (en) * | 2013-09-30 | 2015-04-02 | Kobo Incorporated | Multi-part gesture for operating an electronic personal display |
TWI594180B (zh) | 2014-02-27 | 2017-08-01 | 萬國商業機器公司 | 在圖形使用者介面上利用動作輸入分割/合併檔案的方法與電腦系統 |
US9477337B2 (en) | 2014-03-14 | 2016-10-25 | Microsoft Technology Licensing, Llc | Conductive trace routing for display and bezel sensors |
JP6484079B2 (ja) * | 2014-03-24 | 2019-03-13 | 株式会社 ハイディープHiDeep Inc. | 感性伝達方法及びそのための端末機 |
JP6761225B2 (ja) * | 2014-12-26 | 2020-09-23 | 和俊 尾花 | 手持ち型情報処理装置 |
CN108351747A (zh) * | 2015-09-30 | 2018-07-31 | 福西尔集团公司 | 检测用户输入的系统、设备和方法 |
KR20170058051A (ko) | 2015-11-18 | 2017-05-26 | 삼성전자주식회사 | 휴대 장치 및 휴대 장치의 화면 제어방법 |
DE112018000770T5 (de) | 2017-02-10 | 2019-11-14 | Panasonic Intellectual Property Management Co., Ltd. | Fahrzeugeingabevorrichtung |
US11960615B2 (en) | 2021-06-06 | 2024-04-16 | Apple Inc. | Methods and user interfaces for voice-based user profile management |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08286807A (ja) * | 1995-04-18 | 1996-11-01 | Canon Inc | データ処理装置及びそのジェスチャ認識方法 |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
US6396523B1 (en) * | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
WO2001026090A1 (en) * | 1999-10-07 | 2001-04-12 | Interlink Electronics, Inc. | Home entertainment device remote control |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US20060242607A1 (en) * | 2003-06-13 | 2006-10-26 | University Of Lancaster | User interface |
JP2005141542A (ja) * | 2003-11-07 | 2005-06-02 | Hitachi Ltd | 非接触入力インターフェース装置 |
US7114554B2 (en) * | 2003-12-01 | 2006-10-03 | Honeywell International Inc. | Controller interface with multiple day programming |
JP4015133B2 (ja) * | 2004-04-15 | 2007-11-28 | 三菱電機株式会社 | 端末装置 |
US8954852B2 (en) * | 2006-02-03 | 2015-02-10 | Sonic Solutions, Llc. | Adaptive intervals in navigating content and/or media |
KR100783552B1 (ko) * | 2006-10-11 | 2007-12-07 | 삼성전자주식회사 | 휴대 단말기의 입력 제어 방법 및 장치 |
KR101304461B1 (ko) * | 2006-12-04 | 2013-09-04 | 삼성전자주식회사 | 제스처 기반 사용자 인터페이스 방법 및 장치 |
KR100801650B1 (ko) * | 2007-02-13 | 2008-02-05 | 삼성전자주식회사 | 휴대 단말기의 대기 화면에서의 기능 실행 방법 |
US8405621B2 (en) * | 2008-01-06 | 2013-03-26 | Apple Inc. | Variable rate media playback methods for electronic devices with touch interfaces |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
KR101482120B1 (ko) * | 2008-08-01 | 2015-01-21 | 엘지전자 주식회사 | 스케줄 관리가 가능한 휴대 단말기 및 그 제어방법 |
US8547244B2 (en) * | 2008-12-22 | 2013-10-01 | Palm, Inc. | Enhanced visual feedback for touch-sensitive input device |
US8412531B2 (en) * | 2009-06-10 | 2013-04-02 | Microsoft Corporation | Touch anywhere to speak |
US8654524B2 (en) * | 2009-08-17 | 2014-02-18 | Apple Inc. | Housing as an I/O device |
-
2009
- 2009-11-24 US US12/625,182 patent/US20110126094A1/en not_active Abandoned
-
2010
- 2010-10-19 WO PCT/US2010/053159 patent/WO2011066045A1/en active Application Filing
- 2010-10-19 EP EP10775974A patent/EP2504749A1/en not_active Ceased
- 2010-10-19 CN CN201080058757.6A patent/CN102667701B/zh not_active Expired - Fee Related
- 2010-10-19 JP JP2012541081A patent/JP5649240B2/ja not_active Expired - Fee Related
- 2010-10-19 KR KR1020127016400A patent/KR101513785B1/ko not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
CN102667701B (zh) | 2016-06-29 |
WO2011066045A1 (en) | 2011-06-03 |
EP2504749A1 (en) | 2012-10-03 |
KR20120096047A (ko) | 2012-08-29 |
KR101513785B1 (ko) | 2015-04-20 |
JP2013512505A (ja) | 2013-04-11 |
CN102667701A (zh) | 2012-09-12 |
US20110126094A1 (en) | 2011-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5649240B2 (ja) | タッチスクリーンユーザインターフェース上でコマンドを修正する方法 | |
US11269575B2 (en) | Devices, methods, and graphical user interfaces for wireless pairing with peripheral devices and displaying status information concerning the peripheral devices | |
US11755273B2 (en) | User interfaces for audio media control | |
RU2605359C2 (ru) | Способ управления касанием и портативный терминал, поддерживающий его | |
JP6270982B2 (ja) | バックグラウンドタスク用の対話式入力 | |
US9519419B2 (en) | Skinnable touch device grip patterns | |
TWI644248B (zh) | 用於回應用戶的輸入而提供反饋的方法和實現其的終端 | |
US20150346961A1 (en) | Method, apparatus and computer program product for providing a recommendation for an application | |
KR20150070282A (ko) | 문서에서의 썸네일 및 문서 맵 기반 내비게이션 | |
WO2014164061A1 (en) | Semantic zoom-based navigation of displayed content | |
KR102216123B1 (ko) | 타스크 스위칭 방법 및 이를 위한 디바이스 | |
CN103529934A (zh) | 用于处理多个输入的方法和装置 | |
WO2020192299A1 (zh) | 信息显示方法及终端设备 | |
JP2014229302A (ja) | 電子装置の機能の実行方法及びその電子装置 | |
US20240012605A1 (en) | Data Processing Method and Mobile Device | |
CN107168566B (zh) | 操作模式控制方法、装置及终端电子设备 | |
US20130215071A1 (en) | Electronic device and method of controlling same | |
WO2021057301A1 (zh) | 文件控制方法及电子设备 | |
CN105009038A (zh) | 具有触敏用户界面的电子装置以及相关操作方法 | |
KR20140105340A (ko) | 휴대 단말기의 멀티 태스킹 운용 방법 및 장치 | |
US20170357388A1 (en) | Device, Method, and Graphical User Interface for Managing Data Stored at a Storage Location | |
CN107168631B (zh) | 应用程序关闭方法、装置及终端电子设备 | |
CN110888571B (zh) | 一种文件选中方法及电子设备 | |
KR102197912B1 (ko) | 제스처 인식에 따른 기능 실행 방법, 장치 및 기록매체 | |
KR100871296B1 (ko) | 단말기 인터페이스 최적화 방법 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130910 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140303 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141014 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141110 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5649240 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |