JP2016224970A - 事象認識 - Google Patents
事象認識 Download PDFInfo
- Publication number
- JP2016224970A JP2016224970A JP2016146769A JP2016146769A JP2016224970A JP 2016224970 A JP2016224970 A JP 2016224970A JP 2016146769 A JP2016146769 A JP 2016146769A JP 2016146769 A JP2016146769 A JP 2016146769A JP 2016224970 A JP2016224970 A JP 2016224970A
- Authority
- JP
- Japan
- Prior art keywords
- event
- gesture
- touch inputs
- sequence
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
・アプリケーションソフトウェア124の1つ以上のソフトウェアアプリケーションの挙動、あるいはタッチセンシティブディスプレイ156又は入力装置128からのデータを変更してアプリケーションソフトウェア124の1つ以上のソフトウェアアプリケーションのアクセシビリティ又はそこに表示されたコンテンツ(例えば、ウェブページ)へのアクセシビリティを改善するために使用されるアクセシビリティモジュール127(図1C)(例えば、視覚障害者又は運動能力が限られた人のための)。
・電子デバイス102を1つ以上のそれぞれの通信インタフェース112(有線又は無線)、並びに1つ以上の通信ネットワーク、例えばインターネット、他のワイドエリアネットワーク、ローカルエリアネットワーク及びメトロポリタンエリアネットワーク等を介して他のデバイスに接続するために使用される通信モジュール120。
・ディスプレイ126又はタッチセンシティブディスプレイ156にユーザインタフェースオブジェクトを含むユーザインタフェースを表示するために使用されるユーザインタフェースモジュール123(図1C)。
・処理(例えば、ヒットビュー判定、スレッド管理及び/又は事象監視等)を制御するために使用される制御アプリケーション132(図1C)。いくつかの実施形態において、制御アプリケーション132はランタイムアプリケーションを含み、他の実施形態において、ランタイムアプリケーションは制御アプリケーション132を含む。
・オペレーティングシステム118内の種々の別の実施形態において又はアプリケーションソフトウェア124で実現されてもよい事象配信システム122(電子デバイス102のそれぞれにおける)。しかし、いくつかの実施形態において、事象配信システム122のいくつかの態様がオペレーティングシステム118において実現されてもよいのに対し、他の態様はアプリケーションソフトウェア124で実現される。
・1つ以上のソフトウェアアプリケーション(例えば、各々が電子メールアプリケーション、ウェブブラウザアプリケーション、メモアプリケーション、テキストメッセージングアプリケーション等のうちの1つでありうる図1Cのアプリケーション133−1、133−2及び133−3)を含むアプリケーションソフトウェア124。それぞれのソフトウェアアプリケーションは、一般に、少なくとも実行中にそれぞれのソフトウェアアプリケーション及びその構成要素(例えば、ジェスチャレコグナイザ)の状態を示すアプリケーション状態を有する。以下に説明するアプリケーション内部状態321(図3D)を参照されたい。
・ソフトウェアアプリケーション及びそれらの構成要素(例えば、ジェスチャレコグナイザ及びデリゲート)の状態を示すアプリケーション状態と、タッチスクリーンディスプレイ156又はディスプレイ126の種々の領域を占有するアプリケーション、ビュー又は他の情報を示す表示状態と、デバイスの種々のセンサ116、入力装置128及び/又はタッチセンシティブディスプレイ156から取得された情報を含むセンサ状態と、デバイスの場所及び/又は姿勢に関する場所情報と、他の状態とのうちの1つ以上を含むデバイス/グローバル内部状態134(図1C)。
・ディスプレイ126又はタッチセンシティブディスプレイ156上に現在表示されていないバックグラウンドアプリケーション(又はバックグラウンド処理)。しかし、対応するアプリケーションに対する1つ以上のアプリケーション処理(例えば、命令)は、1つ以上のプロセッサ110により処理されている(すなわち、実行している)
・現在実行していない中断されたアプリケーションであり、揮発性メモリ(例えば、DRAM、SRAM、DDR RAM又はメモリ111の他の揮発性ランダムアクセス固体メモリ素子)に格納される
・実行していない休止状態のアプリケーションであり、不揮発性メモリ(例えば、1つ以上の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリ素子又はメモリ111の他の不揮発性ランダムアクセス固体メモリ素子)に格納される
・文字入力を受け入れる検索フィールド306
・迅速にアクセスするためにアプリケーションをグループ化するホームキー列310
後続の説明を簡略化するために、一般にビュー及びビュー階層のみを参照するが、いくつかの実施形態において、方法は、複数のプログラム層を有するプログラム階層及び/又はビュー階層で動作してもよいことが理解されるべきである。いくつかの実施形態において、いくつかのビューは他のOS要素と関連付けられる。いくつかの実施形態において、ビュー階層は、複数のソフトウェアアプリケーションからのビューを含む。例えばビュー階層は、アプリケーションランチャからのビュー(例えば、ホーム画面)及びウェブブラウザアプリケーションからのビュー(例えば、ウェブページのコンテンツを含むビュー)を含んでもよい。
・ビュー又はプログラムレベルに対して設定された場合、ビュー又はプログラムレベルと関連付けられた事象レコグナイザへのサブ事象配信を防止するが、ビュー又はプログラム階層における祖先へのサブ事象配信を可能にするスキッププロパティ343、383。
・ビューに対して設定された場合、ビューがヒットビューでない限り、ビューと関連付けられた事象レコグナイザへのサブ事象の配信を防止するNoHitスキッププロパティ344、384。上述したように、ヒットビュー判定モジュール314は、サブ事象を処理すべき階層における最下位レベルのビューとしてヒットビュー(又はヒットレベル判定モジュール352の場合はヒットレベル)を識別する。
・いくつかの事象レコグナイザ構造320、360は、排他的例外リスト326、366を含んでもよい。このリスト326、366は、各事象レコグナイザに対する事象レコグナイザ構造320、360に含まれる場合、各事象レコグナイザが排他的状態になった後もサブ事象を受信し続ける事象レコグナイザのセットを示す。例えば、シングルタップ事象に対する事象レコグナイザが排他的状態になり、且つ現在含まれているビューがダブルタップ事象に対する事象レコグナイザを含む場合、リスト320、360は、シングルタップ事象が検出された後もダブルタップ事象を認識できるように、ダブルタップ事象レコグナイザを列挙するだろう。従って、排他的例外リスト326、366により、事象レコグナイザは、サブ事象の共通のシーケンスを共有する種々の事象を認識できる。例えばシングルタップ事象認識は、他の事象レコグナイザによるダブルタップ事象又はトリプルタップ事象の後続認識を排除しない。
・いくつかの事象レコグナイザ構造320、360は、待ちリスト327、367を含んでもよい。このリスト327、367は、各事象レコグナイザに対する事象レコグナイザ構造320、360に含まれる場合、各事象レコグナイザがそれぞれの事象を認識できる前に事象不可能状態又は事象取り消し状態になるべきである事象レコグナイザのセットを示す。実質的に、列挙された事象レコグナイザは、事象を認識するための優先順位が待ちリスト327、367を含む事象レコグナイザより高い。
・事象レコグナイザに対して設定された場合、サブ事象のシーケンスがこの事象レコグナイザの事象の種類に対応しないと判定されるまで、事象レコグナイザがサブ事象(タッチ開始サブ事象又はフィンガーダウンサブ事象及び後続の事象を含む)を事象レコグナイザのそれぞれのヒットビュー又はヒットレベルに送出するのを遅延させる遅延タッチ開始済フラグ328、368。このフラグは、ジェスチャが認識される場合にヒットビュー又はヒットレベルがいずれかのサブ事象を参照するのを防止するために使用可能である。事象レコグナイザが事象を認識できない場合、タッチ開始済サブ事象(及びサブ後続タッチ終了サブ事象)は、ヒットビュー又はヒットレベルに配信される。一例において、そのようなサブ事象をヒットビュー又はヒットレベルに配信することにより、ユーザインタフェースは、オブジェクトと関連付けられた動作を呼び出すことなく、そのオブジェクトを簡単に強調表示する。
・事象レコグナイザに対して設定された場合、サブ事象のシーケンスがこの事象レコグナイザの事象の種類に対応しないと判定されるまで、事象レコグナイザがサブ事象(例えば、タッチ終了サブ事象)を事象レコグナイザのそれぞれのヒットビュー又はヒットレベルに送出するのを遅延させる遅延タッチ終了フラグ330、370。これは、ジェスチャが後で認識される場合にヒットビュー又はヒットレベルがタッチ終了サブ事象に影響を及ぼすのを防止するために使用可能である。タッチ終了サブ事象が送出されない限り、取り消されたタッチをヒットビュー又はヒットレベルに送出できる。事象が認識される場合、アプリケーションにより対応する動作が実行され、タッチ終了サブ事象はヒットビュー又はヒットレベルに配信される。
・事象レコグナイザに対して設定された場合、サブ事象のシーケンスがこの事象レコグナイザの事象の種類に対応しないと判定されている際、事象レコグナイザにタッチ取り消し又は入力取り消しを事象レコグナイザのそれぞれのヒットビュー又はヒットレベルに送出させるタッチ取り消しフラグ332、372。ヒットビュー又はヒットレベルに送出されたタッチ取り消し又は入力取り消しは、先行するサブ事象(例えば、タッチ開始済サブ事象)が取り消されたことを示す。タッチ取り消し又は入力取り消しにより、入力ソースハンドラの状態(図4Bを参照)は入力シーケンス取り消し済状態460(以下に説明する)になってもよい。
・排他的除外リスト326
・待ちリスト
・遅延タッチ開始済フラグ328
・遅延タッチ終了フラグ330
・タッチ取り消しフラグ332
・各々が事象又はタッチをジェスチャ又はジェスチャの一部として認識することに応答して各事象レコグナイザのインスタンスが識別された動作メッセージを送出する対象を識別する動作−対象の対3051。
・対応するデリゲートに対する参照であるデリゲート3053であり、デリゲートが各事象レコグナイザのインスタンスに割り当てられる時、デリゲートが各事象レコグナイザのインスタンスに割り当てられていない時にデリゲート346はヌル値を含む。
・各事象レコグナイザのインスタンスが使用可能にされるかを示す使用可能プロパティ3055であり、いくつかの実施形態において、各事象レコグナイザのインスタンスは、使用可能にされない(例えば、使用不可にされる)場合に事象又はタッチを処理しない。
・タッチデータ構造が関連する特定の時間(例えば、タッチの時間)を示す「タイムスタップ」情報を含む「タッチ毎の情報」エントリ3051であり、「タッチ毎の情報」エントリ3051は、対応するタッチの場所等の他の情報を含む
・オプションの「タップカウント」エントリ348
・サブ事象シーケンス465−2:レコグナイザ468の事象定義に対応する遅延測定
・サブ事象シーケンス465−3:指は、縦方向のスクローリングと互換性のある縦スワイプ移動を実行するがN画素より小さいため、レコグナイザ468の事象定義に対応しない
・サブ事象シーケンス465−4:レコグナイザ468の事象定義に対応するフィンガーリフトオフ検出
・時間704
・バッテリ状態標識706
Claims (75)
- タッチセンシティブディスプレイを備えた電子デバイスであって、
前記電子デバイスは、少なくとも第1のソフトウェアアプリケーション及び第2のソフトウェアアプリケーションを実行するように構成され、
前記第1のソフトウェアアプリケーションは、1つ以上のジェスチャレコグナイザの第1のセットを含み、
前記第2のソフトウェアアプリケーションは、1つ以上のビューと、1つ以上のジェスチャレコグナイザの第2のセットと、を含み、
各ジェスチャレコグナイザは、対応するジェスチャハンドらを有し、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示することと、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくとも前記サブセットを表示している間、1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む、前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出することと、
タッチ入力の前記シーケンスを検出する第1の段階の間、
1つ以上のタッチ入力の前記第1の部分を前記第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに配信し、
1つ以上のタッチ入力の前記第1の部分を認識する1つ以上のマッチングジェスチャレコグナイザを、前記第1のセットのジェスチャレコグナイザから識別し、
前記1つ以上のマッチングジェスチャレコグナイザに対応する1つ以上のジェスチャハンドラにより1つ以上のタッチ入力の前記第1の部分を処理することと、
を含むことを特徴とする方法。 - 前記シーケンスを検出することは、1つ以上のタッチ入力の前記第1の部分におけるタッチ入力が、前記第2のソフトウェアアプリケーションの前記表示されたビューのうちの少なくとも1つに少なくとも部分的に重なり合っている間に行われることを特徴とする請求項1に記載の方法。
- 前記サブセットを表示することは、前記第1のソフトウェアアプリケーションのいずれのビューも表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示することを含むことを特徴とする請求項1又は2に記載の方法。
- 前記サブセットを表示することは、他のいずれかのアプリケーションのビューを表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示することを含むことを特徴とする請求項1又は2に記載の方法。
- 前記第1の段階に後続するタッチ入力の前記シーケンスを検出する第2の段階の間、
1つ以上のタッチ入力の前記第2の部分を前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信し、
タッチ入力の前記シーケンスを認識する第2のマッチングジェスチャレコグナイザを、前記1つ以上のマッチングジェスチャレコグナイザから識別し、
前記各マッチングジェスチャレコグナイザに対応するジェスチャハンドラによりタッチ入力の前記シーケンスを処理することを含むことを特徴とする請求項1から4のいずれか1項に記載の方法。 - 前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを処理することは、前記第1のソフトウェアアプリケーションの1つ以上のビューを表示することを含むことを特徴とする請求項5に記載の方法。
- 前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを処理することは、前記第2のソフトウェアアプリケーションの前記1つ以上のビューの前記表示を前記第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換することを含むことを特徴とする請求項5に記載の方法。
- 前記電子デバイスは、前記第1のソフトウェアアプリケーション、前記第2のソフトウェアアプリケーション及び第3のソフトウェアアプリケーションを同時に実行し、
前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを処理することは、前記第2のソフトウェアアプリケーションの前記表示された1つ以上のビューを前記第3のソフトウェアアプリケーションの1つ以上のビューに置換することを含むことを特徴とする請求項5に記載の方法。 - 前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを処理することは、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションアイコンのグループを前記タッチセンシティブディスプレイの第1の事前定義済み領域に表示することと、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを同時に表示することと、を含むことを特徴とする請求項5に記載の方法。 - 前記第1のソフトウェアアプリケーションはアプリケーションランチャであることを特徴とする請求項1から9のいずれか1項に記載の方法。
- 前記第1のソフトウェアアプリケーションはオペレーティングシステムアプリケーションであることを特徴とする請求項1から10のいずれか1項に記載の方法。
- 少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第1のセットを含む第1のソフトウェアアプリケーション、並びに1つ以上のビュー及び1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションを実行するように構成されたタッチセンシティブディスプレイを備えた電子デバイスにおいて、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを含む1つ以上のビューの第1のセットを表示することと、
前記1つ以上のビューの前記第1のセットを表示している間、1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出することと、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識するかを判定することと、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信し、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定し、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することと、
1つ以上のジェスチャレコグナイザの前記第1のセットのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識しないと判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信し、
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定し、
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第2のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することと、
を含むことを特徴とする方法。 - タッチ入力の前記シーケンスは、前記第2のソフトウェアアプリケーションの前記表示された1つ以上のビューのうちの少なくとも1つに少なくとも部分的に重なり合うことを特徴とする請求項12に記載の方法。
- 1つ以上のビューの前記第1のセットを表示することは、前記第1のソフトウェアアプリケーションのビューを全く表示することなく1つ以上のビューの前記第1のセットを表示することを含むことを特徴とする請求項12又は13に記載の方法。
- 1つ以上のビューの前記第1のセットを表示することは、他のいずれかのソフトウェアアプリケーションのビューを表示することなく1つ以上のビューの前記第1のセットを表示することを含むことを特徴とする請求項12又は13に記載の方法。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定する前に、1つ以上のタッチ入力の前記第1の部分を前記第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに同時に配信することを更に備えることを特徴とする請求項12から15のいずれか1項に記載の方法。
- 前記第1のソフトウェアアプリケーションはアプリケーションランチャであることを特徴とする請求項12から16のいずれか1項に記載の方法。
- 前記第1のソフトウェアアプリケーションはオペレーティングシステムアプリケーションであることを特徴とする請求項12から17のいずれか1項に記載の方法。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することは、前記第1のソフトウェアアプリケーションの1つ以上のビューを表示することを含むことを特徴とする請求項12から18のいずれか1項に記載の方法。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することは、1つ以上のビューの前記第1のセットの前記表示を前記第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換することを含むことを特徴とする請求項12から18のいずれか1項に記載の方法。
- 前記電子デバイスは、前記第1のソフトウェアアプリケーション、前記第2のソフトウェアアプリケーション及び第3のソフトウェアアプリケーションを同時に実行し、1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することは、1つ以上のビューの前記第1のセットを前記第3のソフトウェアアプリケーションの1つ以上のビューに置換することを含むことを特徴とする請求項12から20のいずれか1項に記載の方法。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理することは、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションアイコンのグループを前記タッチセンシティブディスプレイの第1の事前定義済み領域に表示することと、
1つ以上のビューの前記第1のセットの少なくともサブセットを同時に表示することと、を含むことを特徴とする請求項12から21のいずれか1項に記載の方法。 - 複数のビューを有するビュー階層を含むソフトウェアを実行するように構成されたある内部状態の電子デバイスにおいて、
前記ビュー階層の1つ以上のビューを表示することと、
各々が1つ以上の事象レコグナイザを含む特定のビューと各々が関連付けられる1つ以上のソフトウェア要素を実行することであり、各事象レコグナイザが1つ以上のサブ事象に基づく1つ以上の事象定義と事象ハンドラとを有し、前記事象ハンドラが対象に対する動作を規定し且つ前記事象定義に対応する事象を検出する前記事象レコグナイザに応答して前記動作を前記対象に送出するように構成されることと、
1つ以上のサブ事象のシーケンスを検出することと、
前記ビュー階層の前記ビューのうちの1つを前記ビュー階層のどのビューが能動的に関わるビューであるかを明らかにするヒットビューとして識別することと、
前記ビュー階層内の能動的に関わるビュー毎にそれぞれのサブ事象を事象レコグナイザに配信することと、を備える方法であって、
前記ビュー階層における能動的に関わるビューに対する少なくとも1つのジェスチャレコグナイザは複数の事象定義を有し、そのうちの1つが前記電子デバイスの前記内部状態に従って選択され、前記少なくとも1つの事象レコグナイザは、前記選択された事象定義に従ってサブ事象の前記シーケンスにおける次のサブ事象を処理する前に前記各サブ事象を処理することを特徴とする方法。 - 前記複数の事象定義は、第1の数の指による第1のスワイプジェスチャに対応する第1の事象定義及び前記第1の数の指とは異なる第2の数の指による第2のスワイプジェスチャに対応する第2の事象定義を含むことを特徴とする請求項23に記載の方法。
- 前記内部状態は、アクセシビリティ動作モードに対する1つ以上の設定を含むことを特徴とする請求項23又は24に記載の方法。
- 前記複数の事象定義の各定義は、前記各事象定義が各事象レコグナイザ以外の前記能動的に関わるビューに対するいずれかの事象レコグナイザの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項23から25のいずれか1項に記載の方法。
- 前記ビュー階層における能動的に関わるビューに対する2つ以上の事象レコグナイザの各々は、複数の事象定義を有し、前記複数の事象定義の各事象定義は、前記各事象定義が各事象レコグナイザ以外の2つ以上の事象定義を含むいずれかの事象レコグナイザに対して選択されたいずれかの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項23から25のいずれか1項に記載の方法。
- 前記選択された事象定義に従って前記各サブ事象を処理することは、前記ビュー階層を含む前記ソフトウェアとは異なる第1のソフトウェアアプリケーションの1つ以上のビューを表示することを含むことを特徴とする請求項23から27のいずれか1項に記載の方法。
- 前記少なくとも1つの事象レコグナイザは、前記ビュー階層の前記1つ以上のビューの前記表示を前記ビュー階層を含む前記ソフトウェアとは異なる第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換することで前記各サブ事象を処理することを特徴とする請求項23から27のいずれか1項に記載の方法。
- 前記少なくとも1つの事象レコグナイザは、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションアイコンのグループを前記電子デバイスのディスプレイの第1の事前定義済み領域に表示することと、
前記ビュー階層の前記1つ以上のビューの少なくともサブセットを同時に表示することと、により前記各サブ事象を処理することを特徴とする請求項23から27のいずれか1項に記載の方法。 - 前記ソフトウェアはアプリケーションランチャであることを特徴とする請求項23から30のいずれか1項に記載の方法。
- 前記ソフトウェアはオペレーティングシステムアプリケーションであることを特徴とする請求項23から31のいずれか1項に記載の方法。
- 1つ以上のプロセッサと、前記1つ以上のプロセッサが実行するための請求項1から32のいずれか1項に記載の方法を実行する命令を含む1つ以上のプログラムを格納するメモリとを備えることを特徴とする電子デバイス。
- コンピュータシステムの1つ以上のプロセッサが実行するための請求項1から32のいずれか1項に記載の方法を実行する命令を含む1つ以上のプログラムを格納することを特徴とするコンピュータ可読記憶媒体。
- タッチセンシティブディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサが実行するための1つ以上のプログラムを格納するメモリと、
を備える電子デバイスであって、
前記1つ以上のプログラムは、少なくとも第1のソフトウェアアプリケーションと第2のソフトウェアアプリケーションを含み、
前記第1のソフトウェアアプリケーションは、1つ以上のジェスチャレコグナイザの第1のセットを含み、
前記第2のソフトウェアアプリケーションは、1つ以上のビュー及び1つ以上のジェスチャレコグナイザの第2のセットを含み、
各ジェスチャレコグナイザは、対応するジェスチャハンドラを有し、
前記1つ以上のプログラムは、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する命令と、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくとも前記サブセットを表示している間、
1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む、前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する命令と、
タッチ入力の前記シーケンスを検出する第1の段階の間、1つ以上のタッチ入力の前記第1の部分を前記第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに配信し、1つ以上のタッチ入力の前記第1の部分を認識する1つ以上のマッチングジェスチャレコグナイザを前記第1のセットのジェスチャレコグナイザから識別し、前記1つ以上のマッチングジェスチャレコグナイザに対応する1つ以上のジェスチャハンドラにより1つ以上のタッチ入力の前記第1の部分を処理する命令と、
を含むことを特徴とする電子デバイス。 - 前記検出する命令は、1つ以上のタッチ入力の前記第1の部分におけるタッチ入力が前記第2のソフトウェアアプリケーションの前記表示されたビューのうちの少なくとも1つに少なくとも部分的に重なり合っている間に行われることを特徴とする請求項35に記載の電子デバイス。
- 前記表示する命令は、前記第1のソフトウェアアプリケーションのいずれのビューも表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する命令を含むことを特徴とする請求項35又は36に記載の電子デバイス。
- 前記1つ以上のプログラムは、
前記第1の段階に後続するタッチ入力の前記シーケンスを検出する第2の段階の間、
1つ以上のタッチ入力の前記第2の部分を前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する命令と、
タッチ入力の前記シーケンスを認識する第2のマッチングジェスチャレコグナイザを前記1つ以上のマッチングジェスチャレコグナイザから識別する命令と、
前記各マッチングジェスチャレコグナイザに対応するジェスチャハンドラによりタッチ入力の前記シーケンスを処理する命令と、
を含むことを特徴とする請求項35又は36に記載の方法。 - 前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを前記処理する命令は、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションアイコンのグループを前記タッチセンシティブディスプレイの第1の事前定義済み領域に表示する命令と、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを同時に表示する命令と、を含むことを特徴とする請求項38に記載の電子デバイス。 - タッチセンシティブディスプレイを備えた電子デバイスの1つ以上のプロセッサが実行するための少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第1のセットを含む第1のソフトウェアアプリケーション、並びに1つ以上のビュー及び1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションを含む1つ以上のプログラムを格納するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する命令と、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくとも前記サブセットを表示している間、1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する命令と、
タッチ入力の前記シーケンスを検出する第1の段階の間、
1つ以上のタッチ入力の前記第1の部分を前記第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに配信する命令、
1つ以上のタッチ入力の前記第1の部分を認識する1つ以上のマッチングジェスチャレコグナイザを前記第1のセットのジェスチャレコグナイザから識別する命令、並びに
前記1つ以上のマッチングジェスチャレコグナイザに対応する1つ以上のジェスチャハンドラにより1つ以上のタッチ入力の前記第1の部分を処理する命令と、を含むことを特徴とするコンピュータ可読記憶媒体。 - 前記検出する命令は、1つ以上のタッチ入力の前記第1の部分におけるタッチ入力が前記第2のソフトウェアアプリケーションの前記表示されたビューのうちの少なくとも1つに少なくとも部分的に重なり合っている間にタッチ入力の前記シーケンスを検出する命令を含むことを特徴とする請求項40に記載のコンピュータ可読記憶媒体。
- 前記表示する命令は、前記第1のソフトウェアアプリケーションのビューを全く表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する命令を含むことを特徴とする請求項40又は41に記載のコンピュータ可読記憶媒体。
- 前記1つ以上のプログラムは、
前記第1の段階に後続するタッチ入力の前記シーケンスを検出する第2の段階の間、
1つ以上のタッチ入力の前記第2の部分を前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する命令と、
タッチ入力の前記シーケンスを認識する第2のマッチングジェスチャレコグナイザを前記1つ以上のマッチングジェスチャレコグナイザから識別する命令と、
前記各マッチングジェスチャレコグナイザに対応するジェスチャハンドラによりタッチ入力の前記シーケンスを処理する命令と、を含むことを特徴とする請求項40から42のいずれか1項に記載のコンピュータ可読記憶媒体。 - タッチセンシティブディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサが実行するための少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第1のセットを含む第1のソフトウェアアプリケーション、並びに1つ以上のビュー及び1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションを含む1つ以上のプログラムを格納するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムは、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを含む1つ以上のビューの第1のセットを表示する命令と、
前記1つ以上のビューの前記第1のセットを表示している間、1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する命令、及び
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識しないと判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信する命令、及び
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第2のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する命令とを含むことを特徴とする電子デバイス。 - タッチ入力の前記シーケンスは、前記第2のソフトウェアアプリケーションの前記表示された1つ以上のビューのうちの少なくとも1つに少なくとも部分的に重なり合うことを特徴とする請求項44に記載の電子デバイス。
- 1つ以上のビューの前記第1のセットを前記表示する命令は、前記第1のソフトウェアアプリケーションのビューを全く表示することなく1つ以上の前記第1のセットを表示する命令を含むことを特徴とする請求項44又は45に記載の電子デバイス。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを前記処理する命令は、1つ以上のビューの前記第1のセットの前記表示を前記第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換する命令を含むことを特徴とする請求項44から46のいずれか1項に記載の電子デバイス。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを前記処理する命令は、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションのグループを前記タッチセンシティブディスプレイの第1の事前定義済み領域に表示する命令と、
1つ以上のビューの前記第1のセットの少なくともサブセットを同時に表示する命令と、を含むことを特徴とする請求項44から47のいずれか1項に記載の電子デバイス。 - タッチセンシティブディスプレイを備えた電子デバイスの1つ以上のプロセッサが実行するための少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第1のセットを含む第1のソフトウェアアプリケーション、並びに1つ以上のビュー及び1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションを含む1つ以上のプログラムを格納するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを含む1つ以上のビューの第1のセットを表示する命令と、
前記1つ以上のビューの前記第1のセットを表示している間、1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する命令、及び
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する命令と、
1つ以上のジェスチャレコグナイザの前記第1のセットのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識しないと判定することに従って、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信する命令、及び
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する命令と、
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って、タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第2のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する命令とを含むことを特徴とするコンピュータ可読記憶媒体。 - タッチ入力の前記シーケンスは、前記第2のソフトウェアアプリケーションの前記表示された1つ以上のビューのうちの少なくとも1つに少なくとも部分的に重なり合うことを特徴とする請求項49記載のコンピュータ可読記憶媒体。
- 1つ以上のビューの前記第1のセットを前記表示する命令は、前記第1のソフトウェアアプリケーションのビューを全く表示することなく1つ以上の前記第1のセットを表示する命令を含むことを特徴とする請求項49又は50記載のコンピュータ可読記憶媒体。
- 1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを前記処理する命令は、1つ以上のビューの前記第1のセットの前記表示を前記第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換する命令を含むことを特徴とする請求項49から51のいずれか1項に記載のコンピュータ可読記憶媒体。
- ディスプレイと、
1つ以上のプロセッサと、
前記1つ以上のプロセッサが実行するための複数のビューを有するビュー階層を含むソフトウェアを含む1つ以上のプログラムを格納するメモリと、を備える電子デバイスであって、前記1つ以上のプログラムは、
前記ビュー階層の1つ以上のビューを表示する命令と、
各々が1つ以上の事象レコグナイザを含む特定のビューと各々が関連付けられる1つ以上のソフトウェア要素を実行する命令であり、各事象レコグナイザが1つ以上のサブ事象に基づく1つ以上の事象定義と事象ハンドラを有し、前記事象ハンドラが対象に対する動作を規定し且つ前記事象定義に対応する事象を検出する前記事象レコグナイザに応答して前記動作を前記対象に送出するように構成される命令と、
1つ以上のサブ事象のシーケンスを検出する命令と、
前記ビュー階層の前記ビューのうちの1つを前記ビュー階層のどのビューが能動的に関わるビューであるかを明らかにするヒットビューとして識別する命令と、
前記ビュー階層内の能動的に関わるビュー毎にそれぞれのサブ事象を事象レコグナイザに配信する命令と、を含み、
前記ビュー階層における能動的に関わるビューに対する少なくとも1つのジェスチャレコグナイザは複数の事象定義を有し、そのうちの1つが前記電子デバイスの内部状態に従って選択され、前記少なくとも1つの事象レコグナイザは、前記選択された事象定義に従ってサブ事象の前記シーケンスにおける次のサブ事象を処理する前に前記各サブ事象を処理することを特徴とする電子デバイス。 - 前記複数の事象定義は、第1の数の指による第1のスワイプジェスチャに対応する第1の事象定義及び前記第1の数の指とは異なる第2の数の指による第2のスワイプジェスチャに対応する第2の事象定義を含むことを特徴とする請求項53に記載の電子デバイス。
- 前記複数の事象定義の各定義は、前記各事象定義が各事象レコグナイザ以外の前記能動的に関わるビューに対するいずれかの事象レコグナイザの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項53又は54に記載の電子デバイス。
- 前記ビュー階層における能動的に関わるビューに対する2つ以上の事象レコグナイザの各々は、複数の事象定義を有し、前記複数の事象定義の各事象定義は、前記各事象定義が各事象レコグナイザ以外の2つ以上の事象定義を含むいずれかの事象レコグナイザに対して選択されたいずれかの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項53又は54に記載の電子デバイス。
- 前記各サブ事象を前記処理する命令は、前記ビュー階層の前記1つ以上のビューの前記表示を、前記ビュー階層を含む前記ソフトウェアとは異なる第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換する命令を含むことを特徴とする請求項53から56のいずれか1項に記載の電子デバイス。
- ある内部状態の電子デバイスの1つ以上のプロセッサが実行するための複数のビューを有するビュー階層を含むソフトウェアを含む1つ以上のプログラムを格納するコンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
前記ビュー階層の1つ以上のビューを表示する命令と、
各々が1つ以上の事象レコグナイザを含む特定のビュー各々と関連付けられる1つ以上のソフトウェア要素を実行する命令であり、各事象レコグナイザが1つ以上のサブ事象に基づく1つ以上の事象定義と事象ハンドラを有し、前記事象ハンドラが対象に対する動作を規定し且つ前記事象定義に対応する事象を検出する前記事象レコグナイザに応答して前記動作を前記対象に送出するように構成される命令と、
1つ以上のサブ事象のシーケンスを検出する命令と、
前記ビュー階層の前記ビューのうちの1つを前記ビュー階層のどのビューが能動的に関わるビューであるかを明らかにするヒットビューとして識別する命令と、
前記ビュー階層内の能動的に関わるビュー毎にそれぞれのサブ事象を事象レコグナイザに配信する命令と、を含み、
前記ビュー階層における能動的に関わるビューに対する少なくとも1つのジェスチャレコグナイザは複数の事象定義を有し、そのうちの1つが前記電子デバイスの前記内部状態に従って選択され、前記少なくとも1つの事象レコグナイザは、前記選択された事象定義に従ってサブ事象の前記シーケンスにおける次のサブ事象を処理する前に前記各サブ事象を処理することを特徴とするコンピュータ可読記憶媒体。 - 前記複数の事象定義は、第1の数の指による第1のスワイプジェスチャに対応する第1の事象定義及び前記第1の数の指とは異なる第2の数の指による第2のスワイプジェスチャに対応する第2の事象定義を含むことを特徴とする請求項58に記載のコンピュータ可読記憶媒体。
- 前記複数の事象定義の各定義は、前記各事象定義が各事象レコグナイザ以外の前記能動的に関わるビューに対するいずれかの事象レコグナイザの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項58又は59に記載のコンピュータ可読記憶媒体。
- 前記ビュー階層における能動的に関わるビューに対する2つ以上の事象レコグナイザの各々は、複数の事象定義を有し、前記複数の事象定義の各事象定義は、前記各事象定義が各事象レコグナイザ以外の2つ以上の事象定義を含むいずれかの事象レコグナイザに対して選択されたいずれかの事象定義に対応しないと判定することと前記電子デバイスの前記内部状態とに従って前記各事象レコグナイザに対して選択されることを特徴とする請求項58又は59に記載のコンピュータ可読記憶媒体。
- 前記各サブ事象を前記処理する命令は、前記ビュー階層の前記1つ以上のビューの前記表示を、前記ビュー階層を含む前記ソフトウェアとは異なる第1のソフトウェアアプリケーションの1つ以上のビューの表示に置換する命令を含むことを特徴とする請求項58から61のいずれか1項に記載のコンピュータ可読記憶媒体。
- タッチセンシティブディスプレイと、
少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションの1つ以上のビューの少なくともサブセットを表示する手段と、
1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する手段を含む前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくとも前記サブセットを表示している間に使用可能な手段と、
1つ以上のタッチ入力の前記第1の部分を1つ以上のジェスチャレコグナイザの第1のセットを含む第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに配信する手段、
1つ以上のタッチ入力の前記第1の部分を認識する1つ以上のマッチングジェスチャレコグナイザを前記第1のセットのジェスチャレコグナイザから識別する手段、並びに
前記1つ以上のマッチングジェスチャレコグナイザに対応する1つ以上のジェスチャハンドラにより1つ以上のタッチ入力の前記第1の部分を処理する手段を含むタッチ入力の前記シーケンスを検出する第1の段階の間に使用可能な手段と、
を備えることを特徴とする電子デバイス。 - 前記検出する手段は、1つ以上のタッチ入力の前記第1の部分におけるタッチ入力が前記第2のソフトウェアアプリケーションの前記表示されたビューのうちの少なくとも1つに少なくとも部分的に重なり合っている間にタッチ入力の前記シーケンスを検出する手段を含むことを特徴とする請求項63に記載の電子デバイス。
- 前記表示する手段は、前記第1のソフトウェアアプリケーションのビューを全く表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する手段を含むことを特徴とする請求項63又は64に記載の電子デバイス。
- 1つ以上のタッチ入力の前記第2の部分を前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する手段と、
タッチ入力の前記シーケンスを認識する第2のマッチングジェスチャレコグナイザを前記1つ以上のマッチングジェスチャレコグナイザから識別する手段と、
前記各マッチングジェスチャレコグナイザに対応するジェスチャハンドラによりタッチ入力の前記シーケンスを処理する手段と、を含む前記第1の段階に後続するタッチ入力の前記シーケンスを検出する第2の段階の間に使用可能な手段を備えることを特徴とする請求項63から65のいずれか1項に記載の電子デバイス。 - 前記各マッチングジェスチャレコグナイザに対応する前記ジェスチャハンドラによりタッチ入力の前記シーケンスを前記処理する手段は、
同時に開いている複数のアプリケーションのうちの少なくともいくつかに対応する、開いているアプリケーションアイコンのグループを前記タッチセンシティブディスプレイの第1の事前定義済み領域に表示する手段と、
前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを同時に表示する手段と、を含むことを特徴とする請求項66に記載の電子デバイス。 - タッチセンシティブディスプレイを備えた電子デバイス用の情報処理装置であって、
少なくとも、それぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションの1つ以上のビューの少なくともサブセットを表示する手段と、
1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する手段を含む前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくとも前記サブセットを表示している間に使用可能な手段と、
1つ以上のタッチ入力の前記第1の部分を1つ以上のジェスチャレコグナイザの第1のセットを含む前記第1のソフトウェアアプリケーション及び前記第2のソフトウェアアプリケーションに配信する手段、
1つ以上のタッチ入力の前記第1の部分を認識する1つ以上のマッチングジェスチャレコグナイザを前記第1のセットのジェスチャレコグナイザから識別する手段、並びに
前記1つ以上のマッチングジェスチャレコグナイザに対応する1つ以上のジェスチャハンドラにより1つ以上のタッチ入力の前記第1の部分を処理する手段を含むタッチ入力の前記シーケンスを検出する第1の段階の間に使用可能な手段と、
を備えることを特徴とする情報処理装置。 - 前記検出する手段は、1つ以上のタッチ入力の前記第1の部分におけるタッチ入力が前記第2のソフトウェアアプリケーションの前記表示されたビューのうちの少なくとも1つに少なくとも部分的に重なり合っている間にタッチ入力の前記シーケンスを検出する手段を含むことを特徴とする請求項68に記載の情報処理装置。
- 前記表示する手段は、前記第1のソフトウェアアプリケーションのビューを全く表示することなく前記第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを表示する手段を含むことを特徴とする請求項68又は69に記載の情報処理装置。
- 1つ以上のタッチ入力の前記第2の部分を前記第2のソフトウェアアプリケーションに配信することなく前記第1のソフトウェアアプリケーションに配信する手段と、
タッチ入力の前記シーケンスを認識する第2のマッチングジェスチャレコグナイザを前記1つ以上のマッチングジェスチャレコグナイザから識別する手段と、
前記各マッチングジェスチャレコグナイザに対応するジェスチャハンドラによりタッチ入力の前記シーケンスを処理する手段と、を含む前記第1の段階に後続するタッチ入力の前記シーケンスを検出する第2の段階の間に使用可能な手段を備えることを特徴とする請求項68から70のいずれか1項に記載の情報処理装置。 - タッチセンシティブディスプレイと、
1つ以上のプロセッサと、
少なくとも、1つ以上のビュー及びそれぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを含む1つ以上のビューの第1のセットを表示する手段と、
1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する手段を含む前記1つ以上のビューの前記第1のセットを表示している間に使用可能な手段と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識するかを判定する手段と、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信することなく1つ以上のジェスチャレコグナイザの第1のセットを含む前記第1のソフトウェアアプリケーションに配信する手段、及び
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する手段を含む1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信する手段、及び
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する手段を含む1つ以上のジェスチャレコグナイザの前記第1のセットのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識しないと判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第2のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って使用可能な手段と、
を備えることを特徴とする電子デバイス。 - タッチセンシティブディスプレイを備えた電子デバイス用の情報処理装置であって、
少なくとも、1つ以上のビュー及びそれぞれが対応するジェスチャハンドラを有する1つ以上のジェスチャレコグナイザの第2のセットを含む第2のソフトウェアアプリケーションの前記1つ以上のビューの少なくともサブセットを含む1つ以上のビューの第1のセットを表示する手段と、
1つ以上のタッチ入力の第1の部分及び前記第1の部分に後続する1つ以上のタッチ入力の第2の部分を含む前記タッチセンシティブディスプレイに対するタッチ入力のシーケンスを検出する手段を含む前記1つ以上のビューの前記第1のセットを表示している間に使用可能な手段と、
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識するかを判定する手段と、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信することなく1つ以上のジェスチャレコグナイザの第1のセットを含む前記第1のソフトウェアアプリケーションに配信する手段、及び
1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する手段を含む1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識すると判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第1のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する1つ以上のジェスチャレコグナイザの前記第1のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを前記第2のソフトウェアアプリケーションに配信する手段、及び
1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識するかを判定する手段を含む1つ以上のジェスチャレコグナイザの前記第1のセットのジェスチャレコグナイザが1つ以上のタッチ入力の前記第1の部分を認識しないと判定することに従って使用可能な手段と、
タッチ入力の前記シーケンスを認識する1つ以上のジェスチャレコグナイザの前記第2のセットの前記少なくとも1つのジェスチャレコグナイザによりタッチ入力の前記シーケンスを処理する1つ以上のジェスチャレコグナイザの前記第2のセットの少なくとも1つのジェスチャレコグナイザがタッチ入力の前記シーケンスを認識すると判定することに従って使用可能な手段と、
を備えることを特徴とする情報処理装置。 - 電子デバイスであり、
ディスプレイと、
前記電子デバイスに格納された複数のビューを有するビュー階層を含むソフトウェアの1つ以上のビューを表示する手段と、
各々が1つ以上の事象レコグナイザを含む特定のビューと各々が関連付けられる1つ以上のソフトウェア要素を実行する手段であり、各事象レコグナイザが1つ以上のサブ事象に基づく1つ以上の事象定義と事象ハンドラを有し、前記事象ハンドラが対象に対する動作を規定し且つ前記事象定義に対応する事象を検出する前記事象レコグナイザに応答して前記動作を前記対象に送出するように構成される手段と、
1つ以上のサブ事象のシーケンスを検出する手段と、
前記ビュー階層の前記ビューのうちの1つを前記ビュー階層のどのビューが能動的に関わるビューであるかを明らかにするヒットビューとして識別する手段と、
前記ビュー階層内の能動的に関わるビュー毎にそれぞれのサブ事象を事象レコグナイザに配信する手段と、を備える電子デバイスであって、
前記ビュー階層における能動的に関わるビューに対する少なくとも1つのジェスチャレコグナイザは複数の事象定義を有し、そのうちの1つが前記電子デバイスの内部状態に従って選択され、前記少なくとも1つの事象レコグナイザは、前記選択された事象定義に従ってサブ事象の前記シーケンスにおける次のサブ事象を処理する前に前記各サブ事象を処理することを特徴とする電子デバイス。 - 電子デバイス用の情報処理装置であって、
前記電子デバイスに格納された複数のビューを有するビュー階層を含むソフトウェアの1つ以上のビューを表示する手段と、
各々が1つ以上の事象レコグナイザを含む特定のビューと各々が関連付けられる1つ以上のソフトウェア要素を実行する手段であり、各事象レコグナイザが1つ以上のサブ事象に基づく1つ以上の事象定義と事象ハンドラを有し、前記事象ハンドラが対象に対する動作を規定し且つ前記事象定義に対応する事象を検出する前記事象レコグナイザに応答して前記動作を前記対象に送出するように構成される手段と、
1つ以上のサブ事象のシーケンスを検出する手段と、
前記ビュー階層の前記ビューのうちの1つを前記ビュー階層のどのビューが能動的に関わるビューであるかを明らかにするヒットビューとして識別する手段と、
前記ビュー階層内の能動的に関わるビュー毎にそれぞれのサブ事象を事象レコグナイザに配信する手段と、を備える情報処理装置であって、
前記ビュー階層における能動的に関わるビューに対する少なくとも1つのジェスチャレコグナイザは事象定義を有し、そのうちの1つが前記電子デバイスの内部状態に従って選択され、前記少なくとも1つの事象レコグナイザは、前記選択された事象定義に従ってサブ事象の前記シーケンスにおける次のサブ事象を処理する前に前記各サブ事象を処理することを特徴とする情報処理装置。
Applications Claiming Priority (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201061425222P | 2010-12-20 | 2010-12-20 | |
US61/425,222 | 2010-12-20 | ||
US13/077,524 | 2011-03-31 | ||
US13/077,524 US9244606B2 (en) | 2010-12-20 | 2011-03-31 | Device, method, and graphical user interface for navigation of concurrently open software applications |
US13/077,925 US8566044B2 (en) | 2009-03-16 | 2011-03-31 | Event recognition |
US13/077,931 | 2011-03-31 | ||
US13/077,927 US8566045B2 (en) | 2009-03-16 | 2011-03-31 | Event recognition |
US13/077,925 | 2011-03-31 | ||
US13/077,927 | 2011-03-31 | ||
US13/077,931 US9311112B2 (en) | 2009-03-16 | 2011-03-31 | Event recognition |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015077922A Division JP5980368B2 (ja) | 2010-12-20 | 2015-04-06 | 事象認識 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016224970A true JP2016224970A (ja) | 2016-12-28 |
JP6785082B2 JP6785082B2 (ja) | 2020-11-18 |
Family
ID=45491795
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546284A Active JP5747235B2 (ja) | 2010-12-20 | 2011-12-19 | 事象認識 |
JP2015077922A Active JP5980368B2 (ja) | 2010-12-20 | 2015-04-06 | 事象認識 |
JP2016146769A Active JP6785082B2 (ja) | 2010-12-20 | 2016-07-26 | 事象認識 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013546284A Active JP5747235B2 (ja) | 2010-12-20 | 2011-12-19 | 事象認識 |
JP2015077922A Active JP5980368B2 (ja) | 2010-12-20 | 2015-04-06 | 事象認識 |
Country Status (7)
Country | Link |
---|---|
EP (3) | EP3982242B1 (ja) |
JP (3) | JP5747235B2 (ja) |
KR (4) | KR101854582B1 (ja) |
AU (1) | AU2011349513B2 (ja) |
NL (1) | NL2007993C2 (ja) |
TW (2) | TWI470537B (ja) |
WO (1) | WO2012087939A1 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101956082B1 (ko) | 2012-05-09 | 2019-03-11 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
DE202013012233U1 (de) | 2012-05-09 | 2016-01-18 | Apple Inc. | Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
DE112013002387T5 (de) | 2012-05-09 | 2015-02-12 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169882A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving and dropping a user interface object |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
KR101823288B1 (ko) | 2012-05-09 | 2018-01-29 | 애플 인크. | 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
CN104471521B (zh) | 2012-05-09 | 2018-10-23 | 苹果公司 | 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面 |
WO2013191028A1 (ja) | 2012-06-22 | 2013-12-27 | ソニー株式会社 | 検知装置、検知方法、及びプログラム |
CN103529976B (zh) * | 2012-07-02 | 2017-09-12 | 英特尔公司 | 手势识别系统中的干扰消除 |
JP6188288B2 (ja) * | 2012-07-20 | 2017-08-30 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP5700020B2 (ja) * | 2012-10-10 | 2015-04-15 | コニカミノルタ株式会社 | 画像処理装置、プログラム及び操作イベント判別方法 |
WO2014105277A2 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
CN107832003B (zh) | 2012-12-29 | 2021-01-22 | 苹果公司 | 用于放大内容的方法和设备、电子设备和介质 |
AU2013368441B2 (en) | 2012-12-29 | 2016-04-14 | Apple Inc. | Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture |
US9703477B2 (en) * | 2013-02-19 | 2017-07-11 | Facebook, Inc. | Handling overloaded gestures |
JP6155869B2 (ja) | 2013-06-11 | 2017-07-05 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
US9292186B2 (en) * | 2014-01-31 | 2016-03-22 | 3M Innovative Properties Company | Note capture and recognition with manual assist |
EP4365725A2 (en) | 2014-05-30 | 2024-05-08 | Apple Inc. | Continuity |
KR20160046695A (ko) | 2014-10-21 | 2016-04-29 | 유홍준 | 소프트웨어 요소 부분인식 처리 방법 및 시스템 |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US9733823B2 (en) | 2015-04-01 | 2017-08-15 | Microsoft Technology Licensing, Llc | View activation via hit testing in an asynchronous windowing system |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
DK201670728A1 (en) * | 2016-09-06 | 2018-03-19 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button |
CN108388393B (zh) | 2018-01-02 | 2020-08-28 | 阿里巴巴集团控股有限公司 | 移动终端点击事件的识别方法和装置 |
US10921975B2 (en) * | 2018-06-03 | 2021-02-16 | Apple Inc. | Devices, methods, and user interfaces for conveying proximity-based and contact-based input events |
US10877660B2 (en) * | 2018-06-03 | 2020-12-29 | Apple Inc. | Devices and methods for processing inputs using gesture recognizers |
US11131967B2 (en) | 2019-05-06 | 2021-09-28 | Apple Inc. | Clock faces for an electronic device |
KR20220121408A (ko) | 2021-02-25 | 2022-09-01 | 주식회사 수앤그린테크 | 수생식물을 이용한 녹조 방지시스템 및 그 방법 |
US20220368548A1 (en) | 2021-05-15 | 2022-11-17 | Apple Inc. | Shared-content session user interfaces |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
KR20240034452A (ko) * | 2022-09-07 | 2024-03-14 | 쿠팡 주식회사 | 로그 정보를 관리하는 방법 및 이를 지원하는 전자 장치 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5612719A (en) * | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
JP2008508600A (ja) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース |
JP2009110286A (ja) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法 |
US20100020025A1 (en) * | 2008-07-25 | 2010-01-28 | Intuilab | Continuous recognition of multi-touch gestures |
WO2010041155A1 (en) * | 2008-10-07 | 2010-04-15 | Sony Ericsson Mobile Communications Ab | Live preview of open windows |
WO2010107669A2 (en) * | 2009-03-16 | 2010-09-23 | Apple Inc. | Event recognition |
WO2010144201A2 (en) * | 2009-06-07 | 2010-12-16 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9292111B2 (en) * | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
KR100593982B1 (ko) * | 2003-11-06 | 2006-06-30 | 삼성전자주식회사 | 가상 그래피티를 제공하는 장치 및 방법과 그에 따른기록매체 |
WO2007037806A1 (en) * | 2005-09-15 | 2007-04-05 | Apple Inc. | System and method for processing raw data of track pad device |
TWI316196B (en) * | 2004-11-01 | 2009-10-21 | Ibm | Apparatus method and system for improved feedback of pointing device event processing |
US9002342B2 (en) * | 2005-12-02 | 2015-04-07 | Nokia Corporation | System, apparatus, and method for dynamically customizing and configuring applications |
US8296684B2 (en) * | 2008-05-23 | 2012-10-23 | Hewlett-Packard Development Company, L.P. | Navigating among activities in a computing device |
US7890299B2 (en) * | 2007-05-21 | 2011-02-15 | Qualcomm, Incorporated | Providing event-controlled continuous logging for a mobile operating environment |
WO2009017125A1 (ja) * | 2007-07-30 | 2009-02-05 | Kyocera Corporation | 入力装置 |
US8645827B2 (en) * | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
US8416196B2 (en) * | 2008-03-04 | 2013-04-09 | Apple Inc. | Touch event model programming interface |
US9268483B2 (en) * | 2008-05-16 | 2016-02-23 | Microsoft Technology Licensing, Llc | Multi-touch input platform |
US8375336B2 (en) * | 2008-05-23 | 2013-02-12 | Microsoft Corporation | Panning content utilizing a drag operation |
JP2010015238A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 情報処理装置、及び補助情報の表示方法 |
US8466879B2 (en) * | 2008-10-26 | 2013-06-18 | Microsoft Corporation | Multi-touch manipulation of application objects |
JP4853507B2 (ja) * | 2008-10-30 | 2012-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR101019335B1 (ko) * | 2008-11-11 | 2011-03-07 | 주식회사 팬택 | 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템 |
KR101521932B1 (ko) * | 2009-01-19 | 2015-05-20 | 엘지전자 주식회사 | 단말기 및 그 제어 방법 |
-
2011
- 2011-12-19 KR KR1020177018175A patent/KR101854582B1/ko active IP Right Grant
- 2011-12-19 WO PCT/US2011/065859 patent/WO2012087939A1/en active Application Filing
- 2011-12-19 JP JP2013546284A patent/JP5747235B2/ja active Active
- 2011-12-19 KR KR1020147036632A patent/KR101645685B1/ko active Application Filing
- 2011-12-19 KR KR1020167020964A patent/KR101754908B1/ko active IP Right Grant
- 2011-12-19 EP EP21207867.9A patent/EP3982242B1/en active Active
- 2011-12-19 NL NL2007993A patent/NL2007993C2/en active
- 2011-12-19 KR KR1020137019463A patent/KR101523866B1/ko active IP Right Grant
- 2011-12-19 EP EP11808779.0A patent/EP2656192B1/en active Active
- 2011-12-19 EP EP17177247.8A patent/EP3258366B1/en active Active
- 2011-12-19 AU AU2011349513A patent/AU2011349513B2/en active Active
- 2011-12-20 TW TW100147539A patent/TWI470537B/zh active
- 2011-12-20 TW TW103144867A patent/TWI520044B/zh active
-
2015
- 2015-04-06 JP JP2015077922A patent/JP5980368B2/ja active Active
-
2016
- 2016-07-26 JP JP2016146769A patent/JP6785082B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5612719A (en) * | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
JP2008508600A (ja) * | 2004-07-30 | 2008-03-21 | アップル インコーポレイテッド | タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース |
JP2009110286A (ja) * | 2007-10-30 | 2009-05-21 | Toshiba Corp | 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法 |
US20100020025A1 (en) * | 2008-07-25 | 2010-01-28 | Intuilab | Continuous recognition of multi-touch gestures |
WO2010041155A1 (en) * | 2008-10-07 | 2010-04-15 | Sony Ericsson Mobile Communications Ab | Live preview of open windows |
WO2010107669A2 (en) * | 2009-03-16 | 2010-09-23 | Apple Inc. | Event recognition |
WO2010144201A2 (en) * | 2009-06-07 | 2010-12-16 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
Also Published As
Publication number | Publication date |
---|---|
JP2015158931A (ja) | 2015-09-03 |
TW201512962A (zh) | 2015-04-01 |
NL2007993A (en) | 2012-06-25 |
EP3982242A3 (en) | 2022-06-22 |
KR101854582B1 (ko) | 2018-05-03 |
TWI520044B (zh) | 2016-02-01 |
JP5980368B2 (ja) | 2016-08-31 |
TW201237735A (en) | 2012-09-16 |
TWI470537B (zh) | 2015-01-21 |
EP2656192B1 (en) | 2017-08-16 |
KR20170081293A (ko) | 2017-07-11 |
KR101523866B1 (ko) | 2015-05-28 |
NL2007993C2 (en) | 2012-08-14 |
JP2014504419A (ja) | 2014-02-20 |
EP3258366B1 (en) | 2021-12-08 |
AU2011349513B2 (en) | 2015-04-02 |
JP5747235B2 (ja) | 2015-07-08 |
KR20160097377A (ko) | 2016-08-17 |
AU2011349513A1 (en) | 2013-05-09 |
EP2656192A1 (en) | 2013-10-30 |
KR20130111615A (ko) | 2013-10-10 |
KR101754908B1 (ko) | 2017-07-07 |
KR20150012313A (ko) | 2015-02-03 |
EP3982242B1 (en) | 2024-05-01 |
KR101645685B1 (ko) | 2016-08-04 |
WO2012087939A1 (en) | 2012-06-28 |
EP3258366A1 (en) | 2017-12-20 |
JP6785082B2 (ja) | 2020-11-18 |
EP3982242A2 (en) | 2022-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5980368B2 (ja) | 事象認識 | |
US20220107728A1 (en) | Event Recognition | |
CN110362414B (zh) | 代理手势识别器 | |
US9311112B2 (en) | Event recognition | |
US8566044B2 (en) | Event recognition | |
AU2021290380B2 (en) | Event recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170602 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20170904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180223 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180517 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190527 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190603 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20190621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201026 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6785082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |