JP6085618B2 - ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース - Google Patents

ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP6085618B2
JP6085618B2 JP2014557743A JP2014557743A JP6085618B2 JP 6085618 B2 JP6085618 B2 JP 6085618B2 JP 2014557743 A JP2014557743 A JP 2014557743A JP 2014557743 A JP2014557743 A JP 2014557743A JP 6085618 B2 JP6085618 B2 JP 6085618B2
Authority
JP
Japan
Prior art keywords
content object
display
user input
electronic document
icons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014557743A
Other languages
English (en)
Other versions
JP2015515040A (ja
Inventor
チャナカ, ジー. カルナムニ,
チャナカ, ジー. カルナムニ,
ローレント バウマン,
ローレント バウマン,
ジュリエン, ヤン ロバート,
ジュリエン, ヤン ロバート,
アレクサンドレ, エフ. カーリアン,
アレクサンドレ, エフ. カーリアン,
アレクサンドレ モハ,
アレクサンドレ モハ,
フィリップ シャンポー,
フィリップ シャンポー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2015515040A publication Critical patent/JP2015515040A/ja
Application granted granted Critical
Publication of JP6085618B2 publication Critical patent/JP6085618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Description

本発明は、全般的には、グラフィカルユーザインタフェースにオブジェクトを表示する電子デバイスに関し、ドキュメント内にコンテンツオブジェクトを表示する電子デバイスを含むが、それに限定されるものではない。
ディスプレイ上でのユーザインタフェースオブジェクトの操作は、コンピュータ及び他の電子コンピューティングデバイスにおいて一般的である。例えば、ユーザは、ある電子ドキュメントから別の電子ドキュメントに、デジタル画像、デジタルビデオ、又はいくつかの他のコンテンツオブジェクトを移動すること望む場合があり、他のユーザにコンテンツオブジェクトを送信することを望む場合もある。このような操作は、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)又はマウスなどの、さまざまな入力デバイスのいずれかを用いて行ってもよい。
しかし、コンテンツオブジェクトを共有するための既存の方法は、例えば、多くの場合、いくつかの工程を必要とするため、厄介で非効率的であり、又は不明瞭なメニューコマンドに頼るものであった。これは面倒であり、ユーザに大きな認識的重荷を与えてしまう。加えて、既存の方法は必要以上に時間を要し、それによってエネルギーを無駄にしてしまう。この後者の考慮事項は、バッテリ動作デバイスにおいては特に重要である。
したがって、ドキュメント内のコンテンツオブジェクトを共有するための、より速く、より効率的な方法及びインタフェースを備えた電子デバイスが必要とされている。このような方法及びインタフェースは、ドキュメント内のコンテンツオブジェクトを共有するための従来の方法を補完又は置換することができる。このような方法及びインタフェースは、ユーザの認識的重荷を軽減し、より効率的なヒューマン−マシンインタフェースを作り出す。バッテリ動作デバイスの場合、このような方法及びインタフェースにより、電力を保存し、バッテリの充電の間の時間を増やす。
コンテンツオブジェクトを表示する電子デバイスのためのユーザインタフェースに関連する上記の不足及び他の問題は、開示されるデバイスによって低減または取り除かれる。いくつかの実施形態において、このデバイスは、デスクトップコンピュータである。いくつかの実施形態において、このデバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態において、このデバイスは、タッチパッドを有する。いくつかの実施形態において、このデバイスは、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態において、このデバイスは、グラフィカルユーザインタフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態において、ユーザは主にタッチ感知面上での指の接触及びジェスチャを介してGUIと対話する。いくつかの実施形態において、機能は、画像編集、描画、プレゼンテイング、ワードプロセッシング、ウェブサイトの作成、ディスクオーサリング、スプレッドシートの作成、ゲームプレイ、電話をかけること、ビデオ会議、電子メール送信、インスタントメッセージ、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、及び/又はデジタルビデオの再生を含んでもよい。これらの機能を実行するための実行可能命令は、永続的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行するように構成された他のコンピュータプログラム製品に含まれてもよい。
いくつかの実施形態によれば、ディスプレイを備えた電子デバイスにおいて、ある方法が実行される。この方法は、第1の電子ドキュメント及び第2の電子ドキュメントを同時にディスプレイ上に表示することと、第1の電子ドキュメントは表示されたコンテンツオブジェクトを含み、コンテンツオブジェクト上で開始する第1のユーザ入力を検出することと、第1のユーザ入力が第1のコマンドに対応するという判定に応答して、第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して及び表示することと、第1のユーザ入力が第1のコマンドとは異なる第2のコマンドに対応するという判定に応答して、コンテンツオブジェクトを選択し、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示することと、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始することと、を含み、複数のアイコンは、コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するためのアイコンを少なくとも1つ含む。
いくつかの実施形態によれば、ディスプレイを備えた電子デバイスにおいて、ある方法が実行される。この方法は、第1の電子ドキュメントをディスプレイ上に表示することと、第1の電子ドキュメントは表示されたコンテンツオブジェクトを含み、コンテンツオブジェクト上で第1のユーザ入力を検出することと、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択し、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示することと、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始することと、を含み、複数のアイコンは、コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するためのアイコンを少なくとも1つ含む。
いくつかの実施形態によれば、ディスプレイを備えた電子デバイスにおいて、ある方法が実行される。この方法は、第1の電子ドキュメントをディスプレイ上に表示することと、第1の電子ドキュメントは表示されたコンテンツオブジェクトを含み、第1のユーザ入力を検出することと、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択することと、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示することと、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し、分離されたコンテンツオブジェクトに近接する複数の編集アイコンの表示を開始することと、を含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、1つ以上のプロセッサと、メモリと、1つ以上のプログラムと、を含み、1つ以上のプログラムは、メモリに記憶され、1つ以上のプロセッサによって実行されるように構成され、1つ以上のプログラムは上述の方法のいずれかの動作を実行するための命令を含む。いくつかの実施形態によれば、ディスプレイと、メモリと、メモリに記憶されている1つ以上のプログラムを実行する1つ以上のプロセッサと、を備えた電子デバイス上のグラフィカルユーザインタフェースは、上述の方法のいずれかで表示される要素の1つ以上を含み、それらは上記の方法のいずれかにおいて記載されるように、入力に応答して更新される。いくつかの実施形態において、コンピュータ可読記憶媒体は内部に命令を記憶し、この命令はディスプレイを備えた電子デバイスによって実行されると、デバイスに上述の方法のいずれかの動作を実行させる。いくつかの実施形態によれば、電子デバイスは、ディスプレイと、上述の方法のいずれかの動作を実行するための手段と、を含む。いくつかの実施形態によれば、ディスプレイを備えた電子デバイスにおいて使用される情報処理装置は、上述の方法のいずれかの動作を実行するための手段を含む。
いくつかの実施形態によれば、電子デバイスは、表示されたコンテンツオブジェクトを含む第1の電子ドキュメント、及び第2の電子ドキュメントを表示部に同時に表示するよう構成された表示部と、表示部に結合された処理部と、を備える。処理部は、コンテンツオブジェクト上で開始する第1のユーザ入力を検出し、第1のユーザ入力が第1のコマンドに対応するという判定に応答して、第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して表示を可能にし、第1のユーザ入力が第1のコマンドとは異なる第2のコマンドに対応するという判定に応答して、コンテンツオブジェクトを選択し、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションの表示を可能にし、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する、ように構成され、複数のアイコンは、コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するためのアイコンを少なくとも1つ含む。
いくつかの実施形態によれば、電子デバイスは、表示されたコンテンツオブジェクトを含む第1の電子ドキュメントを表示部に表示するよう構成された表示部と、表示部に結合された処理部と、を備える。処理部は、コンテンツオブジェクト上で第1のユーザ入力を検出し、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択し、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションの表示を可能にし、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する、ように構成され、複数のアイコンは、コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するためのアイコンを少なくとも1つ含む。
いくつかの実施形態によれば、電子デバイスは、表示されたコンテンツオブジェクトを含む第1の電子ドキュメントを表示部に表示するよう構成された表示部と、表示部に結合された処理部と、を備える。処理部は、第1のユーザ入力を検出し、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択し、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションの表示を可能にし、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し、分離されたコンテンツオブジェクトに近接する複数の編集アイコンの表示を開始する、ように構成される。
このように、ディスプレイを備えた電子デバイスは、ドキュメント内のコンテンツオブジェクトを共有するためのより速く、より効率的な方法及びインタフェースを備えていることにより、これらのデバイスの有効性、効率、及びユーザ満足度を高めることができる。このような方法及びインタフェースは、ドキュメント内のコンテンツオブジェクトを共有するための従来の方法を補完又は置換することができる。
本発明の前述の実施形態並びにそれらの付加的な実施形態のより良い理解のために、以下の図面と関連して、以下の実施形態の説明を参照されたく、類似の参照番号は、図面全体を通じて対応する部分を指す。
いくつかの実施形態に係る、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。 いくつかの実施形態に係る、イベント処理のための例示的なコンポーネントを示すブロック図である。 いくつかの実施形態に係る、タッチスクリーンを備えたポータブル多機能デバイスを示す。 いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスのブロック図である。 いくつかの実施形態に係る、ポータブル多機能デバイスにおけるアプリケーションのメニューのための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ディスプレイとは別個のタッチ感知面を備えた多機能デバイスのための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図の前半である。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図の中盤である。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図の後半である。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図である。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図である。 いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトのための編集インタフェースを表示する方法を示す流れ図である。 いくつかの実施形態に係る電子デバイスの機能ブロック図である。 いくつかの実施形態に係る電子デバイスの機能ブロック図である。
ユーザがアクセスしたドキュメントは、ユーザにより強調表示された画像、埋め込みビデオ、及びテキストなどの、任意の数のコンテンツオブジェクトを含むことができる。ユーザは、他の人と、ドキュメント全体よりも、むしろコンテンツオブジェクトのみを共有したい場合がある。既存の方法は、一般的には、共有を行うための複数のステップをとるインタフェースを開くことをユーザに要求するが、そのことはユーザには明白でないかもしれない。下記の実施形態では、ドキュメント内のコンテンツオブジェクトを共有するための改良された方法を記述する。コンテンツオブジェクトを含むドキュメントの場合、ユーザは、コンテンツオブジェクトに対して特定のユーザ入力(例えば、プレスアンドホールド入力)を行うことができる。特定のユーザ入力に応答して、コンテンツオブジェクトは視覚的にドキュメントから分離され(したがって、コンテンツオブジェクトに焦点が置かれ)、コンテンツオブジェクトを共有するためのユーザインタフェースを開始するためのアイコンが表示される。いくつかの実施例において、ユーザがコンテンツオブジェクトを他のユーザと共有するのではなく、コンテンツオブジェクトを他の電子ドキュメントに移動するよう決定する場合、ユーザインタフェースは、他のユーザとコンテンツオブジェクトを共有するためのインタフェースから、別のドキュメントへコンテンツオブジェクトを移動させるためのインタフェースへシームレスに移行する。この方法により、任意のドキュメントからのコンテンツオブジェクトの共有を簡素化する。ドキュメント内のコンテンツオブジェクトを編集するための編集インタフェースを提供するために、関連する方法を用いてもよい。
以下、図1A〜1B、図2、図3、及び図9〜10は、例示的なデバイスの説明を提供する。図4A〜4B及び図5A〜5Dは、ドキュメント内のコンテンツオブジェクトを共有するための例示的なユーザインタフェースを示す。図6A〜6D及び図7は、ドキュメント内のコンテンツオブジェクトを共有する方法を示す流れ図である。図8は、ドキュメント内のコンテンツオブジェクトのための編集インタフェースを表示する方法を示す流れ図である。図5A〜5Sのユーザインタフェースは、図6A〜6D、図7、及び図8の処理を示すために用いられる。
例示的なデバイス
実施例が添付の図面に示されている実施形態が、詳細に参照される。以下の詳細な説明では、本発明の完全な理解を提供するために数多くの具体的な詳細が記載される。しかしながら、本発明は、これらの具体的な詳細を伴わずとも実践することができる点が、当業者には明らかとなるであろう。他の例においては、周知の方法、手続き、コンポーネント、回路、及びネットワークは、実施形態の態様を不必要に不明瞭なものとしないよう、詳細には説明されていない。
本明細書において、第1、第2等の用語は、さまざまな要素を記述するために使用されてもよいが、これらの要素はこれらの用語によって限定されるべきではないことが理解されるであろう。これらの用語は、ある要素を別の要素と区別するためのみに使用される。本発明の範囲から逸脱することなく、例えば、第1の接点は、第2の接点と呼ぶことができ、同様に、第2の接点は、第1の接点と呼ぶことができる。第1の接点及び第2の接点は両方接点であるが、それらは同じ接点ではない。
本明細書での本発明の説明で使用される用語法は、特定の実施形態を説明するためのものであって、本発明を限定することは意図されていない。本発明の説明、及び添付の特許請求の範囲で使用される時に、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形をも含むことが意図されている。本明細書で使用される時に、用語「及び/又は」が、関連するリスト化された項目のうちの1つ以上の任意のすべての可能な組合せを指し、これを含むことをも理解されるであろう。更に、用語「includes(含む)、「including(含む)」、「comprises(含む)」及び/又は「comprising(含む)」が、本明細書で使用される時に、述べられた特徴、整数、ステップ、動作、要素、及び/又はコンポーネントの存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、コンポーネント、及び/又はその群の存在又は追加を除外しないことが理解されるであろう。
本明細書で使用される時に、用語「if(〜場合に)」を、文脈に応じて「when(〜時に)」、「upon(〜時に)」、「in response to determining(〜との判定に応答して)」、又は「in response to detecting(〜の検出に応答して)」を意味すると解釈することができる。同様に、句「if it is determined(〜と判定される場合に)」又は「if (a stated condition or event) is detected((述べられる条件またはイベント)が検出される場合に)」を、文脈に応じて「upon determining(〜と判定される時に)」、「in response to determining(〜との判定に応答して)」、「upon detecting(the stated condition or event)((述べられる条件またはイベント)の検出時に)」、又は「in response to detecting(the stated condition or event)((述べられる条件またはイベント)の検出に応答して)」を意味すると解釈することができる。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用するための関連するプロセスの実施形態を説明する。いくつかの実施形態では、このデバイスは、PDA機能及び/又は音楽再生機能などの、他の機能をも含むモバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、限定を伴わずに、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含む。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなど他のポータブル電子デバイスも使用することができる。また、いくつかの実施形態において、このデバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータであることを理解されたい。
以下の考察では、ディスプレイ及びタッチ感知面を含む電子デバイスを説明する。しかし、この電子デバイスが、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことができることを理解されたい。
そのデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、及び/又はデジタルビデオ再生アプリケーションのうちの1つ以上など、さまざまなアプリケーションをサポートする。
そのデバイス上で実行できるさまざまなアプリケーションは、タッチ感知面など、少なくとも1つの共通の物理ユーザインタフェースデバイスを使用することができる。タッチ感知面の1つ以上の機能並びにデバイス上に表示される対応する情報を、アプリケーションごとに及び/若しくはそれぞれのアプリケーション内で調整し、並びに/又は変更することができる。このように、そのデバイスの共通の物理アーキテクチャ(タッチ感知面など)は、ユーザにとって直観的及び透過的なユーザインタフェースを有するさまざまなアプリケーションをサポートすることができる。
タッチ感知ディスプレイを備えたポータブルデバイスの実施形態に注目を向ける。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイ112を備えたポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、時に便宜上「タッチスクリーン」と呼ばれ、「タッチ感知ディスプレイシステム」として知られたり、呼ばれたりすることもある。デバイス100は、メモリ102(1つ以上のコンピュータ可読記憶媒体を含んでもよい)、メモリコントローラ122、1つ以上の処理部(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロホン113、入出力(I/O)サブシステム106、他の入力又は制御デバイス116、及び外部ポート124を備えてもよい。デバイス100は、1つ以上の光センサ164を備えてもよい。これらのコンポーネントは、1つ以上の通信バス又は信号ライン103を介して通信することができる。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、示さているよりも多くの又は少ないコンポーネントを備えていてもよく、2つ以上のコンポーネントを組み合わせていてもよく、コンポーネントの異なる構成又は配置を有していてもよいということを理解されたい。図1Aに示されるさまざまなコンポーネントは、1つ以上の信号処理及び/若しくは特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方の組み合わせにより実現されてもよい。
メモリ102は、高速ランダムアクセスメモリを含むことができ、また、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体メモリデバイスなどの、不揮発性メモリを含んでもよい。CPU 120及び周辺機器インタフェース118など、デバイス100の他のコンポーネントからメモリ102へのアクセスは、メモリコントローラ122により制御されてもよい。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU 120及びメモリ102に結合するために使用してもよい。1つ以上のプロセッサ120は、デバイス100のためのさまざまな機能を実行するため並びにデータ処理を行うために、メモリ102に記憶されたさまざまなソフトウェアプログラム及び/若しくは命令セットを走らせたり、又は実行したりする。
いくつかの実施形態において、周辺機器インタフェース118、CPU 120、及びメモリコントローラ122は、チップ104などの、単一のチップ上に実装されてもよい。他のいくつかの実施形態では、これらは別個のチップに実装されてもよい。
RF(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を受信したり送信したりする。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、これらの機能を実行するために、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、コーデックチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むが、それに限定されることのない、周知の回路を備えてもよい。RF回路108は、無線通信により、インターネット情報検索システム(WWW)とも呼ばれるインターネットなどのネットワーク、イントラネット及び/又はセルラー電話ネットワークなどの無線ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、並びにその他のデバイスと通信を行ってもよい。無線通信は、Global System for Mobile Communications(GSM)、Enhanced Data GSM Environment(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、Wireless Fidelity(Wi−Fi)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/若しくはIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(EMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージ(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(XMPP)、Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions(SIMPLE)、Instant Messaging and Presence Service(IMPS))、及び/若しくはショートメッセージサービス(SMS)、又は本文書の出願日にまだ開発されていない通信プロトコルを含む任意の他の好適な通信プロトコルを含むがこれらに限定されない複数の通信標準規格、通信プロトコル、及び通信テクノロジのいずれをも使用することができる。
オーディオ回路110、スピーカ111、及びマイクロホン113は、ユーザとデバイス100との間にオーディオインタフェースを提供する。オーディオ回路110は周辺機器インタフェース118からオーディオデータを受け取り、オーディオデータを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間可聴音波に変換する。オーディオ回路110は、音波からマイクロホン113により変換された電気信号も受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、処理のために周辺機器インタフェース118にオーディオデータを送る。オーディオデータは、周辺機器インタフェース118により、メモリ102及び/又はRF回路108より取得及び/又は送信してもよい。いくつかの実施形態において、オーディオ回路110は更にヘッドセットジャック(例えば、図2の212)を備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロホン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
入出力サブシステム106は、周辺機器インタフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を結合する。入出力サブシステム106は、ディスプレイコントローラ156及び他の入力又は制御デバイスのための1つ以上の入力コントローラ160を含むことができる。1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から/へ電気信号を受信/送信する。他の入力制御デバイス116は、物理的なボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダースイッチ、ジョイスティック、クリックホイールなどを備えてもよい。いくつかの代替の実施形態では、入力コントローラ(1つ又は複数)160は、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうち、いずれかに結合することができる(又は、いずれにも結合されていなくてもよい)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロホン113の音量調節のためのアップ/ダウンボタンを含んでもよい。1つ以上のボタンは、プッシュボタンを含んでもよい(例えば、図2の206)。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112から/へ電気信号を受信及び/又は送信する。タッチスクリーン112は、ユーザへ視覚出力を表示する。視覚出力は、グラフィク、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせを含むことができる(集合的に「グラフィク」と呼ばれる)。いくつかの実施形態において、視覚出力の一部又は全ては、ユーザインタフェースオブジェクトに対応してもよい。
タッチスクリーン112は、触覚及び/若しくは触角の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)は、タッチスクリーン112上で接触(及び任意の動き又は接触の中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。ある例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を用いてもよいが、他の実施形態ではその他のディスプレイ技術を用いてもよい。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術に加えて、タッチスクリーン112との1つ以上の接触点を判定するための、他の近接センサアレイ又は他の要素を含むが、これらに限定されない周知の若しくは後に開発される複数のタッチ感度技術のうちのいずれかを使用して、それらの接触及び任意の移動又は中断を検出することもできる。ある例示的な実施形態では、California州CupertinoのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影された相互キャパシタンス検知技術が使用されている。
タッチスクリーン112は、100dpiを超えるビデオ解像度を有してもよい。いくつかの実施形態において、タッチスクリーンは約160dpiのビデオ解像度を有する。ユーザは、スタイラス及び指などの、任意の適切なオブジェクト又は付属物を使用して、タッチスクリーン112と接触することができる。いくつかの実施形態において、ユーザインタフェースは、主として指ベースの接触及びジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いことにより、スタイラスベースの入力よりも精度が低いことがある。いくつかの実施形態において、デバイスは、粗い指ベースの入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドへ変換する。
いくつかの実施形態において、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブにまたは非アクティブにするためのタッチパッド(図示せず)を備えてもよい。いくつかの実施形態において、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、タッチスクリーン112とは別個のタッチ感知面又はタッチスクリーンにより形成されたタッチ感知面の延長であってもよい。
デバイス100は更に、さまざまなコンポーネントに電力を供給するための電力システム162を含む。電力システム162は電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態標識(例えば、発光ダイオード(LED))、並びにポータブルデバイスにおける電力の生成、管理、及び分配に関連付けられる任意の他のコンポーネントを含んでもよい。
デバイス100は更に、1つ以上の光センサ164を備えてもよい。図1Aは、入出力サブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを含んでもよい。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも呼ばれる)に関連して、光センサ164は、静止画像またはビデオをキャプチャすることができる。いくつかの実施形態において、タッチスクリーンディスプレイを静止画像及び/又はビデオ取得のためのビューファインダとして使用することができるように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。いくつかの実施形態において、ユーザがタッチスクリーンディスプレイ上で他のビデオ会議参加者を見えている間に、ユーザの画像をビデオ会議のために得ることができるように、別の光センサがデバイスの前面に位置している。
デバイス100は更に、1つ以上の近接センサ166を備えてもよい。図1Aは、周辺機器インタフェース118と結合した近接センサ166を示している。その代わりに、近接センサ166は、入出力サブシステム106内の入力コントローラ160に結合されてもよい。いくつかの実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサがオフになり、タッチスクリーン112が無効になる。
デバイス100は更に、1つ以上の加速度計168を備えてもよい。図1Aは、周辺機器インタフェース118と結合された加速度計168を示している。その代わりに、加速度計168は、入出力サブシステム106内の入力コントローラ160に結合されてもよい。いくつかの実施形態において、情報は、1つ以上の加速度計から受け取ったデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、必要に応じて、加速度計(1つ又は複数)168に加えて、磁力計(図示せず)並びにデバイス100の位置及び向き(例えば、ポートレート又はランドスケープ)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信部(図示せず)を備える。
いくつかの実施形態において、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィクモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135、及びアプリケーション(命令セット)136を含む。更に、いくつかの実施形態において、図1A及び図3に示すように、メモリ102はデバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブなアプリケーションがもしあれば示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報が、タッチスクリーンディスプレイ112のさまざまな領域を占有するかを示すディスプレイ状態、デバイスのさまざまなセンサ及び入力制御デバイス116から取得した情報を含むセンサ状態、及びデバイスの位置及び/又は姿勢に関する位置情報、のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksなどの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するためのさまざまなソフトウェアコンポーネント及び/又はドライバを含み、さまざまなハードウェアとソフトウェアコンポーネントとの間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するためのさまざまなソフトウェアコンポーネントを含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIREなど)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に他のデバイスに結合するように適合される。いくつかの実施形態において、外部ポートは、iPod(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、(ディスプレイコントローラ156と関連して)タッチスクリーン112及び他のタッチ感知デバイス(例えば、タッチパッド又は物理的なクリックホイール)との接触を検出することができる。接触/動きモジュール130は、接触が起こったかどうかの判定(例えば、フィンガダウンイベントの検出)、接触の動きがあるかどうかの判定及びタッチ感知面にわたる動きの追跡(例えば、1つ以上のフィンガドラッギングイベントの検出)、及び接触が終わったかどうかの判定(例えば、フィンガアップイベント又は接触の中断の検出)など、接触の検出に関連するさまざまな動作を行うためのさまざまなソフトウェアコンポーネントを含む。接触/動きモジュール130は、タッチ感知面から接触データを受け取る。一連の接触データにより表される接触点の動きの判定は、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向の変化)の判定を含んでもよい。これらの操作は、単一の接触(例えば、1つの指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用することができる。いくつかの実施形態において、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
接触/動きモジュール130は、ユーザによるジェスチャ入力を検出することができる。タッチ感知面上での異なるジェスチャは、異なる接触パターンを有する。したがって、特定の接触パターンを検出することによってジェスチャを検出することができる。例えば、フィンガタップジェスチャの検出は、フィンガダウンイベントを検出し、続いてフィンガダウンイベント(例えば、アイコンの位置)と同じ位置(又は、実質的に同じ位置)でのフィンガアップ(リフトオフ)イベントを検出することを含む。他の実施例として、タッチ感知面でのフィンガスワイプジェスチャの検出は、フィンガダウンイベントを検出し、続いて1つ以上のフィンガドラッギングイベントを検出し、その後、フィンガアップ(リフトオフ)イベントを検出することを含む。
グラフィクモジュール132は、表示されるグラフィクの強度を変化させるためのコンポーネントを含む、タッチスクリーン112又は他のディスプレイ上にグラフィクを描画及び表示するためのさまざまな既知のソフトウェアコンポーネントを含む。本明細書で使用する用語「グラフィク」は、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーション、及び類似物など、ユーザに対して表示することができる任意のオブジェクトを含むが、これらに限定されない。
いくつかの実施形態において、グラフィクモジュール132は、使用されるグラフィクを表すデータを記憶する。それぞれのグラフィクに、対応するコードを割り当ててもよい。グラフィクモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィクプロパティデータと共に、表示されるグラフィクを指定する1つ以上のコードを受け取り、ディスプレイコントローラ156に出力する画面画像データを生成する。
テキスト入力モジュール134はグラフィクモジュール132のコンポーネントであってもよく、さまざまなアプリケーション(例えば、連絡先137、電子メール140、IM 141、ブラウザ147、及びテキスト入力を必要とする他のアプリケーション)にテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判定し、この情報をさまざまなアプリケーションで使用するために提供する(例えば、ロケーションベースダイアル発呼で使用するための電話138へ、ピクチャ/ビデオのメタデータとしてカメラ143へ、並びに気象ウィジェット、地方のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含むことができる。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージ(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●気象ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザが取得した他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を含むことができるウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作るためのウィジェットクリエーターモジュール150、
●検索モジュール151、
●ビデオ再生モジュール及び音楽再生モジュールから成ることができるビデオ及び音楽再生モジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は
●オンラインビデオモジュール155。
メモリ102に記憶することができる他のアプリケーション136の例は、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134に関連して、連絡先モジュール137は、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用されてもよく、アドレス帳への名前(1つ又は複数)の追加、アドレス帳からの名前(1つ又は複数)の削除、電話番号(1つ又は複数)、電子メールアドレス(1つ又は複数)、物理アドレス(1つ又は複数)、又は他の情報と名前との関連付け、画像と名前との関連付け、名前の分類及び並び替え、電話138、ビデオ会議139、電子メール140、又はIM 141などによる通信を開始及び/又は容易にするための、電話番号若しくは電子メールアドレスの提供などを含む。
RF回路108、オーディオ回路110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、電話モジュール138は、電話番号に対応する文字のシーケンスを入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、それぞれの電話番号をダイヤルし、会話を行い、会話が完了した時に切断し、又は電話を切るために使用することができる。上述したように、無線通信は、複数の通信規格、プロトコル、及び技術のうちいずれかを使用することができる。
RF回路108、オーディオ回路110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と関連して、ビデオ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了するための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、電子メールクライアントモジュール140は、ユーザの指示に応答して、電子メールを作成し、送信し、受信し、管理するための実行可能命令を含む。画像管理モジュール144と関連して、電子メールクライアントモジュール140により、カメラモジュール143で撮影した静止画像又はビデオを作成し、電子メールを送ることが非常に簡単になる。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、インスタントメッセージモジュール141は、インスタントメッセージに対応する文字のシーケンスを入力したり、入力済みの文字を修正したり、それぞれのインスタントメッセージを送信したり(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)、インスタントメッセージを受信して、受信したインスタントメッセージを表示したりするための実行可能命令を含む。いくつかの実施形態において、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は強化メッセージサービス(EMS)でサポートされるように、グラフィク、写真、オーディオファイル、ビデオファイル、及び/又は他の添付を含むことができる。本明細書では、「インスタントメッセージ」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されたメッセージ)の両方を意味する。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽再生ジュール146と関連して、トレーニングサポートモジュール142は、トレーニングを作成したり(例えば、時間、距離、及び/又はカロリー消費目標に関して)、トレーニングセンサ(スポーツデバイス)と通信したり、トレーニングセンサデータを受信したり、トレーニングを監視するために用いられるセンサを較正したり、トレーニングのための音楽を選択して再生したり、トレーニングデータを表示、記憶、送信したりするための実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィクモジュール132、及び画像管理モジュール144と関連して、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又はビデオの特徴を変更したり、又はメモリ102から静止画像若しくは動画を削除したりするための実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、及びカメラモジュール143と関連して、画像管理モジュール144は、静止画像及び/又はビデオを配置し、修正し(例えば、編集し)、また別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶したりするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付け、受信し、表示することを含むユーザの指示に従い、インターネットをブラウズするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、カレンダーモジュール148は、ユーザの指示に従い、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、すべきことのリストなど)を作成し、表示し、変更し、記憶するための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と関連して、ウィジェットモジュール149は、ユーザによりダウンロードされ、使用され得る(例えば、気象ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザにより作成され得る(例えば、ユーザ作成ウィジェット149−6)ミニ・アプリケーションである。いくつかの実施形態において、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態において、ウィジェットは、XML(拡張マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と関連して、ウィジェットクリエーターモジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットにする)ためにユーザにより利用され得る。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索判断基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための実行可能命令を含む。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と関連して、ビデオ及び音楽再生モジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽又は他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能命令、並びにビデオを表示、提示、又は別の方法で再生する(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)ための実行可能命令を含む。いくつかの実施形態において、デバイス100は、iPod(Apple Inc.の商標)などのMP3プレーヤの機能性を含むことができる。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、メモモジュール153は、ユーザの指示に従い、メモ、すべきことのリスト、及び類似物などを作成したり管理したりするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と関連して、地図モジュール154は、ユーザの指示に従い、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の位置又はその近くの店舗及びその他の見所のデータ、並びに他の位置ベースのデータ)を受信、表示、変更、及び記憶するのに使用することができる。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、ブラウズし、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理できるようにする命令を含む。いくつかの実施形態においては、電子メールクライアントモジュール140ではなく、インスタントメッセージモジュール141が、特定のオンラインビデオへのリンクを送るために用いられる。
上記で識別されたモジュール及びアプリケーションのそれぞれは、1つまたはそれ以上の上記の機能を実行するための実行可能命令セット及び本出願に記載の方法(例えば、コンピュータにより実行される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手続き、又はモジュールとして実施される必要はなく、したがって、さまざまな実施形態において、これらのモジュールのさまざまなサブセットを組み合わせてもよく、別の方法で再配置することができる。いくつかの実施形態において、メモリ102は、上記で識別されたモジュール及びデータ構造のサブセットを記憶することができる。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を記憶することができる。
いくつかの実施形態において、デバイス100は、デバイス上の機能の既定のセットの動作が排他的にタッチスクリーン及び/又はタッチパッドを介して実行されるデバイスである。デバイス100の動作のための主要な入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイヤル、及び類似物など)の数を減らすことができる。
排他的にタッチスクリーン及び/又はタッチパッドを介して実行することができる機能の既定のセットは、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態において、タッチパッドは、ユーザにタッチされると、デバイス100上に表示することができる任意のユーザインタフェースから、メイン、ホーム、又はルートメニューへとデバイス100をナビゲートする。このような実施形態において、タッチパッドは、「メニューボタン」と呼ぶことができる。いくつかの他の実施形態において、メニューボタンは、タッチパッドの代わりに、物理的なプッシュボタン又は他の物理的な入力制御デバイスであってもよい。
図1Bは、いくつかの実施形態に係る、イベント処理のための例示的なコンポーネントを示すブロック図である。いくつかの実施形態において、メモリ102(図1A内)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136−1(例えば、上述のアプリケーション137〜151、155、及び380〜390のいずれか)を含む。
イベントソータ170は、イベント情報を受け取り、イベント情報を配信するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態において、アプリケーション136−1は、アプリケーションがアクティブ又は実行中の時、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(1つ又は複数)を示す、アプリケーション内部状態192を含む。いくつかの実施形態において、デバイス/グローバル内部状態157は、現在どのアプリケーション(1つ又は複数)がアクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、どのアプリケーションビュー191へイベント情報を配信するかを決定するために、イベントソータ170によって使用される。
いくつかの実施形態において、アプリケーション内部状態192は、追加情報として、例えば、アプリケーション136−1が実行を再開する際に用いられる再開情報、アプリケーション136−1により表示されている又は表示の準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態の待ち行列、及びユーザが以前にとったアクションのやり直し/アンドゥの待ち行列のうちの1つ以上を含む。
イベントモニタ171は、周辺機器インーフェース118よりイベント情報を受け取る。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上のユーザタッチ)の情報を含む。周辺機器インタフェース118は、入出力サブシステム106又は(オーディオ回路110を介して)近接センサ166、加速度計(1つ又は複数)168、及び/若しくはマイクロホン113などのセンサから受け取る情報を送信する。周辺機器インタフェース118が入出力サブシステム106から受け取る情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態において、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。これに応じて、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態において、周辺機器ンタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間以上の入力を受け取ること)がある場合にのみイベント情報を送信する。
いくつかの実施形態において、イベントソータ170は更に、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173を含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が1つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、ユーザがディスプレイ上で見ることができる制御及びその他の要素で構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書中では、情報が表示されタッチベースのジェスチャが発生する、アプリケーションビュー又はユーザインタフェースウィンドウと呼ばれることもあるビューのセットである。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応してもよい。例えば、タッチが検出される最低レベルのビューはヒットビューと呼ばれてもよく、適切な入力として認識されるイベントのセットは、少なくとも部分的には、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて判定されてもよい。
ヒットビュー判定モジュール172は、タッチベースのジェスチャのサブイベントに関連した情報を受け取る。階層として編成された複数のビューがアプリケーションにある場合は、ヒットビュー判定モジュール172は、ヒットビューを、サブイベントを処理すべき階層の中の最低のビューとして識別する。ほとんどの状況では、ヒットビューは、最初のサブイベント(すなわち、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは、典型的には、それがヒットビューとして識別された、同じタッチ又は入力ソースに関連する全てのサブイベントを受け取る。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(1つ又は複数)がサブイベントの特定のシーケンスを受け取るべきかを判定する。いくつかの実施形態において、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受け取るべきであると判定する。他の実施形態において、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な位置を含むすべてのビューはアクティブに関わっているビューであると判定し、したがって、全てのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受け取るべきであると判定する。他の実施形態において、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント識別部180)に送信する。アクティブイベント識別部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態において、イベントディスパッチャモジュール174は、それぞれのイベントレシーバーモジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。
いくつかの実施形態において、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1がイベントソータ170を含む。更に他の実施形態において、イベントソータ170は、スタンドアロンモジュール、又は接触/動きモジュール130などのメモリ102に記憶された他のモジュールの一部である。
いくつかの実施形態において、アプリケーション136−1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1のそれぞれのアプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的に、それぞれのアプリケーョンビュー191は、複数のイベント認識部180を含む。他の実施形態において、イベント認識部180の1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136−1が方法及び他の性質を継承する上位レベルのオブジェクトなど、別個のモジュールの一部である。いくつかの実施形態において、それぞれのイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178、及び/又はイベントソータ170から受け取ったイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を利用若しくは呼び出してもよい。あるいは、アプリケーションビュー191の1つ以上は、1つ以上のそれぞれのイベントハンドラ190を備える。また、いくつかの実施形態において、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178の1つ以上がそれぞれのアプリケーションビュー191内に含まれている。
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受け取り、イベント情報からイベントを識別する。イベント認識部180は、イベントレシーバー182及びイベントコンパレーター184を含む。いくつかの実施形態において、イベント認識部180は更に、メタデータ183及びイベント配信命令188(サブイベント配信命令を含んでいてもよい)の少なくともサブセットを含む。
イベントレシーバー182は、イベントソータ170よりイベント情報を受け取る。イベント情報は、例えば、タッチ又はタッチの動きなどのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加情報を更に含む。サブイベントが、タッチの動きに関わる時、イベント情報は、サブイベントの速度及び方向を更に含んでもよい。いくつかの実施形態において、イベントは、ある方向から別の方向へ(例えば、ポートレートの向きからランドスケープの向きへ、又はその逆)のデバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。
イベントコンパレーター184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント又はサブイベントを判定、又はイベント若しくはサブイベントの状態を判定又は更新する。いくつかの実施形態において、イベントコンパレーター184は、イベント定義186を含む。イベント定義186は、イベントの定義(例えば、サブイベントの既定のシーケンス)、例えば、イベント1(187−1)、イベント2(187−2)、及びその他を含有する。いくつかの実施形態において、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの動き、タッチの中止、及び複数のタッチを含む。ある実施例において、イベント1(187−1)の定義は、表示されたオブジェクト上の2回のタップである。2回のタップは、例えば、表示されたオブジェクト上の所定の段階についての第1のタッチ(タッチ開始)、所定の段階についての第1のリフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2のタッチ(タッチ開始)、及び所定の段階についての第2のリフトオフ(タッチ終了)を含む。別の実施形態において、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッギングである。ドラッギングは、例えば、表示されたオブジェクト上の所定の段階についてのタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの動き、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態において、イベントは、1つ以上の関連するイベントハンドラ190についての情報も含む。
いくつかの実施形態において、イベント定義187は、それぞれのユーザインタフェースオブジェクト用のイベントの定義を含む。いくつかの実施形態において、イベントコンパレーター184は、サブイベントに関連付けられたユーザインタフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベントコンパレーター184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベントコンパレーターはヒットテストの結果を用いて、アクティブにする必要のあるイベントハンドラ190を判定する。例えば、イベントコンパレーター184は、サブイベント及びヒットテストのトリガーとなるオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態において、それぞれのイベント187の定義は、サブイベントのシーケンスが、イベント認識部のイベントタイプに対応するか対応しないかが判定されるまで、イベント情報の配信を遅延させる、遅延作用も含む。
それぞれのイベント識別部180は、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント識別部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチベースのジェスチャの次のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブのままである他のイベント認識部は、進行中のタッチベースのジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態において、それぞれのイベント認識部180は、構成可能なプロパティ、フラグ、及び/又はイベント配信システムがアクティブに関わっているイベント認識部にどのようにサブイベント配信を実行するかについて示すリストを持つメタデータ183を含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はイベント認識部が互いにどのように対話しうるかについて示すリストを含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はサブイベントがビュー階層又はプログラム階層内のさまざまなレベルに配信されるかどうかを示すリストを含む。
いくつかの実施形態において、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識された時に、イベントに関連付けられたイベントハンドラ190を起動する。いくつかの実施形態において、それぞれのイベント認識部180は、イベントハンドラ190に、イベントに関連付けられたイベント情報を配信する。イベントハンドラ190を起動することと、それぞれのヒットビューにサブイベントを送信(及び送信を延期する)することとは、区別される。いくつかの実施形態において、イベント識別部180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190はフラグをキャッチし、既定の処理を実行する。
いくつかの実施形態において、イベント配信命令188は、イベントハンドラを起動せずにサブイベントに関するイベント情報を配信するサブイベント配信命令を含む。その代わりに、サブイベント配信命令は、一連のサブイベントに関連したイベントハンドラ又はアクティブに関わっているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関わっているビューに関連付けられているイベントハンドラは、イベント情報を受け取り、所定の処理を実行する。
いくつかの実施形態において、データアップデーター176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新したり、ビデオ再生モジュール145で使用されるビデオファイルを記憶したりする。いくつかの実施形態において、オブジェクトアップデーター177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター176は、新たなユーザインタフェースオブジェクトを作成したり、ユーザインタフェースオブジェクトの位置を更新したりする。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するため、表示情報をグラフィクモジュール132に送信する。
いくつかの実施形態において、イベントハンドラ190(1つ又は複数)は、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178を含む、又はそれらにアクセスする。いくつかの実施形態において、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の1つのモジュールに含まれる。他の実施形態において、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイへのユーザタッチのイベント処理に関する前述の考察は、入力デバイスにより多機能デバイス100を操作するユーザ入力の他の形態にも適用される、ということを理解されたく、その全てがタッチ画面にて開始されるのではなく、例えば、マウスの移動及びマウスボタンの押下を、キーボードの単一又は複数の押下、保持、タッチパッド上のユーザの動きタップ、ドラッグ、スクロールなど、ペンスタイラス入力、デバイスの動き、口頭での指示、検出された目の動き、バイオメトリック入力、及び/又はそれらのいずれかの組み合わせと組み合わせるか、組み合わせることなく統合し、それらが認識されるイベントを定義するサブイベントに対応する入力として利用されてもよい。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブル多機能デバイス100を示す図である。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ以上のグラフィクを表示することができる。後述する実施形態並びに本実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いてグラフィク上でジェスチャを行うことにより、グラフィクのうちの1つ以上を選択してもよい。いくつかの実施形態において、ユーザが1つ以上のグラフィクとの接触を断った際に、1つ以上のグラフィクの選択が生じる。いくつかの実施形態において、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又はデバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を含んでもよい。いくつかの実施形態において、グラフィクとの意図的でない接触は、グラフィクを選択しなくてもよい。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを選択しなくてもよい。
デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理的なボタンを含んでもよい。前述したように、メニューボタン204は、デバイス100上で実行することができるアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに使用されてもよい。あるいは、いくつかの実施形態において、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。
ある実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(1つ又は複数)208、受信者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押して押された状態を既定の時間間隔保ち続けることで、デバイス上の電源をオン/オフし、ボタンを押して既定の時間間隔が経過する前にボタンを解放することによりデバイスをロックし、及び/又はデバイスをロック解除若しくはロック解除処理を開始するために、用いることができる。代替の実施形態において、デバイス100はまた、マイクロホン113を通して、一部の機能をアクティブにし、又は非アクティブにするための口頭入力を受け入れてもよい。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備えた例示的な多機能デバイスを示すブロック図である。デバイス300は、ポータブルでなくてもよい。いくつかの実施形態において、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理部(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらのコンポーネントを相互接続するための1つ以上の通信バス320を備える。通信バス320は、システムコンポーネント間の通信を相互接続及び制御する回路(時にはチップセットと呼ばれる)を備えてもよい。デバイス300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える入出力(I/O)インタフェース330を含む。入出力インタフェース330は更に、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355を含んでもよい。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの高速ランダムアクセスメモリを含み、また、1つ以上の磁気ディスク記憶デバイス、光学ディスク記憶デバイス、フラッシュメモリデバイス、または他の不揮発性半導体メモリデバイスなどの不揮発性メモリを含んでもよい。メモリ370は、必要に応じて、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶デバイスを含んでもよい。いくつかの実施形態において、メモリ370は、ポータブル多機能デバイス100(図1)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は、ポータブル多機能デバイス100のメモリ102内に存在しない追加プログラム、モジュール、及びデータ構造を記憶してもよい。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶してもよいが、ポータブル多機能デバイス100(図1)のメモリ102は、これらのモジュールを記憶しなくてもよい。
図3の上記で識別された要素のそれぞれは、前述のメモリデバイスの1つ以上に記憶してもよい。上記で識別されたそれぞれのモジュールは、上述した機能を実行するための命令セットに対応する。上記で識別されたモジュール若しくはプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手続き、又はモジュールとして実施される必要はなく、したがって、さまざまな実施形態において、これらのモジュールのさまざまなサブセットを組み合わせてもよく、又は別の方法で再配置されてもよい。いくつかの実施形態において、メモリ370は、上記で識別されたたモジュール及びデータ構造のサブセットを記憶してもよい。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を記憶してもよい。
ポータブル多機能デバイス100上に実施することができるユーザインタフェース(「UI」)の実施形態に注目を向ける。
図4Aは、いくつかの実施形態に係る、ポータブル多機能デバイス100におけるアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様のユーザインタフェースが、デバイス300上に実装されてもよい。いくつかの実施形態において、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi−Fi信号などの無線通信(1つ又は複数)のための信号強度標識(1つ又は複数)402、
●時間404、
●Bluetooth標識405、
●バッテリ状態標識406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又はボイスメールメッセージの数を示す標識414を含んでもよい、電話138、
○未読電子メールの数を示す標識410を含んでもよい、電子メールクライアント140、
○ブラウザ147、
○iPod(AppleInc.の商標)モジュール152とも呼ばれる、ビデオ及び音楽プレーヤ152、更に、
●下記などの、その他のアプリケーション用のアイコン、
○IM 141、
○画像管理144、
○カメラ143、
○気象149−1、
○株式149−2、
○トレーニングサポート142、
○カレンダー148、
○アラーム時計149−4、
○地図154、
○メモ153、
○デバイス100の設定及びそのさまざまなアプリケーション136へのアクセスを提供する、設定412、並びに
○YouTube(Google Inc.の商標)モジュール155とも呼ばれる、オンラインビデオモジュール155。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えたデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。以下の実施例の多くは、タッチスクリーンディスプレイ112上の入力(タッチ感知面及びディスプレイが組み合わさっている場合)を参照しながら説明されるが、いくつかの実施形態においては、デバイスは、図4Bに示されるように、ディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態において、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468と対応し、462は470と対応する)でのタッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このように、タッチ感知面がディスプレイとは別個のものである時、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの動き)は、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに使用され得ることを理解されたい。
いくつかの実施形態において、指入力の1つ以上が別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置換され、又はその逆になることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりに)マウスクリックと置換されてもよく、その後、(例えば、接触の動きの代わりに)スワイプの経路に沿ってカーソルの移動が行われてもよい。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの位置上に位置する間のマウスクリックと置換されてもよい。
ユーザインタフェース及び関連処理
デバイス300又はポータブル多機能デバイス100などの、ディスプレイ及びタッチ感知面を有する電子デバイスに実施することができるユーザインタフェース(「UI」)及び関連処理の実施形態に注目を向ける。
図5A〜5Sは、いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを操作するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図6A〜6D及び図7〜8の処理を含む、以下に説明する処理を示すために用いられる。
図5Aは、ディスプレイ(例えば、デバイス300のディスプレイ340又はデバイス100のタッチスクリーン112)に同時に表示されたドキュメント502及び506を示している。ドキュメント502及び506は、例えば、それぞれ、ワードプロセッシングドキュメント、ウェブページ、スプレッドシート、プレゼンテーションドキュメント、電子書籍、電子メールメッセージ、テキストメッセージ、インスタントメッセージ、又はテキストドキュメントであってもよい。
ドキュメント502は、ディスプレイ340上に表示されたドキュメント502内のコンテンツオブジェクト504を含む。例示的なコンテンツオブジェクト504は、デジタル画像、インラインビデオ、インラインオーディオ、ユーザにより強調表示されたテキスト、グラフィク、又は添付ファイルを含むが、これらに限定されることはない。
ディスプレイ340上には、コンテンツオブジェクト504上のある位置にカーソル508も表示されている。いくつかの実施形態において、カーソル508は、マウスカーソル又はポインタである。カーソル508は、カーソル移動入力(例えば、マウス入力、又はタッチ感知面上でのジェスチャ)の検出に応答して、ディスプレイ340上で移動させてもよい。
コンテンツオブジェクト504上のある位置にカーソル508が配置されている間、デバイス300は、コマンドに対応するユーザ入力を検出することができる。図5Aでは、カーソル508がコンテンツオブジェクト504の上に配置されている間、デバイス300は、ドラッグアンドドロップコマンドに対応する、マウス350によるクリックアンドドラッグ入力(図示せず)を含むユーザ入力を検出する。ディスプレイ340がタッチ感知式である場合、ユーザ入力は、マウス350を用いたクリックアンドドラッグ入力の代わりに、タッチ感知ディスプレイ上でのタップアンドドラッグ入力を含んでもよい。クリックアンドドラッグ入力の検出に応答して、カーソル508は、例えば、方向510に移動し、コンテンツオブジェクト504又はコンテンツオブジェクト504の代理が方向510に(この場合、ドキュメント506内のある位置へ)ドラッグされる。コンテンツオブジェクト504のドラッグはアニメーション化されてもよい。図5Bは、コンテンツオブジェクト504の代理511がドキュメント506に向かう方向510にドラッグされていることを示す時点をアニメーションにて示している。
図5Cは、ユーザ入力の検出への応答の結果を示す。代理511がドキュメント506上のある位置にドラッグされ、その後マウスクリックが解除されると、コンテンツオブジェクト504のコピー512がドキュメント506内に作成され、表示される。いくつかの実施形態において、コンテンツオブジェクト504もドキュメント502から削除されてもよい。
図5Dは、図5Aと同様、コンテンツオブジェクト504の上に位置付けられたカーソル508を示す。ただし、クリックアンドドラッグ入力を含むユーザ入力を検出する代わりに、デバイス300は、マウス350によるプレスアンドホールド入力(図示せず)を含むユーザ入力を検出する。ディスプレイ340がタッチ感知式である場合、ユーザ入力は、マウス350を用いたプレスアンドホールド入力の代わりに、タッチ感知ディスプレイ上でのプレスアンドホールド入力を含んでもよいプレスアンドホールド入力の検出に応答して、コンテンツオブジェクト504は選択され、ドキュメント502から離れていくようアニメーション化される。また、アニメーションの一環として、ドキュメント502は、(例えば、陰影により)視覚的に抑制される。図5Eは、コンテンツオブジェクト504が、コンテンツオブジェクト504の「下に」影を形成しながらドキュメント502から離れていく時点をアニメーションにて示している。オブジェクト504がドキュメント502から離れていく際に、コンテンツオブジェクト504はドキュメント502から引っ張っているように表示されてもよい。
図5Fは、プレスアンドホールド入力の検出への応答の結果を示す。コンテンツオブジェクト504の平面がドキュメント502の平面の上を浮いているかのように、コンテンツオブジェクト504は、ドキュメント502から分離されているように表示される。ドキュメント502は、(ドット背景で示されるよう)視覚的に抑制される。更に、1つ以上のアイコン514がコンテンツオブジェクト504の近く(この場合、コンテンツオブジェクト504の真下)に表示される。アイコン514は、コンテンツオブジェクト504を他のユーザへ送るための、又は別の方法でコンテンツオブジェクト504を他のユーザと共有するための、それぞれのユーザインタフェースのディスプレイを開始するためのアイコンを含む。アイコン514についての更なる詳細は後述される。
コンテンツオブジェクト504がドキュメント502から分離している間に、ユーザは分離をアクティブにしたプレスアンドホールド入力を停止し、他のユーザ入力を検出することができる。図5Fは、デバイス300が、コンテンツオブジェクト504を方向516にドラッグするためのドラッグアンドドロップコマンドに対応する、クリックアンドドラッグ入力を含むユーザ入力(図示せず)を検出する際の、(ドキュメント502から分離している)コンテンツオブジェクト504上に位置するカーソル508を示す。ユーザ入力の検出に応答して、コンテンツオブジェクト504の代理511は、図5Gに示されるように、方向516に(この場合、ドキュメント506内のある位置へ)ドラッグされる。図5Hに示されるように、アイコン514は表示されなくなり、ドキュメント502は視覚的に抑制されなくなる。コンテンツオブジェクト504もまた、ドキュメント502から分離されないようにしてもよい。ユーザ入力が完了すると、図5Hに示されるように、コンテンツオブジェクト504のコピー512が作成され、ドキュメント506内に表示される。したがって、ユーザがコンテンツオブジェクトを他のユーザと共有するのではなく、コンテンツオブジェクトを他の電子ドキュメントに移動するよう決定すると、ユーザインタフェースは、他のユーザとコンテンツオブジェクトを共有するためのインタフェース(アイコン514、及びドキュメント502から分離されたコンテンツオブジェクトを含む)から別のドキュメントへコンテンツオブジェクトを移動させるためのインタフェースへシームレスに移行する。
図5Iは、図5Fと同様に、ドキュメント502から分離されたコンテンツオブジェクト504及びディスプレイ340上に表示されたアイコン514を示しているが、カーソル508がコンテンツオブジェクト504及びアイコン514からは離れた位置に配置される。デバイス300は、ユーザ入力(例えば、カーソル508がコンテンツオブジェクト504及びアイコン514から離れた位置にある間のマウスボタンのクリック、(ディスプレイ340がタッチ感知式である場合は)コンテンツオブジェクト504及びアイコン514から離れた場所でのタップジェスチャ(図示せず))を検出する。ユーザ入力の検出に応答して、図5Jに示されるように、コンテンツオブジェクト504は、ドキュメント502から分離されなくなり、コンテンツオブジェクト504は、ドキュメント502から分離される前と同じ位置に表示され、アイコン514は表示されなくなり、ドキュメント502は視覚的に抑制されなくなる。
図5Kは、図5Fと同様に、ドキュメント502から分離されコンテンツオブジェクト504及びディスプレイ340上に表示されたアイコン514を示しているが、カーソル508がアイコン514上のある位置に配置されている。それぞれのアイコン514は、ユーザ入力(例えば、カーソル508がそれぞれのアイコン514の上に配置されている間のマウスボタンのクリック、(ディスプレイ340がタッチ感知式である場合は)それぞれのアイコン514上でのタップジェスチャ)の検出に応答してアクティブになってもよい。
アイコン514−Aがアクティブになると、図5Lで示されるように、電子メール構成ユーザインタフェース518の表示が開始される。電子メール構成ユーザインタフェース518においては、コンテンツオブジェクト504のコピー520が、インラインで又はユーザが編集(電子メールメッセージの受信者を1人以上指定することを含む)及び送信することができる下書き電子メールメッセージ内に添付ファイルとして含まれる。
アイコン514−Bがアクティブになると、図5Mで示されるように、メッセージ構成ユーザインタフェース522の表示が開始される。メッセージ構成ユーザインタフェース522においては、コンテンツオブジェクト504のコピー520が、インラインで又はユーザが編集(メッセージの受信者を1人以上指定することを含む)及び送信することができる下書きメッセージ(例えば、テキストメッセージ、インスタントメッセージ、マルチメディアメッセージサービス(MMS)メッセージ)内に添付ファイルとして含まれる。
アイコン514−Cがアクティブになると、図5Nで示されるように、ツイート構成ユーザインタフェース524の表示が開始される。ツイート構成ユーザインタフェース522において、コンテンツオブジェクト504のコピー520は、ユーザが編集し、事前に指定されたTwitter(商標)アカウントに投稿することができるツイートメッセージと関連付けられる。コンテンツオブジェクト504がドキュメント502からの強調表示されたテキストである場合、コピー520(強調表示されたテキストのコピーである)はテキストメッセージに含まれている。いくつかの実施形態において、コンテンツオブジェクト504がテキストではないコンテンツオブジェクト(例えば、画像)である場合、コピー520は、予め指定されたホスティングサービス(例えば、画像ホスティングサービス、ビデオホスティングサービス)にアップロードされ、ホスティングサービスでのコピー520へのリンクがツイートに含まれる。
電子メール、メッセージ、及びツイートは、本明細書に記載の実施形態に従って、コンテンツオブジェクト504を他のユーザに送る、又は他のユーザと共有するための方法の単なる例に過ぎないということを理解されたい。他の可能な方法は、ほんの数例を挙げると、ソーシャルネットワークサービス、ブログ、又はメッセージボードへの投稿が含まれる。
図5Oは、図5Fと同様、ドキュメント502から分離したコンテンツオブジェクト504及びディスプレイ340上に表示されたアイコン514を示しているが、アイコン514は追加のアイコン514−Dを備えている。カーソル508は、アイコン514−Dの上に配置されるよう示されている。図5Pに示されるように、ユーザ入力(例えば、カーソル508がアイコン514−Dの上にある間のマウスボタンのクリック、(ディスプレイ340がタッチ感知式である場合は)アイコン514−D上でのタップジェスチャ)の検出に応答して、コンテンツオブジェクト504は編集モードで表示される。
図5Pにおいて、コンテンツオブジェクト504は、ディスプレイ340上のコンテンツオブジェクト504の周囲に表示されている領域526により示されるように、編集モードで表示されている。領域526は、それぞれの編集操作又は機能性に対応する1つ以上のアイコン528を含む。それぞれのアイコン528が対応する操作又は機能性は、例えば、コンテンツオブジェクト504上に描画するためのペン/ブラシの機能性、コンテンツオブジェクト504に描画されたマークを除去するための消しゴムの機能性、コンテンツオブジェクト504にテキストを追加するためのテキストの機能性、コンテンツオブジェクト504上に形状を描画するための形状の機能性、ペン/ブラシの厚さの機能性、及びペン/ブラシの色の機能性を含んでもよい。
領域236は更に、アクティブである時に、ポイントボーダー領域526が表示されなくなる時点で編集モードを終了するアイコン530を含む。コンテンツオブジェクト504は、ドキュメント502から分離されたままであり、コンテンツオブジェクト504に追加された任意のマーク又はその他の編集を維持している。アイコン514も再表示される。それぞれのアイコン514がアクティブになると、編集されたコンテンツオブジェクト504のコピーが、結果として生じた電子メール、メッセージ、又はツイートに含まれる。
図5Qは、ディスプレイ340上に表示された電子メールメッセージ構成インタフェース532を示している。電子メールメッセージ構成インタフェース532にて作成されているメッセージには、コンテンツオブジェクト534が含まれる。カーソル508は、コンテンツオブジェクト534の上に配置されている。カーソル508がコンテンツオブジェクト534の上に配置されている間、プレスアンドホールド入力を含むユーザ入力を検出することができる。ユーザ入力の検出に応答して、図5R及び図5Sに示されるように、コンテンツオブジェクト534の周囲に領域536が表示される。いくつかの実施形態において、プレスアンドホールド入力に応答して、図5R内のアイコン538などの、編集モードに入るためのアイコンが表示される。いくつかの他の実施形態において、プレスアンドホールド入力に応答して(図5Q)、編集モードに入るためのアイコンの表示なしに(例えば、図5Q及び図5Sの表示の間に図5Rを表示することなく)、図5Sに示されるような編集モードインタフェースが表示される。
領域536は、カーソル508をその上に配置することができる、アイコン538を含む。図5Sに示されるように、アイコン538をアクティブにするユーザ入力(例えば、カーソル508がアイコン538の上に配置されている間のマウスボタンのクリック、(ディスプレイ340がタッチ感知式である場合は)アイコン538上でのタップジェスチャ)の検出に応答して、コンテンツオブジェクト534は編集モードで表示される。いくつかの他の実施形態において、アイコン538は、図5Q内のコンテンツオブジェクト534に重ねられて、又は隣接して表示されており(図示せず)、図5Sに示されるように、アイコン538をアクティブにするユーザ入力(例えば、カーソル508がアイコン538の上に配置されている間のマウスボタンのクリック、(ディスプレイ340がタッチ感知式である場合は)アイコン538上でのタップジェスチャ)の検出に応答して、コンテンツオブジェクト534は編集モードで表示される。
コンテンツオブジェクト534が編集モードにて表示されている間、コンテンツオブジェクト534の周囲に領域536が表示される。領域536は、図5Pを参照して上述される、編集機能アイコン528及び編集モード終了アイコン530を含む。編集モードが終了すると、電子メールメッセージ内のコンテンツオブジェクト534は、編集モード中に行われた編集を保持する。
図6A〜6Dは、いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法600を示す流れ図である。方法600は、ディスプレイ及び必要に応じてタッチ感知面を備えた電子デバイス(例えば、図3のデバイス300、又は図1のポータブル多機能デバイス100)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法600のいくつかの動作は組み合わせてもよく、及び/又はいくつかの動作の順序を変更してもよい。
後述するように、方法600は、ドキュメント内のコンテンツオブジェクトを共有する直感的な方法を提供する。この方法により、ドキュメント内のコンテンツオブジェクトを共有する時に、ユーザの認識的重荷が軽減されるため、より効率的なヒューマンーマシンインタフェースが作成される。バッテリ動作電子デバイスでは、ドキュメント内のコンテンツオブジェクトをユーザがより高速かつ効率的に共有できるようにすることにより、電力を保存し、バッテリの充電の間の時間を増やす。
デバイスは、第1の電子ドキュメント(例えば、ウェブページ、ワードプロセッシングドキュメント、プレゼンテーションドキュメント、スプレッドシート、電子書籍、電子メールメッセージ、テキストメッセージ、インスタントメッセージ、又はテキストドキュメント)及び第2の電子ドキュメント(例えば、ウェブページ、ワードプロセッシングドキュメント、プレゼンテーションドキュメント、スプレッドシート、電子書籍、電子メールメッセージ、テキストメッセージ、インスタントメッセージ、又はテキストドキュメント)を同時にディスプレイ上に表示する(602)。第1の電子ドキュメントには、表示されたコンテンツオブジェクト(例えば、デジタル画像、インラインビデオ、インラインオーディオ、ユーザによって強調表示されたテキスト、又は添付ファイル)が含まれている。図5Aは、例えば、ディスプレイ340上に表示されたドキュメント502及び506を示している。ドキュメント502は、更に表示されているコンテンツオブジェクト504を含む。
デバイスは、コンテンツオブジェクト上で開始する第1のユーザ入力を検出する(604)。第1の入力は、例えば、図5Aに示されるように、カーソル508がコンテンツオブジェクト504の上に配置されている間に検出することができる。
第1のユーザ入力が第1のコマンド(例えば、ドラッグアンドドロップコマンド)に対応するという判定に応答して、デバイスは第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して表示する(606)。例えば、図5A〜5Cに示されるように、検出されたユーザ入力がコンテンツオブジェクト504をドキュメント506へドラッグするドラッグアンドドロップコマンドに対応する入力を含む場合、コンテンツオブジェクト504のコピー512がドキュメント506内に作成される。
いくつかの実施形態において、第1のコマンドに対応する第1の入力は、ドラッグアンドドロップコマンドに対応するマウスによるクリックアンドドラッグ入力である(608)。図5A〜図5Cにおいて、ユーザ入力は、カーソル508がコンテンツオブジェクト504の上に配置されている間に開始される、マウスにより行われるクリックアンドドラッグ入力を含んでもよい。
いくつかの実施形態において、第1のコマンドに対応する第1の入力は、ドラッグアンドドロップコマンドに対応するタッチ感知ディスプレイ上での指によるタップアンドドラッグ入力である(610)。例えば、ディスプレイ340がタッチ感知ディスプレイである場合、コンテンツオブジェクト504上でのドラッグアンドドロップコマンドに対応するユーザ入力は、コンテンツオブジェクト504に指を触れさせ、その指をディスプレイ340上で移動させることにより行うことができる。
第1のユーザ入力が、第1のコマンドとは異なる第2のコマンドに対応するという判定に応答して(612)、デバイスは、コンテンツオブジェクトを選択し(614)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示し(616)、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数のアイコンの表示を開始し(620)、複数のアイコンは、1人以上の他のユーザへコンテンツオブジェクトを送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンを含む。例えば、図5D〜5Fに示されるように、検出されたユーザ入力がコンテンツオブジェクト504上のプレスアンドホールド入力を含む場合、コンテンツオブジェクト504は選択され、コンテンツオブジェクト504がドキュメント502から分離していく様子を示すアニメーションが表示される。また、コンテンツオブジェクト504の近くにアイコン514が表示される。アイコン514は、電子メール、メッセージ、又はツイートによりコンテンツオブジェクト504を送信若しくは共有するためのそれぞれのユーザインタフェースの表示を開始するためのそれぞれのアイコンを含む。いくつかの実施形態において、分離されたコンテンツオブジェクトの近傍には、1人以上の他のユーザにコンテンツオブジェクトを送信するためのユーザインタフェースの表示を開始するアイコンが、複数ではなく、1つのみ表示される。
いくつかの実施形態において、アニメーションは、コンテンツオブジェクトが第1の電子ドキュメントから引き出されて第1の電子ドキュメントの上に浮いている様子を示す(618)。いくつかの実施形態において、コンテンツオブジェクトは、第1の電子内の以前の位置(例えば、第1の電子ドキュメントから引き出される直前の、第1の電子ドキュメント内の位置)の上に浮いている。ドキュメント502からのコンテンツオブジェクト504の分離がアニメーション化されている場合(図5D〜5F)、その分離は、コンテンツオブジェクト504がドキュメント502から引き出されているかのように表示される場合があり、最終的な結果としてコンテンツオブジェクト504がドキュメント502内の元の位置の上に浮いているように見える(図5F)。
いくつかの実施形態において、複数のアイコンは、1人以上の他のユーザにコンテンツオブジェクトをインスタントメッセージにより送信するためのユーザインタフェースの表示を開始するアイコンを含む(622)。アイコン514(図5F)は、例えば、コンテンツオブジェクト504又はコンテンツオブジェクト504のコピー520を含むインスタントメッセージを構成するための電子メール構成ユーザインタフェース518(図5M)の表示を開始するためのアイコン514−Bを含んでもよい。
いくつかの実施形態において、複数のアイコンは、1人以上の他のユーザにコンテンツオブジェクトを電子メールで送信するためのユーザインタフェースの表示を開始するアイコンを含む(624)。アイコン514(図5F)は、例えば、コンテンツオブジェクト504又はコンテンツオブジェクト504のコピー520を含む電子メールを構成するためのメッセージ構成ユーザインタフェース522(図5L)の表示を開始するためのアイコン514−Aを含んでもよい。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトをツイートするためのユーザインタフェースの表示を開始するアイコンを含む(626)。アイコン514(図5F)は、例えば、コンテンツオブジェクト504又はコンテンツオブジェクト504のコピー520(又は、ホスティングサービスにて記憶された、それらのいずれかへのリンク)を含むツイートを構成するためのツイート構成ユーザインタフェース524(図5N)の表示を開始するためのアイコン514−Cを含んでもよい。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトのツイートを開始するアイコンを含む(628)。アイコン514−C(図5F)は、ツイート構成ユーザインタフェース524(図5N)の表示を開始する代わりに、コンテンツオブジェクト504又はコンテンツオブジェクト504のコピー520(又は、ホスティングサービスにて記憶された、それらのいずれかへのリンク)の直接ツイートを開始してもよい。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトを編集するためのユーザインタフェースの表示を開始するアイコンを含む(630)。アイコン514(図5O)は、例えば、コンテンツオブジェクト504を編集するためのユーザインタフェース(例えば、図5Pのアイコン528を含むインタフェース)の表示を開始するための、アイコン514−Dを含んでもよい。
いくつかの実施形態において、第2のコマンドに対応する第1の入力は、マウスによるプレスアンドホールド入力(例えば、カーソルがコンテンツオブジェクトの上に浮いている間の、少なくとも既定の時間量以上の連続したマウスクリック)である(632)。例えば、ユーザは、図5Dに示すように、カーソル508がコンテンツオブジェクト504の上に配置されている間、連続したマウスクリックを行ってもよい。
いくつかの実施形態において、第2のコマンドに対応する第1の入力は、タッチ感知ディスプレイ上で指により行うプレスアンドホールド入力(例えば、コンテンツオブジェクトに対応するタッチ感知面上の位置においての少なくとも既定の時間量以上のタッチアンドホールドジェスチャ)である(634)。ディスプレイ340がタッチ感知ディスプレイである場合、ユーザはコンテンツオブジェクト504上でタッチアンドホールドジェスチャを行ってもよい。
いくつかの実施形態において、第1のユーザ入力が第2のコマンドに対応するという判定に応答して(612)、デバイスは、(例えば、第1の電子ドキュメントに陰影をつける、第1電子ドキュメントを分離されたコンテンツオブジェクトから遠ざける、及び/又は第1の電子ドキュメントのピントをぼかして表示することにより)第1の電子ドキュメントを分離されたコンテンツオブジェクトに対して視覚的に抑制する(636)。同じように、(例えば、強調表示することにより)分離されたコンテンツオブジェクトを第1の電子ドキュメントに対して視覚的に強調してもよい。例えば、図5Fにおいて、ドキュメント504は(ドット背景にて示されるよう)視覚的に抑制されている。
いくつかの実施形態において、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数のアイコンを表示している間に、デバイスは、第2のユーザ入力を検出する(638)。第2のユーザ入力の検出に応答して(640)、デバイスは複数のアイコンの表示を停止し(642)、分離されたコンテンツオブジェクトを第2の入力に従って並進移動させ(644)、第1の電子ドキュメントを分離されたコンテンツオブジェクトに対して視覚的に抑制するのを停止し(646)、コンテンツオブジェクトのコピーを第2の電子ドキュメント内に作成して表示する(648)。例えば、図5Fに示されるように、アイコン514が表示されている(及び、コンテンツオブジェクト504がドキュメント502から分離している)間、コンテンツオブジェクト504上でドラッグアンドドロップコマンドに対応するユーザ入力を検出することができる。ユーザ入力の検出に応答して、図5Hに示されるように、アイコン514は表示されなくなり、ドキュメント502は視覚的に抑制されなくなる。コンテンツオブジェクト504(又はコンテンツオブジェクト504の代理511)は、ドラッグアンドドロップユーザ入力に従って、ドキュメント506の方にディスプレイ340にわたってドラッグ(すなわち並進移動)される。コンテンツオブジェクト504のコピー512が作成され、ドキュメント506内に表示される。
いくつかの実施形態において、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数のアイコンを表示している間に、デバイスは、分離されたコンテンツオブジェクト上で開始する第2のユーザ入力を検出する(650)。第2のユーザ入力の検出に応答して(652)、デバイスは複数のアイコンの表示を停止し(642)、分離されたコンテンツオブジェクトを第2の入力に従って並進移動させ(644)、コンテンツオブジェクトのコピーを第2の電子ドキュメント内に作成して表示する(648)。コンテンツオブジェクトが分離されると、ユーザは、複数のアイコンのうちの1つをアクティブにする代わりに、単にコンテンツオブジェクトを並進移動させることによっても、ドラッグアンドドロップ操作を実行することができる。例えば、図5Fに示されるように、コンテンツオブジェクト504がドキュメント502から分離されており、アイコン514が表示されている間、コンテンツオブジェクト504上でドラッグアンドドロップコマンドに対応するユーザ入力を検出することができる。ユーザ入力の検出に応答して、図5Hに示されるように、アイコン514は表示されなくなる。コンテンツオブジェクト504(又はコンテンツオブジェクト504の代理511)は、ドラッグアンドドロップユーザ入力に従って、ディスプレイ340にわたってドキュメント506に向かってドラッグ(すなわち並進移動)される。コンテンツオブジェクト504のコピー512が作成され、ドキュメント506内に表示される。
いくつかの実施形態において、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数のアイコンを表示している間に、デバイスは、分離されたコンテンツオブジェクトから離れた第3のユーザ入力(例えば、第1の電子ドキュメント、第2の電子ドキュメント、若しくはディスプレイ上の分離されたコンテンツオブジェクト以外の任意の部分の上にカーソルが位置する際のマウスクリック、又は第1の電子ドキュメント、第2の電子ドキュメント、若しくはディスプレイ上の分離されたコンテンツオブジェクト以外の任意の部分の上のタッチ感知ディスプレイ上でのフィンガタップジェスチャ)を検出する(654)。第3のユーザ入力の検出に応答して(656)、デバイスは、複数のアイコンの表示を停止し(642)、第1の電子ドキュメントからコンテンツオブジェクトを分離するのを停止し(658)、第1の入力を検出する直前の第1の電子ドキュメント内のコンテンツオブジェクトの位置にコンテンツオブジェクトを表示する(660)(また、いくつかの実施形態において、コンテンツオブジェクトに対してする電子ドキュメントを視覚的に抑制するのをやめる)。例えば、図5Iにおいて、コンテンツオブジェクト504がドキュメント502から分離されており、アイコン514が表示されている間、カーソル508がコンテンツオブジェクト504及びアイコン514から離れた状態でユーザ入力(例えば、マウスクリック)が検出される。ジェスチャの検出に応答して、図5Jに示されるように、アイコン514は表示されなくなり、コンテンツオブジェクト504はドキュメント502内の元の位置に表示され、ドキュメント502から分離されなくなる。
図6A〜6Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、方法700及び800に関して本明細書に記載の他の処理の詳細(例えば、図7及び図8のそれぞれにおいて)はまた、図6A〜6Dに関連して上述した方法600と類似の様式で適用可能であることに留意されたい。例えば、方法600に関して上述した、第1の電子ドキュメントからコンテンツオブジェクトを分離していくアニメーションの表示及び第1の電子ドキュメントの視覚的な抑制は、方法700及び800に関して本明細書に説明する第1の電子ドキュメントからコンテンツオブジェクトを分離していくアニメーションの表示及び第1の電子ドキュメントの視覚的な抑制の特徴のうちの1つ以上を有していてもよい。簡潔にするため、これらの詳細はここでは繰り返さない。
図7は、いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトを共有する方法700を示す流れ図である。方法700は、ディスプレイ及び必要に応じてタッチ感知面を備えた電子デバイス(例えば、図3のデバイス300、又は図1のポータブル多機能デバイス100)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法700のいくつかの動作は組み合わせてもよく、並びに/又はいくつかの動作の順序を変更してもよい。
後述するように、方法700は、ドキュメント内のコンテンツオブジェクトを共有する直感的な方法を提供する。この方法により、ドキュメント内のコンテンツオブジェクトを共有する時に、ユーザの認識的重荷が軽減されるため、より効率的なヒューマンーマシンインタフェースが作成される。バッテリ動作電子デバイスでは、ドキュメント内のコンテンツオブジェクトをユーザがより高速かつ効率的に共有できるようにすることにより、電力を保存し、バッテリの充電の間の時間を増やす。
デバイスは、第1の電子ドキュメント(例えば、ウェブページ、ワードプロセッシングドキュメント、プレゼンテーションドキュメント、スプレッドシート、電子書籍、電子メールメッセージ、テキストメッセージ、インスタントメッセージ、又はテキストドキュメント)をディスプレイ上に表示する(702)。第1の電子ドキュメントには、表示されたコンテンツオブジェクト(例えば、デジタル画像、インラインビデオ、インラインオーディオ、ユーザによって強調表示されたテキスト、又は添付ファイル)が含まれている。図5Aは、例えば、ディスプレイ340上に表示されたドキュメン502を示している。ドキュメント502は、更に表示されているコンテンツオブジェクト504を含む。
デバイスは、コンテンツオブジェクト上の第1のユーザ入力を検出する(704)。例えば、図5Dに示すように、カーソル508がコンテンツオブジェクト504上に配置されている間、プレスアンドホールド入力を含むユーザ入力を検出することができる。
第1のユーザ入力の検出に応答して(706)、デバイスは、コンテンツオブジェクトを選択し(708)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示し(710)、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを(例えば、第1の電子ドキュメントに陰影をつけたり、第1の電子ドキュメントを分離されたコンテンツオブジェクトから遠ざけたり、並びに/又は第1の電子ドキュメントをピントをぼかして表示したりすることにより)視覚的に抑制し(712)、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数のアイコンの表示を開始し(714)、複数のアイコンは、1人以上の他のユーザへコンテンツオブジェクトを送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンを含む。例えば、図5D〜5Fに示されるように、検出されたユーザ入力がカーソル508がコンテンツオブジェクト504上に配置されている間のプレスアンドホールド入力を含む場合、コンテンツオブジェクト504は選択され、コンテンツオブジェクト504がドキュメント502から分離していく様子を示すアニメーションが表示される。また、コンテンツオブジェクト504の近くにアイコン514が表示される。加えて、ドキュメント504は、(ドット背景で示されるよう)視覚的に抑制される。
視覚的に抑制することに対し、同等に、分離されたコンテンツオブジェクトは、第1の電子ドキュメントに対して視覚的に強調(例えば、強調表示することにより)されてもよい。
図7における動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、方法600及び800に関して本明細書に記載の他の処理の詳細(例えば、図6A〜6D及び図8のそれぞれにおいて)はまた、図7に関連して上述した方法700と類似の様式で適用可能であることに留意されたい。例えば、方法700に関して上述した、アニメーションの表示及び視覚的な抑制は、方法600及び800に関して本明細書に説明するアニメーションの表示及び視覚的な抑制の特徴のうちの1つ以上を有していてもよい。簡潔にするため、これらの詳細はここでは繰り返さない。
図8は、いくつかの実施形態に係る、ドキュメント内のコンテンツオブジェクトのための編集インタフェースを表示する方法を示す流れ図である。方法800は、ディスプレイ及び必要に応じてタッチ感知面を備えた電子デバイス(例えば、図3のデバイス300、又は図1のポータブル多機能デバイス100)で行われる。いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面がディスプレイ上にある。いくつかの実施形態において、ディスプレイはタッチ感知面から分離している。方法800のいくつかの動作は組み合わせてもよく、並びに/又はいくつかの動作の順序を変更してもよい。
後述するように、方法800は、コンテンツオブジェクトのための編集インタフェースを表示する直感的な方法を提供する。この方法により、ドキュメント内のコンテンツオブジェクトを編集する時に、ユーザの認識的重荷が軽減されるため、より効率的なヒューマンーマシンインタフェースが作成される。バッテリ動作電子デバイスでは、ドキュメント内のオブジェクトをユーザがより高速かつ効率的に編集できるようにすることにより、電力を保存し、バッテリの充電の間の時間を増やす。
デバイスは、第1の電子ドキュメント(例えば、ウェブページ、ワードプロセッシングドキュメント、プレゼンテーションドキュメント、スプレッドシート、電子書籍、電子メールメッセージ、テキストメッセージ、インスタントメッセージ、又はテキストドキュメント)をディスプレイ上に表示する(802)。第1の電子ドキュメントには、表示されたコンテンツオブジェクト(例えば、デジタル画像、インラインビデオ、インラインオーディオ、ユーザによって強調表示されたテキスト、又は添付ファイル)が含まれている。図5Qは、例えば、ディスプレイ340上に表示されたドキュメン532を示している。ドキュメント532は、更に表示されているコンテンツオブジェクト534を含む。
デバイスは、第1のユーザ入力を検出する(804)。いくつかの実施形態では、第1のユーザ入力はコンテンツオブジェクト上で開始する。例えば、図5Qに示すように、カーソル508がコンテンツオブジェクト504上に配置されている間、プレスアンドホールド入力を含むユーザ入力を検出、又はアイコン538のアクティブ化(図5R)をすることができる。
第1のユーザ入力の検出に応答して(806)、デバイスは、コンテンツオブジェクトを選択し(808)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示し(810)、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを(例えば、第1の電子ドキュメントに陰影をつけたり、第1の電子ドキュメントを分離されたコンテンツオブジェクトから遠ざけたり、並びに/又は第1の電子ドキュメントをピントをぼかして表示したりすることにより)視覚的に抑制し(812)、分離されたコンテンツオブジェクトに近接する(例えば、隣接する)複数の編集アイコンの表示を開始する(814)。例えば、図5Q〜5Sに示されるように、検出されたユーザ入力が、カーソル508がコンテンツオブジェクト534上に(又は図5Qには示されないが、538のようなアイコン上に)配置されている間のプレスアンドホールド入力を含む場合、コンテンツオブジェクト534は選択され、コンテンツオブジェクト534がドキュメント532から分離していく様子を示すアニメーションが表示される。また、コンテンツオブジェクト534の近くに編集アイコン528が表示される。加えて、ドキュメント532は、(ドット背景で示されるよう)視覚的に抑制される。
視覚的に抑制することに対し、同等に、分離されたコンテンツオブジェクトは、第1の電子ドキュメントに対して(例えば、強調表示することにより)視覚的に強調されてもよい。
図8における動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをするさまざまな方法を認識するであろう。加えて、方法600及び700に関して本明細書に記載の他の処理の詳細(例えば、図6A〜6D及び図7それぞれにおいて)はまた、図8に関連して上述した方法800と類似の様式で適用可能であることに留意されたい。例えば、方法800に関して上述した、アニメーションの表示及び視覚的な抑制は、方法600及び700に関して本明細書に説明するアニメーションの表示及び視覚的な抑制の特徴のうちの1つ以上を有していてもよい。簡潔にするため、これらの詳細はここでは繰り返さない。
いくつかの実施形態によれば、図9は、上記のように本発明の原理に従って構成された電子デバイス900の機能ブロック図を示す。このデバイスの機能ブロックは、本発明の原理を実行するためのハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実施することができる。図9に記述された機能ブロックが、上記の本発明の原理を実施するために、合成され、又はサブブロックに分離されてもよいことは、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を支持しうるものである。
図9に示すように、電子デバイス900は、表示されているコンテンツオブジェクトを含む第1の電子ドキュメント、及び第2の電子ドキュメントを同時に表示部902に表示するように構成された表示部902と、表示部902に結合された処理部906とを含む。いくつかの実施形態において、処理部906は、検出部908、作成部910、表示イネーブル部912、選択部914、表示開始部916、視覚的抑制部918、停止部920、及び並進移動部922を含む。
処理部906は、コンテンツオブジェクト上で開始する第1のユーザ入力を検出し(例えば、検出部908で)、第1のユーザ入力が第1のコマンドに対応するという判定に応答して、第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して表示を可能にし(例えば、作成部910及び表示イネーブル部912で)、第1のユーザ入力が第1のコマンドと異なる第2のコマンドに対応するという判定に応答して、コンテンツオブジェクトを選択し(例えば、選択部914で)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示を可能にし(例えば、表示イネーブル部912で)、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する(例えば、表示開始部916で)、ように構成され、複数のアイコンは1人以上の他のユーザへコンテンツオブジェクトを送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンを含む。
いくつかの実施形態において、第1のコマンドに対応する第1の入力は、ドラッグアンドドロップコマンドに対応するマウスによるクリックアンドドラッグ入力である。
いくつかの実施形態において、第1のコマンドに対応する第1の入力は、ドラッグアンドドロップコマンドに対応するタッチ感知表示部902上での指によるタップアンドドラッグ入力である。
いくつかの実施形態において、第2のコマンドに対応する第1の入力は、マウスによるプレスアンドホールド入力である。
いくつかの実施形態において、第2のコマンドに対応する第1の入力は、タッチ感知表示部902上での指によるプレスアンドホールド入力である。
いくつかの実施形態において、アニメーションは、コンテンツオブジェクトが第1の電子ドキュメントから引き出されて第1の電子ドキュメントの上に浮いている様子を示す。
いくつかの実施形態において、処理部906は、第1のユーザ入力が第2のコマンドに対応するという判定に応答して、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制する(例えば、視覚的抑制部918により)、ように構成される。
いくつかの実施形態において、処理部906は、分離されたコンテンツオブジェクトに近接する複数のアイコンを表示する間に、第2のユーザ入力を検出し(例えば、検出部908で)、第2のユーザ入力の検出に応答して、複数のアイコンを表示するのを停止し(例えば、停止部920で)、第2の入力に従って、分離されたコンテンツオブジェクトを並進移動させ(例えば、並進移動部922で)、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制することを停止し(例えば、停止部920で)、第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して表示可能にする(例えば、作成部910及び表示イネーブル部912で)、ように構成される。
いくつかの実施形態において、複数のアイコンは、1人以上の他のユーザにコンテンツオブジェクトをインスタントメッセージにより送信するためのユーザインタフェースの表示を開始するアイコンを含む。
いくつかの実施形態において、複数のアイコンは、1人以上の他のユーザにコンテンツオブジェクトを電子メールで送信するためのユーザインタフェースの表示を開始するアイコンを含む。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトをツイートするためのユーザインタフェースの表示を開始するアイコンを含む。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトのツイートを開始するアイコンを含む。
いくつかの実施形態において、複数のアイコンは、コンテンツオブジェクトを編集するためのユーザインタフェースの表示を開始するアイコンを含む。
いくつかの実施形態において、処理部906は、分離されたコンテンツオブジェクトに近接する複数のアイコンを表示する間に、分離されたコンテンツオブジェクト上で開始する第2のユーザ入力を検出し(例えば、検出部908で)、第2のユーザ入力の検出に応答して、複数のアイコンを表示するのを停止し(例えば、停止部920で)、第2の入力に従って、分離されたコンテンツオブェクトを並進移動させ(例えば、並進移動部922で)、第2の電子ドキュメント内にコンテンツオブジェクトのコピーを作成して表示可能にする(例えば、作成部910及び表示イネーブル部912で)、ように構成される。
いくつかの実施形態において、処理部906は、分離されたコンテンツオブジェクトに近接する複数のアイコンを表示する間に、分離されたコンテンツオブジェクトから離れた第3のユーザ入力を検出し(例えば、検出部908で)、第3のユーザ入力の検出に応答して、複数のアイコンを表示するのを停止し(例えば、停止部920で)、コンテンツオブジェクトが第1の電子ドキュメントから分離するのを停止し(例えば、停止部920で)、第1の入力を検出する直前の第1の電子ドキュメント内のコンテンツオブジェクトの位置にコンテンツオブジェクトを表示可能にする(例えば、表示イネーブル部912で)、ように構成される。
いくつかの実施形態によれば、図10は、上記のように本発明の原理に従って構成された電子デバイス1000の機能ブロック図を示す。このデバイスの機能ブロックは、本発明の原理を実行するためのハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせにより実施することができる。図10に記述された機能ブロックが、上記の本発明の原理を実施するために、合成され、又はサブブロックに分離されてもよいことは、当業者により理解される。したがって、本明細書における説明は、あらゆる可能な組み合わせ若しくは分割、又は本明細書に述べられる更なる機能ブロックの定義を支持しうるものである。
図10に示すように、電子デバイス1000は、表示されているコンテンツオブジェクトを含む第1の電子ドキュメントを表示部1002に表示するように構成された表示部1002と、表示部1002に結合された処理部1006を含む。いくつかの実施形態において、処理部1006は、検出部1008、表示イネーブル部1012、選択部1014、表示開始部1016、及び視覚的抑制部1018を有する。処理部1006は、コンテンツオブジェクト上で開始する第1のユーザ入力を検出し(例えば、検出部1008で)、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択し(例えば、選択部1014で)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示可能にし(例えば、表示イネーブル部1012で)、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し(例えば、視覚的抑制部1018で)、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する(例えば、表示開始部1016で)、ように構成され、複数のアイコンは1人以上の他のユーザへコンテンツオブジェクトを送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンを含む。
いくつかの実施形態において、電子デバイス1000は、表示されているコンテンツオブジェクトを含む第1の電子ドキュメントを表示部1002に表示するように構成された表示部1002と、表示部1002に結合された処理部1006を含む。いくつかの実施形態において、処理部1006は、検出部1008、表示イネーブル部1012、選択部1014、表示開始部1016、及び視覚的抑制部1018を有する。処理部1006は、第1のユーザ入力を検出し(例えば、検出部1008で)、第1のユーザ入力の検出に応答して、コンテンツオブジェクトを選択し(例えば、選択部1014で)、コンテンツオブジェクトが第1の電子ドキュメントから分離していくアニメーションを表示可能にし(例えば、表示イネーブル部1012で)、分離されたコンテンツオブジェクトに対し第1の電子ドキュメントを視覚的に抑制し(例えば、視覚的抑制部1018で)、分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する(例えば、表示開始部1016で)、ように構成される。
上記の情報処理方法の動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又は一般的なハードウェア(例えば、図1A、図3、及び図9〜図10を参照して上述するように)はすべて、本発明の保護の範囲に含まれる。
図6A〜6D及び図7〜8を参照して上述された動作は、図1A〜図1Bに示されるコンポーネントにより実行することができる。例えば、検出動作604、作成及び表示動作606、選択動作614、表示動作616、及び表示開始動作620は、イベントソータ170、イベント認識部180、及びイベンハンドラ190により実行することができる。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に渡す。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と照会し、タッチ感知面上の第1の位置の第1の接触がユーザインタフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190を起動させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を利用又は呼び出してもよい。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
説明のため、上記の説明は、特定の実施形態について述べられたものである。ただし、上記の例示的な考察は、網羅的であること又は開示された形態に限定することを意図するものではない。上記の技術を考慮して、多くの変更及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が様々な実施形態で、及び想到される特定の用途に好適な様々な改良と共に本発明を最良な形で利用することを可能とするために、これらの実施形態を選択し説明した。

Claims (29)

  1. ディスプレイを備えた電子デバイスにおいて、
    第1の電子ドキュメント及び第2の電子ドキュメントを同時に前記ディスプレイに表示することであって、前記第1の電子ドキュメントは表示されているコンテンツオブジェクトを含む、表示することと、
    前記コンテンツオブジェクト上で開始する第1のユーザ入力を検出することと、
    前記第1のユーザ入力が第1のコマンドに対応するという判定に応答して、前記第2の電子ドキュメント内に前記コンテンツオブジェクトのコピーを作成して表示することと、
    前記第1のユーザ入力が前記第1のコマンドとは異なる第2のコマンドに対応するという判定に応答して、
    前記コンテンツオブジェクトを選択することと、
    前記コンテンツオブジェクトが前記第1の電子ドキュメントから分離していくアニメーションを表示することと、
    前記分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始することと、
    を含み、前記複数のアイコンは、前記コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンと、前記コンテンツオブジェクトを前記第1の電子ドキュメント内で編集するためのユーザインタフェースの表示を、編集したコンテンツオブジェクトを1人以上の他のユーザに送信する前に開始するための少なくとも1つのアイコンと、を含む、
    方法。
  2. 前記第1のコマンドに対応する前記第1のユーザ入力は、ドラッグアンドドロップコマンドに対応するマウスによるクリックアンドドラッグ入力である、請求項1に記載の方法。
  3. 前記第1のコマンドに対応する前記第1のユーザ入力は、ドラッグアンドドロップコマンドに対応するタッチ感知ディスプレイ上での指によるタップアンドドラッグ入力である、請求項1に記載の方法。
  4. 前記第2のコマンドに対応する前記第1のユーザ入力は、マウスによるプレスアンドホールド入力である、請求項1に記載の方法。
  5. 前記第2のコマンドに対応する前記第1のユーザ入力は、タッチ感知ディスプレイ上での指によるプレスアンドホールド入力である、請求項1に記載の方法。
  6. 前記アニメーションは、前記コンテンツオブジェクトが前記第1の電子ドキュメントから引き出されて前記第1の電子ドキュメントの上に浮いている様子を示す、請求項1に記載の方法。
  7. 前記第1のユーザ入力が前記第2のコマンドに対応するという判定に応答して、
    前記第1の電子ドキュメントを前記分離されたコンテンツオブジェクトに対して視覚的に抑制すること、
    を含む、請求項1に記載の方法。
  8. 前記分離されたコンテンツオブジェクトに近接する前記複数のアイコンを表示している間に、第2のユーザ入力を検出することと、
    前記第2のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止することと、
    前記第2のユーザ入力に従って、前記分離されたコンテンツオブジェクトを並進移動させることと、前記第1の電子ドキュメントを前記分離されたコンテンツオブジェクトに対して視覚的に抑制するのを停止することと、
    前記コンテンツオブジェクトのコピーを前記第2の電子ドキュメント内に作成して表示することと、
    を含む、請求項7に記載の方法。
  9. 前記複数のアイコンは、1人以上の他のユーザに前記コンテンツオブジェクトをインスタントメッセージにより送信するためのユーザインタフェースの表示を開始するアイコンを含む、請求項1に記載の方法。
  10. 前記複数のアイコンは、1人以上の他のユーザに前記コンテンツオブジェクトを電子メールで送信するためのユーザインタフェースの表示を開始するアイコンを含む、請求項1に記載の方法。
  11. 前記複数のアイコンは、前記コンテンツオブジェクトをツイートするためのユーザインタフェースの表示を開始するアイコンを含む、請求項1に記載の方法。
  12. 前記複数のアイコンは、前記コンテンツオブジェクトのツイートを開始するためのアイコンを含む、請求項1に記載の方法。
  13. 前記分離されたコンテンツオブジェクトに近接する前記複数のアイコンを表示している間に、前記分離されたコンテンツオブジェクト上で開始する第2のユーザ入力を検出することと、
    前記第2のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止することと、
    前記第2のユーザ入力に従って、前記分離されたコンテンツオブジェクトを並進移動させることと、
    前記コンテンツオブジェクトのコピーを前記第2の電子ドキュメント内に作成して表示することと、
    を含む、請求項1に記載の方法。
  14. 前記分離されたコンテンツオブジェクトに近接する前記複数のアイコンを表示している間に、前記分離されたコンテンツオブジェクトから離れた第3のユーザ入力を検出することと、
    前記第3のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止することと、
    前記第1の電子ドキュメントから前記コンテンツオブジェクトが分離するのを停止することと、
    前記第1のユーザ入力を検出する直前の前記第1の電子ドキュメント内の前記コンテンツオブジェクトの位置に、前記コンテンツオブジェクトを表示することと、
    を含む、請求項1に記載の方法。
  15. ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、
    を含み、前記1つ以上のプログラムは、前記メモリに記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    第1の電子ドキュメント及び第2の電子ドキュメントを同時に前記ディスプレイに表示し、前記第1の電子ドキュメントは表示されているコンテンツオブジェクトを含み、前記コンテンツオブジェクト上で開始する第1のユーザ入力を検出し、
    前記第1のユーザ入力が第1のコマンドに対応するという判定に応答して、前記第2の電子ドキュメント内に前記コンテンツオブジェクトのコピーを作成して表示し、
    前記第1のユーザ入力が前記第1のコマンドとは異なる第2のコマンドに対応するという判定に応答して、
    前記コンテンツオブジェクトを選択し、
    前記コンテンツオブジェクトが前記第1の電子ドキュメントから分離していくアニメーションを表示し、
    前記分離されたコンテンツオブジェクトに近接する複数のアイコンの表示を開始する、
    ための命令を含み、前記複数のアイコンは、前記コンテンツオブジェクトを1人以上の他のユーザに送信するためのユーザインタフェースの表示を開始するための少なくとも1つのアイコンと、前記コンテンツオブジェクトを前記第1の電子ドキュメント内で編集するためのユーザインタフェースの表示を、編集したコンテンツオブジェクトを1人以上の他のユーザに送信する前に開始するための少なくとも1つのアイコンと、を含む、
    電子デバイス。
  16. 前記第1のコマンドに対応する前記第1のユーザ入力は、ドラッグアンドドロップコマンドに対応するマウスによるクリックアンドドラッグ入力である、請求項15に記載の電子デバイス。
  17. 前記第1のコマンドに対応する前記第1のユーザ入力は、ドラッグアンドドロップコマンドに対応するタッチ感知表示部上での指によるタップアンドドラッグ入力である、請求項15に記載の電子デバイス。
  18. 前記第2のコマンドに対応する前記第1のユーザ入力は、マウスによるプレスアンドホールド入力である、請求項15に記載の電子デバイス。
  19. 前記第2のコマンドに対応する前記第1のユーザ入力は、タッチ感知表示部上での指によるプレスアンドホールド入力である、請求項15に記載の電子デバイス。
  20. 前記アニメーションは、前記コンテンツオブジェクトが前記第1の電子ドキュメントから引き出されて前記第1の電子ドキュメントの上に浮いている様子を示す、請求項15に記載の電子デバイス。
  21. 前記1つ以上のプログラムは、
    前記第1のユーザ入力が前記第2のコマンドに対応するという判定に応答して、
    前記第1の電子ドキュメントを前記分離されたコンテンツオブジェクトに対して視覚的に抑制する、
    ための命令を更に含む、
    請求項15に記載の電子デバイス。
  22. 前記1つ以上のプログラムは、
    前記分離されたコンテンツオブジェクトに近接する前記複数のアイコンを表示している間に、第2のユーザ入力を検出し、
    前記第2のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止し、
    前記第2のユーザ入力に従って、前記分離されたコンテンツオブジェクトを並進移動させ、前記第1の電子ドキュメントを前記分離されたコンテンツオブジェクトに対して視覚的に抑制するのを停止し、
    前記コンテンツオブジェクトのコピーを前記第2の電子ドキュメント内に作成して表示可能にする、
    ための命令を更に含む、
    請求項15に記載の電子デバイス。
  23. 前記複数のアイコンは、1人以上の他のユーザに前記コンテンツオブジェクトをインスタントメッセージにより送信するためのユーザインタフェースの表示を開始するアイコンを含む、請求項15に記載の電子デバイス。
  24. 前記複数のアイコンは、1人以上の他のユーザに前記コンテンツオブジェクトを電子メールで送信するためのユーザインタフェースの表示を開始するアイコンを含む、請求項15に記載の電子デバイス。
  25. 前記複数のアイコンは、前記コンテンツオブジェクトをツイートするためのユーザインタフェースの表示を開始するアイコンを含む、請求項15に記載の電子デバイス。
  26. 前記複数のアイコンは、前記コンテンツオブジェクトのツイートを開始するためのアイコンを含む、請求項15に記載の電子デバイス。
  27. 前記1つ以上のプログラムは、前記分離されたコンテンツオブジェクトに近接する複数のアイコンを表示している間に、前記分離されたコンテンツオブジェクト上で開始する第2のユーザ入力を検出し、
    前記第2のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止し、
    前記第2のユーザ入力に従って、前記分離されたコンテンツオブジェクトを並進移動させ、
    前記コンテンツオブジェクトのコピーを前記第2の電子ドキュメント内に作成して表示可能にする、
    ための命令を更に含む、
    請求項15に記載の電子デバイス。
  28. 前記1つ以上のプログラムは、
    前記分離されたコンテンツオブジェクトに近接する前記複数のアイコンを表示している間に、前記分離されたコンテンツオブジェクトから離れた第3のユーザ入力を検出し、
    前記第3のユーザ入力の検出に応答して、
    前記複数のアイコンを表示するのを停止し、
    前記第1の電子ドキュメントから前記コンテンツオブジェクトが分離するのを停止し、前記第1のユーザ入力を検出する直前の前記第1の電子ドキュメント内の前記コンテンツオブジェクトの位置に、前記コンテンツオブジェクトを表示可能にする、
    ための命令を更に含む、
    請求項15に記載の電子デバイス。
  29. コンピュータに、請求項1乃至14の何れか1項に記載の方法を実行させるためのコンピュータプログラム。
JP2014557743A 2012-02-15 2013-02-13 ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース Active JP6085618B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201261599375P 2012-02-15 2012-02-15
US61/599,375 2012-02-15
US13/710,379 2012-12-10
US13/710,379 US10289660B2 (en) 2012-02-15 2012-12-10 Device, method, and graphical user interface for sharing a content object in a document
PCT/US2013/025937 WO2013123048A1 (en) 2012-02-15 2013-02-13 Device, method, and graphical user interface for sharing a content object in a document

Publications (2)

Publication Number Publication Date
JP2015515040A JP2015515040A (ja) 2015-05-21
JP6085618B2 true JP6085618B2 (ja) 2017-02-22

Family

ID=48946692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014557743A Active JP6085618B2 (ja) 2012-02-15 2013-02-13 ドキュメント内のコンテンツオブジェクトを共有するためのデバイス、方法、及びグラフィカルユーザインタフェース

Country Status (8)

Country Link
US (5) US10289660B2 (ja)
EP (1) EP2815300B1 (ja)
JP (1) JP6085618B2 (ja)
KR (1) KR101759380B1 (ja)
CN (2) CN104246678B (ja)
AU (1) AU2013221659C1 (ja)
HK (1) HK1204113A1 (ja)
WO (1) WO2013123048A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
US10776103B2 (en) 2011-12-19 2020-09-15 Majen Tech, LLC System, method, and computer program product for coordination among multiple devices
US11089134B1 (en) 2011-12-19 2021-08-10 Majen Tech, LLC System, method, and computer program product for coordination among multiple devices
US10289660B2 (en) 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document
JP6177321B2 (ja) * 2012-06-20 2017-08-09 マケ クリティカル ケア エービー ユーザが背景を選択可能なディスプレイを有する呼吸装置
US10057400B1 (en) 2012-11-02 2018-08-21 Majen Tech, LLC Lock screen interface for a mobile device apparatus
US10089139B2 (en) * 2013-01-09 2018-10-02 Appsense Us Llc Systems, methods and media for managing embedded content
US11431834B1 (en) 2013-01-10 2022-08-30 Majen Tech, LLC Screen interface for a mobile device apparatus
US10051103B1 (en) 2013-01-10 2018-08-14 Majen Tech, LLC Screen interface for a mobile device apparatus
US8989773B2 (en) 2013-01-29 2015-03-24 Apple Inc. Sharing location information among devices
KR20140111171A (ko) * 2013-03-08 2014-09-18 삼성전자주식회사 컨텐츠의 스크롤 시 대표 정보를 표시하는 전자 장치 및 그 제어 방법
US10120541B2 (en) 2013-06-09 2018-11-06 Apple Inc. Device, method, and graphical user interface for sharing content from a respective application
US9712577B2 (en) * 2013-06-09 2017-07-18 Apple Inc. Device, method, and graphical user interface for sharing content from a respective application
US20140372856A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US9800635B2 (en) * 2013-08-07 2017-10-24 C21 Patents, Llc System for selectively displaying information in a secured manner and method thereof
KR102332675B1 (ko) * 2013-09-02 2021-11-30 삼성전자 주식회사 전자 장치의 컨텐츠 공유 방법 및 장치
US20150121203A1 (en) * 2013-10-25 2015-04-30 Palo Alto Research Center Incorporated System and method for generating uniform format pages for a system for composing messages
US10296570B2 (en) 2013-10-25 2019-05-21 Palo Alto Research Center Incorporated Reflow narrative text objects in a document having text objects and graphical objects, wherein text object are classified as either narrative text object or annotative text object based on the distance from a left edge of a canvas of display
JP2015114836A (ja) * 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
US9507520B2 (en) * 2013-12-16 2016-11-29 Microsoft Technology Licensing, Llc Touch-based reorganization of page element
EP2887199B1 (en) 2013-12-20 2020-06-03 Dassault Systèmes A device with a touch-sensitive display comprising a mecanism to copy and manipulate modeled objects
US10579212B2 (en) * 2014-05-30 2020-03-03 Apple Inc. Structured suggestions
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
WO2016013893A1 (en) 2014-07-25 2016-01-28 Samsung Electronics Co., Ltd. Displaying method, animation image generating method, and electronic device configured to execute the same
US9922439B2 (en) * 2014-07-25 2018-03-20 Samsung Electronics Co., Ltd. Displaying method, animation image generating method, and electronic device configured to execute the same
DE212015000194U1 (de) 2014-08-06 2017-05-31 Apple Inc. Verkleinerte Benutzeroberflächen für Batteriemanagement
US10845984B2 (en) * 2014-08-20 2020-11-24 Touchgram Pty Ltd System and a method for sending a touch message
KR102016160B1 (ko) 2014-09-02 2019-08-29 애플 인크. 경고를 관리하기 위한 축소된 크기의 인터페이스
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
US10664068B2 (en) 2015-01-30 2020-05-26 Hewlett-Packard Development Company, L.P. Physical document for navigation
KR102377277B1 (ko) 2015-02-27 2022-03-23 삼성전자주식회사 전자 장치에서 커뮤니케이션 지원 방법 및 장치
US11955236B2 (en) 2015-04-20 2024-04-09 Murj, Inc. Systems and methods for managing patient medical devices
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US9928029B2 (en) * 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
CN106527824B (zh) * 2015-09-14 2020-07-31 南京中兴新软件有限责任公司 用户设备操控方法、装置及用户设备
US10320861B2 (en) * 2015-09-30 2019-06-11 Google Llc System and method for automatic meeting note creation and sharing using a user's context and physical proximity
JP6725693B2 (ja) 2016-04-28 2020-07-22 華為技術有限公司Huawei Technologies Co.,Ltd. ヒューマンコンピュータインタラクション方法およびその装置
US9681094B1 (en) * 2016-05-27 2017-06-13 Microsoft Technology Licensing, Llc Media communication
WO2017206717A1 (zh) 2016-06-01 2017-12-07 腾讯科技(深圳)有限公司 信息创建方法、装置、信息发送方法、装置及存储介质
US11087068B2 (en) * 2016-10-31 2021-08-10 Fujifilm Business Innovation Corp. Systems and methods for bringing document interactions into the online conversation stream
US11158057B2 (en) 2016-12-30 2021-10-26 Huawei Technologies Co., Ltd. Device, method, and graphical user interface for processing document
USD845980S1 (en) * 2017-06-29 2019-04-16 Google Llc Display screen or portion thereof with transitional graphical user interface
CN110019661A (zh) * 2017-09-12 2019-07-16 珠海金山办公软件有限公司 基于办公文档的文本搜索方法、装置和电子设备
CN117194753A (zh) 2017-09-13 2023-12-08 谷歌有限责任公司 有效地增强具有相关内容的图像
USD896236S1 (en) * 2018-03-16 2020-09-15 Magic Leap, Inc. Display panel or portion thereof with a transitional mixed reality graphical user interface
KR20200100918A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
US10852915B1 (en) * 2019-05-06 2020-12-01 Apple Inc. User interfaces for sharing content with other electronic devices
CN110489031A (zh) * 2019-07-26 2019-11-22 维沃移动通信有限公司 内容显示方法及终端设备
CN113157230A (zh) * 2019-09-18 2021-07-23 华为技术有限公司 一种数据传输的方法及相关设备
USD974369S1 (en) * 2020-03-25 2023-01-03 Platstack, LLC Display screen with graphical user interface
US11455078B1 (en) 2020-03-31 2022-09-27 Snap Inc. Spatial navigation and creation interface
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11165734B1 (en) * 2020-06-10 2021-11-02 Snap Inc. Messaging system share-to-chat
US11782577B2 (en) 2020-12-22 2023-10-10 Snap Inc. Media content player on an eyewear device
US11797162B2 (en) * 2020-12-22 2023-10-24 Snap Inc. 3D painting on an eyewear device
US20230229279A1 (en) * 2021-04-19 2023-07-20 Apple Inc. User interfaces for managing visual content in media
US11671696B2 (en) 2021-04-19 2023-06-06 Apple Inc. User interfaces for managing visual content in media
US20230319224A1 (en) * 2022-03-10 2023-10-05 Apple Inc. User interfaces for managing visual content in a media representation
US11456072B1 (en) 2022-03-15 2022-09-27 Murj, Inc. Systems and methods to distribute cardiac device advisory data

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5446842A (en) * 1993-02-26 1995-08-29 Taligent, Inc. Object-oriented collaboration system
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US5500935A (en) 1993-12-30 1996-03-19 Xerox Corporation Apparatus and method for translating graphic objects and commands with direct touch input in a touch based input system
US6167455A (en) * 1995-05-05 2000-12-26 Apple Computer, Inc. Method and system for synchronous operation of linked command objects
JP3688361B2 (ja) 1995-10-06 2005-08-24 富士通株式会社 表示制御装置
JP2000000235A (ja) 1998-06-17 2000-01-07 Nippon Telegr & Teleph Corp <Ntt> 医療画像表示制御方法及びその表示制御装置及びその表示制御プログラムを記録した記録媒体
US6373499B1 (en) * 1999-06-30 2002-04-16 Microsoft Corporation Automated emphasizing of an object in a digital photograph
JP3522635B2 (ja) * 1999-08-03 2004-04-26 ヴィジョンアーツ株式会社 画像ファイルを記録したコンピュータ読み取り可能な記録媒体、この記録媒体の作成装置、画像ファイル作成プログラムを記録した媒体、画像ファイル送信装置、画像ファイル処理装置、画像ファイル処理プログラムを記録した媒体
JP2001117686A (ja) 1999-10-20 2001-04-27 Toshiba Corp ペン入力装置およびペン入力装置のポインティング処理方法
US6664991B1 (en) * 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
JP2002082994A (ja) * 2000-06-28 2002-03-22 Fujitsu Ltd インターネット・データベース
US6771254B2 (en) 2000-11-10 2004-08-03 Microsoft Corporation Stylus nibs for providing a pen-and-paper feel for use with a tablet-and-stylus computer
US6903730B2 (en) 2000-11-10 2005-06-07 Microsoft Corporation In-air gestures for electromagnetic coordinate digitizers
US6791536B2 (en) 2000-11-10 2004-09-14 Microsoft Corporation Simulating gestures of a pointing device using a stylus and providing feedback thereto
US6897853B2 (en) 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
US6788815B2 (en) 2000-11-10 2004-09-07 Microsoft Corporation System and method for accepting disparate types of user input
US6762776B2 (en) 2000-11-10 2004-07-13 Microsoft Corporation Mouse input panel windows class list
US20030169301A1 (en) 2002-03-07 2003-09-11 Mccauley Stephen G. Display selection identification enhancement by de-emphasizing non-essential information
US7376696B2 (en) * 2002-08-27 2008-05-20 Intel Corporation User interface to facilitate exchanging files among processor-based devices
US20040100501A1 (en) 2002-11-25 2004-05-27 Dornback Jason Robert Method of dragging and dropping defined objects to or from a web page
US20120081317A1 (en) 2010-10-01 2012-04-05 Imerj LLC Method and system for performing copy-paste operations on a device via user gestures
WO2004104758A2 (en) * 2003-05-16 2004-12-02 Picasa, Inc. Networked chat and media sharing systems and methods
JP2005012764A (ja) * 2003-05-22 2005-01-13 Casio Comput Co Ltd データ通信装置、画像送信方法および画像送信プログラム
US7478336B2 (en) 2003-11-06 2009-01-13 International Business Machines Corporation Intermediate viewer for transferring information elements via a transfer buffer to a plurality of sets of destinations
JP4239090B2 (ja) 2004-01-08 2009-03-18 富士フイルム株式会社 ファイル管理プログラム
US8448083B1 (en) 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
US8566732B2 (en) 2004-06-25 2013-10-22 Apple Inc. Synchronization of widgets and dashboards
US7490295B2 (en) 2004-06-25 2009-02-10 Apple Inc. Layer for accessing user interface elements
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
US7454717B2 (en) 2004-10-20 2008-11-18 Microsoft Corporation Delimiters for selection-action pen gesture phrases
US7783708B2 (en) 2005-01-27 2010-08-24 Microsoft Corporation Attachment browser
KR100711264B1 (ko) 2005-05-03 2007-04-25 삼성전자주식회사 전자기기 및 그 제어방법
US7543248B2 (en) 2005-05-31 2009-06-02 Fuji Xerox Co., Ltd. User-machine interface
JP2007058785A (ja) * 2005-08-26 2007-03-08 Canon Inc 情報処理装置及び前記装置におけるドラグオブジェクトの操作方法
US7954064B2 (en) 2005-10-27 2011-05-31 Apple Inc. Multiple dashboards
US8060821B2 (en) 2005-12-09 2011-11-15 Apple Inc. Enhanced visual feedback of interactions with user interface
US7552399B2 (en) 2005-12-27 2009-06-23 International Business Machines Corporation Extensible icons with multiple drop zones
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7908569B2 (en) 2006-08-10 2011-03-15 Nokia Corporation Creating virtual targets in directory structures
US7934156B2 (en) 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8082523B2 (en) * 2007-01-07 2011-12-20 Apple Inc. Portable electronic device with graphical user interface supporting application switching
US20080168367A1 (en) 2007-01-07 2008-07-10 Chaudhri Imran A Dashboards, Widgets and Devices
JP4922769B2 (ja) 2007-01-17 2012-04-25 株式会社リコー 情報処理装置、情報処理方法、情報処理プログラム
US8549429B2 (en) * 2007-01-25 2013-10-01 Sharp Kabushiki Kaisha Multi-window management apparatus and program, storage medium and information processing apparatus
US20080229206A1 (en) 2007-03-14 2008-09-18 Apple Inc. Audibly announcing user interface elements
US8413075B2 (en) 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US9489089B2 (en) 2008-01-25 2016-11-08 Elo Touch Solutions, Inc. Touch-sensitive panel
CA2820983C (en) * 2008-05-18 2019-02-05 Google Inc. Secured electronic transaction system
US8756519B2 (en) * 2008-09-12 2014-06-17 Google Inc. Techniques for sharing content on a web page
US8321802B2 (en) * 2008-11-13 2012-11-27 Qualcomm Incorporated Method and system for context dependent pop-up menus
KR101580999B1 (ko) 2009-01-06 2015-12-30 삼성전자주식회사 애플리케이션 간의 콘텐츠를 이동하는 장치 및 방법
JP5470861B2 (ja) 2009-01-09 2014-04-16 ソニー株式会社 表示装置及び表示方法
US20100194694A1 (en) * 2009-01-30 2010-08-05 Nokia Corporation Method and Apparatus for Continuous Stroke Input
US9875013B2 (en) 2009-03-16 2018-01-23 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
DE112010002072T5 (de) * 2009-05-22 2012-10-11 Semiconductor Components Industries, Llc Verfahren und Vorrichtung zum Detektieren eines Haltezustands auf einer akustischen Berührungsoberfläche
KR101587211B1 (ko) * 2009-05-25 2016-01-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US8621387B2 (en) * 2009-06-08 2013-12-31 Apple Inc. User interface for multiple display regions
JP2011028560A (ja) 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
US9092115B2 (en) 2009-09-23 2015-07-28 Microsoft Technology Licensing, Llc Computing system with visual clipboard
US20110099507A1 (en) * 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
CN102073441A (zh) * 2009-11-24 2011-05-25 英业达股份有限公司 触控装置的控制方法
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US10607235B2 (en) * 2009-12-24 2020-03-31 Outbrain Inc. Systems and methods for curating content
CN101771751B (zh) * 2009-12-29 2014-06-18 宇龙计算机通信科技(深圳)有限公司 一种定制信息的提示方法、系统及移动终端
US8988356B2 (en) 2009-12-31 2015-03-24 Google Inc. Touch sensor and touchscreen user input combination
US8875038B2 (en) * 2010-01-19 2014-10-28 Collarity, Inc. Anchoring for content synchronization
EP2360570A3 (en) * 2010-02-15 2012-05-16 Research In Motion Limited Graphical context short menu
WO2011108797A1 (en) * 2010-03-03 2011-09-09 Lg Electronics Inc. Mobile terminal and control method thereof
US8539353B2 (en) * 2010-03-30 2013-09-17 Cisco Technology, Inc. Tabs for managing content
US8451994B2 (en) * 2010-04-07 2013-05-28 Apple Inc. Switching cameras during a video conference of a multi-camera mobile device
US8423911B2 (en) * 2010-04-07 2013-04-16 Apple Inc. Device, method, and graphical user interface for managing folders
US8631350B2 (en) * 2010-04-23 2014-01-14 Blackberry Limited Graphical context short menu
US20120005577A1 (en) 2010-06-30 2012-01-05 International Business Machines Corporation Building Mashups on Touch Screen Mobile Devices
US8717312B2 (en) 2010-07-26 2014-05-06 Au Optronics Corporation Touch sensing device
US20120030567A1 (en) 2010-07-28 2012-02-02 Victor B Michael System with contextual dashboard and dropboard features
US9098182B2 (en) * 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
KR101811743B1 (ko) 2010-09-09 2018-01-25 삼성전자주식회사 멀티미디어 장치 및 그의 컨텐츠 제공 방법
US8589822B2 (en) * 2010-12-10 2013-11-19 International Business Machines Corporation Controlling three-dimensional views of selected portions of content
CN102063208B (zh) * 2010-12-20 2014-04-23 鸿富锦精密工业(深圳)有限公司 数据传输系统和数据传输方法
US8872898B2 (en) * 2011-12-14 2014-10-28 Ebay Inc. Mobile device capture and display of multiple-angle imagery of physical objects
US10289660B2 (en) 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document

Also Published As

Publication number Publication date
JP2015515040A (ja) 2015-05-21
EP2815300A1 (en) 2014-12-24
CN104246678A (zh) 2014-12-24
AU2013221659A1 (en) 2014-09-18
US10289660B2 (en) 2019-05-14
US20130212470A1 (en) 2013-08-15
US11783117B2 (en) 2023-10-10
CN111324266B (zh) 2023-08-01
AU2013221659B2 (en) 2016-05-26
US20240078375A1 (en) 2024-03-07
KR101759380B1 (ko) 2017-07-31
US10803235B2 (en) 2020-10-13
US20210279409A1 (en) 2021-09-09
EP2815300B1 (en) 2019-08-28
KR20140126376A (ko) 2014-10-30
AU2013221659C1 (en) 2016-10-06
WO2013123048A1 (en) 2013-08-22
HK1204113A1 (en) 2015-11-06
US20200372207A1 (en) 2020-11-26
CN104246678B (zh) 2020-01-17
CN111324266A (zh) 2020-06-23
US20190303427A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US11783117B2 (en) Device, method, and graphical user interface for sharing a content object in a document
JP7438254B2 (ja) 同時に開いているソフトウェアアプリケーションを管理するためのデバイス、方法、及びグラフィカルユーザインタフェース
US9563351B2 (en) Device, method, and graphical user interface for navigating between document sections
US10394441B2 (en) Device, method, and graphical user interface for controlling display of application windows
US8826164B2 (en) Device, method, and graphical user interface for creating a new folder
US9098182B2 (en) Device, method, and graphical user interface for copying user interface objects between content regions
US9032338B2 (en) Devices, methods, and graphical user interfaces for navigating and editing text
US8799815B2 (en) Device, method, and graphical user interface for activating an item in a folder
US9483175B2 (en) Device, method, and graphical user interface for navigating through a hierarchy
US9081494B2 (en) Device, method, and graphical user interface for copying formatting attributes
US8806362B2 (en) Device, method, and graphical user interface for accessing alternate keys
US8572481B2 (en) Device, method, and graphical user interface for displaying additional snippet content
US20130227472A1 (en) Device, Method, and Graphical User Interface for Managing Windows
JP2017079070A (ja) ユーザインタフェースオブジェクトを移動させるための機器、方法、及びグラフィカルユーザインタフェース
US20110167339A1 (en) Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US20130174082A1 (en) Device, Method, and Graphical User Interface for Resizing Content Viewing and Text Entry Interfaces
AU2010339638A1 (en) Device, method, and graphical user interface for changing pages in an electronic document
AU2015201237B2 (en) Device, method, and graphical user interface for changing pages in an electronic document

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151013

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170130

R150 Certificate of patent or registration of utility model

Ref document number: 6085618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250