JP5669939B2 - ユーザインタフェース画面のナビゲーションのためのデバイス、方法、およびグラフィカルユーザインタフェース - Google Patents

ユーザインタフェース画面のナビゲーションのためのデバイス、方法、およびグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP5669939B2
JP5669939B2 JP2013518852A JP2013518852A JP5669939B2 JP 5669939 B2 JP5669939 B2 JP 5669939B2 JP 2013518852 A JP2013518852 A JP 2013518852A JP 2013518852 A JP2013518852 A JP 2013518852A JP 5669939 B2 JP5669939 B2 JP 5669939B2
Authority
JP
Japan
Prior art keywords
user interface
interface screen
screen
display
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013518852A
Other languages
English (en)
Other versions
JP2013535719A (ja
Inventor
ブライアン, ジェイ. ジェイムス,
ブライアン, ジェイ. ジェイムス,
ポリカーポ, ボニーヤ, ジュニア ウッド,
ポリカーポ, ボニーヤ, ジュニア ウッド,
ジョージ フィノ,
ジョージ フィノ,
ジェフリー, テオドール リー,
ジェフリー, テオドール リー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2013535719A publication Critical patent/JP2013535719A/ja
Application granted granted Critical
Publication of JP5669939B2 publication Critical patent/JP5669939B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

[0001]本発明は一般に、タッチセンシティブ表面を備えた電子デバイスに関するものであり、ユーザインタフェース画面間をナビゲートするためのタッチセンシティブ表面を備えた電子デバイスを含むけれども、それらに限定されない。
[0002]近年、タッチセンシティブ表面をコンピュータおよびその他の電子コンピューティングデバイス用の入力デバイスとして用いることが大幅に増えている。典型的なタッチセンシティブ表面には、タッチパッドやタッチスクリーンディスプレイなどがある。そのような表面は、ディスプレイ上でユーザインタフェース内をナビゲートしたりユーザインタフェースオブジェクトをディスプレイ上で操作したりするのに広く用いられている。
[0003]しかし、ユーザインタフェース画面間をナビゲートするための既存の方法は面倒であり、効率が悪い。例えば、或るユーザインタフェース画面から別のユーザインタフェース画面まで一連の中間的なユーザインタフェース画面を経由してナビゲートすることは面倒であり、ユーザにとって認知上の重大な負担となる。加えて、既存の方法では、必要以上の時間がかかり、それによってエネルギを浪費させる。この後者の問題は、電池で動作するデバイスでは特に重要である。
[0004]従って、ユーザインタフェース画面間をナビゲートするためのより迅速かつより効率的な方法およびインタフェースを備えたコンピューティングデバイスの必要性がある。そのような方法およびインタフェースは、ユーザインタフェース画面間をナビゲートするための従来の方法を補完または置換しうる。そのような方法およびインタフェースは、ユーザにかかる認知上の負担を軽減し、より効率的なヒューマン・マシン・インタフェースを実現する。電池で動作するコンピューティングデバイスにとって、そのような方法およびインタフェースは、電力を節約し、次回の電池充電までの時間を増加させる。
[0005]タッチセンシティブ表面を備えたコンピューティングデバイス用のユーザインタフェースに関連する前述の欠点およびその他の問題が、開示されるデバイスによって軽減または解消される。一部の実施形態では、デバイスはデスクトップコンピュータである。一部の実施形態では、デバイスは携帯用である(例えば、ノートパソコン、タブレットコンピュータ、またはハンドヘルドデバイス)。一部の実施形態では、デバイスはタッチパッドを有する。一部の実施形態では、デバイスはタッチセンシティブディスプレイ(「タッチスクリーン」または「タッチスクリーンディスプレイ」としても知られる)を有する。一部の実施形態では、デバイスは、グラフィカルユーザインタフェース(GUI)と、1つ以上のプロセッサと、メモリおよび1つ以上のモジュールと、プログラムまたは複数の機能を実行するためにメモリの中に記憶された命令の集合と、を有する。一部の実施形態では、ユーザは、主に、タッチセンシティブ表面上での指の接触およびジェスチャを通してGUIと対話する。一部の実施形態では、機能には、画像編集と、描画と、プレゼンテーションと、ワードプロセッシングと、ウェブサイト作成と、ディスクオーサリングと、表計算シート作成と、ゲームをすることと、電話をすることと、テレビ会議をすることと、電子メールをすることと、インスタントメッセージングと、エクササイズ(workout)のサポートと、デジタル写真撮影と、デジタルビデオ撮影と、ウェブブラウジングと、デジタル音楽再生と、および/またはデジタルビデオ再生とが含まれうる。これらの機能を行うための実行可能な命令が、コンピュータ可読記憶媒体、または、1つ以上のプロセッサによる実行のために構成された、その他のコンピュータプログラム製品に含まれうる。
[0006]一部の実施形態によれば、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイを備える携帯用電子デバイスにおいて、方法が実行される。前記方法は、前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示するステップであって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、ステップと、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出するステップと、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換し、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換するステップと、を備える。
[0007]一部の実施形態によれば、携帯用電子デバイスは、タッチセンシティブ表面ディスプレイと、1以上のプロセッサと、メモリと、1以上のプログラムと、を含む。前記タッチセンシティブディスプレイは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示するように構成される。前記1以上のプログラムは、前記メモリに格納され、前記1以上のプロセッサによって実行されるように構成される。前記1以上のプログラムは、前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示する命令であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令と、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出する命令と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換し、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する命令と、を含む。
[0008]一部の実施形態によれば、コンピュータ可読記録媒体は、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイを備える携帯用電子デバイスによって実行された場合に、前記携帯用電子デバイスに、前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示させる命令であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令と、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出させる命令と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換させ、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換させる命令と、を含む。
[0009]一部の実施形態によれば、タッチセンシティブディスプレイと、メモリと、前記メモリに格納された1以上のプログラムを実行する1以上のプロセッサと、を備える携帯用電子デバイス上のグラフィカルユーザインタフェースは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む個別に表示される複数のユーザインタフェース画面を含む。前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる第3のユーザインタフェース画面が表示される。前記前記第3のユーザインタフェース画面が表示されている間に前記タッチセンシティブディスプレイ上で指ジェスチャが検出される。前記前記第3のユーザインタフェース画面が表示されている間に前記タッチセンシティブディスプレイ上で前記指ジェスチャが検出されるのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示が前記第1の事前設定されたユーザインタフェース画面の表示で置換され、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示が前記第2の事前設定されたユーザインタフェース画面の表示で置換される。
[0010]一部の実施形態によれば、携帯用電子デバイスは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイと、前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示する手段であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、手段と、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出する手段と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換する手段と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する手段と、を備える。
[0011]一部の実施形態によれば、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイを備える携帯用電子デバイスにおいて使用される情報処理装置は、前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示する手段であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、手段と、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出する手段と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換する手段と、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する手段と、を備える。
[0012]一部の実施形態によれば、電子デバイスは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含む複数のユーザインタフェース画面を個別に表示し、指ジェスチャを検出するように構成されたタッチセンシティブディスプレイユニットと、前記タッチセンシティブディスプレイユニットに結合された処理ユニットと、を含む。前記処理ユニットは、前記複数のユーザインタフェース画面の中の、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる第3のユーザインタフェース画面の表示を有効化し、前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイユニット上で指ジェスチャを検出し、前記タッチセンシティブディスプレイユニット上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが第1の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換し、前記検出された指ジェスチャが前記第1の指ジェスチャの逆である第2の指ジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換するように構成される。
[0013]こうして、タッチセンシティブディスプレイを備える携帯用電子デバイスに、ユーザインタフェース画面間をナビゲートするためのより迅速かつより効率的な方法およびインタフェースが提供され、これにより、そのようなデバイスにおける有効性、効率性、およびユーザ満足度を向上させることができる。そのような方法およびインタフェースは、ユーザインタフェース画面間をナビゲートするための従来の方法を補完または置換しうる。
[0014]本発明の前述の諸実施形態およびさらなる諸実施形態をよりよく理解するため、下記の図面と併せて下記の「発明を実施するための形態」を参照するべきである。図面において、類似の参照番号は図面全体を通して対応する部分を指す。
一部の実施形態による、タッチセンシティブディスプレイを備えた携帯用多機能デバイスを示すブロック図である。 一部の実施形態による、タッチセンシティブディスプレイを備えた携帯用多機能デバイスを示すブロック図である。 一部の実施形態による、イベント処理のための例示的な構成要素(コンポーネント)を示すブロック図である。 一部の実施形態による、タッチスクリーンを有する携帯用多機能デバイスを示す図である。 一部の実施形態による、ディスプレイとタッチセンシティブ表面とを備えた例示的な多機能デバイスのブロック図である。 一部の実施形態による、タッチスクリーンを有する例示的な携帯用電子デバイスを示すブロック図である。 一部の実施形態による、携帯用多機能デバイス上のアプリケーションのメニューについての例示的なユーザインタフェースを示す図である。 一部の実施形態による、携帯用多機能デバイス上のアプリケーションのメニューについての例示的なユーザインタフェースを示す図である。 一部の実施形態による、ディスプレイとは別のタッチセンシティブ表面を備えた多機能デバイスのための例示的なユーザインタフェースを示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。 一部の実施形態によるユーザインタフェース画面間をナビゲートする方法を示すフロー図である。 一部の実施形態によるユーザインタフェース画面間をナビゲートする方法を示すフロー図である。 一部の実施形態によるユーザインタフェース画面間をナビゲートする方法を示すフロー図である。 一部の実施形態によるユーザインタフェース画面間をナビゲートする方法を示すフロー図である。 一部の実施形態による電子デバイスの機能ブロック図である。
[0025]次に、実施形態について詳細に説明し、それらの例を添付の図面に示す。以下の詳細記述では、本発明の十分な理解を提供するために、多くの特定の詳細が記述されている。しかし、当業者には明らかであろうが、本発明は、これらの特定の詳細がなくても実施されうる。その他の事例では、周知の方法、手順、構成要素、回路およびネットワークは、実施形態の態様を不要にあいまいにしないように、詳細には記述していない。
[0026]また理解されるであろうが、第1、第2などの用語は、本明細書では、各種の要素(エレメント)を記述するために使用されうるけれども、これらの要素はこれらの用語によって限定されるべきでない。これらの用語は、要素と要素とを区別するためだけに用いられている。例えば、本発明の範囲から逸脱することなく、第1の接触は第2の接触と呼ばれてもよいだろうし、同様に、第2の接触が第1の接触と呼ばれてもよいだろう。第1の接触と第2の接触とは、どちらも接触であるが、同じ接触ではない。
[0027]本明細書で本発明の記述の中で用いられる用語は、特定の実施形態を記述することを目的としており、本発明を限定することを意図していない。本発明の記述および添付の請求項で用いられる場合、単数形「a」、「an」、「the」は、文脈が別に明示しない限り、複数形も同様に含むことを意図する。さらに理解されるであろうが、「および/または(and/or)」という用語は、本明細書で用いられる場合、関連するリストされた項目のうちの1つ以上のいずれかの、または、すべての起こりうる組み合わせを言及し、それを包含する。さらに理解されるであろうが、「含む(include)」、「含んでいる(including)」、「備える(comprise)」および/または「備えている(comprising)」という用語は、本明細書で用いられる場合、述べられた特徴、整数、ステップ、動作、要素および/または構成要素の存在を明記するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、および/またはそれらのグループの存在もしくは追加を排除しない。
[0028]本明細書では、「もしも(if)」は、文脈に依存して、「する時(when)」または「した時点で(upon)」または「判定したことに応じて(in response to determining)」または「検出したことに応じて(in response to detecting)」を意味すると解釈されてもよい。同様に、「と判定された場合(if it is determined)」または「[述べられた条件またはイベント]が検出された場合(if [a stated condition or event] is detected)」は、文脈に依存して、「判定した時点で(upon determining)」または「判定したことに応じて(in response to determining)」または「[述べられた条件またはイベント]を検出した時点で(upon detecting [the stated condition or event])」または「[述べられた条件またはイベント]を検出したことに応じて(in response to detecting [the stated condition or event])」を意味すると解釈されてもよい。
[0029]本明細書では、ディスプレイの「解像度(resolution)」という用語は、ディスプレイの個々の軸に沿った、または個々の次元における、ピクセルの数(「ピクセルカウント(pixel count)」または「ピクセル解像度(pixel resolution)」とも呼ばれる)のことを言う。例えば、ディスプレイが、320×480ピクセルの解像度を持っていてもよい。さらに、本明細書では、多機能デバイスの「解像度(resolution)」は、多機能デバイスの中のディスプレイの解像度を言う。「解像度(resolution)」という用語は、個々のピクセルのサイズまたはピクセルの間隔に関する何らかの制限を意味しない。例えば、1024×768ピクセルの解像度を持つ第1のディスプレイと比べて、320×480ピクセルの解像度を持つ第2のディスプレイは、解像度が低い。しかし、留意されるべきだが、ディスプレイの物理的大きさは、ピクセル解像度だけに依存するのではなく、ピクセルのサイズおよびピクセルの間隔を含めた多くの他の因子にも依存する。従って、第1のディスプレイは、第2のディスプレイと比べて、大きさが同じ、小さい、または大きいことがある。
[0030]本明細書では、ディスプレイの「ビデオ解像度(video resolution)」という用語は、ディスプレイの個々の軸に沿った、または個々の次元における、ピクセルの密度のことを言う。ビデオ解像度は、DPI(dots−per−inch)の単位で測られることが多く、これは、ディスプレイのそれぞれの次元に沿った1インチの範囲の中に一列に入れることのできるピクセルの数を数えるものである。
[0031]コンピューティングデバイス、そのようなデバイスのためのユーザインタフェース、およびそのようなデバイスを使用するための関連プロセスの実施形態について記述する。一部の実施形態では、コンピューティングデバイスは、携帯用通信デバイス、例えば移動電話であり、その他の機能、例えばPDAおよび/または音楽プレーヤ機能も有している。携帯用多機能デバイスの例示的な実施形態には、限定することなく、カリフォルニア州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、およびiPad(登録商標)デバイスが含まれる。一部の実施形態では、コンピューティングデバイスは、主にメディアプレーヤとして使用されるものの他の機能(ビデオ録画および/またはFMラジオ受信)も含むかもしれない携帯用電子デバイスである。主にメディアプレーヤとして使用される携帯用電子デバイスの例示的な実施形態には、限定することなく、カリフォルニア州CupertinoのApple Inc.のiPod Nano(登録商標)デバイスが含まれる。また、その他の携帯用デバイス、例えばタッチセンシティブ表面(例えばタッチスクリーンディスプレイおよび/またはタッチパッド)を持つラップトップコンピュータまたはタブレットコンピュータが用いられてもよい。また、理解されるべきだが、一部の実施形態では、デバイスは、携帯用通信デバイスではなく、タッチセンシティブ表面(例えばタッチスクリーンディスプレイおよび/またはタッチパッド)を持つデスクトップコンピュータである。
[0032]下記の議論では、ディスプレイおよびタッチセンシティブ表面を含むコンピューティングデバイスについて記述する。しかし、理解されるべきだが、コンピューティングデバイスは、1つ以上の他の物理的ユーザインタフェースデバイス、例えば物理的キーボード、マウス、および/またはジョイスティックを含んでいてもよい。
[0033]デバイスは多様なアプリケーション、例えば、描画アプリケーション、プレゼンテーションアプリケーション、文章処理アプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、表計算アプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、エクササイズ(workout)サポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、インターネット閲覧アプリケーション、デジタル音楽プレーヤアプリケーション、および/またはデジタルビデオプレーヤアプリケーションのうちの1つ以上をサポートする。
[0034]デバイス上で実行されうる各種のアプリケーションは、少なくとも1つの共通の物理的ユーザインタフェースデバイス、例えばタッチセンシティブ表面を使用してもよい。タッチセンシティブ表面の1つ以上の機能、およびデバイス上に表示される対応する情報は、アプリケーション毎に、および/または、それぞれのアプリケーションの中で、調整されたり、および/または、変更されたりしてもよい。このようにして、デバイスの共通の物理的アーキテクチャ(例えばタッチセンシティブ表面)は、ユーザにとって直感的かつ透過的なユーザインタフェースを使って多様なアプリケーションをサポートしうる。
[0035]ユーザインタフェースは、1つ以上のソフトキーボードの実施形態を含んでいてもよい。ソフトキーボードの実施形態は、表示されたキーボードのアイコン上に標準の(QWERTY)および/または標準でない構成のシンボルを含んでいてもよく、それらは例えば、2006年7月24日に出願された米国特許出願第11/459,606号「Keyboards for Portable Electronic Devices」および2006年7月24日に出願された米国特許出願第11/459,615号「Touch Screen Keyboards For Portable Electronic Devices」に記述されており、その内容を全部、参照により本願に援用する。キーボードの実施形態の中には、既存の物理的キーボード、例えばタイプライタのキーボードにあるキーの数と比べてアイコン(またはソフトキー)の数が少ない実施形態があってもよい。これによって、ユーザは、キーボードの中の1つ以上のアイコン、それゆえ、1つ以上の対応するシンボルを選択するのがより容易になる。キーボードの実施形態は、適応的であってよい。例えば、表示されたアイコンが、例えば1つ以上のアイコンおよび/または1つ以上の対応するシンボルを選択するようなユーザの動作に従って修正されてもよい。デバイス上の1つ以上のアプリケーションが、共通の、および/または異なるキーボード実施形態を利用してもよい。それゆえ、使用されるキーボードの実施形態は、少なくとも一部のアプリケーションに合わせてカスタマイズされてもよい。一部の実施形態では、1つ以上のキーボードの実施形態が、それぞれのユーザに合わせてカスタマイズされてもよい。例えば、1つ以上のキーボードの実施形態が、それぞれのユーザの言葉の利用履歴(辞書編集法、スラング、個別の用途)に基づいてそれぞれのユーザに合わせてカスタマイズされてもよい。一部のキーボードの実施形態は、ソフトキーボードの実施形態を用いる時に、1つ以上のアイコンを、それゆえ1つ以上のシンボルを、選択する場合にユーザエラーの確率を減らすように調整されてもよい。
[0036]次に、タッチセンシティブディスプレイを備えた携帯用デバイスの実施形態に注意を向けよう。図1Aおよび図1Bは、一部の実施形態による、タッチセンシティブディスプレイ112を持つ携帯用多機能デバイス100を示すブロック図である。タッチセンシティブディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることもあり、また、タッチセンシティブディスプレイシステムとして知られ、またはそう呼ばれることもある。デバイス100は、メモリ102(1つ以上のコンピュータ可読記憶媒体を含みうる)と、メモリコントローラ122と、1つ以上の処理ユニット(CPU)120と、周辺装置インタフェース118と、RF回路部108と、音声回路部110と、スピーカ111と、マイク113と、入力/出力(I/O)サブシステム106と、他の入力または制御デバイス116と、外部ポート124とを含んでいてもよい。デバイス100は、1つ以上の光センサ164を含んでいてもよい。これらの構成要素は、1つ以上のコミュニケーションバスまたは信号線103を経て通信してもよい。
[0037]理解されるべきだが、デバイス100は、携帯用多機能デバイスの一例にすぎず、デバイス100は、図示するより構成要素が多いことも少ないこともあり、2つ以上の構成要素を組み合わせることもあり、あるいは、構成要素の別の構成または配置を有することもある。図1Aおよび図1Bに示す各種の構成要素は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの両方の組み合わせとして、1つ以上の信号処理回路および/または特定用途向け集積回路を含めて実装されてもよい。
[0038]メモリ102は、高速ランダムアクセスメモリを含んでいてもよく、また、不揮発性メモリ、例えば1つ以上の磁気ディスクストレージデバイス、フラッシュメモリデバイス、またはその他の不揮発性ソリッドステートメモリデバイスを含んでいてもよい。メモリ102へのデバイス100の他のコンポーネント、例えばCPU120および周辺インタフェース118によるアクセスは、メモリコントローラ122によって制御されてもよい。
[0039]周辺装置インタフェース118を用いて、デバイスの入出力周辺装置をCPU120およびメモリ102に接続することができる。1つ以上のプロセッサ120は、各種のソフトウェアプログラムおよび/またはメモリ102の中に記憶された命令の集合を動作させるかまたは実行して、デバイス100についての各種の機能を行い、データを処理する。
[0040]一部の実施形態では、周辺装置インタフェース118と、CPU120と、メモリコントローラ122とは、例えばチップ104のような単一のチップ上に実装されてもよい。一部の実施形態では、それらは別個のチップ上に実装されてもよい。
[0041]RF(radio frequency)回路部108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路部108は、電気信号を電磁信号に、電磁信号を電気信号に変換し、電磁信号を介して通信ネットワークおよびその他の通信デバイスと通信する。RF回路部108は、アンテナシステムと、RFトランシーバと、1つ以上の増幅器と、チューナと、1つ以上のオシレータと、デジタル信号プロセッサと、CODECチップセットと、SIM(subscriber identity module)カードと、メモリと、等々を含めて、これらの機能を行うための周知の回路部を含んでいてもよいが、それらに限定されない。RF回路部108は、WWW(World Wide Web)とも呼ばれるインターネット、イントラネット、および/または、セルラー電話ネットワーク、ワイヤレスローカルエリアネットワーク(LAN)、および/またはメトロポリタンエリアネットワーク(MAN)のようなワイヤレスネットワーク、のようなネットワークとワイヤレス通信によって通信してもよいし、その他のデバイスとワイヤレス通信によって通信してもよい。ワイヤレス通信は、GSM(Global System for Mobile Communications)、EDGE(Enhanced Data GSM Environment)、HSDPA(high−speed downlink packet access)、W−CDMA(wideband code division multiple access)、CDMA(code division multiple access)、TDMA(time division multiple access)、Bluetooth、Wi−Fi(Wireless Fidelity)(例えばIEEE802.11a、IEEE802.11b、IEEE802.11gおよび/またはIEEE802.11n)、VoIP(voice over Internet Protocol)、Wi−MAX、電子メール用のプロトコル(例えばIMAP(Internet message access protocol)および/またはPOP(post office protocol))、インスタントメッセージング(例えばXMPP(extensible messaging and presence protocol)、SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions)、IMPS(Instant Messaging and Presence Service))、および/または、SMS(Short Message Service)、あるいはいずれかの他の適切な通信プロトコル(本明細書の提出日の時点ではまだ開発されていない通信プロトコルを含む)を含めるがそれらに限定されない、複数の通信標準、プロトコル、および技術のいずれを使用してもよい。
[0042]音声回路部110と、スピーカ111と、マイク113とは、ユーザとデバイス100との間の音声インタフェースを提供する。音声回路部110は、周辺装置インタフェース118から音声データを受信し、音声データを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ11は、電気信号を人間に聞こえる音波に変換する。また、音声回路部110は、音波からマイク113によって変換された電気信号を受信する。音声回路部110は、電気信号を音声データに変換し、音声データを処理するために周辺装置インタフェース118へ送信する。音声データは、周辺装置インタフェース118によって、メモリ102および/またはRF回路部108から取得されるか、および/または、メモリ102および/またはRF回路部108へ送信されてもよい。また、一部の実施形態では、音声回路部110は、ヘッドフォンジャック(例えば図2の212)を含んでいる。ヘッドフォンジャックは、音声回路部110と、例えば出力のみのヘッドフォンや出力(例えば片耳または両耳用のヘッドフォン)と入力(例えばマイク)とを備えたヘッドフォンのような、着脱式音声入力/出力周辺装置との間のインタフェースを提供する。
[0043]I/Oサブシステム106は、デバイス100の入力/出力周辺装置、例えばタッチスクリーン112およびその他の入力制御デバイス116を、周辺装置インタフェース118に接続する。I/Oサブシステム106は、ディスプレイコントローラ156と、その他の入力または制御デバイス用の1つ以上の入力コントローラ160とを含んでいてもよい。1つ以上の入力コントローラ160は、その他の入力または制御デバイス116との間で電気信号の送受信を行う。その他の入力または制御デバイス116には、物理的ボタン(例えばプッシュボタン、ロッカーボタン等)、ダイヤル、スライド式スイッチ、ジョイスティック、クリックホイール等が含まれてもよい。一部の代替的実施形態では、入力コントローラ160は、キーボード、赤外線ポート、USBポート、および例えばマウスのようなポインタデバイスのうちのいずれかに接続されても(あるいは、まったくされなくても)よい。1つ以上のボタン(例えば図2の208)は、スピーカ111および/またはマイク113の音量調節のための上/下ボタンを含んでいてもよい。1つ以上のボタンは、プッシュボタン(例えば図2の206)を含んでいてもよい。すばやくプッシュボタンを押すことにより、タッチスクリーン112のロックをはずすかまたは、デバイスのロックを解除するためにタッチスクリーン上でジェスチャを用いるプロセスを開始してもよく、それについては、2005年12月23日に出願した米国特許出願第11/322,549号「Unlocking a Device by Performing Gestures on an Unlock Image」に記述されており、それをそのまま全部、参照により本願に援用する。プッシュボタン(例えば206)を長めに押すことにより、デバイス100の電源をオンまたはオフにしてもよい。ユーザが、1つ以上のボタンの機能性をカスタマイズすることができてもよい。バーチャルボタンもしくはソフトボタンおよび1つ以上のソフトキーボードを実装するのに、タッチスクリーン112が用いられる。
[0044]タッチセンシティブディスプレイ112は、デバイスとユーザとの間の入力インタフェースおよび出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112との間で電気信号を送受信する。タッチスクリーン112は、視覚的出力をユーザに表示する。視覚的出力は、グラフィックスと、テキストと、アイコンと、ビデオと、それらのいずれかの組み合わせと(集合的に「グラフィックス」と称する)を含んでいてもよい。一部の実施形態では、視覚的出力の一部または全部が、ユーザインタフェースのオブジェクトに対応していてもよい。
[0045]タッチスクリーン112は、タッチセンシティブ表面と、触覚および/または触感による接触に基づいてユーザからの入力を受け入れるセンサまたはセンサの集合とを有する。タッチスクリーン112およびディスプレイコントローラ156は(メモリ102の中のいずれかの関連のモジュールおよび/または命令の集合と共に)、タッチスクリーン112上の接触(および接触の移動または中断)を検出し、検出した接触を、タッチスクリーン112上に表示されるユーザインタフェースオブジェクト(例えば1つ以上のソフトキー、アイコン、ウェブページ、または画像)との対話に変換する。例示的な一実施形態では、タッチスクリーン112とユーザとの間の接点は、ユーザの指に対応する。
[0046]タッチスクリーン112は、LCD(liquid crystal display)技術、LPD(light emitting polymer display)技術、またはLED(light emitting diode)技術を用いてもよいが、他の実施形態では他のディスプレイ技術が用いられてもよい。タッチスクリーン112およびディスプレイコントローラ156は、接触またはいずれかの動作またはその中断を、静電容量、抵抗、赤外線、表面音波だけでなく、タッチスクリーン112との1つ以上の接点を判定するための他の近接センサアレーまたは他の要素も含むけれどもそれらに限定されることなく、現在既知であるか今後開発される複数のタッチセンシング技術のいずれを用いて検出してもよい。例示的な一実施形態では、カリフォルニア州CupertinoのApple Inc.製のiPhone(登録商標)およびiPod Touch(登録商標)にみられるような、投影型相互静電容量センシング技術が用いられている。
[0047]タッチスクリーン112の一部の実施形態におけるタッチセンシティブディスプレイは、米国特許第6,323,846号(Westerman他)、第6,570,557号(Westerman他)、および/または第6,677,932号(Westerman)、および/または米国特許公開第2002/0015024A1のなかに記述されたマルチタッチ・センシティブ・タッチパッドに類似していてもよく、その各々をそのまま全部、参照により本願に援用する。しかし、タッチスクリーン112は、携帯用デバイス100からの視覚的な出力を表示するが、タッチセンシティブタッチパッドは、視覚的な出力を提供しない。
[0048]タッチスクリーン112の一部の実施形態におけるタッチセンシティブディスプレイが、以下の出願の中に記述されたようであってよい。すなわち、(1)2006年5月2日に出願された米国特許出願第11/381,313号「Multipoint Touch Surface Controller」、(2)2004年5月6日に出願された米国特許出願第10/840,862号「Multipoint Touchscreen」、(3)2004年7月30日に出願された米国特許出願第10/903,964号「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日に出願された米国特許出願第11/048,264号「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日に出願された米国特許出願第11/038,590号「Mode−Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日に出願された米国特許出願第11/228,758号「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日に出願された米国特許出願第11/228,700号「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日に出願された米国特許出願第11/228,737号「Activating Virtual Keys Of A Touch−Screen Virtual Keyboard」、および、(9)2006年3月3日に出願された米国特許出願第11/367,749号「Multi−Functional Hand−Held Device」である。これらの出願のすべてを、そのまま全部、参照により本願に援用する。
[0049]タッチスクリーン112は、100dpiを超えるビデオ解像度を有してもよい。一部の実施形態では、タッチスクリーンは、およそ160dpiのビデオ解像度を有する。ユーザは、いずれかの適切なオブジェクトまたは付属物、例えばスタイラス、指等を用いて、タッチスクリーン112に接触してもよい。一部の実施形態では、ユーザインタフェースは、主に指に基づく接触およびジェスチャにより機能するように設計されるが、その場合、指がタッチスクリーン上で接触する面積が広いため、スタイラスに基づく入力ほど正確でないことがありうる。一部の実施形態では、デバイスは、指に基づくおおまかな入力を、正確なポインタ/カーソル位置またはユーザが望んだ動作を行うためのコマンドへと翻訳する。
[0050]一部の実施形態では、タッチスクリーンに加えて、デバイス100は、個別の機能を起動または停止させるための(図示しない)タッチパッドを含んでいてもよい。一部の実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚的出力を表示しない、デバイスのタッチセンシティブエリアである。タッチパッドは、タッチスクリーン112とは別のタッチセンシティブ表面であるかまたは、タッチスクリーンによって形成されるタッチセンシティブ表面の延長であってもよい。
[0051]一部の実施形態では、デバイス100は、物理的またはバーチャルなホイール(例えばクリックホイール)を入力制御デバイス116として含んでいてもよい。ユーザは、クリックホイールを回転させることによってかまたは(例えば、接点の移動量が、クリックホイールの中心点に対するその角変位によって測定される場合)クリックホイールを使って接点を移動させることによって、タッチスクリーン112の中に表示される1つ以上のグラフィカルオブジェクト(例えばアイコン)の間をナビゲートするかまたはそれらと対話してもよい。また、クリックホイールは、1つ以上の表示されたアイコンを選択するのに用いられてもよい。例えば、ユーザがクリックホイールの少なくとも一部分または関連のボタンを押し下げてもよい。クリックホイールを介してユーザによって提供されたユーザコマンドおよびナビゲーションコマンドが、入力コントローラ160だけでなく、メモリ102の中の1つ以上のモジュールおよび/または命令の集合によって処理されてもよい。バーチャルなクリックホイールの場合、クリックホイールとクリックホイールコントローラとはそれぞれ、タッチスクリーン112およびディスプレイコントローラ156の一部であってもよい。バーチャルなクリックホイールの場合、クリックホイールは、デバイスとユーザとの対話に応じてタッチスクリーンディスプレイに現れたり消えたりする不透明または半透明のオブジェクトであってもよい。一部の実施形態では、バーチャルなクリックホイールは、携帯用多機能デバイスのタッチスクリーン上に表示され、ユーザがタッチスクリーンに接触することによって操作される。
[0052]また、デバイス100は、各種の構成要素に電力を供給するための電力系統162を含んでいる。電力系統162は、電力管理システムと、1つ以上の電源(例えばバッテリ、交流電流(AC))と、再充電システムと、電源障害検出回路と、電力コンバータまたは電力インバータと、電力ステータスインジケータ(例えばLED(light−emitting diode))と、携帯用デバイスの中の電力の生成、管理、分配に関連するその他のいずれかの構成要素とを含んでいてもよい。
[0053]また、デバイス100は、1つ以上の光センサ164を含んでいてもよい。図1Aおよび図1Bは、I/Oサブシステム106の中の光センサコントローラ158に接続された光センサを示す。光センサ164は、CCD(charge−coupled device)またはCMOS(complementary metal−oxide semiconductor)フォトトランジスタを含んでいてもよい。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受信して、その光を、画像を表すデータに変換する。イメージングモジュール(カメラモジュールとも呼ばれる)143と連動して、光センサ164は、静止画像またはビデオをキャプチャしてもよい。一部の実施形態では、タッチスクリーンディスプレイが静止画像またはビデオ画像を取得するためのビューファインダとして用いられうるように、光センサが、デバイスの前面にあるタッチスクリーンディスプレイ112の反対側の、デバイス100の背面に位置している。一部の実施形態では、ユーザがテレビ会議の他の参加者をタッチスクリーンディスプレイ上で見ながらユーザの画像がテレビ会議用に取得されうるように、光センサが、デバイスの前面に位置している。一部の実施形態では、単一の光センサ164が、テレビ会議だけでなく静止画像および/またはビデオ画像の取得のためにもタッチスクリーンディスプレイと共に用いられうるように、光センサ164の位置は、ユーザによって(例えば、デバイスのハウジングの中でレンズとセンサとを回転させることによって)変更されうる。
[0054]また、デバイス100は、1つ以上の近接センサ166を含んでいてもよい。図1Aおよび図1Bは、周辺装置インタフェース118に接続された近接センサ166を示す。または、近接センサ166は、I/Oサブシステム106の中の入力コントローラ160に接続されてもよい。近接センサ166は、米国特許出願第11/241,839号「Proximity Detector In Handheld Device」、第11/240,788号「Proximity Detector In Handheld Device」、第11/620,702号「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号「Automated Response To And Sensing Of User Activity In Portable Devices」、および、第11/638,251号「Methods And Systems For Automatic Configuration Of Peripherals」に記述したように動作してもよく、それらをそのまま全部、参照により本願に援用する。一部の実施形態では、近接センサは、多機能デバイスがユーザの耳の近くに置かれた場合に(例えばユーザが電話をかけようとする場合)タッチスクリーン112をオフにして使用不能にする。
[0055]また、デバイス100は、1つ以上の加速度計168を含んでいてもよい。図1Aおよび図1Bは、周辺装置インタフェース118に接続された加速度計168を示す。または、加速度計168は、I/Oサブシステム106の中の入力コントローラ160に接続されてもよい。加速度計168は、米国特許公開第20050190059号「Acceleration−based Theft Detection System for Portable Electronic Devices」および第20060017692号「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」の中に記述されたように動作してもよく、それらを両方共そのまま全部、参照により本願に援用する。一部の実施形態では、情報は、1つ以上の加速度計から受信されたデータの分析に基づいてポートレートビューまたはランドスケープビューとしてタッチスクリーンディスプレイ上に表示される。デバイス100は、任意で、加速度計168に加えて、デバイス100の位置および向き(例えばポートレートまたはランドスケープ)に関する情報を取得するための磁気計(図示せず)とGPS(またはGLONASSまたはその他の全地球的航法システム)受信器(図示せず)とを含んでいる。
[0056]一部の実施形態では、メモリ102の中に記憶されるソフトウェアコンポーネントには、オペレーティングシステム126と、通信モジュール(または命令の集合)128と、接触/動きモジュール(または命令の集合)130と、グラフィックスモジュール(または命令の集合)132と、テキスト入力モジュール(または命令の集合)134と、GPS(Global Positioning System)モジュール(または命令の集合)135と、アプリケーション136(または命令の集合)とが含まれる。さらに、一部の実施形態では、メモリ102は、図1A、図1B、および図3に示すように、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、もしあれば、どのアプリケーションが現在アクティブであるのかを示す、アクティブアプリケーション状態と、どのアプリケーション、ビュー、またはその他の情報が、タッチスクリーンディスプレイ112の各種の領域を占有しているのかを示す表示状態と、デバイスの各種のセンサおよび入力制御デバイス116から取得された情報を含む、センサ状態と、デバイスの位置および/または姿勢に関する位置情報とのうち、1つ以上を含んでいる。
[0057]オペレーティングシステム126(例えば、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、または例えばVx Worksのように内蔵されたオペレーティングシステム)は、一般的なシステムタスクを制御および管理(例えばメモリ管理、ストレージデバイス制御、電力管理等)するための各種のソフトウェアコンポーネントおよび/またはドライバを含んでおり、各種のハードウェアおよびソフトウェアコンポーネント間の通信を円滑化する。
[0058]通信モジュール128は、1つ以上の外部ポート124を経た他のデバイスとの通信を円滑化し、また、RF回路部108および/または外部ポート124によって受信されたデータを処理するための各種のソフトウェアコンポーネントを含んでいる。外部ポート124(例えばUSB(Universal Serial Bus)、FIREWIRE等)は、直接またはネットワーク経由(例えばインターネット、ワイヤレスLAN等)で間接的に、他のデバイスに接続するように構成される。一部の実施形態では、外部ポートは、iPod(Apple Inc.の登録商標)で用いられている30ピンコネクタと同じ、または類似した、および/または互換性のある、マルチピン(例えば30ピン)コネクタである。
[0059]接触/動きモジュール130は、(ディスプレイコントローラ156と連動して)タッチスクリーン112とその他のタッチセンシティブデバイス(例えばタッチパッドまたは物理的クリックホイール)との接触を検出してもよい。接触/動きモジュール130は、例えば接触が行われたかどうかを(例えば指が下がるイベントを検出して)判定することと、接触の移動があるかどうかを(例えば1つ以上の指がドラッグするイベントを検出して)判定してその移動をタッチスクリーン表面全体にわたって追跡することと、接触が中止されたかどうかを(例えば指が上がるイベントまたは接触の中断を検出して)判定することとのような、接触の検出に関連する各種の操作を行うための各種のソフトウェアコンポーネントを含んでいる。接触/動きモジュール130は、タッチセンシティブ表面から接触データを受信する。接点の移動を判定することは、一連の接触データによって表されるのだが、接点の速さ(大小)と、速度(大小および向き)と、および/または加速度(大小および/または向きの変化)とを判定することを含んでもよい。これらの操作は、単一の接触(例えば1本の指の接触)または複数の同時接触(例えば「マルチタッチ」/複数の指の接触)に適用されうる。一部の実施形態では、接触/動きモジュール130およびディスプレイコントローラ156は、タッチパッド上の接触を検出する。一部の実施形態では、接触/動きモジュール130およびコントローラ160は、クリックホイール上の接触を検出する。
[0060]接触/動きモジュール130は、ユーザによるジェスチャ入力を検出してもよい。タッチセンシティブ表面上の多様なジェスチャは、多様な接触パタンを有する。それゆえ、ジェスチャは、個別の接触パタンを検出することによって検出されうる。例えば、指をタップするジェスチャを検出することは、指が下がるイベントを検出し、その後、指が上がる(リフトオフ)イベントを指が下がるイベントと同じ位置(アイコンの位置)で(または実質的に同じ位置で)検出することを含んでいる。別の例として、タッチセンシティブ表面を指でスワイプするジェスチャを検出することは、指が下がるイベントを検出した後に1つ以上の指をドラッグするイベントを検出し、その後、指が上がる(リフトオフ)イベントを検出することを含んでいる。
[0061]グラフィックスモジュール132は、表示されるグラフィックスの輝度を変更するためのコンポーネントを含めて、タッチスクリーン112またはその他のディスプレイ上にグラフィックスをレンダリングして表示するための各種の既知のソフトウェアコンポーネントを含んでいる。本明細書では、「グラフィックス」という用語は、テキストと、ウェブページと、(例えば、ソフトキーを含むユーザインタフェースオブジェクトのような)アイコンと、デジタル画像と、ビデオと、アニメーションとそれに類似したものとを限定することなく含めて、ユーザに表示されうるいかなるオブジェクトをも含んでいる。
[0062]一部の実施形態では、グラフィックスモジュール132は、用いられることになるグラフィックスを表すデータを記憶している。個々の図形は、対応するコードを割り当てられてもよい。グラフィックスモジュール132は、アプリケーション等から、必要に応じて、コーディネートされたデータおよびその他のグラフィックプロパティデータと共に表示されることになるグラフィックスを指定する1つ以上のコードを受信し、次いで、ディスプレイコントローラ156に出力するためのスクリーン画像データを生成する。
[0063]テキスト入力モジュール134は、グラフィックスモジュール132の構成要素であってもよいが、各種のアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、そしてテキスト入力を必要とするいずれかの他のアプリケーション)にテキストを入力するためのソフトキーボードおよび/または他のテキスト入力方法を提供する。
[0064]GPSモジュール135は、デバイスの位置を判定し、この情報を各種のアプリケーションで使用するために(例えば位置特定に基づくダイヤル操作で使用するために電話138に、ピクチャ/ビデオメタデータとしてカメラ143に、例えば天気ウィジェット、ローカル・イエローページ・ウィジェット、地図/航法用ウィジェットのような、位置特定に基づくサービスを提供するアプリケーションに)提供する。
[0065]アプリケーション136は、以下のモジュール(または命令の集合)またはそれらの下位集合または上位集合を含んでいてもよい。
・連絡先モジュール137(アドレス帳またはコンタクトリストと呼ばれることもある)、
・電話モジュール138、
・テレビ会議モジュール139、
・電子メールクライアントモジュール140、
・インスタントメッセージング(IM)モジュール141、
・エクササイズサポートモジュール142、
・静止画像および/またはビデオ画像用のカメラモジュール143
・画像管理モジュール144、
・ビデオプレーヤモジュール145、
・音楽プレーヤモジュール146、
・ブラウザモジュール147、
・カレンダモジュール148、
・天気ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラームクロックウィジェット149−4、辞書ウィジェット149−5、およびユーザによって取得されるその他のウィジェットならびにユーザが作成したウィジェット149−6のうち1つ以上を含みうるウィジェットモジュール149、
・ユーザが作成したウィジェット149−6を作成するためのウィジェットクリエータモジュール150、
・検索モジュール151、
・ビデオプレーヤモジュール145と音楽プレーヤモジュール146とを結合するビデオおよび音楽プレーヤモジュール152、
・メモモジュール153、
・地図モジュール154、および/または、
・オンラインビデオモジュール155。
[0066]メモリ102の中に記憶されうるその他のアプリケーション136の例には、他の文章作成アプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA対応アプリケーション、暗号化、デジタル権利管理、音声認識、および音声複製等が含まれる。
[0067]タッチスクリーン112、ディスプレイコントローラ156、コンタクトモジュール120、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、連絡先モジュール137は、名前をアドレス帳に追加することと、名前をアドレス帳から削除することと、名前に電話番号、電子メールアドレス、物理的アドレスまたはその他の情報を関連付けることと、名前に画像を関連付けることと、名前をカテゴリ化したりソートしたりすることと、電話138、テレビ会議139、電子メール140、またはIM141等によって通信を開始および/または円滑化するため、電話番号または電子メールアドレスを提供すること等を含めて、(例えば、メモリ102またはメモリ370の中の連絡先モジュール137のアプリケーション内部状態192の中に記憶された)アドレス帳またはコンタクトリストを管理するのに用いられてもよい。
[0068]RF回路部108、音声回路部110、スピーカ111、マイク113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、電話番号に対応する文字のシーケンスを入力し、アドレス帳137の中の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、それぞれの電話番号をダイヤルし、会話を行い、そして、会話が完了した時に接続を切るかまたは電話を切るのに電話モジュール138を用いてもよい。上記のように、ワイヤレス通信が、複数の通信標準、プロトコルおよび技術のいずれを用いてもよい。
[0069]RF回路部108、音声回路部110、スピーカ111、マイク113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、連絡先リスト137および電話モジュール138と連動して、テレビ会議モジュール139は、ユーザと1人以上の他の参加者との間でユーザの命令に従ってテレビ会議を開始し、実行し、終了するための実行可能な命令を含んでいる。
[0070]RF回路部108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザの命令に応じて電子メールを作成し、送信し、受信し、管理するための実行可能な命令を含んでいる。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像またはビデオ画像を添えて電子メールを作成して送信することを非常に容易にする。
[0071]RF回路部108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字のシーケンスを入力し、以前に入力した文字を修正し、それぞれのインスタントメッセージを(例えば、電話に基づくインスタントメッセージについてのSMS(Short Message ServiceまたはMMS(Multimedia Message Service)プロトコルを用いてかまたは、インターネットに基づくインスタントメッセージについてのXMPP、SIMPLE、IMPSを用いて)送信し、インスタントメッセージを受信し、そして受信されたインスタントメッセージを見るための実行可能な命令を含んでいる。一部の実施形態では、送信された、および/または、受信されたインスタントメッセージには、MMSおよび/またはEMS(Enhanced Messaging Service)でサポートされるように、グラフィックス、写真、音声ファイル、ビデオファイル、および/または、その他の添付物が含まれてもよい。本明細書では、「インスタントメッセージング」とは、電話に基づくメッセージ(例えばSMSまたはMMSを用いて送信されるメッセージ)とインターネットに基づくメッセージ(例えばXMPP、SIMPLE,またはIMPSを用いて送信されるメッセージ)との両方のことを言う。
[0072]RF回路部108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154および音楽プレーヤモジュールと連動して、エクササイズサポートモジュール142は、エクササイズを(例えば、時間、距離、および/またはカロリー燃焼目標を添えて)作成し、エクササイズセンサ(スポーツデバイス)と通信し、エクササイズセンサデータを受信し、エクササイズを監視するのに用いられるセンサを較正し、エクササイズ用の音楽を選択して演奏し、そして、エクササイズデータを表示・記憶・送信するための実行可能な命令を含んでいる。
[0073]タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックスモジュール132および画像管理モジュール144と連動して、カメラモジュール143は、静止画像またはビデオ(ビデオストリームを含めて)をキャプチャしてそれらをメモリ102の中に記憶し、静止画像またはビデオの特性を修正し、あるいは、静止画像またはビデオをメモリ102から削除するための実行可能な命令を含んでいる。
[0074]タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134およびカメラモジュール143と連動して、画像管理モジュール144は、静止画像および/またはビデオ画像を校正し、修正(例えば編集)し、または他の要領で操作し、ラベルを付け、削除し、(例えばデジタルスライドショーまたはアルバムとして)提示し、そして、記憶するための実行可能な命令を含んでいる。
[0075]タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、音声回路部110およびスピーカ111と連動して、ビデオプレーヤモジュール145は、ビデオを表示し、提示し、またはその他の要領で(例えばタッチスクリーン112上に、または外部ポート124を介して外部の接続されたディスプレイ上に)再生するための実行可能な命令を含んでいる。
[0076]タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、音声回路部110、スピーカ111、RF回路部108、およびブラウザモジュール147と連動して、音楽プレーヤモジュール146は、例えばMP3またはAACファイルのような1つ以上のファイル形式で記憶された、録音された音楽およびその他の音声ファイルをユーザがダウンロードして再生することを可能にする実行可能な命令を含んでいる。一部の実施形態では、デバイス100は、例えばiPod(Apple Inc.の登録商標)のようなMP3プレーヤの機能性を含んでいてもよい。
[0077]RF回路部108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページまたはその部分だけでなくウェブページにリンクされた添付ファイルおよびその他のファイルをも、検索し、それにリンクし、受信し、そして表示することを含めて、ユーザ命令に従ってインターネットを閲覧するための実行可能な命令を含んでいる。
[0078]RF回路部108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140およびブラウザモジュール147と連動して、カレンダモジュール148は、ユーザ命令に従って、カレンダおよびカレンダに関連するデータ(例えばカレンダのエントリ、やることリスト等)を作成し、表示し、修正し、記憶するための実行可能な命令を含んでいる。
[0079]RF回路部108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134およびブラウザモジュール147と連動して、ウィジェットモジュール149は、ユーザによってダウンロードされ、使用されうる(例えば、天気ウィジェット149−1、株式ウィジェット149−2、電卓ウィジェット149−3、アラームクロックウィジェット149−4、および辞書ウィジェット149−5)かまたはユーザによって作成されうる(例えばユーザが作成したウィジェット149−6)ミニアプリケーションである。一部の実施形態では、ウィジェットは、HTML(Hypertext Markup Language)ファイルと、CSS(Cascading Style Sheets)ファイルと、JavaScriptファイルとを含んでいる。一部の実施形態では、ウィジェットは、XML(Extensible Markup Language)ファイルと、JavaScriptファイル(例えばYahoo!Widgets)とを含んでいる。
[0080]RF回路部108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134およびブラウザモジュール147と連動して、ウィジェットクリエータモジュール150が、(例えば、ウェブページのユーザ指定部分をウィジェットに変えて)ウィジェットを作成するためにユーザによって使用されてもよい。
[0081]タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、検索モジュール151は、ユーザの命令による1つ以上の検索基準(例えば1つ以上のユーザ指定の検索語)に合致するテキスト、音楽、音声、画像、ビデオ、および/またはメモリ102の中のその他のファイルを検索するための実行可能な命令を含んでいる。
[0082]タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132およびテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従って、メモ、やることリスト等を作成して管理するための実行可能な命令を含んでいる。
[0083]RF回路部108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、GPSモジュール135およびブラウザモジュール147と連動して、地図モジュール154は、ユーザ命令に従って、地図および地図に関連するデータ(例えば、ドライブの指示、店に関するデータ、および個別の位置またはその近くにおけるその他の観光スポット、およびその他の位置特定に基づくデータ)を受信し、表示し、修正し、そして記憶するために用いられうる。
[0084]タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、音声回路部110、スピーカ111、RF回路部108、テキスト入力モジュール134、電子メールクライアントモジュール140およびブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザがアクセスし、閲覧し、(例えばストリーミングおよび/またはダウンロードによって)受信し、(例えばタッチスクリーン上で、または、外部ポート124を介して接続された外部のディスプレイ上で)再生し、個別のオンラインビデオへのリンクを持つ電子メールを送信し、そして、例えばH.264のような1つ以上のファイル形式のオンラインビデオをその他の要領で管理することを可能にする命令を含んでいる。一部の実施形態では、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141を用いて、個別のオンラインビデオへのリンクを送信する。オンラインビデオアプリケーションの追加記述は、2007年6月20日に出願された米国仮特許出願第60/936,562号「Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos」および2007年12月31日に出願された米国特許出願第11/968,067号「Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos」に記載されており、その内容を全部、参照により本願に援用する。
[0085]上記の識別されたモジュールおよびアプリケーションの各々は、上記の1つ以上の機能と本願に記述する方法(例えば、本明細書で記述したコンピュータに実装された方法と、その他の情報処理方法)とを行うための実行可能な命令の集合に対応する。これらのモジュール(すなわち命令の集合)は、別個のソフトウェア、手順またはモジュールとして実装される必要はなく、それゆえ、各種のこれらのモジュールの部分集合が、各種の実施形態の中で組み合わされたり、その他の要領で再構成されたりしてもよい。例えば、ビデオプレーヤモジュール145は、音楽プレーヤモジュール146と組み合わされて、単一のモジュール(例えば、図1Bのビデオおよび音楽プレーヤモジュール152)にされてもよい。一部の実施形態では、メモリ102は、上記で識別したモジュールおよびデータ構造の部分集合を記憶してもよい。さらに、メモリ102は、上記で記述されていない追加のモジュールおよびデータ構造を記憶してもよい。
[0086]一部の実施形態では、デバイス100は、デバイス上の機能の事前設定された集合の操作が、まったくタッチスクリーンおよび/またはタッチパッドだけを通して行われるようなデバイスである。タッチスクリーンおよび/またはタッチパッドをデバイス100の操作用の主要な入力制御デバイスとして用いることによって、デバイス100上の物理的入力制御デバイス(例えばプッシュボタン、ダイヤル等)の数が削減されうる。
[0087]まったくタッチスクリーンおよび/またはタッチパッドだけを通して行われうる事前設定された機能の集合には、ユーザインタフェース間のナビゲーションが含まれる。一部の実施形態では、ユーザがタッチすると、タッチパッドがデバイス100を、デバイス100上に表示されうるいかなるユーザインタフェースからもメイン、ホーム、またはルートメニューへとナビゲートする。そのような実施形態では、タッチパッドは、「メニューボタン」と呼ばれてもよい。一部のその他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理的なプッシュボタンまたはその他の物理的な入力制御デバイスであってもよい。
[0088]図1Cは、一部の実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。一部の実施形態では、(図1Aおよび図1Bの)メモリ102または(図3の)メモリ370は、(例えばオペレーティングシステム126の中に)イベントソータ170と、それぞれのアプリケーション136−1(例えば前述のアプリケーション137乃至151、155、380乃至390のうちのいずれか)とを含んでいる。
[0089]イベントソータ170は、イベント情報を受信して、アプリケーション136−1と、イベント情報の配信先であるアプリケーション136−1のアプリケーションビュー191とを判定する。イベントソータ170は、イベントモニタ171とイベント発送モジュール174とを含んでいる。一部の実施形態では、アプリケーション136−1は、アプリケーションがアクティブであるか実行中である場合にタッチセンシティブディスプレイ112上に表示される現在のアプリケーションビューを示す、アプリケーション内部状態192を含んでいる。一部の実施形態では、イベントソータ170は、デバイス/グローバル内部状態157を用いて、どのアプリケーションが現在アクティブであるのかを判定し、そして、アプリケーション内部状態192を用いて、イベント情報の配信先であるアプリケーションビュー191を判定する。
[0090]一部の実施形態では、アプリケーション内部状態192は、追加情報として、例えば、アプリケーション136−1が実行を再開する時に用いられることになる再開情報と、アプリケーション136−1によって表示されているかまたは表示される準備ができている情報を示すユーザインタフェース状態情報と、アプリケーション136−1の以前の状態またはビューにユーザが戻ることを可能にするための状態の待ち行列と、ユーザが行った以前の動作のやり直しまたは取り消しの待ち行列とのうちの1つ以上を含んでいる。
[0091]イベントモニタ171は、周辺装置インタフェース118からイベント情報を受信する。イベント情報には、サブイベント(例えば、マルチタッチジェスチャの一部として、タッチセンシティブディスプレイ112上のユーザのタッチ)についての情報が含まれる。周辺装置インタフェース118は、I/Oサブシステム106、または、例えば近接センサ166のようなセンサ、加速度計168、および/または(音声回路部110を通して)マイク113から受信する情報を送信する。周辺装置インタフェース118がI/Oサブシステム106から受信する情報は、タッチセンシティブディスプレイ112またはタッチセンシティブ表面からの情報を含んでいる。
[0092]一部の実施形態では、イベントモニタ171は、所定の間隔で周辺装置インタフェース118に要求を送信する。それに応じて、周辺装置インタフェース118は、イベント情報を送信する。その他の実施形態では、周辺装置インタフェース118は、重大なイベント(例えば、所定の雑音閾値を超える、および/または、所定の持続時間を超える入力を受信すること)がある場合に限って、イベント情報を送信する。
[0093]また、一部の実施形態では、イベントソータ170は、ヒットビュー判定モジュール172および/またはアクティブイベント・レコグナイザ判定モジュール173を含んでいる。
[0094]ヒットビュー判定モジュール172は、タッチセンシティブディスプレイ112が2つ以上のビューを表示した時、サブイベントが1つ以上のビューの中のどこで発生したかを判定するためのソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることのできる制御部およびその他の要素で構成されている。
[0095]アプリケーションに関連するユーザインタフェースのもう1つの態様は、本明細書ではアプリケーションビューまたはユーザインタフェースウィンドウと呼ばれることもあるビューの集合であり、その中で情報が表示され、タッチに基づくジェスチャが行われる。その中でタッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラマチック階層またはビュー階層の中のプログラマチックレベルに対応してもよい。例えば、タッチが検出される最低のレベルのビューは、ヒットビューと呼ばれてもよく、適切な入力として認められるイベントの集合は、タッチに基づくジェスチャを開始する最初のタッチのヒットビューに、少なくとも部分的に、基づいて判定されてもよい。
[0096]ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関する情報を受信する。アプリケーションが、階層として編成された複数のビューを有する場合、ヒットビュー判定モジュール172は、ヒットビューを、サブイベントを処理すべき階層の中の最低のビューとして識別する。ほとんどの状況では、ヒットビューは、最初のサブイベント(すなわち、イベントまたは潜在的イベントを形成するサブイベントのシーケンスの中の最初のサブイベント)が生じる最低レベルのビューである。一旦ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは典型的には、ヒットビューとして識別された同じタッチすなわち入力源に関するすべてのサブイベントを受信する。
[0097]アクティブイベント・レコグナイザ判定モジュール173は、ビューの階層の中でどのビューがサブイベントの個別のシーケンスを受信すべきかを判定する。一部の実施形態では、アクティブイベント・レコグナイザ判定モジュール173は、ヒットビューだけが、サブイベントの個別のシーケンスを受信するべきだと判定する。その他の実施形態では、アクティブイベント・レコグナイザ判定モジュール173は、サブイベントの物理的位置を含むすべてのビューが、アクティブに関わっているビューであると判定し、従って、すべてのアクティブに関わっているビューが、サブイベントの個別のシーケンスを受信すべきだと判定する。その他の実施形態では、たとえタッチサブイベントが、1つの個別のビューに関連するエリアに完全に限定されたとしても、階層の中のより上位のビューは、やはり、アクティブに関わっているビューのままであり続けるだろう。
[0098]イベント発送モジュール174は、イベント情報をイベントレコグナイザ(例えばイベントレコグナイザ180)へ発送する。アクティブイベント・レコグナイザ判定モジュール173を含む実施形態では、イベント発送モジュール174は、アクティブイベント・レコグナイザ判定モジュール173によって判定されたイベントレコグナイザへイベント情報を配信する。一部の実施形態では、イベント発送モジュール174は、それぞれのイベント受信器モジュール182によって取得されたイベント情報を、イベント待ち行列に記憶する。
[0099]一部の実施形態では、オペレーティングシステム126はイベントソータ170を含んでいる。あるいは、アプリケーション136−1がイベントソータ170を含んでいる。別の実施形態では、イベントソータ170は、スタンドアロンモジュールであるかまたは、例えば接触/動きモジュール130のような、メモリ102の中に記憶された別のモジュールの一部である。
[00100]一部の実施形態では、アプリケーション136−1は、複数のイベントハンドラ190と1つ以上のアプリケーションビュー191とを含んでおり、その各々は、アプリケーションのユーザインタフェースのそれぞれのビューの中で生じるタッチイベントを処理するための命令を含んでいる。アプリケーション136−1の個々のアプリケーションビュー191は、1つ以上のイベントレコグナイザ180を含んでいる。典型的には、それぞれのアプリケーションビュー191は、複数のイベントレコグナイザ180を含んでいる。他の実施形態では、1つ以上のイベントレコグナイザ180は、例えばユーザインタフェースキット(図示せず)かまたは、そこからアプリケーション136−1が方法および他のプロパティを継承する高位レベルオブジェクトのような、別個のモジュールの一部である。一部の実施形態では、それぞれのイベントハンドラ190は、データ更新器176と、オブジェクト更新器177と、GUI更新器178と、および/または、イベントソータ170から受信されたイベントデータ179とのうち1つ以上を含んでいる。イベントハンドラ190は、データ更新器176か、オブジェクト更新器177かまたはGUI更新器178を利用するかまたは呼び出して、アプリケーション内部状態192を更新してもよい。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含んでいる。また、一部の実施形態では、データ更新器176と、オブジェクト更新器177と、GUI更新器178とのうち1つ以上が、それぞれのアプリケーションビュー191の中に含まれている。
[00101]それぞれのイベントレコグナイザ180は、イベント情報(例えばイベントデータ179)をイベントソータ170から受信し、そして、イベント情報からイベントを識別する。イベントレコグナイザ180は、イベント受信器182と、イベント比較器184とを含んでいる。また、一部の実施形態では、イベントレコグナイザ180は、メタデータ183と、(サブイベント配信命令を含みうる)イベント配信命令188との少なくとも部分集合を含んでいる。
[00102]イベント受信器182は、イベント情報をイベントソータ170から受信する。イベント情報は、サブイベントについての情報、例えば、タッチまたはタッチの移動を含んでいる。また、サブイベントに依存して、イベント情報は、例えばサブイベントの位置のような、追加情報を含んでいる。また、サブイベントが、タッチの動きに関わる場合、イベント情報は、サブイベントの速度および向きを含んでもよい。一部の実施形態では、イベントは、1つの向きから別の向きへの(例えばポートレートの向きからランドスケープの向きへの、またはその逆の)デバイスの回転を含んでおり、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含んでいる。
[00103]イベント比較器184は、イベント情報を事前設定されたイベントまたはサブイベント定義と比較し、そして、比較に基づいて、イベントもしくはサブイベントを判定するかまたは、イベントもしくはサブイベントの状態を判定または更新する。一部の実施形態では、イベント比較器184は、イベント定義186を含んでいる。イベント定義186は、イベントの定義(例えば、事前設定されたサブイベントのシーケンス)、例えば、イベント1(187−1)、イベント2(187−2)等を含んでいる。一部の実施形態では、イベント187のサブイベントは、例えば、タッチ開始、タッチ終了、タッチ動作、タッチ中止、および複数のタッチを含んでいる。一例では、イベント1(187−1)についての定義は、表示されたオブジェクト上の2回のタップである。2回のタップは、例えば、所定の段階についての表示されたオブジェクト上の第1のタッチ(タッチ開始)と、所定の段階についての第1のリフトオフ(タッチ終了)と、所定の段階についての表示されたオブジェクト上の第2のタッチ(タッチ開始)と、所定の段階についての第2のリフトオフ(タッチ終了)とを含んでいる。別の例では、イベント2(187−2)についての定義は、表示されたオブジェクト上のドラッギングである。ドラッギングは、例えば、所定の段階についての表示されたオブジェクト上のタッチ(または接触)と、タッチセンシティブディスプレイ112を横断するタッチの移動と、タッチのリフトオフ(タッチ終了)とを含んでいる。また、一部の実施形態では、イベントは、1つ以上の関連するイベントハンドラ190についての情報を含んでいる。
[00104]一部の実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含んでいる。一部の実施形態では、イベント比較器184は、どのユーザインタフェースオブジェクトがサブイベントに関連しているかを判定するため、ヒットテストを行う。例えば、3つのユーザインタフェースオブジェクトがタッチセンシティブディスプレイ112上に表示されているアプリケーションウィンドウにおいて、タッチセンシティブディスプレイ112上でタッチが検出された時、イベント比較器184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連しているかを判定するため、ヒットテストを行う。個々の表示されたオブジェクトがそれぞれのイベントハンドラ190に関連付けられると、イベント比較器は、ヒットテストの結果を用いて、どのイベントハンドラ190が起動されるべきかを判定する。例えば、イベント比較器184は、ヒットテストをトリガするサブイベントおよびオブジェクトに関連するイベントハンドラを選択する。
[00105]また、一部の実施形態では、それぞれのイベント187についての定義は、サブイベントのシーケンスがイベントレコグナイザのイベントタイプに対応しているか否かが判定されるまでイベント情報の配信を遅らせる遅延作用を含んでいる。
[00106]それぞれのイベントレコグナイザ180が、一連のサブイベントはイベント定義186の中のいずれのイベントにも合致しないと判定した場合、それぞれのイベントレコグナイザ180は、イベント不可能、イベント失敗、またはイベント終了状態を入力し、その後は、タッチに基づくジェスチャのその後のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブであり続けるその他のイベントレコグナイザは、進行中のタッチに基づくジェスチャのサブイベントの追跡と処理とを続ける。
[00107]一部の実施形態では、それぞれのイベントレコグナイザ183は、構成可能なプロパティと、フラグと、および/または、イベント配信システムがどのようにしてアクティブに関わっているイベントレコグナイザへのサブイベント配信を行うかを示すリストとを備えたメタデータ183を含んでいる。一部の実施形態では、メタデータ183は、構成可能なプロパティと、フラグと、および/または、イベントレコグナイザがどのようにして相互に対話しうるかを示すリストとを含んでいる。一部の実施形態では、メタデータ183は、構成可能なプロパティと、フラグと、および/または、サブイベントがビュー階層またはプログラマチック階層の中の多様なレベルへ配信されるかどうかを示すリストとを含んでいる。
[00108]一部の実施形態では、それぞれのイベントレコグナイザ180は、イベントのうちの1つ以上の個別のサブイベントが認識された場合にイベントに関連するイベントハンドラ190を起動する。一部の実施形態では、それぞれのイベントレコグナイザ180は、イベントに関連するイベント情報をイベントハンドラ190に配信する。イベントハンドラ190を起動することは、サブイベントをそれぞれのヒットビューに送信すること(および送信を延期すること)とは区別される。一部の実施形態では、イベントレコグナイザ180は、認識されたイベントに関連するフラグをスロー(throw)し、そして、フラグに関連するイベントハンドラ190は、フラグをキャッチ(catch)して事前設定されたプロセスを行う。
[00109]一部の実施形態では、イベント配信命令188は、イベントハンドラを起動することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含んでいる。代わりに、サブイベント配信命令は、イベント情報を、一連のイベントハンドラに関連するイベントハンドラに、またはアクティブに関わっているビューに配信する。一連のイベントハンドラにかまたはアクティブに関わっているビューに関連するイベントハンドラは、イベント情報を受信して、所定のプロセスを行う。
[00110]一部の実施形態では、データ更新器176は、アプリケーション136−1で用いられるデータを作成して更新する。例えば、データ更新器176は、連絡先モジュール137の中で用いられる電話番号を更新し、またはビデオプレーヤモジュール145の中で用いられるビデオファイルを記憶する。一部の実施形態では、オブジェクト更新器177は、アプリケーション136−1で用いられるオブジェクトを作成して更新する。例えば、オブジェクト更新器177は、新たなユーザインタフェースオブジェクトを作成するかまたは、ユーザインタフェースオブジェクトの位置を更新する。GUI更新器178は、GUIを更新する。例えば、GUI更新器178は、ディスプレイ情報を準備して、それをグラフィックスモジュール132へ送信してタッチセンシティブディスプレイ上に表示させる。
[00111]一部の実施形態では、イベントハンドラ190は、データ更新器176と、オブジェクト更新器177と、GUI更新器178とを含んでいるかまたはそれらにアクセスする。一部の実施形態では、データ更新器176と、オブジェクト更新器177と、GUI更新器178とは、それぞれのアプリケーション136−1またはアプリケーションビュー191の単一のモジュールの中に含まれている。その他の実施形態では、それらは、2つ以上のソフトウェアモジュールの中に含まれている。
[00112]理解されるべきだが、タッチセンシティブディスプレイ上のユーザのタッチについてのイベント処理に関する前述の議論は、入力デバイスを使って多機能デバイス100を操作するための他の形のユーザ入力にも適用されるのであるが、そのすべてがタッチスクリーン上で開始されるのではなく、例えば、マウスの移動やマウスボタンの押し下げを、1つまたは複数のキーボードの押し下げや保持、タッチパッド上のユーザの移動のタップ、ドラッグ、スクロール等、ペンスタイラス入力、デバイスの動き、口頭の命令、検出された目の動き、バイオメトリック入力、および/またはいずれかのそれらの組み合わせと組み合わせるかまたは組み合わせることなく統合し、それらが、認識されることになるイベントを定義するサブイベントに対応する入力として利用されてもよい。
[00113]図2は、一部の実施形態による、タッチスクリーン112を有する携帯用多機能デバイス100を示す図である。タッチスクリーンは、ユーザインタフェース(UI)200の中に1つ以上のグラフィックスを表示してもよい。本実施形態および以下に記述するその他の実施形態では、ユーザは、例えば1つ以上の指202(図では原寸に比例して描かれてはいない)または1つ以上のスタイラス203(図では原寸に比例して描かれてはいない)を使ってグラフィックスに接触するかまたはタッチすることによって、1つ以上のグラフィックスを選択してもよい。一部の実施形態では、1つ以上のグラフィックスの選択は、ユーザが1つ以上のグラフィックスとの接触を中断する時に行われる。一部の実施形態では、接触には、デバイス100と接触していた指のジェスチャ、例えば1つ以上のタップ、1つ以上のスワイプ(左から右へ、右から左へ、上へおよび/または下へ)および/またはローリング(左から右へ、右から左へ、上へおよび/または下へ)が含まれうる。一部の実施形態では、グラフィックとの不注意な接触は、グラフィックを選択しなくてもよい。例えば、選択に対応するジェスチャがタップである場合、アプリケーションのアイコンをスワイプするジェスチャは、対応するアプリケーションを選択しなくてもよい。
[00114]また、デバイス100は、例えば「ホーム」またはメニューボタン204のような、1つ以上の物理的ボタンを含んでいてもよい。前述したように、メニューボタン204を用いて、デバイス100上で実行されうるアプリケーションの集合の中のいずれかのアプリケーション136へのナビゲートが行われてもよい。あるいは、一部の実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUIの中のソフトキーとして実装される。
[00115]一実施形態では、デバイス100は、タッチスクリーン112と、メニューボタン204と、デバイスの電源をオン/オフにしてデバイスをロックするためのプッシュボタン206と、音声調整ボタン208と、SIM(Subscriber Identity Module)カードスロット210と、ヘッドフォンジャック212と、ドッキング/充電用外部ポート124とを含んでいる。プッシュボタン206を用いて、ボタンを押して事前設定された時間間隔の間ボタンを押された状態に保持することによってデバイスの電源をオン/オフにし、ボタンを押して事前設定された時間間隔が経過する前にボタンを解放することによってデバイスをロックし、および/または、デバイスのロックを解除して、ロック解除プロセスを開始してもよい。また、代替的実施形態では、デバイス100は、マイク113を通して一部の機能の起動または停止のための口頭入力を受け入れてもよい。
[00116]図3Aは、一部の実施形態による、ディスプレイとタッチセンシティブ表面とを備えた例示的な多機能デバイスのブロック図である。デバイス300は携帯用である必要はない。一部の実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、(例えば子供の学習玩具のような)教育デバイス、ゲーミングシステム、または制御デバイス(例えばホームまたは業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク通信インタフェースまたはその他の通信インタフェース360と、メモリ370と、これらの構成要素を相互接続するための1つ以上の通信バス320とを含んでいる。通信バス320は、システムの構成要素間の通信を相互接続して制御する回路部(チップセットと呼ばれることもある)を含んでいてもよい。デバイス300は、典型的にはタッチスクリーンディスプレイであるディスプレイ340を含むI/O(input/output)インタフェース330を含んでいる。また、I/Oインタフェース330は、キーボードおよび/またはマウス(またはその他のポインティングデバイス)350とタッチパッド355とを含んでいてもよい。メモリ370は、高速ランダムアクセスメモリ、例えばDRAM、SRAM、DDR RAMまたはその他のランダムアクセス・ソリッドステート・メモリデバイスを含んでおり、また、不揮発性メモリ、例えば、1つ以上の磁気ディスクストレージデバイス、光学ディスクストレージデバイス、フラッシュメモリデバイス、またはその他の不揮発性ソリッドステート・ストレージデバイスを含んでいてもよい。メモリ370は、任意で、CPU310から離れた位置の1つ以上のストレージデバイスを含んでいてもよい。一部の実施形態では、メモリ370は、携帯用多機能デバイス100(図1)のメモリ102の中に記憶されたプログラム、モジュールおよびデータ構造と類似したプログラム、モジュールおよびデータ構造、またはそのサブセットを記憶している。さらに、メモリ370は、携帯用多機能デバイス100のメモリ102の中に現存しない追加のプログラム、モジュールおよびデータ構造を記憶してもよい。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、および/または、表計算モジュール390を記憶してもよいが、一方で、携帯用多機能デバイス100(図1)のメモリ102は、これらのモジュールを記憶しなくてもよい。
[00117]上記で識別した図3Aの個々の要素は、前述した1つ以上のメモリデバイスの中に記憶されてもよい。上記で識別した個々のモジュールは、上記の機能を行うための命令の集合に対応する。上記で識別したモジュールまたはプログラム(すなわち、命令の集合)は、別個のソフトウェアプログラム、手順またはモジュールとして実装される必要はなく、それゆえ、これらのモジュールの各種の部分集合が、各種の実施形態の中で組み合わされてもよいし、その他の要領で再構成されてもよい。一部の実施形態では、メモリ370は、上記で識別したモジュールおよびデータ構造の部分集合を記憶してもよい。さらに、メモリ370は、上述していない追加のモジュールおよびデータ構造を記憶してもよい。
[00118]電子デバイス300は、キーボード/マウス350およびタッチパッド355を組み込んだI/Oインタフェース330を有する多機能デバイスとして描写されているが、一部の実施形態では、図3Bに示すように、電子デバイス300−1は、キーボード、マウス、または独立したタッチパッドを使用せずにタッチスクリーン112を使用する携帯用電子デバイスである。一部の実施形態では、デバイス300は、タッチスクリーン112を有する携帯用電子デバイスであり、主に携帯用メディアプレーヤとして使用される。
[00119]例えば、携帯用電子デバイス300−1は、この例では共に2インチである幅112−wおよび高さ112−hのタッチスクリーン112を有する。タッチスクリーン112に重ねて示されるユーザの親指399は、タッチスクリーン112の幅112−wまたは高さ112−hの約半分である。
[00120]一部の携帯用メディアプレーヤの実施形態では、タッチスクリーン112は、幅および/または高さに関して2インチまたはそれ以下の物理サイズを持っていてもよい。一部の携帯用メディアプレーヤの実施形態では、タッチスクリーン112は、幅および/または高さに関して600ピクセルまたはそれ以下の画面解像度を持っていてもよい。一部の携帯用メディアプレーヤの実施形態では、タッチスクリーン112は、幅および/または高さに関して900ピクセルまたはそれ以下の画面解像度を持っていてもよい。一部の携帯用メディアプレーヤの実施形態では、タッチスクリーン112は、幅および/または高さに関して1200ピクセルまたはそれ以下の画面解像度を持っていてもよい。
[00121]一部の実施形態では、メモリ370は、上で特定したモジュールおよびデータ構造のサブセットを格納してもよい。一部の携帯用メディアプレーヤの実施形態では、電子デバイス300−1は、より小さい物理デバイスであってもよく、典型的には、上で特定したモジュール、データ構造、およびアプリケーション(これらは、フル機能の携帯用多機能デバイスにおいて使用されるであろうものである)のうちの何らかのものを有さないかもしれない。例えば、タッチスクリーン112を有する携帯用電子デバイス300−1としては、次に列挙するもののうちの1以上のものを有さないかもしれない。電話モジュール138、チャートモジュール144、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、およびディスクオーサリングモジュール388。
[00122]次に、携帯用多機能デバイス100に実装されうるユーザインタフェース(「UI」)の実施形態に注意を向けよう。
[00123]図4Aおよび図4Bは、一部の実施形態による、携帯用多機能デバイス100上のアプリケーションのメニューのための例示的なユーザインタフェースを示す図である。同様のユーザインタフェースがデバイス300上に実装されてもよい。一部の実施形態では、ユーザインタフェース400Aは、以下の要素、またはその部分集合または上位集合を含んでいる。
・例えばセルラーおよびWiFi信号のようなワイヤレス通信用の信号強度指標402、
・時刻404、
・Bluetooth指標405、
・電池状態指標406、
・以下のような頻繁に使用するアプリケーション用のアイコンを備えたトレイ408
・電話138、これは、不在着信もしくはボイスメールメッセージの数の指標414を含んでいてもよい
・電子メールクライアント140、これは未読の電子メールの数の指標410を含んでいてもよい
・ブラウザ147、
・音楽プレーヤ146、および
・その他のアプリケーション用のアイコン、例えば、
・IM141、
・画像管理144、
・カメラ143、
・ビデオプレーヤ145、
・天気149−1、
・株式149−2、
・エクササイズサポート142、
・カレンダ148、
・電卓149−3、
・アラームクロック149−4、
・辞書149−5、および
・ユーザ作成によるウィジェット149−6。
[00124]一部の実施形態では、ユーザインタフェース400Bは、以下の要素、またはそれらの部分集合もしくは上位集合を含んでいる。
・上記の402、404、405、406、141、148、144、143、149−3、149−2、149−1、149−4、410、414、138、140、および147、
・地図154、
・メモ153、
・設定412、これは、以下にさらに述べるように、デバイス100およびその各種のアプリケーション136の設定へのアクセスを提供する
・ビデオおよび音楽プレーヤモジュール152、これは、iPod(Apple Inc.の登録商標)モジュール152とも呼ばれる
・オンラインビデオモジュール155、YouTube(Google Inc.の登録商標)モジュール155とも呼ばれる。
[00125]図4Cは、ディスプレイ450(例えばタッチスクリーンディスプレイ112)とは別のタッチセンシティブ表面451(例えば図3Aのタブレットまたはタッチパッド355)を備えたデバイス(例えば図3Aのデバイス300)上の例示的なユーザインタフェースを示す図である。以下に記す例の多くは、(タッチセンシティブ表面とディスプレイとが組み合わされた)タッチスクリーンディスプレイ112上の入力に言及しながら与えられるであろうが、一部の実施形態では、デバイスは、図4Cに示すように、ディスプレイとは別のタッチセンシティブ表面上の入力を検出する。一部の実施形態では、タッチセンシティブ表面(例えば図4Cの451)は、ディスプレイ(例えば450)上の主軸(例えば図4Cの453)に対応する主軸(例えば図4Cの452)を有する。これらの実施形態によれば、デバイスは、タッチセンシティブ表面451との接触(例えば図4Cの460および462)を、ディスプレイ上のそれぞれの位置に対応する位置で検出する(例えば図4Cでは460は468に対応し、462は470に対応する)。このようにして、タッチセンシティブ表面がディスプレイとは別である場合に、タッチセンシティブ表面(例えば図4Cの451)上でデバイスによって検出されたユーザの入力(例えば接触460および462、およびそれらの動き)が、多機能デバイスのディスプレイ上のユーザインタフェースを操作するためにデバイスによって用いられる。理解されるべきだが、同様の方法が、本明細書で記述されたその他のユーザインタフェースについて用いられてもよい。
[00126]加えて、以下に記す例は、主に指入力(例えば指の接触、指のタップジェスチャ、指のスワイプジェスチャ)に言及しながら与えられるであろうが、理解されるべきだが、一部の実施形態では、1つ以上の指入力が、別の入力デバイスからの入力(例えば、マウスに基づく入力またはスタイラス入力)に置換される。例えば、スワイプジェスチャが、(例えば接触の代わりに)マウスのクリックと置換され、続いて、(例えば接触の移動の代わりに)スワイプのパスに沿ってカーソルの移動が行われてもよい。別の例として、タップジェスチャが、(例えば、接触に続いて接触の中止を検出する代わりに)カーソルがタップジェスチャの位置に位置している間のマウスのクリックと置換されてもよい。同様に、複数のユーザ入力が同時に検出される場合、理解されるべきことだが、複数のコンピュータマウスが同時に使用されてもよいし、あるいは、マウスと指の接触とが同時に用いられてもよい。
[00127]次に、例えばデバイス300、デバイス300−1、または携帯用多機能デバイス100のような、ディスプレイとタッチセンシティブ表面とを持つ多機能デバイスに実装されうるユーザインタフェース(「UI」)および関連のプロセスの実施形態に注意を向けよう。
[00128]図5A乃至5Sは、一部の実施形態によるナビゲート可能な例示的なユーザインタフェース画面を示す図である。これらの図のユーザインタフェースは、図6A乃至6Dの中のプロセスを含めて、以下に記すプロセスを示すのに用いられる。理解されるべきだが、図5A乃至5Sは、原寸に比例して描かれてはいない。
[00129]図5Aは、デバイス300−1のタッチスクリーン112上に表示されるメインメニュー画面502を描いている。メインメニュー画面502は、デバイス300−1のメインメニュー、ホームメニュー、またはルートメニューに対応する。メインメニュー画面502は、デバイス300−1上のアプリケーションおよび/または機能に関連するユーザインタフェース画面へのナビゲーション用の1つ以上のリンク(またはその他のユーザインタフェースオブジェクト、例えばボタン、アイコン等)504を含んでいる。例えば、リンク504は、「歌」リンク504−1、「アルバム」リンク504−2、「アーティスト」リンク504−3、「ジャンル」リンク504−4、「プレイリスト」リンク504−5、「動画」リンク504−6、「写真」リンク504−7、「設定」リンク504−8を含んでいる。リンク504がユーザによって(例えばユーザがリンク504上で或るジェスチャを行うことによって)選択されると、選択されたリンクに対応するユーザインタフェース画面がメインメニュー502の代わりに表示される。含まれうるその他のリンクには、いくつか例を挙げるとすれば、「Podcast」リンク、「FMラジオ」リンク、「ゲーム」リンクなどが含まれるけれども、それらに限定されない。
[00130]また、図5Aは、「歌」リンク504−1上でジェスチャ506(例えばタップジェスチャ)が検出されることも描いており、「歌」リンク504−1が選択される。「歌」リンク504−1上でのジェスチャ506の検出に応じて、デバイス300−1は、図5Bに示すように、メインメニュー画面502の代わりに歌リスト画面508を表示し、デバイス300−1は、メインメニュー画面502から歌リスト画面508へとナビゲートする。「歌」リスト画面508は、デバイス300−1の中に記憶されている音声ファイル(例えば歌)を再生するための1つ以上のリンク510をリストする。例えば、図5Bでは、歌リスト画面508は、「歌1」リンク510−1、「歌2」リンク510−2、「歌3」リンク510−3等を含んでいる。デバイス300−1の中に記憶されている音声ファイルは、アルバム、アーティスト、ジャンル、プレイリスト、またはpodcastショーのうちの1つ以上にグループ化されてもよい。一部の実施形態では、音声ファイルは、音声ファイルに関連するメタデータ(例えば、アーティストメタデータ、アルバムメタデータ等)に基づいてアルバム、アーティスト等にグループ化される。また、歌リスト画面508には「戻る」ボタン507が表示されており、「戻る」ボタン507上でジェスチャ(例えばタップジェスチャ)が検出されるのに応じて直前のユーザインタフェース画面へのナビゲートが行われる。
[00131]歌リンク510が選択されると、選択された歌リンク510に対応する音声ファイルの再生が起動され、メディア再生画面が表示される。図5Bは、「歌1」リンク510−1上でジェスチャ512(例えばタップジェスチャ)が検出されることを示しており、「歌1」リンク510−1が選択される。「歌1」リンク510−1上でのジェスチャ512の検出に応じて、「歌1」の再生が起動され、図5Cに示すように、「歌1」の再生のためのメディア再生画面514が表示される。メディア再生画面514は、再生中の音声ファイル(図5Cの「歌1」)についての情報、歌の中での再生の時間位置、入手可能であれば「歌1」についてのアルバムアート515、再生制御部516(例えば再生/一時停止ボタン、次/前のトラックボタン等)、進行バーおよびスクラバー517を含んでいてもよい。また、メディア再生画面514には「戻る」ボタン507が表示されており、「戻る」ボタン507上でジェスチャ(例えばタップジェスチャ)が検出されるのに応じて直前のユーザインタフェース画面へのナビゲートが行われる。
[00132]図5Aで、ジェスチャ(例えばタップジェスチャ)が「歌」リンク504−1の代わりに「アルバム」リンク504−2上で検出された(すなわち、メインメニュー502の中の「アルバム」リンク504−2が選択された)場合、それに応じて、図5Dに示すように、アルバムリスト画面518が表示され、デバイス300−1は、メインメニュー画面502からアルバムリスト画面518へとナビゲートする。アルバムリスト画面518は、デバイス300−1の中に記憶されている音声ファイルが関連付けられている1つ以上のアルバムへのリンク520を(例えば、音声ファイルに関連するメタデータに基づいて)リストする。例えば、図5Dに、「アルバム」1乃至8へのリンク520−1乃至520−8を示す。アルバムに関連付けられていない音声ファイルのための「雑多(miscellaneous)」リンクまたはそれに類するものと同様に、アルバムのリンクの表示が、デバイス300−1の中の音声ファイルに関連付けられているアルバムに依存して増減されてもよい。また、「戻る」ボタン507が、アルバムリスト画面518にも表示される。
[00133]アルバムリンク520が選択されると、対応するアルバムの中の1つ以上の歌へのリンクが表示される。例えば、図5Dでは、ジェスチャ522(例えばタップジェスチャ)が「アルバム2」リンク520−2上で検出される。「アルバム2」リンク520−2上でのジェスチャ522の検出に応じて、図5Eに示すように、「アルバム2」画面524が表示される。「アルバム2」画面524には、「アルバム2」に関連する音声ファイルへのリンク510が表示される。従って、例えば、「アルバム2」は、「歌」1、4、5、8、9、10、14、17に関連しており、「歌」1、4、5、8、9、10、14、17にそれぞれ対応する歌リンク510−1、510−4、510−5、510−8、510−9、510−10、510−14、510−17が、「アルバム2」画面524に表示される。また、「アルバム2」画面524には「戻る」ボタン507が表示されており、「戻る」ボタン507上でのジェスチャ(例えばタップジェスチャ)の検出に応じて直前のユーザインタフェース画面(この場合、アルバムリスト画面518)へのナビゲートが行われる。歌リンク510が、対応する音声ファイルの再生を起動するために選択されてもよい。例えば、ジェスチャ528が、「歌4」リンク510−4上で検出される。図5Fに示すように、ジェスチャ528の検出に応じて、メディア再生画面514が、「歌4」の再生のために表示される。「歌4」のためのメディア再生画面514は、利用可能であれば、「歌4」のための、アルバムアート515、再生制御部516、進行バーおよびスクラバー517、「戻る」ボタン507を含んでいてもよい。
[00134]図5Aで、「歌」リンク504−1の代わりに「アーティスト」リンク504−3上でジェスチャ(例えばタップジェスチャ)が検出された(すなわち、メインメニュー502の中の「アーティスト」リンク504−3が選択された)場合、それに応じて、図5Gに示すように、アーティストリスト画面530が表示され、デバイス300−1は、メインメニュー502からアーティストリスト画面530へとナビゲートする。アーティストリスト画面530は、デバイス300−1の中に記憶されている音声ファイルが関連している1つ以上のアーティストへのリンク532を(例えば、音声ファイルに関連するメタデータに基づいて)リストする。例えば、図5Gに、「アーティスト」1乃至8へのリンク532−1乃至532−8を示す。アーティストに関連付けられていない音声ファイルのための「雑多(miscellaneous)」リンクまたはそれに類するものと同様に、アーティストのリンクの表示が、デバイス300−1の中の音声ファイルに関連付けられているアーティストに依存して増減されてもよい。「戻る」ボタン507がアルバムリスト画面530にも表示される。
[00135]アーティストリンク532が選択されると、対応するアーティストによる1つ以上の歌へのリンクが表示される。例えば、図5Gでは、ジェスチャ534(例えばタップジェスチャ)が「アーティスト1」リンク532−1上で検出される。「アーティスト1」リンク532−1上でのジェスチャ534の検出に応じて、図5Hに示すように、「アーティスト1」画面536が表示される。「アーティスト1」画面536には、「アーティスト1」に関連する音声ファイルへのリンク510が表示される。従って、例えば、「アーティスト1」は、「歌」1、3、6、7、9、10、14、17に関連しており、「歌」1、3、6、7、9、10、14、17にそれぞれ対応する歌リンク510−1、510−3、510−6、510−7、510−9、510−10、510−14、510−17が、「アーティスト1」画面536に表示される。また、「アーティスト1」画面536には「戻る」ボタン507が表示されており、「戻る」ボタン507上でのジェスチャ(例えばタップジェスチャ)の検出に応じて直前のユーザインタフェース画面(この場合、アーティストリスト画面530)へのナビゲートが行われる。歌リンク510が、対応する音声ファイルの再生を起動するために選択されてもよい。例えば、ジェスチャ540が、「歌3」リンク510−3上で検出される。図5Iに示すように、ジェスチャ540の検出に応じて、メディア再生画面514が、「歌3」の再生のために表示される。「歌3」のためのメディア再生画面514は、利用可能であれば、「歌3」のための、アルバムアート515、再生制御部516、進行バーおよびスクラバー517、「戻る」ボタン507を含んでいてもよい。
[00136]理解されるべきだが、「ジャンル」リンク504−4、「プレイリスト」リンク504−5、(動画ファイルのための)「動画」リンク504−6、(画像のための)「写真」リンク504−7、およびpodcastリンク(図示せず)に続く場合、表示されるユーザインタフェース画面とこれらのユーザインタフェース画面のナビゲーションとは、図5A乃至5Iに関して上記で述べたものと類似している。同様に、「設定」リンク504−8は、デバイス300−1を構成するための、設定の下位カテゴリ別に分類されるユーザインタフェース画面につながる。
[00137]図5Iの場合のように、「歌3」が再生されている間に、「アーティスト1」画面536にナビゲートで戻るために「戻る」ボタン507が選択されてもよく、その間、図5Jに示すように「歌3」は再生され続ける。「歌3」の再生が進行中であることをユーザに気付かせるために「歌3」リンク510−3を用いて「再生中」ラベル541が表示される。
[00138]また、図5Jは、タッチスクリーン112上でジェスチャ542が検出されていることを描いている。ジェスチャ542は、2本指ジェスチャであり、ジェスチャ542は、2つの同時に起こる指接触542−Aおよび542−Bを有していて、スワイプまたはドラッグジェスチャの場合、水平方向に指接触542−Aおよび542−Bの移動543−Aおよび543−Bをそれぞれ含んでいる。ジェスチャ542の検出に応じて、スライドしながら現れたり消えたりするユーザインタフェース画面のアニメーションが表示される。アニメーションの中でスライドしながら現れたり消えたりするように示されるユーザインタフェース画面には、「アーティスト1」画面536からメインメニュー画面502までのユーザインタフェース画面のナビゲーションのシーケンスにおいて、「アーティスト1」画面536とメインメニュー画面502とを含めて、それらの間にあるユーザインタフェース画面が、含まれうる。
[00139]例えば、アニメーションは、図5Kに示すように、矢印544で示される水平方向にスライドしながら消える「アーティスト1」画面536や、スライドしながら現れるアーティストリスト画面530を含んでいてもよい。アニメーションは、図5Lに示すように、アーティストリスト画面530が544の方向にスライドしながら消え、メインメニュー画面502がスライドしながら現れるように続く。アニメーションは、図5Mに示すように、メインメニュー画面502がスライドしながら完全に現れてタッチスクリーン112上に表示されることで終了する。このようにして、ジェスチャ542の検出に応じて、デバイス300−1は、「アーティスト1」画面536の代わりにメインメニュー画面502を表示し、さらに、ユーザに文脈を提供する目的で、「アーティスト1」画面536からメインメニュー画面502へと移行する際にバイパスされたユーザインタフェース画面(例えばアーティストリスト画面530)を示すアニメーションを表示してもよい。
[00140]図5Iの場合のように、「歌3」が依然として再生(または一時停止)されている間に、「アーティスト1」画面536にナビゲートで戻るために「戻る」ボタン507が選択されてもよく、その間、図5Jに示すように「歌3」は再生(または一時停止)され続ける。一部の実施形態では、「歌3」の再生が進行中であることをユーザに気付かせるために「歌3」リンク510−3を用いて「再生中」ラベル541が表示される。図5Nに示すように、「歌3」が再生(または一時停止)され続ける間に「アーティスト1」画面536からアーティストリスト画面530にナビゲートで戻るために、「アーティスト1」画面536上の「戻る」ボタン507が選択されてもよい。
[00141]また、図5Nは、タッチスクリーン112上でジェスチャ546が検出されることを描いている。ジェスチャ546は、2本指ジェスチャであり、ジェスチャ546は、2つの同時に起こる指接触546−Aおよび546−Bを有していて、スワイプまたはドラッグジェスチャの場合、それぞれ指接触546−Aおよび546−Bの水平移動547−Aおよび547−Bを含んでいる。理解されるべきだが、ジェスチャ546は、ジェスチャ542の逆であり、移動543および547は、お互いの反対である。ジェスチャ546の検出に応じて、スライドしながら現れたり消えたりするユーザインタフェース画面のアニメーションが表示される。アニメーションの中でスライドしながら現れたり消えたりするように示されるユーザインタフェース画面には、「歌3」についてのアーティストリスト画面530からメディア再生画面514までのユーザインタフェース画面のナビゲーションのシーケンスにおいて、「歌3」についてのアーティストリスト画面530とメディア再生画面514とを含めて、それらの間にあるユーザインタフェース画面が含まれうる。
[00142]例えば、アニメーションは、図5Oに示すように、矢印548で示される方向にスライドしながら消えるアーティストリスト画面530や、スライドしながら現れる「アーティスト1」画面536を含んでいてもよい。アニメーションは、図5Pに示すように、548の方向に「歌3」についての「アーティスト1」画面536がスライドしながら消え、メディア再生画面514がスライドしながら現れるように続く。アニメーションは、図5Qに示すように、「歌3」についてのメディア再生画面514がスライドしながら完全に現れてタッチスクリーン112上に表示されることで終了する。このようにして、ジェスチャ546の検出に応じて、デバイス300−1は、アーティストリスト画面530の代わりに「歌3」についてのメディア再生画面514を表示し、さらに、「歌3」についてのアーティストリスト画面530からメディア再生画面514へと移行する際にバイパスされたユーザインタフェース画面(例えば「アーティスト1」画面536)を示すアニメーションを表示してもよい。
[00143]上記の例では、現在の画面とメニュー画面502またはメディア再生画面514との間にそれぞれあるユーザインタフェース画面の数に関わらず、2本指ジェスチャ542および546がそれぞれ、メインメニュー画面502またはメディア再生画面514へのナビゲーションを起動する。メインメニュー画面502は、ジェスチャ542を検出するのに応じてデバイスがそこにナビゲートするユーザインタフェース画面として事前設定される。同様に、メディア再生画面514は、ジェスチャ546を検出するのに応じてデバイスがそこにナビゲートするユーザインタフェース画面として事前設定されており、ジェスチャ546はジェスチャ542の逆である。一部の実施形態では、検出されたジェスチャが、代わりに(例えばスワイプジェスチャまたはドラッグジェスチャであっても1本指だけの接触を用いる)1本指ジェスチャであった場合には、代わりに1つのユーザインタフェース画面だけのナビゲーションが起動される。それゆえ、例えば、図5Jでは、検出されたジェスチャが、2本指ジェスチャの代わりに1本指ジェスチャであることを除いてジェスチャ542に似たジェスチャである場合には、アーティストリスト画面530が表示される。図5Kに描かれたアニメーションが表示されてもよいが、アニメ―ションは、さらなるユーザインタフェース画面がスライドしながら消えたり現れたりするのを示し続けるのではなく、アーティストリスト画面530が表示されると共に停止する。別の例として、図5Nでは、検出されたジェスチャが、2本指ジェスチャの代わりに「アーティスト1」532−1に関する1本指ジェスチャであることを除いてジェスチャ546に似たジェスチャである場合には、「アーティスト1」画面536が表示される。図5Oに描かれたアニメーションが表示されてもよいが、アニメ―ションは、さらなるユーザインタフェース画面がスライドしながら消えたり現れたりするのを示し続けるのではなく、「アーティスト1」画面536が表示されると共に停止する。このようにして、これらの1本指ジェスチャは、1つのユーザインタフェース画面だけの後方もしくは前方へのナビゲーションを起動する機能を有し、他方、2本指ジェスチャ542およびその逆のジェスチャ(2本指ジェスチャ546)は、それぞれ事前設定されたユーザインタフェース画面(例えば、それぞれメインメニュー画面502およびメディア再生画面514)へのナビゲーションを起動する機能を有する。
[00144]理解されるべきだが、上記の例は、2本指ジェスチャを、事前設定されたユーザインタフェース画面(例えば、メインメニュー画面502、メディア再生画面514)へのナビゲーションを起動し、1本指ジェスチャを、一度に1つのユーザインタフェース画面(例えば、直前または直後のユーザインタフェース画面)だけのナビゲーションを起動すると記述したけれども、一部の実施形態では、2本指ジェスチャが、一度に1つのユーザインタフェース画面だけのナビゲーションを起動し、1本指ジェスチャが、事前設定されたユーザインタフェース画面へのナビゲーションを起動する。他の一部の実施形態では、事前設定されたユーザインタフェース画面へのナビゲーションを起動するためのジェスチャにおける指の数は、1または2以外の整数、例えば3または4である。さらに、一部の実施形態では、2本指ジェスチャが検出されるタッチスクリーン112上の位置は、無関係である。それゆえ、例えば、図5Jでは、ジェスチャ542は、タッチスクリーン112の上部、中央部、下部のいずれで行われてもよく、結果は同じであり、メインメニュー画面502が、メインメニュー画面502への移行を示すアニメーションと共に表示される。
[00145]図5Rは、タッチスクリーン112上に表示された「歌1」のためのメディア再生画面514を描いており、「歌1」の再生がデバイス300−1上で進行中である。「歌1」のためのメディア再生画面514は、例えば、図5A乃至5Cに描かれているように、メインメニュー画面502から歌リスト画面508へ、さらにメディア再生画面514へのナビゲーションの結果として表示されうる。もう1つの例として、「歌1」のためのメディア再生画面514は、図5A、5D乃至5Eに示すように、メインメニュー画面502からアルバムリスト画面518へ、さらに「アルバム2」画面524へのナビゲーションと、「アルバム2」画面524における「歌1」リンク510−1の選択との結果として表示されうる。別の例として、「歌1」のためのメディア再生画面514は、図5A、5G乃至5Hに示すように、メインメニュー画面502からアーティストリスト画面530へ、さらに「アルバム1」画面536へのナビゲーションと、「アルバム1」画面536における「歌1」リンク510−1の選択との結果として表示されうる。
[00146]また図5Rは、タッチスクリーン112上の指ジェスチャ542の検出も描いている。ジェスチャ542の検出に応じて、図5K乃至5Mに描かれたものに類似したアニメーションが表示され、メディア再生画面514とメインメニュー画面502との間のユーザインタフェース画面が、順次、スライドしながら消えたり現れたりするようにアニメーションが行われ、図5Mの場合のように、メインメニュー画面502が表示されることで終了する。一部の実施形態では、アニメーションの中に表示されるユーザインタフェース画面は、メインメニュー画面502からメディア再生画面514へと到達するためにナビゲーションが経由したユーザインタフェース画面に依存しており、それによってユーザに文脈を提供する。
[00147]図5Sは、歌(例えば、「歌1」等)の再生が進行中である間にタッチスクリーン112上に表示されるメインメニュー画面502を描いている。メインメニュー画面502は、例えば、図5A乃至5Cに描かれているように、メインメニュー画面502から歌リスト画面508へ、さらにメディア再生画面514へのナビゲーションがあり、そして、次いで、再生がアクティブである間に、ユーザが、歌リスト画面508へ、次いでメインメニュー画面502へと(例えば「戻る」ボタン507を用いて)ナビゲートで戻った結果として、歌(例えば「歌1」)が再生されている間に表示されてもよい。もう1つの例として、メディア再生画面514は、図5A、5D乃至5Eに示すように、メインメニュー画面502からアルバムリスト画面518へ、さらに「アルバム2」画面524へのナビゲーションと、「アルバム2」画面524における歌リンク510の選択と、の結果として表示されてもよく、次いで、再生がアクティブである間に、メインメニュー画面502へと(間にある1つ以上のユーザインタフェース画面を経由して)ナビゲートで戻る。別の例として、「歌1」のためのメディア再生画面514は、図5A、5G乃至5Hに示すように、メインメニュー画面502からアーティストリスト画面530へ、さらに「アーティスト1」画面536へのナビゲーションと、「アーティスト1」画面536における歌リンク510の選択と、の結果として表示されてもよく、次いで、再生がアクティブである間に、メインメニュー画面502へと(間にある1つ以上のユーザインタフェース画面を経由して)ナビゲートで戻る。
[00148]また、図5Sは、タッチスクリーン112上の指ジェスチャ546の検出も描いている。ジェスチャ546の検出に応じて、図5O乃至5Qに描かれたものに類似したアニメーションが表示され、メインメニュー画面502とメディア再生画面514との間のユーザインタフェース画面が、順次、スライドしながら消えたり現れたりするようにアニメーションが行われ、図5Qの場合のように、メディア再生画面514が表示されることで終了する。一部の実施形態では、アニメーションの中に表示されるユーザインタフェース画面は、メインメニュー画面502からメディア再生画面514へと到達するためにナビゲーションが経由したユーザインタフェース画面に依存する。
[00149]一部の実施形態では、メインメニュー画面502、メディア再生画面514、および図5A乃至5Sに関して上述したその他のユーザインタフェース画面は、デバイス300−1上のユーザインタフェース画面の(例えば、ツリー型データ構造の場合のような)ナビゲーションによる階層の一部である。メインメニュー画面502は、階層のルートまたはトップレベルにあり、デバイス300−1上のその他のユーザインタフェース画面は、メインメニュー画面502からメインメニュー画面502の中のリンク(例えばリンク510)および階層のさらに下方にあるユーザインタフェース画面の中のリンク(例えば歌リンク510、アルバムリンク520、アーティストリンク532)を経由してナビゲート可能である。
[00150]開始画面から行先画面までのパスまたはナビゲーションのシーケンスに沿った、開始画面と行先画面との間(開始画面と行先画面とを含めない)には、ユーザインタフェース画面が、ゼロであってもよいし、それより多くてもよい。例えば、メインメニュー画面502から「歌1」のためのメディア再生画面514までは、(例えば図5A乃至5Cに示すように)或るパスでは、メインメニュー画面502とメディア再生画面514との間に歌リスト画面508がある。別のパスでは、メインメニュー画面502と「歌1」のためのメディア再生画面514との間にアーティストリスト画面530と「アーティスト1」画面536とがある。
[00151]ジェスチャ542または546を行うことによって、ユーザは、たった1つのジェスチャを用いて、ユーザインタフェース画面のナビゲーション階層の中のどこからでも、メインメニュー画面502または現在再生中の1つのメディアについてのメディア再生画面514へとそれぞれナビゲートしうる。より一般的に言うと、お互いの逆であるジェスチャがそれぞれ、ナビゲーションによる階層の両端にある事前設定されたユーザインタフェース画面(例えば、メインメニュー画面502およびメディア再生画面512のような頻繁にアクセスされる画面)に関連付けられてもよい(例えば、メインメニュー画面502はルートレベルにあり、メディア再生画面512は、典型的にはリーフ(葉)レベルのユーザインタフェース画面である)。いずれかの単一のジェスチャを行うことによって、ユーザは、個々のジェスチャに関連するユーザインタフェース画面へと素早くナビゲートすることができ、階層の中のいずれかの介在するユーザインタフェース画面を経由してナビゲートするためにさらなるジェスチャを行う必要がない。
[00152]図6A乃至6Dは、一部の実施形態による、ユーザインタフェース画面間をナビゲートする方法600を示すフロー図である。方法600は、ディスプレイとタッチセンシティブ表面とを備えた多機能デバイス(例えば、図3Aのデバイス300、図3Bのデバイス300−1、または図1の携帯用多機能デバイス100)で行われる。一部の実施形態では、ディスプレイは、タッチスクリーンであり、タッチセンシティブ表面は、ディスプレイ上にある。一部の実施形態では、ディスプレイは、タッチセンシティブ表面とは別である。方法600の一部の操作が結合されてもよいし、および/または、一部の操作の順序が変更されてもよい。
[00153]以下に記すように、方法600は、例えばホーム画面とメディア再生画面とのような、使用頻度の高い2つのインタフェース画面へとナビゲートするための効率的な方法を提供する。方法は、ユーザインタフェース画面間をナビゲートする場合にユーザにかかる認知上の負担を軽減し、それによって、より効率的なヒューマン・マシン・インタフェースを実現する。電池で動作するコンピューティングデバイスにとって、ユーザがユーザインタフェース画面間をより早くより効率的にナビゲートできるようにすることは、電力を節約し、次回の電池充電までの時間を増加させる。
[00154]デバイスは、典型的には、複数のユーザインタフェース画面を別個に表示するように構成されたタッチセンシティブディスプレイを有する。本書では、「別個に表示される」とは、ユーザインタフェース画面が(2つ以上の画面がアニメーションによる移行として示されうる、ユーザインタフェース画面間の短い移行の間を除いて)ディスプレイ上に1つずつ表示されることを意味する。複数のユーザインタフェース画面には、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とが含まれる。デバイスのユーザは、ユーザインタフェース画面を通してデバイスと対話する。
[00155]デバイスは、複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示し(602)、第3のユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面および第2の事前設定されたユーザインタフェース画面とは異なる。例えば、図5A乃至5Cでは、メインメニュー画面502は、第1の事前設定されたユーザインタフェース画面であり、メディア再生画面514は、第2の事前設定されたユーザインタフェース画面である。図5Bでは、第1または第2の事前設定されたユーザインタフェース画面とは異なる第3のユーザインタフェース画面(歌リスト画面508)が表示される。もう1つの例として、図5Jでは、メインメニュー画面502でもメディア再生画面514でもない「アーティスト1」画面536が表示される。別の例では、図5Nには、メインメニュー画面502でもメディア再生画面514でもないアーティストリスト画面530が表示される。
[00156]一部の実施形態では、第1の事前設定されたユーザインタフェース画面は、ホーム画面(604)、例えばメインメニュー画面またはルートメニュー画面である。一部の実施形態では、ホーム画面は、例えば音楽プレーヤのような単一アプリケーションのためのメイン画面であり、単一のアプリケーションの中にはカテゴリの階層構成がある。一部の実施形態では、ホーム画面は、複数のアプリケーションのためのメイン画面(例えば、ユーザによって選択されうる複数のアプリケーションをリストする画面)である。ホーム画面の一例は、図5Aの中のメインメニュー画面502である。
[00157]一部の実施形態では、第2の事前設定されたユーザインタフェース画面は、メディア再生画面(606)、例えば、現在再生中または選択された1つのメディア(例えば音声、動画)の再生を管理するための再生制御部を備えた「再生中」画面である。また、メディア再生画面は、現在再生中または選択された1つのメディアについての情報を表示してもよい。メディア再生画面の一例は、メディア再生画面514である。
[00158]デバイスは、第3のユーザインタフェース画面を表示している間にタッチセンシティブディスプレイ上で指ジェスチャを検出する(610)。例えば、図5Jでは、「アーティスト1」画面536が表示されている間にジェスチャ542が検出される。もう1つの例として、図5Nでは、アーティストリスト画面530が表示されている間にジェスチャ546が検出される。
[00159]タッチセンシティブディスプレイ上で指ジェスチャを検出するのに応じて、デバイスは、検出された指ジェスチャが第1の指ジェスチャである場合、第3のユーザインタフェース画面の表示を第1の事前設定されたユーザインタフェース画面の表示と置換し(612)、検出された指ジェスチャが第1の指ジェスチャの逆である第2の指ジェスチャである場合、第3のユーザインタフェース画面の表示を第2の事前設定されたユーザインタフェース画面の表示と置換する(614)。例えば、図5J乃至5Mでは、ジェスチャ542の検出に応じて、「アーティスト1」画面536の表示が、メインメニュー画面502の表示と置換される。あるいは、図5N乃至5Qでは、ジェスチャ546の検出に応じて、アーティストリスト画面530の表示が、メディア再生画面514の表示と置換される。理解されるべきだが、ジェスチャ546は、ジェスチャ542の逆であり、ジェスチャ542における移動543−Aおよび543−Bは、ジェスチャ546における移動547−Aおよび543−Bと逆の方向で行われる。
[00160]一部の実施形態では、複数のユーザインタフェース画面が階層的に順序付けられていて、1つ以上のユーザインタフェース画面が、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間にある(608)。デバイス上の複数のユーザインタフェース画面が、ナビゲーションによる階層を形成し、ここでは、階層を経由したユーザインタフェース画面からユーザインタフェース画面へのナビゲーションは、ルートレベル画面(例えばメインメニュー画面502)で開始され、ルートレベルから、1つ以上の下位レベルへと分岐する。第1の事前設定されたユーザインタフェース画面(例えばメインメニュー画面502)から第2の事前設定されたユーザインタフェース画面(1つのメディアのためのメディア再生画面514)まで、階層を経由したナビゲーションによるパスに沿って、第1および第2の事前設定されたユーザインタフェース画面の間には、それらを含めずに、1つ以上のユーザインタフェース画面がある。例えば、図5A乃至5Iでは、メインメニュー画面502は、ユーザインタフェース画面の階層の中のルートレベル画面である。メインメニュー画面502から、個々のリンク510を選択することによって階層の中のさまざまなブランチへとナビゲートすることができる。例えば、図5A乃至5Cには、(「歌」リンク510−1に対応する)「歌」ブランチを経由するメインメニュー画面502から「歌1」のためのメディア再生画面514へのパスを描いている。図5A、5D乃至5Fには、(「アルバム」リンク510−2に対応する)「アルバム」ブランチを経由するメインメニュー画面502から「歌4」のためのメディア再生画面514へのパスを描いている。図5A、5G乃至5Iには、(「アーティスト」リンク510−3に対応する)「アーティスト」ブランチを経由するメインメニュー画面502から「歌3」のためのメディア再生画面514へのパスを描いている。これらの例示するパスの各々において、メインメニュー画面502とメディア再生画面514との間に1つ以上のユーザインタフェース画面(例えば、歌リスト画面508、アルバムリスト画面518、「アルバム2」画面524、アーティストリスト画面530、「アーティスト1」画面536)がある。
[00161]一部の実施形態では、タッチセンシティブディスプレイ上で指ジェスチャを検出するのに応じて、デバイスは、検出された指ジェスチャが第1の指ジェスチャおよび第2の指ジェスチャとは異なる第3の指ジェスチャである場合、第3のユーザインタフェース画面の表示を複数のユーザインタフェース画面の中の第4のユーザインタフェース画面の表示と置換し(616)、第4のユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面および第2の事前設定されたユーザインタフェース画面とは異なる。例えば、一部の実施形態では、図5J乃至5Qに関して上述したように、指接触の数を除いてジェスチャ542または546に似たジェスチャが検出された(例えば、2本の代わりに1本指)場合には、現在表示されているユーザインタフェース画面が、検出されたジェスチャの方向に依存して、直前または直後のユーザインタフェース画面と置換される。他の一部の実施形態では、指接触の数を除いてジェスチャ542または546に似たジェスチャが検出された(例えば、2本の代わりに1本指)場合には、現在表示されているユーザインタフェース画面が、メインメニュー画面502およびメディア再生画面514とは異なる、それぞれの1本指ジェスチャに関連する、事前設定されたユーザインタフェース画面と置換される。さらにまた、一部の実施形態では、さらなるジェスチャ(例えば、垂直方向に上向きの2本指のスワイプジェスチャおよび垂直方向に下向きの2本指スワイプジェスチャ、または同じものの1本指バージョン)が、個々の事前設定されたユーザインタフェース画面に関連付けられ、これらのさらなるジェスチャが、検出されたジェスチャに関連する個々のユーザインタフェース画面への直接のナビゲーションを起動する。例えば、2本指上向きジェスチャが、ジャンルのリストの表示を起動し、2本指下向きジェスチャが(例えば、「アルバム」画面518の場合のように)アルバムのリストの表示を起動してもよい。一部の実施形態では、1本指および2本指ジェスチャにそれぞれ関連する事前設定されたユーザインタフェース画面は、ユーザがカスタマイズすることができる。もう1つの例では、第3の指ジェスチャは、ユーザインタフェースオブジェクト(例えば、「戻る」ボタン507)上に位置するタップジェスチャである。「戻る」ボタン上でのタップジェスチャの検出に応じて、現在表示されているユーザインタフェース画面が、直前のユーザインタフェース画面の表示と置換される。
[00162]一部の実施形態では、複数のユーザインタフェース画面が階層的に順序付けられていて、1つ以上のユーザインタフェース画面が、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間にあり、第4のユーザインタフェース画面が、複数の階層的に順序付けられたユーザインタフェース画面の中の第3のユーザインタフェース画面に階層的に隣接している(618)。一例では、指接触の数を除いて542または546に似たジェスチャが検出される場合(例えば、2本の代わりに1本指)には、現在表示されているユーザインタフェース画面が、検出されたジェスチャの方向に依存して、直前または直後の(すなわち、ユーザインタフェース画面の階層の中で隣接する)ユーザインタフェース画面と置換される。もう1つの例では、「戻る」ボタン507上でタップジェスチャが検出され、それに応じて、現在表示されているユーザインタフェース画面が、直前のユーザインタフェース画面と置換される。
[00163]一部の実施形態では、第3の指ジェスチャは、M本指ジェスチャであり、第1の指ジェスチャと第2の指ジェスチャとは、N本指ジェスチャであり、ここでMは(例えば1から4までの)整数であり、Nは、M以外の(例えば1から4までの)整数である(620)。一部の実施形態では、第3の指ジェスチャは、1本指ジェスチャ(すなわちM=1)であり、第1の指ジェスチャおよび第2の指ジェスチャは2本指ジェスチャ(すなわちN=2)である(622)。上記の例の場合のように、第1および第2の指ジェスチャ(例えば、ジェスチャ542、546)は、特定の数の指接触を有し、第3の指ジェスチャは(例えば、直前または直後のユーザインタフェース画面へナビゲートするためのジェスチャ)、それとは異なる特定の数の指接触を有する。一例では、第1および第2の指ジェスチャ(例えばジェスチャ542および546)は、2本指ジェスチャ(すなわち、各々が2本の指の接触を有する)であり、第3の指ジェスチャは、1本指ジェスチャ(すなわち、1本の指の接触を有する)である。
[00164]一部の実施形態では、第1の指ジェスチャは、第1の方向における2本指のスワイプジェスチャであり、第2の指ジェスチャは、第1の方向と逆の方向における2本指のスワイプジェスチャであり、そして、第3の指ジェスチャは、1本指ジェスチャ(例えばタップジェスチャまたはスワイプジェスチャ)である(624)。一例では、ジェスチャ542(第1の指ジェスチャ)は一方向における2本指のスワイプジェスチャであり、ジェスチャ546(第2の指ジェスチャ)は、逆方向における2本指のスワイプジェスチャであり、隣接するユーザインタフェース画面へナビゲートするためのジェスチャは、1本指のジェスチャ(例えば、ジェスチャ542または546と同じ方向のスワイプジェスチャ、または「戻る」ボタン507上のタップジェスチャ)である。
[00165]一部の実施形態では、第1の指ジェスチャを検出するのに応じて、デバイスは、第3のユーザインタフェース画面から第1の事前設定されたユーザインタフェース画面へと移行する第1のアニメーションを表示する(626)。例えば、第3のユーザインタフェース画面が、スライドしながら消え、ホーム画面がディスプレイ上でスライドしながら現れる。一部の実施形態では、第1のアニメーションは、第3のユーザインタフェース画面と第1の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる(628)。
[00166]一部の実施形態では、第2の指ジェスチャを検出するのに応じて、デバイスは、第3のユーザインタフェース画面から第2の事前設定されたユーザインタフェース画面へと移行する第2のアニメーションを表示する(630)。例えば、第3のユーザインタフェース画面がスライドしながら消え、メディア再生画面がディスプレイ上でスライドしながら現れる。一部の実施形態では、第2のアニメーションは、第3のユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる(632)。
[00167]第1または第2のアニメーションは、第3のユーザインタフェース画面から第1または第2のユーザインタフェース画面へとそれぞれナビゲートする際にバイパスされたユーザインタフェース画面を示してもよい。例えば、図5J乃至5Mでは、「アーティスト1」画面536からメインメニュー画面502、および、それら2つの間のユーザインタフェース画面(例えばアーティストリスト画面530)への移行を示すアニメーションが表示される。もう1つの例として、図5N乃至5Qでは、アーティストリスト画面530からメディア再生画面514、および、それら2つの間のユーザインタフェース画面(例えば「アーティスト1」画面536)への移行を示すアニメーションが表示される。
[00168]一部の実施形態では、第3の指ジェスチャを検出するのに応じて、デバイスは、第3のユーザインタフェース画面から第4のユーザインタフェース画面へと移行する第2のアニメーションを表示する。それゆえ、アニメーションは、たとえ置換されることになるユーザインタフェース画面と置換するユーザインタフェース画面とが階層の中で隣接している場合であっても、表示されてよい。
[00169]一部の実施形態では、デバイスは、第1の事前設定されたユーザインタフェース画面を表示し(634)、第1の事前設定されたユーザインタフェース画面を表示している間にタッチセンシティブディスプレイ上で第2の指ジェスチャを検出し(636)、そして、第1の事前設定されたユーザインタフェース画面を表示している間に第2の指ジェスチャを検出するのに応じて、第1の事前設定されたユーザインタフェース画面の表示を第2の事前設定されたユーザインタフェース画面の表示と置換する(638)。例えば、図5Sでは、メインメニュー画面502が表示されている間にジェスチャ546が検出される。ジェスチャ546の検出に応じて、メインメニュー画面502の表示が、いずれかの現在再生中の1つのメディアについてのメディア再生画面514と置換される(あるいは、一部の実施形態では、現在再生中の1つのメディアが存在しない場合、直前に再生された1つのメディアが表示される)。
[00170]一部の実施形態では、第1の事前設定されたユーザインタフェース画面を表示している間に第2の指ジェスチャを検出するのに応じて、デバイスは、第1の事前設定されたユーザインタフェース画面から第2の事前設定されたユーザインタフェース画面へと移行する第3のアニメーションを表示する(640)。一部の実施形態では、第3のアニメーションは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる(642)。例えば、メインメニュー画面502が表示されている間にジェスチャ546を検出するのに応じて(図5S)、メインメニュー画面502とメディア再生画面514との置換を示す(例えば、ユーザインタフェース画面がスライドしながら消えたり現れたりする)アニメーションが表示される。アニメーションは、メインメニュー画面502とメディア再生画面514との間にある、それら2つの間の階層的なパスに沿ったユーザインタフェース画面(実際のパスに依存して、歌リスト画面508、「アーティスト1」画面536等)を含んでいてもよい。
[00171]一部の実施形態では、第2の事前設定されたユーザインタフェース画面が表示されている時に第2の指ジェスチャが検出された場合、第2の事前設定されたユーザインタフェース画面の代わりに第3の事前設定されたユーザインタフェース画面が表示される。例えば、メディア再生画面514が表示されている時にジェスチャ546が検出された場合、メディア再生画面514の表示は、例えば、現在再生中の歌が属しているアルバムの中の歌のリストの表示と(例えば、「アルバム2」の画面524の場合のように)置換される。一部の実施形態では、第2の事前設定されたユーザインタフェース画面が表示されている時に第2の指ジェスチャが検出された場合、第2の指ジェスチャは無視される。
[00172]一部の実施形態では、デバイスは、第2の事前設定されたユーザインタフェース画面を表示し(644)、第2の事前設定されたユーザインタフェース画面を表示している間にタッチセンシティブディスプレイ上で第1の指ジェスチャを検出し(646)、そして、第2の事前設定されたユーザインタフェース画面を表示している間に第1の指ジェスチャを検出するのに応じて、第2の事前設定されたユーザインタフェース画面の表示を第1の事前設定されたユーザインタフェース画面の表示と置換する(648)。例えば、図5Rでは、メディア再生画面514が表示されている間にジェスチャ542が検出される。ジェスチャ542の検出に応じて、メディア再生画面514の表示がメインメニュー画面520と置換される。
[00173]一部の実施形態では、第1の事前設定されたユーザインタフェース画面が表示されている時に第1の指ジェスチャが検出された場合、第1の事前設定されたユーザインタフェース画面の代わりに第4の事前設定されたユーザインタフェース画面が表示される。例えば、メインメニュー画面502が表示されている時にジェスチャ542が表示された場合、メインメニュー画面502の表示が、例えば、時計を示すユーザインタフェース画面の表示、またはメインメニュー画面502をカスタマイズするためのオプション(例えば、特注の壁紙、設定、等)を示すユーザインタフェース画面の表示と置換される。一部の実施形態では、第1の事前設定されたユーザインタフェース画面が表示されている時に第1の指ジェスチャが検出された場合、ジェスチャは無視される。
[00174]一部の実施形態では、第2の事前設定されたユーザインタフェース画面が表示されている間に第1の指ジェスチャを検出するのに応じて、デバイスは、第2の事前設定されたユーザインタフェース画面から第1の事前設定されたユーザインタフェース画面へと移行する第4のアニメーションを表示する(650)。一部の実施形態では、第4のアニメーションは、第2の事前設定されたユーザインタフェース画面と第1の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる(652)。例えば、メディア再生画面514が表示されている間にジェスチャ542を検出するのに応じて(図5R)、メディア再生画面514とメインメニュー画面502との置換を示すアニメーション(例えば、ユーザインタフェース画面がスライドしながら消えたり現れたりする)が表示される。アニメーションは、メインメニュー画面502とメディア再生画面514との間にある、それら2つの間の階層的なパスに沿ったユーザインタフェース画面(実際のパスに依存して、歌リスト画面508、「アーティスト1」画面536等)を含んでいてもよい。
[00175]一部の実施形態によれば、図7は、上記のような本発明の原理に従って構成された電子デバイス700の機能ブロック図である。デバイスの機能ブロックは、本発明の原理を実行するため、ハードウェア、ソフトウェア、または、ハードウェアとソフトウェアとの組み合わせによって実行されてもよい。当業者なら理解することだが、図7に記述された各機能ブロックは、上記の本発明の原理を実装するため、組み合わされてもよいし、サブブロックへと分けられてもよい。従って、本書の記述は、本書で記述された各機能ブロックのいずれかのありうる組み合わせまたは分離または別の定義をサポートしうる。
[00176]図7に示すように、電子デバイス700が、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含めて複数のユーザインタフェース画面を別個に表示して指ジェスチャを受信するように構成されたタッチセンシティブディスプレイユニット702と、タッチセンシティブディスプレイユニット702に接続している処理ユニット706とを含んでいる。一部の実施形態では、処理ユニット706は、検出ユニット708と、置換ユニット710と、表示有効化ユニット712とを含んでいる。
[00177]処理ユニット706は、複数のユーザインタフェース画面の中で第1の事前設定されたユーザインタフェース画面とも第2の事前設定されたユーザインタフェース画面とも異なる第3のユーザインタフェース画面の表示を有効化し、第3のユーザインタフェース画面を表示している間にタッチセンシティブディスプレイユニット702上で指ジェスチャを(例えば検出ユニット708を使って)検出し、そして、タッチセンシティブディスプレイユニット702上で指ジェスチャを検出するのに応じて、検出された指ジェスチャが第1の指ジェスチャである時には第3のユーザインタフェース画面の表示を第1の事前設定されたユーザインタフェース画面の表示と(例えば置換ユニット710を使って)置換し、そして、検出された指ジェスチャが、第1の指ジェスチャの逆である第2の指ジェスチャである時には第3のユーザインタフェース画面の表示を第2の事前設定されたユーザインタフェース画面の表示と(例えば置換ユニット710を使って)置換するように構成される。
[00178]一部の実施形態では、第1の事前設定されたユーザインタフェース画面は、ホーム画面である。
[00179]一部の実施形態では、第2の事前設定されたユーザインタフェース画面は、メディア再生画面である。
[00180]一部の実施形態では、複数のユーザインタフェース画面が階層的に順序付けられていて、1つ以上のユーザインタフェース画面が、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間にある。
[00181]一部の実施形態では、処理ユニット706は、タッチセンシティブディスプレイユニット702上で指ジェスチャを検出するのに応じて、検出された指ジェスチャが第1の指ジェスチャとも第2の指ジェスチャとも異なる第3の指ジェスチャである場合、第3のユーザインタフェース画面の表示を複数のユーザインタフェース画面の中の第4のユーザインタフェース画面の表示と(例えば置換ユニット710を使って)置換するように構成され、ここで、第4のユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面および第2の事前設定されたユーザインタフェース画面とは異なる。
[00182]一部の実施形態では、複数のユーザインタフェース画面が階層的に順序付けられていて、1つ以上のユーザインタフェース画面が、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間にあり、第4のユーザインタフェース画面が、複数の階層的に順序付けられたユーザインタフェース画面の中の階層的に第3のユーザインタフェース画面に隣接している。
[00183]一部の実施形態では、第3の指ジェスチャはM本指ジェスチャであり、第1の指ジェスチャと第2の指ジェスチャとはN本指ジェスチャであり、ここでMは整数であって、Nは、M以外の整数である。
[00184]一部の実施形態では、第3の指ジェスチャは1本指のジェスチャであり、第1の指ジェスチャと第2の指ジェスチャとは2本指ジェスチャである。
[00185]一部の実施形態では、第1の指ジェスチャは第1の方向における2本指のスワイプジェスチャであり、第2の指ジェスチャは第1の方向と逆の方向における2本指のスワイプジェスチャであり、そして、第3の指ジェスチャは1本指ジェスチャである。
[00186]一部の実施形態では、処理ユニット706は、第1の指ジェスチャを検出するのに応じて、第3のユーザインタフェース画面から第1の事前設定されたユーザインタフェース画面へと移行する第1のアニメーションの表示を(例えば表示有効化ユニット712を使って)可能にし、そして、第2の指ジェスチャを検出するのに応じて、第3のユーザインタフェース画面から第2の事前設定されたユーザインタフェース画面へと移行する第2のアニメーションの表示を(例えば表示有効化ユニット712を使って)可能にするように構成される。
[00187]一部の実施形態では、第1のアニメーションは、第3のユーザインタフェース画面と第1の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでおり、そして第2のアニメーションは、第3のユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる。
[00188]一部の実施形態では、処理ユニット706は、第1の事前設定されたユーザインタフェース画面の表示を(例えば表示有効化ユニット712を使って)可能にし、第1の事前設定されたユーザインタフェース画面を表示している間にタッチセンシティブディスプレイユニット702上で第2の指ジェスチャを(例えば検出ユニット708を使って)検出し、そして、第1の事前設定されたユーザインタフェース画面を表示している間に第2の指ジェスチャを検出するのに応じて、第1の事前設定されたユーザインタフェース画面の表示を第2の事前設定されたユーザインタフェース画面の表示と(例えば置換ユニット710を使って)置換するように構成される。
[00189]一部の実施形態では、処理ユニット706は、第1の事前設定されたユーザインタフェース画面を表示している間に第2の指ジェスチャを検出するのに応じて、第1の事前設定されたユーザインタフェース画面から第2の事前設定されたユーザインタフェース画面へと移行する第3のアニメーションの表示を(例えば表示有効化ユニット712を使って)可能にするように構成される。
[00190]一部の実施形態では、第3のアニメーションは、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる。
[00191]一部の実施形態では、処理ユニット706は、第2の事前設定されたユーザインタフェース画面の表示を(例えば表示有効化ユニット712を使って)可能にし、第2の事前設定されたユーザインタフェース画面を表示している間にタッチセンシティブディスプレイユニット702上の第1の指ジェスチャを(例えば検出ユニット708を使って)検出し、そして、第2の事前設定されたユーザインタフェース画面を表示している間に第1の指ジェスチャを検出するのに応じて、第2の事前設定されたユーザインタフェース画面を第1の事前設定されたユーザインタフェース画面と(例えば置換ユニット710を使って)置換するように構成される。
[00192]一部の実施形態では、処理ユニット706は、第2の事前設定されたユーザインタフェース画面を表示している間に第1の指ジェスチャを検出するのに応じて、第2の事前設定されたユーザインタフェース画面から第1の事前設定されたユーザインタフェース画面へと移行する第4のアニメーションの表示を(例えば表示有効化ユニット712を使って)可能にするように構成される。
[00193]一部の実施形態では、第4のアニメーションは、第2の事前設定されたユーザインタフェース画面と第1の事前設定されたユーザインタフェース画面との間の階層的なパスに沿ったユーザインタフェース画面を含んでいる。
[00194]上記の情報処理方法の中の操作は、汎用プロセッサまたは特定用途チップのような情報処理装置の中の1つ以上の機能モジュールを実行することによって実装されてもよい。(例えば、図1A、1B、3A、3B、7に関して上述した)これらのモジュール、これらのモジュールの組み合わせ、および/または、一般的なハードウェアとそれらとの組み合わせはすべて、本発明の保護の範囲内に含まれる。
[00195]図6A乃至6Dに関して上述した操作は、図1A乃至1Cの中に描いた構成要素によって実装されてもよい。例えば、検出操作610ならびに置換操作612および614は、イベントソータ170、イベントレコグナイザ180、イベントハンドラ190によって実装されてもよい。イベントソータ170の中のイベントモニタ171は、タッチセンシティブディスプレイ112上の接触を検出し、イベント発送モジュール174は、イベント情報をアプリケーション136−1に配信する。アプリケーション136−1の個々のイベントレコグナイザ180は、イベント情報を個々のイベント定義186と比較し、タッチセンシティブ表面上の第1の位置が、例えばユーザインタフェース上のオブジェクトの選択のような、事前設定されたイベントまたはサブイベントに対応するかどうかを判定する。個々の事前設定されたイベントまたはサブイベントが検出されると、イベントレコグナイザ180は、イベントまたはサブイベントの検出に関連するイベントハンドラ190を起動する。イベントハンドラ190は、データ更新器176か、オブジェクト更新器177かまたはGUI更新器178を利用するかまたは呼び出して、アプリケーション内部状態192を更新してもよい。一部の実施形態では、イベントハンドラ190は、アプリケーションによって表示されているものを更新するために個々のGUI更新器178にアクセスする。同様に、他のプロセスが図1A乃至1Cに描かれた構成要素に基づいてどのように実装されうるかは、当業者には明らかであろう。
[00196]説明のための前述の記述は、特定の実施形態に関して記述してきた。しかし、上記の例示的議論は、網羅的であることも、開示されたのと違わぬ形態に本発明を限定することも、意図されていない。上記の教示内容に照らして、多くの修正形態および変形形態が可能である。実施形態は、本発明の原理を最も良く説明し、それによって当業者が本発明と、意図された個別の用途に適した各種の修正を伴う各種の実施形態とを最も良く利用できるようにすることを目的として選ばれ、記述されてきた。

Claims (15)

  1. 携帯用電子デバイスであって、
    単一のアプリケーションの中で複数の階層的に順序付けられているユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイであって、前記複数の階層的に順序付けられているユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含み、前記複数の階層的に順序付けられているユーザインタフェース画面において、1以上のユーザインタフェース画面が、前記第1の事前設定されたユーザインタフェース画面と前記第2の事前設定されたユーザインタフェース画面との間にある、タッチセンシティブディスプレイと、
    1以上のプロセッサと、
    メモリと、
    前記メモリに格納され前記1以上のプロセッサによって実行されるように構成された1以上のプログラムと、
    を備え、
    前記1以上のプログラムは、
    前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示する命令であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令と、
    前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出する命令と、
    前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、
    前記検出された指ジェスチャが第1の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換し、
    前記検出された指ジェスチャが前記第1の方向と逆の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する
    命令と、
    を含む
    ことを特徴とする携帯用電子デバイス。
  2. 前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが1本指のジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記複数のユーザインタフェース画面の中の第4のユーザインタフェース画面の表示で置換する命令であって、前記第4のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令を含む
    ことを特徴とする請求項1に記載の携帯用電子デバイス。
  3. 前記第4のユーザインタフェース画面は、前記複数の階層的に順序付けられたユーザインタフェース画面の中の前記第3のユーザインタフェース画面に階層的に隣接している
    ことを特徴とする請求項に記載の携帯用電子デバイス。
  4. 前記第1の事前設定されたユーザインタフェース画面を表示する命令と、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出する命令と、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第1の事前設定されたユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する命令と、
    を含むことを特徴とする請求項1に記載の携帯用電子デバイス。
  5. 前記第2の事前設定されたユーザインタフェース画面を表示する命令と、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向への前記2本指のスワイプジェスチャを検出する命令と、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第2の事前設定されたユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換する命令と、
    を含むことを特徴とする請求項1に記載の携帯用電子デバイス。
  6. 単一のアプリケーションの中で複数の階層的に順序付けられているユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイであって、前記複数の階層的に順序付けられているユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含み、前記複数の階層的に順序付けられているユーザインタフェース画面において、1以上のユーザインタフェース画面が、前記第1の事前設定されたユーザインタフェース画面と前記第2の事前設定されたユーザインタフェース画面との間にある、タッチセンシティブディスプレイを備える携帯用電子デバイスにおいて、
    前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示するステップであって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、ステップと、
    前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出するステップと、
    前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、
    前記検出された指ジェスチャが第1の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換し、
    前記検出された指ジェスチャが前記第1の方向と逆の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換する
    ステップと、
    を備えることを特徴とする方法。
  7. 前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが1本指のジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記複数のユーザインタフェース画面の中の第4のユーザインタフェース画面の表示で置換するステップであって、前記第4のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、ステップを備える
    ことを特徴とする請求項に記載の方法。
  8. 前記第4のユーザインタフェース画面は、前記複数の階層的に順序付けられたユーザインタフェース画面の中の前記第3のユーザインタフェース画面に階層的に隣接している
    ことを特徴とする請求項に記載の方法。
  9. 前記第1の事前設定されたユーザインタフェース画面を表示するステップと、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出するステップと、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第1の事前設定されたユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換するステップと、
    を備えることを特徴とする請求項に記載の方法。
  10. 前記第2の事前設定されたユーザインタフェース画面を表示するステップと、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向への前記2本指のスワイプジェスチャを検出するステップと、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第2の事前設定されたユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換するステップと、
    を備えることを特徴とする請求項に記載の方法。
  11. 1以上のプログラムを格納したコンピュータ可読記録媒体であって、前記1以上のプログラムは、単一のアプリケーションの中で複数の階層的に順序付けられているユーザインタフェース画面を個別に表示するように構成されたタッチセンシティブディスプレイであって、前記複数の階層的に順序付けられているユーザインタフェース画面は、第1の事前設定されたユーザインタフェース画面と第2の事前設定されたユーザインタフェース画面とを含み、前記複数の階層的に順序付けられているユーザインタフェース画面において、1以上のユーザインタフェース画面が、前記第1の事前設定されたユーザインタフェース画面と前記第2の事前設定されたユーザインタフェース画面との間にある、タッチセンシティブディスプレイを備える携帯用電子デバイスによって実行された場合に、前記携帯用電子デバイスに、
    前記複数のユーザインタフェース画面の中の第3のユーザインタフェース画面を表示させる命令であって、前記第3のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令と、
    前記第3のユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で指ジェスチャを検出させる命令と、
    前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、
    前記検出された指ジェスチャが第1の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換させ、
    前記検出された指ジェスチャが前記第1の方向と逆の方向への2本指のスワイプジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換させる
    命令と、
    を含む
    ことを特徴とするコンピュータ可読記録媒体。
  12. 前記携帯用電子デバイスによって実行された場合に、前記携帯用電子デバイスに、前記タッチセンシティブディスプレイ上で前記指ジェスチャを検出するのに応じて、前記検出された指ジェスチャが1本指のジェスチャである場合、前記第3のユーザインタフェース画面の表示を前記複数のユーザインタフェース画面の中の第4のユーザインタフェース画面の表示で置換させる命令であって、前記第4のユーザインタフェース画面は、前記第1の事前設定されたユーザインタフェース画面及び前記第2の事前設定されたユーザインタフェース画面とは異なる、命令を含む
    ことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  13. 前記第4のユーザインタフェース画面は、前記複数の階層的に順序付けられたユーザインタフェース画面の中の前記第3のユーザインタフェース画面に階層的に隣接している
    ことを特徴とする請求項12に記載のコンピュータ可読記録媒体。
  14. 前記携帯用電子デバイスによって実行された場合に、前記携帯用電子デバイスに、
    前記第1の事前設定されたユーザインタフェース画面を表示させる命令と、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出させる命令と、
    前記第1の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向と逆の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第1の事前設定されたユーザインタフェース画面の表示を前記第2の事前設定されたユーザインタフェース画面の表示で置換させる命令と、
    を含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
  15. 前記携帯用電子デバイスによって実行された場合に、前記携帯用電子デバイスに、
    前記第2の事前設定されたユーザインタフェース画面を表示させる命令と、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記タッチセンシティブディスプレイ上で前記第1の方向への前記2本指のスワイプジェスチャを検出させる命令と、
    前記第2の事前設定されたユーザインタフェース画面を表示している間に前記第1の方向への前記2本指のスワイプジェスチャを検出するのに応じて、前記第2の事前設定されたユーザインタフェース画面の表示を前記第1の事前設定されたユーザインタフェース画面の表示で置換させる命令と、
    を含むことを特徴とする請求項11に記載のコンピュータ可読記録媒体。
JP2013518852A 2010-07-08 2011-07-08 ユーザインタフェース画面のナビゲーションのためのデバイス、方法、およびグラフィカルユーザインタフェース Active JP5669939B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/832,900 US8972903B2 (en) 2010-07-08 2010-07-08 Using gesture to navigate hierarchically ordered user interface screens
US12/832,900 2010-07-08
PCT/US2011/043302 WO2012006494A1 (en) 2010-07-08 2011-07-08 Device, method, and graphical user interface for user interface screen navigation

Publications (2)

Publication Number Publication Date
JP2013535719A JP2013535719A (ja) 2013-09-12
JP5669939B2 true JP5669939B2 (ja) 2015-02-18

Family

ID=44628686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013518852A Active JP5669939B2 (ja) 2010-07-08 2011-07-08 ユーザインタフェース画面のナビゲーションのためのデバイス、方法、およびグラフィカルユーザインタフェース

Country Status (7)

Country Link
US (1) US8972903B2 (ja)
EP (1) EP2591411A1 (ja)
JP (1) JP5669939B2 (ja)
KR (1) KR101548434B1 (ja)
CN (1) CN103069378B (ja)
AU (1) AU2011274519B2 (ja)
WO (1) WO2012006494A1 (ja)

Families Citing this family (159)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101572768B1 (ko) 2007-09-24 2015-11-27 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8572513B2 (en) 2009-03-16 2013-10-29 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8300499B2 (en) 2009-07-14 2012-10-30 Navico, Inc. Linear and circular downscan imaging sonar
US8305840B2 (en) 2009-07-14 2012-11-06 Navico, Inc. Downscan imaging sonar
US9715332B1 (en) 2010-08-26 2017-07-25 Cypress Lake Software, Inc. Methods, systems, and computer program products for navigating between visual components
US8780130B2 (en) 2010-11-30 2014-07-15 Sitting Man, Llc Methods, systems, and computer program products for binding attributes between visual components
US10397639B1 (en) 2010-01-29 2019-08-27 Sitting Man, Llc Hot key systems and methods
JP5199325B2 (ja) * 2010-10-14 2013-05-15 シャープ株式会社 情報入力装置及び画像形成装置
US20120110517A1 (en) * 2010-10-29 2012-05-03 Honeywell International Inc. Method and apparatus for gesture recognition
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
KR101344300B1 (ko) * 2011-01-03 2013-12-23 주식회사 케이티 휴대용 단말 장치의 사용자 인터페이스 제공 방법 및 이를 실행하는 장치
JP5418508B2 (ja) * 2011-01-13 2014-02-19 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
US9015639B2 (en) * 2011-02-11 2015-04-21 Linkedin Corporation Methods and systems for navigating a list with gestures
US8918719B2 (en) * 2011-02-14 2014-12-23 Universal Electronics Inc. Graphical user interface and data transfer methods in a controlling device
KR101250250B1 (ko) * 2011-05-18 2013-04-03 한국과학기술연구원 콘텐츠 표시 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US9329773B2 (en) * 2011-05-19 2016-05-03 International Business Machines Corporation Scalable gesture-based device control
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9202297B1 (en) 2011-07-12 2015-12-01 Domo, Inc. Dynamic expansion of data visualizations
US10001898B1 (en) 2011-07-12 2018-06-19 Domo, Inc. Automated provisioning of relational information for a summary data visualization
US9792017B1 (en) 2011-07-12 2017-10-17 Domo, Inc. Automatic creation of drill paths
US9142206B2 (en) 2011-07-14 2015-09-22 Navico Holding As System for interchangeable mounting options for a sonar transducer
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
JP2013089202A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
US9268848B2 (en) * 2011-11-02 2016-02-23 Microsoft Technology Licensing, Llc Semantic navigation through object collections
US9182486B2 (en) 2011-12-07 2015-11-10 Navico Holding As Sonar rendering systems and associated methods
US9223472B2 (en) * 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9268020B2 (en) 2012-02-10 2016-02-23 Navico Holding As Sonar assembly for reduced interference
WO2013134154A1 (en) * 2012-03-06 2013-09-12 Movado Llc Portable electronic timepiece with touch sensitive user interface
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN104487928B (zh) 2012-05-09 2018-07-06 苹果公司 用于响应于手势而在显示状态之间进行过渡的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN109062488B (zh) 2012-05-09 2022-05-27 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN108287651B (zh) 2012-05-09 2021-04-13 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN109298789B (zh) 2012-05-09 2021-12-31 苹果公司 用于针对激活状态提供反馈的设备、方法和图形用户界面
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
KR101868352B1 (ko) * 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
CN111176516B (zh) 2012-05-18 2023-10-20 苹果公司 用于操纵用户界面的设备、方法和图形用户界面
US20160011773A1 (en) * 2012-06-28 2016-01-14 Xiuzhang Huang User equipment and operation control method therefor
KR102003255B1 (ko) 2012-06-29 2019-07-24 삼성전자 주식회사 다중 입력 처리 방법 및 장치
US9298079B2 (en) 2012-07-06 2016-03-29 Navico Holding As Sonar preview mode
US9348028B2 (en) 2012-07-06 2016-05-24 Navico Holding As Sonar module using multiple receiving elements
US9495065B2 (en) 2012-07-06 2016-11-15 Navico Holding As Cursor assist mode
US9361693B2 (en) 2012-07-06 2016-06-07 Navico Holding As Adjusting parameters of marine electronics data
US9354312B2 (en) 2012-07-06 2016-05-31 Navico Holding As Sonar system using frequency bursts
US9442636B2 (en) 2012-07-06 2016-09-13 Navico Holding As Quick split mode
US9846038B2 (en) 2012-07-06 2017-12-19 Navico Holding As Export user data from defined region
US9182239B2 (en) 2012-11-06 2015-11-10 Navico Holding As Displaying laylines
EP2939088A4 (en) * 2012-12-28 2016-09-07 Nokia Technologies Oy RESPONSE TO USER DEPOSITS
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
JP6138274B2 (ja) 2012-12-29 2017-05-31 アップル インコーポレイテッド ユーザインタフェース階層をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
CN107831991B (zh) 2012-12-29 2020-11-27 苹果公司 用于确定是滚动还是选择内容的设备、方法和图形用户界面
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
TW201432490A (zh) * 2013-02-04 2014-08-16 Hon Hai Prec Ind Co Ltd 電子裝置和用於電子裝置中的解鎖方法
JP2014164355A (ja) * 2013-02-21 2014-09-08 Sharp Corp 入力装置および入力装置の制御方法
CL2013001374E1 (es) * 2013-02-22 2013-12-06 Samsung Electronics Co Ltd Dibujo industrial aplicable a la pantalla de un dispositivo de comunicacion movil, conformado por una porcion horizontal rectangular recta que cercano a uno de sus extremos tiene un circulo con ocho radios exteriores, mas una barra horizontal central delgada con una porcion izquierda pigmentada.
US9875002B2 (en) * 2013-02-26 2018-01-23 Roku, Inc. Method and apparatus for content browsing and selection
TWD172232S (zh) * 2013-03-13 2015-12-01 三星電子股份有限公司 行動通訊裝置之圖形化使用者介面
US9122366B2 (en) 2013-03-15 2015-09-01 Navico Holding As Residue indicators
US20140298256A1 (en) * 2013-04-01 2014-10-02 Egan Schulz Expanding button
KR102115397B1 (ko) * 2013-04-01 2020-05-26 삼성전자주식회사 휴대 장치 및 휴대 장치의 재생목록 표시 방법
USD737833S1 (en) * 2013-06-09 2015-09-01 Apple Inc. Display screen or portion thereof with graphical user interface
US9256358B2 (en) * 2013-06-10 2016-02-09 Adtile Technologies Inc. Multiple panel touch user interface navigation
JP6277626B2 (ja) 2013-08-08 2018-02-14 株式会社リコー 再生システム、再生制御システム、情報端末、表示装置、再生制御プログラム及び再生制御方法
US9909891B2 (en) 2013-08-14 2018-03-06 Navico Holding As Display of routes to be travelled by a marine vessel
WO2015024589A1 (de) * 2013-08-20 2015-02-26 Volkswagen Aktiengesellschaft Bedienverfahren für eine bedien- und anzeigevorrichtung in einem fahrzeug und bedien- und anzeigevorrichtung in einem fahrzeug
US10251382B2 (en) 2013-08-21 2019-04-09 Navico Holding As Wearable device for fishing
US9507562B2 (en) 2013-08-21 2016-11-29 Navico Holding As Using voice recognition for recording events
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
EP3605286B1 (en) 2013-09-03 2021-02-17 Apple Inc. User interface for manipulating user interface objects
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
US10481259B2 (en) 2013-09-13 2019-11-19 Navico Holding As Tracking targets on a sonar image
US10290124B2 (en) 2013-10-09 2019-05-14 Navico Holding As Sonar depth display
US10328344B2 (en) * 2013-10-11 2019-06-25 Valve Corporation Game controller systems and methods
USD752067S1 (en) * 2013-12-03 2016-03-22 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102218906B1 (ko) * 2014-01-17 2021-02-23 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN105359094A (zh) 2014-04-04 2016-02-24 微软技术许可有限责任公司 可扩展应用表示
US10025461B2 (en) * 2014-04-08 2018-07-17 Oath Inc. Gesture input for item selection
US10204096B2 (en) 2014-05-30 2019-02-12 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
CN116301544A (zh) 2014-06-27 2023-06-23 苹果公司 尺寸减小的用户界面
US9720084B2 (en) 2014-07-14 2017-08-01 Navico Holding As Depth display using sonar data
US10082892B2 (en) 2014-09-02 2018-09-25 Apple Inc. Button functionality
WO2016036415A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic message user interface
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
JP6390277B2 (ja) * 2014-09-02 2018-09-19 ソニー株式会社 情報処理装置、制御方法、およびプログラム
CN110072131A (zh) * 2014-09-02 2019-07-30 苹果公司 音乐用户界面
TWI676127B (zh) 2014-09-02 2019-11-01 美商蘋果公司 關於電子郵件使用者介面之方法、系統、電子器件及電腦可讀儲存媒體
US9267804B1 (en) 2014-09-24 2016-02-23 Navico Holding As Forward depth display
US10042538B2 (en) * 2014-11-26 2018-08-07 International Business Machines Corporation Enumeration and modification of cognitive interface elements in an ambient computing environment
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10466883B2 (en) * 2015-03-02 2019-11-05 Apple Inc. Screenreader user interface
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9733823B2 (en) 2015-04-01 2017-08-15 Microsoft Technology Licensing, Llc View activation via hit testing in an asynchronous windowing system
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9829573B2 (en) 2015-07-20 2017-11-28 Navico Holding As Sonar auto depth range
CN106371715B (zh) * 2015-07-23 2020-04-03 腾讯科技(深圳)有限公司 实现多条目切换的方法和装置
US9836129B2 (en) 2015-08-06 2017-12-05 Navico Holding As Using motion sensing for controlling a display
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
KR102469625B1 (ko) * 2015-10-13 2022-11-22 엘지전자 주식회사 디스플레이 디바이스
CN105185176A (zh) * 2015-10-28 2015-12-23 闫健 一种基于信息化教学的无线手持设备
US10151829B2 (en) 2016-02-23 2018-12-11 Navico Holding As Systems and associated methods for producing sonar image overlay
JP6455466B2 (ja) * 2016-03-02 2019-01-23 京セラドキュメントソリューションズ株式会社 表示操作装置およびプログラム
US10983688B2 (en) 2016-06-12 2021-04-20 Apple Inc. Content scrubber bar with real-world time indications
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users
US10460484B2 (en) 2016-06-24 2019-10-29 Navico Holding As Systems and associated methods for route generation and modification
US10948577B2 (en) 2016-08-25 2021-03-16 Navico Holding As Systems and associated methods for generating a fish activity report based on aggregated marine data
US10405034B1 (en) * 2016-11-14 2019-09-03 Cox Communications, Inc. Biometric access to personalized services
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
US10466889B2 (en) * 2017-05-16 2019-11-05 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US11281354B1 (en) * 2017-06-12 2022-03-22 Amazon Technologies, Inc. Digital navigation menu of swipeable cards with dynamic content
US11367425B2 (en) 2017-09-21 2022-06-21 Navico Holding As Sonar transducer with multiple mounting options
JP6951940B2 (ja) * 2017-10-26 2021-10-20 東芝テック株式会社 コンテンツ表示制御装置及びその情報処理プログラム
EP3709143B1 (en) * 2017-11-09 2021-10-20 Rakuten Group, Inc. Display control system, display control method, and program
JP2018101432A (ja) * 2018-01-18 2018-06-28 株式会社リコー 再生システム、情報端末及び再生制御プログラム
CN108646972B (zh) * 2018-05-18 2021-03-05 南京尚网网络科技有限公司 用于显示信息、查找信息的方法和设备
DK179888B1 (en) 2018-09-11 2019-08-27 Apple Inc. CONTENT-BASED TACTICAL OUTPUTS
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
CN113748408A (zh) 2019-05-31 2021-12-03 苹果公司 用于音频媒体控件的用户界面
US10996917B2 (en) 2019-05-31 2021-05-04 Apple Inc. User interfaces for audio media control
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US11455085B2 (en) 2020-03-10 2022-09-27 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US12007512B2 (en) 2020-11-30 2024-06-11 Navico, Inc. Sonar display features
CN115700564B (zh) * 2021-07-22 2024-08-23 荣耀终端有限公司 一种系统空间切换方法、装置和终端设备
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
EP1717684A3 (en) 1998-01-26 2008-01-23 Fingerworks, Inc. Method and apparatus for integrating manual input
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
JP2000155638A (ja) 1998-06-26 2000-06-06 Seiko Epson Corp 携帯型情報処理装置、制御方法および記録媒体
DE19939568C1 (de) 1999-08-20 2001-02-08 Pilz Gmbh & Co Verfahren zur Einstellung einer Datenübertragungsrate in einem Feldbussystem
US7458014B1 (en) 1999-12-07 2008-11-25 Microsoft Corporation Computer user interface architecture wherein both content and user interface are composed of documents with links
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7100121B2 (en) 2001-02-23 2006-08-29 Ascom Hasler Mailing Systems, Inc. Franking system user interface
US7166791B2 (en) 2002-07-30 2007-01-23 Apple Computer, Inc. Graphical user interface and methods of use thereof in a multimedia player
JP4763695B2 (ja) 2004-07-30 2011-08-31 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2007172767A (ja) 2005-12-22 2007-07-05 Kenwood Corp コンテンツ再生装置、制御方法及びプログラム
JP4946057B2 (ja) 2006-01-11 2012-06-06 株式会社Jvcケンウッド 電子機器、制御方法、および、プログラム
US20090278806A1 (en) 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device

Also Published As

Publication number Publication date
CN103069378B (zh) 2017-02-01
CN103069378A (zh) 2013-04-24
AU2011274519B2 (en) 2015-07-23
KR20130036312A (ko) 2013-04-11
KR101548434B1 (ko) 2015-08-28
EP2591411A1 (en) 2013-05-15
WO2012006494A1 (en) 2012-01-12
JP2013535719A (ja) 2013-09-12
AU2011274519A1 (en) 2013-01-31
US8972903B2 (en) 2015-03-03
US20120011437A1 (en) 2012-01-12

Similar Documents

Publication Publication Date Title
US11137898B2 (en) Device, method, and graphical user interface for displaying a plurality of settings controls
JP5669939B2 (ja) ユーザインタフェース画面のナビゲーションのためのデバイス、方法、およびグラフィカルユーザインタフェース
US10891023B2 (en) Device, method and graphical user interface for shifting a user interface between positions on a touch-sensitive display in response to detected inputs
US9626098B2 (en) Device, method, and graphical user interface for copying formatting attributes
US8694902B2 (en) Device, method, and graphical user interface for modifying a multi-column application
JP5658765B2 (ja) 別の装置の表示解像度を持つモードを含む複数のアプリケーション表示モードを有する装置および方法
US10140301B2 (en) Device, method, and graphical user interface for selecting and using sets of media player controls
US9513801B2 (en) Accessing electronic notifications and settings icons with gestures
US8826164B2 (en) Device, method, and graphical user interface for creating a new folder
US9146751B2 (en) Device, method, and graphical user interface for navigation of multiple applications
US8438504B2 (en) Device, method, and graphical user interface for navigating through multiple viewing areas
US8525839B2 (en) Device, method, and graphical user interface for providing digital content products
US8692851B2 (en) Device, method, and graphical user interface with grid transformations during device rotation
US20120023453A1 (en) Device, Method, and Graphical User Interface for Navigating Through a Hierarchy

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140210

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140512

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141216

R150 Certificate of patent or registration of utility model

Ref document number: 5669939

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250