JP2017525011A - 音楽再生中ユーザインターフェース - Google Patents

音楽再生中ユーザインターフェース Download PDF

Info

Publication number
JP2017525011A
JP2017525011A JP2016570347A JP2016570347A JP2017525011A JP 2017525011 A JP2017525011 A JP 2017525011A JP 2016570347 A JP2016570347 A JP 2016570347A JP 2016570347 A JP2016570347 A JP 2016570347A JP 2017525011 A JP2017525011 A JP 2017525011A
Authority
JP
Japan
Prior art keywords
user interface
content item
display
content
content items
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016570347A
Other languages
English (en)
Other versions
JP6367374B2 (ja
Inventor
テイラー ジー キャリガン
テイラー ジー キャリガン
ジョー ハワード
ジョー ハワード
ジョシュア マッグリン
ジョシュア マッグリン
ジョナサン ロックヘッド
ジョナサン ロックヘッド
ベンジャミン ダブリュー ケイラン
ベンジャミン ダブリュー ケイラン
ウィリアム エム バッハマン
ウィリアム エム バッハマン
エルベルト ディー チェン
エルベルト ディー チェン
ジェフリー エル ロビン
ジェフリー エル ロビン
ジェニファー エルシー フォールス
ジェニファー エルシー フォールス
リン クレス
リン クレス
コリー エム ヴェスターホルト
コリー エム ヴェスターホルト
モニカ イー グロメック
モニカ イー グロメック
ポリカルポ ボニーラ ジュニア ウッド
ポリカルポ ボニーラ ジュニア ウッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2017525011A publication Critical patent/JP2017525011A/ja
Application granted granted Critical
Publication of JP6367374B2 publication Critical patent/JP6367374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本発明は電子デバイスに関する。電子デバイスは、ディスプレイでの提示用に、複数のコンテンツアイテム、第1見出し及び第2見出しを含むユーザインターフェースを生成する。ユーザインターフェースがディスプレイに提示される間に、電子デバイスは、複数のコンテンツアイテムをスクロールする入力を受信する。入力に応じて、電子デバイスは複数のコンテンツアイテムをスクロールし、これは、複数のコンテンツアイテムのうちの、現在再生している第1コンテンツアイテムとともに第1見出しをスクロールし、複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに第2見出しをスクロールすることを含む。【選択図】図6A

Description

[関連出願の相互参照]
本出願は、2014年6月24日出願の米国特許仮出願第62/016,600号の利益を主張し、その開示全体が、あらゆる目的で参照により本明細書に組み込まれる。
本開示は、概略、音楽アプリケーション用のユーザインターフェースに関する。
多くの電子デバイスは、閲覧や選択するのに乱雑で直観的ではないユーザインターフェースを提供している。今後行われるアイテムの待ち列、及び最近再生したアイテムの履歴(例えば、アルバム内の歌、プレイリスト、又はストリーミングラジオ)のコンテンツアイテムの中から、きれいにかつシンプルに表示し、ナビゲートする直観的な方法を提供するニーズがある。
多くの電子デバイスは、コンテンツを閲覧や選択するのに乱雑で直観的ではないユーザインターフェースを提供している。今後行われるアイテムの列、及び最近再生したアイテムの履歴(例えば、アルバム内の歌、プレイリスト、又はストリーミングラジオ)のコンテンツアイテムの中から、きれいにかつシンプルに表示し、ナビゲートする直観的な方法を提供するニーズがある。以下に説明する実施形態は、ユーザにとって、消費する種々のコンテンツアイテムをナビゲートし選択するための、速くて、効率的で、便利な方法を提供する。
説明される様々な実施形態のより良好な理解のために、以下の図面と併せて、以下の「実施形態の説明」を参照されたい。図面において、類似の参照番号は、それらの図の全体を通じて対応する部分を指す。
いくつかの実施形態による、タッチ感知ディスプレイを備えた多機能デバイスを示すブロック図である。 いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。 いくつかの実施形態による、タッチスクリーンを備えた多機能デバイスを示す。 いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。 いくつかの実施形態による、ディスプレイとは別個のタッチ感知面を備える多機能デバイスに関する、例示的ユーザインターフェースを示す。 本開示のいくつかの実施形態によるデバイスの例示的な構造のブロック図を示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。 いくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。 いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。 いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。 本開示のいくつかの実施形態による、説明される各種実施形態の原理に従い構成された電子デバイスの機能ブロック図を示す。 本開示のいくつかの実施形態による、説明される各種実施形態の原理に従い構成された電子デバイスの機能ブロック図を示す。
以下の実施例の説明では、その一部を形成し、実施可能な特定の実施例が例示として示される添付図面を参照する。開示された実施例の範囲から逸脱することなく、他の実施例を使用することができ、構造上の変更をすることができる点を理解されたい。
例示的なデバイス
電子デバイス、そのようなデバイス用のユーザインターフェース、及びそのようなデバイスを使用するための関連プロセスの実施形態を説明する。いくつかの実施形態では、このデバイスは、PDA機能及び/又は音楽再生機能などの他の機能をも含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、限定を伴わずに、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含む。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなど他のポータブル電子デバイスも、任意選択的に、使用できる。また、いくつかの実施形態では、このデバイスはポータブル通信デバイスではなく、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたデスクトップコンピュータ又はテレビであることを理解されたい。いくつかの実施形態では、デバイスは、タッチスクリーンディスプレイ及び/又はタッチパッドを備えてなく、逆に、別個のディスプレイデバイスでの表示用の表示情報(本開示のユーザインターフェースなど)を出力すること、及び1つ以上の入力メカニズム(1つ以上のボタン、タッチスクリーンディスプレイ及び/又はタッチパッドなど)を有する別個の入力デバイスから入力情報を受信することが可能である。いくつかの実施形態では、デバイスはディスプレイを有するが、1つ以上の入力メカニズム(1つ以上のボタン、タッチスクリーンディスプレイ及び/又はタッチパッドなど)を有する別個の入力デバイスから入力情報を受信することが可能である。
以下の論考では、ディスプレイ及びタッチ感知面を備える電子デバイスを説明する。しかし、この電子デバイスが、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインターフェースデバイスを任意選択的に含むことを理解されたい。更に、上述のように、説明した電子デバイス、ディスプレイ及びタッチ感知面は、任意選択的に、2つ以上のデバイスに分配される点を理解されたい。したがって、本開示で用いられるとき、電子デバイス上に又は電子デバイスにより表示される情報は、別個のディスプレイデバイス(タッチ感知式又はタッチ感知式ではない)での表示用の、電子デバイスにより出力された情報を説明するために使用される。同様に、本開示で用いられるとき、電子デバイスで受信した入力(例えば、電子デバイスのタッチ感知面で受信したタッチ入力)は、電子デバイスが入力情報を受信する送信元である別個の入力デバイスで受信した入力を説明するために、任意選択的に使用される。
そのデバイスは、一般的に、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、テレビチャンネル閲覧アプリケーション、及び/又はデジタルビデオ再生アプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。
このデバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインターフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能並びにデバイス上に表示される対応する情報は、1つのアプリケーションから次のアプリケーションへ、及び/又はそれぞれのアプリケーションの中で、任意選択的に、調整、及び/又は変更される。この方式で、そのデバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインターフェースを有する様々なアプリケーションを、任意選択的にサポートする。
ここで、タッチ感知ディスプレイを有するポータブルな又はポータブルではないデバイスの実施形態に注意を向けるが、デバイスは通常、上述のようにタッチ感知ディスプレイ又はディスプレイを備えている必要はない。図1Aは、いくつかの実施形態に係る、タッチ感知ディスプレイ112を備えたポータブルかポータブルでない多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、時に便宜上「タッチスクリーン」と称され、タッチ感知ディスプレイシステムとして知られたり、称されたりすることもある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を、任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の強度センサ165を、任意選択的に含む。デバイス100は、デバイス100上で触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上で触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して、任意選択的に通信する。
本明細書及び特許請求の範囲で使用されるとき、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指接触)の力又は圧力(単位面積当りの力)、あるいはタッチ感知面上の接触の力又は圧力の代替物(代用物)を指す。接触の強度は、少なくとも4つの異なる数値を含み、より典型的には、数百以上の異なる数値(例えば、少なくとも256)を含む、数値の範囲を有する。接触の強度は、様々な方法及び様々なセンサ、又はセンサの組み合わせを使用して、任意選択的に、判定(又は、測定)される。例えば、タッチ感知面の下に又は隣接して配置された1つ以上のセンサは、タッチ感知面上の様々な点における力を測定するために、任意選択的に用いられる。いくつかの実装において、複数の力センサの力測定値を組み合わせて(例えば、加重平均)、接触の推定の力を判定する。同様に、スタイラスの感圧性先端部を任意選択的に使用して、タッチ感知面上のスタイラスの圧力を判定する。別の方法としては、タッチ感知面上で検出される接触領域のサイズ及び/若しくはその変化、接触に近接するタッチ感知面の静電容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化が、タッチ感知面上の接触の力又は圧力の代用物として、任意選択的に用いられる。いくつかの実施形態では、接触の力又は圧力の代替的測定値は、強度閾値を超えているかを判定するために直接用いられる(例えば、強度閾値は、代替的測定値に対応する単位で記述される)。いくつかの実施形態では、接触の力又は圧力の代替的測定値は、推定される力又は圧力に変換され、この推定される力又は圧力を用いて、強度閾値を超えているか判定される(例えば、強度閾値は、圧力の単位で測定された圧力閾値である)。
本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性の認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない時でさえ、タッチ感知面の「粗さ」としてユーザによって、任意選択的に、解釈又は感じられる。このようなユーザによるタッチの解釈は、ユーザの個別の感覚認知によるが、大多数のユーザに共通したタッチの感覚認知が数多くある。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブルな又はポータブルではない多機能デバイスの一実施例に過ぎず、デバイス100は、示されるものよりも多いか又は少ない構成要素を任意選択的に有するか、2つ以上の構成要素を任意選択的に組み合わせるか、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示される様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの双方の組み合わせの形態で実装される。更に、図1Aに示す様々な構成要素は、任意選択的に、例えば、ディスプレイとディスプレイデバイス上のオーディオ回路、入力デバイス上のタッチ感知面、及びデバイス100上の残りの構成要素など、2つ以上のデバイスにまたがって実装される。このような実施形態では、デバイス100は、ディスプレイデバイス及び/又は入力デバイスと任意選択的に通信して、本開示で説明するように、システムの動作を容易にし、表示又は入力に関する本明細書で説明する様々な構成要素は、デバイス100に残り、又は、適宜、ディスプレイ及び/又は入力デバイスに任意選択的に含まれる。
メモリ102は、任意選択的に高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体メモリデバイスなどの、不揮発性メモリも含む。CPU120及び周辺機器インターフェース118などの、デバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により、任意選択的に制御される。
周辺機器インターフェース118を使用して、このデバイスの入力及び出力周辺機器を、CPU120及びメモリ102に連結することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータ処理を行うために、メモリ102に記憶された様々なソフトウェアプログラム及び/若しくは命令セットを走らせたり、又は実行したりする。
いくつかの実施形態では、周辺機器インターフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態において、これらは、個別のチップ上に、任意選択的に実装される。
RF(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むがこれらに限定されない、上記の機能を実行するための周知の回路を、任意選択的に含む。RF回路108は、インターネット情報検索システム(WWW)とも呼ばれるインターネットなどのネットワーク、セルラー電話ネットワークなどのイントラネット及び/又は無線ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、及び他のデバイスと無線通信によって、任意選択的に通信する。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data−Only(EV−DO)、HSPA、HSPA+、2重セルHSPA(DC−HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又はショートメッセージサービス(SMS)、あるいは本文書の出願日現在までに未だ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118から音声データを受信し、音声データを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110は、マイクロフォン113により音波から変換された電気信号も受信する。オーディオ回路110は、電気信号を音声データに変換し、処理するために音声データを周辺機器インターフェース118に送出する。音声データは、周辺機器インターフェース118によって任意選択的に、メモリ102及び/若しくはRF回路108から取り込まれ、並びに/又はメモリ102及び/若しくはRF回路108へ送出される。いくつかの実施形態では、オーディオ回路110は更にヘッドセットジャック(例えば、図2の212)を備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインターフェースを提供する。
I/Oサブシステム106は、周辺機器インターフェース118に、タッチスクリーン112及び他の入力制御デバイス116などのデバイス100の入出力周辺機器を連結する。I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御デバイス用の1つ以上の入力コントローラ160を任意選択的に含む。1つ以上の入力コントローラ160は、その他の入力又は制御デバイス116から/へ電気信号を受信/送信する。他の入力制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダースイッチ、ジョイスティック、クリックホイールなどを、任意選択的に含む。いくつかの代替的実施形態において、入力コントローラ(1つ又は複数)160は、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに、任意選択的に連結される(又は、いずれにも連結されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを、任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を、任意選択的に含む。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インターフェース及び出力インターフェースを提供する。上述のように、タッチ感知ディスプレイ112のタッチ感知動作及び表示動作は、任意選択的に、互いに別個であり、ディスプレイデバイスは、表示目的で使用され、タッチ感知面(ディスプレイでもそうでなくても)は、入力検出目的で使用され、説明された構成要素及び機能は適宜変更される。しかしながら、簡単にするために、タッチ感知ディスプレイで以下説明する。ディスプレイコントローラ156は、タッチスクリーン112から/へ電気信号を受信し及び/又は送信する。タッチスクリーン112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、映像、及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を、任意選択的に、含む。いくつかの実施形態では、視覚出力の一部又は全ては、ユーザインターフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/若しくは触感の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有している。タッチスクリーン112及びディスプレイコントローラ156(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)は、タッチスクリーン112上で接触(及び任意の動作又は接触の中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。ある例示的な実施形態では、タッチスクリーン112とユーザとの間の接触は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチスクリーン112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面超音波技術、並びに、タッチスクリーン112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。ある例示的な実施形態では、California州CupertinoのAppleInc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影された相互キャパシタンス検知技術が使用されている。
タッチスクリーン112は、任意選択的に、100dpiを超える映像解像度を有する。いくつかの実施形態において、タッチスクリーンは約160dpiの映像解像度を有する。ユーザは、スタイラス、指などの任意の好適なオブジェクト又は付属器を使用して、タッチスクリーン112と、任意選択的に接触する。いくつかの実施形態では、ユーザインターフェースは、主として指に基づく接触及びジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いことにより、スタイラスに基づく入力よりも精度が低いことがある。いくつかの実施形態において、デバイスは、粗い指に基づく入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化させるためのタッチパッド(図示せず)を、任意選択的に含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112とは別個のタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
デバイス100はまた、様々な構成要素に電力を供給するための電力システム162をも含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態標識(例えば、発光ダイオード(LED))、並びにポータブルな又はポータブルではないデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
デバイス100はまた、1つ以上の光センサ164をも、任意選択的に含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に含む。光センサ164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ164は、静止画像又は映像を、任意選択的にキャプチャする。いくつかの実施形態において、タッチスクリーンディスプレイを静止画像及び/又は映像取得のためのビューファインダとして有効化されるように、光センサは、デバイスの前面のタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。いくつかの実施形態において、ユーザがタッチスクリーンディスプレイ上で他のビデオ会議参加者を見ている間に、ユーザの画像を、ビデオ会議のために、任意選択的に、得るように、別の光センサがデバイスの前面に配置される。
デバイス100はまた、1つ以上の接触強度センサ165をも任意選択的に含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、静電容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のプロキシ)を受信する。いくつかの実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に併置されているか、又は近接している。いくつかの実施形態において、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
デバイス100は、1つ以上の近接センサ166をも、任意選択的に含む。図1Aは、近接センサ166を周辺機器インターフェース118と連結されて示す。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に連結される。いくつかの実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサがオフになり、タッチスクリーン112が無効になる。
デバイス100はまた、1つ以上の触知出力生成器167をも任意選択的に含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された、触知出力生成器を示す。触知出力生成器167は、スピーカ又は他の音声構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマ、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギーを直線運動に変換する電気機械デバイスを、任意選択的に含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。いくつかの実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と併置されているか、又は近接しており、任意選択的に、タッチ感知面を垂直方向に(例えば、デバイス100の表面の内/外)又は横方向(例えば、デバイス100の表面と同じ平面の前後方向)に移動することによって、触知出力を生成する。いくつかの実施形態において、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
デバイス100はまた、1つ以上の加速度計168をも任意選択的に含む。図1Aは、加速度計168を、周辺機器インターフェース118に連結されて示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に、任意選択的に、連結される。いくつかの実施形態において、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、必要に応じて、加速度計(1つ又は複数)168に加えて、磁力計(図示せず)並びにデバイス100の位置及び向き(例えば、ポートレート又はランドスケープ)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信部(図示せず)を、任意選択的に含む。
いくつかの実施形態において、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135、及びアプリケーション(命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示すように、メモリ102は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、以下の1つ以上を含む:現在アクティブ状態のアプリケーションがあれば、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占領しているかを示す、表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から得られる情報を含む、センサ状態、並びに、デバイスの位置及び/又は姿勢に関する位置情報。
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェアとソフトウェアコンポーネントとの間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素を含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に他のデバイスに連結するように適合される。いくつかの実施形態において、外部ポートは、iPod(AppleInc.の商標)デバイス上で使用される30ピンコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、(ディスプレイコントローラ156と併せて)タッチスクリーン112との接触、及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、接触点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを、任意選択的に含む。これらの動作は、任意選択的に、単一の接触(例えば、1つの指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態において、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態において、少なくとも強度閾値のサブセットが、ソフトウェアパラメータにしたがって判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されず、デバイス100の物理ハードウェアを変更することなく調整し得る)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変更することなく広範囲の既定の閾値のうちのいずれかに設定し得る。加えて、いくつかの実装において、デバイスのユーザには、(例えば、個々の強度閾値を調整することにより、及び/又は「強度」パラメータのシステムレベルのクリックの後すぐに複数の強度閾値を調整することによって)強度閾値のセットのうちの1つ以上を調整するためのソフトウェア設定が提供されている。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上での異なるジェスチャは、異なる接触パターン及び接触強度を有する。したがって、ジェスチャは、特定の接触パターンを検出することによって、任意選択的に、検出される。例えば、指のタップジェスチャを検出することは、フィンガダウンイベントを検出し、続いて(例えば、アイコンの位置での)そのフィンガダウンイベントと同じ位置(又は、実質的に同じ位置)でフィンガアップ(リフトオフ)イベントを検出することを含む。他の実施例として、タッチ感知面でのフィンガスワイプジェスチャの検出は、フィンガダウンイベントを検出し、続いて1つ以上のフィンガドラッグイベントを検出し、その後、フィンガアップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用する時、用語「グラフィック」は、ユーザに対して表示することができる任意のオブジェクトを含み、それらのオブジェクトとしては、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどが挙げられるが、これらに限定されない。
いくつかの実施形態において、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。それぞれのグラフィックには、対応するコードが、任意選択的に、割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、表示されるグラフィックを指定する1つ以上のコードを受信し、ディスプレイコントローラ156に出力する画面画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器(1つ又は複数)167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するための、ソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判断し、この情報を様々なアプリケーションで使用するために提供する(例えば、ロケーションベースダイヤル発呼で使用するための電話138へ、ピクチャ/ビデオのメタデータとしてカメラ143へ、並びに気象ウィジェット、地方のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、任意選択的に以下のモジュール(又は、命令のセット)、又はそれらの部分集合若しくは上位集合を含む。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●ビデオ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●天気ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●任意選択的にビデオ再生モジュール及び音楽再生モジュールから構成される、ビデオ及び音楽再生モジュール152、
●メモモジュール153、
●地図モジュール154、
●オンラインビデオモジュール155。
任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するために任意選択的に用いられ、それには、アドレスブックに名前(1つ又は複数)を加えること、アドレス帳から名前(単数又は複数)を削除すること、電話番号(単数又は複数)、メールアドレス(単数又は複数)、住所(単数又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類して振り分けること、電話番号又はメールアドレスを提供して、電話138、テレビ会議139、メール140、若しくはIM141による通信を開始させる及び/又は容易にすること、などが含まれる。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、電話モジュール138は、電話番号と対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、対応する電話番号をダイヤルし、会話を遂行し、会話が完了した際に接続を切るか又は電話を切るために、任意選択的に使用される。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に使用する。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と併せて、ビデオ会議モジュール139は、ユーザの指示に従って、ユーザと1人以上の他の参加者との間のビデオ会議を開始し、行い、終了するための、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能命令を含む。画像管理モジュール144と関連して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールを作成及び送信することを、非常に容易にする。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、インスタントメッセージモジュール141は、インスタントメッセージと対応する文字列を入力したり、入力済みの文字を修正したり、対応するインスタントメッセージを送信したり(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)、インスタントメッセージを受信してその受信したインスタントメッセージを表示したりするための、実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされるように、グラフィック、写真、オーディオファイル、映像ファイル、及び/又は他の添付を、任意選択的に、含む。本明細書で使用するとき、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE又はIMPSを使用して送信されるメッセージ)の双方を示す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽再生モジュール146と併せて、トレーニングサポートモジュール142は、(例えば、時間、距離、及び/又はカロリー消費目標を有する)トレーニングを生成する、トレーニングセンサ(スポーツデバイス)と通信する、トレーニングセンサデータを受信する、トレーニングをモニタするために使用されるセンサを較正する、トレーニング用の音楽を選択して再生する、並びに、トレーニングデータを表示、記憶、及び送信するための、実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144と併せて、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又はビデオの特徴を変更したり、又はメモリ102から静止画像若しくは動画を削除したりするための、実行可能命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、及びカメラモジュール143と関連して、画像管理モジュール144は、静止画像及び/又はビデオを配置し、修正し(例えば、編集し)及び別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶したりするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付け、受信し、表示することを含むユーザの指示に従い、インターネットをブラウズするための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、カレンダーモジュール148は、ユーザの指示に従い、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、すべきことのリストなど)を作成し、表示し、変更し、記憶するための実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と共に、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされ、使用されるミニアプリケーション(例えば、気象ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。一部の実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!(登録商標)ウィジェット)を含む。ウィジェット)を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と共に、ウィジェット作成モジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ために、ユーザによって任意選択的に使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と関連して、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための実行可能命令を含む。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と関連して、ビデオ及び音楽再生モジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽又は他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能命令を含む。いくつかの実施形態において、デバイス100は、任意選択的に、iPod(Apple Inc.の登録商標)などのMP3プレーヤの機能を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と共に、メモモジュール153は、ユーザの指示に従って、メモ、ToDoリストなどを作成及び管理するための、実行可能命令を含む。
RF回路108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と共に、地図モジュール154は、任意選択的に、ユーザの指示に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所若しくはその付近の店舗及び他の対象地点についてのデータ、並びに場所に基づく他のデータ)を受信、表示、修正、並びに記憶するために使用される。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路機構110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と関連して、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、ブラウズし、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理できるようにする命令を含む。いくつかの実施形態においては、電子メールクライアントモジュール140ではなく、インスタントメッセージモジュール141が、特定のオンライン映像へのリンクを送信するために用いられる。
上記で識別されたモジュール及びアプリケーションのそれぞれは、1つ以上の上記の機能を実行する実行可能命令セット及び本出願に記載の方法(例えば、コンピュータにより実行される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において、任意選択的に、組み合わせ、又は再配置される。いくつかの実施形態では、メモリ102は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、デバイス上の機能の既定のセットの動作が排他的にタッチスクリーン及び/又はタッチパッド(これらはデバイス100に含まれるか又は入力デバイスなどの別個のデバイスにある)を介して実行されるデバイスである。デバイス100の動作のための主要入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイヤル、及び類似物など)の数を、任意選択的に減らす。
排他的にタッチスクリーン及び/又はタッチパッドを介して実行される、既定の機能のセットは、任意選択的に、ユーザインターフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされると、デバイス100上に表示される任意のユーザインターフェースから、メインメニュー、ホームメニュー、又はルートメニューへデバイス100をナビゲートする。かかる実施形態において、「メニューボタン」はタッチパッドを使って実装される。いくつかの他の実施形態では、メニューボタンは、タッチパッドの代わりに、物理的なプッシュボタン又は他の物理的な入力コントロールデバイスである。
図1Bは、いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A内)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及び対応するアプリケーション136−1(例えば、上述のアプリケーション137〜151、155、及び380〜390のいずれか)を含む。
イベントソータ170は、イベント情報を受け付け、イベント情報を配布するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態において、アプリケーション136−1は、アプリケーションがアクティブ又は実行中の時、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビュー(1つ以上)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開する際に使用される再開情報、アプリケーション136−1によって情報が表示されているか又は表示の準備が整っていることを示すユーザインターフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが以前に行ったアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの、追加情報を含む。
イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイ112上でのユーザのタッチ)についての情報を含む。周辺デバイスインターフェース118は、I/Oサブシステム106又は(オーディオ回路機構110を介して)近接センサ166、加速度計(1つ又は複数)168、及び/若しくはマイクロフォン113などのセンサから受信する情報を送信する。周辺機器インターフェース118がI/Oサブシステム106から受け取る情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺デバイスインターフェース118に要求を送る。これに応じて、周辺デバイスインターフェース118は、イベント情報を送出する。他の実施形態において、周辺機器ンタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間より長い入力を受け付けること)がある場合にのみイベント情報を送出する。
いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。
ヒットビュー判断モジュール172は、タッチ感知ディスプレイ112が1つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判断するためのソフトウェア手続きを提供する。ビューは、ユーザがディスプレイ上で見ることが可能な、制御部及び他の要素で構成される。
アプリケーションに関連付けられるユーザインターフェースの別の態様は、本明細書では、アプリケーションビュー又はユーザインターフェースウィンドウと呼ばれる場合がある、ビューのセットであり、それらの中で、情報が表示され、タッチに基づくジェスチャが実施される。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに、任意選択的に、対応する。例えば、タッチが検出される最低レベルのビューは、任意選択的に、ヒットビューと呼ばれ、適切な入力として認識されるイベントのセットは、少なくとも部分的に、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて、任意選択的に、判定される。
ヒットビュー判断モジュール172は、タッチベースのジェスチャのサブイベントと関連付けられた情報を受け取る。アプリケーションが、階層として編成された複数のビューを有する場合、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(即ち、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは、典型的には、それがヒットビューとして識別された、同じタッチ又は入力ソースに関連する全てのサブイベントを受け付ける。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(単数又は複数)がサブイベントの特定のシーケンスを受け取るべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態において、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な位置を含む全てのビューはアクティブに関わっているビューであると判定し、したがって、全てのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)に送信する。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配布する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1が、イベントソータ170を含む。更に他の実施形態では、イベントソータ170は、スタンドアロンモジュール、又は接触/動きモジュール130などのメモリ102に記憶された別のモジュールの一部である。
いくつかの実施形態では、アプリケーション136−1は、そのアプリケーションのユーザインターフェースの各ビュー内で発生するタッチイベントを処理する命令をそれぞれが含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1のそれぞれのアプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的に、それぞれのアプリケーョンビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインターフェースキット(図示せず)又はアプリケーション136−1が方法及び他の性質を継承する上位レベルのオブジェクトなど、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベントハンドラ190は、データアップデーター176、オブジェクトアップデーター177、GUIアップデーター178、及び/又はイベントソータ170から受け付けたイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176、オブジェクトアップデーター177、又はGUIアップデーター178を、任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178のうちの1つ以上がそれぞれのアプリケーションビュー191内に含まれている。
各イベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受け取って、そのイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180は更に、メタデータ183及びイベント配布命令188(任意選択的に、サブイベント配布命令を含む)の少なくともサブセットを含む。
イベント受信部182は、イベントソータ170からイベント情報を受け取る。イベント情報は、例えば、タッチ又はタッチの移動などのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加情報をもまた含む。サブイベントが、タッチの動きに関わる時、イベント情報は、サブイベントの速度及び方向を、任意選択的に、更に含む。いくつかの実施形態において、イベントは、ある方向から別の方向へ(例えば、ポートレートの向きからランドスケープの向きへ、又はその逆)のデバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。
イベント比較部184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント若しくはサブイベントを判定、又はイベント若しくはサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。ベント定義186は、例えば、イベント1(187−1)、イベント2(187−2)などの、イベントの定義(例えば、サブイベントの既定のシーケンス)を含む。いくつかの実施形態では、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。ある実施例において、イベント1(187−1)の定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の所定の段階についての第1のタッチ(タッチ開始)、所定の段階についての第1のリフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2のタッチ(タッチ開始)、及び所定の段階についての第2のリフトオフ(タッチ終了)を含む。別の実施形態では、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッギングは、例えば、表示されたオブジェクト上の所定の段階についてのタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態において、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインターフェースオブジェクト用のイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、サブイベントに関連付けられたユーザインターフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインターフェースオブジェクトがタッチ感知ディスプレイ112に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較部184は、3つのユーザインターフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判断するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部はヒットテストの結果を用いて、アクティブ化する必要のあるイベントハンドラ190を判定する。例えば、イベント比較部184は、サブイベント及びヒットテストのトリガーとなるオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態では、各イベント187に関する定義はまた、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の送付を遅延させる、遅延作用も含む。
それぞれのイベント認識部180が、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判定した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチベースのジェスチャの次のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブのままである他のイベント認識部は、進行中のタッチベースのジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがアクティブに関わっているイベント認識部にどのようにサブイベント配信を実行するかについて示す、構成可能なプロパティ、フラグ、及び/又はリストを持つメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように双方向作用し、又は双方向作用できるようになるかについて示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層内の様々なレベルに配布されるかどうかを示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識された時に、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントハンドラ190に、イベントに関連付けられたイベント情報を配布する。イベントハンドラ190をアクティブ化することと、それぞれのヒットビューにサブイベントを送信(及び送信を延期する)することとは、区別される。いくつかの実施形態では、イベント認識部180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190はフラグをキャッチし、既定の処理を実行する。
いくつかの実施形態では、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントに関するイベント情報を配信するサブイベント配信命令を含む。その代わりに、サブイベント配信命令は、一連のサブイベントに関連付けられたイベントハンドラ又はアクティブに関わっているビューにイベント情報を配布する。一連のサブイベント又はアクティブに関わっているビューに関連付けられているイベントハンドラは、イベント情報を受け付け、所定の処理を実行する。
いくつかの実施形態では、データアップデーター176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデーター176は、連絡先モジュール137で使用される電話番号を更新する、又はビデオ再生モジュール145で使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクトアップデーター177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデーター176は、新たなユーザインターフェースオブジェクトを作成する、又はユーザインターフェースオブジェクトの位置を更新する。GUIアップデーター178は、GUIを更新する。例えば、GUIアップデーター178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するため、表示情報をグラフィクモジュール132に送信する。
いくつかの実施形態では、イベントハンドラ(単数又は複数)190は、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178を含む、又はそれらに対するアクセスを有する。いくつかの実施形態では、データアップデーター176、オブジェクトアップデーター177、及びGUIアップデーター178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の1つのモジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ及び/又はタッチパッド上のユーザのタッチのイベント処理に関する前述の論考はまた、入力デバイスを使用して多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことが理解されよう。例えば、単一又は複数のキーボードの押下又は保持に任意選択的に合わせたマウスの移動及びマウスボタンの押下、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口頭の指示、検出された眼球運動、バイオメトリック入力、及び/又はこれらの任意の組み合わせが、認識対象のイベントを定義するサブイベントに対応する入力として、任意選択的に利用される。
図2は、いくつかの実施形態に係る、タッチスクリーン112を有するポータブルな又はポータブルではない多機能デバイス100を示す。上に記載したように、多機能デバイス100は、図示する様々な構成(タッチスクリーン112、スピーカ111、加速度計168、マイクロフォン113など)を有するものとして説明するが、これらの構成は、任意選択的に、別個のデバイスに属する点を理解されたい。例えば、ディスプレイ関連の構成(ディスプレイ、スピーカなど)及び/又は機能は、任意選択的に別個のディスプレイデバイスに属し、入力関連の構成(例えば、タッチ感知面、マイクロフォン、加速度計など)及び/又は機能は、任意選択的に、別個の入力デバイスに属し、残りの構成及び/又は機能は、任意選択的に、多機能デバイス100に属する。
タッチスクリーン112は、ユーザインターフェース(UI)200内に1つ以上のグラフィックを、任意選択的に、表示する。後述する実施形態並びに本実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いてグラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択できる。いくつかの実施形態において、ユーザが1つ以上のグラフィックとの接触を断った際に、1つ以上のグラフィックの選択が生じる。いくつかの実施形態において、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又はデバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を、任意選択的に、含む。いくつかの実装又は状況において、グラフィックとの偶発的な接触は、グラフィックを選択しない例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを、任意選択的に、選択しない。
デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、デバイス100上で、任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに、任意選択的に、使用される。あるいは、いくつかの実施形態において、メニューボタンは、タッチスクリーン112に表示されたGUIにおけるソフトキーとして実装されている。
ある実施形態において、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスへの電源をオン/オフしてデバイスをロックするためのプッシュボタン206、音量調整ボタン(1つ以上)208、受信者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押下して、既定の時間間隔にわたってボタンを押下された状態で保持することによって、デバイス上の電源をオン/オフし、ボタンを押下して、既定の時間間隔が経過する前にボタンを解放することによって、デバイスをロックし、及び/又はデバイスをロック解除する、若しくはロック解除処理を開始するために、任意選択的に使用される。代替的実施形態において、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化し、又はディアクティブ化するための口頭入力を受け付ける。また、デバイス100は、タッチスクリーン112への接触の強度を検出するための1つ以上の接触強度センサ165及び/又はデバイス100のユーザの触覚出力を生成するための1つ以上の触覚出力生成器167を、任意選択的に含む。
図3は、いくつかの実施形態に係る、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、上述のように、必ずしもディスプレイ及びタッチ感知面を含む必要はなく、逆に、いくつかの実施形態では、他のデバイスのディスプレイ及びタッチ感知面と任意選択的に通信する。更に加えて、デバイス300は、ポータブルでなくてもよい。いくつかの実施形態において、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス(テレビ又はセットトップボックスなど)、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インターフェース360と、メモリ370と、及びこれらの構成要素を相互接続するための1つ以上の通信バス320とを含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。デバイス300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上述された接触強度センサ165と同様の接触強度センサ)も、任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体記憶デバイスなどの、不揮発性メモリを含む。メモリ370は、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶デバイスを、任意選択的に含む。いくつかの実施形態において、メモリ370は、ポータブルな又はポータブルではない多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は、ポータブルな又はポータブルではない多機能デバイス100のメモリ102内に存在しない追加プログラム、モジュール、及びデータ構造を記憶し得る。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、文書作成モジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を、任意選択的に記憶するが、ポータブルな又はポータブルではない多機能デバイス100(図1)のメモリ102は、これらのモジュールを、任意選択的に記憶しない。
上記で特定された図3の要素のそれぞれは、任意選択的に、前述のメモリデバイスのうちの1つ以上に記憶される。上記で識別されたモジュールうちのそれぞれは、上述した機能を実行するための命令セットに対応する。上述の識別されたモジュール又はプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットを、任意選択的に、組み合わされるか、又は別の方法で再配置される。いくつかの実施形態において、メモリ370は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。
図4は、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えるデバイス(例えば、図3のデバイス300)上の、例示的なユーザインターフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための、1つ以上の接触強度センサ(例えば、センサ357のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成するための、1つ以上の触知出力生成器359を含む。
以下の実施例のうちのいくつかは、タッチスクリーンディスプレイ112上での入力(タッチ感知面とディスプレイとが組み合わされている場合)を参照して説明されるが、いくつかの実施形態では、デバイスは、図4に示されるように、ディスプレイとは別個のタッチ感知面上での入力を検出する。一部の実施形態では、このタッチ感知面(例えば、図4での451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4での453)に対応する主軸(例えば、図4での452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4では、460は468に対応し、462は470に対応する)での、タッチ感知面451との接触(例えば、図4での460及び462)を検出する。この方式で、タッチ感知面がディスプレイとは別個のものである場合、タッチ感知面(例えば、図4での451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)が、多機能デバイスのディスプレイ(例えば、図4での450)上のユーザインターフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインターフェースに、任意選択的に使用されることを理解されたい。
更に加えて、以下の説明は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャ)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに)マウスクリックと置換され、その後、(例えば、接触の移動の代わりに)スワイプの経路に沿ってカーソルの移動が行われる。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの位置上に配置される間、任意選択的に、マウスクリックと置換される。同様に、複数のユーザ入力が同時に検出される時、複数のコンピュータマウスが同時に、任意選択的に用いられ、又はマウスと指接触が同時に用いられることが理解されよう。
本明細書で使用されるとき、用語「フォーカスセレクタ」とは、ユーザが対話しているユーザインターフェースの現在の部分を示す、入力要素を指す。カーソル又は他のロケーションマーカを含む実装において、カーソルは、タッチ感知面(例えば、図3のタッチパッド355、又は図4のタッチ感知面451)上で入力(例えば、押下げ入力)が検出された時に、カーソルが特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインターフェース要素)の上にある時、「フォーカスセレクタ」として機能し、特定のユーザインターフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図4Aのタッチスクリーン112)を含むいくつかの実装では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」の役割を果たすため、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインターフェース要素)の場所で検出されると、その特定のユーザインターフェース要素が、検出された入力に従って調節される。いくつかの実装において、(例えば、タブキー又は矢印キーを使ったフォーカスの1つのボタンから別のボタンへの移動により)タッチスクリーン上の対応するカーソルの移動又は接触の移動なしに、フォーカスが、ユーザインターフェースの1つの領域からユーザインターフェースの別の領域に移動される。これらの実装において、フォーカスセレクタは、ユーザインターフェースの異なる領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る特定のフォームに関係なく、フォーカスセレクタは、全体的に、ユーザのユーザインターフェースとの意図した(例えば、ユーザが対話したいと思っているユーザインターフェースの要素をデバイスに指示することによる)対話を伝達するように、ユーザによって制御されたユーザインターフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押下げ入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された時にそれぞれのボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインターフェース要素とは反対に)ユーザが、それぞれのボタンをアクティブ化しようとしていることを指示する。
本明細書で説明されるいくつかの実施形態では、1つ以上の動作は、それぞれの押圧入力を含むジェスチャの検出に応答して、又はそれぞれの接触(又は、複数の接触)で実行されるそれぞれの押圧入力の検出に応答して実行され、それらのそれぞれの押圧入力は、少なくとも部分的に、押圧入力強度閾値を上回る接触(又は、複数の接触)の強度の増大の検出に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)の検出に応答して、実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大、及び後続の押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、その後続の押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応答して、実行される。
いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的入力を回避するために、強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関連性を有するヒステリシス強度閾値を、定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりもX強度単位低いか、又は、ヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な比率である)。それゆえ、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回る、それぞれの接触の強度の増大、及び後続の、押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、そのヒステリシス強度閾値を下回る、後続のそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)の検出に応答して、実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から、押圧入力強度閾値以上の強度への、接触の強度の増大、及び任意選択的に、ヒステリシス強度以下の強度への、後続の接触の強度の減少を検出する場合にのみ、検出され、それぞれの動作は、その押圧入力(例えば、状況に応じて、接触の強度の増大、又は接触の強度の減少)の検出に応答して、実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力に応答して、又はその押圧入力を含むジェスチャに応答して実行される動作の説明は、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかの検出に応答して、任意選択的にトリガーされる。更に加えて、押圧入力強度閾値を下回る、接触の強度の減少の検出に応じて、動作が実行されるとして説明される実施例では、その動作は、押圧入力強度閾値に対応し、かつ押圧入力強度閾値よりも低い、ヒステリシス強度閾値を下回る、接触の強度の減少の検出に応じて、任意選択的に実行される。
図5は、本開示のいくつかの実施形態によるデバイス500の例示的な構造のブロック図を示す。図5の実施形態において、メディアコンテンツは、任意選択的に無線接続又は有線接続であるネットワークインターフェース502を介してデバイス500により任意選択的に受信される。1つ以上のプロセッサは、任意選択的に、メモリ506又は記憶装置に記憶された、本明細書で説明する1つ以上の方法及び/又は処理(例えば、方法700、900、1100、1300及び/又は1500)を実行する命令を任意選択的に含む任意の数のプログラムを実行する。
いくつかの実施形態では、ディスプレイコントローラ508は、本開示の様々なユーザインターフェースを、ディスプレイ500に表示させる。更に、デバイス500への入力は、任意選択的に無線接続又は有線接続であるリモートインターフェース512を介してリモート510により任意選択的に提供される。図5の実施形態は、本開示のデバイスの特徴を限定することを意味するものではなく、本開示において説明する他の特徴を促進する他の構成要素も、図5の構造に任意選択的に含まれる点を理解されたい。いくつかの実施形態では、デバイス500は、任意選択的に、図1A及び図2における1つ以上の多機能デバイス100、及び図3におけるデバイス300に対応し、ネットワークインターフェース502は、任意選択的に、図1A及び図2における1つ以上のRF回路108、外部ポート124及び周辺機器インターフェース118、及び図3におけるネットワーク通信インターフェース360に対応し、プロセッサ504は、任意選択的に、図1Aにおける1つ以上のプロセッサ(複数可)120、及び図3におけるCPU(複数可)310に対応し、ディスプレイコントローラ508は、任意選択的に、図1Aにおける1つ以上のディスプレイコントローラ156、及び図3におけるI/Oインターフェース330に対応し、メモリ506は、任意選択的に、図1Aにおける1つ以上のメモリ102、及び図3におけるメモリ370に対応し、リモートインターフェース512は、任意選択的に、図1Aにおける1つ以上の周辺機器インターフェース118及びI/Oサブシステム106(及び/又はその構成要素)、及び図3におけるI/Oインターフェース330に対応し、リモート512は、任意選択的に、図1Aにおける、スピーカ111、タッチ感知ディスプレイシステム112、マイクロフォン113、光センサ(複数可)164、接触強度センサ(複数可)165、触知出力生成器(複数可)167、他の入力コントロールデバイス116、加速度計(複数可)168、近接センサ166及びI/Oサブシステム106のうちの任意の1つ以上、図3における、キーボード/マウス350、タッチパッド355、触知出力生成器(複数可)357及び接触強度センサ(複数可)359、並びに、図4におけるタッチ感知面451に対応し又はそれらを含み、ディスプレイ514は、任意選択的に、図1A及び図2における1つ以上のタッチ感知ディスプレイシステム112、及び図3におけるデバイス340に対応する。
ユーザインターフェース及び関連プロセス
コンテンツユーザインターフェース
多くの電子デバイスは、コンテンツを閲覧や選択するためのユーザインターフェースを提供している。今後行われるアイテムの列、及び最近再生したアイテム(例えば、アルバム内の歌、プレイリスト、又はストリーミングラジオ)のコンテンツアイテムの中から、表示し、ナビゲートする直観的な方法を提供するニーズがある。以下に説明する実施形態は、ユーザにとって、消費する種々のコンテンツアイテムをナビゲートし選択するための、速くて、効率的で、便利な方法を提供する。
図6A〜6Yは、本開示のいくつかの実施形態による例示的なコンテンツユーザインターフェースを示す。これらの図中のユーザインターフェースは、図7A〜7Eを参照して以下に説明するプロセスを含め、以下に説明するプロセスを例示するために使用される。
図6Aは、ディスプレイ(例えば、デバイス500のディスプレイ514)に提示される、電子デバイス500の例示的なコンテンツユーザインターフェースを示す。コンテンツユーザインターフェースは、各々が歌に対応する複数のコンテンツアイテム602ー1、602ー2、602ー3、602ー4及び602ー5を含む。図に示すコンテンツアイテムはそれぞれ、コンテンツアイテムに関連付けられた画像(例えば、図6Nにおけるアルバムアート620)を含むことができる。コンテンツユーザインターフェースは、「履歴」見出し604−1、「再生中」見出し604−2、及び、「次のもの」見出し604−3を更に含む。「履歴」見出し604−1は、コンテンツアイテムの履歴にある複数のコンテンツアイテムに関連付けられ(例えば、コンテンツアイテム602−1及び602−2)、「履歴」見出しは、履歴のうち最も最近に再生されたコンテンツアイテム、コンテンツアイテム602−2、に隣接して表示される。「再生中」見出し604−2は、現在再生しているコンテンツアイテム602−3に隣接して表示される。「次のもの」見出し604ー3は、コンテンツアイテム(例えば、コンテンツアイテム602ー4及び602ー5)の待ち列に関連付けられ、「次のもの」見出しは、コンテンツアイテムの待ち列で次にくるコンテンツアイテム602−4に隣接して表示される。コンテンツアイテム602−3は、選択インジケータ606で示すように、強調表示される。コンテンツアイテム602−3に関連する情報608及びオプション610は、コンテンツアイテム602−3に隣接する領域において表示される。いくつかの実施形態では、情報及び/又はオプションのいくつか又は全ては、選択されたコンテンツアイテムに隣接して表示されるだけであり、いくつかの実施形態では、図6Aに示すように、選択されていないコンテンツアイテムに対して限られた情報(例えば、アーティスト及び歌のタイトル)が表示される。
図6A〜6Dは、複数のコンテンツアイテムがスクロールされるとき、見出し604−1、604−2及び604−3のそれぞれは、関連付けられたコンテンツアイテム602−2、602−3及び602−4とともにスクロールする例を示す。図6C〜6Eは、現在再生しているコンテンツアイテム602−3並びにコンテンツアイテムの待ち列内のコンテンツアイテム602−4及び602−5がオフスクリーンでスクロールされると、ユーザインターフェースが最近再生されたコンテンツアイテムの履歴をスクロールするとき、「履歴」見出し604−1は、ディスプレイ514の右端で静止したままであることを示す。図6F〜6Iは、現在再生しているコンテンツアイテム602−3並びにコンテンツアイテムの履歴内のコンテンツアイテム602ー1及び602ー2がオフスクリーンでスクロールされると、ユーザインターフェースが今後再生されるコンテンツアイテムの待ち列をスクロールするとき、「次のもの」見出し604−3は、ディスプレイ514の左端で静止したままである例を示す。現在再生しているコンテンツアイテムから離れてスクロールした後、ユーザインターフェースは、図6Jに示すように、(例えば、スワイプジェスチャ又は不活性な期間に応じて、)現在再生しているコンテンツアイテム602−3に戻るようスキップすることができる。
いくつかの実施形態では、「再生中」見出し604−2及び現在再生しているコンテンツアイテム602−3は、スクロールの間、オンスクリーンのままである。例えば、今後生じるコンテンツアイテムの待ち列をスクロールする間、見出し604−2及びコンテンツアイテム602−3は、任意選択的に、ディスプレイ514の左端で静止したままであるのに対し、今後生じるコンテンツアイテムの待ち列におけるコンテンツアイテムは、コンテンツアイテム602−3の後ろでスクロールする。同様に、今後生じるコンテンツアイテムの履歴をスクロールする間、見出し604−2及びコンテンツアイテム602−3は、任意選択的に、ディスプレイ514の右端で静止したままであるのに対し、履歴におけるコンテンツアイテムは、コンテンツアイテム602−3の後ろでスクロールする。
図6K〜6Mは、(例えば、再生の終わりに到達するコンテンツアイテム602−3、又は、コンテンツアイテム602−3をスキップするユーザ入力に応じて、)再生をコンテンツアイテム602−3からコンテンツアイテム602−4へ進めることを示す。図6Mに示すように、複数のコンテンツアイテム602−1、602−2、602−3、602−4及び602−5が、もはや再生中でないコンテンツアイテム602−3が「履歴」見出し604−1の下にあり、新たに再生するコンテンツアイテム602−4が「再生中」見出し604−2の下にあるようにスクロールするとき、見出し604−1、604−2及び604−3は、静止したままである。図6Nは、現在再生しているコンテンツアイテム602−4に関連付けられたアルバムアート620に基づく背景画像622を示す。
図6O〜6Sは、コンテンツアイテムの待ち列内のコンテンツアイテムを移動するためのユーザインターフェースを示す。図6Oにおいて、待ち列内のコンテンツアイテム602−4を移動するためのメニューアイテム624を選択する入力を受信する。その入力に応じて、複数のコンテンツアイテム602−5、602−6、602−7、602−8及び602−9は、図6P〜6Rに示すように更新されたユーザインターフェースにおいて、より小さく提示される。更新されたユーザインターフェースを提示している間に、コンテンツアイテム602−4を、コンテンツアイテム602−5と602−6の間に(図6Q)、その後コンテンツアイテム602−6と602−7の間に(図6R)移動する入力を受信する。図6Sのメインユーザインターフェースに戻り、コンテンツアイテム602−4がコンテンツアイテム602−6と602−7の間にある、コンテンツアイテムの新たな順序の待ち列が提示される。
図6Tは、履歴内の複数のコンテンツアイテム602−1及び602−2と、待ち列内の単一のコンテンツアイテム602−4のみを含むストリーミングユーザインターフェースを示す。対照的に、図6Uは、履歴内の単一のコンテンツアイテム602−2と、待ち列内の複数のコンテンツアイテム602−4及び602−5を含むオンデマンドユーザインターフェースを示す。ストリーミングラジオサービスについてのライセンス上の制限により、例えば、任意選択的に、「次のもの」待ち列に1つより多くの又は2つのアイテムを表すことが禁止され、それに伴いユーザインターフェースは、図6T及び6Uに示すように、任意選択的に異なる。
図6Vは、関連付けられたコンテンツアイテム602−3を再生するためのメニューアイテム626の選択を示す。選択に応じて、コンテンツアイテム602−3の再生が始まり、図6Wに示すように、追加ユーザインターフェースが、コンテンツアイテム602−3の拡大ビューとともに提示される。図6Wにおける追加ユーザインターフェースは、他のコンテンツアイテム602−2、602−4及び602−5よりも大きく表示された、現在再生しているコンテンツアイテム602−3を含む。ユーザインターフェースは、アーティスト、歌のタイトル、アルバムのタイトル及び再生時間情報を含む追加情報628を含む。
図6Xは、現在再生しているコンテンツアイテム602−3を含むストリーミングラジオからのコンテンツアイテムに対する追加ユーザインターフェースと、履歴内のコンテンツアイテム602−1及び602−2を示し、今後生じる待ち列にはコンテンツアイテムがない。図6Yは、単一のアルバムからのアイテムのみを含むプレイリストからのコンテンツアイテムに対する追加ユーザインターフェースを示し、コンテンツアイテム602−3に関連付けられたひとつの画像だけが表示されて、ユーザインターフェースでの冗長性と乱雑さを減らす。
図7A〜7Eは、本開示のいくつかの実施形態による、コンテンツユーザインターフェースの方法を示す流れ図である。本方法は、図1A〜1B及び図2〜5を参照して上述した電子デバイス(例えば、電子デバイス100、300又は500など)で、任意選択的に、実行される。方法700の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下に説明するように、方法700は、デバイスがコンテンツユーザインターフェースを表示する手法を提供する。本方法は、コンテンツアイテムを選択するための直観的なユーザインターフェースを提供することによりデバイス上のユーザインターフェースと対話するときのユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインターフェースを作成する。バッテリ動作電子デバイスに関しては、ユーザのユーザインターフェースとの対話の効率をあげることにより、電力が節約され、バッテリを充電する間隔が増大する。
いくつかの実施形態では、1つ以上のプロセッサ及びメモリを有する電子デバイス500は、ディスプレイ(例えば、リモートディスプレイデバイス又は電子デバイスと一体化したディスプレイ)での提示用に、複数のコンテンツアイテム(例えば、図6Aのコンテンツアイテム602−1、602−2、602−3、602−4及び602−5などの、個々の歌及び/若しくはアルバム、又はプレイリストに関連付けられたアルバムアート)、第1見出し(例えば、図6Aにおける「再生中」見出し604−2)、及び、第2見出し(例えば、図6Aにおける「次のもの」見出し604−3)を含むユーザインターフェースを生成する(702)。
ユーザインターフェースがディスプレイに提示される間に、電子デバイスは、複数のコンテンツアイテムをスクロールする入力(例えば、スワイプ、タップ、ボタン押下など)を受信する(720)。入力に応じて、電子デバイスは複数のコンテンツアイテムをスクロールし(722)、これは、複数のコンテンツアイテムのうちの、現在再生している第1コンテンツアイテムとともに第1見出しをスクロールすること(724)、及び、複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに第2見出しをスクロールすること(726)を含む(例えば、第2コンテンツアイテムを、現在再生している第1コンテンツアイテムに続いて再生する)。例えば、図6A〜6D及び図6Fにおいて、見出し604−1、604−2及び604−3、並びに対応するコンテンツアイテム602−2、602−3及び602−4で示すように、第1コンテンツアイテムは、任意選択的に、スクロール中、第1見出しの下にあるままであり、第2コンテンツアイテムは、任意選択的に、スクロール中、第2見出しの下にあるままである。
いくつかの実施形態では、複数のコンテンツアイテムをスクロールすることは、第1見出し及び第1コンテンツアイテムをオフスクリーンでスクロールすること(728)を更に含む(図6F〜6Gから、見出し604−2とコンテンツアイテム602−3で示すように)。第2見出しがディスプレイに静止して提示されている(730)間に、電子デバイスは、任意選択的に、第2コンテンツアイテムをオフスクリーンでスクロールし(732)、任意選択的に、コンテンツアイテムの待ち列の中で今後生じる複数の追加コンテンツアイテムをオンスクリーンでスクロールする(734)(例えば、追加コンテンツアイテムを第2コンテンツアイテムに続いて再生する)。例えば、図6F〜6Iにおいて、コンテンツアイテム602−4は、オフスクリーンでスクロールされるが、見出し604−3はディスプレイ514の左端で静止して提示される。
いくつかの実施形態では、ユーザインターフェースがディスプレイに提示され、第1コンテンツアイテムがオフスクリーンである間に、電子デバイスが、任意選択的に、第1特性(例えば、指のスピード、期間など)を有するスワイプジェスチャを受信する(746)。スワイプジェスチャの第1特性が所定の閾値を超えているとの判定に従い、電子デバイスは、任意選択的に、第1コンテンツアイテムがディスプレイに提示されるように複数のコンテンツアイテムをスクロールする(748)(例えば、コンテンツアイテムが現在再生しているコンテンツアイテムへ素早く戻る)。例えば、ユーザインターフェースは、図6Jに示すように、任意選択的に、現在再生しているコンテンツアイテム602−3へ素早く戻る。スワイプジェスチャの第1特性が所定の閾値を超えていないとの判定に従い、電子デバイスは、任意選択的に、複数のコンテンツアイテムを、第1特性に基づく量(例えば、コンテンツアイテムの数又はディスプレイ上での距離)だけスクロールする(750)。
いくつかの実施形態では、ユーザインターフェースがディスプレイに提示され、第1コンテンツアイテムがオフスクリーンである間に、電子デバイスが、任意選択的に、入力がない時間を判定する(752)。上記時間が所定の閾値を超えているとの判定に従い、電子デバイスは、任意選択的に、第1コンテンツアイテムがディスプレイに提示されるように複数のコンテンツアイテムをスクロールする(754)(例えば、ユーザが次のコンテンツを探していて、その後ディスプレイから離れる場合、ユーザがディスプレイにもどると、いま再生しているコンテンツが表示されるように、コンテンツアイテムは現在再生しているコンテンツアイテムに素早く戻る)。例えば、ユーザインターフェースは、図6Jに示すように、任意選択的に、現在再生しているコンテンツアイテム602−3へ素早く戻る。
いくつかの実施形態では、ユーザインターフェースは、第1見出し(例えば、「再生中」見出し604−2)及び入力を受信する前の第2見出し(例えば、「次のもの」604−3)ととともに現在表示されている第3見出し(例えば、「履歴」見出し604−1)を更に含む(704)。複数のコンテンツアイテムをスクロールすることは、任意選択的に、複数のコンテンツアイテムのうち、コンテンツアイテムの履歴の中で最も最近再生した第3コンテンツアイテム(例えば、第2コンテンツアイテムは、再生中の第1コンテンツアイテムの前に再生された)とともに第3見出しをスクロールすること(736)、及び、第1見出しと第1コンテンツアイテムをオフスクリーンでスクロールすること(738)を更に含む。第3見出しがディスプレイに静止して提示されている(740)間に、電子デバイスは、任意選択的に、第3コンテンツアイテムをオフスクリーンでスクロールし(742)、任意選択的に、コンテンツアイテムの履歴の中の複数の追加コンテンツアイテムをオンスクリーンでスクロールする(744)(例えば、追加コンテンツアイテムは第3コンテンツアイテムの前に再生されている)。例えば、図6A〜6Eにおいて、コンテンツアイテム602ー2は、オフスクリーンでスクロールされるが、見出し604ー1はディスプレイ514の右端で静止して提示される。
いくつかの実施形態では、ユーザインターフェースがディスプレイに提示される間に、電子デバイスは、任意選択的に、複数のコンテンツアイテムのうち対応するコンテンツアイテムを選択する入力を受信する(756)。対応するコンテンツアイテムを選択する入力に応じて、電子デバイスは、任意選択的に、対応するコンテンツアイテムを再生し(758)、任意選択的に、対応するコンテンツアイテムに関連付けられた画像にズームインする。例えば、図6Vは、関連付けられたコンテンツアイテム602−3を再生するためのメニューアイテム626の選択を示す。追加ユーザインターフェースを、コンテンツアイテム602−3の拡大ビューを含めて図6Wに示す。
いくつかの実施形態では、ユーザインターフェースがディスプレイに提示される間に、電子デバイスは、任意選択的に、コンテンツアイテムの待ち列のうち対応するコンテンツアイテムを移動すること(例えば、「次のもの」の待ち列にあるアイテムを移動すること)をリクエストする入力を受信する(760)。対応するコンテンツアイテムを移動することをリクエストする入力に応じて、電子デバイスは、任意選択的に、ユーザインターフェースを、更新されたユーザインターフェースで複数のコンテンツアイテムをより小さく提示することにより、更新する(762)(例えば、図6O〜6Pにおいて、コンテンツアイテム602−4、602−5、602−6、602−7、602−8及び602−9などをズームアウトし、「再生中」コンテンツアイテム602−3を非表示にし、コンテンツアイテムの「次のもの」の待ち列のみを提示するなど)。更新されたユーザインターフェースがディスプレイに提示されている間に、電子デバイスは、任意選択的に、入力に応じて、コンテンツアイテムの待ち列内の対応するコンテンツアイテムを移動する(764)(例えば、図6P〜6Rにおいて、左若しくは右スワイプ又はボタン押下に応じて、対応するコンテンツアイテム602−4を待ち列内で左又は右に移動する)。
いくつかの実施形態では、ユーザインターフェースがディスプレイに提示される間に、電子デバイスは、任意選択的に、現在再生している第1コンテンツアイテムに関連付けられた追加ユーザインターフェースを提示するリクエストを受信する(766)。リクエストに応じて、電子デバイスは、任意選択的に、ディスプレイに提示するため、第1コンテンツアイテムに関連付けられた第1画像(例えば、図6W〜6Yのコンテンツアイテム602−3)を含む追加ユーザインターフェースを生成する(768)(例えば、第1コンテンツアイテムに対するアルバムアートが、再生中インターフェースで、待ち列インターフェースにあるよりも大きく表示される)。いくつかの実施形態では、再生中インターフェースは、待ち列インターフェースに含まれていない現在再生しているコンテンツアイテムについての情報を含む(例えば、図6W〜6Yに示すように、再生中インターフェースは、任意選択的に、現在の再生時間及び現在再生しているコンテンツアイテムのトータル時間を含む)。
いくつかの実施形態では、第1コンテンツアイテム及び第2コンテンツアイテムはともに、同じアルバムに関連付けられ(770)、第1画像は同じアルバムに関連付けられている(例えば、図6Yに示すように、待ち列内の全ての歌が同じアルバムからのものである場合、そのアルバムアートが表示され、他のアルバムアートは表示されない。)いくつかの実施形態では、第1コンテンツアイテムは、任意選択的に、第1アルバムに関連付けられ(772)、第2コンテンツアイテムは、任意選択的に、第2アルバム(第1アルバムとは異なる)に関連付けられ、追加ユーザインターフェースは、任意選択的に、第2コンテンツアイテムに関連付けられた第2画像を更に含む(例えば、図6Wに示すように、プレイリストが複数のアルバムからのコンテンツアイテムを含む場合、再生中インターフェースは、任意選択的に、今後の歌及び/又は履歴中の歌についてのアルバムアートを示す1つ以上の画像を含む)。
いくつかの実施形態では、複数のコンテンツアイテムは、ストリーミングラジオから再生したコンテンツアイテムの履歴のうち最も最近再生された第3コンテンツアイテムを更に含み(774)(例えば、プレイリストのうち、インターネット又は他のネットワークを介してストリーミングされた歌であり、ここでプレイリストの細かな順序及びコンテンツは電子デバイスのユーザによって選ばれてなく、インテリジェントなアルゴリズム又はディスクジョッキー(DJ)などのリモートユーザにより選択される)、追加ユーザインターフェースは、任意選択的に、第3コンテンツアイテムに関連付けられた第3画像を更に含む(例えば、コンテンツアイテムがストリーミングラジオ局/プレイリストからのものである場合、再生中インターフェースは、任意選択的に、履歴内の歌に対するアルバムアートを示す1つ以上の画像を含む)。いくつかの実施形態では、ストリーミングラジオに対する再生中インターフェースは、(図6Xに示すように)契約上の義務により、任意選択的に、今後生じる歌を含まないが、いくつかの実施形態はストリーミングラジオに対する今後生じる歌を含む。いくつかの実施形態では、ストリーミングラジオに対する再生中インターフェースは、任意選択的に、現在再生しているコンテンツアイテムについての購入価格を含む。
いくつかの実施形態では、ユーザインターフェースは、現在再生している第1コンテンツアイテムに関連付けられたアルバムアートに基づく背景画像を更に含む(706)(例えば、アルバムアートは、任意選択的に、図6Nにおける背景画像622と同様に、アルバムアートの部分がオンスクリーンで見えないようにズームインされ、及び/又はアルバムアートのいくつか若しくは全ては、任意選択的に、ぼけているか視覚的にゆがんでいるなど)。これが、再生している現在のオーディオに関する巧妙なきっかけをもたらし、任意選択的に、再生しているオーディオの変化に伴って変化する。いくつかの実施形態では、背景画像のアルバムアートは、任意選択的に、再生が第2コンテンツアイテムに進むと、第2コンテンツアイテムに関連付けられたアルバムアートに変化する。いくつかの実施形態では、第1コンテンツアイテムがもはやユーザインターフェースにおいて表示されないようにコンテンツアイテムがスクロールされる場合でも、アルバムアートは背景として用いられる。
いくつかの実施形態では、電子デバイスは、第2コンテンツアイテムが現在再生され、第1コンテンツアイテムがもはや現在再生されていないように、再生を進め(776)、第1及び第2見出しがディスプレイに静止して提示される間に、電子デバイスは、任意選択的に、現在再生している第2コンテンツアイテムが第1見出しの下にくるように、第1及び第2コンテンツアイテムをスクロールする(778)(更に任意選択的に、第1コンテンツアイテムに関連付けられたアルバムアートを含む背景画像を第2コンテンツアイテムに関連付けられたアルバムアートに変更する)。このように、いくつかの実施形態では、現在再生している第1の歌が終わり、(第1の歌の後の)第2の歌の再生が始まると、見出しはそのままでコンテンツアイテムがずれる(例えば、第1の歌はもはや再生中の歌ではないため、履歴セクションへ移動し、次の歌が今度は再生中の歌になって次のものセクションから除去される)。例えば、図6K〜6Mは、見出し604−1、604−2及び604−3が静止したまま双方のコンテンツアイテムがスクロールするように、コンテンツアイテム602−3からコンテンツアイテム602−4へ再生を移動することを示す。
いくつかの実施形態では、複数のコンテンツアイテムがオンデマンドコンテンツアイテムであるとの判定に従い、ユーザインターフェースは、任意選択的に、オンデマンドユーザインターフェースである(708)(例えば、デバイスのユーザが、ローカルに記憶されたコンテンツを含むメディアデータベースなどの、ユーザのメディアライブラリからコンテンツを再生することをリクエストした)。複数のコンテンツアイテムがストリーミングコンテンツアイテムであるとの判定に従い、ユーザインターフェースは、任意選択的に、オンデマンドユーザインターフェースとは異なるストリーミングユーザインターフェースである(例えば、デバイスのユーザが、例えばインターネットラジオ又はオンデマンドストリーミングオーディオなどのサブスクリプション音楽サービスから、ストリーミングオーディオを再生することをリクエストした)。
いくつかの実施形態では、オンデマンドユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの待ち列内の第1の数のコンテンツアイテムを提示すること(712)を含み、ストリーミングユーザインターフェースをディスプレイに提示することは、任意選択的に、コンテンツアイテムの待ち列内の第2の数のコンテンツアイテムを提示することを含み(714)、第2の数は第1の数より少ない。例えば、ストリーミングラジオサービスについてのライセンス上の制限により、任意選択的に、「次のもの」待ち列に1つより多くの又は2つのアイテムを表すことが禁止され、それに伴いユーザインターフェースは、任意選択的に異なる。図6Tは、「次のもの」待ち列内の単一のコンテンツアイテム602ー4を含むストリーミングユーザインターフェースを示し、一方、図6Uは、待ち列内の複数のコンテンツアイテム602−4及び602−5を含むオンデマンドユーザインターフェースを示す。
いくつかの実施形態では、オンデマンドユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの履歴内の1つのコンテンツアイテムのみを(スクロールに応じて任意選択的に提示される履歴内のより多くのコンテンツアイテムとともに)提示すること(716)を含み、ストリーミングユーザインターフェースをディスプレイに提示することは、任意選択的に、コンテンツアイテムの履歴内の複数のコンテンツアイテムを提示することを含む(718)。例えば、ストリーミングラジオサービスについてのライセンス上の制限により、任意選択的に、「次のもの」待ち列に1つより多くの又は2つのアイテムを表すことが禁止され、そのため、ストリーミングラジオユーザインターフェースは、より多くの履歴を示すことができる。図6Tは、履歴内の複数のコンテンツアイテム602−1及び602−2を有するストリーミングユーザインターフェースを示し、図6Uは、履歴内の単一のコンテンツアイテム602−2のみを有するオンデマンドユーザインターフェースを示す(例えば、オンデマンドオーディオストリームについて、今後のトラックは全て既知であるのに対し、ストリーミングユーザインターフェースについて、1つ又は2つのトラックだけが既知であることが多い)。
上述の情報処理方法での動作は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図7A〜7Eを参照して上述された動作は、図1A〜1Bに図示される構成要素によって、任意選択的に実施される。例えば、生成動作702、受信動作720、スクロール動作722、スクロール動作724、及びスクロール動作726は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインターフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
図7A〜7Eにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。更に加えて、本明細書で説明される他の方法(例えば、方法900)に関連して本明細書で説明される、他のプロセスの詳細もまた、図7A〜7Eに関連して上述された方法700と類似の方式で適用可能であることに留意されたい。例えば、方法700を参照して上述したユーザインターフェース、ユーザインターフェースオブジェクト、待ち列、履歴、見出し、領域、アルバムアート、コンテンツアイテム、情報、メニューアイテム、及び電子デバイスは、任意選択的に、本明細書で説明する他の方法(例えば、方法900)を参照して本明細書で説明するユーザインターフェース、ユーザインターフェースオブジェクト、待ち列、履歴、見出し、領域、アルバムアート、コンテンツアイテム、情報、メニューアイテム、及び電子デバイスの1つ以上を有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
簡易コンテンツユーザインターフェース
多くの電子デバイスは、コンテンツを閲覧や選択するのに乱雑で直観的ではないユーザインターフェースを提供している。今後行われるアイテムの待ち列、及び最近再生したアイテム(例えば、アルバム内の歌、プレイリスト、又はストリーミングラジオ)の履歴のコンテンツアイテムの中から、きれいにかつシンプルに表示し、ナビゲートする直観的な方法を提供するニーズがある。以下に説明する実施形態は、選択されていないコンテンツアイテムについて情報とメニューアイテムを隠すことにより、ユーザにとって、消費する種々のコンテンツアイテムをナビゲートし選択するための、速くて、効率的で、便利な方法を提供する。
図8A〜8Lは、本開示のいくつかの実施形態による例示的な簡易コンテンツユーザインターフェースを示す。これらの図中のユーザインターフェースは、図9A〜9Eを参照して以下に説明するプロセスを含め、以下に説明するプロセスを例示するために使用される。
図8Aは、ディスプレイ(例えば、デバイス500のディスプレイ514)に提示される、電子デバイス500の例示的な簡易コンテンツユーザインターフェースを示す。簡易コンテンツユーザインターフェースは、各々がコンテンツアイテム(例えば、歌、映画など)に対応するユーザインターフェースオブジェクト802ー1、802ー2、802ー3、802ー4及び802ー5を含む。ユーザインターフェース802−2は、関連付けられた領域806−1に隣接して表示され、ユーザインターフェース802−3は、関連付けられた領域806−2に隣接して表示され、ユーザインターフェース802−5は、関連付けられた領域806−3に隣接して表示される。ユーザインターフェースオブジェクトに関連付けられた情報は、ユーザインターフェースオブジェクトが選択された際に、関連付けられた領域において表示される。
例えば、図8Aでユーザインターフェースオブジェクト802−3が選択され、ユーザインターフェースオブジェクト802−3に関連付けられた情報808が、関連付けられた領域806−2において表示される。図8Bでは、ユーザインターフェースオブジェクト802−2が選択され、選択されたユーザインターフェースオブジェクト802−2に関連付けられた情報810が、関連付けられた領域806−1において表示され、情報808は、もはや領域806−2において表示されない。図8Cでは、ユーザインターフェースオブジェクト802ー5が選択され、選択されたユーザインターフェースオブジェクト802ー5に関連付けられた情報812が、関連付けられた領域806ー3において表示され、情報810は、もはや領域806ー1に表示されない。図8Dでは、ユーザインターフェースオブジェクト802ー7が選択され、選択されたユーザインターフェースオブジェクト802ー7に関連付けられた情報814が、関連付けられた領域806ー4において表示され、情報812は、もはや領域806ー3に表示されない。
図8A〜8Cにおいて、ユーザインターフェースオブジェクトが選択された場合に表示される情報は、選択可能なメニューアイテムと、ユーザインターフェースオブジェクトに関連付けられた選択できない情報の双方を含む。例えば、選択できないリリース日816、820及び824は、関連付けられたユーザインターフェースオブジェクト802−3、802−2及び802−5に対してそれぞれ表示される。更に、選択可能なメニューアイテム「ポーズ」818、「“次のもの”に追加」822、及び「移動」826は、関連付けられたユーザインターフェースオブジェクト802−3、802−2及び802−5に対してそれぞれ表示される。いくつかの実施形態では、選択可能なアイテムは、特定のユーザインターフェースオブジェクトによって異なる。例えば、ユーザインターフェースオブジェクト802−3は、現在表示しているコンテンツアイテムであり、そのため、選択されるとメニューアイテム「ポーズ」818が表示される。ユーザインターフェースオブジェクト802−2は、最近再生したコンテンツアイテムの履歴にあり、そのため、選択されるとメニューアイテム「“次のもの”に追加」822が表示されて、ユーザは再度その歌を再生できる。ユーザインターフェースオブジェクト802ー5は、今後生じるコンテンツアイテムの待ち列にあり、そのため、選択されるとメニューアイテム「移動」826が表示されて、ユーザはその歌の位置を待ち列内で移動できる。
図8E〜8Hに示すように、選択可能なメニューアイテムは、選択されたコンテンツアイテムについて実行されるアクションを記述するテキストを含む。例えば、図8Eにおいて、メニューアイテム「今再生する」828が、(図8Fに示すように)選択されたユーザインターフェースオブジェクト802−2に関連付けられたコンテンツアイテムを再生するために選択可能である。図8Gにおいて、メニューアイテム「移動」830が、(図8Hに示すように)選択されたユーザインターフェースオブジェクト802ー5に関連付けられたコンテンツアイテムをコンテンツアイテムの待ち列内で移動するために選択可能である。
図8I〜8Lは、ユーザインターフェースオブジェクトに関連付けられた情報をスクロールすることを示す。例えば、図8I及び8Jは、ユーザインターフェースオブジェクト802−7を静止させたまま、選択されたユーザインターフェースオブジェクト802−5に関連付けられた情報812をスクロールすることを示す。同様に、図8K及び8Lは、ユーザインターフェースオブジェクト802ー5を静止させたまま、選択されたユーザインターフェースオブジェクト802ー7に関連付けられた情報814をスクロールすることを示す。
図9A〜9Eは、いくつかの実施形態による、簡易コンテンツユーザインターフェースの方法を示す流れ図である。本方法は、図1〜5を参照して上述した電子デバイス(例えば、電子デバイス100、300又は500など)で、任意選択的に実行される。方法900の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明されるように、方法900は、簡易コンテンツユーザインターフェースを提供する。本方法は、コンテンツアイテムを選択するための直観的なユーザインターフェースを提供することによりデバイス上のユーザインターフェースと対話するときのユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインターフェースを作成する。バッテリ動作電子デバイスに関しては、ユーザのユーザインターフェースとの対話の効率をあげることにより、電力が節約され、バッテリを充電する間隔を長くする。
いくつかの実施形態では、1つ以上のプロセッサ及びメモリを有する電子デバイス500は、ディスプレイ(例えば、リモートディスプレイデバイス又は電子デバイスと一体化したディスプレイ)での提示用に、ユーザインターフェースを生成し(902)、当該ユーザインターフェースは、(例えば、第1列の第1UIオブジェクトの下に、)第1ユーザインターフェースオブジェクトに隣接するユーザインターフェースの第1領域に関連付けられた第1ユーザインターフェースオブジェクト(904)(例えば、アルバムのカバーアート、映画のポスターなど)と、(例えば、第1列とは異なる第2列の第2UIオブジェクトの下に、)第2ユーザインターフェースオブジェクトに隣接し、第1領域とは異なるユーザインターフェースの第2領域に関連付けられた第2ユーザインターフェースオブジェクト(908)(例えば、アルバムのカバーアート、映画のポスターなど)とを含む。例えば、図8A及び8Bは、隣接領域806−2に関連付けられたユーザインターフェースオブジェクト802−3、及び、隣接領域806−1に関連付けられたユーザインターフェースオブジェクト802−2を示す。
第1ユーザインターフェースオブジェクト(920)が選択される間に、電子デバイスは、第1領域において、第1ユーザインターフェースオブジェクトに関連付けられた第1情報(例えば、第1UIオブジェクトに関連付けられたコンテンツを記述する情報及びコンテンツについてのアクションを実行するためのメニューアイテム)を表示させ(922)、第2ユーザインターフェースオブジェクトの選択を検出する(936)。例えば、図8Aは、ユーザインターフェースオブジェクト802−3が選択される間に、領域806−2に情報808を表示することを示す。
第1情報が第1領域において表示されている間に第2ユーザインターフェースオブジェクトの選択を検出することに応じて(938)、電子デバイスは、第1ユーザインターフェースオブジェクトを表示したままで、第1領域における第1情報の表示を終えさせ(940)、第2領域において、第2ユーザインターフェースオブジェクトに関連付けられた第2情報(例えば、第2UIオブジェクトに関連付けられたコンテンツを記述する情報及びコンテンツについてのアクションを実行するためのメニューアイテム)を表示させる(942)。例えば、図8Bでは、ユーザインターフェースオブジェクト802−2が選択され、選択されたユーザインターフェースオブジェクト802−2に関連付けられた情報810が、関連付けられた領域806−1において表示され、情報808は、もはや領域806−2に表示されない。
いくつかの実施形態では、電子デバイスは、第1及び第2ユーザインターフェースオブジェクトをスクロールする入力(例えば、スワイプ、タップ、ボタン押下など)を受信し(952)、第1及び第2ユーザインターフェースオブジェクトをスクロールする入力に応じて、任意選択的に、第1領域を第1ユーザインターフェースオブジェクトとともにスクロールし(954)、任意選択的に、第2領域を第2ユーザインターフェースオブジェクトとともにスクロールする。例えば、図8A〜8Dは、領域806−1、806−2及び806−3を、ユーザインターフェースオブジェクト802−2、802−3及び802−5とともにそれぞれスクロールすることを示す。
いくつかの実施形態では、第1情報は、第1メニューアイテムを含む1つ以上の選択可能なアイテムを含む(924)。第1ユーザインターフェースオブジェクトが選択される間に、電子デバイスは、任意選択的に、第1の選択可能なアイテムの選択(例えば、第1メニューアイテムが強調表示されている間の第1メニューアイテムを選択するユーザ入力)を受信する(930)。第1メニューアイテムの選択に応じて、電子デバイスは、任意選択的に、第1の選択可能なアイテムに対応する第1ユーザ入力応答を提示する(932)(例えば、第1ユーザインターフェースオブジェクトに関連付けられたコンテンツを再生すること、第1メニューアイテムに関連付けられたユーザインターフェースを表示することなど)。例えば、図8Eにおいて、メニューアイテム「今再生する」828が、(図8Fに示すように)選択されたユーザインターフェースオブジェクト802−2に関連付けられたコンテンツアイテムを再生するために選択可能である。
いくつかの実施形態では、第2情報は、第2の選択可能なアイテムを含む1つ以上のメニューアイテムを含む(944)。第2ユーザインターフェースオブジェクトが選択される間に、電子デバイスは、任意選択的に、第2の選択可能なアイテムの選択(例えば、第2の選択可能なアイテムが強調表示されている間の第2の選択可能なアイテムを選択するユーザ入力)を受信する(956)。第2の選択可能なアイテムの選択に応じて、電子デバイスは、任意選択的に、第2の選択可能なアイテムに対応する第2ユーザ入力応答を提示する(958)(例えば、第2ユーザインターフェースオブジェクトに関連付けられたコンテンツを再生すること、第2の選択可能なアイテムに関連付けられたユーザインターフェースを表示することなど)。例えば、図8Gにおいて、メニューアイテム「移動」830が、(図8Hに示すように)選択されたユーザインターフェースオブジェクト802ー5に関連付けられたコンテンツアイテムを、コンテンツアイテムの待ち列内で移動するために選択可能である。
いくつかの実施形態では、第1情報の1つ以上の選択可能なアイテムは、第2情報の1つ以上の選択可能なアイテムとは異なる(946)(第1ユーザインターフェースオブジェクトが第2ユーザインターフェースオブジェクト(例えば、「再生中」又は「次にくるもの」)とは別個のグループ(例えば、「履歴」)に属するとの判定に従う)。例えば、図8Aにおいて、ユーザインターフェースオブジェクト802−3は、現在表示しているコンテンツアイテムであり、そのため、選択されるとメニューアイテム「ポーズ」818が表示される。図8Bにおいて、ユーザインターフェースオブジェクト802−2は、最近再生したコンテンツアイテムの履歴にあり、そのため、選択されるとメニューアイテム「“次のもの”に追加」822が表示され、ユーザは再度その歌を再生できる。図8Cにおいて、ユーザインターフェースオブジェクト802ー5は、今後生じるコンテンツアイテムの待ち列にあり、そのため、選択されるとメニューアイテム「移動」826が表示され、ユーザはその歌の位置を待ち列内で移動できる。ユーザが直接対話しないユーザインターフェース要素の表示を見合わせることによってユーザインターフェースを簡素化することで、ユーザがそれらユーザインターフェース要素に、より容易にフォーカスでき、デバイスをより素早く、効率的に使用できるようになり、これにより、ユーザエクスペリエンスが向上し、特にバッテリ駆動デバイスに関係するデバイスを使用するのにかかる時間(そしてエネルギ)を削減できる。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、第1コンテンツアイテムに対応し(906)、第2ユーザインターフェースオブジェクトは、任意選択的に、第2コンテンツアイテムに対応し(910)、第1ユーザインターフェース応答は、任意選択的に、第1コンテンツアイテムに関連付けられ(934)、第2ユーザインターフェース応答は、任意選択的に、第2コンテンツアイテムに関連付けられる(960)。例えば、図8Eにおいて、メニューアイテム「今再生する」828が、(図8Fに示すように)選択されたユーザインターフェースオブジェクト802−2に関連付けられたコンテンツアイテムを再生するために選択可能であり、図8Gにおいて、メニューアイテム「移動」830が、(図8Hに示すように)選択されたユーザインターフェースオブジェクト802ー5に関連付けられたコンテンツアイテムをコンテンツアイテムの待ち列内で移動するために選択可能である。
いくつかの実施形態では、第1情報の1つ以上の選択可能なアイテムは、第1コンテンツアイテムについて実行されるアクションを記述するテキスト(例えば、図8Eにおけるテキスト828などの、コンテンツアイテムを再生すること、コンテンツアイテムを待ち列内で移動すること、コンテンツアイテムを購入することなど)を含み(926)、第2情報の1つ以上の選択可能なアイテムは、任意選択的に、第2コンテンツアイテムについて実行されるアクションを記述するテキスト(例えば、図8Gにおけるテキスト830などの、コンテンツアイテムを再生すること、コンテンツアイテムを待ち列内で移動すること、コンテンツアイテムを購入することなど)を含む(948)。
いくつかの実施形態では、第1情報は、第1コンテンツアイテムを記述するテキスト(例えば、図8Aにおけるテキスト816などの、歌のタイトル、リリース日、購入価格など)を更に含み(928)、第2情報は、任意選択的に、第2コンテンツアイテムを記述するテキスト(例えば、図8Bにおけるテキスト820などの、歌のタイトル、リリース日、購入価格など)を更に含む(950)。
いくつかの実施形態では、電子デバイスは、スクロール入力(例えば、スワイプ、タップ、ボタン押下など)を受信する(962)。スクロール入力を受信することに応じて(964)、第1ユーザインターフェースオブジェクトが選択されているとの判定に従い、電子デバイスは、任意選択的に、第2ユーザインターフェースオブジェクトを静止したまま第1情報をスクロールし(966)、第2ユーザインターフェースオブジェクトが選択されているとの判定に従い、電子デバイスは、任意選択的に、第1ユーザインターフェースオブジェクトを静止したまま第2情報をスクロールする(968)。例えば、図8I及び8Jは、ユーザインターフェースオブジェクト802−7を静止させたまま、選択されたユーザインターフェースオブジェクト802−5に関連付けられた情報812をスクロールすることを示す。同様に、図8K及び8Lは、ユーザインターフェースオブジェクト802ー5を静止させたまま、選択されたユーザインターフェースオブジェクト802ー7に関連付けられた情報814をスクロールすることを示す。
いくつかの実施形態では、ユーザインターフェースを生成することは、第1及び第2ユーザインターフェースオブジェクトを第1軸に沿って整列させること(914)と、第1軸と略直角な第2軸(例えば、第1軸及び第2軸は、直角10度以内にある)に沿って、第1ユーザインターフェースオブジェクトに隣接する第1領域を配置し(916)、第2軸に沿って、関連付けられた第2ユーザインターフェースオブジェクトに隣接する第2領域を配置することを含む。例えば、図8Aにおいて、ユーザインターフェースオブジェクト802−2及び802−3は、横軸に沿って整列され、領域806−1は、横軸と略直角な縦軸に沿って、ユーザインターフェースオブジェクト802−2に隣接して配置され、領域806−2は、縦軸に沿って、ユーザインターフェースオブジェクト802−3に隣接して配置される。
いくつかの実施形態では、第1及び第2ユーザインターフェースオブジェクトはともに、同一の空間次元を有する画像である(918)(例えば、第1及び第2ユーザインターフェースオブジェクトは高さと幅が同一であるが、別個のアルバムカバーなど、画像が異なる)。例えば、図8Aにおいて、ユーザインターフェースオブジェクト802−2及び802−3はともに、高さと幅が同じアルバムカバーである。
いくつかの実施形態では、ユーザインターフェースオブジェクトは、(例えば、第1列及び第2列とは異なる第3列における第3UIオブジェクトの下に、)第3ユーザインターフェースオブジェクトに隣接し、第1領域及び第2領域とは別個のユーザインターフェースの第3領域に関連付けられた第3ユーザインターフェースオブジェクト(例えば、アルバムのカバーアート、映画のポスターなど)を含む(912)。例えば、ユーザインターフェースオブジェクト802−5は、領域806−1及び806−2とは異なる隣接領域806−3に関連付けられる。第2ユーザインターフェースオブジェクトが選択され、第2ユーザインターフェースオブジェクトに関連付けられた第2情報が第2領域において表示されている間に、電子デバイスは、任意選択的に、第3ユーザインターフェースオブジェクトの選択を検出する(970)。第2情報が第2領域において表示されている間に第3ユーザインターフェースオブジェクトの選択を検出することに応じて(972)、電子デバイスは、任意選択的に、第2ユーザインターフェースオブジェクトを表示したままで、第2領域における第2情報の表示を終えさせ(974)、任意選択的に、第3領域において、第3ユーザインターフェースオブジェクトに関連付けられた第3情報(例えば、第3UIオブジェクトに関連付けられたコンテンツを記述する情報及びコンテンツについてのアクションを実行するためのメニューアイテム)を表示させる(976)。例えば、図8Cでは、ユーザインターフェースオブジェクト802ー5が選択され、選択されたユーザインターフェースオブジェクト802ー5に関連付けられた情報812が、関連付けられた領域806−3において表示され、情報810はもはや領域806−1に表示されず、情報808はもはや領域806−2に表示されない。いくつかの実施形態では、対応する領域を有する複数の追加ユーザインターフェースオブジェクトが、ユーザインターフェースにおいて表示され、上述の第1、第2及び第3ユーザインターフェースオブジェクトの特性のいくつかを共用する。いくつかの実施形態では、ユーザインターフェースオブジェクトのうちの選択されたひとつに対応する情報が、選択されたユーザインターフェースオブジェクトに対応する領域において表示され、選択されていないユーザインターフェースオブジェクトに対応する情報は表示されず、ユーザが現在選択されているユーザインターフェースオブジェクトと、現在選択されているユーザインターフェースオブジェクトと対話可能なオプションにフォーカスできるようにする。
上述の情報処理方法での動作は、汎用プロセッサ(例えば、図1A及び図3に関連して上述されたようなもの)又は特定用途向けチップなどの、情報処理装置内の1つ以上の機能モジュールを稼働することによって、任意選択的に実施される。
図9A〜9Eを参照して上述された動作は、図1A〜1Bに図示される構成要素によって、任意選択的に実施される。例えば、生成動作902、使役動作922、検出動作936、使役動作940、及び使役動作942は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190によって実施される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1のそれぞれのイベント認識部180は、イベント情報をそれぞれのイベント定義186と比較し、タッチ感知面上の第1の位置の第1の接触がユーザインターフェース上のオブジェクトの選択などの、既定のイベント又はサブイベントに対応するかどうかを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデーター176若しくはオブジェクトアップデーター177を任意選択的に利用するか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデーター178にアクセスする。同様に、当業者にとって、他の処理が図1A〜1Bに示される構成要素に基づいてどのように実施されるかは明らかであるだろう。
図9A〜9Eにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。更に加えて、本明細書で説明される他の方法(例えば、方法700)に関連して本明細書で説明される、他のプロセスの詳細もまた、図9A〜9Eに関連して上述された方法900と類似の方式で適用可能であることに留意されたい。例えば、方法900を参照して上述したユーザインターフェース、ユーザインターフェースオブジェクト、待ち列、履歴、見出し、領域、アルバムアート、コンテンツアイテム、情報、メニューアイテム、及び電子デバイスは、任意選択的に、本明細書で説明する他の方法(例えば、方法700)を参照して本明細書で説明するユーザインターフェース、ユーザインターフェースオブジェクト、待ち列、履歴、見出し、領域、アルバムアート、コンテンツアイテム、情報、メニューアイテム、及び電子デバイスの特性の1つ以上を有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
いくつかの実施形態によれば、図10は、説明される様々な実施形態の原理に従って構成された、電子デバイス1000の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図10で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に支持する。
図10に示されるように、電子デバイス1000は、任意選択的に、1つ以上のユーザインターフェースオブジェクト(例えば、コンテンツアイテム、見出しなど)を含むユーザインターフェースを表示するように構成されたディスプレイユニット1002と、ユーザ入力、選択などを受信する入力ユニット1004(例えば、タッチ感知面、キーボード、マウス、又は他の入力ユニット)と、オーディオを再生し、及び/又はオーディオをオーディオ再生用の他のデバイスへ送信するオーディオユニット1008と、ディスプレイユニット1002及び入力ユニット1004に接続された処理ユニット1010と、を備える。いくつかの実施形態では、処理ユニット1010は、任意選択的に、表示可能化ユニット1012、受信ユニット1014、判定ユニット1016、及びオーディオ有効化ユニット1018を含む。
いくつかの実施形態では、処理ユニット1010は、(例えば、表示可能化ユニット1012で)ディスプレイでの提示用に、複数のコンテンツアイテム、第1見出し及び第2見出しを含むユーザインターフェースを生成するように構成される。ユーザインターフェースがディスプレイに提示される間に、処理ユニット1010は、複数のコンテンツアイテムをスクロールする入力を(例えば、受信ユニット1014で)受信するように構成される。入力に応じて、処理ユニット1010は、複数のコンテンツアイテムを(例えば、表示可能化ユニット1012で)スクロールするよう構成され、ここで複数のコンテンツアイテムは、複数のコンテンツアイテムのうちの、現在再生している第1コンテンツアイテムとともに第1見出しを(例えば、表示可能化ユニット1012で)スクロールすること、及び、複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに第2見出しを(例えば、表示可能化ユニット1012で)スクロールすることを含む。
いくつかの実施形態では、複数のコンテンツアイテムをスクロールすることは、第1見出し及び第1コンテンツアイテムを(例えば、表示可能化ユニット1012により)オフスクリーンでスクロールすること、及び、第2見出しがディスプレイに静止して提示されている間に、第2コンテンツアイテムを(例えば、表示可能化ユニット1012により)オフスクリーンでスクロールし、コンテンツアイテムの待ち列で今後生じる複数の追加コンテンツアイテムを(例えば、表示可能化ユニット1012により)オンスクリーンでスクロールすることを更に含む。
いくつかの実施形態では、処理ユニット1010は更に、ユーザインターフェースがディスプレイに提示され、第1コンテンツアイテムがオフスクリーンである間に、第1特性を有するスワイプジェスチャを(例えば、受信ユニット1014で)受信するように構成される。スワイプジェスチャの第1特性が所定の閾値を超えているとの判定に従い、処理ユニット1010は更に、第1コンテンツアイテムがディスプレイに提示されるように(例えば、表示可能化ユニット1012により)複数のコンテンツアイテムをスクロールするよう構成され、スワイプジェスチャの第1特性が所定の閾値を超えていないとの判定に従い、処理ユニット1010は更に、第1特性に基づく量だけ複数のコンテンツアイテムを(例えば、表示可能化ユニット1012により)スクロールするよう構成される。
いくつかの実施形態では、処理ユニット1010は更に、ユーザインターフェースがディスプレイに提示され、第1コンテンツアイテムがオフスクリーンである間に、入力が受信されていない時間を(例えば、判定ユニット1016で)判定するよう構成される。時間が所定の閾値を超えているとの判定に従い、処理ユニット1010は更に、第1コンテンツアイテムがディスプレイに提示されるように複数のコンテンツアイテムを(例えば、表示可能化ユニット1012で)スクロールするよう構成される。
いくつかの実施形態では、ユーザインターフェースは、入力を受信する前に、(例えば、表示可能化ユニット1012により)第1見出し及び第2見出しと同時に表示される第3見出しを更に含み、複数のコンテンツアイテムをスクロールすることは、(例えば、表示可能化ユニット1012により)複数のコンテンツアイテムのうちの、コンテンツアイテムの履歴において最も最近に再生された第3コンテンツアイテムとともに第3見出しをスクロールすることと、(例えば、表示可能化ユニット1012により)第1見出し及び第1コンテンツアイテムをオフスクリーンでスクロールすることと、第3見出しがディスプレイに静止して提示されている間に、(例えば、表示可能化ユニット1012により)第3コンテンツアイテムをオフスクリーンでスクロールすることと、(例えば、表示可能化ユニット1012により)コンテンツアイテムの履歴における複数の追加コンテンツアイテムをオンスクリーンでスクロールすることを更に含む。
いくつかの実施形態では、処理ユニット1010は更に、ユーザインターフェースがディスプレイに提示される間に複数のコンテンツアイテムの各コンテンツアイテムを選択する入力を(例えば、受信ユニット1014で)受信するよう構成される。各コンテンツアイテムを選択する入力に応じて、処理ユニット1010は更に、対応するコンテンツアイテムを(例えば、オーディオ有効化ユニット1018で)再生し、対応するコンテンツアイテムに関連付けられた画像に(例えば、表示可能化ユニット1012で)ズームインするよう構成される。
いくつかの実施形態では、処理ユニット1010は更に、ユーザインターフェースがディスプレイに提示される間に、コンテンツアイテムの待ち列の対応するコンテンツアイテムを移動することをリクエストする入力を(例えば、受信ユニット1014で)受信するよう構成される。対応するコンテンツアイテムを移動するようリクエストする入力に応じて、処理ユニット1010は更に、更新後のユーザインターフェースにおいて複数のコンテンツアイテムをより小さく提示することによりユーザインターフェースを(例えば、表示可能化ユニット1012で)更新するよう構成される。更新されたユーザインターフェースがディスプレイに提示される間に、処理ユニット1010は更に、入力に応じてコンテンツアイテムの待ち列における対応するコンテンツアイテムを(例えば、表示可能化ユニット1014で)移動するよう構成される。
いくつかの実施形態では、処理ユニット1010は更に、ユーザインターフェースがディスプレイに提示される間に、現在再生している第1コンテンツアイテムに関連付けられた追加ユーザインターフェースを提示するリクエストを(例えば、受信ユニット1014で)受信するよう構成される。リクエストに応じて、処理ユニット1010は更に、ディスプレイでの提示用に、第1コンテンツアイテムに関連付けられた第1画像を含む追加ユーザインターフェースを(例えば、表示可能化ユニット1012で)生成するよう構成される。いくつかの実施形態では、第1コンテンツアイテム及び第2コンテンツアイテムはともに、同じアルバムに関連付けられ、第1画像は同じアルバムに関連付けられている。いくつかの実施形態では、第1コンテンツアイテムは第1アルバムに関連付けられ、第2コンテンツアイテムは第2アルバムに関連付けられ、追加ユーザインターフェースは、第2コンテンツアイテムに関連付けられた第2画像を更に含む。いくつかの実施形態では、複数のコンテンツアイテムは、ストリーミングラジオから再生したコンテンツアイテムの履歴のうち最も最近再生された第3コンテンツアイテムを更に含み、追加ユーザインターフェースは、第3コンテンツアイテムに関連付けられた第3画像を更に含む。いくつかの実施形態では、ユーザインターフェースは、現在再生している第1コンテンツアイテムに関連付けられたアルバムアートに基づく背景画像を更に含む。
いくつかの実施形態では、処理ユニット1010は更に、第2コンテンツアイテムが再生中で第1コンテンツアイテムがもはや再生中でないように、再生を(例えば、オーディオ有効化ユニット1018で)進めるよう構成される。第1及び第2見出しがディスプレイ上で静止して提示されている間に、処理ユニット1010更には、現在再生している第2コンテンツアイテムが第1見出しの下にくるように第1及び第2コンテンツアイテムを(例えば、表示可能化ユニット1012で)スクロールするよう構成される。
いくつかの実施形態では、複数のコンテンツアイテムがオンデマンドコンテンツアイテムであるとの判定に従い、ユーザインターフェースがオンデマンドユーザインターフェースであり、複数のコンテンツアイテムがストリーミングコンテンツアイテムであるとの判定に従い、ユーザインターフェースが、オンデマンドユーザインターフェースとは異なるストリーミングユーザインターフェースである。いくつかの実施形態では、オンデマンドユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの待ち列内の第1の数のコンテンツアイテムを(例えば、表示可能化ユニット1012で)提示することを含み、ストリーミングユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの待ち列内の第2の数のコンテンツアイテムを(例えば、表示可能化ユニット1012で)提示することを含み、第2の数は第1の数より少ない。いくつかの実施形態では、オンデマンドユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの履歴内の1つのコンテンツアイテムのみを(例えば、表示可能化ユニット1012で)提示することを含み、ストリーミングユーザインターフェースをディスプレイに提示することは、コンテンツアイテムの履歴における複数の追加コンテンツアイテムを(例えば、表示可能化ユニット1012で)提示することを含む。
いくつかの実施形態によれば、図11は、説明される様々な実施形態の原理に従って構成された、電子デバイス1100の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアとの組み合わせによって、任意選択的に実装される。図11で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図11に示されるように、電子デバイス1100は、任意選択的に、1つ以上のユーザインターフェースオブジェクト(例えば、コンテンツアイテム、見出しなど)を含むユーザインターフェースを表示するように構成されたディスプレイユニット1102と、ユーザ入力、選択などを受信する入力ユニット1104(例えば、タッチ感知面、キーボード、マウス、又は他の入力ユニット)と、オーディオを再生し、及び/又はオーディオをオーディオ再生用の他のデバイスへ送信するオーディオユニット1108と、ディスプレイユニット1102及び入力ユニット1104に接続された処理ユニット1110と、を備える。いくつかの実施形態において、処理ユニット1110は、任意選択的に、表示可能化ユニット1112、受信ユニット1114、検出ユニット1116、及びオーディオ有効化ユニット1118を有する。
いくつかの実施形態では、処理ユニット1110は、ディスプレイでの提示用にユーザインターフェースを(例えば、表示可能化ユニット1112で)生成するよう構成され、ユーザインターフェースは、第1ユーザインターフェースオブジェクトに隣接するユーザインターフェースの第1領域に関連付けられた第1ユーザインターフェースオブジェクトと、第2ユーザインターフェースオブジェクトに隣接し、第1領域とは異なるユーザインターフェースの第2領域に関連付けられた第2ユーザインターフェースオブジェクトとを含む。第1ユーザインターフェースオブジェクトが選択される間に、処理ユニット1110は、第1領域において、第1ユーザインターフェースオブジェクトに関連付けられた第1情報を(例えば、表示可能化ユニット1112で)表示させ、第2ユーザインターフェースオブジェクトの選択を(例えば、検出ユニット1116で)検出するように構成される。第1情報が第1領域において表示されている間に第2ユーザインターフェースオブジェクトの選択を検出することに応じて、処理ユニット1110は、(例えば、表示可能化ユニット1112により)第1ユーザインターフェースオブジェクトの表示を維持したまま、第1領域における第1情報の表示を終えさせ、第2領域において、第2ユーザインターフェースオブジェクトに関連付けられた第2情報を(例えば、表示可能化ユニット1112で)表示させるように構成される。
いくつかの実施形態では、処理ユニット1110は更に、第1及び第2ユーザインターフェースオブジェクトをスクロールする入力を(例えば、受信ユニット1114で)受信し、第1及び第2ユーザインターフェースオブジェクトをスクロールする入力に応じて、(例えば、表示可能化ユニット1112により)第1領域を第1ユーザインターフェースオブジェクトとともにスクロールし、(例えば、表示可能化ユニット1112により)第2領域を第2ユーザインターフェースオブジェクトとともにスクロールするよう構成される。
いくつかの実施形態では、第1情報は、第1メニューアイテムを含む1つ以上の選択可能なアイテムを含む。処理ユニット1110は更に、第1ユーザインターフェースオブジェクトが選択される間に、第1の選択可能なアイテムの選択を(例えば、受信ユニット1114で)受信し、第1の選択可能なアイテムの選択に応じて、第1の選択可能なアイテムに対応する第1ユーザインターフェース応答を(例えば、表示可能化ユニット1112で)提示するよう構成される。
いくつかの実施形態では、第2情報は、第2の選択可能なアイテムを含む1つ以上のメニューアイテムを含む。処理ユニット1110は更に、第2ユーザインターフェースオブジェクトが選択される間に、第2の選択可能なアイテムの選択を(例えば、受信ユニット1114で)受信し、第2の選択可能なアイテムの選択に応じて、第2の選択可能なアイテムに対応する第2ユーザインターフェース応答を(例えば、表示可能化ユニット1112で)提示するよう構成される。
いくつかの実施形態では、第1情報の1つ以上の選択可能なアイテムは、第2情報の1つ以上の選択可能なアイテムとは異なる。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、第1コンテンツアイテムに対応し、第2ユーザインターフェースオブジェクトは、第2コンテンツアイテムに対応し、第1ユーザインターフェース応答は、第1コンテンツアイテムに関連付けられ、第2ユーザインターフェース応答は、第2コンテンツアイテムに関連付けられる。いくつかの実施形態では、第1情報の1つ以上の選択可能なアイテムは、第1コンテンツアイテムについて実行されるアクションを記述するテキストを含み、第2情報の1つ以上の選択可能なアイテムは、第2コンテンツアイテムについて実行されるアクションを記述するテキストを含む。いくつかの実施形態では、第1情報は、第1コンテンツアイテムを記述するテキストを更に含み、第2情報は、第2コンテンツアイテムを記述するテキストを更に含む。
いくつかの実施形態では、処理ユニット1110は更に、スクロール入力を(例えば、受信ユニット1114で)受信するよう構成される。スクロール入力を受信することに応じて、処理ユニット1110は更に、第1ユーザインターフェースオブジェクトが選択されているとの判定に従い、第2ユーザインターフェースオブジェクトを静止したまま第1情報を(例えば、表示可能化ユニット1112により)スクロールし、第2ユーザインターフェースオブジェクトが選択されているとの判定に従い、第1ユーザインターフェースオブジェクトを静止したまま第2情報を(例えば、表示可能化ユニット1112により)スクロールするよう構成される。
いくつかの実施形態では、処理ユニット1110は更に、(例えば、表示可能化ユニット1112により)第1及び第2ユーザインターフェースオブジェクトを第1軸に沿って整列させ、(例えば、表示可能化ユニット1112により)第1軸と略直角な第2軸に沿って第1ユーザインターフェースオブジェクトに隣接する第1領域を配置し、(例えば、表示可能化ユニット1112により)第2軸に沿って関連付けられた第2ユーザインターフェースオブジェクトに隣接する第2領域を配置するよう構成される。いくつかの実施形態では、第1及び第2ユーザインターフェースオブジェクトはともに、同一の空間次元を有する画像である。
いくつかの実施形態では、ユーザインターフェースは、第3ユーザインターフェースオブジェクトに隣接し、第1領域及び第2領域とは異なるユーザインターフェースの第3領域に関連付けられた第3ユーザインターフェースオブジェクトを含む。処理ユニット1110は更に、第2ユーザインターフェースオブジェクトが選択され、第2ユーザインターフェースオブジェクトに関連付けられた第2情報が第2領域において表示されている間に、第3ユーザインターフェースオブジェクトの選択を(例えば、検出ユニット1116で)検出するよう構成される。第2情報が第2領域において表示されている間に第3ユーザインターフェースオブジェクトの選択を検出することに応じて、処理ユニット1110は更に、(例えば、表示可能化ユニット1112により)第2ユーザインターフェースオブジェクトの表示を維持したまま、第2領域における第2情報の表示を終えさせ、第3領域において、第3ユーザインターフェースオブジェクトに関連付けられた第3情報を(例えば、表示可能化ユニット1112で)表示させるよう構成される。
上述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかし、上述の例示的説明は、網羅的であること、又は本発明を、開示されている寸分違わない形態に限定することを意図されてはいない。上述の教示を考慮すれば、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、想到される特定の用途に好適な様々な改良で本発明及び様々な実施形態を最良な形で使用することを可能とするために、これらの実施形態を選択し説明した。

Claims (18)

  1. 1つ以上のプロセッサ及びメモリを有する電子デバイスにおいて、
    ディスプレイでの提示用に、複数のコンテンツアイテム、第1見出し及び第2見出しを含むユーザインターフェースを生成することと、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記複数のコンテンツアイテムをスクロールする入力を受信することと、
    前記入力に応じて、前記複数のコンテンツアイテムをスクロールすることは、
    前記複数のコンテンツアイテムのうちの、現在再生中の第1コンテンツアイテムとともに前記第1見出しをスクロールすることと、
    前記複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに前記第2見出しをスクロールすること
    を含む、方法。
  2. 前記複数のコンテンツアイテムをスクロールすることは、
    前記第1見出し及び前記第1コンテンツアイテムを、オフスクリーンでスクロールすることと、
    前記第2見出しが前記ディスプレイに静止して提示される間に、
    前記第2コンテンツアイテムをオフスクリーンでスクロールし、及び、
    前記コンテンツアイテムの待ち列で今後生じる複数の追加コンテンツアイテムをオンスクリーンでスクロールすることと、
    を含む、請求項1に記載の方法。
  3. 前記方法が、
    前記ユーザインターフェースが前記ディスプレイに提示され、前記第1コンテンツアイテムがオフスクリーンにある間に、第1特性を有するスワイプジェスチャを受信することと、
    前記スワイプジェスチャの前記第1特性が所定の閾値を超えるとの判定に従い、前記第1コンテンツアイテムが前記ディスプレイに提示されるように前記複数のコンテンツアイテムをスクロールすることと、
    前記スワイプジェスチャの前記第1特性が所定の閾値を超えていないとの判定に従い、前記第1特性に基づく量だけ前記複数のコンテンツアイテムをスクロールすること、
    を更に含む、請求項2に記載の方法。
  4. 前記方法が、
    前記ユーザインターフェースが前記ディスプレイに提示され、前記第1コンテンツアイテムがオフスクリーンにある間に、入力が受信されていない時間を判定することと、
    前記時間が所定の閾値を超えるとの判定に従い、前記第1コンテンツアイテムが前記ディスプレイに提示されるように前記複数のコンテンツアイテムをスクロールすること
    を更に含む、請求項2に記載の方法。
  5. 前記ユーザインターフェースは、前記入力を受信する前に、前記第1見出し及び前記第2見出しと同時に表示される第3見出しを更に含み、前記複数のコンテンツアイテムをスクロールすることは、
    前記複数のコンテンツアイテムのうちの、コンテンツアイテムの履歴において最も最近に再生された第3コンテンツアイテムとともに前記第3見出しをスクロールすることと、
    前記第1見出し及び前記第1コンテンツアイテムを、オフスクリーンでスクロールすることと、
    前記第3見出しが前記ディスプレイに静止して提示される間に、
    前記第3コンテンツアイテムをオフスクリーンでスクロールし、
    前記コンテンツアイテムの履歴内の複数の追加コンテンツアイテムをオンスクリーンでスクロールすることと、
    を含む、請求項1に記載の方法。
  6. 前記方法が、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記複数のコンテンツアイテムのうち対応するコンテンツアイテムを選択する入力を受信することと、
    前記対応するコンテンツアイテムを選択する前記入力を受信することに応じて、
    前記対応するコンテンツアイテムを再生することと、
    前記対応するコンテンツアイテムに関連付けられた画像上でズームインすること、
    を更に含む、請求項1に記載の方法。
  7. 前記方法が、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記コンテンツアイテムの待ち列の対応するコンテンツアイテムを移動するようリクエストする入力を受信することと、
    前記対応するコンテンツアイテムを移動するようリクエストする前記入力に応じて、更新後の前記ユーザインターフェースで前記複数のコンテンツアイテムをより小さく提示することにより前記ユーザインターフェースを更新することと、
    更新後の前記ユーザインターフェースが前記ディスプレイに提示される間に、入力に応じて前記コンテンツアイテムの待ち列における前記対応するコンテンツアイテムを移動することと、
    を更に含む、請求項1に記載の方法。
  8. 前記方法が、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記現在再生している第1コンテンツアイテムに関連付けられた追加ユーザインターフェースを提示するリクエストを受信することと、
    前記リクエストに応じて、前記ディスプレイでの提示用に、前記第1コンテンツアイテムに関連付けられた第1画像を含む前記追加ユーザインターフェースを生成すること、
    を更に含む、請求項1に記載の方法。
  9. 前記第1コンテンツアイテム及び前記第2コンテンツアイテムはともに、同じアルバムに関連付けられ、前記第1画像は前記同じアルバムに関連付けられている、請求項8に記載の方法。
  10. 前記第1コンテンツアイテムは前記第1アルバムに関連付けられ、前記第2コンテンツアイテムは前記第2アルバムに関連付けられ、前記追加ユーザインターフェースは、前記第2コンテンツアイテムに関連付けられた第2画像を更に含む、請求項8に記載の方法。
  11. 前記複数のコンテンツアイテムは、ストリーミングラジオから再生したコンテンツアイテムの履歴のうち最も最近再生された第3コンテンツアイテムを更に含み、前記追加ユーザインターフェースは、前記第3コンテンツアイテムに関連付けられた第3画像を更に含む、請求項8に記載の方法。
  12. 前記ユーザインターフェースは、前記現在再生している第1コンテンツアイテムに関連付けられたアルバムアートに基づく背景画像を更に含む、請求項1に記載の方法。
  13. 前記方法が、
    前記第2コンテンツアイテムが再生中で前記第1コンテンツアイテムがもはや再生中でないように、再生を進めることと、
    前記第1及び第2見出しが前記ディスプレイ上で静止して提示されている間に、前記現在再生している第2コンテンツアイテムが前記第1見出しの下にくるように前記第1及び第2コンテンツアイテムをスクロールすること、
    を更に含む、請求項1に記載の方法。
  14. 前記複数のコンテンツアイテムがオンデマンドコンテンツアイテムであるとの判定に従い、前記ユーザインターフェースがオンデマンドユーザインターフェースであり、及び、
    前記複数のコンテンツアイテムがストリーミングコンテンツアイテムであるとの判定に従い、前記ユーザインターフェースが、前記オンデマンドユーザインターフェースとは異なるストリーミングユーザインターフェースである、
    請求項1に記載の方法。
  15. 前記オンデマンドユーザインターフェースを前記ディスプレイに提示することは、前記コンテンツアイテムの待ち列内の第1の数の前記コンテンツアイテムを提示することを含み、及び、
    前記ストリーミングユーザインターフェースを前記ディスプレイに提示することは、前記コンテンツアイテムの待ち列内の第2の数の前記コンテンツアイテムを提示することを含み、前記第2の数は前記第1の数より少ない、
    請求項14に記載の方法。
  16. 前記オンデマンドユーザインターフェースを前記ディスプレイに提示することは、コンテンツアイテムの履歴内の1つのコンテンツアイテムのみを提示することを含み、及び、
    前記ストリーミングユーザインターフェースを前記ディスプレイに提示することは、前記コンテンツアイテムの履歴内の複数のコンテンツアイテムを提示することを含む、
    請求項15に記載の方法。
  17. 1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    ディスプレイでの提示用に、複数のコンテンツアイテム、第1見出し及び第2見出しを含むユーザインターフェースを生成し、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記複数のコンテンツアイテムをスクロールする入力を受信し、及び、
    前記入力に応じて、前記複数のコンテンツアイテムをスクロールするための命令を含み、前記複数のコンテンツアイテムをスクロールすることは、
    前記複数のコンテンツアイテムのうちの、現在再生中の第1コンテンツアイテムとともに第1見出しをスクロールすること及び、
    前記複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに前記第2見出しをスクロールすることを含む、
    電子デバイス。
  18. 1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは命令を含み、前記命令は、1つ以上のプロセッサ及びメモリを有する電子デバイスによって実行されると、前記デバイスに、
    ディスプレイでの提示用に、複数のコンテンツアイテム、第1見出し及び第2見出しを含むユーザインターフェースを生成させ、
    前記ユーザインターフェースが前記ディスプレイに提示される間に、前記複数のコンテンツアイテムをスクロールする入力を受信させ、及び、
    前記入力に応じて、前記複数のコンテンツアイテムをスクロールさせ、前記複数のコンテンツアイテムをスクロールすることは、
    前記複数のコンテンツアイテムのうちの、現在再生中の第1コンテンツアイテムとともに前記第1見出しをスクロールすること、及び、
    前記複数のコンテンツアイテムのうちの、コンテンツアイテムの待ち列において次にある第2コンテンツアイテムとともに前記第2見出しをスクロールすることを含む、非一時的コンピュータ可読記憶媒体。
JP2016570347A 2014-06-24 2015-06-23 音楽再生中ユーザインターフェース Active JP6367374B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462016600P 2014-06-24 2014-06-24
US62/016,600 2014-06-24
PCT/US2015/037260 WO2015200371A1 (en) 2014-06-24 2015-06-23 Music now playing user interface

Publications (2)

Publication Number Publication Date
JP2017525011A true JP2017525011A (ja) 2017-08-31
JP6367374B2 JP6367374B2 (ja) 2018-08-01

Family

ID=53773504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570347A Active JP6367374B2 (ja) 2014-06-24 2015-06-23 音楽再生中ユーザインターフェース

Country Status (6)

Country Link
US (5) US9841876B2 (ja)
EP (2) EP4068067A1 (ja)
JP (1) JP6367374B2 (ja)
CN (4) CN106415722B (ja)
AU (5) AU2015280062A1 (ja)
WO (1) WO2015200371A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US20150350141A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
CN106415722B (zh) * 2014-06-24 2019-12-13 苹果公司 音乐正在播放用户界面
US10120531B2 (en) 2015-09-08 2018-11-06 Apple Inc. User interfaces for navigating and playing content
US20190287085A1 (en) * 2016-11-04 2019-09-19 Gopro, Inc. Systems and methods for managing consumption of media items
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
KR102436985B1 (ko) 2019-05-31 2022-08-29 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11656838B2 (en) * 2019-11-11 2023-05-23 Apple Inc. User interfaces for time period-based curated playlists
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US20210349680A1 (en) * 2020-05-11 2021-11-11 Apple Inc. User interface for audio message
CN111831190B (zh) * 2020-07-10 2022-05-03 维沃移动通信有限公司 音乐应用程序控制方法、装置及电子设备
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
CN113204658A (zh) * 2021-05-27 2021-08-03 北京字跳网络技术有限公司 一种页面显示更新方法、装置、电子设备及存储介质
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040158555A1 (en) * 2003-02-11 2004-08-12 Terradigtal Systems Llc. Method for managing a collection of media objects
JP2007157145A (ja) * 2005-11-30 2007-06-21 Canon Inc ブラウジング装置の制御方法、グラフィックメニュー表示装置、表示装置の制御方法、表示装置及びコンピュータプログラム
JP2008018189A (ja) * 2006-07-14 2008-01-31 Sony Computer Entertainment Inc 端末装置及び通信管理方法
JP2009500761A (ja) * 2005-07-11 2009-01-08 ノキア コーポレイション ストライプユーザインターフェース
JP2009532806A (ja) * 2006-04-04 2009-09-10 ヤフー! インコーポレイテッド コンテンツのディスプレイ及びナビゲーションのインターフェイス
JP2010146301A (ja) * 2008-12-18 2010-07-01 Sharp Corp インターフェイス装置、およびgui構成方法
US8384672B2 (en) * 2006-03-31 2013-02-26 Sony Corporation Remote control system having a touch screen
JP2013536964A (ja) * 2010-09-02 2013-09-26 サムスン エレクトロニクス カンパニー リミテッド アイテムをディスプレーする方法及び装置
US20130346867A1 (en) * 2012-06-25 2013-12-26 United Video Properties, Inc. Systems and methods for automatically generating a media asset segment based on verbal input
JP2014010719A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 電子機器、制御方法及びプログラム

Family Cites Families (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
ES2397501T3 (es) * 1997-11-25 2013-03-07 Motorola Mobility, Llc Métodos, sistemas y elementos fabricados de reproducción de contenido audio
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
EP1717677B1 (en) 1998-01-26 2015-06-17 Apple Inc. Method and apparatus for integrating manual input
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
JP3509060B2 (ja) * 1998-05-28 2004-03-22 松下電器産業株式会社 表示制御装置および方法
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6580442B1 (en) 1999-12-01 2003-06-17 Ericsson Inc. Touch-based information processing device and method
US6248946B1 (en) * 2000-03-01 2001-06-19 Ijockey, Inc. Multimedia content delivery system and method
KR100867760B1 (ko) 2000-05-15 2008-11-10 소니 가부시끼 가이샤 재생장치, 재생방법 및 기록매체
US6690391B1 (en) 2000-07-13 2004-02-10 Sony Corporation Modal display, smooth scroll graphic user interface and remote command device suitable for efficient navigation and selection of dynamic data/options presented within an audio/visual system
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7432940B2 (en) 2001-10-12 2008-10-07 Canon Kabushiki Kaisha Interactive animation of sprites in a video production
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20040095379A1 (en) * 2002-11-15 2004-05-20 Chirico Chang Method of creating background music for slideshow-type presentation
JP4254950B2 (ja) * 2003-09-01 2009-04-15 ソニー株式会社 再生装置および再生装置における操作メニュー表示方法
US9374607B2 (en) * 2012-06-26 2016-06-21 Sonos, Inc. Media playback system with guest access
US7900228B2 (en) * 2004-04-30 2011-03-01 Vulcan Inc. Maintaining a graphical user interface state that is based on a selected piece of content
JP4343051B2 (ja) * 2004-07-20 2009-10-14 株式会社東芝 情報処理装置、操作画面の制御方法およびプログラム
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20060059535A1 (en) 2004-09-14 2006-03-16 D Avello Robert F Method and apparatus for playing content
JP4145868B2 (ja) * 2004-12-03 2008-09-03 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置およびメニュー画面表示方法
US7756388B2 (en) * 2005-03-21 2010-07-13 Microsoft Corporation Media item subgroup generation from a library
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8769408B2 (en) 2005-10-07 2014-07-01 Apple Inc. Intelligent media navigation
US7958456B2 (en) * 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
JP2007300565A (ja) * 2006-05-03 2007-11-15 Sony Computer Entertainment Inc マルチメディア再生装置およびメニュー画面表示方法
US20070294297A1 (en) * 2006-06-19 2007-12-20 Lawrence Kesteloot Structured playlists and user interface
US20080062137A1 (en) 2006-09-11 2008-03-13 Apple Computer, Inc. Touch actuation controller for multi-state media presentation
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US8243017B2 (en) 2006-09-11 2012-08-14 Apple Inc. Menu overlay including context dependent menu icon
US7743341B2 (en) * 2006-09-11 2010-06-22 Apple Inc. Rendering icons along a multidimensional path having a terminus position
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US9817436B2 (en) 2007-01-07 2017-11-14 Apple Inc. Portable multifunction device, method, and graphical user interface for displaying user interface objects adaptively
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US8489594B2 (en) 2007-02-07 2013-07-16 Cisco Technology, Inc. Playlist override queue
EP2135182A1 (en) 2007-03-08 2009-12-23 Slacker, INC. System and method for personalizing playback content through interaction with a playback device
JP5049641B2 (ja) * 2007-05-07 2012-10-17 キヤノン株式会社 コンテンツ表示制御装置及びコンテンツ表示制御方法
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8645863B2 (en) 2007-06-29 2014-02-04 Microsoft Corporation Menus with translucency and live preview
KR100873679B1 (ko) * 2007-09-04 2008-12-12 엘지전자 주식회사 휴대단말기의 스크롤링 방법
KR101398134B1 (ko) * 2007-10-04 2014-05-20 엘지전자 주식회사 휴대 단말기의 동영상 재생장치 및 방법
US20090100494A1 (en) 2007-10-15 2009-04-16 Teal Michael D System and method for controlling playlist entry selection
US8818941B2 (en) * 2007-11-11 2014-08-26 Microsoft Corporation Arrangement for synchronizing media files with portable devices
JP4938733B2 (ja) * 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
US8228435B2 (en) * 2008-12-18 2012-07-24 Sony Corporation Enhanced metadata presented in a pop-up window on cross-media bar user interface when a user hovers a screen cursor over a TV channel icon
WO2010109849A1 (ja) * 2009-03-23 2010-09-30 パナソニック株式会社 情報処理装置、情報処理方法、記録媒体、及び集積回路
US20100269068A1 (en) * 2009-04-17 2010-10-21 Christopher Labrador Changing selection focus on an electronic device
US9542058B2 (en) * 2009-04-21 2017-01-10 Sony Corporation System and method for interactive competitive release board
US8148622B2 (en) 2009-07-01 2012-04-03 Apple Inc. Media playback queuing for playback management
US9749709B2 (en) 2010-03-23 2017-08-29 Apple Inc. Audio preview of music
US8819043B2 (en) 2010-11-09 2014-08-26 Microsoft Corporation Combining song and music video playback using playlists
CN103593009A (zh) * 2011-02-10 2014-02-19 三星电子株式会社 包含触摸屏显示器的便携式设备以及控制它的方法
US20120216117A1 (en) * 2011-02-18 2012-08-23 Sony Corporation Method and apparatus for navigating a hierarchical menu based user interface
US8407243B2 (en) * 2011-02-28 2013-03-26 Sony Corporation Device and methods for presenting a scrollable user interface
JP5664347B2 (ja) * 2011-03-04 2015-02-04 ソニー株式会社 仮想メモリシステム、仮想メモリの制御方法、およびプログラム
US9135371B2 (en) 2011-05-09 2015-09-15 Google Inc. Contextual video browsing
US20120311444A1 (en) 2011-06-05 2012-12-06 Apple Inc. Portable multifunction device, method, and graphical user interface for controlling media playback using gestures
US9280273B2 (en) * 2011-06-30 2016-03-08 Nokia Technologies Oy Method, apparatus, and computer program for displaying content items in display regions
CN102301736A (zh) 2011-07-06 2011-12-28 华为技术有限公司 视频播放内容切换的方法、装置及移动终端
US8572515B2 (en) 2011-11-30 2013-10-29 Google Inc. Turning on and off full screen mode on a touchscreen
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN102880399B (zh) * 2012-08-01 2016-03-30 北京三星通信技术研究有限公司 一种屏幕操作方法及装置
US9246967B2 (en) 2012-10-12 2016-01-26 Spotify Ab Systems, methods, and user interfaces for previewing media content
US20140123006A1 (en) * 2012-10-25 2014-05-01 Apple Inc. User interface for streaming media stations with flexible station creation
US10531145B2 (en) * 2012-11-02 2020-01-07 Sony Interactive Entertainment Inc. Information processing apparatus and information processing method
KR102126292B1 (ko) 2012-11-19 2020-06-24 삼성전자주식회사 이동 단말에서 화면 표시 방법 및 이를 위한 이동 단말
WO2014092437A1 (en) 2012-12-10 2014-06-19 Samsung Electronics Co., Ltd. Mobile device of bangle type, control method thereof, and ui display method
CN103067569B (zh) * 2012-12-10 2015-01-14 广东欧珀移动通信有限公司 一种智能手机多窗口显示方法和装置
US20140178047A1 (en) 2012-12-21 2014-06-26 The Center for Digital Content, LLC Gesture drive playback control for chromeless media players
WO2014105276A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9361371B2 (en) 2013-04-16 2016-06-07 Sonos, Inc. Playlist update in a media playback system
US20140317573A1 (en) 2013-04-17 2014-10-23 Samsung Electronics Co., Ltd. Display apparatus and method of displaying a context menu
US20140368737A1 (en) 2013-06-17 2014-12-18 Spotify Ab System and method for playing media during navigation between media streams
US9489113B2 (en) * 2014-03-28 2016-11-08 Spotify Ab System and method for playback of media content with audio touch menu functionality
CN106415722B (zh) 2014-06-24 2019-12-13 苹果公司 音乐正在播放用户界面
US10462505B2 (en) 2014-07-14 2019-10-29 Sonos, Inc. Policies for media playback
US10120531B2 (en) 2015-09-08 2018-11-06 Apple Inc. User interfaces for navigating and playing content

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040158555A1 (en) * 2003-02-11 2004-08-12 Terradigtal Systems Llc. Method for managing a collection of media objects
JP2009500761A (ja) * 2005-07-11 2009-01-08 ノキア コーポレイション ストライプユーザインターフェース
JP2007157145A (ja) * 2005-11-30 2007-06-21 Canon Inc ブラウジング装置の制御方法、グラフィックメニュー表示装置、表示装置の制御方法、表示装置及びコンピュータプログラム
US8384672B2 (en) * 2006-03-31 2013-02-26 Sony Corporation Remote control system having a touch screen
JP2009532806A (ja) * 2006-04-04 2009-09-10 ヤフー! インコーポレイテッド コンテンツのディスプレイ及びナビゲーションのインターフェイス
JP2008018189A (ja) * 2006-07-14 2008-01-31 Sony Computer Entertainment Inc 端末装置及び通信管理方法
JP2010146301A (ja) * 2008-12-18 2010-07-01 Sharp Corp インターフェイス装置、およびgui構成方法
JP2013536964A (ja) * 2010-09-02 2013-09-26 サムスン エレクトロニクス カンパニー リミテッド アイテムをディスプレーする方法及び装置
US20130346867A1 (en) * 2012-06-25 2013-12-26 United Video Properties, Inc. Systems and methods for automatically generating a media asset segment based on verbal input
JP2014010719A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 電子機器、制御方法及びプログラム

Also Published As

Publication number Publication date
AU2023266222A1 (en) 2023-12-07
AU2018202335B2 (en) 2020-04-02
CN110931052B (zh) 2021-09-28
CN113821143A (zh) 2021-12-21
CN111028868A (zh) 2020-04-17
US20190286287A1 (en) 2019-09-19
US20220334689A1 (en) 2022-10-20
EP3108350A1 (en) 2016-12-28
JP6367374B2 (ja) 2018-08-01
CN111028868B (zh) 2022-04-05
US10768792B2 (en) 2020-09-08
AU2015280062A1 (en) 2016-10-13
CN106415722A (zh) 2017-02-15
US20180067617A1 (en) 2018-03-08
AU2018202335B9 (en) 2020-09-10
AU2022201297A1 (en) 2022-03-17
CN110931052A (zh) 2020-03-27
US20200401283A1 (en) 2020-12-24
US9841876B2 (en) 2017-12-12
EP4068067A1 (en) 2022-10-05
AU2020204278A1 (en) 2020-07-16
EP3108350B1 (en) 2022-05-18
US20150370426A1 (en) 2015-12-24
AU2020204278B2 (en) 2021-11-25
US10310711B2 (en) 2019-06-04
AU2022201297B2 (en) 2023-08-17
US11294539B2 (en) 2022-04-05
CN106415722B (zh) 2019-12-13
AU2018202335A1 (en) 2018-04-26
WO2015200371A1 (en) 2015-12-30

Similar Documents

Publication Publication Date Title
US11294539B2 (en) Music now playing user interface
JP7410893B2 (ja) ユーザインタフェースにおけるナビゲートのためのカラムインタフェース
US11550447B2 (en) Application menu for video system
US20160299657A1 (en) Gesture Controlled Display of Content Items
US10613732B2 (en) Selecting content items in a user interface display

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171106

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180704

R150 Certificate of patent or registration of utility model

Ref document number: 6367374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250