JP6898964B2 - メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース - Google Patents

メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース Download PDF

Info

Publication number
JP6898964B2
JP6898964B2 JP2019075732A JP2019075732A JP6898964B2 JP 6898964 B2 JP6898964 B2 JP 6898964B2 JP 2019075732 A JP2019075732 A JP 2019075732A JP 2019075732 A JP2019075732 A JP 2019075732A JP 6898964 B2 JP6898964 B2 JP 6898964B2
Authority
JP
Japan
Prior art keywords
user input
user interface
display
icon
media
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019075732A
Other languages
English (en)
Other versions
JP2019179550A (ja
Inventor
ヘンリク ディー. ペンハ,
ヘンリク ディー. ペンハ,
グレース エイチ. ワン,
グレース エイチ. ワン,
グラハム アール. クラーク,
グラハム アール. クラーク,
ギャリー アイ. ブッチャー,
ギャリー アイ. ブッチャー,
ルイーズ, マルコス アロンゾ
ルイーズ, マルコス アロンゾ
パヴェル ピヴォンカ,
パヴェル ピヴォンカ,
ジェフリー エル. ロビン,
ジェフリー エル. ロビン,
ウィリアム エム. バチマン,
ウィリアム エム. バチマン,
ベンジャミン ダブリュ. ケイラン,
ベンジャミン ダブリュ. ケイラン,
ジェニファー エル.シー. フォルス,
ジェニファー エル.シー. フォルス,
ジョナサン ロッチヘッド,
ジョナサン ロッチヘッド,
ジョー アール. ハワード,
ジョー アール. ハワード,
ヨシュア ケー. マックグリン,
ヨシュア ケー. マックグリン,
エルバート ディー. チェン,
エルバート ディー. チェン,
ブライアン エー. シュミット,
ブライアン エー. シュミット,
イムラン エー. チャウドリ,
イムラン エー. チャウドリ,
ジョナサン イヴ,
ジョナサン イヴ,
アラン シー. ダイ,
アラン シー. ダイ,
クリストファー アイ. ウィルソン,
クリストファー アイ. ウィルソン,
アレッド エイチ. ウィリアムス,
アレッド エイチ. ウィリアムス,
サミュエル エイチ. ベッビントン,
サミュエル エイチ. ベッビントン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2019179550A publication Critical patent/JP2019179550A/ja
Priority to JP2021098114A priority Critical patent/JP7223811B2/ja
Application granted granted Critical
Publication of JP6898964B2 publication Critical patent/JP6898964B2/ja
Priority to JP2023016289A priority patent/JP2023065400A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/36Monitoring, i.e. supervising the progress of recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47211End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting pay-per-view content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Description

本発明は、概して、表示デバイスと通信する電子デバイスに関し、メディアコンテンツを提供する表示デバイスと通信する電子デバイスを含むが、これに限定されない。
テレビは、情報源や娯楽源として広く用いられている。例えば、テレビは、典型的には、映画やテレビ番組を視聴するのに用いられる。メディアコンテンツの再生を制御するには、通常、リモートコントロールが用いられる。例えば、従来のリモートコントロールは、再生ボタン、一時停止ボタン、停止ボタン、早送りボタン、巻戻しボタンを含み、ユーザがメディアコンテンツの再生を制御できるようにしている。
しかしながら、コンテンツのナビゲーションや再生を制御する既存のべデバイス及び方法は煩雑で非効率的である。
したがって、本明細書は、メディアコンテンツのナビゲーション及び再生を制御するための、より高速でより効率的な方法及びインターフェースを有する電子デバイスを開示する。このような方法及びインターフェースは、任意選択的に、メディアコンテンツのナビゲーション及び再生を制御するための従来の方法を補完するか、又は従来の方法に取って代わってもよい。このような方法及びインターフェースは、ユーザからの入力の数、範囲及び/又は特性を軽減し、より効率的なヒューマンマシンインターフェースを作り出す。
開示されるデバイスによって、電子デバイスのユーザインターフェースに関する上述の欠陥や他の問題が軽減又は回避される。いくつかの実施形態では、このデバイスは、デジタルメディアプレーヤである。いくつかの実施形態では、このデバイスは、テレビ又はセットトップボックスである。いくつかの実施形態では、このデバイスは、デスクトップコンピュータである。いくつかの実施形態では、このデバイスは、ポータブル(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態では、このデバイスは、パーソナル電子デバイス(例えば、腕時計などのウェアラブル電子デバイス)である。いくつかの実施形態では、このデバイスは、タッチパッドを備えるか、タッチパッドと通信する。いくつかの実施形態では、このデバイスは、タッチ感知面、又は、タッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られている)を備えるか、タッチ感知面、又は、タッチ感知ディスプレイと通信する。いくつかの実施形態では、このデバイスは、グラフィカルユーザインターフェース(GUI)、1つ以上のプロセッサ、メモリ、及び複数の機能を実行するためにメモリに記憶された1つ以上のモジュール、プログラム、又は命令セットを有する。いくつかの実施形態では、ユーザは主にタッチ感知面上でのスタイラス及び/又は指の接触並びにジェスチャを介してGUIと対話する。いくつかの実施形態では、機能は、画像編集、描画、プレゼンティング、ワードプロセッシング、スプレッドシートの作成、ゲームプレイ、電話をかけること、テレビ会議、電子メール送信、インスタントメッセージング、トレーニングサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブブラウジング、デジタル音楽の再生、メモ書き及び/又はデジタルビデオの再生を任意選択的に、含む。これらの機能を実行するための実行可能命令は、非一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に、任意選択的に、含まれる。これらの機能を実行するための実行可能命令は、一時的コンピュータ可読記憶媒体又は1つ以上のプロセッサによって実行されるように構成された他のコンピュータプログラム製品に、任意選択的に含まれる。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイ及びリモートユーザ入力デバイスと通信する。本方法は、電子デバイスがスクリーンセーバーモードで動作している間に、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することと、ディスプレイが第1視覚モーション効果を含む第1メディアを提示している間に、リモートユーザ入力デバイスでユーザ入力を受信することを含む。本方法はまた、リモートユーザ入力デバイスでユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力の種別を判定することと、リモートユーザ入力デバイスでのユーザ入力が第3種別のユーザ入力であるとの判定に従い、ディスプレイに、第2視覚モーション効果を含む第1メディアをスクリーンセーバーモードを出ることなく提示するためのデータを提供することと、を含む。第2視覚モーション効果は、第1視覚モーション効果とは別個のものである。本方法は、リモートユーザ入力デバイスでのユーザ入力が第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、スクリーンセーバーモードから抜ける命令を更に含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイと通信する。本方法は、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを提供することを含む。複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイ上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含む。現在のフォーカスは複数のオブジェクトの第1オブジェクトにある。本方法はまた、ユーザインターフェースを提示している間に、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することと、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、ディスプレイに、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾け、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ移動し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻し、及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すためのデータを提供することと、も含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイと通信する。本方法は、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを提供することを含む。複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイ上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含む。現在のフォーカスは複数のオブジェクトの第1オブジェクトにある。本方法はまた、ディスプレイがユーザインターフェースを提示している間に、第1入力を受信することと、第1入力の受信に応じて、ディスプレイに、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾けるためのデータを提供することと、を含む。本方法は、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、ディスプレイに、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトに移動し、第1ユーザインターフェースオブジェクトを第1位置へ戻すように移動し及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾けるためのデータを提供することを更に含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイと通信する。本方法は、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを提供することを含む。複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクトを含む。現在のフォーカスは、第1ユーザインターフェースオブジェクトにある。本方法はまた、ディスプレイが、ユーザインターフェースを提示している間、非アクティブ基準を満たすと判定し、非アクティブ基準を満たすと判定することに応じて、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別するためのデータを提供する。本方法は、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別するためのデータを提供した後に、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出することと、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出することに応じて、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別することをやめさせるためのデータを提供することを含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイと通信する。本方法は、ディスプレイに、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを提示するためのデータを提供することを含む。第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースは、第1メディアコンテンツアイテムに対する各メディアソースに対応する複数のメディアソースオブジェクトであり、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する、上記複数のメディアソースオブジェクトと、第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットを含む。メディア管理オブジェクトの第1セットは、第1メディアコンテンツアイテム及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む。本方法はまた、ディスプレイがメディア情報ユーザインターフェースを提示している間に、ユーザ入力を受信することと、ユーザ入力を受信することに応じて、ユーザ入力が第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1メディアコンテンツを再生するためのデータのプロビジョンを開始することを含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。電子デバイスは、ディスプレイと通信する。本方法は、ディスプレイに、第1メディアプログラムに対する第1メディア情報ユーザインターフェースを提示するためのデータを提供することを含む。第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトを含む。複数のメディアソースオブジェクトのうちの各メディアソースオブジェクトは、第1メディアプログラムに対する各メディアソースに対応する。複数のメディアソースオブジェクトの第1メディアソースオブジェクトは、第1メディアソースオブジェクトの選択を示すように視覚的に区別される。第1メディアソースオブジェクトは、第1メディアソースに対応する。第1メディアプログラムに対する第1メディア情報ユーザインターフェースはまた、第1メディアソースから入手可能な第1メディアプログラムに対する1つ以上エピソードに対応する1つ以上のエピソードオブジェクトである。1つ以上のエピソードオブジェクトのうちの第1エピソードオブジェクトは、第1エピソードオブジェクトの選択を示すように視覚的に区別される。第1エピソードオブジェクトは第1メディアプログラムの第1エピソードに対応する。第1メディアプログラムに対するメディア情報ユーザインターフェースは、第1エピソードに対するメディア管理オブジェクトの第1セットを含む。メディア管理オブジェクトの第1セットは、第1エピソード及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクト含む。本方法はまた、ディスプレイがメディア情報ユーザインターフェースを提示している間に、ユーザ入力を受信することと、ユーザ入力を受信することに応じて、ユーザ入力がメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータのプロビジョンを開始することを含む。
いくつかの実施形態によれば、方法は、1つ以上のプロセッサと、メモリとを備える電子デバイスにおいて実行される。デバイスは、ディスプレイと通信する。本方法は、電子デバイスが第1再生ナビゲーションモードで動作している間に、ディスプレイに、表示用の第1ビデオ情報を提供することと、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信することを含む。第1ビデオ情報は、ビデオのフレーム、ビデオのタイムラインを表すスクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカの1つ以上に対応する情報を含む。本方法はまた、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信することに応じて、第1再生ナビゲーションモードでの動作から第2再生ナビゲーションモードの動作へ遷移することと、電子デバイスが第2再生ナビゲーションモードで動作している間に、ディスプレイに、表示用の第2ビデオ情報を提供することと、ビデオ内の予め定められた再生位置を示す複数の再生位置マーカに対応する情報の提供をやめることと、を含む。第2ビデオ情報は、ビデオのフレーム、スクラッバーバー、及び第1再生ヘッドの1つ以上に対応する情報を含む。
いくつかの実施形態によれば、電子デバイスは、処理ユニットを含む。電子デバイスは、ディスプレイユニット及びリモートユーザ入力デバイスと通信する。処理ユニットは、デバイスがスクリーンセーバーモードで動作している間に、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供し、ディスプレイユニットが第1視覚モーション効果を含む第1メディアを提示している間に、リモートユーザ入力デバイスでのユーザ入力を受信し、リモートユーザ入力デバイスでユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力の種別を判定し、リモートユーザ入力デバイスでのユーザ入力が第1種別のユーザ入力であるとの判定に従い、ディスプレイユニットに、スクリーンセーバーモードから抜けることなく、第1視覚モーション効果とは別個の第2視覚モーション効果を含む第1メディアを提示するためのデータを提供し、リモートユーザ入力デバイスでのユーザ入力が第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、スクリーンセーバーモードから抜けさせるように構成される。
いくつかの実施形態によれば、電子デバイスは、処理ユニットを含む。電子デバイスは、ディスプレイユニットと通信する。ディスプレイユニットは、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。処理ユニットは、ディスプレイユニットに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータ提供し、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイユニット上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含み、現在のフォーカスが複数のユーザインターフェースオブジェクトの第1ユーザインターフェースオブジェクトにあり、ディスプレイユニットがユーザインターフェースを提示している間に、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信し、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、ディスプレイユニットに、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾け、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ移動し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻し、及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すためのデータを提供するよう構成される。
いくつかの実施形態によれば、電子デバイスは、処理ユニットを含む。電子デバイスは、ディスプレイユニットと通信する。ディスプレイユニットは、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。処理ユニットは、ディスプレイユニットに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータ提供し、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイユニット上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含み、現在のフォーカスが複数のユーザインターフェースオブジェクトの第1ユーザインターフェースオブジェクトにあり、ディスプレイユニットがユーザインターフェースを提示している間、第1入力を受信し、第1入力の受信に応じて、ディスプレイユニットに、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾けるためのデータを提供し、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、ディスプレイユニット1502に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトに移動し、第1ユーザインターフェースオブジェクトを第1位置へ戻すように移動し及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾けるためのデータを提供するよう構成される。
いくつかの実施形態によれば、電子デバイスは、処理ユニットを含む。電子デバイスは、ディスプレイユニットと通信する。ディスプレイユニットは、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。処理ユニットは、ディスプレイユニットに、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータ提供し、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイ上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含み、ディスプレイユニットが、ユーザインターフェースを提示している間に、非アクティブ基準を満たし、非アクティブ基準を満たすと判定することに応じて、ディスプレイユニットに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別するためのデータを提供し、ディスプレイユニットに、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別するためのデータを提供した後に、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出し、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出することに応じて、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別することをやめさせるためのデータを提供するよう構成される。
いくつかの実施形態によれば、電子デバイスは、ユーザインターフェースを表示するよう構成されたディスプレイユニットと通信する処理ユニットを含む。電子デバイスは、ディスプレイユニットと通信する。処理ユニットは、ディスプレイユニットに、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを提示するためのデータを提供するよう構成され、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースは、第1メディアコンテンツアイテムに対する各メディアソースに対応する複数のメディアソースオブジェクトであって、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する、上記複数のメディアソースオブジェクトと、第1メディアコンテンツアイテム及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む、第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットを含む。処理ユニットはまた、ディスプレイユニットがメディア情報ユーザインターフェースを提示している間に、ユーザ入力を受信し、ユーザ入力を受信することに応じて、ユーザ入力が第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイユニットに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1メディアコンテンツを再生するためのデータのプロビジョンを開始するよう構成される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイユニットと通信する処理ユニットを含む。ディスプレイユニットと通信する電子デバイス。処理ユニットは、ディスプレイユニットに、第1メディアプログラムに対する第1メディア情報ユーザインターフェースを提示するためのデータを提供するよう構成され、第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトであって、複数のメディアソースオブジェクトの各メディアソースオブジェクトは、第1メディアプログラムに対する各メディアソースに対応し、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する、上記複数のメディアソースオブジェクトと、第1メディアソースから入手可能な第1メディアプログラムに対する1つ以上エピソードに対応する1つ以上のエピソードオブジェクトであり、1つ以上のエピソードオブジェクトの第1エピソードオブジェクトは、第1エピソードオブジェクトの選択を示すように視覚的に区別され、第1エピソードオブジェクトは第1メディアプログラムの第1エピソードに対応する、1つ以上のエピソードオブジェクトと、第1メディアエピソード及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む、第1メディアエピソードに対するメディア管理オブジェクトの第1セットを含む。処理ユニットはまた、ディスプレイユニットがメディア情報ユーザインターフェースを提示している間に、ユーザ入力を受信し、ユーザ入力を受信することに応じて、ユーザ入力がメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイユニットに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータのプロビジョンを開始することを含む。
いくつかの実施形態によれば、電子デバイスは、メディアコンテンツを表示するよう構成されたディスプレイユニットと通信する。電子デバイスはディスプレイユニットを含む。処理ユニットは、電子デバイスが第1再生ナビゲーションモードで動作している間に、ディスプレイユニットに、表示用の第1ビデオ情報を提供し、ここで、第1ビデオ情報は、ビデオのフレーム、ビデオのタイムラインを表すスクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカの1つ以上に対応する情報を含み、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信し、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信することに応じて、第1再生ナビゲーションモードでの動作から第2再生ナビゲーションモードの動作へ遷移し、デバイスが第2再生ナビゲーションモードで動作している間に、ディスプレイユニットに、表示用の第2ビデオ情報を提供し、ここで、第2ビデオ情報は、ビデオのフレーム、スクラッバーバー及び第1再生ヘッドの1つ以上に対応する情報を含み、ビデオ内の予め定められた再生位置を示す複数の再生位置マーカに対応する情報の提供をやめるよう構成される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサ、1つ以上のプロセッサ、メモリ及び1つ以上のプログラムを含む。1つ以上のプログラムはメモリ内に記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、上に記載のいずれの方法の動作を実行する又はその特性を生じさせるための命令を含む。いくつかの実施形態によれば、コンピュータ可読記憶媒体(例えば、非一時的コンピュータ可読記憶媒体、又はそれに代えて、一次的なコンピュータ可読記憶媒体)は、その内部に命令を記憶しており、その命令は、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサを備える電子デバイスによって実行されると、本明細書で説明する方法のいずれかの動作を、そのデバイスに実行させ又はその特性を生じさせる。いくつかの実施形態によれば、ディスプレイ、タッチ感知面、タッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサ、メモリ、及びメモリ内に記憶された1つ以上のプログラムを実行するための1つ以上のプロセッサを有する電子デバイス上のグラフィカルユーザインターフェースは、上述の方法のいずれかにおいて表示される要素のうちの1つ以上を含み、それらの要素は、本明細書で説明する方法のいずれかにおいて説明されるように、入力に応じて更新される。いくつかの実施形態によれば、電子デバイスは、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサと、本明細書で説明する方法のいずれかの動作を実行する又はその特性を生じさせる手段と、を備える。いくつかの実施形態によれば、ディスプレイ、タッチ感知面、及びタッチ感知面との接触の強度を検出するための任意選択の1つ以上のセンサを備える電子デバイス内で使用するための情報処理装置が、本明細書に説明する方法にいずれかの動作を実行するための又はその特性を生じさせるための手段を含む。
このように、ディスプレイと通信する電子デバイスは、メディアコンテンツをナビゲートし及び再生するためのより速く、より効率的な方法及びインターフェースを備えていることにより、これらのデバイスの有効性、効率、及びユーザ満足度を高めることができる。このような方法及びインターフェースは、メディアコンテンツをナビゲートし及び再生するための従来の方法を補完するか、又は従来の方法に取って代わってもよい。
説明される様々な実施形態のより良好な理解のために、以下の図面と併せて、以下の「実施形態の説明」を参照されたく、類似の参照番号は、それらの図の全体を通じて対応する部分を指す。
いくつかの実施形態による、タッチ感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。
いくつかの実施形態による、イベント処理のための例示的なコンポーネントを示すブロック図である。
いくつかの実施形態による、タッチスクリーンを備えたポータブル多機能デバイスを示す。
いくつかの実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。
いくつかの実施形態による、ポータブル多機能デバイスにおけるアプリケーションのメニューのための例示的なユーザインターフェースを示す。
いくつかの実施形態による、ディスプレイとは別個のタッチ感知面を備えた多機能デバイスのための例示的なユーザインターフェースを示す。
いくつかの実施形態による、ディスプレイ及びタッチ感知面と通信する例示的な電子デバイスであり、少なくとも電子デバイスのサブセットについて、ディスプレイ及び/又はタッチ感知面は電子デバイスと一体である電子デバイスを示す。
いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。
いくつかの実施形態による、双方向スクリーンセーバーを提供する方法を示すフロー図である。 いくつかの実施形態による、双方向スクリーンセーバーを提供する方法を示すフロー図である。 いくつかの実施形態による、双方向スクリーンセーバーを提供する方法を示すフロー図である。
いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。 いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。 いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。
いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。 いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。 いくつかの実施形態による、現在のフォーカスを移動させる方法を示すフロー図である。
いくつかの実施形態による、非アクティブ基準に基づいてユーザインターフェースを更新する方法を示すフロー図である。 いくつかの実施形態による、非アクティブ基準に基づいてユーザインターフェースを更新する方法を示すフロー図である。
いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。 いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。 いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。
いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。 いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。 いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。 いくつかの実施形態による、メディア提示オプションを選択する方法を示すフロー図である。
いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法を示すフロー図である。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法を示すフロー図である。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法を示すフロー図である。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法を示すフロー図である。 いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法を示すフロー図である。
いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。 いくつかの実施形態による、電子デバイスの機能ブロック図である。
多くのテレビは、リモートコントロールで制御される。例えば、ユーザがメディアコンテンツ(例えば、ビデオ又はテレビ番組)の第1領域(例えば、所定のフレーム又はタイムスタンプ)からメディアコンテンツの他の領域へ移動したい場合、ユーザは、ユーザにとって関心がある領域を見つけるまで、早送りボタンを押し続けてメディアコンテンツを通じてナビゲートする必要がある。ユーザがユーザにとって関心がある領域を通り過ぎてしまった場合には、ユーザは、ユーザにとって関心がある領域を見つけるまで、逆送りボタンを押し続けて戻る必要がある。しかし、早送り及び逆送り動作のスピードが原因で、ユーザは所望の領域が見つかるまで、ユーザ入力の提供を繰り返すことが必要な場合がある。更に、ユーザが第1領域に戻ると決めた場合、ユーザが第1領域を見つけるまで、ユーザは逆送りボタンを押してメディアコンテンツを通じて移動する必要がある。また、ユーザが第1領域を通り過ぎてしまった場合には、ユーザが第1領域を見つけるまで、ユーザは早送りボタンを押してメディアコンテンツを通じて早送りする必要がある。ユーザは、メディアコンテンツを通じて前後にナビゲートしなければならないことで嫌気がさす場合がある。後述する実施形態において、複数の再生ナビゲーションモードを提供することにより、メディアコンテンツを通じてナビゲートする改良方法が達成される。デバイスが連続再生ナビゲーションモードで動作している間に、ユーザは細かな分解能を有するメディアコンテンツによってナビゲートすることができ、それにより正確にナビゲーションを制御する。デバイスがチャプタ再生ナビゲーションモードで動作している間に、ユーザはメディアコンテンツを通じてチャプタからチャプタへナビゲートすることができ、それによりメディアコンテンツを通じた素早いナビゲーションを達成する。ユーザが異なる再生ナビゲーションモード間を容易に切り替え可能にすることで、ユーザは、ユーザにとって関心がある領域をすぐに見つけることができ、それにより追加で別個の入力の必要をなくし、メディアコンテンツを通じてナビゲートする。
以下の図1A〜図1B、図2、及び図3は、例示的なデバイスの説明を提供する。図4A〜4C及び図5A〜図5ZZZZは、メディアコンテンツを選択し再生するための例示的なユーザインターフェースを示す。図6A〜図6Cは、双方向スクリーンセーバーを提供するフロー図を示す。図7A〜図7Cは、双方向スクリーンセーバーを提供するフロー図を示す。図8A〜図8Cは、双方向スクリーンセーバーを提供するフロー図を示す。図9A〜図9Bは、非アクティブ基準に基づいてユーザインターフェースを更新するフロー図を示す。図10A〜図10Cは、メディア提示オプションオブジェクトを有するメディア情報ユーザインターフェースを提供するフロー図を示す。図11A〜図11Dは、メディア提示オプションを有するメディア情報ユーザインターフェースを提供するフロー図を示す。図12A〜図12Eは、メディアコンテンツを通じてナビゲートする方法のフロー図を示す。図5A〜図5ZZZZのユーザインターフェースは、図6A〜図6C,図7A〜図7C、図8A〜図8C、図9A〜図9B、図10A〜図10C、図11A〜図11D及び図12A〜図12Eのプロセスを説明するために使用される。
例示的なデバイス
ここで、添付図面に実施例が示される実施形態を、詳細に参照する。以下の詳細な説明では、説明されている様々な実施形態の完全な理解を提供するために数多くの具体的な詳細が記載されている。しかしながら、説明されている様々な実施形態は、これらの具体的な詳細を伴わずとも実践し得ることが、当業者には明らかであろう。他の例においては、周知の方法、手続き、構成要素、回路、及びネットワークは、実施形態の態様を不必要に不明瞭なものとしないよう、詳細には説明されていない。
本明細書では、第1、第2などの用語は、一部の実施例で、様々な要素を説明するために使用されるが、これらの要素は、それらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、説明されている様々な実施形態の範囲から逸脱することなく、第1ビデオ情報は、第2ビデオ情報と称することができ、同様に、第2ビデオ情報は、第1ビデオ情報と称し得る。第1ビデオ情報及び第2ビデオ情報はともにビデオ情報であるが、文脈がそうではないことを明確に示さない限り、同じビデオ情報ではない。
本明細書で説明される様々な実施形態の説明で使用される用語法は、特定の実施形態を説明することのみを目的とするものであって、限定することを意図するものではない。説明される様々な実施形態の説明及び添付の特許請求の範囲で使用されるとき、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形もまた含むことが意図される。本明細書で使用される時に、用語「及び/又は」が、関連する列挙された項目のうちの1つ以上の全ての可能な任意の組み合わせを指し、かつこれを含むことをもまた理解されたい。更に、用語「includes(含む)」、「including(含む)」、「comprises(備える)」、及び/又は「comprising(備える)」は、本明細書で使用される場合、記述される特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群の存在若しくは追加を排除するものではないことが理解されるであろう。
本明細書で使用される時、用語「if(〜の場合には)」は、任意選択的に、文脈に応じて「when(〜の時)」、「upon(〜すると)」、「in response to determining(〜という判定に応じて)」、又は「in response to detecting(〜の検出に応じて)」を意味するものと解釈される。同様に、語句「if it is determined(〜と判定される場合には)」又は「if (a stated condition or event) is detected((記述される条件又はイベント)が検出される場合には)」は、任意選択的に、文脈に応じて「upon determining(〜と判定されると)」、又は「in response to determining(〜との判定に応じて)」、又は「upon detecting(the stated condition or event)((記述される条件又はイベント)が検出されると)」、又は「in response to detecting(the stated condition or event)((記述される条件又はイベント)の検出に応じて)」を意味するものと解釈される。
電子デバイス、そのようなデバイス用のユーザインターフェース、及びそのようなデバイスを使用するための関連プロセスの、実施形態を説明する。いくつかの実施形態では、このデバイスは、California州CupertinoのApple Inc.のApple TV(登録商標)などのデジタルメディアプレーヤであるいくつかの実施形態では、このデバイスは、PDA機能及び/又は音楽再生機能などの、他の機能をも含む、モバイル電話機などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、California州CupertinoのApple Inc.のiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)デバイスを含むが、これらに限定されない。タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を備えたラップトップ又はタブレットコンピュータなど他のポータブル電子デバイスも、任意選択的に、使用される。いくつかの実施形態では、このデバイスは、ポータブル通信デバイスではなく、デスクトップコンピュータであることを理解されたい。いくつかの実施形態では、デスクトップコンピュータは、タッチ感知面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有する。
以下の論考では、ディスプレイ及びタッチ感知面と通信する及び/又はそれらを備える電子デバイスを説明する。しかし、この電子デバイスが、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインターフェースデバイスを任意選択的に含むことを理解されたい。
そのデバイスは、一般的に、メモ書きアプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽再生アプリケーション、及び/又はデジタルビデオ再生アプリケーションのうちの1つ以上など、様々なアプリケーションをサポートする。
このデバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインターフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能及びデバイス上に表示される対応する情報は、1つのアプリケーションから次のアプリケーションへ、及び/又は対応するアプリケーションの中で、任意選択的に、調整、及び/又は変更される。この方式で、そのデバイスの共通の(タッチ感知面などの)物理アーキテクチャは、ユーザにとって直観的かつ透過的なユーザインターフェースを有する様々なアプリケーションを、任意選択的にサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイシステム112を備えたポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイシステム112は、便宜上「タッチスクリーン」と呼ばれる場合があり、単にタッチ感知ディスプレイと呼ばれる場合もある。デバイス100は、メモリ102(任意選択的に、1つ以上の非一時的コンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インターフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力又は制御デバイス116、及び外部ポート124を含む。デバイス100は、1つ以上の光センサ164を、任意選択的に含む。デバイス100は、デバイス100(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)上の接触の強度を検出するための、1つ以上の強度センサ165を、任意選択的に含む。デバイス100は、デバイス100上に触知出力を生成する(例えば、デバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などの、タッチ感知面上に触知出力を生成する)ための、1つ以上の触知出力生成器167を、任意選択的に含む。これらの構成要素は、1つ以上の通信バス又は信号ライン103を介して、任意選択的に通信する。
本明細書及び特許請求の範囲で使用されるとき、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、デバイスの別の構成要素(例えば、筐体)に対する物理的変位、又はデバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況において、物理的変位によって生成された触知出力は、デバイス又はデバイスの構成要素の物理的特性の認識された変化に相当する触感として、ユーザによって解釈される。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの移動により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がない時でさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない時でさえ、タッチ感知面の「粗さ」としてユーザによって、任意選択的に、解釈又は感知される。このようなユーザによるタッチの解釈は、ユーザの個別の感覚認知によるが、大多数のユーザに共通したタッチの感覚認知が数多くある。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一実施例に過ぎず、デバイス100は、示されるものよりも多いか又は少ない構成要素を任意選択的に有するか、2つ以上の構成要素を任意選択的に組み合わせるか、又は構成要素の異なる構成若しくは配置を任意選択的に有することを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせで実装される。
メモリ102は、任意選択的に高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体メモリデバイスなどの、不揮発性メモリも含む。CPU(1つ又は複数)120及び周辺機器インターフェース118などの、デバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により、任意選択的に、制御される。
周辺機器インターフェース118を使用して、このデバイスの入力及び出力周辺機器を、CPU(1つ又は複数)120及びメモリ102に連結することができる。1つ以上のプロセッサ120は、デバイス100のための様々な機能を実行するため並びにデータ処理を行うために、メモリ102に記憶された様々なソフトウェアプログラム及び/若しくは命令セットを走らせたり、又は実行したりする。
いくつかの実施形態では、周辺機器インターフェース118、CPU(1つ又は複数)120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一チップ上に実装される。いくつかの他の実施形態において、これらは、個別のチップ上に、任意選択的に、実装される。
RF(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリなどを含むがこれらに限定されない、上記の機能を実行するための周知の回路を、任意選択的に含む。RF回路108は、インターネット情報検索システム(WWW)とも呼ばれるインターネットなどのネットワーク、セルラー電話ネットワークなどのイントラネット及び/又は無線ネットワーク、ワイアレスローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、及び他のデバイスと無線通信によって、任意選択的に通信する。無線通信は、複数の通信規格、通信プロトコル、及び通信技術のうちのいずれかを、任意選択的に使用し、それらの通信規格、通信プロトコル、及び通信技術としては、移動通信用のグローバルシステム(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケット接続(HSDPA)、高速アップリンクパケット接続(HSUPA)、Evolution,Data−Only(EV−DO)、HSPA、HSPA+、2重セルHSPA(DC−HSPDA)、ロングタームエボリューション(LTE)、近距離無線通信(NFC)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE 802.11a、IEEE 802.11ac、IEEE 802.11ax、IEEE 802.11b、IEEE 802.11g、及び/又はIEEE 802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、Wi−MAX、電子メール用のプロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能メッセージング及びプレゼンスプロトコル(XMPP)、インスタントメッセージング及びプレゼンス利用拡張向けセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又はショートメッセージサービス(SMS)、あるいは本文書の出願日現在までに未だ開発されていない通信プロトコルを含めた任意の他の好適な通信プロトコルが挙げられるが、これらに限定されない。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインターフェースを提供する。オーディオ回路110は、周辺機器インターフェース118から音声データを受信し、音声データを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路110は、マイクロフォン113により音波から変換された電気信号も受信する。オーディオ回路110は、電気信号を音声データに変換し、処理するために音声データを周辺機器インターフェース118に送出する。音声データは、周辺機器インターフェース118によって任意選択的に、メモリ102及び/若しくはRF回路108から取り込まれ、並びに/又はメモリ102及び/若しくはRF回路108へ送出される。いくつかの実施形態において、オーディオ回路110は更にヘッドセットジャック(例えば、図2の212)を備える。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば、片耳又は両耳用のヘッドホン)及び入力(例えば、マイクロフォン)の両方を持つヘッドセットなどの、取り外し可能なオーディオ入出力周辺機器との間のインターフェースを提供する。
I/Oサブシステム106は、周辺機器インターフェース118に、タッチ感知ディスプレイシステム112及び他の入力又は制御デバイス116などのデバイス100の入出力周辺機器を連結する。I/Oサブシステム106は、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力又は制御デバイス用の1つ以上の入力コントローラ160を、任意選択的に含む。1つ以上の入力コントローラ160は、他の入力又は制御デバイス116から/へ電気信号を受信/送信する。他の入力又は制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダースイッチ、ジョイスティック、クリックホイールなどを、任意選択的に含む。いくつかの代替的実施形態において、入力コントローラ(1つ又は複数)160は、キーボード、赤外線ポート、USBポート、スタイラス、及びマウスなどのポインタデバイスのうちのいずれかに、任意選択的に結合される(又は、いずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロフォン113の音量調節のためのアップ/ダウンボタンを、任意選択的に含む。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を、任意選択的に含む。
タッチ感知ディスプレイシステム112は、デバイスとユーザとの間の入力インターフェース及び出力インターフェースを提供する。ディスプレイコントローラ156は、タッチ感知ディスプレイシステム112から/へ電気信号を受信し及び/又は送信する。タッチ感知ディスプレイシステム112は、ユーザに視覚出力を表示する。視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びこれらの任意の組み合わせ(総称して「グラフィック」と称する)を、任意選択的に含む。いくつかの実施形態において、視覚出力の一部又は全ては、ユーザインターフェースオブジェクトに対応する。
タッチ感知ディスプレイシステム112は、触覚及び/若しくは触感の接触に基づくユーザからの入力を受け付けるタッチ感知面、センサ、又はセンサのセットを有している。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)は、タッチ感知ディスプレイシステム112上で接触(及び任意の動作又は接触の中断)を検出し、検出された接触をタッチ感知ディスプレイシステム112上に表示されたユーザインターフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ、又は画像)との対話に変換する。いくつかの実施形態では、タッチ感知ディスプレイシステム112とユーザとの間の接触点は、ユーザの指又はスタイラスに対応する。
タッチ感知ディスプレイシステム112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術が使用される。タッチ感知ディスプレイシステム112及びディスプレイコントローラ156は、静電容量技術、抵抗性技術、赤外線技術、及び表面音響波技術、並びに、タッチ感知ディスプレイシステム112との1つ以上の接触点を判定するための他の近接センサアレイ又は他の要素を含むが、これらに限定されない、現在公知の若しくは後日に開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及び任意の移動又はその中断を、任意選択的に検出する。いくつかの実施形態では、California州CupertinoのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)などにおいて見られるような、投影型相互静電容量検知技術が使用されている。
タッチ感知ディスプレイシステム112は、任意選択的に、100dpiを超える映像解像度を有する。いくつかの実施形態では、タッチスクリーンの映像解像度は、400dpiを超える(例えば、500dpi、800dpi又はそれ以上)。ユーザは、スタイラス、指などの任意の好適なオブジェクト又は付属器を使用して、タッチ感知ディスプレイシステム112と、任意選択的に接触する。いくつかの実施形態では、ユーザインターフェースは、指に基づく接触及びジェスチャで機能するように設計され、タッチスクリーン上の指の接触面積が広いことにより、スタイラスに基づく入力よりも精度が低いことがある。いくつかの実施形態において、デバイスは、粗い指に基づく入力を正確なポインタ/カーソル位置又はユーザの望むアクションを実行するためのコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能をアクティブ化又は非アクティブ化させるためのタッチパッド(図示せず)を、任意選択的に含む。いくつかの実施形態において、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチ感知ディスプレイシステム112とは別個のタッチ感知面、又はタッチスクリーンによって形成されたタッチ感知面の延長である。
デバイス100はまた、様々な構成要素に電力を供給するための電力システム162をも含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
デバイス100はまた、1つ以上の光センサ164をも、任意選択的に含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ(1つ又は複数)164は、電荷結合デバイス(CCD)又は相補的金属酸化物半導体(CMOS)フォトトランジスタを、任意選択的に含む。光センサ(1つ又は複数)164は、1つ以上のレンズを通して投影された、環境からの光を受光し、その光を、画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも称する)と併用して、光センサ(1つ又は複数)164は、静止画像及び/又は映像を、任意選択的にキャプチャする。いくつかの実施形態において、タッチスクリーンを静止画像及び/又は映像取得のためのビューファインダとして使用可能なように、光センサは、デバイスの前面のタッチ感知ディスプレイシステム112の反対側である、デバイス100の背面に配置されている。いくつかの実施形態において、ユーザの画像(例えば、ユーザがタッチスクリーン上で他のテレビ会議参加者を見ながらするテレビ会議用の自分の画像など)を得るように、別の光センサがデバイスの前面に配置される。
デバイス100はまた、1つ以上の接触強度センサ165をも任意選択的に含む。図1Aは、接触強度センサを、I/Oサブシステム106内の強度センサコントローラ159に連結されて示す。接触強度センサ(1つ又は複数)165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ(1つ又は複数)165は、環境から接触強度情報(例えば、圧力情報又は圧力情報のプロキシ)を受信する。いくつかの実施形態において、少なくとも1つの接触強度センサが、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に併置されているか、又は近接している。いくつかの実施形態において、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイシステム112の反対側である、デバイス100の背面に配置されている。
デバイス100は、1つ以上の近接センサ166をも、任意選択的に含む。図1Aは、周辺機器インターフェース118と連結される近接センサ166を示す。あるいは、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に連結される。いくつかの実施形態において、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが電話通話を行っている場合)、近接センサがオフになり、タッチ感知ディスプレイシステム112が無効になる。
デバイス100はまた、1つ以上の触知出力生成器167をも任意選択的に含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に連結される触知出力生成器を示す。触知出力生成器(1つ又は複数)167は、スピーカ又は他の音声構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマ、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などの、エネルギーを直線運動に変換する電気機械デバイスを、任意選択的に含む。いくつかの実施形態において、触知出力生成器(1つ又は複数)167は、触覚フィードバックモジュール133から触覚フィードバック生成命令を受信し、デバイス100のユーザが感知できる触知出力をデバイス100上で生成する。いくつかの実施形態において、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)と併置されているか、又は近接しており、任意選択的に、タッチ感知面を垂直方向に(例えば、デバイス100の表面の内/外)又は横方向(例えば、デバイス100の表面と同じ平面の前後方向)に移動することによって、触知出力を生成する。いくつかの実施形態において、少なくとも1つの触知出力生成器センサは、デバイス100の前面に配置されたタッチ感知ディスプレイシステム112の反対側である、デバイス100の背面に配置されている。
デバイス100はまた、1つ以上の加速度計168をも任意選択的に含む。図1Aは、周辺機器インターフェース118に連結される加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106内の入力コントローラ160に、任意選択的に、連結される。いくつかの実施形態において、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、加速度計(1つ又は複数)168に加えて、磁力計(図示せず)並びにデバイス100の位置及び向き(例えば、ポートレート又はランドスケープ)に関する情報を取得するためのGPS(又はGLONASS又は他のグローバルナビゲーションシステム)受信部(図示せず)を、任意選択的に含む。
いくつかの実施形態において、メモリ102に記憶されたソフトウェアコンポーネントは、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、触覚フィードバックモジュール(又は命令セット)133、テキスト入力モジュール(又は命令セット)134、全地球測位システム(GPS)モジュール(又は命令セット)135、及びアプリケーション(命令セット)136を含む。更に、いくつかの実施形態において、図1A及び図3に示すように、メモリ102はデバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがあれば、どのアプリケーションがアクティブかを示す、アクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチ感知ディスプレイシステム112の様々な領域を占領しているかを示す、表示状態、様々なセンサ及び他の入力若しくは制御デバイス116から得られる情報を含む、センサ状態、及び、デバイスの位置及び/又は高度に関する場所及び/又は位置情報のうちの1つ以上を含む。
オペレーティングシステム126(例えば、iOS、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理など)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含み、様々なハードウェアとソフトウェアコンポーネントとの間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素を含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えば、インターネット、無線LANなど)を介して間接的に他のデバイスに連結するように適合される。いくつかの実施形態において、外部ポートは、California州CupertinoのAppleInc.のiPhone(登録商標)、iPod Touch(登録商標)及びiPad(登録商標)デバイス上で使用される30ピンコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるマルチピン(例えば、30ピン)コネクタである。いくつかの実施形態において、外部ポートは、California州CupertinoのAppleInc.のiPhone(登録商標)、iPod Touch及びiPadデバイス上で使用されるLightningコネクタと同一の、又はこれに類似した及び/若しくは互換性のあるLightningコネクタである。
接触/動きモジュール130は、任意選択的に、(ディスプレイコントローラ156と併せて)タッチ感知ディスプレイシステム112との接触、及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が発生したかどうかの判定(例えば、フィンガダウンイベントの検出)、接触の強度(例えば、接触の力若しくは圧力、又は、接触の力若しくは圧力の代用語)の判定、接触の移動及びタッチ感知面にわたる動きの追跡(例えば、1つ以上のフィンガドラッグイベントの検出)があるかどうかの判定、及び接触が中止したかどうか(例えば、フィンガアップイベント又は接触の中断の検出)の判定などの、(例えば、指による又はスタイラスによる)接触の検出に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データにより表される接触点の移動を判定することは、接触点の速さ(大きさ)、スピード(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)を判定することを、任意選択的に含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触若しくはスタイラスの接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態において、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターン(例えば、異なる動き、タイミング、及び/又は検出された接触の強度)を有する。したがって、ジェスチャは、特定の接触パターンを検出することによって、任意選択的に、検出される。例えば、指のタップジェスチャを検出することは、指を下ろすイベントを検出し、続いて(例えば、アイコンの位置での)その指を下ろすイベントと同じ位置(又は、実質的に同じ位置)で指を上げる(リフトオフする)イベントを検出することを含む。他の実施例として、タッチ感知面でのフィンガスワイプジェスチャの検出は、フィンガダウンイベントを検出し、続いて1つ以上のフィンガドラッグイベントを検出し、その後、フィンガアップ(リフトオフ)イベントを検出することを含む。同様に、スタイラスについて、タップ、スワイプ、ドラッグ及び他のジェスチャは、スタイラスの特定の接触パターンを検出することで、任意選択的に検出される。
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチ感知ディスプレイシステム112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書で使用するとき、用語「グラフィック」は、ユーザに対して表示することができる任意のオブジェクトを含み、それらのオブジェクトとしては、テキスト、ウェブページ、アイコン(ソフトキーを含むユーザインターフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどが挙げられるが、これらに限定されない。
いくつかの実施形態において、グラフィックモジュール132は、使用されるグラフィックを表すデータを記憶する。それぞれのグラフィックには、対応するコードが、任意選択的に、割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィックプロパティデータと共に、表示されるグラフィックを指定する1つ以上のコードを受信し、ディスプレイコントローラ156に出力する画面画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応じて、デバイス100上の1つ以上の場所で触知出力生成器(1つ又は複数)167を用いて触知出力を生成するために、使用される命令(例えば、触覚フィードバックコントローラ161で使用される命令)を生成するための、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するための、ソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を判断し、この情報を様々なアプリケーションで使用するために提供する(例えば、ロケーションベースダイヤル発呼で使用するための電話138へ、ピクチャ/ビデオのメタデータとしてカメラ143へ、並びに天気ウィジェット、地方のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどのロケーションベースのサービスを提供するアプリケーションへ)。
アプリケーション136は、任意選択的に以下のモジュール(又は、命令のセット)、又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(時には、アドレス帳又は連絡先リストとも呼ぶ)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又は映像用のカメラモジュール143、
●画像管理モジュール144、
●ブラウザモジュール147、
●カレンダーモジュール148、
●天気ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、辞書ウィジェット149−5、及びユーザによって取得された他のウィジェット、並びにユーザ作成ウィジェット149−6のうちの1つ以上を任意選択的に含む、ウィジェットモジュール149、
●ユーザ作成ウィジェット149−6を作るためのウィジェットクリエータモジュール150、
●検索モジュール151、
●任意選択的にビデオプレーヤモジュールとミュージックプレーヤモジュールで構成された、ビデオ及びミュージックプレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、及び/又は
●オンラインビデオモジュール155。
任意選択的にメモリ102内に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、連絡先モジュール137は、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に記憶される)アドレスブック又は連絡先リストを管理するための実行可能な命令を含み、それには、アドレスブックに名前(1つ又は複数)を加えること、アドレスブックから名前(1つ又は複数)を削除すること、電話番号(1つ又は複数)、メールアドレス(1つ又は複数)、住所(1つ又は複数)、又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類して振り分けること、電話番号及び/又はメールアドレスを提供して、電話138、テレビ会議139、電子メール140、若しくはIM141による通信を開始させる及び/又は容易にすること、などが含まれる。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、電話モジュール138は、電話番号に対応する一連の文字を入力し、アドレス帳137内の1つ以上の電話番号にアクセスし、入力されている電話番号を修正し、それぞれの電話番号をダイヤルし、会話を遂行し、会話が完了した際に接続を切るか又は電話を切るために、使用されてもよい。上述のように、無線通信は、複数の通信規格、プロトコル、及び技術のうちのいずれかを、任意選択的に使用する。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と併せて、テレビ会議モジュール139は、ユーザの指示にしたがって、ユーザと1人以上の他の参加者との間のテレビ会議を開始し、行い、終了するための、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、電子メールクライアントモジュール140は、ユーザの指示に応じて、電子メールを作成し、送信し、受信し、管理するための、実行可能命令を含む。画像管理モジュール144と併せて、電子メールクライアントモジュール140により、カメラモジュール143で撮影した静止画像又は映像を作成し、電子メールを送信することが非常に簡単になる。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、インスタントメッセージングモジュール141は、インスタントメッセージと対応する文字列を入力したり、入力済みの文字を修正したり、対応するインスタントメッセージを送信したり(例えば、電話ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又はインターネットベースのインスタントメッセージのためのXMPP、SIMPLE、アップルプッシュ通知サービス(APNs)若しくはIMPSを使用して)、インスタントメッセージを受信してその受信したインスタントメッセージを表示したりするための、実行可能命令を含む。いくつかの実施形態では、送信及び/又は受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされるように、グラフィック、写真、オーディオファイル、映像ファイル、及び/又は他の添付物を、任意選択的に、含む。本明細書では、「インスタントメッセージング」とは、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送信されたメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE、APNs又はIMPSを使用して送信されたメッセージ)の両方を意味する。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及びミュージックプレーヤモジュール146と併せて、トレーニングサポートモジュール142は、(例えば、時間、距離、及び/又はカロリー消費目標を有する)トレーニングを生成する、(スポーツデバイス及びスマートウォッチ内の)トレーニングセンサと通信する、トレーニングセンサデータを受信する、トレーニングをモニタリングするために用いられるセンサを測定する、トレーニング用の音楽を選択して再生する、並びに、トレーニングデータを表示、記憶、及び送信するための、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、光センサ(1つ又は複数)164、光センサコントローラ158、接触モジュール130、グラフィックモジュール132、及び画像管理モジュール144と併せて、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)をキャプチャしてメモリ102にそれらを記憶したり、静止画像又はビデオの特徴を変更したり、及び/又はメモリ102から静止画像若しくはビデオを削除したりするための、実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィクモジュール132、テキスト入力モジュール134、及びカメラモジュール143と併せて、画像管理モジュール144は、静止画像及び/又は映像を配置し、修正し(例えば、編集し)あるいは別の方法で操作し、ラベルを付け、削除し、提示し(例えば、デジタルスライドショー又はアルバム内で)、並びに記憶するための実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と関連して、ブラウザモジュール147は、ウェブページ又はそれらの一部、並びにウェブページにリンクされた添付及び他のファイルを検索し、リンク付け、受信し、表示することを含むユーザの指示に従い、インターネットをブラウズするための実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と併せて、カレンダーモジュール148は、ユーザの指示に従い、カレンダー及びカレンダーに関連付けられたデータ(例えば、カレンダー項目、To Doリストなど)を作成し、表示し、変更し、記憶するための実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併せて、ウィジェットモジュール149は、ユーザによって任意選択的にダウンロードされ、使用されるミニアプリケーション(例えば、気象ウィジェット149−1、株式ウィジェット149−2、計算機ウィジェット149−3、アラーム時計ウィジェット149−4、及び辞書ウィジェット149−5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル及びJavaScript(登録商標)ファイル(例えば、Yahoo!(登録商標)ウィジェット)を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と併せて、ウィジェット作成モジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザ指定箇所をウィジェットに変える)ための実行可能な命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィクモジュール132、及びテキスト入力モジュール134と併せて、検索モジュール151は、ユーザの指示に従い、1つ以上の検索基準(例えば、1つ以上のユーザ指定の検索語句)と一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は他のファイルを検索するための実行可能命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と併せて、ビデオ及びミュージックプレーヤモジュール152は、ユーザが、MP3又はAACファイルなどの1つ以上のファイルフォーマットで記憶されたミュージック及び他の音声ファイルをダウンロード及び再生することを可能にする実行可能な命令、及び(例えば、タッチ感知ディスプレイシステム112上、又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)映像を表示、提示又は他の方法によって再生する実行可能な命令を含む。いくつかの実施形態において、デバイス100は、任意選択的に、iPod(Apple Inc.の登録商標)などのMP3プレーヤの機能を含む。
タッチ感知ディスプレイシステム112、ディスプレイコントローラ156、接触モジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と併せて、メモモジュール153は、ユーザの指示に従って、メモ、ToDoリストなどを作成及び管理するための、実行可能命令を含む。
RF回路108、タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と併せて、地図モジュール154は、ユーザの指示に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所若しくはその付近の店舗及び関心対象の他の地点についてのデータ、並びに場所に基づく他のデータ)を受信し、表示し、修正し、記憶するための実行可能な命令を含む。
タッチ感知ディスプレイシステム112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と併せて、オンラインビデオモジュール155は、ユーザがH.264などの1つ以上のファイル形式のオンラインビデオにアクセスし、ブラウズし、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン112上で又は無線で若しくは外部ポート124を介して接続された外部のディスプレイ上で)、特定のオンラインビデオへのリンクを含む電子メールを送信し、別の方法で管理できるようにする実行可能な命令を含む。いくつかの実施形態においては、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が、特定のオンラインビデオへのリンクを送信するために用いられる。
上記で識別されたモジュール及びアプリケーションのそれぞれは、1つ又はそれ以上の上記の機能を実行するための実行可能命令セット及び本出願に記載の方法(例えば、コンピュータにより実行される方法及び本明細書に記載の他の情報処理方法)に対応する。これらのモジュール(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において、任意選択的に、組み合わせ、又は再配置される。いくつかの実施形態において、メモリ102は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ102は、上述されていない追加のモジュール及びデータ構造を、任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、デバイス上の機能の既定のセットの動作が排他的にタッチスクリーン及び/又はタッチパッドを介して実行されるデバイスである。デバイス100の動作のための主要入力制御デバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、デバイス100上の物理的な入力制御デバイス(プッシュボタン、ダイヤル、及び類似物など)の数を、任意選択的に、減らす。
排他的にタッチスクリーン及び/又はタッチパッドを介して実行される、既定の機能のセットは、任意選択的に、ユーザインターフェース間のナビゲーションを含む。いくつかの実施形態において、タッチパッドは、ユーザによってタッチされると、デバイス100上に表示される任意のユーザインターフェースから、メインメニュー、ホームメニュー、又はルートメニューへデバイス100をナビゲートする。かかる実施形態において、「メニューボタン」はタッチパッドを使って実装される。いくつかの他の実施形態において、メニューボタンは、タッチパッドの代わりに、物理的なプッシュボタン又は他の物理的な入力制御デバイスである。
図1Bは、いくつかの実施形態による、イベント処理のための例示的なコンポーネントを示すブロック図である。いくつかの実施形態では、メモリ102(図1A内)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)及びそれぞれのアプリケーション136−1(例えば、上述のアプリケーション136及び137〜155、又は後述するアプリケーション380〜394のいずれか)を含む。
イベントソータ170は、イベント情報を受け付け、イベント情報を配布するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態において、アプリケーション136−1は、アプリケーションがアクティブ又は実行中の時、タッチ感知ディスプレイシステム112上に表示される現在のアプリケーションビュー(1つ以上)を示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開する際に使用される再開情報、アプリケーション136−1によって情報が表示されているか又は表示の準備が整っていることを示すユーザインターフェース状態情報、ユーザがアプリケーション136−1の以前の状態又はビューに戻ることを可能にするための状態待ち行列、及びユーザが以前に行ったアクションのリドゥ/アンドゥ待ち行列のうちの1つ以上などの、追加情報を含む。
イベントモニタ171は、周辺機器インターフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としての、タッチ感知ディスプレイシステム112上でのユーザのタッチ)についての情報を含む。周辺機器インターフェース118は、I/Oサブシステム106又は近接センサ166、加速度計(1つ又は複数)168、及び/若しくは(オーディオ回路機構110を介して)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インターフェース118がI/Oサブシステム106から受け取る情報は、タッチ感知ディスプレイシステム112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インターフェース118に要求を送る。これに応じて、周辺機器インターフェース118は、イベント情報を送出する。他の実施形態において、周辺機器ンタフェース118は、重要なイベント(例えば、所定のノイズ閾値を超える、及び/又は所定時間より長い入力を受け付けること)がある場合にのみイベント情報を送出する。
いくつかの実施形態では、イベントソータ170はまた、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイシステム112が1つ以上のビューを表示した際に、1つ以上のビュー内のどこにおいてサブイベントが発生したかを判定するためのソフトウェア手続きを提供する。ビューは、ユーザがディスプレイ上で見ることが可能な、制御部及び他の要素で構成される。
アプリケーションに関連付けられるユーザインターフェースの別の態様は、本明細書では、アプリケーションビュー又はユーザインターフェースウィンドウと呼ばれる場合がある、ビューのセットであり、それらの中で、情報が表示され、タッチに基づくジェスチャが実施される。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに、任意選択的に、対応する。例えば、タッチが検出される最低レベルのビューは、任意選択的に、ヒットビューと呼ばれ、適切な入力として認識されるイベントのセットは、少なくとも部分的に、タッチベースのジェスチャを開始する最初のタッチのヒットビューに基づいて、任意選択的に、判定される。
ヒットビュー判定モジュール172は、タッチベースのジェスチャのサブイベントと関連付けられた情報を受け取る。アプリケーションが、階層として編成された複数のビューを有する場合、ヒットビュー判定モジュール172は、サブイベントを処理するべき階層内の最下位のビューとして、ヒットビューを特定する。ほとんどの状況では、ヒットビューは、最初のサブイベント(即ち、イベント又は潜在的なイベントを形成するサブイベントのシーケンスにおける最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー判定モジュールによって識別されると、ヒットビューは、典型的には、それがヒットビューとして識別された、同じタッチ又は入力ソースに関連する全てのサブイベントを受け付ける。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビュー(1つ以上)がサブイベントの特定のシーケンスを受け取るべきかを判定する。いくつかの実施形態において、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態において、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な位置を含む全てのビューはアクティブに関わっているビューであると判定し、したがって、全てのアクティブに関わっているビューは、サブイベントの特定のシーケンスを受け付けるべきであると判定する。他の実施形態では、タッチサブイベントがある特定のビューに関連付けられた領域に完全に限定されたとしても、階層の上位のビューはアクティブに関わっているビューのままであるであろう。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えば、イベント認識部180)に送信する。アクティブイベント認識部判定モジュール173を含む実施形態において、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配布する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部モジュール182により取得されるイベント情報をイベント待ち行列内に記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。あるいは、アプリケーション136−1が、イベントソータ170を含む。更に他の実施形態において、イベントソータ170は、スタンドアロンモジュール、又は接触/動きモジュール130などのメモリ102に記憶された他のモジュールの一部である。
いくつかの実施形態では、アプリケーション136−1は、そのアプリケーションのユーザインターフェースの各ビュー内で発生するタッチイベントを処理するための命令をそれぞれが含む、複数のイベントハンドラ190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136−1のそれぞれのアプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的に、それぞれのアプリケーョンビュー191は、複数のイベント認識部180を含む。他の実施形態において、イベント認識部180のうちの1つ以上は、ユーザインターフェースキット(図示せず)又はアプリケーション136−1が方法及び他の性質を継承する上位レベルのオブジェクトなど、別個のモジュールの一部である。いくつかの実施形態において、それぞれのイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又はイベントソータ170から受け付けたイベントデータ179のうちの1つ以上を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を、任意選択的に、利用若しくは呼び出す。あるいは、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベントハンドラ190を含む。また、いくつかの実施形態において、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178のうちの1つ以上がそれぞれのアプリケーションビュー191内に含まれている。
各イベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受け取って、そのイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態において、イベント認識部180は更に、メタデータ183及びイベント配布命令188(任意選択的に、サブイベント配布命令を含む)の少なくともサブセットを含む。
イベント受信器182は、イベントソータ170からイベント情報を受信する。イベント情報は、例えば、タッチ又はタッチの移動などのサブイベントの情報を含む。サブイベントによっては、イベント情報は、サブイベントの位置などの追加情報をもまた含む。サブイベントが、タッチの動きに関わる時、イベント情報は、サブイベントのスピード及び方向を、任意選択的に、更に含む。いくつかの実施形態において、イベントは、ある方向から別の方向へ(例えば、ポートレートの向きからランドスケープの向きへ、又はその逆)のデバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ばれる)についての対応する情報を含む。
イベント比較部184は、イベント情報を既定のイベント又はサブイベントの定義と比較し、その比較により、イベント又はサブイベントを判定、又はイベント若しくはサブイベントの状態を判定又は更新する。いくつかの実施形態において、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187−1)、イベント2(187−2)などの、イベントの定義(例えば、サブイベントの既定のシーケンス)を含む。いくつかの実施形態において、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。ある実施例において、イベント1(187−1)の定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、表示されたオブジェクト上の所定の段階についての第1タッチ(タッチ開始)、所定の段階についての第1リフトオフ(タッチ終了)、表示されたオブジェクト上の所定の段階についての第2タッチ(タッチ開始)、及び所定の段階についての第2リフトオフ(タッチ終了)を含む。別の実施形態において、イベント2(187−2)の定義は、表示されたオブジェクト上のドラッグである。ドラッギングは、例えば、表示されたオブジェクト上の所定の段階についてのタッチ(又は接触)、タッチ感知ディスプレイシステム112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態において、イベントは、1つ以上の関連付けられたイベントハンドラ190についての情報も含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインターフェースオブジェクト用のイベントの定義を含む。いくつかの実施形態において、イベント比較部184は、サブイベントに関連付けられたユーザインターフェースオブジェクトを判定するヒットテストを実行する。例えば、3つのユーザインターフェースオブジェクトがタッチ感知ディスプレイシステム112に表示されるアプリケーションビューにおいて、タッチ感知ディスプレイシステム112上でタッチが検出されると、イベント比較部184は、3つのユーザインターフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定するためのヒットテストを行う。表示されたそれぞれのオブジェクトが、それぞれのイベントハンドラ190に関連付けられている場合、イベント比較部はヒットテストの結果を用いて、アクティブ化する必要のあるイベントハンドラ190を判定する。例えば、イベント比較部184は、サブイベント及びヒットテストのトリガーとなるオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態では、各イベント187に関する定義はまた、サブイベントのシーケンスがイベント認識部のイベントタイプに対応するか否かが判定されるまで、イベント情報の送付を遅延させる、遅延作用も含む。
それぞれのイベント認識部180は、一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチベースのジェスチャの次のサブイベントを無視する。この状況では、もしあれば、ヒットビューについてアクティブのままである他のイベント認識部は、進行中のタッチベースのジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態において、それぞれのイベント認識部180は、構成可能なプロパティ、フラグ、及び/又はイベント配信システムがアクティブに関わっているイベント認識部にどのようにサブイベント配信を実行するかについて示すリストを持つメタデータ183を含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はイベント認識部が互いにどのように対話し得るかについて示すリストを含む。いくつかの実施形態において、メタデータ183は、構成可能なプロパティ、フラグ、及び/又はサブイベントがビュー階層又はプログラム階層内の様々なレベルに配布されるかどうかを示すリストを含む。
いくつかの実施形態において、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識された時に、イベントに関連付けられたイベントハンドラ190をアクティブ化する。いくつかの実施形態において、それぞれのイベント認識部180は、イベントハンドラ190に、イベントに関連付けられたイベント情報を配布する。イベントハンドラ190をアクティブ化することと、それぞれのヒットビューにサブイベントを送信(及び送信を延期する)することとは、区別される。いくつかの実施形態において、イベント認識部180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190はフラグをキャッチし、既定の処理を実行する。
いくつかの実施形態において、イベント配信命令188は、イベントハンドラをアクティブ化せずにサブイベントに関するイベント情報を配信するサブイベント配信命令を含む。その代わりに、サブイベント配信命令は、一連のサブイベントに関連付けられたイベントハンドラ又はアクティブに関わっているビューにイベント情報を配布する。一連のサブイベント又はアクティブに関わっているビューに関連付けられているイベントハンドラは、イベント情報を受け付け、所定の処理を実行する。
いくつかの実施形態において、データアップデータ176は、アプリケーション136−1で使用されるデータを作成及び更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新したり、ビデオプレーヤモジュール145で使用されるビデオファイルを記憶したりする。いくつかの実施形態において、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクトアップデータ176は、新たなユーザインターフェースオブジェクトを作成したり、ユーザインターフェースオブジェクトの位置を更新したりする。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するため、表示情報をグラフィクモジュール132に送信する。
いくつかの実施形態では、イベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178を含むか、若しくはそれらに対するアクセスを有する。いくつかの実施形態において、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、それぞれのアプリケーション136−1又はアプリケーションビュー191の1つのモジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の論考はまた、入力デバイスを使用して多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、その全てがタッチスクリーン上で開始されるわけではないことが理解されよう。例えば、単一又は複数のキーボードの押下又は保持に任意選択的に合わせたマウスの移動及びマウスボタンの押下、タッチパッド上でのタップ、ドラッグ、スクロールなどの接触移動、ペンスタイラス入力、デバイスの移動、口伝え、検出された眼球運動、バイオメトリック入力、及び/又はこれらの任意の組み合わせが、認識対象のイベントを定義するサブイベントに対応する入力として、任意選択的に利用される。
図2は、いくつかの実施形態による、タッチスクリーン(例えば、図1Aのタッチ感知ディスプレイシステム112)を有するポータブル多機能デバイス100を示す。タッチスクリーンは、ユーザインターフェース(UI)200内に1つ以上のグラフィックを、任意選択的に、表示する。本実施形態及び後述する実施形態において、ユーザは、例えば、1本以上の指202(図には、正確な縮尺率では描かれていない)又は1つ以上のスタイラス203(図には、正確な縮尺率では描かれていない)を用いてグラフィック上でジェスチャを行うことにより、グラフィックのうちの1つ以上を選択できる。いくつかの実施形態において、ユーザが1つ以上のグラフィックとの接触を断った際に、1つ以上のグラフィックの選択が生じる。いくつかの実施形態において、ジェスチャは、1回以上のタップ、1回以上のスワイプ(左から右へ、右から左へ、上方向へ、及び/又は下方向へ)、及び/又はデバイス100と接触した指のローリング(右から左へ、左から右へ、上方向へ、及び/又は下方向へ)を、任意選択的に、含む。いくつかの実装又は状況において、グラフィックとの偶発的な接触は、グラフィックを選択しない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスワイプするスワイプジェスチャは、対応するアプリケーションを、任意選択的に、選択しない。
デバイス100はまた、「ホーム」又はメニューボタン204などの、1つ以上の物理ボタンも任意選択的に含む。前述のように、メニューボタン204は、機器100上で、任意選択的に、実行するアプリケーションのセット内の任意のアプリケーション136へのナビゲーションに、任意選択的に、使用される。あるいは、いくつかの実施形態において、メニューボタンは、タッチスクリーンディスプレイに表示されたGUIにおけるソフトキーとして実装されている。
いくつかの実施形態では、デバイス100は、タッチスクリーンディスプレイ、メニューボタン204、デバイスへの電源をオン/オフし、デバイスをロックするためのプッシュボタン206、音量調整ボタン(1つ又は複数)208、加入者識別モジュール(Subscriber Identity Module、SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、ボタンを押下して、既定の時間間隔にわたってボタンを押下された状態で保持することによって、デバイス上の電源をオン/オフし、ボタンを押下して、既定の時間間隔が経過する前にボタンを解放することによって、デバイスをロックし、かつ/又はデバイスをロック解除するか、若しくはロック解除処理を開始するために、任意選択的に使用される。いくつかの実施形態において、デバイス100はまた、マイクロフォン113を通して、一部の機能をアクティブ化し、又はディアクティブ化するための口頭入力を受け付ける。また、デバイス100は、タッチ感知ディスプレイシステム112への接触の強度を検出するための1つ以上の接触強度センサ165及び/又はデバイス100のユーザの触覚出力を生成するための1つ以上の触覚出力生成器167を、任意選択的に、含む。
図3は、一部の実施形態による、ディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブルでなくてもよい。いくつかの実施形態において、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又は制御デバイス(例えば、ホーム又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インターフェース360と、メモリ370と、及びこれらの構成要素を相互接続するための1つ以上の通信バス320とを含む。通信バス320は、システム構成要素間の通信を相互接続及び制御する回路(チップセットと称することがある)を、任意選択的に含む。デバイス300は、典型的にはタッチスクリーンディスプレイである、ディスプレイ340を備える入出力(I/O)インターフェース330を含む。I/Oインターフェース330はまた、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355、デバイス300上に触知出力を生成するための(例えば、図1Aを参照して上述された触知出力生成器167と同様の)触知出力生成器357、センサ359(例えば、光センサ、加速度センサ、近接センサ、タッチ感知センサ、及び/又は図1Aを参照して上述された接触強度センサ165と同様の接触強度センサ)も、任意選択的に含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセス半導体メモリデバイスなどの、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性半導体記憶デバイスなどの、不揮発性メモリを含む。メモリ370は、CPU(1つ又は複数)310からは離れて位置する1つ以上の記憶デバイスを、任意選択的に、含む。いくつかの実施形態において、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102に記憶されたプログラム、モジュール、及びデータ構造に類似の、プログラム、モジュール、及びデータ構造、又はそれらのサブセットを記憶する。更に、メモリ370は、ポータブル多機能デバイス100のメモリ102内に存在しない追加プログラム、モジュール、及びデータ構造を記憶し得る。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、文書作成モジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、スプレッドシートモジュール390、第1ビデオプレーヤモジュール392(例えば、第1の第三者ビデオプレーヤモジュール)及び/又は第2ビデオプレーヤモジュール394(例えば、第2の第三者ビデオプレーヤモジュール)を、任意選択的に記憶するが、ポータブル多機能デバイス100(図1A)のメモリ102は、これらのモジュールを、任意選択的に記憶しない。
上記で特定された図3の要素のそれぞれは、任意選択的に、前述のメモリデバイスのうちの1つ以上に記憶される。上記で識別されたモジュールうちのそれぞれは、上述した機能を実行するための命令セットに対応する。上述の識別されたモジュール又はプログラム(すなわち、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施される必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットを、任意選択的に、組み合わされるか、又は別の方法で再配置される。いくつかの実施形態において、メモリ370は、上述の識別されたモジュール及びデータ構造のサブセットを、任意選択的に記憶する。更に、メモリ370は、上述されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
ここで、ポータブル多機能デバイス100上に任意選択的に実装される、ユーザインターフェース(「UI」)の実施形態に注意を向ける。
図4Aは、いくつかの実施形態による、ポータブル多機能デバイス100上のアプリケーションのメニューに関する、例示的なユーザインターフェースを示す。同様のユーザインターフェースがデバイス300上に、任意選択的に、実装され得る。いくつかの実施形態では、ユーザインターフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー及びWi−Fi信号などの無線通信(1つ又は複数)のための信号強度インジケータ(1つ又は複数)402、
●時間404、
●Bluetoothインジケータ、
●バッテリ状態インジケータ406、
●下記などの、頻繁に利用されるアプリケーション用のアイコンを含むトレー408、
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされる、電子メールクライアントモジュール140用のアイコン418、
○「ブラウザ」とラベル付けされる、ブラウザモジュール147用のアイコン420、及び、
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及びミュージックプレーヤモジュール152用のアイコン422、並びに
●下記などの、その他のアプリケーション用のアイコン、
○「メッセージ」とラベル付けされる、IMモジュール141用のアイコン424、
○「カレンダー」とラベル付けされる、カレンダーモジュール148用のアイコン426、
○「写真」とラベル付けされる、画像管理モジュール144用のアイコン428、
○「カメラ」とラベル付けされる、カメラモジュール143用のアイコン430、
○「オンラインビデオ」とラベル付けされる、オンラインビデオモジュール155用のアイコン432、
○「株式」とラベル付けされる、株式ウィジェット149−2用のアイコン434、
○「マップ」とラベル付けされる、地図モジュール154用のアイコン436、
○「天気」とラベル付けされる、天気ウィジェット149−1用のアイコン438、
○「時計」とラベル付けされる、アラーム時計ウィジェット149−4用のアイコン440、
○「トレーニングサポート」とラベル付けされる、トレーニングサポートモジュール142用のアイコン442、
○「メモ」とラベル付けされる、メモモジュール153用のアイコン444、及び、
○デバイス100及びその様々なアプリケーション136に関する設定へのアクセスを提供する、設定アプリケーション若しくはモジュール用のアイコン446。
図4Aに示されているアイコンのラベルは、単に例示的であることが理解されよう。例えば、いくつかの実施形態においては、ビデオ及びミュージックプレーヤモジュール152用のアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる。他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態において、特定のアプリケーションアイコンのラベルは、特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450とは別のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えたデバイス(例えば、図3のデバイス300)上の例示的なユーザインターフェースを示す。デバイス300はまた、タッチ感知面451上の接触の強度を検出するための、1つ以上の接触強度センサ(例えば、センサ357のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成するための、1つ以上の触知出力生成器359を含む。
図4Bは、ディスプレイ450とは別のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を備えたデバイス(例えば、図3のデバイス300)上の例示的なユーザインターフェースを示す。図4Bに示すように、ディスプレイとは別のタッチ感知面での入力を検出するデバイスを参照して、以下に多くの例を示す。いくつかの実施形態において、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4Bの453)に対応する主軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの位置に対応する位置(例えば、図4Bにおいて、460は468と対応し、462は470と対応する)でのタッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このように、タッチ感知面がディスプレイとは別個のものである時、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されたユーザ入力(例えば、接触460及び462、及びそれらの動き)は、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインターフェースを操作するためにデバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインターフェースに、任意選択的に使用されることを理解されたい。
加えて、以下の例は、主に指入力(例えば、指の接触、指のタップジェスチャ、指のスワイプジェスチャなど)を参照して説明されるが、いくつかの実施形態では、それらの指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスに基づく入力又はスタイラス入力)、又は同じデバイスでの他の種類の入力(例えば、ボタン押下)で置き換えられることを理解されたい。例えば、スワイプジェスチャは、任意選択的に、(例えば、接触の代わりに)マウスクリックと置換され、その後、(例えば、接触の移動の代わりに)スワイプの経路に沿ってカーソルの移動が行われる。別の実施例として、タップジェスチャは、(例えば、接触の検出に続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの位置上に配置される間、任意選択的に、マウスクリックと置換される。同様に、複数のユーザ入力が同時に検出される時、複数のコンピュータマウスが同時に、任意選択的に用いられ、又はマウスと指接触が同時に、任意選択的に用いられることが理解されよう。
本明細書で使用されるとき、用語「フォーカスセレクタ」とは、ユーザが対話しているユーザインターフェースの現在の部分を示す、入力要素を指す。カーソル又は他のロケーションマーカを含む実装において、カーソルは、タッチ感知面(例えば、図3のタッチパッド355、又は図4Bのタッチ感知面451)上で入力(例えば、押下げ入力)が検出された時に、カーソルが特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインターフェース要素)の上にある時、「フォーカスセレクタ」として機能し、特定のユーザインターフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインターフェース要素との直接的な対話を可能にする、タッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112、又は図4Aのタッチスクリーン)を含むいくつかの実装では、タッチスクリーン上で検出される接触が「フォーカスセレクタ」の役割を果たすため、入力(例えば、接触による押圧入力)が、タッチスクリーンディスプレイ上の特定のユーザインターフェース要素(例えば、ボタン、ウィンドウ、スライダ、又は他のユーザインターフェース要素)の場所で検出されると、その特定のユーザインターフェース要素が、検出された入力に従って調節される。いくつかの実装において、(例えば、タブキー又は矢印キーを使ったフォーカスの1つのボタンから別のボタンへの移動により)タッチスクリーン上の対応するカーソルの移動又は接触の移動なしに、フォーカスが、ユーザインターフェースの1つの領域からユーザインターフェースの別の領域に移動される。これらの実装において、フォーカスセレクタは、ユーザインターフェースの異なる領域間でのフォーカスの移動に従って移動する。フォーカスセレクタが取る特定のフォームに関係なく、フォーカスセレクタは、全体的に、ユーザのユーザインターフェースとの意図した(例えば、ユーザが対話したいと思っているユーザインターフェースの要素をデバイスに指示することによる)対話を伝達するように、ユーザによって制御されたユーザインターフェース要素(又は、タッチスクリーンディスプレイ上の接触)である。例えば、押下げ入力がタッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で検出された時にそれぞれのボタンの上にあるフォーカスセレクタ(例えば、カーソル、接触又は選択ボックス)の位置は、(デバイスのディスプレイ上に示されている他のユーザインターフェース要素とは反対に)ユーザが、対応するボタンをアクティブ化しようとしていることを示す。
図4Cは、ディスプレイ450及びタッチ感知面452と通信する例示的な電子デバイスを示す。いくつかの実施の形態によれば、コンピューティングデバイスの少なくともサブセットについて、ディスプレイ450及び/又はタッチ感知面452がコンピューティングデバイス内に一体化している。コンピューティングデバイス(例えば、図1A〜図1Bのポータブル多機能デバイス100又は図3のデバイス300)と通信するタッチ感知面451及びディスプレイ450を参照して、以下に更に詳細に説明する例を説明するが、いくつかの実施形態によれば、タッチ感知面及び/又はディスプレイはコンピューティングデバイスと一体化され、他の実施形態ではタッチ感知面及び/又はディスプレイの1つ以上がコンピューティングデバイスとは別個ものであることが理解されよう。加えて、いくつかの実施形態では、コンピューティングデバイスは、一体化したディスプレイ及び/又は一体化したタッチ感知面を有し、コンピューティングデバイスとは別個の、1つ以上の追加ディスプレイ及び/又はタッチ感知面と通信する。
いくつかの実施形態では、図5A〜図5ZZZZを参照して以下に説明する全ての動作は、ユーザインターフェースナビゲーションロジック480を有する単一のコンピューティングデバイス(例えば、図4Cを参照して以下に説明するコンピューティングデバイスA)で実行される。しかし、たびたび、複数の異なるコンピューティングデバイスがつながって、図5A〜図5ZZZZを参照して以下に説明する動作を実行する(例えば、ユーザインターフェースナビゲーションロジック480を有するコンピューティングデバイスが、ディスプレイ450を有する別個のコンピューティングデバイス、及び/又はタッチ感知面451を有する別個のコンピューティングデバイスと通信する)ことが理解されよう。これら実施形態のいずれかにおいて、図5A〜図5ZZZZを参照して以下に説明するコンピューティングデバイスは、ユーザインターフェースナビゲーションロジック480を有するコンピューティングデバイス(又は複数のデバイス)である。加えて、種々の実施形態において、ユーザインターフェースナビゲーションロジック480は、複数の別個のモジュール又はコンピューティングデバイス間で分割できるが、本明細書においては説明の目的から、ユーザインターフェースナビゲーションロジック480は、主に、本実施形態の他の態様を不必要に不明瞭にしないように、単一のコンピューティングデバイスに属するとして参照することが理解されよう。
いくつかの実施形態では、ユーザインターフェースナビゲーションロジック480は、解釈済みの入力を受信する1つ以上のモジュール(例えば、図1Bを参照してより詳細に上述した1つ以上のオブジェクトアップデータ177及び1つ以上のGUIアップデータ178を含む、1つ以上のイベントハンドラ190)を含み、それら解釈済みの入力に応じて、ディスプレイ上のグラフィカルユーザインターフェースを更新するのに順次使用される解釈済みの入力に従い、グラフィカルユーザインターフェースを更新するための命令を生成する。いくつかの実施形態では、(例えば、図1A及び図3の接触移動モジュール130により)検出され、(例えば、図1Bのイベント認識部180により)認識され、及び/又は(例えば、図1Bのイベントソータ170により)分配された入力に対する解釈済みの入力は、ディスプレイ上のグラフィカルユーザインターフェースを更新するのに使用される。いくつかの実施形態では、解釈済みの入力は、コンピューティングデバイスでモジュールにより生成される(例えば、コンピューティングデバイスが、生の接触入力データからジェスチャを識別するように生の接触入力データを受信する)。いくつかの実施形態では、解釈済みの入力の一部又は全ては、コンピューティングデバイスにより解釈済みの入力として受信される(例えば、タッチ感知面451を含むコンピューティングデバイスが、生の接触入力データを生の接触入力データからジェスチャを識別するように処理し、ジェスチャを示す情報をユーザインターフェースナビゲーションロジック480を有するコンピューティングデバイスへ送る)。
いくつかの実施形態では、ディスプレイ450及びタッチ感知面451の双方は、ユーザインターフェースナビゲーションロジック480を含むコンピューティングデバイス(例えば、図4CのコンピューティングデバイスA)と一体化している。例えば、コンピューティングデバイスは、一体化したディスプレイ(例えば、図3の340)及びタッチパッド(例えば、図3の355)を有するデスクトップコンピュータ又はラップトップコンピュータでもよい。他の例として、コンピューティングデバイスは、タッチスクリーン(図2の112)を有するポータブル多機能デバイス100(例えば、スマートホン、PDA,タブレットコンピュータなど)でもよい。
いくつかの実施形態では、タッチ感知面451はコンピューティングデバイスと一体化しているが、ディスプレイ450は、ユーザインターフェースナビゲーションロジック480を含むコンピューティングデバイス(例えば、図4CのコンピューティングデバイスB)とは一体化されない。例えば、コンピューティングデバイスは、別個のディスプレイ(例えば、コンピュータモニタ、テレビなど)に(有線又は無線接続を介して)接続された、一体化したタッチパッド(例えば、図3の355)を有するデバイス300(例えば、デスクトップコンピュータ又はラップトップコンピュータ)でもよい。他の例として、コンピューティングデバイスは、別個のディスプレイ(例えば、コンピュータモニタ、テレビなど)に(有線又は無線接続を介して)接続された、タッチスクリーン(例えば、図2の112)を有するポータブル多機能デバイス100(例えば、スマートホン、PDA、タブレットコンピュータなど)でもよい。
いくつかの実施形態では、ディスプレイ450は、コンピューティングデバイスと一体化しているが、タッチ感知面451は、ユーザインターフェースナビゲーションロジック480を含むコンピューティングデバイス(例えば、図4CのコンピューティングデバイスC)とは一体化されない。例えば、コンピューティングデバイスは、別個のタッチ感知面(例えば、リモートタッチパッド、ポータブル多機能デバイスなど)に(有線又は無線接続を介して)接続された、一体化したディスプレイ(例えば、図3の340)を有するデバイス300(例えば、デスクトップコンピュータ、ラップトップコンピュータ、一体化したセットトップボックスを有するテレビ)でもよい。他の例として、コンピューティングデバイスは、別個のタッチ感知面(例えば、リモートタッチパッド、リモートタッチパッドとしてのタッチスクリーンを有する他のポータブル多機能デバイスなど)に(有線又は無線接続を介して)接続された、タッチスクリーン(例えば、図2の112)を有するポータブル多機能デバイス100(例えば、スマートホン、PDA、タブレットコンピュータなど)でもよい。
いくつかの実施形態では、ディスプレイ450及びタッチ感知面451のいずれも、ユーザインターフェースナビゲーションロジック480を含むコンピューティングデバイス(例えば、図4CのコンピューティングデバイスD)とは一体化されない。例えば、コンピューティングデバイスは、別個のタッチ感知面(例えば、リモートタッチパッド、ポータブル多機能デバイスなど)及び別個のディスプレイ(例えば、コンピュータモニタ、テレビなど)に(有線又は無線接続を介して)接続された、スタンドアロン式のコンピューティングデバイス300(例えば、デスクトップコンピュータ、ラップトップコンピュータ、コンソール、セットトップボックスなど)でもよい。他の例として、コンピューティングデバイスは、別個のタッチ感知面(例えば、リモートタッチパッド、リモートタッチパッドとしてのタッチスクリーンを有する他のポータブル多機能デバイスなど)に(有線又は無線接続を介して)接続された、タッチスクリーン(例えば、図2の112)を有するポータブル多機能デバイス100(例えば、スマートホン、PDA、タブレットコンピュータなど)でもよい。
いくつかの実施形態では、コンピューティングデバイスは、一体化したオーディオシステムを有する。いくつかの実施形態では、コンピューティングデバイスは、コンピューティングデバイスとは別個のオーディオシステムと通信する。いくつかの実施形態では、オーディオシステム(例えば、テレビユニットと一体化したオーディオシステム)は、別個のディスプレイ450と一体化している。いくつかの実施形態では、オーディオシステム(例えば、ステレオシステム)は、コンピューティングデバイス及びディスプレイ450とは別個のスタンドアロンシステムである。
ユーザインターフェース及び関連プロセス
ここで、図4CのコンピューティングデバイスA〜Dのうちの1つのような、ディスプレイ及びタッチ感知面と通信する、及び/又は、そのようなディスプレイ及びタッチ感知面を有する、電子デバイスで実装することができるユーザインターフェース(「UI」)及び関連処理の実施形態に注目を向ける。
図5A〜図5ZZZZは、いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。これらの図のユーザインターフェースは、図12A〜図12Eのプロセスを含めた、以下で説明されるプロセスを例示するために使用される。以下の実施例のうちのいくつかは、ディスプレイ450とは別個のタッチ感知面451上の入力(タッチ感知面とディスプレイとは組み合わされている場合)を参照して説明されるが、図4Aに示すように、いくつかの実施形態において、デバイスは、タッチスクリーンディスプレイ上の入力を検出する。以下の実施例のうちのいくつかは、デデバイスとは別個のリモートユーザ入力デバイス(例えばリモートコントロール)上の入力を参照して説明されるが、いくつかの実施形態では、デバイスは、一体化したユーザ入力デバイス(例えばトラックパッド)を含む。
図5Aは、ディスプレイ450及び対応するリモートコントロール5001(例えば、両方ともデバイス100又は300と通信する)を示す。いくつかの実施形態では、リモートコントロール5001は、タッチ感知面451を有する。いくつかの実施形態では、リモートコントロール5001はまた、メニューボタン5002、マイクロフォンボタン5003、再生/一時停止ボタン5004、ウォッチリストボタン5005、ボリューム増加ボタン5009、及び/又はボリューム減少ボタン5007などの、1つ以上のボタン又はアフォーダンスを有する。いくつかの実施形態では、メニューボタン5002又は類似のアフォーダンスは、ホーム画面ユーザインターフェースがディスプレイ450上に表示されることを可能にする。いくつかの実施形態では、メニューボタン5002又は類似のアフォーダンスは、以前に表示されたユーザインターフェースに戻るようナビゲートをすることを可能にする。いくつかの実施形態では、マイクロフォンボタン5003又は類似のアフォーダンスは、デバイス(例えば、デバイス100又は300)に対して、ユーザが言葉によるコマンド又は音声入力を提供することを可能にする。いくつかの実施形態では、再生/一時停止ボタン5004は、デバイス(例えば、デバイス100又は300)によってディスプレイ450上に表現されたオーディオメディア又はビジュアルメディアを再生又は一時停止するために用いられる。いくつかの実施形態では、ウォッチリストボタン5005は、ウォッチリストユーザインターフェースがディスプレイ450上に表示されることを可能にする。いくつかの実施形態では、ウォッチリストユーザインターフェースは、デバイス(例えば、デバイス100又は300)を用いて再生する複数のオーディオ/ビジュアルメディアアイテムをユーザに提供する。
図5Aはまた、ディスプレイ450上に表示されるスクリーンセーバービュー5008を示している。いくつかの実施形態では、スクリーンセーバービュー5008は、リモートコントロール5001が静止している(例えば、リモートコントロール5001がテーブルトップなどの静止面に置かれる、及び/又は、予め定められた時間分リモートコントロール5001上で入力がない)と判定することに応じて表示される。
図5Bは、スクリーンセーバービュー5008におけるモーション効果(例えば、橋の景色をズームインする)を示す。いくつかの実施形態では、スクリーンセーバーは、静止画像上にパン効果及び/又はズーミング効果を適用することによってモーション効果を示す。いくつかの実施形態では、スクリーンセーバーは、ビデオを再生することによってモーション効果を示す。
図5C及び図5Dにおいて、スクリーンセーバービュー5008は、橋をズームインする。
図5B〜図5Dに示すモーション効果(例えば、ズームイン動作)は、リモートコントロール5001での入力がない状態において提供される(例えば、モーション効果は、ボタンの押下又はタッチ感知面451上への接触に依存せずに開始される)。
図5Dはまた、スクリーンセーバービュー5008が橋をズームインする間に、タッチ感知面451で接触5401が検出されることを示す。
図5E〜図5Fは、タッチ感知面451での接触5401を検出することに応じて(任意選択的には、タッチ感知面451での接触5401が存続している間に)、スクリーンセーバービュー5008は橋をズームアウトすることを示す。
図5Fはまた、スクリーンセーバービュー5008が橋をズームアウトする間に、タッチ感知面451(図5Eに示す)で接触5401が検出されなくなることを示す。
図5F〜図5Gは、タッチ感知面451で接触5401が検出されなくなることを検出したことに応じて、スクリーンセーバービュー5008が橋をズームインすることを示す。
図5Hは、接触5402の移動(例えば、左スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5Iは、いくつかの実施形態において、接触5402の移動(例えば、左スワイプジェスチャ)を検出することに応じて、ビデオの再生方向(ビデオの再生によってモーション効果が与えられる場合)又はズームイン/ズームアウトの方向が反転されることを示す。例えば、図5F〜図5Hに示すような橋のズームインの代わりに、図5Iは、橋のズームアウトを示す。
図5Iはまた、接触5403の移動(例えば、スワイプダウンジェスチャ)がタッチ感知面451で検出されることを示す。
図5Jは、接触5403の移動(例えば、スワイプダウンジェスチャ)を検出することに応じて、スクリーンセーバー5008が橋のズームインビューを示す、ことを図示する。これは、ユーザが(例えば、オブジェクトをズームインすることによって)スクリーンセーバービュー5008(例えば橋)内に示されるオブジェクトをユーザ側に引き寄せた、という視知覚を提供する。
図5Kは、リモートコントロール5001を持ち上げるユーザ入力5404を示す。
図5Lは、リモートコントロール5001が持ち上げられたことを検出することに応じて、現在の日時5010がディスプレイ450に表示されることを示す。図5Lにおいて、現在の日時5010は、スクリーンセーバービュー5008上に重ね合わされる。
図5Lはまた、入力5405(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5Mは、入力5405の検出に応じて、スクリーンセーバー5008に示される画像又はビデオに関するメタデータ5011がディスプレイ450に表示されることを示す。図5Mにおいて、メタデータ5011は、スクリーンセーバービュー5008上に重ね合わされる。
図5Nは、接触5406の移動(例えば、右スワイプジェスチャ)がタッチ感知面451上で検出されることを示す。
図5Oは、接触5406の移動(例えば、右スワイプジェスチャ)の検出に応じて、スクリーンセーバービュー5008とは別個のスクリーンセーバービュー5009が表示されることを示す。図5Oにおいて、スクリーンセーバービュー5009は、図5Nに示されたような橋の景色上のモーション効果とは別個の、海岸の景色上のモーション効果を含む。
図5Pは、海岸の景色が、図5B〜図5Dに示されるようなズームのみによるモーション効果とは別個の、ズーム効果及びパン効果により示されることを示す。
図5Pはまた、メニューボタン5002を押す入力5407が検出されることを示す。
図5Qは、入力5407(図5P)に応じて、ホーム画面ユーザインターフェース5018がディスプレイ450に表示されることを示す。図5Qにおいて、ホーム画面ユーザインターフェース5018は、複数のアプリケーションアイコン5015−aから5015−eを含む領域5014を含む。アプリケーションアイコン5015−aは、現在のフォーカスがアプリケーションアイコン5015−a上にあることを示すために、他のアプリケーションアイコン5015−bから5015−eから視覚的に区別される(例えば、アプリケーションアイコン5015−aは、拡大して、陰影及び/又は強調表示により示される)。ホーム画面ユーザインターフェース5018はまた、領域5012を含む。領域5012は、現在のフォーカスがあるアプリケーションアイコン5015に対応する1つ以上のアイコンを含む。図5Qにおいて、現在のフォーカスは、アプリケーションアイコン5015−a(例えば、「映画アプリケーションA」)上にあり、領域5012は、映画ポスター5013−aから5013−cを示す。いくつかの実施形態では、ホーム画面ユーザインターフェース5018は、付加的なユーザインターフェースオブジェクト(例えば、他のメディアコンテンツアイテムに対するアイコン)を有する領域5016を含む。
図5R〜図5Uは、位置5408−a乃至5408−dからの接触5408の移動がタッチ感知面451上で検出されることを示す。
図5R〜図5Tにおいて、接触5408の移動はまた、距離グリッド5200を用いて示され、距離グリッドは、次のアイコンまで移動する閾値距離を示す(例えば、初期位置5201−aから閾値位置5201−dまでの接触5408の移動により、現在のフォーカスを現在のアイコンから隣接するアイコンまで移動させはじめる)。
図5S〜図5Tは、接触5408の移動によるアプリケーションアイコン5015−aの傾動(並びに位置5201−b及び位置5201−cにおけるグリッド5200内の接触5408の対応位置)を示す。図5S〜図5Tに示すように、接触5408が隣接するアイコン(例えば、アイコン5015−b)を更に移動させるにつれて、現在のフォーカスがあるアイコン5015−aは、隣接するアイコン(例えば、アイコン5015−b)に向かって更に傾く。
図5Uは、接触5408が位置5408−dに移動したことを示し、これを受けて、現在のフォーカスは、アイコン5015−aからアイコン5015−bに移動している(例えば、アイコン5015−bは、拡大され、陰影及び/又は強調表示により示される)。図5Uにおいて、アイコン5015−aのサイズは(以前に拡大したサイズから)小さくなり、陰影及び/又は強調表示によらずに示される。更に、アイコン5015−bに関する現在のフォーカスの位置を示すために、新たなグリッド5202が図5Uに示される。
図5Uはまた、領域5012がアイコン5015−b(例えば「iTunes」アプリケーションアイコン)に対応するアルバムポスターアイコン(例えば、アルバムポスターアイコン5017−aから5017−c)を含むことを示す。
図5V〜図5Xは、タッチ感知面451上の位置5409−aから位置5409−cまでの(及びグリッド5204における対応位置5205−aから5205−cの)接触5409の移動を示す。図5V〜図5Xはまた、接触5409の移動によるアイコン5015−bの傾動と、接触5409が閾値距離を移動する際に(例えば、グリッド5204内の接触5409の対応位置がグリッド5204のエッジに到達する際に)現在のフォーカスをアイコン5015−bからアイコン5015−cに移動させることとを示す。図5Xにおいて、グリッド5206が、アイコン5015−cに対しる現在のフォーカスの位置を示すために図示される。
図5Xは、また、領域5012がアイコン5015−c(例えば「ウォッチリスト」アイコン)に対応するウォッチリストアイテムアイコン(例えば、ウォッチリストアイテムアイコン5036−から5036−c)を含むことを示す。
図5Y−5Zは、位置5410−aから位置5410−bまでの接触5410(及びグリッド5207内の対応位置5209−aから5209−b)の移動を示す。図5Zはまた、接触5410の移動によるアイコン5015−cの傾動を示す。
図5AAは、接触5410がタッチ感知面451で検出されなくなり、アイコン5015−cが、戻るように傾動する(例えば、アイコン5015−cは、傾動なく表示される)ことを示す。
図5BB〜図5DDは、いくつかの実施形態による、現在のフォーカスがアイコンから隣接するアイコン(例えば、アイコン5015−b)に移動する際のアイコン(例えば、アイコン5015−a)の移動を示す。
図5BBは、現在のフォーカスがアイコン5015−aにあることを示す。図5BBにおいて、アイコン5015−aは、アイコン5015−bから5015−eに比べて、拡大される。図5BBは、基準線5019を含む。基準線5019は、図5BB〜図5JJでは、アイコン5015−aの移動を示すために用いられるが、基準線5019は、ディスプレイ450上には表示されない。図5BBにおいて、アイコン5015−aは、基準線5019(例えば、基準線5019は、アイコン5015−aの中央を貫通する)に位置合わせされる。
図5CCは、接触の移動(例えば、図5R〜5Sに示されるような位置5408−aから位置5408−bへの接触5408の移動など、タッチ感知面451の右側に向かう接触の移動)に従って、アイコン5015−aが、アイコン5015−bに向かって移動することを示す。
図5DDは、現在のフォーカスがアイコン5015−aからアイコン5015−bに移動したことを示す。図5DDにおいて、アイコン5015−bは、アイコン5015−a及び5015−cから5015−eに比べて、拡大される。図5DDにおいて、アイコン5015−aのサイズは(図5BBにおけるアイコン5015−aのサイズに比べて)小さくなり、アイコン5015−aは、アイコン5015−aが基準線5019(例えば、基準線5019はアイコン5015−aの中央を貫通する)に位置合わせされる初期位置に戻るように移動する。
図5EE〜図5HHは、いくつかの実施形態による、現在のフォーカスがアイコンから隣接するアイコン(例えば、アイコン5015−b)に移動する際のアイコン(例えば、アイコン5015−a)の傾動を示す。
図5EEは、現在のフォーカスがアイコン5015−aにあることを示す。図5EEにおいて、アイコン5015−aは、アイコン5015−bから5015−eに比べて、拡大される。
図5FFFは、接触の移動(例えば、図5R〜5Sに示されるような位置5408−aから位置5408−bへの接触5408の移動など、タッチ感知面451の右側に向かう接触の移動)に従って、アイコン5015−aが、アイコン5015−bに向かって傾動することを示す。
図5GGは、接触の更なる移動(例えば、図5S〜5Tに示されるような位置5408−bから位置5408−cへの接触5408の移動など、タッチ感知面451の右側に向かう接触の更なる移動)に従って、アイコン5015−aが、アイコン5015−bに向かって更に傾動することを示す。
図5HHは、現在のフォーカスがアイコン5015−aからアイコン5015−bに移動したことを示す。図5HHにおいて、アイコン5015−bは、アイコン5015−a及び5015−cから5015−eに比べて、拡大される。図5HHにおいて、アイコン5015−aのサイズは(図5EEにおけるアイコン5015−aのサイズに比べて)小さくなり、アイコン5015−aは、その初期位置へ戻るように傾動する(例えば、アイコン5015−aはもはや傾いていない)。
図5II〜図5JJは、いくつかの実施形態による、現在のフォーカスがアイコンから隣接するアイコン(例えば、アイコン5015−b)に移動する際のアイコン(例えば、アイコン5015−a)の傾動及び移動を示す。
図5IIは、接触の移動(例えば、図5R〜5Sに示されるような位置5408−aから位置5408−bへの接触5408の移動など、タッチ感知面451の右側に向かう接触の移動)に従って、アイコン5015−aが、アイコン5015−bに向かって同時に移動及び傾動することを示す。
図5JJは、現在のフォーカスがアイコン5015−aからアイコン5015−bに移動したことを示す。図5JJにおいて、アイコン5015−aのサイズは(図5IIにおけるアイコン5015−aのサイズに比べて)小さくなり、アイコン5015−aは、アイコン5015−aが基準線5019(例えば、基準線5019はアイコン5015−aの中央を貫通する)に沿って戻るように移動する。
図5JJはまた、いくつかの実施形態では、現在のフォーカスがアイコン5015−aから移動したことを示すために、アイコン5015−bがアイコン5015−aに向かって傾いている(任意選択的には移動される)ことを示す。
あるいは、現在のフォーカスがアイコン5015−aからアイコン5015−bに移動する場合、図5HHに示すように、アイコン5015−bは傾かない。
図5KK〜図5LLは、タッチ感知面451での接触5020の移動(例えば、クイックスワイプジェスチャ)を示す。図5KKにおいて、接触5020の移動は、特徴的な移動距離(例えば、タッチ感知面451を横切って接触5020によって進んだ距離)及び/又は特徴的な移動スピード(例えば、タッチ感知面451からの接触5020のリフトオフ時、若しくはリフトオフ直前の、接触5020の移動のスピード)を有し、(図5R〜図5Xに図示されるように現在のフォーカスをゆっくり移動するのではなく)現在のフォーカスがアイコン5015−bからアイコン5015−eに迅速に移動するようになる。
図5LLは、現在のフォーカスがアイコン5015−c及びアイコン5015−dを通ってアイコン5015−bからアイコン5015−eに移動したこと示す(例えば、現在のフォーカスは、アイコン5015−bからアイコン5015−cに移動し、続いて、現在のフォーカスは、アイコン5015−cからアイコン5015−dに移動して、その後アイコン5015−dからアイコン5015−eに移動する)。現在のフォーカスがアイコン5015−bからアイコン5015−eに移動する間に、アイコン5015−b、5015−c、5015−dは、現在のフォーカスの移動に基づいて移動及び/又は傾動される。いくつかの実施形態では、現在のフォーカスがそれらから遠ざかるにつれて、アイコン5015−bから5015−dは、時間遅れをもって戻るように傾き、現在のフォーカスがアイコン5015−eに既に移動した後にアイコン5015−bから5015−dの戻り傾動が(短期間だけ)見てとれる。いくつかの実施形態では、接触の移動スピードが増加するにつれて、各アイコンを傾動量及び/又は移動量は減少する。これは、ユーザインターフェースを速く落ち着かせることを可能にし、それによって、ユーザへの混乱を低減して、ユーザエクスペリエンスを向上させる。
図5LLはまた、タッチ感知面451上の入力5022を示す。アイコン5015−eは、入力5022に従って、傾動及び/又は移動される。
図5MMは、入力5022に基づいて異なる方向にアイコン5015−eを傾動することを示す。入力5022が左上方向に位置5022−aへ移動すると、アイコンは、アイコン5115−aによって表わされるように、その左上角に向かって傾く。入力5022が位置5022−bへ移動すると、アイコンは、アイコン5115−bによって表わされるように、その上側に向かって傾く。入力5022が右上方向に位置5022−cへ移動すると、アイコンは、アイコン5115−cによって表わされるように、その右上角に向かって傾く。入力5022が左に位置5022−dへ移動すると、アイコンは、アイコン5115−dによって表わされるように、その左側に向かって傾く。入力5022がその初期位置から移動しないか、又は入力5022が検出されなくなると、アイコンは、アイコン5115−eによって表わされるように、傾いていない。入力5022が右に位置5022−fへ移動すると、アイコンは、アイコン5115−fによって表わされるように、その右側に向かって傾く。入力5022が左下方向に位置5022−gえh移動すると、アイコンは、アイコン5115−gによって表わされるように、その左下角に向かって傾く。入力5022が位置5022−hへ移動すると、アイコンは、アイコン5115−hによって表わされるように、その下側に向かって傾く。入力5022が右下方向に位置5022−iへ移動すると、アイコンは、アイコン5115−iによって表わされるように、その右下角に向かって傾く。
このように、アイコン5015−e(又は本明細書で示す他のアイコン)は、タッチ感知面451での入力5022の位置を移動することによって傾く。いくつかの実施形態では、一部のアイコン(例えば、アイコン5026は、どの方向にも傾かず、又は、アイコン5026は、そのサイズ(若しくは幅)のために水平方向には傾かない)。
図5NN〜図5PPは、いくつかの実施形態による視差効果を示す。
図5NNは、アイコン5015−eが複数のレイヤ(例えば、テキスト「ピンポンマニア!!」を示すレイヤ5028、ピンポン球及びその軌跡を示すレイヤ5030、ラケットを示すレイヤ5032、及びネットを示すレイヤ5034)を用いて表示されることを示す。(例えば、アイコン内に示すオブジェクトの3次元の知覚を提供する)アイコンの改良視知覚を提供するために、これらのレイヤのサイズ及び相対位置は、ユーザ入力により調整される。いくつかの実施形態では、アイコン5015−eの表示は、アイコン5015−eに対する各レイヤ(例えば、レイヤ5028から5034)の重ね合せである。
図5NNはまた、2つのレイヤ(例えば、ピンポン球及びラケットを示す前景層と、テキスト及びネットを示す背景層と)による単純化されたアイコンを含む構成5038を示す。図5NNは、構成5040に示されるように、第1入力(例えば、タッチ感知面451の左側に向かう接触の移動)に応じて、背景層に対して左側に向かって前景層が移動されることを示す。これは、アイコンが左側に向かって傾けられるという視知覚を向上させる。図5NNはまた、構成5042に示されるように、第2入力(例えば、タッチ感知面451の右側に向かう接触の移動)に応じて、背景層に対して右側に向かって前景層が移動されることを示す。これは、アイコンが右側に向かって傾動されるという視知覚を向上させる。同様に、前景層は、図5OOの図示5043に前景層5043−1、介在層5043−2、及び背景層5043−3を用いて示されるように、ユーザ入力に従って背景層に対して上方に、下方に、又は対角に移動することができる。視差効果を用いることによって、現在のフォーカスが同一のアイコン上に留まる場合であっても、デバイスは、デバイスがユーザ入力に応答しているという視覚フィードバックをユーザに対して提供する。視差効果はまた、ユーザが現在のアイコンから隣接するアイコンに現在のフォーカスを移動するために、接触の付加的な移動をどれだけ行う必要があるのかをユーザが推測するのを支援する。
いくつかの実施形態では、1つ以上のレイヤ(例えば、前景層)は、1つ以上のレイヤの背後にあるレイヤの一部を示す切り抜きを含む(例えば、図5OOにおいて、前景層5041−1は、背景層5041−2の一部を示す切り抜きを含む)。
図5PPの図示5048は、アイコン5015−eの2つの個別の構成、すなわち、2レイヤ構成と3レイヤ構成とを示す。上述したように、アイコンは複数のレイヤによって表わすことができ、アイコン表わすために用いられるレイヤの数は、視差効果を用いて提示される詳細のレベル及びデバイスの計算能力によって変化する。例えば、上で示した図5NNにおいて、アイコン5015−eは、4つのレイヤ5028、5030、5032、及び5034を用いて表わされる。
図5PPにおいて、アイコン5015−eを表わすために用いられるレイヤの数に関わらず、前景層と背景層(例えば、2レイヤ構成におけるレイヤ5048−1とレイヤ5048−2と、及び3レイヤ構成におけるレイヤ5050−1とレイヤ5050−3)の間の知覚深度(又は距離感)は、同じである。例えば、2レイヤ構成におけるレイヤ5048−1とレイヤ5048−2との間の知覚深度(又は距離感)、及び3レイヤ構成におけるレイヤ5050−1とレイヤ5050−3と間の知覚深度(又は距離感)は、同じである。これは、より一貫した視覚的特性(例えば、アイコンの一様な厚み感)でアイコンを提供することによって、向上したユーザエクスペリエンスを改善させる。
図5PPの図示5049は、レイヤの拡大及びトリミング(クロッピング)を示す。図5PPは、どのレイヤも拡大せずに他のレイヤに重ねた、両方のレイヤ(例えば、図5NNに示すように、ピンポン球及びラケットを示す前景層と、テキスト及びネットを示す背景層と)によるアイコン5015−eを示す。
いくつかの実施形態では、向上した奥行き感覚を提供するために、構成5044に示すように、前景層は、背景層に比べて拡大される。但し、背景層に比べて前景層を拡大することによって、前景層の1つ以上の部分は、背景層の境界を超える。例えば、構成5044において、ラケットの一部、及びピンポン球の軌跡の一部は、背景層の境界を超える。いくつかの実施形態では、(背景層の境界の外側の)前景層の1つ以上の部分のこの突出は、アイコンが傾動される場合に更に顕著になる。
構成5044において、背景層の境界を超える前景層の部分がトリミングされる。これは、アイコン5015−eの拡大及び/又は傾動に関わらずアイコン5015−eの矩形形状が保持されるので、アイコン5015−eの向上した視知覚を提供する。
図5QQ〜図5TTは、いくつかの実施形態による、現在のフォーカスの移動を示す。
図5QQは、アプリケーションアイコン5015−aから5015−eを有する領域5014と、映画ポスターアイコン5062−aから5062−cを有する領域5016とを示す。
図5QQはまた、現在のフォーカスが領域5014内のアイコン5015−dにあることを示す。図5QQにおいて、接触5422の移動(例えば、スワイプアップジェスチャ)がタッチ感知面451で検出される。
図5RRは、接触5422の移動に応じて、現在のフォーカスが領域5014内のアイコン5015−dから領域5012内のアイコン5062−bに移動することを示す。
図5RRはまた、接触5424の移動(例えば、左スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5SSは、接触5424の移動に応じて、現在のフォーカスがアイコン5062−bからアイコン5062−aに移動することを示す。
図5SSはまた、接触5426の移動(例えば、スワイプダウンジェスチャ)がタッチ感知面451で検出されることを示す。
図5TTは、接触5426の移動に応じて、現在のフォーカスがアイコン5062−aからアイコン5015−dに移動することを示す。
いくつかの実施形態では、異なるタイプのアイコン間で現在のフォーカスを移動すること(例えば、アプリケーションアイコン5015−dから映画ポスターアイコン5062−b、及び映画ポスターアイコン5062−aからアプリケーションアイコン5015−dへ現在のフォーカスを移動すること)は、同一タイプのアイコン間で現在のフォーカスを移動すること(例えば、映画ポスターアイコン5062−bから映画ポスターアイコン5062−aへ現在のフォーカスを移動すること)よりも、接触による、より長いストロークを必要とする。例えば、アイコン5015−dからアイコン5062−bに現在のフォーカスを移動するためには、図5QQに示す接触5422は、図5RRに示すように、アイコン5062−bからアイコン5062−aに現在のフォーカスを移動するための接触5424に必要な距離よりも、更に移動させる必要がある。
いくつかの実施形態では、矩形形状を有するアイコン(例えば、図5RR内の映画ポスターアイコン5062−aから5062−c)は、異なる閾値を有する。例えば、現在のフォーカスは縦置きの矩形のアイコン(例えば、アイコン5062−b)にある間に、現在のフォーカスを水平に(例えば、アイコン5062−bからアイコン5062−aに)移動するために接触を進ませる必要距離は、現在のフォーカスを垂直に(例えば、アイコン5062−bからアイコン5015−dなどの領域5014内のアイコンに、又はアイコン5062−aからアイコン5015−dなどの領域5014内のアイコンに)移動するために接触を進ませる必要距離未満である。
図5UU〜図5VVは、いくつかの実施形態による、非アクティビティ基準が満たされる場合に表示されるユーザインターフェースを示す。
例えば、既定の期間(例えば、3分)リモートコントロール5001で入力がない場合、図5UUに示すユーザインターフェースが表示される。図5UUにおいて、現在のフォーカスがあるアイコン(例えば、アイコン5015−d)は、ユーザインターフェースの残りの部分から視覚的に区別される。例えば、アイコン5015−dは、強調表示され、及び/又は、ユーザインターフェースの残りの部分は、薄暗くなる。
代替的に、既定の期間(例えば、3分)リモートコントロール5001で入力がない場合、図5VVに示すユーザインターフェースが表示される。図5VVにおいて、現在のフォーカスがあるアイコン(例えば、アイコン5015−e)は、更に拡大され、ユーザインターフェースの残りの部分から視覚的に区別される。例えば、現在のフォーカスがあるアイコンは、非アクティビティ基準が満たされる前に、他のアプリケーションアイコンに比べて10%拡大される。非アクティビティ基準が満たされると、現在のフォーカスがあるアイコンは、他のアプリケーションアイコンに比べて20%以上拡大される。
図5WW〜図5XXは、ダークスクリーン基準が満たされる場合(例えば、非アクティビティ基準が満たされた後、5分などの第2の予め定められた期間、リモートコントロール5001によって入力が受信されない場合)に表示される例示的なユーザインターフェースを示す。
図5WWにおいて、ユーザインターフェース全体が、現在のフォーカスがあるアイコンを含めて薄暗くなる。図5XXは、ユーザインターフェース全体が空白画面(例えば、白色の空白画面、黒色の空白画面、又はその他の色の空白画面)によって置き換えられた代替的なユーザインターフェースを示す。
図5YYは、リモートコントロール5001がピックアップされ、そして、リモートコントロール5001がピックアップされるのを検出することに応じて、ホーム画面ユーザインターフェース518がディスプレイ450に表示されることを示す。
図5ZZ〜図5ZZZは、いくつかの実施形態による、メディアプレゼンテーションオプションの選択を示す。
図5ZZは、現在のフォーカスが映画ポスターアイコン5062−a(例えば、「グレートクライム」と題する映画の映画ポスター)にある間に、入力5428(例えば、タップジェスチャ)がタッチ感知面451上で検出されることを示す。
図5AAAは、入力5428に応じて、作品ページビュー5090がディスプレイ450に表示されることを示す。作品ページビュー5090は、映画「グレートクライム」についての情報を含む。作品ページビュー5090はまた、複数のメディアソースアイコン5092−aから5092−eを含む。各メディアソースオブジェクトは、各メディアソースに対応する(例えば、アイコン5092−aは「ムービーフリックス」ストリーミングサービスに対応し、アイコン5092−bはiTunesストアに対応し、アイコン5092−eはテレビ放送事業者に対応する、等)。図5AAAにおいて、メディアソースアイコン5092−aはメディアソースアイコン5092−aがメディアソースアイコンの中から選択されることを示すように、視覚的に区別される(例えば、強調表示される)。
作品ページビュー5090はまた、メディア管理アイコン5093−aから5093−c(例えば、プレビューアイコン5093−a、再生アイコン5093−b、及び「ムービーフリックスで閲覧」アイコン5093−c)を含む。図5AAAにおいて、再生アイコン5093−bは、再生アイコン5093−bがメディア管理アイコンの中から選択されることを示すように、視覚的に区別される(例えば、拡大される)。
いくつかの実施形態では、作品ページビュー5090に含まれるアイコンは、図5A〜図5PPに関して上述されたように傾けられることができる。これらのアイコンが傾いていると、それらは視差効果を示す。簡潔性のために、これらの詳細は、本明細書では省略する。
図5AAAはまた、入力5450(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5BBBは、入力5450の検出に応じて、ビデオ再生ビュー5300がディスプレイ450に表示されることを示す。図5BBB〜図5DDDに示すように、ビデオ再生ビュー5300は、映画「グレートクライム」の再生を含む。
図5DDDはまた、リモートコントロール5001のメニューボタン5002で押下する入力5452が検出されることを示す。
図5EEEは、入力5452に応じて、作品ページビュー5090がディスプレイ450に表示されることを示す。
図5EEEはまた、接触5454の移動(例えば、右スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5FFFは、接触5454の移動の検出に応じて、現在のフォーカスがアイコン5092−aからアイコン5092−bに移動することを示す。図5FFFはまた、図5EEEに示すメディア管理アイコンが、メディア管理アイコンの異なるセット(例えば、アイコン5093−a及び5093−cから5093−f)に置換されることを示す。
図5FFFにおいて、接触5456の移動(例えば、右スワイプジェスチャ)がタッチ感知面451で検出される。
図5GGGは、接触5456の移動に応じて、現在のフォーカスがアイコン5092−bからアイコン5092−aに移動することを示す。
図5GGGはまた、入力5458(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5HHHは、ソース選択インターフェース5098がディスプレイ450に表示される(例えば、ソース選択インターフェース5098が、作品ページビュー5090上に重ね合わされる)ことを示す。ソース選択インターフェース5098は、(例えば、スペースの制限により)作品ページビュー5090に含まれないメディアソースオブジェクトを含む。例えば、図5HHHにおけるソース選択インターフェース5098は、付加的なメディアソースアイコン5098−aから5098−cを含む。
図5IIIは、現在のフォーカスがメディア管理アイコン5093−c(例えば「ムービーフリックスで閲覧」)にあることを示す。図5IIIはまた、入力5460(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5JJJは、入力5460の検出に応じて、異なるソフトウェアアプリケーション(例えば、図3における第1ビデオプレーヤモジュール392などのムービーフリックスによる第三者アプリケーション)の作品ページ5064がディスプレイ450に表示されることを示す。図5JJJにおける作品ページ506は、アイコン5068−aから5068−dを含み、現在のフォーカスは、アイコン5068−aにある(例えば「いま見る」アイコン)。
図5JJJはまた、図5BBB〜図5DDDに示すように、対応するメディアコンテンツアイテム(例えば、映画「グレートクライム」)の再生を開始する、タッチ感知面451での入力5462(例えば、タップジェスチャ)を示す。
図5KKK〜図5LLLは、検索画面から作品ページビュー5090へのナビゲートを示す。図5KKKは、複数の検索結果を含む検索ページビュー5066を示す。入力5464(例えば、タップジェスチャ)がタッチ感知面451で検出される場合、現在のフォーカスは、映画「グレートクライム」にある。図5LLLは、入力5464に応じて、作品ページビュー5090が表示されることを示す。
図5MMM〜図5NNNは、メディアコンテンツストアビュー(例えば、iTunesストアページ)から作品ページビュー5090へのナビゲートを示す。図5MMMは、映画「グレートクライム」に対するメディアコンテンツアイコン5076−bを含む、複数のメディアコンテンツアイコン5076−aから5076−iを含むメディアコンテンツストアビュー5060を示す。入力5466(例えば、タップジェスチャ)がタッチ感知面451で検出される場合、現在のフォーカスは、アイコン5076−bにある。図5NNNは、入力5466に応じて、作品ページビュー5090が表示されることを示す。
図5OOO〜図5ZZZは、いくつかの実施形態による、シリーズ番組(例えば、テレビ番組)に対するメディアプレゼンテーションオプションの選択を示す。
図5OOOは、テレビ番組「Sad Men」に対する作品ページビュー5091を示す。図5OOOにおける作品ページビュー5091は、メディアソースアイコン5095−aから5095−eと、(図5GGGにおけるアイコン5092−fに対応する)付加的なソースアイコン5095−fとを含む。図5OOOにおいて、現在のフォーカスはアイコン5095−aにある。
図5OOOにおける作品ページビュー5091はまた、アイコン5095−aに対応するメディア管理アイコン5096−aから5096−cと、アイコン5095−aに対応するエピソードアイコン5095−aに対応するエピソードアイコン5097−aから5097−d(例えば、利用可能な全てのメディアソースから入手可能なエピソードに対応するエピソードアイコン)とを含む。
いくつかの実施形態では、作品ページビュー5091に含まれるアイコンは、図5A〜図5PPに関して上述されたように傾けられることができる。これらのアイコンが傾いていると、それらは視差効果を示す。簡潔性のために、これらの詳細は、本明細書では省略する。
図5OOOはまた、接触5468の移動(例えば、右スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5PPPは、接触5468の移動の検出に応じて、現在のフォーカスが、アイコン5095−aからアイコン5095−bに移動し、メディア管理アイコン5096−aから5096−cが、メディアソースアイコン5095−bに対応するメディア管理アイコン5096−d、5096−e、5096−b、5096−f、及び5096−cに置き換えられることを示す。
作品ページビュー5091はまた、それぞれのエピソードアイコン5097−aから5097−cに対する価格情報5099−aから5099−cを含む。
図5PPPはまた、接触5470の移動(例えば、右スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5QQQは、接触5470の移動の検出に応じて、現在のフォーカスがメディアソースアイコン5095−bからメディアソースアイコン5095−cに移動することを示す。図5PPPに示すメディア管理アイコン(例えば、メディア管理アイコン5096−d、5096−e、5096−b、5096−f、及び5096−c)は、メディアソースアイコン5095−cに対応するメディア管理アイコン5096−f、5096−b、及び5096−cに置き換えられる。
図5QQQはまた、接触5472の移動(例えば、長い左スワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5RRRは、接触5472の移動の検出に応じて、現在のフォーカスがメディアソースアイコン5095−aに戻るように移動したことを示す。
図5RRRはまた、接触5474の移動がタッチ感知面451で検出されることを示す。
図5SSSは、接触5474の移動に応じて、現在のフォーカスがメディア管理アイコン5096−bに移動することを示す。
図5SSSはまた、現在のフォーカスがメディア管理アイコン5096−bにある間に、入力5476(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5TTTは、入力5476に応じて、シーズン選択インターフェース5498が表示される(例えば、シーズン選択インターフェース5498は、作品ページビュー5091上に重ね合わされる)ことを示す。シーズン選択インターフェース5498は、テレビ番組について入手可能なそれぞれのシーズンに対応するシーズンアイコン5498−1から5498−5を含む。
図5TTTはまた、接触5478の移動(例えば、スワイプダウンジェスチャ)がタッチ感知面451で検出されることを示す。
図5UUUは、接触5478の移動に応じて、現在のフォーカスが,シリーズアイコン5498−5(第5のシーズンに対応する)からシリーズアイコン5498−1(第1シーズンに対応する)に移動することを示す。
図5UUUはまた、入力5480(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5VVVは、入力5480に応じて、作品ページビュー5091が表示されることを示す。図5VVVにおけるシーズンアイコン5096−bは、テレビ番組に対して第1シーズンが選択されることを示し、作品ページビュー5091は、テレビ番組の第1シーズンからのエピソードアイコン5097−eから5097−hを含む。
図5VVVはまた、接触5482の移動がタッチ感知面451で検出されることを示す。
図5VVVは、接触5482の移動に応じて、現在のフォーカスがアイコン5096−bからアイコン5096−aに移動することを示す。図5VVVはまた、入力5484(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5XXXは、入力5484に応じて、ビデオ再生ビュー5300が表示されることを示し、これはテレビ番組の再生を含む。
図5YYYは、エピソードアイコン5097−eが選択される場合、入力5486(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。価格情報5099−eは、エピソードアイコン5097−eに対応するエピソードの再生が2.99ドルの支払いを要することを示す。
図5ZZZは、入力5486に応じて、再生確認ページ5094が表示される(例えば、再生確認ページ5094は作品ページビュー5091上に重ね合わされる)ことを示す。再生確認ページ5094は、選択されたエピソードの再生費用をユーザが支払いたいか否かを確認するように、ユーザに要求する。支払いの確認入力をユーザが与えると、図5XXXに示すビデオ再生ビュー5300が表示される。
図5AAAA〜図5ZZZZは、いくつかの実施形態による、メディアコンテンツを通じてナビゲートするための例示的なユーザインターフェースを示す。
図5AAAAは、ディスプレイ450に表示される、ビデオ再生ビュー5300を示す。ビデオ再生ビュー5300は、一時停止状態又は再生状態の、メディアアイテム(例えば、映画又はテレビのショー)の表示を提供するユーザインターフェースであり、いくつかの実施形態では、ビデオ再生ビュー5300は、メディアアイテムのナビゲーションに関連するビデオ情報のディスプレイを提供する。図5AAAAは、通常再生の間に表示される映画のオープニングクレジットを示す。
図5AAAAAはまた、ユーザ入力5154(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5BBBBは、ユーザ入力5154(図5AAAA)の検出に応じて、スクラッバーバー5302及び第1再生ヘッド5304などのナビゲーションエレメントがビデオ再生ビュー5300内に表示されることを示す。例えば、軽いタッチがタッチ感知面451上で検出され、図5BBBBに示すエレメントは、映画の長さがおおよそどのくらいなのかや、ユーザが今映画のどこを見ているのかを、ユーザに気づかせるために表示される。いくつかの実施形態では、スクラッバーバー5302及び第1再生ヘッド5304などのナビゲーションエレメントは、タッチ感知面451でのタップアンドホールドジェスチャ又はスワイプジェスチャの検出に応じて表示される。
いくつかの実施形態では、ユーザ入力5154(又はタップアンドホールドジェスチャ若しくはスワイプジェスチャ)の検出に応じて、メディアアイテムは、一時停止状態から再生状態に、又はその逆に、切り換える。代替的に、表示されるメディアアイテムは、ユーザ入力5154に関わらず再生を継続する。
いくつかの実施形態では、トータル時間のテキスト5309はまた、ビデオ再生ビュー5300内に表示されるメディアアイテムのトータル時間を示すように表示される。いくつかの実施形態では、スクラッバーバー5302は、表示されるメディアアイテムのトータル期間のタイムラインを表わす。いくつかの実施形態では、第1再生ヘッド5304は、ビデオ再生ビュー5300内に現在表示されるメディアアイテムの一部(例えば、シングルフレーム、複数フレームのウィンドウ、又はある期間のウィンドウ)に対応する時点を表わすスクラッバーバー5302内の位置を示す。いくつかの実施形態では、スクラッバーバー5302内の対応する時間を示すように、第1再生ヘッド5304とともにテキストが表示される。いくつかの実施形態では、ユーザ入力5154の検出に応じて、表示されるメディアアイテムは再生状態のままであり、第1再生ヘッド5304は、平滑で且つ連続的な態様でスクラブバー5302に沿って相応して移動する。代替的に、ユーザ入力5154の検出に応じて、表示されるメディアアイテムは一時停止状態にあり、第1再生ヘッド5304は静止している。いくつかの実施形態では、スクラッバーバー5302は、少なくとも部分的に透明なように表示される。
図5BBBBはまた、タッチ感知面451でのユーザ入力5159(例えば、タップジェスチャ)の検出を示す。
図5CCCCは、デバイスが連続再生ナビゲーションモードであることを示す。いくつかの実施形態では、デバイスは、図5BBBBにおけるユーザ入力5159に応じて、連続再生ナビゲーションモードに入る。代替的に、デバイスは、(ユーザ入力5154又は図5BBBBに示すユーザインターフェースを伴わずに)図5AAAAにおけるユーザ入力5154に応じて、連続再生ナビゲーションモードに入る。
図5CCCCにおいて、付加的なナビゲーションエレメントがビデオ再生ビュー5300内に表示される(例えば、第2再生ヘッド5308)。いくつかの実施形態では、任意の時点で、第2再生ヘッド5308は、(第1再生ヘッド5304を第2再生ヘッド5308の位置に移動するためのリクエストに対応する)特定のユーザ入力を受信すると、スクラッバーバーにおける特定のナビゲーション位置を示し、その位置は第1再生ヘッド5304の移動先である。いくつかの実施形態では、第2再生ヘッドのテキスト5312は、第2再生ヘッド5308に隣接して(例えば、第2再生ヘッド5308の下に)表示される。いくつかの実施形態では、第2再生ヘッドのテキスト5312及び/又はトータル時間のテキスト5309などの1つ以上のテキストエレメントが、第2再生ヘッド5308に隣接して(任意選択的には、スクラッバーバー5302内に、又はスクラッバーバー5302上に重ね合わせて)表示される。
いくつかの実施形態では、図5CCCCに示すように、第2再生ヘッド5308は、第2再生ヘッド5308に隣接するプレビュー区画5310とともに表示される。プレビュー区画5310は、任意選択的には、第2再生ヘッド5308の上又は下の中央に配置される。いくつかの実施形態では、プレビュー区画5310は、第2再生ヘッド5308により示される、スクラッバーバー5302内の位置に対応する視覚情報を表示する。例えば、第2再生ヘッド5308がスクラッバーバー5302内の0:00:34の時間位置を指し示す場合、プレビュー区画5310は、その時間の映画に対応するフレームを表示する。
いくつかの実施形態では、プレビュー区画5310に対応するビデオ情報は、少なくともビデオ再生ビュー5300内に表示されるメディアアイテムに対応するビデオ情報のサブセット(例えば、フレームのサブセット)を含む。例えば、プレビュー区画の背後のメディアアイテムのディスプレイを維持しながら、プレビュー区画5310は、ユーザがスキップすることができる映画内のシーンのスナップショットを提供する。いくつかの実施形態では、プレビュー区画5310及び/又は第2再生ヘッドマーカ5308の表示をもたらすユーザ入力を検出することに応じて、図5CCCCに示すように、プレビュー区画5310及び/又は第2再生ヘッドマーカ5308は、当初は、第1再生ヘッドマーカ5304としてスクラッバーバー5302内に同一位置に表示される。
いくつかの実施形態では、デバイスが連続再生ナビゲーションモードである間、デバイスは、第2再生ヘッド5308を連続的に(例えばメディアアイテムの終わりに向かう前方向に、又はメディアアイテムの先頭に向かう逆方向に)移動する。いくつかの実施形態では、第2再生ヘッド5308の連続移動は、第2再生ヘッド5308に対応する時間位置を、予め定められた時間間隔だけ(例えば、1秒間隔、数秒間隔、1秒の何分の1など)変更することに対応する。いくつかの実施形態では、デバイスが連続再生ナビゲーションモードである間、メディアアイテムの再生は一時停止される。いくつかの実施形態では、デバイスが連続再生ナビゲーションモードである間、メディアアイテムは再生を継続する。
図5CCCCはまた、タッチ感知面451でのユーザ入力5158(例えば、右スワイプジェスチャ)の接触5158−aの検出を示す。
図5DDDDは、ユーザ入力5158(接触点5158−bまで)の検出に応じて、スクラッバーバー5302内の新たな位置におけるプレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312の表示を示す。図5DDDDはまた、図5DDDDに表す現在のシーンからわかるように、ナビゲーションエレメントが表示されながら、ビデオ再生ビュー5300内の表示されたメディアアイテムが連続的に再生されていることを示す。第2再生ヘッド5308、プレビュー区画5310、及び第2再生ヘッドのテキスト5312は、ビデオ再生ビュー5300内に表示されているメディアアイテム内の0:28:59のマークに移動されている。図5DDDDに示される例から、0:28:59のマークでのプレビュー区画5310内に表示されるシーンは、ヤギのグレッグが山脈の第1ピークに近づいていることを明らかにし、ユーザは、必要に応じて、映画内のこの刺激的なポイントに直接スキップすることを選択できる。図5DDDDは、タッチ感知面451でのユーザ入力5158の継続的な移動の検出を示す。
図5EEEEは、ユーザ入力5158(接触点5158−cまで)の検出に応じて、スクラッバーバー5302内の新たな位置(例えば0:49:13)におけるプレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312の表示を示す。
図5FFFFは、ユーザ入力(例えばタッチ感知面451上の接触又はリモートコントロール5001でのボタン押下)を検出しなくなった後、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312がディスプレイ上に留まることを示す。いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、図5CCCC内のそれらの位置から図5FFFF内のそれらの位置に(例えば、0:00:34から0:49:13に)連続的に移動したことが表示される。いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、ユーザ入力5158の検出に応じてスクラッバーバー5302を通って漸増的に移動するように見える(図5CCCC〜図5EEEE)。
いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、検出されたユーザ入力5158に従って移動する。例えば、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312の、スクラッバーバー5302を通って移動する距離は、ユーザ入力5158の距離に比例する。別の例において、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312の表示された移動は、その動きを追跡し、ユーザ入力5158の動きで一時停止する。いくつかの実施形態では、ユーザ入力5158は、検出されるリフトオフスピードでのスワイプジェスチャである。いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、検出されるスワイプジェスチャの検出リフトオフスピードに従い(例えば、スワイプの「推進力」が尽きるまで)スクラッバーバー5302を通って移動し続ける。
図5FFFFはまた、タッチ感知面451での2つの代替的なユーザ入力5159−1(例えば、タップジェスチャ又はプレスアンドホールドジェスチャ)及び5159−2(例えば、スワイプジェスチャ)を示す。デバイスの所定の動作の理解を容易にするために、これらの代替的な2つのユーザ入力5159−1及び5159−2は、図5FFFFとともに図示される。但し、これらの代替的な2つのユーザ入力5159−1及び5159−2を同時に検出する必要はない。
いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312が表示される間に、ユーザ入力は、サブ領域で検出され(例えば、タッチ感知面451のサブ領域5208−iでのユーザ入力5159−1)、これを受けて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、スクラッバーバー5302に沿って前方若しくは後方に移動する。例えば、サブ領域5208−c、5208−f、又は5208−iにおいて検出されたユーザ入力に応じて、プレビュー区画5310、第2再生ヘッド5308及び第2再生ヘッドのテキスト5312は、スクラッバーバー5302に沿って遅れずに前方に移動し、サブ領域5208−a、5208−d、又は5208−gにおいて検出されたユーザ入力に応じて、プレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312は、スクラッバーバー5302に沿って遅れずに後方に移動する。いくつかの実施形態では、サブ領域5208−c、5208−f、又は5208−iにおいて検出されたユーザ入力に応じて、プレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312は、ユーザ入力がサブ領域5208−c、5208−f、又は5208−iにおいて検出される間に、スクラッバーバー5302に沿って遅れずに前方に移動し、サブ領域5208−a、5208−d、又は5208−gにおいて検出されたユーザ入力に応じて、プレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312は、ユーザ入力がサブ領域5208−a、5208−d、又は5208−gにおいて検出される間に、スクラッバーバー5302に沿って遅れずに後方に移動する。いくつかの実施形態では、図5FFFFに示すように、視覚インジケータ5319(例えば右回り矢印)は、サブ領域5208−c、5208−f、又は5208−iでのクリック(若しくはタップジェスチャ)が、第2再生ヘッド5308、プレビュー区画5310、及び/又は第2再生ヘッドのテキスト5312を前方に移動し始めることを示すように、プレビュー区画5310に隣接して(例えばプレビュー区画5310の右側に)表示される。いくつかの実施形態では、別の視覚インジケータ(例えば左回り矢印)は、サブ領域5208−a、5208−d、又は5208−gでのクリック(若しくはタップジェスチャ)が、第2再生ヘッド5308、プレビュー区画5310、及び/又は第2再生ヘッドのテキスト5312を後方し始めることを示すように、(視覚インジケータ5319に加えて、又は視覚インジケータ5319の代わりに)プレビュー区画5310に隣接して(例えばプレビュー区画5310の左側に)表示される。
代替的に、タッチ感知面451でのユーザ入力5159−2(例えば、右スワイプジェスチャ)は、ユーザ入力5159−2に従って、第2再生ヘッド5308(並びに、任意選択的には、プレビュー区画5310及び/又は第2再生ヘッドのテキスト5312)を前方に移動し始める。
図5GGGGは、ユーザ入力5159−1(例えば、サブ領域5208−iのタップジェスチャ又はプレスアンドホールドジェスチャ)又はユーザ入力5159−2(例えば、右のスワイプジェスチャ)に応じて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312がスクラッバーバー5302に沿って遅れずに前方に移動することを示す。
図5HHHHは、いくつかの実施形態では、ユーザ入力が検出されない場合であっても、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312がスクラッバーバー5302に沿って移動し続けることを示す(例えば、図5FFFFに示すユーザ入力5159−2などのスワイプジェスチャからの慣性によって)。いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308及び/又は第2再生ヘッドのテキスト5312は、特定の種別のユーザ入力(例えば、図5FFFFに示すようなスワイプジェスチャ)の検出に応じて、スクラッバーバー5302に沿って移動し続ける。いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、(例えばユーザ入力5159−2の接触のリフトオフにより)ユーザ入力5159−2が検出されなくなると、ユーザ入力5159−2に対応するスピードで移動し、ユーザ入力が検出されない間、それらがスクラッバーバー5302に沿って移動するにつれてスピードが落ちる。いくつかの実施形態では、ユーザ入力5190(図5HHHH)などの別のユーザ入力が検出されるか、スクラッバーバー5302の一方のエッジに達するまで、プレビュー区画5310、第2再生ヘッド5308及び/又は第2再生ヘッドのテキスト5312は、スクラッバーバー5302に沿って移動し続ける。
図5IIIIは、いくつかの実施形態では、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312が、スクラッバーバー5302の一方のエッジに接近すると、プレビュー区画5310(及び場合によっては第2再生ヘッドのテキスト5312)は、(例えば、プレビュー区画5310の1つのエッジがビデオ再生ビュー5300のエッジに到達するように見えるポイントにおいて)移動を停止する、ということを示す。いくつかの実施形態では、プレビュー区画5310が移動を停止した後であっても、図5IIIIに示すように、第2再生ヘッド5308は、移動し続け、プレビュー区画5310の表示コンテンツは、第2再生ヘッド5308によって示すスクラッバーバー5302に沿って第2再生ヘッド5308の位置に従って変化し続ける。いくつかの実施形態では、第2再生ヘッドのテキスト5312がトータル時間のテキスト5309に接近し過ぎると、図5HHHH及び図5IIIIに示すように、トータル時間のテキスト5309を表示するのをやめ、第2再生ヘッドのテキスト5312は、トータル時間のテキスト5309が表示されたビデオ再生ビュー5300の空間を占有する。
図5IIIIはまた、タッチ感知面451での接触5192−aではじまる、ユーザ入力5192(例えば、左スワイプジェスチャ)の検出を示す。
図5JJJJは、(接触ポイント5192−bまでの)ユーザ入力5192の検出に応じて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、相応して、表示された映画の先頭に向かって巻き戻されるか又は移動されることを示す。いくつかの実施形態では、トータル時間のテキスト5309は、トータル時間のテキスト5309が典型的に表示されるビデオ再生ビュー5300の空間を第2再生ヘッドのテキスト5312が占有するのをやめた後に再び現われる。
図5KKKKは、図5JJJJにおけるナビゲーションエレメントの更に左方への進行を示す。図5KKKKはまた、タッチ感知面451でのユーザ入力5193(例えば、タップジェスチャ)の検出を示す。
図5LLLLは、ユーザ入力5193(図5KKKK)の検出に応じて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312は、移動をやめることを示す。
図5LLLLはまた、ユーザ入力5194(例えば、下方へのスワイプ)がタッチ感知面451で検出されることを示す。
図5MMMMは、ユーザ入力5194(図5LLLL)の検出に応じて、デバイスがチャプタ再生ナビゲーションモードに入ることを示す。図5MMMMにおいて、再生位置マーカ5314がスクラッバー5302に表示される。いくつかの実施形態では、再生位置マーカ5314は、ビデオ再生ビュー5300(例えばチャプタ)に表示されるメディアアイテム内の予め定められたマイルストン又は位置を表わす。いくつかの実施形態では、スクラッバー5302、第1再生ヘッド5304(及び任意選択的に第2再生ヘッド5308)は、デバイスが連続再生ナビゲーションモードからチャプタ再生ナビゲーションモードに切り換わった後もディスプレイ上に留まる。
図5MMMMはまた、タッチ感知面451での2つの代替的なユーザ入力5199−1(例えば、サブ領域5208−c、5208−f、若しくは5208−iでのタップジェスチャ又はプレスアンドホールドジェスチャ)及び5199−2(例えば、右スワイプジェスチャ)を示す。デバイスの所定の動作の理解を容易にするために、これらの代替的な2つのユーザ入力5199−1及び5199−2をともに図5MMMMに示す。但し、これらの代替的な2つのユーザ入力5199−1及び5199−2を同時に検出する必要はない。
いくつかの実施形態では、図5MMMMに示すように、視覚インジケータ5318は、サブ領域5208−c、5208−f、又は5208−iでのクリック(若しくはタップジェスチャ)が、第2再生ヘッド5308、プレビュー区画5310、及び/又は第2再生ヘッドのテキスト5312を前方に移動し始めることを示すように、プレビュー区画5310に隣接して(例えばプレビュー区画5310の右側に)表示される。
図5NNNNは、ユーザ入力5199−1又は5199−2の検出に応じて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312が、検出されたユーザ入力によって表わされる方向に最も近い再生位置マーカ5314−bに移動することを示す。例えば、右スワイプジェスチャ5199−2、又はタッチ感知面451の右のサブ領域(例えば、図5MMMMに示すサブ領域5208−c、5208−f、若しくは5208−i)でのタップジェスチャ5199−1に応じて、第2再生ヘッド5308は、第2再生ヘッド5308の現在位置の右側で最も近い再生位置マーカ5314−bに移動する。いくつかの実施形態では、第2再生ヘッド5308は、最も近い再生位置マーカ5314−bの位置まで直接的にジャンプする。
図5NNNNはまた、タッチ感知面451での2つの代替的なユーザ入力5198−1(例えば、サブ領域5208−a、5208−d、若しくは5208−gでのタップジェスチャ又はプレスアンドホールドジェスチャ)及び5198−2(例えば、左スワイプジェスチャ)の検出を示す。デバイスの所定の動作の理解を容易にするために、これらの代替的な2つのユーザ入力5198−1及び5198−2をともに図5NNNNに示す。但し、これらの代替的な2つのユーザ入力5198−1及び5198−2を同時に検出する必要はない。
いくつかの実施形態では、図5NNNNに示すように、(視覚インジケータ5318に加えて、又は視覚インジケータ5318の代わりに)視覚インジケータ5320は、サブ領域5208−a、5208−d、又は5208−gでのクリック(若しくはタップジェスチャ)が、第2再生ヘッド5308、プレビュー区画5310、及び/又は第2再生ヘッドのテキスト5312を後方に移動し始めることを示すように、プレビュー区画5310に隣接して(例えばプレビュー区画5310の左側に)表示される。いくつかの実施形態では、視覚インジケータ5318(例えば、図5MMMMに示す早送りアイコン)は、タッチ感知面451の右側(例えば右半分)にタッチ入力があるという判定に従って表示され、視覚インジケータ5320(例えば図5NNNNに示す逆送りアイコン)は、タッチ感知面451の左側(例えば左半分)にタッチ入力があるという判定に従って表示される。
図5OOOOは、ユーザ入力5198−1又は5198−2の検出に応じて、プレビュー区画5310、第2再生ヘッド5308、及び/又は第2再生ヘッドのテキスト5312が、一方の再生位置マーカ5314−bから、検出されたユーザ入力によって表わされる方向に最も近い再生位置マーカ5314−aに移動することを示す。例えば、左スワイプジェスチャ、又はタッチ感知面451の左のサブ領域(例えば、図5FFFFに示すサブ領域5208−a、5208−d、若しくは5208−g)でのタップジェスチャに応じて、第2再生ヘッド5308は、再生位置マーカ5314−aに移動する。
図5OOOOはまた、ユーザ入力5170(例えば、メニューボタン5002でのボタン押下)の検出を示す。
図5PPPP〜図5SSSSは、ユーザ入力5170に応じて表示される例示的なアニメーションを示す。アニメーションは、スクラッバー5302、第1再生ヘッド5304、第2再生ヘッド5308、プレビュー区画5310、第2再生ヘッドのテキスト5312、及び再生位置マーカ5314の消失を示す。いくつかの実施形態では、チャプタナビゲーションモード(例えば、ユーザ入力5170)を終了するコマンドに対応するユーザ入力の検出に応じて、1つ以上のナビゲーションエレメントは、(例えば、アニメーションを伴わずに)ビデオ再生ビュー5300内の表示から直ちに取り除かれる。いくつかの実施形態では、チャプタナビゲーションモードを終了するコマンドに対応するユーザ入力の検出に応じて、プレビュー区画5310が完全に表示されなくなるまで、1つ以上のナビゲーションエレメントは、表示されたままである(例えば、スクラブバー5302、第1再生ヘッド5304)。
図5SSSSはまた、タッチ感知面451でのユーザ入力5172(例えば、タップジェスチャ)の検出を示す。
図5TTTTは、ユーザ入力5172に応じて、デバイスが連続再生ナビゲーションモードに入ることを示す。代替的に又は付加的に、デバイスは、タッチ感知面451でのスワイプジェスチャ又はタップアンドホールドジェスチャの検出に応じて、連続再生ナビゲーションモードに入る。
図5TTTTはまた、続いてユーザ入力5173(例えば、下方へのスワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5UUUUは、ユーザ入力5173の検出に応じて、デバイスがチャプタ再生ナビゲーションモードに入ることを示す。
図5UUUUはまた、ユーザ入力5174(例えば、上方へのスワイプジェスチャ)がタッチ感知面451で検出されることを示す。
図5VVVVは、ユーザ入力5174の検出に応じて、デバイスが連続再生ナビゲーションモードに入ることを示す。
図5VVVVはまた、タッチ感知面451でのユーザ入力5175(例えば、右スワイプジェスチャ)の検出を示す。
図5WWWWは、ユーザ入力5175の検出に応じて、一時停止された映画の1:01:44のマークに対応するスクラッバーバー5302内の特定の位置に、プレビュー区画5310、第2再生ヘッド5308、及び第2再生ヘッドのテキスト5312が移動したことを示す。ヤギのグレッグが自身の帰路における究極の課題に近づくにつれて、プレビュー区画5310は、劇的なシーンのクリップを示す。
図5WWWWはまた、ユーザ入力5179(例えば、タップジェスチャ)がタッチ感知面451で検出されることを示す。
図5XXXXは、ユーザ入力(例えば、図5WWWWに示すユーザ入力5179)の検出に応じて、第1再生ヘッド5304が、第2再生ヘッド5308によって示す(時間的)位置にジャンプすることを示す。いくつかの実施形態では、第1再生ヘッド5304が第2再生ヘッド5308によって示す位置にジャンプした後、1つ以上のナビゲーションエレメント(例えば、第2再生ヘッド5308、プレビュー区画5310、及び/又は第2再生ヘッドのテキスト5312)は、ビデオ再生ビュー5300内で表示することをやめる。いくつかの実施形態では、第1再生ヘッド5304及びスクラッバーバー5302はまた、第1再生ヘッド5304が第2再生ヘッド5308によって示す位置にジャンプした後、表示することをやめる。いくつかの実施形態では、1つ以上の非アクティビティ基準が満たされた(例えば、最後のユーザ入力の検出、又は平面上に配置されるリモートコントローラ5001の検出、から予め定められた時間が経過した)後に、ナビゲーションエレメントは表示することをやめる。いくつかの実施形態では、ナビゲーションエレメントは、ユーザ入力5178(例えば、タップアンドホールドジェスチャ)の検出に応じて、表示することをやめる。
図5YYYYは、ナビゲーションエレメントが表示することをやめ、デバイスが通常再生モードに入ることを示す。デバイスが通常再生モードである間に、ビュー再生ビュー5300は、メディアアイテムの再生を表示する。
いくつかの実施形態では、ナビゲーションエレメントがビデオ再生ビュー5300内に表示されない(例えば、スクラッバーバー、再生ヘッド、又は時間テキストがビデオ再生ビュー5300内に表示されない)としても、表示されるメディアアイテムのナビゲーションが、通常再生モードの間に可能になる。図5YYYYはまた、タッチ感知面451でのサブ領域5208−fでのユーザ入力5180(例えば、クリック、タップ、又は、プレスアンドホールドジェスチャ)の検出を示す。
図5ZZZZは、ユーザ入力5180の検出に応じて、ビデオ再生ビュー5300のメディアアイテムのディスプレイを一時送りしたか、又は既定の時間だけ早送りしたことを示す。例えば、ユーザ入力5180は、タッチ感知面451の右半分におけるクリック押下であり、デバイスは、図5YYYYに表現されたシーンから予め定められた時間後に、山脈の大きなピークを横切ったヤギのグレッグを示して、予め定められた時間だけ(例えば、10、30、又は90秒)メディアアイテムの再生をスキップする。
図6A〜図6Cは、いくつかの実施形態による、双方向スクリーンセーバーを提供する方法600のフロー図を示す。方法600は、ディスプレイと通信し、いくつかの実施形態ではタッチ感知面と通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法600の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
以下で説明されているように、方法600は、スクリーンセーバーと対話する直観的な方法を提供する。この方法は、スクリーンセーバーと対話するときのユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインターフェースを作成する。電池駆動式電子デバイスの場合、ユーザがスクリーンセーバーと対話して追加情報をより速くかつより効率的に取得することを可能とすることにより、電力が節約され、電池充電の時間間隔が延びる。
デバイスがスクリーンセーバーモードで動作している間に、デバイスは、ディスプレイに、第1視覚モーション効果(例えば、図5B〜図5Dに示すような、橋の画像でのズーム効果を示す、第1シーンでの(ゆっくりした)ズームインなどの、静止画像又は第1ビデオの再生での第1パン及び/又はズーム効果)を含む第1メディア(アイテム)を提示するため、提供する(602)。いくつかの実施形態では、第1メディアアイテムは、第1パン及び/又はズーム効果が適用された第1静止画像に対応する。
ディスプレイが第1視覚モーション効果を含む第1メディアを提示している間に、デバイスは、リモートユーザ入力デバイス(例えば、図5Dにおける接触5401)でユーザ入力を受信する(604)。リモートユーザ入力デバイスでユーザ入力を受信することに応じて、デバイスは、リモートユーザ入力デバイスでのユーザ入力の種別を判定する(606)。
リモートユーザ入力デバイスでのユーザ入力は第1種別のユーザ入力である(例えば、図5Dの接触5401で表されるリモートコントロールのタッチ感知面に指を載せること、又はリモートコントロールを静止位置から持ち上げること)との判定に従い、デバイスは、ディスプレイに、図5D〜図5Fに示すように、スクリーンセーバーモードを抜けさせずに、第2視覚モーション効果(例えば、静止画像での第2パン及び/又はズーム効果、第1ビデオを巻き戻すこと、又は第1シーンでの(ゆっくりした)ズームアウト)を含む第1メディアを提示するためのデータを提供する(608)。第2視覚モーション効果は、第1視覚モーション効果とは別個のものである。いくつかの実施形態では、第2パン及び/又はズームの方向は、リモート入力デバイスでのユーザ入力(例えば、リモートコントロールのタッチ感知面でのユーザ入力の方向)に応じて変更される。いくつかの実施形態では、第2パン及び/又はズーム効果は、第1メディアの再生スピードの変更(例えば、ビデオをよりゆっくりと又はより速く再生すること)を含む。
リモートユーザ入力デバイスでのユーザ入力が、第1種別とは別個の第2種別のユーザ入力(例えば、リモートコントロールでメニューボタンを押すこと)であるとの判定に従い、デバイスは、スクリーンセーバーモードを抜ける(610)(例えば、図5Pにおける、メニューボタン5002を押す入力5407は、スクリーンセーバーモードから抜けることを開始する)。
いくつかの実施形態では、ユーザ入力が第1種別のものであると判定した後に、ディスプレイが第2視覚モーション効果を含む第1メディアを提示している間に、デバイスは、第1種別のユーザ入力はリモートユーザ入力デバイスで検出されなくなったと判定し(612)、第1種別のユーザ入力はリモートユーザ入力デバイスで検出されなくなったとの判定に応じて、デバイスは、ディスプレイに、第1視覚モーション効果を含むメディアを提示するためのデータを提供する。(例えば、第1種別のユーザ入力がリモートユーザ入力デバイスで検出されなくなったときから第1ビデオの再生を再開すること、又は、第1ビデオとは別個の他のビデオを、第1種別のユーザ入力がリモートユーザ入力デバイスで検出されなくなったときの第1パン及び/又はズーム効果とともに表示すること)。例えば、接触5401が図5Fに示すようにタッチ感知面451で検出されなくなったとき、図5F〜図5Hに示すように第1視覚モーション効果(例えば、ズームイン)が再開される。
いくつかの実施形態では、リモートユーザ入力デバイスでのユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力が第3種別のユーザ入力(例えば、リモートコントロールのタッチ感知面でのタップジェスチャ)であるとの判定に従い、デバイスは、ディスプレイに、対応する記述的テキストとともに、第1視覚モーション効果を含む、第1メディアを提示するためのデータを提供する(図6B、614)。(例えば、図5Lにおけるタップジェスチャ5405は、図5Mに示す、第1メディアがキャプチャされた場所及び/又は時間についての情報を含むメタデータなどの第1メディアアイテムを記述する、テキストの表示を開始する)。
いくつかの実施形態では、リモートユーザ入力デバイスでユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力が第4種別のユーザ入力(例えば、図5Nにおける右スワイプジェスチャ5406)であるとの判定に従い、デバイスは、ディスプレイに、第1視覚モーション効果を含む第1メディア(アイテム)を、第3視覚モーション効果(例えば、第3パン及び/又はズーム効果)を含む複数のメディアの中から選択された第2メディア(例えば、同じコレクション又は別のコレクションにおける次のビデオ)に置き換えるためのデータを提供する(616)。例えば、図5Oでは橋の画像に代えてビーチの画像が表示される。ビーチの画像は、パン及びズーム効果とともに表示されるのに対し、橋の画像はズーム効果のみで表示される。いくつかの実施形態では第3視覚モーション効果は、第1視覚モーション効果と別個のものである(例えば、第3パン及び/又はズーム効果は第1パン及び/又はズーム効果とは別個のものである)。いくつかの実施形態では、第3視覚モーション効果は第1視覚モーション効果に対応する(例えば、第3パン及び/又はズーム効果は第1パン及び/又はズーム効果に対応する)。いくつかの実施形態では、第2メディアは、第3パン及び/又はズーム効果が適用された第2静止画像に対応する。いくつかの実施形態では、複数のメディア(又は画像)は、電子デバイスに記憶される。
いくつかの例では、パン及び/又はズーム効果は、複数の静止画像から選択された対応する静止画像に適用されて第1ビデオを形成する。いくつかの実施形態では、リモートユーザ入力デバイスでユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力が特定種別のユーザ入力(例えば、右方向へのスワイプ)であるとの判定に従い、デバイスは、ディスプレイに、第1パン及び/又はズーム効果を含む第1静止画像の提示を、複数の静止画像から選択された第2静止画像(例えば、静止画像の同じコレクション又は別のコレクションにおける次の静止画像)の提示に置き換えるためのデータを提供し、ここで第2静止画像の提示は、第3視覚モーション効果(例えば、第3パン及び/又はズーム効果)を含む。
いくつかの実施形態では、リモートユーザ入力デバイスでのユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力が第5種別のユーザ入力(例えば、図5Kに示すようなリモートコントロールを持ち上げること)であるとの判定に従い、デバイスは、ディスプレイに、現在時刻及び/又は日付を示す情報とともに、第1視覚モーション効果を含む、第1メディアを提示するためのデータを提供する(618)。(例えば、図5Lに示すようなテキストでの現在時刻及び/又は日付5010、又は時計の画像などの現在時刻及び/又は日付を示す1つ以上のシンボル)。
いくつかの実施形態では、電子デバイスは、1つ以上のスクリーンセーバー起動条件が満たされたとの判定に従いスクリーンセーバーモードに入り(620)、一方、リモートユーザ入力デバイスが(例えば予め定められた時間)止まっているとの判定に従い1つ以上のスクリーンセーバー起動条件が満される。いくつかの実施形態では、リモートユーザ入力デバイスが静止面に置かれたとの判定に従い、1つ以上のスクリーンセーバー起動条件が満たされる。
いくつかの実施形態では、リモートユーザ入力デバイスでのユーザ入力を受信することに応じて、リモートユーザ入力デバイスでのユーザ入力が第6種別のユーザ入力(例えば、リモートユーザ入力デバイスのタッチ感知面で指を第1方向へドラッグすること)であるとの判定に従い、デバイスは、ディスプレイで第1メディアを提示するための視覚モーション効果を変更する(622)。例えば、リモートユーザ入力デバイスのタッチ感知面でのスワイプダウンジェスチャ(図5Iに示す接触5403の移動)に応じて、図5Jに示すように、第1静止画像がまるでディスプレイ上で後ろへ後退しているかのように第1静止画像が表れるように、ズームイン効果とともに提示される。
いくつかの実施形態では、リモートユーザ入力デバイスでのユーザ入力を受信することに応じて、かつ、リモートユーザ入力デバイスでのユーザ入力が第2種別のユーザ入力であるとの判定に従い、デバイスは、ディスプレイに、第1視覚モーション効果を含む第1メディアを、複数のオブジェクトを有するユーザインターフェース(例えば、図5Qにおけるホーム画面ユーザインターフェース5018)に置き換えるためのデータを提供する(624、図6C)。複数のオブジェクトは、第1オブジェクト(例えば、アイコン5015−a)、及び、ディスプレイ上で第1オブジェクトと隣接する第2オブジェクト(例えば、アイコン5015−b)を含み、現在のフォーカスは、複数のオブジェクトの第1オブジェクトにある(例えば、図5Qにおいて、現在のフォーカスはアイコン5015−aにある)。
いくつかの実施形態では、ディスプレイに第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することは、ディスプレイに、第1ビデオの再生を提示するためのデータを提供することを含む。いくつかの実施形態では、リモートユーザ入力デバイスでのユーザ入力が第7種別のユーザ入力であるとの判定に従い、デバイスは、ユーザ入力に従い、第1ビデオの再生方向を変更する(629)(例えば、図5Hに示す左へのスワイプジェスチャに応じて、再生方向はズームからズームアウトへ変更される)。
図6A〜図6Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法700、800、900、1000、1100及び1200)は、また、図6A〜図6Cに関連して上述されている方法600に類似の方法で適用可能であることを留意されたい。例えば、方法600を参照して上述されたユーザインターフェース及びユーザ入力は、本明細書に記載されている他の方法(例えば、方法700、800、900、1000、1100及び1200)を参照して本明細書で説明されているユーザインターフェース及びユーザ入力の特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
図7A〜図7Cは、いくつかの実施形態による、ユーザインターフェースオブジェクト上で現在のフォーカスを移動する方法700のフロー図を示す。方法700は、ディスプレイと通信し、いくつかの実施形態ではタッチ感知面と通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法700の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法700は、ユーザインターフェースオブジェクト上で現在のフォーカスを移動する直感的方法を提供する。この方法は、現在のフォーカスを移動するときのユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインターフェースを作成する。バッテリ動作式電子デバイスの場合、ユーザが現在のフォーカスをより高速にかつより効率的に移動できるようにすることで、電力を節約し、バッテリ充電間の時間を延ばす。
いくつかの実施形態では、電子デバイスは、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザ入力を提示するためのデータ(例えば、命令、ビデオ信号、画像ファイル、又は他の情報)を提供する(702)。いくつかの実施形態では、複数のユーザインターフェースオブジェクトは、ディスプレイにスクロール可能な2次元アレイで表示される。いくつかの実施形態では、ユーザインターフェースオブジェクトは、アプリケーションアイコン、チャンネルアイコン、コンテンツアイコン、又はコンテンツグループアイコンであり、アクティブになると(例えば、タップジェスチャ、選択ボタンの押下、音声コマンドなど)、ディスプレイに対応するアプリケーション、チャンネル、コンテンツ又はコンテンツグループの表示をさせる。複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイ上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含む。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間に隙間がある。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間の隙間は、一方のユーザインターフェースオブジェクトが他方のユーザインターフェースオブジェクトへ向かって移動するにつれて狭くなる。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間の隙間は、一方のユーザインターフェースオブジェクトが他方のユーザインターフェースオブジェクトへ向かって移動するにつれて取り除かれる。現在のフォーカスが複数のユーザインターフェースオブジェクトの第1ユーザインターフェースオブジェクトにあり、いくつかの実施形態では、現在のフォーカスが対応するユーザインターフェースオブジェクトにある間、対応するユーザインターフェースオブジェクトは、複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトから視覚的に区別される。
ディスプレイがユーザインターフェースを提示している間に、電子デバイスは、ユーザインターフェースの現在のフォーカスを移動するためのリクエストに対応する第1入力を受信する(例えば、電子デバイスと通信するタッチ感知面でのジェスチャ、デバイスと通信するボタンの有効化、及び/又は、音声コマンドに対応する入力を受信する)(704)。いくつかの実施形態では、タッチ感知面又はボタンは、電子デバイスと一体化している。いくつかの実施形態では、タッチ感知面又はボタンは、電子デバイスとは別個のものである。
ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトを第1位置(例えば、複数のオブジェクトのうちの、ディスプレイ上の第1ユーザインターフェースオブジェクト周辺の他のオブジェクトの位置に対する、ディスプレイ上の第1ユーザインターフェースオブジェクトの初期位置)から第2ユーザインターフェースオブジェクトへ向けて移動させ、及び/又は、第1ユーザインターフェースオブジェクトを第1方向(例えば、ディスプレイの面に視覚的に表れる第1ユーザインターフェースオブジェクトの初期方向)から第2ユーザインターフェースオブジェクトの方へ傾け(例えば、図5CC、5FF、5GG及び5IIに示すように、アイコン5015−aは、アイコン5015−bの方へ移動され及び/又は傾けられる)、並びに、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ移動し(例えば、図5DD及び5HHに示すように、現在のフォーカスはアイコン5015−aからアイコン5015−bへ移動する)、及び、第1ユーザインターフェースオブジェクトを第1位置の方へ戻すよう移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向へ戻すよう傾ける(例えば、図5DD及び5HHに示すように、アイコン5015−aは、現在のフォーカスをアイコン5015−aからアイコン5015−bへ移動した後に元の方へ移動し及び傾く)ためのデータを提供する(706)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、第1位置に戻る(例えば、アイコン5015−aは、現在のフォーカスがアイコン5015−bに移動した後に元の方へ移動する)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、第1方向に戻る(例えば、アイコン5015−aは、現在のフォーカスがアイコン5015−bに移動した後に元の方へ傾く)。
いくつかの実施形態では、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、電子デバイスは、ディスプレイに、ディスプレイ上で第1ユーザインターフェースオブジェクトのサイズを小さくし、ディスプレイ上で第2ユーザインターフェースオブジェクトのサイズを大きくするためのデータを提供する(例えば、図5BB〜図5DDに示すように、現在のフォーカスがアイコン5015−aからアイコン5015−bへ移動した後に、アイコン5015−aのサイズは小さくなり、アイコン5015−bのサイズは大きくなる)(708)。いくつかの実施形態では、複数のユーザインターフェースオブジェクトの各ユーザインターフェースオブジェクトは、現在のフォーカスが対応するユーザインターフェースオブジェクトにない場合、対応する第1サイズで表示され、各ユーザインターフェースオブジェクトは、現在のフォーカスが対応するユーザインターフェースオブジェクトにある場合、対応する第1サイズより大きい対応する第2サイズで表示される(例えば、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間は、第1ユーザインターフェースオブジェクトは対応する第2サイズで表示され、第2ユーザインターフェースオブジェクトは、対応する第1サイズで表示される)。大きくなった対応するユーザインターフェースオブジェクトのサイズは、現在のフォーカスが対応するユーザインターフェースオブジェクトにあることを示すものである。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの名前(又は他の記述子)が、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間、第1インターフェースオブジェクト上に又は第1インターフェースオブジェクトに隣接して表示される。ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトの名前の表示をやめて、第2ユーザインターフェースオブジェクトの名前を、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間、第2インターフェースオブジェクト上に又は第2インターフェースオブジェクトに隣接して表示するためのデータを提供する(710)。例えば、図5BB〜図5DDに示すように、現在のフォーカスがアイコン5015−aにあるとき、アイコン5015−aの名前がアイコン5015−aの下に表示される。現在のフォーカスがアイコン5015−aからアイコン5015−bへ移動するとき、アイコン5015−aの名前は表示されなくなり、アイコン5015−bの名前がアイコン5015−bの下に表示される。いくつかの実施形態では、複数のユーザインターフェースオブジェクトの各ユーザインターフェースオブジェクトは、現在のフォーカスが対応するユーザインターフェースオブジェクトにある場合、対応するユーザインターフェースオブジェクト上に又は対応するユーザインターフェースオブジェクトに隣接して、名前又は他の記述子とともに表示され、各ユーザインターフェースオブジェクトは、現在のフォーカスが対応するユーザインターフェースオブジェクトにない場合、対応するユーザインターフェースオブジェクト上に又は対応するユーザインターフェースオブジェクトに隣接して、名前又は他の記述子なしで表示される(例えば、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間、第2ユーザインターフェースオブジェクトは第2ユーザインターフェースオブジェクト上に又は第2ユーザインターフェースオブジェクトに隣接して、名前なしで表示される)。各ユーザインターフェースオブジェクトの名前の存在は、現在のフォーカスが対応するユーザインターフェースオブジェクトにあることを示すものである。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、zオーダに配置された2つ以上の重畳レイヤにおけるグラフィックを含み、各レイヤは第1ユーザインターフェースオブジェクトの傾きに応じてディスプレイ上でずれる(例えば、図5MM〜図5NNに示すように、アイコン5015−eは、zオーダに配置された画像の2つ以上のレイヤを含み、各レイヤはディスプレイ上でずれて視差効果を提供する)(712、図7B)。いくつかの実施形態では、各ユーザインターフェースオブジェクト(例えば、映画、テレビショー、ビデオ又はアルバムなどの特定のコンテンツに対応するアイコン)は、2つ以上の重畳レイヤにおけるグラフィックを含む。いくつかの実施形態では、2つ以上の重畳レイヤは、zオーダ(前面から背面への順序ともいう)に配置される。レイヤは、各ユーザインターフェースオブジェクトが傾くにつれて(例えば、現在のフォーカスをディスプレイ上で移動する入力に応じて)ディスプレイ上でずれて、各ユーザインターフェースオブジェクトのレイヤにおいてグラフィックに対する視差効果を生成する。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、1つ以上のリフレクションを含み、1つ以上のリフレクションは第1ユーザインターフェースオブジェクトの傾きに応じて変化する(714)。いくつかの実施形態では、各ユーザインターフェースオブジェクト(例えば、特定のコンテンツに対応するアイコン)は、(例えば、現在のフォーカスをディスプレイ上で移動する入力に応じて)対応するユーザインターフェースオブジェクトが傾くにつれて、ずれたり、移動したり、若しくは変化するリフレクションを含む。例えば、図5Rは、ユーザインターフェースオブジェクト5105−aに対するリフレクションを示す。オブジェクト5105−aが傾く/ピッチ軸(例えば、図5Rのx軸)まわりに回転するにつれて、リフレクションが移動する。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、1つ以上の色を含み、1つ以上の色は、第1ユーザインターフェースオブジェクトの傾きに応じて変化する(716)。いくつかの実施形態では、各ユーザインターフェースオブジェクト(例えば、特定のコンテンツに対応するアイコン)は、(例えば、現在のフォーカスをディスプレイ上で移動する入力に応じて)対応するユーザインターフェースオブジェクトが傾くにつれて変化する色を含む。いくつかの実施形態では、オブジェクトが傾く/ロール軸(例えば、y軸)まわりに回転するにつれてユーザインターフェースオブジェクトの色が変化する。いくつかの実施形態では、各ユーザインターフェースオブジェクトに対して、オブジェクトが傾く/第1軸(例えば、x軸)まわりに回転するにつれてオブジェクトの仮想リフレクションが移動し、オブジェクトが傾く/第2軸(例えば、y軸)まわりに回転するにつれてオブジェクトに対する1つ以上の色が変化する。
いくつかの実施形態では、現在のフォーカスの第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへの移動スピードが大きくなるにつれて、第1ユーザインターフェースオブジェクトの第2ユーザインターフェースオブジェクトへ向かう動きの大きさは小さくなる(718)。例えば、現在のフォーカスがアイコン5015−bからアイコン5015−eへ素早く移動する場合、図5LLに示すように、アイコン5015−bとアイコン5015−eの間の各ユーザインターフェースオブジェクトの動きの大きさが(より早く元の位置に戻ることができるように)小さくなる。
いくつかの実施形態では、現在のフォーカスの第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへの移動スピードが大きくなるにつれて、第1ユーザインターフェースオブジェクトの第2ユーザインターフェースオブジェクトへ向かう傾きの大きさは小さくなる(720)。例えば、現在のフォーカスがアイコン5015−bからアイコン5015−eへ素早く移動する場合、図5LLに示すように、アイコン5015−bとアイコン5015−eの間の各ユーザインターフェースオブジェクトの動きの大きさが(より早く元の位置に戻ることができるように)小さくなる。
いくつかの実施形態では、第1入力を受信することに応じて、第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ現在のフォーカスを動かすことは、第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへユーザインターフェースオブジェクトを(連続的に)動かすことなく、なされる(722)。いくつかの実施形態では、現在のフォーカスが対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクトへ移動する場合、カーソル、フォーカス選択リング、又は他のユーザインターフェースオブジェクトの対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクトへの移動はない。いくつかの実施形態では、現在のフォーカスが一連の隣接するユーザインターフェースオブジェクトを超えて移動する場合、カーソル、フォーカス選択リング、又は他のユーザインターフェースオブジェクトは一連の隣接するユーザインターフェースオブジェクトを超えて移動しない。
いくつかの実施形態では、現在のフォーカスがユーザインターフェースオブジェクトにある間に、電子デバイスは、ユーザインターフェースの現在のフォーカスを移動するためのリクエストに対応する第2入力を受信する(例えば、図5Vに示すように、リモートコントロール5001のタッチ感知面451での接触5409の移動、デバイスと通信するボタンの有効化、及び/又は、音声コマンドを受信する)(724、図7C)。ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第2入力を受信することに応じて、電子デバイスは、ディスプレイに、第2ユーザインターフェースオブジェクトを第2位置(例えば、複数のオブジェクトのうちの、ディスプレイ上の第2ユーザインターフェースオブジェクト周辺の他のオブジェクトの位置に対する、ディスプレイ上の第2ユーザインターフェースオブジェクトの初期位置)から第2ユーザインターフェースオブジェクトに隣接する第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第2方向(例えば、第1ユーザインターフェースオブジェクトについての第1方向と同様に、ディスプレイの面に視覚的に表れる第2ユーザインターフェースオブジェクトの初期方向)から第3ユーザインターフェースオブジェクトの方へ傾ける(例えば、図5Wに示すように、アイコン5015−bは、アイコン5015−cの方へ傾けられる)ためのデータを提供する。第2ユーザインターフェースオブジェクトを第2位置から第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第3ユーザインターフェースオブジェクトの方へ傾けた後に、電子デバイスは、現在のフォーカスを、第2ユーザインターフェースオブジェクトから第3ユーザインターフェースオブジェクトへ移動し(例えば、図5Xに示すように、現在のフォーカスはアイコン5015−bからアイコン5015−cへ移動する)、及び、第2ユーザインターフェースオブジェクトを第2位置へ戻すよう移動し、及び/又は、第2ユーザインターフェースオブジェクトを第2方向へ戻すよう傾ける(例えば、図5Xに示すように、現在のフォーカスがアイコン5015−bからアイコン5015−cへ移動した後に、アイコン5015−bは元の位置及び方向に戻る)。いくつかの実施形態では、第2ユーザインターフェースオブジェクトは第2位置に戻る。いくつかの実施形態では、第2ユーザインターフェースオブジェクトは第2方向に戻る。いくつかの実施形態では、各オブジェクトを現在のフォーカスとともに隣接するオブジェクトの方へ移動し及び/又は傾け、現在のフォーカスを隣接するオブジェクトへ移動し、各オブジェクトを元の位置及び/又は方向へ戻すように移動し及び/又は傾ける工程は、現在のフォーカスを移動するリクエストに対応した1つの入力に応じて、複数回繰り返すことができる。
いくつかの実施形態では、現在のフォーカスが第3ユーザインターフェースオブジェクトにある間に、電子デバイスは、第3入力を受信する(726)(例えば、図5Y〜図5Zに示すように、リモートコントロール5001のタッチ感知面451での接触5410の移動を受信する)。第3入力を受信することに応じて、電子デバイスは、ディスプレイに、第3ユーザインターフェースオブジェクトを第3位置(例えば、複数のオブジェクトのうちの、ディスプレイ上の第3ユーザインターフェースオブジェクト周辺の他のオブジェクトの位置に対する、ディスプレイ上の第3ユーザインターフェースオブジェクトの初期位置)から第3ユーザインターフェースオブジェクトに隣接する第4ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第3ユーザインターフェースオブジェクトを第3方向(例えば、第1ユーザインターフェースオブジェクトについての第1方向と同様に、ディスプレイの面に視覚的に表れる第3ユーザインターフェースオブジェクトの初期方向)から第4ユーザインターフェースオブジェクトの方へ傾ける(例えば、図5Zに示すように、アイコン5015−cは、アイコン5015−dの方へ傾けられる)ためのデータを提供する。第3ユーザインターフェースオブジェクトを第3位置から第4ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第3ユーザインターフェースオブジェクトを第4ユーザインターフェースオブジェクトの方へ傾けた後に、電子デバイスは、現在のフォーカスを第3ユーザインターフェースオブジェクトで維持し、第3ユーザインターフェースオブジェクトを第3位置へ戻すよう移動し、及び/又は、第3ユーザインターフェースオブジェクトを第3方向へ戻すよう傾ける(例えば、図5AAに示すように、現在のフォーカスがアイコン5015−cに留まり、アイコン5015−cが元の位置及び方向に戻る)。いくつかの実施形態では、第3ユーザインターフェースオブジェクトは第3位置に戻る。いくつかの実施形態では、第3ユーザインターフェースオブジェクトは第3方向に戻る。いくつかの実施形態では、入力(例えば、ここでは第3入力)が現在のフォーカスを対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクト移動するのに十分でない場合、対応するユーザインターフェースオブジェクトは、隣接するユーザインターフェースオブジェクトに向けて移動し及び/又は傾き、そして元の位置及び/又は方向に戻るよう移動及び/又は傾いて、入力が現在のフォーカスを対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクト移動するのに十分でなく、現在のフォーカスが対応するユーザインターフェースオブジェクトに留まったままであることを示す。
図7A〜図7Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、800、900、1000、1100及び1200)は、また、図7A〜図7Cに関連して上述されている方法700に類似の方法で適用可能であることを留意されたい。例えば、方法700を参照して上述されたユーザインターフェース、ユーザ入力及びユーザインターフェースオブジェクトの傾き及び/又は移動は、本明細書に記載されている他の方法(例えば、方法600、800、900、1000、1100及び1200)を参照して本明細書で説明されているユーザインターフェース、ユーザ入力及びユーザインターフェースオブジェクトの傾き及び/又は移動の特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
図8A〜図8Cは、いくつかの実施形態による、ユーザインターフェースオブジェクト上で現在のフォーカスを移動する方法800のフロー図を示す。方法800は、ディスプレイと通信し、いくつかの実施形態ではタッチ感知面と通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法800の一部の動作が、任意選択的に組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法800は、ユーザインターフェースオブジェクト上で現在のフォーカスを移動する直感的方法を提供する。この方法は、現在のフォーカスを移動するときのユーザの認識的負担を軽減し、それによって、より効率的なヒューマンマシンインターフェースを作成する。バッテリ動作式電子デバイスの場合、ユーザが現在のフォーカスをより高速にかつより効率的に移動できるようにすることで、電力を節約し、バッテリ充電間の時間を延ばす。
いくつかの実施形態では、電子デバイスは、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザ入力を提示するためのデータ(例えば、命令、ビデオ信号、画像ファイル、又は他の情報)を提供する(802)。いくつかの実施形態では、複数のユーザインターフェースオブジェクトは、ディスプレイにスクロール可能な2次元アレイで表示される。いくつかの実施形態では、ユーザインターフェースオブジェクトは、アプリケーションアイコン、チャンネルアイコン、コンテンツアイコン、又はコンテンツグループアイコンであり、アクティブになると(例えば、タップジェスチャ、選択ボタンの押下、音声コマンドなど)、ディスプレイに対応するアプリケーション、チャンネル、コンテンツ又はコンテンツグループの表示をさせる。複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイ上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含む。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間に隙間がある。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間の隙間は、一方のユーザインターフェースオブジェクトが他方のユーザインターフェースオブジェクトへ向かって移動するにつれて狭くなる。いくつかの実施形態では、隣接するユーザインターフェースオブジェクト間の隙間は、一方のユーザインターフェースオブジェクトが他方のユーザインターフェースオブジェクトへ向かって移動するにつれて取り除かれる。現在のフォーカスが複数のオブジェクトの第1オブジェクトにあり、いくつかの実施形態では、現在のフォーカスが各ユーザインターフェースオブジェクトにある間に、各ユーザインターフェースオブジェクトは、複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトから視覚的に区別される。
ディスプレイがユーザインターフェースを提示している間に、電子デバイスは、第1入力を受信する(例えば、リモートコントロール5001のタッチ感知面451など、電子デバイスと通信するタッチ感知面でのジェスチャに対応する入力を受信する)(804)。いくつかの実施形態では、タッチ感知面又はボタンは、電子デバイスと一体化している。いくつかの実施形態では、タッチ感知面又はボタンは、電子デバイスとは別個のものである。
第1入力を受信することに応じて、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトを第1位置(例えば、複数のオブジェクトのうちの、ディスプレイ上の第1ユーザインターフェースオブジェクト周辺の他のオブジェクトの位置に対する、ディスプレイ上の第1ユーザインターフェースオブジェクトの初期位置)から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向(例えば、ディスプレイの面に視覚的に表れる第1ユーザインターフェースオブジェクトの初期方向)から第2ユーザインターフェースオブジェクトの方へ傾ける(例えば、図5BB〜図5IIに示すように、アイコン5015−aは、アイコン5015−bの方へ移動され及び/又は傾けられる)ためのデータを提供する(806)。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、前景層から背景層へzオーダに配置された2つ以上の重畳レイヤにおけるグラフィックを含み、各レイヤは第1ユーザインターフェースオブジェクトの傾きに応じてディスプレイ上でずれる(例えば、図5MM〜図5NNに示すように、アイコン5015−eは、zオーダに配置された画像の2つ以上の層を含み、各レイヤはディスプレイ上でずれて視差効果を提供する)(808)。いくつかの実施形態では、2つ以上の重畳レイヤは、前景層と背景層との間に1つ以上の介在層(例えば、図5NNに示すような、前景層5028と背景層5034の間のレイヤ5030及び5032、並びに、図5PPに示すような前景層5050−1と背景層5050−3の間のレイヤ5050−2)を含む。いくつかの実施形態では、2つ以上の重畳レイヤは、前景層と背景層との間に介在層を含まない。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの傾きは、背景層以外で、背景層の境界を越える2つ以上の重畳レイヤ(例えば、前景層と前景層及び背景層との間の介在層)の1つ以上の領域の上記表示を含む(例えば、1つ以上の上位層は、背景層に基づきマスクされる)(810)。例えば、図5PPの構成5046に示すように、背景層の境界を越える2つ以上の重畳レイヤの1つ以上の領域は、トリミング(クロッピング)される。第1ユーザインターフェースオブジェクトが傾けられたときの視差効果によって、2つ以上の重畳レイヤは、第1ユーザインターフェースオブジェクトが傾くにつれて、背景層に対して移動し、そして背景層でマスクされた2つ以上の重畳レイヤの部分は、第1ユーザインターフェースオブジェクトの傾斜量に応じて変化する。いくつかの実施形態では、重畳レイヤは、背景層より広く、第1ユーザインターフェースオブジェクトが傾いたときでも、重畳レイヤが背景層を完全に覆い続けるようにする。
いくつかの実施形態では、前景層と背景層との間の投影深度は、前景層と背景層との間の介在層の数(0、1、2など)とは独立している(例えば、図5PPにおいて、前景層5048−1と背景層5048−2の間の投影深度は、前景層5050−1と背景層5050−3の間の投影深度と同じである)(812)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、3つの重畳レイヤにおけるグラフィックを含み、第2ユーザインターフェースオブジェクトは、2つの重畳レイヤにおけるグラフィックを含み、第1ユーザインターフェースオブジェクトと第2ユーザインターフェースオブジェクトの双方は、前景層と背景層との間の同じ投影深度を有する。
第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件(例えば、図5R〜図5Uにおいて、接触5408が閾値位置5408−dに移動する)を満たすとの判定に従い、電子デバイスは、ディスプレイに、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトに移動し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻すように移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾ける(例えば、図5Uにおいて、現在のフォーカスがアイコン5015−aからアイコン5015−bへ移動し、アイコン5015−aが元の位置及び方向に戻るように移動する及び/又は傾く)ためのデータを提供する(814、図8B)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは第1位置に戻る。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは第1方向に戻る。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの名前(又は他の記述子)が、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間、第1インターフェースオブジェクト上に又は第1インターフェースオブジェクトに隣接して表示される。第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトの名前の表示をやめ、第2ユーザインターフェースオブジェクトの名前を、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間、第2インターフェースオブジェクト上に又は第2インターフェースオブジェクトに隣接して表示するためのデータを提供する(816)。例えば、図5BB〜図5DDに示すように、現在のフォーカスがアイコン5015−aにある場合、アイコン5015−aの名前は、アイコン5015−aの下に表示される。現在のフォーカスがアイコン5015−aからアイコン5015−bに移動する場合、アイコン5015−aの名前は表示されなくなり、アイコン5015−bの名前がアイコン5015−bの下に表示される)。いくつかの実施形態では、複数のユーザインターフェースオブジェクトの各ユーザインターフェースオブジェクトは、現在のフォーカスが対応するユーザインターフェースオブジェクトにある場合、対応するユーザインターフェースオブジェクト上に又は対応するユーザインターフェースオブジェクトに隣接して名前又は記述子とともに表示され、現在のフォーカスが対応するユーザインターフェースオブジェクトにない場合、対応するユーザインターフェースオブジェクト上に又は対応するユーザインターフェースオブジェクトに隣接して名前又は記述子なしで表示される(例えば、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間に、第2ユーザインターフェースオブジェクトは第2ユーザインターフェースオブジェクト上に又は第2ユーザインターフェースオブジェクトに隣接して名前又は記述子なしで表示される)。各ユーザインターフェースオブジェクトの名前の存在は、現在のフォーカスが対応するユーザインターフェースオブジェクトにあることを示すものである。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは1つ以上のリフレクションを含む(818)。第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトの1つ以上のリフレクションの表示をやめ、第2ユーザインターフェースオブジェクトの1つ以上のリフレクションを表示するためのデータを提供する。例えば、図5Rは、ユーザインターフェースオブジェクト5105−aに対するリフレクションを示す。オブジェクト5105−aが傾く/ピッチ軸(例えば、図5Rのx軸)まわりに回転するにつれて、リフレクションが移動する。
いくつかの実施形態では、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ向けて移動することに応じて、電子デバイスは、ディスプレイに、ディスプレイ上で第1ユーザインターフェースオブジェクトのサイズを小さくし、ディスプレイ上で第2ユーザインターフェースオブジェクトのサイズを大きくするためのデータを提供する(例えば、図5BB〜図5DDに示すように、現在のフォーカスがアイコン5015−aからアイコン5015−bへ移動した後に、アイコン5015−aのサイズが小さくなり、アイコン5015−bのサイズが大きくなる)(820)。第2ユーザインターフェースオブジェクトは、前景層から背景層(例えば、図5NNに示すような前景層と背景層)へzオーダに配置された2つ以上の重畳レイヤを含む。いくつかの実施形態では、第2ユーザインターフェースオブジェクトの層は、第2ユーザインターフェースオブジェクトの傾きに従い、ディスプレイ上でずれる。ディスプレイ上で第2ユーザインターフェースオブジェクトのサイズを大きくすることは、2つ以上の重畳レイヤの各レイヤのサイズを対応する拡大率で大きくすることを含み、任意選択的に、各層の間のz方向の距離又は疑似的距離を大きくすることを含む。前景層に対する拡大率(例えば、第2ユーザインターフェースオブジェクトのサイズを大きくする前の前景層のサイズと、第2ユーザインターフェースオブジェクトのサイズを大きくした後の前景層のサイズの間の比)は、背景層に対する拡大率(例えば、第2ユーザインターフェースオブジェクトのサイズを大きくする前の背景層のサイズと、第2ユーザインターフェースオブジェクトのサイズを大きくした後の背景層のサイズの間の比)より大きい。例えば、図5PPの構成5044及び5046に示すように、前景層(卓球のボールとラケットを含む)は、背景層(テキストとネットを含む)よりも拡大される。
いくつかの実施形態では、トップ層は切り抜きを含み、切り抜きを通して1つ以上の下位層が見える。いくつかの実施形態では、トップ層は透明領域により囲まれた形状を含み、下位層がその形状を囲む領域で見える(例えば、図5NNの構成5038)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトが傾いていない場合に、形状が連続形状をなすようにみえるが、当該オブジェクトが傾いている場合には形状が互いに対して移動して模擬三次元効果を生成するように、複数の形状が層の上に配置される(例えば、図5NNにおける層5028から5034)。いくつかの実施形態では、トップ層(例えば、図5OOにおけるトップ層5041−1)は、パターンと切り抜きを含み、パターンの拡大版を含む下位層(例えば、下位5041−2)をあらわにし、傾けられると、切り抜きがパターンを拡大している拡大領域であるように見えさせる効果を生み出し、第1ユーザインターフェースオブジェクトが傾くにつれてパターンをわずかに超えて移動する(実際に、拡大効果をシミュレートする層を有するよりもはるかに大きな計算リソースを必要としうる、パターンを拡大することは必要なく、拡大効果をシミュレートするためにこのように層を用いることは、実際に拡大効果を生成するよりも電力効率がよい)。
いくつかの実施形態では、現在のフォーカスがユーザインターフェースオブジェクトにある間に、電子デバイスは、第2入力を受信する(例えば、図5Vに示すように、リモートコントロール5001のタッチ感知面451での接触5409の移動、デバイスと通信するボタンの有効化、及び/又は、音声コマンドを受信する)(822、図8C)。第2入力を受信することに応じて、電子デバイスは、ディスプレイに、第2ユーザインターフェースオブジェクトを第2位置(例えば、複数のオブジェクトのうちの、ディスプレイ上の第2ユーザインターフェースオブジェクト周辺の他のオブジェクトの位置に対する、ディスプレイ上の第2ユーザインターフェースオブジェクトの初期位置)から第2ユーザインターフェースオブジェクトに隣接する第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第2方向(例えば、第1ユーザインターフェースオブジェクトについての第1方向と同様に、ディスプレイの面に視覚的に表れる第2ユーザインターフェースオブジェクトの初期方向)から第3ユーザインターフェースオブジェクトの方へ傾ける(例えば、図5Wに示すように、アイコン5015−bは、アイコン5015−cの方へ傾けられる)ためのデータを提供する。第2ユーザインターフェースオブジェクトを第2位置から第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第3ユーザインターフェースオブジェクトの方へ傾けた後に、第2入力が第2の現在フォーカスナビゲーション条件(例えば、接触が閾値位置に移動したこと)を満たすとの判定に従い、電子デバイスは、ディスプレイに、現在のフォーカスを第2ユーザインターフェースオブジェクトから第3ユーザインターフェースオブジェクトに移動し、第2ユーザインターフェースオブジェクトを第2位置へ戻すように移動し、及び/又は、第3ユーザインターフェースオブジェクトを第2方向へ戻すように傾ける(例えば、図5Xに示すように、現在のフォーカスがアイコン5015−bからアイコン5015−cへ移動し、アイコン5015−bが元の位置及び方向に戻る)ためのデータを提供する。いくつかの実施形態では、第2ユーザインターフェースオブジェクトは第2位置に戻る。いくつかの実施形態では、第2ユーザインターフェースオブジェクトは第2方向に戻る。いくつかの実施形態では、各オブジェクトを現在のフォーカスとともに隣接するオブジェクトの方へ移動し及び/又は傾け、現在のフォーカスを隣接するオブジェクトへ移動し、各オブジェクトを元の位置及び/又は方向へ戻すように移動し及び/又は傾ける工程は、現在のフォーカスを移動するリクエストに対応した1つの入力に応じて、複数回繰り返すことができる。
いくつかの実施形態では、第1の現在フォーカスナビゲーション条件及び第2の現在フォーカスナビゲーション条件は別個のものである(例えば、いくつかの実施形態では、第1の現在フォーカスナビゲーション条件が現在のフォーカスを水平に動かすのに用いられ、第2の現在フォーカスナビゲーション条件が現在のフォーカスを垂直に動かすのに用いられる場合、第1の現在フォーカスナビゲーション条件及び第2の現在フォーカスナビゲーション条件は異なる)(824)。いくつかの実施形態では、第1距離条件を満たす電子デバイスと通信するタッチ感知面でのジェスチャを検出することに応じて第1の現在フォーカスナビゲーション条件が満たされ、第1距離条件とは別個の第2距離条件を満たすタッチ感知面でのジェスチャを検出することに応じて第2の現在フォーカスナビゲーション条件が満たされる。いくつかの実施形態では、距離条件は、対応するユーザインターフェースオブジェクト(例えば、第1ユーザインターフェースオブジェクト)の幅及び/又は高さに基づいて定められる。いくつかの実施形態では、ユーザインターフェースオブジェクトの高さよりも大きな幅を有する当該ユーザインターフェースオブジェクトについて、現在のフォーカスの水平移動のための距離条件は、現在のフォーカスの垂直移動のための距離条件よりも長いジェスチャのストロークを必要とする。いくつかの実施形態では、ユーザインターフェースオブジェクトの高さよりも小さな幅を有する当該ユーザインターフェースオブジェクトについて(例えば、図5QQ〜図5TTに示す映画ポスターアイコン5062−aから5062−c)、水平ナビゲーションのための距離条件は、垂直ナビゲーションのための距離条件よりも短いジェスチャのストロークを必要とする。いくつかの実施形態では、同じ行にある2つのユーザインターフェースオブジェクト間のナビゲーションに対する距離条件は、異なる行にある2つのユーザインターフェースオブジェクト間のナビゲーションに対する距離条件よりも、短いジェスチャのストロークを必要とする。
いくつかの実施形態では、第1入力は、現在のフォーカスをユーザインターフェースで水平に移動するリクエストに対応し(826)、第2入力は、現在のフォーカスをユーザインターフェースで垂直に移動するリクエストに対応する(例えば、図5RR〜図5SSに示すような、アイコン5062−bからアイコン5062−aへの現在のフォーカスの水平移動、及び、図5SS〜図5TTに示すような、アイコン5062−aからアイコン5015−dへの現在のフォーカスの垂直移動)。
いくつかの実施形態では、第1入力は、現在のフォーカスを同じ種別のユーザインターフェースオブジェクト間で移動するリクエストに対応し(例えば、図5RR〜図5SSに示すような、映画ポスターアイコン5062−bと5062−aとの間の現在のフォーカスの移動)(828)、第2入力は、現在のフォーカスを異なる種別のユーザインターフェースオブジェクト間で移動するリクエストに対応する(例えば、映画ポスターアイコン5062−aとアプリケーションアイコン5015−dの間の現在のフォーカスの移動)。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件を満たさないとの判定に従い、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトにある現在のフォーカスを維持し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻すように移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾けるためのデータを提供する(830)。いくつかの実施形態では、第1ユーザインターフェースオブジェクトは第1位置に戻る。例えば、図5Y〜図5AAに示すように、閾値位置に到達せずに接触5410が検出されなくなると、現在のフォーカスはアイコン5015−cにあるままで、アイコン5015−cは元の位置及び方向に戻るように移動し及び傾く。いくつかの実施形態では、第3ユーザインターフェースオブジェクトは第1方向に戻る。いくつかの実施形態では、入力(例えば、ここでは第1入力)が現在のフォーカスを対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクト移動するのに十分でない場合、対応するユーザインターフェースオブジェクトは、隣接するユーザインターフェースオブジェクトに向けて移動し及び/又は傾き、そして元の位置及び/又は方向に戻るよう移動及び/又は傾いて、入力が現在のフォーカスを対応するユーザインターフェースオブジェクトから隣接するユーザインターフェースオブジェクト移動するのに十分でなく、現在のフォーカスが対応するユーザインターフェースオブジェクトにあるままであることを示す。
図8A〜図8Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、700、900、1000、1100及び1200)は、また、図8A〜図8Cに関連して上述されている方法800に類似の方法で適用可能であることを留意されたい。例えば、方法800を参照して上述されたユーザインターフェース、ユーザ入力及びユーザインターフェースオブジェクトの傾き及び/又は移動は、本明細書に記載されている他の方法(例えば、方法600、700、900、1000、1100及び1200)を参照して本明細書で説明されているユーザインターフェース、ユーザ入力及びユーザインターフェースオブジェクトの傾き及び/又は移動の特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
図9A〜図9Bは、いくつかの実施形態による、非アクティブ基準に基づいてユーザインターフェースを更新する方法900を示すフロー図である。方法900は、ディスプレイと通信し、いくつかの実施形態ではタッチ感知面と通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。方法900の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法900は、デバイスの不活性状態を示す直感的方法を提供する。本方法は、(例えば、不活性状態の間、現在のフォーカスを有するユーザインターフェースオブジェクトの視覚的区別を提供することにより)デバイスでのアクティビティを再開するときのユーザの認識的負担を軽減することにより、より効率的なヒューマンマシンインターフェースを作成する。バッテリ動作式電子デバイスの場合、ユーザが現在のフォーカスを有するユーザインターフェースオブジェクトをより速くかつより効率的に特定することを可能にすることにより、電力が節約され、バッテリの充電間隔が長くなる。
電子デバイスは、ディスプレイに、複数のユーザインターフェースオブジェクトを有するユーザインターフェース(例えば、図5TTにおける、アイコン5015−aから5015−e、5062−aから5062−cを有するホーム画面ユーザインターフェース5018)を提示するためのデータ(例えば、命令、ビデオ信号、画像ファイル、又は他の情報)を提供する(902)。いくつかの実施形態では、複数のユーザインターフェースオブジェクトは、ディスプレイにスクロール可能な2次元アレイで表示される。いくつかの実施形態では、ユーザインターフェースオブジェクトは、アプリケーションアイコン、チャンネルアイコン、コンテンツアイコン、又はコンテンツグループアイコンであり、アクティブになると(例えば、タップジェスチャ、選択ボタンの押下、音声コマンドなど)、ディスプレイに対応するアプリケーション、チャンネル、コンテンツ又はコンテンツグループの表示をさせる。複数のユーザインターフェースオブジェクトは第1ユーザインターフェースオブジェクトを含み、現在のフォーカスは第1ユーザインターフェースオブジェクトにある。
ディスプレイが、ユーザインターフェースを提示している間、電子デバイスは、非アクティブ基準を満たすと判定する(904)。いくつかの実施形態では、ユーザ入力が、電子デバイス又は電子デバイスと通信する他のデバイス(例えば、リモートコントロール5001)により、予め定められた時間検出されないとき、非アクティブ基準を満たす(906)。いくつかの実施形態では、電子デバイス又は電子デバイスと通信するリモートコントロールが、リモートコントロールは止まっていることを検出したとき、非アクティブ基準を満たす(908)。いくつかの実施形態では、他のデバイスは、リモートコントロールである。いくつかの実施形態では、リモートコントロールは、リモートコントロールが移動中(例えば、リモートコントロールがユーザの手にあり、ユーザの手の動きに応じて動く)か、又は、静止している(例えば、リモートコントロールがテーブルなどの安定した面に置かれた)かを検出する加速度計を含む。いくつかの実施形態では、リモートコントローラは、リモートコントローラが置かれたことを検出するよう構成された接触スイッチを含む。
非アクティブ基準を満たすとの判定に応じて、電子デバイスは、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別するためのデータを提供する(例えば、図5UUに示すように、アイコン5015−dは、ユーザインターフェースの残りの部分を薄暗くすることによりユーザインターフェースの残りの部分から視覚的に区別される)(910、図9B)。いくつかの実施形態では、非アクティブ基準を満たさず、かつ、現在のフォーカスが各ユーザインターフェースオブジェクトにある間に、各ユーザインターフェースオブジェクトは、第1態様以外の1つ以上の態様で、複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトから視覚的に区別される。例えば、図5TTにおいてアイコン5015−dが他のアイコンから視覚的に区別される(例えば、アイコン5015−dは拡大される)が、図5TTにおいてアイコン5015−dが他のアイコンから視覚的に区別される方法は、図5UUにおいてアイコン5015−dが残りのユーザインターフェースから視覚的に区別される手法(例えば、残りのユーザインターフェースを薄暗くすることによる)とは異なる。
いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト(図5UUにおけるアイコン5015−d)を強調することを含む(912)。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトを強調せずに表示することを含む。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト以外の複数のユーザインターフェースオブジェクトを強調せずに表示することを含む。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することをやめることは、第1ユーザインターフェースオブジェクトの強調を取り除くことを含む。
いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト以外のユーザインターフェースの1つ以上の部分を薄暗くすること(例えば、図5UUにおけるユーザインターフェースの残りの部分が薄暗くなる)を含む(914)。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト以外の複数のユーザインターフェースオブジェクトを薄暗くすることを含む。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することをやめることは、第1ユーザインターフェースオブジェクトに対応していないユーザインターフェースの1つ以上の部分の薄暗さを取り除くことを含む。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することをやめることは、第1ユーザインターフェースオブジェクト以外の複数のユーザインターフェースオブジェクトの薄暗さを取り除くことを含む。
いくつかの実施形態では、ダークスクリーン基準を満たすと判定することに応じて、電子デバイスは、ディスプレイに、空白画面を表示するためのデータを提供する(例えば、図5XXにおいて、空白画面をディスプレイ450上に示す)(916)。いくつかの実施形態では、ユーザ入力が電子デバイス又は電子デバイスと通信する他のデバイス(例えば、リモートコントロール)により予め定められた第2時間検出されないとき、ダークスクリーン基準を満たす。ダークスクリーン基準の一部である予め定められた第2時間は、典型的には、非アクティブ基準の一部である予め定められた時間よりも長時間である。
いくつかの実施形態では、ダークスクリーン基準を満たすとの判定に応じて、電子デバイスは、ディスプレイに、第1ユーザインターフェースオブジェクトを含むユーザインターフェース全体を薄暗くするためのデータを提供する(例えば、図5WWにおいて、ユーザインターフェース全体が薄暗くなる)(918)。
ディスプレイに第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別するためのデータを提供した後に、電子デバイスは、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイス(例えば、リモートコントロール)とのやりとりを検出する(例えば、リモートコントロールを上に上げること、リモートコントロールのタッチ感知面に触れること、又は、リモートコントロールのボタンを押すことを検出する)(920)。ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出することに応じて、電子デバイスは、ディスプレイに、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別することをやめさせるためのデータを提供する。例えば、図5YYに示すように、(例えば、リモートコントロール5001内のジャイロスコープ又は加速度計を用いて)リモートコントロール5001を持ち上げるユーザを検出すると、視覚的な区別の表示(例えば、アイコン5015−d以外のユーザインターフェースを薄暗くすること)をやめる。
いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクトのサイズを第1サイズから第2サイズへ大きくすることを含む(922)。例えば、現在のフォーカスがアイコン5015−dに移動する場合アイコン5015−dは拡大されるが、図5VVに示すように、非アクティブ基準を満たす場合アイコン5015−dは更に拡大される。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトのサイズを小さくすることを含む。いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト以外の複数のユーザインターフェースオブジェクトのサイズを小さくすることを含む。
いくつかの実施形態では、第1態様で第1ユーザインターフェースオブジェクトを視覚的に区別することをやめることは、第1ユーザインターフェースオブジェクトのサイズを縮小して第1サイズにすることを含む(例えば、図5VVに示すように、拡大したアイコン5015−dが表示されている間に、リモートコントロール5001を持ち上げるユーザをデバイスが検出すると、図5YYに示すようにアイコン5015−dのサイズが縮小される)(924)。
図9A〜9Bにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、700、800、1000、1100及び1200)は、また、図9A〜図9Bに関連して上述されている方法900に類似の方法で適用可能であることを留意されたい。例えば、方法900を参照して上述されたユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスは、本明細書に記載されている他の方法(例えば、方法600、700、800、1000、1100及び1200)を参照して本明細書で説明されているユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスの特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
図10A〜図10Cは、いくつかの実施形態による、メディア提示オプションを選択する方法1000を示すフロー図である。方法1000は、ディスプレイと通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、電子デバイスは、タッチ感知面を有するユーザ入力デバイス(例えば、リモートコントロールなどのリモートユーザ入力デバイス)と通信する。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスと一体化している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスとは別個である。方法1000の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法1000は、メディア提示オプションを選択する効率的な方法を提供する。本方法は、メディアコンテンツを通じてナビゲートする場合にユーザからのインプットの数、範囲及び/又は特性を軽減することにより、より効率的なヒューマンマシンインターフェースを作り出す。バッテリ式電子デバイスの場合、ユーザがメディア提示オプションをより迅速でより効率的に選択できるようにすることにより、電力が節約され、バッテリ充電間隔が長くなる。
いくつかの実施形態では、デバイスは、ディスプレイに、第1メディアコンテンツアイテム(例えば、映画など)に対するメディア情報ユーザインターフェースを提示するためのデータを提供する(1002)。例えば、図5ZZにおける映画ポスターアイコン5062−aを(例えば、タップジェスチャ5428により)アクティブにすることに応じて、図5AAAに示すように、映画「グレートクライム」についての作品ページビュー5090が表示される。第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースは、第1メディアコンテンツアイテムについての各メディアソース(例えば、図5AAAにおけるメディアソースアイコン5092−aから5092−eなどの、iTunes、第1の第三者ストリーミングサービスプロバイダ、第2の第三者ストリーミングサービスプロバイダなど)に対応する複数のメディアソースオブジェクトを含む。複数のメディアソースオブジェクトの第1メディアソースオブジェクトは、第1メディアソースオブジェクトの選択を示すように視覚的に区別される(例えば、図5AAAにおいて、アイコン5092−aは、アイコン5092−bから5092−eとは視覚的に区別される)。第1メディアソースオブジェクトは、第1メディアソースに対応する(例えば、アイコン5092−aは、ムービーフリックス映画ストリーミングサービスに対応する。)第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースは、第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セット(例えば、メディア管理アイコン5093−aから5093−c)も含む。メディア管理オブジェクトの第1セットは、第1メディアコンテンツアイテム及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む。メディア管理オブジェクトの第1セットは、複数のオブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトをアクティブにすることで、プレビュー、第1ソフトウェアアプリケーションでの再生、第2ソフトウェアアプリケーションでの閲覧、レンタル、購入、又は、対応するメディアコンテンツアイテムをウォッチリストに追加することなどの、対応するメディアコンテンツアイテムについての対応するメディア管理機能を開始する。いくつかの実施形態では、メディア提示オプションをアクティブにすることで、特定のオプションに従い、対応するメディアコンテンツアイテムの提示を開始する。例えば、「プレビュー」アイコン(例えば、アイコン5093−a)をアクティブにすることで、対応するメディアコンテンツアイテムのプレビューを提示し始める。例えば、「再生」アイコンをアクティブにすることで、第1ソフトウェアアプリケーションで、対応するメディアコンテンツを再生し始める。例えば、「閲覧」アイコンをアクティブにすることで、第1ソフトウェアアプリケーションとは別個の第2ソフトウェアアプリケーションで対応するメディアコンテンツアイテムの閲覧を開始する。いくつかの実施形態では、第2ソフトウェアアプリケーションで対応するメディアコンテンツアイテムの閲覧を開始することは、第2アプリケーションで第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを表示することを含む。いくつかの実施形態では、第2ソフトウェアアプリケーションで対応するメディアコンテンツアイテムの閲覧を開始することは、第2アプリケーションで第1メディアコンテンツアイテムの再生を開始することを含む。
いくつかの実施形態では、複数のメディアソースオブジェクトは、予め定められたソース順序付け基準(例えば、第1メディアコンテンツアイテムを再生するコスト、及び、ビデオ解像度、フレームレート、広告が含まれるか否かなどの第1メディアコンテンツアイテムの品質に基づく)に従い判定された順序を有する(1004)。例えば、図5AAAにおいて、映画「グレートクライム」は、対応するメディアソースから無料で取得可能なので、アイコン5092−aは、アイコン5092−aから5092−eのうちの第1位置を有する。
いくつかの実施形態では、複数のメディアソースオブジェクトは、アクティブになると、第1メディアコンテンツアイテムに対する追加ソースに対応する追加ソースオブジェクトのリストを表示し始める追加ソースオブジェクト(例えば、図5AAAにおけるアイコン5092−f)を含む(例えば、アイコン5092−fのアクティブ化は、図5HHHに示すソース選択インターフェース5098の表示を開始する)(1006)。
いくつかの実施形態では、メディア情報ユーザインターフェースは、第1メディアコンテンツアイテムとは別個の一組のメディアコンテンツアイテム(例えば、推奨される映画/テレビショー)に対応する一組のメディアオブジェクトを含む(例えば、図5AAAの作品ページビュー5090は、映画「グレートクライム」とは異なる「これも見られています」映画アイコンを含む)(1008)。
いくつかの実施形態では、メディア情報ユーザインターフェースが第1ソフトウェアアプリケーション(例えば、ユーザがひとつの専売ソースのみからメディアコンテンツアイテムにアクセスできるようにする代わりに、ユーザが複数のメディアソースからメディアコンテンツアイテムにアクセスできるようにする、図3のビデオ及びミュージックプレーヤモジュール152などの統合メディア提示アプリケーション)のユーザインターフェースであり(1010)、メディア提示オプションオブジェクトは、アクティブになると(例えば、現在のフォーカスがアプリケーション内再生オブジェクトに表示されている間のリモートユーザ入力デバイスのタッチ感知面でのタップにより)、ディスプレイに、第1ソフトウェアアプリケーションのユーザインターフェースにおいて第1メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータの提供を開始するアプリケーション内再生オブジェクト(例えば、図5AAAにおける再生ボタン5093−b)を含む(例えば、図5BBBに示すように、タップジェスチャ5450に応じて、ビデオ再生ビュー5300が表示されて映画「グレートクライム」の再生を提示する)。メディア情報ユーザインターフェースは、アクティブになると(例えば、現在のフォーカスがアプリケーション外再生オブジェクトに表示されている間のリモートユーザ入力デバイスのタッチ感知面でのタップにより)、第1ソフトウェアアプリケーションとは別個で第1メディアソース(第2ソフトウェアアプリケーションのユーザインターフェースにおいて第1メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのもの)に関連付けられた第2ソフトウェアアプリケーションの起動を開始するアプリケーション外再生オブジェクト(例えば、図5AAAにおける「ムービーフリックスで閲覧」ボタン5093−c)も含む(例えば、図5JJJに示すように、タップジェスチャ5460に応じて、図3の第1ビデオ再生モジュール392などの第三者ソフトウェアアプリケーションの作品ページビュー5064が表示される)。いくつかの実施形態では、メディア提示オプションオブジェクトは、アクティブにされると(例えば、現在のフォーカスがプレビューオブジェクトに表示されている間のリモートユーザ入力デバイスのタッチ感知面でのタップにより)、ディスプレイに、第1メディアコンテンツアイテムのプレビューを再生するためのデータを提供し始めるプレビューオブジェクトを含む。
ディスプレイがメディア情報ユーザインターフェースを提示している間に、デバイスはユーザ入力(例えば、電子デバイスと通信するリモートコントロール5001でのタップジェスチャ5450)を受信する(1012、図10B)。
ユーザ入力を受信すること(1014)に応じて、ユーザ入力が第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応する(例えば、図5AAAに示すように、現在のフォーカスが第1メディア提示オプションオブジェクトに表示されている間に再生ボタンを押すこと又はタッチ感知面451でタップジェスチャを提供すること)との判定に従い、デバイスは、ディスプレイに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに従い第1メディアソースから受信したデータを用いて第1メディアコンテンツを再生するためのデータ(例えば、ビデオデータ又は他のマルチメディタデータ)のプロビジョンを開始する(例えば、図5BBBに示すように、映画「グレートクライム」のビデオ再生ビュー5300がディスプレイ450で提示される)(1016)。いくつかの実施形態では、本方法は、ユーザ入力の受信に応じて、ユーザ入力が第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットの第2メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイに、第2メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータのプロビジョンを開始することとを含む。
いくつかの実施形態では、ユーザ入力の受信(1014)に応じて、ユーザ入力が複数のメディアソースオブジェクトのうちの、第1メディアソースオブジェクトとは別個の第2メディアソースオブジェクトを選択するリスエストに対応する(例えば、リモートコントロール5001のタッチ感知面451での右スワイプジェスチャ5454)との判定に従い、デバイスはまた、ディスプレイに、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを更新するためのデータを提供する(1018)。いくつかの実施形態では、第1メディアコンテンツアイテムに対する更新されたメディア情報ユーザインターフェースは、第1メディアコンテンツアイテムに対する各メディアソースに対応する複数のメディアソースオブジェクトを含み(例えば、アイコン5092−aから5092−e)、複数のメディアソースオブジェクトのうちの第2メディアソースオブジェクト(例えば、アイコン5092−b)は第2メディアソースオブジェクトの選択を示すように視覚的に区別され、第2メディアソースオブジェクトは第1メディアソースとは別個の第2メディアソースに対応する(例えば、アイコン5092−bはApple iTunesに対応する)。いくつかの実施形態では、第1メディアソースオブジェクトは、更新されたメディア情報ユーザインターフェース内で視覚的に区別されるのをやめる(例えば、アイコン5093−aのサイズが、拡大状態から縮小される)。いくつかの実施形態では、第1メディアコンテンツアイテムに対する更新されたメディア情報ユーザインターフェースは、第1メディアコンテンツアイテム及び第2メディアソースに対応するメディア管理オブジェクトの第2セット(例えば、アイコン5093−a及びアイコン5093−cから5093−f)も含む。メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットとは別個のものである。いくつかの実施形態では、メディア管理オブジェクトの第1セットの表示は、メディア管理オブジェクトの第2セットの表示に置き換えられる。いくつかの実施形態では、メディア管理オブジェクトの第1セットは表示をやめる。いくつかの実施形態では、メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットに含まれていない1つ以上のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セットは、メディア管理オブジェクトの第2セットに含まれていない1つ以上のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第2セットは、1つ以上の共通のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第2セットは、共通のメディア管理オブジェクトを含まない。
いくつかの実施形態では、本方法は、第2ユーザ入力を受信することと、第2ユーザ入力の受信に応じて、第2ユーザ入力がメディア管理オブジェクトの第2セットのうちの特定のメディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、ディスプレイに、特定のメディア提示オプションオブジェクトに対応するメディア提示オプションに従い第2メディアソースから受信したデータを用いて第1メディアコンテンツを再生するためのデータのプロビジョンを開始する(例えば、図5FFFにおけるアイコン5093−d)又は5093−eのアクティブ化により、任意選択の決済確認の後に、Apple iTunesからのデータに基づき、ディスプレイ450で映画「グレートクライム」の表示を開始する)。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、アクティブになると(例えば、現在のフォーカスがレンタルオブジェクトに表示されている間にリモートユーザ入力デバイスのタッチ感知面をタップすることによる)、第2メディアソースから第1メディアコンテンツアイテムをレンタルし始めるレンタルオブジェクト(例えば、図5FFFにおけるアイコン5093−e)を含む(1020)。いくつかの実施形態では、レンタルオブジェクトをアクティブにすることに応じて、第1メディアコンテンツアイテムをレンタルする。いくつかの実施形態では、レンタルオブジェクトをアクティブにすることで、第1メディアコンテンツアイテムをレンタルするためのメディアコンテンツアイテムレンタルユーザインターフェース(例えば、確認ページ)を表示するためのデータを提供し始める。いくつかの実施形態では、レンタルオブジェクトは、アクティブになると、ディスプレイに、第2メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータも提供し始める。いくつかの実施形態では、メディア管理オブジェクトの第2セットは、アクティブになると(例えば、現在のフォーカスが購入オブジェクトに表示されている間にリモートユーザ入力デバイスのタッチ感知面をタップすることによる)、第2メディアソースから第1メディアコンテンツアイテムを購入し始める購入オブジェクト(例えば、図5FFFにおけるアイコン5093−d)も含む。いくつかの実施形態では、購入オブジェクトをアクティブにすることに応じて、第1メディアコンテンツアイテムを購入する。いくつかの実施形態では、購入オブジェクトをアクティブにすることで、第1メディアコンテンツアイテムを購入するためのメディアコンテンツアイテム購入インターフェース(例えば、確認ページ)を表示するためのデータを提供し始める。いくつかの実施形態では、購入オブジェクトは、アクティブになると、ディスプレイに、第2メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータも提供し始める。
いくつかの実施形態では、レンタルオブジェクトは、第2メディアソースから第1メディアコンテンツアイテムをレンタルする価格とともに表示される(例えば、図5FFFにおいて、アイコン5093−eは、2.99ドルのレンタル価格とともに表示される)。いくつかの実施形態では、購買オブジェクトは、第2メディアソースから第1メディアコンテンツアイテムを購入する価格とともに表示される(例えば、図5FFFにおいて、アイコン5093−dは、9.99ドルの購入価格とともに表示される)。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、アクティブになると第1ソフトウェアアプリケーション及び第2ソフトウェアアプリケーションとは別個で、第2メディアソースに関連付けられた第3ソフトウェアアプリケーション(例えば、iTunesソフトウェア)の起動を開始するアプリケーション外再生オブジェクト(例えば、アイコン5093−c)を含む(第3ソフトウェアアプリケーションのユーザインターフェースにおいて第2メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するため)。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、アクティブになると(例えば、現在のフォーカスがウォッチリストオブジェクトに表示されている間にリモートユーザ入力デバイスのタッチ感知面をタップすることによる)、選択されたメディアコンテンツアイテムのリストに第1メディアコンテンツアイテムを追加し始めるウォッチリストオブジェクト(例えば、図5FFFにおけるアイコン5093−f)を含む(1022)。
いくつかの実施形態では、ディスプレイがメディアコンテンツブラウザユーザインターフェースを表示している間に、デバイスは、第1メディアコンテンツアイテムの選択を受信し(1024、図10C)、ディスプレイがメディアコンテンツブラウザユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信することに応じて、ディスプレイに、メディアコンテンツブラウザユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供する(例えば、図5ZZから5AAAに示すように、作品ページビュー5090は、図5ZZにおけるホーム画面5018のアイコン5062−aのアクティブ化に応じて表示される)。ディスプレイが検索ユーザインターフェースを表示している間に、デバイスは、第1メディアコンテンツアイテムの選択を受信し、ディスプレイが検索ユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信することに応じて、ディスプレイに、検索ユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供する(例えば、図5KKKから5LLLに示すように、作品ページビュー5090は、サーチページビュー5066におけるアイテムリストの選択に応じて表示される)。ディスプレイがメディアコンテンツストアユーザインターフェースを表示している間に、デバイスは、第1メディアコンテンツアイテムの選択を受信し、ディスプレイがメディアコンテンツストアユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信することに応じて、ディスプレイに、メディアコンテンツストアユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供する(例えば、図5MMMから図5NNNに示すように、作品ページビュー5090は、メディアコンテンツストアビュー5060におけるメディアコンテンツアイコンの選択に応じて表示される)。
図10A〜図10Cにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、700、800、900、1100及び1200)は、また、図10A〜図10Cに関連して上述されている方法1000に類似の方法で適用可能であることを留意されたい。例えば、方法1000を参照して上述されたユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスは、本明細書に記載されている他の方法(例えば、方法600、700、800、900、1100及び1200)を参照して本明細書で説明されているユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスの特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、ここでは繰り返さない。
図11A〜図11DCは、いくつかの実施形態による、メディア提示オプションを選択する方法1100を示すフロー図である。方法1100は、ディスプレイと通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)において実行される。いくつかの実施形態では、電子デバイスは、タッチ感知面を有するユーザ入力デバイス(例えば、リモートコントロールなどのリモートユーザ入力デバイス)と通信する。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスと一体化している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスとは別個である。方法1100の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法1100は、メディア提示オプションを選択する効率的な方法を提供する。本方法は、メディアコンテンツを通じてナビゲートする場合にユーザからのインプットの数、範囲及び/又は特性を軽減することにより、より効率的なヒューマンマシンインターフェースを作り出す。バッテリ式電子デバイスの場合、ユーザがメディア提示オプションをより迅速でより効率的に選択できるようにすることにより、電力が節約され、バッテリ充電間隔が長くなる。
デバイスは、ディスプレイに、第1メディアプログラム(例えば、「SadMen」などのテレビシリーズ)に対する第1メディア情報ユーザインターフェースを提示するためのデータを提供する(1102)。第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクト(例えば、図5OOOにおけるアイコン5095−aから5095−eなどの、iTunes、第1の第三者ストリーミングサービスプロバイダ、第2の第三者ストリーミングサービスプロバイダ、テレビチャンネルなど)を含む。複数のメディアソースオブジェクトのうちの各メディアソースオブジェクトは、第1メディアプログラムに対する各メディアソースに対応し、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する。いくつかの実施形態では、第1メディアプログラムに対するメディア情報ユーザインターフェースは、1つ以上のエピソードオブジェクト(例えば、図5OOOにおけるアイコン5097−aから5097−d)も含み、1つ以上のエピソードオブジェクトは、第1メディアソースから入手可能な第1メディアプログラムに対する1つ以上エピソードに対応し、1つ以上のエピソードオブジェクトの第1エピソードオブジェクト(例えば、図5OOOにおけるアイコン5097−a)は、第1エピソードオブジェクトの選択を示すように視覚的に区別され、第1エピソードオブジェクトは第1メディアプログラムの第1エピソードに対応する。いくつかの実施形態では、各エピソードオブジェクトは、対応するエピソードのサムネイルを含む。加えて、第1メディアプログラムに対するメディア情報ユーザインターフェースは、第1エピソードに対するメディア管理オブジェクトの第1セット(例えば、図5OOOにおけるアイコン5096−aから5096−c)を含む。メディア管理オブジェクトの第1セットは、第1エピソード及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクト(例えば、再生アイコン5096−a)を含む。
いくつかの実施形態では、メディア管理オブジェクトの第1セットは、アクティブになると(例えば、現在のフォーカスがエピソード購入オブジェクトに表示されている間にリモートユーザ入力デバイスのタッチ感知面をタップすることによる)、第1メディアソースから第1メディアコンテンツプログラムの第1エピソードを購入し始めるエピソード購入オブジェクト(例えば、図5PPPにおけるアイコン5096−d)を含む(1104)。いくつかの実施形態では、エピソード購入オブジェクトは、アクティブになると、ディスプレイに、第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータも提供し始める。いくつかの実施形態では、メディア管理オブジェクトの第1セットは、アクティブになると(例えば、現在のフォーカスがシーズン購入オブジェクトに表示されている間にリモートユーザ入力デバイスのタッチ感知面をタップすることによる)、第1メディアソースから第1メディアプログラムの、第1エピソードを含む1シーズンを購入し始めるシーズン購入オブジェクト(例えば、図5PPPにおけるアイコン5096−e)も含む。いくつかの実施形態では、エピソード購入オブジェクトは、アクティブになると、ディスプレイに、第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータも提供し始める。
いくつかの実施形態では、メディア情報ユーザインターフェースが第1ソフトウェアアプリケーションのユーザインターフェースであり(例えば、図3のビデオ及びミュージックプレーヤモジュール152などの統合メディアアプリケーション)(1106)、メディア管理オブジェクトの第1セットは、アプリケーション外再生オブジェクト(例えば、図5QQQにおけるアイコン5096−f)を含み、アプリケーション外再生オブジェクトは、アクティブになると(例えば、現在のフォーカスがアプリケーション外再生オブジェクトに表示されている間のリモートユーザ入力デバイスのタッチ感知面でのタップにより)、第2ソフトウェアアプリケーションのユーザインターフェースにおいて第1メディアソースから受信したデータを用いて第1エピソードを再生するために、第1ソフトウェアアプリケーションとは別個で第1メディアソースに関連付けられた第2ソフトウェアアプリケーションの起動を開始する(例えば、図3における第1ビデオ再生モジュール392)。
ディスプレイがメディア情報ユーザインターフェースを提示している間に、デバイスは(例えば、電子デバイスと通信するリモートユーザ入力デバイスでの)ユーザ入力を受信する(1108)。
ユーザ入力を受信すること(1110)に応じて、ユーザ入力がメディア管理オブジェクトの第1セットのうちの第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応する(例えば、図5PPPに示すように、現在のフォーカスがアイコン5096−dに表示されている間に再生ボタンを押すこと又はリモートコントロール5001のタッチ感知面451でタップジェスチャを提供すること)との判定に従い、デバイスは、ディスプレイに、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに従い第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータ(例えば、ビデオデータ又は他のマルチメディタデータ)のプロビジョンを開始する(1112)。
いくつかの実施形態では、ユーザ入力の受信に応じて、ユーザ入力がメディア管理オブジェクトの第1セットの第2メディア提示オプションオブジェクト(例えば、図5PPPにおけるアイコン5096−e)をアクティブにするためのリクエストに対応するとの判定に従い、デバイスは、ディスプレイに第2メディア提示オプションオブジェクトに対応するメディア提示オプションに従い第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータのプロビジョンを開始する。
いくつかの実施形態では、第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトとは別個の、第1メディアプログラムに対する複数のメディアソースに関連付けられた、一体化したメディアソースオブジェクト(例えば、図5OOOにおけるアイコン5095−a)を含み、ユーザ入力の受信に応じて、ユーザ入力が一体化したメディアソースオブジェクトを選択するリクエストに対応する(例えば、図5QQQに示すようなリモートコントロール5001のタッチ感知面451での左スワイプジェスチャ5472)との判定に従い、デバイスは、ディスプレイに、第1メディアプログラムに対するメディア情報ユーザインターフェースを更新するためのデータを提供する(1114)。第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、複数のメディアソースオブジェクト(例えば、アイコン5095−aから5095−e)と、複数のメディアソースから入手可能な第1メディアプログラムに対する1つ以上のエピソードに対応する1つ以上のエピソードオブジェクト(例えば、アイコン5097−aから5097−d)と、一体化されたメディアソースオブジェクトに関連付けられた複数のメディアソースに対応する1つ以上のメディア管理オブジェクトの第2セット(例えば、アイコン5096−aから5096−c)及び複数のメディアソースから入手可能な第1メディアプログラムについての1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトのうちの選択されたエピソードオブジェクト(例えば、アイコン5097−a)とを含む。いくつかの実施形態では、更新されたメディア情報ユーザインターフェースにおける1つ以上のエピソードオブジェクトは、第1メディアソースから入手可能な第1メディアプログラムについての1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトと同一である。いくつかの実施形態では、更新されたメディア情報ユーザインターフェースにおける1つ以上のエピソードオブジェクトは、第1メディアソースから入手可能な第1メディアプログラムについての1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトとは別個のものである。いくつかの実施形態では、選択されたエピソードオブジェクトは、選択されたエピソードオブジェクトの選択を示すように視覚的に区別される。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットとは別個のものである。いくつかの実施形態では、メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットに含まれていない1つ以上のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セットは、メディア管理オブジェクトの第2セットに含まれていない1つ以上のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第2セットは、1つ以上の共通のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第2セットは、共通のメディア管理オブジェクトを含まない。
いくつかの実施形態では、一体化されたメディアソースオブジェクトは、一体化されたメディアソースオブジェクトの選択を示すように複数のメディアソースオブジェクトとは視覚的に区別される。いくつかの実施形態では、第1メディアソースオブジェクトは、更新されたメディア情報ユーザインターフェースにおいて視覚的に区別されなくなる。
いくつかの実施形態では、1つ以上のメディア管理オブジェクトの第2セットは、アクティブになると、ディスプレイに、一体化されたメディアソースオブジェクトに関連付けられた複数のメディアソースのひとつから受信したデータを用いて、第1エピソードを再生するためのデータのプロビジョンを始める再生オブジェクト(例えば、図5RRRにおけるアイコン5096−a)を含む(1116)。いくつかの実施形態では、複数のメディアソースの1つは、予め定められたソース選択基準に基づいて(例えば、第1エピソードの再生のコストと、ビデオ解像度、フレームレート及び/又は広告があるか否かなどの第1エピソードの品質に基づいて)選択される。
いくつかの実施形態では、第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、有料で入手可能な各エピソードに対応する各エピソードオブジェクトに対するコスト情報を含む(例えば、追加コストなしで(例えば、現存する定期購買により)入手可能なエピソードに対するエピソードオブジェクトは、コスト情報とともに表示されず、追加コストによってのみ入手可能なエピソードに対するエピソードオブジェクトがコスト情報とともに表示される)(1118)。例えば、図5PPPにおいて、アイコン5097−aから5097−cはコスト情報とともに表示され、アイコン5097−dは、アイコン5097−dに関連付けられたエピソードが追加コストなしで入手可能なためコスト情報とともに表示されない。
いくつかの実施形態では、ユーザ入力の受信(1110)に応じて、ユーザ入力が複数のメディアソースオブジェクトのうちの、第1メディアソースオブジェクトとは別個の第2メディアソースオブジェクトを選択するリスエストに対応する(例えば、図5PPPに示すようなリモートコントロール5001のタッチ感知面451での右スワイプジェスチャ5470)との判定に従い、デバイスは、ディスプレイユニットに、第1メディアプログラムに対するメディア情報ユーザインターフェースを更新するためのデータを提供する(1120)。第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトを含み、その中で第2メディアソースオブジェクトは、第2メディアソースオブジェクトの選択を示すように視覚的に区別され(例えば、図5QQQにおいて、アイコン5095−cは、アイコン5095−aから5095−fの中で視覚的に区別される)、第2メディアソースオブジェクトは第1メディアソースとは別個の第2メディアソースに対応する。いくつかの実施形態では、第1メディアソースオブジェクトは、更新されたメディア情報ユーザインターフェースにおいて視覚的に区別されるのをやめる。
いくつかの実施形態では、第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、第1エピソード及び第2メディアソースに対応するメディア管理オブジェクトの第3セットも含む(例えば、図5QQQにおけるアイコン5096−f、5096−b及び5096−c)。メディア管理オブジェクトの第3セットは、メディア管理オブジェクトの第1セットとは別個のものである。いくつかの実施形態では、メディア管理オブジェクトの第1セットは、メディア管理オブジェクトの第3セットに置き換えられる。いくつかの実施形態では、メディア管理オブジェクトの第1セットは表示をやめる。いくつかの実施形態では、メディア管理オブジェクトの第3セットは、メディア管理オブジェクトの第1セットに含まれていない1つ以上のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セットは、メディア管理オブジェクトの第3セットに含まれていない1つ以上のメディア管理を含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第3セットは、1つ以上の共通のメディア管理オブジェクトを含む。いくつかの実施形態では、メディア管理オブジェクトの第1セット及びメディア管理オブジェクトの第3セットは、共通のメディア管理オブジェクトを含まない。
いくつかの実施形態では、第2メディアソースは定期購買ベースのソースである(例えば、ソースは、第1エピソードを再生するためのデータを受信するには、支払済みの定期購読が必要である)。電子デバイスが第2メディアソースに対する定期購読をしていないとの判定に従い、メディア管理オブジェクトの第3セットは、アクティブになると定期購読ユーザインターフェースの表示を開始する定期購読オブジェクトを含む。
いくつかの実施形態では、第1メディアプログラムに対するメディア情報ユーザインターフェースは、第1メディアプログラムについての第1選択シーズン(図5SSSに示すようなシーズン5)を示すシーズン選択オブジェクト(例えば、図5SSSにおけるアイコン5096−b)を含む(1122)。メディア情報ユーザインターフェース内の1つ以上のエピソードオブジェクトは、第1メディアプログラムの第1選択シーズンに対する1つ以上のエピソードに対応する。シーズン選択オブジェクトは、アクティブになると、第1メディアソースから入手可能な、第1メディアプログラムのシーズンのリストを表示し始める(例えば、図5TTTにおけるシーズン選択インターフェース5498)。デバイスは、第1選択シーズンとは別個のシーズンのリストの中から第2選択シーズンの選択を更に受信する(例えば、図5UUUにおいて、現在のフォーカスが第2選択シーズンに対応するユーザインターフェースオブジェクト5498−1に表示されている間に、タップジェスチャ5480又は選択ボタンの押下を受信する)。シーズンのリストの中から第2選択シーズンの選択を受信すること(1124)に応じて、デバイスは、シーズン選択オブジェクトを第2選択シーズンを示すように更新し(例えば、図5VVVにおいて、アイコン5096−bはシーズン1を示す)(1126)、第1メディアプログラムの第1選択シーズンに対する1つ以上のエピソードに対応するメディア情報ユーザインターフェース内の1つ以上のエピソードオブジェクトの表示を、第1メディアプログラムの第2選択シーズンに対する1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトの表示に置き換える(例えば、図5VVVにおいて、アイコン5097−eから5097−hは、アイコン5097−aから5097−dにとって代わる)(1128)。いくつかの実施形態では、1つ以上のエピソードオブジェクトは、選択されたシーズンが完結していれば(例えば、シーズンが終わっていれば)、図5VVVに示すように、対応するエピソードの年代順に配置される(例えば、エピソード1の次にエピソード2、その次にエピソード3など)。これにより、ユーザがエピソードを年代順に視聴しやすくなる。いくつかの実施形態では、1つ以上のエピソードオブジェクトは、選択されたシーズンが続いていれば(例えば、シーズンが終わっていなければ)、図5SSSに示すように、対応するエピソードの逆年代順に配置される(例えば、エピソード1の前にエピソード2、その前にエピソード3)。これにより、ユーザが最新のエピソードを特定しやすくなる。
いくつかの実施形態では、1つ以上のエピソードオブジェクトは、将来のエピソードに対するエピソードオブジェクトを含む。いくつかの実施形態では、将来のエピソードに対するエピソードオブジェクトは、将来のエピソードの放送時間とともに表示される。いくつかの実施形態では、将来のエピソードに対するエピソードオブジェクトは、アクティブになると、将来のエピソードの放送時間についてのリマインダを設定するユーザインターフェースを表示し始める。
いくつかの実施形態では、ディスプレイがメディアコンテンツブラウザユーザインターフェースを表示している間に、デバイスは、第1メディアプログラムの選択を受信し(1130、図11D)、ディスプレイがメディアコンテンツブラウザユーザインターフェースを表示している間に第1メディアプログラムの選択を受信することに応じて、ディスプレイに、メディアコンテンツブラウザユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供し、ディスプレイが検索ユーザインターフェースを表示している間に、第1メディアプログラムの選択を受信し、ディスプレイが検索ユーザインターフェースを表示している間に第1メディアプログラムの選択を受信すると、ディスプレイに、検索ユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供し、ディスプレイが、メディアコンテンツストアユーザインターフェースを表示している間に、第1メディアプログラムの選択を受信し、ディスプレイがメディアコンテンツストアユーザインターフェースを表示している間に第1メディアプログラムの選択を受信すると、ディスプレイに、メディアコンテンツストアユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供する。例えば、動作1024について上述した態様で、テレビ番組「Sad Men」についての作品ページビュー5091は、メディアコンテンツブラウザユーザインターフェース、検索ユーザインターフェース(例えば、図5KKKにおける検索ユーザインターフェース5066)、及び、メディアコンテンツストアユーザインターフェース(例えば、図5MMMにおけるメディアコンテンツストアビュー5060)からアクセスされることがきる。簡潔にするために、この詳細は本明細書で省略する。
図11A〜図11Dにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、700、800、900、1000及び1200)は、また、図11A〜図11Dに関連して上述されている方法1100に類似の方法で適用可能であることを留意されたい。例えば、方法1100を参照して上述されたユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスは、本明細書に記載されている他の方法(例えば、方法600、700、800、900、1000及び1200)を参照して本明細書で説明されているユーザインターフェース、ユーザインターフェースオブジェクト、ユーザ入力及びユーザ入力デバイスの特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細はここでは繰り返さない。
図12A〜図12Eは、いくつかの実施形態による、メディアコンテンツを通じてナビゲートする方法1200を示すフロー図である。方法1200は、ディスプレイと通信する電子デバイス(例えば、図3のデバイス300、又は、図1Aのポータブル多機能デバイス100)で実行される。いくつかの実施形態では、電子デバイスは、タッチ感知面を有するユーザ入力デバイス(例えば、リモートコントロールなどのリモートユーザ入力デバイス)と通信する。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知面はディスプレイ上にあるか又はディスプレイと一体化している。いくつかの実施形態では、ディスプレイはタッチ感知面から分離している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスと一体化している。いくつかの実施形態では、ユーザ入力デバイスは、電子デバイスとは別個である。方法1200の一部の動作が、任意選択的に、組み合わされ、及び/又は、一部の動作の順序が、任意選択的に変えられる。
後述するように、方法1200は、2つの異なる再生ナビゲーションモードを用い、メディアコンテンツを通じてナビゲートする効率的な方法を提供する。本方法は、メディアコンテンツを通じてナビゲートする場合にユーザからの入力の数、範囲及び/又は特性を軽減すること(削減)により、より効率的なヒューマンマシンインターフェースを作り出す。バッテリ式電子デバイスの場合、ユーザがメディアコンテンツを通じてより迅速でより効率的にナビゲートできるようにすることにより、電力が節約され、バッテリ充電間隔が長くなる。
電子デバイスが第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)で動作している(1202)間に、デバイスは、ディスプレイに、表示用の第1ビデオ情報を提供する(1204)。第1ビデオ情報は、ビデオのフレーム、ビデオのタイムラインを表すスクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド(例えば、進行状況再生ヘッド)、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカ(例えば、チャプタマーカ又はスクラッバーバーにおける他のマイルストーンマーカ)の1つ以上に対応する情報を含む。例えば、図5UUUUに示すように、デバイスは、ディスプレイ450に、第1再生ナビゲーションモード又はチャプタ再生ナビゲーションモードに対応する第1ビデオ情報を提供している。この例では、第1ビデオ情報は、ビデオのフレーム、スクラッバーバー5302、第1再生ヘッド5304、及び、複数の再生位置マーカ5314の1つ以上に対応する情報を含む。いくつかの実施形態では、ビデオの1つ以上のフレームは、スクラッバーバーにおける第1再生位置に対応する(例えば、ディスプレイに送られたビデオの1つ以上のフレームが第1再生ヘッド位置周辺に集中する)。いくつかの実施形態では、第1再生ヘッドは、スクラッバーバーにおける現在の再生位置を示し、当該位置でビデオは再生中又は一時停止中である。いくつかの実施形態では、再生位置マーカは、チャプタマーカ又は表示中のビデオのタイムラインにおける他のマイルストーンマーカである。
デバイスが第1再生ナビゲーションモードで動作中に(1202)、デバイスはまた、ユーザによる第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)へ切り替えるためのリクエストに対応する入力を受信する(1206)。例えば、デバイスは、デバイスと通信するタッチ感知面での再生ナビゲーションモード切り替えジェスチャに対応する入力を受信する。例えば、図5UUUUにおいて、ユーザ入力5174(例えば、上向きスワイプジェスチャ)が、ユーザ入力デバイスのタッチ感知面451で検出される。いくつかの実施形態では、ユーザ入力デバイスは、デバイスとは別個のリモートコントロール5001であり、デバイスは、リモートコントローラ5001からユーザ入力5174に対応する信号を受信する。いくつかの実施形態では、デバイス自身が、入力(例えば、デバイス上のボタンの押下)を検出する。いくつかの実施形態では、入力は、タッチ感知面(例えば、面451)で検出されるジェスチャ(例えば、スワイプ、ドラッグ又はタップ)、ボタン押下、又はユーザ入力デバイスでの移動(例えば、リモートコントロール5001を上げること又は下げること)である。いくつかの実施形態では、モード切替ジェスチャは、タッチ感知面上のどこでも行われる。
第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信することに応じて、デバイスは、第1再生ナビゲーションモードでの動作から第2再生ナビゲーションモード(例えば、連続又は細やかな再生ナビゲーションモード)の動作へ遷移する(1208)。例えば、図5VVVVに示すように、図5UUUUに示すユーザ入力5174の受信に応じて、デバイスは、図5UUUUに表示した第1再生ナビゲーションモードでの動作から、図5VVVVに表示した第2再生ナビゲーションモードでの動作に遷移する。いくつかの実施形態では、第1再生ナビゲーションモードは、予め定められた位置マーカ(例えば、チャプタマーカ)に基づきディスプレイ450に表示されているビデオを通じたナビゲーションを可能にする。いくつかの実施形態では、第2再生ナビゲーションモードは、より細やかなスケールで(例えば、秒刻みで又はほんの少し)、ディスプレイ450に表示されているビデオを通じたナビゲーションを可能にする。
デバイスが第2再生ナビゲーションモードで動作している(1210)間に、デバイスは、ディスプレイに、表示用の第2ビデオ情報を提供する(1212)。第2ビデオ情報は、ビデオのフレーム、スクラッバーバー、及び第1再生ヘッドの1つ以上に対応する情報を含む(例えば、図5VVVV)。
いくつかの実施形態では、第2ビデオ情報は、スクラッバーバーにおける第1ナビゲーション位置(例えば、現在の再生位置とは別個で、第2再生ヘッドが指示し、第1ナビゲーション位置を現在の再生位置とすることを示す入力を受信すると第1再生ヘッド5304が移動する先である、スクラッバーバー5302における位置)を示す第2再生ヘッド(例えば、第2再生ヘッド5308)に対応する情報を含む(1214、図12B)。いくつかの実施形態では、第2ビデオ情報は、スクラッバーバーにおける第1ナビゲーション位置を示すテキストを含む(1216)。例えば、図5WWWWに示すように、第2ビデオ情報は、第2再生ヘッド5308及び第2再生ヘッドテキスト5312に対応する情報を含む。第2再生ヘッド5308は、第1再生ヘッドを第2再生ヘッドの位置へ移動するリクエストに対応する入力を受信すると第1再生ヘッドが移動する先である、スクラッバーバーにおける位置(又は表示中のビデオのタイムライン)を示す(例えば、図5XXXXにおいて、第1再生ヘッド5304は、図5WWWWに示すようなユーザ入力5179に応じて第2再生ヘッド5308の位置へ移動する)。
いくつかの実施形態では、第2ビデオ情報は、プレビュー区画(例えば、図5VVVVにおけるプレビュー区画5310)に対応する情報を含む(1218)。いくつかの実施形態では、プレビュー区画は、スクラッバーバーにおける第2再生ヘッドに隣接した(例えば、上に)表示用に構成される。プレビュー区画は、スクラッバーバーでの第2再生ヘッドのナビゲーション位置に対応するビデオの1つ以上のフレームを含む。いくつかの実施形態では、プレビュー区画はまた、1つ以上のフレームに対するメタデータを含む(例えば、タイムスタンプ、サブタイトルなど)。例えば、図5CCCCは、プレビュー区画5310の表示を示す。この例では、プレビュー区画5310を表示するための情報は、少なくとも、第2再生ヘッド5308と第2再生ヘッドテキスト5312に対応する現在表示されているフレームを含む。この例では、第2再生ヘッド5308及び第2再生ヘッドテキスト5312は、第1再生ヘッド5304と同様に、スクラッバーバー5302における同じ場所に対応し(例えば、プレビュー区画5310を表示するとすぐに)、そのためプレビュー区画5310はビデオのフレームを、フレームがビデオ再生ビュー5300に表示されるのと同時に表示する。いくつかの実施形態では、第1ビデオ情報はまた、プレビュー区画に対応する情報を含む。
いくつかの実施形態では、プレビュー区画5310は、第2再生ヘッド5308に続き、第2再生ヘッド5308は、プレビュー区画5310の下に集中するようになる。この例は図5DDDDでみることができる。一方、図5CCCCでみられるように、いくつかの実施形態では、プレビュー区画5310は、第2再生ヘッド5308からオフセットされて表示される(例えば、プレビュー区画5310は、第2再生ヘッド5308に対して中心を外される)。この例では、第2再生ヘッド5308はスクラッバーバー5302に沿って左に大きくそれて表示され、プレビュー区画5310は第2再生ヘッド5308の上に表示され、このときプレビュー区画5308の1つのエッジがディスプレイ450又はビデオ再生ビュー5300の1つのエッジに沿って表示されるようにする。いくつかの実施形態では、第2再生ヘッド5308が第1方向に(例えば、右側へ向かって)移動する間、第2再生ヘッド5308がプレビュー区画5310に対して中心に置かれるまで、プレビュー区画5310は固定位置(例えば、ディスプレイ450の最も左のエッジ又は最も右のエッジ)に表示されたままであり、中心に置かれたときプレビュー区画5310及び第2再生ヘッド5308の双方が第1方向へ移動する。
いくつかの実施形態では、デバイスは、プレビュー区画を表示するためのリクエストに対応する入力を受信し(1220)、プレビュー区画を表示するためのリクエストに対応する入力を受信することに応じて、ディスプレイに、表示用の、プレビュー区画に対応する情報を提供する。例えば、図5BBBB及び5CCCCに示すように、ユーザ入力5159(例えば、タップジェスチャ)が、タッチ感知面451で検出され(例えば、デバイス100又は300がこの入力に対応する信号を受信する)、ユーザ入力5159の受信に応じて、図5CCCCに示すようにプレビュー区画5310及び第2再生ヘッド5308がビデオ再生ビュー5300に表示される。
デバイスが第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作している間に(1210)、デバイスは、ディスプレイに、ビデオ内での予め定められた再生位置を示す複数の再生位置マーカに対応する情報を提供することをやめる(1222、図12A)。例えば、図5UUUUにおいて、ユーザ入力5174が検出されたとき、デバイスは第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)で動作している。図5VVVVは、ユーザ入力5174の受信に応じて、デバイスが第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)に入り、(図5UUUUに示すような)複数の再生位置マーカ5314を表示するのをやめることを示す。
いくつかの実施形態では、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作している間に、デバイスは、第2再生ヘッドを先へ移動するためのリクエストに対応する入力(例えば、右方向へのスワイプジェスチャ、デバイスと通信するタッチ感知面の右側の予め定められた領域におけるタップジェスチャ、若しくはタッチ感知面での他の同様のジェスチャに対応する入力、又は、デバイスと通信するリモートコントロールの早送りボタンのアクティブ化など)を受信する(1224、図12C)。デバイスは、第2再生ヘッドを先へ移動するためのリクエストに対応する入力を受信することに応じて、ディスプレイに、スクラッバーバーにおいて第2再生ヘッドを先へ(例えば、入力の大きさに対応する分だけ、任意選択的にはコンテンツ内のチャプタ区切り又はセクション区切りなく)連続的に進めるためのデータを提供する。いくつかの実施形態では、第2再生ヘッドは、入力が検出され、その後入力が終わって停止するまでの間、連続的に進む。いくつかの実施形態では、図5VVVV〜図5WWWWに示すように、第2再生ヘッドは、別個のユーザ入力が検出されるまで進む。例えば、図5CCCCにおいて、デバイスが第2再生ナビゲーションモードで動作している間に、ユーザ入力5158が検出される。この例では、ユーザ入力5158の受信に応じて、第2再生ヘッド5308、プレビュー区画5310及び第2再生ヘッドテキスト5312が、図DDDD及び図5EEEEに示すように、ユーザー入力5158の移動によりスクラッバーバー5302に沿って先へ移動する。いくつかの実施形態では、第2再生ヘッドを先へ移動することは、第2再生ヘッドをビデオ再生ビュー5300に表示されたビデオのタイムラインレプリゼンテーションに沿って時間的に進めることを含む。
いくつかの実施形態では、第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)で動作している間に、デバイスは、第2再生ヘッドを先へ移動するためのリクエストに対応する入力を受信する。いくつかの実施形態では、第2再生ナビゲーションモードで動作中に受信したビデオを早送りするためのリクエストに対応する入力は、第1再生ナビゲーションモードで動作中に受信したビデオを早送りするためのリクエストに対応する入力と同じである(例えば、双方の入力は、同じジェスチャ又は同じボタンのアクティブ化に対応する)。いくつかの実施形態では、第2再生ナビゲーションモードで動作中に受信したビデオを早送りするためのリクエストに対応する入力は、第1再生ナビゲーションモードで動作中に受信したビデオを早送りするためのリクエストに対応する入力とは別個のものである(例えば、入力は、異なるジェスチャ又は異なるボタンのアクティブ化に対応する)。デバイスは、第2再生ヘッドを前方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイに、スクラッバーバーにおける第2再生ヘッドを次の再生位置マーカへスキップさせるためのデータを提供する。いくつかの実施形態では、デバイスは、ビデオの1つ以上のフレームに対応する情報がスクラッバー内の次の再生位置マーカに合致するように更新されるビデオ情報を提供する。
いくつかの実施形態では、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作している間に、デバイスは、第2再生ヘッドを後ろへ移動するためのリクエストに対応する入力(例えば、左方向へのスワイプジェスチャ、デバイスと通信するタッチ感知面の左側の予め定められた領域におけるタップジェスチャ、若しくはタッチ感知面での他の同様のジェスチャに対応する入力、又は、デバイスと通信するリモートコントロールの巻戻し/逆送りボタンのアクティブ化など)を受信する(1226)。デバイスは、第2再生ヘッドを後方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイに、スクラッバーバーにおいて第2再生ヘッドを逆方向へ連続的に進めるためのデータを提供する。いくつかの実施形態では、第2再生ヘッドは、入力が検出され、その後入力が終わって停止するまでの間、連続的に後方に移動する。いくつかの実施形態では、第2再生ヘッドは、個別のタップジェスチャ又は個別のボタン押下などの別個のユーザ入力が検出されるまで巻き戻す。いくつかの実施形態では、デバイスは、ビデオの1つ以上のフレームに対応する情報がスクラッバーバー内の第2再生ヘッドの移動に合致するように更新されるビデオ情報を提供する。
いくつかの実施形態では、第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)で動作している間に、デバイスは、第2再生ヘッドを後方へ移動するためのリクエストに対応する入力を受信する。いくつかの実施形態では、第2再生ナビゲーションモードで動作中に受信したビデオを巻戻しするためのリクエストに対応する入力は、第1再生ナビゲーションモードで動作中に受信したビデオを巻戻すためのリクエストに対応する入力と同じである(例えば、双方の入力は、同じジェスチャ又は同じボタンのアクティブ化に対応する)。いくつかの実施形態では、第2再生ナビゲーションモードで動作中に受信したビデオを巻戻しするためのリクエストに対応する入力は、第1再生ナビゲーションモードで動作中に受信したビデオを巻戻すためのリクエストに対応する入力と別個のものである(例えば、入力は、異なるジェスチャ又は異なるボタンのアクティブ化に対応する)。デバイスは、第2再生ヘッドを後方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイに、スクラッバーバーにおける第2再生ヘッドを前の再生位置マーカに後方へスキップさせるためのデータを提供する。例えば、図5IIIIにおいて、デバイスが第2再生ナビゲーションモードで動作している間に、ユーザ入力5192が検出される。この例では、図5JJJJ及び5KKKKに示すように、ユーザ入力5192の受信に応じて、第2再生ヘッド5308、プレビュー区画5310及び第2再生ヘッドテキスト5312がスクラッバーバー5302に沿って逆方向へ移動する。
いくつかの実施形態では、デバイスが、第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)又は第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)のいずれかで動作し、ディスプレイが、スクラッバーバー、第1再生ヘッド、第2再生ヘッド及び第2再生ヘッドに隣接するプレビュー区画を表示している間に、デバイスは、スクラッバーバーの現在の再生位置でビデオの再生を再開するためのリクエストに対応する入力を受信する(1228、図12D)。いくつかの実施形態では、スクラッバーバーにおける現在の再生位置でビデオの再生を再開するためのリクエストに対応する入力を受信することに応じて、デバイスは、ディスプレイに、現在の再生位置での位置又は現在の再生位置に隣接する位置へ移動するプレビュー区画のアニメーションに対応する第3ビデオ情報を提供する。いくつかの実施形態では、プレビュー区画が現在の再生位置での位置又は現在の再生位置に隣接する位置へ移動した後に、デバイスは、プレビュー区画を表示するための情報の提供をやめ、スクラッバーバーにおける現在の再生位置に対応するビデオ内の位置でビデオの再生を再開する。例えば、図5OOOOに示すように、デバイスが第1再生ナビゲーションモード(例えば、チャプタナビゲーションモード)で動作している間に、ユーザ入力5170(例えば、メニューボタン5002のボタン押下)が検出される。図5PPPPから5RRRRに示すように、第1再生ヘッド5304に向かって移動及び大きさが小さくなるプレビュー区画5310のアニメーションに対応した、第3ビデオ情報が表示される。図5SSSSは、プレビュー区画5310が、図5RRRRに示すように、プレビュー区画が現在の再生位置に又は現在の再生位置に隣接する位置に移動した後に表示されなくなり、デバイスが現在の再生位置でビデオの再生を再開することを示す。いくつかの実施形態では、アニメーションはまた、第2再生ヘッドを第1再生ヘッドの場所に戻るよう移動する。いくつかの実施形態では、プレビュー区画が現在の再生位置に又は現在の再生位置に隣接する位置に移動した後に、スクラッバーバー、第1再生ヘッド、第2再生ヘッド、及びプレビュー区画は全て表示されなくなる(例えば、すぐに、又は、0.5秒若しくは1秒などの予め定められた時間後に)。いくつかの実施形態では、スクラッバーバー、第1再生ヘッド、第2再生ヘッド及びプレビュー区画は、プレビュー区画が現在の再生位置に又は現在の再生位置に隣接する位置に移動するにつれてフェードアウトする(又はそうでなれば表示されなくなる)。いくつかの実施形態では、第2再生ヘッドは、指がタッチ感知面上にある間、直接操作により移動する。いくつかの実施形態では、第2再生ヘッドは、指がタッチ感知面から上がった後に、慣性により移動する。いくつかの実施形態では、チャプタモードの間でも、ユーザは、スワイプしてコンテンツを通じてスムーズにナビゲートすることができる(そして、エッジクリックを利用してチャプタ間で切り替えることができる)。
いくつかの実施形態では、デバイスが、第1再生ナビゲーションモード又は第2再生ナビゲーションモードのいずれかで動作し、ディスプレイが、スクラッバーバー、第1再生ヘッド、及び第2再生ヘッドを表示している間に、デバイスは、スクラッバーバーにおける第1ナビゲーション位置でビデオを再生するためのリクエストに対応する入力(例えば、図5WWWWにおけるユーザ入力5179)を受信する(1230)。デバイスは、スクラッバーバーにおける第1再生ナビゲーション位置でビデオを再生するためのリクエストに対応する入力を受信することに応じて、デバイスは、スクラッバーバーにおける第1ナビゲーション位置に対応するビデオ内の位置でビデオの再生を再開する(例えば、図5XXXX)。例えば、図5WWWWに示すように、プレビュー区画5310、第2再生ヘッド5308及び第2再生ヘッドテキスト5312は、スクラッバーバーにおける第1ナビゲーション位置を示す(例えば、1:01:44をビデオ内へ)。図5XXXXに示すように、タッチ感知面451でのユーザ入力5179の検出に対応する信号を受信することに応じて、第1再生ヘッド5304は、第1ナビゲーション位置に対応するスクラッバーバー5302内の場所に移動し、ビデオ再生ビュー5300に表示されたビデオは、第1ナビゲーション位置で再生を再開する。
いくつかの実施形態では、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作中に、デバイスは、ユーザによる第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)へ切り替えるためのリクエストに対応する入力を受信する(1232、図12E)。例えば、デバイスは、デバイスと通信するタッチ感知面での再生ナビゲーションモード切り替えジェスチャに対応する入力を受信する。いくつかの実施形態では、モード切替ジェスチャは、タッチ感知面上のどこでも行われる。いくつかの実施形態では、モード切替ジェスチャは、スワイプジェスチャ又はタップジェスチャである。いくつかの実施形態では、モード切替ジェスチャは、ボタン押下である。デバイスは、第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)へ切り替えるためのリクエストに対応する入力を受信することに応じて、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)での動作から第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)での動作に遷移する。いくつかの実施形態では、デバイスは、ディスプレイに、表示用の第4ビデオ情報を提供する。第4ビデオ情報は、ビデオのフレーム、スクラッバーバー、第1再生ヘッド、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカ(例えば、チャプタマーカ又はスクラッバーバーにおける他のマイルストーンマーカ)の1つ以上に対応する情報を含む。例えば、図5LLLLに示すように、デバイスが第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作している間に、ユーザ入力5194が検出される。ユーザ入力5194に対応する信号の受信に応じて、デバイスは、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)での動作から第1再生ナビゲーションモード(例えば、チャプタ再生ナビゲーションモード)での動作に遷移し、図5MMMMに示すように、複数の再生位置マーカ(例えば、チャプタマーカ)が表示される。
いくつかの実施形態では、第2再生ナビゲーションモード(又は連続再生ナビゲーションモード)での動作中に、デバイスは、再生モードを切り替えるためのリスエストに対応する入力を受信し(1234)、再生モードへ切り替えるためのリクエストに対応する入力を受信することに応じて、デバイスは、第2ナビゲーションモードでの動作から、ディスプレイでビデオを再生する再生モードでの動作に遷移し、スクラッバーバー、第1再生ヘッド及び第2再生ヘッドの表示をやめる。いくつかの実施形態では、複数の再生位置マーカは、再生モードでは表示されない。例えば、図5XXXXにおいて、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)で動作中に、デバイスは、ユーザ入力5178(例えば、タップ及びホールドジェスチャ)の検出に対応する信号を受信する。図5YYYYは、再生モードでの動作への、結果として生じる切り替えを示す。図5YYYYに示すような再生モードでの動作中に、スクラッバーバー5302、第1再生ヘッド5304及び第2再生ヘッド5308などの、図5XXXXにおいて表示された各種ナビゲーション要素は表示をやめる。いくつかの実施形態では、再生モードへ切り替えるためのリクエストにより、第1再生ヘッド及び第2再生ヘッドが崩れはじめ、コンテンツ内の現在の再生位置に対応する1つの再生ヘッドのみが表示される。
いくつかの実施形態では、第1再生ナビゲーションモード(又はチャプタ再生ナビゲーションモード)での動作中に、デバイスは、再生モードを切り替えるためのリスエストに対応する入力を受信し、再生モードへ切り替えるためのリクエストに対応する入力を受信することに応じて、デバイスは、第1ナビゲーションモードでの動作から、ディスプレイでビデオを再生する再生モードでの動作に遷移し、スクラッバーバー及び第1再生ヘッド(並びにもしあれば第2再生ヘッド)の表示をやめる。
いくつかの実施形態では、再生モードで動作中に、デバイスは、ビデオを早送り又は巻戻すためのリクエストに対応する入力を受信する(1236)。いくつかの実施形態では、入力を検出することは、タッチ感知面のエッジでの接触を検出した後の少なくとも予め定められた時間の間、押下ジェスチャを検出すること(例えば、機械式ボタンのクリックを検出すること、又は予め定められた量以上の若しくは予め定められた強度閾値より大きな接触強度上昇を検出すること)を含む。デバイスは、ビデオを早送り又は巻戻しするためのリクエストに対応する入力を受信することに応じて、ディスプレイに、該入力に従い予め定められた時間インターバルだけビデオをスキップするためのデータを提供する。例えば、図5YYYYにおいて、デバイスが再生モードで動作している間に、ユーザ入力5180がサブ領域5208−fで検出される。図5ZZZZは、予め定められた時間増分(例えば、10秒、30秒又は90秒)だけのビデオ再生の前送り(例えば、先へ進めること)を示す。これは、ビデオ再生ビュー5300に表示するように、山にいるヤギのグレッグの位置の変化に注目することで観測できる。いくつかの実施形態では、デバイスは、ユーザによるビデオを早送りするためのリクエストに対応する入力を受信することに応じて、M秒(早送り方向へ)スキップするためのデータを提供する。いくつかの実施形態では、デバイスは、ユーザによるビデオを巻戻すためのリクエストに対応する入力を受信することに応じて、N秒(逆方向へ)スキップするためのデータを提供する。いくつかの実施形態では、Mは1よりも大きい。いくつかの実施形態では、Nは1よりも大きい。いくつかの実施形態では、MはNと同一である(例えば、MとNはともに1である)。いくつかの実施形態では、MはNとは別個のものである。
いくつかの実施形態では、再生モードで動作中に、デバイスは、第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)へ切り替えるためのリクエストに対応する入力を受信する(1238)。例えば、デバイスは、デバイスと通信するタッチ感知面でのモード切り替えジェスチャに対応する入力を受信する。いくつかの実施形態では、モード切替ジェスチャは、タッチ感知面上のどこでも行われる。いくつかの実施形態では、モード切替ジェスチャは、スワイプジェスチャ又はタップジェスチャである。いくつかの実施形態では、モード切替ジェスチャは、ボタン押下である。デバイスは、第2再生ナビゲーションモードへ切り替えるためのリクエストに対応する入力を受信することに応じて、再生モードから第2再生ナビゲーションモード(例えば、連続再生ナビゲーションモード)へ遷移する。例えば、図5AAAAにおいては、ユーザ入力5154が検出される間、デバイスは再生モードで動作している。図5BBBBは、ユーザー入力5154の検出に対応する信号の受信に応じて、デバイスが第2ナビゲーション再生モード(例えば、連続再生ナビゲーションモード)で動作している間に、スクラッバーバー5302、第1再生ヘッド5304、合計時間テキスト5309が表示されることを示す。
図12A〜図12Eにおける動作について記載された特定の順序は単なる例示であり、記載された順序は、動作を実行することができる唯一の順序であることを示すことを意図するものではないことを理解されたい。当業者であれば、本明細書で説明される動作の再順序付けをする様々な方法を認識するであろう。加えて、本明細書に記載の他の方法に関して本明細書で記載されている他のプロセスの詳細(例えば、方法600、700、800、900、1000及び1100)は、また、図12A〜図12Eに関連して上述されている方法1200に類似の方法で適用可能であることを留意されたい。例えば、方法1200を参照して上述されたユーザインターフェース及びユーザ入力は、本明細書に記載されている他の方法(例えば、方法600、700、800、900、1000及び1100)を参照して本明細書で説明されているユーザインターフェース及びユーザ入力の特徴のうちの1つ以上を、任意選択的に有する。簡潔性のために、これらの詳細は、本明細書では繰り返さない。
いくつかの実施形態によれば、図13は、説明される様々な実施形態の原理に従って構成された、電子デバイス1300の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図13で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図13に示すように、電子デバイス1300は、ディスプレイユニット1302及びリモートユーザ入力デバイス1304と通信する。電子デバイス1300は、ディスプレイユニット及びリモートユーザデバイスと通信する処理ユニット1309を含む。いくつかの実施形態では、処理ユニット1309は、データプロビジョンユニット1308、入力受信ユニット1310、判定ユニット1312、退出ユニット1314、及び変更ユニット1319を含む。
処理ユニット1309は、デバイスがスクリーンセーバーモードで動作している間に、ディスプレイユニット1302に、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供し(例えば、データプロビジョンユニット1308で)、ディスプレイユニットが第1視覚モーション効果を含む第1メディアを提示している間に、リモートユーザ入力ユニット1304でのユーザ入力を受信し(例えば、入力受信ユニット1310で)、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力の種別を判定し(例えば、判定ユニット1312で)、リモートユーザ入力ユニット1304でのユーザ入力が第1種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に、スクリーンセーバーモードから抜けることなく、第1視覚モーション効果とは別個の第2視覚モーション効果を含む第1メディアを提示するためのデータを提供し(例えば、データプロビジョンユニット1308で)、リモートユーザ入力ユニット1304でのユーザ入力が第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、スクリーンセーバーモードから抜けさせる(例えば、退出ユニット1314で)。
いくつかの実施形態では、処理ユニット1309は、ユーザ入力が第1種別のものであるとの判定後、ディスプレイユニット1302が第2視覚モーション効果を含む第1メディアを提示している間に、第1種別のユーザ入力がリモートユーザ入力ユニット1304で検出されなくなったことを判定し(例えば、判定ユニット1314で)、第1種別のユーザ入力がリモートユーザ入力ユニット1304で検出されなくなったと判定することに応じて、ディスプレイユニット1302に、第1視覚モーション効果を含むメディアを提示するためのデータを(例えば、データプロビジョンユニット1308を用いて)提供するよう構成される。
いくつかの実施形態では、処理ユニット1309は、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力が第4種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に、第1視覚モーション効果を含む第1メディアを、複数のメディアから選択された、第3視覚モーション効果を含む第2メディアに置き換えるためのデータを(例えば、データプロビジョンユニット1308を用いて)提供するよう構成される。
いくつかの実施形態では、処理ユニット1309は、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力が第3種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に、第1視覚モーション効果を含む第1メディアを、対応する記述的テキストとともに提示するためのデータを(例えば、データプロビジョンユニット1308を用いて)提供するよう構成される。
いくつかの実施形態では、処理ユニット1309は、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力が第5種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に、第1視覚モーション効果を含む第1メディアを、現在時刻及び/又は日付を示す情報とともに提示するためのデータを(例えば、データプロビジョンユニット1308を用いて)提供するよう構成される。
いくつかの実施形態では、電子デバイスは、1つ以上のスクリーンセーバー起動条件を満たすとの判定に従いスクリーンセーバーモードに入り、リモートユーザ入力ユニット1304が止まっているとの判定に従い1つ以上のスクリーンセーバー起動条件が満される。
いくつかの実施形態では、処理ユニット1309は、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力が第2種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に、第1視覚モーション効果を含む第1メディアを、複数のオブジェクトを有するユーザインターフェースに置き換えるためのデータを(例えば、データプロビジョンユニット1308を用いて)提供するよう構成され、複数のオブジェクトは、第1オブジェクトと、ディスプレイユニット1302で第1オブジェクトに隣接する第2オブジェクトとを含み、現在のフォーカスは、複数のオブジェクトの第1オブジェクトにある。
いくつかの実施形態では、処理ユニット1309は、リモートユーザ入力ユニット1304でのユーザ入力を受信することに応じて、リモートユーザ入力ユニット1304でのユーザ入力が第6種別のユーザ入力であるとの判定に従い、ディスプレイユニット1302に第1メディアを提示するための視覚モーション効果を(例えば、変更ユニット1316で)変更するよう構成される。
いくつかの実施形態では、ディスプレイユニット1302に第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することは、ディスプレイユニットに、第1ビデオの再生を提示するためのデータを提供することを含み、処理ユニット1309が、リモートユーザ入力ユニット1304でのユーザ入力が第7種別のユーザ入力であるとの判定に従い、ユーザ入力に従い、第1ビデオの再生方向を(例えば、変更ユニット1316で)変更するよう構成される。
いくつかの実施形態によれば、図14は、説明される様々な実施形態の原理に従って構成された、電子デバイス1400の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図14で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図14に示すように、電子デバイス1400は、ディスプレイユニット1402と通信する。ディスプレイユニット1402は、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。電子デバイス1400は、ディスプレイユニット1402と通信する処理ユニット1404を含む。いくつかの実施形態では、処理ユニット1404は、データプロビジョンユニット1409及び入力受信ユニット1408を含む。
処理ユニット1404は、ディスプレイユニット1402に、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを(例えば、データプロビジョンユニット1406で)提供し、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイユニット上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含み、現在のフォーカスが複数のオブジェクトの第1オブジェクトにあり、ディスプレイユニットがユーザインターフェースを提示している間に、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信し(例えば、入力受信ユニット1408で)、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、ディスプレイユニット1402に、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾け、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ移動し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻し、及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すためのデータを(例えば、データプロビジョンユニット1406で)提供するよう構成される。
いくつかの実施形態では、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、処理ユニット1404は、ディスプレイユニット1402に、ディスプレイユニット1402上で第1ユーザインターフェースオブジェクトのサイズを小さくし、ディスプレイユニット1402上で第2ユーザインターフェースオブジェクトのサイズを大きくするためのデータを(例えば、データプロビジョンユニット1406で)提供するよう構成される。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの名前は、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間、第1インターフェースオブジェクト上に又は第1インターフェースオブジェクトに隣接して表示され、処理ユニット1404は、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第1入力を受信することに応じて、ディスプレイユニット1402に、第1ユーザインターフェースオブジェクトの名前の表示をやめて、第2ユーザインターフェースオブジェクトの名前を、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間、第2インターフェースオブジェクト上に又は第2インターフェースオブジェクトに隣接して表示するためのデータを(例えば、データプロビジョンユニット1406で)提供するよう構成される。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、zオーダに配置された2つ以上の重畳レイヤにおけるグラフィックを含み、各レイヤは第1ユーザインターフェースオブジェクトの傾きに応じてディスプレイユニット上でずれる。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、1つ以上のリフレクションを含み、1つ以上のリフレクションは第1ユーザインターフェースオブジェクトの傾きに応じて変化する。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、1つ以上の色を含み、1つ以上の色は、第1ユーザインターフェースオブジェクトの傾きに応じて変化する。
いくつかの実施形態では、現在のフォーカスの第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへの移動スピードが大きくなるにつれて、第1ユーザインターフェースオブジェクトの第2ユーザインターフェースオブジェクトへ向かう動きの大きさは小さくなる。
いくつかの実施形態では、現在のフォーカスの第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへの移動スピードが大きくなるにつれて、第1ユーザインターフェースオブジェクトの第2ユーザインターフェースオブジェクトへ向かう傾きの大きさは小さくなる。
いくつかの実施形態では、第1入力を受信することに応じて、第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ現在のフォーカスを動かすことは、第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへユーザインターフェースオブジェクトを動かすことなく、なされる。
いくつかの実施形態では、処理ユニット1404は、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間に、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第2入力を(例えば、入力受信ユニット1408で)受信し、ユーザインターフェースで現在のフォーカスを移動するリクエストに対応する第2入力を受信することに応じて、ディスプレイユニット1402に、第2ユーザインターフェースオブジェクトを第2位置から第2ユーザインターフェースオブジェクトに隣接する第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第2方向から第3ユーザインターフェースオブジェクトの方へ傾けるためのデータを(例えば、データプロビジョンユニット1406で)提供し、第2ユーザインターフェースオブジェクトを第2位置から第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第3ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第2ユーザインターフェースオブジェクトから第3ユーザインターフェースオブジェクトへ移動し、第2ユーザインターフェースオブジェクトを第2位置の方へ戻し、及び/又は第2ユーザインターフェースオブジェクトを第2方向へ戻すよう構成される。
いくつかの実施形態では、処理ユニット1404は、現在のフォーカスが第3ユーザインターフェースオブジェクトにある間に、第3入力を受信し(例えば、入力受信ユニット1408で)、第3入力の受信に応じて、ディスプレイユニット1402に、第3ユーザインターフェースオブジェクトを第3位置から第3ユーザインターフェースオブジェクトに隣接する第4ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第3ユーザインターフェースオブジェクトを第3方向から第4ユーザインターフェースオブジェクトの方へ傾けるためのデータを提供し(例えば、データプロビジョンユニット1406で)、第3ユーザインターフェースオブジェクトを第3位置から第4ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第4ユーザインターフェースオブジェクトを第4ユーザインターフェースオブジェクトの方へ傾けた後に、現在のフォーカスを第3ユーザインターフェースオブジェクト上に維持し、第3ユーザインターフェースオブジェクトを第3位置の方へ戻し、及び/又は第3ユーザインターフェースオブジェクトを第3方向へ戻すよう構成される。
いくつかの実施形態によれば、図15は、説明される様々な実施形態の原理に従って構成された、電子デバイス1500の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図15で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図15に示すように、電子デバイス1500は、ディスプレイユニット1502と通信する。ディスプレイユニット1502は、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。電子デバイス1500は、ディスプレイユニット1502と通信する処理ユニット1504を含む。いくつかの実施形態では、処理ユニット1504は、データプロビジョンユニット1509及び入力受信ユニット1508を含む。
処理ユニット1504は、ディスプレイユニット1502に、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを提供し(例えば、データプロビジョンユニット1506で)、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクト、及び、ディスプレイユニット1502上で第1ユーザインターフェースオブジェクトに隣接する第2ユーザインターフェースオブジェクトを含み、現在のフォーカスが複数のオブジェクトの第1オブジェクトにあり、ディスプレイユニットがユーザインターフェースを提示している間、第1入力を受信し(例えば、入力受信ユニット1508で)、第1入力の受信に応じて、ディスプレイユニット1502に、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向から第2ユーザインターフェースオブジェクトの方へ傾けるためのデータを提供し(例えば、データプロビジョンユニット1506で)第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、ディスプレイユニット1502に、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトに移動し、第1ユーザインターフェースオブジェクトを第1位置へ戻すように移動し及び/又は第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾けるためのデータを提供するよう構成される。
いくつかの実施形態では、処理ユニット1504は、第1ユーザインターフェースオブジェクトを第1位置から第2ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第1ユーザインターフェースオブジェクトを第2ユーザインターフェースオブジェクトの方へ傾けた後に、第1入力が第1の現在フォーカスナビゲーション条件を満たさないとの判定に従い、ディスプレイユニット1502に、第1ユーザインターフェースオブジェクトにある現在のフォーカスを維持し、第1ユーザインターフェースオブジェクトを第1位置の方へ戻すように移動し、及び/又は、第1ユーザインターフェースオブジェクトを第1方向へ戻すように傾けるためのデータを(例えば、データプロビジョンユニット1506で)提供するよう構成される。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの名前が、現在のフォーカスが第1ユーザインターフェースオブジェクトにある間、第1インターフェースオブジェクト上に又は第1インターフェースオブジェクトに隣接して表示され、処理ユニット1504は、第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、ディスプレイユニット1502に、第1ユーザインターフェースオブジェクトの名前の表示をやめるためのデータを提供し(例えば、データプロビジョンユニット1506で)、第2ユーザインターフェースオブジェクトの名前を、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間、第2インターフェースオブジェクト上に又は第2インターフェースオブジェクトに隣接して表示するためのデータを提供するよう構成される。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、1つ以上のリフレクションを含み、処理ユニット1504は、第1入力が第1の現在フォーカスナビゲーション条件を満たすとの判定に従い、第1ユーザインターフェースオブジェクトの1つ以上のリフレクションの表示をやめるためのデータを、ディスプレイユニット1502に提供し(例えば、データプロビジョンユニット1506で)、第2ユーザインターフェースオブジェクトの1つ以上のリフレクションを表示するためのデータを提供するよう構成される。
いくつかの実施形態では、処理ユニット1504は、現在のフォーカスが第2ユーザインターフェースオブジェクトにある間に、第2入力を受信し(例えば、入力受信ユニット1508で)、第2入力の受信に応じて、ディスプレイユニット1502に、第2ユーザインターフェースオブジェクトを第2位置から第2ユーザインターフェースオブジェクトに隣接する第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第2方向から第3ユーザインターフェースオブジェクトの方へ傾けるためのデータを提供し(例えば、データプロビジョンユニット1506で)、第2ユーザインターフェースオブジェクトを第2位置から第3ユーザインターフェースオブジェクトへ向けて移動し、及び/又は、第2ユーザインターフェースオブジェクトを第3ユーザインターフェースオブジェクトの方へ傾けた後に、第2入力が第2の現在フォーカスナビゲーション条件を満たすとの判定に従い、ディスプレイユニットに、現在のフォーカスを第2ユーザインターフェースオブジェクトから第3ユーザインターフェースオブジェクトに移動し、第2ユーザインターフェースオブジェクトを第2位置へ戻すように移動し及び/又は第2ユーザインターフェースオブジェクトを第2方向へ戻すように傾けるためのデータを提供するよう構成される。
いくつかの実施形態では、第1の現在フォーカスナビゲーョン条件及び第2の現在フォーカスナビゲーョン条件は別個のものである。
いくつかの実施形態では、第1入力は、ユーザインターフェースにおいて現在のフォーカスを水平に移動するリクエストに対応し、第2入力は、ユーザインターフェースにおいて現在のフォーカスを垂直に移動するリクエストに対応する。
いくつかの実施形態では、第1入力は、同じ種別のユーザインターフェースオブジェクト間で現在のフォーカスを移動するリクエストに対応し、第2入力は、異なる種別のユーザインターフェースオブジェクト間で現在のフォーカスを移動するリクエストに対応する。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトは、前景層から背景層へzオーダに配置された2つ以上の重畳レイヤにおけるグラフィックを含み、各レイヤは第1ユーザインターフェースオブジェクトの傾きに応じてディスプレイユニット1502上でずれる。
いくつかの実施形態では、第1ユーザインターフェースオブジェクトの傾きは、背景層以外で、背景層の境界を越えて広がる2つ以上の重畳レイヤの1つ以上の領域の上記表示を含む。
いくつかの実施形態では、前景層と背景層との間の投影深度は、前景層と背景層との間の介在層の数とは独立している。
いくつかの実施形態では、処理ユニット1504は、現在のフォーカスを第1ユーザインターフェースオブジェクトから第2ユーザインターフェースオブジェクトへ向けて移動することに応じて、ディスプレイユニット1502に、(例えばデータプロビジョンユニット1506で)ディスプレイ上で第1ユーザインターフェースオブジェクトのサイズを小さくし、ディスプレイユニット上で第2ユーザインターフェースオブジェクトのサイズを大きくするためのデータを提供するよう構成され、第2ユーザインターフェースオブジェクトは、前景層から背景層へzオーダに配置された2つ以上の重畳レイヤにおけるグラフィックを含み、ディスプレイユニット1502上で第2ユーザインターフェースオブジェクトのサイズを大きくすることは、2つ以上の重畳レイヤの各レイヤのサイズを対応する拡大率で大きくすることを含み、前景層に対する拡大率は、背景層に対する拡大率より大きい。
いくつかの実施形態によれば、図16は、説明される様々な実施形態の原理に従って構成された、電子デバイス1600の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図16で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に支持する。
図16に示すように、電子デバイス1600は、ディスプレイユニット1602と通信する。ディスプレイユニット1602は、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを表示するよう構成される。電子デバイス1600は、ディスプレイユニット1602と通信する処理ユニット1604を含む。いくつかの実施形態では、処理ユニット1604は、データプロビジョンユニット1609と、判定ユニット1608と、検出ユニット1610とを含む。
処理ユニット1604は、ディスプレイユニット1602に、複数のユーザインターフェースオブジェクトを有するユーザインターフェースを提示するためのデータを(例えば、データプロビジョンユニット1606で)提供し、ここで複数のユーザインターフェースオブジェクトは、第1ユーザインターフェースオブジェクトを含み、現在のフォーカスは第1ユーザインターフェースオブジェクトにあり、ディスプレイユニットが、ユーザインターフェースを提示している間、非アクティブ基準を満たすと判定し(例えば、判定ユニット1608で)、非アクティブ基準を満たすと判定することに応じて、ディスプレイユニット1602に、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別するためのデータを提供し(例えば、データプロビジョンユニット1606で)、ディスプレイユニットに、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別するためのデータを提供した後に、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出し(例えば、検出ユニット1610で)、ユーザによる電子デバイス、又は、電子デバイスと通信する他のデバイスとのやりとりを検出することに応じて、ディスプレイユニット1602に、第1態様の第1ユーザインターフェースオブジェクトを複数のユーザインターフェースオブジェクトのうちの他のユーザインターフェースオブジェクトと視覚的に区別することをやめさせるためのデータを(例えば、データプロビジョンユニット1606で)提供するよう構成される。
いくつかの実施形態では、ユーザ入力が、電子デバイス又は電子デバイスと通信する他のデバイスにより、予め定められた時間検出されないとき、非アクティブ基準を満たす。
いくつかの実施形態では、電子デバイス又は電子デバイスと通信するリモートコントロールが、リモートコントロールは止まっていることを検出したとき、非アクティブ基準を満たす。
いくつかの実施形態では、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクトのサイズを第1サイズから第2サイズへ大きくすることを含む。
いくつかの実施形態では、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別することをやめることは、第1ユーザインターフェースオブジェクトのサイズを第1サイズに小さくすることを含む。
いくつかの実施形態では、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクトを強調することを含む。
いくつかの実施形態では、第1態様の第1ユーザインターフェースオブジェクトを視覚的に区別することは、第1ユーザインターフェースオブジェクト以外のユーザインターフェースの1つ以上の部分を薄暗くすることを含む。
いくつかの実施形態では、処理ユニット1604は、ダーククリーン基準を満たすと判定することに応じて、ディスプレイユニット1602に、空白画面を表示するためのデータを(例えば、データプロビジョンユニット1606で)提供するよう構成される。
いくつかの実施形態では、処理ユニット1604は、ダーククリーン基準を満たすと判定することに応じて、ディスプレイユニット1602に、第1ユーザインターフェースオブジェクトを含むユーザインターフェース全体を薄暗くするためのデータを(例えば、データプロビジョンユニット1606で)提供するよう構成される。
いくつかの実施形態によれば、図17は、説明される様々な実施形態の原理に従って構成された、電子デバイス1700の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図17で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に支持する。
図17に示すように、電子デバイス1700は、ディスプレイユニット1702と通信し、任意選択的に、リモートユーザ入力デバイスユニット1710と通信する。ディスプレイユニット1702は、ビデオ再生情報を表示するよう構成される。電子デバイス1700は、処理ユニット1704を含む。いくつかの実施形態では、処理ユニット1704は、一部の実施形態に従い、表示データプロビジョンユニット1706及び入力受信ユニット1708を含む。
処理ユニット1704は、ディスプレイユニット1702に(例えば、表示データプロビジョンユニット1706を用いて)、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを提示するためのデータを提供するよう構成される。第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースは、(a)第1メディアコンテンツアイテムに対する各メディアソースに対応する複数のメディアソースオブジェクトであり、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する、上記複数のメディアソースオブジェクトと、(b)第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットを含む。メディア管理オブジェクトの第1セットは、第1メディアコンテンツアイテム及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む。
いくつかの実施形態では、複数のメディアソースオブジェクトは、予め定められたソース順序付け基準に従い判定された順序を有する。
いくつかの実施形態では、複数のメディアソースオブジェクトは、アクティブになると、第1メディアコンテンツアイテムに対する追加ソースに対応する追加ソースオブジェクトのリストを表示し始める追加ソースオブジェクトを含む。
いくつかの実施形態では、メディア情報ユーザインターフェースは、第1メディアコンテンツアイテムとは別個の一組のメディアコンテンツアイテムに対応する一組のメディアオブジェクトを含む。
いくつかの実施形態では、メディア情報ユーザインターフェースは第1ソフトウェアアプリケーションのユーザインターフェースであり、メディア提示オプションオブジェクトは、(a)アクティブになると、ディスプレイユニット1702に(例えば、表示データプロビジョンユニット1706を用いて)、第1ソフトウェアアプリケーションのユーザインターフェースにおいて第1メディアソースから(例えば、入力受信ユニット1708で又は任意選択的にリモートユーザ入力デバイスユニット1710に関連して)受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータの提供を開始するアプリケーション内再生オブジェクトと、(b)アクティブになると、第1ソフトウェアアプリケーションとは別個で第1メディアソースに関連付けられた第2ソフトウェアアプリケーションの起動を開始するアプリケーション外再生オブジェクトを含む。
いくつかの実施形態では、処理ユニット1704は、ディスプレイユニット1702がメディア情報ユーザインターフェースを提示している間に、ユーザ入力を(例えば、入力受信ユニット1708で、又は、任意選択的に、リモートユーザ入力デバイスユニット1710に関連して)受信するよう構成される。
いくつかの実施形態では、ユーザ入力の受信に応じて、ユーザ入力が第1メディアコンテンツアイテムに対するメディア管理オブジェクトの第1セットにおける第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、処理ユニット1704は、ディスプレイユニット1702に(例えば、表示データプロビジョンユニット1706を用いて)、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1メディアコンテンツアイテムを再生するためのデータのプロビジョンを開始するよう構成される。
いくつかの実施形態では、ユーザ入力の受信に応じて、ユーザ入力が複数のメディアソースオブジェクトのうちの、第1メディアソースオブジェクトとは別個の第2メディアソースオブジェクトを選択するリスエストに対応するとの判定に従い、処理ユニット1704は、ディスプレイユニット1702に(例えば、表示データプロビジョンユニット1706を用いて)、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースを更新するためのデータを提供するよう構成される。第1メディアコンテンツアイテムに対する更新されたメディア情報ユーザインターフェースは、(a)第1メディアコンテンツアイテムに対する各メディアソースに対応する複数のメディアソースオブジェクトであって、複数のメディアソースオブジェクトのうちの第2メディアソースオブジェクトは第2メディアソースオブジェクトの選択を示すように視覚的に区別され、第2メディアソースオブジェクトが第1メディアソースとは別個の第2メディアソースに対応する、上記複数のメディアソースオブジェクトと、(b)第1メディアコンテンツアイテム及び第2メディアソースに対応するメディア管理オブジェクトの第2セットを含み、メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットとは別個のものである。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、(a)アクティブになると、第2メディアソースから第1メディアコンテンツアイテムをレンタルし始めるレンタルオブジェクトと、(b)アクティブになると、第2メディアソースから第1メディアコンテンツアイテムを購入し始める購入オブジェクトを含む。
いくつかの実施形態では、メディア管理オブジェクトの第2セットは、アクティブになると、第1メディアコンテンツアイテムを選択されたメディアコンテンツアイテムのリストに追加し始めるウォッチリストオブジェクトを含む。
いくつかの実施形態では、処理ユニット1704は、ディスプレイユニット1702がメディアコンテンツブラウザユーザインターフェースを表示している間に、第1メディアコンテンツアイテムの選択を(例えば、入力受信ユニット1708で、任意選択的にリモートユーザ入力デバイスユニット1710に関連して)受信し、ディスプレイユニットがメディアコンテンツブラウザユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信すると、ディスプレイユニット1702に、メディアコンテンツデータブラウザユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供し(表示データプロビジョンユニット1706で)、ディスプレイユニット1702が検索ユーザインターフェースを表示している間に、第1メディアコンテンツアイテムの選択を(例えば、入力受信ユニット1708で、任意選択的にリモートユーザ入力デバイスユニット1710に関連して)受信し、ディスプレイユニット1702が検索ユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信すると、ディスプレイユニット1702に、検索ユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供し(表示データプロビジョンユニット1706で)、ディスプレイユニット1702がメディアコンテンツストアユーザインターフェースを表示している間に、第1メディアコンテンツアイテムの選択を(例えば、入力受信ユニット1708で、任意選択的にリモートユーザ入力デバイスユニット1710に関連して)受信し、ディスプレイユニット1702がメディアコンテンツストアユーザインターフェースを表示している間に第1メディアコンテンツアイテムの選択を受信すると、ディスプレイユニット1702に、メディアコンテンツストアユーザインターフェースの表示を、第1メディアコンテンツアイテムに対するメディア情報ユーザインターフェースに置き換えるためのデータを(表示データプロビジョンユニット1706で)提供するよう構成される。
いくつかの実施形態によれば、図18は、説明される様々な実施形態の原理に従って構成された、電子デバイス1800の機能ブロック図を示す。このデバイスの機能ブロックは、説明される様々な実施形態の原理を遂行するために、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって、任意選択的に実装される。図18で説明される機能ブロックが、説明される様々な実施形態の原理を実施するように、任意選択的に、組み合わされ、又はサブブロックに分離されることが当業者には理解されよう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割、又は更なる定義を、任意選択的に、支持する。
図18に示すように、電子デバイス1800は、ディスプレイユニット1802と通信し、任意選択的に、リモートユーザ入力デバイスユニット1810と通信する。ディスプレイユニット1802は、ビデオ再生情報を表示するよう構成される。電子デバイス1800は、いくつかの実施形態によれば、表示データプロビジョンユニット1806を有する処理ユニット1804、入力受信ユニット1808、購入ユニット1812、及び、起動ユニット1814を含む。
処理ユニット1804は、ディスプレイユニット1802に(例えば、表示データプロビジョンユニット1806を用いて)、第1メディアプログラムに対する第1メディア情報ユーザインターフェースを提示するためのデータを提供するよう構成される。第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトを含む。複数のメディアソースオブジェクトのうちの各メディアソースオブジェクトは、第1メディアプログラムに対する各メディアソースに対応し、複数のメディアソースオブジェクトのうちの第1メディアソースオブジェクトは第1メディアソースオブジェクトの選択を示すように視覚的に区別され、第1メディアソースオブジェクトが第1メディアソースに対応する。第1メディアプログラムに対する第1メディア情報ユーザインターフェースはまた、第1メディアソースから入手可能な第1メディアプログラムに対する1つ以上エピソードに対応する1つ以上のエピソードオブジェクトであって、1つ以上のエピソードオブジェクトの第1エピソードオブジェクトは、第1エピソードオブジェクトの選択を示すように視覚的に区別され、第1エピソードオブジェクトは第1メディアプログラムの第1エピソードに対応する、上記1つ以上のエピソードオブジェクト、及び第1メディアエピソード及び第1メディアソースに対応する1つ以上のメディア提示オプションオブジェクトを含む、第1メディアエピソードに対するメディア管理オブジェクトの第1セットを含む。
いくつかの実施形態では、メディア管理オブジェクトの第1セットは、アクティブになると、第1メディアソースから第1メディアコンテンツプログラムの第1エピソードを(例えば、購入ユニット1812で)購入し始めるエピソード購入オブジェクト、及び/又は、アクティブになると、第1メディアソースから第1メディアプログラムの第1エピソードを含む、1つのシーズンを購入し始めるシーズン購入オブジェクト、を含む。
いくつかの実施形態では、メディア情報ユーザインターフェースは第1ソフトウェアアプリケーションのユーザインターフェースであり、メディア管理オブジェクトの第1セットは、アクティブになると、第1ソフトウェアアプリケーションとは別個で第1メディアソースに関連付けられた第2ソフトウェアアプリケーションの起動を(例えば、起動ユニット1814で)開始するアプリケーション外再生オブジェクトを含む。
いくつかの実施形態では、処理ユニット1804は、ディスプレイユニット1802が(例えば、表示データプロビジョンユニット1806を用いて)メディア情報ユーザインターフェースを提示している間に、ユーザ入力を(例えば、入力受信ユニット1808で、又は、任意選択的に、リモートユーザ入力デバイスユニット1810に関連して)受信するよう構成される。
いくつかの実施形態では、ユーザ入力の受信に応じて、ユーザ入力がメディア管理オブジェクトの第1セットにおける第1メディア提示オプションオブジェクトをアクティブにするためのリクエストに対応するとの判定に従い、処理ユニット1804は、ディスプレイユニット1802に(例えば、表示データプロビジョンユニット1806を用いて)、第1メディア提示オプションオブジェクトに対応するメディア提示オプションに応じて第1メディアソースから受信したデータを用いて第1エピソードを再生するためのデータのプロビジョンを開始するよう構成される。
いくつかの実施形態では、第1メディアプログラムに対するメディア情報ユーザインターフェースは、複数のメディアソースオブジェクトとは別個の、第1メディアプログラムに対する複数のメディアソースに関連付けられた、一体化したメディアソースオブジェクトを含み、処理ユニット1804は、ユーザ入力の受信に応じて、ユーザ入力が体化されたメディアソースオブジェクトを選択するリスエストに対応するとの判定に従い、ディスプレイユニット1802に(例えば、表示データプロビジョンユニット1806を用いて)、第1メディアプログラムに対するメディア情報ユーザインターフェースを更新するためのデータを提供するよう構成される。第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、(a)複数のメディアソースオブジェクトと、(b)複数のメディアソースから入手可能な第1メディアプログラムに対する1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトと、(c)一体化されたメディアソースオブジェクトに関連付けられた複数のメディアソースに対応する1つ以上のメディア管理オブジェクトの第2セット及び複数のメディアソースから入手可能な第1メディアプログラムについての1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトのうちの選択されたエピソードオブジェクトとを含む。いくつかの実施形態では、メディア管理オブジェクトの第2セットは、メディア管理オブジェクトの第1セットとは別個のものであり、一体化されたメディアソースオブジェクトは、該一体化されたメディアソースオブジェクトの選択を示すように複数のメディアソースオブジェクトとは視覚的に区別される。
いくつかの実施形態では、1つ以上のメディア管理オブジェクトの第2セットは、アクティブになると、ディスプレイユニット1802に(例えば、表示データプロビジョンユニット1806を用いて)、一体化されたメディアソースオブジェクトに関連付けられた複数のメディアソースのひとつから受信したデータを用いて、第1エピソードを再生するためのデータのプロビジョンを始める再生オブジェクトを含む。
いくつかの実施形態では、第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、有料で入手可能な各エピソードに対応する各エピソードオブジェクトに対するコスト情報を含む。
いくつかの実施形態では、プロセスユニットは、ユーザ入力の受信に応じて、ユーザ入力が複数のメディアソースオブジェクトのうちの、第1メディアソースオブジェクトとは別個の第2メディアソースオブジェクトを選択するリスエストに対応するとの判定に従い、ディスプレイユニット1802に(例えば、表示データプロビジョンユニット1806を用いて)、第1メディアプログラムに対するメディア情報ユーザインターフェースを更新するためのデータを提供するよう構成される。第1メディアプログラムに対する更新されたメディア情報ユーザインターフェースは、(a)複数のメディアソースオブジェクトであって、第2メディアソースオブジェクトは、第2メディアソースオブジェクトの選択を示すように視覚的に区別され、第2メディアソースオブジェクトは第1メディアソースとは別個の第2メディアソースに対応する、上記メディアソースオブジェクトと、(b)第1エピソード及び第2メディアソースに対応し、メディア管理オブジェクトの第3セットは、メディア管理オブジェクトの第1セットとは別個のものでメディア管理オブジェクトの第3セットを含む。
いくつかの実施形態では、第1メディアプログラムに対するメディア情報ユーザインターフェースは、第1メディアプログラムに対する第1選択シーズンを示すシーズン選択オブジェクトを含む。いくつかの実施形態では、メディア情報ユーザインターフェース内の1つ以上のエピソードオブジェクトは、第1メディアプログラムの第1選択シーズンに対する1つ以上のエピソードに対応する。いくつかの実施形態では、シーズン選択オブジェクトは、アクティブになると、第1メディアソースから入手可能な、第1メディアプログラムのシーズンのリストを表示し始める。いくつかの実施形態では、プロセスユニット1804は、第1選択シーズンとは別個のシーズンのリストの中から第2選択シーズンの選択を更に受信し(例えば、入力受信ユニット1808、又は任意選択的に、リモートユーザ入力デバイスユニット1810に関連して)、シーズンのリストの中から第2選択シーズンの選択を受信することに応じて、シーズン選択オブジェクトを第2選択シーズンを示すように更新し、第1メディアプログラムの第1選択シーズンに対する1つ以上のエピソードに対応するメディア情報ユーザインターフェース内の1つ以上のエピソードオブジェクトの表示を、第1メディアプログラムの第2選択シーズンに対する1つ以上のエピソードに対応する1つ以上のエピソードオブジェクトの表示に置き換えるよう構成される。
いくつかの実施形態では、処理ユニット1804は、ディスプレイユニット1802がメディアコンテンツブラウザユーザインターフェースを表示している間に、第1メディアプログラムの選択を(例えば、入力受信ユニット1808で、任意選択的にリモートユーザ入力デバイスユニット1810に関連して)受信し、ディスプレイユニット1802がメディアコンテンツブラウザユーザインターフェースを表示している間に第1メディアプログラムの選択を受信することに応じて、ディスプレイユニット1802に、メディアコンテンツブラウザユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを(表示データプロビジョンユニット1806で)提供し、ディスプレイユニット1802が検索ユーザインターフェースを表示している間に、第1メディアプログラムの選択(例えば、入力受信ユニット1808で、任意選択的にリモートユーザ入力デバイスユニット1810に関連して)受信し、ディスプレイユニット1802が検索ユーザインターフェースを表示している間に第1メディアプログラムの選択を受信すると、ディスプレイユニット1802に、検索ユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを提供し(表示データプロビジョンユニット1806で)、ディスプレイユニット1802がメディアコンテンツストアユーザインターフェースを表示している間に、第1メディアプログラムの選択を(例えば、入力受信ユニット1808で、任意選択的にリモートユーザ入力デバイスユニット1810に関連して)受信し、ディスプレイユニット1802がメディアコンテンツストアユーザインターフェースを表示している間に第1メディアプログラムの選択を受信すると、ディスプレイユニット1802に、メディアコンテンツストアユーザインターフェースの表示を、第1メディアプログラムに対するメディア情報ユーザインターフェースに置き換えるためのデータを(表示データプロビジョンユニット1806で)提供するよう構成される。
図19に示すように、電子デバイス1900は、ディスプレイユニット1902と通信する。ディスプレイユニット1902は、ビデオ再生情報を表示するよう構成される。電子デバイス1900は、ディスプレイユニット1902と通信する処理ユニット1904を含む。いくつかの実施形態では、処理ユニット1904は、ビデオ情報プロビジョンユニット1909、入力受信ユニット1908、再生ナビゲーションモード遷移ユニット1910、データプロビジョンユニット1912、表示停止ユニット1914、及び再生ユニット1919を含む。
処理ユニット1904は、デバイスが第1再生ナビゲーションモードで動作している間に、ディスプレイユニット1902に、表示用の第1ビデオ情報を提供し(例えば、ビデオ情報プロビジョンユニット1906で)、ここで、第1ビデオ情報は、ビデオのフレーム、ビデオのタイムラインを表すスクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカの1つ以上に対応する情報を含み、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ナビゲーションモードへ切り替えるための、ユーザによるリクエストに対応する入力を受信することに応じて、第1再生ナビゲーションモードでの動作から第2再生ナビゲーションモードの動作へ遷移し(例えば、再生ナビゲーションモード遷移ユニット1910で)、デバイスが第2再生ナビゲーションモードで動作している間に、ディスプレイユニット1902に、表示用の第2ビデオ情報を提供し(例えば、ビデオ情報プロビジョンユニット1906で)、ここで、第2ビデオ情報は、ビデオのフレーム、スクラッバーバー及び第1再生ヘッドの1つ以上に対応する情報を含み、ビデオ内の予め定められた再生位置を示す複数の再生位置マーカに対応する情報の提供をやめさせる(例えば、ビデオ情報プロビジョンユニット1906で)よう構成される。
いくつかの実施形態では、第2ビデオ情報は、スクラッバーバーにおける第1ナビゲーション位置を示す第2再生ヘッドに対応する情報を含む。
いくつかの実施形態では、第2ビデオ情報は、スクラッバーバーにおける第1ナビゲーション位置を示すテキストを含む。
いくつかの実施形態では、処理ユニット1904は、第2再生ナビゲーションモードで動作中に、第2再生ヘッドを先へ移動するリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ヘッドを前方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、スクラッバーバーにおいて第2再生ヘッドを前方向へ連続的に進めるためのデータを提供し(例えば、データプロビジョンユニット1912で)、第1再生ナビゲーションモードで動作中に、第2再生ヘッドを先へ移動するリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ヘッドを前方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、スクラッバーバーにおける第2再生ヘッドを次の再生位置マーカへ前方にスキップさせるためのデータを(例えば、データプロビジョンユニット1912で)提供するよう構成される。
いくつかの実施形態では、処理ユニット1904は、第2再生ナビゲーションモードで動作中に、第2再生ヘッドを後方へ移動するリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ヘッドを後方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、スクラッバーバーにおいて第2再生ヘッドを逆方向へ連続的に移動するためのデータを提供し(例えば、データプロビジョンユニット1912で)、第1再生ナビゲーションモードで動作中に、第2再生ヘッドを後方移動するリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ヘッドを後方に移動するリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、スクラッバーバーにおける第2再生ヘッドを次の再生位置マーカへ後方にスキップさせるためのデータを(例えば、データプロビジョンユニット1912で)提供するよう構成される。
いくつかの実施形態では、処理ユニット1904は、デバイスが第1再生ナビゲーションモード又は第2再生ナビゲーションモードのいずれかで動作し、ディスプレイユニット1902が、スクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド、スクラッバーバーにおける第1ナビゲーション位置を示す第2再生ヘッド及び第2再生ヘッドに隣接するプレビュー区画を表示している間に、スクラッバーバーの現在の再生位置でビデオの再生を再開するためのリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、スクラッバーバーの現在の再生位置でビデオの再生を再開するためのリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、現在の再生位置での位置又は現在の再生位置に隣接する位置へ移動するプレビュー区画のアニメーションに対応する第3ビデオ情報を提供し(例えば、ビデオ情報プロビジョンユニット1906で)、プレビュー区画が現在の再生位置に又は現在の再生位置に隣接する位置に移動した後に、(例えば、表示停止ユニット1914で)プレビュー区画の表示をやめ、スクラッバーバーにおける現在の再生位置に対応するビデオ内の位置でビデオの再生を再開する(例えば、再生ユニット1916で)。
いくつかの実施形態では、処理ユニット1904は、デバイスが第1再生ナビゲーションモード又は第2再生ナビゲーションモードのいずれかで動作し、ディスプレイユニット1902が、スクラッバーバー、スクラッバーバーにおける現在の再生位置を示す第1再生ヘッド、及び、スクラッバーバーにおける第1ナビゲーション位置を示す第2再生ヘッドを表示している間に、スクラッバーバーの第1ナビゲーション位置でビデオの再生するためのリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、スクラッバーバーにおける第1再生ナビゲーション位置でビデオを再生するためのリクエストに対応する入力を受信することに応じて、スクラッバーバーにおける第1ナビゲーション位置に対応するビデオ内の位置でビデオの再生を(例えば、再生ユニット1916で)再開するよう構成される。
いくつかの実施形態では、処理ユニット1904は、第2再生ナビゲーションモードで動作中に、ユーザによる第1再生ナビゲーションモードを切り替えるリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第1再生ナビゲーションモードへ切り替えるためのリクエストに対応する入力を受信することに応じて、第2再生ナビゲーションモードでの動作から第1再生ナビゲーションモードの動作へ遷移し(例えば、再生ナビゲーションモード遷移ユニット1910で)、ディスプレイユニット1902に、表示用の第4ビデオ情報であって、ビデオのフレーム、スクラッバーバー、第1再生ヘッド、及び、第1再生ヘッドとは別個でありビデオにおける予め定められた再生位置を示す複数の再生位置マーカの1つ以上に対応する情報を含む第4ビデオ情報を(例えば、ビデオ情報プロビジョンユニット1906で)提供するよう構成される。
いくつかの実施形態では、処理ユニット1904は、第2再生ナビゲーションモードで動作中に、再生モードを切り替えるリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、再生モードを切り替えるリクエストに対応する入力を受信することに応じて、第2再生ナビゲーションモードでの動作から、ディスプレイユニット1902でビデオを再生して、スクラッバーバー、第1再生ヘッド及び第2再生ヘッドを表示することをやめる再生モードでの動作へ(例えば、再生ナビゲーションモード遷移ユニット1910で)遷移するよう構成される。
いくつかの実施形態では、処理ユニット1904は、再生モードで動作中に、ビデオを早送り又は巻戻しするためのリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、ビデオを早送り又は巻戻しするためのリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、該入力に従い予め定められた時間インターバルだけビデオをスキップするためのデータを(例えば、データプロビジョンユニット1912で)提供するよう構成される。
いくつかの実施形態では、処理ユニット1904は、再生モードで動作中に、第2再生ナビゲーションモードを切り替えるリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、第2再生ナビゲーションモードへ切り替えるためのリクエストに対応する入力を受信することに応じて、再生モードでから第2再生ナビゲーションモードへ(例えば、再生ナビゲーションモード遷移ユニット1910で)遷移するよう構成される。
いくつかの実施形態では、第2ビデオ情報は、プレビュー区画に対応する情報を含み、該プレビュー区画は、スクラッバーバー上の第2再生ヘッドのナビゲーション位置に対応する、ビデオの1つ以上のフレームを含む。
いくつかの実施形態では、処理ユニット1904は、プレビュー区画を表示するリクエストに対応する入力を受信し(例えば、入力受信ユニット1908で)、プレビュー区画を表示するリクエストに対応する入力を受信することに応じて、ディスプレイユニット1902に、プレビュー区画に対応する、表示用の情報を(例えば、ビデオ情報プロビジョンユニット1906で)提供するよう構成される。
図12A〜図12Eを参照して上述された動作は、図1A、1B、又は図19に示される構成要素によって、任意選択的に実施される。例えば、受信する動作1209、遷移する動作1208及び提供する動作1210は、任意選択的に、イベントソータ170、イベント認識部180、及びイベントハンドラ190により実行される。イベントソータ170のイベントモニタ171は、タッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に配布する。アプリケーション136−1の対応のイベント認識部180は、そのイベント情報を対応のイベント定義186と照会し、タッチ感知面上の第1の場所での第1の接触(又は、デバイスの回転)が、ユーザインターフェース上のオブジェクトの選択、又は1つの向きから別の向きへのデバイスの回転などの、既定のイベント又はサブイベントに対応するか否かを判定する。それぞれの既定のイベント又はサブイベントが検出されると、イベント認識部180は、イベント又はサブイベントの検出に関連するイベントハンドラ190をアクティブ化させる。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176若しくはオブジェクトアップデータ177を、任意選択的に用いるか又は呼び出す。いくつかの実施形態において、イベントハンドラ190は、アプリケーションにより表示されるものを更新するためのそれぞれのGUIアップデータ178にアクセスする。同様に、当業者にとって、他の処理が図1A〜図1Bに示されるコンポーネントに基づいてどのように実施されるかは明らかであるだろう。
上述の説明は、説明の目的上、特定の実施形態を参照して説明されている。しかし、上述の例示的説明は、網羅的であること、又は本発明を、開示されている寸分違わない形態に限定することを意図されてはいない。上述の教示を考慮すれば、多くの修正及び変形が可能である。本発明の原理及びその実際的な応用を最良の形で説明し、それによって他の当業者が、及び想到される特定の用途に好適な様々な改良で本発明及び様々な実施形態を最良な形で使用することを可能とするために、これらの実施形態を選択し説明した。

Claims (13)

  1. 1つ以上のプロセッサとメモリとを有し、ディスプレイ及びリモートユーザ入力デバイスと通信する電子デバイスにおいて、
    スクリーンセーバーモードの間に、
    前記ディスプレイに、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することと、
    前記ディスプレイが前記第1視覚モーション効果を含む前記第1メディアを提示している間に、前記リモートユーザ入力デバイスでユーザ入力を受信することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力の種別を判定することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第1種別のユーザ入力であるとの判定に従い、前記ディスプレイに、前記第1視覚モーション効果を含む前記第1メディアを、前記第1メディアに対応する場所と、前記第1メディアに対応する時刻との少なくとも一方を識別する情報を含むテキストとともに提示するためのデータを提供することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が前記第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、前記スクリーンセーバーモードから抜けることと、
    を含む方法。
  2. 前記リモートユーザ入力デバイスで前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第3種別のユーザ入力であるとの判定に従い、前記スクリーンセーバーモードから抜けることなく、前記ディスプレイに、前記第1視覚モーション効果を含む前記第1メディアを、複数のメディアから選択された、第3視覚モーション効果を含む第2メディアに置き換えるためのデータを提供すること、を更に含む、請求項1に記載の方法。
  3. 前記リモートユーザ入力デバイスで前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第4種別のユーザ入力であるとの判定に従い、前記ディスプレイに、前記スクリーンセーバーモードから抜けることなく、第1視覚モーション効果とは別個の第2視覚モーション効果を含む前記第1メディアを提示するためのデータを提供すること、を更に含む、請求項1又は2に記載の方法。
  4. 前記ユーザ入力が前記第4種別のものであるとの判定後、前記ディスプレイが前記第2視覚モーション効果を含む前記第1メディアを提示している間に、前記第4種別の前記ユーザ入力が前記リモートユーザ入力デバイスで検出されなくなったことを判定し、
    前記第4種別の前記ユーザ入力が前記リモートユーザ入力デバイスで検出されなくなったと判定することに応じて、前記ディスプレイに、前記第1視覚モーション効果を含むメディアを提示するためのデータを提供することを含む、請求項3に記載の方法。
  5. 前記リモートユーザ入力デバイスの前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第5種別のユーザ入力であるとの判定に従い、前記ディスプレイに、現在時刻及び/又は日付を示す情報とともに、前記第1視覚モーション効果を含む前記第1メディアを提示するためのデータを提供することを含む、請求項1乃至4の何れか1項に記載の方法。
  6. 前記電子デバイスは、1つ以上のスクリーンセーバー起動条件を満たすとの判定に従い、前記スクリーンセーバーモードに入り、前記リモートユーザ入力デバイスが止まっているとの判定に従い、前記1つ以上のスクリーンセーバー起動条件が満される請求項1乃至5の何れか1項に記載の方法。
  7. 前記リモートユーザ入力デバイスで前記ユーザ入力を受信することに応じて、前記リモートユーザ入力デバイスでの前記ユーザ入力が前記第2種別のユーザ入力であるとの判定に従い、前記ディスプレイに、前記第1視覚モーション効果を含む前記第1メディアを、複数のオブジェクトを有するユーザインターフェースに置き換えるためのデータを提供することを含み、
    前記複数のオブジェクトは、
    第1オブジェクトと、
    前記ディスプレイ上で前記第1オブジェクトと隣接する第2オブジェクトと、を含み、
    現在のフォーカスは、前記複数のオブジェクトの前記第1オブジェクトにある、請求項1乃至6の何れか1項に記載の方法。
  8. 前記リモートユーザ入力デバイスで前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第6種別のユーザ入力であるとの判定に従い、前記ディスプレイに前記第1メディアを提示するための視覚モーション効果を変更することを含む、請求項1乃至7の何れか1項に記載の方法。
  9. 前記ディスプレイに前記第1視覚モーション効果を含む前記第1メディアを提示するためのデータを提供することは、前記ディスプレイに、第1ビデオの再生を提示するためのデータを提供することを含み、
    前記方法は、前記リモートユーザ入力デバイスでの前記ユーザ入力が第7種別のユーザ入力であるとの判定に従い、ユーザ入力に従い、前記第1ビデオの再生方向を変更することを含む、請求項1乃至8の何れか1項に記載の方法。
  10. ディスプレイと、
    タッチ感知面と、
    1つ以上のプロセッサと、
    メモリと、
    1つ以上のプログラムと、を備え、前記1つ以上のプログラムは、前記メモリ内に記憶され、前記1つ以上のプロセッサによって実行されるように構成され、前記1つ以上のプログラムは、
    スクリーンセーバーモードの間に、
    前記ディスプレイに、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することと、
    前記ディスプレイが前記第1視覚モーション効果を含む前記第1メディアを提示している間に、リモートユーザ入力デバイスでユーザ入力を受信することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力の種別を判定することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第1種別のユーザ入力であるとの判定に従い、前記ディスプレイに、前記第1視覚モーション効果を含む前記第1メディアを、前記第1メディアに対応する場所と、前記第1メディアに対応する時刻との少なくとも一方を識別する情報を含むテキストとともに提示するためのデータを提供することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が前記第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、前記スクリーンセーバーモードから抜けることと、を行うための命令を含む、電子デバイス。
  11. 前記1つ以上のプログラムは、請求項2乃至9の何れか1項に記載の方法を実行する命令を更に含む、請求項10に記載の電子デバイス。
  12. ディスプレイ及びタッチ感知面を有する電子デバイスによって実行された場合に、前記電子デバイスに、
    スクリーンセーバーモードの間に、
    前記ディスプレイに、第1視覚モーション効果を含む第1メディアを提示するためのデータを提供することと、
    前記ディスプレイが前記第1視覚モーション効果を含む前記第1メディアを提示している間に、リモートユーザ入力デバイスでユーザ入力を受信することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力を受信することに応じて、
    前記リモートユーザ入力デバイスでの前記ユーザ入力の種別を判定することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が第1種別のユーザ入力であるとの判定に従い、前記ディスプレイに、前記第1視覚モーション効果を含む前記第1メディアを、前記第1メディアに対応する場所と、前記第1メディアに対応する時刻との少なくとも一方を識別する情報を含むテキストとともに提示するためのデータを提供することと、
    前記リモートユーザ入力デバイスでの前記ユーザ入力が前記第1種別とは別個の第2種別のユーザ入力であるとの判定に従い、前記スクリーンセーバーモードから抜けることと、
    を行わせる命令を有するコンピュータプログラム。
  13. 前記電子デバイスによって実行された場合に、前記電子デバイスに、請求項2乃至9の何れか1項に記載の方法を実行させる命令を更に含む、請求項12に記載のコンピュータプログラム。
JP2019075732A 2015-06-18 2019-04-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース Active JP6898964B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021098114A JP7223811B2 (ja) 2015-06-18 2021-06-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2023016289A JP2023065400A (ja) 2015-06-18 2023-02-06 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201562181698P 2015-06-18 2015-06-18
US62/181,698 2015-06-18
US201562215644P 2015-09-08 2015-09-08
US62/215,644 2015-09-08
US14/867,004 US9652125B2 (en) 2015-06-18 2015-09-27 Device, method, and graphical user interface for navigating media content
US14/867,004 2015-09-27
JP2018049850A JP6538223B2 (ja) 2015-06-18 2018-03-16 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018049850A Division JP6538223B2 (ja) 2015-06-18 2018-03-16 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021098114A Division JP7223811B2 (ja) 2015-06-18 2021-06-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Publications (2)

Publication Number Publication Date
JP2019179550A JP2019179550A (ja) 2019-10-17
JP6898964B2 true JP6898964B2 (ja) 2021-07-07

Family

ID=56109829

Family Applications (5)

Application Number Title Priority Date Filing Date
JP2016558207A Active JP6310570B2 (ja) 2015-06-18 2016-05-20 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2018049850A Active JP6538223B2 (ja) 2015-06-18 2018-03-16 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2019075732A Active JP6898964B2 (ja) 2015-06-18 2019-04-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2021098114A Active JP7223811B2 (ja) 2015-06-18 2021-06-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2023016289A Pending JP2023065400A (ja) 2015-06-18 2023-02-06 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016558207A Active JP6310570B2 (ja) 2015-06-18 2016-05-20 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2018049850A Active JP6538223B2 (ja) 2015-06-18 2018-03-16 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021098114A Active JP7223811B2 (ja) 2015-06-18 2021-06-11 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
JP2023016289A Pending JP2023065400A (ja) 2015-06-18 2023-02-06 メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース

Country Status (9)

Country Link
US (7) US9652125B2 (ja)
EP (3) EP3244413B1 (ja)
JP (5) JP6310570B2 (ja)
KR (7) KR102384310B1 (ja)
CN (6) CN110543268B (ja)
AU (2) AU2016100650B4 (ja)
DE (2) DE112016000085B4 (ja)
DK (2) DK178983B1 (ja)
WO (1) WO2016204936A1 (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
USD851663S1 (en) * 2013-04-05 2019-06-18 Thales Avionics, Inc. Display screen or portion thereof with graphical user interface
USD738394S1 (en) * 2013-06-09 2015-09-08 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD741350S1 (en) 2013-06-10 2015-10-20 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN104571786B (zh) * 2013-10-25 2018-09-14 富泰华工业(深圳)有限公司 具有动态拼图界面的电子装置及其控制方法与系统
US10789642B2 (en) 2014-05-30 2020-09-29 Apple Inc. Family accounts for an online content storage sharing service
CN111782129B (zh) 2014-06-24 2023-12-08 苹果公司 用于在用户界面中导航的列界面
KR102076252B1 (ko) 2014-06-24 2020-02-11 애플 인크. 입력 디바이스 및 사용자 인터페이스 상호작용
USD810126S1 (en) * 2014-12-22 2018-02-13 Adtile Technologies Inc. Display screen with motion-activated graphical user interface
US10088993B2 (en) * 2015-04-01 2018-10-02 Ebay Inc. User interface for controlling data navigation
AU2016252993B2 (en) 2015-04-23 2018-01-04 Apple Inc. Digital viewfinder user interface for multiple cameras
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
USD775649S1 (en) * 2015-09-08 2017-01-03 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9990113B2 (en) * 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
USD789980S1 (en) * 2015-12-12 2017-06-20 Adp, Llc. Display screen with graphical user interface
USD789979S1 (en) * 2015-12-12 2017-06-20 Adp, Llc Display screen with graphical user interface
US10397632B2 (en) * 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
US20170329831A1 (en) * 2016-05-11 2017-11-16 Aclipsa Mobile Video Solutions, Llc System and method for analyzing content usage events
US9854156B1 (en) 2016-06-12 2017-12-26 Apple Inc. User interface for camera effects
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
KR102494584B1 (ko) * 2016-08-18 2023-02-02 삼성전자주식회사 디스플레이 장치 및 그 컨텐츠 디스플레이 방법
US11966560B2 (en) * 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
AU2017101431B4 (en) * 2016-10-26 2018-05-17 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
US10976913B2 (en) * 2017-10-12 2021-04-13 Disney Enterprises, Inc. Enabling undo on scrubber/seekbar UI widgets
USD849033S1 (en) * 2017-11-17 2019-05-21 Nnamudi Nam Mokwunye Computer display with graphical user interface
JP6719087B2 (ja) * 2017-12-08 2020-07-08 パナソニックIpマネジメント株式会社 入力装置、及び、入力方法
DK201870346A1 (en) 2018-01-24 2019-09-12 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10540015B2 (en) * 2018-03-26 2020-01-21 Chian Chiu Li Presenting location related information and implementing a task based on gaze and voice detection
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11507619B2 (en) 2018-05-21 2022-11-22 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
US10965985B2 (en) * 2018-05-21 2021-03-30 Hisense Visual Technology Co., Ltd. Display apparatus with intelligent user interface
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device
USD877175S1 (en) 2018-06-04 2020-03-03 Apple Inc. Electronic device with graphical user interface
JP6865721B2 (ja) * 2018-07-27 2021-04-28 任天堂株式会社 プログラム、情報処理装置、情報処理方法、および、情報処理システム
US11526556B2 (en) * 2018-08-06 2022-12-13 Yahoo Assets Llc Presenting content of an application
CN109254706A (zh) * 2018-08-16 2019-01-22 青岛海信电器股份有限公司 一种应用程序图标的位置调整方法及显示终端
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
USD883319S1 (en) 2018-10-29 2020-05-05 Apple Inc. Electronic device with graphical user interface
KR102228788B1 (ko) * 2018-11-07 2021-03-16 주식회사 엘지유플러스 Iptv 서비스를 위한 수신 장치 및 이의 동작 방법
CN109618177B (zh) * 2018-12-26 2020-02-28 北京微播视界科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN109640188B (zh) * 2018-12-28 2020-02-07 北京微播视界科技有限公司 视频预览方法、装置、电子设备及计算机可读存储介质
US11526269B2 (en) * 2019-01-12 2022-12-13 Shanghai marine diesel engine research institute Video playing control method and apparatus, device, and storage medium
WO2020143795A1 (zh) 2019-01-12 2020-07-16 北京字节跳动网络技术有限公司 一种视频上展示信息的方法、装置、设备和存储介质
CN109618206B (zh) * 2019-01-24 2021-11-05 海信视像科技股份有限公司 呈现用户界面的方法和显示设备
USD933699S1 (en) 2019-02-08 2021-10-19 Wayne Fueling Systems Llc Display screen with animated graphical user interface
USD925587S1 (en) 2019-02-08 2021-07-20 Wayne Fueling Systems Llc Display screen with animated graphical user interface
WO2020171107A1 (ja) * 2019-02-19 2020-08-27 株式会社Nttドコモ 情報処理装置
CN114302210A (zh) * 2019-03-24 2022-04-08 苹果公司 用于查看和访问电子设备上的内容的用户界面
CN114115676A (zh) 2019-03-24 2022-03-01 苹果公司 包括内容项的可选表示的用户界面
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11314383B2 (en) * 2019-03-24 2022-04-26 Apple Inc. Stacked media elements with selective parallax effects
CN111901479B (zh) * 2019-05-06 2021-05-25 苹果公司 一种用于显示相机用户界面的方法、电子设备和非暂态计算机可读存储介质
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
CN112887586B (zh) * 2019-05-06 2022-05-10 苹果公司 用于捕获和管理视觉媒体的用户界面
WO2020243645A1 (en) 2019-05-31 2020-12-03 Apple Inc. User interfaces for a podcast browsing and playback application
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
CN111601138A (zh) * 2019-06-17 2020-08-28 北京比利信息技术有限公司 搜索信息的方法和装置
US11709557B1 (en) 2019-09-25 2023-07-25 Apple Inc. Multipurpose controller device
US10990828B2 (en) 2019-09-30 2021-04-27 LogMeln, Inc. Key frame extraction, recording, and navigation in collaborative video presentations
US11237716B2 (en) * 2019-10-14 2022-02-01 Sling TV L.L.C. Devices, systems and processes for facilitating user adaptive progressions through content
US11379092B2 (en) * 2019-11-11 2022-07-05 Klarna Bank Ab Dynamic location and extraction of a user interface element state in a user interface that is dependent on an event occurrence in a different user interface
US11726752B2 (en) 2019-11-11 2023-08-15 Klarna Bank Ab Unsupervised location and extraction of option elements in a user interface
US11366645B2 (en) 2019-11-11 2022-06-21 Klarna Bank Ab Dynamic identification of user interface elements through unsupervised exploration
US11442749B2 (en) 2019-11-11 2022-09-13 Klarna Bank Ab Location and extraction of item elements in a user interface
CN112256165B (zh) * 2019-12-13 2022-05-10 华为技术有限公司 一种应用图标的显示方法及电子设备
CN113119761B (zh) * 2019-12-31 2023-06-16 北京新能源汽车股份有限公司 一种动力电池充电速率调整方法及装置
US11386356B2 (en) 2020-01-15 2022-07-12 Klama Bank AB Method of training a learning system to classify interfaces
US11409546B2 (en) 2020-01-15 2022-08-09 Klarna Bank Ab Interface classification system
WO2021142999A1 (zh) * 2020-01-17 2021-07-22 青岛海信传媒网络技术有限公司 基于内容的语音播报方法及显示设备
US11393180B2 (en) * 2020-01-31 2022-07-19 Unity Technologies Sf Applying non-destructive edits to nested instances for efficient rendering
US10846106B1 (en) 2020-03-09 2020-11-24 Klarna Bank Ab Real-time interface classification in an application
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN111677406A (zh) * 2020-06-11 2020-09-18 中国银行股份有限公司 一种银行尾箱的监控方法及相关设备
US11287964B2 (en) * 2020-06-17 2022-03-29 Rovi Guides, Inc. Systems and methods for navigating content
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
WO2022032979A1 (zh) * 2020-08-13 2022-02-17 华为技术有限公司 一种调用其他设备能力的方法、电子设备和系统
US10990361B1 (en) * 2020-09-11 2021-04-27 Microsoft Technology Licensing, Llc Customizable graphical user interface for data management
CN112153454B9 (zh) * 2020-09-25 2023-05-30 北京字跳网络技术有限公司 提供多媒体内容的方法、装置和设备
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
CN112000893B (zh) * 2020-09-29 2024-04-12 北京百度网讯科技有限公司 常驻区域预测方法、装置、设备及存储介质
CN112423136B (zh) * 2020-10-15 2023-08-01 深圳Tcl新技术有限公司 视频的播放方法、系统、装置及计算机可读存储介质
KR102633219B1 (ko) * 2020-12-03 2024-02-02 경인전자 주식회사 인풋 디바이스
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
CN112667343B (zh) * 2021-01-07 2024-03-01 苏州沁游网络科技有限公司 一种界面调整方法、装置、设备及存储介质
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
US11809641B2 (en) 2021-02-05 2023-11-07 Nokia Technologies Oy Orientation of visual content rendered on a display of a mobile device
CN112835453B (zh) * 2021-03-04 2023-05-09 网易(杭州)网络有限公司 模拟人眼聚焦时界面效果的方法、设备和存储介质
CN113110736B (zh) * 2021-03-26 2023-08-18 联想(北京)有限公司 一种控制方法、装置、设备及计算机可读存储介质
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
CN113427888B (zh) * 2021-06-15 2022-06-17 清华大学 印章单元的设计方法、印章单元及印章
USD1013705S1 (en) * 2021-07-20 2024-02-06 Splunk Inc. Display screen or portion thereof having a graphical user interface with a time slider for a map
CN113900567B (zh) * 2021-10-08 2023-12-26 杭州当贝网络科技有限公司 封面交互展示的控制方法、封面交互展示装置及大屏终端
USD1024095S1 (en) * 2021-11-15 2024-04-23 Lemon Inc. Display screen or portion thereof with a graphical user interface
USD1024096S1 (en) * 2021-11-15 2024-04-23 Lemon Inc. Display screen or portion thereof with a graphical user interface
CN114138226B (zh) * 2021-11-30 2023-05-23 重庆长安汽车股份有限公司 一种车机音频混音方法、装置、控制器及汽车
USD1019691S1 (en) * 2022-05-13 2024-03-26 Travelshift ehf. Display screen with graphical user interface
CN115138588B (zh) * 2022-06-27 2024-03-15 重庆大学 一种高精度、高效的塑料瓶自动分拣集成系统与装置
US11886685B1 (en) 2022-10-20 2024-01-30 Stardock Corporation Desktop container peek interface

Family Cites Families (217)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367631A (en) 1992-04-14 1994-11-22 Apple Computer, Inc. Cursor control device with programmable preset cursor positions
US5374942A (en) 1993-02-05 1994-12-20 Gilligan; Federico G. Mouse and method for concurrent cursor position and scrolling control
US6903723B1 (en) 1995-03-27 2005-06-07 Donald K. Forest Data entry method and apparatus
US6160536A (en) 1995-03-27 2000-12-12 Forest; Donald K. Dwell time indication method and apparatus
US5973694A (en) 1995-06-02 1999-10-26 Chatham Telecommunications, Inc., Method of communication using sized icons, text, and audio
US6005549A (en) 1995-07-24 1999-12-21 Forest; Donald K. User interface method and apparatus
US5999895A (en) 1995-07-24 1999-12-07 Forest; Donald K. Sound operated menu method and apparatus
US5687331A (en) 1995-08-03 1997-11-11 Microsoft Corporation Method and system for displaying an animated focus item
US5870079A (en) 1996-11-12 1999-02-09 Legaltech, Inc. Computer input device and controller therefor
JP3409834B2 (ja) 1997-07-10 2003-05-26 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
KR100595924B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
JPH11352949A (ja) 1998-06-04 1999-12-24 Casio Comput Co Ltd 表示制御装置及び表示制御のプログラムを記録した媒体
US7992163B1 (en) 1999-06-11 2011-08-02 Jerding Dean F Video-on-demand navigational system
EP1111497A1 (en) 1999-12-24 2001-06-27 CANAL+ Société Anonyme Navigation
US7249326B2 (en) * 2000-04-06 2007-07-24 Microsoft Corporation Method and system for reducing notification area clutter
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US20020055986A1 (en) * 2000-11-08 2002-05-09 Lavaflow, Llp Method of downloadinga screen saver to a cellular telephone
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120934A1 (en) 2001-02-28 2002-08-29 Marc Abrahams Interactive television browsing and buying method
US20020128067A1 (en) 2001-03-09 2002-09-12 Victor Keith Blanco Method and apparatus for creating and playing soundtracks in a gaming system
US7650569B1 (en) * 2001-08-29 2010-01-19 Allen Paul G System and method for focused navigation within a user interface
US7299418B2 (en) * 2001-09-10 2007-11-20 International Business Machines Corporation Navigation method for visual presentations
US7068309B2 (en) 2001-10-09 2006-06-27 Microsoft Corp. Image exchange with image annotation
US7109975B2 (en) 2002-01-29 2006-09-19 Meta4Hand Inc. Computer pointer control
US20030169306A1 (en) * 2002-03-07 2003-09-11 Nokia Corporation Creating a screen saver from downloadable applications on mobile devices
US20030203731A1 (en) 2002-04-29 2003-10-30 Lavaflow, Llp Cellular telephone and method of displaying account information
JP2004038896A (ja) 2002-06-28 2004-02-05 Clarion Co Ltd 表示制御手段
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20040041849A1 (en) 2002-08-30 2004-03-04 Von Mock Display screen saver with two way messaging capability and method therefor
JP2004197339A (ja) 2002-12-16 2004-07-15 Inax Corp タイル施工面及びタイルの施工方法
US20040197339A1 (en) * 2003-01-29 2004-10-07 Brown Paul R. Vaccine for Lyme disease
US7571393B2 (en) 2003-04-15 2009-08-04 Microsoft Corporation Method for navigation between elements on a page of content in a handheld device
JP4269155B2 (ja) 2003-06-25 2009-05-27 日本電気株式会社 ポインティングデバイス制御システムおよび電子機器
JP4500528B2 (ja) * 2003-10-22 2010-07-14 クラリオン株式会社 電子機器
US7167162B2 (en) 2003-12-12 2007-01-23 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Apparatus and method for controlling a screen pointer
KR101017737B1 (ko) * 2004-03-12 2011-02-28 엘지전자 주식회사 영상표시기기의 부화면(pip) 처리장치 및 방법
US20050204138A1 (en) 2004-03-12 2005-09-15 Taiwan Semiconductor Manufacturing Co., Ltd. System and method for an email screen saver
US7301528B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
WO2005103863A2 (en) 2004-03-23 2005-11-03 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US20050212760A1 (en) 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7434173B2 (en) 2004-08-30 2008-10-07 Microsoft Corporation Scrolling web pages using direct interaction
KR101190462B1 (ko) 2005-01-05 2012-10-11 힐크레스트 래보래토리스, 인크. 1-대-다 객체를 처리하기 위한 스케일링 및 레이아웃 방법및 시스템
CA2604505C (en) * 2005-04-14 2016-01-19 Research In Motion Limited System and method for customizing notifications in a mobile electronic device
JP4533791B2 (ja) 2005-04-19 2010-09-01 株式会社日立製作所 情報閲覧装置
US20090144153A1 (en) 2005-04-27 2009-06-04 Kondrk Roberth H Techniques for acquiring a set of digital media assets
US7797641B2 (en) * 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
US20070055947A1 (en) 2005-09-02 2007-03-08 Microsoft Corporation Animations and transitions
JP4817779B2 (ja) 2005-09-14 2011-11-16 ソニー株式会社 電子機器、電子機器の表示制御方法、グラフィカル・ユーザ・インターフェースおよび表示制御プログラム
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7966577B2 (en) * 2005-10-11 2011-06-21 Apple Inc. Multimedia control center
CN1956516B (zh) 2005-10-28 2010-05-26 深圳Tcl新技术有限公司 通过图片结合语音显示电视功能界面的方法
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20070192734A1 (en) * 2006-02-16 2007-08-16 Viktors Berstis Methods and arrangements to control pop-up windows
JP2007257336A (ja) * 2006-03-23 2007-10-04 Sony Corp 情報処理装置、情報処理方法及びそのプログラム
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US9565387B2 (en) 2006-09-11 2017-02-07 Apple Inc. Perspective scale video with navigation menu
US20080104537A1 (en) 2006-10-30 2008-05-01 Sherryl Lee Lorraine Scott Method of improved viewing of visual objects on a display, and handheld electronic device
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US9270963B2 (en) 2007-01-03 2016-02-23 Tivo Inc. Program shortcuts
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US20080229206A1 (en) 2007-03-14 2008-09-18 Apple Inc. Audibly announcing user interface elements
US20090013254A1 (en) 2007-06-14 2009-01-08 Georgia Tech Research Corporation Methods and Systems for Auditory Display of Menu Items
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US10225389B2 (en) 2007-06-29 2019-03-05 Nokia Technologies Oy Communication channel indicators
WO2009028160A1 (ja) 2007-08-24 2009-03-05 Panasonic Corporation 受信装置および受信方法
US20110138319A1 (en) * 2007-11-08 2011-06-09 David Sidman Apparatuses, Methods and Systems for Hierarchical Multidimensional Information Interfaces
US20090121903A1 (en) 2007-11-12 2009-05-14 Microsoft Corporation User interface with physics engine for natural gestural control
JP4882989B2 (ja) * 2007-12-10 2012-02-22 ソニー株式会社 電子機器、再生方法及びプログラム
US20090158222A1 (en) * 2007-12-14 2009-06-18 Apple Inc. Interactive and dynamic screen saver for use in a media system
US8365235B2 (en) * 2007-12-18 2013-01-29 Netflix, Inc. Trick play of streaming media
US9170649B2 (en) 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8230360B2 (en) * 2008-01-04 2012-07-24 Apple Inc. User interface for selection from media collection
US8612888B2 (en) * 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
US7552396B1 (en) 2008-04-04 2009-06-23 International Business Machines Corporation Associating screen position with audio location to detect changes to the performance of an application
US8339403B2 (en) * 2008-04-16 2012-12-25 Microsoft Corporation Multi-layered slide transitions
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8249423B2 (en) 2008-05-08 2012-08-21 Sony Ericsson Mobile Communications Ab Electronic devices and methods that insert addressable chapter marks relative to advertising content in video streams
US8595232B1 (en) 2008-05-16 2013-11-26 Houman Azarm System and method of linking media content information
JP5658144B2 (ja) * 2008-05-28 2015-01-21 グーグル・インコーポレーテッド 視覚ナビゲーション方法、システム、およびコンピュータ可読記録媒体
TWI374382B (en) * 2008-09-01 2012-10-11 Htc Corp Icon operation method and icon operation module
US20100064222A1 (en) * 2008-09-08 2010-03-11 Apple Inc. Object-aware transitions
US8176438B2 (en) 2008-09-26 2012-05-08 Microsoft Corporation Multi-modal interaction for a screen magnifier
CA2680666A1 (en) * 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
KR101503835B1 (ko) 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
JP5166371B2 (ja) * 2008-10-31 2013-03-21 株式会社ソニー・コンピュータエンタテインメント 端末装置、画像表示方法、およびプログラム
US8645871B2 (en) * 2008-11-21 2014-02-04 Microsoft Corporation Tiltable user interface
US20100138357A1 (en) * 2008-12-03 2010-06-03 Morgan Stanley (A Delaware Corporation) Trading system
US10158823B2 (en) 2008-12-31 2018-12-18 Tivo Solutions Inc. Methods and techniques for adaptive search
US8266690B2 (en) 2009-01-23 2012-09-11 Sony Corporation Temporally synchronized video display unit screensaver or wallpaper based on user preferences
US8482520B2 (en) 2009-01-30 2013-07-09 Research In Motion Limited Method for tap detection and for interacting with and a handheld electronic device, and a handheld electronic device configured therefor
JP2010186281A (ja) * 2009-02-12 2010-08-26 Funai Electric Co Ltd 情報表示装置および情報表示システム
US10705701B2 (en) * 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8181120B2 (en) 2009-04-02 2012-05-15 Sony Corporation TV widget animation
US8429530B2 (en) * 2009-06-11 2013-04-23 Apple Inc. User interface for media playback
US9009622B2 (en) * 2009-06-30 2015-04-14 Verizon Patent And Licensing Inc. Media content instance search methods and systems
KR101595386B1 (ko) * 2009-07-31 2016-02-18 엘지전자 주식회사 출력 장치 및 그 방법
US8244600B2 (en) 2009-09-08 2012-08-14 Apple Inc. Presentation of information or representations pertaining to digital products available for digital distribution
WO2011056657A2 (en) * 2009-10-27 2011-05-12 Harmonix Music Systems, Inc. Gesture-based user interface
US20110148774A1 (en) 2009-12-23 2011-06-23 Nokia Corporation Handling Tactile Inputs
KR101661973B1 (ko) * 2010-01-05 2016-10-04 엘지전자 주식회사 영상표시장치
US8473860B2 (en) 2010-02-12 2013-06-25 Microsoft Corporation Multi-layer user interface with flexible parallel and orthogonal movement
WO2011102824A2 (en) * 2010-02-19 2011-08-25 Thomson Licensing Enhanced content search
US9317837B2 (en) 2010-03-17 2016-04-19 Intellectual Ventures Fund 83 Llc Dynamic graphic indicator for connected tasks
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
JP2011243070A (ja) 2010-05-19 2011-12-01 Sony Corp 情報処理システムおよび情報処理装置
KR101673925B1 (ko) * 2010-05-26 2016-11-09 삼성전자주식회사 터치 락 상태를 가지는 단말기 및 이의 운용 방법
NL2004780C2 (nl) * 2010-05-28 2012-01-23 Activevideo Networks B V Visueel element werkwijze en systeem.
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US9009594B2 (en) * 2010-06-10 2015-04-14 Microsoft Technology Licensing, Llc Content gestures
DE112010005736B4 (de) 2010-07-13 2020-03-26 Lg Electronics Inc. Mobiles Endgerät und Konfigurationsverfahren für einen Ruhebildschirm desselben
KR20120010433A (ko) 2010-07-26 2012-02-03 엘지전자 주식회사 영상표시기기의 동작 방법
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US20120038571A1 (en) * 2010-08-11 2012-02-16 Marco Susani System and Method for Dynamically Resizing an Active Screen of a Handheld Device
KR20120017649A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8826134B2 (en) 2010-09-10 2014-09-02 Sony Computer Entertainment America Llc Pivot command for playlist
US9602849B2 (en) 2010-09-17 2017-03-21 Futurewei Technologies, Inc. Method and apparatus for scrub preview services
US20120105367A1 (en) 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
JP5742187B2 (ja) * 2010-11-26 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8963847B2 (en) 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
US20120221971A1 (en) * 2011-02-28 2012-08-30 Sony Network Entertainment Inc. User interface for presenting graphical elements
WO2012122400A1 (en) 2011-03-08 2012-09-13 Zeevee, Inc. Multi source and destination media discovery and management platform
WO2012155105A1 (en) * 2011-05-12 2012-11-15 Apple Inc. Presence sensing
JP2013009299A (ja) * 2011-05-25 2013-01-10 Panasonic Corp 画像編集装置、及び画像編集方法
KR101789225B1 (ko) * 2011-06-23 2017-11-20 삼성전자주식회사 디바이스 및 그 신호 처리 방법
US20120331506A1 (en) 2011-06-24 2012-12-27 Sony Network Entertainment International Llc User interface and content integration
KR20140044881A (ko) 2011-08-05 2014-04-15 톰슨 라이센싱 비디오 피킹
US20130055119A1 (en) 2011-08-23 2013-02-28 Anh Luong Device, Method, and Graphical User Interface for Variable Speed Navigation
US9933935B2 (en) * 2011-08-26 2018-04-03 Apple Inc. Device, method, and graphical user interface for editing videos
JP2013054470A (ja) * 2011-09-01 2013-03-21 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US9965151B2 (en) 2011-09-09 2018-05-08 Cloudon Ltd. Systems and methods for graphical user interface interaction with cloud-based applications
JP5527304B2 (ja) 2011-10-17 2014-06-18 株式会社デンソー 入力装置
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
US20130147721A1 (en) * 2011-12-12 2013-06-13 Benjamin McGeever Device for Operating Touch Screen Devices in a Protective Housing
KR20130093721A (ko) 2011-12-23 2013-08-23 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
US20130179796A1 (en) * 2012-01-10 2013-07-11 Fanhattan Llc System and method for navigating a user interface using a touch-enabled input device
JP5641001B2 (ja) 2012-02-20 2014-12-17 株式会社デンソー 表示制御装置および表示システム
BR112014020960B1 (pt) 2012-02-24 2022-04-19 Koninklijke Philips N. V. Sistema para processamento em tempo real de um movimento de ponteiro provido por um dispositivo apontador; estação de trabalho ou um aparelho de formação de imagem e método para processamento em tempo real de um movimento de ponteiro provido por um dispositivo apontador
US9965158B2 (en) * 2012-03-14 2018-05-08 Nokia Technologies Oy Touch screen hover input handling
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
JP5367191B2 (ja) * 2012-04-17 2013-12-11 シャープ株式会社 メニュー表示装置、メニュー表示方法、メニュー表示プログラム、メニュー表示装置を備えたテレビジョン受像機、及び、記録媒体
CN103390124B (zh) * 2012-05-08 2017-12-15 阿姆有限公司 安全输入和处理口令的设备、系统和方法
EP2847659B1 (en) * 2012-05-09 2019-09-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
KR101864620B1 (ko) 2012-05-09 2018-06-07 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN107728906B (zh) * 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US9454303B2 (en) 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
GB2503654B (en) * 2012-06-27 2015-10-28 Samsung Electronics Co Ltd A method and apparatus for outputting graphics to a display
US20140002581A1 (en) 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player
US9268424B2 (en) 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
EP2690879B1 (en) 2012-07-23 2016-09-07 LG Electronics, Inc. Mobile terminal and method for controlling of the same
US20140047393A1 (en) * 2012-08-07 2014-02-13 Samsung Electronics Co., Ltd. Method and portable apparatus with a gui
US20140053113A1 (en) 2012-08-15 2014-02-20 Prss Holding BV Processing user input pertaining to content movement
US9304595B2 (en) 2012-10-19 2016-04-05 Google Inc. Gesture-keyboard decoding using gesture path deviation
TWI467467B (zh) 2012-10-29 2015-01-01 Pixart Imaging Inc 畫面物件移動控制方法及裝置
KR102042461B1 (ko) 2012-10-31 2019-11-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101990036B1 (ko) 2012-10-31 2019-06-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US8997021B2 (en) * 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
KR20140063272A (ko) 2012-11-16 2014-05-27 엘지전자 주식회사 영상표시장치, 및 그 동작방법
KR101436585B1 (ko) 2012-12-26 2014-10-30 전자부품연구원 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
CN104903834B (zh) 2012-12-29 2019-07-05 苹果公司 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR101984592B1 (ko) * 2013-01-04 2019-05-31 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
KR20140105691A (ko) * 2013-02-23 2014-09-02 삼성전자주식회사 터치스크린을 구비하는 사용자 기기의 오브젝트 조작 방법 및 그 장치
US9292202B2 (en) 2013-02-28 2016-03-22 Sony Corporation Client device, operating method, and recording medium
US8879888B2 (en) 2013-03-12 2014-11-04 Fuji Xerox Co., Ltd. Video clip selection via interaction with a hierarchic video segmentation
US9383890B2 (en) * 2013-03-14 2016-07-05 General Electric Company Semantic zoom of graphical visualizations in industrial HMI systems
WO2014143633A1 (en) 2013-03-15 2014-09-18 Apple Inc. Device, method, and graphical user interface for orientation-based parallax dispaly
KR20140115761A (ko) * 2013-03-22 2014-10-01 삼성전자주식회사 스크린 락 제어 방법 및 이를 지원하는 전자 장치
US9417791B2 (en) * 2013-03-29 2016-08-16 Deere & Company Active feedback interface for touch screen display
US20140292706A1 (en) 2013-04-01 2014-10-02 Lenovo (Singapore) Pte. Ltd. Non-visual touch input targeting
US9250773B2 (en) 2013-04-30 2016-02-02 International Business Machines Corporation Accessible chart navigation using object neighborhood
GB2516820A (en) 2013-07-01 2015-02-11 Nokia Corp An apparatus
CN104375755B (zh) * 2013-08-14 2018-03-27 联想(北京)有限公司 信息处理方法和信息处理设备
WO2015022498A1 (en) * 2013-08-15 2015-02-19 Elliptic Laboratories As Touchless user interfaces
CN103455237A (zh) 2013-08-21 2013-12-18 中兴通讯股份有限公司 菜单处理方法及装置
US9521459B2 (en) 2013-08-22 2016-12-13 aioTV, Inc. Method and system for delivering video content from multiple platforms to subscribers
US20150058796A1 (en) 2013-08-23 2015-02-26 General Electric Company Navigation control for a tabletop computer system
US9311545B2 (en) * 2013-09-18 2016-04-12 Blackberry Limited Multicolor biometric scanning user interface
KR20150049900A (ko) * 2013-10-31 2015-05-08 엘지전자 주식회사 제어 장치 및 그 동작 방법
JP2015127870A (ja) 2013-12-27 2015-07-09 ソニー株式会社 制御装置、制御方法、プログラム、及び、電子機器
JP2015127872A (ja) 2013-12-27 2015-07-09 ソニー株式会社 制御装置、制御方法、及び、プログラム
US9509753B2 (en) 2014-01-08 2016-11-29 Samsung Electronics Co., Ltd. Mobile apparatus and method for controlling thereof, and touch device
US8943036B1 (en) 2014-01-09 2015-01-27 Funded Ventures LLC Search controls using sliders and lightboxes
GB201408258D0 (en) * 2014-05-09 2014-06-25 British Sky Broadcasting Ltd Television display and remote control
US10042537B2 (en) 2014-05-30 2018-08-07 Apple Inc. Video frame loupe
WO2015188011A1 (en) * 2014-06-04 2015-12-10 Quantum Interface, Llc. Dynamic environment for object and attribute display and interaction
US20150358685A1 (en) 2014-06-05 2015-12-10 Eric Adjesson System to Enhance Television Viewing by Merging Television and the Internet
EP3882753A1 (en) 2014-06-24 2021-09-22 Apple Inc. Application menu for video system
US9338493B2 (en) * 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US20170205967A1 (en) * 2014-08-04 2017-07-20 Swirl Design (Pty) Ltd Display and interaction method in a user interface
DE202015006142U1 (de) 2014-09-02 2015-12-09 Apple Inc. Elektronische Touch-Kommunikation
USD791143S1 (en) * 2014-09-03 2017-07-04 Apple Inc. Display screen or portion thereof with graphical user interface
CN104618788B (zh) 2014-12-29 2018-08-07 北京奇艺世纪科技有限公司 一种显示视频信息的方法及装置
ES2834493T3 (es) * 2015-01-22 2021-06-17 Sky Cp Ltd Aplicaciones interactivas de televisión
US10242379B2 (en) * 2015-01-30 2019-03-26 Adobe Inc. Tracking visual gaze information for controlling content display
CN104954848A (zh) 2015-05-12 2015-09-30 乐视致新电子科技(天津)有限公司 智能终端的显示图形用户界面的控制方法及装置
US9652125B2 (en) 2015-06-18 2017-05-16 Apple Inc. Device, method, and graphical user interface for navigating media content
US9898851B2 (en) * 2015-06-24 2018-02-20 Eyespage Inc. Icon animation based on detected activity
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11314846B1 (en) * 2016-09-29 2022-04-26 OR Link, Inc. Surgical communication and computerization infrastructure
WO2019094130A1 (en) * 2017-11-07 2019-05-16 Tandon Prem V Scrolling interface control for computer display
US11520482B2 (en) * 2021-02-22 2022-12-06 Salesforce.Com, Inc. Navigating displayed graphical user interface panels using assigned keyboard shortcut key(s)

Also Published As

Publication number Publication date
CN106257392B (zh) 2019-09-17
KR20220162867A (ko) 2022-12-08
US20200150836A1 (en) 2020-05-14
US10545635B2 (en) 2020-01-28
JP2021166059A (ja) 2021-10-14
DE112016000085T5 (de) 2017-08-10
EP3244413A1 (en) 2017-11-15
JP2019179550A (ja) 2019-10-17
JP6310570B2 (ja) 2018-04-11
JP6538223B2 (ja) 2019-07-03
US20180364877A1 (en) 2018-12-20
KR20190049914A (ko) 2019-05-09
JP2023065400A (ja) 2023-05-12
US20180364878A1 (en) 2018-12-20
EP3127119B1 (en) 2019-07-24
CN106257392A (zh) 2016-12-28
JP7223811B2 (ja) 2023-02-16
US9652125B2 (en) 2017-05-16
CN116909437A (zh) 2023-10-20
US20160370982A1 (en) 2016-12-22
KR102471681B1 (ko) 2022-11-29
JP2017534934A (ja) 2017-11-24
US10572109B2 (en) 2020-02-25
DK201500591A1 (en) 2017-01-09
EP3244413B1 (en) 2019-07-24
CN106257391B (zh) 2019-08-23
EP3127119A1 (en) 2017-02-08
AU2016100650A4 (en) 2016-06-16
KR102139322B1 (ko) 2020-07-29
KR102384310B1 (ko) 2022-04-08
KR20170135975A (ko) 2017-12-08
CN110543268B (zh) 2023-08-01
JP2018152073A (ja) 2018-09-27
CN110554818B (zh) 2022-11-04
AU2016100650B4 (en) 2016-11-10
CN110554818A (zh) 2019-12-10
KR20200091955A (ko) 2020-07-31
CN116909436A (zh) 2023-10-20
KR20220047396A (ko) 2022-04-15
AU2022291520B2 (en) 2024-01-25
US10073591B2 (en) 2018-09-11
US20160370957A1 (en) 2016-12-22
KR101975369B1 (ko) 2019-05-07
DK178983B1 (en) 2017-07-24
DE112016000085B4 (de) 2021-02-11
KR20210049185A (ko) 2021-05-04
US11816303B2 (en) 2023-11-14
US20160370976A1 (en) 2016-12-22
CN106257391A (zh) 2016-12-28
AU2022291520A1 (en) 2023-02-02
KR102551150B1 (ko) 2023-07-03
DK201500590A1 (en) 2017-01-09
KR102245736B1 (ko) 2021-04-28
DE202016003233U1 (de) 2016-08-29
US10073592B2 (en) 2018-09-11
KR101847796B1 (ko) 2018-04-10
US9639241B2 (en) 2017-05-02
EP3547316A1 (en) 2019-10-02
US20160370956A1 (en) 2016-12-22
WO2016204936A1 (en) 2016-12-22
KR20180037076A (ko) 2018-04-10
CN110543268A (zh) 2019-12-06
DK179350B1 (en) 2018-05-14

Similar Documents

Publication Publication Date Title
JP6898964B2 (ja) メディアコンテンツをナビゲートするためのデバイス、方法及びグラフィカルユーザインターフェース
AU2021200248B2 (en) Device, method and, graphical user interface for navigating media content
US20240045572A1 (en) Device, method, and graphical user interface for navigating media content
AU2016101667B4 (en) Device, method, and graphical user interface for navigating media content

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200814

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201116

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210611

R150 Certificate of patent or registration of utility model

Ref document number: 6898964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150