JP7098752B2 - ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース - Google Patents

ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース Download PDF

Info

Publication number
JP7098752B2
JP7098752B2 JP2020560927A JP2020560927A JP7098752B2 JP 7098752 B2 JP7098752 B2 JP 7098752B2 JP 2020560927 A JP2020560927 A JP 2020560927A JP 2020560927 A JP2020560927 A JP 2020560927A JP 7098752 B2 JP7098752 B2 JP 7098752B2
Authority
JP
Japan
Prior art keywords
video
representation
recorded clip
user interface
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020560927A
Other languages
English (en)
Other versions
JP2021515344A (ja
Inventor
テイラー ジー カリガン
パトリック エル コフマン
クリストファー パトリック フォス
ダームン モフセニ
パニ ペイジ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2021515344A publication Critical patent/JP2021515344A/ja
Priority to JP2022104306A priority Critical patent/JP7432660B2/ja
Application granted granted Critical
Publication of JP7098752B2 publication Critical patent/JP7098752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks

Description

(関連出願の相互参照)
本出願は、2018年5月7日に出願された「USER INTERFACES FOR VIEWING LIVE VIDEO FEEDS AND RECORDED VIDEO」と題する米国特許出願第62/668,090号、及び、2019年5月5日に出願された「USER INTERFACES FOR VIEWING LIVE VIDEO FEEDS AND RECORDED VIDEO」と題する米国特許出願第62/843,512号に対する優先権を主張するものであり、これらの出願のそれぞれは、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
本出願はまた、米国特許出願公開第2017/0357434号として公開された、「USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES」と題された米国特許出願公開第15/427,516号にも関し、その内容は、その全体が参照により本明細書に組み込まれる。
本開示は、概して、コンピュータユーザインタフェースに関し、より具体的には、ライブビデオフィード及び録画ビデオを表示するための技術に関する。
ビデオカメラは、ライブで表示することができる、又は後の時刻で閲覧するために録画することができるメディアコンテンツをキャプチャする。ユーザは、様々な場所でメディアコンテンツをキャプチャする複数のビデオカメラを有することができる。
しかしながら、電子デバイスを使用してライブビデオフィード及び録画ビデオを表示するための一部の技術は、一般的に煩雑かつ非効率的である。例えば、一部の既存の技術では、複数回のキー押下又は打鍵を含む場合がある、複雑かつ時間のかかるユーザインタフェースが使用されている。既存の技術は、必要以上の時間を要し、ユーザの時間及びデバイスのエネルギを浪費する。後者の問題は、バッテリ動作式デバイスにおいては特に重大である。
したがって、本技術は、ライブビデオフィード及び録画ビデオを表示するための、より速く、より効率的な方法及びインタフェースを有する電子デバイスを提供する。そのような方法及びインタフェースは、任意選択的に、ライブビデオフィード及び録画ビデオを表示するための他の方法を補完する又は置き換える。そのような方法及びインタフェースは、ユーザにかかる認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式コンピューティングデバイスの場合、そのような方法及びインタフェースは、電力を節約し、バッテリ充電の間隔を長くする。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ビデオメディアユーザインタフェースを表示することであって、ビデオメディアユーザインタフェースは、第1のソースからのライブビデオフィードと、スクラババーであって、スクラババーは、第1のソースからのビデオの録画されたクリップの表現を含み、表現は、スクラババー内の第1の位置に位置する、スクラババーと、を含む、ビデオメディアユーザインタフェースを表示することと、ビデオメディアユーザインタフェースを表示している間に、第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換えることと、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオメディアユーザインタフェースを表示することであって、ビデオメディアユーザインタフェースは、第1のソースからのライブビデオフィードと、スクラババーであって、スクラババーは、第1のソースからのビデオの録画されたクリップの表現を含み、表現は、スクラババー内の第1の位置に位置する、スクラババーと、を含む、ビデオメディアユーザインタフェースを表示することと、ビデオメディアユーザインタフェースを表示している間に、第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換えることと、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオメディアユーザインタフェースを表示することであって、ビデオメディアユーザインタフェースは、第1のソースからのライブビデオフィードと、スクラババーであって、スクラババーは、第1のソースからのビデオの録画されたクリップの表現を含み、表現は、スクラババー内の第1の位置に位置する、スクラババーと、を含む、ビデオメディアユーザインタフェースを表示することと、ビデオメディアユーザインタフェースを表示している間に、第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換えることと、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオメディアユーザインタフェースを表示することであって、ビデオメディアユーザインタフェースは、第1のソースからのライブビデオフィードと、スクラババーであって、スクラババーは、第1のソースからのビデオの録画されたクリップの表現を含み、表現は、スクラババー内の第1の位置に位置する、スクラババーと、を含む、ビデオメディアユーザインタフェースを表示することと、ビデオメディアユーザインタフェースを表示している間に、第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換えることと、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオメディアユーザインタフェースを表示する手段であって、ビデオメディアユーザインタフェースは、第1のソースからのライブビデオフィードと、スクラババーであって、スクラババーは、第1のソースからのビデオの録画されたクリップの表現を含み、表現は、スクラババー内の第1の位置に位置する、スクラババーと、を含む、ビデオメディアユーザインタフェースを表示する手段と、ビデオメディアユーザインタフェースを表示している間に、第1のユーザ入力を検出する手段と、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換えることと、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことと、を行う手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、第1のユーザインタフェースを表示することであって、第1のユーザインタフェースは、ビデオデータのソースからのビデオデータの表現と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの制御にアクセスするための第1のアフォーダンスと、を含む、第1のユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンスを少なくとも表示することを含む、第2のアフォーダンスを表示することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイスを制御するプロセスを開始することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1のユーザインタフェースを表示することであって、第1のユーザインタフェースは、ビデオデータのソースからのビデオデータの表現と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの制御にアクセスするための第1のアフォーダンスと、を含む、第1のユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンスを少なくとも表示することを含む、第2のユーザインタフェースを表示することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイスを制御するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1のユーザインタフェースを表示することであって、第1のユーザインタフェースは、ビデオデータのソースからのビデオデータの表現と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの制御にアクセスするための第1のアフォーダンスと、を含む、第1のユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンスを少なくとも表示することを含む、第2のユーザインタフェースを表示することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイスを制御するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、第1のユーザインタフェースを表示することであって、第1のユーザインタフェースは、ビデオデータのソースからのビデオデータの表現と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの制御にアクセスするための第1のアフォーダンスと、を含む、第1のユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出することと、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示することであって、第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンスを少なくとも表示することを含む、第2のユーザインタフェースを表示することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出することと、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイスを制御するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、第1のユーザインタフェースを表示する手段であって、第1のユーザインタフェースは、ビデオデータのソースからのビデオデータの表現と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの制御にアクセスするための第1のアフォーダンスと、を含む、第1のユーザインタフェースを表示する手段と、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する手段と、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェースを表示する手段であって、第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンスを少なくとも表示することを含む、第2のユーザインタフェースを表示する手段と、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出する手段と、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイスを制御するプロセスを開始する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、第1の時間に、ユーザインタフェースを表示することであって、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィードと、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現を含むスクラババーと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1のライブビデオフィードを、ユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像と置き換えることであって、第1の画像は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている、第1の画像と置き換えることと、第2のライブビデオフィードを、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像と置き換えることであって、第2の画像は、第2の時間における第2のソースからのデータに関連付けられている、第2の画像と置き換えることと、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1の時間に、ユーザインタフェースを表示することであって、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィードと、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現を含むスクラババーと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1のライブビデオフィードを、ユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像と置き換えることであって、第1の画像は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている、第1の画像と置き換えることと、第2のライブビデオフィードを、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像と置き換えることであって、第2の画像は、第2の時間における第2のソースからのデータに関連付けられている、第2の画像と置き換えることと、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、第1の時間に、ユーザインタフェースを表示することであって、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィードと、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現を含むスクラババーと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1のライブビデオフィードを、ユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像と置き換えることであって、第1の画像は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている、第1の画像と置き換えることと、第2のライブビデオフィードを、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像を置き換えることであって、第2の画像は、第2の時間における第2のソースからのデータに関連付けられている、第2の画像と置き換えることと、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、第1の時間に、ユーザインタフェースを表示することであって、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィードと、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現を含むスクラババーと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ユーザ入力を検出することと、ユーザ入力を検出したことに応じて、第1のライブビデオフィードを、ユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像と置き換えることであって、第1の時間は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている、第1の画像と置き換えることと、第2のライブビデオフィードを、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像と置き換えることであって、第2の画像は、第2の時間における第2のソースからのデータに関連付けられている、第2の画像と置き換えることと、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、第1の時間に、ユーザインタフェースを表示する手段であって、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィードと、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現を含むスクラババーと、を含む、ユーザインタフェースを表示する手段と、ユーザインタフェースを表示している間に、ユーザ入力を検出する手段と、ユーザ入力を検出したことに応じて、第1のライブビデオフィードを、ユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像と置き換えることであって、第1の時間は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている、第1の画像と置き換えることと、第2のライブビデオフィードを、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像と置き換えることであって、第2の画像は、第2の時間における第2のソースからのデータに関連付けられている、第2の画像と置き換えることと、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことと、を行う手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ユーザインタフェースを表示することであって、ユーザインタフェースは、第1のコンテキストに関連付けられた第1の複数のアフォーダンスであって、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第1の複数のアフォーダンスと、第2のコンテキストに関連付けられた第2の複数のアフォーダンスであって、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第2の複数のアフォーダンスと、を含む、ユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力を検出することであって、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する、第1のユーザ入力を検出することと、第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力を検出することであって、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する、第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力を検出した後に、第1のユーザ入力及び第2のユーザ入力に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ユーザインタフェースを表示することであって、ユーザインタフェースは、第1のコンテキストに関連付けられた第1の複数のアフォーダンスであって、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第1の複数のアフォーダンスと、第2のコンテキストに関連付けられた第2の複数のアフォーダンスであって、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第2の複数のアフォーダンスと、を含む、ユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力を検出することであって、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する、第1のユーザ入力を検出することと、第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力を検出することであって、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する、第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力を検出した後に、第1のユーザ入力及び第2のユーザ入力に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ユーザインタフェースを表示することであって、ユーザインタフェースは、第1のコンテキストに関連付けられた第1の複数のアフォーダンスであって、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第1の複数のアフォーダンスと、第2のコンテキストに関連付けられた第2の複数のアフォーダンスであって、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第2の複数のアフォーダンスと、を含む、ユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力を検出することであって、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する、第1のユーザ入力を検出することと、第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力を検出することであって、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する、第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力を検出した後に、第1のユーザ入力及び第2のユーザ入力に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ユーザインタフェースを表示することであって、ユーザインタフェースは、第1のコンテキストに関連付けられた第1の複数のアフォーダンスであって、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第1の複数のアフォーダンスと、第2のコンテキストに関連付けられた第2の複数のアフォーダンスであって、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第2の複数のアフォーダンスと、を含む、ユーザインタフェースを表示することと、第1のユーザインタフェースを表示している間に、第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力を検出することであって、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する、第1のユーザ入力を検出することと、第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力を検出することであって、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する、第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力を検出した後に、第1のユーザ入力及び第2のユーザ入力に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ユーザインタフェースを表示する手段であって、ユーザインタフェースは、第1のコンテキストに関連付けられた第1の複数のアフォーダンスであって、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第1の複数のアフォーダンスと、第2のコンテキストに関連付けられた第2の複数のアフォーダンスであって、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードに対応する、第2の複数のアフォーダンスと、を含む、ユーザインタフェースを表示する手段と、第1のユーザインタフェースを表示している間に、第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力を検出することであって、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する、第1のユーザ入力を検出することと、第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力を検出することであって、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する、第2のユーザ入力を検出することと、を行う手段と、第1のユーザ入力及び第2のユーザ入力を検出した後に、第1のユーザ入力及び第2のユーザ入力に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することであって、動作状態は、コンテキストに関連付けられている、第1のユーザインタフェースを表示することと、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力を検出することと、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェースを表示することと、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することであって、動作状態は、コンテキストに関連付けられている、第1のユーザインタフェースを表示することと、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力を検出することと、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェースを表示することと、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することであって、動作状態が、コンテキストに関連付けられている、第1のユーザインタフェースを表示することと、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力を検出することと、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェースを表示することと、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することであって、動作状態は、コンテキストに関連付けられている、第1のユーザインタフェースを表示することと、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力を検出することと、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェースを表示することと、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力を検出することと、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオデータのソースを識別するデータを受信する手段と、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することであって、動作状態は、コンテキストに関連付けられている、第1のユーザインタフェースを表示することと、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力を検出することと、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェースを表示することと、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力を検出することと、を行う手段と、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ビデオデータのソースに関連付けられたユーザインタフェースを表示することであって、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンスであって、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現と、ビデオデータのソースに対応しない記憶リソースによって記憶されたデータの第2の表現と、を含む、第1のアフォーダンスと、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンスと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ディスプレイ上のユーザ入力を検出することと、ユーザ入力に応じて、第1のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することと、第2のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースに関連付けられたユーザインタフェースを表示することであって、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンスであって、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現と、ビデオデータのソースに対応しない記憶リソースによって記憶されたデータの第2の表現と、を含む、第1のアフォーダンスと、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンスと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ディスプレイ上のユーザ入力を検出することと、ユーザ入力に応じて、第1のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することと、第2のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースに関連付けられたユーザインタフェースを表示することであって、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンスであって、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現と、ビデオデータのソースに対応しない記憶リソースによって記憶されたデータの第2の表現と、を含む、第1のアフォーダンスと、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンスと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ディスプレイ上のユーザ入力を検出することと、ユーザ入力に応じて、第1のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することと、第2のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオデータのソースに関連付けられたユーザインタフェースを表示することであって、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンスであって、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現と、ビデオデータのソースに対応しない記憶リソースによって記憶されたデータの第2の表現と、を含む、第1のアフォーダンスと、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンスと、を含む、ユーザインタフェースを表示することと、ユーザインタフェースを表示している間に、ディスプレイ上のユーザ入力を検出することと、ユーザ入力に応じて、第1のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することと、第2のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオデータのソースに関連付けられたユーザインタフェースを表示する手段であって、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンスであって、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現と、ビデオデータのソースに対応しない記憶リソースによって記憶されたデータの第2の表現と、を含む、第1のアフォーダンスと、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンスと、を含む、ユーザインタフェースを表示する手段と、ユーザインタフェースを表示している間に、ディスプレイ上のユーザ入力を検出する手段と、ユーザ入力に応じて、第1のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することと、第2のアフォーダンスの選択に対応する第1のユーザ入力に従って、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始することと、を行う手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することと、ビデオデータのソースの動作状態を選択するためのメニューを表示している間に、動作状態の選択に対応する第1の入力を検出することと、第1の入力を検出したことに応じて、選択された動作状態が録画状態を含むとの判定に従って、オプションアフォーダンスを表示することと、オプションアフォーダンスのアクティブ化を検出することと、オプションアフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第2の入力を検出することと、第2の入力を検出することに続いて、選択された動作状態及び選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することと、ビデオデータのソースの動作状態を選択するためのメニューを表示している間に、動作状態の選択に対応する第1の入力を検出することと、第1の入力を検出したことに応じて、選択された動作状態が録画状態を含むとの判定に従って、オプションアフォーダンスを表示することと、オプションアフォーダンスのアクティブ化を検出することと、オプションアフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第2の入力を検出することと、第2の入力を検出することに続いて、選択された動作状態及び選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することと、ビデオデータのソースの動作状態を選択するためのメニューを表示している間に、動作状態の選択に対応する第1の入力を検出することと、第1の入力を検出したことに応じて、選択された動作状態が録画状態を含むとの判定に従って、オプションアフォーダンスを表示することと、オプションアフォーダンスのアクティブ化を検出することと、オプションアフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第2の入力を検出することと、第2の入力を検出することに続いて、選択された動作状態及び選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示することと、ビデオデータのソースの動作状態を選択するためのメニューを表示している間に、動作状態の選択に対応する第1の入力を検出することと、第1の入力を検出したことに応じて、選択された動作状態が録画状態を含むとの判定に従って、オプションアフォーダンスを表示することと、オプションアフォーダンスのアクティブ化を検出することと、オプションアフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第2の入力を検出することと、第2の入力を検出することに続いて、選択された動作状態及び選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオデータのソースを識別するデータを受信する手段と、手段であって、ビデオデータのソースを識別するデータを受信した後に、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェースを表示する手段と、ビデオデータのソースの動作状態を選択するためのメニューを表示している間に、動作状態の選択に対応する第1の入力を検出する手段と、手段であって、第1の入力を検出したことに応じて、手段であって、選択された動作状態が録画状態を含むとの判定に従って、オプションアフォーダンスを表示する手段と、オプションアフォーダンスのアクティブ化を検出する手段と、手段であって、オプションアフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示する手段であって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示する手段と、第1の動き検出条件の選択に対応する第2の入力を検出する手段と、第2の入力を検出することに続いて、選択された動作状態及び選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルを設定する情報を送信する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイを備える電子デバイスにおいて、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、通知設定アフォーダンスのアクティブ化を検出することであって、通知設定アフォーダンスは、ビデオデータソースの動作状態とは無関係に、ビデオデータのソースによる通知を有効化するためのものである、通知設定アフォーダンスのアクティブ化を検出することと、通知設定アフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第1の入力を検出することと、第1の入力を検出することに続いて、ビデオデータのソースの構成プロファイルの動作状態に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、通知設定アフォーダンスのアクティブ化を検出することであって、通知設定アフォーダンスは、ビデオデータのソースの動作状態とは無関係に、ビデオデータのソースによる通知を有効化するためのものである、通知設定アフォーダンスのアクティブ化を検出することと、通知設定アフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第1の入力を検出することと、第1の入力を検出することに続いて、ビデオデータのソースの構成プロファイルの動作状態に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、通知設定アフォーダンスのアクティブ化を検出することであって、通知設定アフォーダンスは、ビデオデータのソースの動作状態とは無関係に、ビデオデータのソースによる通知を有効化するためのものである、通知設定アフォーダンスのアクティブ化を検出することと、通知設定アフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第1の入力を検出することと、第1の入力を検出することに続いて、ビデオデータのソースの構成プロファイルの動作状態に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信した後に、通知設定アフォーダンスのアクティブ化を検出することであって、通知設定アフォーダンスは、ビデオデータのソースの動作状態とは無関係に、ビデオデータのソースによる通知を有効化するためのものである、通知設定アフォーダンスのアクティブ化を検出することと、通知設定アフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示することであって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示することと、第1の動き検出条件の選択に対応する第1の入力を検出することと、第1の入力を検出することに続いて、ビデオデータのソースの構成プロファイルの動作状態に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオデータのソースを識別するデータを受信する手段と、手段であって、ビデオデータのソースを識別するデータを受信した後に、通知設定アフォーダンスのアクティブ化を検出する手段であって、通知設定アフォーダンスは、ビデオデータソースの動作状態とは無関係に、ビデオデータのソースによる通知を有効化するためのものである、通知設定アフォーダンスのアクティブ化を検出する手段と、手段であって、通知設定アフォーダンスのアクティブ化を検出したことに応じて、複数の動き検出アフォーダンスを表示する手段であって、複数の動き検出アフォーダンスは、第1の動き検出条件に対応する第1の動き検出アフォーダンスと、第1の動き検出条件とは異なる第2の動き検出条件に対応する第2の動き検出アフォーダンスと、を含む、複数の動き検出アフォーダンスを表示する手段と、第1の動き検出条件の選択に対応する第1の入力を検出する手段と、第1の入力を検出することに続いて、ビデオデータのソースの構成プロファイルの動作状態に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイデバイスを備える電子デバイスにおいて、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信したことに応じて、ビデオデータのソースがビデオデータの第1のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第2の通知設定アフォーダンスを表示することなく、第1の通知設定アフォーダンスを表示することであって、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知を有効化する、第1の通知設定アフォーダンスを表示することと、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第1の通知設定アフォーダンスと、第2の通知設定アフォーダンスであって、ビデオデータのソースの第2のタイプの通知を有効化する、第2の通知設定アフォーダンスと、を同時に表示することと、第1の入力を検出することと、第1の入力が第1の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、第1の入力が第2の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信したことに応じて、ビデオデータのソースがビデオデータの第1のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第2の通知設定アフォーダンスを表示することなく、第1の通知設定アフォーダンスを表示することであって、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知を有効化する、第1の通知設定アフォーダンスを表示することと、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第1の通知設定アフォーダンスと、第2の通知設定アフォーダンスであって、ビデオデータのソースの第2のタイプの通知を有効化する、第2の通知設定アフォーダンスと、を同時に表示することと、第1の入力を検出することと、第1の入力が第1の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、第1の入力が第2の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信したことに応じて、ビデオデータのソースがビデオデータの第1のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第2の通知設定アフォーダンスを表示することなく、第1の通知設定アフォーダンスを表示することであって、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知を有効化する、第1の通知設定アフォーダンスを表示することと、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第1の通知設定アフォーダンスと、第2の通知設定アフォーダンスであって、ビデオデータのソースの第2のタイプの通知を有効化する、第2の通知設定アフォーダンスと、を同時に表示することと、第1の入力を検出することと、第1の入力が第1の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、第1の入力が第2の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ビデオデータのソースを識別するデータを受信することと、ビデオデータのソースを識別するデータを受信したことに応じて、ビデオデータのソースがビデオデータの第1のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第2の通知設定アフォーダンスを表示することなく、第1の通知設定アフォーダンスを表示することであって、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知を有効化する、第1の通知設定アフォーダンスを表示することと、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第1の通知設定アフォーダンスと、第2の通知設定アフォーダンスであって、ビデオデータのソースの第2のタイプの通知を有効化する、第2の通知設定アフォーダンスと、を同時に表示することと、第1の入力を検出することと、第1の入力が第1の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、第1の入力が第2の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ビデオデータのソースを識別するデータを受信する手段と、手段であって、ビデオデータのソースを識別するデータを受信したことに応じて、ビデオデータのソースがビデオデータの第1のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第2の通知設定アフォーダンスを表示することなく、第1の通知設定アフォーダンスを表示する手段であって、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知を有効化する、第1の通知設定アフォーダンスを表示する手段と、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、ディスプレイデバイス上に、第1の通知設定アフォーダンスと、第2の通知設定アフォーダンスであって、ビデオデータのソースの第2のタイプの通知を有効化する、第2の通知設定アフォーダンスと、を同時に表示する手段と、第1の入力を検出する手段と、第1の入力が第1の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信する手段と、第1の入力が第2の通知設定アフォーダンスのアクティブ化に対応するとの判定に従って、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信する手段と、を備える。
いくつかの実施形態によれば、方法が記載される。本方法は、ディスプレイデバイスを備える電子デバイスにおいて、ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、ビデオデータのソースからのビデオフィードと、スクラババーと、を同時に表示することを含む、ビデオメディアユーザインタフェースを表示することと、ビデオの第1の録画されたクリップの第1の表現を含む第1のデータと、ビデオの第1の録画されたクリップの第1のトリガ情報とを受信することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第1のタイプの条件に対応する第1のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第2のタイプの条件に対応する第2のインジケーションであって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、を含む。
いくつかの実施形態によれば、非一時的コンピュータ可読記憶媒体が記載される。本非一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、ビデオデータのソースからのビデオフィードと、スクラババーと、を同時に表示することを含む、ビデオメディアユーザインタフェースを表示することと、ビデオの第1の録画されたクリップの第1の表現を含む第1のデータと、ビデオの第1の録画されたクリップの第1のトリガ情報とを受信することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第1のタイプの条件に対応する第1のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第2のタイプの条件に対応する第2のインジケーションであって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、を行う命令を含む。
いくつかの実施形態によれば、一時的コンピュータ可読記憶媒体が記載される。本一時的コンピュータ可読記憶媒体は、ディスプレイを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶し、1つ以上のプログラムは、ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、ビデオデータのソースからのビデオフィードと、スクラババーと、を同時に表示することを含む、ビデオメディアユーザインタフェースを表示することと、ビデオの第1の録画されたクリップの第1の表現を含む第1のデータと、ビデオの第1の録画されたクリップの第1のトリガ情報とを受信することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第1のタイプの条件に対応する第1のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第2のタイプの条件に対応する第2のインジケーションであって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、1つ以上のプロセッサと、1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、を備え、1つ以上のプログラムは、ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、ビデオデータのソースからのビデオフィードと、スクラババーと、を同時に表示することを含む、ビデオメディアユーザインタフェースを表示することと、ビデオの第1の録画されたクリップの第1の表現を含む第1のデータと、ビデオの第1の録画されたクリップの第1のトリガ情報とを受信することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第1のタイプの条件に対応する第1のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、ビデオの第1の録画されたクリップの録画が第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第2のタイプの条件に対応する第2のインジケーションであって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示することと、を行う命令を含む。
いくつかの実施形態によれば、電子デバイスが記載される。本電子デバイスは、ディスプレイと、ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示する手段であって、ビデオデータのソースからのビデオフィードと、スクラババーと、を同時に表示することを含む、ビデオメディアユーザインタフェースを表示する手段と、ビデオの第1の録画されたクリップの第1の表現を含む第1のデータと、ビデオの第1の録画されたクリップの第1のトリガ情報とを受信する手段と、ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第1のタイプの条件に対応する第1のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示する手段と、ビデオの第1の録画されたクリップの録画が第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを第1のトリガ情報が示すとの判定に従って、ディスプレイデバイス上に、スクラババー内に、第2のタイプの条件に対応する第2のインジケーションであって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現と、を同時に表示する手段と、を備える。
これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された非一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。これらの機能を実行する実行可能な命令は、任意選択的に、1つ以上のプロセッサによって実行されるように構成された一時的コンピュータ可読記憶媒体又は他のコンピュータプログラム製品内に含まれる。
したがって、ライブビデオフィード及び録画ビデオを表示するための、より速く、より効率的な方法及びインタフェースを有することによって、そのようなデバイスによる有効性、効率性、及びユーザ満足度を高めるデバイスが提供される。そのような方法及びインタフェースは、ライブビデオフィード及び録画ビデオを表示するための他の方法を補完する又は置き換えることができる。
説明される様々な実施形態をより良く理解するため、以下の図面と併せて、以下の「発明を実施するための形態」が参照されるべきであり、類似の参照番号は、以下の図の全てを通じて、対応する部分を指す。
いくつかの実施形態によるタッチ感知ディスプレイを有するポータブル多機能デバイスを示すブロック図である。 いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。 いくつかの実施形態によるタッチスクリーンを有するポータブル多機能デバイスを示す。 いくつかの実施形態によるディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。 いくつかの実施形態によるポータブル多機能デバイス上のアプリケーションのメニューの例示的なユーザインタフェースを示す。 いくつかの実施形態によるディスプレイとは別個のタッチ感知面を有する多機能デバイスの例示的なユーザインタフェースを示す。 いくつかの実施形態によるパーソナル電子デバイスを示す。 いくつかの実施形態によるパーソナル電子デバイスを示すブロック図である。 いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。 いくつかの実施形態による、タッチ感知ディスプレイ及び強度センサを有するパーソナル電子デバイスの例示的な構成要素を示す。 いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態による、パーソナル電子デバイスの例示的な構成要素及びユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示する方法を示すフロー図である。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示する方法を示すフロー図である。 いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示する方法を示すフロー図である。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御する方法を示すフロー図である。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートする方法を示すフロー図である。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートする方法を示すフロー図である。 いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートする方法を示すフロー図である。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成する方法を示すフロー図である。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータのソースを構成する方法を示すフロー図である。 いくつかの実施形態による、ビデオデータのソースを構成する方法を示すフロー図である。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、記憶リソースを管理する方法を示すフロー図である。 いくつかの実施形態による、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成するための例示的ユーザインタフェースを示す。 いくつかの実施形態による、録画設定を構成する方法を示すフロー図である。 いくつかの実施形態による、録画設定を構成する方法を示すフロー図である。 いくつかの実施形態による、録画設定を構成する方法を示すフロー図である。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、通知設定を構成する方法を示すフロー図である。 いくつかの実施形態による、通知設定を構成する方法を示すフロー図である。 いくつかの実施形態による、通知設定を構成する方法を示すフロー図である。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、第1のタイプのカメラの第1のタイプの通知及び第2のタイプのカメラの第2のタイプの通知を構成する方法を示すフロー図である。 いくつかの実施形態による、第1のタイプのカメラの第1のタイプの通知及び第2のタイプのカメラの第2のタイプの通知を構成する方法を示すフロー図である。 いくつかの実施形態による、第1のタイプのカメラの第1のタイプの通知及び第2のタイプのカメラの第2のタイプの通知を構成する方法を示すフロー図である。 いくつかの実施形態による、第1のタイプのカメラの第1のタイプの通知及び第2のタイプのカメラの第2のタイプの通知を構成する方法を示すフロー図である。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示する方法を示すフロー図である。 いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示する方法を示すフロー図である。
以下の説明は、例示的な方法、パラメータなどについて記載する。しかしながら、そのような説明は、本開示の範囲に対する限定として意図されるものではなく、代わりに例示的な実施形態の説明として提供されることを認識されたい。
ライブビデオフィード及び録画ビデオを表示するための効率的な方法及びインタフェースを提供する電子デバイスが必要とされている。例えば、いくつかの実施形態では、デバイスは、複数のカメラからの画像を同時に表示し、複数のカメラからの録画ビデオを同時にナビゲートするための複合スクラババーを提供する。いくつかの実施形態では、デバイスは、コンテキストベースのカメラ設定を設定するための直感的なユーザインタフェースを提供する。そのような技術は、ライブビデオフィード及び録画ビデオを閲覧するユーザの認識的負担を軽減し、それにより、生産性を高めることができる。更に、このような技法は、普通なら冗長なユーザ入力に浪費されるプロセッサ及びバッテリの電力を低減させることができる。
以下の図1A及び図1B、図2、図3、図4A及び図4B、並びに図5A~図5Hは、ライブビデオフィード及び録画ビデオを表示する技術を実行する例示的なデバイスの説明を提供する。
図6A~図6Sは、ライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。図7A~図7Cは、いくつかの実施形態による、ライブビデオフィード及び録画ビデオを表示する方法を示すフロー図である。図6A~図6Sのユーザインタフェースは、図7A~図7Cのプロセスを含む後述するプロセスを例示するために使用される。
図8A~図8Jは、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。図9は、いくつかの実施形態による、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御する方法を示すフロー図である。図8A~図8Jのユーザインタフェースは、図9のプロセスを含む後述するプロセスを例示するために使用される。
図10A~図10Jは、ビデオデータの複数のソースからのビデオを表示し、ナビゲートするための例示的なユーザインタフェースを示す。図11A~図11Cは、いくつかの実施形態による、ビデオデータの複数のソースからのビデオを表示し、ナビゲートする方法を示すフロー図である。図10A~図10Jのユーザインタフェースは、図11A~図11Cのプロセスを含む後述するプロセスを例示するために使用される。
図12A~図12Tは、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。図13は、いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成する方法を示すフロー図である。図12A~図12Tのユーザインタフェースは、図13のプロセスを含む後述するプロセスを例示するために使用される。
図14A~図14Wは、ビデオデータのソースを構成するための例示的なユーザインタフェースを示す。図15A~図15Bは、いくつかの実施形態による、ビデオデータのソースを構成する方法を示すフロー図である。図14A~図14Wのユーザインタフェースは、図15A~図15Bのプロセスを含む後述するプロセスを例示するために使用される。
図16A~図16Iは、記憶リソースを管理するための例示的なユーザインタフェースを示す。図17は、いくつかの実施形態による、記憶リソースを管理する方法を示すフロー図である。図16A~図16Iのユーザインタフェースは、図17のプロセスを含む後述するプロセスを例示するために使用される。
図18A~図18Dは、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。
図19A~図19Dは、ビデオソースからのビデオを表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。
図20A~図20Xは、録画設定を構成するための例示的ユーザインタフェースを示す。図21A~図21Cは、録画設定を構成する方法を示すフロー図である。図20A~図20Xのユーザインタフェースは、図21A~図21Cのプロセスを含む後述するプロセスを例示するために使用される。
図22A~図22Hは、通知設定を構成するための例示的なユーザインタフェースを示す。図23A~図23Cは、通知設定を構成する方法を示すフロー図である。図22A~図22Hのユーザインタフェースは、図23A~図23Cのプロセスを含む後述するプロセスを例示するために使用される。
図24A~図24Jは、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成するための例示的なユーザインタフェースを示す。図25A~図25Dは、ビデオデータの第1のタイプのソースの第1のタイプの通知及びビデオデータの第2のタイプのソースの第2のタイプの通知を構成する方法を示すフロー図である。図24A~図24Jのユーザインタフェースは、図25A~図25Dのプロセスを含む後述するプロセスを例示するために使用される。
図26A~図26Iは、いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示するための例示的なユーザインタフェースを示す。図27A~図27Bは、いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示する方法を示すフロー図である。図26A~図26Iのユーザインタフェースは、図27A~図27Bのプロセスを含む後述するプロセスを例示するために使用される。
以下の説明では、様々な要素について説明するために、「第1の」、「第2の」などの用語を使用するが、これらの要素は、それらの用語によって限定されるべきではない。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、記載する様々な実施形態の範囲から逸脱することなく、第1のタッチを第2のタッチと呼ぶこともでき、同様に第2のタッチを第1のタッチと呼ぶこともできる。第1のタッチ及び第2のタッチはどちらもタッチであるが、これらは同じタッチではない。
本明細書に記載する様々な実施形態の説明で使用される術語は、特定の実施形態を説明することのみを目的とし、限定的であることは意図されていない。記載する様々な実施形態の説明及び添付の特許請求の範囲では、単数形の「a(1つ、一)」、「an(1つ、一)」、及び「the(その、この)」は、文脈上別途明白に記載しない限り、複数形も同様に含むことが意図される。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙されたアイテムのうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「includes(含む)」、「including(含む)」、「comprises(含む、備える)」、及び/又は「comprising(含む、備える)」は、本明細書で使用する場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことが更に理解されるであろう。
「~の場合(if)」という用語は、任意選択的に、文脈に応答して、「~とき(when)」若しくは「~とき(upon)」、又は「~と判定したことに応答して(in response to determining)」若しくは「~を検出したことに応答して(in response to detecting)」を意味すると解釈される。同様に、「~と判定された場合(if it is determined)」又は「[記載の状態又はイベント]が検出された場合(if [a stated condition or event] is detected)」という語句は、任意選択的に、文脈に応答して、「~と判定したとき(upon determining)」若しくは「~と判定したことに応答して(in response to determining)」、又は「[記載の状態又はイベント]を検出したとき(upon detecting [the stated condition or event])」若しくは「[記載の状態又はイベント]を検出したことに応答して(in response to detecting [the stated condition or event])」を意味すると解釈される。
電子デバイス、そのようなデバイス用のユーザインタフェース、及びそのようなデバイスを使用する関連するプロセスの実施形態が説明される。いくつかの実施形態では、デバイスは、PDA機能及び/又は音楽プレーヤ機能などの他の機能も含む、携帯電話などのポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態としては、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)のデバイスが挙げられるが、これらに限定されない。任意選択的に、タッチ感知面を有するラップトップ又はタブレットコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)などの他のポータブル電子デバイスも使用される。また、いくつかの実施形態では、デバイスはポータブル通信デバイスではなく、タッチ感知面を有するデスクトップコンピュータ(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)であることも理解されたい。
以下の論考では、ディスプレイ及びタッチ感知面を含む電子デバイスについて説明する。しかしながら、電子デバイスは、任意選択的に、物理キーボード、マウス、及び/又はジョイスティックなどの1つ以上の他の物理ユーザインタフェースデバイスを含むことを理解されたい。
デバイスは、典型的には、描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、トレーニングサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブブラウジングアプリケーション、デジタル音楽プレーヤアプリケーション、及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上などの様々なアプリケーションに対応する。
本デバイス上で実行される様々なアプリケーションは、タッチ感知面などの、少なくとも1つの共通の物理ユーザインタフェースデバイスを、任意選択的に使用する。タッチ感知面の1つ以上の機能、並びにデバイス上に表示される対応する情報は、アプリケーションごとに、及び/又はそれぞれのアプリケーション内で、任意選択的に、調整及び/又は変更される。このように、デバイスの共通の物理アーキテクチャ(タッチ感知面など)は、任意選択的に、ユーザにとって直観的かつ透過的なユーザインタフェースを備える様々なアプリケーションをサポートする。
ここで、タッチ感知ディスプレイを備えるポータブルデバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態によるタッチ感知ディスプレイシステム112を有するポータブル多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、便宜上「タッチスクリーン」と呼ばれることがあり、「タッチ感知ディスプレイシステム」として知られている又は呼ばれることがある。デバイス100は、メモリ102(任意選択的に、1つ以上のコンピュータ可読記憶媒体を含む)、メモリコントローラ122、1つ以上の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、入出力(I/O)サブシステム106、他の入力コントロールデバイス116、及び外部ポート124を含む。デバイス100は、任意選択的に、1つ以上の光センサ164を含む。デバイス100は、任意選択的に、デバイス100上の接触の強度を検出する1つ以上の接触強度センサ165(例えば、デバイス100のタッチ感知ディスプレイシステム112などのタッチ感知面)を含む。デバイス100は、任意選択的に、デバイス100上で触知出力を生成する(例えばデバイス100のタッチ感知ディスプレイシステム112又はデバイス300のタッチパッド355などのタッチ感知面上で触知出力を生成する)1つ以上の触知出力生成器167を含む。これらの構成要素は、任意選択的に、1つ以上の通信バス又は信号ライン103を介して通信する。
本明細書及び特許請求の範囲では、タッチ感知面上の接触の「強度」という用語は、タッチ感知面上の接触(例えば、指の接触)の力若しくは圧力(単位面積当たりの力)、又はタッチ感知面上の接触の力若しくは圧力に対する代理(プロキシ)を指す。接触の強度は、少なくとも4つの別個の値を含み、より典型的には、数百の(例えば、少なくとも256の)別個の値を含む、値の範囲を有する。接触の強度は、任意選択的に、様々な手法、及び様々なセンサ又はセンサの組み合わせを使用して、判定(又は測定)される。例えば、タッチ感知面の下又はそれに隣接する1つ以上の力センサは、任意選択的に、タッチ感知面上の様々なポイントにおける力を測定するために使用される。一部の実装形態では、複数の力センサからの力測定値は、接触の推定される力を判定するために組み合わされる(例えば、加重平均)。同様に、スタイラスの感圧性先端部は、任意選択的に、タッチ感知面上のスタイラスの圧力を判定するために使用される。あるいは、タッチ感知面上で検出される接触エリアのサイズ及び/若しくはその変化、接触に近接するタッチ感知面の電気容量及び/若しくはその変化、並びに/又は、接触に近接するタッチ感知面の抵抗及び/若しくはその変化は、任意選択的に、タッチ感知面上の接触の力又は圧力の代替物として使用される。一部の実装形態では、接触の力又は圧力のための代替測定値は、強度閾値を上回っているかどうかを判定するために直接使用される(例えば、強度閾値は、代替測定値に対応する単位で記述される)。一部の実装形態では、接触力又は圧力に対する代理測定は、推定される力又は圧力に変換され、推定される力又は圧力は、強度閾値を上回っているかどうかを判定するために使用される(例えば、強度閾値は、圧力の単位で測定される圧力閾値である)。接触の強度をユーザ入力の属性として使用することにより、アフォーダンスを(例えば、タッチ感知ディスプレイ上に)表示するための、及び/又は、ユーザ入力を(例えば、タッチ感知ディスプレイ、タッチ感知面、又は、ノブ若しくはボタンなどの物理的/機械的制御部を介して)受信するための面積が制限されている、低減されたサイズのデバイス上で、通常であればユーザによってアクセスすることが不可能であり得る追加のデバイス機能への、ユーザのアクセスが可能となる。
本明細書及び特許請求の範囲で使用されるように、用語「触知出力」は、ユーザの触覚でユーザによって検出されることになる、デバイスの従前の位置に対するそのデバイスの物理的変位、デバイスの構成要素(例えば、タッチ感知面)の、そのデバイスの別の構成要素(例えば、筐体)に対する物理的変位、又は、デバイスの質量中心に対する構成要素の変位を指す。例えば、デバイス又はデバイスの構成要素が、タッチに敏感なユーザの表面(例えば、ユーザの手の指、手のひら、又は他の部分)に接触している状況では、物理的変位によって生成された触知出力は、そのデバイス又はデバイスの構成要素の物理的特性の認識される変化に相当する触感として、ユーザによって解釈されることになる。例えば、タッチ感知面(例えば、タッチ感知ディスプレイ又はトラックパッド)の移動は、ユーザによって、物理アクチュエータボタンの「ダウンクリック」又は「アップクリック」として、任意選択的に解釈される。いくつかの場合、ユーザの動作により物理的に押された(例えば、変位された)タッチ感知面に関連付けられた物理アクチュエータボタンの移動がないときでさえ、ユーザは「ダウンクリック」又は「アップクリック」などの触感を感じる。別の例として、タッチ感知面の移動は、タッチ感知面の平滑度に変化がない場合であっても、ユーザによって、そのタッチ感知面の「粗さ」として、任意選択的に解釈又は感知される。そのようなユーザによるタッチの解釈は、ユーザの個人的な感覚認知に左右されるが、大多数のユーザに共通する、多くのタッチの感覚認知が存在する。したがって、触知出力が、ユーザの特定の感覚認知(例えば、「アップクリック」「ダウンクリック」、「粗さ」)に対応するものと記述される場合、別途記載のない限り、生成された触知出力は、典型的な(又は、平均的な)ユーザの記述された感覚認知を生成するデバイス、又はデバイスの構成要素の物理的変位に対応する。
デバイス100は、ポータブル多機能デバイスの一例に過ぎず、デバイス100は、任意選択的に、示されているものよりも多くの構成要素又は少ない構成要素を有するものであり、任意選択的に、2つ以上の構成要素を組み合わせるものであり、又は、任意選択的に、それらの構成要素の異なる構成若しくは配置を有するものであることを理解されたい。図1Aに示す様々な構成要素は、1つ以上の信号処理回路及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェアとソフトウェアの両方の組み合わせで実施される。
メモリ102は、任意選択的に、高速ランダムアクセスメモリを含み、また任意選択的に、1つ以上の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスなどの不揮発性メモリを含む。メモリコントローラ122は、任意選択的に、デバイス100の他の構成要素によるメモリ102へのアクセスを制御する。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器をCPU120及びメモリ102に結合するために使用することができる。1つ以上のプロセッサ120は、メモリ102に記憶された様々なソフトウェアプログラム及び/又は命令セットを動作させるか、又は実行して、デバイス100のための様々な機能を実行し、データを処理する。いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、任意選択的に、チップ104などの単一のチップ上で実装される。いくつかの他の実施形態では、それらは別々のチップ上に任意選択的に実装される。
RF(radio frequency)(無線周波数)回路108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路108は、電気信号を電磁信号に、又は電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路108は、任意選択的に、これらの機能を実行するための周知の回路を含み、それらの回路としては、限定するものではないが、アンテナシステム、RF送受信機、1つ以上の増幅器、同調器、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(subscriber identity module、SIM)カード、メモリなどが挙げられる。RF回路108は、任意選択的に、ワールドワイドウェブ(World Wide Web、WWW)とも呼ばれるインターネット、イントラネット、並びに/又はセルラー電話ネットワーク、無線ローカルエリアネットワーク(local area network、LAN)及び/若しくはメトロポリタンエリアネットワーク(metropolitan area network、MAN)などの無線ネットワークなどのネットワークと、また他のデバイスと、無線通信によって通信する。RF回路108は、任意選択的に、短距離通信無線機などによって近距離通信(near field communication、NFC)フィールドを検出するよく知られている回路を含む。無線通信は、任意選択的に、それだけに限定されるものではないが、動き通信用のグローバルシステム(Global System for Mobile Communications、GSM)、拡張データGSM環境(Enhanced Data GSM Environment、EDGE)、高速ダウンリンクパケットアクセス(high-speed downlink packet access、HSDPA)、高速アップリンクパケットアクセス(high-speed uplink packet access、HSUPA)、エボリューションデータオンリ(Evolution, Data-Only、EV-DO)、HSPA、HSPA+、デュアルセルHSPA(Dual-Cell HSPA、DC-HSPDA)、ロングタームエボリューション(long term evolution、LTE)、近距離通信(near field communication、NFC)、広帯域符号分割多元接続(wideband code division multiple access、W-CDMA)、符号分割多元接続(code division multiple access、CDMA)、時分割多元接続(time division multiple access、TDMA)、Bluetooth(登録商標)、Bluetoothローエネルギ(Bluetooth Low Energy、BTLE(登録商標))、ワイヤレスフィデリティ(Wireless Fidelity、Wi-Fi(登録商標))(例えば、IEEE 802.11a、IEEE 802.11b、IEEE 802.11g、IEEE 802.11n、及び/若しくはIEEE 802.11ac)、ボイスオーバインターネットプロトコル(voice over Internet Protocol、VoIP)、Wi-MAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(Internet message access protocol、IMAP)及び/若しくはポストオフィスプロトコル(post office protocol、POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンスプロトコル(extensible messaging and presence protocol、XMPP)、インスタントメッセージング及びプレゼンスレベレイジングエクステンションのためのセッション開始プロトコル(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions、SIMPLE)、インスタントメッセージング及びプレゼンスサービス(Instant Messaging and Presence Service、IMPS))、並びに/若しくはショートメッセージサービス(Short Message Service、SMS)、又は本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む任意の他の適した通信プロトコルを含む、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
オーディオ回路110、スピーカ111、及びマイクロフォン113は、ユーザとデバイス100との間のオーディオインタフェースを提供する。オーディオ回路110は、周辺機器インタフェース118からオーディオデータを受信し、このオーディオデータを電気信号に変換し、この電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。また、オーディオ回路110は、マイクロフォン113によって音波から変換された電気信号を受信する。オーディオ回路110は、電気信号をオーディオデータに変換し、このオーディオデータを処理のために周辺機器インタフェース118に送信する。オーディオデータは、任意選択的に、周辺機器インタフェース118によって、メモリ102及び/若しくはRF回路108から取得され、かつ/又はメモリ102及び/若しくはRF回路108に送信される。いくつかの実施形態では、オーディオ回路110はまた、ヘッドセットジャック(例えば、図2の212)を含む。ヘッドセットジャックは、オーディオ回路110と、出力専用ヘッドホン又は出力(例えば片耳又は両耳用のヘッドホン)及び入力(例えばマイクロフォン)の両方を備えるヘッドセットなどの着脱可能なオーディオ入出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力コントロールデバイス116などのデバイス100上の入出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、任意選択的に、ディスプレイコントローラ156、光センサコントローラ158、強度センサコントローラ159、触覚フィードバックコントローラ161、及び他の入力若しくは制御デバイスのための1つ以上の入力コントローラ160を含む。1つ以上の入力コントローラ160は、他の入力コントロールデバイス116からの電気信号の受信/他の入力コントロールデバイス116への電気信号の送信を行う。他の入力コントロールデバイス116は、任意選択的に、物理ボタン(例えば、プッシュボタン、ロッカボタンなど)、ダイヤル、スライダスイッチ、ジョイスティック、クリックホイールなどを含む。いくつかの代替的な実施形態では、入力コントローラ160は、任意選択的に、キーボード、赤外線ポート、USBポート、及びマウスなどのポインタデバイスのうちのいずれかに結合される(又はいずれにも結合されない)。1つ以上のボタン(例えば、図2の208)は、任意選択的に、スピーカ111及び/又はマイクロフォン113の音量コントロールのための上下ボタンを含む。1つ以上のボタンは、任意選択的に、プッシュボタン(例えば、図2の206)を含む。
全体として参照により本明細書に組み込まれている、2005年12月23日出願の米国特許出願第11/322,549号、「Unlocking a Device by Performing Gestures on an Unlock Image」、米国特許第7,657,849号に記載されているように、プッシュボタンの素早い押下は、任意選択的に、タッチスクリーン112のロックを係合解除し、又は任意選択的に、タッチスクリーン上のジェスチャを使用してデバイスをアンロックするプロセスを開始する。プッシュボタン(例えば、206)のより長い押下は、任意選択的に、デバイス100への電力をオン又はオフにする。ボタンのうちの1つ以上の機能性は、任意選択的に、ユーザによってカスタマイズ可能である。タッチスクリーン112は、仮想又はソフトボタン及び1つ以上のソフトキーボードを実装するために使用される。
タッチ感知ディスプレイ112は、デバイスとユーザとの間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112からの電気信号の受信、及び/又はタッチスクリーン112への電気信号の送信を行う。タッチスクリーン112は、ユーザに対して視覚出力を表示する。この視覚出力は、グラフィック、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(総称して「グラフィック」)を任意選択的に含む。いくつかの実施形態では、視覚出力の一部又は全ては、任意選択的に、ユーザインタフェースオブジェクトに対応する。
タッチスクリーン112は、触覚及び/又は触知接触に基づくユーザからの入力を受け入れるタッチ感知面、センサ、又はセンサのセットを有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102内の任意の関連モジュール及び/又は命令セットと共に)、タッチスクリーン112上で接触(及び任意の接触の移動又は中断)を検出し、検出された接触をタッチスクリーン112上に表示されたユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)との対話に変換する。例示的な実施形態では、タッチスクリーン112とユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、任意選択的に、LCD(液晶ディスプレイ)技術、LPD(発光ポリマーディスプレイ)技術、又はLED(発光ダイオード)技術を使用するが、他の実施形態では、他のディスプレイ技術も使用される。タッチスクリーン112及びディスプレイコントローラ156は、任意選択的に、それだけに限定されるものではないが、容量性、抵抗性、赤外線、及び表面音波の技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の近接センサアレイ又は他の要素を含む、現在知られている又は今後開発される複数のタッチ感知技術のうちのいずれかを使用して、接触及びそのあらゆる動き又は中断を検出する。例示的な実施形態では、カリフォルニア州クパチーノのApple Inc.からのiPhone(登録商標)及びiPod Touch(登録商標)に見られるものなどの、投影型相互静電容量感知技術が使用される。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、任意選択的に、それぞれ全体として参照により本明細書に組み込まれている、米国特許第6,323,846号(Westermanら)、第6,570,557号(Westermanら)、及び/若しくは第6,677,932号(Westerman)、並びに/又は米国特許公報第2002/0015024(A1)号という米国特許に記載されているマルチタッチ感知タッチパッドに類似している。しかし、タッチスクリーン112はデバイス100からの視覚出力を表示するのに対して、タッチ感知タッチパッドは視覚出力を提供しない。
タッチスクリーン112のいくつかの実施形態におけるタッチ感知ディスプレイは、(1)2006年5月2日出願の米国特許出願第11/381,313号、「Multipoint Touch Surface Controller」、(2)2004年5月6日出願の米国特許出願第10/840,862号、「Multipoint Touchscreen」、(3)2004年7月30日出願の米国特許出願第10/903,964号、「Gestures For Touch Sensitive Input Devices」、(4)2005年1月31日出願の米国特許出願第11/048,264号、「Gestures For Touch Sensitive Input Devices」、(5)2005年1月18日出願の米国特許出願第11/038,590号、「Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices」、(6)2005年9月16日出願の米国特許出願第11/228,758号、「Virtual Input Device Placement On A Touch Screen User Interface」、(7)2005年9月16日出願の米国特許出願第11/228,700号、「Operation Of A Computer With A Touch Screen Interface」、(8)2005年9月16日出願の米国特許出願第11/228,737号、「Activating Virtual Keys Of A Touch-Screen Virtual Keyboard」、及び(9)2006年3月3日出願の米国特許出願第11/367,749号、「Multi-Functional Hand-Held Device」という出願に記載されている。これらの出願は全て、全体として参照により本明細書に組み込まれている。
タッチスクリーン112は、任意選択的に、100dpiを超えるビデオ解像度を有する。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、任意選択的に、スタイラス、指などの任意の適した物体又は付属物を使用して、タッチスクリーン112に接触する。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャを主に扱うように設計されるが、これは、タッチスクリーン上の指の接触面積がより大きいため、スタイラスベースの入力ほど精密でない可能性がある。いくつかの実施形態では、デバイスは、指による粗い入力を、ユーザによって所望されているアクションを実行するための、正確なポインタ/カーソルの位置又はコマンドに変換する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、任意選択的に、特定の機能をアクティブ化又は非アクティブ化するためのタッチパッド(図示せず)を含む。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり、視覚出力を表示しない、デバイスのタッチ感知エリアである。タッチパッドは、任意選択的に、タッチスクリーン112又はタッチスクリーンによって形成されるタッチ感知面の拡張部とは別個のタッチ感知面である。
デバイス100は、様々な構成要素に電力を供給する電力システム162も含む。電力システム162は、任意選択的に、電力管理システム、1つ以上の電源(例えば、バッテリ、交流(AC))、再充電システム、停電検出回路、電力コンバータ又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びにポータブルデバイス内での電力の生成、管理、及び分配に関連付けられた任意の他の構成要素を含む。
また、デバイス100は、任意選択的に、1つ以上の光センサ164を含む。図1Aは、I/Oサブシステム106内の光センサコントローラ158に結合された光センサを示す。光センサ164は、任意選択的に、電荷結合デバイス(charge-coupled device、CCD)又は相補的金属酸化物半導体(complementary metal-oxide semiconductor、CMOS)フォトトランジスタを含む。光センサ164は、1つ以上のレンズを通って投影された環境からの光を受信し、その光を、画像を表すデータに変換する。光センサ164は、撮像モジュール143(カメラモジュールとも呼ばれる)と連動して、任意選択的に、静止画像又はビデオをキャプチャする。いくつかの実施形態では、光センサは、デバイスの前面にあるタッチスクリーンディスプレイ112とは反対に、デバイス100の裏面に位置し、したがってタッチスクリーンディスプレイは、静止画像及び/又はビデオ画像の取得のためのビューファインダとして使用することが有効である。いくつかの実施形態では、光センサは、デバイスの前面には位置し、したがってユーザの画像が、任意選択的に、テレビ会議のために入手され、ユーザは、他のテレビ会議参加者をタッチスクリーンディスプレイ上で見る。いくつかの実施形態では、光センサ164の位置は、ユーザによって(例えば、デバイスハウジング内でレンズ及びセンサを回転させることによって)変更することができ、したがって単一の光センサ164が、タッチスクリーンディスプレイと共に、テレビ会議にも静止画像及び/又はビデオ画像の取得にも使用される。
デバイス100は、任意選択的に、1つ以上の接触強度センサ165も含む。図1Aは、I/Oサブシステム106内の強度センサコントローラ159に結合された、接触強度センサを示す。接触強度センサ165は、1つ以上のピエゾ抵抗ひずみゲージ、電気容量式力センサ、電気力センサ、圧電力センサ、光学力センサ、容量式タッチ感知面、又は他の強度センサ(例えば、タッチ感知面上の接触の力(又は圧力)を測定するために使用するセンサ)を、任意選択的に含む。接触強度センサ165は、接触強度情報(例えば、圧力情報、又は圧力情報に対するプロキシ)を環境から受信する。いくつかの実施形態では、少なくとも1つの接触強度センサは、タッチ感知面(例えばタッチ感知ディスプレイシステム112)と並置される、又はそれに近接される。いくつかの実施形態では、少なくとも1つの接触強度センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
また、デバイス100は、任意選択的に、1つ以上の近接センサ166を含む。図1Aは、周辺機器インタフェース118と結合された近接センサ166を示す。代わりに、近接センサ166は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。近接センサ166は、任意選択的に、全体として参照により本明細書に組み込まれている、米国特許出願第11/241,839号、「Proximity Detector In Handheld Device」、第11/240,788号、「Proximity Detector In Handheld Device」、第11/620,702号、「Using Ambient Light Sensor To Augment Proximity Sensor Output」、第11/586,862号、「Automated Response To And Sensing Of User Activity In Portable Devices」、及び同第11/638,251号、「Methods And Systems For Automatic Configuration Of Peripherals」で説明されるように機能するものであり、これらの出願は、全体が参照により本明細書に組み込まれる。いくつかの実施形態では、多機能デバイスが、ユーザの耳の近くに配置される場合(例えば、ユーザが電話通話を行っている場合)、近接センサは、タッチスクリーン112をオフにして無効化する。
デバイス100はまた、任意選択的に、1つ以上の触知出力生成器167を含む。図1Aは、I/Oサブシステム106内の触覚フィードバックコントローラ161に結合された、触知出力生成器を示す。触知出力生成器167は、任意選択的に、スピーカ若しくは他のオーディオ構成要素などの1つ以上の電気音響デバイス、及び/又はモータ、ソレノイド、電気活性ポリマー、圧電アクチュエータ、静電アクチュエータ、若しくは他の触知出力生成構成要素(例えば、デバイス上で電気信号を触知出力に変換する構成要素)などのエネルギを直線の動きに変換する電気機械デバイスを含む。接触強度センサ165は、触覚フィードバックモジュール133から触知フィードバック生成命令を受信し、デバイス100のユーザが感知することが可能な触知出力をデバイス100上に生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器は、タッチ感知面(例えば、タッチ感知ディスプレイシステム112)に配置されているか、又はそれに近接しており、任意選択的に、タッチ感知面を垂直方向(例えば、デバイス100の表面の内/外)に、又は水平方向(例えば、デバイス100の表面と同じ平面内の前後)に動かすことによって、触知出力を生成する。いくつかの実施形態では、少なくとも1つの触知出力生成器センサが、デバイス100の前面に配置されたタッチスクリーンディスプレイ112の反対側である、デバイス100の背面に配置されている。
また、デバイス100は、任意選択的に、1つ以上の加速度計168を含む。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、任意選択的に、I/Oサブシステム106内の入力コントローラ160に結合される。加速度計168は、任意選択的に、どちらも全体として参照により本明細書に組み込まれている、米国特許公開第20050190059号、「Acceleration-based Theft Detection System for Portable Electronic Devices」、及び米国特許公開第20060017692号、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer」に記載されているように機能する。いくつかの実施形態では、情報は、1つ以上の加速度計から受信したデータの分析に基づいて、ポートレートビュー又はランドスケープビューでタッチスクリーンディスプレイ上に表示される。デバイス100は、任意選択的に、加速度計(単数又は複数)168に加えて、磁気計(図示せず)、並びにデバイス100の場所及び向き(例えば、縦向き又は横向き)に関する情報を取得するためのGPS(又はGLONASS若しくは他のグローバルナビゲーションシステム)受信機(図示せず)を含む。
いくつかの実施形態では、メモリ102内に記憶されているソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は命令セット)128、接触/動きモジュール(又は命令セット)130、グラフィックモジュール(又は命令セット)132、テキスト入力モジュール(又は命令セット)134、全地球測位システム(Global Positioning System、GPS)モジュール(又は命令セット)135、及びアプリケーション(又は命令セット)136を含む。更に、いくつかの実施形態では、図1A及び図3に示されるように、メモリ102(図1A)又はメモリ370(図3)は、デバイス/グローバル内部状態157を記憶する。デバイス/グローバル内部状態157は、現在アクティブ状態のアプリケーションがある場合に、どのアプリケーションがアクティブであるかを示すアクティブアプリケーション状態、どのアプリケーション、ビュー、又は他の情報がタッチスクリーンディスプレイ112の様々な領域を占めているかを示す表示状態、デバイスの様々なセンサ及び入力コントロールデバイス116から取得した情報を含むセンサ状態、並びにデバイスの場所及び/又は姿勢に関する場所情報、のうちの1つ以上を含む。
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、iOS(登録商標)、WINDOWS(登録商標)、又はVxWorks(登録商標)などの組み込み型オペレーティングシステム)は、通常のシステムタスク(例えば、メモリ管理、記憶デバイスの制御、電力管理など)を制御及び管理する様々なソフトウェア構成要素及び/又はドライバを含み、様々なハードウェア構成要素とソフトウェア構成要素との間の通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介して他のデバイスとの通信を容易にし、RF回路108及び/又は外部ポート124が受信したデータを処理するための様々なソフトウェア構成要素をも含む。外部ポート124(例えばユニバーサルシリアルバス(Universal Serial Bus、USB)、FIREWIRE(登録商標)など)は、直接的に、又はネットワーク(例えばインターネット、無線LANなど)を介して間接的に、他のデバイスに連結するように適合されている。いくつかの実施形態では、外部ポートは、iPod(登録商標)(Apple Inc.の商標)デバイス上で使用される30ピンコネクタと同じ若しくは類似であり、かつ/又はそれに適合しているマルチピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、任意選択的に、タッチスクリーン112(ディスプレイコントローラ156と連動して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出する。接触/動きモジュール130は、接触が生じたか否かを判定すること(例えば、指を下ろすイベントを検出すること)、接触の強度(例えば、接触の力若しくは圧力、又は接触の力若しくは圧力の代替物)を判定すること、接触の移動が存在するか否かを判定し、タッチ感知面を横断する移動を追跡すること(例えば、指をドラッグする1つ以上のイベントを検出すること)、及び接触が停止したか否かを判定すること(例えば、指を上げるイベント又は接触の中断を検出すること)などの、接触の検出に関する様々な動作を実行するための、様々なソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知面から接触データを受信する。一連の接触データによって表される、接触点の移動を判定することは、任意選択的に、接触点の速さ(大きさ)、速度(大きさ及び方向)、並びに/又は加速度(大きさ及び/又は方向の変化)を判定することを含む。これらの動作は、任意選択的に、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用される。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
いくつかの実施形態では、接触/動きモジュール130は、ユーザによって動作が実行されたか否かを判定するための(例えば、ユーザがアイコン上で「クリック」したか否かを判定するための)、1つ以上の強度閾値のセットを使用する。いくつかの実施形態では、強度閾値の少なくとも1つのサブセットが、ソフトウェアパラメータに従って判定される(例えば、強度閾値は、特定の物理アクチュエータのアクティブ化閾値によって判定されるのではなく、デバイス100の物理ハードウェアを変化させることなく調整することができる)。例えば、トラックパッド又はタッチスクリーンディスプレイのマウス「クリック」閾値は、トラックパッド又はタッチスクリーンディスプレイハードウェアを変化させることなく、広範囲の既定閾値のうちのいずれかに設定することができる。加えて、一部の実装形態では、デバイスのユーザは、強度閾値のセットのうちの1つ以上を調整するソフトウェア設定が提供される(例えば、システムレベルのクリック「強度」パラメータによって、個々の強度閾値を調整すること、及び/又は複数の強度閾値を一度に調整することによる)。
接触/動きモジュール130は、任意選択的に、ユーザによるジェスチャ入力を検出する。タッチ感知面上の異なるジェスチャは、異なる接触パターンを有する(例えば検出される接触の動き、タイミング、及び/又は強度が異なる)。したがって、ジェスチャは、任意選択的に、特定の接触パターンを検出することによって検出される。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出し、それに続いて指ダウンイベントと同じ位置(又は実質的に同じ位置)(例えば、アイコンの位置)で指アップ(リフトオフ)イベントを検出することを含む。別の例として、タッチ感知面上で指スワイプジェスチャを検出することは、指ダウンイベントを検出し、それに続いて1つ以上の指ドラッグイベントを検出し、その後それに続いて指アップ(リフトオフ)イベントを検出することを含む。
グラフィックモジュール132は、表示されるグラフィックの視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)を変更するための構成要素を含めた、タッチスクリーン112又は他のディスプレイ上にグラフィックをレンダリングして表示するための、様々な既知のソフトウェア構成要素を含む。本明細書では、「グラフィック」という用語は、それだけに限定されるものではないが、文字、ウェブページ、アイコン(ソフトキーを含むユーザインタフェースオブジェクトなど)、デジタル画像、ビデオ、アニメーションなどを含む、ユーザに表示することができる任意のオブジェクトを含む。
いくつかの実施形態では、グラフィックモジュール132は、使用されることになるグラフィックを表すデータを記憶する。各グラフィックには、任意選択的に、対応するコードが割り当てられる。グラフィックモジュール132は、アプリケーションなどから、必要に応じて、座標データ及び他のグラフィック特性データと共に、表示されることとなるグラフィックを指定する1つ以上のコードを受信し、次にディスプレイコントローラ156に出力する画面の画像データを生成する。
触覚フィードバックモジュール133は、デバイス100とのユーザ対話に応答して、デバイス100上の1つ以上の場所で触知出力を生成するために、触知出力生成器167によって使用される命令を生成するための、様々なソフトウェア構成要素を含む。
テキスト入力モジュール134は、任意選択的に、グラフィックモジュール132の構成要素であり、様々なアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及びテキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの場所を判定し、この情報を様々なアプリケーションで使用するために(例えば、場所に基づくダイヤル発呼で使用するために電話138へ、画像/ビデオのメタデータとしてカメラ143へ、並びに、気象ウィジェット、地域のイエローページウィジェット、及び地図/ナビゲーションウィジェットなどの、場所に基づくサービスを提供するアプリケーションへ)提供する。
アプリケーション136は、任意選択的に、以下のモジュール(又は命令セット)又はそれらのサブセット若しくはスーパーセットを含む。
●連絡先モジュール137(アドレス帳又は連絡先リストと呼ばれることもある)、
●電話モジュール138、
●テレビ会議モジュール139、
●電子メールクライアントモジュール140、
●インスタントメッセージング(Instant messaging、IM)モジュール141、
●トレーニングサポートモジュール142、
●静止画像及び/又はビデオ画像用のカメラモジュール143、
●画像管理モジュール144、
●ビデオプレーヤモジュール、
●音楽プレーヤモジュール、
●ブラウザモジュール147、
●カレンダモジュール148、
●任意選択的に気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、辞書ウィジェット149-5、及びユーザによって入手された他のウィジェット、並びにユーザ作成ウィジェット149-6のうちの1つ以上を含むウィジェットモジュール149、
●ユーザ作成ウィジェット149-6を作成するためのウィジェット作成モジュール150、
●検索モジュール151、
●ビデオプレーヤモジュール及び音楽プレーヤモジュールを一体化したビデオ及び音楽プレーヤモジュール152、
●メモモジュール153、
●地図モジュール154、並びに/又は、
●オンラインビデオモジュール155。
任意選択的にメモリ102に記憶される他のアプリケーション136の例としては、他のワードプロセッシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び音声複製が挙げられる。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、連絡先モジュール137は、任意選択的に、アドレス帳に名前を追加すること、アドレス帳から名前を削除すること、電話番号、電子メールアドレス、実際の住所、又は他の情報を名前に関連付けること、画像を名前に関連付けること、名前を分類して並べ替えること、電話番号又は電子メールアドレスを提供して、電話138、テレビ会議モジュール139、電子メール140、又はIM141による通信を開始及び/又は促進することなどを含めて、アドレス帳又は連絡先リスト(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192内に記憶される)を管理するために使用される。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電話モジュール138は、任意選択的に、電話番号に対応する文字シーケンスの入力、連絡先モジュール137内の1つ以上の電話番号へのアクセス、入力された電話番号の修正、それぞれの電話番号のダイヤル、会話の実施、会話が終了したときの通話停止又はハングアップのために使用される。前述したように、無線通信は、任意選択的に、複数の通信規格、プロトコル、及び技術のうちのいずれかを使用する。
RF回路108、オーディオ回路110、スピーカ111、マイクロフォン113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、連絡先モジュール137、及び電話モジュール138と連動して、テレビ会議モジュール139は、ユーザ命令に従ってユーザと1人以上の他の参加者との間のテレビ会議を開始、実行、及び終了するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、電子メールクライアントモジュール140は、ユーザ命令に応答して電子メールを作成、送信、受信、及び管理するための実行可能な命令を含む。画像管理モジュール144と連動して、電子メールクライアントモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を有する電子メールの作成及び送信を非常に容易にする。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する文字シーケンスの入力、以前に入力された文字の修正、それぞれのインスタントメッセージの送信(例えば、電話通信ベースのインスタントメッセージ向けのショートメッセージサービス(Short Message Service、SMS)若しくはマルチメディアメッセージサービス(Multimedia Message Service、MMS)プロトコル、又はインターネットベースのインスタントメッセージ向けのXMPP、SIMPLE、若しくはIMPSを使用する)、インスタントメッセージの受信、及び受信したインスタントメッセージの閲覧のための実行可能な命令を含む。いくつかの実施形態では、送信及び/又は受信されるインスタントメッセージは、任意選択的に、MMS及び/又は拡張メッセージングサービス(Enhanced Messaging Service、EMS)でサポートされるグラフィック、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含む。本明細書では、「インスタントメッセージング」とは、電話通信ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)と、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)との両方を指す。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、地図モジュール154、及び音楽プレーヤモジュールと連動して、トレーニングサポートモジュール142は、トレーニング(例えば、時間、距離、及び/又はカロリー燃焼目標を有する)を作成し、トレーニングセンサ(スポーツデバイス)と通信し、トレーニングセンサデータを受信し、トレーニングをモニタするために使用されるセンサを較正し、トレーニングのための音楽を選択及び再生し、並びに、トレーニングデータを表示、記憶、及び送信するための実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触/動きモジュール130、グラフィックモジュール132、及び画像管理モジュール144と連動して、カメラモジュール143は、静止画像若しくはビデオ(ビデオストリームを含む)のキャプチャ及びメモリ102内への記憶、静止画像若しくはビデオの特性の修正、又はメモリ102からの静止画像若しくはビデオの削除のための実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びカメラモジュール143と連動して、画像管理モジュール144は、静止画像及び/又はビデオ画像の配置、修正(例えば、編集)、あるいはその他の操作、ラベル付け、削除、提示(例えば、デジタルスライドショー又はアルバムにおける)、及び記憶のための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、ブラウザモジュール147は、ウェブページ又はその一部分、並びにウェブページにリンクされた添付ファイル及び他のファイルの検索、リンク、受信、及び表示を含めて、ユーザ命令に従ってインターネットをブラウジングするための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連携して、カレンダモジュール148は、ユーザの指示に従い、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダアイテム、to doリストなど)を作成し、表示し、修正し、記憶するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェットモジュール149は、任意選択的にユーザによってダウンロード及び使用されるミニアプリケーション(例えば、気象ウィジェット149-1、株式ウィジェット149-2、計算機ウィジェット149-3、目覚まし時計ウィジェット149-4、及び辞書ウィジェット149-5)、又はユーザによって作成されるミニアプリケーション(例えば、ユーザ作成ウィジェット149-6)である。いくつかの実施形態では、ウィジェットは、HTML(Hypertext Markup Languge、ハイパーテキストマークアップ言語)ファイル、CSS(Cascading Style Sheets、カスケーディングスタイルシート)ファイル、及びJavaScriptファイルを含む。いくつかの実施形態では、ウィジェットは、XML(Extensible Markup Language、拡張可能マークアップ言語)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と連動して、ウィジェット作成モジュール150は、任意選択的に、ウィジェットを作成する(例えば、ウェブページのユーザ指定部分をウィジェットにする)ために、ユーザによって使用される。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、検索モジュール151は、ユーザ命令に従って1つ以上の検索基準(例えば、1つ以上のユーザ指定検索語)に一致するメモリ102内の文字、音楽、サウンド、画像、ビデオ、及び/又は他のファイルを検索するための実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、及びブラウザモジュール147と連携して、ビデオ及び音楽プレーヤモジュール152は、MP3又はAACファイルなどの1つ以上のファイル形式で記憶された録音済みの音楽及び他のサウンドファイルをユーザがダウンロード及び再生できるようにする実行可能な命令、並びにビデオを(タッチスクリーン112上又は外部ポート124を介して接続された外部のディスプレイ上に)表示、提示、又は別の方法で再生するための実行可能な命令を含む。いくつかの実施形態では、デバイス100は、任意選択的に、iPod(Apple Inc.の商標)などのMP3プレーヤの機能を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、及びテキスト入力モジュール134と連動して、メモモジュール153は、ユーザ命令に従ってメモ、to doリストなどを作成及び管理するための実行可能な命令を含む。
RF回路108、タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と連動して、地図モジュール154は、任意選択的に、ユーザ命令に従って、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその付近の店舗及び他の対象地点に関するデータ、並びに他の場所ベースのデータ)を受信、表示、修正、及び記憶するために使用される。
タッチスクリーン112、ディスプレイコントローラ156、接触/動きモジュール130、グラフィックモジュール132、オーディオ回路110、スピーカ111、RF回路108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と連動して、オンラインビデオモジュール155は、ユーザが特定のオンラインビデオへのアクセス、特定のオンラインビデオのブラウジング、受信(例えば、ストリーミング及び/又はダウンロードによる)、再生(例えば、タッチスクリーン上又は外部ポート124を介して接続された外部ディスプレイ上)、特定のオンラインビデオへのリンクを有する電子メールの送信、並びにH.264などの1つ以上のファイル形式のオンラインビデオの他の管理を行うことを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。オンラインビデオアプリケーションについての追加の説明は、その内容が全体として参照により本明細書に組み込まれている、2007年6月20日出願の米国仮特許出願第60/936,562号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」、及び2007年12月31日出願の米国特許出願第11/968,067号、「Portable Multifunction Device,Method,and Graphical User Interface for Playing Online Videos」において見ることができる。
上記で特定したモジュール及びアプリケーションはそれぞれ、前述した1つ以上の機能及び本出願に記載する方法(例えば、本明細書に記載するコンピュータにより実装される方法及び他の情報処理方法)を実行する実行可能な命令のセットに対応する。これらのモジュール(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって、様々な実施形態において、これらのモジュールの様々なサブセットが、任意選択的に、組み合わされ、又は他の形で再構成される。例えば、ビデオプレーヤモジュールは、任意選択的に、音楽プレーヤモジュールと組み合わされて、単一のモジュール(例えば、図1Aのビデオ及び音楽プレーヤモジュール152)にされる。いくつかの実施形態では、メモリ102は、任意選択的に、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ102は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
いくつかの実施形態では、デバイス100は、そのデバイスにおける所定の機能のセットの動作がタッチスクリーン及び/又はタッチパッドのみを通じて実行されるデバイスである。デバイス100が動作するための主要な入力コントロールデバイスとしてタッチスクリーン及び/又はタッチパッドを使用することにより、任意選択的に、デバイス100上の物理的な入力コントロールデバイス(プッシュボタン、ダイヤルなど)の数が削減される。
タッチスクリーン及び/又はタッチパッドを通じてのみ実行される所定の機能のセットは、任意選択的に、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによってタッチされたときに、デバイス100上に表示される任意のユーザインタフェースから、メインメニュー、ホームメニュー、又はルートメニューにデバイス100をナビゲートする。このような実施形態では、「メニューボタン」は、タッチパッドを使用して実装される。一部の他の実施形態では、メニューボタンは、タッチパッドではなく、物理プッシュボタン又はその他の物理入力コントロールデバイスである。
図1Bは、いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)と、それぞれのアプリケーション136-1(例えば、前述のアプリケーション137~151、155、380~390のうちのいずれか)とを含む。
イベントソータ170は、イベント情報を受信し、イベント情報が配信されるアプリケーション136-1、及びアプリケーション136-1のアプリケーションビュー191を判定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136-1は、アプリケーションがアクティブ又は実行中のとき、タッチ感知ディスプレイ112で上に表示される現在のアプリケーションビューを示す、アプリケーション内部状態192を含む。いくつかの実施形態では、デバイス/グローバル内部状態157は、いずれのアプリケーションが現在アクティブであるかを判定するために、イベントソータ170によって使用され、アプリケーション内部状態192は、イベント情報の配信先となるアプリケーションビュー191を決定するために、イベントソータ170によって使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136-1が実行を再開するときに使用すべき再開情報、アプリケーション136-1によって表示されている情報を示す又は表示する準備ができたユーザインタフェース状態情報、ユーザがアプリケーション136-1の前の状態又はビューに戻ることを有効化する状態キュー、及びユーザによって行われた前のアクションのリドゥ/アンドゥキューのうちの1つ以上などの追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は近接センサ166、加速度計168、及び/若しくは(オーディオ回路110を介した)マイクロフォン113などのセンサから受信する情報を送信する。周辺機器インタフェース118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、所定の間隔で周辺機器インタフェース118に要求を送信する。それに応答して、周辺機器インタフェース118は、イベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、所定のノイズ閾値を上回る及び/又は所定の持続時間を超える入力の受信)があるときのみイベント情報を送信する。
いくつかの実施形態では、イベントソータ170は、ヒットビュー判定モジュール172及び/又はアクティブイベント認識部判定モジュール173も含む。
ヒットビュー判定モジュール172は、タッチ感知ディスプレイ112が2つ以上のビューを表示するとき、サブイベントが1つ以上のビュー内のどこで行われたかを判定するソフトウェア手順を提供する。ビューは、ユーザがディスプレイ上で見ることができる制御装置及び他の要素から構成されている。
アプリケーションに関連付けられたユーザインタフェースの別の態様は、本明細書ではアプリケーションビュー又はユーザインタフェースウインドウと呼ばれることもあるビューのセットであり、その中で情報が表示され、タッチに基づくジェスチャが生じる。タッチが検出される(それぞれのアプリケーションの)アプリケーションビューは、任意選択的に、アプリケーションのプログラム階層又はビュー階層内のプログラムレベルに対応する。例えば、タッチが検出される最下位レベルビューは、任意選択的に、ヒットビューと呼ばれ、また、適切な入力として認識されるイベントのセットは、任意選択的に、タッチに基づくジェスチャを開始する初期タッチのヒットビューに少なくとも部分的に基づいて決定される。
ヒットビュー判定モジュール172は、タッチに基づくジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層状に構成された複数のビューを有するときには、ヒットビュー判定モジュール172は、サブイベントを処理すべき、階層内の最下位のビューとしてのヒットビューを特定する。ほとんどの状況では、ヒットビューは、開始サブイベント(例えば、イベント又は潜在的イベントを形成するサブイベントシーケンス内の第1のサブイベント)が行われる最も低いレベルのビューである。ヒットビューがヒットビュー判定モジュール172によって特定されると、このヒットビューは、典型的には、ヒットビューとして特定されたのと同じタッチ又は入力ソースに関係する全てのサブイベントを受信する。
アクティブイベント認識部判定モジュール173は、ビュー階層内のどのビューがサブイベントの特定のシーケンスを受信すべきかを判定する。いくつかの実施形態では、アクティブイベント認識部判定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、アクティブイベント認識部判定モジュール173は、サブイベントの物理的な場所を含む全てのビューがアクティブに関わりがあるビューであると判定し、したがって、全てのアクティブに関わりがあるビューが、サブイベントの特定のシーケンスを受信すべきであると判定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関連付けられたエリアに完全に限定された場合でも、階層内の上位のビューは、依然としてアクティブに関わりがあるビューであり続ける。
イベントディスパッチャモジュール174は、イベント情報をイベント認識部(例えばイベント認識部180)にディスパッチする。アクティブイベント認識部判定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、アクティブイベント認識部判定モジュール173により判定されたイベント認識部にイベント情報を配信する。いくつかの実施形態では、イベントディスパッチャモジュール174は、それぞれのイベント受信部182によって取得されるイベント情報をイベント待ち行列に記憶する。
いくつかの実施形態では、オペレーティングシステム126は、イベントソータ170を含む。代替的に、アプリケーション136-1がイベントソータ170を含む。更に他の実施形態では、イベントソータ170は、独立型のモジュールであり、又は接触/動きモジュール130などのメモリ102内に記憶されている別のモジュールの一部分である。
いくつかの実施形態では、アプリケーション136-1は、それぞれがアプリケーションのユーザインタフェースのそれぞれのビュー内で発生するタッチイベントを処理するための命令を含む、複数のイベント処理部190及び1つ以上のアプリケーションビュー191を含む。アプリケーション136-1の各アプリケーションビュー191は、1つ以上のイベント認識部180を含む。典型的には、それぞれのアプリケーションビュー191は、複数のイベント認識部180を含む。他の実施形態では、イベント認識部180のうちの1つ以上は、ユーザインタフェースキット(図示せず)又はアプリケーション136-1が方法及び他の特性を継承する上位レベルのオブジェクトなどの、別個のモジュールの一部である。いくつかの実施形態では、それぞれのイベント処理部190は、データ更新部176、オブジェクト更新部177、GUI更新部178、及び/又はイベントソータ170から受信されたイベントデータ179、のうちの1つ以上を含む。イベント処理部190は、任意選択的に、データ更新部176、オブジェクト更新部177、又はGUI更新部178を利用し又は呼び出して、アプリケーション内部状態192を更新する。代替的に、アプリケーションビュー191のうちの1つ以上は、1つ以上のそれぞれのイベント処理部190を含む。また、いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178のうちの1つ以上は、それぞれのアプリケーションビュー191に含まれる。
それぞれのイベント認識部180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、このイベント情報からイベントを特定する。イベント認識部180は、イベント受信部182及びイベント比較部184を含む。いくつかの実施形態では、イベント認識部180はまた、メタデータ183及びイベント配信命令188(任意選択的にサブイベント配信命令を含む)の少なくともサブセットも含む。
イベント受信部182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの移動についての情報を含む。サブイベントに応じて、イベント情報はまた、サブイベントの場所などの追加の情報を含む。サブイベントがタッチの動きに関わるとき、イベント情報はまた任意選択的に、サブイベントの速さ及び方向を含む。いくつかの実施形態では、イベントは、1つの向きから別の向きへの(例えば、縦向きから横向きへ、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイスの姿勢とも呼ぶ)についての対応する情報を含む。
イベント比較部184は、イベント情報を、定義済みのイベント又はサブイベントの定義と比較し、その比較に基づいて、イベント又はサブイベントを判定するか、あるいはイベント又はサブイベントの状態を判定若しくは更新する。いくつかの実施形態では、イベント比較部184は、イベント定義186を含む。イベント定義186は、例えばイベント1(187-1)及びイベント2(187-2)などのイベント(例えば所定のサブイベントのシーケンス)の定義を含む。いくつかの実施形態では、イベント(187)におけるサブイベントは、例えば、タッチ開始、タッチ終了、タッチの移動、タッチの中止、及び複数のタッチを含む。一実施例では、イベント1(187-1)についての定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、所定の段階に対する表示オブジェクト上の第1のタッチ(タッチ開始)、所定の段階に対する第1のリフトオフ(タッチ終了)、所定の段階に対する表示オブジェクト上の第2のタッチ(タッチ開始)、及び所定の段階に対する第2のリフトオフ(タッチ終了)を含む。別の実施例では、イベント2(187-2)の定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、所定の段階に対する表示オブジェクト上のタッチ(又は接触)、タッチ感知ディスプレイ112にわたるタッチの移動、及びタッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ以上の関連付けられたイベント処理部190に関する情報も含む。
いくつかの実施形態では、イベント定義187は、それぞれのユーザインタフェースオブジェクトについてのイベントの定義を含む。いくつかの実施形態では、イベント比較部184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを判定するヒットテストを実行する。例えば、タッチ感知ディスプレイ112上に3つのユーザインタフェースオブジェクトが表示されているアプリケーションビュー内で、タッチ感知ディスプレイ112上でタッチが検出されたとき、イベント比較部184は、ヒット試験を実行して、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを判定する。表示された各オブジェクトが、それぞれのイベント処理部190に関連付けられている場合、イベント比較部は、ヒットテストの結果を用いて、どのイベント処理部190をアクティブ化すべきかを判定する。例えば、イベント比較部184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベント処理部を選択する。
いくつかの実施形態では、それぞれのイベント(187)に対する定義はまた、サブイベントシーケンスがイベント認識部のイベントタイプに対応するか否かが判定される後までイベント情報の配信を遅延する遅延アクションを含む。
それぞれのイベント認識部180が一連のサブイベントがイベント定義186のイベントのいずれとも一致しないと判断した場合、それぞれのイベント認識部180は、イベント不可能、イベント失敗、又はイベント終了の状態に入り、その後は、タッチに基づくジェスチャの次のサブイベントを無視する。この状況では、ヒットビューについてアクティブのままである他のイベント認識部があれば、そのイベント認識部は、進行中のタッチに基づくジェスチャのサブイベントの追跡及び処理を続行する。
いくつかの実施形態では、それぞれのイベント認識部180は、イベント配信システムがどのようにサブイベント配信を実行すべきかをアクティブに関与しているイベント認識部に示す構成可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識部が互いにどのように対話するか、又はイベント認識部が互いにどのように対話できるようになっているかを示す、構成可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー階層又はプログラム階層における多様なレベルに配信されるかを示す構成可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、それぞれのイベント認識部180は、イベントの1つ以上の特定のサブイベントが認識されるときに、イベントに関連付けられたイベント処理部190をアクティブ化する。いくつかの実施形態では、それぞれのイベント認識部180は、イベントに関連付けられたイベント情報をイベント処理部190に配信する。イベント処理部190をアクティブ化することは、それぞれのヒットビューにサブイベントを送信する(及び、送信を延期する)こととは別個である。いくつかの実施形態では、イベント認識部180は、認識したイベントに関連付けられたフラグを投入し、そのフラグに関連付けられたイベント処理部190は、そのフラグを捕らえ、所定のプロセスを実行する。
いくつかの実施形態では、イベント配信命令188は、イベント処理部をアクティブ化することなくサブイベントについてのイベント情報を配信するサブイベント配信命令を含む。代わりに、サブイベント配信命令は、一連のサブイベントと関連付けられたイベント処理部に、又はアクティブに関与しているビューにイベント情報を配信する。一連のサブイベント又はアクティブに関与しているビューと関連付けられたイベント処理部は、イベント情報を受信し、所定の処理を実行する。
いくつかの実施形態では、データ更新部176は、アプリケーション136-1で使用されるデータを作成及び更新する。例えば、データ更新部176は、連絡先モジュール137で使用される電話番号を更新し、又はビデオプレーヤモジュールで使用されるビデオファイルを記憶する。いくつかの実施形態では、オブジェクト更新部177は、アプリケーション136-1で使用されるオブジェクトを作成及び更新する。例えば、オブジェクト更新部177は、新たなユーザインタフェースオブジェクトを作成し、又はユーザインタフェースオブジェクトの位置を更新する。GUI更新部178は、GUIを更新する。例えば、GUI更新部178は、表示情報を準備し、タッチ感知ディスプレイ上に表示するために表示情報をグラフィックモジュール132に送る。
いくつかの実施形態では、イベント処理部190は、データ更新部176、オブジェクト更新部177、及びGUI更新部178を含むか又はそれらへのアクセスを有する。いくつかの実施形態では、データ更新部176、オブジェクト更新部177、及びGUI更新部178は、それぞれのアプリケーション136-1又はアプリケーションビュー191の単一モジュールに含まれる。他の実施形態では、それらは、2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の記載は、入力デバイスを用いて多機能デバイス100を動作させるための他の形態のユーザ入力にも適用されるが、そのすべてがタッチスクリーン上で開始されるわけではないことを理解されたい。例えば、キーボードの単一又は複数の押圧若しくは保持と任意選択的に連携される、マウスの移動及びマウスボタンの押圧、タッチパッド上のタップ、ドラッグ、スクロールなどの接触の移動、ペンスタイラス入力、デバイスの移動、口頭による命令、検出された眼球運動、バイオメトリック入力、並びに/又はそれらの任意の組み合わせを、任意選択的に、認識するイベントを定義するサブイベントに対応する入力として利用する。
図2は、いくつかの実施形態による、タッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、任意選択的に、ユーザインタフェース(user interface、UI)200内に1つ以上のグラフィックを表示する。本実施形態、並びに後述の他の実施形態では、ユーザは、例えば、1本以上の指202(図には正確な縮尺では描かれていない)又は1つ以上のスタイラス203(図には正確な縮尺では描かれていない)を使用して、グラフィック上でジェスチャを実施することによって、それらのグラフィックのうちの1つ以上を選択することが可能となる。いくつかの実施形態では、1つ以上のグラフィックの選択は、ユーザが、その1つ以上のグラフィックとの接触を中断する場合に実施される。いくつかの実施形態では、ジェスチャは、任意選択的に、1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上向き、及び/若しくは下向き)、並びに/又はデバイス100と接触した指のロール(右から左、左から右、上向き、及び/若しくは下向き)を含む。一部の実装形態又は状況では、グラフィックとの不測の接触は、そのグラフィックを選択するものではない。例えば、選択に対応するジェスチャがタップである場合、アプリケーションアイコンの上をスイープするスワイプジェスチャは、任意選択的に、対応するアプリケーションを選択するものではない。
デバイス100はまた、任意選択的に、「ホーム」ボタン又はメニューボタン204などの1つ以上の物理ボタンを含む。前述したように、メニューボタン204は、任意選択的に、任意選択的にデバイス100上で実行される1組のアプリケーション内の任意のアプリケーション136へナビゲートするために使用される。あるいは、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI内のソフトキーとして実装される。
いくつかの実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフにしてデバイスをロックするプッシュボタン206、音量調整ボタン208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及びドッキング/充電用外部ポート124を含む。プッシュボタン206は、任意選択的に、ボタンを押し下げて、所定の時間インターバルにわたってボタンを押し下げた状態に保持することによって、デバイスの電源をオン/オフするため、ボタンを押し下げて、所定の時間インターバルが経過する前にボタンを解放することによってデバイスをロックするため、及び/又はデバイスをロック解除する、若しくはロック解除プロセスを開始するために、使用される。代替的な実施形態では、デバイス100はまた、マイクロフォン113を介して、一部の機能をアクティブ化又は非アクティブ化するための口頭入力も受け入れる。デバイス100はまた、任意選択的に、タッチスクリーン112上の接触の強度を検出する1つ以上の接触強度センサ165、及び/又はデバイス100のユーザに対する触知出力を生成する1つ以上の触知出力生成器167を含む。
図3は、いくつかの実施形態によるディスプレイ及びタッチ感知面を備える例示的な多機能デバイスのブロック図である。デバイス300は、ポータブル型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディア再生デバイス、ナビゲーションデバイス、教育的デバイス(子供の学習玩具など)、ゲームシステム、又はコントロールデバイス(例えば、家庭用又は業務用コントローラ)である。デバイス300は、典型的には、1つ以上の処理ユニット(CPU)310、1つ以上のネットワーク又は他の通信インタフェース360、メモリ370、及びこれらの構成要素を相互接続する1つ以上の通信バス320を含む。通信バス320は、任意選択的に、システム構成要素間の通信を相互接続及び制御する回路(チップセットと呼ばれることもある)を含む。デバイス300は典型的にはタッチスクリーンディスプレイであるディスプレイ340を含む、入出力(I/O)インタフェース330を含む。I/Oインタフェース330はまた、任意選択的に、キーボード及び/又はマウス(若しくは他のポインティングデバイス)350と、タッチパッド355と、デバイス300上に触知出力を生成する触知出力生成器357(例えば、図1Aを参照して前述した触知出力生成器167に類似している)と、センサ359(例えば、図1Aを参照して前述した接触強度センサ165に類似している光、加速度、近接、タッチ感知、及び/又は接触強度センサ)とを含む。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含み、任意選択的に、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステート記憶デバイスなどの不揮発性メモリを含む。メモリ370は、任意選択的に、CPU310からリモートに位置する1つ以上の記憶デバイスを含む。いくつかの実施形態では、メモリ370は、ポータブル多機能デバイス100(図1A)のメモリ102内に記憶されているプログラム、モジュール、及びプログラムに類似したデータ構造、モジュール、及びデータ構造、又はそのサブセットを記憶する。更に、メモリ370は、任意選択的に、ポータブル多機能デバイス100のメモリ102に存在しない追加のプログラム、モジュール、及びデータ構造を記憶する。例えば、デバイス300のメモリ370は、任意選択的に、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又はスプレッドシートモジュール390を記憶するのに対して、ポータブル多機能デバイス100(図1A)のメモリ102は、任意選択的に、これらのモジュールを記憶しない。
図3の上記で特定した要素はそれぞれ、任意選択的に、前述したメモリデバイスのうちの1つ以上の中に記憶される。上記で特定したモジュールはそれぞれ、前述した機能を実行する命令セットに対応する。上記で特定したモジュール又はプログラム(例えば、命令セット)は、別個のソフトウェアプログラム、手順、又はモジュールとして実施する必要はなく、したがって様々な実施形態では、これらのモジュールの様々なサブセットは、任意選択的に、組み合わされ、又は他の形で再構成される。いくつかの実施形態では、メモリ370は、任意選択的に、上記で特定されたモジュール及びデータ構造のサブセットを記憶する。更に、メモリ370は、上記で説明されていない追加のモジュール及びデータ構造を任意選択的に記憶する。
次に、任意選択的に例えばポータブル多機能デバイス100上で実施されるユーザインタフェースの実施形態に注意を向ける。
図4Aは、いくつかの実施形態によるポータブル多機能デバイス100上のアプリケーションのメニューの例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上に任意選択的に実装される。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、又はそれらのサブセット若しくはスーパーセットを含む。
●セルラー信号及びWi-Fi信号などの無線通信のための信号強度インジケータ402、・
●時刻404、・
●Bluetoothインジケータ405、・
●バッテリ状態インジケータ406、・
●以下のような、頻繁に使用されるアプリケーションのアイコンを有するトレイ408:・
○不在着信又は音声メールメッセージの数のインジケータ414を任意選択的に含む、「電話」とラベル付けされる、電話モジュール138用のアイコン416、
○未読電子メールの数のインジケータ410を任意選択的に含む、「メール」とラベル付けされた、電子メールクライアントモジュール140のアイコン418、
○「ブラウザ」とラベル付けされた、ブラウザモジュール147のアイコン420、及び
○「iPod」とラベル付けされる、iPod(Apple Inc.の商標)モジュール152とも称されるビデオ及び音楽プレーヤモジュール152用のアイコン422、及び
●以下のような、他のアプリケーションのアイコン:・
○「メッセージ」とラベル付けされた、IMモジュール141のアイコン424、
○「カレンダ」とラベル付けされた、カレンダモジュール148のアイコン426、
○「写真」とラベル付けされた、画像管理モジュール144のアイコン428、
○「カメラ」とラベル付けされた、カメラモジュール143のアイコン430、
○「オンラインビデオ」とラベル付けされた、オンラインビデオモジュール155のアイコン432、
○「株価」とラベル付けされた、株式ウィジェット149-2のアイコン434、
○「地図」とラベル付けされた、地図モジュール154のアイコン436、
○「天気」とラベル付けされた、気象ウィジェット149-1のアイコン438、
○「時計」とラベル付けされた、アラーム時計ウィジェット149-4のアイコン440、
○「トレーニングサポート」とラベル付けされた、トレーニングサポートモジュール142のアイコン442、
○「メモ」とラベル付けされた、メモモジュール153のアイコン444、及び
○デバイス100及びその様々なアプリケーション136についての設定へのアクセスを提供する、「設定」とラベル付けされた、設定アプリケーション又はモジュールのアイコン446。
図4Aに示すアイコンラベルは、単なる例示であることに留意されたい。例えば、ビデオ及び音楽プレーヤモジュール152のためのアイコン422は、「音楽」又は「音楽プレーヤ」とラベル付けされる、他のラベルが、様々なアプリケーションアイコンのために、任意選択的に使用される。いくつかの実施形態では、それぞれのアプリケーションアイコンに関するラベルは、それぞれのアプリケーションアイコンに対応するアプリケーションの名前を含む。いくつかの実施形態では、特定のアプリケーションアイコンのラベルは、その特定のアプリケーションアイコンに対応するアプリケーションの名前とは異なる。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別個のタッチ感知面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、図3のデバイス300)上の例示的なユーザインタフェースを示す。デバイス300はまた、任意選択的に、タッチ感知面451上の接触の強度を検出する1つ以上の接触強度センサ(例えば、センサ359のうちの1つ以上)、及び/又はデバイス300のユーザに対する触知出力を生成する1つ以上の触知出力生成器357を含む。
以下の例のうちのいくつかは、タッチスクリーンディスプレイ112(タッチ感知面及びディスプレイが組み合わされている)上の入力を参照して与えられるが、いくつかの実施形態では、デバイスは、図4Bに示すディスプレイとは別個のタッチ感知面上の入力を検出する。いくつかの実施形態では、タッチ感知面(例えば、図4Bの451)は、ディスプレイ(例えば、450)上の1次軸(例えば、図4Bの453)に対応する1次軸(例えば、図4Bの452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上のそれぞれの場所に対応する場所(例えば、図4Bでは、460は468に対応し、462は470に対応する)で、タッチ感知面451との接触(例えば、図4Bの460及び462)を検出する。このようにして、タッチ感知面(例えば、図4Bの451)上でデバイスによって検出されるユーザ入力(例えば、接触460及び462、並びにこれらの動き)は、タッチ感知面がディスプレイとは別個であるとき、多機能デバイスのディスプレイ(例えば、図4Bの450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が、本明細書に記載の他のユーザインタフェースに任意選択的に使用されることを理解されたい。
加えて、以下の例は、主に指入力(例えば、指接触、指タップジェスチャ、指スワイプジェスチャ)を参照して与えられるが、いくつかの実施形態では、指入力のうちの1つ以上は、別の入力デバイスからの入力(例えば、マウスベースの入力又はスタイラス入力)に置き換えられることを理解されたい。例えば、スワイプジェスチャは、(例えば、接触の代わりの)マウスクリックに続けた、(例えば、接触の移動の代わりの)スワイプの経路に沿ったカーソルの移動によって、任意選択的に置き換えられる。別の例として、タップジェスチャは、任意選択的に、(例えば、接触を検出して、それに続いて接触の検出を停止する代わりに)カーソルがタップジェスチャの場所の上に位置する間はマウスクリックと置き換えられる。同様に、複数のユーザ入力が同時に検出されるとき、複数のコンピュータマウスが、任意選択的に、同時に使用され、又はマウス及び指の接触が、任意選択的に、同時に使用されることを理解されたい。
図5Aは、例示的なパーソナル電子デバイス500を示す。デバイス500は、本体502を含む。いくつかの実施形態では、デバイス500は、デバイス100及びデバイス300(例えば、図1A~図4B)に関して説明された特徴のいくつか又は全てを含むことができる。いくつかの実施形態では、デバイス500は、タッチ感知ディスプレイスクリーン504、以下ではタッチスクリーン504、を有する。代替的に、又はタッチスクリーン504に加えて、デバイス500は、ディスプレイ及びタッチ感知面を有する。デバイス100及び300と同様に、いくつかの実施形態では、タッチスクリーン504(又はタッチ感知面)は、任意選択的に、加えられている接触(例えば、タッチ)の強度を検出する1つ以上の強度センサを含む。タッチスクリーン504(又はタッチ感知面)の1つ以上の強度センサは、タッチの強度を表す出力データを提供することができる。デバイス500のユーザインタフェースは、タッチの強度に基づいてタッチに応答することができ、これは、異なる強度のタッチが、デバイス500上で異なるユーザインタフェース動作を呼び出すことができることを意味する。
タッチ強度を検出及び処理する例示的な技法は、例えば、それぞれ全体として参照により本明細書に組み込まれている、国際特許第WO/2013/169849号として公開された、2013年5月8日出願の国際特許出願第PCT/US2013/040061号、「Device,Method,and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application」、及び国際特許第WO/2014/105276号として公開された、2013年11月11日出願の国際特許出願第PCT/US2013/069483号、「Device,Method,and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships」という関連出願に見られる。
いくつかの実施形態では、デバイス500は、1つ以上の入力機構506及び508を有する。入力機構506及び508は、含まれる場合、物理的機構とすることができる。物理的入力機構の例としては、プッシュボタン及び回転可能機構が挙げられる。いくつかの実施形態では、デバイス500は、1つ以上のアタッチメント機構を有する。そのようなアタッチメント機構は、含まれる場合、例えば帽子、アイウェア、イアリング、ネックレス、シャツ、ジャケット、ブレスレット、腕時計のバンド、チェーン、ズボン、ベルト、靴、財布、バックパックなどにデバイス500を取り付けることを可能にすることができる。これらのアタッチメント機構は、ユーザがデバイス500を着用することを可能にする。
図5Bは、例示的なパーソナル電子デバイス500を示す。いくつかの実施形態では、デバイス500は、図1A、図1B、及び図3に関して説明された構成要素のいくつか又は全てを含み得る。デバイス500は、I/Oセクション514を1つ以上のコンピュータプロセッサ516及びメモリ518に動作可能に結合するバス512を有する。I/Oセクション514は、ディスプレイ504に接続することができ、ディスプレイ504は、タッチ感知構成要素522と、任意選択的に強度センサ524(例えば、接触強度センサ)とを有することができる。加えて、I/Oセクション514は、Wi-Fi、Bluetooth、近距離通信(NFC)、セルラー、及び/又は他の無線通信技法を使用してアプリケーション及びオペレーティングシステムデータを受信する通信ユニット530に接続することができる。デバイス500は、入力機構506及び/又は508を含むことができる。入力機構506は、任意選択的に、例えば回転可能入力デバイス又は押下可能及び回転可能入力デバイスである。いくつかの例では、入力機構508は、任意選択的にボタンである。
いくつかの例では、入力機構508は、任意選択的にマイクロフォンである。パーソナル電子デバイス500は、任意選択的に、GPSセンサ532、加速度計534、方向センサ540(例えば、コンパス)、ジャイロスコープ536、動きセンサ538、及び/又はこれらの組み合わせなどの様々なセンサを含み、これらのセンサは全て、I/Oセクション514に動作可能に接続することができる。
パーソナル電子デバイス500のメモリ518は、コンピュータ実行可能命令を記憶するための1つ以上の非一時的コンピュータ可読記憶媒体を含むことができ、それらの命令は、1つ以上のコンピュータプロセッサ516によって実行されると、例えば、コンピュータプロセッサに、プロセス700、900、1100、1300、1500、及び1700(図7A~図7C、図9、図11A~図11C、図13、図15A~図15B、及び図17)を含めた、以下に説明する技術を実行させることができる。コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって使用するための、又は命令実行システム、装置、又はデバイスに接続されているコンピュータ実行可能命令を、有形に含み又は記憶することができる任意の媒体とすることができる。いくつかの例では、記憶媒体は、一時的コンピュータ可読記憶媒体である。いくつかの例では、記憶媒体は、非一時的コンピュータ可読記憶媒体である。非一時的コンピュータ可読記憶媒体は、それだけに限定されるものではないが、磁気、光学、及び/又は半導体記憶装置を含むことができる。そのような記憶装置の例としては、磁気ディスク、CD、DVD、又はBlu-ray技術に基づく光学ディスク、並びにフラッシュ、ソリッドステートドライブなどの常駐ソリッドステートメモリなどが挙げられる。パーソナル電子デバイス500は、図5Bの構成要素及び構成に限定されるものではなく、他の又は追加の構成要素を複数の構成で含むことができる。
本明細書において使用するとき、用語「アフォーダンス」は、デバイス100、300及び/又は500(図1A、図3及び図5A~図5B)のディスプレイスクリーン上に任意選択的に表示されるユーザ対話式のグラフィカルユーザインタフェースオブジェクトを指す。例えば、画像(例えば、アイコン)、ボタン、及び文字(例えば、ハイパーリンク)はそれぞれ、意選択的に、アフォーダンスを構成する。
本明細書で使用される「フォーカスセレクタ」という用語は、ユーザが対話しているユーザインタフェースの現在の部分を示す入力要素を指す。カーソル又は他の場所マーカを含むいくつかの実装形態では、カーソルが「フォーカスセレクタ」として作用し、したがってカーソルが特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の上に位置する間に、タッチ感知面(例えば、図3のタッチパッド355又は図4Bのタッチ感知面451)上で入力(例えば、押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。タッチスクリーンディスプレイ上のユーザインタフェース要素との直接対話を有効化するタッチスクリーンディスプレイ(例えば、図1Aのタッチ感知ディスプレイシステム112又は図4Aのタッチスクリーン112)を含むいくつかの実装形態では、タッチスクリーン上の検出された接触が「フォーカスセレクタ」として作用し、したがってタッチスクリーンディスプレイ上の特定のユーザインタフェース要素(例えば、ボタン、ウインドウ、スライダ、又は他のユーザインタフェース要素)の場所で入力(例えば、接触による押下入力)が検出されたとき、特定のユーザインタフェース要素が、検出された入力に従って調整される。一部の実装形態では、タッチスクリーンディスプレイ上の対応するカーソルの移動又は接触の移動(例えば、フォーカスを1つのボタンから別のボタンへ動かすためにタブキー又は矢印キーを使用することによる)なく、フォーカスがユーザインタフェースの1つの領域からユーザインタフェースの別の領域へ動かされ、これらの実装形態では、フォーカスセレクタは、ユーザインタフェースの種々の領域間でのフォーカスの移動に従って移動する。フォーカスセレクタがとる特有の形態にかかわらず、フォーカスセレクタは、概して、ユーザインタフェース要素(又はタッチスクリーンディスプレイ上の接触)であり、ユーザの意図する対話をユーザインタフェースによって通信するように、ユーザによって制御される(例えば、ユーザが対話することを意図しているユーザインタフェースの要素をデバイスに示すことによる)。例えば、タッチ感知面(例えば、タッチパッド又はタッチスクリーン)上で押圧入力が検出されている間の、それぞれのボタンの上のフォーカスセレクタ(例えば、カーソル、接触、又は選択ボックス)の場所は、そのそれぞれのボタンを(そのデバイスのディスプレイ上に示される他のユーザインタフェース要素ではなく)アクティブ化することをユーザが意図していることを示すものである。
本明細書及び特許請求の範囲で使用される、接触の「特性強度」という用語は、接触の1つ以上の強度に基づく、その接触の特性を指す。いくつかの実施形態では、特性強度は複数の強度サンプルに基づく。特性強度は、任意選択的に、所定の数の強度サンプル、すなわち、所定のイベント(例えば、接触を検出した後、接触のリフトオフを検出する前、接触の移動の開始を検出する前若しくは後、接触の終了を検出する前、接触の強度の増大を検出する前若しくは後、及び/又は、接触の強度の減少を検出する前若しくは後の)に関連する所定の期間(例えば、0.05、0.1、0.2、0.5、1、2、5、10秒)の間に収集された強度サンプルのセットに基づく。接触の特性強度は、任意選択的に、接触の強度の最大値、接触の強度の平均(mean)値、接触の強度の平均(average)値、接触の強度の上位10パーセンタイル値、接触の強度の最大の2分の1の値、接触の強度の最大の90パーセントの値などのうちの1つ以上に基づいている。いくつかの実施形態では、特性強度を判定する際に(例えば、特性強度が経時的な接触の強度の平均であるときに)、接触の持続期間が使用される。いくつかの実施形態では、特性強度は、ユーザによって動作が実行されたかどうかを判定するために、1つ以上の強度閾値のセットと比較される。例えば、1組の1つ以上の強度閾値は、任意選択的に、第1の強度閾値及び第2の強度閾値を含む。この例では、第1の閾値を超過しない特性強度を有する接触は、第1の動作をもたらし、第1の強度閾値を上回るが第2の強度閾値を上回らない特性強度を有する接触は、第2の動作をもたらし、第2の閾値を上回る特性強度を有する接触は、第3の動作をもたらす。いくつかの実施形態では、特性強度と1つ以上の閾値との間の比較は、第1の動作を実行するべきか、それとも第2の動作を実行するべきかを判定するために使用されるのではなく、1つ以上の動作を実行するべきか否か(例えば、それぞれの動作を実行するべきか、それともそれぞれの動作を実行するのを取り止めるべきか)を判定するために使用される。
図5Cは、複数の強度センサ524A~524Dによってタッチ感知ディスプレイスクリーン504上で複数の接触552A~552Eを検出することを示す。図5Cは、追加として、強度単位に対する強度センサ524A~524Dの現在の強度測定値を示す強度ダイアグラムを含む。この例では、強度センサ524A及び524Dの強度測定値はそれぞれ9強度単位であり、強度センサ524B及び524Cの強度測定値はそれぞれ7強度単位である。一部の実装形態では、集約強度は、複数の強度センサ524A~524Dの強度測定値の和であり、この例では32強度単位である。いくつかの実施形態では、各接触に、集約強度の一部分であるそれぞれの強度が割り当てられる。図5Dは、力の中心554からの距離に基づいて、集約強度を接触552A~552Eに割り当てることを示す。この例では、接触552A、552B、及び552Eのそれぞれに、集約強度の8強度単位の接触の強度が割り当てられ、接触552C及び552Dのそれぞれに、集約強度の4強度単位の接触の強度が割り当てられる。より一般的には、一部の実装形態では、各接触jは、所定の数学関数Ij=A・(Dj/ΣDi)に従って、集約強度Aの一部分である、それぞれの強度Ijが割り当てられ、ここで、Djは、力の中心からそれぞれの接触jまでの距離であり、ΣDiは、力の中心から全てのそれぞれ接触(例えば、i=1から最後まで)までの距離の和である。図5C及び図5Dを参照して説明した動作は、デバイス100、300又は500と類似又は同一の電子デバイスを使用して行うことができる。いくつかの実施形態では、接触の特性強度は、接触の1つ以上の強度に基づいている。いくつかの実施形態では、強度センサは、単一の特性強度(例えば、単一の接触の単一の特性強度)を判定するために使用される。強度図は、表示されるユーザインタフェースの一部分ではないが、読み手のために、図5C~図5Dに含まれていることに留意されたい。
いくつかの実施形態では、特性強度を判定する目的のために、ジェスチャの一部分が特定される。例えば、タッチ感知面は、任意選択的に、開始場所から遷移して終了場所に到達する連続するスワイプ接触を受信し、その時点で接触の強度が増大する。この例では、終了場所での接触の特性強度は、任意選択的に、スワイプ接触全体ではなく、連続するスワイプ接触の一部分のみ(例えば、スワイプ接触のうち終了場所の部分のみ)に基づいている。いくつかの実施形態では、任意選択的に、接触の特性強度を判定する前に、平滑化アルゴリズムがスワイプ接触の強度に適用される。例えば、平滑化アルゴリズムは、任意選択的に、非加重移動平均平滑化アルゴリズム、三角平滑化アルゴリズム、中央値フィルタ平滑化アルゴリズム、及び/又は指数平滑化アルゴリズムのうちの1つ以上を含む。いくつかの状況では、これらの平滑化アルゴリズムは、特性強度を判定する目的のために、スワイプ接触の強度の小幅な上昇又は降下を排除する。
タッチ感知面上の接触の強度は、任意選択的に、接触検出強度閾値、軽い押圧強度閾値、深い押圧強度閾値、及び/又は1つ以上の他の強度閾値などの1つ以上の強度閾値に対して特徴付けられる。いくつかの実施形態では、軽い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作をデバイスが実行する強度に相当する。いくつかの実施形態では、深い押圧強度閾値は、通常、物理マウスのボタン又はトラックパッドをクリックすることに関連付けられた動作とは異なる動作をデバイスが実行する強度に相当する。いくつかの実施形態では、軽い押圧強度閾値を下回る(例えば、それを下回ると接触が検出されなくなる公称接触検出強度閾値を上回る)特性強度を有する接触が検出されたとき、デバイスは、軽い押圧強度閾値又は深い押圧強度閾値に関連付けられた動作を実行することなく、タッチ感知面上の接触の移動に従ってフォーカスセレクタを動かす。一般に、特に明記しない限り、これらの強度閾値は、ユーザインタフェース図の様々なセットの間で一貫している。
軽い押圧強度閾値を下回る強度から、軽い押圧強度閾値と深い押圧強度閾値との間の強度への、接触の特性強度の増大は、「軽い押圧」の入力と呼ばれることがある。深い押圧強度閾値を下回る強度から、深い押圧強度閾値を上回る強度への、接触の特性強度の増大は、「深い押圧」の入力と呼ばれることがある。接触検出強度閾値を下回る強度から、接触検出強度閾値と軽い押圧強度閾値との間の強度への、接触の特性強度の増大は、タッチ面上の接触の検出と呼ばれることがある。接触検出強度閾値を上回る強度から、接触検出強度閾値を下回る強度への、接触の特性強度の減少は、タッチ面からの接触のリフトオフの検出と呼ばれることがある。いくつかの実施形態では、接触検出強度閾値はゼロである。いくつかの実施形態では、接触検出強度閾値は、ゼロより大きい。
本明細書に記載するいくつかの実施形態では、それぞれの押圧入力を含むジェスチャを検出したことに応答して、又はそれぞれの接触(若しくは複数の接触)によって実行されたそれぞれの押圧入力を検出したことに応答して、1つ以上の動作が実行され、それぞれの押圧入力は、押圧入力強度閾値を上回る接触(又は複数の接触)の強度の増大を検出したことに少なくとも部分的に基づいて検出される。いくつかの実施形態では、それぞれの動作は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大(例えば、それぞれの押圧入力の「ダウンストローク」)を検出したことに応答して実行される。いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続く押圧入力閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。
図5E~図5Hは、図5Eの軽い押圧強度閾値(例えば、「ITL」)未満の強度から図5Hの深い押圧強度閾値(例えば、「ITD」)を上回る強度に至る、接触562の強度の増加に対応する押圧入力を含む、ジェスチャの検出を示す。接触562によって実行されるジェスチャは、タッチ感知面560上で検出され、所定の領域574内に表示されたアプリケーションアイコン572A~572Dを含む表示ユーザインタフェース570上では、アプリ2に対応するアプリケーションアイコン572Bの上にカーソル576が表示される。いくつかの実施形態では、ジェスチャは、タッチ感知ディスプレイ504上に検出される。強度センサは、タッチ感知面560上の接触の強度を検出する。デバイスは、接触562の強度が深い押圧強度閾値(例えば、「ITD」)を上回ってピークに達したと判定する。接触562は、タッチ感知面560上で維持される。ジェスチャの検出に応答して、かつジェスチャ中の、深い押圧強度閾値(例えば、「ITD」)を上回る強度を有する接触562に基づいて、図5F~図5Hに示すように、アプリ2に関して最近開いた文書の縮小表現578A~578C(例えば、サムネイル)を表示する。いくつかの実施形態では、1つ以上の強度閾値と比較されるこの強度は、接触の特性強度である。接触562の強度図は、表示されるユーザインタフェースの一部分ではないが、読み手のために、図5E~図5Hに含まれていることに留意されたい。
いくつかの実施形態では、表現578A~578Cの表示は、アニメーションを含む。例えば、図5Fに示すように、表現578Aが、アプリケーションアイコン572Bに近接して最初に表示される。アニメーションが進むにつれて、図5Gに示すように、表現578Aは上方へ動き、表現578Bが、アプリケーションアイコン572Bに近接して表示される。次いで、図5Hに示すように、表現578Aが上方へ動き、表現578Bが表現578Aに向かって上方へ動き、表現578Cが、アプリケーションアイコン572Bに近接して表示される。表現578A~578Cは、アイコン572Bの上にアレイを形成する。いくつかの実施形態では、アニメーションは、図5F~図5Gに示すように、接触562の強度に従って進行し、接触562の強度が深い押圧強度閾値(例えば、「ITD」)に向かって増大するにつれて、表現578A~578Cが現れ、上方へ動く。いくつかの実施形態では、アニメーションの進行が基づいている強度は、接触の特性強度である。図5E~図5Hを参照して説明した動作は、デバイス100、300又は500と類似又は同一の電子デバイスを使用して行うことができる。
いくつかの実施形態では、デバイスは、「ジッタ」と呼ばれる場合がある偶発的な入力を回避するために強度ヒステリシスを採用し、デバイスは、押圧入力強度閾値との既定の関係を有するヒステリシス強度閾値を定義又は選択する(例えば、ヒステリシス強度閾値は、押圧入力強度閾値よりも低いX強度単位であり、又はヒステリシス強度閾値は、押圧入力強度閾値の75%、90%、若しくは何らかの妥当な割合である)。したがって、いくつかの実施形態では、押圧入力は、押圧入力強度閾値を上回るそれぞれの接触の強度の増大、及びそれに続く押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少を含み、それぞれの動作は、それに続くヒステリシス強度閾値を下回るそれぞれの接触の強度の減少(例えば、それぞれの押圧入力の「アップストローク」)を検出したことに応答して実行される。同様に、いくつかの実施形態では、押圧入力は、デバイスが、ヒステリシス強度閾値以下の強度から押圧入力強度閾値以上の強度への接触の強度の増大、及び任意選択的に、その後のヒステリシス強度以下の強度への接触の強度の減少を検出するときにのみ検出され、それぞれの動作は、押圧入力(例えば、状況に応答して、接触の強度の増大又は接触の強度の減少)を検出したことに応答して実行される。
説明を容易にするために、押圧入力強度閾値に関連付けられた押圧入力、又は押圧入力を含むジェスチャに応答して実行される動作の説明は、任意選択的に、押圧入力強度閾値を上回る接触の強度の増大、ヒステリシス強度閾値を下回る強度から押圧入力強度閾値を上回る強度への接触の強度の増大、押圧入力強度閾値を下回る接触の強度の減少、及び/又は押圧入力強度閾値に対応するヒステリシス強度閾値を下回る接触の強度の減少のいずれかを検出したことに応答してトリガされる。更に、押圧入力強度閾値を下回る接触の強度の減少を検出したことに応答して実行されるように動作が記載される例では、動作は、任意選択的に、押圧入力強度閾値に対応し、かつそれよりも低いヒステリシス強度閾値を下回る接触の強度の減少を検出したことに応答して実行される。
次に、ポータブル多機能デバイス100、デバイス300、又はデバイス500などの電子デバイス上で実施されるユーザインタフェース(「user interface、UI」)及び関連プロセスの実施形態に注意を向ける。
図6A~図6Sは、いくつかの実施形態による、ビデオデータのソース(例えば、カメラ)からライブビデオフィード及び録画ビデオを表示するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図7A~図7Cにおけるプロセスを含む、後述のプロセスを例示するために使用される。
図6Aは、タッチ感知ディスプレイ602を備える電子デバイス600を示す。いくつかの実施形態では、デバイス600は、デバイス100、300、及び500の特徴の一部又は全てを含む。図6Aでは、デバイス600は、場所123 Main St.に関連付けられたデバイス(例えば、制御可能なデバイス)を管理するためのアプリケーションのホームユーザインタフェース604を表示する。ホームユーザインタフェース604は、とりわけ、場所の名称(123 Main St.)、アクセサリ追加アフォーダンス606、及びビデオデータのそれぞれのソース(例えば、カメラ)に対応するカメラ表現610、並びにアプリケーションの様々な他の機能(例えば、照明オン/オフ、ドアロック/ロック解除などのデバイスステータス)に関連付けられたアフォーダンスを含む。図6Aに示すように、カメラ表現610は、カメラ1(正面ドアカメラ、610a)、カメラ2(裏庭カメラ、610b)、カメラ3(リビングルームカメラ、610c)、カメラ4(子供部屋カメラ、610d)、カメラ5(通用口カメラ、610e)、及びカメラ6(ガレージカメラ、610f)それぞれに対応する。
図6Aでは、デバイス600は、正面ドアカメラに関連付けられたカメラ表現610aの選択に対応するユーザ入力650a(例えば、タップ)を受信する(例えば、検出する)。
図6Bに示すように、ユーザ入力650aを受信したことに応じて、デバイス600は、正面ドアカメラからのライブ(例えば、録画でない、リアルタイムの)ビデオフィードを含むビデオメディアユーザインタフェース608を表示する。再生/一時停止アフォーダンス612を(例えば、ディスプレイ602上のタップ入力を用いて)選択して、ライブビデオフィードを一時停止することができる。ビデオメディアユーザインタフェース608はまた、スクラババー620を含む。図6Bに示すように、スクラババー620は、ディスプレイ602上に、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現を含む、対話型の細長い領域を含む。いくつかの実施形態では、メディアコンテンツ(例えば、ビデオ)は、特性(例えば、受信したユーザ入力の速度)に基づいて、任意の速度かつ可変速度で再生することができる。いくつかの実施形態では、スクラババーは、一度に約1日のコンテンツを表す。
スクラババー620内の現在表示インジケータ622は、スクラババー620のどの部分が現在表示されている画像に対応するかを示す。図6Bに示すように、現在表示インジケータ622は、現在表示されているビデオがライブフィードであることを示す。現在表示インジケータの左のスクラババー620上の位置は、現在表示されている画像に関連付けられた時刻の前の時刻に対応し、現在表示インジケータ622の右のスクラババー620上の位置は、現在表示されている画像に関連付けられた時刻の後の時刻に対応する。
図6Bに示すように、スクラババー620は、正面ドアカメラからのビデオの録画されたクリップのクリップ表現624a及び624bを含む。いくつかの実施形態では、ビデオの録画されたクリップは、スクラババー620の丸みを帯びた矩形又は影付き領域によって表される。図6Bに示すように、クリップ表現はそれぞれ、ビデオのそれぞれの録画されたクリップからの画像の表現(例えば、クリップからのサムネイル表現又は実際の画像)を含む。いくつかの実施形態では、画像は、ビデオの録画されたクリップの第1のフレーム又は中間のフレーム(例えば、代表的なフレーム)を表す。
図6Bに示すように、各クリップ表現ビデオは、ビデオの対応する録画されたクリップの持続時間に比例する、スクラババー620内の視覚的幅を有する。例えば、表現624aは、表現624bよりも狭く、これは、クリップ表現624bによって表されるビデオの録画されたクリップの持続時間が、クリップ表現624aによって表されるビデオの録画されたクリップの持続時間よりも短いことを示す。いくつかの実施形態では、ビデオの録画されたクリップの表現は、ビデオの録画されたクリップからの多数の代表画像を含み、代表画像の数は、ビデオの録画されたクリップの持続時間に正比例する。図6Bに示すように、クリップ表現624bは、対応するクリップからのおよそ1つと半分の代表画像を含み、クリップ表現624aは、1つの代表画像を含み、クリップ表現624bによって表されるクリップが、クリップ表現624aによって表されるクリップよりも約50パーセント長いことを示す。
スクラババー620はまた、正面ドアカメラからの録画ビデオが利用できない期間の中断インジケーション626a~626cを含む。図6Bに示すように、正面ドアカメラからの録画ビデオが利用できない期間は、ビデオの録画されたクリップの表現間のスペース(例えば、均一な色を有する領域)及びドットによって示される。
いくつかの実施形態では、ソースからの録画ビデオが利用できない期間のインジケーションは、期間の持続時間と無関係である。図6Bに示すように、2つのクリップ表現間(例えば、表現624aと624bとの間)のスクラババー620上の距離は、1つのクリップ(例えば、クリップ表現624bに関連付けられたクリップ)の終了と後続のクリップ(例えば、クリップ表現624aに関連付けられたクリップ)の開始との間の時間量と無関係である。図6Bに示すように、表現624aと624bとの間の距離は、1つのクリップの終了と後続のクリップの開始との間の時間量にかかわらず同じである。(例えば、表現間の距離は、1つの表現から次の表現まで固定又は一定である。)いくつかの実施形態では、クリップ表現間のスクラババー620上の距離は、1つのクリップ表現から次のクリップ表現まで変化する。いくつかの実施形態では、2つのクリップ表現間の距離は、1つのクリップの終了と後続のクリップの開始との間の時間量に基づく(例えば、正比例する)。
図6Bに示すように、ライブビデオフィードは、正面ドアステップ上に荷物が存在することを示す。図6C~図6Dに示すように、人が荷物を取り上げ、それを家に取り込む。この活動は、(例えば、動き検出処理によって)検出される。動きを検出したことに応じて、正面ドアカメラからのライブビデオフィードが(例えば、正面ドアカメラ、正面ドアカメラから遠隔のサーバ、又はデバイス600によって)録画される。いくつかの実施形態では、正面ドアカメラからのビデオは、所定の時間量にわたって(例えば、動きが検出された時刻から10秒、又は動きが検出された時刻から動きが検出されるのを停止して10秒後まで)録画される。
いくつかの実施形態では、デバイス600は、正面ドアカメラからのビデオの新たに録画されたクリップを表すデータを受信する。図6Eに示すように、図6C~図6Dに示すビデオの録画されたクリップを表すデータを受信したことに応じて、録画されたクリップのクリップ表現624cは、クリップが録画された時刻を表す位置にスクラババー620に追加される。
図6Fを参照すると、ライブビデオフィードを有するビデオメディアユーザインタフェース608を表示している間に、デバイス600は、クリップ表現626Aに対応する場所でのタッチ感知ディスプレイ602上のタップを含むユーザ入力650bを受信する(例えば、検出する)。
図6Gに示すように、ユーザ入力650Bを受信したことに応じて、デバイス600は、選択されたクリップ表現624aに対応するビデオの録画されたクリップを(例えば、ライブビデオフィードを選択されたクリップ表現624aに対応するビデオの録画されたクリップの表示と置き換えることによって)表示し、スクラババー620の表示を変更(例えば、更新又はスクロール)して、ディスプレイの主要領域内に現在表示されている画像に対応するスクラババー620の一部分を示す。図6Gに示すように、スクラババー620は、更新され、クリップ表現624aが図6Bに示す位置から現在表示インジケータ622の位置まで移動されるようにスクラババー620をスクロールすることによって、表示されているビデオがクリップ表現624aによって表されるビデオの録画されたクリップに対応することを示す。
図6Gに示すように、ユーザ入力650bを受信したことに応じて、デバイス600はまた、表示された画像に関連付けられた日時(例えば、表示された画像が録画された日時)のインジケーションを表示する。インジケーションは、ディスプレイ602の上部の日付バー630と、(例えば、時、分、秒、及び午前/午後の形式の)時刻628aと、表示された画像に関連付けられた曜日628bとを含む。日付バー630は、期間(例えば、7日間)を表し、曜日に対応する曜日インジケータ632を含む。
同様に、クリップ表現626bの選択に対応するユーザ入力を受信することにより、デバイス600に、クリップ表現624bに対応する録画されたクリップを表示させ、スクラババー620を更新させて、現在表示インジケータ622にクリップ表現624aを配置させ、クリップ表現624bに対応する録画されたクリップに関連付けられた日時に関するインジケータ(例えば、日付バー630、時刻628a、及び曜日628b)を表示させる。
図6Gに示すように、録画されたクリップを表示することは、録画されたクリップを再生すること(例えば、第1のフレームで開始すること)を含む。いくつかの実施形態では、ビデオの録画されたクリップを表示することは、選択されたクリップの一部分(例えば、クリップの第1のフレームの一時停止したビデオ、又はクリップからの代表の静止画像)を表示することを含む。いくつかの実施形態では、録画されたクリップは、最初に一時停止され、再生/一時停止アフォーダンス612は、クリップを再生することができるように一時停止ボタンの代わりに再生ボタンを表す。いくつかの実施形態では、ビデオの録画されたクリップの表示は、ユーザ入力650bの位置に基づく(例えば、選択されたクリップは、ユーザ入力650bによって接触されたクリップ表現624aの一部分に対応するフレームから再生される)。
いくつかの実施形態では、デバイス600は、タッチ感知ディスプレイ602上(例えば、ライブビデオフィードの表示又はスクラババー上)のスワイプ(例えば、左から右のスワイプ)に応じて、クリップ表現624aに対応するビデオの録画されたクリップを表示する。いくつかの実施形態では、表示されるビデオは、スワイプの長さ又は速度に基づく(例えば、より短い又はより遅いスワイプは、より長い又はより速いスワイプよりも、より最近のクリップ又はクリップのより最近の部分を表示することになる)。例えば、比較的短いスワイプは、クリップ表現624aに対応するクリップを表示させることになり、一方、より長いスワイプは、クリップ表現624bに対応するクリップを表示することになる。
いくつかの実施形態では、コンテンツのどの部分が表示されているかを示すためにスクラババー内の表現をスクロールする代わりに、現在表示インジケータ622が、表示されたクリップのクリップ表現に移動される(例えば、クリップ表現624a及び624bの位置は、同じままである)。
いくつかの実施形態では、正面ドアカメラからの録画ビデオが利用できない時刻までスクラババー620をスクロールするユーザ入力に応じて、デバイス600は、プレースホルダ画像(例えば、ライブフィードからの最も最近キャプチャされた画像の一時停止画像若しくはぼけた画像、又は選択された時刻に最も近い時刻の録画された画像)を表示する。
いくつかの実施形態では、以前の時刻の正面ドアカメラからのビデオを表示するコマンドに対応するユーザ入力(例えば、ビデオの録画されたクリップのクリップ表現上のタップ又は左から右のスワイプ若しくはドラッグジェスチャ)を受信したことに応じて、デバイス600は、正面ドアカメラからのライブビデオフィードに戻るためのアフォーダンスを表示する。図6Gに示すように、図6Fのユーザ入力650bを受信したことに応じて、ライブアフォーダンス636bが、スクラババー620の右に表示される。いくつかの実施形態では、ライブアフォーダンス636bは、(例えば、以前の時刻からのビデオを表示するユーザ入力に応じて)関連するアプリケーションアフォーダンス636Aを置き換える。ライブアフォーダンス636bの選択に対応するユーザ入力(例えば、ライブアフォーダンス636b上のタップ)を受信したことに応じて、デバイス600は、正面ドアカメラからのライブビデオフィードを表示し、スクラババー620を更新して、(例えば、現在時刻のビデオを除いて、図6Bに示すように)表示されたビデオがライブビデオフィードであることを示す。いくつかの実施形態では、日付バー630、並びに時刻628a及び曜日628bのインジケーションが除去される。
ここで図6Hを参照すると、デバイス600は、ユーザ入力650cを受信する(例えば、検出する)。図6Hに示すように、ユーザ入力650cは、スクラババー620上の右から左へのドラッグジェスチャを含む。図6Iに示すように、ユーザ入力650Cに応じて、デバイス600は、クリップの時刻を前進させ、スクラババー620を左にスクロールし、時刻インジケータ628a及び曜日インジケータ628bを更新する。いくつかの実施形態では、日付バー630上の曜日インジケータ632は、スクラババー620が異なる日に(例えば、図6Kに関して以下に説明するように、夜明インジケーション621を越えて)スクロールされると、更新する。いくつかの実施形態では、日付バーによって表される時間の持続時間は、固定されたままであり、一方、スクラババーは、日付バーによって表される時間範囲の終了に到達するまでスクロールされる(例えば、スクラババー620は、日付バーによって現在表されている範囲の限界を超える時刻までスクロールされる)。スクラババー620が日付バーによって表される範囲を超える時刻までスクロールされる場合、日付バーは、先行する又は後続の期間(例えば、以前の7日の範囲)を示すように更新されることになる。
いくつかの実施形態では、日付バー630は、選択された日からのビデオを表示するために使用することができるアフォーダンスを含む。図6Jに示すように、デバイス600は、1月27日土曜日に対応する日付バー630上の位置でのユーザ入力650d(例えば、タップ)を受信する(例えば、検出する)。図6Kに示すように、ユーザ入力650dを受信したことに応じて、デバイス600は、午前12:18:06で開始して、1月27日土曜日に録画された正面ドアカメラからのビデオのクリップを表示する。スクラババー620は、更新され、クリップ表現624eが表示されたクリップに対応することを示し、日付バー630(日インジケータ632を含む)、時刻インジケータ628a、及び週インジケータ628bは、更新され、選択された日時を示す。いくつかの実施形態では、日付バー630の端部上の前方矢印(「>」)又は後方矢印(「<」)上の入力(例えば、タップ)を受信したことに応じて、デバイス600は、所定の時間量(例えば、1日、7日、又は日付バー630によって表示された時間範囲)だけ日付バー630の時間を前方又は後方にそれぞれにスクロールする。いくつかの実施形態では、更に、日付バー630上の前方矢印又は後方矢印上の入力を受信したことに応じて、デバイス600は、現在表示されている画像に対応する時刻の所定の時間量前又は後(例えば、図6Jに示すように、1月30日の7日後又は前)にそれぞれ対応する画像を表示し、それに応じてスクラババー620を更新する。
図6Kに示すように、スクラババー620はまた、2日(例えば、金曜日と土曜日)の間の境界の夜明インジケーション621を含む。図6Kに示すように、境界は、スクラババー620上の/スクラババー620を通る垂直線によって示される。
図6Lに示すように、デバイス600は、(例えば、スクラババー620に隣接する)共有アフォーダンス634b上のユーザ入力650e(例えば、タップ)を受信する(例えば、検出する)。いくつかの実施形態では、共有アフォーダンス634bは、以前に録画されたクリップ(例えば、図6Fのユーザ入力650b)又は以前の時刻(例えば、図6Hのユーザ入力650c)の選択に対応する入力に応じて、(例えば、図6B~図6Fに示す)編集アフォーダンス634aを置き換える。ユーザ入力650eを受信したことに応じて、デバイス600は、録画ビデオのセグメントを選択して録画ビデオの選択されたセグメントを共有するプロセスを開始する。図6Mに示すように、デバイス600は、スクラババー620内のビデオの現在表示されているクリップのより詳細な表現(例えば、現在表示されているクリップのみからの複数の代表画像)を表示する。現在のクリップの日時範囲は、(例えば、日付バー630の代わりに)ディスプレイ602の上部に表示される。デバイス600はまた、表示されたクリップの一部分を選択して共有するための、スクラババー620上のセレクタハンドルアフォーダンス623a及び623bを表示する。
図6N~図6Qに示すように、デバイス600は、セレクタハンドルアフォーダンス623a及び623bを移動させて表示されたクリップの中間の部分625を選択する、セレクタハンドルアフォーダンス623a及び623b上のユーザ入力650f及び650g(例えば、ドラッグジェスチャ)を受信する(例えば、検出する)。図6Rに示すように、デバイス600は、(ユーザ入力650eに応じて、例えば、図6Lに示す位置からディスプレイ602の上部に移動された)共有アフォーダンス634b上のユーザ入力650h(例えば、タップ)を受信する(例えば、検出する)。図6Sに示すように、ユーザ入力650hを受信したことに応じて、デバイス600は、表示されたクリップの選択された部分を共有するための、その部分を保存するための、又はその部分に関連付けられた他の動作を実行するための様々なオプションを含む、共有メニュー638を表示する。
図7A~図7Cは、いくつかの実施形態による、電子デバイスを使用して、ビデオデータのソース(例えば、カメラ)からのライブビデオフィード及び録画ビデオを表示する方法を示すフロー図である。方法700は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法700は、電子デバイスを使用して、ビデオデータのソース(例えば、カメラ)からのライブビデオフィード及び録画ビデオを表示するための直感的な方法を提供する。この方法は、ライブビデオフィード及び録画ビデオを表示するためのユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的にライブビデオフィード及び録画ビデオを表示することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック702で、デバイスは、第1のソース(例えば、カメラ)からのライブ(例えば、録画でない、リアルタイムの)ビデオフィード及びスクラババー(例えば、620)を含むビデオメディアユーザインタフェース(例えば、608)を表示する。いくつかの実施形態では、スクラババーは、ディスプレイ(例えば、602)上の、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現(例えば、624a、624b)を含む、対話型の細長い領域である。いくつかの実施形態では、メディアコンテンツ(例えば、ビデオ)は、特性(例えば、受信したユーザ入力の速度)に基づいて、任意の速度かつ可変速度で再生することができる。いくつかの実施形態では、スクラババーは、一度に約1日のコンテンツを表す。
スクラババー(例えば、620)は、第1のソースからのビデオの録画されたクリップの表現(例えば、624a)(例えば、スクラババーの丸みを帯びた矩形又は影付き領域)を含む。表現は、スクラババー内の第1の位置(例えば、現在時刻の前の時刻に対応する位置)に位置する。いくつかの実施形態では、ビデオの録画されたクリップの表現は、ビデオの録画されたクリップの持続時間に比例する、スクラババー内の視覚的幅を有する。いくつかの実施形態では、ビデオの録画されたクリップの表現は、ビデオの録画されたクリップからの画像の表現(例えば、クリップからのサムネイル表現又は実際の画像)を含む。いくつかの実施形態では、画像は、ビデオの録画されたクリップの第1のフレーム又は中間のフレームを表す。いくつかの実施形態では、ビデオの録画されたクリップの表現は、ビデオの録画されたクリップからの多数の代表画像を含み、代表画像の数は、ビデオの録画されたクリップの持続時間に正比例する。
いくつかの実施形態では、スクラババーは、第1のソースからの録画ビデオが利用できない期間のインジケーション(例えば、626a、626b、626c)を更に含む。いくつかの実施形態では、第1のソースからの録画ビデオが利用できない期間は、ビデオの録画されたクリップの表現間のスペース(例えば、均一な色又はドット、例えば、626b)によって示される。いくつかの実施形態では、第1のソースからの録画ビデオが利用できない期間のインジケーションは、期間の持続時間と無関係である。いくつかの実施形態では、ビデオの録画されたクリップの2つの表現の間のスクラババー上の距離は、1つのクリップの終了と後続のクリップの開始との間の時間量と無関係である(例えば、距離は、固定されている)。いくつかの実施形態では、ビデオの録画されたクリップの2つの表現の間のスクラババー上の距離は、可変である(例えば、距離は、1つのクリップの終了と後続のクリップの開始との間の時間量に基づく(例えば、正比例する))。いくつかの実施形態では、スクラババーは、第1の日と第2の日との間の境界のインジケーションを更に含む。いくつかの実施形態では、2日の間の境界は、スクラババー上の又はスクラババーを通る垂直線によって示される。
ブロック704で、ビデオメディアユーザインタフェース(例えば、608)を表示している間に、デバイスは、第1のユーザ入力(例えば、650b)(例えば、ディスプレイ上の右スワイプ又はクリップ上のタップ)を検出する。いくつかの実施形態では、第1のユーザ入力は、電子デバイスのタッチ感知面上のスワイプを含む。いくつかの実施形態では、スワイプは、タッチ感知ディスプレイ上(例えば、ライブビデオフィード上又はスクラババー上)の左から右のスワイプである。いくつかの実施形態では、表示されるビデオは、スワイプの長さ又は速度に基づく(例えば、より短い又はより遅いスワイプは、より長い又はより速いスワイプよりも、より最近のクリップ(又はクリップのより最近の部分)を表示することになる)。いくつかの実施形態では、第1のユーザ入力は、電子デバイスのタッチ感知面上のタップを含み、タップは、ビデオの録画されたクリップの表現に対応する場所を有する。
ブロック706で、デバイスは、ライブビデオフィード(例えば、図6Eのフィード)をビデオの録画されたクリップの表示(例えば、クリップの第1のフレームの一時停止したビデオ、クリップの代表的なフレーム、クリップを開始から再生する、又はクリップをスクラババーがスクロールされた位置に基づくフレームから再生する)(例えば、図6Gのフィード)と置き換える。いくつかの実施形態では、デバイスは、第1のユーザ入力を検出したことに応じて、ライブビデオフィードを、ビデオの録画されたクリップの表示と置き換える。いくつかの実施形態では、ビデオの録画されたクリップを表示することは、クリップの一部分(例えば、クリップの第1のフレームの一時停止したビデオ、又は第1の入力によって選択されたクリップ内の位置に対応するフレーム)を表示することを含む。いくつかの実施形態では、録画されたクリップを表示することは、録画されたクリップを再生すること(例えば、第1のフレーム又は第1の入力によって選択されたクリップ内の位置に対応するフレームで開始することこと)を含む。ライブビデオフィードを、ビデオの録画されたクリップのディスプレイと置き換えることにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザがもはやライブビデオフィードを閲覧していないことをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ブロック708で、デバイスは、スクラババー(例えば、620)を更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示す(例えば、図6G)。いくつかの実施形態では、デバイスは、第1のユーザ入力を検出したことに応じて、スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示す。いくつかの実施形態では、ポインタ要素(例えば、622)が、クリップの表現に移動される。いくつかの実施形態では、クリップの表現は、スクラババー内の異なる位置(例えば、中心)に移動される。いくつかの実施形態では、スクラババー内のビデオコンテンツ全体の表現は、スクラババー内の固定位置(例えば、中心)に表されるコンテンツが主要領域内に表示されるようにスクロールされる。スクラババーを更新して、ビデオの録画されたクリップの表示がスクラババー内のビデオの録画されたクリップの表現に対応することを示すことにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザがもはやライブビデオフィードを閲覧していないことをユーザに示す。加えて、フィードバックは、ユーザがスクラババーと対話することによって表示されているコンテンツを制御することができることをユーザに示す。更に、フィードバックは、スクラババー内の他のクリップに対する位置で示されるように、クリップが録画されたおおよその日付/時刻をユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
任意選択的に、ブロック710で、デバイスは、(例えば、第1のユーザ入力を検出したことに応じて)ビデオの録画されたクリップに関連付けられた時刻のインジケーション(例えば、632)を表示する。いくつかの実施形態では、インジケーションは、ビデオの表示された部分が録画された日を強調表示する日付バー(例えば、630)(例えば、ディスプレイの上部又はその付近に表示される)を含む。いくつかの実施形態では、日付バーは、固定された時間の持続時間(例えば、7日)を表す。いくつかの実施形態では、インジケーションは、ビデオが録画された時刻及び曜日を示すテキスト(例えば、スクラババーの上の)を含む。いくつかの実施形態では、日付バーによって表される時間の持続時間は、固定されたままであり、一方、スクラババーは、日付バーの端部に到達するまでスクロールされる(例えば、ユーザは、日付バーの限界を超える時刻にスクラブする)。
いくつかの実施形態では、ビデオの録画されたクリップに関連付けられた時刻のインジケーション(例えば、628a)は、期間を表し、かつビデオの録画されたクリップに関連付けられた時刻を示す、アフォーダンスを含む。任意選択的に、ブロック712で、デバイスは、期間を表すアフォーダンスの選択(例えば、特定の日又は日付バーの端部の前方/後方矢印の選択)に対応する第2のユーザ入力(例えば、650d)を受信する。いくつかの実施形態では、前方/後方矢印を選択することにより、アフォーダンスを後続の/前の期間(例えば、後続の/前の7日)にスクロールする。任意選択的に、第2のユーザ入力を受信したことに応じて、デバイスは、ブロック714、716、及び718の動作を実行する。ブロック714で、デバイスは、ビデオの録画されたクリップの表示をビデオの第3の録画されたクリップの表示(例えば、日付バー内で選択された日付に録画されたビデオ、又は前方/後方矢印が選択された場合、現在表示されている部分が録画された日の7日後/前に録画されたビデオ)と置き換える。ブロック716で、デバイスは、アフォーダンスを更新して、ビデオの第3の録画されたクリップに関連付けられた時刻を示す(例えば、円形インジケータを以前の日から選択された日に移動させる)。ブロック718で、デバイスは、スクラババーを更新して、ビデオの第3の録画されたクリップがスクラババー内のビデオの第3の録画されたクリップの表現(例えば、624e)に対応することを示す。アフォーダンスを更新してビデオの第3の録画されたクリップに関連付けられた時刻を示すことにより、ユーザが異なる日に録画された異なるクリップ間で迅速にジャンプすることができるというフィードバックをユーザに提供する。加えて、フィードバックは、ユーザが日付バーと対話することによって表示されているコンテンツを制御することができることをユーザに示す。更に、スクラババーを更新して、ビデオの第3の録画されたクリップがスクラババー内のビデオの第3の録画されたクリップの表現に対応することを示すことにより、スクラババー内の他のクリップに対する位置で示されるように、クリップが録画されたおおよその日付/時刻に関するフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、デバイスは、(例えば、第1のユーザ入力を検出したことに応じて)第2のアフォーダンス(例えば、636b)を表示する。いくつかの実施形態では、第2のアフォーダンスは、スクラババーに隣接して表示されたアイコンである。任意選択的に、ブロック720で、デバイスは、第2のアフォーダンスの選択に対応する第3のユーザ入力(例えば、タップ)を検出する。任意選択的に、第2のアフォーダンスの選択に対応する第3のユーザ入力を検出したことに応じて、デバイスは、ブロック722及び724の動作を実行する。ブロック722で、デバイスは、ライブビデオフィード(例えば、図6Bのフィード)を表示する。ブロック724で、デバイスは、スクラババーを更新して、ライブビデオフィードが表示されていることを示す。いくつかの実施形態では、日付バー及び時刻のインジケーションは、ディスプレイから除去される。第2のアフォーダンス(例えば、「ライブ」アイコン)を表示することにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。具体的には、第2のアフォーダンスは、ユーザがもはやライブコンテンツを閲覧しておらず、かつユーザが第2のアフォーダンスを選択することによってライブコンテンツに切り替えて戻ることができるというフィードバックをユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
任意選択的に、ブロック726で、デバイスは、第1のソースからのビデオの第2の録画されたクリップを表すデータを受信する。任意選択的に、ブロック728で、デバイスは、第1のソースからのビデオの第2の録画されたクリップを表すデータを受信したことに応じて、スクラババー内にビデオの第2の録画されたクリップの表現(例えば、624c)を表示する。
いくつかの実施形態では、ビデオメディアユーザインタフェースは、第3のアフォーダンス(例えば、634b)(例えば、「共有」アフォーダンス)を含む。任意選択的に、ブロック730で、デバイスは、第3のアフォーダンスの選択に対応する第4のユーザ入力(例えば、650e)(例えば、タップ)を検出する。任意選択的に、ブロック732で、第3のアフォーダンスの選択に対応する第4のユーザ入力を検出したことに応じて、デバイスは、録画ビデオのセグメントを選択して録画ビデオの選択されたセグメントを共有するプロセスを開始する。いくつかの実施形態では、録画ビデオのセグメントを選択するプロセスは、録画されたコンテンツの一部分を選択して共有するためのアフォーダンス(例えば、スクラババー上のセレクタハンドル(例えば、623a、623b)を表示することと、アフォーダンス上の入力(例えば、セレクタハンドルの調整)、並びに録画ビデオの選択されたセグメントを共有するための受信者及び通信方法を指定するためのアフォーダンスの選択を検出することと、を含む。
方法700に関して上述したプロセス(例えば、図7A~図7C)の詳細はまた、以下で説明する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法700は、任意選択的に、方法900、1100、1300、1500、1700、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、方法700においてライブビデオフィードを提供することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図8A~図8Jは、いくつかの実施形態による、ビデオソース(例えば、カメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ソースに関連する外部デバイスを制御するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図9におけるプロセスを含む、後述のプロセスを例示するために使用される。
図8Aは、(上述した)正面ドアカメラからのライブビデオフィード及びスクラババー620を含むユーザインタフェース800を表示するデバイス600を示す。いくつかの実施形態では、正面ドアカメラからのライブビデオフィードの代わりに、デバイス600は、図8A~図8Jを参照して以下でより詳細に説明するように、正面ドアカメラに関連付けられたイベント(例えば、動き検出)に対応する通知などのビデオデータの別の表現を表示する。
ユーザインタフェース800はまた、正面ドアカメラに関連付けられた少なくとも1つの制御可能な外部デバイスに対する制御にアクセスするための、関連デバイスアフォーダンス636Aも含む。図8Aに示すように、関連デバイスアフォーダンス636aは、スクラババー620の隣の別個のアイコンである。
図8Aでは、デバイス600は、関連デバイスアフォーダンス636Aの選択に対応するユーザ入力850a(例えば、タップ)を受信する(例えば、検出する)。図8Bに示すように、ユーザ入力850aを受信したことに応じて、デバイス600は、それぞれの制御可能な外部デバイスを表すデバイスアフォーダンス804a~804fのメニュー804を含むユーザインタフェース802を表示する。アフォーダンス804a~804fによって表される制御可能な外部デバイスのうちの1つ以上は、正面ドアカメラに関連付けられている。いくつかの実施形態では、制御可能な外部デバイスは、ビデオデータのソースに対する物理的近接度(例えば、制御可能な外部デバイス及びビデオソースが、建物の同じ部屋又は部分に物理的に配置されている)、正面ドアカメラとの指定された関連付け(例えば、制御可能な外部デバイス及びビデオソースは、グラフィカルユーザインタフェースを介してなど、ユーザによって手動で関連付けられている)、又は正面ドアカメラとの共通の機能性、のうちの少なくとも1つに基づいて、正面ドアカメラに関連付けられている。いくつかの実施形態では、制御可能な外部デバイス及び正面ドアカメラは、セキュリティ機能を提供する(例えば、セキュリティカメラ(ビデオソース)は、デバイスがカメラに物理的に近接していない場合であっても、ユーザがオンにすることを望むことがある照明(制御可能な外部デバイス(単数又は複数))及びユーザがロックすることを望むことがあるドアロック(より制御可能な外部デバイス(単数又は複数))(例えば、裏口を含む全ての外部ドア)に関連付けられている)。図8Bに示すように、メニュー804は、ユーザインタフェース802に重ね合わされたポップアップメニューである。いくつかの実施形態では、関連デバイスアフォーダンス636aの選択に応じて、デバイス600は、ユーザインタフェース800を、メニュー804を含む別個のユーザインタフェースと置き換える(例えば、ライブビデオフィード及びスクラババー620を表示することを停止する)。
図8Cに示すように、デバイス600は、ガレージドアカメラを表すアフォーダンス804eの選択に対応するユーザ入力850b(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力850bを受信したことに応じて、デバイス600は、選択された制御可能な外部デバイスを制御するプロセスを開始する。図8Dに示すように、デバイス600は、正面ドアカメラからのライブビデオフィードを表示することを停止し、正面ドアカメラからのライブビデオフィードをガレージドアカメラに対する制御(例えば、スクラババー620など)を有する別個のユーザインタフェース806と置き換える。いくつかの実施形態では、選択されたデバイスは、対応するアフォーダンスの選択に応じて、直接制御される。例えば、アフォーダンス804bの選択に応じて、正面ドアは、ロック解除される(例えば、デバイス600は、正面ドアロックに命令を送信する、又は正面ドアがロック解除されるべきであることを示すデータを中央コントローラデバイスに送信する)。いくつかの実施形態では、選択されたデバイスを直接制御することの代わりに、選択されたデバイスを制御するプロセスは、1つ以上の介在ステップ(例えば、選択されたデバイスの動作状態のメニューを表示すること、状態のうちの1つの選択に対応する入力を受信することと、及び選択されたデバイスを選択された状態に従って動作させる命令を送信すること)を含む。
ここで図8Eを参照すると、ビデオデータのソースに関連するデバイスの制御にアクセスするための別の実施形態が記載されている。図8Eに示すように、デバイス600は、(例えば、正面ドアカメラからの代表画像810a及びテキスト「正面ドア」により)正面ドアカメラを表す通知810を有するユーザインタフェース808を表示する。いくつかの実施形態では、通知810は、正面ドアカメラによって検出された動きに応じて表示される。いくつかの実施形態では、通知810は、正面ドアカメラに関連付けられたデバイスのアクティブ化(例えば、正面ドアベルのアクティブ化)に応じて表示される。
通知810は、正面ドアカメラに関連付けられた少なくとも1つの制御可能な外部デバイスに対する制御にアクセスするためのアフォーダンスを含む。いくつかの実施形態では、アフォーダンスは、選択可能である通知810それ自体に含まれる(例えば、通知810は、アフォーダンスである)。図8Fでは、デバイス600は、通知810の選択に対応するユーザ入力850c(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力850cを受信したことに応じて、デバイス600は、正面ドアカメラからの画像(例えば、ライブ又は一時停止したビデオストリーム、再生している又は一時停止した録画されたビデオクリップ、又は録画されたビデオクリップの通知)を表示する。図8Gに示すように、ユーザ入力850cを受信したことに応じて、デバイス600は、通知810を除去し、通知を引き起こしたイベント(例えば、猫の動きを検出すること)に対応する正面ドアカメラからの録画されたビデオクリップ812を表示する。
デバイス600はまた、正面ドアロック、正面ポーチ照明、及び正面ポーチインターホンそれぞれを制御する(又はそれらに対する制御にアクセスする)ためのアフォーダンス814a~814cを表示し、これらの全ては、正面ドアカメラに関連付けられている。図8Gでは、アフォーダンス814a~814cは、それぞれのデバイスの現在の状態のインジケーションを含む。いくつかの実施形態では、図8Jに示すように、デバイス600は、アフォーダンスの選択からもたらされることになるアクションを示すアフォーダンス816a~816bを表示する。
いくつかの実施形態では、デバイス600は、正面ドアカメラからの画像を有するビデオ制御を表示する。図8Gに示すように、デバイス600は、再生/一時停止アフォーダンス818、スクラババー820、及び「ライブ」アフォーダンス822を表示する。図8H~図8Iに示すように、デバイス600は、「ライブ」アフォーダンス822上のユーザ入力850d(例えば、タップ)を受信し、それに応じて、(例えば、ビデオの録画されたクリップの代わりに)正面ドアカメラからのライブビデオフィードを表示する。図8Iでは、「ライブ」アフォーダンス822は、表示された画像がライブビデオフィードであることを示すように、(図8Hと比較して)変更される。
図9は、いくつかの実施形態による、電子デバイスを使用して、ビデオソース(例えば、カメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ソースに関連する外部デバイスを制御する方法を示すフロー図である。方法900は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法900のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法900は、ビデオソース(例えば、カメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ソースに関連する外部デバイスを制御するための直感的な方法を提供する。この方法は、ビデオソース(例えば、カメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ソースに関連する外部デバイスを制御するためのユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的にビデオソース(例えば、カメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ソースに関連する外部デバイスを制御することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック902で、デバイスは、ビデオデータのソースからのビデオデータの表現(例えば、ライブ又は一時停止したビデオストリーム、再生している又は一時停止した録画されたクリップ、録画されたクリップの通知(例えば、810)など)と、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスに対する制御にアクセスするための第1のアフォーダンス(例えば、636a)と、を含む第1のユーザインタフェース(例えば、800)を表示する。いくつかの実施形態では、ビデオデータの表現がメインビデオ閲覧UIである場合、アフォーダンスは、(例えば、スクラババーの隣の)別個のアイコンである。いくつかの実施形態では、ビデオデータの表現が通知の一部である場合、通知それ自体は、アフォーダンスである。いくつかの実施形態では、ビデオデータの表現は、ビデオデータのソースからのライブビデオフィードを含む。いくつかの実施形態では、ビデオデータの表現は、ビデオデータのソースに関連付けられたイベントに対応する通知を含む。いくつかの実施形態では、通知は、ビデオデータのソースによって検出された動きに応じて表示される。いくつかの実施形態では、通知は、ビデオデータのソースに関連付けられたアクセサリのアクティブ化に応じて表示される(例えば、正面ドアカメラに関連付けられた通知は、正面ドアベルのアクティブ化に応じて表示される)。
ブロック904で、デバイスは、第1のアフォーダンスの選択に対応する第1のユーザ入力(例えば、850a、850c)を検出する。いくつかの実施形態では、デバイスは、第1のユーザインタフェースを表示している間に、第1のアフォーダンスの選択に対応する第1のユーザ入力を検出する。
ブロック906で、デバイスは、第1のユーザ入力を検出したことに応じて、第2のユーザインタフェース(例えば、802)を表示する。第2のユーザインタフェースを表示することは、ビデオデータのソースに関連付けられた少なくとも1つの制御可能な外部デバイスの第1の制御可能な外部デバイスを表す第2のアフォーダンス(例えば、804a~804f、814a~814c、816a~816b)を少なくとも表示することを含む。いくつかの実施形態では、少なくとも1つの制御可能な外部デバイスは、ビデオデータのソースに対する物理的近接度(例えば、アクセサリ及びビデオソースが、建物の同じ部屋又は部分に物理的に配置されている)、ビデオデータのソースとの指定された関連付け(例えば、アクセサリ及びビデオソースは、グラフィカルユーザインタフェースを介してなど、ユーザによって手動で関連付けられている)、又はビデオデータのソースとの共通の機能性、のうちの少なくとも1つに基づいて、ビデオデータのソースに関連付けられている。いくつかの実施形態では、アクセサリ及びビデオソースは、セキュリティ機能を提供する(例えば、セキュリティカメラは、カメラがカメラに物理的に近接していない場合であっても、ユーザがオンにすることを望むことがある照明及びユーザがロックすることを望むことがあるドアに関連付けられている)。ビデオデータのソースに関連付けられた第1の制御可能な外部デバイスを表す第2のアフォーダンスを表示することにより、第2のアフォーダンスは、ユーザが閲覧している/閲覧していたビデオデータのソースに関連するというフィードバックをユーザに提供する。したがって、フィードバックは、第2のアフォーダンスがビデオデータのソースに関連付けられた外部デバイスを制御するためのものであることをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
任意選択的に、ブロック908で、デバイスは、ビデオデータのソースからの録画ビデオ(例えば、812)を表示し、録画ビデオは、ビデオデータのソースに関連付けられたイベントに対応する。
任意選択的に、ブロック910で、デバイスは、ビデオデータの表現(例えば、800)を表示することを停止する。ビデオデータの表現がライブビデオフィードを含むいくつかの実施形態では、第2のアフォーダンス(例えば、636a)を選択することにより、ライブビデオフィードを関連するアクセサリに対する制御(例えば、804b~804f)を有する別個のユーザインタフェース(例えば、802)と置き換える。ビデオデータの表現が通知を含むいくつかの実施形態では、第2のアフォーダンスが選択されると、通知が除去される。ビデオデータの表現を表示することを停止することにより、ユーザがユーザインタフェースと対話しているときにユーザの集中又は注意をそらすことを防止するのを助ける。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ブロック912で、デバイスは、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択(例えば、850b)を検出する。
ブロック914で、デバイスは、第1の制御可能な外部デバイスを表す第2のアフォーダンスの選択を検出したことに応じて、第1の制御可能な外部デバイス(例えば、ガレージカメラ)を制御するプロセスを開始する。いくつかの実施形態では、プロセスを開始することにより、アフォーダンスの選択に応じて直接外部デバイスを制御すること、又は介在ステップ(例えば、アクセサリを制御するために次に選択することができるアクセサリ状態のメニューを表示すること)のいずれかを可能にする。
方法900に関して上述したプロセス(図9)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法900は、任意選択的に、方法700、1100、1300、1500、1700、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、方法700においてライブビデオフィードを提供することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図10A~図10Jは、いくつかの実施形態による、ビデオデータの複数のソース(例えば、複数のカメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ナビゲートするための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図11A~図11Cにおけるプロセスを含む、後述のプロセスを例示するために使用される。
図10Aは、(図6Aを参照して例示し上述したように)場所123 Main St.に関連付けられたデバイスを管理するためのアプリケーションのホームユーザインタフェース604を表示するデバイス600を示す。いくつかの実施形態では、ホームユーザインタフェース604は、デバイス600が縦向き(例えば、直立向き)に向けられているとの判定に従って、表示される。
図10Bに示すように、デバイス600が横向きに向けられているとの判定に従って(例えば、デバイス600が図10Aの縦向きから図10Bの横向きに物理的に回転されたことに応じて)、デバイス600は、ビデオデータのソース(例えば、カメラ1~6)にフォーカスしたユーザインタフェース1000を表示する。図10Bに示すように、ユーザインタフェース1000は、図10Aに表されるビデオデータのソースのカメラ表現1010a~1010f(例えば、画像)を含む。いくつかの実施形態では、カメラ表現1010は、図10Aに示すカメラ表現610の拡大バージョン及び回転バージョンである。
いくつかの実施形態では、デバイス600は、向きの変化(例えば、縦向きから横向きへの)を検出し、それに応じて、ユーザインタフェース604をユーザインタフェース1000と置き換える。いくつかの実施形態では、デバイス600は、向きの変化(例えば、横向きから縦向きへの)を検出し、それに応じて、ユーザインタフェース1000をユーザインタフェース604と置き換える。
カメラ表現1010a~1010fは、それぞれのソースに関連付けられた動作モードを示すために、ビデオデータの各ソースに対するステータスインジケータ1012a~1012fを含む。ステータスインジケータ1012a、1012b、1012d、及び1012fは、ソースがライブビデオフィード(ライブビデオフィードは、録画されない)を提供する「ストリーム」モードで動作するようにデータの対応するソースが設定されていることを示す。ステータスインジケータ1012cは、ソースが特定の基準に従って録画されることになるライブビデオフィードを提供する「ストリーム及び録画」モードで動作するようにデータの対応するソースが設定されていることを示し、ステータスインジケータ1012eは、対応するソースがライブビデオフィードを提供しない「オフ」モードで動作するようにデータの対応するソースが設定されていることを示す。画像1012eに対応するソースは「オフ」であるため、画像は、ライブビデオが現在利用可能でないことを示すために、グレーアウト又はぼかされており、それを通る線を有するカメラのアイコンを含む(例えば、画像は、ソースによってキャプチャされたビデオの最も最近のフレームのぼけた画像である)。
図10Bに示すように、ユーザインタフェース1000はまた、複合スクラババー1020を含む。複合スクラババー1020は、ディスプレイ上に、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現を含む、対話型の細長い領域を含む。いくつかの実施形態では、メディアコンテンツ(例えば、ビデオ)は、特性(例えば、受信したユーザ入力の速度)に基づいて、任意の速度かつ可変速度で再生することができる。複合スクラババー1020は、デバイス600に利用可能なビデオデータのソースのうちの1つ以上からのメディアコンテンツの表現を含むことができる。図10Bに示すように、複合スクラババー1020は、複合クリップ表現1024a及び1024bを含む。いくつかの実施形態では、複合クリップ表現は、2つ以上のソースからの録画ビデオを表す。複合クリップ表現1024aは、カメラ6(ガレージカメラ)のみからのビデオの録画されたクリップを表し、複合クリップ表現1024bは、カメラ1(正面ドアカメラ)からのビデオの録画されたクリップとカメラ4(子供部屋カメラ)からのビデオの録画されたクリップの両方を表す。図10Bでは、複合クリップ表現1024bは、カメラ1からの録画された画像のサムネイル1024b-1及びカメラ4からの録画された画像のサムネイル1024b-2を含むことによって、カメラ1及びソース4の両方からの録画ビデオを表す。いくつかの実施形態では、スクラババー1020内の複合クリップ表現は、録画ビデオが少なくとも1つのソースから利用可能である連続する時間の持続時間を表す(例えば、録画ビデオがいずれのソースに関しても利用可能でない複合クリップ表現によって表される時間が存在しない)。いくつかの実施形態では、スクラババー1020は、スクラババー620の特徴の一部又はすべてを含む。例えば、場所に関連付けられたビデオのソースのいずれかからのビデオの新しい録画されたクリップが利用可能になると、録画されたクリップは、デバイス600によって受信され、新たに録画されたクリップの対応する複合クリップ表現が、(例えば、図6C~図6Eを参照して説明した技術と同様に)スクラババー1020に追加される。いくつかの実施形態では、新たに録画されたクリップは、(例えば、ビデオの新たに録画されたクリップが録画されている間に、他のソースがビデオを録画していなかった場合)ビデオソースからのビデオコンテンツの任意の既存の複合クリップ表現(単数又は複数)とは別個に表される。いくつかの実施形態では、録画されたビデオコンテンツの既存の複合クリップ表現は、(例えば、ビデオの新たに録画されたクリップが別のソースからの録画と重複する場合)ビデオの新たに録画されたクリップを表すように変更される。
いくつかの実施形態では、複合クリップ表現1024は、クリップ表現624の特徴の一部又は全てを含む。図10Cに示すように、デバイス600は、複合クリップ表現1024bでのスクラババー1020上のユーザ入力1050a(例えば、タップ)を受信する(例えば、検出する)。いくつかの実施形態では、ユーザ入力1050aは、ディスプレイ602上のスワイプ(例えば、ライブビデオフィードを含むエリア又はスクラババー1020上の左から右のスワイプ)を含む。
ユーザ入力1050aを受信したことに応じて、デバイス600は、ユーザ入力1050aに関連付けられた時刻に対応する、カメラからの画像を表示し、スクラババー1020を更新して、選択された時刻を反映する。
図10Dに示すように、デバイス600は、カメラ1~6のライブビデオフィードをクリップ表現1024bに対応するビデオクリップが録画された時刻からのカメラ1~6に関連付けられた画像と置き換える。画像1010dは、複合クリップ表現1024bに対応するクリップを含む。画像1010a及び1010fに関連付けられたカメラ1及びカメラ6からの録画ビデオもまた、選択された時刻(例えば、1月28日午後7:08)に対して利用可能であるため、画像1010a及び1010fもまた、それぞれのカメラからの録画ビデオと置き換えられる。選択された時刻に画像1010b、1010c、及び1010eに関連付けられたカメラ2、3、及び5からの録画ビデオが利用可能でない(例えば、カメラ2、3、及び5は、選択された時刻にライブビデオを提供していなかった、又は録画されていなかったライブビデオを提供していた)ため、画像1010b、1010c、及び1010eは、録画が利用可能でないというインジケーションと置き換えられる。
図10Dに示すように、複合スクラババー1020は、更新されて(例えば、スクロールされて)、表示された画像に対応する複合スクラババー1020の一部分を現在表示インジケータ1022と位置合わせされる。デバイス600はまた、複合スクラババー1020の上に日時インジケータ1028を表示して、表示された画像が録画された日時を示す。
図10Dに示すように、ユーザインタフェース1000は、「ライブ」アフォーダンス1036を含む。図10B~図10Cと比較して、「ライブ」アフォーダンス1036は、図10Dの表示された画像がライブビデオフィードではないことを示すように変更される(例えば、グレーアウトされる)。いくつかの実施形態では、デバイス600は、「ライブ」アフォーダンス1036の選択に対応する入力を受信し、それに応じて、ライブビデオフィードが利用可能であるカメラからのライブビデオフィードに戻り、スクラババー1020を更新して、表示されたビデオ(単数又は複数)がライブビデオフィードであることを示す。
いくつかの実施形態では、ユーザインタフェース1000は、デバイス600に利用可能なビデオの追加のソース(例えば、カメラ)からの1つ以上の画像を表示するようにスクロールされる。図10Eに示すように、デバイス600は、ユーザ入力1050b(例えば、ディスプレイ602上の右から左のスワイプ)を受信する(例えば、検出する)。図10Fに示すように、ユーザ入力1050bを受信したことに応じて、デバイス600は、画像1010a~1010fを含むユーザインタフェース1000をスクロールし、デバイス600に利用可能なビデオデータの第7のソース(例えば、カメラ7、オフィスカメラ)に対応する画像1010gを表示する(例えば、見せる)。
いくつかの実施形態では、複合スクラババー1020は、異なる時刻に進むようにスクロールされる。図10Gに示すように、デバイス600は、現在表示されている画像に関連付けられた時刻(1月28日午後7:09)の後の時刻の選択に対応するユーザ入力1050c(例えば、スクラババー1020上の右から左のスワイプ)を受信する(例えば、検出する)。図10Hに示すように、デバイス600は、図10Gに表示された画像を新たに選択された時刻(1月28日午後7:29)に対応するそれぞれのカメラからの画像と置き換える。デバイス600はまた、複合スクラババー1020を更新して、新たに選択された時刻(1月28日午後7:29)を反映する。複合スクラババー1020によって示されるように、新たに選択された時刻は、複合クリップ表現1024a内に表された後の時刻である。図10Hに示すように、カメラ3、6、及び7からの録画ビデオは、新たに選択された時刻(1月28日午後7:29)に利用可能である。
いくつかの実施形態では、画像1010を選択して、選択された画像に対応するソース専用のユーザインタフェースを表示することができる(例えば、画像1010a~1010g及び複合スクラババー1020は、選択されたソースからの画像、及び選択されたソースのみからのメディアコンテンツを表すスクラババー(例えば、620)と置き換えられる)。図10Iに示すように、デバイス600は、画像1010gの選択に対応するユーザ入力1050d(例えば、タップ)を受信する(例えば、検出する)。図10Jに示すように、ユーザ入力1050dを受信したことに応じて、デバイス600は、とりわけ、図10Iに対応する時刻(1月28日午後7:29)のカメラ7からの録画ビデオの拡大バージョンと、カメラ7のみからのビデオの録画されたクリップの表現1044a~1044cを含むスクラババー1040とを含むユーザインタフェース1002を表示する。いくつかの実施形態では、ユーザインタフェース1002は、図6Gのユーザインタフェース608と類似している。例えば、ユーザインタフェース1002上の制御(例えば、スクラババー1040、日付バー1060、「ライブ」アフォーダンス1062など)を使用して、カメラ7からのビデオ(例えば、ライブ又は録画)をナビゲートすることができる。同様に、例えば、図10Bを再び参照すると、例えば、画像1010aの選択に応じて、デバイス600は、とりわけ、カメラ1からのライブビデオフィードの拡大表示と、カメラ1のみからのビデオの録画されたクリップの表現を含むスクラババーとを含み、かつ表示されたビデオがライブビデオフィードであることを示す、図6Bと類似のユーザインタフェースを表示する。
図11A~図11Cは、いくつかの実施形態による、電子デバイスを使用して、ビデオデータの複数のソース(例えば、複数のカメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ナビゲートする方法を示すフロー図である。方法1100は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法1100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1100は、ビデオデータの複数のソース(例えば、複数のカメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ナビゲートするための直感的な方法を提供する。この方法は、ビデオデータの複数のソース(例えば、複数のカメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ナビゲートするためのユーザの認識的負担を軽減し、それにより、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的にビデオデータの複数のソース(例えば、複数のカメラ)からのビデオ(例えば、ライブ又は録画)を表示し、ナビゲートすることを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック1102で、デバイスは、第1の時間に、ユーザインタフェース(例えば、1000)を表示し、ユーザインタフェースは、ユーザインタフェースの第1の場所にある第1のソースからの第1のライブビデオフィード(例えば、1010a~1010f)、及びユーザインタフェースの第2の場所にある第2のソースからの第2のライブビデオフィード(例えば、1010a~1010f)と、第1のソース又は第2のソースのうちの少なくとも1つからの録画されたビデオコンテンツの表現(例えば、1024a、1024b)(例えば、スクラババーの丸みを帯びた矩形又は影付き領域)を含むスクラババー(例えば、1020)と、を含む。いくつかの実施形態では、スクラババーは、ディスプレイ上の、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現を含む、対話型の細長い領域である。いくつかの実施形態では、メディアコンテンツ(例えば、ビデオ)は、特性(例えば、受信したユーザ入力の速度)に基づいて、任意の速度かつ可変速度で再生することができる。いくつかの実施形態では、録画されたビデオコンテンツの表現は、録画されたビデオコンテンツの持続時間に比例するスクラババー内の視覚的幅を有する。いくつかの実施形態では、スクラババーは、録画ビデオが利用できない期間のインジケーションを更に含む。いくつかの実施形態では、任意のソースからの録画ビデオが利用可能でない期間は、録画されたビデオコンテンツの表現間のスペース(例えば、均一な色又はドット)によって示される。いくつかの実施形態では、録画ビデオが利用できない期間のインジケーションは、期間の持続時間と無関係である。いくつかの実施形態では、録画されたビデオコンテンツの2つの表現の間のスクラババー上の距離は、録画されたビデオコンテンツが利用可能でない時間量と無関係である(例えば、距離は、固定されている)。いくつかの実施形態では、録画されたビデオコンテンツの2つの表現の間のスクラババー上の距離は、可変である(例えば、距離は、録画されたビデオコンテンツが利用可能でない時間量に基づく(例えば、正比例する)。いくつかの実施形態では、スクラババーは、第1の日と第2の日との間の境界のインジケーションを更に含む。いくつかの実施形態では、2日の間の境界は、スクラババー上の又はスクラババーを通る垂直線によって示される。いくつかの実施形態では、ユーザインタフェースは、第1のソースの動作状態のインジケーション及び第2のソースの動作状態のインジケーションを更に含む。いくつかの実施形態では、ソースの動作状態は、「オフ」(ストリーム又は録画していない)、「ライブ」(ストリームしているが、録画しない)、及び「録画」(ストリームしており、例えば、動きが検出された場合に録画する)のうちの1つである。
ブロック1104で、デバイスは、ユーザ入力(例えば、1050a)(例えば、スクラババー上の右スワイプ又はクリップ上のタップ)を検出する。いくつかの実施形態では、デバイスは、ユーザインタフェースを表示している間に、ユーザ入力を検出する。いくつかの実施形態では、ユーザ入力は、電子デバイスのタッチ感知面上のスワイプを含む。いくつかの実施形態では、スワイプは、タッチ感知ディスプレイ上(例えば、ライブビデオフィード上又はスクラババー上)の左から右のスワイプである。いくつかの実施形態では、第2の時間は、スワイプの長さ又は速度に基づく(例えば、より短い又はより遅いスワイプは、より長い又はより速いスワイプよりも、より最近録画されたコンテンツを表示することになる)。いくつかの実施形態では、ユーザ入力は、電子デバイスのタッチ感知面上のタップを含み、タップは、第2の時間に対応するスクラババー上の場所を有する。
ユーザ入力(例えば、1050a)を検出したことに応じて、デバイスは、ブロック1106、1108、及び1110の動作を実行する。ブロック1106で、デバイスは、第1のライブビデオフィード(例えば、図10Bの1010f)をユーザインタフェースの第1の場所の第1のソースに関連付けられた第1の画像(例えば、図10Dの1010f)と置き換える。第1の画像は、第1の時間の前の第2の時間における第1のソースからのデータに関連付けられている。いくつかの実施形態では、第1のソースに関連付けられた画像は、第2の時間に第1のソースによってキャプチャされた録画ビデオのフレームである。いくつかの実施形態では、第1のソースに関連付けられた画像は、第2の時間に対応する第1のソースからの利用可能な録画されたビデオデータが存在しないことを示す、「プレースホルダ画像」(例えば、図10Dの1010b)である。いくつかの実施形態では、第2の時間における第1のソースからの録画ビデオが利用可能でない(例えば、第1のソースが第2の時間に録画ビデオを提供しなかった)ことに従って、第1の画像がぼやけている。いくつかの実施形態では、第1の画像は、第1のソースによってキャプチャされたビデオの最も最近のフレームのぼけた画像である。第1のライブビデオフィードを、第1のソースに関連付けられた第1の画像と置き換えることにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザがもはや第1のソースのライブビデオフィードを閲覧していないことをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ブロック1108で、デバイスは、第2のライブビデオフィード(例えば、図10Bの1010d)を、ユーザインタフェースの第2の場所の第2のソースに関連付けられた第2の画像(例えば、図10Dの1010d)と置き換える。第2の画像は、第2の時間における第2のソースからのデータに関連付けられている。いくつかの実施形態では、第2のソースに関連付けられた画像は、第2の時間に第2のソースによってキャプチャされた録画ビデオのフレームである。いくつかの実施形態では、第2のソースに関連付けられた画像は、第2の時間に対応する第2のソースからの利用可能な録画されたビデオデータが存在しないことを示す、「プレースホルダ画像」(例えば、図10Dの1010e)である。第2のライブビデオフィードを、第2のソースに関連付けられた第2の画像と置き換えることにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザがもはや第2のソースのライブビデオフィードを閲覧していないことをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ブロック1110で、デバイスは、スクラババーを更新して、第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示す。いくつかの実施形態では、ポインタ要素(例えば、1022)が、第2の時間に対応するスクラババーの一部分に移動される。いくつかの実施形態では、スクラババー内のビデオコンテンツの表現は、第2の時間に対応する表現がスクラババー内の固定位置(例えば、中心)に表示されるようにスクロールされる。いくつかの実施形態では、スクラババーを更新することは、録画されたビデオコンテンツの表現を並進移動させることを含む。スクラババーを更新して第2の時間に対応する録画されたビデオコンテンツの表現の一部分を示すことにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザがもはやライブビデオフィードを閲覧していないことをユーザに示す。加えて、フィードバックは、ユーザがスクラババーと対話することによって表示されているコンテンツを制御することができることをユーザに示す。更に、フィードバックは、スクラババー内の他のクリップに対する位置で示されるように、クリップが録画されたおおよその日付/時刻をユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、更に、ユーザ入力を検出したことに応じて、デバイスは、アフォーダンス(例えば、1036)を表示する(ブロック1112)。いくつかの実施形態では、アフォーダンスは、例えば、スクラババーに隣接して表示される、「ライブ」アイコン(例えば、1036)である。任意選択的に、ブロック1114で、デバイスは、アフォーダンス(例えば、1036)の選択に対応する第2のユーザ入力(例えば、タップ)を検出する。任意選択的に、アフォーダンスの選択に対応する第2のユーザ入力を検出したことに応じて、デバイスは、ブロック1116、1118、及び1120の動作を実行する。ブロック1116で、デバイスは、第1のソースに関連付けられた第1の画像(例えば、図10Dの1010f)を、第1のソースからの第1のライブビデオフィード(例えば、図10Bの1010f)と置き換える。ブロック1118で、デバイスは、第2のソースに関連付けられた第2の画像(例えば、図10Dの1010d)を、第2のライブビデオフィード(例えば、図10Bの1010d)と置き換える。ブロック1120で、デバイスは、スクラババーを更新して、第1のライブビデオフィード及び第2のライブビデオフィードが表示されていることを示す(例えば、図10B)。いくつかの実施形態では、スクラババー内のコンテンツは、左にスクロールされる。いくつかの実施形態では、インジケータは、右に移動される。アフォーダンス(例えば、「ライブ」アイコン)を表示することにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。具体的には、アフォーダンスは、ユーザがもはやライブコンテンツを閲覧しておらず、かつユーザがアフォーダンスを選択することによってライブコンテンツに切り替えて戻ることができるというフィードバックをユーザに提供する。更に、第1及び第2の画像を第1及び第2のライブビデオフィードそれぞれと置き換えること、並びに/又はスクラババーを更新することにより、デバイス上に表示されているメディアコンテンツの現在の状態に関するフィードバックをユーザに提供する。フィードバックは、ユーザが現在ライブビデオフィードを閲覧していることをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
任意選択的に、ブロック1122で、デバイスは、第3のユーザ入力(例えば、1050c)(例えば、ディスプレイ上の右から左のスワイプ)を検出する。任意選択的に、ブロック1124で、デバイスは、第3のユーザ入力を検出したことに応じて、第1の時間にユーザインタフェース上に表されていない第3のソースに関連付けられた第3の画像を表示する。いくつかの実施形態では、ビデオデータのソースの数が第1のユーザインタフェース上に表示された画像の数を上回る場合、ユーザインタフェースは、最初にユーザインタフェース上に表されていないソースからの画像(例えば、ライブビデオフィード又は録画された画像)を表示するようにスクロール可能である。
任意選択的に、ブロック1126で、デバイスは、ユーザインタフェースの第1の場所の選択に対応する第4のユーザ入力(例えば、1050d)を検出する。いくつかの実施形態では、第4のユーザ入力は、第1のソースに関連付けられた第1のライブビデオフィード又は第1の画像(例えば、1010g)上の接触(例えば、シングルタップ、ダブルタップ、又は閾値強度を上回る特性強度を有する押圧)である。任意選択的に、ブロック1128で、デバイスは、第4のユーザ入力を検出したことに応じて、第2の時間における第1のソースからの第1のライブビデオフィード、又は第1のソースからのデータに関連付けられた第1の画像を拡大する。いくつかの実施形態では、全ての他のソースからの画像は、ディスプレイから除去される。いくつかの実施形態では、第1のソースからのコンテンツを表すスクラババー(例えば、1040)が表示される(例えば、複合スクラババーは、第1のソースのみのスクラババーと置き換えられる)。
任意選択的に、ブロック1130で、デバイスは、第1のソースからのビデオの第1の録画されたクリップを表すデータを(例えば、第1の時間の後に)受信する。任意選択的に、ブロック1132で、デバイスは、第1のソースからのビデオの第1の録画されたクリップを表すデータを受信したことに応じて、スクラババー(例えば、1020)を更新して、ビデオの第1の録画されたクリップ(例えば、1024a)を表す。いくつかの実施形態では、ビデオの第1の録画されたクリップは、(例えば、ビデオの第1の録画されたクリップが録画されている間に、他のソースがビデオを録画していなかった場合)ビデオソースからのビデオコンテンツの既存の表現(単数又は複数)とは別個に表される。いくつかの実施形態では、録画されたビデオコンテンツの既存の表現は、(例えば、ビデオの第1の録画されたクリップが別のソースからの録画と重複する場合)ビデオの第1の録画されたクリップを表すように変更される。
任意選択的に、ブロック1134で、デバイスは、電子デバイスの回転(例えば、横向きから縦向きへの回転)を検出する。任意選択的に、ブロック1136で、デバイスは、電子デバイスの回転を検出したことに応じて、ユーザインタフェース(例えば、1000)を第2のユーザインタフェース(例えば、604)と置き換え、第2のユーザインタフェースは、第1のソースからのライブビデオフィードと、第1のソースに関連付けられた場所に関連付けられた情報とを含む。いくつかの実施形態では、第2のユーザインタフェースは、場所情報又はアクセサリステータス(例えば、照明オン/オフ、ドアロック/ロック解除など)を含む、第1及び第2のソースに関連付けられた場所のホーム画面又はステータス画面である。デバイスの回転を検出したことに応じてユーザインタフェースを第2のユーザインタフェースと置き換えることにより、表示されたユーザインタフェース要素を選択する必要なく、代替のユーザインタフェースへのアクセスを提供することによって、デバイスのより多くの制御をユーザに提供する。表示される追加コントローラによってUIを雑然とさせることなく、追加制御できるようにすることにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。
方法1100に関して上述したプロセス(例えば、図11A~図11C)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法1100は、任意選択的に、方法700、900、1300、1500、1700、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、方法1100においてライブビデオフィードを提供することができる。簡潔にするために、これらの詳細は、以下で繰り返さない。
図12A~図12Tは、いくつかの実施形態による、異なるコンテキストに対してビデオデータのソースを構成するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図13におけるプロセスを含む、後述のプロセスを例示するために使用される。
図12Aは、ユーザインタフェース604(例えば、図6A)を表示するデバイス600を示す。図12Aに示すように、デバイス600は、ユーザ入力1250a(例えば、カメラ画像610に対応するディスプレイ602の領域内の左のスワイプ)を受信する(例えば、検出する)。図12Bに示すように、ユーザ入力1250aを受信したことに応じて、デバイス600は、カメラ画像610をスクロールして、画像610c(図12Aで部分的に隠されている)を完全に見せ、画像610g(図12Aでは完全に隠されている)を表示する。図12Cに示すように、デバイスは、カメラ3、リビングルームカメラを表す画像610cの選択に対応するユーザ入力1250b(例えば、タップ)を受信する(例えば、検出する)。図12Dに示すように、ユーザ入力1250bを受信したことに応じて、デバイス600は、リビングルームカメラの個別のカメラユーザインタフェース1200を表示する。個別のカメラユーザインタフェース1200は、例えば、図6Bに示す正面ドアカメラの個別のカメラユーザインタフェース608と類似している。
個別のカメラユーザインタフェース1200は、設定アフォーダンス1202を含む。図12Dに示すように、デバイス600は、設定アフォーダンス1202の選択に対応するユーザ入力1250c(例えば、タップ)を受信する(例えば、検出する)。
ユーザ入力1250cを受信したことに応じて、デバイス600は、ユーザインタフェース1200に関連付けられたビデオデータのソース(例えば、カメラ3)の設定ユーザインタフェースを表示する。図12Eに示すように、デバイス600は、設定ユーザインタフェース1204を表示する。設定ユーザインタフェース1204は、とりわけ、グラフィカル表現、名前、及びカメラに関連付けられた場所を含む。設定ユーザインタフェース1204はまた、(例えば、お気に入りのアクセサリとして)カメラを指定するためのアフォーダンス1206を含む。いくつかの実施形態では、カメラ3が指定されている(例えば、アフォーダンス1206のトグルボタンが右に配置されている)ことに従って、デバイス600は、ホームユーザインタフェース604上にカメラ3の表現を表示する。いくつかの実施形態では、カメラ3が指定されていない(例えば、アフォーダンス1206のトグルボタンが左に配置されている)ことに従って、デバイス600は、ホームユーザインタフェース604上にカメラ3の表現を表示しない。
設定ユーザインタフェース1204はまた、ストリーミング及び録画に関するカメラ3の設定を表示するためのアフォーダンス1208と、データ記憶(例えば、カメラ3及び他のソースからのビデオの録画の記憶)に関する設定を表示するためのアフォーダンス1210と、カメラ3に関連付けられたステータス及び通知に関する設定を表示するためのアフォーダンス1212と、を含む。
図12Fに示すように、デバイス600は、アフォーダンス1208の選択に対応するユーザ入力1250d(例えば、タップ)を受信する(例えば、検出する)。図12Gに示すように、ユーザ入力1250dを受信したことに応じて、デバイス600は、ストリーミング及び録画ユーザインタフェース1214を表示する。ストリーミング及び録画ユーザインタフェース1214は、ビデオデータのソースの場所に関連付けられた少なくとも1人の人がその場所に存在する(例えば、誰かが家にいる)と判定される第1のコンテキストに関連付けられたアフォーダンス1216a~1216cを含む。ストリーミング及び録画ユーザインタフェース1214はまた、ビデオデータのソースの場所に関連付けられた人がその場所に存在しない(例えば、誰も家にいない)と判定される第2のコンテキストに関連付けられたアフォーダンス1218a~1218cを含む。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、予め決められている。いくつかの実施形態では、ある場所における人の存在は、その人に関連付けられているデバイス(例えば、スマートフォン)がその場所にあることを検出することに基づいて、判定される。いくつかの実施形態では、人がある場所に存在するか否かを判定することは、その人に関連付けられた2つ以上のデバイスの場所に基づく。例えば、2つ以上のデバイスに関連付けられた人は、デバイスのうちのいずれか1つがある場所から離れていると判定される場合、その場所から離れていると見なされる。
アフォーダンス1216a~1216cは、第1のコンテキストにおけるビデオデータのソースのそれぞれの利用可能な動作モード(例えば、カメラオフ、ストリームビデオ、ストリーム及び録画ビデオ)に対応する。アフォーダンス1218a~1218cは、第2のコンテキストにおけるビデオデータのソースのそれぞれの利用可能な動作モード(例えば、カメラオフ、ストリームビデオ、ストリーム及び録画ビデオ)に対応する。いくつかの実施形態では、利用可能な動作モードは、予め決められている。図12Gに示すように、動作モード「オフ」は、チェックマークインジケータ1220a及び1220bによってそれぞれ示されるように、第1のコンテキスト及び第2のコンテキストのデフォルトモードとして選択される。
図12Hに示すように、デバイス600は、アフォーダンス1216b及び第1のコンテキストの動作モード「ストリーム」の選択に対応するユーザ入力1250e(例えば、タップ)を受信する(例えば、検出する)。図12Iに示すように、ユーザ入力1250eを受信したことに応じて、デバイス600は、チェックマークアフォーダンス1220aを「オフ」から「ストリーム」に移動させる。
図12Iに示すように、デバイス600は、アフォーダンス1218c及び第2のコンテキストの動作モード「ストリーム及び録画」の選択に対応するユーザ入力1250f(例えば、タップ)を受信する(例えば、検出する)。図12Jに示すように、ユーザ入力1250fを受信したことに応じて、デバイス600は、チェックマークアフォーダンス1220bを「オフ」から「ストリーム及び録画」に移動させる。
いくつかの実施形態では、デバイス600は、第1のコンテキスト又は第2のコンテキストに対する例外を選択する能力を提供する。例えば、図12Kに示すように、デバイス600は、ユーザインタフェース1214上のアフォーダンス1222(「一部のエリア内の動きを無視する」)の選択に対応するユーザ入力1250g(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力1250gを受信したことに応じて、デバイス600は、第1のコンテキスト又は第2のコンテキストに対する例外を選択するためのユーザインタフェースを表示する。図12Lに示すように、ユーザ入力1250gを受信したことに応じて、デバイス600は、ユーザインタフェース1224を表示する(例えば、ユーザインタフェース1214をユーザインタフェース1224と置き換える)。ユーザインタフェース1224は、リビングルームカメラの視野1226を含む。いくつかの実施形態では、表示された視野1226は、視野のキャプチャされた静止画像又はライブビデオストリームを含む。
いくつかの実施形態では、デバイス600は、視野の一部分の選択に対応する入力を受信する。図12M~図12Oに示すように、デバイス600は、ディスプレイ602上の経路1228(例えば、自由形状の経路)に沿って移動する接触1250hを受信する(例えば、検出する)。接触1250hは、図12Pに示すように、経路1228によって境界を定められた視野の一部分1230の選択に対応する。いくつかの実施形態では、視野の矩形部分は、矩形部分の第1の角部及び第1の角部に対して対角線状の矩形部分の第2の角部の選択に対応する1つ以上のユーザ入力のシーケンスによって選択される。
図12Pに示すように、接触1250hがディスプレイ602上で検出されることを停止したことに応じて、デバイス600は、選択された部分1230を視野1226の残りの部分と視覚的に区別する。いくつかの実施形態では、デバイスは、(例えば、2つ以上の別個の接触を検出することによって)視野の2つ以上の別個の部分の選択を検出する。図12M~図12Pに示す実施形態では、第1のコンテキスト又は第2のコンテキストに対する例外は、視野の選択された部分(単数又は複数)に基づく。
いくつかの実施形態では、例外は、特定の動作モードに適用される。図12M~図12Pに示すように、例外は、「ストリーム及び録画」モードに適用される。いくつかの実施形態では、「ストリーム及び録画」モードに従って、ビデオデータの対応するソースからのライブビデオストリームへのアクセスが提供され、キャプチャされたビデオにおいてイベント(例えば、動き)が検出された場合に、ビデオが録画される。
図12M~図12Pに示す実施形態では、例外は、「ストリーム及び録画」モードが選択され、かつ対応するコンテキストが適用される(例えば、第1のコンテキストに対してストリーム及び録画」モードが選択され、かつ誰かがその場所に存在すると判定される)場合であっても、視野の選択された部分において検出されたイベント(例えば、動き)に応じてビデオが録画されないように例外に該当する場合に、「ストリーム及び録画」モードに従ってリビングルームカメラを動作させないことを含む。いくつかの実施形態では、例外は、少なくとも1つの動作モードに適用されない。例示した実施形態では、「オフ」モード及び「ストリーム」モードは、活動(例えば、動き)が検出されるか否かに依存せず、したがって例外によって影響されない。
図12Qに示すように、視野の一部分(単数又は複数)が選択された後に、デバイス600は、「完了」アフォーダンス1232の選択に対応するユーザ入力1250i(例えば、タップ)を受信する(例えば、検出する)。図12Rに示すように、ユーザ入力1250iを受信したことに応じて、デバイス600は、ユーザインタフェース1214に戻る。
図12Rに示すように、デバイスは、「完了」アフォーダンス1234の選択に対応するユーザ入力1250j(例えば、タップ)を受信する(例えば、検出する)。図12Sに示すように、ユーザ入力1250jを受信したことに応じて、デバイス600は、リビングルームカメラが選択されたモード(例えば、「ストリーム及び録画」)に従って動作し、かつ第1のコンテキスト及び第2のコンテキストが外部デバイスに対するデバイス600の場所に基づく(例えば、その位置におけるユーザの存在は、外部デバイスに対するデバイス600の場所に基づいて判定される)ことを確認するメニュー1236を表示する。いくつかの実施形態では、外部デバイスは、ハブデバイス(例えば、AppleTV又はiPad)である。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)をビデオデータのソースに送信する。
図12Sに示すように、デバイス600は、「OK」アフォーダンス1238の選択に対応するユーザ入力1250k(例えば、タップ)を受信する(例えば、検出する)。例示した実施形態では、ユーザ入力1250kに応じて、デバイス600は、(例えば、ユーザ入力1250e及びユーザ入力1250fに基づく)第1のコンテキストの選択された動作モード(例えば、「ストリーム」)及び第2のコンテキストの選択された動作モード(例えば、「ストリーム及び録画」)に従って、ビデオデータのソースの構成プロファイルを設定する命令を送信する。
例示した実施形態では、ユーザ入力1250kに応じて、デバイス600はまた、選択された例外を表すデータを送信する(例えば、デバイス600は、選択された例外に従って動作するように、ビデオデータのソースの構成プロファイルを設定する命令を送信する)。いくつかの実施形態では、デバイス600は、ユーザ入力1250i、ユーザ入力1250j、又はユーザ入力1250kを受信したことに応じて、ビデオデータのソースの構成プロファイルを設定する命令及び/又は選択された例外を表すデータを送信する。いくつかの実施形態では、ビデオデータのソースの構成プロファイルを設定する命令及び/又は選択された例外を表すデータは、第1の制御可能な外部デバイス以外の外部デバイスに送信される。いくつかの実施形態では、ビデオデータのソースの構成プロファイルを設定する命令及び/又は選択された例外を表すデータは、ハブデバイス(例えば、AppleTV又はiPad)に送信される。
図12Tに示すように、ユーザ入力1250kに応じて、デバイス600は、設定ユーザインタフェース1204を表示する(例えば、それに戻る)。
図13は、いくつかの実施形態による、電子デバイスを使用して、異なるコンテキストに対してビデオデータのソースを構成する方法を示すフロー図である。方法1300は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法1300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1300は、異なるコンテキストに対してビデオデータのソースを構成するための直感的な方法を提供する。この方法は、異なるコンテキストに対してビデオデータのソースを構成するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的に異なるコンテキストに対してビデオデータのソースを構成することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック1302で、デバイスは、第1のコンテキスト(例えば、誰かが家にいる)に関連付けられた第1の複数のアフォーダンス(例えば、1216a~1216c)と、第2のコンテキスト(例えば、誰も家にいない)に関連付けられた第2の複数のアフォーダンス(例えば、1218a~1218c)と、を含むユーザインタフェース(例えば、1214)を表示し、第1の複数のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイス(例えば、カメラ)のそれぞれの利用可能な動作モード(例えば、カメラオフ、ストリームビデオ、ストリーム及び録画ビデオ)に対応し、第2の複数のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モード(例えば、カメラオフ、ストリームビデオ、ストリーム及び録画ビデオ)に対応する。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、予め決められている。いくつかの実施形態では、第1のコンテキストは、第1の制御可能な外部デバイスに関連付けられた場所における人の存在に基づく。いくつかの実施形態では、第1のコンテキストは、少なくとも1人の人がその場所にいると判定されることである。いくつかの実施形態では、第2のコンテキストは、第1の制御可能な外部デバイスに関連付けられた場所における人の存在に基づく。いくつかの実施形態では、第2のコンテキストは、人がその場所にいないと判定されることである。いくつかの実施形態では、人の存在は、その人に関連付けられているデバイス(例えば、スマートフォン)がその場所にあることを検出することに基づいて判定される。いくつかの実施形態では、その場所における人の存在は、人に関連付けられた第1の電子デバイスの場所及び人に関連付けられた第2の電子デバイスの場所に基づいて判定される。いくつかの実施形態では、1つより多くの電子デバイスに関連付けられた人は、デバイスのうちのいずれか1つがある場所から離れていると判定される場合、その場所から離れていると見なされる。いくつかの実施形態では、第1のコンテキストにおける第1の制御可能な外部デバイスの利用可能な動作モードは、所定の動作モードである。いくつかの実施形態では、第2のコンテキストにおける第1の制御可能な外部デバイスの利用可能な動作モードは、所定のモードである。制御可能な外部デバイスに両方とも対応する第1の複数のアフォーダンス及び第2の複数のアフォーダンスを表示することにより、単一のユーザインタフェースを介して、異なるコンテキストに対して外部デバイスを構成する能力をユーザに提供する。更に、単一のユーザインタフェース内に異なるコンテキストを提示することにより、これらの異なるコンテキストが同じ外部デバイスに関連付けられていることをユーザに示す。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
ブロック1304で、デバイスは、(例えば、第1のユーザインタフェースを表示している間に)第1の複数のアフォーダンス内の第1のアフォーダンスに対応するディスプレイ上の場所の第1のユーザ入力(例えば、1250e)を検出し、第1のアフォーダンスは、第1のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第1の動作モードに対応する。
ブロック1306で、デバイスは、(例えば、第1のユーザインタフェースを表示している間に)第2の複数のアフォーダンス内の第2のアフォーダンスに対応するディスプレイ上の場所の第2のユーザ入力(例えば、1250f)を検出し、第2のアフォーダンスは、第2のコンテキストにおける第1の制御可能な外部デバイスのそれぞれの利用可能な動作モードの第2の動作モードに対応する。
任意選択的に、ブロック1308で、デバイスは、第1のコンテキスト又は第2のコンテキストに対する例外の選択を表す第3のユーザ入力(例えば、1250g)を検出する。いくつかの実施形態では、例外は、第1及び第2のコンテキストが適用される場合であっても、例外に該当する(例えば、指定されたエリア内で動きが検出される)場合に、ビデオが録画されない、特定の動作モード(例えば、「ストリーム及び録画」モード)に適用される。いくつかの実施形態では、例外は、少なくとも1つの動作モードに適用されない(例えば、「オフ」モード及び「ストリーム」モードは、指定されたエリアで動きが検出されるか否かに依存しない)。
いくつかの実施形態では、第1の制御可能な外部デバイスは、ビデオカメラを含む。任意選択的に、ブロック1310で、デバイスは、ビデオカメラの視野(例えば、1226)を表示し、第3のユーザ入力は、視野の一部分の選択を含む。いくつかの実施形態では、表示された視野は、視野のキャプチャされた画像又はライブビデオストリームを含む。いくつかの実施形態では、第3のユーザ入力は、視野の一部分を包含する自由な形態の入力(例えば、1250h)を含む。いくつかの実施形態では、第3のユーザ入力は、矩形部分の第1の角部及び第1の角部に対して対角線状の矩形部分の第2の角部の選択による、視野の矩形部分の選択を含む。いくつかの実施形態では、第1のコンテキスト又は第2のコンテキストに対する例外は、視野の選択された部分内でイベントが検出されたことに応じて、第1のコンテキストで第1の動作モードに従って第1の制御可能な外部デバイスを動作させないこと、又は第2のコンテキストで第2の動作モードに従って第1の制御可能な外部デバイスを動作させないことを含む。
任意選択的に、ブロック1312で、デバイスは、選択された例外を表すデータを送信する(例えば、選択された例外に従って動作するように、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信する)。
ブロック1314で、デバイスは、(例えば、第1のユーザ入力及び第2のユーザ入力を検出した後に)第1のユーザ入力(例えば、1250e)及び第2のユーザ入力(例えば、1250f)に基づいて、第1のコンテキストに対する第1の動作モード及び第2のコンテキストに対する第2の動作モードに従って、第1の制御可能な外部デバイスの構成プロファイルを設定する命令を送信する。いくつかの実施形態では、命令は、第1の制御可能な外部デバイス以外の外部デバイスに送信される。いくつかの実施形態では、命令は、ハブデバイス(例えば、Apple TV又はiPad)に送信される。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)を第1の制御可能な外部デバイスに送信する。
方法1300に関して上述したプロセス(図13)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法1300は、任意選択的に、方法700、900、1100、1500、1700、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、構成プロファイルが設定される方法1300の制御可能な外部デバイスであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図14A~図14Wは、いくつかの実施形態による、ビデオデータのソース(例えば、カメラ)を構成するための例示的なユーザインタフェースを示す。これらの図におけるユーザインタフェースは、図15A~図15Bにおけるプロセスを含む、後述のプロセスを例示するために使用される。
図14Aは、ホームユーザインタフェース604を表示するデバイス600を示す。デバイス600は、アクセサリ追加アフォーダンス606の選択に対応するユーザ入力1450a(例えば、タップ)を受信する(例えば、検出する)。図14Bに示すように、ユーザ入力1450aを受信したことに応じて、デバイス600は、ビデオデータの新しいソース(例えば、新しいカメラ)を識別するデータ(例えば、コード)のプロンプト1402を表示する。図14Bに示すように、プロンプト1402は、コード(例えば、デバイスのタイプ若しくは特定のデバイスを識別するデバイス若しくはデバイスのパッケージ上の英数字コード又はクイックレスポンスコード)をスキャンする又は手動で入力するようにユーザに指示する。図14Bに示すように、デバイス600はまた、デバイス600上の画像センサ(例えば、カメラ)をアクティブ化し、ビデオデータの新しいソースのコード1406の一部分を含む画像センサによってキャプチャされた画像1404を表示する。
図14Cに示すように、デバイス600は、コード1406を受信する(例えば、コード全体が画像センサの視野内に配置されると、コード1406が自動的に識別される)。図14Dに示すように、コード1406を受信したことに応じて、デバイス600は、ビデオデータの新しいソースが場所(123 Main St.)に追加されていることを示すユーザインタフェース1408を表示する。
ビデオデータの新しいソースが追加された後、デバイス600は、ビデオデータのソースの1つ以上の動作状態を選択するためのメニューを表示し、1つ以上の動作状態は、それぞれのコンテキストに関連付けられる。図14Eに示すように、ビデオデータの新しいソースが追加された後、デバイス600は、ビデオデータのソースの2つの動作状態-第1のコンテキスト(例えば、誰かが家にいる場合)に対する1つの動作状態及び第2のコンテキスト(例えば、誰も家にいない場合)に対する1つの動作状態を選択するための、アフォーダンス1412a~1412c及び1414a~1414cを有するメニューを含むユーザインタフェース1410を表示する。いくつかの実施形態では、コンテキスト(単数又は複数)は、予め決められている。図14Eに示すように、動作状態及びコンテキストは、図12Gのユーザインタフェース1214と同じである。いくつかの実施形態では、デバイス600は、図12Gのユーザインタフェース1214とは異なる動作状態及び/又はコンテキストを提供する。
図14Fに示すように、デバイス600は、第1のコンテキストに対する動作状態を表すアフォーダンス1412bの選択に対応するユーザ入力1450b(例えば、タップ)を受信し(例えば、検出し)、第2のコンテキストに対する動作状態を表すアフォーダンス1414cの選択に対応するユーザ入力1450c(例えば、タップ)を受信する(例えば、検出する)。図14Gに示すように、ユーザ入力1450b及び1450cを受信したことに応じて、デバイス600は、チェックマークインジケータ1416a及び1416bを表示して、第1のコンテキスト及び第2のコンテキストに対して動作状態「ストリーム」及び「ストリーム及び録画」がそれぞれ選択されていることを示す。
図14Hでは、デバイス600は、「次へ」アフォーダンス1418の選択に対応するユーザ入力1450d(例えば、タップ)を受信する(例えば、検出する)。図14Iに示すように、ユーザ入力1450dを受信したことに応じて、デバイス600は、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含むユーザインタフェース1420を表示する。
図14Jに示すように、デバイス600は、ビデオデータのソースからのビデオデータを記憶するための1週間の持続時間を表すアフォーダンス1422bの選択に対応するユーザ入力1450e(例えば、タップ)を受信する(例えば、検出する)。図14Kに示すように、ユーザ入力1450eを受信したことに応じて、デバイス600は、チェックマークインジケータ1424を表示して、持続時間「1週間」が選択されたことを示す。
図14Lに示すように、デバイス600は、「次へ」アフォーダンス1426の選択に対応するユーザ入力1450f(例えば、タップ)を受信する(例えば、検出する)。図14Mに示すように、ユーザ入力1450fを受信したことに応じて、デバイス600は、ビデオデータのソースが選択されたモード(例えば、「ストリーム及び録画」)に従って動作し、かつ第1のコンテキスト及び第2のコンテキストが外部デバイスに対するデバイス600の場所に基づく(例えば、その位置におけるユーザの存在は、外部デバイスに対するデバイス600の場所に基づいて判定される)ことを確認するメニュー1428を表示する。いくつかの実施形態では、外部デバイスは、ハブデバイス(例えば、AppleTV又はiPad)である。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)をビデオデータのソースに送信する。
図14Mに示すように、デバイス600は、「OK」アフォーダンス1430の選択に対応するユーザ入力1450g(例えば、タップ)を受信する(例えば、検出する)。例示した実施形態では、ユーザ入力1450gを受信したことに応じて、デバイス600は、第1のユーザ入力及び第2のユーザ入力に従って、選択された動作状態(単数又は複数)及びビデオデータのソースからのビデオデータを記憶するための選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信する。いくつかの実施形態では、命令は、ビデオデータのソース以外の外部デバイスに送信される。いくつかの実施形態では、命令は、ハブデバイス(例えば、AppleTV又はiPad)に送信される。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)をビデオデータのソースに送信する。
図14Nに示すように、ユーザ入力1450gを受信したことに応じて、デバイス600は、図12Eに示すリビングルームカメラの設定ユーザインタフェース1204に類似した設定ユーザインタフェース1432を表示する。
いくつかの実施形態では、デバイス600は、ユーザがビデオデータのソースの利用可能な機能に関する情報を閲覧するためのオプションを提供する。図14Oに示すように、デバイス600は、ビデオデータのソースの利用可能な機能に関する情報が利用可能であることを示す、アフォーダンス1436を有するユーザインタフェース1434を表示する。いくつかの実施形態では、デバイス600は、ビデオデータの新しいソースが場所に関連付けられたプロファイルに追加された後に(例えば、図14Dに示すユーザインタフェース1408を表示した後に)、又は「OK」アフォーダンス1430の選択に対応するユーザ入力1450gを受信した後に(例えば、それに応じて)(例えば、図14Nに示す設定ユーザインタフェース1432を表示する前に)、ユーザインタフェース1434を表示する。いくつかの実施形態では、アフォーダンス1436は、ポップアップメニュー内に表示される。
いくつかの実施形態では、ユーザインタフェース1434は、ビデオデータの他のソースがデバイス600又はデバイス600に関連付けられたアカウント(例えば、場所プロファイル)に関連付けられていない(例えば、それは、ユーザによって追加されている第1のカメラである)との判定に従って、表示される。いくつかの実施形態では、ユーザインタフェース1434は、最後にビデオデータのソースが電子デバイスに関連付けられてから、又は電子デバイスに関連付けられたアカウントに関連付けられてから、新しい機能が利用可能になった場合に、表示される。いくつかの実施形態では、ユーザインタフェース1434はまた、利用可能な機能に関する情報の表示を回避するためのアフォーダンス1438を含む。
図14Oに示すように、デバイス600は、アフォーダンス1436の選択に対応するユーザ入力1450h(例えば、タップ)を受信する(例えば、検出する)。図14Pに示すように、ユーザ入力1450hを受信したことに応じて、デバイス600は、(例えば、追加の機能の新しいものにアクセスするために)ビデオデータの1つ以上のソースのためのソフトウェアを取得及び/又は更新するためのユーザインタフェース1440を表示する。ユーザインタフェース1440は、カメラのソフトウェア「HOME CAMERA」を取得するためのアフォーダンス1442Aと、カメラのソフトウェア「HOUSE CAM」を更新するためのアフォーダンス1442bとを含む。いくつかの実施形態では、ユーザインタフェース1440及び/又はアフォーダンス1443A及び1443Bは、(例えば、識別データに基づいて)ビデオデータのソースに対してソフトウェア更新が利用可能であるという判定に従って表示される。図14Qに示すように、ソフトウェア更新を回避するためのアフォーダンス1444も表示される。
図14Qに示すように、デバイス600は、アフォーダンス1442Aの選択に対応するユーザ入力1450i(例えば、タップ)を受信する(例えば、検出する)。図14Rに示すように、ユーザ入力1450iを受信したことに応じて、デバイス600は、カメラのソフトウェア「HOME CAMERA」を取得する。
図14Rに示すように、デバイス600は、「次へ」アフォーダンス1443の選択に対応するユーザ入力1450j(例えば、タップ)を受信する(例えば、検出する)。図14Sに示すように、ソフトウェアが更新された後に、デバイス600は、カメラが更新されたことを示すユーザインタフェース1446を表示する。
図14Tに示すように、デバイス600は、「次へ」アフォーダンス1448の選択に対応するユーザ入力1450k(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力1450kを受信したことに応じて、デバイス600は、ビデオデータのソースの利用可能な機能に関する情報を表示する。図14Uに示すように、ユーザ入力1450kを受信したことに応じて、デバイス600は、動作モード「オフ」、「ストリーム」、並びに「ストリーム及び録画」の説明を含むユーザインタフェース1452を表示する。
図14Vに示すように、デバイス600は、「続ける」アフォーダンス1454の選択に対応するユーザ入力1450L(例えば、タップ)を受信する(例えば、検出する)。図14Wに示すように、ユーザ入力1450lを受信したことに応じて、デバイス600は、設定ユーザインタフェース1432を表示する。
図15A~図15Bは、いくつかの実施形態による、電子デバイスを使用して、ビデオデータのソース(例えば、カメラ)を構成する方法を示すフロー図である。方法1500は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法1500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法1500は、ビデオデータのソース(例えば、カメラ)を構成するための直感的な方法を提供する。この方法は、ビデオデータのソース(例えば、カメラ)を構成するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的にビデオデータのソース(例えば、カメラ)を構成することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック1502で、デバイスは、ビデオデータのソース(例えば、新たに追加されたカメラ)を識別するデータ(例えば、1406)を受信する。いくつかの実施形態では、ビデオデータのソースを識別するデータを受信する前に、デバイスは、データのプロンプトを表示する。いくつかの実施形態では、プロンプトは、ユーザがアクセサリのタイプ又は特定のデバイスを識別するコード(例えば、英数字コード)を入力するために表示される。
ブロック1504で、デバイスは(例えば、ビデオデータのソースを識別するデータを受信した後に、又はそれに応じて)、ビデオデータのソースの動作状態を選択するためのメニューを含む第1のユーザインタフェース(例えば、1408)を表示し、動作状態は、コンテキスト(例えば、誰かが家にいる、誰も家にいない、など)に関連付けられる。いくつかの実施形態では、コンテキストは、予め決められている。いくつかの実施形態では、コンテキストは、人がビデオデータのソースに関連付けられた場所にいないこと、又は少なくとも1人の人がその場所に存在することである。いくつかの実施形態では、ビデオデータのソースの動作状態を選択するためのメニューは、複数の所定の利用可能な動作状態(例えば、オフ、ストリーム、ストリーム及び録画)を含む。ビデオデータのソースを識別するデータを受信したことに応じて第1のユーザインタフェースが自動的に表示される実施形態では、ユーザは、ビデオデータのソースの構成プロセスが開始されたことを迅速に認識することができる。更に、第1のユーザインタフェースの表示により、ビデオデータのソースがデバイスによって正常に識別されたことをユーザに示す。更なるユーザ入力を必要とせずに条件のセットが満たされたときに動作を行うことにより、デバイスの操作性が高められ、ユーザ-デバイスインタフェースを(例えば、デバイスを操作する/デバイスと対話するときに適切な入力をもたらすようにユーザを支援し、ユーザの誤りを減らすことによって)より効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、デバイスの電力使用が抑えられ、バッテリ寿命が改善される。
ブロック1506で、デバイスは、コンテキストに関連付けられた動作状態の選択に対応する第1のユーザ入力(例えば、1450b、1450c)を検出する。
ブロック1508で、デバイスは、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューを含む第2のユーザインタフェース(例えば、1420)を表示する。
ブロック1510で、デバイスは、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第2のユーザ入力(例えば、1450e)を検出する。
任意選択的に、ブロック1512で(例えば、ビデオデータのソースを識別するデータを受信した後に)、デバイスは、ビデオデータのソースの利用可能な機能に関する情報が利用可能であることを示すアフォーダンス(例えば、1436)を表示する。いくつかの実施形態では、アフォーダンスは、ビデオデータの他のソースが電子デバイスに関連付けられていないとの判定に従って表示される。任意選択的に、ブロック1514で、デバイスは、アフォーダンスの選択(例えば、1450h)を検出する。任意選択的に、ブロック1516で、デバイスは、(例えば、アフォーダンスの選択を検出したことに応じて)ビデオデータのソースの利用可能な機能に関する情報を表示する。いくつかの実施形態では、コンテキストに関連付けられた動作状態及びビデオを記憶するための持続時間を選択した後に、アフォーダンスは(例えば、別個のユーザインタフェース又はポップアップメニュー上に)表示されて、利用可能な機能に関する情報を表示するオプションをユーザに提供する。いくつかの実施形態では、アフォーダンスは、ビデオデータの他のソースが電子デバイスに関連付けられていない場合、又は電子デバイスに関連付けられたアカウントに関連付けられていない(例えば、これは、ユーザによって追加されている第1のカメラである)場合に表示される。いくつかの実施形態では、アフォーダンスは、最後にビデオデータのソースが電子デバイスに関連付けられてから、又は電子デバイスに関連付けられたアカウントに関連付けられてから、新しい機能が利用可能になった場合に、表示される。いくつかの実施形態では、利用可能な機能に関する情報の表示を回避するためのアフォーダンスが表示される。
任意選択的に、ブロック1518で(例えば、ビデオデータのソースを識別するデータを受信した後に)、デバイスは、ビデオデータのソースのソフトウェアを更新するためのアフォーダンス(例えば、1442a、1442b)を表示する。いくつかの実施形態では、アフォーダンスは、(例えば、識別データに基づいて)ビデオデータのソースに対してソフトウェア更新が利用可能であるとの判定に従って表示される。いくつかの実施形態では、ソフトウェアの更新を回避するためのアフォーダンス(例えば、1444)が表示される。
ブロック1520で、デバイスは、第1のユーザ入力(例えば、1450b、1450c)及び第2のユーザ入力(例えば、1450e)に従って、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを設定する命令を送信する。いくつかの実施形態では、命令は、ビデオデータのソース以外の外部デバイスに送信される。いくつかの実施形態では、命令は、ハブデバイス(例えば、Apple TV又はiPad)に送信される。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)をビデオデータのソースに送信する。
任意選択的に、ブロック1522で(例えば、第1のユーザ入力及び第2のユーザ入力を検出した後に)、デバイスは、ビデオデータのソースのインジケーション及びビデオデータのソースに関連付けられた設定メニューを含む第3のユーザインタフェース(例えば、1432)を表示する。いくつかの実施形態では、第3のユーザインタフェースは、グラフィカル表現、名前、又はビデオデータのソースに関連付けられた場所を含む。いくつかの実施形態では、第3のユーザインタフェースは、(例えば、お気に入りのアクセサリとして)ビデオデータのソースを指定するためのアフォーダンスを含む。いくつかの実施形態では、第3のユーザインタフェースは、ビデオデータのソースの動作状態を選択するためのメニューにアクセスするためのアフォーダンスを含む。いくつかの実施形態では、第3のユーザインタフェースは、ビデオデータのソースからのビデオデータを記憶するための持続時間を選択するためのメニューにアクセスするためのアフォーダンスを含む。
方法1500に関して上述したプロセス(例えば、図15A~図15B)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法1500は、任意選択的に、方法700、900、1100、1300、1700、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、方法1500に記載のビデオデータのソースであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図16A~図16Iは、いくつかの実施形態による、記憶リソースを管理するための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図17におけるプロセスを含む、後述のプロセスを例示するために使用される。
図16Aは、図14N及び図14Wにも示すような、リビングルームカメラの設定ユーザインタフェース1432を表示するデバイス600を示す。図16Aに示すように、デバイス600は、アフォーダンス1600Bの選択に対応するユーザ入力1650a(例えば、タップ)を受信する(例えば、検出する)。図16Bに示すように、ユーザ入力1650aを受信したことに応じて、デバイス600は、「録画保持」ユーザインタフェース1602を表示する。ユーザインタフェース1602は、リビングルームカメラからの録画ビデオが記憶される持続時間を設定するように選択することができるアフォーダンス1604a~1604dを含む。いくつかの実施形態では、記憶持続時間は、予め決められている。いくつかの実施形態では、リビングルームカメラからのビデオデータの録画は、記憶持続時間が満了した後に(例えば、自動的に)削除される。
ユーザインタフェース1602はまた、記憶リソースのステータスを表す記憶リソースステータスバー1606を含む。記憶リソースは、物理的記憶デバイス、ユーザアカウントに関連付けられたストレージ(例えば、iCloud)、又はその一部分であってもよい。図16Bに示すように、記憶リソースバー1606は、セグメント1606a~1606eを含み、各セグメントのサイズは、特定のデータ(例えば、ドキュメント、写真、リビングルーム録画、音楽、及び他の録画)によって消費された記憶リソースの部分を示す。いくつかの実施形態では、セグメントは、特定のデバイス又はデータタイプ(例えば、ビデオデータ)に関連付けられている。例えば、セグメント1605eは、記憶リソースによって記憶されているリビングルームカメラからの録画されたビデオデータの表現である。いくつかの実施形態では、セグメントは、記憶リソースの総容量、記憶リソースの総割り当て容量、記憶リソースの利用可能容量、ビデオデータのソースに関連付けられたビデオデータに割り当てられた記憶リソースの量、ビデオデータのソース以外のデバイスに割り当てられた記憶リソースの量、ビデオデータのソース以外の全てのデバイスに割り当てられた記憶リソースの量、又は、ビデオデータ以外のデータのタイプ(例えば、ドキュメント、アプリケーションなど)に割り当てられた記憶リソースの量を表す。
ユーザインタフェース1602はまた、記憶リソースから、リビングルームカメラに関連付けられたデータを削除するためのアフォーダンス1608を含む。図16Cに示すように、デバイス600は、アフォーダンス1608の選択に対応するユーザ入力1650b(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力1650bを受信したことに応じて、デバイス600は、記憶リソースから、リビングルームカメラに対応するデータを削除するプロセスを開始する。いくつかの実施形態では、リビングルームカメラに対応するデータを削除するプロセスを開始することは、選択されると、リビングルームカメラに対応するデータを記憶リソースから削除させる、確認アフォーダンスを表示することを含む。図16Dに示すように、ユーザ入力1650bを受信したことに応じて、リビングルームカメラに対応するデータは、記憶リソースから削除され、セグメント1606eは、記憶ステータスバー1606から除去される。
図16Eに示すように、デバイス600は、「ストレージ管理」アフォーダンス1610の選択に対応するユーザ入力1650c(例えば、タップ)を受信する(例えば、検出する)。ユーザ入力1650cを受信したことに応じて、デバイス600は、記憶リソースから、リビングルームカメラに対応しないデータを削除するプロセスを開始する。図16Fに示すように、ユーザ入力1650cを受信したことに応じて、デバイス600は、ストレージユーザインタフェース1612を表示する。いくつかの実施形態では、ストレージユーザインタフェース1612は、記憶リソースバー1606の選択に応じて、表示される(例えば、記憶リソースバー1606は、アフォーダンスである、又はアフォーダンスを含む)。ストレージユーザインタフェース1612は、デバイス600又はデバイス600に関連付けられたアカウントに関連付けられたビデオデータの全てのソース(例えば、場所「123 MAIN ST.」に関連付けられた全てのカメラ)に関連付けられた録画を削除するための「全て削除」アフォーダンス1614を含む。
図16Gに示すように、ストレージユーザインタフェース1612は、ビデオデータの他のソースに関連付けられた記憶オプションにアクセスするためのアフォーダンス1616A~1616Dを含む。図16Gに示すように、デバイス600は、通用口カメラを表すアフォーダンス1616Cの選択に対応するユーザ入力1650d(例えば、タップ)を受信する(例えば、検出する)。図16Hに示すように、ユーザ入力1650dを受信したことに応じて、デバイス600は、通用口カメラのストレージ設定ユーザインタフェース1618を表示する。ストレージ設定ユーザインタフェース1618は、通用口カメラに関連付けられたデータの記憶持続時間を選択するためのアフォーダンス1620a~1620dと、通用口カメラからのビデオの録画を表すセグメント1622aを有する記憶リソースステータスバー1622と、記憶リソースから通用口カメラに対応するデータを削除するためのアフォーダンス1624と、を含む。
図16Hに示すように、デバイス600は、通用口録画アフォーダンス1626の選択に対応するユーザ入力1650e(例えば、タップ)を受信する(例えば、検出する)。いくつかの実施形態では、ユーザ入力1650eは、記憶リソースステータスバー1622及び/又はセグメント1622a上に位置する(例えば、記憶リソースステータスバー1622は、アフォーダンスである、又はアフォーダンスを含む)。図16Iに示すように、ユーザ入力1650eを受信したことに応じて、デバイス600は、通用口カメラからのビデオデータの録画1630a~1630dのリストを含むユーザインタフェース1628を表示する。
図17は、いくつかの実施形態による、電子デバイスを使用して、記憶リソースを管理する方法を示すフロー図である。方法1700は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法1700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法1700は、記憶リソースを管理するための直感的方法を提供する。この方法は、記憶リソースを管理するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより高速かつより効率的に記憶リソースを管理することを可能にすることにより、電力が節約され、バッテリ充電の間隔が増す。
ブロック1702で、デバイスは、ビデオデータのソースに関連付けられたユーザインタフェース(例えば、1602)を表示し、ユーザインタフェースは、記憶リソースのステータスを表す第1のアフォーダンス(例えば、1606)と、記憶リソースから、ビデオデータのソースに関連付けられたデータを削除するための第2のアフォーダンス(例えば、1608)とを含み、第1のアフォーダンスは、ビデオデータのソースに対応する記憶リソースによって記憶されたデータの第1の表現を含む。いくつかの実施形態では、第1のアフォーダンスは、セグメントを有するバーであり、各セグメント(例えば、1606a~1606e)のサイズは、特定のデータによって消費された記憶リソースの部分を示す。記憶リソースは、物理的記憶デバイス、ユーザアカウントに関連付けられたストレージ(例えば、iCloud)、又はその一部分であってもよい。いくつかの実施形態では、データは、特定のデバイス又はデータタイプ(例えば、ビデオデータ)に関連付けられている。いくつかの実施形態では、ユーザインタフェースは、ビデオデータのソースからのビデオデータの録画の記憶持続時間を選択するためのメニューを含む。いくつかの実施形態では、ビデオデータのソースからのビデオデータの録画は、記憶持続時間が満了した後に(例えば、自動的に)削除される。いくつかの実施形態では、メニューは、複数の所定の記憶持続時間オプションを含む。いくつかの実施形態では、このオプションは、1日(例えば、1604a)、1週間(例えば、1604b)、1ヶ月(例えば、1604c)、又は1年(例えば、1604d)を含む。記憶リソースのステータスの表現及びビデオデータのソースに対応する記憶リソースによって記憶されたデータの表現の両方を有するユーザインタフェースを表示することにより、全体的な記憶リソースに対するビデオデータのソースの影響を迅速に識別する能力をユーザに提供する。改良されたフィードバックをユーザに提供することにより、デバイスの操作性を向上させ、(例えば、デバイスを操作する/デバイスと対話するときに適切な入力を提供するようにユーザを支援し、ユーザの誤りを削減することによって)ユーザ-デバイスインタフェースをより効率的にし、加えて、ユーザがデバイスをより迅速かつ効率的に使用できるようにすることによって、電力使用量を削減し、デバイスのバッテリ寿命を改善する。
いくつかの実施形態では、第1のアフォーダンス(例えば、1606)は、記憶リソースの総容量、記憶リソースの総割り当て容量、記憶リソースの利用可能容量、ビデオデータのソースに関連付けられたビデオデータに割り当てられた記憶リソースの量、ビデオデータのソース以外のデバイスに割り当てられた記憶リソースの量、ビデオデータのソース以外の全てのデバイスに割り当てられた記憶リソースの量、又は、ビデオデータ以外のデータのタイプ(例えば、ドキュメント、アプリケーションなど)に割り当てられた記憶リソースの量、のうちの少なくとも1つの表現を含む。
ブロック1704で、デバイスは、(例えば、ユーザインタフェースを表示している間に)ディスプレイ上のユーザ入力(例えば、1650b、1650c)(例えば、第1のアフォーダンス又は第2のアフォーダンス上のタップ)を検出する。
ユーザ入力に応じて、デバイスは、ブロック1706又はブロック1708の動作を実行する。ブロック1706で、第1のアフォーダンス(例えば、1610)の選択に対応する第1のユーザ入力(例えば、1650c)に従って、デバイスは、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始する。ブロック1708で、第2のアフォーダンス(例えば、1608)の選択に対応する第1のユーザ入力(例えば、1650b)に従って、デバイスは、記憶リソースから、ビデオデータのソースに対応するデータを削除するプロセスを開始する。いくつかの実施形態では、記憶リソースから、ビデオデータのソースに対応しないデータを削除するプロセスを開始することは、電子デバイスに関連付けられたビデオデータの全てのソースに関連付けられた録画を削除するオプションを表示することを含む。
いくつかの実施形態では、第1のアフォーダンス(例えば、1606)は、ビデオデータのソース以外の第1のデバイスに対応する、記憶リソースによって記憶されたデータの表現を含む。任意選択的に、ブロック1710で(例えば、更にユーザ入力に応じて)、デバイスは、第1のデバイスに対応する記憶リソースによって記憶されたデータの表現の選択に対応する第1のユーザ入力に従って、第1のデバイスに関連付けられた記憶オプションを設定するためのメニュー(例えば、1618)を表示する。いくつかの実施形態では、第1のデバイスに関連付けられた記憶オプションを設定するためのメニューは、第1のデバイスに関連付けられたデータの記憶持続時間のオプション(例えば、1620a~1620d)又は記憶リソースから第1のデバイスに対応するデータを削除するオプション(例えば、1624)を含む。
方法1700に関して上述したプロセス(図17)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法1700は、任意選択的に、方法700、900、1100、1300、1500、2100、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、方法1100に記載のビデオデータのソースであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図18A~図18Dは、いくつかの実施形態による、ステータス及び通知設定を設定するための例示的なユーザインタフェースを示す。
図18Aは、リビングルームカメラの設定ユーザインタフェース1432を表示するデバイス600を示す。デバイス600は、アフォーダンス1600c「ステータス及び通知」の選択に対応するユーザ入力1850a(例えば、タップ)を受信する(例えば、検出する)。図18Bに示すように、ユーザ入力1850aを受信したことに応じて、デバイス600は、アフォーダンス1802~1814を含むステータス及び通知ユーザインタフェース1800を表示する。
いくつかの実施形態では、アフォーダンス1802の選択により、ビデオデータのソースの表現がステータスユーザインタフェース(例えば、ホームユーザインタフェース604の「カメラ」部分)に含まれるか否かを判定する設定の状態をトグルする。
いくつかの実施形態では、アフォーダンス1804の選択により、ビデオデータのソースに関する通知(例えば、ビデオデータのソースが動きを検出したという通知)がデバイス600によって表示されるか否かを判定する設定の状態をトグルする。
いくつかの実施形態では、アフォーダンス1806の選択により、デバイス600に、時間(例えば、ビデオデータのソースに関する通知がデバイス600によって表示されることになる、又は表示されないことになる時間の範囲)に関連付けられた通知設定オプションを表示させる。
図18Cに示すように、デバイス600は、人物に関連付けられた通知設定オプションを表示するためのアフォーダンス1808の選択に対応するユーザ入力1850b(例えば、タップ)を受信する(例えば、検出する)。図18Dに示すように、ユーザ入力1850bを受信したことに応じて、デバイス600は、ユーザ「ジョン・アップルシード」の人物設定ユーザインタフェース1816を表示する。人物設定ユーザインタフェース1816は、ユーザが場所123 Main St.に関連付けられたデバイスをリモートでアクセス又は制御することを許可されているか否かを判定する設定の状態をトグルするためのアフォーダンス1818を含む。人物設定ユーザインタフェース1816は、(例えば、「リモートアクセスを許可する」のステータスが「オン」又は「はい」である(例えば、トグルスイッチが右に配置されている)場合に)ユーザ「ジョン・アップルシード」がリモートでアクセスすることを許可されているデバイス1820a~1820cのリスト1820を含む。いくつかの実施形態では、リスト1820は、ユーザ「ジョン・アップルシード」がその場所にいるか否かにかかわらずアクセス又は制御することを許可されているデバイスを表す(例えば、ユーザ「ジョン・アップルシード」は、その場所にいるときにリスト1820に現れないデバイスにアクセス又は制御することを許可されていない)。いくつかの実施形態では、ユーザ「ジョン・アップルシード」は、その場所にいないときにリスト1820に現れないデバイスにアクセス又は制御することを許可されていない。いくつかの実施形態では、人物設定ユーザインタフェースは、リスト1820からデバイスを追加又は除去するためのアフォーダンスを含む。いくつかの実施形態では、1つ以上のユーザ入力のシーケンスを受信したことに応じて、デバイス600は、リスト1820からデバイスを追加又は除去する。
いくつかの実施形態では、「リモートアクセスを許可する」のステータスが「オフ」又は「いいえ」である(例えば、トグルスイッチが左に配置されている)ことに従って、ユーザ「ジョン・アップルシード」は、(例えば、ユーザに関連付けられたデバイスの場所によって判定されるように)その場所に存在する場合にのみ、デバイスにアクセス又は制御することを許可される。
アフォーダンス1822の選択を受信(例えば、検出)したことに応じて、デバイス600は、ユーザ「ジョン・アップルシード」がその場所でデバイスにアクセス又は制御することを許可されないようにさせる。
図19A~図19Dは、いくつかの実施形態による、より小さいスクリーン及び回転可能入力機構1970を有するウェアラブルデバイス1900(例えば、ウォッチ)上でカメラと対話するための例示的なユーザインタフェースを示す。図19A~図19Dのユーザインタフェースは、以下に説明するプロセスを例示するために使用される。
図19Aで、ウェアラブルデバイス1900は、リビングルームを示すカメラ3の表示を含むユーザインタフェース1960を表示する。ウェアラブルデバイス1900のユーザインタフェース1960は、デバイス600のユーザインタフェース610に類似しており、ユーザは、カメラからの録画又はライブビデオフィードを閲覧し、カメラの関連付けられたアクセサリと対話する(例えば、照明をオンにする、マイクロフォンをオンにする)ことができる。いくつかの実施形態では、カメラの表示と共に、インジケータが表示されて、カメラの動作状態(例えば、オフ、ストリーム、又は録画)を示す。いくつかの実施形態では、ユーザインタフェース1960及び1908は、ウェアラブルデバイス1900のより小さいスクリーンのために設計されている。いくつかの実施形態では、インジケータは、動作状態に関連付けられた色(例えば、オフ状態の赤色、ストリーム状態の青色、録画状態の緑色)を含む。
ユーザインタフェース1960は、一連のドットを含むインジケーション1964を含み、各ドット(又は少なくとも2つのドット)は、デバイス1900にリンクされたカメラを表す。図19Aで、インジケーション1964の第2のドットが塗りつぶされていることにより、リンクされたカメラのリスト内の第2のカメラであるカメラ3をデバイス600が現在表示していることを示す。デバイス1900は、左から右又は右から左のスワイプジェスチャを含むユーザ入力を検出して、カメラのリスト内に表示された異なるカメラに切り替える。例えば、ユーザは、左にスワイプして、カメラのリスト内の第3のカメラにアクセスする、又は右にスワイプして、カメラのリスト内の第1のカメラにアクセスすることができる。いくつかの実施形態では、デバイス1900は、カメラのリスト内の次のカメラを表示するための回転可能入力機構1970の回転(又は、前のカメラを表示するための反対方向の回転)を検出する。いくつかの実施形態では、デバイス1900は、回転可能入力機構1970の回転からの検出された入力が非ゼロ閾値を上回る回転速度を有する場合に、カメラのリスト内の次のカメラを表示する。
図19Aで、デバイス1900は、カメラのリスト内の第1のカメラ(例えば、カメラ1、正面ドアカメラ)にアクセスする要求に対応するユーザ入力1950a(例えば、右へのスワイプジェスチャ)を検出する。
図19Bで、デバイス1900がユーザ入力1950aを検出したことに応じて、デバイス1900は、リスト内の第1のカメラ(例えば、正面ドアカメラ)を表示し、第1のドットの塗りつぶしを含むようにインジケーション1964を更新して、カメラのリスト内の第1のカメラの表示を示す。デバイス1900は、カメラ1を選択するためのユーザ入力1950b(例えば、タップ)を検出する。
図19Cで、ユーザ入力1950bを検出したことに応じて、デバイス1900は、カメラ1からのライブ(例えば、録画でない、リアルタイムの)ビデオフィードを含むビデオメディアユーザインタフェース1908を表示する。いくつかの実施形態では、デバイス1900がカメラ1から受信した表示された通知上のユーザ入力を検出したことに応じて、デバイスは、カメラ1を表示するビデオユーザインタフェースを含むユーザインタフェース1908を表示する。ユーザインタフェース1908は、図8Gのユーザインタフェース812と類似しており、上記の図8Gに関して更に説明されている。いくつかの実施形態では、デバイス1900は、通知上のユーザ入力を検出する。デバイス1900が通知上のユーザ入力を検出したことに応じて、デバイス1900は、図8Gに関して説明したように、ビデオ録画のクリップを含むビデオメディアユーザインタフェース1908を表示する。ビデオメディアユーザインタフェース1908は、再生/一時停止ボタン、スクラババー、及びユーザがカメラ設定を構成することを可能にするホーム設定ボタン1972を含む。ビデオメディアユーザインタフェース1980は、図6Bのビデオメディアユーザインタフェース608に類似しており、図6Bに関して更に説明されている。ビデオメディアユーザインタフェース1908を表示している間に、デバイス600は、ユーザ入力1950c(例えば、上への垂直スワイプジェスチャ又は回転可能入力機構1970からの検出された回転)を検出して、アフォーダンス1980a及び1980bを表示する。図19Cは、読み手が技術をより良く理解することを可能にする方法で示されている。実際には、一度にユーザインタフェースの一部分がデバイス上に表示され、ユーザは、入力(例えば、垂直スワイプジェスチャ、回転可能入力機構の回転)を提供して、ユーザインタフェースをスクロールさせることができる。
図19Cで、ユーザインタフェース要素1980aは、ユーザが正面ドアのロックステータス及びロック解除ステータスをトグルすることを可能にする。ユーザインタフェース要素1980bは、ユーザが照明をオン及びオフにトグルすることを可能にする。デバイス1900は、スワイプジェスチャ(例えば、垂直に上下にスワイプすること)又は回転可能入力機構1970の回転が検出されると、ユーザインタフェース1980a~1980bをスクロールして、シーケンスの次のユーザインタフェースを表示する。
図19Dで、デバイス1900は、(図19Cに示すように)ユーザインタフェース1960上のユーザ入力(例えば、タップ)を検出したことに応じて、ユーザインタフェース要素1980c及び1980dを有するユーザインタフェース1960を表示する。ユーザインタフェース要素1980c及び1980dは、ビデオデータをストリームしているカメラに関連付けられたサウンド及びマイクロフォンを有効化/無効化するための制御を提供する。
図20A~図20Xは、いくつかの実施形態による、1つ以上のコンテキストに対するカメラの動き検出条件に基づいて録画設定を構成するための例示的なユーザインタフェースを示す。図20A~図20Xのユーザインタフェースは、図21A~図21Cのプロセスを含む後述するプロセスを例示するために使用される。
図20Aは、図6A及び図12Aに示すユーザインタフェース604と同じユーザインタフェース604を表示するデバイス600を示す。ユーザインタフェース604は、図24Aに関して後述するように、ホーム設定ユーザインタフェースにリンクするホーム設定ボタン2002を含む。図20Aで、デバイス600は、(図12Aに関して更に詳細に説明したように)表示されたリビングルームカメラ(カメラ3)(例えば、610c)を選択するためのユーザ入力2050a(例えば、タップ)を受信する(例えば、検出する)。図20Bに示すように、図20Aのユーザ入力2050aを受信したことに応じて、デバイス600は、図12Dのユーザインタフェース1200と同じであり、かつ図12Dに関して更に詳細に説明した、カメラ3の個別のカメラユーザインタフェース1200を表示する。個別のカメラユーザインタフェース1200は、例えば、図6Bに示し、かつ図6Bに関して説明した、正面ドアカメラの個別のカメラユーザインタフェース608と類似している。個別のカメラユーザインタフェース1200は、設定アフォーダンス1202を含む。図20Bに示すように、デバイス600は、設定アフォーダンス1202の選択に対応するユーザ入力2050bを検出する。
図20Cで、(図20Bに示すように)ユーザ入力2050bを受信したことに応じて、デバイス600は、図12Eに示すユーザインタフェース1204に類似したカメラ3の設定ユーザインタフェース2004を表示する。設定ユーザインタフェース2004は、図12Eの設定ユーザインタフェース1204に示す(かつそれに関して説明した)ものに対応するグラフィカル表現及びアフォーダンスを含む。例えば、図20Cのステータス及び通知アフォーダンス2012は、図12Eのステータス及び通知アフォーダンス1212と同じ又は類似の機能を有する。図20Cのストリーミング及び録画ユーザインタフェース2014は、図12Fのストリーミング及び録画ユーザインタフェース1214と同様の機能を有する。設定ユーザインタフェース2004は、ストリーミング及び録画ユーザインタフェース2014と、ステータス及び通知アフォーダンス1212とを含む。ストリーミング及び録画ユーザインタフェース2014は、カメラ3の動作モードを構成するためのアフォーダンス2016及び2018を含む。ステータス及び通知ユーザアフォーダンス2012は、通知がカメラ3によって送信されるべきである場合を構成するための設定を含む。ストリーミング及び録画ユーザインタフェース2014は、図12Gに関して上述したように、ビデオデータのソースの場所に関連付けられた少なくとも1人の人がその場所に存在する(例えば、任意の関連付けられた人が家にいる)と判定される第1のコンテキストに関連付けられたアフォーダンス2016を含む。ストリーミング及び録画ユーザインタフェース2014はまた、ビデオデータのソースの場所に関連付けられた人がその場所に存在しない(例えば、関連付けられた人が家にいない)と判定される第2のコンテキストに関連付けられたアフォーダンス2018を含む。図12Gに関して上述したように、ある場所における人の存在は、その人に関連付けられた1つ以上のデバイスがその場所にあることを検出することに基づいて判定される。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、予め決められている。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、図12Gに関して説明したコンテキストに類似している。各コンテキストは、図20Dに関して以下で更に説明するように、1つ以上のカメラ動作モード(例えば、ストリーム、録画、又はストリーム及び録画)に関連付けられている。いくつかの実施形態では、動作モードは、動作状態に類似している。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、カメラに対するデバイス600の場所に基づく。いくつかの実施形態では、第1のコンテキスト及び第2のコンテキストは、図12Sに関して上述したように、外部デバイスに対するデバイス600の場所に基づく(例えば、その場所におけるユーザの存在は、外部デバイスに対するデバイス600の場所に基づいて判定されることになる)。いくつかの実施形態では、外部デバイスは、ハブデバイス(例えば、タブレットなど)である。いくつかの実施形態では、ハブデバイスは、デバイス若しくはユーザプロファイルを記憶する、又は制御命令(例えば、コマンド)をビデオデータのソースに送信する。
図20Cに示すように、デバイス600がユーザ入力2050cを検出する前に、デバイス600は、第1のコンテキスト(例えば、任意の関連付けられた人が家にいる場合)における現在の動作モードがアフォーダンス2016で以前に有効化されている「ストリーム」のみであることを表示する。デバイス600は、第1のコンテキストに関連付けられたアフォーダンス2016の選択に対応するユーザ入力2050cを検出する。ユーザ入力2050cを受信したことに応じて、デバイス600は、図20Dに示すように、第1のコンテキストに関連付けられた拡張されたアフォーダンス2016を表示して、動作モードに対応するアフォーダンス2016a~2016cを同時に表示する。
図20Dでは、デバイス600は、第1のコンテキストに関連付けられたカメラ3のそれぞれの利用可能な動作モード「オフ」、「ストリーム」、及び「録画」に対応するアフォーダンス2016a~2016cを表示する。アフォーダンス2016a~2016cは、アフォーダンス2016内のメニュー内に表示される。ユーザ入力2050cを検出したことに応じて、アフォーダンス2018は、折り畳まれたままである一方で、アフォーダンス2016は、拡張されて、アフォーダンス2016a~2016cを見せる。同様に、アフォーダンス2018を拡張することにより、図20Lに示すように、動作モードに対応するアフォーダンス2018a~2018cと同時にアフォーダンス2018の表示をもたらす。アフォーダンス2018a~2018cは、第2のコンテキスト(例えば、関連付けられた人が家にいない)におけるカメラ3のそれぞれの利用可能な動作モード「オフ」、「ストリーム」、及び「録画」に対応する。
図20Dに示すように、デバイス600は、以前に無効化された「録画」動作モードを有効化するアフォーダンス2016cの選択に対応するユーザ入力2050dを検出する。動作モードアフォーダンス2016a~2016c及び2018a~2018cの選択により、以前に無効化された動作モードが有効化され、かつ以前に有効化された動作モードが無効化されるように、対応する動作モードの状態をトグルする。
図20Eに示すように、(図20Dに示すように)ユーザ入力2050dを検出したことに応じて、デバイス600は、アフォーダンス2016c内の「録画」テキストに隣接するチェックマークインジケータを表示して、「録画」動作モードが第1のコンテキストに対して有効化されていることを示す。チェックマークインジケータはまた、アフォーダンス2016b内の「ストリーム」テキストの隣にも表示されて、「ストリーム」動作モードもまた第1のコンテキストに対して有効化されていることを示す。したがって、ユーザは、カメラ3の第1のコンテキスト(例えば、家にいる場合)に対して表示されたチェックマークインジケータに基づいて、どのモードが有効化/無効化されているかを見ることができ、カメラ3の同じコンテキストに対して追加のモードを有効化/無効化することができる。動作モードが有効化されていない場合、それぞれのアフォーダンス(例えば、2016a)は、チェックマークインジケータなしに表示される。デバイス600は、複数の動作モード(例えば、「ストリーム」及び「録画」)が有効化された場合に、複数のチェックマークインジケータを表示する。デバイス600がユーザ入力2050dを検出したことに応じて、デバイス600は、アフォーダンス2016内の第1のコンテキストに対する現在の動作モードの表示を「ストリーム」及び「録画」に更新する。したがって、ユーザは、動作モードの選択が適用された後に、第1のコンテキストに対するカメラ3の現在の動作モードを見ることができる。いくつかの実施形態では、ユーザ入力2050dを検出することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、有効化された「録画」動作モードに従って、カメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a)上の追加のユーザ入力を検出した後に、第1のコンテキストに対応する動作モードに行われた変更に従って、カメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、送信される情報は、カメラ3の構成プロファイルを更新する命令を含む。
図20Eで、デバイス600は、(第1のコンテキストの)アフォーダンス2016内の(例えば、2016a~2016cによって示されるような)有効化された動作モードが「録画」動作モードを含むか否かを判定する。「録画」動作モードが有効化されていないとの判定に従って、デバイス600は、録画オプションアフォーダンス2020を表示しない。「録画」動作モードが有効化されているとの判定に従って、デバイス600は、録画オプションアフォーダンス2020を表示する。録画オプションアフォーダンス2020を表示している間に、デバイス600は、録画オプションアフォーダンス2020の選択に対応するユーザ入力2050eを検出する。したがって、デバイス600は、選択されたカメラ(例えば、カメラ3)が、選択されたコンテキスト(例えば、「家にいる場合」)に対して「録画」動作モードを有効化するように構成されているか否かを判定し、有効化するように構成されている場合、録画設定を構成するためのオプション(例えば、録画オプションアフォーダンス2020)を表示する。
図20Fに示すように、録画オプションアフォーダンス2020上で(図20Eに示すように)ユーザ入力2050eを検出したことに応じて、デバイス600は、録画オプションユーザインタフェース2022を表示する。録画オプションユーザインタフェース2022は、活動検出アフォーダンス2040と、持続時間アフォーダンス2010と、クラウドストレージ管理アフォーダンス2006と、録画消去アフォーダンス2008とを含む。いくつかの実施形態では、録画オプションユーザインタフェース2022は、ユーザがデバイス600上のローカルフラッシュメモリ又は追加のストレージカード(例えば、SDカード)上の録画のストレージを管理することを可能にする、ローカルストレージ管理のためのアフォーダンスを更に含む。
録画オプションユーザインタフェース2022は、動き検出アフォーダンス2030a~2030cのメニューを含む活動検出アフォーダンス2040を含む。動き検出アフォーダンス2030a~2030cは、「人物」、「動物」、及び「車両」から動きがそれぞれ検出されると録画をトリガするようにカメラ3を構成する、動き検出条件に対応する。したがって、録画のための動き検出条件は、人の移動がカメラの視野内で検出されると、動物(人間でない動物)の移動がカメラの視野内で検出されると、及び車両(例えば、自動車、トラック、バン、オートバイ)の移動がカメラの視野内で検出されると、録画をトリガするように対応するカメラを独立して構成するために使用される。いくつかの実施形態では、動き検出条件は、(例えば、リスト内で指定された)特定の対象の存在の検出に基づく。例えば、アフォーダンス2030aは、任意選択的に、特定の人物(例えば、ジョン・アップルシード)が部屋内で検出されると録画をトリガするようにカメラ3を構成する。同様に、アフォーダンス2030bは、任意選択的に、特定の動物(例えば、猫又は犬)又は車両(例えば、ナンバープレートに基づく)がカメラの視野内に存在すると判定されると録画をトリガするようにカメラ3を構成する。図20Fで、デバイス600は、以前に有効化されていた(かつ現在有効化されている)動き検出条件「動物」の隣にチェックマークインジケータを表示する。いくつかの実施形態では、1つ以上の動き検出条件が有効化されると、活動検出アフォーダンス2040は、有効状態にトグルされる。いくつかの実施形態では、動き検出条件が有効化されていないと、活動検出アフォーダンス2040は、無効状態にトグルされる。
図20Gで、デバイス600が動き検出アフォーダンス2030a~2030cを表示している間に、デバイス600は、ユーザ入力2050fを検出して、以前に無効化された対応する「人物」動き検出条件を有効化する、動き検出アフォーダンス2030aを選択する。動き検出アフォーダンス2030a~2030cの選択により、以前に無効化された動き検出条件がここで有効化され、かつ以前に有効化された動作モードがここで無効化されるように、対応する動き検出条件の状態をトグルする。ユーザ入力2050fを検出したことに応じて、デバイス600は、図20Hに示すように、「人物」テキストに隣接するチェックマークインジケータを表示し、「人物」動き検出条件が有効化されていることを示す。加えて、チェックマークインジケータは、「動物」テキストの隣に表示されたままであり、これにより、条件が以前に有効化されたことを示す。有効化されていない動き検出条件は、チェックマークインジケータと共には表示されない。いくつかの実施形態では、デバイス600は、複数の動き検出条件が有効化されると、対応する有効化された動き検出条件の隣の複数のチェックマークインジケータを表示する。いくつかの実施形態では、ユーザ入力2050fを検出することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、「人物」の有効化された動き検出条件に従って、カメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は「戻る」ボタン2002b)上の追加のユーザ入力を検出した後に、第1のコンテキストの「録画」動作モードに対応する動き検出条件に行われた変更に従って、カメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Hは、活動検出アフォーダンス2040上のユーザ入力2050gを検出して、動き検出(人物、動物、車両のいずれかの)がカメラ3での録画をトリガするために使用されないように、活動検出を無効化する(例えば、オフにトグルする)、デバイス600を示す。図20Iで、(図20Hに示すように)デバイス600がユーザ入力2050gを検出したことに応じて、デバイス600は、活動検出アフォーダンス2040が無効状態で表示されている間、動き検出アフォーダンス2030a~2030cの表示を停止する。持続時間アフォーダンス2010、クラウドストレージアフォーダンス2006、及び録画消去アフォーダンス2008は、表示されたままである。(図20Hに示すように)デバイス600がユーザ入力2050gを検出したことに応じて、動き検出条件によってトリガされる録画は、無効化される。いくつかの実施形態では、デバイス600がユーザ入力2050gを受信することに続いて(例えば、それに応じて)、デバイス600は、録画をトリガするための全ての動き検出条件を無効化するように、検出されたユーザ入力2050gに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、第1のコンテキストにおける無効化された動き検出設定に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Iで、デバイス600は、(図20Hに示すように)ユーザ入力2050gによって以前に無効化された活動検出を有効化するためのユーザ入力2050hを検出する。図20Jで、(図20Iに示すように)デバイス600がユーザ入力2050hを検出したことに応じて、デバイス600は、動き検出アフォーダンス2030a~2030cと同時に活動検出アフォーダンス2040を表示し、動き検出アフォーダンス2030~2030cは、追加のユーザ入力なしに自動的に有効化される。チェックマークインジケータは、表示された動き検出条件のそれぞれの隣に表示されて、動き検出条件のそれぞれが有効化されていることを示す。いくつかの実施形態では、活動検出アフォーダンス2040を有効化することにより、全ての動き検出条件を有効化し、活動検出アフォーダンス2040を無効化することにより、全ての動き検出条件を無効化する。(図20Iに示すように)デバイス600がユーザ入力2050hを検出したことに応じて、動き検出条件によってトリガされる録画は、有効化される。いくつかの実施形態では、デバイス600がユーザ入力2050hを受信することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、有効化された動き検出条件に従ってカメラ3の構成プロファイルを更新する情報を送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、第1のコンテキストの「録画」動作モードに対応する動き検出条件に行われた変更に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Kに示すように、デバイス600がユーザ入力2050iを検出する前に、デバイス600は、アフォーダンス2018に示すように、「ストリーム」動作モードが第2のコンテキスト(例えば、関連付けられた人が家にいない場合)で有効化されているときに、第2のコンテキスト(例えば、不在の場合)に対する現在の動作モードが「ストリーム」であることを表示する。デバイス600は、第2のコンテキスト(例えば、関連付けられた人が家にいない場合)に関連付けられたアフォーダンス2018の選択に対応するユーザ入力2050iを検出する。ユーザ入力2050iを受信したことに応じて、デバイス600は、図20Lに示すように、第2のコンテキストに関連付けられた拡張されたアフォーダンス2018を表示して、動作モードに対応するアフォーダンス2018a~2018cを同時に表示する。いくつかの実施形態では、第2のコンテキストに関連付けられた動作モードは、第1のコンテキストに関連付けられた動作モードと同じである(対応する)が、動作モードは、各コンテキストに対して独立して構成される。いくつかの実施形態では、第2のコンテキストの動作モードは、第1のコンテキストの動作モードとは異なる。いくつかの実施形態では、カメラ3は、誰も家にいない場合、第2のコンテキストにおいてオフにされる(例えば、オフ2018aの隣のチェックマーク)(例えば、録画されない、録画のためにトリガされない、ストリーミングに利用可能でない)。
図20Lで、(図20Kに示すように)ユーザ入力2050iを受信したことに応じて、デバイス600は、第2のコンテキストに関連付けられた拡張されたアフォーダンス2018を表示して、アフォーダンス2018a~2018cに対応する動作モードを同時に表示する。アフォーダンス2018a~2018cは、第2のコンテキスト(例えば、関連付けられた人が家にいない)におけるカメラ3のそれぞれの利用可能な動作モード「オフ」、「ストリーム」、及び「録画」に対応する。アフォーダンス2018a~2018cは、アフォーダンス2018内のメニュー内に表示される。(図20Kで)ユーザ入力2050iを検出したことに応じて、図20Lに示すように、アフォーダンス2018が拡張されている間に、アフォーダンス2016は、折り畳まれたままである。アフォーダンス2018を拡張することにより、図20Lに示すように、第2のコンテキストにおける動作モードに対応するアフォーダンス2018a~2018cと同時にアフォーダンス2018の表示をもたらす。
図20Lで、デバイス600は、以前に無効化された「録画」動作モードを有効化するアフォーダンス2018cの選択に対応するユーザ入力2050jを検出する。図20Mに示すように、(図20Lに示すように)ユーザ入力2050jを検出したことに応じて、デバイス600は、「録画」テキストに隣接するチェックマークインジケータを有するそれぞれのアフォーダンス2018cを表示して、「録画」動作モードが有効化されていることを示す。チェックマークインジケータは、以前に有効化された「ストリーム」動作モードの隣に表示される。いくつかの実施形態では、「オフ」動作モードを選択することにより、任意の他の選択された動作モード(例えば、「ストリーム」動作モード又は「録画」動作モード)を無効化する。デバイス600がユーザ入力2050jを検出したことに応じて、デバイス600は、アフォーダンス2018内の第2のコンテキストに対する現在の動作モードの表示を「ストリーム」及び「録画」に更新する。したがって、ユーザは、動作モードの選択が適用された後に、第2のコンテキストに対するカメラ3の現在の動作モードを見ることができる。いくつかの実施形態では、ユーザ入力2050jを検出することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、有効化された「録画」動作モードに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a)上の追加のユーザ入力を検出した後に、第2のコンテキストに対応する動作モードに行われた変更に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Mで、デバイス600は、アフォーダンス2016内の有効化された動作モード(例えば、2018a~2018c)が「録画」動作モードを含むか否かを判定する。「録画」動作モードが有効化されているとの判定に従って、デバイス600は、図20Mに示すように、録画オプションアフォーダンス2020を表示する。この実施例では、(図20Lでの)入力2050jは、「録画」動作モードを有効にしており、それによって、録画オプションアフォーダンス2020の表示を引き起こす。録画オプションアフォーダンス2020を表示している間に、デバイス600は、録画オプションアフォーダンス2020の選択に対応するユーザ入力2050kを検出する。
図20Nに示すように、デバイス600が録画オプションアフォーダンス2020の(図20Mに示すような)ユーザ入力2050kを検出したことに応じて、デバイス600は、図20Fに関して上述したものと同じユーザインタフェースである録画オプションユーザインタフェース2022を表示する。デバイス600は、動きが「人物」から検出される場合の動き検出条件に対応するアフォーダンス2030aの選択に対応するユーザ入力2050lを検出する。図20Fに関して上述したように、ユーザ入力2050lを検出したことに応じて、デバイス600は、「人物」テキストに隣接するチェックマークインジケータを表示し、「人物」動き検出条件が有効化されていることを示す。加えて、以前に有効化された「車両」動き検出条件は、アフォーダンス2030cでの表示されたチェックマークインジケータによって示されるように、チェックされたままである。いくつかの実施形態では、ユーザ入力2050lを検出することに続いて(例えば、それに応じて)、デバイス600は、第2のコンテキストにおいて以前に無効化されていた、有効化された「人物」動き検出条件に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、第2のコンテキストの「録画」動作モードに対応する動き検出条件に行われた変更に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
上述のように、第1のコンテキスト(例えば、家にいる場合)及び第2のコンテキスト(例えば、不在の場合)に対する動作モード及び録画設定は、互いに独立して構成される。例えば、図20Hは、第2のコンテキストに対する設定を変更することなく、第1のコンテキストにおける「人物」及び「動物」から検出された動きに基づいて録画をトリガするように、カメラ3の構成プロファイルを「ストリーム」及び「録画」動作モードに更新する情報を送信するデバイス600を示す。対照的に、図20Nは、第1のコンテキストに対する設定を変更することなく、第2のコンテキストにおける「人物」及び「車両」から検出された動きに基づいて録画をトリガするように、カメラ3の構成プロファイルを「ストリーム」及び「録画」動作モードに更新する情報を送信するデバイス600を示す。
図20Oは、持続時間アフォーダンス2010の選択に対応するユーザ入力2050mを検出するデバイス600を示す。持続時間アフォーダンス2010は、図14Hに示すような、録画されたビデオデータをクラウドストレージ内に保持するための持続時間をユーザが選択することができるアフォーダンスに対応する。図20Pで、(図20Oに示すように)デバイス600がユーザ入力2050nを検出したことに応じて、デバイス600は、拡張された持続時間アフォーダンス2010を表示して、カメラ3の録画されたビデオデータがクラウドストレージ内に保持されるべき所定の持続時間に対応するアフォーダンス2010a~2010dを同時に表示する。いくつかの実施形態では、アフォーダンス2010a~2010dのそれぞれは、異なる期間に対応する。いくつかの実施形態では、アフォーダンス2010aは、1日に対応し、アフォーダンス2010bは、1週間に対応し、アフォーダンス2010cは、1ヶ月に対応し、アフォーダンス210dは、1年に対応する。いくつかの実施形態では、アフォーダンス2010a~2010dは、持続時間を増加させる順序でソートされる。いくつかの実施形態では、アフォーダンス2010a~2010dは、持続時間を減少させる順序でソートされる。いくつかの実施形態では、アフォーダンス2010a~2010dは、カスタム持続時間に対応する。いくつかの実施形態では、アフォーダンス2010a~2010dは、所定の持続時間に対応する。
図20Pは、1ヶ月の持続時間であるアフォーダンス2010cの選択に対応するユーザ入力2050nを検出するデバイス600を示す。ユーザ入力2050nの選択を検出したことに応じて、デバイス600は、図20Pに示すように、選択された1ヶ月の持続時間の隣にチェックマークインジケータを表示する。持続時間アフォーダンス2010a~2010dの選択により、以前に無効化された持続時間が有効化され、かつ以前に有効化された持続時間が無効化されるように、対応する持続時間の状態をトグルする。一度に1つの持続時間のみを有効化することができる。したがって、1ヶ月の持続時間アフォーダンス2010cの選択により、以前に選択された1日の持続時間が無効化されることになる。いくつかの実施形態では、ユーザ入力2050nを検出したことに応じて、デバイス600は、以前に無効化されていた、(カメラ3の)録画されたビデオデータを記憶するための有効化された持続時間に従って、(例えば、カメラ3と通信している録画されたデータを記憶しているサーバ又はハブに)情報を送信する。いくつかの実施形態では、カメラ3のビデオデータを記憶するための持続時間は、他のカメラが録画されたビデオデータを記憶する持続時間を変更することなく構成される。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、録画されたビデオデータを記憶するための持続時間に行われた変更に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3と通信している録画されたデータを記憶しているサーバ又はハブに)送信する。
録画設定の構成と同様に、デバイス600は、図22C~図22Dに示し、かつ以下に説明するように、類似のユーザインタフェースから受信した検出されたユーザ入力に基づいて通知設定を構成する。デバイス600は、図22Dに示すステータス及び通知ユーザインタフェース2222からのユーザ入力を検出する。ステータス及び通知ユーザインタフェース2222は、図18Bのステータス及び通知ユーザインタフェース1800に類似している。図22Dに示すように、ステータス及び通知ユーザインタフェース2222は、動き検出に基づいて録画を構成するための活動検出アフォーダンス2040と類似している、動き検出に基づいて通知を構成するための活動検出アフォーダンス2240を含む。図22C~図22Dに関して以下で更に説明するように、デバイス600は、図20C~図20Gに関して上述したように録画設定を更新することとは無関係に、通知設定に対応する動き検出条件に行われた変更に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Q~図20Xは、カメラ3が「録画」動作状態にあるように構成されているときの、クラウドストレージの管理のためのユーザインタフェースを示す。図20Qで、デバイス600は、「録画」動作モードの選択に対応するユーザ入力2050oを検出する。図20Rで、デバイス600がカメラ録画を記憶するのに十分なメモリを含む(又は記憶するために有効化されている)クラウドストレージプラン(例えば、2GBを上回る加入ベースのプラン)にリンクされていないとの判定に従って、デバイス600は、「録画」動作モードをカメラ3に対して有効化することができる前に、ユーザが現在のクラウドストレージプランをアップグレードする必要があることを示す通知2060aを表示する。通知2060aは、クラウドストレージを管理するためのアフォーダンス2064と、(録画機能をアクティブ化することなく)カメラ3の設定ユーザインタフェース2004に戻るための確認アフォーダンス2062とを含む。アフォーダンス2064は、クラウドストレージを構成するためのそれぞれのクラウドストレージ管理ユーザインタフェース(例えば、図20Sの2066及び図16Gの1612)にリンクする、図16Eのアフォーダンス1610と同じ機能を提供する。図20Rで、デバイス600は、クラウドストレージを管理するためのアフォーダンス2064の選択に対応するユーザ入力2050pを検出する。
図20Sで、(図20Rに示すように)デバイス600がユーザ入力2050pを検出したことに応じて、デバイス600は、現在のストレージプランユーザインタフェース2068及びアップグレードオプションユーザインタフェース2070を含むアップグレードクラウドストレージユーザインタフェース2066を表示する。ユーザインタフェース2068は、ユーザインタフェース2068内に現在のストレージプランの価格及び記憶量を含む。ユーザインタフェース2070は、異なるクラウドストレージプランのための加入プランアフォーダンス2070a(例えば、200GBに対して$X.xx/月)及び2070b(例えば、2TBに対して$Y.yy/月)のメニューを含む。様々なクラウドストレージプランは、異なる数のカメラをサポートする。例えば、第1階層のストレージプランは、1台のカメラの録画のためのストレージを提供し、第2階層のストレージプランは、10台のカメラの録画のためのストレージを提供することができる。デバイス600は、第1階層の加入ベースのストレージプランの選択に対応するアフォーダンス2070aの選択に対応するユーザ入力2050qを検出する。いくつかの実施形態では、ユーザ入力2050qを検出することに続いて(例えば、それに応じて)、デバイス600は、アフォーダンス2070aに関連付けられた第1階層の加入ベースのストレージプランへの加入を有効化し(又は、有効化するプロセスを開始し)、選択された「録画」動作モードに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Tは、(図20Sに示すように)デバイス600がユーザ入力2050qを検出したことに応じて、デバイス600が、現在のストレージプランが第1階層の加入ベースのストレージプランであることを示す更新されたユーザインタフェース2068、及びアップグレードのための利用可能な加入ベースのストレージプランのメニューから第1階層の加入ベースのストレージプランに関連付けられたアフォーダンス2070aを除去している、更新されたユーザインタフェース2070を表示することを示す。第2階層の加入ベースのストレージプランに対応するアフォーダンス2070bは、このプランがアップグレードのために依然として利用可能であるため、ユーザインタフェース2070内に依然として表示されている。
いくつかの実施形態では、デバイス600が第2のカメラの録画を有効化するユーザ入力を検出すると、デバイス600は、カメラの数が、第1階層のストレージプランによってサポートされるカメラの数を上回ると判定する(例えば、第1階層のストレージプランは、1台のカメラの録画のみをサポートする)。例えば、第1階層の加入ベースのストレージプランは、1台のカメラの録画をサポートし、第2階層の加入ベースのストレージプランは、10台のカメラの録画をサポートする。
図20Uは、現在のストレージプランが1台のカメラの録画のみをサポートしている間に、デバイス600が第2のカメラ(例えば、ドアベルカメラ)の録画を有効化するユーザ入力を検出し、かつ録画のために要求されたカメラの数が現在のストレージプランによってサポートされるカメラの数を上回ると判定したことに応じて、デバイス600が、「録画」動作モードを第2のカメラに対して有効化することができる前に、ユーザが現在のストレージプランをアップグレードする必要があることを示す通知2060bを表示することを示す。通知2060bは、クラウドストレージプランを管理するためのアフォーダンス2064又は設定ユーザインタフェース2004に戻る確認アフォーダンス2062を含む。図20Uで、デバイス600は、クラウドストレージプランを管理するためのアフォーダンス2064の選択に対応するユーザ入力2050rを検出する。
図20Vで、(図20Uに示すように)デバイス600がユーザ入力2050rを検出したことに応じて、デバイス600は、ユーザインタフェース2068内に現在のストレージプランが第1階層の加入ベースのストレージプランであることを表示し、第2階層の加入ベースのストレージプランに対応するユーザインタフェース2070内のアフォーダンス2070bを表示する。デバイス600は、ユーザインタフェース2070内にアップグレードするために利用可能な加入ベースのストレージプランのみを表示する(例えば、第1階層のプランを表示しない)。デバイス600は、アフォーダンス2070bの選択に対応するユーザ入力2050sを検出する。
図20Vで、デバイス600は、第2階層のストレージプランに対応するアフォーダンス2070b上のユーザ入力2050sを検出する。図20Wで、ユーザ入力2050sを検出したことに応じて、デバイス600は、現在のストレージプランが第2階層の加入ベースのストレージプランであることを示す更新されたユーザインタフェース2068を表示し、アップグレードのための追加のプランが存在しない場合には、ユーザインタフェース2070は表示されない。いくつかの実施形態では、ユーザ入力2050sを検出することに続いて(例えば、それに応じて)、デバイス600は、アフォーダンス2070bに関連付けられた第2階層の加入ベースのストレージプランへの加入を有効化し(又は、有効化するプロセスを開始し)、選択された「録画」動作モードに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図20Xに示すように、現在のストレージプランが10台のカメラの録画のみをサポートしている間に、デバイス600が第11のカメラ(例えば、ドアベルカメラ)の録画を有効化するユーザ入力2050sを検出したことに応じて、デバイス600は、録画が10台のカメラのみに対してサポートされていることを示す通知2060cを表示する。したがって、録画は、第11のカメラに対して有効化されない。いくつかの実施形態では、ユーザは、第11のカメラに対して録画を有効化することができる前に、10台のカメラのうちの1台の録画を除去することができる(合計10台のカメラの録画をもたらす)。デバイス600が「OK」ボタン2002dに対応する確認アフォーダンス2002d上のユーザ入力2050tを検出したことに応じて、デバイス600は、設定ユーザインタフェース2004を表示する。デバイス600は、「OK」ボタン2002d上の追加のユーザ入力を検出した後に、第11のカメラの構成プロファイルを動作モード「録画」に更新する情報を送信しない。
図21A~図21Cは、いくつかの実施形態による、電子デバイスを使用して、ビデオデータの外部ソースの録画設定を構成する方法を示すフロー図である。方法2100は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法2100のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法2100は、1つ以上のコンテキストに対するビデオデータのソースの動き検出条件に基づいて、録画設定を構成するための直感的な方法を提供する。この方法は、人物、動物、及び車両の動きの検出に基づいて、異なるコンテキストに対してビデオデータのソースの有効化されている録画を構成するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。録画をトリガするための条件として動き検出を有効化することにより、録画を維持するために必要とされる記憶スペースが低減され、これにより、より効率的なヒューマン-マシンインタフェースを作り出す。より少数の関連クリップを録画することにより、ユーザが後の時点で特定の録画を見つけることを容易にもする。更に、記憶スペースは、デバイスにリンクされたビデオデータのソース(例えば、カメラ)間で共有されるため、ビデオデータの1つのソースによって使用される記憶スペースの量を低減することにより、ビデオデータの他のソースのための追加の記憶スペースが提供される。バッテリ動作式のコンピューティングデバイスの場合には、録画の量を低減することにより、ビデオデータのソースがより効率的に電力を節約することが可能になり、バッテリ充電の間隔が増す。
ブロック2102で、デバイス(例えば、600)は、ビデオデータのソース(例えば、新たに追加された外部カメラ、カメラ3などダッシュボードからカメラを選択すること)を識別するデータを受信する。ブロック2104で、ビデオデータのソースを識別するデータを受信した後に(例えば、それに応じて)、ブロック2106で、デバイスは、ビデオデータのソースの(例えば、アフォーダンス2016a~2016cに関連付けられた)動作状態(例えば、オフ、ストリーム、録画、又はストリーム及び録画の両方)を選択するためのメニューを含む第1のユーザインタフェース(例えば、2014)を表示する(動作状態は、コンテキスト(例えば、誰かが家にいる(例えば、2016)、誰も家にいない(例えば、2018)など)に関連付けられている)。
ブロック2108で、ビデオデータのソースの(例えば、アフォーダンス2016a~2016cに対応する)動作状態を選択するためのメニューを表示している間に、デバイスは、動作状態(例えば、オフ、ストリーム、録画、又はストリーム及び録画の両方、かつ(例えば、アフォーダンス2016、2018に対応する)コンテキスト(例えば、在宅モード又は不在モード)に関連付けられている)の選択に対応する第1の入力(例えば、2050d)を検出する。いくつかの実施形態では、(例えば、アフォーダンス2016cに対応する)選択された動作状態(例えば、録画状態)及び(例えば、アフォーダンス2030a~2030cに対応する)選択された第1の動き検出条件(例えば、人物を検出すること)は、第1のコンテキスト(例えば、2016)(例えば、誰かが家にいる場合)に関連付けられている(例えば、それに対応する)。
ブロック2110で、第1の入力(例えば、2050d)(例えば、動作状態の選択)を検出したことに応じて、(例えば、アフォーダンス2016cに対応する)選択された動作状態が(例えば、アフォーダンス2016cに対応する)録画状態を含むとの判定に従って、デバイスは、オプションアフォーダンス(例えば、2020)(例えば、録画状態が選択されている場合にのみ表示される録画オプションアフォーダンス)を表示する。任意選択的に、オプションアフォーダンス(例えば、録画オプションアフォーダンス)のアクティブ化を検出したことに応じて、デバイスは、ビデオデータのソースからのビデオデータを記憶するための持続時間(例えば、日、週、月、年(例えば、2010a~2010d))を選択するためのメニュー(例えば、2010)を表示する。いくつかの実施形態では、ビデオデータのソースからのビデオデータを記憶するための持続時間(例えば、日、週、月、年)を選択するためのメニューを表示している間に、デバイスは、ビデオデータのソースからのビデオデータを記憶するための持続時間の選択に対応する第5の入力(例えば、2050n)を検出する。第5の入力を検出することに続いて(例えば、それに応じて)、選択された動作状態及び選択された持続時間に従ってビデオデータのソースの構成プロファイルを更新する情報を送信する。
任意選択的に、第1の入力(例えば、2050d)を検出したことに応じて、ブロック2112で、(例えば、アフォーダンス2016a、2016bに対応する)選択された動作状態が(例えば、アフォーダンス2016cに対応する)録画状態を含まないとの判定に従って、デバイスは、オプションアフォーダンス(例えば、2020)を表示することを取り止める。いくつかの実施形態では、デバイスは、録画状態が選択されている場合にのみ、動き検出アフォーダンス(例えば、2030a~2030c)を含む録画オプションアフォーダンスを表示する。いくつかの実施形態では、第1の入力を検出する前に、動作状態が録画状態を既に含み(したがって、第1の入力を受信する前に、オプションアフォーダンスが表示されている)、かつ第1の入力が録画状態を有効化された動作状態から除外させない場合、デバイスは、録画オプションアフォーダンスの表示を維持する。いくつかの実施形態では、第1の入力を検出する前に、動作状態が録画状態を含まず(したがって、第1の入力を受信する前に、オプションアフォーダンスが表示されていない)、かつ第1の入力が動作状態に録画状態を含めさせる場合、デバイスは、録画オプションアフォーダンスを表示する。いくつかの実施形態では、第1の入力を検出する前に、動作状態が録画状態を含み(したがって、第1の入力を受信する前に、オプションアフォーダンスが表示されている)、かつ第1の入力が動作状態に録画状態を除外させる場合、デバイスは、オプションアフォーダンスを表示することを停止する。
この方法は、録画のためにビデオデータのソースを構成するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。デバイスが録画動作モードになっていない限り、録画オプションは表示されない。録画のために構成が設定された場合にのみ録画オプションを表示することにより、ユーザの認識的負担が軽減される。
ブロック2114で、デバイスは、オプションアフォーダンス(例えば、2020)のアクティブ化を検出する。オプションアフォーダンスのアクティブ化を検出したことに応じて、ブロック2116で、デバイスは、複数の動き検出アフォーダンス(例えば、2030a~2030c)(例えば、人物、ペット、及び車両を検出するための動き検出条件)を表示し、これは、ブロック2118での、第1の動き検出条件(例えば、人物の検出)に対応する第1の動き検出アフォーダンス(例えば、2030a)と、ブロック2129での、第1の動き検出条件とは異なる第2の動き検出条件(例えば、人物、動物、又は車両の検出)に対応する第2の動き検出アフォーダンス(例えば、2030b又は2030c)と、を含む。
ブロック2122で、デバイスは、第1の動き検出条件の選択に対応する第2の入力(例えば、2050f)を検出し、第1の動き検出アフォーダンス(例えば、2030a)の選択を検出することが以前に無効化された第1の動き検出条件を有効化する場合、デバイスは、有効化された第1の動き検出条件の隣にチェックマークを表示する。第1の動き検出アフォーダンスの選択を検出することが以前に有効化された第1の動き検出条件を無効化する場合、デバイスは、無効化された第1の動き検出条件の隣にチェックマークを表示しない。
ブロック2124で、第2の入力(例えば、2050f)を検出し、かつ任意選択的に、(例えば、第2の入力を検出したことに応じて)「完了」アフォーダンスのアクティブ化も検出することに続いて(例えば、それに応じて)、デバイスは、選択された動作状態(例えば、録画状態)及び選択された第1の動き検出条件(例えば、人物の検出)に従ってビデオデータのソースの構成プロファイルを設定する情報を送信する。いくつかの実施形態では、ブロック2126で、構成プロファイルは、選択された第1の動き検出条件が満たされると、ビデオデータのソースに録画を開始させる。
任意選択的に、ブロック2128で、デバイスは、(例えば、アフォーダンス2030b~2030cに対応する)第2の動き検出条件の選択に対応する第3の入力を検出する。任意選択的に、ブロック2130で、第3の入力を検出することに続いて(例えば、第3の入力を検出したことに応じて)(かつ任意選択的に、「完了」アフォーダンスのアクティブ化も検出することに続いて)(例えば、それに応じて)、デバイスは、選択された動作状態及び選択された第2の動き検出条件(例えば、録画状態及び人物の検出)に従ってビデオデータのソースの構成プロファイルを更新する情報を送信する。任意選択的に、ブロック2132で、構成プロファイルは、選択された第1の動き検出条件(例えば、人の検出された動き)又は選択された第2の動き検出条件(例えば、ペットの検出された動き)が満たされると、ビデオデータのソースに録画を開始させる。したがって、構成プロファイルは、ビデオデータのソースに、第1の動き検出条件(例えば、アフォーダンス2030aに対応する)及び第2の動き検出条件(例えば、アフォーダンス2030b又は2030cに対応する)の両方を監視させ、第1の動き検出条件又は第2の動き検出条件のいずれか(又はその両方)が満たされると、録画を開始させる。
人物、動物、及び車両の動きの検出に基づいてビデオデータのソースの録画をトリガする構成により、コンピュータリソースを節約し、電力使用を低減する。録画をトリガするための条件として動き検出を有効化することにより、録画を記憶するために必要とされる記憶スペースを低減し、これにより、コンピュータリソースを節約し、コンピュータが実行する処理を制限する。より少ないがより関連する録画を有することにより、ユーザが後の時点で特定の録画を見つけることを容易にもする。更に、記憶スペースは、多くの場合、デバイスにリンクされたビデオデータのソース(例えば、カメラ)間で共有されるため、必要とされる記憶スペースの量を低減することにより、記憶スペースをより効率的に共有することを可能にする。バッテリ動作式のコンピューティングデバイスの場合には、録画の量を低減することにより、ビデオデータのソースがより効率的に電力を節約することが可能になり、バッテリ充電の間隔が増す。
いくつかの実施形態では、デバイスは、(例えば、アフォーダンス2016bに対応する)第2の動作状態の選択に対応する第4の入力を検出する。いくつかの実施形態では、第2の動作状態は、第1の動作状態と同じである。いくつかの実施形態では、第2の動作状態は、第1のコンテキストとは異なる(例えば、アフォーダンス2018に対応する)第2のコンテキスト(例えば、誰も家にいない場合)に関連付けられる。いくつかの実施形態では、第4の入力を検出することに続いて(例えば、それに応じて)(例えば、任意選択的に、「完了」アフォーダンスのアクティブ化を検出した後に、例えば、第4の入力を検出したことに応じて)、デバイスは、ビデオデータのソースの構成プロファイルの第1のコンテキストの動作モード(例えば、誰かが家にいる場合に人物の動き検出を伴う録画状態)を更新する情報を送信することなく(かつ第2のコンテキストに関連付けられた選択された第2の動作モードに従ってビデオデータのソースの構成プロファイルの第2のコンテキストの任意の動作モードを更新する情報を送信することなく)、第2のコンテキストに関連付けられた選択された第2の動作モード(例えば、誰も家にいない場合に録画状態でない)に従ってビデオデータのソースの構成プロファイルの第2のコンテキストの第2の動作モードを更新する情報を送信する。
ビデオデータのソースを構成するために異なるコンテキストに対して異なる動作モードを選択することにより、ビデオデータのソースに対してより多くの制御をユーザに与える、より効率的なヒューマン-マシンインタフェースを提供する。ユーザは、第1のコンテキストにおいてのみ録画することを望むが、第2のコンテキストでは録画することを望まない場合がある。特定のコンテキストにおいてのみ録画することにより、録画を記憶するために必要とされるストレージが低減され、これにより、より効率的なヒューマン-マシンインタフェースを作り出す。より少ないがより関連する録画を有することにより、ユーザが後の時点で特定の録画を見つけることを容易にもする。更に、ストレージは、デバイスにリンクされたビデオデータのソース間で共有されるため、必要とされる記憶量を低減することにより、ストレージをより効率的に共有することを可能にする。バッテリ動作式のコンピューティングデバイスの場合には、録画の量を低減することにより、ビデオデータのソースがより効率的に電力を節約することが可能になり、バッテリ充電の間隔が増す。
いくつかの実施形態では、オプションアフォーダンス(例えば、2020)のアクティブ化を検出したことに応じて、デバイスは、複数の動き検出アフォーダンス(例えば、2030a~2030c)と同時に活動検出アフォーダンス(例えば、2040)を表示する(例えば、(例えば、図20Fのアフォーダンス2030bに対応する)有効化された動き検出条件は、動き検出条件の隣にチェックマークを有して表示されて、それが有効化されていることを示し、(例えば、図20Fのアフォーダンス2030a及び2030cに対応する)無効化された動き検出条件は、動き検出条件の隣にチェックマークなしに表示されて、それが無効化されていることを示す)。いくつかの実施形態では、(活動検出アフォーダンスを表示している間に)デバイスは、活動検出アフォーダンスの第1のアクティブ化(例えば、2050g)を検出する(例えば、活動検出アフォーダンス上のタップを検出する)。いくつかの実施形態では、活動検出アフォーダンスの第1のアクティブ化を検出したことに応じて(例えば、それによって、活動検出をオフ状態にトグルする、電子デバイスが複数の動き検出アフォーダンスを表示することを停止することになる)、デバイスは、第1の動き検出アフォーダンス(例えば、2030a)及び第2の動き検出アフォーダンス(例えば、2030b又は2030c)(例えば、人、ペット、及び車両の動き検出条件)を表示することを停止する。任意選択的に、活動検出アフォーダンスの第1のアクティブ化を検出したことに応じて、電子デバイスは、動き検出条件を無効化するように、ビデオデータのソースの構成プロファイルを更新する情報を送信する。したがって、活動検出アフォーダンスの第1のアクティブ化により、選択された動き検出条件をクリアし、動き検出条件のいずれも選択されないように、動き検出アフォーダンスを表示することを停止する。したがって、ビデオデータの対応するソースは、もはや有効化された動き検出条件に基づいて録画を開始しないように命令する情報を受信する。また、活動検出アフォーダンスをトグルすることにより、任意選択的に、動き検出アフォーダンスがビューから隠されることになる。
いくつかの実施形態では、活動検出アフォーダンスの第1のアクティブ化を検出することに続いて(例えば、それに応じて)、デバイスは、第1の動き検出条件(例えば、2030a)及び第2の動き検出条件(例えば、2030b又は2030c)が無効化されるように、ビデオデータのソースの構成プロファイルを更新する情報を送信する。いくつかの実施形態では、デバイスは、ユーザが活動検出アフォーダンスを最初にアクティブ化する前に有効化されていることがある第1及び第2の動き検出条件に基づいて録画しないように、ビデオデータのソースを更新する情報を送信する。
いくつかの実施形態では、複数の動き検出アフォーダンス(例えば、2030a~2030c)を表示していない(例えば、複数の動き検出アフォーダンスのいずれも表示されていないが、活動検出アフォーダンスを表示し続けている)間に、デバイスは、(活動検出アフォーダンスの第1のアクティブ化を検出することに続いて(例えば、それに応じて))活動検出アフォーダンスの第2のアクティブ化(例えば、2050h)を検出する。いくつかの実施形態では、デバイスによって、活動検出アフォーダンスの第2のアクティブ化を検出することにより、複数の動き検出アフォーダンス(例えば、2030a~2030c)を再び表示させる。いくつかの実施形態では、活動検出アフォーダンスの第2のアクティブ化を検出したことに応じて、デバイスは、第1の動き検出アフォーダンス(例えば、図20Jの2030a)(例えば、第1の動き検出条件が(例えば、ユーザ入力なしに)選択されているという第1のインジケーション(例えば、第1のアフォーダンスの隣のチェックマーク)を有する)と、第2の動き検出アフォーダンス(例えば、図20Jの2030b)(例えば、第2の動き検出条件が(例えば、ユーザ入力なしに)選択されているという第2のインジケーション(例えば、第2のアフォーダンスの隣のチェックマーク)を有する)とを含む、複数の動き検出アフォーダンス(例えば、人物、ペット、及び車両の動き検出条件)を表示する(例えば、活動検出アフォーダンスがオンにトグルされている結果として、第1の動き検出条件は、デフォルトで有効化され、第2の動き検出条件は、デフォルトで有効化される)。いくつかの実施形態では、チェックマークは、表示された複数の動き検出アフォーダンスのそれぞれの隣に表示される。
有効化された動き検出条件の隣にチェックマークを表示することにより、どの動き検出条件が有効化されているかをユーザに伝達することによって、より効率的なヒューマン-マシンインタフェースを提供し、それによって、ユーザの認識的負担を軽減する。
いくつかの実施形態では、活動検出アフォーダンスの第2のアクティブ化(例えば、2050h)を検出することに続いて(例えば、それに応じて)、デバイスは、第1の動き検出条件及び第2の動き検出条件が有効化されるように、ビデオデータのソースの構成プロファイルを更新する情報を送信する。(ユーザが活動検出アフォーダンスを最初にアクティブ化する前に有効化されていることがある第1及び第2の動き検出条件に基づいて録画を開始するように、ビデオデータのソースを更新する情報を送信する。)
いくつかの実施形態では、デバイスは、通知設定アフォーダンス(例えば、2012)(例えば、ステータス及び通知アフォーダンス)のアクティブ化を検出し、通知設定アフォーダンスは、ビデオデータのソースの動作状態とは無関係に(例えば、録画状態に関連付けられた動き検出条件を変更することなく)、ビデオデータのソースによる通知(例えば、電子デバイスへの通知)を有効化するためのものである。いくつかの実施形態では、通知設定アフォーダンスのアクティブ化(例えば、図22Cの2250c)を検出したことに応じて、デバイスは、複数の動き検出アフォーダンス(例えば、図22Cの2230a~2230c)を表示する。いくつかの実施形態では、複数の動き検出アフォーダンスを表示している間に、デバイスは、第1の動き検出条件の選択に対応する第6の入力(例えば、図22Dの2250d)を検出する。
いくつかの実施形態では、第6の入力(例えば、図22Dの2250D)を検出することに続いて(例えば、それに応じて)、デバイスは、ビデオデータのソースの構成プロファイルの動作状態(例えば、録画状態)を更新する情報を送信することなく、選択された第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定を更新する(例えば、通知、又は人物、ペット、若しくは車両の動き検出条件に基づく通知を有効化する)情報を送信する。
方法2100に関して上述したプロセス(例えば、図21A~図21C)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法2100は、任意選択的に、方法700、900、1100、1300、1500、1700、2300、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、構成プロファイルが設定される方法2100の制御可能な外部デバイスであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図22A~図22Hは、いくつかの実施形態による、カメラによって検出された活動に基づく通知設定を構成するための例示的なユーザインタフェースを示す。図22A~図22Hのユーザインタフェースは、図23A~図23Cのプロセスを含む後述するプロセスを例示するために使用される。
図22Aは、図6A、図12A、及び図20Aに示すユーザインタフェース604と同じユーザインタフェース604を表示するデバイス600を示す。図20Aで、デバイス600は、(図12Aに関して更に詳細に説明したように)表示されたリビングルームカメラ(カメラ3)(例えば、610c)を選択するためのユーザ入力2250aを検出する。図22Bに示すように、ユーザ入力2250aを受信したことに応じて、デバイス600は、図6Bのユーザインタフェース608並びに図12D及び図20Bの1200と同じであり、かつ図6B及び図12Dに関して更に詳細に説明した、カメラ3の個別のカメラユーザインタフェース1200を表示する。リビングルームカメラの個別のカメラユーザインタフェース1200は、例えば、図6Bに示し、かつ図6Bに関して説明した、正面ドアカメラ(例えば、ドアベルカメラ)の個別のカメラユーザインタフェース608と類似している。個別のカメラユーザインタフェース1200は、設定アフォーダンス1202を含む。図22Bに示すように、デバイス600は、設定アフォーダンス1202の選択に対応するユーザ入力2250bを検出する。
図22Bでユーザ入力2250bを受信したことに応じて、デバイス600は、図22Cに示すように、図20Cに示すユーザインタフェース2004と同じであり、かつ図12Eに示すユーザインタフェース1204と類似している、カメラ3の設定ユーザインタフェース2004を表示する。設定ユーザインタフェース2004は、ステータス及び通知アフォーダンス2012を含む、図20Cの設定ユーザインタフェース2004に示す(かつそれに関して説明した)ものに対応するグラフィカル表現及びアフォーダンスを含む。ステータス及び通知アフォーダンス2012は、指定された対象(例えば、人、動物、及び車両)からのカメラ3の視野内の動きを検出した結果として、(例えば、カメラ3によって)通知が送信される場合を構成するための設定へのアクセスを可能にする。
図22Cに示すように、デバイス600は、ステータス及び通知アフォーダンス2012の選択に対応するユーザ入力2250cを検出する。図22Dは、(図22Cに示すように)ユーザ入力2250cを検出したことに応じて、デバイス600がステータス及び通知ユーザインタフェース2222を表示することを示す。ステータス及び通知ユーザインタフェース2222は、図18Bに示し、かつ図18Bに関して更に説明したようなステータス及び通知ユーザインタフェース1800に類似している。ステータス及び通知ユーザインタフェース2222は、状態アフォーダンス1802と、通知アフォーダンス1804と、時間アフォーダンス1806と、人物アフォーダンス1808と、活動検出アフォーダンス2240とを含む。図18B~図18Dに関して上述したように、状態アフォーダンス1802は、ビデオデータのソースの表現がデバイス600上のステータスユーザインタフェース(例えば、ホームユーザインタフェース604の「カメラ」部分)に含まれるか否かを構成するために使用される。通知アフォーダンス1804は、ビデオデータのソース(例えば、カメラ3)からの通知がデバイス600によって表示されるか否か(例えば、ビデオデータのソースが動きを検出した場合に通知が表示される)を構成するために使用される。通知アフォーダンス1804が無効化されると、デバイス600は、カメラ3が通知を送信するように構成されていないと判定しており、したがって、通知アフォーダンス1804が無効化されている場合には、デバイス600は、カメラ3から通知を受信せず、アフォーダンス1806、1808、及び2240は、表示されない。デバイス600が通知アフォーダンス1804を有効化する入力を受信すると、デバイス600は、対応するアフォーダンス1806、1808、及び2240によって構成されたように時間、人物、又は活動の検出によって通知をトリガすることを可能にする情報をカメラ3に送信する。時間アフォーダンス1806は、時間(例えば、ビデオデータのソースに関する通知がデバイス600によって表示されることになる、又は表示されないことになる時間の範囲)に関連付けられた通知設定を構成するために使用される。人物アフォーダンス1808は、人物に関連付けられた通知設定(例えば、人の動きが検出された場合にトリガされる通知)を構成するために使用される。活動検出アフォーダンス2240は、図20Eの活動検出アフォーダンス2040と類似しており、通知をトリガするための動き検出条件に対応する動き検出アフォーダンス2230a~2230cのメニューを含む。
動き検出アフォーダンス2230a~2230cは、カメラ3の視野内の「人物」、「動物」、及び「車両」から動きがそれぞれ検出されると通知をトリガするようにカメラ3を構成する、動き検出条件に対応する。動き検出条件に基づく通知設定は、図20C~図20Jに関して説明したような動き検出条件に基づく録画設定とは無関係に設定される。例えば、「人物」の検出された動きに基づいて録画をトリガするようにカメラ3を構成することにより、ユーザが通知を「人物」によってトリガされるように独立して有効にしていない限り、通知が「人物」によってトリガされることを有効にしない。同様に、「人物」の検出された動きに基づいて通知がトリガされるように設定することにより、ユーザが録画を「人物」によってトリガされるように独立して設定していない限り、「人物」の検出された動きによって録画をトリガさせない。したがって、動き検出条件は、通知及び録画設定に対して別個に構成される。動き検出条件に基づく通知設定もまた、カメラ3が動作している第1のコンテキスト及び第2のコンテキストとは無関係に設定される。例えば、通知は、カメラ3が動作モード「オフ」にあるか、「ストリーム」にあるか、又は「録画」にあるかとは無関係にトリガされてもよい。同様に、通知は、カメラ3が誰かが家にいる場合の第1のコンテキスト又は誰も家にいない場合の第2のコンテキストで動作しているかとは無関係にトリガされてもよい。
図22Dで、デバイス600は、「人物」の動き検出に対応する動き検出アフォーダンス2230aの選択に対応するユーザ入力2250dを検出する。デバイス600はまた、「車両」の動き検出に対応する動き検出アフォーダンス2230cの選択に対応するユーザ入力2250eを検出する。いくつかの実施形態では、動き検出条件は、対象のタイプ(例えば、人、動物、車両)の動き又は存在の検出に基づく。いくつかの実施形態では、人、動物、又は車両から検出された任意の動きは、動き検出に基づく通知をトリガすることになる。いくつかの実施形態では、動き検出条件は、リスト内で指定された特定の対象(例えば、特定の人物)の存在の検出に基づく。いくつかの実施形態では、アフォーダンス2230aは、特定の人物(例えば、ジョン・アップルシード)が部屋内で検出されると通知をトリガするようにカメラ3を構成する。同様に、アフォーダンス2230bは、特定の動物(例えば、猫又は犬)又は車両(例えば、ナンバープレートに基づく)がカメラの視野内に存在すると判定されると通知をトリガするようにカメラ3を構成する。いくつかの実施形態では、動き検出条件が有効化されていない場合、デバイス600は、カメラが任意の動き(必ずしも特定の人物、動物、又は車両からではない)を検出した場合に通知がトリガされるように、カメラを構成する。
図22Eで、デバイス600は、ユーザ入力2250d及び2250eによってそれぞれ有効化されている動き検出条件「人物」及び「車両」の隣にチェックマークインジケータを表示する。1つ以上の動き検出条件がカメラ3に対して有効化されると、1つ以上の動き検出条件のいずれかが満たされた(例えば、人、車両、又は動物からの動きが検出された)ときに録画がトリガされることになる。いくつかの実施形態では、図22Eに示すように、1つ以上の動き検出条件が有効化されると、活動検出アフォーダンス2240は、有効状態にトグルされる。いくつかの実施形態では、動き検出条件が有効化されていないと、活動検出アフォーダンス2240は、無効状態にトグルされる。いくつかの実施形態では、図22Dでユーザ入力2050eを検出することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、「人物」及び「車両」の有効化された動き検出条件に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、動き検出条件に行われた変更に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブ)に送信する。
図22Eは、動き検出がカメラ3に関する通知をトリガするために使用されないように、活動検出を無効化するユーザ入力2250fを検出するデバイス600を示す。図22Fで、デバイス600がユーザ入力2250fを検出したことに応じて、デバイス600は、(動き検出アフォーダンス2230a~2230cを表示することなく)活動検出アフォーダンス2240が無効状態で表示されるように、動き検出アフォーダンス2230a~2230cを表示することを停止する。いくつかの実施形態では、活動検出アフォーダンス2240が無効化されると、(例えば、特に人物又は動物ではなく、回転するボールなどのオブジェクトから)検出された任意のタイプの動きは、通知をトリガすることができる。いくつかの実施形態では、デバイス600がユーザ入力2250fを受信することに続いて(例えば、それに応じて)、デバイス600は、動き検出によって通知をトリガすることを無効化するように、検出されたユーザ入力2250fに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン202a又は戻るボタン2002b)上の更なるユーザ入力を検出した後に、無効化された動き検出設定に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図22Fで、デバイス600は、以前に無効化された活動検出アフォーダンス2240上の、活動検出を有効化するユーザ入力2250gを検出する。図22Gで、(図22Fに示すように)デバイス600がユーザ入力2250gを検出したことに応じて、デバイス600は、動き検出アフォーダンス2230a~2230aと同時に活動検出アフォーダンス2240を表示し、動き検出アフォーダンス2230a~2230aは、追加のユーザ入力なしに自動的に有効化される。チェックマークインジケータは、表示された動き検出アフォーダンスのそれぞれの隣に表示されて、対応する動き検出条件が有効化されていることを示す。デバイス600がユーザ入力2250gを検出したことに応じて、動き検出条件によってトリガされる通知は、有効化される。いくつかの実施形態では、デバイス600がユーザ入力2250gを受信することに続いて(例えば、それに応じて)、デバイス600は、以前に無効化されていた、有効化された動き検出条件に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3に)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、動き検出条件に行われた変更に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブ)に送信する。
いくつかの実施形態では、カメラ1によって検出された動きに基づくカメラ1、正面ドアカメラからの通知(例えば、810)を受信したことに応じて、デバイス600は、カメラ1によって提供された情報を示すメッセージ(例えば、正面ドアの移動が検出された)と共に、カメラ1からの代表画像を表す通知(例えば、図8Eの810)を表示する。デバイス600によって受信された通知は、図8Eに関して説明されており、任意選択的に、カメラ1に関連付けられた少なくとも1つの制御可能な外部デバイスにアクセスするための制御(例えば、図8Gに示すように、正面ドアの照明をオンにする814b又はインターホンからのサウンドを有効化する814c)を含む。いくつかの実施形態では、デバイス600は、カメラ3からのビデオの録画されたクリップを再生するアフォーダンスと共に受信した通知(例えば、810)を表示し、これは、図8Gに関して更に説明している。いくつかの実施形態では、通知は、図19A~図19Dで説明したように、デバイス1900によって受信される。
図22Gで、デバイス600は、入力を受信する前に有効化されている通知アフォーダンス1804の選択に対応するユーザ入力2250hを検出する。図22Hで、(図22Gに示すように)ユーザ入力2250hを検出したことに応じて、デバイス600は、カメラ3からの通知を無効化し、無効状態の通知アフォーダンス1804の表示を維持しながら、アフォーダンス1806、1808、及び2040を表示しない。いくつかの実施形態では、通知アフォーダンス1804が無効化されると、デバイス600は、カメラ3からの任意の通知を受信しない。いくつかの実施形態では、デバイス600がユーザ入力2250hを受信することに続いて(例えば、それに応じて)、デバイス600は、カメラ3からの通知を無効化するように、検出されたユーザ入力2250hに従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、無効化された通知設定に従ってカメラ3の構成プロファイルを更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブに)送信する。
図23A~図23Cは、いくつかの実施形態による、電子デバイスを使用して、外部カメラの通知設定を構成する方法を示すフロー図である。方法2300は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法2300のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法2300は、動き検出条件に基づいて通知設定を構成するための直感的な方法を提供する。この方法は、ユーザが、任意のタイプの動き(例えば、正面ドアでの葉からの動き)の代わりに、人物、動物、又は車両の動き検出に基づく通知のみを受信するようにデバイスを構成することを可能にすることによって、通知を管理するためのユーザの認識的負担を軽減する。バッテリ動作式のコンピューティングデバイスの場合には、関連する対象の動き検出に基づく通知のみを送信するように、ユーザがビデオデータのソースを構成することを可能にすることにより、より少ない通知が受信されるため、デバイスがより効率的に電力を節約し、かつバッテリ充電の間隔が増すことの両方を可能にする。
ブロック2302で、デバイス(例えば、600)は、ビデオデータのソース(例えば、新たに追加された外部カメラ)を識別するデータを受信する。ブロック2304で、ビデオデータのソースを識別するデータを受信した後に、ブロック2306で、デバイスは、通知設定アフォーダンス(例えば、ステータス及び通知アフォーダンス)のアクティブ化(例えば、2250c)を検出し、通知設定アフォーダンスは、ビデオデータのソースの動作状態とは無関係に(例えば、録画状態に関連付けられた動き検出条件を変更することなく)、ビデオデータのソースによる通知(例えば、電子デバイスへの通知)を有効化するためのものである。いくつかの実施形態では、ブロック2308で、ビデオデータのソースの動作状態(例えば、アフォーダンス2016及び2018に示される動作状態に対応する)は、通知設定アフォーダンスがアクティブ化されたときに録画状態ではない(例えば、カメラは、ストリームするように構成されている)(例えば、カメラが録画又はストリームするように構成されていなくても、通知が有効化されており、したがって、ユーザは、カメラを録画又はストリームするように構成する必要なく、動きが検出されたという通知を受信することができる)。いくつかの実施形態では、ブロック2310で、ビデオデータのソースの通知設定は、ビデオデータのソースのコンテキストに関連付けられていない(例えば、それに対応しない)。いくつかの実施形態では、通知設定は、コンテキストが誰かが家にいる場合か、又は誰かが不在の場合かとは無関係である。いくつかの実施形態では、デバイスは、コンテキストに関連付けられた動作状態にかかわらず、通知をトリガするようにビデオデータのソースを構成する。いくつかの実施形態では、デバイスは、動き検出条件に基づくが、カメラが録画しているか否かには基づかずに、通知をトリガするようにビデオデータのソースを構成する。
異なるコンテキストに対して通知設定を構成することにより、通知を管理するためのユーザの認識的負担が軽減される。例えば、ユーザは、誰も家にいない場合にのみ通知を受信することを望む場合がある。ユーザが通知を受信することを望むコンテキストをユーザが指定することを可能にすることにより、より効率的なユーザインタフェースをユーザに提供し、より少ない通知が表示されるため、ユーザの認識的負担が軽減される。バッテリ動作式のコンピューティングデバイスの場合には、関連する対象の動き検出に基づく通知のみを送信するように、ユーザがビデオデータのソースを構成することを可能にすることにより、より少ない通知が受信されるため、デバイスがより効率的に電力を節約し、かつバッテリ充電の間隔が増すことの両方を可能にする。
ブロック2314で、通知設定アフォーダンスのアクティブ化(例えば、2250c)を検出したことに応じて、デバイスは、複数の動き検出アフォーダンス(例えば、2230a~2230c)を表示し、これは、ブロック2316での、第1の動き検出条件(例えば、人物の検出)に対応する第1の動き検出アフォーダンス(例えば、2230a)と、ブロック2318での、第1の動き検出条件とは異なる第2の動き検出条件(例えば、動物又は車両の検出)に対応する第2の動き検出アフォーダンス(例えば、2230b)と、を含む。
ブロック2320で、デバイスは、(例えば、複数の動き検出アフォーダンスを表示している間に)、(例えば、アフォーダンス2230aに対応する)第1の動き検出条件の選択に対応する第1の入力(例えば、2250d)を検出する。ブロック2322で、第1の入力を検出すること(また、「完了」をタップすること)に続いて、デバイスは、ビデオデータのソースの構成プロファイルの動作状態(例えば、録画状態及び人物の検出)に関連付けられた動き検出条件を更新する情報を送信することなく、第1の動き検出条件に従ってビデオデータのソースの構成プロファイルの通知設定(例えば、デバイスは、動きが人物から検出された場合に通知を送信する)を更新する情報を送信する。
任意選択的に、ブロック2312で、デバイスは、ビデオデータのソースの構成プロファイルにおいて第1の動き検出条件が有効化されており、かつ第1の動き検出条件が満たされると、ビデオデータのソースからのイベントに関連付けられたアラートを受信する(例えば、カメラは、動きが人物から検出されると、電子デバイスに通知を送信する)。
任意選択的に、ブロック2324で、デバイスは、(例えば、アフォーダンス2250eに対応する)第2の動き検出条件の選択に対応する第2の入力(例えば、2250e)を検出する。任意選択的に、ブロック2326で、第2の入力を検出すること(かつ任意選択的に、また「完了」アフォーダンスのアクティブ化を検出すること)に続いて(例えば、第2の入力を検出したことに応じて)、デバイスは、選択された第2の動き検出条件(例えば、ペット又は車両の検出)に従ってビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信し、構成プロファイルは、第1の選択された動き検出条件(例えば、人物)又は選択された第2の動き検出条件(例えば、ペット)が満たされると、ビデオデータのソースにアラートを送信させる。したがって、構成プロファイルは、ビデオデータのソースに、第1の動き検出条件及び第2の動き検出条件の両方を監視させ、第1の動き検出条件又は第2の動き検出条件のいずれか(又はその両方)が満たされると、アラートを送信させる。
いくつかの実施形態では、デバイスは、(コンテキスト(例えば、在宅モード又は不在モード)に関連付けられた)動作状態の選択に対応する第3の入力(例えば、図20Dの2050d)を検出し、動作状態は、録画状態である。いくつかの実施形態では、第3の入力(例えば、録画状態の選択)を検出したことに応じて、デバイスは、第2の複数の動き検出アフォーダンス(例えば、図20Fの2030a~2030c)(例えば、人物、ペット、車両)を表示する。
いくつかの実施形態では、第2の複数の動き検出アフォーダンス(例えば、2030a~2030c)を表示している間に、デバイスは、(例えば、アフォーダンス2030aに対応する)第3の動き検出条件(例えば、ビデオデータのソースがビデオデータのソースの視野内の人の動きを検出すると満たされる条件)の選択に対応する第4の入力(例えば、図20Dの2030a)を検出する。いくつかの実施形態では、第4の入力(第1の動き検出条件の選択)を検出することに続いて、デバイスは、ビデオデータのソースの構成プロファイルの通知設定(例えば、通知の動き検出条件)を更新する情報を送信することなく、選択された動作状態及び選択された第1の動き検出条件(例えば、人からの動きが検出された場合に録画すること)に従ってビデオデータのソースの構成プロファイルの動作状態を更新する情報を送信する。
いくつかの実施形態では、通知設定アフォーダンスのアクティブ化(例えば、2250c)を検出したことに応じて、デバイスは、複数の動き検出アフォーダンスと同時に活動検出アフォーダンス(例えば、2240)を表示する。いくつかの実施形態では、(例えば、アフォーダンス2230cに対応する)有効化された動き検出条件は、動き検出条件の隣にチェックマークを有して表示されて、それが有効化されていることを示し、(例えば、アフォーダンス2230a~2230bに対応する)無効化された動き検出条件は、動き検出条件の隣にチェックマークなしに表示されて、それが無効化されていることを示す。
いくつかの実施形態では、(活動検出アフォーダンスを表示している間に)デバイスは、活動検出アフォーダンスの第1のアクティブ化(例えば、2250f)を検出する(例えば、活動検出アフォーダンス上のタップを検出する)。いくつかの実施形態では、活動検出アフォーダンスの第1のアクティブ化を検出したことに応じて(例えば、それによって、活動検出をオフ状態にトグルする、電子デバイスが複数の動き検出アフォーダンス(例えば、2230a~2230c)を表示することを停止することになる)、デバイスは、第1の動き検出アフォーダンス(例えば、2230a)及び第2の動き検出アフォーダンス(例えば、2230b又は2230c)(例えば、人、ペット、及び車両の動き検出条件)を表示することを停止する。任意選択的に、活動検出アフォーダンスの第1のアクティブ化を検出したことに応じて、電子デバイスは、動き検出条件を無効化するように、ビデオデータのソースの構成プロファイルを更新する情報を送信する。したがって、活動検出アフォーダンスの第1のアクティブ化により、選択された動き検出条件をクリアし、動き検出条件のいずれも選択されないように、動き検出アフォーダンスを表示することを停止する。したがって、ビデオデータの対応するソースは、有効化された動き検出条件に基づいて通知をトリガしないように命令する情報を受信する。また、活動検出アフォーダンスをトグルすることにより、任意選択的に、動き検出アフォーダンスがビューから隠されることになる。
いくつかの実施形態では、活動検出アフォーダンスの第1のアクティブ化(例えば、2250f)を検出することに続いて(例えば、それに応じて)、第1の動き検出条件及び第2の動き検出条件が無効化されるように、ビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信する。いくつかの実施形態では、デバイスは、ユーザが活動検出アフォーダンスを最初にアクティブ化する前に有効化されていることがある第1及び第2の動き検出条件に基づいて通知をトリガしないように、ビデオデータのソースを更新する情報を送信する。
いくつかの実施形態では、複数の動き検出アフォーダンス(例えば、2230a~2230c)を表示していない(例えば、複数の動き検出アフォーダンスのいずれも表示されていないが、活動検出アフォーダンスを表示し続けている)間に、デバイスは、(活動検出アフォーダンスの第1のアクティブ化を検出することに続いて)活動検出アフォーダンスの第2のアクティブ化(例えば、2250g)を検出する。活動検出アフォーダンスの第2のアクティブ化を検出することにより、複数の動き検出アフォーダンスを再び表示させる。
いくつかの実施形態では、活動検出アフォーダンスの第2のアクティブ化(例えば、2250g)を検出したことに応じて、デバイスは、第1の動き検出アフォーダンス(例えば、2230a)(例えば、第1の動き検出条件が(例えば、ユーザ入力なしに)選択されているという第1のインジケーション(例えば、第1のアフォーダンスの隣のチェックマーク)を有する)と、第2の動き検出アフォーダンス(例えば、2230b又は2230c)(例えば、第2の動き検出条件が(例えば、ユーザ入力なしに)選択されているという第2のインジケーション(例えば、第2のアフォーダンスの隣のチェックマーク)を有する)とを含む、複数の動き検出アフォーダンス(例えば、2230a~2230c)(例えば、人物、ペット、及び車両の動き検出条件)を表示する。いくつかの実施形態では、活動検出アフォーダンスがオンにトグルされている結果として、第1の動き検出条件は、デフォルトで有効化され、第2の動き検出条件は、デフォルトで有効化される。いくつかの実施形態では、チェックマークは、表示された複数の動き検出アフォーダンスのそれぞれの隣に表示される。
いくつかの実施形態では、活動検出アフォーダンスの第2のアクティブ化(例えば、2250g)を検出することに続いて(例えば、それに応じて)、第1の動き検出条件及び第2の動き検出条件が有効化されるように、ビデオデータのソースの構成プロファイルの通知設定を更新する情報を送信する(ユーザが活動検出アフォーダンスを最初にアクティブ化する前に有効化されていることがある第1及び第2の動き検出条件に基づいて通知をトリガするようにビデオデータのソースを更新する情報を送信する)。
活動検出アフォーダンスが有効化されると、動き検出条件を自動的に有効化することにより、通知をより効率的に設定するためのユーザの認識的負担を軽減する、より効率的なユーザインタフェースを提供する。活動検出アフォーダンスは、通知をトリガする任意の動きの代わりに、特定の対象から動きが検出されると、デバイスに通知を送信するように、ビデオデータのソースを構成する。通知をトリガするための条件として動き検出を有効化することにより、そうでなければ受信されることになる通知の量が低減され、これにより、より効率的なヒューマン-マシンインタフェース及びユーザエクスペリエンスを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、より少ない量の受信する通知により、デバイスがより効率的に電力を節約することが可能になり、バッテリ充電の間隔が増す。
方法2300に関して上述したプロセス(例えば、図23A~図23C)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法2300は、任意選択的に、方法700、900、1100、1300、1500、1700、2100、2500、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、構成プロファイルが設定される方法2300の制御可能な外部デバイスであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図24A~図24Jは、いくつかの実施形態による、第1のタイプの外部カメラによる活動検出に基づく第1のタイプの通知、及び第2のタイプの外部カメラによって検出された活動に基づく第2のタイプの通知の通知設定を構成するための例示的なユーザインタフェースを示す。図24A~図24Jのユーザインタフェースは、図25A~図25Dのプロセスを含む後述するプロセスを例示するために使用される。
図24Aは、図6A、図12A、図20A、及び図22Aに示すユーザインタフェース604と同じユーザインタフェース604を表示するデバイス600を示す。図20Aで、デバイス600は、ホーム設定アフォーダンス2002の選択に対応するユーザ入力2450aを検出する。図24Bで、(図24Aに示すように)ユーザ入力2050aを検出したことに応じて、デバイス600は、例えば、ユーザの家の、スマートアプライアンス(例えば、カメラ、ドア、ロック)の様々な設定を構成するためのアフォーダンス2406及び2408を含むユーザインタフェース2404を表示する。人物セクション2406は、家のスマートアプライアンスと対話することが許可された人物のリストを含む。デバイス600はまた、人物を人物セクション2406に追加するための招待ボタンを表示する。通知アフォーダンス2408は、通知を送信するようにデバイス600によって構成することができる、カメラ、ドア、及びロックにそれぞれ対応するアフォーダンス2402a~2402cのメニューを含む。
図24Bで、デバイス600がカメラアフォーダンス2402aの選択に対応するユーザ入力2450bを検出したことに応じて、デバイス600は、図24Cのカメラユーザインタフェース2410を表示する。カメラユーザインタフェース2410は、デバイス600に追加されたそれぞれのカメラを構成するためのアフォーダンス(例えば、リビングルームカメラアフォーダンス2426a及び正面ドア(ドアベル)カメラアフォーダンス2426b)のメニューを含む。選択されたカメラのタイプが第1のタイプ(例えば、非ドアベルカメラ)であるとの判定に従って、デバイス600は、図24Dに示すように、ステータス及び通知ユーザインタフェース2222を表示する。選択されたカメラのタイプが第2のタイプ(例えば、ドアベルカメラ)であるとの判定に従って、デバイス600は、図24Eに示すように表示されている、ステータス及び通知ユーザインタフェース2422を表示する。いくつかの実施形態では、デバイス600は、カメラがドアベル又はインターホンなどの入力機構を有するか否かに基づいて、カメラが第1のタイプのカメラ又は第2のタイプのカメラであるかを判定する。図24Cで、デバイス600がリビングルームカメラ(例えば、カメラ3、第1のタイプのカメラ)の選択に対応するユーザ入力2450cを検出すると、ステータス及び通知ユーザインタフェース2222は、図24Dに示すように表示される。図24Cで、デバイス600が正面ドア(ドアベル)カメラ(例えば、カメラ1、第2のタイプのカメラ)の選択に対応するユーザ入力2450dを検出すると、ステータス及び通知ユーザインタフェース2422は、図24Eに示すように表示される。
図24Dは、(図24Cに示すように)ユーザ入力2450cを検出したことに応じて、デバイス600が、図22Dのカメラ3のユーザインタフェース2222と同じであり、かつ上記の図22Dに関して詳細に説明した、カメラ3の通知設定に対応するステータス及び通知ユーザインタフェース2222を表示することを示す。ステータス及び通知ユーザインタフェース2222は、選択されたカメラが第1のタイプのカメラである(例えば、ドアベルカメラではない)場合に表示される。ステータス及び通知ユーザインタフェース2222は、デバイス600がカメラ3からの通知を受信するか否かをトグルするための通知アフォーダンス1804を含む。通知アフォーダンス1804が有効化されると、デバイス600は、通知がカメラ3によって送信される場合を構成するためのアフォーダンス1806、1808、及び2240を表示する。アフォーダンス1804、1806、及び1808は、図18C~図18D、図22D、及び図22Hに関して上述している。通知アフォーダンス1804が無効化されると、図22Hに示すようにアフォーダンス1806、1808、及び2240に対応する設定に基づいてカメラ3からの通知をトリガしないようにユーザが選択しているため、デバイス600は、アフォーダンス1806、1808、及び2240を表示しない。通知アフォーダンス1804が有効化されると、デバイス600は、図22Dのユーザインタフェース2240と同じであり、かつ上記の図22Dに関して更に詳細に説明した、アフォーダンス2230a~2230cに対する動き検出設定を構成するためのユーザ入力を検出する。いくつかの実施形態では、デバイス600がアフォーダンス2230a~2230cに対する動き検出設定を構成するためのユーザ入力を受信することに続いて(例えば、それに応じて)、デバイス600は、有効化された動き検出条件に従ってカメラ3の構成プロファイルの通知設定を更新する情報を送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、動き検出条件に行われた変更に従ってカメラ3の構成プロファイルの通知設定を更新する情報を(例えば、カメラ3又はカメラ3と通信しているハブ)に送信する。
図24Cで、デバイス600は、正面ドア(ドアベル)カメラアフォーダンス2450dの選択に対応するユーザ入力2450dを検出する。図24Eは、(図24Cに示すように)ユーザ入力2450dを検出したことに応じて、デバイス600が正面ドア(ドアベル)カメラ(カメラ1)に対応するステータス及び通知ユーザインタフェース2422を表示することを示す。
図24Eで、正面ドア(ドアベル)カメラの状態及び設定ユーザインタフェース2422は、リビングルームカメラのステータス及び通知ユーザインタフェース2222と類似している。ステータス及び通知ユーザインタフェース2422は、選択されたカメラが第2のタイプのカメラ(例えば、ドアベルカメラ)である場合に表示される。ステータス及び通知ユーザインタフェース2422は、通知アフォーダンス1804と、時間アフォーダンス1806と、人物アフォーダンス1808と、活動検出アフォーダンス2240とを含む。ステータス及び通知ユーザインタフェース2422はまた、選択されたカメラが第2のタイプのカメラである場合に表示され、かつ選択されたカメラが第1のタイプのカメラである場合には表示されない、追加のドアベル通知アフォーダンス2410及び活動通知アフォーダンス2412も含む。活動アフォーダンス2412は、カメラ1が、カメラ1によって検出された活動に基づいて、第1のタイプの通知を送信することを可能にする(例えば、動き検出によってトリガされた通知)。ドアベル通知アフォーダンス2410は、カメラ1が、ドアベル(又はインターホンなどのドアベルカメラに関連付けられた任意のアクセサリ)とのユーザ対話に基づいて第2のタイプの通知を送信することを可能にする。第1のタイプの通知及び第2のタイプの通知は、対応するアフォーダンス2412及び2410によって独立して設定される。活動検出アフォーダンス2240が有効化されると、アフォーダンス1806、1808、及び2240が表示される。活動検出アフォーダンス2412が無効化されると、アフォーダンス1806、1808、及び2240は隠される。アフォーダンス1804、1806、及び1808は、図18C~図18Dに関して上述している。
図24Eで、デバイス600は、カメラ1からの通知をオフにする通知アフォーダンス1804の選択に対応するユーザ入力2450eを検出する。図24Fに示すように、通知アフォーダンス1804が無効化されると、カメラ1は、通知を送信しないように構成される。したがって、通知アフォーダンス1804を無効化することにより、追加のユーザ入力なしに、ドアベル通知アフォーダンス2410及び活動通知アフォーダンス2412が自動的に無効化されることになる。加えて、活動通知アフォーダンス2412を無効化することにより、図22H及び図24Dに関して説明したように、デバイス600がアフォーダンス1806、1808、及び2240を表示することを停止し、またデバイス600がドアベル通知アフォーダンス2410及び活動通知アフォーダンス2412を表示することも停止することになる。いくつかの実施形態では、ユーザ入力2450eを検出したことに応じて、デバイス600は、ドアベル通知アフォーダンス2410及び活動通知アフォーダンス2412を表示するが、両方のアフォーダンスは、無効化され、通知アフォーダンス1804が有効化されない限り、有効化することができない。いくつかの実施形態では、ユーザ入力2450eを検出することに続いて(例えば、それに応じて)、デバイス600は、活動通知及びドアベル通知の両方を無効化することを含む、カメラ1の通知を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、ドアベルカメラの通知を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図24Fで、デバイス600は、以前に無効化されたカメラ1に関する通知を有効化することに対応する通知アフォーダンス1804の選択に対応するユーザ入力2450fを検出する。図24Gに示すように、通知アフォーダンス1804が有効化されると、デバイス600は、ドアベル通知アフォーダンス2410と、活動通知アフォーダンス2412と、時間アフォーダンス1805と、人物アフォーダンス1808と、動き検出アフォーダンス2230a~2230cを含む活動検出アフォーダンス2240とを表示する。いくつかの実施形態では、ユーザ入力2450fを検出することに続いて(例えば、それに応じて)、デバイス600は、カメラ1の通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、カメラ1の通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図24Gで、デバイス600は、図24Hに示すように、ドアベル通知(例えば、誰かがドアベル若しくはインターホンのボタン又はドアベルを押すと送信される第2のタイプの通知)を無効化するドアベル通知アフォーダンス2410の選択に対応するユーザ入力2450gを検出する。しかし、ドアベル通知を無効化することにより、ドアベル通知とは無関係に設定される活動通知(例えば、人物の検出された動きなどの活動によってトリガされる第1のタイプの通知)を無効化しない。活動通知は、有効なままである活動通知設定によって構成される。したがって、活動通知は、ドアベル通知がオフにされている場合でも、トリガすることができる。いくつかの実施形態では、続いて(例えば、ユーザ入力2450gを検出したことに応じて)、デバイス600は、活動通知設定を更新することなく、ドアベル通知を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、活動通知設定を更新することなく、カメラ1のドアベル通知を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図24Hに示すように、デバイス600は、ドアベル通知が無効なままの間に、「動物」の検出された動きに基づいて活動通知(例えば、第1のタイプの通知)をトリガするための動き検出アフォーダンス2230bの選択に対応するユーザ入力2450hを検出する。選択された動き検出条件「動物」は、チェックマークインジケータを有して表示されて、条件が有効化されていることを示す。いくつかの実施形態では、ユーザ入力2450hを検出することに続いて(例えば、それに応じて)、デバイス600は、ドアベル通知設定を更新することなく、選択された動き検出条件に基づいて通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、ドアベル通知設定を更新することなく、選択された動き検出条件に基づいてカメラ1の活動通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図24Hで、デバイス600は、ドアベル通知アフォーダンス2410を有効化することに対応するユーザ入力2450iを検出する。ユーザ入力2450iに応じてドアベル通知を有効化することにより、「動物」の動き検出に基づく通知を有効化するように、ユーザ入力2450hによって設定された活動通知設定(例えば、動き検出設定)に影響を与えない。図24Iに示すように、活動検出設定は、ドアベル通知が無効化されたときと同じままである(「動物」の動き検出は依然として有効化されている)。いくつかの実施形態では、ユーザ入力2450iを検出したことに応じて、デバイス600は、動き検出に基づく活動通知を更新することなく、カメラ1のドアベル通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、動き検出に基づく活動通知設定を更新することなく、ドアベル通知を有効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図24Iに示すように、ドアベル通知が有効化されている間に、デバイス600は、活動通知アフォーダンス2412を無効化することに対応するユーザ入力2450jを検出する。図24Jに示すように、(図24Iに示すように)ユーザ入力2450jを検出したことに応じて、活動通知アフォーダンス2412は、無効化され、全ての活動ベースの通知(例えば、時間、人物、及び動き検出に基づく第1のタイプの通知)が無効化されることになる。図24Jは、活動通知アフォーダンス2422を無効化したことに応じて、デバイス600が時間アフォーダンス1806、人物アフォーダンス1808、活動検出アフォーダンス2240、及び動き検出アフォーダンス2230a~2230cを表示しないことを示す。ドアベルカメラの通知設定ユーザインタフェース2422内の活動通知アフォーダンス2422を無効化することは、カメラ3が第1のタイプの通知を送信することを無効化するためのものである、他のタイプの非ドアベルカメラ(例えば、リビングルームカメラ)の通知設定ユーザインタフェース2222内の通知アフォーダンス1804を無効化することと同じ効果を有する。しかし、カメラ1に関する活動通知を無効化することは、ドアベル通知が独立して構成されるため、有効化されたままであるドアベル通知(第2のタイプの通知)を無効化しない。いくつかの実施形態では、ユーザ入力2450jを検出したことに応じて、デバイス600は、ドアベル通知を無効化することなく、活動通知を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。いくつかの実施形態では、デバイス600は、確認アフォーダンス(例えば、「X」ボタン2002a又は戻るボタン2002b)上の追加のユーザ入力を検出した後に、ドアベル通知を無効化することなく、活動を無効化するようにカメラ1の構成プロファイルを更新する情報を(例えば、カメラ1又はカメラ1と通信しているハブに)送信する。
図25A~図25Dは、いくつかの実施形態による、電子デバイスを使用して、外部カメラの通知設定を構成する方法を示すフロー図である。方法2500は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法2500のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
以下に説明するように、方法2500は、第1のタイプの外部カメラによる活動検出に基づく第1のタイプの通知、及び第2のタイプの外部カメラによって検出された活動に基づく第2のタイプの通知を構成するための直感的な方法を提供する。ユーザが特定のタイプの通知(例えば、ドアベル通知)を受信することを可能にする一方で、他のタイプの通知(例えば、活動通知)を除外することにより、より少ない通知が表示されるように、ユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが受信することを望む通知のタイプをユーザが構成することを可能にすることにより、ユーザがデバイス上の電力を効率的に節約することを可能にし、バッテリ充電の間隔が増す。
ブロック2502で、デバイス(例えば、600)は、ビデオデータのソースを識別するデータを受信する。任意選択的に、ブロック2504で、第1のタイプのビデオデータのソース(例えば、非ドアベルカメラ)は、カメラを含み、アラートを生成するための入力機構を含まない。任意選択的に、ブロック2506で、第2のタイプのビデオデータのソース(例えば、ドアベルカメラ)は、カメラと、アラートを生成するための入力機構(例えば、ドアベル)とを含む。いくつかの実施形態では、電子デバイスは、ビデオデータのそれぞれのソースがアラート(例えば、スピーカによるチャイム、別のデバイス上に通知を引き起こす別のデバイスに送信されるアラート)を生成するための入力機構(任意選択的に、ビデオデータのソースのデバイスに組み込まれている)(例えば、機械的ボタン、静電容量式ボタン)を含むか否かに基づいて、ビデオデータのソースが第1のタイプ又は第2のタイプ(例えば、第1のタイプではない)かを判定する。デバイスは、任意選択的に、(記載されるような)入力機構を含まないビデオデータのソースを第1のタイプであるとして分類し、(記載されるような)入力機構を含むビデオデータのソースを第2のタイプであるとして分類する。
ビデオデータのソースを識別するデータを受信したことに応じて、ブロック2508で、ビデオデータのソースがビデオデータの第1のタイプのソース(例えば、非ドアベルカメラ)であるとの判定に従って、デバイスは、ディスプレイデバイス上に、第2の通知設定アフォーダンス(例えば、2410)(例えば、ドアベル通知)を表示することなく、第1の通知設定アフォーダンス(例えば、1804)(例えば、カメラ活動通知)を表示し、第1の通知設定アフォーダンスは、ビデオデータのソースの第1のタイプの通知(例えば、ビデオデータのソースによる活動検出/動き検出に基づく通知)を有効化する(及び無効化する)。
ブロック2510で、ビデオデータのソースがビデオデータの第2のタイプのソース(例えば、ドアベルカメラ)であるとの判定に従って、デバイスは、ディスプレイデバイス上に、ブロック2512で、第1の通知設定アフォーダンス(例えば、1804)(活動通知)と、ブロック2514で、(ドアベル通知の通知を有効化する(又は無効化する)ための)第2の通知設定アフォーダンス(例えば、2410)とを同時に表示し、第2の通知設定アフォーダンスは、ビデオデータのソースの第2のタイプの通知(例えば、ドアベル又はインターホンによるユーザ入力を検出することに基づく通知)を有効化する(及び無効化する)。いくつかの実施形態では、第2の通知設定アフォーダンスは、ビデオデータのソース(例えば、ドアベルカメラ)のアクセサリ(例えば、ドアベル)に関連付けられている。
第2のタイプのカメラの通知を受信していない間に、第1のタイプのカメラの通知を受信するようにデバイスを構成するか否かをユーザが構成することを可能にすることにより、より効率的なヒューマン-マシンインタフェースを作り出す。ユーザは、特定のタイプのカメラによって送信された特定のタイプの通知(例えば、誰かが正面ドアにいる場合にのみ送信される通知)を受信することを望む場合がある。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが受信することを望む通知のタイプをユーザが構成することを可能にすることにより、ユーザがデバイス上の電力を効率的に節約することを可能にし、バッテリ充電の間隔が増す。
ブロック2516で(少なくとも第1の通知設定アフォーダンス(例えば、1804)、及び任意選択的に第2の通知設定アフォーダンス(例えば、2410)を表示している間に)、デバイスは、第1の入力(例えば、2450e)を検出する。ブロック2518で、第1の入力が第1の通知設定アフォーダンス(例えば、1804)のアクティブ化(例えば、オン/オフにトグルすること)に対応するとの判定に従って、デバイスは、第1のタイプの通知が有効化されるように、第1の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信する。
ブロック2520で、第1の入力(例えば、2450g)が第2の通知設定アフォーダンス(例えば、2410)のアクティブ化(例えば、オン/オフにトグルすること)に対応するとの判定に従って、デバイスは、第2のタイプの通知が有効化されるように、第2の通知設定アフォーダンスに従ってビデオデータのソースの構成プロファイルを設定する情報を送信する。
任意選択的に、ブロック2522で、デバイスは、ディスプレイデバイス上に、ブロック2524での、第1の動き検出条件(例えば、ビデオデータのソース(例えば、カメラ)がビデオデータのソースの視野内の人の動きを検出したときに満たされる動き検出条件)に対応する第1の動き検出アフォーダンス(例えば、2230a)と、ブロック2526での、第1の動き検出条件とは異なる第2の動き検出条件(例えば、動物又は車両の動きが検出されたときに満たされる動き検出条件)に対応する第2の動き検出アフォーダンス(例えば、2230b又は2230c)と、を含む、複数の動き検出アフォーダンス(例えば、2230a~2230c)を表示する。
ユーザが第2のタイプの通知の設定とは無関係に第1のタイプの通知を構成することを可能にすることにより、より効率的なヒューマン-マシンインタフェースを作り出し、複数のカメラソースからの通知を管理する柔軟性をユーザに提供する。バッテリ動作式のコンピューティングデバイスの場合には、ユーザが受信することを望む通知のタイプをユーザが構成することを可能にすることにより、ユーザがデバイス上の電力を効率的に節約することを可能にし、バッテリ充電の間隔が増す。
任意選択的に、ブロック2528で、デバイスは、第1の動き検出条件の選択に対応する第2の入力(例えば、2450h)を検出する。任意選択的に、ブロック2530で、第2の入力を検出すること(かつ任意選択的に、また「完了」をタップすること)に続いて(例えば、それに応じて)、デバイスは、第2のタイプの通知の通知設定を更新することなく、選択された動き検出条件に従ってビデオデータのソース(例えば、ドアベルカメラ)の構成プロファイルの通知設定を更新する情報を送信する。
任意選択的に、ブロック2532で、第2の通知設定アフォーダンス(2410)を表示している間に(ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って)、デバイスは、第2の通知設定アフォーダンスのアクティブ化(例えば、ドアベル通知をオフにするが、動き検出をオンのままにする)に対応する第3の入力(例えば、2450g)を検出する。任意選択的に、ブロック2534で、第3の入力を検出すること(かつ任意選択的に、また「完了」をタップすること)に続いて、デバイスは、第1のタイプの通知の通知設定を更新することなく、第2のタイプの通知が無効化される(例えば、ドアベルカメラは、人物の検出された動きに基づいて依然として通知を送信することができるが、誰かがドアベルを押したことの検出に基づいて通知を送信することができない)ように、第2の通知設定アフォーダンスに従ってビデオデータのソース(例えば、ドアベルカメラ)の構成プロファイルの通知設定を更新する情報を送信する。
いくつかの実施形態では、ビデオデータのソースがビデオデータの第2のタイプのソース(例えば、ドアベルカメラ)であるとの判定に従って、第2の通知設定アフォーダンス(例えば、2412)を表示している間に、デバイスは、(例えば、ドアベル通知を有効化する)第2の通知設定アフォーダンスのアクティブ化に対応する第4の入力(例えば、2450i)を検出する。いくつかの実施形態では、デバイスは、第1の通知設定アフォーダンス及び第2の通知設定アフォーダンスと同時に、(カメラに関する全ての活動通知をトグルするが、ドアベル通知をトグルしない)第3の通知設定アフォーダンス(例えば、2410)を表示する。
いくつかの実施形態では、第3の通知設定アフォーダンス(例えば、2410)を表示している間に、デバイスは、(例えば、ドアベルカメラからの通知をトリガした動き検出などの第1のタイプの通知の全てをオフにする)第3の通知設定アフォーダンスのアクティブ化に対応する第5の入力(例えば、2450j)を検出する。いくつかの実施形態では、第5の入力を検出したことに応じて、デバイスは、複数の動き検出アフォーダンス(例えば、2230a~2230c)の表示を停止する。いくつかの実施形態では、第5の入力を検出すること(かつ任意選択的に、また「完了」をタップすること)に続いて、デバイスは、第2のタイプの通知の通知設定を更新することなく(例えば、ドアベル設定は、アクティブ化されたままである)、第1のタイプの通知が無効化されるように、第3の通知設定アフォーダンスに従ってビデオデータのソース(例えば、ドアベルカメラ)の構成プロファイルの通知設定を更新する(カメラの通知をトリガするための全ての動き検出条件をオフにする)情報を送信する。
いくつかの実施形態では、ビデオデータのソースがビデオデータの第2のタイプのソースであるとの判定に従って、第1の通知設定アフォーダンス(例えば、1804)を表示している間に、デバイスは、(例えば、カメラに関する全ての通知を無効化する)第1の通知設定アフォーダンスのアクティブ化に対応する第6の入力(2450e)を検出する。いくつかの実施形態では、第6の入力を検出したことに応じて、デバイスは、複数の動き検出アフォーダンス(例えば、2230a~2230c)及び第2の通知設定アフォーダンス(例えば、2410)の表示を停止する。いくつかの実施形態では、第6の入力を検出する(かつ任意選択的に、また「完了」をタップする)ことに続いて、デバイスは、ビデオデータのソースの第1のタイプの通知及び第2のタイプの通知が無効化されるように(ドアベル通知を含むカメラの全ての通知をオフにする)、ビデオデータのソース(例えば、ドアベルカメラ)の構成プロファイルの通知設定を更新する情報を送信する。
方法2500に関して上述したプロセス(例えば、図25A~図25D)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法2500は、任意選択的に、方法700、900、1100、1300、1500、1700、2100、2300、及び2700に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法900に記載の制御可能な外部デバイスは、構成プロファイルが設定される方法2500の制御可能な外部デバイスであってもよい。簡潔にするために、これらの詳細は、以下で繰り返さない。
図26A~図26Iは、いくつかの実施形態による、いくつかの実施形態による、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示する例示的なビデオメディアユーザインタフェースを示す。図26A~図26Hのユーザインタフェースは、図27A~図27Bのプロセスを含む後述するプロセスを例示するために使用される。
図26Aは、図6A及び図12Aに示すユーザインタフェース604と同じユーザインタフェース604を表示するデバイス600を示す。図20Aで、デバイス600は、(図6Aに関して更に詳細に説明したように)表示された正面ドアカメラ(例えば、カメラ1 610a)を選択するためのユーザ入力2650a(例えば、タップ)を受信する(例えば、検出する)。図26Bに示すように、ユーザ入力2650aを受信したことに応じて、デバイス600は、カメラ1からのライブ(例えば、録画でない、リアルタイムの)ビデオフィードを含むビデオメディアユーザインタフェース608を表示する。いくつかの実施形態では、ビデオメディアユーザインタフェース608は、カメラ1に関連付けられた新しいシーン又は自動化を追加するための追加ボタンを含む。再生/一時停止アフォーダンス612を(例えば、ディスプレイ602上のタップ入力を用いて)選択して、ライブビデオフィードを一時停止することができる。ビデオメディアユーザインタフェース608はまた、スクラババー620を含む。図26Bに示すように、スクラババー620は、ディスプレイ602上に、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現を含む、対話型の細長い領域を含む。ビデオメディアユーザインタフェース608は、図6Bのビデオメディアユーザインタフェース608と同じであり、図6Bに関して更に説明されている。
スクラババー620内の現在表示インジケータ622は、現在表示されている画像に対応するスクラババー620の一部分を示す。現在表示インジケータの左のスクラババー620上の位置は、以前に録画されたクリップに対応し、現在表示インジケータ622の右のスクラババー620上の位置は、現在表示されている画像に関連付けられた時刻の後の時刻に対応する。
図26Bに示すように、スクラババー620は、カメラ1からのビデオの録画されたクリップであるクリップ表現2604cを含む。図26Bのスクラババー620は、図6Bのスクラババー620と同じ機能を有する。図26Bに示すように、ビデオの録画されたクリップ(例えば、2604c)は、ビデオのそれぞれの録画されたクリップからの代表画像(例えば、クリップからのキーフレームなどのクリップからのサムネイル表現又は実際の画像)を含む矩形表現によって表される。いくつかの実施形態では、画像は、ビデオの録画されたクリップの第1のフレーム又は中間のフレーム(例えば、代表的なフレーム)を表す。スクラババー620はまた、カメラ1からの録画ビデオが利用できない期間の中断インジケーション2626cを含む。図26Bに示すように、カメラ1からの録画ビデオが利用できない期間は、ビデオの録画されたクリップの表現間のスペース(例えば、均一な色を有する領域)及びドットによって示され、ビデオからの代表的なフレームを有さない。ビデオの録画されたクリップの表現の長さ、及びビデオの録画されたクリップの表現間の間隔は、図6Bに関して更に上述されている。デバイス600は、クリップ表現2604cによって示されるように、スクラババー内のライブセクションに隣接する以前の録画セクション内の以前の日(又は他の期間)からの録画されたクリップの表現を表示する。
図26Cで、デバイス600は、ビデオメディアユーザインタフェース608内のシェブロンによって表されるアフォーダンス2620を表示する。デバイス600は、アフォーダンス2620を拡張するためのユーザ入力2650bを検出する。アフォーダンス2120は、ユーザインタフェース610にナビゲートして戻って異なるカメラを選択することなく、カメラ間で切り替えるショートカットをユーザに提供する。拡張されたアフォーダンス2620は、デバイスにリンクされたカメラに対応するアフォーダンス2620a~2620dを列挙するメニューを含む。いくつかの実施形態では、デバイス600がアフォーダンス2620a~20620dのうちの1つのアクティブ化を検出すると、デバイス600は、正面ドアカメラの表示を裏庭カメラの表示に変更する。
図26Dは、(図26Cと比較して後の時刻にカメラによってキャプチャされた)正面ドアステップ上の荷物を示すライブビデオフィードを示す。図26Dに示すように、人が荷物を取り上げる。カメラ1の視野内の人の動きは、カメラ1での録画を(例えば、カメラ1による動き検出処理を介して)トリガする。録画は、動き検出条件設定(例えば、人の動きが検出されると録画する)がカメラ1の構成プロファイルで有効化されていることに従って、人の動きが検出されると、トリガされる。動きを検出したことに応じて、カメラ1からのライブビデオフィードが録画される(例えば、カメラ1によって、かつカメラ1又はデバイス600から遠隔のサーバに送信される)。いくつかの実施形態では、カメラ1からのビデオデータは、所定の時間量にわたって(例えば、動きが検出された時刻から10秒、又は動きが検出された時刻から動きが検出されるのを停止して10秒後まで)録画される。
図26Dで、カメラ1は、人からの検出された動きに基づいて(動き検出に基づいて録画する構成に基づいて)録画を開始し、新たに録画されたクリップを表すデータを、録画のトリガ条件を示す情報と共にデバイス600(又はサーバ)に送信する。デバイス600は、ビデオの新たに録画されたクリップを表すデータ及びトリガ条件が人の検出された動きであることを示す情報を受信する。ビデオの録画されたクリップを表すデータを受信したことに応じて、デバイス600は、クリップが録画された時刻を表す位置に、スクラババー620内に録画されたクリップのクリップ表現2604aを表示する。デバイス600は、対応するクリップ情報内に提供されたトリガ条件に基づいて、クリップ表現2604aと共に表示するために、対応するインジケータ2602aを判定する。任意選択的に、インジケータ2602aは、カメラによってキャプチャされたコンテンツを含まない(例えば、インジケータ2601aは、カメラ1によってキャプチャされたフレーム(又はその一部)ではない)。インジケータ2602aで使用される画像は、録画を生じさせたトリガ条件のタイプに対応する画像(例えば、トリガ条件が人の動き検出であることに対して人のアイコン、トリガ条件が犬の動き検出であることに対して動物のアイコン)である。デバイス600は、スクラババー620内にインジケータ2602aをクリップ表現2604aと同時に表示し、インジケータ2602aは、人の動き検出がトリガされた条件であったことを示す情報に基づいて、人のインジケーションを含む。いくつかの実施形態では、情報は、トリガ条件が動物又は車両の検出された動きに基づく動き検出条件であることを示す(したがって、動物又は車両対応するインジケーションがそれぞれ表示されることになる)。いくつかの実施形態では、情報は、トリガ条件が、カメラのアクセサリ(例えば、ドアベル、ロック、照明、又はインターホン)がユーザ入力を検出した(例えば、誰かがカメラのドアベルボタンを押した)ときに満たされた条件であることを示す。いくつかの実施形態では、デバイス600は、スクラババー602内のクリップ表現2604aの上部に重ね合わされたインジケータ2602aを表示する。いくつかの実施形態では、インジケータ2602aは、クリップ表現2604aのサイズよりも小さく、スクラババー602内に表示されたときに、クリップ表現2604aの一部分と重なり合う(かつ、クリップ表現2604aの別の部分とは重なり合わない)。いくつかの実施形態では、インジケータ2602aは、図26Eに示すように、クリップ表現2604aに隣接して表示される。
図26Fで、カメラ1は、正面ドアの外側の自動車の動きを検出する。カメラ1は、車両の検出された動きに基づいて(動き検出に基づいて録画する構成に基づいて)録画を開始し、新たに録画されたクリップを表すデータを、車両の検出された動きが録画をトリガしたという情報と共にデバイス600(又はサーバ)に送信する。デバイス600は、ビデオの新たに録画されたクリップを表すデータ及び車両の検出された動きがカメラ1からの録画をトリガしたことを示す情報を受信する。図26Fに示すように、ビデオの録画されたクリップを表すデータを受信したことに応じて、デバイス600は、クリップが録画された時刻を表す位置に、スクラババー620内にインジケータ2602bと共に録画されたクリップのクリップ表現2604bを表示する。デバイス600は、録画のトリガ条件が車両の検出された動きであると判定し、トリガ条件を反映するために車両の画像を有するインジケータ2602bを表示する。この実施例では、インジケータ2602bは、カメラによってキャプチャされたコンテンツを含まない(例えば、インジケータ2601aは、カメラ1によってキャプチャされたフレーム(又はその一部)ではない)。いくつかの実施形態では、録画のトリガ条件に関する情報は、利用可能ではない、又はトリガ条件を示さない。トリガ条件が提供されない場合、デバイス600は、インジケータなしにクリップ表現2604cを表示する。いくつかの実施形態では、デバイス600は、トリガ条件が既知でないことを示すインジケータと共にクリップ表現2604cを表示する。
図26Gで、図26Eに示すように人から動きが検出されたときにクリップを録画した後に、カメラ1は、(図26Fのシナリオの代替として)正面ドアの外側の犬を検出する。カメラ1は、動物の検出された動きに基づいて(動き検出に基づいて録画する構成に基づいて)録画を開始し、新たに録画されたクリップを表すデータを、動物の検出された動きが録画をトリガしたという情報と共にデバイス600(又はサーバ)に送信する。デバイス600は、ビデオの新たに録画されたクリップを表すデータ及び動物の検出された動きがカメラ1からの録画をトリガしたことを示す情報を受信する。図26Gに示すように、ビデオの録画されたクリップを表すデータを受信したことに応じて、デバイス600は、クリップが録画された時刻を表す位置に、スクラババー620内にインジケータ2602dと共に録画されたクリップのクリップ表現2604dを表示し、位置は、以前に受信したクリップ表現2604aの後に連続している。デバイス600は、録画のトリガ条件が動物の検出された動きであると判定し、トリガ条件を反映するために動物の画像を有するインジケータ2604bを表示する。代表的なクリップ2604a及び2604dの両方は、現在、対応するインジケータ2602a及び2602dと共にスクラババー内にそれぞれ表示されている。追加の代表的なクリップが追加されると、クリップ表現2604a及び2604dは、インジケータがそれぞれの代表的なクリップと一致したままであるように、対応するインジケータ2602a及び2602dと共にシフトされる。
図26Hで、デバイス600は、代表的なクリップ2604aの選択に対応するユーザ入力2650cを検出する。図26Iで、ユーザ入力2650cを検出したことに応じて、デバイス600は、ビデオメディアインタフェース602内にカメラ1からの対応する録画されたビデオデータを表示する。いくつかの実施形態では、ビデオの録画されたクリップの表示は、ユーザ入力2650cの位置に基づく(例えば、選択されたクリップは、ユーザ入力2650cによって接触されたクリップ表現2604aの一部分に対応するフレームから再生される)。スクラババー620に示される録画ビデオの特定のクリップを再生するためのスクラババー620とのユーザ対話は、図6G~図6Rに関して更に上述されている。
図26Iで、(図26Hに示すように)ユーザ入力2650cを検出したことに応じて、デバイス600は、選択されたクリップ表現2604aを拡張して、ビデオの選択された録画されたクリップの複数のフレーム2606a~2606cを表示する。いくつかの実施形態では、複数のフレーム2606a~2606cはそれぞれ、クリップ表現2604aに関連付けられたインジケータ2602aと共に、録画されたクリップからの代表画像を含む。したがって、各フレーム(例えば、2606a~2606c)は、人の動きが検出されたときにビデオの録画されたクリップが録画されたことを示すインジケータ2602aと共に表示される。いくつかの実施形態では、クリップ表現2604a内のフレームのうちの1つは、インジケータ2602aを含むが、他のフレームは、インジケータを含まない。更に、デバイス600が、表示フレーム2606a~2606c並びにクリップ表現2604a及び2604bをスクラババー620内でシフトさせる入力を検出すると、各表示されたフレーム又はクリップ表現に対応するインジケータは、対応するフレーム又はクリップ表現と一致してシフトされる。
図27A~図27Bは、クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を含むビデオメディアユーザインタフェースを表示する方法を示すフロー図である。方法2700は、ディスプレイを備えるデバイス(例えば、100、300、500、又は600)において実行される。方法2700のいくつかの動作は、任意選択的に組み合わされ、いくつかの動作の順序は、任意選択的に変更され、いくつかの動作は、任意選択的に省略される。
後述するように、方法2700は、電子デバイスを使用して、クリップ表現と、ビデオデータのソース(例えば、カメラ)からの録画をトリガした条件のタイプを示すインジケータと、を表示する、ビデオメディアユーザインタフェースを表示するための直感的な方法を提供する。この方法は、トリガ条件に基づいて特定の録画されたクリップにナビゲートすることができることによって、録画ビデオと対話するためのユーザの認識的負担を軽減し、それによって、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより効率的に関連する録画されたクリップにナビゲートすることを可能にすることにより、ユーザが、ユーザが興味を持っていないコンテンツを再生して過ごす時間をより少なくすることを可能にする。これは、デバイスが電力を節約して、バッテリ充電の間隔を増すのに役立つ。
ブロック2702で、デバイス(例えば、600)は、ディスプレイデバイス上に、ビデオデータのソース(例えば、外部カメラ)からのビデオフィード(例えば、ライブビデオフィード、又は予め録画されたビデオフィード)及びスクラババー(例えば、612)を同時に表示することを含む、ビデオメディアユーザインタフェース(例えば、608)を表示する。いくつかの実施形態では、スクラババーは、ディスプレイ上の、伸長方向に平行な方向に沿ってスクロールすることができるメディアコンテンツの表現を含む、対話型の細長い領域である。いくつかの実施形態では、メディアコンテンツ(例えば、ビデオ)は、特性(例えば、受信したユーザ入力の速度)に基づいて、任意かつ可変速度で再生することができる。
ブロック2704で、デバイスは、(例えば、ビデオデータのソースによって録画された)ビデオの第1の録画されたクリップの第1の表現(例えば、2604a)を含む第1のデータ(例えば、フレーム、キーフレーム)、及びビデオの第1の録画されたクリップの第1のトリガ情報(例えば、ビデオの第1の録画されたクリップの(例えば、(例えば、ビデオデータのソースにおいて)録画を引き起こした(開始させた)条件を示す)を受信する(例えば、ビデオデータのソースから)。
ブロック2706で、(第1のデータ及び第1のトリガ情報を受信したことに応じて)ビデオの第1の録画されたクリップの録画が第1のタイプの条件によってトリガされた(例えば、録画が人の動き検出によってトリガされた)ことを第1のトリガ情報が示すという判定に従って、デバイスは、ディスプレイデバイス上に、スクラババー(例えば、612)内に、(例えば、第2のインジケーションを表示することなく)第1のタイプの条件(例えば、録画条件は、人の動き検出である)に対応する第1のインジケーション(例えば、2602a)(例えば、インジケータは、人を示すアイコンである)と、ビデオの第1の録画されたクリップの第1の表現(例えば、2604a)とを同時に表示する。いくつかの実施形態では、デバイスは、第1の表現に隣接して(隣に)第1のインジケーション(又は第2のインジケーション)を表示する(例えば、インジケーションは、インジケーションがフレームと重なり合わないように、クリップの隣に表示される)。いくつかの実施形態では、デバイスは、第1のインジケーション(又は第2のインジケーション)を表示し、ビデオの第1の録画されたクリップの第1の表現は、第1の表現の一部分に重ね合わされた第1のインジケーション(又は第2のインジケーション)を表示することを含む(例えば、インジケーションは、インジケーションがフレームの少なくとも一部分と重なり合うように、クリップの上部に表示される、インジケーションは、インジケーションがフレームと完全に重なり合うように、クリップの上部に表示される)。いくつかの実施形態では、表示されたそれぞれの(例えば、第1の、第2の)インジケーションは、第1の録画されたクリップの表示された第1の(及び第2の)表現よりも小さい。したがって、インジケーションの表示は、ユーザに、クリップを録画させるものを知らせるが、インジケーションの表示は、クリップの表現の表示を妨げない(インジケーションはサイズがより小さいため)。
録画されたクリップの対応する表現と共にインジケータを表示することにより、各クリップ表現に関する追加のコンテキストを提供する。これにより、ユーザが録画のトリガ条件に関する情報を提供するインジケータに基づいて関連するクリップにより効率的にスキップすることを可能にする。クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示することにより、ユーザが録画ビデオを通してより良好にナビゲートするのを助け、それによって、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより効率的に関連する録画されたクリップにナビゲートすることを可能にすることにより、ユーザが、ユーザが興味を持っていないコンテンツを再生して過ごす時間をより少なくすることを可能にする。これは、デバイスが電力を節約して、バッテリ充電の間隔を増すのに役立つ。
ブロック2708で、(第1のデータ及び第1のトリガ情報を受信したことに応じて)第1のトリガ情報が、ビデオの第1の録画されたクリップの録画が第1のタイプの条件(例えば、録画が人の動き検出によってトリガされる)とは異なる第2のタイプの条件(例えば、録画が動物の動き検出によってトリガされる)によってトリガされたことを示すという判定に従って、デバイスは、ディスプレイデバイス上に、スクラババー(例えば、612)内に、(例えば、第1のインジケーションを表示することなく)第2のタイプの条件(例えば、録画条件は、動物の動き検出である)に対応する第2のインジケーション(例えば、2602d)(例えば、インジケータは、動物のアイコンである)であって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第1の録画されたクリップの第1の表現(例えば、2604a)とを同時に表示する。
録画をトリガする各タイプの条件に対して異なるインジケータを表示することにより、特定の録画されたクリップを見つけるのに有用である、録画されたクリップに関する追加のコンテキストをユーザに提供する。これにより、ユーザが録画のトリガ条件に関する情報を提供するインジケータに基づいて関連するクリップにより効率的にナビゲートすることを可能にし、それによって、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより効率的に関連する録画されたクリップにナビゲートすることを可能にすることにより、ユーザが、ユーザが興味を持っていないコンテンツを再生して過ごす時間をより少なくすることを可能にする。これは、デバイスが電力を節約して、バッテリ充電の間隔を増すのに役立つ。
任意選択的に、ブロック2710で、ビデオの第1のクリップの録画が条件によってトリガされたことを第1のトリガ情報が示していないとの判定に従って、スクラババー内に、条件に対応するインジケーションを同時に表示することなく(例えば、ビデオの録画されたクリップが条件によってトリガされたというインジケーションを表示することなく、かつ第1のインジケーション又は第2のインジケーションを表示することなく)、ビデオの第1の録画されたクリップの第1の表現(例えば、2604c)を表示する。
任意選択的に、ブロック2712で、ディスプレイデバイス上に、ビデオメディアユーザインタフェース(例えば、608)を表示している間に、デバイスは、ビデオの第1の録画されたクリップ(又はビデオの第3の録画されたクリップ)の一部分(例えば、特定の時間)の選択に対応する第1の入力(例えば、2650c)(例えば、ディスプレイ上の右スワイプ、又はスクラババー内のクリップ上のタップ)を検出する。
任意選択的に、ブロック2714で、第1のユーザ入力を検出したことに応じて、デバイスは、ビデオの第1の録画されたクリップの選択された部分(又は、ビデオの対応する第3のクリップ)に対応するように、ビデオフィードの表示を更新する。
任意選択的に、ブロック2716で、デバイスは、ビデオの第1の録画されたクリップの第1の表現(例えば、2604a)の表示と、それぞれの(例えば、第1の、第2の)インジケーション(例えば、2602a)とを、スクラババー(例えば、612)内の新しい位置に同時にシフトさせる。いくつかの実施形態では、ポインタ要素が、クリップの表現に移動される。いくつかの実施形態では、クリップの表現は、スクラババー内の異なる位置(例えば、中心)に移動される。いくつかの実施形態では、スクラババー内のビデオコンテンツ全体の表現は、スクラババー内の固定位置(例えば、中心)に表されるコンテンツが主要領域内に表示されるようスクロールされ、第1の録画されたクリップの第1の表現及びそれぞれのインジケータは、一致してシフトされる(例えば、第1の表現及びインジケーションは、それらの相対位置を互いに保持するように一緒に移動される)。
クリップがフレーム内に拡張される又はスクラババー内でシフトされる場合であっても、各録画されたクリップに対して対応するインジケータを表示することにより、ユーザがビデオメディアユーザインタフェース内の複数の録画されたクリップ(及び録画されたクリップ内のフレーム)を区別することを可能にする。これにより、ユーザが録画のトリガ条件に関する情報を提供するインジケータに基づいて関連するクリップにより効率的にナビゲートすることを可能にする。クリップ表現と、録画をトリガした条件のタイプを示すインジケータと、を表示することにより、ユーザが録画ビデオを通してより良好にナビゲートするのを助け、それによって、ユーザの認識的負担を軽減し、より効率的なヒューマン-マシンインタフェースを作り出す。バッテリ動作式のコンピューティングデバイスの場合には、ユーザがより効率的に関連する録画されたクリップにナビゲートすることを可能にすることにより、ユーザが、ユーザが興味を持っていないコンテンツを再生して過ごす時間をより少なくすることを可能にする。これは、デバイスが電力を節約して、バッテリ充電の間隔を増すのに役立つ。
いくつかの実施形態では、ディスプレイデバイス上に、スクラババー(例えば、612)内にビデオの第1の録画されたクリップの第1の表現(例えば、2604a)と、第1のインジケーション(例えば、2602a)とを表示している間に、デバイスは、(例えば、ビデオデータのソースによって録画された)ビデオの第2の録画されたクリップの第2の表現(例えば、2604b)を含む(例えば、ビデオデータのソースからの)第2のデータと、ビデオの第2の録画されたクリップの第2のトリガ情報(ビデオの第2の録画されたクリップの(例えば、ビデオデータのソースでの)録画を引き起こした(開始させた)条件を示す)とを(例えば、ビデオデータのソースから)受信する。
いくつかの実施形態では、(第2のデータ及び第2のトリガ情報を受信したことに応じて)第2のトリガ情報が、ビデオの第2の録画されたクリップの録画が第2のタイプの条件によってトリガされた(例えば、録画が動物の動き検出によってトリガされた)ことを示すという判定に従って、デバイスは、ディスプレイデバイス上に、スクラババー内に、(例えば、第1のインジケーションを表示することなく)第2のタイプの条件(例えば、録画条件は、車両の動き検出である)に対応する第2のインジケーション(例えば、2602b)(例えば、インジケータは、車両を示すアイコンである)であって、第1のインジケーションとは異なる、第2のインジケーションと、ビデオの第2の録画されたクリップの第2の表現とを同時に表示する。
方法2700に関して上述したプロセス(例えば、図27A~図27B)の詳細はまた、上述/後述する方法にも、類似の方式で適用可能であることに留意されたい。例えば、方法2700は、任意選択的に、方法700、900、1100、1300、1500、1700、2100、2300、及び2500に関して前述した様々な方法の特性のうちの1つ以上を含む。例えば、方法2100に記載されている動き検出、録画構成は、方法2700に記載されているビデオメディアユーザインタフェース内の各クリップ表現と共に表示されるインジケータのタイプを判定するために使用される。簡潔にするために、これらの詳細は、以下で繰り返さない。
上記は、説明を目的として、特定の実施形態を参照して記述されている。しかしながら、上記の例示的な論考は、網羅的であること、又は開示される厳密な形態に本発明を限定することを意図するものではない。上記の教示を考慮して、多くの修正及び変形が可能である。これらの実施形態は、本技術の原理、及びその実際の適用を最もよく説明するために、選択及び記載されている。それにより、他の当業者は、意図された具体的な用途に適するような様々な修正を用いて、本技術及び様々な実施形態を最も良好に利用することが可能となる。
添付図面を参照して、本開示及び例を十分に説明してきたが、様々な変更及び修正が、当業者には明らかとなるであろうことに留意されたい。そのような変更及び修正は、特許請求の範囲によって定義されるような、本開示及び例の範囲内に含まれるものとして理解されたい。
上述したように、本技術の一態様は、様々なソースから利用可能なデータを収集及び使用して、ビデオフィード及び録画のキャプチャ並びに閲覧を向上させることである。本開示は、いくつかの例において、この収集されたデータは、特定の人を一意に特定する個人情報データ、又は特定の人に連絡する若しくはその所在を突き止めるために使用できる個人情報データを含み得ることを想到している。そのような個人情報データとしては、人口統計データ、場所に基づくデータ、電話番号、電子メールアドレス、自宅の住所、又は任意の他の識別情報を挙げることができる。
本開示は、本技術におけるそのような個人情報データの使用がユーザの利益になる使用であり得る点を認識するものである。例えば、個人情報データを使用して、デバイス及び特性の改善された監視を提供することができ、一般にセキュリティ(例えば、ホームセキュリティ)を改善することができる。したがって、そのような個人情報データの使用は、配信されるコンテンツの意図的な制御を可能にする。更には、ユーザに利益をもたらす、個人情報データに関する他の使用もまた、本開示によって想到される。
本開示は、そのような個人情報データの収集、分析、開示、転送、記憶、又は他の使用目的の責任を負うエンティティが、適切に規定されたプライバシーのポリシー及び/又はプライバシーの慣行に準拠すると更に想到する。具体的には、そのようなエンティティは、個人情報データを秘密として厳重に保守するための、業界又は政府の要件を満たしているか又は上回るものとして一般に認識されている、プライバシーのポリシー及び慣行を実施し、一貫して使用するべきである。例えば、ユーザからの個人情報は、そのエンティティの合法的かつ正当な使用のために収集されるべきであり、それらの合法的使用を除いて、共有又は販売されるべきではない。更には、そのような収集は、ユーザに告知して同意を得た後にのみ実施するべきである。加えて、付加されたプライバシーについて、特定の個人、動物、又は自動車を検出する能力を有する上述の技術は、ユーザがその機能を可能にするようにオプトインすることを必要とする「オプトイン」システムを組み込むであろう。加えて、そのようなエンティティは、そのような個人情報データへのアクセスを保護して安全化し、その個人情報データへのアクセス権を有する他者が、それらのプライバシーのポリシー及び手順を遵守することを保証するための、あらゆる必要な措置を講じるであろう。更には、そのようなエンティティは、広く受け入れられているプライバシーのポリシー及び慣行に対する自身の遵守を証明するために、第三者による評価を自らが受けることができる。
前述のことがらにもかかわらず、本開示はまた、個人情報データの使用又は個人情報データへのアクセスを、ユーザが選択的に阻止する実施形態も想到する。すなわち、本開示は、そのような個人情報データへのアクセスを防止又は阻止するように、ハードウェア要素及び/又はソフトウェア要素を提供することができると想到する。例えば、ビデオフィード監視及び記憶の場合において、本技術は、ユーザが、サービスの登録中に、個人情報データの収集への参加の「オプトイン」又は「オプトアウト」を選択することを可能とするように構成することができる。「オプトイン」及び「オプトアウト」の選択肢を提供することに加えて、本開示は、個人情報のアクセス又は使用に関する通知を提供することを想到する。例えば、ユーザの個人情報データにアクセスすることとなるアプリのダウンロード時にユーザに通知され、その後、個人情報データがアプリによってアクセスされる直前に再びユーザに注意してもよい。
更には、本開示の意図は、個人情報データを、非意図的若しくは無許可アクセス又は使用の危険性を最小限に抑える方法で、管理及び処理するべきであるという点である。データの収集を制限し、データがもはや必要とされなくなった時点で削除することによって、危険性を最小限に抑えることができる。更には、適用可能な場合、特定の健康関連アプリケーションにおいて、ユーザのプライバシーを保護するために、データの非特定化を使用することができる。非特定化は、適切な場合には、特定の識別子(例えば、生年月日など)を除去すること、記憶されたデータの量又は特異性を制御すること(例えば、場所データを住所レベルよりも都市レベルで収集すること)、データがどのように記憶されるかを制御すること(例えば、データをユーザ全体にわたって情報集約すること)及び/又は他の方法によって、容易にすることができる。
それゆえ、本開示は、1つ以上の様々な開示された実施形態を実施するための、個人情報データの使用を広範に網羅するものではあるが、本開示はまた、そのような個人情報データにアクセスすることを必要とせずに、それらの様々な実施形態を実施することもまた可能であることを想到している。すなわち、本技術の様々な実施形態は、そのような個人情報データの全て又は一部分が欠如することにより、実施不可能となるものではない。例えば、コンテンツ(例えば、ビデオコンテンツ)は、ユーザに関連付けられたデバイスによって要求されるコンテンツなどの非個人情報データ若しくは必要最小限の個人情報、コンテンツ配信サービスが入手可能な他の非個人情報、又は公的に入手可能な情報に基づいて嗜好を推測することによって、選択して、ユーザへ配信することができる。

Claims (15)

  1. ディスプレイデバイスと、
    1つ以上のプロセッサと、
    前記1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶するメモリと、
    を備える電子デバイスであって、前記1つ以上のプログラムは、
    前記ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、
    ビデオデータのソースからのビデオフィードと、
    スクラババーと、
    を同時に表示することを含む、
    ビデオメディアユーザインタフェースを表示することと、
    ビデオの第1の録画されたクリップの第1の表現を含む第1のデータであって、ビデオの前記第1の録画されたクリップの前記表現は、ビデオの前記第1の録画されたクリップからの画像のサムネイル表現を含む、第1のデータと、
    ビデオの前記第1の録画されたクリップの第1のトリガ情報と、
    を受信することと、
    ビデオの前記第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第1のタイプの条件に対応する第1のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第1のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    ビデオの前記第1の録画されたクリップの録画が前記第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第2のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    を行う命令を含む、
    電子デバイス。
  2. 前記1つ以上のプログラムは、
    ビデオの前記第1の録画されたクリップの録画が条件によってトリガされたことを第1のトリガ情報が示していないとの判定に従って、前記スクラババー内に、条件に対応するインジケーションを同時に表示することなく、ビデオの前記第1の録画されたクリップの前記第1の表現を表示すること、
    を行う命令を更に含む、
    請求項1に記載のデバイス。
  3. 前記1つ以上のプログラムは、
    前記ディスプレイデバイス上に、前記スクラババー内にビデオの前記第1の録画されたクリップの前記第1の表現及び前記第1のインジケーションを表示している間に、
    ビデオの第2の録画されたクリップの第2の表現を含む第2のデータであって、ビデオの前記第2の録画されたクリップの前記第2の表現は、ビデオの前記第2の録画されたクリップからの画像のサムネイル表現を含む、第2のデータと、
    ビデオの前記第2の録画されたクリップの第2のトリガ情報と、
    を受信することと、
    ビデオの前記第2の録画されたクリップの録画が前記第2のタイプの条件によってトリガされたことを前記第2のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第2の録画されたクリップの前記第2の表現と、
    を同時に表示すること、
    を行う命令を更に含む、
    請求項1に記載のデバイス。
  4. 前記1つ以上のプログラムは、
    前記ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示している間に、ビデオの前記第1の録画されたクリップの一部分の選択に対応する第1の入力を検出することと、
    前記第1の入力を検出したことに応じて、
    ビデオの前記第1の録画されたクリップの前記選択された部分に対応するように、前記ビデオフィードの前記表示を更新することと、
    ビデオの前記第1の録画されたクリップの前記第1の表現の表示と前記それぞれのインジケーションとを前記スクラババー内の新しい位置に同時にシフトさせることであって、前記第1の録画されたクリップの前記第1の表現及び前記それぞれのインジケーションが一致してシフトされる、前記第1の録画されたクリップの前記第1の表現及び前記それぞれのインジケーションをシフトさせることと、
    を行う命令を更に含む、
    請求項1に記載のデバイス。
  5. 前記表示されたそれぞれのインジケーションは、前記第1の録画されたクリップの前記表示された第1の表現よりもサイズが小さい、請求項1に記載のデバイス。
  6. ディスプレイデバイスを備える電子デバイスにおいて、
    前記ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示することであって、
    ビデオデータのソースからのビデオフィードと、
    スクラババーと、
    を同時に表示することを含む、
    ビデオメディアユーザインタフェースを表示することと、
    ビデオの第1の録画されたクリップの第1の表現を含む第1のデータであって、ビデオの前記第1の録画されたクリップの前記表現は、ビデオの前記第1の録画されたクリップからの画像のサムネイル表現を含む、第1のデータと、
    ビデオの前記第1の録画されたクリップの第1のトリガ情報と、
    を受信することと、
    ビデオの前記第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第1のタイプの条件に対応する第1のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第1のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    ビデオの前記第1の録画されたクリップの録画が前記第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第2のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    を含む、方法。
  7. ビデオの前記第1の録画されたクリップの録画が条件によってトリガされたことを第1のトリガ情報が示していないとの判定に従って、前記スクラババー内に、条件に対応するインジケーションを同時に表示することなく、ビデオの前記第1の録画されたクリップの前記第1の表現を表示すること、
    を更に含む、請求項6に記載の方法。
  8. 前記ディスプレイデバイス上に、前記スクラババー内にビデオの前記第1の録画されたクリップの前記第1の表現及び前記第1のインジケーションを表示している間に、
    ビデオの第2の録画されたクリップの第2の表現を含む第2のデータであって、ビデオの前記第2の録画されたクリップの前記第2の表現は、ビデオの前記第2の録画されたクリップからの画像のサムネイル表現を含む、第2のデータと、
    ビデオの前記第2の録画されたクリップの第2のトリガ情報と、
    を受信することと、
    ビデオの前記第2の録画されたクリップの録画が前記第2のタイプの条件によってトリガされたことを前記第2のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第2の録画されたクリップの前記第2の表現と、
    を同時に表示することと、
    を更に含む、請求項6に記載の方法。
  9. 記ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示している間に、ビデオの前記第1の録画されたクリップの一部分の選択に対応する第1の入力を検出することと、
    前記第1の入力の検出に応じて、
    ビデオの前記第1の録画されたクリップの前記選択された部分に対応するように、前記ビデオフィードの前記表示を更新することと、
    ビデオの前記第1の録画されたクリップの前記第1の表現の表示と前記それぞれのインジケーションとを前記スクラババー内の新しい位置に同時にシフトさせることであって、前記第1の録画されたクリップの前記第1の表現及び前記対応するインジケーションが一致してシフトされる、前記第1の録画されたクリップの前記第1の表現及び前記対応するインジケーションをシフトさせることと、
    更に含む、
    請求項6に記載の方法。
  10. 前記表示されたそれぞれのインジケーションは、前記第1の録画されたクリップの前記表示された第1の表現よりもサイズが小さい、請求項6に記載の方法。
  11. ディスプレイデバイスを備える電子デバイスの1つ以上のプロセッサによって実行されるように構成された1つ以上のプログラムを記憶する非一時的コンピュータ可読記憶媒体であって、前記1つ以上のプログラムは、
    前記ディスプレイデバイス上に、ビデオメディアユーザインタフェースであって、
    ビデオデータのソースからのビデオフィードと、
    スクラババーと、
    を同時に表示することを含む、
    ビデオメディアユーザインタフェースを表示することと、
    ビデオの第1の録画されたクリップの第1の表現を含む第1のデータであって、ビデオの前記第1の録画されたクリップの前記表現は、ビデオの前記第1の録画されたクリップからの画像のサムネイル表現を含む、第1のデータと、
    ビデオの前記第1の録画されたクリップの第1のトリガ情報と、
    を受信することと、
    ビデオの前記第1の録画されたクリップの録画が第1のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第1のタイプの条件に対応する第1のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第1のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    ビデオの前記第1の録画されたクリップの録画が前記第1のタイプの条件とは異なる第2のタイプの条件によってトリガされたことを前記第1のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現を含むビデオの前記第1の録画されたクリップの前記第1の表現であって、前記第2のインジケーションは、ビデオの前記第1の録画されたクリップからの前記画像の前記サムネイル表現の少なくとも一部分に重ね合わされている、前記第1の表現と、
    を同時に表示することと、
    を行う命令を含む、
    非一時的コンピュータ可読記憶媒体。
  12. ビデオの前記第1の録画されたクリップの録画が条件によってトリガされたことを第1のトリガ情報が示していないとの判定に従って、前記スクラババー内に、条件に対応するインジケーションを同時に表示することなく、ビデオの前記第1の録画されたクリップの前記第1の表現を表示すること、
    を行う命令を更に含む、
    請求項11に記載の非一時的コンピュータ可読記憶媒体。
  13. 前記ディスプレイデバイス上に、前記スクラババー内にビデオの前記第1の録画されたクリップの前記第1の表現及び前記第1のインジケーションを表示している間に、
    ビデオの第2の録画されたクリップの第2の表現を含む第2のデータであって、ビデオの前記第2の録画されたクリップの前記第2の表現は、ビデオの前記第2の録画されたクリップからの画像のサムネイル表現を含む、第2のデータと、
    ビデオの前記第2の録画されたクリップの第2のトリガ情報と、
    を受信することと、
    ビデオの前記第2の録画されたクリップの録画が前記第2のタイプの条件によってトリガされたことを前記第2のトリガ情報が示すとの判定に従って、前記ディスプレイデバイス上に、前記スクラババー内に、
    前記第2のタイプの条件に対応する第2のインジケーションであって、前記第1のインジケーションとは異なる、第2のインジケーションと、
    ビデオの前記第2の録画されたクリップの前記第2の表現と、
    を同時に表示することと、
    を行う命令を更に含む、
    請求項11に記載の非一時的コンピュータ可読記憶媒体。
  14. 前記ディスプレイデバイス上に、ビデオメディアユーザインタフェースを表示している間に、ビデオの前記第1の録画されたクリップの一部分の選択に対応する第1の入力を検出することと、
    前記第1の入力の検出に応じて、
    ビデオの前記第1の録画されたクリップの前記選択された部分に対応するように、前記ビデオフィードの前記表示を更新することと、
    ビデオの前記第1の録画されたクリップの前記第1の表現の表示と前記それぞれのインジケーションとを前記スクラババー内の新しい位置に同時にシフトさせることであって、前記第1の録画されたクリップの前記第1の表現及び前記それぞれのインジケーションが一致してシフトされる、前記第1の録画されたクリップの前記第1の表現及び前記それぞれのインジケーションをシフトさせることをする、
    命令を更に含む、
    請求項11に記載の非一時的コンピュータ可読記憶媒体。
  15. 前記表示された対応するインジケーションは、前記第1の録画されたクリップの前記表示された第1の表現よりもサイズが小さい、請求項11に記載の非一時的コンピュータ可読記憶媒体。
JP2020560927A 2018-05-07 2019-05-06 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース Active JP7098752B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022104306A JP7432660B2 (ja) 2018-05-07 2022-06-29 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862668090P 2018-05-07 2018-05-07
US62/668,090 2018-05-07
US201962843512P 2019-05-05 2019-05-05
US62/843,512 2019-05-05
PCT/US2019/030963 WO2019217341A1 (en) 2018-05-07 2019-05-06 User interfaces for viewing live video feeds and recorded video

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2021051415A Division JP7022235B2 (ja) 2018-05-07 2021-03-25 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2022104306A Division JP7432660B2 (ja) 2018-05-07 2022-06-29 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2021515344A JP2021515344A (ja) 2021-06-17
JP7098752B2 true JP7098752B2 (ja) 2022-07-11

Family

ID=66752173

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2020560927A Active JP7098752B2 (ja) 2018-05-07 2019-05-06 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2021051415A Active JP7022235B2 (ja) 2018-05-07 2021-03-25 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2022016138A Active JP7375061B2 (ja) 2018-05-07 2022-02-04 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2022104306A Active JP7432660B2 (ja) 2018-05-07 2022-06-29 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2021051415A Active JP7022235B2 (ja) 2018-05-07 2021-03-25 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2022016138A Active JP7375061B2 (ja) 2018-05-07 2022-02-04 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2022104306A Active JP7432660B2 (ja) 2018-05-07 2022-06-29 ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース

Country Status (7)

Country Link
US (4) US10820058B2 (ja)
EP (4) EP4113989A1 (ja)
JP (4) JP7098752B2 (ja)
KR (4) KR102625313B1 (ja)
CN (5) CN112088530A (ja)
AU (4) AU2019267527A1 (ja)
WO (1) WO2019217341A1 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850705B (zh) 2013-09-03 2021-06-29 苹果公司 用于可穿戴电子设备的表冠输入
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
WO2015200890A2 (en) 2014-06-27 2015-12-30 Apple Inc. Reduced size user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
DK179494B1 (en) 2016-06-12 2019-01-11 Apple Inc. USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES
US10976913B2 (en) * 2017-10-12 2021-04-13 Disney Enterprises, Inc. Enabling undo on scrubber/seekbar UI widgets
JP7098752B2 (ja) 2018-05-07 2022-07-11 アップル インコーポレイテッド ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
US10917180B2 (en) * 2018-07-24 2021-02-09 Comcast Cable Communications, Llc Controlling vibration output from a computing device
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
KR20210017515A (ko) * 2019-08-08 2021-02-17 현대자동차주식회사 차량의 모션 인식 장치 및 방법
US11380091B2 (en) 2019-10-25 2022-07-05 7-Eleven, Inc. System and method for populating a virtual shopping cart based on a verification of algorithmic determinations of items selected during a shopping session in a physical store
US11386647B2 (en) 2019-10-25 2022-07-12 7-Eleven, Inc. System and method for processing a refund request arising from a shopping session in a cashierless store
US10922555B1 (en) * 2019-10-25 2021-02-16 7-Eleven, Inc. Customer-based video feed
US11023728B1 (en) 2019-10-25 2021-06-01 7-Eleven, Inc. Machine learning algorithm trained to identify algorithmically populated shopping carts as candidates for verification
US11017229B2 (en) 2019-10-25 2021-05-25 7-Eleven, Inc. System and method for selectively verifying algorithmically populated shopping carts
US11157556B2 (en) 2019-12-20 2021-10-26 Sling Media Pvt Ltd Method and apparatus for thumbnail generation for a video device
CN111225266B (zh) * 2020-02-25 2022-03-15 上海哔哩哔哩科技有限公司 用户界面交互方法和系统
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11589010B2 (en) * 2020-06-03 2023-02-21 Apple Inc. Camera and visitor user interfaces
WO2021247872A1 (en) * 2020-06-03 2021-12-09 Apple Inc. Camera and visitor user interfaces
US11657614B2 (en) 2020-06-03 2023-05-23 Apple Inc. Camera and visitor user interfaces
US11258988B1 (en) * 2020-07-21 2022-02-22 Vivian J. Douglas Dudley Body-viewing camera system
US11594034B1 (en) 2020-08-21 2023-02-28 Vivint, Inc. Techniques for a smart monitoring system
US11244547B1 (en) 2020-08-21 2022-02-08 Vivint, Inc. Smart monitoring system
USD983811S1 (en) * 2020-08-23 2023-04-18 The Rocket Science Group Llc Display screen or portion thereof with graphical user interface
CN116195261A (zh) 2020-09-05 2023-05-30 苹果公司 用于管理媒体项目的音频的用户界面
USD995560S1 (en) * 2021-01-08 2023-08-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN113112725B (zh) * 2021-04-07 2022-11-01 浙江磐至科技有限公司 一种基于视频监控用的防入侵系统
WO2022245668A1 (en) * 2021-05-15 2022-11-24 Apple Inc. User interfaces for managing accessories
CN115480679A (zh) * 2021-05-28 2022-12-16 北京字节跳动网络技术有限公司 虚拟直播间的显示方法、装置、客户端、服务器和介质
US11809675B2 (en) 2022-03-18 2023-11-07 Carrier Corporation User interface navigation method for event-related video
JP2023170588A (ja) * 2022-05-19 2023-12-01 スマートニュース株式会社 プログラム、携帯端末の制御方法、携帯端末、及び情報処理装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123460A (ja) 2010-12-06 2012-06-28 Toshiba Corp 映像検索装置、及び映像検索方法
US20160005281A1 (en) 2014-07-07 2016-01-07 Google Inc. Method and System for Processing Motion Event Notifications
JP2016119600A (ja) 2014-12-22 2016-06-30 オリンパス株式会社 編集装置及び編集方法
US20160364123A1 (en) 2015-06-14 2016-12-15 Google Inc. Methods and Systems for Presenting Multiple Live Video Feeds in a User Interface
JP2018063826A (ja) 2016-10-12 2018-04-19 株式会社東芝 移動式アシスト装置及び移動式アシスト方法
US20180115788A1 (en) 2016-10-26 2018-04-26 Google Inc. Timeline-Video Relationship Processing for Alert Events

Family Cites Families (266)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
US5086385A (en) 1989-01-31 1992-02-04 Custom Command Systems Expandable home automation system
EP0626635B1 (en) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Improved graphical user interface with method for interfacing to remote devices
US6456306B1 (en) 1995-06-08 2002-09-24 Nortel Networks Limited Method and apparatus for displaying health status of network devices
US6140987A (en) 1996-09-18 2000-10-31 Intellinet, Inc. User interface for home automation system
US20030093790A1 (en) 2000-03-28 2003-05-15 Logan James D. Audio and video program recording, editing and playback systems using metadata
US5974235A (en) 1996-10-31 1999-10-26 Sensormatic Electronics Corporation Apparatus having flexible capabilities for analysis of video information
KR100595925B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
KR20010041425A (ko) 1998-12-29 2001-05-15 요트.게.아. 롤페즈 분포된 네트워크 장치를 갖는 홈 제어 시스템
US6901439B1 (en) 1999-01-22 2005-05-31 Leviton Manufacturing Co., Inc. Method of adding a device to a network
KR100293929B1 (ko) 1999-06-02 2001-06-15 윤종용 교환시스템에서의 캐쉬메모리 핸들링방법
US7293280B1 (en) * 1999-07-08 2007-11-06 Microsoft Corporation Skimming continuous multimedia content
AUPQ217399A0 (en) 1999-08-12 1999-09-02 Honeywell Limited Realtime digital video server
KR100346263B1 (ko) 1999-11-05 2002-07-26 엘지전자주식회사 멀티미디어 스트림의 브라우징, 편집, 인덱싱을 위한 다단계 위치/구간 지정 방법
US20010032777A1 (en) 1999-12-30 2001-10-25 Finch Marshall A. Air-gap slide switch
KR100351815B1 (ko) 2000-03-13 2002-09-11 엘지전자 주식회사 홈 네트워크 환경에서의 기기 제어 방법
JP4325071B2 (ja) 2000-04-07 2009-09-02 ソニー株式会社 デジタルビデオ再生方法及びデジタルビデオ再生装置
JP4434424B2 (ja) 2000-04-18 2010-03-17 株式会社ルネサステクノロジ ホームエレクトロニクスシステム、ホームサーバ装置およびコンピュータをホームサーバ装置として機能させるためのプログラムを記録したコンピュータ読取可能な記録媒体
US20030063130A1 (en) * 2000-09-08 2003-04-03 Mauro Barbieri Reproducing apparatus providing a colored slider bar
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6912429B1 (en) 2000-10-19 2005-06-28 Destiny Networks, Inc. Home automation system and method
WO2002037217A2 (en) 2000-11-02 2002-05-10 Sony Electronics, Inc. Content and application download based on a home network system configuration profile
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US7380216B2 (en) * 2000-11-30 2008-05-27 International Business Machines Corporation Zoom-capable scrollbar
US7401351B2 (en) 2000-12-14 2008-07-15 Fuji Xerox Co., Ltd. System and method for video navigation and client side indexing
US20020082730A1 (en) 2000-12-21 2002-06-27 Microsoft Corporation Universal media player
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7904814B2 (en) 2001-04-19 2011-03-08 Sharp Laboratories Of America, Inc. System for presenting audio-video content
JP4293583B2 (ja) 2001-07-13 2009-07-08 株式会社バンダイナムコゲームス 情報配信システムおよび情報記憶媒体
JP2003228780A (ja) 2001-11-28 2003-08-15 Matsushita Electric Ind Co Ltd ホームセキュリティシステム
US20030110511A1 (en) 2001-12-11 2003-06-12 Schutte Mark E. Controlling personal video recording functions from interactive television
US6792323B2 (en) 2002-06-27 2004-09-14 Openpeak Inc. Method, system, and computer program product for managing controlled residential or non-residential environments
US7933945B2 (en) 2002-06-27 2011-04-26 Openpeak Inc. Method, system, and computer program product for managing controlled residential or non-residential environments
JP3978599B2 (ja) 2002-09-19 2007-09-19 三和シヤッター工業株式会社 ホームネットワークシステム
US7043477B2 (en) 2002-10-16 2006-05-09 Microsoft Corporation Navigating media content via groups within a playlist
US8234395B2 (en) 2003-07-28 2012-07-31 Sonos, Inc. System and method for synchronizing operations among a plurality of independently clocked digital data processing devices
WO2005027068A1 (en) 2003-09-12 2005-03-24 Canon Kabushiki Kaisha Streaming non-continuous video data
US9754480B2 (en) 2003-11-04 2017-09-05 Universal Electronics Inc. System and method for controlling device location determination
US7363028B2 (en) 2003-11-04 2008-04-22 Universal Electronics, Inc. System and method for controlling device location determination
EP1690370B1 (en) 2003-12-01 2017-02-22 Samsung Electronics Co., Ltd. Home network system and method therefor
US20050163345A1 (en) 2003-12-03 2005-07-28 Safehouse International Limited Analysing image data
EP1555772A3 (en) 2004-01-15 2013-07-17 Yamaha Corporation Remote control method of external devices
US7697729B2 (en) 2004-01-29 2010-04-13 Authentec, Inc. System for and method of finger initiated actions
US7092768B1 (en) 2004-03-09 2006-08-15 Liquid Sky Studios, Inc. Distributed control system
JP2005333294A (ja) 2004-05-19 2005-12-02 Funai Electric Co Ltd 遠隔見守りシステムの撮像設定装置
US20060013554A1 (en) 2004-07-01 2006-01-19 Thomas Poslinski Commercial storage and retrieval
US7730223B1 (en) 2004-07-30 2010-06-01 Apple Inc. Wireless home and office appliance management and integration
US20100081375A1 (en) 2008-09-30 2010-04-01 Apple Inc. System and method for simplified control of electronic devices
US7562299B2 (en) 2004-08-13 2009-07-14 Pelco, Inc. Method and apparatus for searching recorded video
US8566879B2 (en) * 2004-09-28 2013-10-22 Sony Corporation Method and apparatus for navigating video content
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US20060171453A1 (en) 2005-01-04 2006-08-03 Rohlfing Thomas R Video surveillance system
US7843491B2 (en) * 2005-04-05 2010-11-30 3Vr Security, Inc. Monitoring and presenting video surveillance data
US7769819B2 (en) 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
JP2006350819A (ja) 2005-06-17 2006-12-28 Toshiba Corp 家電機器制御システム
AU2005202866A1 (en) * 2005-06-29 2007-01-18 Canon Kabushiki Kaisha Storing video data in a video file
WO2007009238A1 (en) 2005-07-19 2007-01-25 March Networks Corporation Temporal data previewing system
JP2007058663A (ja) 2005-08-25 2007-03-08 Aiphone Co Ltd インターホンシステム
US8892629B2 (en) 2005-09-01 2014-11-18 Samsung Electronics Co., Ltd. System and method for displaying a virtual meeting room
US7415310B2 (en) 2005-09-15 2008-08-19 Intermatic Incorporated System for home automation
KR100679049B1 (ko) 2005-09-21 2007-02-05 삼성전자주식회사 인물 및 장소정보를 제공하는 썸네일에 의한 사진탐색 방법및 그 장치
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
KR101263392B1 (ko) 2006-01-09 2013-05-21 삼성전자주식회사 홈네트워크 원격 제어기의 비밀키를 이용한 소유권 공유방법 및 장치
US8954852B2 (en) 2006-02-03 2015-02-10 Sonic Solutions, Llc. Adaptive intervals in navigating content and/or media
US8516087B2 (en) 2006-02-14 2013-08-20 At&T Intellectual Property I, L.P. Home automation system and method
US8001219B2 (en) 2006-03-16 2011-08-16 Exceptional Innovation, Llc User control interface for convergence and automation system
DE102006033134A1 (de) 2006-07-18 2008-01-24 Abb Patent Gmbh Anzeige- und Bediengerät der Gebäudesystemtechnik
US8255815B2 (en) 2006-08-04 2012-08-28 Apple Inc. Motion picture preview icons
US8645463B2 (en) 2006-09-25 2014-02-04 Cisco Technology, Inc. Methods and apparatuses for managing resources within a virtual room
JP4312804B2 (ja) 2007-03-01 2009-08-12 株式会社日立国際電気 記録内容表示プログラム及び記録内容表示装置
KR101407636B1 (ko) * 2007-11-05 2014-06-16 삼성전자주식회사 영상 표시 장치 및 그 제어 방법
US8943539B2 (en) 2007-11-21 2015-01-27 Rovi Guides, Inc. Enabling a friend to remotely modify user data
KR101503714B1 (ko) 2008-02-05 2015-03-20 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
US20090232028A1 (en) 2008-03-11 2009-09-17 Aaron Baalbergen Configuration systems and methods for utilizing location information to configure devices in application systems
JP2009295147A (ja) 2008-05-07 2009-12-17 Hoya Corp スクロール表示可能な情報処理装置
US20170185277A1 (en) * 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
KR101446521B1 (ko) * 2008-08-12 2014-11-03 삼성전자주식회사 터치 스크린의 정보 스크롤 제어 방법 및 장치
US8213463B2 (en) 2008-09-04 2012-07-03 Savant Systems, Llc Location-based sharing of multimedia control resources
US20100138007A1 (en) 2008-11-21 2010-06-03 Qwebl, Inc. Apparatus and method for integration and setup of home automation
FR2939554B1 (fr) 2008-12-10 2015-08-21 Somfy Sas Procede de fonctionnement d'un systeme domotique
WO2010071187A1 (ja) 2008-12-18 2010-06-24 日本電気株式会社 スライドバー表示制御装置及びスライドバー表示制御方法
US20100201815A1 (en) 2009-02-09 2010-08-12 Vitamin D, Inc. Systems and methods for video monitoring
US8243949B2 (en) 2009-04-14 2012-08-14 Plantronics, Inc. Network addressible loudspeaker and audio play
US9191721B2 (en) 2009-06-16 2015-11-17 Harman International Industries, Incorporated Networked audio/video system
CA2771379C (en) 2009-07-16 2019-05-21 Bluefin Labs, Inc. Estimating and displaying social interest in time-based media
US8935204B2 (en) * 2009-08-14 2015-01-13 Aframe Media Services Limited Metadata tagging of moving and still image content
US8594980B2 (en) 2009-09-18 2013-11-26 Verizon Patent And Licensing Inc. Method and apparatus of template model view generation for home monitoring and control
ITMI20091600A1 (it) * 2009-09-18 2011-03-19 March Networks Corp Tolleranza ai guasti in un sistema di video sorveglianza
JP2011124665A (ja) 2009-12-08 2011-06-23 Mitsubishi Electric Corp リモートコントロール装置及び設備機器システム
KR20110067492A (ko) 2009-12-14 2011-06-22 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
US8943415B2 (en) 2010-01-08 2015-01-27 Microsoft Corporation Third party control of location information access
KR20110093040A (ko) * 2010-02-11 2011-08-18 엘지전자 주식회사 피사체 감시 장치 및 방법
US20110252376A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
US8787618B2 (en) * 2010-04-13 2014-07-22 Sony Corporation Content information processing device, content information processing method, content information processing program, and personal digital assistant
US8638222B2 (en) 2010-04-19 2014-01-28 Microsoft Corporation Controllable device selection based on controller location
AU2011250886A1 (en) 2010-05-10 2013-01-10 Icontrol Networks, Inc Control system user interface
US8854318B2 (en) 2010-09-01 2014-10-07 Nokia Corporation Mode switching
US9445135B2 (en) 2010-09-17 2016-09-13 Futurewei Technologies, Inc. Method and apparatus for scrub preview services
JP5627092B2 (ja) 2010-09-29 2014-11-19 株式会社セキュリティハウス・センター セキュリティシステム
US8923997B2 (en) 2010-10-13 2014-12-30 Sonos, Inc Method and apparatus for adjusting a speaker system
KR101695398B1 (ko) 2010-12-01 2017-01-11 삼성에스디에스 주식회사 서브 단말에서의 홈 오토메이션 구성 기기 제어 장치 및 방법
US20130340097A1 (en) 2010-12-10 2013-12-19 David M. GOWEL Systems and methods for integrating personal social networks within an organization
WO2012085794A1 (en) 2010-12-22 2012-06-28 Koninklijke Philips Electronics N.V. Control of building automation systems
US20120169583A1 (en) 2011-01-05 2012-07-05 Primesense Ltd. Scene profiles for non-tactile user interfaces
KR101841574B1 (ko) 2011-01-06 2018-03-23 삼성전자 주식회사 동영상 장면 검색 방법 및 이를 지원하는 휴대 단말기
US8489065B2 (en) 2011-05-03 2013-07-16 Robert M Green Mobile device controller application for any security system
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US11165963B2 (en) 2011-06-05 2021-11-02 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US9639506B2 (en) 2011-07-07 2017-05-02 Honeywell International Inc. Interface for home energy manager
US9052810B2 (en) 2011-09-28 2015-06-09 Sonos, Inc. Methods and apparatus to manage zones of a multi-zone media playback system
CN103068095A (zh) 2011-10-21 2013-04-24 扬升照明股份有限公司 照明系统及照明系统的控制方法
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
US8839109B2 (en) * 2011-11-14 2014-09-16 Utc Fire And Security Americas Corporation, Inc. Digital video system with intelligent video selection timeline
EP2602677B1 (en) 2011-12-05 2018-02-21 Nxp B.V. Localization method, computer program product and localization device
GB2500566A (en) 2012-01-31 2013-10-02 Avolites Ltd Automated lighting control system allowing three dimensional control and user interface gesture recognition
KR101527038B1 (ko) 2012-02-24 2015-06-08 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
US9583148B2 (en) 2012-04-09 2017-02-28 Imageview Media Inc. Systems and methods for providing electronic cues for time-based media
KR20130115611A (ko) 2012-04-12 2013-10-22 엘지전자 주식회사 조명 장치 및 디바이스를 이용한 조명 제어 방법
US20140150029A1 (en) 2012-04-18 2014-05-29 Scorpcast, Llc System and methods for providing user generated video reviews
KR20130123053A (ko) * 2012-05-02 2013-11-12 삼성전자주식회사 멀티미디어 확장 탐색 방법과 그 멀티미디어 재생 장치
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9632685B2 (en) 2012-05-31 2017-04-25 Eric Qing Li Method of navigating through a media program displayed on a portable electronic device in a magnified time scale
US9071453B2 (en) 2012-06-11 2015-06-30 Apple Inc. Location-based device automation
US10437454B2 (en) 2012-07-09 2019-10-08 Facebook, Inc. Dynamically scaled navigation system for social network data
US8886785B2 (en) 2012-07-17 2014-11-11 The Procter & Gamble Company Home network of connected consumer devices
JP6310457B2 (ja) 2012-08-16 2018-04-11 フィリップス ライティング ホールディング ビー ヴィ 1又は複数の制御可能な装置を有するシステムの制御
JP2014045258A (ja) 2012-08-24 2014-03-13 Toshiba Corp 遠隔操作装置
US9397852B2 (en) 2012-08-31 2016-07-19 Verizon Patent And Licensing Inc. Connected home user interface systems and methods
US8954853B2 (en) * 2012-09-06 2015-02-10 Robotic Research, Llc Method and system for visualization enhancement for situational awareness
CN108845782B (zh) 2012-09-10 2021-11-30 三星电子株式会社 连接移动终端和外部显示器的方法和实现该方法的装置
US9432210B2 (en) 2012-09-12 2016-08-30 Zuli, Inc. System for monitor and control of equipment
RU2533445C2 (ru) 2012-10-02 2014-11-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Автоматическое распознавание и съемка объекта
CN102915630A (zh) 2012-10-10 2013-02-06 鸿富锦精密工业(深圳)有限公司 远程门铃控制系统及其智能门铃装置
CN103347116A (zh) 2012-11-09 2013-10-09 北京深思洛克软件技术股份有限公司 一种在智能手机中设置多安全模式的系统和方法
CN102932216A (zh) 2012-11-12 2013-02-13 北京圣岩迅科技发展有限公司 智能家居无线网元管理系统
US8745500B1 (en) * 2012-12-10 2014-06-03 VMIX Media, Inc. Video editing, enhancement and distribution platform for touch screen computing devices
KR102058918B1 (ko) 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
EP2939098B1 (en) 2012-12-29 2018-10-10 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
EP2759921B1 (en) 2013-01-25 2020-09-23 Morpho, Inc. Image display apparatus, image displaying method and program
MY168889A (en) 2013-02-20 2018-12-04 Panasonic Ip Corp America Control method for information apparatus and program
KR102047696B1 (ko) * 2013-02-20 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
JP5666753B1 (ja) 2013-02-20 2015-02-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 情報端末の制御方法及びプログラム
US20140245160A1 (en) 2013-02-22 2014-08-28 Ubiquiti Networks, Inc. Mobile application for monitoring and controlling devices
KR20140109020A (ko) 2013-03-05 2014-09-15 한국전자통신연구원 스마트 가전기기의 제어를 위한 디바이스 정보 구축 장치 및 그 방법
US9806712B2 (en) 2013-03-14 2017-10-31 Control4 Corporation Systems and methods for gesture-based lighting control
US9247380B1 (en) 2013-03-15 2016-01-26 Google Inc. Location based mobile device profiles
GB2512821A (en) 2013-03-19 2014-10-15 Simm Tronic Ltd Method and apparatus for control of building functions by means of mobile computing devices
US10694149B2 (en) 2013-03-26 2020-06-23 Verizon Patent And Licensing Inc. Web based security system
WO2014155429A1 (ja) 2013-03-29 2014-10-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 携帯情報端末の制御方法及びプログラム
CA2909892C (en) 2013-04-23 2023-01-10 Canary Connect, Inc. Security and/or monitoring devices and systems
US9021526B1 (en) * 2013-05-03 2015-04-28 Amazon Technologies, Inc. Video navigation preview
KR102161230B1 (ko) * 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
US10474240B2 (en) 2013-06-10 2019-11-12 Honeywell International Inc. Frameworks, devices and methods configured for enabling gesture-based interaction between a touch/gesture controlled display and other networked devices
EP3038427B1 (en) 2013-06-18 2019-12-11 Samsung Electronics Co., Ltd. User terminal apparatus and management method of home network thereof
US20140375819A1 (en) 2013-06-24 2014-12-25 Pivotal Vision, Llc Autonomous video management system
KR102152643B1 (ko) 2013-07-04 2020-09-08 엘지이노텍 주식회사 모바일디바이스를 이용한 조명 시스템
KR101444091B1 (ko) 2013-08-06 2014-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN104345950B (zh) 2013-08-08 2019-02-05 联想(北京)有限公司 一种信息处理的方法及电子设备
US9575621B2 (en) * 2013-08-26 2017-02-21 Venuenext, Inc. Game event display with scroll bar and play event icons
US10282068B2 (en) * 2013-08-26 2019-05-07 Venuenext, Inc. Game event display with a scrollable graphical game play feed
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10025463B2 (en) 2013-09-18 2018-07-17 Vivint, Inc. Systems and methods for home automation scene control
CN104469512B (zh) * 2013-09-25 2018-02-16 浙江大华技术股份有限公司 一种视频播放器及其控制视频播放的方法
JP6133186B2 (ja) 2013-09-26 2017-05-24 京セラ株式会社 機器制御装置、機器制御方法および制御システム
US9258524B2 (en) * 2013-09-30 2016-02-09 International Business Machines Corporation Streaming playback within a live video conference
US9979995B2 (en) 2013-09-30 2018-05-22 Google Llc Visual hot watch spots in content item playback
KR102092316B1 (ko) * 2013-10-14 2020-03-23 한화테크윈 주식회사 모니터링 방법
US9934322B2 (en) 2013-10-25 2018-04-03 Turner Broadcasting System, Inc. Concepts for providing an enhanced media presentation
US9727215B2 (en) 2013-11-11 2017-08-08 Htc Corporation Method for performing multimedia management utilizing tags, and associated apparatus and associated computer program product
US10454783B2 (en) 2014-02-05 2019-10-22 Apple Inc. Accessory management system using environment model
US20150142587A1 (en) 2013-11-20 2015-05-21 Honeywell International Inc. System and Method of Dynamic Correlation View for Cloud Based Incident Analysis and Pattern Detection
JP6259368B2 (ja) 2013-11-28 2018-01-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 携帯端末の制御方法
US10768784B2 (en) 2013-12-06 2020-09-08 Vivint, Inc. Systems and methods for rules-based automations and notifications
US10436977B2 (en) 2013-12-11 2019-10-08 Ademco Inc. Building automation system setup using a remote control device
US9781180B2 (en) * 2013-12-20 2017-10-03 Verizon Patent And Licensing Inc. Redistributing broadcasted content
JP5597762B1 (ja) 2013-12-27 2014-10-01 パナソニック株式会社 活動マップ分析装置、活動マップ分析システムおよび活動マップ分析方法
KR20150079106A (ko) 2013-12-31 2015-07-08 삼성전자주식회사 디스플레이 장치, 단말 장치 및 그 제어 방법
KR102277752B1 (ko) 2014-01-06 2021-07-16 삼성전자주식회사 웨어러블 기기를 이용한 홈 디바이스 제어 장치 및 제어 방법
US20150193127A1 (en) 2014-01-07 2015-07-09 Opentv Inc. Systems and methods of displaying integrated home automation modules
US9872368B2 (en) 2014-01-10 2018-01-16 Panasonic Intellectual Property Corporation Of America Control method for mobile device
US20150198938A1 (en) 2014-01-15 2015-07-16 Green Edge Technologies, Inc. Systems, devices, methods and graphical user interface for configuring a building automation system
JP6392522B2 (ja) 2014-02-14 2018-09-19 京セラ株式会社 操作端末、プログラム、及び方法
US9728230B2 (en) * 2014-02-20 2017-08-08 International Business Machines Corporation Techniques to bias video thumbnail selection using frequently viewed segments
US9893903B2 (en) 2014-02-24 2018-02-13 Microsoft Technology Licensing, Llc Creating connections and shared spaces
WO2015134755A2 (en) 2014-03-07 2015-09-11 Ubiquiti Networks, Inc. Devices and methods for networked living and work spaces
KR20150104985A (ko) 2014-03-07 2015-09-16 삼성전자주식회사 사용자 단말 및 오디오 시스템, 그리고 이의 스피커 제어 방법
US9574763B2 (en) 2014-03-12 2017-02-21 Kaipo Chen Multifunctional home monitoring system combined with lighting device
CN104917666B (zh) 2014-03-13 2019-08-06 腾讯科技(深圳)有限公司 一种制作个性化动态表情的方法和装置
US9661058B2 (en) 2014-08-10 2017-05-23 Belkin International Inc. Grouping of network devices
TWI523578B (zh) 2014-04-25 2016-02-21 Cincon Electronics Co Ltd A system and method for grouping a fixture on a DALI system using a handheld device
US10032364B2 (en) 2014-05-15 2018-07-24 Savant Systems, Llc Standalone wireless lighting application
US9876652B2 (en) 2014-05-20 2018-01-23 Savant Systems, Llc Automatic configuration of control device user interface in a home automation system
KR102454196B1 (ko) 2014-05-27 2022-10-14 삼성전자 주식회사 디스플레이 제어 방법 및 이를 제공하는 전자 장치
TW201547326A (zh) 2014-06-12 2015-12-16 Best Multimedia Technology Co Ltd U 智能家庭系統及燈光控制方法
FR3022646B1 (fr) 2014-06-20 2017-11-10 Somfy Sas Procede de fonctionnement d'un dispositif de commande d'une installation domotique d'un batiment et dispositif de commande.
CN104298188A (zh) 2014-06-22 2015-01-21 福建省科正智能科技有限公司 离家控制系统
JP6137102B2 (ja) * 2014-06-30 2017-05-31 キヤノンマーケティングジャパン株式会社 情報処理装置、及びその制御方法、プログラム
US10073607B2 (en) 2014-07-03 2018-09-11 Qualcomm Incorporated Single-channel or multi-channel audio control interface
US9224044B1 (en) 2014-07-07 2015-12-29 Google Inc. Method and system for video zone monitoring
US9420331B2 (en) * 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US10127783B2 (en) * 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US10645459B2 (en) 2014-08-04 2020-05-05 Live View Technologies Devices, systems, and methods for remote video retrieval
US9898175B2 (en) 2014-08-05 2018-02-20 Fibar Group S.A. Home network manager for home automation
WO2016033400A1 (en) 2014-08-29 2016-03-03 Harman International Industries, Inc. Wireless speaker system
US9680982B2 (en) 2014-09-03 2017-06-13 Fibar Group S.A. Emergency communication device
WO2016037155A1 (en) 2014-09-04 2016-03-10 PWV Inc Speaker discovery and assignment
US20160073482A1 (en) 2014-09-05 2016-03-10 Qualcomm Incorporated Implementing a target lighting scene in an internet of things environment using a mobile light output device
US10042336B2 (en) 2014-09-09 2018-08-07 Savant Systems, Llc User-defined scenes for home automation
US10310704B2 (en) 2014-09-18 2019-06-04 Ademco Inc. System and method to have location based personalized UI updates on mobile app for connected users in security, video and home automation applications
KR102258052B1 (ko) 2014-09-25 2021-05-28 삼성전자주식회사 전자 장치에서 다른 전자 장치와 컨텐츠를 공유하기 위한 장치 및 방법
WO2016052888A1 (en) 2014-09-29 2016-04-07 Lg Electronics Inc. Mobile terminal and method of controlling the same
WO2016052876A1 (en) 2014-09-30 2016-04-07 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof
JP6517022B2 (ja) 2014-09-30 2019-05-22 株式会社西電通 安否確認システム、インターホン、及び集合住宅
AU2015323977B2 (en) * 2014-09-30 2020-07-30 The Chamberlain Group, Inc. Garage monitor
CN104820631A (zh) 2014-10-29 2015-08-05 小米科技有限责任公司 对外部设备状态的呈现方法、装置及用户终端
US10055094B2 (en) 2014-10-29 2018-08-21 Xiaomi Inc. Method and apparatus for dynamically displaying device list
US10424341B2 (en) 2014-11-12 2019-09-24 Massachusetts Institute Of Technology Dynamic video summarization
JP5866540B1 (ja) 2014-11-21 2016-02-17 パナソニックIpマネジメント株式会社 監視システム及び監視システムにおける監視方法
JP5853180B1 (ja) * 2014-11-21 2016-02-09 パナソニックIpマネジメント株式会社 宅内監視システム
WO2016099048A1 (en) 2014-12-15 2016-06-23 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling group action
KR101522311B1 (ko) * 2015-01-12 2015-05-22 주식회사 지오멕스소프트 미리보기 기능을 갖춘 감시카메라 영상 반출 시스템
KR102315339B1 (ko) 2015-02-02 2021-10-20 삼성전자주식회사 디스플레이 장치의 이의 디스플레이 방법
US10271084B2 (en) * 2015-06-07 2019-04-23 Apple Inc. Video recording and replay
US20160366481A1 (en) 2015-06-12 2016-12-15 Samsung Electronics Co., Ltd. Method and apparatus for service oriented input and output
CN105069118B (zh) 2015-08-11 2018-04-03 北京思特奇信息技术股份有限公司 一种基于gis配置的应用场景管理方法及系统
JP2018523862A (ja) * 2015-08-18 2018-08-23 グーグル エルエルシー 時系列エクスプローラ
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
US20170070775A1 (en) 2015-09-03 2017-03-09 EchoStar Technologies, L.L.C. Methods and systems for coordinating home automation activity
US10299017B2 (en) * 2015-09-14 2019-05-21 Logitech Europe S.A. Video searching for filtered and tagged motion
US9313556B1 (en) 2015-09-14 2016-04-12 Logitech Europe S.A. User interface for video summaries
JP6685695B2 (ja) 2015-10-30 2020-04-22 キヤノン株式会社 端末及び撮像装置
CN105338368B (zh) 2015-11-02 2019-03-15 腾讯科技(北京)有限公司 一种视频的直播流转点播数据的方法、装置及系统
US10303422B1 (en) 2016-01-05 2019-05-28 Sonos, Inc. Multiple-device setup
US10284980B1 (en) 2016-01-05 2019-05-07 Sonos, Inc. Intelligent group identification
KR102383130B1 (ko) 2016-01-18 2022-04-08 삼성전자주식회사 기능을 제어하는 방법 및 이를 지원하는 전자 장치
JP2017173998A (ja) 2016-03-22 2017-09-28 大阪瓦斯株式会社 セキュリティシステム
US10861305B2 (en) * 2016-05-20 2020-12-08 Vivint, Inc. Drone enabled street watch
US10121515B2 (en) 2016-06-06 2018-11-06 Avigilon Corporation Method, system and computer program product for interactively identifying same individuals or objects present in video recordings
US10310725B2 (en) 2016-06-12 2019-06-04 Apple Inc. Generating scenes based on accessory state
US10511456B2 (en) 2016-06-12 2019-12-17 Apple Inc. Presenting accessory group controls
DK179494B1 (en) 2016-06-12 2019-01-11 Apple Inc. USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES
JP6934892B2 (ja) * 2016-06-12 2021-09-15 アップル インコーポレイテッドApple Inc. 制御可能な外部デバイスを管理するためのユーザインタフェース
US10327037B2 (en) 2016-07-05 2019-06-18 Pluto Inc. Methods and systems for generating and providing program guides and content
US20180018081A1 (en) * 2016-07-12 2018-01-18 Google Inc. Methods and Systems for Presenting Smart Home Information in a User Interface
US10263802B2 (en) 2016-07-12 2019-04-16 Google Llc Methods and devices for establishing connections with remote cameras
KR20180038241A (ko) 2016-10-06 2018-04-16 한화테크윈 주식회사 영상 제공 장치 및 방법
KR102546763B1 (ko) * 2016-10-17 2023-06-22 한화비전 주식회사 영상 제공 장치 및 방법
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
KR20180075983A (ko) * 2016-12-27 2018-07-05 한화에어로스페이스 주식회사 가변 이벤트 검출 조건을 가지는 촬상 장치
US10586433B2 (en) 2017-02-13 2020-03-10 Google Llc Automatic detection of zones of interest in a video
US20180232705A1 (en) 2017-02-15 2018-08-16 Microsoft Technology Licensing, Llc Meeting timeline management tool
US10070093B1 (en) 2017-02-24 2018-09-04 Microsoft Technology Licensing, Llc Concurrent viewing of live content and recorded content
CN110495125B (zh) 2017-03-24 2022-07-15 苹果公司 用于传输或接收下行链路控制信息的方法和装置
US11509944B2 (en) * 2017-05-18 2022-11-22 Nbcuniversal Media, Llc System and method for presenting contextual clips for distributed content
KR102313755B1 (ko) 2017-06-07 2021-10-18 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
CN107613235B (zh) * 2017-09-25 2019-12-27 北京达佳互联信息技术有限公司 视频录制方法和装置
US20190130185A1 (en) 2017-11-01 2019-05-02 International Business Machines Corporation Visualization of Tagging Relevance to Video
CN110024412B (zh) * 2017-11-10 2020-12-25 腾讯科技(深圳)有限公司 一种视频直播的方法、装置和系统
US10728624B2 (en) 2017-12-29 2020-07-28 Rovi Guides, Inc. Systems and methods for modifying fast-forward speeds based on the user's reaction time when detecting points of interest in content
US10298643B1 (en) 2018-01-17 2019-05-21 Hulu, LLC Live edge detection during video playback
JP7098752B2 (ja) 2018-05-07 2022-07-11 アップル インコーポレイテッド ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
CN110932673A (zh) 2018-09-19 2020-03-27 恩智浦美国有限公司 一种包含并联陷波滤波器的斩波稳定放大器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012123460A (ja) 2010-12-06 2012-06-28 Toshiba Corp 映像検索装置、及び映像検索方法
US20160005281A1 (en) 2014-07-07 2016-01-07 Google Inc. Method and System for Processing Motion Event Notifications
JP2016119600A (ja) 2014-12-22 2016-06-30 オリンパス株式会社 編集装置及び編集方法
US20160364123A1 (en) 2015-06-14 2016-12-15 Google Inc. Methods and Systems for Presenting Multiple Live Video Feeds in a User Interface
JP2018063826A (ja) 2016-10-12 2018-04-19 株式会社東芝 移動式アシスト装置及び移動式アシスト方法
US20180115788A1 (en) 2016-10-26 2018-04-26 Google Inc. Timeline-Video Relationship Processing for Alert Events

Also Published As

Publication number Publication date
AU2023251497A1 (en) 2023-11-09
AU2019100487B4 (en) 2020-01-16
AU2022204466A1 (en) 2022-07-14
KR102352721B1 (ko) 2022-01-19
CN113014931A (zh) 2021-06-22
CN117376505A (zh) 2024-01-09
KR20240008980A (ko) 2024-01-19
EP4113989A1 (en) 2023-01-04
EP3849177A1 (en) 2021-07-14
KR20200130476A (ko) 2020-11-18
US20240040198A1 (en) 2024-02-01
AU2022204466B2 (en) 2023-08-03
WO2019217341A4 (en) 2020-03-05
JP7432660B2 (ja) 2024-02-16
CN113014931B (zh) 2022-06-14
CN112468783A (zh) 2021-03-09
JP2021108156A (ja) 2021-07-29
JP7022235B2 (ja) 2022-02-17
US20190342621A1 (en) 2019-11-07
US20190342622A1 (en) 2019-11-07
KR20220012996A (ko) 2022-02-04
AU2019267527A1 (en) 2020-11-19
US10820058B2 (en) 2020-10-27
KR20210093372A (ko) 2021-07-27
JP7375061B2 (ja) 2023-11-07
JP2021515344A (ja) 2021-06-17
KR102625313B1 (ko) 2024-01-16
EP4332933A1 (en) 2024-03-06
EP3769510A1 (en) 2021-01-27
CN114845122A (zh) 2022-08-02
JP2022137117A (ja) 2022-09-21
KR102280759B1 (ko) 2021-07-23
CN112088530A (zh) 2020-12-15
CN112468783B (zh) 2022-03-29
AU2019100487A4 (en) 2019-06-13
JP2022062185A (ja) 2022-04-19
US10904628B2 (en) 2021-01-26
US20210092491A1 (en) 2021-03-25
WO2019217341A1 (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP7022235B2 (ja) ライブビデオフィード及び録画ビデオを閲覧するためのユーザインタフェース
JP2021516807A (ja) スクロール及び選択の高速化
AU2021100721A4 (en) User interfaces for viewing live video feeds and recorded video
JP2021513161A (ja) グラフィカルユーザインタフェースのためのメディアキャプチャロックアフォーダンス
JP7097515B2 (ja) オーディオを共有するための方法及びユーザインタフェース

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201030

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R150 Certificate of patent or registration of utility model

Ref document number: 7098752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150