JP2016527599A - メディアアイテムを選択するためのシステムおよび方法 - Google Patents

メディアアイテムを選択するためのシステムおよび方法 Download PDF

Info

Publication number
JP2016527599A
JP2016527599A JP2016516770A JP2016516770A JP2016527599A JP 2016527599 A JP2016527599 A JP 2016527599A JP 2016516770 A JP2016516770 A JP 2016516770A JP 2016516770 A JP2016516770 A JP 2016516770A JP 2016527599 A JP2016527599 A JP 2016527599A
Authority
JP
Japan
Prior art keywords
media
media item
image
processor
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016516770A
Other languages
English (en)
Other versions
JP2016527599A5 (ja
JP6509824B2 (ja
Inventor
フォルタンプーア、ババク
パバガダ、ディープティ
ティブヤン、ロマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016527599A publication Critical patent/JP2016527599A/ja
Publication of JP2016527599A5 publication Critical patent/JP2016527599A5/ja
Priority to JP2019071183A priority Critical patent/JP6938556B2/ja
Application granted granted Critical
Publication of JP6509824B2 publication Critical patent/JP6509824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/64Details of telephonic subscriber devices file transfer between terminals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Multimedia (AREA)
  • Information Transfer Between Computers (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

方法は、モバイルデバイスにおいて、モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信することを含む。方法は、モバイルデバイスによって、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択することも含む。方法は、モバイルデバイスによって、リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成することをさらに含み、ここでパッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む。

Description

優先権の主張
[0001]本出願は、それらの全体が参照により本明細書に組み込まれる、2013年5月28日に出願された米国仮特許出願第61/828,104号および2013年5月27日に出願された米国非仮特許出願第14/288,250号に基づく優先権を主張する。
[0002]本開示は、一般に画像処理に関する。
[0003]技術の進歩が、より小さくより強力なコンピューティングデバイスをもたらしている。たとえば、現在、小さく、軽く、およびユーザの携行が容易である、ポータブルワイヤレス電話、携帯情報端末(PDA)、およびページングデバイスなどのワイヤレスコンピューティングデバイスを含む、様々なポータブルパーソナルコンピューティングデバイスが存在する。より詳細には、携帯電話およびインターネットプロトコル(IP)電話などのポータブルワイヤレス電話は、ワイヤレスネットワークを介して音声およびデータパケットを通信し得る。さらに、多くのそのようなワイヤレス電話は、そこに組み込まれている他のタイプのデバイスを含む。たとえば、ワイヤレス電話は、デジタルスチルカメラ、デジタルビデオカメラ、デジタルレコーダ、およびオーディオファイルプレーヤをさらに含むことができる。また、そのようなワイヤレス電話は、インターネットにアクセスするために使用できるウェブブラウザアプリケーションなどのソフトウェアアプリケーションを含む実行可能な命令を処理し得る。そのため、これらのワイヤレス電話は、かなりのコンピューティング能力を含むことができる。
[0004]電子メールおよびソーシャルメディアネットワークを介してメディアアイテム(media item)(たとえば、画像およびビデオ)を友人および家族と共有することが、ますます一般的になっている。ただし、ワイヤレス電話からメディアアイテムを共有するのは、時間がかかる場合がある。たとえば、ワイヤレス電話のユーザにとって、アップロードするように複数のメディアアイテムを選択するのに、長い時間がかかる場合がある。たとえば、ユーザがメディアアイテムをアップロードしたい場合、ユーザは、データベースを検索し、メディアアイテムを個々に選択しなければならない場合があり、これは、多くのメディアアイテムが選択されるべきである場合、時間がかかり得る。さらに、メディアアイテムがビデオファイルに対応する場合、閲覧者は、ビデオがアップロードされるべきかどうか決定するために各ビデオを閲覧するのに、長い時間がかかり得る。たとえば、閲覧者は、各ビデオを別個に選択し、再生しなければならない場合があり、これは時間がかかるプロセスであり得る。
[0005]ユーザがモバイルデバイスを使ってメディアアイテム(たとえば、画像やビデオ)をキャプチャ(capture)すると、モバイルデバイスは、メディアアイテムを処理し、メディアアイテムをメモリに記憶し得る。たとえば、メディアアイテムを処理することは、各メディアアイテムに関連付けられたメトリックを識別するための、各メディアアイテムについての特徴ベクトルを生成することを含み得、モバイルデバイスは、各特徴ベクトルをメモリに記憶し得る。各メトリックは、たとえばメディアアイテムがキャプチャされた時刻、メディアアイテム中の色、メディアアイテムに対応する地理的ロケーションなど、特定の特性に対応し得る。ユーザが、モバイルデバイスから特定のメディアアイテムを転送することを選ぶと、モバイルデバイスは、特定のメディアアイテムに関連付けられた、識別されたメトリックに基づいて、特定のメディアアイテムとの類似的な特性をもつ他の記憶されたメディアアイテムを自動的に決定し得る。たとえば、ユーザが、休暇からの第1の画像(たとえば、第1の休暇写真)をモバイルデバイスから転送することを選んだ場合、モバイルデバイスは、第1の画像に関連付けられたメトリック(たとえば、地理的ロケーション、時刻、顔の特徴など)に基づいて、休暇からの追加画像(たとえば、休暇からの追加写真またはビデオ)の場所を確認するために、データベースを自動的に検索すればよい。
[0006]特定の実施形態では、方法は、電子デバイスのプロセッサにおいて、電子デバイスからリモートデバイスに転送されるべきメディアアイテムのユーザの選択を受信することを含む。方法は、メディアアイテムと別のメディアアイテムとをリモートデバイスに転送するのに先立って、別のメディアアイテムと選択されたメディアアイテムとの類似性(たとえば、類似する地理的ロケーション、類似するキャプチャの時刻など)に基づいて別のメディアアイテムを選択することも含む。
[0007]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、リモートデバイスに転送されるべきメディアアイテムのユーザの選択を受信するように構成される。プロセッサは、メディアアイテムと別のメディアアイテムとをリモートデバイスに転送するのに先立って、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、別のメディアアイテムを選択するようにさらに構成される。
[0008]別の特定の実施形態では、方法は、電子デバイスのプロセッサにおいて、第1の画像をキャプチャしたことに応答して第1の画像の第1の特徴ベクトルを生成することを含む。第1の特徴ベクトルは、第1の画像に関連付けられたメトリックの値を含む。方法は、第1の画像をリモートデバイスに転送するのに先立って、第1の特徴ベクトルに基づいて、第1の画像に類似している少なくとも1つの他の画像を決定することも含む。
[0009]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1の画像の第1の特徴ベクトルを生成するように構成される。第1の特徴ベクトルは、第1の画像に関連付けられたメトリックの値(たとえば、第1の画像の特性を識別するデータの値)を含む。プロセッサは、第1の画像をリモートデバイスに転送するのに先立って、第1の特徴ベクトルに基づいて、第1の画像に類似している少なくとも1つの他の画像を決定するようにさらに構成される。
[0010]別の特定の実施形態では、方法は、電子デバイスのプロセッサにおいて、第1のビデオをキャプチャしたことに応答して第1のビデオの第1の特徴ベクトルを生成することを含む。第1の特徴ベクトルは、第1のビデオに関連付けられたメトリックの値を含む。方法は、第1のビデオをリモートデバイスに転送するのに先立って、第1の特徴ベクトルに基づいて、第1のビデオに類似している少なくとも1つの他のビデオを決定することをさらに含む。
[0011]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1のビデオの第1の特徴ベクトルを生成するように構成される。第1の特徴ベクトルは、第1のビデオに関連付けられたメトリックの値を含む。プロセッサは、第1のビデオをリモートデバイスに転送するのに先立って、第1の特徴ベクトルに基づいて、第1のビデオに類似している少なくとも1つの他のビデオを決定するようにさらに構成される。
[0012]別の特定の実施形態では、モバイルデバイスは、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、メモリ中に記憶されたメディアアイテムに対応するメトリックの値を決定するように構成される。モバイルデバイスはまた、プロセッサに結合されたユーザインターフェースデバイスを含む。ユーザインターフェースデバイスは、メディアアイテムの少なくとも一部分のエミュレートされた3次元表現を表示するように構成される。3次元表現は、その部分の中のメディアアイテムの第1のメトリックに関連付けられた第1の軸と、その部分の中のメディアアイテムの第2のメトリックに関連付けられた第2の軸と、その部分の中のメディアアイテムの第3のメトリックに関連付けられた第3の軸とを含む。その部分の各特定のメディアアイテムの表現は、特定のメディアアイテムに関連付けられたメトリックの値に基づいて、第1の軸、第2の軸、および第3の軸に対して配置される。
[0013]別の特定の実施形態では、モバイルデバイスは、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、メモリ中に記憶されたメディア時刻に対応するメトリックの値を決定するように構成される。モバイルデバイスはまた、プロセッサに結合されたユーザインターフェースデバイスを含む。ユーザインターフェースデバイスは、メディアアイテムの少なくとも一部分の2次元表現を表示するように構成される。2次元表現は、その部分の中のメディアアイテムの第1のメトリックに関連付けられた第1の軸と、その部分の中のメディアアイテムの第2のメトリックに関連付けられた第2の軸とを含む。その部分の各特定のメディアアイテムの表現は、特定のメディアアイテムに関連付けられたメトリックの値に基づいて、第1の軸および第2の軸に対して配置される。
[0014]別の特定の実施形態では、方法は、画像センサーを含むモバイルデバイスにおいて、画像センサーを介した第1の画像の画像キャプチャに応答して、第1の画像に関連付けられたメトリックを生成することを含む。第1の画像の各メトリックは、第1の画像の特定の特性に対応する。方法は、特定のメトリックの重みを決定することも含む。重みは、特定のメトリックの類似する値を有する画像を類似する画像として分類することの履歴上の頻度に基づく。たとえば、画像を分類することの履歴上の頻度は、事前のユーザの画像の選択に基づき得る。方法は、重みがしきい値を満たすという決定に応答して、特定のメトリックに基づいて第1の画像に類似している少なくとも1つの他の画像を決定することも含む。
[0015]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1の画像に関連付けられたメトリックを生成するように構成される。第1の画像の各メトリックは、第1の画像の特定の特性に対応する。プロセッサは、特定のメトリックの重みを決定するようにさらに構成される。重みは、特定のメトリックの類似する値を有する画像を類似する画像として分類することの履歴上の頻度に基づく。プロセッサは、重みがしきい値を満たすという決定に応答して、特定のメトリックに基づいて第1の画像に類似している少なくとも1つの他の画像を決定するようにさらに構成される。
[0016]別の特定の実施形態では、方法は、電子デバイスのプロセッサにおいて、メディアアイテムの第1のユーザの選択を受信することを含む。方法は、メディアアイテムに関連付けられたメトリックを、プロセッサにとってアクセス可能なメディアアイテムの集合中の他のメディアアイテムに関連付けられた対応するメトリックと比較することも含む。方法は、重み付けされた比較結果を生成するように、記憶された重みのセットに基づいて、メトリックのうちの1つまたは複数に重み付けを適用することも含む。方法は、重み付けされた比較結果に基づいて、他のメディアアイテムのうちの1つまたは複数を選択することも含む。
[0017]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、メディアアイテムの第1のユーザの選択を受信するように構成される。プロセッサは、メディアアイテムに関連付けられたメトリックを、プロセッサにとってアクセス可能なメディアアイテムの集合中の他のメディアアイテムに関連付けられた対応するメトリックと比較するようにさらに構成される。プロセッサは、重み付けされた比較結果を生成するように、記憶された重みのセットに基づいて、メトリックのうちの1つまたは複数に重み付けを適用するようにさらに構成される。プロセッサは、重み付けされた比較結果に基づいて、他のメディアアイテムのうちの1つまたは複数を選択するようにさらに構成される。
[0018]別の特定の実施形態では、方法は、第1のメディアタイプを有するメディアアイテムの第1のユーザの選択を受信することを含む。方法は、別のメディアアイテムのタイムスタンプ、別のメディアアイテムに関連付けられた地理的ロケーション、または別のメディアアイテムに関連付けられたテキスト情報のうちの少なくとも1つに基づく、別のメディアタイプを有する別のメディアアイテムの選択も含む。方法は、ユーザインターフェースから受信されたファイル転送命令が論理グループ中のすべてのメディアアイテムに適用されることを可能にするために、メディアアイテムと別のメディアアイテムとを含む、メディアアイテムの論理グループを生成することも含む。
[0019]別の特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1のメディアタイプを有するメディアアイテムの第1のユーザの選択を受信するように構成される。第1のユーザの選択を受信したことに応答して、プロセッサは、別のメディアアイテムのタイムスタンプ、別のメディアアイテムに関連付けられた地理的ロケーション、または別のメディアアイテムに関連付けられたテキスト情報のうちの少なくとも1つに基づいて、別のメディアタイプを有する別のメディアアイテムを選択するようにさらに構成される。プロセッサは、ユーザインターフェースから受信されたファイル転送命令が論理グループ中のすべてのメディアアイテムに適用されることを可能にするために、メディアアイテムと別のメディアアイテムとを含む、メディアアイテムの論理グループを生成するようにさらに構成される。
[0020]別の特定の実施形態では、方法は、コンピュータにおいて、コンピュータをモバイルデバイスに接続する通信リンクを介して、モバイルデバイスからデータを受信することを含む。データは、モバイルデバイスからコンピュータに転送されるべきメディアアイテムのユーザの選択を含む。方法は、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、モバイルデバイスから別のメディアアイテムを受信することも含む。
[0021]別の特定の実施形態では、コンピュータは、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、コンピュータをモバイルデバイスに接続する通信リンクを介して、モバイルデバイスからデータを受信するように構成される。データは、モバイルデバイスからコンピュータに転送されるべきメディアアイテムのユーザの選択を含む。プロセッサは、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、モバイルデバイスから別のメディアアイテムを受信するようにさらに構成される。
[0022]別の特定の実施形態では、プロセッサは、通信リンクがコンピュータをモバイルデバイスに接続したことに応答して、モバイルデバイスからデータを受信するように構成される。情報は、モバイルデバイス中に記憶されたメディアアイテムに対応するメトリックの値を含む。コンピュータはまた、プロセッサに結合されたユーザインターフェースデバイスを含む。ユーザインターフェースデバイスは、メディアアイテムの少なくともサブセットのエミュレートされた3次元表現を表示するように構成される。3次元表現は、サブセット中のメディアアイテムの第1のメトリックに関連付けられた第1の軸と、サブセット中のメディアアイテムの第2のメトリックに関連付けられた第2の軸と、サブセット中のメディアアイテムの第3のメトリックに関連付けられた第3の軸とを含む。サブセットの各特定のメディアアイテムの表現は、特定のメディアアイテムに関連付けられたメトリックの値に基づいて、第1の軸、第2の軸、および第3の軸に対して配置される。
[0023]別の特定の実施形態では、ユーザインターフェースデバイスは、メディアアイテムの少なくともサブセットの2次元表現を表示するように構成される。2次元表現は、サブセット中のメディアアイテムの第1のメトリックに関連付けられた第1の軸と、サブセット中のメディアアイテムの第2のメトリックに関連付けられた第2の軸とを含む。サブセットの各特定のメディアアイテムの表現は、特定のメディアアイテムに関連付けられたメトリックの値に基づいて、第1の軸および第2の軸に対して配置される。
[0024]特定の実施形態では、方法は、モバイルデバイスにおいて、第1のメディアアイテムをキャプチャしたことに応答して、メトリックのグループに基づいてメディアアイテムの集合を生成することを含む。メトリックのグループは、メディアアイテムが互いに類似しているかどうか決定するのに使われる特定のメトリックを含む。方法は、メディアアイテムの集合のうちのユーザに選択されたメディアアイテムの指示を受信することも含む。方法は、ユーザに選択されたメディアアイテムに基づいて、メトリックのグループ中の1つまたは複数のメトリックについての重みを修正することも含む。
[0025]特定の実施形態では、装置は、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1のメディアアイテムをキャプチャしたことに応答して、メトリックのグループに基づいて、メディアアイテムの集合を生成するように構成される。メトリックのグループは、メディアアイテムが互いに類似しているかどうか決定するのに使われる特定のメトリックを含む。プロセッサは、メディアアイテムの集合のうちのユーザに選択されたメディアアイテムの指示を受信するようにさらに構成される。プロセッサは、ユーザに選択されたメディアアイテムに基づいて、メトリックのグループ中の1つまたは複数のメトリックについての重みを修正するようにさらに構成される。
[0026]別の特定の実施形態では、方法は、モバイルデバイスにおいて、モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信することを含む。方法は、モバイルデバイスによって、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択することを含む。方法は、モバイルデバイスによって、リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成することをさらに含む。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。
[0027]別の特定の実施形態では、モバイルデバイスは、メモリと、メモリに結合されたプロセッサとを含む。プロセッサは、第1のメディアアイテムを選択するユーザ入力を受信するように構成され得る。プロセッサは、第1のメディアアイテムを記述する情報と、1つまたは複数の追加メディアアイテムを記述する情報の比較を実施するように構成され得る。プロセッサは、比較に基づいて、第2のメディアアイテムを選択するように構成され得る。プロセッサは、第1のメディアアイテムおよび第2のメディアアイテムに関連付けられたメディアデータを含むパッケージ化されたモーメントのデータを生成するようにさらに構成され得る。
[0028]別の特定の実施形態では、非一時的コンピュータ可読媒体が、モバイルデバイス内のプロセッサによって実行されると、プロセッサに、モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信させる命令を含む。非一時的コンピュータ可読媒体は、プロセッサによって実行されると、プロセッサに、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択させる命令を含む。非一時的コンピュータ可読媒体は、プロセッサによって実行されると、プロセッサに、リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成させる命令をさらに含む。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。
[0029]別の特定の実施形態では、モバイルデバイスは、モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信するための手段を含む。モバイルデバイスは、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択するための手段をさらに含む。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。
[0030]開示する実施形態のうちの少なくとも1つによって与えられる1つの特定の利点は、モバイルデバイスから、類似的な特性を有するメディアアイテムを選択し、転送することに関する、時間量の削減である。本開示の他の態様、利点、および特徴は、以下のセクション、すなわち、図面の簡単な説明、発明を実施するための形態、および特許請求の範囲を含む、本出願全体の検討後に明らかになろう。
[0031]キャプチャされた画像との類似的な特性を有する画像を選択するように動作可能なシステムの特定の例示的実施形態の図。 [0032]キャプチャされたビデオとの類似的な特性を有するビデオを選択するように動作可能なシステムの特定の例示的実施形態の図。 [0033]メディアアイテムのエミュレートされた3次元表現を表示するように動作可能なユーザインターフェースデバイスの特定の例示的実施形態の図。 [0034]メディアアイテムの2次元表現を表示するように動作可能なユーザインターフェースデバイスの特定の例示的実施形態の図。 [0035]メディアアイテムの2次元表現を表示するように動作可能なユーザインターフェースデバイスの別の特定の例示的実施形態の図。 [0036]選択されたメディアアイテムとの類似的な特性を有する他のメディアアイテムを選択するように動作可能なシステムの特定の例示的実施形態の図。 [0037]ユーザ設定可能なパッケージ化されたモーメントの設定を表示するように動作可能なユーザインターフェースデバイスの第1の特定の実施形態の図。 [0038]ユーザ設定可能なパッケージ化されたモーメントの設定を表示するように動作可能なユーザインターフェースデバイスの第2の特定の実施形態の図。 [0039]パッケージ化されたモーメントのデータ情報を表示するように動作可能なユーザインターフェースデバイスの特定の実施形態の図。 [0040]パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを表示するように動作可能なユーザインターフェースデバイスの特定の実施形態の図。 パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを表示するように動作可能なユーザインターフェースデバイスの特定の実施形態の図。 [0041]類似する特徴に基づいてメディアアイテムを選択する方法の特定の実施形態のフローチャート。 [0042]類似する特徴に基づいて画像を選択する方法の特定の実施形態のフローチャート。 [0043]類似する特徴に基づいてビデオを選択する方法の特定の実施形態のフローチャート。 [0044]頻繁に使われるメトリックに基づいて画像を選択する方法の特定の実施形態のフローチャート。 [0045]重み付けされた比較結果に基づいてメディアアイテムを選択する方法の特定の実施形態のフローチャート。 [0046]選択されたメディアアイテムとの類似性に基づいて1つまたは複数の他のメディアアイテムを選択する方法の特定の実施形態のフローチャート。 [0047]選択されたメディアアイテムとの類似性に基づいて1つまたは複数の他のメディアアイテムを選択する方法の別の特定の実施形態のフローチャート。 [0048]メディアアイテム用の特徴ベクトルを生成する方法の特定の実施形態のフローチャート。 [0049]パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを選択する方法の特定の実施形態のフローチャート。 [0050]図1〜図19に示す実施形態をサポートするように動作可能なモバイルデバイスのブロック図。 [0051]モバイルデバイスに接続するように動作可能なコンピュータを含むシステムの特定の実施形態のブロック図。
[0052]図1を参照すると、キャプチャされた画像との類似的な特性を有する画像を選択するように動作可能なシステム100の特定の例示的実施形態が示されている。システム100は電子デバイス102を含み得る。電子デバイス102は、プロセッサ104と、メモリ106と、ユーザインターフェースデバイス108とを含み得る。特定の実施形態では、電子デバイス102は、画像をキャプチャするように構成された画像センサーを含むモバイルデバイスであり得る。たとえば、電子デバイス102は、画像センサーを介して第1の画像111をキャプチャし得る。
[0053]プロセッサ104は、電子デバイス102の画像センサーが第1の画像111をキャプチャしたことに応答して、第1の画像111のメトリックを生成するように構成される。たとえば、プロセッサ104は、画像センサーが第1の画像111をキャプチャしたことに応答して、第1の画像111の第1の特徴ベクトル121を生成し得る。第1の特徴ベクトル121で、第1の画像111のメトリックを識別し得る。第1の特徴ベクトル121でN個のメトリックを識別することができ、ここでNは、ゼロよりも大きい任意の整数である。たとえば、特定の実施形態では、Nは9に等しくてよく、第1の特徴ベクトル121で、第1の画像111の9つのメトリックを識別し得る。
[0054]各メトリックは、第1の画像111の様々な特性に対応し得る。たとえば、メトリックは、第1の画像111の地理的ロケーション、第1の画像111がキャプチャされた時刻、第1の画像111の色成分、第1の画像111中のエッジ成分、第1の画像111中の顔、第1の画像111中のオブジェクト、第1の画像111がキャプチャされたときに電子デバイス102において検出されたワイヤレスネットワーク(たとえば、Wifi)信号強度、第1の画像111がキャプチャされたときに電子デバイス102が指していた方向、第1の画像111がキャプチャされる前および/または後のオーディオ品質などに対応し得る。特定の実施形態では、ワイヤレスネットワーク信号強度は、第1の画像111が屋内で、それとも屋外でキャプチャされたかを検出するのに使われ得る。たとえば、強い信号強度は、屋内でキャプチャされたことに対応する第1の画像111に対応してよく、弱い信号強度は、屋外でキャプチャされた第1の画像111に対応し得る。
[0055]例示的な非限定的な例として、第1の特徴ベクトル121の第1のメトリックは、第1の画像111の地理的ロケーションに対応してよく、プロセッサ104は、第1の画像111の地理的ロケーションに対応するGPS座標を決定するのに、全地球測位システム(GPS)を使うことができる。図示の実施形態では、第1のメトリックで、ニューヨーク州ニューヨーク市に対応するGPS座標を識別し得る。第1の特徴ベクトル121の第2のメトリックは、電子デバイス102によって第1の画像111がキャプチャされた時刻に対応し得る。図示の実施形態では、第2のメトリックに対応する時刻は2002年8月31日の午後3:00であり得る。第1の特徴ベクトル121の第3のメトリックは、第1の画像111中の顔に対応し得る。図示の実施形態では、プロセッサ104は、第1の画像111中の第1の顔の第1の顔の特徴を、メモリ106中の1つまたは複数の他の画像中の顔の特徴に類似しているものとして、第1の画像111中の第2の顔の第2の顔の特徴を、メモリ106中の1つまたは複数の他の画像中の顔の特徴に類似しているものとして認識し得る。
[0056]メモリ106は、電子デバイス102中に記憶された画像112〜117のメトリックを識別する特徴ベクトル122〜127を含み得る。たとえば、メモリ106は、第2の画像112の第2の特徴ベクトル122と、第3の画像113の第3の特徴ベクトル123と、第4の画像114の第4の特徴ベクトル124と、第5の画像115の第5の特徴ベクトル125と、第6の画像116の第6の特徴ベクトル126と、第7の画像117の第7の特徴ベクトル127とを含み得る。特徴ベクトル122〜127中の各メトリックは、第1の特徴ベクトル121中の同じメトリックに対応し得る。たとえば、第1の特徴ベクトル121の第1のメトリックが第1の画像111の地理的ロケーションに対応する場合、第2の特徴ベクトル122の第1のメトリックは第2の画像112の地理的ロケーションに対応し、第3の特徴ベクトル123の第1のメトリックは第3の画像113の地理的ロケーションに対応する、などのようになる。電子デバイス102中に記憶された画像112〜117は、ユーザインターフェースデバイス108を介してユーザによって閲覧可能であり得る。
[0057]プロセッサ104は、第1の特徴ベクトル121に基づいて、第1の画像111に類似している少なくとも1つの他の画像を決定するようにさらに構成される。特定の実施形態では、プロセッサ104は、第1の画像111をキャプチャしたことに応答して、第1の画像111に類似している少なくとも1つの他の画像を決定し得る。別の実施形態では、プロセッサ104は、図6を参照してさらに詳しく説明するように、第1の画像111を転送するためのユーザの要求または第1の画像111のユーザの選択に応答して、第1の画像111に類似している少なくとも1つの他の画像を決定し得る。たとえば、プロセッサ104は、第1の特徴ベクトル121を、メモリ106中に記憶された第2の特徴ベクトル122と比較すればよい。特定の実施形態では、プロセッサ104は、第1の特徴ベクトル121を第2の特徴ベクトル122と比較するのに、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)]などのアルゴリズムを使うことができ、ここでF12は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベルであり、w1は、地理的ロケーションに対応するメトリックの第1の重みであり、w2は、時刻に対応するメトリックの第2の重みであり、w3は、検出された顔の特徴に対応するメトリックの第3の重みである。
[0058]第1の画像111のGPS座標と第2の画像112のGPS座標との間の差(たとえば、g(IMG1)−g(IMG2))は、第1の正規化係数(Norm1)に基づいて正規化され、第1の重みで乗算され得る。第1の画像111のキャプチャの時刻と、第2の画像112のキャプチャの時刻との間の差(たとえば、t(IMG1)−t(IMG2))は、第2の正規化係数(Norm2)に基づいて正規化され、第2の重みで乗算され得る。第1の画像111中の顔の特徴に対応するデータと、第2の画像112中の顔の特徴に対応するデータとの間の差(たとえば、f(IMG1)−f(IMG2))は、第3の正規化係数(Norm3)に基づいて正規化され、第3の重みで乗算され得る。
[0059]各正規化係数は、データの類似性の値が低下するとゼロに近づき、データの類似性の値が増加すると1に近づく特定のメトリックの類似性関数に基づいて計算され得る。たとえば、各正規化係数は、1に等しいピーク値と、特定のメトリックの特性に基づく標準偏差とを有するガウス関数(たとえば、ガウス曲線)として表すことができ、ここでピークは、比較されるデータの類似性の値が最大値に達したときに存在する。別の例として、各正規化係数は、1に等しいピーク値を有する、アークコタンジェント関数(または、スプライン関数)の絶対値として表すことができ、ここでピークは、比較されるデータの類似性の値が最大値に達したときに存在する。
[0060]特定の実施形態では、各メトリックについての類似範囲が、対応する正規化係数についての基準点として使われる。たとえば、比較される2つのメディアアイテム(たとえば、画像、ビデオなど)のロケーションの差が特定の範囲(たとえば、100フィート)内である場合、第1の正規化係数がピーク値に対応し得る。別の例として、比較される2つのメディアアイテムのキャプチャの時刻の間の時間差が特定の範囲内(たとえば、5秒未満)である場合、第2の正規化係数がピーク値に対応し得る。
[0061]重みの値は、特定のメトリックの優先度または関連性に基づいて調整され得る。たとえば、特定の実施形態では、ユーザが、対応するメトリックの優先度または関連性に基づいて、各特定の重みについての値を入力し得る。地理的ロケーションが、顔の特徴認識よりもユーザにとって高い優先度を有する場合、ユーザは、第1の重みに対して大きい値を、および第3の重みに対してより小さい値を入力すればよい。別の実施形態では、マシン(たとえば、プロセッサ104)が、ユーザの好みに対応する履歴上のデータに基づいて、各特定の重みについての値を自動的に適用し得る。たとえば、ユーザが、プロセッサ104によって選択された画像を履歴において修正したか、または場合によっては類似する地理的ロケーションを有する画像を含むように画像を選択した場合、プロセッサ104は、第1の重みに対してより大きい値を、および第3の重みに対してより小さい値を適用し得る。
[0062]プロセッサ104は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2の画像112が第1の画像111と類似していると決定し得る。たとえば、第2の画像112と第1の画像111は、類似GPS座標、顔の特徴に対応する類似データ(たとえば、類似する顔)を有し得、類似する時刻にキャプチャされ得る。特定の実施形態では、プロセッサ104は、圧倒的に、ロケーションに対応するメトリックに基づいて、第5の画像115が第1の画像111と類似していると決定し得る。この例示的実施形態では、第1の画像111および第5の画像115は、類似するロケーション(たとえば、ニューヨーク州ニューヨーク市)においてキャプチャされ得る。第1の重み(たとえば、地理的ロケーションに対応する重み)が高い値を有する場合、第1の画像111と第5の画像115との間の類似のレベルはしきい値を満たし得る。特定の実施形態では、プロセッサ104は、検出された顔の特徴に対応するメトリックに主に基づいて、第6の画像116が第1の画像111と類似していると決定し得る。この例示的実施形態では、第1の画像111および第6の画像116は、類似する顔の特徴(たとえば、男性プレーヤの顔の特徴)に対応するデータを有し得る。第3の重み(たとえば、検出された顔の特徴に対応する重み)が高い値を有する場合、第1の画像111と第6の画像116との間の類似のレベルはしきい値を満たし得る。
[0063]プロセッサ104は、画像の集合を生成するように、第1の画像111を、少なくとも1つの他の類似する画像とクラスタ化し得る。たとえば、プロセッサ104は、メトリックの類似性および各重みの値に依存して画像の集合を生成するように、第1の画像111を、第2の画像112、第5の画像115、第6の画像116、またはそれらの組合せとクラスタ化し得る。特定の実施形態では、プロセッサ104は、第1の画像111を類似する画像とクラスタ化するための要求を生成するように構成され、画像の集合は、要求への応答に基づいて生成される。別の特定の実施形態では、プロセッサ104は、転送のための第1の画像111のユーザの選択に応答して(たとえば、画像の集合が生成されることを要求するユーザ操作に依存せずに自動的に)、画像の集合を生成するように構成される。プロセッサ104は、例示的な非限定的例として、画像の集合をソーシャルメディアウェブサイトにアップロードするか、または画像の集合を電子メールアドレスに送ればよい。
[0064]図2を参照すると、キャプチャされたビデオとの類似的な特性を有するビデオを選択するように動作可能なシステム200の特定の例示的実施形態が示されている。システム200は電子デバイス202を含み得る。電子デバイス202は、プロセッサ204と、メモリ206と、ユーザインターフェースデバイス208とを含み得る。特定の実施形態では、電子デバイス202は、ビデオをキャプチャするように構成された動画センサーを含むモバイルデバイスであり得る。たとえば、電子デバイス202は、動画センサーを介して第1のビデオ211をキャプチャし得る。特定の実施形態では、電子デバイス202は、図1の電子デバイス102に対応し、実質的に同様に動作し得る。プロセッサ204は、図1のプロセッサ104に対応し、実質的に同様に動作し得る。メモリ206は、図1のメモリ106に対応し、実質的に同様に動作し得る。ユーザインターフェースデバイス208は、図1のユーザインターフェースデバイス108に対応し、実質的に同様に動作し得る。
[0065]プロセッサ204は、電子デバイス202の動画センサーが第1のビデオ211をキャプチャしたことに応答して、第1のビデオ211のメトリックを生成するように構成される。たとえば、プロセッサ204は、動画センサーが第1のビデオ211をキャプチャしたことに応答して、第1のビデオ211の第1の特徴ベクトル221を生成し得る。第1の特徴ベクトル221で、第1のビデオ211のメトリックを識別し得る。第1の特徴ベクトル221でN個のメトリックを識別することができ、ここでNは、ゼロよりも大きい任意の整数である。たとえば、特定の実施形態では、Nは12に等しくあり得、第1の特徴ベクトル221で、第1のビデオ211の12個のメトリックを識別し得る。
[0066]各メトリックは、第1のビデオ211の様々な特性に対応し得る。たとえば、メトリックは、第1のビデオ211の地理的ロケーション、第1のビデオ211がキャプチャされた時刻(たとえば、開始時刻)、第1のビデオ211の色成分、第1のビデオ211中のエッジ成分、第1のビデオ211中の顔、第1のビデオ211中のオブジェクト、第1のビデオ211がキャプチャされたときに電子デバイス202において検出されたワイヤレスネットワーク(たとえば、Wifi)信号強度、第1のビデオ211がキャプチャされたときに電子デバイス202が指していた方向、第1のビデオ211のオーディオ品質などに対応し得る。
[0067]例示的な非限定的例として、第1の特徴ベクトル221の第1のメトリックは、第1のビデオ211の地理的ロケーションに対応してよく、プロセッサ204は、第1のビデオ211の地理的ロケーションに対応するGPS座標を決定するのに、全地球測位システム(GPS)を使うことができる。図示の実施形態では、第1のメトリックで、ニューヨーク州ニューヨーク市に対応するGPS座標を識別し得る。第1の特徴ベクトル221の第2のメトリックは、電子デバイス202によって第1のビデオ211がキャプチャされた時刻に対応し得る。図示の実施形態では、第2のメトリックに対応する時刻は2002年8月31日の午後3:00であり得る。第1の特徴ベクトル221の第3のメトリックは、第1のビデオ211中の顔に対応し得る。図示の実施形態では、プロセッサ204は、第1のビデオ211中の第1の顔の第1の顔の特徴を、メモリ206中の1つまたは複数の他の画像中の顔の特徴に類似しているものとして、および第1のビデオ211中の第2の顔の第2の顔の特徴を、メモリ206中の1つまたは複数の他の画像中の顔の特徴に類似しているものとして認識し得る。
[0068]メモリ206は、電子デバイス202中に記憶されたビデオ212〜117のメトリックを識別する特徴ベクトル222〜127を含み得る。たとえば、メモリ206は、第2のビデオ212の第2の特徴ベクトル222と、第3のビデオ213の第3の特徴ベクトル223と、第4のビデオ214の第4の特徴ベクトル224と、第5のビデオ215の第5の特徴ベクトル225と、第6のビデオ216の第6の特徴ベクトル226と、第7のビデオ217の第7の特徴ベクトル227とを含み得る。特徴ベクトル222〜127中の各メトリックは、第1の特徴ベクトル221中の同じメトリックに対応し得る。たとえば、第1の特徴ベクトル221の第1のメトリックが第1のビデオ211の地理的ロケーションに対応する場合、第2の特徴ベクトル222の第1のメトリックは第2のビデオ212の地理的ロケーションに対応し、第3の特徴ベクトル223の第1のメトリックは第3のビデオ213の地理的ロケーションに対応する、などのようになる。電子デバイス202中に記憶されたビデオ212〜217は、ユーザインターフェースデバイス208を介してユーザによって閲覧可能であり得る。
[0069]プロセッサ204は、第1の特徴ベクトル221に基づいて、第1のビデオ211に類似している少なくとも1つの他のビデオを決定するようにさらに構成される。特定の実施形態では、プロセッサ204は、第1のビデオ211をキャプチャしたことに応答して、第1のビデオ211に類似している少なくとも1つの他のビデオを決定し得る。別の実施形態では、プロセッサ204は、第1のビデオ211を転送するためのユーザの要求に応答して、第1のビデオ211に類似している少なくとも1つの他のビデオを決定し得る。たとえば、プロセッサ204は、第1の特徴ベクトル221を、メモリ206中に記憶された第2の特徴ベクトル222と比較すればよい。特定の実施形態では、プロセッサ204は、第1の特徴ベクトル221を第2の特徴ベクトル222と比較するのに、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)]などのアルゴリズムを使うことができ、ここでF12は、第1のビデオ211のメトリックと第2のビデオ212のメトリックとの間の類似のレベルであり、w1は、地理的ロケーションに対応するメトリックの第1の重みであり、w2は、時刻に対応するメトリックの第2の重みであり、w3は、検出された顔の特徴に対応するメトリックの第3の重みである。
[0070]第1のビデオ211のGPS座標と第2のビデオ212のGPS座標との間の差(たとえば、g(IMG1)−g(IMG2))は、第1の正規化係数(Norm1)に基づいて正規化され、第1の重みを乗算され得る。第1のビデオ211のキャプチャの時刻と、第2のビデオ212のキャプチャの時刻との間の差(たとえば、t(IMG1)−t(IMG2))は、第2の正規化係数(Norm2)に基づいて正規化され、第2の重みを乗算され得る。第1のビデオ211中の顔の特徴に対応するデータと、第2のビデオ212中の顔の特徴に対応するデータとの間の差(たとえば、f(IMG1)−f(IMG2))は、第3の正規化係数(Norm3)に基づいて正規化され、第3の重みを乗算され得る。
[0071]重みの値は、特定のメトリックの重要性に基づいて調整され得る。たとえば、特定の実施形態では、ユーザが、対応するメトリックの重要性に基づいて、各特定の重みについての値を入力し得る。地理的ロケーションが、顔の特徴認識よりもユーザにとって重要である場合、ユーザは、第1の重みに対して大きい値を、および第3の重みに対してより小さい値を入力すればよい。別の実施形態では、マシン(たとえば、プロセッサ204)が、ユーザの好みに対応する履歴上のデータに基づいて、各特定の重みについての値を自動的に適用し得る。
[0072]プロセッサ204は、第1のビデオ211のメトリックと第2のビデオ212のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2のビデオ212が第1のビデオ211と類似していると決定し得る。たとえば、第2のビデオ212と第1のビデオ211は、類似GPS座標、顔の特徴に対応する類似データ(たとえば、類似する顔)を有してよく、類似する時刻にキャプチャされ得る。
[0073]プロセッサ204は、連結されたビデオを生成するために、第1のビデオ211を少なくとも1つの他の類似ビデオと連結し得る。たとえば、プロセッサ204は、第1のビデオ211と第2のビデオ212とを含む1つのビデオファイルを生成するように、第1のビデオ211を第2のビデオ212と連結し得る。特定の実施形態では、プロセッサ204は、第1のビデオ211を類似ビデオと連結するための要求を生成するように構成され、連結されたビデオは、要求への応答に基づいて生成される。別の特定の実施形態では、プロセッサ204は、転送用に第1のビデオ211を選択したことに応答して(たとえば、連結されたビデオを生成することを要求するユーザ操作に依存せずに)、連結されたビデオを生成するように構成される。プロセッサ204は、連結されたビデオをソーシャルメディアウェブサイトにアップロードするか、または連結されたビデオを電子メールアドレスに送り得る。
[0074]図3を参照すると、メディアアイテムのエミュレートされた3次元表現を表示するように動作可能なユーザインターフェースデバイス300の特定の実施形態が示されている。特定の実施形態では、ユーザインターフェースデバイス300は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。ユーザインターフェースデバイス300は、指の接触350に応答するタッチスクリーンディスプレイを含み得る。
[0075]ユーザインターフェースデバイス300中のメディアアイテムの3次元表現は、メディアアイテムの第1のメトリックに関連付けられた第1の軸310と、メディアアイテムの第2のメトリックに関連付けられた第2の軸320と、メディアアイテムの第3のメトリックに関連付けられた第3の軸330とを含み得る。メディアアイテムは、画像、ビデオ、テキストドキュメント、またはそれらのどの組合せにも対応し得る。たとえば、特定の図示する実施形態では、メディアアイテムは、図1の画像112〜117に対応し得る。別の特定の実施形態では、メディアアイテムは、図2のビデオ212〜217に、または画像112〜117とビデオ212〜217の組合せに対応し得る。
[0076]各メディアアイテムは、メトリックの値に基づいて、第1の軸310、第2の軸320、および第3の軸330に対して配置される。たとえば、第1の軸310は、第1の画像111の地理的ロケーションのメトリック(たとえば、第1のメトリック)に関連付けられてよく、第2の軸320は、第1の画像111の時刻のメトリック(たとえば、第2のメトリック)に関連付けられてよく、第3の軸330は、第1の画像111の検出された顔の特徴のメトリック(たとえば、第3のメトリック)に関連付けられ得る。第2の画像112は、第1の画像111と類似する地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を有し、第1の画像111に対して類似する時刻(たとえば、2002年8月31日の午後3:00頃)にキャプチャされており、第1の画像111と類似する検出された顔の特徴(たとえば、男性プレーヤおよび女性プレーヤ)を有するので、第2の画像112は、起点に比較的接近して(たとえば、各軸310〜330に触れて)配置され得る。第5の画像115は、第1の画像111と類似する地理的ロケーションを有し、第1の画像111に対して類似する時刻にキャプチャされている可能性があるので、第5の画像115は、第1の軸310のゼロ交差に、および第2の軸320のゼロ交差に比較的接近して配置され得る。特定の実施形態では、第5の画像115は、第1の画像111に対して類似する検出された顔の特徴をもたない可能性があるので、第5の画像115は、第3の軸330のゼロ交差から比較的離れて配置され得る。第6の画像115と第1の画像111は、類似する検出された顔の特徴(たとえば、男性プレーヤ)を有するので、第6の画像116は、第3の軸330のゼロ交差に比較的接近して配置され得る。
[0077]第1の画像111に類似していると決定されない画像は、第1の画像111に類似していると決定された画像よりも小さく現れ得る。たとえば、第3、第4、および第7の画像113、114、117は、それぞれ、第2、第5、および第6の画像112、115、116よりもそれぞれ小さく現れ得る。
[0078]プロセッサ(たとえば、図1のプロセッサ104および/または図2のプロセッサ204)は、少なくとも部分的には、グループ化されるべきメディアアイテムの履歴上のユーザの選択に基づいて、メトリックのグループの中から、第1のメトリックと、第2のメトリックと、第3のメトリックとを選択するように構成され得る。たとえば、プロセッサは、他の側面(たとえば、キャプチャ時における色コンテンツまたは環境オーディオ特性)による類似性と比較した地理的ロケーション、時刻、および/または顔の特徴に従って類似しているメディアアイテムを、ユーザが通常はグループ化していると決定し得る。その結果、プロセッサは、メディアアイテム(たとえば、画像)が類似しているかどうか決定するとき、地理的ロケーションと、時刻と、検出された顔の特徴のメトリックとを検討するように決定し得る。したがって、メトリックのグループの各特定のメトリックの関連性は、少なくとも部分的には、メディアアイテムを分類する際に特定のメトリックが使われる頻度に基づいて決定され得る。代替として、メトリックはユーザの選択が可能であり得る。たとえば、ユーザは、様々なメトリックに割り当てられた重み値を選択および/または調整することができ、最も大きい重み値をもつメトリックは、第1、第2、および第3の軸310〜330に対応し得る。
[0079]ユーザインターフェースデバイス300はまた、キャプチャセレクタ340と、第1のセレクタ342と、第2のセレクタ344と、第3のセレクタ346と、共有セレクタ348とを含み得る。各セレクタ340〜348は、指の接触350に応答し得る。キャプチャセレクタ340は、ユーザが別の画像をキャプチャできるようにするスクリーンに、ユーザをナビゲートし得る。別の画像をキャプチャすると、別の画像についての特徴ベクトルが、プロセッサによって生成され、メモリ(たとえば、図1のメモリ106および/または図2のメモリ206)中の他の特徴ベクトルと比較され得る。第1のセレクタ342は、ユーザインターフェースデバイス300により表示される画像112〜117をすべて選択し得る。第2のセレクタ344は、重み付けされたメトリックに基づいて、キャプチャされた画像(たとえば、第1の画像111)に類似しているとプロセッサが決定した画像112、115、116を選択し得る。第3のセレクタ346は、たとえば、各画像に関連付けられたチェックボックスをアクティブ化または非アクティブ化することによって、ユーザインターフェースデバイス300により表示される画像112〜117を、ユーザがランダムに選択できるようにする。
[0080]共有セレクタ348は、ユーザが、選択された画像を共有できるようにし得る。たとえば、共有セレクタ348の、ユーザによるアクティブ化を検出したことに応答して、プロセッサは、選択された画像を別のデバイスに転送し、選択された画像をソーシャルメディアウェブサイトにアップロードし、選択された画像を電子メールアドレスに送り、画像を、ショートメッセージサービス(SMS)メッセージを介して共有し、またはそれらのどの組合せを行ってもよい。
[0081]図4を参照すると、メディアアイテムの2次元表現を表示するように動作可能なユーザインターフェースデバイス400の特定の実施形態が示されている。特定の実施形態では、ユーザインターフェースデバイス400は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。ユーザインターフェースデバイス400は、指の接触450に応答するタッチスクリーンディスプレイを含み得る。
[0082]ユーザインターフェースデバイス400中のメディアアイテムの2次元表現は、メディアアイテムの第1のメトリックに関連付けられた第1の軸410と、メディアアイテムの第2のメトリックに関連付けられた第2の軸420とを含み得る。メディアアイテムは、画像、ビデオ、テキストドキュメント、またはそれらのどの組合せにも対応し得る。たとえば、特定の図示する実施形態では、メディアアイテムは、図1の画像112〜117に対応し得る。別の特定の実施形態では、メディアアイテムは、図2のビデオ212〜217に、または画像112〜117とビデオ212〜217の組合せに対応し得る。
[0083]各メディアアイテムは、メトリックの値に基づいて、第1の軸410および第2の軸420に対して配置される。たとえば、第1の軸410は、第1の画像111の地理的ロケーションのメトリック(たとえば、第1のメトリック)に関連付けられ得、第2の軸420は、第1の画像111の検出された顔の特のメトリック(たとえば、第3のメトリック)に関連付けられ得る。第2の画像112は、第1の画像111と類似する地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を有し、第1の画像111と類似する検出された顔の特徴(たとえば、男性プレーヤおよび女性プレーヤ)を有するので、第2の画像112は、起点に比較的接近して(たとえば、各軸410、420に触れて)配置され得る。第5の画像115は、第1の画像111と類似する地理的ロケーションを有するので、第5の画像115は、第1の軸410に比較的接近して配置され得る。第6の画像115と第1の画像111は、類似する検出された顔の特徴(たとえば、男性プレーヤ)を有するので、第6の画像116は、第2の軸420に比較的接近して配置され得る。
[0084]プロセッサ(たとえば、図1のプロセッサ104および/または図2のプロセッサ204)は、少なくとも部分的には、グループ化されるべきメディアアイテムの履歴上のユーザの選択に基づいて、メトリックのグループの中から、第1のメトリックと、第2のメトリックとを選択するように構成され得る。たとえば、プロセッサは、他の側面(たとえば、キャプチャ時における時刻、色コンテンツまたは環境オーディオ特性)による類似性と比較した地理的ロケーション、および顔の特徴に従って類似しているメディアアイテムを、ユーザが通常はグループ化していると決定し得る。その結果、プロセッサは、メディアアイテム(たとえば、画像)が類似しているかどうか決定するとき、地理的ロケーションと、検出された顔の特徴のメトリックとを検討するように決定し得る。したがって、メトリックのグループの各特定のメトリックの関連性または優先度は、少なくとも部分的には、メディアアイテムを分類する際に特定のメトリックが使われる頻度に基づいて決定され得る。代替として、メトリックはユーザの選択が可能であり得る。たとえば、ユーザは、様々なメトリックに割り当てられた重み値を選択および/または調整することができ、最も大きい重み値をもつメトリックは、第1、および第2の軸410、420に対応し得る。
[0085]ユーザインターフェースデバイス400はまた、キャプチャセレクタ440と、第1のセレクタ442と、第2のセレクタ444と、第3のセレクタ446と、共有セレクタ448とを含み得る。各セレクタ440〜348は、指の接触450に応答し得る。キャプチャセレクタ440、第1のセレクタ442、第2のセレクタ444、第3のセレクタ446、および共有セレクタ448は、それぞれ、図3のキャプチャセレクタ340、図3の第1のセレクタ342、図3の第2のセレクタ344、図3の第3のセレクタ346、および図3の共有セレクタ348に対応し得、実質的に同様に動作し得る。
[0086]図5を参照すると、メディアアイテムの2次元表現を表示するように動作可能なユーザインターフェースデバイス500の特定の実施形態が示されている。特定の実施形態では、ユーザインターフェースデバイス500は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。ユーザインターフェースデバイス500は、指の接触550に応答するタッチスクリーンディスプレイを含み得る。
[0087]ユーザインターフェースデバイス500中のメディアアイテムの2次元表現は、第1の行510と、第2の行520と、第3の行530とを含み得る。第1の行510は、メディアアイテムの複数のメトリックに関連付けられ得る。第2の行520は、メディアアイテムの第1のメトリックに関連付けられてよく、第3の行530は、メディアアイテムの第2のメトリックに関連付けられ得る。各行510〜530の境界は、関連付けられたメトリックに基づく色を有し得る。たとえば、第2の行520の境界は、第2のメトリック(たとえば、時刻)に基づく特定の色(たとえば、赤)であってよく、第3の行530の境界は、第3のメトリック(たとえば、顔の特徴)に基づく別の色(たとえば、青)であり得る。したがって、ユーザインターフェースデバイス500により提示される各メトリックは、固有の色を有する境界を含み得る。メディアアイテムは、画像、ビデオ、テキストドキュメント、またはそれらのどの組合せにも対応し得る。たとえば、特定の図示する実施形態では、メディアアイテムは、図1の画像112〜117に対応し得る。別の特定の実施形態では、メディアアイテムは、図2のビデオ212〜217に、または画像112〜117とビデオ212〜217の組合せに対応し得る。
[0088]メディアアイテムは、メトリックの値に基づいて行510〜530に配置される。たとえば、第1の行510は、全体的な類似性(たとえば、第1の画像111の地理的ロケーション、第1の画像111のキャプチャの時刻、および第1の画像111中の検出された顔の特徴に対応するメトリックに基づく図1のF12)に関連付けられ得る。第2の画像112、第5の画像115、および第6の画像116は、第1の画像111に関する類似する値を有する少なくとも1つのメトリック(またはメトリックの組合せ)を有する各画像112、115、116による(たとえば、F12の値による)類似性の順序で、第1の行510に配置され得る。たとえば、第1および第2の画像111、112の地理的ロケーションのメトリック、時刻のメトリック、ならびに検出された顔の特徴のメトリックの値は類似し得る。第1および第5の画像111、115の検出された顔の特徴のメトリックは類似してよく、第1および第6の画像116の時刻のメトリックは類似し得る。第2の行520は、第1の画像111の地理的ロケーションのみに対応するメトリックに関連付けられ得る。したがって、第2および第6の画像112、116は、第1の画像111に関する類似する地理的ロケーションを有することに応答して、第2の行520に配置され得る。第3の行530は、第1の画像中の検出された顔の特徴のみに対応するメトリックに関連付けられ得る。したがって、第2および第5の画像112、115は、第1の画像111に関する類似顔の特徴を有することに応答して、第3の行530に配置され得る。
[0089]プロセッサ(たとえば、図1のプロセッサ104および/または図2のプロセッサ204)は、少なくとも部分的には、グループ化されるべきメディアアイテムの履歴上のユーザの選択に基づいて、メトリックのグループの中から、第2の行520の第1のメトリックと、第3の行530の第2のメトリックとを選択するように構成され得る。たとえば、プロセッサは、他の側面(たとえば、キャプチャ時における色コンテンツまたは環境オーディオ特性)による類似性と比較した地理的ロケーション、および顔の特徴に従って類似しているメディアアイテムを、ユーザが通常はグループ化していると決定し得る。その結果、プロセッサは、メディアアイテム(たとえば、画像)が類似しているかどうか決定するとき、地理的ロケーションと、検出された顔の特徴とをメトリックとして検討するように決定し得る。したがって、メトリックのグループの各特定のメトリックの関連性は、少なくとも部分的には、メディアアイテムを分類する際に特定のメトリックが使われる頻度に基づいて決定され得る。代替として、メトリック、ならびにしたがって第2および第3の行520、530中で示される特性は、ユーザの選択が可能であり得る。たとえば、ユーザは、様々なメトリックに対する重み値を選択および/または調整することができ、最も大きい重み値をもつメトリックは、第2および第3の行520、530に対応し得る。
[0090]ユーザインターフェースデバイス500はまた、キャプチャセレクタ540と、「すべて選択」セレクタ541と、第1のメトリックセレクタ542と、第2のメトリックセレクタ544と、第4のセレクタ546と、共有セレクタ548とを含み得る。各セレクタ540〜548は、指の接触550に応答し得る。キャプチャセレクタ540は、図3〜図4のキャプチャセレクタ340、440に対応し得、実質的に同様に動作し得る。共有セレクタ548は、図3〜図4の共有セレクタ348、448に対応し得、実質的に同様に動作し得る。「すべて選択」セレクタ541は、第1の行510中の画像すべてを選択し得、第1のメトリックセレクタ542は、第2の行520中の画像すべてを選択し得、第2のメトリックセレクタ544は、第3の行530中の画像すべてを選択し得る。第4のセレクタ546は、たとえば、各画像に関連付けられたチェックボックスをアクティブ化または非アクティブ化することによって、ユーザインターフェースデバイス500により表示された画像を、ユーザがランダムに選択できるようにする。
[0091]図6を参照すると、選択されたメディアアイテムとの類似的な特性を有する他のメディアアイテムを選択するように動作可能なシステム600の特定の例示的な実施形態が示されている。システム600は、プロセッサ604と、メモリ606と、ユーザインターフェースデバイス608と、データキャッシュ610とを含み得る。特定の実施形態では、プロセッサ604は、図1〜図2のプロセッサ104〜204に対応するとともに実質的に同様に動作してよく、メモリ606は、図1〜図2のメモリ106〜206に対応するとともに実質的に同様に動作してよく、ユーザインターフェースデバイス608は、図1〜図2のユーザインターフェースデバイス108〜208または図3〜図5のユーザインターフェースデバイス300〜500に対応するとともに実質的に同様に動作し得る。
[0092]メモリ606は、異なるメディアタイプに対応するファイルを記憶し得る。たとえば、メモリ606は、画像に対応するファイル(たとえば、JPEG、GIF、TIFF、PNG、ビットマップ)、オーディオおよび/またはビデオに対応するファイル(たとえば、WMV、MP3、MP4)、あるいはテキストドキュメントに対応するファイルなどを記憶し得る。メモリ606は、図1の特徴ベクトル121〜127、図2の特徴ベクトル221〜227、またはそれらのどの組合せも記憶し得る。説明を簡単にするために、図示の実施形態では、メモリ606は、第2のビデオ212と第5の画像115とを含む。ただし、メモリ606は、第2のビデオ212に対応する第2の特徴ベクトル222と、第5の画像115に対応する第5の特徴ベクトル125とを記憶し得る。メモリ606は、テキストドキュメント(たとえば、第1のテキストドキュメント611)と、対応する特徴ベクトルとを記憶し得、メモリ606は、オーディオファイル(たとえば、第1のオーディオファイル612)と、対応する特徴ベクトルとを記憶し得る。特定の実施形態では、第1のテキストドキュメント611は、文書処理ドキュメント、表計算ドキュメントなどに対応し得る。メモリ606は、ショートメッセージサービス(SMS)テキストメッセージも記憶し得る。特定の実施形態では、第1のテキストドキュメント611は、SMSテキストメッセージに対応し得る。
[0093]データキャッシュ610は、ネットワーク609を介してプロセッサ604にとってアクセス可能であり得、データキャッシュ610は、1つまたは複数の異なるソースからの情報をキャッシュし得る。たとえば、データキャッシュ610は、インターネット接続を介してプロセッサ604にとってアクセス可能であり得、プロセッサ604は、インターネット接続を介して、データキャッシュ610からコンテンツを検索し、取り出し得る。データキャッシュ610は、ソーシャルメディアポスティングおよび/またはeメールのアーカイブをキャッシュし得る。特定の実施形態では、データキャッシュ610(または複数のデータキャッシュ)は、少なくとも、テキストメッセージに限定される第1のソーシャルメディアサービスの第1のアーカイブ、画像に限定される第2のソーシャルメディアルサービスの第2のアーカイブ、またはテキストメッセージに、もしくは画像に限定されない第3のソーシャルメディアサービスの第3のアーカイブを含む。たとえば、データキャッシュ610は、www.facebook.com、www.twitter.com、www.instagram.comなどを含むソーシャルメディアウェブサイトからのポスティングを含み得る。
[0094]データキャッシュ610は、テキストメッセージに限定されるソーシャルメディアサービスにおいて記憶された第1のメッセージ613と第2のメッセージ614とをキャッシュし得る。データキャッシュ610は、テキストメッセージ、ビデオ、または画像に限定されないソーシャルメディアサービスにおいて記憶された第3のメッセージ615をキャッシュし得る。特定の実施形態では、データキャッシュ610は、テキストメッセージ、画像、またはビデオのうちの最も小さいものに限定されたメッセージをキャッシュし得る。単一のデータキャッシュ610として示されているが、複数のデータキャッシュが、ネットワーク609を介してプロセッサ604にとってアクセス可能であり得る(たとえば、ソーシャルメディアサービスごとに1つのデータキャッシュ)。
[0095]プロセッサ604は、第1のメディアタイプを有するメディアアイテムの第1のユーザの選択を受信するように構成され得る。たとえば、ユーザが、ユーザインターフェースデバイス608を介して第1の画像111を選択し得る。特定の実施形態では、ユーザインターフェースデバイス608はタッチスクリーンであり、ユーザは、ユーザインターフェースデバイス608との指の接触により、第1の画像111を選択し得る。
[0096]プロセッサ604は、第1の画像111の選択を受信し、別のメディアアイテムの特性に基づいて、別のメディアタイプを有する別のメディアアイテムを選択し得る。プロセッサ604は、メモリ606から、またはデータキャッシュ610から、第1の特徴ベクトル121のメトリックに類似するメトリックを有する他のメディアアイテムを選択し得る。たとえば、図1を参照して説明したように、第1の特徴ベクトル121(第1の画像111に対応する)は、ニューヨーク州ニューヨーク市に対応するGPS座標を識別するメトリックと、午後3:00という時刻に対応するメトリックと、第1の画像111中の第1の顔の第1の顔の特徴(たとえば、男性プレーヤ)と第1の画像111中の第2の顔の第2の顔の特徴(たとえば、女性プレーヤ)とを認識するメトリックとを有し得る。プロセッサ604は、他のメディアアイテムのタイムスタンプ、他のメディアアイテムに関連付けられた地理的ロケーション、または他のメディアアイテムに関連付けられたテキスト情報に基づいて、他のメディアアイテムを選択し得る。
[0097]たとえば、プロセッサ604は、第2のビデオ212の地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を識別するメトリック、および頃第2のビデオ212がキャプチャされた時刻(たとえば、午後3:00頃)を識別するメトリックに主に基づいて、メモリ606から第2のビデオ212を選択し得る。プロセッサ604は、第5の画像115の地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を識別するメトリックに主に基づいて、メモリ606から第5の画像115を選択し得る。プロセッサ604は、第1のテキストドキュメント611内のテキスト情報に基づいて、第1のテキストドキュメント611を選択し得る。たとえば、プロセッサ604は、第1の画像111中のテキスト文字を決定するために、第1の画像111に対して光学式文字認識を実施し得る。第1のテキストドキュメント611は、第1の画像111中のテキスト文字に対応するテキスト情報を含み得る。
[0098]プロセッサ604は、データキャッシュ610から第1のメッセージ613(たとえば、ソーシャルメディアポスティング)を選択し得る。たとえば、プロセッサ604は、第1の画像111と、第1のメッセージ613中のテキスト情報および/またはハッシュタグとの間の類似性を検索し得る。特定の実施形態では、第1のメッセージ613は、第1の画像111中のデータに対応するハッシュタグ(たとえば、#Tennis)を含む。プロセッサ604は、データキャッシュ610から第3のメッセージ615(たとえば、ソーシャルメディアポスティング)を選択することもできる。たとえば、プロセッサ604は、第3のメッセージ615が、第1の画像111がキャプチャされた時刻と類似する時刻付近(たとえば2002年8月31日の午後3:01)にポストされたと決定し得る。
[0099]特定の実施形態では、プロセッサ604は、第3のメッセージ615のソーシャルメディア共有イベント(たとえば、いいね、コメント、共有、リツイートなど)のカウントをしきい値と比較することによって、第3のメッセージ615を選択し得る。たとえば、ソーシャルメディア共有イベントのしきい値は、ユーザによって設定され得る。プロセッサ604は、ソーシャルメディア共有イベントの数がしきい値を満たす場合、メディアアイテムを選択し得る。特定の実施形態では、しきい値は、3つの共有イベントに等しくてよい。プロセッサ604は、第3のメッセージ615がしきい値を満たすことに応答して、第3のメッセージ615を選択し得る(たとえば、第3のメッセージ615は、6つのいいねでしきい値を満たす)。特定の実施形態では、しきい値は、何人のユーザ(たとえば、友人、フォロワーなど)がソーシャルメディアアカウントに関連付けられているか(たとえば、ソーシャルメディアアカウントからの受信された更新に登録された他のユーザの10%など、総ユーザの割合として)に基づいて決定される。
[00100]プロセッサ604は、第1の画像111、第2のビデオ212、第5の画像115、第1のテキストドキュメント611、第1のメッセージ613、第3のメッセージ615、またはそれらのどの組合せも含むメディアアイテムの論理グループ(「パッケージ化されたモーメント」データ中に含まれるメディアデータに対応する)を生成するように構成され得る。たとえば、ユーザが、第1の画像111を転送することを選んだ場合、プロセッサ604は、論理グループ中の各メディアアイテム(たとえば、パッケージ化されたモーメントのデータのメディアデータ)も転送するためのファイル転送命令を有効にすればよい。特定の実施形態では、論理グループ(たとえば、パッケージ化されたモーメントのデータのメディアデータ)は、第1の画像111、第2のビデオ212、第5の画像115、第1のテキストドキュメント611、第1のメッセージ613、第3のメッセージ615、またはそれらのどの組合せも含む単一のファイル(たとえば、圧縮ファイル、zipファイルなど)を含み得る。
[00101]特定の実施形態では、ユーザが、ファイルを共有することを選択する場合があり、プロセッサ604は、選択されたファイルの特性に基づいて、SMSテキストメッセージ、eメール、ソーシャルメディアポスト、またはそれらのどの組合せも含むパッケージ化されたモーメントのデータの圧縮ファイル(たとえば、「zip」ファイル)を生成し得る。非限定的例として、ユーザは、マサチューセッツ州ボストンにおいて2008年4月23日午前9:43にキャプチャされた、仕事上の会議からの画像(たとえば、会議画像)を共有することを選択する場合がある。プロセッサ604は、会議画像についてのメトリックを決定し、会議画像のメトリックとの類似的な特性を有する他のファイル、メッセージ、eメール、および/またはポストを求めて、メモリ606とデータキャッシュ610とを検索すればよい。プロセッサ604は、他のファイル、メッセージ、eメール、および/またはポストを、会議画像とともにパッケージ化されたモーメントのデータの圧縮ファイル(たとえば、「zip」ファイル)に「バンドル」し、リモートユーザ(たとえば、リモートデバイス)への圧縮ファイルの送信を開始し得る。
[00102]たとえば、メモリ606は、2008年4月23日午前9:43に、またはその頃に送られ、または受信されたSMSテキストメッセージを記憶し得る。上述した技法を使って、プロセッサ604は、メトリック値に基づいてSMSテキストメッセージを選択し、SMSテキストメッセージを圧縮ファイルに追加し得る。別の例として、プロセッサ604は、ネットワーク609を介して、データキャッシュ610中に記憶されたソーシャルメディアポストにアクセスし得る。特定の実施形態では、プロセッサ604は、いずれかのポストが、会議画像に類似しているメトリックを有するかどうか決定するために、www.facebook.comに対応するポストの第1のデータベースを検索し得る。たとえば、プロセッサ604は、ポストの時刻および/またはロケーションを識別し、時刻および/またはロケーションを会議画像のメトリックと比較すればよい。特定のポストが画像ファイルまたはビデオファイルである場合、プロセッサ604は、上述したように、特定のポストの顔の特徴のメトリックを決定し、顔の特徴のメトリックを会議画像と比較すればよい。特定の実施形態では、ポストに関連付けられた「いいね」、「コメント」、および/または「共有」の数が、プロセッサ604によって、ポストを圧縮ファイルに追加するかどうか決定する際に使われ得る。たとえば、プロセッサ604が、ポストが会議画像に類似していると決定した場合、プロセッサ604は、しきい値を満たす「いいね」、「コメント」、および/または「共有」の数を条件として、ポストを、パッケージ化されたモーメントのデータの圧縮ファイルに追加し得る。
[00103]別の例として、プロセッサ604は、www.twitter.comに対応するポスト(たとえば、ソーシャルメディアデータ)の第2のデータベースおよび/またはwww.instagram.comに対応するポストの第3のデータベースを検索するために、ネットワーク609を介してデータキャッシュ610にアクセスし得る。プロセッサ604は、第2のデータベースおよび/または第3のデータベースを探索するときに、第1のデータベースを探索するときと実質的に同様に動作し得る。さらに、プロセッサ604は、各ポスト(たとえば、ソーシャルメディアデータ)中に含まれるハッシュタグ(#)を識別し、ハッシュタグが会議に関連付けられているかどうか決定し得る。たとえば、特定のポストが、ハッシュタグ「#BostonConference」を含む場合がある。その結果、プロセッサ604は、その特定のポストを圧縮ファイルに含めると決定し得る。
[00104]別の例として、プロセッサ604は、会議に関連付けられている(たとえば、会議画像に関連付けられた)、送付および/または受信済みeメールを検索するために、ネットワーク609を介してデータキャッシュ610にアクセスし得る。プロセッサ604は、eメールが送信されたときに関連付けられた時刻および/またはロケーションを識別し、時刻および/またはロケーションを会議画像のメトリックと比較し得る。プロセッサ604は、eメールが会議に関連付けられているかどうか決定するために、eメールのテキスト検索を実施し得る。特定のeメールが会議に関連付けられていると決定したことに応答して、プロセッサ604は、特定のeメールを、パッケージ化されたモーメントのデータの圧縮ファイルに含め得る。特定の実施形態では、eメールの受信者および/または送付者が、特定のeメールが会議に関連付けられているかどうか識別するのに使われ得る。たとえば、プロセッサ604は、受信者のeメールアドレスおよび/または送付者のeメールアドレスが、ソーシャルメディアポストに対応するアカウント、SMSテキストメッセージに対応する電話番号、またはそれらの任意の組合せに関連付けられているかどうか決定し得る。
[00105]図7を参照すると、ユーザ設定可能なパッケージ化されたモーメントの設定を表示するように動作可能なユーザインターフェースデバイス700の第1の特定の実施形態が示されている。ユーザインターフェースデバイス700は、グラフィカルユーザインターフェース(GUI)を介してパッケージ化されたモーメントの設定を表示し得る。特定の実施形態では、ユーザインターフェースデバイス700は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。プロセッサ(たとえば、図1のプロセッサ104、図2のプロセッサ204、および/または図6のプロセッサ604)は、図1のメモリ106、図2のメモリ206、または図6のメモリ606などのメモリにパッケージ化されたモーメントの設定を記憶するように構成され得る。ユーザインターフェースデバイス700は、接触に応答するタッチスクリーンディスプレイを含み得る。特定の実施形態では、プロセッサは、ディスプレイ(たとえば、ユーザインターフェースデバイス700のディスプレイデバイス)における表示用のGUIを生成するように、およびGUIを介して受信されたユーザ入力に基づいてパッケージ化されたモーメントの設定を修正するように構成され得る。
[00106]パッケージ化されたモーメントのデータは、共通イベントに関連した1つまたは複数のメディアアイテムに関連付けられた(たとえば、それらを表す)メディアデータを含み得る。たとえば、1つまたは複数のメディアアイテムは、結婚式に関連した画像(たとえば、ピクチャ)と、ビデオと、他のメディアアイテムとを含み得る。パッケージ化されたモーメントの設定は、ユーザが、プロセッサによるメディアアイテムの選択のための1つまたは複数の基準を構成することを可能にし得る。メディアアイテムの選択の後、メディアアイテムに対応するメディアデータは、パッケージ化されたモーメントのデータに含められ得る。プロセッサを使ってメディアアイテムを選択することによって、共通イベントに関連した複数のメディアアイテムを選択する際の、ユーザの時間および作業が削減され得る。さらに、パッケージ化されたモーメントのデータを、単一のファイル(たとえば、パッケージ化されたモーメントのデータを含むファイル)として他のユーザに送信することによって、各メディアアイテムを個々に送信するのと比較して、他のユーザへの割込みが削減され得る。
[00107]ユーザインターフェースデバイス700を介して表示されるパッケージ化されたモーメントの設定は、類似性の設定と、メディアタイプの設定と、ブロックリストと、サイズ設定とを含み得る。たとえば、パッケージ化されたモーメントの設定は、類似性の設定のユーザ設定可能な指定を含み得る。プロセッサは、メディアアイテムと、類似性の設定のうちの1つまたは複数を満たす選択されたメディアアイテム(たとえば、図1の第1の画像111)との間の比較に基づいてメディアアイテムを選択すればよく、選択されたメディアアイテムに対応するメディアデータはパッケージ化されたモーメントのデータに含められ得る。たとえば、(第2のメディアアイテムと第1のメディアアイテムとの間の)比較に基づいて、類似性の設定のうちの1つまたは複数を満たす第2のメディアアイテムが選択され得る。メディアアイテムと選択されたメディアアイテムとの間の類似性は、図1および図2を参照して説明したように(たとえば、メトリックに基づいて)決定され得る。
[00108]類似性の設定は、顔の特徴、オーディオ特性、地理的ロケーション、および時刻のうちの少なくとも1つを含む。特定の実施形態では、類似性の設定は、類似顔セレクタ702、類似オーディオセレクタ704、類似ロケーションセレクタ706、および類似時刻セレクタ712を介して構成され得る。類似ロケーションセレクタ706は、ロケーション時刻セレクタ708と距離セレクタ710とを含むことができ、類似時刻セレクタ712は、時間期間セレクタ714を含むことができる。他の実施形態では、類似性の設定は、他のメトリックに基づいて、追加または他の設定セレクタを介して構成され得る。
[00109]プロセッサは、ユーザによって選択されるセレクタ702〜714のうちの1つまたは複数に対応する類似性に基づいてメディアアイテムを選択し得る。特定の実施形態では、類似顔セレクタ702および類似オーディオセレクタ704は各々、選択(または選択解除)を示すチェックボックスに関連付けられ得る。類似顔セレクタ702の選択は、選択されたメディアアイテムと類似する検出された顔の特徴を有するメディアアイテムを、プロセッサによって選択させることができる。類似オーディオセレクタ704の選択は、図1を参照して説明したように、または図2を参照して説明したように、メディアアイテムに関連付けられたオーディオ特性を、選択されたメディアアイテムに関連付けられたオーディオ特性と比較させることができる。プロセッサは、比較に基づいて1つまたは複数のメディアアイテムを選択し得る。
[00110]類似するロケーションについての設定を構成するために、ユーザは、類似ロケーションセレクタ706のロケーション時刻セレクタ708と距離セレクタ710とを使って値を選択すればよい。類似する時刻についての設定を構成するために、ユーザは、類似時刻セレクタ712の時間期間セレクタ714を使って値を選択すればよい。ロケーション時刻セレクタ708、距離セレクタ710、および時間期間セレクタ714は各々、選択機構を含み得る。特定の実施形態では、選択機構は上矢印と下矢印とを含む。他の実施形態では、選択機構は、選択された値を変更するノブ、ダイヤル、ドロップダウンメニュー、または別の機構を含み得る。ユーザは、選択機構を使って値を選択し得る。たとえば、ユーザは、距離セレクタ710の選択機構を介して、選択されたメディアアイテムのロケーションからの距離(たとえば、範囲)を設定し得る。ユーザは、ロケーション時刻セレクタ708の選択機構を介して、ロケーション関連の時間期間を設定することもできる。図7に示す特定の例において、ロケーション時刻セレクタ708は30分に設定され、距離セレクタ710は2マイルに設定されている。この特定の例において、プロセッサは、少なくとも30分の間の、選択されたメディアアイテムのロケーションの2マイル以内にあるロケーションに対応するメディアアイテムを選択すればよい。別の例として、ユーザは、時間期間セレクタ714の選択機構を介して時間期間を設定し得る。図7に示す特定の例において、時間期間セレクタ714は2時間に設定されている。この特定の例において、プロセッサは、選択されたメディアアイテムの対応する特定の時刻の2時間以内の時刻(たとえば、キャプチャ時刻)に対応するメディアアイテムを選択すればよい。
[00111]類似ロケーションセレクタ706および類似時刻セレクタ712は各々、類似するロケーションまたは類似する時刻に対応するメディアアイテムをプロセッサが選択するのを防止する(たとえば、禁止する)ために選択解除され得る。特定の実施形態では、ユーザが、ロケーション時刻セレクタ708、距離セレクタ710、および時間期間セレクタ714の値をゼロ(たとえば、選択解除値)に設定することによって、類似ロケーションセレクタ706および/または類似時刻セレクタ712を選択解除し得る。別の実施形態では、類似ロケーションセレクタ706および類似時刻セレクタ712は各々、チェックボックスに関連付けられてよく、選択および選択解除は、類似顔セレクタ702または類似オーディオセレクタ704と同様に、ユーザ入力に応答して起こり得る。
[00112]メディアタイプの設定は、1つまたは複数のメディアタイプのユーザ設定可能な指定(たとえば、選択)を含み得る。パッケージ化されたモーメントのデータのメディアデータに対応する各メディアアイテムは、1つまたは複数のメディアタイプに関連付けられたメディアタイプを有し得る。たとえば、プロセッサは、メディアタイプの設定に従って1つまたは複数のメディアタイプのメディアアイテムを選択することができ、メディアデータは、選択されたメディアアイテムに関連付けられ得る。メディアタイプは、非限定的例として、ピクチャ(たとえば、画像)、ビデオ、ボイスコールの録音、eメールメッセージ、SMSメッセージ、ならびにソーシャルメディアポスト(たとえば、テキストおよび/または画像)を含み得る。特定の実施形態では、メディアタイプの設定は、ピクチャ(たとえば、画像)セレクタ720、ビデオセレクタ722、着信呼セレクタ724、発信呼セレクタ726、着信eメールセレクタ728、発信eメールセレクタ730、着信SMSセレクタ732、発信SMSセレクタ734、およびソーシャルメディアセレクタ736を介して構成され得る。別の実施形態では、ソーシャルメディアセレクタ736は、異なるソーシャルメディアソース(たとえば、非限定的例として、ウェブサイトwww.twitter.com、www.facebook.com、www.instagram.com、および/またはwww.pinterest.comに関連付けられたソーシャルメディア)に各々が対応する複数のセレクタを含み得る。他の実施形態では、メディアタイプの設定は、他のメディアタイプに対応する追加または他のセレクタを介して構成され得る。
[00113]セレクタ720〜736の各々は、ユーザ入力により選択(または選択解除)され得る。パッケージ化されたモーメントのデータのメディアデータは、セレクタ720〜736の選択に基づいて、メディアタイプに関連付けられる。図7に示す特定の例において、ピクチャセレクタ720、ビデオセレクタ722、着信呼セレクタ724、着信eメールセレクタ728、発信SMSセレクタ734、およびソーシャルメディアセレクタ736が選択され、他のセレクタは選択解除される。この特定の例において、パッケージ化されたモーメントのデータのメディアデータは、ピクチャ、ビデオ、着信ボイスコール(たとえば、着信ボイスコールの記録されたオーディオ)、着信eメール(たとえば、着信eメールのテキスト)、発信SMSメッセージ(たとえば、発信SMSメッセージのテキスト)、およびソーシャルメディアポストから選択され、発信ボイスコール、発信eメール、および着信SMSメッセージからは選択されない。特定の実施形態では、パッケージ化されたモーメントのデータのメディアデータはまた、上述したように、類似性の設定に基づいて選択される。別の実施形態では、ユーザが、各メディアコンテンツタイプに関連付けられた時間期間を指定し得るように、セレクタ720〜736の各々は、対応する時刻セレクタ(時間期間セレクタ714と類似している)を含み得る。たとえば、ユーザは、選択されたメディアアイテムの特定のキャプチャの時刻の第1の時間期間(たとえば、1時間)以内にキャプチャされたピクチャを含めることと、選択されたメディアアイテムの特定のキャプチャの時刻の第2の時間期間(たとえば、3時間)以内のビデオキャプチャを含めることとを選択し得る。
[00114]ブロックリストは、ユーザが、パッケージ化されたモーメントのデータの受信者を調整する(たとえば、構成する)ことを可能にする。たとえば、ブロックリストは、ユーザが、パッケージ化されたモーメントのデータではなく選択されたメディアアイテムのみを受信する1つまたは複数のターゲット(たとえば、ユーザ)を選択することを可能にし得る。ブロックリストは、受信者セレクタ742を介して構成され得る。受信者セレクタ742は選択機構を含み得る。特定の実施形態では、選択機構は矢印または他のボタンであり得る。受信者セレクタ742は、ユーザの選択に応答して、パッケージ化されたモーメントのデータを受信する資格がある当事者および/またはグループのドロップダウンリストを提供し得る。たとえば、当事者またはグループは、ユーザに関連付けられたアドレス帳から表示され得る。ユーザは、当事者またはグループのうちの1つまたは複数を、ブロックリストに追加するために選択すればよい。図7に示す特定の例において、ユーザは、上司(たとえば、特定の当事者)と同僚(たとえば、特定のグループ)とを、ブロックリストに追加するために選択し得る。この特定の例において、パッケージ化されたモーメントのデータが他の当事者またはグループに送られると、パッケージ化されたモーメントのデータではなく、選択されたメディアアイテムが、上司に、および同僚に送られる。別の実施形態では、ユーザインターフェースデバイス700は、ユーザが、パッケージ化されたモーメントのデータを受信する当事者および/またはグループを選択することを可能にする承認受信者リストを含み得る。
[00115]サイズ設定は、ユーザが、パッケージ化されたモーメントのデータのサイズの上限を指定する(たとえば、構成する)ことを可能にする。特定の実施形態では、サイズ設定は、ピクチャ数セレクタ750、ビデオ長セレクタ752、オーディオ長セレクタ754、およびファイルサイズセレクタ756を介して構成可能であり得る。他の実施形態では、サイズ設定は、eメール長セレクタ、SMS長セレクタ、1つもしくは複数のソーシャルメディア長セレクタ、または他のメディアタイプに基づく他のセレクタなどの追加セレクタに関連付けられ得る。セレクタ750〜754は、対応するメディアタイプのサイズの上限のユーザ指定に対応し得る。たとえば、ピクチャ数セレクタ750は、パッケージ化されたモーメントのデータのメディアデータに対応するピクチャ(たとえば、画像)の最大数を示すことができ、ビデオ長セレクタ752は、パッケージ化されたモーメントのデータのメディアデータに対応するビデオの最大の集められた長さを示すことができ、オーディオ長セレクタ754は、パッケージ化されたモーメントのデータのメディアデータに対応するオーディオ(たとえば、ボイスコールの録音)の最大の集められた長さを示すことができる。ファイルサイズセレクタ756は、パッケージ化されたモーメントのデータを含むファイルの最大の集められたファイルサイズのユーザ設定可能な指定を示すことができる。セレクタ750〜756の各々は、選択機構を含むことができ、類似顔セレクタ702または類似オーディオセレクタ704と同様に動作し得る。
[00116]プロセッサは、サイズ設定に従ってメディアアイテムを選択するように構成され得る。たとえば、プロセッサは、ピクチャ数セレクタ750に基づいて、特定の数の画像を選択し得る。別の例として、プロセッサは、選択されたビデオの集められた長さが、ビデオ長セレクタ752に対応する長さを超えないように、1つまたは複数のビデオを選択し得る。別の例として、プロセッサは、選択された録音の集められた長さが、オーディオ長セレクタ754に対応する長さを超えないように、1つまたは複数の録音(たとえば、ボイスコールの録音)を選択し得る。プロセッサは、選択されたメディアアイテムに関連付けられたメディアデータの集合ファイルサイズが、ファイルサイズセレクタ756に関連付けられたファイルサイズを超えないようにメディアアイテムを選択し得る。
[00117]特定の実施形態では、プロセッサは、選択されたメディアアイテムとの類似性に基づいて、各メディアアイテムに信頼性レベルを割り当てることができ、プロセッサは、サイズ設定が満たされるまで、最も高い信頼性レベルに関連付けられたメディアアイテムを選択し得る。信頼性レベルは、メディアアイテムと選択されたメディアアイテムとの間の類似性の程度に基づいて割り当てられ得、図1および図2を参照して説明したように、メトリックに基づいて決定され得る。たとえば、プロセッサは、ピクチャ数セレクタ750が10個のピクチャを示すとき、10個の最も高い信頼性レベルに関連付けられた10個のピクチャを選択し得る。代替実施形態では、プロセッサは、信頼性レベルに基づいて優先度を付けることなく、選択されたメディアアイテムに類似していると決定された最初の10個のピクチャを選択し得る。
[00118]ユーザインターフェースデバイス700はまた、受諾ボタン760と取消ボタン762とを含み得る。ボタン760および762の各々は、選択を示すためのユーザ入力に応答し得る。受諾ボタン760は、ユーザインターフェースデバイス700を介して表示されたパッケージ化されたモーメントの設定の受諾を引き起こし得る。受諾ボタン760の選択は、追加設定スクリーンへナビゲートし得、またはパッケージ化されたモーメントの設定に従ってパッケージ化されたモーメントのデータを生成させ得る。取消ボタン762は、パッケージ化されたモーメントのデータの生成を取り消し得る。
[00119]図8を参照すると、ユーザ設定可能なパッケージ化されたモーメントの設定を表示するように動作可能なユーザインターフェースデバイス800の第2の特定の実施形態が示されている。ユーザインターフェースデバイス800は、グラフィカルユーザインターフェース(GUI)を介してパッケージ化されたモーメントの設定を表示し得る。特定の実施形態では、ユーザインターフェースデバイス800は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。プロセッサ(たとえば、図1のプロセッサ104、図2のプロセッサ204、および/または図6のプロセッサ604)は、図1のメモリ106、図2のメモリ206、または図6のメモリ606などのメモリにパッケージ化されたモーメントの設定を記憶するように構成され得る。ユーザインターフェースデバイス800は、タッチスクリーンディスプレイを含み得る。パッケージ化されたモーメントの設定は、ユーザ入力に基づいて修正され得る。
[00120]ユーザインターフェースデバイス800を介して表示されるパッケージ化されたモーメントの設定は、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを取り出すための外部ソースを識別するデータソース設定を含み得る。ユーザインターフェースデバイス800は、ユーザが、選択されたメディアアイテム(たとえば、図1の第1の画像111)に類似するメディアアイテムをそこから取り出すべき1つまたは複数のデバイスまたは他のソースを指定するのを可能にする。たとえば、プロセッサは、選択されたメディアアイテムと類似していると決定された特定のメディアアイテムを、データソース設定に従って1つまたは複数のデバイスまたは他のソースから取り出すように構成され得る。特定の実施形態では、データソース設定は、近傍ネットワークウィンドウ802、ネットワークデバイスウィンドウ810、および他ソースウィンドウ820に関連付けられてよく、これらの各々は、ユーザインターフェースデバイス800を介して表示され得る。他の実施形態では、より少ないか、またはより多くのウィンドウがユーザインターフェースデバイス800を介して表示され得る。
[00121]特定の実施形態では、近傍ネットワークウィンドウ802は、ネットワークセレクタ804と、信頼できるデバイスセレクタ806と、すべてのデバイスセレクタ808とを含み得る。他の実施形態では、近傍ネットワークウィンドウ802は、より少ないか、またはより多くのセレクタを含み得る。ネットワークセレクタ804は、ユーザが、取り出されるべきメディアアイテムについてされる(queried)1つまたは複数のネットワークを選択するのを可能にする。ネットワークセレクタ804は選択機構を含み得る。特定の実施形態では、選択機構は矢印または他のボタンであり得、図7の受信者セレクタ742と同様に動作し得る。ネットワークセレクタ804は、ユーザの選択に応答して、プロセッサとユーザインターフェースデバイス800とを含むモバイルデバイスに近くモアクセス可能であるネットワークのドロップダウンリストを提供し得る。たとえば、1つまたは複数のネットワークは、モバイルデバイスのネットワークインターフェースを使って識別され得る。1つまたは複数のネットワークは、非限定的例として、ワイヤレス通信(たとえば、「wi−fi」)ネットワーク、セルラー通信ネットワーク、Bluetooth(登録商標)通信ネットワーク、RF通信ネットワーク、またはそれらの組合せを含み得る。
[00122]ユーザは、追加コンテンツについてクエリ(query)するネットワークのうちの1つまたは複数を選択し得る。図8に示す特定の例において、ユーザは、「ネットワーク1」(たとえば、プロセッサにとってアクセス可能な特定のワイヤレスネットワーク)を、ネットワークセレクタ804を介して選択し得る。この特定の例において、選択されたメディアアイテムに類似している追加メディアアイテムが、「ネットワーク1」の特定のモバイルデバイスから自動的に取り出され得る。例示のために、モバイルデバイス(たとえば、プロセッサ)は、パッケージ化されたモーメントの基準(たとえば、設定)を示すクエリを特定のモバイルデバイスに送ることができ、パッケージ化されたモーメントの基準を満たすメディアアイテムを要求し得る。クエリを受信したことに応答して、特定のモバイルデバイスは、選択されたネットワーク(たとえば、「ネットワーク1」)を介してモバイルデバイスに、パッケージ化されたモーメントの基準を満たすメディアアイテムを与えることができる。
[00123]信頼できるデバイスセレクタ806およびすべてのデバイスセレクタ808を介して、追加設定が調整され得る。信頼できるデバイスセレクタ806およびすべてのデバイスセレクタ808は選択機構を含むことができ、図7の類似顔セレクタ702または類似オーディオセレクタ704と同様に動作し得る。信頼できるデバイスセレクタ806の選択は、モバイルデバイスに、1つまたは複数のネットワークに関連付けられた各デバイスではなく、ネットワークセレクタ804に対応する、1つまたは複数のネットワークにおける信頼できるデバイスへクエリを送らせることができる。たとえば、モバイルデバイスは、モバイルデバイスをもつ信頼できるネットワークの一部である1つもしくは複数のデバイス、または以前モバイルデバイスと通信するか、もしくは認証したことがある1つもしくは複数のデバイスに、クエリを送ることができる。代替として、すべてのデバイスセレクタ808の選択は、モバイルデバイスに、ネットワークセレクタ804に対応する1つまたは複数のネットワークに関連付けられた各デバイスへクエリを送らせることができる。
[00124]ネットワークデバイスウィンドウ810は、1つまたは複数のデバイスのユーザ設定可能な指定を示すことができ、プロセッサは、メディアアイテムについて1つまたは複数のデバイスをクエリするように、および1つまたは複数のデバイスからメディアアイテムを受信するように構成され得る。デバイスのクエリを可能にするために、ネットワークデバイスウィンドウ810は、モバイルデバイスと通信するように構成された1つまたは複数のネットワークデバイスに関連付けられたセレクタを含み得る。ネットワークデバイスは、モバイルデバイスと通信するように、またはモバイルデバイスによって制御されるように構成された1つまたは複数の機器または他のデバイスを含み得る。特定の実施形態では、ネットワークデバイスウィンドウ810は、第1のデバイス(たとえば、テレビ)セレクタ812、第2のデバイス(たとえば、オーディオシステム)セレクタ814、第3のデバイス(たとえば、車)セレクタ816、および第4のデバイス(たとえば、オーブン)セレクタ818に関連付けられる。他の実施形態では、ネットワークデバイスウィンドウ810は、他のネットワークデバイスに関連付けられた、より少ないか、またはより多くのセレクタを含み得る。セレクタ812〜818は、選択機構(たとえば、チェックボックス)を含むことができ、図7の類似顔セレクタ702または類似オーディオセレクタ704と同様に動作し得る。セレクタ812〜818の選択は、モバイルデバイスに、対応するネットワークデバイスからメディアアイテムを検索させ、取り出させ得る。たとえば、図8に示すように、第1のデバイスセレクタ812および第2のデバイスセレクタ814が選択され、第3のデバイスセレクタ816および第4のデバイスセレクタ818が選択解除されると、モバイルデバイスは、第1のデバイス(たとえば、テレビ)および第2のデバイス(たとえば、オーディオシステム)から、選択されたメディアアイテムに類似しているメディアアイテムを取り出すことができる。
[00125]他ソースウィンドウ820は、他ソースセレクタ822を含み得る。他の実施形態では、他ソースウィンドウ820は、より少ないか、またはより多くのセレクタを含み得る。他ソースセレクタ822は、ユーザが、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテム用のコンテンツソースとして、1つまたは複数の他のソースを選択するのを可能にする。他ソースセレクタ822は選択機構を含み得る。特定の実施形態では、選択機構は矢印または他のボタンであり得、図7の受信者セレクタ742と同様に動作し得る。他ソースセレクタ822は、ユーザの選択に応答して、他のコンテンツソースのドロップダウンリストを提供し得る。ユーザは、ドロップダウンリストを介して1つまたは複数の他のソースを選択し得る。たとえば、図8に示すように、ユーザは音楽識別ソースを選択し得る。音楽識別ソースが選択されると、モバイルデバイスは、選択されたメディアアイテムに関連付けられた1つまたは複数の歌を決定するために、音楽識別ソースをクエリし得る。1つまたは複数の歌の識別に応答して、1つまたは複数の識別された歌を購入するためのリンクを表すデータが、パッケージ化されたモーメントのデータに含められ得る。他ソースセレクタ822を介して他のソースが選択されると、メディアアイテムまたはデータを与えるために、他のソースも同様にクエリされ得る。
[00126]ユーザインターフェースデバイス800はまた、受諾ボタン830と取消ボタン832とを含み得る。ボタン830および832の各々は、選択を示すためのユーザ入力に応答し得る。受諾ボタン830および取消ボタン832は、それぞれ、図7の受諾ボタン760および図7の取消ボタン762に対応し得、実質的に同様に動作し得る。
[00127]図9を参照すると、パッケージ化されたモーメントのデータ情報を表示するように動作可能なユーザインターフェースデバイス900の特定の実施形態が示されている。ユーザインターフェースデバイス900は、グラフィカルユーザインターフェース(GUI)を介してパッケージ化されたモーメントのデータ情報を表示し得る。特定の実施形態では、ユーザインターフェースデバイス900は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。パッケージ化されたモーメントのデータ情報は、パッケージ化されたモーメントのデータに基づいて生成され得る。たとえば、パッケージ化されたモーメントのデータが生成された後、パッケージ化されたモーメントのデータ情報が生成され、ユーザインターフェースデバイス900を介して表示され得る。プロセッサ(たとえば、図1のプロセッサ104、図2のプロセッサ204、および/または図6のプロセッサ604)は、図1のメモリ106、図2のメモリ206、または図6のメモリ606などのメモリにパッケージ化されたモーメントのデータ情報を記憶するように構成され得る。ユーザインターフェースデバイス900は、タッチスクリーンディスプレイを含み得る。パッケージ化されたモーメントのデータ情報の表示は、ユーザ入力に基づいて修正され得る。
[00128]ユーザインターフェースデバイス900を介して表示されるパッケージ化されたモーメントのデータ情報は、要約データと受信者リストデータとを含み得る。特定の実施形態では、要約データは要約ウィンドウ902により表示され得、受信者リストデータは受信者リストウィンドウ910により表示され得る。他の実施形態では、より少ないか、またはより多くのウィンドウがユーザインターフェースデバイス900を介して表示され得る。
[00129]要約ウィンドウ902は、パッケージ化されたモーメントのデータインジケータ904とサイズインジケータ906とを含み得る。パッケージ化されたモーメントのデータインジケータ904は、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムのタイプと、各タイプのメディアアイテムに対応するメディアデータの総サイズの割合とを示し得る。特定の実施形態では、パッケージ化されたモーメントのデータインジケータ904は円グラフを含み得る。本実施形態では、円グラフの各部分(たとえば、断片)は、アイコンまたは他の識別子によって示されるメディアタイプに対応する。円グラフの各部分のサイズは、識別されたメディアタイプに対応するメディアデータの総サイズの割合に基づき得、その割合を示し得る。たとえば、図9に示すパッケージ化されたモーメントのデータインジケータ904(たとえば、円グラフ)は、画像、ビデオ、ボイスコールの録音、eメール、SMSメッセージ、およびソーシャルメディアポストというメディアタイプへの、メディアデータの内訳を表示し得、それらの部分のサイズは、メディアタイプの各々に対応するメディアデータのサイズの割合を示す。他の例では、パッケージ化されたモーメントのデータインジケータ904は、異なるメディアタイプ、またはパッケージ化されたモーメントのデータのメディアデータに含まれる異なる量のメディアタイプに基づいて異なる外見を有し得る。
[00130]サイズインジケータ906は、ユーザが、パッケージ化されたモーメントのデータに関連付けられたサイズ情報を閲覧するのを可能にし得る。サイズインジケータ906は選択機構を含み得る。特定の実施形態では、選択機構は矢印または他のボタンであってよく、図7の受信者セレクタ742と同様に動作し得る。サイズインジケータ906は、サイズ情報のドロップダウンリストを提供し得る。ユーザは、選択機構を介して閲覧するために、サイズ情報の1つのある特定の要素を選択し得る。図9に示すように、サイズインジケータ906は、パッケージ化されたモーメントのデータのメディアデータに対応するピクチャ(たとえば、画像)の数を表示し得る。ビデオの集められた長さ、オーディオの集められた長さ、eメールの単語数、SMSメッセージの単語数、ソーシャルメディアポストの単語数、ソーシャルメディアポストの画像の数、パッケージ化されたモーメントのデータを含むファイルの集合ファイルサイズなど、パッケージ化されたモーメントのデータに関連付けられた他のサイズ情報が、サイズインジケータ906を介して閲覧するために選択され得る。
[00131]受信者リストウィンドウ910は、対応するデータを受信するように構成された1つまたは複数の受信者またはグループ(たとえば、ユーザのグループ)を識別し得る。受信者リストウィンドウ910は、1つまたは複数の受信者またはグループに送られるように指定されているパッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを指示されるもできる。たとえば、受信者リストウィンドウ910中の第1の指定912は、メディアデータに対応するすべてのメディアアイテムが第1の受信者グループ「家族」に送られるべきであると指示し得る。別の例として、受信者リストウィンドウ910中の第2の指定914は、選択されたメディアアイテム(たとえば、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムのサブセット)のみが、「上司」と「同僚」とを含む第2の受信者グループに送られるべきであると指示し得る。特定の実施形態では、受信者またはグループは、アドレス帳中で識別された1人または複数のユーザ(たとえば、当事者)またはグループに対応し得る。これらの指定(たとえば、第1の指定912および第2の指定914)は、図7を参照して説明したように、グラフィカルユーザインターフェースを介して調整可能であり得る。
[00132]受信者リストウィンドウ910はまた、第1の受信者グループに送られるべきパッケージ化されたモーメントのデータのファイルサイズを示す第1のファイルサイズ916と、第2の受信者グループに送られるべきパッケージ化されたモーメントのデータ(たとえば、メディアアイテムのサブセット)のファイルサイズを示す第2のファイルサイズ918とを含み得る。別の実施形態では、受信者リストウィンドウ910は、パッケージ化されたモーメントのデータのどのメディアアイテムも受信しないように構成された第3の受信者リストと、どのデータも送られるべきでないことを示す第3のファイルサイズとを含み得る。プロセッサは、パッケージ化されたモーメントのデータ、またはその一部分を、受信者リストウィンドウ910における指定に基づいて1人または複数の受信者またはグループのメンバに送信するように構成され得る。
[00133]ユーザインターフェースデバイス900はまた、受諾ボタン920と取消ボタン922とを含み得る。ボタン920および922の各々は、選択を示すためのユーザ入力に応答し得る。受諾ボタン920および取消ボタン922は、それぞれ、図7の受諾ボタン760および図7の取消ボタン762、または図8の受諾ボタン830および取消ボタン832に対応してよく、実質的に同様に動作し得る。
[00134]図10Aおよび10Bを参照すると、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを表示するように動作可能なユーザインターフェースデバイス1000の特定の実施形態が示されている。ユーザインターフェースデバイス1000は、グラフィカルユーザインターフェース(GUI)を介してメディアアイテムを表示し得る。特定の実施形態では、ユーザインターフェースデバイス1000は、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208に対応し得る。ユーザインターフェースデバイス1000は、タッチスクリーンディスプレイを含み得る。ユーザインターフェースデバイス1000は、タブ1002、1004、および1006のうちの1つにより選択された第1のメディアタイプに関連付けられたメディアアイテムを表示し得る。たとえば、第1のタブ1002はピクチャ(たとえば、画像)に関連付けられ得、第2のタブ1004はビデオに関連付けられ得、第3のタブ1006は、ボイスコールの録音などのオーディオに関連付けられ得る。他のメディアタイプに関連付けられた追加タブが、他の実施形態において表示され得、第3のタブ1006が選択されたときに表示され得る。
[00135]図10Aは、第1のタブ1002(たとえば、ピクチャタブ)が選択されているときのユーザインターフェースデバイス1000を示す。ユーザインターフェースデバイス1000は、複数の画像アイコン1010〜1026からなる表示を含み得、各々、パッケージ化されたモーメントのデータのメディアデータに対応し得る画像に対応する。画像アイコン1010〜1026の各々は、ユーザ入力に基づいて選択または選択解除され得る。
[00136]特定の画像アイコンの選択に応答して、1つまたは複数の画像アイコン1010〜1026がプロセッサ(たとえば、図1のプロセッサ104、図2のプロセッサ204、および/または図6のプロセッサ604)によって選択され得る。たとえば、第1の画像アイコン1010は、選択されたメディアアイテム(たとえば、図1の第1の画像111)に対応し得る。ユーザによる第1の画像アイコン1010の選択に応答して、選択の指示が提示され得る。特定の実施形態では、第1の画像アイコン1010の境界が、第1の画像アイコン1010の選択を示すように、ハイライトまたは(たとえば、太い線によって)強調され得る。他の実施形態では、第1の画像アイコン1010の縁は、第1の画像アイコン1010の選択を示すように、第1の色(たとえば、黒)から第2の色(たとえば、赤)に変更され得る。
[00137]第1の画像アイコン1010(たとえば、選択された画像)の選択に応答して、プロセッサは、図1を参照して説明したように、1つまたは複数の画像と選択された画像との間の類似性に基づいて1つまたは複数の画像を選択し得る。たとえば、プロセッサは、それぞれ、第2の画像と選択された画像との間の、および第3の画像と選択された画像との間の類似性に基づいて、第2の画像アイコン1018に対応する第2の画像と、第3の画像アイコン1022に対応する第3の画像とを選択し得る。第2の画像アイコン1018の縁および第3の画像アイコン1022の縁は、プロセッサによる、対応する画像の選択を示すようにハイライトまたは強調され得る。
[00138]特定の実施形態では、第2の画像アイコン1018に対応する第2の画像および第3の画像アイコン1022に対応する第3の画像は、ユーザによって選択解除され得る。1つまたは複数の画像アイコンを選択解除することによって、ユーザは、パッケージ化されたモーメントのデータのメディアデータに対応する選択されたメディアアイテムのユーザ指定サブセットを選択し得る。他の実施形態では、第2の画像アイコン1018および第3の画像アイコン1022は、第1の画像アイコン1010とは異なるやり方でハイライトまたは強調されてよく、第2の画像アイコン1018に対応する第2の画像および第3の画像アイコン1022に対応する第3の画像は、ユーザが第2の画像アイコン1018と第3の画像アイコン1022とを選択した場合、パッケージ化されたモーメントのデータに追加され得る。
[00139]ユーザインターフェースデバイス1000は、ファイルサイズ1030およびピクチャ数1032の指示も含み得る。ファイルサイズ1030は、選択されたメディアアイテムの各々(たとえば、それぞれ、第1の画像アイコン1010、第2の画像アイコン1018、および第3の画像アイコン1022に対応する第1の画像、第2の画像、および第3の画像)に基づく、パッケージ化されたモーメントのデータを含むファイルのファイルサイズを示し得る。画像アイコンが選択または選択解除されると、ファイルサイズ1030はそれに従って修正され得る。ピクチャ数1032は、選択されたピクチャ数を示し得る。たとえば、第1の画像アイコン1010に対応する第1の画像、第2の画像アイコン1018に対応する第2の画像、および第3の画像アイコン1022に対応する第3の画像が選択されると、ピクチャ数1032は、3つのピクチャが選択されていることを示し得る。画像アイコンが選択または選択解除されると、ピクチャ数1032はそれに従って修正され得る。
[00140]ユーザインターフェースデバイス1000はまた、受諾ボタン1040と取消ボタン1042とを含み得る。ボタン1040および1042の各々は、選択を示すためのユーザ入力に応答し得る。受諾ボタン1040の選択は、プロセッサに、選択された画像アイコン(たとえば、第1の画像アイコン1010、第2の画像アイコン1018、および第3の画像アイコン1022)に基づいてパッケージ化されたモーメントのデータを生成させ得る。取消ボタン1042の選択は、プロセッサに、パッケージ化されたモーメントのデータの生成を取り消させ得る。
[00141]図10Bは、第2のタブ1004(たとえば、ビデオタブ)が選択されているときのユーザインターフェースデバイス1000を示す。たとえば、第1の画像アイコン1010を選択し、第2の画像アイコン1018および第3の画像アイコン1022の選択を確認した後、ユーザは、ビデオの選択を有効にするために、第2のタブ1004を選択し得る。第2のタブ1004の選択の後、ユーザインターフェースデバイス1000は、パッケージ化されたモーメントのデータに追加され得るビデオに各々が対応する、複数のビデオアイコン1050〜1066からなる表示を含み得る。ビデオアイコン1010〜1026の各々は、ユーザ入力に基づいて選択または選択解除され得る。
[00142]画像アイコン1010〜1026と同様に、特定の画像アイコンの選択に応答して、1つまたは複数のビデオアイコン1050〜1066がプロセッサによって選択され得る。図10Aを参照して説明したように、第1の画像アイコン1010(たとえば、選択された画像)の選択に応答して、プロセッサは、図2を参照して説明したように、1つまたは複数のビデオアイコンに対応する1つまたは複数のビデオと選択された画像との間の類似性に基づいて1つまたは複数のビデオアイコンを選択し得る。たとえば、プロセッサは、それぞれ、第1のビデオと選択された画像との間の、および第2のビデオと選択された画像との間の類似性に基づいて、第1のビデオアイコン1058に対応する第1のビデオと、第2のビデオアイコン1062に対応する第2のビデオとを選択し得る。第1のビデオアイコン1058の縁および第2のビデオアイコン1062の縁は、第2の画像アイコン1018および第3の画像アイコン1022と同様に、プロセッサによる対応する画像の選択を示すようにハイライトまたは強調され得る。
[00143]1つまたは複数のビデオの選択に応答して、ファイルサイズ1030が更新されてよく、ビデオの長さ1072が表示され得る。ファイルサイズ1030は、1つまたは複数の選択されたビデオ(たとえば、それぞれ、第1のビデオアイコン1058および第2のビデオアイコン1062に対応する第1のビデオおよび第2のビデオ)のファイルサイズに基づいて更新され得る。ビデオアイコンが選択または選択解除されると、ファイルサイズ1030はそれに従って修正され得る。ビデオの長さ1072は、選択されたビデオの集められた長さを示し得る。たとえば、第1のビデオアイコン1058に対応する第1のビデオおよび第2のビデオアイコン1062に対応する第2のビデオが選択されると、ビデオの長さ1072は、1分間のビデオが選択されていることを示し得る。さらに、ファイルサイズ1030は、第1の画像、第2の画像、第3の画像、第1のビデオ、および第2のビデオのファイルサイズに基づいて、6mbを示し得る。ビデオアイコンが選択または選択解除されると、ビデオの長さ1072はそれに従って修正され得る。
[00144]ユーザインターフェースデバイス1000は、第1のタブ1002および第2のタブ1004を参照して説明したのと同様に、他のタブに対応するアイコンを表示することもできる。たとえば、ユーザインターフェースデバイス1000は、第3のタブ1006の選択に応答して、ボイスコールの録音に対応する1つまたは複数のオーディオアイコンを表示し得る。1つまたは複数のオーディオアイコンに対応する録音と、選択されたメディアアイテムとの間の類似性に基づいて、オーディオアイコンのうちの1つまたは複数がプロセッサによって選択されてよく、ユーザは、1つまたは複数の録音の選択を、ユーザ入力を介して確認または修正し得る。ユーザインターフェースデバイス1000は、他のメディアタイプの他のタブ(図示せず)に対しても同様に動作し得る。
[00145]受諾ボタン1040の選択は、プロセッサに、図10Aの選択された画像アイコン(たとえば、第1の画像アイコン1010、第2の画像アイコン1018、および第3の画像アイコン1022)ならびに図10Bの選択されたビデオアイコン(たとえば、第1のビデオアイコン1058および第2のビデオアイコン1062)に基づいてパッケージ化されたモーメントのデータを生成させ得る。取消ボタン1042の選択は、プロセッサに、パッケージ化されたモーメントのデータの生成を取り消させ得る。
[00146]図11を参照すると、類似する特徴に基づいてメディアアイテムを選択する方法1100の特定の実施形態のフローチャートが示されている。例示的な一実施形態では、方法1100は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00147]方法1100は、1102において、電子デバイスのプロセッサにおいて、電子デバイスからリモートデバイスに転送されるべきメディアアイテムのユーザの選択を受信することを含む。たとえば、図1において、プロセッサ104は、電子デバイス102から第1の画像111を転送するためのユーザの選択を、ユーザインターフェースを介して受信し得る。別の例として、図2のプロセッサ204は、電子デバイス202から第1のビデオ211を転送するためのユーザの選択を受信し得る。非限定的例として、リモートデバイスは、第2の電子デバイス(たとえば、モバイル電話、携帯情報端末、コンピュータなど)、電子メールアドレスに対応するサーバ、ソーシャルメディアウェブサイトに対応するサーバなどを含み得る。
[00148]1104において、メディアアイテムと別のメディアアイテムとをリモートデバイスに転送するのに先立って、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、別のメディアアイテムが選択され得る。たとえば、図1において、プロセッサ104は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2の画像112が第1の画像111と類似していると決定し得る。たとえば、第2の画像112と第1の画像111は、類似GPS座標、顔の特徴に対応する類似データ(たとえば、類似する顔)を有してよく、類似する時刻にキャプチャされ得る。さらに、図2において、プロセッサ204は、第1のビデオ211のメトリックと第2のビデオ212のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2のビデオ212が第1のビデオ211と類似していると決定し得る。
[00149]特定の実施形態では、方法1100は、転送されるべき別のメディアアイテムのユーザの選択、またはユーザ確認を可能にするために、電子デバイスのユーザインターフェースデバイスを介して、別のメディアアイテムの表現を与えることを含み得る。たとえば、図3において、第2の画像112は、ユーザインターフェースデバイス300を介して3次元表現でユーザに与えられ得る。ユーザは、指の接触350を使って共有セレクタ348をアクティブ化することによって、第2の画像112を転送し得る。
[00150]別の特定の実施形態では、電子デバイスは、別のメディアアイテムのユーザの選択を受信せずに、メディアアイテムと別のメディアアイテムとを転送し得る。たとえば、図1の電子デバイス102は、第2の画像112のユーザの選択を受信せずに、第1の画像111と第2の画像112とを転送し得る。
[00151]特定の実施形態では、類似性は、第1のメディアアイテムの第1の特徴と第2のメディアアイテムの第2の特徴の比較により決定される。第1の特徴を第2の特徴と比較することは、第2のメディアアイテムに対応する第2の特徴ベクトルをもつ第1のメディアアイテムに対応する第1の特徴ベクトルの間の差を決定することを含み得る。たとえば、図1において、プロセッサ104は、第1の特徴ベクトル121を第2の特徴ベクトル122と比較するのに、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)]などのアルゴリズムを使うことができ、ここでF12は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベルであり、w1は、地理的ロケーションに対応するメトリックの第1の重みであり、w2は、時刻に対応するメトリックの第2の重みであり、w3は、検出された顔の特徴に対応するメトリックの第3の重みである。プロセッサ104は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2の画像112が第1の画像111と類似していると決定し得る。
[00152]特定の実施形態では、方法1100は、画像の集合を生成するように、第1の画像ファイルを第2の画像ファイルとクラスタ化することを含む。たとえば、図1において、プロセッサ104は、画像の集合を生成するように、第1の画像111を、第2の画像112、第5の画像115、第6の画像116、またはそれらの組合せとクラスタ化し得る。別の特定の実施形態では、方法1100は、連結されたビデオを生成するために、第1のビデオファイルを第2のビデオファイルと連結することを含む。たとえば、図2において、プロセッサ204は、第1および第2のビデオ211、212を含む1つのビデオファイルを生成するように、第1のビデオ211を第2のビデオ212と連結し得る。
[00153]図12を参照すると、類似する特徴に基づいて画像を選択する方法1200の特定の実施形態が示されている。例示的な一実施形態では、方法1200は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00154]方法1200は、1202において、電子デバイスのプロセッサにおいて、第1の画像をキャプチャしたことに応答して、第1の画像の第1の特徴ベクトルを生成することを含む。たとえば、図1において、プロセッサ104は、画像センサーが第1の画像111をキャプチャしたことに応答して、第1の画像111の第1の特徴ベクトル121を生成し得る。第1の特徴ベクトル121は、第1の画像111のメトリックの値を含み得る。
[00155]第1の特徴ベクトルは、1204において、電子デバイスに記憶された第2の画像の第2の特徴ベクトルと比較され得る。たとえば、図1において、プロセッサ104は、第1の特徴ベクトル121を、メモリ106中に記憶された第2の特徴ベクトル122と比較すればよい。第2の特徴ベクトル122は、第2の画像112のメトリックの値を含み得る。特定の実施形態では、プロセッサ104は、第1の特徴ベクトル121を第2の特徴ベクトル122と比較するのに、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)]などのアルゴリズムを使うことができ、ここでF12は、第1の画像111のメトリックの値と第2の画像112のメトリックの値との間の類似のレベルであり、w1は、地理的ロケーションに対応するメトリックの第1の重みであり、w2は、時刻に対応するメトリックの第2の重みであり、w3は、検出された顔の特徴に対応するメトリックの第3の重みである。
[00156]第1の画像のメトリックの値と第2の画像のメトリックの値との間の類似のレベルが、1206においてしきい値と比較され得る。たとえば、図1において、プロセッサ104は、1204において、比較に基づいて、第1の画像111のメトリックの値と第2の画像112のメトリックの値との間の類似のレベルがしきい値を満たすかどうか決定し得る。1208において、類似のレベルがしきい値を満たすことに応答して、第2の画像は、第1の画像に類似していると決定され得る。たとえば、図1において、プロセッサ104は、第1の画像111のメトリックと第2の画像112のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2の画像112が第1の画像111と類似していると決定し得る。
[00157]特定の実施形態では、方法1200は、1210において、画像の集合を生成するように、第2の画像を第1の画像とクラスタ化することを含む。たとえば、プロセッサ104は、画像の集合を生成するように、第1の画像111を第2の画像112とクラスタ化し得る。特定の実施形態では、方法1200は、第1の画像を類似する画像とクラスタ化するための要求を生成することを含む。画像の集合は、要求への応答に基づいて生成され得る。
[00158]特定の実施形態では、方法1200は、第1の画像をキャプチャするのに先立って、第1の時間期間に第1のオーディオをキャプチャすることと、第1の画像をキャプチャした後、第2の時間期間に第2のオーディオをキャプチャすることとを含む。たとえば、図1において、電子デバイス102は、第1の画像111をキャプチャするのに先立って、第1のオーディオを一定の時間期間(たとえば、5秒間)だけキャプチャすることができ、電子デバイス102は、第1の画像111をキャプチャした後、第2のオーディオを一定の時間期間(たとえば、5秒間)だけキャプチャし得る。特定の実施形態では、第1の特徴ベクトル121におけるメトリックのうちの少なくとも1つが、第1のオーディオのオーディオ品質に対応し得、第1の特徴ベクトル121におけるメトリックのうちの少なくとも1つが、第2のオーディオのオーディオ品質に対応し得る。第1の特徴ベクトル121用のメトリックとして使われ得るオーディオ品質の非限定的例には、ピッチ、オーディオ(たとえば、デシベル)レベル、フェーズ、またはキャプチャされたオーディオの音質がある。
[00159]図13を参照すると、類似する特徴に基づいてビデオを選択する方法1300の特定の実施形態が示されている。例示的な一実施形態では、方法1300は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00160]方法1300は、1302において、電子デバイスのプロセッサにおいて、第1のビデオをキャプチャしたことに応答して、第1のビデオの第1の特徴ベクトルを生成することを含む。たとえば、図2において、プロセッサ204は、動画センサーが第1のビデオ211をキャプチャしたことに応答して、第1のビデオ211の第1の特徴ベクトル221を生成し得る。第1の特徴ベクトル221は、第1のビデオ211のメトリックの値を含み得る。
[00161]第1の特徴ベクトルは、1304において、電子デバイスに記憶された第2のビデオの第2の特徴ベクトルと比較され得る。たとえば、図2において、プロセッサ204は、第1の特徴ベクトル221を、メモリ206中に記憶された第2の特徴ベクトル222と比較すればよい。第2の特徴ベクトル222は、第2のビデオ212のメトリックの値を含み得る。特定の実施形態では、プロセッサ204は、第1の特徴ベクトル221を第2の特徴ベクトル222と比較するのに、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)]などのアルゴリズムを使うことができ、ここでF12は、第1のビデオ211のメトリックの値と第2のビデオ212のメトリックの値との間の類似のレベルであり、w1は、地理的ロケーションに対応するメトリックの第1の重みであり、w2は、時刻に対応するメトリックの第2の重みであり、w3は、検出された顔の特徴に対応するメトリックの第3の重みである。
[00162]第1のビデオのメトリックの値と第2のビデオのメトリックの値との間の類似のレベルが、1306においてしきい値と比較され得る。たとえば、図2において、プロセッサ204は、1304において、比較に基づいて、第1のビデオ211のメトリックの値と第2のビデオ212のメトリックの値との間の類似のレベルがしきい値を満たすかどうか決定し得る。1308において、類似のレベルがしきい値を満たすことに応答して、第2のビデオは、第1のビデオに類似していると決定され得る。たとえば、図2において、プロセッサ204は、第1のビデオ211のメトリックと第2のビデオ212のメトリックとの間の類似のレベル(たとえば、F12)がしきい値を満たすとき、第2のビデオ212が第1のビデオ211と類似していると決定し得る。
[00163]特定の実施形態では、方法1300は、1310において、連結されたビデオを生成するために、第2のビデオを第1のビデオと連結することを含む。たとえば、プロセッサ204は、連結されたビデオを生成するように、第1のビデオ211を第2のビデオ212と連結し得る。特定の実施形態では、方法1300は、第1のビデオ211を類似ビデオと連結するための要求を生成することを含む。連結されたビデオは、要求に応答して生成され得る。
[00164]図14を参照すると、頻繁に使われるメトリックに基づいて画像を選択する方法1400の特定の実施形態が示されている。例示的な一実施形態では、方法1400は、図1のシステム100、図2のシステム200、図6のシステム600によって、および/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10A 10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00165]方法1400は、1402において、画像センサーを含むモバイルデバイスにおいて、画像センサーを介して第1の画像をキャプチャしたことに応答して、第1の画像のメトリックを生成することを含む。たとえば、図1において、プロセッサ104は、画像センサーが第1の画像111をキャプチャしたことに応答して、第1の画像111の第1の特徴ベクトル121を生成し得る。第1の特徴ベクトル121で、第1の画像111のメトリックを識別し得る。第1の画像111の各メトリックは、第1の画像111の特定の特性に対応し得る。たとえば、メトリックは、第1の画像111の地理的ロケーション、第1の画像111がキャプチャされた時刻、第1の画像111の色成分、第1の画像111中のエッジ成分、第1の画像111中の顔、第1の画像111中のオブジェクト、第1の画像111がキャプチャされたときに電子デバイス102において検出されたワイヤレスネットワーク強度、第1の画像111がキャプチャされたときに電子デバイス102が指していた方向、第1の画像111がキャプチャされる前および/または後のオーディオ品質などに対応し得る。
[00166]特定のメトリックの重みが、1404において決定され得る。たとえば、図1では、プロセッサ104が、特定のメトリックについての重みを決定し得る。重みは、特定のメトリックの類似する値を有する画像を、類似する画像として(たとえば、グループとして)分類する履歴上の頻度に基づき得る。たとえば、ユーザが、地理的ロケーションに基づいて画像を頻繁にグループ化する場合、地理的ロケーションに対応するメトリックが、比較的重い重み(たとえば、高い値)を有し得る。代替として、ユーザが、画像がキャプチャされるときに電子デバイス102が指している方向(たとえば、北、東、南、または西)に基づいては画像をめったにグループ化しない場合、方向に対応するメトリックは、比較的軽い重み(たとえば、低い値)を有し得る。特定の実施形態では、ユーザは、各メトリックが類似する画像を決定するのに使われるかどうかと、どの程度使われるかとを選択し得る。
[00167]重みがしきい値を満たすという決定に応答して、1406において、特定のメトリックに基づいて、第1の画像に類似している少なくとも1つの他の画像が決定され得る。たとえば、図1において、類似する地理的ロケーションを有する画像をユーザが頻繁にグループ化するとプロセッサ104が決定した場合、プロセッサ104は、少なくとも1つの他の画像を決定するために、地理的ロケーションに対応するメトリックを重く重み付けし得る。
[00168]特定の実施形態では、第1のメディアアイテムをキャプチャしたことに応答して、メトリックのグループに基づいて、メディアアイテムの集合が生成され得る。たとえば、図1において、プロセッサ104は、画像センサーが第1の画像111をキャプチャしたことに応答して、メディアアイテムの集合(たとえば、第2の画像112、第5の画像115、および第6の画像116)を生成し得る。メトリックのグループは、メディアアイテムが互いに類似しているかどうかを決定するのに使われる特定のメトリックを含み得る。たとえば、メトリックのグループは、地理的ロケーションに対応するメトリック、キャプチャの時刻に対応するメトリック、および顔の特徴認識に対応するメトリックを含み得る。
[00169]各メトリックについての重みは、システムがユーザの好みを「学習」すると、ユーザの選択の履歴に基づいて更新され得る。たとえば、プロセッサ104は、第6の画像116および第5の画像115がユーザにより選択されたという指示を、ユーザインターフェースデバイス108から受信し得る。プロセッサ104は、選択されたメディアアイテム(たとえば、第6の画像116および第5の画像115)のメトリックを、第1のメディアアイテム(たとえば、第1の画像111)のメトリックと比較すればよい。たとえば、プロセッサ104は、第1のメディアアイテムと選択されたメディアアイテムとの間のどのメトリックが類似する値を有するかと、どのメトリックが、互いとはかけ離れた値を有するかとを決定し得る。特定の実施形態では、プロセッサ104は、選択されたメディアアイテム(たとえば、第6の画像116および第5の画像115)を第1のメディアアイテム(たとえば、第1の画像111)と比較するとき、キャプチャの時刻に対応するメトリックが、互いとはかけ離れた値を有すると決定し得る。さらに、プロセッサ104は、選択されたメディアアイテムを第1のメディアアイテムと比較するとき、地理的ロケーションに対応するメトリックと顔認識に対応するメトリックが類似する値を有すると決定し得る。
[00170]どのメトリックが類似しているか決定したことに応答して、プロセッサ104は、各メトリックに対応する重みを更新し得る。類似する値を有するメトリックについての重みは増大されてよく、互いとはかけ離れた値を有するメトリックについての重みは減少され得る。たとえば、特徴ベクトルを比較するためのアルゴリズム(すなわち、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)])を参照して、プロセッサ104は、地理的ロケーションに対応する第1の重みの値(w1)を増大し、時刻に対応する第2の重みの値(w2)を減少し、顔の特徴認識に対応する第3の重みの値(w3)を増大し得る。したがって、今後、システム100は、履歴上、指示されたことがあるメトリックに基づいて(ユーザの選択に基づいて)、メディアアイテムを、より高い優先度を有するものとして「積極的に」提案し得る(たとえば、メディアアイテムの集合を生成する)。たとえば、画像センサーが別の画像をキャプチャしたことに応答して、プロセッサ104は、キャプチャされた画像と類似する地理的ロケーションと、類似する顔の特徴とを有する画像の集合を生成し得る。
[00171]図15を参照すると、重み付けされた比較結果に基づいてメディアアイテムを選択する方法1500の特定の実施形態が示されている。例示的な一実施形態では、方法1500は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00172]方法1500は、1502において、電子デバイスのプロセッサにおいて、メディアアイテムの第1のユーザの選択を受信することを含む。たとえば、図1において、プロセッサ104は、第1の画像111の第1のユーザの選択を受信し得る。追加または代替として、図2において、プロセッサ204は、第1のビデオ211の第1のユーザの選択を受信し得る。
[00173]メディアアイテムのメトリックは、1504において、プロセッサにとってアクセス可能なメディアアイテムの集合中の他のメディアアイテムの対応するメトリックと比較され得る。たとえば、図1において、第1の画像111のメトリックは、メモリ106中に記憶された画像112〜117のメトリックと比較され得る。メモリ106は、プロセッサ104にとってアクセス可能であり得る。追加または代替として、図2において、第1のビデオ211のメトリックは、メモリ206中に記憶されたビデオ212〜217のメトリックと比較され得る。メモリ206は、プロセッサ204にとってアクセス可能であり得る。
[00174]1506において、重み付けされた比較結果を生成するために、記憶された重みのセットに基づいて、メトリックのうちの1つまたは複数に重み付けが適用され得る。たとえば、図1において、第1の重み付けされた比較結果を生成するために、記憶された重みのセットに基づいて、第1の重み(w1)が、第1の画像111のGPS座標と第2の画像112のGPS座標との間の正規化された差(たとえば、g(IMG1)−g(IMG2))に適用され得る。さらに、第2の重み付けされた比較結果を生成するために、記憶された重みのセットに基づいて、第2の重み(w2)が、第1の画像111がキャプチャされた時刻と第2の画像112がキャプチャされた時刻との間の正規化された差(たとえば、t(IMG1)−t(IMG2))に適用され得る。第3の重み付けされた比較結果を生成するために、記憶された重みセットに基づいて、第3の重み(w3)が、第1の画像111中の顔の特徴に対応するデータと、第2の画像112中の顔の特徴に対応するデータとの間の正規化された差(たとえば、f(IMG1)−f(IMG2))に適用され得る。
[00175]1508において、重み付けされた比較結果に基づいて、他のメディアアイテムのうちの1つまたは複数が選択され得る。たとえば、第2の画像112が、第1、第2、および第3の重み付けされた比較結果に基づいて選択され得る。プロセッサ104は、比較結果に基づいて、第2の画像112が第1の画像111に類似していると決定し得る。たとえば、第2の画像112と第1の画像111は、類似GPS座標、顔の特徴に対応する類似データ(たとえば、類似する顔)を有し得、類似する時刻にキャプチャされ得る。
[00176]特定の実施形態では、方法1500は、選択された他のメディアアイテムを示すグラフィック表現を生成することを含む。たとえば、図1において、プロセッサ104は、第2の画像112が第1の画像111に類似していることを示すためのグラフィック表現を生成し得る。ユーザインターフェースデバイス108は、グラフィック表現を表示し得る。
[00177]特定の実施形態では、方法1500は、選択された他のメディアアイテムのうちの1つまたは複数の、第2のユーザの選択を受信することを含む。たとえば、図1において、プロセッサ104は、第6の画像116の第2のユーザの選択を受信し得る。プロセッサ104は、第2のユーザの選択に基づいて、記憶された重みのセットを修正し得る。たとえば、第6の画像116が、第1の画像111中の類似する顔の特徴に対応するデータを含むので、プロセッサ104は、第3の重みの値(w3)(たとえば、検出された顔の特徴に対応する重み)を増大し得る。さらに、第6の画像116および第1の画像111は地理的に離れているので、プロセッサ104は、第1の重みの値(w1)(たとえば、地理的ロケーションに対応する重み)を減少し得る。
[00178]図16を参照すると、選択されたメディアアイテムとの類似性に基づいて1つまたは複数の他のメディアアイテムを選択する方法1600の特定の実施形態が示されている。例示的な一実施形態では、方法1600は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00179]方法1600は、1602において、第1のメディアタイプを有するメディアアイテムの第1のユーザの選択を受信することを含み得る。たとえば、図6において、ユーザは、ユーザインターフェースデバイス608を介して第1の画像111を選択することができ、プロセッサ604は、第1の画像111の選択を受信し得る。
[00180]1604において、別のメディアアイテムのタイムスタンプ、別のメディアアイテムに関連付けられた地理的ロケーション、または別のメディアアイテムに関連付けられたテキスト情報のうちの少なくとも1つに基づいて、別のメディアタイプを有する別のメディアアイテムが選択され得る。たとえば、図6において、プロセッサ604は、第2のビデオ212の地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を識別するメトリックに基づいて、および第2のビデオ212がキャプチャされた時刻(たとえば、午後3:00頃)を識別するメトリックに基づいて、第2のビデオ212を選択し得る。プロセッサ604は、第5の画像115の地理的ロケーション(たとえば、ニューヨーク州ニューヨーク市)を識別するメトリックに基づいて、第5の画像115を選択してもよい。
[00181]1606において、ユーザインターフェースから受信されたファイル転送命令が論理グループ中のすべてのメディアアイテムに適用されることを可能にするように、メディアアイテムと別のメディアアイテムとを含む、メディアアイテムの論理グループが生成され得る。たとえば、図6において、プロセッサ604は、第1の画像111と、第2のビデオ212と、第5の画像115とを含むメディアアイテムの論理グループを生成し得る。ユーザが、第1の画像111を転送することを選んだ場合、プロセッサ604は、第2のビデオ212および第5の画像115に対するファイル転送命令も有効にし得る。特定の実施形態では、メディアアイテムの論理グループは、ジップ化ファイルに含められ、リモートソースに転送され得る。
[00182]特定の実施形態では、別のメディアアイテムを選択することは、ソーシャルメディアポスティングのアーカイブにアクセスすることと、タイムスタンプ、地理的ロケーション、またはテキスト情報のうちの少なくとも1つに対応するソーシャルメディアポスティングを選択することとを含み得る。たとえば、図6において、プロセッサ604は、第1および第3のメッセージ613、615のタイムスタンプ、地理的ロケーション、またはテキスト情報に基づいて、第1のメッセージ613、第3のメッセージ615、またはそれらのどの組合せも選択し得る。
[00183]特定の実施形態では、別のメディアアイテムを選択することは、メディアアイテムのソーシャルメディア共有イベントのカウントをしきい値と比較することを含み得る。たとえば、図6において、プロセッサ604は、第3のメッセージ615のソーシャルメディア共有イベント(たとえば、いいね、コメント、共有、リツイートなど)のカウントをしきい値と比較したこと、およびソーシャルメディア共有イベントのカウントがしきい値を満たすと決定したことに応答して、第3のメッセージ615を選択し得る。
[00184]特定の実施形態では、方法1600は、テキスト情報を求めてウェブ検索を実施することを含み得る。たとえば、図6において、プロセッサ604は、第1の画像111に関連したテキスト情報を求めて複数のウェブページを検索すればよい。最上位検索結果に対応するウェブページは、論理グループに含められ得る。
[00185]図17を参照すると、選択されたメディアアイテムとの類似性に基づいて1つまたは複数の他のメディアアイテムを選択する方法1700の特定の実施形態が示されている。例示的な一実施形態では、方法1700は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00186]方法1700は、1702において、メディアコンテンツをキャプチャすることを含み得る。たとえば、図1の電子デバイス102の画像センサーが第1の画像111をキャプチャすることができ、および/または図2の電子デバイス202の動画センサーが第1のビデオ211をキャプチャし得る。メディアコンテンツがキャプチャされた後、1704において、バックグラウンドプロセスが、図18を参照してさらに詳しく説明するように、メディアコンテンツの分類を開始し得る。たとえば、図1において、プロセッサ104が、電子デバイス102の画像センサーが第1の画像111をキャプチャしたことに応答して、第1の画像111のメトリックを生成し始め得る。別の例として、図2において、プロセッサ204が、電子デバイス202の動画センサーが第1のビデオ211をキャプチャしたことに応答して、第1のビデオ211のメトリックを生成し始め得る。
[00187]特定の実施形態では、方法1700は、1706において、メディアコンテンツがキャプチャされる前および後に、オーディオをキャプチャすることを含み得る。たとえば、図1において、電子デバイス102は、第1の画像111をキャプチャするのに先立って、第1のオーディオを一定の時間期間(たとえば、5秒間)だけキャプチャすることができ、電子デバイス102は、第1の画像111をキャプチャした後、第2のオーディオを一定の時間期間(たとえば、5秒間)だけキャプチャし得る。別の例として、電子デバイス102においてカメラアプリケーションが起動されると、オーディオレコーダも起動され得る。最も直近に記録されたオーディオ信号のバッファ(たとえば、5秒間のバッファ)が、画像キャプチャ動作が開始されるまで維持および更新され得る。画像キャプチャに応答して、画像キャプチャに先立つ5秒の期間に対応するバッファリングされたオーディオデータが処理(たとえば、フィルタリング、圧縮など)され、記憶され得る。また、画像キャプチャの後、オーディオ信号が記録され、処理され、記憶され得る。特定の実施形態では、1708において、オーディオはメタデータとして記憶され得る。たとえば、図1において、第1の特徴ベクトル121におけるメトリックのうちの少なくとも1つが、第1のオーディオのオーディオ品質に対応し得、第1の特徴ベクトル121におけるメトリックのうちの少なくとも1つが、第2のオーディオのオーディオ品質に対応し得る。
[00188]方法1700は、1710において、キャプチャされたメディアコンテンツを共有するための命令を受信することも含み得る。たとえば、図1において、電子デバイス102は、第1の画像111を転送するための(たとえば、第1の画像111をリモートデバイスに転送するための)ユーザの選択を検出し得る。特定の実施形態では、第1の画像111は、電子メールを介して転送され、ソーシャルメディアウェブサイト上で共有され、ショートメッセージサービス(SMS)メッセージを使って転送され、1つもしくは複数の他の転送機構に従って転送されるか、またはそれらのいずれの組合せも行われ得る。特定の実施形態では、第1の画像111は、図21を参照してさらに詳しく説明するように、コンピュータに転送され(たとえば、同期され)得る。キャプチャされたメディアコンテンツを転送する(たとえば、共有する)ためのユーザの選択を検出したことに応答して、1704において開始されたバックグラウンドプロセスが完了したかどうかに関して、1712において決定が行われる。たとえば、図1のプロセッサ104が、第1の画像111のメトリックのセットの生成を完了し、第1の特徴ベクトル121を完成したかどうかの決定が行われ得る。別の例として、図2のプロセッサ204が、第1のビデオ211のメトリックのセットの生成を完了し、第1の特徴ベクトル221を完成したかどうかの決定が行われ得る。
[00189]バックグラウンドプロセスが完了していないと決定された場合、1714において、ユーザが、プロセッサ(たとえば、図1のプロセッサ104または図2のプロセッサ204)がバックグラウンドプロセスを完了するのを待つことを望むかどうかを決定するための入力要求が生成され得る。特定の実施形態では、推定待機時間が、ユーザインターフェースデバイス(たとえば、図1のユーザインターフェースデバイス108または図2のユーザインターフェースデバイス208)により与えられ得る。ユーザが待たないと決定したという指示が受信された場合、1726において、キャプチャされたメディアコンテンツがアップロードされ得る。たとえば、図1において、第1の画像111は、第1の特徴ベクトル121の生成の完了に先立って、およびアップロードする類似する画像を提案せずに、ソーシャルメディアサイトにアップロードされ、電子メールを介して転送され、コンピュータに同期され、またはそれらのいずれの組合せも行われ得る。代替として、ユーザが待つことに決定したという指示が受信された場合、方法1700は1712に戻る。
[00190]1712において、バックグラウンドプロセスが完了したと決定された場合、プロセッサは、1716においてユーザ設定を割り当てる。たとえば、図1において、プロセッサ104は、第1の画像111の第1の特徴ベクトル121を第2の画像112の第2の特徴ベクトル122と比較するヒューリスティック関数(たとえば、F12=w1*Norm1[g(IMG1)−g(IMG2)]+w2*Norm2[t(IMG1)−t(IMG2)]+w3*Norm3[f(IMG1)−f(IMG2)])に重みを割り当て得る。特定の実施形態では、第1の重みの値(w1)、第2の重みの値(w2)、および第3の重みの値(w3)はユーザに選択され得る。たとえば、ユーザインターフェースが、各重みの値を調整するための、指の接触に応答するスライダを含み得る。別の特定の実施形態では、各重みの値は、グループ化されるべきメディアアイテムの履歴上のユーザの選択に基づき得る。たとえば、プロセッサは、他の側面(たとえば、キャプチャ時における色コンテンツまたは環境オーディオ特性)による類似性と比較した地理的ロケーション、時刻、および/または顔の特徴に従って類似しているメディアアイテムを、ユーザが通常はグループ化していると決定し得る。ユーザ設定は、1716において、共有されるべきメディアアイテムの数に対する制限を定義することもできる。たとえば、制限は、データプランおよび/またはデータプランに関連付けられたコストに基づき得る。制限は、代替または追加として、メディアアイテムのファイルサイズまたはメディア共有のデータ制限(たとえば、電子メールアカウント向けのデータ制限)に基づき得る。
[00191]ユーザ設定が割り当てられた後、1718において、メディア構築のための1つまたは複数のオプションが提案され得る。たとえば、図1のプロセッサ104が、ユーザ設定およびヒューリスティック関数に基づいて、第1の画像111との類似する画像を提案し得る。特定の実施形態では、提案されたメディアアイテム(たとえば、サムネイル画像)の指示が構築され、図1〜図2のユーザインターフェースデバイス108〜208、図3〜図5のユーザインターフェースデバイス300〜500、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、またはそれらの任意の組合せなどのユーザインターフェースデバイスを介してユーザに提示され得る。別の実施形態では、提案されたメディアアイテムは、自動的に組み合わされ、音楽を伴うスライドショーとして、ユーザインターフェースを介して提示され得る。たとえば、図1において、プロセッサ104は、画像の集合を生成するように、第2の画像112と、第5の画像115と、第6の画像116とを選択し、組み合わせることができる。プロセッサ104は、デフォルトのオーディオファイルを選択し、画像112、115、115を伴うスライドショーを生成し、デフォルトのオーディオファイルを再生すると同時に、ユーザインターフェースデバイス108を介してスライドショーを提示し得る。
[00192]選択のユーザ編集の指示が、1720において受信され得る。たとえば、図3〜図5のユーザインターフェースデバイス300〜500を参照して説明したように、ユーザは、各画像に関連付けられた(たとえば、その近くにある)チェックボックスをアクティブ化または非アクティブ化することによって、表示画像112〜117を選択または選択解除し得る。選択は、1722において組み合わされ、1724において、ユーザによる検討を可能にするようにユーザインターフェースデバイスを介して提示され得る。提示された選択で進むための指示を受信した後、メディアアイテムは、1726において共有され得る。
[00193]1726において、メディアアイテムは、電子メールを介して共有され、ソーシャルメディアウェブサイト上で共有され、ショートメッセージサービス(SMS)メッセージを使って転送され、1つもしくは複数の他の転送機構に従って転送されるか、またはそれらのどの組合せが行われてもよい。特定の実施形態では、メディアアイテムは、図16を参照してさらに詳しく説明したように、コンピュータに転送され(たとえば、同期され)得る。
[00194]図18を参照すると、メディアアイテム用の特徴ベクトルを生成する方法1800の特定の実施形態が示されている。例示的な一実施形態では、方法1800は、図1のシステム100、図2のシステム200、図6のシステム600、またはそれらの任意の組合せを使用して実施され得る。たとえば、方法1800は、図1〜図2のプロセッサ104、204、図6のプロセッサ604、図10Aおよび図10Bのユーザインターフェースデバイス1000、またはそれらの任意の組合せのうちの1つまたは複数によって、メディアアイテムの特徴ベクトルを生成するように実施され得る。
[00195]方法1800は、1802において、メディアアイテムにメモリを割り振ることを含み得る。たとえば、図1の電子デバイス102の画像センサーが第1の画像111をキャプチャしたことに応答して、プロセッサ104は、メモリ106の一部分を、第1の画像111に、および第1の画像111に関連付けられた第1の特徴ベクトル121に割り振ることができる。別の例として、図2の電子デバイス202の動画センサーが第1のビデオ211をキャプチャしたことに応答して、プロセッサ204は、メモリ206の一部分を、第1のビデオ211に、および第1のビデオ211に関連付けられた第1の特徴ベクトル221に割り振ることができる。
[00196]方法1800は、1804において、メディアコンテンツのキャプチャに関連付けられたユーザを決定することも含み得る。たとえば、図1において、プロセッサ104は、ユーザの顔の画像を取得するのに電子デバイス102の背面画像センサーを使うことによって、第1の画像111のキャプチャに関連付けられたユーザを決定し得る。プロセッサ104は、ユーザが識別または認識され得るかどうかを決定するために、ユーザの顔の画像を、記憶された顔検出データと比較すればよい。代替として、ログインプロセスにおいて取得されたユーザ証明が使われ得る。ユーザ証明は、声の認識、ユーザ名およびパスワードなどを含み得る。
[00197]方法1800は、1806において、キャプチャされたメディアコンテンツにタイムスタンプを付加することも含み得る。たとえば、図1において、プロセッサ104は、第1の画像111に対応する第1のメトリックに、第1の画像111がキャプチャされた時刻(たとえば、2002年8月31日の午後3:00)に対応するタイムスタンプを付加し得る。プロセッサ104は、電子デバイス102の内部のクロックにアクセスし、クロックから時刻と日付とを決定し得る。プロセッサ104は、時刻および日付に基づいて、第1のメトリックに付加し得る。方法1800は、1808において、メディアコンテンツの持続時間を決定することも含み得る。たとえば、図2において、プロセッサ204は、第1のビデオ211の録画を開始するための指示に応答して、電子デバイス202のタイマに対するスタートを開始すること、および第1のビデオ211の録画を停止するための指示に応答して、タイマに対する停止を開始することによって、第1のビデオ211が、2分11秒(たとえば、2:11)の持続時間を有すると決定し得る。第1のビデオ211の持続時間は、第1の特徴ベクトル221のメトリックとして含められ得る。
[00198]方法1800は、1810において、メディアコンテンツのロケーションを決定することも含み得る。たとえば、図1において、プロセッサ104は、電子デバイス102のGPSセンサーをクエリすること、ならびに電子デバイス102のロケーション(たとえば、緯度および経度)を示すデータをGPSセンサーから受信することによって、第1の画像111のGPS座標を決定し得る。電子デバイス102のロケーションは、第1の画像111がキャプチャされたロケーションに対応し得る。特定の実施形態では、プロセッサ104は、第1の画像111がキャプチャされたときに電子デバイス102において検出された1つまたは複数のワイヤレスネットワーク(たとえば、Wifi)の識別子と信号強度とを決定し得る。たとえば、低い強度は、屋外でキャプチャされる第1の画像111と互いに関係があり得、高い強度は、屋内でキャプチャされる第1の画像111と互いに関係があり得る。別の特定の実施形態では、プロセッサ104は、アクセスポイントに対する距離を決定するために、電子デバイス102のアンテナを介して受信されたワイヤレス信号の信号強度を決定し得る。強い信号は、電子デバイス102がアクセスポイントに比較的接近していることを示し得、より弱い信号は、電子デバイス102がアクセスポイントから比較的離れていることを示し得る。第1の画像111がキャプチャされたロケーションは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00199]方法1800は、1812において、顔認識プロセスを実施することも含み得る。たとえば、図1において、プロセッサ104は、Viola−Jonesタイプのオブジェクト検出フレームワークを使うことによって、第1の画像111中の顔を検出し得る。特定の実施形態では、プロセッサは、メディアアイテムと関係した顔のサイズに基づいて、顔を検出し得る。たとえば、図1において、第1の顔および第2の顔が第1の画像111のサイズに対して比較的大きいので、プロセッサ104は、第1の顔(たとえば、男性プレーヤ)と第2の顔(たとえば、女性プレーヤ)とを検出し得る。ただし、プロセッサ104は、電力消費を削減するため、低解像度による偽の結果を削減するため、およびユーザにとって特に関心がないであろう前景ではない顔に関連付けられたデータの量を削減するために、第1の画像111中のより小さい顔(たとえば、群衆の中の顔)に対する顔検出を控え得る。第1の画像111中の検出および/または認識された顔に対応するデータは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00200]方法1800は、1814において、メディアアイテム中で検出された1つまたは複数の顔に対して感情の決定操作を実施することも含み得る。たとえば、図1において、プロセッサ104は、第1の画像111中の検出された顔が、満足、笑み、悲しみ、怒りなどを表すものとして評価されるか決定するための1つまたは複数のフィルタまたはプロセスを適用し得る。特定の実施形態では、プロセッサ104は、第1の画像111に関連付けられた感情コンテキストを決定するために、顔の特徴(たとえば、歯、顔の様子など)、音(たとえば、笑い声、怒鳴り声など)、またはそれらのどの組合せも調べることができる。感情コンテキストに対応するデータは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00201]方法1800は、1816において、メディアアイテムのオーディオプロファイルを決定することも含み得る。たとえば、図2において、プロセッサ204は、第1のビデオ211中の音の平均標準偏差を決定し、第1のビデオ211の音ヒストグラムを生成し、第1のビデオ211中の特定の音(たとえば、笑い声、泣き声など)を分類し、またはそれらのどの組合せも行うことができる。オーディオプロファイルに対応するデータは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00202]方法1800は、1818において、メディアアイテムの色ヒストグラムを生成することも含み得る。たとえば、図1において、プロセッサ104は、第1の画像111にわたる色範囲のリスト中の特定の色成分を有する、第1の画像111中のピクセルの数を決定することによって、第1の画像111の色ヒストグラムを生成し得る。ヒストグラムは、色成分がどれだけ頻繁に第1の画像111内で提示されるか(たとえば、何個のピクセルが色成分を含むか)に基づき得る。第1の画像111中の各異なる色成分に対して、カウントが生成され得る。色ヒストグラムに対応するデータは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00203]方法1800は、1820において、1つまたは複数のカメラパラメータを決定することも含み得る。たとえば、図1において、プロセッサ104は、電子デバイス102の画像センサーのオートフォーカス設定に対応する値、画像センサーの自動ホワイトバランス設定に対応する値、画像センサーの自動露出設定に対応する値、またはそれらのどの組合せも決定し得る。カメラパラメータに対応するデータは、第1の特徴ベクトル121のメトリックとして含められ得る。
[00204]方法1800は10個のメトリックを示しているが、他の実施形態では、10個よりも少ないメトリックまたは10個よりも多いメトリックが決定され得る。また、方法1800は、メトリック決定の特定の順序を示しているが、他の実施形態では、異なる順序が使われてよく、および/または2つ以上のメトリックが並行して生成され得る。
[00205]方法1800は、1822において、メディアアイテムをキャプチャするのに先立って、類似的な特性を有する何個のショットがキャプチャされたかを決定することも含み得る。たとえば、図1において、プロセッサ104は、電子デバイス102の画像センサーが第1の画像111をキャプチャするのに先立って、何個の(第1の画像111との類似メトリック値を有する)画像がとられたかを決定し得る。特定の実施形態では、画像の数がしきい値を満たす場合、プロセッサ104は、第1の画像111が特に重要であると決定し得る。
[00206]図19を参照すると、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを選択する方法1900の特定の実施形態が示されている。例示的な一実施形態では、方法1900は、図1のシステム100、図2のシステム200、図6のシステム600によって、ならびに/もしくは図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図7のユーザインターフェースデバイス700、図8のユーザインターフェースデバイス800、図9のユーザインターフェースデバイス900、図10Aおよび図10Bのユーザインターフェースデバイス1000とともに、またはそれらのどの組合せによっても実施され得る。
[00207]方法1900は、1902において、モバイルデバイスにおいて、モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信することを含む。たとえば、図6において、プロセッサ604は、第1の画像111の第1のユーザの選択を受信し得る。特定の実施形態では、リモートデバイスは、第2のモバイルデバイス、コンピュータ、またはサーバを含み得る。
[00208]方法1900は、1904において、モバイルデバイスによって、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択することを含む。たとえば、図6において、プロセッサ604は、第1の画像111と第2のビデオ212との間の類似性に基づいて第2のビデオ212を選択し得る。
[00209]方法1900は、モバイルデバイスによって、リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成することをさらに含む。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。たとえば、図6において、プロセッサ604は、第1の画像111と第2のビデオ212とを含むメディアアイテムの論理グループに関連付けられたメディアデータを含むパッケージ化されたモーメントのデータを生成するように構成され得る。特定の実施形態では、複数のメディアアイテムは、モバイルデバイスにおけるボイスコールの録音、電子メールメッセージ、SMSメッセージ、またはソーシャルメディアポストの画像のうちの少なくとも1つを含み得る。
[00210]特定の実施形態では、第1のメディアアイテムとの第2のメディアアイテムの類似性は、ユーザ設定可能なパッケージ化されたモーメントの設定に基づいて決定され得る。たとえば、第1のメディアアイテムとの第2のメディアアイテムの類似性は、図7の類似性の設定に基づいて決定され得る。ユーザ設定可能なパッケージ化されたモーメントの設定は、特定の特性の選択を示し得る。第1のメディアアイテムとの第2のメディアアイテムの類似性は、第2のメディアアイテムの特定の特性と、第1のメディアアイテムの特定の特性との類似性に少なくとも部分的に基づき得る。たとえば、図7において、第1のメディアアイテムとの第2のメディアアイテムの類似性は、類似顔セレクタ702、類似オーディオセレクタ704、類似ロケーションセレクタ706、類似時刻セレクタ712、またはそれらの組合せの選択によって示される1つまたは複数の特性に少なくとも部分的に基づいて決定され得る。
[00211]特定の実施形態では、方法1900は、モバイルデバイスによって、モバイルデバイスのしきい値近傍内にある別のモバイルデバイスから第2のメディアアイテムを取り出すことをさらに含む。第2のメディアアイテムは、他のモバイルデバイスにクエリを送ったことに応答して取り出され得る。クエリは、パッケージ化されたモーメントの基準を示すことができ、パッケージ化されたモーメントの基準を満たすメディアアイテムを要求し得る。たとえば、図8において、ネットワークセレクタ804を介して選択されたネットワークのモバイルデバイスに、クエリが送られ得る。
[00212]特定の実施形態では、方法1900は、パッケージ化されたモーメントのデータを生成した後、モバイルデバイスにおいて受信者表示ウィンドウを提示することをさらに含む。たとえば、ユーザインターフェースデバイス900が受信者リストウィンドウ910を提示し得る。受信者表示ウィンドウは、特定のユーザに送られることを指定されている、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムを示し得る。方法1900は、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムのサブセットを、受信者表示ウィンドウ中のメディアアイテムの指定に基づいて特定のユーザに送ることをさらに含み得る。たとえば、図9において、メディアアイテムのサブセットに関連付けられたメディアデータが、メディアアイテムの第1の指定912および/またはメディアアイテムの第2の指定914に基づいて、特定のユーザに送られ得る。受信者表示ウィンドウ中での指定は、グラフィカルユーザインターフェース(GUI)を介して調整可能であり得る。たとえば、メディアアイテムの第1の指定912およびメディアアイテムの第2の指定914は、表示される図9のユーザインターフェースデバイス900を介してGUIによって調整可能であり得る。
[00213]特定の実施形態では、方法1900は、パッケージ化されたモーメントのデータを生成した後、モバイルデバイスにおいて要約ウィンドウを提示することをさらに含む。たとえば、ユーザインターフェースデバイス900が要約ウィンドウ902を提示し得る。要約ウィンドウは、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムのタイプを示す。たとえば、要約ウィンドウ902のパッケージ化されたモーメントのデータインジケータ904は、パッケージ化されたモーメントのデータのメディアデータに対応するメディアアイテムのタイプを示すことができる。
[00214]図20を参照すると、モバイルデバイスの特定の例示的な実施形態のブロック図が示されており、全体が2000で指定されている。デバイス2000は、メモリ2032に結合されたデジタル信号プロセッサ(DSP)などのプロセッサ2010を含む。説明のための例において、プロセッサ2010は、キャプチャされた画像の画像特徴を識別するように構成された画像処理論理2064を含む。たとえば、プロセッサ2010は、図1のプロセッサ104または図2のプロセッサ204に対応し得る。プロセッサ2010は、図11〜図19の方法1100〜1900を実施するように動作可能であり得る。特定の実施形態では、メモリ2032は、命令2060を含む非一時的コンピュータ可読媒体である。プロセッサ2010は、図11〜図19の方法1100〜1900のうちの1つまたは複数を実施するために、メモリ2032中に記憶された命令2060を実行するように構成され得る。
[00215]特定の実施形態では、プロセッサ2010は、プロセッサ2010に、モバイルデバイス(たとえば、モバイルデバイス2000)からリモートデバイスに転送された第1のメディアアイテムの選択を受信させるように実行可能な、メモリ2032などの非一時的コンピュータ可読媒体に記憶されたコンピュータ実行可能命令2060を実行するように構成され得る。たとえば、プロセッサ2010は、第1の画像111のユーザの選択を受信し得る。命令2060は、プロセッサ2010に、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択させるように実行可能であり得る。たとえば、プロセッサ2010は、第2のビデオ212と第1の画像111との類似性に基づいて第2のビデオ212を選択し得る。命令2060は、プロセッサ2010にさらに、リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成させるように実行可能できる。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。
[00216]特定の実施形態では、命令2060は、プロセッサ2010にさらに、連結されたビデオを生成するために第1のビデオと第2のビデオとを連結させるように実行可能であり得る。連結されたビデオは、パッケージ化されたモーメントのデータのメディアデータに対応し得る。たとえば、メディアデータは、図2を参照して説明したように、第1のビデオ211と第2のビデオ212とを連結することによって生成された連結されたビデオのファイルに関連付けられ得る。
[00217]別の実施形態では、命令2060は、プロセッサ2010にさらに、GUIの第1のウィンドウにより受信されたユーザ入力に基づいて、第1のメディアタイプのメディアアイテムを選択するための、およびGUIの第2のウィンドウにより受信されたユーザ入力に基づいて、第2のメディアタイプのメディアアイテムを選択するためのグラフィカルユーザインターフェース(GUI)をディスプレイにおいて生成させるように実行可能であり得る。パッケージ化されたモーメントのデータのメディアデータは、第1のメディアタイプおよび第2のメディアタイプのメディアアイテムに関連付けられ得る。たとえば、図10Aおよび図10Bにおいて、第1のメディアタイプのメディアアイテムが、第1のタブ1002(たとえば、ピクチャタブ)に関連付けられた第1のウィンドウにより受信されたユーザ入力に基づいて選択され得、第2のメディアタイプのメディアアイテムが、第2のタブ1004(たとえば、ビデオタブ)に関連付けられた第2のウィンドウにより受信されたユーザ入力に基づいて選択され得る。GUIの第1のウィンドウは、第1のメディアアイテムに類似する画像を含み得、GUIの第2のウィンドウは、第1のメディアアイテムに類似するビデオを含み得る。たとえば、図10Aおよび図10Bにおいて、第1のウィンドウは、それぞれ、(第1の画像アイコン1010に対応する)第1の画像111に類似している第2の画像および第3の画像に対応する第2の画像アイコン1018と第3の画像アイコン1022とを含み得、第2のウィンドウは、それぞれ、第1の画像111に類似している第1のビデオおよび第2のビデオに対応する第1のビデオアイコン1058と第2のビデオアイコン1068とを含み得る。
[00218]別の説明のための例において、メモリ2032は、カメラ2070によってキャプチャされた画像を記憶し得る。カメラ2070は、図1を参照して説明した画像センサー、図2を参照して説明した動画センサー、またはそれらの組合せに対応し得る。たとえば、カメラ2070は、メディアアイテム(たとえば、図1の画像121〜117、図2のビデオ211〜217、またはそれらの任意の組合せ)をキャプチャすることができ、メモリ2032は、メディアアイテムのうちの1つまたは複数を記憶し得る。メモリ2032はまた、図1の特徴ベクトル121〜127、図2の特徴ベクトル221〜227、またはそれらのどの組合せも記憶し得る。
[00219]図20は、また、プロセッサ2010とディスプレイ2028とに結合されたディスプレイコントローラ2026を示す。ディスプレイ2028は、図1のユーザインターフェースデバイス108、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図7のユーザインターフェースデバイス700、図8のユーザインターフェースデバイス800、図9のユーザインターフェースデバイス900、図10Aおよび図10Bのユーザインターフェースデバイス1000、またはそれらのどの組合せにも対応し得る。コーダ/デコーダ(コーデック)2034もプロセッサ2010に結合され得る。スピーカ2036およびマイクロフォン2038がコーデック2034に結合され得る。特定の実施形態では、マイクロフォン2038は、カメラ2070が図1の第1の画像111などの画像をキャプチャするのに先立って、および画像をキャプチャした後、オーディオをキャプチャするように構成され得る。マイクロフォン2038は、カメラ2070が図2の第1のビデオ211などのビデオをキャプチャする間、オーディオをキャプチャするようにも構成され得る。アンテナ2042およびワイヤレスコントローラ2040を介して受信されたワイヤレスデータがプロセッサ2010に与えられ得るように、ワイヤレスコントローラ2040が、プロセッサ2010に、およびアンテナ2042に結合され得る。
[00220]特定の実施形態では、プロセッサ2010、ディスプレイコントローラ2026、メモリ2032、コーデック2034、およびワイヤレスコントローラ2040は、システムインパッケージまたはシステムオンチップデバイス2022中に含まれる。特定の実施形態において、入力デバイス2030および電源2044は、システムオンチップデバイス2022に結合される。デバイス2022がタッチスクリーンを含む説明のための例において、ディスプレイ2028と入力デバイス2030は少なくとも部分的に統合され得る。特定の一実施形態では、図20に示されたように、ディスプレイ2028、入力デバイス2030、スピーカ2036、マイクロフォン2038、アンテナ2042、電源2044、およびカメラ2070は、システムオンチップデバイス2022の外部にある。しかしながら、ディスプレイ2028、入力デバイス2030、スピーカ2036、マイクロフォン2038、アンテナ2042、電源2044、およびカメラ2070の各々は、インターフェースまたはコントローラなどのシステムオンチップデバイス2022の構成要素に結合し得る。
[00221]説明した実施形態に関連して、転送されるべきメディアアイテムのユーザの選択を受信するための手段を含む装置が開示される。たとえば、メディアアイテムのユーザの選択を受信するための手段は、図1のプロセッサ104、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、ユーザの選択を受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、ユーザインターフェースにおけるユーザ操作(たとえば、選択)に応答して生成されたユーザの選択を示す信号を受信し得る。
[00222]装置は、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、別のメディアアイテムを選択するための手段も含み得る。たとえば、別のメディアアイテムを選択するための手段は、図1のプロセッサ104、図1のメモリ106、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のメモリ206、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、別のメディアアイテムを選択するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、メディアアイテムのメトリックの値を別のメディアアイテムのメトリックの値と比較すること、および比較によって類似性のしきい値が満たされるかどうかを決定することによって、その、ある類似性(たとえば、F12)を算出し得る。
[00223]装置は、第1の画像の第1の特徴ベクトルを生成するための手段も含み得る。たとえば、第1の特徴ベクトルを生成するための手段は、図1のプロセッサ104、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1の特徴ベクトルを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、604、2010は、図18の方法1800を参照して説明したように、第1の画像のメトリックの値を決定し得る。
[00224]装置は、第1の特徴ベクトルに基づいて、第1の画像に類似している少なくとも1つの他の画像を決定するための手段も含み得る。たとえば、決定するための手段は、図1のプロセッサ104、図1のメモリ106、図6のプロセッサ604、図6のメモリ606、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1の特徴ベクトルを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、604、2010は、第1の画像のメトリックの値を他の画像のメトリックの値と比較すること、および比較によって、類似性のしきい値が満たされるかどうかを決定することによって、類似性(たとえば、F12)を算出し得る。
[00225]装置は、第1のビデオの第1の特徴ベクトルを生成するための手段も含み得る。たとえば、第1の特徴ベクトルを生成するための手段は、図2のプロセッサ204、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1の特徴ベクトルを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ204、604、2010は、図18の方法1800を参照して説明したように、第1のビデオのメトリックの値を決定し得る。
[00226]装置は、第1の特徴ベクトルに基づいて、第1のビデオに類似している少なくとも1つの他のビデオを決定するための手段も含み得る。たとえば、決定するための手段は、図2のプロセッサ204、図2のメモリ206、図6のプロセッサ604、図6のメモリ606、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1の特徴ベクトルを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ204、604、2010は、第1のビデオのメトリックの値を他のビデオのメトリックの値と比較すること、および比較によって、類似性のしきい値が満たされるかどうかを決定することによって、類似性(たとえば、F12)を算出し得る。
[00227]装置は、第1の画像のメトリックを生成するための手段も含むことができ、ここで第1の画像の各メトリックは、第1の画像の特定の特性に対応する。たとえば、生成するための手段は、図1のプロセッサ104、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1の画像のメトリックを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、604、2010は、図18の方法1800を参照して説明したように、第1の画像のメトリックの値を決定し得る。
[00228]装置は、特定のメトリックの重みを決定するための手段も含み得る。たとえば、特定のメトリックの重みを決定するための手段は、図1のプロセッサ104、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、特定の重みを決定するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、604、2010は、特定のメトリックの類似する値を有する画像を類似する画像として分類する履歴上の頻度に基づいて重みを決定し得る。
[00229]装置は、重みがしきい値を満たすという決定に応答して、特定のメトリックに基づいて第1の画像に類似している少なくとも1つの他の画像を決定するための手段も含み得る。たとえば、決定するための手段は、図1のプロセッサ104、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、少なくとも1つの他の画像を決定するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、604、2010は、第1の画像のメトリックの値を他の画像のメトリックの値と比較すること、および比較によって、類似性のしきい値が満たされるかどうかを決定することによって、類似性(たとえば、F12)を算出し得る。
[00230]装置は、メディアアイテムの第1のユーザの選択を受信するための手段も含み得る。たとえば、受信するための手段は、図1のプロセッサ104、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1のユーザの選択を受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、ユーザインターフェースにおけるユーザ操作(たとえば、選択)に応答して生成されたユーザの選択を示す信号を受信し得る。
[00231]装置は、メディアアイテムのメトリックを、メディアアイテムの集合中の他のメディアアイテムの対応するメトリックと比較するための手段も含み得る。たとえば、比較するための手段は、図1のプロセッサ104、図1のメモリ106、図2のプロセッサ204、図2のメモリ206、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、メトリックを比較するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、メディアアイテムのメトリックの値を、他のメディアアイテムのメトリックの値と比較すること、および比較によって、類似性のしきい値が満たされるかどうかを決定することによって、類似性(たとえば、F12)を算出し得る。
[00232]装置は、メトリックのうちの1つまたは複数に重み付けを適用するための手段も含み得る。たとえば、重み付けを適用するための手段は、図1のプロセッサ104、図2のプロセッサ204、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、重み付けを適用するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、重み付けされた比較結果を生成するために、記憶された重み付けされたセットに基づいて重み付けを適用し得る。
[00233]装置は、重み付けされた比較結果に基づいて、他のメディアアイテムのうちの1つまたは複数を選択するための手段も含み得る。たとえば、選択するための手段は、図1のプロセッサ104、図1のメモリ106、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のメモリ206、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、1つもしくは複数の他のメディアアイテムを選択するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含み得、各プロセッサ104、204、604、2010は、メディアアイテムのメトリックの値を他のメディアアイテムのメトリックの値と比較すること、比較によって、類似性のしきい値が満たされるかどうかを決定すること、およびしきい値を満たす他のメディアアイテムを選択することによって、類似性(たとえば、F12)を算出し得る。
[00234]装置は、第1のメディアタイプを有するメディアアイテムの第1のユーザの選択を受信するための手段も含み得る。たとえば、第1のユーザの選択を受信するための手段は、図1のプロセッサ104、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1のユーザの選択を受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、ユーザインターフェースにおけるユーザ操作(たとえば、選択)に応答して生成されたユーザの選択を示す信号を受信し得る。
[00235]装置は、別のメディアアイテムを選択するための手段も含み得る。たとえば、選択するための手段は、図1のプロセッサ104、図1のメモリ106、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のメモリ206、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、別のメディアアイテムを選択するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、メディアアイテムおよび別のメディアアイテムの値(たとえば、タイムスタンプ、地理的ロケーション、またはテキスト情報に対応する値)を比較すること、および類似性が類似性のしきい値しきい値を満たす場合は別のメディアアイテムを選択することによって、類似性(たとえば、F12)を算出し得る。
[00236]装置は、ユーザインターフェースから受信されたファイル転送命令が論理グループ中のすべてのメディアアイテムに適用されることを可能にするために、メディアアイテムと他のメディアアイテムとを含む、メディアアイテムの論理グループを生成するための手段も含み得る。たとえば、論理グループを生成するための手段は、図1のプロセッサ104、図1のメモリ106、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のメモリ206、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、論理グループを生成するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、メディアアイテムおよび他のメディアアイテムに対応するファイルを組み合わせて圧縮ファイルにし、ファイル転送を示す、ユーザインターフェースから受信された信号に応答して、圧縮ファイルの転送を開始する。
[00237]装置は、通信リンクが、受信するための手段をモバイルデバイスに接続したことに応答して、モバイルデバイスからデータを受信するための手段も含み得る。たとえば、受信するための手段は、図21のコンピュータ2102、モバイルデバイスからデータを受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含み得る。
[00238]装置は、別のメディアアイテムと選択されたメディアアイテムの類似性に基づいて、別のメディアアイテムを受信するための手段も含み得る。たとえば、別のメディアアイテムを受信するための手段は、図21のコンピュータ2102、別のメディアアイテムを受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含み得る。
[00239]別の実施形態では、装置は、モバイルデバイスからリモートデバイスに転送された、第1のメディアアイテムの選択を受信するための手段を含む。たとえば、第1のメディアアイテムの選択を受信するための手段は、図1のプロセッサ104、図1のユーザインターフェースデバイス108、図2のプロセッサ204、図2のユーザインターフェースデバイス208、図3のユーザインターフェースデバイス300、図4のユーザインターフェースデバイス400、図5のユーザインターフェースデバイス500、図6のプロセッサ604、図6のユーザインターフェースデバイス608、図10Aおよび図10Bのユーザインターフェースデバイス1000、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第1のユーザの選択を受信するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、ユーザインターフェースにおいてユーザ操作(たとえば、選択)に応答して生成された第1のメディアアイテムの選択を示す信号を受信し得る。
[00240]本実施形態では、装置は、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、リモートデバイスに転送するように第2のメディアアイテムを選択するための手段も含む。たとえば、第2のメディアアイテムを選択するための手段は、図1のプロセッサ104、図2のプロセッサ204、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、第2のメディアアイテムを選択するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含むことができ、ここで、手段に含まれる各プロセッサ104、204、604、2010は、第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、第2のメディア時刻を選択し得る。パッケージ化されたモーメントのデータは、第1のメディアアイテムと第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含み得る。
[00241]特定の実施形態では、第2のメディアアイテムは、特定のメトリックの重みがしきい値を満たす場合、特定のメトリックに基づいて、リモートデバイスへの送信用に選択され得る。特定のメトリックは、第1のメディアアイテムの特定の特性に対応してよく、重みは、特定のメトリックの類似する値を有するメディアアイテムをグループとして分類する履歴上の頻度に基づき得る。たとえば、特定のメトリックは、図1〜図2のメトリックのうちの1つに対応してよく、重みは、図1〜図2を参照して説明したように決定され得る。別の特定の実施形態では、装置は、リモートデバイスにパッケージ化されたモーメントのデータを送るための手段をさらに含み得る。たとえば、パッケージ化されたモーメントのデータを送るための手段は、図1のプロセッサ104、図2のプロセッサ204、図6のプロセッサ604、図20の命令2060を実行するようにプログラムされたプロセッサ2010、ワイヤレスコントローラ2040、重み付けを適用するための1つもしくは複数の他のデバイス、回路、モジュール、もしくは命令、またはそれらのどの組合せも含み得る。
[00242]図21を参照すると、コンピュータをモバイルデバイスに接続するように動作可能なシステム2100の特定の実施形態が示されている。システム2100は、コンピュータ2102とモバイルデバイス2000とを含む。コンピュータ2102は、通信リンク2104を介してモバイルデバイス2000に接続され得る。通信リンク2104は、ワイヤレス通信リンクでもワイヤード通信リンクでもよい。たとえば、通信リンク2104は、モバイルデバイス2000とコンピュータ2102との間のWifi接続(たとえば、ワイヤレス)に対応し得る。代替として、通信リンク2104は、ユニバーサルシリアルバス(USB)、高精細度マルチメディアインターフェース(HDMI(登録商標))、イーサネット(登録商標)、またはモバイルデバイス2000とコンピュータ2102との間の他のワイヤードもしくはワイヤレス接続であり得る。
[00243]通信リンク2104を介してモバイルデバイス2000をコンピュータ2102に接続したことに応答して、データが、モバイルデバイス2000からコンピュータ2102に転送され得る。データは、モバイルデバイス2000からコンピュータ2102に転送されるべきユーザの選択メディアアイテムを含み得る。たとえば、データは第1の画像111を含んでよく、第1の画像111を含むデータは、コンピュータ2102に転送され得る。
[00244]コンピュータ2102は、選択されたメディアアイテム(たとえば、パッケージ化されたモーメントのデータとして)と類似している他のメディアアイテムを受信することもできる。たとえば、コンピュータは、モバイルデバイス2000によって第1の画像111に類似していると決定された他の画像を受信し得る。代替として、コンピュータ2102は、記憶されたメディアコンテンツをモバイルデバイス2000上で処理し、特徴ベクトルを生成し、モバイルデバイス2000からコンピュータ2102に転送するための提案を生成し得る。コンピュータ2102は、他のメディアアイテムのユーザの選択が転送されることを可能にするために、コンピュータ2102のユーザインターフェースデバイス2108を介して、他のメディアアイテムの表現を与えることができる。たとえば、ユーザインターフェースデバイス2108は、第2の画像112と、第5の画像115と、第6の画像116とを表示する(たとえば、第1の画像111に類似していると決定された画像を表示する)ことができる。特定の実施形態では、ユーザインターフェースデバイス2108は、メディアアイテムの少なくともサブセットのエミュレートされた3次元表現を表示し得る。たとえば、ユーザインターフェースデバイス2108は、図3のユーザインターフェースデバイス300に対応し得る。別の特定の実施形態では、ユーザインターフェースデバイス2108は、メディアアイテムの少なくともサブセットの2次元表現を表示し得る。たとえば、ユーザインターフェースデバイス2108は、図4のユーザインターフェースデバイス400に対応し得る。別の特定の実施形態では、ユーザインターフェースデバイス2108は、図5のユーザインターフェースデバイス500に対応し得る。
[00245]ユーザは、ユーザインターフェースデバイス2108を介して表示された、選択された画像をクリックする(または場合によっては、選択する)ことによって、コンピュータ2102に転送されるべき画像を選択し得る。たとえば、ユーザは、コンピュータ2102に転送されるべき第2の画像112と、第5の画像115と、第6の画像116とを、第1の画像111とともに選択し得る。
[00246]したがって、他のメディアアイテムが選択されたメディアアイテムに類似しているというモバイルデバイス2000による決定に基づいて、他のメディアアイテムが、選択されたメディアアイテム(たとえば、パッケージ化されたモーメントのデータとして)とともにコンピュータ2102に転送され得る。システム2100は、類似的な特性を有する複数のメディアアイテムをモバイルデバイス2000からコンピュータ2102にユーザが転送するための時間量を削減し得ることが諒解されよう。たとえば、他のメディアアイテムのユーザの選択が転送されることを可能にするために、コンピュータ2102のユーザインターフェースデバイス2108を介して他のメディアアイテムの表現を与えることにより、ユーザが、データベースから他のメディアアイテムの各々の場所を確認するのを防止し得る。
[00247]本明細書で開示した実施形態に関して説明した様々な例示的な論理ブロック、構成、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、または両方の組合せとして実装され得ることを、当業者は諒解されよう。上記に、様々な例示的な構成要素、ブロック、構成、モジュール、回路、およびステップについて、それらの機能性に関して概略的に説明した。そのような機能性をハードウェアとして実装するか、ソフトウェアとして実装するかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明した機能性を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本開示の範囲からの逸脱を生じるものと解釈すべきではない。
[00248]本明細書で開示される実施形態に関して説明された方法またはアルゴリズムのステップは、ハードウェア内で、プロセッサによって実行されるソフトウェアモジュール内で、またはこれら2つの組合せで直接実施され得る。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読取り専用メモリ(ROM)、プログラマブル読取り専用メモリ(PROM)、消去可能プログラマブル読取り専用メモリ(EPROM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、レジスタ、ハードディスク、リムーバブルディスク、コンパクトディスク読取り専用メモリ(CD−ROM)、または当技術分野で知られている任意の他の形態の記憶媒体中に常駐し得る。例示的記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるようにプロセッサに結合される。代替として、記憶媒体はプロセッサと一体であり得る。プロセッサおよび記憶媒体は、特定用途向け集積回路(ASIC)内に存在し得る。ASICは、コンピューティングデバイスまたはユーザ端末内に存在し得る。代替として、プロセッサおよび記憶媒体は、コンピューティングデバイスまたはユーザ端末の中に、個別の構成要素として存在し得る。
[00249]開示された実施形態の上記の説明は、当業者が、開示された実施形態を作成または使用し得るように与えられる。これらの実施形態に対する様々な修正は、当業者には容易に明らかであり、本明細書で定義されている原理は、本開示の範囲から逸脱することなく、他の実施形態に適用され得る。したがって、本開示は、本明細書に示されている実施形態に限定されることを意図されておらず、以下の特許請求の範囲によって定義される原理および新規な特徴と一致する可能な最も広い範囲を与えられるべきである。
[00249]開示された実施形態の上記の説明は、当業者が、開示された実施形態を作成または使用し得るように与えられる。これらの実施形態に対する様々な修正は、当業者には容易に明らかであり、本明細書で定義されている原理は、本開示の範囲から逸脱することなく、他の実施形態に適用され得る。したがって、本開示は、本明細書に示されている実施形態に限定されることを意図されておらず、以下の特許請求の範囲によって定義される原理および新規な特徴と一致する可能な最も広い範囲を与えられるべきである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
方法であって、前記方法は下記を備える、
モバイルデバイスにおいて、前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信することと、
前記モバイルデバイスによって、前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択することと、
前記モバイルデバイスによって、前記リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成することと、ここにおいて、前記パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む。
[C2]
前記リモートデバイスは、第2のモバイルデバイス、コンピュータ、またはサーバを含む、C1に記載の方法。
[C3]
前記第1のメディアアイテムとの前記第2のメディアアイテムの前記類似性は、ユーザ設定可能なパッケージ化されたモーメントの設定に基づいて決定される、C1に記載の方法。
[C4]
前記ユーザ設定可能なパッケージ化されたモーメントの設定は、特定の特性の選択を示し、前記第1のメディアアイテムとの前記第2のメディアアイテムの前記類似性は、前記第2のメディアアイテムの前記特定の特性と、前記第1のメディアアイテムの前記特定の特性との類似性に少なくとも部分的に基づく、C3に記載の方法。
[C5]
前記モバイルデバイスによって、前記第2のメディアアイテムを、前記モバイルデバイスのしきい値近傍内にある別のモバイルデバイスから自動的に取り出すことをさらに備える、C1に記載の方法。
[C6]
前記第2のメディアアイテムは、前記別のモバイルデバイスにクエリを送ったことに応答して取り出され、前記クエリは、パッケージ化されたモーメントの基準を示し、前記パッケージ化されたモーメントの基準を満たすメディアアイテムを要求する、C5に記載の方法。
[C7]
前記複数のメディアアイテムは、前記モバイルデバイスにおけるボイスコールの録音、電子メールメッセージ、ショートメッセージサービス(SMS)メッセージ、またはソーシャルメディアポストの画像のうちの少なくとも1つを含む、C1に記載の方法。
[C8]
前記パッケージ化されたモーメントのデータを生成した後、前記モバイルデバイスにおいて受信者表示ウィンドウを提示することをさらに備え、ここにおいて、前記受信者表示ウィンドウは、特定のユーザに送られるように指定された前記パッケージ化されたモーメントのデータの前記メディアデータに対応するメディアアイテムを示す、C1に記載の方法。
[C9]
前記パッケージ化されたモーメントのデータの前記メディアデータに対応するメディアアイテムのサブセットを、前記受信者表示ウィンドウにおけるメディアアイテムの指定に基づいて特定のユーザに送ることをさらに備える、C8に記載の方法。
[C10]
前記受信者表示ウィンドウにおける指定は、グラフィカルユーザインターフェースを介して調整可能である、C8に記載の方法。
[C11]
前記パッケージ化されたモーメントのデータを生成した後、前記モバイルデバイスにおいて要約ウィンドウを提示することをさらに備え、ここにおいて、前記要約ウィンドウは、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する前記メディアアイテムのタイプを示す、C1に記載の方法。
[C12]
モバイルデバイスであって、前記モバイルデバイスは下記を備える、
メモリと、
前記メモリに結合されたプロセッサあって、前記プロセッサは、
第1のメディアアイテムを選択するユーザ入力を受信し、
前記第1のメディアアイテムを記述する情報と、1つまたは複数の追加メディアアイテムを記述する情報の比較を実施し、
前記比較に基づいて、第2のメディアアイテムを選択し、
前記第1のメディアアイテムおよび前記第2のメディアアイテムに関連付けられたメディアデータを含むパッケージ化されたモーメントのデータを生成する、
ように構成される。
[C13]
前記プロセッサは、前記パッケージ化されたモーメントのデータをリモートデバイスに送るようにさらに構成される、C12に記載のモバイルデバイス。
[C14]
前記プロセッサは、パッケージ化されたモーメントの設定を前記メモリに記憶するようにさらに構成される、C12に記載のモバイルデバイス。
[C15]
前記プロセッサに結合されたディスプレイをさらに備え、ここにおいて、前記プロセッサは、
グラフィカルユーザインターフェースを、前記ディスプレイにおける表示のために生成し、
前記グラフィカルユーザインターフェースを介して受信されたユーザ入力に基づいて、前記パッケージ化されたモーメントの設定を修正するようにさらに構成される、C14に記載のモバイルデバイス。
[C16]
前記パッケージ化されたモーメントの設定は、特定のメディアタイプのユーザ設定可能な指定を含み、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する各メディアアイテムは、前記特定のメディアタイプのうちの1つに関連付けられたメディアタイプを有する、C14に記載のモバイルデバイス。
[C17]
前記特定のメディアタイプは、画像、ビデオ、ショートメッセージサービス(SMS)メッセージ、電子メールメッセージ、ボイスコールの録音、またはソーシャルメディアポストの画像のうちの少なくとも1つを含む、C16に記載のモバイルデバイス。
[C18]
前記パッケージ化されたモーメントの設定は、前記パッケージ化されたモーメントのデータを含むファイルの最大の集められたファイルサイズのユーザ設定可能な指定を含む、C14に記載のモバイルデバイス。
[C19]
前記パッケージ化されたモーメントの設定は、
前記パッケージ化されたモーメントのデータの前記メディアデータに対応する画像の最大数、
前記パッケージ化されたモーメントのデータの前記メディアデータに対応するビデオの最大の集められた長さ、または
前記パッケージ化されたモーメントのデータの前記メディアデータに対応するオーディオの最大の集められた長さ、
のユーザ設定可能な指定を含む、C14に記載のモバイルデバイス。
[C20]
前記パッケージ化されたモーメントの設定は、特定のデバイスのユーザ設定可能な指定を含み、ここにおいて、前記プロセッサは、メディアアイテムについて前記特定のデバイスをクエリするように、および前記特定のデバイスから前記メディアアイテムを受信するようにさらに構成され、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータは、前記メディアアイテムに対応する、C14に記載のモバイルデバイス。
[C21]
前記パッケージ化されたモーメントの設定は、類似性の設定のユーザ設定可能な指定を含み、前記第2のメディアアイテムは、前記類似性の設定のうちの1つまたは複数を満たす前記比較に基づいて選択される、C14に記載のモバイルデバイス。
[C22]
前記類似性の設定は、地理的ロケーション、オーディオ特性、時刻、または顔の特徴のうちの少なくとも1つを含む、C21に記載のモバイルデバイス。
[C23]
命令を備える非一時的コンピュータ可読媒体であって、前記命令は、モバイルデバイス内のプロセッサによって実行されると、前記プロセッサに、
前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信させ、
前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択させ、
前記リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成させる、ここにおいて、前記パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む、
非一時的コンピュータ可読媒体。
[C24]
前記第1のメディアアイテムは第1のビデオを備え、前記第2のメディアアイテムは第2のビデオを備える、C23に記載の非一時的コンピュータ可読媒体。
[C25]
前記命令は、前記プロセッサに、連結されたビデオを生成するために前記第1のビデオと前記第2のビデオとを連結するようにさらに実行可能であり、ここにおいて、前記連結されたビデオは、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する、C24に記載の非一時的コンピュータ可読媒体。
[C26]
前記命令は、前記プロセッサに、
ディスプレイにおいてグラフィカルユーザインターフェースを生成させ、
前記グラフィカルユーザインターフェースの第1のウィンドウを介して受信されたユーザ入力に基づいて、第1のメディアタイプのメディアアイテムを選択させ、
前記グラフィカルユーザインターフェースの第2のウィンドウを介して受信されたユーザ入力に基づいて、第2のメディアタイプのメディアアイテムを選択させる、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータは、前記第1のメディアタイプおよび前記第2のメディアタイプのメディアアイテムに関連付けられる、
ようにさらに実行可能である、C23に記載の非一時的コンピュータ可読媒体。
[C27]
前記グラフィカルユーザインターフェースの前記第1のウィンドウは、前記第1のメディアアイテムに類似する画像を含み、前記グラフィカルユーザインターフェースの前記第2のウィンドウは、前記第1のメディアアイテムに類似するビデオを含む、C26に記載の非一時的コンピュータ可読媒体。
[C28]
モバイルデバイスであって、前記モバイルデバイスは下記を備える、
前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信するための手段と、
前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択するための手段、ここにおいて、パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む。
[C29]
前記第2のメディアアイテムは、特定のメトリックの重みがしきい値を満たす場合、前記特定のメトリックに基づいて、前記リモートデバイスへの送信用に選択され、ここにおいて、前記特定のメトリックは、前記第1のメディアアイテムの特定の特性に対応し、前記重みは、前記特定のメトリックの類似する値を有するメディアアイテムをグループとして分類する履歴上の頻度に基づく、C28に記載のモバイルデバイス。
[C30]
前記パッケージ化されたモーメントのデータを前記リモートデバイスに送るための手段をさらに備える、C28に記載のモバイルデバイス。

Claims (30)

  1. 方法であって、前記方法は下記を備える、
    モバイルデバイスにおいて、前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信することと、
    前記モバイルデバイスによって、前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択することと、
    前記モバイルデバイスによって、前記リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成することと、ここにおいて、前記パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む。
  2. 前記リモートデバイスは、第2のモバイルデバイス、コンピュータ、またはサーバを含む、請求項1に記載の方法。
  3. 前記第1のメディアアイテムとの前記第2のメディアアイテムの前記類似性は、ユーザ設定可能なパッケージ化されたモーメントの設定に基づいて決定される、請求項1に記載の方法。
  4. 前記ユーザ設定可能なパッケージ化されたモーメントの設定は、特定の特性の選択を示し、前記第1のメディアアイテムとの前記第2のメディアアイテムの前記類似性は、前記第2のメディアアイテムの前記特定の特性と、前記第1のメディアアイテムの前記特定の特性との類似性に少なくとも部分的に基づく、請求項3に記載の方法。
  5. 前記モバイルデバイスによって、前記第2のメディアアイテムを、前記モバイルデバイスのしきい値近傍内にある別のモバイルデバイスから自動的に取り出すことをさらに備える、請求項1に記載の方法。
  6. 前記第2のメディアアイテムは、前記別のモバイルデバイスにクエリを送ったことに応答して取り出され、前記クエリは、パッケージ化されたモーメントの基準を示し、前記パッケージ化されたモーメントの基準を満たすメディアアイテムを要求する、請求項5に記載の方法。
  7. 前記複数のメディアアイテムは、前記モバイルデバイスにおけるボイスコールの録音、電子メールメッセージ、ショートメッセージサービス(SMS)メッセージ、またはソーシャルメディアポストの画像のうちの少なくとも1つを含む、請求項1に記載の方法。
  8. 前記パッケージ化されたモーメントのデータを生成した後、前記モバイルデバイスにおいて受信者表示ウィンドウを提示することをさらに備え、ここにおいて、前記受信者表示ウィンドウは、特定のユーザに送られるように指定された前記パッケージ化されたモーメントのデータの前記メディアデータに対応するメディアアイテムを示す、請求項1に記載の方法。
  9. 前記パッケージ化されたモーメントのデータの前記メディアデータに対応するメディアアイテムのサブセットを、前記受信者表示ウィンドウにおけるメディアアイテムの指定に基づいて特定のユーザに送ることをさらに備える、請求項8に記載の方法。
  10. 前記受信者表示ウィンドウにおける指定は、グラフィカルユーザインターフェースを介して調整可能である、請求項8に記載の方法。
  11. 前記パッケージ化されたモーメントのデータを生成した後、前記モバイルデバイスにおいて要約ウィンドウを提示することをさらに備え、ここにおいて、前記要約ウィンドウは、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する前記メディアアイテムのタイプを示す、請求項1に記載の方法。
  12. モバイルデバイスであって、前記モバイルデバイスは下記を備える、
    メモリと、
    前記メモリに結合されたプロセッサあって、前記プロセッサは、
    第1のメディアアイテムを選択するユーザ入力を受信し、
    前記第1のメディアアイテムを記述する情報と、1つまたは複数の追加メディアアイテムを記述する情報の比較を実施し、
    前記比較に基づいて、第2のメディアアイテムを選択し、
    前記第1のメディアアイテムおよび前記第2のメディアアイテムに関連付けられたメディアデータを含むパッケージ化されたモーメントのデータを生成する、
    ように構成される。
  13. 前記プロセッサは、前記パッケージ化されたモーメントのデータをリモートデバイスに送るようにさらに構成される、請求項12に記載のモバイルデバイス。
  14. 前記プロセッサは、パッケージ化されたモーメントの設定を前記メモリに記憶するようにさらに構成される、請求項12に記載のモバイルデバイス。
  15. 前記プロセッサに結合されたディスプレイをさらに備え、ここにおいて、前記プロセッサは、
    グラフィカルユーザインターフェースを、前記ディスプレイにおける表示のために生成し、
    前記グラフィカルユーザインターフェースを介して受信されたユーザ入力に基づいて、前記パッケージ化されたモーメントの設定を修正するようにさらに構成される、請求項14に記載のモバイルデバイス。
  16. 前記パッケージ化されたモーメントの設定は、特定のメディアタイプのユーザ設定可能な指定を含み、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する各メディアアイテムは、前記特定のメディアタイプのうちの1つに関連付けられたメディアタイプを有する、請求項14に記載のモバイルデバイス。
  17. 前記特定のメディアタイプは、画像、ビデオ、ショートメッセージサービス(SMS)メッセージ、電子メールメッセージ、ボイスコールの録音、またはソーシャルメディアポストの画像のうちの少なくとも1つを含む、請求項16に記載のモバイルデバイス。
  18. 前記パッケージ化されたモーメントの設定は、前記パッケージ化されたモーメントのデータを含むファイルの最大の集められたファイルサイズのユーザ設定可能な指定を含む、請求項14に記載のモバイルデバイス。
  19. 前記パッケージ化されたモーメントの設定は、
    前記パッケージ化されたモーメントのデータの前記メディアデータに対応する画像の最大数、
    前記パッケージ化されたモーメントのデータの前記メディアデータに対応するビデオの最大の集められた長さ、または
    前記パッケージ化されたモーメントのデータの前記メディアデータに対応するオーディオの最大の集められた長さ、
    のユーザ設定可能な指定を含む、請求項14に記載のモバイルデバイス。
  20. 前記パッケージ化されたモーメントの設定は、特定のデバイスのユーザ設定可能な指定を含み、ここにおいて、前記プロセッサは、メディアアイテムについて前記特定のデバイスをクエリするように、および前記特定のデバイスから前記メディアアイテムを受信するようにさらに構成され、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータは、前記メディアアイテムに対応する、請求項14に記載のモバイルデバイス。
  21. 前記パッケージ化されたモーメントの設定は、類似性の設定のユーザ設定可能な指定を含み、前記第2のメディアアイテムは、前記類似性の設定のうちの1つまたは複数を満たす前記比較に基づいて選択される、請求項14に記載のモバイルデバイス。
  22. 前記類似性の設定は、地理的ロケーション、オーディオ特性、時刻、または顔の特徴のうちの少なくとも1つを含む、請求項21に記載のモバイルデバイス。
  23. 命令を備える非一時的コンピュータ可読媒体であって、前記命令は、モバイルデバイス内のプロセッサによって実行されると、前記プロセッサに、
    前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信させ、
    前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択させ、
    前記リモートデバイスに転送するようにパッケージ化されたモーメントのデータを生成させる、ここにおいて、前記パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む、
    非一時的コンピュータ可読媒体。
  24. 前記第1のメディアアイテムは第1のビデオを備え、前記第2のメディアアイテムは第2のビデオを備える、請求項23に記載の非一時的コンピュータ可読媒体。
  25. 前記命令は、前記プロセッサに、連結されたビデオを生成するために前記第1のビデオと前記第2のビデオとを連結するようにさらに実行可能であり、ここにおいて、前記連結されたビデオは、前記パッケージ化されたモーメントのデータの前記メディアデータに対応する、請求項24に記載の非一時的コンピュータ可読媒体。
  26. 前記命令は、前記プロセッサに、
    ディスプレイにおいてグラフィカルユーザインターフェースを生成させ、
    前記グラフィカルユーザインターフェースの第1のウィンドウを介して受信されたユーザ入力に基づいて、第1のメディアタイプのメディアアイテムを選択させ、
    前記グラフィカルユーザインターフェースの第2のウィンドウを介して受信されたユーザ入力に基づいて、第2のメディアタイプのメディアアイテムを選択させる、ここにおいて、前記パッケージ化されたモーメントのデータの前記メディアデータは、前記第1のメディアタイプおよび前記第2のメディアタイプのメディアアイテムに関連付けられる、
    ようにさらに実行可能である、請求項23に記載の非一時的コンピュータ可読媒体。
  27. 前記グラフィカルユーザインターフェースの前記第1のウィンドウは、前記第1のメディアアイテムに類似する画像を含み、前記グラフィカルユーザインターフェースの前記第2のウィンドウは、前記第1のメディアアイテムに類似するビデオを含む、請求項26に記載の非一時的コンピュータ可読媒体。
  28. モバイルデバイスであって、前記モバイルデバイスは下記を備える、
    前記モバイルデバイスからリモートデバイスに転送される第1のメディアアイテムの選択を受信するための手段と、
    前記第1のメディアアイテムとの第2のメディアアイテムの類似性に基づいて、前記リモートデバイスに転送するように前記第2のメディアアイテムを選択するための手段、ここにおいて、パッケージ化されたモーメントのデータは、前記第1のメディアアイテムと前記第2のメディアアイテムとを含む複数のメディアアイテムに関連付けられたメディアデータを含む。
  29. 前記第2のメディアアイテムは、特定のメトリックの重みがしきい値を満たす場合、前記特定のメトリックに基づいて、前記リモートデバイスへの送信用に選択され、ここにおいて、前記特定のメトリックは、前記第1のメディアアイテムの特定の特性に対応し、前記重みは、前記特定のメトリックの類似する値を有するメディアアイテムをグループとして分類する履歴上の頻度に基づく、請求項28に記載のモバイルデバイス。
  30. 前記パッケージ化されたモーメントのデータを前記リモートデバイスに送るための手段をさらに備える、請求項28に記載のモバイルデバイス。
JP2016516770A 2013-05-28 2014-05-28 メディアアイテムを選択するためのシステムおよび方法 Active JP6509824B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019071183A JP6938556B2 (ja) 2013-05-28 2019-04-03 メディアアイテムを選択するためのシステムおよび方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361828104P 2013-05-28 2013-05-28
US61/828,104 2013-05-28
US14/288,250 US9843623B2 (en) 2013-05-28 2014-05-27 Systems and methods for selecting media items
US14/288,250 2014-05-27
PCT/US2014/039744 WO2014193927A1 (en) 2013-05-28 2014-05-28 Systems and methods for selecting media items

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019071183A Division JP6938556B2 (ja) 2013-05-28 2019-04-03 メディアアイテムを選択するためのシステムおよび方法

Publications (3)

Publication Number Publication Date
JP2016527599A true JP2016527599A (ja) 2016-09-08
JP2016527599A5 JP2016527599A5 (ja) 2017-06-22
JP6509824B2 JP6509824B2 (ja) 2019-05-08

Family

ID=51986638

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016516770A Active JP6509824B2 (ja) 2013-05-28 2014-05-28 メディアアイテムを選択するためのシステムおよび方法
JP2019071183A Active JP6938556B2 (ja) 2013-05-28 2019-04-03 メディアアイテムを選択するためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019071183A Active JP6938556B2 (ja) 2013-05-28 2019-04-03 メディアアイテムを選択するためのシステムおよび方法

Country Status (6)

Country Link
US (4) US9843623B2 (ja)
EP (1) EP3005670B1 (ja)
JP (2) JP6509824B2 (ja)
KR (1) KR102172128B1 (ja)
CN (1) CN105247845B (ja)
WO (1) WO2014193927A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140156704A1 (en) * 2012-12-05 2014-06-05 Google Inc. Predictively presenting search capabilities
US9843623B2 (en) 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items
JP2015153103A (ja) * 2014-02-13 2015-08-24 株式会社リコー 情報処理装置および情報処理システム
US9628551B2 (en) * 2014-06-18 2017-04-18 International Business Machines Corporation Enabling digital asset reuse through dynamically curated shared personal collections with eminence propagation
US9641761B2 (en) * 2014-07-14 2017-05-02 Samsung Electronics Co., Ltd Electronic device for playing-playing contents and method thereof
US10863354B2 (en) 2014-11-24 2020-12-08 Facebook, Inc. Automated check-ins
US10397346B2 (en) * 2014-11-24 2019-08-27 Facebook, Inc. Prefetching places
US9799373B2 (en) * 2015-11-05 2017-10-24 Yahoo Holdings, Inc. Computerized system and method for automatically extracting GIFs from videos
US9639535B1 (en) * 2015-12-16 2017-05-02 Waste Repurposing International, Inc. Waste identification systems and methods
CN107239473A (zh) * 2016-03-29 2017-10-10 阿里巴巴集团控股有限公司 一种展示图片选择方法及装置
EP3455719A1 (en) 2016-05-10 2019-03-20 Google LLC Implementations for voice assistant on devices
CN114758655A (zh) 2016-05-13 2022-07-15 谷歌有限责任公司 语音控制的隐藏字幕显示
CN107426388B (zh) * 2016-05-24 2021-02-19 富泰华工业(深圳)有限公司 一种智能呼叫装置、系统及方法
KR101815176B1 (ko) 2016-06-03 2018-01-05 주식회사 하이퍼커넥트 중개 방법, 장치 및 시스템
CN106161628B (zh) * 2016-07-13 2020-12-01 腾讯科技(深圳)有限公司 拍摄文件上传方法及装置
US10290136B2 (en) 2016-08-10 2019-05-14 Zeekit Online Shopping Ltd Processing user selectable product images and facilitating visualization-assisted coordinated product transactions
US10534809B2 (en) * 2016-08-10 2020-01-14 Zeekit Online Shopping Ltd. Method, system, and device of virtual dressing utilizing image processing, machine learning, and computer vision
CN106777053A (zh) * 2016-12-09 2017-05-31 国网北京市电力公司 媒体内容的分类方法和装置
US11016719B2 (en) * 2016-12-30 2021-05-25 DISH Technologies L.L.C. Systems and methods for aggregating content
WO2018195334A2 (en) * 2017-04-20 2018-10-25 Mylio, LLC Systems and methods to autonomously add geolocation information to media objects
US10733004B2 (en) * 2017-04-26 2020-08-04 At&T Intellectual Property I, L.P. Intelligent service on-demand robot virtualization
KR20180133593A (ko) 2017-06-07 2018-12-17 주식회사 하이퍼커넥트 중개 방법 및 장치
KR101979650B1 (ko) 2018-03-07 2019-05-17 주식회사 하이퍼커넥트 서버 및 그것의 동작 방법
US11290530B2 (en) * 2018-06-01 2022-03-29 Apple Inc. Customizable, pull-based asset transfer requests using object models
US10761818B2 (en) * 2018-10-31 2020-09-01 Salesforce.Com, Inc. Automatic identification of types of user interface components
WO2020102349A1 (en) 2018-11-13 2020-05-22 Illumy, Inc. Methods, systems, and apparatus for email to persistent messaging and/or text to persistent messaging
US10939236B1 (en) * 2018-11-30 2021-03-02 Snap Inc. Position service to determine relative position to map features
CN109981881B (zh) 2019-01-21 2021-02-26 华为技术有限公司 一种图像分类的方法和电子设备
CN110012309B (zh) * 2019-03-01 2021-12-24 陈作良 一种智能合拍视频的制作系统和方法
KR102308636B1 (ko) 2019-08-27 2021-10-06 주식회사 하이퍼커넥트 영상 통화 중개 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR102329481B1 (ko) 2019-09-09 2021-11-24 주식회사 하이퍼커넥트 복수의 단말기를 중개하는 서버, 및 그것의 중개 방법
US11194516B2 (en) * 2019-10-08 2021-12-07 Micron Technology, Inc. Media type selection
KR102455966B1 (ko) 2019-12-16 2022-10-18 주식회사 하이퍼커넥트 중개 장치, 방법 및 컴퓨터 판독 가능한 기록매체
KR102373764B1 (ko) 2020-02-21 2022-03-15 주식회사 하이퍼커넥트 단말기 및 그것의 동작 방법
CN111314759B (zh) * 2020-03-02 2021-08-10 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备及存储介质
CN112597321B (zh) * 2021-03-05 2022-02-22 腾讯科技(深圳)有限公司 基于区块链的多媒体处理方法及相关设备
CN113504869A (zh) * 2021-06-28 2021-10-15 惠州Tcl云创科技有限公司 一种数据迁移方法及系统
US11558209B1 (en) * 2021-07-30 2023-01-17 Zoom Video Communications, Inc. Automatic spotlight in video conferencing
TWI831235B (zh) * 2022-06-06 2024-02-01 仁寶電腦工業股份有限公司 動態影像之處理方法、電子裝置及其連接之終端裝置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010015823A1 (en) * 2000-02-22 2001-08-23 Hiroyuki Sato Image processing apparatus and control method therefor
JP2004179920A (ja) * 2002-11-27 2004-06-24 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法
US20050165795A1 (en) * 2003-12-31 2005-07-28 Nokia Corporation Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections
JP2008311749A (ja) * 2007-06-12 2008-12-25 Canon Inc 画像送信装置及びその方法
JP2010283879A (ja) * 2000-02-22 2010-12-16 Canon Inc データ処理装置及びデータ処理方法
US20130089243A1 (en) * 2011-10-05 2013-04-11 Microsoft Corporation Linking Photographs via Face, Time, and Location

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285242A (ja) 1999-01-29 2000-10-13 Sony Corp 信号処理方法及び映像音声処理装置
US7068723B2 (en) * 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
US8108342B2 (en) * 2007-09-10 2012-01-31 Robert Salinas Methods and systems of content mobilization, mobile search, and video editing through a web interface
JP3984175B2 (ja) 2003-01-31 2007-10-03 富士フイルム株式会社 写真画像選別装置およびプログラム
US8001192B1 (en) * 2004-06-28 2011-08-16 Sprint Spectrum L.P. Method and apparatus for automatically generating custom format messages based on message-destination
GB2421094A (en) 2004-12-09 2006-06-14 Sony Uk Ltd Generating reduced feature vectors for information retrieval
US8160400B2 (en) 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
JP4641270B2 (ja) 2006-03-01 2011-03-02 富士通株式会社 選択装置、選択方法、および選択プログラム
JP4760578B2 (ja) 2006-07-10 2011-08-31 カシオ計算機株式会社 撮像装置、動画撮影方法、および動画撮影制御プログラム
JP4945236B2 (ja) 2006-12-27 2012-06-06 株式会社東芝 映像コンテンツ表示装置、映像コンテンツ表示方法及びそのプログラム
JP4505760B2 (ja) 2007-10-24 2010-07-21 ソニー株式会社 情報処理装置および方法、プログラム、並びに、記録媒体
US8631079B2 (en) * 2008-06-20 2014-01-14 Microsoft Corporation Displaying a list of file attachments associated with a message thread
US20100125795A1 (en) * 2008-07-03 2010-05-20 Mspot, Inc. Method and apparatus for concatenating audio/video clips
US8385971B2 (en) 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
CN102216941B (zh) 2008-08-19 2015-08-12 数字标记公司 用于内容处理的方法和系统
US8929877B2 (en) 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
US8628453B2 (en) 2008-12-05 2014-01-14 Nike, Inc. Athletic performance monitoring systems and methods in a team sports environment
US8380005B1 (en) 2009-02-02 2013-02-19 Adobe Systems Incorporated System and method for image composition using non-destructive editing model and fast gradient solver
US9852761B2 (en) * 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
US8363888B2 (en) 2009-03-18 2013-01-29 Shutterfly, Inc. Proactive creation of photobooks
GB0907870D0 (en) 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
US8755738B2 (en) * 2009-09-11 2014-06-17 Qualcomm Incorporated Systems and methods for generating a selective distribution of media content feeds
KR101411593B1 (ko) 2009-09-14 2014-06-25 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
EP2524324B1 (fr) 2010-01-11 2019-04-24 InterDigital Madison Patent Holdings Procede de navigation parmi des identificateurs places dans des zones et recepteur mettant en oeuvre le procede
US9189137B2 (en) * 2010-03-08 2015-11-17 Magisto Ltd. Method and system for browsing, searching and sharing of personal video by a non-parametric approach
US8810684B2 (en) 2010-04-09 2014-08-19 Apple Inc. Tagging images in a mobile communications device using a contacts list
JP5523182B2 (ja) 2010-04-20 2014-06-18 キヤノン株式会社 映像編集装置および映像編集方法
US8605221B2 (en) 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
US8225233B2 (en) 2010-07-08 2012-07-17 Alexey Kashik Analysis of complex data objects and multiple parameter systems
US8270684B2 (en) 2010-07-27 2012-09-18 Google Inc. Automatic media sharing via shutter click
US8874538B2 (en) * 2010-09-08 2014-10-28 Nokia Corporation Method and apparatus for video synthesis
US8977767B2 (en) 2010-10-20 2015-03-10 Qualcomm Incorporated Methods and apparatuses for affecting programming of content for transmission over a multicast network
WO2012137493A1 (ja) * 2011-04-07 2012-10-11 パナソニック株式会社 画像処理装置、画像処理方法、画像処理プログラム及び集積回路
US8977778B2 (en) * 2011-08-29 2015-03-10 Latakoo, Inc. Compressing, transcoding, sending, and retrieving video and audio files in a server-based system and related systems and methods
US9143601B2 (en) * 2011-11-09 2015-09-22 Microsoft Technology Licensing, Llc Event-based media grouping, playback, and sharing
US8984273B2 (en) * 2011-12-16 2015-03-17 Protected Mobility, Llc Method to provide secure multimedia messaging between peer systems
RU2015100214A (ru) * 2012-08-20 2016-10-10 Рон ЛЕВИ Системы и способы основанного на коллекции комплектования и отображения мультимедийных данных
KR102070772B1 (ko) * 2012-12-07 2020-01-29 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
US9843623B2 (en) 2013-05-28 2017-12-12 Qualcomm Incorporated Systems and methods for selecting media items

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010015823A1 (en) * 2000-02-22 2001-08-23 Hiroyuki Sato Image processing apparatus and control method therefor
JP2010283879A (ja) * 2000-02-22 2010-12-16 Canon Inc データ処理装置及びデータ処理方法
JP2004179920A (ja) * 2002-11-27 2004-06-24 Fuji Photo Film Co Ltd ディジタル・カメラおよびその制御方法
US20050165795A1 (en) * 2003-12-31 2005-07-28 Nokia Corporation Media file sharing, correlation of metadata related to shared media files and assembling shared media file collections
JP2008311749A (ja) * 2007-06-12 2008-12-25 Canon Inc 画像送信装置及びその方法
US20130089243A1 (en) * 2011-10-05 2013-04-11 Microsoft Corporation Linking Photographs via Face, Time, and Location

Also Published As

Publication number Publication date
KR102172128B1 (ko) 2020-10-30
US9843623B2 (en) 2017-12-12
US20220046081A1 (en) 2022-02-10
EP3005670A1 (en) 2016-04-13
CN105247845A (zh) 2016-01-13
US20180069918A1 (en) 2018-03-08
US20140359483A1 (en) 2014-12-04
CN105247845B (zh) 2018-04-03
JP6938556B2 (ja) 2021-09-22
EP3005670B1 (en) 2017-06-14
US20230319130A1 (en) 2023-10-05
US11706285B2 (en) 2023-07-18
US11146619B2 (en) 2021-10-12
JP2019149182A (ja) 2019-09-05
JP6509824B2 (ja) 2019-05-08
WO2014193927A1 (en) 2014-12-04
KR20160013062A (ko) 2016-02-03

Similar Documents

Publication Publication Date Title
JP6938556B2 (ja) メディアアイテムを選択するためのシステムおよび方法
KR102449545B1 (ko) 지리공간적 활동 메트릭들을 표시하는 지도-기반 그래픽 사용자 인터페이스
US10013136B2 (en) User interface, method and system for crowdsourcing event notification sharing using mobile devices
US20200065613A1 (en) Automatic suggestion to share images
US8819030B1 (en) Automated tag suggestions
US11249620B2 (en) Electronic device for playing-playing contents and method thereof
US8447769B1 (en) System and method for real-time image collection and sharing
US10684754B2 (en) Method of providing visual sound image and electronic device implementing the same
US20160350953A1 (en) Facilitating electronic communication with content enhancements
WO2017107672A1 (zh) 一种信息处理方法和装置、一种用于信息处理的装置
CA2913461C (en) Tag suggestions for images on online social networks
KR102289293B1 (ko) 전자장치에서 콘텐츠 재생 방법 및 장치
KR102264428B1 (ko) 전자 장치의 동작 방법 및 장치
KR102165339B1 (ko) 전자장치에서 콘텐츠 재생 방법 및 장치
KR102050594B1 (ko) 전자장치에서 콘텐츠 재생 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190403

R150 Certificate of patent or registration of utility model

Ref document number: 6509824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250