JP2018536212A - 情報捕捉および提示のための方法および装置 - Google Patents

情報捕捉および提示のための方法および装置 Download PDF

Info

Publication number
JP2018536212A
JP2018536212A JP2018514424A JP2018514424A JP2018536212A JP 2018536212 A JP2018536212 A JP 2018536212A JP 2018514424 A JP2018514424 A JP 2018514424A JP 2018514424 A JP2018514424 A JP 2018514424A JP 2018536212 A JP2018536212 A JP 2018536212A
Authority
JP
Japan
Prior art keywords
information
user
user device
event
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018514424A
Other languages
English (en)
Other versions
JP2018536212A5 (ja
Inventor
ルクレール,ヴィンセント
クラフチェンコ,ヴァディム
アレクサンダー フランシス,ジャスティン
アレクサンダー フランシス,ジャスティン
ルソー,ジャン−セバスチャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eski Inc
Original Assignee
Eski Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eski Inc filed Critical Eski Inc
Publication of JP2018536212A publication Critical patent/JP2018536212A/ja
Publication of JP2018536212A5 publication Critical patent/JP2018536212A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/955Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
    • G06F16/9562Bookmark management

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本発明の実施形態は、ユーザの重要なまたは忘れられない経験に関連する情報を捕捉、記録および共有することを対象とする。経験に関連する情報の捕捉は、自動的に、手動でおよび/または自動技法と手動技法との何らかの組合せを使用して開始され得、および情報は、ユーザおよび/もしくは経験の映像、音声および/もしくは写真、経験の態様を説明するメタデータ、ワールドワイドウェブを介してアクセス可能な情報、経験中にユーザの近くにいる友人および同僚のインジケーション、ならびに/または任意の他の適切な情報を含み得る。ユーザの経験に関連する情報は、ユーザ間で共有経験を作りかつ社会的つながりを深めるために、他のユーザがアクセスできるようにされ得る。従って、ユーザは、重要なまたは忘れられない人生経験を「ブックマーク」し、それらの経験に関連する情報の記録を維持し、かつ他者とその情報を共有することができる。

Description

コンテンツの半自動捕捉のための技法が知られている。例えば、スマートフォンのビューファインダ内で対象が良好にフレーム内に収まり、その焦点が合うようにユーザがスマートフォンの向きを合わせた際、半自動的に写真の捕捉を開始することにより、ドキュメントのような対象の高品質画像をユーザが捕捉できるようにするスマートフォンアプリが利用可能である。加えて、いくつかのウェアラブルデバイスは、ユーザが直接介入することなく、特定のタイプの情報の自動捕捉を可能にする。例えば、いくつかのウェアラブルデバイスは、着用者の心拍数、カロリー消費量および他のデータなどの情報を自動的に捕捉することができる。
各々がその全体において参照により本明細書に組み込まれる、2015年8月5日および2015年8月13日にそれぞれ出願された、それぞれ出願番号第62/201,340号および第62/204,516号を有する「Methods and Apparatus For Creating An Individualized Record Of An Event」という名称の同一出願人による2つの米国仮特許出願は、イベントの特定の参加者に合わせて個別化されたイベントの記録を作成するために情報を捕捉する技法を開示している。例えば、‘340および‘561出願で開示されているいくつかの実施形態では、イベント中、参加者は、識別子(例えば、参加者および/またはウェアラブルデバイスに対するもの)を含むペイロードを定期的に送信するように構成されたウェアラブルデバイスを持ち運ぶことができる。ウェアラブルデバイスによる送信は、イベント会場内に位置する1つまたは複数の受信機コンポーネントによって受信することができる。イベント会場に配置された1つまたは複数のコンテンツ捕捉コンポーネント(例えば、対応する受信機コンポーネントと関連付けることができる)は、イベントが進行するにつれて、イベントおよび/または参加者に関連する情報(例えば、映像、音声、メタデータなど)を捕捉することができる。‘340および‘561出願で開示されているいくつかの実施形態では、時間経過に伴う各受信機コンポーネントの場所は知られており、従って、ウェアラブルデバイスからの送信の時間経過に伴う異なる受信機コンポーネントにおける受信は、イベント中の参加者の場所と、従ってイベントが起こった際に参加者がイベントを経験した有利な地点とのインジケーションを提供する。時間経過に伴う参加者の場所は、参加者に合わせて個別化されたイベントの記録を作成するために、対応する時間帯中に異なる場所で情報捕捉コンポーネントによって捕捉された情報と相関させることができる。次いで、この個別化された記録は、ワールドワイドウェブを介してなど、多くの形態のいずれかで参加者および他者が利用できるようにされ得る。
本発明のいくつかの実施形態は、ユーザが多くの情報捕捉コンポーネントおよび/またはデバイスのいずれかを使用して、ユーザの人生において忘れられない瞬間に関する情報を記録および「ブックマーク」できるようにする技法を提供するため、‘340および‘561出願で開示されている技法から発展する。例えば、本発明のいくつかの実施形態は、1つもしくは複数の基準が満たされていることに応答して自動的に、ユーザ入力が受信されていることに応答して、および/または自動技法と手動技法との組合せを使用して、情報捕捉のトリガを提供することができる。ユーザおよび/もしくは経験の映像、音声および/もしくは写真、経験の様々な態様を説明するメタデータ、ユーザが読んでいるおよび/もしくはイベントに関連するウェブページ、経験中にユーザの近くにいる友人および同僚のインジケーション、ならびに/または任意の他の適切な情報など、適切ないかなるタイプの情報も捕捉することができる。情報は、ユーザと関連付けられた(例えば、ユーザが着用または操作する)デバイスもしくはコンポーネントにより、および/または任意の他の適切なデバイスもしくはコンポーネント(例えば、同僚が着用または操作するデバイスまたはコンポーネント、スタンドアロンデバイスまたはコンポーネント(例えば、この目的のために構成されたビデオカメラまたはマイクロフォン)、公的に利用可能なデータへのアクセスを得るように設計されたデバイスまたはコンポーネント(例えば、ワールドワイドウェブ上でアクセス可能なサイトへのアクセスを有するクローラコンポーネント)など)により捕捉することができる。
本発明のいくつかの実施形態では、情報捕捉が開始される時間のユーザの場所は、多くの技法をいずれかを使用して決定および記録することができ、捕捉情報を経験と相関させるために使用することができる。捕捉されたいかなる情報も、統合して、ユーザ、ユーザの友人および同僚ならびに/または任意の他の適切な個人がアクセスできるようにされ得る(ワールドワイドウェブを介してなど、多くの形態のいずれかで)。さらに、あるユーザの経験に関連して捕捉された情報は、共有経験を作りかつ社会的つながりを深めるために、他のユーザの経験に関連する対応する情報と関連付け、関連付けられたすべてのユーザがアクセスできるようにされ得る。従って、本発明のいくつかの実施形態は、ユーザが重要な人生経験を「ブックマーク」し、それらの経験に関連する情報の記録を維持し、かつユーザの人生において重要な人々とその情報を共有できるようにし得る。
前述は、本発明の特定の態様のみの非限定的な概要である。本発明のいくつかの実施形態について以下でさらに詳細に説明する。
添付の図面は、原寸に比例することを意図しない。図面では、様々な図に示される同一またはほぼ同一のコンポーネントの各々は同様の番号で表される。明確にするため、すべての図面においてすべてのコンポーネントがラベル付けされるとは限らない。
本発明のいくつかの実施形態による、情報を捕捉し、前記情報を個々のユーザの経験と相関させるための代表的なシステムのコンポーネントを表現するブロック図である。 本発明のいくつかの実施形態による、コンポーネントまたはデバイスがそれによって情報の捕捉を開始することができる代表的なプロセスを表現するフローチャートである。 本発明のいくつかの実施形態による、特定のイベント、ユーザ、場所、および/または時間と捕捉情報とをそれによって相関させることができる代表的なプロセスを表現するフローチャートである。 本発明のいくつかの実施形態による、1人または複数のユーザの経験に関連する情報の主部を表示する代表的な方法を表現する。 本発明の特定の態様を実装するために使用することができる代表的なコンピュータシステムを表現するブロック図である。
本発明のいくつかの実施形態は、ユーザが重要なまたは忘れられない経験に関連する情報を捕捉、記録および共有できるようにするための技法を対象とする。本発明のいくつかの実施形態によれば、経験に関連する情報の捕捉は、自動的に(例えば、1つまたは複数の事前に定義された基準が満たされていることに応答してなど、プログラムされた命令の実行を介して)、手動で(例えば、ユーザ入力に応答して)、および/または自動技法と手動技法との何らかの組合せを使用して開始され得る。経験に関連して捕捉される情報は、適切ないかなるタイプのものでもよい。その例は、これらに限定されないが、ユーザおよび/または経験の映像、音声および/または写真、経験の様々な態様を説明するメタデータ(例えば、ユーザの心理状態または感情状態を示すバイオメトリックデータ、音レベル、天候などの環境条件を説明する情報など)、ワールドワイドウェブを介してアクセス可能であり、次いでユーザが作成しているかもしくは読んでいる情報および/またはイベントに関連する情報、経験中にユーザの近くにいる友人および同僚のインジケーション、ならびに/あるいは任意の他の適切な情報を含む。情報は、ユーザと関連付けられた(例えば、ユーザが着用または操作する)もの、ユーザの友人または他の個人と関連付けられたもの、スタンドアロンデバイスまたはコンポーネントなど、適切ないかなるデバイスまたはコンポーネントによっても捕捉することができる。経験時のユーザの場所は、適切ないかなる様式でも決定され得かつ次いで記録され得、捕捉情報を経験と相関させるために使用され得る。記録情報は、ワールドワイドウェブを介してアクセスされたインタフェースを通じてなど、多くの形態のいずれかでユーザおよび/または他者がアクセスできるようにされ得る。あるユーザの経験に関連する情報は、ユーザ間で共有経験を作りかつ社会的つながりを深めるために、他のユーザの経験に関連する対応する情報と関連付け、関連付けられたすべてのユーザがアクセスできるようにされ得る。従って、ユーザは、重要なまたは忘れられない人生経験を「ブックマーク」し、それらの経験に関連する情報の記録を維持し、かつ他者とその情報を共有することができる。
図1は、ユーザの経験に関連する情報を捕捉して記録するための代表的なシステム100を表現する。代表的なシステム100は、ユーザデバイス110、場所決定コンポーネント120、情報捕捉コンポーネント130およびブックマークサーバ140を含み、それらのいずれかまたはすべては、ネットワーク150を介して通信することができる。
各ユーザデバイス110は、ユーザが操作するか、着用するか、保持するか、運ぶか、または持ち運ぶことができるいかなるデバイスまたはコンポーネントも含み得る。例えば、各ユーザデバイス110は、スマートフォン、タブレットデバイス、音楽プレーヤ、ゲーム機、セットトップボックス、インダッシュコンソール、ウェアラブルデバイス(例えば、リストバンド、帽子、ネックレス、バッジ、メダル、眼鏡、ボールなど)および/または任意の他の適切なデバイスもしくはコンポーネントなどのモバイルデバイスを含み得る。図1には示されていないが、各ユーザデバイス110は、プロセッサによる実行のためのプログラム命令を格納するメモリと連通するプロセッサ、ユーザ入力コンポーネント、送信機および/または受信機を含み得る。しかし、ユーザデバイス110は、そのようなコンポーネントを含まなければならないわけではない。例えば、ウェアラブルユーザデバイス110は、別個のプロセッサおよびメモリを含まない無線自動識別(RFID)タグ(いわゆる「受動」または「能動」タグであり得る)を含み得る。ユーザデバイス110がそのようなコンポーネントを含むかどうかにかかわらず、ユーザデバイス110は、ユーザの経験に関連する多くのタイプの情報のいずれかを捕捉するように構成することができる。例えば、ユーザデバイス110は、音、映像、写真もしくは他の画像、テキスト(例えば、ネットワーク上でユーザデバイスに供給されるスケジューリング情報、ユーザによって供給される経験の説明など)、バイオメトリック情報(例えば、ユーザの身体活動および/または生理学上の特性に関する)、1つもしくは複数のデバイスで受信されているユーザ入力に関する情報、および/または任意の他のタイプの情報を捕捉するように構成することができる。
各場所決定コンポーネント120は、時間経過に伴うユーザデバイス110の場所を決定および/または記録するように適切に構成されたデバイスを含み得る。特定の時間におけるユーザデバイス110の場所を決定するため、適切ないかなる技法も使用することができ、従って、多くの異なるタイプの場所決定コンポーネントのいずれかを採用することができる。上記で言及される‘340および‘516出願で説明された代表的な技法の1つは、識別子を含む送信ペイロードをユーザデバイス110から既知の場所において受信する場所決定コンポーネントに関与する。ペイロードが受信される場所は知られているため、送信が受信された際のユーザデバイス110の場所を近似することができる。複数の場所決定コンポーネントが特定のユーザデバイスからの送信を受信する場合、各場所決定コンポーネントによって受信された送信の信号強度は、受信された時点でのユーザデバイス110の場所を近似するため、ペイロードが受信された際にいずれの場所決定コンポーネントがユーザデバイスに最も近いかを示すことができる。
‘340および‘516出願で示されるように、ユーザデバイス110は、適切な任意の通信技法および/またはプロトコルを使用してペイロードを送信することができる。例えば、いくつかの実施形態では、送信は、無線周波数、赤外線および/または任意の他の適切な送信タイプを使用して遂行することができる。さらに、ユーザデバイス110は、自律的に(例えば、既定の周期性またはスケジュールに従って)、および/または1つもしくは複数のトリガ事象(例えば、場所決定コンポーネント120から受信されている信号、ユーザデバイス110に供給されているユーザ入力、および/または任意の他の適切なトリガ事象に応答して)に応答して情報を送信することができる。
当然ながら、特定の時間におけるユーザデバイス110の場所を決定するために適切ないかなる技法も使用することができるため、場所決定コンポーネント120は、ユーザデバイスからの送信を受信した際、それ自体の(すなわち、場所決定コンポーネントの)場所に基づいてまたは任意の他のコンポーネントの場所に基づいてユーザデバイス110の場所を決定しなければならないわけではないことを理解すべきである。例えば、特定の時間におけるユーザデバイスの場所は、全地球測位システム(GPS)技法、三角測量もしくは三辺測量(例えば、セルネットワークタワーを使用)を使用して、ユーザデバイスと1つもしくは複数のネットワーク接続コンポーネント(例えば、ルータ、ビーコンなど)との間の接続に基づいて、ユーザデバイス110が対をなすか(例えば、先行技法のいずれか1つまたは複数を使用して決定される)、もしくはそうでなければ連通するデバイス(例えば、スマートフォンまたは他のモバイルデバイス)の場所に基づいて、先行技法の任意の組合せで、かつ/または任意の他の適切なユーザデバイス110の場所を決定するための方法で決定することができる。
各情報捕捉コンポーネント130は、ユーザ経験に関連する情報を捕捉するように構成することができる。各コンポーネント130によって捕捉される情報は、適切ないかなるタイプのものでもよい。例えば、情報捕捉コンポーネント130は、コンポーネントの環境もしくは設定の音、映像および/もしくは画像、ユーザの心理状態もしくは感情状態を示す情報、ワールドワイドウェブを介してアクセス可能な情報、ならびに/または任意の他の適切なタイプの情報を捕捉するように構成することができる。
本発明のいくつかの実施形態では、情報捕捉コンポーネント130は、ユーザデバイス110によって捕捉された情報に対する文脈の補強、増大および提供を行えるようになど、ユーザデバイス110によって提供される機能に相補的な機能を提供するように設計することができる。例えば、情報を捕捉する経験が、ユーザが参加者であるコンサートである場合、ユーザによって操作されるユーザデバイス110は、ユーザの視点からコンサートの映像を捕捉するスマートフォンであり、次いで、情報捕捉コンポーネント130は、異なる有利な地点からコンサートのビデオ映像を捕捉するか、またはコンサート中の特定の時間にユーザがダンスをしている、歌っている、およびユーザの周りの人々と交流している様子を表現するスタンドアロンビデオカメラであり得る。本発明はこの点において限定されないため、多くのタイプの情報のいずれかを捕捉するために、多くのタイプの情報捕捉コンポーネント130のいずれかを採用することができる。
ユーザデバイスによって捕捉された情報に相補的な情報を捕捉するように設計された情報捕捉コンポーネント130は、例えば、スタンドアロンコンポーネント(例えば、デバイス)であっても、または1つもしくは複数の他のコンポーネントと統合されてもよく、不動式、可動式またはその両方(例えば、特定の場所に固定されていない場合には断続的に可動式)であり得る。不動式の場合、コンポーネント130は、街角、イベント会場内(例えば、スタンド、エントリポイントなどに取り付けられる)、レクリエーション空間など、適切ないかなる場所にも固定することができる。可動式の場合、コンポーネント130は、人間(例えば、写真家、エンタテイナなど)および/または機械コンポーネント(例えば、モバイルカート、その場所の上方にぶらさがった輸送装置など)によって持ち運ぶことができる。
当然ながら、情報捕捉コンポーネント130は、物理的設定を表現または説明するコンテンツを捕捉するように構成しなければならないわけではない。例えば、情報捕捉コンポーネント130は、ワールドワイドウェブを介してアクセス可能な1つまたは複数のサイトからコンテンツを検索するように構成されたウェブクローラを含み得る。例えば、情報を捕捉する経験がユーザと有名人との偶然の出会いである場合、ウェブクローラは、ユーザによってそのデバイスを用いて捕捉された他の情報に対する文脈の補完または提供を行えるようになど、ウェブ上の1つまたは複数のサイトから有名人に関する情報を検索することができる。検索した情報は、例えば、後に、ユーザのデバイスおよび/または1つもしくは複数の他のコンポーネントによって捕捉された情報と関連付けることができる(例えば、以下で説明される技法を使用して)。本発明はこの点において限定されないため、適切な任意のコンポーネントにより、適切ないかなるタイプの情報も捕捉または検索することができる。
各ブックマークサーバ140は、上記で説明されるコンポーネントのいずれか1つまたは複数によって捕捉されたユーザ経験に関する情報を格納および検索するために、情報リポジトリ145にアクセスするように適切に構成されたデバイスを含み得る。いくつかの実施形態では、ブックマークサーバ140は、個々のユーザ経験に関連する情報を場所および時間と関連付けるために、ユーザデバイス110および情報捕捉コンポーネント130から受信された情報を場所決定コンポーネント120から受信された情報と相関させることができる。
これは、多くの方法のいずれかで遂行され得る。いくつかの実施形態では、特定のユーザと関連付けられた1つまたは複数のユーザデバイス110から受信された情報の様々なアイテムの各々は、アイテムが作成、受信および/または検索された時間を示すタイムスタンプを含み得、この時間インジケーションは、各アイテムが作成、受信および/または検索された時間にユーザがどこに位置していたかを決定するため、場所決定コンポーネント120によって提供された異なる時間におけるユーザの場所のインジケーションと比較することができる。次いで、このユーザ/時間/場所インジケーションを使用して、1つまたは複数の情報捕捉コンポーネント130によって捕捉された対応する情報を識別することができる。
例として、ユーザのスマートフォンによって自動的に捕捉されたサッカーの試合中のゴールの映像は、タイムスタンプを含み得、タイムスタンプは、得点が入った際にユーザがスタジアムのどこに座っていたかを決定するために、時間経過に伴うユーザの場所を説明するデータと整合させることができる。次いで、この情報を使用して、スタジアムにおいて別のカメラによって捕捉された映像(例えば、別の有利な地点からのゴール、ユーザが座っていたスタジアムのセクションにおける観衆の他のメンバーからの反応などを示す)、報道関係者席のマイクロフォンによって捕捉されたアナウンサーの得点獲得の叫び声の音の記録、得点獲得の結果として試合および/もしくは選手に関連するウェブから検索された最新の統計、世界中から試合を観戦している他のファンの反応を説明する情報、得点が入る前および入った後のスタジアムの音レベルに関する情報、ならびに/または任意の他の適切な情報など、同じ場所および時間におけるイベントを説明する様々なコンポーネントによって捕捉された対応する情報を識別することができる。当然ながら、適切ないかなる技法も採用することができるため、本発明は、上記で説明される方法で、ユーザデバイス110および情報捕捉コンポーネント130から受信された情報を場所決定コンポーネント120から受信された情報と相関させることに限定されないことを理解すべきである。
また、特定の時間におけるユーザの「場所」は、適切ないかなるレベルの粒度でも定義できることも理解すべきである。例えば、同じ会場(例えば、同じサッカースタジアム、同じ街角、同じ海浜、同じ博物館など)、同じ都市エリア(例えば、Harlem、同じスキーリゾート、Las Vegas Stripなど)、同じ都市、州、県、国、大陸、半球などで起こっているイベントに関連する両方のコンポーネントからの情報に基づいて、特定のユーザデバイス110から受信された情報は、情報捕捉コンポーネント130から受信された情報(および/または別のユーザデバイス110から受信された情報)と相関させることができる。本発明は、特定の方法でユーザの「場所」を定義することに限定されない。
さらに、本明細書で説明される本発明のいくつかの実施形態は、同じ場所で起こっているイベントに関連する情報に基づいて、異なるコンポーネントから受信された情報を相関させることができるが、本発明のすべての実施形態が場所に基づいて情報を相関させることに限定されるわけではないことを理解すべきである。例えば、様々なコンポーネントから受信された情報は、同じもしくは同様のイベント、または同様の設定で、同様の環境条件で、同様の活動中に起こるイベントなどに関連する情報に基づいてなど、適切ないかなる特性に基づいても相関させることができる。例えば、特定のユーザデバイス110から受信された情報は、同じイベントに関連する情報(例えば、各ユーザが異なる物理的場所からイベントを経験している間の)、水中で起こっているイベントに関連する情報(例えば、各ユーザが異なる海で泳いでいる間の)、外で雪が降っている間の情報(例えば、世界の異なる地域のユーザが両方とも雪だるまを作っている際の)、台所での情報(例えば、異なる場所にいるユーザの各々が特定の料理を作っている間の)など、両方のデバイスからの情報に基づいて、別のユーザデバイス110から受信された情報と相関させることができる。本発明は、この目的のために場所情報のみを使用することに限定されないため、適切ないかなるイベント特性も、あるコンポーネントから受信された情報を別のコンポーネントから受信された情報と相関させるために使用することができる。
代表的なシステム100では、ユーザデバイス110、場所決定コンポーネント120、情報捕捉コンポーネント130およびブックマークサーバ140は、ネットワーク150を介して通信し、ネットワーク150は、適切ないかなる通信インフラも含み得、適切な任意の通信プロトコルおよび/または技法を使用して通信を可能にする。例えば、1つまたは複数のネットワーク150は、無線および/または有線通信を可能にすることができ、適切なトポロジで配列された適切ないかなるコンポーネントも含み得る。
加えて、ユーザデバイス110、場所決定コンポーネント120、情報捕捉コンポーネント130およびブックマークサーバ140のいずれか1つまたは複数は、ネットワーク150を介して実質的に継続的にまたは断続的に通信することができる。例えば、情報(例えば、特定の量の情報、特定のタイプの情報など)が捕捉された後などに、情報捕捉コンポーネント130は、ネットワーク150に継続的に接続するのではなく、むしろ断続的に接続することができる。接続され次第、情報捕捉コンポーネント130によって捕捉されたいかなる情報も、ブックマークサーバ140により、他のデバイスによって捕捉された情報と同期させることができる(例えば、コンテンツが捕捉された時間のインジケーションを使用して)。
本発明のいくつかの実施形態は、ユーザ経験に関連する情報を捕捉するための異なる手法を提供することができる。例えば、一手法によれば、経験に関連する情報の捕捉は、1つまたは複数の「トリガ基準」が満たされていることに応答して開始することができる。この手法を採用する実施形態では、情報捕捉は、自動的に(例えば、1つまたは複数の事前に定義された基準が満たされていることに応答してなど、プログラムされた命令の実行を介して)、手動で(例えば、ユーザ入力に応答して)、および/または自動技法と手動技法との何らかの組合せを使用して開始され得る。
別の手法によれば、本発明のいくつかの実施形態は、そのようなトリガ基準が満たされていることに応答して情報を捕捉するというより、むしろ実質的に継続的に情報を捕捉し、次いで「事後」に特定のイベント、ユーザ、場所および/または時間と捕捉情報を相関させる(例えば、図3を参照して以下で説明される技法を使用して)ためのコンポーネントを提供することができる。事後にイベント、ユーザ、場所および/または時間と捕捉情報を相関させることが望ましい理由の1つは、トリガ基準が満たされているかどうかを判断するために評価され得る情報に常にアクセスできるわけではないためである。例えば、ユーザが着用しているデバイスによって特定のバイオメトリックデータが検出された際にコンテンツの捕捉を開始するようにスタンドアロンコンポーネントがプログラムされているが、バイオメトリックデータが検出される時間にデバイスとの通信が妨害されている場合、スタンドアロンコンポーネントは、デバイスとの通信が回復されるまでコンテンツの捕捉を開始することができず、通信が回復されるのは、経験の一部分が既に過ぎ去った後になる恐れがある。事後に捕捉情報を相関させることが望ましい別の理由は、いくつかの状況では、経験に関連するすべての所望の情報を捕捉するために、トリガ基準が満たされていると判断した後に十分迅速に情報捕捉を開始することが難しいかまたは不可能であるためである。一例として、特定のデータがデバイスによって検出されていることに応答して情報捕捉が開始される場合、いくつかのデバイスは、捕捉予定の経験に関連するすべての所望の情報を検出した後に十分迅速にデータを提供できない場合がある。別の例として、ユーザがソーシャルメディア上で経験についての肯定的なコメントを投稿した場合に経験に関する情報が捕捉される場合、そのようなコメントが投稿された後にのみ行われる情報捕捉の開始は、経験についての特定の情報(すなわち、ユーザの投稿以前の)の省略を招く恐れがある。
従って、本発明のいくつかの実施形態は、特定の時間におけるユーザのバイオメトリックデータ、ソーシャルメディア論評などが関連経験に関する情報を保存すべきであることを示すという決定(例えば)が後に行われた場合、経験に関連する望ましい情報のすべてを維持することおよび使用のために検索することができるように、実質的に継続的に情報を捕捉および格納するための様々なデバイスおよびコンポーネントを提供することができる。
当然ながら、本発明のいくつかの実施形態は、両方の手法を同時に採用すること(例えば、トリガ基準が満たされていることに応答していくつかのコンポーネントによって情報捕捉を開始し、他のコンポーネントが実質的に継続的に情報を捕捉できるように提供すること)、いくつかの状況において一方の手法を使用し、他の状況において他方の手法を使用すること、またはそうでなければ様々な状況において両方の手法を採用することができるため、上記で説明される2つの手法は、相互排他的に採用しなければならないわけではないことを理解すべきである。また、個々のシステムコンポーネントの各々は、情報を捕捉するための複数の手法を採用できることも理解すべきである。例えば、スタンドアロンビデオカメラは、映像コンテンツを実質的に継続的に記録することができるが、音声コンテンツの記録の開始は、特定のトリガ基準が満たされていることに応答してのみ行われる(またはその逆も同様)。加えて、本発明は、適切な任意の方法で適切ないかなる手法も採用できるため、上記で説明される情報捕捉のための2つの手法のみを採用することに限定されないことを理解すべきである。
図2は、1つまたは複数のトリガ基準が満たされていると判断され次第、情報捕捉がそれによって開始される、上記で説明される手法を採用した代表的なプロセス200を表現する。代表的なプロセス200の開始時、動作210では、情報捕捉をトリガするための1つまたは複数の基準が満たされているかどうかの判断が行われる。多くの基準のいずれかをこの目的のために評価することができ、従って、そのような基準が満たされているかどうかの判断も、多くの方法のいずれかで行うことができる。例えば、情報捕捉をトリガするための代表的な基準は、ボタンを押すこと、画面に触れること、手をたたくこと、指を鳴らすこと、目を瞬きすること、特定のジェスチャ、振動などを介してなど、ユーザ入力が受信されていることであり得る。適切ないかなる形態のユーザ入力も、情報捕捉を開始するという決定をもたらし得る。
いくつかの基準は、ユーザからの肯定的な入力の受信を伴わない場合がある。例えば、いくつかの実施形態では、情報捕捉をトリガするための基準は、特定の特性を有するバイオメトリック情報の検出(例えば、ユーザが持ち運んだウェアラブルデバイスによる)を含み得る。一例として、ユーザの心拍数が特定の閾値レートに達したことを示す(例えば、ユーザが興奮していることを示す)情報は、その効果に対する肯定的なユーザ入力がない場合でも情報捕捉を開始するという決定をトリガし得る。他の例として、ユーザの虹彩が拡大したこと、ユーザの声が特定の音量および/またはピッチに達したこと、ユーザが特定のジェスチャまたは動きを実行したこと、ユーザが運動中であり特定の速度または加速度に達したことなどを示す情報は、情報捕捉を開始するという決定をトリガし得る。当然ながら、他の多くのいかなるタイプの情報も情報捕捉を開始するという決定をトリガすることができるため、情報のトリガは、ユーザを説明する情報に限定されない。いくつかの例は、ユーザの周りの騒音レベルが特定の閾値を超えたというインジケーション、閾値数の友人が極めて近くにいるというインジケーション、特定の個人が極めて近くにいるというインジケーション、環境条件が特定の特性を有するというインジケーション、重要なニュースイベントが進行中であるというインジケーションなどを含む。適切ないかなるタイプの情報の検出または受信も、情報捕捉を開始するという動作210における決定に貢献し得る。
動作210において、情報捕捉をトリガするための基準が満たされていないと判断された場合、動作210が繰り返される。従って、代表的なプロセス200は、情報捕捉を開始するという判断が行われた場合にのみ動作220に進む。
動作220では、情報捕捉が開始される。この情報捕捉は、ユーザデバイス110および/または情報捕捉コンポーネント130(図1)によってなど、多くの異なるコンポーネントのいずれかにより、多くの方法のいずれかで実行することができる。例えば、カメラコンポーネントは、場面の映像の捕捉を開始するように指示を受けることができ、マイクロフォンコンポーネントは、音声記録の捕捉を開始するように指示を受けることができ、心拍数センサは、ユーザの心拍数の捕捉を開始するように指示を受けることができ、通信コンポーネントは、友人または他の個人が近くにいるかどうかを判断するように指示を受けることができるなどである。
動作220は、適切な任意の数のコンポーネントによって情報捕捉を開始することを伴い得る。例えば、ユーザによって操作されるスマートフォンのカメラコンポーネントおよびスタンドアロンカメラは両方とも、後に同期させることができる特定の場面を説明する異なるコンテンツの主部を作成するためになど、映像の捕捉を同時に開始するように指示を受けることができる。別の例として、異なるユーザによって操作される異なるスマートフォンのカメラコンポーネントは、経験を共有する異なるグループメンバーを表現するためになど、複数の有利な地点から場面を捕捉するためになど、画像の捕捉を同時に開始するように指示を受けることができる。適切ないかなる数およびタイプのコンポーネントもコンテンツの捕捉を開始することができる。
次いで、代表的なプロセス200は動作230に進み、動作230では、動作220で捕捉されたいかなる情報も記録することができる。これも多くの方法のいずれかで実行され得る。いくつかの実施形態では、動作220でコンテンツを捕捉したデバイスは、情報リポジトリ145における記録のためにブックマークサーバ140に情報を伝達することができる。格納のための情報の伝達は、情報が捕捉され次第またはある遅延後に起こり得る。次いで、代表的なプロセス200は完了する。
図3は、特定のイベント、ユーザ、場所および/または時間に関連してなど、異なるコンポーネントから受信された情報をそれによって相関させることができる代表的なプロセス300を表現する。本発明のいくつかの実施形態では、情報の異なるアイテムを相関させることにより、ユーザが特定の経験に関連して収集される情報のすべてにアクセスすること、および/または複数のユーザが経験に関連する情報を共有することができる。
代表的なプロセス300の開始時、動作310では、経験に関連して捕捉されているいかなる情報も受信される。図1に関連して上記で示されるように、いくつかの実施形態では、1つまたは複数のユーザデバイス110、場所決定コンポーネント120および/または情報捕捉コンポーネント130によって捕捉された情報のアイテムは、1つまたは複数のブックマークサーバ140によって受信することができ、従って、動作310は、ブックマークサーバによって実行することができる。しかし、適切ないかなるコンポーネントも捕捉情報を受信することおよび/または以下で説明される相関ステップのいずれかもしくはすべてを実行することができるため、本発明は、そのような実装形態に限定されない。
次いで、代表的なプロセス300は動作320に進み、動作320では、動作310で受信された情報のアイテムが特定のイベント、ユーザ、時間および/または場所と相関される。これは、多くの方法のいずれかで実行することができる。本発明のいくつかの実施形態では、動作310で受信された特定の情報のアイテムは、ユーザと関連付けられているものとして知られているデバイスによって捕捉されている情報のアイテムに少なくとも部分的に基づいて、特定のユーザと相関させることができる。例えば、特定のユーザが操作しているものとして知られている特定のユーザデバイス110から受信された情報のアイテムは、そのユーザと自動的に関連付けることができる。
情報のアイテムは、例えば、アイテムに含まれる時間情報および/またはアイテムと共に受信される時間情報に基づいて特定の時間と相関させることができる。例えば、本発明のいくつかの実施形態では、ユーザデバイス110によって捕捉された情報のアイテムは、アイテムと関連付けられた時間を示すタイムスタンプを含み得る。本発明のいくつかの実施形態では、指示された時間は、アイテムが、捕捉された時間(例えば、ユーザデバイス110または情報捕捉コンポーネント130によって)、受信された時間(例えば、ユーザデバイス110または情報捕捉コンポーネント130からブックマークサーバによって)および/または検索された時間(例えば、ウェブのサイトから情報捕捉コンポーネント130によって)を反映し得る。しかし、本発明はこの点において限定されないため、時間インジケーションは適切ないかなる時間も反映し得ることを理解すべきである。
情報のアイテムは、多くの異なる方法のいずれかで特定の場所と相関させることができる。一例として、アイテムは、その時間におけるユーザの場所が知られている際、特定のユーザおよび時間と関連付けられているアイテムに基づいて特定の場所と相関させることができる。例えば、特定のユーザと関連付けられたデバイスにより、特定の時間にコンテンツの特定のアイテムが作成されたというインジケーションは、アイテムが作成された場所を識別するために、特定の時間におけるユーザのデバイスの場所を示す情報(例えば、場所決定コンポーネント120によって提供される)と相互参照することができる。別の例として、情報のアイテムは、経度および/もしくは緯度情報、またはアイテムと相関させる場所を識別するために全地球測位システムによって使用可能な他の情報などの情報と共に含まれるデータに基づいて、特定の場所と相関させることができる。さらなる別の例として、情報のアイテムは、既知の場所におけるコンポーネントによって捕捉されているアイテムに基づいて特定の場所と相関させることができる。例えば、固定された場所におけるコンポーネント(例えば、据え付けられたスタンドアロンビデオカメラ)によって捕捉されたアイテムは、その場所と自動的に相関させることができる。
また、情報のアイテムは、多くの方法のいずれかで特定のイベントと相関させることもできる。例えば、アイテムをイベントと関連付けられているものとして知られている特定の場所(例えば、イベント会場の場所、遠方で人々がイベントを経験した場所)と相関させることも(例えば、上記で説明される技法を使用して)、または情報のアイテムがイベントを識別することもできる(例えば、アイテムは、イベントを命名したワールドワイドウェブから検索されたアイテムであり得る)。多くの技法のいずれも情報のアイテムをイベントと相関させるために使用することができる。
当然ながら、情報のアイテムを特定のイベント、ユーザ、場所および/または時間と相関させた時点で、情報のアイテムは、情報の統合、アクセスおよび共有を可能にするために相互参照することができる。例えば、すべてが特定のイベントと相関された異なるソースからの様々な情報のアイテムは、例えば、イベントと関わりがある異なるユーザが情報にアクセスできるようにするために(例えば、イベント自体に対する好みの表現、特定のタイプのイベント、イベントの出演者などに基づいて)統合することができる。特定のユーザと相関された情報のアイテムは、例えば、そのユーザと関わりがある他のユーザ(例えば、「友人」、家族など)が情報にアクセスできるようにするために統合することができる。特定の場所および時間と相関された情報のアイテムは、例えば、特定の場所と関わりがあるユーザ(例えば、その場所またはその場所の近くに住むユーザ、その場所の近くで育ったユーザなど)および/または特定の時間に特定の場所で起こったものと関わりがあるユーザ(例えば、特定の時間に特定の場所にいたユーザ、それらのユーザと関わりがある他のユーザなど)が情報にアクセスできるようにするために統合することができる。特定のイベント、ユーザ、場所および/または時間との情報の相関に基づく多くのアクセスモードのいずれも想定することができ、本発明は特定のモードに限定されない。
代表的なプロセス300の動作330では、この情報へのアクセスが提供される。情報へのアクセスは、多くの方法のいずれかで提供することができる。‘340および‘561出願で説明されている代表的な技法の1つでは、情報は、「タイムライン」ディスプレイ上に提示することができ、その結果、例えば、ユーザは、時間経過に伴うユーザの場所と関連付けられた情報を閲覧することができる。図4は、特定の時間帯にわたってユーザの場所と関連付けられた情報を表現する代表的なタイムラインを表現する。示される代表的なタイムラインでは、様々なマーカーは特定の時点に関連し、マーカーを介してアクセス可能な情報は、それらの特定の時点におけるユーザの場所に関連する。この例では、ユーザは、タイムラインによって表されている時間帯中に場所を変更しており、その結果、マーカー402は、第1の時間におけるある場所202に対応し、マーカー404は、第2の(後続の)時間における別の場所204に対応し、マーカー406は、第3の時間における場所206に対応するなど、以下同様である。当然ながら、ユーザがタイムラインによって表されている時間帯中に場所を変更しなかった場合、様々なマーカーは、異なる時間における同じ場所に対応し得る。
適切ないかなる情報も、タイムライン上で表される特定の時点と関連付けることができる。図4に示される代表的なタイムラインでは、音楽ファイルはマーカー404と関連付けられ、画像はマーカー404と関連付けられ、映像ファイルはマーカー406と関連付けられ、テキスト情報はマーカー408と関連付けられ、別の音楽ファイルはマーカー410と関連付けられる。当然ながら、図4には示されていないが、複数のタイプの情報を特定の時点と関連付けることができる。例えば、ユーザが、そのお気に入りのバンドがコンサートでステージに立つところを見た時点では、コンサートの開始を表現する映像コンテンツ、ステージに立つところを見た際のユーザおよびその周りの人々の顔の表情を表現する1つまたは複数の画像、ステージに立つところを見た際のユーザの周りのその友人のテキストインジケーション、ショーの開始に伴う騒音レベルの上昇を表現するグラフ、様々なソーシャルメディアプラットフォームから集められた他のユーザからのショーの開始に対する論評が存在し得る。図4に示されるもののようなタイムラインを介してアクセス可能になったイベントに関する情報は、イベント中の異なる時間における観衆の熱狂を示す音レベルの記述子、参加者の数、ユーザの心理状態もしくは感情状態を示す情報、ユーザの物理的な周囲状況(例えば、気象条件)を説明する情報、および/または任意の他の適切なタイプの情報を含み得る。
参加者が利用できるようになったコンテンツは、「原」コンテンツ(例えば、おおよそ参加者が経験したようなまたは外部源から集められた)でも、または所望のユーザ経験を提供するためにフィルタ処理、修正、拡張、セグメント化、リミックスおよび/または別の方法での修正が行われたものでもよい。そのような修正は、自動的に、手動でまたは自動技法と手動技法との何らかの組合せを使用して実行することができる。例えば、いくつかの実施形態は、ユーザが利用できるようになった情報をユーザが編集または修正できるようにし得る。例えば、ユーザのタイムラインで公開されているその写真を好まないユーザは、他のユーザに公開されないように写真を削除することができる。
当然ながら、本発明は、タイムライン表現を介して情報をアクセス可能にすることに限定されない。表示、提示または他の形態のアクセスのための適切ないかなる方法も提供することができる。一例として、情報は、特定の時間帯中(例えば、イベント全体を通じて異なるステージで複数の演奏が行われる音楽祭中)にユーザが最も多く位置していた場所を示す「ヒートマップ」を介してなど、マップの形態で利用可能にすることができる。この実装モードでは、様々な情報のアイテムの各々は、例えば、マップ上の異なる場所と関連付けることができる。
別の例として、「ニュースフィード」は、情報の異なるアイテムを表示することができ、情報の異なるアイテムは、適切ないかなる順番でも配列することができる。例えば、情報のアイテムは、ユーザが経験した様々なイベントとの一致性に基づいて、ユーザにとっての推定される重要性(任意の適切な方法で決定される)に基づいて、ユーザの現在の場所および/もしくはユーザが何らかの関連性を示した場所との一致性に基づいて、前述の何らかの組合せで、または任意の他の適切な方法で時系列に配列することができる。
さらなる別の例として、マルチメディアモンタージュは、様々なタイプの情報から生成することができる。ユーザが最初にそのお気に入りのバンドをコンサートで見るという上記で与えられる例を使用して示すと、モンタージュは、ショーの開始の映像、ショー中の様々なポイントにおけるユーザおよびその周りのユーザの友人の写真、ショー中の様々な時間においてソーシャルメディアに投稿された異なるコメントを示すグラフィクス、異なる歌に合わせて踊っているユーザの映像、ショー中の様々なポイントにおいてソーシャルメディア活動がどのように取り上げられているかを示すグラフィクス、ショー中の照明および他の効果を表現する映像を含むシーケンスを含み得、それらはすべて、コンサート中に捕捉された音声に合わせて設定することができる。適切ないかなるタイプの情報もモンタージュで表すことができる。
情報は、任意の適切なプラットフォームを介してユーザが利用できるようにされ得る。例えば、情報は、ワールドワイドウェブを介して、イベントの現場に位置する物理的な表示の場を介して、コンピューティングデバイス上で実行しているアプリケーション(例えば、モバイルの「アプリ」)を介して、ならびに/または任意の他の適切な技法および/もしくはメカニズムを使用して利用できるようにされ得る。さらに、情報は、ユーザデバイス(例えば、ユーザデバイス110、図1)と他のコンポーネント(例えば、ブックマークサーバ140、図1)との間の双方向通信を介して利用可能にしなければならないわけではない。例えば、ユーザのモバイルデバイス上で実行しているアプリは、以前にデータベースから検索された情報を表示することができる。適切な任意の通信モードを採用する適切ないかなる技法も、ユーザに情報を提示するために使用することができる。
いくつかの実施形態では、ユーザは、他の特定のユーザのみが情報にアクセスできるように、および/または指定された方法でのみ情報が使用されるように、その経験に関連する特定の情報をプライベート用として指定することができる。例えば、ユーザは、ユーザが参加したコンサートに関連する映像(例えば、ユーザがそのスマートフォンまたは他のユーザデバイス110を使用して記録した映像、情報捕捉コンポーネント130によって記録されたショーでのユーザを描写した映像など)をプライベート用として指定し、特定の人々のみが映像を閲覧できるように、他のユーザが「その」タイムラインで映像を使用できないようになど、指定することができる。ユーザは、適切な任意の方法でその経験に関連する情報へのアクセスおよび/または使用を制限することができる。
さらに、本発明のいくつかの実施形態では、そのような制限は、イベント、場所および/または時間ベースであり得る。ユーザが参加したコンサートに関連する映像の上記の例を使用して示すと、ユーザは、コンサート中にユーザの極めて近くにいた他のユーザのみ、特定の時間(例えば、特定の役者がステージに上がっていた際)に近くにいたユーザなどが映像にアクセスおよび/または使用できるように指定することができる。
図5は、本発明の特定の態様を実装するために使用することができる適切なコンピューティングシステム500の一例を示す。コンピューティングシステム500は、適切なコンピューティングシステムの単なる一例であり、本発明の使用または機能の範囲に関する限定を示唆することを意図しない。コンピューティングシステム500は、例示的なコンピューティングシステム500において示されるコンポーネントのいずれか1つまたは組合せに関連する依存性を有するものとしても、それらに関連する要件を有するものとしても解釈されるべきではない。この点において、本発明の実施形態は、他の多くの一般用途または特殊用途のコンピューティングシステムまたは構成と共に動作可能である。本発明での使用に適した周知のコンピューティングシステムおよび/または構成の例は、これらに限定されないが、パーソナルコンピュータ、サーバコンピュータ、モバイルまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースシステム、セットトップボックス、プログラム可能家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステムまたはデバイスのいずれかを含む分散型コンピューティングシステム、および同様のものを含む。
コンピューティングシステムは、プログラムモジュールなど、コンピュータ実行可能命令を実行することができる。一般に、プログラムモジュールは、特定のタスクを実行するかまたは特定の抽象データタイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。また、本発明は、通信ネットワークを通じてリンクされたリモート処理デバイスによってタスクが実行される分散型コンピューティングシステムにおいて実践することもできる。分散型コンピューティングシステムでは、プログラムモジュールは、メモリ記憶装置を含むローカルコンピュータ記憶媒体とリモートコンピュータ記憶媒体との両方に位置し得る。
図5は、コンピュータ510の形態の一般用途のコンピューティングデバイスを表現する。コンピュータ510のコンポーネントは、これらに限定されないが、処理ユニット520と、システムメモリ530と、システムメモリを含む様々なシステムコンポーネントを処理ユニット520に結合するシステムバス521とを含み得る。システムバス521は、各種のバスアーキテクチャのいずれかを使用した、メモリバスまたはメモリコントローラ、周辺機器用バスおよびローカルバスを含む、いくつかのタイプのバス構造のいずれかであり得る。限定ではなく、例示として、そのようなアーキテクチャは、業界標準アーキテクチャ(ISA)バス、マイクロチャネルアーキテクチャ(MCA)バス、拡張ISA(EISA)バス、ビデオ電子機器規格協会(VESA)ローカルバス、およびメザニン(Mezzanine)バスとしても知られる周辺機器相互接続(PCI)バスを含む。
コンピュータ510は、通常、各種のコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピュータ510がアクセスすることができる利用可能ないかなる媒体でもあり得、揮発性媒体と不揮発性媒体との両方、着脱可能な媒体と着脱不能な媒体との両方を含む。限定ではなく、例示として、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含み得る。コンピュータ記憶媒体は、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報の格納のための任意の方法または技術で実装される揮発性媒体と不揮発性媒体との両方、着脱可能な媒体と着脱不能な媒体との両方を含む。コンピュータ記憶媒体は、これらに限定されないが、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)もしくは他の光ディスク記憶装置、または磁気カセット、磁気テープ、磁気ディスク記憶装置もしくは他の磁気記憶装置、あるいは所望の情報の格納に使用することができ、コンピュータ510がアクセスすることができる任意の他の1つまたは複数の媒体を含む。通信媒体は、通常、コンピュータ可読命令、データ構造、プログラムモジュール、または搬送波もしくは他の輸送メカニズムなどの変調データ信号の他のデータを具体化し、任意の情報搬送媒体を含む。「変調データ信号」という用語は、信号の情報を符号化するように設定または変更されたその特性の1つまたは複数を有する信号を意味する。限定ではなく、例示として、通信媒体は、有線ネットワークまたは有線直結接続などの有線媒体、音響、RF、赤外線および他の無線媒体などの無線媒体を含む。また、上記のいずれの組合せもコンピュータ可読媒体の範囲内に含まれるべきである。
システムメモリ530は、読み取り専用メモリ(ROM)531およびランダムアクセスメモリ(RAM)532などの揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。起動中など、コンピュータ510内の要素間での情報の転送を支援する基本的なルーチンを含む、基本的な入力/出力システム533(BIOS)は、通常、ROM 531に格納される。RAM 532は、通常、処理ユニット520からの速やかなアクセスが可能なおよび/または処理ユニット520上で現在動作中のデータおよび/またはプログラムモジュールを含む。限定ではなく、例示として、図5は、オペレーティングシステム534、アプリケーションプログラム535、他のプログラムモジュール536およびプログラムデータ537を示す。
また、コンピュータ510は、他の着脱可能/着脱不能な揮発性/不揮発性のコンピュータ記憶媒体も含み得る。単なる例示として、図5は、着脱不能な不揮発性の磁気媒体から読み取るかまたは同磁気媒体へ書き込むハードディスクドライブ541、および着脱可能な不揮発性の磁気ディスク552から読み取るかまたは同磁気ディスク552へ書き込む磁気ディスクドライブ551、ならびにCD−ROMまたは他の光学媒体などの着脱可能な不揮発性の光ディスク556から読み取るかまたは同光ディスク556へ書き込む光ディスクドライブ555を示す。例示的なコンピューティングシステムにおいて使用することができる他の着脱可能/着脱不能な揮発性/不揮発性のコンピュータ記憶媒体は、これらに限定されないが、磁気カセットテープ、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMおよび同様のものを含む。ハードディスクドライブ541は、通常、インタフェース540などの着脱不能なメモリインタフェースを通じてシステムバス521に接続され、磁気ディスクドライブ551および光ディスクドライブ555は、通常、インタフェース550などの着脱可能なメモリインタフェースによってシステムバス521に接続される。
上記で論じられ、図5に示されるドライブおよびそれらの関連コンピュータ記憶媒体は、コンピュータ510のためのコンピュータ可読命令、データ構造、プログラムモジュールおよび他のデータの格納を提供する。図5では、例えば、ハードディスクドライブ541は、オペレーティングシステム544、アプリケーションプログラム545、他のプログラムモジュール546およびプログラムデータ547を格納するものとして示されている。これらのコンポーネントは、オペレーティングシステム534、アプリケーションプログラム535、他のプログラムモジュール536およびプログラムデータ537と同じであるか異なるものであるかのいずれかであり得ることに留意されたい。ここで、オペレーティングシステム544、アプリケーションプログラム545、他のプログラムモジュール546およびプログラムデータ547には、最低でもそれらが異なるコピーであることを示すために異なる番号が与えられている。ユーザは、キーボード562、およびマウス、トラックボールまたはタッチパッドと一般的に呼ばれているポインティングデバイス561などの入力デバイスを通じて、コマンドおよび情報をコンピュータ510に入力することができる。他の入力デバイス(図示せず)は、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナまたは同様のものを含み得る。これらのおよび他の入力デバイスは、システムバスに結合されたユーザ入力インタフェース560を通じて処理ユニット520に接続される場合が多いが、パラレルポート、ゲームポートまたはユニバーサルシリアルバス(USB)などの他のインタフェースおよびバス構造によって接続することもできる。また、モニタ591または他のタイプの表示デバイスも、ビデオインタフェース590などのインタフェースを介してシステムバス521に接続される。モニタに加えて、コンピュータは、スピーカ597およびプリンタ596などの他の周辺機器出力デバイスも含み得、これらは、出力周辺機器インタフェース595を通じて接続することができる。
コンピュータ510は、リモートコンピュータ580などの1つまたは複数のリモートコンピュータへの論理接続を使用してネットワーク接続環境で動作することができる。リモートコンピュータ580は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他の共通のネットワークノードであり得、通常、コンピュータ510に関連して上記で説明される要素の多くまたはすべてを含むが、図5には、メモリ記憶装置581のみが示されている。図5に表現される論理接続は、ローカルエリアネットワーク(LAN)571および広域ネットワーク(WAN)573を含むが、他のネットワークも含み得る。そのようなネットワーク接続環境は、オフィス、企業規模のコンピュータネットワーク、イントラネットおよびインターネットで一般的なものである。
LANネットワーク接続環境で使用される場合、コンピュータ510は、ネットワークインタフェースまたはアダプタ570を通じてLAN 571に接続される。WANネットワーク接続環境で使用される場合、コンピュータ510は、通常、インターネットなどのWAN 573上での通信を確立するためのモデム572または他の手段を含む。内蔵型または外付け型であり得るモデム572は、ユーザ入力インタフェース560を介してシステムバス521に、または他の適切なメカニズムに接続することができる。ネットワーク接続環境では、コンピュータ510に関連して表現されるプログラムモジュールまたはその部分は、リモートメモリ記憶装置に格納することができる。限定ではなく、例示として、図5は、メモリ装置581上に存在するものとしてリモートアプリケーションプログラム585を示す。示されるネットワーク接続は例示的なものであり、コンピュータ間で通信リンクを確立する他の手段を使用できることが理解されるであろう。
本発明の実施形態は、1つまたは複数のコンピュータまたは他のプロセッサ上で実行されると上記で論じられる本発明の様々な実施形態を実装する方法を実行する1つまたは複数のプログラムで符号化されたコンピュータ可読記憶媒体(または複数のコンピュータ可読媒体)(例えば、コンピュータメモリ、1つまたは複数のフロッピーディスク、コンパクトディスク(CD)、光ディスク、デジタルビデオディスク(DVD)、磁気テープ、フラッシュメモリ、フィールドプログラマブルゲートアレイもしくは他の半導体デバイスの回路構成、または他の有形コンピュータ記憶媒体)として具体化することができる。前述の例から明らかであるように、コンピュータ可読記憶媒体は、非一時的な形態のコンピュータ実行可能命令を提供するのに十分な時間にわたり情報を保持することができる。そのような1つまたは複数のコンピュータ可読記憶媒体は、上記で論じられるような本発明の様々な態様を実装するために、その上に格納された1つまたは複数のプログラムを1つまたは複数の異なるコンピュータまたは他のプロセッサにロードできるように輸送可能なものであり得る。本明細書で使用される場合、「コンピュータ可読記憶媒体」という用語は、コンピュータが情報を読み取ることができる有形のマシン、メカニズムまたはデバイスのみを包含する。代替としてまたは加えて、本発明は、コンピュータ可読記憶媒体以外のコンピュータ可読媒体として具体化することができる。コンピュータ可読記憶媒体ではないコンピュータ可読媒体の例は、伝播信号のような一時的な媒体を含む。
本発明の少なくとも1つの実施形態のいくつかの態様をこうして説明してきたが、様々な改変形態、変更形態および改善形態が当業者に容易に想到されることを理解されたい。そのような改変形態、変更形態および改善形態は、本開示の一部であることが意図され、本発明の趣旨および範囲内にあることが意図される。さらに、本発明の利点が示されているが、本発明のすべての実施形態が、説明されるすべての利点を含むわけではないことを理解すべきである。いくつかの実施形態は、本明細書においておよびいくつかの例において有利なものとして説明される特徴を実装できない。それに従って、前述の説明および図面は単なる例示である。
本発明の様々な態様は、単独で使用することも、組み合わせて使用することも、前述において説明される実施形態で具体的に論じられていない各種の構成で使用することもでき、従って、その適用において、前述の説明に記載されるかまたは図面に示されるコンポーネントの詳細および構成に限定されない。例えば、一実施形態で説明される態様は、いかなる方法でも他の実施形態で説明される態様と組み合わせることができる。
本発明は、方法として具体化することができ、その例を説明してきた。方法の一部として実行される動作は、任意の適切な方法で順序付けることができる。それに従って、示されるものと異なる順序で動作が実行される実施形態を構築することができ、それらは、説明されるものと異なる動作を含むこと、および/または上記で具体的に説明される実施形態において順次に実行されるものとして動作が示される場合でも、いくつかの動作を同時に実行することを伴うことも可能である。
請求項要素を修正するための請求項における「第1の」、「第2の」、「第3の」などの順序に関する用語の使用は、それ自体が、ある請求項要素の別の請求項要素に対する優先、先行もしくは順序、または方法の動作が実行される時間的順序を含意することはなく、請求項要素を区別するために、特定の名称を有するある請求項要素を同じ名称を有する別の請求項要素と区別するための単なるラベルとして使用される(ただし、順序に関する用語の使用のため)。
また、本明細書で使用される表現および用語は、説明を目的とするものであり、限定するものと見なすべきではない。本明細書における「包含する」、「含む」、「含有する」、「有する」または「伴う」およびそれらの変形例の使用は、その後に列挙されるアイテムおよびそれらの均等物ならびに追加のアイテムを包含することを意味する。

Claims (66)

  1. (A)ユーザによって操作されるユーザデバイスを介して、前記ユーザの経験に関連する第1の情報の捕捉のインジケーションを受信する動作と、
    (B)少なくとも1つの場所決定コンポーネントにより、前記インジケーションが受信される時間における前記ユーザデバイスの場所を決定する動作と、
    (C)前記ユーザデバイスとは別の少なくとも1つの情報捕捉コンポーネントにより、前記ユーザの前記経験に関連する、前記第1の情報と異なる第2の情報の捕捉を開始する動作と、
    (D)少なくとも1つのブックマークサーバにより、前記第1の情報および前記第2の情報を格納する動作であって、前記第1の情報および前記第2の情報を前記ユーザ、前記経験、前記場所、および前記時間の少なくとも1つと関連付けることを含む、格納する動作と、
    (E)前記少なくとも1つのブックマークサーバにより、前記ユーザの前記経験に関連する前記第1の情報および前記第2の情報へのアクセスを前記ユーザに提供する動作と
    を含む、方法。
  2. 前記動作(B)は、前記少なくとも1つの場所決定コンポーネントが、前記少なくとも1つの場所決定コンポーネントの場所に少なくとも部分的に基づいて前記ユーザデバイスの前記場所を決定することを含む、請求項1に記載の方法。
  3. 前記動作(B)は、前記少なくとも1つの場所決定コンポーネントが、前記少なくとも1つの場所決定コンポーネントの前記場所において前記ユーザデバイスからの送信を受信することを含む、請求項2に記載の方法。
  4. 前記送信は、前記ユーザデバイスと関連付けられた識別子を含む、請求項3に記載の方法。
  5. 前記ユーザの前記経験は、前記ユーザがイベント設定でイベントを閲覧することを含み、および前記動作(C)は、前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始することを含む、請求項1に記載の方法。
  6. 前記第1の情報は、第1の有利な地点からの前記イベントおよび/または前記イベント設定を表現し、および前記動作(C)は、第2の有利な地点からの前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始することを含む、請求項5に記載の方法。
  7. 前記動作(C)は、前記イベントにおける前記ユーザを表現する第2の情報の捕捉を開始することを含む、請求項5に記載の方法。
  8. 前記動作(A)は、前記ユーザに関するバイオメトリックデータ、前記ユーザデバイスの周りの環境条件のインジケーション、およびソーシャルメディアプラットフォーム上の前記イベントに関連する論評の1つまたは複数を捕捉することを含む、請求項5に記載の方法。
  9. 前記動作(A)は、捕捉されている前記ユーザに関するバイオメトリック情報のインジケーションを受信することを含み、前記バイオメトリック情報は、前記ユーザの心拍数が特定の閾値レートに達したこと、前記ユーザの虹彩が閾値量だけ拡大したこと、前記ユーザの声が特定の音量および/またはピッチに達したこと、ならびに前記ユーザが特定のジェスチャまたは動きを実行したことの1つまたは複数を含む、請求項8に記載の方法。
  10. 前記動作(A)は、前記ユーザデバイスの周りの環境条件のインジケーションを受信することを含み、前記環境条件は、前記ユーザデバイスの周りの騒音レベル、前記ユーザの閾値数の友人が前記ユーザデバイスの極めて近くにいること、特定の個人が前記ユーザデバイスの極めて近くにいること、および天候関連のイベントが前記ユーザデバイスの周りで起こっていることの1つまたは複数を含む、請求項8に記載の方法。
  11. 前記動作(C)は、前記ユーザの画像、映像および/もしくは音声、前記イベント、ならびに/または前記イベント設定の捕捉を開始することを含む、請求項8に記載の方法。
  12. 前記動作(C)は、前記少なくとも1つの情報捕捉コンポーネントにより、ワールドワイドウェブからの前記経験に関連する第2の情報の検索を開始することを含む、請求項1に記載の方法。
  13. 前記動作(C)は、前記ユーザ以外の個人によって操作される第2のユーザデバイスにより、前記第2の情報の捕捉を開始することを含む、請求項1に記載の方法。
  14. 前記動作(C)は、前記動作(A)における前記インジケーションを受信することおよび/または前記動作(B)における前記場所を決定することに応答して実行される、請求項1に記載の方法。
  15. 前記動作(A)は、前記ユーザデバイスへのユーザ入力に応答して前記第1の情報の捕捉のインジケーションを受信することを含む、請求項1に記載の方法。
  16. 前記ユーザ入力は、前記ユーザデバイス上のボタンを押すこと、前記ユーザデバイスの画面に触れること、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された手をたたくこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された指を鳴らすこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された目を瞬きすること、および前記ユーザデバイスを保持している間に前記ユーザによって実行されたジェスチャを含む、請求項15に記載の方法。
  17. 前記動作(A)は、前記ユーザデバイス上で実行しているモジュールが、1つまたは複数のトリガ基準が満たされていると判断することに応答して、前記第1の情報の捕捉のインジケーションを受信することを含む、請求項1に記載の方法。
  18. 前記動作(E)は、前記ユーザ以外の個人に前記第1の情報および前記第2の情報へのアクセスを提供することを含む、請求項1に記載の方法。
  19. 前記個人は、前記ユーザにより、前記第1の情報および前記第2の情報へのアクセスを受信するように指定される、請求項18に記載の方法。
  20. 前記動作(E)は、前記個人と前記ユーザとの関連性、前記経験、および/または前記場所を識別することに応答して自動的に前記個人にアクセスを提供することを含む、請求項18に記載の方法。
  21. 前記動作(E)は、前記ユーザが前記第1の情報および前記第2の情報の配布を承認した後にのみ、前記個人にアクセスを提供することを含む、請求項18に記載の方法。
  22. 前記第1の情報および前記第2の情報は、異なるメディアタイプを含み、前記動作(E)は、前記第1の情報および前記第2の情報を組み込むマルチメディアコンテンツへのアクセスを提供することを含む、請求項1に記載の方法。
  23. 符号化された命令を有する少なくとも1つのコンピュータ可読記憶媒体であって、前記命令は、ユーザデバイス、少なくとも1つの場所決定コンポーネント、前記ユーザデバイスとは別の少なくとも1つの情報捕捉コンポーネント、および少なくとも1つのブックマークサーバを含むシステムにおいて実行されると、
    (A)前記ユーザデバイスを介して、前記ユーザデバイスのユーザの経験に関連する第1の情報の捕捉のインジケーションを受信する動作と、
    (B)前記インジケーションが受信される時間における前記ユーザデバイスの場所を決定する動作と、
    (C)前記ユーザの前記経験に関連する、前記第1の情報と異なる第2の情報の捕捉を開始する動作と、
    (D)前記第1の情報および前記第2の情報を格納する動作であって、前記第1の情報および前記第2の情報を前記ユーザ、前記経験、前記場所、および前記時間の少なくとも1つと関連付けることを含む、格納する動作と、
    (E)前記ユーザの前記経験に関連する前記第1の情報および前記第2の情報へのアクセスを前記ユーザに提供する動作と
    を含む方法を実行する、少なくとも1つのコンピュータ可読記憶媒体。
  24. 前記動作(B)は、前記少なくとも1つの場所決定コンポーネントの場所に少なくとも部分的に基づいて前記ユーザデバイスの前記場所を決定することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  25. 前記動作(B)は、前記少なくとも1つの場所決定コンポーネントが、前記少なくとも1つの場所決定コンポーネントの前記場所において前記ユーザデバイスからの送信を受信することを含む、請求項24に記載の少なくとも1つのコンピュータ可読記憶媒体。
  26. 前記送信は、前記ユーザデバイスと関連付けられた識別子を含む、請求項25に記載の少なくとも1つのコンピュータ可読記憶媒体。
  27. 前記ユーザの前記経験は、前記ユーザがイベント設定でイベントを閲覧することを含み、および前記動作(C)は、前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  28. 前記第1の情報は、第1の有利な地点からの前記イベントおよび/または前記イベント設定を表現し、および前記動作(C)は、第2の有利な地点からの前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始することを含む、請求項27に記載の少なくとも1つのコンピュータ可読記憶媒体。
  29. 前記動作(C)は、前記イベントにおける前記ユーザを表現する第2の情報の捕捉を開始することを含む、請求項27に記載の少なくとも1つのコンピュータ可読記憶媒体。
  30. 前記動作(A)は、前記ユーザに関するバイオメトリックデータ、前記ユーザデバイスの周りの環境条件のインジケーション、およびソーシャルメディアプラットフォーム上の前記イベントに関連する論評の1つまたは複数を捕捉することを含む、請求項27に記載の少なくとも1つのコンピュータ可読記憶媒体。
  31. 前記動作(A)は、捕捉されている前記ユーザに関するバイオメトリック情報のインジケーションを受信することを含み、前記バイオメトリック情報は、前記ユーザの心拍数が特定の閾値レートに達したこと、前記ユーザの虹彩が閾値量だけ拡大したこと、前記ユーザの声が特定の音量および/またはピッチに達したこと、ならびに前記ユーザが特定のジェスチャまたは動きを実行したことの1つまたは複数を含む、請求項30に記載の少なくとも1つのコンピュータ可読記憶媒体。
  32. 前記動作(A)は、前記ユーザデバイスの周りの環境条件のインジケーションを受信することを含み、前記環境条件は、前記ユーザデバイスの周りの騒音レベル、前記ユーザの閾値数の友人が前記ユーザデバイスの極めて近くにいること、特定の個人が前記ユーザデバイスの極めて近くにいること、および天候関連のイベントが前記ユーザデバイスの周りで起こっていることの1つまたは複数を含む、請求項30に記載の少なくとも1つのコンピュータ可読記憶媒体。
  33. 前記動作(C)は、前記ユーザの画像、映像および/もしくは音声、前記イベント、ならびに/または前記イベント設定の捕捉を開始することを含む、請求項30に記載の少なくとも1つのコンピュータ可読記憶媒体。
  34. 前記動作(C)は、ワールドワイドウェブからの前記経験に関連する第2の情報の検索を開始することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  35. 前記動作(C)は、前記ユーザ以外の個人によって操作される第2のユーザデバイスにより、前記第2の情報の捕捉を開始することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  36. 前記動作(C)は、前記動作(A)における前記インジケーションを受信することおよび/または前記動作(B)における前記場所を決定することに応答して実行される、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  37. 前記動作(A)は、前記ユーザデバイスへのユーザ入力に応答して前記第1の情報の捕捉のインジケーションを受信することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  38. 前記ユーザ入力は、前記ユーザデバイス上のボタンを押すこと、前記ユーザデバイスの画面に触れること、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された手をたたくこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された指を鳴らすこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された目を瞬きすること、および前記ユーザデバイスを保持している間に前記ユーザによって実行されたジェスチャを含む、請求項37に記載の少なくとも1つのコンピュータ可読記憶媒体。
  39. 前記動作(A)は、前記ユーザデバイス上で実行しているモジュールが、1つまたは複数のトリガ基準が満たされていると判断することに応答して、前記第1の情報の捕捉のインジケーションを受信することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  40. 前記動作(E)は、前記ユーザ以外の個人に前記第1の情報および前記第2の情報へのアクセスを提供することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  41. 前記個人は、前記ユーザにより、前記第1の情報および前記第2の情報へのアクセスを受信するように指定される、請求項40に記載の少なくとも1つのコンピュータ可読記憶媒体。
  42. 前記動作(E)は、前記個人と前記ユーザとの関連性、前記経験、および/または前記場所を識別することに応答して自動的に前記個人にアクセスを提供することを含む、請求項40に記載の少なくとも1つのコンピュータ可読記憶媒体。
  43. 前記動作(E)は、前記ユーザが前記第1の情報および前記第2の情報の配布を承認した後にのみ、前記個人にアクセスを提供することを含む、請求項40に記載の少なくとも1つのコンピュータ可読記憶媒体。
  44. 前記第1の情報および前記第2の情報は、異なるメディアタイプを含み、前記動作(E)は、前記第1の情報および前記第2の情報を組み込むマルチメディアコンテンツへのアクセスを提供することを含む、請求項23に記載の少なくとも1つのコンピュータ可読記憶媒体。
  45. ユーザによって操作されるユーザデバイスからの送信を受信するように構成された少なくとも1つの通信デバイスと、
    情報を捕捉するように構成されている、前記ユーザデバイスとは別の少なくとも1つの情報捕捉デバイスと、
    前記ユーザデバイスおよび前記少なくとも1つの情報捕捉デバイスによって捕捉された情報を格納し、かつそれへのアクセスを提供するように構成された少なくとも1つの記憶装置と、
    符号化された命令を有する少なくとも1つのコンピュータ可読記憶媒体と、
    少なくとも1つのコンピュータプロセッサであって、前記命令を介して、
    前記少なくとも1つの通信デバイスを介して前記ユーザデバイスから、前記ユーザデバイスのユーザの経験に関連する第1の情報の捕捉のインジケーションを受信することと、
    前記少なくとも1つの通信デバイスによって提供された情報に少なくとも部分的に基づいて、前記インジケーションが受信される時間における前記ユーザデバイスの場所を決定することと、
    前記少なくとも1つの情報捕捉デバイスにより、前記ユーザの前記経験に関連する、前記第1の情報と異なる第2の情報の捕捉を開始することと、
    前記第1の情報および前記第2の情報が前記少なくとも1つの記憶装置によって格納されるようにすることであって、前記格納することは、前記第1の情報および前記第2の情報を前記ユーザ、前記経験、前記場所、および前記時間の少なくとも1つと関連付けることを含む、格納されるようにすることと、
    前記ユーザの前記経験に関連する前記第1の情報および前記第2の情報へのアクセスを前記ユーザに提供することを前記少なくとも1つの記憶装置に行わせることと
    を行うようにプログラムされる、少なくとも1つのコンピュータプロセッサと
    を含む、装置。
  46. 前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの通信コンポーネントの既知の場所に少なくとも部分的に基づいて前記ユーザデバイスの前記場所を決定するようにプログラムされる、請求項45に記載の装置。
  47. 前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの通信デバイスが前記ユーザデバイスからの送信を受信する既知の場所に少なくとも部分的に基づいて前記ユーザデバイスの前記場所を決定するようにプログラムされる、請求項46に記載の装置。
  48. 前記送信は、前記ユーザデバイスと関連付けられた識別子を含む、請求項47に記載の装置。
  49. 前記ユーザの前記経験は、前記ユーザがイベント設定でイベントを閲覧することを含み、および前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの情報捕捉デバイスにより、前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始するようにプログラムされる、請求項45に記載の装置。
  50. 前記第1の情報は、第1の有利な地点からの前記イベントおよび/または前記イベント設定を表現し、および前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの情報捕捉デバイスにより、第2の有利な地点からの前記イベントおよび/または前記イベント設定を表現する第2の情報の捕捉を開始するようにプログラムされる、請求項49に記載の装置。
  51. 前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの情報捕捉デバイスにより、前記イベントにおける前記ユーザを表現する第2の情報の捕捉を開始するようにプログラムされる、請求項49に記載の装置。
  52. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザデバイスから、前記ユーザに関するバイオメトリックデータ、前記ユーザデバイスの周りの環境条件のインジケーション、およびソーシャルメディアプラットフォーム上の前記イベントに関連する論評の1つまたは複数の捕捉のインジケーションを受信するようにプログラムされる、請求項49に記載の装置。
  53. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザデバイスから、捕捉されている前記ユーザに関するバイオメトリック情報のインジケーションを受信するようにプログラムされ、前記バイオメトリック情報は、前記ユーザの心拍数が特定の閾値レートに達したこと、前記ユーザの虹彩が閾値量だけ拡大したこと、前記ユーザの声が特定の音量および/またはピッチに達したこと、ならびに前記ユーザが特定のジェスチャまたは動きを実行したことの1つまたは複数を含む、請求項52に記載の装置。
  54. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザデバイスから、前記ユーザデバイスの周りの環境条件のインジケーションを受信するようにプログラムされ、前記環境条件は、前記ユーザデバイスの周りの騒音レベル、前記ユーザの閾値数の友人が前記ユーザデバイスの極めて近くにいること、特定の個人が前記ユーザデバイスの極めて近くにいること、および天候関連のイベントが前記ユーザデバイスの周りで起こっていることの1つまたは複数を含む、請求項52に記載の装置。
  55. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザの画像、映像および/もしくは音声、前記イベント、ならびに/または前記イベント設定を含む第2の情報の捕捉を開始するようにプログラムされる、請求項52に記載の装置。
  56. 前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの情報捕捉デバイスにより、ワールドワイドウェブからの前記経験に関連する第2の情報の検索を開始するようにプログラムされる、請求項45に記載の装置。
  57. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザ以外の個人によって操作される第2のユーザデバイスを含む少なくとも1つの情報捕捉デバイスにより、前記第2の情報の捕捉を開始するようにプログラムされる、請求項45に記載の装置。
  58. 前記少なくとも1つのコンピュータプロセッサは、前記少なくとも1つの情報捕捉デバイスにより、捕捉されている前記第1の情報の前記インジケーションを受信することおよび/または前記ユーザデバイスの前記場所を決定することに応答して前記第2の情報の捕捉を開始するようにプログラムされる、請求項45に記載の装置。
  59. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザデバイスにより、前記ユーザデバイスへのユーザ入力に応答して前記第1の情報の捕捉のインジケーションを受信するようにプログラムされる、請求項45に記載の装置。
  60. 前記ユーザ入力は、前記ユーザデバイス上のボタンを押すこと、前記ユーザデバイスの画面に触れること、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された手をたたくこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された指を鳴らすこと、前記ユーザデバイスのマイクロフォンまたはカメラによって検出された目を瞬きすること、および前記ユーザデバイスを保持している間に前記ユーザによって実行されたジェスチャを含む、請求項59に記載の装置。
  61. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザデバイス上で実行しているモジュールが、1つまたは複数のトリガ基準が満たされていると判断することに応答して、前記第1の情報の前記捕捉の前記インジケーションを受信するようにプログラムされる、請求項45に記載の装置。
  62. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザ以外の個人に前記第1の情報および前記第2の情報へのアクセスを提供することを前記少なくとも1つの記憶装置に行わせるようにプログラムされる、請求項45に記載の装置。
  63. 前記個人は、前記ユーザにより、前記第1の情報および前記第2の情報へのアクセスを受信するように指定される、請求項62に記載の装置。
  64. 前記少なくとも1つのコンピュータプロセッサは、前記個人と前記ユーザとの関連性、前記経験、および/または前記場所を識別することに応答して自動的に前記個人にアクセスを提供することを前記少なくとも1つの記憶装置に行わせるようにプログラムされる、請求項62に記載の装置。
  65. 前記少なくとも1つのコンピュータプロセッサは、前記ユーザが前記第1の情報および前記第2の情報の配布を承認した後にのみ、前記個人にアクセスを提供することを前記少なくとも1つの記憶装置に行わせるようにプログラムされる、請求項62に記載の装置。
  66. 前記第1の情報および前記第2の情報は、異なるメディアタイプを含み、前記少なくとも1つのコンピュータプロセッサは、前記第1の情報および前記第2の情報を組み込むマルチメディアコンテンツへのアクセスを提供することを前記少なくとも1つの記憶装置に行わせるようにプログラムされる、請求項45に記載の装置。
JP2018514424A 2015-09-16 2016-06-15 情報捕捉および提示のための方法および装置 Pending JP2018536212A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562219310P 2015-09-16 2015-09-16
US62/219,310 2015-09-16
PCT/CA2016/050688 WO2017045068A1 (en) 2015-09-16 2016-06-15 Methods and apparatus for information capture and presentation

Publications (2)

Publication Number Publication Date
JP2018536212A true JP2018536212A (ja) 2018-12-06
JP2018536212A5 JP2018536212A5 (ja) 2019-05-09

Family

ID=58287952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018514424A Pending JP2018536212A (ja) 2015-09-16 2016-06-15 情報捕捉および提示のための方法および装置

Country Status (5)

Country Link
US (2) US20170091205A1 (ja)
EP (1) EP3350720A4 (ja)
JP (1) JP2018536212A (ja)
CN (1) CN108431795A (ja)
WO (1) WO2017045068A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108141903A (zh) * 2015-08-05 2018-06-08 爱奇 用于与接收单元通信的方法和装置
US9813857B2 (en) 2015-08-13 2017-11-07 Eski Inc. Methods and apparatus for creating an individualized record of an event
US9788152B1 (en) 2016-04-01 2017-10-10 Eski Inc. Proximity-based configuration of a device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176130A (ja) * 2008-01-25 2009-08-06 Olympus Corp 情報提示システム、プログラム及び情報記憶媒体
JP2010088886A (ja) * 2008-10-03 2010-04-22 Adidas Ag 場所認識型スポーツ活動モニタリングサービスを提供するためのプログラム製品、方法及びシステム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7945935B2 (en) * 2001-06-20 2011-05-17 Dale Stonedahl System and method for selecting, capturing, and distributing customized event recordings
US20030013459A1 (en) * 2001-07-10 2003-01-16 Koninklijke Philips Electronics N.V. Method and system for location based recordal of user activity
US7327383B2 (en) * 2003-11-04 2008-02-05 Eastman Kodak Company Correlating captured images and timed 3D event data
GB2420044B (en) * 2004-11-03 2009-04-01 Pedagog Ltd Viewing system
CA2615659A1 (en) * 2005-07-22 2007-05-10 Yogesh Chunilal Rathod Universal knowledge management and desktop search system
US20070239788A1 (en) * 2006-04-10 2007-10-11 Yahoo! Inc. Topic specific generation and editing of media assets
DE102006038438A1 (de) * 2006-08-16 2008-02-21 Keppler, Bernhard, Westport Vorrichtung, multifunktionales System und Verfahren zur Ermittlung medizinischer und/oder biometrischer Daten eines Lebewesens
US8594702B2 (en) * 2006-11-06 2013-11-26 Yahoo! Inc. Context server for associating information based on context
US20090041428A1 (en) * 2007-08-07 2009-02-12 Jacoby Keith A Recording audio metadata for captured images
US7917580B2 (en) * 2009-06-05 2011-03-29 Creative Technology Ltd Method for monitoring activities of a first user on any of a plurality of platforms
US8533192B2 (en) * 2010-09-16 2013-09-10 Alcatel Lucent Content capture device and methods for automatically tagging content
US8660369B2 (en) 2010-10-25 2014-02-25 Disney Enterprises, Inc. Systems and methods using mobile devices for augmented reality
US8475367B1 (en) * 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
US9100667B2 (en) * 2011-02-18 2015-08-04 Microsoft Technology Licensing, Llc Life streaming
US9083747B2 (en) * 2011-03-07 2015-07-14 Facebook, Inc. Automated location check-in for geo-social networking system
US8706499B2 (en) * 2011-08-16 2014-04-22 Facebook, Inc. Periodic ambient waveform analysis for enhanced social functions
US9571879B2 (en) * 2012-01-10 2017-02-14 Microsoft Technology Licensing, Llc Consumption of content with reactions of an individual
US20130185750A1 (en) * 2012-01-17 2013-07-18 General Instrument Corporation Context based correlative targeted advertising
US9569986B2 (en) * 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9338186B2 (en) * 2012-04-27 2016-05-10 Lithium Technologies, Inc. Systems and methods for implementing custom privacy settings
US8798926B2 (en) * 2012-11-14 2014-08-05 Navteq B.V. Automatic image capture
US9508103B2 (en) * 2012-12-19 2016-11-29 Google Inc. Deferred social network check-in
WO2014116561A1 (en) * 2013-01-22 2014-07-31 Amerasia International Technology, Inc. Event registration and management system and method employing geo-tagging and biometrics
WO2015015016A1 (es) * 2013-07-31 2015-02-05 Martínez Monreal Salud Método implementado por ordenador para captación de información audiovisual y/o multimedia probatoria y programa de ordenador
US20160205358A1 (en) 2013-08-29 2016-07-14 Fanpics, Llc Imaging attendees at event venues
US9836755B2 (en) * 2014-08-06 2017-12-05 Ebay Inc. Determining a user's event experience through user actions
CN107079138A (zh) * 2014-09-10 2017-08-18 弗莱耶有限公司 使用传感器和参与者与观众标签数据的活动视频的存储和编辑
CN104486436A (zh) * 2014-12-22 2015-04-01 齐晓辰 一种基于智能终端的监控打猎相机的方法及应用系统
US9813857B2 (en) * 2015-08-13 2017-11-07 Eski Inc. Methods and apparatus for creating an individualized record of an event

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176130A (ja) * 2008-01-25 2009-08-06 Olympus Corp 情報提示システム、プログラム及び情報記憶媒体
JP2010088886A (ja) * 2008-10-03 2010-04-22 Adidas Ag 場所認識型スポーツ活動モニタリングサービスを提供するためのプログラム製品、方法及びシステム

Also Published As

Publication number Publication date
US20170091205A1 (en) 2017-03-30
CN108431795A (zh) 2018-08-21
US20180232384A1 (en) 2018-08-16
EP3350720A4 (en) 2019-04-17
EP3350720A1 (en) 2018-07-25
WO2017045068A1 (en) 2017-03-23

Similar Documents

Publication Publication Date Title
US11238635B2 (en) Digital media editing
US11895068B2 (en) Automated content curation and communication
US20160080835A1 (en) Synopsis video creation based on video metadata
EP3488618B1 (en) Live video streaming services with machine-learning based highlight replays
US20160071549A1 (en) Synopsis video creation based on relevance score
US11120835B2 (en) Collage of interesting moments in a video
US9870798B2 (en) Interactive real-time video editor and recorder
US9779775B2 (en) Automatic generation of compilation videos from an original video based on metadata associated with the original video
US9436875B2 (en) Method and apparatus for semantic extraction and video remix creation
US20160099023A1 (en) Automatic generation of compilation videos
CN102945276B (zh) 生成和更新基于事件的回放体验
US20200372064A1 (en) Mood determination of a collection of media content items
US10148885B2 (en) Post-capture selection of media type
US11663261B2 (en) Defining a collection of media content items for a relevant interest
JP2015523010A (ja) 自動デジタルキュレーション及びアクションビデオのタグ付け
TW201417575A (zh) 影像自動字幕
KR20150140559A (ko) 전자 장치, 그 제어 방법 및 시스템
US20180232384A1 (en) Methods and apparatus for information capture and presentation
WO2014179749A1 (en) Interactive real-time video editor and recorder
WO2017193343A1 (zh) 媒体文件分享方法、媒体文件分享设备及终端
TW201401070A (zh) 資料傳輸系統和電子裝置
JP2009211341A (ja) 画像の表示方法およびその表示装置
CN108141705B (zh) 用于创建事件的个性化记录的方法和装置
KR20180053221A (ko) 전자 장치 및 그의 제어 방법
WO2015127385A1 (en) Automatic generation of compilation videos

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20180514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201026