JP2012529685A - スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム - Google Patents

スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム Download PDF

Info

Publication number
JP2012529685A
JP2012529685A JP2012514226A JP2012514226A JP2012529685A JP 2012529685 A JP2012529685 A JP 2012529685A JP 2012514226 A JP2012514226 A JP 2012514226A JP 2012514226 A JP2012514226 A JP 2012514226A JP 2012529685 A JP2012529685 A JP 2012529685A
Authority
JP
Japan
Prior art keywords
content
tag
information
tags
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012514226A
Other languages
English (en)
Inventor
サファリ ボブ
マーテンズ グレゴリー
ミアッツォ ヴァレンティノ
Original Assignee
モザイク マルチメディア インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モザイク マルチメディア インコーポレイテッド filed Critical モザイク マルチメディア インコーポレイテッド
Publication of JP2012529685A publication Critical patent/JP2012529685A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

様々な実施形態では、対話的なユーザ・エクスペリエンスのために、プラットフォームを提供する。1つまたは複数のタグをコンテンツに関連付けることができる。各タグは、コンテンツ内で表示された少なくとも1つのアイテムに対応することができる。コンテンツ内で表示されたアイテムには、人、場所、フレーズ、物、サービス、等を含めることができる。プラットフォームは、どの情報を1つまたは複数のタグ内のうちの各タグに関連付けるかを決定することができる。1つまたは複数のタグのうちの各タグと決定された情報との間の1つまたは複数のリンクを、1組のビジネス・ルールに基づいて生成することができる。したがって、所定の基準を満たす場合にリンクが時間とともに変化することができるという点において、リンクは静的または動的とすることができる。リンクをコンテンツの消費者がアクセス可能なリポジトリに格納して、コンテンツの消費者によって1つまたは複数のタグ内のタグを選択すると、タグに関連付けられた決定した情報をコンテンツの消費者に提示することができる。

Description

関連出願の記載
本出願は、発明の名称が「スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム」である2009年6月5日出願の同時係属の特許文献1、発明の名称が「個人向けにカスタマイズした対話的なコンテンツのシステムおよびその方法」である2009年12月16日出願の同時係属の特許文献2、および、発明の名称が「個人向けにカスタマイズしたマルチユーザ型のコンテンツのシステムおよび方法」である2009年12月16日出願の同時係属の特許文献3の利益と優先権を主張し、それらを引用により全ての目的で本明細書に組み込む。
本出願では引用により全ての目的で、発明の名称が「セキュアなリモート・コンテンツの起動と解放」である2009年5月22日出願の自己の同時係属の特許文献4、および、発明の名称が「映画エクスペリエンスの没入型カスタマイズ」である2009年6月16日出願の自己の同時係属の特許文献5を組み込む。
検索エンジンや他の自動的な方法を用いてコンテンツを検索する機能は、ワールド・ワイド・ウェブ上で利用可能な大量のデータを扱う上で重要な進展であった。今日まで、画像またはビデオのコンテンツを特定する簡潔で自動化された方法はない。その結果、「タグ」が利用されることとなった。このタグを例えばインデックスとして検索エンジンにより使用することができる。しかし、このモデルはインターネットにおいてある程度成功しているが、拡張性の問題に悩まされている。
高度なセット・トップ・ボックス、Blu−ray(登録商標)およびインターネット可能テレビのような次世代のインターネット可能メディア・プレイヤは、リビング・ルームに新たな時代をもたらしている。高品質の画像や良好な音以外にも、多くの装置をインターネットのようなネットワークに接続することができる。双方向テレビが既にかなり前から存在し、多くの双方向テレビのベンチャー企業がその過程で倒産してきた。その主な原因は、テレビの前でのユーザの振舞いがコンピュータの前でのユーザの振舞いと同じではないということである。
映画を観ている間のユーザ・エクスペリエンスを分析する場合、映画の終わりまたは映画の最中に、「この曲は何の曲だろうか?」、「この俳優を前にどこで見たのだろうか?」、「この記念碑の名前は何だろうか?」、「この靴はどこで買えるのだろうか?」、「ここに行くのに幾らかかるか?」、等を自問することがかなり頻繁にある。それと同時に、ユーザは自分が興味のない情報で邪魔されたくはなく、または、他の人と一緒に映画を観ている場合は、自分の関心があるトピックに関する情報を取得するために映画のエクスペリエンスに割り込むのは失礼である。
したがって、望まれるのは、ユーザとコンテンツとの対話に関する問題を解決することであり、そのうち幾つかを本明細書で論ずる。さらに、望まれるのは、コンテンツのタグ付けとインデックス付けに関する欠点を減らすことであり、そのうち幾つかを本明細書で論ずる。
米国仮特許出願第61/184,714号明細書 米国仮特許出願第61/286,791号明細書 米国仮特許出願第61/286,787号明細書 米国特許出願第12/471,161号明細書 米国特許出願第12/485,312号明細書 米国特許第6,570,587号明細書 米国特許出願公開第2010/0005408号明細書
「Multimedia Hypervideo Links for Full Motion Videos」IBM TECHNICAL DISCLOSURE BULLETIN,vol.37,no.4A,April 1994,NEW YORK US,95頁、96頁、XP002054828
本開示の以下の部分は、少なくとも本発明の基本的な理解を与えるために、本開示において見出される1つまたは複数の発明、実施形態、および/または例の簡潔な要約を提示するものである。本要約は、どの特定の実施形態または例の広範囲にわたる概要も提供しようとするものではない。さらに、本要約は、実施形態または例の主要または重要な要素を特定しようとするものでも、本開示の主題の範囲を画定しようとするものでもない。したがって、本要約の1つの目的は、本開示において見出される幾つかの発明、実施形態、および/または例を、後述するより詳細な説明に対する前置きとして簡潔な形で提示することである。
コンテンツ内で表示されたアイテム、例えば、人、場所、および、映画、テレビ番組、音楽ビデオ、画像、または曲に現れるものに関してより多くのことを知ることに加えて、次の自然な幾つかの段階は、映画のサウンド・トラックを購入すること、映画またはテレビ番組に登場した場所への旅の見積もりをもらうこと、等であろう。かかる購入のうち幾つかはリビング・ルームのエクスペリエンスで完了できるが、他の幾つかについては、ユーザがさらに関与する必要があるはずである。
様々な実施形態では、対話的なユーザ・エクスペリエンスに対してプラットフォームが提供される。1つまたは複数のタグをコンテンツに関連付けることができる。各タグは、コンテンツ内で表示された少なくとも1つのアイテムに対応することができる。コンテンツ内で表示されたアイテムには、人、場所、物、サービス、等を含めることができる。プラットフォームは、1つまたは複数のタグの各タグにどの情報を関連付けるかを決定することができる。1つまたは複数のタグの各タグと決定した情報の間で1つまたは複数のリンクを1組のビジネス・ルールに基づいて生成することができる。したがって、リンクは、所定の基準が満たされたときにそれらを時間とともに変更できるという意味で、静的または動的とすることができる。リンクをコンテンツの消費者がアクセス可能なリポジトリに格納して、1つまたは複数のタグのうち1つのタグをコンテンツの消費者が選択したことにより、タグに関連付けられた決定された情報がコンテンツの消費者に提示されるようにすることができる。
様々な実施形態では、静止画および動画に対する1クリックのタグ付け技術に基づいて、ユーザ作成コンテンツまたはプロのコンテンツに対して人、製品、場所、フレーズ、サウンド・トラックおよびサービスをタグ付けするための方法、関連するシステムおよびコンピュータ可読媒体を提供する。
様々な実施形態では、単一のマルチ・アングル・ビューで特殊立体的(3DTV)なタグ付けおよび対話的視聴体験の配信に関する方法、関連システムおよびコンピュータ可読媒体を提供する。
様々な実施形態では、可視的または不可視的(透明)なタグ付きコンテンツと対話するための方法、関連するシステムおよびコンピュータ可読媒体を提供する。
様々な実施形態では、1つまたは複数の可視的もしくは透明なタグ付きアイテムを有し、かつ/または、単にコンテンツのタグ付けされたオブジェクト(人、製品、場所、フレーズ、およびサービス)を有する映画のシーンを共有するときにタグを埋め込み、それらをソーシャル・ネットワーキング・サイトに配信し、コンテンツ(タグ付きアイテムを有する静止画またはビデオ・クリップ)がオンライン上の、ウェブ上の、または小規模なコミュニティを形成するローカル記憶域上の多数の個人サイトおよびグループ共有サイトを伝播するときにタグ付きアイテムの行動を辿り、追跡するための方法、関連するシステムおよびコンピュータ可読媒体を提供する。
幾つかの態様では、スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステムを、任意の双方向のIP可能プラットフォームにおいて提供する。したがって、当該エコシステムは任意の種類のコンテンツおよびメディアを取り込むことができ、それらには、商用コンテンツおよび非商用コンテンツ、ユーザ作成コンテンツ、仮想現実および拡張現実、ゲーム、コンピュータ・アプリケーション、広告、等が含まれる。
本開示の主題の本質およびその均等物(ならびに任意の固有なまたは明白な利点および与えられる進歩性)は、以上の節に加えて、本開示の残りの部分、任意の添付図面、および特許請求の範囲を参照すればさらに理解されるはずである。
本開示で見出される発明、実施形態、および/または例を合理的に説明および例示するために、1つまたは複数の添付図面を参照することができる。1つまたは複数の添付図面を説明するために用いられる追加の詳細事項または例は、特許請求の範囲に記載した任意の発明の範囲、その時点で説明されている任意の実施形態および/もしくは例の範囲、または、本開示で提示した任意の発明のその時点で理解されているベスト・モードの範囲を限定するものとは解釈すべきではない。
本発明に従う一実施形態における、スマートコンテンツをタグ付けし、スマートコンテンツと対話するプラットフォームの簡単な図である。 本発明に従う一実施形態における、スマートコンテンツのタグ付けおよび対話を提供する方法のフローチャートである。 本発明に従う一実施形態における、コンテンツをタグ付けする方法のフローチャートである。 本発明に従う一実施形態における、タグ付けツールの例示的なユーザ・インタフェースの図である。 本発明に従う一実施形態における、タグ付けツールの例示的なユーザ・インタフェースの図である。 本発明に従う一実施形態における、タグ付けツールの例示的なユーザ・インタフェースの図である。 本発明に従う一実施形態における、タグ付けツールの例示的なユーザ・インタフェースの図である。 本発明に従う一実施形態における、タグとタグ関連情報の間の関係を表すブロック図である。 本発明に従う一実施形態における、動的にタグをタグ関連情報に関連付ける方法のフローチャートである。 本発明に従う一実施形態における、タグ付きコンテンツと対話する方法のフローチャートである。 本発明に従う様々な実施形態における、どのようにユーザがタグ付きコンテンツと対話できるかを示す図である。 本発明に従う様々な実施形態における、どのようにユーザがタグ付きコンテンツと対話できるかを示す図である。 本発明に従う一実施形態における、図1のプラットフォームを用いた、エンコードした対話的なコンテンツを有するコンテンツの例である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンを示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンを示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンを示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツに関連付けられた様々なメニューを示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツに関連付けられた様々なメニューを示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツに関連付けられた様々なメニューを示す図である。 本発明に従う一実施形態における、ショッピング・カートの一例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を示す図である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンにおいてアイテムを追跡するためのユーザ・インタフェースの例である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンにおいてアイテムを追跡するためのユーザ・インタフェースの例である。 本発明に従う様々な実施形態における、対話的なコンテンツの様々なシーンにおいてアイテムを追跡するためのユーザ・インタフェースの例である。 本発明に従う一実施形態における、コンピューティング装置を図1のプラットフォーム内のコンパニオン・デバイスとして使用するときの、当該コンピューティング装置に関連付けられたユーザ・インタフェースの一例を示す図である。 本発明に従う一実施形態における、ユーザによって消費されているコンテンツの特定部分とコンピューティング装置を同期しているときの、当該コンピューティング装置のユーザ・インタフェースの一例を示す図である。 本発明に従う一実施形態における、コンテンツの特定部分の詳細を示すコンピューティング装置のユーザ・インタフェースの一例を示す図である。 本発明に従う一実施形態における、一旦、コンピューティング装置を特定のコンテンツに同期し、シーンをキャプチャしたときのコンピューティング装置のユーザ・インタフェースの一例を示す図である。 本発明に従う一実施形態における、同期されたコンテンツのシーン内の対話的なコンテンツをユーザが選択したときのコンピューティング装置のユーザ・インタフェースの一例を示す図である。 本発明に従う一実施形態における、複数のユーザが各々独立に図1のプラットフォームを用いてコンテンツと対話することを示す図である。 本発明に従う一実施形態における、タグ付きコンテンツを共有するための方法のフローチャートである。 本発明に従う一実施形態における、タグ付きコンテンツと対話するユーザの振舞いまたは傾向を決定する方法のフローチャートである。 本発明の一実施形態を取り込むことができるシステムの簡単な図である。 一実施形態を取り込むことができ、一実施形態に組み込むことができ、または本開示において見出される任意の発明、実施形態、および/もしくは例を実施するために使用できる、コンピュータ・システムまたは情報処理装置のブロック図である。
リッチ・コンテンツ情報を非侵襲(non−invasive)な対話とともに提供する1つまたは複数の解決方法を、図1を用いて説明することができる。以下の段落では、図1を詳細に説明する。図1は本明細書で開示した発明の一実施形態または実装形態の例にすぎず、特許請求の範囲に記載の任意の発明の範囲を限定するものではない。当業者であれば、本開示、および、本明細書で提示した教示事項により、添付図面に示した諸実施形態または実装形態に対する他の変形、修正、および/または代替を認識するであろう。
スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム
図1は、本発明に従う一実施形態におけるスマートコンテンツをタグ付けし、スマートコンテンツと対話するためのプラットフォーム100の簡単な図である。本例では、プラットフォーム100は、コンテンツ105へのアクセスを含む。コンテンツ105は、テキスト情報、音声情報、画像情報、ビデオ情報、コンテンツ・メタデータ、コンピュータ・プログラムもしくはコンピュータ・ロジック、またはテキスト情報、音声情報、画像情報、ビデオ情報、コンテンツ・メタデータ、コンピュータ・プログラムもしくはコンピュータ・ロジックの組合せ、等を含むことができる。コンテンツ105は、映画、音楽ビデオ、テレビ番組、ドキュメンタリ、音楽、オーディオ・ブック、画像、写真、コンピュータ・ゲーム、ソフトウェア、広告、電子看板、仮想現実または拡張現実、スポーツ・イベント、演劇、ライブ・コンサート、等の形をとることができる。
コンテンツ105は、専門的に作成および/または創作したものとすることができる。例えば、コンテンツ105を、1つまたは複数の映画スタジオ、テレビ・スタジオ、レコーディング・スタジオ、アニメーション・ハウス、等によって開発および作成することができる。さらに、コンテンツ105の一部を別のサード・パーティ、例えば、視覚効果スタジオ、防音スタジオ、レストレーション・ハウス(restoration house)、ドキュメンタリ制作会社、等によって作成または開発することができる。さらに、コンテンツ105の全部または一部をユーザが作成することができる。さらに、コンテンツ105を、コンテンツの作成、エンコード、および/または配信に関する1つもしくは複数の標準、例えば、DVDフォーマット、Blu−rayフォーマット、HD−DVDフォーマット、H.264、IMAX、等を用いて作成、または、これらに従ってフォーマットすることができる。
コンテンツ105の非侵襲な対話のサポートの一態様では、プラットフォーム100はコンテンツ105をタグ付けするための1つもしくは複数のプロセスまたはツールを提供することができる。コンテンツ105をタグ付けすることが、コンテンツ105またはコンテンツ105内で表示されたオブジェクトの全部または一部を特定することを要することができる。タグ115を作成しタグ115をコンテンツ105と関連付けることを、メタロギング(metalogging)と称することもある。タグ115は、コンテンツ105の全部または一部と関連付けられた情報および/またはメタデータを含むことができる。タグ115は、コンテンツ105またはコンテンツ105内で表示されたオブジェクトの全部または一部を参照できる、数字、文字、記号、テキスト情報、音声情報、画像情報、ビデオ情報、等、またはそのようなものの音声/視覚的/感覚的な表現を含めることができる。コンテンツ105内で表示されたオブジェクトが、人、場所、フレーズ、アイテム、位置、サービス、音、等を含めることができる。
一実施形態では、タグ115の各々を非階層的なキーワードまたは用語として表現することができる。例えば、タグ115の少なくとも1つがビデオ内のあるスポットを参照することができる。ここで、当該ビデオ内の当該スポットは、衣装棚の一部とすることができる。別の例では、タグ115の少なくとも1つが、1本のLevi‘s(登録商標)501のブルー・ジーンズがビデオに現れているという情報を指することができる。タグのメタデータが、コンテンツ105内で表示されたオブジェクトを記述してもよく、当該メタデータにより、当該オブジェクトを閲覧または検索により再度発見できるようにすることができる。
一実施形態では、コンテンツ105を最初に、(例えば、ハリウッドの映画スタジオが作成したプレミアム・コンテンツを扱うとき)コンテンツ105を作成した同一の専門家グループによってタグ付けすることができる。コンテンツ105を、消費者への配信前に、または、消費者への配信後に、タグ付けすることができる。コンテンツを正確かつ簡単な方法でにタグ付けするための1つまたは複数の種類のタグ付けツールを開発し、プロのコンテンツ作成者に提供することができる。別の実施形態では、コンテンツ105の作成者と提携しているか否かに関わらず、コンテンツ105をサード・パーティによりタグ付けすることができる。例えば、スタジオが、コンテンツのタグ付けを契約会社または他の団体および企業に委託することができる。別の例では、コンテンツ105の購入者またはエンド・ユーザがタグを作成し、コンテンツ105と関連付けることができる。コンテンツ105をタグ付けできるコンテンツ105の購入者またはエンド・ユーザは、ホーム・ユーザ、ソーシャル・ネットワーキング・サイトのメンバ、ファン・コミュニティのメンバ、プロガ、プレスのメンバ、等とすることができる。
コンテンツ105に関連付けられたタグ115を自由自在に追加、起動、停止、および/または除去することができる。例えば、コンテンツ105を消費者に配信した後にタグ115をコンテンツ105に追加することができる。別の例では、ユーザ設定、コンテンツ作成者の要求事項、地域的な制限またはロケール設定、位置、文化的嗜好、年齢制限、等に基づいてタグ115をオン(起動)またはオフ(停止)にすることができる。さらに別の例では、ビジネス上の基準、例えば、サブスクライバがタグ115へのアクセスに対して料金を支払ったかどうか、所定の期間が経過したかどうか、広告主がタグのスポンサを打ち切ることを決定したかどうか、等に基づいてタグ115をオン(起動)またはオフ(停止)にすることができる。
再び図1を参照すると、コンテンツ105の非侵襲な対話のサポートの別の態様では、プラットフォーム100はコンテンツ配信110を含むことができる。コンテンツ配信110は、コンテンツ105を1人または複数人のユーザに配信するための任意の機構、サービス、または技術を含むかまたは指すことができる。例えば、コンテンツ配信110は、1つまたは複数の光ディスク、例えば、CD、DVD、HD−DVD、Blu−rayディスク、等へのコンテンツ105の作成を含めることができる。別の例では、コンテンツ配信110が、例えば、有線または無線の地上波のラジオ信号またはテレビ信号、衛星のラジオ信号またはテレビ信号、WIFIまたはWIMAX、セル方式の配信、等を介した、コンテンツ105のブロードキャストを含めることができる。さらに別の例では、コンテンツ配信110が、例えば、インターネット、セルラ・ネットワーク、IPTV、ケーブル・ネットワークおよび衛星ネットワーク、等を介した、コンテンツ105のストリーミングまたはオンデマンド配信を含めることができる。
様々な実施形態では、コンテンツ配信110がタグ115の配信を含むことができる。他の実施形態では、コンテンツ105とタグ115を別々にユーザに配信することができる。例えば、プラットフォーム100はタグ・リポジトリ120を含むことができる。タグ・リポジトリ120は、タグ115を格納するように構成した1つまたは複数のデータベースまたは情報記憶装置を含むことができる。様々な実施形態では、タグ・リポジトリ120が、タグ115に関連付けられた情報(例えば、タグ関連情報)を格納するように構成した1つまたは複数のデータベースまたは情報記憶装置を含むことができる。別の実施形態では、タグ・リポジトリ120が、タグ115とタグ関連情報(TAI)の間のリンクまたは関係を格納するように構成した1つまたは複数のデータベースまたは情報記憶装置を含むことができる。タグ・リポジトリ120は、コンテンツ105の作成者または提供者にアクセス可能とすることができ、タグ115の作成者または提供者にアクセス可能とすることができ、コンテンツ105およびタグ115のエンド・ユーザにアクセス可能とすることができる。
様々な実施形態では、タグ・リポジトリ120は、タグと、コンテンツ対話125をサポートするタグ関連情報との間のリンクのキャッシュとして動作することができる。
再び図1を参照すると、コンテンツ105の非侵襲な対話のサポートの別の態様では、プラットフォーム100はコンテンツ対話125を含むことができる。コンテンツ対話125は、1人または複数人のユーザがコンテンツ105を消費しタグ115と対話できるようにするための任意の機構、サービス、または技術を含むことができる。例えば、コンテンツ対話125は、様々なハードウェア要素および/またはソフトウェア要素、例えば、コンテンツ配信110の実施形態をサポートするもののような、コンテンツ再生装置またはコンテンツ受信装置を含むことができる。例えば、ユーザまたは消費者グループは、Blu−rayディスク・プレイヤを用いてコンテンツ105を消費し、対応するリモート・コントロールを用いて、または、専用装置、スマートフォン、IPHONE(登録商標)、タブレット、IPAD(登録商標)、IPOD TOUCH(登録商標)、等のようなコンパニオン・デバイスを用いて、タグ115と対話することができる。
別の例では、ユーザまたは消費者グループが、インターネット可能なセット・トップ・ボックスを用いてコンテンツ105を消費し、対応するリモート・コントロールを用いて、または、専用装置、スマートフォン、IPHONE、タブレット、IPAD、IPOD TOUCH、等のようなコンパニオン・デバイスを用いて、タグ115と対話することができる。
さらに別の例では、ユーザまたは消費者グループが、映画館またはライブ・コンサートでコンテンツ105を消費し、専用装置、スマートフォン、IPHONE、タブレット、IPAD、IPOD TOUCH、等のようなコンパニオン・デバイスを用いて、タグ115と対話することができる。
様々な実施形態では、コンテンツ対話125は、コンテンツ105内で表示されたタグ付きアイテムまたはオブジェクトの存在を示す1つまたは複数の口頭表現および/もしくは視覚的表現または他の感知入力をユーザに提供することができる。例えば、ハイライト表示または他の視覚的強調をコンテンツ105の上、上方、近傍で使用し、または、コンテンツ105のほぼ全部または一部に関して使用して、コンテンツ105内の何か、例えば、人、場所、製品またはアイテム、長編映画、等がタグ付けされていることを示することができる。別の例では、画像、サムネイル、またはアイコンを使用して、コンテンツ105内の何か、例えば、シーン内のアイテムがタグ付けされ、したがって検索可能であることを示することができる。
一例では、表示装置上に現れる単一のアイコンまたは他の視覚的表現が、そのシーンにおいて何かが選択可能であることを示することができる。別の例では、幾つかのアイコンは、選択可能な要素ごとに表示装置の表示コンテンツの外部領域に現れることができる。さらに別の例では、オーバレイをコンテンツ105の最上部に設けることができる。別の例では、アイテムのリストを表示コンテンツの外部領域に提供することができる。さらに別の例では、コンテンツ105内の全てが選択可能である間は、ユーザに全く何も表示しなくともよい。コンテンツ105内の何かがタグ付けされていることを、1つまたは複数の相違なる手段、任意の手段、または他の手段によってユーザに知らせることができる。これらの手段を、ユーザの噂好または他の装置設定により構成することができる。
別の実施形態では、コンテンツ対話125が、タグ付けアイテムが利用可能であることの感覚的な指示を何ら提供しなくともよい。例えば、タグ付けアイテムをアクティブなリンク、ホット・スポット、またはアクション・ポイントとしてスクリーンまたは表示装置に表示せずともよく、各シーンに関連付けられたメタデータが、タグ付けアイテムが利用可能であることを示す情報を含むことができる。これらのタグを、透過タグが付されたアイテムと称することがある(例えば、これらは存在するが必ずしも見えない)。透過タグを、コンパニオン・デバイス、スマートフォン、IPAD、等から起動にすることができ、タグ付けアイテムを、メディアが再生されている場所に局所的に格納することができ、または、サーバのような1つまたは複数の外部装置に格納することができる。
コンテンツ対話125がコンテンツ105をタグ付けしコンテンツ105と対話する方法を、解像度(携帯電話、標準画質のビデオまたはHDTVビデオ)または視角に関わらず、様々な種類のコンテンツ105、例えば、静止画ならびに動画に適用することができる。さらに、タグ115とコンテンツ対話125は、標準的な視聴プラットフォーム、ライブ番組またはコンサート、劇場、ならびに多視点(3Dまたは立体)のコンテンツに対し、携帯電話、SD、HDTV、IMAXの解像度、およびそれを超えた解像度において、等しく適用可能である。
コンテンツ対話125により、ユーザはコンテンツ105内の関心のあるアイテムをマークすることができる。ユーザが関心のあるアイテムを、関心があるとしてマークし、選択し、または指定することができる。上記のように、ユーザは、様々な入力手段、例えば、キーボード、ポインティング・デバイス、タッチ・スクリーン、リモート・コントロール、等を用いてコンテンツ105と対話し、コンテンツ105内の関心がある1つまたは複数のアイテムをマークし、選択し、または示すことができる。ユーザは、スクリーン上のタグ付きアイテムをナビゲートすることができる。例えば、コンテンツ対話125は、例えばリモート・コントロールを用いてL、R、Up、Downのオプションまたは指定でタグ付きアイテムを選択できる、1つまたは複数のユーザ・インタフェースを提供することができる。別の例では、コンテンツ対話125により、例えばキャプチャしたシーンと関心がある任意のアイテムとを示し、同じタグ付きアイテムのシーンを用いることによって、タグ付きアイテムをコンパニオン・デバイス上で選択できるようにすることができる。
コンテンツ対話125の結果、マーキング情報130が生成される。マーキング情報130は、ユーザにより関心があるとマークされたかまたは示された1つまたは複数のアイテムを特定する情報を含むことができる。マーキング情報130は、1つまたは複数のマークを含めることができる。マークを局所的にユーザの装置に格納し、かつ/または、マーキング・サーバのような1つもしくは複数の外部装置に送信することができる。
映画を観たり曲を聴くような、コンテンツ105との対話をするあるエクスペリエンスの最中に、ユーザは関心のある、コンテンツ105内のアイテムまたは他の要素をマークまたは選択することができる。コンテンツ105を、マーキング処理中にその現在の再生位置で一時停止またはフリーズさせ、あるいは停止させることができる。コンテンツ105中の1つまたは複数のアイテムまたは要素をマークする処理の後に、ユーザは、例えばマーキング処理が行われた場所から映画を一時停止解除して、即座にコンテンツ105との対話をする通常のエクスペリエンスに戻ることができる。
以下では、様々な、しかし包括的ではない、最も立ち入らないものから最も立ち入ったものまでのマーキング情報130の生成方法の例を示す。
マーク例Aを説明する。本例では、ユーザが映画のシーンにおける何かに関心をもった場合、1つまたは複数のハイライト表示機能により、何かがマーク可能であるかどうかをユーザに示すことができる。あるいは、1つまたは複数のハイライト表示機能により、何かがマーク可能ではないかどうかをユーザに示すことができる。ユーザは次いで、映画に割り込むことなくシーン全体をマークすることができる。
マーク例Bを説明する。本例では、ユーザが映画のシーンにおける何かに関心をもった場合、1つまたは複数のハイライト表示機能により、何かがマーク可能であることをユーザに示すことができる。ユーザは次いで、映画を一時停止し、タグのリスト(例えば、タグ115)から関心のあるアイテムをマークし、一時停止解除して映画に戻る。ユーザが関心のあるアイテムに対するハイライト表示を見つけない場合は、ユーザはシーン全体をマークすることができる。
マーク例Cを説明する。本例では、ユーザが映画のシーンにおける何かに関心をもった場合、1つまたは複数のハイライト表示機能により、タグのリストの中で何かがマーク可能であることをユーザに示すことができる。ユーザは次いで、映画を一時停止するが、ユーザがリスト内に関心があるアイテムのハイライト表示を何ら見つけなかった場合は、ユーザは任意の関心があるシーンの領域をマークすることができる。
上の例の何れにおいても、ユーザは関心点を選択またはタッチすることにより、アイテム、複数のアイテム、またはコンテンツ105の全部もしくは一部をマークすることができる。マーク可能または選択可能なものが何もない(例えば、既知の対応するタグがない)場合は、ユーザはタグを生成するための情報を提供するか、または、サード・パーティに当該情報を求めることができる。サード・パーティは、ソーシャル・ネットワーク、友達のグループ、企業、等とすることができる。例えば、ユーザがシーン全体またはシーンの一部をマークしたときは、コンテンツ105内で表示された幾つかのアイテム、人、場所、サービス、等をタグ付けしておくことができる。これらの未知のアイテムに対して、ユーザは情報(例えば、タグ名、カテゴリ、URL、等)を追加することができる。上記のように、タグ115はユーザ生成タグを含むことができる。
再び図1を参照すると、コンテンツ105の非侵襲な対話のサポートの別の態様では、プラットフォーム100は、タグ115に対するタグ関連情報(TAI)135を配信することができる。TAI135は、情報、別のコンテンツ、および/または1つもしくは複数のアクションを含むことができる。例えば、ユーザがアイテム、人、または場所に関する情報をさらに望む場合には、ユーザは当該アイテム、人、または場所をマークすることができ、当該マークしたアイテム、人、または場所に対するタグに対応するTAI135を提示することができる。別の例では、当該マークしたアイテム、人、または場所に対するタグに対応するTAI135を提示することができ、当該TAI135によりユーザは、1つまたは複数のアクション、例えば、アイテム、コンテンツの購入、人への電子メール送信、関心がある場所への旅行の予約を行うことができる。
ある実施形態では、TAI135をタグ115に静的にリンクする。例えば、タグに関連付けられた情報、コンテンツ、および/または1つもしくは複数のアクションは、コンテンツ115またはタグが生きている間は有効期限は切れず、変更されず、または修正されない。別の実施形態では、TAI135をタグ115に動的にリンクする。例えば、プラットフォーム100は、情報をタグに関連付けるための、1つまたは複数のオフラインのデータベース、オンラインのデータベースまたは情報源、サード・パーティの情報源、等を検索および/または問い合わせるように構成された1つまたは複数のコンピュータ・システムを含むことができる。これらの1つまたは複数の問合せからの検索結果を使用してTAI135を生成することができる。一態様では、タグのライフサイクルの様々な時点において、ビジネス・ルールを(例えば、1つまたは複数の手動の問合せまたは自動的な問合せから取得した)検索結果に適用して、情報、コンテンツ、または1つもしくは複数のアクションをどのようにタグに関連付けるかを決定する。これらのビジネス・ルールを、プラットフォーム100の操作者、コンテンツ・プロバイダ、販売部門、広告主、ユーザ生成コンテンツの作成者、ファン・コミュニティ、等によって管理することができる。
上記のように、ある実施形態では、タグ115を自由自在に追加し、起動し、停止し、かつ/または除去することができる。したがって、ある実施形態では、TAI135を動的にタグ115に追加し、起動し、停止し、またはタグ115から除去することができる。例えば、タグ115に関連付けられたTAI135を、コンテンツ105を消費者に配信した後に変更し、または、更新することができる。別の例では、TAI115を、情報源の利用可能性、リソースが1つまたは複数の関連するアクションを完了する可能性、サブスクリプション期限、スポンサの終了、等に基づいてオン(起動)にし、または、オフ(停止)にすることができる。
様々な実施形態では、TAI135を、ローカルのマーキング・サービス140または外部のマーキング・サービス145によって提供することができる。ローカルのマーキング・サービス140は、ユーザの制御下にあるハードウェア要素および/またはソフトウェア要素、例えば、ユーザがコンテンツ105を消費するコンテンツ再生装置を含むことができる。一実施形態では、ローカルのマーキング・サービス140は、コンテンツ105とともに配信されたTAI135のみを提供する。別の実施形態では、ローカルのマーキング・サービス140は、ユーザによって明示的にダウンロードまたは選択されたTAI135を提供することができる。別の実施形態では、ローカルのマーキング・サービス140を、TAI135をプラットフォーム100に関連付けられた1つまたは複数のサーバから取り出して将来参照するためにTAI135をキャッシュするように、構成することができる。
様々な実施形態では、外部のマーキング・サービス145を、1つまたは複数のサード・パーティが提供して、TAI135を配信または処理することができる。外部のマーキング・サービス145は、インターネットのような通信ネットワークを介してユーザのコンテンツ再生装置にアクセス可能とすることができる。外部のマーキング・サービス145が直接に、TAI135を提供してもよく、かつ/またはローカルのマーキング・サービス140が提供するTAI135の更新情報、置換情報、または他の修正および変更を提供することができる。
様々な実施形態では、ユーザが外部のマーキング・サービス145を介して、別のデータへのアクセスと完全なトランザクションを得ることができる。例えば、ユーザがポータル・サービス150と対話することができる。ポータル・サービス150に関連付けられた少なくとも1つのポータルは、専ら映画のエクスペリエンスを拡張するものとすることができ、これにより、ユーザが映画のエクスペリエンスを継続して(例えば、より多くの情報を得て)当該映画で関心のあるアイテムを購入する機会を得ることができる。ある実施形態では、ポータル・サービス150に関連付けられた少なくとも1つのポータルが、ホワイト・レーベルのポータルまたはウェブ・サービスを備えることができる。当該ポータルは、ホワイト・レーベルのサービスを映画スタジオに提供することができる。さらに、当該サービスを、その個々のウェブサイトと統合することができる。
別の実施形態では、外部のマーキング・サービス145は通信ストリームをユーザに提供することができる。外部のマーキング・サービス145により提供されるRSSフィード、電子メール、フォーラム、等が、他のユーザまたはコミュニティへの直接的なアクセスをユーザに提供することができる。
さらに別の実施形態では、外部のマーキング・サービス145はソーシャル・ネットワークの情報をユーザに提供することができる。ユーザは、ウィジェットを介して既存のソーシャル・ネットワーク(製品および映画に関する情報およびバイラル・マーケティング)にアクセスすることができる。ソーシャル・ネットワーク・サービス155により、ユーザは、コンテンツ105内で表示されたアイテムを自己のネットワーク内の他のユーザと共有することができる。ソーシャル・ネットワーク・サービス155は対話性情報を生成することができる。当該対話性情報により、アイテムが共有されている他のユーザは、TAI135を参照し、もとのユーザとほぼ同じようにコンテンツと対話することができる。当該他のユーザはさらに、タグとタグ関連情報を追加することができるかもしれない。
様々な実施形態では、外部のマーキング・サービス145はターゲット広告と製品表示を提供することができる。広告ネットワーク・サービス160は、TAI135を、関連するコンテンツ、バリュー・プロポジション(value proposition)、クーポン、等で補完することができる。
別の実施形態では、分析165により統計的なサービスとツールを提供する。これらのサービスおよびツールは、ユーザの振舞いと関心に関する追加の情報を提供することができる。分析165が提供する振舞いと傾向の情報を使用して、TAI135をユーザに対してカスタマイズし、ソーシャル・ネットワーク・サービス155と広告ネットワーク・サービス160を拡張することができる。さらに、分析165が提供する振舞いと傾向の情報を使用して、製品配置のレビューと将来の機会、コンテンツ・スポンサーシップ・プログラム(content sponsorship program)、インセンティブ、等を決定することができる。
したがって、インターネットのウェブサイトのような幾つかのソースが情報サービスを提供できるが、それらは、大抵のコンテンツ・エクスペリエンス、例えば、テレビまたは映画の視聴に関するリビング・ルームのエクスペリエンスとはなりにくい。プラットフォーム100の動作の一例では、ユーザは映画を観て、特定のシーンをマークする機能を得ることができる。後に、ユーザは自由にシーンを掘り下げて、特定のシーン内で表示された人、場所、アイテム、効果、または他のコンテンツに関するより多くの情報を取得することができる。プラットフォーム100の動作の別の例では、ユーザがマークしたかまたは関心があると表明した1つまたは複数のシーンを、ソーシャル・ネットワーク(例えば、Facebook(登録商標))上のユーザの友達の間で共有することができる。プラットフォーム100の動作のさらに別の例では、シーン内のアイテム、シーン自体、映画、ジャンル、等に対するユーザの関心とマッチする1つまたは複数の製品またはサービスをユーザに提示することができる。
メタロギング
図2は、本発明に従う一実施形態における、スマートコンテンツをタグ付けし、スマートコンテンツと対話する方法200のフローチャートである。図2に示す方法200の実装形態または方法200における処理を、コンピュータ・システムまたは情報処理装置のような論理機械の中央演算装置(CPUまたはプロセッサ)によって実行する場合にはソフトウェア(例えば、命令またはコード・モジュール)によって、電子装置もしくは特殊用途向け集積回路のハードウェア・コンポーネントによって、または、ソフトウェア要素およびハードウェア要素の組合せによって実行することができる。図2に示す方法200はステップ210で開始する。
ステップ220で、コンテンツまたはコンテンツ・メタデータを受信する。上述のように、コンテンツが、テキスト情報、音声情報、画像情報、ビデオ情報、等のマルチメディア情報、コンピュータ・プログラム、スクリプト、ゲーム、ロジック、等を含めることができる。コンテンツ・メタデータが、コンテンツに関する情報、例えば、タイム・コード情報、字幕情報、サブタイトル、アルバム・データ、トラック名、アーティスト情報、デジタル制限(digital restriction)、等を含めることができる。コンテンツ・メタデータはさらに、コンテンツ内で表示されたオブジェクトを記述または場所特定する情報を含めることができる。コンテンツをリアルタイムにプレマスタ作成(premaster)またはブロードキャストすることができる。
ステップ230で、コンテンツ内で表示されたアイテムを特定したことに基づいて、1つまたは複数のタグを生成する。コンテンツをタグ付けするプロセスをメタロギングと称することができる。一般に、タグがコンテンツの全部もしくは一部、または、コンテンツ内で表示されたオブジェクト、例えば、アイテム、人、製品、サービス、フレーズ、歌、旋律、場所、位置、ビル、等を特定することができる。タグは識別子を有することができ、当該識別子を使用して、タグに関する情報およびコンテンツ内で表示された対応するオブジェクトに関する情報を検索することができる。ある実施形態では、タグがさらに、コンテンツの全部または一部におけるアイテムの場所を特定することができる。
ステップ240で、1つまたは複数のタグとタグ関連情報(TAI)の間の1つまたは複数のリンクを生成する。リンクは、タグとTAIの間の1つまたは複数の関係を含むことができる。ある実施形態では、タグとTAIの間の関連が決して変化しないかまたはまれにしか変化しないという点で、リンクは1つまたは複数の静的関係を含むことができ、当該静的関係によりリンクを表することができる。別の実施形態では、1つまたは複数のタグとタグ関連情報の間の1つまたは複数のリンクが動的な関係を有することができる。タグを関連付けることができるTAIは、ビジネス・ルールの適用結果に基づいて、時刻に基づいて、ユーザごとに、支払い/サブスクリプション状態に基づいて、収入に基づいて、スポンサに基づいて、等により変化することができる。したがって、任意の時点に様々な理由で、1つまたは複数のリンクを動的に追加し、起動し、停止し、除去し、または修正することができる。
ステップ250で、リンクを格納し、当該リンクに対するアクセスを提供する。例えば、リンクを表す情報を図1のタグ・リポジトリ120に格納することができる。別の例では、リンクを表す情報を、ローカルのマーキング・サービス140または外部のマーキング・サービス145にアクセス可能な記憶装置に格納することができる。図2はステップ260で終了する。
様々な実施形態では、1つまたは複数の種類のツールを開発して、コンテンツをタグ付けしメタロギングする正確かつ簡単な方法を提供することができる。様々なツールを、別々のグループに対する対象とすることができる。様々な例では、プラットフォーム100が1つまたは複数のインストール可能なソフトウェア・ツールを提供することができる。当該ソフトウェア・ツールをコンテンツ・プロバイダによって使用してコンテンツをタグ付けすることができる。別の例では、プラットフォーム100が、ソフトウェアをインストールすることなくユーザがコンテンツをタグ付けできるようにする、(例えば、インターネットを介してアクセス可能な)1つまたは複数のオンライン・サービス、管理サービス、クラウド・サービス、等を提供することができる。したがって、コンテンツのタグ付けまたはメタロギングを、オフラインで、オンラインで、リアルタイムに、または、非リアルタイムに行うことができる。様々なアプリケーション生成のユーザ・インタフェース、ウェブ・ベースのユーザ・インタフェース、等を、JAVA(登録商標)、HTML、XML、AJAX、等のような技術を用いて実装することができる。
図3は、本発明に従う一実施形態における、コンテンツをタグ付けするための方法300のフローチャートである。図3に示す方法300の実装形態または方法300における処理を、コンピュータ・システムまたは情報処理装置のような論理機械の中央演算装置(CPUまたはプロセッサ)によって実行される場合にはソフトウェア(例えば、命令またはコード・モジュール)によって、電子装置もしくは特殊用途向け集積回路のハードウェア・コンポーネントによって、または、ソフトウェア要素およびハードウェア要素の組合せによって実行することができる。図3に示す方法300はステップ310で開始する。
ビデオとやりとりする例において、ステップ320で、タグ付けツールを用いて1つまたは複数のビデオをロードする。1つまたは複数のビデオを、オフラインで(関連ファイルを用いて)、またはリアルタイムもしくはライブのイベントに対してオンザフライで、処理することができる。上記のように、タグ付けツールは、インストール可能なソフトウェア製品、ウェブサイトの一部によって提供される機能、等とすることができる。例えば、図4Aは、本発明に従う一実施形態における、タグ付けツールの例示的なユーザ・インタフェース400の図である。ユーザ・インタフェース400は、ワークスペースを開く機能、ワークスペースにコンテンツを追加する機能、およびコンテンツにメタロギングする機能を含むことができる。本例では、ユーザはユーザ・インタフェース400と対話してコンテンツをロードすることができる(例えば、「コンテンツ・セレクタ」タブ)。
ユーザ・インタフェース400はさらに、ユーザがコンテンツと対話できるようにする1つまたは複数のコントロール410を含めることができる。コントロール410は、ウィジェットまたは他のユーザ・インタフェース要素、例えば、テキスト・ボックス、ラジオ・ボタン、チェック・ボックス、スライダ、タブ、等を含めることができる。コントロール410を様々な種類のコンテンツに適応させることができる。例えば、コントロール410は、時間ベースのメディア(例えば、オーディオまたはビデオ)に対するコントロール、例えば、再生ボタンまたは一時停止ボタン、早送りボタン、巻戻しボタン、全早送りボタン、全巻戻しボタン、停止ボタン、ユーザが所望の時間インデックスを選択できるようにするスライダ、等を含めることができる。別の例では、コントロール410は、ユーザが画像を編集または操作でき、プレゼンテーションを作成または操作でき、色または輝度を制御または調整でき、メタデータ(例えば、MP3のIDタグ)を作成および/または修正でき、テキスト情報を編集または操作できる、等のコントロールを含めることができる。
様々な実施形態では、ユーザ・インタフェース400はさらに、1つまたは複数のタスク専用の1つまたは複数のエリアまたは領域を含めることができる。例えば、ユーザ・インタフェース400のある領域またはウィンドウを、ディスプレイ画像またはプレビュー・ビデオのようなコンテンツの視覚的表現を提示するように構成することができる。別の例では、ユーザ・インタフェース400のある領域またはウィンドウを、オーディオ・データまたはイコライザ・コントロールの視覚化を提示するように構成することができる。
さらに別の例では、ユーザ・インタフェース400のある領域またはウィンドウを、コンテンツでメタロギングすべき所定のアイテムを提示するように構成することができる。本例では、ユーザ・インタフェース400は1つまたは複数のタブ420を含む。タブ420内の各タブは、位置、アイテム、人、フレーズ、場所、サービス、等のようなコンテンツ内で表示できる様々な種類のオブジェクトのリストを表示することができる。
図3に戻ると、ステップ330で、ビデオを表現する1組の静的画像における所望のフレームまたは画像でビデオを一時停止または停止する。ユーザは、アイテムを選択し当該アイテムをビデオ・フレームの所望の位置にドラッグすることによって、ビデオ・フレーム内で表示されうる位置、アイテム、人、場所、サービス、等のリスト内のアイテムと対話することができる。所望の位置には、対応するアイテム、人、フレーズ、場所、位置、サービス、またはタグ付けされるコンテンツの任意の部分を含めることができる。本例では、「ネクタイ」とラベル付けしたアイテム430をユーザは選択可能で、一時停止したビデオにドラッグすることができる。このプロセスを、ユーザ・インタフェース400のユーザがコンテンツを(例えば、マウスまたは他のポインティング・デバイスを用いて)ワンクリックで、または、(例えば、タッチ・スクリーン等を用いて)ワンステップでコンテンツをタグ付けするという点で、「ワンクリック・タギング」または「ワンステップ・タギング」と称することもある。他の従来式のプロセスでは、複数のステップを要する場合もある。
ステップ340で、アイテムのリストからアイテムをビデオ・フレーム内で表示されたアイテムにドラッグすることによってタグを生成する。本例では、図4Bに示すようにアイテム430をビデオ・フレームにドラッグすることによって、「ネクタイ」という名前のタグ440を生成する。任意の視覚的表現を使用して、ユーザがアイテム430をビデオ・フレームにドロップした位置がタグ付けされたことを表すことができる。例えば、図4Bは、「ネクタイ」という名前のタグ440が、ビデオ・フレーム内で表示されたネクタイ上に作成されたことを示している。
様々な実施形態では、タグ付けツールは、アイテム430をドロップしたコンテンツ内に表示されたアイテムに対するエリアを現在のフレーム内で自動的に計算する。図4Cは、タグ440に対応するエリア450を示す。次いで、タグ付けツールが、例えば現在のシーンにおいて錐体のLucas−Kanadeオプティカル・フローを用いて、エリア440を追跡する。ある実施形態では、ユーザは、単一のフレームに対してエリア450を指定することができ、または、コマ送りでエリア450を指定することができる。
様々な代替的なプロセス、例えば、非特許文献1、発明の名称が「ビデオに対するシステム、方法、およびリンク情報」である特許文献6、および発明の名称が「マルチメディア「ホット・スポット」を可能とするためのシステムおよび方法」である特許文献7に開示されているプロセスを使用することができる。これらの文献は引用により全ての目的で組み込まれる。一般に、オブジェクト領域の検出を、シード・ポイント(seed point)、例えば、列挙したアイテムをコンテンツにドロップした場所から開始することができる。ある実施形態では、選択した関心点の特徴を局所的に変形したものを使用して、閉鎖や、オブジェクトのサイズおよび方位の変化に対してより敏感なコンテンツ内のオブジェクトを自動的に追跡する。さらに、(シーン境界、顔、等のような)コンテキスト関連情報を考慮することができる。先行技術における画素単位の比較は一般に、(オブジェクト検出に関する固有値、および、オブジェクト追跡のための錐体のLucas−Kanadeオプティカル・フローのような)諸技術より低速である。
ステップ350で、ビデオ・フレーム内で表示されたアイテムを、先行フレームおよび後続フレーム内のタグと関連付ける。これにより、アイテムが当該アイテム自体を提示し、当該アイテムがコンテンツにおける当該アイテムの任意の事例または外観と関連するタグを生成させる任意の時点に一度、ユーザはコンテンツ内で表示された当該アイテムをタグ付けすることができる。様々な実施形態では、コンテンツ内で表示された単一のオブジェクトに、当該オブジェクトを一意に識別するタグを割り当てることができ、当該オブジェクトを(テキスト、ビデオ、コマーシャル、等のような)他種のリソースとアクションにリンクすることができる。ステップ350が完了すると、タグ440に関連付けられたアイテムと、コンテンツにわたるその追跡結果とをデータベースに格納することができる。図3はステップ360で終了する。
図5は、本発明に従う一実施形態における、タグとタグ関連情報の間の関係を表すブロック図である。本例では、オブジェクト500が1つまたは複数のリンク510を含む。1つまたは複数のリンク510の各々は、タグ520をタグ関連情報(TAI)530に関連付ける。リンク510を静的に生成するか、または動的に生成し更新することができる。例えば、コンテンツ・プロバイダは、映画のシーン内で表示されたホテルに関するタグと、ユーザが当該ホテルの部屋を予約できるURLとの間のリンクをハード・コーディングすることができる。別の例では、コンテンツ・プロバイダは、映画のシーンにおける製品の配置に関するタグと製造業者のウェブサイトとの間の初期リンクを作成することができる。続いて、初期リンクを分離して、1つまたは複数の追加のリンクをタグと製品の小売業者の間に作成することができる。
タグ520は、アイテム説明540、コンテンツ・メタデータ550、および/またはタグ・メタデータ560を含めることができる。アイテム説明540を場合によってはタグ520に含めることができる。アイテム説明540は、コンテンツ内で表示された所与のアイテム(例えば、人、場所、位置、製品、アイテム、サービス、音、声、等)を説明するかまたは特定する、テキスト情報またはマルチメディア情報のような情報を含むことができる。アイテム説明540は1つまたは複数のアイテム識別子を含めることができる。コンテンツ・メタデータ550を場合によってはタグ520に含めることができる。コンテンツ・メタデータ550は、所与のアイテムを見つけうる場所、複数の場所、またはインスタンスを特定する情報を含むことができる。タグ・メタデータ560を場合によってはタグ520に含めることができる。タグ・メタデータ560は、タグ520に関する情報、ヘッダ情報、ペイロード情報、サービス情報、等を含むことができる。アイテム説明540、コンテンツ・メタデータ550および/またはタグ・メタデータ560をタグ520とともに含めることができ、タグ520の外部に格納することができ、参照により利用することができる。
図6は、本発明に従う一実施形態における、タグを動的にタグ関連情報に関連付ける方法600のフローチャートである。図6に示す方法600の実装形態または方法600における処理を、コンピュータ・システムまたは情報処理装置のような論理機械の中央演算装置(CPUまたはプロセッサ)によって実行する場合にはソフトウェア(例えば、命令またはコード・モジュール)によって、電子装置もしくは特殊用途向け集積回路のハードウェア・コンポーネントによって、または、ソフトウェア要素およびハードウェア要素の組合せによって実行することができる。図6に示す方法600はステップ610で開始する。
ステップ620で、1つまたは複数のタグを受信する。上記のように、コンテンツ内で表示されたアイテム(例えば、場所、ビル、人、服装、製品、装置、サービス、等)を特定するタグを、コンテンツ作成者、ユーザ、等によって生成することができる。
ステップ630で、1つまたは複数のビジネス・ルールを受信する。各ビジネス・ルールにより、情報またはアクションをどのようにタグと関連付けるかを決定する。情報には、テキスト情報、マルチメディア情報、追加のコンテンツ、広告、クーポン、地図、URL、等を含めることができる。アクションには対話のオプション、例えば、アイテムに関して追加のコンテンツを参照すること、アイテムを含むコンテンツの追加部分を閲覧すること、アイテムをショッピング・カートに追加すること、アイテムを購入すること、アイテムを別のユーザへ転送すること、アイテムをインターネット上で共有すること、等を含めることができる。
ビジネス・ルールには、タグに適用可能な1つまたは複数の基準または条件(例えば、アイテム説明540、コンテンツ・メタデータ550、および/またはタグ・メタデータ560に関連する情報)を含めることができる。さらに、ビジネス・ルールは、タグまたは関連情報が、1つまたは複数の基準または条件を満たすときに、タグに関連付けるべき情報または情報源を特定することができる。さらに、ビジネス・ルールは、タグまたは関連情報が、1つまたは複数の基準または条件を満たすときにタグに関連付けるべきアクションを特定することができる。さらに、ビジネス・ルールは、どのように情報またはアクションをタグに関連付けるかを決定するロジックを含めることができる。ロジックの幾つかの例に、数的計算、閾値が満たされているか否かまたはクォータを超過したか否かの判定、外部データ・ソースに対する問合せとそれに関連する結果の処理、分析エンジンの利用と分析結果の適用、統計的観測の利用と統計的発見の適用、等を含めることができる。
ステップ640で、タグとTAIの間の1つまたは複数のリンクをビジネス・ルールに基づいて生成する。次いで、リンクをアクセス可能なリポジトリに格納することができる。ステップ650で、1つまたは複数のリンクをビジネス・ルールの適用結果に基づいて定期的に更新する。様々な実施形態では、同一のルールを適用することで、様々なTAIをタグに動的に関連付けることができる。別の実施形態では、新たなルールまたは修正したルールにより、様々なTAIをタグに関連付けることができる。図6はステップ660で終了する。
スマートコンテンツとの対話
図7は、本発明に従う一実施形態における、タグ付きコンテンツと対話する方法700のフローチャートである。図7の方法700はステップ710で開始する。ステップ720で、コンテンツを受信する。上記のように、コンテンツを、メディア配信、ブロードキャスト配信、ストリーミング、オンデマンド配信、ライブ・キャプチャ、等を介して受信することができる。ステップ730で、タグを受信する。上記のように、タグをメディア配信、ブロードキャスト配信、ストリーミング、オンデマンド配信、ライブ・キャプチャ、等を介して受信することができる。タグを、コンテンツと同じ装置で受信することができる。タグを、コンテンツと異なる装置(例えば、コンパニオン・デバイス)で受信することができる。
ステップ740で、少なくとも1つのタグを選択する。ユーザは、コンテンツを消費している間にタグを選択することができる。さらに、ユーザは、コンテンツを一時停止している間にタグを選択することができる。ユーザは、リモート・コントロール、キーボード、タッチ・スクリーン、等を介してタグを選択することができる。ユーザは、タグのリストからタグを選択することができる。ユーザはコンテンツ内で表示されたアイテムを選択することができ、そうすると対応するタグが選択される。ある実施形態では、ユーザはコンテンツの領域またはコンテンツの全体を選択することができ、そうすると、その領域内の任意のタグまたはコンテンツの全体の中の全てのタグが選択される。
ステップ750で、少なくとも1つのタグに関連するTAIを決定する。例えば、タグとTAIの間のリンクを決定するかまたはリポジトリから取り出す。ステップ760で、1つまたは複数のアクションを実行するか、または、少なくとも1つのタグに関連するTAIに基づいて情報を決定する。例えば、アプリケーションの起動、購入の開始、情報ダイアログの表示、検索の実行、等を行うことができる。図7はステップ770で終了する。
図8Aおよび図8Bは、本発明に従う様々な実施形態における、どのようにユーザがタグ付きコンテンツと対話できるかを示す図である。
図9は、本発明に従う一実施形態における、図1のプラットフォーム100を用いてタグ付けまたはメタロギングされたコンテンツの一例を示す。本例では、コンテンツ900は、プラットフォーム100によって処理(例えば、メタロギング)された元のコンテンツに基づくエンコードされた対話的なコンテンツを含む。表示されたシーンにおいて、1つまたは複数の対話的なコンテンツ・マーカ910(例えば、タグ115の視覚的表現)を表示する。ここで、それぞれの対話的なコンテンツ・マーカは、対話的なコンテンツの一部に関するタグおよび潜在的な追加情報がコンテンツの一部において利用可能であることを示す。例えば、シーン内の人によって着用されている蝶ネクタイをマークする対話的なコンテンツ・マーカ910の1つは、当該蝶ネクタイに関するタグ関連情報(例えば、追加の情報および/または1つもしくは複数のアクション)が利用可能であることを示す。同様に、シーン内の人によって着用されているタキシードをマークする対話的なコンテンツ・マーカ910の1つは、タキシードに関するタグ関連情報が利用可能であることを示す。ある実施形態では、対話的なコンテンツ・マーカ910は、コンテンツの視聴の邪魔になるので、映画を視聴している間はユーザには見えない。ある実施形態では、1つまたは複数のモードが提供される。当該1つまたは複数のモードでは、コンテンツの一部においてまたはコンテンツの一部のシーンにおいてユーザが対話的なコンテンツを見ることができるように対話的なコンテンツ・マーカ910を表示することができる。
スマートまたは対話的なコンテンツをユーザによって参照し、消費し、または起動する場合、ディスプレイを1つまたは複数のアイコンで起動することができる。この場合、ユーザはこれらのアイコンを(例えば、リモート・カーソルを用いてナビゲートすることにより)起動して特定の機能を起動することができる。例えば、コンテンツ900に、対話的なコンテンツ・アイコン920とブックマーク・アイコン930を関連付けることができる。対話的なコンテンツ・アイコン920は、ユーザが1つまたは複数の提供されたモードを有効または無効にすることができる機能を含むことができる。ブックマーク・アイコン930が、ユーザがコンテンツの一部におけるシーン、場所、アイテム、人、等をブックマークして後にブックマークしたシーン、場所、アイテム、人、等に戻ってコンテンツ、ランドマーク、タグ、TAI、等とさらに対話できるようにする機能を含むことができる。
図10Aは、ランドマークを起動していない、ユーザに表示されているコンテンツの一部からシーン1000を示す。図10Bは、対話的なコンテンツ・マーカをユーザによって起動した当該コンテンツの一部からのシーン1000を示す。図10Bに示すように、シーン1000内の1つまたは複数の対話的なコンテンツを、例えば対話的なコンテンツ・マーカ1010によって特定または表現する。この場合、ユーザはスクリーン上のカーソルまたはポインタを用いて任意の対話的なコンテンツ・マーカ1010を選択することができる。対話的なコンテンツ・マーカ1010に用いられる特定の視覚的アイコンを各コンテンツの一部に対してカスタマイズすることができる。例えば、コンテンツの一部のテーマがギャンブルまたはポーカである場合は、対話的なコンテンツ・マーカ1010は以下の例で示すようにポーカのチップとすることができる。図示したシーン内の人が着用しているサングラスまたはその近くにある対話的なコンテンツ・マーカをユーザが選択した場合、対話的なコンテンツ・マーカが、特定の対話的なコンテンツに関する説明文(例えば、「男用のサングラス」というフレーズを提供するテキスト情報)を表示することができる。図10Bでは、他の対話的なコンテンツが、位置(例えば、イタリアのベニス)、ゴンドラ、ヨット、およびサングラスを含めることができる。
図10Cは、スマートコンテンツと対話するためのメニュー式のユーザ・インタフェースを表示しているときの、図10Aのコンテンツの一部のシーンを示す。例えば、ユーザは特定の対話的なコンテンツ、例えば、サングラスを選択すると、ユーザにコンテンツと対話する幾つかの選択肢を与えるメニュー1020を、おそらくユーザに提示する。示したように、メニュー1020によりユーザは、1)アイテムを再生すること、またはアイテムを有するシーンを再生すること、2)詳細を参照すること、3)ショッピング・リストに追加すること、4)アイテムを購入すること、5)ショッピング・リストまたはショッピング・カートを見ること、および、6)退出またはコンテンツに戻ること、ができる。様々な実施形態では、7)「流行」を見ること、8)「次のもの(What‘s Next)」を見ること、または他のボーナス機能もしくは追加の機能のような他の選択肢を含めることができる。
ある実施形態では、「流行」メニューを選択することで、(例えば、プラットフォーム100に関連付けられた1つもしくは複数のサーバまたは他の認可されたサード・パーティからダウンロードされる)選択した対話的なコンテンツの作成者の他の製品に関する対話的なコンテンツをユーザに提供する。例えば、ユーザがサングラスを選択すると、「流行」を選択することにより、ユーザが関心を有するかもしれない、同一の製造業者の他の製品を表示する。当該ユーザは、自分がコンテンツの一部を見ている特定の時季または場所に対してより適当である製品を表示することを製造業者に許可している。したがって、対話的なコンテンツが、ユーザがコンテンツを見ている場所または時季に適当ではない場合でも、プラットフォーム100により、アイテムの製造業者または他のスポンサは、ユーザがコンテンツの一部を参照している特定の地理的場所または時季に対してより適当な別の製品またはサービスを(例えば、「該当しないもの」選択肢を用いて)ユーザに示すことができる。
別の例では、選択された対話的なコンテンツは、夏のビーチでのコンテンツのシーンにおける特定の製造業者製のサンダルであるが、そのコンテンツを見ているユーザがそのコンテンツを12月のミシガン州で見ているか、または、グリーンランドに居る場合は、「流行」の選択肢により、製造業者は、コンテンツを見ている時点またはコンテンツを見ている場所においてユーザが関心があるかもしれない、同じ製造業者製のブーツ、冬用の靴、等をユーザに表示することができる。
ある実施形態では、「次のもの」メニューを選択することで、一時的な広告を提供するための、新バージョンまたは次バージョンの対話的なコンテンツに関する(例えば、プラットフォーム100に関連付けられた1つもしくは複数のサーバまたは他の認可されたサード・パーティからダウンロードした)対話的なコンテンツをユーザに提供する。例えば、ユーザがサングラスを選択すると、「次のもの」セレクションは、ユーザが関心があるかもしれない同一の製造業者の新バージョンまたは他のバージョンのサングラスを表示する。このように、コンテンツの一部が古いモデルの製品を有していても、「次のもの」を選択することで、製造業者は新たなモデルまたは別の関連するモデルの製品を広告することができる。このように、プラットフォーム100に、コンテンツに出てくる製品がもはや製造または販売されていないときのように、対話的なコンテンツ、タグ、およびTAIが陳腐化し製造業者にとって価値がなくならないようにする機能を組み込むことができる。
別の実施形態では、図11Aに示すように、詳細参照メニュー項目により、プラットフォーム100は、情報をアイテム詳細ユーザ・インタフェース80としてユーザに送信する。本例ではアイテムを製品(サングラス)として示してあるが、アイテムは人、場所、音楽/サウンド・トラック、サービス、等とすることもできる。この場合、アイテムの詳細は、これらの様々な種類のアイテムごとに異なってもよい。図11Aの例では、ユーザ・インタフェース1100は、アイテムの詳細、ならびに、アイテムを購入できる店を各店舗の価格とともに表示したものを示す。アイテムの詳細の表示では、1つまたは複数の類似製品(例えば、ヴェルサーチ(登録商標)のサングラスまたはオークレー(登録商標)のサングラス)を、ユーザが関心があるかもしれない選択された製品に表示することができる。図11Bに示すように、プラットフォーム100により、ユーザは製品またはサービスをショッピング・カートに追加することができ、プラットフォーム100は、図11Cに示すようにアイテムがショッピング・カート内にあるというフィードバックを提供する。
別の実施形態では、図12に示すように、「ショッピング・リストまたはショッピング・カートを見る」項目により、プラットフォーム100はショッピング・カートのユーザ・インタフェース1200を表示する。ショッピング・カートは、本明細書では説明されていない典型的なショッピング・カートの要素を含むことができる。
様々な実施形態では、図13Aに示すように、プラットフォーム100により、ユーザがログインして、ショッピング・カート内のアイテムを購入するといった様々な動作を行うことができる。ユーザが「アイテムを購入」メニュー項目を選択したとき、または、ショッピング・カートを出たとき、プラットフォーム100は、ユーザがショッピング・カート内のアイテムを購入できる1つまたは複数の電子商取引システムを含むことができる。アイテムおよび/または対話的なコンテンツを購入するためのユーザ・インタフェースの例を、図13B、13C、13D、13E、および13Fに示す。
別の実施形態では、アイテム再生/シーン再生の選択項目により、プラットフォーム100は、選択した対話的なコンテンツ(例えば、アイテム、人、場所、フレーズ、位置、等)が表示または参照されるコンテンツ内の各シーンをユーザに示す。特に、図14A、14B、および14Cは、シーン内に同一の対話的なコンテンツ(本例ではサングラス)を有するコンテンツの幾つかの異なるシーンを示す。上記のように、プラットフォーム100は各コンテンツを処理しメタロギングするので、プラットフォーム100は、特定の対話的なコンテンツが現れる各シーンを識別することができ、要求されたときにこれらのシーンの全てをユーザに表示することができる。
様々な実施形態では、プラットフォーム100はコンテンツ検索機能を提供することができる。コンテンツ検索は、部分的にはコンテンツ、タグ、およびタグ関連情報に基づくことができる。検索機能により、ユーザは対話的なコンテンツのカテゴリ(例えば、製品、人、場所もしくは位置、音楽もしくはサウンド・トラック、サービス、および/または単語もしくは句)を利用して検索を実行することができうる。さらに、検索機能により、複数の語が論理演算子により互いに結合される検索をユーザが実行できうる。例えば、ユーザは、「サラ・ジェシカ・パーカーAND青の靴」で検索することができ、検索語ごとにカテゴリを指定することができる。(例えば、プラットフォーム100に関連付けられた1つまたは複数のサーバで)検索を実行すると、検索結果を表示することができる。ある実施形態では、ユーザは、検索基準を満たすコンテンツの一部のシーンを見ることができる。代替的な実施形態では、ローカルのデジタル・メディアが、例えばオフラインかつインターネット接続なしで、上述の幾つかの検索を実行できるようにするコードおよび機能を含めることができる。
コンパニオン・デバイス
図15は、本発明に従う一実施形態における、コンピューティング装置1500が図1のプラットフォーム100内のコンパニオン・デバイスとして使用されるときの、当該コンピューティング装置1500に関連付けられたユーザ・インタフェースの一例を示す。様々な実施形態では、コンピューティング装置1500は、対話的なコンテンツの利用可能性および/または1つもしくは複数のプラットフォーム100の要素との通信リンクの利用可能性を自動的に検出することができる。別の実施形態では、ユーザは、コンピューティング装置1500と1つまたは複数のプラットフォーム100の要素の間の通信を手動で開始することができる。特に、ユーザは、対話的なコンテンツ・アプリケーションをコンピューティング装置1500上で起動することができる。当該コンテンツ・アプリケーションは、コンピューティング装置1500付近のコンテンツ装置にマルチキャストのピングを送出して、プラットフォーム100と対話するためのコンテンツとの(無線または有線の)接続を確立する。
図16は、本発明に従う一実施形態における、コンピューティング装置1600がユーザによって消費されているコンテンツの特定部分と同期されているときの、当該コンピューティング装置のユーザ・インタフェースの一例を示す。図16のユーザ・インタフェースは、接続を確立するプロセスの状態にあるコンピューティング装置1600を示す。複数のユーザがいるマルチユーザ環境では、プラットフォーム100により、複数のユーザは1つまたは複数のコンテンツ装置への接続を確立し、それにより、各ユーザはコンテンツと独自の、独立な対話をすることができる。
図17は、本発明に従う一実施形態における、コンテンツの特定部分の詳細を示すコンピューティング装置のユーザ・インタフェースの一例を示す。本例では、コンピューティング装置1700を、「オースチン・パワーズ」という名前の映画のようなコンテンツの一部と同期することができる。例えば、コンピューティング装置1700を、自動的に、または、ユーザにユーザ・インタフェースから同期ボタンを選択させることによって、コンテンツと同期させることができる。別の実施形態では、コンピューティング装置1700は接続を(例えば、コンテンツ再生装置と直接に、または、プラットフォーム100を介して間接的に)確立すると、コンピューティング装置1700にはその独自の独立したコンテンツを提供する。したがって、様々な実施形態では、コンピューティング装置1700はコンテンツの任意の部分(例えば、コンテンツが映画である場合のシーン)を捕捉することができる。別の実施形態では、マルチユーザ環境における各コンピューティング装置に、他のコンピューティング装置とは独立に、独自の独立したコンテンツを提供することができる。
図18は、本発明に従う一実施形態における、一旦、コンピューティング装置1800を特定のコンテンツに同期し、シーンをキャプチャしたときのコンピューティング装置のユーザ・インタフェースの一例を示す。コンピューティング装置1800をシーンのコンテンツと同期すると、ユーザは様々な対話動作を行うことができる(例えば、上記の同一の対話オプション、すなわち、上記のアイテム再生またはアイテムがあるシーンの再生、詳細の参照、ショッピング・リストへの追加、アイテム購入、ショッピング・リストまたはショッピング・カートの参照、「流行」の参照、「次のもの」の参照)。図19は、本発明に従う一実施形態における、コンテンツの一部の同期シーン内の対話コンテンツの一部をユーザが選択したときのコンピューティング装置1900のコンピューティング装置のユーザ・インタフェースの一例を示す。
様々な実施形態では、プラットフォーム100と関連付けられたコンパニオン・デバイスまたはコンピューティング装置により、ユーザはシーンもしくはアイテム、等を別のユーザと共有でき、かつ/またはコンテンツについてコメントできるようにすることができる。図20は、本発明に従う一実施形態における、複数のユーザが各々独立に図1のプラットフォーム100を用いてコンテンツと対話することを示す。一例では、コンテンツ装置2010(例えば、BDプレイヤまたはセット・トップ・ボックスおよびテレビ)が映画を表示しており、各ユーザが特定のコンピューティング装置2020を用いて、表示されているシーン内の別の製品の詳細を参照していて、製品の各々を上記のように対話的なコンテンツ・ランドマーク2030を用いてマークしている。図20に示すように、あるユーザがラップトップの詳細を見ており、一方で、別のユーザが眼鏡または椅子を見ている。
スマートコンテンツ共有
図21は、本発明に従う一実施形態における、タグ付きコンテンツを共有するための方法2100のフローチャートである。図21の方法2100はステップ2110で開始する。
ステップ2120で、選択したタグまたはコンテンツの一部の指示を受信する。例えば、ユーザが個々のアイテムに対するタグを選択することができ、または、ユーザが映画のフレームまたはクリップのようなコンテンツの一部を選択することができる。
ステップ2130で、タグまたはコンテンツの一部を共有する指示を受信する。例えば、ユーザは「これを共有」リンク、または、Facebook、LinkedIn(登録商標)、Myspace(登録商標)、Digg(登録商標)、Reddit(登録商標)、等のような1つもしくは複数のソーシャル・ネットワーキング・ウェブサイトへのアイコンをクリックすることができる。
ステップ2140で、他のユーザがソーシャル・ネットワークを介してタグまたはコンテンツの一部と対話できるようにする情報を生成する。例えば、プラットフォームは、コンテンツの表現、リンク、特定のソーシャル・ネットワークのユーザがコンテンツの表現と対話してタグまたはコンテンツの一部と関連付けられたTAIにアクセスできるようにするコードまたは機能を生成することができる。
ステップ2150で、生成した情報を所与のソーシャル・ネットワークに送信する。例えば、ユーザのFacebookページを更新して、ユーザのオンラインの友達がコンテンツ(またはコンテンツの表現)と対話し、コンテンツ内の任意のタグまたはその共有部分を選択またはマークし、選択したタグまたはマークしたコンテンツの一部に関連付けられたTAIにアクセスできるようにする1つまたは複数のウィジェット、アプリケーション、ポートレット、等を含めることができる。ユーザはさらに、プラットフォーム100と対話して、共有タグまたはその後共有できるコンテンツの一部に対してユーザ生成タグおよびTAIを作成できうる。図21はステップ2150で終了する。
分析
図22は、本発明に従う一実施形態における、タグ付きコンテンツと対話するユーザの振舞いまたは傾向を決定する方法2200のフローチャートである。図22の方法2200はステップ2210で開始する。
ステップ2220で、マーキング情報を受信する。マーキング情報には、ユーザがマークまたは選択したタグに関する情報、ユーザがマークまたは選択したコンテンツの一部に関する情報、コンテンツの選択全体に関する情報、等を含めることができる。マーキング情報は、個々のユーザからのもの、あるユーザ・セッションからのもの、または複数のユーザ・セッションを介したものとすることができる。マーキング情報はさらに、複数のユーザからのものとすることができ、複数の個々のセッションまたは集約したセッションをカバーすることもできる。
ステップ2230で、ユーザ情報を受信する。ユーザ情報には、個々のユーザのプロフィールまたは複数のユーザのプロフィールを含めることができる。ユーザ情報には、個人を特定不可能な情報および/または個人を特定可能な情報を含めることができる。
ステップ2240で、1つまたは複数の振舞いまたは傾向を、マーキング情報とユーザ情報に基づいて決定することができる。振舞いまたは傾向をコンテンツ(例えば、どのコンテンツが最も人気があるか)、コンテンツの一部(例えば、どのクリップを最も共有しているか)、コンテンツ内で表示されたアイテム(例えば、昨年中、映画のシーンにおける製品配置で現れた製品に関する情報に何回ユーザがアクセスしたかを決定することができる)、等に対して決定することができる。
ステップ2250で、決定した振舞いまたは傾向に対してアクセスを提供する。コンテンツ・プロバイダ、広告主、社会科学者、マーケット担当者、等が、新しいコンテンツ、タグ、TAI、等の開発において、決定した振舞いまたは傾向を利用することができる。図22はステップ2260で終了する。
ハードウェアおよびソフトウェア
図23は、一実施形態を取り込むことができるか、または、本開示において見出される任意の発明、実施形態、および/または例に組み込むことができる、システム2300の簡単な図である。図23は、本発明を取り込む実施形態の例にすぎず、特許請求の範囲に記載した本発明の範囲を限定するものではない。当業者であれば、他の変形、修正、および代替を認識することができよう。
一実施形態では、システム2300は1つまたは複数のユーザ・コンピュータまたは電子装置2310(例えば、スマートフォンまたはコンパニオン・デバイス2310A、コンピュータ2310B、セット・トップ・ボックス2310C)を含む。コンピュータまたは電子装置2310は汎用目的のパーソナル・コンピュータ(任意の種類のマイクロソフト(登録商標)社のWindows(登録商標)および/またはアップル(登録商標)社のMacintosh(登録商標)オペレーティング・システムを実行するパーソナル・コンピュータおよび/またはラップトップ・コンピュータが含まれるが、これは例にすぎない)および/または任意の種類の市販のUNIX(登録商標)またはUNIX風のオペレーティング・システムを実行するワークステーション・コンピュータとすることができる。コンピュータまたは電子装置2310は、本発明の方法を実行するように構成した1つまたは複数のアプリケーションを含む任意の種類のアプリケーション、ならびに1つまたは複数のオフィス・アプリケーション、データベース・クライアントおよび/またはサーバ・アプリケーション、ウェブ・ブラウザ・アプリケーションを有することもできる。
あるいは、コンピュータまたは電子装置2310は、ネットワーク(例えば、後述する通信ネットワーク2320)を介して通信でき、ウェブ・ページまたは他種の電子文書を表示およびナビゲートできる、他の任意の家庭用電子装置、例えば、シンクライアント・コンピュータ、インターネット可能携帯電話、および/または携帯情報端末とすることができる。例示的なシステム2300を3つのコンピュータまたは電子装置2310とともに示してあるが、任意数のユーザ・コンピュータまたは装置をサポートすることができる。タグを付けることおよびタグ付きアイテムを表示することを、カメラおよびカムコーダのような家庭用電子装置上で実装することができる。これを、タッチ・スクリーンを介して、または、カーソルを動かしてオブジェクトを選択しそれらをカテゴリ化することによって、行うことができる。
本発明の特定の実施形態はネットワーク環境で動作する。当該ネットワーク環境は通信ネットワーク2320を含むことができる。通信ネットワーク2320は、任意の種類の市販のプロトコルを用いてデータ通信をサポートできる、当業者に良く知られている任意の種類のネットワークとすることができる。当該プロトコルには、TCP/IP、SNA、IPX、AppleTalk(登録商標)、等が含まれるがこれらに限らない。通信ネットワーク2320はLAN(local area network)、広域ネットワーク、仮想ネットワーク、インターネット、イントラネット、エクストラネット、PSTN(public switched telephone network)、赤外線ネットワーク、無線ネットワーク、ならびに/または、これらおよび/もしくは他のネットワークの任意の組合せとすることができるが、これらは例にすぎない。LANにはイーサネット(登録商標)・ネットワーク、トークン・リングのネットワーク、等が含まれるがこれらに限らない。仮想ネットワークには、VPN(virtual private network)が含まれるがこれに限らない。無線ネットワークには、任意のIEEE802.11プロトコル・スイートに準拠して動作するネットワーク、WIFI(登録商標)、当業界で公知なBluetooth(登録商標)、および/または他の任意の無線プロトコルが含まれるがこれらに限らない。
本発明の諸実施形態は、1つまたは複数のサーバ・コンピュータ2320(例えば、コンピュータ2330Aおよび2330B)を含むことができる。サーバ・コンピュータ2330の各々を、オペレーティング・システムで構成することができ、任意の市販のサーバ・オペレーティング・システムで構成することができる。当該オペレーティング・システムには、上記のうち任意のものが含まれるがこれらに限らない。サーバ・コンピュータ2330の各々は1つまたは複数のアプリケーションを実行することができる。当該アプリケーションを、1つもしくは複数のクライアント(例えば、ユーザ・コンピュータ2310)および/または他のサーバ(例えば、サーバ・コンピュータ2330)にサービスを提供するように構成することができる。
サーバ・コンピュータ2330の1つはウェブ・サーバとすることができるが、これは例にすぎない。当該ウェブ・サーバを使用して、ウェブ・ページまたは他の電子文書をユーザ・コンピュータ2310から処理することができるが、これは例にすぎない。ウェブ・サーバが、様々なサーバ・アプリケーションを実行することもできる。当該サーバ・アプリケーションには、HTTPサーバ、FTPサーバ、CGIサーバ、データベース・サーバ、Javaサーバ、等が含まれる。本発明のある実施形態では、1つまたは複数のユーザ・コンピュータ2310上のウェブ・ブラウザ内で動作して本発明の方法を実行できるウェブ・ページを提供するように、ウェブ・サーバを構成することができる。
ある実施形態では、サーバ・コンピュータ2330は、1つもしくは複数のファイルおよび/またはアプリケーション・サーバを含むことができる。当該ファイルおよび/またはアプリケーション・サーバは、1つもしくは複数のユーザ・コンピュータ2310および/または他のサーバ・コンピュータ2330上で実行されるクライアントがアクセス可能な1つまたは複数のアプリケーションを含むことができる。1つまたは複数のサーバ・コンピュータ2330は、ユーザ・コンピュータ2310および/または他のサーバ・コンピュータ2330に応答してプログラムまたはスクリプトを実行できる1つまたは複数の汎用目的のコンピュータとすることができるが、これは例にすぎない。当該プログラムまたはスクリプトには、(幾つかの場合には、本発明の方法を実行するように構成できる)ウェブ・アプリケーションが含まれるがこれに限らない。
ウェブ・アプリケーションを、Java、C、またはC++のような任意のプログラミング言語、および/またはPerl(登録商標)、Python、またはTCLのような任意のスクリプト言語、ならびに任意のプログラミング言語またはスクリプト言語の組合せで書かれた1つまたは複数のスクリプトまたはプログラムとして実装することができる。アプリケーション・サーバ(複数可)は、ユーザ・コンピュータ2310の1つおよび/または別のサーバ・コンピュータ2330上で実行されているデータベース・クライアントからの要求を処理できる、データベース・サーバを備えることもできる。当該データベース・サーバには、市販のOracle(登録商標)製、Microsoft製、IBM(登録商標)製、等のものも含まれるがこれらに限らない。
ある実施形態では、アプリケーション・サーバは、ウェブ・ページを動的に作成して、本発明の実施形態に従って情報を表示することができる。アプリケーション・サーバによって提供されるデータを、(例えば、HTML、XML、Javascript、AJAX、等を含む)ウェブ・ページとしてフォーマットすることができ、(例えば、上述のような)ウェブ・サーバを介してユーザ・コンピュータ2310の1つに転送することができる。同様に、ウェブ・サーバは、ウェブ・ページ要求および/もしくは入力データをユーザ・コンピュータ2310の1つから受信し、かつ/または、ウェブ・ページ要求および/もしくは入力データをアプリケーション・サーバに転送することができる。
別の実施形態によれば、1つまたは複数のサーバ・コンピュータ2330はファイル・サーバとして機能することができ、かつ/または、ユーザ・コンピュータ2310の1つおよび/もしくは別のサーバ・コンピュータ2330上で実行されているアプリケーションに組み込んだ本発明の方法を実装するのに必要な1つもしくは複数のファイルを含むことができる。あるいは、当業者には理解されるように、ファイル・サーバは全ての必要なファイルを含んで、かかるアプリケーションを1つもしくは複数のユーザ・コンピュータ2310および/もしくはサーバ・コンピュータ2330によってリモートに起動できるようにすることができる。本明細書で様々なサーバ(例えば、アプリケーション・サーバ、データベース・サーバ、ウェブ・サーバ、ファイル・サーバ、等)に関して説明した機能を、実装に固有なニーズおよびパラメータに応じて、単一のサーバおよび/または複数の特殊サーバによって実行できることに留意されたい。
特定の実施形態では、システム2300が1つまたは複数のデータベース2340(例えば、データベース2340Aおよび2340B)を備えることができる。データベース(複数可)2320の位置は任意である。すなわち、これは例にすぎないが、データべ−ス2340Aは、サーバ・コンピュータ2330A(および/または1つもしくは複数のユーザ・コンピュータ2310)に対してローカルな(および/またはその内部に存在する)記憶媒体上に存在することができる。あるいは、データベース2340Bは、ユーザ・コンピュータ2310およびサーバ・コンピュータ2330のうち1つまたは複数と(例えば、通信ネットワーク2320を介して)通信できる限り、ユーザ・コンピュータ2310およびサーバ・コンピュータ2330の何れかまたは全部から遠隔操作することができる。1組の特定の実施形態では、データベース2340は当業者に良く知られているSAN(storage−area network)内に存在することができる。(同様に、ユーザ・コンピュータ2310およびサーバ・コンピュータ2330に付属する機能を実行するのに必要な任意のファイルを、必要に応じて各コンピュータ上にローカルに、および/または、リモートに格納することができる。)1組の実施形態では、1つまたは複数のデータベース2340は、SQL形式のコマンドに応答してデータを格納、更新、および抽出するように適合された関係データベースとすることができる。例えば、データベース2340を、上記のようにデータベース・サーバによって制御および/または保守することができる。
図24は、一実施形態を取り込むことができ、一実施形態に組み込むことができ、または、本開示において見出される任意の発明、実施形態、および/もしくは例を実施するために使用できる、コンピュータ・システム2400のブロック図である。図24は、本発明を取り込んだ実施形態に関する1つまたは複数の開示された技法、特殊情報処理装置または家庭用電子装置に従ってプログラムしたコンピューティング装置、汎用目的のコンピュータ・システムを示すにすぎず、その教示事項は本明細書で提示され、特許請求の範囲に記載した本発明の範囲を限定するものではない。当業者であれば、他の変形、修正、および代替を認識することができよう。
コンピュータ・システム2400は、論理動作および計算、入出力動作、機械通信、等を実行するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。コンピュータ・システム2400は、良く知られたコンピュータ・コンポーネント、例えば、1つまたは複数のデータ・プロセッサまたはCPU(central processing unit)2405、1つまたは複数のグラフィック・プロセッサまたはGPU(graphical processing unit)2410、メモリ・サブシステム2415、ストレージ・サブシステム2420、1つまたは複数のI/O(input/output)インタフェース2425、通信インタフェース2430、等を含むことができる。コンピュータ・システム2400はシステム・バス2435を含むことができる。システム・バス2435は、上述のコンポーネントを相互接続し、接続性およびドライブ間通信のような機能を提供する。コンピュータ・システム2400をコンピューティング・デバイス、例えば、PC(personal computer)、ワークステーション、ミニコンピュータ、メインフレーム、コンピューティング装置のクラスタまたはファーム、ラップトップ、ノートブック、ネットブック、PDA、スマートフォン、家庭用電子装置、ゲーミング・コンソール、等として具体化することができる。
1つまたは複数のデータ・プロセッサまたはCPU(central processing unit)2405は、ロジックまたはプログラム・コードを実行するかまたはアプリケーション固有の機能を提供するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。CPU(複数可)2405の幾つかの例としては、(例えば、単一コアおよびマルチコアの)1つまたは複数のマイクロプロセッサまたはマイクロコントローラを挙げることができる。CPU2405としては、類似または多様な内部および外部の命令設計およびデータ設計を有する、4ビット、8ビット、12ビット、16ビット、32ビット、64ビット、等のアーキテクチャを含めることができる。さらに、CPU2405は単一のコアまたは複数のコアを含むことができる。市販のプロセッサとしては、カリフォルニア州サンタクララのインテル(登録商標)製のもの(例えば、x86、x86_64、PENTIUM(登録商標)、CELERON(登録商標)、CORE(登録商標)、CORE 2、CORE ix、ITANIUM(登録商標)、XEON(登録商標)、等)、カリフォルニア州サニーベールのアドバンスト・マイクロ・デバイシーズ製のもの(例えば、x86、AMD(登録商標)_64、ATHLON、DURON(登録商標)、TURION(登録商標)、ATHLON XP/64、OPTERON(登録商標)、PHENOM、等)を含めることができる。市販のプロセッサにはさらに、ARM(Advanced RISC Machine)(登録商標)アーキテクチャ(例えば、ARMv7〜9)、POWERアーキテクチャ(登録商標)およびPOWERPC(登録商標)アーキテクチャ、CELLアーキテクチャ、等に準拠のものを含めることができる。CPU(複数可)2405には、1つまたは複数のFPGA(field−gate programmable array)、ASIC(application−specific integrated circuit)、または他のマイクロコントローラを含めることができる。1つまたは複数のデータ・プロセッサまたはCPU(central processing unit)2405が、任意数のレジスタ、ロジック・ユニット、算術ユニット、キャッシュ、メモリ・インタラェース、等を含むことができる。さらに、1つまたは複数のデータ・プロセッサまたはCPU(central processing unit)2405を、固定的または可動的に、1つまたは複数のマザーボードまたはドータ・ボードに組み込むことができる。
1つまたは複数のグラフィック・プロセッサまたはGPU(graphical processing unit)2410は、グラフィック関連のロジックもしくはプログラム・コードを実行するかまたはグラフィック固有の機能を提供するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。GPU2410は、従来型のビデオ・カードによって提供されるもののような、任意の従来型のグラフィック処理ユニットを含むことができる。GPUの幾つかの例は、NVIDIA(登録商標)、ATI、および他のベンダから市販で入手可能である。様々な実施形態では、GPU2410は1つもしくは複数のベクトル処理ユニットまたは並列処理ユニットを含むことができる。これらのGPUはユーザによってプログラム可能とすることができ、特定の種類のデータ(例えば、ビデオ・データ)をエンコードもしくはデコードするか、または、動作を加速するためのハードウェア要素、等を含むことができる。1つまたは複数のグラフィック・プロセッサまたはGPU(graphical processing unit)2410は、任意数のレジスタ、ロジック・ユニット、算術ユニット、キャッシュ、メモリ・インタフェース、等を含むことができる。さらに、1つまたは複数のデータ・プロセッサまたはCPU(central processing unit)2405を、固定的または可動的に、専用ビデオ・メモリ、フレーム・バッファ、等を備える1つまたは複数のマザーボードまたはドータ・ボードに組み込むことができる。
メモリ・サブシステム2415は、情報を記憶するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。メモリ・サブシステム2415は、機械可読製品、情報記憶装置、またはコンピュータ可読記憶媒体を用いて情報を記憶することができる。メモリ・サブシステム2470が用いるこれらの製品の幾つかの例としては、RAM(random access memory)、ROM(read−only−memory)、揮発性メモリ、不揮発性メモリ、および他の半導体メモリを挙げることができる。様々な実施形態では、メモリ・サブシステム2415は、コンテンツタグ付けおよび/またはスマートコンテンツと対話するためのデータおよびプログラム・コード2440を含むことができる。
ストレージ・サブシステム2420は、情報を記憶するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。ストレージ・サブシステム2420は、機械可読製品、情報記憶装置、またはコンピュータ可読記憶媒体を用いて情報を記憶することができる。ストレージ・サブシステム2420は、記憶媒体2445を用いて情報を記憶することができる。ストレージ・サブシステム2420が用いる記憶媒体2445の幾つかの例としては、フロッピ(登録商標)・ディスク、ハード・ディスク、CD−ROM、DVDのような光記憶媒体、バーコード、取外し可能記憶装置、ネットワーク記憶装置、等を挙げることができる。ある実施形態では、コンテンツタグ付けおよび/またはスマートコンテンツと対話するためのデータおよびプログラム・コード2440の全部または一部を、ストレージ・サブシステム2420を用いて記憶することができる。
様々な実施形態では、コンピュータ・システム2400は、1つまたは複数のハイパバイザまたはオペレーティング・システム、例えば、ワシントン州レドモンドのマイクロソフト製のWINDOWS、WINDOWS NT、WINDOWS XP、VISTA(登録商標)、WINDOWS 7、等、カリフォルニア州クパチーノのアップル社製のMAC(登録商標) OSまたはMAC OS X、サン・マイクロシステムズ製のSOLARIS(登録商標)、LINUX(登録商標)、UNIX、および他のUNIXベースまたはUNIX風のオペレーティング・システムを含むことができる。コンピュータ・システム2400は、本明細書で開示した技法を実行、実施、または実装するように構成した1つまたは複数のアプリケーションを含むことができる。これらのアプリケーションを、コンテンツタグ付けおよび/またはスマートコンテンツと対話するためのデータおよびプログラム・コード2440として具体化することができる。さらに、コンピュータ・プログラム、実行可能なコンピュータ・コード、人間が読取可能なソース・コード、等をメモリ・サブシステム2415および/またはストレージ・サブシステム2420に格納することができる。
1つまたは複数のI/O(input/output)インタフェース2425は、I/O動作を実行するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。1つもしくは複数の入力装置2450および/または1つもしくは複数の出力装置2455を、1つまたは複数のI/Oインタフェース2425に通信可能に接続することができる。
1つまたは複数の入力装置2450は、コンピュータ・システム2400に対する1つまたは複数のソースから情報を受信するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。1つまたは複数の入力装置2450の幾つかの例として、コンピュータのマウス、トラックボール、トラック・パッド、ジョイスティック、ワイヤレス・リモート(wireless remote)、描画タブレット、音声コマンド・システム、アイ・トラッキング・システム、外部記憶システム、タッチ・スクリーンとして適切に構成したモニタ、送受信機として適切に構成した通信インタフェース、等を挙げることができる。様々な実施形態では、1つまたは複数の入力装置2450により、コンピュータ・システム2400のユーザは、1つまたは複数の非グラフィカル・ユーザ・インタフェースまたはグラフィカル・ユーザ・インタフェースと対話して、コメントを入力し、オブジェクト、アイコン、テキスト、ユーザ・インタフェースのウィジェット、またはモニタもしくは表示装置上に現れる他のユーザ・インタフェース要素を、コマンド、ボタンのクリック、等を介して選択することができる。
1つまたは複数の出力装置2455は、情報をコンピュータ・システム2400の1つまたは複数の宛先に出力するように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。1つまたは複数の出力装置2455の幾つかの例として、プリンタ、ファックス、マウスまたはジョイスティックに対するフィードバック装置、外部記憶システム、モニタまたは他の出力装置、送受信機として適切に構成した通信インタフェース、等を挙げることができる。1つまたは複数の出力装置2455により、コンピュータ・システム2400のユーザは、オブジェクト、アイコン、テキスト、ユーザ・インタフェース・ウィジェット、または他のユーザ・インタフェース要素を参照することができる。
表示装置またはモニタをコンピュータ・システム2400とともに使用することができ、表示装置またはモニタは情報を表示するように構成したハードウェア要素および/またはソフトウェア要素を備えることができる。幾つかの例として、良く知られた表示装置、例えば、テレビのモニタ、CRT(cathode ray tube)、LCD(liquid crystal display)、等が挙げられる。
通信インタフェース2430は、データの送受信を含めて、通信動作を行うように構成したハードウェア要素および/またはソフトウェア要素を含むことができる。通信インタフェース2430の幾つかの例として、ネットワーク通信インタフェース、外部バス・インタフェース、イーサネット・カード、モデム(電話、衛星、ケーブル、ISDN(登録商標))、(非同期)DSL(digital subscriber line)ユニット、FireWire(登録商標)インタフェース、USBインタフェース、等を挙げることができる。例えば、通信インタフェース2430を、コンピュータ・ネットワークのような通信ネットワークまたは外部バス2480、FireWireバス、USBハブ、等に接続することができる。他の実施形態では、通信インタフェース2430を、コンピュータ・システム2400のマザーボードまたはドータ・ボード上のハードウェアとして物理的に統合することができ、ソフトウェア・プログラム、等として実装することができ、それらの組合せとして実装することができる。
様々な実施形態では、コンピュータ・システム2400は、ローカル・エリア・ネットワークまたはインターネットのようなネットワークを介して、HTTP、TCP/IP、RTP/RTSPプロトコル、等のような1つまたは複数の通信プロトコルを用いて通信を可能とするソフトウェアを含むことができる。ある実施形態では、他の通信ソフトウェアおよび/または転送プロトコル、例えばIPX、UDP、等を使用して、ネットワーク上のホスト、または、コンピュータ・システム2400に直接接続された装置と通信することができる。
示唆したように、図24は、適切に構成した汎用目的のコンピュータ・システム、または、本開示で提示した本発明の様々な実施形態を実装できまたは取り込める特定のデータ処理装置を表現したものにすぎない。本開示で提示した発明を実装する際の使用に適した、または、本開示で提示した発明の様々な実施形態での使用に適した、他の多くのハードウェア構成および/またはソフトウェア構成は当業者には明らかであろう。例えば、コンピュータ・システムまたはデータ処理装置は、デスクトップ構成、ポータブル構成、ラック・マウント式構成、またはタブレット構成を含むことができる。さらに、コンピュータ・システムまたは情報処理装置は、一連のネットワーク・コンピュータ、または、並列処理装置のクラスタもしくはグリッドを含むことができる。さらに他の実施形態では、コンピュータ・システムまたは情報処理装置は、チップまたは補助的な処理ボードに実装した上述の技法を実施することができる。
教示事項を本開示で提示した1つまたは複数の発明のうち任意のものに関する様々な実施形態を、ソフトウェア、ファームウェア、ハードウェア、またはそれらの組合せでのロジックの形で実装することができる。当該ロジックを、機械アクセス可能なメモリ、機械可読製品、有形のコンピュータ可読媒体、コンピュータ可読記憶媒体、または他のコンピュータ可読もしくは機械可読な媒体に、論理機械の中央演算装置(CPUまたはプロセッサ)に本開示で提示した本発明の様々な実施形態で開示した1組のステップの実行を指示するように適合させた1組の命令として、格納することができる。当該ロジックは、ソフトウェア・プログラムまたはコンピュータ・プログラム製品の一部とすることができる。なぜならば、コード・モジュールは、本開示で提示した発明の様々な実施形態における方法またはプロセスを実施するために実行されると、コンピュータ・システムまたは情報処理装置のプロセッサとともに動作可能となるからである。本開示と、本明細書で提供した教示事項とに基づいて、当業者は、1つまたは複数の提示した発明の様々な実施形態の開示した動作または機能のうち任意のものをソフトウェア、ファームウェア、ハードウェア、またはその組合せで実装するための他の方法、変形、修正、代替、および/または方法を認識するであろう。
その教示事項が本開示で提示された任意の発明に関する、開示した例、実装形態、および実施形態は、合理的な明確さをもって本開示の教示事項を当業者に伝達するために示したにすぎない。これらの実装形態および実施形態を、例示的な説明または特定の図を参照して説明できるので、説明した方法および/または特定の構造の様々な修正または適応は、当業者には明らかになるであろう。本開示と本明細書に見出しうるこれらの教示事項とに依存する全てのかかる修正、適応、または変形は、これらを通じて当該教示事項が当分野を進歩させるが、その教示事項が本開示で提示される1つまたは複数の発明の範囲内にあると考えられる。したがって、本開示で提示した発明が決して具体的に説明した実施形態に限定されないので、本明細書および図面を限定的な意味で考えるべきではない。
したがって、以上の説明と任意の添付図面、説明、および図は例示的であって限定的なものとは意図していない。したがって、本開示で提示した任意の発明の範囲は、以上の説明と図で示した実施形態とを単に参照するだけで決定されるものではなく、庁係属中の特許請求の範囲をその完全な範囲または均等物とともに参照して決定されるべきである。

Claims (20)

  1. 対話的なユーザ・エクスペリエンスを提供する方法であって、
    1つまたは複数のコンピュータ・システムにおいて、コンテンツに関連付けられたタグを受信するステップであって、前記タグの各々が前記コンテンツ内で表示された少なくとも1つのアイテムに対応する、受信するステップと、
    前記1つまたは複数のコンピュータ・システムに関連付けられた1つまたは複数のプロセッサを用いて、どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するステップと、
    前記1つまたは複数のコンピュータ・システムに関連付けられた前記1つまたは複数のプロセッサを用いて、前記1つまたは複数のタグの各タグと決定した情報との間の1つまたは複数のリンクを、1組のビジネス・ルールに基づいて生成するステップと、
    前記1つまたは複数のリンクを、前記1つまたは複数のコンピュータ・システムと前記コンテンツの少なくとも1人の消費者とがアクセス可能なリポジトリに格納するステップであって、前記コンテンツの前記消費者が前記1つまたは複数のタグのうちのタグを選択すると、前記タグに関連付けられた決定した情報を、前記コンテンツの前記消費者に提示する、格納するステップと
    を備えたことを特徴とする方法。
  2. 前記受信するステップ、前記決定するステップ、前記生成するステップ、および前記格納するステップの各々を、ワンステップのタグ付けに応答して実行することを特徴とする請求項1に記載の方法。
  3. 前記1つまたは複数のタグのうちの少なくとも1つは前記コンテンツの作成者によって生成されることを特徴とする請求項1に記載の方法。
  4. どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するステップは、タグ関連情報を前記コンテンツの前記作成者から受信するステップを含むことを特徴とする請求項3に記載の方法。
  5. 前記1つまたは複数のタグのうちの少なくとも1つはユーザによって生成されることを特徴とする請求項1に記載の方法。
  6. どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するステップは、ユーザ指定のタグ関連情報を受信するステップを含むことを特徴とする請求項5に記載の方法。
  7. 前記コンテンツ内で表示された前記少なくとも1つのアイテムは、場所、構造、人、物、またはサービスのうちの少なくとも1つを含むことを特徴とする請求項1に記載の方法。
  8. 前記1つまたは複数のコンピュータ・システムに関連付けられた1つまたは複数のプロセッサを用いて、どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するステップは、
    1つまたは複数の情報源を決定するステップと、
    前記1つまたは複数の情報源に問い合わせるステップと、
    前記1つまたは複数の情報源から結果を受信するステップと
    を含むことを特徴とする請求項1に記載の方法。
  9. 前記1つまたは複数のタグの各タグと決定した情報との間の前記1つまたは複数のリンクを、前記1組のビジネス・ルールに基づいて生成するステップは、前記1つまたは複数の情報源からの前記結果の一部を、前記1つまたは複数のタグのうちのタグと関連付けるステップを含むことを特徴とする請求項8に記載の方法。
  10. 前記1つまたは複数のタグの各タグと決定した情報の間の前記1つまたは複数のリンクを前記1組のビジネス・ルールに基づいて生成するステップは、前記1つまたは複数の情報源からの前記結果における少なくとも1つのアクションを、前記1つまたは複数のタグのうちのタグと関連付けるステップを含むことを特徴とする請求項8に記載の方法。
  11. 前記1つまたは複数のタグのうちの各タグと決定した情報との間の1つまたは複数の更新されたリンクを、前記1組のビジネス・ルールに基づいて生成するステップをさらに備えたことを特徴とする請求項1に記載の方法。
  12. 前記1つまたは複数のコンピュータ・システムにおいて、マーキング情報を受信するステップと、
    前記マーキング情報に基づいて1つまたは複数の傾向または振舞いを決定するステップと
    をさらに備えたことを特徴とする請求項1に記載の方法。
  13. 対話的なユーザ・エクスペリエンスを提供するための実行可能コードを格納する非一時的なコンピュータ可読媒体であって、前記コンピュータ可読媒体は、
    コンテンツに関連付けられた1つまたは複数のタグを受信するためのコードであって、前記タグの各々が前記コンテンツ内で表示された少なくとも1つのアイテムに対応する、受信するためのコードと、
    どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するためのコードと、
    前記1つまたは複数のタグの各タグと決定した情報との間の1つまたは複数のリンクを、1組のビジネス・ルールに基づいて生成するためのコードと、
    前記1つまたは複数のリンクを、前記コンテンツの少なくとも1人の消費者がアクセス可能なリポジトリに格納するためのコードであって、前記コンテンツの前記消費者が前記1つまたは複数のタグのうちのタグを選択すると、前記タグに関連付けられた決定した情報を前記コンテンツの前記消費者に提示する、格納するためのコードと
    を備えたことを特徴とするコンピュータ可読媒体。
  14. 前記コンテンツ内で表示された前記少なくとも1つのアイテムは、場所、構造、人、物、またはサービスのうちの少なくとも1つを含むことを特徴とする請求項13に記載のコンピュータ可読媒体。
  15. どの情報を前記1つまたは複数のタグのうちの各タグに関連付けるかを決定するためのコードは、
    1つまたは複数の情報源を決定するためのコードと、
    前記1つまたは複数の情報源に問い合わせるためのコードと、
    前記1つまたは複数の情報源から結果を受信するためのコードと、
    を含むことを特徴とする請求項13に記載のコンピュータ可読媒体。
  16. 前記1つまたは複数のタグの各タグと決定した情報との間の前記1つまたは複数のリンクを、前記1組のビジネス・ルールに基づいて生成するためのコードは、前記1つまたは複数の情報源からの前記結果の一部を、前記1つまたは複数のタグのうちの1つのタグと関連付けるためのコードを含むことを特徴とする請求項15に記載のコンピュータ可読媒体。
  17. 前記1つまたは複数のタグの各タグと決定した情報との間の前記1つまたは複数のリンクを、前記1組のビジネス・ルールに基づいて生成するためのコードは、前記1つまたは複数の情報源からの前記結果における少なくとも1つのアクションを、前記1つまたは複数のタグのうちの1つのタグと関連付けるためのコードを含むことを特徴とする請求項15に記載のコンピュータ可読媒体。
  18. 前記1つまたは複数のタグのうちの各タグと決定した情報との間の1つまたは複数の更新されたリンクを、前記1組のビジネス・ルールに基づいて生成するためのコードをさらに備えたことを特徴とする請求項13に記載のコンピュータ可読媒体。
  19. マーキング情報を受信するためのコードと、
    前記マーキング情報に基づいて1つまたは複数の傾向または振舞いを決定するためのコードと
    をさらに備えたことを特徴とする請求項13に記載のコンピュータ可読媒体。
  20. プロセッサと、
    前記プロセッサと通信し、
    選択されたタグの指示を受信し、
    タグ関連情報を前記選択されたタグに基づいて受信し、
    前記タグ関連情報を出力する
    ように前記プロセッサを構成する、前記プロセッサにより実行可能なコードを格納するように構成されたメモリと、
    を備えたことを特徴とする電子装置。
JP2012514226A 2009-06-05 2010-06-07 スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム Pending JP2012529685A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US18471409P 2009-06-05 2009-06-05
US61/184,714 2009-06-05
US28679109P 2009-12-16 2009-12-16
US28678709P 2009-12-16 2009-12-16
US61/286,791 2009-12-16
US61/286,787 2009-12-16
PCT/US2010/037609 WO2010141939A1 (en) 2009-06-05 2010-06-07 Ecosystem for smart content tagging and interaction

Publications (1)

Publication Number Publication Date
JP2012529685A true JP2012529685A (ja) 2012-11-22

Family

ID=43298212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012514226A Pending JP2012529685A (ja) 2009-06-05 2010-06-07 スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム

Country Status (6)

Country Link
US (1) US20100312596A1 (ja)
EP (1) EP2462494A4 (ja)
JP (1) JP2012529685A (ja)
KR (1) KR20120082390A (ja)
AU (1) AU2010256367A1 (ja)
WO (1) WO2010141939A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156992A (ja) * 2012-01-30 2013-08-15 Intel Corp ワンクリックタグユーザインタフェース
JP2015057715A (ja) * 2011-02-02 2015-03-26 イーベイ インク.Ebay Inc. 特定地域在庫検索用のメタデータ使用
US9240059B2 (en) 2011-12-29 2016-01-19 Ebay Inc. Personal augmented reality
JP2017532646A (ja) * 2014-08-26 2017-11-02 華為技術有限公司Huawei Technologies Co.,Ltd. メディアファイル処理方法および端末
US10147134B2 (en) 2011-10-27 2018-12-04 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US10210659B2 (en) 2009-12-22 2019-02-19 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
JP2019053774A (ja) * 2018-12-06 2019-04-04 華為技術有限公司Huawei Technologies Co.,Ltd. メディアファイル処理方法および端末
JP2019521547A (ja) * 2016-05-02 2019-07-25 フェイスブック,インク. コンテンツを提示するためのシステムおよび方法
JP2019533233A (ja) * 2016-09-14 2019-11-14 アマゾン・テクノロジーズ、インコーポレイテッド メディア記憶
US10740364B2 (en) 2013-08-13 2020-08-11 Ebay Inc. Category-constrained querying using postal addresses
US10936650B2 (en) 2008-03-05 2021-03-02 Ebay Inc. Method and apparatus for image recognition services
US10956775B2 (en) 2008-03-05 2021-03-23 Ebay Inc. Identification of items depicted in images
US11651398B2 (en) 2012-06-29 2023-05-16 Ebay Inc. Contextual menus based on image recognition

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8554731B2 (en) * 2010-03-31 2013-10-08 Microsoft Corporation Creating and propagating annotated information
US8424037B2 (en) 2010-06-29 2013-04-16 Echostar Technologies L.L.C. Apparatus, systems and methods for accessing and synchronizing presentation of media content and supplemental media rich content in response to selection of a presented object
US8666978B2 (en) 2010-09-16 2014-03-04 Alcatel Lucent Method and apparatus for managing content tagging and tagged content
US8655881B2 (en) 2010-09-16 2014-02-18 Alcatel Lucent Method and apparatus for automatically tagging content
US8533192B2 (en) * 2010-09-16 2013-09-10 Alcatel Lucent Content capture device and methods for automatically tagging content
US20120170914A1 (en) 2011-01-04 2012-07-05 Sony Dadc Us Inc. Logging events in media files
US9384408B2 (en) 2011-01-12 2016-07-05 Yahoo! Inc. Image analysis system and method using image recognition and text search
US20130019268A1 (en) 2011-02-11 2013-01-17 Fitzsimmons Michael R Contextual commerce for viewers of video programming
US9247290B2 (en) * 2011-02-16 2016-01-26 Sony Corporation Seamless transition between display applications using direct device selection
US20120246191A1 (en) * 2011-03-24 2012-09-27 True Xiong World-Wide Video Context Sharing
US20120278825A1 (en) * 2011-04-30 2012-11-01 Samsung Electronics Co., Ltd. Crowd sourcing
US9547938B2 (en) 2011-05-27 2017-01-17 A9.Com, Inc. Augmenting a live view
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
US20130024268A1 (en) * 2011-07-22 2013-01-24 Ebay Inc. Incentivizing the linking of internet content to products for sale
US9037658B2 (en) * 2011-08-04 2015-05-19 Facebook, Inc. Tagging users of a social networking system in content outside of social networking system domain
US8635519B2 (en) 2011-08-26 2014-01-21 Luminate, Inc. System and method for sharing content based on positional tagging
US8689255B1 (en) 2011-09-07 2014-04-01 Imdb.Com, Inc. Synchronizing video content with extrinsic data
US20130086112A1 (en) * 2011-10-03 2013-04-04 James R. Everingham Image browsing system and method for a digital content platform
US8737678B2 (en) 2011-10-05 2014-05-27 Luminate, Inc. Platform for providing interactive applications on a digital content platform
USD736224S1 (en) 2011-10-10 2015-08-11 Yahoo! Inc. Portion of a display screen with a graphical user interface
USD737290S1 (en) 2011-10-10 2015-08-25 Yahoo! Inc. Portion of a display screen with a graphical user interface
EP2780825A4 (en) 2011-11-15 2015-07-08 Trimble Navigation Ltd 3D MODELING EXTENSIBLE ON THE WEB
WO2013074573A1 (en) * 2011-11-15 2013-05-23 Trimble Navigation Limited Controlling features in a software application based on the status of user subscription
WO2013074548A1 (en) 2011-11-15 2013-05-23 Trimble Navigation Limited Efficient distribution of functional extensions to a 3d modeling software
GB2497071A (en) * 2011-11-21 2013-06-05 Martin Wright A method of positioning active zones over media
WO2013081513A1 (en) * 2011-11-30 2013-06-06 Telefonaktiebolaget L M Ericsson (Publ) A method and an apparatus in a communication node for identifying receivers of a message
US8849829B2 (en) * 2011-12-06 2014-09-30 Google Inc. Trending search magazines
US9646313B2 (en) 2011-12-13 2017-05-09 Microsoft Technology Licensing, Llc Gesture-based tagging to view related content
US9339691B2 (en) 2012-01-05 2016-05-17 Icon Health & Fitness, Inc. System and method for controlling an exercise device
US20130201161A1 (en) * 2012-02-03 2013-08-08 John E. Dolan Methods, Systems and Apparatus for Digital-Marking-Surface Content-Unit Manipulation
US9577974B1 (en) * 2012-02-14 2017-02-21 Intellectual Ventures Fund 79 Llc Methods, devices, and mediums associated with manipulating social data from streaming services
US8255495B1 (en) 2012-03-22 2012-08-28 Luminate, Inc. Digital image and content display systems and methods
US8234168B1 (en) 2012-04-19 2012-07-31 Luminate, Inc. Image content and quality assurance system and method
US8495489B1 (en) 2012-05-16 2013-07-23 Luminate, Inc. System and method for creating and displaying image annotations
US20130325870A1 (en) * 2012-05-18 2013-12-05 Clipfile Corporation Using content
US8955021B1 (en) 2012-08-31 2015-02-10 Amazon Technologies, Inc. Providing extrinsic data for video content
US9113128B1 (en) 2012-08-31 2015-08-18 Amazon Technologies, Inc. Timeline interface for video content
US9888289B2 (en) 2012-09-29 2018-02-06 Smartzer Ltd Liquid overlay for video content
US9497276B2 (en) 2012-10-17 2016-11-15 Google Inc. Trackable sharing of on-line video content
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9389745B1 (en) 2012-12-10 2016-07-12 Amazon Technologies, Inc. Providing content via multiple display devices
US10424009B1 (en) * 2013-02-27 2019-09-24 Amazon Technologies, Inc. Shopping experience using multiple computing devices
WO2014138305A1 (en) * 2013-03-05 2014-09-12 Grusd Brandon Systems and methods for providing user interactions with media
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US20140282029A1 (en) * 2013-03-12 2014-09-18 Yahoo! Inc. Visual Presentation of Customized Content
US9254409B2 (en) 2013-03-14 2016-02-09 Icon Health & Fitness, Inc. Strength training apparatus with flywheel and related methods
WO2014144931A2 (en) * 2013-03-15 2014-09-18 Robert Haddock Intelligent internet system with adaptive user interface providing one-step access to knowledge
US20140278934A1 (en) * 2013-03-15 2014-09-18 Alejandro Gutierrez Methods and apparatus to integrate tagged media impressions with panelist information
US9635404B2 (en) 2013-04-24 2017-04-25 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
WO2014210379A2 (en) 2013-06-26 2014-12-31 Touchcast, Llc System and method for providing and interacting with coordinated presentations
US11488363B2 (en) 2019-03-15 2022-11-01 Touchcast, Inc. Augmented reality conferencing system and method
US9661256B2 (en) 2014-06-26 2017-05-23 Touchcast LLC System and method for providing and interacting with coordinated presentations
US11405587B1 (en) 2013-06-26 2022-08-02 Touchcast LLC System and method for interactive video conferencing
US9787945B2 (en) 2013-06-26 2017-10-10 Touchcast LLC System and method for interactive video conferencing
US20150006334A1 (en) * 2013-06-26 2015-01-01 International Business Machines Corporation Video-based, customer specific, transactions
US10523899B2 (en) 2013-06-26 2019-12-31 Touchcast LLC System and method for providing and interacting with coordinated presentations
US11659138B1 (en) 2013-06-26 2023-05-23 Touchcast, Inc. System and method for interactive video conferencing
US9666231B2 (en) 2014-06-26 2017-05-30 Touchcast LLC System and method for providing and interacting with coordinated presentations
US11019300B1 (en) 2013-06-26 2021-05-25 Amazon Technologies, Inc. Providing soundtrack information during playback of video content
US10757365B2 (en) 2013-06-26 2020-08-25 Touchcast LLC System and method for providing and interacting with coordinated presentations
US10075676B2 (en) 2013-06-26 2018-09-11 Touchcast LLC Intelligent virtual assistant system and method
US9852764B2 (en) 2013-06-26 2017-12-26 Touchcast LLC System and method for providing and interacting with coordinated presentations
US10356363B2 (en) 2013-06-26 2019-07-16 Touchcast LLC System and method for interactive video conferencing
US10297284B2 (en) 2013-06-26 2019-05-21 Touchcast LLC Audio/visual synching system and method
US10084849B1 (en) 2013-07-10 2018-09-25 Touchcast LLC System and method for providing and interacting with coordinated presentations
US9936018B2 (en) 2013-09-27 2018-04-03 Mcafee, Llc Task-context architecture for efficient data sharing
US10045091B1 (en) * 2013-09-30 2018-08-07 Cox Communications, Inc. Selectable content within video stream
US20150134414A1 (en) * 2013-11-10 2015-05-14 Google Inc. Survey driven content items
US20150177940A1 (en) * 2013-12-20 2015-06-25 Clixie Media, LLC System, article, method and apparatus for creating event-driven content for online video, audio and images
US9403047B2 (en) 2013-12-26 2016-08-02 Icon Health & Fitness, Inc. Magnetic resistance mechanism in a cable machine
WO2015107424A1 (en) * 2014-01-15 2015-07-23 Disrupt Ck System and method for product placement
US10433612B2 (en) 2014-03-10 2019-10-08 Icon Health & Fitness, Inc. Pressure sensor to quantify work
US9838740B1 (en) 2014-03-18 2017-12-05 Amazon Technologies, Inc. Enhancing video content with personalized extrinsic data
US10638194B2 (en) 2014-05-06 2020-04-28 At&T Intellectual Property I, L.P. Embedding interactive objects into a video session
EP2945108A1 (en) * 2014-05-13 2015-11-18 Thomson Licensing Method and apparatus for handling digital assets in an assets-based workflow
CN106470739B (zh) 2014-06-09 2019-06-21 爱康保健健身有限公司 并入跑步机的缆索系统
WO2015195965A1 (en) 2014-06-20 2015-12-23 Icon Health & Fitness, Inc. Post workout massage device
US10255251B2 (en) 2014-06-26 2019-04-09 Touchcast LLC System and method for providing and interacting with coordinated presentations
US10391361B2 (en) 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
AU2016251812B2 (en) 2015-04-20 2021-08-05 Snap Inc. Interactive media system and method
US9826359B2 (en) 2015-05-01 2017-11-21 The Nielsen Company (Us), Llc Methods and apparatus to associate geographic locations with user devices
US10628439B1 (en) * 2015-05-05 2020-04-21 Sprint Communications Company L.P. System and method for movie digital content version control access during file delivery and playback
US9619305B2 (en) * 2015-06-02 2017-04-11 International Business Machines Corporation Locale aware platform
US10625137B2 (en) 2016-03-18 2020-04-21 Icon Health & Fitness, Inc. Coordinated displays in an exercise device
US10493349B2 (en) 2016-03-18 2019-12-03 Icon Health & Fitness, Inc. Display on exercise device
US10272317B2 (en) 2016-03-18 2019-04-30 Icon Health & Fitness, Inc. Lighted pace feature in a treadmill
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10579493B2 (en) * 2016-08-22 2020-03-03 Oath Inc. Systems and methods for determining user engagement with electronic devices
US10798043B2 (en) * 2016-09-26 2020-10-06 Facebook, Inc. Indicating live videos for trending topics on online social networks
US10671705B2 (en) 2016-09-28 2020-06-02 Icon Health & Fitness, Inc. Customizing recipe recommendations
WO2018165146A1 (en) 2017-03-06 2018-09-13 Cummins Filtration Ip, Inc. Genuine filter recognition with filter monitoring system
TWI647637B (zh) * 2017-04-12 2019-01-11 緯創資通股份有限公司 基於動態影像的物品供應、訂貨以及交易方法
KR101909461B1 (ko) * 2017-12-15 2018-10-22 코디소프트 주식회사 증강현실이 적용된 교육 서비스 제공방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335518A (ja) * 2001-05-09 2002-11-22 Fujitsu Ltd 表示装置を制御する制御装置、サーバ、およびプログラム
US20080126191A1 (en) * 2006-11-08 2008-05-29 Richard Schiavi System and method for tagging, searching for, and presenting items contained within video media assets

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7721307B2 (en) * 1992-12-09 2010-05-18 Comcast Ip Holdings I, Llc Method and apparatus for targeting of interactive virtual objects
JP3615657B2 (ja) * 1998-05-27 2005-02-02 株式会社日立製作所 映像検索方法及び装置ならびに記録媒体
US8099758B2 (en) * 1999-05-12 2012-01-17 Microsoft Corporation Policy based composite file system and method
US6655586B1 (en) * 2000-02-25 2003-12-02 Xerox Corporation Systems and methods that detect a page identification using embedded identification tags
US7284008B2 (en) * 2000-08-30 2007-10-16 Kontera Technologies, Inc. Dynamic document context mark-up technique implemented over a computer network
US7444665B2 (en) * 2001-01-03 2008-10-28 Thomas Edward Cezeaux Interactive television system
US7346917B2 (en) * 2001-05-21 2008-03-18 Cyberview Technology, Inc. Trusted transactional set-top box
KR100451180B1 (ko) * 2001-11-28 2004-10-02 엘지전자 주식회사 태그를 이용한 단문 메시지 전송방법
US8086491B1 (en) * 2001-12-31 2011-12-27 At&T Intellectual Property I, L. P. Method and system for targeted content distribution using tagged data streams
KR100429806B1 (ko) * 2002-01-07 2004-05-03 삼성전자주식회사 디지털 tv 프로그램에 연관된 부가 정보를 표시하는방법 및그 장치
US20030149616A1 (en) * 2002-02-06 2003-08-07 Travaille Timothy V Interactive electronic voting by remote broadcasting
US20050229227A1 (en) * 2004-04-13 2005-10-13 Evenhere, Inc. Aggregation of retailers for televised media programming product placement
US8074248B2 (en) * 2005-07-26 2011-12-06 Activevideo Networks, Inc. System and method for providing video content associated with a source image to a television in a communication network
US7668821B1 (en) * 2005-11-17 2010-02-23 Amazon Technologies, Inc. Recommendations based on item tagging activities of users
US7765199B2 (en) * 2006-03-17 2010-07-27 Proquest Llc Method and system to index captioned objects in published literature for information discovery tasks
WO2007115224A2 (en) * 2006-03-30 2007-10-11 Sri International Method and apparatus for annotating media streams
US20080089551A1 (en) * 2006-10-16 2008-04-17 Ashley Heather Interactive TV data track synchronization system and method
US8032390B2 (en) * 2006-12-28 2011-10-04 Sap Ag Context information management
US20090013347A1 (en) * 2007-06-11 2009-01-08 Gulrukh Ahanger Systems and methods for reporting usage of dynamically inserted and delivered ads
US20090089322A1 (en) * 2007-09-28 2009-04-02 Mor Naaman Loading predicted tags onto electronic devices
US20090150947A1 (en) * 2007-10-05 2009-06-11 Soderstrom Robert W Online search, storage, manipulation, and delivery of video content
US8640030B2 (en) * 2007-10-07 2014-01-28 Fall Front Wireless Ny, Llc User interface for creating tags synchronized with a video playback
US20110004622A1 (en) * 2007-10-17 2011-01-06 Blazent, Inc. Method and apparatus for gathering and organizing information pertaining to an entity
US20090132527A1 (en) * 2007-11-20 2009-05-21 Samsung Electronics Co., Ltd. Personalized video channels on social networks
US8875212B2 (en) * 2008-04-15 2014-10-28 Shlomo Selim Rakib Systems and methods for remote control of interactive video
US8209223B2 (en) * 2007-11-30 2012-06-26 Google Inc. Video object tag creation and processing
US8769437B2 (en) * 2007-12-12 2014-07-01 Nokia Corporation Method, apparatus and computer program product for displaying virtual media items in a visual media
US20090182498A1 (en) * 2008-01-11 2009-07-16 Magellan Navigation, Inc. Systems and Methods to Provide Navigational Assistance Using an Online Social Network
US8098881B2 (en) * 2008-03-11 2012-01-17 Sony Ericsson Mobile Communications Ab Advertisement insertion systems and methods for digital cameras based on object recognition
US20090300143A1 (en) * 2008-05-28 2009-12-03 Musa Segal B H Method and apparatus for interacting with media programming in real-time using a mobile telephone device
US8150387B2 (en) * 2008-06-02 2012-04-03 At&T Intellectual Property I, L.P. Smart phone as remote control device
US9838744B2 (en) * 2009-12-03 2017-12-05 Armin Moehrle Automated process for segmenting and classifying video objects and auctioning rights to interactive sharable video objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002335518A (ja) * 2001-05-09 2002-11-22 Fujitsu Ltd 表示装置を制御する制御装置、サーバ、およびプログラム
US20080126191A1 (en) * 2006-11-08 2008-05-29 Richard Schiavi System and method for tagging, searching for, and presenting items contained within video media assets

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10936650B2 (en) 2008-03-05 2021-03-02 Ebay Inc. Method and apparatus for image recognition services
US11727054B2 (en) 2008-03-05 2023-08-15 Ebay Inc. Method and apparatus for image recognition services
US11694427B2 (en) 2008-03-05 2023-07-04 Ebay Inc. Identification of items depicted in images
US10956775B2 (en) 2008-03-05 2021-03-23 Ebay Inc. Identification of items depicted in images
US10210659B2 (en) 2009-12-22 2019-02-19 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
JP2015057715A (ja) * 2011-02-02 2015-03-26 イーベイ インク.Ebay Inc. 特定地域在庫検索用のメタデータ使用
US10628877B2 (en) 2011-10-27 2020-04-21 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US11475509B2 (en) 2011-10-27 2022-10-18 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US11113755B2 (en) 2011-10-27 2021-09-07 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US10147134B2 (en) 2011-10-27 2018-12-04 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US10614602B2 (en) 2011-12-29 2020-04-07 Ebay Inc. Personal augmented reality
US9240059B2 (en) 2011-12-29 2016-01-19 Ebay Inc. Personal augmented reality
JP2013156992A (ja) * 2012-01-30 2013-08-15 Intel Corp ワンクリックタグユーザインタフェース
US11651398B2 (en) 2012-06-29 2023-05-16 Ebay Inc. Contextual menus based on image recognition
US10740364B2 (en) 2013-08-13 2020-08-11 Ebay Inc. Category-constrained querying using postal addresses
US10678427B2 (en) 2014-08-26 2020-06-09 Huawei Technologies Co., Ltd. Media file processing method and terminal
JP2017532646A (ja) * 2014-08-26 2017-11-02 華為技術有限公司Huawei Technologies Co.,Ltd. メディアファイル処理方法および端末
JP2019521547A (ja) * 2016-05-02 2019-07-25 フェイスブック,インク. コンテンツを提示するためのシステムおよび方法
US10701377B2 (en) 2016-09-14 2020-06-30 Amazon Technologies, Inc. Media storage
JP2019533233A (ja) * 2016-09-14 2019-11-14 アマゾン・テクノロジーズ、インコーポレイテッド メディア記憶
US11553196B2 (en) 2016-09-14 2023-01-10 Amazon Technologies, Inc. Media storage
US11785232B2 (en) 2016-09-14 2023-10-10 Amazon Technologies, Inc. Media storage
JP2019053774A (ja) * 2018-12-06 2019-04-04 華為技術有限公司Huawei Technologies Co.,Ltd. メディアファイル処理方法および端末

Also Published As

Publication number Publication date
US20100312596A1 (en) 2010-12-09
EP2462494A1 (en) 2012-06-13
AU2010256367A1 (en) 2012-02-02
WO2010141939A1 (en) 2010-12-09
EP2462494A4 (en) 2014-08-13
KR20120082390A (ko) 2012-07-23

Similar Documents

Publication Publication Date Title
JP2012529685A (ja) スマートコンテンツをタグ付けし、スマートコンテンツと対話するためのエコシステム
US11438665B2 (en) User commentary systems and methods
US12039776B2 (en) Systems and methods for presenting supplemental content in augmented reality
US10812858B2 (en) Temporary modifying of media content metadata
US8306859B2 (en) Dynamic configuration of an advertisement
US20130339857A1 (en) Modular and Scalable Interactive Video Player
US9658994B2 (en) Rendering supplemental information concerning a scheduled event based on an identified entity in media content
US20150319493A1 (en) Facilitating Commerce Related to Streamed Content Including Video
US20130312049A1 (en) Authoring, archiving, and delivering time-based interactive tv content
US20140380380A1 (en) System and method for encoding media with motion touch objects and display thereof
US8799170B2 (en) Systems and methods for enabling an automatic license for mashups
JP2010056751A (ja) 動画広告を配信する方法
US9940645B1 (en) Application installation using in-video programming
US20130177286A1 (en) Noninvasive accurate audio synchronization
AU2017204365B9 (en) User commentary systems and methods
AU2017200755B2 (en) User commentary systems and methods
US11956303B2 (en) System and method for ingesting and presenting a video with associated linked products and metadata as a unified actionable shopping experience

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140728