JP2015505398A - 関連コンテンツを見るためのジェスチャー・ベースのタグ付け - Google Patents

関連コンテンツを見るためのジェスチャー・ベースのタグ付け Download PDF

Info

Publication number
JP2015505398A
JP2015505398A JP2014547270A JP2014547270A JP2015505398A JP 2015505398 A JP2015505398 A JP 2015505398A JP 2014547270 A JP2014547270 A JP 2014547270A JP 2014547270 A JP2014547270 A JP 2014547270A JP 2015505398 A JP2015505398 A JP 2015505398A
Authority
JP
Japan
Prior art keywords
user
content
article
data
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014547270A
Other languages
English (en)
Other versions
JP2015505398A5 (ja
Inventor
キム,ウン・ヒュン
オソティオ,ニール
ウィス,ジョン・シー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2015505398A publication Critical patent/JP2015505398A/ja
Publication of JP2015505398A5 publication Critical patent/JP2015505398A5/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

メディア・コンテンツ内における物品に関するコンテンツをユーザーが見ることを可能にするコンピューター読み取り可能媒体、コンピューター・システム、および計算デバイスを提供する。一実施形態では、ユーザーに表示されたメディア・コンテンツ内に提示された物品に対するユーザーの興味を示すタグ付けジェスチャーが検出される。このようなタグ付けジェスチャーは、その物品を有する表示コンテンツの領域を定めることができる。タグ付けジェスチャーを検出したことに応答して、その物品に関係する第三者によって供給される広告が提示される。【選択図】図6

Description

[0001] ユーザーに提示されたメディア・コンテンツ内に表示された物品(item)に関するコンテンツを発見するために、ユーザーは検索サービスを利用することが多い。インターネット検索エンジンの例は当技術分野では周知であり、例えば、一般に知られている商用エンジンに、ワシントン州、RedmondのMicrosoft Corporationが提供するBING検索エンジンがある。
一般に、ユーザーが表示されたメディア・コンテンツ内において興味ある物品を見るとき、任意の関連コンテンツを特定するために、ユーザーは最初にウェブ・ブラウザーを開き、この特定の検索サービスと関連するホーム・ページにナビゲートする。その後、ユーザーは、例えば、検索サービスによって提供される検索ボックスを介して、所望の検索結果を得るために検索クエリーを入力することができる。このような検索プロセスは、時間がかかり非効率的になる可能性がある。
[0002] この摘要は、メディア・コンテンツ内において興味がある物品に関するコンテンツを見るためのジェスチャー・ベースのタグ付けの概念を紹介する。ジェスチャー・ベースのタグ付けについては、詳細な説明において以下で更に詳しく説明する。この摘要は、特許請求する主題の必須の特徴を特定することを意図するのではなく、特許請求する主題の範囲を限定するときに使用されることを意図するのでもない。
[0003] 本願は、メディア・コンテンツ内に表示される物品に関するコンテンツを見やすくする実施形態例について説明する。一実施形態例では、ユーザーはタグ付けすることができる物品を有するメディア・コンテンツを見ることができる。したがって、ユーザー・デバイスに関連する表示画面は、ビデオのような、何らかのメディア・コンテンツを表示することができる。ジェスチャーを使用して、ユーザーはメディア・コンテンツの中で彼または彼女が興味のある特定の物品の指示を与えることができる。物品の興味を示したことに応答して、この物品に関するコンテンツをユーザーに表示することができ、ユーザーはこのような関連コンテンツ(例えば、広告、取引、物品情報、提案、または推奨等)を容易に見ることができる。実現例では、特定の物品に関するコンテンツが、物品のコンテンツおよび/またはユーザー・データーにしたがって選択される場合もある。
[0004] 本発明の実施形態について、添付図面を参照しながら以下で詳しく説明する。
図1は、本発明の実施形態を実現するのに適した計算デバイス例のブロック図である。 図2は、ジェスチャー・ベース・タグ付けを実現するために使用可能なユーザー・デバイスを含む環境例の模式図である。 図3は、ユーザー・デバイスのディスプレイ上に提示されたコンテンツ例の模式図である。 図4は、本発明の実施形態による、メディア・コンテンツ内における特定の物品に対するユーザーの注目を示す模式図である。 図5は、本発明の一実施形態によるジェスチャー・ベース・タグ付けのプロセス例の模式図である。 図6は、本発明の実施形態による、物品に関連付けて提示された物品に関するコンテンツの模式図である。 図7は、本発明の一実施形態による物品アクション(item action)のユーザー選択例の模式図である。 図8は、本発明の実施形態にしたがって、後の時点に見ることができる広告例の模式図である。 図9は、本発明の実施形態にしたがって、物品に関連付けて提示された他のエンティティによってタグ付けされた物品に関するコンテンツの模式図である。 図10は、本発明の一実施形態にしたがって、タグ付け可能なコンテンツを生成する方法例を示す。 図11は、本発明の一実施形態にしたがって物品にタグ付けする方法例を示す。 図12は、本発明の一実施形態にしたがって物品に関するコンテンツを見るためにジェスチャー・ベース・タグ付けを利用する方法例を示す。 図13は、本発明の一実施形態にしたがって物品に関するコンテンツを特定するためにジェスチャー・ベース・タグ付けを利用する方法例を示す。 図14は、本発明の一実施形態にしたがって、他者が関するコンテンツを見ることができるように第三者が物品タグ付けを開始する方法例を示す。 図15は、本発明の一実施形態にしたがって、物品に関するコンテンツを他者に提供するために第三者タグ付けを利用する方法例を示す。 図16は、本発明の一実施形態にしたがって、ユーザー・デバイスにおいて関連コンテンツを見るために第三者タグ付けを利用する方法例を示す。
全体像
[0021] 通例、ユーザーが見ているメディア・コンテンツ内においてある物品に関するある情報をユーザーが検索したいとき、ユーザーはウェブ・ブラウザーを開いて検索サービスと接続する。ユーザーは、検索クエリーを入力することによって、検索エンジンに問い合わせることができる。このような検索クエリーは、ウェブ・ブラウザーおよび/またはウェブ・ページと一体になった検索ボックスまたはツールバーとしてウェブ・ブラウザーと共に実行する検索ボックスを介して、またはウェブ・ブラウザーを検索を完了するためのプラットフォームとして使用する別のアプリケーションによって入力することができる。いずれの場合でも、ユーザーは、タイプ入力するかまたは検索クエリーをカットおよびペーストすることによって、手作業で検索クエリーを入力する。他の既存の技術では、利用可能であれば、ユーザーのデバイスの音声認識機能をアクティブ化して音声コマンドおよび/または音声入力を入力することによって、ユーザーが検索クエリーを入力することを可能にするものもある。音声コマンドおよび/または音声入力は、ユーザーのデバイスの検索アプリケーションまたは検索サービスによってテキストに変換される。
[0022] 検索クエリーを受けたことに応答して、検索サービスは、検索結果を戻し結果ページにおいてユーザーに提示することができる。ユーザーが検索を変更したい場合、ユーザーは変更した検索クエリーをテキスト・ボックスに入力し、変更した検索クエリーを検索エンジンに提出することができ、一方検索エンジンは新たな検索結果をユーザーに戻す。一旦ユーザーが所望の情報を見つけたならば、彼または彼女はこの検索サービスを終了し、元に戻って彼/彼女が元々見ていたメディア・コンテンツを見る。ユーザーが検索結果を参照するまたは他の検索を実行する必要がある場合、ユーザーは、メディア・コンテンツを見ることと、見ているメディア・コンテンツに関するコンテンツを特定するための検索を実行することとの間で何度も切り替えなければならず、彼または彼女のコンテンツ視聴が邪魔されることになる。
[0023] この状況は、ユーザーによって使用されるデバイスが複数のアプリケーションを同時に実行する能力が制限されている場合、またはこの能力を有していない場合、一層悪化する。これらの問題は、特に移動体デバイスでは破壊的であり、ユーザーは多くの場合同時にメディア・コンテンツを見ながらインターネット検索を実行することができない。
[0024] 例えば、ユーザーが特定の帽子を有するビデオを見ていて、この帽子にユーザーが興味を持つということもあり得る。しかしながら、ユーザーはこの帽子の銘柄や、その帽子を買う場所を知らないかもしれず、したがってインターネットを介してその帽子を検索するかもしれない。このユーザーは、例えば、ウェブ・ブラウザーを開き、検索エンジンによってホストされたウェブ・ページに行き、この帽子についての情報を含むクエリー(例えば、その帽子を着用する俳優、その帽子が提供されたビデオのタイトル、その帽子の色、その帽子の様式等)をウェブ・ページによって提供される検索ボックスに入力し、このクエリーを検索エンジンに提出することができる。あるいは、ユーザーが関連する帽子情報を検索アプリケーションに、音声コマンドおよび/または音声入力によって入力することもできる。移動体デバイスの小型ディスプレイ、物理キーボードおよび/または音声認識能力の欠如を想定すると、しかしながら、ユーザーはこの検索プロセスが実行するのが難しいと思うかもしれない。この状況は、帽子に関する詳細が分からない場合には一層悪化する可能性がある。このような場合、ユーザーは、帽子の製造業者のような詳細に関して想像し、それによって正しくない情報を入手することもあり得る。あるいは、ユーザーは帽子の製造業者のような、帽子についての所望の情報を得るために、種々の検索を実行しなければならない場合もある。
[0025] 他の例では、ユーザーに興味がある物品を含むメディア・コンテンツをこのユーザーが見ていることもあり得る。ユーザーは、その物品を求める検索を実行したいかもしれない。この検索を行うために、ユーザーはその物品をどのように説明するか習得し、以上で説明した検索プロセスと同様に、画像の文書記述を検索エンジンに供給しなければならないこともあり得る。あるいは、ユーザーが最初に同様の画像を発見しこの同様の画像をデバイスのローカル・メモリーに保存し、次いで同様の画像を検索エンジンにアップロードする場合もあり、検索エンジンがコンテンツ−ベースの画像引き出しを可能にする。しかしながら、双方の場合、ユーザーは検索を実行するために複数のステップを辿ることを要求される。
[0026] 本開示は、ユーザーが物品に関するコンテンツを見ることを可能にするための、メディア・コンテンツ内にある物品のジェスチャー・ベース・タグ付けについて記載する。このようなジェスチャー・ベースのタグ付けは、ユーザーによって提示されるジェスチャーに応答して、ユーザーが見ているメディア・コンテンツ内に提示された興味深い物品に関するコンテンツ(即ち、データーまたは情報)をユーザーが見ることを可能にする。一般に、ユーザー・デバイスは表示画面を介してメディア・コンテンツをユーザーに表示する。このようなメディア・コンテンツは、ユーザー・デバイスを介して提示することができる任意のメディア・コンテンツであればよい。例えば、ユーザー・デバイスがビデオおよび/またはオーディオをユーザーに再生することもできる。ユーザー・デバイスは、続いて、特定の物品に関するコンテンツを見る意図を示す、ユーザーからのジェスチャーを検出することができる。場合によっては、ユーザー・デバイスが、ディスプレイ上に表示されたコンテンツ内において物品を定めるまたは指定する、ユーザーからのジェスチャーを検出することもできる。ジェスチャーは、ユーザー・デバイスのタッチ・スクリーンまたはタッチ・パネルへのタッチ入力、ユーザー・デバイスの画像キャプチャー・デバイスによって検出される体の動き、および/またはマウスまたは他のユーザー入力デバイスによって制御されるカーソルの動きを含むことができるが、これらに限定されるのではない。例えば、ジェスチャーによって定められるコンテンツの領域が、実質的にジェスチャーによって結び付けられる物品を有する領域(たとえば、全体的に円形のジェスチャー)、ジェスチャーによってタッチされるまたは重ねられる物品を有する領域等であってもよい。他の例では、ジェスチャーが、物品を選択することによって(例えば、ある物品上でホバリングするおよび/または選択するカーソルまたはセレクターによって)その物品を指定することもできる。
[0027] 加えてまたは代わりに、ジェスチャーがユーザー・デバイス自体の動きを含むこともできる。ユーザー・デバイスの動きは、例えば、加速度計、高度計、コンパス等によって検出することができる。ユーザー・デバイスの動きは、ユーザー・デバイスによって表示される物品に関するコンテンツを見るユーザーの意図を示すことができ、例えば、特定の物品に関連する情報の検索を行わせる。
[0028] 実施形態では、ユーザー・デバイスが、表示されたコンテンツ上でのジェスチャーによって定められるコンテンツの領域の表現を表示し、このジェスチャーのサイズおよび形状について視覚フィードバックをユーザーに供給できるのでもよい。コンテンツの領域の表現は、例えば、コンテンツの領域を囲む線、コンテンツの領域の強調ビュー、および/またはコンテンツの領域の拡大レンズ・ビューを含むことができる。場合によっては、物品を有するコンテンツの領域が、ジェスチャーによって定められるテキスト情報、絵図情報、画像情報、オーディオ情報、および/またはビデオ情報を含むこともできる。
[0029] ジェスチャーの完了に応答して、ユーザー・デバイスは興味深い物品に関連するタグ−物品データー(tag-item data)を認識することができ、例えば、タグ−物品データーに基づいて、タグ付けされた物品に関するコンテンツを求める検索を実行させることができる。実施形態では、タグ付けされた物品に関するコンテンツを検索するために、コンテキスト・データーおよび/またはユーザー・データーを利用するのでもよい。例えば、ユーザー・データーおよび/またはコンテキスト・データーが、関連コンテンツの検索を定式化する(formulate)、リファインする、あるいはそれ以外では生成する、変更する、または強調するために参照されるまたは特定されるのでもよい。
[0030] 本明細書において記載するジェスチャー・ベース・タグ付け技法は、ユーザーが、単にジェスチャーを入力することによって、メディア・コンテンツ内に提示される物品に関するコンテンツを継ぎ目なく見ることを可能にする。ジェスチャーは、例えば、メディア・コンテンツ内において興味深い物品を定める、指定する、または指示する。これに関して、ユーザーは、ウェブ・ブラウザーを開くことなく、検索エンジンによってホストされるウェブ・ページにナビゲートすることなく、そして例えば、タイプ入力や音声入力によって検索クエリーを手作業で入力することなく、興味深い物品に関連する情報を見ることができ、これによってユーザーの検索および/またはメディア視聴体験を改善する。このように、本明細書において記載するジェスチャー・ベース・タグ付け技法は、ユーザーがメディア・コンテンツを見ている間に情報検索を開始するプロセスを合理化および簡略化することによって、ユーザーの生産性を高める。
[0031] 本明細書において記載する発明の実施形態は、メディア・コンテンツ内における物品に関するコンテンツの視聴を容易にするコンピューター実装方法を含む。この方法は、コンピューター実行可能命令で構成された1つ以上のプロセッサーの制御の下で、ユーザーに提示されたメディア・コンテンツ内に提示された物品に対するユーザーの興味を示すタグ付けジェスチャーを検出するステップを含む。このタグ付けステップは、表示されたコンテンツにおいてその物品を有する領域を定める。タグ付けジェスチャーを検出したことに応答して、その物品に関係する第三者によって提供される広告が提示される。
[0032] 第2の例示的実施形態では、1つ以上のコンピューター読み取り可能媒体が命令を格納し、この命令がプロセッサーによって実行されると、アクト(act)を実行するようにこのプロセッサーを構成する。アクトは、表示されたメディア・コンテンツ内に提示された物品を示すタグ付きジェスチャーを検出することを含む。タグ付けジェスチャーによって示される物品に関連するタグ−物品データーが特定される。この特定されたタグ−物品データーとユーザー・データーおよびコンテンツ−物品データーの内少なくとも1つを使用して実行される検索が開始される。タグ−物品データーとユーザー・データーおよびコンテンツ−物品データーの内少なくとも1つとに基づく物品に関するコンテンツが受信される。関連コンテンツは、物品と関連付けて提示される。
[0033] 第3の例示的実施形態では、クライアント・デバイスが、プロセッサーと、このプロセッサーに通信可能に結合されたメモリーと、メディア・コンテンツをユーザーに表示するように構成された表示画面とを含む。表示画面は、リモート・ユーザー・デバイスに関連する他のユーザーが、当のユーザーに表示されている同じメディア・コンテンツ内に提示されたある物品に対する興味を示すことの指示を表示する。このような指示は、メディア・コンテンツがユーザーによって視聴されている間に表示される。
[0034] 以下では複数のそして様々な実現例および実施形態について説明する。以下の章では、ジェスチャー・ベース・タグ付けを実現するのに適した環境例について説明する。以下の章では、ジェスチャー・ベース・タグ付け技法の例示的な形態について説明する。
アーキテクチャ例
[0035] 本発明の実施形態の種々の形態は、コンピューター・コードまたは機械使用可能命令という一般的なコンテキストで説明することができ、コンピューター、あるいはパーソナル・データー・アシスタントまたは他のハンドヘルド・デバイスというような他の機械によって実行されるプログラム・モジュールのような、コンピューター実行可能命令を含む。一般に、プログラム・モジュールは、ルーチン、プログラム、オブジェクト、コンポーネント、データー構造等を含み、特定のタスクを実行するコード、または特定の抽象データー型を実装するコードを指す。本発明の実施形態は、専用サーバー、汎用コンピューター、ラップトップ、更に特殊な計算デバイス等を含む、種々のシステム構成で実施することができる。また、本発明の実施形態は、分散型計算環境において実施することもでき、この場合、タスクは、通信ネットワークを通じてリンクされるリモート処理デバイスによって実行される。
[0036] コンピューター読み取り可能媒体は、揮発性および不揮発性媒体双方の、リムーバブルおよび非リムーバブル媒体を含み、データーベース、プロセッサー、および種々の他のネットワーク接続された計算デバイスによって読み取り可能なメディアを想定する。一例として、そして限定ではなく、コンピューター読み取り可能媒体は、情報の格納のための任意の方法または技術で実現される媒体を含む。格納される情報の例には、コンピューター実行可能命令、データー構造、プログラム・モジュール、および他のデーター表現が含まれる。媒体の例には、RAM、ROM、EEPROM、フラッシュ・メモリーまたは他のメモリー技術、CD−ROM、ディジタル・バーサタイル・ディスク(DVD)、ホログラフ媒体および他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージ、または他の磁気記憶デバイスが含まれるが、これらに限定されるのではない。これらの技術は、データーを瞬時的、一時的、または永続的に格納することができる。
[0037] 本発明の種々の態様を実現することができる動作環境例について、本発明の種々の形態について全体的なコンテキストを与えるために、以下に説明する。最初に図1を参照すると、本発明の実施形態を実現するのに適した動作環境例が図示されており、全体的に計算デバイス100として示されている。計算デバイス100は、適した計算環境の一例に過ぎず、本発明の使用範囲や機能に関して何ら限定を示唆する意図はない。また、計算デバイス100が、図示されるコンポーネントのいずれか1つに関しても、またはその組み合わせに関しても、何らかの依存性または要件を有するというように解釈してはならない。
[0038] 計算デバイス100は、以下のデバイスを直接または間接的に結合するバス100を含む。メモリー112、1つ以上のプロセッサー114、1つ以上のプレゼンテーション・コンポーネント116、入力/出力(I/O)ポート118、I/Oモジュール120、および例示の電源122。バス110は、1つ以上のバス(アドレス・バス、データー・バス、またはその組み合わせ)であってもよいものを代表する。図1の種々のブロックは、明確さのために線で示されるが、実際には、種々のコンポーネントの境界分けはそれ程明確ではなく、例えて言えば、線は、更に正確にするならば、灰色および曖昧になるであろう。例えば、ディスプレイ・デバイスのようなプレゼンテーション・コンポーネントをI/Oコンポーネントであると見なす者もいると考えられる。また、プロセッサーはメモリーを有する。本発明者は、このようなことは技術の本質であると認識しており、図1の図は、本発明の1つ以上の実施形態と共に使用することができる計算デバイス例を例示するに過ぎないことを繰り返しておく。「ワークステーション」、「サーバー」、「ラップトップ」、「ハンドヘルド・デバイス」、「タブレット」等の間に区別は行わない。何故なら、これらは全て図1に範囲に入ると考えられ、「計算デバイス」を指すからである。
[0039] メモリー112は、揮発性および/または不揮発性メモリーに格納されるコンピューター実行可能命令(図示せず)を含む。このメモリーは、リムーバブル、非リムーバブル、またはその組み合わせであってもよい。ハードウェア・デバイスの例には、ソリッド・ステート・メモリー、ハード・ドライブ、光ディスク・ドライブ等が含まれる。メモリー112は、コンピューター読み取り可能媒体の一例である。コンピューター読み取り可能媒体は、少なくとも2つのタイプのコンピューター読み取り可能媒体、即ち、コンピューター記憶媒体および通信媒体を含む。
[0040] コンピューター記憶媒体は、揮発性および不揮発性、リムーバブルおよび非リムーバブル媒体を含み、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、または他のデーターというような情報の格納のための任意の方法または技術で実現される。コンピューター記憶媒体は、相変化メモリー(PRAM)、スタティック・ランダム・アクセス・メモリー(SRAM)、ダイナミック・ランダム・アクセス・メモリー(DRAM)、他のタイプのランダム・アクセス・メモリー(RAM)、リード・オンリー・メモリー(ROM)、電気的消去可能プログラマブル・リード・オンリー・メモリー(「EEPROM」)、フラッシュ・メモリーまたは他のメモリー技術、コンパクト・ディスク・リード・オンリー・メモリー(CD−ROM)、ディジタル・バーサタイル・ディスク(「DVD」)または他の光ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージまたは他の磁気記憶デバイス、あるいは計算デバイスによるアクセスのために情報を格納するために使用することができる任意の他の非一時的媒体を含むが、これらに限定されるのではない。
[0041] 対照的に、通信媒体は、コンピューター読み取り可能命令、データー構造、プログラム・モジュール、または他のデーターを、搬送波のような変調データー信号または他の送信メカニズムにおいて具体化することができる。本明細書において定められる場合、コンピューター記憶媒体は通信媒体を含まないこととする。
[0042] 計算デバイス100は、システム・バス110と結合された1つ以上のプロセッサー114を含み、プロセッサー114は、メモリー112またはI/Oコンポーネント120のような種々のエンティティからデーターを読み出す。一実施形態では、1つ以上のプロセッサー114は、コンピューター実行可能命令によって定められる種々のタスクおよび方法を実行するために、コンピューター実行可能命令を実行する。プレゼンテーション・コンポーネント(1つまたは複数)は、システム・バス110に結合され、ユーザーまたは他のデバイスにデーター指示を提示する。プレゼンテーション・コンポーネント116の例には、ディスプレイ・デバイス、スピーカー、印刷コンポーネント等が含まれる。
[0043] I/Oポート118は、計算デバイス100を、I/Oコンポーネント120を含む他のデバイスに論理的に結合することを可能にする。I/Oコンポーネント120の一部は内蔵されていてもよい。コンポーネントの例には、マイクロフォン、ジョイスティック、ゲーム・パッド、衛星ディッシュ、スキャナー、プリンター、ワイヤレス・デバイス、キーボード、ペン、音声入力デバイス、タッチ入力デバイス、タッチ・スクリーン・デバイス、インタラクティブ・ディスプレイ・デバイス、またはマウスが含まれる。また、I/Oコンポーネント120は、計算デバイス100を、例えば、他の計算デバイス、サーバー、ルータ等のようなリモート・デバイスに通信可能に接続するのを容易にする通信接続も含むことができる。
[0044] 図2は、メディア・コンテンツ内の物品に関するコンテンツを見やすくするために使用可能な環境例200の模式図である。環境200は、コンテンツ・プロバイダー202、ユーザー・デバイス204、広告主デバイス206、ネットワーク関係者デバイス(network-contact device)208、および関連コンテンツ・システム210を含む。コンテンツ・プロバイダー202、ユーザー・デバイス204、広告主デバイス206、およびネットワーク関係者デバイス208は、ネットワークまたはネットワークの組み合わせ(図示せず)を介して通信することができ、ネットワークは、例えば、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、セルラ・ネットワーク、ピア−ツー−ピア(P2P)ネットワーク、移動体ネットワーク、またはネットワークの組み合わせというような、任意の数のネットワークを含むことができる。
[0045] 図2に示すネットワーク環境200は、1つの適したネットワーク環境の一例であり、本文書全体にわたって開示される本発明の実施形態の使用範囲や機能に関して限定も示唆することは全く意図していない。また、ネットワーク環境例200が、本明細書において示される任意の1つのコンポーネントまたはコンポーネントの組み合わせに対して何らかの依存性または要件を有するように解釈してはならない。例えば、これらのコンポーネントの内1つ以上が、例えば、HDMI(高品位マルチメディア・インターフェース)、DVI(デジタル・ビジュアル・インターフェース)等を介して互いに直接通信することもできる。
[0046] コンテンツ・プロバイダー202は、タグ付け可能コンテンツを提供することができる任意の種類の1つまたは複数の計算デバイスとすることができる。例えば、コンテンツ・プロバイダー202は、図1を参照して以上で説明した計算デバイス100のような計算デバイスとすることができる。一実施形態では、コンテンツ・プロバイダー202は、メディア・サーバーまたはメディア・サーバーのネットワークであり、インターネットのようなネットワークを介してタグ付け可能コンテンツを提供する。他の実施形態では、コンテンツ・プロバイダー202は、DVD、Blue−ray Disk(商標)というようなタグ付け可能コンテンツの有形形態、または他の携行可能なストレージ等を提供する。
[0047] コンテンツ・プロバイダー202は、タグ付け可能コンテンツ212のような、タグ付け可能コンテンツを提供するように構成される。タグ付け可能コンテンツとは、本明細書において使用する場合、タグ付けすることができるコンテンツ内に少なくとも1つの物品が提示された媒体を指す。即ち、タグ付け可能コンテンツとは、関連コンテンツを見ることができるように、少なくとも1つのタグ付け可能な物品を含むメディア・コンテンツのことである。これに関して、タグ付け可能コンテンツは、メディア・コンテンツ内に少なくとも1つの物品を含み、これが選択されると(例えば、ジェスチャーによって)、関連コンテンツが表示される結果となる。したがって、実現例では、タグ付け可能コンテンツが、関連コンテンツを見ることができる物品を示すメタデーターを含むのでもよい。メディア・コンテンツは、例えば、テレビジョン番組、ムービー、オンデマンド番組、生番組、ビデオ・クリップ等であってもよい。タグ付け可能な物品とは、メディア・コンテンツ内で提示され、ユーザーによってタグ付けすることができる物品である。タグは、ユーザーが特定の物品に興味があることの指示または指定を与える。このように、物品にタグ付けすると、それに関するコンテンツを検索し提示することが可能になる。物品は、メディア・コンテンツ内で提示される任意の物品または物品の組み合わせとすることができる。例えば、図3を参照すると、帽子310が1つの物品であることができ、シャツ312が第2物品であることができ、個人314が第3物品であることができ、首ひも316が第4物品であることができる等である。
[0048] 認めることができようが、ビデオのようなタグ付け可能コンテンツ内では、任意の数の物品がタグ付け可能であってもよい。例えば、図3を参照すると、帽子310、シャツ312、個人314、および首ひも316がタグ付け可能物品であってもよいが、個人318、帽子320、個人322がタグ付け可能物品でなくてもよい。即ち、非タグ付け可能物品は、関連コンテンツを見ることができるように物品の興味を示すためにユーザーによってタグ付けすることができない。場合によっては、タグ付け可能コンテンツ内の各物品がタグ付け可能であってもよい。あるいは、タグ付け可能コンテンツ内の物品の一部が、タグ付け可能であってもよい。実施形態では、タグ付け可能と見なされるまたは指定される物品は、自動的に選択されてもよく、あるいは、例えば、メディア・コンテンツの著者、ディレクター、プロバイダー、または編者(composer)、広告主等によって選択されてもよい。
[0049] タグ付け可能コンテンツは、例えば、ユーザー・デバイス204のようなユーザー・デバイス、広告主デバイス206のような広告主デバイス、ネットワーク関係者デバイス208のようなネットワーク関係者デバイス208、および/または関連コンテンツ・システム210のような関連コンテンツ・システムに供給することができる。コンテンツ・プロバイダー202は、タグ付け可能コンテンツ212をこのようなデバイスにネットワーク(図示せず)を介して供給することができる。このようなタグ付け可能コンテンツ212は、コンテンツ・プロバイダー202によって、ダウンロード、ストリーミング、またはそれ以外で供給されてもよい。
[0050] 実施形態では、コンテンツ・プロバイダー202がタグ付け可能コンテンツ212を生成する場合もある。他の実施形態では、他のエンティティがタグ付け可能コンテンツを生成する場合もある。タグ付け可能コンテンツを生成するとき、メディア・コンテンツ内の物品が、タグ付け可能であると特定または指定されて、タグ付け可能コンテンツになるのでもよい。これに関して、メディア・コンテンツに関連するメタデーターが、タグ付け可能物品の指示を含んでもよい。実施形態では、タグ付け可能コンテンツに関連するメタデーターが、タグ付け可能物品または1組のタグ付け可能物品に関連してユーザーによって行われてもよい、1組の1つ以上の可能な物品アクションも示すとよい場合もある。
[0051] ユーザー・デバイス204は、タグ付け可能コンテンツを提示することができ、タグ付け可能コンテンツに関連する物品に関するコンテンツをユーザーが見ることを可能にする、任意の種類の計算デバイスとすることができる。例えば、一実施形態では、ユーザー・デバイス204が、図1を参照して先に説明した計算デバイス100のような計算デバイスであることができる。ユーザー・デバイス204は、例えば、デスクトップ・コンピューター、ノートブックまたはラップトップ・コンピューター、ネットブック、タブレットまたはスレート・コンピューター、サーフェイス計算デバイス、電子ブック・リーダー・デバイス、ワークステーション、移動体デバイス(例えば、スマートフォン、パーソナル・ディジタル・アシスタント、車内ナビゲーション・デバイス等)、ゲーム・コンソール、セット・トップ・ボックス、テレビジョン、またはその組み合わせというような、種々の従来からの計算デバイスの内任意の1つとして実現されてもよい。認めることができようが、ユーザー・デバイス204は、タグ付け可能コンテンツおよび関連コンテンツをユーザーに提示することができるように、表示画面と関連付けられる。このような表示画面は、ユーザー・デバイス204と統合されても、これとは離れていてもよい。
[0052] ユーザー・デバイス204は、タグ付け可能コンテンツを含む、メディア・コンテンツの提示を容易にするように構成される。これに関して、ユーザー・デバイス204は、ユーザーがコンテンツを見ることができるように、タグ付け可能コンテンツを提示する。
[0053] 動作において、ユーザー・デバイス204は、タグ付け可能コンテンツ212のような、タグ付け可能コンテンツを再生または提示する。したがって、タグ付け可能コンテンツはユーザー・デバイス204によって消費される。一例としてそして限定ではなく、タグ付け可能コンテンツが、ユーザー・デバイス204に関連するディスプレイ上に表示されてもよい。このようなディスプレイは、ユーザー・デバイス204と統合されても、離れていてもよい。タグ付け可能コンテンツは、ウェブ・ブラウザー、電子メール・クライアント、またはユーザー・デバイス204における任意の他のアプリケーションというようなアプリケーション内で表示されてもよい。加えてまたは代わりに、ビデオおよび/またはオーディオのようなタグ付け可能コンテンツが、ユーザー・デバイス204のメディア・プレーヤーによって再生されてもよい。タグ付け可能コンテンツが、テキスト、画像(1つまたは複数)、写真(1つまたは複数)、オーディオ・コンテンツの視覚表現、および/またはビデオを含むのでもよい。
[0054] ユーザー・デバイス204は、タグ付け機能(tagging feature)がイネーブルされたか否か認識または識別する。タグ付け機能は、ユーザーがメディア・コンテンツ内でタグ付け物品を開始すること、および/またはタグ付き物品(例えば、ユーザー、広告主、ネットワーク関係者等によってタグ付けされた物品)に関するコンテンツを見ることを可能にする。これに関して、タグ付け機能は、ユーザーが、ユーザーまたは第三者によってタグ付けされた物品に関するコンテンツを見ることを可能にする。一実施形態では、ユーザー・デバイス204が、ユーザー・タグ付け機能および/または第三者タグ付け機能がイネーブルされたか否か認識する。ユーザー・タグ付け機能は、ユーザーがタグ付き物品に関するコンテンツを見るために、物品のタグ付けを開始することを可能にする。第三者タグ付け機能は、ユーザーが、広告主またはネットワーク関係者のような第三者によってタグ付けされた物品に関するコンテンツを見ることを可能にする。
[0055] タグ付け機能は、例えば、ユーザーの選択によってイネーブルすることができる。このような実施形態では、ユーザーはユーザー・タグ付け機能および/または第三者タグ付け機能をイネーブルすることを選択することができる。このようなタグ付け機能は、例えば、メディア・コンテンツ(例えば、タグ付け可能コンテンツ)の提示前または最中にイネーブルすることができる。例えば、メディア・コンテンツの提示前または最中に、ユーザーがユーザーおよび/またはユーザーに関連するまたは関係する第三者によってタグ付けされた物品に関するコンテンツの視聴を可能にすることを選択することができる。
[0056] 認めることができようが、ユーザーは、ユーザー・デバイスに対する設定(1つまたは複数)を構成することと関連付けて、またはユーザーが望むように、メディア・コンテンツを見るとき毎に、一方または双方のタグ付け機能をイネーブルすることを選択してもよい。他の場合では、ユーザー・デバイスに、一方または双方のタグ付け機能(即ち、ユーザー・タグ付け機能および第三者タグ付け機能)をイネーブルまたはディスエーブルするデフォルト設定を構成してもよい。
[0057] ユーザー・タグ付け機能がイネーブルされると、ユーザー・デバイス204は、ユーザーが物品にタグ付けするのを開始すること、および/またはこのような物品に関するコンテンツを見るのを開始することを可能にする。したがって、ユーザー・タグ付け機能がイネーブルされると、ユーザー・デバイス204はタグ付けジェスチャーを検出することができる。タグ付けジェスチャーとは、ユーザーにとって興味があるタグ付け可能物品にタグ付けするために、ユーザーによって与えられる指示を指す。タグ付け可能物品とは、タグ付け可能コンテンツ内に提示される物品の内、タグ付けできるものである。場合によっては、タグ付け可能物品が、ディスプレイ上に表示される物品であって、タグ付けすることができることもある。例えば、アルバム・タイトル・サムネイル、ムービー・ポスター・サムネイル等が、場合によって、メディア・コンテンツ内に提示されるか否かには関係なく、タグ付け可能であってもよい。いずれの場合でも、タグ付け可能物品は、関連コンテンツを特定または提示することができる物品である。認めることができようが、実施形態では、タグ付け可能物品が、例えば、視覚的または聴覚的に、ユーザーによって認識できる場合もある。例えば、メディア・コンテンツを見るユーザーがタグ付けすることができる物品を容易に認識できるように、メディア・コンテンツ内でタグ付けすることができる物品が強調されても、縁取りされても、またはそれ以外で視覚的に特定されてもよい。
[0058] ユーザーは、ある物品を目的にするタグ付けジェスチャーを行うことができる。即ち、ユーザーは、ユーザーに興味がある物品を選択する、指定する、またはそれ以外で指示するためにタグ付けジェスチャーを行うことができる。したがって、ユーザー・デバイス204は、ユーザー・デバイス204に入力されたタグ付けジェスチャーまたはそれに関連する成分を検出するように構成することができる。例の中には、1つのタグ付けジェスチャーが物品を選択する、および/または物品を定める(例えば、物品を有するコンテンツの領域を定めることによって)ことができ、特定された物品に関するコンテンツを入手させる場合もある。例えば、ユーザー・デバイス204は、ビデオを再生するというように、コンテンツを消費することができる。タグ付けジェスチャーは、ユーザーの1本以上の指あるいはスタイラスまたはディジタル・ペンのようなポインティング・デバイスからのタッチ入力を含むことができる。ユーザー・デバイス204は、タッチ・スクリーン、タッチ・パッド、またはユーザー・デバイス204の他の入力/出力インターフェースを介して、ユーザーからのタッチ入力を検出することができる。他の実施形態では、タグ付けジェスチャーが、ユーザーの目の動きを含むのでもよい。ユーザー・デバイス204は、ユーザー・デバイス204の画像キャプチャー・デバイスによって、目の動きを検出することができる。
[0059] 更に他の実施形態では、タグ付けジェスチャーが、ユーザーの体、あるいは指、手、頭、および/または腕というようなユーザーの体の一部の動きを含んでもよい。ユーザー・デバイス204は、カメラ、他の画像キャプチャー・デバイス、またはユーザー・デバイス204の任意の動き検出コンポーネントによって、体の動きを検出することができる。例えば、ユーザー・デバイスが、Kinect(商標)動き検出システムが構成されたXbox(登録商標)ゲーミング・コンソールというような、カメラまたは他の動き検出インターフェースを有するゲーミング・デバイスであってもよい。これらは双方とも、ワシントン州、RedmondのMicrosoft Corporationから入手可能である。ユーザー・デバイスは、画像または信号を受信し、このユーザー・デバイスが受信した画像または信号を解釈して、ユーザーが行っている動きを判定することができる。ユーザーの動きは、関連コンテンツの検索をトリガーすること、および/または関連コンテンツの検索の範囲を定めることができる。加えてまたは代わりに、関連コンテンツの検索の範囲は、物品が表示されているコンテキスト、ユーザーに関連するデーター等を参照して判定することもできる。これについては以下で更に詳しく説明する。
[0060] 実施形態では、タグ付けジェスチャーが、ユーザーによって制御されるリモート・コントローラー(例えば、ポインター、ジョイスティック、ゲーム・コントローラー等)の動きまたは選択を含むこともできる。ユーザー・デバイス204は、ユーザーによって制御されるリモート・コントローラーの動きを、このリモート・コントローラーに近接する検出器によって検出し、この検出器は、リモート・コントローラーの動きの情報をユーザー・デバイス204に送信する。
[0061] 他の実施形態では、タグ付けジェスチャーが、マウス、トラック・ボール、またはユーザー・デバイス204の入力/出力インターフェースに結合された他の入力デバイスによって制御されるカーソルの動きまたは選択を含むこともできる。この場合、ユーザー・デバイス204は、入力デバイスによって制御されるカーソルの動きを検出することができる。カーソルまたはセレクターは、表示画面上の位置を示す可動シンボルを指す。表示画面内におけるカーソルまたはセレクターの動きまたは選択は、計算デバイスに接続される、例えば、マウス、トラック・ボール等によって制御することができる。
[0062] また、ユーザー・デバイス204は、音声コマンドおよび/または入力を認識し、この音声コマンドおよび入力をテキスト入力に変換するために使用可能な音声認識を含むこともできる。次いで、ユーザー・デバイス204は、これらのテキスト入力を使用して、検索クエリーまたはデーター(例えば、タグ−物品データー)を定式化するまたは定めることができる。ユーザー・デバイス204が1人よりも多いユーザーによって使用される場合、現在のユーザーを認識することができ、この現在のユーザーに関する履歴情報(例えば、1時間以内というような、予め定められた時間期間内の)を引き出して、クエリーまたはデーターを定式化またはリファインすることができる。
[0063] 更に、ユーザー・デバイス204は、ユーザーが1つ以上のジェスチャーを定めることを可能にするために、ジェスチャーの学習を含むこともできる。例えば、ユーザー・デバイス204は、物品を購入する、物品に関する情報を検索する、物品に関するメディア・コンテンツを検索する、タグ付き物品を保存する等というような、種々のアクションを開始するためのカスタム・ジェスチャーをユーザーが定めることを可能にするのでもよい。ユーザー・デバイス204は、曲線、ジェスチャー速度等というような、これらのユーザー定義ジェスチャーの各々について情報を収集して、ユーザー定義ジェスチャーを互いに区別することができる。
[0064] 以上の実施形態では別々のタグ付けジェスチャーについて説明したが、1つのタグ付けジェスチャーが以上で説明したような1つ以上のタグ付けジェスチャーの組み合わせを含んでもよい。
[0065] ユーザー・デバイス204は、更に、ジェスチャー追跡を含むこともできる。ジェスチャー追跡は、ユーザーによるタグ付けジェスチャーの入力に応答して、ユーザー・デバイス204に関連するディスプレイ上のタグ付けジェスチャーの線または他の表現を表示することを可能にする。このタグ付けジェスチャーの表現は、セレクターの位置またはタグ付けジェスチャーの動きにしたがって表示することができる。この表現は、ユーザーが丁度入力したジェスチャーのサイズ、形状、および/または位置を示すフィードバックをユーザーに供給する。この表現は、物品を囲む線、物品の強調ビュー、セレクターの経路を追跡する線、セレクターの位置の指示、および/または物品の拡大レンズ・ビューを含むことができるが、これらに限定されるのではない。
[0066] メディア・コンテンツ内のタグ付け可能物品またはディスプレイ上に表示された物品に関連するタグ付けジェスチャーを検出すると、ユーザー・デバイス204は、ユーザーによって示されたしかるべき物品を特定しこれにタグ付けするように構成される。これに関して、物品にタグ付けする指示またはジェスチャーを検出すると、指定された物品が識別または認識される。タグ付き物品は、物品を任意のやり方で一意に識別また指示する物品識別子を使用して識別することができる。例えば、物品識別子は、物品の名称、主題、値、記述、または他のインディケーターであってもよい。
[0067] 一実施形態では、物品を識別または認識するために、タグ付け可能コンテンツに関連するメタデーターを利用してもよい。例えば、メタデーターは、メディア・コンテンツ内における特定のフレーム、位置、または時間に関連する物品(1つまたは複数)を示すことができる。これに関して、タグ付け可能コンテンツに入ってから1時間5分32秒の時点において、「帽子」がメディア・コンテンツ内でタグ付け可能物品であることを示すことができる。したがって、ユーザー・デバイス204またはその一部は、メディア・コンテンツのどの時点において、または表示されたコンテンツ内のどの位置で、選択された該当物品が存在するのか検出または特定することができる。認めることができようが、このようなメタデーターは、タグ付け可能コンテンツと統合されても、タグ付け可能コンテンツとは別であってもよい。
[0068] あるいはまたは加えて、例えば、ユーザー・デバイスまたは他のデバイス(例えば、リモート・サーバー)によって物品を認識することによって、その物品が認識されるのでもよい。例えば、ユーザー・デバイス204自体が、物品の画像に基づいてその物品を認識することもできる。したがって、ユーザー・デバイス204は、コンテンツの領域またはタグ付けジェスチャーによって定められるコンテンツの部分において1つ以上の物品を識別することができる画像認識モジュール(図示せず)を含むこともできる。
[0069] 他の例では、ユーザー・デバイス204は、更に、物品の画像、またはその指示を、所与のウェブサイト、アプリケーション、または物品の情報を検出するおよび/または提供するサービスへのクエリーとして提出することもできる。例えば、ユーザー・デバイス204は画像抽出モジュール(図示せず)を含むこともできる。画像抽出モジュールは、タグ付けジェスチャーによって定められた画像の一部をその画像から抽出し、画像の抽出部分を、画像検索のために検索サービスに提出することができる。
[0070] ジェスチャーによって選択された物品というような、興味のある物品を認識または特定すると、指定された物品にタグが付けられる。これに応じて、ユーザー・デバイス204はタグ付け可能物品をユーザーに興味がある物品として認識または指定することができる。タグ付き物品は、ユーザーが、このタグ付き物品に関するコンテンツを見ることを可能にする。これに関して、物品にタグが付けられると、この物品に関するコンテンツは、物品のタグ付けを開始したユーザーによってまたは第三者によって見ることができる。物品のタグ付けは、特定の物品がユーザーに興味があることの指示を与える任意のやり方で行うことができる。例えば、物品識別子をタグ付き物品リストに含ませることができ、物品識別子にタグを関連付けることができ、あるいは物品識別子をそれ以外の方法でタグ付き物品または興味のある物品として示すことができる。タグ付き物品、またはその指示は、例えば、ユーザー・デバイス、ユーザー、メディア・コンテンツ識別子等に関連付けて保存することができる。したがって、タグ付き物品の物品識別子(例えば、タグ付き物品データー)は、例えば、ユーザー・デバイス、関連コンテンツ・システム等と関連付けて保存することができる。これに関して、タグ付けされた特定の物品を識別する物品識別子を保存することができる。
[0071] 興味のある物品を識別することに加えて(例えば、物品にタグ付けするために使用される物品識別子)、他のタグ−物品データーもユーザー・デバイス204によって認識または識別することができる。タグ−物品データーとは、物品を記述、指示、または識別する、その物品に関連する任意のデーターを指す。したがって、タグ−物品データーは、例えば、物品識別子、物品の説明、物品の詳細、物品の概要、物品の表現、その物品がメディア・コンテンツにおいて現れる時刻または位置、メディア・コンテンツのタイトル識別子または著者識別子、物品にタグ付けされた時刻または位置、物品に関連する画像等であってもよい。これに関して、ユーザー・デバイス204は、ユーザーによって選択された物品を分析してその物品に関連するあらゆるタグ−物品データーを識別するためのコンテンツ分析、メディア・コンテンツに関連するメタデーターを分析してまたは検討してその物品に関連するあらゆるタグ−物品データーを識別するためのメタデーター分析、ジェスチャーを分析してその物品に関連するあらゆるタグ−物品データー(例えば、タグ付けジェスチャーの位置または時刻)を識別するジェスチャー分析等を実行することができる。
[0072] 実施形態では、ユーザー・デバイス204が物品−コンテキスト・データーを参照または識別することもできる。即ち、ユーザー・デバイス204は物品−コンテキスト・データーにアクセスし、これを判定、識別、または認識することができる。物品−コンテンツ・データーまたはコンテンツ・データーとは、物品(例えば、タグ付き物品)のコンテキストを記述または指示する任意のデーターまたは情報を指す。これに関して、ユーザー・デバイス204は、物品が、例えば、提示されるコンテキストに関する信号を供給するコンテキスト情報を分析することができる。一例として、そして限定ではなく、コンテキスト情報は、物品に近接するコンテンツ、提示されるメディア・オブジェクトのタイトル、表示されるコンテンツに関連するメタデーター(例えば、タグ付き物品と同じフレーム内の他の物品、メディア・コンテンツの他のフレーム内の他の物品、メディア・コンテンツの他の部分に関連するメタデーター、物品に関連するオーディオ等)を含むことができる。物品−コンテキスト・データーは、少なくとも部分的にコンテキスト情報に基づいて一層関連深いクエリーを定式化することによって、提示される関連コンテンツの関連性を高めるために使用することができる。
[0073] ユーザー・デバイス204は、ユーザーによって選択された物品のコンテキストを分析して物品に関連するあらゆる物品−コンテキスト・データーを識別するためにコンテンツ分析を実行し、メディア・コンテンツに関連するメタデーターを分析してまたは検討して物品に関連するあらゆる物品−コンテキスト・データーを識別するメタデーター分析を実行し、ジェスチャーを分析して物品に関連するいずれの物品−コンテキスト・データー(例えば、タグ付けジェスチャーの位置または時刻)を識別するジェスチャー分析を実行することができる。一例のみとして、ユーザーが「帽子」物品のタグ付けを開始すると仮定する。更に、メディア・コンテンツ内でその「帽子」を着用している俳優がシャツおよび靴も着用していると仮定する。場合によっては、ユーザー・デバイス204がこの場面またはフレームを分析し、その帽子を着用している俳優が、帽子と同じ銘柄を有するシャツおよび靴も着用していることを認識することもできる。他の場合では、ユーザー・デバイス204が、俳優がタグ付けされた「帽子」を着用している場面またはフレームに関連するメタデーターを検討し、このメタデーターにしたがって、帽子、シャツ、および靴が同じ銘柄であることを認識することもできる。
[0074] 加えてまたは代わりに、ユーザー・デバイス204がユーザー・データーを参照または識別するのでもよい。即ち、ユーザー・デバイス204がユーザー・データーにアクセスし、これを判定し、識別し、または認識することもできる。ユーザー・データーとは、ユーザーに関するまたは関連する任意のデーターまたは情報を指す。ユーザー・データーは、ユーザー識別子、GPSデーターのようなユーザー・デバイス204の位置、1つ以上の履歴タグ、アクション、および/またはユーザーのセッション(例えば、以前にタグ付けされた物品またはタグ付けされた物品を有するメディア・コンテンツ)、ユーザーによって開始されたアクション、ユーザー・デバイスのパラメーターまたは属性(例えば、それが移動体デバイスか否か、移動体デバイスのタイプ、デバイスの能力(1つまたは複数)等)、デバイスに関連する本拠地(home)の地理的位置、ユーザーの年齢層、ユーザーの好み等を含むことができるが、これらに限定されるのではない。ユーザー・データーは、更に、ソーシャル・ネットワークから収集されるソーシャル・データー、連絡先、電話記録、テキスト・メッセージ記録、ユーザーの交友関係および会員資格(membership)等も含むことができる。また、ユーザー・データーは、文書、ファイル、画像、写真、電子メール、あるいはユーザー・デバイスに格納される任意の他のコンテンツまたはデーターも含むことができる。
[0075] ユーザー・デバイス204は、ユーザー・データーを合体して、検索クエリーまたは送信データーを定式化またはリファインし、これによって関連コンテンツの関連性を高めることができる。場合によっては、検索クエリーを定式化するために任意の個人情報も使用する前に、ユーザーがこの情報を共有することを望むか否か促し、常にこの情報を共有する選択肢、この情報を決して共有しない選択肢、または情報を共有する前に毎回促す選択肢を与えることができる。
[0076] 一例としてそして限定ではなく、ユーザー・デバイス204は、最新のタグ付けされた物品に基づいて、ユーザーがR&Bジャンルに関連するアパレルに興味があると判断し、これによって、ユーザーはR&Bジャンルに関する現タグ付け(instant tagging)の関連コンテンツを見ることを優先するであろうと推論することができる。他の例として、ユーザー・デバイスが特定の地理的領域内にある場合、ユーザーがユーザー・デバイスの地理的領域(例えば、地方の音楽関連の店)に関連する現タグ付けの関連コンテンツに興味がありそうであると推論することができる。
[0077] タグ付き物品データー、コンテキスト−物品データー、および/またはユーザー・データーというような、タグ付け物品に関連するデーターを識別すると、このようなデーターを関連コンテンツ・システム210に伝達することができる(例えば、クエリーの形態で)。以下で更に詳しく説明するが、関連コンテンツ・システム210は、このようなデーターを利用して、物品(1つまたは複数)に関するコンテンツを識別し、ユーザーに表示するために提供することができる。これに関して、関連コンテンツ・システム210はタグ付き物品データー、コンテキスト−物品データー、および/またはユーザー・データーを使用して、現タグ付け物品に関するコンテンツを識別し供給することができる。
[0078] 本明細書において説明する種々の実施形態は、ユーザー・デバイス204が、タグ付けジェスチャーを受けたことに応答して、関連コンテンツ・システム210を介してリモート検索(例えば、インターネット検索)を開始することができると説明したが、本開示はリモート検索に限定されるのではない。一実施形態では、ユーザー・デバイス204は、加えてまたは代わりに、コンテンツの領域または物品を定めるタグ付けジェスチャーを受けたことに応答して、ローカル検索を開始することもできる。他の実施形態では、ローカル検索が、ユーザー・デバイス204全体のローカル・メモリー内での検索、あるいはユーザー・デバイス204の指定メモリーまたはフォルダ内の検索を含むこともできる。
[0079] ユーザー・デバイス204がタグ付き物品(1つまたは複数)(例えば、関連コンテンツ・システム210からの関連コンテンツ・データー)に関するコンテンツを受信すると、関連コンテンツ・データーをユーザー・デバイス204を介してユーザーに、ユーザーに提示されるタグ付け可能コンテンツと共に提示することができる。関連コンテンツ・データーまたは関連コンテンツとは、本明細書において使用する場合、タグ付き物品に関する任意の情報を指す。例えば、関連コンテンツ・データーは、物品を記述するまたは詳述する情報、物品に関連する広告、物品に関する提案等であってもよい。一実施形態では、関連コンテンツ情報は、関連コンテンツ・データーがメディア・コンテンツと統合されて現れるように、タグ付け可能コンテンツと重なり合う。他の実施形態では、タグ付け可能コンテンツは、関連コンテンツ・データーをメディア・コンテンツと統合するために変更することができる。
[0080] 認めることができようが、関連コンテンツ・データーは、タグ付き物品に関して任意の位置に表示することができる。一実施形態では、関連コンテンツ・データーは、タグ付き物品に隣接して、その上に、またはその近くに表示される。他の実施形態では、関連コンテンツ・データーは、右下角等のような、表示画面上の特定位置に表示される。更に他の実施形態では、関連コンテンツ・データーは、メディア・コンテンツに基づいて最適位置に表示される。したがって、場合によっては、ユーザー・デバイスが、関連コンテンツ・データーおよび/または物品アクションを表示する位置を決定するのでもよい。
[0081] 実施形態では、1つ以上の物品アクションを、関連コンテンツ・データーと関連付けて提示することができる。これに関して、物品アクション(1つまたは複数)を、関連コンテンツ・データーと同時に提示することもできる。あるいは、物品アクションが、関連コンテンツ・データーの提示のときに提示されてもよい。例えば、物品に関するコンテンツが最初にメディア・コンテンツ内の物品と併せて提示されると仮定する。そして、ユーザーがその物品または関連コンテンツ・データーを選択すると仮定する。このような場合、物品アクション(1つまたは複数)がここで提示されてもよい。
[0082] 物品アクションとは、物品に関連して行うことができる任意のアクションの指示を指す。物品アクションは、後に見るまたは購入するためにタグ付き物品を保存すること、タグ付き物品を購入すること、タグ付き物品についてもっと多くの情報を見ること、タグ付き物品の電子メールを送ること、タグ付き物品をポストすること、タグ付き物品についての音声(例えば、広告または情報)を聞くこと、物品を共有すること等を含むが、これらに限定されるのではない。
[0083] 関連コンテンツ・データーと関連付けて表示される特定の物品アクションは、提示されるデフォルトの物品アクションに基づいてもよい。これに関して、具体的な1組の1つ以上の物品アクションを、タグ付けされた具体的な物品に係わらず、ある物品と関連付けて提示することができる。他の実施形態では、表示される物品アクションは、タグ付け物品に対して可能なアクションを示す、タグ付け可能コンテンツのメタデーターによって決定するのでもよい。このような実施形態では、ユーザー・デバイス204は、タグ付け可能コンテンツについてのメタデーターに基づいて、表示するアクション(1つまたは複数)を識別することもできる。例えば、特定の物品または1組の物品に関連するメタデーターが、ユーザーが行うことができる可能な物品アクションを指定することもできる。更に他の実施形態では、表示する物品アクションは、関連コンテンツ・システムまたは他の計算デバイスによって決定または識別されてもよく、あるいはユーザー履歴のユーザーの好みに基づいてもよい。
[0084] 物品アクションが関連コンテンツ・データーと関連付けて提示される実施形態では、ユーザー・デバイス204が、ユーザーが開始することを意図するアクションを識別、認識、または決定することができる。このようなアクション指示は、ユーザーによって、ジェスチャー・タグ付けについて先に説明した方法のような、任意の方法を使用して入力することができる。例えば、ユーザーが、開始する特定のアクションを選択するまたはそれ以外で指定するためのジェスチャーを行うのでもよい。物品アクションの選択にしたがって、ユーザー・デバイスはそのアクションを開始することができる。例えば、ユーザーが物品「購入」アクションを選択したと仮定する。このような場合、ユーザー・デバイスは物品の購入を容易にすることができる(例えば、その物品を販売するウェブサイトにリンクする)。
[0085] 認めることができようが、実施形態では、ユーザーに提示されるタグ付け可能コンテンツが、物品にタグ付けすることおよび/または関連コンテンツを見ることに関係して一時中止されることもある。タグ付け可能コンテンツの一時中止は、ユーザーが物品にタグ付けするためおよび/または関連コンテンツを見るために、タグ付け可能コンテンツを一時中止するユーザーの指示に基づいて行うことができる。他の場合では、タグ付け可能コンテンツは、例えば、タグ付けジェスチャーの開始を検出したときに、自動的に一時停止される。
[0086] 図2の関連コンテンツ・システム210は、物品と関連付けた提示のために、物品に関するコンテンツを識別または決定するように構成される。関連コンテンツまたは関連コンテンツ・データーは、広告、物品を記述する情報、物品を識別する情報、製品情報、物品に関する提案、第三者のタグ付け情報等のような、任意のコンテンツまたはデーターであってもよい。関連コンテンツ・システム210は、任意の数の計算デバイス、サービス、またはエンジンを採用して、関連コンテンツを識別することもできる。図2は、推奨エンジン220、検索エンジン222、広告エンジン224、およびソーシャル・ネットワーク・エンジン226の使用を示す。このような各エンジンは、実施形態によれば、サーバー・システム、プログラム・モジュール、仮想マシン、1つまたは複数のサーバーのコンポーネント、ネットワーク等として実現することができる。説明を明確にするために、推奨エンジン、検索エンジン、広告エンジン、およびソーシャル・ネットワーク・エンジンが別々になっている実施形態について説明するが、本発明の範囲内に該当すると考えられる種々の構成では、これが該当しない場合もあることは理解されてしかるべきである。
[0087] ユーザー・タグ付け機能にしたがって、タグ付けジェスチャーに応答して関連コンテンツ・データーの検索を容易にするために、ユーザー・デバイス204は関連コンテンツ・システム210またはその一部(1つまたは複数)と通信する。推奨エンジン220、検索エンジン222、および広告エンジン224は、タグ−物品データー、ユーザー・データー、および/またはコンテキスト−物品データーを受けまたは参照し、タグ付けされた物品に関するコンテンツを識別し供給するためにこのようなデーターを利用するように機能する。一実施形態では、タグ−物品データー、ユーザー・データー、および/またはコンテンツ−物品データーは、ユーザー・デバイス204のような、ユーザー・デバイスから受けることができる。例えば、タグ−物品データー、ユーザー・データー、および/またはコンテキスト−物品データーは、タグ付き物品に関するコンテンツの検索を開始するための検索クエリーの形態で受けることができる。他の実施形態では、他のソースからタグ−物品データー、ユーザー・データー、および/またはコンテキスト−物品データーを参照することができる。一例として、場合によっては、物品識別子のようなタグ−物品データーの一部、そしてユーザー・デバイス位置のようなユーザー・データーの一部をユーザー・デバイス204に伝達することもできる。追加のタグ-物品データー、コンテキスト-物品データー、および/またはユーザー・データーを参照することもできる。例えば、ユーザー識別子に関連する履歴タグ付きデーターまたはその一部が、格納され、関連コンテンツ・システム210によってアクセスされてもよい。更に、物品識別子が、タグ付き物品に関連する追加の情報を参照するために使用されてもよい。
[0088] 場合によっては、ユーザー・データーをユーザー・データー・ストア228から参照することができる。例えば、場合によっては、ユーザー・データーは予めユーザー・デバイスから送られ、ユーザー・データー・ストア228にキャプチャーされる。このような場合、ユーザー・データーを参照し、関連コンテンツを識別するために利用することができる。認めることができようが、ユーザー・データーが、タグ付けされた画像と関連付けて、ユーザー・デバイス204から伝達されても、ユーザー・データーをユーザー・データー・ストア228から参照することができる。例えば、物品にタグ付けするとき、デバイス位置のような、あるユーザー・データーがユーザー・デバイスから伝達されてもよく、ユーザー・タグ付け履歴のような他のユーザー・データーをユーザー・データー・ストア228から参照することができる。同様に、図示しないが、タグ−物品データーおよび/またはコンテキスト−物品データーは、メディア・コンテキストに関連するデーターを収容する関連コンテンツ・システム210に関連するデーター・ストアから参照することができる。
[0089] 前述のように、推奨エンジン220、検索エンジン222、および/または広告エンジン224、タグ−物品データー、ユーザー・データー、および/または物品−コンテキスト・データー(例えば、クエリーの形態で)を使用して一層関連がある関連コンテンツを提供することができる。例えば、ユーザー・デバイスの位置に基づいて、購入または視聴のアクションを完了するために、ローカル・ストアに特定の広告を供給することができる。更に他の例として、使用されるデバイスのパラメーターを認識し、最も適したフォーマットで関連コンテンツ・データーを選択し送るために使用することができる(例えば、HD品質広告、HDTV、移動体デバイス等)。
[0090] 実施形態では、関連コンテンツ・システム210、またはその一部がタグ付き物品の指示(例えば、物品識別子)および/または他のデーター(例えば、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー)を受ける。このようなデーターは、後の使用のために、関連コンテンツ・システム210に格納することができる。例えば、このようなデーターは、ユーザーによる後の使用のためにユーザー・データー・ストア228に格納されてもよく、および/または第三者による使用のためにネットワーク・データー・ストア230に格納されてもよい。これについては、以下で更に詳しく説明する。更に、実施形態では、提示のためにユーザー・デバイス204に送信される関連コンテンツは、関連コンテンツ・システム210内に格納することもできる。例えば、このような関連コンテンツ、またはその指示が、ユーザーによる後の使用のためにユーザー・データー・ストア228におよび/または第三者による使用のためにネットワーク230に格納されてもよい。
[0091] 推奨エンジン220は、タグ付き物品に基づいてユーザーに推奨または提案される関連コンテンツを供給する。したがって、推奨エンジン220は、例えば、同様のメディア・コンテンツ、製品、またはサービスを、物品ベース・データー、物品−コンテキスト・データー、ユーザー・データー等に基づいて推奨または提案することができる。一実施形態では、推奨エンジン220は、ユーザー・デバイス204から受けるタグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データーを利用して(例えば、クエリーの形態で)、タグ付き物品に関する推奨コンテンツまたは提案コンテンツを特定または決定する。あるいはまたは加えて、推奨エンジン220は、ユーザー・デバイス204から受けたデーター(例えば、クエリーの形態で)を使用して、追加のデーター(例えば、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー)を特定または認識することができる。例えば、推奨エンジン220が物品識別子およびユーザー識別子を受け、その後これらの識別子を使用して他のタグ−物品データーおよびユーザー・データーをそれぞれ参照する(reference)または調べる(look up)こともできる。次いで、推奨エンジン220によって参照されたデーターは、タグ付き物品に関する推奨コンテンツまたは提案コンテンツを特定するために使用することができる。
[0092] 一例のみとして、ユーザーがタグ付け可能コンテンツを見ている時点、タグ付け可能コンテンツを見るために使用されるデバイスのタイプ、および/またはユーザーがタグ付け可能コンテンツを見ている時点におけるデバイスの位置を利用して、推奨エンジン220がタグ付き物品に関する推奨を識別することもできる。タグ付き物品に関連するタグ付け可能コンテンツを見る時刻および位置に基づいて、推奨エンジン220は、ユーザーに興味があるかもしれない、ムービーのような、他のメディア・コンテンツを提案または推奨することができる。これに関して、提案されたメディア・コンテンツが、地方の映画館で特定の時刻に上映している特定のムービーであってもよい。
[0093] 認めることができようが、推奨エンジン220は、コンテンツ・データー・ストア236のような、データー・ストアを参照して、提案または推奨されたコンテンツを特定、参照、または調査することもできる。したがって、推奨エンジン220は、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー(例えば、クエリーの形態で受信される)を、コンテンツ・データー・ストア236と関連付けて利用して、ユーザー・デバイス204のユーザーのための推奨または提案コンテンツ(例えば、メディア・コンテンツおよび関連データー)を特定することができる。
[0094] 検索エンジン222は、タグ付き物品に関するデーターまたは情報を提供する。これに関して、検索エンジン222は、物品ベース・データー、物品−コンテキスト・データー、ユーザー・データー等に基づいて、タグ付き物品に関連する任意の詳細を供給することができる。一実施形態では、検索エンジン222は、ユーザー・デバイス204から受信されるタグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データーを(例えば、クエリーの形態で)利用して、タグ付き物品に関連があるコンテンツを特定または決定する。あるいはまたは加えて、検索エンジン222は、ユーザー・デバイス204から(例えば、クエリーの形態で)受けたデーターを使用して、追加のデーター(例えば、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー)を特定または認識する。例えば、検索エンジン222が、物品識別子およびユーザー識別子を受け、その後これらの識別子を使用して、他のタグ−物品データーおよびユーザー・データーをそれぞれ参照または調査することもできる。検索エンジン222によって参照されたデーターは、次に、タグ付き物品に関連するコンテンツを識別するために使用することができる。
[0095] 一例のみとして、検索エンジン222が現タグ付き物品の識別を、ユーザーによって過去にタグ付けされた物品と共に利用して、この現タグ付き物品に関連するコンテンツを識別することもできる。現在タグが付けられている物品およびユーザーによって以前にタグ付けされた物品に基づいて、検索エンジン222は、その中に含まれ、現タグ付き物品に関連する検索結果または情報を特定することができる。これに関して、検索エンジン222によって特定された関連コンテンツ・データーが、タグ付き物品の銘柄、タグ付き物品についての情報を含むウェブサイトへのURL、タグ付き物品を配置することができる位置またはストア、タグ付き物品の価格、タグ付き物品の説明、タグ付き物品の詳細、タグ付き物品の画像、タグ付き物品に関連するオーディオ等であってもよい。
[0096] 認めることができようが、検索エンジン222が、検索データー・ストア234のようなデーター・ストアを参照して、関連コンテンツを識別、参照、または調査することもできる。したがって、検索エンジン222は、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー(クエリーの形態で受信)を、検索データー・ストア234と関連付けて利用して、ユーザー・デバイス204のユーザーのために関連コンテンツ(例えば、検索結果またはその一部)を特定することができる。認めることができようが、検索エンジン222は、インターネット検索エンジンの形態をなしてもよい。例えば、一般に知られている商用エンジンに、ワシントン州、RedmondのMicrosoft Corporationによって提供されるBING検索エンジンがある。
[0097] 広告エンジン224は、広告の形態とした関連コンテンツ・データーを提供する。これに関して、広告エンジン224は、製品またはサービスを販売促進する広告に関連する任意の情報を提供することができる。広告は、例えば、製品および/またはサービスを提供するエンティティの指示、クーポン、取引、製品および/またはサービスを販売促進する報償(incentive)等を含む。認めることができようが、広告は、広告エンティティのような、第三者によって提出することができる。したがって、広告エンジン224は、タグ付き物品と対応する広告に関連する任意の詳細を提供することができる。一実施形態では、検索エンジン222は、ユーザー・デバイス204から受信したタグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データーを(クエリーの形態で)利用して、タグ付き物品に関連する広告コンテンツを特定または決定する。あるいはまたは加えて、広告エンジン224は、ユーザー・デバイス204から(クエリーの形態で)受けたデーターを使用して、追加のデーター(例えば、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー)を特定または認識する。例えば、広告エンジン224が物品識別子およびユーザー識別子を受けて、その後これらの識別子を使用して他のタグ−物品データーおよびユーザー・データーをそれぞれ参照または調査することもできる。次いで、広告エンジン224によって参照されたデーターは、タグ付き物品に関連するコンテンツを特定するために使用することができる。
[0098] 一例のみとして、広告エンジン224は、現タグ付き物品の識別を、ユーザーによって過去にタグ付けされた物品と共に利用して、現タグ付き物品に関連する広告を特定することもできる。現在タグ付けされている物品およびユーザーによって以前にタグ付けされた物品に基づいて、広告エンジン224は現タグ付き物品に関連する広告(1つまたは複数)を特定することができる。これに関して、広告エンジン224によって特定された広告は、物品を購入することができる店舗の指示、物品の販売促進、物品のためのクーポン等であってもよい。
[0099] 認めることができようが、広告エンジン224が、広告データー・ストア232のようなデーター・ストアを参照して、関連する広告を特定、参照、または調査することもできる。したがって、広告エンジン224は、タグ−物品データー、物品−コンテキスト・データー、および/またはユーザー・データー(例えば、クエリーの形態で受信)を、広告データー・ストア232と関連付けて利用して、ユーザー・デバイス204のユーザーのために関連するコンテンツ(例えば、検索結果またはその一部)を特定することができる。
[00100] 認めることができようが、関連コンテンツを検索するためには、任意の数のエンジンを利用することができる。例えば、ユーザー・デバイス204は、クエリーおよび/またはデーターを任意のエンジンまたはエンジンの組み合わせ(例えば、推奨エンジン220、検索エンジン222、広告エンジン224等)に送ることができる。場合によっては、ユーザー・デバイス204は、関連コンテンツを要求するエンジンまたは1組のエンジンを決定することができる。他の場合には、関連コンテンツ・システムが、関連コンテンツを要求するエンジンまたは1組のエンジンを決定することができる。このような決定は、例えば、物品または物品のタイプあるいはそれに関連するメタデーターに基づいて行うことができる。
[00101] 第三者タグ付け機能に移り、先に説明したように、第三者タグ付け機能がユーザー・デバイス204に適用されてもよい。このような機能の有効化(enablement)は、ユーザー・デバイス204のユーザーによって示されるのでも、自動的に適用される(例えば、デフォルトの設定)のでもよい。第三者タグ付け機能を実現すると、ユーザーは、第三者(即ち、ユーザーとは異なる個人またはエンティティ)によってタグ付けされた物品を認識することが可能になる。一般に、第三者は、ユーザー・デバイスとは別のデバイスを使用して物品にタグ付けする。場合によっては、第三者が広告主であることもある。他の場合では、第三者がネットワーク関係者であることもある。ネットワーク関係者とは、ネットワークまたは連絡サービス(contact service)を介したユーザーの連絡先である個人を指す。例えば、関係者が、電子メール、住所録、インスタント・メッセージング、ソーシャル・ネットワーク等のようなアプリケーションを介してユーザーと接続されるのでもよい。実施形態では、ユーザーが、当のユーザーに興味がある特定の第三者(1つまたは複数)を示すことができる。例えば、ユーザーが、彼または彼女が広告主から、ネットワーク関係者から、特定の広告主(1つまたは複数)から、特定のネットワーク関係者(1つまたは複数)から、任意の広告主またはネットワーク関係者(1つまたは複数)等からのタグ付き物品を見たいことを示すのでもよい。
[00102] 実現例では、第三者が、計算デバイスを介して、メディア・コンテンツ内でタグ付き物品を開始する(initiate)ことができる。これに関して、タグ付け可能コンテンツ212のようなタグ付け可能コンテンツが、第三者に関連する計算デバイスに供給される。例えば、コンテンツ・プロバイダー202がタグ付け可能コンテンツ212を広告主デバイス206および/またはネットワーク関係者デバイス208に供給し、対応する第三者がこのタグ付け可能コンテンツ内で物品にタグ付けすることができるようにする。一例として、広告主が、広告主デバイス206を介してタグ付け可能コンテンツ内の物品にタグ付けを開始し、ネットワーク関係者が、ネットワーク関係者デバイス208を介して、タグ付け可能コンテンツ内の物品にタグ付けを開始する。第三者は、例えば、ユーザー・デバイス204のユーザーによって供給されるタグ付けジェスチャーに関係付けて既にもっと詳しく説明したように、任意のやり方で物品にタグ付けすることができる。他の例では、タグ付け可能コンテンツを使用せずに、第三者がタグ付き物品を供給する、または特定の物品にタグ付けする優先度を示すこともできる。例えば、広告主が、特定のメディア・コンテンツにおいて任意の「帽子」にタグ付けする指示、任意のメディア・コンテンツにおいて任意の「帽子」にタグ付けする指示等を与えることもできる。
[00103] 第三者がある物品に対するタグ付けを開始すると、この物品は、この物品に対する特定の興味を示すためにタグ付けされる。一実施形態では、タグ付けされた物品に関連するタグ−物品データーが特定され、関連コンテンツ・システム210に供給される。他の実施形態では、タグ付き物品、またはその指示が関連コンテンツ・システム210に供給され、その後、その物品に関連するタグ−物品データーを特定するために使用される。同様に、第三者によってタグ付けされた物品に関連する物品−コンテキスト・データーおよび/または第三者データーを特定することができる(例えば、第三者デバイスまたは関連コンテンツ・システム210において)。第三者データーとは、第三者と対応する任意のデーターを指す。第三者データーは、例えば、第三者識別子、GPSデーターのような第三者デバイスの位置、第三者の1人以上の過去のアクションおよび/またはセッション(例えば、以前にタグ付けされた物品またはタグ付け物品があるメディア・コンテンツ)、第三者デバイスのパラメーターまたは属性(例えば、それが移動体デバイスか否か、移動体デバイスのタイプ、デバイスの能力(1つまたは複数)等)、デバイスに関連する本拠地の地理的位置、第三者の年齢層、第三者の好み、ソーシャル・ネットワークから収集されたソーシャル・データー、電話記録、テキスト・メッセージ記録、第三者の交友関係および会員、第三者デバイスに格納された文書、ファイル、画像、写真、電子メール、あるいは任意の他のコンテンツまたはデーター、第三者によって行われたアクション(1つまたは複数)、物品タグ付けの時刻または位置、タグ付け物品の第三者格付け、第三者に提供された任意の関連コンテンツ等であってもよい。タグ−物品データー、物品−コンテキスト・データー、および/または第三者データーは、以上でもっと詳しく説明したように、ユーザー・デバイスに関係して特定することができる。
[00104] タグ付き物品および/またはタグ−物品データー、第三者データー、ならびに物品−コンテキスト・データーの指示は、関連コンテンツ・システム210に伝達され、それに関連付けて格納することができる。例えば、ネットワーク関係者に関連するタグ付き物品(1つまたは複数)の指示を含むタグ-物品データーが、ネットワーク・データー・ストア230に格納されてもよく、広告主に関連するタグ付き物品(1つまたは複数)の指示を含むタグ-物品データーが、広告データー・ストア232に格納されてもよい。このようなデーターは、特定の物品にタグ付けされた第三者の指示と関連付けて格納することができる。場合によっては、第三者デバイスによって収集された物品に関連する全てのデーターが保存されてもよい。他の場合では、第三者デバイスによって収集された物品に関連するデーターの一部が保存されるのでもよい。例えば、関連コンテンツ・システム210は、単にタグ付き物品の指示を保存するだけでもよい。他の場合では、関連コンテンツ・システム210が、タグ付き物品の指示、第三者データー等を保存するのでもよい。
[00105] 再度ユーザー・デバイス204を参照すると、見ようとするメディア・コンテンツまたは見られているメディア・コンテンツの指示を関連コンテンツ・システム210に伝達することができる。例えば、ユーザーが第三者タグ付け機能の有効化を示し、および/または見ようとするメディア・コンテンツを選択したとき、このメディア・コンテンツの指示を送信することができる。このような場合、関連コンテンツ・システム210は、ユーザーに興味がある任意の対応する第三者が、ユーザー・デバイス204においてユーザーによって見られるメディア・コンテンツ内にあるいずれかのタグ付き物品に関連付けられているか否か識別することができる。例えば、ユーザー・デバイスのユーザーが、ネットワーク関係者によってタグ付けされた物品を見ることを望むと仮定する。このような場合、ソーシャル・ネットワーク・エンジン226は、任意のネットワーク関係者(または特定のネットワーク関係者(1人または複数))が、ユーザーによって見られているメディア・コンテンツ内の任意のタグ付き物品と関連付けられているか否か識別することができる。これに関して、ソーシャル・ネットワーク・エンジン226は、ネットワーク・データー・ストア230にアクセスして、ネットワーク関係者によってタグ付けされた任意の物品を特定することもできる。同様に、ユーザー・デバイスのユーザーが、広告主によってタグ付けされた物品を見ることを望むと仮定する。このような場合、広告エンジン224は、任意の広告主が、ユーザーによって見られているメディア・コンテンツ内で任意の物品にタグ付けしたか否か識別することができる。これに関して、広告エンジン224は、広告データー・ストア232にアクセスして、広告主によってタグ付けされた任意の物品を特定することもできる。
[00106] 少なくとも1つの物品が対象の第三者によってタグ付けされたことが識別されたとき、関連コンテンツ・システム210は、しかるべき情報をユーザー・デバイス204に提供することができる。これに関して、関連コンテンツ・システム210は関連コンテンツをユーザー・デバイス204に供給することができる。このような関連コンテンツ・データーは、第三者によってタグ付けされた物品と対応する任意のデーターであることができる。例えば、関連コンテンツ・データーが、タグ付き物品の指示、タグ付き物品の時刻、タグ付き物品に関係して第三者によって行われたアクション、推奨、検索結果、広告、物品にタグ付けした第三者の指示等であってもよい。一実施形態では、ユーザー・デバイス204に供給されたタグ付き物品に関するコンテンツが、第三者に提示されたのと同じコンテンツであってもよい。例えば、ネットワーク関係者がネットワーク関係者デバイス208によって第1メディア・コンテンツにおける物品にタグ付けし、応答して、このタグ付き物品に関する広告を見ると仮定する。このような場合、関連コンテンツ(例えば、広告またはその広告の指示)を保存し、ユーザー・デバイス204のユーザーが、第三者(1つまたは複数)によってタグ付けされた物品を見る要望を示すときに、同じ広告がユーザー・デバイス204に供給され、第三者によってタグ付けされた物品と関連付けてユーザーによって見られるようにすることができる。
[00107] 他の実施形態では、ユーザー・デバイス204に供給されたタグ付き物品に関するコンテンツが、第三者に提示されたコンテンツとは無関係であってもよい。一例として、ネットワーク関係者が、第1メディア・コンテンツにおいてある物品にネットワーク関係者デバイス208によってタグ付けし、応答して、このタグ付けされた物品に関する広告を見ると仮定する。更に、ユーザー・デバイス204のユーザーが、第三者(1つまたは複数)によってタグ付けされた物品を見ることを望むと仮定する。このような場合、第三者によってタグ付けされた物品と関連付けられ、ユーザー・デバイス204によってユーザーに提示された広告または他のデーターは、第三者に提示される広告とは異なる場合がある。ユーザー・デバイス204のユーザーに提示された広告の方が、ユーザー・デバイス204のユーザーに一層関連が深い(pertinent or relevant)こともあり得る。これに関して、関連コンテンツ・システム210は、ユーザー・デバイス204のユーザーに関連するユーザー・データーを利用して、ユーザーに一層特定である関連コンテンツを特定することができ(例えば、推奨エンジン、検索エンジン、広告エンジン等によって)、一方第三者に提示される広告は、第三者のユーザー・データー(例えば、第三者デバイスの位置、第三者デバイスのタイプ等)に基づくのでもよい。
[00108] したがって、このような実施形態では、第三者タグ、ユーザー・データー、または他のデーターを見る意図または要求も、ユーザー・デバイス204から関連コンテンツ・システム210に伝達するのでもよい。あるいは、関連コンテンツ・システム210がこのようなデーター(例えば、ユーザー・データー・ストア228からのユーザー・データー)を参照するのでもよい。
[00109] ユーザー・デバイス204に供給される第三者タグ付けデーターは任意のデーターとすることができる。例えば、第三者によってタグ付けされた物品の指示(例えば、物品識別子)をユーザー・デバイス204に供給することができる。この場合、ユーザー・デバイス204によって再生されるメディア・コンテンツにおいて「帽子」物品が視覚的に特定されて、ユーザーがこの「帽子」を選択し、恐らくある「ネットワーク関係者」がこの物品にタグ付けしたことの通知を見ることができるようにするとよい。他の例では、視覚的に特定された「帽子」を選択したときに、関連コンテンツがユーザーに提示されてもよく、このような関連コンテンツが、第三者に提示されるものと同じであっても、またはユーザー・デバイス204のユーザーに一層関連が深くてもよい(例えば、デバイスの位置、デバイスのタグ付け履歴等というような、ユーザーのユーザー・データーを利用する)。他の例では、友人の数、または物品にタグ付けした特定の友人(1人または複数)を表示してもよい。更に他の例では、第三者によって物品に関係して行われたアクションを提示することができる(例えば、「アダムがこの物品を購入した」または「アダムがこの帽子をフェースブック(登録商標)に2011年9月22日午後12時15分にポストした」)。これらの例は、本発明の範囲を限定することを意図するのではなく、本発明者は、任意の数のデーターをユーザーに提示できることも分かっている。
[00110] したがって、ユーザー・デバイス204がこのような関連コンテンツ・データーを受信したとき、ユーザー・デバイス204は、見られるメディア・コンテンツと関係して、しかるべき情報を表示することができる。このような情報は、メディア・コンテンツの上に重ねること、またはメディア・コンテンツと統合することができる。この情報は、表示画面上の任意の位置に提示することができる。例えば、この情報がデフォルト位置、決定された位置、第三者によってタグ付けされた物品の近く(near)またはこれに隣接して等で提示されてもよい。
[00111] 認めることができようが、第三者によってタグ付けされた物品は、ユーザー・デバイス204のユーザーによってリアル・タイムで知覚されることが可能である。このように、関連コンテンツ・システム210が、ユーザー・デバイス204が特定のメディア・コンテンツを見ていることを認識し、第三者と関連付けてタグ付けされた同じメディア・コンテンツの物品の指示を受けたとき、この第三者が開始したタグの指示を直ちにユーザー・デバイス204に供給することができる。
[00112] 代替実現例では、第三者によるタグの指示を受信したとき、関連コンテンツ・システム210は、タグ付き物品がユーザー・デバイス204に適用可能か否か評価することなく、しかるべきデーターをユーザー・デバイス204に供給することができる。このような実現例では、ユーザー・デバイス204が関連コンテンツ・データー(例えば、タグ付き物品の指示)を受信し、このデーターを格納し、および/またはこのようなデーターが現在再生しているメディア・コンテンツに現在(presently)適用可能か否か確認することができる。
使用シナリオ例
[00113] 図3から図9は、関連コンテンツを見るために物品のジェスチャー・ベース・タグ付けを使用する、可能なシナリオ例を示す。この使用シナリオは、便宜上図2の環境例200を参照しながら説明する。しなしながら、使用シナリオは図2の環境例200との使用に限定されるのではない。
[00114] 図3は、ユーザー302がタグ付け可能コンテンツ304を、表示画面308に関連するクライアント・デバイス306を介して見ている例を示す。提示されるコンテンツは、テキスト、画像、オーディオ・コンテンツの表現、および/またはビデオを含むのでもよい。実施形態では、メディア・コンテンツが、ウェブ・ブラウザー、電子メール・アプリケーション、ニュース・アプリケーション等のようなウェブ可能アプリケーションによって表示されてもよい。他の実施形態では、このアプリケーションが、ウェブ可能でないアプリケーションでもよい。本明細書において説明するジェスチャー・ベース・タグ付け技法は、コンテンツをユーザーに表示するまたはそれ以外で提示する任意のアプリケーションに適用可能である。
[00115] 以前であれば、ユーザー302が表示されたコンテンツについて更に学習することに興味があった場合、ユーザーは彼らがその時見ていたコンテンツを終了しまたは最短で済ませて、検索を行うためにウェブ・ブラウザーを開くか、または検索を行うために他の計算デバイスを利用したに違いないであろう。本明細書において説明するジェスチャー・ベース・タグ付け技法は、ユーザーまたは第三者がタグ付けされた物品に関する情報を見ることができるように、ユーザーが物品のタグ付けを開始する(initiate)ことを可能にする。
[00116] 図4に示すように、ユーザー402がメディア・コンテンツ404内における特定の物品410に興味がある。図5は、ジェスチャー・ベース・タグ付け技法のプロセス例を示し、タグ付けジェスチャーの一例512が、ディスプレイ500上に提示される特定の物品510を有するコンテンツ514の領域を定めることを示す。図示する例では、ユーザー502のタグ付けジェスチャー512は、楕円状運動またはほぼ楕円状運動、円運動またはほぼ円運動、あるいは自由形態で沿う運動というような、物品の境界をなぞる形状またはほぼなぞる形状を含む。
[00117] 図示する例では、ユーザー・デバイスのジェスチャー追跡モジュールが、ユーザー502によるタグ付けジェスチャー512の入力に応答して、ディスプレイ500上におけるタグ付けジェスチャーのコンテンツ514の領域の線表現をレンダリングすることができる。タグ付けジェスチャーの表現は、ユーザー502によって入力されたタグ付けジェスチャー512の動きを近似し、ユーザーが丁度入力したばかりのジェスチャーのサイズおよび形状の視覚フィードバックをユーザーに供給する。先に説明したように、強調および/または拡大レンズというような、他のタイプの視覚表現も、タグ付けする物品を特定するために使用することができる。
[00118] 物品510を有するコンテンツ514の領域は、検索の範囲を定め、検索クエリーを定式化するために使用することができる。形状は領域周囲の完全な境界を形成するのではないが、この形状は実質的に領域をなぞる(例えば、形状の開始点と終点との間にギャップがあり、形状は少なくとも部分的に領域をなぞらない)。一例では、境界におけるギャップがジェスチャーの全長のある端数未満である場合、形状は領域を実質的になぞると言える。他の実施形態では、タグ付けジェスチャーが任意の形状の動きを含むこともできる。タグ付けジェスチャーがある領域をなぞらないまたは実質的になぞらない場合、このジェスチャーは、タグ付けジェスチャーによってタッチされた領域、タグ付けジェスチャーに近接する領域、タグ付けジェスチャーと重複する領域、またはタグ付けジェスチャーと関連付けられた領域として、コンテンツの領域を定めることができる。
[00119] 選択されたコンテンツ514の領域内に表示される物品510は、関連タグ−物品データー(コンテンツに関連するメタデーターを使用する)と共に特定され、クエリーを定式化するために使用することができる。検索クエリーの定式化および/またはタグ−物品データーの特定の完了に応答して、ユーザー・デバイスは自動的に検索クエリーおよび/またはタグ−物品データーを検索エンジンまたは検索サービスに提出することができる。加えてまたは代わりに、ユーザー・デバイスはこの検索クエリーをユーザーにディスプレイ上で提示して、ユーザーにこの検索クエリーを確認および/または変更するように求めることもできる。他の実施形態では、ユーザー・デバイスが複数の可能な検索クエリーをユーザーに提示し、ユーザーにこれらの複数の検索クエリーから、検索を行うために使用する1つを選択させることもできる。更に、実施形態では、ユーザー・デバイスが、ユーザーに、ディスプレイ上に表示された検索クエリーまたは可能な検索クエリーを変更させてもよい。ユーザー・デバイスは、選択された検索クエリーまたは変更された検索クエリーを検索エンジンまたは検索サービスに提出することができる。
[00120] 一実施形態では、関連コンテンツ・システム(例えば、図2の検索エンジン222、図2の推奨エンジン220、図2の広告エンジン224)が、選択された物品510に関するコンテンツをユーザー・デバイスに戻すこともでき、ユーザー・デバイスは、次に、この関連コンテンツをユーザーに提示することができる。関連コンテンツ・データーを関連コンテンツ・システム210から受信すると、ユーザー・デバイス204はこの関連コンテンツをディスプレイ上に提示することができる。したがって、図6に示すように、ユーザー・デバイス606は、タグ付け可能コンテンツ604に関するコンテンツである関連コンテンツ・データー616を表示することができる。図6において、関連コンテンツ・データー616は広告を含むが、任意のタイプのデーターでもよい。例えば、関連コンテンツが、提案された製品、サービス、物品、その物品に関連する情報等であってもよい。
[00121] 実施形態では、図5のタグ付けジェスチャー512が受け取られた後直ちに、関連コンテンツが表示されてもよい。一実施形態では、ユーザー・デバイス606が、表示されたコンテンツ604の一部の上に、関連コンテンツ・データー616を重ね合わせることもできる。これによって、ユーザーがそれまで関わっていたアプリケーションまたはタスクを終了するまたは最短で済ませることなく、ユーザーは関連コンテンツを見ることが可能になる。一例としてそして限定ではなく、関連コンテンツ・データーを含むスライド・アウト・ウィンドウ(slide out window)が、表示されたコンテンツの一部の上に重ね合わされてもよい。実施形態では、ユーザー・デバイスが、表示されたコンテンツの内、タグ付けジェスチャーによって定められたコンテンツの領域を含まない一部の上に、関連コンテンツを重ね合わせることもできる。一実施形態では、ユーザーに提示される関連コンテンツが、関連コンテンツ・システムから受信した検索結果の簡略化バージョンであってもよい。例えば、提示される関連コンテンツ・データーが、タイトルのみ、またはタイトルと制限された数のキャラクタを含むのでもよい。
[00122] 関連コンテンツを見たとき、ユーザーが検索の範囲を広げる、狭める、リファインする、照準を変える(refocus)、またはそれ以外で変更することを望むことがあり得る。例えば、元のタグ付けジェスチャーが、ユーザーが関連情報を望んだ物品を包含しなかったと、ユーザーが判断するかもしれない。その場合、ユーザーは、意図する物品を含むように検索を広げることを望むであろう。
[00123] 一例のみとして、元のタグ付けジェスチャーに加えて、1つ以上の新たなタグ付けジェスチャーを検出したことに応答して、検索範囲を変更することができる。例えば、ユーザーは、意図する物品を取り込むためにコンテンツの第2領域を定める第2のタグ付けジェスチャーを行うことができる。ジェスチャー検出モジュールは、第2ジェスチャーを検出し、ジェスチャー追跡モジュールに、第2コンテンツ領域の第2表現を表示のために出力するように命令する。すると、ユーザー・デバイスは、少なくとも第1コンテンツ領域および/または第2コンテンツ領域に基づいて、検索クエリーおよび/またはタグ−物品データーを定式化し直すことができる。実施形態では、新たな検索クエリーを定式化するときに、第1コンテンツ領域に含まれる情報および第2コンテンツ領域に含まれる情報に、同じ重みまたは異なる重みを与えることもできる。他の実施形態では、ユーザー・デバイスは、第2コンテンツ領域に含まれる情報を使用して、元の検索結果の中から結果の部分集合を検索することによって、検索をリファインすることもできる。
[00124] 図6に示すように、関連コンテンツ・データー616は、1組の1つ以上の物品アクション618と共に表示することができる。物品アクション618は、選択された物品と関連付けて開始または実行することができる、利用可能なアクションをユーザーに提供する。一例のみとして、選択された物品610に関連する物品アクション618は、物品保存アクション620を含み、このアクションが選択されると、後の使用のために(例えば、後の物品購入、後の物品視聴等)この物品の指示を保存することができる。物品送出アクション622は、選択されると、物品の指示またはそれに関連する関連コンテンツを送ることができる。例えば、物品送出アクション622を選択すると、その物品の「好意」(like)をフェースブック(登録商標)にポストすることができ、または電子メールでその物品をユーザーまたは他の関係者に送ることができる等である。このような実施形態では、図2の関連コンテンツ・システム210またはユーザー・デバイス204が、検索クエリーまたはタグ−物品データーを解釈し、ユーザーが完了したいかもしれないタスク(例えば、予約する、物品を購入する等)を特定することもできる。関連コンテンツ・システムまたはユーザー・デバイスは、更に、その物品を有するコンテンツの領域に関するコンテキスト情報に基づいて、および/またはユーザー・データーに基づいて、検索クエリーを解釈し、ユーザーが完了したいかもしれないタスクを特定することもできる。例えば、関連コンテンツ・システム210が、検索クエリーにおいてレストランの店名を特定することおよび/またはコンテキスト情報を特定することに基づいて、ユーザーがレストランの位置を探していると特定することもできる。他の例では、ユーザー・デバイスが、ユーザーによって開始された過去のアクションまたはタグに基づいて、推奨および/または広告を受けるおよび/または与えることもできる。
[00125] 図7は、参照番号724によって示される、物品保存アクションのユーザー選択を示す。このような選択は、任意の数の方法で行うことができる。例えば、ユーザーは、タグ付けジェスチャーを参照して先に説明した方法の内任意のものを使用して、アクション物品を選択することができる。物品を保存するとき、またはそれに関連する情報を保存するとき、ユーザーは後の時点でその物品を見ることができ、またはその物品に関連付けてアクションを実行することができる。
[00126] 例えば、図8に示すように、クーポンまたは取引(deal)のような広告826を見ること、および/または後の時点(例えば、その物品を有するメディア・コンテンツをユーザーが見るとき)で利用することができる。認めることができようが、実施形態では、ユーザーは、任意のユーザー・デバイス(例えば、移動体デバイス)を使用して、保存した物品またはそれに関連する情報にアクセスする、それを見る、または使用することができる。
[00127] この例を続けると、図5のユーザー502によるタグ付けジェスチャー512を検出し、そしてその後、タグ付けジェスチャー512に関連する物品510にタグ付けすると、他の個人またはエンティティが、この物品に関するコンテンツを見ることができる。図9を参照して、他のユーザー928(即ち、タグ付けジェスチャー512を行ったユーザー502とは異なる)が、ユーザー502によって見られているメディア・コンテンツまたはユーザー502によって以前に見られたメディア・コンテンツと対応するメディア・コンテンツ904を見ていると仮定する。更に、図5のユーザー502によってタグ付けされた物品510が、物品910としてユーザー928にメディア・コンテンツ904内において提示されると仮定する。メディア・コンテンツ504内の物品510が、ユーザー928とのネットワーク関係者である、図5におけるユーザー502によってタグ付けされたことを認識すると、ユーザー・デバイス906は、ユーザー928が見るために、物品910に関するコンテンツ930を提示することができる。図9はこのような関連コンテンツ932を、物品のタグ付けを開始したユーザー(1人または複数)の指示として示すが、このような関連コンテンツ930は、任意のタイプの情報とすることができる。例えば、図5のユーザー502によって選択された物品510に基づいてユーザー928に提示される関連コンテンツ930が、物品がタグ付けジェスチャーにしたがってタグ付けされたこと(例えば、物品の強調)の視覚的指示、ユーザー502に提示されたコンテンツと同じである物品に関するコンテンツ(例えば、同じ広告、推奨、検索結果、または他の関連情報)、ユーザー502に提示されたコンテンツとは異なる物品に関するコンテンツ(例えば、異なる広告、推奨、検索結果、または他の関連情報)等であってもよい。
方法例
[00128] ジェスチャー・ベース検索を実行する方法例について、図10から図16を参照しながら説明する。これらの方法例は、コンピューター実行可能命令という一般的なコンテキストで説明することができる。一般に、コンピューター実行可能命令は、ルーチン、プログラム、オブジェクト、コンポーネント、データー構造、手順、モジュール、関数等を含み、これらは特定の機能を実行するかまたは特定の抽象データー型を実装する。また、これらの方法は分散型計算環境において実施することもでき、この場合、機能は、通信ネットワークまたは通信クラウドを介してリンクされるリモート処理デバイスによって実行される。分散型計算環境では、コンピューター実行可能命令は、メモリー記憶デバイスを含む、ローカルおよびリモート双方のコンピューター記憶媒体に配置することもできる。
[00129] これらの方法例は、動作のシーケンスを表す論理フロー・グラフにおけるブロックの集合体として示され、ハードウェア、ソフトウェア、ファームウェア、またはその組み合わせで実現することができる。これらの方法を説明する順序は限定として解釈されることを意図しておらず、説明する方法ブロックの内任意の数を任意の順序で組み合わせてこれらの方法、または代わりの方法を実現することができる。加えて、個々の動作は、本明細書において説明した主題の主旨や範囲から逸脱することなく、これらの方法から省略してもよい。ソフトウェアのコンテキストでは、ブロックは、1つ以上のプロセッサーによって実行されると、列挙される動作(recited operation)を実行するコンピューター命令を表す。
[00130] 図10は、タグ付け可能コンテンツを生成する方法例1000を示す。方法1000については、例示を容易にするために、図2のコンテンツ・プロバイダー例202のコンテキストで説明するが、このようなコンテキストで実行されることに限定されるのではない。
[00131] ブロック1002において、物品を有するメディア・コンテンツを参照する。参照する特定のメディア・コンテンツは、例えば、特定のメディア・コンテンツを見るためのユーザーの選択、特定のメディア・コンテンツの自動選択等に基づけばよい。メディア・コンテンツは、ビデオのような物品を有する任意のメディア・コンテンツであってよい。ブロック1004において、少なくとも1つの物品をタグ付け可能物品として指定する。ブロック1006において、タグ付け可能物品(1つまたは複数)を有するタグ付け可能コンテンツを生成する。タグ付け可能コンテンツは、任意のやり方で生成することができる。例えば、一実施形態では、メディア・コンテンツに関連するメタデーターを、タグ付け可能物品の指示を含むように構成することができる。ブロック1008において、タグ付け可能コンテンツを、ユーザーが見るために供給する。実施形態では、タグ付け可能コンテンツは、ユーザー・デバイスのユーザーがタグ付け可能コンテンツを見ることができるように、ネットワークを介してユーザー・デバイスに供給される。このようなタグ付け可能コンテンツは、任意の時点で供給することができる。例えば、タグ付け可能コンテンツをコンテンツ・プロバイダーと関連付けて格納し、ユーザー・デバイスからのタグ付け可能コンテンツを送信する要求に基づいて、ユーザー・デバイスに供給するのでもよい。タグ付け可能コンテンツは、ユーザー・デバイスにおいて、ウェブ・ブラウザーまたはメディア・プレーヤーというような、アプリケーション内で表示することができる。
[00132] 図11は、物品にタグ付けする方法例1100を示す。方法1100については、例示を容易にするために、図2のユーザー・デバイス例204のコンテキストで説明するが、このようなコンテキストで実行されることに限定されるのではない。
[00133] ブロック1102において、タグ付け可能メディア・コンテンツを提示する。これに関して、ユーザーはタグ付け可能コンテンツを見ることができる。場合によっては、タグ付け可能コンテンツが目視でまたは聞こえるようにタグ付けが可能な物品を示すこともできる。例えば、タグ付け可能コンテンツ内のタグ付け可能物品を強調して、このような物品に関するコンテンツを提示できることを示すことができる。ブロック1104において、タグ付けする物品を示すタグ付けジェスチャーを検出する。実施形態では、タグ付けジェスチャーは、ユーザーに興味がある物品を有するコンテンツの領域を定めることができる。タグ付けジェスチャーは、タッチ・スクリーンまたはタッチ・パッド上のタッチ入力、画像キャプチャー・デバイスによって検出される体の動き、および/またはユーザー入力デバイスによって制御されるカーソルの動きを含むことができる。タグ付けジェスチャーによって定められたコンテンツの物品または領域は、タグ付けジェスチャーによってあるいはタグ付けジェスチャーによってタッチされた領域、タグ付けジェスチャーに近接する領域、またはタグ付けジェスチャーと重複する領域をなぞるまたは実質的になぞる領域を含むことができる。一例では、タグ付けジェスチャーが、対象の物品をなぞるまたは実質的になぞる動きまたは実質的に円形の動きを含むこともできる。
[00134] タグ付けジェスチャーを検出したことに応答して、ブロック1106において、このタグ付けジェスチャーによって定められるコンテンツの領域の表現を、表示されたコンテンツの上に表示することができる。コンテンツの領域の表現は、コンテンツの領域を取り囲む線、コンテンツの領域の強調ビュー、および/またはコンテンツの領域の拡大レンズ・ビューを含むことができる。
[00135] ブロック1108において、タグ付けジェスチャーに関連する少なくとも1つの物品を特定する。これに関して、対象の物品は、タグ付け可能メディア・コンテンツに関連するメタデーターを使用して特定することができる。このようなメタデーターは、メディア・コンテンツ内における特定の位置にあるタグ付け可能物品を示す(例えば、フレーム、時刻、位置等)。これに関して、タグ付けジェスチャーの位置が、メタデーターにおいて示される物品の位置と一致すればよい。他の実施形態では、画像認識モジュール(例えば、ユーザー・デバイスにまたはユーザー・デバイスから離れて配置される)を使用して、特定することもできる。
[00136] ブロック1110において、特定した物品(1つまたは複数)にタグ付けする。これに関して、選択された物品に対するユーザーの興味の指示を示すかまたは指定する。例えば、一実施形態では、メディア・コンテンツに関連するメタデーターが、特定の物品に興味があることを示すことができる。他の実施形態では、物品をメタデーターとは別のタグとして示すことができる。タグ付き物品(1つまたは複数)は、このタグ付き物品に関するコンテンツを見るために使用することができる。これに関して、タグ付き物品を開始した(initiate)ユーザーまたは第三者が、このタグ付き物品に関するコンテンツを見ることができる。方法1100は、メディア・コンテンツ内における物品のタグ付けというコンテキストで説明したが、先に説明したように、タグ付き物品は、アルバム・タイトル・サムネイル(thumbail)、ムービー・ポスター・サムネイル等というような、ディスプレイ上に表示される物品の内ユーザーに興味がある任意のものであってよい。
[00137] 図12は、物品に関するコンテンツを見るためにジェスチャー・ベース・タグ付けを利用する方法例1200を示す。方法1200については、例示を容易にするために、図2のユーザー・デバイス例204のコンテキストで説明するが、このようなコンテキストにおいて実行されることに限定されるのではない。
[00138] ブロック1210において、メディア・コンテンツを見る指示を受ける。ブロック1212において、ユーザー・タグ付け機能をイネーブルする指示を認識する。ユーザー・タグ付け機能は、ユーザーが、このユーザーに興味がある物品に関するコンテンツを見ることを可能にする。実施形態では、ユーザーがメディア・コンテンツを見る指示、および/またはユーザー・タグ付け機能をイネーブルする指示を与えることができる。
[00139] ブロック1214において、タグ付け可能コンテンツを受信する。ブロック1216において、タグ付け可能コンテンツを、例えば、ユーザーにユーザー・デバイスを介して提示する。場合によっては、タグ付け可能コンテンツが目視でまたは聞き取れるように、メディア・コンテンツ内においてタグ付け可能な1つまたは複数の物品を区別することもできる。その後、ブロック1218において、タグ付けジェスチャーを検出する。タグ付けジェスチャーは、タグ付け可能コンテンツ内において、ユーザーに興味がある物品を示す。これに関して、タグ付けジェスチャーが、ユーザーがより多くの情報を見ることまたはアクションを実行すること(例えば、物品を購入する)を望む物品を示すこともできる。
[00140] ブロック1220において、ユーザーに興味がある物品を特定する。このような物品は、提示されたタグ付け可能コンテンツに関連するメタデーターを利用すること、画像検出を使用して画像を認識すること等を含むがこれらに限定されない任意のやり方で特定することができる。ブロック1222において、ユーザーによって選択または指定された物品にタグ付けする。したがって、選択された物品は、ユーザーに興味があるものとして指定される。
[00141] ブロック1224において、タグ付き物品に関連するタグ−物品データーを参照する。このようなタグ−物品データーは、例えば、提示されたタグ付け可能コンテンツ等に関連するメタデーターから参照することができる。ブロック1226において、タグ付き物品に関連するコンテキスト・データーを参照する。コンテキスト・データーは、タグ付き物品のコンテキストを示す任意のデーターであってよい。ブロック1228において、ユーザーに関連するユーザー・データーを参照する。このようなユーザー・データーは、例えば、ユーザーの指示、ユーザー・デバイスの指示、ユーザー・デバイスの場所の指示等を含むことができる。
[00142] ブロック1230において、タグ−物品データー、コンテキスト・データー、およびユーザー・データーを利用して、タグ付き物品に関するコンテンツを得るための検索クエリーを定式化する。実施形態では、この検索クエリーが、被参照データー(referenced data)(例えば、タグ−物品データー、コンテキスト・データー、およびユーザー・データー)、またはその一部である場合もある。検索クエリーは、タグ付けジェスチャーによって定められるコンテンツの領域に基づいて定式化されるのでもよい。検索クエリーは、その領域内のコンテンツに基づくのでもよく、更に、恐らくは、検索に関連するコンテキスト情報および/またはユーザー・データーに基づくのでもよい。コンテキスト情報は、コンテンツの領域に近接するコンテンツ、表示されたコンテンツに関連するメタデーター等を含むことができる。
[00143] ブロック1232において、関連コンテンツを得るために、検索クエリーを1つ以上の検索エンジンに伝達する。一実施形態では、検索クエリーを図2の関連コンテンツ・システム210に伝達する。関連コンテンツ・システム210は、1つ以上の検索エンジンを利用して、物品に関するコンテンツを特定することができる。他の実施形態では、例えば、所望の情報のユーザーの好み、特定のエンジン(1つまたは複数)の決定、デフォルトのエンジン(1つまたは複数)等に関連する検索エンジン(1つまたは複数)に基づいて、1つ以上の特定のエンジンに検索クエリーを伝達する。検索クエリーを使用する検索は、タグ付けジェスチャーの完了に応答して、自動的に実行させることもできる。検索クエリーは、ユーザーのユーザー・デバイスとは別のリモート検索エンジンに送られても良い。加えてまたは代わりに、検索がユーザー・デバイスにおいてローカルに行われてもよい。
[00144] ブロック1234において、タグ付き物品に関するコンテンツを受信する。このような関連コンテンツは、例えば、推奨エンジン、検索エンジン、広告エンジン等から供給することができる。
[00145] その後、ブロック1236において、関連コンテンツを、タグ付き物品と関連付けて提示する。したがって、関連コンテンツは、タグ付け可能コンテンツと関連付けて、クライアント・デバイスのディスプレイ上に表示することができる。場合によっては、関連コンテンツの配置(placement)を決定することもできる。例えば、ユーザーの好みまたはデフォルトの位置(例えば、表示画面の中央または上辺)を使用して、検索結果の配置を決定することができる。他の例では、検索結果の配置に好ましい位置が、関連コンテンツが関連付けられる物品の近くであってもよい。
[00146] 関連コンテンツは、ある時間期間の経過および/またはイベントの発生まで表示することができる。一例としてそして限定ではなく、関連コンテンツは、この関連コンテンツが使用されないまま所定の時間期間が経過するまで(例えば、ユーザーが見る、選択する等)、ユーザーが関連コンテンツに関連するアクションを開始するまで(例えば、物品を購入する、物品を保存するというような物品アクションを選択する)等、アクティブなままであってもよい、即ち、表示画面上に表示されてもよい。更に他の例として、隠すまたは折り畳む指示を受けることができ、ユーザーの視聴を中断することなく、効果的に元のコンテンツが表示される結果となる。
[00147] 実施形態では、1つ以上の物品アクションと関連付けて、関連コンテンツが表示される。このような物品アクションは、ユーザー・デバイスまたは関連コンテンツ・システムにおいて特定されてもよい。この物品アクションは、ユーザーがタグ付き物品または関連コンテンツに関連するアクションを開始することを可能にする。
[00148] 図13は、物品に関するコンテンツを特定するためにジェスチャー・ベース・タグ付けを利用する方法例1300を示す。方法1300は、図2の推奨エンジン220、検索エンジン222、または広告エンジン224というような、検索エンジンまたは検索サービス例のコンテキストで説明するが、このようなコンテキストにおいて実行されることに限定されるのではない。
[00149] 最初にブロック1310において、ユーザーに興味がある物品を示す検索クエリーをユーザー・デバイスから受ける。このような検索クエリーは、タグ−物品データー、コンテキスト・データー、および/またはユーザー・データーを含む、またはこれらから定式化することができる。ブロック1312において、ユーザーに関連するユーザー・データーを参照する。例えば、ユーザー・データーを含むデーター・ストアを使用して、ユーザーに関連するユーザー・データーを特定することができる。ブロック1314において、検索クエリーおよびユーザー・データーの少なくとも一部を利用して、興味がある物品に関するコンテンツを特定する。これに関して、データーを含むデーター・ストアを利用して、興味のある物品に関するコンテンツを特定することができる。ブロック1316において、この物品または関連コンテンツに関連して実行することができる1つ以上のアクションを特定する。ブロック1318において、関連コンテンツおよび1つ以上のアクションをユーザー・デバイスに伝達する。
[00150] 図14は、他者が物品に関するコンテンツを見ることができるように、第三者がその物品のタグ付けを開始する方法例1400を示す。方法1400は、例示を容易にするために、図2のネットワーク関係者デバイス例208のコンテキストで説明するが、このようなコンテキストにおいて実行されることに限定されるのではない。
[00151] ブロック1410において、タグ付け可能メディア・コンテンツを提示する。これに関して、第三者がタグ付け可能コンテンツを見ることができる。場合によっては、タグ付け可能コンテンツが、タグ付けできる物品を目視でまたは聞き取れるように示すこともできる。例えば、タグ付け可能コンテンツ内においてタグ付け可能物品を強調して、このような物品に関するコンテンツを提示できることを示すことができる。ブロック1412において、タグ付けする物品を示すタグ付けジェスチャーを検出する。実施形態では、タグ付けジェスチャーは、ユーザーに興味がある物品を有するコンテンツの領域を定めることができる。タグ付けジェスチャーは、タッチ・スクリーンまたはタッチ・パッド上のタッチ入力、画像キャプチャー・デバイスによって検出される体の動き、および/またはユーザー入力デバイスによって制御されるカーソルの動きを含むことができる。タグ付けジェスチャーによって定められるコンテンツの物品または領域は、タグ付けジェスチャーによってなぞられるまたは実質的になぞられる領域、タグ付けジェスチャーによってタッチされた領域、タグ付けジェスチャーに近接する領域、またはタグ付けジェスチャーと重複する領域を含むことができる。一例では、タグ付けジェスチャーが、興味のある物品をなぞるまたは実質的になぞる動きあるいは実質的に円形の動きを含むこともできる。
[00152] ブロック1414において、タグ付けジェスチャーに関連する少なくとも1つの物品を特定する。これに関して、対象の物品は、タグ付け可能メディア・コンテンツに関連するメタデーターを使用して特定することができる。このようなメタデーターは、メディア・コンテンツ内における特定の位置にあるタグ付け可能物品を示す(例えば、フレーム、時刻、位置等)。他の実施形態では、画像認識モジュール(例えば、ユーザー・デバイスにまたはユーザー・デバイスから離れて配置される)を使用して、物品を特定することもできる。
[00153] ブロック1416において、特定した物品(1つまたは複数)にタグ付けする。これに関して、選択された物品に対する第三者の興味の指示を示すかまたは指定する。例えば、一実施形態では、メディア・コンテンツに関連するメタデーターが、特定の物品に関心があることを示すことができる。他の実施形態では、物品をメタデーターとは別のタグとして示すことができる。
[00154] ブロック1418において、タグ付き物品に関連するデーターを参照する。したがって、タグ−物品データー、物品−コンテキスト・データー、第三者データー(例えば、物品にタグ付けした第三者の識別)等を参照する、特定する、または決定することができる。ブロック1420において、タグ付き物品の指示、およびこのタグ付き物品に関連する被参照データーを、他者がタグ付き物品に関するコンテンツを見ることができるように、処理のために関連コンテンツ・システムに伝達する。
[00155] 図15は、物品に関するコンテンツを他者に供給するために第三者タグ付けを利用する方法例1500を示す。方法1500は、図2のソーシャル・ネットワーク・エンジン226、推奨エンジン220、検索エンジン222、および/または広告エンジン224というような、検索エンジンまたは検索サービス例のコンテキストで説明するが、このようなコンテキストにおいて実行されることに限定されるのではない。
[00156] 最初に、ブロック1510において、メディア・コンテンツ内において第1ユーザーに興味がある物品の指示を受ける。ブロック1512において、興味がある物品に関するデーターを受ける。このようなデーターは、例えば、第三者データー(例えば、第1ユーザーの識別、興味がある物品に関連して第1ユーザーによって開始されたアクション)、タグ−物品データー(例えば、第1ユーザーの識別)、物品−コンテンツ・データー等であってもよい。ブロック1514において、第1ユーザーに興味がある物品の指示、および興味がある物品に関するデーターを、例えば、第1ユーザーおよび/またはこの物品を含むメディア・コンテンツと関連付けて、格納するまたは取り込む。
[00157] ブロック1516において、第2ユーザーによって見られているメディア・コンテンツの指示を受ける。その後、ブロック1518に示すように、第2ユーザーに関連する他のエンティティが、メディア・コンテンツ内である物品にタグ付けしたか否か判定する。場合によっては、このような判定が、関連する時間枠に基づいて行われてもよい。例えば、第2ユーザーがそのメディア・コンテンツを最後に見てから所定の時間枠(例えば、1週間)内に他のエンティティが物品にタグ付けしたというようなのでもよい。更に、実現例では、第2ユーザーに関連するしかるべきエンティティの決定を行ってもよい。例えば、タグ付けジェスチャーを行ったエンティティは、第2ユーザーが興味を示す好ましいエンティティである。このような好みは、デフォルト・データーまたはユーザーによって提出される好みに基づけばよい。
[00158] 第2ユーザーに関連する他のエンティティがメディア・コンテンツ内で物品にタグ付けしなかった場合、ブロック1520において、第2ユーザーがメディア・コンテンツを見続けているか否か判定する。見続けていない場合、本方法はブロック1522において終了する。見続けている場合、本方法はブロック1518に戻って、第2ユーザーに関連する他のエンティティがメディア・コンテンツ内である物品にタグ付けしたか否か判定し続ける。このようなプロセスは、第2ユーザーに他のエンティティによってタグ付けされた物品をリアル・タイムで通知することを可能にする。
[00159] 一方、第2ユーザーに関連する他のエンティティがメディア・コンテンツ内である物品にタグ付けした場合、その指示を、第2ユーザーのユーザー・デバイスに供給する。これをブロック1524に示す。ブロック1526において、他のエンティティによってタグ付けされた物品に関するコンテンツを特定する。このようなコンテンツは、他者に関連するデバイスから伝達されたデーター(例えば、第三者データー、タグ−物品データー、物品−コンテキスト・データー)および/または関連コンテンツ・システムにおいて決定されたデーターを含むことができる。例えば、関連コンテンツ・システムが、第2ユーザーに興味があるかもしれないタグ付き物品に関するコンテンツを検索することができる。したがって、関連コンテンツ・システムが、第2ユーザーに関連するユーザー・データーを利用して、第2ユーザーに関連があるかもしれないタグ付き物品に関するコンテンツを得ることもできる。タグ付き物品に関するコンテンツは、ブロック1528に示すように、第2ユーザーのユーザー・デバイスに供給される。このような関連コンテンツは、例えば、タグ付き物品の指示、物品のタグ付けを開始した第三者の指示、物品に関連する提案または推奨、物品に関連する広告等でもよい。
[00160] 図16は、ユーザー・デバイスにおいて関連コンテンツを見るために第三者のタグ付けを利用する方法例1600を示す。方法1600は、図2のユーザー・デバイス204のような、ユーザー・デバイス例のコンテキストで説明するが、このようなコンテキストにおいて実行されることに限定されるのではない。
[00161] 最初に、ブロック1610において、見ようとするメディア・コンテンツの指示を受ける。ブロック1612において、このような指示を関連コンテンツ・システムに供給する。ブロック1614において、第三者(1人または複数)によってタグ付けされた物品に関するコンテンツを見る指示を受ける。その後、ブロック1616において、このような指示を関連コンテンツ・システムに供給する。ブロック1618において、ユーザー・データーを参照して、関連コンテンツ・システムに供給する。このようなユーザー・データーは、ユーザーの指示、ユーザーによって使用されるデバイスの指示、ユーザーによって使用されるデバイスの位置の指示、ユーザーに関連する好み、ユーザーによって以前にタグ付けされた物品等を含むこともできる。
[00162] ブロック1620に示すように、メディア・コンテンツを提示する。ブロック1622において、メディア・コンテンツ内において第三者によってタグ付けされた物品の指示を受ける。その後、第三者によってタグ付けされた物品を、ユーザーによって見られているメディア・コンテンツ内においてといように、視覚的に示す。これをブロック1624に示す。例えば、タグ付き物品を強調する、点滅させる、着色する、部分的に透明にする等としてもよい。ブロック1626において、物品に関する情報を見る指示を受ける。このような指示は、例えば、ユーザーがその物品の上でカーソルまたはセレクターをホバリングすることによって、またそれ以外では物品に関連する選択またはジェスチャーを行うことによって、供給することができる。このような指示に応答して、ブロック1628において、物品に関するコンテンツを受信する。その後、ブロック1630に示すように、関連コンテンツをユーザー・デバイスによって表示する。受信および表示される関連コンテンツは、例えば、物品にタグ付けした第三者の指示、物品にタグ付けされた時刻、タグ付き物品に関する情報、物品に関連して第三者によって行われたアクション等とすることができる。
[00163] 方法1600では、物品に関するコンテンツを見る指示を受けると説明したが、認めることができるように、このような情報を見るユーザー指示を最初に受けることなく、任意の関連コンテンツを自動的に提示することができる。例えば、最初にタグ付き物品を視覚的に特定する代わりに、関連コンテンツを物品と関連付けて最初に表示して、他にユーザーによるアクションがなくても、それがユーザーには容易に明らかになるようにしてもよい。場合によっては、関連コンテンツの第1部分を表示してもよく、追加の関連コンテンツを見るユーザー指示のときに、関連コンテンツの第2部分を表示するのでもよい。一例のみとして、最初に、物品にタグ付けした特定の第三者の指示を表示してもよい(例えば、「ダンがこの帽子にタグ付けした」)。ユーザーが提示された関連コンテンツのこの物品の上でホバリングしたときに、または他の方法で選択を行ったときに、この帽子に関する更なる詳細を表示することができる(例えば、この帽子の広告、価格、銘柄、入手可能な色等というような、帽子に関する詳細、この帽子を購入する場所の推奨、同じまたは同様の帽子を含む他のメディア・コンテンツの推奨等)。
[00164] 本明細書において説明した方法の任意のものでは、そのアクト(act)の内任意のものは、少なくとも部分的に、プロセッサーまたは他の電子デバイスによって、1つ以上のコンピューター読み取り可能媒体に格納された命令に基づいて実現することもできる。認めることができようが、本明細書において説明した方法の複数の実施態様を採用することができる。本明細書において説明した方法は、例示であり、発明の範囲を限定するのではないことを意図している。
結論
[00165] 以上、構造的特徴および/または方法論的動作に特定の文言で本発明について説明したが、本発明は、説明した特定の特徴や動作には必ずしも限定されないことは言うまでもない。逆に、特定の特報および動作は、本発明を実現する形態例として開示したまでである。

Claims (15)

  1. メディア・コンテンツ内における物品に関するコンテンツの目視を容易にするためのコンピューター実装方法であって、
    コンピューター実行可能命令が構成された1つ以上のプロセッサーの制御下で、
    ユーザーに表示されたメディア・コンテンツ内に提示された物品に対するユーザーの興味を示すタグ付けジェスチャーを検出するステップであって、前記タグ付けジェスチャーが、前記表示されたコンテンツの内前記物品を有する領域を定める、ステップと、
    前記タグ付けジェスチャーを検出したことに応答して、第三者によって供給される、前記物品に関する広告を提示するステップと、
    を含む、コンピューター実装方法。
  2. 請求項1記載の方法において、前記タグ付けジェスチャーを検出するステップが、タッチ・スクリーンまたはタッチ・パッド上においてタッチ入力を検出するステップを含む、方法。
  3. 請求項1記載の方法において、前記タグ付けジェスチャーを検出するステップが、画像キャプチャー・デバイスを使用して体の動きを検出するステップを含む、方法。
  4. 請求項1記載の方法において、前記タグ付けジェスチャーを検出するステップが、ユーザー入力デバイスによって制御されるカーソルの動きを検出するステップ、または前記ユーザー・デバイスの動きを検出するステップを含む、方法。
  5. 請求項1記載の方法において、前記タグ付けジェスチャーによって定められる前記表示コンテンツの領域が、前記タグ付けジェスチャーによって実質的になぞられる領域を含む、方法。
  6. 請求項1記載の方法において、前記タグ付けジェスチャーが、前記メディア・コンテンツ内における前記物品をなぞるまたは実質的になぞる動きを含む、方法。
  7. 請求項1記載の方法において、前記タグ付けジェスチャーによって定められる前記コンテンツの領域が、前記タグ付けジェスチャーによってタッチされる領域、前記タグ付けジェスチャーに近接する領域、または前記タグ付けジェスチャーと重複する領域を含む、方法。
  8. 請求項1記載の方法であって、更に、前記表示コンテンツ上において前記タグ付けジェスチャーによって定められた前記コンテンツの領域の表現を表示するステップを含み、前記コンテンツの領域の前記表現が、前記コンテンツの領域を少なくとも実質的に囲む線、前記コンテンツの領域の強調ビュー、前記コンテンツの領域の拡大レンズ・ビュー、またはその組み合わせを含む、方法。
  9. 請求項1記載の方法において、前記広告が、前記物品に隣接する前記表示コンテンツ上に前記広告を重ね合わせることによって提示される、方法。
  10. 請求項9記載の方法であって、更に、
    前記広告と共に1つ以上の物品アクションを提示するステップと、
    前記1つ以上のアクションの内1つのアクションの選択を受けるステップと、
    前記選択されたアクションの実行を開始するステップと、
    を含む、方法。
  11. 命令を格納する1つ以上のコンピューター読み取り可能記憶媒体であって、プロセッサーによって前記命令が実行されると、前記プロセッサーに、
    表示されたメディア・コンテンツ内に提示された物品を示すタグ付けジェスチャーを検出する動作と、
    前記タグ付けジェスチャーによって示された前記物品に関連するタグ−物品データーを特定する動作と、
    前記特定されたタグ−物品データーとユーザー・データーおよびコンテキスト−物品データーの内少なくとも1つとを使用して、検索を実行開始する動作と、
    前記タグ−物品データーとユーザー・データーおよびコンテキスト−物品・データーの内前記少なくとも1つとに基づく、前記物品に関するコンテンツを受信する動作と、
    前記物品に関連付けて前記関連コンテンツを提示する動作と、
    を含む動作を実行させるように構成された、1つ以上のコンピューター読み取り可能記憶媒体。
  12. 請求項11記載の媒体において、前記タグ付けジェスチャーが、前記表示されたメディア・コンテンツ内に提示された前記物品を実質的になぞる動きを含む、媒体。
  13. ユーザー・デバイスであって、
    プロセッサーと、
    前記プロセッサーに通信可能に結合されたメモリーと、
    ユーザーにメディア・コンテンツを表示するように構成された表示画面であって、リモート・ユーザー・デバイスに関連する他のユーザーが、前記ユーザーに表示された同じメディア・コンテンツ内に提示された物品に対する興味を示したことの指示を表示し、前記指示が、前記メディア・コンテンツが前記ユーザーによって見られているときに表示される、表示画面と、
    を含む、ユーザー・デバイス。
  14. 請求項13記載のユーザー・デバイスであって、更に、
    前記ユーザー・デバイスが、リモート・デバイスに関連する他のユーザーが前記メディア・コンテンツ内に提示された物品に対する興味を示したことの指示を表示することを可能にする機能イネーブル・コンポーネントを含む、ユーザー・デバイス。
  15. 請求項14記載のユーザー・デバイスにおいて、第三者による興味のある物品を見る指示を前記ユーザーから受けたことに基づいて、リモート・デバイスに関連する他のユーザーが,前記メディア・コンテンツ内に提示された物品に対して興味を示したことの指示を表示するために、前記ユーザー・デバイスがイネーブルされる、ユーザー・デバイス。
JP2014547270A 2011-12-13 2012-12-04 関連コンテンツを見るためのジェスチャー・ベースのタグ付け Withdrawn JP2015505398A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/324,435 US9646313B2 (en) 2011-12-13 2011-12-13 Gesture-based tagging to view related content
US13/324,435 2011-12-13
PCT/US2012/067663 WO2013090046A1 (en) 2011-12-13 2012-12-04 Gesture-based tagging to view related content

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017080394A Division JP6363758B2 (ja) 2011-12-13 2017-04-14 関連コンテンツを見るためのジェスチャー・ベースのタグ付け

Publications (2)

Publication Number Publication Date
JP2015505398A true JP2015505398A (ja) 2015-02-19
JP2015505398A5 JP2015505398A5 (ja) 2016-01-28

Family

ID=47928197

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014547270A Withdrawn JP2015505398A (ja) 2011-12-13 2012-12-04 関連コンテンツを見るためのジェスチャー・ベースのタグ付け
JP2017080394A Active JP6363758B2 (ja) 2011-12-13 2017-04-14 関連コンテンツを見るためのジェスチャー・ベースのタグ付け

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017080394A Active JP6363758B2 (ja) 2011-12-13 2017-04-14 関連コンテンツを見るためのジェスチャー・ベースのタグ付け

Country Status (8)

Country Link
US (1) US9646313B2 (ja)
EP (1) EP2791761B1 (ja)
JP (2) JP2015505398A (ja)
KR (1) KR102033189B1 (ja)
CN (1) CN102999630B (ja)
ES (1) ES2743910T3 (ja)
TW (1) TWI573042B (ja)
WO (1) WO2013090046A1 (ja)

Families Citing this family (189)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20130334300A1 (en) * 2011-01-03 2013-12-19 Curt Evans Text-synchronized media utilization and manipulation based on an embedded barcode
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8840013B2 (en) 2011-12-06 2014-09-23 autoGraph, Inc. Consumer self-profiling GUI, analysis and rapid information presentation tools
WO2012170589A1 (en) 2011-06-06 2012-12-13 Nfluence Media, Inc. Consumer driven advertising system
US9883326B2 (en) 2011-06-06 2018-01-30 autoGraph, Inc. Beacon based privacy centric network communication, sharing, relevancy tools and other tools
US8825763B2 (en) * 2011-12-09 2014-09-02 Facebook, Inc. Bookmarking social networking system content
US20130201161A1 (en) * 2012-02-03 2013-08-08 John E. Dolan Methods, Systems and Apparatus for Digital-Marking-Surface Content-Unit Manipulation
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
WO2014028060A1 (en) * 2012-08-15 2014-02-20 Brian Roundtree Tools for interest-graph driven personalization
KR20140038577A (ko) * 2012-09-11 2014-03-31 한국과학기술연구원 메타데이터를 이용한 콘텐츠 추천
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US10540515B2 (en) 2012-11-09 2020-01-21 autoGraph, Inc. Consumer and brand owner data management tools and consumer privacy tools
US20140157158A1 (en) * 2012-12-03 2014-06-05 Martin Camins System and method for visually identifying user preferences
US9483518B2 (en) * 2012-12-18 2016-11-01 Microsoft Technology Licensing, Llc Queryless search based on context
DE112014000709B4 (de) 2013-02-07 2021-12-30 Apple Inc. Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten
KR102111769B1 (ko) * 2013-02-08 2020-06-08 삼성전자주식회사 추천 패널 제공 방법 및 이를 위한 디바이스, 추천 아이템 제공 방법 및 이를 위한 서버
US9881058B1 (en) * 2013-03-14 2018-01-30 Google Inc. Methods, systems, and media for displaying information related to displayed content upon detection of user attention
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10546352B2 (en) * 2013-03-14 2020-01-28 Facebook, Inc. Method for selectively advertising items in an image
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9635404B2 (en) 2013-04-24 2017-04-25 The Nielsen Company (Us), Llc Methods and apparatus to correlate census measurement data with panel data
EP2997505A4 (en) 2013-05-16 2016-12-07 Nfluence Media Inc TOOLS FOR MANAGING SENSITIVE PERSONAL DATA
US9672259B2 (en) * 2013-05-29 2017-06-06 Ebay Inc. Methods and systems to refine search information
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
KR101749009B1 (ko) 2013-08-06 2017-06-19 애플 인크. 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화
CN103440307B (zh) * 2013-08-23 2017-05-24 北京智谷睿拓技术服务有限公司 媒体信息提供方法及装置
KR20150032101A (ko) * 2013-09-17 2015-03-25 삼성전자주식회사 영상표시장치 및 영상표시방법
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
CN103679512B (zh) * 2013-12-19 2017-06-16 深圳市宇恒互动科技开发有限公司 根据用户需求推送广告的可分离控制系统与装置
US10067341B1 (en) 2014-02-04 2018-09-04 Intelligent Technologies International, Inc. Enhanced heads-up display system
EP3123751B1 (en) 2014-03-28 2019-11-06 AutoGraph, Inc. Beacon based privacy centric network communication, sharing, relevancy tools and other tools
KR101598601B1 (ko) * 2014-05-14 2016-03-02 전자부품연구원 상황 기반 서비스 지원 기술
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
AU2015266863B2 (en) 2014-05-30 2018-03-15 Apple Inc. Multi-command single utterance input method
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP2016053880A (ja) * 2014-09-04 2016-04-14 株式会社ランディード 車載システム、情報処理方法、およびコンピュータプログラム
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US20160150038A1 (en) * 2014-11-26 2016-05-26 Microsoft Technology Licensing, Llc. Efficiently Discovering and Surfacing Content Attributes
US10222942B1 (en) * 2015-01-22 2019-03-05 Clarifai, Inc. User interface for context labeling of multimedia items
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9826359B2 (en) 2015-05-01 2017-11-21 The Nielsen Company (Us), Llc Methods and apparatus to associate geographic locations with user devices
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) * 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US11328590B2 (en) * 2015-10-29 2022-05-10 InterNetwork Media, LLC System and method for internet radio automatic content management
CN106658202A (zh) * 2015-10-30 2017-05-10 中国移动通信集团公司 一种触发互动应用的方法和设备
KR102447907B1 (ko) * 2015-11-05 2022-09-28 삼성전자주식회사 추천 객체를 제공하기 위한 전자 장치 및 방법
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
CN107168599B (zh) * 2016-03-07 2020-05-29 阿里巴巴集团控股有限公司 一种即时通信方法和装置
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10719193B2 (en) 2016-04-20 2020-07-21 Microsoft Technology Licensing, Llc Augmenting search with three-dimensional representations
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
JP7026056B2 (ja) * 2016-06-28 2022-02-25 インテル・コーポレーション ジェスチャ埋め込みビデオ
US10101820B2 (en) 2016-07-21 2018-10-16 International Business Machines Corporation Automated learning and gesture based interest processing
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10432559B2 (en) * 2016-10-24 2019-10-01 Snap Inc. Generating and displaying customized avatars in electronic messages
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
KR20190012695A (ko) * 2017-07-28 2019-02-11 양재혁 태그 컨텐츠를 포함하는 정보를 공유하는 광고 방법 및 시스템
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10878047B1 (en) * 2017-09-22 2020-12-29 Amazon Technologies, Inc. Content generation framework
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
EP3731073A4 (en) * 2017-12-22 2021-02-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP6726694B2 (ja) * 2017-12-26 2020-07-22 ユニ・チャーム株式会社 情報収集プログラム、情報通信端末、及び情報収集方法
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11698927B2 (en) 2018-05-16 2023-07-11 Sony Interactive Entertainment LLC Contextual digital media processing systems and methods
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11076039B2 (en) 2018-06-03 2021-07-27 Apple Inc. Accelerated task performance
CN108694629A (zh) * 2018-08-24 2018-10-23 深圳艺达文化传媒有限公司 电梯广告的播放推荐方法及相关产品
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11043220B1 (en) 2020-05-11 2021-06-22 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
JP2023138873A (ja) * 2020-08-21 2023-10-03 ソニーグループ株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP7253526B2 (ja) * 2020-12-24 2023-04-06 楽天グループ株式会社 情報通信システム、及び情報通信方法
JP7189980B2 (ja) * 2021-02-12 2022-12-14 楽天グループ株式会社 情報通信システム、及び情報通信方法
US11778277B1 (en) * 2021-06-11 2023-10-03 Amazon Technologies, Inc. Digital item processing for video streams
TWI824842B (zh) * 2022-11-23 2023-12-01 國立澎湖科技大學 基於ai邊緣運算之手寫文字教學系統及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008125794A1 (en) * 2007-04-14 2008-10-23 Carl Livesey Product information display and purchasing
JP2010039592A (ja) * 2008-08-01 2010-02-18 Fujifilm Corp 商品購入/販売システムならびにそのシステムを構成する商品販売サーバおよびその動作制御方法
WO2010141939A1 (en) * 2009-06-05 2010-12-09 Mozaik Multimedia, Inc. Ecosystem for smart content tagging and interaction

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835713A (en) 1993-03-19 1998-11-10 Ncr Corporation Remote collaboration system for selectively locking the display at remote computers to prevent annotation of the display by users of the remote computers
US5687254A (en) * 1994-06-06 1997-11-11 Xerox Corporation Searching and Matching unrecognized handwriting
US8429005B2 (en) 1999-09-23 2013-04-23 Activ8Now, Llc Method for determining effectiveness of display of objects in advertising images
US6616533B1 (en) 2000-05-31 2003-09-09 Intel Corporation Providing advertising with video games
JP2005018436A (ja) * 2003-06-26 2005-01-20 Toppan Printing Co Ltd 情報提供システム、情報提供装置、および情報提供方法、並びに情報提供プログラム
US20060136406A1 (en) 2004-12-17 2006-06-22 Erika Reponen Spatial search and selection feature
JP5079520B2 (ja) 2005-01-05 2012-11-21 ヤフー! インコーポレイテッド テレビジョン環境において複数のコンテンツを配送し且つそれとの対話を与えるためのフレームワーク
US7774703B2 (en) 2006-02-09 2010-08-10 Microsoft Corporation Virtual shadow awareness for multi-user editors
US20080005074A1 (en) 2006-06-28 2008-01-03 Microsoft Corporation Search over designated content
US8656282B2 (en) 2007-01-31 2014-02-18 Fall Front Wireless Ny, Llc Authoring tool for providing tags associated with items in a video playback
US10003781B2 (en) 2006-08-04 2018-06-19 Gula Consulting Limited Liability Company Displaying tags associated with items in a video playback
US20080091548A1 (en) 2006-09-29 2008-04-17 Kotas Paul A Tag-Driven Concept-Centric Electronic Marketplace
US20080126191A1 (en) 2006-11-08 2008-05-29 Richard Schiavi System and method for tagging, searching for, and presenting items contained within video media assets
US20090119572A1 (en) * 2007-11-02 2009-05-07 Marja-Riitta Koivunen Systems and methods for finding information resources
US20090182644A1 (en) 2008-01-16 2009-07-16 Nicholas Panagopulos Systems and methods for content tagging, content viewing and associated transactions
US9870130B2 (en) 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
US20100009662A1 (en) * 2008-06-20 2010-01-14 Microsoft Corporation Delaying interaction with points of interest discovered based on directional device information
US9269090B2 (en) 2008-08-18 2016-02-23 Nokia Technologies Oy Method, apparatus and computer program product for providing indications regarding recommended content
US20100289753A1 (en) 2009-05-14 2010-11-18 Microsoft Corporation Adjusting organization of media content on display
US8856691B2 (en) * 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
KR101660271B1 (ko) * 2009-08-21 2016-10-11 삼성전자주식회사 메타데이터 태깅 시스템, 이미지 검색 방법, 디바이스 및 이에 적용되는 제스처 태깅방법
US9407973B2 (en) 2009-12-02 2016-08-02 At&T Intellectual Property I, L.P. System and method to identify an item depicted when media content is displayed
US9838744B2 (en) 2009-12-03 2017-12-05 Armin Moehrle Automated process for segmenting and classifying video objects and auctioning rights to interactive sharable video objects
EP2519866B1 (en) 2009-12-28 2018-08-29 Google Technology Holdings LLC Methods for associating objects on a touch screen using input gestures
KR101647044B1 (ko) * 2010-02-11 2016-08-09 삼성전자 주식회사 휴대 단말기의 화면 표시 방법 및 장치
US20110202603A1 (en) 2010-02-12 2011-08-18 Nokia Corporation Method and apparatus for providing object based media mixing
IT1399695B1 (it) 2010-04-14 2013-04-26 Sisvel Technology Srl Metodo per visualizzare un flusso video secondo un formato personalizzato.
US8379098B2 (en) * 2010-04-21 2013-02-19 Apple Inc. Real time video process control using gestures
US9471700B2 (en) * 2010-05-18 2016-10-18 Tksn Holdings, Llc System and method for monitoring changes in databases and websites
TWM392404U (en) 2010-06-01 2010-11-11 Univ Nat Taipei Technology Hand gesture control system
US8416189B2 (en) * 2010-06-04 2013-04-09 Acer Incorporated Manual human machine interface operation system and method thereof
US20120131454A1 (en) * 2010-11-24 2012-05-24 Siddharth Shah Activating an advertisement by performing gestures on the advertisement
US8179604B1 (en) * 2011-07-13 2012-05-15 Google Inc. Wearable marker for passive interaction
US8306977B1 (en) * 2011-10-31 2012-11-06 Google Inc. Method and system for tagging of content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008125794A1 (en) * 2007-04-14 2008-10-23 Carl Livesey Product information display and purchasing
JP2010524110A (ja) * 2007-04-14 2010-07-15 リヴゼイ カール 商品情報のディスプレイ表示及び購買
JP2010039592A (ja) * 2008-08-01 2010-02-18 Fujifilm Corp 商品購入/販売システムならびにそのシステムを構成する商品販売サーバおよびその動作制御方法
WO2010141939A1 (en) * 2009-06-05 2010-12-09 Mozaik Multimedia, Inc. Ecosystem for smart content tagging and interaction

Also Published As

Publication number Publication date
KR20140107253A (ko) 2014-09-04
CN102999630A (zh) 2013-03-27
CN102999630B (zh) 2016-08-03
JP2017142846A (ja) 2017-08-17
US20130151339A1 (en) 2013-06-13
EP2791761A1 (en) 2014-10-22
TWI573042B (zh) 2017-03-01
ES2743910T3 (es) 2020-02-21
US9646313B2 (en) 2017-05-09
EP2791761A4 (en) 2015-09-16
WO2013090046A1 (en) 2013-06-20
TW201337642A (zh) 2013-09-16
KR102033189B1 (ko) 2019-11-08
EP2791761B1 (en) 2019-07-24
JP6363758B2 (ja) 2018-07-25

Similar Documents

Publication Publication Date Title
JP6363758B2 (ja) 関連コンテンツを見るためのジェスチャー・ベースのタグ付け
US9977835B2 (en) Queryless search based on context
US20200183966A1 (en) Creating Real-Time Association Interaction Throughout Digital Media
US11112867B2 (en) Surfacing related content based on user interaction with currently presented content
US10484745B2 (en) Computerized system and method for determining media based on selected motion video inputs
US9338242B1 (en) Processes for generating content sharing recommendations
US20170303010A1 (en) Methods and apparatus for enhancing a digital content experience
US20130268513A1 (en) Annotations based on hierarchical categories and groups
US9535945B2 (en) Intent based search results associated with a modular search object framework
US20120323704A1 (en) Enhanced world wide web-based communications
US20120209841A1 (en) Bookmarking segments of content
US20120260158A1 (en) Enhanced World Wide Web-Based Communications
US20170220591A1 (en) Modular search object framework
US9594540B1 (en) Techniques for providing item information by expanding item facets
EP2940607A1 (en) Enhanced search results associated with a modular search object framework
CN112384912A (zh) 用户创建内容推荐和搜索
WO2016127248A1 (en) Methods and systems relating to ratings and advertising content delivery
JP7486257B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230032373A1 (en) Video stream interface based on third-party webpage information
TW201610751A (zh) 多媒體介面成像方法、系統及可穿戴式裝置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170414

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170424

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20170501