JP2019036837A - オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム - Google Patents

オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム Download PDF

Info

Publication number
JP2019036837A
JP2019036837A JP2017156719A JP2017156719A JP2019036837A JP 2019036837 A JP2019036837 A JP 2019036837A JP 2017156719 A JP2017156719 A JP 2017156719A JP 2017156719 A JP2017156719 A JP 2017156719A JP 2019036837 A JP2019036837 A JP 2019036837A
Authority
JP
Japan
Prior art keywords
user
content
identification information
information
viewing data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017156719A
Other languages
English (en)
Inventor
聖泰 安藤
Kiyoyasu Ando
聖泰 安藤
謙一郎 田中
Kenichiro Tanaka
謙一郎 田中
大地 森藤
Daichi Morifuji
大地 森藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haroid
Haroid Inc
Original Assignee
Haroid
Haroid Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haroid, Haroid Inc filed Critical Haroid
Priority to JP2017156719A priority Critical patent/JP2019036837A/ja
Publication of JP2019036837A publication Critical patent/JP2019036837A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】本発明は、アシスタントデバイスを用いたサービスにおいて、端末で視聴されるコンテンツで表示、紹介されている又は関連付けられている商品やサービス等のオブジェクトを正確に特定することができる技術を提供することにある。
【解決手段】ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録する視聴データ記録部と、ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得し、コンテンツ視聴データと時刻情報とコンテンツのメタデータとに基づいて、時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定するオブジェクト特定部と、オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報を、ユーザと関連付けて記録するオブジェクト情報記録部とを有するオブジェクト特定装置である。
【選択図】図1

Description

本発明はオブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラムに関し、特に、コンテンツで表示、紹介された又は関連付けられた商品又はサービス等のオブジェクトのうち、ユーザが興味を持った商品又はサービス等のオブジェクトを特定して記録するオブジェクト特定システム、オブジェクト特定方法及びプログラムに関する。
特許文献1には、以下の技術が記載されている。家庭内に設置され、マイクロフォン等でユーザの音声を取得するアシスタントデバイスなるものがある。アシスタントデバイスは、ユーザからの口頭のコマンドを受信し、これをクラウドに送信し、コマンドに基づきオペレーションを行うように構成される。例えば、ユーザは食料品の注文を口頭ですると、この口頭による注文は音声認識機能を用いて解釈され、解釈が終了すると、配達のために食料品店に送信されるか、または単にユーザが食料品店で買い物時にスマートフォンで見ることができる買い物リストとして記録される。
公表特許公報2014−507030号
しかし、アシスタントデバイスによる音声等の取得だけでは、端末で視聴されるコンテンツで表示、紹介された又は関連付けられた商品やサービス等を正確に特定することはできなかった。
そこで、本発明は、アシスタントデバイスを用いたサービスにおいて、端末で視聴されるコンテンツで表示、紹介された又は関連付けられた商品やサービス等のオブジェクトのうち、ユーザが興味を持った商品又はサービス等のオブジェクトを正確に特定することができるオブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラムを提供することにある。
本発明の一態様は、ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録する視聴データ記録部と、前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得し、前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定するオブジェクト特定部と、前記オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録するオブジェクト情報記録部とを有するオブジェクト特定装置である。
本発明の一態様は、コンテンツを視聴するコンテンツ視聴端末を識別するコンテンツ視聴端末識別情報と、ユーザを識別する第1のユーザ識別情報とが関連付けられて記憶されている第1のデータベースと、アシスタントデバイスを識別するアシスタントデバイス識別情報又は第2のユーザ識別情報と、前記第1のユーザ識別情報とが関連付けられて記憶されている第2のデータベースと、前記アシスタントデバイスから送信されるコマンドデータと、アシスタントデバイス識別情報又は第2のユーザ識別情報を受信し、前記コマンドデータに基づいて前記アシスタントデバイスにユーザより与えられたユーザコマンドを識別し、前記ユーザコマンドをトリガとして時刻情報を取得し、前記アシスタントデバイス識別情報又は第2のユーザ識別情報に関連付けられている第1のユーザ識別情報を第2のデータベースから取得し、前記時刻情報と前記第1のユーザ識別情報とを関連付けて送信するサービス処理部と、前記コンテンツ視聴端末に表示されているコンテンツを視聴しているユーザのコンテンツ視聴データと、前記コンテンツ視聴端末のコンテンツ視聴端末識別情報とを取得し、取得したコンテンツ視聴端末識別情報に関連付けられている第1のユーザ識別情報を前記第1のデータベースから取得し、取得した第1のユーザ識別情報とコンテンツ視聴データとを関連付けて記録する視聴データ記録部と、前記サービス処理部から前記第1のユーザ識別情報及び前記時刻情報を受信し、前記第1のユーザ識別情報に関連付けられているコンテンツ視聴データを前記視聴データ記録部から取得し、前記第1のユーザ識別情報に関連付けられているコンテンツ視聴データ及び時刻情報と、コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定するオブジェクト特定部と、前記オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報と前記第1のユーザ識別情報とを関連付けて記録するオブジェクト情報記録部とを有するオブジェクト特定システムである。
本発明の一態様は、ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録し、前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得し、前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定し、前記特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録するオブジェクト特定方法である。
本発明の一態様は、ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録する処理と、前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得する処理と、前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定する処理と、前記特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録する処理とをコンピュータに実行させるプログラムである。
本発明は、アシスタントデバイスを用いたサービスにおいて、端末等で視聴されるコンテンツで表示紹介された又は関連付けられた商品やサービス等のオブジェクトのうち、ユーザが興味を持った商品又はサービス等のオブジェクトを正確に特定することができる。
図1は本発明の実施の形態におけるオブジェクト特定システムの概略構成図である。 図2はオブジェクト特定システムの具体的な実施の形態の概略構成図である。 図3はアシスタント処理装置30のブロック図である。 図4はアシスタント側ユーザ識別情報データベース306の一例を示した図である。 図5はオブジェクト特定装置40のブロック図である。 図6は、オブジェクト特定側ユーザ識別情報データベース406の一例を示す図である。 図7は視聴データ記録部407の一例を示す図である。 図8は、テレビメタデータデータベース408の一例を示す図である。 図9はオブジェクト情報記録部409の一例を示す図である。 図10は各装置間のシーケンス図である。 図11は本実施の形態の動作を説明するための図である。 図12はアシスタント処理装置30で行われるサービス実行処理(S4)のフローチャートである。 図13はオブジェクト特定装置40で行われるオブジェクト特定処理(S5)のフローチャートである。 図14はユーザが閲覧することができるオブジェクト情報の一例を示した図である。
本発明の実施の形態を説明する。
図1は本発明の実施の形態におけるオブジェクト特定システムの概略構成図である。
本実施の形態のオブジェクト特定システムは、コンテンツ視聴端末1と、アシスタントデバイス2と、アシスタント処理装置3と、オブジェクト特定装置4とを備える。
コンテンツ視聴端末1は、コンテンツを視聴する端末であり、例えば、据え置き型テレビ受信機、スマートフォン、ヘッドマウントディスプレイ等がある。また、コンテンツの代表的な例として、放送局から放送される放送番組があるが、放送番組に限られない。例えば、ビデオオンデマンド(VOD)によるビデオコンテンツ、ラジオ放送によるラジオ番組などでもよい。また、番組は、ドラマ、バラエティー番組、紹介番組等だけでなく、宣伝(コマーシャル:CM)番組も含む。
アシスタントデバイス2は、アシスタント処理装置3と連携し、ユーザAからの所定のユーザコマンドをトリガとして、ユーザAの質問又は要求等に対する回答やコンテンツの提供を行うものである。アシスタントデバイス2は、アシスタントスピーカとも呼ばれ、代表的な例としては、”Amazon Echo”や、”Google Home”等がある。
ユーザコマンドの代表的なものとして、音声によるコマンドがある。例えば、「AAA」という用語をユーザコマンドと規定し、ユーザAが「AAA」と発話し、「AAA」を検出した場合、その後に続く、ユーザAの質問又は要求等に対する回答やコンテンツの提供を行う。但し、ユーザコマンドは、音声に限ることなく、ユーザのジェスチャ(動作)や、物理的なスイッチの押下等でも良い。
アシスタントデバイス2は、通常、音声を集音するマイクや、音声を出力するスピーカ、集音した音声をネットワークに送信したり、また、ネットワークからデータを受信する送受信部等を有するが、アシスタントデバイス2自体は、データの解析等の処理機能は有しておらず、データの解析等の処理機能はアシスタント処理装置3が行われる場合が多い。但し、これに限定するものではなく、データの解析等の処理機能を有するスマートフォン等でも良いことはいうまでもない。
更に、アシスタントデバイス2が有するのはマイクに限らず、ユーザや周囲を撮影することができるカメラを有していても良い。また、アシスタントデバイス2は、コンテンツ視聴端末1に内蔵されていても良い。
アシスタント処理装置3はサービス処理部31を有する。サービス処理部31はアシスタントデバイス2から送信されてきた音声を、テキスト等に変換し、変換したテキスト等に対するサービス処理を実行する機能を有する。本実施の形態では、サービス処理部31は、アシスタントデバイス2から送信されてきた音声をテキストに変換し、変換したテキストが所定のユーザコマンド、例えば、予め定められた用語(「HHHGO、これ欲しい」等)である場合、そのユーザコマンドをトリガにして、ユーザコマンドの識別時の時刻情報を取得する。そして、ユーザAを識別する情報とともに、時刻情報を、オブジェクト特定装置4に送信する。尚、時刻情報は、ユーザコマンドの識別時と同一時刻に限られるわけではなく、本発明の趣旨を逸脱しない範囲で、時刻情報を取得するタイミングを定めればよい。
オブジェクト特定装置4は、ユーザAがコンテンツ視聴端末1により、コンテンツを視聴中に、アシスタントデバイス2に対して所定のユーザコマンドを与えた時、コンテンツのシーンに表示、紹介されている又は関連付けられているオブジェクトを特定し、そのオブジェクトのオブジェクト情報をユーザAに関連付けて記録する機能を有する。ここで、オブジェクトとは、ユーザが興味を持った対象であり、例えば、商品又はサービス等が代表的な例であるが、これに限られない。
オブジェクト特定装置4は、視聴データ記録部41と、オブジェクト特定部42と、オブジェクト情報記録部43とを備える。
視聴データ記録部41は、ユーザAがコンテンツ視聴端末1により視聴しているコンテンツの視聴データ(例えば、視聴履歴)を取得して記録する。記録される視聴データは、少なくとも、視聴しているコンテンツの識別情報、コンテンツの視聴の開始、コンテンツの視聴継続又は終了時刻の情報があれば良いが、他の視聴の情報を記録しても良い。取得した視聴データは、ユーザAと関連付けられて記録される。尚、視聴データ記録の方法は、データ放送、ハイブリットキャスト等のプログラムによるインターネットを介しての双方通信による方法があるが、これに限られない。視聴データを記録することが出来る手法であれば良い。
オブジェクト特定部42は、アシスタント処理装置3から送信されるユーザAを識別する情報及び時刻情報を受信する。そして、そのユーザAの視聴データを視聴データ記録部41から取得する。取得したユーザAの視聴データから対応するコンテンツのメタデータを特定する。特定したメタデーと、アシスタント処理装置3から受信したユーザAの時刻情報とを突合し、その時刻情報で特定される時刻のシーンに表示、紹介されていた又は関連付けられたオブジェクトを特定する。すなわち、コンテンツに表示、コンテンツで紹介されていた又は関連付けられたオブジェクトのうち、ユーザAが興味を持って所定のユーザコマンドを発した時のオブジェクトを特定するのである。
ここで、コンテンツのメタデータは、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、OA内容番組ID、番組名、放送局ID、OA日、OA曜日、番組ジャンル等の番組の基本情報である番組基本情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、紹介商品名、販売店舗名、紹介商品等の番組で紹介された商品に関する紹介商品情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、紹介店舗名、取扱商品、店舗住所等の番組で紹介された店舗に関する紹介店舗情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、場所、リゾート、温泉などのキーワードから成るリゾート情報から構成される。OA内容のヘッドラインには出演者も含まれる。
オブジェクト情報記録部43は、オブジェクト特定部42で特定されたオブジェクトのオブジェクト情報を、ユーザAと関連付けて記録する。オブジェクト情報は、特定されたオブジェクトの名称(例えば、商品名、サービス名)、販売店等があるが、これらに限られない。オブジェクト情報は、上記のコンテンツのメタデータから取得できるものであれば良い。
上述したアシスタント処理装置3及びオブジェクト特定装置4が各動作を行うためには、ユーザAと、コンテンツ視聴端末1と、アシスタントデバイス2とが直接又は間接的に関連付けられている必要がある。ユーザAと、コンテンツ視聴端末1と、アシスタントデバイス2とを直接又は間接的に関連付ける方法として、ユーザAとコンテンツ視聴端末1とアシスタントデバイス2とに同一の識別情報を付与する方法がある。また、ユーザAとコンテンツ視聴端末1とアシスタントデバイス2とに異なる識別情報を付与し、その関連付けの情報(例えば、識別情報の関連付けのデータベース)を介して互いに関連付ける方法でも良い。また、ユーザAと、コンテンツ視聴端末1と、アシスタントデバイス2とに異なる識別情報を与え、それらの識別情報を他のキーとなる識別情報に関連付ける方法でも良い。すなわち、何らかの方法で、ユーザAと、コンテンツ視聴端末1と、アシスタントデバイス2とが互いに関連付けられていれば良い。また、ユーザA、コンテンツ視聴端末1及びアシスタントデバイス2を識別する各識別情報は、ユーザIDのようにユーザが能動的にログインする識別情報のみならず、例えばIPアドレスのように、ユーザにとって能動的ではないが、個々を識別できる識別情報も含む概念である。
このように、構成することにより、アシスタントデバイスを用いたサービスにおいて、端末で視聴されるコンテンツで表示、紹介され又は関連付けられている商品やサービス等のオブジェクトのうち、ユーザが興味を持った商品やサービス等のオブジェクトを正確に特定することができる。
更に、上記構成において、ユーザAが、オブジェクト情報記録部43に記録されているオブジェクト情報を閲覧することができるように、オブジェクト情報提示部を設けても良い。オブジェクト情報提示部は、記録されているオブジェクト情報を提示することができれば、アシスタント処理装置3又はオブジェクト特定装置4のいずれに設置されていても良い。
次に、具体的な実施の形態を説明する。
図2は、オブジェクト特定システムの具体的な実施の形態の概略構成図である。
以下の具体的な実施の形態では、コンテンツ視聴端末をテレビ受信機とし、オブジェクトを商品又はサービスとする例を説明する。
本実施の形態のオブジェクト特定システムは、テレビ受信機10と、アシスタントデバイス20と、アシスタント処理装置30と、オブジェクト特定装置40とを備える。
テレビ受信機10は、放送局から放送されるデータ放送を含むデジタルテレビジョン信号を受信し、放送番組を表示する。また、データ放送も受信することができ、データ放送による双方向通信機能により、オブジェクト特定装置40と情報の送受信が可能である。尚、本例では、双方向通信機能として、データ放送の例を説明するが、これに限られず、例えば、ハイブリットキャスト等の他の方法でも良い。
テレビ受信機10はオブジェクト特定装置40が保持する第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と関連付けするために、テレビ受信機10にはテレビ受信機識別情報が付与される。第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)とテレビ受信機識別情報との関連付けについては後述する。
アシスタントデバイス20は、アシスタント処理装置30と連携し、ユーザAからの所定のユーザコマンドをトリガとして、ユーザAの質問又は要求等に対する回答やコンテンツの提供を行うものである。アシスタントデバイス20は、種々の機能を有するものがあるが、本実施の形態では、音声を集音するマイク、音声を出力するスピーカ、集音した音声信号をネットワークに送信したり、また、ネットワークからデータを受信する送受信部等を有する機能を持ち、ユーザAの指示に対する具体的な処理はアシスタント処理装置30が行う例を説明する。
アシスタント処理装置30は、アシスタントデバイス20から送信されてきた音声を、テキスト等に変換し、変換したテキスト等に対する処理を実行する機能を有する。そして、アシスタント処理装置30は、図3に示す如く、プロセッサ300、メモリ(ROMやRAM)301、記憶装置(ハードディスク、半導体ディスクなど)302、入力装置(キーボード、マウス、タッチパネルなど)303、表示装置304、通信装置305、アシスタント側ユーザ識別情報データベース306などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
アシスタント側ユーザ識別情報データベース306は、上述したオブジェクト特定装置40が保持する第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と、アシスタント側のサービスで用いられる第2のユーザ識別情報(アシスタント側ユーザ識別情報)との関連付けが記憶されているデータベースである。第1のユーザ識別情報と第2のユーザ識別情報とは、基本的に同一のユーザ(例えば、ユーザA)に付与される識別情報である。また、第2のユーザ識別情報は、アシスタントデバイス20を識別する識別情報としても利用される。第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と、第2のユーザ識別情報(アシスタント側ユーザ識別情報)との関連付ける方法であるが、一例として、サービス利用時に、後述するように、ユーザ登録されて第1のユーザ識別情報が発行されるタイミングで、オブジェクト特定装置40から第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と、第2のユーザ識別情報(アシスタント側ユーザ識別情報)との関連付けの情報を得ることで、アシスタント側ユーザ識別情報データベース306を作成することができる。図4は、アシスタント側ユーザ識別情報データベース306の一例を示した図である。図4では、例えば、第1のユーザ識別情報“H100”と第2のユーザ識別情報“A200”とが関連付けられている。
尚、アシスタント側ユーザ識別情報データベース306は、アシスタント処理装置30が備えていても良いが、アシスタント処理装置30と物理的に外部に設けられ、LANを介してアシスタント処理装置30と接続されていても良い。
アシスタント処理装置30は、記憶装置302に格納されたプログラムがメモリ301にロードされ、プロセッサ300によりプログラムが実行されることにより、送受信処理と、認識処理と、判定処理と、サービス実行処理とが実現されるものである。
送受信処理は、アシスタントデバイス20、又は、オブジェクト特定装置40との間で情報の送受信を行う処理である。
認識処理は、アシスタントデバイス20から送信された音声に対して音声認識処理を行い、テキストに変換する処理である。
判定処理は、認識処理により変換されたテキストを用いて、所定のユーザコマンドであるかを判定する処理である。ユーザコマンドは、予め登録されており、いずれのユーザコマンドに該当するかを判定、検出する。本実施の形態では、ユーザコマンドのひとつとして、「HHHGO、これ欲しい」が登録されているものとする。
サービス実行処理は、判定処理により、所定のユーザコマンドが検出された場合、そのユーザコマンドに対応したサービスを実行する処理である。本実施の形態では、判定処理において、ユーザコマンド「HHHGO、これ欲しい」が検出された場合、その検出時の時刻情報を取得する。更に、「HHHGO、これ欲しい」を送信したアシスタントデバイス20に付与されている第2のユーザ識別情報に関連付けられている第1のユーザ識別情報を、アシスタント側ユーザ識別情報データベース306から検索し、検索した第1のユーザ識別情報及び取得した時刻情報を、オブジェクト特定装置40に送信する処理を実行する。尚、サービス実行処理が行うサービスは、前述した時刻情報の取得等のサービスに限らず、他のユーザコマンドに対応したサービスを実行してもかまわない。
オブジェクト特定装置40は、ユーザAがテレビ受信機10により、テレビ放送番組を視聴中に、アシスタントデバイス20に対して所定のユーザコマンドを与えた時、テレビ放送番組のシーンに表示、紹介されている又は関連付けられている商品又はサービスを特定し、商品又はサービスの情報をユーザAに関連付けて記録する機能を有する。
オブジェクト特定装置40は、図5に示す如く、プロセッサ400、メモリ(ROMやRAM)401、記憶装置(ハードディスク、半導体ディスクなど)402、入力装置(キーボード、マウス、タッチパネルなど)403、表示装置404、通信装置405、オブジェクト特定側ユーザ識別情報データベース406、視聴データ記録部407と、テレビメタデータデータベース408と、オブジェクト情報記録部409などのハードウェア資源を有する汎用のコンピュータにより構成することができる。
尚、オブジェクト特定側ユーザ識別情報データベース406と、視聴データ記録部407と、テレビメタデータデータベース408と、オブジェクト情報記録部409とは、オブジェクト特定装置40が備えていても良いが、オブジェクト特定装置40と物理的に外部に設けられ、LANを介してオブジェクト特定装置40と接続されていても良い。また、オブジェクト特定側ユーザ識別情報データベース406と、視聴データ記録部407と、テレビメタデータデータベース408と、オブジェクト情報記録部409との一部又は全部は、一体に構成されていても良い。
まず、オブジェクト特定側ユーザ識別情報データベース406と、視聴データ記録部407と、テレビメタデータデータベース408と、オブジェクト情報記録部409について説明する。
オブジェクト特定側ユーザ識別情報データベース406は、テレビ受信機10のテレビ受信機識別情報と、第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と、第2のユーザ識別情報(オブジェクト特定側ユーザ識別情報)とが関連付けて記憶されたデータベースである。図6は、オブジェクト特定側ユーザ識別情報データベース406の一例を示す図である。図6では、例えば、第1のユーザ識別情報“H100”と第2のユーザ識別情報“A200”と、テレビ受信機識別情報“TV100”とが関連付けられている。
視聴データ記録部407は、第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)と、視聴データとが関連付けて記憶されたデータベースである。視聴データは、番組ID(番組識別情報)、その番組の視聴を開始した開始時刻と、その番組の視聴継続中又は視聴を終了した終了時刻とが、少なくとも記録されるが、他の情報を含んでも良い。図7は、視聴データ記録部407の一例を示す図である。図7では、例えば、第1のユーザ識別情報“H100”と、番組ID(番組識別情報)、その番組の視聴を開始した開始時刻、その番組の視聴継続中又その番組の視聴を終了した終了時刻とが関連付けられている。
テレビメタデータデータベース408は、放送番組のメタデータである。このメタデータは、放送局から直接入力されても良いし、サーバから入力されるようにしても良い。図8は、テレビメタデータデータベース408の一例を示す図である。蓄積されるメタデータは、例えば、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、OA内容番組ID、番組名、放送局ID、OA日、OA曜日、番組ジャンル等の番組の基本情報である番組基本情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、紹介商品名、販売店舗名、紹介商品等の番組で紹介された商品に関する紹介商品情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、紹介店舗名、取扱商品、店舗住所等の番組で紹介された店舗に関する紹介店舗情報と、シーンID、OA開始時刻、OA終了時刻、シーン分類、OA内容のヘッドライン、場所、リゾート、温泉などのキーワードから成るリゾート情報から構成される。OA内容のヘッドラインには出演者も含まれる。
尚、上述した内容は一例であり、これに限定されるものではない。例えば録画再生やVODであれば、個人視聴率などをもとにした、性別や年代などの視聴属性を、メタデータとして付してもよい。または、テレビ画面上に表示される地図、テロップや、出演者の顔などの座標情報をメタデータとして付してもよい。更に、字幕のデータでも良い。このように、シーンに関するメタデータは、そのシーンに関する情報であれば、その種類は問わない。
オブジェクト情報記録部409は、オブジェクト特定装置40が特定した商品又はサービスのオブジェクト情報と、第1のユーザ識別情報(オブジェクト特定側ユーザ識別情報)とが関連付けられて記憶されるデータベースである。図9は、オブジェクト情報記録部409の一例を示す図である。図9では、例えば、第1のユーザ識別情報“H100”と、オブジェクト情報である商品「スマートフォン」及び商品名「XXXX」とが関連付けられている。
オブジェクト特定装置40は、記憶装置302に格納されたプログラムがメモリ301にロードされ、プロセッサ300によりプログラムが実行されることにより、送受信処理、視聴データ記録処理、オブジェクト特定処理、オブジェクト情報記録処理、オブジェクト情報提示処理が実現されるものである。
送受信処理は、テレビ受信機10、又は、アシスタント処理装置30との間で情報の送受信を行う処理である。
視聴データ記録処理は、テレビ受信機1で視聴されている放送番組の視聴データを取得し、視聴データ記録部407に、第1のユーザ識別情報と関連付けて視聴データを記録する処理を行う。
視聴データを取得するためには、テレビ受信機識別情報と第1のユーザ識別情報とを関連付ける必要がある。ここで、テレビ受信機識別情報と第1の識別情報との関連付けであるが、例えば、以下の方法がある。
まず、初回のサービス利用時に、データ放送の双方向通信機能を用いて、テレビ受信機10からサービスの利用開始を要求する。この時、テレビ受信機10は、テレビ受信機10のB-CASの識別番号及びテレビメーカの識別情報を送信する。オブジェクト特定装置40では、受信したB-CASの識別番号及びテレビメーカの識別情報から、所定の方法によりテレビ受信機識別情報を生成し、このテレビ受信機識別情報を識別できるQRコード(登録商標)等をテレビ受信機10に送信して表示させる。
ユーザAは、テレビ受信機10に表示されたQRコード(登録商標)等を用いて、パーソナルコンピュータやスマートフォンからユーザ登録するためのオブジェクト特定装置40のWebサイトにアクセスし、ユーザAの第2の識別情報を含むユーザ情報等を入力する。そして、このユーザ情報に対応する第1のユーザ識別情報を発行し、オブジェクト特定側ユーザ識別情報データベース406と視聴データ記録部407とに登録する。また、発行した第1のユーザ識別情報と第2のユーザ識別情報との関連付けの情報を、アシスタント処理装置30に送信する。
これにより、テレビ受信機10において、チャンネルの変更、電源断等により、テレビ受信機10とオブジェクト特定装置40との間でセッションが切断されても、次回のテレビ受信機10とオブジェクト特定装置40との接続確立時に、B-CASの識別番号及びテレビメーカの識別情報を送信すれば、オブジェクト特定装置40はB-CASの識別番号及びテレビメーカの識別情報からテレビ受信機識別情報を所定の方法により求めることができ、テレビ受信機識10が視聴データを記録する対象であるかを判定することができる。
視聴データ記録処理は、テレビ受信機10とオブジェクト特定装置40との接続確立している間、データ放送等の機能を用いて、テレビ受信機10から、放送番組ID(番組識別情報)、その番組の視聴を開始した開始時刻と、その番組の視聴を終了した終了時刻とを、少なくとも取得する処理を行う。そして、取得した視聴データのテレビ受信機10のテレビ受信機識別情報に関連付けられている第1のユーザ識別情報を、オブジェクト特定側ユーザ識別情報データベース406から取得し、取得した第1のユーザ識別情報に関連付けて視聴データを視聴データ記録部407に記録する処理を行う。
オブジェクト特定処理は、アシスタント処理装置30から第1のユーザ識別情報及び時刻情報を受信し、視聴データ記録部407から、第1のユーザ識別情報に対応する視聴データのうち、受信した時刻情報が開始時刻と終了時刻(又は視聴継続中)との間にある放送番組の番組IDを検索する処理を行う。そして、テレビメタデータデータベース408を用いて、取得した番組IDのメタデータから、取得した時刻情報に該当するシーンで紹介された商品又はサービスを特定する処理を行う。そして、特定した商品又はサービスの商品名やサービス名等のオブジェクト情報を、テレビメタデータデータベース408から取得する処理を行う。
尚、上述のオブジェクト特定処理は、オブジェクト特定装置40がテレビメタデータデータベース408を備える場合を説明した。しかし、これに限られない。例えば、番組ID及び時刻情報等を取得することにより、商品又はサービスを特定できるようなテレビメタデータAPI(Application Programming Interface)等が外部に存在する場合、オブジェクト特定装置40がテレビメタデータデータベース408を有さず、オブジェクト特定装置40が、番組ID及び時刻情報等の必要な情報を送信し、テレビメタデータAPIから商品又はサービスを取得するように構成しても良い。
オブジェクト情報記録処理は、オブジェクト特定処理で取得したオブジェクト情報を、第1のユーザ識別情報に関連付けて、オブジェクト情報記録部409に記録する処理を行う。
オブジェクト情報提示処理は、スマートフォン等の端末を用いてユーザAから送信されるオブジェクト情報の提示要求に応じて、ユーザAの第1のユーザ識別情報に関連付けられているオブジェクト情報を、オブジェクト情報記録部409から取得する処理を行う。そして、ユーザAのスマートフォン等の端末に、ユーザAの第1のユーザ識別情報に関連付けられているオブジェクト情報を送信する処理を行う。
次に、上述した構成における動作を、具体例を用いて説明する。
以下の説明においては、ユーザAを例にとり、所定のユーザコマンドを「HHHGO、これ欲しい」とする。また、ユーザAは、サービスの利用するための初期登録は済んでおり、上述した各データベース及び記録部に、ユーザAの第1の識別情報(H100)及び第2の識別情報(A200)、テレビ受信機10のテレビ受信機識別情報(TV100)が登録されているものとする。また、テレビメタデータデータベース408には、図8に示すテレビメタデータが記憶されているものとする。
図10は、各装置間のシーケンス図である。
まず、テレビ受信機10は、放送局から放送されるデータ放送を含むデジタルテレビジョン信号を受信し、ユーザAは放送番組を視聴する(S1)。このとき、テレビ受信機10とオブジェクト特定装置40との接続は確立されているものとする。
オブジェクト特定装置40は、ユーザAの視聴データを取得し、取得した視聴データを第1のユーザ識別情報と関連付けて視聴データ記録部407に記録する処理を行う(S2)。本例では、オブジェクト特定装置40が、テレビ受信機識別情報”TV100”のテレビ受信機10より、視聴データとして番組ID“TV01”と、視聴開始時刻”15:00”とを取得したものとする。すると、オブジェクト特定装置40は、オブジェクト特定側ユーザ識別情報データベース406を用いて、テレビ受信機識別情報”TV100”に関連付けられているユーザAの第1の識別情報“H100”を取得し、第1の識別情報“H100”と、視聴データとして番組ID“TV01”及び視聴開始時刻”15:00”とを関連付けて視聴データ記録部407に記録する。尚、視聴終了時刻は、ユーザAの視聴が終了した時点で取得するが、それまでは視聴継続中とする。
ここで、図11に示すように、ユーザAが放送番組を視聴中、スマートフォンを紹介するシーンで、ユーザAが「HHHGO、これ欲しい」とアシスタントデバイス20に発話したとする。
すると、アシスタントデバイス20は、音声を検出し、その音声をコマンドデータとして第2のユーザ識別情報とともに、アシスタント処理装置30に送信する(S3)。
アシスタント処理装置30は、コマンドデータ(音声)及び第2のユーザ識別情報を受信し、サービスの実行処理を行う(S4)。ここで、アシスタント処理装置30で行われるサービス実行処理(S4)を、図12のフローチャートを用いて説明する。
まず、アシスタント処理装置30は、コマンドデータ及び第2のユーザ識別情報を受信する(S100)。本例では、「HHHGO、これ欲しい」の音声と第2のユーザ識別情報“A200”とである。
次に、音声の音声認識を行い、テキストに変換する(S101)。ここでは、「HHHGO、これ欲しい」のテキストが得られる。
得られたテキストが、所定のユーザコマンドであるかを判定する(S102)。得られたテキストが所定のユーザコマンドである場合は(S103)、時刻情報を取得する(S104)。一方、得られたテキストが所定のユーザコマンドでない場合は(S103)、それ以外のサービス処理を行う(S107)。本例では、「HHHGO、これ欲しい」は、所定のユーザコマンドである。従って、時刻情報の取得を行う。ここでは、取得した時刻情報が“15:15”とする。
続いて、第2のユーザ識別情報に関連付けられている第1の識別情報を、アシスタント側ユーザ識別情報データベース306から取得する(S105)。本例では、第2のユーザ識別情報“A200”に関連付けられている第1の識別情報は、”H100”である。
最後に、取得した第1の識別情報及び時刻情報を、オブジェクト特定装置40に送信する(S106)。本例では、第1の識別情報”H100”及び時刻情報“15:15”を、オブジェクト特定装置40に送信する。
図10の各装置間のシーケンス図の説明に戻る。
第1の識別情報及び時刻情報を受信したオブジェクト特定装置40は、オブジェクト特定処理(S5)を行う。ここで、オブジェクト特定装置40で行われるオブジェクト特定処理(S5)を、図13のフローチャートを用いて説明する。
まず、オブジェクト特定装置40は、第1の識別情報及び時刻情報を受信する(S200)。本例では、第1の識別情報”H100”及び時刻情報“15:15”である。
次に、オブジェクト特定装置40は、第1の識別情報及び時刻情報を用いて、テレビメタデータデータベース408から該当する商品又はサービスを特定する(S201、S202)。本例では、第1の識別情報が”H100”であるので、第1の識別情報が”H100”の視聴データを、視聴データ記録部407から取得する。取得される視聴データは、番組ID“TV01”と、視聴開始時刻”15:00”及び視聴継続中である。これらの情報から、ユーザAは、現在、番組ID“TV01”で特定される放送番組を視聴していることがわかる。テレビメタデータデータベース408を見ると、番組ID“TV01”のテレビ放送番組の時刻“15:15”を含むシーン(シーンID:S2)において、商品名「XXXX」のスマートフォンを紹介しており、商品名「XXXX」のスマートフォンを特定することができる。すなわち、ユーザAが、テレビ放送番組を視聴中、「HHHGO、これ欲しい」とアシスタントデバイス20に発話した時に、テレビ放送番組で表示、紹介されていた又は関連付けられていた対象物は、商品名「XXXX」のスマートフォンであることを特定できる。
オブジェクト特定装置40は、商品又はサービスを特定できた場合(S203)、そのオブジェクト情報を、テレビメタデータデータベース408から取得する(S204)。そして、取得したオブジェクト情報を第1のユーザ識別情報に関連付けて、オブジェクト情報記録部409に記録する。本例では、商品「スマートフォン」及び商品名「XXXX」を、第1の識別情報が”H100”に関連付けてオブジェクト情報記録部409に記録する。
一方、該当する商品又はサービスを特定できない場合(S203)、終了する。
このように、アシスタントデバイスを用いたサービスにおいて、テレビ受信機で視聴されるコンテンツで表示、紹介されている又は関連付けられている商品やサービス等のうち、ユーザが興味を持った商品やサービス等を、簡単に正確に特定することができる。すなわち、ユーザが、具体的な商品名等を発話する必要はなく、テレビ受信機でテレビ放送番組を視聴中、そのテレビ放送番組で、気に入った商品等や、興味がある商品等が表示、紹介された又は関連付けられている時に、簡単なユーザコマンドを発話するだけで、気に入った商品や、興味がある商品等を特定することができ、それらのオブジェクト情報を記録しておきことができる。
更に、ユーザは、後日、オブジェクト特定装置40に、第1の識別情報を用いてスマートフォン等の端末により、オブジェクト情報の提示を要求することができる。そして、オブジェクト特定装置40は、オブジェクト情報提示処理を行い、例えば、図14に示すように、今までに記録されているオブジェクト情報を、閲覧を要求してきたスマートフォン等の端末に送信する。これにより、スマートフォン等の端末は、自己のオブジェクト情報を閲覧することもできる。尚、オブジェクト情報を送信する際、オブジェクト情報以外にクーポン等の特典も付加するようにしても良い。
また、オブジェクト情報の閲覧は、第2のユーザ識別情報を用いて、アシスタント処理装置30又は他のサーバ等から、閲覧できるように構成しても良い。
以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 コンテンツ視聴端末
2 アシスタントデバイス
3 アシスタント処理装置
4 オブジェクト特定装置
10 テレビ受信機
20 アシスタントデバイス
30 アシスタント処理装置
31 サービス処理部
40 オブジェクト特定装置
41 視聴データ記録部
42 オブジェクト特定部
43 オブジェクト情報記録部
300 プロセッサ
301 メモリ
302 記憶装置
303 入力装置
304 表示装置
305 通信装置
306 アシスタント側ユーザ識別情報データベース
400 プロセッサ
401 メモリ
402 記憶装置
403 入力装置
404 表示装置
405 通信装置
406 オブジェクト特定側ユーザ識別情報データベース
407 視聴データ記録部
408 テレビメタデータデータベース
409 オブジェクト情報記録部

Claims (14)

  1. ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録する視聴データ記録部と、
    前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得し、前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定するオブジェクト特定部と、
    前記オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録するオブジェクト情報記録部と
    を有するオブジェクト特定装置。
  2. 前記視聴データ記録部は、前記ユーザのコンテンツ視聴データを、前記ユーザを識別するユーザ識別情報に関連付けて取得して記録し、
    前記オブジェクト特定部は、前記時刻情報と前記アシスタントデバイスと関連付けられた前記ユーザ識別情報とを取得し、前記ユーザ識別情報に関連付けられた前記コンテンツの視聴データ及び前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記ユーザ識別情報のユーザが前記アシスタントデバイスに与えた前記ユーザコマンド発生時にコンテンツのシーンに表示、紹介された又は関連付けられたオブジェクトを特定し、
    前記オブジェクト情報記録部は、前記オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報と前記ユーザ識別情報とを関連付けて記録する
    請求項1に記載のオブジェクト特定装置。
  3. 前記コンテンツのメタデータは、シーンの時刻情報、前記シーンに表示、紹介され又は関連付けられるオブジェクトのオブジェクト情報を少なくとも含む
    請求項1又は請求項2に記載のオブジェクト特定装置。
  4. 前記ユーザからの要求に応答して、前記ユーザに関連付けられているオブジェクト情報を、前記ユーザに提示するオブジェクト情報提示部を有する
    請求項1から請求項3のいずれかに記載のオブジェクト特定装置。
  5. 前記オブジェクトが、前記コンテンツのシーンで表示、紹介された又は関連付けられた商品又はサービスである
    請求項1から請求項4のいずれかに記載のオブジェクト特定装置。
  6. 前記コンテンツが、テレビ放送の番組である
    請求項1から請求項5のいずれかに記載のオブジェクト特定装置。
  7. 前記ユーザコマンドが、前記ユーザから発せられる音声コマンド及びジェスチャーの少なくともいずれか含む
    請求項1から請求項6のいずれかに記載のオブジェクト特定装置。
  8. コンテンツを視聴するコンテンツ視聴端末を識別するコンテンツ視聴端末識別情報と、ユーザを識別する第1のユーザ識別情報とが関連付けられて記憶されている第1のデータベースと、
    アシスタントデバイスを識別するアシスタントデバイス識別情報又は第2のユーザ識別情報と、前記第1のユーザ識別情報とが関連付けられて記憶されている第2のデータベースと、
    前記アシスタントデバイスから送信されるコマンドデータと、アシスタントデバイス識別情報又は第2のユーザ識別情報を受信し、前記コマンドデータに基づいて前記アシスタントデバイスにユーザより与えられたユーザコマンドを識別し、前記ユーザコマンドをトリガとして時刻情報を取得し、前記アシスタントデバイス識別情報又は第2のユーザ識別情報に関連付けられている第1のユーザ識別情報を第2のデータベースから取得し、前記時刻情報と前記第1のユーザ識別情報とを関連付けて送信するサービス処理部と、
    前記コンテンツ視聴端末に表示されているコンテンツを視聴しているユーザのコンテンツ視聴データと、前記コンテンツ視聴端末のコンテンツ視聴端末識別情報とを取得し、取得したコンテンツ視聴端末識別情報に関連付けられている第1のユーザ識別情報を前記第1のデータベースから取得し、取得した第1のユーザ識別情報とコンテンツ視聴データとを関連付けて記録する視聴データ記録部と、
    前記サービス処理部から前記第1のユーザ識別情報及び前記時刻情報を受信し、前記第1のユーザ識別情報に関連付けられているコンテンツ視聴データを前記視聴データ記録部から取得し、前記第1のユーザ識別情報に関連付けられているコンテンツ視聴データ及び時刻情報と、コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定するオブジェクト特定部と、
    前記オブジェクト特定部で特定されたオブジェクトに関するオブジェクト情報と前記第1のユーザ識別情報とを関連付けて記録するオブジェクト情報記録部と
    を有するオブジェクト特定システム。
  9. 前記サービス処理部は、認識したユーザコマンドが所定の条件を満たした場合に、前記時刻情報と前記第1のユーザ識別情報とを関連付けて送信する
    請求項8に記載のオブジェクト特定システム。
  10. 前記コンテンツのメタデータは、シーンの時刻情報、前記シーンに表示されるオブジェクトのオブジェクト情報を少なくとも含む
    請求項8又は請求項9に記載のオブジェクト特定システム。
  11. 前記ユーザからの要求に応答して、前記ユーザのユーザ識別情報に関連付けられているオブジェクト情報を、前記ユーザに提示するオブジェクト情報提示部を
    有する請求項8から請求項10のいずれかに記載のオブジェクト特定システム。
  12. 前記オブジェクトが、前記コンテンツのシーンで表示、紹介された又は関連付けられた商品又はサービスである
    請求項8から請求項11のいずれかに記載のオブジェクト特定システム。
  13. ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録し、
    前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得し、
    前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定し、
    前記特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録する
    オブジェクト特定方法。
  14. ユーザが視聴しているコンテンツのコンテンツ視聴データを取得して記録する処理と、
    前記ユーザよりアシスタントデバイスに与えられた所定のユーザコマンドをトリガとして取得された時刻情報を取得する処理と、
    前記コンテンツ視聴データと、前記時刻情報と、前記コンテンツのメタデータとに基づいて、前記時刻情報で特定されるコンテンツのシーンで表示、紹介された又は関連付けられたオブジェクトを特定する処理と、
    前記特定されたオブジェクトに関するオブジェクト情報を、前記ユーザと関連付けて記録する処理と
    をコンピュータに実行させるプログラム。
JP2017156719A 2017-08-15 2017-08-15 オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム Pending JP2019036837A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017156719A JP2019036837A (ja) 2017-08-15 2017-08-15 オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017156719A JP2019036837A (ja) 2017-08-15 2017-08-15 オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2019036837A true JP2019036837A (ja) 2019-03-07

Family

ID=65635991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017156719A Pending JP2019036837A (ja) 2017-08-15 2017-08-15 オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2019036837A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125782A (ja) * 2020-02-05 2021-08-30 Tvs Regza株式会社 情報連携システム、興味情報管理サーバ、商品販売管理サーバ、課金サーバ、情報処理装置、および、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125782A (ja) * 2020-02-05 2021-08-30 Tvs Regza株式会社 情報連携システム、興味情報管理サーバ、商品販売管理サーバ、課金サーバ、情報処理装置、および、プログラム
JP7328914B2 (ja) 2020-02-05 2023-08-17 Tvs Regza株式会社 情報連携システム、興味情報管理サーバ、および、プログラム

Similar Documents

Publication Publication Date Title
CN107844586B (zh) 新闻推荐方法和装置
US20230254523A1 (en) System and Method for Surveying Broadcasting Ratings
KR101818986B1 (ko) 오디오 입력에 기초하여 정보를 획득하는 방법, 장치 및 시스템
US11797625B2 (en) Displaying information related to spoken dialogue in content playing on a device
JP5828501B2 (ja) 番組コンテキストに基づくモバイルコンテンツの提示
US20210240756A1 (en) Methods, systems, and media for processing queries relating to presented media content
EP2553652B1 (en) Media fingerprinting for content determination and retrieval
US8060373B2 (en) System and method of identifying contact information
CN109688475B (zh) 视频播放跳转方法、系统及计算机可读存储介质
KR101764257B1 (ko) 제품들을 식별하기 위해 멀티미디어 검색을 사용하는 방법, 장치 및 컴퓨터 판독가능 매체
US20130276029A1 (en) Using Gestures to Capture Multimedia Clips
US20140324858A1 (en) Information processing apparatus, keyword registration method, and program
US20100154012A1 (en) Television bookmarking with multiplatform distribution
US20130276013A1 (en) Using Multimedia Search to Identify what Viewers are Watching on Television
US10826961B2 (en) Multimedia player device automatically performs an operation triggered by a portable electronic device
JP2019036837A (ja) オブジェクト特定装置、オブジェクト特定システム、オブジェクト特定方法及びプログラム
CN111274449A (zh) 视频播放方法、装置、电子设备和存储介质
KR101511311B1 (ko) 셋탑박스 제어 기록 및 콘텐츠 검색 기록을 이용한 사용자 맞춤형 광고 제공 시스템 및 방법
JP2014530390A (ja) マルチメディア探索を用いて製品を識別すること
KR20200079741A (ko) 개인화 서비스를 제공하는 단말, 방법 및 컴퓨터 프로그램
AU2012353108A1 (en) Advertisement providing apparatus and method for providing advertisements
EP2605535A1 (en) Advertisement providing apparatus and method for providing advertisements
EP2605432A1 (en) Communications system