JP2010218385A - コンテンツ検索装置及びコンピュータプログラム - Google Patents

コンテンツ検索装置及びコンピュータプログラム Download PDF

Info

Publication number
JP2010218385A
JP2010218385A JP2009066286A JP2009066286A JP2010218385A JP 2010218385 A JP2010218385 A JP 2010218385A JP 2009066286 A JP2009066286 A JP 2009066286A JP 2009066286 A JP2009066286 A JP 2009066286A JP 2010218385 A JP2010218385 A JP 2010218385A
Authority
JP
Japan
Prior art keywords
content
language
information
language information
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009066286A
Other languages
English (en)
Other versions
JP5335500B2 (ja
Inventor
Masaru Miyazaki
勝 宮崎
Atsushi Goto
淳 後藤
Masahiro Shibata
正啓 柴田
Kikuka Miura
菊佳 三浦
Hideki Sumiyoshi
英樹 住吉
Masato Fujii
真人 藤井
Nobuyuki Yagi
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2009066286A priority Critical patent/JP5335500B2/ja
Publication of JP2010218385A publication Critical patent/JP2010218385A/ja
Application granted granted Critical
Publication of JP5335500B2 publication Critical patent/JP5335500B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツ視聴時に、ユーザが視聴している場面に関連した有益な別コンテンツを効果的に検索、提示する。
【解決手段】インデックス言語検索部3は、現在ユーザが視聴しているコンテンツに付加された言語情報LI1から、視聴シーンに対応する部分を抽出して、シーン言語情報SIを生成する。そして、別のコンテンツの言語情報LI2の中から、抽出したシーン言語情報SIと関連性の高いものを抽出し、インデックス言語情報LI3とする。関連性の高さは、言語的な類似度及び時間的関連性から得られる。関連コンテンツ検索提示部5は、さらに別のコンテンツの言語情報LI4の中から、インデックス言語情報LI3と関連性の高いものを抽出し、抽出したコンテンツの言語情報LI4に対応したコンテンツを、視聴コンテンツに関連性が高いコンテンツとしてユーザ端末に表示させる。
【選択図】図1

Description

本発明は、関連するコンテンツを検索するコンテンツ検索装置及びコンピュータプログラムに関する。
近年、インターネット上に様々な動画提供サービスなどが登場し、ユーザが大量の動画コンテンツなどを視聴できる環境が整ってきた。このようなサービスでは、視聴しているコンテンツに関連した動画を自動的に表示するようなサービスを実現しているものも多い。例えば、このような動画視聴サイトには、視聴中のコンテンツのシリーズや、関連する動画のサムネイルなどを表示することにより、ユーザの連続的な視聴を促すものがある。
このように、現在視聴・閲覧中のコンテンツ(以下、「視聴コンテンツ」と記載)に関連した別のコンテンツ(以下、「関連コンテンツ」と記載)を提示する場合、それらの関連コンテンツは視聴コンテンツに関連があり、さらには視聴者の好奇心を刺激して知見を広めてくれるようなものであることが望ましい。そこで、例えば特許文献1では、視聴コンテンツに関連したキーワードを抽出して表示し、この表示されたキーワードに基づいてインターネット上のウェブページなどの所定の形態の関連コンテンツを検索、表示する技術を提案している。この特許文献1に記載の情報検索技術によれば、視聴コンテンツから抽出されたキーワードによって連想される別のキーワードを検索して表示し、その表示されたキーワードを関連コンテンツの検索用キーワードとすることによって、検索の幅を広げることができる。
特開2005−115790号公報
しかし、特許文献1の技術は、番組全体について記述した「番組案内情報(デジタル放送における電子番組表(EPG:Electronic Program Guide)のようなもの)」からユーザの嗜好に基づいてキーワードを抽出し、この抽出した中からユーザが選択したキーワードに基づいて他のキーワードを得て連想検索していく手法である。しかし、特許文献1には、ユーザが選択したキーワードからさらに連想される別のキーワードを検索する手法については触れられていない。このため、ユーザが期待するキーワードを必ずしも得ることができない可能性がある。加えて、単にキーワードが含まれるという条件だけでは、まったく関連のないコンテンツを検索してしまう可能性もあり、ユーザの関心を惹くような関連コンテンツを検索することは、網羅性の観点から難しい。
また、ユーザがテレビ番組などのコンテンツを視聴している際には、そのときにわからなかった用語についての説明や、そのときに視聴しているテーマに関してより深く掘り下げた知識が欲しい状況が考えられる。特許文献1の技術では、番組全体について記述した「番組案内情報」からキーワードを抽出することを前提としているが、実際にユーザが見ているシーンに関する関連コンテツを提供するものではない。
本発明は、このような事情を考慮してなされたもので、その目的は、コンテンツ視聴時に、ユーザが視聴している場面(シーン)に関連した有益な別コンテンツを効果的に検索し、提示することができるコンテンツ検索装置及びコンピュータプログラムを提供することにある。
[1] 本発明の一態様は、コンテンツの内容に関する情報を記述した言語情報を記憶する言語情報記憶部と、検索対象とする関連コンテンツの内容に関する情報を記述した言語情報を記憶する関連コンテンツ情報記憶部と、視聴中のコンテンツである視聴コンテンツの内容に関する情報を記述した言語情報と、当該視聴コンテンツにおいてユーザが視聴している部分を特定するシーン特定情報とを取得し、当該視聴コンテンツの言語情報から前記シーン特定情報に対応した部分を抽出してシーン言語情報を得るシーン言語抽出部と、前記言語情報記憶部に記憶されている前記言語情報と、前記シーン言語情報との言語的類似度から関連度を算出するシーン言語関連性解析部と、前記シーン言語関連性解析部によって算出された前記関連度に基づき、前記言語情報記憶部から選択した前記言語情報をインデックス言語情報として出力するインデックス言語出力部と、前記関連コンテンツ情報記憶部に記憶されている前記言語情報と、前記インデックス言語情報との言語的類似度から関連度を算出するインデックス言語関連性解析部と、前記インデックス言語関連性解析部によって算出された前記関連度に基づき、前記関連コンテンツ情報記憶部に記憶されている前記言語情報を選択する関連コンテンツ選択部と、前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツの情報を出力する検索結果出力部と、を備えることを特徴とするコンテンツ検索装置である。
この発明によれば、コンテンツ検索装置は、ユーザが視聴している視聴コンテンツの言語情報から、現在視聴しているシーンに対応した部分を抽出してシーン言語情報とし、言語情報記憶部に記憶されている他のコンテンツの言語情報からシーン言語情報と言語的な類似性の高い言語情報を検索して、関連コンテンツを検索するためのインデックス言語情報とする。そして、関連コンテンツ情報記憶部に記憶されている関連コンテンツの言語情報からインデックス言語情報と言語的な類似性の高い関連コンテンツの言語情報を得ると、この得られた言語情報に対応する関連コンテンツの情報を検索結果として出力する。
これにより、ユーザが視聴しているシーンに対応した言語情報が少ない場合でも、その言語情報に基づいて得た類似する別コンテンツの言語情報を検索キーとして用い、関連コンテンツを検索することが可能となる。このとき、視聴コンテンツの言語情報には含まれない言語情報を、目的の関連コンテンツを検索するための検索キーとして利用できるため、ユーザが前提として持っている知識の範囲外に及ぶ内容を含んだ、より幅広い関連コンテンツの検索が可能となる。
[2] 本発明の一態様は、上述するコンテンツ検索装置であって、前記視聴コンテンツの言語情報、及び、前記言語情報記憶部に記憶されている前記言語情報にはコンテンツの作成、配信または放送の時刻を示すコンテンツ時刻情報が含まれており、前記シーン言語関連性解析部は、前記言語情報記憶部に記憶されている前記言語情報と前記シーン言語情報との言語的類似度、及び、当該言語情報内のコンテンツ時刻情報が示す時刻と前記視聴コンテンツの言語情報内のコンテンツ時刻情報が示す時刻との乖離に基づいて関連度を算出する、ことを特徴とする。
この発明によれば、視聴コンテンツの言語情報から抽出したシーン言語情報に関連が深いインデックス言語情報を、言語的類似度及び時間的関連性に基づく関連度によって選択することが可能となる。
これにより、視聴しているシーンに関する内容が含まれている場合であっても、古い話題に関するコンテンツの言語情報であれば、関連コンテンツの検索には使用しないようにすることができる。よって、ユーザの興味を惹かない可能性が高い、古い話題に関する関連コンテンツをユーザに提示しないようにすることができる。
[3] 本発明の一態様は、上述するコンテンツ検索装置であって、前記関連コンテンツの言語情報記憶部に記憶されている前記言語情報、及び、前記関連コンテンツ情報記憶部に記憶されている前記言語情報にはコンテンツの作成、配信または放送の時刻を示すコンテンツ時刻情報が含まれており、前記インデックス言語関連性解析部は、前記関連コンテンツ情報記憶部に記憶されている前記言語情報と前記インデックス言語情報との言語的類似度、及び、当該言語情報内のコンテンツ時刻情報が示す時刻と前記インデックス言語情報内のコンテンツ時刻情報が示す時刻との乖離に基づいて関連度を算出する、ことを特徴とする。
この発明によれば、インデックス言語情報に関連が深い関連コンテンツの言語情報を、言語的類似度及び時間的関連性に基づく関連度によって選択することが可能となる。
これにより、ユーザの興味を惹かない可能性が高い、古い関連コンテンツをユーザに提示しないようにすることができる。
[4] 本発明の一態様は、上述するコンテンツ検索装置であって、前記シーン言語抽出部は、ウェブページにおいてユーザが選択した部分のテキストデータをシーン言語情報とする、ことを特徴とする。
この発明によれば、ウェブページを閲覧しているユーザが、ユーザ端末において指定した当該ウェブページの部分のテキストを、シーン言語情報として用いることができる。
これにより、ウェブページを閲覧しているユーザへ、当該ウェブページの所望部分に関する関連コンテンツを提供することが可能となる。
[5] 本発明の一態様は、上述するコンテンツ検索装置であって、前記検索結果出力部は、前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツのデジタルデータから得られる画像情報を出力する、ことを特徴とする。
この発明によれば、コンテンツ検索装置は、検索結果として得られた関連コンテンツの画像を出力する。
これにより、関連コンテンツの情報を画像により確認することができるため、関連コンテンツへのユーザの興味を増進させることができ、また、見たい関連コンテンツを選択しやすくなる。
[6] 本発明の一態様は、コンテンツ検索装置として用いられるコンピュータを、検索対象とする関連コンテンツの内容に関する情報を記述した言語情報を記憶する関連コンテンツ情報記憶部、視聴中のコンテンツである視聴コンテンツの内容に関する情報を記述した言語情報と、当該視聴コンテンツにおいてユーザが視聴している部分を特定するシーン特定情報とを取得し、当該視聴コンテンツの言語情報から前記シーン特定情報に対応した部分を抽出してシーン言語情報を得るシーン言語抽出部、前記言語情報記憶部に記憶されている前記言語情報と、前記シーン言語情報との言語的類似度を算出するシーン言語関連性解析部、前記シーン言語関連性解析部によって算出された前記言語的類似度に基づき、前記言語情報記憶部から選択した前記言語情報をインデックス言語情報として出力するインデックス言語出力部、前記関連コンテンツ情報記憶部に記憶されている前記言語情報と、前記インデックス言語情報との言語的類似度を算出するインデックス言語関連性解析部、前記インデックス言語関連性解析部によって算出された前記言語的類似度に基づき、前記関連コンテンツ情報記憶部に記憶されている前記言語情報を選択する関連コンテンツ選択部、前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツの情報を出力する検索結果出力部、として機能させることを特徴とするコンピュータプログラムである。
この発明によれば、コンテンツ検索装置は、ユーザが視聴している視聴コンテンツの言語情報から、現在視聴しているシーンに対応した部分を抽出してシーン言語情報とし、言語情報記憶部に記憶されている他のコンテンツの言語情報からシーン言語情報と言語的な類似性の高い言語情報を検索して、関連コンテンツを検索するためのインデックス言語情報とする。そして、関連コンテンツ情報記憶部に記憶されている関連コンテンツの言語情報からインデックス言語情報と言語的な類似性の高い関連コンテンツの言語情報を得ると、この得られた言語情報に対応する関連コンテンツの情報を検索結果として出力する。
これにより、ユーザが視聴しているシーンに対応した言語情報が少ない場合でも、その言語情報に基づいて得た類似する別コンテンツの言語情報を検索キーとして用い、関連コンテンツを検索することが可能となる。このとき、視聴コンテンツの言語情報には含まれない言語情報を、目的の関連コンテンツを検索するための検索キーとして利用できるため、ユーザが前提として持っている知識の範囲外に及ぶ内容を含んだ、より幅広い関連コンテンツの検索が可能となる。
本発明によれば、コンテンツ視聴時に、ユーザが視聴している場面(シーン)に関連した有益な別コンテンツを効果的に検索し、提示することができる。通常、コンテンツに含まれる各シーンには少ない言語情報しか付加されていないと想定されるが、本発明によれば、この少量の言語情報から時事性を満たし、かつユーザの関心を惹くような関連コンテンツを効率的に、かつ、リアルタイムに検索し、自動的に提示することが可能となる。このように、様々な関連するコンテンツを連想的に視聴可能とすることにより、ユーザの好奇心を満たす、あるいはユーザの知識を深めるための支援をすることができる。
本発明の一実施形態によるコンテンツ検索装置の機能ブロック図である。 同実施形態による視聴コンテンツの言語情報の例を示す図である。 同実施形態による言語情報記憶部に蓄積される言語情報の例を示す図である。 同実施形態による関連コンテンツ情報記憶部内に記憶される情報の例を示す図である。 同実施形態によるインデックス言語検索部のインデックス言語検索処理フローである。 同実施形態による関連コンテンツ検索提示部の関連コンテンツ検索提示処理フローである。 同実施形態によるコンテンツ検索装置を視聴番組の関連番組提示に適用した実施例を示す図である。 図7において用いられる言語情報の例を示す図である。 同実施形態によるコンテンツ検索装置を視聴動画の関連動画提示に適用した実施例を示す図である。 同実施形態によるコンテンツ検索装置をウェブページの関連動画提示に適用した実施例を示す図である。
以下、図面を参照しながら本発明の実施形態を詳細に説明する。
[1.構成]
図1は、本発明の一実施形態によるコンテンツ検索装置1の構成を示す機能ブロック図であり、発明と関係する機能ブロックのみ抽出して示してある。同図において、コンテンツ検索装置1は、言語情報記憶部2、インデックス言語検索部3、関連コンテンツ情報記憶部4、及び、関連コンテンツ検索提示部5を備える。
言語情報記憶部2は、ハードディスク装置や半導体メモリなどで実現され、言語情報LI2を記憶する。言語情報LI2は、例えば、放送番組や動画などのコンテンツの字幕、音声認識結果、コンテンツの概要、メタデータ、コンテンツ作成時に使用された原稿などを示すデータである。また、言語情報LI2は、ウェブページや文書データなどのテキストコンテンツ自体や、これらのテキストコンテンツに付随した言語情報であってもよい。
インデックス言語検索部3は、例えばコンピュータ装置により実現され、シーン言語抽出部31、シーン言語関連性解析部32、及び、インデックス言語出力部33を備える。
シーン言語抽出部31は、ユーザが視聴・閲覧している番組や動画などのコンテンツ(以下、「視聴コンテンツ」と記載)の言語情報LI1から、ユーザが視聴している、あるいは、ユーザが選択したシーンに対応した部分を抽出してシーン言語情報SIを生成する。言語情報LI1は、例えば、字幕、音声認識結果、コンテンツの概要、メタデータ、番組作成時に使用された原稿などを、シーンを特定する情報、例えば、時間情報に対応付けて記述した情報である。よって、生成されたシーン言語情報SIは、ユーザが視聴している視聴コンテンツのシーンに関連した言語情報が含まれることになる。
シーン言語関連性解析部32は、シーン言語抽出部31によって生成されたシーン言語情報SIと、言語情報記憶部2に記憶されている各言語情報LI2との関連性を示す指標である関連度を、言語的な類似度及び時間的関連性に基づいて算出する。インデックス言語出力部33は、シーン言語関連性解析部32により算出された関連度に基づいて、シーン言語情報SIと関連性が高い言語情報LI2を選択し、インデックス言語情報LI3として関連コンテンツ検索提示部5へ出力する。
関連コンテンツ情報記憶部4は、ハードディスク装置や半導体メモリなどで実現され、関連コンテンツのデジタルデータである関連コンテンツデータと、当該関連コンテンツに関する言語情報である言語情報LI4とを対応付けて記憶する。関連コンテンツは、例えば、放送番組、動画などのコンテンツであり、視聴コンテンツや、言語情報LI2に対応したコンテンツとは異なるコンテンツである。
関連コンテンツ検索提示部5は、例えばコンピュータ装置により実現され、インデックス言語関連性解析部51、関連コンテンツ選択部52、及び、検索結果出力部53を備える。インデックス言語関連性解析部51は、インデックス言語検索部3から入力されたインデックス言語情報LI3と、関連コンテンツ情報記憶部4に記憶されている各言語情報LI4との関連度を、言語的な類似度及び時間的関連性に基づいて算出する。関連コンテンツ選択部52は、インデックス言語関連性解析部51により算出された関連度に基づいて、インデックス言語情報LI3と関連性が高い言語情報LI4を選択する。検索結果出力部53は、関連コンテンツ選択部52により選択された言語情報LI4や、当該言語情報LI4に対応した関連コンテンツデータに基づいて関連コンテンツの検索結果を生成し、出力する。この検索結果はコンテンツを視聴しているユーザ端末6に表示される。
なお、コンテンツ配信事業者がコンテンツ検索装置1を保有し、コンテンツ検索装置1とユーザ端末6とをネットワークを介して接続するようにしてもよく、言語情報記憶部2、インデックス言語検索部3、関連コンテンツ情報記憶部4、関連コンテンツ検索提示部5のうち任意の1以上の機能部を、ユーザ端末6に備えるようにしてもよい。例えば、テレビジョン受信機、パーソナルコンピュータ、携帯電話など、コンテンツを受信して再生するユーザ端末6にインデックス言語検索部3及び関連コンテンツ検索提示部5の機能を備え、言語情報記憶部2及び関連コンテンツ情報記憶部4をコンテンツ配信事業者側に設置し、インデックス言語検索部3、関連コンテンツ検索提示部5は、ネットワーク経由で言語情報記憶部2、関連コンテンツ情報記憶部4へアクセスするようにしてもよい。また、直接ユーザ端末6から視聴コンテンツに関する情報を取得するかわりに、ユーザ端末6へコンテンツを配信している外部のコンテンツ配信装置から視聴コンテンツに関する情報を取得するようにしてもよい。この場合、コンテンツ配信装置からユーザ端末6へ検索結果を送信する。
[2.言語情報]
図2は、視聴コンテンツの言語情報LI1の例を示す図である。
同図に示すように、視聴コンテンツの言語情報LI1は、コンテンツ時刻情報としての番組の放送開始時刻、シーン特定情報としてのタイムコード、及び、当該タイムコードに対応付けられたテキストの文章データを含んでいる。なお、コンテンツ時刻情報として、番組の放送開始時刻の代わりに、コンテンツの配信時刻、コンテンツまたは当該言語情報LI1の作成時刻の情報を用いてもよい。また、同図では、文章データとして音声認識結果が記述されているが、字幕、原稿、概要説明、メタデータなどであってもよい。また、シーン特定情報は、放送時刻を示す情報や、番組開始、あるいは、コンテツ再生開始からの経過時間などの時間情報とすることができる。
図3は、言語情報記憶部2に蓄積される言語情報LI2の例を示す図である。
図3(a)は、ニュース項目毎のニュース原稿を言語情報LI2として用いる例を示している。また、図3(b)は、各番組のEPG(Electronic Program Guide)及び音声認識結果を言語情報LI2として用いる例を、図3(c)は、ウェブページ自体を言語情報LI2として用いる例を示している。なお、言語情報LI2として、図2に示すような言語情報LI1と同じデータ形式の情報を用いることもできる。また、言語情報LI2には、番組の放送開始時刻、コンテンツの配信時刻、あるいは、コンテンツまたは当該言語情報LI2の作成時刻などのコンテンツ時刻情報が記述される。
図4は、関連コンテンツ情報記憶部4に蓄積される情報の例を示す図である。同図に示すように、関連コンテンツ情報記憶部4は、言語情報LI4と対応づけられた関連コンテンツデータを複数記憶している。なお、言語情報LI4は、視聴コンテンツの言語情報LI1と同様のデータ形式の言語情報を用いてもよく、例えば図3(a)、(b)に示すような、映像コンテンツに付随しうる言語情報LI2と同様のデータ形式の言語情報を用いてもよい。
[3.処理フロー]
[3.1 インデックス言語検索部3の処理フロー]
図5は、コンテンツ検索装置1のインデックス言語検索部3におけるインデックス言語検索処理の処理フローを示す。
同図において、インデックス言語検索部3のシーン言語抽出部31は、ユーザがコンテンツの一部を視聴しているかを判断する(ステップS105)。例えば、インデックス言語検索部3がユーザ端末6に具備されている場合、当該ユーザ端末6のコンテンツ再生部においてコンテンツの一部が再生されていることを検出したときに、ユーザがコンテンツの一部を視聴していると判断する。シーン言語抽出部31は、この再生されているコンテンツに併せて配信された当該コンテンツの言語情報LI1をユーザ端末6から読み出すとともに、現在再生中のシーンに対応する時間情報をコンテンツ再生部から取得する。なお、時間情報を受信せず、現在の時刻を時間情報としてもよい。
ユーザがコンテンツの一部を視聴していない場合(ステップS105:NO)、シーン言語抽出部31は、ユーザが能動的に選択している部分コンテンツがあるかを判断する(ステップS110)。例えば、シーン言語抽出部31は、ユーザが視聴や関連情報を要求する対象として選択したコンテンツ及びシーンの時間情報をユーザ端末6へ入力すると、当該ユーザ端末6から、この選択されたコンテンツの言語情報LI1と、時間情報とを受信する。このような場合、ユーザが能動的に選択している部分コンテンツがあると判断する。
ユーザがコンテンツの一部を視聴している場合(ステップS105:YES)、あるいは、ユーザが能動的に選択している部分コンテンツがある場合(ステップS110:YES)、シーン言語抽出部31は、視聴コンテンツ、選択されたコンテンツの言語情報LI1から、時間情報に対応した部分を抽出し、シーン言語情報SIとする(ステップS115)。例えば、言語情報LI1に記述されている内容から、時間情報で示される時刻または再生開始からの経過時間より一定の時間幅に含まれるテキストデータを抽出したり、時間情報で示される時刻または再生開始からの経過時間に対応したテキストデータから所定数の文を抽出したりすることにより、シーン言語情報SIとすることができる。また、時間情報に対応したニュース項目やコーナーなど番組内の項目をシーンとしたり、当該項目の一部をシーンとしたりすることもでき、シーンの大きさは任意に設定可能である。例えば、視聴しているシーンを視聴コンテンツ全体とみなせば、視聴コンテンツに付加された言語情報全体をシーン言語情報SIとすることができる。なお、視聴コンテンツの言語情報LI1には、時間情報に対応していない情報のみが記述されている場合もあり、この場合は、言語情報LI1全体をシーン言語情報SIとする。
ユーザがコンテンツの一部を視聴しておらず(ステップS105:NO)、ユーザが能動的に選択している部分コンテンツもない場合(ステップS110:NO)、シーン言語抽出部31は、関連コンテンツの検索対象となるコンテンツの言語情報LI1のみを受信する。シーン言語抽出部31は、言語情報LI1全体を、インデックス言語情報LI3の検索キーとして使用するシーン言語情報SIとする(ステップS120)。
シーン言語関連性解析部32は、ステップS115あるいはステップS120においてこの取得したシーン言語情報SIと、言語情報記憶部2に記憶されている全言語情報LI2それぞれとの関連度を算出する(ステップS125)。この関連度は、言語的類似度及び時間的関連性を用いた所定の算出方法によって算出することができる。
言語的類似度の算出には、例えば、単語間類似度やTF/IDF(単語重要度の評価手法)といった言語的特徴量を使用することが可能である。単語間類似度の場合、シーン言語情報SIと言語情報LI2とに共通して含まれる単語の数を言語的特徴量とする。TF−IDFの場合、以下のように言語的特徴量を算出する。
出現頻度方式(TF)では、複数(DN個)の文書からなる文書群がある場合に、ある文書中にある単語w(キーワード)が出現する数を示すTF(w)値と、文書群の中でその単語wが含まれている文書数を示すDF(w)値とを用いて、当該文書における単語wのTF−IDF値をTF(w)×log(DN/DF(w))により算出する。そして各文書の文章ベクトルは、各単語のTF−IDF値を要素として表される。
そこで、シーン言語関連性解析部32は、各単語のDF値と、シーン言語情報SIに含まれる各単語のTF値とから、当該シーン言語情報SIについて各単語のTF−IDF値を算出し、算出した各キーワードのTF−IDF値を要素とした文章ベクトルを生成する。シーン言語情報SIの文章ベクトルと、各言語情報LI2の文章ベクトルとを比較し、文章ベクトル同士のなす角が近いほど、それらの情報データが類似していることを表す。シーン言語関連性解析部32は、シーン言語情報SIの文章ベクトルと、言語情報記憶部2から読み出した各言語情報LI2の文章ベクトルとが成す角の余弦を言語的特徴量として算出するか、他の既存の一般的な類似度算出式を用いて言語的特徴量を算出する。
また、時間的関連性は、コンテンツや言語情報の作成時間などのコンテンツ時刻情報を用いて、作成された時刻が近いものを関連性が高い(時事性が高い)と見なして計算することなどが可能である。例えば、言語情報LI1に記述されているコンテンツ時刻情報と、各言語情報LI2に記述されているコンテンツ時刻情報との差分を算出し、差分が大きければ大きいほど、言語的類似度の重みを低くするような係数を与える。そして、言語情報LI2について得られた言語的類似度に、得られた係数を乗算した結果を関連度として算出することができる。係数は、例えば、1週間以内であれば係数a1、2週間以内であれば係数a2、…など時間の差分に応じて段階的に決定することでもよく(a1>a2>…)、1年以上など一定時間以上の差分があるコンテンツの言語情報LI2については係数を0として関連度を0にする、つまり、検索対象として除外したりするようにしてもよい。あるいは、現在時刻と、各言語情報LI2に記述されているコンテンツ時刻情報の差分を時間的関連性として見なし、言語的類似度の重みを与えるようにしてもよい。
インデックス言語出力部33は、ステップS125において算出した、シーン言語情報SIと各言語情報LI2との関連度に、所定の閾値より高い関連度のものがあるか否かを判断する(ステップS130)。所定の閾値より高い関連度のものが得られなかった場合(ステップS130:NO)、ステップS105の処理へ戻る。所定の閾値より高い関連度のものが得られた場合(ステップS130:NO)、インデックス言語出力部33は、その所定の閾値より高い関連度が得られた言語情報LI2を、インデックス言語検索部3において用いられる関連コンテンツのテキストデータの検索キー、つまり、インデックス言語情報LI3として関連コンテンツ検索提示部5へ出力する(ステップS135)。このとき、関連度が最も高い言語情報LI2のみをインデックス言語情報LI3として出力することでもよく、関連度が高いものから所定数の言語情報LI2をインデックス言語情報LI3として出力してもよい。
なお、上記処理において、インデックス言語検索部3がネットワークを介してユーザ端末6と接続されている場合、シーン言語抽出部31は、ユーザ端末6から視聴コンテンツの言語情報LI1と、シーンの時間情報とを受信する代わりに、ユーザへコンテンツを提供している事業者のコンテンツ提供装置から、ユーザ端末6へ配信しているコンテンツの言語情報LI1と、時間情報とを受信してもよい。
また、シーン言語抽出部31は、視聴コンテンツの言語情報LI1を受信する代わりに、視聴コンテンツのコンテンツ識別情報を受信し、当該コンテンツ識別情報に対応した言語情報LI1を、言語情報記憶部2や、言語情報LI1を蓄積している図示しない他の装置から読み出すことでもよい。
また、視聴コンテンツが動画コンテンツでなく、ウェブページや文書データなどのコンテンツである場合、シーン言語抽出部31は、ユーザ端末6によって現在ユーザが閲覧しているコンテンツにおいて選択した部分のテキスト情報を受信し、この受信したテキスト情報自体をシーン言語情報SIとして、ステップS125からの処理を行なう。
また、上記処理においては、言語的類似度の算出に、単語間類似度やTF−IDFを使用しているが、文書間の類似度を定量的に算出可能な情報であれば、任意の既存の言語的類似度の判定方法を用いることができる。
また、言語的類似度をそのまま関連度として用いてもよい。
[3.2 関連コンテンツ検索提示部5の処理フロー]
図6は、コンテンツ検索装置1の関連コンテンツ検索提示部5における関連コンテンツ検索提示処理の処理フローを示す。
同図において、関連コンテンツ検索提示部5のインデックス言語関連性解析部51は、インデックス言語検索部3から、関連コンテンツの検索キーとしてのインデックス言語情報LI3を受信すると、この受信したインデックス言語情報LI3と、関連コンテンツ情報記憶部4内に記憶されている全ての言語情報LI4それぞれとの関連度を、言語的類似度及び時間的関連性から算出する(ステップS205)。関連度は、図5のステップS125と同様の処理により算出できる。このとき、インデックス言語情報LI3が複数であれば、各インデックス言語情報LI3と言語情報LI4それぞれとの関連度を算出してもよく、受信した全てのインデックス言語情報LI3を併せて1つの検索キーとして使用してもよい。また、時間的関連性を、インデックス言語情報LI3内のコンテンツ時刻情報または現在時刻と、言語情報LI4内のコンテンツ時刻情報との差分とする代わりに、インデックス言語出力部33から出力された言語情報LI1内のコンテンツ時刻情報と、言語情報LI4内のコンテンツ時刻情報との差分としてもよい。
関連コンテンツ選択部52は、ステップS205において算出した、インデックス言語情報LI3と言語情報LI4それぞれとの関連度に、所定の閾値より高い関連度のものがあるか否かを判断する(ステップS210)。所定の閾値より高い関連度のものが得られなかった場合(ステップS210:NO)、ステップS205の処理へ戻る。所定の閾値より高い関連度のものが得られた場合(ステップS210:YES)、検索結果出力部53は、その所定の閾値より高い関連度が得られた言語情報LI4に対応した関連コンテンツの情報を、関連度が高い順に関連コンテンツ検索結果としてユーザ端末6へ出力する。あるいは、関連コンテンツ検索結果をコンテンツ配信装置へ出力し、コンテンツ配信装置からユーザ端末6へ当該関連コンテンツ検索結果を送信してもよい。また、関連度が高いものから所定数の言語情報LI4に対応した関連コンテンツの情報を出力してもよい。
言語情報LI4に対応した関連コンテンツの情報は、言語情報LI4から読み出した番組のタイトル等の任意の情報や、言語情報LI4に対応した関連コンテンツのコンテンツデータから作成されたサムネイル等とすることができる。
上記により、ユーザが視聴しているシーンに対応した言語情報が少ない場合でも、その言語情報に基づいて検索した別のコンテンツの言語情報を検索キーとして用い、関連コンテンツを検索することが可能となる。このとき、視聴コンテンツの言語情報に含まれない言語情報を目的の関連コンテンツを検索するための検索キーとして利用できるため、より幅広い関連コンテンツの検索が可能となる。
放送局で制作される番組などのコンテンツは、あるテーマに基づいて制作されていることが多い。ニュースなどの番組に関しても、それぞれのニュース項目はある特定の事柄に関して事実を述べたものになっている。同様に、ウェブページなども特定のテーマについて記述されているものが多い。本実施形態では、単純なキーワード群をインデックスとして用いるのではなく、このような番組単位、項目単位の言語情報や、あるテーマについて記述されたウェブページ全体をインデックス言語情報として用いることにより、視聴コンテンツから最初に得られる少ない言語情報(キーワード)から検索キーを拡張して、幅広い検索を行うことを可能としたものである。
つまり、従来のように、視聴シーンに関連するキーワードが複数得られる場合であっても、その得られた複数のキーワード間に関連性がなければ、それぞれのキーワードを単体で用いるか、相互の関連性に幅がある複数のキーワードを用いて関連コンテンツを検索することになってしまい、精度のよい検索は困難である。一方、本実施の形態では、相互の関連性が高く、かつ、シーンに対応した言語情報には含まれていなかったキーワードも含めたキーワード群を効率よく得ることができ、このキーワード群を用いて関連コンテンツを検索することができるため、話題が発散しすぎず、また、ユーザが知り得なかった内容が含まれる関連コンテンツも検索することができる。
[4.実施例]
[4.1 視聴番組の関連番組提示]
図7は、上述したコンテンツ検索装置1を、ユーザが視聴している番組の関連番組提示に適用した実施例を示す図である。本実施例では、ユーザがテレビジョン受信機などのユーザ端末6により放送番組(視聴コンテンツ)を視聴している際に、リモコンのボタンを押すなどの特定の入力動作を行なうことによって、ユーザ端末6において視聴中の番組についての関連番組(関連コンテンツ)の映像を画面上に表示させる。同図においては、番組Aを視聴している際にボタンを押したことで(図5、ステップS105:NO、ステップS110:YES)、この番組Aにおける視聴中のシーンに関連した番組B,C,Dが表示される場合を想定している。以下、処理の流れを示す。
ユーザが視聴している番組Aには、言語情報LI1が付加されている。言語情報LI1は、あらかじめ番組に付加された字幕データ、メタデータ、あるいは番組を音声認識して得られた音声認識結果データ、番組原稿データ、電子番組表(EPG)などの情報であり、当該情報がタイムコードとともに記述されている。言語情報LI1は番組全体に対して1個付加されていてもよいし、番組内の各項目それぞれについて1個が付加されていてもよい。
インデックス言語検索部3のシーン言語抽出部31は、言語情報LI1内のタイムコードと、視聴シーンに対応する時間情報とを利用することにより、ユーザの視聴に併せて、言語情報LI1から一部の言語情報、つまり、シーン言語情報SIを抽出する(図5、ステップS115)。具体的には、シーン言語抽出部31は、言語情報LI1から、視聴している時刻を基準にした一定の時間幅に含まれるテキストデータを抽出する、視聴している時刻に対応した記述箇所から一定の数の文のテキストデータを抽出する、などの方法によりテキストデータを抽出して、シーン言語情報SIを生成する。番組Aに付加されている言語情報LI1は言語情報記憶部2に蓄積され、他の視聴コンテンツの関連コンテンツを検索する際には言語情報LI2として使用される。
次に、シーン言語関連性解析部32は、言語解析及び時間情報を用い、言語情報LI1から抽出されたシーン言語情報SIと、言語情報記憶部2内の各言語情報LI2との言語的類似度及び時間的関連性から関連度を計算する(図5、ステップS125)。計算の結果、関連性が高いと判断された言語情報LI2は、インデックス言語出力部33により言語情報記憶部2から読み出され、インデックス言語情報LI3として関連コンテンツ検索提示部5に出力される(図5、ステップS130:YES、ステップS135)。なお、言語情報LI2は言語情報LI1と同程度のタイムコード付き各種情報でもよいし、タイムコードが付いていないテキスト情報のみでもよい。
続いて、関連コンテンツ検索提示部5のインデックス言語関連性解析部51は、上記と同様に、言語的類似度及び時間的関連性を用いることによって、インデックス言語情報LI3と、関連コンテンツ情報記憶部4としての番組DB(DB:データベース)に蓄積された、番組それぞれに付加された言語情報LI4との関連度を計算する(図6、ステップS205)。言語情報LI4は言語情報LI1と同程度のタイムコード付き各種情報でもよいし、タイムコードが付いていないテキスト情報のみでもよい。
計算の結果、関連コンテンツ選択部52は、インデックス言語情報LI3と高い関連性を持った言語情報LI4を選択し、選択した言語情報LI4に対応した番組を関連番組として抽出する(図6、ステップS210:YES、ステップS215)。同図においては、3つの関連番組B、C、Dが視聴コンテンツの関連番組として抽出されている。検索結果出力部53は、抽出された関連番組B、C、Dを、テレビ画面に視聴番組と併せてサムネイル表示させる。
なお、視聴番組および関連番組は、番組に関連した言語情報が付加されている限り、その時点で放送されている番組でもよいし、事前にコンテンツ配信サーバなどに蓄積されている番組でもよい。ユーザはそれら検索結果として表示された関連番組をユーザ端末6において選択することにより、放送されている関連番組のコンテンツデータを表示させたり、番組DBから関連番組のコンテンツデータを取得して表示させたりすることができる。
図7に示した実施例における番組検索について、図8を用いて説明する。
図8は、本実施例に用いられる言語情報の例を示す図である。ユーザがユーザ端末6によって視聴中のニュース番組である番組Aには、あらかじめタイムコード付きの字幕データである言語情報LI1が付与されている。従って、ある時刻における番組Aのアナウンサーの発話内容を特定することができる。コンテンツ検索装置1のシーン言語抽出部31は、言語情報LI1内に記述されているタイムコードを利用し、ユーザの視聴に併せて、特定のサイズのウィンドウ枠によって、ある時刻でのシーン言語情報SIを抽出する。ここでは、視聴されているシーンの時刻からある一定枠のウィンドウ(当該時刻より30秒前まで、など)に含まれる字幕の文章をシーン言語情報SIとして取り出すことができる。従って、時間が経過すると、シーン言語情報SIとして抽出する対象となる部分は視聴に併せて移動する。
言語情報記憶部2には、各コンテンツの言語情報LI2が蓄積されている。抽出されたシーン言語情報SIと、言語情報記憶部2に蓄積された多数の言語情報LI2それぞれとの関連度を計算し、関連度が上位にあったものをインデックス言語情報LI3とする。同図では、「アメリカ」、「メーカー」、「金融支援」といった単語が共通しているため、共通単語の数に基づき、別のニュース番組である番組Xの言語情報LI2をインデックス言語情報LI3として抽出した例を示している。
次に、得られたインデックス言語情報LI3と、番組DBに多数蓄積されている番組それぞれに付加されている言語情報LI4との関連度を計算し、関連度が上位である言語情報LI4を検索結果として抽出し、抽出した言語情報LI4に対応した関連コンテンツを検索結果としてユーザ端末6の画面に出力する。これによって、元の言語情報LI1に含まれていない「自動車メーカー」「倒産」などの単語を含む番組を検索することができる。これにより、「どんなメーカーが実際どういった危機に陥っているのだろうか?」というユーザの疑問にさりげなく答えるような情報番組を検索し、ユーザに提示することが可能となる。
また、関連性の比較には、言語情報だけではなく、その言語情報に含まれるコンテンツ時刻情報も利用することができるため、インデックス言語情報LI3や言語情報LI4を検索する際に、視聴中の番組に付加されている言語情報LI1の作成時間と近いものを優先的に抽出し、時事性をも考慮した検索が可能となる。このように、本実施例では、視聴している番組とは別の番組の言語情報をインデックスとして用いることにより、検索語の拡張を行うことができ、より関連性の深い関連コンテンツを提供することを可能とする。
[5.2 視聴動画の関連動画提示]
図9は、上述したコンテンツ検索装置1を、ユーザが視聴している動画の関連動画提示に適用した実施例を示す図である。本実施例では、ユーザがパーソナルコンピュータなどのユーザ端末6に備えられているブラウザ等によって、インターネット上の動画視聴サイトなどが提供する動画を視聴している際に、コンテンツ検索装置1によってユーザが視聴している動画に関連した動画コンテンツを、ユーザ端末6が表示している動画の脇に表示する。
ユーザが視聴している動画aには、シーン毎に場面を説明するメタデータである言語情報LI1が付加されており、インデックス言語検索部3のシーン言語抽出部31は、ユーザの視聴に合わせて、視聴している場面に対応したメタデータを、あるいは、全体をシーン言語情報SIとして取り出す(図5、ステップS105:NO、ステップS110:YES、ステップS115)。言語情報LI1は、あらかじめ動画aに付加された字幕データ、メタデータ、音声認識結果データ、番組原稿データ、EPGなどの情報である。
次に、インデックス言語検索部3のシーン言語関連性解析部32は、言語的類似度及び時間的関連性を用い、言語情報LI1から抽出されたシーン言語情報SIと、言語情報記憶部2内の各言語情報LI2との関連度を計算する(図5、ステップS125)。計算の結果、関連性が高いと判断された言語情報LI2は、インデックス言語出力部33により言語情報記憶部2から読み出され、インデックス言語情報LI3として関連コンテンツ検索提示部5に出力される(図5、ステップS130:YES、ステップS135)。なお、言語情報LI2は特定の番組コンテンツに付加された言語情報でもよいし、特定のウェブページ上のテキストデータなどでもよい。
続いて、関連コンテンツ検索提示部5のインデックス言語関連性解析部51は、上記と同様に言語的類似度及び時間的関連性を用いることによって、インデックス言語情報LI3と、関連コンテンツ情報記憶部4としての動画DBに蓄積された、動画それぞれに付加された言語情報LI4との関連度を計算する(図6、ステップS205)。言語情報LI4は、動画に付加されたメタデータなどである。
計算の結果、関連コンテンツ選択部52は、インデックス言語情報LI3と高い関連性を持った言語情報LI4を抽出し、抽出した言語情報LI4に対応した動画を関連動画として抽出する(図6、ステップS210:YES、ステップS215)。同図においては、関連動画b,c,dの3つが関連動画として抽出されている。検索結果出力部53は、抽出された関連動画b,c,dを、ユーザ端末6のウェブブラウザ上に動画aと併せてサムネイル表示させる。ユーザは、それら関連動画をユーザ端末6において選択することにより、関連動画を動画DBから取得し、視聴することができる。
[4.3 ウェブページの関連動画提示]
図10は、上述したコンテンツ検索装置1をユーザが閲覧しているウェブページの関連動画提示に適用した実施例を示す図である。本実施例では、ユーザがユーザ端末6に備えられているブラウザ等のウェブページ表示によりインターネット上のウェブページαを閲覧している際に、コンテンツ検索装置1によって、ユーザが閲覧しているウェブページαに関連した、あるいは当該ウェブページα上においてマウスなどで選択したテキストに関連した動画コンテンツを、ユーザ端末6が表示しているウェブページαの脇に表示する。
コンテンツ検索装置1のインデックス言語検索部3がユーザ端末6に備えられている場合、インデックス言語検索部3のシーン言語抽出部31は、ユーザがユーザ端末6のブラウザに表示されているウェブページα上で、マウス等によって手動により選択した部分のテキストデータをシーン言語情報SIとして取得する。また、ユーザが閲覧している部分に関わらず、ウェブページα全体のテキストデータをシーン言語情報SIとして以降の処理を行ってもよい。
次に、シーン言語関連性解析部32は、言語的類似度及び時間的関連性を用い、シーン言語情報SIと、言語情報記憶部2内の各言語情報LI2との関連度を計算する(図5、ステップS125)。計算の結果、関連性が高いと判断された言語情報LI2は、インデックス言語出力部33により言語情報記憶部2から読み出され、インデックス言語情報LI3として関連コンテンツ検索提示部5に出力される(図5、ステップS130:YES、ステップS135)。
続いて、関連コンテンツ検索提示部5のインデックス言語関連性解析部51は、上記のように言語的類似度及び時間的関連性によって、検索キーとして特定されたインデックス言語情報LI3と、関連コンテンツ情報記憶部4としての動画DBに蓄積された、動画それぞれに付加された言語情報LI4との関連度を算出する(図6、ステップS205)。
計算の結果、関連コンテンツ選択部52は、インデックス言語情報LI3と高い関連性を持った言語情報LI4を抽出し、抽出した言語情報LI4に対応した動画を関連動画として抽出する(図6、ステップS210:YES、ステップS215)。同図においては関連動画β,γ,δの3つが関連動画として抽出されている。検索結果出力部53は、抽出された関連動画β,γ,δを、ユーザ端末6のウェブブラウザ上にウェブページαと合わせてサムネイル表示させる。ユーザは、それら関連動画をユーザ端末6において選択することにより、関連動画を動画DBから取得し、視聴することができる。
上述したように、本実施形態によるコンテンツ検索装置1は、ユーザが視聴・閲覧しているコンテンツの言語情報を利用して、言語特徴的な類似度が高く、かつ、時間的関連の深い他のコンテンツの言語情報をインデックス言語情報として取得する。そして、さらに、その取得したインデックス言語情報の特徴から、言語特徴的な類似度が高く、かつ、時間的関連の深い関連コンテンツ言語情報を検索することにより、連想的にコンテンツを検索し、ユーザに提示する。これにより、コンテンツ検索装置1は、ユーザが視聴・閲覧しているコンテンツから、そのコンテンツに関連したコンテンツを、ユーザが前提として持っている知識の範囲外に及ぶ内容を含むものまで自動的に検索して提示することができる。よって、ユーザの好奇心を刺激する関連情報を提供することが可能となる。また、コンテンツ提供業者において従来必要であったキーワード抽出や関連付けなどの作業を行なったりする必要もない。
なお、上述のコンテンツ検索装置1のインデックス言語検索部3及び関連コンテンツ検索提示部5、ならびに、ユーザ端末6は、内部にコンピュータシステムを有している。そして、コンテンツ検索装置1のインデックス言語検索部3及び関連コンテンツ検索提示部5、ならびに、ユーザ端末6の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1…コンテンツ検索装置
2…言語情報記憶部
3…インデックス言語検索部
31…シーン言語抽出部
32…シーン言語関連性解析部
33…インデックス言語出力部
4…関連コンテンツ情報記憶部
5…関連コンテンツ検索提示部
51…インデックス言語関連性解析部
52…関連コンテンツ選択部
53…検索結果出力部
6…ユーザ端末

Claims (6)

  1. コンテンツの内容に関する情報を記述した言語情報を記憶する言語情報記憶部と、
    検索対象とする関連コンテンツの内容に関する情報を記述した言語情報を記憶する関連コンテンツ情報記憶部と、
    視聴中のコンテンツである視聴コンテンツの内容に関する情報を記述した言語情報と、当該視聴コンテンツにおいてユーザが視聴している部分を特定するシーン特定情報とを取得し、当該視聴コンテンツの言語情報から前記シーン特定情報に対応した部分を抽出してシーン言語情報を得るシーン言語抽出部と、
    前記言語情報記憶部に記憶されている前記言語情報と、前記シーン言語情報との言語的類似度から関連度を算出するシーン言語関連性解析部と、
    前記シーン言語関連性解析部によって算出された前記関連度に基づき、前記言語情報記憶部から選択した前記言語情報をインデックス言語情報として出力するインデックス言語出力部と、
    前記関連コンテンツ情報記憶部に記憶されている前記言語情報と、前記インデックス言語情報との言語的類似度から関連度を算出するインデックス言語関連性解析部と、
    前記インデックス言語関連性解析部によって算出された前記関連度に基づき、前記関連コンテンツ情報記憶部に記憶されている前記言語情報を選択する関連コンテンツ選択部と、
    前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツの情報を出力する検索結果出力部と、
    を備えることを特徴とするコンテンツ検索装置。
  2. 前記視聴コンテンツの言語情報、及び、前記言語情報記憶部に記憶されている前記言語情報にはコンテンツの作成、配信または放送の時刻を示すコンテンツ時刻情報が含まれており、
    前記シーン言語関連性解析部は、前記言語情報記憶部に記憶されている前記言語情報と前記シーン言語情報との言語的類似度、及び、当該言語情報内のコンテンツ時刻情報が示す時刻と前記視聴コンテンツの言語情報内のコンテンツ時刻情報が示す時刻との乖離に基づいて関連度を算出する、
    ことを特徴とする請求項1に記載のコンテンツ検索装置。
  3. 前記関連コンテンツの言語情報記憶部に記憶されている前記言語情報、及び、前記関連コンテンツ情報記憶部に記憶されている前記言語情報にはコンテンツの作成、配信または放送の時刻を示すコンテンツ時刻情報が含まれており、
    前記インデックス言語関連性解析部は、前記関連コンテンツ情報記憶部に記憶されている前記言語情報と前記インデックス言語情報との言語的類似度、及び、当該言語情報内のコンテンツ時刻情報が示す時刻と前記インデックス言語情報内のコンテンツ時刻情報が示す時刻との乖離に基づいて関連度を算出する、
    ことを特徴とする請求項1または請求項2に記載のコンテンツ検索装置。
  4. 前記シーン言語抽出部は、ウェブページにおいてユーザが選択した部分のテキストデータをシーン言語情報とすることを特徴とする請求項1から請求項3のいずれかの項に記載のコンテンツ検索装置。
  5. 前記検索結果出力部は、前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツのデジタルデータから得られる画像情報を出力することを特徴とする請求項1から請求項4のいずれかの項に記載のコンテンツ検索装置。
  6. コンテンツ検索装置として用いられるコンピュータを、
    検索対象とする関連コンテンツの内容に関する情報を記述した言語情報を記憶する関連コンテンツ情報記憶部、
    視聴中のコンテンツである視聴コンテンツの内容に関する情報を記述した言語情報と、当該視聴コンテンツにおいてユーザが視聴している部分を特定するシーン特定情報とを取得し、当該視聴コンテンツの言語情報から前記シーン特定情報に対応した部分を抽出してシーン言語情報を得るシーン言語抽出部、
    前記言語情報記憶部に記憶されている前記言語情報と、前記シーン言語情報との言語的類似度を算出するシーン言語関連性解析部、
    前記シーン言語関連性解析部によって算出された前記言語的類似度に基づき、前記言語情報記憶部から選択した前記言語情報をインデックス言語情報として出力するインデックス言語出力部、
    前記関連コンテンツ情報記憶部に記憶されている前記言語情報と、前記インデックス言語情報との言語的類似度を算出するインデックス言語関連性解析部、
    前記インデックス言語関連性解析部によって算出された前記言語的類似度に基づき、前記関連コンテンツ情報記憶部に記憶されている前記言語情報を選択する関連コンテンツ選択部、
    前記関連コンテンツ選択部により選択された前記言語情報に対応した関連コンテンツの情報を出力する検索結果出力部、
    として機能させることを特徴とするコンピュータプログラム。
JP2009066286A 2009-03-18 2009-03-18 コンテンツ検索装置及びコンピュータプログラム Active JP5335500B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009066286A JP5335500B2 (ja) 2009-03-18 2009-03-18 コンテンツ検索装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066286A JP5335500B2 (ja) 2009-03-18 2009-03-18 コンテンツ検索装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2010218385A true JP2010218385A (ja) 2010-09-30
JP5335500B2 JP5335500B2 (ja) 2013-11-06

Family

ID=42977136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066286A Active JP5335500B2 (ja) 2009-03-18 2009-03-18 コンテンツ検索装置及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP5335500B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4940375B1 (ja) * 2011-10-31 2012-05-30 株式会社電通 コンテンツ表示システム
JP2012141768A (ja) * 2010-12-28 2012-07-26 Dainippon Printing Co Ltd 携帯用端末装置、情報閲覧用プログラム、サーバ装置及び、閲覧情報提供用プログラム
JP2014506415A (ja) * 2010-12-23 2014-03-13 ヤフー! インコーポレイテッド 信号駆動型双方向テレビ
JP2016045517A (ja) * 2014-08-19 2016-04-04 日本放送協会 コンテンツ提示装置
JP2017184024A (ja) * 2016-03-30 2017-10-05 デジタル・アドバタイジング・コンソーシアム株式会社 番組関連情報処理方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148796A (ja) * 1998-09-03 2000-05-30 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス情報を用いた映像検索方法および音声インデックス情報を用いた音声検索方法並びに映像検索システム
JP2002312370A (ja) * 2001-04-11 2002-10-25 J-Fit Co Ltd マルチメディアデータ検索装置、マルチメディアデータ検索方法およびマルチメディアデータ検索プログラム
JP2003505756A (ja) * 1999-05-28 2003-02-12 インデックス システムズ インコーポレイテッド テレビ番組のデータベースのサーチ用ウェブページ上で選択されたテキストを使用する方法及びシステム
JP2003323439A (ja) * 2002-05-01 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報提供方法、装置、プログラム及び該プログラムを格納した記録媒体
JP2005115607A (ja) * 2003-10-07 2005-04-28 Matsushita Electric Ind Co Ltd 映像検索装置
JP2005202485A (ja) * 2004-01-13 2005-07-28 Toshiba Corp 映像提示装置
JP2006113984A (ja) * 2004-10-18 2006-04-27 Sony Corp 情報提供システム,メタデータ収集解析サーバ,およびコンピュータプログラム
JP2007164633A (ja) * 2005-12-15 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> コンテンツ検索方法及び装置及びプログラム
JP2008227909A (ja) * 2007-03-13 2008-09-25 Matsushita Electric Ind Co Ltd 映像検索装置
JP2008234431A (ja) * 2007-03-22 2008-10-02 Toshiba Corp コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148796A (ja) * 1998-09-03 2000-05-30 Jisedai Joho Hoso System Kenkyusho:Kk 映像インデックス情報を用いた映像検索方法および音声インデックス情報を用いた音声検索方法並びに映像検索システム
JP2003505756A (ja) * 1999-05-28 2003-02-12 インデックス システムズ インコーポレイテッド テレビ番組のデータベースのサーチ用ウェブページ上で選択されたテキストを使用する方法及びシステム
JP2002312370A (ja) * 2001-04-11 2002-10-25 J-Fit Co Ltd マルチメディアデータ検索装置、マルチメディアデータ検索方法およびマルチメディアデータ検索プログラム
JP2003323439A (ja) * 2002-05-01 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> マルチメディア情報提供方法、装置、プログラム及び該プログラムを格納した記録媒体
JP2005115607A (ja) * 2003-10-07 2005-04-28 Matsushita Electric Ind Co Ltd 映像検索装置
JP2005202485A (ja) * 2004-01-13 2005-07-28 Toshiba Corp 映像提示装置
JP2006113984A (ja) * 2004-10-18 2006-04-27 Sony Corp 情報提供システム,メタデータ収集解析サーバ,およびコンピュータプログラム
JP2007164633A (ja) * 2005-12-15 2007-06-28 Nippon Telegr & Teleph Corp <Ntt> コンテンツ検索方法及び装置及びプログラム
JP2008227909A (ja) * 2007-03-13 2008-09-25 Matsushita Electric Ind Co Ltd 映像検索装置
JP2008234431A (ja) * 2007-03-22 2008-10-02 Toshiba Corp コメント蓄積装置、コメント作成閲覧装置、コメント閲覧システムおよびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014506415A (ja) * 2010-12-23 2014-03-13 ヤフー! インコーポレイテッド 信号駆動型双方向テレビ
JP2012141768A (ja) * 2010-12-28 2012-07-26 Dainippon Printing Co Ltd 携帯用端末装置、情報閲覧用プログラム、サーバ装置及び、閲覧情報提供用プログラム
JP4940375B1 (ja) * 2011-10-31 2012-05-30 株式会社電通 コンテンツ表示システム
JP2016045517A (ja) * 2014-08-19 2016-04-04 日本放送協会 コンテンツ提示装置
JP2017184024A (ja) * 2016-03-30 2017-10-05 デジタル・アドバタイジング・コンソーシアム株式会社 番組関連情報処理方法

Also Published As

Publication number Publication date
JP5335500B2 (ja) 2013-11-06

Similar Documents

Publication Publication Date Title
KR101644789B1 (ko) 방송 프로그램 연관 정보 제공 장치 및 방법
US10567834B2 (en) Using an audio stream to identify metadata associated with a currently playing television program
KR100684484B1 (ko) 비디오 세그먼트를 다른 비디오 세그먼트 또는 정보원에링크시키는 방법 및 장치
US8769584B2 (en) Methods for displaying contextually targeted content on a connected television
US8478759B2 (en) Information presentation apparatus and mobile terminal
CN101778233B (zh) 数据处理装置以及数据处理方法
US20100005084A1 (en) Method and system for prefetching internet content for video recorders
EP2541963A2 (en) Method for identifying video segments and displaying contextually targeted content on a connected television
US7904452B2 (en) Information providing server, information providing method, and information providing system
KR101811468B1 (ko) 톱-k 처리를 이용한 의미 보강
JP2003157288A (ja) 情報関連付け方法、端末装置、サーバ装置、プログラム
US20130007057A1 (en) Automatic image discovery and recommendation for displayed television content
KR20030007727A (ko) 자동 비디오 리트리버 제니
JP4487018B2 (ja) 関連シーン付与装置及び関連シーン付与方法
JP5335500B2 (ja) コンテンツ検索装置及びコンピュータプログラム
Sumiyoshi et al. CurioView: TV recommendations related to content being viewed
JP2009118024A (ja) 放送受信端末
JP5757886B2 (ja) テレビ放送録画予約方法、装置およびシステム
JP2008027258A (ja) データ表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130731

R150 Certificate of patent or registration of utility model

Ref document number: 5335500

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250