JP2007150724A - 映像視聴支援システムおよび方法 - Google Patents

映像視聴支援システムおよび方法 Download PDF

Info

Publication number
JP2007150724A
JP2007150724A JP2005342339A JP2005342339A JP2007150724A JP 2007150724 A JP2007150724 A JP 2007150724A JP 2005342339 A JP2005342339 A JP 2005342339A JP 2005342339 A JP2005342339 A JP 2005342339A JP 2007150724 A JP2007150724 A JP 2007150724A
Authority
JP
Japan
Prior art keywords
video
text data
divided
keyword
clue word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005342339A
Other languages
English (en)
Inventor
Tetsuya Sakai
哲也 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005342339A priority Critical patent/JP2007150724A/ja
Priority to US11/520,697 priority patent/US7698721B2/en
Priority to CNB2006101604593A priority patent/CN100485686C/zh
Publication of JP2007150724A publication Critical patent/JP2007150724A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/162Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing
    • H04N7/163Authorising the user terminal, e.g. by paying; Registering the use of a subscription channel, e.g. billing by receiver means only
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Abstract

【課題】番組視聴の楽しみを損なうことを回避する。
【解決手段】所定の映像部分に対応する手がかり語を格納している手段102と、取得された映像に対応付けられているテキストデータを取得する手段101と、テキストデータと手がかり語とを照合し取得された映像のうち、手がかり語に対応する映像部分を特定する手段101と、トピックごとに映像を分割する手段103と、分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスを作成する手段と、特定された映像部分に対応するサムネイル、キーワード、および、キーセンテンスの少なくとも一部分を隠蔽する手段105と、分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスとの映像組を提示する手段106と、提示された映像組から組を選択させる手段107,108とを具備する。
【選択図】 図1

Description

本発明は、映像コンテンツをトピックごとに分割してユーザに提示し、ユーザに視聴したいトピックを選択させることにより映像コンテンツの効率的視聴を可能にする映像視聴支援システムおよび方法に関する。
現在、地上波、衛星放送、ケーブルテレビで配信されるテレビ番組や、DVDなどのメディアにより販売される映画など、視聴者は多様なビデオコンテンツに接している。今後も、チャネル数の増加や安価なメディアの普及により、視聴可能なコンテンツの量は増え続けると考えられる。このため、1つのビデオコンテンツを最初から最後まで視聴するという視聴スタイルに変わって、まず1つのビデオコンテンツの全体構造、すなわち目次のようなものを概観し、自分の興味のある部分のみを選択してから視聴する、といった「選択的視聴(selective viewing)」というスタイルが今後一般化する可能性がある。
例えば、2時間の雑多な話題を含む情報番組のうち、まず特定の話題を2つ3つ選択し、これらのみを視聴すれば、合計の視聴時間は数十分でおさまり、あまった時間を他の番組の視聴や、ビデオコンテンツ視聴以外に使うことにより、効率的なライフスタイルが実現できる可能性がある。
従来、ビデオコンテンツの選択的視聴を行うには、ユーザインタフェースを視聴者に提供する手法が考えられる(例えば、特許文献1参照)。この手法では、分割済みのビデオコンテンツに対して、分割された内容ごとにキーフレーム(key frame)、すなわちサムネイル(thumbnail)画像を提示し、さらに各サムネイル画像とともにユーザの興味度などを表示するインタフェースを提供している。
以上のような従来技術を用いれば、各トピックに対応するサムネイル画像とキーワードあるいはキーセンテンスの一覧をユーザに提示し、ユーザに選択的視聴を促すインタフェースを構成することができる。
しかし、このようなユーザインタフェースを実際に選択的視聴に利用する場合には、ユーザが視聴の前には知らせてほしくない情報が視聴前にユーザに提示されてしまうことにより、視聴の楽しみが損なわれてしまうという問題点がある。
例えば、クイズ番組を視聴しようと思っているユーザにクイズの回答キーワードや回答映像を見せてしまったり、スポーツ番組を視聴しようと思っているユーザにスコアが表示されたサムネイル画像を見せてしまったり、あるいはお笑い番組を視聴しようと思っているユーザに、ネタのオチ(punchline)の部分をキーセンテンスとして見せてしまうといった失敗が考えられる。
このような失敗が頻発すれば、ユーザは視聴前に興味を失ってしまい、ユーザに興味のある部分を選択させ効率的な視聴を実現するという選択的視聴の本来の目的が達成できなくなる恐れがある。
そこで、ユーザの視聴の楽しみを損なわないための技術として、複数の映像コンテンツの相互参照関係を利用し、例えば、ユーザが楽しみにしているスポーツ番組の前にそのスポーツの試合の結果を伝えるニュース番組をユーザに提示することがないよう、ユーザに提示すべきコンテンツの順序を工夫するものがある(例えば、特許文献2参照)。
特開2004−23799号公報 特開2004−118483号公報
しかし、上記技術は、あるコンテンツのどの部分が他のコンテンツに引用されているか、という引用関係をもとにしているため、単一の番組のトピック分割による選択的視聴に適用することができない。また、選択的視聴においては一覧画面にユーザが事前には見たくない情報が提示されてしまうが、上記技術は、番組の提示順序を制御するだけであるので、例えば、トピック一覧画面においてユーザが事前には見たくない情報を隠蔽するといった解決手段を有していない。
本発明はかかる事情を考慮してなされたものであり、ユーザの番組視聴の楽しみを損なうことを回避する映像視聴支援システムおよび方法を提供することを目的とする。
上述の課題を解決するため、本発明の映像視聴支援システムは、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、ある映像を取得する映像取得手段と、前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定する手段と、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、前記抽出されたトピックごとに前記映像を分割する分割手段と、前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、前記特定された映像部分に対応する、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽する隠蔽手段と、前記隠蔽手段によって一部分が隠蔽された後に、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示する提示手段と、複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする。
また、本発明の映像視聴支援システムは、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、ある映像を取得する映像取得手段と、前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定する手段と、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、前記抽出されたトピックごとに前記映像を分割する分割手段と、前記分割された映像のうちの前記特定された映像部分を含まない分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示する提示手段と、複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする。
さらに、本発明の映像視聴支援システムは、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、ある映像を取得する映像取得手段と、前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、前記抽出されたトピックごとに前記映像を分割する分割手段と、前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定する手段と、前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、前記手がかり語に対応する映像部分を含んでいると判定された、分割された映像に含まれる、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽する隠蔽手段と、前記隠蔽手段によって一部分が隠蔽された後に、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示する提示手段と、複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする。
またさらに、本発明の映像視聴支援システムは、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、ある映像を取得する映像取得手段と、前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、前記抽出されたトピックごとに前記映像を分割する分割手段と、前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定する手段と、前記分割された映像のうちの前記手がかり語に対応する映像部分を含まない分割された映像ごとに、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示する提示手段と、複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする。
本発明の映像視聴支援方法は、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、ある映像を取得し、前記取得された映像に対応付けられているテキストデータを取得し、前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定し、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、前記抽出されたトピックごとに前記映像を分割し、前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、前記特定された映像部分に対応する、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽し、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示し、複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする。
また、本発明の映像視聴支援方法は、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、ある映像を取得し、前記取得された映像に対応付けられているテキストデータを取得し、前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定し、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、前記抽出されたトピックごとに前記映像を分割し、前記分割された映像のうちの前記特定された映像部分を含まない分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示し、複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする。
さらに、本発明の映像視聴支援方法は、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、ある映像を取得し、前記取得された映像に対応付けられているテキストデータを取得し、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、前記抽出されたトピックごとに前記映像を分割し、前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定し、前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、前記手がかり語に対応する映像部分を含んでいると判定された、分割された映像に含まれる、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽し、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示し、複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする。
またさらに、本発明の映像視聴支援方法は、所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、ある映像を取得し、前記取得された映像に対応付けられているテキストデータを取得し、前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、前記抽出されたトピックごとに前記映像を分割し、前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定し、前記分割された映像のうちの前記手がかり語に対応する映像部分を含まない分割された映像ごとに、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示し、複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする。
本発明の映像視聴支援システムおよび方法によれば、ユーザの番組視聴の楽しみを損なうことを回避することができる。
以下、図面を参照しながら本発明の実施形態に係る映像視聴支援システムおよび方法について詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態に係る映像視聴支援システムについて図1を参照して説明する。図1は本発明の第1の実施形態に係る映像視聴支援システムの概略構成を示すブロック図である。
本実施形態の映像視聴支援システム100は、非開示部分判定部101、非開示部分判定ルールデータベース(DB)102、トピック分割部103、非開示部分判定結果トピック分割結果データベース104、トピック一覧生成部105、出力部106、入力部107、再生部分選択部108を備えている。
非開示部分判定部101は、ユーザが特定のジャンルのビデオコンテンツを視聴する前に、視聴前の開示に適した映像部分と適さない映像部分とに分割するための境界を判定する。本実施形態では、非開示部分判定部101は、ユーザが特定のジャンル(例えば、スポーツ、クイズ)のビデオコンテンツを視聴する前に、この視聴前に視聴すべきでない映像部分を特定する。非開示部分判定部101は、非開示部分判定ルールデータベース102を参照して、取得した映像について、上記の視聴すべきでない映像部分を特定する。
非開示部分判定ルールデータベース102は、自然言語表現を手がかり語(cue phrases)として格納している。非開示部分判定部101は、この手がかり語に対応する映像部分があるかを検出することによって、上記の視聴すべきでない映像部分を特定する。
トピック分割部103は、ビデオコンテンツをトピックに分割する。
非開示部分判定結果トピック分割結果データベース104は、ビデオコンテンツごとに、非開示部分判定部101が特定した映像部分と、トピック分割部103により得られたトピックを格納する。
トピック一覧生成部105は、非開示部分判定結果トピック分割結果データベース104を参照して、ユーザに提示する、サムネイル画像、キーワード、キーセンテンスを生成し、トピック一覧情報を作成する。この際、トピック一覧生成部105は、非開示部分判定結果トピック分割結果データベース104を参照して、非開示部分判定部101が特定した映像部分に含まれる、サムネイル画像、キーワード、キーセンテンスを隠蔽する。
出力部106は、トピック一覧情報やビデオコンテンツを提示する。出力部106は、例えば、ディスプレイ画面を有している。
入力部107は、ユーザからトピックに対する操作や、ビデオコンテンツの再生開始、停止、早送りなどの操作コマンドの入力を受け付ける、リモコンやキーボードなどの入力装置に対応する。
再生部分選択部108は、ユーザが選択したトピックに応じてユーザに提示する映像情報を生成する。
次に、図1の映像視聴支援システムの動作について説明する。
まず、非開示部分判定部101は、テレビやDVDプレーヤー/レコーダー、ハードディスクレコーダーなどの外部機器からデコーダ109でデコードされたビデオコンテンツを取得し、非開示部分判定ルールデータベース102を参照して、ビデオコンテンツをユーザへの視聴前の開示に適した部分と適さない部分とに分割するための複数の境界を決定する。ビデオコンテンツが放送データである場合は、このビデオコンテンツに関するEPG(electronic program guide)情報も同時に取得してもよい。ここでEPGとは、放送局が提供する、番組の概要やジャンル、出演者情報のテキストデータを含むデータである。
次に、トピック分割部103は、非開示部分判定部101が決定した各境界に基づいて、ビデオコンテンツのトピック分割を行い、非開示部分判定結果トピック分割結果データベース104に分割結果を格納する。また、トピック分割部103は、非開示部分判定部101が判定した結果である非開示部分判定結果を非開示部分判定結果トピック分割結果データベース104に格納する。
ビデオコンテンツには、クローズドキャプション(closed captions)と呼ばれる、デコーダにより抽出可能なテキストデータが付随していることが多く、この場合、ビデオコンテンツのトピック分割に、テキストデータを対象とした既存のトピック分割手法を適用することができる。例えば、“Hearst, M. TextTiling: Segmenting Text into Multi-Paragraph Subtopic Passages, Computational Linguistics , 23 (1), pp. 33-64, March 1997. http://acl.ldc.upenn.edu/J/J97/J97-1003.pdf”には、テキスト中に含まれる語彙を比較し、話題の切れ目を自動的に検出する手法が開示されている。
また、クローズドキャプション情報を含まないビデオコンテンツに対しては、“Smeaton, A., Kraaij, W. and Over, P.: The TREC Video Retrieval Evaluation (TRECVID): A Case Study and Status Report, RIAO 2004 conference proceedings, 2004. http://www.riao.org/Proceedings-2004/papers/0030.pdf”に開示されているように、ビデオコンテンツ中の音声データに対して自動音声認識(automatic speech recognition)技術を適用し、テキストデータを取得してトピック分割に利用してもよい。
次に、トピック一覧生成部105は、非開示部分判定結果トピック分割結果データベース104に格納されているトピック分割結果に基づき、各トピックセグメントに対応するサムネイル画像やキーワードを生成し、この結果をテレビ画面などの出力部106を介してユーザに提示する。ユーザは、提示された分割結果の中から、視聴したいものをリモコンやキーボードなどの入力部107を介して選択する。
最後に、再生部分選択部108は、入力部107から取得した選択情報と、非開示部分判定結果トピック分割結果データベース104に格納されているトピック分割結果を基にして、ユーザに提示する映像情報を生成して出力部106に渡す。
次に、図1の非開示部分判定部101での処理について図2を参照して説明する。図2は、本実施形態における非開示部分判定部101の処理の流れの一例を示すフローチャートである。
まず、放送データあるいは光ディスクなどのメディアからビデオコンテンツを取得する(ステップS201)。ビデオコンテンツが放送データの場合には番組のタイトルやジャンルの情報を含むEPG情報を取得してもよい。
次に、ビデオコンテンツからクローズドキャプション(字幕データ)をデコードするか、あるいはビデオコンテンツの音声データに対して自動音声認識を行うことにより、ビデオコンテンツ中の時間情報に対応づけられたテキストデータを取得する(ステップS202)。
そして、上記テキストデータを基に、非開示部分判定ルールデータベース102に格納されている非開示部分判定ルールを参照し、ビデオコンテンツを開示部分と非開示部分に分割する(ステップS203)。ここで、非開示部分判定ルールデータベース102は、非開示部分判定ルールとして、例えば、クイズ番組向けには「それでは正解です」「正解ビデオをご覧ください」、推理もののドラマ(detective stories)の場合には「犯人は」「逮捕する」のような手がかり語を複数格納している。非開示部分判定部101は、非開示部分判定ルールと、例えば、ビデオコンテンツのクローズドキャプションとを照合し、上記の手がかり語が出現した前後数分を非開示部分とする方法が考えられる。なお、クローズドキャプションにはテキストデータの他に、あるキーワードが出現する時刻も含まれているので、非開示部分判定部101は手がかり語に基づいて非開示部分の時刻を決定することができる。このような判定方法によれば、クイズ番組の正解がわかる部分や、推理ものの犯人がわかる部分などを非開示部分と判定できる可能性が高い。
また、この変形例として、テキストデータを基に非開示部分を判定するかわりに、音声データの音量の変化に着目し、歓声や笑い声が起こった前後数分を非開示部分とする方法や、これらの組み合わせを利用してもよい。
最後に、以上のようにして作成した非開示部分判定結果をビデオコンテンツ、EPG情報、テキストデータとともにトピック分割部103に渡す。
次に、図1のトピック分割部103の処理について図3を参照して説明する。図3は本実施形態におけるトピック分割部103の処理の一例を示すフローチャートである。
まず、非開示部分判定部101からビデオコンテンツ、EPG情報、テキストデータ、および非開示部分判定結果を受け取る(ステップS301)。
次に、日本語のビデオコンテンツの場合は、テキストデータを形態素解析して単語情報を取得する。また、英語などの単語の境界が明確な言語に対しては、stemming(活用語尾の吸収)を行う。これにより、時間情報と単語の出現情報の対応表を作成することができる(ステップS302)。この対応表については後に図4を参照して説明する。
次に、例えば、“Hearst, M. TextTiling: Segmenting Text into Multi-Paragraph Subtopic Passages, Computational Linguistics , 23 (1), pp. 33-64, March 1997. http://acl.ldc.upenn.edu/J/J97/J97-1003.pdf”に開示されているTextTilingのような既存のトピック分割アルゴリズムを用いてテキストデータをもとに、複数のトピックを抽出し、このトピックごとに、ビデオコンテンツを複数のトピックセグメントに分割する(ステップS303)。
そして、トピック分割結果を非開示情報分割結果、ビデオコンテンツ、テキストデータとともに非開示部分判定結果トピック分割結果データベース104に格納する(ステップS304)。
次に、ステップS302で作成される対応表について図4を参照して説明する。対応表は、形態素解析で取得した単語と、これらの単語の出現時刻とを対応させたものである。この場合、新しい語が出現した時点で分割を行う手法が考えられる。例えば、図4においは、「人名A」「人名B」および「人名C」が初めて出現する19.805秒、64.451秒、および90.826秒でトピック分割を行う。
以上の説明では、トピック分割部103の処理は、非開示部分判定部101の処理と全く独立に行われるが、本実施形態はこれに限定されない。以下に、両処理を連携させるいくつかの変形例について図5を参照して説明する。
この説明のために、一例として、長さが60分のTV番組に対する非開示部分判定結果とトピック分割結果との例を図5に示す。図5の上方に示した例では、非開示部分判定部101が時点t1からt2まで、t3からt4まで、およびt5からt6までを非開示部分と判定している。t1〜t6は、それぞれこの映像コンテンツの開始時刻からの経過時間を示している。一方、図5の下方に示した例では、トピック分割部103が時点s1,s2,s3,s4およびs5をトピック分割点と判定している。なお、図5では、時点s1〜s5のそれぞれが幅を有している様に示してあるが、この幅は単に見やすいためだけの目的で描かれただけであり、実際には幅はなく、時点s1〜s5はそれぞれある瞬間を示している。
図5の例の場合、トピック分割部103は、非開示部分判定結果を基にして、より細かいトピック分割結果を作成することができる。例えば、本来、時点s1からs2までがひとつのトピックセグメントであるが、これを時点s1からt1、t1からt2、t2からt3およびt3からs2という4つのサブセグメントに分解することができる。この場合、s1からt1、および、t2からt3はユーザに開示してもよいトピックセグメント、t1からt2、および、t3からs2はユーザに開示すべきでないトピックセグメントとなる。
また、この逆に、トピック分割部103は、非開示部分判定結果を基にして、トピック分割結果をより大きな単位に修正するという方針を採用することも考えられる。例えば、図5において、s2からs3のトピックセグメントはt3からt4の非開示部分に完全に包含されているので、トピック境界としてs2およびs3を不採用とし、かわりにt3、t4を採用するなどの方法が考えられる。
さらに、図1に示した本実施形態の映像視聴支援システムの変形例として、非開示部分判定のあとにトピック分割を行うのではなく、トピック分割のあとに非開示部分判定を行ってもよい。この場合、非開示部分判定部は、手がかり語出現時点の前後数分を非開示部分とするなどのヒューリスティクスを用いるかわりに、各トピックセグメントが開示に適しているか否かのみを判定すればよい。
次に、図1のトピック一覧生成部105での処理について図6を参照して説明する。図6は本実施形態におけるトピック一覧生成部105の処理の一例を示すフローチャートである。
まず、非開示部分判定結果トピック分割結果データベース104から非開示部分判定結果およびトピック分割結果をビデオコンテンツ、テキストデータとともに取得する(ステップS601)。
次に、非開示部分判定結果トピック分割結果データベース104に格納されているトピック分割結果の各トピックセグメントに対応するテキストデータから、トピックセグメントの特徴を表すキーワードもしくはキーセンテンスの少なくとも一方を抽出する(ステップS602)。
キーワードの選出方法としては、例えば情報検索における適合フィードバック(relevance feedback)におけるキーワード選出方法を応用すればよい。具体的な選出方法は、例えば、“Robertson, S.E. and Sparck Jones, K: Simple, proven approaches to text retrieval, University fo Cambridge Computer Laboratory Technical Report TR-356, 1997. http://www.cl.cam.ac.uk/TechReports/UCAM-CL-TR-356.pdf”に開示されている。また、キーセンテンスの抽出は、センテンス中に含まれるキーワードの重みの和によりセンテンスの重みを計算すれば容易に実現できる。
次に、各トピックセグメントを代表するサムネイル画像を作成する(ステップS603)。これには例えば、各トピックセグメントの開始時点から数秒後の画像を選択したり、キーセンテンスの出現時点に対応する画像を選択する方法がある。
非開示部分判定結果トピック分割結果データベース104に格納されている非開示部分判定結果に基づき、ユーザから隠蔽するサムネイル画像またはその一部、キーワード、キーセンテンスを決定し、これらが表示されないようにこれらを加工する。(ステップS604)。隠蔽方法は、例えば、サムネイル画像またはその一部、キーワード、キーセンテンス上に、非開示タグ(例えば、バナー)をおき隠蔽する。隠蔽方法の具体例については後に詳述する。
最後に、以上のようにして構成したトピック一覧画面を出力部106に渡し、ユーザに提示する。
次に、本実施形態におけるトピック一覧画面のイメージ図の表示例について図7を参照して説明する。図7の例では、トピック分割部103により分割された4つのトピックセグメントが表示されており、各セグメントに対して選出されたサムネイル画像、キーワードおよびキーセンテンスが表示されている。もちろん、実際の表示には全てを用いずともよく、例えばサムネイル画像だけ、あるいはサムネイル画像とキーセンテンスだけでもよい。
図7の第3セグメントは、非開示部分判定部101により非開示情報を含むと判定されたセグメントである。このため、この例では、サムネイル画像、キーワード、キーセンテンスを隠すように、「お楽しみ!」(Save it till later!)非開示タグとしてバナーが表示されている。この例では、クローズドキャプションのテキストデータ中に「正解は…」などの手がかり語を検出した場合を示しており、このためバナーには、クイズの正解を隠している旨が記されている。また、ここではサムネイル画像をバナーで覆って隠す例を示したが、かわりにサムネイル画像に非開示タグとしてモザイクなどの画像処理を施して内容が見えにくくしてもよい。他の非開示タグの例としては、ふき出し、網掛け、ぼかしがある。
次に、トピック一覧画面のイメージ図の表示例の図7とは異なる例について図8を参照して説明する。図8の例では、非開示情報を含むトピックセグメントのサムネイル画像、キーワード、キーセンテンスははじめから表示せず、かわりに「お楽しみセグメント(クイズの答えが含まれるため表示していません)」と表示している。
次に、サムネイル画像の一部を隠蔽する例について図9A、図9B、図10A、図10Bを参照して説明する。図9A、図9Bは、サムネイル画像全体を隠蔽するのではなく、サムネイル画像の一部を隠蔽する場合のイメージ図である。図9Aが隠蔽前、図9Bが隠蔽後のイメージを表している。
この例では、サムネイル画像に対して既存のテロップ(overlay text, open captions)認識技術を適用し、テロップの位置を同定して、次にこのテロップを隠蔽するようなバナーを生成して表示している。テロップ認識によりテロップ中の「正解」のような文字列が検出できれば、図9Bにあるようにバナーに「この下に正解テロップがあります」のように表示することが可能である。もし、テロップに対する文字認識が難しい場合には、テロップ位置の検出のみ行い、非開示情報を含む可能性をもつテロップは全て「お楽しみ!」とのみ書かれたバナーで覆って隠蔽することも考えられる。
図10A、図10Bは、クイズ番組ではなくスポーツ番組において、テロップによりスコア情報が表示されている部分を隠蔽した場合を示している。EPGには番組のジャンル情報が記載されているので、処理対象としている番組がスポーツ番組であることがわかり、定常的に表示されているテロップはスコア情報である可能性が高いと推定することが可能である。このような場合は、図7のようなトピック一覧画面において、スコアを隠蔽するバナーを全てのサムネイル画像に付ける。
また、以上では、非開示部分判定部101により非開示部分と判定されたデータに対しても開示部分と同様に一旦サムネイル画像、キーワード、キーセンテンス抽出を行い、これらを必要に応じて隠蔽する場合について説明したが、非開示部分のデータを予めサムネイル画像、キーワード、キーセンテンス抽出の対象から除外する方法も考えられる。
例えば、第5図の時点s4からs5までのセグメントに対するサムネイル画像、キーワード、キーセンテンス抽出を行う際(ステップS602、ステップS603)に、時点t5からt6までの画像およびクローズドキャプションテキストは抽出対象外とすれば、ユーザに非開示情報が提示されてしまう危険性は低くなる。この場合、ユーザには特に「お楽しみ!」バナーを表示せず、時点s4からt5、および時点t6からs5の間から選出したサムネイル画像、キーワード、キーセンテンスを表示すればよい。
次に、図1の再生部分選択部108での処理について図11を参照して説明する。図11は本実施形態における再生部分選択部108の処理の流れの一例を示す。
まず、入力部107からユーザにより選択されたトピックセグメントの情報を受け取る(ステップS1101)。
次に、各トピックセグメントに対応する開始時間および終了時間のTIMESTAMPを非開示部分判定結果トピック分割結果データベース104から取得する(ステップS1102)。
そして、全トピックセグメントの開始時間および終了時間を統合し、元の部分のどの部分を再生するかを決定し、これに基づきビデオコンテンツを部分的に再生する(ステップS1103)。
以上に説明したように、本実施形態によれば、番組のトピック分割によりユーザに選択的視聴を促すインタフェースにおいて、ユーザが実際の視聴の前には知りたくない情報が事前にユーザに提示されてしまうのを回避し、ユーザの番組視聴の楽しみが損なわれることを回避できる。
(第2の実施形態)
本実施形態は、構成上、第1の実施形態と同一であるが、ユーザの入力が、非開示部分判定部にフィードバックされる点のみが異なる。以下、第1の実施形態と異なる非開示部分判定部のフィードバック処理を中心に説明する。
本実施形態の映像視聴支援システムについて図12を参照して説明する。図2は第1の実施形態に係る映像視聴支援システムの概略構成を示すブロック図である。なお、以下、既に説明した装置部分と同様なものは同一の番号を付してその説明を省略する。
入力部1202は、入力部107が行う処理に加えて、後の図13を参照して説明するように、ユーザが入力部1202を操作することにより、あるビデオコンテンツのトピックセグメントごとに、そこにある表示(例えば、サムネイル画像、キーワード、キーセンテンス)を隠したり、見せたりすることができるように設定されている。
非開示部分判定部1201は、非開示部分判定部101が行う処理に加えて、入力部1202からの入力情報に基づいて、非開示部分判定ルールデータベース102に格納されている判定ルールを更新する。この入力情報は、あるビデオコンテンツのトピックセグメントごとに表示を隠すか否かの情報である。
非開示部分判定部1201は、この入力情報から、隠すべきトピックセグメントに含まれるテキストデータを取得する。このテキストデータに含まれている手がかり語を抽出し、この手がかり語が非開示部分判定ルールデータベース102に格納されていない場合には、この手がかり語を非開示部分判定ルールデータベース102に追加する。
一方、非開示部分判定部1201は、入力情報から、見せるべきトピックセグメントに含まれているテキストデータを取得し、このテキストデータに含まれている用語を抽出し、この用語が非開示部分判定ルールデータベース102に格納されていない場合には、この用語を非開示部分判定ルールデータベース102から削除する処理を行ってもよい。
次に、本実施形態におけるトピック一覧画面の表示例について図13を参照して説明する。図13は、第1の実施形態で参照した図7との見かけ上の違いは、各トピックセグメントを「みせる」か「かくす」か、ユーザが選択できるボタンがついている点のみである。
図13の例では、第3のトピックセグメントは「かくす」状態になっているが、ユーザがこのボタンをクリックすると「みせる」状態になり、サムネイル画像、キーワード、キーセンテンス上に表示されている、これらを隠すためのバナーが消滅し、サムネイル画像、キーワード、キーセンテンスがユーザから見える状態になる。逆に、現在「みせる」状態になっているトピックセグメントに対してユーザが「かくす」に変更することもできる。
非開示部分判定部1201、入力部1202が以上のような動作をすれば、非開示部分判定部1201の判定精度が完璧でなくても、ユーザに修正を加えてもらうことにより次回からの判定精度を高めることが可能である。
例えば、クイズ番組向けの非開示部分判定ルールが「それでは正解です」という手がかり語を含んでいるが、「正解はこちらです」という手がかり語を含まないために、非開示部分判定部1201が「正解はこちらです」という表現ではじまるトピックセグメントを誤って開示部分と判定してしまい、ユーザに事前に提示すべきでない正解情報が提示されてしまった場合がありうる。
このとき、ユーザから入力部1202を介して「このようなセグメントは以後非開示にするように」という指定を受けることによって、非開示部分判定部1201が「正解はこちらです」という新しい手がかり語を非開示部分判定ルールデータベース102が格納している非開示部分判定ルールに加えることができる。
さらに、図13において、トピックセグメント全体を「みせる」か「かくす」かユーザに決定させるかわりに、サムネイル画像、キーワード、キーセンテンスのいずれかを覆っているバナーを個別にドラッグ(drag)などにより除去させる、といった指定方法をユーザに与えることもできる。
次に、図12の非開示部分判定部1201でのフィードバック処理について図14を参照して説明する。
入力部1202を介してユーザから非開示部分を開示する指定もしくは開示部分を非開示にする指定が入力される(ステップS1401)と、非開示部分判定部1201は、ユーザの上記指定に基づき、非開示部分判定ルールデータベース102に格納されている非開示部分判定ルールを修正する(ステップS1402)。
次に、修正された非開示部分判定ルールを用いて、現在保持しているテキストデータに対して非開示部分判定を再度行い(ステップS1403)、判定結果をトピック分割部103に渡す(ステップS1404)。
以後、トピック分割部103およびトピック一覧生成部105は、第1の実施形態と同様の処理を行う。これにより、ユーザのフィードバック情報がただちに画面に反映されることになる。
以上のような処理により、ユーザにどの情報を開示するか、どの情報を非開示とするか修正をさせることによって、非開示部分の精度をユーザの意図するように高めていくことがある程度可能となる。
従来のrelevance feedback技術は、ユーザの興味に応じてどのトピックセグメントをお勧めとするかに主眼をおいていたが、上記実施形態では、ユーザの興味ではなく、ユーザがどのような情報は視聴前に開示してほしいか、あるいは開示してほしくないかをシステムに反映させることができ、ユーザの楽しみを損なわない選択的視聴が実現できると考えられる。
以上に示した実施形態によれば、番組のトピック分割によりユーザに選択的視聴を促すインタフェースにおいて、ユーザが実際の視聴以前には知りたくない情報が事前にユーザに提示されてしまうことを回避することができる。したがって、ユーザの番組視聴の楽しみが損なわれるのを回避することができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1の実施形態に係る映像視聴支援システムの概略構成を示すブロック図。 図1の非開示部分判定部での処理の流れの一例を示すフローチャート。 図1のトピック分割部での処理の流れの一例を示すフローチャート。 図3のステップS302で作成される対応表を示す図。 非開示部分判定結果とトピック分割結果との一例を示す図。 図1のトピック一覧生成部での処理の流れの一例を示すフローチャート。 図1の出力部が出力するトピック一連画面の一例を示す図。 図7とは異なるトピック一連画面の一例を示す図。 あるサムネイル画像の隠蔽前の一例を示す図。 図9Aのサムネイル画像の隠蔽後の一例を示す図。 図9Aとは異なるあるサムネイル画像の隠蔽前の一例を示す図。 図10Aのサムネイル画像の隠蔽後の一例を示す図。 図1の再生部分選択部での処理の流れの一例を示す図。 本発明の第2の実施形態に係る映像視聴支援システムの概略構成を示すブロック図。 図12の出力部が出力するトピック一連画面の一例を示す図。 図12の非開示部分判定部での処理の流れの一例を示す図。
符号の説明
100、1200…映像視聴支援システム、101、1201…非開示部分判定部、102…非開示部分判定ルールデータベース、103…トピック分割部、104…非開示部分判定結果トピック分割結果データベース、105…トピック一覧生成部、106…出力部、107、1202…入力部、108…再生部分選択部、109…デコーダ。

Claims (16)

  1. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、
    ある映像を取得する映像取得手段と、
    前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、
    前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定する手段と、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、
    前記抽出されたトピックごとに前記映像を分割する分割手段と、
    前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、
    前記特定された映像部分に対応する、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽する隠蔽手段と、
    前記隠蔽手段によって一部分が隠蔽された後に、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示する提示手段と、
    複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする映像視聴支援システム。
  2. 前記隠蔽手段は、前記特定された映像部分を含んでいる、分割された映像を隠蔽することを特徴とする請求項1に記載の映像視聴支援システム。
  3. 前記隠蔽手段は、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を、非開示タグで覆って隠蔽することを特徴とする請求項1に記載の映像視聴支援システム。
  4. 前記非開示タグは、バナー、ふき出し、網掛け、ぼかし、モザイクのうち少なくとも1つであることを特徴とする請求項3に記載の映像視聴支援システム。
  5. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、
    ある映像を取得する映像取得手段と、
    前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、
    前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定する手段と、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、
    前記抽出されたトピックごとに前記映像を分割する分割手段と、
    前記分割された映像のうちの前記特定された映像部分を含まない分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示する提示手段と、
    複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする映像視聴支援システム。
  6. 前記トピック抽出手段は、前記特定された映像部分の開始点もしくは終了点のうちの少なくとも一方を前記トピックの開始点または終了点として前記トピックを抽出することを特徴とする請求項1から請求項5のいずれか1つに記載の映像視聴支援システム。
  7. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、
    ある映像を取得する映像取得手段と、
    前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、
    前記抽出されたトピックごとに前記映像を分割する分割手段と、
    前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定する手段と、
    前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、
    前記手がかり語に対応する映像部分を含んでいると判定された、分割された映像に含まれる、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽する隠蔽手段と、
    前記隠蔽手段によって一部分が隠蔽された後に、前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示する提示手段と、
    複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする映像視聴支援システム。
  8. 前記隠蔽手段は、前記手がかり語に対応する映像部分を含んでいると判定された、分割された映像を隠蔽することを特徴とする請求項7に記載の映像視聴支援システム。
  9. 前記隠蔽手段は、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を、非開示タグで覆って隠蔽することを特徴とする請求項7に記載の映像視聴支援システム。
  10. 前記非開示タグは、バナー、ふき出し、網掛け、ぼかし、モザイクのうち少なくとも1つであることを特徴とする請求項9に記載の映像視聴支援システム。
  11. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段と、
    ある映像を取得する映像取得手段と、
    前記取得された映像に対応付けられているテキストデータを取得するテキストデータ取得手段と、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出するトピック抽出手段と、
    前記抽出されたトピックごとに前記映像を分割する分割手段と、
    前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定する手段と、
    前記分割された映像のうちの前記手がかり語に対応する映像部分を含まない分割された映像ごとに、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成する作成手段と、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示する提示手段と、
    複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、を具備することを特徴とする映像視聴支援システム。
  12. 前記提示された映像組ごとに、前記隠蔽されている部分を開示する操作、もしくは、開示されている部分を隠蔽する操作を受け付ける手段をさらに具備し、
    前記格納手段は、前記操作に応じて、前記隠蔽されている部分を開示した映像部分に対応する手がかり語を削除し、前記開示されている部分を隠蔽した映像部分に対応する手がかり語を追加することを特徴とする請求項1から請求項11のいずれか1つに記載の映像視聴支援システム。
  13. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、
    ある映像を取得し、
    前記取得された映像に対応付けられているテキストデータを取得し、
    前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定し、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、
    前記抽出されたトピックごとに前記映像を分割し、
    前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、
    前記特定された映像部分に対応する、前記作成された、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽し、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示し、
    複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする映像視聴支援方法。
  14. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、
    ある映像を取得し、
    前記取得された映像に対応付けられているテキストデータを取得し、
    前記テキストデータと前記手がかり語とを照合し、前記取得された映像のうち、前記手がかり語に対応する映像部分を特定し、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、
    前記抽出されたトピックごとに前記映像を分割し、
    前記分割された映像のうちの前記特定された映像部分を含まない分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上との映像組を複数提示し、
    複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする映像視聴支援方法。
  15. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、
    ある映像を取得し、
    前記取得された映像に対応付けられているテキストデータを取得し、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、
    前記抽出されたトピックごとに前記映像を分割し、
    前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定し、
    前記分割された映像ごとに、分割された各映像に対応する、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、
    前記手がかり語に対応する映像部分を含んでいると判定された、分割された映像に含まれる、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも一部分を隠蔽し、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示し、
    複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする映像視聴支援方法。
  16. 所定の映像部分に対応する手がかり語を少なくとも1つ以上予め格納している格納手段を用意し、
    ある映像を取得し、
    前記取得された映像に対応付けられているテキストデータを取得し、
    前記テキストデータに基づいて、前記取得された映像の内容から複数のトピックを抽出し、
    前記抽出されたトピックごとに前記映像を分割し、
    前記テキストデータと前記手がかり語とを照合し、前記分割された映像ごとに前記手がかり語に対応する映像部分を含んでいるか否かを判定し、
    前記分割された映像のうちの前記手がかり語に対応する映像部分を含まない分割された映像ごとに、サムネイル、キーワード、および、キーセンテンスのうちの少なくとも1つ以上を作成し、
    前記分割された複数の映像と、各映像に対応する、サムネイル、キーワード、および、キーセンテンスの少なくとも1つ以上との映像組を複数提示し、
    複数の前記提示された映像組から少なくとも1つの組を選択させることを特徴とする映像視聴支援方法。
JP2005342339A 2005-11-28 2005-11-28 映像視聴支援システムおよび方法 Pending JP2007150724A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005342339A JP2007150724A (ja) 2005-11-28 2005-11-28 映像視聴支援システムおよび方法
US11/520,697 US7698721B2 (en) 2005-11-28 2006-09-14 Video viewing support system and method
CNB2006101604593A CN100485686C (zh) 2005-11-28 2006-11-28 视频观看支持系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005342339A JP2007150724A (ja) 2005-11-28 2005-11-28 映像視聴支援システムおよび方法

Publications (1)

Publication Number Publication Date
JP2007150724A true JP2007150724A (ja) 2007-06-14

Family

ID=38088996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005342339A Pending JP2007150724A (ja) 2005-11-28 2005-11-28 映像視聴支援システムおよび方法

Country Status (3)

Country Link
US (1) US7698721B2 (ja)
JP (1) JP2007150724A (ja)
CN (1) CN100485686C (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014146066A (ja) * 2013-01-25 2014-08-14 Canon Inc 文書データ生成装置、文書データ生成方法及びプログラム
KR101484633B1 (ko) * 2007-07-19 2015-01-20 소니 주식회사 영상 녹화 재생장치 및 영상 녹화 재생 방법
JP2015060514A (ja) * 2013-09-20 2015-03-30 シャープ株式会社 処理装置、処理方法、および処理プログラム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100836197B1 (ko) * 2006-12-14 2008-06-09 삼성전자주식회사 동영상 자막 검출 장치 및 그 방법
US8276098B2 (en) 2006-12-22 2012-09-25 Apple Inc. Interactive image thumbnails
US20080288869A1 (en) * 2006-12-22 2008-11-20 Apple Inc. Boolean Search User Interface
US9142253B2 (en) * 2006-12-22 2015-09-22 Apple Inc. Associating keywords to media
JP4331217B2 (ja) * 2007-02-19 2009-09-16 株式会社東芝 映像再生装置および方法
EP1965321A1 (en) * 2007-03-01 2008-09-03 Sony Corporation Information processing apparatus, method, and program
US9286385B2 (en) * 2007-04-25 2016-03-15 Samsung Electronics Co., Ltd. Method and system for providing access to information of potential interest to a user
CN101669119B (zh) * 2007-04-27 2012-08-08 日本电气株式会社 内容处理装置和内容处理方法
US20100188573A1 (en) * 2009-01-29 2010-07-29 Usva Kuusiholma Media metadata transportation
US8413190B2 (en) * 2009-04-22 2013-04-02 Sanyo Electric Co., Ltd. Television receiver
CN101887445B (zh) * 2009-05-12 2012-10-10 大相科技股份有限公司 处理动态图像的方法、系统与加值处理的方法
JP5463739B2 (ja) * 2009-06-03 2014-04-09 ソニー株式会社 撮像装置、画像処理方法及びプログラム
US8571330B2 (en) * 2009-09-17 2013-10-29 Hewlett-Packard Development Company, L.P. Video thumbnail selection
US20110078746A1 (en) * 2009-09-30 2011-03-31 Rovi Technologies Corporation Systems and methods for displaying a blocking overlay in a video
US20110078747A1 (en) * 2009-09-30 2011-03-31 Rovi Technologies Corporation Systems and methods for displaying a blocking overlay in a video
US20110093882A1 (en) * 2009-10-21 2011-04-21 Candelore Brant L Parental control through the HDMI interface
US8893169B2 (en) * 2009-12-30 2014-11-18 United Video Properties, Inc. Systems and methods for selectively obscuring portions of media content using a widget
US8667533B2 (en) * 2010-04-22 2014-03-04 Microsoft Corporation Customizing streaming content presentation
US9171578B2 (en) 2010-08-06 2015-10-27 Futurewei Technologies, Inc. Video skimming methods and systems
JP2012129979A (ja) * 2010-11-24 2012-07-05 Jvc Kenwood Corp 区間作成装置、区間作成方法、及び区間作成プログラム
US9582577B2 (en) 2011-10-10 2017-02-28 International Business Machines Corporation Graphical diagram having elements that correspond to objects and that have locations in correspondence with appearance relationships of objects
WO2013166411A1 (en) * 2012-05-03 2013-11-07 United Video Properties, Inc. Systems and methods for preventing access to a media asset segment during a fast-access playback operation
WO2014030186A1 (ja) * 2012-08-23 2014-02-27 富士通株式会社 中継装置、中継方法、中継プログラムおよび中継システム
US9817911B2 (en) 2013-05-10 2017-11-14 Excalibur Ip, Llc Method and system for displaying content relating to a subject matter of a displayed media program
JP2015052897A (ja) * 2013-09-06 2015-03-19 株式会社東芝 電子機器、電子機器の制御方法及びコンピュータプログラム
CN103488762A (zh) * 2013-09-26 2014-01-01 乐视致新电子科技(天津)有限公司 一种搜索方法和装置
CN104967910B (zh) 2014-10-29 2018-11-23 广州酷狗计算机科技有限公司 多媒体播放进度控制方法及装置
US10405041B2 (en) * 2016-11-28 2019-09-03 Rovi Guides, Inc. Systems and methods for predictive spoiler prevention in media assets based on user behavior
US11086862B2 (en) 2019-12-05 2021-08-10 Rovi Guides, Inc. Method and apparatus for determining and presenting answers to content-related questions
US10966000B1 (en) * 2019-12-05 2021-03-30 Rovi Guides, Inc. Method and apparatus for determining and presenting answers to content-related questions
CN111263210B (zh) * 2020-03-23 2021-07-16 腾讯科技(深圳)有限公司 一种视频交互方法和相关装置
CN112188117B (zh) * 2020-08-29 2021-11-16 上海量明科技发展有限公司 视频合成方法、客户端及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232884A (ja) * 1996-11-29 1998-09-02 Media Rinku Syst:Kk 映像ソフトウェア処理方法及び映像ソフトウェア処理装置
JPH11220689A (ja) * 1998-01-31 1999-08-10 Media Link System:Kk 映像ソフト処理装置及び同処理プログラム記録記憶媒体
JP2004118483A (ja) * 2002-09-26 2004-04-15 Toshiba Corp マルチメディア情報再生装置およびマルチメディア情報再生方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7080392B1 (en) * 1991-12-02 2006-07-18 David Michael Geshwind Process and device for multi-level television program abstraction
US6236395B1 (en) * 1999-02-01 2001-05-22 Sharp Laboratories Of America, Inc. Audiovisual information management system
US6901207B1 (en) * 2000-03-30 2005-05-31 Lsi Logic Corporation Audio/visual device for capturing, searching and/or displaying audio/visual material
US7383508B2 (en) 2002-06-19 2008-06-03 Microsoft Corporation Computer user interface for interacting with video cliplets generated from digital video

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232884A (ja) * 1996-11-29 1998-09-02 Media Rinku Syst:Kk 映像ソフトウェア処理方法及び映像ソフトウェア処理装置
JPH11220689A (ja) * 1998-01-31 1999-08-10 Media Link System:Kk 映像ソフト処理装置及び同処理プログラム記録記憶媒体
JP2004118483A (ja) * 2002-09-26 2004-04-15 Toshiba Corp マルチメディア情報再生装置およびマルチメディア情報再生方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484633B1 (ko) * 2007-07-19 2015-01-20 소니 주식회사 영상 녹화 재생장치 및 영상 녹화 재생 방법
JP2014146066A (ja) * 2013-01-25 2014-08-14 Canon Inc 文書データ生成装置、文書データ生成方法及びプログラム
JP2015060514A (ja) * 2013-09-20 2015-03-30 シャープ株式会社 処理装置、処理方法、および処理プログラム

Also Published As

Publication number Publication date
CN100485686C (zh) 2009-05-06
US20070124752A1 (en) 2007-05-31
US7698721B2 (en) 2010-04-13
CN1975732A (zh) 2007-06-06

Similar Documents

Publication Publication Date Title
JP2007150724A (ja) 映像視聴支援システムおよび方法
JP4550725B2 (ja) 映像視聴支援システム
JP4635891B2 (ja) 情報処理装置および方法、並びにプログラム
JP5225037B2 (ja) 番組情報表示装置および方法
KR102128359B1 (ko) 현재 플레이 중인 텔레비전 프로그램과 연관된 메타데이터를 식별하기 위해 오디오 스트림 사용
US20080085099A1 (en) Media player apparatus and method thereof
US20080059526A1 (en) Playback apparatus, searching method, and program
Pedersen Audiovisual translation–in general and in Scandinavia
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
KR20160057864A (ko) 요약 컨텐츠를 생성하는 전자 장치 및 그 방법
KR20090024969A (ko) 컨텐트에서의 등장 인물간의 관계에 대한 정보 생성 방법및 그 장치
US9558784B1 (en) Intelligent video navigation techniques
JP2007174255A (ja) 録画再生装置
US20100083314A1 (en) Information processing apparatus, information acquisition method, recording medium recording information acquisition program, and information retrieval system
Gorman et al. Adaptive Subtitles: Preferences and Trade-Offs in Real-Time Media Adaption
JP2010245853A (ja) 動画インデクシング方法及び動画再生装置
KR100988255B1 (ko) 정보 처리 장치 및 방법, 및 프로그램이 기록된 컴퓨터로 판독가능한 매체
JP2006343941A (ja) コンテンツ検索・再生方法、装置、プログラム、及び記録媒体
JP2008022292A (ja) 出演者情報検索システム、出演者情報取得装置、出演者情報検索装置、および、その方法ならびにプログラム
JP4929128B2 (ja) 録画再生装置
JP5033653B2 (ja) 映像記録再生装置及び映像再生装置
JP3998187B2 (ja) コンテンツ解説データ生成装置、その方法及びそのプログラム、並びに、コンテンツ解説データ提示装置、その方法及びそのプログラム
JP2007519321A (ja) 視聴覚データストリームのマルチメディア要約を作成する方法及び回路
JP3838775B2 (ja) マルチメディア処理装置、記録媒体
JP2006332765A (ja) コンテンツ検索・再生方法、コンテンツ検索・再生装置、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100316