JP4550725B2 - 映像視聴支援システム - Google Patents

映像視聴支援システム Download PDF

Info

Publication number
JP4550725B2
JP4550725B2 JP2005342337A JP2005342337A JP4550725B2 JP 4550725 B2 JP4550725 B2 JP 4550725B2 JP 2005342337 A JP2005342337 A JP 2005342337A JP 2005342337 A JP2005342337 A JP 2005342337A JP 4550725 B2 JP4550725 B2 JP 4550725B2
Authority
JP
Japan
Prior art keywords
video
topic
support system
viewpoint
divided
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005342337A
Other languages
English (en)
Other versions
JP2007150723A (ja
Inventor
哲也 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005342337A priority Critical patent/JP4550725B2/ja
Priority to US11/604,363 priority patent/US20070136755A1/en
Priority to CNA2006101604606A priority patent/CN1975733A/zh
Publication of JP2007150723A publication Critical patent/JP2007150723A/ja
Application granted granted Critical
Publication of JP4550725B2 publication Critical patent/JP4550725B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4314Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4756End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for rating content, e.g. scoring a recommended movie
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8233Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a character code signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、映像コンテンツをトピックごとに分割してユーザに提示し、ユーザに視聴したいトピックを選択させることにより映像コンテンツの効率的視聴を可能にする映像視聴支援システムに関する。
現在、地上波、衛星放送、ケーブルテレビで配信されるテレビ番組や、DVDなどのメディアにより販売される映画など、視聴者は多様なビデオコンテンツに接している。今後も、チャネル数の増加や安価なメディアの普及により、視聴可能なコンテンツの量は増え続けると考えられる。このため、1つのビデオコンテンツを最初から最後まで視聴するという視聴スタイルに変わって、まず1つのビデオコンテンツの全体構造、すなわち目次のようなものを概観し、自分の興味のある部分のみを選択してから視聴する、といった「選択的視聴(selective viewing)」というスタイルが今後一般化する可能性がある。
例えば、2時間の雑多な話題を含む情報番組のうち、まず特定の話題を2つ3つ選択し、これらのみを視聴すれば、合計の視聴時間は数十分でおさまり、あまった時間を他の番組の視聴や、ビデオコンテンツ視聴以外に使うことにより、効率的なライフスタイルが実現できる可能性がある。
従来、ビデオコンテンツの選択的視聴を行うには、ユーザインタフェースを視聴者に提供する手法が考えられる(例えば、特許文献1参照)。この手法では、分割済みのビデオコンテンツに対して、分割された内容ごとにキーフレーム(key frame)、すなわちサムネイル(thumbnail)画像を提示し、さらに各サムネイルとともにユーザの興味度などを表示するインタフェースを提供している。
特開2004−23799号公報
以上の従来の手法は、ビデオコンテンツの最適な分割方法は一意に定まると仮定している。すなわち、例えば、あるニュース番組において、5つのニュースが伝えられる場合、この番組をニュースごとに5つに分割するような場合を想定している。しかし一般には、ビデオコンテンツ中のトピックの切り出し方は、ビデオコンテンツのジャンルやユーザの関心によって異なる可能性があり、切り出し方が必ずしも一意に定まるとは限らない。例えば、旅行に関するテレビ番組の場合、あるユーザは、特定の出演者のファンであるため、この出演者が出演している部分のみを視聴したいことがある。この場合、出演者の移り変わりに着目したビデオコンテンツの分割結果を提示することが望ましい。
一方、同じ旅行番組を見ている別のユーザは、特定の出演者に興味があるわけではなく、同ビデオコンテンツ中の、ある特定の旅行先のみに興味がある場合がある。この場合、地名や、ホテルの名前など、場所の移り変わりに着目したビデオコンテンツの分割結果を提示することが望ましい。さらに、例えば、旅行番組ではなく動物に関する番組の場合、場所の移り変わりの代わりに、動物の名前の移り変わりに着目した分割結果を提示すれば、例えば、サルに関するコーナーと、犬に関するコーナーと、鳥に関するコーナーがあった場合に、犬に関するコーナーのみを選択して視聴することが可能になる。
同様に、料理番組であれば、出演者の移り変わりに着目した分割結果とともに、料理名の移り変わりに着目した分割結果を提示すれば、例えば、「出演者Aが出ている部分」と「ビーフシチューの作り方を実演している部分」を選択して視聴する、といった使い方が可能になる。
すなわち、従来技術では、どのようなビデオコンテンツに対しても単一の分割結果を提示することしかできなかったため、ユーザの見たい単位での選択が難しかった。さらに、ユーザが特定の分割結果に対して「気に入った」「気に入らない」などの評価を行った場合に、それが特定の出演者が出演しているからなのか、あるいは特定の場所に関するコンテンツであるからなのか、といった評価の根拠、すなわち観点がシステムに伝わりにくかったため、適切なpersonalizationを行うことが難しかった。ここで、personalizationは、relevance feedbackとも呼ばれ、ユーザの興味に応じてシステムの処理内容を修正する処理のことである。
本発明はかかる事情を考慮してなされたものであり、与えられたビデオコンテンツに対して、ユーザの観点を反映して効率的な映像の視聴を可能にする映像視聴支援システムを提供することを目的とする。
上述の課題を解決するため、本発明の映像視聴支援システムは、映像と、前記映像に対応付けられているテキストデータを取得する取得手段と、前記テキストデータに基づいて前記映像に対する複数の観点を抽出する観点抽出手段と、前記テキストデータに基づいて、前記観点ごとに、前記映像の内容から複数のトピックを抽出するトピック抽出手段と、前記抽出されたトピックごとに前記映像を分割する分割手段と、前記分割された映像ごとに、分割された各映像に対応する、サムネイルおよびキーワードの少なくとも1つ以上を作成する作成手段と、前記分割された複数の映像と、各映像に対応する、前記サムネイルおよびキーワードの少なくとも1つ以上との映像組を複数提示する提示手段と、複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、ユーザの興味を表現するユーザプロファイルを記憶している記憶手段と、前記選択された組に基づいて前記ユーザプロファイルを修正する修正手段と、を具備することを特徴とする。
本発明の映像視聴支援システムによれば、与えられたビデオコンテンツに対して、ユーザの観点を反映して効率的な映像の視聴を可能にする。
以下、図面を参照しながら本発明の実施形態に係る映像視聴支援システムおよび方法について詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態に係る映像視聴支援システムについて図1を参照して説明する。図1は本発明の第1の実施形態に係る映像視聴支援システムの概略構成を示すブロック図である。
本実施形態の映像視聴支援システム100は、観点決定部101、トピック分割部102、トピック分割結果データベース(DB)103、トピック一覧生成部104、出力部105、入力部106、再生部分選択部107を備えている。
観点決定部101は、ビデオコンテンツに応じてトピック分割のための観点を決定する。この観点は複数でもよい。
トピック分割部102は、各観点からビデオコンテンツをトピックに分割する。
トピック分割結果データベース103は、トピック分割部102が分割したトピック分割結果を記憶している。
トピック一覧生成部104は、トピック分割結果を元にユーザに提示するサムネイルやキーワードを生成し、トピック一覧情報を作成する。
出力部105は、トピック一覧情報やビデオコンテンツを提示する。出力部105は、例えば、ディスプレイ画面を有している。
入力部106は、ユーザからトピックの選択や、ビデオコンテンツの再生開始、停止、早送りなどの操作コマンドの入力を受け付ける、リモコンやキーボードなどの入力装置に対応する。
再生部分選択部107は、ユーザの選択したトピックに応じてユーザに提示する映像情報を生成する。
次に、図1の映像視聴支援システムの動作について説明する。
まず、観点決定部101は、テレビやDVDプレーヤー/レコーダー、ハードディスクレコーダーなどの外部機器からデコーダ108でデコードされたビデオコンテンツを取得し、ビデオコンテンツに応じて複数の観点を決定する。ビデオコンテンツが放送データである場合は、このビデオコンテンツに関するEPG(electronic program guide)情報も同時に取得してもよい。ここでEPGとは、放送局が提供する、番組の概要やジャンル、出演者情報を示す用語が記述されているテキストデータを含むデータである。
次に、トピック分割部102は、観点決定部101が決定した各観点に基づきビデオコンテンツのトピック分割を行い、トピック分割結果データベース103に分割結果を格納する。
ビデオコンテンツには、クローズドキャプション(closed captions)と呼ばれる、デコーダにより抽出可能なテキストデータが付随していることが多く、この場合、ビデオコンテンツのトピック分割に、テキストデータを対象とした既存のトピック分割手法を適用することができる。例えば、“Hearst, M. TextTiling: Segmenting Text into Multi-Paragraph Subtopic Passages, Computational Linguistics , 23 (1), pp. 33-64, March 1997. http://acl.ldc.upenn.edu/J/J97/J97-1003.pdf”には、テキスト中に含まれる語彙を比較し、話題の切れ目を自動的に検出する手法が開示されている。
また、クローズドキャプション情報を含まないビデオコンテンツに対しては、“Smeaton, A., Kraaij, W. and Over, P.: The TREC Video Retrieval Evaluation (TRECVID): A Case Study and Status Report, RIAO 2004 conference proceedings, 2004. http://www.riao.org/Proceedings-2004/papers/0030.pdf”に開示されているように、ビデオコンテンツ中の音声データに対して自動音声認識(automatic speech recognition)技術を適用し、テキストデータを取得してトピック分割に利用してもよい。
次に、トピック一覧生成部104は、トピック分割結果データベース103に格納してあるトピック分割結果に基づき、各トピックセグメントに対応するサムネイルやキーワードを生成し、この結果をテレビ画面などの出力部105を介してユーザに提示する。ユーザは、提示された分割結果の中から、視聴したいものをリモコンやキーボードなどの入力部106を介して選択する。
最後に、再生部分選択部107は、入力部106から取得した選択情報に基づいて、トピック分割結果データベース103を参照して、ユーザに提示する映像情報を生成して出力部105に渡す。
次に、図1の観点決定部101での処理について図2を参照して説明する。図2は観点決定部101の処理のフローチャートである。
まず、テレビやDVDプレーヤー/レコーダー、ハードディスクレコーダーなどからビデオコンテンツを取得する(ステップS201)。ビデオコンテンツが放送データである場合は、このビデオコンテンツに関するEPG情報も同時に取得してもよい。
ビデオコンテンツからクローズドキャプションをデコード(decode)するか、あるいはビデオコンテンツの音声データに対して自動音声認識処理を行うことにより、ビデオコンテンツ中の時間情報と対応するテキストデータを生成する(ステップS202)。以下、主としてテキストデータがクローズドキャプションである場合を例にとって説明する。
固有表現抽出(named entity recognition)技術を用いて、ステップS202で生成されたテキストデータ中の人名、食品名、動物名、地名などの情報(固有表現クラス:named entity classes)を検出抽出し、出現頻度の高い固有表現クラスを選択する(ステップS203)。ステップS203の結果の一例は後に図3を参照して説明する。
固有表現抽出技術は、例えば、“Zhou, G. and Su, J.: Named Entity Recognition using an HMM-based Chunk Tagger, ACL 2002 Proceedings, pp. 473-480, 2004. http://acl.ldc.upenn.edu/P/P02/P02-1060.pdf”に開示されている。
ステップS203で選択された固有表現クラスと、ビデオデータと、ステップS202で生成したテキストデータまたはデコードされたクローズドキャプションと、ステップS203で抽出した固有表現クラスと、をトピック分割部102に渡す(ステップS204)。
次に、時間情報と対応づけられたクローズドキャプションに対して固有表現抽出処理を施した結果の一例について図3を参照して説明する。図3は、ステップS203で抽出された固有表現抽出結果を示している。
図3で、TIMESTAMPとはビデオコンテンツの開始時点からの秒数を表している。この例では、PERSON(人名)、ANIMAL(動物名)、FOOD(食品名)、LOCATION(地名)という4つの固有表現クラスについて固有表現抽出が行われており、この結果、例えば、PERSONとして出演者である「人名A」などが、FOODとして「カレー」「すき焼き」などが抽出されている。一方、ANIMALやLOCATIONに該当する文字列は抽出されていない。
このように、クローズドキャプションに対して、予め用意した複数の各固有表現クラスについて固有表現抽出を行ってみると、抽出結果の多い固有表現クラスと、抽出結果の少ない固有表現クラスが得られる。
観点決定部101は、図3のような抽出結果をもとに、例えば、このビデオコンテンツについては出現頻度の高いPERSONとFOODの2つの固有表現クラスをトピック分割のための観点として採用することを決定する。そして、観点決定部101は、上記観点の情報と、ビデオデータと、クローズドキャプションと、固有表現抽出結果と、をトピック分割部102に渡す。
なお、例えば、料理番組に対して固有表現抽出を行った場合は、図3のように人名と食品名に偏った抽出結果が得られるかも知れないが、例えば、ペットに関する番組に対して固有表現抽出を行った場合は、PERSONとANIMALに偏った結果が得られるかも知れない。また、旅行番組については、PERSONとLOCATIONに偏った結果が得られるかも知れない。このように、本発明の実施形態では、ビデオコンテンツに応じてトピック分割の観点を変更することができる。さらに、単一の分割結果ではなく、複数の観点に基づく分割結果をユーザに提示することができる。
また、観点決定部101が行う、図2の処理の変形例としては、クローズドキャプションに対して固有表現抽出を施す代わりに、EPGに記載されている番組のジャンル情報や番組内容に基づいて、観点を決定する方法が考えられる。この場合は、例えば、ジャンルが料理番組であるか、番組内容に「料理」という用語が含まれている場合には観点をPERSONとFOODにし、ジャンルが動物番組であるか、番組内容に「動物」「犬」「猫」などの用語が含まれている場合には観点をPERSONとANIMALにする、といった決定ルールを予め用意すればよい。
次に、図1のトピック分割部102の処理について図4を参照して説明する。図4は本実施形態におけるトピック分割部102の処理の一例を示すフローチャートである。
まず、ビデオデータ、クローズドキャプション、図3に例示したような固有表現抽出結果、およびN個の観点を観点決定部101から受け取る(ステップS401)。例えば、前述のようにPERSONおよびFOODが観点として選択された場合には、N=2となる。
次に、各観点について別個にトピック分割処理を行い、分割結果をトピック分割結果データベース103に格納する(ステップS402、S403、S404、S405)。トピック分割には、例えば、“Hearst, M. TextTiling: Segmenting Text into Multi-Paragraph Subtopic Passages, Computational Linguistics , 23 (1), pp. 33-64, March 1997. http://acl.ldc.upenn.edu/J/J97/J97-1003.pdf”で開示されているTextTilingをはじめとする多くの既存技術を適用することが可能である。もっとも単純な分割手法の例としては、例えば、図3のような固有表現抽出結果において、新しい語が出現した時点で分割を行う手法が考えられる。例えば、図3においてPERSONの観点から分割を行う場合は、「人名A」「人名B」および「人名C」が初めて出現する19.805秒、64.451秒、および90.826秒でトピック分割を行えばよい。
また、上記の変形例として、トピック分割の前処理としてショット境界検出(shot boundary detection)を行ってもよい。ショット境界検出は、カメラの切替(カット)など画像フレームの変化をもとにビデオコンテンツを分割する技術である。ショット境界検出は、例えば、“Smeaton, A., Kraaij, W. and Over, P.: The TREC Video Retrieval Evaluation (TRECVID): A Case Study and Status Report, RIAO 2004 conference proceedings, 2004. http://www.riao.org/Proceedings-2004/papers/0030.pdf”に開示されている。
この場合、ショット境界に対応する時点のみをトピック分割時点の候補とすればよい。
最後に、トピック分割部102は、各観点に基づき作成したトピック分割結果を総合(統合)して、単一のトピック分割結果を作成し、分割結果を元のビデオデータとともに格納する(ステップS406)。
これは、例えば、PERSONの観点に基づく分割箇所と、FOODの観点に基づく分割箇所の両方を採用するか、あるいは双方の分割箇所が一致する箇所のみを採用することにより容易に実現可能である。
さらに、各分割点における確信度(confidence score)が得られる場合には、例えば、これらの値の和をもとに総合分割点を決定してもよい。また、変形例として、総合的な分割結果は作成しない実施形態も考えられる。
次に、図1のトピック一覧生成部104の処理について図5を参照して説明する。図5は本実施形態におけるトピック一覧生成部104の処理の一例を示すフローチャートである。
まず、ビデオデータ、クローズドキャプション、および複数の観点に基づくトピック分割結果をトピック分割結果データベース103から取得する(ステップS501)。
そして、各観点に基づくトピック分割結果の各トピックセグメントに対して、既存の任意の技術によりサムネイルおよびキーワードを生成する(ステップS502、S503、S504、S505)。サムネイル作成方法としては、ビデオデータのフレーム画像の中から、トピックセグメントの開始時間に対応するものを1枚選出し、これを縮小する方法が一般的である。また、トピックセグメントの特徴を現すキーワードの選出方法としては、クローズドキャプションに対して、例えば、情報検索における適合フィードバック(relevance feedback)におけるキーワード選出方法を応用すればよい。relevance feedbackは、personalizationとも呼ばれ、ユーザの興味に応じてシステムの処理内容を修正する処理のことである。具体的な選出方法は、例えば、“Robertson, S.E. and Sparck Jones, K: Simple, proven approaches to text retrieval, University of Cambridge Computer Laboratory Technical Report TR-356, 1997. http://www.cl.cam.ac.uk/TechReports/UCAM-CL-TR-356.pdf”に開示されている。
トピック一覧生成部104は、トピック分割結果、サムネイルを基にして、ユーザに提示するトピック一覧情報を生成し、出力部105に出力する(ステップS506)。トピック一覧情報の一例は次に図6を参照して説明する。
図1の出力部105がユーザに提示するトピック一覧情報について図6を参照して説明する。図6はトピック一覧情報の画面表示例である。
ユーザは出力部105により提示されたこのようなインタフェース上で、視聴したいトピックセグメントに対応するサムネイルを1つ以上選択することにより、番組中の見たい箇所のみを効率的に視聴できる。この例では、長さが60分の旅行番組に対して、PERSONとLOCATIONという2つの観点からトピック分割を行った結果と、両者の結果を総合した分割結果とがユーザに提示されている。
各トピックセグメントには、サムネイルと、特徴を表すキーワードが付与されている。例えば、PERSONの観点に基づく分割結果は、5つのトピックセグメントから構成されており、第一セグメントの特徴キーワードは「人名A」と「人名B」となっている。この分割結果を見ることにより、ユーザは、番組中における出演者の移り変わりを概観することができる。そして、例えば、ユーザが「人名D」のファンである場合に、PERSONの第2、第3セグメントを選択する、といった視聴スタイルが可能になる。
一方、PERSONに基づく分割結果とは別個に、LOCATIONに基づく分割結果が示されている。これは、旅行番組において、例えば、3箇所の温泉を訪れるような場合に、温泉の地名やホテル名などをもとにトピック分割を行ったイメージを示したものである。ユーザは、この番組の特定の出演者には興味がないが、2番目の温泉の名前には興味があるといった場合に、図6のLOCATIONに基づく分割結果の第2セグメントを選択することにより、この部分のみを視聴できる。
また、もちろん、PERSONに基づく第2セグメントとおよび第3セグメントと、LOCATIONに基づく第2セグメントを選択する、というふうに複数の観点をまたがった選択をしてもよい。上記の例の場合、図6におけるPERSONの第3セグメントとLOCATIONの第2セグメントが時間的に重複しているが、実際に映像を再生する際には同じ内容を2度再生しないようにすることは容易である。この処理については後に図7(再生部分選択部の処理)を参照して説明する。
また、図6では、PERSONとLOCATIONの分割結果を総合して作成した分割結果が提示されているが、前述のようにこの総合結果は提示しない変形例も考えられる。
次に、図1の再生部分選択部107の処理について図7を参照して説明する。図7は本実施形態における再生部分選択部107の処理の一例を示すフローチャートである。
まず、入力部106からユーザにより選択されたトピックセグメントの情報を受け取る(ステップS701)。
次に、各トピックセグメントに対応する開始時間および終了時間のTIMESTAMPをトピック分割結果データベース103から取得する(ステップS702)。
そして、全トピックセグメントの開始時間および終了時間を統合し、元の部分のどの部分を再生するかを決定し、これに基づきビデオコンテンツを部分的に再生する(ステップS703)。
例えば、図6において、ユーザがPERSONに基づく第2、第3セグメントと、LOCATIONに基づく第2セグメントを選択した場合を考える。このとき、各セグメントの<開始時間,終了時間>がそれぞれ<600秒,700秒>、<700秒,2100秒>、<1700秒,2700秒>であるとする。この場合、再生部分選択部107は、600秒目から2700秒目を連続して再生すればよい。
以上に説明したように、本実施形態では、ビデオコンテンツの内容に応じた複数の観点からトピック分割を行い、ユーザにトピックセグメントを選択させることができる。このため、ビデオコンテンツの内容に応じた複数の観点からトピック分割を行い、複数の分割結果をユーザに提供することができる。さらに、観点別の分割結果に対してユーザに評価を行ってもらうことにより、ユーザの観点を反映したpersonalizationを実現することができる。例えば、料理番組において、特定の出演者が出ているセグメントと、特定の料理が出ているセグメントとを選択して視聴するが、旅行番組においては、特定の温泉に関するセグメントのみを選択して視聴する、といった従来よりも柔軟な視聴箇所の選択を行うことができる。
(第2の実施形態)
第2の実施形態と第1の実施形態との構成上および機能上の違いは、プロファイル管理部を有する点のみである。従って、以下、主にプロファイル管理部の処理について説明する。それに伴い、本実施形態での観点決定部と入力部の処理は第1の実施形態とは少し異なる。
本実施形態の映像視聴支援システムについて図8および図9を参照して説明する。図8は本発明の第2の実施形態に係る映像視聴支援システムの概略構成を示すブロック図である。図9は本実施形態におけるトピック一覧情報の一例である。
プロファイル管理部802は、個々のユーザの興味を表すキーワードと、各キーワードの重みとの対をユーザプロファイルと呼ばれるファイルに保持している。このファイルの初期値は、例えば、ユーザに記述してもらえばよい。入力部803を使用してユーザに記述してもらう。例えば、ユーザが「人名A」および「人名B」というテレビタレントのファンであれば、これらのキーワードと重みとをユーザプロファイルに記述しておく。これにより、例えば、後の図9に「お勧め」と示したように、ユーザにどのセグメントがお勧めであるかを提示することができる。この例では、PERSONに基づく第1セグメントのキーワードと、ユーザプロファイル中に含まれていたキーワードが一致したため上記セグメントが「お勧め」としてユーザに提示されている。
なお、ユーザにお勧め情報・興味の度合いを提示すること自体は例えば、特開2004−23799号公報に開示されているように公知であり、本発明の主眼ではない。本発明の特徴的な従来との相違点は、ユーザから観点別にrelevance feedback情報を取得できる点である。この点について以下に詳述する。
プロファイル管理部802は、図7に示したように、入力部803から入力されたユーザのトピック選択情報を監視している。そして、この情報を元に、ユーザプロファイルの修正を行う。例えば、ユーザが図9においてPERSONに基づく第4セグメントを選択したとする。この第5セグメントには、トピック一覧生成部104により生成された「人名E」「人名F」というキーワードが付与されているので、プロファイル管理部802は、これらをユーザプロファイルに付加することができる。
一方、ユーザがLOCATIONに基づく第2セグメントを選択したとする。この第2セグメントには「地名Y」というキーワードが付与されているので、プロファイル管理部802は入力部803から入力して、これをユーザプロファイルに付加することができる。一方、従来技術では、観点別のトピック分割を行っていないため、ユーザには図9の「総合点に基づく分割結果」と見かけ上、類似した一次元の分割結果しか提示されず、各セグメントに付与されるキーワードも、人名と地名がまざっているなど、雑多なものになる。例えば、図9の「総合点に基づく分割結果」の第5セグメントには、「人名E」「人名F」「地名Y」という3つのキーワードがついているが、従来技術ではそもそも観点別のトピック分割を行っていないため、これ以外の雑多な観点に関連する語がキーワードになる可能性がある。したがって、従来技術においてユーザがトピックセグメントを選択した場合、ユーザがそのセグメントを選択した理由が推定しにくいという問題がある。すなわち、例えば、「人名E」「人名F」「地名Y」というキーワードがついているセグメントが選択された場合、ユーザが「人名E」あるいは「人名F」が好きだからそのセグメントを選択したのか、それとも「地名Y」に興味があったからそのセグメントを選択したのかを判定することが難しい。
これに対し本発明では、はじめから観点別にトピック分割結果をユーザに提示し、セグメントの選択を促しているため、前述のように観点別にユーザの選択情報を取得することができるため、ユーザの意図しないユーザプロファイルの修正が従来技術と比べて起こりくい。
また、本実施形態においては、観点決定部801およびトピック分割部102の少なくとも一方がユーザプロファイルを参照して処理内容を修正することが可能である。例えば、観点決定部801は、はじめはユーザにPERSON、LOCATION、FOODという3つの観点を提示するようにしているが、ユーザプロファイルに追加される語彙がPERSONとFOODに関する語彙ばかりであるとする。これはユーザがLOCATIONの観点を全く活用していないことを意味するため、以後LOCATIONという観点をはじめからユーザに提示しないようにする、という処理が可能である。
同様に、例えば、図9において、ユーザがPERSONに基づく第2、第3セグメントを選択した場合、ユーザが「人名D」を好むことが推定できるので、「人名D」を新たにユーザプロファイルに加えるか、既にある「人名D」の重みを上げることが考えられるが、この重みをトピック分割処理の参考にすること可能である。例えば、上記の例では、以後トピック分割の際に「人名D」を重要視して分割処理を行うようにし、例えば、図9の第2、第3セグメントのように「人名D」が連続して出現する2つのセグメントが得られた場合は、最初からこれらを1つにまとめて提示する、といった分割結果修正方法が考えられる。
以上のように、本実施形態では、ユーザのセグメント選択情報を観点別に収集することが可能であるため、ユーザが何故そのセグメントを選択したのかが推定しやすくなり、適切なユーザプロファイルの修正が行い易い。これは適切なお勧め情報提示に役立つ。また、上記ユーザからのフィードバック情報は、ユーザに提示する観点の修正、およびトピック分割方法の提示にも役立てることができる。
なお、以上の説明ではクローズドキャプションが日本語の場合を想定して説明したが、本実施形態はビデオコンテンツの言語になんら限定されるものではない。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明の第1の実施形態に係る映像視聴支援システムのブロック図。 図1の観点決定部の処理の流れを示すフローチャート。 図2のステップS203の固有表現抽出結果を示す図。 図1のトピック分割部の処理の流れを示すフローチャート。 図1のトピック一覧生成部の処理の流れを示すフローチャート。 図1の出力部が提示するトピック一覧情報を示す図。 図1の再生部分選択部の処理の流れを示すフローチャート。 本発明の第2の実施形態に係る映像視聴支援システムのブロック図。 図8の出力部が提示するトピック一覧情報を示す図。
符号の説明
100、800…映像視聴支援システム、101、801…観点決定部、102…トピック分割部、103…トピック分割結果データベース、104…トピック一覧生成部、105…出力部、106、803…入力部、107…再生部分選択部、108…デコーダ、802…プロファイル管理部。

Claims (10)

  1. 映像と、前記映像に対応付けられているテキストデータを取得する取得手段と、
    前記テキストデータに基づいて前記映像に対する複数の観点を抽出する観点抽出手段と、
    前記テキストデータに基づいて、前記観点ごとに、前記映像の内容から複数のトピックを抽出するトピック抽出手段と、
    前記抽出されたトピックごとに前記映像を分割する分割手段と、
    前記分割された映像ごとに、分割された各映像に対応する、サムネイルおよびキーワードの少なくとも1つ以上を作成する作成手段と、
    前記分割された複数の映像と、各映像に対応する、前記サムネイルおよびキーワードの少なくとも1つ以上との映像組を複数提示する提示手段と、
    複数の前記提示された映像組から少なくとも1つの組を選択させる選択手段と、
    ユーザの興味を表現するユーザプロファイルを記憶している記憶手段と、
    前記選択された組に基づいて前記ユーザプロファイルを修正する修正手段と、を具備することを特徴とする映像視聴支援システム。
  2. 前記トピック抽出手段は、前記ユーザプロファイルに基づいて、トピックを抽出することを特徴とする請求項に記載の映像視聴支援システム。
  3. 前記観点抽出手段は、前記ユーザプロファイルに基づいて、抽出する観点を選択することを特徴とする請求項に記載の映像視聴支援システム。
  4. 前記提示手段は、前記観点ごとに在る映像の分割箇所の全てを新たな分割箇所として抽出する第1抽出手段をさらに具備し、
    前記提示手段は前記新たな分割箇所で分割された映像組を提示することを特徴とする請求項1に記載の映像視聴支援システム。
  5. 前記提示手段は、前記観点ごとに在る映像の分割箇所のうち、全ての観点において一致する分割箇所を新たな分割箇所として抽出する第1抽出手段をさらに具備し、
    前記提示手段は前記新たな分割箇所で分割された映像組を提示することを特徴とする請求項1に記載の映像視聴支援システム。
  6. 前記提示手段は、前記前記観点ごとに在る映像組と前記前記新たな分割箇所で分割された映像組との両方を提示することを特徴とする請求項または請求項に記載の映像視聴支援システム。
  7. 前記第1抽出手段は、前記キーワードに基づいて前記新たな分割箇所を抽出することを特徴とする請求項または請求項に記載の映像視聴支援システム。
  8. 前記テキストデータは、該テキストデータに対応付けられた映像に付随するクローズドキャプション、または、前記対応付けられた映像の音声データに対する自動音声認識結果の少なくとも1つを含むことを特徴とする請求項1に記載の映像視聴支援システム。
  9. 前記取得手段は、前記テキストデータとして、前記映像のジャンル、または、前記映像の内容を示す用語の少なくとも1つを取得し、
    前記観点抽出手段は、前記映像情報に基づいて複数の観点を抽出することを特徴とする請求項1に記載の映像視聴支援システム。
  10. 前記観点は固有表現クラスであり、前記トピックは固有表現であることを特徴とする請求項1に記載の映像視聴支援システム。
JP2005342337A 2005-11-28 2005-11-28 映像視聴支援システム Expired - Fee Related JP4550725B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005342337A JP4550725B2 (ja) 2005-11-28 2005-11-28 映像視聴支援システム
US11/604,363 US20070136755A1 (en) 2005-11-28 2006-11-27 Video content viewing support system and method
CNA2006101604606A CN1975733A (zh) 2005-11-28 2006-11-28 视频内容观看支持系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005342337A JP4550725B2 (ja) 2005-11-28 2005-11-28 映像視聴支援システム

Publications (2)

Publication Number Publication Date
JP2007150723A JP2007150723A (ja) 2007-06-14
JP4550725B2 true JP4550725B2 (ja) 2010-09-22

Family

ID=38125796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005342337A Expired - Fee Related JP4550725B2 (ja) 2005-11-28 2005-11-28 映像視聴支援システム

Country Status (3)

Country Link
US (1) US20070136755A1 (ja)
JP (1) JP4550725B2 (ja)
CN (1) CN1975733A (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8276098B2 (en) 2006-12-22 2012-09-25 Apple Inc. Interactive image thumbnails
US7954065B2 (en) * 2006-12-22 2011-05-31 Apple Inc. Two-dimensional timeline display of media items
US9142253B2 (en) * 2006-12-22 2015-09-22 Apple Inc. Associating keywords to media
JP4331217B2 (ja) * 2007-02-19 2009-09-16 株式会社東芝 映像再生装置および方法
JP2009004872A (ja) * 2007-06-19 2009-01-08 Buffalo Inc ワンセグ放送受信装置、ワンセグ放送受信方法、およびワンセグ放送受信プログラムを記録した媒体
US8781996B2 (en) 2007-07-12 2014-07-15 At&T Intellectual Property Ii, L.P. Systems, methods and computer program products for searching within movies (SWiM)
JP5121367B2 (ja) * 2007-09-25 2013-01-16 株式会社東芝 映像を出力する装置、方法およびシステム
JP4929128B2 (ja) * 2007-11-07 2012-05-09 株式会社日立製作所 録画再生装置
BRPI0821173B1 (pt) * 2008-03-05 2020-12-01 Hewlett-Packard Development Company, L.P. método e sistema para administrar apresentação de conteúdo a partir de múltiplas fontes de vídeo e meio legível por computador
JP5225037B2 (ja) * 2008-11-19 2013-07-03 株式会社東芝 番組情報表示装置および方法
JP5388631B2 (ja) * 2009-03-03 2014-01-15 株式会社東芝 コンテンツ提示装置、及び方法
JP5243366B2 (ja) * 2009-08-18 2013-07-24 日本電信電話株式会社 映像要約方法および映像要約プログラム
US8571330B2 (en) * 2009-09-17 2013-10-29 Hewlett-Packard Development Company, L.P. Video thumbnail selection
CN102163201A (zh) * 2010-02-24 2011-08-24 腾讯科技(深圳)有限公司 一种多媒体文件切割方法、装置及转码器
US9277275B1 (en) * 2011-05-03 2016-03-01 Google Inc. System and method for associating individual household members with television programs viewed
CN104796781B (zh) * 2015-03-31 2019-01-18 小米科技有限责任公司 视频片段提取方法及装置
CN105100961B (zh) * 2015-07-23 2018-03-13 华为技术有限公司 视频缩略图生成方法及生成装置
CN106911953A (zh) * 2016-06-02 2017-06-30 阿里巴巴集团控股有限公司 一种视频播放控制方法、装置及视频播放系统
CN106231399A (zh) * 2016-08-01 2016-12-14 乐视控股(北京)有限公司 视频分割方法、设备以及系统
CN109168037B (zh) * 2017-01-05 2021-08-27 腾讯科技(深圳)有限公司 视频播放方法和装置
CN109286835A (zh) * 2018-09-05 2019-01-29 武汉斗鱼网络科技有限公司 直播间互动元素显示方法、存储介质、设备及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324444A (ja) * 1999-03-05 2000-11-24 Jisedai Joho Hoso System Kenkyusho:Kk 番組構造化方法、番組編集支援方法、番組編集支援システム、イベントリスト記録媒体、番組インデックス制作方法、及び番組インデックス編集装置
JP2001078091A (ja) * 1999-09-02 2001-03-23 Hitachi Ltd メディアシーン情報表示編集装置、方法、および該方法に係るプログラムを記憶した記憶媒体
JP2001283570A (ja) * 2000-03-31 2001-10-12 Tau Giken Kk メディアコンテンツ管理装置、メディアコンテンツ制御装置、メディアコンテンツ管理システム及び記録媒体
JP2002142160A (ja) * 2000-11-02 2002-05-17 Nec Corp 番組推薦装置、番組推薦方法およびそのプログラムを記録した記録媒体
JP2002176401A (ja) * 2000-12-05 2002-06-21 Jisedai Joho Hoso System Kenkyusho:Kk 番組関連情報の作成方法および番組関連情報作成システム
JP2003168051A (ja) * 2001-11-30 2003-06-13 Ricoh Co Ltd 電子カタログ提供システム、電子カタログ提供方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2005236542A (ja) * 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> 対応関係検証支援方法及び装置及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6961954B1 (en) * 1997-10-27 2005-11-01 The Mitre Corporation Automated segmentation, information extraction, summarization, and presentation of broadcast news
US20050028194A1 (en) * 1998-01-13 2005-02-03 Elenbaas Jan Hermanus Personalized news retrieval system
US7209942B1 (en) * 1998-12-28 2007-04-24 Kabushiki Kaisha Toshiba Information providing method and apparatus, and information reception apparatus
JP3672023B2 (ja) * 2001-04-23 2005-07-13 日本電気株式会社 番組推薦システムおよび番組推薦方法
US6918132B2 (en) * 2001-06-14 2005-07-12 Hewlett-Packard Development Company, L.P. Dynamic interface method and system for displaying reduced-scale broadcasts
JP2003101895A (ja) * 2001-09-21 2003-04-04 Pioneer Electronic Corp 放送番組案内装置及び方法並びにシステム
US20070101394A1 (en) * 2005-11-01 2007-05-03 Yesvideo, Inc. Indexing a recording of audiovisual content to enable rich navigation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000324444A (ja) * 1999-03-05 2000-11-24 Jisedai Joho Hoso System Kenkyusho:Kk 番組構造化方法、番組編集支援方法、番組編集支援システム、イベントリスト記録媒体、番組インデックス制作方法、及び番組インデックス編集装置
JP2001078091A (ja) * 1999-09-02 2001-03-23 Hitachi Ltd メディアシーン情報表示編集装置、方法、および該方法に係るプログラムを記憶した記憶媒体
JP2001283570A (ja) * 2000-03-31 2001-10-12 Tau Giken Kk メディアコンテンツ管理装置、メディアコンテンツ制御装置、メディアコンテンツ管理システム及び記録媒体
JP2002142160A (ja) * 2000-11-02 2002-05-17 Nec Corp 番組推薦装置、番組推薦方法およびそのプログラムを記録した記録媒体
JP2002176401A (ja) * 2000-12-05 2002-06-21 Jisedai Joho Hoso System Kenkyusho:Kk 番組関連情報の作成方法および番組関連情報作成システム
JP2003168051A (ja) * 2001-11-30 2003-06-13 Ricoh Co Ltd 電子カタログ提供システム、電子カタログ提供方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP2005236542A (ja) * 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> 対応関係検証支援方法及び装置及びプログラム

Also Published As

Publication number Publication date
CN1975733A (zh) 2007-06-06
JP2007150723A (ja) 2007-06-14
US20070136755A1 (en) 2007-06-14

Similar Documents

Publication Publication Date Title
JP4550725B2 (ja) 映像視聴支援システム
CN100485686C (zh) 视频观看支持系统及方法
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
US9710553B2 (en) Graphical user interface for management of remotely stored videos, and captions or subtitles thereof
US8819033B2 (en) Content processing device
BR112016006860B1 (pt) Aparelho e método para criar um único fluxo de dados de informações combinadas para renderização em um dispositivo de computação do cliente
JP5225037B2 (ja) 番組情報表示装置および方法
JP5135024B2 (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
JP5106455B2 (ja) コンテンツ推薦装置及びコンテンツ推薦方法
KR20090004990A (ko) 인터넷 검색 기반 텔레비전을 위한 방법, 매체 및 시스템
JP2004534978A (ja) ビデオ・プログラミング・イベントの望ましさを決定するシステムおよび方法
JP2005522112A (ja) 映像番組用の補足情報を提供するための方法及びシステム
JP2001028722A (ja) 動画像管理装置及び動画像管理システム
JP2008005010A (ja) 動画編集方法
JP2008084115A (ja) 情報処理装置、情報処理プログラムおよび情報処理システム
JP2006155384A (ja) 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
JP2007281856A (ja) 記録再生装置および記録再生方法
JP2008103784A (ja) 映像記録装置
US20100257156A1 (en) Moving picture indexing method and moving picture reproducing device
KR20090089878A (ko) 개요 및 리포트를 이미 포함하는 시청각 도큐먼트의 새로운 개요를 생성하기 위한 방법 및 상기 방법을 구현할 수 있는 수신기
US20060010366A1 (en) Multimedia content generator
JP2002281449A (ja) 映像装置
KR101412722B1 (ko) 자막 관리방법 및 자막 검색방법
JP2006115052A (ja) コンテンツ検索装置とその入力装置、コンテンツ検索システム、コンテンツ検索方法、プログラム及び記録媒体
JP2014130536A (ja) 情報管理装置、サーバ及び制御方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100708

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees