JP2004192527A - Animation summarizing device, animation summarizing method, and program - Google Patents

Animation summarizing device, animation summarizing method, and program Download PDF

Info

Publication number
JP2004192527A
JP2004192527A JP2002362384A JP2002362384A JP2004192527A JP 2004192527 A JP2004192527 A JP 2004192527A JP 2002362384 A JP2002362384 A JP 2002362384A JP 2002362384 A JP2002362384 A JP 2002362384A JP 2004192527 A JP2004192527 A JP 2004192527A
Authority
JP
Japan
Prior art keywords
still image
image
still
moving
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002362384A
Other languages
Japanese (ja)
Inventor
Toshinori Nagahashi
敏則 長橋
Atsuji Nagahara
敦示 永原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2002362384A priority Critical patent/JP2004192527A/en
Publication of JP2004192527A publication Critical patent/JP2004192527A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an animation summarizing device, an animation summarizing method, and a program for summarizing in correspondence with human subjectivity (sensibility) when summarizing animation. <P>SOLUTION: The device comprises a still image creating means for obtaining a still image from targeted animation, based on a prescribed rule; a noticed region calculating means for calculating a pattern in a noticed region of the obtained still image; and a summarized still image selecting means for selecting the still image to configure the summary, according to the prescribed rule, based on the pattern in the noticed region of the obtained still image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、動画の要約を作成する動画の要約作成装置、動画の要約作成方法、及びプログラムに関し、特に、人間の主観(感性)に即して要約を作成することができる、動画の要約作成装置、動画の要約作成方法、及びプログラムに関する。
【0002】
【従来の技術】
近時、インターネットやDVDビデオなど様々な分野で、動画情報(本明細書では、単に「動画」ともいう)をコンピューターで扱う機会が増えている。また、現在では、パーソナルコンピュータ上でのビデオ編集が可能になり、簡単に動画の作成も行えるようになってきた。
このように、動画の入手の機会が増えると、多数の動画の中から、利用者が本当に見たい動画を選択するための「動画の要約」が必要になってくる。この要約の作成については、対象となる動画を順次再生しながらシーンチェンジがあった画面(静止画)を抽出し、シーンチェンジがあった静止画を編集して要約を作成する方法があるが、この方法では、煩雑で時間がかかり、特に、長時間の動画の場合に問題となる。
そこで、動画中の、シーンチェンジのあったフレーム(静止画)だけを抽出し、表示するためのツールが幾つか提供されている。
【0003】
このような、従来の動画のシーンチェンジ検出及び表示方法としては、例えば、以下に示す方法がある。
(1)画像の符号量の変化に基づいてシーンの変化を検出する方法
(2)画像の色相、再度、明度の特徴量の変化に基づいてシーンの変化を検出する方法
【0004】
上述した(1)の方法としては、例えば、特許文献1「画像データ符号化方法、その方法を用いた画像データ符号化装置、画像データ復元方法、その方法を用いた画像データ復元装置、シーン変化検出方法、その方法を用いたシーン変化検出装置」に開示された発明がある。
特許文献1の発明では、一連の動画像データに含まれるシーン変化のフレームを自動的に抽出(検出)し、動画像データをシーン変化のフレーム(変化フレーム)とそれ以外の通常フレームに識別する。そして、変化フレームの検出条件として、連続するフレーム間の符号量の差か、連続するフレーム間の符号量の変化率の差を使用する。そして、シーン変化のフレームのみを自動的に抽出して表示する。
【0005】
また、(2)の方法としては、例えば、特許文献2「映像特徴処理方法」に開示された発明がある。特許文献2の発明は、映像から自動的に特徴量を取り出し、映像を自動的に分類することを目的とした発明である。
そして、上記の目的を達成するため、映像のかたまりを変換した色相、彩度、明度のいずれか又はそれらの組み合わせからなる情報より、ヒストグラムを計測し、そのヒストグラムから極値等を代表値として取り出して特徴量とする。これにより、特徴量の取り出しを自動的に行えるようにする。また、特徴量の数を次元とする特徴空間に前記の映像のかたまりを展開し、その位置から複数の映像のかたまり相互間の距離を計算し、一定距離内の前記映像のかたまり同志をクラスタリングすることにより、それら映像のかたまりを自動的に分類可能とする。
【0006】
しかしながら、(1)、(2)の何れの方法にしても、画像の符号量や色情報などの物理的な特徴量によりシーンの変化を検出する機械的な処理となるため、必ずしも人間の主観(感性)から見たシーンチェンジの検出が行われているとは言い難かった。そのため、人間の主観(感性)に即して、要約を作成することができる装置の提供が望まれていた。
【0007】
【特許文献1】
特開平6−133305号公報
【特許文献2】
特開平6−251147号公報
【0008】
【発明が解決しようとする課題】
本発明はこのような問題を解決するためになされたもので、その目的は、動画の要約を作成する際に、物理的な特徴量を用いて機械的に抽出されたシーンチェンジ画面を使用するのではなく、人間の主観(感性)に即して選択された静止画により要約を作成することのできる、動画の要約作成装置、動画の要約作成方法、及びプログラムを提供することにある。
【0009】
【課題を解決するための手段】
本発明は上記課題を解決するためになされたものであり、本発明の動画の要約作成装置は、動画から静止画を抽出して要約を作成する動画の要約作成装置であって、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手段と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手段と、前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手段とを具備することを特徴とする。
このような構成であれば、前記静止画生成手段により、要約作成の対象となる動画の中から、例えば、指定された時間間隔で静止画を切り出す。そして、前記注目領域算出手段により、前記切り出した静止画の注目領域のパターンを算出する。それから、前記要約画像選択手段により、前記切り出した静止画の注目領域のパターンを基に、注目度の高い静止画を、要約を構成する静止画として選択する。これにより、人間の主観(感性)に即した要約を作成することができる。
【0010】
また、本発明の動画の要約作成装置は、前記要約静止画選択手段により、要約を構成する静止画を選択する際には、注目度の高さが所定の閾値以上の静止画を選択することを特徴とする。
このような構成であれば、要約を構成する静止画として、注目度が所定の閾値以上の静止画が選択される。これにより、人間の主観(感性)に即して、注目度の高い静止画を簡単な基準で選択できる。
【0011】
また、本発明の動画の要約作成装置は、前記要約選択手段により、要約を構成する静止画を選択する際には、注目度の高さが上位N個の静止画を選択することを特徴とする。
このような構成であれば、要約を構成する静止画として、注目度が高い順に静止画が選択される。これにより、より人間の主観(感性)に即した要約を作成できる。
【0012】
また、本発明の動画の要約作成装置は、要約を構成するとして選択された静止画に、該静止画の動画中の位置を関連づけるための動画リンク手段をさらに具備することを特徴とする。
このような構成によれば、前記動画リンク手段により、要約を構成するとして選択抽出された静止画に、該静止画の動画中の位置を関連づける動画リンク情報を付与する。そして、要約を構成する静止画を選択すると、該静止画の動画リンク情報を参照し、当該静止画から後の動画が再生される。これにより、要約中のシーンを選択し、そこから動画を再生することができる。
【0013】
また、本発明の動画の要約作成方法は、動画から静止画を抽出して要約を作成する要約作成装置における動画の要約作成方法であって、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手順とを含むことを特徴とする。
このような手順であれば、前記静止画生成手順により、要約作成の対象となる動画の中から、例えば、指定された時間間隔で静止画を切り出す。そして、前記注目領域算出手順により、前記切り出した静止画の注目領域のパターンを算出する。それから、前記要約画像選択手順により、前記切り出した静止画の注目領域のパターンを基に、注目度の高い静止画を、要約を構成する静止画として選択する。これにより、人間の主観(感性)に即した要約を作成することができる。
【0014】
また、本発明のコンピュータプログラムは、動画から静止画を抽出して要約を作成する動画の要約作成装置内のコンピュータに、対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手順とを実行させるためのプログラムである。
【0015】
【発明の実施の形態】
次に本発明の実施の形態例について図面を参照して説明する。
【0016】
図1は、本発明の動画の要約作成装置100が備える手段の構成例を示す図である。図1に示す動画の要約作成装置100に設けられた各手段は、以下の処理を行う。
・要約生成条件入力手段101は、要約の対象とする動画や長さ(動画の要約作成を行う対象時間)を指定するための手段である。また、要約静止画選択手段105における静止画の選択条件(ルール)を指定するための手段でもある。
・動画読取手段102は、要約作成の対象となる動画を読み取るための手段である。
・静止画生成手段103は、入力された動画から静止画を生成する(切り出す)ための手段である。なお、静止画の切り出し条件(ルール)については後述する。
【0017】
・注目領域算出手段104は、注目領域を算出するための手段である。画像内を複数の領域に分割し、分割した領域ごとに、注目度の程度を2段階以上に区分けする。この注目領域の算出には、例えば、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)」に開示された「誘目度」を使用することができる。なお、この誘目度については、後述する「誘目度についての補足説明」の項目で、その概要について説明する。
【0018】
・要約静止画選択手段105は、要約生成条件入力手段101により指定された条件(ルール)に基づいて、注目度(誘目度)が高い静止画の抽出を行うための手段である。選択された静止画は、データベース111に記録される。なお、要約静止画選択手段105における動画の要約作成方法については後述する。
・静止画選択手段106は、ユーザが望むシーンから動画を再生するために、要約から静止画を選択するための手段である。例えば、ある静止画を選択すると、その静止画から後の動画が再生される。
・動画リンク手段107は、動画中の静止画(要約に使用される静止画)が切り取られた部分に関する情報(フレームや再生位置など)を、「動画リンク情報」として静止画に関連づけ、データベース111に記録するための手段である。
・動画再生手段108は、指定された個所から動画を再生するための手段である。
・印刷手段109は、選択した静止画を印刷するための手段である。
・表示手段110は、動画、静止画を表示するための手段である。
また、データベース111には、要約を作成する対象となる動画112、要約113と、要約113を構成する静止画114と、該静止画114の動画リンク情報115などを記録するデータベースである。なお、図1に例示するデータベース111中には、動画112と要約113を組み合わせた情報が、1つのみ記録された例を示しているが、実際には、識別符号を付して複数の情報が記録される。
【0019】
また、図2は、注目領域算出手段104により、注目度のパターンを算出する例を示す図であり、注目度として「誘目度」を使用し、誘目度のパターンを算出した例を示す図である。図2(a)は、人物11が左端に配置されている画像10の例を模式的に示した図であり、図2(b)は、図2(a)の画像に対応する誘目度のパターンを模式的に示した図である。図2(b)に示す誘目度のパターン画面20中で、誘目度は領域Aが最も高く算出され、領域B、領域Cがこの順に低く算出されている。
【0020】
また、図3は、誘目度のパターンの他の算出例を示す図である。図3(a)は花31が右端に配置されている画像30の例を模式的に示した図であり、図3(b)は、図3(a)に対応する誘目度のパターンを模式的に示した図である。図3(b)に示す誘目度のパターン画面40中で、誘目度は領域Aが最も高く算出され、領域B、領域Cがこの順に低く算出されている。
【0021】
また、図4は、動画から静止画を切り出す方法を説明するための図である。図4に示す例では、動画の再生時間の期間T中に含まれる「フレーム−1〜フレーム−n」の各フレームの全部を「静止画−1〜静止画−n」として切り出した例を示している。静止画の切り出し方法は、その他に、所定のフレーム間隔ごと(例えば、10フレームごと)に切り出すことができ、また、所定の時間間隔ごと(例えば、0.1秒ごと)に切り出すこともできる。
【0022】
次に、要約静止画選択手段105により、要約を構成する静止画の選択(抽出)方法について説明する。要約を構成する静止画の選択は以下のようにして行うことができる。
(1)図5は、切り出した静止画の誘目度のパターンから誘目度の合計を求め、合計した誘目度の変化を、切り取った静止画(フレーム)ごとに示したものであり、この静止画の中から誘目度の高い上位N枚の静止画を選択する。
例えば、図5において、誘目度が高い順に2枚の静止画を選択すると、矢印で示した、静止画−1と静止画−nが選択される。
(2)また、図6は、動画の要約に使う静止画として、一定時間(図6に示す例では3フレームの時間)ごとに最も高い誘目度の静止画を選択する場合の例を示している。図6に示す例では、矢印で示した、静止画−1、静止画−5、静止画9、静止画−nが選択される。
(3)また、図7は、誘目度の大きさが所定の閾値以上の静止画を選択する場合の例である。図7に示す例では、矢印で示した、静止画−1、静止画−5、静止画−nが選択される。
なお、必要に応じて、作成する要約の再生時間の長さ(例えば、30フレーム/秒の再生速度で10秒間など)を指定して、要約を構成する静止画を選択するようにもできる。
【0023】
また、図8は、静止画を選択して動画を再生する方法を示す図であり、動画の要約を構成する静止画を選択し、該静止画から以後の動画の再生を行う方法について説明するための図である。図8に示す例では、要約として選択された静止画が、静止画−1と静止画−nであり、各静止画にはフレームと再生開始時間(動画中の再生開始位置)の情報が、「動画リンク情報」として付与されて記録されている。従って、例えば、静止画−1を選択すると、再生開始時間−aから動画を再生するようにできる。同様に、静止画−nを選択すると、再生開始時間−bから動画を再生するようにできる。
【0024】
また、図9は、動画の要約を作成するフローチャートであり、動画の要約作成は、以下の手順により行われる。
(1)ステップS1:要約生成条件入力手段101により指定された動画を、動画読取手段102により読み込む。
(2)ステップS2:指定された時間間隔でフレームを選び、静止画生成手段103により静止画を切り出す。
(3)ステップS3:注目領域算出手段104により誘目度を算出する。
(4)ステップS4:静止画の分割された領域ごとに算出された誘目度を合計し、該静止画の誘目度とする。
(5)ステップS5:対象とした動画の処理が終了したかどうかを判定する。
(6)ステップS6:誘目度の高い静止画を、要約生成条件入力手段101で指定された条件に従い、要約静止画選択手段105により選択(抽出)し、動画の要約とする。
(7)ステップS7:選択した静止画を動画の要約として表示または印刷する。
(8)ステップS8:静止画選択手段106により、表示した静止画を選択し、該静止画の「動画リンク情報」を参照して再生位置を決め、動画再生手段108により、動画の再生を行う。
【0025】
また、図10は、動画の要約作成装置の構成例を示すブロック図であり、本発明に直接関係する部分についてのみ示したものである。図10において、100は動画の要約作成装置、1はインターネット網などの通信ネットワーク、116は動画の要約作成装置100と通信ネットワーク1とを接続する通信用インタフェース、117は動画の要約作成装置の全体を統括制御する制御部、120は処理プログラム部を示している。なお、動画の要約作成装置100には、PC(パーソナルコンピュータ)を使用してもよい。
【0026】
また、処理プログラム部120には、以下の処理部が含まれる。
・要約生成条件入力処理部121は、要約の対象とする動画や長さ(動画の要約作成を行う対象時間)など指定するための処理部である。また、要約静止画選択処理部125における動画の要約作成の条件(要約を構成する静止画の選択条件)を指定するための処理部でもある。
・動画読取処理部122は、要約作成の対象となる動画を読み取るための処理部である。
・静止画生成処理部123は、入力された動画から静止画を生成する(切り出す)ための処理部である。
【0027】
・注目領域算出処理部124は、注目領域を算出するための処理部である。画像内を複数の領域に分割し、分割した領域ごとに、注目度の程度を2段階以上に区分けする。この注目領域の算出には、例えば、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)」に開示された「誘目度」を使用することができる。
【0028】
・要約静止画選択処理部125は、要約生成条件入力処理部121により指定された条件に基づいて、注目領域が多い(誘目度の高い)静止画の選択(抽出)を行うための処理部である。選択された静止画は、データベース111に記録される。
・静止画選択処理部126は、ユーザが望むシーンから動画を再生するために、要約から静止画を選択するための処理部である。例えば、ある静止画を選択すると、その静止画から後の動画が再生される。
・動画リンク処理部127は、動画中の静止画(要約に使用される静止画)が切り取られた部分に関する情報(フレームや再生位置など)を、「動画リンク情報」として静止画に関連づけ、データベース111に記録するための処理部である。
・動画再生処理部128は、指定された個所から動画を再生するための処理部である。
・印刷処理部129は、選択した静止画を印刷するための処理部である。
・表示処理部130は、動画、静止画を表示するための処理部である。
【0029】
なお、この処理プログラム部120は専用のハードウエアにより実現されるものであってもよく、またこの処理プログラム部はメモリおよびCPU(中央処理装置)等の汎用の情報処理装置により構成され、この処理部の機能を実現するためのプログラム(図示せず)をメモリにロードして実行することによりその機能を実現させるものであってもよい。また、この動画の要約作成装置100には、周辺機器として入力装置、表示装置、印刷装置等(いずれも図示せず)が接続されているものとする。ここで、入力装置としては、キーボード、マウス等の入力デバイスのことをいう。表示装置とは、CRT(Cathode Ray Tube)や液晶表示装置等のことをいう。印刷装置とは、レーザープリンタ、インクジェットプリンタ等のことをいう。
【0030】
また、図10に示す動画の要約作成装置100の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより本発明の動画の要約作成装置100に必要な処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)を含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可般媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの(伝送媒体ないしは伝送波)、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。
また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0031】
以上、本発明の実施の形態について説明したが、本発明の動画の要約作成装置は、上述の図示例にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
【0032】
[誘目度についての補足説明]
本発明の実施の形態では、注目領域の抽出基準として「誘目度」を使用しているが、この「誘目度」の算出方法の一例が、「特開2001−126070号公報(注目領域抽出装置およびそれを用いた自動構図決定装置)に詳細に開示されている。
ここでは、その概要についてだけ説明する。
注目領域の抽出のために、原画像の物理的特徴に従って誘目度を評価する。ここで、誘目度とは、人間の主観に合ったパラメータをいう。注目領域の抽出は、評価結果から一番目立つ領域を注目領域として抽出する。つまり、注目領域の評価の際は、物理的特徴に従って人間の主観に合った評価をするので、人間の主観に適合した注目領域を抽出することができる。
例えば、物理的特徴が色の異質度を含む場合、各領域の色の違いに基づいて誘目度を評価することができる。
また、物理的特徴が、色の異質度に加えて、形の異質度、面積の異質度およびテクスチャ(模様)の異質度をさらに含むので、この4つの異質度の少なくとも1つの異質度に基づいて誘目度を評価すれば、原画像の特徴に応じて的確に誘目度を評価することができる。
また、色の3要素(色相、彩度、明度)についても評価する場合であれば、人間の主観による目立つ色(赤色)に近い領域を最も目立つ領域と評価することができる。
さらに、空間周波数や原画像における各領域の面積についても評価すれば、最も目立つ領域の評価をさらに的確に判断することができる。
【0033】
また、誘目度の評価は、以下の手順により行う。
(1)最初に原画像を領域分割する。この場合、原画像を図領域と絵領域に分割する。この領域分割の方法には、1997IEEEにおいてW.Y.MaやB.S.Manjunath らが「Edge Flow:A Framework of Boundary Detection and Image Segmentation」に記載した“edge flow ”に基づく境界検出方法が適用される。
(2)次に、分割した図領域を抽出し、領域の誘目度を評価する。
この誘目度の評価は、概略以下のようにして行う。
・最初に各領域の異質性誘目度を求める。この場合、色の異質度,テクスチャの異質度,形の異質度および面積の異質度を各々求め、それぞれに重み係数を付与して線形結合し、各領域の異質性誘目度を求める。
・次に、各領域における特徴誘目度を求める。この場合、色の誘目度、空間周波数の誘目度、面積の誘目度を求め、それぞれに重み係数を付与して線形結合し、各領域の特徴誘目度を求める。
・次に、各領域の異質性誘目度と特徴誘目度を加算し、特徴量統合値を求め、この特徴量統合値を、所定のベータ関数により評価して、誘目度を算出する。
(3)また、原画像から誘目度を評価したパターン図を生成する。
【図面の簡単な説明】
【図1】動画の要約作成装置が備える手段の構成例を示す図。
【図2】誘目度のパターンを算出する例を示す図。
【図3】誘目度のパターンの他の算出例を示す図。
【図4】動画から静止画を切り出す方法を示す図。
【図5】誘目度の高い上位N枚の静止画を選択する例を示す図。
【図6】一定時間毎に最も高い誘目度の静止画を選択する例を示す図。
【図7】誘目度が所定の閾値以上の静止画を選択する例を示す図。
【図8】静止画を選択して動画を再生する方法を示す図。
【図9】動画の要約作成装置の処理手順を示す図。
【図10】動画の要約作成装置の構成例を示すブロック図。
【符号の説明】
100 動画の要約作成装置、 101 要約生成条件入力手段
102 動画読取手段 、 103 静止画生成手段
104 注目領域算出手段、 105 要約静止画選択手段
106 静止画選択手段、 107 動画リンク手段
108 動画再生手段、 109 印刷手段、 110 表示手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving picture summarizing apparatus, a moving picture summarizing method, and a program for creating a moving picture summary, and more particularly to a moving picture summarizing method capable of forming a summarization in accordance with human subjectivity (sensitivity). The present invention relates to an apparatus, a method of creating a summary of a moving image, and a program.
[0002]
[Prior art]
2. Description of the Related Art Recently, in various fields such as the Internet and DVD video, the opportunity to handle moving image information (hereinafter, also simply referred to as “moving image”) on a computer has been increasing. At present, video editing on a personal computer has become possible, and moving images can be easily created.
Thus, when the opportunity to obtain a moving image increases, a “moving image summary” for selecting a moving image that the user really wants to watch from among a large number of moving images becomes necessary. There is a method of extracting the screen (still image) having the scene change while sequentially reproducing the target moving image, and editing the still image having the scene change to create the summary. This method is cumbersome and time-consuming, and is particularly problematic for long moving images.
Therefore, several tools are provided for extracting and displaying only frames (still images) in a moving image that have undergone a scene change.
[0003]
As such a conventional method of detecting and displaying a scene change of a moving image, for example, there is a method described below.
(1) A method for detecting a change in a scene based on a change in a code amount of an image (2) A method for detecting a change in a scene based on a change in a feature amount of a hue and a brightness of an image again
As the method (1) described above, for example, Patent Document 1 “Image data encoding method, image data encoding device using the method, image data restoration method, image data restoration device using the method, scene change Detection Method, Scene Change Detection Apparatus Using the Method ".
In the invention of Patent Document 1, a scene change frame included in a series of moving image data is automatically extracted (detected), and the moving image data is identified as a scene change frame (change frame) and other normal frames. . Then, as a change frame detection condition, a difference in code amount between consecutive frames or a difference in change rate of code amount between consecutive frames is used. Then, only the frame of the scene change is automatically extracted and displayed.
[0005]
As the method (2), for example, there is an invention disclosed in Patent Document 2 “Video feature processing method”. The invention of Patent Literature 2 is an invention for automatically extracting a feature amount from a video and automatically classifying the video.
Then, in order to achieve the above object, a histogram is measured from information including any one of hue, saturation, and lightness obtained by converting a block of video, or a combination thereof, and an extreme value or the like is extracted from the histogram as a representative value. As the feature value. Thus, the feature amount can be automatically extracted. In addition, the above image cluster is developed in a feature space having the number of feature amounts as a dimension, a distance between a plurality of image clusters is calculated from the position, and clusters of the image clusters within a certain distance are clustered. This makes it possible to automatically classify the cluster of these images.
[0006]
However, any of the methods (1) and (2) is a mechanical process of detecting a change in a scene by a physical feature amount such as an image code amount and color information. It was hard to say that the scene change was detected from the viewpoint of (sensitivity). Therefore, it has been desired to provide a device that can create an abstract in accordance with human subjectivity (sensitivity).
[0007]
[Patent Document 1]
JP-A-6-133305 [Patent Document 2]
JP-A-6-251147
[Problems to be solved by the invention]
The present invention has been made to solve such a problem, and an object of the present invention is to use a scene change screen that is mechanically extracted using physical features when creating a summary of a moving image. Rather, it is an object of the present invention to provide a moving picture summarizing apparatus, a moving picture summarizing method, and a program that can create a summarization based on still images selected according to human subjectivity (sensitivity).
[0009]
[Means for Solving the Problems]
The present invention has been made in order to solve the above-mentioned problem, and a moving picture summary creating apparatus of the present invention is a moving picture summary creating apparatus that extracts a still image from a moving picture to create a summary, and is an object of the present invention. A still image generation unit for extracting a still image from a moving image based on a predetermined rule, an attention area calculation unit for calculating a pattern of an attention area of the extracted still image, and an attention area of the extracted still image And a summary still image selecting means for selecting a still image forming a summary based on a predetermined rule based on the above pattern.
With such a configuration, the still image generation unit cuts out a still image at a specified time interval, for example, from a moving image to be summarized. Then, the attention area calculation means calculates a pattern of the attention area of the cut-out still image. Then, based on the pattern of the region of interest of the cut-out still image, the summary image selecting means selects a still image with a high degree of attention as a still image constituting a summary. This makes it possible to create an abstract that is in line with human subjectivity (sensitivity).
[0010]
In the moving image summary creating apparatus of the present invention, when selecting a still image forming a summary, the summary still image selecting means selects a still image having a high degree of interest or more than a predetermined threshold. It is characterized.
With such a configuration, a still image whose attention level is equal to or greater than a predetermined threshold is selected as a still image forming the summary. As a result, a still image with a high degree of attention can be selected based on a simple criterion in accordance with human subjectivity (sensitivity).
[0011]
Further, the moving image summary creating apparatus of the present invention is characterized in that when selecting the still images constituting the summary, the summary selecting means selects the top N still images having a high degree of attention. I do.
With such a configuration, the still images are selected in descending order of interest as the still images forming the summary. This makes it possible to create a summary that more closely matches the human subjectivity (sensitivity).
[0012]
Further, the moving picture summary creating apparatus of the present invention is characterized by further comprising moving picture linking means for associating a still picture selected as constituting a summary with a position in the moving picture of the still picture.
According to such a configuration, the moving image linking means adds the moving image link information that associates the position of the still image in the moving image to the still image selected and extracted as forming the summary. Then, when a still image constituting the summary is selected, the moving image subsequent to the still image is reproduced by referring to the moving image link information of the still image. As a result, a scene in the summary can be selected, and a moving image can be reproduced therefrom.
[0013]
Further, the moving picture summarizing method of the present invention is a moving picture summarizing method in a summarizing apparatus for extracting a still image from a moving picture to create a summarizing, wherein Based on a predetermined rule based on a still image generation procedure for cutting out an image, an attention area calculation procedure for calculating a pattern of the attention area of the cut out still image, and a pattern of the attention area of the cut out still image. And a summary still image selection procedure for selecting a still image forming the summary.
In such a procedure, a still image is cut out at a specified time interval, for example, from the moving image to be summarized in the still image generation procedure. Then, the pattern of the attention area of the cut-out still image is calculated by the attention area calculation procedure. Then, a still image with a high degree of attention is selected as a still image forming a summary based on the pattern of the attention area of the cut-out still image by the summary image selection procedure. This makes it possible to create an abstract that is in line with human subjectivity (sensitivity).
[0014]
Further, the computer program of the present invention provides a computer in a moving image summary creating apparatus that extracts a still image from a moving image to create a summary, based on a predetermined rule, from a target moving image. An image generation procedure, an attention area calculation procedure for calculating a pattern of an attention area of the cut-out still image, and a still image forming a summary by a predetermined rule based on the attention area pattern of the cut-out still image. And a summary still image selection procedure for selecting an image.
[0015]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0016]
FIG. 1 is a diagram showing an example of the configuration of the means included in the moving picture digest creation apparatus 100 of the present invention. Each means provided in the moving picture digest creation apparatus 100 shown in FIG. 1 performs the following processing.
The summary generation condition input unit 101 is a unit for designating a moving image to be summarized and a length (a target time for generating a moving image summary). It is also a means for designating selection conditions (rules) for a still image in the abstract still image selection means 105.
The moving image reading unit 102 is a unit for reading a moving image for which a summary is to be created.
The still image generation unit 103 is a unit for generating (cutting out) a still image from an input moving image. The conditions (rules) for cutting out still images will be described later.
[0017]
The attention area calculation means 104 is means for calculating the attention area. The image is divided into a plurality of regions, and the degree of attention is divided into two or more levels for each of the divided regions. For the calculation of the attention area, for example, the “attraction degree” disclosed in “Japanese Patent Application Laid-Open No. 2001-126070 (attention area extraction apparatus and automatic composition determination apparatus using the same)” can be used. In addition, about this attraction degree, the outline | summary is demonstrated in the item of "supplementary explanation about attraction degree" mentioned later.
[0018]
The summary still image selection unit 105 is a unit for extracting a still image with a high degree of attention (attraction) based on the condition (rule) specified by the summary generation condition input unit 101. The selected still image is recorded in the database 111. Note that a method of creating a summary of a moving image in the summary still image selection unit 105 will be described later.
The still image selection unit 106 is a unit for selecting a still image from a summary to reproduce a moving image from a scene desired by the user. For example, when a certain still image is selected, a moving image following the still image is reproduced.
The moving image link unit 107 associates information (frames, playback positions, and the like) relating to a portion of a moving image from which a still image (still image used for summarization) is cut off as “moving image link information” with the still image, and a database 111 Means for recording the information.
The moving image reproducing means 108 is a means for reproducing a moving image from a specified location.
The printing unit 109 is a unit for printing the selected still image.
The display unit 110 is a unit for displaying a moving image and a still image.
The database 111 is a database that records a moving image 112 and a summary 113 for which a summary is to be created, a still image 114 that forms the summary 113, and moving image link information 115 of the still image 114. Although the database 111 illustrated in FIG. 1 shows an example in which only one piece of information obtained by combining the moving picture 112 and the summary 113 is recorded, actually, a plurality of pieces of information are provided with identification codes. Is recorded.
[0019]
FIG. 2 is a diagram illustrating an example in which a pattern of the degree of interest is calculated by the attention area calculation unit 104. FIG. 2 is a diagram illustrating an example in which the pattern of the degree of interest is calculated using “attraction degree” as the degree of interest. is there. FIG. 2A is a diagram schematically illustrating an example of an image 10 in which a person 11 is arranged at the left end, and FIG. 2B is a diagram illustrating an attraction degree corresponding to the image of FIG. It is the figure which showed the pattern typically. In the attractiveness pattern screen 20 shown in FIG. 2B, the attractiveness is calculated to be highest in the area A, and the areas B and C are calculated to be lower in this order.
[0020]
FIG. 3 is a diagram illustrating another example of calculating the pattern of the degree of attraction. FIG. 3A is a diagram schematically illustrating an example of an image 30 in which a flower 31 is arranged at the right end, and FIG. 3B schematically illustrates a pattern of the degree of attraction corresponding to FIG. FIG. In the pattern screen 40 of the degree of attraction shown in FIG. 3B, the degree of attraction is calculated to be highest in the area A, and the areas B and C are calculated to be lower in this order.
[0021]
FIG. 4 is a diagram for explaining a method of cutting out a still image from a moving image. In the example illustrated in FIG. 4, an example is shown in which all the frames of “frame-1 to frame-n” included in the period T of the moving image playback time are cut out as “still image-1 to still image-n”. ing. In addition, the still image can be extracted at a predetermined frame interval (for example, every 10 frames) or at a predetermined time interval (for example, every 0.1 second).
[0022]
Next, a method of selecting (extracting) a still image forming a summary by the summary still image selecting unit 105 will be described. The selection of the still images constituting the summary can be performed as follows.
(1) FIG. 5 shows the sum of the attraction degrees obtained from the pattern of the attraction degrees of the cut out still images, and shows the change in the total attraction degrees for each of the cut out still images (frames). , Select the top N still images with the high degree of attraction.
For example, in FIG. 5, when two still images are selected in descending order of the degree of attraction, still image-1 and still image-n indicated by arrows are selected.
(2) FIG. 6 shows an example in which a still image with the highest degree of attraction is selected every fixed time (3 frames in the example shown in FIG. 6) as a still image used for summarizing a moving image. I have. In the example shown in FIG. 6, still image-1, still image-5, still image 9, and still image-n indicated by arrows are selected.
(3) FIG. 7 shows an example in which a still image having a degree of attraction of not less than a predetermined threshold value is selected. In the example shown in FIG. 7, still image-1, still image-5, and still image-n indicated by arrows are selected.
If necessary, the length of the reproduction time of the summary to be created (for example, 10 seconds at a reproduction speed of 30 frames / second, etc.) can be specified to select a still image forming the summary.
[0023]
FIG. 8 is a diagram showing a method of reproducing a moving image by selecting a still image. A method of selecting a still image forming a summary of the moving image and reproducing the moving image from the still image will be described. FIG. In the example shown in FIG. 8, the still images selected as the summary are still image-1 and still image-n, and each still image includes information on a frame and a reproduction start time (reproduction start position in a moving image). It is provided and recorded as “moving image link information”. Therefore, for example, when the still image-1 is selected, the moving image can be reproduced from the reproduction start time-a. Similarly, when the still image-n is selected, the moving image can be reproduced from the reproduction start time-b.
[0024]
FIG. 9 is a flowchart for creating a summary of a moving image. The creation of a summary of a moving image is performed according to the following procedure.
(1) Step S1: The moving image specified by the summary generation condition input unit 101 is read by the moving image reading unit 102.
(2) Step S2: A frame is selected at a specified time interval, and a still image is cut out by the still image generating means 103.
(3) Step S3: The attention area calculation means 104 calculates the degree of attraction.
(4) Step S4: The attraction degrees calculated for each of the divided areas of the still image are summed up and set as the attraction degree of the still image.
(5) Step S5: It is determined whether or not the processing of the target moving image has been completed.
(6) Step S6: A still image with a high degree of interest is selected (extracted) by the abstract still image selecting means 105 according to the condition specified by the abstract generating condition input means 101, and is set as a moving picture abstract.
(7) Step S7: The selected still image is displayed or printed as a summary of the moving image.
(8) Step S8: The displayed still image is selected by the still image selecting unit 106, the reproduction position is determined with reference to the “moving image link information” of the still image, and the moving image is reproduced by the moving image reproducing unit 108. .
[0025]
FIG. 10 is a block diagram showing an example of the configuration of a moving picture summary creating apparatus, and shows only parts directly related to the present invention. In FIG. 10, reference numeral 100 denotes a moving picture summarizing apparatus, 1 denotes a communication network such as the Internet, 116 denotes a communication interface for connecting the moving picture summarizing apparatus 100 and the communication network 1, and 117 denotes the whole moving picture summarizing apparatus. And a control program unit 120 for controlling the overall operation of the computer. It should be noted that a PC (personal computer) may be used as the moving picture digest creation apparatus 100.
[0026]
Further, the processing program unit 120 includes the following processing units.
The summary generation condition input processing unit 121 is a processing unit for designating a moving image to be summarized and a length (a target time for creating a moving image summary). It is also a processing unit for designating a condition for creating a summary of a moving image in the summary still image selection processing unit 125 (a condition for selecting a still image forming a summary).
The moving image reading processing unit 122 is a processing unit for reading a moving image for which a summary is to be created.
The still image generation processing unit 123 is a processing unit for generating (cutting out) a still image from an input moving image.
[0027]
The attention area calculation processing section 124 is a processing section for calculating the attention area. The image is divided into a plurality of regions, and the degree of attention is divided into two or more levels for each of the divided regions. For the calculation of the attention area, for example, the “attraction degree” disclosed in “Japanese Patent Application Laid-Open No. 2001-126070 (attention area extraction apparatus and automatic composition determination apparatus using the same)” can be used.
[0028]
The summary still image selection processing unit 125 is a processing unit for selecting (extracting) a still image having a large attention area (high attraction) based on the condition specified by the summary generation condition input processing unit 121. is there. The selected still image is recorded in the database 111.
The still image selection processing unit 126 is a processing unit for selecting a still image from a summary in order to reproduce a moving image from a scene desired by the user. For example, when a certain still image is selected, a moving image following the still image is reproduced.
The moving image link processing unit 127 associates information (a frame, a reproduction position, and the like) relating to a portion of a moving image in which a still image (still image used for summarization) is cut off as “moving image link information” with the still image, and This is a processing unit for recording the data in the memory 111.
The moving image reproduction processing unit 128 is a processing unit for reproducing a moving image from a specified location.
The print processing unit 129 is a processing unit for printing the selected still image.
The display processing unit 130 is a processing unit for displaying a moving image and a still image.
[0029]
Note that the processing program unit 120 may be realized by dedicated hardware, and the processing program unit includes a general-purpose information processing device such as a memory and a CPU (central processing unit). A program (not shown) for realizing the function of the unit may be loaded into a memory and executed to realize the function. Further, it is assumed that an input device, a display device, a printing device, and the like (all are not shown) are connected as peripheral devices to the moving image summary creating device 100. Here, the input device refers to an input device such as a keyboard and a mouse. The display device refers to a CRT (Cathode Ray Tube), a liquid crystal display device, or the like. The printing device refers to a laser printer, an inkjet printer, or the like.
[0030]
In addition, a program for realizing the function of the moving picture digest creation apparatus 100 shown in FIG. 10 is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read and executed by a computer system. Thus, the processing necessary for the moving picture digest creation apparatus 100 of the present invention may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices.
The “computer system” includes a homepage providing environment (or a display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a general medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, and a storage device such as a hard disk built in a computer system.
Further, a “computer-readable recording medium” refers to a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, which dynamically holds the program for a short time. This includes transmission media (transmission media or transmission waves), and those in which programs are held for a certain period of time, such as volatile memories in computer systems serving as servers and clients in that case.
Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be a program for realizing the above-mentioned functions in combination with a program already recorded in a computer system, that is, a so-called difference file (difference file). Program).
[0031]
The embodiment of the present invention has been described above. However, the moving picture summary creating apparatus of the present invention is not limited to the above illustrated example, and various modifications may be made without departing from the scope of the present invention. Obviously you can get it.
[0032]
[Supplementary explanation on the degree of attraction]
In the embodiment of the present invention, “attraction level” is used as a reference for extracting a region of interest. One example of a method of calculating the “attraction level” is disclosed in Japanese Patent Laid-Open No. 2001-126070 (attention region extraction device). And an automatic composition determination device using the same).
Here, only the outline will be described.
To extract a region of interest, the degree of attraction is evaluated according to the physical characteristics of the original image. Here, the degree of attraction means a parameter suitable for human subjectivity. The region of interest is extracted by extracting a region that stands out from the evaluation result as a region of interest. In other words, when the attention area is evaluated, the evaluation is performed in accordance with the human subjectivity according to the physical characteristics, so that the attention area suitable for the human subjectivity can be extracted.
For example, when the physical characteristics include the degree of heterogeneity of color, the degree of attraction can be evaluated based on the difference in color of each region.
In addition, since the physical characteristics further include, in addition to the color heterogeneity, the shape heterogeneity, the area heterogeneity, and the texture (pattern) heterogeneity, the physical heterogeneity is determined based on at least one of the four heterogeneities. By evaluating the degree of eye-catching, the degree of eye-catching can be accurately evaluated according to the characteristics of the original image.
In the case where three color components (hue, saturation, and lightness) are also evaluated, a region close to a prominent color (red) according to human subjectivity can be evaluated as the most prominent region.
Furthermore, by evaluating the spatial frequency and the area of each region in the original image, the evaluation of the most prominent region can be more accurately determined.
[0033]
The evaluation of the degree of attraction is performed according to the following procedure.
(1) First, the original image is divided into regions. In this case, the original image is divided into a drawing area and a picture area. As a method of this area division, a boundary detection method based on “edge flow” described in “Edge Flow: A Framework of Boundary Detection and Image Segmentation” by WYMa and BS Manjunath et al. In 1997 IEEE is applied.
(2) Next, the divided figure region is extracted, and the degree of attraction of the region is evaluated.
The evaluation of the degree of attraction is roughly performed as follows.
First, determine the degree of heterogeneity attraction in each area. In this case, the heterogeneity of color, the heterogeneity of texture, the heterogeneity of shape, and the heterogeneity of area are obtained, and weighting factors are assigned to each of them to perform linear combination, thereby obtaining the heterogeneity attractiveness of each region.
Next, the feature attractiveness in each area is obtained. In this case, the attraction of color, the attraction of spatial frequency, and the attraction of area are obtained, and weighting factors are assigned to each of them to perform linear combination to obtain the characteristic attraction of each region.
Next, the heterogeneous attractiveness and the feature attractiveness of each area are added to obtain a feature integrated value, and the feature integrated value is evaluated by a predetermined beta function to calculate the attractiveness.
(3) Also, a pattern diagram in which the degree of attraction is evaluated is generated from the original image.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of a configuration of a means included in a moving picture summary creation device.
FIG. 2 is a diagram showing an example of calculating an attractiveness degree pattern.
FIG. 3 is a diagram showing another example of calculation of the pattern of the degree of attraction.
FIG. 4 is a diagram showing a method of cutting out a still image from a moving image.
FIG. 5 is a diagram illustrating an example of selecting top N still images with a high degree of attraction;
FIG. 6 is a diagram showing an example in which a still image with the highest degree of attraction is selected at regular intervals.
FIG. 7 is a diagram illustrating an example of selecting a still image whose attractiveness is equal to or greater than a predetermined threshold.
FIG. 8 is a view showing a method of selecting a still image and reproducing a moving image.
FIG. 9 is a diagram showing a processing procedure of the moving picture digest creation apparatus.
FIG. 10 is a block diagram showing an example of the configuration of a moving picture digest creation apparatus.
[Explanation of symbols]
DESCRIPTION OF REFERENCE NUMERALS 100 Summarizing device for moving image 101 Summarizing condition input means 102 Moving image reading means 103 Still image generating means 104 Attention area calculating means 105 Summarizing still image selecting means 106 Still image selecting means 107 Moving image linking means 108 Moving picture reproducing means 109 printing means, 110 display means

Claims (6)

動画から静止画を抽出して要約を作成する動画の要約作成装置であって、
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手段と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手段と、
前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手段と
を具備することを特徴とする動画の要約作成装置。
A video summarization creating apparatus that extracts a still image from a video and creates a summary,
A still image generation unit for extracting a still image from a target moving image based on a predetermined rule;
Attention area calculation means for calculating a pattern of the attention area of the cut-out still image,
A moving image summary creating apparatus, comprising: a summary still image selecting means for selecting a still image forming a summary according to a predetermined rule based on the pattern of the region of interest of the extracted still image.
前記要約静止画選択手段により、要約を構成する静止画を選択する際には、注目度の高さが所定の閾値以上の静止画を選択すること
を特徴とする請求項1に記載の動画の要約作成装置。
The moving image according to claim 1, wherein when selecting a still image constituting the summary, the summary still image selecting unit selects a still image whose attention level is equal to or higher than a predetermined threshold. Summarization device.
前記要約選択手段により、要約を構成する静止画を選択する際には、注目度の高さが上位N個の静止画を選択すること
を特徴とする請求項1に記載の動画の要約作成装置。
2. The moving image summary creating apparatus according to claim 1, wherein when the still image forming the summary is selected by the summary selecting unit, the top N still images having a high degree of attention are selected. 3. .
要約を構成するとして選択された静止画に、該静止画の動画中の位置を関連づけるための動画リンク手段を
さらに具備することを特徴とする請求項1から3のいずれかに記載の動画の要約作成装置。
The moving picture summary according to any one of claims 1 to 3, further comprising moving picture linking means for associating the position of the still picture selected in the moving picture with the still picture selected to form the summary. Creation device.
動画から静止画を抽出して要約を作成する要約作成装置における動画の要約作成方法であって、
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、
前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手順と
を含むことを特徴とする動画の要約作成方法。
A method for creating a summary of a moving image in a summary creating device that extracts a still image from a moving image and creates a summary,
A still image generation procedure for cutting out a still image from a target moving image based on a predetermined rule;
An attention area calculation procedure for calculating a pattern of the attention area of the cut-out still image;
A summary still image selecting step for selecting a still image forming a summary based on a predetermined rule based on the pattern of the region of interest of the cut-out still image.
動画から静止画を抽出して要約を作成する動画の要約作成装置内のコンピュータに、
対象となる動画から、所定のルールに基づき、静止画を切り出すための静止画生成手順と、
前記切り出した静止画の注目領域のパターンを算出するための注目領域算出手順と、
前記切り出した静止画の注目領域のパターンを基に、所定のルールにより、要約を構成する静止画を選択するための要約静止画選択手順と
を実行させるためのプログラム。
A computer in the video summary creation device that extracts still images from video and creates summaries,
A still image generation procedure for cutting out a still image from a target moving image based on a predetermined rule;
An attention area calculation procedure for calculating a pattern of the attention area of the cut-out still image;
A program for executing a summary still image selection procedure for selecting a still image forming a summary according to a predetermined rule based on the pattern of the region of interest of the extracted still image.
JP2002362384A 2002-12-13 2002-12-13 Animation summarizing device, animation summarizing method, and program Withdrawn JP2004192527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002362384A JP2004192527A (en) 2002-12-13 2002-12-13 Animation summarizing device, animation summarizing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002362384A JP2004192527A (en) 2002-12-13 2002-12-13 Animation summarizing device, animation summarizing method, and program

Publications (1)

Publication Number Publication Date
JP2004192527A true JP2004192527A (en) 2004-07-08

Family

ID=32760846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002362384A Withdrawn JP2004192527A (en) 2002-12-13 2002-12-13 Animation summarizing device, animation summarizing method, and program

Country Status (1)

Country Link
JP (1) JP2004192527A (en)

Similar Documents

Publication Publication Date Title
US7653249B2 (en) Variance-based event clustering for automatically classifying images
US9672411B2 (en) Information processing apparatus and method, and program
US6546185B1 (en) System for searching a particular character in a motion picture
US6928233B1 (en) Signal processing method and video signal processor for detecting and analyzing a pattern reflecting the semantics of the content of a signal
US8782563B2 (en) Information processing apparatus and method, and program
CN107430780B (en) Method for output creation based on video content characteristics
JP4377887B2 (en) Video dividing device
JP4125140B2 (en) Information processing apparatus, information processing method, and program
Truong et al. Scene extraction in motion pictures
US20100057722A1 (en) Image processing apparatus, method, and computer program product
CA2387404A1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
JP2006079457A (en) Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JPH10162020A (en) Browsing method for image data base
EP0636994B1 (en) Method of and apparatus for retrieving dynamic images and method of and apparatus for managing images
JP4052128B2 (en) Image trimming apparatus, image trimming method, and program
JP2006081021A (en) Electronic album display system, electronic album display method, electronic album display program, image classification device, image classification method and image classification program
JP2006217046A (en) Video index image generator and generation program
JP2006079460A (en) System, method and program for displaying electronic album and device, method, and program for classifying image
US20130188880A1 (en) Computer-readable recording medium storing image accumulating program, method and apparatus
JP2007079736A (en) Data editing device, data editing method, and data editing program
JP2004192527A (en) Animation summarizing device, animation summarizing method, and program
JP2004194197A (en) Device, method and program for detecting scene change
JP3558886B2 (en) Video processing equipment
KR100340030B1 (en) System and Method for Making Brief Video Using Key Frame Images
Jaimes et al. Discovering recurrent visual semantics in consumer photographs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080107