JP2012227645A - 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 - Google Patents
画像処理プログラム、画像処理方法、画像処理装置、撮像装置 Download PDFInfo
- Publication number
- JP2012227645A JP2012227645A JP2011092031A JP2011092031A JP2012227645A JP 2012227645 A JP2012227645 A JP 2012227645A JP 2011092031 A JP2011092031 A JP 2011092031A JP 2011092031 A JP2011092031 A JP 2011092031A JP 2012227645 A JP2012227645 A JP 2012227645A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- segments
- clusters
- image processing
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Image Analysis (AREA)
Abstract
【課題】動画像コンテンツの内容を的確に反映した要約動画像を自動作成すること
【解決手段】本発明の画像処理プログラムは、動画像を入力する入力ステップ(S11)と、前記動画像を複数のセグメントに分割する分割ステップ(S12)と、前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップ(S14)と、前記複数のクラスタの各々から代表セグメントを選出する選出ステップ(S15)と、前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップ(S16)と、をコンピュータに実行させる。
【選択図】 図2
【解決手段】本発明の画像処理プログラムは、動画像を入力する入力ステップ(S11)と、前記動画像を複数のセグメントに分割する分割ステップ(S12)と、前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップ(S14)と、前記複数のクラスタの各々から代表セグメントを選出する選出ステップ(S15)と、前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップ(S16)と、をコンピュータに実行させる。
【選択図】 図2
Description
本発明は、映像コンテンツ(動画像コンテンツ)に対して処理を施す画像処理プログラム、画像処理方法、画像処理装置、撮像装置に関する。
映画などの動画像コンテンツを編集する技術は、例えば特許文献1などに開示されており、多数の動画像コンテンツの中から必要な動画像コンテンツを検索する技術は、例えば特許文献2などに開示されている。
このような編集や検索には、本来、動画像コンテンツの内容を適切に解析する必要があるが、それを完全に自動化することは難しいとされている。
本発明は以上の問題に鑑みてなされたものであり、動画像コンテンツの内容を的確に反映した要約動画像を自動作成することを目的とする。
本発明の画像処理プログラムは、動画像を入力する入力ステップと、前記動画像を複数のセグメントに分割する分割ステップと、前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップと、前記複数のクラスタの各々から代表セグメントを選出する選出ステップと、前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップと、をコンピュータに実行させる。
また、本発明の画像処理方法は、動画像を入力する入力ステップと、前記動画像を複数のセグメントに分割する分割ステップと、前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップと、前記複数のクラスタの各々から代表セグメントを選出する選出ステップと、前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップと、を含む。
また、本発明の画像処理装置は、動画像を入力する入力手段と、前記動画像を複数のセグメントに分割する分割手段と、前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリング手段と、前記複数のクラスタの各々から代表セグメントを選出する選出手段と、前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成手段と、を備える。
また、本発明の撮像装置は、被写体を撮像して動画像を取得する撮像手段と、前記撮像手段が取得した動画像に対して処理を施す本発明の画像処理装置と、を備える。
本発明によれば、動画像コンテンツ内容を的確に反映した要約動画像を自動作成することができる。
[実施形態]
以下、本発明の実施形態として画像処理機能を搭載したコンピュータを説明する。
以下、本発明の実施形態として画像処理機能を搭載したコンピュータを説明する。
図1は、本実施形態のコンピュータ1の構成を示す図である。図1に示すとおりコンピュータ1には、取得部11、記録部12、画像表示部13、操作部14、制御部15などが備えられる。
取得部11は、有線、無線、記録媒体用のドライブなどを介して、電子カメラなどの外部機器や記録媒体から画像を取得する。
記録部12は、取得部11が取得した動画像コンテンツ(動画像コンテンツ)や、制御部15から指定された動画像コンテンツなどを、不図示のメモリ(内部メモリ又は外部メモリ)に対して記録する。
画像表示部13は、液晶表示素子などの画像表示素子を備え、制御部15から指定された動画像コンテンツ又は後述する要約動画像を適当な形式で表示する。
操作部14は、電源釦、マウス、キーボードなどを有し、ユーザから各種の指示を受け付けて制御部15へ伝達する。
制御部15は、制御部15の動作に必要なプログラムを予め記憶しており、このプログラムと、ユーザから入力された指示とに従って、コンピュータ1の各部を制御すると共に、取得部11が取得した動画像コンテンツや、不図示のメモリに記録された動画像コンテンツに対して各種の画像処理を施す。この画像処理の1つに、動画像コンテンツからその動画像コンテンツの要約動画像を自動作成する要約作成処理(後述)や、2つの動画像コンテンツの間の類似度を判定する動画像比較処理(後述)などがある。
なお、制御部15が予め記憶するプログラムは、有線、無線を経由したインターネットを介して取得したものであってもよいし、記録媒体などを介して取得したものであってもよい。
図2は、制御部15による要約作成処理のフローチャートである。以下、図2の各ステップを順に説明する。
ステップS11:制御部15は、ユーザが指定した1つの動画像コンテンツ(図3(A))を読み込む。この動画像コンテンツは多数のフレームを有しており、ここでは個々のフレームが画像情報だけでなく音声情報をも有していると仮定する。
ステップS12:制御部15は、動画像コンテンツの全体を、時間方向にかけて分割することにより、複数のセグメントを生成する(図3(B))。
なお、複数のセグメントの境界位置は、動画像コンテンツの内容(色相、彩度、輝度、動き、音声、被写体種類の少なくとも1つの変化)に基づいて設定されてもよいが、本ステップで生成すべき複数のセグメントは後述するクラスタリングの初期クラスタとして使用されるものなので、複数のセグメントの境界位置は、動画像コンテンツの内容に拘わらず一律に設定されても構わない。よって、ここでは、複数のセグメントの間で時間的な長さが共通となるよう境界位置が設定されると仮定する。因みに、個々のセグメントの時間的な長さが短すぎた場合には、後述するクラスタリングの時間が長期化するだけであるが、個々のセグメントの時間的な長さが長すぎた場合には、後述するクラスタリングの結果に影響の出る可能性もある。よって、複数のセグメントの境界間隔は、1秒毎、或いは4フレーム毎などと或る程度短く抑えられることが望ましい。
ステップS13:制御部15は、複数のセグメントの各々から特徴量ベクトルを抽出する(図3(C))。ここで、個々のセグメントの特徴量ベクトルは、例えば以下の成分(複数の特徴量)からなる。
・色相ヒストグラムH1:セグメント内の全フレームの全画素を母集団とした色相ヒストグラム。但し、その色相ヒストグラムの色相軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・彩度ヒストグラムH2:セグメント内の全フレームの全画素を母集団とした彩度ヒストグラム。但し、その彩度ヒストグラムの彩度軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・輝度ヒストグラムH3:セグメント内の全フレームの全画素を母集団とした輝度ヒストグラム。但し、その輝度ヒストグラムの輝度軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・動きベクトル分布D1:セグメント内における隣接フレーム間の動きベクトル分布(複数)を、セグメント内で平均したもの。
・動きベクトル分散A1:セグメント内における隣接フレーム間の動きベクトル分布の分散(複数)を、セグメント内で平均したもの。
・オブジェクトヒストグラムH4:セグメント内の全フレームを母集団としたオブジェクトヒストグラム。フレームのオブジェクトは、フレームからパターンマッチングなどによって抽出された1又は複数の被写体のことであり、「ヒト」、「犬」、「建物」、「樹木」、「海」、「自動車」など様々な種類がある。よって、オブジェクトヒストグラムH4の横軸は、オブジェクトの種類となる。
・音声ヒストグラムH5:セグメント内の全フレームを母集団とした音声周波数ヒストグラム。但し、その音声周波数ヒストグラムの周波数軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
ステップS14:制御部15は、ステップS13で複数のセグメントの各々から抽出した特徴量ベクトルに応じて、それらのセグメントを複数のクラスタにクラスタリングする(図3(D))。このクラスタリングは、例えば以下の手順(a)〜(d)により行われる。
(a)制御部15は、複数のセグメントの各々を初期のクラスタ(初期クラスタ)に設定する。
(b)制御部15は、複数のクラスタのうち互いに隣接する2つの着目クラスタの間の類似度f(後述)を算出し、その類似度fが閾値T1以上であった場合には、それら2つの着目クラスタを1つのクラスタに連結し、その類似度fが閾値未満であった場合は、それら2つの着目クラスタを連結しない。
(c)制御部15は、複数のクラスタの間で着目クラスタをシフトさせながら手順(b)を繰り返す。その結果、セグメントの数よりも少ない数のクラスタが生成される。
(d)制御部15は、現時点におけるクラスタの数とユーザが予め指定した閾値T2とを比較し、クラスタの数が閾値T2を下回っていない場合は、連結の閾値T1を小さな値に変更してから手順(b)へ戻り、クラスタの数が閾値T2を下回った場合は、クラスタリングを終了する。したがって、制御部15は、クラスタリングを繰り返すことにより、クラスタの数を段階的に低減させ、クラスタの数が閾値T2を下回った時点でクラスタリングを終了する。
なお、以上のクラスタリングでは、ユーザが指定した値を閾値T2に使用したが、動画像コンテンツの時間的長さや初期クラスタの数などに応じて自動的に設定された値を閾値T2に使用してもよい。
また、以上のクラスタリングにおいて、2つの着目クラスタの間の類似度fは、以下の手順(a)〜(c)により算出される。
(a)制御部15は、2つの着目クラスタの各々の特徴量ベクトルを参照し(図5(A))、それらの特徴量ベクトルの間の類似度をベクトル成分毎に算出する(図5(B))。すなわち、制御部15は、2つの着目クラスタの間で、色相ヒストグラムH1の類似度f(H1)と、彩度ヒストグラムH2の類似度f(H2)と、輝度ヒストグラムH2の類似度f(H3)と、動きベクトル分布D1の類似度f(D1)と、動きベクトル分散A1の類似度f(A1)と、オブジェクトヒストグラムH4の類似度f(H4)と、音声ヒストグラムH5の類似度f(H5)とを個別に算出する。
(b)制御部15は、これらの類似度f(H1)、類似度f(H2)、類似度f(H3)、類似度f(D1)、類似度f(A1)、類似度f(H4)、類似度f(H5)を、規格化パラメータで規格化する。
(c)制御部15は、規格化後の類似度f(H1)、類似度f(H2)、類似度f(H3)、類似度f(D1)、類似度f(A1)、類似度f(H4)、類似度f(H5)を加算することにより、2つの着目クラスタの間の類似度fを算出する。
ステップS15:制御部15は、現時点における複数のクラスタの各々から代表セグメントを選出する(図6(A))。なお、個々のクラスタから代表セグメントを選出する処理は、例えば以下の手順(a)〜(d)からなる。
(a)制御部15は、クラスタに属する複数のセグメントの各々から、セグメント内の色相の時間変化量、彩度の時間変化量、輝度の時間変化量、動きベクトルの時間変化量、音声の時間変化量、オブジェクトの時間変化量を抽出する。
(j)制御部15は、抽出された各時間変化量を規格化パラメータで規格化する。
(k)制御部15は、規格化後の各時間変化量をセグメント内で加算することにより、セグメント毎の時間的特徴量を算出する。
(l)制御部15は、クラスタに属する複数のセグメントを、それらセグメントの時間的特徴量によって互いに比較し、時間的特徴量の最も大きかったセグメントを、クラスタの代表セグメントに選定する。
なお、ここでは、時間的特徴量(特徴量の時間変化量)の最も大きいセグメントを代表セグメントに選定したが、例えば、輝度の最も高いセグメント(輝度がピークとなるセグメント)や、音声強度の最も高いセグメント(音声強度がピークとなるセグメント)など、特徴量の大きいセグメントを代表セグメントに選出してもよい。
ステップS16:制御部15は、複数のクラスタの各々から選出された代表セグメントを時系列順に連結することにより1つの動画像を作成し、その動画像を、前述した動画像コンテンツの要約動画像とする(図6(B))。
ステップS17:制御部15は、作成した要約動画像を記録部12へ送出することにより不図示のメモリへ記録し、フローを終了する。なお、制御部15は、記録前の要約動画像に対して必要に応じて圧縮処理を施してもよい。
以上、本実施形態の要約作成処理では、動画像コンテンツを複数のセグメントに分割してから、それら複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングする。さらに、本実施形態の要約作成処理では、複数のクラスタの各々から代表セグメントを選出し、それらの代表セグメントを連結することにより、動画像コンテンツの要約動画像を作成する。
このような要約作成処理では、特徴量に応じて複数のセグメントをクラスタリングするので、動画像コンテンツの最初の分割方法として、仮に、動画像コンテンツの内容を無視した方法を採用したとしても、クラスタリングの結果として得られる個々のクラスタは、一定の纏まりを有したものとなる。
したがって、本実施形態の要約作成処理によれば、動画像コンテンツの内容を的確に反映した要約動画像を作成することができる。
しかも、本実施形態の要約作成処理では、クラスタリングの際に、複数のセグメントの各々の色、動き、音声、被写体内容の少なくとも1つを特徴量として使用するので、互いに類似したセグメント同士を共通のクラスタに纏めることができる。
また、本実施形態の要約作成処理では、このクラスタリングを繰り返すので、クラスタの数を段階的に低減させることができる。
また、本実施形態の要約作成処理では、クラスタの数が予め決められた閾値未満となった時点で繰り返しを終了するので、その閾値を設定するだけで、最終的な要約動画像の長さを任意の長さにすることができる。
また、本実施形態の要約作成処理では、複数のクラスタの各々におけるセグメント毎の色、動き、音声、被写体内容の少なくとも1つに基づき代表セグメントを選出するので、的確な選出が可能である。
図7は、制御部15による動画像比較処理のフローチャートである。以下、図7の各ステップを順に説明する。
ステップS21:制御部15は、ユーザが指定した2つの動画像コンテンツ(第1動画像コンテンツ、第2動画像コンテンツ)を読み込む。第1動画像コンテンツ、第2動画像コンテンツの各々(図8(A))は、多数のフレームを有しており、ここでは個々のフレームが画像情報だけでなく音声情報をも有していると仮定する。
ステップS22:制御部15は、第1動画像コンテンツの全体を、時間方向にかけて分割することにより、複数のセグメントを生成する(図8(B))。
なお、本ステップでは、複数のセグメントの境界位置は、動画像コンテンツの内容に応じて設定されることが望ましい。そこで、本ステップでは、図1のステップS12〜S14と同じ処理(クラスタリング)により、第1動画像コンテンツを複数のクラスタへと分割し、分割後の複数のクラスタを、本ステップにおける分割後の複数のセグメントとする。このように、動画像コンテンツの分割を動画像コンテンツの内容に応じて行った場合、分割後の複数のセグメントの間でフレーム数が非共通となる。
ステップS23:制御部15は、複数のセグメントの各々から特徴量ベクトルを抽出し(図8(C))、その特徴量ベクトルの各成分を規格化パラメータで規格化する。なお、個々のセグメントの特徴量ベクトルは、例えば以下の複数の成分(複数の特徴量)からなる。
・色相ヒストグラムH1:セグメント内の全フレームの全画素を母集団とした色相ヒストグラム。但し、その色相ヒストグラムの色相軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・彩度ヒストグラムH2:セグメント内の全フレームの全画素を母集団とした彩度ヒストグラム。但し、その彩度ヒストグラムの彩度軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・輝度ヒストグラムH3:セグメント内の全フレームの全画素を母集団とした輝度ヒストグラム。但し、その輝度ヒストグラムの輝度軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・動きベクトル分布D1:セグメント内における隣接フレーム間の動きベクトル分布(複数)を、セグメント内で平均したもの。
・動きベクトル分散A1:セグメント内における隣接フレーム間の動きベクトル分布の分散(複数)を、セグメント内で平均したもの。
・オブジェクトヒストグラムH4:セグメント内の全フレームを母集団としたオブジェクトヒストグラム。フレームのオブジェクトは、フレームからパターンマッチングなどによって抽出された1又は複数の被写体のことであり、「ヒト」、「犬」、「建物」、「樹木」、「海」、「自動車」など様々な種類がある。よって、オブジェクトヒストグラムH4の横軸は、オブジェクトの種類となる。
・音声ヒストグラムH5:セグメント内の全フレームを母集団とした音声周波数ヒストグラム。但し、その音声周波数ヒストグラムの周波数軸の刻みは、後の処理の演算負荷を軽減するため、多すぎないことが望ましい(例えば16刻み程度。)。
・セグメント長T:セグメントの時間的な長さ。
ステップS24:制御部15は、複数のセグメントの各々の特徴量ベクトルを量子化(シンボライズ)する。この量子化は、複数の成分を有した特徴量ベクトルを単一の記号で表す処理である。なお、個々の特徴量ベクトルの量子化は、以下の手順(a)〜(c)からなる。
(a)制御部15は、特徴量ベクトルを、特徴量ベクトル空間上の1点へと射影する(図8(D))。
(b)制御部15は、特徴量ベクトルの射影先(写像)が、特徴量ベクトル空間上に予め設定された複数の領域A、B、C、…の何れに属するかを判別する。なお、複数の領域A、B、C、…の境界面は、多数の動画像コンテンツをサンプルとした学習によって予め設定されているものとする。
(c)制御部15は、特徴量ベクトルを、写像の属する領域の名称(A、B、C、…の何れか)で表す。これによって、多次元であった特徴量ベクトルが、1次元(単一の記号)で表される。
ステップS25:制御部15は、複数のセグメントの各々の量子化後の特徴量ベクトル(A、B、C、…の何れか)をセグメント順(時系列順)に配列することにより、一連の記号列を作成し、それを第1動画像コンテンツの変化パターンとする(図9)。なお、図9には、第1動画像コンテンツの変化パターンとして記号列「ACDBEDG…」が求められた例を示した。
ステップS22’:制御部15は、上述したステップS22と同様の手順により、第2動画像コンテンツの全体を複数のセグメントに分割する。
ステップS23’:制御部15は、上述したステップS23と同様の手順により、第2動画像コンテンツを構成する複数のセグメントの各々から特徴量ベクトルを抽出し、その特徴量ベクトルの各成分を規格化パラメータで規格化する。
ステップS24’:制御部15は、上述したステップS24と同様の手順により、第2動画像コンテンツを構成する複数のセグメントの各々の特徴量ベクトルを量子化する。
ステップS25’:制御部15は、上述したステップS25と同様の手順により、第2動画像コンテンツの変化パターンを求める。なお、図10には、ステップS25で求めた変化パターン(第1動画像コンテンツの変化パターン)と、ステップS25’で求めた変化パターン(第2動画像コンテンツの変化パターン)との例を示した。
ステップS26:制御部15は、第1動画像コンテンツの変化パターンと、第2動画像コンテンツの変化パターンとの間の類似度を、DPマッチング(動的計画法によるパターンマッチング)などのパターンマッチングにより算出する。なお、DPマッチングによれば、列数の異なる2つの記号列の類似度を的確に算出することができる。
ステップS27:制御部15は、ステップS26で求めた類似度を画像表示部18に対して表示すると、フローを終了する。
以上、本実施形態の動画像比較処理では、第1動画像コンテンツを複数のセグメントに分割し、それら複数のセグメントの間における特徴量の変化パターンを求める。また、本実施形態の動画比較処理では、第2画像コンテンツを複数のセグメントに分割し、それら複数のセグメントの間における特徴量の変化パターンを求める。このようにして求められた変化パターンは、第1動画像コンテンツ及び第2動画像コンテンツの各々の流れを簡易的に表す。
そして、本実施形態の動画像比較処理では、第1動画像コンテンツに関する変化パターンと、第2動画像コンテンツに関する変化パターンとに基づき、第1動画像コンテンツと第2動画像コンテンツ動画像との間の類似度を判定する。
したがって、本実施形態の動画像比較処理によれば、第1動画像コンテンツと第2動画像コンテンツとの間の類似度を的確に自動判定することができる。
また、本実施形態の動画像比較処理では、個々の動画像コンテンツを複数のセグメント(サブセグメント)に分割してから、それら複数のサブセグメントの各々の特徴量に応じて、それら複数のサブセグメントを複数のクラスタにクラスタリングし、それら複数のクラスタを、分割後の複数のセグメントとする。
したがって、本実施形態の動画像比較処理では、分割後の複数のセグメントの各々に対して一定の纏まりを持たせることができる。
また、本実施形態の動画像比較処理では、複数のセグメントの各々の特徴量ベクトルを量子化するので、セグメントの各々が有していた多次元の特徴を、1次元の特徴(1つの記号)で表すことができる。
したがって、本実施形態の動画像比較処理では、第1動画像コンテンツ及び第2動画像コンテンツの変化パターンを簡単な記号列で表すことができ、その結果、両コンテンツの類似度の算出を簡単に行うことができる。
[補足]
なお、本実施形態の制御部15は、上述した動画像比較処理を、1つの第1動画像コンテンツと、多数の第2動画像コンテンツの各々との間で行うことにより、第1動画像コンテンツに類似した1又は複数の第2動画像コンテンツを多数の第2動画像コンテンツの中から検索してもよい。その場合、制御部15は、検索された第2動画像コンテンツのファイル名やサムネイル画像などを検索結果として表示することが望ましい。
なお、本実施形態の制御部15は、上述した動画像比較処理を、1つの第1動画像コンテンツと、多数の第2動画像コンテンツの各々との間で行うことにより、第1動画像コンテンツに類似した1又は複数の第2動画像コンテンツを多数の第2動画像コンテンツの中から検索してもよい。その場合、制御部15は、検索された第2動画像コンテンツのファイル名やサムネイル画像などを検索結果として表示することが望ましい。
また、上述したステップS22、S22’では、動画像コンテンツを分割(セグメントの境界位置の設定)する際に、特徴量に基づくクラスタリング(図1のステップS12〜S14)を行ったが、例えば、フレーム番号iをインクリメントしながら以下の式の処理を繰り返すことで隣接フレーム同士の連結/非連結を行ってもよい。
なお、式における「S」は、現フレームと前フレームとの間の特徴量の差分(例えば輝度ヒストグラムの差分)であり、オーバーライン付きの「S」は、Sの平均値であり、オーバーライン付きの「σ」は、Sの揺らぎ平均値である。このようにしてセグメントの境界位置を設定した場合も、類似したフレーム同士を1つのセグメントに纏めることができる。
なお、ここでは式中の差分Sとして輝度ヒストグラムの差分を使用したが、色相ヒストグラム、彩度ヒストグラム、動きベクトル分布、動きベクトル分散、オブジェクトヒストグラム、音声ヒストグラムのうち少なくとも1つの差分を使用してもよい。
また、本実施形態では、画像処理機能を搭載したコンピュータを説明したが、同様の画像処理機能は、他の機器、例えば、動画像の取得機能を有した電子カメラ、動画像の取得機能を有したディジタルフォトフレーム、動画像の取得機能を有したプリンタなどに搭載されてもよい。
1…コンピュータ、11…取得部、12…記録部、13…画像表示部、14…操作部、15…制御部
Claims (9)
- 動画像を入力する入力ステップと、
前記動画像を複数のセグメントに分割する分割ステップと、
前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップと、
前記複数のクラスタの各々から代表セグメントを選出する選出ステップと、
前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップと、
をコンピュータに実行させることを特徴とする画像処理プログラム。 - 請求項1に記載の画像処理プログラムにおいて、
前記分割ステップでは、
前記複数のセグメントの間で時間的な長さが等しくなるよう前記複数のセグメントの境界を設定する
ことを特徴とする画像処理プログラム。 - 請求項1又は請求項2の何れか一項に記載の画像処理プログラムにおいて、
前記クラスタリングステップでは、
前記複数のセグメントの各々の色、動き、音声、被写体内容の少なくとも1つを、そのセグメントの特徴量として使用する
ことを特徴とする画像処理プログラム。 - 請求項1〜請求項3の何れか一項に記載の画像処理プログラムにおいて、
前記クラスタリングステップでは、
前記クラスタリングを繰り返すことにより、クラスタの数を段階的に低減させる
ことを特徴とする画像処理プログラム。 - 請求項4に記載の画像処理プログラムにおいて、
前記クラスタリングステップでは、
前記クラスタの数が予め決められた閾値未満となった時点で前記繰り返しを終了する
ことを特徴とする画像処理プログラム。 - 請求項1〜請求項5の何れか一項に記載の画像処理プログラムにおいて、
前記選出ステップでは、
前記複数のクラスタの各々におけるセグメント毎の色、動き、音声、被写体内容の少なくとも1つに基づき代表セグメントを選出する
ことを特徴とする画像処理プログラム。 - 動画像を入力する入力ステップと、
前記動画像を複数のセグメントに分割する分割ステップと、
前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリングステップと、
前記複数のクラスタの各々から代表セグメントを選出する選出ステップと、
前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成ステップと、
を含むことを特徴とする画像処理方法。 - 動画像を入力する入力手段と、
前記動画像を複数のセグメントに分割する分割手段と、
前記複数のセグメントの各々の特徴量に応じて、それら複数のセグメントを複数のクラスタにクラスタリングするクラスタリング手段と、
前記複数のクラスタの各々から代表セグメントを選出する選出手段と、
前記複数のクラスタの各々から選出された代表セグメントを連結することにより、前記動画像の要約動画像を作成する作成手段と、
を備えることを特徴とする画像処理装置。 - 被写体を撮像して動画像を取得する撮像手段と、
前記撮像手段が取得した動画像に対して処理を施す請求項8に記載の画像処理装置と、
を備えたことを特徴とする撮像装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011092031A JP2012227645A (ja) | 2011-04-18 | 2011-04-18 | 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011092031A JP2012227645A (ja) | 2011-04-18 | 2011-04-18 | 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012227645A true JP2012227645A (ja) | 2012-11-15 |
Family
ID=47277384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011092031A Pending JP2012227645A (ja) | 2011-04-18 | 2011-04-18 | 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012227645A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210108A (ja) * | 2012-03-30 | 2013-10-10 | Osaka Prefecture Univ | 焼却炉における燃焼状態検出装置および燃焼制御装置 |
KR101777238B1 (ko) * | 2015-10-28 | 2017-09-11 | 네이버 주식회사 | 영상 트렌드 검출 및 큐레이션을 위한 방법 및 시스템 |
JP2018530847A (ja) * | 2015-08-21 | 2018-10-18 | ヴィリンクス, インク.Vilynx, Inc. | 広告配信のための動画使用情報処理 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000253351A (ja) * | 1999-03-01 | 2000-09-14 | Mitsubishi Electric Corp | 動画要約装置および動画要約作成プログラムを記録したコンピュータ読み取り可能な記録媒体および動画再生装置および動画再生プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002140712A (ja) * | 2000-07-14 | 2002-05-17 | Sony Corp | Av信号処理装置および方法、プログラム、並びに記録媒体 |
JP2002142189A (ja) * | 2000-11-06 | 2002-05-17 | Canon Inc | 画像処理装置、画像処理方法及び記憶媒体 |
JP2003283968A (ja) * | 2002-03-26 | 2003-10-03 | Fujitsu Ltd | 動画像内容表示装置 |
JP2006287319A (ja) * | 2005-03-31 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | 番組ダイジェスト作成装置および番組ダイジェスト作成プログラム |
JP2007072789A (ja) * | 2005-09-07 | 2007-03-22 | Nippon Telegr & Teleph Corp <Ntt> | 映像構造化方法及び装置及びプログラム |
JP2007200249A (ja) * | 2006-01-30 | 2007-08-09 | Nippon Telegr & Teleph Corp <Ntt> | 映像検索方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
JP2009095013A (ja) * | 2007-09-24 | 2009-04-30 | Fuji Xerox Co Ltd | ビデオ要約システムおよびビデオ要約のためのコンピュータプログラム |
JP2009212605A (ja) * | 2008-02-29 | 2009-09-17 | Sony Corp | 情報処理方法、情報処理装置及びプログラム |
JP2010206729A (ja) * | 2009-03-05 | 2010-09-16 | Sony Corp | ダイジェスト再生装置、ダイジェスト再生方法、およびプログラム |
-
2011
- 2011-04-18 JP JP2011092031A patent/JP2012227645A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000253351A (ja) * | 1999-03-01 | 2000-09-14 | Mitsubishi Electric Corp | 動画要約装置および動画要約作成プログラムを記録したコンピュータ読み取り可能な記録媒体および動画再生装置および動画再生プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2002140712A (ja) * | 2000-07-14 | 2002-05-17 | Sony Corp | Av信号処理装置および方法、プログラム、並びに記録媒体 |
JP2002142189A (ja) * | 2000-11-06 | 2002-05-17 | Canon Inc | 画像処理装置、画像処理方法及び記憶媒体 |
JP2003283968A (ja) * | 2002-03-26 | 2003-10-03 | Fujitsu Ltd | 動画像内容表示装置 |
JP2006287319A (ja) * | 2005-03-31 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | 番組ダイジェスト作成装置および番組ダイジェスト作成プログラム |
JP2007072789A (ja) * | 2005-09-07 | 2007-03-22 | Nippon Telegr & Teleph Corp <Ntt> | 映像構造化方法及び装置及びプログラム |
JP2007200249A (ja) * | 2006-01-30 | 2007-08-09 | Nippon Telegr & Teleph Corp <Ntt> | 映像検索方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体 |
JP2009095013A (ja) * | 2007-09-24 | 2009-04-30 | Fuji Xerox Co Ltd | ビデオ要約システムおよびビデオ要約のためのコンピュータプログラム |
JP2009212605A (ja) * | 2008-02-29 | 2009-09-17 | Sony Corp | 情報処理方法、情報処理装置及びプログラム |
JP2010206729A (ja) * | 2009-03-05 | 2010-09-16 | Sony Corp | ダイジェスト再生装置、ダイジェスト再生方法、およびプログラム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013210108A (ja) * | 2012-03-30 | 2013-10-10 | Osaka Prefecture Univ | 焼却炉における燃焼状態検出装置および燃焼制御装置 |
JP2018530847A (ja) * | 2015-08-21 | 2018-10-18 | ヴィリンクス, インク.Vilynx, Inc. | 広告配信のための動画使用情報処理 |
KR101777238B1 (ko) * | 2015-10-28 | 2017-09-11 | 네이버 주식회사 | 영상 트렌드 검출 및 큐레이션을 위한 방법 및 시스템 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107534796B (zh) | 视频处理系统和数字视频分发系统 | |
KR102416558B1 (ko) | 영상 데이터 처리 방법, 장치 및 판독 가능 저장 매체 | |
US8416332B2 (en) | Information processing apparatus, information processing method, and program | |
CN104994426B (zh) | 节目视频识别方法及系统 | |
JP6016489B2 (ja) | 画像処理装置、画像処理装置の制御方法、プログラム | |
CN109711401B (zh) | 一种基于Faster Rcnn的自然场景图像中的文本检测方法 | |
JP2014106637A (ja) | 情報処理装置および方法、並びにプログラム | |
US9542594B2 (en) | Information processing apparatus, method for processing information, and program | |
WO2020011001A1 (zh) | 图像处理方法、装置、存储介质和计算机设备 | |
JP2015219879A (ja) | 画像認識システム、画像認識方法およびプログラム | |
JP2012174273A (ja) | 画像処理装置及び画像処理方法 | |
WO2023056835A1 (zh) | 视频封面生成方法、装置、电子设备及可读介质 | |
JP2012227645A (ja) | 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 | |
JP2002358515A (ja) | 変倍画像生成装置及び方法、画像特徴算出装置及び方法、及びそのコンピュータプログラムとコンピュータ読み取り可能な記憶媒体、並びに画像データ構造 | |
JP2006217046A (ja) | 映像インデックス画像生成装置及び映像のインデックス画像を生成するプログラム | |
JP2007164301A (ja) | 情報処理装置、データ解析方法、プログラム及び情報記憶媒体 | |
JP2009093250A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
KR20120134936A (ko) | 하이퍼 비디오 정보 파일 제작장치 및 제작방법, 그 기록매체 | |
JP2012226477A (ja) | 画像処理プログラム、画像処理方法、画像処理装置、撮像装置 | |
JP2010097355A (ja) | 画像分離装置、画像分離方法および画像分離プログラム | |
JP4692784B2 (ja) | 画像記述システムにおける特徴量選択プログラム、特徴量選択方法および装置 | |
JP6375778B2 (ja) | 画像処理方法および画像処理装置 | |
KR20200131722A (ko) | 훈련된 심층 신경망 모델의 재현 성능을 개선하는 방법 및 이를 이용한 장치 | |
JP6031566B1 (ja) | 特徴抽出装置、画像検索装置、方法、及びプログラム | |
US11823434B1 (en) | Techniques for adaptive frame-based clip matching and fingerprinting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150609 |