JP3625935B2 - 動画像の重要画像抽出装置および重要画像抽出方法 - Google Patents
動画像の重要画像抽出装置および重要画像抽出方法 Download PDFInfo
- Publication number
- JP3625935B2 JP3625935B2 JP34094695A JP34094695A JP3625935B2 JP 3625935 B2 JP3625935 B2 JP 3625935B2 JP 34094695 A JP34094695 A JP 34094695A JP 34094695 A JP34094695 A JP 34094695A JP 3625935 B2 JP3625935 B2 JP 3625935B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- important
- important image
- data
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Color Television Systems (AREA)
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、動画像中の重要な画像を抽出する重要画像抽出装置およびその抽出方法に関するものである。
【0002】
【従来の技術】
近年、動画像および音声などが組み合わされたマルチメディアを表示および再生するマルチメディアシステムにおいて、ユーザは、動画像の中から重要なシーンを手軽に探して視聴したいと言う要求があった。たとえば、通信回線などを介してニュース番組を受けて、これを再生する場合に、ユーザは、番組の全てを視聴するのではなく、ヘッドラインニュースなど特定の部分のみを視聴することを希望することが考えられる。
【0003】
しかしながら、動画像全体を把握したり、動画像から重要シーンだけを抽出することは容易ではない。そこで、こうした問題を解決する技術として、動画像全体を把握する目的で、動画像を時間ごとに分割して、或いは、シーンが変化する点で分割して、分割された動画像から、それぞれ、代表画像を抽出し、これを一覧表示する方法が提案されている。
たとえば、特開平5−244475公報には、テイク/ショットの先頭画面、最終画面などを検出し、それに基づき代表画面を得る手法が提案され、特開平3−273363公報には、動画像中の場面の切り換えを認識し、これに基づきインデックス画像を得る手法が提案され、或いは、特開平3−292572公報には、一定間隔ごとに画面を読み出して、これを代表画像とする手法が提案されている。
【0004】
【発明が解決しようとする課題】
しかしながら、上述した何れの手法においても、画像中の被写体に着目して重要画像であるか否かを判断しているものではないため、動画像全体の内容を把握するのに有効な場合があるが、当該動画像を作成する際に、撮影者が、意図的にカメラを静止させて、特定の人物に焦点を合わせ撮影したシーン、すなわち、撮影者が、被写体である人物に意図的に注目して撮影したようなシーンを適切に抽出することは困難であった。特に、ニュース映像では、キャスターが話題の区切りに登場し、その概要を説明するシーンが存在する。このようなシーンではキャスターを中央に配置し、カメラを静止させて撮影している。また、ニュース映像中で、発言をする人物などを撮影する場合にも同様の方法で画像がつくられているが、このようなシーンを適切に抽出することは困難であった。
【0005】
上述したような問題点を解決するために、特開平4−261033号公報に記載されたような手法が提案されている。これは、所望の対象物を含む画像を指定し、かつ、対象物を囲む図形を切り出して、切り出された図形に基づき、所定の画像を得るように構成されている。
【0006】
しかしながら、上述した手法を用いた場合には、光ディスク装置などに記憶された画像をいったん読みだし、その中で所望の画像中の人物など対象物を指定した後に、重要画像の抽出が実行されるため、ユーザが画像中の特定の人物を指定するなどの煩雑な手続を要するという問題点があった。
【0007】
本発明の目的は、煩雑な手続を要することなく、特に、動画像中の、カメラを静止させて人物など被写体に注目して撮影した画像を適切に抽出する重要画像抽出装置および抽出方法を提供することにある。
【0008】
【課題を解決するための手段】
本発明の目的は、デジタル画像であるフレームが複数連続する動画像を入力する画像入力手段と、前記入力した動画を構成するフレームの各々を複数に分割した区分領域ごとに、あるフレームと、当該フレームより前又は後のフレームとを比較し、フレーム間の区分領域ごとの変動を抽出する画像変動抽出手段と、フレームを分割した複数の区分領域のうちいくつかの区分領域からなる第1の領域と、当該領域以外の区分領域からなる第2の領域との各々で、前記画像変動抽出手段により抽出された変動した区分領域の数に基づき、重要画像を含むフレームの候補を抽出する第1の重要画像判定手段と、前記重要画像を含むフレームの候補を、所定の時間連続して抽出する場合、当該フレームの画像を重要画像と判定する第2の重要画像判定手段と、を備えたことを特徴とする重要画像抽出装置により達成される。
【0009】
本発明によれば、画像中に画定される図形の内側部分の画像の変動および外側部分の変動に基づき、重要画像が抽出されるため、内側部分に存在する被写体および外側部分に存在する背景とを含む画像を適切に抽出することが可能となる。
【0010】
本発明の好ましい実施態様においては、前記画像変動抽出手段が、前記動画像中の時間的に離間したフレームの対応する区分領域ごとの画像の変動を抽出するように構成されている。
【0011】
本発明のさらに好ましい実施態様においては、前記画像変動抽出手段が、少なくとも2フレーム以上にわたって、画像中のそれぞれ対応する位置に表れていないエッジを抽出する変動エッジ抽出手段と、前記区分領域ごとに、前記変動エッジの個数を計数する変動エッジ計数手段と、前記計数された値が所定の第1のしきい値よりも大きいときに、前記区分領域を画像が変動した領域であると判断する変動領域判断手段とを有している。
【0012】
本発明のさらに好ましい実施態様においては、前記変動エッジ抽出手段が、画像中のある位置の画素に対応する画像データと、該画素の水平方向の近傍に位置する他の画素に対応する画像データとの差を算出し、および/または、前記画素に対応する画像データと、前記画素の垂直方向の近傍に位置する画素に対応する画像データとの差を算出し、前記差が第2のしきい値よりも大きい場合に、前記エッジが表れていると判断するように構成されている。
【0013】
本発明のさらに好ましい実施態様においては、前記図形が、前記画像の外縁から、それぞれ、所定の距離だけ内側に離間して位置する4点により画定され、これにより、画像中の中央部および外縁部が画定され、前記第1の重要画像判定手段が、前記中央部の変動および前記外縁部の変動に基づき、重要画像を抽出するように構成されている。
【0014】
本発明のさらに好ましい実施態様においては、前記第1の重要画像判定手段が、前記内側部分の変動を示す値が所定の第1の値より大きく、かつ、前記外側部分の変動を示す値が他の所定の第2の値より小さい場合に、前記画像を重要画像と判断するように構成されている。
【0015】
これにより、画像の内側部分に位置する人物などの被写体と、外側の背景とを含む画像を、重要画像としてより適切に得ることが可能となる。
【0016】
本発明のさらに好ましい実施態様においては、前記第1の重要画像判定手段が、さらに、前記内側部分の変動および前記外側部分の変動を示す値が、他の所定の第3の値より小さい場合に、前記画像を重要画像と判断するように構成されている。
【0017】
本発明のさらに好ましい実施態様においては、さらに、前記動画像中の時間的に離間する複数のフレームに対応する画像を、それぞれ複数に分割した区分領域ごとに、前記区分領域を特徴付ける色を示す色情報を抽出するとともに、前記複数のフレーム間で、対応する区分領域の前記色情報を比較することにより、重要画像を抽出する第2の重要画像抽出手段を備えている。
【0018】
この実施の態様によれば、内側部分の変動が単に大きいにすぎなかった画像を、誤って重要画像と判断することを防止できる。
【0019】
本発明のさらに好ましい実施態様においては、前記第2の重要画像抽出手段が、前記区分領域において、もっとも頻出した色を前記区分領域の色情報と決定するように構成されている。
【0020】
本発明のさらに好ましい実施態様においては、前記第2の重要画像抽出手段が、前記区分領域ごとの色のヒストグラムを、前記区分領域の色情報と決定するように構成されている。
【0021】
本発明のさらに好ましい実施態様においては、前記第2の重要画像抽出手段が、前記対応する区分領域間の色情報を比較して、前記色情報が一致する区分領域を計数し、前記計数された区分領域の数が所定の第3のしきい値よりも小さい状態が、所定の時間継続したときに、前記画像を重要画像と判断するように構成されている。
【0022】
本発明のさらに好ましい実施態様においては、さらに、前記画像の区分領域の色情報と、すでに重要画像であると判断された他の画像の対応する区分領域の色情報とを比較し、前記色情報が一致する区分領域の数が、所定の第4のしきい値よりも小さいときに、前記画像を重要画像と判断する第3の重要画像判断手段を備えている。
【0023】
この実施態様によれば、類似する複数の画像を重複して重要画像と判断することなく、さらに適切に重要画像を得ることが可能となる。
【0024】
本発明のさらに好ましい実施態様においては、さらに、得られた重要画像に基づく静止画像に対応する画像データを生成する画像データ生成手段と、前記画像データを表示する表示手段とを備えている。
【0025】
これにより、ユーザは得られた重要画像を、容易に参照することが可能となる。
【0026】
【発明の実施の形態】
以下、添付図面を参照して、本発明の実施の形態につき説明を加える。
【0027】
図1は、本発明の実施の形態にかかる重要画像抽出システムの構成を示す図である。図1に示すように、重要画像抽出システムは、CRTディスプレイ1、スピーカ2、ディスプレイ1およびスピーカ2に接続され、これらに所定の信号を与えるコンピュータ3とを備えている。コンピュータ3には、システムを制御するためのCPU4、CPU4による処理を実行するためのプログラムなどを記憶したメモリ5、および、外部機器とのデータの送受信を司るインタフェース(I/F)6などが設けられている。さらに、コンピュータ3には、それぞれ、インタフェースを介して、マウス7およびキーボード8が接続されている。
【0028】
また、コンピュータ3には、それぞれ、インタフェースを介して、光ディスクを再生するための画像再生装置9、画像再生装置9から出力された画像信号を、コンピュータ3が処理可能な形式のディジタル画像信号に変換する画像データ生成装置11、および、コンピュータ3により抽出された重要画像に対応するデータなどを記憶する外部情報記憶装置13が接続されている。
【0029】
このように構成された重要画像抽出システムにおいて、マウス7或いはキーボード8を用いてユーザが所定の情報を入力すると、コンピュータ3のCPU4は、与えられた所定の情報にしたがって、インタフェースを介して、制御信号10を画像再生装置9に与える。
【0030】
本実施の形態において、画像再生装置9により再生される動画像のフレームには、それぞれ、先頭から順にフレーム番号が付与されている。したがって、画像再生装置9に与えられる制御信号には、このフレーム番号を特定するための情報が含まれる。画像再生装置9は、制御信号に含まれるフレーム番号を特定するための情報などにしたがって、所定のフレームからなる動画像に関する画像信号を画像データ生成装置11に与える。画像データ生成装置11は、受け入れた画像信号に基づき、ディジタル画像データを生成し、これらデータ12を、コンピュータ3に与える。
【0031】
このようにコンピュータ3に画像データが得られると、通常、コンピュータ3のCPU4は、得られた画像データを、ディスプレイ1に出力し、これにより、所望の画像が、ディスプレイ1の画面に再生される。
【0032】
もちろん、画像再生装置9により再生される信号に、音声信号が含まれている場合には、音声信号が、音声データ生成装置(図示せず)に与えられ、この音声データ生成装置においてディジタル変換により得られたディジタル音声データが、コンピュータ3に与えられる。コンピュータ3は、与えられたディジタル音声データをオーディオ装置(図示せず)に出力し、当該オーディオ装置を介して、スピーカ2により所望の音声が再生される。
【0033】
次に、本実施の形態にかかる重要画像抽出システムのCPU4による、重要画像の抽出処理を説明する。ここに、図2は、本実施の形態にかかる重要画像の抽出処理の概略を示すフローチャートである。CPU4は、メモリ5に記憶されたプログラムを読みだし、以下の手順にしたがって、画像データから、所定の重要画像に対応するデータを抽出する。
【0034】
図2に示すように、CPU4により実行される重要画像の抽出処理には、処理中に使用する変数の初期設定(ステップ50)、画像データ生成装置11により与えられたディジタル画像データを、1フレームに対応するデータ群ごとにメモリ5に記憶する処理(ステップ100)、複数のフレーム間で異なった位置に存在する変動エッジを抽出する変動エッジ抽出処理(ステップ200)、および、1フレーム分の画像を複数の区分領域に分割し、分割された区分領域ごとに、ステップ200において抽出された変動エッジに対応する画素の数を計数して、この計数結果に基づき、内容に変動がある領域を抽出する画像変動領域抽出処理(ステップ250)が含まれる。この画像変動領域抽出処理は、各区分領域において、計数された画素の数に基づき、複数のフレームにおいて変動エッジに対応する画素の数が、それぞれ一定数を超えた領域を画像変動領域として抽出する処理である。
【0035】
さらに、CPU4により実行される重要画像の抽出処理には、画像変動領域抽出処理(ステップ250)により得られた変動領域の分布状態により重要画像か否かを判定する第1の重要画像判定処理(ステップ300)、第1の重要画像判定処理(ステップ300)により抽出された画像と、後続するフレームの画像との間で、各画像の対応する区分領域を代表する領域別代表色を比較し、この比較結果に基づき、重要画像か否かを判定する第2の重要画像判定処理(ステップ400)、第2の重要画像判定処理(ステップ400)により重要画像であると判定された画像と、前回の処理において抽出された重要画像との間で、対応する区分領域を代表する領域別代表色を比較し、両者が一致する区分領域の数が所定の値より小さいときに、前者の画像を重要画像であると判断する第3の重要画像判定処理(ステップ500)、および、前述した処理により得られた重要画像に関連するフレームに対応するデータ群をメモリ5の所定の領域に記憶するとともに、ディスプレイ1に出力する処理(ステップ600)が含まれている。
【0036】
図2に示す処理、特に、第1の重要画像判定処理は、重要画像において、画像変動領域が画像中の中央付近に主として分布するということに着目している。すなわち、ズーミング、パンなどのようなカメラワークによって、画像の全体にわたって画像変動領域が生じるような場合を除去することができる。
【0037】
また、特に、第2の重要画像判定処理は、重要画像において、ある一定の時間だけ類似した画像が連続することに着目している。
【0038】
さらに、後述するように、得られた重要画像を、抽出時間など所定の情報とともに、ディスプレイ1の画面上に表示することができるため、ユーザは、容易に所望の画像を参照することが可能となる。
【0039】
次に、メモリ5に記憶されたデータを、図3のメモリマップを用いて概略的に説明する。図3に示すように、メモリ5には、重要画像抽出処理などのプログラム51、重要画像抽出処理の結果得られた画像データおよびこれに付随するデータからなる重要画像構造体データ群52、後述する処理において、画像中の強エッジ画素を抽出する際に用いる第1のしきい値データ53、後述する処理において、画像の変動領域を判定するための第2のしきい値データ54、画像データ生成装置11により与えられた画像データ55が記憶されている。
【0040】
重要画像構造体データ群52は、ステップ50ないし600の処理の結果得られた1つ以上のデータ群であり、また、画像データ55は、画像データ生成装置11により与えられた最新のディジタル画像データに対応する。また、しきい値データ53、54の値は、予め決定されている。
【0041】
さらに、メモリ5には、ステップ100ないしステップ600の処理を一回実行する際に使用されるワーク用のデータ群が記憶されている。
【0042】
より詳細には、このデータ群は、変動エッジ抽出処理(ステップ200)および画像変動領域抽出処理(ステップ250)において使用される第1のデータ群56、第1ないし第3の重要画像判定処理(ステップ300ないし500)において使用される第2のデータ群57、ならびに、処理において一時的に記憶され、かつ、参照される時間データ群58を含んでいる。この第1のデータ群56および第2のデータ群については、それぞれの処理において、より詳細に説明する。
【0043】
さて、図2に示した重要画像抽出処理の各ステップにつき、以下に詳細に説明する。
【0044】
初期値の設定(ステップ50)の後、マイクロコンピュータ3は、画像データ生成装置11から与えられた1フレーム分の画像データを受け入れ、メモリ5の所定の領域に記憶する。この1フレーム分の画像データは、図3の画像データ55に対応する。本実施の形態においては、1フレーム分の画像は、120画素×160画素から構成される。したがって、1フレーム分の画像データ55は、120×160個の赤色を示す赤画像データ群55−1、120×160個の緑色を示す緑画像データ群55−2、および、120×160個の青色を示す青画像データ群55−3から構成されている。
【0045】
このようにして、1フレーム分の画像データ55が、メモリ5の所定の領域に記憶されると、ステップ200の変動エッジの検出が実行される。
【0046】
ここに、図4ないし図6は、ステップ200の処理を詳細に示すフローチャートである。
【0047】
図4に示すように、変動エッジ抽出処理においては、まず、重要画像継続フラグが0(ゼロ)であるか否かを調べる(ステップ201)。この重要画像継続フラグは、後述するステップ428において1にセットされる。このステップ201においてノー(no)と判断された場合には、ステップ429に進み、その一方、イエス(yes)と判断された場合には、ステップ202に進む。ステップ202においては、処理の対称となるX座標およびY座標を初期化する。このX座標およびY座標は、1フレーム分の画像の画素の位置を示している。
【0048】
引き続き実行されるステップ203ないし213の処理は、X方向(縦方向)およびY方向(横方向)の強エッジ、すなわち所定の値よりも大きく変化している画素を抽出するための処理である。
【0049】
まず、ある座標(X,Y)の画素の横方向に隣接する座標(X+1,Y)および(X−1,Y)に対応する画素の、赤画像データ、緑画像データならびに青画像データの値の差をそれぞれとる。すなわち、これら座標に対応する画素の赤、緑および青の色成分の色差を算出する。次いで、これらの差が、すべて第1のしきい値よりも大きいか否かを判断する(ステップ203)。
【0050】
このステップ203においてイエス(yes)と判断された場合には、座標(X,Y)に関する横エッジデータの値を1とする(ステップ204)。その一方、ステップ203においてノー(no)と判断された場合には、座標(X,Y)に関する横エッジデータの値を0(ゼロ)とする(ステップ205)。この座標(X,Y)に関する横エッジデータは、メモリ5の所定の領域に記憶される。すなわち、図3に示すように、第1のデータ群56には、横エッジデータ群56−1が含まれている。この横エッジデータ群は、処理の対称となる座標の数、すなわち、158×118個の横エッジデータを含んでいる。したがって、ステップ204或いはステップ205において得られた座標(X,Y)に関する横エッジデータは、横エッジデータ群56−1のうちの所定の横エッジデータに対応する。
【0051】
次いで、座標(X,Y)の画素の縦方向に隣接する座標(X,Y+1)および(X,Y−1)に対応する画素の、赤画像データ、緑画像データならびに青画像データの値のそれぞれの差が、第1のしきい値よりも大きいか否かを判断する。すなわち、これら座標に対応する画素の赤、緑および青の色成分の色差を算出し、これらの差が、すべて第1のしきい値よりも大きいか否かを判断する(ステップ206)。
【0052】
このステップ206においてイエス(yes)と判断された場合には、座標(X,Y)に関する縦エッジデータの値を1とする(ステップ207)。その一方、ステップ208においてノー(no)と判断された場合には、座標(X,Y)に関する縦エッジデータの値を0(ゼロ)とする(ステップ208)。
【0053】
横エッジデータのバイト同様に、座標(X,Y)に関する縦エッジデータは、メモリ5の所定の領域に記憶される。図3に示すように、第1のデータ群56には、縦エッジデータ群56−1が含まれている。この縦エッジデータ群は、処理の対称となる座標の数、すなわち、158×118個の縦エッジデータを含んでいる。したがって、ステップ207或いはステップ208において得られた座標(X,Y)に関する縦エッジデータは、縦エッジデータ群56−2のうちの所定の縦エッジデータに対応する。
【0054】
ステップ209では、X方向(横方向)の処理が終了したか否かを判断し、ステップ212では、Y方向の処理が終了したか否かを判断している。ステップ209ないし213を経ることにより、座標(X,Y)=(1,1)ないし(158,118)に対応する全ての画素に関する横エッジデータおよび縦エッジデータを得ることができる。
【0055】
図5に示すステップ214ないしステップ225の処理は、複数のフレームにわたって異なった位置に表れた強エッジを抽出するための処理である。
【0056】
ステップ214では、処理の対称となるX座標およびY座標を初期化する。次いで、今回の処理の対称となったフレームの座標(X,Y)に関する横エッジデータと、前回の処理の対称となったフレームの対応する座標(X,Y)に関する横エッジデータが一致してないことを判断する(ステップ215)。ここに、図3において、第1のデータ群56には、前回の処理の対称となったフレームの座標に関する158×118個の横エッジデータからなる前フレーム横エッジデータ群56−3が含まれている。
【0057】
したがって、CPU4は、座標(X,Y)に関する横エッジデータと、座標(X,Y)に対応する前フレーム横エッジデータとを比較することにより、このステップ215を実現している。
【0058】
このステップ215においてイエス(yes)と判断された場合には、座標(X,Y)に関する変動横エッジデータを1とする(ステップ216)。その一方、ステップ215においてノー(no)と判断された場合には、この座標に関する変動横エッジデータを0(ゼロ)とする(ステップ217)。座標(X,Y)に関する変動横エッジデータは、メモリ5の所定の領域に記憶される。すなわち、図3に示すように、第1のデータ群56には、変動横エッジデータ群56−5が含まれている。この変動横エッジデータ群56−5は、158×118個の変動横エッジデータを含んでいる。したがって、ステップ216或いはステップ217において得られた座標(X,Y)に関する変動横エッジデータは、変動横エッジデータ群56−5のうちの所定の変動横エッジデータに対応する。
【0059】
さらに、今回の処理の対称となったフレームの座標(X,Y)に関する縦エッジデータと、前回の処理の対称となったフレームの対応する座標(X,Y)に関する縦エッジデータが一致してないことを判断する(ステップ218)。図3において、第1のデータ群56には、前回の処理の対称となったフレームの座標に関する158×118個の縦エッジデータからなる前フレーム縦エッジデータ群56−4が含まれている。
【0060】
したがって、CPU4は、座標(X,Y)に関する縦エッジデータと、座標(X,Y)に対応する前フレーム縦エッジデータとを比較することにより、このステップ218を実現している。
【0061】
このステップ218においてイエス(yes)と判断された場合には、座標(X,Y)に関する変動縦エッジデータを1とする(ステップ219)。その一方、ステップ218においてノー(no)と判断された場合には、この座標に関する変動縦エッジデータを0(ゼロ)とする(ステップ220)。座標(X,Y)に関する変動縦エッジデータは、メモリ5の所定の領域に記憶される。すなわち、図3に示すように、第1のデータ群56には、変動縦エッジデータ群56−6が含まれている。この変動縦エッジデータ群56−6は、158×118個の変動縦エッジデータを含んでいる。したがって、ステップ219或いはステップ220において得られた座標(X,Y)に関する変動縦エッジデータは、変動縦エッジデータ群56−6のうちの所定の変動縦エッジデータに対応する。
【0062】
ステップ221では、X方向(横方向)の処理が終了したか否かを判断し、ステップ224では、Y方向の処理が終了したか否かを判断している。ステップ221ないし225を経ることにより、座標(X,Y)=(1,1)ないし(158,118)に対応する全ての画素に関する変動横エッジデータおよび変動縦エッジデータを得ることができる。
【0063】
図6に示すステップ226ないしステップ231の処理は、次回のステップ215ないしステップ225の処理を実行するために、前フレーム横エッジデータおよび前フレーム縦エッジデータを更新している。すなわち、今回の処理で得られた座標(X,Y)に関する横エッジデータを、対応する座標(X,Y)に関する前フレーム横エッジデータとするとともに、今回の処理で得られた座標(X,Y)に関する縦エッジデータを、対応する座標(X,Y)に関する前フレーム縦エッジデータとしている。
【0064】
上述したステップ200の処理は、時間的な間隔をもつ複数のフレーム間において異なった位置に存在したエッジを抽出している。これは、カメラを静止させて撮影することにより得た画像において、背景のエッジが不動であることに基づいている。したがって、上述した処理により、画像中の背景で生じたエッジを除去し、被写体である人物など動きのある部分のエッジのみを抽出することが可能となる。
【0065】
次に、図7ないし図9のフローチャートを参照して、ステップ250の画像変動領域抽出処理を詳細に説明する。
【0066】
図7に示すステップ250ないしステップ264の処理は、1フレームの画像をX方向(横方向)に8個、Y方向(縦方向)に6個の総計48個の区分領域に分割し、区分領域ごとに変動強エッジ画素を計数している。
【0067】
この処理において、まず、使用する変数i、j、XbおよびYbを初期化する(ステップ251)。次いで、ある区分領域中の座標(Xb×20+j,Yb×20+i)に関する変動横エッジデータ、或いは、この座標に関する変動縦エッジデータの何れかが1であることを判断する(ステップ252)。このステップ252においてイエス(yes)と判断された場合には、この区分領域に関する変動エッジデータの値をインクリメントする。
【0068】
図3に示すように、第1のデータ群56には、8×6個の変動エッジデータからなる変動エッジデータ群56−7が含まれている。この実施の形態において、変動エッジデータは、変数の組(Xb,Yb)ごとに設けられている。
【0069】
引き続くステップ254ないしステップ264は、区分領域ごとの変動エッジデータの総数を計数するための処理である。
【0070】
このように区分領域ごとの変動エッジの総数が計数された後に、画像が変動していると考えられる領域を、図8に示すステップ265ないし273の処理により抽出する。ステップ265においては、変数Xb、Ybが初期化され、変数の組(Xb,Yb)に対応する変動エッジデータが第2のしきい値よりも大きく、かつ、前回の処理で得られた、前のフレームの変数の組(Xb、Yb)に対応する変動エッジデータ(前フレーム変動エッジデータ)が第2のしきい値よりも大きいか否かを判断する(ステップ266)。図3において、第1のデータ群56には、前回の処理の対称となったフレームの変数の組(Xb、Yb)に関する8×6個の前フレーム変動エッジデータが含まれている。
【0071】
したがって、CPU4は、変数の組(Xb,Yb)に関する変動エッジデータをメモリ5から読みだし、この値と、第2のしきい値データの値とを比較し、かつ、変数の組(Xb,Yb)に関する前フレーム変動エッジデータをメモリ5から読みだし、この値と、第2のしきい値データの値とを比較することにより、ステップ266を実現している。
【0072】
ステップ266においてイエス(yes)と判断された場合には、変数の組(Xb,Yb)に関する画像変動領域データを1とする(ステップ267)。その一方、ステップ266においてノー(no)と判断された場合には、この変数の組みに関する画像変動領域データを0(ゼロ)とする(ステップ268)。変数の組(Xb,Yb)に関する画像変動領域データは、メモリ5の所定の領域に記憶される。すなわち、図3に示すように、第1のデータ群56には、画像変動領域データ群56−9が含まれている。この画像変動領域データ群56−9は、8×6個の画像変動領域データを含んでいる。したがって、ステップ267或いはステップ268において得られた変数の組(Xb,Yb)に関する画像変動領域データは、画像変動領域データ群56−9のうちの所定の画像変動領域データに対応する。
【0073】
ステップ269ないしステップ273は、全ての区分領域に関して、ステップ266、および、ステップ267または268の処理を実行するための変数の更新処理である。このように、ステップ266ないし268の処理を実行することにより、あるフレームで画像に字幕などが表れるときなど、急激なエッジが表れる領域を画像変動領域と判断することを防止することが可能となる。
【0074】
図9に示すステップ274ないしステップ280の処理は、次回のステップ251ないしステップ273を実行するために、前フレーム変動エッジデータを更新している。すなわち、今回の処理で得られた変数の組(Xb,Yb)に関する変動エッジデータを、対応する変数の組に関する前フレーム変動エッジデータとしている(ステップ275)。さらに、ステップ253でインクリメントされる変動エッジデータの値を初期化している(ステップ276)。
【0075】
上述した処理により、画像変動領域として抽出された区分領域は、該領域中の変動エッジの総数が、複数のフレームにわたって連続して第2のしきい値よりも多い。したがって、これにより、連続的に動きのある被写体のみを含む領域のみを抽出することが可能となる。
【0076】
次に、ステップ300の第1の重要画像判定処理を、図10のフローチャートを参照して詳細に説明する。ステップ301においては、処理で用いられる変数Xb、Ybを初期化するとともに、画像の中央部の変動の計数を示す中央変動カウントデータおよび画像の外縁部の変動の計数を示す外縁変動カウントデータを初期化する。
【0077】
次いで、変数の組(Xb,Yb)に関する画像変動領域データが1であるか否かを判断する(ステップ302)。このステップ302においてイエス(yes)と判断された場合には、この画像変動領域に関する変数の組の値を調べ、Xbが0(ゼロ)より大きく7より小さく、かつ、Ybが0(ゼロ)より大きく5より小さいかを判断する(ステップ303)。ここに、図11は、本実施の態様における画像の中央部および外縁部を説明するための図である。変数の組(Xb,Yb)は、図11に示す1フレーム分の画像の領域に対応付けされている。たとえば、変数の組(0,0)は、図11中の領域110に、変数の組(1,0)は、領域112に対応付けされている。したがって、ステップ303においてイエス(yes)と判断された場合には、画像変動領域が、画像の中央部(図11において斜線が引かれていない部分)に含まれるため、中央変動カウンタデータをインクリメントする(ステップ304)。その一方、ステップ303においてノー(no)と判断された場合には、画像変動領域が、画像の外縁部(図11において斜線が引かれている領域)に含まれるため、外縁変動カウンタデータをインクリメントする(ステップ305)。このようなステップ302ないしステップ305の処理を、変数の組(0,0)ないし(7,5)の全てに関して実行した後に、中央カウントデータの値が5よりも大きく、外縁カウントデータが4より小さく、かつ、両者の和が18よりも小さいか否かを判断する(ステップ311)。これにより、画像の中央部に画像の変動した領域が集中し、かつ、全体としては、画像の変動が比較的小さいか否かが判断される。
【0078】
このステップ311においてイエス(yes)と判断された場合には、この画像が重要画像の候補とされる。その一方、ステップ311においてノー(no)と判断された場合には、ステップ100に戻る。
【0079】
上述した処理により、カメラを静止させて被写体を撮影した画像が、カメラワークを用いて撮影された画像や静止画像などから区別され得る。たとえば、撮影しているカメラに動きがある場合には、中央カウントデータと外縁カウントデータとの総和が18以上になり、或いは、外縁カウントデータの値が4以上になるため、これを重要画像の候補とすることを防止することが可能となる。
【0080】
次に、図12ないし図16のフローチャートを参照して、ステップ400の第2の重要画像判定処理を説明する。
【0081】
図12に示すステップ401ないしステップ414の処理においては、先に実行された処理により得られた重要画像の候補に関して、区分領域ごとの比すとグラムを生成する。ステップ401において、処理で使用する変数i、j、Xb、Ybおよびcolを初期化する。
【0082】
次いで、変数の組(Xb,Yb)に対応する区分領域内の座標(Xb×20+i,Yb×20+j)に位置する画素を構成する赤画像データ、緑画像データおよび青画像データに基づき、この画素の色が、予め定められた64階調の色の何れに最も近いものであるかを決定し、決定された64階調の色のうちの所定の色の色番号を、変数colに与える(ステップ402)。より詳細には、赤画像データとc0(HEX)とのアンドをとった結果を下位に6ビットシフトさせたものと、緑画像データとc0(HEX)とのアンドをとった結果を下位に4ビットシフトさせたものと、青画像データとc0(HEX)とのアンドをとった結果を下位に2ビットシフトさせたものとを加算して、colを得る。
【0083】
この変数colの値に基づき、メモリ5の第2のデータ群57に設けられたヒストグラムデータ群57−1中の所定のヒストグラムデータがインクリメントされる(ステップ403)。このヒストグラムデータ群57−1には、8×6個の区分領域ごとに、64階調の色に対応して64個のヒストグラムデータが設けられている。たとえば、ステップ402により与えられた変数colの値が、0(ゼロ)である場合には、ステップ403において、変数の組(Xb,Yb)に対応する区分領域の、階調0(ゼロ)に対応するヒストグラムデータがインクリメントされる。
【0084】
ステップ404ないし414を実行することにより、上述したステップ402およびステップ403の処理が、全ての区分領域の画素に対して実行される。
【0085】
図13に示すステップ415ないしステップ428においては、各区分領域を代表する色を抽出する処理が実行される。ステップ415において、処理で使用される区分領域を特定するための変数(Xb,Yb)が初期化され、ステップ416において、変数col、および、max_colが初期化される。
【0086】
次いで、変数(Xb,Yb)に対応する区分領域で、一番使用頻度の高かった色の色番号を調べ、その色番号を、変数(Xb,Yb)に対応する区分領域の領域代表色データとする(ステップ417ないし421)。
【0087】
より詳細には、メモリ5のヒストグラムデータ群57−1の変数(Xb,Yb)に対応する区分領域に関する64個のヒストグラムデータの値を調べ、その中で、もっとも値の大きかった色番号が、領域代表色データとなる。
【0088】
上述したステップ416ないしステップ421の処理を、全ての区分領域に関して繰り返すことにより、8×6の区分領域ごとの領域代表色データを得ることができる。この領域代表色データは、図3のメモリ5の第2のデータ群57に含まれる領域色代表色データ群57−2の何れかに対応する。
【0089】
ステップ415ないし426の処理が終了すると、現在の時間を開始時間に代入し、これを図3のメモリ5の開始時間データ58−1とする(ステップ427)とともに、重要画像継続フラグを1にセットする(ステップ428)。この重要画像継続フラグは、これまでの処理において重要画像の候補が得られたことを示している。
【0090】
次に、図14に示すステップ429ないしステップ442の処理においては、後続するフレームの画像の区分領域ごとのヒストグラムデータが得られる。この処理は、図3の画像データ群55とは別個に、メモリ5の所定の領域(図示せず)に、この画像データ群55に対応するフレームに続くフレームに対応する画像データ群を一時的に記憶し、画像データ群を構成する赤画像データ、緑画像データおよび青画像データに関して、図12のステップ401ないしステップ414とほぼ同様の処理を実行する。これにより、メモリ5の第2のデータ群57中のヒストグラムデータ群57−1を構成するヒストグラムデータに、それぞれ値が与えられる。
【0091】
さらに、図15に示すステップ443ないしステップ453の処理においては、後続するフレームの画像の区分領域ごとの領域代表色データが得られる。この処理は、図13に示すステップ415ないしステップ428の処理とほぼ同様である。これらステップを実行することにより、メモリ5の第2のデータ群57中の後続フレーム領域代表色データ群57−3を構成する8×6個の後続フレーム領域代表色データを得ることができる。
【0092】
図16に示すステップ455ないしステップ466の処理においては、フレーム間で画像が継続しているか否かを調べることにより重要画像であるかどうかを判定している。
【0093】
ステップ455においては、処理で使用される変数Xb、Ybおよびsame_histoが初期化される。
【0094】
次いで、変数(Xb、Yb)に対応する区分領域の領域代表色データを、メモリ5の領域代表色データ群57−2から読み出すとともに、変数(Xb、Yb)に対応する区分領域の後続フレーム領域代表色データを、メモリ5の後続フレーム領域代表色データ群57−3から読み出し、両者を比較する(ステップ456)。これらが一致する場合には、変数same_histoをインクリメントする(ステップ457)。
【0095】
全ての区分領域に関して、ステップ456ないしステップ457の処理を実行した後に、得られた変数same_histoが所定の数(本実施の形態においては30)よりも小さいかどうかを判断する(ステップ463)。ステップ463においてノー(no)と判断された場合には、ステップ100の処理に戻り、1フレーム分の画像の入力が再度実行される。なお、この場合、変動エッジ抽出処理(ステップ200)中、ステップ201において、重要画像継続フラグが0(ゼロ)ではないと判断されるため、図14のステップ429に進み、さらに後続するフレームの画像に関するヒストグラムデータの生成および後続フレーム領域代表色データの生成が実行される。
【0096】
その一方、ステップ463においてイエス(yes)と判断された場合には、現在の時間を終了時間に代入して、終了時間データを得る(ステップ464)。これは、図3のメモリ5の終了時間データ58−2として、該メモリ5に記憶される。次いで、重要画像継続フラグを0(ゼロ)にリセットし、メモリ5の開始時間データ58−1および終了時間データ58−2を読みだし、これらの値を比較して、両者の差が、所定の時間(本実施の形態においては2秒)より大きいか否かを判断する(ステップ466)。ステップ466においてノー(no)と判断された場合には、ステップ100に戻り、再度、最初から処理が実行される。その一方、ステップ466においてイエス(yes)と判断された場合には、ステップ500の第3の重要画像判定処理に進む。
【0097】
上述したように、重要画像の候補とされた画像の区分領域ごとの領域代表色データと、後続するフレームの画像の対応する区分領域の後続フレーム領域代表色データとを比較し、重要画像の候補となった画像が、どれくらいの時間継続しているかを調べ、この継続時間が所定の時間よりも大きい場合には、画像が重要画像の候補であることを保持している。これは、注目している被写体を、カメラを静止させて撮影して得た画像は、類似した画像が暫くの間継続することを利用している。このような処理により、画像変動領域が一時的に分布したような画像、たとえば、中央を車両が横切るような画像を、重要画像の候補から除去することができる。
【0098】
次に、第3の重要画像判定処理(ステップ500)につき、図17ないし図19のフローチャートを参照して詳細に説明する。
【0099】
図17のステップ501ないしステップ509の処理においては、ステップ400において重要画像の候補であるとされた画像が、前回のステップ100ないしステップ500の処理において抽出された画像と一致するか否かを判断する処理である。
【0100】
ステップ501においては、処理で使用する変数Xb、Ybおよびsame_histo2が初期化される。次いで、変数(Xb,Yb)に対応する区分領域の領域代表色データと、前回のステップ100ないしステップ500の処理において得られ、後述するステップ511においてメモリ5の所定の領域に記憶された、変数(Xb,Yb)に対応する区分領域の前重要画像領域代表色データとが比較される(ステップ502)。この前重要画像領域代表色データは、図3のメモリ5の第2のデータ群57の前重要画像領域代表色データ群57−4の8×6個のデータの所定の一つに対応する。
【0101】
このステップ502においてイエス(yes)と判断された場合には、変数same_histo2がインクリメントされる(ステップ503)。全ての区分領域に関して、ステップ502ないしステップ503の処理を実行した後に、得られた変数same_histo2が所定の数(本実施の形態においては30)よりも小さいかどうかを判断する(ステップ509)。ステップ509においてノー(no)と判断された場合には、ステップ100に戻り、1フレーム分の画像の入力が再度実行され、再度、最初から処理が実行される。その一方、ステップ509において、イエス(yes)と判断された場合には、図18の処理に進み、次回の処理のために、各区分領域に関する前重要画像領域代表色データが、それぞれ更新される(ステップ510ないしステップ516)。
【0102】
図19の処理は、最終的に重要画像と判断された画像に関する重要画像データを生成する処理である。ステップ518ないしステップ523の処理においては、もとの画像データ群を構成する赤画像データ、緑画像データおよび青画像データが間引かれて、1/2に圧縮された重要画像データが生成される。次いで、上述した処理で得られ、図3のメモリ5に記憶された開始時間データ58−1を、重要画像開始時間データに設定し(ステップ524)、かつ、メモリ5に記憶された終了時間データ58−2を、重要画像終了時間データに設定する(ステップ525)。
【0103】
上述した処理、特に、図17に示す処理により、同一の被写体の動きが変化することにより得られる複数の類似する画像を、重複して抽出するのを防止することができる。すなわち、動画像中の一連のシーンで、いったん、静止していた被写体がいったん移動し、その後に、もとの位置に戻る場合であっても、複数の重要画像を抽出することを防止できる。
【0104】
図19の処理において得られた各データは、図3の重要画像構造体データ群52中のある重要画像に関する一連のデータの組としてメモリ5に記憶される。図20は、一つの重要画像に関する重要画像構造体データ群52中のある一連のデータの組を示すメモリマップである。図20に示すように、このデータの組52−1には、重要画像が得られるごとに1から順に付与される重要画像識別番号データ52−11、図19のステップ518ないしステップ523を繰り返すことにより得られた80×60画素分の重要画像データ群52−12、この重要画像を表示すべきディスプレイ1の画面中のX座標を示す重要画像表示位置Xデータ52−13、同じく画面中のY座標を示す重要画像表示位置Yデータ52−14、図19のステップ524において得られた重要画像開始時間に対応する重要画像開始時間データ52−15、及び、図19のステップ525において得られた重要画像終了時間に対応する重要画像終了時間データ52−16から構成される。
【0105】
この重要画像データ群52には、80×60個の赤画像データ、80×60個の緑画像データ、および、80×60個の青画像データが含まれる。このデータの組52−1は、重要画像が得られるごとに生成される。
【0106】
画像データ生成装置11から、順次、ディジタル画像データが、マイクロコンピュータ3に与えられ、マイクロコンピュータ4において、図2に示した処理が実行されると、メモリ5の重要画像構造体データ群52には、所定の数の重要画像に関連するデータの組が格納されることになる。
【0107】
ユーザがマウス7またはキーボード8を操作して、所定の情報をマイクロコンピュータ3に与え、図2に示す処理を実行させると、ディスプレイ1の画面上に、処理の結果得られた重要画像が表示される。図21は、ディスプレイ1の画面2100上に得られた画像の例を示す図である。図21に示すように、画面2100のウィンドウ2110には、処理の結果得られた重要画像2111ないし2115が表示される。また、各重要画像の下部には、重要画像開始時間データに基づく時間が表示される。この実施の態様においては、ウィンドウ2110に、6枚の重要画像を表示できるようになっているが、得られた重要画像がこれ以上である場合には、マウス7を操作してカーソル2120を、スクロールボタン2121、2122或いはスクロールバー2123上に移動して、マウス7をクリックすることにより、画面をスクロールして、他の重要画像を見ることが可能となる。
【0108】
また、図21において、ウィンドウ2130には、画像データ生成装置11から与えられた画像データに基づく、通常の再生画像が表示される。また、ボタン2131は、重要画像抽出処理を開始させるためのものであり、また、ボタン2132は、処理を終了させるためのボタンである。また、これらボタンの設けられたウィンドウには、処理の結果得られた重要画像の画面数2133および処理が開始された時間2134を表示できるようになっている。
【0109】
たとえば、ユーザが、画像再生装置9に記憶された動画像のうち、重要画像を抽出することを所望する時間(たとえば、開始時間および終了時間)を、マウス7或いはキーボード8を操作することにより、マイクロコンピュータ3に入力し、画面上のスタートボタン2131上に、マウスカーソル2120を移動させて、マウス7をクリックすると、画像データ生成装置を介して、マイクロコンピュータ3に与えられた画像データに基づき、図2の処理が実行されて、ウィンドウ2110上に、圧縮された形式の重要画像を表示することができる。
【0110】
本実施の形態によれば、画像を複数の区分領域に分割し、区分領域ごとの変動エッジを抽出し、時間的な間隔をもつ複数のフレームで、各区分領域において、変動エッジの個数が所定のしきい値を超えている場合に、当該区分領域を画像変動領域としている。したがって、動画像中に、字幕が出現する場合など、あるフレームで急激にエッジが表れる画像を画像変動領域と認識するのを防止することができる。
【0111】
また、本実施の形態によれば、画像を、その外縁部から横方向および縦方向に、所定の距離だけ離間した4点により画定される矩形の内側の領域(中央部)と、外側の領域(外縁部)に分割し、中央部に画像変動領域が、比較的集中していることを認識することにより、重要画像の候補を得ている。したがって、カメラワークを用いた撮影による画像など、画像全体にわたって、エッジが変動している画像を、重要画像として認識するのを防止することができる。
【0112】
さらに、本実施の形態によれば、重要画像の候補とされた画像の区分領域ごとの領域代表色と、当該画像に後続するフレームに関する画像の区分領域ごとの領域代表色とを比較し、所定数の区分領域において、所定の時間より長く、それらの領域代表色が一致していることを認識することにより、重要画像の候補を得ている。
【0113】
さらに、本実施の形態によれば、このようにして得られた重要画像の候補とされた画像の区分領域ごとの代表色と、前回の処理により重要画像と判定された画像の区分領域ごとの代表色とを比較し、これらが一致した区分領域の数が所定の数より小さいときに、得られた画像を新規の重要画像であると判断する。これにより、類似する画像を重複して抽出することを防止することができる。
【0114】
このように、本実施の形態によれば、特に、注目すべき人物などの被写体を、画像の中央付近に配置して撮影した画像を適切に抽出することが可能となる。また、このように抽出された画像をディスプレイに表示するため、ユーザは、簡単に所望のシーンを探し出すことが可能となる。
【0115】
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
【0116】
たとえば、前記実施の形態においては、第1の重要画像判定処理(図2のステップ300)、第2の重要画像判定処理(ステップ400)および第3の重要画像判定処理(ステップ500)が順次実行されているが、これに限定されるものではなく、第1の重要画像判定処理のみを実行して重要画像を得てもよく、或いは、第1および第2の重要画像判定処理を実行することにより、重要画像を得ても良い。
【0117】
また、前記実施の形態の第2の重要画像判定処理において、8×6個の区分領域の、もっとも外縁部に存在する24個の区分領域を外縁部、残りを中央部とするように予め決定されているが、これに限定されるものではなく、区分領域の数、或いは、重要画像として抽出したい被写体の位置などに応答して、外縁部および中央部を設定してもよい。また、中央部とは、必ずしも、画像の外縁から水平方向および垂直方向に等しい距離だけ離間した4点により画定される矩形に限定されるものではなく、所望の3点或いは4点により画定される図形或いは円など他の図形であっても良いことは明らかである。
【0118】
さらに、前記実施の形態の第2の重要画像判定処理において、各区分領域でもっとも使用されたと考えられる色を代表色と決定したが、色のヒストグラムを用いても良いことは言うまでもない。
【0119】
また、前記実施の形態の第1の重要画像判定処理において、横エッジデータ或いは縦エッジデータを得るために、X方向或いはY方向に1だけ離間した二つの画素に関する画像データの値の差をとっているが、これに限定されるものではなく、隣接した画素に関する画像データの値の差、或いは、2以上離間した二つの画素に関する画像データの値の差をとっても良い。
【0120】
さらに、前記実施の形態においては、画像再生装置からの画像信号に基づき、画像データ生成装置がディジタル画像データを生成し、このディジタル画像データがマイクロコンピュータ3に与えられているが、これに限定されるものではない。たとえば、通信回線から与えられた動画像に関するディジタル画像データをマイクロコンピュータが受け入れても良い。この場合に、ディジタル画像データを受け入れた後に、自動的に重要画像を得るようにしておけば、ユーザは、何ら操作することなく、得られた重要画像を見ることが可能となる。
【0121】
また、前記実施の形態において設定される区分領域の大きさ、個数も、上述したものに限定されないことは明らかであり、また、使用されるしきい値なども、上述したものに限定されないことは明らかである。
【0122】
さらに、本明細書において、手段とは、必ずしも物理的手段を意味するものではなく、各手段の機能がソフトウェアにより実現される場合およびハードウェアにより実現する場合を含む。また、一つの手段の機能が、二以上の物理的手段により実現されても、若しくは、二つ以上の手段の機能が、一つの手段により実現されてもよい。
【0123】
【発明の効果】
本発明によれば、煩雑な手続を要することなく、特に、動画像中の、カメラを静止させて人物など被写体に注目して撮影した画像を適切に抽出する重要画像抽出装置および抽出方法を提供することが可能となる。
【図面の簡単な説明】
【図1】図1は、本発明の実施の形態にかかる重要画像抽出システムの構成を示す図である。
【図2】図2は、本実施の形態にかかる重要画像の抽出処理の概略を示すフローチャートである。
【図3】図3は、メモリに記憶されたデータを説明するためのメモリマップである。
【図4】図4は、本実施の形態にかかる変動エッジの抽出処理を詳細に示すフローチャートである。
【図5】図5は、本実施の形態にかかる変動エッジの抽出処理を詳細に示すフローチャートである。
【図6】図6は、本実施の形態にかかる変動エッジの抽出処理を詳細に示すフローチャートである。
【図7】図7は、本実施の形態にかかる画像変動領域抽出処理を詳細に示すフローチャートである。
【図8】図8は、本実施の形態にかかる画像変動領域抽出処理を詳細に示すフローチャートである。
【図9】図9は、本実施の形態にかかる画像変動領域抽出処理を詳細に示すフローチャートである。
【図10】図10は、本実施の形態にかかる第1の重要画像判定処理を詳細に示すフローチャートである。
【図11】図11は、本実施の形態における画像の中央部および外縁部を説明するための図である。
【図12】図12は、本実施の形態にかかる第2の重要画像判定処理を詳細に示すフローチャートである。
【図13】図13は、本実施の形態にかかる第2の重要画像判定処理を詳細に示すフローチャートである。
【図14】図14は、本実施の形態にかかる第2の重要画像判定処理を詳細に示すフローチャートである。
【図15】図15は、本実施の形態にかかる第2の重要画像判定処理を詳細に示すフローチャートである。
【図16】図16は、本実施の形態にかかる第2の重要画像判定処理を詳細に示すフローチャートである。
【図17】図17は、本実施の形態にかかる第3の重要画像判定処理を詳細に示すフローチャートである。
【図18】図18は、本実施の形態にかかる第3の重要画像判定処理を詳細に示すフローチャートである。
【図19】図19は、本実施の形態にかかる第3の重要画像判定処理を詳細に示すフローチャートである。
【図20】図20は、一つの重要画像に関する重要画像構造体データ群中のある一連のデータの組を示すメモリマップである。
【図21】図21は、ディスプレイの画面上に得られた画像の例を示す図である。
【符号の説明】
1 ディスプレイ
2 スピーカ
3 コンピュータ
4 CPU
5 メモリ
6 インタフェース
7 マウス
8 キーボード
9 画像再生装置
11 画像データ生成装置
13 外部情報記憶装置
Claims (13)
- デジタル画像であるフレームが複数連続する動画像を入力する画像入力手段と、
前記入力した動画を構成するフレームの各々を複数に分割した区分領域ごとに、あるフレームと、当該フレームより前又は後のフレームとを比較し、フレーム間の区分領域ごとの変動を抽出する画像変動抽出手段と、
フレームを分割した複数の区分領域のうちいくつかの区分領域からなる第1の領域と、当該領域以外の区分領域からなる第2の領域との各々で、前記画像変動抽出手段により抽出された変動した区分領域の数に基づき、重要画像を含むフレームの候補を抽出する第1の重要画像判定手段と、
前記重要画像を含むフレームの候補を、所定の時間連続して抽出する場合、当該フレームの画像を重要画像と判定する第2の重要画像判定手段と、
を備えたことを特徴とする重要画像抽出装置。 - 前記画像変動抽出手段が、少なくとも2フレーム以上にわたって、画像中のそれぞれ対応する位置に表れていないエッジを抽出する変動エッジ抽出手段と、
前記区分領域ごとに、前記変動エッジの個数を計数する変動エッジ計数手段と、
前記計数された値が所定の第1のしきい値よりも大きいときに、前記区分領域を画像が変動した領域であると判断する変動領域判断手段と
を有することを特徴とする請求項1に記載の重要画像抽出装置。 - 前記変動エッジ抽出手段が、画像中のある位置の画素に対応する画像データと、該画素の水平方向の近傍に位置する他の画素に対応する画像データとの差を算出し、および/または、前記画素に対応する画像データと、前記画素の垂直方向の近傍に位置する画素に対応する画像データとの差を算出し、前記差が第2のしきい値よりも大きい場合に、前記エッジが表れていると判断するように構成されたことを特徴とする請求項2に記載の重要画像抽出装置。
- 前記第1の領域は、前記画像の外縁から、それぞれ、所定の距離だけ内側に離間して位置する4点により画定され、これにより、画像中の中央部および外縁部が画定され、前記第1の重要画像判定手段が、前記第1の領域である中央部の変動および前記第2の領域である外縁部の変動に基づき、重要画像を抽出するように構成されたことを特徴とする請求項1ないし3の何れか一項に記載の重要画像抽出装置。
- 前記第1の重要画像判定手段が、前記第1の領域内の変動を示す値が所定の第1の値より大きく、かつ、前記第2の領域内の変動を示す値が他の所定の第2の値より小さい場合に、前記画像を重要画像と判断するように構成されたことを特徴とする請求項1ないし4の何れか一項に記載の重要画像抽出装置。
- さらに、前記第1の重要画像判定手段が、前記第1の領域内および前記第2の領域内の変動を示す値が、他の所定の第3の値より小さい場合に、前記画像を重要画像と判断するように構成されたことを特徴とする請求項5に記載の重要画像抽出装置。
- さらに、前記第2の重要画像抽出手段が、前記動画像中の時間的に離間する複数のフレームに対応する画像を、それぞれ複数に分割した区分領域ごとに、前記区分領域を特徴付ける色を示す色情報を抽出するとともに、前記複数のフレーム間で、対応する区分領域の前記色情報を比較することにより、重要画像を抽出することを特徴とする請求項1ないし6の何れか一項に記載の重要画像抽出装置。
- 前記第2の重要画像抽出手段が、前記区分領域において、もっとも頻出した色を前記区分領域の色情報と決定することを特徴とする請求項7に記載の重要画像抽出装置。
- 前記第2の重要画像抽出手段が、前記対応する区分領域間の色情報を比較して、前記色情報が一致する区分領域を計数し、前記計数された区分領域の数が所定の第3のしきい値よりも小さい状態が、所定の時間継続したときに、前記画像を重要画像と判断するように構成されたことを特徴とする請求項7および8の何れか一項に記載の重要画像抽出装置。
- さらに、前記画像の区分領域の色情報と、すでに重要画像であると判断された他の画像の対応する区分領域の色情報とを比較し、前記色情報が一致する区分領域の数が、所定の第4のしきい値よりも小さいときに、前記画像を重要画像と判断する第3の重要画像判断手段を備えたことを特徴とする請求項7ないし9の何れか一項に記載の重要画像抽出装置。
- さらに、得られた重要画像に基づく静止画像に対応する画像データを生成する画像データ生成手段と、前記画像データを表示する表示手段とを備えたことを特徴とする請求項1ないし10の何れか一項に記載の重要画像抽出装置。
- デジタル画像であるフレームが複数連続する動画像を入力し、
前記入力した動画を構成するフレームの各々を複数に分割した区分領域ごとに、あるフレームと、当該フレームより前又は後のフレームとを比較し、フレーム間の区分領域ごとの変動を抽出し、
フレームを分割した複数の区分領域のうちいくつかの区分領域からなる第1の領域と、当該領域以外の区分領域からなる第2の領域との各々で、前記抽出された変動した区分領域の数に基づき、重要画像を含むフレームの候補を抽出し、
前記重要画像を含むフレームの候補を、所定の時間連続して抽出する場合、当該フレームの画像を重要画像と判定することを特徴とする重要画像抽出方法。 - 前記画像変動の抽出が、少なくとも2フレーム以上にわたって、画像中のそれぞれ対応する位置に表れていないエッジを抽出し、前記区分領域ごとに、前記変動エッジの個数を計数し、計数された値が所定の第1のしきい値よりも大きいときに、前記区分領域を画像が変動した領域であると判断するように構成されたことを特徴とする請求項12に記載の重要画像抽出方法
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34094695A JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34094695A JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09179880A JPH09179880A (ja) | 1997-07-11 |
JP3625935B2 true JP3625935B2 (ja) | 2005-03-02 |
Family
ID=18341763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34094695A Expired - Fee Related JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3625935B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1175150A (ja) | 1997-08-29 | 1999-03-16 | Hitachi Denshi Ltd | 動画像編集方法及び動画像編集装置並びに動画像編集動作を実行するためのプログラムを記録した記録媒体 |
JP4587416B2 (ja) * | 2000-04-25 | 2010-11-24 | 富士通株式会社 | デジタル映像コンテンツ閲覧装置及び方法 |
JP4369308B2 (ja) * | 2004-06-10 | 2009-11-18 | 日本電信電話株式会社 | 代表画像選択装置,代表画像選択方法および代表画像選択プログラム |
JP5095501B2 (ja) * | 2008-05-27 | 2012-12-12 | 富士フイルム株式会社 | 注目度算出装置および方法並びにプログラム |
JP5599228B2 (ja) * | 2010-05-25 | 2014-10-01 | 株式会社野村総合研究所 | 繁忙検知システム及び繁忙検知プログラム |
-
1995
- 1995-12-27 JP JP34094695A patent/JP3625935B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH09179880A (ja) | 1997-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6256419B1 (en) | Method and apparatus for detecting a point of change in a moving image | |
US8620037B2 (en) | Human image retrieval system | |
US5739844A (en) | Method of converting two-dimensional image into three-dimensional image | |
JP3250467B2 (ja) | 映像要約方法および映像表示方法 | |
US7817856B2 (en) | Video processing device and its method | |
EP1182584A2 (en) | Method and apparatus for video skimming | |
US20050232606A1 (en) | Video processing device | |
US7184593B2 (en) | Method and apparatus for detecting local features of video, and recording medium storing the method | |
US8605113B2 (en) | Method and device for adaptive video presentation | |
EP1482731A2 (en) | Broadcast program contents menu creation apparatus and method | |
JPH0993588A (ja) | 動画像処理方法 | |
JPH08212231A (ja) | 字幕検出方法および動画像の代表画像抽出装置 | |
JP3728775B2 (ja) | 動画像の特徴場面検出方法及び装置 | |
JP2000350156A (ja) | 動画像情報の記憶方法及びこれを記録した記録媒体 | |
JP3625935B2 (ja) | 動画像の重要画像抽出装置および重要画像抽出方法 | |
JPH07193748A (ja) | 動画像処理方法および装置 | |
JP3327520B2 (ja) | Ng警告機能付き撮影方法、ng警告機能付き撮影装置および撮影プログラムを記録した記録媒体 | |
JP3157928B2 (ja) | 動画像の拾い見装置 | |
JP3906854B2 (ja) | 動画像の特徴場面検出方法及び装置 | |
JP2000069420A (ja) | 映像処理装置 | |
JP3498875B2 (ja) | 動画像処理システム | |
EP1069765B1 (en) | Feature scene detecting method and apparatus, and storage medium containing processing program therefor | |
WO2009024966A2 (en) | Method for adapting media for viewing on small display screens | |
JPH10150657A (ja) | 移動物体の表示方法、それを用いた表示システムおよびそのためのプログラム記録媒体 | |
JP4007406B2 (ja) | 動画像の特徴場面検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071210 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 9 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
LAPS | Cancellation because of no payment of annual fees |