JPH09179880A - 動画像の重要画像抽出装置および重要画像抽出方法 - Google Patents
動画像の重要画像抽出装置および重要画像抽出方法Info
- Publication number
- JPH09179880A JPH09179880A JP7340946A JP34094695A JPH09179880A JP H09179880 A JPH09179880 A JP H09179880A JP 7340946 A JP7340946 A JP 7340946A JP 34094695 A JP34094695 A JP 34094695A JP H09179880 A JPH09179880 A JP H09179880A
- Authority
- JP
- Japan
- Prior art keywords
- image
- important
- data
- important image
- extracting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Color Television Systems (AREA)
Abstract
を静止させて人物など被写体に注目して撮影した画像を
適切に抽出する重要画像抽出装置を提供することを目的
とする。 【解決手段】 画像データ生成装置11により生成され
た動画像のディジタル画像データを入力すると、CPU
4は、ディジタル画像データに基づき、動画像中のフレ
ームに対応する画像を複数に分割した区分領域ごとに画
像の変動を抽出し、画像中に画定される矩形の図形の内
側部分である中央部における画像の変動および外側部分
である外縁部における画像の変動に基づき、重要画像を
抽出する。
Description
画像を抽出する重要画像抽出装置およびその抽出方法に
関するものである。
されたマルチメディアを表示および再生するマルチメデ
ィアシステムにおいて、ユーザは、動画像の中から重要
なシーンを手軽に探して視聴したいと言う要求があっ
た。たとえば、通信回線などを介してニュース番組を受
けて、これを再生する場合に、ユーザは、番組の全てを
視聴するのではなく、ヘッドラインニュースなど特定の
部分のみを視聴することを希望することが考えられる。
動画像から重要シーンだけを抽出することは容易ではな
い。そこで、こうした問題を解決する技術として、動画
像全体を把握する目的で、動画像を時間ごとに分割し
て、或いは、シーンが変化する点で分割して、分割され
た動画像から、それぞれ、代表画像を抽出し、これを一
覧表示する方法が提案されている。たとえば、特開平5
-244475公報には、テイク/ショットの先頭画面、
最終画面などを検出し、それに基づき代表画面を得る手
法が提案され、特開平3-273363公報には、動画
像中の場面の切り換えを認識し、これに基づきインデッ
クス画像を得る手法が提案され、或いは、特開平3-2
92572公報には、一定間隔ごとに画面を読み出し
て、これを代表画像とする手法が提案されている。
た何れの手法においても、画像中の被写体に着目して重
要画像であるか否かを判断しているものではないため、
動画像全体の内容を把握するのに有効な場合があるが、
当該動画像を作成する際に、撮影者が、意図的にカメラ
を静止させて、特定の人物に焦点を合わせ撮影したシー
ン、すなわち、撮影者が、被写体である人物に意図的に
注目して撮影したようなシーンを適切に抽出することは
困難であった。特に、ニュース映像では、キャスターが
話題の区切りに登場し、その概要を説明するシーンが存
在する。このようなシーンではキャスターを中央に配置
し、カメラを静止させて撮影している。また、ニュース
映像中で、発言をする人物などを撮影する場合にも同様
の方法で画像がつくられているが、このようなシーンを
適切に抽出することは困難であった。
特開平4−261033号公報に記載されたような手法
が提案されている。これは、所望の対象物を含む画像を
指定し、かつ、対象物を囲む図形を切り出して、切り出
された図形に基づき、所定の画像を得るように構成され
ている。
には、光ディスク装置などに記憶された画像をいったん
読みだし、その中で所望の画像中の人物など対象物を指
定した後に、重要画像の抽出が実行されるため、ユーザ
が画像中の特定の人物を指定するなどの煩雑な手続を要
するという問題点があった。
なく、特に、動画像中の、カメラを静止させて人物など
被写体に注目して撮影した画像を適切に抽出する重要画
像抽出装置および抽出方法を提供することにある。
をディジタル画像データとして入力する画像入力手段
と、該ディジタル画像データに基づき、前記動画像中の
フレームに対応する画像を複数に分割した区分領域ごと
に画像の変動を抽出する画像変動抽出手段と、前記区分
領域ごとの画像の変動を受け入れ、前記画像中に画定さ
れる図形の内側部分の画像の変動および外側部分の画像
の変動に基づき、重要画像を抽出する第1の重要画像判
定手段を備えたことを特徴とする重要画像抽出装置によ
り達成される。
の内側部分の画像の変動および外側部分の変動に基づ
き、重要画像が抽出されるため、内側部分に存在する被
写体および外側部分に存在する背景とを含む画像を適切
に抽出することが可能となる。
記画像変動抽出手段が、前記動画像中の時間的に離間し
たフレームの対応する区分領域ごとの画像の変動を抽出
するように構成されている。
は、前記画像変動抽出手段が、少なくとも2フレーム以
上にわたって、画像中のそれぞれ対応する位置に表れて
いないエッジを抽出する変動エッジ抽出手段と、前記区
分領域ごとに、前記変動エッジの個数を計数する変動エ
ッジ計数手段と、前記計数された値が所定の第1のしき
い値よりも大きいときに、前記区分領域を画像が変動し
た領域であると判断する変動領域判断手段とを有してい
る。
は、前記変動エッジ抽出手段が、画像中のある位置の画
素に対応する画像データと、該画素の水平方向の近傍に
位置する他の画素に対応する画像データとの差を算出
し、および/または、前記画素に対応する画像データ
と、前記画素の垂直方向の近傍に位置する画素に対応す
る画像データとの差を算出し、前記差が第2のしきい値
よりも大きい場合に、前記エッジが表れていると判断す
るように構成されている。
は、前記図形が、前記画像の外縁から、それぞれ、所定
の距離だけ内側に離間して位置する4点により画定さ
れ、これにより、画像中の中央部および外縁部が画定さ
れ、前記第1の重要画像判定手段が、前記中央部の変動
および前記外縁部の変動に基づき、重要画像を抽出する
ように構成されている。
は、前記第1の重要画像判定手段が、前記内側部分の変
動を示す値が所定の第1の値より大きく、かつ、前記外
側部分の変動を示す値が他の所定の第2の値より小さい
場合に、前記画像を重要画像と判断するように構成され
ている。
物などの被写体と、外側の背景とを含む画像を、重要画
像としてより適切に得ることが可能となる。
は、前記第1の重要画像判定手段が、さらに、前記内側
部分の変動および前記外側部分の変動を示す値が、他の
所定の第3の値より小さい場合に、前記画像を重要画像
と判断するように構成されている。
は、さらに、前記動画像中の時間的に離間する複数のフ
レームに対応する画像を、それぞれ複数に分割した区分
領域ごとに、前記区分領域を特徴付ける色を示す色情報
を抽出するとともに、前記複数のフレーム間で、対応す
る区分領域の前記色情報を比較することにより、重要画
像を抽出する第2の重要画像抽出手段を備えている。
が単に大きいにすぎなかった画像を、誤って重要画像と
判断することを防止できる。
は、前記第2の重要画像抽出手段が、前記区分領域にお
いて、もっとも頻出した色を前記区分領域の色情報と決
定するように構成されている。
は、前記第2の重要画像抽出手段が、前記区分領域ごと
の色のヒストグラムを、前記区分領域の色情報と決定す
るように構成されている。
は、前記第2の重要画像抽出手段が、前記対応する区分
領域間の色情報を比較して、前記色情報が一致する区分
領域を計数し、前記計数された区分領域の数が所定の第
3のしきい値よりも小さい状態が、所定の時間継続した
ときに、前記画像を重要画像と判断するように構成され
ている。
は、さらに、前記画像の区分領域の色情報と、すでに重
要画像であると判断された他の画像の対応する区分領域
の色情報とを比較し、前記色情報が一致する区分領域の
数が、所定の第4のしきい値よりも小さいときに、前記
画像を重要画像と判断する第3の重要画像判断手段を備
えている。
像を重複して重要画像と判断することなく、さらに適切
に重要画像を得ることが可能となる。
は、さらに、得られた重要画像に基づく静止画像に対応
する画像データを生成する画像データ生成手段と、前記
画像データを表示する表示手段とを備えている。
を、容易に参照することが可能となる。
明の実施の形態につき説明を加える。
画像抽出システムの構成を示す図である。図1に示すよ
うに、重要画像抽出システムは、CRTディスプレイ
1、スピーカ2、ディスプレイ1およびスピーカ2に接
続され、これらに所定の信号を与えるコンピュータ3と
を備えている。コンピュータ3には、システムを制御す
るためのCPU4、CPU4による処理を実行するため
のプログラムなどを記憶したメモリ5、および、外部機
器とのデータの送受信を司るインタフェース(I/F)
6などが設けられている。さらに、コンピュータ3に
は、それぞれ、インタフェースを介して、マウス7およ
びキーボード8が接続されている。
ンタフェースを介して、光ディスクを再生するための画
像再生装置9、画像再生装置9から出力された画像信号
を、コンピュータ3が処理可能な形式のディジタル画像
信号に変換する画像データ生成装置11、および、コン
ピュータ3により抽出された重要画像に対応するデータ
などを記憶する外部情報記憶装置13が接続されてい
る。
ムにおいて、マウス7或いはキーボード8を用いてユー
ザが所定の情報を入力すると、コンピュータ3のCPU
4は、与えられた所定の情報にしたがって、インタフェ
ースを介して、制御信号10を画像再生装置9に与え
る。
より再生される動画像のフレームには、それぞれ、先頭
から順にフレーム番号が付与されている。したがって、
画像再生装置9に与えられる制御信号には、このフレー
ム番号を特定するための情報が含まれる。画像再生装置
9は、制御信号に含まれるフレーム番号を特定するため
の情報などにしたがって、所定のフレームからなる動画
像に関する画像信号を画像データ生成装置11に与え
る。画像データ生成装置11は、受け入れた画像信号に
基づき、ディジタル画像データを生成し、これらデータ
12を、コンピュータ3に与える。
得られると、通常、コンピュータ3のCPU4は、得ら
れた画像データを、ディスプレイ1に出力し、これによ
り、所望の画像が、ディスプレイ1の画面に再生され
る。
る信号に、音声信号が含まれている場合には、音声信号
が、音声データ生成装置(図示せず)に与えられ、この
音声データ生成装置においてディジタル変換により得ら
れたディジタル音声データが、コンピュータ3に与えら
れる。コンピュータ3は、与えられたディジタル音声デ
ータをオーディオ装置(図示せず)に出力し、当該オー
ディオ装置を介して、スピーカ2により所望の音声が再
生される。
システムのCPU4による、重要画像の抽出処理を説明
する。ここに、図2は、本実施の形態にかかる重要画像
の抽出処理の概略を示すフローチャートである。CPU
4は、メモリ5に記憶されたプログラムを読みだし、以
下の手順にしたがって、画像データから、所定の重要画
像に対応するデータを抽出する。
れる重要画像の抽出処理には、処理中に使用する変数の
初期設定(ステップ50)、画像データ生成装置11に
より与えられたディジタル画像データを、1フレームに
対応するデータ群ごとにメモリ5に記憶する処理(ステ
ップ100)、複数のフレーム間で異なった位置に存在
する変動エッジを抽出する変動エッジ抽出処理(ステッ
プ200)、および、1フレーム分の画像を複数の区分
領域に分割し、分割された区分領域ごとに、ステップ2
00において抽出された変動エッジに対応する画素の数
を計数して、この計数結果に基づき、内容に変動がある
領域を抽出する画像変動領域抽出処理(ステップ25
0)が含まれる。この画像変動領域抽出処理は、各区分
領域において、計数された画素の数に基づき、複数のフ
レームにおいて変動エッジに対応する画素の数が、それ
ぞれ一定数を超えた領域を画像変動領域として抽出する
処理である。
像の抽出処理には、画像変動領域抽出処理(ステップ2
50)により得られた変動領域の分布状態により重要画
像か否かを判定する第1の重要画像判定処理(ステップ
300)、第1の重要画像判定処理(ステップ300)
により抽出された画像と、後続するフレームの画像との
間で、各画像の対応する区分領域を代表する領域別代表
色を比較し、この比較結果に基づき、重要画像か否かを
判定する第2の重要画像判定処理(ステップ400)、
第2の重要画像判定処理(ステップ400)により重要
画像であると判定された画像と、前回の処理において抽
出された重要画像との間で、対応する区分領域を代表す
る領域別代表色を比較し、両者が一致する区分領域の数
が所定の値より小さいときに、前者の画像を重要画像で
あると判断する第3の重要画像判定処理(ステップ50
0)、および、前述した処理により得られた重要画像に
関連するフレームに対応するデータ群をメモリ5の所定
の領域に記憶するとともに、ディスプレイ1に出力する
処理(ステップ600)が含まれている。
定処理は、重要画像において、画像変動領域が画像中の
中央付近に主として分布するということに着目してい
る。すなわち、ズーミング、パンなどのようなカメラワ
ークによって、画像の全体にわたって画像変動領域が生
じるような場合を除去することができる。
重要画像において、ある一定の時間だけ類似した画像が
連続することに着目している。
像を、抽出時間など所定の情報とともに、ディスプレイ
1の画面上に表示することができるため、ユーザは、容
易に所望の画像を参照することが可能となる。
3のメモリマップを用いて概略的に説明する。図3に示
すように、メモリ5には、重要画像抽出処理などのプロ
グラム51、重要画像抽出処理の結果得られた画像デー
タおよびこれに付随するデータからなる重要画像構造体
データ群52、後述する処理において、画像中の強エッ
ジ画素を抽出する際に用いる第1のしきい値データ5
3、後述する処理において、画像の変動領域を判定する
ための第2のしきい値データ54、画像データ生成装置
11により与えられた画像データ55が記憶されてい
る。
50ないし600の処理の結果得られた1つ以上のデー
タ群であり、また、画像データ55は、画像データ生成
装置11により与えられた最新のディジタル画像データ
に対応する。また、しきい値データ53、54の値は、
予め決定されている。
いしステップ600の処理を一回実行する際に使用され
るワーク用のデータ群が記憶されている。
ジ抽出処理(ステップ200)および画像変動領域抽出
処理(ステップ250)において使用される第1のデー
タ群56、第1ないし第3の重要画像判定処理(ステッ
プ300ないし500)において使用される第2のデー
タ群57、ならびに、処理において一時的に記憶され、
かつ、参照される時間データ群58を含んでいる。この
第1のデータ群56および第2のデータ群については、
それぞれの処理において、より詳細に説明する。
ステップにつき、以下に詳細に説明する。
クロコンピュータ3は、画像データ生成装置11から与
えられた1フレーム分の画像データを受け入れ、メモリ
5の所定の領域に記憶する。この1フレーム分の画像デ
ータは、図3の画像データ55に対応する。本実施の形
態においては、1フレーム分の画像は、120画素×1
60画素から構成される。したがって、1フレーム分の
画像データ55は、120×160個の赤色を示す赤画
像データ群55−1、120×160個の緑色を示す緑
画像データ群55−2、および、120×160個の青
色を示す青画像データ群55−3から構成されている。
タ55が、メモリ5の所定の領域に記憶されると、ステ
ップ200の変動エッジの検出が実行される。
0の処理を詳細に示すフローチャートである。
おいては、まず、重要画像継続フラグが0(ゼロ)であ
るか否かを調べる(ステップ201)。この重要画像継
続フラグは、後述するステップ428において1にセッ
トされる。このステップ201においてノー(no)と判断
された場合には、ステップ429に進み、その一方、イ
エス(yes)と判断された場合には、ステップ202に進
む。ステップ202においては、処理の対称となるX座
標およびY座標を初期化する。このX座標およびY座標
は、1フレーム分の画像の画素の位置を示している。
213の処理は、X方向(縦方向)およびY方向(横方
向)の強エッジ、すなわち所定の値よりも大きく変化し
ている画素を抽出するための処理である。
に隣接する座標(X+1,Y)および(X−1,Y)に
対応する画素の、赤画像データ、緑画像データならびに
青画像データの値の差をそれぞれとる。すなわち、これ
ら座標に対応する画素の赤、緑および青の色成分の色差
を算出する。次いで、これらの差が、すべて第1のしき
い値よりも大きいか否かを判断する(ステップ20
3)。
と判断された場合には、座標(X,Y)に関する横エッ
ジデータの値を1とする(ステップ204)。その一
方、ステップ203においてノー(no)と判断された場合
には、座標(X,Y)に関する横エッジデータの値を0
(ゼロ)とする(ステップ205)。この座標(X,
Y)に関する横エッジデータは、メモリ5の所定の領域
に記憶される。すなわち、図3に示すように、第1のデ
ータ群56には、横エッジデータ群56−1が含まれて
いる。この横エッジデータ群は、処理の対称となる座標
の数、すなわち、158×118個の横エッジデータを
含んでいる。したがって、ステップ204或いはステッ
プ205において得られた座標(X,Y)に関する横エ
ッジデータは、横エッジデータ群56−1のうちの所定
の横エッジデータに対応する。
隣接する座標(X,Y+1)および(X,Y−1)に対
応する画素の、赤画像データ、緑画像データならびに青
画像データの値のそれぞれの差が、第1のしきい値より
も大きいか否かを判断する。すなわち、これら座標に対
応する画素の赤、緑および青の色成分の色差を算出し、
これらの差が、すべて第1のしきい値よりも大きいか否
かを判断する(ステップ206)。
と判断された場合には、座標(X,Y)に関する縦エッ
ジデータの値を1とする(ステップ207)。その一
方、ステップ208においてノー(no)と判断された場合
には、座標(X,Y)に関する縦エッジデータの値を0
(ゼロ)とする(ステップ208)。
(X,Y)に関する縦エッジデータは、メモリ5の所定
の領域に記憶される。図3に示すように、第1のデータ
群56には、縦エッジデータ群56−1が含まれてい
る。この縦エッジデータ群は、処理の対称となる座標の
数、すなわち、158×118個の縦エッジデータを含
んでいる。したがって、ステップ207或いはステップ
208において得られた座標(X,Y)に関する縦エッ
ジデータは、縦エッジデータ群56−2のうちの所定の
縦エッジデータに対応する。
処理が終了したか否かを判断し、ステップ212では、
Y方向の処理が終了したか否かを判断している。ステッ
プ209ないし213を経ることにより、座標(X,
Y)=(1,1)ないし(158,118)に対応する
全ての画素に関する横エッジデータおよび縦エッジデー
タを得ることができる。
225の処理は、複数のフレームにわたって異なった位
置に表れた強エッジを抽出するための処理である。
座標およびY座標を初期化する。次いで、今回の処理の
対称となったフレームの座標(X,Y)に関する横エッ
ジデータと、前回の処理の対称となったフレームの対応
する座標(X,Y)に関する横エッジデータが一致して
ないことを判断する(ステップ215)。ここに、図3
において、第1のデータ群56には、前回の処理の対称
となったフレームの座標に関する158×118個の横
エッジデータからなる前フレーム横エッジデータ群56
−3が含まれている。
に関する横エッジデータと、座標(X,Y)に対応する
前フレーム横エッジデータとを比較することにより、こ
のステップ215を実現している。
と判断された場合には、座標(X,Y)に関する変動横
エッジデータを1とする(ステップ216)。その一
方、ステップ215においてノー(no)と判断された場合
には、この座標に関する変動横エッジデータを0(ゼ
ロ)とする(ステップ217)。座標(X,Y)に関す
る変動横エッジデータは、メモリ5の所定の領域に記憶
される。すなわち、図3に示すように、第1のデータ群
56には、変動横エッジデータ群56−5が含まれてい
る。この変動横エッジデータ群56−5は、158×1
18個の変動横エッジデータを含んでいる。したがっ
て、ステップ216或いはステップ217において得ら
れた座標(X,Y)に関する変動横エッジデータは、変
動横エッジデータ群56−5のうちの所定の変動横エッ
ジデータに対応する。
ムの座標(X,Y)に関する縦エッジデータと、前回の
処理の対称となったフレームの対応する座標(X,Y)
に関する縦エッジデータが一致してないことを判断する
(ステップ218)。図3において、第1のデータ群5
6には、前回の処理の対称となったフレームの座標に関
する158×118個の縦エッジデータからなる前フレ
ーム縦エッジデータ群56−4が含まれている。
に関する縦エッジデータと、座標(X,Y)に対応する
前フレーム縦エッジデータとを比較することにより、こ
のステップ218を実現している。
と判断された場合には、座標(X,Y)に関する変動縦
エッジデータを1とする(ステップ219)。その一
方、ステップ218においてノー(no)と判断された場合
には、この座標に関する変動縦エッジデータを0(ゼ
ロ)とする(ステップ220)。座標(X,Y)に関す
る変動縦エッジデータは、メモリ5の所定の領域に記憶
される。すなわち、図3に示すように、第1のデータ群
56には、変動縦エッジデータ群56−6が含まれてい
る。この変動縦エッジデータ群56−6は、158×1
18個の変動縦エッジデータを含んでいる。したがっ
て、ステップ219或いはステップ220において得ら
れた座標(X,Y)に関する変動縦エッジデータは、変
動縦エッジデータ群56−6のうちの所定の変動縦エッ
ジデータに対応する。
処理が終了したか否かを判断し、ステップ224では、
Y方向の処理が終了したか否かを判断している。ステッ
プ221ないし225を経ることにより、座標(X,
Y)=(1,1)ないし(158,118)に対応する
全ての画素に関する変動横エッジデータおよび変動縦エ
ッジデータを得ることができる。
231の処理は、次回のステップ215ないしステップ
225の処理を実行するために、前フレーム横エッジデ
ータおよび前フレーム縦エッジデータを更新している。
すなわち、今回の処理で得られた座標(X,Y)に関す
る横エッジデータを、対応する座標(X,Y)に関する
前フレーム横エッジデータとするとともに、今回の処理
で得られた座標(X,Y)に関する縦エッジデータを、
対応する座標(X,Y)に関する前フレーム縦エッジデ
ータとしている。
な間隔をもつ複数のフレーム間において異なった位置に
存在したエッジを抽出している。これは、カメラを静止
させて撮影することにより得た画像において、背景のエ
ッジが不動であることに基づいている。したがって、上
述した処理により、画像中の背景で生じたエッジを除去
し、被写体である人物など動きのある部分のエッジのみ
を抽出することが可能となる。
参照して、ステップ250の画像変動領域抽出処理を詳
細に説明する。
264の処理は、1フレームの画像をX方向(横方向)
に8個、Y方向(縦方向)に6個の総計48個の区分領
域に分割し、区分領域ごとに変動強エッジ画素を計数し
ている。
i、j、XbおよびYbを初期化する(ステップ25
1)。次いで、ある区分領域中の座標(Xb×20+
j,Yb×20+i)に関する変動横エッジデータ、或
いは、この座標に関する変動縦エッジデータの何れかが
1であることを判断する(ステップ252)。このステ
ップ252においてイエス(yes)と判断された場合に
は、この区分領域に関する変動エッジデータの値をイン
クリメントする。
は、8×6個の変動エッジデータからなる変動エッジデ
ータ群56−7が含まれている。この実施の形態におい
て、変動エッジデータは、変数の組(Xb,Yb)ごと
に設けられている。
64は、区分領域ごとの変動エッジデータの総数を計数
するための処理である。
数が計数された後に、画像が変動していると考えられる
領域を、図8に示すステップ265ないし273の処理
により抽出する。ステップ265においては、変数X
b、Ybが初期化され、変数の組(Xb,Yb)に対応
する変動エッジデータが第2のしきい値よりも大きく、
かつ、前回の処理で得られた、前のフレームの変数の組
(Xb、Yb)に対応する変動エッジデータ(前フレー
ム変動エッジデータ)が第2のしきい値よりも大きいか
否かを判断する(ステップ266)。図3において、第
1のデータ群56には、前回の処理の対称となったフレ
ームの変数の組(Xb、Yb)に関する8×6個の前フ
レーム変動エッジデータが含まれている。
b,Yb)に関する変動エッジデータをメモリ5から読
みだし、この値と、第2のしきい値データの値とを比較
し、かつ、変数の組(Xb,Yb)に関する前フレーム
変動エッジデータをメモリ5から読みだし、この値と、
第2のしきい値データの値とを比較することにより、ス
テップ266を実現している。
断された場合には、変数の組(Xb,Yb)に関する画
像変動領域データを1とする(ステップ267)。その
一方、ステップ266においてノー(no)と判断された場
合には、この変数の組みに関する画像変動領域データを
0(ゼロ)とする(ステップ268)。変数の組(X
b,Yb)に関する画像変動領域データは、メモリ5の
所定の領域に記憶される。すなわち、図3に示すよう
に、第1のデータ群56には、画像変動領域データ群5
6−9が含まれている。この画像変動領域データ群56
−9は、8×6個の画像変動領域データを含んでいる。
したがって、ステップ267或いはステップ268にお
いて得られた変数の組(Xb,Yb)に関する画像変動
領域データは、画像変動領域データ群56−9のうちの
所定の画像変動領域データに対応する。
全ての区分領域に関して、ステップ266、および、ス
テップ267または268の処理を実行するための変数
の更新処理である。このように、ステップ266ないし
268の処理を実行することにより、あるフレームで画
像に字幕などが表れるときなど、急激なエッジが表れる
領域を画像変動領域と判断することを防止することが可
能となる。
280の処理は、次回のステップ251ないしステップ
273を実行するために、前フレーム変動エッジデータ
を更新している。すなわち、今回の処理で得られた変数
の組(Xb,Yb)に関する変動エッジデータを、対応
する変数の組に関する前フレーム変動エッジデータとし
ている(ステップ275)。さらに、ステップ253で
インクリメントされる変動エッジデータの値を初期化し
ている(ステップ276)。
抽出された区分領域は、該領域中の変動エッジの総数
が、複数のフレームにわたって連続して第2のしきい値
よりも多い。したがって、これにより、連続的に動きの
ある被写体のみを含む領域のみを抽出することが可能と
なる。
定処理を、図10のフローチャートを参照して詳細に説
明する。ステップ301においては、処理で用いられる
変数Xb、Ybを初期化するとともに、画像の中央部の
変動の計数を示す中央変動カウントデータおよび画像の
外縁部の変動の計数を示す外縁変動カウントデータを初
期化する。
画像変動領域データが1であるか否かを判断する(ステ
ップ302)。このステップ302においてイエス(ye
s)と判断された場合には、この画像変動領域に関する変
数の組の値を調べ、Xbが0(ゼロ)より大きく7より
小さく、かつ、Ybが0(ゼロ)より大きく5より小さ
いかを判断する(ステップ303)。ここに、図11
は、本実施の態様における画像の中央部および外縁部を
説明するための図である。変数の組(Xb,Yb)は、
図11に示す1フレーム分の画像の領域に対応付けされ
ている。たとえば、変数の組(0,0)は、図11中の
領域110に、変数の組(1,0)は、領域112に対
応付けされている。したがって、ステップ303におい
てイエス(yes)と判断された場合には、画像変動領域
が、画像の中央部(図11において斜線が引かれていな
い部分)に含まれるため、中央変動カウンタデータをイ
ンクリメントする(ステップ304)。その一方、ステ
ップ303においてノー(no)と判断された場合には、画
像変動領域が、画像の外縁部(図11において斜線が引
かれている領域)に含まれるため、外縁変動カウンタデ
ータをインクリメントする(ステップ305)。このよ
うなステップ302ないしステップ305の処理を、変
数の組(0,0)ないし(7,5)の全てに関して実行
した後に、中央カウントデータの値が5よりも大きく、
外縁カウントデータが4より小さく、かつ、両者の和が
18よりも小さいか否かを判断する(ステップ31
1)。これにより、画像の中央部に画像の変動した領域
が集中し、かつ、全体としては、画像の変動が比較的小
さいか否かが判断される。
と判断された場合には、この画像が重要画像の候補とさ
れる。その一方、ステップ311においてノー(no)と判
断された場合には、ステップ100に戻る。
被写体を撮影した画像が、カメラワークを用いて撮影さ
れた画像や静止画像などから区別され得る。たとえば、
撮影しているカメラに動きがある場合には、中央カウン
トデータと外縁カウントデータとの総和が18以上にな
り、或いは、外縁カウントデータの値が4以上になるた
め、これを重要画像の候補とすることを防止することが
可能となる。
トを参照して、ステップ400の第2の重要画像判定処
理を説明する。
プ414の処理においては、先に実行された処理により
得られた重要画像の候補に関して、区分領域ごとの比す
とグラムを生成する。ステップ401において、処理で
使用する変数i、j、Xb、Ybおよびcolを初期化す
る。
る区分領域内の座標(Xb×20+i,Yb×20+
j)に位置する画素を構成する赤画像データ、緑画像デ
ータおよび青画像データに基づき、この画素の色が、予
め定められた64階調の色の何れに最も近いものである
かを決定し、決定された64階調の色のうちの所定の色
の色番号を、変数colに与える(ステップ402)。よ
り詳細には、赤画像データとc0(HEX)とのアンドをと
った結果を下位に6ビットシフトさせたものと、緑画像
データとc0(HEX)とのアンドをとった結果を下位に4
ビットシフトさせたものと、青画像データとc0(HEX)
とのアンドをとった結果を下位に2ビットシフトさせた
ものとを加算して、colを得る。
2のデータ群57に設けられたヒストグラムデータ群5
7−1中の所定のヒストグラムデータがインクリメント
される(ステップ403)。このヒストグラムデータ群
57−1には、8×6個の区分領域ごとに、64階調の
色に対応して64個のヒストグラムデータが設けられて
いる。たとえば、ステップ402により与えられた変数
colの値が、0(ゼロ)である場合には、ステップ40
3において、変数の組(Xb,Yb)に対応する区分領
域の、階調0(ゼロ)に対応するヒストグラムデータが
インクリメントされる。
とにより、上述したステップ402およびステップ40
3の処理が、全ての区分領域の画素に対して実行され
る。
プ428においては、各区分領域を代表する色を抽出す
る処理が実行される。ステップ415において、処理で
使用される区分領域を特定するための変数(Xb,Y
b)が初期化され、ステップ416において、変数co
l、および、max_colが初期化される。
分領域で、一番使用頻度の高かった色の色番号を調べ、
その色番号を、変数(Xb,Yb)に対応する区分領域
の領域代表色データとする(ステップ417ないし42
1)。
ータ群57−1の変数(Xb,Yb)に対応する区分領
域に関する64個のヒストグラムデータの値を調べ、そ
の中で、もっとも値の大きかった色番号が、領域代表色
データとなる。
21の処理を、全ての区分領域に関して繰り返すことに
より、8×6の区分領域ごとの領域代表色データを得る
ことができる。この領域代表色データは、図3のメモリ
5の第2のデータ群57に含まれる領域色代表色データ
群57−2の何れかに対応する。
すると、現在の時間を開始時間に代入し、これを図3の
メモリ5の開始時間データ58−1とする(ステップ4
27)とともに、重要画像継続フラグを1にセットする
(ステップ428)。この重要画像継続フラグは、これ
までの処理において重要画像の候補が得られたことを示
している。
ステップ442の処理においては、後続するフレームの
画像の区分領域ごとのヒストグラムデータが得られる。
この処理は、図3の画像データ群55とは別個に、メモ
リ5の所定の領域(図示せず)に、この画像データ群5
5に対応するフレームに続くフレームに対応する画像デ
ータ群を一時的に記憶し、画像データ群を構成する赤画
像データ、緑画像データおよび青画像データに関して、
図12のステップ401ないしステップ414とほぼ同
様の処理を実行する。これにより、メモリ5の第2のデ
ータ群57中のヒストグラムデータ群57−1を構成す
るヒストグラムデータに、それぞれ値が与えられる。
しステップ453の処理においては、後続するフレーム
の画像の区分領域ごとの領域代表色データが得られる。
この処理は、図13に示すステップ415ないしステッ
プ428の処理とほぼ同様である。これらステップを実
行することにより、メモリ5の第2のデータ群57中の
後続フレーム領域代表色データ群57−3を構成する8
×6個の後続フレーム領域代表色データを得ることがで
きる。
プ466の処理においては、フレーム間で画像が継続し
ているか否かを調べることにより重要画像であるかどう
かを判定している。
れる変数Xb、Ybおよびsame_histoが初期化され
る。
分領域の領域代表色データを、メモリ5の領域代表色デ
ータ群57−2から読み出すとともに、変数(Xb、Y
b)に対応する区分領域の後続フレーム領域代表色デー
タを、メモリ5の後続フレーム領域代表色データ群57
−3から読み出し、両者を比較する(ステップ45
6)。これらが一致する場合には、変数same_histoを
インクリメントする(ステップ457)。
ないしステップ457の処理を実行した後に、得られた
変数same_histoが所定の数(本実施の形態においては
30)よりも小さいかどうかを判断する(ステップ46
3)。ステップ463においてノー(no)と判断された場
合には、ステップ100の処理に戻り、1フレーム分の
画像の入力が再度実行される。なお、この場合、変動エ
ッジ抽出処理(ステップ200)中、ステップ201に
おいて、重要画像継続フラグが0(ゼロ)ではないと判
断されるため、図14のステップ429に進み、さらに
後続するフレームの画像に関するヒストグラムデータの
生成および後続フレーム領域代表色データの生成が実行
される。
(yes)と判断された場合には、現在の時間を終了時間に
代入して、終了時間データを得る(ステップ464)。
これは、図3のメモリ5の終了時間データ58−2とし
て、該メモリ5に記憶される。次いで、重要画像継続フ
ラグを0(ゼロ)にリセットし、メモリ5の開始時間デ
ータ58−1および終了時間データ58−2を読みだ
し、これらの値を比較して、両者の差が、所定の時間
(本実施の形態においては2秒)より大きいか否かを判
断する(ステップ466)。ステップ466においてノ
ー(no)と判断された場合には、ステップ100に戻り、
再度、最初から処理が実行される。その一方、ステップ
466においてイエス(yes)と判断された場合には、ス
テップ500の第3の重要画像判定処理に進む。
画像の区分領域ごとの領域代表色データと、後続するフ
レームの画像の対応する区分領域の後続フレーム領域代
表色データとを比較し、重要画像の候補となった画像
が、どれくらいの時間継続しているかを調べ、この継続
時間が所定の時間よりも大きい場合には、画像が重要画
像の候補であることを保持している。これは、注目して
いる被写体を、カメラを静止させて撮影して得た画像
は、類似した画像が暫くの間継続することを利用してい
る。このような処理により、画像変動領域が一時的に分
布したような画像、たとえば、中央を車両が横切るよう
な画像を、重要画像の候補から除去することができる。
500)につき、図17ないし図19のフローチャート
を参照して詳細に説明する。
09の処理においては、ステップ400において重要画
像の候補であるとされた画像が、前回のステップ100
ないしステップ500の処理において抽出された画像と
一致するか否かを判断する処理である。
る変数Xb、Ybおよびsame_histo2が初期化され
る。次いで、変数(Xb,Yb)に対応する区分領域の
領域代表色データと、前回のステップ100ないしステ
ップ500の処理において得られ、後述するステップ5
11においてメモリ5の所定の領域に記憶された、変数
(Xb,Yb)に対応する区分領域の前重要画像領域代
表色データとが比較される(ステップ502)。この前
重要画像領域代表色データは、図3のメモリ5の第2の
データ群57の前重要画像領域代表色データ群57−4
の8×6個のデータの所定の一つに対応する。
と判断された場合には、変数same_histo2がインクリ
メントされる(ステップ503)。全ての区分領域に関
して、ステップ502ないしステップ503の処理を実
行した後に、得られた変数same_histo2が所定の数
(本実施の形態においては30)よりも小さいかどうか
を判断する(ステップ509)。ステップ509におい
てノー(no)と判断された場合には、ステップ100に戻
り、1フレーム分の画像の入力が再度実行され、再度、
最初から処理が実行される。その一方、ステップ509
において、イエス(yes)と判断された場合には、図18
の処理に進み、次回の処理のために、各区分領域に関す
る前重要画像領域代表色データが、それぞれ更新される
(ステップ510ないしステップ516)。
された画像に関する重要画像データを生成する処理であ
る。ステップ518ないしステップ523の処理におい
ては、もとの画像データ群を構成する赤画像データ、緑
画像データおよび青画像データが間引かれて、1/2に
圧縮された重要画像データが生成される。次いで、上述
した処理で得られ、図3のメモリ5に記憶された開始時
間データ58−1を、重要画像開始時間データに設定し
(ステップ524)、かつ、メモリ5に記憶された終了
時間データ58−2を、重要画像終了時間データに設定
する(ステップ525)。
より、同一の被写体の動きが変化することにより得られ
る複数の類似する画像を、重複して抽出するのを防止す
ることができる。すなわち、動画像中の一連のシーン
で、いったん、静止していた被写体がいったん移動し、
その後に、もとの位置に戻る場合であっても、複数の重
要画像を抽出することを防止できる。
は、図3の重要画像構造体データ群52中のある重要画
像に関する一連のデータの組としてメモリ5に記憶され
る。図20は、一つの重要画像に関する重要画像構造体
データ群52中のある一連のデータの組を示すメモリマ
ップである。図20に示すように、このデータの組52
−1には、重要画像が得られるごとに1から順に付与さ
れる重要画像識別番号データ52−11、図19のステ
ップ518ないしステップ523を繰り返すことにより
得られた80×60画素分の重要画像データ群52−1
2、この重要画像を表示すべきディスプレイ1の画面中
のX座標を示す重要画像表示位置Xデータ52−13、
同じく画面中のY座標を示す重要画像表示位置Yデータ
52−14、図19のステップ524において得られた
重要画像開始時間に対応する重要画像開始時間データ5
2−15、及び、図19のステップ525において得ら
れた重要画像終了時間に対応する重要画像終了時間デー
タ52−16から構成される。
0個の赤画像データ、80×60個の緑画像データ、お
よび、80×60個の青画像データが含まれる。このデ
ータの組52−1は、重要画像が得られるごとに生成さ
れる。
ジタル画像データが、マイクロコンピュータ3に与えら
れ、マイクロコンピュータ4において、図2に示した処
理が実行されると、メモリ5の重要画像構造体データ群
52には、所定の数の重要画像に関連するデータの組が
格納されることになる。
作して、所定の情報をマイクロコンピュータ3に与え、
図2に示す処理を実行させると、ディスプレイ1の画面
上に、処理の結果得られた重要画像が表示される。図2
1は、ディスプレイ1の画面2100上に得られた画像
の例を示す図である。図21に示すように、画面210
0のウィンドウ2110には、処理の結果得られた重要
画像2111ないし2115が表示される。また、各重
要画像の下部には、重要画像開始時間データに基づく時
間が表示される。この実施の態様においては、ウィンド
ウ2110に、6枚の重要画像を表示できるようになっ
ているが、得られた重要画像がこれ以上である場合に
は、マウス7を操作してカーソル2120を、スクロー
ルボタン2121、2122或いはスクロールバー21
23上に移動して、マウス7をクリックすることによ
り、画面をスクロールして、他の重要画像を見ることが
可能となる。
0には、画像データ生成装置11から与えられた画像デ
ータに基づく、通常の再生画像が表示される。また、ボ
タン2131は、重要画像抽出処理を開始させるための
ものであり、また、ボタン2132は、処理を終了させ
るためのボタンである。また、これらボタンの設けられ
たウィンドウには、処理の結果得られた重要画像の画面
数2133および処理が開始された時間2134を表示
できるようになっている。
憶された動画像のうち、重要画像を抽出することを所望
する時間(たとえば、開始時間および終了時間)を、マ
ウス7或いはキーボード8を操作することにより、マイ
クロコンピュータ3に入力し、画面上のスタートボタン
2131上に、マウスカーソル2120を移動させて、
マウス7をクリックすると、画像データ生成装置を介し
て、マイクロコンピュータ3に与えられた画像データに
基づき、図2の処理が実行されて、ウィンドウ2110
上に、圧縮された形式の重要画像を表示することができ
る。
領域に分割し、区分領域ごとの変動エッジを抽出し、時
間的な間隔をもつ複数のフレームで、各区分領域におい
て、変動エッジの個数が所定のしきい値を超えている場
合に、当該区分領域を画像変動領域としている。したが
って、動画像中に、字幕が出現する場合など、あるフレ
ームで急激にエッジが表れる画像を画像変動領域と認識
するのを防止することができる。
の外縁部から横方向および縦方向に、所定の距離だけ離
間した4点により画定される矩形の内側の領域(中央
部)と、外側の領域(外縁部)に分割し、中央部に画像
変動領域が、比較的集中していることを認識することに
より、重要画像の候補を得ている。したがって、カメラ
ワークを用いた撮影による画像など、画像全体にわたっ
て、エッジが変動している画像を、重要画像として認識
するのを防止することができる。
の候補とされた画像の区分領域ごとの領域代表色と、当
該画像に後続するフレームに関する画像の区分領域ごと
の領域代表色とを比較し、所定数の区分領域において、
所定の時間より長く、それらの領域代表色が一致してい
ることを認識することにより、重要画像の候補を得てい
る。
にして得られた重要画像の候補とされた画像の区分領域
ごとの代表色と、前回の処理により重要画像と判定され
た画像の区分領域ごとの代表色とを比較し、これらが一
致した区分領域の数が所定の数より小さいときに、得ら
れた画像を新規の重要画像であると判断する。これによ
り、類似する画像を重複して抽出することを防止するこ
とができる。
に、注目すべき人物などの被写体を、画像の中央付近に
配置して撮影した画像を適切に抽出することが可能とな
る。また、このように抽出された画像をディスプレイに
表示するため、ユーザは、簡単に所望のシーンを探し出
すことが可能となる。
ことなく、特許請求の範囲に記載された発明の範囲内
で、種々の変更が可能であり、それらも本発明の範囲内
に包含されるものであることは言うまでもない。
1の重要画像判定処理(図2のステップ300)、第2
の重要画像判定処理(ステップ400)および第3の重
要画像判定処理(ステップ500)が順次実行されてい
るが、これに限定されるものではなく、第1の重要画像
判定処理のみを実行して重要画像を得てもよく、或い
は、第1および第2の重要画像判定処理を実行すること
により、重要画像を得ても良い。
定処理において、8×6個の区分領域の、もっとも外縁
部に存在する24個の区分領域を外縁部、残りを中央部
とするように予め決定されているが、これに限定される
ものではなく、区分領域の数、或いは、重要画像として
抽出したい被写体の位置などに応答して、外縁部および
中央部を設定してもよい。また、中央部とは、必ずし
も、画像の外縁から水平方向および垂直方向に等しい距
離だけ離間した4点により画定される矩形に限定される
ものではなく、所望の3点或いは4点により画定される
図形或いは円など他の図形であっても良いことは明らか
である。
判定処理において、各区分領域でもっとも使用されたと
考えられる色を代表色と決定したが、色のヒストグラム
を用いても良いことは言うまでもない。
定処理において、横エッジデータ或いは縦エッジデータ
を得るために、X方向或いはY方向に1だけ離間した二
つの画素に関する画像データの値の差をとっているが、
これに限定されるものではなく、隣接した画素に関する
画像データの値の差、或いは、2以上離間した二つの画
素に関する画像データの値の差をとっても良い。
再生装置からの画像信号に基づき、画像データ生成装置
がディジタル画像データを生成し、このディジタル画像
データがマイクロコンピュータ3に与えられているが、
これに限定されるものではない。たとえば、通信回線か
ら与えられた動画像に関するディジタル画像データをマ
イクロコンピュータが受け入れても良い。この場合に、
ディジタル画像データを受け入れた後に、自動的に重要
画像を得るようにしておけば、ユーザは、何ら操作する
ことなく、得られた重要画像を見ることが可能となる。
区分領域の大きさ、個数も、上述したものに限定されな
いことは明らかであり、また、使用されるしきい値など
も、上述したものに限定されないことは明らかである。
ずしも物理的手段を意味するものではなく、各手段の機
能がソフトウェアにより実現される場合およびハードウ
ェアにより実現する場合を含む。また、一つの手段の機
能が、二以上の物理的手段により実現されても、若しく
は、二つ以上の手段の機能が、一つの手段により実現さ
れてもよい。
となく、特に、動画像中の、カメラを静止させて人物な
ど被写体に注目して撮影した画像を適切に抽出する重要
画像抽出装置および抽出方法を提供することが可能とな
る。
像抽出システムの構成を示す図である。
出処理の概略を示すフローチャートである。
るためのメモリマップである。
抽出処理を詳細に示すフローチャートである。
抽出処理を詳細に示すフローチャートである。
抽出処理を詳細に示すフローチャートである。
抽出処理を詳細に示すフローチャートである。
抽出処理を詳細に示すフローチャートである。
抽出処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
央部および外縁部を説明するための図である。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
要画像判定処理を詳細に示すフローチャートである。
像構造体データ群中のある一連のデータの組を示すメモ
リマップである。
た画像の例を示す図である。
Claims (19)
- 【請求項1】 動画像をディジタル画像データとして入
力する画像入力手段と、 該ディジタル画像データに基づき、前記動画像中のフレ
ームに対応する画像を複数に分割した区分領域ごとに画
像の変動を抽出する画像変動抽出手段と、 前記区分領域ごとの画像の変動を受け入れ、前記画像中
に画定される図形の内側部分の画像の変動および外側部
分の画像の変動に基づき、重要画像を抽出する第1の重
要画像判定手段を備えたことを特徴とする重要画像抽出
装置。 - 【請求項2】 前記画像変動抽出手段が、前記動画像中
の時間的に離間したフレームの対応する区分領域ごとの
画像の変動を抽出するように構成されたことを特徴とす
る請求項1に記載の重要画像抽出装置。 - 【請求項3】 前記画像変動抽出手段が、少なくとも2
フレーム以上にわたって、画像中のそれぞれ対応する位
置に表れていないエッジを抽出する変動エッジ抽出手段
と、前記区分領域ごとに、前記変動エッジの個数を計数
する変動エッジ計数手段と、前記計数された値が所定の
第1のしきい値よりも大きいときに、前記区分領域を画
像が変動した領域であると判断する変動領域判断手段と
を有することを特徴とする請求項1または2に記載の重
要画像抽出装置。 - 【請求項4】 前記変動エッジ抽出手段が、画像中のあ
る位置の画素に対応する画像データと、該画素の水平方
向の近傍に位置する他の画素に対応する画像データとの
差を算出し、および/または、前記画素に対応する画像
データと、前記画素の垂直方向の近傍に位置する画素に
対応する画像データとの差を算出し、前記差が第2のし
きい値よりも大きい場合に、前記エッジが表れていると
判断するように構成されたことを特徴とする請求項3に
記載の重要画像抽出装置。 - 【請求項5】 前記図形が、前記画像の外縁から、それ
ぞれ、所定の距離だけ内側に離間して位置する4点によ
り画定され、これにより、画像中の中央部および外縁部
が画定され、前記第1の重要画像判定手段が、前記中央
部の変動および前記外縁部の変動に基づき、重要画像を
抽出するように構成されたことを特徴とする請求項1な
いし4の何れか一項に記載の重要画像抽出装置。 - 【請求項6】 前記第1の重要画像判定手段が、前記内
側部分の変動を示す値が所定の第1の値より大きく、か
つ、前記外側部分の変動を示す値が他の所定の第2の値
より小さい場合に、前記画像を重要画像と判断するよう
に構成されたことを特徴とする請求項1ないし5の何れ
か一項に記載の重要画像抽出装置。 - 【請求項7】 さらに、前記第1の重要画像判定手段
が、前記内側部分および前記外側部分の変動を示す値
が、他の所定の第3の値より小さい場合に、前記画像を
重要画像と判断するように構成されたことを特徴とする
請求項6に記載の重要画像抽出装置。 - 【請求項8】 さらに、前記動画像中の時間的に離間す
る複数のフレームに対応する画像を、それぞれ複数に分
割した区分領域ごとに、前記区分領域を特徴付ける色を
示す色情報を抽出するとともに、前記複数のフレーム間
で、対応する区分領域の前記色情報を比較することによ
り、重要画像を抽出する第2の重要画像抽出手段を備え
たことを特徴とする請求項1ないし7の何れか一項に記
載の重要画像抽出装置。 - 【請求項9】 前記第2の重要画像抽出手段が、前記区
分領域において、もっとも頻出した色を前記区分領域の
色情報と決定することを特徴とする請求項8に記載の重
要画像抽出装置。 - 【請求項10】 前記第2の重要画像抽出手段が、前記
区分領域ごとの色のヒストグラムを、前記区分領域の色
情報と決定することを特徴とする請求項8に記載の重要
画像抽出装置。 - 【請求項11】 前記第2の重要画像抽出手段が、前記
対応する区分領域間の色情報を比較して、前記色情報が
一致する区分領域を計数し、前記計数された区分領域の
数が所定の第3のしきい値よりも小さい状態が、所定の
時間継続したときに、前記画像を重要画像と判断するよ
うに構成されたことを特徴とする請求項8ないし10の
何れか一項に記載の重要画像抽出装置。 - 【請求項12】 さらに、前記画像の区分領域の色情報
と、すでに重要画像であると判断された他の画像の対応
する区分領域の色情報とを比較し、前記色情報が一致す
る区分領域の数が、所定の第4のしきい値よりも小さい
ときに、前記画像を重要画像と判断する第3の重要画像
判断手段を備えたことを特徴とする請求項8ないし11
の何れか一項に記載の重要画像抽出装置。 - 【請求項13】 さらに、得られた重要画像に基づく静
止画像に対応する画像データを生成する画像データ生成
手段と、前記画像データを表示する表示手段とを備えた
ことを特徴とする請求項1ないし12の何れか一項に記
載の重要画像抽出装置。 - 【請求項14】 動画像をディジタル画像データとして
入力し、 該ディジタル画像データに基づき、前記動画像中のフレ
ームに対応する画像を複数に分割した区分領域ごとに画
像の変動を抽出し、 前記区分領域ごとの画像の変動を受け入れ、前記画像中
に画定される図形の内側部分の画像の変動および外側部
分の画像の変動に基づき、重要画像を抽出することを特
徴とする重要画像抽出方法。 - 【請求項15】 前記画像変動の抽出が、少なくとも2
フレーム以上にわたって、画像中のそれぞれ対応する位
置に表れていないエッジを抽出し、前記区分領域ごと
に、前記変動エッジの個数を計数し、計数された値が所
定のしきい値よりも大きいときに、前記区分領域を画像
が変動した領域であると判断するように構成されたこと
を特徴とする請求項14に記載の重要画像抽出方法。 - 【請求項16】 前記エッジの抽出が、画像中のある位
置の画素に対応する画像データと、該画素の水平方向の
近傍に位置する他の画素に対応する画像データとの差を
算出し、および/または、前記画素に対応する画像デー
タと、前記画素の垂直方向の近傍に位置する画素に対応
する画像との差を算出し、前記差が第2のしきい値より
も大きい場合に、前記エッジが表れていると判断するよ
うに構成されたことを特徴とする請求項15に記載の重
要画像抽出方法。 - 【請求項17】 前記図形が、前記画像の外縁から、そ
れぞれ、所定の距離だけ内側に離間して位置する4点に
より画定されることを特徴とする請求項14ないし16
の何れか一項に記載の重要画像抽出方法。 - 【請求項18】 さらに、前記動画像中の時間的に離間
する複数のフレームに対応する画像を、それぞれ複数に
分割した区分領域ごとに、前記区分領域を特徴付ける色
を示す色情報を抽出するとともに、前記複数のフレーム
間で、対応する区分領域の前記色情報を比較することに
より、重要画像を抽出することを特徴とする請求項14
ないし17の何れか一項に記載の重要画像抽出方法。 - 【請求項19】 さらに、前記画像の区分領域の色情報
と、すでに重要画像であると判断された他の画像の対応
する区分領域の色情報とを比較し、前記色情報が一致す
る区分領域の数が、所定の第4のしきい値よりも小さい
ときに、前記画像を重要画像と判断するように構成され
たことを特徴とする請求項17に記載の重要画像抽出方
法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34094695A JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP34094695A JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09179880A true JPH09179880A (ja) | 1997-07-11 |
JP3625935B2 JP3625935B2 (ja) | 2005-03-02 |
Family
ID=18341763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP34094695A Expired - Fee Related JP3625935B2 (ja) | 1995-12-27 | 1995-12-27 | 動画像の重要画像抽出装置および重要画像抽出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3625935B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001309269A (ja) * | 2000-04-25 | 2001-11-02 | Fujitsu Ltd | デジタル映像コンテンツ閲覧装置及び方法 |
US6487360B1 (en) | 1997-08-29 | 2002-11-26 | Hitachi Denshi Kabushiki Kaisha | Method, apparatus, and computer program product for editing moving image and displaying selected groups of representative images of cuts of the moving image such that representative images having a predetermined feature can be distinguished from representative images not having the predetermined feature |
JP2005352718A (ja) * | 2004-06-10 | 2005-12-22 | Nippon Telegr & Teleph Corp <Ntt> | 代表画像選択装置,代表画像選択方法および代表画像選択プログラム |
JP2009288822A (ja) * | 2008-05-27 | 2009-12-10 | Fujifilm Corp | 注目度算出装置および方法並びにプログラム |
JP2011248513A (ja) * | 2010-05-25 | 2011-12-08 | Nomura Research Institute Ltd | 繁忙検知システム及び繁忙検知プログラム |
-
1995
- 1995-12-27 JP JP34094695A patent/JP3625935B2/ja not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6487360B1 (en) | 1997-08-29 | 2002-11-26 | Hitachi Denshi Kabushiki Kaisha | Method, apparatus, and computer program product for editing moving image and displaying selected groups of representative images of cuts of the moving image such that representative images having a predetermined feature can be distinguished from representative images not having the predetermined feature |
JP2001309269A (ja) * | 2000-04-25 | 2001-11-02 | Fujitsu Ltd | デジタル映像コンテンツ閲覧装置及び方法 |
JP2005352718A (ja) * | 2004-06-10 | 2005-12-22 | Nippon Telegr & Teleph Corp <Ntt> | 代表画像選択装置,代表画像選択方法および代表画像選択プログラム |
JP2009288822A (ja) * | 2008-05-27 | 2009-12-10 | Fujifilm Corp | 注目度算出装置および方法並びにプログラム |
JP2011248513A (ja) * | 2010-05-25 | 2011-12-08 | Nomura Research Institute Ltd | 繁忙検知システム及び繁忙検知プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP3625935B2 (ja) | 2005-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1646235B1 (en) | Moving picture recording and reproducing apparatus and method | |
JP5088507B2 (ja) | 同一性判定装置、同一性判定方法および同一性判定用プログラム | |
US8306281B2 (en) | Human image retrieval system | |
US8064656B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
US7212233B2 (en) | Image extracting apparatus and image extracting method | |
EP1482731A2 (en) | Broadcast program contents menu creation apparatus and method | |
JP3728775B2 (ja) | 動画像の特徴場面検出方法及び装置 | |
JPH1115979A (ja) | 顔検出及び顔追跡方法並びにその装置 | |
JPH10126721A (ja) | 動画像検索用情報生成装置 | |
JPH07193748A (ja) | 動画像処理方法および装置 | |
US20120182391A1 (en) | Determining a stereo image from video | |
JPH09179880A (ja) | 動画像の重要画像抽出装置および重要画像抽出方法 | |
CN116916089A (zh) | 一种融合人声特征与人脸特征的智能视频剪辑方法 | |
JP2004080156A (ja) | 画像処理装置、画像処理方法、プログラム及び記録媒体並びに画像処理システム | |
CN113875227A (zh) | 信息处理设备、信息处理方法和程序 | |
JPH11136637A (ja) | 代表画像生成装置 | |
CN115423728A (zh) | 一种图像处理方法、装置及系统 | |
JPH10336506A (ja) | 画像処理システム、追尾システム,追尾方法,記憶媒体 | |
JP3558886B2 (ja) | 映像処理装置 | |
JP2008090570A (ja) | 情報処理装置及び情報処理方法 | |
JP2000078564A (ja) | テレビカメラモニタ人物追跡方式 | |
JP3906854B2 (ja) | 動画像の特徴場面検出方法及び装置 | |
CN114401365B (zh) | 目标人物识别方法、视频切换方法及装置 | |
JP2002208013A (ja) | 画像領域抽出装置及び画像領域抽出方法 | |
JP3498875B2 (ja) | 動画像処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041201 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071210 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 9 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
LAPS | Cancellation because of no payment of annual fees |