JP2004318331A - Method of extracting object feature part of continuous image, its program, and digital camera - Google Patents
Method of extracting object feature part of continuous image, its program, and digital camera Download PDFInfo
- Publication number
- JP2004318331A JP2004318331A JP2003109177A JP2003109177A JP2004318331A JP 2004318331 A JP2004318331 A JP 2004318331A JP 2003109177 A JP2003109177 A JP 2003109177A JP 2003109177 A JP2003109177 A JP 2003109177A JP 2004318331 A JP2004318331 A JP 2004318331A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- subject
- feature portion
- size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は連写された画像やブラケット撮影された画像などの連続画像から顔等の被写体特徴部分を抽出する方法及びそのプログラム並びにこのプログラムを搭載したデジタルカメラに関する。
【0002】
【従来の技術】
デジタルカメラには、例えば、下記特許文献1に記載されている様に、被写体の顔部分を画面内から抽出し、抽出した顔の目にデジタルカメラの焦点を自動的に合わせる自動焦点装置が搭載されているものがある。しかし、この特許文献1は、焦点合わせの技術について開示があるのみであり、被写体の顔部分をどの様にして抽出すれば高速に顔画像の抽出処理が可能かについての記載がない。
【0003】
顔部分を画面内から抽出する場合、テンプレートマッチングが用いられる。これは、被写体画像からサーチウインドウで順次切り出した各部分画像と顔のテンプレートとの類似度を順次判定し、顔のテンプレートに対して閾値以上の類似度で一致するサーチウインドウ位置に被写体の顔が在ると判定するものである。
【0004】
このテンプレートマッチング処理を行う場合、従来は、被写体の顔が画面内でどの程度の大きさに映っているか分からないため、顔のテンプレートとして小さなテンプレートから画面一杯の大きさのテンプレートまで大きさの異なるテンプレートを多数用意しておき、全てのテンプレートを用いてテンプレートマッチング処理を行い、顔画像を抽出している。
【0005】
【特許文献1】
特開2001―215403公報
【0006】
【発明が解決しようとする課題】
被写体の顔等の特徴部分を撮影前などに抽出できれば、被写体の顔に常に自動焦点合わせをして撮影を行ったり、また、常に顔の肌色に合うようにホワイトバランスをとった撮影ができるなど、利点が多い。また、撮影後の画像データをパーソナルコンピュータ等に取り込んでユーザが手作業で画像処理する場合などにおいて、画像内の被写体の顔の位置を制御装置が抽出しておけば、例えば肌色調整等で制御装置はユーザに対し適切なガイドを提供することができる。
【0007】
しかし、従来技術では、顔のテンプレートを多数用意し各テンプレートを用いたマッチング処理が必要なため、顔の抽出処理に時間がかかってしまうという問題がある。
【0008】
特に、オートブラケット撮影や連写等によって複数の画像を連続して撮影する場合あるいは撮影した場合、各撮影画像毎に多数のテンプレートを用いて行う顔抽出処理に多大な時間を要し、高機能な演算処理機能を搭載した制御装置が必要になるという問題がある。
【0009】
本発明の目的は、連続する複数の撮影画像から被写体特徴部分を高速且つ高精度に抽出することができる連続画像の被写体特徴部分抽出方法及びそのプログラム並びにデジタルカメラを提供することにある。
【0010】
【課題を解決するための手段】
本発明の連続画像の被写体特徴部分抽出方法は、連続する複数の撮影画像の夫々から被写体の特徴部分画像を抽出する連続画像の被写体特徴部分抽出方法において、前記被写体の前記特徴部分画像を抽出した前記撮影画像中の特徴部分位置の情報を用い、前記連続する次の前記撮影画像の中から抽出する前記特徴部分画像の探索範囲を制限することを特徴とする。
【0011】
この構成により、被写体特徴部分画像が存在する蓋然性の高い制限範囲で被写体特徴部分画像を探索するため、高速に特徴部分を抽出することができる。また、探索範囲を制限することで、誤検出を防ぐことができる。即ち、検討違いの大きさのものでも、特徴部分(例えば、顔)らしきものを特徴部分として誤検出してしまうことを防ぐことができる。
【0012】
本発明の連続画像の被写体特徴部分抽出方法は、前記探索範囲を制限せずに前記特徴部分画像を前記撮影画像から抽出するときは、該撮影画像の大きさに対する前記特徴部分画像の大きさの上限,下限の範囲を該撮影画像を撮影したカメラと特徴部分を有する被写体との間の距離情報に基づいて限定し、該限定した上限,下限の範囲内のテンプレートを用いて前記特徴部分画像のマッチング処理を行い該特徴部分画像を抽出することを特徴とする。
【0013】
この構成により、制限範囲内において、マッチング処理対象画像をリサイズしながら決まった大きさのテンプレートとのマッチング処理を行うため、あるいはテンプレートの大きさをリサイズしながら決まった大きさのマッチング処理対象画像とのマッチング処理を行うため、マッチング処理で用いるテンプレートの数あるいは撮影画像から切り出すマッチング処理対象画像の大きさの数を限定することができ、マッチング処理の処理時間を短縮することができる。また、探索範囲を制限するため、誤検出を防ぐことができる。即ち、検討違いの大きさのものでも、特徴部分(例えば、顔)らしきものを特徴部分として誤検出してしまうことを防ぐことができる。
【0014】
本発明の連続画像の被写体特徴部分抽出プログラムは、上記の連続画像の被写体特徴部分抽出方法を実行することを特徴とする。
【0015】
この構成により、被写体特徴部分画像が存在する蓋然性の高い制限範囲で被写体特徴部分画像を探索するため、高速に特徴部分を抽出することができる。
【0016】
本発明のデジタルカメラは、上記の連続画像の被写体特徴部分抽出プログラムが搭載されたことを特徴とする。
【0017】
この構成により、被写体特徴部分画像が存在する蓋然性の高い制限範囲で被写体特徴部分画像を探索するため、高速に特徴部分を抽出することができる。また、探索範囲を制限することで、誤検出を防ぐことができる。即ち、検討違いの大きさのものでも、特徴部分(例えば、顔)らしきものを特徴部分として誤検出してしまうことを防ぐことができる。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0019】
(第1の実施形態)
図1は、本発明の第1の実施形態に係るデジタルスチルカメラの構成図である。このデジタルスチルカメラは、CCDやCMOS等の固体撮像素子1と、固体撮像素子1の前段に置かれたレンズ2及び絞り3と、固体撮像素子1から出力される画像信号に対し相関二重サンプリング処理等を施すアナログ信号処理部4と、アナログ信号処理された画像信号をデジタル信号に変換するA/D変換部5と、デジタル信号に変換された画像信号に対してガンマ補正,同時化処理など施すデジタル信号処理部6と、このデジタル信号処理部6によって処理された画像信号を格納する画像メモリ7と、ユーザがシャッタボタンを押下したときに画像メモリ7に格納された画像信号(撮影データ)を外部メモリ等に記録する記録部8と、カメラ背面等に設けられ画像メモリ7の格納内容をスルー表示する表示部9とを備える。
【0020】
このデジタルスチルカメラは更に、CPUやROM,RAMでなる制御回路10と、ユーザからの指示入力を受け付けると共に上記表示部9に対してオンデマンド表示処理を行う操作部11と、撮像素子1から出力されデジタル信号処理部6によって処理された画像信号を取り込み制御回路10からの指示に基づいて詳細は後述するように被写体の特徴部分この例では顔部分を抽出する顔抽出処理部12と、レンズ2の焦点合わせや倍率制御を制御回路10からの指示信号に基づいて行うレンズ駆動部13と、絞り3の絞り量を制御回路10からの指示信号に基づいて制御する絞り駆動部14と、固体撮像素子1を制御回路10からの指示信号に基づいて駆動制御する撮像素子制御部15と、制御回路10からの指示信号に基づいて被写体までの距離を計測する測距センサ16とを備える。
【0021】
図2は、顔抽出処理部12が顔抽出プログラムに従って行う顔抽出処理の処理手順を示すフローチャートである。顔抽出プログラムは、図1に示す制御回路10のROM内に格納されており、CPUが顔抽出プログラムをRAMに読み出し実行することで、顔抽出処理部12が機能する。
【0022】
デジタルスチルカメラの撮像素子1は、ユーザがシャッタボタンを押下する前であっても常時所定周期で画像信号を出力しており、デジタル信号処理部6は各画像信号をデジタル信号処理している。顔抽出処理部12は、この画像信号を逐次取り込み、各入力画像(撮影画像)に対して以下の処理を行う。
【0023】
ステップS1では、顔の探索処理を行う。図3は、この顔の探索処理の詳細処理手順を示すフローチャートである。図3において、顔抽出処理部12は、先ず、入力画像のサイズを取得(ステップS11)する。ユーザが例えば640×480画素数で撮影しようとしているのか、1280×960画素数で撮影しようとしているのかによって顔抽出処理に用いる入力画像のサイズが異なるカメラの場合には、このサイズ情報を取得する。入力画像のサイズが固定の場合にはこのステップS11は不要である。次に、測距センサ16によって計測した被写体までの距離情報を制御回路10から取得する(ステップS12)。
【0024】
次のステップS13では、ズームレンズを使用しているのか否かを判定し、ズームレンズを使用している場合にはズーム位置情報を制御回路10から取得し(ステップS14)、次にレンズの焦点距離情報を制御回路10から取得する(ステップS15)。ステップS13でズームレンズを使用していないと判定した場合にはステップS14を飛び越してステップS15に進む。
【0025】
以上の処理ステップによって取得した入力画像サイズ情報とレンズ焦点距離情報により、入力画像中における被写体である人の顔の大きさがどの程度の大きさになるかを決定できる。このため、次のステップS16では、顔の大きさに合わせたサーチウインドウの大きさの上限,下限の範囲を決定する。
【0026】
サーチウインドウとは、図4に示す様に、テンプレートマッチング処理を行う処理画像21に対する顔画像の大きさ、即ち図5に示すテンプレート22の大きさと同一の大きさのウインドウ23である。このサーチウインドウ23によって切り出した画像とテンプレート22との正規化相互相関係数等を以下の処理ステップで求め、マッチング度合いを計算し、マッチング度合い即ち類似度が閾値に達しない場合には、サーチウインドウ23を処理画像21上で一定画素分例えば1画素分だけスキャニング方向24にずらして次のマッチング処理用の画像を切り出す。
【0027】
ここで、処理画像21とは、入力画像をリサイズした画像である。例えば1280×960画素数の高精細な入力画像を処理画像としてマッチング処理を行うよりも、この入力画像を例えば200×150画素数にリサイズした画像を処理画像とし、テンプレート(勿論、テンプレート側の顔画像も高精細な顔画像ではなく、画素数の少ない例えば20×20画素数の顔画像を用いる。)マッチングを行う方が、個々人の差違を無視した一般的な「顔」の検出が容易となる。
【0028】
次のステップS17では、サーチウインドウのサイズが範囲内であるか否か、即ち、処理画像21内における顔の大きさの上限,下限の範囲内であるか否かを判定する。次に、サーチウインドウ23の大きさに一致する大きさのテンプレート22が存在するか否かを判定する(ステップS18)。存在する場合には該当するテンプレートを選択し(ステップS19)、存在しない場合にはテンプレートをリサイズしてサーチウインドウ23の大きさに合わせたテンプレートを生成し(ステップS20)、次のステップ21に進む。
【0029】
ステップS21では、スキャニング方向24(図4)に沿ってサーチウインドウ23をスキャニングさせながらテンプレートマッチング処理を行い、類似度が閾値α以上となった画像部分が存在するか否かを判定する。
【0030】
類似度が閾値α以上となる画像部分が存在しない場合には、ステップS22に進み、サーチウインドウ23の大きさを図6に示す様に変化させ、次に、使用するサーチウインドウ23の大きさを決定してからステップS17に進む。以下、ステップS17→ … →ステップS21→ステップS22→ステップS17を繰り返す。
【0031】
このように、本実施形態では、図6に示す様にサーチウインドウ23の大きさを上限値から下限値まで(あるいは下限値から上限値まで)変化させながら、図7に示す様にテンプレートの大きさも変化させ、テンプレートマッチング処理を繰り返す。
【0032】
ステップS21で、閾値α以上の類似度を示す画像部分が検出されたときは、図2のステップS2の顔検出判定処理に進み、顔位置を特定し、その位置情報を制御回路10に出力してこの顔検出処理を終了する。
【0033】
ステップS17→ … →ステップS21→ステップS22→ステップS17と繰り返されることでサーチウインドウ23の大きさが上限,下限の範囲外に外れた場合には、ステップS17における判定結果が否定(N)となる。この場合には図2のステップS2の顔検出判定処理に進み、「顔なし」と判定される。
【0034】
この様に、本実施形態によれば、テンプレートマッチング処理で使用するテンプレートを複数種類用意し、各テンプレートを用いたマッチング処理を行うが、被写体までの距離情報に基づいて使用するテンプレートの上限,下限の大きさを限定するため、テンプレートマッチング処理回数を減らすことができ、顔の抽出処理を高精度,高速に行うことが可能となる。
【0035】
図2において、ステップS2で「顔」の位置が抽出され、あるいは顔無しと判定された場合、次に、ステップS3に進み、連続した入力画像が存在するか否かを判定する。連続した画像が無い場合には、図3の顔の抽出処理(ステップS1)に戻る。即ち、新たに取り込まれた入力画像が前コマ(前入力画像)と異なるシーンの画像の場合にはステップS1で顔の探索処理を行う。
【0036】
連続した画像が次々と取り込まれている場合には、ステップS3の判定結果は肯定(Y)となる。この場合には、次にステップS4で、前コマで被写体の顔が抽出されたか否かを判定する。この判定結果が否定(N)の場合には、ステップS1に戻り、図3の顔の抽出処理を行う。
【0037】
連続した画像が次々と取り込まれ前コマで被写体の顔が抽出されている場合には、ステップS4の判定結果が肯定(Y)となり、ステップS5に進む。このステップS5では、サーチウインドウ23のサーチ範囲の制限を行う。図3の顔の探索処理では、サーチウインドウ23のサーチ範囲を、処理画像21の全範囲としたが、前コマで顔の位置が検出されている場合は、図8の入力画像▲2▼に示す様に、顔の存在する蓋然性の高い範囲21aにサーチ範囲を制限する。
【0038】
そして、次のステップS6で、この制限されたサーチ範囲21aで、顔画像の探索を行う。サーチ範囲が制限されているため、高速に顔画像を抽出することが可能となる。
【0039】
ステップS6の後は、ステップS3に戻り、次の入力画像の顔探索処理に進む。オートブラケット撮影の場合には、被写体は静止し動かないことが多いため、オートブラケット撮影の指示入力が操作部11からあった場合には、図8の入力画像▲2▼において、顔の探索範囲を更に限定することが可能である。
【0040】
また、動きのある被写体を連写する等している場合には、図8の入力画像▲1▼と入力画像▲2▼から夫々抽出した顔画像の位置により被写体の速度や方向が分かるため、次コマの入力画像▲3▼では顔のサーチ範囲を更に限定することが可能となる。
【0041】
この様に、本実施形態では、連続して入力する複数の入力画像から夫々顔画像を抽出する場合に、前コマで抽出された顔の位置により次コマにおけるサーチ範囲を制限するため、顔の抽出を高速に行うことが可能となる。このステップS6における顔抽出処理は、テンプレートマッチング処理に限るものではなく、他の方法によるものでもよい。
【0042】
(第2の実施形態)
図9は、本発明の第2の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。この顔抽出処理プログラムを搭載するデジタルスチルカメラの構成は図1と同じであり、また図2の処理手順も同じあり、図3の処理手順に代えて図9の処理手順を用い点が異なる。
【0043】
上述した第1の実施形態における図3の処理では、サーチウインドウ及びテンプレートの大きさを変化させながらテンプレートマッチング処理を行ったが、本実施形態では、サーチウインドウ及びテンプレートの大きさは固定し、処理画像21の大きさの方をリサイズしながらテンプレートマッチング処理を行う。
【0044】
ステップS11からステップS15までは第1の実施形態と同じである。ステップS15の次に、本実施形態では、処理画像21の大きさの上限,下限の範囲を決定する(ステップS26)。そして、次のステップS27では、処理画像21の大きさが顔の大きさの上限,下限の大きさに見合った範囲内であるか否かを判定する。
【0045】
ステップS27の判定で、処理画像21の大きさが上限,下限の範囲内であると判定された場合には、次にステップS21に進み、テンプレートマッチング処理を行い、類似度が閾値α以上の画像部分が存在するか否かを判定する。類似度が閾値α以上の画像部分が検出できなかっ場合はステップS21からステップS28に戻って処理画像21のリサイズを行い、テンプレートマッチング処理を繰り返す。閾値α以上の画像部分が検出された場合には、ステップS21から図2のステップS2の顔検出判定処理に進んで顔位置を特定し、その位置情報を制御回路10に出力しこの顔検出処理を終了する。
【0046】
処理画像21のリサイズによって処理画像のサイズが上限値から下限値まで変化した後(あるいは下限値から上限値まで変化した後)は、ステップS27の判定結果が否定(N)となる。この場合には図2のステップS2に進み、「顔なし」と判定される。
【0047】
この様に、本実施形態では、入力画像に対する被写体の顔の大きさを被写体までの距離情報に基づいて限定するため、テンプレートマッチング処理回数を減らすことができ、高精度,高速に顔の抽出を行うことが可能となる。しかも、予め用意するテンプレートが1つで済むため、テンプレートの記憶容量を削減することもできる。
【0048】
尚、上述した各実施形態では、デジタルスチルカメラを例に説明したが、携帯電話機等に搭載したデジタルカメラや動画撮影を行うデジタルビデオカメラ等の他のデジタルカメラにも本発明を適用可能である。また、被写体までの距離情報は、測距センサの計測値や既知の値を用いる場合に限られず、その距離情報取得方法は如何なる方法でもよく、更に、抽出対象は顔に限らず、他の特徴部分でも本発明を適用可能である。
【0049】
また、上述した各実施形態の特徴抽出プログラムは、デジタルカメラに搭載する場合に限られず、例えば写真のプリンタや画像処理装置に搭載することで、被写体の特徴部分を高精度且つ高速に抽出することが可能となる。この場合、テンプレートの大きさ或いは処理画像の大きさを特徴部分画像の上限,下限の範囲に限定するために距離情報やズーム情報が必要となるが、これらの情報は、入力画像を撮影したカメラが撮影データにタグ情報として付加したものを用いるのが良い。また、オートブラケット撮影や連写された撮影画像であるか否かも、撮影データに付加されたタグ情報を利用するのが良い。
【0050】
【発明の効果】
本発明によれば、連続した入力画像から被写体の特徴部分を抽出する場合に前コマで抽出された特徴部分の情報を利用してサーチ範囲を制限するため、高速化と高精度化が可能となる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係るデジタルスチルカメラの構成図である。
【図2】図1に示すデジタルスチルカメラに搭載された顔抽出プログラムの処理手順を示すフローチャートである。
【図3】図1に示すステップS1の詳細処理手順を示すフローチャートである。
【図4】サーチウインドウによるスキャニングの説明図である。
【図5】顔のテンプレートの一例を示す図である。
【図6】サーチウインドウの大きさを変化させる例の説明図である。
【図7】テンプレートの大きさを変化させる例の説明図である。
【図8】連続する入力画像とサーチ範囲の説明図である。
【図9】本発明の第2の実施形態に係る顔抽出プログラムの処理手順を示すフローチャートである。
【符号の説明】
1 撮像素子
2 レンズ
3 絞り
6 デジタル信号処理部
10 制御回路
12 顔抽出処理部
16 測距センサ
21 処理画像
22 顔のテンプレート
23 サーチウインドウ
24 スキャニング方向[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a method for extracting a subject feature portion such as a face from a continuous image such as a continuously shot image or a bracketed image, a program thereof, and a digital camera equipped with the program.
[0002]
[Prior art]
For example, as described in Patent Document 1 below, the digital camera is equipped with an autofocus device that extracts the face part of the subject from the screen and automatically focuses the digital camera on the extracted face. There is something that has been. However, this Patent Document 1 only discloses a focusing technique, and does not describe how to extract a face image of a subject so that a face image can be extracted at high speed.
[0003]
When extracting a face part from the screen, template matching is used. This is because the similarity between each partial image sequentially extracted from the subject image in the search window and the face template is sequentially determined, and the face of the subject is located at the search window position that matches the face template with a similarity equal to or greater than a threshold. It is determined that it exists.
[0004]
Conventionally, when performing this template matching process, it is not known how big the subject's face is in the screen, so the size of the face template varies from a small template to a full-screen template. A large number of templates are prepared, and template matching processing is performed using all templates to extract face images.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 2001-215403
[Problems to be solved by the invention]
If features such as the subject's face can be extracted before shooting, etc., the subject's face can always be automatically focused and shot, and white balance can be taken to match the skin color of the face. There are many advantages. In addition, when the captured image data is taken into a personal computer or the like and manually processed by the user, if the control device extracts the position of the subject's face in the image, it can be controlled by adjusting the skin color, for example. The device can provide an appropriate guide to the user.
[0007]
However, the conventional technique has a problem that it takes time to extract a face because a large number of face templates are prepared and matching processing using each template is required.
[0008]
In particular, when multiple images are shot continuously or taken by auto bracket shooting, continuous shooting, etc., face extraction processing using a large number of templates for each shot image takes a lot of time and is highly functional. There is a problem that a control device equipped with a special arithmetic processing function is required.
[0009]
An object of the present invention is to provide a subject feature portion extraction method of a continuous image, a program thereof, and a digital camera that can extract subject feature portions from a plurality of consecutive captured images at high speed and with high accuracy.
[0010]
[Means for Solving the Problems]
According to another aspect of the present invention, there is provided a continuous image subject feature portion extraction method, wherein the feature feature portion image of the subject is extracted in a continuous image subject feature portion extraction method that extracts a feature portion image of a subject from each of a plurality of consecutive captured images. The search range of the feature part image extracted from the next successive photographed image is limited using information on the feature part position in the photographed image.
[0011]
With this configuration, since the subject feature portion image is searched in a highly probable limited range where the subject feature portion image exists, the feature portion can be extracted at high speed. Further, by limiting the search range, erroneous detection can be prevented. That is, it is possible to prevent erroneous detection of features that appear to be characteristic portions (for example, faces) as characteristic portions even if they are of different sizes.
[0012]
According to the continuous image subject feature portion extraction method of the present invention, when the feature portion image is extracted from the captured image without limiting the search range, the size of the feature portion image with respect to the size of the captured image is increased. An upper limit and a lower limit range are limited based on distance information between a camera that has captured the captured image and a subject having a characteristic portion, and a template within the limited upper limit and lower limit ranges is used. A feature is that the feature partial image is extracted by performing a matching process.
[0013]
With this configuration, in order to perform matching processing with a template of a fixed size while resizing the matching processing target image within the limited range, or with a matching processing target image of a fixed size while resizing the template size Therefore, the number of templates used in the matching process or the number of matching target images to be cut out from the captured image can be limited, and the processing time of the matching process can be shortened. In addition, since the search range is limited, erroneous detection can be prevented. That is, it is possible to prevent erroneous detection of features that appear to be characteristic portions (for example, faces) as characteristic portions even if they are of different sizes.
[0014]
The subject feature portion extraction program for continuous images of the present invention is characterized by executing the subject feature portion extraction method for continuous images.
[0015]
With this configuration, since the subject feature portion image is searched in a highly probable limited range where the subject feature portion image exists, the feature portion can be extracted at high speed.
[0016]
The digital camera of the present invention is characterized in that the above-described subject feature portion extraction program for continuous images is installed.
[0017]
With this configuration, since the subject feature portion image is searched in a highly probable limited range where the subject feature portion image exists, the feature portion can be extracted at high speed. Further, by limiting the search range, erroneous detection can be prevented. That is, it is possible to prevent erroneous detection of features that appear to be characteristic portions (for example, faces) as characteristic portions even if they are of different sizes.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0019]
(First embodiment)
FIG. 1 is a configuration diagram of a digital still camera according to the first embodiment of the present invention. This digital still camera includes a solid-state imaging device 1 such as a CCD or a CMOS, a lens 2 and a
[0020]
The digital still camera further includes a control circuit 10 including a CPU, a ROM, and a RAM, an
[0021]
FIG. 2 is a flowchart showing a processing procedure of face extraction processing performed by the face
[0022]
The imaging device 1 of the digital still camera always outputs an image signal at a predetermined cycle even before the user presses the shutter button, and the digital
[0023]
In step S1, face search processing is performed. FIG. 3 is a flowchart showing a detailed processing procedure of the face search processing. In FIG. 3, the face
[0024]
In the next step S13, it is determined whether or not the zoom lens is used. If the zoom lens is used, the zoom position information is acquired from the control circuit 10 (step S14), and then the focus of the lens is obtained. Distance information is acquired from the control circuit 10 (step S15). If it is determined in step S13 that the zoom lens is not used, the process skips step S14 and proceeds to step S15.
[0025]
Based on the input image size information and the lens focal length information acquired by the above processing steps, it is possible to determine the size of the face of the person who is the subject in the input image. Therefore, in the next step S16, an upper limit and a lower limit range of the search window size according to the face size are determined.
[0026]
As shown in FIG. 4, the search window is a
[0027]
Here, the processed
[0028]
In the next step S17, it is determined whether or not the size of the search window is within the range, that is, whether or not it is within the upper and lower limits of the face size in the processed
[0029]
In step S21, template matching processing is performed while scanning the
[0030]
If there is no image portion whose similarity is greater than or equal to the threshold value α, the process proceeds to step S22, the size of the
[0031]
As described above, in this embodiment, the size of the template is changed as shown in FIG. 7 while changing the size of the
[0032]
If an image portion showing a degree of similarity equal to or greater than the threshold value α is detected in step S21, the process proceeds to the face detection determination process in step S2 in FIG. 2, the face position is specified, and the position information is output to the control circuit 10. The leverage detection process ends.
[0033]
If step S17 →... → step S21 → step S22 → step S17 is repeated and the size of the
[0034]
As described above, according to the present embodiment, a plurality of types of templates used in the template matching process are prepared, and the matching process using each template is performed. The upper and lower limits of the template to be used based on the distance information to the subject. Therefore, the number of template matching processes can be reduced, and the face extraction process can be performed with high accuracy and high speed.
[0035]
In FIG. 2, when the position of the “face” is extracted in step S2 or it is determined that there is no face, the process proceeds to step S3, where it is determined whether there is a continuous input image. If there is no continuous image, the process returns to the face extraction process (step S1) in FIG. That is, if the newly input image is an image of a scene different from the previous frame (previous input image), face search processing is performed in step S1.
[0036]
When successive images are captured one after another, the determination result in step S3 is affirmative (Y). In this case, in step S4, it is determined whether or not the face of the subject has been extracted in the previous frame. If the determination result is negative (N), the process returns to step S1, and the face extraction process of FIG. 3 is performed.
[0037]
If consecutive images are captured one after another and the face of the subject is extracted in the previous frame, the determination result in step S4 is affirmative (Y), and the process proceeds to step S5. In step S5, the search range of the
[0038]
Then, in the next step S6, a face image is searched in the limited search range 21a. Since the search range is limited, a face image can be extracted at high speed.
[0039]
After step S6, the process returns to step S3 and proceeds to the face search process for the next input image. In the case of auto bracket shooting, the subject is often stationary and does not move. Therefore, when an instruction for auto bracket shooting is input from the
[0040]
In addition, when shooting a moving subject continuously, the speed and direction of the subject can be known from the position of the face image extracted from the input image (1) and the input image (2) in FIG. In the next frame input image (3), the face search range can be further limited.
[0041]
As described above, in this embodiment, when a face image is extracted from each of a plurality of continuously input images, the search range in the next frame is limited by the position of the face extracted in the previous frame. Extraction can be performed at high speed. The face extraction process in step S6 is not limited to the template matching process, but may be another method.
[0042]
(Second Embodiment)
FIG. 9 is a flowchart showing the processing procedure of the face extraction program according to the second embodiment of the present invention. The configuration of a digital still camera equipped with this face extraction processing program is the same as that in FIG. 1, the processing procedure in FIG. 2 is also the same, and the processing procedure in FIG. 9 is used instead of the processing procedure in FIG.
[0043]
In the process of FIG. 3 in the first embodiment described above, the template matching process is performed while changing the size of the search window and the template. However, in this embodiment, the size of the search window and the template is fixed and the process is performed. Template matching processing is performed while resizing the size of the
[0044]
Steps S11 to S15 are the same as those in the first embodiment. After step S15, in the present embodiment, the upper limit and lower limit ranges of the size of the processed
[0045]
If it is determined in step S27 that the size of the processed
[0046]
After the size of the processed image changes from the upper limit value to the lower limit value (or after the change from the lower limit value to the upper limit value) due to resizing of the processed
[0047]
In this way, in this embodiment, the size of the subject's face relative to the input image is limited based on the distance information to the subject, so the number of template matching processes can be reduced, and face extraction can be performed with high accuracy and high speed. Can be done. Moreover, since only one template is prepared in advance, the storage capacity of the template can be reduced.
[0048]
In each of the above-described embodiments, the digital still camera has been described as an example. However, the present invention can also be applied to other digital cameras such as a digital camera mounted on a mobile phone or a digital video camera that performs moving image shooting. . In addition, the distance information to the subject is not limited to the case of using a measurement value or a known value of a distance measuring sensor, the distance information acquisition method may be any method, and the extraction target is not limited to the face, but other features. The present invention can also be applied to portions.
[0049]
The feature extraction program of each embodiment described above is not limited to being installed in a digital camera. For example, the feature extraction program can be installed in a photographic printer or image processing apparatus to extract a feature portion of a subject with high accuracy and high speed. Is possible. In this case, distance information and zoom information are required to limit the size of the template or the size of the processed image to the upper and lower limits of the feature partial image. It is good to use what was added as tag information to imaging | photography data. Further, it is preferable to use tag information added to the shooting data to determine whether the image is an auto bracket shooting or continuous shooting.
[0050]
【The invention's effect】
According to the present invention, when a feature portion of a subject is extracted from a continuous input image, the search range is limited using information on the feature portion extracted in the previous frame, so that high speed and high accuracy are possible. Become.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a digital still camera according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing a processing procedure of a face extraction program installed in the digital still camera shown in FIG. 1;
FIG. 3 is a flowchart showing a detailed processing procedure of step S1 shown in FIG. 1;
FIG. 4 is an explanatory diagram of scanning by a search window.
FIG. 5 is a diagram illustrating an example of a face template.
FIG. 6 is an explanatory diagram of an example of changing the size of a search window.
FIG. 7 is an explanatory diagram of an example of changing the size of a template.
FIG. 8 is an explanatory diagram of continuous input images and a search range.
FIG. 9 is a flowchart showing a processing procedure of a face extraction program according to the second embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image sensor 2
Claims (4)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003109177A JP4149301B2 (en) | 2003-04-14 | 2003-04-14 | Method for extracting feature parts of continuous image, program thereof, and digital camera |
US10/822,003 US20040228505A1 (en) | 2003-04-14 | 2004-04-12 | Image characteristic portion extraction method, computer readable medium, and data collection and processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003109177A JP4149301B2 (en) | 2003-04-14 | 2003-04-14 | Method for extracting feature parts of continuous image, program thereof, and digital camera |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004318331A true JP2004318331A (en) | 2004-11-11 |
JP4149301B2 JP4149301B2 (en) | 2008-09-10 |
Family
ID=33470423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003109177A Expired - Fee Related JP4149301B2 (en) | 2003-04-14 | 2003-04-14 | Method for extracting feature parts of continuous image, program thereof, and digital camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4149301B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318341A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Detection object image determination device, method, and program |
JP2007235414A (en) * | 2006-02-28 | 2007-09-13 | Toyota Motor Corp | Image recognition system and method |
JP2008109344A (en) * | 2006-10-25 | 2008-05-08 | Fujifilm Corp | Method of detecting specific object image and digital camera |
JPWO2006087790A1 (en) * | 2005-02-17 | 2008-07-03 | 富士通株式会社 | Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program |
JP2008164839A (en) * | 2006-12-27 | 2008-07-17 | Fujifilm Corp | Photographing apparatus and focusing method |
JP2009147605A (en) * | 2007-12-13 | 2009-07-02 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
JP2009151647A (en) * | 2007-12-21 | 2009-07-09 | Yamaha Motor Co Ltd | Customer stratum recognition device |
-
2003
- 2003-04-14 JP JP2003109177A patent/JP4149301B2/en not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2006087790A1 (en) * | 2005-02-17 | 2008-07-03 | 富士通株式会社 | Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program |
JP4540705B2 (en) * | 2005-02-17 | 2010-09-08 | 富士通株式会社 | Image processing method, image processing system, imaging apparatus, image processing apparatus, and computer program |
US8300101B2 (en) | 2005-02-17 | 2012-10-30 | Fujitsu Limited | Image processing method, image processing system, image pickup device, image processing device and computer program for manipulating a plurality of images |
JP2006318341A (en) * | 2005-05-16 | 2006-11-24 | Sony Corp | Detection object image determination device, method, and program |
JP2007235414A (en) * | 2006-02-28 | 2007-09-13 | Toyota Motor Corp | Image recognition system and method |
JP2008109344A (en) * | 2006-10-25 | 2008-05-08 | Fujifilm Corp | Method of detecting specific object image and digital camera |
JP4732299B2 (en) * | 2006-10-25 | 2011-07-27 | 富士フイルム株式会社 | Method for detecting specific subject image and digital camera |
JP2008164839A (en) * | 2006-12-27 | 2008-07-17 | Fujifilm Corp | Photographing apparatus and focusing method |
JP4725802B2 (en) * | 2006-12-27 | 2011-07-13 | 富士フイルム株式会社 | Imaging apparatus, focusing method, and focusing program |
JP2009147605A (en) * | 2007-12-13 | 2009-07-02 | Casio Comput Co Ltd | Imaging apparatus, imaging method, and program |
JP2009151647A (en) * | 2007-12-21 | 2009-07-09 | Yamaha Motor Co Ltd | Customer stratum recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP4149301B2 (en) | 2008-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4338560B2 (en) | Image feature portion extraction method, feature portion extraction program, imaging apparatus, and image processing apparatus | |
US7817186B2 (en) | Camera and image processing method for synthesizing plural images forming one image group to generate a synthesized image | |
US20040228505A1 (en) | Image characteristic portion extraction method, computer readable medium, and data collection and processing device | |
US20070266312A1 (en) | Method for displaying face detection frame, method for displaying character information, and image-taking device | |
JP5029137B2 (en) | Imaging apparatus and program | |
US20090002509A1 (en) | Digital camera and method of controlling same | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
US8411159B2 (en) | Method of detecting specific object region and digital camera | |
JP4974812B2 (en) | Electronic camera | |
KR20100030596A (en) | Image capturing apparatus, method of determining presence or absence of image area, and recording medium | |
JP2006311108A (en) | Image processor, image processing method, image processing program and camera | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
JP4149301B2 (en) | Method for extracting feature parts of continuous image, program thereof, and digital camera | |
WO2016194646A1 (en) | Imaging auxiliary device, and imaging device | |
EP2200275B1 (en) | Method and apparatus of displaying portrait on a display | |
JP6172973B2 (en) | Image processing device | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP2006253805A (en) | Photographing apparatus and method | |
JP4877186B2 (en) | Image processing apparatus, image processing method, and program | |
JP2006253806A (en) | Photographing apparatus and method | |
JP2007249526A (en) | Imaging device, and face area extraction method | |
JP4306399B2 (en) | Digital camera | |
JP2008098739A (en) | Imaging apparatus, image processing method used for imaging apparatus and program making computer execute same image processing method | |
JP2009089083A (en) | Age estimation photographing device and age estimation photographing method | |
JP5380833B2 (en) | Imaging apparatus, subject detection method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060302 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060325 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061124 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071108 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071115 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071122 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20071127 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20071205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080604 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080625 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4149301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110704 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120704 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130704 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |