JP5000699B2 - 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム - Google Patents

対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム Download PDF

Info

Publication number
JP5000699B2
JP5000699B2 JP2009258940A JP2009258940A JP5000699B2 JP 5000699 B2 JP5000699 B2 JP 5000699B2 JP 2009258940 A JP2009258940 A JP 2009258940A JP 2009258940 A JP2009258940 A JP 2009258940A JP 5000699 B2 JP5000699 B2 JP 5000699B2
Authority
JP
Japan
Prior art keywords
image
subject
target image
imaging
subject image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009258940A
Other languages
English (en)
Other versions
JP2010035237A (ja
Inventor
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009258940A priority Critical patent/JP5000699B2/ja
Publication of JP2010035237A publication Critical patent/JP2010035237A/ja
Application granted granted Critical
Publication of JP5000699B2 publication Critical patent/JP5000699B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

この発明は,対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラムに関する。
発明の背景
被写体が人物などの場合,その被写体の顔の画像部分がきれいに撮像されることが好ましいことが多い。このために,被写体像の中から顔の画像部分を検出することがある。顔検出の精度を向上させるために同一画像について複数の顔検出を行うことがある(特許文献1)。
また,連続する被写体像が与えられる場合には,前回の駒の被写体像において検出された顔の画像部分の近傍領域を,今回の駒の被写体像における顔の画像部分を検出する領域と規定するものもある(特許文献2)。
特開2003-216935号公報 特開平11−15979号公報
しかしながら,前回の駒の被写体像において誤った検出がされてしまうとその後の駒の被写体像における検出に影響を及ぼしてしまうことがある。検出精度が低くなることがある。
この発明は,顔などの対象物の検出精度を向上させることを目的とする。
この発明による対象画像の位置検出装置は,ほぼ同一と見なせる被写体を同時にまたは連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出する第1の検出手段,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出する第2の検出手段,ならびに上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定する決定手段を備えていることを特徴とする。
この発明は,上記対象画像の位置検出装置に適した方法も提供している。すなわち,この方法は,ほぼ同一と見なせる被写体を同時にまたは連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出し,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出し,検出された第1の位置と検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定するものである。
この発明は,上記対象画像の位置検出方法を実現するためのプログラムも提供している。さらに,そのプログラムを格納した記録媒体も提供している。
この発明によると,ほぼ同一と見なせる被写体が同時または連続して撮像されることにより得られた複数駒の被写体像(連続して得られる被写体像とは,たとえば,プレ撮像,動画の撮像,連写,ブラケット撮像など一度の撮像シーケンスで得られる被写体像)のうちの第1の被写体像から対象画像が存在する第1の位置が検出される。また,それらの複数駒の被写体像のうちの第2の被写体像から対象画像が存在する第2の位置も検出される。
検出された第1の位置と第2の位置とにもとづいて,第1の被写体像および第2の被写体像の少なくとも一方の被写体像において対象画像が存在する位置が決定される。第1の位置と第2の位置とを比較して,対象画像が存在する位置が決定されるので,第1の被写体像において検出された第1の位置または第2の被写体像において検出された第2の位置のいずれか一方の位置にのみにもとづいて対象画像の位置を検出する場合に比べて,検出精度が向上する。比較的精度の高い検出処理を実現できる。
ほぼ同一と見なせる被写体を同時または連続して撮像して複数駒の被写体像を表す画像データを出力する撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記撮像装置から出力された画像データによって表される複数駒の被写体像のうちの第1の被写体像から対象画像が存在する位置を検出するものとなり,上記第2の検出手段は,上記撮像装置から出力された画像データによって表される複数駒の被写体像のうちの第2の被写体像から対象画像が存在する位置を検出するものとなろう。
上記第1の検出手段と上記第2の検出手段とは共通のものでもよい。
上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換する位置変換手段をさらに備えてもよい。この場合,上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものとなろう。
第1の被写体像の大きさと第2の被写体像の大きさとが異なるものであっても,第1の位置と第2の位置とにもとづいて,対象画像が存在する位置を決定できる。
被写体を撮像して被写体像を表す画像データを出力する撮像装置,プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御する第1の撮像制御手段,および本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御する第2の撮像制御手段をさらに備えてもよい。この場合,上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記第1の撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものとなり,上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記第2の撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものとなろう。
シャッタ・レリーズ・ボタンのオンに応じて本撮像が行われ,その本撮像により得られた画像データがメモリ・カードなどの記録媒体に記録されるようなディジタル・カメラなどの場合に,本撮像前の撮像(プレ撮像)により得られた第1の被写体像から得られる第1の位置と本撮像により得られた第2の被写体像から得られる第2の位置とから対象画像が存在する位置を検出することができる。
上記本撮像指令に応じた撮像がストロボ発光に同期して行われるかどうかを判定する判定手段,および上記判定手段によりストロボ発光に同期して行われると判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段をさらに備えることが好ましい。
本撮像がストロボ発光に同期して行われる場合には,プレ撮像により得られた第1の被写体像は暗い場合がある。これに対して,ストロボ発光に同期して撮像されることにより得られた第2の被写体像は,比較的適正な明るさをもつものであるために,比較的正確に対象画像が検出されることが多い。ところが,第1の被写体像は暗いために対象画像が検出されないことがある。第1の被写体像から得られる第1の位置と第2の被写体像から得られる第2の位置とを比較しても対象画像が存在する位置を決定できない場合があるので,決定処理が停止される。ストロボ発光に同期して得られる第2の被写体像から得られる第2の位置が,対象画像が存在する位置と決定されるようになる。誤検出を未然に防止できる。
上記第1の撮像制御手段における制御にもとづいて上記撮像装置から出力される第1の画像データにもとづいて上記撮像装置の露出量を調整する露出量調整手段をさらに備えてもよい。この場合,上記第2の撮像制御手段における制御は,上記露出量調整手段によって調整された露出量にもとづいて本撮像指令に応じて上記撮像装置から上記第2の画像データを出力させるものとなろう。そして,上記第1の撮像制御手段によって制御される上記撮像装置の露出量がしきい値以下かどうかを判定する判定手段,および上記判定手段によって,しきい値以下と判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段をさらに備える。
露出量がしきい値以下と判定された場合も上記ストロボ発光についての処理と同様に,第1の位置についての信頼性が少ない。このために,第2の位置が,対象画像が存在する位置と決定される。
上記決定手段は,たとえば,上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置との変動量が所定のしきい値以上の場合に,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在しないと決定するものである。変動量がしきい値以上の場合には,異なる対象画像または誤検出であると考えられるので,対象画像が存在しないと決定される。
上記第1の検出手段は,ほぼ同一と見なせる被写体を時間的に連続して複数回撮像することにより得られた複数駒の被写体像のうちの第1番目の撮像により得られた第1の被写体像から対象画像が存在する第1の位置を検出するものでもよい。この場合,上記第2の検出手段は,上記複数駒の被写体像のうちの第2番目の撮像により得られた第2の被写体像から対象画像が存在する第2の位置を検出するものとなる。そして,上記複数駒の被写体像のうちの第3番目の撮像により得られた第3の被写体像から対象画像が存在する第3の位置を検出する第3の検出手段をさらに備える。さらに,上記決定手段は,上記第1の検出手段によって検出された第1の位置,上記第2の検出手段によって検出された第2の位置および上記第3の検出手段によって検出された第3の位置にもとづいて上記第1の被写体像,上記第2の被写体像および上記第3の被写体像のうち少なくとも一つの被写体像において上記対象画像が存在する位置を決定するものとなろう。
第1の被写体像,第2の被写体像および第3の被写体像のうち,何らかの理由により第2の被写体像において対象画像が検出できなかった場合に,第1の被写体像,第2の被写体像および第3の被写体像の3駒の被写体像を用いて,対象画像を検出することができるようになる。対象画像が存在するにもかかわらず,その対象画像が見つけられない場合を回避できる。
上記決定手段は,上記第3の検出手段によって検出された第3の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在しない第3の位置と,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置と上記第3の検出手段によって検出された第3の位置との両方に対応するものが存在しない第1の位置とにもとづいて,上記第3の被写体像において上記対象画像が存在する位置を決定するものでもよい。
被写体を撮像することにより上記第1の被写体像を表す第1の画像データを出力する第1の撮像装置,および被写体を撮像することにより上記第2の被写体像を表す第2の画像データを出力する第2の撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記第1の撮像装置から出力された第1の画像データによって表される第1の被写体像から対象画像が存在する位置を検出するものとなろう。また,上記第2の検出手段は,上記第2の撮像装置から出力された第2の画像データによって表される第2の被写体像から対象画像が存在する位置を検出するものとなろう。
第1の撮像装置と第2の撮像装置とは同じ筐体に内蔵されていてもよいし,異なる筐体に内蔵されていてもよい。
上記第1の撮像装置と上記第2の撮像装置とは同じまたは異なる撮像範囲をもつものでもよい。
上記第1の検出手段は,たとえば,上記第1の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第1の位置を検出するものである。また,上記第2の検出手段も,たとえば,上記第2の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第2の位置を検出するものである。この場合,上記決定手段は,上記第1の検出手段において検出された対象画像の対象画像らしさの値と上記第2の検出手段において検出された対象画像の対象画像らしさの値とにもとづいて,対象画像の存在する位置を決定するものとなろう。
受光面上に複数色の色フィルタが規則的に設けられており,被写体を撮像することによりカラーの被写体像を表す複数色のカラー画像データを出力する単板の固体電子撮像装置をさらに備えてもよい。この場合,上記第1の被写体像は,上記単板の固体電子撮像装置から出力された上記複数色のカラー画像データのうち一色のカラー画像データによって表され,上記第2の被写体像は,上記複数色のカラー画像データのうち上記一色のカラー画像データとは異なる色のカラー画像データによって表される。
受光面上に異なる色の色フィルタが設けられている複数の固体電子撮像素子を含み,被写体を撮像することにより異なる色の種類のカラー画像データを出力する固体電子撮像装置をさらに備えてもよい。この場合,上記第1の被写体像は,上記固体電子撮像装置から出力された上記カラー画像データのうちの一種類のカラー画像データによって表され,上記第2の被写体像は,上記カラー画像データのうち上記一種類のカラー画像データとは異なる種類のカラー画像データによって表されるものとなろう。
被写体を撮像することにより上記第1の被写体像を可視光像として表す可視光画像データを出力する可視光センサ,および被写体を撮像することにより上記第2の被写体像を赤外光像として表す赤外光画像データを出力する赤外光センサをさらに備えてもよい。この場合,上記第1の検出手段は,上記可視光センサから出力された可視光画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記赤外光センサから出力された赤外光画像データによって表される複数駒の被写体像のうちの第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。
受光面上に可視光フィルタ(可視光を透過する特性をもつフィルタ)と赤外光フィルタ(赤外線を透過する特性をもつフィルタ)とが含まれており,被写体像を撮像することにより第1の被写体像を可視光像として表す可視光画像データを出力し,かつ第2の被写体像を赤外光像として表す赤外光像画像データを出力する可視光/赤外光固体電子撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された可視光画像データによって表される第1の被写体像から対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された赤外光画像データによって表される第2の被写体像から対象画像が存在する位置を検出するものとなろう。
一定周期で被写体を撮像して,第1フィールドの被写体像を表す第1の画像データと第2フィールドの被写体像を表す第2の画像データとを交互に出力する撮像装置をさらに備えてもよい。この場合,上記第1の検出手段は,上記撮像装置から出力された第1フィールドの画像データによって表される第1のフィールドの被写体像から上記対象画像が存在する位置を検出するものであり,上記第2の検出手段は,上記撮像装置から出力された第2フィールドの画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。
上記撮像装置は,たとえば,ほぼ同一と見なせる被写体を,撮像条件を変更して同時または連続して撮像して複数駒の被写体像を表す画像データを出力するものである。
上記撮像条件の変更は,たとえば,露出量,絞り値,シャッタ速度,フォーカス量,ズーム量,感度およびフラッシュ変更の少なくとも一つである。
被写体を撮像して一駒の被写体像を表す画像データに異なる信号処理を行う信号処理手段をさらに備えてもよい。この場合,上記第1の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理が行われた画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものでもよい。この場合,上記第2の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理とは異なる他の信号処理が行われた画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものとなろう。異なる信号処理が行われたことにより得られる第1の被写体像と第2の被写体像とから第1の位置と第2の位置とを検出できる。
上記決定手段は,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在する第1の位置近傍の位置を上記被写体像において上記対象画像が存在する位置と決定するものでもよい。
上記決定手段によって決定された上記対象画像の存在位置にもとづいて,ハードウエア制御を行うハードウエア制御手段をさらに備えてもよい。
上記ハードウエア制御は,たとえば,自動露出制御,自動合焦制御,フラッシュ制御,省電力制御およびズーム量制御の少なくとも一つである。
上記決定手段において決定された上記対象画像の存在位置にもとづいて,信号処理を行う信号処理手段をさらに備えてもよい。検出された位置に存在する対象画像を対象として所定の信号処理を行うことができる。
上記信号処理手段は,たとえば,ゲイン調整,白バランス調整,色補正,輪郭強調,ノイズ低減および階調補正の少なくとも一つの信号処理を行うものである。
上記対象画像は,たとえば,顔または目の画像である。
ディジタル・スチル・カメラの電気的構成を示すブロック図である。 被写体像等の一例である。 (N−1)駒目の被写体像の顔検出結果を示している。 N駒目の被写体像顔検出結果を示している。 照合結果の一例である。 顔画像検出処理手順を示すフローチャートである。 スルー画像,本撮像画像等を示している。 顔画像検出処理手順を示すフローチャートである。 顔画像検出処理手順を示すフローチャートである。 (A)〜(D)は,顔画像領域の変動の一例である。 リンク付けの処理手順を示すフローチャートである。 被写体像等の一例である。 顔画像検出処理手順を示すフローチャートである。 顔画像検出処理手順を示すフローチャートである。 被写体と撮像装置との関係を示している。 被写体像等の一例である。 顔画像検出処理手順を示すフローチャートである。 顔画像検出処理手順を示すフローチャートである。 (A)および(B)は,被写体像の一例である。 (A)〜(C)は,被写体像の一例である。 (A)および(B)は,合成画像の一例である。 合成画像の一例である。 単板の撮像素子の受光面の一例である。 (A)〜(C)は,単色の被写体像の一例である。 (A)〜(C)は,補間された単色の被写体像の一例である。 (A)〜(C)は,三板の固体電子撮像素子の受光面を示している。 (A)は,可視光センサの受光面を,(B)は,赤外センサの受光面を示している。 可視光/赤外センサの受光面を示している。 フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。 フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。 フィールド画像の読み出しおよび顔画像検出処理手順を示すタイム・チャートである。 顔画像領域の検出処理手順を示すフローチャートである。 被写体像の一例である。 被写体像の一例である。 被写体像の一例である。 顔画像領域検出処理手順を示すフローチャートである。 自動露出制御処理を示すフローチャートである。 自動露出制御処理を示すフローチャートである。 自動合焦制御処理を示すフローチャートである。 自動合焦制御処理を示すフローチャートである。 階調補正処理を示すフローチャートである。 階調補正処理を示すフローチャートである。 色補正処理手順を示すフローチャートである。 色補正処理手順を示すフローチャートである。
図1は,この発明の実施例を示すもので,ディジタル・スチル・カメラの電気的構成を示すブロック図である。
ディジタル・スチル・カメラの全体の動作は,制御回路2によって統括される。制御回路2には,CPU3,後述する動作が行われる動作プログラム等が格納されているROM4,データ等が一時的に記憶されるRAM5が含まれている。ディジタル・スチル・カメラに通信機能を設け,送信された動作プログラムを受信することにより,後述する動作を行わせるようにすることもできる。もちろん,メモリ・カードに動作プログラムが格納できれば,そのメモリ・カードから動作プログラムを読み取り,ディジタル・スチル・カメラに動作プログラムをインストールすることもできる。
ディジタル・スチル・カメラには,シャッタ・レリーズ・ボタン,モード設定スイッチなどの操作ボタン1が含まれている。この操作ボタン1から出力される操作信号は,制御回路2に入力する。また,ディジタル・スチル・カメラには,ストロボ制御回路6によって制御されるストロボ発光装置7が設けられている。
モード設定スイッチにより撮像モードが設定されると,レンズ駆動回路11によって制御される撮像レンズ8により光線束が集光され,絞り駆動回路12によって制御される絞り9を介して撮像素子10の受光面上に入射する。撮像素子10の受光面に被写体像が結像する。撮像素子10が撮像素子制御回路13によって制御され,一定の撮像周期(プレ撮像)で被写体像を表す映像信号(いわゆるスルー画を示すスルー画像信号)がアナログ信号処理回路14に入力する。アナログ信号処理回路14において,相関二重サンプリングなどの所定のアナログ信号処理が行われる。アナログ信号処理回路14から出力された映像信号は,アナログ/ディジタル信号処理回路においてディジタル画像データに変換されてディジタル信号処理回路16に入力する。ディジタル信号処理回路16において,ガンマ補正,白バランス調整などの所定の信号処理が行われる。ディジタル信号処理回路16から出力された画像データはメモリ18を介して表示装置19に与えられる。表示装置19の表示画面に,撮像された被写体像が表示される。
シャッタ・レリーズ・ボタンが押されると,上述のようにしてディジタル信号処理回路16から出力された画像データはメモリ18に与えられ,一時的に記憶される。画像データがメモリ18から出力されてメモリ・カード20に記録される。
この実施例によるディジタル・スチル・カメラにおいては,被写体像の中から顔画像の領域を検出することができる。このために,ディジタル・スチル・カメラには,顔検出処理回路17が設けられている。上述のようにしてディジタル信号処理回路16から出力された画像データは,この顔検出処理回路17にも入力する。顔検出処理回路17において後述のようにして顔画像の部分を示す領域が検出される。
この実施例においては,少なくとも二駒の被写体像が利用される。それぞれの駒の被写体像において顔画像部分の検出処理が行われる。それぞれの駒の被写体像において検出された顔画像部分の領域にもとづいて,顔画像部分の領域が決定される。
図2は,この実施例による顔画像領域の検出処理を説明するためのもので,被写体像の一例である。
上述のように,撮像モードが設定されると一定周期で被写体が繰返して撮像され,(N−1)駒目の被写体像α1とN駒目の被写体像α2が得られる。これらの二駒の被写体像α1およびα2のそれぞれにおいて顔画像を検出する処理が行われる。たとえば,(N−1)駒目の被写体像α1には人物像S1が含まれており,顔画像検出処理が行われることにより,顔画像の領域C1が検出される。N駒目の被写体像α2には,人物像S2が含まれており,顔画像領域C2が検出される。この顔画像領域C2は,(N−1)駒目の被写体像α1において検出された顔画像領域C1に対応する位置にあると考えられるもので,この実施例においては,領域C2は,領域C1にリンク付けがされたものと規定される。また,N駒目の被写体像α2においては,顔検出処理において顔画像領域C3も検出される。この顔画像領域C3は,(N−1)駒目の被写体像α1においては対応する領域が検出されなかったもので,リンク付けがされていないとされる。
この実施例においては,(N−1)駒目の被写体像α1における顔画像の検出結果とN駒目の被写体像α2における顔画像の検出結果との照合処理が行われる。そして,N駒目の被写体像α2における顔画像の検出領域は,リンク付けのある領域とされる。したがって,N駒目の被写体像α2においては,リンク付けの無い領域C3は顔画像領域とはされず,リンク付けのある領域C2が顔画像の領域として決定される。
また,この実施例においては,顔画像領域は,上下についても検出される。図2においては,検出された顔画像の領域C1〜C3において,顔画像の上の部分が他の部分よりも太く示されている。
図3は(N−1)駒目の被写体像α1の顔検出結果を,図4はN駒目の被写体像α2の顔検出結果をそれぞれ示している。
顔検出処理においては,検出された顔の画像領域の個数,検出された顔画像の領域のナンバを示す顔ナンバ,顔画像領域の位置,顔画像領域の大きさ,顔画像領域の面内回転角,顔画像領域の面外回転角およびスコアが検出される。これらの顔の画像領域の個数等が顔検出結果として,被写体像に対応して格納される。顔検出結果として得られる面内回転角とは,顔が正面を向いている場合における顔の傾き角である。面外回転角とは,顔が正面を向いている場合を基準として,その顔が横を向く場合の角度である。
図5は,照合結果を示している。
上述のように,(N−1)駒目の被写体像α1の顔画像の検出結果とN駒目の被写体像α2の顔画像の検出結果とが照合される。照合された結果,上述のようにリンク付けのある領域に対応する顔ナンバ,位置および大きさが照合結果テーブルに格納される。
図6は,顔画像領域の決定処理手順を示すフローチャートである。
上述のように撮像モードが設定されると一定周期で被写体が撮像され,特定の一駒の被写体像が得られる(ステップ31)。得られた一駒の被写体像において顔検出処理が行われ(ステップ32),その顔検出結果が登録される(ステップ33)。
前回(前駒)の顔検出結果が登録されていなければ(ステップ34でNO),ステップ31からの処理が繰返される。
前回の顔検出結果が登録されていれば(ステップ34でYES),上述のように,前回の顔検出結果と今回の顔検出結果との照合処理が行われる(ステップ35)。照合処理の結果にもとづいて,上述のようにリンク付けされる顔画像検出領域を表す照合結果が登録される(ステップ36)。照合結果に登録された情報により特定される顔画像領域が今回の被写体像の顔画像領域として決定される。
ユーザからの終了指令があるまでステップ31からの処理が繰返される(ステップ37)。
今回の顔画像検出処理において検出された顔画像領域に対応する顔画像領域が,前回の顔画像検出処理において検出されていた場合に,今回の被写体像における顔画像領域として決定しているので,今回と前回とも検出されなければ顔画像領域とは決定されない。誤って今回の被写体像から顔画像領域が検出されてしまったような領域は,顔画像領域からは排除されるので,顔画像領域の検出精度が向上する。もちろん,前回の顔画像検出処理において検出された顔画像領域に対応する顔画像領域が今回の顔画像検出処理においても検出された場合に,その顔画像検出領域を前回の被写体像における顔画像検出領域として決定してもよいのはいうまでもない。
図7および図8は,他の実施例を示すものである。
この実施例においては,いわゆるスルー画像(プレ撮像時の画像)と本撮像画像(シャッタ・レリーズ・ボタンが全押しされた後に撮像された画像)との検出結果の照合処理が行われる。また,本撮像画像は高解像度であり,そのサイズ(データ量,画像の大きさ)が大きいのに対して,スルー画像は,比較的低解像度であり,そのサイズは小さい。このために,この実施例においては,座標変換が行われスルー画像のサイズと本撮像画像のサイズとが同じとなるように座標変換処理が行われる。サイズが同じとなったスルー画像と本撮像画像とが検出結果の照合処理が行われる。
図7を参照して,スルー画像α4が得られる。このスルー画像α4には,人物像S4が含まれており,顔画像検出処理が行われることにより,顔画像領域C4が検出される。また,本撮像が行われて,本撮像画像α6が得られる。スルー画像α4の大きさと本撮像画像α6の大きさとは異なるから,スルー画像α4の大きさが本撮像画像α6の大きさと同じ大きさとなるように,スルー画像α4が座標変換される。スルー画像α4が座標変換されることにより,本撮像画像α6の大きさと同じ大きさをもつスルー画像α5が得られる。
座標変換されたスルー画像α5にも人物像S5が含まれており,顔画像検出処理が行われることにより顔画像領域C5が検出される。また,本撮像画像α6にも人物像S6が含まれており,顔画像検出処理が行われることにより,顔画像領域C6が検出される。また,顔画像領域C6以外の顔画像領域C7も検出されたものとする。座標変換されたスルー画像α5における検出結果と本撮像画像α6における検出結果とが照合されることにより,本撮像画像α6における顔画像領域が領域C6に決定されることは理解できよう。
上述の例では,スルー画像α4の大きさを本撮像画像α6の大きさに合わせているが,本撮像画像α6の大きさをスルー画像α4の大きさに合わせてもよいのはいうまでもない。
図8は,スルー画像と本撮像画像とから顔画像領域を決定する処理手順を示すフローチャートである。
撮像モードが設定されてプレ撮像によりスルー画像が得られると,そのスルー画像の顔検出処理が行われる(ステップ41)。スルー画像は,一定周期で得られるから,その一定周期で得られたスルー画像ごとに顔検出処理が行われる。顔検出処理において得られた顔検出結果が更新されながら登録される(ステップ42)。シャッタ・レリーズ・ボタンが全押しされるまで(ステップ43),ステップ41および42の処理が繰り返される。
シャッタ・レリーズ・ボタンが全押しされると(ステップ43でYES),本撮像が行われ本撮像画像が得られる。得られた本撮像画像の顔検出処理が行われる(ステップ44)。
本撮像画像とスルー画像(シャッタ・レリーズ・ボタンが全押しされる直前のスルー画像)とが得られると,それらの画像の大きさが同じとなるように座標変換が行われる(ステップ45)。この座標変換は,スルー画像の大きさに合うように行ってもよいし,本撮像画像の大きさに合うように行ってもよいし,他の画像の大きさに合うように行ってもよい。座標変換が行われると,スルー画像の顔検出結果と本撮像画像の顔検出結果とが照合される(ステップ46)。照合結果が登録されて顔画像領域が決定する(ステップ47)。
図9は,図8の変形例を示すもので,顔画像領域決定処理の処理手順を示すフローチャートである。この図において図8に示す処理と同じ処理については同じ符号を付して説明を省略する。
図9に示す処理においては,得られたスルー画像の露光量が少ないか,または本撮像においてストロボ発光されたかどうかが確認される(ステップ51)。本撮像においてストロボ発光された場合には,得られたスルー画像の露光量が少ない。スルー画像の露光量が少ない場合には,スルー画像が暗いために顔検出処理が行われても顔画像領域を検出することができないことがある。顔画像領域を検出できないために,上述したように,スルー画像において検出された顔画像領域と本撮像領域において検出された顔画像領域との照合をしてもリンク付けされる顔画像領域が無いことがある。このために,顔画像領域を決定できないことがある。このために,この変形例においては,スルー画像の露光量が少ないか,または本撮像においてストロボ発光した場合には(ステップ51でYES),スルー画像と本撮像画像との上述した検出結果の照合処理が行われずに本撮像画像における顔検出結果が登録され顔検出領域として決定される(ステップ52)。
図10(A)〜(D)および図11は,上述したリンク付けを決定する処理を説明するためのものである。
図10(A)〜(D)は,前回の被写体像において検出された顔画像領域と今回の被写体像において検出された顔画像領域との変動を示している。
(A)は,位置変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C8が検出され,今回の被写体像における顔検出処理において顔画像領域C9が検出されたことを示している。
(B)は,大きさ変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C10が検出され,今回の被写体像における顔検出処理において顔画像領域C11が検出されたことを示している。顔画像領域C10の大きさよりも顔画像領域C11の大きさの方が大きくなっている。
(C)は,面内回転変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C12が検出され,今回の被写体像における顔検出処理において顔画像領域C13が検出されたことを示している。上述したように,顔の上部分に対応する領域は,太く示されている。したがって,前回の被写体像において検出された顔の画像から今回の被写体像において検出された顔の画像は,被写体像の平面内において90度回転していることが分かる。
(D)は,面外回転変動を示すものである。前回の被写体像における顔検出処理において顔画像領域C14が検出され,今回の被写体像における顔検出処理において顔画像領域C15が検出されたことを示している。前回の被写体像における顔検出処理において検出された顔画像領域C14は正方形であり,今回の被写体像における顔検出処理において検出された顔画像領域C15は五角形である。前回の被写体像においては,顔画像は,正面を向いており,今回の被写体像において,顔画像は横を向いていることが分かる。
このような変動があった場合に,次に述べるように変動の程度が一定の範囲内であればリンク付けが行われる。また,リンク付けが行われた場合に,検出された顔画像領域近傍の領域等を顔画像領域として決定することもできる。たとえば,(A)に示すように顔画像領域C8およびC9を囲む領域Cを顔画像領域として決定してもよいし,顔画像領域C8およびC9を顔画像領域として決定してもよい。
図11は,リンク付けを決定する処理手順を示すフローチャートである。上述した変動が一定範囲内の場合に,前回の被写体像における顔検出処理において検出された顔画像領域と今回の被写体像における顔検出処理において検出された顔画像領域とが対応するものとしてリンク付けされる。
今回の被写体像において検出された顔画像領域の顔ナンバを変数j,前回の被写体像において検出された顔画像領域の顔ナンバを変数iとする。
今回の被写体像において検出された顔画像領域のすべてを初期化する(ステップ61〜64)。このために,今回の顔画像領域の変数jがリセットされ(ステップ61),すべての顔画像領域についてのリンクが初期化されるまで変数jがインクレメントされながらリンクの初期化処理が繰り返される(ステップ62でYES,63,64)。
今回の被写体像において検出された顔画像領域のすべてが初期化されると(ステップ62でNO),再び変数jがリセットされ(ステップ65),今回の被写体像において検出された顔画像領域の一つ一つと前回の被写体像において検出された顔画像領域の一つ一つとのそれぞれにおいてリンク付けが判断される。今回の被写体像において検出された顔画像領域のすべてについてリンク付けが終了したかどうかが確認される(ステップ66)。
終了していなければ(ステップ66でYES),上述した位置変動の距離にダミーの初期値がセットされる(ステップ67)。
前回の被写体像において検出された顔画像領域の変数iがリセットされる(ステップ68)。すべての顔画像領域についてリンク付けが行われるため,すべての顔画像領域についてリンク付けが終了したかどうかが判定される(ステップ69)。
すべての顔画像領域についてリンク付けが終了していなければ(ステップ69でYES),面外回転変動,面内回転変動および大きさ変動が所定の範囲内かどうかが確認される(ステップ70〜72)。これらの変動のすべてが所定の範囲内であれば(ステップ70〜72においてYES),変動量が少ないと考えられる。変数dが位置変動での中心間距離に設定されて(ステップ73),その中心間距離がダミー値よりも小さいかどうかが確認される(ステップ74)。小さければ(ステップ74でYES),中心間距離の最小値が位置変動での中心間距離に設定される(ステップ75)。設定された中心間距離が所定の範囲内であれば(ステップ76でYES),判定対象として今回の被写体像の中の顔画像領域jは,前回の被写体像の中の顔画像領域iとリンクしているとして上述の照合結果として登録される(図5参照)。変数iがインクレメントされ(ステップ79),前回の被写体像のうち次の顔画像領域についてリンク付けされるかどうかが判定される。
図12は,他の実施例を示すもので,被写体像の一例である。
この実施例においては,連続する三駒の被写体像が用いられる。連続する三駒の被写体像のうち,第三番目の被写体像において検出された顔画像領域に対応する顔画像領域が第二番目の被写体像に無かった場合でも第一番目の被写体像に存在する場合にはリンク付けされ,第三番目の被写体像における顔画像領域として決定される。
たとえば,第(N−2)駒目の被写体像α7,第(N−1)駒目の被写体像α8および第N駒目の被写体像α9が得られる。第(N−2)駒目の被写体像α7には,人物像S7およびS8が含まれており,顔画像検出処理により,顔画像領域C16およびC17が検出される。第(N−1)駒目の被写体像α8には,人物像S9およびS10が含まれている。顔画像検出処理により,人物像S9から顔画像領域C18が検出されたが,人物像S10からは顔画像領域が検出されなかったものとする。第N駒目の被写体像α9には,人物像S11およびS12が含まれており,顔画像検出処理により,顔画像領域C20およびC21が検出される。
第N駒目の被写体像α9において検出された顔画像領域C20およびC21と,第(N−1)駒の被写体像α8において検出された顔画像領域C18との検出結果の照合処理(第1回検出結果照合)が行われる。第(N−1)駒目の被写体像α8においては,第N駒目の被写体像α9において検出された顔画像領域C20に対応する顔画像領域C18が存在するが,第N駒目の被写体像α9において検出された顔画像領域C21に対応する顔画像領域は検出されていない。このために,上述の実施例においてはN駒目の被写体像α9において顔画像領域C20は,顔画像領域として決定されるが,顔画像領域C21は,顔画像領域としては決定されない。この実施例においては,第N番目の被写体像α9において検出された顔画像領域のうち,リンク付けされない顔画像領域C21について,第(N−2)駒目の被写体像α7の顔画像領域にリンク付けされるようなものがあるかどうかが確認される(第2回検出結果照合)。第(N−2)駒目の被写体像α7の顔画像領域C17にリンク付けされるような顔画像領域C21が第N駒目の被写体像α9にある場合には,その顔画像領域C21は第N駒目の被写体像α9における顔画像領域として決定される。上述の実施例においては,検出できなかったような顔画像領域C21を検出できるようになる。
第(N−1)駒目の被写体像α8においては,第N駒目の被写体像α7において検出された顔画像領域C16およびC17との検出結果照合処理が行われることにより,顔画像領域C18が顔画像領域として決定されることは理解されよう。
図13および図14は,上述した図12の処理手順を示すフローチャートである。
今回(第N駒目)の被写体像が読み取られ(ステップ31),顔検出処理が行われる(ステップ32)。今回の顔検出処理の結果が登録される(ステップ33)。前回(第(N−1)駒目)の顔検出結果が登録されていると(ステップ34でYES),上述したように,前回と今回の顔検出結果の照合処理(第1回検出結果照合)が行われる(ステップ52)。
第1回検出結果照合において,今回の被写体像において検出された顔画像領域のうちリンク無しのものがあるかどうかが確認される(ステップ53)。リンク無しのものがあると,前々回(第(N−2)駒目)の検出結果が登録されているかどうかが確認される(ステップ54)。前々回の検出結果が登録されていると(ステップ54でYES),『今回の検出結果のうち前回の検出結果とのリンク付けがないもの』と『前々回の検出結果のうち「今回,前回,前々回」のリンクが無いもの』との間で検出結果の照合処理が行われる(第2回検出結果照合)(ステップ55)。
第1回検出結果照合と第2回検出結果照合とが組み合わせられて(ステップ56),その組み合わせの照合結果が反映されて最終的な今回の検出結果とし登録され,今回の被写体像における顔画像領域が決定される(ステップ36)。終了指令があるまでステップ31からの処理が繰返される。
今回の検出結果でリンク無しのものがないか(ステップ53でNO),前々回の検出結果が登録されていなければ(ステップ54でNO),前回と今回の検出結果の照合処理にもとづいて今回の被写体像における顔画像領域が決定されることとなる(ステップ36)。
図15は,他の実施例を示すもので,被写体150を撮像する様子を示している。
この実施例においては,撮像範囲がほぼ同じである2つのディジタル・スチル・カメラ151および152が用いられる。2つのディジタル・スチル・カメラ151および152を用いて被写体150が同時または連続して撮像されることにより2駒の被写体像が得られる。第1のディジタル・スチル・カメラ151および152は,コンピュータ装置153に接続されている。コンピュータ装置153に,ディジタル・スチル・カメラ151および153によって撮像された被写体像を表す画像データが与えられる。コンピュータ装置153において,得られた2駒の被写体像を用いて顔画像領域が決定される。図15においては,2つのディジタル・スチル・カメラ151および152が図示されているが,2つの撮像装置(素子)があればよく,2台の撮像装置が1つのカメラに内蔵されているものでもよい。
図16は,図15に示すディジタル・スチル・カメラ151および152を用いて撮像された被写体像等の一例である。
ディジタル・スチル・カメラ151および152は,同じ撮像範囲をもち,同時に被写体を撮像することにより,第1の被写体像α11および第2の被写体像α12が得られる。第1の被写体像α11には,人物像S13が含まれている。第1の被写体像α11に顔検出処理が行われることにより,人物像S13から顔画像領域C22が検出される。また,第1の被写体像α11においては顔画像領域C23も検出される。第2の被写体像α12には,人物像S14が含まれている。第2の被写体像α12に顔検出処理が行われることにより,人物像S14から顔画像領域C24が検出される。また,第2の被写体像α12においては顔画像領域C25も検出される。
第1の被写体像α11において検出された顔画像領域と第2の被写体像α12において検出された顔画像領域との検出結果の照合処理が行われることにより,顔画像領域C22とC24とがリング付けされることとなる。したがって,第1の被写体像α11(第2の被写体像α12でもよい)における顔画像領域は,人物像S13の顔画像領域C22に決定される。
図17は,第1の被写体像α11および第2の被写体像α12を用いて顔画像領域を決定する処理手順を示すフローチャートである。
上述のように,第1のディジタル・スチル・カメラ151および第2のディジタル・スチル・カメラ152によって被写体が同時に撮像されることにより,第1の被写体像および第2の被写体像が得られる。これらの第1の被写体像および第2の被写体像が読み取られる(ステップ61,63)。読み取られた第1の被写体像における顔画像の検出処理(ステップ62)および第2の被写体像における顔画像の検出処理(ステップ64)が並行して行われる。
第1の被写体像における顔画像の検出処理の結果と第2の被写体像における顔画像の検出処理の結果との照合処理が行われる(ステップ65)。照合結果が反映されて検出結果として登録される(ステップ66)。
図18は,図17の処理手順の変形例を示すフローチャートである。この図において図17に示す処理と同一の処理については同一符号を付している。
第1の被写体像と第2の被写体像が得られる(ステップ61,63)。図17に示す処理においては,第1の被写体像における顔画像の検出処理と第2の被写体像における顔画像の検出処理とが並行して行われていたが,この変形例においては,最初に第1の被写体像における顔画像の検出処理が行われ(ステップ62),続いて第2の被写体像における顔画像の検出処理が行われる(ステップ64)。その後,検出結果の照合処理(ステップ65),検出結果が登録される(ステップ66)。
図19(A),(B)から図22(A),(B)は,他の変形例を示すもので被写体像の一例である。
図19(A)および(B)は,互いの撮像範囲が一部一致するが完全には一致しない第1のディジタル・スチル・カメラ151および第2のディジタル・スチル・カメラ152を用いて同時に被写体を撮像して得られた被写体像を示している。
(A)に示す被写体像α13には,人物像S15およびS16が含まれている。顔検出処理により人物像S15の顔の部分のスコアは8であり,人物像S16の顔の部分のスコアは4である。(B)に示す被写体像α14には,人物像S17およびS18が含まれている。顔検出処理により人物像S17の顔の部分のスコアは4であり,人物像S18の顔の部分のスコアは6である。人物像S16と人物像S17とは同一の人物を撮像したものである。
図20(A)〜(C)は,図19(A)および(B)において上記のようにスコアが得られた場合に顔画像領域の決定を行うやり方を示している。
このやり方では,被写体像α13およびα14のそれぞれにおいて検出されるスコアを個別に判断して顔画像領域の判定が行われる。(A)および(B)を参照して,スコア8をもつ人物像S15の顔画像部分およびスコア6をもつ人物像S18の顔画像部分は,それぞれスコアが高いので(たとえば,顔画像と判定されるスコアのしきい値はスコア5)顔画像領域C25およびC26と判定される。スコア4をもつ人物像S16,S17はスコアが低いので顔画像領域とは認められない。
このようにして,顔画像領域が検出された被写体像α13およびα14の同一部分が重ね合わせられて(座標変換),(C)に示す合成被写体像α17が得られる。座標変換を行うためにコンピュータ装置153にはディジタル・スチル・カメラ151と152との位置関係がセットされているのはいうまでもない。
図21(A)および(B)は,被写体像α13およびα14を,同一部分が重ね合わせられた合成被写体像α18およびα19である。
(A)を参照して,人物像S25の顔画像部分のスコアは8であり,人物像S16の顔画像部分のスコアは,図20(A)および(B)に示すように被写体像α13における人物像S16のスコア4および被写体像α14における人物像S17のスコア4を加算したスコア8とされている。
人物像S16の顔画像の部分は,スコア8となるので,(B)に示すように顔画像領域C28と決定される。
図22は,被写体像α13およびα14を,同一部分が重ね合わせられた合成被写体像α20およびα21である。
重み付け係数を用いて重み付けが行われた後に顔画像領域の判定が行われる。顔検出により得られたスコアが仮スコアとされ,その仮スコアに重み付け係数が乗じられたものがスコアとされる。人物像S15の顔画像部分の重み付け係数は1であり,その仮スコアは8であり,スコアは8となる。人物像S16の顔画像部分のスコアは,図20(A)および(B)に示すように被写体像α13における人物像S16の仮スコア4に重み付け係数1が乗じられた値と被写体像α14における人物像S17の仮スコア4に重み付け係数2が常時螺よれた値とを加算したスコア12とされている。人物像S18の顔画像部分の重み付け係数は2であり,その仮スコアは8であり,スコアは16となる。
顔画像領域と判定されるスコアのしきい値がスコア7.5とすると,すべてのスコアがそのスコア以上となるので,図21(B)に示すように人物像S15,S16およびS18のそれぞれの顔画像部分が顔画像領域C25,C28およびC26と決定される。
図23は,単板撮像素子の受光面の一例である。
単板撮像素子の受光面上には,赤色の光成分を透過するRフィルタ(Rで示す),緑色の光成分を透過するGフィルタ(Gで示す)および青色の光成分を透過するBフィルタ(Bで示す)が一定周期で規則的に配列されている。
Rフィルタを透過した光成分が光電変換されることにより,赤色の信号成分が得られる。得られた赤色の信号成分によって,図24(A)に示すように赤色成分の被写体像が得られる。同様に,Gフィルタを透過した光成分が光電変換されることにより,緑色の信号成分が得られる。得られた緑色の信号成分によって,図24(B)に示すように緑色成分の被写体像が得られる。Bフィルタを透過した光成分が光電変換されることにより,青色信号成分が得られる。得られた青色の信号成分によって,図24(C)に示すように青色成分の被写体像が得られる。
このようにして得られた赤色信号成分の被写体像,緑色信号成分の被写体像および青色信号成分の被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することができる。
図25(A),(B)および(C)は,補間処理された赤色信号成分の被写体像,緑色信号成分の被写体像および青色信号成分の被写体像を表している。これらのように,補間処理された3つの被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定するようにしてもよい。
図26(A),(B)および(C)は,3板の固体電子撮像素子の受光面を示している。3板の固体電子撮像素子からは,それぞれの固体電子撮像素子から(A)に示す赤色信号成分の被写体像,(B)に示す緑色信号成分の被写体像,(C)に示す青色信号成分の被写体像がそれぞれ得られる。得られた3つの被写体像のうちの2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定できる。
図27(A)は,可視光センサ(撮像素子)の受光面を示し,(B)は,赤外センサの受光面を示している。
(A)を参考にして,可視光センサには,図23に示す単板の撮像素子と同様に,Rフィルタ,GフィルタおよびBフィルタが一定周期で規則的に配列されている。(B)を参考にして赤外センサには,赤外線領域の光成分を透過するIRフィルタが設けられている。(A)に示す受光面をもつ可視光センサから出力された映像信号によって表される可視光像と,(B)に示す受光面をもつ可視光センサから出力された映像信号によって表される赤外光像との2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することもできる。
図28は,可視光/赤外センサの受光面を示している。
可視光/赤外センサの受光面には,Rフィルタ,Gフィルタ,BフィルタおよびIRフィルタが一定周期で規則的に配列されている。可視光/赤外センサから,赤色成分の映像信号によって表される被写体像,緑色成分の映像信号によって表される被写体像,青色成分の映像信号によって表される被写体像および赤外光成分の映像信号によって表される被写体像が得られる。これらの4つの被写体像の中から2つの被写体像を用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することもできる。
異なる撮像装置(撮像素子,センサ)を用いて被写体を撮像することにより,上述したように,第1の被写体像と第2の被写体像を得て顔画像領域を検出する場合には,第1の被写体像において行われた顔画像検出処理において得られた顔画像らしさの第1のスコアと第2の被写体像において行われた顔画像検出処理において得られた顔画像らしさの第2のスコアとの和にもとづいて顔画像領域を決定してもよいし,第1のスコアと第2のスコアとの和に重み付けをつけて顔画像領域を決定してもよいし,第1のスコアと第2のスコアとに重み付けを付けて,重み付けが付けられたスコアの和にもとづいて顔画像領域を決定してもよい。もちろん,これらの顔画像領域の決定処理を組み合わせて顔画像領域を決定するものでもよい。
図29から図31は,顔画像検出処理における処理タイミングを示すタイム・チャートである。固体電子撮像素子がインターレース走査されることにより,第1フィールドの被写体像と第2フィールドの被写体像とが交互に得られる。いずれも時刻t1〜t2の間に露光が行われることにより,被写体が撮像されている。そして,時刻t2〜t3の間に第1フィールドの被写体像を表す映像信号の読み出しが行われている。
得られた第1フィールドの被写体像と第2フィールドの被写体像とを用いて図16に示すように顔画像検出処理が行われることにより,顔画像領域を決定することができる。
図29は,読み出しが完了したフィールドの被写体像から順に顔画像の検出処理が行われるものである。
時刻t2から第2フィールドの映像信号の読み出しが開始されるとともに第1フィールドの被写体像の顔画像検出処理が行われる。第2フィールドの映像信号の読み出しが時刻t4において終了し,第1の被写体像の顔画像検出処理が時刻t5において終了する。第2フィールドの映像信号の読み出し終了後の時刻t5から第2の被写体像の顔画像検出処理が終了する。2つの被写体像の顔画像検出処理の終了までの時間が短縮される。
図30は,すべてのフィールドの被写体像の映像信号の読み出しが完了後に順に顔画像の検出処理が行われるものである。
時刻t3に第1フィールドの映像信号の読み出しが終了すると,第2フィールドの映像信号読み出しが開始され,時刻t4に終了する。第1フィールドの映像信号と第2フィールドの映像信号の読み出しの両方ともが完了した時刻t4から第1の被写体像の顔画像検出処理が開始され,時刻t5において終了する。時刻t5から第2の被写体像の顔画像検出処理が開始され,時刻t6において終了する。読み出し処理と顔画像検出処理か異なる時間帯において行われるので,処理する装置の負担が軽くなる。
図31は,すべてのフィールドの被写体像の映像信号の読み出しが完了後に2つの被写体像の顔画像検出が同時に行われるものである。
時刻t4までに第1フィールドの映像信号の読み出しおよび第2フィールドの映像信号の読み出しが順に終了する。時刻t5からt6の間に第1の被写体像の顔画像検出および第2の被写体像の顔画像検出が並行して行われる。
図32は,第1フィールドの被写体像と第2フィールドの被写体像とから顔画像検出処理の処理手順を示すフローチャートである。
第1フィールドの被写体像および第2フィールドの被写体像が取得され(ステップ71,72),第1フィールドの被写体像の顔画像検出処理(ステップ73),第2フィールドの被写体像の顔画像検出処理(ステップ74)が行われる。
顔画像検出処理により得られた検出結果の照合が行われ(ステップ75),照合結果が反映された検出結果が登録される(ステップ76)。
図33は,他の実施例を示すもので,いわゆるブラケット撮像により得られた被写体像等を示している。
露出量が比較的少ないE1に設定されて被写体が撮像されることにより,少し暗めの第1の被写体像α21が得られる(暗さがハッチングにより表されている)。第1の被写体像α21には,人物像S30が含まれている。第1の被写体像α21において顔画像検出処理が行われることにより,人物像S30の顔画像部分が顔画像領域C33として検出される。また,顔画像領域C34も検出される。
つづいて,同じ被写体が,露出量が比較的高いE2に設定されて被写体が撮像されることにより,明るめの第1の被写体像α22が得られる。第2の被写体像α22にも,大1の被写体像α21の人物像S30に対応する人物像S35が含まれている。第2の被写体像α22において画像検出処理が行われることにより,人物像S35の顔画像部分が顔画像領域S35として検出される。また,顔画像領域C36も検出される。
第1の被写体像α21の顔画像領域の検出結果と第2の被写体像α22の顔画像領域の検出結果との照合処理が行われることにより,第2の被写体像α22の顔画像領域C35が顔画像領域として決定される。第1の被写体像α21において検出された顔画像領域C34および第2の被写体像α22において検出された顔画像領域C36は顔画像領域とは扱われないのは理解されよう。
図34は,被写体に暗い部分が含まれている場合においていわゆるブラケット撮像により得られた被写体像等を示している。
露出量が比較的少ないE1に設定されて被写体が撮像されることにより,上述のように少し暗めの第1の被写体像α23が得られる。第1の被写体像α23には,人物像S32および木陰に存在する人物像S33が含まれている。第1の被写体像α23に顔画像検出処理が行われることにより,人物像S32の顔画像部分が顔画像領域S32として検出されるが,人物像S33は木陰にあるために人物像S33の顔画像部分は顔画像領域としては検出されない。
露出量が比較的高いE2に設定されて同じ被写体が撮像されることにより,明るめの第2の被写体像α24が得られる。第2の被写体像α24には,第1の被写体像α23に含まれている人物像S32とS33に対応する人物像S34とS35とが含まれている。人物像S35が存在する部分はあまり暗くないので,第2の被写体像α24に顔画像検出処理が行われることにより,人物像S34の顔画像部分および人物像S35の顔画像部分のそれぞれが顔画像領域C38およびC39として検出される。
上述した検出結果の照合処理を停止して,検出されたすべての顔画像領域C37,C38およびC39を加算することにより,第1の被写体像α23において検出されなかった顔画像領域が顔画像領域C39として検出できる。
図35は,信号処理を変えることにより得られる被写体像等を示している。
第1の被写体像α25は,輪郭強調処理を大きくしてノイズが多く含まれているものである。第1の被写体像α25には,人物像S36が含まれており,顔画像検出処理が行われることにより,顔画像部分が顔画像領域C40として検出される。また,顔画像領域C41も検出される。
第2の被写体像α26は,輪郭強調処理を少なくしてノイズが少ないものである。第2の被写体像α26にも,第1の被写体像α25に含まれている人物像S36に対応する人物像S37が含まれている。第2の被写体像α26に顔画像検出処理が行われることにより,人物像S37の顔画像部分が顔画像領域C42として検出される。また,顔画像領域C43も検出される。
これらの第1の被写体像α25の顔画像の検出結果と第2の被写体像α26の検出結果とが照合されることにより,顔画像領域C42が顔画像領域として決定される。
図36は,異なる信号処理により得られた2つの被写体像について顔画像検出処理が行われる場合の処理手順を示すフローチャートである。
被写体が撮像され(ステップ81),撮像により得られた被写体像に第1の信号処理が行われることにより第1の被写体像が得られ(ステップ82),その被写体像に第2の信号処理が行われることにより第2の被写体像が得られる(ステップ83)。第1の被写体像の顔画像検出処理が行われ(ステップ84),第2の被写体像の顔画像検出処理が行われる(ステップ85)。
第1の被写体像の顔画像検出結果と第2の被写体像の顔画像検出結果との照合処理が行われ(ステップ86),照合の結果得られる検出結果が登録される(ステップ87)。
図37から図44は,検出された顔画像を利用する処理手順を示すフローチャートである。
図37および図38は,検出された顔画像領域を用いて自動露出調整を行う処理手順を示すフローチャートである。
図37を参照して,顔画像の検出結果が読み取られ(ステップ91),顔画像領域の有無が判定される(ステップ92)。
顔画像領域があれば(ステップ92でYES),検出された顔画像領域内の画像の明るさがそれぞれ算出される(ステップ93)。顔画像領域が複数あれば(ステップ94でYES),もっとも明るい顔画像領域が選択される(ステップ95)。選択された顔画像領域内の画像にもとづいて測光値が算出される顔重点マルチパターン測光が行われる(ステップ96)。顔画像領域が1つだけであれば,その顔画像領域内の画像にもとづいて顔重点マルチパターン測光が行われる(ステップ96)。
顔画像領域が無ければ(ステップ92でNO),中央部分にもとづいて測光値が算出される中央重点マルチパターン測光が行われる(ステップ97)。
図38は,自動露出調整の他の処理手順を示している。図38において図37に示す処理については同じ符号を付して説明を省略する。
図38に示す処理においては,顔画像領域が複数あった場合には(ステップ101でYES),もっとも顔画像領域の大きいものが選択される(ステップ102)。選択された顔画像領域内の画像にもとづいて測光が行われる(ステップ96)。
図39および図40は,検出された顔画像領域を利用して自動合焦制御を行う処理手順を示すフローチャートである。
図39を参照して,顔画像検出結果が読み取られ(ステップ111),顔画像領域があれば(ステップ112でYES),顔画像領域が複数かどうかが確認される(ステップ113でYES)。顔画像領域が複数あると(ステップ113でYES)。もっとも大きい顔画像領域が選択されて(ステップ114),その選択された顔画像領域内の画像が合焦領域として設定される(ステップ115)。また,顔画像領域が一つしかなければ(ステップ113でNO),その一つの顔画像領域が合焦領域として設定される(ステップ115)。設定された領域が合焦するように自動合焦処理が行われる(ステップ117)。
顔画像領域がなければ(ステップ112でNO),被写体像の中央部分が合焦するように自動合焦処理が行われる(ステップ116)。
図40は,自動合焦制御の他の例を示している。図40において図39と同じ処理については同じ符号を付して説明を省略する。
顔画像領域が複数ある場合には(ステップ113でYES),被写体像のうちもっとも中央に近い部分の顔画像領域が選択される(ステップ118)。
図41および図42は,階調補正処理を示すフローチャートである。
図41を参照して,顔画像領域の検出結果が読み取られ(ステップ121でYES),顔画像領域があれば(ステップ122でYES),各顔画像領域における画像の明るさが算出される(ステップ123)。顔画像領域が複数あれば(ステップ124でYES),もっとも明るい顔画像領域が選択される(ステップ125)。顔画像領域が一つだけであれば(ステップ124でNO),その顔画像領域が設定される。選択または設定された顔画像領域内の画像にもとづいて階調補正処理が行われる(ステップ127)。顔画像領域がなければ(ステップ122でNO),所定の階調補正処理が行われる(ステップ126)。
図42は,階調補正処理の他の処理を示している。図42において図41に示す処理と同じ処理については同じ符号を付して説明を省略する。
顔画像領域が複数あれば(ステップ124でYES),もっとも大きな顔画像領域が選択される(ステップ128)。選択された顔画像領域内の画像を用いて階調補正が行われる(ステップ129)。
図43および図44は,色補正処理を示すフローチャートである。
図43を参照して,顔画像領域が読み取られ(ステップ131),顔画像領域があるかどうかが確認される(ステップ132)。顔画像領域があり(ステップ132でYES),顔画像領域が複数ある場合には(ステップ133でYES),もっとも大きな顔画像領域が選択される(ステップ144)。顔画像領域が一つしか存在しない場合には(ステップ133でNO),その顔画像領域が設定される。選択または設定された顔画像領域内の画像から色情報が取得されて(ステップ145),所望の色の画像となるように色補正が行われる(ステップ147)。顔画像領域が存在しない場合には(ステップ132でNO),所定の色補正が行われる(ステップ146)。
図44は,色補正処理の他の例を示している。図44において図43に示す処理と同じ処理については同じ符号を付して説明を省略する。
顔画像領域がある場合には(ステップ132でYES),その顔画像領域の色情報が取得される(ステップ148)。顔画像領域が複数ある場合には,所望の色にもっとも近い色の顔画像領域が選択される(ステップ149)。顔画像領域が一つしか存在しない場合には(ステップ133でNO),その顔画像領域が設定される。選択された顔画像領域または選択された顔画像領域内の画像が所望の色となるように色補正が行われる(ステップ147)。
上述の実施例においては,顔画像を検出するものであったが顔画像以外の画像,例えば,目の画像などを同様にして決定するようにしてもよい。
上述したように決定された顔画像領域にもとづいて,自動露出制御等が行われるほかに,決定された顔画像領域にもとづいて,フラッシュ(ストロボ)制御,省電力制御,ズーム量制御,ゲイン調整,白バランス調整,輪郭強調,ノイズ低減などを行うようにしてもよい。
2 制御回路
3 CPU
6 ストロボ制御回路
7 ストロボ発光装置
10 撮像素子
17 顔検出処理回路

Claims (25)

  1. ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出する第1の検出手段,
    上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出する第2の検出手段,
    上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定する決定手段,ならびに
    上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換する位置変換手段を備え,
    上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものであり,
    被写体を撮像して被写体像を表す画像データを出力する撮像装置,
    プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御する第1の撮像制御手段,および
    本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御する第2の撮像制御手段をさらに備え,
    上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものであり,
    上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものである,
    対象画像の位置検出装置。
  2. 上記第1の検出手段と上記第2の検出手段とが共通のものである,請求項1に記載の対象画像の位置検出装置。
  3. 上記本撮像指令に応じた撮像がストロボ発光に同期して行われるかどうかを判定する判定手段,および
    上記判定手段によりストロボ発光に同期して行われると判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段,
    をさらに備えた請求項1または2に記載の対象画像の位置検出装置。
  4. 上記第1の撮像制御手段における制御にもとづいて上記撮像装置から出力される第1の画像データにもとづいて上記撮像装置の露出量を調整する露出量調整手段をさらに備え,
    上記第2の撮像制御手段における制御は,上記露出量調整手段によって調整された露出量にもとづいて本撮像指令に応じて上記撮像装置から上記第2の画像データを出力させるものであり,
    上記第1の撮像制御手段によって制御される上記撮像装置の露出量がしきい値以下かどうかを判定する判定手段,および
    上記判定手段によって,しきい値以下と判定されたことに応じて,上記決定手段における決定処理を停止して上記第2の検出手段によって検出された第2の位置を,上記対象画像が存在する位置と決定するように上記決定手段を制御する決定制御手段,
    をさらに備えた請求項1から3のうちいずれか一項に記載の対象画像の位置検出装置。
  5. 上記決定手段が,上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置との変動量が所定のしきい値以上の場合に,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在しないと決定するものである,
    請求項1から4のうちいずれか一項に記載の対象画像の位置検出装置。
  6. 上記第1の検出手段は,ほぼ同一と見なせる被写体を時間的に連続して複数回撮像することにより得られた複数駒の被写体像のうちの第1番目の撮像により得られた第1の被写体像から対象画像が存在する第1の位置を検出するものであり,
    上記第2の検出手段は,上記複数駒の被写体像のうちの第2番目の撮像により得られた第2の被写体像から対象画像が存在する第2の位置を検出するものであり,
    上記複数駒の被写体像のうちの第3番目の撮像により得られた第3の被写体像から対象画像が存在する第3の位置を検出する第3の検出手段をさらに備え
    上記決定手段は,上記第1の検出手段によって検出された第1の位置,上記第2の検出手段によって検出された第2の位置および上記第3の検出手段によって検出された第3の位置にもとづいて上記第1の被写体像,上記第2の被写体像および上記第3の被写体像のうち少なくとも一つの被写体像において上記対象画像が存在する位置を決定するものである,
    請求項1から5のうちいずれか一項に記載の対象画像の位置検出装置。
  7. 上記決定手段は,上記第3の検出手段によって検出された第3の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在しない第3の位置と,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置と上記第3の検出手段によって検出された第3の位置との両方に対応するものが存在しない第1の位置とにもとづいて,上記第3の被写体像において上記対象画像が存在する位置を決定するものである,
    請求項6に記載の対象画像の位置検出装置。
  8. 上記第1の検出手段は,上記第1の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第1の位置を検出するものであり,
    上記第2の検出手段は,上記第2の被写体像から対象画像らしさの値にもとづいて対象画像が存在する第2の位置を検出するものであり,
    上記決定手段は,上記第1の検出手段において検出された対象画像の対象画像らしさの値と上記第2の検出手段において検出された対象画像の対象画像らしさの値とにもとづいて,対象画像の存在する位置を決定するものである,
    請求項1から7のうちいずれか一項に記載の対象画像の位置検出装置。
  9. 上記撮像装置は,受光面上に複数色の色フィルタが規則的に設けられており,被写体を撮像することによりカラーの被写体像を表す複数色のカラー画像データを出力する単板の固体電子撮像装置であり,
    上記第1の被写体像は,上記単板の固体電子撮像装置から出力された上記複数色のカラー画像データのうち一色のカラー画像データによって表され,上記第2の被写体像は,上記複数色のカラー画像データのうち上記一色のカラー画像データとは異なる色のカラー画像データによって表されるものである,
    請求項1から8のうちいずれか一項に記載の対象画像の位置検出装置。
  10. 上記撮像装置は,受光面上に異なる色の色フィルタが設けられている複数の固体電子撮像素子を含み,被写体を撮像することにより異なる色の種類のカラー画像データを出力するものであり,
    上記第1の被写体像は,上記固体電子撮像装置から出力された上記カラー画像データのうちの一種類のカラー画像データによって表され,上記第2の被写体像は,上記カラー画像データのうち上記一種類のカラー画像データとは異なる種類のカラー画像データによって表されるものである,
    請求項1から9のうちいずれか一項に記載の対象画像の位置検出装置。
  11. 被写体を撮像することにより上記第1の被写体像を可視光像として表す可視光画像データを出力する可視光センサ,および
    被写体を撮像することにより上記第2の被写体像を赤外光像として表す赤外光画像データを出力する赤外光センサをさらに備え,
    上記第1の検出手段は,上記可視光センサから出力された可視光画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものであり,
    上記第2の検出手段は,上記赤外光センサから出力された赤外光画像データによって表される複数駒の被写体像のうちの第2の被写体像から上記対象画像が存在する位置を検出するものである,
    請求項1から10のうちいずれか一項に記載の対象画像の位置検出装置。
  12. 上記撮像装置は,受光面上に可視光フィルタと赤外光フィルタとが含まれており,被写体像を撮像することにより第1の被写体像を可視光像として表す可視光画像データを出力し,かつ第2の被写体像を赤外光像として表す赤外光像画像データを出力するものであり,
    上記第1の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された可視光画像データによって表される第1の被写体像から対象画像が存在する位置を検出するものであり
    上記第2の検出手段は,上記可視光/赤外光固体電子撮像装置から出力された赤外光画像データによって表される第2の被写体像から対象画像が存在する位置を検出するものである,
    請求項1から11のうちいずれか一項に記載の対象画像の位置検出装置。
  13. 上記撮像装置は,一定周期で被写体を撮像して,第1フィールドの被写体像を表す第1の画像データと第2フィールドの被写体像を表す第2の画像データとを交互に出力するものであり,
    上記第1の検出手段は,上記撮像装置から出力された第1フィールドの画像データによって表される第1のフィールドの被写体像から上記対象画像が存在する位置を検出するものであり,
    上記第2の検出手段は,上記撮像装置から出力された第2フィールドの画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものである,
    請求項1から12のうちいずれか一項に記載の対象画像の位置検出装置。
  14. 上記撮像装置が,ほぼ同一と見なせる被写体を,撮像条件を変更して同時または連続して撮像して複数駒の被写体像を表す画像データを出力するものである,
    請求項1から13のうちいずれか一項に記載の対象画像の位置検出装置。
  15. 上記撮像条件の変更が,露出量,絞り値,シャッタ速度,フォーカス量,ズーム量,感度およびフラッシュ変更の少なくとも一つである,請求項1から14のうちいずれか一項に記載の対象画像の位置検出装置。
  16. 被写体を撮像して一駒の被写体像を表す画像データに異なる信号処理を行う信号処理手段をさらに備え,
    上記第1の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理が行われた画像データによって表される第1の被写体像から上記対象画像が存在する位置を検出するものであり,
    上記第2の検出手段は,上記信号処理手段によって行われた信号処理のうち一の信号処理とは異なる他の信号処理が行われた画像データによって表される第2の被写体像から上記対象画像が存在する位置を検出するものである,
    請求項1から15のうちいずれか一項に記載の対象画像の位置検出装置。
  17. 上記決定手段は,上記第1の検出手段によって検出された第1の位置のうち,上記第2の検出手段によって検出された第2の位置に対応するものが存在する第1の位置近傍の位置を上記被写体像において上記対象画像が存在する位置と決定するものである,
    請求項1から16のうちいずれか一項に記載の対象画像の位置検出装置。
  18. 上記決定手段によって決定された上記対象画像の存在位置にもとづいて,ハードウエア制御を行うハードウエア制御手段をさらに備えた請求項1から17のうちいずれか一項に記載の対象画像の位置検出装置。
  19. 上記ハードウエア制御が自動露出制御,自動合焦制御,フラッシュ制御,省電力制御およびズーム量制御の少なくとも一つである,請求項1から18のうちいずれか一項に記載の対象画像の位置検出装置。
  20. 上記決定手段において決定された上記対象画像の存在位置にもとづいて,信号処理を行う信号処理手段をさらに備えた請求項1から19のうちいずれか一項に記載の対象画像の位置検出装置。
  21. 上記信号処理手段が,ゲイン調整,白バランス調整,色補正,輪郭強調,ノイズ低減および階調補正の少なくとも一つの信号処理を行うものである,請求項1から20のうちいずれか一項に記載の対象画像の位置検出装置。
  22. 上記対象画像が顔または目の画像である,請求項1から21のうちいずれか一項に記載の対象画像の位置検出装置。
  23. 第1の検出手段が,ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出し,
    第2の検出手段が,上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出し,
    決定手段が,上記第1の検出手段によって検出された第1の位置と上記第2の検出手段によって検出された第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定し,
    位置変換手段が,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,上記第1の検出手段によって検出された第1の位置および上記第2の検出手段によって検出された第2の位置の少なくとも一方の位置を変換し,
    上記決定手段は,上記位置変換手段によって変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定するものであり,
    撮像装置が,被写体を撮像して被写体像を表す画像データを出力し,
    第1の撮像制御手段が,プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように上記撮像装置を制御し,
    第2の撮像制御手段が,本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御し,
    上記第1の検出手段は,上記第1の撮像制御手段の制御のもとに上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出するものであり,
    上記第2の検出手段は,上記第2の撮像制御手段の制御のもとに上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出するものである,
    対象画像の位置検出方法。
  24. 対象画像の位置検出装置のコンピュータを制御するコンピュータ読み取り可能なプログラムであって,
    ほぼ同一と見なせる被写体を連続して撮像することにより得られた複数駒の被写体像のうちの第1の被写体像から対象画像が存在する第1の位置を検出させ,
    上記複数駒の被写体像のうち第2の被写体像から上記対象画像が存在する第2の位置を検出させ,
    検出された上記第1の位置と検出された上記第2の位置とにもとづいて,上記第1の被写体像および上記第2の被写体像の少なくとも一方の被写体像において上記対象画像が存在する位置を決定させ,
    上記第1の被写体像の大きさと上記第2の被写体像の大きさとが異なるものであり,上記第1の被写体像の大きさと上記第2の被写体像の大きさとが同じである場合における位置となるように,検出された上記第1の位置および検出された上記第2の位置の少なくとも一方の位置を変換させ,
    変換された上記第1の位置と上記第2の位置とにもとづいて,上記対象画像が存在する位置を決定させ,
    プレ撮像指令に応じて,被写体を撮像して上記第1の被写体像を表す第1の画像データを出力するように撮像装置を制御させ,
    本撮像指令に応じて,被写体を撮像して上記第2の被写体像を表す第2の画像データを出力するように上記撮像装置を制御させ,
    上記第1の位置の検出処理は,上記撮像装置から出力された第1の画像データによって表される第1の被写体像の中から上記対象画像が存在する位置を検出させ,
    上記第2の位置の検出処理は,上記撮像装置から出力された第2の画像データによって表される第2の被写体像の中から上記対象画像が存在する位置を検出させるものである,
    対象画像の位置検出装置のコンピュータを制御するプログラム。
  25. 請求項24に記載のプログラムを格納した記録媒体。
JP2009258940A 2009-11-12 2009-11-12 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム Expired - Fee Related JP5000699B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009258940A JP5000699B2 (ja) 2009-11-12 2009-11-12 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009258940A JP5000699B2 (ja) 2009-11-12 2009-11-12 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005269387A Division JP4431532B2 (ja) 2005-09-16 2005-09-16 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム

Publications (2)

Publication Number Publication Date
JP2010035237A JP2010035237A (ja) 2010-02-12
JP5000699B2 true JP5000699B2 (ja) 2012-08-15

Family

ID=41739087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009258940A Expired - Fee Related JP5000699B2 (ja) 2009-11-12 2009-11-12 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム

Country Status (1)

Country Link
JP (1) JP5000699B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6368593B2 (ja) * 2014-09-02 2018-08-01 任天堂株式会社 画像処理プログラム、情報処理システム、画像処理方法
EP2993645B1 (en) 2014-09-02 2019-05-08 Nintendo Co., Ltd. Image processing program, information processing system, information processing apparatus, and image processing method
JP6648424B2 (ja) * 2015-06-19 2020-02-14 カシオ計算機株式会社 検出装置、検出方法、プログラム及び合焦装置
JP6626332B2 (ja) * 2015-12-09 2019-12-25 キヤノン株式会社 撮像装置及びその制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002232783A (ja) * 2001-02-06 2002-08-16 Sony Corp 画像処理装置および画像処理方法、並びにプログラム記憶媒体
JP4539015B2 (ja) * 2002-12-11 2010-09-08 ソニー株式会社 画像通信装置、および画像通信方法、並びにコンピュータ・プログラム

Also Published As

Publication number Publication date
JP2010035237A (ja) 2010-02-12

Similar Documents

Publication Publication Date Title
JP4431532B2 (ja) 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
US8026932B2 (en) Image processing apparatus, image processing method, image processing program, and image pickup apparatus
JP4537255B2 (ja) 撮像装置および撮像方法
US7582871B2 (en) Image pickup apparatus and a switching-over method for the same
CN111107276B (zh) 信息处理设备及其控制方法、存储介质以及摄像系统
JP6394338B2 (ja) 画像処理装置、画像処理方法、及び撮像システム
JP2006352795A (ja) 撮像装置及び画像処理方法
US7486884B2 (en) Imaging device and imaging method
JP2008236101A (ja) 撮像装置および撮像方法
US9589339B2 (en) Image processing apparatus and control method therefor
US20090322897A1 (en) Digital image processing apparatus having self-navigator function, and operation method of the digital image processing apparatus
JP7516471B2 (ja) 制御装置、撮像装置、制御方法およびプログラム
JP2008299784A (ja) 被写体判定装置及びそのプログラム
JP5000699B2 (ja) 対象画像の位置検出装置および方法ならびに対象画像の位置検出装置を制御するプログラム
CN100508558C (zh) 图像捕获设备及控制方法、图像处理设备
JP5228717B2 (ja) 画像入力装置
JPH11113018A (ja) 撮像装置
KR20180101951A (ko) 영상처리장치 및 영상처리방법
US20210289119A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP5566680B2 (ja) 撮像装置及び撮像方法
JP2015192338A (ja) 画像処理装置および画像処理プログラム
JP2021097347A (ja) 撮像装置およびその制御方法、プログラム
JP2021153229A (ja) 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
JP7455656B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP3985005B2 (ja) 撮像装置、画像処理装置、撮像装置の制御方法、およびこの制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120516

R150 Certificate of patent or registration of utility model

Ref document number: 5000699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees