JP2011101202A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2011101202A
JP2011101202A JP2009254595A JP2009254595A JP2011101202A JP 2011101202 A JP2011101202 A JP 2011101202A JP 2009254595 A JP2009254595 A JP 2009254595A JP 2009254595 A JP2009254595 A JP 2009254595A JP 2011101202 A JP2011101202 A JP 2011101202A
Authority
JP
Japan
Prior art keywords
image
search
unit
imaging
object scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009254595A
Other languages
English (en)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009254595A priority Critical patent/JP2011101202A/ja
Priority to CN201010522106XA priority patent/CN102055903A/zh
Priority to US12/913,128 priority patent/US20110109760A1/en
Publication of JP2011101202A publication Critical patent/JP2011101202A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)

Abstract

【構成】イメージャ16は、被写界を捉える撮像面を有して被写界像を繰り返し生成する。CPU26は、辞書DC_1〜DC_3に収められた顔パターンに符合する顔画像をイメージャ16によって生成された被写界像から探索し、発見された顔画像に相当する動物に注目して撮像パラメータを調整する。CPU26はまた、辞書DC_1〜DC_3に収められた顔パターンに符合する顔画像を撮像パラメータの調整処理が完了した後にイメージャ16によって生成された被写界像から探索し、発見された顔画像に対応する被写界像を記録媒体42に記録する。
【効果】撮像性能を向上させることができる。
【選択図】図2

Description

この発明は、電子カメラに関し、特に、特定物体像を被写界像から探索する、電子カメラに関する。
この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、被写界像は、イメージセンサから繰り返し出力される。CPUは、撮像面を向く顔画像がイメージセンサから出力された被写界像に現れているか否かを、シャッタボタンの半押しに先立って繰り返し判別する。判別結果を含む顔検出履歴は、CPUによって顔検出履歴テーブルに記述される。CPUは、シャッタボタンが半押しされたとき、顔検出履歴テーブルに記述された顔検出履歴に基づいて顔画像位置を決定する。フォーカスなどの撮像条件は、決定された顔画像位置に注目して調整される。これによって、撮像条件を顔画像に注目して良好に調整することができる。
特開2008−187412号公報
しかし、背景技術では、記録画像に現れた顔が必ずしも正面を向くとは限らず、この点で撮像性能に限界がある。
それゆえに、この発明の主たる目的は、撮像性能を向上させることができる、電子カメラを提供することである。
この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段(16)、撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索手段(S9)、第1探索手段によって発見された部分画像に相当する物体に注目して撮像条件を調整する調整手段(S17, S19)、調整手段の調整処理が完了した後に撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第2探索手段(S27)、および撮像手段によって生成された被写界像のうち第2探索手段によって発見された部分画像に対応する被写界像を記録する第1記録手段(S31, S35)を備える。
好ましくは、調整手段の調整処理に要した時間が第1閾値以下のとき第2探索手段の探索処理を制限する制限手段(S21)、および調整手段による調整処理の完了に対応して撮像手段によって生成された被写界像を制限手段の制限処理に関連して記録する第2記録手段(S35)がさらに備えられる。
好ましくは、第1探索手段によって発見された部分画像を覆う一部のエリアを第2探索手段の探索エリアとして定義する定義手段(S23)がさらに備えられる。
或る局面では、第1探索手段は定義手段によって定義されたエリアよりも広いエリアで探索処理を実行する。
他の局面では、第2探索手段の探索処理に要した時間が第2閾値を上回るとき第1探索手段を再起動する再起動手段(S33)がさらに備えられる。
好ましくは、複数の姿勢にそれぞれ対応する複数の特定パターン画像を保持する保持手段(44)がさらに備えられ、第1探索手段は被写界像を形成する部分画像を保持手段によって保持された複数の特定パターン画像の各々と照合する第1照合手段(S73~S81)を含み、第2探索手段は被写界像を形成する部分画像を保持手段によって保持された複数の特定パターン画像の一部と照合する第2照合手段(S89)を含む。
或る局面では、第2照合手段によって注目される一部の特定パターン画像は第1探索手段によって発見された部分画像と符合する特定パターン画像に相当する。
他の局面では、第1探索手段は第1照合手段によって照合される部分画像のサイズを第1範囲で変更する第1サイズ変更手段(S7, S61)をさらに含み、第2探索手段は第2照合手段によって照合される部分画像のサイズを第1範囲よりも狭い第2範囲で変更する第2サイズ変更手段(S25, S61)をさらに含む。
好ましくは、第2探索手段によって発見された部分画像の位置および/またはサイズが第1探索手段によって発見された部分画像の位置および/またはサイズとの間で既定条件を満足するか否かを判別し、否定的な判別結果に対応して第1探索手段を再起動する一方、肯定的な判別結果に対応して第1記録手段を起動する制御手段(S105)がさらに備えられる。
好ましくは、第2探索手段の探索処理の完了後でかつ第1記録手段の記録処理の開始前に撮像面の露光量を調整する露光調整手段(S111)がさらに備えられる。
この発明に従う撮像制御プログラムは、被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索ステップ(S9)、第1探索ステップによって発見された部分画像に相当する物体に注目して撮像条件を調整する調整ステップ(S17, S19)、調整ステップの調整処理が完了した後に撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第2探索ステップ(S27)、および撮像手段によって生成された被写界像のうち第2探索ステップによって発見された部分画像に対応する被写界像を記録する記録ステップ(S31, S35)を実行させるための、撮像制御プログラムである。
この発明に従う撮像制御方法は、被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段(16)を備える電子カメラ(10)によって実行される撮像制御方法であって、撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索ステップ(S9)、第1探索ステップによって発見された部分画像に相当する物体に注目して撮像条件を調整する調整ステップ(S17, S19)、調整ステップの調整処理が完了した後に撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第2探索ステップ(S27)、および撮像手段によって生成された被写界像のうち第2探索ステップによって発見された部分画像に対応する被写界像を記録する記録ステップ(S31, S35)を備える。
この発明によれば、撮像条件は、特定物体像に相当する物体に注目して調整される。また、特定物体像の探索処理は、撮像条件の調整後に再度実行される。さらに、被写界像は、再度の探索処理による特定物体像の発見に対応して記録される。これによって、記録被写界像に特定物体像が出現する頻度と記録被写界像に現れた特定物体像の画質とが向上する。こうして、撮像性能が改善される。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 評価エリアを撮像面に割り当てた状態の一例を示す図解図である。 (A)は辞書DC_1に収められた顔パターンの一例を示す図解図であり、(B)は辞書DC_2に収められた顔パターンの一例を示す図解図であり、(C)は辞書DC_3に収められた顔パターンの一例を示す図解図である。 全域探索処理において参照されるレジスタの一例を示す図解図である。 全域探索処理のために用いられる顔検出枠の一例を示す図解図である。 全域探索処理の一例を示す図解図である。 撮像面によって捉えられた動物を表す画像の一例を示す図解図である。 限定探索処理の一部を示す図解図である。 限定探索処理のために用いられる顔検出枠の一例を示す図解図である。 撮像面によって捉えられた動物を表す画像の他の一例を示す図解図である。 撮像動作の一例を示すタイミング図である。 撮像動作の他の一例を示すタイミング図である。 撮像動作のその他の一例を示すタイミング図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 他の実施例に適用されるCPUの動作の一部を示すフロー図である。 その他の実施例に適用されるCPUの動作の一部を示すフロー図である。 さらにその他の実施例に適用されるCPUの動作の一部を示すフロー図である。
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
図1を参照して、この発明の画像処理装置は、基本的に次のように構成される。撮像手段1は、被写界を捉える撮像面を有して被写界像を繰り返し生成する。第1探索手段2は、撮像手段1によって生成された被写界像から特定パターンを有する部分画像を探索する。調整手段3は、第1探索手段2によって発見された部分画像に相当する物体に注目して撮像条件を調整する。第2探索手段4は、調整手段3の調整処理が完了した後に撮像手段1によって生成された被写界像から特定パターンを有する部分画像を探索する。第1記録手段5は、撮像手段1によって生成された被写界像のうち第2探索手段4によって発見された部分画像に対応する被写界像を記録する。
撮像条件は、特定物体像に相当する物体に注目して調整される。また、特定物体像の探索処理は、撮像条件の調整後に再度実行される。さらに、被写界像は、再度の探索処理による特定物体像の発見に対応して記録される。これによって、記録被写界像に特定物体像が出現する頻度と記録被写界像に現れた特定物体像の画質とが向上する。こうして、撮像性能が改善される。
[実施例]
図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た被写界の光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。
キー入力装置28に設けられたモードキー28mdによって通常撮像モードまたはペット撮像モードが選択されると、CPU26は、通常撮像タスクまたはペット撮像タスクの下で動画取り込み処理を開始するべく、ドライバ18cに露光動作および電荷読み出し動作の繰り返しを命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。
前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32aに書き込まれる。
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理,YUV変換処理などの処理を施し、YUV形式に従う表示画像データおよび探索画像データが個別に作成する。
表示画像データは、メモリ制御回路30によってSDRAM32の表示画像エリア32bに書き込まれる。探索画像データは、メモリ制御回路30によってSDRAM32の探索画像エリア32cに書き込まれる。
LCDドライバ36は、表示画像エリア32bに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。なお、探索画像データに対する処理については、後述する。
図3を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。
AE評価回路22は、前処理回路20によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。
また、AF評価回路24は、前処理回路20から出力されたRGBデータのうち同じ評価エリアEVAに属するGデータの高周波成分を抽出し、抽出された高域周波数成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。
CPU26は、AE評価回路22からの出力に基づく簡易AE処理を動画取り込み処理と並列して実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。
通常撮像モードが選択されている状態でシャッタボタン28shが半押しされると、CPU26は、AE評価回路22の出力に基づくAE処理を通常撮像タスクの下で実行し、これによって算出された最適EV値を定義する絞り量および露光時間をドライバ18bおよび18cにそれぞれ設定する。この結果、スルー画像の明るさが厳格に調整される。CPU26はまた、AF評価回路24からの出力に基づくAF処理を通常撮像タスクの下で実行し、ドライバ18aを通じてフォーカスレンズ12を合焦点に設定する。これによって、スルー画像の鮮鋭度が向上する。
シャッタボタン28shが半押し状態から全押し状態に移行すると、CPU26は、記録処理のために、通常撮像タスクの下でI/F40を起動する。I/F40は、シャッタボタン28shが全押しされた時点の被写界を表す1フレームの表示画像データをメモリ制御回路30を通して表示画像エリア32bから読み出し、読み出された表示画像データが収められた画像ファイルを記録媒体42に記録する。
ペット撮像モードが選択されている場合、CPU26は、ペット撮像タスクと並列して実行される顔検出タスクの下で、探索画像エリア32cに格納された画像データから動物の顔画像を探索する。このような顔検出タスクのために、図4(A)〜図4(C)に示す辞書DC_1〜DC_3,図5に示すレジスタRGST1および図6に示す複数の顔検出枠FD,FD,FD,…が準備される。
図4(A)〜図4(C)によれば、共通する猫の顔パターンが辞書DC_1〜DC_3に収められる。ここで、辞書DC_1に収められた顔パターンは正立した姿勢に対応し、辞書DC_2に収められた顔パターンは左に90°傾斜した姿勢に対応し、辞書DC_3に収められた顔パターンは右に90°傾斜した姿勢に対応する。
図5に示すレジスタRGST1は顔画像情報を保持するためのレジスタに相当し、検出された顔画像の位置(顔画像が検出された時点の顔検出枠FDの位置)を記述するカラムと検出された顔画像のサイズ(顔画像が検出された時点の顔検出枠FDのサイズ)を記述するカラムとによって形成される。
図6に示す顔検出枠FDは、垂直同期信号Vsyncが発生する毎に、探索画像エリア32cに割り当てられた探索エリア上をラスタ走査態様で移動する。顔検出枠FDのサイズは、ラスタ走査が終了する毎に最大サイズSZmaxから最小サイズSZminまで“5”刻みで縮小される。
探索エリアはまず、評価エリアEVAの全域を覆うように設定される。また、最大サイズSZmaxは“200”に設定され、最小サイズSZminは“20”に設定される。したがって、顔検出枠FDは、“200”〜“20”の範囲で変化するサイズを有して、図7に示す要領で評価エリアEVA上を走査される。以下では、図7に示す走査を伴う顔探索処理を“全域探索処理”と定義する。
CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。算出された特徴量は、辞書DC_1〜DC_3の各々に収められた顔パターンの特徴量と照合される。
猫の顔が正立していることを前提として、辞書DC_1に収められた顔パターンの特徴量に対する照合度は、カメラ筐体を正立させた姿勢で猫の顔を捉えたときに基準REFを上回る。また、辞書DC_2に収められた顔パターンの特徴量に対する照合度は、カメラ筐体を右に90°傾斜させた姿勢で猫の顔を捉えたときに基準REFを上回る。さらに、辞書DC_3に収められた顔パターンの特徴量に対する照合度は、カメラ筐体を左に90°傾斜させた姿勢で猫の顔を捉えたときに基準REFを上回る。
照合度が基準REFを上回ると、CPU26は、猫の顔が発見されたとみなし、顔検出枠FDの現時点の位置およびサイズを顔画像情報としてレジスタRGST1に登録するとともに、顔検出枠FDの現時点の位置およびサイズに対応する顔枠キャラクタ表示命令をグラフィックジェネレータ46に向けて発行する。
グラフィックジェネレータ46は、与えられた顔枠キャラクタ表示命令に基づいて顔枠を表すグラフィック画像データを作成し、作成されたグラフィック画像データをLCDドライバ36に与える。LCDドライバ36は、与えられたグラフィック画像データに基づいてLCDモニタ38に顔枠キャラクタKF1を表示する。
撮像面を正立させた姿勢で図8に示す猫EM1を捉えると、辞書DC_1に収められた顔パターンの特徴量に対する照合度が基準REFを上回る。顔枠キャラクタKF1は、猫EM1の顔画像を囲うようにLCDモニタ38に表示される。
照合度が基準REFを上回ったとき、CPU26は、AE評価回路22の出力に基づくAE処理とAF評価回路24からの出力に基づくAF処理とをペット撮像タスクの下で実行する。AE処理およびAF処理は上述の要領で実行され、この結果、スルー画像の明るさが厳格に調整されるとともに、スルー画像の鮮鋭度が向上する。
ただし、AE処理に要する時間は固定的である一方、AF処理に要する時間はフォーカスレンズ12および/または猫の位置によって相違する。このため、AF処理に要した時間が長すぎると、図9に示すように猫の顔の向きが別の向きに変更されるおそれがある。このような懸念を考慮して、CPU26は、AE処理およびAF処理に要した時間をペット撮像タスクの下で測定し、測定時間の長さに応じて異なる処理を以下の要領で実行する。
測定時間が閾値TH1(=たとえば1秒)以下であれば、CPU26は、速やかに記録処理を実行する。記録処理は図12に示すタイミングで実行され、この結果、AF処理が完了した時点の被写界を表す1フレームの表示画像データがファイル形式で記録媒体42に記録される。
測定時間が閾値TH1を上回れば、CPU26は、顔検出タスクの下で猫の顔画像を再度探索する。ただし、CPU26は、レジスタRGST1に登録された顔画像を覆う一部のエリアを探索エリアとして設定する。図10に示すように、探索エリアは、レジスタRGST1に登録された顔サイズの1.3倍の大きさを有して、レジスタRGST1に登録された顔位置に相当する位置に割り当てられる。CPU26はまた、図11に示すように、最大サイズSZmaxをレジスタRGST1に登録された顔サイズの1.3倍の値に設定し、最小サイズSZminをレジスタRGST1に登録された顔サイズの0.8倍の値に設定する。
したがって、顔検出枠FDは、最大サイズSZmaxおよび最小サイズSZminによって定義される一部の範囲で変化するサイズを有して、図10に示す要領で走査される。以下では、図10に示す走査を伴う顔探索処理を“限定探索処理”と定義する。
上述と同様、CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。ただし、限定探索処理が実行される時点ではカメラ筐体の姿勢は特定されているため、算出された特徴量は、辞書DC_1〜DC_3のうちカメラ筐体の姿勢に対応する辞書に収められた顔パターンの特徴量と照合される。
照合度が基準REFを上回ると、CPU26は、猫の顔が再発見されたとみなし、顔検出枠FDの現時点の位置およびサイズに対応する顔枠キャラクタ表示命令をグラフィックジェネレータ46に向けて発行する。この結果、顔枠キャラクタKF1がLCDモニタ38に表示される。
CPU26は、限定探索処理に要する時間をペット撮像タスクの下で測定し、測定された時間を閾値TH2(=たとえば3秒)と比較する。測定時間が閾値TH2に達する前に照合度が基準REFを上回ると、CPU26は速やかに記録処理を実行する。記録処理は図13または図14に示すタイミングで実行され、この結果、照合度が基準REFを上回った時点の被写界を表す画像データがファイル形式で記録媒体42に記録される。これに対して、照合度が基準REFを上回ることなく測定時間が閾値TH2に達すると、CPU26は、記録処理を実行することなく上述した全域探索処理に戻る。
CPU26は、ペット撮像モードが選択されたとき、図15〜図16に示すペット撮像タスクおよび図17〜図20に示す顔検出タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
図15を参照して、ステップS1では動画取り込み処理を実行する。この結果、被写界を表すスルー画像がLCDモニタ38に表示される。ステップS3では、カメラ筐体の姿勢が不定であることを表明するべく、変数DIRを“0”に設定する。ステップS5では評価エリアEVAの全域を探索エリアとして設定する。ステップS7では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズSZmaxを“200”に設定し、最小SZminを“20”に設定する。ステップS7の処理が完了すると、ステップS9で顔検出タスクを起動する。
フラグFLGpetは、起動された顔検出タスクの下で“0”に初期設定され、辞書DC_1〜DC_3に収められた顔パターンと符合する顔画像が発見されたときに“1”に更新される。ステップS11ではこのようなフラグFLGpetが“1”を示すか否かを判別し、判別結果がNOである限り、ステップS13で簡易AE処理を繰り返し実行する。スルー画像の明るさは、簡易AE処理によって適度に調整される。
判別結果がNOからYESに更新されると、ステップS15でタイマTM1のリセット&スタートを実行し、ステップS17およびS19でAE処理およびAF処理をそれぞれ実行する。AE処理およびAF処理の結果、スルー画像の明るさおよびフォーカスが厳格に調整される。
ステップS21では、AF処理が完了した時点のタイマTM1の測定値が閾値TH1を上回るか否かを判別する。判別結果がNOであればそのままステップS35に進み、記録処理を実行する。この結果、AF処理が完了した時点の被写界を表す画像データがファイル形式で記録媒体42に記録される。記録処理が完了すると、ステップS3に戻る。
ステップS21の判別結果がYESであればステップS23に進み、レジスタRGST1に登録された顔画像を覆う一部のエリアを探索エリアとして設定する。探索エリアは、レジスタRGST1に登録された顔サイズの1.3倍の大きさを有して、レジスタRGST1に登録された顔位置に相当する位置に割り当てられる。ステップS25では、最大サイズSZmaxをレジスタRGST1に登録された顔サイズの1.3倍の値に設定するとともに、最小サイズSZminをレジスタRGST1に登録された顔サイズの0.8倍の値に設定する。
ステップS25の処理が完了すると、ステップS27で顔検出タスクを再度起動し、ステップS29でタイマTM1のリセット&スタートを実行する。上述のように、フラグFLGpetは、起動された顔検出タスクの下で“0”に初期設定され、辞書DC_1〜DC_3に収められた顔パターンと符合する顔画像が発見されたときに“1”に更新される。ステップS31ではフラグFLGpetが“1”を示すか否かを判別し、ステップS33ではタイマTM1の測定値が閾値TH2を上回るか否かを判別する。
タイマTM1の測定値が閾値TH2に達する前にフラグFLGpetが“0”から“1”に更新されると、ステップS31でYESと判断し、ステップS35で記録処理を実行する。この結果、フラグFLGpetが“1”に更新された時点の被写界を表す画像データがファイル形式で記録媒体42に記録される。記録処理が完了すると、ステップS3に戻る。
フラグFLGpetが“0”を示したままタイマTM1の測定値が閾値TH2に達したときは、ステップS33でYESと判断し、ステップS35の記録処理を実行することなくステップS3に戻る。
図17を参照して、ステップS41ではフラグFLGpetを“0”に設定し、ステップS43では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されると、ステップS45で顔検出枠FDのサイズを“SZmax”に設定し、ステップS47で顔検出枠FDを探索エリアの左上位置に配置する。ステップS49では顔検出枠FDに属する一部の画像データを探索画像エリア32cから読み出し、読み出された画像データの特徴量を算出する。
ステップS51では、算出された特徴量を辞書DC_1〜DC_3に収められた顔パターンの特徴量と照合する照合処理を実行する。照合処理が完了すると、フラグFLGpetが“1”を示すか否かをステップS53で判別する。判別結果がYESであれば処理を終了する一方、判別結果がNOであればステップS55に進む。
ステップS55では、顔検出枠FDが探索エリアの右下位置に到達したか否かを判別する。判別結果がNOであれば、ステップS57で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS49に戻る。判別結果がYESであれば、顔検出枠FDのサイズが“SZmin”以下であるか否かをステップS59で判別する。判別結果がNOであれば、ステップS61で顔検出枠FDのサイズを“5”だけ縮小させ、ステップS63で顔検出枠FDを探索エリアの左上位置に配置し、その後にステップS49に戻る。ステップS59の判別結果がYESであれば、そのままステップS43に戻る。
図17に示すステップS51の照合処理は、図19〜図20に示すサブルーチンに従って実行される。まず、変数DIRが“0”を示すか否かをステップS71で判別する。判別結果がYESであればステップS73に進む一方、判別結果がNOであればステップS89に進む。ステップS73以降の処理は全域探索処理に対応して実行され、ステップS89以降の処理は限定探索処理に対応して実行される。
ステップS73では、変数DIRを“1”に設定し、ステップS75では顔検出枠FDに属する画像データの特徴量を辞書DC_DIRに収められた顔パターンの特徴量と照合し、ステップS77では照合後が基準REFを上回るか否かを判別する。
判別結果がNOであれば、ステップS79で変数DIRをインクリメントし、インクリメントされた変数DIRが“3”を上回るか否かをステップS81で判別する。DIR≦2であればステップS75に戻る一方、DIR>3であれば上階層のルーチンに復帰する。
ステップS77の判別結果がYESであればステップS83に進み、顔検出枠FDの現在の位置およびサイズを顔画像情報としてレジスタRGST1に登録する。ステップS85では、顔検出枠FDの現時点の位置およびサイズに対応する顔枠キャラクタ表示命令をグラフィックジェネレータ46に向けて発行する。この結果、顔枠キャラクタKF1がスルー画像上にOSD態様で表示される。ステップS85の処理が完了すると、ステップS87でフラグFLGpetを“1”に設定し、その後に上階層のルーチンに復帰する。
ステップS89〜S91では上述したステップS75〜S77と同様の処理を実行する。ステップS89では、辞書DC_1〜DC_3のうちカメラ筐体の姿勢に対応する辞書が参照される。照合度が基準REF以下であればそのまま上階層のルーチンに復帰し、照合度が基準REFを上回ればステップS93〜S95で上述のステップS85〜S87と同様の処理を実行してから上階層のルーチンに復帰する。
以上の説明から分かるように、イメージャ16は、被写界を捉える撮像面を有して被写界像を繰り返し生成する。CPU26は、辞書DC_1〜DC_3に収められた顔パターンに符合する顔画像をイメージャ16によって生成された被写界像から探索し(S9)、発見された顔画像に相当する動物に注目して撮像パラメータを調整する(S17, S19)。CPU26はまた、辞書DC_1〜DC_3に収められた顔パターンに符合する顔画像を撮像パラメータの調整処理が完了した後にイメージャ16によって生成された被写界像から探索し(S27)、発見された顔画像に対応する被写界像を記録媒体42に記録する(S31, S35)。
このように、撮像パラメータは、発見された顔画像に相当する動物に注目して調整される。また、顔画像の探索処理は、撮像パラメータの調整後に再度実行される。さらに、被写界像は、再度の探索処理による顔画像の発見に対応して記録される。これによって、記録被写界像に動物の顔画像が出現する頻度と記録被写界像に現れた動物の顔画像の画質とが向上する。こうして、撮像性能が改善される。
なお、この実施例では、AE処理およびAF処理が完了した後は限定探索処理を実行するようにしている(図16のステップS23〜S25参照)。しかし、限定探索処理に代えて全域探索処理を実行するとともに(ただし、参照する辞書は1つだけ)、1回目の全域探索処理で検出された顔画像の位置および/またはサイズと2回目の全域探索処理で検出された顔画像の位置および/またはサイズとの間で既定条件が満足されるか否かを判別し、判別結果が肯定的であるとき記録処理を実行する一方、判別結果が否定的であるとき1回目の全域探索処理を再起動するようにしてもよい。
この場合、図16に示すフロー図に従う処理に代えて図21に示すフロー図に従う処理が実行される。図21によれば、図16に示すステップS23〜S25の処理がステップS101〜S103の処理によって代替される。ステップS101〜S103では、図15に示すステップS5〜S7と同様の処理が実行される。
また、図21によれば、図16に示すステップS31〜S33の処理がステップS105の処理によって代替される。ステップS105では、1回目の全域探索処理で検出された顔画像の位置および/またはサイズと2回目の全域探索処理で検出された顔画像の位置および/またはサイズとの間で既定条件が満足されるか否かが判別される。判別結果がYESであればステップS35に進み、判別結果がNOであればステップS15に戻る。
さらに、この実施例では、撮像条件は全域探索処理によって顔画像が発見された直後にだけ調整される(図15のステップS17〜S19参照)。しかし、AE処理に要する時間はAF処理に要する時間に比べて格段に短いため、AE処理だけ記録処理の直前に再度実行するようにしてもよい。この場合、図22または図23に示すように、AE処理を再度実行するステップS111が記録処理を実行するステップS35の前段に追加される。
また、この実施例では、静止画像を記録するスチルカメラを想定しているが、この発明は動画像を記録するムービーカメラにも適用できる。
10 …ディジタルカメラ
16 …イメージャ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
44 …フラッシュメモリ
DC_1〜DC_3 …辞書

Claims (12)

  1. 被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段、
    前記撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索手段、
    前記第1探索手段によって発見された部分画像に相当する物体に注目して撮像条件を調整する調整手段、
    前記調整手段の調整処理が完了した後に前記撮像手段によって生成された被写界像から前記特定パターンを有する部分画像を探索する第2探索手段、および
    前記撮像手段によって生成された被写界像のうち前記第2探索手段によって発見された部分画像に対応する被写界像を記録する第1記録手段を備える、電子カメラ。
  2. 前記調整手段の調整処理に要した時間が第1閾値以下のとき前記第2探索手段の探索処理を制限する制限手段、および
    前記調整手段による調整処理の完了に対応して前記撮像手段によって生成された被写界像を前記制限手段の制限処理に関連して記録する第2記録手段をさらに備える、請求項1記載の電子カメラ。
  3. 前記第1探索手段によって発見された部分画像を覆う一部のエリアを前記第2探索手段の探索エリアとして定義する定義手段をさらに備える、請求項1または2記載の電子カメラ。
  4. 前記第1探索手段は前記定義手段によって定義されたエリアよりも広いエリアで探索処理を実行する、請求項3記載の電子カメラ。
  5. 前記第2探索手段の探索処理に要した時間が第2閾値を上回るとき前記第1探索手段を再起動する再起動手段をさらに備える、請求項3または4記載の電子カメラ。
  6. 複数の姿勢にそれぞれ対応する複数の特定パターン画像を保持する保持手段をさらに備え、
    前記第1探索手段は前記被写界像を形成する部分画像を前記保持手段によって保持された複数の特定パターン画像の各々と照合する第1照合手段を含み、
    前記第2探索手段は前記被写界像を形成する部分画像を前記保持手段によって保持された複数の特定パターン画像の一部と照合する第2照合手段を含む、請求項1ないし5のいずれかに記載の電子カメラ。
  7. 前記第2照合手段によって注目される一部の特定パターン画像は前記第1探索手段によって発見された部分画像と符合する特定パターン画像に相当する、請求項6記載の電子カメラ。
  8. 前記第1探索手段は前記第1照合手段によって照合される部分画像のサイズを第1範囲で変更する第1サイズ変更手段をさらに含み、
    前記第2探索手段は前記第2照合手段によって照合される部分画像のサイズを前記第1範囲よりも狭い第2範囲で変更する第2サイズ変更手段をさらに含む、請求項6または7記載の電子カメラ。
  9. 前記第2探索手段によって発見された部分画像の位置および/またはサイズが前記第1探索手段によって発見された部分画像の位置および/またはサイズとの間で既定条件を満足するか否かを判別し、否定的な判別結果に対応して前記第1探索手段を再起動する一方、肯定的な判別結果に対応して前記第1記録手段を起動する制御手段をさらに備える、請求項1ないし8のいずれかに記載の電子カメラ。
  10. 前記第2探索手段の探索処理の完了後でかつ前記第1記録手段の記録処理の開始前に前記撮像面の露光量を調整する露光調整手段をさらに備える、請求項1ないし9のいずれかに記載の電子カメラ。
  11. 被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段を備える電子カメラのプロセッサに、
    前記撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索ステップ、
    前記第1探索ステップによって発見された部分画像に相当する物体に注目して撮像条件を調整する調整ステップ、
    前記調整ステップの調整処理が完了した後に前記撮像手段によって生成された被写界像から前記特定パターンを有する部分画像を探索する第2探索ステップ、および
    前記撮像手段によって生成された被写界像のうち前記第2探索ステップによって発見された部分画像に対応する被写界像を記録する記録ステップを実行させるための、撮像制御プログラム。
  12. 被写界を捉える撮像面を有して被写界像を繰り返し生成する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
    前記撮像手段によって生成された被写界像から特定パターンを有する部分画像を探索する第1探索ステップ、
    前記第1探索ステップによって発見された部分画像に相当する物体に注目して撮像条件を調整する調整ステップ、
    前記調整ステップの調整処理が完了した後に前記撮像手段によって生成された被写界像から前記特定パターンを有する部分画像を探索する第2探索ステップ、および
    前記撮像手段によって生成された被写界像のうち前記第2探索ステップによって発見された部分画像に対応する被写界像を記録する記録ステップを備える、撮像制御方法。
JP2009254595A 2009-11-06 2009-11-06 電子カメラ Pending JP2011101202A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009254595A JP2011101202A (ja) 2009-11-06 2009-11-06 電子カメラ
CN201010522106XA CN102055903A (zh) 2009-11-06 2010-10-22 电子照相机
US12/913,128 US20110109760A1 (en) 2009-11-06 2010-10-27 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009254595A JP2011101202A (ja) 2009-11-06 2009-11-06 電子カメラ

Publications (1)

Publication Number Publication Date
JP2011101202A true JP2011101202A (ja) 2011-05-19

Family

ID=43959788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009254595A Pending JP2011101202A (ja) 2009-11-06 2009-11-06 電子カメラ

Country Status (3)

Country Link
US (1) US20110109760A1 (ja)
JP (1) JP2011101202A (ja)
CN (1) CN102055903A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101767380B1 (ko) * 2016-05-03 2017-08-11 대한민국 족적 조회 방법 및 시스템

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150496A (ja) * 2005-11-25 2007-06-14 Sony Corp 撮像装置、およびデータ記録制御方法、並びにコンピュータ・プログラム
JP2009065382A (ja) * 2007-09-05 2009-03-26 Nikon Corp 撮像装置
JP2009147605A (ja) * 2007-12-13 2009-07-02 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8159561B2 (en) * 2003-10-10 2012-04-17 Nikon Corporation Digital camera with feature extraction device
JP2007010898A (ja) * 2005-06-29 2007-01-18 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP4286292B2 (ja) * 2007-01-30 2009-06-24 三洋電機株式会社 電子カメラ
JP5141317B2 (ja) * 2008-03-14 2013-02-13 オムロン株式会社 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
KR101435845B1 (ko) * 2008-10-13 2014-08-29 엘지전자 주식회사 이동단말기 및 그 제어 방법
JP5669549B2 (ja) * 2010-12-10 2015-02-12 オリンパスイメージング株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007150496A (ja) * 2005-11-25 2007-06-14 Sony Corp 撮像装置、およびデータ記録制御方法、並びにコンピュータ・プログラム
JP2009065382A (ja) * 2007-09-05 2009-03-26 Nikon Corp 撮像装置
JP2009147605A (ja) * 2007-12-13 2009-07-02 Casio Comput Co Ltd 撮像装置、撮像方法及びプログラム

Also Published As

Publication number Publication date
CN102055903A (zh) 2011-05-11
US20110109760A1 (en) 2011-05-12

Similar Documents

Publication Publication Date Title
JP4974812B2 (ja) 電子カメラ
JP2010050798A (ja) 電子カメラ
JP2007259423A (ja) 電子カメラ
JP2011182151A (ja) 画像合成装置
JP2011071573A (ja) 画像処理装置
JP5178441B2 (ja) 電子カメラ
JP5485712B2 (ja) 電子カメラ
JP5485781B2 (ja) 電子カメラ
JP2012155044A (ja) 電子カメラ
JP2012074894A (ja) 電子カメラ
JP2010102596A (ja) 画像処理装置
JP5709500B2 (ja) 電子カメラ
JP2011101202A (ja) 電子カメラ
JP5297766B2 (ja) 電子カメラ
JP5261769B2 (ja) 撮像装置および集合写真撮影支援プログラム
JP2011078041A (ja) 画像処理装置および電子カメラ
JP2012217106A (ja) 画像処理装置
JP2014053706A (ja) 電子カメラ
JP2011223181A (ja) 電子カメラ
JP2012150236A (ja) 電子カメラ
JP2011130043A (ja) 電子カメラ
JP2013143755A (ja) 電子カメラ
JP2012129796A (ja) 画像処理装置
US20120148095A1 (en) Image processing apparatus
JP2009145622A (ja) 電子カメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140128