JP2014045318A - 電子カメラ - Google Patents

電子カメラ Download PDF

Info

Publication number
JP2014045318A
JP2014045318A JP2012186270A JP2012186270A JP2014045318A JP 2014045318 A JP2014045318 A JP 2014045318A JP 2012186270 A JP2012186270 A JP 2012186270A JP 2012186270 A JP2012186270 A JP 2012186270A JP 2014045318 A JP2014045318 A JP 2014045318A
Authority
JP
Japan
Prior art keywords
search
image
feature
imaging
repeatedly
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012186270A
Other languages
English (en)
Inventor
Masayoshi Okamoto
正義 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2012186270A priority Critical patent/JP2014045318A/ja
Publication of JP2014045318A publication Critical patent/JP2014045318A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【構成】イメージセンサ16は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する。CPU26は、1または2以上の人物の顔画像をイメージセンサ16から出力された電子画像から繰り返し探索し、探知された1または2以上の顔画像のうち特定の顔画像に相当する顔画像をイメージセンサ16から出力された電子画像から追尾する処理を探索処理と並列して実行する。CPU26はまた、追尾された顔画像を参照して焦点距離を繰り返し調整し、探知された顔画像の数が増大するほど追尾精度を高める。
【効果】追尾性能の向上
【選択図】図2

Description

この発明は、電子カメラに関し、特に特定物体を表す画像を繰り返し探索する、電子カメラに関する。
この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、認証データを事前に記憶させた特定人物の顔をAF枠により自動追尾する認識追尾モードにおいて、操作者が指定した特定人物の顔が、テレビカメラから取り込んだ撮影画像の中から顔認証処理により検出される。その後、その顔の画像を基準パターンとして、物体追尾処理に用いるパターンマッチング処理により撮影画像の中から特定人物の顔が検出され、AF枠がその検出位置に移動する。物体追尾処理が3回実行されるごとに、顔認証処理が実行される。
特開2011−107396号公報
しかし、背景技術では、単なる顔ではなく特定の人物の顔を検出するので、高い精度の照合が必要である。このため、人物の姿勢または表情や照明の変化によって検出漏れが生じ、追尾性能が低下する恐れがある。
それゆえに、この発明の主たる目的は、追尾性能を高めることができる、電子カメラを提供することである。
この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段(16)、1または2以上の特徴画像を撮像手段から出力された電子画像から繰り返し探索する第1探索手段(S67)、第1探索手段によって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段から出力された電子画像から繰り返し探索する処理を第1探索手段の処理と並列して実行する第2探索手段(S131, S133)、第2探索手段によって探知された特徴画像を参照して撮像条件を繰り返し調整する調整手段(S45)、および第1探索手段によって探知された特徴画像の数が増大するほど第2探索手段の探索精度を高める制御手段(S129)を備える。
好ましくは、制御手段は第1探索手段によって探知された特徴画像の数が2以上のときに第2探索手段の探索精度を高める。
好ましくは、制御手段は特定範囲において第1探索手段によって探知された特徴画像の数に注目して処理を実行する。
さらに好ましくは、第2探索手段によって探知された特徴画像の位置に基づいて特定範囲を繰り返し設定する設定手段(S141)をさらに備える。
好ましくは、特徴画像は人物を示す画像に相当する。
好ましくは、撮像面の前方に設けられたフォーカスレンズ(12)をさらに備え、撮像条件はフォーカスレンズから撮像面までの距離に相当する。
この発明に従う撮像制御プログラムは、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)のプロセッサ(26)に、1または2以上の特徴画像を撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ(S67)、第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段から出力された電子画像から繰り返し探索する処理を第1探索ステップの処理と並列して実行する第2探索ステップ(S131, S133)、第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ(S45)、および第1探索ステップによって探知された特徴画像の数が増大するほど第2探索ステップの探索精度を高める制御ステップ(S129)を実行させるための、撮像制御プログラムである。
この発明に従う撮像制御方法は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段(16)を備える電子カメラ(10)によって実行される撮像制御方法であって、1または2以上の特徴画像を撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ(S67)、第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段から出力された電子画像から繰り返し探索する処理を第1探索ステップの処理と並列して実行する第2探索ステップ(S131, S133)、第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ(S45)、および第1探索ステップによって探知された特徴画像の数が増大するほど第2探索ステップの探索精度を高める制御ステップ(S129)を備える。
この発明に従う外部制御プログラムは、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段(16)、およびメモリ(44)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)に供給される外部制御プログラムであって、1または2以上の特徴画像を撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ(S67)、第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段から出力された電子画像から繰り返し探索する処理を第1探索ステップの処理と並列して実行する第2探索ステップ(S131, S133)、第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ(S45)、および第1探索ステップによって探知された特徴画像の数が増大するほど第2探索ステップの探索精度を高める制御ステップ(S129)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。
この発明に従う電子カメラ(10)は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段(16)、外部制御プログラムを受信する受信手段(60)、および受信手段によって受信された外部制御プログラムとメモリ(44)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備える電子カメラ(10)であって、外部制御プログラムは、1または2以上の特徴画像を撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ(S67)、第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段から出力された電子画像から繰り返し探索する処理を第1探索ステップの処理と並列して実行する第2探索ステップ(S131, S133)、第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ(S45)、および第1探索ステップによって探知された特徴画像の数が増大するほど第2探索ステップの探索精度を高める制御ステップ(S129)を内部制御プログラムと協働して実行するプログラムに相当する。
第2探索手段の探索精度は、特定の特徴画像の周辺に他の特徴画像が存在しない場合に低い精度に設定される一方、特定の特徴画像の周辺に他の特徴画像が存在する場合に高い精度に設定される。これによって、追尾に掛かる負荷の抑制と追尾対象の誤検出の回避とが両立され、追尾性能の向上が図られる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
この発明の一実施例の基本的構成を示すブロック図である。 この発明の一実施例の構成を示すブロック図である。 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。 撮像面における評価エリアの割り当て状態の一例を示す図解図である。 顔検出処理において用いられる顔検出枠の一例を示す図解図である。 追尾処理において用いられる追尾検出枠の一例を示す図解図である。 図2実施例で参照される顔辞書の構成の一例を示す図解図である。 図2実施例において参照されるレジスタの構成の一例を示す図解図である。 図2実施例において参照される他のレジスタの構成の一例を示す図解図である。 図2実施例において参照されるその他のレジスタの構成の一例を示す図解図である。 顔検出処理の一部を示す図解図である。 顔検出処理の他の一部を示す図解図である。 追尾処理の一部を示す図解図である。 追尾処理の他の一部を示す図解図である。 図2実施例に適用されるCPUの動作の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 この発明の他の実施例の構成を示すブロック図である。
以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
図1を参照して、この実施例の電子カメラは、基本的に次のように構成される。撮像手段1は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する。第1探索手段2は、1または2以上の特徴画像を撮像手段1から出力された電子画像から繰り返し探索する。第2探索手段3は、第1探索手段2によって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を撮像手段1から出力された電子画像から繰り返し探索する処理を第1探索手段2の処理と並列して実行する。調整手段4は、第2探索手段3によって探知された特徴画像を参照して撮像条件を繰り返し調整する。制御手段5は、第1探索手段2によって探知された特徴画像の数が増大するほど第2探索手段3の探索精度を高める。
第2探索手段3の探索精度は、特定の特徴画像の周辺に他の特徴画像が存在しない場合に低い精度に設定される一方、特定の特徴画像の周辺に他の特徴画像が存在する場合に高い精度に設定される。これによって、追尾に掛かる負荷の抑制と追尾対象の誤検出の回避とが両立され、追尾性能の向上が図られる。
[実施例]
図2を参照して、この実施例のディジタルビデオカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経たシーンの光学像は、ドライバ18cによって駆動されるイメージセンサ16の撮像面に照射され、光電変換を施される。これらの部材によって、イメージセンサ16によって捉えられたシーンに対応した電荷が生成される。
電源が投入されると、CPU26は、動画取り込み処理を実行するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、イメージセンサ16の撮像面を露光し、かつイメージセンサ16の撮像面で生成された電荷をラスタ走査態様でそれぞれ読み出す。イメージセンサ16からは読み出された電荷に基づく生画像データが周期的に出力される。
前処理回路20は、イメージセンサ16からそれぞれ出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通して図3に示すSDRAM32の生画像エリア32aに書き込まれる。
後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。この結果、YUV画像データが作成され、作成されたYUV画像データは、メモリ制御回路30を通してSDRAM32のYUV画像エリア32b(図3参照)に書き込まれる。
後処理回路34はさらに、YUV画像データに対して表示用のズーム処理と探索用のズーム処理とを並列的に実行する。この結果、YUV形式に従う表示画像データおよび探索画像データが個別に作成される。表示画像データは、メモリ制御回路30によって図3に示すSDRAM32の表示画像エリア32cに書き込まれる。探索画像データは、メモリ制御回路30によって図3に示すSDRAM32の探索画像エリア32dに書き込まれる。
LCDドライバ36は、表示画像エリア32cに格納された表示画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、シーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。
図4を参照して、イメージセンサ16の撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。この結果、RGBデータが前処理回路20から出力される。
AE評価回路22は、RGBデータのうち評価エリアEVAに属するRGBデータを垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。
CPU26は、撮像タスクの下で、256個のAE評価値に基づいてコンティニュアス厳格AE処理を実行する。コンティニュアス厳格AE処理によって算出された最適EV値を定義する絞り量および露光時間は、ドライバ18bおよび18cにそれぞれ設定される。この結果、スルー画像および記録画像の明るさの厳格な調整が継続的に実行される。
AF評価回路24は、RGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。こうして得られたAF評価値に基づく処理については、後述する。
キー入力装置46に設けられた記録ボタン28recに向けて記録開始操作が行われると、CPU26は、記録処理を開始するべく動画記録タスクを起動し、MP4コーデック46およびI/F40を動画記録タスクの下で起動する。I/F40は、記録媒体42にアクセスし、動画ファイルを記録媒体42に新規に作成する(作成された動画ファイルはオープンされる)。ファイル作成&オープン処理が完了すると、CPU26は、MP4符号化処理の開始をMP4コーデック46に命令する。
MP4コーデック46は、垂直同期信号Vsyncに応答して、YUV画像エリア32bに格納されたYUV画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データをMP4方式に従って符号化し、そして符号化画像データつまりMP4データをメモリ制御回路30を通して図3に示す記録画像エリア32eに書き込む。
CPU26はまた、書き込まれたMP4データをオープン状態の動画ファイルに転送する。転送されたMP4データは、I/F40を通して動画ファイルに書き込まれる。
記録ボタン28recに向けて記録終了操作が行われると、CPU26は、MP4符号化処理の停止をMP4コーデック46に命令し、記録処理が終了する。また、オープン状態の動画ファイルはクローズされる。
CPU26は、探索画像エリア32dに格納された探索画像データから人物の顔画像を探索するべく、Vsyncが発生する毎に顔検出タスクの下で顔検出処理を繰り返し実行する。このような顔検出タスクのために、図5に示す複数の顔検出枠FD,FD,FD,…、図7に示す顔辞書DCf、図8に示す顔検出ワークレジスタRGSTwk1、および図8に示す顔レジスタRGSTfcが準備される。顔辞書DCfには5つの辞書画像(=向きが互いに異なる顔画像)が収められる。なお、顔辞書DCfはフラッシュメモリ44に保存される。
顔検出処理ではまず、評価エリアEVAの全域が探索エリアとして設定される。また、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxが“200”に設定され、最小サイズFSZminが“20”に設定される。
顔検出枠FDは、探索エリアの開始位置(左上位置)から終了位置(右下位置)に向かって、ラスタ走査態様で既定量ずつ移動される(図11参照)。また、顔検出枠FDのサイズは、顔検出枠FDが終了位置に到達する毎に“FSZmax”から“FSZmin”まで“5”ずつ縮小される。
CPU26は、顔検出枠FDに属する画像データをメモリ制御回路30を通して探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、後述の個人を識別するための特徴量の算出よりも、精度の低い算出でよい。
算出された特徴量は、顔辞書DCfの各々の特徴量と照合される。照合度が基準値TH1を上回ると、顔画像が検出されたものとみなされ、現時点の顔検出枠FDの位置およびサイズが、顔情報として顔検出ワークレジスタRGSTwk1に格納される。
したがって、正面を向いた人物HM1が図12に示す要領で撮像面に捉えられる場合、顔検出ワークレジスタRGSTwk1に登録される顔情報は、顔検出枠FD1の位置およびサイズを示す。
顔検出処理の完了後に顔検出ワークレジスタRGSTwk1に顔情報が格納されていたとき、CPU26は、顔検出ワークレジスタRGSTwk1の登録内容を退避させるべく、この登録内容を顔レジスタRGSTfcにコピーする。また、CPU26は、人物の顔を発見したことを表明するべくフラグFLGfcを“1”に設定する。
顔検出処理の完了後、顔検出ワークレジスタRGSTwk1に顔情報の登録がなかった場合、すなわち人物の顔が発見されなかった場合、CPU26は、フラグFLGfcを“0”に設定する。
フラグFLGfcの示す値が“0”から“1”に更新されると、撮像タスクの下でCPU26は、顔レジスタRGSTfcに格納された顔情報が示す領域の中から後述する追尾処理の対象とすべき領域に相当する追尾対象領域TRを決定する。顔レジスタRGSTfcに1つの顔情報が格納されている場合、CPU26は、格納された顔情報が示す領域を追尾対象領域TRとする。顔レジスタRGSTfcに複数の顔情報が格納されている場合、CPU26は、最大サイズの顔情報のうち位置が撮像面中央に最も近い顔情報が示す領域を追尾対象領域TRとする。追尾対象領域TRの位置およびサイズは、図9に示す追尾対象レジスタRGSTtrに格納される。
このように追尾対象領域TRが決定すると、CPU26は、フラグFLGmnを“1”に設定する。
CPU26は次に、追尾対象領域TRに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データを個人の識別に用いることが可能なサイズにリサイズする。CPU26はまた、リサイズされた画像データから個人を識別するための特徴量を算出する。算出された特徴量は、追尾対象レジスタRGSTtrの“特徴量”のカラムに登録される。
なお、ここで算出される特徴量は、特定の人物の顔画像を識別できる程度の特徴量が必要である。したがって、顔検出処理ならびに後述の色および輝度に基づいた追尾処理での特徴量の算出よりも、高い精度の算出が必要である。
また、追尾対象領域TRが決定すると、撮像タスクの下でCPU26は、追尾対象領域TRに注目した厳格AF処理を実行する。CPU26は、AF評価回路24から出力された256個のAF評価値のうち、追尾対象レジスタRGSTtrに格納された位置およびサイズに対応するAF評価値を抽出する。CPU26は、抽出された一部のAF評価値に基づくAF処理を実行する。この結果、追尾対象の顔に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における追尾対象の顔の鮮鋭度が向上する。
厳格AF処理が完了すると、CPU26は、探索画像データにおいて追尾対象レジスタRGSTtrに登録された顔の位置を継続して把握するべく、追尾タスクを起動する。このような追尾タスクのために、図6に示す複数の追尾検出枠TD,TD,TD,…、図8に示す探索エリア顔レジスタRGSTsr、および図10に示す追尾ワークレジスタRGSTwk2が準備される。
追尾タスクが起動されると、追尾対象領域TRとその周辺の既定の範囲の領域とが追尾探索エリアSRとして設定される。
CPU26は、Vsyncが発生する毎に、追尾タスクの下で追尾処理を以下の要領で繰り返し実行する。顔レジスタRGSTfcに登録された顔情報から位置が探索エリアSRに属する顔情報を抽出する。抽出された顔情報は、探索エリア顔レジスタRGSTsrに登録される。
探索エリア顔レジスタRGSTsrに登録された顔情報が1つであるとき、つまり探索エリアSRにおいて発見された顔画像が1つであるとき、色および輝度に基づいた追尾処理が実行される。
色および輝度に基づいた追尾処理においては、まず追尾対象領域TRに属する画像データが探索画像エリア32dから読み出され、読み出された画像データの特徴量が算出される。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、個人を識別するための特徴量の算出よりも、精度の低い算出でよい。
次に、追尾検出枠TDのサイズの可変範囲を定義するべく、最大サイズTSZmaxが“追尾対象領域TRのサイズ×1.3”に設定され、最小サイズTSZminが“追尾対象領域TRのサイズ×0.7”に設定される。最大サイズTSZmaxおよび最小サイズSZminの設定値は、これら以外であってもよい。
追尾検出枠TDは、追尾探索エリアSRの開始位置から終了位置に向かって、既定量ずつ移動される。また、追尾検出枠TDのサイズは、追尾検出枠TDが終了位置に到達する毎に“TSZmax”から“TSZmin”まで“5”ずつ縮小される。
CPU26は、追尾検出枠TDに属する画像データをメモリ制御回路30を通して探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、個人を識別するための特徴量の算出よりも、精度の低い算出でよい。
算出された特徴量は、追尾対象領域TRの特徴量と照合される。照合度が基準値TH2を上回ると、追尾対象の顔が検出されたものとみなされ、現時点の追尾検出枠TDの位置,サイズ,および照合度が、追尾情報として追尾ワークレジスタRGSTwk2に登録される。また、CPU26は、主要被写体の追尾に成功したことを表明するべく、フラグFLGtrcを“1”に設定する。
なお、追尾処理はサイズが“TSZmin”の追尾検出枠TDが終了位置に到達するまで続行される。照合度が追尾ワークレジスタRGSTwk2に登録された照合度を上回った場合は、その時点の追尾検出枠TDの位置,サイズ,および照合度によって、追尾ワークレジスタRGSTwk2の登録内容が更新される。
追尾処理の完了後にフラグFLGtrcが“1”を示すとき、CPU26は、追尾対象レジスタRGSTtrの登録位置と追尾ワークレジスタRGSTwk2の登録位置との差分に基づいて、主要被写体の移動方向および移動量を算出する。CPU26はまた、算出された移動方向および移動量と追尾ワークレジスタRGSTwk2に登録された位置およびサイズとを用いて、追尾対象レジスタRGSTtrの登録内容を更新する。
更新された追尾対象領域TRと追尾対象レジスタRGSTtrに登録された移動方向および移動量とに基づいて、次回の追尾探索エリアSRが設定される。図13に示す例によると、画像右上から左下方向に向かって移動中の人物HM1の顔画像が、追尾対象領域TRに属する。この場合、追尾対象領域TRから左下方向に向けて広がるように、追尾探索エリアSRが設定される。
また、追尾タスクの起動中、CPU26は、追尾対象領域TRに注目したコンティニュアス厳格AF処理を撮像タスクの下で実行する。この結果、追尾対象の顔に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における追尾対象領域TRの鮮鋭度が継続的に向上する。
追尾処理の完了後にフラグFLGtrcが“0”を示すとき、CPU26は、追尾タスクを終了する。
図14を参照して、追尾タスクの起動後に実行された顔検出処理によって、人物HM1,HM2,およびHM3の顔画像が顔検出枠FD1,FD2,およびFD3に追尾探索範囲SRの中でそれぞれ捉えられたとき、探索エリア顔レジスタRGSTsrに複数の顔情報が登録される。
この場合、同一人物の顔の位置を継続して把握するべく、個人の識別に基づいた追尾処理が以下の要領で実行される。
CPU26はまず、探索エリア顔レジスタRGSTsrに1番目に登録された顔情報に相当する領域の画像データをYUV画像エリア32bから読み出し、読み出された画像データを個人の識別に用いることが可能なサイズにリサイズする。
CPU26は次に、リサイズされた画像データから個人を識別するための特徴量を算出する。ここで算出される特徴量は、特定の人物の顔画像を識別できる程度の特徴量が必要である。したがって、顔検出処理ならびに色および輝度に基づいた追尾処理での特徴量の算出よりも、高い精度の算出が必要である。
算出された特徴量は、追尾対象レジスタRGSTtrに登録された特徴量と照合される。照合度が基準値TH3を上回ると、追尾対象の顔が検出されたものとみなされ、現時点の追尾検出枠TDの位置,サイズ,および照合度が、追尾情報として追尾ワークレジスタRGSTwk2に登録される。また、CPU26は、主要被写体の追尾に成功したことを表明するべく、フラグFLGtrcを“1”に設定する。
このような複数の処理が探索エリア顔レジスタRGSTsrに登録された各々の顔情報に対して実行される。照合度が追尾ワークレジスタRGSTwk2に登録された照合度を上回った場合は、その時点の追尾検出枠TDの位置,サイズ,および照合度によって、追尾ワークレジスタRGSTwk2の登録内容が更新される。
なお、個人の識別に基づいた追尾処理においては、追尾探索範囲SRにおいて発見された複数の顔画像の中から、追尾対象の顔画像が識別される。このため、照合処理は高い精度で実行される必要があるので、閾値TH3は、顔検出処理で用いられる閾値TH1ならびに色および輝度に基づいた追尾処理で用いられる閾値TH2よりも高い値に設定される。
また、個人の識別に基づいた追尾処理の完了後は、色および輝度に基づいた追尾処理の場合と同様の処理が実行される。
CPU26は、図15〜16に示す撮像タスク,図17に示す動画記録タスク,図18に示す顔検出タスク,および図21に示す追尾タスクを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ44に記憶される。
図15を参照して、ステップS1では動画取り込み処理を実行する。この結果、シーンを表すスルー画像がLCDモニタ38に表示される。ステップS3ではフォーカス設定をデフォルト値に設定する。
ステップS5では顔検出タスクを起動し、ステップS7ではフラグFLGmnを“0”に設定する。
ステップS9では、コンティニュアス厳格AE処理を実行する。この結果、スルー画像および記録画像の明るさの厳格な調整が継続的に実行される。
ステップS11では記録ボタン28recに向けて記録開始操作が行われたか否かを判別し、判別結果がYESであればステップS15に進む一方、判別結果がNOであれば記録ボタン28recに向けて記録終了操作が行われたか否かをステップS13で判別する。ステップS13の判別結果がYESであればステップS19に進む一方、ステップS13の判別結果がNOであればステップS21に進む。
ステップS15ではフラグFLGstpに“0”を設定し、ステップS17では動画記録タスクを起動する一方、ステップS19ではフラグFLGstpに“1”を設定する。ステップS17またはS19の処理が完了すると、ステップS9に戻る。
ステップS21ではフラグFLGmnが“1”を示すか否かを判別し、判別結果がNOであればステップS23に進む一方、判別結果がYESであればステップS39に進む。ステップS23ではフラグFLGfcが“1”を示すか否かを判別し、判別結果がNOであればステップS9に戻る一方、判別結果がYESであればステップS25〜S37の処理を経てステップS9に戻る。
ステップS25ではフラグFLGmnを“1”に設定し、ステップS27では、顔レジスタRGSTfcに格納された顔情報が示す領域の中から後述する追尾処理の対象とすべき領域に相当する追尾対象領域TRを決定する。顔レジスタRGSTfcに1つの顔情報が格納されている場合、格納された顔情報によって示される領域が追尾対象領域TRとされる。顔レジスタRGSTfcに複数の顔情報が格納されている場合、最大サイズの顔情報のうち位置が撮像面中央に最も近い顔情報によって示される領域が追尾対象領域TRとされる。追尾対象領域TRの位置およびサイズは、追尾対象レジスタRGSTtrに格納される。
ステップS29では、追尾対象領域TRに属する画像データをYUV画像エリア32bから読み出し、読み出された画像データを個人の識別に用いることが可能なサイズにリサイズする。リサイズされた画像データからは、個人を識別するための特徴量がステップS31で算出される。ここで算出される特徴量は、特定の人物の顔画像を識別できる程度の特徴量が必要である。したがって、ステップS93,S153,およびS163の特徴量の算出よりも、高い精度の算出が必要である。算出された特徴量は、追尾対象レジスタRGSTtrの“特徴量”のカラムにステップS33で登録される。
ステップS35では、追尾対象領域TRに注目した厳格AF処理を実行する。この結果、追尾対象の顔に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における追尾対象の顔の鮮鋭度が向上する。ステップS37では追尾タスクを起動する。
ステップS39ではフラグFLGtrgtが“1”を示すか否かを判別し、判別結果がYESであればステップS45の処理を経てステップS9に戻り、判別結果がNOであればステップS41およびS43の処理を経てステップS9に戻る。
ステップS41ではフラグFLGmnを“0”に設定し、ステップS43ではフォーカス設定をデフォルト値に設定する。
ステップS45では、追尾対象領域TRに注目したコンティニュアス厳格AF処理を実行する。この結果、追尾対象の顔に注目した合焦点にフォーカスレンズ12が配置され、スルー画像および記録画像における追尾対象の顔画像の鮮鋭度が継続的に向上する。
図17を参照して、ステップS51ではオープン状態の動画ファイルを記録媒体42に新規に作成し、ステップS53では垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOであればステップS57に進み、判別結果がYESであればMP4データをオープン状態の動画ファイルにステップS55で転送する。転送されたMP4データは、I/F40を通して動画ファイルに書き込まれる。
ステップS57ではフラグFLGstpが“1”を示すか否かを判別し、判別結果がNOであればステップS53に戻る一方、判別結果がYESであればステップS59に進む。ステップS59では、オープン状態の動画ファイルをクローズして記録処理を終了する。ステップS59の処理が完了すると、動画記録タスクは終了する。
図18を参照して、ステップS61ではフラグFLGfcに“0”を設定し、ステップS63では顔レジスタRGSTfcの登録内容を初期化するべくクリアする。ステップS65では、垂直同期信号Vsyncが発生したか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS67に進む。
ステップS67では、探索画像データから人物の顔画像を探索するべく、顔検出処理を実行する。ステップS69では、ステップS67の処理によって顔検出ワークレジスタRGSTwk1に顔情報が格納されたか否かを判別し、判別結果がYESであればステップS73に進む一方、判別結果がNOであればステップS71に進む。
ステップS71ではフラグFLGfcに“0”を設定する。
ステップS73では、顔検出ワークレジスタRGSTwk1の登録内容を退避させるべく、この登録内容を顔レジスタRGSTfcにコピーする。ステップS75では、人物の顔を発見したことを表明するべくフラグFLGfcを“1”に設定する。
ステップS71またはS75の処理が完了すると、ステップS65に戻る。
ステップS67の顔検出処理は、図19〜20に示すサブルーチンに従って実行される。
図19を参照して、ステップS81では、顔検出ワークレジスタRGSTwk1を初期化すべく格納内容をクリアする。
ステップS83では変数Nmaxを顔辞書DCfの登録数に設定し、ステップS85では評価エリアEVAの全域を探索エリアとして設定する。ステップS87では、顔検出枠FDのサイズの可変範囲を定義するべく、最大サイズFSZmaxを“200”に設定し、最小サイズFSZminを“20”に設定する。
ステップS89では顔検出枠FDのサイズを“FSZmax”に設定し、ステップS91では顔検出枠FDを探索エリアの左上位置に配置する。ステップS93では、顔検出枠FDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された探索画像データの特徴量を算出する。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、ステップS31およびS201の特徴量の算出よりも、精度の低い算出でよい。
ステップS95では変数Nを“1”に設定し、ステップS97では、ステップS93で算出された特徴量と顔辞書DCfのN番目に収められた辞書画像の特徴量とを照合する。照合の結果、閾値TH1を超える照合度が得られたか否かをステップS99で判別し、判別結果がNOであればステップS101に進む一方、判別結果がYESであればステップS105に進む。
ステップS101では変数Nをインクリメントし、ステップS103では変数NがNmaxを超えたか否かを判別する。判別結果がNOであればステップS97に戻る一方、判別結果がYESであればステップS107に進む。
ステップS105では、現時点の顔検出枠FDの位置およびサイズを顔情報として顔検出ワークレジスタRGSTwk1に登録する。ステップS107では顔検出枠FDが探索エリアの右下位置に到達したか否かを判別し、判別結果がYESであればステップS111に進む一方、判別結果がNOであれば、ステップS109で顔検出枠FDを既定量だけラスタ方向に移動させ、その後にステップS93に戻る。
ステップS111では顔検出枠FDのサイズが“FSZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS113に進む。
ステップS113では顔検出枠FDのサイズを“5”だけ縮小させ、ステップS115では顔検出枠FDを探索エリアの左上位置に配置する。ステップS115の処理が完了すると、ステップS93に戻る。
図21を参照して、ステップS121ではフラグFLGtrgtに“1”を設定し、ステップS123では追尾対象領域TRとその周辺の既定の範囲の領域とを追尾探索エリアSRとして設定する。
ステップS125では、垂直同期信号Vsyncが発生したか否かを繰り返し判別し、判別結果がNOからYESに更新されると、ステップS127に進む。
ステップS127では、顔レジスタRGSTfcに登録された顔情報から位置が探索エリアSRに属する顔情報を抽出する。抽出された顔情報は、探索エリア顔レジスタRGSTsrに登録される。
ステップS129では、探索エリア顔レジスタRGSTsrに複数の顔情報が登録されているか否かを判別し、判別結果がNOであればステップS131の処理を経てステップS135に進む一方、判別結果がYESであればステップS133の処理を経てステップS135に進む。
ステップS131では色および輝度に基づいた追尾処理を実行し、ステップS133では個人の識別に基づいた追尾処理を実行する。
ステップS135では、ステップS131またはS133の処理の結果フラグFLGtrcが“1”を示すか否かを判別し、判別結果がYESであればステップS137に進む一方、判別結果がNOであればステップS143に進む。
ステップS137では、追尾対象レジスタRGSTtrの登録位置と追尾ワークレジスタRGSTwk2の登録位置との差分に基づいて、追尾対象の顔の移動方向および移動量を算出する。ステップS139では、ステップS137で算出された移動方向および移動量と追尾ワークレジスタRGSTwk2に登録された位置およびサイズとを用いて、追尾対象レジスタRGSTtrの登録内容を更新する。
ステップS141では、ステップS139で更新された追尾対象領域TRと追尾対象レジスタRGSTtrに登録された移動方向および移動量とに基づいて、次回の追尾探索エリアSRを設定する。ステップS141の処理が完了すると、ステップS125に戻る。
ステップS143ではフラグFLGtrgtを“0”に設定し、その後に追尾タスクは終了する。
ステップS131の色および輝度に基づいた追尾処理は、図22〜24に示すサブルーチンに従って実行される。
図22を参照して、ステップS151では、追尾ワークレジスタRGSTwk2を初期化すべく格納内容をクリアする。ステップS153では、追尾対象領域TRに属する画像データを探索画像エリア32dから読み出し、読み出された画像データの特徴量を算出する。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、ステップS31およびS201の特徴量の算出よりも、精度の低い算出でよい。
ステップS155では、追尾検出枠TDのサイズの可変範囲を定義するべく、最大サイズTSZmaxを“追尾対象領域TRのサイズ×1.3”に設定し、最小サイズTSZminを“追尾対象領域TRのサイズ×0.7”に設定する。
ステップS157では追尾検出枠TDのサイズを“TSZmax”に設定し、ステップS159ではフラグFLGtrcを“0”に設定する。ステップS161では追尾検出枠TDを探索エリアの探索開始位置に配置する。
ステップS163では、追尾検出枠TDに属する一部の探索画像データを探索画像エリア32dから読み出し、読み出された追尾画像データの特徴量を算出する。ここでの特徴量の算出は、人物の顔画像であることが判別できる程度の特徴量の算出でよい。したがって、ステップS31およびS201の特徴量の算出よりも、精度の低い算出でよい。
算出された特徴量は、ステップS153で算出された追尾対象領域TRの特徴量とステップS165で照合される。
ステップS167ではフラグFLGtrcが“1”を示すか否かを判別し、判別結果がYESであればステップS175に進む一方、判別結果がNOであればステップS169に進む。
ステップS169ではステップS165の照合の結果、閾値TH2を超える照合度が得られたか否かを判別し、判別結果がNOであればステップS179に進む一方、判別結果がYESであればステップS171およびS173の処理を経てステップS179に進む。
ステップS171ではフラグFLGtrcを“1”に設定し、ステップS173では、現時点の追尾検出枠TDの位置およびサイズならびにステップS165で得られた照合度を追尾情報として追尾ワークレジスタRGSTwk2に登録する。
ステップS175では、ステップS165の照合の結果、追尾ワークレジスタRGSTwk2に登録された照合度を超える照合度が得られたか否かを判別し、判別結果がNOであればステップS179に進む一方、判別結果がYESであればステップS177の処理を経てステップS179に進む。
ステップS177では、現時点の追尾検出枠TDの位置およびサイズならびにステップS165で得られた照合度を追尾情報として、追尾ワークレジスタRGSTwk2を更新する。
ステップS179では追尾検出枠TDが探索エリアの終了位置に到達したか否かを判別し、判別結果がYESであればステップS183に進む一方、判別結果がNOであれば、ステップS181で追尾検出枠TDを既定量だけラスタ方向に移動させ、その後にステップS163に戻る。
ステップS183では追尾検出枠TDのサイズが“TSZmin”以下であるか否かを判別し、判別結果がYESであれば上階層のルーチンに復帰する一方、判別結果がNOであればステップS185に進む。
ステップS185では追尾検出枠TDのサイズを“5”だけ縮小させ、ステップS187では追尾検出枠TDを探索エリアの探索開始位置に配置する。ステップS187の処理が完了すると、ステップS163に戻る。
ステップS133の個人の識別に基づいた追尾処理は、図25〜26に示すサブルーチンに従って実行される。
図25を参照して、ステップS191では追尾ワークレジスタRGSTwk2を初期化すべく格納内容をクリアし、ステップS193では変数Mを“1”に設定する。ステップS195では変数Mmaxを探索エリア顔レジスタRGSTsrの登録数に設定し、S197ではフラグFLGtrcを“0”に設定する。
ステップS199では、探索エリア顔レジスタRGSTsrのM番目に登録された顔情報が示す領域に属する画像データをYUV画像エリア32bから読み出し、読み出された画像データを個人の識別に用いることが可能なサイズにリサイズする。
リサイズされた画像データからは、個人を識別するための特徴量がステップS201で算出される。ここで算出される特徴量は、特定の人物の顔画像を識別できる程度の特徴量が必要である。したがって、ステップS93,S153,およびS163の特徴量の算出よりも、高い精度の算出が必要である。
算出された特徴量は、追尾対象レジスタRGSTtrに登録された追尾対象の顔の特徴量とステップS203で照合される。
ステップS205ではフラグFLGtrcが“1”を示すか否かを判別し、判別結果がYESであればステップS213に進む一方、判別結果がNOであればステップS207に進む。
ステップS207ではステップS203の照合の結果、閾値TH3を超える照合度が得られたか否かを判別し、判別結果がNOであればステップS217に進む一方、判別結果がYESであればステップS209およびS211の処理を経てステップS217に進む。
なお、ステップS207の判別は高い精度で実行される必要があるので、閾値TH3は、ステップS99の閾値TH1およびステップS169の閾値TH2よりも高い値に設定される。
ステップS209ではフラグFLGtrcを“1”に設定し、ステップS211では、現時点の追尾検出枠TDの位置およびサイズならびにステップS203で得られた照合度を追尾情報として追尾ワークレジスタRGSTwk2に登録する。
ステップS213では、ステップS203の照合の結果、追尾ワークレジスタRGSTwk2に登録された照合度を超える照合度が得られたか否かを判別し、判別結果がNOであればステップS217に進む一方、判別結果がYESであればステップS215の処理を経てステップS217に進む。
ステップS215では、現時点の追尾検出枠TDの位置およびサイズならびにステップS203で得られた照合度を追尾情報として、追尾ワークレジスタRGSTwk2を更新する。
ステップS217では変数Mをインクリメントし、変数MがMmaxを超えたか否かをステップS219で判別する。判別結果がNOであればステップS199に戻る一方、判別結果がYESであれば上階層のルーチンに復帰する。
以上の説明から分かるように、イメージセンサ16は、撮像面で捉えられたシーンを表す電子画像を繰り返し出力する。CPU26は、1または2以上の人物の顔画像をイメージセンサ16から出力された電子画像から繰り返し探索し、探知された1または2以上の顔画像のうち特定の顔画像に相当する顔画像をイメージセンサ16から出力された電子画像から追尾する処理を探索処理と並列して実行する。CPU26はまた、追尾された顔画像を参照して焦点距離を繰り返し調整し、探知された顔画像の数が増大するほど追尾精度を高める。
追尾の精度は、特定の顔画像の周辺に他の顔画像が存在しない場合に低い精度に設定される一方、特定の顔画像の周辺に他の顔画像が存在する場合に高い精度に設定される。これによって、追尾に掛かる負荷の抑制と追尾対象の誤検出の回避とが両立され、追尾性能の向上が図られる。
なお、この実施例では、人物の顔を検出して追尾するようにしたが、顔以外の人物の一部や人物以外の物体を検出および追尾するようにしてもよい。
また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ44に予め記憶される。しかし、外部サーバに接続するための通信I/F60を図27に示す要領でディジタルビデオカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ44に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。
また、この実施例では、CPU26によって実行される処理を、図15〜16に示す撮像タスク,図17に示す動画記録タスク,図18に示す顔検出タスク,および図21に示す追尾タスクを含む複数のタスクに区分するようにしている。しかし、これらのタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、転送タスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。
また、この実施例では、ディジタルビデオカメラを用いて説明したが、本発明は、ディジタルスチルカメラ、タブレット型コンピュータ、携帯電話端末またはスマートフォンなどにも適用することができる。
10 …ディジタルビデオカメラ
16 …イメージセンサ
22 …AE評価回路
24 …AF評価回路
26 …CPU
32 …SDRAM
42 …記録媒体

Claims (10)

  1. 撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段、
    1または2以上の特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する第1探索手段、
    前記第1探索手段によって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する処理を前記第1探索手段の処理と並列して実行する第2探索手段、
    前記第2探索手段によって探知された特徴画像を参照して撮像条件を繰り返し調整する調整手段、および
    前記第1探索手段によって探知された特徴画像の数が増大するほど前記第2探索手段の探索精度を高める制御手段を備える、電子カメラ。
  2. 前記制御手段は前記第1探索手段によって探知された特徴画像の数が2以上のときに前記第2探索手段の探索精度を高める、請求項1記載の電子カメラ。
  3. 前記制御手段は特定範囲において前記第1探索手段によって探知された特徴画像の数に注目して処理を実行する、請求項1または2記載の電子カメラ。
  4. 前記第2探索手段によって探知された特徴画像の位置に基づいて前記特定範囲を繰り返し設定する設定手段をさらに備える、請求項3記載の電子カメラ。
  5. 前記特徴画像は人物を示す画像に相当する、請求項1ないし4のいずれかに記載の電子カメラ。
  6. 前記撮像面の前方に設けられたフォーカスレンズをさらに備え、
    前記撮像条件は前記フォーカスレンズから前記撮像面までの距離に相当する、請求項1ないし5のいずれかに記載の電子カメラ。
  7. 撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラのプロセッサに、
    1または2以上の特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ、
    前記第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する処理を前記第1探索ステップの処理と並列して実行する第2探索ステップ、
    前記第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ、および
    前記第1探索ステップによって探知された特徴画像の数が増大するほど前記第2探索ステップの探索精度を高める制御ステップを実行させるための、撮像制御プログラム。
  8. 撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
    1または2以上の特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ、
    前記第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する処理を前記第1探索ステップの処理と並列して実行する第2探索ステップ、
    前記第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ、および
    前記第1探索ステップによって探知された特徴画像の数が増大するほど前記第2探索ステップの探索精度を高める制御ステップを備える、撮像制御方法。
  9. 撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段、および
    メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備える電子カメラに供給される外部制御プログラムであって、
    1または2以上の特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ、
    前記第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する処理を前記第1探索ステップの処理と並列して実行する第2探索ステップ、
    前記第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ、および
    前記第1探索ステップによって探知された特徴画像の数が増大するほど前記第2探索ステップの探索精度を高める制御ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
  10. 撮像面で捉えられたシーンを表す電子画像を繰り返し出力する撮像手段、
    外部制御プログラムを受信する受信手段、および
    前記受信手段によって受信された外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備える電子カメラであって、
    前記外部制御プログラムは、
    1または2以上の特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する第1探索ステップ、
    前記第1探索ステップによって探知された1または2以上の特徴画像のうち特定の特徴画像に相当する特徴画像を前記撮像手段から出力された電子画像から繰り返し探索する処理を前記第1探索ステップの処理と並列して実行する第2探索ステップ、
    前記第2探索ステップによって探知された特徴画像を参照して撮像条件を繰り返し調整する調整ステップ、および
    前記第1探索ステップによって探知された特徴画像の数が増大するほど前記第2探索ステップの探索精度を高める制御ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、電子カメラ。
JP2012186270A 2012-08-27 2012-08-27 電子カメラ Pending JP2014045318A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012186270A JP2014045318A (ja) 2012-08-27 2012-08-27 電子カメラ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012186270A JP2014045318A (ja) 2012-08-27 2012-08-27 電子カメラ

Publications (1)

Publication Number Publication Date
JP2014045318A true JP2014045318A (ja) 2014-03-13

Family

ID=50396303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012186270A Pending JP2014045318A (ja) 2012-08-27 2012-08-27 電子カメラ

Country Status (1)

Country Link
JP (1) JP2014045318A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256266A1 (ja) * 2020-06-16 2021-12-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 物体追跡装置、物体追跡方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256266A1 (ja) * 2020-06-16 2021-12-23 エヌ・ティ・ティ・コミュニケーションズ株式会社 物体追跡装置、物体追跡方法及びプログラム

Similar Documents

Publication Publication Date Title
US11418714B2 (en) Image processing device, method of processing image, image processing program, and imaging device
JP4413235B2 (ja) 電子カメラ
JP2012247533A (ja) 電子カメラ
JP2009053448A (ja) 電子カメラ
JP2011071573A (ja) 画像処理装置
JP2012003539A (ja) 画像処理装置
JP5865120B2 (ja) 電子カメラ
JP2012191442A (ja) 画像再生制御装置
JP2011193063A (ja) 電子カメラ
JP5485781B2 (ja) 電子カメラ
JP2012155044A (ja) 電子カメラ
US20130051633A1 (en) Image processing apparatus
JP5785034B2 (ja) 電子カメラ
JP2014045318A (ja) 電子カメラ
JP2013074570A (ja) 電子カメラ
JP2013005405A (ja) 電子カメラ
US20130050785A1 (en) Electronic camera
JP2012217106A (ja) 画像処理装置
JP2013090112A (ja) 電子カメラ
JP2014042186A (ja) 電子カメラ
JP2011078041A (ja) 画像処理装置および電子カメラ
JP2012244278A (ja) 電子カメラ
JP2014146214A (ja) 像検出装置
JP2014030095A (ja) 電子カメラ
JP2012170028A (ja) 追尾装置