JP2005055744A - 撮像装置、およびプログラム - Google Patents

撮像装置、およびプログラム Download PDF

Info

Publication number
JP2005055744A
JP2005055744A JP2003287780A JP2003287780A JP2005055744A JP 2005055744 A JP2005055744 A JP 2005055744A JP 2003287780 A JP2003287780 A JP 2003287780A JP 2003287780 A JP2003287780 A JP 2003287780A JP 2005055744 A JP2005055744 A JP 2005055744A
Authority
JP
Japan
Prior art keywords
area
subject
color
movement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003287780A
Other languages
English (en)
Other versions
JP3918788B2 (ja
Inventor
Shinichi Fujii
真一 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2003287780A priority Critical patent/JP3918788B2/ja
Priority to US10/901,734 priority patent/US7136581B2/en
Publication of JP2005055744A publication Critical patent/JP2005055744A/ja
Application granted granted Critical
Publication of JP3918788B2 publication Critical patent/JP3918788B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】 被写体の移動を精度良く検出する。
【解決手段】 ユーザによるシャッタボタン61の押下操作に応答して、AF動作を開始し、CCD11により時間的に前後して第1と第2の画像をこの順序で取得しつつ、時間順次に複数の画像を取得する。第1の画像のうち合焦状態の評価に用いるよう決定されているAFエリアについて、所定の色空間中の領域に属する画素数をカウントするとともに、第2の画像に対して設定される複数の色評価エリア(AFエリアに対応するエリアおよびその近傍の複数のエリア)について、所定の色空間中の領域に属する画素数をカウントする。そして、第1の画像についてカウントされた画素数と最も近似した画素数がカウントされた色評価エリアとAFエリアとのずれ量を被写体移動量として検出する。
【選択図】 図1

Description

本発明は、デジタルカメラ等の撮像装置に関する。
従来、デジタルカメラ等の撮像装置におけるオートフォーカス(自動合焦)技術として、画像のある領域に着目し、その領域からコントラスト等の評価値を求めることにより、被写体の合焦度合いを評価するものが知られている。この場合、撮影レンズを段階的に駆動して、評価値が最大になるレンズ位置を検出することにより、被写体像が合焦状態となるレンズ位置を特定してオートフォーカスを行うように構成される。このような技術では、被写体の合焦状態を正確に評価するために、撮影レンズの駆動に伴う変化度合いが比較的大きい評価値を用いることが望まれる。
また、オートフォーカスを行う場合、手ぶれや被写体ぶれ等によってオートフォーカスの動作中に被写体が画像平面内で移動する場合がある。このため従来は、時間的に連続する画像平面内を複数の領域に分割して、時間経過に伴う各領域の評価値の変化を検知することにより、被写体の移動を検出することも行われている(例えば、特許文献1)。このようなオートフォーカス用の評価値を用いた移動検出では、画像平面内における被写体の移動を正確に検出するために、被写体の移動を評価するための画像間に、被写体の移動以外の要因による画像変化は少ないことが望まれる。
このような技術に関する先行技術文献としては、以下のようなものがある。
特開2000−188713号公報
しかし、上述した移動検出では、オートフォーカス用の評価値を用いて画像平面内における被写体の移動を検出するように構成されるため、被写体の移動を評価するための画像間に撮影レンズの駆動が行われることとなり、デフォーカス量の異なる画像で被写体の移動検出を行うことになる。このため、従来の移動検出では、被写体の移動以外の要因としてデフォーカス量の変化による大きな評価値変化が生ずることとなり、被写体の移動を誤検出する可能性が高いという問題がある。
そこで、本発明は上記課題に鑑みてなされたものであり、被写体の移動を精度良く検出することが可能な撮像装置を提供することを目的とする。
上記の課題を解決するために、請求項1の発明は、被写体に係る光学像に基づいて、時間的に前後して第1と第2の画像をこの順序で取得する撮像手段と、前記第1の画像に対して、第1の比較領域を設定する第1の領域設定手段と、前記第2の画像に対して、第2の比較領域を設定する第2の領域設定手段と、前記第1の比較領域における色情報と、前記複数の第2の比較領域における色情報とを比較することにより、被写体の移動を検出する第1の移動検出手段とを備えることを特徴とする。
なお、ここで、「被写体の移動の検出」とは、移動量と移動方向、あるいは移動後の位置など種々のパラメータによる検出の何れであっても良く、その形態にとらわれない。
また、請求項2の発明は、請求項1に記載の撮像装置であって、前記第1の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対して合焦状態を評価するための合焦評価領域の位置を決定する合焦領域決定手段をさらに備えることを特徴とする。
また、請求項3の発明は、請求項2に記載の撮像装置であって、被写体の移動を検出する第2の移動検出手段と、前記第2の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対して次に合焦評価領域として設定される候補領域を決定する候補領域決定手段と、前記第1の比較領域における色情報と、前記候補領域に対応する前記第2の画像上の領域における色情報との相違の度合いを算出する算出手段とをさらに備え、前記合焦領域決定手段が、前記相違の度合いが所定量以上の場合は、前記第1の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対する合焦評価領域の位置を決定することを特徴とする。
また、請求項4の発明は、請求項1または請求項2に記載の撮像装置であって、被写体の移動を検出する第2の移動検出手段と、前記撮像手段によって取得される画像に係る色情報に基づいて、前記第1および第2の移動検出手段のうちいずれか一方によって被写体の移動を検出するように制御する制御手段とをさらに備えることを特徴とする。
また、請求項5の発明は、請求項1から請求項4のいずれかに記載の撮像装置であって、前記色情報が、肌の色に関する情報を含むことを特徴とする。
また、請求項6の発明は、請求項1から請求項5のいずれかに記載の撮像装置であって、各前記第2の比較領域が、前記第2の領域設定手段によって、前記第2の画像上の1つの領域を複数に分割した分割比較領域のうちの少なくとも2つ以上の分割比較領域を含み、かつ、前記複数の第2の比較領域のうちの少なくとも他の1つの第2の比較領域と部分的に重複するような領域として設定され、前記複数の分割比較領域における色情報に基づいて、各前記第2の比較領域における色情報を求めることを特徴とする。
また、請求項7の発明は、請求項1から請求項6のいずれかに記載の撮像装置であって、前記色情報が、二次元の色空間上における所定の色域に属する画素数、または、前記所定の色域に属する領域の大きさに関する情報であることを特徴とする。
また、請求項8の発明は、請求項1から請求項7のいずれかに記載の撮像装置であって、前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、前記被写体の移動に基づいて、前記表示手段によって表示される画像上での前記位置表示の位置を変更する変更手段とをさらに備えることを特徴とする。
また、請求項9の発明は、請求項1から請求項8のいずれかに記載の撮像装置であって、前記色情報が、複数の色域に属する色に関する情報を含むことを特徴とする。
また、請求項10の発明は、撮像装置に含まれるコンピュータによって実行されることにより、前記撮像装置を、請求項1から請求項9のいずれかに記載の撮像装置として機能させるプログラムである。
請求項1から請求項9に記載の発明によれば、時間的に前後して第1と第2の画像をこの順序で取得しつつ、第1の画像に設定される第1の比較領域における色情報と、第2の画像に対して設定される複数の第2の比較領域における色情報とを比較することにより、被写体の移動を検出するため、被写体の移動を精度良く検出することができる。
また、請求項2に記載の発明によれば、色情報の比較によって検出された被写体の移動に基づいて、画像に対して設定される合焦評価領域の位置を決定するため、被写体の移動に対応して合焦状態を保持することができる。
また、請求項3に記載の発明によれば、第2の移動検出手段によって検出された被写体の移動に基づいて、次に合焦評価領域として設定される候補領域を決定し、第1の画像に設定される第1の比較領域における色情報と、候補領域に対応する第2の画像上の領域における色情報との相違の度合いが、所定量以上の場合は、第1の移動量検出によって検出される被写体の移動に基づいて、合焦評価領域を決定するため、被写体の移動に応じた合焦制御の信頼性を向上させることができる。
また、請求項4に記載の発明によれば、被写体に係る画像の色情報に基づいて、2つの移動検出手段のうちのいずれか一方によって、被写体の移動を検出するように制御するため、被写体の状況に応じた被写体の移動の検出および合焦制御を実現することができる。
また、請求項5に記載の発明によれば、肌の色に関する情報に基づいて、被写体の移動を検出するため、肌の色の部分を多く有する人物が主な被写体の場合に、被写体の移動を精度良く検出することができる。
また、請求項6に記載の発明によれば、各第2の比較領域が、第2の画像上の1つの領域を複数に分割した分割比較領域のうちの少なくとも2つ以上の領域を含み、かつ、複数の第2の比較領域のうちの少なくとも他の1つの第2の比較領域と部分的に重複するように設定されるため、演算量を低減することができる。
また、請求項7に記載の発明によれば、二次元の色空間上の所定の色の領域に属する画素数、または、所定の色の領域に属する領域の大きさ係る情報に基づいて、被写体の移動を検出するため、煩雑な計算を抑制しつつ、検出される被写体移動量、および被写体の移動に応じた合焦制御の信頼性を向上させることができる。
また、請求項8に記載の発明によれば、検出される被写体の移動に基づいて、画像とともに表示される被写体の位置を示す表示の位置を変更するため、被写体に対する追尾の状況を操作者が把握することができる。
また、請求項9に記載の発明によれば、時間的に前後してこの順で取得される第1および第2の画像を用い、色空間上の複数の色の領域に係る色情報に基づいて、被写体の移動を検出するため、被写体の移動をより精度良く検出することができる。
また、請求項10に記載の発明によれば、請求項1から請求項9に記載の発明と同様な効果を得ることができる。
以下、本発明の実施形態を図面に基づいて説明する。
<1.第1実施形態>
<1−1.撮像装置の機能構成>
図1は、本発明の第1実施形態に係る撮像装置(デジタルカメラ)1の主な機能構成を示すブロック図である。図1に示すように、撮像装置1は、主に、複数のレンズを備える撮影レンズ(以下、「レンズ群」とも称する)10、撮影機能部2、操作部60、およびカメラ制御部30を備えて構成される。
図1において、操作部60は、シャッタスタートボタン(以下、「シャッタボタン」と略する)61とモード切替ボタン62とを備えて構成される。シャッタボタン61は、銀塩カメラで採用されているような半押し状態(以下、「状態S1」と称する)と押し込んだ状態(以下、「状態S2」と称する)とが検出可能な2段階スイッチになっている。また、モード切替ボタン62は、人物を撮影するためのポートレートモードや動体を撮影するためのスポーツモードなどの各種撮影モードを切り替え設定するためのボタンである。
CCD撮像素子(以下、「CCD」と略する)11は、2560×1920画素を有し、撮影レンズ10により結像された被写体の光学像を、R(赤),G(緑),B(青)の色成分の画像信号(各画素で受光された画素信号の信号列からなる信号)に光電変換して出力する。ライブビュー撮影時などは、CCD11は、被写体に係る光学像に基づいて、時間的に前後して第1と第2の画像をこの順序で取得しつつ、複数の画像を時間順次に取得する手段として機能する。
タイミングジェネレータ(以下、「TG」と略する)50は、CCD11の駆動を制御するための各種のタイミングパルスを生成するものである。
また、CCD11の駆動方式(読み出しモード)には、ドラフトモード、及び本撮影モードの2つのモードがある。
ドラフトモードは、記録用の画像を取得する撮影(以下、「本撮影」と称する)前に、プレビュー用となるライブビュー表示用の画像を生成するための読み出しモードであり、いわゆるライブビュー表示時に適用される。一般的にCCD11からの信号読み出しは水平ライン毎に行われる。このため、ドラフトモードにおいては、水平方向2560画素、垂直方向1920画素を有するCCD11から水平ライン毎の画素信号を読み出す際、8ライン中1ラインを読み出すようにCCD11が駆動される。つまり、ドラフトモード時には、1920の水平ラインが1/8間引きされた状態で読み出されるのである。この結果、ドラフトモード時にCCD11から出力される画像は、2560×240の画素で構成されることになる。
また、本撮影モードはフレーム全体、すなわち2560×1920の全画素を読み出し対象として画像信号を読み出すモードである。そしてTG50はこれらの読み出しモードのうち指定されるモードについてCCD11の駆動タイミングを制御する。
CCD11における露出制御は、レンズ駆動ドライバ110による撮影レンズ10の絞りと、CCD11の露光量、つまり、シャッタスピードに相当するCCD11の電荷蓄積時間を調節して行われる。ここでは、被写体輝度が低輝度時に適切なシャッタスピードが設定できない場合は、CCD11から出力される画像信号(画像データ)のレベル調整を行うことにより露光不足による不適正露出が補正される。すなわち、低輝度時は、絞りとシャッタスピードとアナログフロントエンド(以下、「AFE」と略する)12のゲイン調整とを組み合わせて露出制御が行なわれることとなる。
TG50は、カメラ制御部30から送信される基準クロックに基づいてCCD11の駆動制御信号を生成するものである。このTG50は、例えば、積分開始/終了(露出開始/終了)のタイミング信号、各画素の受光信号の読出制御信号(水平同期信号,垂直同期信号,転送信号等)等のクロック信号を生成し、CCD11に出力する。
AFE12は、CCD11から出力されるアナログ画像信号(アナログ画像データ)に対してアナログ信号処理を行うとともに、デジタル画像データに変換するものである。AFE12は、CDS(相関二重サンプリング)回路、AGC(オートゲインコントロール)回路、およびA/D変換器を備えて構成される。AFE12では、CDS回路により画像信号のノイズ低減処理を行い、AGC回路でゲインを調整することにより画像信号のレベル調整を行い、A/D変換器で、アナログ画像信号の各画素信号を例えば12ビットのデジタル信号に変換する。
WB(ホワイトバランス)回路13は、R,G,Bの各色成分の画素データのレベル変換を行なうものである。このWB回路13は、カメラ制御部30で記憶されるレベル変換テーブルを用いてR,G,Bの各色成分の画素データのレベルを変換する。なお、レベル変換テーブルの各色成分のパラメータ(特性の傾き)はカメラ制御部30により、オートまたはマニュアルで、撮影画像毎に設定される。
画素補間部16は、WB回路13から送られる白黒(輝度のみで構成されるモノクロ情報)の画像データをCCD11のカラーフィルター特性に基づいた補間処理を行ってカラー化するものである。
色変換・色補正回路(以下、「RGB→YCbCr変換回路」とも称する)17は、画素補間部16から入力されるRGB表色系の画像データを、YCbCr表色系の画像データに変換するものである。なお、RGB→YCbCr変換回路17では、画像データに対して、色再現性を向上させる色補正も適宜行われる。
VRAM18は、ライブビュー撮影時に、CCD11で取得される画像データを、LCD表示部(以下、「LCD」と略する)20に出力するために、一時的に記憶するためのものである。
ライブビュー撮影時には、VRAM18からドライバ19を介して、LCD20に画像データが送られることで、ライブビューがLCD20に表示される。ここで、ドライバ19は、LCD20に表示されるライブビュー画像上に、オートフォーカス(AF)制御の対象となる領域(以下、「AFエリア」)が現在どの位置にあるのかを表示するポインタ(以下、「AFエリアポインタ」と称する)を重畳させて表示させる。つまり、LCD20が、CCD11によって取得される画像とともに主な被写体(以下、「主被写体」と称する)の位置を示す位置表示(AFエリアポインタ)を表示する手段として機能する。
よって、撮像装置1の撮影待機状態では、CCD11により1/30(秒)毎に撮像された画像データ(画像)の各画素信号が、AFE12〜RGB→YCbCr変換回路17により所定の信号処理を施された後、VRAM18およびドライバ19を介してLCD20に表示される(ライブビュー表示)。これにより、ユーザはCCD11で撮像される被写体像を視認することができる。
なお、図示を省略しているが、ライブビュー表示時には、例えば、VRAM18の前後において、CCD11において垂直方向について1/8間引きされた2560×240個の画素を有する画像に対し、水平方向について1/8間引きを行い、320×240個の画素を有するライブビュー画像が生成され、LCD20の表示画素数(320×240個)に適合した画像サイズの画像データが生成される。
また、VRAM18が、カメラ制御部30に対してもYCbCr表色系の画像データを出力し、カメラ制御部30において入力される画像データに基づき色情報が評価される。
オートフォーカス(AF)評価値算出部14では、シャッタボタン61が半押しされて状態S1になった場合に、コントラスト方式のAFを行うための評価値演算動作が行われる。
AF評価値算出部14は、AFE12から入力される撮影画像データ(画像)に対してAFエリアを設定する。つまり、AF評価値算出部14が、CCD11によって取得される画像(例えば、第2の画像)に対して、合焦状態を評価するためのAFエリア(合焦評価領域)を設定する手段として機能する。
そして、AF評価値算出部14によって、設定されたAFエリアに相当するデータに関し、隣接する各画素に関する差分の絶対値の和である評価値(以下、「AF評価値」と称する)が演算される。そして、カメラ制御部30による制御下で撮影レンズ10を駆動し、このAF評価値の最も高いレンズ位置が合焦位置とされる。これにより、AFエリアに対して撮影レンズ10を駆動し合焦を行うため、主被写体などを狙ってピントを合わせることができる。
撮像装置1では、状態S1となると、まずAFエリア内の主被写体に合焦する一般的なAF動作(いわゆる「ワンショットAF動作」)が行われ、シャッタボタン61が全押しされて状態S2になるまで、主被写体に対する合焦状態を維持し続けるAF動作(いわゆる「コンティニュアスAF動作」)が行われる。
自動露光制御(AE)部15では、AFE12から出力される画像データを例えば、300ブロック(20×15)ブロックに分割し、各ブロックごとに測光データを算出する多分割測光を行うことができる。例えば、G色成分の画素値の平均値を被写体輝度として算出し、カメラ制御部30に出力する。なお、カメラ制御部30が、入力される被写体輝度値に基づいて、露出制御値(絞り値、シャッタスピード、ゲイン)を算出し、各部を制御することで、AEを実現する。
DRAM30aは、CCD11で取得され、上記の画像処理が施された画像データ(静止画像)を一時的に記憶するためのメモリであり、DRAM30aは、少なくとも数フレーム分の記憶容量を有している。すなわち、DRAM30aは、CCD11の画素数に対応する2560×1920画素分の画素データ数フレーム分の記憶容量を少なくとも有し、各画素データが対応する画素位置に記憶されるようになっている。また、DRAM30aは、算出される各種数値を一時的に記憶することもできる。
カメラ制御部30は、マイクロコンピュータ(CPU)を備えて構成され、ROM30bに格納される各種プログラムなどを読み込むことにより、上述した撮像装置1の各部材の駆動を有機的に制御して、撮像装置1の動作を統括制御する。すなわち、ROM30bに格納される所定のプログラムをCPUが読み込むことで、後述する被写体追尾AF動作などを実現することができる。
また、カメラ制御部30は、レンズ駆動ドライバ110に制御信号を送信することで、撮影レンズ10のレンズ位置や絞り径などを制御する機能を有する。そして、ライブビュー撮影時には、カメラ制御部30によって、まず、ワンショットAF動作を行うように制御され、その後、撮影レンズ10を繰り出し側および繰り入れ側に移動させつつ、AFエリア内の主被写体に対する合焦状態を維持し続けるようなコンティニュアスAF動作を行うように制御される。ワンショットAF動作、およびコンティニュアスAF動作については、さらに後述する。
また、カメラ制御部30は、コンティニュアスAF動作時において、主被写体の移動に応じて、主被写体を追尾するように、時間順次に取得される画像データに対して設定されるAFエリアの位置を移動・変更させる動作(以下、「被写体追尾AF動作」と称する)を実現する各種機能(以下、「被写体追尾AF機能」と称する)を有する。
被写体追尾AF機能は、色域算出部31、色域内画素数算出部32、肌色画素数算出部33、移動量検出部34、およびAFエリア移動部35などの機能を備えて構成される。
色域算出部31は、AFエリアに主に含まれる色の領域(所定の色域)を算出する。色域内画素数算出部32は、AFエリアおよびその近傍の所定エリア内について所定の色域に属するCbCr値を示す画素数を算出する。肌色画素数算出部33は、AFエリアおよびその近傍の所定エリア内について肌色の領域に属するCbCr値を示す画素数を算出する。移動量検出部34は、時間順次に取得される画像における色の変化に基づいて被写体移動量を検出する。AFエリア移動部35は、移動量検出部34によって検出された被写体移動量に基づいて、CCD11によって取得される画像データ(画像)に対するAFエリアの設定位置を移動・変更させる。
なお、ここでは、モード切り替えボタン62によって、ポートレートモードに設定されている場合には、主被写体が人物であると考えられるため、肌色を追尾するような被写体追尾AF動作が行われる。一方、ポートレートモードに設定されていない場合には、主被写体の色が不明であるため、AFエリアに主として含まれる色を認識して、その色を追尾するような被写体追尾AF動作が行われる。被写体追尾AF動作の詳細については、さらに後述する。
また、シャッタボタン61が全押しされてS2状態となると、記録用の撮影画像を取得するための本撮影動作が行われる。つまり、CCD11により取得された画像の各画素信号が、AFE12〜RGB→YCbCr変換回路17により所定の信号処理を施された後、カメラ制御部30で、圧縮処理などが施されて、図示を省略するメモリカードに記録用の撮影画像が記憶される。
<1−2.ワンショットAF動作>
図2は、ワンショットAF動作において画像Gに対して設定されるAFエリアの位置を例示する図である。また、図2以降では、画像に対する水平方向と垂直方向の関係を明確にするために必要に応じてX、Yの2軸を付している。
図2に示すように、ワンショットAF動作において、AF評価値算出部14は、AFE12から1/30秒毎に順次連続して入力される画像Gの中央付近に対して、AF評価値を算出するための対象となるエリア(AFエリア)Aeを設定する。なお、図2および図2以降では、CCD11における全画素の位置との対応を分かり易くするために、CCD11において1/8間引きされた方向である垂直方向に画像を8倍拡大して示している。
AF評価値算出部14は、AFE12から入力される2560×240個の画素を有する画像Gのうち、中央部付近のAFエリアAeに相当する画像データを取得する。そして、一般的なコントラスト方式のAF動作において実施されるものと同様に、撮影レンズ10を駆動させつつ、AFエリアAe内の画像データを複数取得する。そして、AF評価値算出部14は、取得されたAFエリアAe内の画像(画像データ)に基づいて撮影レンズ10の合焦状態に関する評価値(AF評価値)を求める。なお、ワンショットAF動作時におけるAFエリアAeの設定位置は、画像に対する中央部付近だけではなく、ユーザの設定によって、種々の位置に変更可能としても良い。
図3は、ワンショットAF動作の動作フローを例示するフローチャートである。このワンショットAF動作の動作フローはカメラ制御部30によって制御される。まず、ライブビュー表示状態において、ユーザがシャッタボタン61を半押しすることで状態S1となると、ワンショットAF動作が開始して、ステップS1に進む。
ステップS1では、撮影レンズ10を初期位置から微小駆動させて、駆動方向を決定し、ステップS2に進む。ここでは、撮影レンズ10を初期位置から微小駆動させて、AFエリアAeについて算出されるAF評価値が増大する撮影レンズ10の駆動方向をステップS2における駆動方向として決定する。
ステップS2では、ステップS1において決定した駆動方向について一般的な山登りAF動作を行い、ステップS3に進む。ここでは、ステップS2において決定した駆動方向に所定のピッチで撮影レンズ10を駆動させつつ、画像を取得して、AFエリアAe内の画像データに基づいてAF評価値を算出し、AF評価値が減少し始めるまで撮影レンズ10の駆動を続ける。つまり、AF評価値が減少し始めたら、撮影レンズ10の駆動を停止する。
ステップS3では、撮影レンズ10の合焦位置を算出して、ステップS4に進む。ここでは、ステップS2で算出されるAF評価値の最大値Ynとその前後のAF評価値Yn−1,Yn+1と、それらのAF評価値Yn−1,Yn,Yn+1に対応する撮影レンズ10のレンズ位置とを用いて、2次補間近似計算(2次曲線近似による計算)によってAF評価値が最大となる撮影レンズ10のレンズ位置を合焦位置として算出する。
ステップS4では、ステップS3で算出された合焦位置まで撮影レンズ10を駆動させ、そして、ワンショットAF動作が終了する。
なお、本発明では、上記ワンショットAF動作後も常時AF動作を継続するコンティニュアスAF動作が引き続き行われる。
<1−3.コンティニュアスAF動作>
図4は、コンティニュアスAF動作の動作フローを例示するフローチャートである。なお、図4では、コンティニュアスAF動作の動作フローのうち、撮影レンズ10の駆動、撮像処理、及び次回の合焦位置の検出について示している。なお、CCD11からの画像信号の読出し、AF評価値の算出・取得等の処理は、各撮像処理の実施直後に順次行われる。また、このコンティニュアスAF動作の動作フローはカメラ制御部30によって制御される。
また、図5は、撮影レンズ10の位置とAF評価値との関係を示す曲線VLを例示する図である。なお、図5では、前回検出された合焦位置をレンズ位置FPで示し、次回検出される合焦位置をレンズ位置APで示す。
ここでは、Fは撮影レンズ10のFナンバー(絞り値)を示し、δはいわゆるCCD11の許容錯乱円を示す。図5に示すように、コンティニュアスAF動作では、前回検出された合焦位置FPを中心として、4Fδピッチで前後に3点ずつ計7点の撮影レンズ位置(P1〜P7)において、画像を取得するとともに、AF評価値を算出して、7つのAF評価値に基づいて次回のレンズ位置APを検出し、レンズ位置APに撮影レンズ10を駆動する一連のAF動作を繰り返し行う。
以下、図5を参照しつつ、図4に示すコンティニュアスAF動作の動作フローについて説明する。なお、コンティニュアスAF動作が行われる際には、上述したように、被写体の移動に追従してAFエリアAeの位置が移動・変更される。
ここでは、上記ワンショットAF動作が終了すると、コンティニュアスAF動作が開始して、ステップS11に進む。
ステップS11では、状態S2が割り込み可能に設定され、ステップS12に進む。ここでは、コンティニュアスAF動作の動作フロー中に、ユーザによってシャッタボタン61が全押しされて、状態S2となった場合は、コンティニュアスAF動作を中止して本撮影を行うように設定される。
ステップS12では、図5に示すように、前回の合焦位置からレンズ繰り入れ側に12Fδだけ離隔したレンズ位置P1に撮影レンズ10を駆動させ、1個目の画像(第1フレーム)を取得すべく1回目の撮像処理を行い、ステップS13に進む。
ステップS13では、図5に示すように、4Fδピッチで撮影レンズ10を繰り出し側に駆動させつつ、レンズ位置P2〜P7において、2個目〜7個目の画像(第2〜第7フレーム)を順次取得すべく2〜7回目の撮像処理を順次行い、ステップS14に進む。
ステップS14では、前回の合焦位置FP付近へ撮影レンズ10を駆動させつつ、レンズ位置P8,P9において8、9個目の画像(第8、第9フレーム)を順次取得すべく8、9回目の撮像処理を順次行う。
ステップS15では、第9フレーム取得時に次回の合焦位置APを検出し、ステップS16に進む。ここでは、第1〜第7フレームについて算出されるAF評価値について、2次補間近似計算を行い、AF評価値が最大となるレンズ位置APを次回の合焦位置として検出する。
ステップS16では、ステップS15で検出された次回の合焦位置APへ撮影レンズ10を駆動させ、10個目の画像(第10フレーム)を取得すべく10回目の撮像処理を行い、ステップS12に戻る。
<1−4.被写体追尾AF動作を含む撮影動作>
カメラ制御部30では、ワンショットAF動作終了後、VRAM18から時間的に連続して取得される画像についての色(ここでは、色差信号CrCbのデータ)を評価することで、被写体移動量を検出する。
例えば、ここでは、ポートレートモードに設定されていない場合には、時間的に連続して画像を取得しつつ、ワンショットAF動作を行ったときのAFエリア内の色情報に近似した色情報を有するエリアを検出して、その時点におけるAFエリアとのずれ量を検出することで、移動量検出部34が被写体移動量を検出する。
また、ポートレートモードに設定されている場合には、人物が主被写体となると考えられるため、時間的に連続して画像を取得しつつ、先にAFエリアとすべき領域として設定された領域とその近傍のエリアとからなる複数の評価エリアのうち、前のフレームの画像上の上記設定エリアにおいて存在していた肌色の画素数(肌色画素数)と近似した肌色画素数を有する評価エリアを検出し、上記設定エリアとのずれ量を検出することで、移動量検出部34が被写体移動量を検出する。
そして、移動量検出部34によって検出された被写体移動量に基づいて、AFエリア移動部35により、画像に対して設けられるAFエリアの設定位置が移動・変更される。
<1−4−1.評価エリアの設定>
ここで、コンティニュアスAF動作時において、時間的に連続して複数フレームの画像を取得する際に、その複数フレームのうちの時間的に連続する2つのフレームに着目して、被写体移動量を検出するための評価エリアの設定について説明する。
なお、ここでは、横方向への被写体移動量を検出するための評価エリアの設定方法と、縦方向への被写体移動量を検出するための評価エリアの設定方法とは同様となるため、以下では、横方向への被写体移動量を検出するための評価エリアの設定方法を例にとって説明する。
図6および図7は、横方向への被写体移動量を検出するために設定される色評価エリア(色情報を比較するための評価エリア)CE1〜CE7を例示する図である。
第1フレームの画像(第1の画像)G1と第2フレームの画像(第2の画像)G2とが時間的に連続して取得された場合、例えば、図2に示すように、第1の画像については、その時点においてAFエリアを設定すべき領域とされているエリア(以下、単に「AFエリア」と呼ぶ)Aeを設定する。なお、ここで言う「AFエリアを設定すべき領域」は、最初はワンショットAF動作時のAFエリアAeであり、その後におけるAFエリアAeの決定方法については後述する。一方、第2の画像G2については、図6に示すように、例えば、第2の画像G2に対して7つの色評価エリア(第1〜第7の色評価エリア)CE1〜CE7が設定される。図6では、その時点において設定すべきAFエリアAeに対応する領域をAFエリアAeと示している。
ここで、色評価エリアCE1〜CE7の設定位置について簡単に説明する。なお、色評価エリアCE1〜CE7は、カメラ制御部30によって、設定されるものとする。
例えば、図6に示すように、第2の画像G2に対して、同様の形状および面積を有する10個の縦長の短冊状のエリア(以下、「縦長エリア」と称する)V1〜V10を横方向に相互に隣接して並ぶように設定する。このとき、10個の縦長エリアV1〜V10のうちの中央の4つの縦長エリアV4〜V7からなるエリアがAFエリアAeと等しくなるように、設定される。
そして、図7(A)〜(G)に示すように、第1の色評価エリアCE1が縦長エリアV1〜V4からなるエリア、第2の色評価エリアCE2が縦長エリアV2〜V5からなるエリア、第3の色評価エリアCE3が縦長エリアV3〜V6からなるエリア、第4の色評価エリアCE4が縦長エリアV4〜V7からなるエリア、第5の色評価エリアCE5が縦長エリアV5〜V8からなるエリア、第6の色評価エリアCE6が縦長エリアV6〜V9からなるエリア、第7の色評価エリアCE7が縦長エリアV7〜V10からなるエリアとなるように、7つの色評価エリアCE1〜CE7が設定される。
つまり、第2の画像G2において、AFエリアAeを第4の色評価エリアとし、AFエリアAeと同等の形状および面積を有する第1〜第7の色評価エリアCE1〜CE7が、各々縦長エリアを1つ分ずつずらしたような形で、配置される。
言い換えれば、第1〜第7の色評価エリアCE1〜CE7は、AFエリアAeを中心として、それぞれ−X方向に少しずつずれた位置に第1〜第3の色評価エリアCE1〜CE3が配置され、それぞれ+X方向に少しずつずれた位置に第5〜第7の色評価エリアCE5〜CE7が配置される。
さらに、言い換えれば、AFエリアAeと同等な第4の色評価エリアCE4の近傍に、それぞれ最も近くの位置にずれて配置される色評価エリアと3つの縦長エリアを共有するように配置される7つの色評価エリアCE1〜CE7が設定される。
よって、カメラ制御部30が、第1の画像G1に対しては、第1の比較領域(ここでは、その時点において合焦状態の評価に用いるよう決定されている領域AFエリアAe)を設定し、第2の画像G2に対しては、複数の第2の比較領域(ここでは、決定されているAFエリアAeに対応するエリア及びその近傍の1以上の領域を含む複数の色評価エリア)を設定する手段として機能する。そして、例えば、カメラ制御部30によって、各色評価エリアCE1〜CE7が、第2の画像上の1つの領域を複数に分割した短冊状の縦長エリア(分割比較領域)V1〜V10のうちの少なくとも2つ以上(ここでは、4つ)の縦長エリアを含み、かつ、複数の色評価エリアCE1〜CE7のうちの少なくとも他の1つ(ここでは、他の3つ)の色評価エリアと部分的に重複するような領域として設定される。換言すれば、色評価エリアCE1〜CE7は、部分的に重なりつつ空間的に順次にずれて設定された領域群となっている。
<1−4−2.ポートレートモード以外における撮影動作フロー>
図8は、ポートレートモードに設定されていない場合における被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。本動作フローは、カメラ制御部30の制御下で実現される。なお、図8に示す動作フローでは、被写体追尾AF動作のうち、AFエリアの移動について着目して示している。但し、実際には、ワンショットAF終了後から状態S2となるまでの間、AFエリアの移動のための動作フローと並行して、上述したコンティニュアスAF動作が行われる。
ここでは、撮影待機状態において、ユーザによってシャッタボタン61が半押しされることで、状態S1となると、撮影動作フローを開始し、ステップS21に進む。
ステップS21では、上述したワンショットAF動作が行われ、ステップS22に進む。なお、ワンショットAF動作時には、例えば、上述したように、画像の中央付近に、AFエリアAeが設定される。
ステップS22では、ワンショットAF動作時のAFエリアAeについて、全画素のCb、Cr値の平均値Cb_Ave.,Cr_Ave.,および標準偏差Cb_std.,Cr_std.を算出し、ステップS23に進む。
ステップS23では、ステップS22において算出されたCb,Crの平均値および標準偏差に基づいて、AFエリアAeに属するおおよその色、すなわちAFエリアAe内の色を表す領域(以下、「色域」と称する)の閾値を下式(1)〜(4)にしたがって設定し、ステップS24に進む。
TH1=Cb_Ave.+Cb_std.・・・(1)
TH2=Cb_Ave.−Cb_std.・・・(2)
TH3=Cr_Ave.+Cr_std.・・・(3)
TH4=Cr_Ave.−Cr_std.・・・(4)。
ここでは、ユーザがシャッタボタン61を半押しして、AF動作が開始した時点において、AFエリアAe内にある主被写体のおおよその色を認識し、追尾する主被写体の色を表す領域(色域)の閾値を設定するのである。図9は、追尾する被写体の色域について説明する図である。図9は、横軸方向がCb、縦軸方向がCrを示す2次元色空間を示しており、ハッチングを付した領域がAFエリアAe内の色域を示す。
ステップS24では、主被写体の色を追尾する被写体追尾AF動作(以下、「被写体色追尾AF動作」と称する)を開始し、ステップS25に進む。
ステップS25では、上述したように、その時点までにAFエリアとすべき領域とされているエリア(AFエリア)Ae(最初はワンショットAF時のAFエリア)を中心として、縦および横方向に各々少しずつずらして、複数の色評価エリア(例えば、横方向については、色評価エリアCE1〜CE7)を設定する。そして、それら設定される各色評価エリアについて、TH2>Cb>TH1,TH3>Cr>TH4の関係を満たす、すなわち図9にハッチングを付して示される所定の色域に属するCbCr値を示す画素数ECをカウントし、ステップS26に進む。
ここでは、例えば、各色評価エリアCE1〜CE7について、所定の色域に属するCbCr値を示す画素数ECをカウントする際に、まず、複数の縦長エリアV1〜V10について、図9に示すような所定の色域に属するCbCr値を示す画素数をカウントし、その後、各色評価エリアCE1〜CE7に含まれる4つの縦長エリアに係る画素数を足し合わせることで、各色評価エリアCE1〜CE7について、所定の色域に属するCbCr値を示す画素数ECをカウントする。
つまり、例えば、複数の縦長エリアV1〜V10における色情報に基づいて、各色評価エリアにおける色情報を求める。このような構成とすることで、各色評価エリアにおける色情報を求める際に、相互に重なり合う部分について重複して画素数をカウントするような無駄を省くことができる。その結果、演算量を低減することができ、処理の高速化を図ることができる。
そして、ここでは、色情報が、Cb,Crで示される二次元の色空間上における所定の色域に属する画素数となっている。なお、この色情報は、Cb,Crで示される二次元の色空間上における所定の色域に属する画像の面積の割合、すなわちエリアの大きさに関する情報としても良い。このような構成とすることにより、二次元の色空間上の所定の色の領域に属する画素数、または、所定の色の領域に属するエリアの大きさ係る情報に基づいて、被写体移動量を検出することができる。そして、CbCrの二次元色空間に係るデータを用いる方が、RGBの三次元色空間に係るデータを用いるよりも、色情報を算出するための演算量が少なくて済む。その結果、煩雑な計算を抑制しつつ、検出される被写体移動量、および被写体の移動に応じた合焦制御の信頼性を向上させることができる。
ステップS26では、ステップS25におけるカウント結果に基づいて、縦および横方向についてそれぞれ少しずつずらして設定された複数の色評価エリアのうち、各方向について画素数ECが最大となるエリアを選択し、その選択されたエリアと、AFエリアAeとのずれ量(シフト量)を各方向についての被写体移動量として検出し、ステップS27に進む。
つまり、ここでは、色域内画素数算出部32と移動量検出部34とが協働して、第1の画像G1のAFエリアAeの位置における色情報(ここでは、主被写体の色を表す色域に係る情報)と、第2の画像G2上の複数の色評価エリア(例えば、色評価エリアCE1〜CE7)における色情報とを比較することにより、被写体の移動(ここでは、被写体移動量)を検出する手段(「第1の移動検出手段」とも称する)として機能する。
ステップS27では、所定のタイミングで、ステップS26で検出される縦および横方向への被写体移動量に基づいて、画像に対するAFエリアの位置を移動・変更し、ステップS28に進む。なお、ここで所定のタイミングとは、例えば、被写体移動量が検出された直後のタイミングなどであり、被写体移動量が検出された直後にAF評価値算出部14に読み込まれる画像データに対して、被写体移動量に基づいて移動させた位置にAFエリアAeが設定される。
よって、カメラ制御部30が、第1の移動検出手段によって検出された被写体の移動に基づいて、CCD11によって取得される画像に対して合焦状態の評価をするためのAFエリアAe(合焦評価領域)の位置を決定する手段として機能する。このようにして、ワンショットAF動作後におけるAFエリアAeの決定が行われる。
ステップS28では、ユーザによってシャッタボタン61が全押しされて、状態S2となっているか否かを判別する。ここでは、状態S2となっていれば、ステップS29に進み、状態S2となっていなければステップS25に戻る。つまり、状態S2となるまで、順次、ライブビュー撮影によって画像を取得しつつ、AFエリアを被写体の移動に応じて移動・変更させる被写体色追尾AF動作を行う。
ステップS29では、記録用の画像を取得する本撮影動作を行い、撮影動作フローを終了する。
<1−4−3.ポートレートモードにおける撮影動作フロー>
ポートレートモードに設定されていない場合は、主被写体が人物に限られず、主被写体の色が特定されないため、被写体追尾AF動作を開始する時点において、AFエリアAeに属する主被写体を示す色域を認識し、その色域に属するCbCr値を示す主被写体の移動を追尾することによって、被写体追尾AF動作を実現した。
これに対して、ポートレートモードに設定されている場合には、主被写体が人物であると考えられるため、人物の顔などの肌色を追尾することで、被写体追尾AF動作を実現する。以下、ポートレートモードに設定されている場合における被写体追尾AF動作について説明する。
図10は、追尾する肌色を示す色域の設定について説明する図である。図10は、図9と同様に、横軸方向がCb、縦軸方向がCrを示す2次元色空間を示しており、ハッチングを付した領域が肌色を示す色域(以下、「肌色域」と称する)を示す。図10に示すように、肌色域は、おおよそ、TH5>Cb>TH7かつTH11>Cr>TH9の関係、またはTH6>Cb>TH8かつTH12>Cr>TH10の関係を満たす領域として近似することができる。
図11および図12は、ポートレートモードに設定されている場合における被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。本動作フローは、カメラ制御部30の制御下で実現される。なお、図11および図12に示す動作フローでは、図8と同様に、被写体追尾AFのうち、AFエリアの移動について着目して示している。但し、ワンショットAF終了後から状態S2となるまでの間、AFエリアの移動のための動作フローと並行して、上述したコンティニュアスAF動作が行われる。
ここでは、撮影待機状態において、ユーザによってシャッタボタン61が半押しされることで、状態S1となると、撮影動作フローを開始し、ステップS31に進む。
ステップS31では、上述したワンショットAF動作が行われ、ステップS32に進む。なお、ワンショットAF動作時には、上述したように、画像の中央付近に、AFエリアAeが設定される。
ステップS32では、AFエリアAe内の肌色を示す画素数(肌色画素数)C0をカウントし、ステップS33に進む。ここでは、AFエリアAe内の画素のうち、図10に示す肌色域に属するCbCr値を示す画素数をカウントする。
ステップS33では、ステップS32でカウントされた肌色画素数C0が所定値以上であるか否か判別する。ここでは、例えば、AFエリアAe内の全画素のうちの2割にあたる画素数を所定値Hcとした場合には、肌色画素数C0が所定値Hc以上である場合には、ステップS34に進み、肌色画素数C0が所定値Hc未満である場合には、ステップS40に進む。
ここで、肌色画素数C0が所定値以上であるか否かを判別するのは、ポートレートモードに設定されているため、主被写体は人物と考えられるが、例えば、人物が遠方に存在するために、AFエリアAeのうち人物が占める面積が小さな場合には、人物を示す肌色を正確に追尾することができないこともあり得るため、肌色画素数C0の数によって、AF動作の内容を変更するためである。
まず、ステップS33からステップS34に進んだ場合について説明する。
ステップS34では、肌色を追尾する被写体追尾AF動作(以下、「肌色追尾AF動作」と称する)を開始し、ステップS35に進む。
ステップS35では、肌色追尾AF動作の開始直後にカメラ制御部30が取得する画像データについて、上述したように、AFエリアAeを基準として、縦横方向に各々少しずつずらして、複数の色評価エリア(例えば、色評価エリアCE1〜CE7)を設定する。そして、それら設定される各色評価エリアについて、TH5>Cb>TH7かつTH11>Cr>TH9の関係、またはTH6>Cb>TH8かつTH12>Cr>TH10の関係を満たす、すなわち図10に示す色域に属するCbCr値を示す肌色画素数をカウントし、ステップS36に進む。
ステップS36では、各色評価エリアの肌色画素数と、ステップS32でカウントされた肌色画素数C0とを比較し、ステップS37に進む。
ステップS37では、縦および横方向についてそれぞれ、ステップS32でカウントされた肌色画素数C0と最も近い肌色画素数を有する色評価エリアと、AFエリアAeとのずれ量(シフト量)を各方向についての被写体移動量として検出し、ステップS38に進む。
ステップS38では、ステップS37で検出された縦および横方向への被写体移動量に基づいて、次のAFエリアAeの位置を決定し、現フレームにおける次のAFエリアAeに対応するエリア内の肌色画素数Ciをカウントし、ステップS39に進む。
ステップS39では、所定のタイミングで、ステップS38で決定されたAFエリアAeの位置に、画像に対するAFエリアAeの位置を移動・変更し、図12のステップS51に進む。なお、ここで所定のタイミングとは、被写体移動量が検出された直後のタイミングなどであり、被写体移動量が検出された直後にAF評価値算出部14に読み込まれる画像データに対して、被写体移動量に基づいて移動させた位置にAFエリアAeが設定される。
ステップS51では、ステップS39、または、後述するステップS55で移動・設定されたAFエリアAeを基準として、縦および横方向に各々少しずつずらして、画像に対して複数の色評価エリア(例えば、色評価エリアCE1〜CE7)を設定する。そして、それら設定される各色評価エリアについて、TH5>Cb>TH7かつTH11>Cr>TH9の関係、またはTH6>Cb>TH8かつTH12>Cr>TH10の関係を満たす、すなわち図10に示す色域に属するCbCr値を示す肌色画素数をカウントし、ステップS52に進む。
ステップS52では、各色評価エリアの肌色画素数と、ステップS38でカウントされた肌色画素数Ciとを比較し、ステップS53に進む。
ステップS53では、縦および横方向についてそれぞれ、肌色画素数Ciに最も近い肌色画素数を有する色評価エリアと、先に設定されているAFエリアAeとのずれ量(シフト量)を各方向についての被写体移動量として検出し、ステップS54に進む。
ステップS54では、ステップS53で検出された縦および横方向への被写体移動量に基づいて、次のAFエリアAeの位置を決定し、現フレームにおける次のAFエリアAeに対応するエリア内の肌色画素数Ci+1をカウントし、ステップS55に進む。
ステップS55では、所定のタイミングで、ステップS54で決定された次のAFエリアAeの位置に、画像に対するAFエリアの位置を移動・変更し、ステップS56に進む。なお、ここで所定のタイミングとは、ステップS39と同様に、被写体移動量が検出された直後のタイミングなどであり、被写体移動量が検出された直後にAF評価値算出部14に読み込まれる画像データに対して、被写体移動量に基づいて移動させた位置にAFエリアAeが設定される。
ステップS56では、ユーザによってシャッタボタン61が全押しされて、状態S2となっているか否かを判別する。ここでは、状態S2となっていれば、ステップS57に進み、状態S2となっていなければ、ステップS58に進む。
ステップS58では、次回のiがi+1となるように設定され、ステップS51に戻る。ここで、次回のiがi+1となるようにすることで、例えば、1回目のステップS51からステップS56までの動作フローにおいては、Ci=C1となり、2回目のステップS51からステップS56までの動作フローにおいては、Ci=C2となる。そして、状態S2となるまで、順次、ライブビュー撮影によって画像を取得しつつ、AFエリアを被写体の移動に応じて移動・変更させる被写体色追尾AF動作を行う。
ステップS57では、記録用の撮影画像を取得する本撮影動作を行い、撮影動作フローを終了する。
次に、ステップS33からステップS40に進んだ場合について説明する。
ステップS40では、肌色を追尾するAF動作、すなわち、被写体追尾AF動作を禁止し(OFF状態)、ステップS41に進む。
ステップS41では、ユーザによってシャッタボタン61が全押しされて、状態S2となっているか否かを判別する。ここでは、状態S2となっていれば、ステップS42に進み、状態S2となるまで、ステップS41の判別を繰り返す。ここでは、被写体追尾AF動作が禁止されるため、AFエリアを固定して、単なるコンティニュアスAF動作が、状態S2となるまで行われる。
ステップS42では、記録用の撮影画像を取得する本撮影動作を行い、撮影動作フローを終了する。
なお、上記説明において、AFエリアAe(AFエリアとすべき領域とされているエリア)は、第1の画像において、実際に合焦状態の評価に用いられているエリア(実際のAFエリア)であることが理想であるが、上記コンティニュアスAFの処理におけるAFエリアの決定と画像の取得タイミングとにずれがあるため、実際上では、実際のAFエリアと多少位置が相違することがあるが、これを許容する。すなわち、AFエリアとすべき(合焦評価に用いられるべき)であると決定されている位置の領域であれば良い。以下、AFエリアAeと実際のAFエリアとの位置が相違する場合の一例について、図13を参照しつつ、具体例を挙げて説明する。
図13は、AFエリアAeの位置と、実際のAFエリアR−Aeの位置との相違について説明するための図である。ここでは、順次複数の画像(フレーム1,フレーム2,・・・)を取得するものとしている。また、ここでは、AFエリアAeは、次フレームとの色情報の比較を行うためのエリア、すなわち、最初はワンショットAF動作時のAFエリアを示しており、その後は、前フレームとの色情報の比較により、主被写体の移動先と判定され合焦状態の評価に用いるように決定されている領域を示している。つまり、図13では、各フレームに対する実際のAFエリアR−AeとAFエリアAeとの位置関係、およびそれらのエリアの移動について示している。
なお、図13では、説明を簡略化するために、右方向に主被写体が移動する例を示しており、各フレームにおける画像全体のエリアは示さず、各フレームに対応するAFエリアAe、実際のAFエリアR−Ae、および色評価エリアCE1〜CE7の位置関係を示している。
例えば、まず、S1状態となり、ワンショットAF動作が行われる時点においては、画像の中央に実際のAFエリアR−Aeが設けられ、この時点では、被写体追尾AF動作が開始されていないため、実際のAFエリアR−AeとAFエリアAeの位置が一致する。そして、ここでは、ワンショットAF動作終了時点において取得される画像をフレーム1としている。つまり、フレーム1の中央に実際のAFエリアR−Ae、AFエリアAeが設けられる。
被写体追尾AF動作を開始すると、フレーム2に対し、画像の中央に実際のAFエリアR−Aeが設けられ、その近傍に図6、図7で示したように色評価エリアCE1〜CE7が設けられる。そして、フレーム1のAFエリアAeの色情報と、色評価エリアCE1〜CE7の色情報とを比較することにより、色評価エリアCE5の位置が次のAFエリアの位置(AFエリアAe)として決定される。
ここでは、AFエリアの移動のための動作と並行して、上述したコンティニュアスAF動作が行われるが、色情報の演算などに要する時間のため、次のAFエリアAeの位置を決定するタイミングにおいて、CCD11からの(例えば)フレーム3に係る画像データの読出し、フレーム3についての合焦評価値の算出が開始される。
そうすると、フレーム3に対しては、画像の中央に実際のAFエリアR−Aeが設けられたままとならざるを得ない。そして、フレーム2の色評価エリアCE1〜CE7の色情報に基づいて決定される次のAFエリアAeの位置は、フレーム4についての合焦評価値の算出において反映される。
その一方で、AFエリアAeは、順次、前フレームにおいて決定されたAFエリアAeと、次のフレームにおいてAFエリアAeを中心として設けられる色評価領域CE1〜CE7とにおける色情報を比較することにより、次のAFエリアAeの位置を決定していく。
その結果、このような場合には、図13に示すように、フレーム1とフレーム2との色情報の比較の結果が、フレーム4において反映され、実際のAFエリアR−Aeが設定されるため、同一フレームに対する、AFエリア(AFエリアとすべき領域とされているエリア)Aeと、実際のAFエリアR−Aeとの位置が多少相違することとなる。
したがって、本実施形態で言う「合焦状態の評価に用いるよう決定されている領域」は、理想的には「実際にその時点で合焦状態の評価に用いられる領域」であり、さらに、AFエリアAeを決定するタイミングと画像データの読出しのタイミングとの関係に応じて、「合焦状態の評価に用いられるべき領域として決定されている位置の領域」換言すれば「将来的に合焦状態の評価に用いられる領域」を含むものである。
<1−4−4.AFエリアおよびAFエリアポインタの移動・変更>
ここで、AFエリアAeおよびLCD20に表示されるAFエリアポインタの移動・変更について、具体的に説明する。
図14は、AFエリアAeおよび主被写体の位置を示すAFエリアポインタSPの変更について例示する図である。図14(a)では、例えば、ワンショットAF動作直後の画像(第1フレーム)F1について示しており、図14(b)では、さらにNフレーム後の画像FNについて示している。なお、被写体位置を示すAFエリアポインタSPは、LCD20に表示されるライブビュー画像上における被写体の位置を示す表示であり、LCD20が、ライブビュー画像とともにAFエリアポインタSPを重畳表示する。また、図14では、画像に対して設定されるAFエリアAeと、LCD20でのライブビュー画像上に表示されるAFエリアポインタSPとの位置関係を明確化するために、便宜上、AFエリアAeとAFエリアポインタSPとを併せて示している。
上述したように、移動量検出部34において検出された被写体移動量(縦及び横方向への被写体移動量)を示すデータが、AF評価値算出部14に送信され、図14に示すように、カメラ制御部30の制御下で、AF評価値算出部14が、移動量検出部35で検出された被写体移動量に基づいて、AFE12から入力される画像に対して設定されるAFエリアの位置を移動させるとともに、ドライバ19によって、LCD20上に表示されるAFエリアポインタSPの位置を移動・変更させる。
例えば、図14(a)に示すように、ワンショットAF動作直後に、AF評価値算出部14に入力される画像F1に対してAFエリアAeが設定された後、検出された被写体移動量に応じて、AFエリアAeの位置が変更され、図14(b)に示すように、被写体を追従するようにAFエリアAeが変更・移動される。その結果、被写体を追尾しながら、被写体に対して合焦させることができるため、被写体の移動に対応して撮影レンズ10の合焦状態を保持することができる。
また、このとき、図14(a)に示すように、ワンショットAF動作直後に、LCD20に表示されるライブビュー画像に対してAFエリアポインタSPが重畳して表示された後、検出される被写体移動量に応じて、AFエリアポインタSPの位置が変更され、図14(b)に示すように、被写体を追従するようにAFエリアポインタSPの位置が変更される。つまり、ドライバ19が、検出される被写体移動量に基づいて、LCD20上に表示される画像上でのAFエリアポインタSPの位置を変更する手段として機能する。そして、その結果、操作者が、ライブビュー画像上のポインタSPを観察することによって、AFエリアAe等の被写体に対する追尾状況を把握することができる。
以上のように、第1実施形態に係る撮像装置1では、ユーザによるシャッタボタン61の押下操作に応答して、AF動作を開始し、ライブビュー撮影をしつつ、時間的に前後して第1と第2の画像G1,G2をこの順序で取得しつつ、複数の画像を時間順次に取得する。そして、第1の画像G1のうちその時点においてAFエリアAeとして決定される領域における色情報と、第2の画像G2に対して設定される色評価エリア(AFエリアに対応するエリアおよびその近傍のエリア)における色情報とを比較することにより、被写体の移動を検出する。そして、画像の色に係る情報は、コンティニュアスAF動作における撮影レンズ10の前後駆動に起因するデフォーカスによって、影響を受けにくい。その結果、被写体の移動を精度良く検出することができる。
ここで、コントラストが高い被写体を撮影する際には、時間順次に取得される複数の画像について、主被写体が存在する輝度パターンを追尾することによっても、被写体の移動を精度良く検出することができるが、例えば、一般的にコントラストが低い人物の顔などを主被写体とする場合には、輝度パターンの変化を検出することが難しく、被写体の移動を精度良く検出することが困難となり易いと考えられる。しかし、ここでは、主被写体の色を追尾することにより、被写体の移動を精度良く検出することができるため、輝度の高低に拘わらず、種々の撮影条件において、被写体の移動を精度良く検出することが可能となる。
そして、色情報の比較によって検出された被写体の移動に基づいて、画像に対して設定される合焦状態を評価するための対象領域(AFエリア)の位置を決定し、移動させる。その結果、被写体の移動に対応して合焦状態を保持することができる。
<第2実施形態>
上述した第1実施形態に係る撮像装置1では、主被写体の色を追尾し、被写体移動量を検出することで、被写体追尾AF動作を実現したが、第2実施形態に係る撮像装置1Aでは、主被写体の輝度パターンを追尾しつつ、併せて、主被写体の色の追尾も行うことで、被写体追尾AF動作の精度向上を図っている。
図15は、第2実施形態に係る撮像装置1Aの主な機能構成を示すブロック図である。図15に示す撮像装置1Aの主な機能構成は、図1に示す撮像装置1の主な機能構成と同様な部分が多いため、以下では、異なる部分について主に説明し、同様な部分については、同じ符合を付して説明を省略する。
図15に示すように、カメラ制御部30の機能には、被写体の輝度パターンを追尾することで被写体追尾AF動作を実現するための機能が付加されている。具体的には、カメラ制御部30には、被写体の輝度を評価する輝度評価値を算出する輝度評価値算出部36が機能の一つとして加えられ、移動量検出部34Aが、輝度評価値と肌色画素数とに基づいて、被写体移動量を検出する。
以下、第2実施形態に係る撮像装置1Aにおける被写体追尾AF動作フローを含む撮影動作フローを説明する。
図16は、第2実施形態に係る被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。本動作フローは、カメラ制御部30の制御下で実現される。なお、図16で示す動作フローでは、被写体追尾AF動作のうち、AFエリアの移動について着目して示しており、ワンショットAF終了後から状態S2となるまでの間、AFエリアの移動のための動作フローと並行して、上述したコンティニュアスAF動作が行われる。
ここでは、撮影待機状態において、ユーザによってシャッタボタン61が半押しされることで、状態S1となると、撮影動作フローを開始し、ステップS61に進む。
ステップS61では、第1実施形態で説明したものと同様なワンショットAF動作が行われ、ステップS62に進む。なお、ワンショットAF動作時には、上述したように、画像の中央付近に、AFエリアAeが設定される。
ステップS62では、AFエリアAe内の肌色を示す画素数(肌色画素数)C1をカウントし、ステップS63に進む。ここでは、AFエリアAe内の画素のうち、図10に示す肌色域に属するCbCr値を示す画素数をカウントする。
ステップS63では、被写体追尾AF動作を開始し、ステップS64に進む。
ステップS64では、輝度情報による被写体移動量の検出が行われ、ステップS65に進む。ここでは、例えば、AFエリアAeの位置を基準として、上述したように、各色評価エリア(例えば、色評価エリアCE1〜CE7)を設ける。そして、輝度評価値算出部36が、各色評価エリアについて、それぞれ輝度値の平均値などの輝度を評価するための輝度評価値を算出し、移動量検出部34Aが、前のフレームの画像(例えば、第1の画像)のAFエリアAeにおける輝度評価値と、最も近い輝度評価値(輝度パターン)を有する現フレームの画像(例えば、第2の画像)における色評価エリアを検出し、そのずれ量(シフト量)を被写体移動量として検出する。つまり、ここでは、輝度評価値算出部36と移動量検出部34Aとが協働して、被写体の移動(ここでは、被写体移動量)を検出する手段(「第2の移動検出手段」とも称する)として機能する。
ステップS65では、ステップS64で検出される被写体移動量に基づいて、次のフレームに対して設定されるAFエリアの移動先、すなわち、AFエリアの候補となるエリア(候補エリア)を決定し、現フレームについて、その候補エリアの位置に相当するエリア内の肌色画素数HCn(nは自然数)をカウントし、ステップS66に進む。つまり、カメラ制御部30が、第2の移動検出手段によって検出された被写体移動量に基づいて、CCD11によって取得される画像に対して次にAFエリアとして設定される候補エリアを決定する手段として機能する。そして、ステップS65では、TH5>Cb>TH7かつTH11>Cr>TH9の関係、またはTH6>Cb>TH8かつTH12>Cr>TH10の関係を満たす、すなわち図10に示す肌色域に属する肌色画素数HCnをカウントする。
ステップS66では、ステップS62でカウントされた肌色画素数C1または後述するステップS68でカウントされた肌色画素数Ci+1(iは自然数)と、ステップS65でカウントされた肌色画素数HCnとの比(すなわち、HCn/Ci)が所定値(例えば、0.8)以下であるか否か判別する。ここでは、HCn/Ci≦0.8の関係が成立する場合は、ステップS67に進み、HCn/Ci>0.8の関係が成立する場合は、ステップS68に進む。つまり、カメラ制御部30が、第1の画像G1のAFエリアAeにおける色情報と、候補エリアに対応する第2の画像G2上のエリアにおける色情報との相違の度合いを算出する手段として機能する。
ステップS67では、ステップS62または後述するステップS68で肌色画素数がカウントされたフレームの次のフレームについて、上述したように、AFエリアAeを基準として、縦および横方向に各々少しずつずらして設定される各色評価エリア(例えば、色評価エリアCE1〜CE7)で、TH5>Cb>TH7かつTH11>Cr>TH9の関係、またはTH6>Cb>TH8かつTH12>Cr>TH10の関係を満たす、すなわち図10に示す色域に属する肌色画素数をカウントする。
そして、移動量検出部34Aが、縦および横方向について、ステップS62でカウントされた肌色画素数C1、または、後述するステップS68でカウントされた肌色画素数Ci+1と最も近い肌色画素数を有する色評価エリアと、AFエリアAeとのずれ量(シフト量)を、各方向への被写体移動量として検出し、ステップS68に進む。
ステップS68では、ステップS64またはステップS67で検出された縦および横方向への被写体移動量に基づいて、次のAFエリアAeの位置を決定し、現フレームにおける次のAFエリアAeに対応するエリア内の肌色画素数Ci+1をカウントし、ステップS69に進む。
ここでは、ステップS66からステップS68に進んできた場合には、輝度情報による被写体移動量の検出が、肌色を有する主被写体の移動を良く反映したものと考えられる。そのため、ステップS68では、ステップS64で輝度情報を用いて検出された被写体移動量に基づいて、次のAFエリアAeの位置を決定する。一方、ステップS67からステップS68に進んできた場合には、肌色を有する主被写体の移動を追尾するために、ステップS67において肌色画素数を用いて検出される被写体移動量に基づいて、次のAFエリアAeの位置を決定する。
ステップS69では、所定のタイミングで、ステップS68で決定されたAFエリアAeの位置に、画像に対するAFエリアAeの位置を移動・変更し、ステップS70に進む。なお、ここで所定のタイミングとは、被写体移動量が検出された直後のタイミングなどであり、被写体移動量が検出された直後にAF評価値算出部14に読み込まれる画像データに対して、被写体移動量に基づいて移動させた位置にAFエリアAeが設定される。
つまり、AFエリア移動部35が、第1の画像G1のうちその時点において合焦状態の評価に用いるよう決定されているAFエリアAe(第1の比較領域)における色情報と、候補エリアに対応する第2の画像G2上のエリアにおける色情報との相違の度合いが所定量以上の場合は、色情報(ここでは、肌色画素数)に基づいて被写体移動量を検出する手段によって検出された被写体移動量に基づいて、CCD11によって取得される画像に対するAFエリアの位置を決定し、移動させる。
別の観点から言えば、カメラ制御部30が、CCD11によって取得される画像に係る色情報(ここでは、肌色に係る情報、すなわち肌色画素数)に基づいて、色情報(ここでは、肌色画素数)によって被写体移動量を検出する手段(第1の移動検出手段)、および輝度情報によって被写体移動量を検出する手段(第2の移動検出手段)のうち、いずれか一方の手段によって、被写体移動量の検出を行うように制御する手段として機能する。
ステップS70では、ユーザによってシャッタボタン61が全押しされて、状態S2となっているか否かを判別する。ここでは、状態S2となっていれば、ステップS71に進み、状態S2となっていなければ、ステップS72に進む。
ステップS72では、次回のiがi+1となり、次回のnがn+1となるように設定され、ステップS64に戻る。ここでは、次回のi,nをそれぞれi+1,n+1となるようにすることで、例えば、1回目のステップS64からステップS70までの動作フローにおいては、Ci=C1,HCn=HC1となり、2回目のステップS64からステップS70までの動作フローにおいては、Ci=C2,HCn=HC2となる。そして、状態S2となるまで、順次、ライブビュー撮影によって画像を取得しつつ、AFエリアを被写体の移動に応じて移動・変更させる被写体色追尾AF動作を行う。
ステップS71では、記録用の撮影画像を取得する本撮影動作を行い、撮影動作フローを終了する。
なお、この実施形態においても、第1の画像におけるAFエリアAeは、第1実施形態同様、AFに実際に用いられるエリアとは多少位置が異なっていることがあり得るが、そのような構成をも含むものである。
以上のように、輝度情報に基づいて被写体移動量を検出する手段(第2の移動検出手段)によって検出された移動量に基づいて、次回のAFエリアとして設定される候補のエリア(候補領域)を決定する。そして、前のフレームの画像(第1の画像)のうちその時点において合焦状態の評価に用いるよう決定されているAFエリアAeにおける色情報と、候補領域に対応する第2の画像上の領域における色情報との相違の度合いが、所定量以上の場合には、肌色情報に基づいて被写体の移動を検出する手段(第1の移動検出手段)によって検出される被写体の移動に基づいて、AFエリアAeを決定し、移動させる。その結果、検出される被写体の移動の信頼性、ひいては、被写体の移動に応じた合焦制御の信頼性を向上させることができる。
また、撮影画像中に肌色を有する人物が数多く存在する場合などには、肌色のみを追尾していたのでは、他の肌色の存在によって、主被写体の移動を正確に検出することが困難となる。そのような場合には、輝度情報に基づいて被写体の移動を検出することで、精度良く被写体の移動を検出することができる。その一方で、被写体の輝度が低い場合や被写体の輝度に変化(コントラスト)がない場合などには、輝度パターンを追尾していたのでは、主被写体の移動を正確に検出することが困難となる。よって、そのような場合には、肌色情報に基づいて被写体の移動を検出することで、精度良く被写体の移動を検出することができる。
つまり、輝度情報と肌色情報の両方で相互に長所と短所を補完しつつ、被写体の移動を検出することで、検出される被写体の移動の信頼性を向上させることができる。その結果、精度良く、信頼性の高い被写体追尾AF動作を実現することができる。言い換えれば、被写体に係る画像について肌色画素数などの色情報に基づいて、2つの移動検出手段のうちのいずれか一方によって、被写体の移動を検出するように制御するため、被写体の状況に応じた被写体の移動の検出および合焦制御を実現することができる。
さらに、ここでは、肌の色に関する情報に基づいて、被写体の移動を検出するため、肌色の部分を多く有する人物が主な被写体の場合に、被写体の移動を精度良く検出することができる。
<変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
◎例えば、上述した実施形態では、例えば、人物が主被写体の場合など、肌色を多く有する主被写体を追尾する場合に、肌色を表す色域に属する画素数、すなわち肌色に係る情報に基づいて、被写体の移動を検出したが、これに限られるものではなく、例えば、顔などの肌色と、髪の毛の黒色などの、2以上の複数の色域に属する色に関する情報に基づいて、被写体の移動を検出したり、被写体の移動の検出手段を変更するようにしても良い。このような構成とすることで、1つの色を追尾するよりも、複数の色を追尾する方が被写体の移動をより正確かつ精度良く検出することができる。
◎また、上述した第2実施形態では、被写体の移動を検出する方式のうち、色情報を比較する方式以外のものとして、輝度の変化を検出する方式について説明したが、これに限られるものではなく、例えば、従来技術で示したコントラストの変化を検出する方式やパッシブ位相差方式などの公知の種々の方式などであっても良い。
◎また、上述した実施形態では、AFエリアを移動させる毎に、前フレームのAFエリアに相当するエリアにおける肌色画素数と、現フレームの色評価エリアにおける肌色画素数とを比較することによって、被写体の移動を検出したが、これに限られるものではなく、例えば、ワンショットAF動作直後に、AFエリアについて検出される肌色画素数と、順次取得されるフレームの色評価エリアにおける肌色画素数とを比較することによって、被写体の移動を検出しても良い。
第1実施形態に係る撮像装置の主な機能構成を示すブロック図である。 ワンショットAF動作におけるAFエリアを例示する図である。 ワンショットAF動作の動作フローを例示するフローチャートである。 コンティニュアスAF動作の動作フローを例示するフローチャートである。 撮影レンズの位置とAF評価値との関係を例示する図である。 色情報を比較するための複数の色評価エリアを例示する図である。 色情報を比較するための複数の色評価エリアを例示する図である。 ポートレートモードに設定されていない場合における被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。 追尾する被写体の色領域の設定について説明する図である。 追尾する肌色領域の設定について説明する図である。 ポートレートモードに設定されている場合における被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。 ポートレートモードに設定されている場合における被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。 AFエリアとすべきエリアと実際のAFエリアとの相違を説明する図である。 AFエリア及びAFエリアポインタの変更例を示す図である。 第2実施形態に係る撮像装置の主な機能構成を示すブロック図である。 第2実施形態に係る被写体追尾AF動作フローを含む撮影動作フローを例示するフローチャートである。
符号の説明
1,1A 撮像装置
10 撮影レンズ
11 CCD撮像素子
19 ドライバ
20 LCD
30 カメラ制御部
31 色域算出部
32 色域内画素数算出部
33 肌色画素数算出部
34,34A 移動量検出部
35 AFエリア移動部
36 輝度評価値算出部
Ae AFエリア
CE1〜CE7 色評価エリア
V1〜V10 縦長エリア

Claims (10)

  1. 被写体に係る光学像に基づいて、時間的に前後して第1と第2の画像をこの順序で取得する撮像手段と、
    前記第1の画像に対して、第1の比較領域を設定する第1の領域設定手段と、
    前記第2の画像に対して、第2の比較領域を設定する第2の領域設定手段と、
    前記第1の比較領域における色情報と、前記複数の第2の比較領域における色情報とを比較することにより、被写体の移動を検出する第1の移動検出手段と、
    を備えることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置であって、
    前記第1の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対して合焦状態を評価するための合焦評価領域の位置を決定する合焦領域決定手段、
    をさらに備えることを特徴とする撮像装置。
  3. 請求項2に記載の撮像装置であって、
    被写体の移動を検出する第2の移動検出手段と、
    前記第2の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対して次に合焦評価領域として設定される候補領域を決定する候補領域決定手段と、
    前記第1の比較領域における色情報と、前記候補領域に対応する前記第2の画像上の領域における色情報との相違の度合いを算出する算出手段と、
    をさらに備え、
    前記合焦領域決定手段が、
    前記相違の度合いが所定量以上の場合は、前記第1の移動検出手段によって検出された被写体の移動に基づいて、前記撮像手段によって取得される画像に対する合焦評価領域の位置を決定することを特徴とする撮像装置。
  4. 請求項1または請求項2に記載の撮像装置であって、
    被写体の移動を検出する第2の移動検出手段と、
    前記撮像手段によって取得される画像に係る色情報に基づいて、前記第1および第2の移動検出手段のうちいずれか一方によって被写体の移動を検出するように制御する制御手段と、
    をさらに備えることを特徴とする撮像装置。
  5. 請求項1から請求項4のいずれかに記載の撮像装置であって、
    前記色情報が、
    肌の色に関する情報を含むことを特徴とする撮像装置。
  6. 請求項1から請求項5のいずれかに記載の撮像装置であって、
    各前記第2の比較領域が、
    前記第2の領域設定手段によって、前記第2の画像上の1つの領域を複数に分割した分割比較領域のうちの少なくとも2つ以上の分割比較領域を含み、かつ、前記複数の第2の比較領域のうちの少なくとも他の1つの第2の比較領域と部分的に重複するような領域として設定され、
    前記複数の分割比較領域における色情報に基づいて、各前記第2の比較領域における色情報を求めることを特徴とする撮像装置。
  7. 請求項1から請求項6のいずれかに記載の撮像装置であって、
    前記色情報が、
    二次元の色空間上における所定の色域に属する画素数、または、前記所定の色域に属する領域の大きさに関する情報であることを特徴とする撮像装置。
  8. 請求項1から請求項7のいずれかに記載の撮像装置であって、
    前記撮像手段によって取得される画像とともに前記被写体の位置を示す位置表示を表示する表示手段と、
    前記被写体の移動に基づいて、前記表示手段によって表示される画像上での前記位置表示の位置を変更する変更手段と、
    をさらに備えることを特徴とする撮像装置。
  9. 請求項1から請求項8のいずれかに記載の撮像装置であって、
    前記色情報が、
    複数の色域に属する色に関する情報を含むことを特徴とする撮像装置。
  10. 撮像装置に含まれるコンピュータによって実行されることにより、前記撮像装置を、請求項1から請求項9のいずれかに記載の撮像装置として機能させるプログラム。
JP2003287780A 2003-08-06 2003-08-06 撮像装置、およびプログラム Expired - Fee Related JP3918788B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003287780A JP3918788B2 (ja) 2003-08-06 2003-08-06 撮像装置、およびプログラム
US10/901,734 US7136581B2 (en) 2003-08-06 2004-07-29 Image taking apparatus and program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003287780A JP3918788B2 (ja) 2003-08-06 2003-08-06 撮像装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2005055744A true JP2005055744A (ja) 2005-03-03
JP3918788B2 JP3918788B2 (ja) 2007-05-23

Family

ID=34114025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003287780A Expired - Fee Related JP3918788B2 (ja) 2003-08-06 2003-08-06 撮像装置、およびプログラム

Country Status (2)

Country Link
US (1) US7136581B2 (ja)
JP (1) JP3918788B2 (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006308884A (ja) * 2005-04-28 2006-11-09 Olympus Corp オートフォーカス装置
JP2007179029A (ja) * 2005-11-30 2007-07-12 Nikon Corp 焦点調節装置、焦点調節方法、およびカメラ
JP2008009263A (ja) * 2006-06-30 2008-01-17 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2008046354A (ja) * 2006-08-16 2008-02-28 Nikon Corp 被写体追尾装置およびカメラ
WO2008026434A1 (fr) * 2006-08-30 2008-03-06 Nikon Corporation Appareil et procédé d'alignement d'image, ainsi que caméra
JP2008113423A (ja) * 2006-10-03 2008-05-15 Nikon Corp 追尾装置、撮像装置、および追尾方法
JP2009027298A (ja) * 2007-07-18 2009-02-05 Ricoh Co Ltd 撮像装置および撮像装置の制御方法
JP2009522591A (ja) * 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置
WO2010089836A1 (ja) * 2009-02-06 2010-08-12 Kobayashi Masahiro 画像処理装置
JP2011029759A (ja) * 2009-07-22 2011-02-10 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2012099174A1 (ja) * 2011-01-18 2012-07-26 富士フイルム株式会社 オートフォーカスシステム
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera
US8385597B2 (en) 2006-10-03 2013-02-26 Nikon Corporation Tracking device and image-capturing apparatus
JP2013098935A (ja) * 2011-11-04 2013-05-20 Olympus Imaging Corp 追尾装置及び追尾方法
JP2014016637A (ja) * 2013-09-12 2014-01-30 Canon Inc 撮像装置及びその制御方法
JP2014074977A (ja) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology 画像処理装置、画像処理方法および画像処理プログラム
KR101446781B1 (ko) 2014-04-21 2014-10-01 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR101446772B1 (ko) * 2008-02-04 2014-10-01 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어 방법
US8866956B2 (en) 2008-04-09 2014-10-21 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
JP2015045758A (ja) * 2013-08-28 2015-03-12 キヤノン株式会社 撮像装置およびその制御方法
US9129406B2 (en) 2012-09-03 2015-09-08 Masahiro Kobayashi Image processing method
CN109639976A (zh) * 2018-12-24 2019-04-16 北京百度网讯科技有限公司 焦点确定方法和装置

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8085993B2 (en) * 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8049812B2 (en) * 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8705808B2 (en) * 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
JP4443354B2 (ja) * 2004-09-07 2010-03-31 パナソニック株式会社 映像信号処理回路および撮像装置
EP1659783A3 (en) * 2004-11-19 2006-05-31 Fujinon Corporation Af-area display apparatus and af-area operation apparatus
US8525892B2 (en) * 2005-04-21 2013-09-03 Canon Kabushiki Kaisha Imaging apparatus and control method therefor
US20060268330A1 (en) * 2005-05-10 2006-11-30 Tetsuhiro Takanezawa Image reproduction apparatus and image reproduction method
TWI343220B (en) * 2005-05-19 2011-06-01 Mstar Semiconductor Inc Noise reduction method
US8416323B2 (en) * 2005-05-19 2013-04-09 Mstar Semiconductor Inc. Noise reduction method and noise reduction apparatus
JP4569555B2 (ja) * 2005-12-14 2010-10-27 日本ビクター株式会社 電子機器
US7909256B2 (en) * 2005-12-31 2011-03-22 Motorola Mobility, Inc. Method and system for automatically focusing a camera
AU2007220010B2 (en) * 2006-03-03 2011-02-17 Gentex Corporation Single lens splitter camera
WO2008019169A2 (en) 2006-03-03 2008-02-14 Honeywell International, Inc. Iris encoding system
US8107762B2 (en) 2006-03-17 2012-01-31 Qualcomm Incorporated Systems, methods, and apparatus for exposure control
JP4985062B2 (ja) * 2006-04-14 2012-07-25 株式会社ニコン カメラ
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP4720738B2 (ja) * 2006-12-20 2011-07-13 日本ビクター株式会社 電子機器
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
JP2009010777A (ja) * 2007-06-28 2009-01-15 Sony Corp 撮像装置、撮影制御方法、プログラム
US20090092283A1 (en) * 2007-10-09 2009-04-09 Honeywell International Inc. Surveillance and monitoring system
JP5176483B2 (ja) * 2007-10-30 2013-04-03 株式会社ニコン 画像認識装置、画像追尾装置および撮像装置
KR101445606B1 (ko) * 2008-02-05 2014-09-29 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
KR20100013171A (ko) * 2008-07-30 2010-02-09 삼성디지털이미징 주식회사 오토 포커스 영역의 움직임 보상 방법 및 장치, 이를이용한 오토 포커스 방법 및 장치
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) * 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8630464B2 (en) * 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8964103B2 (en) * 2010-02-16 2015-02-24 Blackberry Limited Method and apparatus for reducing continuous autofocus power consumption
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
TWI424361B (zh) * 2010-10-29 2014-01-21 Altek Corp 物件追蹤方法
US20130258167A1 (en) * 2012-03-28 2013-10-03 Qualcomm Incorporated Method and apparatus for autofocusing an imaging device
US9386298B2 (en) * 2012-11-08 2016-07-05 Leap Motion, Inc. Three-dimensional image sensors
KR20140132568A (ko) * 2013-05-08 2014-11-18 삼성전자주식회사 움직이는 물체를 하나의 이미지에 합성하기 위한 장치 및 방법
JP2017126035A (ja) * 2016-01-15 2017-07-20 キヤノン株式会社 撮像装置、制御方法、プログラム及び記憶媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5031049A (en) * 1984-05-25 1991-07-09 Canon Kabushiki Kaisha Automatic object image follow-up device
JPS60263584A (ja) 1984-06-11 1985-12-27 Canon Inc カメラにおける自動追尾装置
US5270767A (en) * 1989-12-21 1993-12-14 Minolta Camera Kabushiki Kaisha Camera with camera-shake detection apparatus
JP3271309B2 (ja) 1992-06-30 2002-04-02 ソニー株式会社 カメラ装置
US5392088A (en) * 1992-09-04 1995-02-21 Nikon Corporation Target follow-up device and camera comprising the same
JPH0730796A (ja) * 1993-07-14 1995-01-31 Sony Corp ビデオ信号追従処理システム
JP3732665B2 (ja) 1998-12-22 2006-01-05 株式会社リコー 自動焦点制御装置及びその合焦動作決定方法
JP3760846B2 (ja) 2001-11-22 2006-03-29 コニカミノルタフォトイメージング株式会社 被写体抽出装置及び撮影装置
JP4053764B2 (ja) 2001-11-22 2008-02-27 コニカミノルタオプト株式会社 被写体抽出装置及び撮影装置

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006308884A (ja) * 2005-04-28 2006-11-09 Olympus Corp オートフォーカス装置
JP2007179029A (ja) * 2005-11-30 2007-07-12 Nikon Corp 焦点調節装置、焦点調節方法、およびカメラ
JP2009522591A (ja) * 2005-12-30 2009-06-11 ノキア コーポレイション 関心領域を追跡することによってビデオカメラの自動焦点を制御するための方法および装置
US9063290B2 (en) 2006-06-28 2015-06-23 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US9639754B2 (en) 2006-06-28 2017-05-02 Nikon Corporation Subject tracking apparatus, camera having the subject tracking apparatus, and method for tracking subject
US8253800B2 (en) 2006-06-28 2012-08-28 Nikon Corporation Tracking device, automatic focusing device, and camera
JP2008009263A (ja) * 2006-06-30 2008-01-17 Casio Comput Co Ltd 撮像装置及びそのプログラム
US8284256B2 (en) 2006-06-30 2012-10-09 Casio Computer Co., Ltd. Imaging apparatus and computer readable recording medium
JP2008046354A (ja) * 2006-08-16 2008-02-28 Nikon Corp 被写体追尾装置およびカメラ
WO2008026434A1 (fr) * 2006-08-30 2008-03-06 Nikon Corporation Appareil et procédé d'alignement d'image, ainsi que caméra
JPWO2008026434A1 (ja) * 2006-08-30 2010-01-21 株式会社ニコン 画像追尾装置、画像追尾方法、およびカメラ
US8154605B2 (en) 2006-08-30 2012-04-10 Nikon Corporation Image tracking apparatus, image tracking method and camera for improved recognition of a target object
JP4930509B2 (ja) * 2006-08-30 2012-05-16 株式会社ニコン 画像追尾装置、画像追尾方法、およびカメラ
US8385597B2 (en) 2006-10-03 2013-02-26 Nikon Corporation Tracking device and image-capturing apparatus
JP2008113423A (ja) * 2006-10-03 2008-05-15 Nikon Corp 追尾装置、撮像装置、および追尾方法
JP2009027298A (ja) * 2007-07-18 2009-02-05 Ricoh Co Ltd 撮像装置および撮像装置の制御方法
US9094599B2 (en) 2008-02-04 2015-07-28 Samsung Electronics Co., Ltd. Digital image processing apparatus and method of controlling the same
US9374520B2 (en) 2008-02-04 2016-06-21 Samsung Electronics Co., Ltd. Digital image processing apparatus and method of controlling the same
KR101446772B1 (ko) * 2008-02-04 2014-10-01 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어 방법
US8866956B2 (en) 2008-04-09 2014-10-21 Canon Kabushiki Kaisha Image capturing apparatus and control method therefor
WO2010089836A1 (ja) * 2009-02-06 2010-08-12 Kobayashi Masahiro 画像処理装置
US8724196B2 (en) 2009-02-06 2014-05-13 Masahiro Kobayashi Image processing device
JP2011029759A (ja) * 2009-07-22 2011-02-10 Canon Inc 撮像装置及びその制御方法、並びにプログラム
WO2012099174A1 (ja) * 2011-01-18 2012-07-26 富士フイルム株式会社 オートフォーカスシステム
US9412008B2 (en) 2011-11-04 2016-08-09 Olympus Corporation Tracking apparatus and tracking method
JP2013098935A (ja) * 2011-11-04 2013-05-20 Olympus Imaging Corp 追尾装置及び追尾方法
US9129406B2 (en) 2012-09-03 2015-09-08 Masahiro Kobayashi Image processing method
JP2014074977A (ja) * 2012-10-03 2014-04-24 National Institute Of Advanced Industrial & Technology 画像処理装置、画像処理方法および画像処理プログラム
JP2015045758A (ja) * 2013-08-28 2015-03-12 キヤノン株式会社 撮像装置およびその制御方法
US9866755B2 (en) 2013-08-28 2018-01-09 Canon Kabushiki Kaisha Image capture apparatus and method for controlling the same
JP2014016637A (ja) * 2013-09-12 2014-01-30 Canon Inc 撮像装置及びその制御方法
KR101446781B1 (ko) 2014-04-21 2014-10-01 삼성전자주식회사 전자 장치 및 이의 제어 방법
CN109639976A (zh) * 2018-12-24 2019-04-16 北京百度网讯科技有限公司 焦点确定方法和装置

Also Published As

Publication number Publication date
US20050031325A1 (en) 2005-02-10
JP3918788B2 (ja) 2007-05-23
US7136581B2 (en) 2006-11-14

Similar Documents

Publication Publication Date Title
JP3918788B2 (ja) 撮像装置、およびプログラム
KR100799215B1 (ko) 카메라
US7564486B2 (en) Image sensing apparatus with feature extraction mechanism and its control method
US7847855B2 (en) Image capturing apparatus and focusing method with focus evaluation
US8106995B2 (en) Image-taking method and apparatus
US6906744B1 (en) Electronic camera
US8355047B2 (en) Tracking device, focus adjustment device, image-capturing device, and tracking method
US8456567B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium storing program therein
US20040061796A1 (en) Image capturing apparatus
US8854528B2 (en) Imaging apparatus
US20050052553A1 (en) Image capturing apparatus
JP3823921B2 (ja) 撮像装置
US7924343B2 (en) Photographing apparatus and exposure control method
US20120301125A1 (en) Image capture apparatus and method of controlling the same
US8731437B2 (en) Focus adjusting apparatus and focus adjusting method
US8872963B2 (en) Imaging apparatus and imaging method
JP2009109839A (ja) 画像追尾装置、撮像装置
JP2014013368A (ja) 撮像装置及びその制御方法
CN104246597A (zh) 成像装置、成像方法、记录介质以及程序
JP2024055966A (ja) 被写体追尾装置及びその制御方法、プログラム、並びに記憶媒体
JP6833801B2 (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP5056136B2 (ja) 画像追尾装置
JP2015152742A (ja) 撮像装置及びその制御方法
JP3628648B2 (ja) 光学系制御装置
JP2015152830A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061128

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

LAPS Cancellation because of no payment of annual fees