JP2004061721A - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP2004061721A JP2004061721A JP2002218115A JP2002218115A JP2004061721A JP 2004061721 A JP2004061721 A JP 2004061721A JP 2002218115 A JP2002218115 A JP 2002218115A JP 2002218115 A JP2002218115 A JP 2002218115A JP 2004061721 A JP2004061721 A JP 2004061721A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- evaluation
- movement
- image
- focus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、デジタルカメラ等の撮像装置に関する。
【0002】
【従来の技術】
従来、デジタルカメラ等の撮像装置におけるオートフォーカス(自動合焦)技術として、画像のある領域に着目し、その領域からコントラスト等の評価値を求めることにより、被写体の合焦度合いを評価するものが知られている。この場合、撮影レンズを段階的に駆動して、評価値が最大になるレンズ位置を検出することにより、被写体像が合焦状態となるレンズ位置を特定してオートフォーカスを行うように構成される。このような技術では、被写体の合焦状態を正確に評価するために、撮影レンズの駆動に伴う変化度合いが比較的大きい評価値を用いることが望まれる。
【0003】
また、オートフォーカスを行う場合、手ぶれや被写体ぶれ等によってオートフォーカスの動作中に被写体が画像平面内で移動する場合がある。このため従来は、画像平面内において評価値が最大値を示す領域の移動を検知することにより、被写体の移動を検知することも行われている。このようなオートフォーカス用の評価値を用いた移動検出では、画像平面内における被写体の移動を正確に検出するために、被写体の移動を評価するための画像間に、被写体の移動以外の要因による画像変化は少ないことが望まれる。
【0004】
【発明が解決しようとする課題】
しかし、上述した移動検出では、オートフォーカス用の評価値を用いて画像平面内における被写体の移動を検出するように構成されるため、被写体の移動を評価するための画像間に撮影レンズの駆動が行われることとなり、デフォーカス量の異なる画像で被写体の移動検出を行うことになる。このため、従来の移動検出では、被写体の移動以外の要因としてデフォーカス量の変化による大きな評価値変化が生ずることとなり、被写体の移動を誤検知する可能性が高いという問題がある。
【0005】
そこで、本発明は、上記課題に鑑みてなされたものであって、オートフォーカス用の評価値を用いて被写体の移動を検出しつつも、誤検出の少ない撮像装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の発明は、撮像手段から得られる画像信号に基づいて被写体の合焦度合いを評価し、撮影レンズを駆動することにより、被写体の合焦状態を実現する撮像装置であって、前記画像信号から、前記撮影レンズの駆動に伴う変化度合いが小さい第1の評価値と、前記第1の評価値よりも前記撮影レンズの駆動に伴う変化度合いが大きい第2の評価値とを求める評価値演算手段と、前記第1及び第2の評価値を用いて被写体の合焦度合いを評価し、前記撮影レンズを駆動する合焦制御手段と、前記第1の評価値を用いて、前記撮影レンズの駆動前後における画像平面での被写体の移動を検出する移動検出手段と、を備えて構成される。
【0007】
請求項2に記載の発明は、請求項1に記載の撮像装置において、前記第1の評価値が、前記画像信号に対してそれぞれ異なる特性を有する複数のバンドパスフィルタが適用されて得られる値のうち、最も広い周波数帯域を示すバンドパスフィルタが適用されて得られる値であることを特徴としている。
【0008】
請求項3に記載の発明は、請求項1に記載の撮像装置において、前記第1の評価値が、前記画像信号から近接画素間での差分絶対値が求められ、前記差分絶対値が前記画像信号の所定領域について積分された値であることを特徴としている。
【0009】
請求項4に記載の発明は、請求項1乃至3のいずれかに記載の撮像装置において、前記移動検出手段における被写体移動検出結果の信頼性を評価する信頼性評価手段を、さらに備え、前記信頼性評価手段が前記被写体移動検出結果の信頼性が低いと判断する場合、前記移動検出手段が、被写体の移動はないものと判定することを特徴としている。
【0010】
請求項5に記載の発明は、請求項1乃至4のいずれかに記載の撮像装置において、前記評価値演算手段が、前記画像信号から合焦評価領域の画像成分を抽出し、前記合焦評価領域の画像成分から、前記第1及び第2の評価値を求めるように構成されるとともに、前記移動検出手段における検出結果に基づいて前記画像信号に対する前記合焦評価領域を変更することを特徴としている。
【0011】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。
【0012】
<1.第1の実施の形態>
図1は本実施形態にかかるデジタルカメラ1の構成を示すブロック図である。デジタルカメラ1は、撮影レンズ10、CCD撮像素子11、画像メモリ12、画像処理部13、表示部14、記録媒体15、レンズ駆動部16、シャッタボタン18aを含む操作部18、制御部20、及び自動合焦制御部30を備えて構成される。
【0013】
被写体からの光は撮影レンズ10を介してCCD撮像素子11に結像される。撮影レンズ10はレンズ駆動部16によって光軸Lに沿って駆動され、CCD撮像素子11に結像される被写体像の合焦度合いを変化させるように構成される。
【0014】
CCD撮像素子11は撮影レンズ10を介して入射する被写体像を光電変換することにより、被写体に関する画像信号を生成する。この画像信号は、図示しない信号処理部によってデジタルデータに変換され、画像メモリ12に格納される。
【0015】
デジタルカメラ1において記録用の画像を撮影するための撮影処理が行われる場合には、CCD撮像素子11から得られる画像信号は、画像メモリ12を介して画像処理部13に与えられ、画像処理部13において所定の画像処理が施された後、表示部14又は記録媒体15に出力される。表示部14は液晶ディスプレイ等で構成され、表示部14に画像表示が行われることにより、撮影処理によって得られた画像の確認を行うことができる。また、記録媒体15はメモリカード等で構成され、記録媒体15に画像記録が行われることにより、撮影処理によって得られた画像の保存を行うことができる。
【0016】
これに対し、デジタルカメラ1において自動合焦(オートフォーカス)制御が行われる際には、CCD撮像素子11から得られる画像信号は画像メモリ12を介して自動合焦制御部30に与えられる。
【0017】
自動合焦制御部30は、合焦評価領域設定部31、評価値演算部32、移動検出部33、移動予測部34、合焦位置検出部35、及びレンズ制御部36を備えて構成され、いわゆる山登り方式により、被写体像の合焦状態を実現する。すなわち、自動合焦制御部30は、撮影レンズ10を合焦位置近傍において所定ピッチで例えば6回駆動し、各レンズ位置においてCCD撮像素子11から得られる画像信号から自動合焦用の評価値を算出する。そして評価値が最大値を示すレンズ位置を合焦位置として特定し、撮影レンズ10をその合焦位置に駆動することによって、被写体像の合焦状態を実現するように構成される。また、自動合焦制御部30においては画像平面内における被写体の移動を検知するように構成され、被写体が画像平面内で移動した場合に被写体の動きに対応させて合焦評価領域を設定するように構成される。
【0018】
また、自動合焦制御部30によって行われる自動合焦制御には、合焦位置を特定した後に撮影レンズ10を駆動して被写体像の合焦状態を実現し、その後はレンズ駆動を行わない動作モード(ワンショットAFモード)と、被写体像の合焦状態を実現した後も、撮影レンズ10の駆動と合焦位置の検出とを繰り返し実行することによって、動的な被写体に対しても対応可能とする動作モード(コンティニュアスAFモード)とがある。これらのうち、いずれの動作モードで自動合焦制御を行うかは、ユーザによる設定状況に応じて決定される。
【0019】
なお、上記の自動合焦制御は、例えば、シャッタボタン18aがユーザによって半押し状態とされたときに開始される。ワンショットAFモードの場合は1回の自動合焦制御によって撮影レンズ10が固定されるのに対し、コンティニュアスAFモードの場合はシャッタボタン18aが半押し状態とされている間、繰り返し自動合焦制御が実行される。そしてシャッタボタン18aがユーザによって全押し状態とされたときに、画像を記録するための撮影処理が行われる。
【0020】
以下、自動合焦制御部30における具体的な動作について説明する。
【0021】
合焦評価領域設定部31は、CCD撮像素子11から得られる画像に対して合焦評価領域を設定し、その合焦評価領域に対応する画像成分を抽出する。図2は、CCD撮像素子11から得られる画像100を示す図である。CCD撮像素子11から得られる画像100は、CCD撮像素子11の画素数に対応した画像サイズとなっている。この画像100に対して、合焦評価領域設定部31は、画像100に含まれる主被写体の合焦状態を評価するための合焦評価領域Rを設定する。合焦評価領域Rは初期状態においては画像100のほぼ中央部分に設定される。また、画像平面内における被写体の移動が検出され、合焦評価領域Rを移動させる必要が生じた場合には、被写体の移動量に応じて合焦評価領域Rが設定される。
【0022】
そして合焦評価領域Rは、画像平面内における被写体の移動を検出するために、複数のブロックに分割された構成となっている。図3は合焦評価領域Rの一構成例を示す図である。
【0023】
図3に示す合焦評価領域Rは、同一のサイズを有する複数のブロックB1〜B5が水平方向に所定画素数ずつずらされた状態で配置される。例えば、各ブロックB1〜B5は幅324画素×高さ200画素のサイズを有し、水平方向に16画素ずつずらされて配置される。このため、各ブロックB1〜B5の一部が重ね合わされた状態となり、換言すれば複数のブロックB1〜B5が合焦評価領域Rの中央部で重複するような配置状態となる。
【0024】
被写体が初期状態から移動しない場合、合焦度合いを評価する際の評価対象領域は、ブロックB3によって規定される領域となる。その状態から被写体が右方向に16画素移動したことが検出された場合には、評価対象領域はブロックB4によって規定される領域となり、評価対象領域が右方向に16画素移動する。これに対し、初期状態から被写体が左方向に16画素移動したことが検出された場合には、評価対象領域はブロックB2によって規定される領域となり、評価対象領域が左方向に16画素移動する。
【0025】
合焦評価領域設定部31は、CCD撮像素子11から得られる画像から各ブロックB1〜B5に対応する画像成分を抽出し、それを評価値演算部32に対して出力する。
【0026】
評価値演算部32は各ブロックB1〜B5の画像成分から合焦度合いを評価するための評価値を求める。このとき、評価値演算部32は、合焦位置近傍において撮影レンズ10の駆動に伴う変化度合いが小さい第1の評価値VAと、第1の評価値よりも撮影レンズの駆動に伴う変化度合いが大きい第2の評価値VBと、の2つの評価値を求める。
【0027】
例えば、評価値演算部32は各ブロックB1〜B5における画像成分の高周波成分を抽出することにより、合焦位置において最大値を示す評価値を求めるように構成され、上記2つの評価値を求めるために、周波数帯域の広い第1のバンドパスフィルタと、第1のバンドパスフィルタよりも周波数帯域の狭い第2のバンドパスフィルタと、の2種類のフィルタを適用して各ブロックB1〜B5の画像成分に対してフィルタ処理を行う。
【0028】
図4は、第1のバンドパスフィルタBPF1と第2のバンドパスフィルタBPF2との周波数特性を示す図である。図4に示すように、第1のバンドパスフィルタBPF1は第2のバンドパスフィルタBPF2よりも低周波成分をより多く検出することになる。このため、第1のバンドパスフィルタBPF1によりフィルタ処理を行って得られる評価値VAは、第2のバンドパスフィルタBPF2によりフィルタ処理を行って得られる評価値VBよりも合焦位置近傍において撮影レンズ10の駆動に伴う変化度合いが小さくなる。
【0029】
図5は合焦位置近傍における第1及び第2の評価値を示す図である。撮影レンズ10を合焦位置FPの近傍において6回駆動し、各レンズ位置P1〜P6にて得られる第1の評価値VA及び第2の評価値VBは図5に示すようになる。つまり、合焦位置FPの近傍においては、第1の評価値VAはレンズ駆動に伴う評価値の変化度合いが小さくなるのに対し、第2の評価値VBはレンズ駆動に伴う評価値の変化度合いが大きくなる。
【0030】
このため、撮影レンズ10を所定ピッチで駆動しつつ、各レンズ位置P1〜P6において得られる評価値から合焦位置FPを正確に特定するためには、第2の評価値VBを用いて求める方が好ましい。
【0031】
ところが、図5に示すように撮影レンズ10のレンズ位置が合焦位置FPから一定値以上離れると、撮影レンズ10の駆動に伴う変化度合いは逆転する。つまり、撮影レンズ10が合焦位置FPから一定以上離れると、撮影レンズの駆動に伴う変化度合いは、第1の評価値VAが方が第2の評価値VBよりも大きくなる。したがって、一般に自動合焦制御では、上記のような2種類の評価値VA,VBを求め、撮影レンズ10が合焦位置FPから遠い位置にある場合に、第1の評価値VAを用いて合焦位置FPの方向を特定することが行われ、撮影レンズ10が合焦位置FPの近傍位置にある場合に、第2の評価値VBを用いて合焦位置FPの位置を高精度に特定することが行われる。
【0032】
また、上記のように周波数特性の異なるバンドパスフィルタBPF1,BPF2を用いる以外の方法であっても、第1及び第2の評価値VA,VBを求めることができる。例えば、評価値演算部32は各ブロックB1〜B5における画像成分から、近接画素間での差分絶対値及び差分二乗値を求め、各ブロックB1〜B5についてそれらを積分(累積加算)することにより、上記2つの評価値VA,VBを求めてもよい。この場合、各ブロックB1〜B5の画像成分において、例えば水平方向に3画素離れた2画素間での画素値の差分をとり、その差分値の絶対値及び二乗値を求める。これを各ブロックに含まれる全ての画素について行い、差分絶対値を累積加算(積分)することによって合焦位置FPの近傍においてレンズ駆動に伴う変化度合いが小さい第1の評価値VAを求め、差分二乗値を累積加算(積分)することによってレンズ駆動に伴う変化度合いが大きい第2の評価値VBを求めるようにしてもよい。
【0033】
また、これら以外の方法によって上記第1及び第2の評価値VA,VBを求めるようにしてもよい。
【0034】
評価値演算部32は上記のようにして各ブロックB1〜B5について各ブロックB1〜B5の画像成分から合焦度合いを評価するための、2種類の評価値VA,VBを求め、それを移動検出部33に与える。
【0035】
移動検出部33は各レンズ位置P1〜P6においてCCD撮像素子11から得られる画像に基づいて算出された2種類の評価値VA,VBを入力すると、撮影レンズ10の駆動に伴う変化度合いが小さい評価値VAを用いて被写体の画像平面内での移動を検出する。つまり、撮影レンズ10の駆動に伴う変化度合いが小さい評価値VAを用いて被写体の画像平面内での移動を検出するように構成されることで、被写体の移動を誤検出する可能性を低減するように構成される。
【0036】
以下、この移動検出部33の動作について詳細に説明する。
【0037】
撮影レンズ10が各レンズ位置P1〜P6にあるとき、移動検出部33にはブロックB1〜B5のそれぞれについて求められた評価値が入力される。移動検出部33は前回のレンズ位置において得られた評価値と今回のレンズ位置において得られた評価値とを比較することにより、画像平面内における被写体の移動を検出するように構成される。
【0038】
ここで、ブロックB1について得られる評価値VAのうち、前回のレンズ位置において得られるものを評価値VA1(B1)とし、今回のレンズ位置において得られるものを評価値VA2(B1)とする。ブロックB2について得られる評価値VAのうち、前回のレンズ位置において得られるものを評価値VA1(B2)とし、今回のレンズ位置において得られるものを評価値VA2(B2)とする。以下同様に、ブロックB3〜B5のそれぞれについて得られる前回及び今回のレンズ位置において得られる評価値を規定する。
【0039】
移動検出部33は、各ブロックB1〜B5より前回得られた評価値VA1(B1)〜VA1(B5)と、今回得られた評価値VA2(B1)〜VA2(B5)とに基づいて、合焦評価領域Rにおいて中央部分を除いた周辺部分について被写体の移動を検出する。
【0040】
各レンズ位置において得られた評価値VAを隣接するブロック間で差分をとると、合焦評価領域Rの中央部分による影響がほぼ相殺されることになり、合焦評価領域R内の周辺部分に関する評価値Hが得られる。すなわち、前回のレンズ位置において得られた評価値VA1に対しては、
【0041】
【数1】
【0042】
なる演算を行うことにより、前回のレンズ位置において得られた評価値VA1から周辺部分の評価値H11〜H14を求めることができる。
【0043】
図6は合焦評価領域Rを示す図であり、上記演算によって求められる周辺部の領域を示す図である。図6(a)における斜線領域は評価値H11に対応する領域であり、図6(b)における斜線領域は評価値H12に対応する領域であり、図6(c)における斜線領域は評価値H13に対応する領域であり、図6(d)における斜線領域は評価値H14に対応する領域である。
【0044】
同様に、今回のレンズ位置において得られた評価値VA2に対しても、
【0045】
【数2】
【0046】
なる演算を行うことにより、今回のレンズ位置において得られた評価値VA2から周辺部分の評価値H21〜H24を求めることができる。この場合も、図6(a)における斜線領域は評価値H21に対応する領域であり、図6(b)における斜線領域は評価値H22に対応する領域であり、図6(c)における斜線領域は評価値H23に対応する領域であり、図6(d)における斜線領域は評価値H24に対応する領域である。
【0047】
移動検出部33は上記数1及び数2のような演算を行うことにより、前回のレンズ位置について得られた評価値VA1と、今回のレンズ位置について得られた評価値VA2とのそれぞれについて、合焦評価領域Rにおいて中央部分を除いた周辺部分の評価値を求める。そして、前回のレンズ位置について求められる周辺部評価値H11〜H14と、今回のレンズ位置について求められる周辺部評価値H21〜H24とを、画像平面内における被写体の移動を評価するための指標値として用いる。
【0048】
図7は前回のレンズ位置と今回のレンズ位置との比較対象画像において合焦評価領域Rにおける被写体が右方向に移動した場合を示す図であり、図における円形、三角形、四角形は被写体像を模式的に表したものである。図7に示すように、画像G1とG2との間で被写体が右方向にずれると、合焦評価領域Rに含まれる被写体のうち、周辺部分の被写体が各周辺部評価値に対応する領域を移動することになる。この場合、前回のレンズ位置において採用された評価対象領域を、今回のレンズ位置においても同様に採用すると、被写体の移動によって評価値が変化することになる。
【0049】
これに対し、合焦評価領域Rに含まれる被写体のうち、中央部分の被写体(三角形)は移動前後においても中央部分に含まれる。このため、合焦評価領域Rの中央部分については被写体が移動しても評価対象領域の評価値の変化は生じない。
【0050】
被写体の合焦度合いを評価する際に、ピント差以外に評価値を変化させる要因として、評価対象領域に新たな被写体が進入した場合や被写体が評価対象領域に含まれなくなる場合が考えられるが、そのような場合には合焦評価領域Rの周辺部分において被写体の移動が現れる。
【0051】
そこで、本実施形態においては、合焦評価領域Rにおいて中央部分を除いた周辺部分の評価値を、合焦評価領域Rに対する被写体の入出動作を評価するための指標値として採用し、合焦評価領域Rの周辺部の評価値を評価することで適切に被写体の移動を検出するように構成される。つまり、前回のレンズ位置における周辺部評価値H11〜H14と、今回のレンズ位置における周辺部評価値H21〜H24との相関値を求めることによって、合焦評価領域R内の周辺部における被写体がどのように移動したかを検出する。
【0052】
被写体の移動を検出するための相関値として、移動検出部33は、右方向への移動を検出するための相関値MR1と、移動がなかったことを検出するための相関値MV0と、左方向への移動を検出するための相関値ML1とを演算により求める。
【0053】
つまり、移動検出部33は、
【0054】
【数3】
【0055】
の演算を行うことにより、相関値MR1,MV0,ML1のそれぞれを算出する。相関値MR1は被写体が右方向に16画素分移動したことを検出するための相関値であり、相関値ML1は被写体が左方向に16画素分移動したことを検出するための相関値である。また、相関値MV0は被写体の移動がないことを検出するための相関値である。
【0056】
図7に示すように、前回のレンズ位置と今回のレンズ位置との間で被写体が右方向におよそ16画素移動すると相関値MR1は最小になる。これに対し、前回のレンズ位置と今回のレンズ位置との間で被写体の移動がなかった場合(あるいは移動量が8画素未満の場合)には相関値MV0が最小になり、前回のレンズ位置と今回のレンズ位置との間で被写体が左方向におよそ16画素移動した場合には相関値ML1が最小になる。
【0057】
つまり、移動検出部33は上記数3の演算によって得られる相関値MR1,MV0,ML1を比較し、最小値を示す相関値を特定することで被写体の移動を検出するように構成される。
【0058】
そして、移動検出部33は、相関値MR1が最小であることを検出した場合には、被写体が画像平面内で右方向に移動し、その移動量が16画素であることを検出する。なお、移動量が16画素になる理由は、各ブロックの配置が水平方向に16画素ずつずらされていることに起因するものであるので、例えば各ブロックの配置が水平方向にN画素(ただし、Nは任意の整数)ずつずらされた構成となっている場合には、被写体の移動量はN画素となる。
【0059】
また、移動検出部33は、相関値ML1が最小であることを検出した場合には、被写体が画像平面内で左方向に移動し、その移動量が16画素であることを検出する。さらに移動検出部33は、相関値MV0が最小であることを検出した場合には、被写体が画像平面内で移動しなかったことを検出する。
【0060】
なお、上述した説明では、前回のレンズ位置において得られた評価値と今回のレンズ位置において得られた評価値とに基づいて被写体の移動を検出する場合を示しているが、上記のようにCCD撮像素子11から時間的に連続して得られる2つの画像間で被写体の移動を検出することにより、2つの比較対照画像間での撮影レンズ10の移動量が最小の状態で被写体の移動検出を行うことができるので、比較対照画像間でのピント差が最小になり、移動検出の際の誤検出の可能性を低減することが可能である。
【0061】
また、上述した説明では、説明を簡単にするために、評価値VA1,VA2から周辺部評価値H11〜H14,H21〜H24を算出する場合を例示したが、移動検出部33において上記数3の式に数1及び数2の式を代入した演算式を登録しておけば、移動検出部33において、評価値演算部32から入力する評価値から直接的に相関値MR1,MV0,ML1を求めることが可能である。
【0062】
次に、移動検出部33には信頼性評価部331が設けられており、信頼性評価部331は上記のようにして検出された被写体の移動が正確であるか否かを検証する。
【0063】
上記のように、2種類の評価値のうち、被写体の移動検出時には、レンズ駆動に伴う変化度合いが小さい評価値が用いられることにより、移動検出時における誤検出の低減を図ることができるが、合焦評価領域Rの周辺部分に空間周波数およびコントラストが極めて高い画像成分が含まれていると、それらの撮影レンズ10の駆動に伴う評価値の変化によって被写体の移動を誤検出する可能性が存在する。
【0064】
また、合焦評価領域Rの周辺部分に、それぞれ異なる動きを示す複数の被写体が含まれている場合や、白壁や空等のコントラストが著しく低い画像が含まれている場合等にも、被写体の移動を誤検出する可能性が存在する。
【0065】
そこで信頼性評価部331は、上記のような誤検出を防止するために、上記のようにして検出された被写体の移動が正確であるか否かを検証する。具体的には、移動検出部33によって被写体が右方向又は左方向に16画素移動したことが検出された場合に、信頼性評価部331は、公知の手法である急傾斜延長法による補間演算を行い、それによって得られるパラメータC値及びYM値により、信頼性の評価を行う。
【0066】
急傾斜延長法による補間演算を行うために、信頼性評価部331は被写体の移動を検出するための相関値を再演算する。
【0067】
まず、移動検出部33によって被写体が右方向に16画素移動したことが検出された場合について説明する。被写体が右方向に16画素移動した場合には、信頼性評価部331は、
【0068】
【数4】
【0069】
に基づく演算を行うことにより、相関値MV0’,MR1’,MR2を求める。相関値MR2は32画素分の移動量を検出するための相関値であり、相関値MR1’及びMV0’は相関値MR2と比較可能な状態にするために再演算される。
【0070】
数4の式に基づく再演算により、相関値MV0’と相関値MR1’との関係が、MV0’<MR1’なる関係になった場合、移動検出部33において検出されたMR1<MV0なる関係と逆の関係になる。このため、被写体の移動量は右方向に約8画素であると考えられるが、本実施形態においては、これを切り捨てて移動量を0とする。つまり、移動検出部33において、相関値MR1が最小であることが検出されたにもかかわらず、信頼性評価部331において相関値の再演算を行った結果、MV0’<MR1’なる関係が得られた場合には、被写体の移動はなかったものとして、移動量が0に確定される。
【0071】
また、相関値の再演算によって相関値の関係に逆転現象が生じない場合、すなわち、MV0’>MR1’なる関係が得られた場合には、急傾斜延長法による補間演算を行って信頼性の評価を行う。
【0072】
図8は移動検出部33によって被写体が右方向に16画素移動したことが検出された場合の相関値と移動量との関係を示す図である。MV0’>MR1’なる関係が得られる場合、相関値MV0’,MR1’,MR2は、「MR1’<MV0’<MR2」なる関係を示す場合と、「MR1’<MV0’かつMR2<MV0’」なる関係を示す場合とがある。図8(b)は「MR1’<MV0’<MR2」なる関係を示す場合を示しており、図8(a)は「MR1’<MV0’かつMR2<MV0’」なる関係を示す場合の一例を示している。
【0073】
再演算によって得られる相関値MV0’,MR1’,MR2が図8(a)に示すような状態になる場合、急傾斜延長法によってパラメータC及びYMを算出する。急傾斜延長法は、3点のうちの2点を通る最も急傾斜となる直線と、他の1点を通り、その急傾斜直線と傾きの符号が異なる直線とを設定し、それら2直線の交点を求める手法である。すなわち、図8(a)に示すように、相関値MV0’と相関値MR1’とを通る直線110を設定し、直線110の傾きと符号の異なる傾きを有する直線111を、相関値MR2を通るように設定する。このときの、相関値MV0’と相関値MR1’との差分がパラメータCであり、直線110と直線111との交点の高さがパラメータYMとなる。図8(a)の場合には、パラメータC及びYMは、
【0074】
【数5】
【0075】
によって求めることができる。
【0076】
また、再演算によって得られる相関値MV0’,MR1’,MR2が図8(b)に示すような状態になる場合にも、急傾斜延長法によってパラメータC及びYMを算出する。すなわち、図8(b)に示すように相関値MR1’と相関値MR2とを通る直線121を設定し、直線121の傾きと符号の異なる傾きを有する直線120を相関値MV0’を通るように設定する。このときの、相関値MR2と相関値MR1’との差分がパラメータCであり、直線120と直線121との交点の高さがパラメータYMとなる。図8(b)の場合には、パラメータC及びYMは、
【0077】
【数6】
【0078】
によって求めることができる。
【0079】
そして信頼性評価部331は、上記のようにして求められるパラメータC及びYMを用いて、被写体が右方向に16画素移動したことに関する信頼性を評価する。具体的には、パラメータCが所定値TH1よりも大きく、かつ、パラメータYM/Cが所定値TH2より小さい場合には被写体の移動検出結果の信頼性が高いものと決定する。したがって、C>TH1かつYM/C<TH2なる関係は信頼性が高いと判断されるための評価条件となり、評価条件が満たされる場合には、画像平面内において被写体が右方向に移動し、その移動量は16画素であることが確定される。
【0080】
なお、評価条件が満たされない場合には、被写体の移動検出結果の信頼性が低いものと決定し、被写体の移動はないものとされて、移動量は0に確定される。また、相関値MR2が最小になる場合にも、被写体の移動検出結果の信頼性が低いものと決定し、移動量を0に確定してもよい。
【0081】
次に、移動検出部33によって被写体が左方向に16画素移動したことが検出された場合について説明する。被写体が左方向に16画素移動した場合には、信頼性評価部331は、
【0082】
【数7】
【0083】
に基づく演算を行うことにより、相関値ML2,ML1’,MV0’を求める。相関値ML2は32画素分の移動量を検出するための相関値であり、相関値ML1’及びMV0’は相関値MR2と比較可能な状態にするために再演算される。
【0084】
数7の式に基づく再演算により、相関値MV0’と相関値ML1’との関係が、MV0’<ML1’なる関係になった場合、移動検出部33において検出されたML1<MV0なる関係と逆の関係になる。このため、被写体の移動量は左方向に約8画素であると考えられるが、本実施形態においては、これを切り捨てて移動量を0とする。つまり、移動検出部33において、相関値ML1が最小であることが検出されたにもかかわらず、信頼性評価部331において相関値の再演算を行った結果、MV0’<ML1’なる関係が得られた場合には、被写体の移動はなかったものとして、移動量が0に確定される。
【0085】
また、相関値の再演算によって相関値の関係に逆転現象が生じない場合、すなわち、MV0’>ML1’なる関係が得られた場合には、急傾斜延長法による補間演算を行って信頼性の評価を行う。
【0086】
図9は移動検出部33によって被写体が左方向に16画素移動したことが検出された場合の相関値と移動量との関係を示す図である。MV0’>ML1’なる関係が得られる場合、相関値MV0’,ML1’,ML2は、「ML1’<MV0’<ML2」なる関係を示す場合と、「ML1’<MV0’かつML2<MV0’」なる関係を示す場合とがある。図9(a)は「ML1’<MV0’<ML2」なる関係を示す場合を示しており、図9(b)は「ML1’<MV0’かつML2<MV0’」なる関係を示す場合の一例を示している。
【0087】
再演算によって得られる相関値MV0’,ML1’,ML2が図9(a)に示すような状態になる場合、急傾斜延長法によってパラメータC及びYMを算出する。すなわち、図9(a)に示すように、相関値ML2と相関値ML1’とを通る直線130を設定し、直線130の傾きと符号の異なる傾きを有する直線131を相関値MV0’を通るように設定する。このときの、相関値ML2と相関値ML1’との差分がパラメータCであり、直線130と直線131との交点の高さがパラメータYMとなる。図9(a)の場合には、パラメータC及びYMは、
【0088】
【数8】
【0089】
によって求めることができる。
【0090】
また、再演算によって得られる相関値MV0’,ML1’,ML2が図9(b)に示すような状態になる場合にも、急傾斜延長法によってパラメータC及びYMを算出する。すなわち、図9(b)に示すように相関値ML1’と相関値MV0’とを通る直線141を設定し、直線141の傾きと符号の異なる傾きを有する直線140を、相関値ML2を通るように設定する。このときの、相関値MV0’と相関値ML1’との差分がパラメータCであり、直線140と直線141との交点の高さがパラメータYMとなる。図9(b)の場合には、パラメータC及びYMは、
【0091】
【数9】
【0092】
によって求めることができる。
【0093】
そして信頼性評価部331は、上記のようにして求められるパラメータC及びYMを用いて、被写体が左方向に16画素移動したことに関する信頼性を評価する。具体的には、右方向への移動が検出された場合と同様に、パラメータCが所定値TH1よりも大きく、かつ、パラメータYM/Cが所定値TH2より小さい場合には被写体の移動検出結果の信頼性が高いものと決定する。したがって、C>TH1かつYM/C<TH2なる評価条件が満たされる場合には、画像平面内において被写体が左方向に移動し、その移動量は16画素であることが確定される。
【0094】
なお、評価条件が満たされない場合には、被写体の移動検出結果の信頼性が低いものと決定し、被写体の移動はないものとされて、移動量は0に確定される。また、相関値ML2が最小になる場合にも、被写体の移動検出結果の信頼性が低いものと決定し、移動量を0に確定してもよい。
【0095】
以上のように、信頼性評価部331は、移動検出部33において被写体の移動が検出された場合、急傾斜延長法によって相関値の変化度合いを評価することで移動検出結果の信頼性を評価するように構成され、信頼性が低いと判定した場合には移動検出部33における検出結果は誤検出であるとしてそれを無視することになる。これに対し、信頼性が高いと判定した場合には移動検出部33における検出結果は正確であるとして移動検出部33における検出結果を有効に確定させる。このような信頼性判定が行われることにより、画像平面内における被写体の移動検出結果が誤検出である場合にその検出結果が利用されることを良好に防止することができる。
【0096】
そして信頼性評価部331によって移動検出結果が確定され、被写体が右方向又は左方向に16画素移動したことが検出された場合には、移動検出部33が合焦評価領域設定部31に対して被写体の移動量等に関する情報を送出する。これにより、合焦評価領域設定部31は、図2に示す画像100における合焦評価領域Rの位置を変更することが可能である。
【0097】
また、移動検出部33は信頼性評価部331によって確定された移動量を移動予測部34に与えるように構成されるとともに、各ブロックB1〜B5のうちで移動後の被写体が含まれるブロックを特定し、合焦位置検出部35に指示するように構成される。
【0098】
合焦位置検出部35は、移動検出部33によって指示されるブロックの評価値VA,VBを取得し、各レンズ位置において求められた評価値VA,VBを記憶していく。そして、撮影レンズ10が6回駆動されて全てのレンズ位置における評価値が得られると、それらの評価値に基づいて合焦位置検出演算が行われ、合焦位置FPが特定される。
【0099】
なお、合焦位置近傍においてはレンズ駆動に伴う評価値の変化度合いが大きい第2の評価値VBを用いて合焦位置FPが特定されるが、第2の評価値VBを用いて合焦位置FPを特定することが困難な場合には、合焦位置FPは比較的遠い位置に存在することになるため、例えば、第1の評価値VAを用いて撮影レンズ10の高速駆動等が行われる。
【0100】
そして合焦位置FPが特定されると、そのレンズ位置がレンズ制御部36に対して指示され、レンズ制御部36はレンズ駆動部16を介して撮影レンズ10を合焦位置FPに移動させることになる。これにより、被写体像の合焦状態が実現される。
【0101】
また、レンズ制御部36は、自動合焦制御において撮影レンズ10を所定ピッチで6回駆動させるために、レンズ駆動部16に対して所定タイミングで制御信号を送出する。
【0102】
以上のような動作をタイミングチャートで示すと図10に示すようになる。撮影レンズ10は所定のタイミングで駆動され、各レンズ駆動によってレンズ位置がP1からP6まで段階的に駆動される(図5参照)。
【0103】
1回目レンズ駆動が終了すると、撮影レンズ10はレンズ位置P1に移動し、そこで1回目の撮像処理が行われる。CCD撮像素子11の撮像処理が終了すると、CCD撮像素子11から画像が読み出される。このとき、自動合焦制御部30は画像メモリ12を介して合焦評価領域Rの画像成分を入力し、画像読み出し動作と並行して評価値の演算を開始する。そして評価値の演算が終了すると、移動検出部33及び合焦位置検出部35がその評価値を取得する。
【0104】
また、1回目の撮像処理が終了すると、2回目のレンズ駆動が行われ、撮影レンズ10がレンズ位置P2に移動した状態で2回目の撮像処理が行われる。したがって、2回目のレンズ駆動及び撮像処理は、1回目の撮像処理によって得られた画像の読み出し動作及び評価値演算動作と並行して行われることになる。
【0105】
そして2回目の撮像処理によって得られた画像に基づく評価値の取得が完了すると、移動検出部33において1回目の画像と2回目の画像との間における移動検出が行われる。この移動検出による検出結果は、4回目の画像に基づく評価値演算にフィードバックされ、4回目の画像に基づく評価値演算の際に適用される合焦評価領域Rの設定変更が行われる。
【0106】
以下同様に、6回目のレンズ駆動に伴う各動作が終了した時点で、合焦位置検出部36が機能し、6回分の評価値に基づいて合焦位置FPを検出するための処理が実行される。
【0107】
そして上記のような動作を行うことにより、各レンズ位置において合焦位置FPを検出するためのブロックの位置を被写体の移動に追従させることが可能になる。図11は被写体の移動検出に伴う合焦評価領域Rの状態を示す図である。ただし、図11においては、画像平面内において被写体が右方向に移動する場合を例示している。
【0108】
図11に示す各画像101〜106は、撮影レンズ10のレンズ位置をP1〜P6まで段階的に移動させた場合(図5参照)の合焦評価領域Rに含まれる画像を示している。画像101では、合焦位置検出部35が合焦度合いを評価する際の評価対象領域がブロックB3となっている。そして画像101と画像102との間の移動検出により、被写体は右方向に16画素移動したことが検出される。このため、画像102における評価対象領域はブロックB4として設定される。
【0109】
また、画像102と画像103との間の移動検出により、被写体はさらに右方向に16画素移動したことが検出される。このため、画像103における評価対象領域はブロックB5として設定される。
【0110】
ところで、画像101と画像102との間の移動検出の完了時には、画像103に基づく各ブロックの評価値演算と、画像104の撮像処理とが行われている。このため、画像104をCCD撮像素子11より読み出して評価値演算を行う際には、画像101と画像102との間の移動検出に基づいて合焦評価領域Rを右方向に16画素移動させて設定することにより、被写体の移動に追従して合焦評価領域Rの位置を変更する。
【0111】
以下同様に、画像102と画像103との間の移動検出に基づいて画像105の合焦評価領域Rを右方向に16画素移動させて設定し、画像103と画像104との間の移動検出に基づいて画像106の合焦評価領域Rを右方向に16画素移動させて設定する。
【0112】
このように被写体の移動に伴って合焦評価領域Rの位置を移動させることにより、合焦評価領域Rに設定するブロックの数を増加させることなく、被写体の動きに追従することができる。また、ブロックの数を増加させる必要がないことから、評価値演算の負担を軽減することも可能である。
【0113】
次に、移動予測部34は、例えばコンティニュアスAFモード時において機能し、繰り返し自動合焦制御が実行される場合に、前回の自動合焦制御と次回の自動合焦制御との間での被写体の移動量を予測するように構成される。
【0114】
コンティニュアスAFモードにおいても前回の自動合焦制御における最後の画像と、その次の自動合焦制御における最初の画像との間で移動検出を行えば、合焦評価領域Rを被写体の移動に追従させることが可能である。
【0115】
しかし、コンティニュアスAFモードでは、前回の自動合焦制御とその次の自動合焦動作との間に、被写体の輝度変化に対応するために、測光動作等を行って露出制御を行う必要がある。このため、繰り返し行われる自動合焦制御動作の間に露出制御が介在すると、前回の自動合焦制御における最後の画像と、その次の自動合焦制御における最初の画像との撮像タイミングの差が拡大し、その間に被写体が16画素以上移動する可能性が高いと考えられる。
【0116】
そこで、移動予測部34は、自動合焦制御の際に、各タイミングで移動検出部33から入力する移動量に基づいて被写体の移動速度を求め、前回の自動合焦制御とその次の自動合焦制御とのタイミング差に基づいて、前回の自動合焦制御の最後に決定された合焦評価領域Rの位置及び評価対象領域として決定されたブロックからの被写体の移動量を決定する。そしてその移動量に基づいて、移動予測部34は、次回の自動合焦制御の開始時における合焦評価領域Rの位置を合焦評価領域設定部31に対してフィードバックするように構成される。
【0117】
図12は、コンティニュアスAFモードにおける被写体の移動検出に伴う合焦評価領域Rの状態を示す図である。ただし、図12においては、画像平面内において被写体が右方向に移動する場合を例示しており、画像101〜106は図11に示した画像と同様である。
【0118】
移動予測部34は、前回の自動合焦制御時における被写体の移動量を、画像101を基準とした画像106の被写体位置により算出する。図12の場合は、各画像において被写体が16画素ずつ右方向に移動するので、前回の自動合焦制御時における被写体の移動量は、16×5=80画素となる。これを画像101の撮像タイミングと画像106の撮像タイミングとの差t1で除算し、前回の自動合焦時における被写体の移動速度v=80/t1を算出する。
【0119】
また、移動予測部34は、前回の自動合焦制御とその次の自動合焦制御とのタイミング差t2を求め、そのタイミング差t2と上記移動速度vから、次回の自動合焦制御時の最初の画像201を撮像するタイミングでの被写体の移動量を求める。つまり、図12の場合は、80×t2/t1により、前回の自動合焦制御とその次の自動合焦制御との間で被写体が移動した移動量を求めることができる。移動予測部34は、上記のようにして求められる移動量を、前回の自動合焦制御の最後の画像106について設定された合焦評価領域Rの位置に加算することで、次回の自動合焦制御時の最初の画像201に対する合焦評価領域Rを設定する。このとき、合焦評価領域Rにおける評価対象領域は中央部のブロックB3となるように合焦評価領域Rの位置を設定する。このように繰り返し自動合焦制御が行われる場合、移動予測部34が次回の自動合焦制御時における被写体の位置を予測するように構成されるため、各自動合焦制御動作の間に露出制御等の他の動作が行われる場合であっても、合焦評価領域Rを良好に被写体の移動に追従させることが可能である。
【0120】
次に、上記のように構成されたデジタルカメラ1において、自動合焦制御を行う際の処理シーケンスについて説明する。図13乃至図16は、コンティニュアスAFモードにおいて自動合焦制御を行う際の処理シーケンスを示すフローチャートであり、図10のタイミングチャートをフローチャートで示したものである。
【0121】
図13に示すように、自動合焦制御が開始されると、レンズ制御部36は、前回の合焦位置を中心に、撮影レンズ10を段階的に移動させる際の各レンズ位置を等間隔で設定する。そしてレンズ制御部36はレンズ駆動部16を制御して撮影レンズ10を最初の撮像ポイントであるレンズ位置P1に移動させる(ステップS100)。そしてCCD撮像素子11における撮像処理を開始させる(ステップS101)。
【0122】
撮像処理が終了すると、合焦評価領域設定部31は、被写体がブロックB3に含まれるように合焦評価領域Rを設定するとともに(ステップS102)、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS103)。
【0123】
また、1回目の撮像処理が終了すると、レンズ制御部36はレンズ駆動部16を制御し、撮影レンズ10を2回目の撮像ポイントであるレンズ位置P2に移動させる(ステップS104)。
【0124】
評価値演算部32は、1回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS102で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS105)。
【0125】
そしてCCD撮像素子11における2回目の撮像処理が開始される(ステップS106)。
【0126】
撮像処理が終了すると、合焦評価領域設定部31は、合焦評価領域Rを設定するとともに(ステップS107)、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS108)。
【0127】
また、2回目の撮像処理が終了すると、レンズ制御部36はレンズ駆動部16を制御し、撮影レンズ10を3回目の撮像ポイントであるレンズ位置P3に移動させる(ステップS109)。また、このとき、合焦位置検出部35は、ブロックB3を評価対象領域とし、1回目の画像から求められるブロックB3についての評価値を取得して、それを一時的に記憶しておく(ステップS110)。
【0128】
評価値演算部32は、2回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS107で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS111)。
【0129】
そしてCCD撮像素子11における3回目の撮像処理が開始される(ステップS112)。撮像処理が終了すると、合焦評価領域設定部31は、合焦評価領域Rを設定するとともに(ステップS113)、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS114)。
【0130】
図14のフローチャートに移り、3回目の撮像処理が終了すると、レンズ制御部36はレンズ駆動部16を制御し、撮影レンズ10を4回目の撮像ポイントであるレンズ位置P4に移動させる(ステップS115)。これと同時に、評価値演算部32は、3回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS113で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS116)。
【0131】
そして移動検出部33が機能し、1回目及び2回目の画像から求められる評価値のうち、レンズ駆動に伴う変化度合いが小さい評価値を用いて、被写体の移動検出を行う(ステップS117)。つまり、このときにレンズ位置P1で撮影した画像と、レンズ位置P2で撮影した画像との間に被写体が画像平面内で移動したか否かを検出するのである。ここで被写体の移動が検出された場合には、信頼性評価部331が機能して、被写体の移動検出結果の信頼性が評価される(ステップS118)。
【0132】
信頼性評価の結果、移動検出結果の信頼性が高いと判断された場合には、被写体の移動量に基づいて評価対象領域となるブロックを選択し、その選択されたブロックについて算出された、2回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS119)。例えば、ステップS117において被写体が右方向に16画素移動したことが検出され、ステップS118においてその検出結果の信頼性が高いと判断された場合には、ブロックB4が評価対象領域として選択されることになる(図11の画像102参照)。
【0133】
これに対し、移動検出結果の信頼性が低いと判断された場合には、被写体の移動量は0と判断されるので、評価対象領域となるブロックは変更されない。すなわち、1回目の評価対象領域であるブロックB3が選択され、その選択されたブロックについて算出された、2回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS119)。
【0134】
そしてCCD撮像素子11における4回目の撮像処理が開始される(ステップS120)。撮像処理が終了すると、合焦評価領域設定部31は、前回の移動検出結果に基づいて合焦評価領域Rを設定する(ステップS121)。例えば、ステップS117において被写体が右方向に16画素移動したことが検出され、ステップS118においてその検出結果の信頼性が高いと判断された場合には、合焦評価領域Rは前回の位置から右方向に16画素移動した位置に設定される(図11の画像104参照)。
【0135】
4回目の撮像処理が終了すると、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS122)。また、4回目の撮像処理が終了すると、レンズ制御部36はレンズ駆動部16を制御し、撮影レンズ10を5回目の撮像ポイントであるレンズ位置P5に移動させる(ステップS123)。これと同時に、評価値演算部32は、4回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS121で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS124)。
【0136】
そして移動検出部33が機能し、2回目及び3回目の画像から求められる評価値のうち、レンズ駆動に伴う変化度合いが小さい評価値を用いて、被写体の移動検出を行う(ステップS125)。つまり、このときにレンズ位置P2で撮影した画像と、レンズ位置P3で撮影した画像との間に被写体が画像平面内で移動したか否かを検出するのである。ここで被写体の移動が検出された場合には、信頼性評価部331が機能して、被写体の移動検出結果の信頼性が評価される(ステップS126)。
【0137】
信頼性評価の結果、移動検出結果の信頼性が高いと判断された場合には、被写体の移動量に基づいて評価対象領域となるブロックを選択し、その選択されたブロックについて算出された、3回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS127)。例えば、ステップS117,S118において被写体が右方向に16画素移動したことが検出され、さらに、ステップS125,S126において被写体が右方向に16画素移動したことが検出された場合には、ブロックB5が評価対象領域として選択されることになる(図11の画像103参照)。
【0138】
これに対し、移動検出結果の信頼性が低いと判断された場合には、被写体の移動量は0と判断されるので、評価対象領域となるブロックは変更されない。すなわち、2回目の評価対象領域であるブロックが選択され、その選択されたブロックについて算出された、3回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS127)。
【0139】
そしてCCD撮像素子11における5回目の撮像処理が開始される(ステップS128)。撮像処理が終了すると、合焦評価領域設定部31は、前回の移動検出結果に基づいて合焦評価領域Rを設定する(ステップS129)。例えば、ステップS125において被写体が右方向に16画素移動したことが検出され、ステップS126においてその検出結果の信頼性が高いと判断された場合には、合焦評価領域Rは前回の位置から右方向に16画素移動した位置に設定される(図11の画像105参照)。
【0140】
5回目の撮像処理が終了すると、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS130)。
【0141】
また、5回目の撮像処理が終了すると、レンズ制御部36はレンズ駆動部16を制御し、撮影レンズ10を6回目の撮像ポイントであるレンズ位置P6に移動させる(図15のフローチャート:ステップS131)。これと同時に、評価値演算部32は、5回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS129で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS132)。
【0142】
そして移動検出部33が機能し、3回目及び4回目の画像から求められる評価値のうち、レンズ駆動に伴う変化度合いが小さい評価値を用いて、被写体の移動検出を行う(ステップS133)。このとき、レンズ位置P3で撮影した画像と、レンズ位置P4で撮影した画像との間に被写体が画像平面内で移動したか否かが検出される。ここで被写体の移動が検出された場合には、信頼性評価部331が機能して、被写体の移動検出結果の信頼性が評価される(ステップS134)。
【0143】
信頼性評価の結果、移動検出結果の信頼性が高いと判断された場合には、被写体の移動量に基づいて評価対象領域となるブロックを選択し、その選択されたブロックについて算出された、4回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS135)。例えば、ステップS117,S118及びS125,S126において被写体が右方向に16画素移動したことが検出され、さらに、ステップS133,S134において被写体が右方向に16画素移動したことが検出された場合には、ブロックB5が評価対象領域として選択されることになる(図11の画像104参照)。
【0144】
これに対し、移動検出結果の信頼性が低いと判断された場合には、被写体の移動量は0と判断されるので、3回目の評価対象であるブロックと同じ位置にあるブロックが選択され、その選択されたブロックについて算出された、4回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS135)。
【0145】
そしてCCD撮像素子11における6回目の撮像処理が開始される(ステップS136)。撮像処理が終了すると、合焦評価領域設定部31は、前回の移動検出結果に基づいて合焦評価領域Rを設定する(ステップS137)。例えば、ステップS133において被写体が右方向に16画素移動したことが検出され、ステップS134においてその検出結果の信頼性が高いと判断された場合には、合焦評価領域Rは前回の位置から右方向に16画素移動した位置に設定される(図11の画像106参照)。
【0146】
6回目の撮像処理が終了すると、CCD撮像素子11からの画像読み出しを開始し、画像メモリ12に対して一時的に格納する(ステップS138)。評価値演算部32は、6回目の撮像処理によって得られた画像の読み出し処理と並行して、ステップS137で設定された合焦評価領域RのブロックB1〜B5のそれぞれについて、レンズ駆動に伴う変化度合いが小さい評価値VAと、レンズ駆動に伴う変化度合いが大きい評価値VBとの2種類の評価値を算出するための演算処理を開始する(ステップS139)。
【0147】
そして移動検出部33が機能し、4回目及び5回目の画像から求められる評価値のうち、レンズ駆動に伴う変化度合いが小さい評価値を用いて、被写体の移動検出を行う(ステップS140)。このとき、レンズ位置P4で撮影した画像と、レンズ位置P5で撮影した画像との間に被写体が画像平面内で移動したか否かが検出される。ここで被写体の移動が検出された場合には、信頼性評価部331が機能して、被写体の移動検出結果の信頼性が評価される(ステップS141)。
【0148】
信頼性評価の結果、移動検出結果の信頼性が高いと判断された場合には、被写体の移動量に基づいて評価対象領域となるブロックを選択し、その選択されたブロックについて算出された、5回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS142)。例えば、これまでの移動検出において被写体が右方向に16画素移動したことが検出され、さらに、ステップS140,S141において被写体が右方向に16画素移動したことが検出された場合には、ブロックB5が評価対象領域として選択されることになる(図11の画像105参照)。
【0149】
これに対し、移動検出結果の信頼性が低いと判断された場合には、被写体の移動量は0と判断されるので、4回目の評価対象であるブロックと同じ位置にあるブロックが選択され、その選択されたブロックについて算出された、5回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS142)。
【0150】
そしてステップS139で開始した評価値演算が終了すると、移動検出部33が機能し、5回目及び6回目の画像から求められる評価値のうち、レンズ駆動に伴う変化度合いが小さい評価値を用いて、被写体の移動検出を行う(ステップS143)。このとき、レンズ位置P5で撮影した画像と、レンズ位置P6で撮影した画像との間に被写体が画像平面内で移動したか否かが検出される。ここで被写体の移動が検出された場合には、信頼性評価部331が機能して、被写体の移動検出結果の信頼性が評価される(ステップS144)。
【0151】
信頼性評価の結果、移動検出結果の信頼性が高いと判断された場合には、被写体の移動量に基づいて評価対象領域となるブロックを選択し、その選択されたブロックについて算出された、6回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS145)。例えば、これまでの移動検出において被写体が右方向に16画素移動したことが検出され、さらに、ステップS143,S144において被写体が右方向に16画素移動したことが検出された場合には、ブロックB5が評価対象領域として選択されることになる(図11の画像106参照)。
【0152】
これに対し、移動検出結果の信頼性が低いと判断された場合には、被写体の移動量は0と判断されるので、5回目の評価対象であるブロックと同じ位置にあるブロックが選択され、その選択されたブロックについて算出された、6回目の画像についての評価値が合焦位置検出部35にて記憶されることになる(ステップS145)。
【0153】
次に、図16のフローチャートに進み、合焦位置検出部35が各レンズ位置において得られる評価値のうち、評価対象領域として選択されたブロックの評価値を取得し、補間演算等を行うことによって合焦位置FPを特定する(ステップS146)。このとき、合焦位置近傍では、レンズ駆動に伴う変化度合いが大きい評価値VBが用いられ、合焦位置FPの特定が高精度に行われる。
【0154】
そしてレンズ制御部36がレンズ駆動部16を制御し、撮影レンズ10を合焦位置FPに移動させる(ステップS147)。この結果、CCD撮像素子11に結像される被写体像の合焦状態が実現される。
【0155】
そして、移動予測部34は、これまでの移動検出において検出された被写体の移動量に基づいて、被写体速度を算出し(ステップS148)、次回のステップS102が行われる際に最適な合焦評価領域Rの位置を予測する(ステップS149)。その後、ステップS100に戻り、繰り返し自動合焦制御が実行される。
【0156】
なお、ワンショットAFモードの場合には、上記のステップS147が終了した後、自動合焦制御が終了する。
【0157】
以上のように、本実施形態のデジタルカメラ1は、CCD撮像素子11から得られる画像信号に基づいて被写体の合焦度合いを評価し、撮影レンズ10を駆動することにより、被写体の合焦状態を実現するように構成されており、さらに、被写体の合焦度合いを評価するために求められる、撮影レンズ10の駆動に伴う変化度合いが小さい第1の評価値を用いて、撮影レンズ10の駆動前後における画像平面での被写体の移動を検出するように構成されている。そのため、被写体の移動検出における誤検出を低減することができ、被写体の移動を正確に把握することが可能になる。
【0158】
また、信頼性評価部331が被写体の移動検出結果の信頼を評価するように構成されている。そのため、被写体の移動検出における誤検出をさらに低減することができ、被写体の移動をより正確に把握することが可能になる。
【0159】
そして、被写体の合焦度合いを評価するために、画像信号から合焦評価領域Rの画像成分を抽出し、その合焦評価領域Rの画像成分から、第1及び第2の評価値を求めるように構成されており、移動検出部33における検出結果に基づいて画像信号に対する合焦評価領域Rの設定位置が変更される。したがって、図2に示す画像100において被写体が移動した場合でも、その移動を追従しつつ合焦度合いの評価を行うことができるように実現される。
【0160】
また、本実施形態のデジタルカメラ1は、CCD撮像素子11から得られる画像信号に基づいて、複数のブロックB1〜B5のそれぞれについて、被写体の合焦度合いを評価するための評価値を求め、それらの評価値を用いて被写体の合焦度合いを評価し、撮影レンズ10を合焦位置FPに駆動するように構成される。そして、複数のブロックB1〜B5のうち、互いに隣接するブロックB1〜B5について得られる評価値を差分することによって、合焦評価領域Rの周辺部分についての被写体の移動に関する指標値を求め、その指標値に基づいて被写体の相対的な移動を検出するように構成される。
【0161】
したがって、被写体の移動検出は、複数のブロックB1〜B5について同一演算によって求められる評価値に基づいて行われるので、演算処理の簡単化及び効率化を図ることができる。そして、被写体の移動検出を高速に行うことが可能になり、デジタルカメラ1のコスト低廉を図ることが可能である。
【0162】
また、同一サイズを有する複数のブロックB1〜B5のそれぞれが、所定方向にずれた配置とされ、一部において重複した領域を有するように配置されることで、上記の差分演算によって、合焦評価領域Rの周辺部分についての被写体の移動を評価することが可能である。
【0163】
またデジタルカメラ1は、CCD撮像素子11から得られる画像信号に基づいて、中央部分と周辺部分とによって規定される合焦評価領域Rに関する評価値を求めるように構成され、移動検出部33は、合焦評価領域Rの周辺部分について得られる評価値に基づいて、被写体の相対的な移動を検出するように構成されるので、評価対象領域の評価値に影響を与える被写体の移動を良好に検出することが可能である。
【0164】
また、本実施形態においては、合焦評価領域Rの中心部分において複数のブロックB1〜B5が重複するように配置され、かつ各ブロックが所定画素ずつずらされた配置されており、各ブロックについて同一の評価値演算が適用されるので、演算処理の効率化を図ることが可能である。
【0165】
<2.第2の実施の形態>
次に、第2の実施の形態について説明する。上記第1の実施の形態では、合焦評価領域Rにおける複数のブロックB1〜B5が、一部重ね合わされた状態で配置される場合を例示したが、本実施形態では、第1の実施の形態とは異なる合焦評価領域の設定について説明する。なお、デジタルカメラ1の構成は第1の実施の形態で説明したものと同様である。
【0166】
図17は本実施形態における合焦評価領域Rの構成を示す図である。本実施形態においても、合焦評価領域Rは、図2に示すように画像100に含まれる主被写体の合焦状態を評価するために、画像100に対して設定される。そして本実施形態においても、合焦評価領域Rは、画像平面内における被写体の移動を検出するために、複数のブロックに分割された構成となっている。
【0167】
図17に示す合焦評価領域Rは、中央部分にメインブロックBMが設けられ、メインブロックBMの左右両方向に各4個ずつのサブブロックBS1〜BS4及びBS5〜BS8が設けられる。例えば、メインブロックBMは、幅240画素×高さ200画素の画像成分を含むように構成され、各サブブロックBS1〜BS8は幅16画素×高さ200画素の画像成分を含むように構成される。
【0168】
図17の合焦評価領域Rでは、被写体が初期状態から移動しない場合、合焦度合いを評価する際の評価対象領域が、メインブロックBMと4個のサブブロックBS3,BS4,BS5,BS6とによって規定される領域となる。その状態から被写体が右方向に16画素移動したことが検出された場合には、評価対象領域はメインブロックBMと4個のサブブロックBS4,BS5,BS6,BS7とによって規定される領域となる。さらに、初期状態から被写体が右方向に32画素移動したことが検出された場合には、評価対象領域はメインブロックBMと4個のサブブロックBS5,BS6,BS7,BS8とによって規定される領域となる。
【0169】
これに対し、初期状態から被写体が左方向に16画素移動したことが検出された場合には、評価対象領域はメインブロックBMと4個のサブブロックBS2,BS3,BS4,BS5とによって規定される領域となる。さらに、初期状態から被写体が左方向に32画素移動したことが検出された場合には、評価対象領域はメインブロックBMと4個のサブブロックBS1,BS2,BS3,BS4とによって規定される領域となる。
【0170】
そして評価値演算部32は被写体の合焦度合いを評価するために、上記のようにして決定される評価対象領域について評価値を算出する。また、評価値演算部32は各サブブロックBS1〜BS8のそれぞれについて、被写体の移動検出を行うための評価値を算出する。
【0171】
評価値演算部32は、評価対象領域について評価値を算出する際には、合焦位置近傍において撮影レンズ10の駆動に伴う変化度合いが小さい評価値VAと、撮影レンズ10の駆動に伴う変化度合いが大きい評価値VBとの双方を求める。これにより、合焦位置検出部35は、合焦位置FPに対する撮影レンズ10の位置関係に応じて最適な評価値を参照して合焦度合いを評価することが可能である。
【0172】
また、評価値演算部32は、各サブブロックBS1〜BS8について、被写体の移動に関する評価値を求める際には、撮影レンズ10の駆動に伴う変化度合いが小さい評価値VAのみを求めればよい。それにより、合焦評価領域Rにおいて中心部分を除いた周辺部分の評価値を得ることができ、第1の実施の形態で説明したのと同様の手法によって被写体の移動を検出することが可能である。なお、各サブブロックBS1〜BS8については、同一演算が適用されて評価値が算出される。
【0173】
ここで、サブブロックBS1について得られる評価値VAのうち、前回のレンズ位置において得られるものを評価値VA1(BS1)とし、今回のレンズ位置において得られるものを評価値VA2(BS1)とする。サブブロックBS2について得られる評価値VAのうち、前回のレンズ位置において得られるものを評価値VA1(BS2)とし、今回のレンズ位置において得られるものを評価値VA2(BS2)とする。以下同様に、サブブロックBS3〜BS8のそれぞれについて得られる前回及び今回のレンズ位置において得られる評価値を規定する。
【0174】
移動検出部33は、各ブロックBS1〜BS8より前回得られた評価値VA1(BS1)〜VA1(BS8)と、今回得られた評価値VA2(BS1)〜VA2(BS8)とに基づいて、合焦評価領域Rにおいて中央部分を除いた周辺部分について被写体の移動を検出する。
【0175】
各レンズ位置において得られる評価値VAを隣接するサブブロック間で差分をとると、合焦評価領域R内の周辺部分における評価値の移動が検出可能である。つまり、各レンズ位置において得られる評価値VAを隣接するサブブロック間で差分することにより得られる差分値が、合焦評価領域Rの周辺部分についての被写体の移動に関する指標値となり、その指標値に基づいて被写体の相対的な移動が検出される。
【0176】
例えば、評価値VA1(BS1)とVA2(BS2)との差分が小さくなれば、前回のレンズ位置においてサブブロックBS1に含まれていた被写体は今回のレンズ位置においてサブブロックBS2に含まれることになり、被写体が右方向に16画素移動したことになる。また、評価値VA1(BS2)とVA2(BS1)との差分が小さくなれば、前回のレンズ位置においてサブブロックBS2に含まれていた被写体は今回のレンズ位置においてサブブロックBS1に含まれることになり、被写体が左方向に16画素移動したことになる。さらに、評価値VA1(BS1)とVA2(BS1)との差分が小さくなれば、前回のレンズ位置においてサブブロックBS1に含まれていた被写体は今回のレンズ位置においてもサブブロックBS1に含まれることになり、レンズ駆動の間における被写体の移動はなかったものと考えられる。
【0177】
同様に他の隣接サブブロック間でも同様のことが言えるため、移動検出部33は、
【0178】
【数10】
【0179】
の演算を行うことにより、第1の実施の形態で説明したものと同様の特性を示す相関値MR1,MV0,ML1のそれぞれを算出することができる。
【0180】
すなわち、相関値MR1は被写体が右方向に16画素分移動したことを検出するための相関値であり、相関値ML1は被写体が左方向に16画素分移動したことを検出するための相関値である。また、相関値MV0は被写体の移動がないことを検出するための相関値である。そして、本実施形態のように合焦評価領域Rの中央部分となるメインブロックBMの周辺部に、サブブロックBS1〜BS8を設定することにより、合焦評価領域Rの周辺部分について、中央部分の右側と左側とを個別に評価することのできる相関値MR1,MV0,ML1を得ることができる。
【0181】
図18は前回のレンズ位置と今回のレンズ位置との比較対象画像において合焦評価領域Rにおける被写体が右方向に移動した場合を示す図であり、図における円形、三角形、四角形は被写体像を模式的に表したものである。図18に示すように、画像G1とG2との間で被写体が右方向にずれると、合焦評価領域Rに含まれる被写体のうち、周辺部分の被写体が各サブブロックに対応する領域を移動することになる。したがって、前回のレンズ位置におけるサブブロックBS1〜BS8の評価値VA1(BS1)〜VA1(BS8)と、今回のレンズ位置におけるサブブロックBS1〜BS8の評価値VA2(BS1)〜VA2(BS8)との相関値を求めることにより、合焦評価領域R内の周辺部における被写体がどのように移動したかを検出することができる。
【0182】
そして上記数10に示すように、合焦評価領域Rのサブブロックについてのみ相関値演算を行うことで、合焦評価領域Rの周辺部に含まれる被写体の移動のみを評価することができる。このため、移動前後においても中央部分に含まれ、16画素程度移動しても合焦度合いを評価するための評価値に影響を与えない中央部分の被写体(三角形)は、移動検出の対象から排除されるようになっている。
【0183】
そして図18に示すように、前回のレンズ位置と今回のレンズ位置との間で被写体が右方向におよそ16画素移動すると相関値MR1は最小になる。これに対し、前回のレンズ位置と今回のレンズ位置との間で被写体の移動がなかった場合(あるいは移動量が8画素未満の場合)には相関値MV0が最小になり、前回のレンズ位置と今回のレンズ位置との間で被写体が左方向におよそ16画素移動した場合には相関値ML1が最小になる。
【0184】
つまり、移動検出部33は上記数10の演算によって得られる相関値MR1,MV0,ML1を比較し、最小値を示す相関値を特定することで被写体の移動を検出するように構成される。
【0185】
そして、移動検出部33は、相関値MR1が最小であることを検出した場合には、被写体が画像平面内で右方向に移動し、その移動量が16画素であることを検出する。なお、移動量が16画素になる理由は、各サブブロックBS1〜BS8の幅が16画素であることに起因するものであるので、例えば各サブブロックの幅がN画素(ただし、Nは任意の整数)である場合には、被写体の移動量はN画素となる。
【0186】
また、移動検出部33は、相関値ML1が最小であることを検出した場合には、被写体が画像平面内で左方向に移動し、その移動量が16画素であることを検出する。さらに移動検出部33は、相関値MV0が最小であることを検出した場合には、被写体が画像平面内で移動しなかったことを検出する。
【0187】
なお、上述した説明では、前回のレンズ位置において得られた評価値と今回のレンズ位置において得られた評価値とに基づいて被写体の移動を検出する場合を示しているが、上記のようにCCD撮像素子11から時間的に連続して得られる2つの画像間で被写体の移動を検出することにより、2つの比較対照画像間での撮影レンズ10の移動量が最小の状態で被写体の移動検出を行うことができるので、比較対照画像間でのピント差が最小になり、移動検出の際の誤検出の可能性を低減することが可能である。
【0188】
また、本実施の形態においても、信頼性評価部331が機能し、移動検出部33において上記のようにして検出された被写体の移動が正確であるか否かを検証するように構成される。つまり、移動検出部33によって被写体が右方向又は左方向に16画素移動したことが検出された場合、信頼性評価部331は、第1の実施の形態で説明した演算と同様の演算手法によって、相関値MV0’,MR1’,MR2又はMV0’,ML1’,ML2を再演算し、公知の手法である急傾斜延長法による補間演算を行い、それによって得られるパラメータC値及びYM値により、信頼性の評価を行うように構成される。
【0189】
そして第1の実施の形態と同様に、信頼性の評価が行われることにより、被写体の移動検出における誤検出を低減することができ、正確に被写体の移動を把握することが可能になる。
【0190】
なお、その他の動作は第1の実施の形態で説明したものと同様であり、例えばコンティニュアスAFモードでは被写体の移動に追従して合焦評価領域Rが設定されるように構成される。
【0191】
本実施形態のように、合焦評価領域Rを構成しても、第1の実施の形態で説明した効果と同様の効果を得ることができる。
【0192】
また、第1の実施の形態では、複数のブロックが同一サイズであることから、各ブロックについて評価値を求める際には同一演算を適用できるのに対し、本実施形態では各サブブロックBS1〜BS8のサイズと、合焦度合いを評価するための評価対象領域のサイズとは異なるサイズであるので、同一演算を適用することはできない。しかし、本実施形態では、評価値を算出するブロック数が第1の実施の形態に比べて増えるが、合焦評価領域Rの周辺部分について、中央部分の右側と左側とを個別に判断することにより、第1の実施の形態で説明した複数ブロックB1〜B5を採用する場合よりも被写体の移動検出を正確に行うことができる。
【0193】
すなわち、本実施形態においては、合焦評価領域Rが、中央部分に対応して設けられるメインブロックBMと、周辺部分に対応して設けられる複数のサブブロックBS1〜BS8とを有しており、移動検出部33が、複数のサブブロックBS1〜BS8のそれぞれについて得られる評価値に基づいて、被写体の相対的な移動を検出するように構成されるので、評価対象領域の評価値に影響を与える被写体の移動を正確に検出することができる。その結果、自動合焦制御において良好に被写体の動きを追従することができ、高精度な自動合焦制御が実現される。
【0194】
<3.変形例>
以上、本発明の実施の形態について説明したが、本発明は上記説明した内容のものに限定されるものではない。
【0195】
例えば、上記各実施形態においては、画像平面の水平方向に対する被写体の移動検出を行う場合を例示したが、これに限定されるものではない。すなわち、第1の実施の形態における複数ブロックの配置方向を縦方向(垂直方向)としたり、第2の実施の形態における複数のサブブロックの配置方向を縦方向(垂直方向)とすることにより、画像平面において被写体が縦方向に移動した場合にそれを検出することが可能である。
【0196】
さらに、第1の実施の形態における複数ブロックを縦横の双方に2次元配置したり、第2の実施の形態における複数のサブブロックを縦横の双方に2次元配置することにより、画像平面において被写体がどのように移動してもそれを追従することが可能になる。
【0197】
図19は、第1の実施の形態のように同一サイズのブロックを複数配置する場合の配置例を示す図であり、各ブロックの中心点の配置のみを示している。
【0198】
図19(a)は第1の実施の形態にて説明したものであり、横方向に5つのブロックB1〜B5が所定画素数ずつずらされて配置される。このため、図19(a)のブロック配置によれば、被写体が横方向に移動した場合にそれを検出することができる。この場合、各ブロックB1〜B5の隣接するブロック間で評価値の差分を用いて水平方向の被写体の移動を検出し、評価対象領域を被写体の移動に追従させるとともに、合焦評価領域Rの位置を移動させることが可能である。
【0199】
図19(b)は5つのブロックB1〜B5が所定画素数ずつずらされて垂直方向に配置される場合を示している。この場合、各ブロックB1〜B5の隣接するブロック間で評価値の差分を用いて垂直方向の被写体の移動を検出し、評価対象領域を被写体の移動に追従させるとともに、合焦評価領域Rの位置を移動させることが可能である。
【0200】
さらに、図19(c)は13個のブロックB1〜B13が所定画素数ずつずらされて2次元配置される場合を示している。この場合、水平方向に配置される5つのブロックB1〜B5の隣接するブロック間で評価値の差分を用いて水平方向の被写体の移動を検出することができるとともに、垂直方向に配置される5つのブロックB6,B7,B3,B8,B9の隣接するブロック間で評価値の差分を用いて垂直方向の被写体の移動を検出することができる。そして、画像平面において被写体が斜め方向に移動すると、水平方向及び垂直方向の双方で同時に被写体の移動が検出される。この場合、被写体の移動方向に応じて、中心ブロックB3からみて斜めの位置にあるブロックB10〜B13のうちのいずれかを評価対象領域として選択することで、被写体の移動に追従させることができる。また、被写体の移動方向に応じて、合焦評価領域Rの位置を斜めに移動させることで、被写体を追従することも可能である。
【0201】
なお、上記においては、デジタルカメラを例示して説明したが、上述した技術はデジタルスチルカメラ及びデジタルビデオカメラのいずれに対しても適用可能である。また、デジタルカメラ以外の撮像装置でも、電気的画像信号を取得することが可能なものであれば、上述した技術を適用することが可能である。
【0202】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、被写体の合焦度合いを評価するために、撮影レンズの駆動に伴う変化度合いが小さい第1の評価値と、第1の評価値よりも撮影レンズの駆動に伴う変化度合いが大きい第2の評価値とが求められ、そのうち第1の評価値を用いて、撮影レンズの駆動前後における画像平面での被写体の移動を検出するように構成されるので、撮影レンズの駆動前後におけるデフォーカス量の変化が小さい状態で、被写体の移動を検出することができる。その結果、被写体の移動検出における誤検出を低減することが可能である。
【0203】
請求項2に記載の発明によれば、第1の評価値が、画像信号に対してそれぞれ異なる特性を有する複数のバンドパスフィルタが適用されて得られる値のうち、最も広い周波数帯域を示すバンドパスフィルタが適用されて得られる値であるので、被写体の移動検出における誤検出を少なくすることが可能である。
【0204】
請求項3に記載の発明によれば、第1の評価値が、画像信号から近接画素間での差分絶対値が求められ、差分絶対値が画像信号の所定領域について積分された値であるので、被写体の移動検出における誤検出を少なくすることが可能である。
【0205】
請求項4に記載の発明によれば、被写体の移動検出結果についての信頼性を評価するように構成され、その信頼性が低いと判断される場合には、被写体の移動はないものと判定されるので、誤検出をさらに適切に防止することができる。
【0206】
請求項5に記載の発明によれば、被写体の移動検出結果に基づいて画像信号に対する合焦評価領域を変更するように構成されるため、被写体の合焦度合いの評価は、被写体の移動に追従して行われることとなり、常に適切な自動合焦制御が実現される。
【図面の簡単な説明】
【図1】デジタルカメラの構成を示すブロック図である。
【図2】CCD撮像素子から得られる画像を示す図である。
【図3】合焦評価領域の一構成例を示す図である。
【図4】バンドパスフィルタの周波数特性を示す図である。
【図5】合焦位置近傍における第1及び第2の評価値を示す図である。
【図6】合焦評価領域の周辺部の領域を示す図である。
【図7】第1の実施の形態において被写体が右方向に移動した場合を示す図である。
【図8】被写体が右方向に移動したことが検出された場合の相関値と移動量との関係を示す図である。
【図9】被写体が左方向に移動したことが検出された場合の相関値と移動量との関係を示す図である。
【図10】デジタルカメラの内部動作におけるタイミングチャートである。
【図11】被写体の移動検出に伴う合焦評価領域の状態を示す図である。
【図12】コンティニュアスAFモードにおける合焦評価領域の状態を示す図である。
【図13】自動合焦制御を行う際の処理シーケンスを示すフローチャートである。
【図14】自動合焦制御を行う際の処理シーケンスを示すフローチャートである。
【図15】自動合焦制御を行う際の処理シーケンスを示すフローチャートである。
【図16】自動合焦制御を行う際の処理シーケンスを示すフローチャートである。
【図17】第2の実施の形態における合焦評価領域の構成を示す図である。
【図18】第2の実施の形態において被写体が右方向に移動した場合を示す図である。
【図19】複数ブロックの配置に関する変形例を示す図である。
【符号の説明】
1 デジタルカメラ(撮像装置)
10 撮影レンズ
11 CCD撮像素子(撮像手段)
30 自動合焦制御部
31 合焦評価領域設定部
32 評価値演算部(評価値演算手段)
33 移動検出部(移動検出手段)
34 移動予測部
35 合焦位置検出部
36 レンズ制御部
331 信頼性評価部(信頼性評価手段)
R 合焦評価領域
B1〜B5 ブロック
BM メインブロック
BS1〜BS8 サブブロック[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an imaging device such as a digital camera.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an auto-focusing (auto-focusing) technique in an imaging device such as a digital camera, there is a technology that focuses on an area of an image and obtains an evaluation value such as contrast from the area to evaluate the degree of focusing of a subject. Are known. In this case, the photographing lens is driven stepwise to detect the lens position at which the evaluation value becomes maximum, thereby specifying the lens position at which the subject image is in focus and performing autofocus. . In such a technique, in order to accurately evaluate the in-focus state of the subject, it is desired to use an evaluation value having a relatively large degree of change accompanying the driving of the taking lens.
[0003]
When performing autofocus, the subject may move in the image plane during the autofocus operation due to camera shake, subject shake, or the like. For this reason, conventionally, the movement of the subject is also detected by detecting the movement of the area where the evaluation value shows the maximum value in the image plane. In the movement detection using the evaluation value for autofocus, in order to accurately detect the movement of the subject in the image plane, the movement detection is performed between images for evaluating the movement of the subject due to factors other than the movement of the subject. It is desired that the image change is small.
[0004]
[Problems to be solved by the invention]
However, since the above-described movement detection is configured to detect the movement of the subject in the image plane using the evaluation value for autofocus, the driving of the photographing lens is performed between the images for evaluating the movement of the subject. That is, the movement of the subject is detected with images having different defocus amounts. Therefore, in the conventional movement detection, a large change in the evaluation value due to a change in the defocus amount occurs as a factor other than the movement of the subject, and there is a problem that the movement of the subject is likely to be erroneously detected.
[0005]
The present invention has been made in view of the above problems, and has as its object to provide an imaging apparatus that detects a movement of a subject using an evaluation value for autofocus and that has a small number of erroneous detections. .
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to
[0007]
According to a second aspect of the present invention, in the imaging device according to the first aspect, the first evaluation value is a value obtained by applying a plurality of band-pass filters having different characteristics to the image signal. Among them, the value is obtained by applying a band-pass filter indicating the widest frequency band.
[0008]
According to a third aspect of the present invention, in the imaging device according to the first aspect, the first evaluation value is a difference absolute value between adjacent pixels from the image signal, and the difference absolute value is the image value. It is characterized in that it is a value integrated over a predetermined area of the signal.
[0009]
According to a fourth aspect of the present invention, in the imaging device according to any one of the first to third aspects, the image capturing apparatus further includes a reliability evaluation unit that evaluates reliability of a subject movement detection result by the movement detection unit. When the gender evaluation unit determines that the reliability of the subject movement detection result is low, the movement detection unit determines that the subject does not move.
[0010]
According to a fifth aspect of the present invention, in the imaging apparatus according to any one of the first to fourth aspects, the evaluation value calculation unit extracts an image component of a focus evaluation area from the image signal and performs the focus evaluation. The apparatus is configured to obtain the first and second evaluation values from an image component of an area, and changes the focus evaluation area for the image signal based on a detection result of the movement detection unit. I have.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0012]
<1. First Embodiment>
FIG. 1 is a block diagram illustrating a configuration of a
[0013]
Light from a subject is imaged on a
[0014]
The
[0015]
When a photographing process for photographing an image for recording is performed in the
[0016]
On the other hand, when automatic focusing (autofocus) control is performed in the
[0017]
The automatic
[0018]
The automatic focusing control performed by the automatic focusing
[0019]
The automatic focusing control is started, for example, when the shutter button 18a is half-pressed by the user. In the one-shot AF mode, the photographing
[0020]
Hereinafter, a specific operation in the automatic focusing
[0021]
The focus evaluation
[0022]
The focus evaluation area R is configured to be divided into a plurality of blocks in order to detect the movement of the subject in the image plane. FIG. 3 is a diagram illustrating a configuration example of the focus evaluation area R.
[0023]
In the focus evaluation area R shown in FIG. 3, a plurality of blocks B1 to B5 having the same size are arranged in a state shifted by a predetermined number of pixels in the horizontal direction. For example, each of the blocks B1 to B5 has a size of 324 pixels in width × 200 pixels in height, and is displaced by 16 pixels in the horizontal direction. Therefore, the blocks B1 to B5 are partially overlapped, in other words, the arrangement is such that the blocks B1 to B5 overlap at the center of the focus evaluation area R.
[0024]
When the subject does not move from the initial state, the evaluation target area when evaluating the degree of focusing is the area defined by the block B3. If it is detected from this state that the subject has moved 16 pixels to the right, the evaluation target area becomes the area defined by the block B4, and the evaluation target area moves 16 pixels to the right. On the other hand, when it is detected that the subject has moved leftward by 16 pixels from the initial state, the evaluation target area becomes the area defined by the block B2, and the evaluation target area moves leftward by 16 pixels.
[0025]
The focus evaluation
[0026]
The evaluation
[0027]
For example, the evaluation
[0028]
FIG. 4 is a diagram illustrating frequency characteristics of the first bandpass filter BPF1 and the second bandpass filter BPF2. As shown in FIG. 4, the first bandpass filter BPF1 detects more low frequency components than the second bandpass filter BPF2. Therefore, the evaluation value VA obtained by performing the filter processing by the first band-pass filter BPF1 is closer to the focusing position than the evaluation value VB obtained by performing the filter processing by the second band-pass filter BPF2. The degree of change accompanying the driving of No. 10 is reduced.
[0029]
FIG. 5 is a diagram showing first and second evaluation values near the focus position. The photographing
[0030]
Therefore, in order to accurately specify the focus position FP from the evaluation values obtained at the respective lens positions P1 to P6 while driving the photographing
[0031]
However, as shown in FIG. 5, when the lens position of the taking
[0032]
Also, the first and second evaluation values VA and VB can be obtained by a method other than using the band-pass filters BPF1 and BPF2 having different frequency characteristics as described above. For example, the evaluation
[0033]
Further, the first and second evaluation values VA and VB may be obtained by a method other than these.
[0034]
The evaluation
[0035]
When the
[0036]
Hereinafter, the operation of the
[0037]
When the
[0038]
Here, among the evaluation values VA obtained for the block B1, those obtained at the previous lens position are referred to as evaluation values VA1 (B1), and those obtained at the current lens position are referred to as evaluation values VA2 (B1). Of the evaluation values VA obtained for the block B2, those obtained at the previous lens position are referred to as evaluation values VA1 (B2), and those obtained at the current lens position are referred to as evaluation values VA2 (B2). Similarly, evaluation values obtained at the previous and current lens positions obtained for each of the blocks B3 to B5 are similarly defined.
[0039]
The
[0040]
If the difference between the evaluation values VA obtained at each lens position is calculated between adjacent blocks, the influence of the central portion of the focus evaluation region R is almost canceled, and the peripheral portion within the focus evaluation region R is removed. The evaluation value H is obtained. That is, for the evaluation value VA1 obtained at the previous lens position,
[0041]
(Equation 1)
[0042]
By performing the following calculation, the evaluation values H11 to H14 of the peripheral portion can be obtained from the evaluation value VA1 obtained at the previous lens position.
[0043]
FIG. 6 is a diagram illustrating the focus evaluation region R, and is a diagram illustrating a peripheral region obtained by the above calculation. 6A is a region corresponding to the evaluation value H11, a hatched region in FIG. 6B is a region corresponding to the evaluation value H12, and a hatched region in FIG. 6C is the evaluation value H13. , And the shaded area in FIG. 6D is an area corresponding to the evaluation value H14.
[0044]
Similarly, for the evaluation value VA2 obtained at the current lens position,
[0045]
(Equation 2)
[0046]
By performing the following calculation, the evaluation values H21 to H24 of the peripheral portion can be obtained from the evaluation value VA2 obtained at the current lens position. Also in this case, the hatched area in FIG. 6A is an area corresponding to the evaluation value H21, the hatched area in FIG. 6B is an area corresponding to the evaluation value H22, and the hatched area in FIG. Is an area corresponding to the evaluation value H23, and a hatched area in FIG. 6D is an area corresponding to the evaluation value H24.
[0047]
The
[0048]
FIG. 7 is a diagram showing a case where the subject in the focus evaluation area R moves rightward in the image to be compared between the previous lens position and the current lens position, and circles, triangles, and squares in the figure schematically represent the subject image. It is a representation. As shown in FIG. 7, when the subject shifts rightward between the images G1 and G2, among the subjects included in the focus evaluation area R, the peripheral subject is set to an area corresponding to each peripheral evaluation value. Will move. In this case, if the evaluation target area adopted at the previous lens position is also adopted at the current lens position, the evaluation value will change due to the movement of the subject.
[0049]
On the other hand, among the subjects included in the focus evaluation area R, the subject (triangle) at the center is included in the center before and after the movement. For this reason, in the central part of the focus evaluation area R, the evaluation value of the evaluation target area does not change even if the subject moves.
[0050]
When evaluating the degree of focus of the subject, factors that change the evaluation value other than the focus difference include a case where a new subject enters the evaluation target area and a case where the subject is not included in the evaluation target area. In such a case, the movement of the subject appears around the focus evaluation area R.
[0051]
Therefore, in the present embodiment, the evaluation value of the peripheral portion excluding the central portion in the focus evaluation area R is adopted as an index value for evaluating the moving-in / out operation of the subject with respect to the focus evaluation area R, and the focus evaluation area R is used. It is configured to appropriately detect the movement of the subject by evaluating the evaluation value of the peripheral portion of the region R. In other words, by determining a correlation value between the peripheral evaluation values H11 to H14 at the previous lens position and the peripheral evaluation values H21 to H24 at the current lens position, the subject in the peripheral evaluation within the focus evaluation area R is determined. So that it has moved.
[0052]
As a correlation value for detecting the movement of the subject, the
[0053]
That is, the
[0054]
[Equation 3]
[0055]
, The respective correlation values MR1, MV0, ML1 are calculated. The correlation value MR1 is a correlation value for detecting that the subject has moved 16 pixels to the right, and the correlation value ML1 is a correlation value for detecting that the subject has moved 16 pixels to the left. Further, the correlation value MV0 is a correlation value for detecting that the subject does not move.
[0056]
As shown in FIG. 7, when the subject moves approximately 16 pixels to the right between the previous lens position and the current lens position, the correlation value MR1 becomes minimum. On the other hand, if the subject has not moved between the previous lens position and the current lens position (or the movement amount is less than 8 pixels), the correlation value MV0 becomes minimum, and When the subject moves by about 16 pixels to the left between the current lens position, the correlation value ML1 becomes minimum.
[0057]
That is, the
[0058]
Then, when detecting that the correlation value MR1 is the minimum, the
[0059]
When detecting that the correlation value ML1 is minimum, the
[0060]
In the above description, the case where the movement of the subject is detected based on the evaluation value obtained at the previous lens position and the evaluation value obtained at the current lens position is shown. By detecting the movement of the subject between two images obtained successively in time from the
[0061]
Further, in the above description, for simplicity of description, the case where peripheral portion evaluation values H11 to H14 and H21 to H24 are calculated from the evaluation values VA1 and VA2 has been exemplified. If an arithmetic expression obtained by substituting
[0062]
Next, the
[0063]
As described above, among the two types of evaluation values, when the movement of the subject is detected, the evaluation value having a small degree of change due to lens driving is used, so that erroneous detection during movement detection can be reduced. If an image component having a very high spatial frequency and contrast is included in the peripheral portion of the focus evaluation area R, there is a possibility that the movement of the subject is erroneously detected due to a change in the evaluation value accompanying the driving of the photographing
[0064]
Also, when a plurality of subjects each showing a different motion are included in the peripheral portion of the focus evaluation area R, or when an image with a very low contrast such as a white wall or the sky is included, the subject is not affected. There is a possibility of erroneously detecting movement.
[0065]
Therefore, the reliability evaluation unit 331 verifies whether or not the movement of the subject detected as described above is accurate in order to prevent the erroneous detection as described above. Specifically, when the
[0066]
In order to perform the interpolation calculation by the steep extension method, the reliability evaluation unit 331 recalculates the correlation value for detecting the movement of the subject.
[0067]
First, a case where the
[0068]
(Equation 4)
[0069]
The correlation values MV0 ', MR1', and MR2 are obtained by performing an operation based on. The correlation value MR2 is a correlation value for detecting a movement amount for 32 pixels, and the correlation values MR1 'and MV0' are recalculated to make them comparable with the correlation value MR2.
[0070]
When the relationship between the correlation value MV0 ′ and the correlation value MR1 ′ becomes a relationship of MV0 ′ <MR1 ′ by the recalculation based on the expression of
[0071]
Further, when the correlation value recalculation does not cause an inversion phenomenon in the correlation value relationship, that is, when the relationship of MV0 ′> MR1 ′ is obtained, the interpolation calculation by the steep extension method is performed to improve the reliability. Perform an evaluation.
[0072]
FIG. 8 is a diagram illustrating a relationship between the correlation value and the movement amount when the
[0073]
When the correlation values MV0 ', MR1', and MR2 obtained by the recalculation are in the state shown in FIG. 8A, the parameters C and YM are calculated by the steep extension method. The steep extension method sets a steepest straight line passing through two of the three points and a straight line passing through another point and having a sign different from that of the steep straight line. This is a method to find the intersection. That is, as shown in FIG. 8A, a
[0074]
(Equation 5)
[0075]
Can be determined by:
[0076]
Also, when the correlation values MV0 ', MR1', and MR2 obtained by the recalculation are in the state shown in FIG. 8B, the parameters C and YM are calculated by the steep extension method. That is, as shown in FIG. 8B, a
[0077]
(Equation 6)
[0078]
Can be determined by:
[0079]
Then, the reliability evaluation unit 331 evaluates the reliability of the subject having moved 16 pixels to the right using the parameters C and YM obtained as described above. Specifically, when the parameter C is larger than the predetermined value TH1 and the parameter YM / C is smaller than the predetermined value TH2, it is determined that the reliability of the movement detection result of the subject is high. Therefore, the relationship of C> TH1 and YM / C <TH2 is an evaluation condition for determining that the reliability is high. When the evaluation condition is satisfied, the subject moves rightward in the image plane, and It is determined that the movement amount is 16 pixels.
[0080]
If the evaluation condition is not satisfied, it is determined that the reliability of the detection result of the movement of the subject is low, the movement of the subject is determined not to be performed, and the movement amount is determined to be zero. Further, even when the correlation value MR2 is minimized, the reliability of the detection result of the movement of the subject may be determined to be low, and the movement amount may be determined to be zero.
[0081]
Next, a case will be described in which the
[0082]
(Equation 7)
[0083]
, The correlation values ML2, ML1 ', MV0' are obtained. The correlation value ML2 is a correlation value for detecting the amount of movement of 32 pixels, and the correlation values ML1 'and MV0' are recalculated to make them comparable with the correlation value MR2.
[0084]
When the relationship between the correlation value MV0 ′ and the correlation value ML1 ′ becomes a relationship MV0 ′ <ML1 ′ by the recalculation based on the equation of Expression 7, the relationship ML1 <MV0 detected by the
[0085]
Further, when the correlation value recalculation does not cause a reversal phenomenon in the correlation value relationship, that is, when the relationship of MV0 ′> ML1 ′ is obtained, the interpolation calculation by the steep extension method is performed to improve the reliability. Perform an evaluation.
[0086]
FIG. 9 is a diagram illustrating a relationship between a correlation value and a movement amount when the
[0087]
When the correlation values MV0 ', ML1', ML2 obtained by the recalculation are in the state as shown in FIG. 9A, the parameters C and YM are calculated by the steep extension method. That is, as shown in FIG. 9A, a
[0088]
(Equation 8)
[0089]
Can be determined by:
[0090]
Even when the correlation values MV0 ', ML1', and ML2 obtained by the recalculation are in the state shown in FIG. 9B, the parameters C and YM are calculated by the steep extension method. That is, as shown in FIG. 9B, a
[0091]
(Equation 9)
[0092]
Can be determined by:
[0093]
Then, the reliability evaluation unit 331 evaluates the reliability of the subject having moved leftward by 16 pixels using the parameters C and YM obtained as described above. Specifically, similarly to the case where the rightward movement is detected, when the parameter C is larger than the predetermined value TH1 and the parameter YM / C is smaller than the predetermined value TH2, the result of the movement detection of the subject is determined. It is determined that the reliability is high. Therefore, when the evaluation conditions of C> TH1 and YM / C <TH2 are satisfied, the subject moves to the left in the image plane, and it is determined that the movement amount is 16 pixels.
[0094]
If the evaluation condition is not satisfied, it is determined that the reliability of the detection result of the movement of the subject is low, the movement of the subject is determined not to be performed, and the movement amount is determined to be zero. Further, even when the correlation value ML2 is minimized, the reliability of the detection result of the movement of the subject may be determined to be low, and the movement amount may be determined to be zero.
[0095]
As described above, when the
[0096]
When the reliability evaluation unit 331 determines the movement detection result and detects that the subject has moved 16 pixels in the right or left direction, the
[0097]
The
[0098]
The focus
[0099]
In the vicinity of the in-focus position, the in-focus position FP is specified using the second evaluation value VB whose degree of change in the evaluation value accompanying the lens driving is large, but the in-focus position is determined using the second evaluation value VB. When it is difficult to specify the FP, the focus position FP is located at a relatively distant position. For example, high-speed driving of the
[0100]
When the focus position FP is specified, the lens position is instructed to the
[0101]
Further, the
[0102]
FIG. 10 is a timing chart showing the above operation. The photographing
[0103]
When the first lens driving is completed, the photographing
[0104]
When the first imaging process is completed, the second lens driving is performed, and the second imaging process is performed with the
[0105]
When the acquisition of the evaluation value based on the image obtained by the second imaging process is completed, the
[0106]
Similarly, at the time when the respective operations associated with the sixth lens drive are completed, the focus
[0107]
By performing the above operation, it is possible to cause the position of the block for detecting the focus position FP at each lens position to follow the movement of the subject. FIG. 11 is a diagram showing a state of a focus evaluation area R accompanying detection of movement of a subject. However, FIG. 11 illustrates a case where the subject moves rightward in the image plane.
[0108]
Each
[0109]
Further, by detecting the movement between the
[0110]
By the way, when the detection of the movement between the
[0111]
Similarly, based on the detection of the movement between the
[0112]
In this way, by moving the position of the focus evaluation area R with the movement of the subject, it is possible to follow the movement of the subject without increasing the number of blocks set in the focus evaluation area R. Further, since it is not necessary to increase the number of blocks, it is possible to reduce the load of the evaluation value calculation.
[0113]
Next, the
[0114]
Even in the continuous AF mode, if the movement detection is performed between the last image in the previous automatic focusing control and the first image in the next automatic focusing control, the focus evaluation area R can be used to move the subject. It is possible to follow.
[0115]
However, in the continuous AF mode, between the previous automatic focusing control and the next automatic focusing operation, it is necessary to perform exposure control by performing a photometric operation or the like in order to cope with a change in the brightness of the subject. is there. For this reason, if the exposure control is interposed between the repeated automatic focusing control operations, the difference in the imaging timing between the last image in the previous automatic focusing control and the first image in the next automatic focusing control becomes large. It is considered that there is a high possibility that the subject will move by 16 pixels or more during the enlargement.
[0116]
Therefore, at the time of the automatic focusing control, the
[0117]
FIG. 12 is a diagram illustrating a state of the focus evaluation area R accompanying the detection of the movement of the subject in the continuous AF mode. However, FIG. 12 illustrates a case where the subject moves rightward in the image plane, and
[0118]
The
[0119]
Further, the
[0120]
Next, a processing sequence when performing the automatic focusing control in the
[0121]
As shown in FIG. 13, when the automatic focusing control is started, the
[0122]
When the imaging processing is completed, the focus evaluation
[0123]
When the first imaging process is completed, the
[0124]
The evaluation
[0125]
Then, the second imaging process in the
[0126]
When the imaging process is completed, the focus evaluation
[0127]
When the second imaging process is completed, the
[0128]
The evaluation
[0129]
Then, the third imaging process in the
[0130]
Referring to the flowchart of FIG. 14, when the third imaging process is completed, the
[0131]
Then, the
[0132]
As a result of the reliability evaluation, when it is determined that the reliability of the movement detection result is high, a block serving as an evaluation target area is selected based on the amount of movement of the subject, and the block calculated for the selected block is calculated. The evaluation value for the second image is stored in the focus position detection unit 35 (Step S119). For example, if it is detected in step S117 that the subject has moved rightward by 16 pixels, and if it is determined in step S118 that the reliability of the detection result is high, the block B4 is selected as the evaluation target area. (See
[0133]
On the other hand, when it is determined that the reliability of the movement detection result is low, the movement amount of the subject is determined to be 0, and thus the block serving as the evaluation target area is not changed. That is, the block B3, which is the first evaluation target area, is selected, and the evaluation value for the second image calculated for the selected block is stored in the focus position detection unit 35 ( Step S119).
[0134]
Then, the fourth imaging process in the
[0135]
When the fourth imaging process is completed, image reading from the
[0136]
Then, the
[0137]
As a result of the reliability evaluation, if it is determined that the reliability of the movement detection result is high, a block to be an evaluation target area is selected based on the amount of movement of the subject, and the block calculated for the selected block is calculated. The evaluation value for the second image is stored in the focus position detection unit 35 (step S127). For example, if it is detected in steps S117 and S118 that the subject has moved 16 pixels to the right, and if it is detected in steps S125 and S126 that the subject has moved 16 pixels to the right, block B5 is evaluated. It will be selected as the target area (see
[0138]
On the other hand, when it is determined that the reliability of the movement detection result is low, the movement amount of the subject is determined to be 0, and thus the block serving as the evaluation target area is not changed. In other words, a block that is a second evaluation target area is selected, and the evaluation value for the third image calculated for the selected block is stored in the in-focus position detection unit 35 (step). S127).
[0139]
Then, the fifth imaging process in the
[0140]
When the fifth imaging process is completed, image reading from the
[0141]
When the fifth imaging process is completed, the
[0142]
Then, the
[0143]
As a result of the reliability evaluation, if it is determined that the reliability of the movement detection result is high, a block to be an evaluation target area is selected based on the amount of movement of the subject, and the block calculated for the selected block is calculated. The evaluation value for the second image is stored in the in-focus position detection unit 35 (step S135). For example, if it is detected in steps S117 and S118 and S125 and S126 that the subject has moved 16 pixels to the right, and if it is detected in steps S133 and S134 that the subject has moved 16 pixels to the right, The block B5 is selected as the evaluation target area (see the
[0144]
On the other hand, if it is determined that the reliability of the movement detection result is low, the movement amount of the subject is determined to be 0, so that a block located at the same position as the block to be evaluated for the third time is selected, The evaluation value for the fourth image calculated for the selected block is stored in the focus position detection unit 35 (step S135).
[0145]
Then, the sixth imaging process in the
[0146]
When the sixth imaging process is completed, image reading from the
[0147]
Then, the
[0148]
As a result of the reliability evaluation, when it is determined that the reliability of the movement detection result is high, a block to be an evaluation target area is selected based on the amount of movement of the subject, and 5 The evaluation value for the second image is stored in the focus position detection unit 35 (step S142). For example, if it is detected in the movement detection so far that the subject has moved 16 pixels to the right, and if it is detected in steps S140 and S141 that the subject has moved 16 pixels to the right, block B5 is executed. This is selected as the evaluation target area (see
[0149]
On the other hand, when it is determined that the reliability of the movement detection result is low, the movement amount of the subject is determined to be 0, so that the block located at the same position as the block to be evaluated for the fourth time is selected, The evaluation value for the fifth image calculated for the selected block is stored in the in-focus position detection unit 35 (step S142).
[0150]
When the evaluation value calculation started in step S139 ends, the
[0151]
As a result of the reliability evaluation, when it is determined that the reliability of the movement detection result is high, a block to be an evaluation target area is selected based on the amount of movement of the subject, and 6 is calculated for the selected block. The evaluation value for the second image is stored in the focus position detection unit 35 (Step S145). For example, if it is detected that the subject has moved 16 pixels to the right in the previous movement detection, and if it is detected in steps S143 and S144 that the subject has moved 16 pixels to the right, block B5 is executed. This is selected as the evaluation target area (see
[0152]
On the other hand, if it is determined that the reliability of the movement detection result is low, the movement amount of the subject is determined to be 0, so that the block located at the same position as the block to be evaluated for the fifth time is selected. The evaluation value for the sixth image calculated for the selected block is stored in the in-focus position detection unit 35 (step S145).
[0153]
Next, proceeding to the flowchart of FIG. 16, the focus
[0154]
Then, the
[0155]
Then, the
[0156]
In the case of the one-shot AF mode, after the above-described step S147 is completed, the automatic focusing control ends.
[0157]
As described above, the
[0158]
Further, the reliability evaluation unit 331 is configured to evaluate the reliability of the detection result of the movement of the subject. Therefore, erroneous detection in the detection of the movement of the subject can be further reduced, and the movement of the subject can be grasped more accurately.
[0159]
Then, in order to evaluate the degree of focus of the subject, an image component of the focus evaluation area R is extracted from the image signal, and first and second evaluation values are obtained from the image component of the focus evaluation area R. The setting position of the focus evaluation area R with respect to the image signal is changed based on the detection result of the
[0160]
Further, the
[0161]
Therefore, the detection of the movement of the subject is performed based on the evaluation values obtained by the same calculation for the plurality of blocks B1 to B5, so that the calculation processing can be simplified and the efficiency can be improved. Then, the movement of the subject can be detected at high speed, and the cost of the
[0162]
Further, each of the plurality of blocks B1 to B5 having the same size is arranged so as to be shifted in a predetermined direction, and is arranged so as to partially overlap each other. It is possible to evaluate the movement of the subject in the peripheral portion of the region R.
[0163]
Further, the
[0164]
In the present embodiment, a plurality of blocks B1 to B5 are arranged so as to overlap in the center portion of the focus evaluation area R, and the blocks are arranged so as to be shifted by a predetermined pixel. Is applied, it is possible to increase the efficiency of the arithmetic processing.
[0165]
<2. Second Embodiment>
Next, a second embodiment will be described. In the first embodiment, the case where the plurality of blocks B <b> 1 to B <b> 5 in the focus evaluation area R are arranged so as to be partially overlapped is illustrated. However, in the present embodiment, the first embodiment is used. The setting of the focus evaluation area different from the above will be described. Note that the configuration of the
[0166]
FIG. 17 is a diagram showing the configuration of the focus evaluation area R in the present embodiment. Also in the present embodiment, the focus evaluation area R is set for the
[0167]
In the focus evaluation area R shown in FIG. 17, a main block BM is provided in the center portion, and four sub blocks BS1 to BS4 and BS5 to BS8 are provided in each of the left and right directions of the main block BM. For example, the main block BM is configured to include an image component of width 240 pixels × height 200 pixels, and each of the sub blocks BS1 to BS8 is configured to include an image component of
[0168]
In the focus evaluation area R of FIG. 17, when the subject does not move from the initial state, the evaluation target area when evaluating the degree of focus is determined by the main block BM and the four sub blocks BS3, BS4, BS5, and BS6. It is a defined area. When it is detected that the subject has moved 16 pixels to the right from that state, the evaluation target area is an area defined by the main block BM and the four sub blocks BS4, BS5, BS6, and BS7. Further, when it is detected that the subject has moved 32 pixels to the right from the initial state, the evaluation target area is an area defined by the main block BM and the four sub-blocks BS5, BS6, BS7, and BS8. Become.
[0169]
On the other hand, when it is detected that the subject has moved leftward by 16 pixels from the initial state, the evaluation target area is defined by the main block BM and the four sub blocks BS2, BS3, BS4, and BS5. Area. Further, when it is detected that the subject has moved leftward by 32 pixels from the initial state, the evaluation target area is an area defined by the main block BM and the four sub blocks BS1, BS2, BS3, and BS4. Become.
[0170]
Then, the evaluation
[0171]
When calculating the evaluation value for the evaluation target area, the evaluation
[0172]
When calculating the evaluation value regarding the movement of the subject for each of the sub-blocks BS1 to BS8, the evaluation
[0173]
Here, of the evaluation values VA obtained for the sub-block BS1, those obtained at the previous lens position are referred to as evaluation values VA1 (BS1), and those obtained at the current lens position are referred to as evaluation values VA2 (BS1). Of the evaluation values VA obtained for the sub-block BS2, those obtained at the previous lens position are referred to as evaluation values VA1 (BS2), and those obtained at the current lens position are referred to as evaluation values VA2 (BS2). Similarly, evaluation values obtained at the previous and current lens positions obtained for each of the sub-blocks BS3 to BS8 are similarly defined.
[0174]
The
[0175]
If the difference between the evaluation values VA obtained at each lens position between adjacent sub-blocks is obtained, it is possible to detect the movement of the evaluation values in the peripheral portion in the focus evaluation area R. That is, a difference value obtained by subtracting the evaluation value VA obtained at each lens position between adjacent sub-blocks becomes an index value relating to the movement of the subject in the peripheral portion of the focus evaluation area R, and the index value is used as the index value. The relative movement of the subject is detected based on the result.
[0176]
For example, if the difference between the evaluation values VA1 (BS1) and VA2 (BS2) is small, the subject included in the sub-block BS1 at the previous lens position is included in the sub-block BS2 at the current lens position. That is, the subject has moved 16 pixels to the right. If the difference between the evaluation values VA1 (BS2) and VA2 (BS1) becomes small, the subject included in the sub-block BS2 at the previous lens position is included in the sub-block BS1 at the current lens position. That is, the subject has moved 16 pixels to the left. Furthermore, if the difference between the evaluation values VA1 (BS1) and VA2 (BS1) becomes smaller, the subject included in the sub-block BS1 at the previous lens position will be included in the sub-block BS1 even at the current lens position. That is, it is considered that the subject did not move during driving of the lens.
[0177]
Similarly, since the same can be said between other adjacent sub-blocks, the
[0178]
(Equation 10)
[0179]
By performing the above calculation, it is possible to calculate each of the correlation values MR1, MV0, and ML1 exhibiting the same characteristics as those described in the first embodiment.
[0180]
That is, the correlation value MR1 is a correlation value for detecting that the subject has moved 16 pixels to the right, and the correlation value ML1 is a correlation value for detecting that the subject has moved 16 pixels to the left. is there. Further, the correlation value MV0 is a correlation value for detecting that the subject does not move. Then, by setting the sub-blocks BS1 to BS8 in the peripheral portion of the main block BM which is the central portion of the focus evaluation region R as in the present embodiment, the peripheral portion of the focus evaluation region R is shifted to the central portion. Correlation values MR1, MV0, and ML1 that can evaluate the right side and the left side individually can be obtained.
[0181]
FIG. 18 is a diagram showing a case where the subject in the focus evaluation area R moves rightward in the image to be compared between the previous lens position and the current lens position, and circles, triangles, and squares in the figure schematically represent the subject image. It is a representation. As shown in FIG. 18, when the subject shifts rightward between the images G1 and G2, among the subjects included in the focus evaluation area R, the peripheral subject moves in the area corresponding to each sub-block. Will be. Therefore, the evaluation values VA1 (BS1) to VA1 (BS8) of the sub-blocks BS1 to BS8 at the previous lens position and the evaluation values VA2 (BS1) to VA2 (BS8) of the sub-blocks BS1 to BS8 at the current lens position are obtained. By calculating the correlation value, it is possible to detect how the subject in the peripheral portion in the focus evaluation area R has moved.
[0182]
Then, as shown in
[0183]
Then, as shown in FIG. 18, when the subject moves approximately 16 pixels to the right between the previous lens position and the current lens position, the correlation value MR1 becomes minimum. On the other hand, if the subject has not moved between the previous lens position and the current lens position (or the movement amount is less than 8 pixels), the correlation value MV0 becomes minimum, and When the subject moves by about 16 pixels to the left between the current lens position, the correlation value ML1 becomes minimum.
[0184]
That is, the
[0185]
Then, when detecting that the correlation value MR1 is the minimum, the
[0186]
When detecting that the correlation value ML1 is minimum, the
[0187]
In the above description, the case where the movement of the subject is detected based on the evaluation value obtained at the previous lens position and the evaluation value obtained at the current lens position is shown. By detecting the movement of the subject between two images obtained successively in time from the
[0188]
Also in the present embodiment, the reliability evaluation unit 331 functions to verify whether or not the movement of the subject detected by the
[0189]
Then, similarly to the first embodiment, by performing the reliability evaluation, erroneous detection in the movement detection of the subject can be reduced, and the movement of the subject can be accurately grasped.
[0190]
Other operations are the same as those described in the first embodiment. For example, in the continuous AF mode, the focus evaluation area R is set to follow the movement of the subject.
[0191]
Even when the focus evaluation area R is configured as in the present embodiment, the same effect as the effect described in the first embodiment can be obtained.
[0192]
Further, in the first embodiment, since a plurality of blocks have the same size, the same operation can be applied when obtaining an evaluation value for each block. On the other hand, in the present embodiment, each sub-block BS1 to BS8 And the size of the evaluation target area for evaluating the degree of focus are different sizes, so that the same operation cannot be applied. However, in the present embodiment, the number of blocks for calculating the evaluation value is increased as compared with the first embodiment. However, for the peripheral portion of the focus evaluation area R, the right and left sides of the central portion are individually determined. Thereby, the movement of the subject can be detected more accurately than when the plurality of blocks B1 to B5 described in the first embodiment are employed.
[0193]
That is, in the present embodiment, the focus evaluation area R has a main block BM provided corresponding to the central portion, and a plurality of sub-blocks BS1 to BS8 provided corresponding to the peripheral portion. Since the
[0194]
<3. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described contents.
[0195]
For example, in each of the above embodiments, the case where the movement of the subject in the horizontal direction of the image plane is detected has been described, but the present invention is not limited to this. That is, the arrangement direction of the plurality of blocks in the first embodiment is set to the vertical direction (vertical direction), and the arrangement direction of the plurality of sub-blocks in the second embodiment is set to the vertical direction (vertical direction). When the subject moves in the vertical direction on the image plane, it can be detected.
[0196]
Further, by arranging a plurality of blocks in the first embodiment two-dimensionally both vertically and horizontally, and arranging a plurality of sub-blocks two-dimensionally both vertically and horizontally in the second embodiment, the subject can be positioned on the image plane. No matter how you move, you can follow it.
[0197]
FIG. 19 is a diagram showing an example of the arrangement when a plurality of blocks of the same size are arranged as in the first embodiment, and shows only the arrangement of the center point of each block.
[0198]
FIG. 19A describes the first embodiment, and five blocks B1 to B5 are arranged in the horizontal direction so as to be shifted by a predetermined number of pixels. For this reason, according to the block arrangement of FIG. 19A, when the subject moves in the horizontal direction, it can be detected. In this case, the movement of the subject in the horizontal direction is detected using the difference between the evaluation values between the blocks adjacent to each of the blocks B1 to B5, and the evaluation target area follows the movement of the subject. Can be moved.
[0199]
FIG. 19B shows a case where five blocks B1 to B5 are arranged in the vertical direction while being shifted by a predetermined number of pixels. In this case, the movement of the subject in the vertical direction is detected by using the difference between the evaluation values between the adjacent blocks of the blocks B1 to B5, and the evaluation target area follows the movement of the subject. Can be moved.
[0200]
Further, FIG. 19C shows a case where 13 blocks B1 to B13 are two-dimensionally arranged by being shifted by a predetermined number of pixels. In this case, the movement of the subject in the horizontal direction can be detected using the difference in the evaluation value between the adjacent blocks of the five blocks B1 to B5 arranged in the horizontal direction. The movement of the subject in the vertical direction can be detected by using the difference between the evaluation values between the blocks B6, B7, B3, B8, and B9. When the subject moves in the oblique direction on the image plane, the movement of the subject is detected simultaneously in both the horizontal direction and the vertical direction. In this case, it is possible to follow the movement of the subject by selecting any of the blocks B10 to B13 obliquely viewed from the center block B3 as the evaluation target area according to the moving direction of the subject. In addition, the subject can be followed by moving the position of the focus evaluation area R obliquely according to the moving direction of the subject.
[0201]
In the above description, a digital camera has been described as an example, but the above-described technique is applicable to both a digital still camera and a digital video camera. In addition, the above-described technology can be applied to an imaging device other than a digital camera as long as it can acquire an electric image signal.
[0202]
【The invention's effect】
As described above, according to the first aspect of the present invention, in order to evaluate the degree of focusing of a subject, the first evaluation value and the first evaluation value having a small degree of change accompanying the driving of the taking lens are evaluated. And a second evaluation value having a greater degree of change due to driving of the photographing lens than the first evaluation value. The first evaluation value is used to detect the movement of the subject on the image plane before and after driving the photographing lens. With this configuration, the movement of the subject can be detected in a state where the change in the defocus amount before and after driving the photographing lens is small. As a result, it is possible to reduce erroneous detection in the movement detection of the subject.
[0203]
According to the second aspect of the present invention, the first evaluation value is a band indicating the widest frequency band among values obtained by applying a plurality of band-pass filters having different characteristics to the image signal. Since the value is obtained by applying the pass filter, it is possible to reduce erroneous detection in detecting the movement of the subject.
[0204]
According to the third aspect of the present invention, the first evaluation value is a value obtained by calculating the absolute value of the difference between adjacent pixels from the image signal and integrating the absolute value of the difference over a predetermined area of the image signal. In addition, it is possible to reduce erroneous detection in detecting the movement of the subject.
[0205]
According to the fourth aspect of the present invention, the reliability of the detection result of the movement of the subject is evaluated, and when the reliability is determined to be low, it is determined that the subject does not move. Therefore, erroneous detection can be prevented more appropriately.
[0206]
According to the fifth aspect of the present invention, since the focus evaluation area for the image signal is changed based on the detection result of the movement of the subject, the evaluation of the degree of focus of the subject follows the movement of the subject. In this way, appropriate automatic focusing control is always realized.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a digital camera.
FIG. 2 is a diagram showing an image obtained from a CCD image sensor.
FIG. 3 is a diagram illustrating a configuration example of a focus evaluation area.
FIG. 4 is a diagram illustrating frequency characteristics of a bandpass filter.
FIG. 5 is a diagram showing first and second evaluation values near a focus position.
FIG. 6 is a diagram illustrating an area around a focus evaluation area.
FIG. 7 is a diagram illustrating a case where a subject has moved rightward in the first embodiment.
FIG. 8 is a diagram illustrating a relationship between a correlation value and a movement amount when it is detected that the subject has moved rightward.
FIG. 9 is a diagram illustrating a relationship between a correlation value and a movement amount when it is detected that the subject has moved leftward.
FIG. 10 is a timing chart in an internal operation of the digital camera.
FIG. 11 is a diagram showing a state of a focus evaluation area accompanying detection of movement of a subject.
FIG. 12 is a diagram showing a state of a focus evaluation area in a continuous AF mode.
FIG. 13 is a flowchart illustrating a processing sequence when performing automatic focusing control.
FIG. 14 is a flowchart illustrating a processing sequence when performing automatic focusing control.
FIG. 15 is a flowchart illustrating a processing sequence when performing automatic focusing control.
FIG. 16 is a flowchart illustrating a processing sequence when performing automatic focusing control.
FIG. 17 is a diagram illustrating a configuration of a focus evaluation area according to the second embodiment.
FIG. 18 is a diagram illustrating a case where a subject has moved rightward in the second embodiment.
FIG. 19 is a diagram showing a modified example regarding the arrangement of a plurality of blocks.
[Explanation of symbols]
1 Digital camera (imaging device)
10 Shooting lens
11 CCD imaging device (imaging means)
30 Automatic focusing control unit
31 Focus evaluation area setting section
32 evaluation value calculation unit (evaluation value calculation means)
33 Movement detection unit (movement detection means)
34 Movement prediction unit
35 Focus position detector
36 Lens controller
331 Reliability Evaluation Unit (Reliability Evaluation Means)
R Focus evaluation area
B1 to B5 block
BM main block
BS1 to BS8 sub block
Claims (5)
前記画像信号から、前記撮影レンズの駆動に伴う変化度合いが小さい第1の評価値と、前記第1の評価値よりも前記撮影レンズの駆動に伴う変化度合いが大きい第2の評価値とを求める評価値演算手段と、
前記第1及び第2の評価値を用いて被写体の合焦度合いを評価し、前記撮影レンズを駆動する合焦制御手段と、
前記第1の評価値を用いて、前記撮影レンズの駆動前後における画像平面での被写体の移動を検出する移動検出手段と、
を備える撮像装置。An imaging apparatus that evaluates a degree of focusing of a subject based on an image signal obtained from an imaging unit and drives a shooting lens to realize a focused state of the subject,
From the image signal, a first evaluation value having a smaller degree of change due to driving of the photographing lens and a second evaluation value having a larger degree of change due to driving of the photographing lens than the first evaluation value are obtained. Evaluation value calculating means;
Focusing control means for evaluating the degree of focusing of the subject using the first and second evaluation values and driving the photographing lens;
Movement detection means for detecting movement of a subject on an image plane before and after driving the photographing lens, using the first evaluation value;
An imaging device comprising:
前記第1の評価値は、前記画像信号に対してそれぞれ異なる特性を有する複数のバンドパスフィルタが適用されて得られる値のうち、最も広い周波数帯域を示すバンドパスフィルタが適用されて得られる値であることを特徴とする撮像装置。The imaging device according to claim 1,
The first evaluation value is a value obtained by applying a band-pass filter indicating the widest frequency band among values obtained by applying a plurality of band-pass filters having different characteristics to the image signal. An imaging device, characterized in that:
前記第1の評価値は、前記画像信号から近接画素間での差分絶対値が求められ、前記差分絶対値が前記画像信号の所定領域について積分された値であることを特徴とする撮像装置。The imaging device according to claim 1,
The imaging device according to claim 1, wherein the first evaluation value is a value obtained by calculating an absolute value of a difference between adjacent pixels from the image signal, and the absolute value of the difference is integrated over a predetermined area of the image signal.
前記移動検出手段における被写体移動検出結果の信頼性を評価する信頼性評価手段を、さらに備え、
前記信頼性評価手段が前記被写体移動検出結果の信頼性が低いと判断する場合、前記移動検出手段は、被写体の移動はないものと判定することを特徴とする撮像装置。The imaging device according to any one of claims 1 to 3,
Reliability evaluation means for evaluating the reliability of the subject movement detection result in the movement detection means, further comprising:
When the reliability evaluation unit determines that the reliability of the subject movement detection result is low, the movement detection unit determines that the subject does not move.
前記評価値演算手段は、前記画像信号から合焦評価領域の画像成分を抽出し、前記合焦評価領域の画像成分から、前記第1及び第2の評価値を求めるように構成されるとともに、前記移動検出手段における検出結果に基づいて前記画像信号に対する前記合焦評価領域を変更することを特徴とする撮像装置。The imaging device according to any one of claims 1 to 4,
The evaluation value calculation unit is configured to extract an image component of a focus evaluation area from the image signal, and obtain the first and second evaluation values from the image component of the focus evaluation area, An imaging apparatus, wherein the focus evaluation area for the image signal is changed based on a detection result of the movement detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002218115A JP2004061721A (en) | 2002-07-26 | 2002-07-26 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002218115A JP2004061721A (en) | 2002-07-26 | 2002-07-26 | Imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004061721A true JP2004061721A (en) | 2004-02-26 |
Family
ID=31939399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002218115A Pending JP2004061721A (en) | 2002-07-26 | 2002-07-26 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004061721A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046226A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Automatic focus controller and image pickup device |
JP2012189934A (en) * | 2011-03-14 | 2012-10-04 | Canon Inc | Imaging apparatus |
-
2002
- 2002-07-26 JP JP2002218115A patent/JP2004061721A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046226A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Automatic focus controller and image pickup device |
JP2012189934A (en) * | 2011-03-14 | 2012-10-04 | Canon Inc | Imaging apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5868183B2 (en) | Imaging apparatus and imaging method | |
US7602435B2 (en) | Image-taking apparatus and focus control program for image-taking apparatus | |
US7725019B2 (en) | Apparatus and method for deciding in-focus position of imaging lens | |
JP5211714B2 (en) | Imaging device | |
JP2004077959A (en) | Focus adjusting method and camera | |
JP5322995B2 (en) | Imaging apparatus and control method thereof | |
KR20090028255A (en) | Method and apparatus for auto focusing of image capturing | |
JP2004325517A (en) | Imaging unit | |
JP2004361484A (en) | Autofocus camera | |
JP2017129788A (en) | Focus detection device and imaging device | |
JP2007024941A (en) | Focus detecting apparatus, focusing apparatus and imaging apparatus | |
JP2019101359A (en) | Observation device and focus detection method | |
JP7152557B2 (en) | IMAGING DEVICE, IMAGING METHOD, PROGRAM, AND RECORDING MEDIUM | |
US7570298B2 (en) | Image-taking apparatus with first focus control such that in-focus position is searched for based on first signal and second focus control such that one of in-focus position and drive amount is determined based on second signal | |
JP4334784B2 (en) | Autofocus device and imaging device using the same | |
JP2015055635A (en) | Imaging device and control method of the same | |
JP2013076823A (en) | Image processing apparatus, endoscope system, image processing method, and program | |
WO2013069279A1 (en) | Image capturing device | |
JP5454392B2 (en) | Ranging device and imaging device | |
JP2004061722A (en) | Imaging unit | |
JP2012142729A (en) | Camera | |
JP2004061721A (en) | Imaging device | |
JP4574559B2 (en) | Imaging device, focus position detection device, and focus position detection method | |
JP2014119622A (en) | Device and method for focus adjustment, and image capturing device | |
JP4085720B2 (en) | Digital camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |