JP5757099B2 - 焦点調節装置、及び焦点調節プログラム - Google Patents

焦点調節装置、及び焦点調節プログラム Download PDF

Info

Publication number
JP5757099B2
JP5757099B2 JP2011026263A JP2011026263A JP5757099B2 JP 5757099 B2 JP5757099 B2 JP 5757099B2 JP 2011026263 A JP2011026263 A JP 2011026263A JP 2011026263 A JP2011026263 A JP 2011026263A JP 5757099 B2 JP5757099 B2 JP 5757099B2
Authority
JP
Japan
Prior art keywords
edge
focus
detection unit
image
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011026263A
Other languages
English (en)
Other versions
JP2011186452A (ja
Inventor
鉾井 逸人
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011026263A priority Critical patent/JP5757099B2/ja
Publication of JP2011186452A publication Critical patent/JP2011186452A/ja
Application granted granted Critical
Publication of JP5757099B2 publication Critical patent/JP5757099B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing

Description

本発明は、色収差に基づいて焦点を調節する焦点調節装置、及び焦点調節プログラムに関する。
レンズを通じて得られた被写体像に、色収差に基づいて合焦させるビデオカメラが開示されている(特許文献1参照)。
特開平5−45574号公報
しかしながら、特許文献1に開示されたビデオカメラは、一度合焦された被写体像に速やかに合焦することはできても、一度も合焦されていない被写体像には、速やかに合焦させることができなかった。すなわち、特許文献1に開示されたビデオカメラは、被写体像に速やかに合焦させることができなかった。
本発明は、前記の点に鑑みてなされたものであり、被写体像に速やかに合焦させることができる焦点調節装置、及び焦点調節プログラムを提供することを目的とする。
本発明は、上記の課題を解決するためになされたものであり、被写体を撮像する撮像部で生成された画像データから色成分毎に前記被写体に含まれるエッジ部分を検出するエッジ検出部と、線広がり関数に基づいて、前記エッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成する分布検出部と、前記分布検出部で作成された前記マップにより、前記撮像部に前記被写体の像を導くレンズを、前記撮像部の撮像面に合焦させる方向に移動させる制御部と、を備え、前記マップは、前記レンズを移動させる方向を示す指標と、デフォーカス量に関する値と、が示されることを特徴とする焦点調節装置である。
また、本発明は、コンピュータに、被写体を撮像する撮像部で生成された画像データから色成分毎に前記被写体に含まれるエッジ部分を検出する手順と、線広がり関数に基づいて、前記エッジ部分の合焦状態及び非合焦状態の分布を示すマップであり、前記レンズを移動させる方向を示す指標と、デフォーカス量に関する値と、が示される前記マップを作成する手順と、前記作成する手順で作成された前記マップにより、前記撮像部に前記被写体の像を導くレンズを、前記撮像部の撮像面に合焦させる方向に移動させる作成する手順と、を実行させるための焦点調節プログラムである。
本発明によれば、焦点調節装置及び焦点調節プログラムは、被写体像に速やかに合焦させることができる。
レンズ鏡筒111と、焦点調節装置191を備える撮像装置100と、記憶媒体200との構成を示すブロック図である。 AFレンズ112から被写体距離だけ離れた位置の被写体と、AFレンズ112と、撮像素子119の撮像面と、錯乱円との関係を示す図である。 AFレンズ112に入射された赤い光の焦点と、緑の光の焦点と、青い光の焦点との光軸上における位置関係を示す図である。 AFレンズ112に入射された光の波長と、光軸上における結像面の位置との関係を示す図である。 前ピン状態での錯乱円を示す図である。 後ピン状態での錯乱円を示す図である。 撮像された画像の一例を示す図である。 エッジ位置13近傍の色成分量を示す図である。 エッジ位置13近傍の色成分量を示す図である。 エッジ位置13近傍における「色成分量の差」を示す図である。 Gチャネルにおける合焦状態の「ぼけ度合い」に応じたLSFを示す図である。 合焦状態の「ぼけ度合い」と色チャネル毎のLSFを示す図である。 色チャネル毎のLSFのプロファイル(データ)と、ぼけ度合いとの関係を示す図である。 LSFの標準偏差の差をパラメータとする関数値と、被写体距離との関係を示す図である。 撮像された画像と、撮像された画像からエッジが抽出されたエッジ画像と、2つのエッジ画像の論理積の結果を示す画像との例を示す図である。 エッジ検出部192の動作を示すフローチャートである。 エッジ位置13近傍の色成分量を示す図の例と、ラプラシアンフィルタを使用した演算例を示す図である。 デプスマップの例を示す図である。 被写体を追尾する追尾動作における、焦点調節装置191の合焦駆動の手順を示すフローチャートである。 エッジ特性の解析手順を示すフローチャートである。 前ピン状態と判定された場合のスキャン領域と、後ピン状態と判定された場合のスキャン領域とを示す図である。 撮影用AFでの山登りコントラストスキャンにおけるレンズ位置の移動を示す図である。 LSFに基づく合焦駆動の手順を示すフローチャートである。 「デフォーカス−駆動パルステーブル」の例を示す図である。 前ピンとその度合が判定された場合のコントラストスキャン領域と、後ピンとその度合が判定された場合のコントラストスキャン領域とを示す図である。 被写体を追尾する追尾動作における、焦点調節装置191の合焦駆動の手順を示すフローチャートである。 「デフォーカス−駆動パルステーブル」に基づくコントラストスキャンにおける、合焦駆動の例を示す図である。 「デフォーカス−駆動パルステーブル」に基づくコントラストスキャンにおける、合焦駆動の例の拡大図である。 動画撮像モードを有する焦点調節装置191の動作を示すフローチャートである。 合焦状態における差分データのヒストグラムと、非合焦状態における差分データのヒストグラムとを示す図である。 スポット光を判定する焦点調節装置191の動作を示すフローチャートである。 マクロ撮像モードへの切り替え判定動作を説明するための図である。 色成分の信号対雑音比が異なるエッジが混在している場合に選択されるエッジの優先順位を説明するための図である。 2原色含まれる場合に選択されるエッジの優先順位を示す図である。 色成分が平坦である1本のエッジを横切る位置に応じた色成分量の変化と、複数本のエッジを横切る位置に応じた色成分量の変化とを説明するための図である。 優先順位に応じて上位のエッジを選択する手順を示すフローチャートである。
[第1実施形態]
本発明の第1実施形態について図面を参照して詳細に説明する。図1には、レンズ鏡筒111と、焦点調節装置191を備える撮像装置100と、記憶媒体200との構成がブロック図で示されている。撮像装置100は、レンズ鏡筒111から入射される被写体像を撮像し、得られた画像を静止画又は動画の画像として、記憶媒体200に記憶させる。
まず、レンズ鏡筒111の構成を説明する。
レンズ鏡筒111は、焦点調整レンズ(以下、「AF(Auto Focus)レンズ」という)112と、レンズ駆動部116と、AFエンコーダ117と、鏡筒制御部118を備える。なお、レンズ鏡筒111は、撮像装置100に着脱可能に接続されてもよいし、撮像装置100と一体であってもよい。
AFレンズ112は、レンズ駆動部116により駆動され、後述する撮像部110の撮像素子119の受光面(光電変換面)に、被写体像を導く。
AFエンコーダ117は、AFレンズ112の移動を検出し、AFレンズ112の移動量に応じた信号を、鏡筒制御部118に出力する。ここで、AFレンズ112の移動量に応じた信号とは、例えば、AFレンズ112の移動量に応じて位相が変化するサイン(sin)波信号であってもよい。
鏡筒制御部118は、撮像装置100の後述する焦点調節装置191から入力される駆動制御信号に応じて、レンズ駆動部116を制御する。ここで、駆動制御信号とは、AFレンズ112を光軸方向に駆動させる制御信号である。鏡筒制御部118は、駆動制御信号に応じて、例えば、レンズ駆動部116に出力するパルス電圧のステップ数を変更する。
また、鏡筒制御部118は、AFレンズ112の移動量に応じた信号に基づいて、レンズ鏡筒111におけるAFレンズ112の位置(フォーカスポジション)を、後述する焦点調節装置191に出力する。ここで、鏡筒制御部118は、例えば、AFレンズ112の移動量に応じた信号を、移動方向に応じて積算することで、レンズ鏡筒111におけるAFレンズ112の移動量(位置)を算出してもよい。
レンズ駆動部116は、鏡筒制御部118の制御に応じてAFレンズ112を駆動し、AFレンズ112をレンズ鏡筒111内で光軸方向に移動させる。
次に、撮像装置100の構成を説明する。
撮像装置100は、撮像部110と、画像処理部140と、表示部150と、バッファメモリ部130と、操作部180と、記憶部160と、CPU190と、通信部170と、焦点調節装置191とを備える。
撮像部110は、撮像素子119と、A/D(Analog/Digital)変換部120とを備え、設定された撮像条件(例えば絞り値、露出値等)に従って、CPU190により制御される。
撮像素子119は、光電変換面を備え、レンズ鏡筒111(光学系)により光電変換面に結像された光学像を電気信号に変換して、A/D変換部120に出力する。撮像素子119は、例えば、CMOS(Complementary Metal Oxide Semiconductor)で構成されていてもよい。また、撮像素子119は、光電変換面の一部の領域について、光学像を電気信号に変換するようにしてもよい(切り出し)。
また、撮像素子119は、操作部180を介して撮影指示を受け付けた際に得られる画像を、A/D変換部120を介して記憶媒体200に記憶させる。一方、撮像素子119は、操作部180を介して撮像指示を受け付けていない状態において、連続的に得られる画像をスルー画像として、焦点調節装置191及び表示部150に、A/D変換部120を介して出力する。
A/D変換部120は、撮像素子119によって変換された電気信号をデジタル化して、デジタル信号である画像をバッファメモリ部130に出力する。
操作部180は、例えば、電源スイッチ、シャッタボタン、マルチセレクタ(十字キー)、又はその他の操作キーを備え、ユーザによって操作されることでユーザの操作入力を受け付け、操作入力に応じた信号をCPU190に出力する。
画像処理部140は、記憶部160に記憶されている画像処理条件を参照して、バッファメモリ部130に一時的に記憶されている画像に対して、画像処理をする。そして、画像処理された画像は、通信部170を介して記憶媒体200に記憶される。
表示部150は、例えば液晶ディスプレイであって、撮像部110によって得られた画像、及び操作画面等を表示する。
バッファメモリ部130は、撮像部110によって撮像された画像を、一時的に記憶する。
記憶部160は、CPU190によってシーン判定の際に参照される判定条件や、シーン判定によって判断されたシーン毎に対応付けられた撮像条件等を記憶する。
CPU190は、設定された撮像条件(例えば絞り値、露出値等)に従って撮像部110を制御する。また、CPU190は、操作部180から入力された「操作入力に応じた信号」に基づいて、静止画又は動画として、画像処理部140に画像を画像処理させる。
通信部170は、カードメモリ等の取り外しが可能な記憶媒体200と接続され、この記憶媒体200への情報(画像データなど)の書込み、読み出し、あるいは消去を行う。
記憶媒体200は、撮像装置100に対して着脱可能に接続される記憶部であって、情報(画像データなど)を記憶する。なお、記憶媒体200は、撮像装置100と一体であってもよい。
次に、焦点調節装置191について説明する。
焦点調節装置191は、撮像素子119が出力した電気信号に基づいて生成された画像から、被写体像のエッジを検出する。そして、焦点調節装置191は、検出したエッジにおける、軸上色収差による色ずれを解析する。ここで、軸上色収差とは、入射された光の波長(色)によってレンズの焦点距離が異なるという特性である。
焦点調節装置191は、色ずれの解析結果に基づいて、デフォーカス(焦点ずれ)特徴量を検出する。さらに、焦点調節装置191は、検出したデフォーカス特徴量に基づいて、被写体像に合焦させるように駆動制御信号を生成して、レンズ鏡筒111の鏡筒制御部118に出力する(合焦駆動)。
ここで、デフォーカス特徴量とは、方向指標と、デフォーカス量と、AFレンズ112の焦点調節に必要な移動量(以下、「ピントずらし量」という)と、これらの履歴である。また、方向指標とは、被写体より近点側に合焦していること(以下、「前ピン」という)、又は被写体より遠点側に合焦していること(以下、「後ピン」という)を示す指標である。また、ピントずらし量は、デフォーカス量が多いほど、多くなる。また、ピントずらし量は、例えば、鏡筒制御部118が駆動制御信号に応じてレンズ駆動部116に出力するパルス電圧のステップ数で表現されてもよい。
方向指標とデフォーカス量を検出するための評価値には、Edge Difference(以下、「Ed」という)と、デフォーカス量参照値(Width of Subtraction,以下、「Wd」という)と、線広がり関数(Line Spread Function,以下、「LSF」という)との、3つがある。
まず、評価値のひとつである、Edについて説明する。
図2には、AFレンズ112から被写体距離だけ離れた位置の被写体と、AFレンズ112と、撮像素子119の撮像面(図2では「撮像面」と示されている)と、錯乱円との関係が示されている。AFレンズ112は、被写体から入射される光を集光して、撮像素子119の光電変換面(撮像面)に被写体像を結像させる。ここで、被写体像に含まれる点像によって、撮像素子119の撮像面には、錯乱円が形成される。
図3には、AFレンズ112に入射された光の成分である赤い光(以下、「Rチャネル」又は「R」という)の焦点と、緑の光(以下、「Gチャネル」又は「G」という)の焦点と、青い光(以下、「Bチャネル」又は「B」という)の焦点との光軸上における位置関係が示されている。そして、図3には、光の波長に応じて、光の結像する位置(結像面)が異なることが示されている。光の波長に応じて結像面が異なるのは、例えば、光の波長に応じてレンズの屈折率が異なるためである。なお、レンズの屈折率は、レンズ固有の特性として、レンズ毎に異なっていても良い。以下では、図3に示されているように、Rチャネルの焦点がAFレンズ112から最も離れた位置にあり、Bチャネルの焦点がAFレンズ112から最も近い位置にあるものとして説明する。
図4には、AFレンズ112に入射された光の波長と、光軸上における結像面の位置との関係が示されている。ここで、横軸は、AFレンズ112に入射された光の波長を示す。また、縦軸は、結像面の位置を示し、値が大きいほどAFレンズ112から離れた位置を示す。このように、結像面の位置は、入射された光の波長が長いほど、AFレンズ112から離れた位置となる。
一般に、AFレンズ112は、合焦状態で結像面(撮像面)における色ずれが最小となるように光学設計される。このため、非合焦状態では、合焦状態と比較して色ずれが大きくなる。そして、色ずれは、レンズ位置(ピント位置、ズーム位置)又はその他の要因により、変化することが知られている。また、錯乱円は、デフォーカス(焦点ぼけ)量が多いほど、その半径が大きくなる。さらに、錯乱円における色の配置は、レンズ位置(ピント位置)によっても変化する。
図5には、前ピン状態での錯乱円が示されている。図5(A)には、AFレンズ112と、撮像素子119の撮像面と、錯乱円との関係が示されている。AFレンズ112に入射された光は、軸上色収差によって、外側からR、G、Bの順となるように屈折(分光)され、撮像素子119の撮像面に導かれて、撮像面に錯乱円を形成する。なお、錯乱円は、点広がり関数(Point Spread Function,以下、「PSF」という)で表現されてもよい。
図5(B)には、撮像面に形成された錯乱円が示されている。前ピン状態での錯乱円は、軸上色収差によって、外側からR、G、Bの順になるため、外側から赤色、シアン色、白色の順に形成される。
図5(C)には、錯乱円の中心から外周に向かう半径方向の位置と、色成分量(色強度)との関係が、色成分量を縦軸に表した図(以下、「階調断面図」という)で示されている。錯乱円の中心から外周に向かう半径方向における色成分量の勾配(傾き)は、前ピン状態では、Rの勾配が最も緩やかで、Bの勾配が最も急であることが示されている。このため、前ピン状態での錯乱円は、中心から外周に向かう半径方向に、白色、シアン色、青色、黄色、黄赤色、赤色の順に形成される。
図6には、後ピン状態での錯乱円が示されている。図6(A)には、AFレンズ112と、撮像素子119の撮像面と、錯乱円との関係が示されている。AFレンズ112に入射された光は、軸上色収差によって、光軸上の焦点と撮像素子119との間では外側からB、G、Rの順に屈折(分光)され、撮像素子119の撮像面に導かれて、撮像面に錯乱円を形成する。
図6(B)には、撮像面に形成された錯乱円が示されている。後ピン状態での錯乱円は、軸上色収差によって、外周からB、G、Rの順になるため、中心から外周に向かう半径方向に、白色、黄色、青色(縁取り)の順に形成される。
このように、軸上色収差によって、合焦状態及び非合焦状態に応じて、錯乱円の色の形成が異なるので、焦点調節装置191(図1を参照)は、錯乱円の色の形成に基づいて、合焦状態及び非合焦状態を検出することができる。
図7には、撮像された画像の一例が示されている。ここでは、一例として、白黒エッジチャートが撮像されているものとして説明する。なお、説明を簡単にするため、以下では、倍率色収差、レンズフレア(Lens flare)を考慮せずに説明するが、これらが考慮されていなくても、本発明の要旨は変わらない。
撮像部110に撮像された画像10(白黒エッジチャート)は、黒い領域11と、白い領域12とで構成されている。そして、黒い領域11は、長方形であり、白い領域12の中央にある。ここで、黒い領域11と白い領域12の両方を水平方向に横切る軸を、軸Dと定義する。そして、軸Dは、黒い領域11と白い領域12との境界(ナイフエッジ)に直交する軸である。そして、軸Dにおいて、色が白色から黒色に変化する境界を、エッジ位置14とする。同様に、軸Dにおいて、色が黒色から白色に変化する境界を、エッジ位置13とする。なお、軸Dにおける位置は、画素単位で表現されてもよい。
図8には、エッジ位置13(図7を参照)近傍の色成分量が、階調断面図として示されている。ここで、縦軸は、R、G、B(色チャネル)毎の色成分量を示す。また、横軸は、軸Dにおける位置(図7を参照)を示す。そして、各色チャネルの色成分量は、値「0〜250」(8ビット)で表現され、値が大きいほど、その色が濃いことを示している。なお、各色チャネルの色成分量は、値「0〜255」(8ビット)で表現されてもよい。
そして、R、G、Bの色成分量が全て値「250」である「軸Dにおける位置」では、色は白となる。一方、R、G、Bの色成分量が全て値「0」である「軸Dにおける位置」では、色は黒となる。
図8(A)には、Gチャネルで合焦した(ピントが合った)状態での階調断面図が示されている。そして、この状態では、Rチャネルが前ピンとなり、かつBチャネルが後ピンとなる。これにより、エッジ位置13の白い領域12側は、緑色になる。一方、エッジ位置13の黒い領域11側は、マゼンダ色になる。
また、図8(B)には、Rチャネルで合焦した状態での階調断面図が示されている。そして、この状態では、Gチャネルが後ピンとなり、Gチャネルの勾配(傾き)は、Bチャネルの勾配よりも急となっている。また、図8(C)には、Bチャネルで合焦した状態での階調断面図が示されている。そして、この状態では、Gチャネルが前ピンとなり、Gチャネルの勾配(傾き)は、Rチャネルの勾配よりも急となっている。
このように、階調断面図における勾配が色チャネル毎に異なるので、どの色チャネルで被写体像に合焦させても、焦点調節装置191(図1を参照)は、階調断面図における色チャネルの勾配から評価値を算出して、合焦状態及び非合焦状態を検出することができる。
次に、評価値Edの算出手順を説明する。
図9には、エッジ位置13(図7を参照)近傍の色成分量が、階調断面図として示されている。ここで、縦軸は、R、G、B(色チャネル)毎の色成分量を示す。また、横軸は、軸Dにおける位置(図7を参照)を示す。人間の眼はGチャネルに対して感度が高いため、ここでは、一例として、Gチャネルで被写体像に合焦させる(ピントを合わせる)場合について説明する。
図9(A)には、前ピン状態のRチャネルのエッジと、後ピン状態のRチャネルのエッジと、合焦状態のGチャネルのエッジとの関係が示されている。そして、前ピン状態であるRチャネルの勾配(傾き)は、合焦状態であるGチャネルの勾配よりも緩やかとなる。一方、後ピン状態であるRチャネルの勾配(傾き)は、合焦状態であるGチャネルの勾配よりも急となる。以下では、図9(A)において、Rチャネル及びGチャネルの色成分量を示す線の交点の右側にある区間であって、Gチャネルを示す線に勾配のある区間を区間「Δ1」とし、色成分量を示す線の交点の左側にある区間であって、Gチャネルを示す線に勾配のある区間を区間「Δ2」とする。なお、これらの区間の長さは、画素数で表現されてもよい。
Rチャネルの色成分量と、Gチャネルの色成分量とに基づくEd(以下、「EdRG」という)と、閾値との比較結果によって、Rチャネルのエッジが前ピン状態又は後ピン状態であることは、次のように検出(判定)される。
EdRG=(Σ(R/G))/(Δ1)>1 … 式1
EdRG=(Σ(R/G))/(Δ1)<1 … 式2
ここで、式1及び2の値「1」は、閾値である。また、式1及び2の(Σ(R/G))は、Rチャネルの色成分量を画像における同じ位置のGチャネルの色成分量で除算した値を、区間「Δ1」にわたって加算した総和である。また、その総和を、区間「Δ1」の長さで除算した値が「EdRG」である。そして、式1が成立する場合、EdRGは、Rチャネルのエッジが後ピン状態であることを示す。一方、式2が成立する場合、EdRGは、Rチャネルのエッジが前ピン状態であることを示す(方向指標)。また、EdRGと、閾値「1」との差は、デフォーカス量を示す。
また、区間「Δ2」について、式1及び2のように色成分量の「比」を用いて前ピン及び後ピンを検出してもよいが、区間「Δ2」のように色成分量が小さい区間では、色成分量とノイズとのSN比(Signal to Noise ratio)が小さいので、色成分量の「比」を用いる代わりに、色成分量の「差」によって前ピン及び後ピンを検出するほうが、合焦状態の検出に有利である。
EdRG=(Σ(G−R))/(Δ2)>0 … 式3
EdRG=(Σ(G−R))/(Δ2)<0 … 式4
ここで、式3及び4の値「0」は、閾値である。また、式3及び4の(Σ(G−R))は、Rチャネルの色成分量から画像における同じ位置のGチャネルの色成分量を減算した値を、区間「Δ2」にわたって加算した総和である。また、その総和を、区間「Δ2」の長さで除算した値が「EdRG」である。そして、式3が成立する場合、EdRGは、Rチャネルのエッジが後ピン状態であることを示す。一方、式4が成立する場合、EdRGは、Rチャネルのエッジが前ピン状態であることを示す(方向指標)。また、EdRGと、閾値「0」との差は、デフォーカス量を示す。
同様に、図9(B)には、前ピン状態のBチャネルのエッジと、後ピン状態のBチャネルのエッジと、合焦状態のGチャネルのエッジとの関係が示されている。そして、前ピン状態であるBチャネルの勾配(傾き)は、合焦状態であるGチャネルの勾配よりも緩やかとなる。一方、後ピン状態であるBチャネルの勾配(傾き)は、合焦状態であるGチャネルの勾配よりも急となる。以下では、図9(B)において、Bチャネル及びGチャネルの色成分量を示す線の交点の右側にある区間であって、Gチャネルを示す線に勾配のある区間を区間「Δ3」とし、色成分量を示す線の交点の左側にある区間であって、Gチャネルを示す線に勾配のある区間を区間「Δ4」とする。
Bチャネルの色成分量と、Gチャネルの色成分量とに基づくEd(以下、「EdBG」という)と、予め定められた閾値との比較結果によって、Bチャネルのエッジが前ピン状態又は後ピン状態であることは、次のように検出される。
EdBG=(Σ(B/G))/(Δ3)>1 … 式5
EdBG=(Σ(B/G))/(Δ3)<1 … 式6
ここで、式5及び6の値「1」は、閾値である。また、式5及び6の(Σ(B/G))は、Bチャネルの色成分量を画像における同じ位置のGチャネルの色成分量で除算した値を、区間「Δ3」にわたって加算した総和である。また、その総和を、区間「Δ3」の長さで除算した値が「EdBG」である。そして、式5が成立する場合、EdBGは、Bチャネルのエッジが後ピン状態であることを示す。一方、式6が成立する場合、EdBGは、Bチャネルのエッジが前ピン状態であることを示す(方向指標)。また、EdBGと、閾値「1」との差は、デフォーカス量を示す。
また、区間「Δ4」について、式5及び6のように色成分量の「比」を用いて前ピン及び後ピンを検出してもよいが、区間「Δ4」のように色成分量が小さい区間では、色成分量とノイズとのSN比が小さいので、色成分量の「比」の代わりに、色成分量の「差」によって前ピン及び後ピンを検出するほうが、合焦状態の検出に有利である。
EdBG=(Σ(G−B))/(Δ4)>0 … 式7
EdBG=(Σ(G−B))/(Δ4)<0 … 式8
ここで、式7及び8の値「0」は、閾値である。また、式7及び8の(Σ(G−B))は、Bチャネルの色成分量から画像における同じ位置のGチャネルの色成分量を減算した値を、区間「Δ4」にわたって加算した総和である。また、その総和を、区間「Δ4」の長さで除算した値が「EdBG」である。そして、式7が成立する場合、EdBGは、Bチャネルのエッジが後ピン状態であることを示す。一方、式8が成立する場合、EdBGは、Bチャネルのエッジが前ピン状態であることを示す(方向指標)。また、EdBGと、閾値「0」との差は、デフォーカス量を示す。
このように、焦点調節装置191(図1を参照)は、評価値Edに基づいて、合焦状態及び非合焦状態を検出することができる。なお、焦点調節装置191は、色成分量が小さい区間について、色成分量の「比」によって前ピン及び後ピンを検出してもよい。また、焦点調節装置191は、色成分量が大きい区間について、色成分量の「差」によって前ピン及び後ピンを検出してもよい。また、上記ではGチャネルで被写体像に合焦させているが、焦点調節装置191は、Rチャネル又はBチャネルで被写体像に合焦させて、前ピン状態及び後ピン状態を検出(判定)してもよい。
次に、評価値のひとつである、Wdについて説明する。
図10には、エッジ位置13(図7を参照)近傍における「色成分量の差」が示されている。図10(A)には、軸Dにおける位置と、Rチャネルの色成分量及びGチャネルの色成分量の差と、の関係が示されている。ここで、縦軸は、Rの色成分量からGの色成分量を減算した色成分量差(=R−G)を示す。また、横軸は、軸Dにおける位置(図7を参照)を示す。なお、縦軸は、色成分量差の代わりに、Rの色成分量とGの色成分量との比(=R/G)であってもよい。
また、図10において、実線は、Rチャネルが「後ピン状態」である場合の色成分量差(=R−G)と、軸Dにおける位置との関係を示す。また、破線は、Rチャネルが「前ピン状態」である場合の色成分量差(=R−G)と、軸Dにおける位置との関係を示す。
Wdは、デフォーカス量を示す値(デフォーカス量参照値)である。図10(A)に示されているように、Wdは、色成分量差の波形のピーク間距離で示され、軸Dにおける位置X1及びX2を用いて、式9で示される。
Wd=|X2−X1| … 式9
位置X1及びX2は、図10(A)において、色成分量差(色成分量比)の波形がピークを示す位置である。そして、実線と破線との交点は、図9(A)における各色チャネルの線の交点に対応する。
まず、図10(A)の位置X2において、色成分量差が最大値「max(R−G)」を示し、位置X1において、色成分量差が最小値「min(R−G)」を示した場合(実線の波形を示した場合)、その波形の極性(正負)は、Rチャネルが後ピン状態であることを示す(方向指標)。なぜなら、Rチャネルが後ピン状態である場合、図9(A)に示されているように、図9(A)の右側では、Rチャネルの色成分量はGチャネルの色成分量以上であり、図9(A)の左側では、Rチャネルの色成分量がGチャネルの色成分量以下だからである。
一方、図10(A)の位置X1において、色成分量差が最大値「max(R−G)」を示し、位置X2において、色成分量差が最小値「min(R−G)」を示した場合(破線の波形を示した場合)、その波形の極性(正負)は、Rチャネルが前ピン状態であることを示す(方向指標)。なぜなら、Rチャネルが前ピン状態である場合、図9(A)に示されているように、図9(A)の右側では、Rチャネルの色成分量はGチャネルの色成分量以下であり、図9(A)の左側では、Rチャネルの色成分量がGチャネルの色成分量以上だからである。
図10(B)には、図10(A)と比較して、合焦状態に近づいた場合の波形が示されている。合焦状態に近づくと、このように、Wdの値が小さくなる。なお、色成分量差の最大値「max(R−G)」と、色成分量差の最小値「min(R−G)」との差は、「ぼけ度合い」に応じて、変化してもよい。
このように、焦点調節装置191(図1を参照)は、評価値Wdに基づいて、合焦状態及び非合焦状態を検出することができる。また、焦点調節装置191は、色成分量差の極性に基づいて、前ピン状態又は後ピン状態を検出することができる。
次に、評価値のひとつである、LSFについて説明する。
まず、レンズ性能を評価する指標のひとつに、MTF(Modulation Transfer Function)がある。このMTFは、被写体のコントラストをどの程度忠実に再現できるかを、空間周波数特性として表現したものである。
一般に、系のMTFは、結像系(光学系)のMTFと、センサ(撮像素子)系のMTFとの積となる。そして、焦点調節装置は、系のMTFに基づいて、合焦状態を検出(判定)することができる。例えば、焦点調節装置は、被写体像のエッジのMTFを評価することで、合焦状態を検出してもよい。なお、焦点調節装置は、結像系及びセンサ系より後段の画像処理プロセス(例えば、回路の応答特性、デモザイク、ノイズ低減、及びエッジ強調など)をさらに考慮して、合焦状態を検出してもよい。
そして、光学系に入射される光がインコヒーレント光である場合、MTFとLSFとはフーリエ変換を介して可逆であることが知られている。また、LSFは、画像に含まれるエッジから容易に算出可能である(例えば、「ISO12233」規格を参照)。
例えば、LSFは、ESF(Edge Spread Function)が微分されることで算出されてもよい。また、LSFは、隣接する画素同士の画素値(例えば、色成分量)の差に基づいて、算出されてもよい。そして、MTFは、LSFに離散フーリエ変換(Discrete Fourier Transform,DFT)が施されることで、算出されてもよい。
焦点調節装置191は、上述したEd、Wdのほか、評価値としてのLSFに基づいて、合焦状態を検出(判定)してもよい。例えば、焦点調節装置191は、既知である画像処理プロセスの下で予め作成された「色チャネル毎のLSFのプロファイル(データ)」に基づいて、合焦状態及び非合焦状態(前ピン又は後ピンなど)を、次のように検出してもよい。
図11には、合焦状態の「ぼけ度合い」に応じて、GチャネルのLSFが示されている。ここで、LSFは、LSFの特徴量の1つである標準偏差σ(統計量)で表現される。なお、LSFは、LSFの特徴量の1つである半値幅、又はピーク値で表現されてもよい。
図11(A)には、合焦状態でのLSFが示されている。また、図11(B)には、非合焦(小ぼけ)状態でのLSFが示されている。また、図11(C)には、非合焦(大ぼけ)状態でのLSFが示されている。これらの図によって、合焦状態の「ぼけ度合い」が大きいほど、LSFの標準偏差σが大きくなることが示されている。
図12には、合焦状態の「ぼけ度合い」と色チャネル毎に、LSFが示されている。図12(A)には、色チャネル(R,G,B)毎に、合焦状態におけるLSFが示されている。なお、標準偏差σの色チャネル毎の大小関係は、レンズ固有の特性として、レンズ毎に異なっていても良い。以下では、合焦状態におけるRチャネルのLSFの標準偏差「σR」と、合焦状態におけるGチャネルのLSFの標準偏差「σG」と、合焦状態におけるBチャネルのLSFの標準偏差「σB」とには、「σR>σG>σB」という大小関係があるものとして説明する。
図12(B)には、前ピン状態でのLSFが、色チャネル(R,G,B)毎に示されている。また、図12(B)の最も右側には、前ピン状態における、軸Dにおける位置と、色成分量との関係が示されている。図12(B)の最も右側の図では、図8と異なり、Gチャネルも前ピン状態である場合について示されているため、R、G、Bすべての勾配が緩やかとなっている。そして、前ピン状態では、エッジにおける色成分量の勾配(傾き)は、Rの勾配が最も緩やかで、Bの勾配が最も急であることが示されている。
このように、前ピン状態では、Rの勾配が最も緩やかで、Bの勾配が最も急であるため、前ピン状態において、RチャネルのLSFの標準偏差「σRdf」と、GチャネルのLSFの標準偏差「σGdf」と、Bチャネルの標準偏差「σBdf」とには、「σRdf>σGdf>σBdf」という大小関係がある。より具体的には、「σRdf>K1・σGdf」、「σBdf<K2・σGdf」という大小関係がある。ここで、「K1=σR/σG」、「K2=σB/σG」である。
図12(C)には、後ピン状態におけるLSFが、色チャネル(R,G,B)毎に示されている。また、図12(C)の最も右側には、後ピン状態における、軸Dにおける位置と、色成分量との関係が示されている。図12(C)の最も右側の図では、図8と異なり、Gチャネルも後ピン状態である場合について示されているため、R、G、Bすべての勾配が緩やかとなっている。そして、後ピン状態では、エッジにおける色成分量の勾配(傾き)は、Bの勾配が最も緩やかで、Rの勾配が最も急であることが示されている。
このように、後ピン状態では、Bの勾配が最も緩やかで、Rの勾配が最も急であるため、後ピン状態において、RチャネルのLSFの標準偏差「σRdb」と、GチャネルのLSFの標準偏差「σGdb」と、Bチャネルの標準偏差「σBdb」とには、「σBdb>σGdb>σRdb」という大小関係がある。より具体的には、「σRdb<K1・σGdb」、「σBdb>K2・σGdb」という大小関係がある。ここで、「K1=σR/σG」、「K2=σB/σG」である。
図13には、色チャネル毎のLSFのプロファイル(データ)と、ぼけ度合いとの関係が示されている。横軸は、ぼけ度合いを示す。また、上段から、Gチャネル、Rチャネル、Bチャネルの順に、LSFのプロファイルが示されている。なお、図13において、ぼけ度合いの絶対値(デフォーカス量)が大きいLSFほど、標準偏差の添字の数字が大きく示されている。
また、横軸の中心位置「0」には、合焦状態でのLSFのプロファイルが示されている。そして、横軸の中心位置「0」から右側は、エッジが前ピン状態である領域(前ピン領域)であり、中心位置「0」から離れるほど、ぼけ度合いの絶対値が大きい。一方、横軸の中心位置「0」から左側は、エッジが後ピン状態である領域(後ピン領域)であり、中心位置「0」から離れるほど、ぼけ度合いの絶対値が大きい。
そして、色チャネル毎のLSFのプロファイルは、撮像装置100が被写体を撮像する前に作成され、ぼけ度合い毎に、記憶部160に予め記憶されている。ここで、色チャネル毎のLSFのプロファイルは、例えば、標準偏差で表現されて、記憶部160に予め記憶される。なお、LSFのプロファイルは、半値幅、又はピーク値で表現されて、記憶部160に予め記憶されてもよい。
なお、横軸の「ぼけ度合い」は、被写体距離(デプス)で表現されてもよい。また、色チャネル毎のLSFのプロファイルは、「ぼけ度合い」の他に、更に、ズーム倍率、被写体距離、画角に対する位置を示す情報、撮像された画像における水平(H)又は垂直(V)方向を示す情報、ノイズ低減処理方法を示す情報、又はエッジ強調方法を示す情報に対応付けられて、記憶部160に予め記憶されてもよい。
図14には、LSFの標準偏差の差をパラメータとする関数値と、被写体距離との関係(相対距離マップ、距離関数)が示されている。ここで、縦軸は、LSFの標準偏差の差を示す。また、横軸は、被写体距離を示す。そして、被写体距離(Depth)は、式10で表される。
Depth=G(F(σRd−σGd)−F1(σBd−σGd))… 式10
ここで、σRdは、RチャネルのLSFの標準偏差である。また、σGdは、GチャネルのLSFの標準偏差である。また、σBdは、BチャネルのLSFの標準偏差である。
そして、F(σRd−σGd)は、標準偏差の差「σRd−σGd」をパラメータとする関数であり、後ピン状態では負値、前ピン状態では正値となる関数である。また、F1(σBd−σGd)は、標準偏差の差「σBd−σGd」をパラメータとする関数であり、後ピン状態では正値、前ピン状態では負値となる関数である。
また、関数Gは、「F(σRd−σGd)−F1(σBd−σGd)」をパラメータとする関数であり、関数Fの値、又は関数F1の値の少なくとも一方を選択する関数である。そして、関数Gは、前ピン状態では関数Fの値を選択し、後ピン状態では関数F1の値を選択することで、被写体距離(Depth)を算出するために用いられる関数である。
なお、LSFは、1つの色チャネル(単色)についてのみ算出されてもよい。この場合、焦点調節装置191は、撮像された色チャネルのLSFと、1つの色チャネルのLSFのプロファイルとをマッチングすることで、合焦状態及び非合焦状態を検出してもよい。例えば、撮像されたLSFが、ぼけ度合い「0」を示すLSFのプロファイルと一致(マッチ)した場合には、焦点調節装置191は、エッジが合焦状態であると判定してもよい。
このように、焦点調節装置191(図1を参照)は、評価値LSFの標準偏差又は半値幅に基づいて、合焦状態及び非合焦状態を検出することができる。また、焦点調節装置191は、評価値LSFの標準偏差又は半値幅を色チャネル毎に比較することで、前ピン状態又は後ピン状態を検出することができる。
以上が、方向指標とデフォーカス量を検出するための評価値の説明である。
焦点調節装置191の構成の説明に戻る。
焦点調節装置191(図1を参照)は、エッジ検出部192と、分布検出部193と、制御部194とを備える。エッジ検出部192は、撮像部110が出力した画像を構成する色成分(Rチャネル、Gチャネル、Bチャネル)毎に、被写体像のエッジを検出する。
図15には、撮像された画像と、撮像された画像から抽出されたエッジ画像と、2つのエッジ画像の論理積の結果を示す画像と、の例が示されている。図15(A)には、撮像部110が撮像した画像の一部(部分画像)の例が示されている。そして、図15(A)において、破線で示された枠は、エッジ検出部192がエッジを検出するための検出領域を示す。なお、検出領域は、エッジの片側のみに広がる領域であってもよい。また、部分画像における検出領域の位置は、予め定められていてもよい。
エッジ検出部192(図1を参照)は、検出領域に撮像された被写体像のエッジ画像(エッジ以外をマスクしたマスク画像)を、部分画像から色成分毎に抽出(検出)する。図15(B)には、抽出されたRチャネルのエッジ画像が示されている。また、図15(C)には、抽出されたGチャネルのエッジ画像が示されている。また、図15(D)には、Rチャネルのエッジ画像と、Gチャネルのエッジ画像との論理積(AND)を算出した結果の画像が示されている。これらの画像の抽出(生成)手順について、以下に説明する。
図16には、エッジ検出部192の動作がフローチャートで示されている。エッジ検出部192は、撮像部110が撮像した粗い画像(例えば、QVGA解像)から、ラプラシアンフィルタ等で色チャネル毎のエッジ画像を抽出(生成)する(ステップSa1)。
ステップSa1における、色チャネル毎のエッジ画像を抽出する手順を、より具体的に説明する。図17には、エッジ位置13近傍の色成分量の階調断面図の例と、ラプラシアンフィルタを使用した演算例とが示されている。一例として、画像の垂直方向に延びたエッジを抽出(生成)する場合について説明する。
ここで、画素が、エッジに直交する水平方向に、画素A、画素B、画素Cの順に並んでいるものとする。そして、各画素は、画素A「色成分量R1=値「200」,色成分量G1=値「220」,色成分量B1=値「10」」、画素B「色成分量R2=値「220」,色成分量G2=値「230」,色成分量B2=値「10」」、画素C「色成分量R3=値「220」,色成分量G3=値「250」,色成分量B3=値「10」」で構成されているものとする。また、閾値Ek1を値「100」とする。なお、これらの値は、一例である。
エッジ検出部192は、各色成分量に、ラプラシアンフィルタの係数を乗算した値を、色成分毎に加算する。そして、エッジ検出部192は、加算結果と、予め定められた閾値Ek1とを、色成分毎に比較する。
具体的には、エッジ検出部192は、Rチャネルについての加算結果「(−1)×R1+8×R2+(−1)×R3」と、閾値Ek1とを比較する。エッジ検出部192は、Rチャネルについての加算結果が閾値Ek1よりも大きいため、Rチャネルのエッジを有効エッジとして、Rチャネルのエッジ画像を生成する。
また、エッジ検出部192は、Gチャネルについての加算結果「(−1)×G1+8×G2+(−1)×G3」と、閾値Ek1とを比較する。エッジ検出部192は、Gチャネルについての加算結果が閾値Ek1よりも大きいため、Gチャネルのエッジを有効エッジとして、Gチャネルのエッジ画像を生成する。同様に、Bチャネルについての加算結果と閾値Ek1とを比較した結果、Bチャネルについての加算結果が閾値Ek1以下であるため、エッジ検出部192は、Bチャネルのエッジを有効エッジとせずに、Bチャネルのエッジ画像を生成しない。
さらに、エッジ検出部192は、エッジ画像におけるRチャネルの色成分量を、Gチャネルの色成分量と同じレベルにする。例えば、エッジ検出部192は、Gチャネルの色成分量を、Rチャネルの色成分量で除算した値をゲイン(補正倍率)とする。そして、エッジ検出部192は、Rチャネルの色成分量にゲインを乗算する。このようにして、エッジ検出部192は、エッジ画像(図15(B)(C)を参照)を生成する。
図16に戻り、エッジ検出部192の動作説明を続ける。エッジ検出部192は、位置について相関のある2色以上のエッジ(エッジペア)を抽出する。具体的には、エッジ検出部192は、同一画素について、Rチャネルのエッジの色成分量と、Gチャネルのエッジの色成分量を抽出する。そして、エッジ検出部192は、これらエッジペアの色成分量論理積(AND)を共通エッジ画像とする(ステップSa2)。
エッジ検出部192は、同一画素のエッジでなくとも、「±1画素」以内に隣接するRチャネル及びGチャネルのエッジ(エッジペア、色ペア)の色成分量の論理積を、共通エッジとして抽出してもよい(太線化)。さらに、エッジ検出部192は、予め定められた長さL以上であるエッジの色成分量の論理積に基づいて、共通エッジを抽出してもよい。
そして、エッジ検出部192は、共通エッジを構成するRチャネル及びGチャネルの共通エッジを、記憶部160に記憶させる(ステップSa3)。このようにして、エッジ検出部192は、Rチャネルのエッジと、Gチャネルのエッジとの共通エッジが抽出されたエッジ画像(図15(D)を参照)を生成する。
分布検出部193は、撮像部110が撮像した画像を、格子状のブロックに分割し、分割したブロック毎に、共通エッジの合焦状態及び非合焦状態(方向指標とデフォーカス量)を検出する。
図18には、デプスマップの例が示されている。ここで、デプスマップとは、撮像された画像における合焦状態及び非合焦状態(ぼけ度合い)の分布を、ブロック(部分画像)単位で示したマップである。
以下では、一例として、撮像部110が撮像した画像が「4×4」のブロックに分割され、そのうちの1つのブロックにおけるエッジ画像が、図15(D)に例示されたエッジ画像であるとして説明する。
分布検出部193は、エッジ画像に抽出された共通エッジのEd、Wd、又はLSFの少なくとも1つ以上に基づいて、共通エッジの合焦状態及び非合焦状態の分布を検出する。分布検出部193は、図15(D)のエッジ画像に抽出された3本の共通エッジのEdに基づいて、共通エッジの合焦状態及び非合焦状態(ぼけ度合い)を、次のように検出する。
図15(D)のエッジ画像に抽出された3本の共通エッジの長さを、それぞれL1、L2、L3とする。まず、分布検出部193は、式11を演算する。
Σ(L((Σ(R/G))/Δ))
= L1((Σ(R1/G1))/Δ)
+L2((Σ(R2/G2))/Δ)
+L3((Σ(R3/G3))/Δ) … 式11
ここで、「Δ」は、エッジに直交する区間の長さである。例えば、図9(A)に例示された階調断面図の場合、「Δ」は、区間Δ1又は2の長さである。さらに、分布検出部193は、式11「Σ(L((Σ(R/G))/Δ))」を「L1+L2+L3」で除算した値を、EdRGとする。
そして、評価値Edの説明に上述したように、式1が成立する場合、分布検出部193は、共通エッジが後ピン状態であると判定する。一方、式2が成立する場合、分布検出部193は、共通エッジが前ピン状態であると判定する。
図18に例示されたデプスマップにおいて、四角枠で囲まれた値は、そのブロックにおける「ぼけ度合い」を示す。そして、ぼけ度合いの絶対値が大きいほど、デフォーカス量が大きく、非合焦状態であることを示す。また、負値を持つブロックは、そのブロックに撮像されたエッジが、後ピン状態であることを示す。逆に、正値を持つブロックは、そのブロックに撮像されたエッジが、前ピン状態であることを示す。
分布検出部193は、「4×4」に分割した1つのブロックを、さらに「2×2」の小ブロック(セグメント)に細分化してもよい。そして、分布検出部193は、それらの小ブロックについて、共通エッジの合焦状態及び非合焦状態を、ぼけ度合いのヒストグラムに基づいて、検出してもよい。例えば、分布検出部193は、値「2」と値「8」との間にある小ブロックの「ぼけ度合い」を、ヒストグラムによって補間して、値「4」としてもよい。この補間された値は、一例である。なお、色成分量(パワー)が十分である有効エッジが検出されなかった場合、デプスマップには、方向指標とデフォーカス量とを検出することができなかった検出不能ブロックが残ってもよい。
このようにして、分布検出部193は、Edに基づいて、共通エッジの合焦状態及び非合焦状態の分布を検出し、デプスマップを作成する。同様に、分布検出部193は、上述したWdに基づいて、共通エッジの合焦状態及び非合焦状態の分布を検出し、デプスマップを作成してもよい。
また、分布検出部193は、上述したLSFに基づいて、共通エッジの合焦状態及び非合焦状態の分布を検出し、デプスマップを作成してもよい。具体的には、分布検出部193は、撮像部110に撮像された画像を、格子状のブロックに分割し、ブロック毎にエッジ画像を抽出する(図15(D)を参照)。そして、分布検出部193は、エッジ画像に抽出されたエッジのLSFを、評価値LSFの説明に上述した手順で算出する。さらに、分布検出部193は、LSFのプロファイルと、撮像されたエッジのLSFとに基づいて、評価値LSFの説明に上述した手順で、ブロック毎に「ぼけ度合い」を検出することで、デプスマップを作成する。
また、分布検出部193は、評価値Ed、Wd、LSFを組み合わせて、共通エッジの合焦状態及び非合焦状態の分布を検出してもよい。例えば、分布検出部193は、Edに基づいて、共通エッジの合焦状態及び非合焦状態の分布を検出した後、有効エッジが検出されなかったブロックに対しては、LSFに基づいて、共通エッジの合焦状態及び非合焦状態の分布を補完的に検出してもよい。
制御部194は、分布検出部193が検出した合焦状態及び非合焦状態の分布に基づいて、分布のうちから被写体像が撮像されているブロックを選択し、被写体像のエッジに合焦させるようにAFレンズ112を移動させる。また、制御部194は、撮像部110が撮像した画像を記憶媒体200に記憶させる撮影指示が、操作部180からCPU190に出力されたか否かを判定する。また、制御部194は、被写体像に合焦させるフォーカス指示が、操作部180からCPU190に出力されたか否かを判定する。制御部194は、これらの判定に基づいて、後述するように合焦駆動の手順を変更する。
次に、撮像装置100の動作について、焦点調節装置191の動作を中心に説明する。
図19には、被写体像を追尾する追尾動作における、焦点調節装置191の合焦駆動の手順を示すフローチャートが示されている。まず、撮像装置100のCPU190は、被写体像を追尾する追尾動作を実行するよう、焦点調節装置191を追尾モードに設定する(ステップS1)。また、CPU190は、追尾する対象である被写体像を焦点調節装置191に指定(設定)する(ステップS2)。これらの設定は、操作部180が受け付けたユーザの操作入力に基づいて、実行されてもよい。
そして、焦点調節装置191の制御部194は、初回の合焦駆動を実行する(ステップS3)。この合焦駆動における合焦方式は、例えば、コントラストAF(Auto Focus)方式でもよいし、その他の合焦方式(位相差検出方式など)でもよく、その方式は適宜選択されてよい。さらに、撮像素子119は、光電変換面に結像した光学像を電気信号に変換し、スルー画像としてA/D変換部120に出力する(ステップS4)。ここで、撮像素子119から出力されるスルー画像は、そのデータの一部が間引かれたことにより、解像度が低くなっていてもよい。
次に、撮像装置100及び焦点調節装置191は、以下に説明するステップS5〜S7と、ステップS8〜S16とを、並列処理する。また、撮像装置100及び焦点調節装置191は、ステップS4〜S17を繰り返し実行してもよい。
CPU190は、撮像部110を制御して、自動露出(Automatic Exposure、AE)処理、debayer(色補間)処理を実行させる。また、画像処理部140は、スルー画像を取得し、画像処理を実行する(ステップS5)。例えば、画像処理部140は、取得したスルー画像に対して、画像処理として、ホワイトバランス(White Balance、WB)調整処理、ノイズ低減(Noise Reduction、NR)処理、倍率色収差補正処理等を実行する。
また、画像処理部140は、画像マッチング処理等によって、取得したスルー画像の追尾領域内に撮像された追尾対象を探索する(ステップS6)。さらに、画像処理部140は、追尾領域を示す追尾枠と、スルー画像とを重畳して、表示部150に表示させる(ステップS7)。
一方、焦点調節装置191のエッジ検出部192は、予め定められた初期ウィンドウサイズの追尾領域内に撮像されたエッジを抽出する(図15の各図を参照)(ステップS8)。そして、エッジ検出部192は、図16を用いて上述した手順で、エッジ特性を解析する(ステップS9)。
さらに、エッジ検出部192は、追尾対象とするエッジが存在するか否かを判定する(ステップS10)。エッジが存在しない場合(ステップS10−NO)、エッジ検出部192の処理は、ステップS8に戻る。一方、エッジが存在する場合(ステップS10−YES)、エッジ検出部192は、追尾対象とするエッジを設定する(ステップS11)。ここで、エッジ検出部192は、例えば、パワーが強い(色成分量が多い)エッジを、追尾対象に設定してもよい。
そして、CPU190は、撮像部110を制御して、撮像素子119から出力されるスルー画像の解像度を上げる。ここで、スルー画像のデータの一部が間引かれなくなったことにより、スルー画像の解像度が上げられてもよい。さらに、CPU190は、撮像部110を制御して、撮像素子119の光電変換面に結像した光学像の一部を切り出して、その画像を電気信号に変換させて、撮像素子119からA/D変換部120に出力させる(ステップS12)。
また、エッジ検出部192は、エッジ特性を解析し、評価値を記憶部160に記憶させる(ステップ13)。ステップ13において、エッジ検出部192は、図20に示す手順を実行する。図20には、エッジ特性の解析手順を示すフローチャートが示されている。エッジ検出部192は、Rチャネルのエッジ画像と、Gチャネルのエッジ画像とに基づいてゲイン(倍率)を算出し、Rチャネルのエッジに対してゲインを乗算する(図17などを参照)(ステップSb1)。
そして、エッジ検出部192は、アフィン変換又はコサイン補正を実行することで、画像に対して斜めに延びたエッジを、画像に対して水平となるように変換する(ステップSb2)。さらに、焦点調節装置191の分布検出部193は、エッジ周辺の区間Δに基づいて(例えば、式1を参照)、撮像部110が撮像した画像における格子状のブロック毎に、評価値を算出する。
また、分布検出部193は、エッジ検出部192が抽出した各エッジ(図15(D)を参照)について、各評価値を算出し、算出した評価値をエッジの長さで平均して、Edとする(例えば、式11を参照)(ステップSb4)。ここで、分布検出部193は、評価値として、Ed、Wd、及びLSFの少なくとも1つを算出する。そして、分布検出部193は、エッジ特性として、評価値と、色チャネル毎のエッジペア(色ペア)と、色成分量(色強度)と、ゲインとを、記憶部160に記憶させる。このようにして、分布検出部193は、デプスマップ(図18を参照)を作成する。
図19に戻り、焦点調節装置191の合焦駆動の手順の説明を続ける。分布検出部193は、ステップS2において追尾対象に設定された被写体像のエッジが撮像されているブロックの評価値に基づいて、そのエッジが、合焦状態、前ピン状態、又は後ピン状態のいずれであるかを判定する(例えば、式1〜4を参照)(ステップS14)。
また、分布検出部193は、評価値Edが予め定められた第1閾値を超えているか否かを判定する。また、分布検出部193は、前回のEdと今回のEdとの差が予め定められた第2閾値より大きくなっているか否かを判定する(ステップS15)。
評価値Edが予め定められた第1閾値を超えた場合、又は前回のEdと今回のEdとの差が予め定められた第2閾値より大きくなった場合(ステップS15−YES)、デフォーカス量が多くなったので、制御部194は、AFレンズ112の移動方向を限定して、コントラストスキャンを実行する。
制御部194がAFレンズ112の移動方向を限定する手順について、説明する。
図21には、前ピン状態と判定された場合のスキャン領域と、後ピン状態と判定された場合のスキャン領域とが示されている。図21の中段には、前ピン状態及び後ピン状態の判定結果に基づかずに実行される「通常コントラストスキャン」において、AFレンズ112が、レンズ鏡筒111内に予め定められたレンズ可動域(至近〜無限)の全域を、コントラストスキャンしながら移動することが示されている。
図21の中段に示された「通常コントラストスキャン」に対して、図21の下段には、前ピン状態及び後ピン状態の判定結果に基づいて実行されるコントラストスキャンにおいて、AFレンズ112が、レンズ鏡筒111内に予め定められたレンズ可動域(至近〜無限)の一部の領域を、コントラストスキャンしながら移動することが示されている。
追尾対象に設定された被写体像のエッジが前ピン状態であると判定された場合、制御部194は、現在のAFレンズ112の位置から、至近側の領域にAFレンズ112の移動方向を限定して、コントラストスキャンを実行する。一方、追尾対象に設定された被写体像のエッジが後ピン状態であると判定された場合、制御部194は、現在のAFレンズ112の位置から、無限側の領域にAFレンズ112の移動方向を限定して、コントラストスキャンを実行する。
このように、AFレンズ112の移動方向が限定されるので、焦点調節装置191は、通常のコントラストスキャンと比較して速やかに、被写体像に合焦させることができる。
図19に戻り、焦点調節装置191の合焦駆動の手順の説明を続ける。制御部194は、被写体像のエッジに合焦させるために、前ピン状態及び後ピン状態の判定結果に基づいて実行されるコントラストスキャンによって検出した合焦位置に、AFレンズ112を移動させる(ステップS16)。
ステップS15において、評価値Edが予め定められた第1閾値を超えていない、かつ前回のEdと今回のEdとの差が予め定められた第2閾値より大きくなっていない場合(ステップS15−NO)、制御部194の処理は、ステップS17に進む。また、制御部194の処理は、ステップS16を実行後、ステップS17に進む。
制御部194は、撮像部110が撮像した画像を記憶媒体200に記憶させる撮影指示が、操作部180からCPU190に出力されたか否かを判定する(ステップS17)。例えば、撮影指示は、操作部180のシャッタボタンをユーザが操作することよって、操作部180からCPU190に出力される。
操作部180からCPU190に撮影指示が出力されていない場合(ステップS17−NO)、制御部194の処理は、ステップS4に戻る。一方、操作部180からCPU190に撮影指示が出力されている場合(ステップS17−YES)、制御部194の処理は、ステップS18に進む。
次に、制御部194は、撮影用AFを実行する(ステップS18)。図22には、撮影用AFでの山登りコントラストスキャンにおけるレンズ位置の移動が示されている。そして、図22(A)には、コントラストスキャンにおけるAFレンズ112の位置と、コントラスト値との関係の一例が示されている。ここで、レンズの現在位置から至近側の領域を、至近側領域とする。また、レンズの現在位置から無限側の領域を、無限側領域とする。
レンズ鏡筒111内に予め定められたレンズ可動域における開始位置(例えば、至近側領域にある位置)から終了位置(例えば、無限側領域にある位置)まで、制御部194の制御によってAFレンズ112が移動した場合に、コントラスト値がピークを示したレンズ位置を、合焦位置とする。AFレンズ112が合焦位置にある場合、被写体像のエッジは、合焦状態となる。
図22(B)には、通常コントラストスキャン(図21の中段を参照)における、AFレンズ112の位置の移動が示されている。通常コントラストスキャンにおいて、制御部194は、レンズ鏡筒111内に予め定められたレンズ可動域の全域をコントラストスキャンさせながら、AFレンズ112を移動させる。
制御部194は、時刻t1〜t2において、時刻t1におけるレンズ位置からコントラストスキャンの開始位置まで、AFレンズ112を移動させる(初期位置駆動)。そして、制御部194は、時刻t2〜t3aにおいて、開始位置から終了位置まで、コントラストスキャンを実行しながら、AFレンズ112を移動させる(スキャン駆動)。さらに、制御部194は、時刻t3a〜t4aにおいて、コントラスト値がピークを示した合焦位置に、AFレンズ112を移動させる(合焦位置駆動)。
このように、通常コントラストスキャンでは、制御部194は、レンズ可動域の全域をコントラストスキャンさせるため、合焦位置にAFレンズ112を移動させるのに時間を要する。
一方、図22(C)には、評価値による前ピン状態及び後ピン状態の判定に基づくコントラストスキャン(図21の下段を参照)における、AFレンズ112の位置の移動が示されている。制御部194は、前ピン状態及び後ピン状態の判定に基づいて、レンズ鏡筒111内に予め定められたレンズ可動域の一部領域をコントラストスキャンさせながら、AFレンズ112を移動させる。
そして、分布検出部193が、共通エッジの合焦状態及び非合焦状態の分布を上述のように検出する。ここで、追尾対象である被写体像のエッジが前ピン状態であると、分布検出部193が時刻t1までに判定したとする。制御部194は、時刻t1〜t2において、時刻t1におけるレンズ位置からコントラストスキャンの開始位置まで、AFレンズ112を移動させる(初期位置駆動)。
被写体像のエッジが前ピン状態であると判定されたので、制御部194は、合焦位置が至近側領域にあると予測し、時刻t2〜t3bにおいて、開始位置から「時刻t1におけるレンズ位置」まで、コントラストスキャンを実行しながら、AFレンズ112を移動させる(スキャン駆動)。さらに、制御部194は、時刻t3b〜t4bにおいて、コントラスト値がピークを示した合焦位置に、AFレンズ112を移動させる(合焦位置駆動)。
ここで、制御部194は、スキャン駆動において、評価値Edが予め定められた範囲内に収束した時点で、合焦駆動を終了してもよい。また、制御部194は、スキャン駆動において、上述したようにLSFに基づいて合焦状態を検出し、合焦駆動を終了してもよい。
また、制御部194は、スキャン駆動において、コントラストスキャンを実行しながら、コントラスト値がピークを示した位置を、一旦通過して、合焦位置を内挿により算出する。合焦位置は、内挿により算出されることで、内挿により算出されない場合と比較して、位置が正確に検出される可能性が高くなる。そして、制御部194は、内挿により算出した合焦位置に、AFレンズ112を移動させる(合焦位置駆動)。
図19に戻り、合焦駆動の説明を続ける。CPU190は、撮影用AFによって合焦状態となったエッジを露光するよう、撮像部110を制御する。そして、CPU190は、撮像部110が撮像した画像を、通信部170を介して記憶媒体200に記憶(記録)させる(ステップS19)。
以上のように、焦点調節装置191は、焦点調節を行うためのAFレンズ112を有するレンズ鏡筒111から入射される被写体像を含む画像を構成する色成分毎に、被写体像のエッジを検出するエッジ検出部192と、エッジ検出部192が色成分毎に検出したエッジに基づいて、画像における合焦状態及び非合焦状態の分布を検出する分布検出部193と、分布検出部193が検出した分布(デプスマップ)に基づいて、被写体像に合焦させるようにAFレンズ112を移動させる制御部194と、を備える。
これにより、共通エッジが前ピン状態にあるとの判定に基づくコントラストスキャンでは、制御部194は、至近側領域のみでAFレンズ112を移動させるので、通常コントラストスキャンを実行した場合と比較して、短時間に合焦駆動を終了させる。同様に、共通エッジが後ピン状態にあるとの判定に基づくコントラストスキャンでは、制御部194は、無限側領域のみでAFレンズ112を移動させるので、通常コントラストスキャンを実行した場合と比較して、短時間に合焦駆動を終了させる。
したがって、焦点調節装置191は、一度も合焦されていない被写体像に、速やかに合焦させることができる。
また、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジの色成分量の勾配に基づいて、合焦状態及び非合焦状態の分布を検出する。これにより、焦点調節装置191は、エッジの色成分量の勾配に基づいて、被写体像に速やかに合焦させることができる。
また、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジの色成分量の比又は差に基づいて、被写体より近点側に合焦していること、又は被写体より遠点側に合焦していることを示す方向指標と、デフォーカス量と、を検出する。これにより、焦点調節装置191は、エッジの色成分量の比又は差に基づいて、演算負荷を増大させることなく、被写体像に速やかに合焦させることができる。
また、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジの色成分量の比又は差のピーク間距離に基づいて、デフォーカス量を検出する。これにより、焦点調節装置191は、エッジの色成分量の比又は差のピーク間距離に基づいて、演算負荷を増大させることなく、被写体像に速やかに合焦させることができる。
<評価値LSFに基づいて、合焦駆動を実行する場合について>
図23には、LSFに基づく合焦駆動の手順を示すフローチャートが示されている。撮像装置100のCPU190は、エッジに合焦(AF)させる領域として、スルー画像の中央に領域(中央エリア領域)を設定する(ステップSd1)。この設定は、操作部180が受け付けたユーザの操作入力に基づいて、実行されてもよい。
CPU190は、撮像部110を制御して、露出制御を実行させる(ステップSd2)。また、画像処理部140は、スルー画像を取得する(ステップSd3)。そして、CPU190は、撮像部110を制御して、debayer(色補間)処理を実行させる。
また、画像処理部140は、取得したスルー画像に対して、画像処理を実行する。例えば、画像処理部140は、取得したスルー画像に対して、ホワイトバランス(White Balance、WB)調整処理、ノイズ低減(Noise Reduction、NR)処理、を実行する(ステップSd4)。ここで、画像処理部140が取得したスルー画像は、撮像素子119が出力した電気信号が間引かれたことで、解像度が低下した画像であってもよい。このようにすれば、画像処理部140が実行する画像処理量を低減させることができる。さらに、画像処理部140は、画像処理を施したスルー画像を、表示部150に表示させる(ステップSd5)。
CPU190は、フォーカス指示がCPU190に入力されたか否かを判定する(ステップSd6)。フォーカス指示が入力されていない場合(ステップSd6−NO)、CPU190の処理は、ステップSd3に戻る。フォーカス指示が入力されている場合(ステップSd6−YES)、CPU190の処理は、ステップSd7に進む。
画像処理部140は、スルー画像をフル解像度で取得する(ステップSd7)。そして、CPU190は、撮像部110を制御して、debayer(色補間)処理を実行させる。 また、画像処理部140は、取得したスルー画像に対して、画像処理を実行する。例えば、画像処理部140は、取得したスルー画像に対して、ホワイトバランス調整処理、ノイズ低減処理を実行する(ステップSd8)。
エッジ検出部192は、中央エリア領域において、ラプラシアンフィルタ等で色チャネル毎のエッジ画像を抽出する(ステップSb9)。そして、エッジ検出部192は、色成分量(エッジパワー)が一定量以上である有効なエッジを抽出する(ステップSb10)。さらに、エッジ検出部192は、抽出されたエッジのLSFを画像の水平方向に対して算出する(ステップSd11)。
エッジ検出部192は、各色チャネルのエッジについて、位置相関を取る(ステップSb12)。そして、エッジ検出部192は、位置相関のある2色以上のチャネルのエッジを選択し、エッジ画像を抽出する(ステップSb13)。ここで、一例として、Rチャネルのエッジと、Gチャネルのエッジ画像が抽出されたものとする。エッジ検出部192は、抽出されたエッジ画像のエッジについて太線化を行い、エッジ以外をマスクしたマスク画像(図15(D)を参照)を作成する(ステップSd14)。
分布検出部193は、「8×8」のブロックにマスク画像を分割する。そして、分布検出部193は、各ブロックのLSFを参照して、1画素あたりのLSFの平均値を算出する(ステップSd15)。さらに、分布検出部193は、算出した平均値に基づいて、被写体像のラベリングを実行してもよい。中央エリア領域に複数のラベルがある場合、分布検出部193は、中央エリア領域に複数の被写体距離があると判定する(ステップSd16)。
制御部194は、Rチャネルのエッジと、Gチャネルのエッジと基づいて、AFレンズ112の駆動方向と、デフォーカス量(コントラストスキャンの開始位置)とを算出する(ステップSd17)。制御部194は、AFレンズ112を開始位置(例えば、前ピン状態であれば、至近側領域にある位置)に移動させる。そして、制御部194は、LSFを算出しながら、コントラストスキャンを実行する。制御部194は、コントラストスキャンを実行しながら、LSFが合焦状態を示した位置(図13を参照)を一旦通過して、スキャン駆動を停止する(ステップSd18)。
そして、制御部194は、内挿により合焦位置を算出し、算出した合焦位置にAFレンズ112を移動させる(ステップSd19)。また、画像処理部140は、スルー画像を繰り返し取得する(ステップSd20)。そして、画像処理部140は、スルー画像を表示部150に表示させる(ステップSd21)。なお、制御部194は、中央エリア領域より更に広い領域を、エッジに合焦させる領域(AF領域)としてもよい。
以上のように、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジに対応する線広がり関数(LSF)に基づいて、被写体より近点側に合焦していること、又は被写体より遠点側に合焦していることを示す方向指標と、デフォーカス量と、を検出する。これにより、焦点調節装置191は、被写体像が単色である場合、被写体像の面積が小さい場合、又は被写体像の空間周波数が低い場合でも、速やかに合焦させることができる(コンテンツ耐性)。
また、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジに対応する線広がり関数(LSF)の標準偏差又は半値幅に基づいて、デフォーカス量を検出する。これにより、焦点調節装置191は、エッジの線広がり関数の標準偏差又は半値幅に基づいて、被写体像に速やかに合焦させることができる。
また、焦点調節装置191は、焦点調節を行うためのAFレンズ112を有するレンズ鏡筒111から入射される被写体像を含む画像を構成する色成分毎に、被写体像のエッジを検出するエッジ検出部192と、エッジ検出部192が色成分毎に検出したエッジの線広がり関数(LSF)を算出する分布検出部193と、線広がり関数に基づいて、被写体像に合焦させるようにAFレンズ112を移動させる制御部194と、を備える。
これにより、焦点調節装置191は、被写体像が単色である場合、被写体像の面積が小さい場合、又は被写体像の空間周波数が低い場合でも、速やかに合焦させることができる。
[第2実施形態]
本発明の第2実施形態について図面を参照して詳細に説明する。第2実施形態では、分布検出部193が、後述する「デフォーカス−駆動パルステーブル」に基づいて、合焦位置(デフォーカス量)を予測する点が、第1実施形態と異なる。以下では、第1実施形態との相違点についてのみ説明する。
図24には、「デフォーカス−駆動パルステーブル」の例が示されている。デフォーカス−駆動パルステーブルの項目(リファレンス)には、レンズ位置と、評価値と、前ピン状態での駆動パルスのステップ数(以下、「前ピン状態でのステップ数」という)と、後ピン状態での駆動パルスのステップ数(以下、「後ピン状態でのステップ数」という)とがある。ここで、評価値は、Ed、Wd、LSFに基づくデフォーカス量のいずれであってもよい。
また、駆動パルスのステップ数とは、鏡筒制御部118が駆動制御信号に応じてレンズ駆動部116に出力する駆動パルスであり、鏡筒制御部118の構造に基づいて予め定められたステップ数である。そして、前ピン状態でのステップ数とは、前ピン状態での現在のレンズ位置から合焦位置まで移動するために必要なステップ数を示す。同様に、後ピン状態でのステップ数とは、後ピン状態での現在のレンズ位置から合焦位置まで移動するために必要なステップ数を示す。また、デフォーカス−駆動パルステーブルは、記憶部160に記憶されてもよい。
そして、分布検出部193は、周期的に評価値(デフォーカス量)を検出して、デフォーカス−駆動パルステーブルの「評価値」の項目に、検出した評価値と、検出した際のレンズ位置とを登録する。さらに、分布検出部193は、鏡筒制御部118の構造に基づいて予め定められたステップ数である「前ピン状態でのステップ数」と、「後ピン状態でのステップ数」とを、デフォーカス−駆動パルステーブルに登録する。分布検出部193は、これらの登録動作を繰り返して、履歴を作成する。
次に、制御部194が、デフォーカス−駆動パルステーブルに基づいて、AFレンズ112の移動方向及びコントラストスキャン領域を限定する手順を説明する。
図25には、前ピンとその度合が判定された場合のコントラストスキャン領域と、後ピンとその度合が判定された場合のコントラストスキャン領域とが示されている。追尾対象に設定された被写体像のエッジが前ピン状態であると判定された場合、制御部194は、デフォーカス−駆動パルステーブル(図24を参照)に基づいて、至近側領域に合焦位置の予測範囲を定める。
例えば、鏡筒制御部118から出力されたレンズ位置(フォーカスポジション)が値「1」、かつ、分布検出部193が検出した評価値(デフォーカス量)が値「1」、かつ、分布検出部193が検出した方向指標が前ピン状態を示したとする。
この場合、制御部194は、レンズ位置「1」、及び評価値「1」に対応する、前ピンでのステップ数が、デフォーカス−駆動パルステーブル(図24を参照)に登録されているか否かを参照する。図24に示された例では、レンズ位置「1」、及び評価値「1」に対応する「前ピンでのステップ数」が登録されているので、制御部194は、デフォーカス−駆動パルステーブルから、前ピンでのステップ数「23」を取得する。
これにより、制御部194は、AFレンズ112が現在のレンズ位置から至近方向に、駆動パルスのステップ数「23」に対応する移動量を移動した位置に合焦位置がある、と予測する。そして、制御部194は、予測した位置を中心とする所定の長さの予測範囲を定める。さらに、制御部194は、予測範囲に限定して、コントラストスキャンを実行する。なお、予測範囲の長さは、安全係数が付加されて、さらに長くなってもよい。
追尾対象に設定された被写体像のエッジが「後ピン状態」であると判定された場合も同様に、制御部194は、デフォーカス−駆動パルステーブル(図24を参照)に基づいて、無限側領域にある合焦位置を中心とする合焦位置の予測範囲を定める。そして、制御部194は、合焦位置の予測範囲に限定して、コントラストスキャンを実行する。
図26には、被写体像を追尾する追尾動作における、焦点調節装置191の合焦駆動の手順を示すフローチャートが示されている。図26のステップSc1〜Sc15は、図19のステップS1〜S15と同じである。また、図26のステップSc18〜Sc20は、図19のステップS17〜S19と同じである。また、図26のステップSc16及びSc17は、並列処理を示す。
評価値Edが予め定められた第1閾値を超えた場合、又は前回のEdと今回のEdとの差が予め定められた第2閾値より大きくなった場合(ステップSc15−YES)、制御部194は、AFレンズ112の移動方向を限定し、図24を用いて上述したようにデフォーカス−駆動パルステーブルを参照して、さらに合焦位置の予測範囲を定める。 (ステップSc16)。
制御部194は、AFレンズ112の移動方向を限定し、さらに合焦位置の予測範囲に限定して、コントラストスキャン(小スキャン)を実行する。そして、制御部194は、被写体像のエッジに合焦させるように、合焦位置にAFレンズ112を移動させる(ステップSc17)。そして、制御部194の処理は、ステップSc18に進む。以降は、第1実施形態と同様である。
このように、コントラストスキャンを実行する範囲が、合焦位置の予測範囲に限定されるので、焦点調節装置191は、通常のコントラストスキャンと比較して速やかに、被写体像に合焦させることができる。
図27には、「デフォーカス−駆動パルステーブル」に基づくコントラストスキャンにおける、合焦駆動の例が示されている。制御部194が、一例として、評価値Edに基づいて、合焦駆動を実行する場合について説明する。図27の各横軸は、撮像部110が撮像するスルー画像のフレーム数を示す。また、図27の上段の縦軸は、共通エッジのEdを示す。ここで、フレーム数f1におけるEdを、「Ed値(初期)」とする。また、図27の下段の縦軸は、レンズ位置を示す。
制御部194は、コントラストスキャンから一定時間が経過した場合、又は操作部180からCPU190に撮影指示が出力された場合、コントラストスキャンを実行し、被写体像のエッジに合焦させる。また、分布検出部193は、一定周期でEdを算出する。そして、分布検出部193は、スルー画像に含まれる被写体像の動きベクトルに基づいて、被写体像の単位時間当たりの動きが大きいと判定した場合には、Edを算出するレートを速くする。なお、分布検出部193は、前回算出された評価値Edと、今回算出された評価値Edとの相対的な差が大きいと判定した場合に、Edを算出するレートを速くしてもよい。
まず、制御部194は、フレーム数f1〜f2において、コントラストスキャンを実行し、AFレンズ112をスキャン駆動させたとする。ここで、分布検出部193は、スキャン駆動中に、被写体像の単位時間当たりの動きが大きいと判定した場合には、Edを算出するレートを速くする。
そして、制御部194は、フレーム数f2〜f3において、AFレンズ112を合焦位置駆動させ、被写体像の共通エッジに合焦させる。これにより、フレーム数f3〜f4において、被写体像の共通エッジは、合焦状態にある。ここで、被写体距離が変化した場合、フレーム数f3〜f4における合焦位置と、合焦位置(初期)とは、その位置が異なっていてもよい。
次に、被写体距離が変化したことにより、フレーム数f4において、予め定められた閾値をEdが超えたとする。これにより、制御部194は、デフォーカス−駆動パルステーブルに基づいて、AFレンズ112の移動方向及び移動量を限定する。
例えば、鏡筒制御部118から出力されたレンズ位置(フォーカスポジション)が値「1」、かつ、分布検出部193が検出した評価値(デフォーカス量)が値「1」、かつ、分布検出部193が検出した方向指標が前ピン状態を示したとする。
この場合、制御部194は、レンズ位置「1」及び評価値「1」に対応する「前ピンでのステップ数」が「デフォーカス−駆動パルステーブル(図24を参照)」に登録されているか否か、を判定する。そして、図24に示された例では、レンズ位置「1」及び評価値「1」に対応する「前ピンでのステップ数」が、テーブルに登録されているので、制御部194は、デフォーカス−駆動パルステーブルから、前ピンでのステップ数「23」を取得する。
これにより、現在のレンズ位置から至近方向に向かって、駆動パルスのステップ数「23」に対応する移動量を、AFレンズ112が移動した位置に合焦位置がある、と制御部194は予測する。そして、制御部194は、駆動制御信号を鏡筒制御部118に出力し、駆動パルスのステップ数「23」に対応する移動量で、AFレンズ112を至近方向に駆動させる。これにより、制御部194は、フレーム数f5において、エッジに合焦させたとする。
また、制御部194は、「フレーム数f5〜f7」及び「フレーム数f7〜f9」において、フレーム数f3〜f5と同様の動作を繰り返したとする。そして、ユーザが操作部160を操作したことにより、フレーム数f10において、フォーカス指示又は撮影指示がCPU190に入力されたとする。
図28には、図27に示された合焦駆動の例における、フレーム数f10〜f12部分の拡大図が示されている。ここで、縦軸はレンズ位置を示す。また、横軸はフレーム数を示す。制御部194は、フレーム数f10において、デフォーカス−駆動パルステーブル(図24を参照)に基づいて、合焦位置を中心とする合焦位置の予測範囲を定める。そして、制御部194は、予測範囲について、コントラストスキャンを実行しながら、コントラスト値がピークを示した合焦位置を一旦通過して、フレーム数f11において、評価値Edを内挿により算出する。
さらに、フレーム数f11〜12において、制御部194は、内挿により算出した合焦位置に、AFレンズ112を戻す(合焦位置駆動)。
以上のように、焦点調節装置191は、焦点調節を行うためのAFレンズ112を有するレンズ鏡筒111から入射される被写体像を含む画像を構成する色成分毎に、被写体像のエッジを検出するエッジ検出部192と、エッジ検出部192が色成分毎に検出したエッジに基づいて、画像における合焦状態及び非合焦状態の分布を検出する分布検出部193と、分布検出部193が検出した分布の履歴を含む「デフォーカス−駆動パルステーブル」を作成し、その履歴に基づいて、被写体像に合焦させるようにAFレンズ112を移動させる制御部194と、を備える。
これにより、焦点調節装置191は、一度も合焦されていない被写体像に、デフォーカス−駆動パルステーブルを参照しない場合と比較して、より速やかに合焦させることができる。
[第3実施形態]
本発明の第3実施形態について図面を参照して詳細に説明する。第3実施形態では、分布検出部193が、画素ずらしによる画素値の差分データ(自己相関)を評価値として、デフォーカス量を算出する点が、第1及び2実施形態と異なる。以下では、第1及び2実施形態との相違点についてのみ説明する。
図29には、動画撮像モードを有する焦点調節装置191の動作を示すフローチャートが示されている。CPU190は、撮像装置100を動画撮像モードに設定する(ステップSe1)。ここで、CPU190は、操作部180が受け付けたユーザの操作入力に基づいて、撮像装置100を動画撮像モードに設定してもよい。これにより、CPU190は、撮像装置110が撮像した画像を、動画として画像処理するように画像処理部140を制御する。
画像処理部140は、1/30間引きデータを取得する(ステップSe2)。ここで、1/30間引きデータとは、30分の1秒ごとに撮像素子119から出力されるスルー画像であって、その一部が間引かれたことで解像度が低くなったスルー画像である。そして、CPU190は、撮像部110を制御して、自動露出(AE)処理を実行する(ステップSe3)。
焦点調節装置191の制御部194は、初回の合焦駆動を実行する。この合焦駆動における合焦方式は、例えば、コントラストAF方式でもよいし、その他の合焦方式(位相差検出方式など)でもよく、その方式は適宜選択されてよい。そして、エッジ検出部192は、スルー画像から色成分量のコントラストが高い領域を、評価値を評価する評価エリアとして選択する(ステップSe4)。
制御部194は、コントラストスキャンを実行し、AFレンズ112をスキャン駆動させる(ステップSe5)。そして、エッジ検出部192は、評価エリア内にて、スルー画像を水平方向に1画素ずらす。さらに、エッジ検出部192は、水平方向に1画素ずらしたスルー画像と、元のスルー画像との画素値(例えば、色成分量)の差分データを、色チャネル毎に算出(採取)する(ステップSe6)。
分布検出部193は、Gチャネルの差分データ数の10%について、差分データのヒストグラムを作成し、差分データの平均値を算出する(ステップSe7)。なお、分布検出部193は、Gチャネルの差分データ数の全数について、差分データのヒストグラムを作成してもよい。
図30(A)には、合焦状態における差分データのヒストグラムが示されている。また、図30(B)には、非合焦状態における差分データのヒストグラムが示されている。そして、図30(A)及び(B)の横軸は、差分データを示す。また、縦軸は、差分データの頻度を示す。
非合焦状態では、デフォーカス量が多いため、隣接する画素同士の画素値の差(隣接差)は、合焦状態での隣接差と比較して少ない。このため、ヒストグラムは、差分データが小さいほうにシフトする。したがって、図13(A)に示された合焦状態での差分データの平均値「Ave」と、図13(B)に示された非合焦状態での差分データの平均値「Ave1」には、「Ave>Ave1」という大小関係がある。このため、平均値が予め定められた閾値よりも小さくなった場合、分布検出部193は、スルー画像が非合焦状態であると判定する。
図29に戻り、焦点調節装置191の動作の説明を続ける。画像処理部140は、1/30間引きデータを新たに取得する(ステップSe8)。そして、エッジ検出部192は、評価エリア内にて、スルー画像を水平方向に1画素ずらす。さらに、エッジ検出部192は、水平方向に1画素ずらしたスルー画像と、元のスルー画像との画素値(例えば、色成分量)の差分データを、色チャネル毎に算出(採取)する。さらに、分布検出部193は、差分データ数の10%について、差分データのヒストグラムを作成し、差分データの平均値を色チャネル毎に算出する(ステップSe9)。なお、分布検出部193は、差分データ数の全数について、差分データのヒストグラムを色チャネル毎に作成してもよい。
Gチャネルの差分データの平均値が予め定められた閾値よりも小さくなった場合、分布検出部193は、スルー画像が非合焦(デフォーカス)状態であると判定する(ステップSe10)。さらに、分布検出部193は、Rチャネルの差分データの平均値の変化と、Bチャネルの差分データの平均値の変化とに基づいて、被写体像のエッジが前ピン状態であるか又は後ピン状態であるかを判定する(ステップSe11)。
例えば、分布検出部193は、Rチャネルの差分データの平均値の変化が、Bチャネルの差分データの平均値の変化よりも大きい場合には、被写体像のエッジが前ピン状態であると判定してもよい。
そして、制御部194は、スキャン領域を限定して、コントラストスキャンを実行する(ステップSe12)。
以上のように、焦点調節装置191は、画像を水平方向に1画素ずらして、元の画像との差分データを算出することにより、スキャン領域を限定して、コントラストスキャンを実行する。これにより、制御部194は、通常コントラストスキャンを実行した場合と比較して、軽い処理負荷で短時間に合焦駆動を終了させる。したがって、焦点調節装置191は、一度も合焦されていない被写体像に、速やかに合焦させることができる。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
例えば、スポット光(点光源)を有する被写体像に対して、コントラストスキャンを実行した場合、コントラスト値のピークが複数存在するため、合焦位置を限定できない場合が多い。そこで、焦点調節装置191は、上述した評価値に基づいて、スポット光被写体のコントラストAFの性能を向上させてもよい。
図31には、スポット光を判定する焦点調節装置191の動作を示すフローチャートが示されている。画像処理部140は、スルー画像(間引きVGA解像)を撮像部110から取得する(ステップSf1)。ここで、画像処理部140がスルー画像を取得する周期は、通常よりも短い周期(間隔レート)であってもよい。そして、CPU190は、撮像部110を制御して、debayer(色補間)処理を実行させる。また、画像処理部140は、取得したスルー画像に対して、画像処理を実行する。例えば、画像処理部140は、取得したスルー画像に対して、ホワイトバランス調整処理、ノイズ低減処理、を実行する(ステップSf2)。
分布検出部193は、色成分量のヒストグラムを作成し、ヒストグラムにクリップチャネルがあるか否かを判定する(ステップSf3)。ここで、クリップチャネルとは、色成分量が飽和したチャネルである。なお、分布検出部193は、輝度値のヒストグラムを作成してもよい。
クリップチャネルがある場合、分布検出部193は、クリップ(飽和)が発生している画素の周辺にスポット光があると判定し、その周辺について有効エッジを検索する(ステップSf4)。そして、高解像の画像(間引かれていない画像)を使用して有効エッジを検索するため、画像処理部140は、高解像の画像を撮像部110から取得する(マルチスケールウィンドウ)。分布検出部193は、高解像の画像において、クリップ(飽和)が発生している画素の周辺について、有効エッジを検索する(ステップSf5)。
分布検出部193は、上述したように、エッジの情報を基にLSFを算出して、色チャネル毎にLSFを比較する。そして、分布検出部193は、上述したように、方向指標と、デフォーカス量を算出する(ステップSf6)。そして、制御部194は、方向指標と、デフォーカス量とに基づいて、AFレンズ112を駆動させる(ステップSf7)。
このように、焦点調節装置191は、クリップ(飽和)が発生している画素の周辺について有効エッジを検索するので、スポット光被写体のコントラストAFの性能を向上させることができる。また、撮像装置100は、焦点調節装置191がスポット光を検出(シーン検出)した結果に基づいて、撮像条件(例えば絞り値、露出値等)を変更してもよい。
また、例えば、撮像装置100は、焦点調節装置191が算出した方向指標とデフォーカス量に基づいて、撮像モードを「マクロ(接写)撮像モード」に切り替えてもよい。図32には、マクロ撮像モードへの切り替え判定動作を説明するための図が示されている。AFレンズ112の位置が最至近にある場合に、分布検出部193は、被写体像が前ピン状態であると判定したとする。そして、撮像装置100のCPU190は、焦点調節装置191が算出した方向指標(前ピン状態)とデフォーカス量に基づいて、撮像モードを「マクロ(接写)撮像モード」に切り替える。これにより、制御部194は、通常コントラストスキャンにおける至近よりも更に至近側にある「マクロ(接写)の至近域」にスキャン範囲を限定して、コントラストスキャンを実行する。
このように、撮像装置100は、焦点調節装置191が算出した方向指標(前ピン状態)とデフォーカス量とに基づいて、ユーザの操作入力によらずに、撮像モードを「マクロ(接写)撮像モード」に切り替えることができる。
また、例えば、色チャネルは、RGB以外による色空間表現形式で表現されてもよい。例えば、色チャネルは、色差(YCbCr、YUVなど)による色空間表現形式で表現されてもよい。
また、例えば、分布検出部193は、同一色で被写体像をグルーピングした結果に基づいてブロックを細分化し、被写体像をラベリングしてもよい。
また、例えば、分布検出部193は、有効なエッジが検出されたかった場合、画像の解像度を変更してもよい。また、分布検出部193は、超解像処理を実行してもよい。
また、例えば、上記で説明した各プロファイル、各パラメータ、各閾値は、ズームポジション、像高、合焦レンジポジションに応じて、変更されてもよい。
また、例えば、分布検出部193は、一定周期で算出した評価値の履歴に基づいて、評価値の変化が少ないと判定した場合には、被写体の動きが少ないものとして、評価値を算出する周期を長くしてもよい。このようにすれば、分布検出部193は、評価値を算出する演算負荷を軽くすることができる。
また、例えば、MTFの代わりに、SFR(Spatial Frequency Response))が用いられてもよい。
<焦点調節するためのエッジを複数のエッジから選択する方法について>
複数のエッジが画像に存在する場合、焦点調節装置は、複数のエッジから優先順位に応じて上位のエッジを、予め定められたN個(Nは、1以上の整数)選択し、選択したエッジに基づいて焦点調節する(例えば、図19のステップS11を参照)。このように複数のエッジが画像に存在する場合において、焦点調節装置が焦点調節するためのエッジを選択する方法について、以下に説明する。
分布検出部193(図1を参照)は、エッジ検出部192が色成分毎に検出したエッジのうち、パワーが強い(色成分量が多い)順に上位のエッジを選択する。また、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジのうち、色成分のコントラストが高い順に上位のエッジを選択する。
ここで、エッジ同士で色成分のコントラストが同じであって、色成分の信号対雑音比(S/N比)が異なるエッジが混在している場合、分布検出部193は、色成分の信号対雑音比が高い順に上位のエッジを選択する。また、エッジ同士で色成分の信号対雑音比が同じであって、色成分のコントラストが異なるエッジが混在している場合、分布検出部193は、色成分のコントラストが高い順に上位のエッジを選択する。
また、エッジ同士で色成分の信号対雑音比が同じでない場合、分布検出部193は、信号対雑音比が相対的に低く且つコントラストが相対的に高いエッジと、信号対雑音比が相対的に高く且つコントラストが相対的に低いエッジとのうち少なくとも一方を選択する。
図33は、色成分の信号対雑音比が異なるエッジが混在している場合に選択されるエッジの優先順位を説明するための図である。縦軸は、色成分量を示す。また、横軸は、軸Dにおける位置(図7を参照)を示す。図33(A)には、信号対雑音比が相対的に高く且つコントラストが相対的に低いエッジが示されている。一方、図33(B)には、信号対雑音比が相対的に低く且つコントラストが相対的に高いエッジが示されている。色成分の信号対雑音比がエッジ同士で同じでない場合、これらのエッジのうち少なくとも一方が、分布検出部193により選択される。
分布検出部193(図1を参照)は、白及び黒の色成分により構成されたエッジを選択する。また、白及び黒の色成分により構成されたエッジが無い場合、分布検出部193は、エッジ検出部192が色成分毎に検出したエッジのうち、2原色以上含まれ且つ色成分が同位相で変化するエッジを選択する。エッジに2原色含まれている場合、分布検出部193は、緑色成分(Gチャネル)を含むエッジを選択する。また、エッジに緑色成分が含まれていない場合、分布検出部193は、青色成分(Bチャネル)を含むエッジを選択する。
図34は、2原色含まれる場合に選択されるエッジの優先順位を示す図である。縦軸は、色成分量を示す。また、横軸は、軸Dにおける位置(図7を参照)を示す。図34(A)には、同位相で変化するRチャネル及びGチャネルにより構成されたエッジが示されている。また、図34(B)には、同位相で変化するRチャネル及びGチャネルにより構成されたエッジであって、Rチャネルのコントラストが、図34(A)に示すRチャネルのコントラストと比較して低いエッジが示されている。また、図34(C)には、同位相で変化するRチャネル及びBチャネルにより構成されたエッジが示されている。
これらのエッジのうち優先順位が最も高いエッジは、緑色成分(Gチャネル)が含まれ且つコントラストが高い、図34(A)に示されたエッジである。一方、これらのエッジのうち優先順位が最も低いエッジは、緑色成分が含まれていない、図34(C)に示されたエッジである。緑色成分が含まれているエッジは、撮像素子119(図1を参照)により、精度良く検出される。
分布検出部193(図1を参照)は、エッジ検出部192が色成分毎に検出したエッジのうち、予め定められた幅以上に色成分が平坦であるエッジを選択する。図35は、色成分が平坦である1本のエッジを横切る位置に応じた色成分量の変化と、複数本のエッジを横切る位置に応じた色成分量の変化とを説明するための図である。図35(A)(B)の各縦軸は、色成分量を示す。また、図35(A)の横軸は、1本のエッジを横切る位置、すなわち軸Dにおける位置(図7を参照)を示す。また、図35(B)の横軸は、複数本のエッジを横切る位置を示す。
図35(A)には、色成分が平坦である1本のエッジを横切る位置に応じた色成分量の変化が示されている。図35(A)では、エッジは、予め定められた幅W1及びW2以上に色成分量が平坦である。ここで、平坦であるエッジの幅については、幅W1及びW2が定められる代わりに、色成分量に勾配が在る範囲を含む幅W3及びW4が定められてもよい。一方、図35(B)には、複数本のエッジを横切る位置に応じた色成分量の変化が示されている。図35(B)では、各エッジは、色成分量が平坦で無い。したがって、これらのエッジのうち優先順位が最も高いエッジは、予め定められた幅以上に色成分が平坦である、図35(A)に示されたエッジである。
分布検出部193(図1を参照)は、エッジ検出部192が色成分毎に検出したエッジのうち、色成分の信号対雑音比に応じて定まる長さ以上のエッジを選択する。例えば、分布検出部193は、色成分の信号対雑音比が低いほど、長いエッジを選択する。
次に、優先順位に応じて上位のエッジを選択する手順について説明する。
図36は、優先順位に応じて上位のエッジを選択する手順を示すフローチャートである。
エッジ検出部192は、複数のエッジを検出したとする(ステップSg1)。
分布検出部193は、エッジ検出部192により検出されたエッジの強度(パワー、色成分量)を検出する(ステップSg2)。
エッジ検出部192は、検出したエッジの強度に基づいて、優先順位が上位N個のエッジを選択する。例えば、エッジ検出部192は、色成分量が多いエッジを追尾対象に設定する(ステップSg3)。
分布検出部193は、選択したエッジを構成する色成分に基づいて(図34を参照)、優先順位が上位のエッジを選択する。例えば、エッジに2原色含まれている場合、分布検出部193は、緑色成分(Gチャネル)を含むエッジを選択する(ステップSg4)。
分布検出部193は、選択したエッジのコントラストに基づいて(図33を参照)、優先順位が上位のエッジを選択する。例えば、分布検出部193は、隣接する画素同士における色成分量の差(隣接差)が多い順に上位のエッジを選択する(ステップSg5)。
分布検出部193は、選択したエッジの色成分の信号対雑音比、及び波形において平坦になっている範囲の幅に基づいて(図35を参照)、優先順位が上位のエッジを選択する(ステップSg6)。
分布検出部193は、色成分の信号対雑音比に応じて定まる長さ以上のエッジを選択する。例えば、分布検出部193は、色成分の信号対雑音比が低いほど、長いエッジを選択する(ステップSg7)。
分布検出部193は、エッジの識別情報であるエッジアドレスを登録する。すなわち、分布検出部193は、最終的に選択された上位のエッジを追尾対象として設定する(ステップSg8)。
制御部194は、エッジの評価値に基づいて、前ピン状態であるか又は後ピン状態であるかと、AFレンズ112の位置とを判定する。すなわち、制御部194は、分布検出部193が検出した合焦状態及び非合焦状態の分布に基づいて、被写体像のエッジに合焦させるようにAFレンズ112を移動させる。ここで、制御部194は、AFレンズ112の移動方向を限定して、コントラストスキャンを実行する(ステップSg9)。
なお、分布検出部193は、エッジの色成分の代わりにエッジの輝度に基づいて、優先順位が上位のエッジを選択してもよい。
また、図16、19、20、23、26、29、31及び36を用いて説明した手順を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
100…撮像装置、110…撮像部、111…レンズ鏡筒、190…CPU、191…焦点調節装置、192…エッジ検出部、193…分布検出部、194…制御部。

Claims (11)

  1. 被写体を撮像する撮像部で生成された画像データから色成分毎に前記被写体に含まれるエッジ部分を検出するエッジ検出部と、
    線広がり関数に基づいて、前記エッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成する分布検出部と、
    前記分布検出部で作成された前記マップにより、前記撮像部に前記被写体の像を導くレンズを、前記撮像部の撮像面に合焦させる方向に移動させる制御部と、を備え、
    前記マップは、前記レンズを移動させる方向を示す指標と、デフォーカス量に関する値と、が示されることを特徴とする焦点調節装置。
  2. 前記分布検出部は、線広がり関数の標準偏差又は半値幅に基づいて、前記デフォーカス量を検出することを特徴とする請求項に記載の焦点調節装置。
  3. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、色成分量が多い順に上位のエッジ部分を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項1又は請求項2に記載の焦点調節装置。
  4. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、色成分のコントラストが高い順に上位のエッジ部分を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項1から請求項3のいずれか1つに記載の焦点調節装置。
  5. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、エッジ部分の色成分のコントラストが同じであって、信号対雑音比が異なるエッジ部分が混在している場合、信号対雑音比が高い順に上位のエッジを選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項に記載の焦点調節装置。
  6. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、色成分の信号対雑音比が異なるエッジ部分が混在している場合、信号対雑音比が相対的に低く且つコントラストが相対的に高いエッジ部分と、信号対雑音比が相対的に高く且つコントラストが相対的に低いエッジ部分とのうち少なくとも一方を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項に記載の焦点調節装置。
  7. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、2原色以上含まれ且つ色成分が同位相で変化するエッジ部分を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項1から請求項6のいずれか1つに記載の焦点調節装置。
  8. 前記分布検出部は、前記エッジ部分に2原色含まれている場合、緑色成分を含むエッジを選択することを特徴とする請求項に記載の焦点調節装置。
  9. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、予め定められた幅以上に色成分が平坦であるエッジ部分を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項1から請求項のいずれか1つに記載の焦点調節装置。
  10. 前記分布検出部は、前記エッジ検出部により検出された前記エッジ部分のうち、色成分の信号対雑音比に応じて定まる長さ以上のエッジ部分を選択し、該選択したエッジ部分の合焦状態及び非合焦状態の分布を示すマップを作成することを特徴とする請求項1から請求項9のいずれか1つに記載の焦点調節装置。
  11. コンピュータに、
    被写体を撮像する撮像部で生成された画像データから色成分毎に前記被写体に含まれるエッジ部分を検出する手順と、
    線広がり関数に基づいて、前記エッジ部分の合焦状態及び非合焦状態の分布を示すマップであり、前記レンズを移動させる方向を示す指標と、デフォーカス量に関する値と、が示される前記マップを作成する手順と、
    前記作成する手順で作成された前記マップにより、前記撮像部に前記被写体の像を導くレンズを、前記撮像部の撮像面に合焦させる方向に移動させる作成する手順と、
    を実行させるための焦点調節プログラム。
JP2011026263A 2010-02-15 2011-02-09 焦点調節装置、及び焦点調節プログラム Active JP5757099B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011026263A JP5757099B2 (ja) 2010-02-15 2011-02-09 焦点調節装置、及び焦点調節プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010030481 2010-02-15
JP2010030481 2010-02-15
JP2011026263A JP5757099B2 (ja) 2010-02-15 2011-02-09 焦点調節装置、及び焦点調節プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015115246A Division JP5994904B2 (ja) 2010-02-15 2015-06-05 焦点調節装置

Publications (2)

Publication Number Publication Date
JP2011186452A JP2011186452A (ja) 2011-09-22
JP5757099B2 true JP5757099B2 (ja) 2015-07-29

Family

ID=44367889

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011026263A Active JP5757099B2 (ja) 2010-02-15 2011-02-09 焦点調節装置、及び焦点調節プログラム
JP2015115246A Active JP5994904B2 (ja) 2010-02-15 2015-06-05 焦点調節装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015115246A Active JP5994904B2 (ja) 2010-02-15 2015-06-05 焦点調節装置

Country Status (4)

Country Link
US (3) US9066001B2 (ja)
JP (2) JP5757099B2 (ja)
CN (1) CN102844705B (ja)
WO (1) WO2011099626A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11323610B2 (en) 2018-09-28 2022-05-03 Samsung Electronics Co., Ltd. Autofocus method and electronic device performing same

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5757099B2 (ja) * 2010-02-15 2015-07-29 株式会社ニコン 焦点調節装置、及び焦点調節プログラム
JP2011223562A (ja) * 2010-03-23 2011-11-04 Fujifilm Corp 撮像装置
CN102158730B (zh) * 2011-05-26 2014-04-02 威盛电子股份有限公司 影像处理系统及方法
CN102158731B (zh) * 2011-05-26 2014-03-12 威盛电子股份有限公司 影像处理系统及方法
US9407809B2 (en) 2013-11-27 2016-08-02 Qualcomm Incorporated Strategies for triggering depth sensors and transmitting RGBD images in a cloud-based object recognition system
JP6464553B2 (ja) * 2013-11-28 2019-02-06 株式会社ニコン レンズ駆動制御装置、電子カメラ及びレンズ駆動制御プログラム
JP6349703B2 (ja) * 2013-12-03 2018-07-04 株式会社ニコン 電子カメラ及び画像処理プログラム
JP5874753B2 (ja) * 2014-01-28 2016-03-02 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
JP6478496B2 (ja) * 2014-07-03 2019-03-06 キヤノン株式会社 撮像装置およびその制御方法
WO2016185952A1 (ja) * 2015-05-18 2016-11-24 ソニー株式会社 制御装置及び医療用撮像システム
FR3046256B1 (fr) * 2015-12-23 2018-01-05 Thales Zoom plenoptique a portee optimisee
CN106937107B (zh) * 2015-12-29 2019-03-12 宁波舜宇光电信息有限公司 基于色差的摄像模组调焦方法
US20170321987A1 (en) * 2016-05-05 2017-11-09 Coriolis Games Corporation Simulated firearm with target accuracy detection, and related methods and systems
JP6742178B2 (ja) * 2016-07-19 2020-08-19 日本放送協会 Mtf測定装置およびそのプログラム
JP6742180B2 (ja) * 2016-07-21 2020-08-19 日本放送協会 Mtf測定装置及びそのプログラム
CN106331499B (zh) * 2016-09-13 2019-10-29 努比亚技术有限公司 对焦方法及拍照设备
CN106504279B (zh) * 2016-10-18 2019-02-19 安庆师范大学 彩色图像自动聚焦方法
JP6967382B2 (ja) * 2017-01-13 2021-11-17 日本放送協会 Mtf測定装置およびそのプログラム
US10798316B2 (en) * 2017-04-04 2020-10-06 Hand Held Products, Inc. Multi-spectral imaging using longitudinal chromatic aberrations
WO2018207400A1 (ja) * 2017-05-09 2018-11-15 三菱電機株式会社 Mtf測定装置およびmtf測定方法
US11074677B2 (en) 2018-03-29 2021-07-27 Dolby Laboratories Licensing Corporation Dynamic range extension of partially clipped pixels in captured images
JP2018163365A (ja) * 2018-06-07 2018-10-18 株式会社ニコン 画像処理装置
CN109078342B (zh) * 2018-08-17 2020-03-27 浙江大丰实业股份有限公司 舞台吊杆高度维护系统
DE102019117293B3 (de) * 2019-06-27 2020-11-05 Carl Zeiss Smt Gmbh Vorrichtung zur Vermessung von Masken für die Mikrolithographie und Autofokussierverfahren
CN110807745B (zh) * 2019-10-25 2022-09-16 北京小米智能科技有限公司 图像处理方法及装置、电子设备
JP7405678B2 (ja) 2020-04-01 2023-12-26 株式会社Screenホールディングス 合焦位置検出方法、合焦位置検出装置および合焦位置検出用プログラム
TWI790758B (zh) * 2021-09-24 2023-01-21 致茂電子股份有限公司 應用軸向色差的對焦方法及使用該方法的光學檢測架構
WO2023150671A1 (en) * 2022-02-04 2023-08-10 Arizona Board Of Regents On Behalf Of The University Of Arizona Methods, systems and devices for increasing image resolution and dynamic range
US11852895B2 (en) 2022-02-28 2023-12-26 e-con Systems India Private Limited System and method for obtaining optimal focus of an image capturing device

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62115408A (ja) * 1985-11-15 1987-05-27 Tamuron:Kk 固体撮像素子を有するカメラの合焦検出装置
JPS6394212A (ja) * 1986-10-08 1988-04-25 Canon Inc 合焦検出装置
JPH01246516A (ja) * 1988-03-29 1989-10-02 Sony Corp 焦点位置検出装置
JPH03136012A (ja) * 1989-10-23 1991-06-10 Olympus Optical Co Ltd 合焦検出装置
JPH03204277A (ja) * 1990-01-05 1991-09-05 Canon Inc 合焦検出方法
JPH0545574A (ja) 1991-08-14 1993-02-23 Sony Corp ビデオカメラ
JP3482013B2 (ja) * 1993-09-22 2003-12-22 ペンタックス株式会社 光学系のピント評価方法、調整方法、調整装置、およびチャート装置
JPH08248302A (ja) * 1995-03-14 1996-09-27 Nikon Corp 自動焦点検出装置
KR100197609B1 (ko) 1996-07-27 1999-06-15 윤종용 비데오카메라의 줌(zoom)기능 수행방법 및 그 장치
US6088539A (en) 1997-12-24 2000-07-11 Canon Kabushiki Kaisha Optical apparatus with focus adjusting function and focus adjustment control circuit
JP3630965B2 (ja) 1997-12-24 2005-03-23 キヤノン株式会社 焦点検出装置、カメラ及び焦点検出方法
CN1815359A (zh) * 1998-01-27 2006-08-09 诺日士钢机株式会社 底片扫描器、缺陷识别方法和图像修复方法
JP2000216978A (ja) * 1999-01-22 2000-08-04 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP2000338385A (ja) * 1999-05-28 2000-12-08 Ricoh Co Ltd 自動合焦装置およびその合焦方法
JP2001141988A (ja) * 1999-08-31 2001-05-25 Canon Inc 焦点調節装置及びその制御方法及びその制御プログラムを供給する媒体
JP2002122774A (ja) * 2000-10-16 2002-04-26 Nec Corp 焦点位置決定システムおよび焦点位置決定方法
JP2002214513A (ja) * 2001-01-16 2002-07-31 Minolta Co Ltd 光学系制御装置、光学系制御方法および記録媒体
JP2003262783A (ja) * 2002-03-08 2003-09-19 Minolta Co Ltd オートフォーカス装置および撮像装置
JP3748446B2 (ja) * 2003-12-19 2006-02-22 株式会社メガチップス 画像入力装置の画像処理回路
EP1746846B1 (en) * 2004-04-12 2019-03-20 Nikon Corporation Image processing device having color shift-correcting function, image processing program, and electronic camera
US20060078217A1 (en) * 2004-05-20 2006-04-13 Seiko Epson Corporation Out-of-focus detection method and imaging device control method
JP4661084B2 (ja) * 2004-05-20 2011-03-30 セイコーエプソン株式会社 ミスフォーカス判定方法およびこれに関するプログラム
JP2007139894A (ja) 2005-11-15 2007-06-07 Olympus Corp 撮像装置
KR100866490B1 (ko) * 2007-01-17 2008-11-03 삼성전자주식회사 영상의 색 수차를 보정하기 위한 장치 및 방법
JP4332566B2 (ja) * 2007-03-23 2009-09-16 キヤノン株式会社 撮像装置
JP5036421B2 (ja) 2007-06-25 2012-09-26 シリコン ヒフェ ベー.フェー. 画像処理装置、画像処理方法、プログラムおよび撮像装置
WO2009001956A1 (ja) 2007-06-25 2008-12-31 Acutelogic Corporation 画像処理装置、画像処理方法、プログラムおよび撮像装置
KR101399012B1 (ko) * 2007-09-12 2014-05-26 삼성전기주식회사 영상 복원 장치 및 방법
US8264591B2 (en) * 2007-10-22 2012-09-11 Candela Microsystems (S) Pte. Ltd. Method and system for generating focus signal
ATE498546T1 (de) * 2008-07-16 2011-03-15 Torqeedo Gmbh HALTERUNG FÜR EINEN AUßENBORDMOTOR
WO2010061352A2 (en) * 2008-11-26 2010-06-03 Hiok Nam Tay Auto-focus image system
WO2010104969A1 (en) * 2009-03-11 2010-09-16 Zoran Corporation Estimation of point spread functions from motion-blurred images
US9131142B2 (en) * 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
US8958009B2 (en) * 2010-01-12 2015-02-17 Nikon Corporation Image-capturing device
JP5757099B2 (ja) * 2010-02-15 2015-07-29 株式会社ニコン 焦点調節装置、及び焦点調節プログラム
US8724009B2 (en) * 2010-05-05 2014-05-13 Hiok Nam Tay Auto-focus image system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11323610B2 (en) 2018-09-28 2022-05-03 Samsung Electronics Co., Ltd. Autofocus method and electronic device performing same

Also Published As

Publication number Publication date
JP2011186452A (ja) 2011-09-22
US20130016275A1 (en) 2013-01-17
US9066001B2 (en) 2015-06-23
JP5994904B2 (ja) 2016-09-21
US20150264252A1 (en) 2015-09-17
CN102844705B (zh) 2017-04-12
JP2015200903A (ja) 2015-11-12
CN102844705A (zh) 2012-12-26
WO2011099626A1 (ja) 2011-08-18
US20180115698A1 (en) 2018-04-26
US9883095B2 (en) 2018-01-30

Similar Documents

Publication Publication Date Title
JP5994904B2 (ja) 焦点調節装置
US9204034B2 (en) Image processing apparatus and image processing method
JP2004037733A (ja) オートフォーカス装置
JP2017201818A (ja) 領域抽出装置
JP6156532B2 (ja) 領域抽出装置、撮像装置、及び領域抽出プログラム
JP2018163365A (ja) 画像処理装置
US11838628B2 (en) Image capturing apparatus, control method therefor, and storage medium
JP5673454B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5899693B2 (ja) 領域抽出装置、撮像装置、及び領域抽出プログラム
JP5786460B2 (ja) 領域抽出装置、撮像装置、及び領域抽出プログラム
JP6003974B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016201600A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6508259B2 (ja) 撮像装置、及びプログラム
JP6464553B2 (ja) レンズ駆動制御装置、電子カメラ及びレンズ駆動制御プログラム
JP5899700B2 (ja) 領域抽出装置、撮像装置、及び領域抽出プログラム
JP2015108670A (ja) 画像処理装置、電子カメラ及び画像処理プログラム
JP5888069B2 (ja) 領域判定装置、撮像装置、及び領域判定プログラム
JP6238673B2 (ja) 画像処理装置、撮像装置、撮像システム、画像処理方法、画像処理プログラム、および、記憶媒体
JP2018054815A (ja) 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置
JP6350562B2 (ja) 領域抽出装置、撮像装置、及び領域抽出プログラム
JP2011147076A (ja) 画像処理装置、撮像装置およびプログラム
JP7020387B2 (ja) 撮像制御装置、撮像装置及び撮像制御プログラム
JP2019126090A (ja) 撮像装置、及びプログラム
JP2004219461A (ja) 撮像装置およびオートフォーカス装置
JP2018181357A (ja) 領域抽出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150520

R150 Certificate of patent or registration of utility model

Ref document number: 5757099

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250