JP2018054815A - 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置 - Google Patents

領域判別装置、その制御方法、および制御プログラム、並びに撮像装置 Download PDF

Info

Publication number
JP2018054815A
JP2018054815A JP2016189766A JP2016189766A JP2018054815A JP 2018054815 A JP2018054815 A JP 2018054815A JP 2016189766 A JP2016189766 A JP 2016189766A JP 2016189766 A JP2016189766 A JP 2016189766A JP 2018054815 A JP2018054815 A JP 2018054815A
Authority
JP
Japan
Prior art keywords
focus
focus detection
area
image data
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016189766A
Other languages
English (en)
Inventor
阿佑美 加藤
Ayumi Kato
阿佑美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016189766A priority Critical patent/JP2018054815A/ja
Publication of JP2018054815A publication Critical patent/JP2018054815A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

【課題】背景領域などの被写体領域以外の他の領域を判別して特定するまでに要する時間を短縮する。【解決手段】フォーカスレンズ104を備える撮像光学系を介して撮像して得られた画像データにおいて特定の領域と当該特定の領域以外の他の領域を判別する際、CPU113は画像データが示す画像に設定された複数の焦点検出領域の各々においてフォーカスレンズの焦点状態を検出して焦点検出結果を得て、CPUの制御下で画像処理部は特定の領域から無限端側に第1の距離だけ離れた第1の位置と合焦位置から無限端側に1の距離よりも大きい第2の距離だけ離れた第2の位置とに基づいて規定されたフォーカスレンズの探索範囲における焦点検出結果に応じて前記他の領域を判別する。【選択図】図4

Description

本発明は、領域判別装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、背景ぼかし処理の際の背景領域の判別処理に関する。
デジタルカメラ又はデジタルビデオカメラなどの撮像装置において、被写体以外の領域について画像処理を行う機能が備えられたものがある。当該機能の一つとして、例えば、撮像によって得られた画像データにおいて背景領域に対して、疑似的にぼかし効果を与える機能がある。
ところで、一眼レフカメラのように大きい撮像素子を備える撮像装置では、絞りを開いて焦点距離を長くすることで被写界深度が浅くなる。このため、合焦した被写体以外の背景をぼかした画像データを得ることは比較的容易である。一方、コンパクトデジタルカメラなどのように小さい撮像素子を備える撮像装置では、一眼レフカメラと同様の手法を用いたとしても、被写界深度が深くなる傾向にある。よって、背景をぼかした画像データを得ることは困難である。
このような問題に対処するため、撮像によって得られた画像データにおいて被写体領域と背景領域とを判別して、背景領域にフィルタリング処理を施して背景がぼけた画像データを得る撮像装置がある(特許文献1参照)。
一方、画像データにおいて被写体領域と背景領域とを判別するためには、撮像画面に複数の測距領域を規定して、当該測距領域から測距結果を得る必要がある。つまり、測距領域毎に測距結果である距離情報を有する領域マップを作成する必要がある。
特開2013−3787号公報
上述のように、特許文献1に記載の撮像装置においては、被写体領域と背景領域とを判別する際には、測距領域毎に測距結果である距離情報を有する領域マップを作成する必要がある。よって、背景領域を判別するまでに時間が掛かってしまうことになる。
従って、本発明の目的は、背景領域などの被写体領域以外の領域を判別して特定するまでに要する時間を短縮することのできる領域判別装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。
上記の目的を達成するため、本発明による領域判別装置は、フォーカスレンズを備える撮像光学系を介して撮像して得られた画像データにおいて特定の領域と当該特定の領域以外の他の領域を判別する領域判別装置であって、前記画像データが示す画像に設定された複数の焦点検出領域の各々において前記フォーカスレンズの焦点状態を検出して焦点検出結果を得る焦点検出手段と、前記特定の領域の合焦位置から無限端側に第1の距離だけ離れた第1の位置と前記合焦位置から無限端側に前記1の距離よりも大きい第2の距離だけ離れた第2の位置とに基づいて前記フォーカスレンズの探索範囲を規定し、前記探索範囲における前記焦点検出結果に応じて前記他の領域を判別する判別手段と、を有することを特徴とする。
本発明によれば、背景領域などの特定の領域以外の他の領域を判別して特定するまでに要する時間を短縮することができる。
本発明の実施の形態による撮像装置の一例についてその構成を示すブロック図である。 図1に示す画像処理部の構成についてその一例示すブロック図である。 図2に示す前記領域判別回路の構成についてその一例を示すブロック図である。 図1に示すカメラで行われる背景ぼかし撮影処理の一例を説明するためのフローチャートである。 図4に示す背景選択処理と焦点検出処理を説明するためのフローチャートである。 図5に示す比較基データの取得を説明するための図である。 図5に示す背景候補選択処理を説明するためのフローチャートである。 図1に示すカメラで選択された背景候補による合焦領域の一例を説明するための図である。 背景ぼかし撮影処理の際に図2に示す画像処理部で行われる領域判別処理を説明するためのフローチャートである。
以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。
図1は、本発明の実施の形態による撮像装置の一例についてその構成を示すブロック図である。
図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、撮影レンズユニット(撮像光学系:以下単に撮影レンズと呼ぶ)101を有しており、撮影レンズ101にはズーム機構が含まれている。撮影レンズ101の後段には、光量を調節するための絞り及びシャッター102が配置され、さらに、フォーカスレンズ104が配置されている。フォーカスレンズ104は撮像素子107に光学像を結像するためのレンズである。つまり、フォーカスレンズ104は撮像素子107に焦点を合わせるためのレンズである。
AE処理部103は、システム制御部113の制御下で、後述する画像処理部109の出力に応じて絞り及びシャッター102を制御する。AF処理部106は、システム制御部113の制御下で、後述するようにモータ105を駆動制御してフォーカスレンズ104を光軸に沿って移動させる。
なお、図示の例では、フォーカスレンズ104が移動可能な移動範囲において、無限側のフォーカスレンズ104の位置を無限端、至近側のフォーカスレンズ104の位置を至近端と呼ぶ。また、所定のフォーカスレンズ104の位置を基準として無限端方向を遠側、至近端方向を近側と呼ぶ。
撮像素子107は、例えば、CMOSイメージセンサであり、撮像面に結像した光学像(被写体像)に応じた電気信号(アナログ画像信号)を出力する。A/D変換部108はアナログ画像信号を受けて、当該アナログ画像信号をA/D変換によって画像データに変換する。なお、A/D変換部108には、撮像素子107の出力ノイズを除去するCDS回路および非線形増幅回路が含まれている。
画像処理部109は、A/D変換部108出力である画像データに所定の画像処理を施す。そして、画像処理部109は画像データについてエッジ成分を用いた領域判別を行う。なお、領域判別に用いられる領域判別回路および領域判別の手法については後述する。さらに、画像処理部109は画像データついて、後述する背景ぼかし処理を行うとともに、ピントを合わせるべき被写体領域(例えば人物の顔など)を検出する。
フォーマット変換部110は画像処理部109の出力である画像データについて所定のフォーマット変換を行って、内蔵メモリ(例えば、DRAM)111に一旦記憶する。DRAM111は一時的に画像データを記憶する高速バッファとして用いられるとともに、画像データを圧縮伸張処理する際の作業用メモリとして用いられる。そして、DRAM111に記録された画像データは画像記録部112に保存される。なお、画像記録部112にはメモリーカードなどの記録媒体およびインターフェースが備えられている。
システム制御部(以下CPUと呼ぶ)113は撮影シーケンスなどを実行してカメラ全体の制御を行う。
DRAM111に記憶された画像データは画像表示用メモリ(VRAM)114に転送される。そして、CPU113はVRAM114に記録された画像データに応じた画像を画像表示部115に表示する。また、CPU113は操作補助のための情報表示、カメラ状態の表示の他、撮影の際の撮影画面および焦点検出領域を画像表示部115に表示する。
操作部116はユーザによって操作され、各種指示をCPU113に送る。操作部116には、例えば、メニュースイッチ、ズームレバー、および動作モード切換スイッチが備えられている。メニュースイッチはカメラによる撮影および画像再生の設定などの各種設定を行う場合に用いられる。ズームレバーは撮影レンズ101をズーム動作させる際に用いられる。動作モード切換スイッチは撮影モード又は再生モードに切り換える際に用いられる。
撮影モードスイッチ(SW)117は、例えば、マクロモード、遠景モード、およびスポーツモードなどの撮影モードを選択する際に用いられる。そして、CPU113は撮影モードスイッチ117によって選択された撮影モードに応じて焦点検出範囲および焦点検出動作などを変更する。
メインSW118はカメラの電源を投入する際に用いられる。レリーズスイッチにはスイッチ119(SW1)およびスイッチ120(SW2)が備えられており、SW1はAEなどの撮影スタンバイ動作をCPU113に指示するためのスイッチである。SW2はSW1の操作後に操作され、CPU113に撮影を指示する撮影スイッチである。
前述のAF処理部106は、モータ105を駆動制御してフォーカスレンズ104を光軸に沿って駆動し、後述する焦点検出領域において焦点検出を行う。焦点検出の際に用いられる手法として種々の手法が知られているが、ここでは、所謂コントラスト検出方式が用いられる。
AF処理部106では、画像データのコントラストに基づいて算出した焦点検出評価値を用いて撮影画面に設定された焦点検出領域における焦点状態の検出を行う。ここでは、焦点検出評価値が高い場合にはコントラストが高く、焦点検出評価値が低い場合にはコントラストが低い。そして、最もコントラストが高い、つまり、焦点検出評価値が最も高いフォーカスレンズ104の位置がピントの合っている状態となる。
なお、コントラスト検出方式の代わりに次の手法を用いるようにしてもよい。例えば、AF処理部106は、DFD(Depth From Defocus)によって焦点検出を行うようにしてもよい。具体的には、特開2006−3803号公報に記載の手法を用いて、焦点検出を行うようにしてもよい。
さらには、焦点検出方式として、例えば、撮像素子107の撮像面において位相差AF検出方式による焦点検出処理(撮像面位相差方式AF)を行うようにしてもよい。但し、撮像面位相差方式AFを行うには、撮像素子107は、被写体像を形成する撮影光学系の射出瞳の全域を通過する光束を受光する複数の撮像用画像を備える必要がある。さらに、撮像素子107は撮影光学系の異なる射出瞳の領域を通過する光束を受光する複数の焦点検出用画素も備える必要がある。
AF処理部106は、撮影光学系の一対の瞳領域を通過する光束によって焦点検出用画素に形成される一対の像のずれ量に基づいて撮像面位相差方式AFを行って、焦点検出を行う。撮像面位相差方式AFについては、例えば、特開2009−003122号公報に記載されているので、ここでは詳細な説明を省略する。
図2は、図1に示す画像処理部109の構成についてその一例示すブロック図である。
色変換マトリックス(MTX)回路201は、入力として撮影レンズ101を介して撮像して得られた画像データを受けて当該画像データに色ゲインを乗算して色差信号R−YおよびB−Yに変換する。ローパスフィルタ(LPF)回路202は、色差信号R−YおよびB−Yの帯域を制限するための回路である。CSUP(Chroma Supress)回路203は、LPF回路202で帯域制限された画像データにおいて飽和部分の偽色信号を抑圧する。
入力である画像データは輝度信号生成回路204にも送られる。輝度信号生成回路204は画像データから輝度信号Yを生成する。エッジ強調回路205は当該輝度信号Yにエッジ強調処理を行う。
RGB変換回路206は、CSUP回路203の出力である色差信号R−YおよびB−Yとエッジ強調回路205の出力である輝度信号YとをRGB信号に変換する。ガンマ補正回路207はRGB信号に対して階調補正処理を行う。そして、色輝度変換回路208は階調補正されたRGB信号をYUV信号に変換する。
領域判別回路209は、YUV信号を用いて画像データにおける被写体領域と背景領域とを判別する。なお、被写体領域および背景領域については後述する。
図3は、図2に示す前記領域判別回路209の構成についてその一例を示すブロック図である。
領域判別回路209は、エッジ検出部301、エッジ減算部302、エッジ積分値算出部303、エッジ積分値評価部304、および領域マップ生成部305を有している。なお、これら各ブロックにおける処理については後述する。
<背景ぼかし撮影処理>
図4は、図1に示すカメラで行われる背景ぼかし撮影処理(背景ぼかし処理)の一例を説明するためのフローチャートである。
なお、図示のフローチャートに係る処理は、例えば、メニュースイッチなどによって背景ぼかしモードが設定されている際に、スイッチSW1およびSW2がオンされた場合に行われる。また、図示のフローチャートに係る処理は、CPU113の制御下において画像処理部109などによって行われる。
背景ぼかしモードが設定されると、CPU113は、スイッチSW1がオンであるか否かを判定する(ステップS401)。スイッチSW1がオフであると(ステップS401において、NO)、CPU113は待機する。一方、スイッチSW1がオンとなると(ステップS401において、YES)、CPU113は、AF処理部106を制御して被写体となる焦点検出領域(被写体領域)の選択処理と焦点検出処理を行う(ステップS402)。
なお、被写体領域とは、焦点を合わせたい対象である被写体、例えば、人物の顔などの被写体が含まれている焦点検出領域のことをいう。但し、撮影画面には予め複数の焦点検出領域が規定されており、CPU113は焦点検出領域毎に焦点検出処理を行うものとする。ここでは、撮影画面には、5行×6列の格子状に30個の焦点検出領域が配置されている。
焦点検出処理の際には、CPU113の制御下で、AF処理部106は至近端から焦点検出を開始する。そして、AF処理部106は所定の間隔でフォーカスレンズ104の位置を無限方向に変更し、停止の指示があるまで焦点検出を繰り返す。なお、焦点検出を高速化するため、至近端から焦点検出を開始せず、ステップS401の時点におけるフォーカスレンズ104の位置を焦点検出の開始位置とし、無限方向に焦点検出を繰り返すようにしてもよい。
画像処理部109によって人物の顔などの被写体が検出されないと、CPU113は撮影画面の中央付近に配置された焦点検出領域から被写体領域とする焦点検出領域を選択する。例えば、撮影画面に5行×6列で30個の焦点検出領域を配置している場合には、撮影画面の中央付近に配置された3行×4列の焦点検出領域を対象として焦点検出が行われる。そして、焦点検出結果に基づいて次のようにして焦点検出領域を選択する。
例えば、CPU113は3行×4列の焦点検出領域のうち最も至近でピントが合う焦点検出結果を有する焦点検出領域を最至近焦点検出領域1とする。ここでは、最至近焦点検出領域1に係る焦点検出結果は最初に得られる。続いて、最至近焦点検出領域1に係る焦点検出結果を基準として、CPU113は遠側に所定の深度内である焦点検出結果を有する焦点検出領域でかつ隣接した焦点検出領域が存在するか否かを、近側から遠側に向って順次判定する。
以下の説明では、所定の深度を第1の所定深度(第5の所定被写界深度)と呼び、第1の所定深度の値は、1Fδとする。なお、1Fδとは、絞り値をF、許容錯乱円をδとした際に、Fとδの積で求められる値であり、焦点が合っている範囲を示す深度の単位である。
CPU113は、最初に焦点検出結果が得られたフォーカスレンズ104の位置から第1の所定深度まで進むと、一旦焦点検出を停止する。ここで、最至近焦点検出領域1に係る焦点検出結果を基準として第1の所定深度内(第1の所定被写界深度内)でかつ隣接した焦点検出領域があるとする。この場合には、CPU113は最至近焦点検出領域1に係る焦点検出結果を含めて、第1の所定深度内に焦点検出結果を有する全ての焦点検出領域を被写体領域とする。
複数の焦点検出領域を被写体領域とした場合には、CPU113は複数の焦点検出領域に係る焦点検出結果のうち最も近側の焦点検出結果、つまり、最至近焦点検出領域1に係る焦点検出結果を被写体領域の合焦位置として選択する。
一方、画像処理部109によって被写体が検出された場合には、CPU113は検出された被写体領域と重なる焦点検出領域において次のようにして焦点検出を行う。
CPU113は、検出された被写体領域と重なる焦点検出領域のうち最も至近でピントが合う焦点検出結果を有する焦点検出領域を最至近焦点検出領域2とする。ここでは、最至近焦点検出領域2に係る焦点検出結果は最初に得られる。続いて、最至近焦点検出領域2に係る焦点検出結果を基準として、CPU113は遠側に所定の深度内である焦点検出結果を有する焦点検出領域でかつ隣接した焦点検出領域が存在するか否かを至近から遠側に向って順次判定する。
以下の説明では、この所定の深度を第2の所定深度と呼び、第2の所定深度の値を1Fδとする。CPU113は、最初に焦点検出結果が得られたフォーカスレンズ104の位置から第2の所定深度まで進むと、一旦焦点検出を停止する。
ここで、最至近焦点検出領域2に係る焦点検出結果を基準として第2の所定深度内でかつ隣接した焦点検出領域があるとする。この場合には、CPU113は最至近焦点検出領域2に係る焦点検出結果を含めて、第2の所定深度内に焦点検出結果を有する焦点検出領域を被写体領域とする。
複数の焦点検出領域を被写体領域とした場合には、CPU113は複数の焦点検出領域に係る焦点検出結果のうち最も近側の焦点検出結果、つまり、最至近焦点検出領域2に係る焦点検出結果を被写体領域の合焦位置として選択する。
なお、上述の例では、第2の所定深度および第1の所定深度をともに1Fδとしたが、第2の所定深度および第1の所定深度は互いに異なるようにしてもよい。
続いて、CPU113は被写体となる焦点検出領域(つまり、被写体領域)があるか否かを判定する(ステップS403)。被写体となる焦点検出領域があると(ステップS403において、YES)、CPU113は、AF処理部106を制御して、後述するスキャン開始位置にフォーカスレンズ104を駆動する(ステップS404)。そして、CPU113は、後述するようにして、背景選択処理と焦点検出処理を行う(ステップS405)。
ここでは、CPU113は、撮影画面に焦点検出領域を配置して、AF処理部106を制御して焦点検出領域毎に焦点検出を行う。そして、CPU113は画像処理部109を制御して、焦点検出結果に基づいて背景となる焦点検出領域を選択する処理を行う。
続いて、CPU113はスイッチSW2がオンであるか否かを判定する(ステップS406)。スイッチSW2がオフであると(ステップS406において、NO)、CPU113は待機する。一方、スイッチSW2がオンとなると(ステップS406において、YES)、CPU113は撮影を実行する。そして、CPU113はぼかし処理が可能な背景領域が存在するか否かを判定する(ステップS407)。なお、背景領域とは、被写体領域を除く焦点検出領域のうちぼかし処理などの所定の処理を行う対象となる焦点検出領域をいう。また、ステップS407の処理は後述する背景選択フラグの設定内容に応じて行われる。
ぼかし処理が可能な背景領域が存在すると(ステップS407において、YES)、CPU113は画像処理部109を制御して、後述する背景ぼかし撮影処理を行う(ステップS408)。そして、CPU113は背景ぼかし処理を終了する。
ぼかし処理が可能な背景領域が存在しないと(ステップS407において、NO)、CPU113は1画像撮影処理、つまり、通常の撮影処理を行う(ステップS409)。そして、CPU113は背景ぼかし処理を終了する。なお、被写体となる焦点検出領域がないと(ステップS403において、NO)、CPU113はステップS409の処理に進む。
<背景選択処理と焦点検出処理>
図5は、図4に示す背景選択処理と焦点検出処理を説明するためのフローチャートである。
CPU113は、AF処理部106を制御して比較基データを取得する(ステップS501)。なお、比較基データとは、後述する背景領域探索デフォーカス範囲(探索範囲)において、最も遠い距離でピントが合う(合焦する)焦点検出結果をいう。
比較基データを取得するため、CPU113は、AF処理部106を制御してスキャン開始位置から至近方向に向かってフォーカスレンズ104を駆動しつつ焦点検出を行って比較基データを取得する。
図6は、図5に示す比較基データの取得を説明するための図である。
図6においては、フォーカスレンズ104の位置が示されている。CPU113は背景領域探索デフォーカス範囲において、フォーカスレンズ104をスキャン開始位置からスキャン終了位置まで無限端Mから至近端Sに向って駆動する。背景領域探索デフォーカス範囲は、被写体領域の合焦位置よりも無限端側に位置し、後縦する第1のデフォーカス量と第2のデフォーカス量とによって規定される。
比較基データを取得する際には、CPU113は、AF処理部106を制御して背景領域探索デフォーカス範囲を設定する。背景領域探索デフォーカス範囲は、背景領域における合焦位置(つまり、フォーカスレンズ104の位置)を探索するために焦点検出を行う範囲をいう。
図6に示すように、CPU113は、スキャン終了位置L2を、被写体領域の合焦位置L1から無限端M側に所定の第1のデフォーカス量だけ離れた位置に設定する。ここでは、第1のデフォーカス量は、例えば、5Fδである。また、CPU113はスキャン開始位置L3を、被写体領域の合焦位置L1から無限端M側に所定の第2のデフォーカス量だけ離れた位置に設定する。ここでは、第2のデフォーカス量は、例えば、20Fδである。
なお、スキャン開始位置L3はスキャン終了位置L2よりも無限端M側に位置し、第2のデフォーカス量は第1のデフォーカス量よりも大きい。
CPU113は、被写体領域の合焦位置L1から無限端M側に第1のデフォーカス量だけ離れた位置から第2のデフォーカス量だけ離れた位置までの範囲を背景領域探索デフォーカス範囲とする。つまり、CPU113は、背景領域探索デフォーカス範囲において無限端M側の位置をスキャン開始位置L3とし、至近端側の位置をスキャン終了位置L2とする。
図示の例では、被写体領域の合焦位置L1より無限端M側にピークが存在し、かつ深度が5Fδ以上で20Fδ以下の範囲が背景領域探索デフォーカス範囲となる。
このように設定する理由は、深度が第1のデフォーカス量よりも小さい場合には、被写体にピントが合うフォーカスレンズ104の位置で撮影を行うと背景領域にもピントが合う。この場合には、画像におけるエッジ成分の差に応じて被写体と背景領域と区別ができないので、深度が第1のデフォーカス量よりも小さい範囲は背景領域とならない。よって、この範囲においては焦点検出を行う必要はない。
一方、深度が第2のデフォーカス量よりも大きい場合には、被写体にピントが合うフォーカスレンズ104の位置で撮影を行うと、深度が第2のデフォーカス量よりも大きい範囲については既に光学的に充分にボケている領域となる。よって、深度が第2のデフォーカス量よりも大きい範囲は背景領域とならない。
図6において、焦点検出動作はスキャン開始位置L3から至近端Sの方向に向かって行われる。ユーザが背景ぼかしモードを選択して撮影を行う際には、背景領域は被写体に対して無限側にあることが多い。よって、CPU113は背景領域が無限端M側に存在するとして、スキャン開始位置L3を背景領域探索デフォーカス範囲において無限端M側に設定する。この結果、高速に背景領域となる焦点検出領域の合焦位置を得ることができる。
このようにして、背景領域の候補となる焦点検出領域について焦点検出動作を行う範囲を、背景領域探索デフォーカス範囲に限定することによって、高速に比較基データを得ることができる。また、スキャン開始位置から焦点検出動作を開始して、最初に焦点検出結果が得られるか又はスキャン終了位置にフォーカスレンズ104が到達するまで焦点検出動作が繰り返される。そして、最初に得られた焦点検出結果が比較基データとされる。
再び図5を参照して、CPU113は比較基データが取得できたか否かを判定する(ステップS502)。比較基データを取得できると(ステップS502において、YES)、CPU113はAF処理部106を制御して焦点検出動作を継続して、比較基データの次に近い距離でピントが合う焦点検出結果を比較対象データとして取得する(ステップS503)。
続いて、CPU113は、比較対象データが取得できたか否かを判定する(ステップS504)。比較対象データを取得できると(ステップS504において、YES)、CPU113は、比較基データを基準として比較対象データが至近端S側に第3の所定深度以下(第3の所定深度内)であるか否かを判定する(ステップS505)。ここでは、第3の所定深度は、例えば、1Fδである。
比較対象データが第3の所定深度内であると(ステップS505において、YES)、CPU113は内蔵する深度内カウンタをカウントアップ(インクリメント)する(ステップS506)。なお、深度内カウンタは、比較基データに対して付加される。
深度内カウンタは、比較基データを基準として第3の所定深度内の焦点検出結果を有する焦点検出領域の数をカウントするカウンタである。このカウント数が大きい程、比較基データを基準として第3の所定深度内の焦点検出結果を有する焦点検出領域が多いことになる。つまり、比較基データが示す焦点検出結果でピントを合わせると、撮影画面の広い範囲においてピントが合うことになる。
次に、CPU113は、フォーカスレンズ104がスキャン終了位置に達したか否かを判定する(ステップS507)。スキャン終了位置に達しないと(ステップS507において、NO)、CPU113はステップS503の処理に戻ってさらに比較対象データを取得する。ここでは、直前に取得した比較対象データの次に近い距離でピントが合う焦点検出結果を比較対象データとして取得することになる。
一方、スキャン終了位置に達すると(ステップS507において、YES)、CPU113は深度内カウンタのカウント数に基づいて、所定の条件を満たす焦点検出領域から背景領域の候補を選択する背景候補選択処理を行う(ステップS508)。なお、背景候補選択処理については後述する。
続いて、CPU113は第1の背景候補(背景候補1)が存在するか否かを判定する(ステップS509)。なお、背景候補1とは、背景候補選択処理において背景候補として選択される焦点検出領域の第1の候補である。
背景候補1が存在しないと(ステップS509において、NO)、CPU113は第2の背景候補(背景候補2)が存在するか否かを判定する(ステップS510)。なお、背景候補2とは、背景候補選択処理において背景候補として選択される焦点検出領域の第2の候補である。
背景候補2が存在しないと(ステップS510において、NO)、CPU113は背景選択フラグをクリアする(ステップS511)。ここでは、背景候補1および背景候補2が存在しない場合には、CPU113はぼかし処理すべき背景領域が存在しないと判定して、背景選択フラグをクリアする。そして、CPU113は背景選択処理と焦点検出処理を終了する。なお、背景選択フラグとは、背景領域候補が選択できたことを示すフラグである。
ステップS502において、比較基データを取得できないと(ステップS502において、NO)、CPU113はステップS511の処理に進む。ここでは、比較基データが存在しないことは、ぼかし処理すべき背景領域がなく背景領域を選択することができないことであるので、CPU113はステップS511の処理に進んで背景選択フラグをクリアする。例えば、撮影画面に背景が写っていない場合には、スキャン開始位置からスキャン終了位置の間において背景となる焦点検出領域では焦点検出結果が得られない。
背景候補2が存在すると(ステップS510において、YES)、CPU113は背景とする焦点検出領域として背景候補2を選択して、背景選択フラグを設定する(ステップS512)。この際、CPU113は比較基データが示す焦点検出結果を背景領域の合焦位置とする。そして、CPU113は背景選択処理と焦点検出処理を終了する。
背景候補1が存在すると(ステップS509において、YES)、CPU113はスキャン動作を停止する(ステップS513)。ここで、スキャン動作の停止とは、背景領域探索デフォーカス範囲において行う焦点検出動作の停止をいう。背景候補1が存在すると判定した時点でスキャン動作の停止を行うことによって、背景領域探索デフォーカス範囲の全範囲について焦点検出を行う場合に比べて、より高速に背景とする焦点検出領域を選択することができる。
続いて、CPU113は、背景とする焦点検出領域として背景候補1を選択し、背景選択フラグを設定する(ステップS514)。この際、CPU113は比較基データが示す焦点検出結果を背景領域の合焦位置とする。そして、CPU113は背景選択処理と焦点検出処理を終了する。
なお、比較対象データを取得できないと(ステップS504において、NO)、CPU113はステップS508の処理に進む。
比較対象データが第3の所定深度内でないと(ステップS505において、NO)、CPU113は背景候補選択処理を行う(ステップS516)。そして、CPU113は背景候補1が存在するか否かを判定する(ステップS517)。背景候補1が存在すると(ステップS517において、YES)、CPU113はステップS513の処理に進んで、フォーカスレンズ104のスキャンを停止する。
背景候補1が存在しないと(ステップS517において、NO)、CPU113は背景候補2が存在するか否かを判定する(ステップS518)。背景候補2が存在しないと(ステップS518において、NO)、CPU113は比較対象データを比較基データとして設定する(ステップS515)。そして、CPU113はステップS503の処理に進んで、さらに比較対象データを取得する。
背景候補2が存在すると(ステップS518において、YES)、CPU113はフォーカスレンズ104がスキャン終了位置に達したか否かを判定する(ステップS519)。スキャン終了位置に達しないと(ステップS519において、NO)、CPU113はステップS515の処理に進んで、比較対象データを比較基データに設定する。
スキャン終了位置に達すると(ステップS519において、YES)、CPU113は背景とする焦点検出領域として背景候補2を選択して、背景選択フラグを設定する(ステップS520)。この際、CPU113は比較基データが示す焦点検出結果を背景領域の合焦位置とする。そして、CPU113は背景選択処理と焦点検出処理を終了する。
<背景候補選択処理>
図7は、図5に示す背景候補選択処理を説明するためのフローチャートである。
CPU113は深度内カウンタのカウント値が第2の所定数以上であるか否かを判定する(ステップS601)。カウント値が第2の所定数以上であると(ステップS601において、YES)、CPU113は深度内カウンタのカウント値が第1の所定数以上であるか否かを判定する(ステップS602)。なお、ここでは、第1の所定数<第1の所定数であり、例えば、第2の所定数=3、第1の所定数=6である。
カウント値が第1の所定数以上であると(ステップS602において、YES)、CPU113は背景候補1が既に設定されているか否かを判定する(ステップS603)。背景候補1が既に設定されていると(ステップS603において、YES)、CPU113は深度内カウンタのカウント値が過去の最も大きいカウント値(後述の最大カウンタ値)よりも大きいか否かを判定する。つまり、CPU113は深度内カウンタのカウント値が最大であるか否かを判定する(ステップS604)。
カウント値が最大であると(ステップS604において、YES)、CPU113は比較基データが示す焦点検出結果を検出した焦点検出領域を背景候補1とする(ステップS605)。その後、CPU113は当該深度内カウンタのカウント値を最大カウンタ値として設定する(ステップS606)。そして、CPU113は背景候補選択処理を終了する。
なお、深度内カウンタのカウント値が第2の所定数未満であると(ステップS601において、NO)、CPU113は背景候補選択処理を終了する。また、背景候補1が未だ設定されていないと(ステップS603において、NO)、CPU113はステップS605の処理に進んで、比較基データが示す焦点検出結果を検出した焦点検出領域を背景候補1とする。深度内カウンタのカウント値が最大でないと(ステップS604において、NO)、CPU113は背景候補選択処理を終了する。
深度内カウンタのカウント値が第1の所定数未満であると(ステップS602において、YES)、CPU113は第3の所定深度内の比較対象データにおいて第3の所定数以上の塊りデータが存在するか否かを判定する(ステップS607)。なお、例えば、第3の所定数=2である。
ここで、塊りデータとは、比較基データを基準として第3の所定深度内の焦点検出結果を有する焦点検出領域のうち互いに隣接する焦点検出領域を示すデータである。塊りデータの存在を判定することによって、例えば、誤った焦点検出の結果、1つのみ無限端M側にピントが合う焦点検出結果を有する焦点検出領域が存在する場合に、当該焦点検出領域が背景領域として選択されることを防止することができる。
塊りデータが存在しないと(ステップS607において、NO)、CPU113は背景候補選択処理を終了する。一方、塊りデータが存在すると(ステップS607において、NO)、CPU113は既に背景候補2が設定されているか否かを判定する(ステップS608)。背景候補2が設定されていると(ステップS608において、YES)、CPU113は背景候補選択処理を終了する。
背景候補2が設定されていないと(ステップS608において、NO)、CPU113は比較基データが示す焦点検出結果を有する焦点検出領域を背景候補2として設定する(ステップS609)。そして、CPU113は背景候補選択処理を終了する。
図8は、図1に示すカメラで選択された背景候補による合焦領域の一例を説明するための図である。そして、図8(a)は背景候補1における焦点検出結果によってピント合わせ可能な領域を示す図であり、図8(b)は背景候補2における焦点検出結果によってピント合わせ可能な領域を示す図である。
図8(a)において、背景候補1であるピント合わせ可能な焦点検出領域は領域803で示されている。当該領域803に被写体に係る焦点検出領域801は含まれていない。背景領域1を用いると、撮影画面においてピント合わせ可能な背景領域を広く選択することが可能となる。つまり、背景候補1を用いると、撮影画面においてピント合わせ可能な領域が広くなる。そして、最も遠い距離にピントが合う焦点検出結果を有する焦点検出領域802は、撮影画面に占める範囲が狭いので選択されない。
図8(b)において、背景候補2であるピント合わせ可能な焦点検出領域は領域806で示されている。当該領域806に被写体に係る焦点検出領域804は含まれていない。背景候補1である領域805と被写体領域804との距離が近いと、画像データのエッジ成分に起因して領域マップを正しく作成することができない。
このような場合には、背景候補2として撮影画面において遠い距離にピントが合い、かつその焦点検出結果が信頼できる背景候補を選択する。そして、当該選択に係る情報は、例えば、前述のステップS515において設定される背景選択フラグに付加する。これによって、前述のステップS407においてぼかし処理可能な背景領域の有無を判定する際に、背景候補1又は背景候補2を選択することができる。
<背景ぼかし撮影処理>
図9は、背景ぼかし撮影処理の際に図2に示す画像処理部109で行われる領域判別処理を説明するためのフローチャートである。
CPU113は被写体領域とする焦点検出領域における焦点検出結果に基づいてフォーカスレンズ104を制御して撮影を行い、画像データ(第1の画像データ)を得る。さらに、CPU113は背景領域とする焦点検出領域における焦点検出結果に基づいてフォーカスレンズ104を制御して撮影を行い、画像データ(第2の画像データ)を得る(ステップS701)。そして、前述のように、第1および第2の画像データは画像処理部109によって所定の画像処理が施される。図2に関連して説明したように、色輝度変換回路208の出力であるYUV信号が領域判別回路209に送られるが、ここでは、説明の便宜上、色輝度変換回路208の出力も第1および第2の画像データと呼ぶ。
図3も参照して、エッジ検出部301は第1の画像データおよび第2の画像データについてそれぞれバンドパスフィルタリング処理を施す。そして、エッジ検出部301はバンドパスフィルタリング処理結果の絶対値を求めて、第1の画像データおよび第2の画像データのエッジ部(以下エッジ情報という)を検出する(ステップS702)。
エッジ減算部302は、第1の画像データに係るエッジ情報から第2の画像データに係るエッジ情報を画素毎に減算する。そして、エッジ減算部302はエッジ差分を有する画像データ(以下エッジ差分画像データと呼ぶ)を生成する(ステップS703)。
続いて、エッジ積分値算出部303はエッジ差分画像データを複数の領域に分割して領域毎にエッジ量を積分する(ステップS704)。そして、エッジ積分値評価部304は領域毎のエッジ量積分値と所定の閾値とを比較して、被写体領域および背景領域のいずれであるかを判定して判定結果を得る(ステップS705)。エッジ量積分値が所定の閾値以上であると、エッジ積分値評価部304はその領域を被写体領域と判定する。一方、エッジ量積分値が所定の閾値未満であると、エッジ積分値評価部304はその領域を背景領域と判定する。
なお、所定の閾値は予め設定された固定値であってもよく、画像データにおけるエッジのヒストグラム分布から適応的に閾値を求めるようにしてもよい。
続いて、領域マップ生成部305は、ステップS705で得られた判定結果に基づいて、被写体領域と背景領域とを判別するための領域マップを生成する(ステップS706)。そして、領域マップが生成されると、CPU113は領域判別回路209による領域判別処理を終了する。
なお、領域マップにおいては、例えば、合成比率が画像データ自体の画素値で表されている。また、境界の段差を目立たなくするため、被写体領域と背景領域との境界にローパスフィルタ処理を施して領域マップを生成するようにしてもよい。
ここで、図1に示す画像処理部109で行われる背景領域のぼかし処理について説明する。
画像処理部109は、撮影によって得られた画像データに特殊フィルタ処理を施してぼけ画像データIMG2を生成する。ここで、特殊フィルタ処理を施す対象の画像データは、前述のステップS701で得られた画像データ(第2の画像データ)である。
特殊フィルタ処理においては、指定されたフィルタ形状に基づいて、撮影によって得られた画像データに対してフィルタリング処理が行われる。このフィルタリング処理では、所定の輝度値を有する画素に予め設定されたゲイン値Kを乗算して、飽和画素における輝度値の補間が行われる。
続いて、画像処理部109は領域マップに基づいて第1の画像データIMG1とぼけ画像データIMG2とを合成処理する。例えば、画像処理部109は領域マップの画素値から求められるα(0≦α≦1)に基づいて、第1の画像データIMG1とぼけ画像データIMG2とを合成して合成画像データBを生成する。ここでは、画像処理部109は合成画像データBの各画素B[i,j]を次の式(1)によって求める。
上記の処理によって得られた合成画像データBは背景ぼかし画像データとして用いられる。
背景ぼかし画像データを得るための処理は上述の処理に限られない。例えば、領域マップに基づいて、第1の画像データにおける背景領域にのみ特殊フィルタ処理を施して、背景ぼかし画像データを取得するようにしてもよい。
また、撮影によって得られた画像データを縮小して、当該縮小した画像データを拡大して元の大きさに戻すことによってぼけ画像データIMG2を生成するようにしてもよい。さらには、撮影によって得られた画像データに対してローパスフィルタ処理を施してぼけ画像データIMG2を生成するようにしてもよい。
加えて、第1の画像データおよび第2の画像データを撮影する順は逆であってもよい。
このように、本発明の実施の形態では、背景領域探索デフォーカス範囲において無限側から至近側に焦点検出を行って、背景領域探索デフォーカス範囲において検出された複数の焦点検出結果から背景領域の合焦位置を選択する。これによって、被写体領域以外の背景領域を特定するまでに要する時間を短縮することができる。
さらには、背景領域とする焦点検出領域の選択の際に、撮影画面において広い領域にピントが合う焦点検出結果に係る焦点検出領域を背景領域とする。これによって、被写体領域以外の焦点検出領域において背景となりうる領域が複数ある場合でも、撮影画面の広い領域を背景領域として選択することができる。この結果、当該広い領域にぼかし処理を施せば、人の感覚に近い感覚で背景領域をぼかすことができる。
また、被写体領域と撮影画面の広い領域である背景領域との距離差が少ない場合には、遠い距離にピントが合う焦点検出結果を有する焦点検出領域が塊りで存在しているか否かを判定して、その判定結果に応じて背景領域を選択する。これによって、誤った焦点検出結果を有する焦点検出領域が背景領域として選択されることを防止することができる。
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
103 AE処理部
104 フォーカスレンズ
106 AF処理部
107 撮像素子
109 画像処理部
113 システム制御部(CPU)
116 操作部
117 撮影モードスイッチ
209 領域判別回路
305 領域マップ生成部

Claims (11)

  1. フォーカスレンズを備える撮像光学系を介して撮像して得られた画像データにおいて特定の領域と当該特定の領域以外の他の領域を判別する領域判別装置であって、
    前記画像データが示す画像に設定された複数の焦点検出領域の各々において前記フォーカスレンズの焦点状態を検出して焦点検出結果を得る焦点検出手段と、
    前記特定の領域の合焦位置から無限端側に第1の距離だけ離れた第1の位置と前記合焦位置から無限端側に前記1の距離よりも大きい第2の距離だけ離れた第2の位置とに基づいて前記フォーカスレンズの探索範囲を規定し、前記探索範囲における前記焦点検出結果に応じて前記他の領域を判別する判別手段と、
    を有することを特徴とする領域判別装置。
  2. 前記判別手段は、前記探索範囲において前記焦点検出手段によって前記フォーカスレンズを無限端側から至近端側に移動させて得られた前記焦点検出結果に応じて前記他の領域を判別することを特徴とする請求項1に記載の領域判別装置。
  3. 前記焦点検出手段は、前記判別手段により前記他の領域が判別された場合、前記フォーカスレンズが前記探索範囲の端まで達していなくても、前記焦点検出結果の取得を終了することを特徴とする請求項1又は2に記載の領域判別装置。
  4. 前記第1の距離および前記第2の距離の各々は、絞り値および許容錯乱円に基づいて設定されることを特徴とする請求項1乃至3のいずれか1項に記載の領域判別装置。
  5. 前記判別手段は、前記探索範囲において所定の焦点検出結果を基準として所定の被写界深度内の焦点検出結果の数に応じて前記他の領域を判別することを特徴とする請求項1乃至4のいずれか1項に記載の領域判別装置。
  6. 前記判別手段は、前記探索範囲において所定の焦点検出結果を基準として所定の被写界深度内の焦点検出結果の数が所定の数以上である場合に、前記所定の被写界深度内の焦点検出結果を有する焦点検出領域を前記他の領域と判別することを特徴とする請求項5に記載の領域判別装置。
  7. 前記特定の領域は被写体を示す被写体領域であり、前記他の領域は背景を示す背景領域であることを特徴とする請求項1乃至6のいずれか1項に記載の領域判別装置。
  8. 請求項1乃至7のいずれか1項に記載の領域判別装置と、
    フォーカスレンズを備える撮像光学系を介して撮像を行う撮像手段と、
    前記撮像手段で得られた画像データについて前記他の領域をぼかすぼかし処理を行う処理手段と、
    を有することを特徴とする撮像装置。
  9. 前記処理手段は前記領域判別装置で判別された前記他の領域にぼかし処理を施して得られたぼかし画像データと前記画像データとを合成処理することを特徴とする請求項8に記載の撮像装置。
  10. フォーカスレンズを備える撮像光学系を介して撮像して得られた画像データにおいて特定の領域と当該特定の領域以外の他の領域を判別する領域判別装置の制御方法であって、
    前記画像データが示す画像に設定された複数の焦点検出領域の各々において前記フォーカスレンズの焦点状態を検出して焦点検出結果を得る焦点検出ステップと、
    前記特定の領域の合焦位置から無限端側に第1の距離だけ離れた第1の位置と前記合焦位置から無限端側に前記1の距離よりも大きい第2の距離だけ離れた第2の位置とに基づいて前記フォーカスレンズの探索範囲を規定し、前記探索範囲における前記焦点検出結果に応じて前記他の領域を判別する判別ステップと、
    を有することを特徴とする制御方法。
  11. フォーカスレンズを備える撮像光学系を介して撮像して得られた画像データにおいて特定の領域と当該特定の領域以外の他の領域を判別する領域判別装置で用いられる制御プログラムであって、
    前記領域判別装置が備えるコンピュータに、
    前記画像データが示す画像に設定された複数の焦点検出領域の各々において前記フォーカスレンズの焦点状態を検出して焦点検出結果を得る焦点検出ステップと、
    前記特定の領域の合焦位置から無限端側に第1の距離だけ離れた第1の位置と前記合焦位置から無限端側に前記1の距離よりも大きい第2の距離だけ離れた第2の位置とに基づいて前記フォーカスレンズの探索範囲を規定し、前記探索範囲における前記焦点検出結果に応じて前記他の領域を判別する判別ステップと、
    を実行させることを特徴とする制御プログラム。
JP2016189766A 2016-09-28 2016-09-28 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置 Pending JP2018054815A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016189766A JP2018054815A (ja) 2016-09-28 2016-09-28 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016189766A JP2018054815A (ja) 2016-09-28 2016-09-28 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置

Publications (1)

Publication Number Publication Date
JP2018054815A true JP2018054815A (ja) 2018-04-05

Family

ID=61835696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016189766A Pending JP2018054815A (ja) 2016-09-28 2016-09-28 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置

Country Status (1)

Country Link
JP (1) JP2018054815A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108431A (ja) * 2019-12-27 2021-07-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、制御方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021108431A (ja) * 2019-12-27 2021-07-29 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、制御方法、及びプログラム

Similar Documents

Publication Publication Date Title
EP2608527B1 (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
JP5546692B2 (ja) 撮影装置、撮影方法およびプログラム
CN108462830B (zh) 摄像装置及摄像装置的控制方法
JP6223059B2 (ja) 撮像装置、その制御方法およびプログラム
JP2008271241A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
US10395348B2 (en) Image pickup apparatus, image processing apparatus, and control method of image pickup apparatus
JP5237721B2 (ja) 撮像装置
JP2008271240A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP7285791B2 (ja) 画像処理装置、および出力情報制御方法、並びにプログラム
JP2007124279A (ja) 画像処理装置
JP4645413B2 (ja) 撮像装置
JP4760302B2 (ja) 撮像装置
JP2016032181A (ja) 画像処理装置、撮像装置および画像処理方法
JP2013041117A (ja) 撮像装置および距離情報取得方法
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP2007124399A (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP2017143354A (ja) 画像処理装置及び画像処理方法
JP6748847B2 (ja) 撮像装置
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2007124278A (ja) 撮像装置
JP2013042375A (ja) 撮像装置および距離情報取得方法
JP2016059051A (ja) 撮像装置および距離情報取得方法
JP2018054815A (ja) 領域判別装置、その制御方法、および制御プログラム、並びに撮像装置
JP5403087B2 (ja) 画像処理装置
JP2017163412A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム